Chip AI Nvidia Blackwell: Nghiên cứu mất 10 tỷ USD, gia công tốn 6000 USD, bán từ 30 – 40 nghìn USD

Với việc đã đầu tư hàng tỷ USD vào việc phát triển kiến trúc GPU mới, Nvidia có thể sẽ thu lại số vốn này bằng cách bán GPU B200 với mức giá cao, lên đến vài lần so với chi phí sản xuất tại TSMC, tương tự như hai thế hệ chip H100 và H200 trước đây. Theo các nguồn tin không chính thức, GPU Nvidia H200, dựa trên kiến trúc Hopper, có chi phí sản xuất khoảng 4500 USD, nhưng sẽ được bán ra thị trường với mức giá từ 25 đến 40 nghìn USD mỗi chip.
Một số thông tin cho biết, Nvidia đã đầu tư 10 tỷ USD vào dự án Blackwell để phát triển kiến trúc GPGPU mới này, vì vậy kỳ vọng về hiệu suất xử lý của chip này rất lớn, ít nhất phải gấp đôi so với H200.
Với số tiền đầu tư này, Nvidia muốn đảm bảo tỷ suất hoàn vốn (ROI) cao. Theo CNBC, CEO Jensen Huang của Nvidia cho biết mỗi GPU Blackwell B200 sẽ được bán với mức giá từ 30 đến 40 nghìn USD.
Một nguồn tin khác cho biết, mỗi chip B200 với 2 die GPU thiết kế MCM có chi phí sản xuất hơn 6 nghìn USD, đắt hơn cả chip Hopper H200. Lý do Nvidia chọn thiết kế chiplet là vì mỗi die trên chip B200 có kích thước lớn nhất có thể gia công trên tiến trình 4NP của TSMC. Để đạt được sức mạnh xử lý AI gấp đôi hoặc gấp nhiều lần so với Hopper, Nvidia đã chọn giải pháp ghép 2 die GPU lại để tạo ra một con chip hoàn chỉnh.
GPU B200 có 104 tỷ transistor trên mỗi die GPU, tổng cộng 2 die MCM là 208 tỷ transistor, chia thành 160 Stream Microprocessor, tức 20480 nhân CUDA. Chip này được gia công bởi Synopsys và TSMC, sử dụng công nghệ và thư viện phần mềm CuLitho của Nvidia, kết hợp với sức mạnh của máy tính để tăng tốc quá trình phát triển chip. So với Hopper, B200 có nhiều transistor hơn lên đến 128 tỷ transistor. Sức mạnh xử lý số thực dấu phẩy động FP8 và FP6 của B200 nhanh gấp 2.5 lần, xử lý FP4 nhanh gấp 5 lần so với H200.
Trên bề mặt của chip là 8 stack chip nhớ HBM3e, dung lượng tối đa 192GB, tốc độ 8TB/s, chạy trên giao diện bus 8192-bit. Công suất tiêu thụ điện tối đa của chip này lên đến 700W, tuy nhiên con số này tương đương với H100 và H200 đang có trên thị trường, được sử dụng trong các hệ thống trung tâm dữ liệu vận hành mô hình AI của các tập đoàn lớn
.IT Xanh cảm ơn đã đọc bài viết, mong các thông tin trên có thể giúp ích cho bạn – Kham khảo thêm nhiều thủ thuật hay và bổ ích cùng IT Xanh

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *