Theo lời giới thiệu của Chủ tịch Jensen Huang, phiên bản chip AI mới có thể xử lý một số tác vụ nhanh gấp 30 lần so với thế hệ cũ, một thông số đáng kinh ngạc.

Reuters đưa tin Nvidia vừa công bố loại chip AI mới mang tên Blackwell B200, tại hội nghị thường niên do công ty này tổ chức ngày 18-3. Điểm nổi bật của Blackwell B200 là tốc độ xử lý vượt trội so với Hopper H100.

Blackwell B200 sở hữu 208 tỉ bóng bán dẫn, cung cấp khả năng xử lý AI lên đến 20 petaflop (20 triệu tỉ phép tính mỗi giây). So sánh với Hopper H100, số lượng bóng bán dẫn của con chip mới tăng gấp đôi (80 tỉ) và khả năng xử lý tăng gấp 5 (4 petaflop mỗi giây).

Chủ tịch Jensen Huang cho biết B200 xử lý một số tác vụ nhanh gấp 30 lần, đồng thời giảm 25 lần chi phí và mức tiêu thụ năng lượng so với H100.

Chủ tịch Jensen Huang giới thiệu chip Blackwell B200 tại sự kiện thường niên diễn ra vào ngày 18-3 – Ảnh: BLOOMBERG

Hopper tuyệt vời nhưng chúng ta cần GPU lớn hơn”, ông Huang nói.

Theo ông Huang, trước đây một mô hình AI 1.800 tham số cần đến 8.000 GPU và 15MW. Giờ đây mô hình đó chỉ cần 2.000 GPU B200 và 4MW để thực hiện khối lượng công việc tương tự.

Hãng hướng đến đối tượng khách hàng mua số lượng lớn bằng cách đóng gói nhiều chip thành một “siêu chip” gọi là GB200 NVL72. Bên trong gói là 72 chip AI, 36 bộ xử lý trung tâm và 600.000 bộ phận, cung cấp khả năng xử lý lên đến 1.440 petaflop hay 1,4 hexaflop.

Nvidia chưa công bố giá của B200 và GB200, nhưng tiết lộ những ông lớn công nghệ như Amazon, Google, Microsoft và Oracle sẽ sử dụng GB200 cho trung tâm dữ liệu của họ.

Theo các nhà phân tích, H100 của Nvidia có giá từ 25.000 đến 40.000 USD mỗi đơn vị và toàn bộ hệ thống có giá lên tới 200.000 USD.

Bên cạnh B200, Nvidia còn giới thiệu phần mềm mới gọi là NIM. Bộ công cụ này cho phép người dùng dễ dàng kết hợp mô hình AI vào công việc cũng như nhiều mục đích khác.

Đọc thêm: