Nvidia siapkan GPU AI dengan memori HBM3E 144 GB

Oleh: Erlanmart - Kamis, 08 Agst 2024 11:03 WIB

Nvidia tengah menggarap GPU B100 dan B200 generasi berikutnya yang berbasis pada arsitektur Blackwell.

Nvidia tengah menggarap GPU B100 dan B200 generasi berikutnya yang berbasis pada arsitektur Blackwell. GPU baru ini diharapkan akan hadir di pasaran pada paruh kedua tahun ini dan akan digunakan untuk pelanggan cloud CSP.

Dilansir dari Gizmochina (8/8), "pelanggan cloud CSP" merujuk pada pelanggan yang menggunakan Cloud Service Providers (CSP) untuk kebutuhan komputasi cloud mereka. Perusahaan ini juga akan menambahkan versi B200A yang lebih ramping untuk pelanggan perusahaan OEM dengan kebutuhan AI edge.

Dilaporkan bahwa kapasitas pengemasan CoWoS-L dari TSMC (yang digunakan oleh seri B200) terus terbatas. Disebutkan bahwa B200A akan beralih ke teknologi pengemasan CoWoS-S yang relatif sederhana. Perusahaan tersebut berfokus pada B200A untuk memenuhi persyaratan Cloud Service Providers.

Sayangnya, spesifikasi teknis B200A belum sepenuhnya jelas. Untuk saat ini, yang dapat dipastikan hanyalah bahwa kapasitas memori HBM3E dikurangi dari 192 GB menjadi 144 GB. Dilaporkan juga bahwa jumlah lapisan chip memori dikurangi setengahnya dari delapan menjadi empat. Meskipun demikian, kapasitas satu chip ditingkatkan dari 24 GB menjadi 36 GB.

Konsumsi daya B200A akan lebih rendah daripada GPU B200 dan tidak memerlukan pendinginan cair. Sistem pendingin udara pada GPU baru ini juga akan membuatnya lebih mudah diatur. B200A diharapkan akan dipasok ke produsen OEM sekitar kuartal kedua tahun depan.