
- Samsung HBM4 sudah terintegrasi ke dalam platform demonstrasi Rubin Nvidia
- Sinkronisasi produksi mengurangi risiko penjadwalan untuk penerapan akselerator AI yang besar
- Bandwidth memori menjadi kendala utama bagi sistem AI generasi berikutnya
Samsung Elektronik dan Nvidia dilaporkan bekerja sama untuk mengintegrasikan modul memori HBM4 generasi berikutnya dari Samsung ke dalam Nvidia Vera Rubin Akselerator AI.
Laporan mengatakan kolaborasi ini mengikuti jadwal produksi yang disinkronkan, dengan Samsung menyelesaikan verifikasi untuk Nvidia dan AMD dan mempersiapkan pengiriman massal pada Februari 2026.
Modul HBM4 ini ditetapkan untuk segera digunakan dalam demonstrasi kinerja Rubin menjelang peluncuran resmi GTC 2026.
Integrasi teknis dan inovasi bersama
HBM4 Samsung beroperasi pada 11,7 Gb/s, melebihi persyaratan yang dinyatakan Nvidia dan mendukung bandwidth memori berkelanjutan yang diperlukan untuk beban kerja AI tingkat lanjut.
Modul-modul tersebut menggabungkan cetakan berbasis logika yang diproduksi menggunakan proses 4nm Samsung, yang memberikan kontrol lebih besar terhadap jadwal produksi dan pengiriman dibandingkan dengan pemasok yang bergantung pada pabrik pengecoran eksternal.
Nvidia telah mengintegrasikan memori ke dalam Rubin dengan memperhatikan lebar antarmuka dan efisiensi bandwidth, yang memungkinkan akselerator mendukung komputasi paralel skala besar.
Selain kompatibilitas komponen, kemitraan ini menekankan integrasi tingkat sistem, karena Samsung dan Nvidia mengoordinasikan pasokan memori dengan produksi chip, yang memungkinkan pengiriman HBM4 disesuaikan dengan jadwal produksi Rubin.
Pendekatan ini mengurangi ketidakpastian waktu dan kontras dengan rantai pasokan pesaing yang bergantung pada fabrikasi pihak ketiga dan logistik yang kurang fleksibel.
Di dalam server berbasis Rubin, HBM4 dipasangkan dengan kecepatan tinggi penyimpanan SSD untuk menangani kumpulan data besar dan membatasi kemacetan pergerakan data.
Konfigurasi ini mencerminkan fokus yang lebih luas pada kinerja end-to-end, dibandingkan mengoptimalkan komponen individual secara terpisah.
Bandwidth memori, throughput penyimpanan, dan desain akselerator berfungsi sebagai elemen yang saling bergantung dari keseluruhan sistem.
Kolaborasi ini juga menandakan pergeseran posisi Samsung dalam pasar memori bandwidth tinggi.
HBM4 kini siap untuk diadopsi secara dini pada sistem Rubin Nvidia, menyusul tantangan sebelumnya dalam mengamankan pelanggan AI utama.
Laporan menunjukkan bahwa modul Samsung berada di urutan pertama untuk penerapan Rubin, menandai pembalikan dari keraguan sebelumnya mengenai penawaran HBM-nya.
Kolaborasi ini mencerminkan meningkatnya perhatian pada kinerja memori sebagai faktor kunci untuk generasi berikutnya alat AI dan aplikasi intensif data.
Demonstrasi yang direncanakan untuk Nvidia GTC 2026 pada bulan Maret diperkirakan akan memasangkan akselerator Rubin dengan memori HBM4 dalam pengujian sistem langsung. Fokusnya akan tetap pada kinerja terintegrasi daripada spesifikasi yang berdiri sendiri.
Pengiriman pelanggan awal diharapkan mulai Agustus. Waktu ini menunjukkan keselarasan antara produksi memori dan peluncuran akselerator seiring dengan meningkatnya permintaan infrastruktur AI.
Melalui Teknologi WCCF
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



