• Micron memperkenalkan modul LPDDR5x 256GB padat yang ditujukan khusus untuk server AI
  • Delapan modul SOCAMM2 dapat mendorong kapasitas memori server hingga 2TB
  • Beban kerja inferensi AI semakin menggeser hambatan kinerja terhadap kapasitas memori sistem

Model bahasa besar (LLM) dan jalur inferensi modern semakin menuntut kumpulan memori yang sangat besar, memaksa vendor perangkat keras untuk memikirkan kembali arsitektur memori server.

Micron kini telah memperkenalkan modul memori SOCAMM2 256GB yang ditujukan untuk pusat data sistem di mana kapasitas, bandwidth, dan efisiensi daya semuanya mempengaruhi kinerja secara keseluruhan.





Tautan sumber