
Micron accélère sur la mémoire à faible consommation dédiée à l’IA. Ses modules SOCAMM2, désormais en phase d’échantillonnage, atteignent jusqu’à 192 Go par barrette LPDDR5X et annoncent un gain énergétique significatif pour les data centers. Cette présentation intervient quelques jours seulement après la finalisation par la JEDEC du standard JESD328, officialisant les modules SOCAMM2 LPDDR5X destinés aux applications d’intelligence artificielle.
SOCAMM2 : plus de capacité, moins d’énergie
Évolution directe du premier SOCAMM, le SOCAMM2 augmente la capacité de 50 % à encombrement identique. Pensé pour les charges IA gourmandes en bande passante et en mémoire, il s’appuie sur de la LPDDR5X afin de combiner débit élevé et consommation contenue, un point clé pour maîtriser les thermiques côté serveur.

D’après Micron, cette hausse de capacité peut réduire le délai avant le premier jeton en inférence temps réel de plus de 80 %. Le fabricant précise aussi que le passage à son procédé DRAM 1-gamma vise plus de 20 % de baisse de consommation par rapport à la génération précédente. Rien d’étonnant à ce que les exploitants de racks IA, souvent équipés de plusieurs téraoctets de mémoire, y voient un potentiel de réduction d’énergie non négligeable.

Travaillant avec NVIDIA sur l’intégration de DRAM basse consommation dans les serveurs, Micron destine ces modules aux plateformes gérant de larges fenêtres de contexte. Le constructeur avance que le SOCAMM2 consomme plus de deux tiers de moins qu’une configuration RDIMM équivalente, tout en n’occupant qu’environ un tiers de l’espace sur la carte. Moins d’énergie, plus compact : un duo qui pourrait aussi faciliter les architectures à refroidissement liquide.

Caractéristiques et disponibilité
Les échantillons atteignent jusqu’à 192 Go par module, à des vitesses allant jusqu’à 9,6 Gbit/s. La production de masse suivra le calendrier des partenaires. Il faut dire que l’orientation est claire : les SOCAMM2 visent uniquement les plateformes de centres de données. Micron n’indique aucun plan pour le grand public ou le desktop.
Micron résume l’enjeu ainsi : « une DRAM à faible consommation pour des serveurs IA à large contexte ». Reste à voir si cette approche, combinant densité et frugalité, s’imposera face aux RDIMM classiques dans les prochaines vagues d’inférence à grande échelle.
Source : VideoCardz