
La mémoire serveur prend un nouveau virage avec un module de 256 Go capable d’atteindre 9 200 MT/s. Derrière ce bond, l’enjeu est clair : faire tenir davantage de capacité et de bande passante dans les contraintes thermiques et électriques des serveurs IA actuels.
Une DDR5 RDIMM taillée pour les serveurs IA
Micron a commencé l’échantillonnage de modules 256 GB DDR5 RDIMM auprès de partenaires clés de l’écosystème serveur. Cette barrette s’appuie sur la DRAM 1-gamma du fabricant et vise une vitesse maximale de 9 200 MT/s, soit plus de 40 % de mieux que les modules actuellement produits en volume.
Pour atteindre cette densité, Micron utilise un assemblage avancé avec 3D stacking et plusieurs dies mémoire reliés par TSV via des structures 3DS. L’objectif n’est pas seulement de pousser les débits, mais aussi d’augmenter la capacité par module tout en améliorant le rendement énergétique dans les plateformes IA et HPC.
Le constructeur avance qu’un seul module de 256 Go peut réduire la consommation de plus de 40 % par rapport à deux modules de 128 Go. Pour les centres de données, le bénéfice est double : moins de puissance absorbée et moins de slots occupés pour une même capacité totale.
Validation en cours avec l’écosystème serveur
Micron indique travailler avec plusieurs acteurs majeurs de l’écosystème afin de valider cette DDR5 RDIMM 256 Go sur les plateformes serveur actuelles et de prochaine génération. Cette phase de co-validation doit sécuriser la compatibilité à grande échelle et accélérer le passage à la production chez les clients du datacenter.
Des besoins mémoire tirés par les LLM et l’inférence
La montée en charge des LLM, de l’agentic AI, de l’inférence temps réel et des processeurs à très grand nombre de cœurs pousse les besoins simultanément sur trois axes : capacité, bande passante et efficacité énergétique. C’est précisément sur ce triptyque que se place Micron, en visant les architectes serveur, les hyperscalers et les partenaires plateforme qui cherchent à maximiser la mémoire par socket sans sortir des limites de puissance et de refroidissement.
À ce stade, le module 1-gamma de 256 Go est en phase d’échantillonnage. Aucune date de disponibilité commerciale n’a encore été communiquée, mais le positionnement est limpide : répondre aux nœuds IA où la DRAM système redevient un facteur limitant, en complément de la mémoire attachée aux accélérateurs.
Ce type d’annonce montre aussi que la bataille de l’IA ne se joue pas seulement sur les GPU. Entre la capacité par DIMM, la vitesse mémoire et la consommation par serveur, la DRAM redevient un levier direct sur la densité utile des racks, donc sur le coût réel du déploiement à grande échelle.
Source : TechPowerUp