
La course à la mémoire AI s’intensifie, avec une cible claire : rapprocher capacité et bande passante du calcul. Les premiers à réussir imposeront le format.
SOCAMM2 dans le viseur de Qualcomm et AMD
Qualcomm et AMD évaluent l’intégration de mémoire SOCAMM2 dans leurs gammes dédiées à l’IA, avec l’objectif d’augmenter à la fois la capacité et la vitesse. Le mouvement intervient dans le sillage du CPU “Vera” de NVIDIA, qui adopte de la LPDDR5X sur un facteur SOCAMM et revendique 1,2 TB/s de bande passante mémoire, jusqu’à 1,5 TB de LPDDR5X.
Le principe : constituer un pool mémoire rapide au plus près des accélérateurs, en complément des piles HBM, afin de conserver des modèles entiers en RAM et limiter les allers-retours vers le stockage flash. NVIDIA entoure son CPU de plusieurs modules SOCAMM ; Qualcomm et AMD devraient adopter un schéma similaire.
SOCAMM2 face aux architectures actuelles
Chez AMD, l’association Instinct MI et EPYC apparaît comme première candidate, même si un nouveau design n’est pas exclu. Côté Qualcomm, les cartes d’inférence AI200 et AI250 intègrent déjà jusqu’à 768 GB de LPDDR5 par carte : l’arrivée de SOCAMM permettrait d’industrialiser l’extension via des modules standardisés plutôt qu’un soudage à la carte.
Au-delà du gain de bande passante, SOCAMM2 offrirait une granularité produit : décliner des configurations en ajoutant ou retirant des modules, sans lourds reworks PCB. Objectif : des systèmes IA haute capacité et haute vitesse, avec une mémoire proche du calcul et des coûts d’intégration maîtrisés.
Si l’écosystème suit, SOCAMM2 pourrait devenir le pivot entre HBM et le stockage, imposant un standard modulaire côté CPU/accelerator et redéfinissant l’équilibre capacité/latence pour l’inférence et l’entraînement à grande échelle.
Source : TechPowerUp