
Micron vient de franchir une étape importante en lançant la phase d’échantillonnage de sa mémoire HBM3 Gen2 de prochaine génération. Cette démarche est appréciée chez son partenaire historique NVIDIA qui a commencé à recevoir les échantillons, et cela en raison des améliorations notables apportées en termes de performances et d’efficacité. Cette évolution place Micron aux côtés de SK Hynix dans la production de mémoire de nouvelle génération, avec NVIDIA comme principal bénéficiaire de la HBM3 Gen2.
Cependant, lors d’une récente annonce de résultats, Micron a prévu une perte plus prononcée pour le prochain trimestre en raison de la diminution de la demande sur le marché grand public de la mémoire. Toutefois, une lueur d’espoir est apparue grâce à la collaboration étroite entre Micron et NVIDIA. Ils projettent de lancer la mémoire HBM3 Gen2 à haute bande passante dans les futurs GPU AI et HPC de Team Green au cours du premier semestre 2024.

Micron mise sur l’engouement pour l’intelligence artificielle AI pour redresser sa situation financière, et le PDG de l’entreprise, Sanjay Mehrotra, est optimiste quant à la génération de « millions de dollars » de revenus grâce à l’industrie de l’IA.
Mémoire HBM3 Gen2
La prochaine génération de la technologie HBM3 de Micron, baptisée « HBM3 Gen2« , offre des caractéristiques impressionnantes, notamment un processus de nœud 1β, des vitesses plus élevées et des capacités accrues. Le premier lot de HBM3 de deuxième génération propose une conception 8-Hi, offrant une capacité allant jusqu’à 24 Go et une bande passante dépassant 1,2 To/s, avec une amélioration de près de 2,5 fois les performances par watt par rapport à la génération précédente. De plus, la DRAM fonctionnera à une vitesse de 9,2 Gb/s, soit une augmentation de 50% par rapport à la norme « HBM3 » de 4,6 Gb/s.

Micron a également des projets ambitieux pour l’avenir, avec une conception « 12-Hi » en perspective. Cela témoigne de son désir de gagner une part significative du marché de la HBM grâce à l’adoption rapide des normes de nouvelle génération.
Cette nouvelle est également une excellente nouvelle pour les fabricants de puces d’intelligence artificielle, car ils auront désormais un choix élargi entre les modules HBM3 Gen2/HBM3e de Micron, Samsung et SK Hynix.
Sumit Sadana, qui dirige les activités de Micron, insiste sur la supériorité de leur offre par rapport à celle de leurs concurrents, notamment en termes de consommation d’énergie réduite et de performances supérieures. Cette supériorité a été confirmée par des clients sceptiques, qui n’ont été convaincus qu’après avoir effectué leurs propres tests.
En réponse à la demande croissante dans le secteur de l’intelligence artificielle, NVIDIA cherche à élargir sa chaîne d’approvisionnement, ce qui crée des opportunités passionnantes pour des entreprises telles que Micron et Samsung, désireuses de saisir cette opportunité prometteuse.
Retrouvez l’actualité hardware ici