
Samsung a récemment annoncé dans son rapport de gouvernance d’entreprise que le comité de gestion de son conseil d’administration a approuvé une proposition d’investissement dans un projet de GPU le 19 mars de cette année. Les détails spécifiques de cette décision restent flous, mais les sujets discutés diffèrent des discussions typiques de l’industrie des semi-conducteurs.
Ce premier investissement dans les GPU depuis la divulgation publique de ce projet en 2012 a suscité des spéculations sur la volonté de Samsung de renforcer sa compétitivité dans le domaine des GPU. Actuellement, Samsung collabore avec AMD pour développer des GPU pour les SoC de smartphones et mène également des projets GPU pour les mémoires HBM, afin de répondre aux besoins de calcul de l’intelligence artificielle (IA).
Samsung HBM-PIM (processing-in-memory)
Précédemment, Samsung a introduit des puces HBM-PIM (processing-in-memory), intégrant un processeur IA dans chaque module de mémoire, capable d’exécuter des opérations de CPU, GPU, ASIC ou FPGA avec une capacité de calcul intégrée allant jusqu’à 1.2 TFLOPS.
Des analystes suggèrent que cette stratégie interne de Samsung vise à utiliser la technologie GPU pour améliorer les procédés des semi-conducteurs plutôt que de développer des GPU grand public. En mars 2024, lors du GTC (Graphics Technology Conference), Samsung a annoncé sa collaboration continue avec NVIDIA pour développer, d’ici 2030, une technologie de jumeau numérique basée sur l’IA pour les usines de semi-conducteurs entièrement automatisées, améliorant ainsi l’efficacité de la fabrication de semi-conducteurs.
Samsung construit également un centre de calcul haute performance (HPC) à Hwaseong, qui pourrait inclure à l’avenir des puces GPU développées en interne. Cet investissement significatif dans les projets GPU souligne l’importance croissante de l’IA et du calcul dans la stratégie de Samsung.