
Et si un accélérateur bousculait à la fois les GPU NVIDIA et les CPU Intel dans le HPC et l’IA ? NextSilicon détaille Maverick-2, sa carte de calcul « Intelligent Compute Accelerator », et annonce Arbel, un processeur RISC-V maison.
Maverick-2 vise le sommet du HPC et de l’IA
Fondée en 2017, NextSilicon affirme que Maverick-2, gravé en 5 nm chez TSMC, surpasse le GPU NVIDIA HGX B200 et les Xeon Sapphire Rapids d’Intel sur des charges HPC et IA. La carte existe en version PCIe mono-die avec 96 Go de HBM3e (300 W) ou en module OAM bi-die avec 192 Go de HBM3e (600 W). D’après des mesures internes, la puce offrirait jusqu’à 4 fois plus de performance FP64 par watt que l’HGX B200 et plus de 20 fois l’efficacité des Xeon Sapphire Rapids.

Sur le benchmark GUPS, Maverick-2 atteint 32,6 GUPS pour 460 W, ce qui serait 22 fois plus rapide que des CPU et 6 fois plus rapide que des GPU. Sur HPCG, la société annonce 600 GFLOPS à 750 W, avec une consommation environ réduite de moitié face aux solutions concurrentes. Il faut dire que l’architecture repose sur un modèle dataflow où l’« overhead » de gestion est déplacé du matériel vers un logiciel adaptatif, de sorte que la majorité du silicium soit consacrée au calcul plutôt qu’à la logique de contrôle. Comme le résume NextSilicon, « la surface utile sert d’abord le calcul, pas la bureaucratie matérielle ».
Deux formats, HBM3e à la clé

Le modèle PCIe mono-die embarque 96 Go de HBM3e pour 300 W, quand la variante OAM double la mise avec 192 Go pour 600 W. Reste à voir si ces chiffres internes se confirmeront sur des suites de tests indépendantes, notamment en IA générative et en calcul mixte.
Arbel, le pari RISC-V de NextSilicon
En parallèle, la société dévoile Arbel, un CPU d’entreprise basé sur RISC-V, lui aussi en 5 nm chez TSMC. Selon NextSilicon, ce cœur dépasserait déjà les conceptions RISC-V actuelles, ainsi que les cœurs Intel Lion Cove et AMD Zen 5.

Côté micro-architecture, Arbel aligne un pipeline 10-wide, un ROB de 480 entrées pour maximiser l’occupation des unités, une fréquence de 2,5 GHz, jusqu’à 16 instructions scalaires exécutées en parallèle et quatre unités vectorielles 128 bits. On trouve également 64 Ko de cache L1 et un large L3 partagé pour maintenir un fort débit mémoire et réduire la latence.
Aucune date de sortie ni benchmarks complets n’ont été fournis. D’après l’entreprise, Arbel marque une étape vers une plate-forme silicium ouverte et pilotée par le logiciel pour les futurs systèmes HPC et IA. Rien d’étonnant à ce que l’éditeur insiste : l’approche software-adaptive semble être son fil rouge.
Source : NextSilicon