
Le prochain goulot d’étranglement de l’IA ne se joue pas uniquement sur les GPU. Meta vient d’acter un déploiement massif de processeurs AWS Graviton, signe que les charges liées à l’IA agentique déplacent aussi la bataille vers le CPU.
L’accord prévoit un démarrage avec des dizaines de millions de cœurs Graviton, avec une marge d’extension à mesure que les besoins de Meta progressent. Les puces seront utilisées sur plusieurs charges internes, dont le support de ses efforts IA, avec un accent clair sur les traitements CPU-intensifs comme le raisonnement en temps réel, la génération de code, la recherche et l’orchestration de tâches en plusieurs étapes.
AWS Graviton prend une place stratégique dans l’infrastructure de Meta
Le partenariat entre les deux groupes ne date pas d’hier, mais il change ici de dimension. Meta explique vouloir diversifier ses sources de calcul, tandis qu’AWS pousse une idée de plus en plus présente dans l’industrie : l’essor de l’IA agentique ne crée pas seulement une demande en accélérateurs, il fait aussi exploser les besoins en processeurs généralistes capables d’absorber des milliards d’interactions et de coordonner des workflows complexes.
Graviton5 est précisément positionné sur ce terrain. AWS met en avant une puce dotée de 192 cœurs et d’un cache 5 fois plus large que celui de la génération précédente, avec une réduction des délais de communication entre cœurs pouvant atteindre 33 %. Le gain annoncé sur les performances atteint 25 % face à la génération antérieure.
Pourquoi l’IA agentique pousse aussi vers le CPU
Dans le discours d’AWS comme dans celui de Meta, le point clé est là : entraîner de grands modèles reste un domaine dominé par les GPU, mais faire fonctionner des agents capables de raisonner, planifier et exécuter des séquences d’actions à grande échelle implique une masse de traitements où le CPU redevient central. Cela inclut la génération de code, le raisonnement temps réel, la recherche, ainsi que la coordination de tâches réparties sur de nombreux processeurs.
Nitro, bare metal et interconnexion à faible latence
Les instances Graviton s’appuient sur le AWS Nitro System, qui combine matériel et logiciel dédiés pour la performance, la disponibilité et la sécurité. AWS souligne que Nitro permet des instances bare metal avec un accès direct au matériel, tout en conservant les périphériques familiers Elastic Network Adapter (ENA) et Amazon Elastic Block Store (Amazon EBS), ce qui permet à Meta d’exécuter ses propres machines virtuelles sans compromis notable sur les performances.
Les instances Graviton5 prennent aussi en charge Elastic Fabric Adapter (EFA), afin d’assurer des communications à faible latence et forte bande passante entre les instances. C’est un point critique pour des charges d’IA agentique distribuées, où de larges ensembles de tâches doivent être répartis puis synchronisés entre de nombreux processeurs.
Graviton5 en 3 nm, avec l’efficacité énergétique en ligne de mire
AWS précise que Graviton5 est gravé en 3 nm. Le groupe insiste sur un avantage classique de son approche maison : en contrôlant à la fois la conception de la puce et l’architecture serveur, il peut optimiser plus finement les compromis entre performances et consommation qu’avec des processeurs standards.
Pour Meta, l’intérêt est double. Il s’agit à la fois de soutenir ses ambitions IA et de contenir la facture énergétique d’une infrastructure appelée à monter fortement en charge, tout en restant aligné avec ses objectifs de durabilité. À mesure que les besoins en calcul progressent dans toute l’industrie, l’efficacité de l’infrastructure devient un facteur aussi important que la puissance brute, pour des raisons de coûts comme d’impact environnemental.
Le mouvement est révélateur d’un basculement plus large : dans l’IA à grande échelle, la valeur ne se concentre plus uniquement sur les accélérateurs d’entraînement. Les grands déploiements vont aussi se jouer sur la capacité à bâtir une couche CPU dense, interconnectée et sobre, et AWS place clairement Graviton comme l’une des briques clés de cette nouvelle hiérarchie.
Source : TechPowerUp