
Thinking Machines Lab, cofondé par Mira Murati (ex-CTO d’OpenAI), annonce un partenariat pluriannuel avec Nvidia et un investissement significatif du concepteur de GPU. La jeune société prévoit de déployer à partir du début de l’année prochaine au moins 1 GW de capacité via des systèmes Nvidia Vera Rubin, avec l’objectif d’opérer des infrastructures d’entraînement et de service pour des modèles de pointe, y compris open source, à destination des milieux académiques et industriels.
Jensen Huang salue une équipe « de classe mondiale » et place l’alliance dans la trajectoire d’une IA présentée comme outil central de découverte. Murati souligne que la pile Nvidia constitue l’assise du secteur et que l’accord doit accélérer la mise à disposition d’IA que « les gens peuvent façonner et s’approprier ».
Un déploiement Vera Rubin à l’échelle du gigawatt
Le volet matériel est cadré autour des systèmes Vera Rubin de Nvidia, nouvelle génération d’infrastructures intégrées combinant GPU accélérateurs, réseau haut débit et stockage pour l’entraînement à grande échelle. À 1 GW et plus, on parle d’un parc de datacenters dimensionné pour des charges d’IA massives, impliquant une alimentation électrique, un refroidissement et une interconnexion au niveau opérateur. Thinking Machines Lab indique concevoir ses propres architectures de training et d’inférence sur cette base, avec une ouverture affichée vers la recherche et les modèles ouverts.
Au-delà du matériel, la coopération couvre l’ingénierie système autour de la stack Nvidia, des bibliothèques logicielles à l’orchestration des jobs distribués. L’investissement de Nvidia conforte l’ambition d’industrialiser rapidement ces capacités, sans calendrier plus précis ni détails financiers communiqués.
Si Nvidia verrouille ici un nouvel acteur ambitieux sur son écosystème, l’échelle annoncée place Thinking Machines Lab directement dans la compétition des hyperscalers spécialisés IA. L’exécution se jouera sur la capacité à approvisionner l’énergie, à sécuriser le réseau et à optimiser le TCO d’inférence, alors que la disponibilité des accélérateurs et la pression sur les interconnexions restent des goulets critiques.
Source : ITHome