GTC 2025 : comment Nvidia redéfinit l’IA avec Blackwell et les tokens

Lors de l’ouverture du GTC 2025, Jensen Huang a dressé un panorama saisissant de l’évolution de l’intelligence artificielle, désormais centrée sur une nouvelle unité de mesure : le token. Véritable fondement du calcul moderne, le token devient la base du raisonnement, de la génération de contenu, de la robotique et de la transformation des données en connaissance. Nvidia révèle une vision ambitieuse de l’IA agentique, capable de percevoir, planifier et agir de façon autonome, tout en s’appuyant sur des architectures de calcul massivement parallèles comme Blackwell, bien plus performantes et compactes que la génération précédente.

L’IA s’étend désormais à tous les domaines : santé, environnement, robotique, graphisme en temps réel, automatisation des data centers et conception de puces. Nvidia introduit des innovations majeures, comme le système d’exploitation open source Dynamo, les bibliothèques Cuda X, les réseaux mobiles boostés par GPU, ou encore les futurs supercalculateurs personnels et stations de travail à l’ère de l’IA. L’architecture Blackwell, bientôt suivie par Vera Rubin et Feynman, pose les bases des futures « IA factories », avec des objectifs de performances mesurés non plus en flops, mais en tokens par seconde, et un design centré sur l’efficacité énergétique.

Enfin, Nvidia pousse l’IA physique et la robotique à l’extrême avec Groot N1, un modèle fondation open source pour robots humanoïdes, et des environnements d’apprentissage simulés via Omniverse et Cosmos. De la photonique au raisonnement complexe, chaque annonce trace une feuille de route claire vers un futur où les machines apprennent, interagissent et résolvent des problèmes de manière autonome, à une échelle et une rapidité encore jamais atteintes.

GTC 2025 en détail :

Pour les plus curieux, voici le détail des annonces GTC 2025 de NVIDIA, présenté minute par minute :

  • 00:09 Les tokens sont la nouvelle unité fondamentale de l’intelligence artificielle, servant à générer du contenu et à transformer les données en connaissances.
  • 01:17 Les tokens permettent de détecter des maladies, d’analyser la vie et de connecter les données pour protéger l’environnement.
  • 02:21 Les tokens apprennent aux robots à interagir avec le monde physique, apportant joie et assistance dans la vie quotidienne.
  • 03:15 Jensen Huang ouvre GTC 2025 en remerciant l’écosystème technologique mondial et en soulignant l’évolution rapide de l’IA.
  • 05:07 La nouvelle GeForce 5090, basée sur l’architecture Blackwell, est 30 % plus compacte et plus performante que la 4090.
  • 06:03 L’IA prédit 15 pixels sur 16 dans les rendus graphiques en temps réel avec une précision temporelle remarquable.
  • 07:11 L’IA générative remplace l’ancien modèle informatique basé sur la récupération de données en générant des réponses contextuelles à la volée.
  • 08:18 L’IA agentique marque une nouvelle étape avec des agents capables de percevoir, raisonner, planifier et agir de manière autonome.
  • 09:12 L’IA physique comprend le monde réel (friction, inertie, permanence des objets) et ouvre la voie à la robotique.
  • 11:15 Trois défis fondamentaux de l’IA : collecte de données, entraînement sans humain, et capacité de montée en charge (scaling laws).
  • 13:03 Les besoins en calcul sont 100 fois supérieurs à ce qui était prévu il y a un an, à cause du raisonnement et de l’IA agentique.
  • 15:06 L’IA raisonne désormais étape par étape via des chaînes de pensée, augmentant considérablement le nombre de tokens générés.
  • 16:32 Le renforcement de l’IA via l’apprentissage par renforcement et la génération de données synthétiques permet d’atteindre des volumes de formation colossaux.
  • 18:52 La demande d’IA explose : les livraisons de Hopper et les précommandes de Blackwell chez les principaux fournisseurs cloud en témoignent.
  • 20:13 Le modèle des centres de données évolue : vers des « usines d’IA » générant des tokens, avec des investissements dépassant bientôt le trillion de dollars.
  • 23:04 Cuda X Libraries est au cœur du GTC, avec des bibliothèques pour accélérer la physique, la biologie, l’optimisation et plus encore.
  • 24:13 Cai Numeric permet d’accélérer Numpy sans modification, rendant le calcul scientifique plus rapide et plus accessible.
  • 24:41 Les usines du futur auront deux volets : production physique et production d’IA — Nvidia développe les outils pour les deux.
  • 25:35 Ariel transforme un GPU en réseau radio 5G, permettant des réseaux mobiles boostés par IA.
  • 27:01 KuOpt, la bibliothèque d’optimisation de Nvidia, passe les calculs d’heures à secondes et sera bientôt open source.
  • 29:07 Nvidia accélère désormais ses propres outils EDA avec Cuda, révolutionnant la conception de puces électroniques.
  • 30:44 Le modèle Cuda est devenu universel, présent dans tous les clouds et datacenters, atteignant un point de bascule mondial.
  • 31:12 Depuis 2006, plus de 6 millions de développeurs utilisent CUDA dans plus de 200 pays pour accélérer la science et transformer les industries.
  • 31:38 Nvidia Blackwell est 50 000 fois plus rapide que le premier GPU CUDA, réduisant l’écart entre simulation et temps réel.
  • 33:01 L’IA a débuté dans le cloud grâce à l’infrastructure disponible, mais elle va désormais s’étendre à tous les secteurs.
  • 36:01 Nvidia collabore avec Cisco, T-Mobile et d’autres pour intégrer l’IA dans les réseaux radio via un stack complet à la périphérie (Edge).
  • 39:47 Nvidia annonce un partenariat avec GM pour développer leur flotte de voitures autonomes avec IA intégrée.
  • 41:28 Le système Halos de Nvidia est audité ligne par ligne pour garantir sécurité, diversité, transparence et explicabilité.
  • 44:00 Nvidia utilise Omniverse et Cosmos pour entraîner les IA de conduite autonome avec des données synthétiques et des modèles distillés.
  • 46:28 Blackwell entre en production avec une nouvelle architecture révolutionnaire orientée vers le scale-up.
  • 51:25 Nvidia passe au refroidissement liquide avec une architecture MVLink désagrégée, augmentant la densité de calcul par rack.
  • 53:35 Le système Grace Blackwell atteint l’exaflop avec une bande passante mémoire de 570 To/s, repoussant les limites du scale-up.
  • 55:08 Les performances d’un système IA se mesurent en tokens par seconde, impactant directement la qualité, le revenu et l’expérience utilisateur.
  • 59:31 Un modèle de raisonnement produit 8 000 tokens pour résoudre un problème complexe, contre 439 tokens pour un LLM traditionnel, mais avec une bien meilleure précision.
  • 01:01:17 R1, bien que perçu comme petit, contient 680 milliards de paramètres — les futurs modèles en contiendront des trillions.
  • 01:02:13 Nvidia combine plusieurs formes de parallélisme (tensor, pipeline, expert) pour optimiser les performances des modèles selon la tâche et le contexte.
  • 01:03:25 Les modèles de raisonnement alternent deux phases : pré-remplissage (thinking) gourmand en flops et décodage (decode) très demandeur en bande passante.
  • 01:05:13 La génération d’un seul token implique le chargement de trillions de paramètres, expliquant la nécessité d’architectures comme MVLink.
  • 01:06:26 Selon la charge de travail (chatbot ou recherche), Nvidia peut allouer dynamiquement plus de GPU à la phase de pré-remplissage ou de décodage.
  • 01:08:15 Nvidia annonce Dynamo, un nouveau système d’exploitation open source conçu pour orchestrer les IA factories modernes.
  • 01:10:32 Comparé à Hopper, Blackwell offre un bien meilleur rendement en tokens/seconde par mégawatt, optimisant les coûts et la vitesse.
  • 01:13:46 Blackwell introduit le FP4 pour réduire la consommation énergétique tout en maintenant de hautes performances — idéal pour les data centers limités par la puissance.
  • 01:15:06 Grâce à son architecture intégrée et à Dynamo, Blackwell atteint un gain de performance de 25x à consommation énergétique égale.
  • 01:17:28 Le design homogène et programmable de Nvidia permet d’adapter dynamiquement la configuration aux charges variables, optimisant la performance.
  • 01:19:03 Pour les modèles de raisonnement complexes, Blackwell est 40 fois plus performant que Hopper.
  • 01:20:36 Un data center de 100 MW basé sur Blackwell nécessite 5 fois moins de racks que Hopper, pour une production de tokens équivalente.
  • 01:22:20 Avant de construire physiquement une AI factory, Nvidia conçoit un jumeau numérique avec Omniverse pour optimiser chaque étape.
  • 01:25:13 Nvidia annonce Blackwell Ultra (2x bande passante, 1,5x mémoire/puissance) pour mi-2025, assurant une transition fluide grâce à l’architecture commune.
  • 01:27:09 La prochaine architecture « Vera Rubin » (nommée en hommage à l’astronome) apportera des nouveautés majeures : CPU, GPU, HBM4, CX9 et MVLink 6.
  • 01:28:22 Nvidia précise que chaque « GPU » Blackwell est en réalité un die ; MVLink 144 connectera 144 dies GPU dans la prochaine génération.
  • 01:28:49 La future architecture Vera Rubin sera connectée à 144 GPU par MVLink, permettant un scale-up massif.
  • 01:29:30 Vera Rubin Ultra (2027) offrira 15 exaflops de puissance et 4,600 To/s de bande passante, avec 600 kW par rack.
  • 01:31:21 Vera Rubin réduira considérablement le coût par watt grâce à une efficacité énergétique accrue par rapport à Hopper et Blackwell.
  • 01:32:24 Nvidia étend Spectrum X pour offrir les performances de l’InfiniBand sur Ethernet, facilitant l’adoption en entreprise.
  • 01:33:50 Cisco va intégrer Spectrum X dans ses produits pour démocratiser l’IA auprès des entreprises via une alliance avec Nvidia.
  • 01:35:00 Nvidia présente son premier système silicon photonics co-packagé 1,6 Tb/s basé sur la technologie micro-ring resonator (MRM).
  • 01:37:07 L’ancienne méthode d’interconnexion optique coûte 180W et 6 000 $ par GPU, rendant l’évolutivité vers des millions de GPU peu viable.
  • 01:39:28 Le système MRM de Nvidia transforme un faisceau laser en données numériques via modulation optique ultra-efficace.
  • 01:42:16 Nvidia déploiera des switches photoniques 512 ports dès fin 2025, éliminant les transceivers et réduisant massivement la consommation.
  • 01:43:20 Grâce à la photonique, Nvidia pourra réaffecter jusqu’à 100 racks de puissance aux calculs, augmentant drastiquement la capacité des data centers.
  • 01:44:12 La prochaine génération Nvidia sera nommée Feynman, suivant Vera Rubin, honorant les pionniers scientifiques.
  • 01:45:03 Nvidia repense l’informatique d’entreprise avec des agents IA, transformant OS, processeurs et manière d’accéder aux données.
  • 01:46:11 100 % des développeurs seront assistés par l’IA d’ici fin 2025, amorçant un changement profond dans le développement logiciel.
  • 01:47:09 Nvidia lance le DGX Spark, un mini supercalculateur personnel d’un pétaflop, destiné aux développeurs et chercheurs IA.
  • 01:50:10 Le DGX Station, poste de travail liquide refroidi avec 20 pétaflops, incarne le PC de l’ère de l’intelligence artificielle.
  • 01:51:23 Nvidia réinvente le stockage d’entreprise en un système sémantique, transformant les données brutes en connaissance consultable par langage.
  • 01:52:18 Tous les grands acteurs du stockage (Dell, IBM, Pure, etc.) proposeront cette nouvelle stack GPU-accélérée.
  • 01:53:20 Le modèle R1 de raisonnement IA est désormais open source via la plateforme NIMs, exécutable sur tout type d’infrastructure.
  • 01:54:57 De grandes entreprises comme AT&T, SAP, Capital One et BlackRock intègrent déjà les modèles et bibliothèques Nvidia dans leurs systèmes IA.
  • 01:56:10 D’ici la fin de la décennie, une pénurie de 50 millions de travailleurs pourrait être comblée par des robots autonomes alimentés par l’IA physique.
  • 01:57:18 Omniverse et Cosmos permettent de générer des données synthétiques massives et variées pour entraîner les robots via l’imitation et l’apprentissage par renforcement.
  • 01:58:11 Les tests en conditions réelles se font avec des jumeaux numériques simulant dynamiques environnementales, capteurs et physiques réalistes.
  • 01:58:51 Le système Mega permet de tester en masse des flottes de robots dans une usine virtuelle propulsée par Nvidia Blackwell.
  • 01:59:32 Nvidia présente Isaac Groot N1, un modèle fondation généraliste pour robots humanoïdes, basé sur la cognition humaine (réflexion rapide et lente).
  • 02:00:13 Groot N1 peut manipuler des objets courants, exécuter des séquences complexes et s’adapter à divers environnements industriels.
  • 02:01:14 Trois défis clés en robotique : créer des données, concevoir l’architecture du modèle, et faire évoluer l’échelle de calcul efficacement.
  • 02:02:06 Cosmos génère un nombre infini d’environnements réalistes, créant des données contrôlées mais variées pour l’apprentissage des robots.
  • 02:03:02 L’apprentissage par renforcement avec des récompenses physiques vérifiables devient la clé pour l’IA robotique basée sur les lois de la physique.
  • 02:04:11 Nvidia, DeepMind et Disney Research lancent Newton, un moteur physique GPU-accéléré conçu pour les retours tactiles et la simulation temps réel.
  • 02:05:48 Newton permet une simulation robotique en temps réel, essentielle pour entraîner des robots intelligents avec précision et réactivité.
  • 02:06:57 Le modèle Groot N1 devient open source, rendant l’IA robotique avancée accessible à toutes les entreprises et développeurs.

Avec cette avalanche d’annonces, Nvidia confirme son ambition : faire des tokens la nouvelle unité centrale de l’ère numérique, et de l’IA le moteur de toutes les industries. De la robotique à l’infrastructure cloud, du GPU à la photonique, chaque avancée présentée lors de la GTC 2025 dessine les contours d’un avenir piloté par des agents intelligents, des modèles massifs et des usines à données. Reste à voir comment l’écosystème mondial adoptera ce virage… et à quelle vitesse.

guest

0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Bouton retour en haut de la page
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x