
Google pousse l’accélération GPU dans le cloud un cran plus loin : les nouvelles VMs Google Cloud G4, équipées de la RTX PRO 6000 Blackwell (édition serveur), sont désormais disponibles. De quoi viser autant l’IA générative que le rendu 3D et la simulation industrielle.
Google Cloud G4 : Un socle unique pour IA, rendu et simulation
Au cœur de ces instances, on retrouve l’architecture Blackwell et un combo taillé pour les charges mixtes : Tensors de 5e génération (prise en charge du FP4 pour maximiser les perfs d’inférence avec une empreinte mémoire réduite) et RT Cores de 4e génération (ray tracing temps réel annoncé plus de deux fois plus rapide que la gen précédente). Les Google Cloud G4 peuvent monter jusqu’à huit RTX PRO 6000 avec 768 Go de GDDR7 au total, appuyées par du stockage local et réseau à haut débit.

Google met en avant l’intégration native aux briques maison du « AI Hypercomputer » : GKE pour orchestrer le conteneur, Vertex AI pour MLOps, et Dataproc pour accélérer Spark/Hadoop. Côté applicatifs, on retrouve les classiques du design/ingénierie (Autodesk AutoCAD, Blender, Dassault SolidWorks) en plus des stacks NVIDIA.
Exemple d’usage cité par NVIDIA : WPP exploiterait Omniverse sur G4 pour générer des environnements 3D publicitaires photo-réalistes à l’échelle, tandis qu’Altair accélérerait ses workflows de simulation et CFD via Altair One. « Ce puissant ensemble crée une plateforme multi‑workloads », affirme NVIDIA/Google Cloud.
Omniverse et Isaac Sim: cap sur la “physical AI”
Autre brique clé : Omniverse et Isaac Sim arrivent en images VM prêtes à l’emploi sur la Marketplace Google Cloud.
D’après les informations partagées, les entreprises pourraient bâtir des jumeaux numériques (OpenUSD, Cosmos, Blueprints) pour optimiser usines et produits, et accélérer le développement robotique en simulant, entraînant et validant des agents dans des environnements physiques virtuels avant déploiement. On remarque que cette offre vise directement l’industrie, l’auto et la logistique.
Ce que ça change pour les équipes IA/3D
Pour les data/ML engineers, ces G4 semblent adaptées à l’inférence multimodale et aux agents IA (Nemotron, Blueprints, NIM pour l’inférence sécurisée). Pour les chercheurs HPC, NVIDIA évoque jusqu’à 6,8× de débit en génomique par rapport à la génération précédente, à prendre comme ordre d’idée.

Et pour les studios/designers, RTX Virtual Workstation transforme les G4 en stations distantes haute performance accessibles depuis n’importe quel device. Il faut dire que l’unification Blackwell du cloud Google (des A4/A4X pour l’entrainement massif jusqu’aux G4 pour l’inférence et le visuel) simplifie les pipelines bout‑à‑bout.
Et le tarif ?
Pas d’indication de tarif public à ce stade (non précisé). Attendez-vous tout de même à une facturation premium sur des profils 8×GPU, avec des coûts variables selon région et stockage. Pour les PME comme pour les grands comptes, l’intérêt réside surtout dans la flexibilité: scaler vite, standardiser les stacks, et éviter l’investissement upfront en stations locales très haut de gamme.
Source : TechPowerUp