Qualcomm AI200 et AI250 : des cartes et racks IA pour l’inférence à l’échelle data center

Qualcomm muscle son offensive dans l’inférence IA en data center avec deux nouvelles plateformes, AI200 et AI250, pensées pour exécuter des modèles géants à coût maîtrisé et à l’échelle du rack.

AI200 et AI250 : l’inférence à l’échelle du rack, mémoire en tête

La société annonce des cartes et des racks d’accélération optimisés pour l’inférence, bâtis sur son expertise NPU. L’AI200 cible un coût total de possession réduit et des charges LLM et multimodales grâce à 768 Go de LPDDR par carte, un choix qui maximise la capacité mémoire tout en comprimant les coûts.

L’AI250, lui, inaugure une architecture mémoire « near-memory computing », avec à la clé, d’après Qualcomm, un bond générationnel d’efficacité : plus de 10 fois de bande passante mémoire effective et une consommation en baisse pour les workloads d’inférence.

Cartes IA Qualcomm AI200/AI250 en rack data center, modules accélération inference, PCIe, refroidissement actif

Les deux racks partagent plusieurs fondamentaux d’infrastructure : refroidissement liquide direct pour l’efficacité thermique, PCIe pour le scale-up, Ethernet pour le scale-out, calcul confidentiel pour sécuriser les charges IA, et une enveloppe de 160 kW par rack.

Comme le résume Durga Malladi, SVP & GM chez Qualcomm, « nous redéfinissons l’inférence IA à l’échelle du rack ». Reste à voir si ces promesses se traduiront par des déploiements concrets chez les hyperscalers.

Logiciels, intégration et calendrier

Côté logiciel, Qualcomm met en avant une pile de niveau hyperscaler, de l’application au système, optimisée pour l’inférence et compatible avec les frameworks majeurs. Le constructeur évoque une intégration fluide des modèles, y compris un déploiement en un clic des modèles Hugging Face via sa librairie Efficient Transformers et la Qualcomm AI Inference Suite. S’ajoutent des outils, bibliothèques, API et services pour opérationnaliser des agents et applications IA.

Sur la disponibilité, l’AI200 est attendu commercialement en 2026, et l’AI250 en 2027. Qualcomm promet un rythme annuel sur sa feuille de route data center, avec un focus sur la performance d’inférence, l’efficacité énergétique et un TCO compétitif. Il faut dire que la pression du marché des modèles génératifs impose cadence et transparence.

Lire auss : Silicon Box : 100 millions d’unités prouvent que le panel-level packaging est prêt pour l’IA

Source : TechPowerUp

Wael.K

Ravi de vous accueillir sur ma page dédiée aux articles ! Je suis Wael El Kadri, et je suis un ingénieur civil de profession. Mais ma véritable passion est le matériel informatique. J'en suis passionné depuis l'âge de 12 ans, et j'aime apprendre et découvrir de nouvelles choses. En 2016, j'ai créé ma page personnelle sur les réseaux sociaux, baptisée Pause Hardware. C'est là que je partage mes créations en modding, mais aussi divers sujets liés au matériel informatique en général. J'ai également crée le site web, pausehardware.com, en 2019 où je publie des articles plus approfondis sur le matériel à travers des tests et revues et articles de news. J'ai eu l'opportunité de participer en tant qu'exposant à plusieurs événements liés aux jeux vidéo, aux côtés de grandes marques, notamment lors de la Paris Game Week en 2018 et 2019. Je reste constamment en quête de nouvelles manières de partager mes connaissances et ma passion pour le matériel informatique avec d'autres passionnés. Voici quelques publications médiatiques qui ont mis en lumière mon travail : Deux articles dans le magazine Extreme PC, parus dans ses  numéros 1 et 21 : Extreme PC Magazine Issue 21 (adobe.com) Également, un article sur Forbes intitulé "Dix Modèles de PC Incroyables en 2021" sur forbes.com : Ten Incredible PC Mods Of 2021 (forbes.com)
guest
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Bouton retour en haut de la page
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x