
Meta prévoit de porter ses dépenses jusqu’à 135 milliards de dollars en 2026, essentiellement pour ses infrastructures IA, malgré les avertissements de bulle qui circulent dans l’industrie. L’entreprise a détaillé cette trajectoire lors d’un appel avec des analystes, en précisant que ces chiffres seront publiés en même temps que les résultats 2025. Pour mémoire, Meta a consacré l’an dernier environ 72 milliards de dollars à l’IA et à l’infrastructure, et revendique près de 140 milliards de dollars cumulés sur trois ans.
Capex IA en accélération, marge sous pression
Mark Zuckerberg estime que 2026 marquera un tournant dans la manière de travailler avec l’IA. En fin d’année 2025, les charges ont progressé plus vite que le chiffre d’affaires, comprimant la marge, sans refroidir le marché: l’action a gagné environ 6,5 % après l’annonce.
Le message est clair: priorité aux data centers, au calcul et aux modèles. Meta ne donne pas de granularité par ligne (GPU, foncier, réseau), mais l’ampleur des engagements laisse penser à des vagues supplémentaires d’achats de cartes graphiques pour l’entraînement et l’inférence, à des extensions de capacité réseau 10 Gigabit et au-delà, et à une montée en puissance de ses plateformes logicielles internes.
Organisation allégée, outils IA généralisés
En parallèle, Zuckerberg assume une réorganisation continue. Selon lui, des projets qui exigeaient des équipes larges peuvent désormais être menés par « une personne vraiment excellente ». Meta a déjà supprimé des centaines de postes, principalement chez Reality Labs, qui couvre le « métavers », le hardware et certaines initiatives IA.
L’entreprise déploie plus largement des outils IA pour doper la productivité des ingénieurs logiciels et d’autres métiers. Le dirigeant anticipe une fracture nette entre ceux qui maîtrisent ces outils et les autres, à mesure que les agents IA deviennent réellement opérationnels.
Pour l’écosystème, la trajectoire budgétaire de Meta acte une deuxième vague d’investissement massif dans le calcul IA après 2023–2024. Elle devrait prolonger la tension sur les chaînes d’approvisionnement en GPU, en mémoire HBM et en équipements réseau, tout en durcissant la concurrence sur les modèles et les services d’inférence. Les acteurs cloud et les fabricants de semi-conducteurs sont les premiers bénéficiaires visibles de ce capex.
Source : ITHome