Les CSP mondiaux dépenseront 710 milliards de dollars en serveurs IA en 2026, selon TrendForce

Les dépenses d'investissement combinées des huit principaux CSP mondiaux (Google, AWS, Meta, Microsoft, Oracle, Tencent, Alibaba et Baidu) devraient dépasser 710 milliards de dollars en 2026, ce qui représente une croissance d'environ 61 % d'une année sur l'autre.

Les dépenses d'investissement combinées des huit principaux CSP mondiaux (Google, AWS, Meta, Microsoft, Oracle, Tencent, Alibaba et Baidu) devraient dépasser 710 milliards de dollars en 2026, ce qui représente une croissance d'environ 61 % d'une année sur l'autre.

Selon la dernière analyse TrendForce du marché des serveurs d'IA, les fournisseurs mondiaux de services de communication (CSP) accélèrent leurs investissements dans les serveurs et les infrastructures d'IA pour prendre en charge les charges de travail d'IA en expansion. . Dépenses d'investissement combinées des huit principaux CSP au monde – Google AWS, Méta, Microsoft, Oracle, Tencent, Alibaba, et Baidu – devraient dépasser 710 milliards de dollars en 2026, ce qui représente une croissance d'environ 61 % d'une année sur l'autre.

En plus de l'achat continu de plates-formes GPU NVIDIA et AMD, les CSP investissent de plus en plus dans les ASIC pour optimiser les charges de travail d'IA et améliorer la rentabilité de leurs centres de données. Alphabet, la société mère de Google, devrait voir ses dépenses d'investissement dépasser 178,3 milliards de dollars en 2026, soit une hausse de 95 % sur un an. Le développement précoce par Google d'ASIC internes, y compris sa feuille de route TPU progressant vers la plate-forme v8 de nouvelle génération, le positionne en avance sur ses pairs. Poussés par Google Cloud Platform et les applications Gemini AI, les TPU devraient représenter près de 78 % des serveurs IA livrés à Google en 2026, ce qui en fait le seul CSP avec plus de serveurs basés sur ASIC que de systèmes basés sur GPU.

Amazon étend ses achats de systèmes GPU NVIDIA GB300 et V200 à l'échelle du rack pour prendre en charge les charges de travail de formation et d'inférence de l'IA. Les GPU devraient représenter près de 60 % de la construction de serveurs IA d'AWS en 2026. Sur le front des ASIC, la nouvelle génération Trainium 3 d'Amazon montera en puissance à partir du 2T26, après le déploiement de Trainium 2/2.5, avec une dynamique de livraison probablement plus forte au second semestre à mesure que la validation des logiciels et des systèmes mûrira.

Les dépenses d'investissement projetées par Meta pour 2026 dépassent 124,5 milliards de dollars, en hausse de 77 % sur un an, les déploiements de serveurs d'IA reposant principalement sur les GPU NVIDIA et AMD, qui devraient représenter plus de 80 % de sa construction. Alors que Meta cherche à faire progresser sa plate-forme interne MTIA ASIC pour réduire les coûts de calcul unitaires et la dépendance aux fournisseurs, les défis de réglage logiciel-matériel peuvent limiter les volumes d'expédition par rapport aux objectifs initiaux.

Microsoft reste concentré sur la demande à long terme de formation et d'inférence de modèles d'IA à grande échelle, en poursuivant l'achat de systèmes NVIDIA à l'échelle du rack tout en introduisant sa puce interne Maia 200 pour l'inférence d'IA à haute efficacité. Oracle étend les déploiements de GPU à l'échelle du rack pour prendre en charge les projets de centres de données d'IA liés à des initiatives telles que l'intégration de Stargate et OpenAI.

En Chine, on estime que les dépenses d'investissement de ByteDance en 2026 seront consacrées à plus de la moitié à l'achat de puces d'IA, le NVIDIA H200 devant jouer un rôle clé, parallèlement à l'adoption croissante de puces d'IA nationales telles que Cambricon. Tencent continue d'acheter des GPU NVIDIA pour les services cloud et d'IA générative tout en collaborant avec des partenaires locaux pour développer des ASIC internes pour les réseaux, les centres de données et les applications d'IA.

Alibaba et Baidu font progresser le développement d'ASIC propriétaires pour prendre en charge les charges de travail d'IA à grande échelle. Alibaba, via T-head et Alibaba Cloud, se concentre sur l'infrastructure de cloud public et les LLM Qwen pour les applications d'entreprise et grand public. Baidu prévoit de déployer des puces Kunlun de nouvelle génération après 2026, parallèlement à sa plate-forme de cluster de serveurs Tianchi AI, capable de relier des centaines de puces IA pour améliorer la puissance de calcul au niveau du système.