La collaboration verra AWS et OpenAI développer conjointement un environnement d'exécution avec état alimenté par des modèles OpenAI, disponible via Amazon Bedrock.
La collaboration verra AWS et OpenAI développer conjointement un environnement d'exécution avec état alimenté par des modèles OpenAI, disponible via Amazon Bedrock.
Amazon Web Services (AWS) et OpenAI ont dévoilé un partenariat stratégique pluriannuel visant à faire progresser l'innovation en matière d'IA générative pour les entreprises, les startups et les consommateurs finaux du monde entier. Dans le cadre de l'accord, Amazon investira 50 milliards de dollars dans OpenAI, en commençant par un investissement initial de 15 milliards de dollars, suivi de 35 milliards de dollars supplémentaires dans les mois à venir, sous réserve du respect de certaines conditions.
La collaboration verra AWS et OpenAI développer conjointement un environnement d'exécution avec état alimenté par des modèles OpenAI, disponible via Amazon Bedrock. Ces environnements de développement avec état permettront aux modèles d'accéder au calcul, à la mémoire et à l'identité, permettant ainsi aux développeurs de conserver le contexte, de mémoriser les travaux antérieurs, de s'intégrer aux outils logiciels et aux sources de données et de gérer efficacement les projets et les flux de travail en cours. L'environnement d'exécution Stateful devrait être lancé dans les mois à venir et sera optimisé pour l'infrastructure AWS, intégré à Amazon Bedrock AgentCore et aligné sur les applications AWS existantes des clients.
AWS servira également de fournisseur de distribution cloud tiers exclusif pour OpenAI Frontier, élargissant ainsi l'accès à la plateforme d'entreprise la plus avancée d'OpenAI. Frontier permet aux organisations de créer, déployer et gérer des équipes d'agents d'IA qui fonctionnent sur des systèmes d'entreprise réels, avec un contexte partagé, une gouvernance intégrée et une sécurité de niveau entreprise, sans avoir besoin de gérer l'infrastructure sous-jacente.
Pour répondre à la demande croissante de ces services, OpenAI consommera environ 2 gigawatts de capacité Trainium via l'infrastructure AWS, alimentant Stateful Runtime, Frontier et d'autres charges de travail avancées. Cette expansion s'appuie sur un accord pluriannuel existant de 38 milliards de dollars, ajoutant 100 milliards de dollars sur 8 ans. L'engagement couvre les puces Trainium3 et Trainium4 de nouvelle génération, Trainium4 étant attendu en 2027, offrant des performances de calcul FP4 plus élevées, une bande passante mémoire étendue et une capacité de mémoire à bande passante élevée accrue pour les charges de travail d'IA à grande échelle.
De plus, OpenAI et Amazon développeront des modèles personnalisés pour alimenter les applications destinées aux clients d'Amazon. Les équipes d'Amazon seront en mesure d'adapter les modèles OpenAI aux produits et agents d'IA servant directement les clients, complétant ainsi la famille Nova existante de modèles Amazon.
« OpenAI et Amazon partagent la conviction que l'IA doit se manifester de manière pratique et véritablement utile pour les gens. La combinaison des modèles d'OpenAI avec l'infrastructure et la portée mondiale d'Amazon nous aide à mettre une IA puissante entre les mains des entreprises et des utilisateurs à grande échelle. »
– Sam Altman, co-fondateur et PDG, OpenAI
« Nous avons de nombreux développeurs et entreprises désireux d'exécuter des services alimentés par des modèles OpenAI sur AWS, et notre collaboration unique avec OpenAI pour fournir des environnements d'exécution avec état changera ce qui est possible pour les clients qui créent des applications et des agents d'IA. Nous continuons d'être impressionnés par ce qu'OpenAI construit, et nous sommes enthousiasmés non seulement par leur choix de se lancer dans notre silicium d'IA personnalisé (Trainium), mais également par notre opportunité d'investir dans l'entreprise et dans le partenariat à long terme. «
– Andy Jassy, président et chef de la direction, Amazon