Le Texas, épicentre de la poussée d'Amazon dans les puces IA
Dans un laboratoire de sa filiale Annapurna Labs à Austin (Texas), on teste la longévité des nouveaux processeurs Trainium 3, la dernière génération commercialisée depuis décembre.
Non loin de là, dans un vacarme assourdissant, ce sont les UltraServers, serveurs équipés chacun de 144 exemplaires du Trainium 3, qui sont mis à l'épreuve avant d'être livrés.
Le Texas fait figure de nouvel eldorado tech aux Etats-Unis, jugé attractif car il combine coût raisonnable de l'immobilier, énergie bon marché, faible régulation et mesures fiscales incitatives.
Après avoir longtemps acheté ses puces à des fournisseurs, AWS s'est lancé dans la conception de ses propres processeurs avec le rachat de la start-up israélienne Annapurna Labs en 2015.
Sont d'abord nés, en 2018, Graviton et Inferentia, la première pour le cloud en général et la seconde pour utiliser des modèles d'IA, avant l'arrivée du premier Trainium, en 2020, capable d'aider à développer l'intelligence artificielle.
Puis sont venus Trainium 2 (2024), avec des performances quadruplées par rapport à sa devancière, puis Trainium 3, qui a cette fois doublé les capacités, le tout sur une surface inférieure à celle d'une carte de crédit.
"Elle peut réduire le coût de développement et d'utilisation (d'un modèle d'IA générative) jusqu'à 30 ou 40% par rapport aux GPU" (graphics processing unit), les processeurs graphiques considérés comme la référence pour l'intelligence artificielle, explique Kristopher King, responsable du laboratoire d'Austin.
Déjà une nouvelle puce annoncée
Outre la carte du coût, AWS joue aussi celle de la fiabilité, essentielle pour un centre de données qui tourne souvent en continu.
"Le développement de l'IA requiert des centaines de milliers de puces fonctionnant simultanément pendant des semaines", décrit Mark Carroll, en charge de l'ingénierie chez Annapurna Labs.
"Si y a une défaillance ou une indisponibilité durant cette phase" d'entraînement d'un modèle d'intelligence artificielle, "il faut revenir en arrière, voire repartir du début."
A la différence des grands noms des puces IA, Amazon Web Services (AWS), filiale d'Amazon dédiée à l'informatique à distance (cloud), ne vend pas ses processeurs à des tiers et ne les utilise que dans ses propres infrastructures de cloud, qu'elle loue à ses clients.
"Nous avons décidé de fabriquer nos propres puces pour avoir une architecture intégrée avec les logiciels", notamment sa plateforme en ligne Bedrock, qui propose à ses clients une vaste gamme d'IA, y compris de très nombreux modèles mis au point par d'autres entreprises, comme Anthropic, OpenAI ou Mistral.
Dans un marché où l'offre a du mal à suivre la demande croissante de puissance informatique pour l'IA, AWS et son Trainium permet aux grands acteurs de l'intelligence artificielle et aux fournisseurs de services de cloud de diversifier leurs approvisionnements, pour ne pas compter uniquement sur Nvidia et son rival AMD.
Le Trainium 3 vient à peine d'être mis en service qu'Amazon prépare déjà la relève. Les équipes d'Annapurna Labs planchent ainsi sur le Trainium 4, avec celles d'un autre laboratoire du groupe à Cupertino (Californie).
Le Trainium 4, dont la date de lancement n'a pas encore été révélée, "aura six fois la performance de traitement du Trainium 3", annonce Mark Carroll.
La course à l'IA a poussé l'industrie des microprocesseurs à nettement accélérer le rythme de développement des puces.
Nvidia a lancé la fabrication des Rubin, sa dernière génération de GPU, moins d'un an après la mise sur le marché de la précédente version, les Blackwell.
"La première (version du Trainium) a mis 15 à 18 mois", rappelle Mark Carroll. "La deuxième neuf mois et nous essayons de tenir ce rythme."