C’est un moment Code Red pour les acteurs dominants de l’IA

Puis, à mesure que ces engagements et l’ampleur des financements requis pour les honorer augmentaient, ils ont commencé à contracter des dettes, dont une partie hors bilan, pour garantir les milliards de dollars de dépenses qu’ils s’étaient engagés à financer.

Il s’agit d’une structure industrielle assez fragile, qui tourne autour de Nvidia et d’OpenAI en son centre.

Lundi, le directeur général d’OpenAI – dans une note au personnel rapportée pour la première fois par la publication en ligne axée sur la technologie Les informations – a déclaré un « code rouge », accélérant les efforts visant à améliorer la qualité de son chatbot ChatGPT tout en reportant le développement d’une gamme de produits – publicité, achats, santé et autres applications – qui, espérait-il, généreraient davantage de revenus grâce à ChatGPT.

Cette soudaine urgence est survenue après qu’il soit devenu évident qu’OpenAI était confronté à une concurrence sérieuse pour la première fois au cours des trois années écoulées depuis le lancement de ChatGPT et le déclenchement de la frénésie autour de l’IA.

Il se trouve que la concurrence menace également d’éroder la position dominante de Nvidia et les marges massives – une marge brute d’environ 70 pour cent – ​​qu’elle a conférée.

Le challenger ? Google d’Alphabet.

À la fin du mois dernier, Les informations a révélé que Google discutait de son intention de vendre ses propres puces d’IA développées en interne à Meta dans le cadre d’un accord de plusieurs milliards de dollars, affaiblissant ainsi l’emprise de Nvidia sur le secteur du matériel d’IA. Google a également récemment lancé son chatbot, Gemini 3, qui était largement considéré comme capable de surpasser ChatGPT 5 d’OpenAI.

Google est ainsi apparu comme une menace à la fois pour Nvidia et pour ses plus gros clients. Google est également considéré comme l’un des quatre hyperscalers qui, à eux deux, représentent plus de 60 % des revenus de Nvidia. La menace posée par le développement par Google de sa propre source de puces comporte donc plusieurs niveaux.

Il n’y a pas que Google. Amazon – le plus grand fournisseur mondial de services cloud – vient tout juste de commencer à installer sa dernière puce, Tranium3, dans les centres de données.

Ni les TPU (Tensor Processing Units) de Google ni la puce d’Amazon ne sont aussi flexibles ou polyvalents que les GPU (Graphics Processing Units) de Nvidia, c’est pourquoi ils ont réussi à prendre la domination dans la formation des grands modèles de langage de l’IA.

La force des challengers réside dans l’inférence, ou dans le domaine où le modèle d’IA déploie réellement les connaissances qui y ont été intégrées, et c’est là que le marché de l’IA évolue.

Même s’ils ne peuvent pas faire autant que les puces de Nvidia, ils le font bien, à moindre coût et plus rapidement, avec moins d’énergie consommée, que les puces de Nvidia. Il est également vrai – comme le démontrent les négociations avec Meta – qu’il existe au sein du secteur un appétit pour des sources d’approvisionnement concurrentes afin de diluer les risques et les coûts de la dépendance à l’égard de Nvidia.

Nvidia a été tellement perturbée par l’émergence soudaine de Google en tant que menace qu’elle a fait quelque chose de inhabituel et a publié une défense de sa position sur X, se disant ravie du succès de Google, mais « Nvidia a une génération d’avance sur l’industrie – c’est la seule plate-forme qui exécute tous les modèles d’IA et le fait partout où l’informatique est effectuée. »

Google dispose d’une sérieuse puissance de feu pour financer ses ambitions. Aujourd’hui, elle est résolument en lice pour devenir l’un des rares très grands acteurs qui émergeront comme les forces dominantes de l’IA.

Elle n’a aucune dette, et dispose en effet d’une trésorerie nette d’environ 100 milliards de dollars et de flux de trésorerie d’environ 150 milliards de dollars par an pour financer ses ambitions. OpenAI, par exemple, a un chiffre d’affaires d’environ 20 milliards de dollars seulement, d’où sa dépendance à l’égard des levées de fonds, du financement des fournisseurs et de l’endettement.

Google dispose également de sa « stack », ou d’une suite de produits verticalement intégrés (plateformes, infrastructure, matériel et logiciels) qui peuvent être déployés pour stimuler l’adoption de Gemini.

Gemini 2 a été lancé il y a un an. En mai de cette année, il comptait environ 400 millions d’utilisateurs actifs mensuels. Aujourd’hui, elle en compte plus de 650 millions. ChatGPT compte environ 800 millions d’utilisateurs actifs hebdomadaires – il reste dominant, mais l’écart se réduit.

L’accélération soudaine de Google dans le domaine de l’IA, associée aux efforts de tous les hyperscalers pour diversifier leur base de fournisseurs, développer leurs propres puces et réduire leur dépendance à l’égard de Nvidia, ne signifie pas que Nvidia et OpenAI ne peuvent pas également survivre et être toujours là lorsque le secteur aura été rationalisé, comme ce sera inévitablement le cas.

Cela pourrait cependant rendre plus difficile leur passage à travers le blizzard des investissements démesurés dans lesquels ils se sont enfermés, en particulier pour OpenAI, en fragmentant leurs bases de clients potentiels, en réduisant leurs revenus potentiels et en augmentant leurs coûts du capital.

C’est le plus grand défi pour OpenAI, qui devra investir encore plus pour maintenir son leadership sectoriel sans être en mesure de rechercher avec autant d’urgence les nouvelles sources de revenus qu’elle espérait exploiter pour l’aider à consolider ses finances. Nvidia restera probablement le principal fournisseur de puces du secteur, mais la concurrence exercera une certaine pression sur ses marges et son taux de croissance.

Il s’agit potentiellement d’un moment révolutionnaire pour l’IA, que certains ont surnommé un « moment DeepSeek », une référence au dévoilement d’un chatbot open source chinois construit à une fraction des coûts de ChatGPT en janvier et qui a choqué le secteur.