Exclusif - OpenAI n'est pas satisfait de certaines puces Nvidia et cherche des alternatives, selon des sources
Par Max A. Cherney, Krystal Hu et Deepa Seetharaman
SAN FRANCISCO, 2 février (Reuters) - OpenAI n’est pas satisfaite de certains des derniers puces d’intelligence artificielle de Nvidia, et cherche des alternatives depuis l’année dernière, ont déclaré huit sources proches du dossier, ce qui pourrait compliquer la relation entre les deux acteurs les plus en vue de l’essor de l’IA.
Le changement de stratégie du créateur de ChatGPT, dont les détails sont révélés ici pour la première fois, repose sur une importance croissante accordée aux puces utilisées pour effectuer des éléments spécifiques de l’inférence IA, c’est-à-dire le processus par lequel un modèle d’IA, tel que celui qui alimente l’application ChatGPT, répond aux requêtes et demandes des clients. Nvidia reste dominant dans les puces pour l’entraînement de grands modèles IA, tandis que l’inférence est devenue un nouveau terrain de compétition.
Cette décision d’OpenAI et d’autres de rechercher des alternatives sur le marché des puces d’inférence constitue un test significatif de la domination de Nvidia dans l’IA et intervient alors que les deux entreprises sont en discussions d’investissement.
En septembre, Nvidia avait indiqué son intention d’investir jusqu’à 100 milliards de dollars dans OpenAI dans le cadre d’un accord qui donnait au fabricant de puces une participation dans la startup et donnait à OpenAI les liquidités nécessaires pour acheter les puces avancées.
Reuters avait rapporté que l’accord devait être finalisé en quelques semaines. Au lieu de cela, les négociations traînent depuis des mois. Durant cette période, OpenAI a conclu des accords avec AMD et d’autres pour des GPU conçus pour rivaliser avec ceux de Nvidia. Mais son évolution de la feuille de route produit a également modifié le type de ressources informatiques requises et ralenti les discussions avec Nvidia, selon une personne proche du dossier.
Samedi, Jensen Huang, PDG de Nvidia, a écarté un rapport faisant état de tensions avec OpenAI, qualifiant cette idée de « non-sens » et affirmant que Nvidia prévoyait un énorme investissement dans OpenAI.
« Les clients continuent de choisir NVIDIA pour l’inférence parce que nous offrons les meilleures performances et le meilleur coût total de possession à grande échelle », a déclaré Nvidia dans un communiqué.
Un porte-parole d’OpenAI a indiqué dans un communiqué distinct que l’entreprise s’appuie sur Nvidia pour alimenter la grande majorité de sa flotte d’inférence et que Nvidia offre les meilleures performances par dollar pour l’inférence.
Sept sources ont indiqué qu’OpenAI n’est pas satisfaite de la vitesse à laquelle le matériel Nvidia peut fournir des réponses aux utilisateurs de ChatGPT pour des types de problèmes spécifiques comme le développement logiciel et la communication entre IA et autres logiciels. Elle a besoin de nouveaux matériels qui, à terme, représenteraient environ 10 % des besoins informatiques d’inférence d’OpenAI à l’avenir, a indiqué l’une des sources à Reuters.
Le créateur de ChatGPT a évoqué la possibilité de collaborer avec des startups telles que Cerebras et Groq pour fournir des puces d’inférence plus rapides, ont indiqué deux sources. Mais Nvidia a conclu un accord de licence de 20 milliards de dollars avec Groq qui a mis fin aux discussions d’OpenAI, a indiqué l’une des sources à Reuters.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
NXP Semiconductors prévoit un trimestre optimiste, signalant un creux du marché industriel
Teradyne (NASDAQ:TER) annonce de solides résultats au quatrième trimestre, l'action grimpe de 10,2%
