OpenAI n'est plus satisfait des puces d'IA de Nvidia, surtout en ce qui concerne la rapidité avec laquelle elles peuvent répondre aux utilisateurs. L'entreprise a commencé à chercher d'autres options l'année dernièreOpenAI n'est plus satisfait des puces d'IA de Nvidia, surtout en ce qui concerne la rapidité avec laquelle elles peuvent répondre aux utilisateurs. L'entreprise a commencé à chercher d'autres options l'année dernière

OpenAI déclare être insatisfait du matériel d'inférence Nvidia, se tourne maintenant vers AMD, Cerebras, Groq

OpenAI n'est plus satisfait des puces IA de Nvidia, notamment en ce qui concerne la rapidité avec laquelle elles peuvent répondre aux utilisateurs. L'entreprise a commencé à chercher d'autres options l'année dernière, et elle discute maintenant avec AMD, Cerebras, et était même en pourparlers avec Groq avant que cela ne soit abandonné.

Cette tension est devenue réelle lorsque OpenAI a réalisé que les puces de Nvidia n'étaient pas assez rapides pour des tâches spécifiques comme l'écriture de code et la gestion des tâches logiciel à logiciel.

Une source interne aurait déclaré qu'OpenAI souhaite de nouvelles puces pour gérer au moins 10 % de ses besoins d'inférence à l'avenir. C'est la partie où l'IA répond aux utilisateurs, pas la partie où elle apprend.

OpenAI veut des puces plus rapides pour le codage et les réponses aux utilisateurs

La plupart du travail actuel d'OpenAI fonctionne encore sur Nvidia, mais en coulisses, l'entreprise teste des puces qui pourraient tout rendre plus rapide.

Cela inclut des puces dotées de SRAM, ce qui accélère les choses en plaçant la mémoire juste à côté du processeur. Nvidia et AMD utilisent toujours une mémoire située à l'extérieur de la puce, ce qui ralentit les performances.

Des personnes au sein d'OpenAI ont désigné Codex, l'outil qui écrit du code, comme l'endroit où la lenteur posait le plus gros problème. Certains membres du personnel ont même attribué les performances faibles au matériel de Nvidia. Lors d'une conférence de presse le 30 janvier, le PDG d'OpenAI, Sam Altman, a déclaré : "Les clients utilisant nos modèles de codage accorderont une grande importance à la rapidité pour le travail de codage."

Sam a ajouté que les utilisateurs réguliers de ChatGPT ne se soucient pas autant de la rapidité, mais pour les développeurs et les entreprises, chaque seconde compte. Il a déclaré qu'OpenAI venait de signer un accord avec Cerebras pour accélérer les choses.

En même temps, des entreprises comme Anthropic et Google obtiennent de meilleurs résultats en utilisant leurs propres puces. Les TPU de Google sont spécifiquement conçus pour le type de travail nécessaire à l'inférence. Cela les a rendus plus rapides pour répondre, en particulier pour des modèles comme Claude et Gemini.

Les discussions OpenAI-Groq s'arrêtent après l'accord de licence Nvidia

OpenAI était également en pourparlers avec Groq, une autre startup développant des puces rapides, mais ces conversations n'ont pas abouti. Nvidia est intervenu et a signé un accord de licence de 20 milliards de dollars avec Groq. Cela a donné à Nvidia l'accès aux conceptions de Groq et a tué les projets d'OpenAI de travailler avec eux.

Une source proche de la situation a déclaré que les puces de Groq étaient conçues exactement pour ce dont OpenAI avait besoin. Mais une fois que Nvidia a conclu l'accord, cette porte s'est fermée. Bien que la licence ne soit pas exclusive, Groq se concentre désormais sur les logiciels basés sur le cloud computing, et Nvidia a récupéré certains des concepteurs de puces de Groq.

Cerebras, en revanche, a refusé lorsque Nvidia a tenté de les acheter. Au lieu de cela, ils ont conclu leur propre accord avec OpenAI. Groq a également reçu des offres d'investissement évaluant sa valeur à environ 14 milliards de dollars, mais cela a changé depuis qu'il est lié à Nvidia.

OpenAI ne s'est pas complètement éloigné de Nvidia. Dans une déclaration publique, un porte-parole a déclaré : "Nous comptons sur Nvidia pour alimenter la grande majorité de notre flotte d'inférence", et a qualifié leurs performances par dollar de meilleures du marché. Nvidia a également déclaré : "Les clients continuent de choisir Nvidia pour l'inférence parce que nous offrons les meilleures performances et le meilleur coût total de possession à grande échelle."

L'accord d'investissement de 100 milliards de dollars de Nvidia toujours en suspens

L'année dernière, Nvidia a déclaré qu'elle prévoyait d'investir jusqu'à 100 milliards de dollars dans OpenAI. Cet argent était destiné à aider OpenAI à acheter des puces plus avancées, et en retour, Nvidia obtiendrait une participation dans l'entreprise. Reuters a déclaré que l'accord devait être conclu dans quelques semaines. Ce n'est toujours pas le cas.

Pendant que cet accord stagnait, OpenAI a signé des accords avec AMD et d'autres pour tester des puces qui pourraient concurrencer directement celles de Nvidia. Mais à mesure qu'OpenAI modifiait ses plans de produits, le type de matériel dont elle avait besoin a également changé. Cela a encore ralenti les discussions, a déclaré une personne au fait de la situation.

Samedi, le PDG de Nvidia, Jensen Huang, a été interrogé sur la tension. Il a déclaré : "C'est absurde", et a insisté sur le fait que Nvidia prévoit toujours d'investir massivement dans OpenAI. Mais en coulisses, il est clair que les deux parties explorent leurs options.

En même temps, Nvidia a cherché de nouvelles idées de puces. Elle a contacté Cerebras et Groq pour voir s'ils seraient ouverts à être rachetés. Cerebras a refusé et a renforcé son accord avec OpenAI.

À l'heure actuelle, OpenAI utilise GPT4o pour alimenter la plupart de ses services. Mais au vu de la situation, au moins une partie de ce travail fonctionnera sur des puces d'AMD ou de Cerebras dans un avenir proche. L'entreprise n'essaie pas d'abandonner complètement Nvidia, mais il est clair qu'elle veut plus de contrôle sur la rapidité de fonctionnement de ses systèmes.

Affinez votre stratégie avec du mentorat + des idées quotidiennes - 30 jours d'accès gratuit à notre programme de trading

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

Vous aimerez peut-être aussi

Pepeto vs Blockdag Vs Layer Brett Vs Remittix et Little Pepe

Pepeto vs Blockdag Vs Layer Brett Vs Remittix et Little Pepe

L'article Pepeto vs Blockdag Vs Layer Brett Vs Remittix et Little Pepe est apparu sur BitcoinEthereumNews.com. Crypto News 18 septembre 2025 | 05:39 À la recherche du meilleur investissement crypto en 2025 ? Les préventes peuvent transformer rapidement un portefeuille et parfois changer une vie du jour au lendemain quand vous choisissez bien, c'est pourquoi nous commençons par des preuves plutôt que des slogans et allons droit au but avec ce qui est actif, audité et utilisable aujourd'hui, pas de vagues aspirations susceptibles de dériver au fil des cycles et des récits qui s'estompent pendant des mois. Dans cette confrontation, nous opposons Pepeto (PEPETO) à Blockdag, Layer Brett, Remittix et Little Pepe en utilisant des critères simples, l'intention et la livraison de l'équipe, les preuves on-chain, la clarté de la tokenomique, la préparation DEX et bridge, les rails PayFi, le staking et la préparation au listing, afin que vous puissiez agir sur des faits, pas sur le battage médiatique, et décider en toute confiance avant que la prochaine hausse ne vous surprenne en spectateur. Le jeu utilitaire de Pepeto : DEX sans frais, Bridge et fort potentiel Pepeto traite le manuel des meme coins comme une plateforme, pas comme une blague. L'équipe livre rapidement, peaufine les détails et se présente chaque semaine, visant la longévité plutôt qu'un succès momentané. Un design à plafond dur ancre PepetoSwap, un échange sans frais où chaque transaction passe par PEPETO pour une utilisation intégrée plutôt que du buzz. Déjà plus de 850 projets ont demandé à être listés, un terrain fertile pour le volume si les listings suivent. Un bridge cross-chain intégré ajoute un routage intelligent pour unifier la liquidité, réduire les sauts supplémentaires et diminuer le slippage, transformant l'activité en demande constante de tokens car chaque swap touche PEPETO. Pepeto est audité par les experts indépendants Solidproof et Coinsult, un marqueur de confiance reflété dans les plus de 6,7 millions de dollars déjà levés en prévente. L'élan initial est visible. La prévente place les premiers acheteurs en tête de file avec du staking et des augmentations de prix par étapes, et cette file s'allonge. Utilité plus objectif, culture plus outils, la combinaison qui tend à aller plus loin que le battage médiatique seul. Traduction pour vous : Pepeto passe du bruit à l'usage. Si...
Partager
BitcoinEthereumNews2025/09/18 10:41
Kopser for Texas atteint 18 000 électeurs non inscrits dans le comté de Travis

Kopser for Texas atteint 18 000 électeurs non inscrits dans le comté de Travis

Kopser for Texas a contacté plus de 18 000 résidents non inscrits du comté de Travis, dans le but d'élargir la participation électorale. Dirigée par le candidat Joseph Kopser, la campa
Partager
Citybuzz2026/02/03 08:10
L'équipe de Trump a alloué 22,44 millions de dollars à BitGo via un portefeuille.

L'équipe de Trump a alloué 22,44 millions de dollars à BitGo via un portefeuille.

PANews a rapporté le 3 février que, selon la surveillance d'Onchain Lens, l'équipe Trump a alloué un portefeuille (Aduis...PUU4) pour transférer 5,267 millions de Trumps, d'une valeur de
Partager
PANews2026/02/03 09:25