OpenAI insoddisfatto di alcuni chip Nvidia e alla ricerca di alternative: fonti

OpenAI non è soddisfatta di alcuni dei più recenti chip di intelligenza artificiale (AI) di Nvidia e sta cercando alternative dal 2025, dicono otto fonti vicine alla questione, complicando potenzialmente il rapporto tra i due attori più importanti nel boom dell’IA.

Il cambio di strategia del produttore di ChatGPT, i cui dettagli sono riportati qui per la prima volta, comporta una crescente enfasi sui chip utilizzati per eseguire elementi specifici dell’inferenza dell’intelligenza artificiale, il processo mediante il quale un modello di intelligenza artificiale come quello che alimenta l’app ChatGPT risponde alle domande e alle richieste dei clienti.

Nvidia rimane dominante nei chip per l’addestramento di grandi modelli di intelligenza artificiale, mentre l’inferenza è emersa come un nuovo fronte nella competizione.

La mossa di OpenAI e altri di cercare alternative nel mercato dei chip per inferenza segna un test chiave del dominio dell’intelligenza artificiale di Nvidia e arriva mentre le due società sono in trattative per gli investimenti.

A settembre, Nvidia aveva dichiarato di voler investire fino a 100 miliardi di dollari (127 miliardi di dollari) in OpenAI come parte di un accordo che dava al produttore di chip una partecipazione nella startup e dava a OpenAI i soldi necessari per acquistare i chip avanzati.

L’accordo dovrebbe concludersi entro poche settimane, ha riferito Reuters. Invece le trattative si trascinano da mesi. Durante quel periodo, OpenAI ha firmato accordi con AMD e altri per unità di elaborazione grafica (GPU) costruito per competere con Nvidia. Ma il cambiamento della roadmap dei prodotti ha anche cambiato i tipi di risorse informatiche di cui ha bisogno e ha bloccato i colloqui con Nvidia, ha detto una persona a conoscenza della questione.

Il 31 gennaio, il CEO di Nvidia Jensen Huang ha respinto un rapporto di tensioni con OpenAI, affermando che l’idea era “una sciocchezza” e che Nvidia stava pianificando un enorme investimento in OpenAI.

“I clienti continuano a scegliere Nvidia perché offriamo le migliori prestazioni e il costo totale di proprietà su larga scala”, ha affermato Nvidia in una nota.

Un portavoce di OpenAI ha affermato in una dichiarazione separata che la società si affida a Nvidia per alimentare la stragrande maggioranza della sua flotta di inferenza e che Nvidia fornisce le migliori prestazioni per dollaro per l’inferenza.

Dopo la pubblicazione della storia su Reuters, il CEO di OpenAI Sam Altman ha scritto in un post su

Sette fonti hanno affermato che OpenAI non è soddisfatta della velocità con cui l’hardware di Nvidia può fornire risposte agli utenti ChatGPT per tipi specifici di problemi, come lo sviluppo di software e la comunicazione AI con altri software. È necessario un nuovo hardware che alla fine potrebbe soddisfare circa il 10% delle esigenze future di calcolo inferenziale di OpenAI, ha detto a Reuters una delle fonti.

Il produttore di ChatGPT ha discusso della collaborazione con startup tra cui Cerebras e Groq per fornire chip per un’inferenza più rapida, hanno detto due fonti. Ma Nvidia ha stretto un accordo di licenza da 20 miliardi di dollari con Groq, interrompendo i colloqui su OpenAI, ha detto a Reuters una delle fonti. La decisione di Nvidia di assumere talenti chiave da Groq sembra essere uno sforzo per rafforzare un portafoglio tecnologico per competere meglio in un settore dell’intelligenza artificiale in rapida evoluzione, hanno affermato i dirigenti del settore dei chip.

Nvidia ha affermato che la proprietà intellettuale di Groq è altamente complementare alla roadmap dei prodotti Nvidia.

I chip di elaborazione grafica di Nvidia sono adatti alla massiccia elaborazione dei dati necessaria per addestrare grandi modelli di intelligenza artificiale come ChatGPT, che fino ad oggi hanno sostenuto la crescita esplosiva dell’intelligenza artificiale in tutto il mondo. Ma i progressi nell’intelligenza artificiale sono sempre più focalizzati sull’uso di modelli addestrati per l’inferenza e il ragionamento, che potrebbe rappresentare una nuova e più ampia fase dell’intelligenza artificiale che ispirerebbe gli sforzi di OpenAI.

La ricerca di alternative GPU da parte del produttore di ChatGPT dal 2025 si è concentrata su aziende che costruiscono chip con grandi quantità di memoria incorporata nello stesso pezzo di silicio del resto del chip, chiamato SRAM. Inserendo quanta più preziosa SRAM possibile su ogni chip, i chatbot e altri sistemi di intelligenza artificiale possono offrire vantaggi in termini di velocità durante l’elaborazione delle richieste di milioni di utenti.

L’inferenza richiede più memoria che l’addestramento perché il chip deve dedicare relativamente più tempo al recupero dei dati dalla memoria che all’esecuzione di operazioni matematiche. La tecnologia GPU Nvidia e AMD si basa sulla memoria esterna, che aumenta i tempi di elaborazione e rallenta la velocità con cui gli utenti possono interagire con un chatbot.

All’interno di OpenAI, il problema è diventato particolarmente evidente nel Codex, il prodotto per la creazione di codici informatici che l’azienda ha commercializzato in modo aggressivo, ha detto una delle fonti. I dipendenti di OpenAI hanno attribuito parte dei punti deboli del Codex all’hardware basato su GPU di Nvidia, ha detto una fonte.

Parlando ai giornalisti il ​​30 gennaio, Altman ha affermato che i clienti che utilizzano i modelli di codifica di OpenAI “daranno un grande premio alla velocità del lavoro di codifica”.

Un modo in cui OpenAI soddisferà questa domanda è attraverso il suo recente accordo con Cerebras, ha affermato Altman, aggiungendo che la velocità è meno necessaria per gli utenti occasionali di ChatGPT.

Prodotti concorrenti come Claude di Anthropic e Gemini di Google beneficiano di implementazioni che si affidano maggiormente ai chip creati da Google stessa, chiamati unità di elaborazione tensore, o TPU, che sono progettati per i tipi di calcoli necessari per l’inferenza e possono offrire vantaggi in termini di prestazioni rispetto ai chip AI generali come le GPU progettate da Nvidia.

Nvidia ha contattato aziende che lavorano su chip ad alto contenuto di SRAM, tra cui Cerebras e Groq, per una possibile acquisizione, hanno detto le fonti. Cerebras ha rifiutato e ha stretto un accordo commerciale con OpenAI, annunciato a gennaio.

Groq era in trattative con OpenAI per un accordo per la fornitura di potenza di calcolo e ha ricevuto interesse da parte degli investitori per finanziare la società per una valutazione di circa 14 miliardi di dollari, secondo persone che hanno familiarità con le discussioni.

Ma a dicembre, Nvidia ha deciso di concedere in licenza la tecnologia di Groq con un accordo non esclusivo, interamente in contanti, hanno detto le fonti. Sebbene l’accordo consentirebbe ad altre società di concedere in licenza la tecnologia di Groq, la società si sta ora concentrando sulla vendita di software basato su cloud, poiché Nvidia ha assunto i progettisti di chip di Groq. REUTERS


Link alla fonte: www.straitstimes.com