San Francisco – Meta Platforms ha accettato di implementare “milioni” di processori Nvidia nei prossimi anni, rafforzando il già stretto rapporto tra due delle più grandi aziende nel settore dell’intelligenza artificiale.
Meta, che rappresenta circa il 9% delle entrate di Nvidia, promette di utilizzare maggiormente i processori AI e le apparecchiature di rete del fornitore, secondo una dichiarazione del 17 febbraio. Per la prima volta, prevede anche di fare affidamento sulle unità di elaborazione centrale Grace di Nvidia, o CPU, al centro dei computer autonomi.
Il lancio include prodotti basati sull’attuale generazione Blackwell di Nvidia e sull’imminente progettazione di acceleratori AI di Vera Rubin.
“Siamo entusiasti di espandere la nostra partnership con Nvidia per costruire cluster leader del settore utilizzando la loro piattaforma Vera Rubin per fornire super intelligenza personale a tutti nel mondo”, ha affermato il CEO di Meta Mark Zuckerberg nella dichiarazione.
Il patto riafferma la lealtà di Meta nei confronti di Nvidia in un momento in cui il panorama dell’IA sta cambiando.
I sistemi di Nvidia sono ancora considerati il gold standard per l’infrastruttura AI
– e generare centinaia di miliardi di dollari di entrate per il produttore di chip. Ma i rivali ora offrono alternative e Meta sta lavorando alla costruzione dei propri componenti interni.
Le azioni di Nvidia e Meta sono entrambe aumentate di circa l’1% nella fase di late trading del 17 febbraio dopo l’annuncio dell’accordo. Advanced Micro Devices, rivale di Nvidia nei processori AI, è sceso di circa il 3%.
Secondo una recente stima di IDC, gli acceleratori IA di Nvidia, i chip che aiutano a sviluppare ed eseguire modelli IA, frutteranno in media 16.061 dollari (20.285 dollari) ciascuno. Ciò significa che un milione di chip costerebbe più di 16 miliardi di dollari, e ciò non tiene conto del prezzo più alto delle versioni più recenti o delle altre apparecchiature Nvidia acquistate da Meta.
Ma Meta era già il secondo maggiore acquirente di prodotti Nvidia. Secondo i dati di Bloomberg, lo scorso anno fiscale il settore ha totalizzato circa 19 miliardi di dollari.
Ian Buck, vicepresidente Accelerated Computing di Nvidia, ha affermato che le due società non stanno mettendo una cifra in dollari sull’ultimo impegno né fissando una tempistica.
Buck sostiene che solo Nvidia è in grado di offrire l’ampiezza di componenti, sistemi e software di cui ha bisogno un’azienda che vuole essere leader nell’intelligenza artificiale. Tuttavia, è ragionevole che Meta e altri testino altre alternative, ha detto.
Zuckerberg, nel frattempo, ha fatto dell’intelligenza artificiale la massima priorità di Meta, impegnandosi a spendere centinaia di miliardi di dollari per costruire le infrastrutture necessarie per competere in questa nuova era.
Meta ha già previsto una spesa record per il 2026, con Zuckerberg che nel 2025 ha affermato che la società verserà 600 miliardi di dollari in progetti infrastrutturali statunitensi nei prossimi tre anni. Meta sta costruendo diversi data center da gigawatt in tutto il paese, tra cui Louisiana, Ohio e Indiana. Un gigawatt è all’incirca la quantità di energia necessaria per alimentare 750.000 famiglie.
Buck ha sottolineato che Meta sarà il primo grande operatore di data center a utilizzare le CPU Nvidia nei server autonomi. Normalmente Nvidia offre questa tecnologia in combinazione con i suoi acceleratori AI di alta qualità: chip che devono le loro origini ai processori grafici.
Questo cambiamento rappresenta un’invasione del territorio dominato da Intel e AMD. Fornisce inoltre un’alternativa ad alcuni dei chip interni progettati dai principali operatori di data center, come Amazon Web Services di Amazon.com.
Buck ha affermato che l’uso di tali chip non fa che aumentare. Meta, proprietario di Facebook e Instagram, utilizzerà personalmente i chip e si affiderà anche alla capacità di calcolo basata su Nvidia di altre società.
Le CPU Nvidia saranno sempre più utilizzate per attività come la manipolazione dei dati e l’apprendimento automatico, ha affermato Buck.
“Esistono molti carichi di lavoro diversi per le CPU”, afferma Buck. “Quello che abbiamo scoperto è che Grace è un’eccellente CPU back-end per data center”, il che significa che gestisce le attività di elaborazione dietro le quinte.
“Può effettivamente fornire il doppio delle prestazioni per watt su quei carichi di lavoro back-end”, afferma. BLOOMBERG
Link alla fonte: www.straitstimes.com