Nvidia e la minaccia dell’inferenza.

Il boom dell’intelligenza artificiale scatenato dal lancio di ChatGPT è stato dominato da una regola fondamentale: più grandi sono i modelli di AI, meglio è. Questo consenso ha spinto giganti come Microsoft, Google, Amazon e Meta a una vera e propria corsa alla spesa per accaparrarsi i chip di Nvidia e altri fornitori.

Nvidia è stata la principale beneficiaria di questa gara, grazie alla capacità delle sue GPU di eseguire molteplici calcoli simultaneamente, riducendo notevolmente il tempo necessario per addestrare un modello di AI. Tuttavia, l’industria si sta trovando ad affrontare ostacoli nella costruzione di modelli sempre più grandi, mettendo in discussione il futuro dell’approccio attuale.

Il boom dell’intelligenza artificiale innescato da ChatGPT è stato finora guidato dall’idea che più grandi sono i modelli, migliori saranno i risultati. Questo ha scatenato una competizione feroce tra i giganti tecnologici come Microsoft, Google, Amazon, Meta e altri, tutti alla ricerca dei chip di Nvidia per sostenere i loro ambiziosi progetti di AI.

Nvidia ha tratto grandi benefici da questa competizione, grazie alle sue GPU, particolarmente adatte per l’addestramento rapido dei modelli di AI, eseguendo calcoli simultanei. Tuttavia, l’industria sta ora affrontando nuove sfide che mettono in discussione la validità del continuo aumento delle dimensioni dei modelli. La metrica più utilizzata per valutare la potenza di un modello di AI è il numero di parametri: maggiore è il numero di parametri, maggiore è la complessità del modello e più GPU sono necessarie per addestrarlo efficacemente. Tuttavia, secondo alcuni esperti, oltre il trilione di parametri i miglioramenti diventano marginali, sollevando dubbi sull’efficacia di questa strategia di crescita illimitata.

Inoltre, uno dei problemi principali è la carenza di dati di qualità per addestrare questi modelli sempre più complessi. Questo potrebbe spingere l’industria a cercare soluzioni diverse, come modelli più piccoli e specializzati, addestrati su dati proprietari piuttosto che su grandi volumi di dati generici disponibili su internet.

Un cambiamento significativo nell’approccio all’AI riguarda anche lo spostamento dell’attenzione dall’addestramento all’inferenza, ovvero l’utilizzo dei modelli per generare risposte e soluzioni. Questo cambiamento potrebbe favorire i concorrenti di Nvidia, come AMD, Intel e diverse start-up, poiché l’inferenza potrebbe essere gestita in modo più efficiente da processori diversi dalle GPU. Nvidia è consapevole di questa minaccia e ha già evidenziato che l’inferenza rappresenta circa il 40% delle sue entrate nei data center, una percentuale in rapida crescita. Tuttavia, questo cambiamento potrebbe consentire ai concorrenti di erodere la posizione dominante di Nvidia.

In conclusione, Nvidia rimane il leader indiscusso nel settore dell’AI, ma deve affrontare nuove sfide che potrebbero minare la sua posizione dominante. L’evoluzione delle esigenze tecnologiche e l’ingresso di nuovi attori sul mercato richiederanno a Nvidia di adattarsi rapidamente, soprattutto se l’attenzione si sposterà sempre più dall’addestramento dei modelli all’inferenza. Per mantenere la propria leadership, Nvidia dovrà affrontare una concorrenza sempre più agguerrita e sviluppare soluzioni innovative che rispondano alle nuove dinamiche del settore.