Oltre DeepSeek. Qualche domanda sull’intelligenza artificiale

Di Fabio Mercorio
04 Febbraio 2025
Tutti ne parlano, pochi sanno davvero di cosa si tratta. Ipotesi, numeri, possibili applicazioni e uno spunto di giudizio che sposta la responsabilità sull'Ai dagli altri a noi
robot intelligenza artificiale chatgpt deepseek
Il robot umanoide Reachy in mostra alla Maison de l'Intelligence Artificielle a Biot, in Francia (foto Ansa)

Da qualche mese, le notizie riguardo all’intelligenza artificiale stanno guadagnando le prime pagine delle principali testate giornalistiche italiane, gareggiando ormai con il calcio, il tennis e la guerra dei Ferragnez, quanto basta per accreditare l’Ai nella cultura di massa del paese.

Mentre però sugli altri temi è ben noto che noi italiani siamo tutti un po’ allenatori e gossippari, sull’Ai regna una confusione generalizzata, alimentata anche dalla poca chiarezza degli addetti ai lavori. Proviamo a fare un po’ di ordine – per quanto possibile – e suscitare qualche domanda.

ChatGpt e l’Ai generativa

Tutti ormai sappiamo che l’Ai al centro della cronaca è capace di imparare dai dati, e che dal 2022  – avvento di ChatGpt – è divenuta generativa, nel senso che è in grado di “generare” contenuto (audio, video, immagini, testo, etc..) a partire dalla distribuzione di probabilità che inferisce dai dati stessi. Cosa è successo dunque nelle ultime ore con DeepSeek e perché sta creando tanto scompiglio? DeepSeek è una startup cinese, sorvegliata speciale dai professionisti del settore ma pressoché sconosciuta al pubblico.

DeepSeek

DeepSeek ha sviluppato una Ai in grado di rivaleggiare con ChatGpt (OpenAI/Microsoft), Llama (Meta), Gemini (Google), Grok (X), Claude (Anthropic/Amazon), insomma… con le grandi. Lo fa misurandosi con i “benchmark”, cioè dei test sui quali l’Ai non si è addestrata, ma che servono a verificare quanto è brava nel rispondere a delle domande predefinite. Di fatto, i benchmark rappresentano gli esami per le AI. Fin qui, tutto nella norma, se non fosse per tre elementi cruciali – tutti ancora da verificare attentamente – ma su cui possiamo dire qualcosa.

I costi (più o meno noti) di ChatGpt e DeepSeek

Addestrare un modello linguistico di grandi dimensioni, quella che chiamiamo Ai, è molto dispendioso. Le armi di questa guerra sono le GPU: potremmo dire che le armi stanno alla guerra come le GPU stanno alla corsa all’Ai. Non si hanno informazioni certe sul costo di addestramento di ChatGPT4, ma per la sua versione precedente OpenAI ha dichiarato un uso di circa 10.000 GPU V100 per intere settimane. Considerando che una GPU di quel tipo costa tra i 10 e i 15 mila euro, è chiaro che solo il costo del “ferro” si aggira sui 100 milioni di euro, senza contare l’energia per alimentarla per settimane, lo stoccaggio dei dati, l’infrastruttura IT, la manodopera degli ingegneri, etc. Per l’addestramento di ChatGPT4 non si hanno stime certe.

Ora, DeepSeek ha dichiarato che per addestrare il proprio modello R1 ha impiegato qualche migliaia di GPU per un costo totale dichiarato di circa 5 milioni di dollari. Come se non bastasse, sembra che R1 di DeepSeek sia anche 10 volte più efficiente nell’inferenza, cioè nell’attività che il modello svolge internamente per generare ogni singola parola. Capite quindi che la conseguenza è semplice: se è possibile spendere il 90 per cento in meno per allenare una AI, allora (1) chi oggi si sta dotando di migliaia di GPU starebbe gettando via i suoi soldi; (2) NVIDIA, società praticamente monopolista nel settore potrebbe non vendere tutte le GPU che ci si aspetta (io non credo, anzi!). Ma i mercati sono selfish e speculativi, per questo si è scatenato il panico in USA ed in borsa per il comparto AI.

DeepSeek ha copiato OpenAI?

A oggi sappiamo che l’addestramento di un modello linguistico come ChatGPT richiede anche intervento umano molto dispendioso. Da quanto si apprende, invece, DeepSeek sembra abbia sviluppato una tecnica che riduce notevolmente questo coinvolgimento umano, accelerando ed ottimizzando quindi la fase di addestramento. Chiaramente, anche questo elemento di novità – documentato da DeepSeek ma da verificare empiricamente – crea scompiglio nella Silicon Valley, che vive una supremazia che ora è messa completamente in discussione.

Sam Altman ChatGpt OpenAI
Il ceo di OpenAI, Sam Altman (foto Ansa)

In aggiunta, DeepSeek ha rilasciato la metodologia e – soprattutto – il modello nella sua interezza completamente in modalità open, cioè protetto dalle sole policy per il software libero, estremamente permissive. Anche Meta con Llama 3.1 aveva fatto qualcosa di simile, ma il fatto che arrivi dalla Cina rende OpenAI tra le poche ormai società tutt’altro che Open. Questi hanno dichiarato di avere evidenze che DeepSeek abbia invece “distillato” la conoscenza di ChatGpt dentro il proprio modello (cioè, copiato, goccia a goccia, tutto il modello travasando la conoscenza da l’uno a l’altro), violando il copyright di OpenAI.

Non ci sarebbe quindi alcuna innovazione, ma solo un artefatto copiato a regola d’arte. Non sappiamo se davvero il metodo proposto sia così rivoluzionario come affermano, una cosa è certa però: il guanto di sfida della Cina agli USA per la supremazia in ambito AI è lanciato.

E l’Europa cosa fa?

E noi Europei? Non possiamo pensare di ragionare come singoli stati. Per dare l’idea della portata del fenomeno, si pensi che il budget dell’Agenzia Spaziale Europea (ESA) per il 2023 è di circa 7,4 miliardi di euro, mentre OpenAI ha raccolto 6.6 miliardi di dollari per il 2024, nonostante le perdite significative dell’anno precedente, nell’intorno dei 5 miliardi di dollari. Questi numeri rendono l’idea di quanto l’AI richieda investimenti massicci, oggi comparabili a quelli destinati all’esplorazione spaziale. Nessuno stato infatti può sostenere autonomamente lo sforzo finanziario per sviluppare l’Ai: si tratta di valori economici che solo grandi player con liquidità miliardari e promesse di capital gain a nove zeri possono permettersi. Per questo non possiamo pensare di competere nella partita come singoli stati, ma dovremmo farlo come europei, e siamo già tanto, tanto indietro.

Leggi anche

Arrivano gli agenti Ai

Arrivano gli “agenti” e l’Ai fai da te. Con la diffusione dei suddetti modelli, anche open, si apre la possibilità di sviluppare agenti usando le Ai esistenti. Gli agenti saranno di fatto dei piccoli bot con cui interagiremo ma con in più la possibilità di avere deleghe decisionali sulle nostre azioni quotidiane, per fare autonomamente delle cose per noi. Ad esempio, immaginiamo che la nostra banca realizzi un agente Ai per i micropagamenti, che ci avvisa quando arriva un MAV da pagare e che noi autorizziamo vocalmente, lui farà il pagamento al posto nostro.

Ancora, un agente Ai potrebbe farsi carico di acquistare i farmaci che il nostro medico ci ha prescritto con una impegnativa digitale, etc. Come se non bastasse, a dicembre il ceo di NVidia ha dichiarato l’arrivo di DIGITS, un supercomputer da casa per usare una Ai domestica a circa 3 mila euro. Caratteristica interessante, il supercomputer ha una potenza di 1 petaflop: di fatto, è 100 volte più potente del pc dal quale sto scrivendo (un petaflop corrisponde a 10^15 operazioni in virgola mobile per secondo, unità di misura per stimare la potenza di un supercalcolatore. A oggi, per il mercato desktop, i pc hanno una potenza nell’intorno dei 10 Teraflop, due ordini di grandezza in meno).

Un giudizio chiaro tra disfattismo e iperottimismo

Modelli addestrati sull’intero Internet, aggiornati e performanti, a basso costo, supercomputer da casa, dati a volontà: tutti ingredienti per dare il via ad ecosistema Ai che sarà ancora più pervasivo in ogni ambito della vita, con l’Ai che si trasformerà da “consulente” a “operatore”, iniziando a svolgere piccole attività per noi con diversi gradi di autonomia. Personalmente credo che sia come l’arrivo dell’iPhone: nel 2007 nessuno sapeva a cosa servisse un “telefono” così potente e tantomeno cosa fossero le App. Oggi, c’è un’app per tutto, le usiamo tutti e – soprattutto – si è generato un ecosistema globale da cui è impensabile tornare indietro per le ripercussioni economiche, sociali e di interazioni umane.

In questo scenario globale, potrebbe vincere il disfattismo (l’AI ci distruggerà), l’ottimismo indomito (l’AI ci migliorerà la vita) e tutte le variazioni intermedie. Di fronte ad uno scenario così incerto e volatile però, devo dire che ho trovato il documento sull’AI promosso dal dicastero per la Dottrina della fede estremamente pertinente, accurato e pieno di riflessioni e spunti per un giudizio. Lungi da me il voler sintetizzare (per quello c’è ChatGpt…), ma una frase credo che meriti di essere ripresa, con cui concludere, perché sposta la responsabilità dagli altri a noi:

«È decisivo, di conseguenza, saper valutare criticamente le singole applicazioni nei contesti particolari, al fine di determinare se esse promuovano o meno la dignità e la vocazione umane e il bene comune. Come per molte tecnologie, gli effetti delle diverse applicazioni dell’IA possono non essere sempre prevedibili ai loro inizi. Nella misura in cui tali applicazioni e il loro impatto sociale diventano più chiari, si dovrebbero cominciare a fornire adeguati riscontri a tutti i livelli della società, secondo il principio di sussidiarietà. È importante che i singoli utenti, le famiglie, la società civile, le imprese, le istituzioni, i governi e le organizzazioni internazionali, ciascuno al proprio livello di competenza, si impegnino affinché sia assicurato un uso dell’IA confacente al bene di tutti».

Fabio Mercorio è professore ordinario di AI e Data Science e Direttore del Master in AI e Data Analytics presso l’Università di Milano-Bicocca

Articoli correlati

0 commenti

Non ci sono ancora commenti.