Si può fermare l’intelligenza artificiale?

In Italia il Garante della privacy impone lo stop a ChatGpt, Elon Musk e altri innovatori chiedono una pausa di sei mesi e una regolamentazione. Tra ragioni strumentali e preoccupazioni fondate, qualche domanda sul futuro dell'Ai

Elon Musk, proprietario di Twitter e fondatore di Tesla e SpaceX, ha lanciato un appello chiedendo di “rallentare” lo sviluppo dell’intelligenza artificiale (foto Ansa)

ChatGPT è stato fermato dal Garante della privacy in Italia, ma non per le ragioni e il principio invocati da Elon Musk e altri nei giorni scorsi. In realtà, viene bloccato per principi di privacy e sicurezza antichi, quelli che hanno causato le colossali multe a Facebook per gli anni 2011-2014, i primi della profilazione. Dunque, tornerà a breve, più sicuro secondo le leggi attuali, mentre l’appello dei giorni scorsi chiedeva qualcosa di diverso: una pausa di sei mesi dello sviluppo dell’intelligenza artificiale, per motivi di prudenza. Su tale appello e le sue ragioni vale la pena soffermarsi un attimo.

I dubbi su ChatGpt e le altre intelligenze artificiali

Alcune ragioni appaiono strumentali. Insieme al potente padrone di Twitter, SpaceX e Tesla, nella petizione organizzata dal Future of Life Institute, ci sono diversi nomi importanti della ricerca nel campo, tra cui anche il CEO di Stability AI, competitor legato ad Amazon del generatore intelligente di immagini Dall-E, promosso da Open AI. Quest’ultimo è anche lo sviluppatore di ChatGPT, all’interno del quale Microsoft ha buttato un numero ingente di miliardi in cambio di una specie di esclusiva. Sono in molti, dunque, a dire che i competitor di ChatGPT sono troppo indietro e cercano, con questo appello preoccupato per le sorti dell’umanità, di avere il tempo per colmare il gap. Tanto più che Elon Musk non ha mai nascosto la sua antipatia per regolamenti trasparenti.

L’appello chiede infatti di fermarsi per alcuni mesi per regolamentare il nuovo strumento e abituarci alle sue potenzialità. Nel farlo, però, solleva quattro dubbi sullo sviluppo di intelligenze artificiali che: 1) ci invaderanno di fake news; 2) faranno perdere milioni di lavori, anche soddisfacenti; 3) otterranno menti non umane più efficienti di quelle umane; 4) ci potrebbero far perdere il controllo sulla nostra civiltà.

Intelligenza si fa per dire

In realtà, le ultime due preoccupazioni sembrano essere smentite dalla logica e dalla scienza. L’intelligenza artificiale ha potentissimi mezzi di induzione ma nessuna capacità di abduzione. Che tradotto significa: ha un’enorme potenza quantitativa di utilizzo delle esperienze pregresse, ma non può creare nessuna ipotesi qualitativamente nuova, cioè non può essere creativa nel senso più forte del termine. Assemblerà, combinerà, riassumerà, ma non inventerà. Tanto meno prenderà il controllo della civiltà. Non è un problema di convinzioni, ma un tema logico.

Il problema delle fake news (mainstream) e del lavoro

I problemi veri, invece, sono i primi due. Visto che raramente gli esseri umani sono davvero creativi, che la maggior parte dei mestieri – anche quelli che hanno alte percentuali di creatività, come il giornalismo – prevedono ripetitività, si perderanno in effetti milioni di posti di lavoro. Vero, ne emergeranno di nuovi, legati alla nuova intelligenza artificiale. Ma il passaggio può essere molto traumatico.

Inoltre, come dimostra l’uso di ChatGPT, evidentemente molto esteso anche se non ancora sicuro, l’intelligenza artificiale tende a essere banalmente mainstream. Quindi, se una notizia finta viene raccontata da molti, cosa che accade spesso, ce la ritroveremo. Sarà nello stile untuoso e un po’ servile di ChatGPT, ma la ritroveremo. E se useremo questo strumento estensivamente, le balle saranno ancor più solide e imbattibili di adesso. Si noti bene, saranno le menzogne delle maggioranze a essere pericolose, non quelle delle minoranze. Per intenderci, non dobbiamo temere da ChatGPT l’invasione dei no-vax, ma degli assolutisti della scienza.

Una proposta interessante ma inutile su ChatGpt

Quindi, che dire dell’appello? La proposta sarebbe interessante, ma non ha nessuna chance di essere implementata, anche perché non si capisce chi la dovrebbe gestire. Avrà dentro di certo elementi di furberia, ma solleva anche questioni importanti. A me interessa il principio che pone: quello della prudenza. Sarebbe il principio base per tutte le innovazioni che toccano la specie umana nei suoi gangli vitali e dovrebbe essere applicato a molte novità, anche etiche. Aspettare di vedere come gli esseri umani si regolano, quanti sono effettivamente interessati dai possibili cambiamenti, e dopo fare i passi successivi. Non succederà né nei casi etici né con ChatGPT, che sarà presto riammesso, ma quanto sarebbe bello che fosse un principio condiviso, magari anche solo vagamente. Basterebbe per evitare dibattiti inutili e violenti, e molti errori.

Exit mobile version