Se pensiamo che l’Onu possa frenare i rischi dell’intelligenza artificiale stiamo freschi

Continuare ad agitare scenari apocalittici sull'Ai non aiuta a mettere a fuoco i problemi che già oggi questa tecnologia pone. E la soluzione non sarà il carrozzone delle Nazioni Unite

Un robot in azione al World Security Summit, a Medellin, in Colombia, lo scorso 17 maggio (foto Ansa)

La notizia della fine del mondo per colpa dell’intelligenza artificiale è fortemente esagerata? Per quel che ne possiamo sapere, sì. Pochi giorni fa un gruppo di esperti di Ai ha sottoscritto una lettera aperta del Center for Ai Safety che mette in guardia dalla minaccia esistenziale per l’umanità rappresentata dai possibili sviluppi dell’intelligenza artificiale, che dovrebbe essere considerata un rischio per la società alla pari delle pandemie e delle guerre nucleari. L’allarme, non certamente il primo, viene da chi oggi si sta arricchendo grazie a questa tecnologia, e a qualcuno sembra un ballon d’essai lanciato apposta per spostare l’attenzione su preoccupazioni futuribili e incerte e non sui problemi che già oggi l’applicazione dell’Ai pone.

I rischi sovrastimati dell’intelligenza artificiale

«Tutti noi sterminati dai robot? Non sono molto allarmato da questa prospettiva, non mi pare che l’Agi, l’intelligenza generativa generale che supera e può soggiogare l’uomo, sia dietro l’angolo», ha detto in una recente intervista a Massimo Gaggi sul Corriere il politologo Ian Bremmer, presidente della società di consulenza politica Eurasia Group e docente alla New York University e alla Columbia. «Mi preoccupano di più i pericoli connessi agli abusi, gli usi bellici e quelli criminali, degli strumenti di intelligenza artificiale già alla nostra portata». Per gli esperti il «rischio estinzione» è concreto, tanto da chiedere ai governi l’istituzione di apposite commissioni che mettano dei paletti per evitare gli abusi (commissioni naturalmente presiedute dai suddetti esperti), ma la verità è che sul futuro dell’Ai conosciamo ancora troppo poco per lanciarci in speculazioni credibili.

«I rischi di cui si parla sono in larga misura sovrastimati», hanno scritto Gilberto Corbellini e Alberto Mingardi sul Foglio, «non si discute invece di quello che a noi pare essere un problema più reale». Il vero problema, dicono, «è la facilità con cui le persone antropomorfizzano o proiettano caratteristiche umane sulle nostre tecnologie, piuttosto che l’effettiva personalità delle macchine. «La tendenza a considerare le macchine come persone e ad affezionarsi a esse, unita allo sviluppo di macchine con caratteristiche simili a quelle umane, indica il rischio reale di un legame psicologico con la tecnologia. E psicologi e filosofi dovrebbero occuparsene, cosa che invece non fanno, preferendo inseguire scenari apocalittici».

Non si tratta di fare benaltrismo, si badi, ma di osservare come il dipingere un futuro alla Terminator non serva alla comprensione di un fenomeno, certamente complesso e talvolta sfuggente, ma con molti limiti, e che quotidianamente si trova a interagire con la stupidità umana.

A cosa serve l’orizzonte apocalittico sull’Ai

Per Bremmer ci sono quattro rischi legati all’intelligenza artificiale: «Il primo rischio è la disinformazione: quella, già devastante, dell’era delle reti sociali scompare davanti a quanto possono fare i bot dell’intelligenza artificiale ormai pressoché indistinguibili dalla realtà umana nei testi e nei deepfake audio e video. Se non frenata, questa corsa verso l’irrilevanza della realtà accentuerà la crisi di legittimità di attori politici e istituzioni e comprometterà il funzionamento dei mercati. Il secondo rischio è la proliferazione: a differenza di altre tecnologie di infiltrazione e sorveglianza, l’AI generativa è democratica: è a disposizione di tutti. Anche dei malfattori che possono usarla per sabotare le reti informatiche con sofisticati codici di malware, per creare armi biologiche, manipolare i mercati e l’opinione pubblica».

«Il terzo rischio sociale riguarda l’impatto sul mondo del lavoro. Lo abbiamo già visto con le precedenti rivoluzioni industriali. Mestieri che scompaiono, altri che nascono. Ma servono tempo e risorse per addestrare e proteggere chi esce dal ciclo produttivo. Con l’Ai tutto è più rapido ed esteso. Vedo rischi politici come l’ulteriore spinta verso il populismo e i movimenti antisistema».

Al netto delle sfumature liberal dei timori di Bremmer, appare chiaro che i problemi conseguenti all’utilizzo dell’intelligenza artificiale sono già presenti oggi, e accentuarne l’orizzonte apocalittico serve paradossalmente a ignorarli.

L’intelligenza artificiale, Alexa e il gatto

Scrivono ancora Corbellini e Mingardi che il punto è «far confusione fra Alexa e il gatto. Da un’identificazione troppo stretta con le macchine possono venirne manipolazioni, soprattutto in quelle fasce della popolazione dove forti si avvertono solitudine e abbandono. A tutti ne vengono altri problemi nel percepire correttamente la realtà sociale. Accelerare la tendenza ad antropomorfizzare il mondo può rendere il dibattito ancora più infantile e polarizzato di quanto non abbiano fatto i social». Che cosa è vero e cosa è falso sembra essere la domanda più urgente di fronte alla crescita di questa tecnologia rivoluzionaria (ne discuteremo alla festa di Tempi a Caorle, con, tra gli altri, proprio Massimo Gaggi, ndr).

Ecco perché la soluzione che tanti iniziano a proporre, compreso Ian Bremmer, sembra quasi completamente inadeguata: «Le regole sono indispensabili», ha detto al Corriere il politologo americano, «ma temo che ci vorrà una crisi, com’è stato con la pandemia, per indurre tutti a rimboccarsi le maniche. Intanto, comunque, dobbiamo identificare i problemi. Siamo ancora in alto mare. Credo che solo l’Onu possa farcela: rappresenta tutti i Paesi e ha già l’esperienza fatta sui mutamenti climatici con le ricerche del Panel sul clima (IPCC), le conferenze Cop e i relativi accordi». È un modello che potrebbe essere ripetuto con l’AI».

Un modello che negli ultimi decenni proprio sul clima ha prodotto molta ideologia e tantissime scartoffie, creato una sorta di religione green e messo paletti che pochi rispettano. Affidare il futuro dell’Ai al carrozzone delle Nazioni Unite significa non arrivare a nessuna soluzione. Diffidare sempre di chi pensa che per risolvere un problema basti affidarlo a un comitato, una commissione, un panel di esperti, è l’inizio per affrontarlo nel modo giusto. Anche con l’intelligenza artificiale.

Exit mobile version