Contenuto riservato agli abbonati

Così l’intelligenza artificiale ha imparato da sola a ingannarci

Di Pietro Piccinini
18 Maggio 2024
Uno studio analizza una serie di casi inquietanti in cui i sistemi basati sull’Ai si sono messi a imbrogliare al di là o addirittura contro le istruzioni degli sviluppatori. Rischi possibili e idee per limitare i danni
Illustrazione sull’intelligenza artificiale all’expo sulla cybersecurity di Taiwan
Foto Ansa

Che “dire la verità” non sia esattamente la specialità numero uno delle applicazioni alimentate dall’intelligenza artificiale dovrebbe essere chiaro a tutti ormai da tempo. Dovrebbe. Tempi ha provato più volte a spiegare perché (in super sintesi: si tratta di sistemi basati su statistica e verosimiglianza, più che su effettiva “intelligenza” e verità). Tuttavia basta osservare come tendiamo ostinatamente a berci qualunque corbelleria, basta che “lo ha detto l’intelligenza artificiale”, per concludere come il concetto non sia in realtà affatto chiaro. E l’ormai innumerevole elenco di appelli firmati dai maggiori esperti del settore – tra gli ultimi quello lanciato dai giganti delle tlc e dei media del Giappone, tra i più clamorosi quello dello stesso inventore dell’Ai – è lì a confermare come il rischio che la civiltà si lasci travolgere da questa innovazione è concreto.

Ad aggiungere altri motivi di inquietudine a questo scenario è ora uno studio pubblicato dalla rivista open access...

Contenuto a pagamento
Per continuare a leggere accedi o abbonati
Abbonamento full
€60 / anno
oppure
Abbonamento digitale
€40 / anno

Articoli correlati