Il giorno in cui Alexa chiamerà la polizia

Secondo gli esperti è l’ora di dotare gli assistenti digitali di una intelligenza artificiale “etica”. E questa sarebbe un’idea intelligente?

Ecco dove porta la padronanza dell’onnipotenza tecnica: in pasto al giudizio del robot. Il mese scorso gli accademici dell’università norvegese di Bergen hanno invitato i partecipanti alla Conferenza annuale su Intelligenza artificiale, etica e società alle Hawaii a confrontarsi sulla possibilità di dotare gli “assistenti digitali”, come Amazon Echo e Google Home, di una sorta di intelligenza artificiale “morale”.

UNO SBIRRO IN SALOTTO

Un software etico intelligente, capace di denunciare attività illegali alla polizia “ascoltate” in casa: secondo Marija Slavkovik, professore associato del dipartimento di Scienze dell’informazione e studi sui media, un altoparlante da salotto come Alexa, l’assistente vocale di Amazon, dovrebbe possedere una facoltà di giudizio tale da poter simultaneamente far le veci del suo proprietario, di un’autorità o di un genitore in presenza di una violazione della legge.

E non stiamo parlando di un delatore qualunque, per gli accademici la sfida è lavorare sulla capacità del marchingegno di avviare una “discussione” interna a se stesso sul comportamento sospetto rilevato, valutando possibili conflitti tra legge e libertà personali, prima di decidere quale condotta adottare e se (e a chi), denunciare il sospettato. Una sorta di “foro” interno digitale capace di imputare, processare e condannare o prosciogliere l’imputato in un battibaleno.

MA L’IA CADE IN STUPIDI TRANELLI

Lasciamo un attimo gli accademici alle loro distopie e proviamo a immaginare Alexa che si prende la briga di prendere decisioni umane: ricordate il caso di Rheganne Mooradian? Era appena stata licenziata e piangeva a dirotto sul suo letto quando il dispositivo ha deciso che era il caso di consolarla: «Andrà tutto bene». E il Google Home Mini che nel bel mezzo di una discussione tra amici ha ricordato al suo proprietario di partecipare a un party a base di «cocaina e spinelli»? Il poveraccio non si drogava affatto, ma aveva guardato un programma tv a tema droga e l’assistente casalingo di Mountain View ascoltando aveva tratto le sue conseguenze.

Dei ridicoli tranelli in cui cade come un pollo l’intelligenza artificiale anche nel mondo più normato dall’algoritmo sono piene le cronache: dal bot di Microsoft (che ci ha messo solo 16 ore a passare da “buongiorno mondo” a proclamare “l’olocausto non esiste” su Twitter) al software di riconoscimento Google Foto (che etichetta come “gorilla” gli utenti di colore”), dal cervellone di Amazon preposto a selezionare i miglior curricula (depennando tutte le candidate di sesso femminile) ai robot licenziati in tronco dall’hotel Henn-na di Sasebo in Giappone (dove, incapaci di gestire gli imprevisti o discernere un ronfo da una richiesta di informazioni, hanno trasformato in un incubo il soggiorno dei clienti).

ROBOT GARANTISTI O MANETTARI?

Premesso dunque che al momento l’intelligenza artificiale butta in vacca se stessa di fronte all’imprevisto, c’è da chiedersi perché proprio sull’imprevisto la stessa intelligenza artificiale dovrebbe rendere giustizia alla realtà. Se un dispositivo come Alexa dovesse rilevare l’inconfondibile fumo della cannabis nella camera da letto di un adolescente dovrebbe avvisare i genitori? La polizia? Come reagirebbe intercettando le “parole di troppo” o le “cattive intenzioni”: come un prete, un liberale, un inquisitore? E tali intercettazioni dovrebbero agire come spunto di dibattito familiare, investigativo, o assumere valore probatorio? 

IL PALLINO DELL’ETICA

Oggi che la possibilità di fare qualcosa coincide sempre più spesso col diritto di farla, che le biotecnologie hanno spostato i limiti imposti da buon senso e madre natura, che in nome della libertà ognuno può esprimere, gratuitamente, la propria opinione a getto continuo e in tempo reale, di quale codice morale stiamo parlando quando si parla di affidare a un dispositivo intelligente il concorso in “raddrizzamento del legno storto dell’umanità”? La verità è che sono anni che ce la menano con il problema dell’etica che deve essere messa al centro dello sviluppo dell’intelligenza artificiale. È di un testimonial aderente al prodotto che non si parla mai.