Il vero protagonista dell’intelligenza artificiale è l’uomo
Si legge e ascolta ogni giorno sempre più dibattiti sull’Intelligenza Artificiale e l’impatto che avrà sulla vita di tutti i giorni, ed in particolare sul mondo del lavoro.
Alcuni tratteggiano scenari apocalittici descrivendo un mondo dominato dai robot in cui l’uomo ne sarà assistente passivo, altri invece riducono la tematica immaginandosi che troveremo un modo per governarlo e che dunque non ci sia nulla di cui preoccuparsi.
Cosa manca nella discussione sull’intelligenza artificiale
Personalmente non trovo per nulla interessante entrare in questa arena di dibattito. Ciò che noto però è che nei dialoghi sui giornali o sui media manchi il punto centrale della questione, e cioè un focus chi sta già usando ed userà queste tecnologie: l’uomo.
«Per le intelligenze artificiali non è pensabile alcuna forma di etica automatica. Non è pensabile far emergere l’etica dai dati. Dobbiamo sviluppare un nuovo capitolo dell’etica: l’Algoretica. Si tratta in prima istanza di lasciare sempre uno spazio per l’uomo e per il suo mondo di valori con cui giudicare: questo atto potrà essere a volte precario e incerto ma insostituibile e non surrogabile dalla macchina. È quindi necessario, prima di discutere se e quanto si può umanizzare la macchina con varie forme di AI, tenere l’uomo nel processo decisionale per umanizzare la macchina».
Questa la definizione di Algoretica che padre Paolo Benanti, nuovo presidente per la Commissione che sta studiando l’impatto che l’intelligenza artificiale sull’editoria, dà nel suo libro Human in the Loop: decisioni umane e intelligenze artificiali in cui racconta con grande chiarezza anche per i non addetti ai lavori l’unicità che l’uomo ha sempre avuto nel suo rapporto e nella sua interazione con la realtà tramite strumenti tecnologici – e dunque oggi anche con l’Ai – proponendo una via per sviluppare e utilizzare questi strumenti tenendo l’uomo al centro, e non l’algoritmo.
Macchine e uomini
Quasi come una evoluzione calata nella realtà di oggi delle tre leggi della robotica di Asimov, vengono proposti questi elementi che le macchine devono avere per co-esistere con l’uomo:
1. Intuizione: è la macchina che deve adattarsi all’uomo e alla sua unicità, e non viceversa.
2. Intellegibilità: non è l’ottimizzazione dell’agire della macchina la più importante finalità che deve caratterizzare i suoi algoritmi, bensì il rispetto per l’uomo che la usa.
3. Adattabilità: l’uomo non è solo essere razionale ma anche emotivo; l’agire della macchina deve saper valutare e rispettare questa unica e peculiare caratteristica.
4. Regolazione: il robot non può avere come unica policy l’assolutezza del suo obiettivo come se fosse la cosa più importante e assoluta, ma deve saper adeguare il suo agire in funzione dell’agire e dell’obiettivo della persona con cui coopera. Deve acquisire una “Umiltà Artificiale”. In sintesi, è il robot che coopera con l’uomo e non l’uomo che assiste la macchina.
Questo obiettivo però non sarà in alcun modo raggiungibile se l’uomo che utilizza questi strumenti non accetti di entrare in quello spazio libero che la tecnologia gli lascia per portare se stesso ed essere decisore finale del processo per cui sta usando quell’artefatto tecnologico.
Chi può rispondere alle domande sull’intelligenza artificiale
Nell’articolo del 12 Dicembre scorso descrivevo come l’Ai impatterà i lavori ad alto livello cognitivo. Declinando ancor di più quel ragionamento dobbiamo chiederci ad esempio cosa vuol dire per un avvocato pretendere di avere uno spazio di libertà nell’uso dell’Intelligenza Artificiale all’interno del suo lavoro? Cosa vuol dire pretenderlo per un medico? Cosa vuol dire per un professore, un ingegnere, un giornalista, uno psicologo, un politico e per ogni altra professionalità?
Ma anche: cosa vuol dire per un imputato di un processo? E per paziente malato? E per un cittadino che esprime la sua preferenza politica attraverso il voto? Cosa vuol dire per uno studente, per un lettore o comunque per chiunque fruisca di un servizio oggi fornito da un’altra persona?
La risposta a questa domanda deve e può arrivare direttamente da chi lavora in quello specifico campo professionale, così come da chi ne fruisce il servizio.
Prendiamo in considerazione uno scenario futuro in cui gli studenti apprendano direttamente da un sistema di intelligenza artificiale, o alcuni pazienti ricevano le cure direttamente da una macchina sulla base di una lista di sintomi (non sono esempi casuali: si tratta di sperimentazioni che stanno accedendo già oggi riscontrando un certo successo). Immedesimandosi in quello studente o in quel paziente risulta evidente come il loro bisogno non si ultimi nel “ricevere” delle nozioni nel primo caso, o una lista di medicinali nel secondo. Ciò di cui hanno bisogno è più di questo, nel rapporto tra docente e professore, così come tra un avvocato e un imputato, tra un giornalista e i suoi lettori, c’è di più rispetto al mero scambio informativo.
Il passo avanti nella discussione sull’intelligenza artificiale
Il passo avanti nella discussione è comprendere che ciascuno di noi, dall’interno del campo professionale in cui opera, ha gli strumenti per guidare un uso consapevole dell’Ai nel suo campo. Non si tratta di essere contrari o favorevoli all’innovazione, ma di essere capaci di valutarne l’impatto sociale ed etico, di dialogare con gli esperti di altre discipline, di comunicare in modo efficace e responsabile con i propri utenti e clienti, in un modo che non sostituisca ma esalti l’uomo.
Mi raccontava pochi giorni fa una professoressa di Fisica e Matematica di una scuola superiore di come, da quando ha scoperto che i suoi studenti utilizzavano uno strumento di AI per fare i compiti a casa, abbia cambiato il suo approccio all’insegnamento e, sfidandoli in classe senza “punirli”, abbia fatto comprendere loro come l’AI non avesse usato le conoscenze che avevano acquisito per fornire la soluzione degli esercizi che avevano di fronte. Li ha aiutati a formarsi un pensiero critico per cui i suoi studenti possono affermare di saper risolvere quel tipo di problema meglio dell’AI.
Nuove “piazze dei mestieri” per studiare l’Ai
La sfida che si trova ad affrontare oggi il mondo dell’educazione, così come quello della salute, della giustizia, dell’informazione e di molti altri settori, è quella di integrare l’intelligenza artificiale nel proprio lavoro in modo etico e sostenibile. Non possiamo delegare questa responsabilità solo al legislatore, che ha certamente il compito di stabilire delle norme per garantire i diritti e i doveri dei cittadini di fronte alle nuove tecnologie.
Per affrontare questa sfida e cogliere questa opportunità, occorre creare degli spazi di confronto e di collaborazione tra i diversi attori coinvolti nell’uso dell’AI. Non bastano le competenze tecniche o scientifiche, serve anche una visione umanistica e sociale, che tenga conto dei valori e dei bisogni delle persone. Questi spazi potrebbero essere delle nuove “piazze dei mestieri”, dove l’AI non è vista come un oggetto esterno e impersonale, ma come un prodotto della cultura e dell’ingegno umano. In queste piazze, i professionisti di vari settori devono poter dialogare e trovare una forma di adozione di queste tecnologie che contribuisca al bene comune e non svilisca l’uomo che le usa così come chi fruisce di quel servizio. Solo così potremo fare dell’AI un alleato e non un nemico, un mezzo e non un fine, una risorsa e non una minaccia. Questa è la nostra sfida, questa è la nostra opportunità.
0 commenti
Non ci sono ancora commenti.
I commenti sono aperti solo per gli utenti registrati. Abbonati subito per commentare!