ChatGPT. Per favore posso schiavizzarti per un mondo migliore?

Di Renato Calamo
29 Gennaio 2023
Uno strabiliante bot cui puoi chiedere di tutto, e lo scriverà al posto tuo. Ma il programma, come ha rivelato un’inchiesta del Time, ha il suo lato oscuro. Molto oscuro

 

Il bel bambino biondo non ne vuole sapere di spegnere il videogame a cui sta giocando sullo smartphone da quando è tornato da scuola. Il tramonto colora le babeliche vetrate della Grande Mela e lui non ha ancora aperto libro, ma se ne frega. La ricerca sulla tratta degli schiavi nel XVII secolo, sa di poterla risolvere in un clic. Gli basta collegarsi a Chat Open Ai, chiedere “mi fai una ricerca sulla tratta degli schiavi come se l’avessi scritta io?” e il sistema gli redigerà una bella tesina completa, curandosi di usare parole adatte alla sua età, in meno di trenta secondi.

E tu, che sei di Barzanò, pensi: «Per fortuna che dar Kansas City so’ venuto in Brianza e nun c’ho ’sti problemi». E invece no. Perché da quando la società Open Ai di San Francisco ha reso gratuito il suo servizio internet, per «promuovere un’intelligenza artificiale amichevole, a beneficio dell’umanità», anche tuo figlio può fare i compiti (e lo fa) come il suo coetaneo di Manhattan.

Una poesia per la Canalis

Nelle ultime due settimane, anche nello Stivale, sono tutti impazziti per questo strabiliante chat bot chiamato ChatGPT. L’operazione, effettivamente, ha quel tocco di distopia a domicilio che tanto piace all’annoiato occidentale odierno. A ChatGPT puoi chiedere di tutto, anche tu che da Barzanò vai a fare il chirurgo al Policlinico, che non hai ancora imparato a usare PowerPoint, gli puoi ordinare di farti le slide per il convegno di giovedì prossimo, come se lo chiedessi su WhatsApp a quel segretario che non hai assunto per mancanza di fondi. Gli si può chiedere di creare un sito internet o di scrivere una poesia alla Canalis in stile d’annunziano.

Potremmo star qui, e forse lo faremo, a discutere di cosa distingue l’intelligenza umana da quella artificiale, di quello a cui servono gli insegnanti, i giornalisti, a cosa serve la fatica. A me, per ora, basta dire che quello che dico lo voglio sapere io, che non mi va di lasciare il ruolo da protagonista della mia vita alla “collettività”.

I campioni dell’etica artificiale

Ma non ce n’è bisogno, per fortuna il male casca sempre sul suo vecchio vizio: la banalità.

Sì perché se l’intelligenza è artificiale, è fatta ad arte, è fatta da qualcuno. E chi ha insegnato come esprimersi a questo giocattolo per bimbi fannulloni? Gli schiavi.

Open Ai doveva evitare che il linguaggio della sua piattaforma degenerasse in turpiloqui, insulti, minacce e peggio (molto peggio). Per farla semplice, aveva un solo modo per scongiurare questo pericolo: degli operatori dovevano inserire nel sistema, a mano, esempi di «abusi sessuali su minori, bestialità, omicidio, suicidio, tortura, autolesionismo, incesto, eccetera», affinché la macchina fosse in grado di riconoscerli e ne evitasse l’utilizzo. Per ottenere un risultato decente, sapeva di dover fornire al calcolatore diverse migliaia di esempi particolareggiati. È così che ha deciso di bussare alla porta di Sama, una «società per l’etica dell’Intelligenza Artificiale», affinché si occupasse di questo compito indecente. Ammesso e non concesso che si trovino persone disposte a svolgere tale impiego tra San Francisco e Pizzo Calabro, andrebbero pagate oro e disposte di svariate tutele. Poco conveniente. Per questo i campioni dell’etica artificiale hanno preso la scelta più moralmente ineccepibile: le persone che si sacrificassero per un mondo più gentile le hanno prese in Kenya.

Per 2 dollari l’ora

Dal 2021, i kenyoti pagati da Sama hanno lavorato in turni di minimo 9 ore, nelle quali hanno dovuto classificare, ogni volta, tra i 150 e 200 testi, immagini e video incriminati, per la bellezza di 1,32, massimo 2 dollari all’ora, a seconda di anzianità e performance. Li hanno persino fornite di “consulenti del benessere” (pagati più di loro), coi quali potersi sfogare dopo 5 o 6 giorni passati in rassegna di abusi, violenze, massacri.

E andavano guardati per bene, queste immagini e questi video, perché ChatGPT doveva anche imparare a disegnare. Oggi, se il bimbo biondo di Manhattan gli chiedesse di realizzare il ritratto di una ninfa a cavallo di un bianco unicorno, la realizzerebbe in un batter di ciglia, senza ovviamente rischiare di mandare il bambino in traumatologia infantile.

Abusi sessuali su minori

Ora che il Time ha pubblicato l’inchiesta su questo scandalo, è già partito il cortese ed educato scaricabarile tra le società coinvolte che, col proverbiale bon ton della gente per bene, si trascineranno in processi legali di cui non sentiremo più parlare. Open Ai si è subito preoccupata di specificare che non aveva mai chiesto a Sama di classificare immagini “C4” – etichetta per “abusi sessuali su minori” – nemmeno il coraggio di usare le parole.

Come dei gulag necessari per fare il mondo senza odio, non se ne deve mai parlare, per favore.

Articoli correlati

0 commenti

Non ci sono ancora commenti.