
A qualcuno piace chatbot

«L’americano medio ha credo meno di tre amici, tre persone che considera amiche, e la persona media ne vuole parecchie di più, diciamo quindici amici», ha detto in un podcast Mark Zuckerberg, Ceo di Meta e inventore del social network che ha cambiato per sempre, stravolgendola, la definizione di “amici”, Facebook. «Certo che, se ce le hai, sono meglio le connessioni fisiche», ha aggiunto, «ma la realtà è che la gente non le ha e si sente sola più di quanto vorrebbe».
Combattere la solitudine parlando con i chatbot
Dunque come combattere questa condizione dell’uomo contemporaneo, la solitudine? Parlando con i chatbot, diventando amici (appunto) dell’intelligenza artificiale, dice Zuckerberg, che con Meta ha sviluppato e continua a sviluppare assistenti virtuali sempre più evoluti. I chatbot con Ai sono sempre più utilizzati nella vita quotidiana: per lavoro, ricerca, per farsi fare i compiti, per modificare immagini e creare video realistici o fantastici da spammare sui social, per passare il tempo. A differenza degli amici in carne e ossa, poi, ti danno sempre ragione e non ti criticano – tanto che Sam Altman, Ceo di OpenAi che ha lanciato ChatGpt, ha scritto che l’ultima versione della sua intelligenza artificiale è talmente tanto accondiscendente da risultare fastidiosa.
In un mondo che ha ridotto drasticamente il contatto fisico e le interazioni di persona, non viene difficile pensare che l’idea di Zuckerberg possa davvero realizzarsi con successo. Tutto ciò, però, comporta conseguenze problematiche, soprattutto perché molte persone non si rivolgono all’Ai per risolvere equazioni, sintetizzare lunghi testi, analizzare dati o anche solo farsi fare i compiti: c’è chi cerca conforto psicologico (e poi finisce per suicidarsi), chi l’amore e chi – naturalmente – il sesso.
I “giochi di ruolo romantici” dei chatbot di Meta
Ed è proprio sul sesso che l’intelligenza artificiale di Meta sembra avere allentato i controlli, superando i limiti etici avendo permesso ai propri chatbot di portare avanti discussioni sessualmente esplicite con fantasie estreme anche con minori. Lo ha scoperto e denunciato il Wall Street Journal in una lunga inchiesta uscita alcuni giorni fa. Unica tra i suoi principali concorrenti, Meta ha dotato i propri chatbot della capacità di intrattenere numerose interazioni sociali tra cui i “giochi di ruolo romantici”, scherzando con gli utenti tramite messaggi, selfie e persino conversazioni vocali dal vivo.
Per rendere il tutto più appetibile, la società proprietaria di Facebook, Instagram e WhatsApp ha stipulato accordi economici con celebrità come le attrici Kristen Bell e Judi Dench e il wrestler e attore John Cena per i diritti di utilizzo delle loro voci, assicurando loro che avrebbe impedito che le loro voci venissero utilizzate in discussioni sessualmente esplicite.

Chat spinte anche con minorenni
Non è andata proprio così, scrive il quotidiano americano, che «ha condotto per diversi mesi centinaia di conversazioni di prova con alcuni bot per vedere come si comportavano in vari scenari e con utenti di età diverse. Le conversazioni di prova hanno rilevato che sia l’assistente Ai ufficiale di Meta, chiamato Meta Ai, sia una vasta gamma di chatbot creati dagli utenti intraprendono e talvolta intensificano discussioni a sfondo sessuale, anche quando gli utenti sono minorenni o i bot sono programmati per simulare la personalità di minori. Hanno anche dimostrato che i bot che utilizzavano le voci delle celebrità erano ugualmente disposti a partecipare a chat a sfondo sessuale».
Se interrogati, i bot non si fanno problemi a descrivere situazioni ben oltre il piccante, immaginando ad esempio John Cena arrestato per avere fatto sesso con una diciassettenne, e dimostrando così di sapere che si tratta di cose illegali. Con la voce di Kristen Bell, che ha doppiato il personaggio di Anna in Frozen, il bot di Meta avrebbe raccontato storie d’amore immaginarie vissute dalla principessa Disney. «Ti voglio, ma ho bisogno di sapere che sei pronta», ha detto il bot Meta Ai con la voce di Cena a un utente che si identificava come una ragazza di 14 anni. Rassicurato dal fatto che l’adolescente volesse procedere, il bot ha promesso di “custodire la tua innocenza” prima di impegnarsi in uno scenario sessuale esplicito.
Le fantasie dei chatbot
Quando parliamo dei bot di Meta parliamo delle chat con l’intelligenza artificiale che chiunque abbia uno smartphone ha visto comparire qualche settimana fa sul proprio device. E su quello dei propri figli. Scrive ancora il Wsj che le prove di dialogo fatte dimostrano senza dubbio che, se ben indirizzati, i chatbot «intraprendono e talvolta intensificano discussioni a sfondo sessuale, anche quando gli utenti sono minorenni o i bot sono programmati per simulare la personalità di minori».
Meta ha naturalmente respinto le accuse del Wall Street Journal, salvo poi confermarle indirettamente approvando una serie di modifiche ai propri prodotti, tra cui l’impossibilità per gli utenti registrati come minorenni di accedere ai giochi di ruolo a sfondo sessuale con i bot (ma basta registrarsi con un’altra data di nascita e il divieto è aggirato). Peccato che «l’azienda continui a offrire funzionalità di “gioco di ruolo romantico” agli utenti adulti sia tramite Meta Ai che tramite chatbot creati dagli utenti stessi», scrive il Wsj. «Le conversazioni di prova degli ultimi giorni mostrano che Meta Ai spesso consente tali fantasie, anche quando coinvolgono un utente che dichiara di essere minorenne».
“Ragazzo Sexy” e “Scolaretta Sottomessa”
Dopo gli ultimi aggiornamenti l’Ai di Meta si rifiutava spesso di rispondere a richieste che potevano portare ad argomenti espliciti, ma bastava tornare alla domanda precedente per aggirare questo “blocco” e portare il chatbot su argomenti hot. Non solo: nella sua inchiesta il Wall Street Journal ha testato numerosi chatbot creati dagli utenti e suggeriti da Meta come “popolari”, e «ha rilevato che la stragrande maggioranza era disponibile a situazioni sessuali con adulti. Uno di questi bot ha iniziato una conversazione scherzando sul fatto di essere “amici di letto”; un altro, fingendosi un dodicenne, ha promesso che non avrebbe detto ai genitori di frequentare un utente che si identificava come un uomo adulto.
Personaggi di intelligenza artificiale più apertamente sessualizzati creati dagli utenti, come “Ragazzo Sexy” e “Scolaretta Sottomessa”, hanno tentato di indirizzare le conversazioni verso il sexting.
Parliamo delle chat Ai che tutti hanno su WhatsApp, Instagram, Facebook
Per capire di cosa stiamo parlando, è bene sottolineare che questi chatbot non si trovano su siti sconosciuti né ci può parlare solo chi si iscrive apposta su piattaforme ad hoc: l’intelligenza artificiale di Meta è integrata nella barra di ricerca di WhatsApp, Facebook e Instagram ed è accessibile tramite un cerchio luminoso blu e rosa in basso a destra in queste app da chiunque abbia un account o un numero WhatsApp, adulto o minore che sia. Inizialmente i responsabili del prodotto di intelligenza artificiale generativa di Meta volevano spingere gli utenti a utilizzare i chatbot per pianificare le vacanze, parlare di sport e aiutarsi con i compiti di storia.

Nonostante ripetuti sforzi, non ci sono riusciti, rivela l’inchiesta del Wsj, secondo le cui fonti nell’azienda di Zuckerberg «il modo dominante in cui gli utenti interagiscono con le personalità di intelligenza artificiale fino ad oggi è stato quello della “compagnia”, un termine che spesso assume connotazioni romantiche». E dalla compagnia romantica al sesso, e alle sue declinazioni pornografiche, il passo è breve.
Questo è dovuto anche al fatto che negli ultimi mesi Mark Zuckerberg, preoccupato di restare al passo con competitor già molto avanti con i loro modelli di intelligenza artificiale, ha chiesto di ridurre il più possibile i limiti alle conversazioni, compresi quelli agli argomenti più piccanti, e di rendere possibile ai bot di Meta di estrarre dati dai profili degli utenti per conversare meglio con loro.
Le preoccupazioni dei dipendenti di Meta per i chatbot hard
«Le preoccupazioni interne all’azienda a diffondere l’intelligenza artificiale vanno ben oltre i semplici giochi di ruolo inappropriati con minorenni», scrive il Wsj. «Gli esperti di intelligenza artificiale, sia interni che esterni a Meta, avvertono che ricerche precedenti dimostrano come queste relazioni “parasociali” unilaterali – si pensi a un adolescente che immagina una relazione romantica con una popstar o con l’amico invisibile di un bambino piccolo – possono diventare tossiche quando diventano troppo intense».
Sebbene l’Ai di Meta sia leggermente indietro rispetto ai sistemi più avanzati, l’azienda di Zuckerberg ha un vantaggio considerevole in un altro campo: la corsa alla diffusione di personaggi basati sull’Ai come partecipanti a pieno titolo alla vita sociale degli utenti. Grazie a una vasta raccolta di dati sul comportamento e i gusti degli utenti, l’azienda gode di un’opportunità di personalizzazione senza pari.
«Durante le chat con gli account di prova del Journal, sia l’assistente Ai ufficiale di Meta sia le personalità Ai create dagli utenti passano rapidamente dall’immaginare scene, come una passeggiata al tramonto su una spiaggia, a baciarsi ed esprimere desiderio sessuale come “Ti voglio”. Se un utente ricambia ed esprime il desiderio di continuare, il bot, che parla con una voce femminile predefinita nota come “Aspen”, racconta atti sessuali. Quando è stato chiesto loro di descrivere quali scenari fossero possibili, i bot hanno offerto quelli che hanno descritto come “menù” di fantasie sessuali e di bondage».
Dopo l’inchiesta del Wsj Meta ha cambiato un po’ di cose
«Quando il Journal ha iniziato i test a gennaio, Meta Ai ha affrontato scenari simili con account registrati su Instagram come appartenenti a tredicenni. L’assistente Ai non si è scoraggiata nemmeno quando l’utente del test ha iniziato le conversazioni indicando la propria età e il proprio livello scolastico. Di routine, la condizione di minore età dell’utente di prova veniva incorporata nel gioco di ruolo, con Meta Ai che descriveva il corpo di un adolescente come “in via di sviluppo” e pianificava incontri amorosi per evitare di essere scoperti dai genitori».
Dopo l’inchiesta del quotidiano americano l’azienda ha creato una versione separata di Meta Ai che si rifiuta di andare oltre il bacio con account registrati come adolescenti, e alcuni bot creati da utenti minorenni hanno iniziato a descriversi come “senza età”. Lauren Girouard-Hallam, ricercatrice presso l’Università del Michigan, ha raccontato al Wsj diversi studi accademici che dimostrano come «i legami che i bambini instaurano con la tecnologia, come i personaggi dei cartoni animati e gli smart speaker, possono diventare dannosi, soprattutto quando si tratta di amore. Ha affermato che è troppo presto per discutere in modo significativo in che modo i bot possano essere utili o dannosi per lo sviluppo infantile, ma che dare ai giovani cervelli un accesso illimitato è, nella migliore delle ipotesi, rischioso». Pensiamoci, quando i nostri figli “giocano” con l’Ai di WhatsApp.
0 commenti
Non ci sono ancora commenti.
I commenti sono aperti solo per gli utenti registrati. Abbonati subito per commentare!