L’intelligenza artificiale ci «spegne il cervello»?

Di Piero Vietti
29 Giugno 2025
Uno studio sostiene che affidarsi a ChatGpt (e programmi simili) per scrivere testi e saggi riduce creatività, memoria e pensiero. Un problema già molto più diffuso di quanto si pensi
ChatGpt
Immagine generata con l'intelligenza artificiale di ChatGpt

Quanti di noi, oggi adulti (e possibilmente non insegnanti), sanno risolvere una divisione in colonna senza tentennamenti? Quanti ricordano la fatica di trovarsele di fronte, alle elementari, cercare di capirle, provare a risolverle e poi esultare dopo esserci riusciti da soli, solo con l’aiuto della propria intelligenza?

Se fossimo bambini oggi probabilmente apriremmo Google Lens, inquadreremmo l’operazione e riceveremmo la risposta pronta sullo schermo del nostro smartphone. La tecnologia ha reso tutto immediato. E nella misura in cui ci solleva dallo sforzo, ci svuota anche della necessità di pensare. È quello che denuncia Sean Thomas sullo Spectator, raccontando con sarcasmo e una punta di disperazione come abbiamo cominciato a delegare interi quartieri della nostra mente alle macchine: la calcolatrice ha rubato la matematica, il GPS l’orientamento, i suggerimenti musicali il gusto personale, i correttori ortografici la lingua. Ora, con ChatGPT e i suoi fratelli, rischiamo di consegnare all’intelligenza artificiale anche la scrittura, l’argomentazione e — soprattutto — la memoria.

Lo studio del MIT su ChatGpt

Uno studio recente del MIT Media Lab — intitolato Your Brain on ChatGPT — ha acceso un faro proprio su questo fenomeno. I ricercatori hanno preso 54 studenti e li hanno divisi in tre gruppi: uno doveva scrivere dei saggi con il solo uso del proprio cervello; un secondo poteva consultare Google; un terzo aveva a disposizione ChatGpt. Tutti indossavano un casco EEG per monitorare l’attività cerebrale su 32 regioni. I risultati sono stati eloquenti: chi scriveva senza alcun aiuto mostrava un’intensa attività cerebrale nelle bande alpha, theta e delta — quelle associate a creatività, memoria e pensiero semantico. Il gruppo che usava Google mostrava anch’esso un buon livello di attivazione mentale, mentre chi usava ChatGpt si spegneva: le onde cerebrali erano deboli, scarse, e peggioravano con ogni nuovo compito.

Ma non è tutto. I saggi prodotti con l’ausilio dell’IA erano quasi indistinguibili tra loro: frasi simili, idee prevedibili, tono piatto. Due docenti incaricati di valutarli li hanno definiti “senza anima”. E ancora più inquietante: quando è stato chiesto agli studenti di riscrivere, senza ChatGpt, uno dei testi precedentemente composti con l’IA, la maggioranza — tra il 78% e l’83% — non ricordava neanche di cosa avesse parlato. Avevano prodotto un saggio senza assorbirne nulla. Nessuna integrazione nella memoria a lungo termine. Nessun apprendimento.

«Un danno alle nuove generazioni»

Il nome scientifico per questa condizione è cognitive offloading, che suona come qualcosa di efficiente: delegare alla macchina i compiti pesanti, come quando si affida il bucato a una lavatrice. Ma se la lavatrice lava i vestiti, l’intelligenza artificiale non fa solo il lavoro: lo fa al posto nostro. E a forza di non usare il cervello, smettiamo di saperlo usare.

ChatGpt cervello

Time Magazine, che ha approfondito i dati con una lunga intervista alla ricercatrice Nataliya Kosmyna, parla senza giri di parole di un danno alla formazione delle nuove generazioni. Non solo mentale, ma anche emotivo e psicologico. Più si usa l’Ai, più si diventa passivi, meno motivati, meno capaci di ricordare e risolvere problemi. Secondo Kosmyna, il rischio è che si prenda una decisione affrettata: introdurre ChatGPT fin dall’infanzia, nelle scuole elementari. «Sarebbe disastroso», dice.

Quasi tutti gli studenti italiani studiano con l’Ai, pochi sanno farlo da soli

Questa realtà è già evidente — anche senza EEG — nei corridoi delle nostre università. Secondo uno studio del portale Planeta Formación, l’89% degli studenti italiani usa regolarmente l’intelligenza artificiale per preparare esami e compiti. Ma solo il 32% dichiara di sentirsi in grado di elaborare in autonomia soluzioni a problemi complessi. Il 65% degli studenti tra i 16 e i 18 anni ammette di usare ChatGPT per fare i compiti, e uno su quattro afferma di utilizzarlo quotidianamente. Non si tratta di una rivoluzione silenziosa, ma di un collasso consapevole.

Solo una minoranza dei docenti ha ricevuto una formazione adeguata sull’uso critico degli strumenti di Ai. E ancora meno sono le scuole che hanno attivato percorsi strutturati per aiutare gli studenti a usarla in modo virtuoso. In Italia, l’uso dell’Ai nell’istruzione è stato adottato in modo entusiasta e disordinato: c’è chi la proibisce del tutto e chi la consente senza filtro.

Tesi di laurea scritte con ChatGpt corrette da professori con ChatGpt

Intelligencer del New York Magazine ha recentemente parlato con studenti di Columbia, Stanford e altri college che ora scaricano regolarmente i loro saggi e compiti su ChatGPT, scrive ancora Thomas sullo Spectator. «Lo fanno perché i professori non riescono più a rilevare in modo affidabile il lavoro generato dall’intelligenza artificiale; gli strumenti di rilevamento non riescono a individuare i falsi il più delle volte. Secondo un professore citato nell’articolo “un numero enorme di studenti uscirà dall’università con una laurea e entrerà nel mondo del lavoro essendo essenzialmente analfabeti”».

Una recente inchiesta del Guardian ha rivelato quasi 7.000 casi confermati di imbrogli tramite intelligenza artificiale nelle università britanniche lo scorso anno: più del doppio rispetto all’anno precedente, e si tratta solo di quelli scoperti. Uno studente ha ammesso di aver presentato un’intera tesi di filosofia scritta da ChatGPT, per poi discuterla in un esame orale senza averla letta.

Leggi anche

Thomas osserva che il risultato è che «le lauree stanno perdendo significato e gli studenti stessi – brillanti, ambiziosi, intrinsecamente capaci – stanno lasciando gli studi forse meno capaci di quando vi sono entrati. L’inevitabile conclusione di tutto questo, per le università, non è positiva. Anzi, è definitiva. Chi si accollerà un debito di 80.000 sterline per passare tre anni a chiedere all’Ai di scrivere saggi che poi vengono corretti da tutor oberati di lavoro che usano a loro volta l’Ai – in modo che nessun essere umano possa fare, o imparare, qualcosa?». Secondo l’editorialista dello Spectator «l’80-90% delle università chiuderà entro i prossimi dieci anni», addirittura.

L’importanza di non delegare pensiero e memoria alla macchina

Il paradosso è che l’IA potrebbe, se usata correttamente, diventare un acceleratore del pensiero. Lo stesso studio del MIT mostra che quando gli studenti scrivono prima con la propria testa e poi rifiniscono con l’Ai, le connessioni cerebrali aumentano. O usiamo l’IA come una stampella temporanea per andare più lontano, o ci sediamo sopra e smettiamo di camminare. La prima strada è difficile e richiede educazione e fatica.

Sean Thomas conclude il suo articolo in tono amaramente ironico, dicendo che non riesce nemmeno a trovare una nota positiva su cui chiudere, tanto si sente ormai “dim” — spento. Ma non tutto è perduto.

Su Tempi di giugno Pier Paolo Bellini ha scritto che ci sono «due procedure a rischio sulle quali si combatte una battaglia decisiva e un po’ nascosta: “pensare” e “ricordare”. Delegare il pensiero alla macchina sarà sempre più facile, sempre più efficace, sempre più pericoloso, sempre più deprimente. Per il semplice fatto che la macchina “non può” pensare. La machine learning lavora su miliardi di informazioni, è una passata gustosissima di scienza e di senso comune. È una miniera ricchissima di pensiero. Altrui. La definizione del senso e del valore delle cose, la loro “conservazione”, invece, sono e rimarranno responsabilità e prerogative umane. Oppure no».

Articoli correlati

0 commenti

Non ci sono ancora commenti.