L’intelligenza artificiale sta rivoluzionando l’economia e la società. Crea moltissime opportunità, anche se ancora non sono state colte appieno, ma genera anche molti dubbi e perplessità incluso il timore di una bolla economica. Ci chiediamo infatti se non stiamo costruendo troppi datacenter. Se l’AI non porterà al licenziamento di moltissime persone. Se la usiamo in modo sbagliato e pericoloso, ad esempio per fare terapia psicologica oppure per non studiare più le lingue straniere.

Se è vero che l’AI è una bicicletta elettrica per la mente, cioè che potenzia la metafora del computer come bici per la mente, quali sono le conseguenze per il nostro cervello? Abbiamo cercato di capirlo andando a vedere cosa dicono le indagini scientifiche al riguardo.

Come funziona il cervello

Il cervello umano impiega vent’anni per completare il proprio sviluppo. Durante questo periodo, i neuroni si moltiplicano, formano connessioni sinaptiche e attraversano una fase critica chiamata potatura sinaptica, dove i collegamenti inutilizzati vengono eliminati. Un secondo processo fondamentale è la mielinizzazione: gli assoni neuronali vengono avvolti da uno strato isolante di grasso, la mielina, che accelera la trasmissione degli impulsi elettrici. Senza mielina non esistono linguaggio, memoria di lavoro, ragionamento o competenze motorie complesse.

Questi processi non sono automatici. Il cervello ha bisogno di essere sollecitato, messo alla prova, fatto lavorare. Le connessioni che vengono utilizzate attivamente attraverso lo sforzo mentale si rafforzano e si mielinizzano. Quelle che non ricevono stimoli si atrofizzano e scompaiono. È un meccanismo darwiniano interno alla scatola cranica: sopravvive chi viene esercitato.

L’arrivo dell’intelligenza artificiale generativa solleva una domanda semplice ma scomoda: cosa succede al cervello quando si delega a una macchina buona parte dei compiti cognitivi? L’analogia della bicicletta della mente proposta da Steve Jobs, così come quella della “mente estesa” descritta dal filosofo Andy Clark, suggeriscono l’idea che gli strumenti tecnologici possono amplificare, cioè estendere, le capacità umane come una bicicletta amplifica la locomozione. Ma la ricerca scientifica recente indica che il rischio prevalente è opposto: atrofia, non amplificazione.

L’offloading cognitivo sotto osservazione

Uno studio del Massachusetts Institute of Technology condotto nel 2025 ha monitorato con elettroencefalogramma l’attività cerebrale di 54 partecipanti mentre scrivevano saggi. Chi utilizzava ChatGPT mostrava una riduzione del 32 per cento del carico cognitivo rilevante e del 50 per cento della connettività cerebrale nelle onde alpha e theta. L’83 per cento dei soggetti non ricordava i contenuti che aveva scritto. Gli effetti persistevano anche dopo aver interrotto l’uso dell’intelligenza artificiale, suggerendo un debito cognitivo duraturo.

Altri studi sembrano confermare il quadro. Una ricerca di Microsoft su 319 lavoratori ha rilevato una correlazione negativa significativa tra uso frequente di strumenti AI e punteggi nei test di pensiero critico. L’università svizzera SBS ha individuato una correlazione ancora più marcata, con un coefficiente di -0,68, mediata dall’offloading cognitivo. Le aree cerebrali che soffrono maggiormente sono la corteccia prefrontale, responsabile del ragionamento, e l’ippocampo, sede della memoria.

Il meccanismo è una versione potenziata del cosiddetto Google effect, documentato dal 2011: delegare compiti mentali a dispositivi esterni causa disimpegno cognitivo, atrofia delle reti neurali e dipendenza dalla memoria esterna. Con l’intelligenza artificiale generativa, questo fenomeno si amplifica perché gli strumenti non forniscono solo informazioni ma generano anche ragionamenti completi, eliminando interi passaggi del processo di pensiero.

La trappola dell’efficienza apparente

Esiste tuttavia un lato opposto della medaglia. L’intelligenza artificiale può aumentare la velocità di esecuzione di compiti routinari anche del 60 per cento, liberando risorse cognitive per attività più complesse. Alcuni studi evidenziano miglioramenti nella creatività quando gli strumenti vengono utilizzati in modalità ibrida, dove l’intervento umano rimane centrale. La neuroplasticità positiva emerge con usi bilanciati, come il pre-testing o la supervisione attiva, che rinforzano i percorsi neurali invece di bypassarli.

Il problema è che questa modalità virtuosa richiede consapevolezza, disciplina e un’educazione specifica all’uso degli strumenti. Le rilevazioni sul campo indicano invece che la maggioranza degli utilizzatori si affida passivamente all’AI, trasformando l’amplificazione in sostituzione. Ricerche randomizzate mostrano che gli studenti performano meglio con l’intelligenza artificiale ma peggio senza, segno che l’abitudine alla delega erode le competenze di base.

Il complesso di neuro-inferiorità

Lo scrittore e giornalista Ivan Carozzi in un articolo provocatorio ha descritto una conseguenza psicologica dell’interazione prolungata con ChatGPT: il complesso di neuro-inferiorità. Non si tratta della “normale” soggezione che proviamo di fronte a un’altra intelligenza umana come noi ma superiore. Invece, il complesso deriva dalla percezione di uno svantaggio strutturale, costitutivo. L’intelligenza artificiale genera risposte con una velocità, una completezza e una sicurezza formale che il cervello umano non può eguagliare. La sensazione che ne deriva è di obsolescenza programmata della propria mente.

Questa percezione non è infondata. I calcoli indicano che ChatGPT genera circa 97,4 miliardi di token al giorno, equivalenti grossomodo a quattro caratteri ciascuno. L’uso di questi token può essere solo ipotizzato, ma con un approccio statistico ci sono delle ipotesi credibili. La generazione dei token crolla durante le vacanze scolastiche, segno che il consumo da parte di chi va a scuola oggi è elevatissimo rispetto al totale. I dati vengono da OpenRouter, rileva solo 2,5 milioni di richieste giornaliere mentre ChatGPT ne elabora 800 milioni: il divario tra produzione artificiale e sforzo umano è ormai abissale.

Tuttavia, se si tiene l’ipotesi che l’uso di ChatGPT tra gli studenti sia fortemente diffuso, si può rilevare anche che, nelle scuole che hanno adottato massicciamente l’intelligenza artificiale, sono stati osservati cali fino al 53 per cento nella produzione di testo scritto dagli studenti.

Serve un uso regolato

Il cervello umano, complesso quanto si vuole, trae la propria intelligenza da un processo tortuoso che richiede fatica, ripetizione e uscita costante dalla zona di comfort. Senza questo sforzo, anche il processo di mielinizzazione si interrompe. L’intelligenza artificiale può amplificare le capacità cognitive solo se viene “pedalata” attivamente, con supervisione umana e mantenimento dell’impegno mentale. Se invece diventa una stampella passiva, il risultato è atrofia.

Gli studi del MIT e di Microsoft raccomandano regolamentazioni in ambito educativo e aziendale per monitorare la dipendenza, stabilire limiti di utilizzo e priorizzare lo sviluppo delle competenze di base. La sfida non è di tipo tecnico ma culturale: imparare a usare strumenti potentissimi senza delegare loro l’intera catena di pensiero. Altrimenti la bicicletta della mente rischia di trasformarsi in una sedia a rotelle per cervelli sedentari.

Alcune fonti di questo articolo: