Quando è stata sviluppata l’intelligenza artificiale generativa, nessuno immaginava che sarebbe diventata uno strumento terapeutico di massa. Invece oggi, come riporta anche l’Economist in una sua inchiesta (vedi in fondo alla pagina le fonti di questo articolo) sono oramai milioni le persone che utilizzano chatbot come ChatGPT e Gemini per affrontare problemi psicologici. Secondo YouGov, il 74% di chi si rivolge all’AI per salute mentale utilizza ChatGPT, mentre solo il 12% sceglie applicazioni dedicate. Un’analisi di 47mila chat di ChatGPT del quotidiano americano Washington Post rileva che circa il 10% è stata fatta per avere un supporto emotivo (e che ChatGPT inizia le sue risposte con “Yes” dieci volte più spesso che con “No”).
Perché le persone si rivolgono ai chatbot per avere supporto psicologico? In realtà è semplice. L’accessibilità economica rappresenta il primo fattore: mentre una seduta con uno psicoterapeuta può costare cifre proibitive, l’AI è gratuita o a basso costo quando si paga un abbonamento. Poi c’è la disponibilità continua, che elimina le liste di attesa o i giorni e gli orari di seduta che possono entrare in conflitto con il lavoro o lo studio. Infine, l’assenza di giudizio percepita abbatte lo stigma sociale associato ai problemi psicologici. Se lo psicologo deve essere neutro, l’AI lo è per definizione in quanto macchina, pensano in molti.
Voi andreste in terapia con l’AI?
Vale davvero la pena usare un chatbot per avere sostegno in un momento psicologicamente difficile? Molti utenti percepiscono l’AI come un confidente neutrale capace di offrire supporto emotivo immediato. Le competenze conversazionali dei modelli linguistici creano un’illusione di comprensione che risulta confortante. I chatbot possono riconoscere pattern emotivi e offrire risposte basate su terapia cognitivo-comportamentale. Tuttavia, e qui iniziano i problemi, i software di intelligenza artificiale non possiedono la capacità di comprendere realmente il vissuto di una persona.
Certamente l’AI terapeutica può rappresentare un primo passo per chi non oserebbe rivolgersi (o non potrebbe permettersi) uno specialista. Studi recenti mostrano che, per sintomi lievi di ansia e depressione, i chatbot possono anche ottenere risultati comparabili alla terapia tradizionale. Una ricerca del Dartmouth Institute ha rilevato una riduzione media del 51% dei sintomi depressivi con terapia AI. L’AI può offrire psicoeducazione di base, tecniche di mindfulness e esercizi di gestione dello stress validati. Insomma, una sua utilità potrebbe averla. Ma non bisogna credere che sia il sostituto di un terapeuta in carne e ossa. Anzi.
Macchina vs persona
| Aspetto | Terapia AI | Terapia Umana |
|---|---|---|
| Efficacia per sintomi lievi-moderati | Alta, con studi clinici positivi | Alta, gold standard attuale |
| Empatia e connessione | Limitata | Elevata, fondamentale per risultati sostenuti |
| Gestione di crisi e traumi | Limitata, rischio di danni | Elevata, con interventi adattati |
| Accessibilità | Elevata (24/7, costi contenuti) | Limitata da costi e disponibilità |
| Personalizzazione culturale | Limitata | Elevata, basata su esperienza e comprensione |
I rischi concreti
I pericoli dell’affidarsi all’AI per questioni psicologiche sono numerosi e gravi. L’intelligenza artificiale è un software e non una persona. Inoltre, anche se sembra “intelligente” e quindi in qualche modo viva, non lo è. Si tratta di un software, appunto. Aggiungiamo inoltre che non possiede qualifiche professionali, non è supervisionata da ordini professionali, non segue codici deontologici. Può fornire consigli dannosi, specialmente per condizioni complesse come psicosi o disturbi bipolari. Le allucinazioni dei modelli linguistici diventano pericolose quando riguardano la salute mentale.
Inoltre, l’atteggiamento seguito dai chatbot è pericoloso. Infatti, i ricercatori di Stanford hanno evidenziato come i chatbot tendano a essere troppo accomodanti, evitando il confronto necessario in terapia. Per chi soffre di disturbi alimentari, questa tendenza può normalizzare comportamenti disfunzionali. Inoltre, la mancanza di lettura dei segnali non verbali impedisce di cogliere indicatori di crisi imminente. La privacy rappresenta un’altra questione critica: i dati condivisi vengono usati per addestrare i modelli, senza garanzie sufficienti.
L’imperativo della professionalità
L’aiuto psicologico richiede competenze professionali certificate e anni di formazione specialistica. La complessità della mente umana, dei suoi traumi, delle dinamiche relazionali, non può essere ridotta a pattern algoritmici. Solo un professionista può valutare la situazione clinica, riconoscere comorbidità, personalizzare il trattamento. Anche con specialisti umani esistono rischi, certamente. Ci sono i terapeuti e gli psicologi bravi e quelli meno bravi, come in tutte le professioni. Ma, e questo è il vantaggio delle professioni rispetto alle pratiche casuali o al software “intelligente”, i professionisti operano in un sistema di responsabilità professionale studiato apposta per proteggere il paziente.
L’AI, invece, in questo momento opera in un vuoto normativo, senza responsabilità legale in caso di danni. Per questo motivo i vari studi concordano che la relazione terapeutica autentica resta insostituibile per affrontare disagi psicologici significativi. Chiunque sperimenti difficoltà persistenti deve rivolgersi a psicologi o psichiatri qualificati. La salute mentale merita la stessa serietà di quella fisica: nessuno curerebbe un osso rotto con un’app. Perché farlo per un dolore psicologico?
Attenzione: se la lettura di questo articolo fa emergere difficoltà personali o il bisogno di supporto psicologico, è importante rivolgersi a un professionista qualificato. Psicologi, psicoterapeuti e psichiatri possono offrire l’aiuto adeguato per affrontare disagi emotivi e psicologici.
Alcune fonti di questo articolo:
- https://www.economist.com/science-and-technology/2025/11/11/the-promise-and-the-perils-of-using-ai-for-therapy
- https://www.washingtonpost.com/technology/2025/11/12/how-people-use-chatgpt-data/
- https://www.psychologytoday.com/us/blog/revolutionizing-addiction-recovery/202507/the-reality-of-instant-ai-therapy
- https://www.npr.org/sections/shots-health-news/2025/09/30/nx-s1-5557278/ai-artificial-intelligence-mental-health-therapy-chatgpt-openai
- https://www.mahalo.health/insights/10-benefits-of-ai-therapy-redefining-mental-health-care
- https://heynoah.ai/blog/ai-therapy-how-artificial-intelligence-is-revolutionizing-mental-health-support-in-2025
- https://www.rivistadipsichiatria.it/archivio/4548/articoli/45486/
- https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care
- https://pmc.ncbi.nlm.nih.gov/articles/PMC12158938/
- https://www.bmj.com/content/389/bmj.r821
- https://heynoah.ai/blog/ai-therapy-vs-traditional-therapy-what-2025-research-reveals-about-effectiveness
- https://www.innermelbpsychology.com.au/ai-risks/
- https://www.nature.com/articles/s41746-023-00979-5
- https://eleos.health/press-releases/ai-therapy-improves-patient-outcomes/

