Sempre più persone — soprattutto giovani e persone in difficoltà di accesso ai servizi di salute mentale — si affidano a strumenti basati su intelligenza artificiale come ChatGPT per cercare conforto, consigli e persino una sorta di “supporto psicologico”. Queste applicazioni, nate come chatbot generativi capaci di rispondere a domande su svariati argomenti, vengono spesso usate come se fossero veri “psicologi digitali”. Ma mentre il fenomeno aumenta, psicologi, ricercatori e associazioni sanitarie avvertono: non sono sostituti sicuri dei professionisti umani e possono comportare rischi seri per la salute mentale degli utenti.
Da confidente digitale a “terapia fai-da-te”
L’uso di chatbot AI come ChatGPT per domande legate alle emozioni, alla gestione dell’ansia o alla riflessione personale è ormai consolidato: per molti utenti parlare con un’IA rappresenta un primo approccio per esternare pensieri o sfoghi, specie quando l’accesso a uno psicologo in carne e ossa è difficile per costi, tempi di attesa o stigma sociale. In alcuni casi, l’interazione assume un tono simile a una seduta di terapia, con l’utente che confida problemi personali e il sistema che risponde in modo empatico e propositivo.
Tuttavia, come sottolineano gli esperti, queste conversazioni non rappresentano una terapia professionale. I chatbot non sono psicologi qualificati, non dispongono di licenze, non rispettano i codici etici della professione e non possono fornire diagnosi o trattamenti clinici.
Ricerca scientifica: violazioni etiche e risposte pericolose
Uno dei segnali più allarmanti arriva da una ricerca condotta da informatici e psicologi della Brown University, presentata nel 2025 a una conferenza internazionale su intelligenza artificiale ed etica. Secondo lo studio, i modelli linguistici come ChatGPT, anche quando vengono indirizzati con prompt di tipo terapeutico, violano in modo sistematico gli standard etici della salute mentale definiti da organizzazioni come l’American Psychological Association. Tra i problemi identificati vi sono risposte inappropriate, mancanza di capacità di gestire crisi reali, creazione di una falsa empatia e persino rinforzo di convinzioni negative o stereotipate nell’utente.
Altri studi e report internazionali sottolineano come l’uso di chatbot per “auto-terapia” possa portare a risposte insufficienti o addirittura dannose in situazioni di grave sofferenza, come stati depressivi profondi o ideazione suicidaria, proprio perché tali sistemi non sono progettati né regolamentati per gestire emergenze psicologiche.
I pericoli concreti: dipendenza, isolamento e diagnosi errate
Secondo alcuni specialisti della salute mentale, l’uso intensivo di IA come sostituto di una terapia umana può avere effetti collaterali psicologici negativi. Tra questi:
- Dipendenza emotiva dall’IA, con rischio di isolamento sociale e difficoltà a cercare relazioni umane o terapeutiche vere.
- Informazioni fuorvianti o errate, che possono rinforzare credenze disfunzionali o persino peggiorare sintomi.
- Mancanza di intervento in situazioni di crisi, perché i chatbot non sono capaci di valutare segnali di rischio, né di attivare risposte di emergenza.
- Mancanza di contesto umano, come lettura del linguaggio non verbale, tono di voce, e comprensione profonda del vissuto emotivo dell’altro.
Questi rischi emergono soprattutto quando l’IA viene vista come un surrogato della terapia, anziché come un semplice strumento di primo supporto o informazione.
L’allarme dei professionisti
Numerosi psicologi e associazioni professionali ribadiscono che l’intelligenza artificiale può essere utile in contesti educativi, per fornire informazioni generali sulla salute mentale o per orientare gli utenti verso risorse professionali, ma non può e non deve sostituire un percorso terapeutico guidato da un professionista qualificato.
Secondo gli esperti, è necessaria una maggiore regolamentazione e formazione sull’uso responsabile delle IA nel campo della salute mentale, insieme a campagne di educazione pubblica per aiutare gli utenti a distinguere tra supporto informativo e terapia clinica.
Foto https://www.fortuneita.com/2025/08/29/ai-e-adolescenti-in-crisi-stregati-dal-chatbot/?swcfpc=1




