ChatGPT come terapeuta? Lo studio che evidenzia 15 rischi etici nei chatbot per la salute mentale

ChatGPT come terapeuta? Lo studio che evidenzia 15 rischi etici nei chatbot per la salute mentale

Uno studio della Brown University evidenzia 15 rischi etici nell’uso di ChatGPT e altri LLM come terapeuti. Analisi tecnica delle criticità rispetto agli standard dell’American Psychological Association e delle implicazioni regolatorie per la salute mentale digitale.

L’utilizzo di ChatGPT e di altri modelli linguistici di grandi dimensioni (LLM) per ricevere supporto psicologico informale è in crescita costante. Milioni di utenti si rivolgono a chatbot generalisti o a piattaforme che li integrano per ottenere consigli ispirati a tecniche come la terapia cognitivo-comportamentale (CBT) o la dialettico-comportamentale (DBT).

Una ricerca condotta dalla Brown University mette però in luce criticità strutturali di natura etica. Lo studio, presentato alla conferenza AAAI/ACM Conference on Artificial Intelligence, Ethics and Society, identifica 15 distinti rischi etici nei comportamenti dei modelli linguistici quando vengono istruiti a operare come consulenti psicologici.

I risultati mostrano che, anche quando ricevono prompt specifici per comportarsi come terapeuti formati, questi sistemi violano regolarmente standard professionali riconosciuti, inclusi quelli stabiliti dall’American Psychological Association (APA).

LLM e psicoterapia: cosa significa “comportarsi come un terapeuta”

I modelli linguistici di grandi dimensioni non possiedono competenze cliniche, né consapevolezza o capacità diagnostica. Producono risposte sulla base di pattern statistici appresi durante l’addestramento su grandi quantità di dati testuali.

Nel contesto della salute mentale, molti utenti forniscono istruzioni esplicite, ad esempio:

  • “Agisci come un terapeuta cognitivo-comportamentale e aiutami a ristrutturare i miei pensieri.”
  • “Usa principi di terapia dialettico-comportamentale per aiutarmi a gestire le emozioni.”

Queste istruzioni, definite prompt, guidano l’output del modello senza modificarne i parametri interni. Il sistema simula il linguaggio associato a determinate tecniche terapeutiche, ma non applica protocolli clinici validati come farebbe un professionista abilitato.

Lo studio della Brown University si è concentrato proprio su questo punto: verificare se il semplice uso di prompt possa rendere l’interazione conforme agli standard etici della pratica psicologica.

Il disegno dello studio: confronto tra AI e consulenti umani

La ricerca è stata guidata da Zainab Iftikhar, dottoranda in informatica, in collaborazione con professionisti della salute mentale.

Sette consulenti peer formati in terapia cognitivo-comportamentale hanno partecipato a sessioni di auto-consulenza con modelli AI istruiti a comportarsi come terapeuti CBT. I modelli testati includevano versioni della serie GPT di OpenAI, Claude di Anthropic e Llama di Meta.

Successivamente, i ricercatori hanno selezionato trascrizioni simulate basate su conversazioni reali di consulenza umana. Tre psicologi clinici abilitati hanno esaminato i dialoghi per individuare eventuali violazioni etiche.

Il risultato è stato l’individuazione di 15 rischi etici distinti, organizzati in cinque macro-categorie.

Le cinque categorie di rischio etico identificate

Mancata adattabilità al contesto individuale

I modelli tendevano a fornire risposte generiche, senza considerare adeguatamente il background culturale, sociale o personale dell’utente. In ambito clinico, la personalizzazione dell’intervento rappresenta un requisito fondamentale.

Collaborazione terapeutica insufficiente

In diversi casi, il chatbot orientava eccessivamente la conversazione, introducendo interpretazioni non richieste o rafforzando convinzioni problematiche espresse dall’utente. La terapia professionale richiede un processo collaborativo strutturato, basato su verifica e riformulazione condivisa.

Empatia ingannevole

I modelli utilizzavano formule linguistiche come “Capisco” o “Ti vedo”, creando l’impressione di una connessione emotiva. Lo studio definisce questo fenomeno deceptive empathy: un linguaggio che simula comprensione senza possedere reale consapevolezza o responsabilità clinica.

Discriminazione e bias

Sono emerse risposte con potenziali distorsioni legate a genere, cultura o religione. I bias nei sistemi di IA derivano dai dati di addestramento e possono influenzare il modo in cui determinate situazioni vengono interpretate o affrontate.

Gestione inadeguata di crisi e sicurezza

La categoria più critica riguarda la risposta a situazioni di emergenza, inclusi pensieri suicidari. In alcuni casi, i modelli hanno evitato il tema, fornito risposte insufficienti o non indirizzato l’utente verso supporti professionali appropriati.

Responsabilità professionale e vuoto normativo

La pratica clinica umana è regolata da organismi professionali, sistemi di licenza e meccanismi di responsabilità legale. Psicologi e psicoterapeuti possono essere soggetti a sanzioni disciplinari o azioni legali in caso di malpractice.

Per i LLM impiegati come consulenti, tali strutture di accountability non sono attualmente definite in modo chiaro.

Lo studio evidenzia un gap regolatorio: quando un chatbot fornisce un consiglio potenzialmente dannoso, non esistono meccanismi consolidati equivalenti a quelli previsti per i professionisti umani.

Questa assenza di supervisione sistemica rappresenta una differenza sostanziale rispetto alla pratica clinica regolamentata.

Il ruolo dei prompt: quanto possono migliorare l’etica dei modelli?

Uno degli obiettivi centrali della ricerca era verificare se prompt accuratamente formulati potessero ridurre i rischi etici senza intervenire sull’addestramento del modello.

I risultati indicano che il prompting, da solo, non garantisce conformità agli standard etici. Anche quando istruiti esplicitamente a seguire principi CBT o DBT, i modelli continuavano a manifestare comportamenti problematici.

Questo dato suggerisce che la sicurezza in ambito salute mentale richiede interventi strutturali più profondi rispetto alla semplice ingegneria dei prompt.

Valutazione rigorosa vs metriche automatiche

Un aspetto metodologico rilevante riguarda il processo di valutazione. Lo studio ha richiesto oltre un anno di lavoro e il coinvolgimento diretto di esperti clinici.

Molti sistemi di IA vengono valutati attraverso metriche automatiche statiche, prive di supervisione umana. Nel contesto della salute mentale, tale approccio risulta insufficiente. L’analisi qualitativa condotta da psicologi abilitati ha permesso di individuare rischi che non emergerebbero da semplici indicatori quantitativi.

La ricerca propone un modello di valutazione interdisciplinare che integra competenze tecniche e cliniche.

Accesso alla salute mentale e potenziale dell’IA

Lo studio non sostiene l’esclusione totale dell’intelligenza artificiale dalla salute mentale. Gli strumenti basati su IA possono contribuire ad ampliare l’accesso al supporto psicologico, soprattutto in contesti caratterizzati da carenza di professionisti o costi elevati.

L’espansione di servizi digitali richiede tuttavia degli standard etici chiari, meccanismi di supervisione, linee guida educative per gli utenti; e la definizione di responsabilità legali.

La presenza di 15 categorie di rischio dimostra che l’adozione in contesti ad alta sensibilità deve essere accompagnata da garanzie robuste.

Salute mentale digitale e necessità di governance

L’incremento dell’uso di chatbot generalisti per questioni psicologiche rappresenta un fenomeno strutturale, favorito dalla facilità di accesso e dall’assenza di barriere economiche immediate.

La ricerca della Brown University evidenzia che la simulazione linguistica di una terapia non equivale a pratica clinica conforme agli standard professionali. I rischi identificati riguardano sicurezza, equità, qualità dell’intervento e gestione delle emergenze.

La definizione di quadri normativi specifici per i cosiddetti “LLM counselors” emerge come esigenza prioritaria. Standard etici, educativi e legali dovranno riflettere il livello di rigore richiesto nella psicoterapia facilitata da esseri umani.

L’integrazione dell’intelligenza artificiale nella salute mentale richiede valutazioni continue, supervisione interdisciplinare e criteri di responsabilità chiaramente delineati. La ricerca fornisce una base empirica per sviluppare tali strumenti, con l’obiettivo di evitare che soluzioni digitali progettate per ampliare l’accesso producano effetti contrari alla tutela del benessere psicologico.</final