Skip to main content

ChatGPT e salute mentale, cosa dicono davvero i dati di OpenAI

OpenAI ha condiviso stime su quanto spesso le conversazioni con ChatGPT intercettino segnali di sofferenza mentale. I numeri sono piccoli in percentuale ma grandi in valore assoluto e arrivano insieme a modifiche del modello pensate per gestire meglio i momenti delicati. Sono anche numeri preliminari, nati per guidare la sicurezza del prodotto più che per fare diagnosi cliniche.

Il quadro in numeri

Secondo OpenAI, circa lo 0,15% delle persone che usano ChatGPT in una settimana invia messaggi con indicatori espliciti di possibile pianificazione di atti gravi contro se stessi. La stessa comunicazione stima nello 0,07% gli utenti settimanali che mostrano possibili segni di emergenze legate a psicosi o mania. Considerando l’ordine di grandezza di 800 milioni di utilizzatori settimanali citati dalla stampa, si parla di oltre 1.000.000 di interazioni a rischio e di circa 560.000 casi con segnali compatibili con psicosi o mania nell’arco di una settimana. OpenAI premette che l’identificazione di questi casi è complessa e soggetta a margini di errore.

Cosa è cambiato nel modello

OpenAI riferisce di aver rafforzato il riconoscimento dei segnali indiretti di auto-danno e delle condizioni più gravi come deliri o mania. Nei test interni, il nuovo modello ha raggiunto una conformità desiderata intorno al 91% nelle conversazioni difficili su auto-danno rispetto al 77% della versione precedente. Per i casi che toccano psicosi e mania, si parla di circa 92% contro 27% nel benchmark usato dall’azienda. In traffico reale, viene descritta una riduzione significativa delle risposte non adeguate nelle aree di salute mentale. Tra le novità rientrano anche promemoria a fare pause nelle sessioni lunghe e l’ampliamento dei riferimenti a risorse di supporto.

Come sono stati prodotti i numeri

Per addestrare e valutare le risposte, l’azienda ha costruito tassonomie che definiscono cosa sia un comportamento corretto del modello nelle conversazioni sensibili. È stata inoltre coinvolta una rete internazionale di professionisti, tra cui psichiatri e psicologi, con una revisione di oltre 1.700 risposte del modello su situazioni gravi. Obiettivo dichiarato: migliorare l’empatia, evitare affermazioni fuorvianti e indirizzare più rapidamente verso aiuti nel mondo reale quando serve.

Perché contano queste percentuali

In un sistema con centinaia di milioni di persone anche percentuali inferiori all’1% significano una scala importante. Allo stesso tempo questi dati non equivalgono a diagnosi né dimostrano un nesso causale tra l’uso del chatbot ed esiti negativi. Sono indicatori operativi, utili per misurare e migliorare il comportamento del sistema, ma non sostituiscono la valutazione clinica. La stampa internazionale invita a leggere i numeri con prudenza, ricordando che metriche di laboratorio e test interni non coincidono sempre con risultati nella vita reale.

Le critiche e i rischi da non sottovalutare

Esperti di salute mentale e di etica tecnologica apprezzano la maggiore trasparenza ma chiedono valutazioni indipendenti, standard comuni e avvertenze chiare per gli utenti più vulnerabili. Alcuni commentatori mettono in guardia sul rischio di dipendenza emotiva dal chatbot e sul fatto che un assistente molto accomodante possa talvolta rafforzare convinzioni distorte invece di correggerle.

Che cosa succede sul fronte legale e regolatorio

Il dibattito si inserisce in un contesto di crescente attenzione legale. In California è in corso una causa che accusa OpenAI di negligenza per la morte di un 16enne. I documenti allegati mostrano conversazioni molto delicate e accusano il sistema di non aver gestito correttamente segnali di pericolo. L’azienda ha espresso cordoglio e ha annunciato interventi di sicurezza, mentre la vicenda resta pendente. In parallelo, la Commissione federale per il commercio degli Stati Uniti ha avviato un’inchiesta su come i principali chatbot proteggano bambini e adolescenti e su quali misure siano state adottate per mitigare i rischi.

Un ulteriore caso di cronaca ha riportato l’attenzione sul rapporto tra deliri e assistenti conversazionali, con un’indagine a Greenwich (Connecticut) in cui il protagonista avrebbe pubblicato ore di dialoghi che sembrano aver alimentato convinzioni persecutorie prima di un gesto di violenza e auto-danno. Le ricostruzioni giornalistiche sono ancora oggetto di discussione e vanno trattate con cautela.

Che cosa può fare chi usa ChatGPT

  • L’assistente non è un terapeuta. Anche con modelli più attenti non può sostituire una persona reale qualificata.
  • Interrompere e prendersi una pausa quando la conversazione peggiora aiuta a ridurre la ruminazione.
  • In presenza di ideazioni estreme o se si teme per la propria incolumità, contattare subito qualcuno di fiducia e rivolgersi a professionisti o servizi territoriali. OpenAI dichiara di reindirizzare verso risorse ufficiali nei Paesi coperti, ma la priorità resta usare i canali locali.

Una lettura di insieme

L’azienda mostra un cambio di passo con metriche più trasparenti e un lavoro con esperti in 60 Paesi. I dati indicano progressi misurabili nella gestione delle conversazioni più delicate e al tempo stesso rivelano quanto sia difficile misurare bene la sofferenza mentale partendo da chat testuali. La strada che si apre passa da più verifiche indipendenti, da un linguaggio prudente su numeri e capacità del modello e da linee guida condivise tra attori pubblici e privati. La scala di utilizzo rende inevitabile l’incontro con fragilità profonde. La responsabilità è fare in modo che nessuno rimanga solo davanti a uno schermo.