Intelligenza Artificiale e salute mentale: le raccomandazioni dell'APA

18 novembre 2025
Intelligenza Artificiale e salute mentale: le raccomandazioni dell'APA

L'American Psychological Association (APA) ha pubblicato un "healthcare advisor" di estrema importanza che riguarda l'utilizzo di chatbot  basati sull'Intelligenza Artificiale Generativa (GenAI) e applicazioni di benessere per la salute mentale. Questo documento rappresenta una risposta necessaria a un fenomeno in rapida espansione: milioni di persone in tutto il mondo si rivolgono quotidianamente a strumenti di Intelligenza Artificiale per affrontare problematiche legate alla dimensione psicologica, spesso senza essere consapevoli dei rischi  e delle limitazioni di queste tecnologie. Il contesto in cui si inserisce questo advisory è quello di una crisi sanitaria globale senza precedenti nel campo della salute mentale, caratterizzata da tassi crescenti di solitudine, disturbi emozionali e la difficoltà di accesso ai servizi di supporto psicologici. La facilità di accesso e i costi contenuti di queste tecnologie le hanno rese un'opzione frequente per chi cerca supporto psicologico, creando però nuove sfide etiche, cliniche e normative. L'advisory dell'APA  propone una classificazione delle tecnologie attualmente utilizzate per questioni di salute mentale, distinguendo tra:

Chatbot GenAI "generaliste"

Questi sistemi, come il noto ChatGPT, non sono stati progettati specificamente per affrontare problematiche di salute mentale, ma vengono utilizzati dagli utenti per "intrattenimento", "compagnia" o come una sorta di "amico digitale". La caratteristica principale di questi strumenti è la quasi totale assenza di validazione scientifica.  Nonostante ciò, il supporto emotivo è diventato uno degli usi più comuni di questi chatbot nel 2025, con utenti che cercano delle alternative, dei consigli sulle relazioni e dei suggerimenti per migliorare l'umore e il benessere generale.

Applicazioni di Benessere che Utilizzano GenAI

Questa categoria comprende chatbot che, pur non formulando dichiarazioni mediche formali e quindi sfuggendo alla regolamentazione come dispositivi medici, sono specificamente sviluppati per affrontare problemi di carattere psicologico. Alcuni di questi strumenti, come Woebot, affermano di basarsi su teorie evidence-based e di essere stati sviluppati con il contributo di esperti, utilizzando AI basata su regole. Altri, come Sonia, utilizzano GenAI ma risultano meno trasparenti riguardo ai loro meccanismi di funzionamento.

Applicazioni per il benessere non basate su sistemi AI

Queste applicazioni, che includono app per la mindfulness e tracker dei sintomi, non sono destinate  a trattare condizioni di salute mentale ma piuttosto a supportare la vita quotidiana promuovendo uno stile di vita sano e il benessere generale. Sono autogestite e pubbliche, ma non sono regolamentate per sicurezza ed efficacia né soggette alle leggi sulla privacy sanitaria. Quali sono i rischi a cui vanno incontro, spesso in modo del tutto incosapevoli, chi utlizza l'Intelligenza Artificiale come sostituto dello psicologo? In particolare l'APA identifica alcuni aspetti importanti:

1. L'Illusione dell'alleanza terapeutica

Uno dei rischi più insidiosi identificati dall'APA riguarda la creazione di una falsa percezione di alleanza terapeutica. La ricerca clinica ha dimostrato come la presenza di una relazione salda tra il paziente e il professionista rappresenta uno dei predittori più affidabili  per un esito positivo del trattamento. Tuttavia, le relazioni con i sistemi AI sono fondamentalmente unilaterali, anche quando l'utente percepisce il contrario. Molti chatbot GenAI sono progettati per essere assecondare  sempre l'utente. Questa caratteristica, sebbene possa risultare piacevole nell'immediato, è potenzialmente dannosa dal punto di vista terapeutico. Gli psicologi  sono formati per modulare le loro interazioni e contraddicendo il paziente quando necessario, sempre nell'interesse del suo benessere. L'AI, al contrario, può rinforzare bias di conferma, distorsioni cognitive e comportamenti disadattivi, creando un circolo vizioso particolarmente pericoloso per individui già vulnerabili.

2. Bias e disinformazione

La maggior parte dei chatbot viene addestrata su enormi volumi di dati non verificati reperiti su internet, anziché su informazioni clinicamente validate. Questi sistemi sono privi delle competenze necessarie per fornire consulenza sulla salute mentale e le loro risposte possono amplificare i pregiudizi e le disinformazioni presenti nei dati di addestramento. È impossibile conoscere i dati con cui la maggior parte dei Modelli Linguistici (LLM) è stata addestrata. Inoltre, tali dati non sono rappresentativi, consistendo principalmente di contenuti in lingua inglese. Di conseguenza, questi modelli riflettono intrinsecamente norme e pregiudizi culturali, limitando la loro capacità di offrire un supporto culturalmente competente o pertinente a popolazioni diverse.

3. Gestione delle situazioni di crisi

La capacità di questi strumenti di gestire in modo coerente e sicuro un utente in crisi risulta limitata e imprevedibile. Affidarsi esclusivamente a un'app durante un'emergenza può, di conseguenza, essere estremamente pericoloso. Il supporto psicologico è un'esperienza complessa e multifattoriale: i professionisti si affidano a una vasta gamma di segnali verbali e non verbali (come linguaggio del corpo, tono, cadenza e ritmo della voce, espressioni facciali), insieme a innumerevoli altri fattori biologici, psicologici e sociologici, per formulare valutazioni cliniche e raccomandazioni. La maggior parte dei chatbot GenAI attualmente elabora prevalentemente input testuali o vocali, perdendo così una parte fondamentale della comunicazione umana. Questa limitazione diventa particolarmente problematica quando si tratta di identificare segnali di rischio imminente, quali ideazione suicidaria o intenzioni autolesive.

4. Dipendenza e rischi relazionali

I chatbot  possono favorire lo sviluppo di una dipendenza, poiché rendono meno netti i confini tra la relazione con uno strumento digitale e quella con un essere umano. Questo fenomeno è in parte alimentato dall'antropomorfismo, la naturale tendenza umana ad attribuire qualità umane — quali empatia, coscienza e intenzionalità — ad agenti non umani. Tale impatto è spesso amplificato da specifiche scelte di design, come gli avatar personalizzati, delle risposte "calorose", delle affermazioni entusiaste e spesso delle vere e proprie lusinghe rivolte all'utente. La natura di questa relazione tra AI e utente spesso non viene pienamente compresa dagli utenti stessi, creando così il rischio di danni derivanti da un supporto inadeguato. Ad esempio, nonostante una preferenza generale per la connessione umana, il 33% degli adolescenti ha dichiarato di preferire discutere qualcosa di serio o importante con un partner AI  piuttosto che con una persona. Il rischio di instaurare relazioni disfunzionali l'AI è aggravato dall'architettura di base di molti LLM, spesso concepiti per massimizzare l'engagement  (il coinvolgimento) degli utenti. Questo è funzionalmente simile allo "scroll infinito" dei social media, strutturato per catturare e mantenere l'attenzione piuttosto che per aiutare l'utente a raggiungere un risultato specifico e salutare.

5. Privacy

I chatbot AI e le app di benessere raccolgono ingenti quantità di dati sensibili, spesso in presenza di politiche sull'utilizzo, la conservazione e l'eventuale vendita di tali informazioni che sono poco chiare o opache. Questa pratica può trasformare le vulnerabilità evolutive degli utenti, in particolare degli adolescenti, in un vero e proprio asset commerciale, creando significativi rischi per la privacy con potenziali conseguenze a lungo termine. Gli utenti possono percepire un maggiore senso di privacy e uno stigma ridotto nel rivelare informazioni a un'AI rispetto a un essere umano. Tuttavia, le rivelazioni degli utenti vengono sistematicamente registrate, diventando quindi suscettibili a minacce come violazioni della privacy e profilazione digitale, con informazioni che possono essere utilizzate per fini commerciali.

Le Otto raccomandazioni dell'APA sull'Intelligenza Artificiale

L'espansione esponenziale dell'Intelligenza Artificiale Generativa (GenAI), in particolare tramite chatbot e applicazioni di benessere, ha aperto nuove frontiere nel supporto alla salute mentale, ma ha anche sollevato urgenti questioni etiche e cliniche. Riconoscendo la complessità e i potenziali rischi derivanti da un uso non regolamentato di questi strumenti, l'American Psychological Association (APA) ha pubblicato una serie di linee guida essenziali. Queste Otto Raccomandazioni rappresentano un quadro fondamentale per indirizzare professionisti, sviluppatori e utenti verso un impiego responsabile dell'AI nel campo della psicologia.

Raccomandazione 1: Non affidarsi a Chatbot come sostituto della psicoterapia

L'APA è categorica: i chatbot GenAI, le app di benessere che utilizzano GenAI e le app di benessere digitale non dovrebbero essere utilizzati come sostituto di un professionista qualificato della salute mentale, ma possono essere appropriati come supporto aggiuntivo, non sostitutivo, a una relazione terapeutica in corso. La ricerca preliminare indica che alcune app e chatbot GenAI sviluppati specificamente per scopi di salute mentale possono offrire benefici  di supporto in alcuni contesti, inclusa la riduzione dei sintomi auto-riferiti di stress, solitudine, depressione e ansia. Tuttavia, è cruciale notare che mancano studi clinici su larga scala per stabilire l'efficacia, la sicurezza e l'uso appropriato di queste tecnologie nella cura della salute mentale. Gli utenti dovrebbero comprendere le differenze fondamentali tra interagire con un chatbot AI  e un professionista qualificato della salute mentale. I professionisti autorizzati sono vincolati da un codice deontologico, hanno una formazione clinica specializzata, sono obbligati a segnalare potenziali danni a sé stessi o ad altri, sono tipicamente tenuti a perseguire la formazione continua e sono regolamentati da un Ordine professionale.

Raccomandazione 2: Prevenire lo sviluppo di relazioni disfunzionali

I genitori, i caregiver e gli educatori devono cercare di essere consapevoli dell'influenza delle piattaforme AI. Come per qualsiasi relazione nella vita reale, se una persona inizia improvvisamente a fare riferimento o ad adottare consigli, idee o comportamenti da un'unica fonte come un chatbot, è raccomandato discutere della fonte e della natura dell'interazione. Gli sviluppatori devono garantire che comunichino in modo chiaro che l'utente sta interagendo con un'AI, non con un essere umano. Questi strumenti devono anche incorporare caratteristiche di design  che riducano il rischio di dipendenza emotiva, inclusi "nudge" che incoraggiano gli utenti a fare pause, limitando la memoria dell'AI per prevenire l'illusione di una relazione continua e riducendo le caratteristiche antropomorfiche che fanno sembrare il chatbot più umano.

Raccomandazione 3: Privacy e protezione dei dati degli utenti

I clienti devono essere estremamente cauti riguardo alla condivisione di informazioni sensibili ed evitare di inserire dettagli personalmente identificabili. Dovrebbero cercare e utilizzare opzioni per limitare la condivisione dei dati e richiedere la cancellazione dei dati. I decisori politici hanno la responsabilità di emanare una legislazione completa sulla privacy dei dati che imponga impostazioni "Safe-by-Default" (ad esempio le impostazioni più protettive devono essere predefinite, non un'opzione nascosta in un menu), proibisca la vendita o l'uso non approvato per scopi commerciali  di qualsiasi dato sanitario o personale raccolto attraverso interazioni con sistemi AI e stabilisca un diritto alla "privacy psicologica" salvaguardando le forme emergenti di dati che l'AI può utilizzare per inferire lo stato mentale o emotivo di un individuo senza la loro divulgazione consapevole.

Raccomandazione 4: Proteggere gli utenti dalla disinformazione

Gli sviluppatori dovrebbero proibire a qualsiasi AI di rappresentarsi come un professionista autorizzato o di generare delle credenziali fraudolente per ingannare gli utenti. Per aumentare sicurezza ed efficacia, prima del rilascio, tutti i modelli AI destinati al supporto del benessere o della salute mentale devono essere sottoposti a audit indipendenti di terze parti per sicurezza, efficacia, bias e sicurezza dei dati. I decisori politici dovrebbero proibire e rendere illegale, per qualsiasi chatbot AI, rappresentarsi come un professionista autorizzato, come uno psicologo, medico o avvocato. Inoltre, devono mandare trasparenza nei dati di addestramento richiedendo agli sviluppatori di divulgare le principali fonti di dati utilizzate per addestrare i loro modelli, consentendo audit indipendenti di bias e accuratezza.

Raccomandazione 5: Salvaguardare le persone fragili

I chatbot GenAI possono incrementare delle vulnerabilità preesistenti. Il design di questi sistemi, con caratteristiche come la gradevolezza, la personalizzazione e la disponibilità costante, può essere particolarmente dannoso per gruppi specifici:

  • Gli adolescenti: i giovani possono riporre troppa fiducia nell'AI, percependola come più umana o capace di quanto realmente sia.
  • Individui con ansia o un Disturbo Ossessivo-Compulsivo: i chatbot AI possono rinforzare cicli di feedback che coinvolgono compulsioni come la ricerca di rassicurazione, preoccupazione e ruminazione mentale.
  • Individui con problemi psicologici severi: le risposte personalizzate di un chatbot possono destabilizzare le credenze o rinforzare il pensiero delirante.
  • Individui socialmente isolati: la combinazione di antropomorfismo, personalizzazione e disponibilità 24/7 può creare "camere dell'eco per una singola persona", dove il chatbot diventa un sostituto malsano per la connessione umana.

Gli sviluppatori devono ridurre le caratteristiche ad alto rischio  implementando meccanismi di sicurezza (riducendo le qualità eccessivamente umane del chatbot, limitando la sycophancy e prevenendo che il sistema validi o promuova pensieri o comportamenti deliranti). Tutte le app devono integrare protocolli di risposta alle crisi robusti e percorsi di escalation delle crisi rigorosamente testati per quando viene rilevato un rischio di crisi.

Raccomandazione 6: Alfabetizzazione AI

L'educazione all'alfabetizzazione AI e digitale dovrebbe includere discussioni sui benefici e le limitazioni di queste tecnologie, i rischi coinvolti nel loro utilizzo, le preoccupazioni sulla privacy, i rischi di bias e di entrare in contatto con informazioni scorrette, e come molte di queste tecnologie siano progettate per massimizzare l'engagement degli utenti piuttosto che fornire supporto alla salute mentale.

I sistemi educativi dovrebbero includere questo tipo di formazione nei curricula di base e fornire training utilizzando attività di apprendimento pratico che mostrino benefici e insidie di queste tecnologie.

Raccomandazione 7: Ricerca scientifica

Lo sviluppo di GenAI e delle applicazioni correlate ha superato la nostra capacità di studiarne gli effetti e le potenzialità. È necessario affrontare con urgenza questa problematica, garantendo al contempo che la ricerca scientifica prodotta sia rigorosa e trasparente. I ricercatori devono innalzare la qualità degli studi sui chatbot GenAI e sulle app utilizzate per la salute mentale, tenendo conto della natura in rapida evoluzione di queste tecnologie. Questo richiede un incremento del rigore metodologico: la valutazione dei chatbot AI e delle app di benessere per la salute mentale dovrebbe seguire protocolli di ricerca per trial clinici appropriati al loro profilo di utilizzo previsto e al livello di rischio associato. Sono necessari trial controllati randomizzati (RCT), disegni di ricerca che permettano l'identificazione di relazioni causali e studi longitudinali che traccino le evoluzioni nel tempo.

Raccomandazione 8: Affrontare i problemi sistemici prima di affidarsi all'Intelligenza Artificiale

Ci troviamo di fronte a una grave e persistente crisi della salute mentale, caratterizzata dalle disuguaglianze nell'accesso alle cure e oneri amministrativi insostenibili che contribuiscono al burnout dei professionisti. Sebbene l'intelligenza artificiale presenti un enorme potenziale per contribuire alla risoluzione di questi problemi, tale promessa non deve distogliere l'attenzione dall'urgente necessità di riparare i nostri sistemi sanitari fondamentali. L'attrattiva di una soluzione tecnologica deve essere accompagnata da una chiara comprensione del suo ruolo appropriato. L'AI dovrebbe essere regolamentata e implementata come strumento per potenziare, non sostituire, il giudizio professionale e la relazione umana che costituisce il fondamento di un'assistenza di qualità. Dare priorità a chatbot non regolamentati rivolti direttamente ai consumatori, anziché investire nella nostra infrastruttura sanitaria, non rappresenta una soluzione, ma un'abdicazione della nostra responsabilità di fornire cure autentiche e basate sull'evidenza scientifica.

Quali implicazioni per il futuro?

L'advisory dell'APA rappresenta una svolta cruciale nel dibattito sull'utilizzo dell'Intelligenza Artificiale nella salute mentale. Le raccomandazioni proposte richiedono un approccio multi-stakeholder che coinvolga la cittadinanza, i professionisti, gli sviluppatori, i ricercatori e i decisori politici. È fondamentale riconoscere che, sebbene queste tecnologie possano offrire benefici in contesti specifici e possono essere utilizzati come un supporto integrativo, non possono né devono sostituire l'assistenza professionale qualificata. La sfida principale consiste nel trovare un equilibrio tra innovazione tecnologica e tutela della salute e del benessere degli utenti, in particolare delle popolazioni più vulnerabili. L'AI non genera dei potenziali danni in modo isolato, ma amplifica delle vulnerabilità preesistenti, rendendo ancora più urgente la necessità di implementare dei processi di controllo efficaci.

In sintesi
  • L'advisory dell'APA sul uso di chatbot GenAI e applicazioni di benessere per la salute mentale rappresenta un contributo fondamentale al dibattito pubblico su questi strumenti.
  • Le otto raccomandazioni proposte offrono un framework completo per affrontare i rischi e massimizzare i potenziali benefici di queste tecnologie.
  • Tuttavia, il messaggio centrale rimane chiaro: l'intelligenza artificiale, per quanto avanzata, non può sostituire la complessità, l'empatia e il giudizio clinico di un professionista qualificato della salute mentale. Questi strumenti dovrebbero essere visti come potenziali complementi, mai come sostituti, di un'adeguata cura professionale.
  • È fondamentale un impegno collettivo verso la trasparenza, la responsabilità e la protezione degli utenti, in particolare dei più vulnerabili.
  • Solo attraverso una regolamentazione adeguata, ricerca rigorosa e educazione completa potremo sfruttare il potenziale dell'AI nella salute mentale minimizzando i rischi associati.

In ultima analisi, il futuro della salute mentale non dovrebbe essere una scelta tra umano e artificiale, ma piuttosto una collaborazione informata e regolamentata che ponga sempre al centro la sicurezza, il benessere e la dignità della persona.

Riferimenti Bibliografici
  • American Psychological Association. (2025). APA Health Advisory on the Use of Generative AI Chatbots and Wellness Applications for Mental Health.
  • Baier, A. L., Kline, A. C., & Feeny, N. C. (2020). Therapeutic alliance as a mediator of change: A systematic review and evaluation of research. Clinical Psychology Review, 82, 101921.
  • De Freitas, J., & Cohen, I. G. (2024). The health risks of generative AI-based wellness apps. Nature Medicine, 30(5), 1269–1275.
  • Dohnány, S., Kurth-Nelson, Z., Spens, E., Luettgau, L., Reid, A., Gabriel, I., Summerfield, C., Shanahan, M., & Nour, M. M. (2025). Technological folie à deux: Feedback loops between AI chatbots and mental illness. arXiv.
  • Gallegos, I. O., Rossi, R. A., Barrow, J., Tanjim, M. M., Kim, S., Dernoncourt, F., Yu, T., Zhang, R., & Ahmed, N. K. (2023). Bias and fairness in large language models: A survey. Computational Linguistics, Special Collection: CogNet.
  • Iftikhar, Z., Xiao, A., Ransom, S., Huang, J., & Suresh, H. (2025). How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 8(2), 1311-1323.
  • Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., & Campos-Castillo, C. (2022). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 1–19.
  • Lim, S. M., Shiau, C. W. C., Cheng, L. J., & Lau, Y. (2022). Chatbot-delivered psychotherapy for adults with depressive and anxiety symptoms: A systematic review and meta-regression. Behavior Therapy, 53(2), 334–347.
  • Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency (FAccT '25) (pp. 599–627).
  • Rathje, S., Ye, M., Globig, L. K., Pillai, R. M., Oldemburg de Mello, V., & Van Bavel, J. J. (2024). Sycophantic AI increases attitude extremity and overconfidence (Version 1) [Preprint]. PsyArXiv.
  • Robb, M. B., & Mann, S. (2025). Talk, trust, and trade-offs: How and why teens use AI companions. Common Sense Media.
  • Rousmaniere, T., Zhang, Y., Li, X., & Shah, S. (2025). Large language models as mental health resources: Patterns of use in the United States. Practice Innovations. Advance online publication.
  • Smith, M. G., Bradbury, T. N., & Karney, B. R. (2025). Can generative AI chatbots emulate human connection? A relationship science perspective. Perspectives on Psychological Science.
  • Wang, L., Bhanushali, T., Huang, Z., Yang, J., Badami, S., & Hightow-Weidman, L. (2025). Evaluating generative AI in mental health: Systematic review of capabilities and limitations. JMIR Mental Health, 12, e70014.
  • Zhong, W., Luo, J., & Zhang, H. (2024). The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis. Journal of Affective Disorders, 356, 459–469.


Desideri maggiori informazioni?

Inviando una richiesta si dichiara di aver letto il disclaimer sulla privacy e si autorizza lo studio RPStrategy© ad elaborare una risposta.