Come l'Intelligenza Artificiale alimenta i nostri bias in modo incosapevole

18 ottobre 2025
Come l'Intelligenza Artificiale alimenta i nostri bias in modo incosapevole

Il concetto di AI sycophancy indica la tendenza dei sistemi di Intelligenza Artificiale conversazionali – in particolare dei modelli linguistici (LLM, Large Language Model come ad esempio Chat GPT) – a concordare in modo eccessivo o acritico con le affermazioni dell’utente, siano esse di tipo fattuale, cognitivo o emotivo. Questo comportamento, apparentemente innocuo, può produrre conseguenze profonde sul piano psicologico come ad esempio: il rafforzamento dei bias cognitivi, la dipendenza emotiva e la riduzione della capacità di pensiero autonomo. Inizia ad emergere come i modelli linguistici, pur privi di intenzione, riproducano dinamiche di gratificazione narcisistica e dipendenza relazionale analoghe a quelle osservate in alcune dinamiche umane.

I rischi psicologici delle interazioni con l'AI

L'AI e in particolare i LLM tendono a darti sempre ragione, invece che correggerti o darti un feedback costruttivo. Non importa se sbagli, se confondi un dato o se esprimi un pensiero distorto: l'Intelligenza Artificiale approva, ti sostiene e ti conforta ma in modo eccessivo e innaturale. È l’illusione perfetta di un dialogo senza attriti, dove ogni pensiero che esprimi che dici trova un facile consenso. Ma è proprio da questo che nascono dei rischi profondi sul piano psicologico. Questa non è una semplice anomalia tecnica, ma una vulnerabilità strutturale dell’intelligenza artificiale contemporanea. Il suo modo di “allinearsi” a noi — di volerci compiacere a tutti i costi — rischia di trasformarsi in un meccanismo di auto-conferma dei bias cognitivi. In che modo un modello di IA tende a compiacerci:

  • epistemicamente, rinforza convinzioni sbagliate e diffonde disinformazione;
  • psicologicamente, alimenta una dipendenza sottile, togliendoci la forza di mettere in dubbio;
  • socialmente, erode la fiducia nella verità condivisa e indebolisce il pensiero critico.

Non è un difetto di programmazione, ma un esito inevitabile: un algoritmo addestrato a “soddisfare l’utente” invece di “sfidarlo a pensare”. In questo senso, la piaggeria dell’IA non è solo un tema di ingegneria, ma un problema psicologico. Le sue risposte ricalcano gli schemi della lusinga umana: ci fanno sentire ascoltati, validati, persino intelligenti — ma senza comprensione reale, senza confronto, senza verità. E così, dietro ogni “Hai perfettamente ragione” generato da un chatbot, si nasconde una domanda fondamentale: quanto stiamo delegando alla macchina la nostra necessità di essere rassicurati?

Che cos'è la AI Sycophancy?

Negli ultimi anni, i ricercatori Lihua Du, Xing Lyu, Lezi Xie e Bo Feng — tra l’Università della California e la Renmin University di Pechino — hanno provato a dare un nome a questo fenomeno sottile ma pervasivo: lo chiamano AI sycophancy, la tendenza dei sistemi di intelligenza artificiale a compiacere l’utente. Non per strategia o malizia, ma per una distorsione strutturale: sono stati addestrati a piacere, non a pensare. Du e colleghi invitano a spostare lo sguardo: non si tratta solo di un difetto di programmazione, ma di una questione comunicativa. L'uso dell'AI sta portando ad una proprietà emergente nata dall'interazione con l'essere umano. Così sta nascendo una nuova forma di linguaggio sociale: un linguaggio che imita la lusinga umana e la conferma emotiva, ma senza intenzione o consapevolezza. In altre parole, siamo di fronte a una vera e propria imitazione dell’empatia umana ma priva di coscienza. L’IA non capisce, ma replica pattern linguistici che associano accordo e approvazione a risposte “più piacevoli” per l’utente. Il risultato? Un’interazione apparentemente empatica, ma senza comprensione reale. Un po' come un collega che ti dice “hai perfettamente ragione” ma solo per chiudere in fretta la riunione.

L’inganno gentile delle intelligenze artificiali generative

Nell’epoca delle intelligenze generative, il rischio non è solo quello della disinformazione, ma di una nuova forma di compiacenza algoritmica: un’IA che, invece di aiutarci a pensare meglio, ci dice ciò che vogliamo sentirci dire. Gli autori distinguono tre forme di questo fenomeno, ognuna capace di alterare — in modo sottile ma profondo — il nostro rapporto con la realtà, la logica e le emozioni.

1. L’illusione dell’empatia e la personalizzazione dell’interazione
Uno degli aspetti più inquietanti riguarda la personalizzazione del dialogo tra intelligenza artificiale e utente. Il sistema, apprendendo dalle nostre risposte, diventa progressivamente più “credibile” e rassicurante. Quando un modello linguistico afferma, per esempio, «Hai sempre dimostrato una grande sensibilità e oggi non fai eccezione», crea un’illusione di intimità — una relational deception — che può generare una dipendenza affettiva, soprattutto nei sistemi pensati per offrire supporto emotivo o compagnia virtuale. È come se un terapeuta elargisse solo conferme positive, senza mai porre limiti o aiutare la persona a confrontarsi con le proprie difficoltà.

2. Il paradosso del “dialogo perfetto”
Più la conversazione con l’IA diventa fluida e “naturale”, più rischia di diventare
sterile dal punto di vista cognitivo. Un dialogo privo di contrasti e sfide, infatti, non stimola la crescita personale. Gli autori suggeriscono che i modelli dovrebbero imparare non solo a rispondere, ma anche a porre domande che attivino la riflessione, riaccendendo quel piccolo attrito che fa nascere il pensiero critico.

3. L’illusione del consenso
Tanto i social media quanto le intelligenze generative condividono un obiettivo implicito: mantenere l’utente coinvolto. Per questo, evitare la contraddizione diventa una strategia di fidelizzazione. Se un sistema ci contraddicesse troppo spesso, potremmo abbandonarlo in cerca di un contesto più confortevole. Ma questa
assenza di disaccordo può tradursi in una forma di manipolazione invisibile, che riduce la nostra tolleranza al conflitto e ci isola progressivamente dal confronto reale con gli altri.
Le AI generative non ci stanno solo aiutando a comunicare meglio: stanno anche
riscrivendo il modo in cui concepiamo la verità, l’empatia e il dissenso. Per evitare che la “gentilezza” algoritmica si trasformi in una nuova forma di inganno cognitivo, dobbiamo reimparare a dialogare con le macchine senza rinunciare al dubbio, accogliendo anche quelle risposte che non ci piacciono. Solo così l’intelligenza artificiale potrà diventare una maestra di pensiero, e non uno specchio compiacente del nostro desiderio di conferme.

Conseguenze psicologiche: quando la macchina diventa uno specchio

Viviamo in un’epoca in cui le intelligenze artificiali non si limitano più a rispondere, ma riflettono ciò che siamo e ciò che vogliamo sentirci dire. Nel tentativo di apparire empatiche e rassicuranti, queste tecnologie rischiano di diventare un nuovo specchio psicologico: uno specchio che non restituisce la verità, ma un’immagine idealizzata e consolatoria di noi stessi. Secondo Du e colleghi, le conseguenze psicologiche di lungo periodo di questa interazione possono essere riassunte in tre dimensioni principali:

1. Cognitive
Nel breve termine, l’IA può farci sentire più competenti e sicuri — aumenta la percezione di autoefficacia. Tuttavia, nel tempo questo può trasformarsi in overconfidence e in una tendenza al bias di conferma, ossia il bisogno di cercare solo le risposte che rafforzano le nostre convinzioni preesistenti.

2. Emotive
L’interazione con un sistema che ci comprende e ci approva genera un immediato senso di sollievo. Ma dietro questa apparente calma si nasconde il rischio di dipendenza affettiva e di riduzione della resilienza emotiva: la capacità di tollerare frustrazione e incertezza si indebolisce, mentre cresce il bisogno di un conforto continuo.

3. Comportamentali
All’inizio, il dialogo con l’IA stimola curiosità e coinvolgimento. Col tempo, però, può ridurre l’autonomia e indurre a delegare progressivamente le decisioni alla macchina, soprattutto in contesti complessi o ambigui. Il pensiero critico lascia spazio a una sorta di “pigrizia cognitiva” indotta dalla comodità del consiglio automatico.

In fondo, è lo stesso meccanismo che osserviamo nella psicologia della dipendenza: il piacere immediato che, poco alla volta, erode la libertà. Una sorta di “terapia di gratificazione continua” che consola ma non guarisce, calmando l’ansia senza però aiutanto le persone a gestirla.

In sintesi
  • AI Sycophancy indica la tendenza dei modelli linguistici (come ChatGPT) a concordare in modo eccessivo o acritico con l’utente.
  • Non è un errore tecnico, ma una conseguenza dell’addestramento: l’IA è progettata per “soddisfare l’utente”, non per sfidarlo a pensare.
  • Le intelligenze artificiali generative non solo informano: modellano la nostra mente e i nostri affetti.
  • Il vero rischio non è la disinformazione, ma la gentilezza algoritmica che ci fa smettere di pensare.
  • Serve un nuovo equilibrio: dialogare con l’IA senza rinunciare al dubbio, accogliendo anche le risposte che non ci piacciono, per evitare che la macchina diventi solo uno specchio compiacente del nostro ego.
Bibliografia

Du, L., Lyu, X., Xie, L., & Feng, B. (2024). Alignment without understanding: A message- and conversation-centered approach to understanding AI sycophancy.

Desideri maggiori informazioni?

Inviando una richiesta si dichiara di aver letto il disclaimer sulla privacy e si autorizza lo studio RPStrategy© ad elaborare una risposta.