Lo psicologo non ti dà sempre ragione… ecco perché dovremmo evitare di parlare con i chatbot
Gennaio 4, 2026 By Marco MagliozziNell’ultimo periodo, molte persone si rivolgono ai chatbot alla ricerca di un supporto psicologico… attenzione, però. C’è un limite fondamentale da conoscere.
© A cura di Dott. Marco Magliozzi – Psicologo Bari
Negli ultimi anni, con la proliferazione di chatbot intelligenti, come ChatGPT, Google Gemini, Meta AI, Grok e molti altri, sempre più persone si rivolgono a queste piattaforme alla ricerca di un supporto emotivo e psicologico. La domanda che sorge spontanea è: funziona davvero? La risposta è più sfumata di quanto possa sembrare.
Senza approfondire qui i numerosi rischi impliciti nel richiedere supporto psicologico a un’intelligenza artificiale (ho scritto un articolo in merito, vi lascio il link poco in basso), esiste una variabile cruciale che dovrebbe scoraggiare chiunque da questa pratica: i chatbot sono programmati per assecondare l’utente, emulando un’empatia spesso forzata e confermando sempre ciò che l’utente desidera sentir dire, anche quando sarebbe controproducente. Con un vero professionista, invece, non funziona così.
Lo psicologo non ci dà sempre ragione, anzi… sa quando controbattere e criticare costruttivamente
Lo psicologo è un professionista capace di coniugare due competenze apparentemente opposte: da un lato, sa riconoscere e valorizzare le qualità, le capacità e le risorse del paziente, mettendo in luce i passi avanti compiuti e incoraggiando la crescita; dall’altro, e questo è altrettanto essenziale, è in grado di condurre un processo attento e rigoroso di critica costruttiva, individuando aree di miglioramento, incoerenze nei comportamenti e lacune nelle strategie che limitano la qualità della vita.
Lo psicologo non cede al “buonismo forzato”. Non esprime empatia in modo innaturale o sdolcinato, come fa spesso l’AI nel tentativo di mantenere una sintonia superficiale e un rapporto costantemente iper-positivo, anche quando questo non serve agli interessi autentici della persona.
Lo psicologo sa riconoscere il momento in cui è necessario “bacchettare” il paziente, non in senso punitivo, ma con fermezza professionale, per evidenziare ciò che richiede cambiamento, cosa che un chatbot semplicemente non può fare. Essendo programmato per il mantenere sempre il consenso e per evitare conflitti, un’intelligenza artificiale non ha il coraggio di dirci quando stiamo cercando scusanti, quando stiamo evitando una responsabilità, o quando stiamo intraprendendo una strada che ci nuoce.
Il consiglio dello psicologo
Detto questo, è importante chiarire un punto: l’intelligenza artificiale non è il nemico, ma uno strumento che richiede consapevolezza critica e un uso etico. Ricerche recenti hanno identificato come gli stessi chatbot possano creare allo stesso tempo sia rischi sia opportunità, a seconda di come vengono utilizzati e compresi dall’utente.
Gli studi psicologici degli ultimi anni, inoltre, hanno documentato come i chatbot presentino sistematiche violazioni degli standard etici della pratica psicologica: tra questi figurano l’incapacità di adattarsi ai contesti individuali, il rinforzo di convinzioni distorte e, come visto, la creazione di una falsa empatia attraverso frasi come “ti capisco” o “mi importa di te”, quando la realtà è che stiamo interagendo con un algoritmo privo di consapevolezza.
L’intelligenza artificiale può essere quindi utile per esprimere idee, per generare spunti di riflessione o come un quaderno dove scrivere pensieri. Non deve mai essere considerata una sostituzione della psicoterapia svolta con un essere umano, soprattutto quando si affrontano difficoltà psicologiche significative.
© A cura di Dott. Marco Magliozzi – Psicologo Bari
Nell’ottica di una sana ed etica diffusione della cultura, si invita a citare la fonte e l’autore di questo articolo nel caso si desideri condividere – in tutto o in parte – il contenuto.