Nell’arco degli ultimi anni l’esplosione dell’intelligenza artificiale generativa ha rivoluzionato l’orizzonte del possibile, più o meno distopico, a seconda dei gusti, in pressochè qualsivoglia ambito della vita, compresa la salute mentale. Esistono intelligenze artificiali che possono fare diagnosi. Altre possono calcolare un profilo di rischio tramite un digital phenotype. Inoltre, dispositivi indossabili (wearable devices) e telemedicina sono sempre più integrati nei processi di cura, e possono diventare ulteriori fonti di dati analizzabili tramite le IA. Un altro esempio è il “triage digitale”, in cui i pazienti compilano un questionario digitalizzato e vengono guidati dall’IA direttamente al livello di assistenza in base alle loro risposte. L’intelligenza artificiale è in grado di riconoscere specifiche neuro-diversità o alcuni “disturbi”. Dalla rilevazione delle alterazioni dei movimenti oculari sintomatiche della schizofrenia all’analisi delle funzioni attentive e di memoria, dall’imaging automatizzato del comportamento ai fini di diagnosi di un disturbo dello spettro autistico all’analisi vocale finalizzata all’identificazione di sintomi di ansia. La psicodiagnostica digitale potrebbe essere notevolmente accelerata dalla “fenotipizzazione digitale” che coi “biomarcatori digitali”, dati generati principalmente dall’uso intensivo dello smartphone, combinati ai dati soggettivi prodotti dagli stessi utenti, rendono possibile mappare gli “indicatori di malattia”, indici da cui ricavare in tempo reale lo stato di salute psicofisica di un individuo. Altro esempio sono le AI utilizzate per prevenire il suicidio in base all’analisi del comportmento: se mi avvicino ad un luogo ritenuto pericoloso, l’AI invia automaticamente un segnale di allerta. In sintesi, la digitalizzazione nella psicologia clinica è un processo variegato e trasversale, e questi sono solo alcuni esempi dell’infinita gamma di strumenti digitali che automatizzano quel processo di medicalizzazione della devianza dalla norma che attualmente è svolto dagli operatori psi che si giustifica con la cosiddetta individuazione precoce dei casi nelle scuole nelle università negli ospedali e in altre istituzioni, un’operazione che spesso viene legittimata dalla narrazione della prevenzione.

Per quanto riguarda la psicoterapia, più nello specifico: Woebot, Wysa, Heartfelt, PsyScribe, Lotus, Youper, Elomia, BrokenBear sono solo alcune delle app che sfruttano la tecnica dei Large Language Models per simulare l’interazione con un* terapeuta (McCallen, 2025). Il fatto notevole, è che i servizi di queste start-up non si limitano ad offrire ai singoli un supporto psicologico qualora non volessero o potessero rivolgersi ad un* professionista, ma vengono integrati poco a poco nei maggiori sistemi sanitari statali di mezzo globo, con l’obiettivo esplicito di ridurre i costi, aumentare l’accessibilità e migliorarne l’efficienza del servizio Il servizio sanitario nazionale del Regno Unito, il più finanziato ed esteso del mondo per inciso, usa l’app Limbic per esaminare e valutare le persone che chiedono supporto per la salute mentale. Dal 2021 sempre l’NHS offre Wysa, un programma di terapia cognitivo-comportamentale basato sull’IA “per affrontare problemi comuni come ansia e depressione”.

Niente di nuovo, da anni i sistemi sanitari sono divenuti campo di sperimentazione di nuove tecnologie e di estrazione di dati e profitto. Guardando ai dati sperimentali però, la letteratura sulle applicazioni dei chatbot nella salute mentale è scarsissima e pesantemente indirizzata. In rete si trovano perlopiù review e metanalisi che mischiano computer based-therapy e chatbot. I risultati sperimentali si contano su una mano. Pure questi pochi studi (per una review si veda Jahanzeb Beg et al, 2024), sebbene abbiano raccolto in pochi anni un numero impressionante di citazioni, hanno importanti limiti metodologici. Ad esempio, nella scelta del gruppo di controllo, nell’esclusione dalle analisi delle persone che abbandonano lo studio, o addirittura, in un caso (Fitzpatrick, 2017) uno degli autori è il fondatore di una di queste app: Woebot. Inoltre la pressochè totalità di questi studi sono pubblicati da un’unica rivista il JMIR Mental Health, una rivista open access, dove quindi si paga per pubblicare, il cui fondatore e editor esecutivo è Gunther Eysenbach, noto investitore nella editoria open access e nelle startup digitali made in USA.

Perchè tutta questa corsa al digitale a discapito anche della cautela e del metodo sperimentale? Le ragioni sono molteplici e hanno a che fare con importanti interessi commerciali, con la finanza pubblica (digitalizzazione è un modo di tagliare la spesa pubblica in lavoratori e infrastrutture), e con la biopolitica, ovvero il governo dei corpi attraverso le tecnologie della cura.

Gli interessi economici sono enormi e non hanno a che fare solo con i contratti milionari che le imprese digitali strappano ai sistemi sanitari pubblici e alle assicurazioni. La merce più pregiata sono i dati. I sistemi sanitari sono i database più grandi al mondo. Ogni aspetto della cura che viene digitalizzato corrisponde ad una estrazione di dati (la cosiddetta. datafication) che poi possono essere messi a valore, venduti o utilizzati per fare previsioni o per nutrire un IA. La digitalizzazione inoltre promuove quei processi di privatizzazione di fette importanti del sistema sanitario, laddove la “cura” si sposta su piattaforme private. Rimanendo in Italia è interessante notare come le parole degli stessi governanti certifichino la commistione ormai totale tra le scelte di salute pubblica e gli interessi dei capitali privati. “Negli ultimi anni abbiamo assistito all’estero allo sviluppo delle terapie digitali – ha detto il ministro della Salute Orazio Schillaci – Queste soluzioni al momento sono utilizzate in vari ambiti – quello psichiatrico ma anche in endocrinologia, reumatologia e oncologia – e analizzando le pipeline di sviluppo, sia in ambito farmacologico che nell’ambito di dispositivi medici, dobbiamo prepararci al futuro ingresso di queste innovazioni anche nel nostro mercato”. Non è un caso quindi, che chi governa la salute pubblica come fosse un mercato, destini 15 miliardi dei fondi PNRR, uno dei capitoli di spesa più importanti, alla digitalizzazione del SSN.

Venendo agli aspetti biopolitici, numerosi studiosi hanno evidenziato che essendo per costituzione l’IA una tecnologia in cui “il passato gioca un ruolo attivo nel presente, essendo basata sull’apprendimento di pattern da dati esistenti”, essa “tende a perpetuare strutture esistenti” (Törnberg & Uitermark, 2025). Una tecnologia che ripropone il passato nel presente è una tecnologia repressiva e conservatrice, nel senso che mantiene le cose così come sono, riproducendo le strutture di potere e la cultura dominante. Le applicazioni alla salute mentale non esulano da questa dinamica. Dove va a finire così il futuro? L’apertura umana nell’incontro verso nuove forme individuali e collettive? Le AI nella salute mentale sono di fatto strumenti di detezione di una devianza, una sorta di gigantesco scanner sociale, un retino per tutte quelle forme di sentire e di comportamento abnorme o insolito. Insieme le Applicazioni delle AI alla salute mentale sono delle tecniche di rieducazione all’interno di una norma, laddove ristabiliscono confini di ciò che è possibile e non è possibile esperire in una data società. Perfino il gergo utilizzato dai promotori della digitalizzazione ha inquietanti risonanze. Nel documento programmatico ‘The Digital Future of Mental Health care and its Workforce’ by the National Health Service (NHS), il più importante documento al mondo finora prodotto su questo tema, si parla esplicitamente di “health of the nation”, la categoria biopolitica per eccellenza.

In conclusione, se l’IA ha il potenziale di trasformare radicalmente i sistemi di salute mentale, occorre osservarne da vicino le implicazioni etiche e politiche. In uno studio che indaga l’efficacia di un chatbot (vivibot) nel ridurre l’ansia in bambini oncologici ospedalizzati (Greer et al., 2019). Un ragazzino intervistato riferiva: “Quando stavo facendo la chemio, era difficile non appesantire i miei amici parlando delle terapie e della vita. La mia prospettiva di vita è cambiata completamente. Questo chatbot è un modo per parlare apertamente di quei cambiamenti, piuttosto che cercare di interiorizzarli o di affrontare quelle conversazioni imbarazzanti con gli amici sani”. La domanda che dovremmo porci, più

che preoccuparci se le AI ci ruberanno o meno il lavoro di cura, è la seguente: che tipo di umanità è pronta ad accettare una macchina nella propria intimità? Con quale idea di vita degna di essere vissuta? Le novità tecnologiche producono sempre una “ri-ontologizzazione” del mondo (un cambiamento nel modo in cui intendiamo l’esistenza e l’interazione tra tecnologia e individuo che ridefinisce l’esistente e le possibilità umane), ridefiniscono l’esistente e le possibilità umane. Forse le IA, che simulano una relazione umana, rendono possibile un’umanità senza umanità. Forse siamo a quel punto dello “sviluppo tecnico” che anticipava Turkle nel suo libro “Alone together” in cui ci aspettiamo sempre di più dalla tecnologia e sempre di meno gli uni dagli altri.

Bibliografia

Jess McCallen (2025). Il terapeuta artificiale. Internazionale. https://www.internazionale.it/magazine/jess-mcallen/2025/01/30/il-terapeuta-artificiale

Mirza Jahanzeb Beg et al., (2024). Artificial Intelligence for Psychotherapy: A Review of the Current State and Future Directions

Fitzpatrick KK, Darcy A, Vierhile M. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Ment Health.

Törnberg, P., Uitermark, J. (2025). Conclusion. The biopolitics of artificial intelligence. In Seeing Like a Platform

Greer S, Ramo D, Chang YJ, Fu M, Moskowitz J, Haritatos J. (2019). Use of the Chatbot “Vivibot” to Deliver Positive Psychology Skills and Promote Well-Being Among Young People After Cancer Treatment: Randomized Controlled Feasibility Trial. JMIR Mhealth Uhealth. 2019 Oct 31;7(10):e15018. doi: 10.2196/15018. PMID: 31674920; PMCID: PMC6913733

Lascia un commento