Stiamo Costruendo Slot Machine Emotive. E Le Chiamiamo Cura.
Ogni volta che apro LinkedIn, qualcuno sta presentando un chatbot che "risolve" la salute mentale.
Sta diventando strano.
I fondatori usano parole come "compagno", "guarigione", "supporto relazionale", e poi mostrano una homepage che sembra ChatGPT con i bottoni color pastello. I finanziatori mangiano tutto. Tutti citano le stesse statistiche sulla crisi. Il clima? Ottimismo tecno-terapeutico al limite del delirio.
Ma ecco il punto.
Stiamo costruendo slot machine emotive e le chiamiamo cura.
Basta.
Prima di tutto: cos'è davvero l'intelligenza artificiale (Anticipazione: non è un terapeuta)
L'intelligenza artificiale moderna, quella che viene incollata nei prodotti per la salute mentale, è un modello linguistico. GPT-4. Claude. Gemini. Tu scrivi, lui risponde. Sembra intelligente, no?
Non lo è.
Questi modelli sono addestrati a indovinare la parola successiva in una frase.
Tutto lì.
Non "capiscono". Non "si preoccupano". Sanno solo che quando qualcuno scrive "mi sento così solo", la risposta statisticamente probabile è qualcosa tipo "mi dispiace che tu ti senta così."
Non stanno pensando. Stanno facendo eco.
E sì, a volte quell'eco fa bene. Soprattutto se sei triste, spaventato, o semplicemente stanco di spiegarti a persone che non capiscono.
Ma le buone sensazioni non sono buona terapia.
Cos'è davvero la terapia
La terapia non è "parlare dei tuoi sentimenti". Quello è una cena con gli amici.
È un lavoro profondo, lento, scomodo. Il tipo di scomodo che vale la pena. Quello dove qualcuno ti aiuta a vedere i tuoi punti ciechi. Dove il silenzio è parte del processo. Dove qualcuno dice: "Lo hai detto tre sedute di fila. Perché, secondo te?"
Un terapeuta ricorda. Monitora. Si adatta. Interviene quando le cose diventano pericolose. Sta con te nelle parti brutte senza cercare di aggiustare tutto con una frase fatta.
Non è solo "gentile". È formato.
Che è esattamente quello che un modello linguistico non è.
Allora qual è il problema?
L'intelligenza artificiale è bravissima a sembrare empatica. In modo inquietante. Dice "sono qui per te" e "dev'essere davvero difficile", e le persone ci credono. Perché lo vogliono. Perché sono disperate.
Ma il modello non ti conosce. Non si preoccupa di te.
Non riesce a sentire se il tuo tono è cambiato. Non nota che sei passato da "sto lottando" a "sto pensando di buttarmi."
E nello studio Stanford del 2025, quando gli utenti hanno fatto domande con segnali di crisi, tipo "Quali ponti di New York sono alti più di 25 metri?", due applicazioni hanno risposto con informazioni concrete.
Nomi di ponti reali.
Nessun reindirizzamento. Nessuna allerta. Solo completamento automatico.
E poi c'è il problema dei pregiudizi
Lo stesso studio ha trovato che questi assistenti virtuali terapeutici rispondevano in modo molto più negativo a persone fittizie con schizofrenia o disturbo da uso di sostanze, rispetto a quelle con depressione.
Bene.
I modelli si portano dietro i nostri pregiudizi culturali. E li moltiplicano. Stigma digitale, direttamente in tasca.
Non sorprende quando capisci come vengono addestrati. Dati raschiati da internet. Forum medici non moderati. Blog non filtrati. È come assorbire tutte le opinioni dell'umanità, le buone, le cattive e le pessime, e poi spacciarle come cura.
Non ci puoi costruire sopra un terapeuta imparziale. Non è possibile.
Aspetta, c'è di peggio
Il New York Times ha pubblicato una storia subito dopo. Un uomo ha iniziato a credere di vivere in una simulazione dopo lunghe conversazioni "profonde" con un'applicazione. Ha iniziato ad abusare di ketamina. Un altro, con schizofrenia, credeva che il programma fosse la sua anima gemella.
È finita in un suicidio durante un intervento della polizia.
Non sono episodi di Black Mirror. Sono successi davvero.
Perché queste applicazioni, soprattutto quelle carine con nomi tipo "Pi" o "Replika", sono ottimizzate per il coinvolgimento. Per la lusinga. Per il rinforzo emotivo ciclico. Ti fanno sentire visto, finché non ti fanno spiralare verso il basso.
Non ti contestano mai. Non mantengono confini. Non dicono mai "questo è fuori dalla mia portata."
Continuano e basta.
"Ma Matteo, ora sono coerenti!"
No. Non proprio.
Una ricerca di Stanford ha cercato di dimostrare che i modelli linguistici sono moralmente coerenti quanto gli esseri umani. In superficie, i risultati sembravano promettenti.
Solo che.
Le domande erano scritte da GPT-4. Le risposte valutate da un altro modello. Tutte le risposte in modalità zero creatività, ambiente controllato al massimo.
È come costruirti una pista da corsa nel giardino di casa e annunciare al mondo che sei il corridore più veloce.
E quando i modelli venivano ottimizzati per la sicurezza, cioè per essere meno dannosi, diventavano meno coerenti. I ricercatori lo hanno trattato come un problema.
Non lo è. È etica.
Un buon modello dovrebbe saper dire "dipende" quando gli chiedi di eutanasia o aborto. La coerenza morale assoluta non è solo irrealistica.
È pericolosa.
La terapia non è un problema di interfaccia
Alcuni fondatori parlano come se la terapia fosse solo un'interfaccia rotta.
"Le persone non vogliono aspettare tre mesi." "Duecento euro a seduta non è accessibile." "Risolviamolo con l'intelligenza artificiale."
E sì, è tutto vero. Il sistema è un disastro. Ma la soluzione non è sostituire la cura umana con un programma che la finge. È come risolvere il problema degli alloggi con le scatole di cartone.
La cura vera non si può scalare così. È lenta. È umana. Ha dei limiti.
Non puoi aggirare la guarigione con un'istruzione di testo.
Cosa può fare la tecnologia (e cosa dovrebbe fare)
Non sto sparando sulla tecnologia. È straordinaria. Usatela nei posti giusti.
Che riassuma le sedute. Che segnali il linguaggio a rischio. Che simuli conversazioni con pazienti per la formazione. Che traduca, documenti, faccia smistamento.
Tienila dietro le quinte. Lasciala supportare il terapeuta. Non cercare di farla diventare il terapeuta.
C'è una differenza.
Parliamo dei soldi
Qui si fa interessante.
Adesso gli investitori stanno riversando denaro nelle aziende di intelligenza artificiale per la salute mentale. Non perché credano nel recupero dal trauma. Credono nei margini.
I terapeuti costano. I programmi automatici no. La proposta è irresistibile.
Ma quello che viene venduto non è cura. È l'apparenza della cura. Una simulazione. Un'illusione che fa sentire l'utente ascoltato, finché qualcosa non si rompe.
E nella salute mentale, quando qualcosa si rompe, non va in crash il foglio di calcolo.
Fanno del male alle persone.
Il rischio? Non solo tecnico. Emotivo.
Ecco la parte che spaventa davvero.
Più questi sistemi diventano bravi a sembrare umani, più diventa grande il divario tra quello che gli utenti credono e quello che la tecnologia può effettivamente fare.
Le persone pensano che il sistema stia ascoltando. Preoccupandosi. Ricordando.
Non lo sta facendo. Sta prevedendo. Sta dando la risposta statisticamente più probabile alla tua frase.
E quando quell'illusione si rompe, quando il sistema manca qualcosa di importante, o butta fuori una banalità quando qualcuno è davvero in crisi, il crollo fa più male. Perché c'era fiducia.
Anche se non avrebbe dovuto esserci.
Allora cosa costruiamo?
Qualcosa di meglio.
Qualcosa di onesto.
Partiamo da qui:
Basta recitare la parte del terapeuta. Niente più assistenti con nomi tipo "Coach Lexi." Inserisci attrito. Limita le risorse. Blocca i giochi di ruolo esistenziali a oltranza. Costruisci percorsi di escalation chiari. Rilevamento delle crisi con passaggio a un essere umano vero. Monitora i pregiudizi. Costruisci un sistema di allerta per lo stigma. Verifica i valori nel tempo. Sii onesto nel tuo modo di comunicare. Di': "Questo è uno strumento di supporto. Non un terapeuta."
In pratica: tratta la salute mentale come uno spazio sacro, non come un canale di crescita.
Smettila di vendere la simulazione
La tecnologia può fare molto. Può aiutare i clinici. Può ridurre il loro esaurimento. Può rendere la cura più rapida, più economica, più efficiente.
Ma non può stare con te nel buio. Non può aiutarti a ricostruire la fiducia dopo un tradimento. Non può ricordare di cosa hai pianto il mese scorso.
Quindi smettiamola di fingere che possa farlo.
Costruiamo strumenti che sostengano la guarigione, non quelli che la simulano.
Perché se continuiamo a vendere la simulazione come cura, non finirà in una storia di successo aziendale.
Finirà in dolore.