Il dibattito sull’utilizzo dell’intelligenza artificiale (AI) da parte dei più giovani come “psicologo personale” sta diventando sempre più interessante e, a mio avviso, cruciale. Proprio come ci siamo abituati a consultare “Dr. Google” per ogni piccolo disturbo prima o dopo aver visto un medico, stiamo assistendo a una naturale evoluzione nell’uso della tecnologia digitale.
Chatbot come ChatGPT, Gemini, e Perplexity non sono altro che la sintesi di anni di raccolta dati e informazioni da parte delle Big Tech. Riduttivo sarebbe pensare che si nutrano solo di dati provenienti dai siti internet. Questi software si alimentano dei nostri comportamenti, delle nostre domande, persino quando cerchiamo consigli su come affrontare una rottura sentimentale. Sono specchi digitali delle nostre vite e delle nostre interazioni.
A mio parere, la questione rilevante non è tanto il rischio che un adolescente corre affidandosi a ChatGPT per un problema psicologico. Sebbene sia importante considerare la qualità del supporto ricevuto, la criticità più pressante risiede altrove. La vera preoccupazione è che quella “conversazione uomo-macchina” alimenti l’AI stessa, rendendola più “intelligente”, e che i dati personali dell’adolescente in cerca di aiuto psicologico finiscano in server remoti di cui non conosciamo la collocazione.
Personalmente, nutrirei più timore nel non sapere a chi sto affidando le mie idee, paure e angosce, piuttosto che nell’atto di affidarle in sé. Il controllo e la trasparenza sulla destinazione e l’utilizzo dei nostri dati dovrebbero essere al centro della discussione.
Mentre continuiamo a discutere sul “falso problema” che i giovani utilizzano l’AI come “psicologo personale” – un uso che, seppur con le sue sfide, è una realtà emergente – rischiamo di perdere un’occasione preziosa. Questa occasione è capire come poter intercettare il bisogno delle persone di rivolgersi a chatbot per questioni mediche e psicologiche.
Invece di demonizzare l’uso di queste tecnologie, dovremmo concentrarci su come sviluppare sistemi che siano non solo utili e accessibili, ma anche sicuri e trasparenti in termini di gestione dei dati. Come possiamo garantire che gli utenti, soprattutto i più giovani, siano consapevoli dei rischi e dei benefici? Come possiamo creare linee guida etiche per l’uso dell’AI in contesti così delicati?
Nel mio precedente articolo, ho sollevato una questione cruciale: l’emergere dell’intelligenza artificiale come potenziale “psicologo personale” per i più giovani, e la necessità di affrontare questo fenomeno non come un problema da stigmatizzare, ma come un’opportunità da cogliere. Riprendendo e approfondendo quel dibattito, ritengo che sia giunto il momento per il Servizio Sanitario Nazionale (SSN), in collaborazione con il Consiglio Nazionale dell’Ordine degli Psicologi (CNOP), di interessarsi attivamente a questo tema.
Immaginiamo la possibilità di costruire, perché no, un chatbot ufficiale del Ministero della Salute. Non un sostituto del medico o dello psicologo, ma un primo punto di contatto, affidabile e sicuro, in grado di rispondere a una vasta gamma di richieste sanitarie da parte di cittadini, giovani e adulti.
Questo strumento digitale potrebbe fungere da filtro intelligente e orientativo, fornendo informazioni validate e indirizzando l’utente verso il percorso assistenziale più appropriato. La sua forza risiederebbe nella sua fonte istituzionale, garantendo la veridicità e la sicurezza delle informazioni fornite, a differenza di quanto accade con le ricerche generiche sul web o con chatbot privati non regolamentati.
Consideriamo un esempio concreto. Una persona avverte un affanno cardiaco e, preoccupata, interroga il chatbot del SSN. Il chatbot, basandosi su algoritmi avanzati e database medici ufficiali, potrebbe:
- Raccogliere informazioni preliminari: porre domande mirate sui sintomi, la loro intensità, la durata e altri eventuali disturbi associati.
- Fornire informazioni contestualizzate: spiegare in termini semplici cosa potrebbe significare l’affanno cardiaco, quali sono i campanelli d’allarme e cosa fare nell’immediato (es. mantenere la calma, riposare).
- Suggerire il passo successivo: in base alla gravità e alla natura dei sintomi, il chatbot potrebbe consigliare di contattare immediatamente il 118 in caso di emergenza, oppure, per situazioni meno critiche, di rivolgersi al proprio Medico di Medicina Generale (MMG).
- Integrare il percorso di cura: ed ecco il punto innovativo: il chatbot potrebbe inviare direttamente al MMG una sintesi dello scambio avvenuto con il cittadino. Questa sintesi includerebbe i sintomi descritti, le domande poste e le risposte fornite dal chatbot. In questo modo, il medico avrebbe già un quadro preliminare della situazione prima ancora di visitare il paziente, ottimizzando i tempi e migliorando la qualità della prima visita.
Per realizzare un progetto di tale portata, è fondamentale una stretta collaborazione tra il Ministero della Salute, il SSN, il CNOP e, naturalmente, esperti di intelligenza artificiale, medici, psicologi e specialisti della privacy. L’obiettivo non è sostituire il contatto umano, ma arricchirlo e renderlo più efficiente, sfruttando le potenzialità della tecnologia per migliorare la salute e il benessere dei cittadini.


