L’introduzione dell’intelligenza artificiale (AI) in ambito sanitario e psicologico non è più una prospettiva futura, ma una realtà concreta. Dai software di supporto diagnostico agli strumenti digitali per l’analisi del linguaggio e delle emozioni, l’AI promette di ampliare le possibilità di cura e di prevenzione. Tuttavia, insieme alle opportunità emergono nuove responsabilità etiche e giuridiche, in particolare sul tema del consenso informato.

Cosa deve sapere il paziente

Il consenso informato non può più limitarsi a descrivere finalità, rischi e benefici della prestazione psicologica (es. sostegno psicologico/psicoterapia), ma deve includere anche le informazioni relative all’uso dell’intelligenza artificiale. Lo psicologo, infatti, ha il dovere di chiarire:

  • Se viene utilizzata l’AI: il paziente deve essere consapevole che alcuni processi terapeutici o di analisi sono supportati da algoritmi.
  • Come viene usata: ad esempio, se l’AI elabora testi delle sedute, monitora parametri fisiologici o suggerisce interpretazioni cliniche.
  • Quale software è impiegato e su quali server vengono trattati i dati (in Italia, in Europa o in Paesi extra-UE).
  • Se i dati vengono trasmessi a soggetti terzi, come provider tecnologici o enti di ricerca.
  • Se i dati sanitari del paziente sono utilizzati per addestrare l’AI: un punto particolarmente delicato, che richiede esplicito consenso e garanzie di anonimizzazione.

Questi aspetti trovano fondamento sia nel nuovo disegno di legge italiano sull’AI (DDL 1146-B), che ribadisce il diritto del cittadino a essere informato in modo chiaro e trasparente sull’uso dell’intelligenza artificiale in sanità, sia nell’AI Act europeo, che introduce obblighi specifici per i sistemi ad alto rischio.

L’AI Act e l’ambito psicologico-sanitario

L’AI Act (Reg. UE 2024/1689), pubblicato a luglio 2024, rappresenta la prima normativa organica sull’intelligenza artificiale in Europa. In sanità – e quindi anche in psicologia clinica – i sistemi AI sono considerati “ad alto rischio” (Allegato III, punto 5) .

Ciò comporta obblighi stringenti per gli sviluppatori e per i professionisti che li utilizzano:

  • Trasparenza verso gli utenti: i pazienti devono sapere quando interagiscono con un sistema AI e a quali scopi serve.
  • Valutazione di conformità: i software AI ad alto rischio devono rispettare requisiti di qualità, sicurezza, robustezza e supervisione umana.
  • Tracciabilità e documentazione: lo psicologo deve poter accedere a schede tecniche, log di funzionamento e report di rischio del sistema usato.
  • Supervisione umana obbligatoria: l’AI non può sostituirsi al giudizio clinico, ma solo supportarlo.
  • Protezione dei dati: i sistemi devono essere progettati nel rispetto del GDPR, con particolare attenzione alla minimizzazione e alla non discriminazione.

L’AI Act, inoltre, vieta pratiche manipolative o che possano compromettere la salute psicologica del paziente (art. 5). Questo principio è particolarmente rilevante nelle applicazioni cliniche che analizzano emozioni, vulnerabilità e stati mentali.

Le criticità legate a privacy e GDPR

L’uso dell’AI in ambito psicologico tocca direttamente il cuore della normativa sulla protezione dei dati personali (GDPR):

  • Minimizzazione e proporzionalità: devono essere trattati solo i dati strettamente necessari alla finalità terapeutica.
  • Trasparenza: le informazioni devono essere fornite con linguaggio semplice e comprensibile, evitando tecnicismi che possano confondere il paziente.
  • Rischio di riutilizzo dei dati: anche se pseudonimizzati o anonimizzati, i dati sanitari possono essere utilizzati per scopi secondari (ricerca, addestramento algoritmi). Il paziente deve essere chiaramente informato di queste possibilità.
  • Trasferimento extra-UE: se i dati finiscono su server localizzati fuori dall’Unione europea, diventa necessario valutare le tutele aggiuntive previste dal GDPR.
  • Sorveglianza e bias: un algoritmo che analizza condotte psicologiche può riflettere pregiudizi o produrre errori, con ricadute sul percorso terapeutico.

Verso un consenso informato “digitale”

Alla luce di questi sviluppi, il consenso informato in psicologia deve evolvere in una versione “digitale” e potenziata, che includa sezioni specifiche sull’intelligenza artificiale.

Ricevi aggiornamenti via WhatsApp e via Facebook.

Condividi questo post

Leave A Comment

Post correlati

Total Views: 1.564Daily Views: 9