Ho letto con grande interesse un’intervista al creatore del chatbot “Il tuo migliore psicologo”.

Qui il chatbot “Il tuo migliore psicologo”,

Un nome ambizioso, che già da solo solleva alcune domande fondamentali. Ma facciamo un passo indietro.

Cos’è un chatbot? In termini semplici, si tratta di un assistente virtuale basato sull’intelligenza artificiale, progettato per interagire con gli utenti su un determinato argomento. Esistono chatbot per il customer service, per prenotare viaggi, per imparare lingue straniere… e oggi, a quanto pare, anche per fornire “supporto psicologico” (qui un altro esempio di un chatbot più complesso).

Tralasciando per un momento gli aspetti tecnici su come un chatbot possa acquisire una “specializzazione”, credo che oggi più che mai sia necessario affrontare con serietà e urgenza il tema dell’uso dell’AI in ambito clinico. Non possiamo più far finta che non esista.

La verità è che sempre più persone – inclusi adolescenti e giovanissimi – si rivolgono all’intelligenza artificiale per ottenere conforto, risposte, orientamento psicologico. E questo accade al di fuori di ogni controllo, regolamentazione o riflessione etica strutturata.

Nel caso del chatbot menzionato, l’intervistato afferma che migliaia di utenti lo utilizzano regolarmente per ricevere un primo supporto psicologico. Ciò che colpisce, però, è che il giornalista non pone alcuna domanda critica sugli aspetti etici, professionali o legali dell’iniziativa. Si dà per scontato – ed è forse questo l’aspetto più inquietante – che il chatbot possa davvero offrire supporto psicologico.

Allora, proviamo a guardare la questione da un’altra angolazione.

Appena finita l’intervista, mi sono posto una serie di domande:

  • Ma se questo chatbot offre supporto psicologico, non si tratta forse di esercizio abusivo della professione?
  • E chi dovremmo denunciare? L’algoritmo? Il giovane sviluppatore che lo ha programmato? In entrambi i casi, ci troveremmo davanti a un paradosso legale e concettuale.
  • Se denunciamo il creatore, affermiamo implicitamente che il suo prodotto è effettivamente uno psicologo. Ma possiamo davvero attribuire a un software la funzione, il ruolo e la responsabilità di una professione regolamentata?

Insomma, non regge.

Credo che uno dei primi compiti del nuovo CNOP (Consiglio Nazionale Ordine Psicologi), appena insediato, debba essere quello di riprendere con decisione il percorso di aggiornamento del Codice Deontologico, interrotto dopo la bocciatura del recente referendum da parte del Consiglio di Stato.

Non si può più rimandare. È urgente prevedere un articolato specifico dedicato all’intelligenza artificiale e alle nuove tecnologie applicate alla relazione d’aiuto.

Non si tratta solo di proteggere la professione, ma soprattutto di tutelare le persone – spesso fragili, disorientate, vulnerabili – che si affidano a strumenti digitali nella speranza di trovare ascolto, empatia, cura.

Siamo pronti ad affrontare questa sfida?

Ricevi aggiornamenti via WhatsApp e via Facebook.

Condividi questo post

Leave A Comment

Post correlati

Total Views: 502Daily Views: 33