di Catello Parmentola

L’Intelligenza Artificiale fa la media di tutti gli umani precedenti, di ogni luogo e di ogni tempo. Considerato che l’umano attuale è molto sotto questa media, avendo progressivamente essiccato il proprio linguaggio umano, il proprio corpo umano e il proprio tempo umano, la media che fa l’Intelligenza Artificiale è un buon affare, ci sovrastima. (Non deve sfuggire che comunque, allo stato, questa media è filtrata e mediata non da un filtro neutro ma, prevalentemente da un filtro occidentale, maschio e di lingua inglese: questo un po’ conta). Facendo la media del precedente, dei dati passati, ha una natura implicitamente conservativa: può solo essere algoritmicamente predittiva del futuro ma non potrà mai coinciderci: come nel paradosso di Zenone, Achille non potrà mai raggiungere la tartaruga, l’autentico dovrà sempre venire prima della sua imitazione, l’umano prima dell’artificio che lo insegue. Per questo l’IA sarebbe un buon affare da un lato, da non temere troppo dall’altro. Sarebbe un affare invincibile che, però, non potrebbe vincerci. Nell’unico caso in cui l’IA (il programma Eugene Goostman) ha superato il test di Turing, i giudici umani non sono stati tratti in inganno dall’IA ma dal programmatore umano che ha utilizzato un parametro simulativo così scarso da confondere la fallacità del simulatore con quella del programma IA.

L’invincibilità del buon affare è dato dal fatto che l’uomo storicamente non ha mai resistito alla seduzione di ciò che gli fa guadagnare tempo. Il bisogno esplorativo primario dell’uomo è costituito da ciò che gli fa guadagnare tempo. La storia ha sempre scartato ciò che non fa guadagnare tempo, ha sempre trat-tenuto nel setaccio del progresso tutto ciò che ha dato Tempo all’Uomo.

La prima stagione IA è convenzionalmente racchiusa tra 1956 e il 2015, dalle origini ad Open AI. Per valutare la forza penetrativa dell’AI basta considerare che Facebook per fare i primi 100 milioni di utenti ci mise 4 anni e mezzo, ChatGpt nel 2022 ci mise 2 mesi (oggi ha più di 500 milioni di utenti settimanali).

Ci sono IA chiuse o open source. La differenza è più o meno quella che corre tra Pubblico e Privato: il Privato da sempre meno conto, è meno penetrabile ad ogni vaglio, ha criteri votati agli interessi proprietari. La misura etica è descritta sempre dalle intenzioni più che dalle cose in sé: pensiamo ai contributi di AlphaFold alla Medicina, a quelli di GraphCast e GoogleMaps alla prevenzione dei fenomeni naturali. Pensiamo alla Public Benefit Corporation Anthropic dei fratelli Amodei e al loro sogno di una IA sicura e che non cerchi solo il profitto. Il modello più avanzato di Anthropic, Claude, è il manifesto di un’IA comprensibile, controllabile, valoriale: gli algoritmi devono rispondere a delle regole etiche e trasparenti, vengono sorvegliate le risposte generate in modo che non si arrechino danni agli esseri umani e si scelgono sempre le risposte che contengono meno informazioni personali sugli altri. Ovviamente neanche Claude può essere esente da rischi di allucinazioni e la notevole apertura a protezione da un unico Grande Cattivo espone comunque al rischio di qualche piccolo cattivo disseminato.

Pensiamo anche a Mistral AI, la risposta franco-europea al monopolio Silicon Valley per contenerne i rischi.

Nel 2024 il Parlamento Europeo ha approvato un AI Act successivamente adottato dal Consiglio Europeo che richiede Sistemi sicuri, trasparenti e rispettosi dei Diritti fondamentali. Questo Act proibisce qualsiasi inferenza dell’AI con gli stati emotivi, sia con riferimento alla loro generazione che al loro indebito utilizzo. Il livello più importante del lavoro clinico degli psicologi-psicoterapeuti dovrebbe essere, quindi, teoricamente presidiato: costituirebbe già, teoricamente, un perimetro invalicabile per l’AI. Avendo conoscenza senza esperienza ed imitazione senza coscienza, l’AI è manchevole, infatti, dei requisiti indispensabili al maneggiamento degli stati emotivi.

Alcune deroghe etiche sono generali, strutturali ed implicite. La prima è che l’IA ha un elevato impatto ambientale in quanto richiede consumi elevatissimi di acqua ed elettricità ed una elevatissima produzione di anidride carbonica. Saperlo può suggerire una vigilanza almeno sugli abusi, sugli usi, cioè, più dispensabili e voluttuari. La seconda rimanda ad una discriminazione implicita nelle soglie e nelle possibilità di accesso che non possono, ovviamente, essere le stesse tra Paesi, classi socio-culturali, persone.

Al netto delle suddette deroghe implicite, la più ricorrente deroga è costituita dai bias algoritmici perché quasi sempre proprio i risultati distorti corroborano decisioni ingiuste o non eque, discriminatorie nei confronti di specifici gruppi o categorie di persone. I bias algoritmici non vanno confusi con il fenomeno delle così dette allucinazioni. Le allucinazioni sono conseguenze tecniche, non ideologiche. In sé non sarebbero malevoli ma possono, allo stesso modo, avere esiti catastrofici. Sono dovute al fatto che l’AI non contempla i non lo so: i non lo so non sono programmati e la risposta sempre comunque fa rischiare a volte degli errori clamorosi come quello di GoogleBard sul telescopio spaziale Webb (conseguente perdita di 100 miliardi di dollari in pochi minuti nel valore di mercato).

Altra deroga ricorrente è quella legata al controllo dei cittadini da parte degli Stati o dei consumatori da parte dei Privati. Il controllo ha sempre in premessa la violazione finalistica di ogni standard di riservatezza. In questi casi, aprire la sorgente del Programma (open source) non è finalizzato al consentire una valorica vigilanza bensì a consentire penetrazioni indebite, pensiamo al controllo statale in Cina.

Le frontiere più spregiudicate sono sempre quelle di Musk. Il chatbot della sua Società (xAI) è finalisticamente scorretto: è consentita l’immissione di qualunque dato senza nessun filtro e le risposte sono generate solo da questi dati fuori controllo. Anche i progetti di Musk sono sempre sul filo della deroga etica: dai chip nel cervello (piccoli impianti di interfacce neurali) alla comunicazione wireless con le macchine fino al riconoscimento facciale indiscriminato (quindi controllo sociale totalizzato) e alla sostituzione dell’umano in qualunque ambito lavorativo sena alcuna riflessione pregiudiziale sulla nuova forma sociale e sulla tenuta dei Diritti.

Tutte le questioni etiche avranno ad ogni modo maggiore ragione d’essere in una fase più avanzata, quando i Modelli di Linguaggio (LLM) verranno integrati in un’Intelligenza Artificiale Generale (AGI) perché allora davvero le funzionalità artificiali potranno avere la massima approssimazione a quelle umane. Quella nuova frontiera richiederà una riflessione aggiornata e una ricalibratura di giudizi, vigilanze e rischi.

Per quanto riguarda la professione psicologica, la riflessione dovrebbe metodologicamente strutturarsi come per le prestazioni online, come per le Piattaforme e come per ogni novità o cambiamento che interviene. Prima bisognerebbe saperne e capirne qualcosa della misura dei fenomeni nel mondo, dell’impatto sociale, di quello che va a riguardare tutti. Poi bisognerebbe valutare se il nuovo che interviene è qualcosa che la professione può permettersi, può sostenere senza trasfigurarsi, tradire o perdere i propri termini identitari, senza diventare non riconoscibile. Infine bisognerebbe valutare se quello che resta nel setaccio della possibilità professionale è anche coerente con le misure deontologiche della professione, supera il vaglio deontologico, non fa incorrere in deroghe deontologiche.

È un’ottima cosa il tempo che l’AI fa guadagnare agli psicologi come a tutti su cose surrogabili, sostituibili, addirittura migliorabili con gli standard AI. Integra in tempo reale i saperi, organizza meglio, sistema i dati, ordina i planning, imposta le cornici, la struttura, gli ordini, i sottordini e le premesse di forma di ogni prodotto: dis-allena a cose dis-allenabili, fa guadagnare moltissimo tempo. Una soglia di vigilanza per lo psicologo dovrebbe essere legata al non impigrire l’ideazione soggettiva: costituiscono risorse indispensabili la vitalità intellettuale, neuroni che associano veloci e bene, la ricchezza delle metafore, la sollecita risonanza, sapere rappresentare e simbolizzare, le calibrate restituzioni ecc. Il tempo che l’AI fa guadagnare dovrebbe consentire di nutrire meglio tutto questo, avendo, intanto, semplicemente più vita personale poiché da lì si viene ogni giorno e da lì si prende tutti i giorni. Un ambulatorio che ha attorno più buona vita personale del clinico funziona meglio, è un ambulatorio migliore. Il tempo che l’AI fa guadagnare dovrebbe consentire più pensiero, più tempo per il pensiero, di nutrire meglio le dimensioni e le misure intellettuali. Anche da lì si viene e anche da lì si prende. Un clinico con più buon pensiero funziona meglio, è un clinico migliore. Il tempo che l’AI fa guadagnare dovrebbe consentire più contemplatività, sospensione, bellezza, spiritualità. Anche da lì si dovrebbe venire e anche da lì si dovrebbe prendere. Significherebbe aver cura e nutrire gli stati mentali più adatti alla relazione clinica, calibrare meglio l’ascolto, avere risonanze più pure e pulite, toccare più precisamente ciò che va toccato. Se fosse speso in vita, pensiero e contemplazione il tempo guadagnato, ben vengano tutte le surroghe e le sostituzioni da parte dell’AI. Il cosa farne del tempo guadagnato, tuttavia, convoca e interroga le qualità dell’umano, non dell’AI. Bisognerebbe prima considerare il guadagno e cosa farne del guadagno: se non si ha qualcosa di meglio da fare del proprio tempo, sarebbe ideologico e alienante ottenerlo per ottenerlo. Questo è il cuore della partita con l’AI e con qualunque forma di progresso assegni la possibilità e la responsabilità di avere più tempo.

Lo psicologo-psicoterapeuta allena alla relazione. In quanto psicologo, è un soggetto psicologico che sa istituire in premessa un contesto psicologico, cioè calibrato sulle soggettività, della persona, del momento, del contesto. In quanto psicoterapeuta, nel contesto psicologico in premessa sa fare succedere la relazione terapeutica. La relazione è un paradigma, viene allenata nella correttezza della relazione col terapeuta, poi diventa corretta relazione tra parti di sé, poi diventa corretta relazione con il mondo. Come in un viaggio di ritorno, arriva corretto nel mondo ciò che ne era partito disfunzionale. La regolazione terapeutica avviene su livelli intangibili, psicologici e psicodinamici, si lavora con le emozioni e i sentimenti. È un tipo di lavoro che l’AI non potrà mai surrogare o sostituire perché si svolge nell’espressività diretta. L’AI lavora dati precedentemente assunti per arrivare ad una predizione algoritmica ma l’espressività diretta rende inutili i dati precedenti e impossibile la predizione per il semplice fatto che né paziente né terapeuta sanno cosa verrà in mente di dire quando ci si incontra, quale pensare-provare-dire verrà emotivamente e sentimentalmente sollecitato nel-dal momento dell’incontro. È un tempo reale sempre fuori da ogni dato precedente e da ogni predizione, l’AI sarebbe sempre spiazzata, sistematicamente allucinata. Le reti neurali artificiali non possono analizzare dati non prevedibili ed apprendere in modo autonomo un movimento non prevedibile. Le interconnessioni nodali del cervello umano hanno una complessità non riproducibile da un sistema di calcolo.

L’altra circostanza spiazzante per l’AI è data dal fatto che lo psicologo-psicoterapeuta ha come Oggetto ciò che non va, ciò che va male, ciò che richiede cura. Lo sguardo è inclinato in quella direzione. L’AI non è programmata per la vulnerabilità e l’imperfezione dell’umano: non prevede neanche ancora i non lo so o i non rispondo (il silenzio che la clinica interpreta e utilizza), performa, approssima quanto più, cerca e genera la migliore risposta. Se ha un Oggetto, ha un Oggetto opposto, guarda in un’altra direzione. Potrebbe aggiustare solo se potesse incontrare il livello umano della relazione clinica, dove si contattano (mai simmetricamente) i rispettivi dolori. Viene in mente Bion: terapeuta e paziente come due animali pericolosi e spaventati in una stanza, con la sola speranza che uno dei due lo sia di meno. Neanche il più sofisticato sistema di calcolo può riprodurre pericolo, spavento e speranza, atmosfera e toni in questi termini, dovendo inseguire fra l’altro l’irriducibile soggettività di ogni diverso contesto istituito, di ogni diverso momento, di ogni diverso attore

Dal punto di vista deontologico, la deroga più esposta non riguarda direttamente lo psicologo: le domande di psicologia poste all’AI e le risposte dell’AI che surrogano o sostituiscono il professionista. Intanto, questa è la forma del mondo: la veloce mediazione tecnologica di ogni cosa. Da decenni tutti chiedono risposte mediche a Google e non è questo che ha affossato il Sistema sanitario, né per questo è scomparsa la figura del medico. A maggiore ragione, non potrà mai essere del tutto surrogabile o sostituibile quella dello psicologo che obbliga ad una maggiore quota di inter-soggettualità. D’altronde, mediamente, l’AI difficilmente potrebbe diffondere una cultura psicologica peggiore di quella ordinariamente diffusa da tutti quanti gli altri mediatori sociali. Infine, soprattutto, le domande di psicologia poste all’AI sono poste da persone comuni, cittadini, utilizzatori non psicologi e quindi non possono costituire deroghe deontologiche in quanto condotte di soggetti non assoggettati alla funzione disciplinare degli Ordini competenti.

La prefigurazione di esercizio abusivo da parte dell’AI sarebbe surreale: dovrebbe riguardare tutte le professioni da un lato e una responsabilità intangibile e dalle impervie profilazioni giuridiche dall’altro. I più interessanti tentativi di perimetrazione di alcuni aspetti, comunque, non toccano assolutamente l’ineludibilità della forma del mondo.

Gli abusi da parte dello psicologo sono in quota parte condivisi con ogni altro cittadino, cose assimilabili ai vecchi plagi, ai falsi ideologici negli accrediti impropri, alle mancate citazioni della fonte, insomma le tentazioni più ricorrenti. Nella propria specifica quota professionale, invece, tocca ribadire quanto già detto per lo psicologo al cospetto di ogni novità che possa impattare il proprio esercizio professionale. Innanzitutto, si dovrebbe rassegnare ai cambiamenti che ricadono nel suo esercizio professionale: da un lato, ci sono sempre stati e, dall’altro, è impensabile che ricadano su tutti tranne che sulla sua figura professionale. Infine, nel tempo, la prova dei fatti, riguardo ogni volta alle perdite e ai guadagni, ha sempre riservato delle sorprese (per lo più positive).

Bisogna anche aggiungere che, in ogni caso, non mancano i presidi, a partire dal fatto che gli Articoli del Codice deontologico valgano per tutti gli psicologi in tutte le loro circostanza professionali. Basta quindi vagliare quali punti deontologici le diverse misure dell’irruzione dell’AI nella professione può di volta in volta attentare e prevenire quegli specifici rischi. Allo stesso modo si è presidiati da Obblighi normativi e standard giuridico-formali previsti, dal valutare, caso per caso, se la prestazione professionale li rispetta. Sulle novità per le quali non ci si sente ancora adeguatamente attrezzati, come per le altre novità precedentemente intervenute, sicuramente non mancheranno produzioni istituzionali ed esperti a cui riferirsi. Infine, lo psicologo ha un riflesso personale, prima ancora che professionale, alla tutela dei diritti, soprattutto dele parti deboli. Questa tutela può costituire un parametro su cui misurare anche i rischi dell’AI: la protezione dal lesivo è la giusta e puntuta frontiera nella dialettica umana e professionale con ogni singola cosa nuova portata dall’AI.

Bibliografia

  1. Ferrazza F. – Pisa P. L., Intelligenza Artificiale, IT Iitalian Tech

  2. Parmentola C., Il soggetto psicologo e l’oggetto della psicologia nel Codice Deontologico degli psicologi italiani, Giuffré Ed., Milano 2000;

  3. Parmentola C., Prendersi cura – Il soggetto psicologo e il senso dell’Altro tra clinica e sentimento, Giuffré Ed., Milano 2003;

  4. Parmentola C., La deontologia degli psicologi – le conoscenze indispensabili all’esercizio professionale, Ordine degli Psicologi della Campania Edizioni, 2013 (prima edizione), 2018 (seconda edizione).

Note biografiche

Catello Parmentola, psicologo-psicoterapeuta, clinico, docente. epistemologo, Dirigente psicologo in quiescenza dell’ASL di Salerno, ha contribuito alla stesura del Codice Deontologico degli psicologi italiani ed è autore di molti volumi ed articoli inerenti l’epistemologia clinica, la deontologia e la storia della disciplina psicologica.

 

Ricevi aggiornamenti via WhatsApp e via Facebook.

Condividi questo post

Leave A Comment

Post correlati

Total Views: 672Daily Views: 2