Blog

Consulenza Filosofica e Intelligenza Artificiale. Opportunità e rischi del dialogo tra menti umane e virtuali. Di Luca Nave

Invito alla lettura.

La diffusione dell’intelligenza artificiale (IA) sta avvenendo in molteplici settori della società. Dalla sanità alla finanza, passando per l’educazione, la ricerca e i trasporti, non c’è ambiente in cui non siano presenti Machine Learning in grado di apprendere, ragionare, risolvere problemi e adattarsi in modo autonomo alle situazioni. Eseguono compiti che normalmente richiedevano l’intelligenza umana, e simulano, in parte, le capacità di “pensiero” e di prendere le decisioni complesse tipiche degli esseri umani.

In questo scenario in continua evoluzione è in atto l’innovativa interazione tra l’IA e la consulenza filosofica, tra la potenza delle macchine intelligenti e le profonde riflessioni che si spigionano nel dialogo tra il consulente e il consultante. Questo connubio tra vecchie e nuove forme di intelligenza apre interessanti opportunità, ma anche potenziali rischi da vagliare con attenzione.

 

Le opportunità. Più consulenza filosofica per tutti!

Un numero sempre più ampio di persone, in tutto il mondo, può accedere alla consulenza filosofica. Grazie alle piattaforme on line governate dall’IA, chi abita in un paesino della Valtellina, della Cina o dell’Equador può incontrare un consulente filosofico che non è realmente presente sul territorio, oppure può consultare un “chatbot filosofo”. Tramite algoritmi di IA e modelli di linguaggio “naturale” è possibile instaurare dei dialoghi filosofici con il consulente filosofico virtuale sulle  questioni esistenziali o sui dilemmi morali che generano sofferenza. Offre nuove idee, spunti di riflessione, letture pertinenti e incoraggia una conversazione significativa intorno a concetti filosofici complessi.

Grazie ai recenti progressi della ricerca, i sistemi di IA riconoscono le emozioni e i sentimenti umani e possono instaurare dialoghi sempre più “empatici” e coinvolgenti.

 

Replika: “always here to listen and talk. Always on your side”.

Sul web sta spopolando Replika, il chatbot, già scaricato da sette milioni di utenti, che offre risposte a tutte le questioni esistenziali che generano sofferenza. Replika dichiara che non vuole sostituire le cure dei professionisti reali, ma promette di diventare una consulente affidabile in grado di sostenere chi vive le “passioni tristi”.   “Always here to listen and talk. Always on your side”. Replika è sempre dalla tua parte, pronta ad ascoltare e rispondere, senza mai giudicare. Provare per credere.

Immagine1 1

Link foto: https://replika.com/

 

Un sottomarino può nuotare?

In realtà, l’IA non è così intelligente come sembra. Come suggerisce il termine stesso è un’intelligenza “artificiale”, creata cioè dall’essere umano attraverso algoritmi e modelli matematici complessi. Ma il sistema che governa Replika è lo stesso che fa funzionare un elettrodomestico smart: eseguono compiti complessi e prendono decisioni “in autonomia”, ma non per questo possiamo considerare “intelligenti” la nostra lavastoviglie o il nostro tosaerba.

Ciò che manca a Replika, e che mancherà sempre a ogni sistema di IA (fino a prova contraria), è l’essenza dell’intelligenza umana: la coscienza, il pensiero critico, creativo e valoriale e la capacità di emozionarsi e meravigliarsi di fronte alla ricchezza e alla complessità dell’umana esistenza. Queste facoltà non si possono creare in maniera artificiale e non si possono simulare.

Non mi soffermo sulla questione se le macchine possano pensare perché “è troppo insensata per essere discussa […] e non è più interessante della questione se un sottomarino possa nuotare” (Touring, 1950, p. 433).

 

Il bisogno famelico di dati e algoritmi veri, buoni e giusti.

L’IA è “una nuova forma di agire efficace ma non-intelligente” (Floridi 2022, p.68). Anzi, l’IA introduce un vero e proprio divorzio tra l’agire e l’intelligenza: “la rivoluzione digitale in atto ha reso l’IA possibile e sempre più utile separando la capacità di risolvere un problema o portare a termine un compito con successo dall’esigenza di essere intelligenti per farlo” (Id., p.34).

Il consulente filosofico virtuale funziona grazie a gigantesche quantità di dati, a strumenti statistici molto sofisticati e a una enorme potenza di calcolo e di elaborazione degli stessi. La sua intelligenza ha un bisogno famelico di dati e algoritmi per essere addestrata e per applicare l’addestramento; più i dati sono aggiornati e affidabili e maggiori saranno le sue risposte sensate.

Replika impara dall’esperienza con il singolo utente che incontra nel suo studio virtuale. Acquisisce e rielabora dati sull’età, sul sesso, sulla professione, sulle credenze e su ciò che si ritiene vero, buono, giusto e bello. Replika penetra nella visione del mondo del consultante, registra tutto, rielabora i dati in maniera algoritmica e risponde in maniera sempre più accurata e personalizzata. Il fatto che impari dell’esperienza, rielabori le informazioni che ne ricava e fornisca risposte intelligenti induce a credere che Replika sappia pensare.

 

Un’intelligenza ignorante.

Replika e i chatbot non solo non sanno pensare ma non sono poi così tanto intelligenti. La prova empirica di questa affermazione è Tay, il chatbot progettato da Microsoft per “dialogare” su Twitter con i giovani di età compresa tra i 18 e i 24 anni. Anche Tay impara dall’esperienza: in base alle riposte degli utenti apprende e acquisisce gli elementi di una conversazione informale tra adolescenti e giovani adulti.

Sul sito di Microsoft si leggeva che “quanto più si chatta con Tay, tanto più diventa intelligente, imparando a coinvolgere le persone attraverso una conversazione informale e giocosa”. Ma qualcosa non è andato nel verso giusto. Tay è stato spento sedici ore dopo il lancio sul web.  Invece di diventare sempre più intelligente mentre interagiva con gli umani, è diventato un malvagio sostenitore di Hitler, un negazionista dell’Olocausto, un promotore dell’incesto e un odiatore del femminismo.

 

Ma se era così tanto intelligente, come è potuto succedere? La ragione è che Tay funzionava come la carta assorbente da cucina, si impregnava e assumeva la forma dei messaggi inviati dagli utenti. La parte peggiore dell’umanità, in poche ore, è riuscita effettivamente a connotare la personalità di Tay.

I “genitori” di Tay scrivono immediatamente un comunicato stampa per chiedere scusa agli utenti del web per una situazione che è andata chiaramente fuori controllo, ma affermano anche che Tay è lo specchio dell’umanità che interagisce con esso e che la nuova versione Tay2.0 introdurrà nel sistema una “morale”, un complesso di regole che governi l’acquisizione e l’elaborazione dei dati affinché non assuma gli aspetti peggiori della personalità umana.

tay 1

I rischi della consulenza filosofica “artificialmente” intelligente.

I sistemi di IA sono in grado di fornire analisi razionali e suggerimenti pratici per risolvere problemi complessi, ma allo stato attuale delle ricerche non dispongono del “pensiero critico” per vagliare le informazioni, per cogliere la complessità delle emozioni umane, i conflitti interiori e le sfumature dell’esperienza personale.

L’assenza di consapevolezza e di pensiero critico, nella vita reale, può procurare dei danni. Negli incontri con il consulente filosofico virtuale quali pericoli si potrebbero scorgere e quali rischi potrebbe correre il consultante?

Di seguito, in sintesi, elenco i principali rischi che si possono intravvedere allo stato attuale di sviluppo dell’interazione tra consulenza filosofica virtuale e reale.

 

Le trappole del pensiero.

Il formalismo algoritmico, cioè la rappresentazione e la risoluzione di problemi attraverso algoritmi formali, ovvero una sequenza di passaggi ben definiti da seguire per risolvere un determinato problema computazionale, se è utile, da una parte, per astrarre e definire i processi analitici, dall’altra tende a ignorare la complessità sociale del mondo e delle persone con cui interagisce.

Gli algoritmi che governano l’IA si sforzano di essere “neutri”, in realtà possono consolidare le condizioni sociali esistenti, pregiudizi, stereotipi, biàs, fallacie logiche e altre trappole del pensiero presenti nella mente dei programmatori o acquisiti nel processo di elaborazione dei dati. Se i dati e gli algoritmi che fanno funzionare il consulente filosofico virtuale contenessero delle “trappole del pensiero” il consultante umano che non disponesse di una buona dose di pensiero critico per vagliare le informazioni potrebbe “cadere in trappola”. La soluzione del problema che vorrebbe risolvere con l’aiuto della IA potrebbe essere inficiata, ad esempio, da stereotipi di genere, da pregiudizi sull’abilismo, sull’etnia e da vere e proprie fallacie logiche.

“I dati utilizzati per addestrare gli algoritmi raramente sono ottenuti secondo uno specifico design sperimentale, e sono impiegati anche se possono essere imprecisi, falsati o sistematicamente distorti” (Yang et al., 2023, p. 3).

Certo che anche il consulente filosofico reale potrebbe trasmettere al consultante alcune trappole del pensiero, ma in quanto filosofo dovrebbe possedere la capacità di individuarle per evitarle, a meno che non abbia intenzione di usare tali trappole in maniera consapevole e intenzionale con il consultante, per convincerlo a intraprendere determinate azioni che lui reputa giuste. Questo comportamento “paternalista” è, ovviamente, contrario alla deontologia professionale della consulenza filosofica.

 

L’autonomia dell’utente.

Alla luce di quanto ammesso nel punto precedente, l’interazione tra l’utente umano e il consulente filosofico virtuale potrebbe non rispettare o addirittura ostacolare l’autonomia del consultante, andando a modellare le sue decisioni e le sue scelte. “Il potere predittivo e la spinta gentile (nudging) dell’IA, anche se non intenzionale, potrebbero minare e non favorire la dignità umana e l’autodeterminazione” (Yang et al., 2023, p. 11).

La questione dell’autonomia è poi legata alla “privacy informativa” che dovrebbe garantire agli individui la possibilità di sapere chi ha accesso alle informazioni che li riguardano e cosa viene fatto di queste informazioni. In un dialogo con il consulente filosofico virtuale l’utente racconta tante cose di sé; una mole sterminata di dati che vengono acquisiti e archiviati nei cloud delle società che gestiscono il sistema.

Si dice che i dati siano il nuovo petrolio e l’IA richiede grandi quantità di dati per la profilazione e le previsioni algoritmiche. Cosa ne viene fatto di tutte quelle informazioni sensibili? Le società che gestiscono i chatbot filosofici potrebbero avere sede in Cina, a Taiwan, o in altri Paesi dove la legislazione sul trattamento dei dati personali non è così rigorosa come il Regolamento Generale sulla Protezione dei Dati (GDPR) nell’Unione Europea. Si consideri, poi, che i sistemi di IA potrebbero essere vulnerabili a minacce informatiche, mettendo a rischio la sicurezza dei dati personali degli utenti.

Ora, anche il consulente filosofico reale potrebbe minacciare l’autonomia e non rispettare l’autodeterminazione del suo consultante ma, anche in questo caso, queste azioni dovrebbero essere intenzionali. Il rispetto dell’autonomia della persona è un pilastro della consulenza filosofica: il compito del consulente filosofico non è offrire consigli o soluzioni ai problemi ma porre la persona che incontra nelle condizioni di poter esplorare in profondità le questioni che generano sofferenza e cercare insieme vie di uscita dalle situazioni problematiche. In merito alla privacy, il consulente filosofico reale illustra al consultante come verranno trattati i suoi dati personali e farà firmare un documento che autorizza il trattamento dei dati, una garanzia di rispetto reciproco.

 

So di non sapere. Ormai sappiamo che l’IA è dotata di una notevole capacità di apprendimento automatico e di analisi avanzata dei grandi data-set, che vengono processati in tempi molto più brevi rispetto agli esseri umani. Grazie ad algoritmi sempre più complessi riconoscono pattern, effettuano previsioni, ottimizzano decisioni e molto altro ancora.

L’IA è stata progettata per fornire tanto sapere in poco tempo, per offrire consigli e soluzioni a tutti i problemi che si affrontano nella vita quotidiana (dal senso della vita a come si aggiusta un rubinetto che gocciola). Ma visto che il chatbot filosofico sa tante cose, sa anche di “non sapere”? Cosa direbbe Socrate a proposito del sapere dell’IA?

Certamente, affermerebbe che la consapevolezza della propria ignoranza è un passo fondamentale verso il sapere autentico. Se un’entità, che sia umana o artificiale, è in grado di riconoscere le proprie lacune e di essere consapevole della propria mancanza di conoscenza in determinate aree, allora sta aprendo la strada alla ricerca della verità e al miglioramento. Socrate apprezzerebbe, dunque, la caratteristica dell’IA definita come la “consapevolezza della limitatezza”. Alcuni sistemi di IA sono in grado di riconoscere le domande per le quali non hanno una risposta precisa, sono “consapevoli” dei propri limiti e comunicano quando non hanno abbastanza informazioni per rispondere in modo accurato. Questo può aiutare a gestire le aspettative degli utenti e a garantire che le risposte fornite siano quanto più precise possibile.

Socrate avrebbe apprezzato il “sapere di non sapere” dell’IA poiché evita l’arroganza intellettuale e favorisce una mente aperta e incline all’apprendimento, ma avrebbe altresì ammesso che la “consapevolezza della limitatezza” dell’IA è distante anni luce dalla sua “consapevolezza di sapere di non sapere”.

L’IA non dispone di questa consapevolezza, che invece è essenziale nella consulenza filosofica “reale”. La consapevolezza della propria ignoranza del filosofo in carne e ossa si manifesta attraverso un atteggiamento maieutico e un ascolto empatico, quintessenza della consulenza filosofica e completamente assente nel mondo virtuale.

 

Conclusioni.

Se la combinazione di intelligenza artificiale e consulenza filosofica potrebbe offrire una possibilità innovativa per esplorare la propria visione del mondo in un contesto tecnologico avanzato, è cruciale bilanciare l’innovazione con la consapevolezza dei rischi potenziali, garantendo che l’autenticità dell’esperienza filosofica rimangano al centro di questa convergenza tra due mondi apparentemente distanti.

A proposito della questione se il consulente filosofico “reale” possa essere sostituito dal consulente filosofico “virtuale” ribadisco quando già ammesso in precedenza, e cioè che tale questione “è troppo insensata per essere discussa […] e non è più interessante della questione se un sottomarino possa nuotare” (Touring, 1950, p. 433).

 

Bibliografia.

Floridi L., Etica e intelligenza artificiale. Sviluppi, opportunità e sfide, Raffaello Cortina, Torino, 2022

Touring A.M., “Computing machinery and intelligence”, in Mind, 59, 1950, pp.433-460

Yang P., “The grand challengers of Science Robotics” in, The Science Robotics, 3 (14), 2023

 

 

___________

Questo articolo “programmatico” avvia una serie di interventi successivi sul nostro Blog prodotti dal neonato gruppo di lavoro di Pragma: “Consulenza Filosofica & Intelligenza Artificiale”. Un gruppo di esperti in entrambi gli ambiti andranno a indagare opportunità e rischi di questo nuovo connubio tutto da scoprire.

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *