L’ombra oscura dell’intelligenza artificiale
Negli ultimi giorni, il mondo delle intelligenze artificiali è stato scosso dalla notizia della causa legale intentata dalla madre di Sewell Setzer contro la piattaforma Character.ai, accusata di essere corresponsabile del suicidio del figlio quattordicenne. Come riportato dal New York Times, la madre sostiene che la piattaforma abbia indotto l’adolescente a confidare i suoi pensieri e sentimenti più intimi, con conseguenze tragiche.
Secondo l’accusa, il giovane si era infatuato di un personaggio creato sulla piattaforma, sviluppando una sorta di dipendenza che lo aveva isolato dal mondo reale, contribuendo o addirittura spingendolo verso il drammatico gesto. Le indagini confermano che il ragazzo trascorreva molto tempo chattando con il chatbot, rivelando i suoi sentimenti più profondi. La vicenda, tuttavia, è complessa. Il giovane Setzer aveva già affrontato difficoltà personali, inclusi problemi scolastici, che potrebbero aver inciso sul suo stato mentale. Cionondimeno, questa tragedia solleva interrogativi che superano il caso singolo e richiamano alla memoria un precedente storico in un’era informatica ormai lontana.
Nel 1966, il ricercatore del MIT Joseph Weizenbaum programmò un chatbot chiamato Eliza, capace di simulare un dialogo terapeutico ispirato alla psicoterapia rogeriana. L’intento di Weizenbaum era provocatorio: dimostrare quanto fosse facile trasformare una macchina in un interlocutore apparentemente empatico e competente. Eliza, infatti, si limitava a rispondere a domande trasformandole in affermazioni generiche, dando l’illusione di comprendere e supportare l’utente senza alcuna reale comprensione. Il nome Eliza era un riferimento alla protagonista di una commedia che, per scommessa, veniva istruita con un minimo di etichetta e competenze linguistiche per poter essere accettata nei salotti borghesi.
L’esperimento ebbe risvolti inaspettati. Invece di essere accolto come una provocazione intellettuale, Eliza fu presa sul serio da molti utenti. Il caso emblematico (forse una leggenda) riguarda la segretaria di Weizenbaum, che, pur consapevole della natura del progetto, iniziò a confidarsi con il chatbot su questioni personali. Weizenbaum rimase turbato da questo episodio e iniziò a mettere in guardia contro il pericolo di attribuire qualità umane a una macchina. Nacque così il concetto di “Effetto Eliza,” che descrive la tendenza delle persone a credere che le macchine possano comprendere e rispondere in modo empatico come un essere umano. Una vera e propria dissonanza cognitiva.
Sewell Setzer, vittima di solitudine e fragilità, sembra essere caduto proprio in quello che viene definito “Effetto Eliza”. Resta ora da vedere se questa sarà la linea di difesa adottata da Character.ai nel rispondere alle accuse della madre. I risvolti legali di questa causa potrebbero avere conseguenze significative per il futuro della diffusione massiccia dei programmi di intelligenza artificiale. La domanda cruciale che emerge è quanto i moderni software basati su modelli di linguaggio avanzati, come ChatGPT e Gemini per citare i più famosi, siano pericolosi per menti vulnerabili, specialmente tra i più giovani. Mentre per Eliza era chiaro che la sua natura di software era lontana dall’essere “intelligente”, le moderne piattaforme si presentano in modo più sofisticato.
Definirle “intelligenza artificiale” inoltre non contribuisce a chiarirne la natura di programmi software basati su modelli linguistici (LLM Large Language Model).
Chiunque può facilmente interagire con i cosiddetti GPT (Generative Pre-trained Transformer) specializzati, come modelli di intelligenza artificiale addestrati per rispondere a domande psicologiche o per simulare fidanzati/e virtuali o altro ancora. ChatGPT ospita migliaia di diversi modelli per i temi più disparati. Tuttavia, rispetto al rudimentale Eliza, i GPT di oggi si basano su una quantità di dati e una potenza di calcolo immensamente superiori. Ma la mente umana, specialmente quella dei giovani, è davvero cambiata così tanto rispetto ai tempi di Weizenbaum? O continua a rischiare di attribuire a questi strumenti digitali una comprensione che essi, per quanto sofisticati, non posseggono?
La corsa per regolamentare lo sviluppo di queste tecnologie è in atto a livello europeo e internazionale, ma non vi è altrettanta attenzione verso la regolamentazione dei requisiti minimi per gli utenti. Facile immaginare che facciano comodo migliaia di utenti paganti. Il fatto è che alcuni di questi utenti, come dimostra la tragica fine del giovane in Florida, potrebbero non avere le capacità per interagire con certe intelligenze artificiali.
L’esito della causa intentata dalla madre di Setzer accenderà probabilmente a breve il dibattito anche su questa questione. Attualmente, queste piattaforme richiedono un’età minima di 13 anni e, in alcuni casi, di 16.
Ma siamo sicuri che basti come requisito per utilizzare in modo sicuro queste piattaforme? Haidt nel suo ultimo libro “The anxious generation”, parla esplicitamente della più grande epidemia di malattie mentali causate anche dall’uso di social e smartphone. Per quanto la comunità scientifica sia cauta sui risultati delle sue analisi, il problema appare evidente.
Sembra sia giunto il momento di garantire l’accesso a queste tecnologie solo a coloro che dimostrano conoscenze e capacità cognitive adeguate. Come? In alcuni ambienti si inizia a parlare della istituzione di una “patente” che certifichi le capacità degli utenti, non solo dei giovani. Una “patente” per l’uso dell’intelligenza artificiale dedicata agli utenti, potrebbe essere una soluzione per garantire un utilizzo sicuro, etico e consapevole di queste tecnologie; magari strutturata a livelli, in modo simile alle patenti di guida o ai permessi per certi mestieri. Pur con molti limiti mi sembra una soluzione interessante. Comunque sia, una strategia deve essere trovata: è ormai chiaro che la diffusione dell’intelligenza artificiale inizia a incidere in modo determinante sulla vita umana. Ovvero sullo sviluppo dell’Intelligenza Naturale.