{"version":"1.0","provider_name":"Festival AI","provider_url":"https:\/\/festival-ai.com\/home1","author_name":"ated","author_url":"https:\/\/festival-ai.com\/home1\/author\/ated\/","title":"L'ombra oscura dell'intelligenza artificiale - Festival AI","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"WOMMTC07D4\"><a href=\"https:\/\/festival-ai.com\/home1\/2024\/12\/05\/lombra-oscura-dellintelligenza-artificiale\/\">L&#8217;ombra oscura dell&#8217;intelligenza artificiale<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/festival-ai.com\/home1\/2024\/12\/05\/lombra-oscura-dellintelligenza-artificiale\/embed\/#?secret=WOMMTC07D4\" width=\"600\" height=\"338\" title=\"&#8220;L&#8217;ombra oscura dell&#8217;intelligenza artificiale&#8221; &#8212; Festival AI\" data-secret=\"WOMMTC07D4\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script>\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/festival-ai.com\/wp-includes\/js\/wp-embed.min.js\n<\/script>\n","thumbnail_url":"https:\/\/festival-ai.com\/wp-content\/uploads\/2024\/12\/7.jpg","thumbnail_width":2000,"thumbnail_height":900,"description":"Negli ultimi giorni, il mondo delle intelligenze artificiali \u00e8 stato scosso dalla notizia della causa legale intentata dalla madre di&nbsp;Sewell Setzer contro la piattaforma Character.ai, accusata di essere corresponsabile del suicidio del figlio quattordicenne. Come riportato dal New York Times, la madre sostiene che la piattaforma abbia indotto l\u2019adolescente a confidare i suoi pensieri e sentimenti pi\u00f9 intimi, con conseguenze tragiche. Secondo l\u2019accusa, il giovane si era infatuato di un personaggio creato sulla piattaforma, sviluppando&nbsp;una sorta di dipendenza che lo aveva isolato dal mondo reale,&nbsp;contribuendo o addirittura spingendolo verso il drammatico gesto. Le indagini confermano che il ragazzo trascorreva molto tempo chattando con il chatbot, rivelando i suoi sentimenti pi\u00f9 profondi. La vicenda, tuttavia, \u00e8 complessa. Il giovane Setzer aveva gi\u00e0 affrontato difficolt\u00e0 personali, inclusi problemi scolastici, che potrebbero aver inciso sul suo stato mentale. Cionondimeno, questa tragedia solleva interrogativi che superano il caso singolo e richiamano alla memoria un precedente storico in un\u2019era informatica ormai lontana. Nel 1966, il ricercatore del MIT Joseph Weizenbaum programm\u00f2 un chatbot chiamato Eliza, capace di simulare un dialogo terapeutico ispirato alla psicoterapia rogeriana. L\u2019intento di Weizenbaum era provocatorio: dimostrare quanto fosse facile trasformare una macchina in un interlocutore apparentemente empatico e competente. Eliza, infatti, si limitava a rispondere a domande trasformandole in affermazioni generiche, dando l\u2019illusione di comprendere e supportare l\u2019utente senza alcuna reale comprensione. Il nome Eliza era un riferimento alla protagonista di una commedia che, per scommessa, veniva istruita con un minimo di etichetta e competenze linguistiche per poter essere accettata nei salotti borghesi. L\u2019esperimento ebbe risvolti inaspettati.&nbsp;Invece di essere accolto come una provocazione intellettuale, Eliza fu presa sul serio da molti utenti. Il caso emblematico (forse una leggenda) riguarda la segretaria di Weizenbaum, che, pur consapevole della natura del progetto, inizi\u00f2 a confidarsi con il chatbot su questioni personali. Weizenbaum rimase turbato da questo episodio e inizi\u00f2 a mettere in guardia contro il pericolo di attribuire qualit\u00e0 umane a una macchina. Nacque cos\u00ec il concetto di&nbsp;\u201cEffetto Eliza,\u201d che descrive la tendenza delle persone a credere che le macchine possano comprendere e rispondere in modo empatico come un essere umano.&nbsp;Una vera e propria dissonanza cognitiva. Sewell Setzer, vittima di solitudine e fragilit\u00e0, sembra essere caduto proprio in quello che viene definito &#8220;Effetto Eliza&#8221;. Resta ora da vedere se questa sar\u00e0 la linea di difesa adottata da Character.ai nel rispondere alle accuse della madre. I risvolti legali di questa causa potrebbero avere conseguenze significative per il futuro della diffusione massiccia dei programmi di intelligenza artificiale. La domanda cruciale che emerge \u00e8 quanto i moderni software basati su modelli di linguaggio avanzati, come ChatGPT e Gemini per citare i pi\u00f9 famosi, siano pericolosi per menti vulnerabili, specialmente tra i pi\u00f9 giovani. Mentre per Eliza era chiaro che la sua natura di software era lontana dall\u2019essere \u201cintelligente\u201d, le moderne piattaforme si presentano in modo pi\u00f9 sofisticato.Definirle \u201cintelligenza artificiale\u201d inoltre non contribuisce a chiarirne la natura di programmi software basati su modelli linguistici (LLM Large Language Model). Chiunque pu\u00f2 facilmente interagire con i cosiddetti GPT (Generative Pre-trained Transformer) specializzati, come modelli di intelligenza artificiale addestrati per rispondere a domande psicologiche o per simulare fidanzati\/e virtuali o altro ancora. ChatGPT ospita migliaia di diversi modelli per i temi pi\u00f9 disparati. Tuttavia, rispetto al&nbsp;rudimentale Eliza, i GPT di oggi si basano su una quantit\u00e0 di dati e una potenza di calcolo immensamente superiori.&nbsp;Ma la mente umana, specialmente quella dei giovani, \u00e8 davvero cambiata cos\u00ec tanto rispetto ai tempi di Weizenbaum? O continua a rischiare di attribuire a questi strumenti digitali una comprensione che essi, per quanto sofisticati, non posseggono? La corsa per regolamentare&nbsp;lo sviluppo di queste tecnologie&nbsp;\u00e8 in atto a livello europeo e internazionale, ma non vi \u00e8 altrettanta attenzione verso la regolamentazione dei requisiti minimi per gli utenti. Facile immaginare che facciano comodo migliaia di utenti paganti. Il fatto \u00e8 che alcuni di questi utenti, come dimostra la tragica fine del giovane in Florida, potrebbero non avere le capacit\u00e0 per interagire con certe intelligenze artificiali. L\u2019esito della causa intentata dalla madre di Setzer accender\u00e0 probabilmente a breve il dibattito anche su questa questione. Attualmente, queste piattaforme richiedono un\u2019et\u00e0 minima di 13 anni e, in alcuni casi, di 16. Ma siamo sicuri che basti come requisito per utilizzare in modo sicuro queste piattaforme?&nbsp;Haidt nel suo ultimo libro \u201cThe anxious generation\u201d, parla esplicitamente della pi\u00f9 grande epidemia di malattie mentali causate anche dall&#8217;uso di social e smartphone.&nbsp;Per quanto la comunit\u00e0 scientifica sia cauta sui risultati delle sue analisi, il problema appare evidente. Sembra sia giunto il momento di garantire l&#8217;accesso a queste tecnologie solo a coloro che dimostrano conoscenze e capacit\u00e0 cognitive adeguate. Come? In alcuni ambienti si inizia a parlare della istituzione di una \u201cpatente\u201d che certifichi le capacit\u00e0 degli utenti, non solo dei giovani. Una \u201cpatente\u201d per l\u2019uso dell\u2019intelligenza artificiale dedicata agli utenti, potrebbe essere una soluzione per garantire un utilizzo sicuro, etico e consapevole di queste tecnologie; magari strutturata a livelli, in modo simile alle patenti di guida o ai permessi per certi mestieri. Pur con molti limiti mi sembra una soluzione interessante. Comunque sia, una strategia deve essere trovata: \u00e8 ormai chiaro che la diffusione dell\u2019intelligenza artificiale inizia a incidere in modo determinante sulla vita umana. Ovvero sullo sviluppo dell&#8217;Intelligenza Naturale."}