Da quando è stata sviluppata come progetto militare nel lontano 1969 e poi aperta al pubblico nel 1991, la rete di internet ha assunto un ruolo sempre più importante nelle nostre vite. Essa ha permesso lo sviluppo del WEB, un servizio che ha originato uno spazio di conoscenza condivisa, sviluppato e alimentato dagli esseri umani, oggi diventato un luogo nutrito anche dalla cosiddetta Intelligenza artificiale generativa, cioè da macchine in grado di creare contenuti in maniera autonoma.
https://rsi.cue.rsi.ch/info/scienza-e-tecnologia/L%E2%80%99intelligenza-artificiale-scriver%C3%A0-questo-articolo--2436587.html
In rete oggi si trovano sempre più contenuti generati in questo modo e il fenomeno non è di poco conto: spazia dai chatbot che simulano conversazioni, a immagini e video automatici progettati per catturare la nostra attenzione, ma in buona parte falsi e privi di senso.
Alcuni esperti chiamano “slop” questa massa di contenuti fuorvianti, ovvero una “brodaglia digitale” che soffoca qualità e verità. Dai fenomeni virali più assurdi ai canali YouTube che diffondono fake news, molti ricercatori si interrogano per capire come tutto questo stia riscrivendo le regole della comunicazione, e come stia alimentando il rischio di disinformazione e, soprattutto, di manipolazione emotiva.
https://rsi.cue.rsi.ch/info/scienza-e-tecnologia/L%E2%80%99AI-slop-e-l%E2%80%99inquinamento-dello-spazio-digitale--3222537.html
Una tematica, quella del coinvolgimento emotivo, importante e d’attualità, ma nota già dagli anni Sessanta del secolo scorso, cioè da quando fu coniato il nome di effetto Eliza. Un concetto che indica la tendenza tipica di noi esseri umani di attribuire comprensione, empatia e intelligenza ai sistemi di intelligenza artificiale.
Un termine nato assieme al primo chatbot della storia, sviluppato nel 1966. Si chiamava ELIZA e nacque dalla mente di un fisico tedesco, Joseph Weizenbaum. Questo primo chatbot era in grado di presentarsi come una persona “reale”, più precisamente nei panni di uno psicoterapeuta capace di interagire col proprio paziente.
L’intento di Weizenbaum non era mostrare quanto potesse essere intelligente un computer, ma l’opposto: voleva evidenziare i limiti delle macchine nel comprendere il linguaggio e le emozioni umane. Nel corso di vari esperimenti (cioè di molte interazioni uomo-macchina) si notò che, sebbene Eliza non avesse una vera capacità di comprensione, molti utenti iniziarono a trattare il programma come se fosse un interlocutore empatico, comprensivo, quasi umano.
https://rsi.cue.rsi.ch/info/salute/%E2%80%9CL%E2%80%99IA-usa-tecniche-manipolative-tipiche-delle-relazioni-tossiche%E2%80%9D--3332321.html
Allora come oggi, Weizenbaum era preoccupato che ai computer venisse conferita un’errata capacità di giudizio, fino a una delega di decisioni morali e personali. Una situazione che, secondo lui, avrebbe portato ad una limitazione della responsabilità personale e delle relazioni umane.
La dipendenza emotiva dall’intelligenza artificiale è una tematica più attuale che mai dal momento che i chatbot contemporanei sono sempre più capaci di apprendere e di adattarsi al modo di esprimersi dell’utente e alle sue preferenze individuali. Caratteristiche che permettono loro di modificare le proprie risposte in base al contesto delle conversazioni, accentuando quel finto coinvolgimento emotivo con l’utente che rischia di creare dipendenza.
https://rsi.cue.rsi.ch/info/scienza-e-tecnologia/ChatGPT-Salute-lanciato-in-Australia-dubbi-sulla-sicurezza--3450525.html
In questo senso, ben vengano tutte quelle iniziative volte a creare un’intelligenza artificiale sicura e affidabile, nutrita cioè con dati certificati e sicuri. Al contempo è importante essere consapevoli di quali siano i rischi e le reali opportunità dell’Intelligenza artificiale, così da poterla usare con rinnovato spirito critico, la necessaria distanza emotiva e preferendo un’IA indipendente dalle cosiddette Big Tech.
Dentro i limiti dell’AI
Il giardino di Albert 15.11.2025, 18:00
Contenuto audio









