Scienza e Tecnologia

Eliza: sessant’anni fa nasceva il primo chatbot della storia

Oggi l’intelligenza artificiale solleva riflessioni legate alla nostra dipendenza emotiva dai chatbot. Un fenomeno conosciuto già dagli anni ‘60 e più attuale che mai

  • Un'ora fa
immagine
54:52

AI - La morte di internet?

Il giardino di Albert 07.02.2026, 17:00

  • ©Studio Fritz Gnad
Di: Red. giardino di Albert/Christian Bernasconi 

Da quando è stata sviluppata come progetto militare nel lontano 1969 e poi aperta al pubblico nel 1991, la rete di internet ha assunto un ruolo sempre più importante nelle nostre vite. Essa ha permesso lo sviluppo del WEB, un servizio che ha originato uno spazio di conoscenza condivisa, sviluppato e alimentato dagli esseri umani, oggi diventato un luogo nutrito anche dalla cosiddetta Intelligenza artificiale generativa, cioè da macchine in grado di creare contenuti in maniera autonoma.

In rete oggi si trovano sempre più contenuti generati in questo modo e il fenomeno non è di poco conto: spazia dai chatbot che simulano conversazioni, a immagini e video automatici progettati per catturare la nostra attenzione, ma in buona parte falsi e privi di senso.

Alcuni esperti chiamano “slop” questa massa di contenuti fuorvianti, ovvero una “brodaglia digitale” che soffoca qualità e verità. Dai fenomeni virali più assurdi ai canali YouTube che diffondono fake news, molti ricercatori si interrogano per capire come tutto questo stia riscrivendo le regole della comunicazione, e come stia alimentando il rischio di disinformazione e, soprattutto, di manipolazione emotiva.

Una tematica, quella del coinvolgimento emotivo, importante e d’attualità, ma nota già dagli anni Sessanta del secolo scorso, cioè da quando fu coniato il nome di effetto Eliza. Un concetto che indica la tendenza tipica di noi esseri umani di attribuire comprensione, empatia e intelligenza ai sistemi di intelligenza artificiale.

Un termine nato assieme al primo chatbot della storia, sviluppato nel 1966. Si chiamava ELIZA e nacque dalla mente di un fisico tedesco, Joseph Weizenbaum. Questo primo chatbot era in grado di presentarsi come una persona “reale”, più precisamente nei panni di uno psicoterapeuta capace di interagire col proprio paziente.

L’intento di Weizenbaum non era mostrare quanto potesse essere intelligente un computer, ma l’opposto: voleva evidenziare i limiti delle macchine nel comprendere il linguaggio e le emozioni umane. Nel corso di vari esperimenti (cioè di molte interazioni uomo-macchina) si notò che, sebbene Eliza non avesse una vera capacità di comprensione, molti utenti iniziarono a trattare il programma come se fosse un interlocutore empatico, comprensivo, quasi umano.

Allora come oggi, Weizenbaum era preoccupato che ai computer venisse conferita un’errata capacità di giudizio, fino a una delega di decisioni morali e personali. Una situazione che, secondo lui, avrebbe portato ad una limitazione della responsabilità personale e delle relazioni umane.

La dipendenza emotiva dall’intelligenza artificiale è una tematica più attuale che mai dal momento che i chatbot contemporanei sono sempre più capaci di apprendere e di adattarsi al modo di esprimersi dell’utente e alle sue preferenze individuali. Caratteristiche che permettono loro di modificare le proprie risposte in base al contesto delle conversazioni, accentuando quel finto coinvolgimento emotivo con l’utente che rischia di creare dipendenza.

In questo senso, ben vengano tutte quelle iniziative volte a creare un’intelligenza artificiale sicura e affidabile, nutrita cioè con dati certificati e sicuri. Al contempo è importante essere consapevoli di quali siano i rischi e le reali opportunità dell’Intelligenza artificiale, così da poterla usare con rinnovato spirito critico, la necessaria distanza emotiva e preferendo un’IA indipendente dalle cosiddette Big Tech.

28:12
immagine

Dentro i limiti dell’AI

Il giardino di Albert 15.11.2025, 18:00

  • iStock
  • Fabio Meliciani
audio_1x1-giardino_di_albert.png

La scienza e la natura ti affascinano?

Il Giardino di Albert soddisfa la tua voglia di capire

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare