Scienza e Tecnologia

Lo spettro dell’intelligenza artificiale su Wikipedia

L’arrivo di ChatGPT e simili sta avendo conseguenze importanti sui contenuti generati dagli utenti nell’enciclopedia libera più famosa del mondo

  • 2 ore fa
wikipedia logo telefono
  • IMAGO / ZUMA Press Wire
Di: Red. giardino di Albert / Simone Pengue 

Sbirciando all’interno del mondo di Wikimedia, l’organizzazione alla base di Wikipedia, la parola che si sente più spesso non è né “internet” né “conoscenza”, ma “comunità”. I contenuti dell’enciclopedia libera più famosa del mondo provengono infatti da una compatta comunità di volontari che li produce, controlla e discute.

Da poco meno di tre anni, nella comunità di Wikimedia si aggira uno spettro che sta rapidamente mettendo in discussione i rapporti di fiducia tra i membri, gli utenti e i testi. Si tratta naturalmente dello spettro dell’intelligenza artificiale (IA): spesso agisce senza essere vista, lascia leggeri ma chiari segni del proprio passaggio e si muove ovunque, senza apparentemente essere limitata da alcun tipo di barriera. L’IA può scrivere testi esibendo conoscenze su qualunque settore, ma è anche in grado di leggere testi altrui e riassumerli a comando, rispondendo a domande arbitrariamente specifiche. 

immagine
02:53

Chi fa vivere Wikipedia?

RSI Edu 06.11.2024, 11:30

I progetti di Wikimedia, come Wikipedia, il più noto, Commons, che gestisce le immagini, o Wikidata, una banca dati aperta, si basano largamente sulla fiducia tra i membri della comunità. La sua natura rende Wikimedia particolarmente esposta a un cattivo uso dell’intelligenza artificiale. In questi primi anni di convivenza con ChatGPT, Gemini, DeepSeek e gli altri modelli di linguaggio di grandi dimensioni (LLM), la piattaforma si sta dimostrando incredibilmente resistente, ma alcuni dei suoi processi hanno dovuto adattarsi rapidamente alle nuove sfide poste dall’IA, senza però trascurare le opportunità che essa offre.

L’IA e la produzione dei contenuti

Il primo ambito in cui l’IA può sovvertire gli equilibri a discapito della qualità e della reputazione dell’intero sito è la generazione di contenuti. In teoria, gli LLM possono produrre rapidamente articoli per Wikipedia, senza però dare garanzie sulla veridicità delle informazioni. «L’intelligenza artificiale può aiutare chi produce i contenuti, ma non potrà mai sostituirlo. E questo è fondamentale» spiega Ilario Valdelli, Innovation Program Lead (capo del programma di innovazione) di Wikimedia CH, il ramo svizzero della parte operativa di Wikimedia. Per il momento, dai dati è chiaro che non c’è un uso massiccio di IA per generare i contenuti di Wikipedia. 

14:56
immagine

Quale futuro per wikipedia? 

Alphaville 27.11.2025, 11:45

  • Imago Images
  • Mattia Pelli

Certo, se gestita e supervisionata in modo opportuno, l’IA può essere d’aiuto anche nel processo di creazione degli articoli di Wikipedia. Non è però una tecnologia che può essere presa sottogamba, pensando che possa svolgere tutto il lavoro per noi. Chi, infatti, non sa utilizzare questi strumenti nel modo corretto introduce in Wikipedia testi con dati sbagliati e allucinazioni (informazioni inventate dell’IA che suonano verosimili), che fortunatamente sono facili da rilevare e rimuovere per gli amministratori che eseguono i controlli. 

Sta poi alla comunità decidere se essere aperta al contenuto prodotto con l’aiuto di ChatGPT, come racconta l’esperto: «Alcune comunità accettano questi contenuti, altre li rifiutano. Ad esempio, quella tedesca è “estremista”, qualsiasi cosa generata con l’IA non va bene, mentre altre sono un po’ più flessibili.» 

Dove l’IA può certamente dare una mano è il controllo degli articoli da parte degli amministratori. «Stiamo pensando all’utilizzo di intelligenza artificiale per aiutare il lavoro di routine, quindi ad esempio verificare l’esistenza di errori su alcuni articoli. Oppure può consentire di verificare le fake news, ad esempio confrontando articoli in lingue diverse». Questo rientra nella strategia IA di Wikimedia, pubblicata in aprile da Wikimedia Foundation. la fondazione che gestisce la parte amministrativa di Wikimedia e che ha sede negli Stati Uniti. L’obiettivo dichiarato è quello di migliorare l’efficienza, ma sempre mantenendo l’uomo al centro. 

L’accesso ai contenuti

L’altro grande tema legato all’intelligenza artificiale è quello dell’accesso ai contenuti da parte di ChatGPT e gli altri LLM. Le IA, che sono prodotti a scopo commerciale, vengono infatti addestrate utilizzando anche gli articoli di Wikipedia, che di contro non ha nulla di riconosciuto. L’urgenza di riflettere sul tema ha spinto Wikimedia CH a organizzare a inizio novembre un incontro tra esperti accademici e non a Losanna sul tema “Intelligenza collettiva versus intelligenza artificiale”. Tra i molti temi affrontati, gli esperti hanno riflettuto sull’ipotesi di un collasso del modello di internet attuale con i contenuti generati dalle persone, ma anche, di riflesso, del sistema con cui vengono addestrate le IA. Le macchine, infatti, sono bisognose di dati strutturati, organizzati e controllati. Se l’IA dovesse prendere il sopravvento su Wikipedia, si perderebbe un’importantissima fonte primaria per l’addestramento dell’IA stessa. 

«Wikipedia fornisce la qualità a questi modelli: se dovesse collassare Wikipedia, praticamente i modelli genererebbero moltissime allucinazioni e non sarebbero più affidabili», spiega Valdelli. Un internet dove i contenuti sono generati dall’IA sarebbe poco sostenibile, perché è su quegli stessi testi che i modelli verrebbero addestrati. Una spirale autoreferenziale dove gli errori, sia linguistici che nozionistici, si moltiplicherebbero in modo esponenziale, rendendo gli strumenti perfettamente inutili

Il numero di click in calo

Le IA non utilizzano Wikipedia solo durante la fase di addestramento, volta a insegnare le nozioni di base e l’utilizzo del linguaggio. Le IA accedono continuamente a Wikipedia e agli altri siti di informazione per ottenere le risposte alle domande degli utenti e mostrargliele in comodi riassunti. In termini pragmatici, questo implica che molte persone si fermano al riassunto mostrato da Google, senza accedere al sito di Wikipedia. «Paradossalmente è aumentato il traffico in generale, ma è aumentato di più il traffico dei bot [sistemi informatici automatici, ndr] rispetto al traffico umano. Il traffico dei bot ci sta togliendo dei click, chiamiamoli così», commenta Valdelli. Secondo un articolo di Wikimedia Foundation il traffico umano è calato dell’8% nell’ultimo anno. 

Per fronteggiare questa situazione, Wikimedia Enterprise, dedicata agli scambi con le aziende, ha avanzato l’ipotesi di rendere l’accesso all’infrastruttura a pagamento per le intelligenze artificiali, mentre i contenuti resteranno sempre liberi e aperti. Nel frattempo, in linea con la strategia IA di Wikimedia Foundation, il ramo svizzero Wikimedia CH sta riflettendo su un potenziale sviluppo di un chatbot, un programma di IA di dialogo come ChatGPT, basato su Apertus, l’LLM svizzero, libero e aperto. Con uno sguardo ampio sul panorama politico internazionale, Ilario Valdelli conclude che «Io non mi preoccuperei se scomparirà Wikipedia, ma mi preoccuperei se scomparirà la neutralità nel mondo dell’informazione. Questo è il vero problema. Sicuramente Wikipedia al momento non si sente attaccata dall’intelligenza artificiale, ma da certi movimenti politici». 

immagine
03:12

Cos’è il Wikiverso?

RSI Edu 06.11.2024, 11:15

1x1-giardino_di_albert

La scienza e la natura ti affascinano?

Il Giardino di Albert soddisfa la tua voglia di capire

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare