Ticino e Grigioni

IA, “rischi sottovalutati”

Uno studio dimostra che le persone che si occupano di progetti con l’intelligenza artificiale nelle loro imprese non riconoscono abbastanza i problemi che comporta

  • Un'ora fa
  • Un'ora fa
L’intelligenza artificiale è uno strumento sempre più usato, ma comporta molti rischi
03:16

RG 12.30 del 04.02.2026 Il servizio di Manuele Ferrari

RSI New Articles 04.02.2026, 13:00

  • APA/HARALD SCHNEIDER
Di: Manuele Ferrari-Radiogiornale/joe.p. 

L’intelligenza artificiale (IA) è uno strumento sempre più usato, anche dalle aziende, in cerca di maggior efficienza e competitività. Ma uno studio, pubblicato dall’Università di Zurigo e dalla Scuola professionale dei Grigioni, dimostra che le persone che si occupano di progetti con l’IA nelle loro imprese non riconoscono abbastanza i rischi, le implicazioni etiche, giuriche e sociali legate a questo strumento.

Ma andiamo con ordine, iniziando con due esempi. Il primo: le telecamere installate nelle stazioni ferroviarie per studiare il flusso dei passeggeri e trovare il modo per regolarlo, onde evitare sovraffollamento sui marciapiedi; il progetto del 2023 delle FFS aveva suscitato subito preoccupazioni e critiche, tanto da spingere i responsabili a fare rapidamente dietrofront. Il secondo: la tentata introduzione del riconoscimento vocale dei clienti da parte delle banche (alcuni magari ricordano il messaggio automatico che segnalava l’inizio della registrazione telefonica). Entrambi i progetti prevedevano l’impiego dell’intelligenza artificiale. Entrambi puntavano a migliorare qualcosa. Entrambi sono stati abbandonati.

“I possibili rischi - spiega il professor Christian Hauser - non sono stati riconosciuti e la reputazione delle aziende coinvolte ne ha sofferto”. Con il suo team il ricercatore ha studiato quanto le persone siano in grado di prendere decisioni che non abbiano implicazioni etiche, giuridiche e sociali negative per la loro azienda quando sviluppano un progetto che vede coinvolte l’intelligenza artificiale. Gli impiegati sentiti sono stati 1’100. Preoccupante il risultato emerso.

“Due intervistati su tre non sono stati in grado di riconoscere i rischi. Non vedevano nei progetti ai quali stavano lavorando i possibili aspetti problematici dell’elaborazione dei dati, anche sensibili, da parte dell’intelligenza artificiale”, aggiunge Hauser.

Eppure, strumenti di sostegno non mancano. “Esatto - prosegue Hauser - e anche questo aspetto è stato analizzato nello studio, accanto a valutazioni di tipo economico e fattibilità tecnica, solo per citarne due. Vi sono anche, ad esempio, cataloghi di domande con le quali confrontarsi per comprendere quali potrebbero essere le implicazioni etiche del progetto”.

La mia famiglia sarebbe fiera di me se sapesse di cosa mi sto occupando? L’opinione pubblica reagirebbe positivamente se domani dovesse leggere sulla prima pagina di un giornale del progetto? Domande ipotetiche che dovrebbero spingere a riflettere e fare da filtro. Ma lo studio mostra un’altra realtà.

“Lo abbiamo definito - continua Hauser - effetto boomerang. Anziché spingere le persone ad analizzare in modo critico il progetto al quale stavano lavorando, abbiamo notato che il catalogo di domande spinge le persone a sostenere progetti discutibili. Quando il tutto è troppo ipotetico, le persone si auto-convincono più facilmente di essere nel giusto, anche quando non lo sono”.

“Abbiamo scoperto - spiega ancora il ricercatore - che non bisogna far riflettere le persone sul cosa potrebbe pensare la mamma, bensì confrontarle con una domanda diretta e reale, come ad esempio: il progetto può rovinare la vita di qualcuno? Certo è che, visti i risultati, le aziende dovranno puntare molto di più sulla formazione e sensibilizzazione del personale”. 

Ma allora il comune cittadino chiediamo infine deve avere paura? “No - conclude Christian Hauser - ma bisogna essere consci che vengono raccolti, dati. E, laddove possibile, è meglio ridurre al minimo indispensabile le informazioni digitali e non da noi fornite”.

rsi_social_trademark_WA 1.png

Entra nel canale WhatsApp RSI Info

Iscriviti per non perdere le notizie e i nostri contributi più rilevanti

Correlati

Ti potrebbe interessare