L’intelligenza artificiale (IA) è ormai parte integrante della nostra vita quotidiana, ma il suo utilizzo crescente in ambiti delicati come la selezione del personale, l’accertamento fiscale o il riconoscimento delle immagini comporta seri rischi di discriminazione. A suonare oggi (martedì) l’allarme sono state la Commissione federale per le questioni femminili (CFQF) e la Commissione federale contro il razzismo (CFR) in una conferenza tenutasi a Berna.
Le due commissioni hanno presentato un parere giuridico, elaborato dalla professoressa Nadja Braun Binder dell’Università di Basilea e dal professor Florent Thouvenin dell’Università di Zurigo, che evidenzia l’urgente necessità di interventi per proteggere efficacemente i cittadini dalla “discriminazione algoritmica”. Secondo gli esperti, i sistemi di IA tendono infatti a riprodurre e amplificare disparità sociali esistenti basate su caratteristiche come il genere, l’origine o lo stile di vita.
I suoi effetti emergono, ad esempio, quando un sistema decide chi può ottenere un credito, chi viene invitato a un colloquio di lavoro o chi può accedere a prestazioni delle assicurazioni sociali.
La consigliera federale Elisabeth Baume-Schneider, intervenuta ad aprire i lavori della conferenza, ha sottolineato la necessità di “prendere sul serio i rischi” connessi all’uso dell’IA e di creare condizioni quadro che garantiscano un impiego privo di pregiudizi.
Le raccomandazioni per Governo e Parlamento
Le commissioni hanno formulato una serie di raccomandazioni rivolte al Consiglio federale e al Parlamento. Tra queste, l’adozione di una legge generale sulla parità di trattamento e adeguamenti alla legge sulla protezione dei dati. Hanno inoltre proposto l’istituzione di un consultorio specializzato e la creazione di registri pubblici dei sistemi di IA utilizzati.
CFQF e CFR hanno anche chiesto che la protezione dalle discriminazioni algoritmiche diventi una priorità assoluta nell’azione pubblica. I lavori della Confederazione, secondo le commissioni, dovranno essere accompagnati da un comitato consultivo permanente e sostenuti da risorse adeguate.
Un’attenzione particolare è stata rivolta anche alla promozione di sistemi di IA privi di discriminazioni, sia nell’amministrazione pubblica che nel settore privato. Le commissioni hanno inoltre sottolineato l’importanza di sostenere la ricerca interdisciplinare indirizzata a prevenire questo genere di discriminazione algoritmica.
La CFQF e la CFR hanno annunciato che continueranno a seguire da vicino la questione, anche in vista del vertice sull’IA (“AI Summit”) che dovrebbe tenersi in Svizzera nel 2027.
I moderni “schiavi” dell’intelligenza artificiale
Le nostre inchieste 14.11.2025, 23:00












