Negli Stati Uniti è scattato l’allarme attorno a Mythos, un modello di intelligenza artificiale ritenuto estremamente avanzato e potenzialmente in grado di mettere a rischio la sicurezza del sistema bancario e di altre infrastrutture strategiche. La preoccupazione, secondo quanto emerso nei giorni scorsi, sarebbe tale da aver spinto il segretario al Tesoro Scott Bessent a convocare una riunione d’urgenza con i vertici delle principali banche americane.
Mythos è un sistema sviluppato da Anthropic, società fondata a San Francisco dall’italoamericano Dario Amodei. Il punto che più inquieta osservatori e istituzioni è la sua capacità di analizzare sistemi operativi e reti informatiche, individuandone le vulnerabilità con un’efficacia superiore a quella dell’analisi umana tradizionale. In altre parole, uno strumento che potrebbe diventare prezioso per rafforzare le difese digitali, ma che, se finisse nelle mani sbagliate, potrebbe trasformarsi in un’arma per colpire banche, istituzioni finanziarie e infrastrutture essenziali come reti elettriche, acquedotti, ospedali e trasporti.
Il caso si inserisce in un contesto già teso. All’inizio di marzo Anthropic era finita al centro di un duro scontro con il Pentagono, dopo essersi rifiutata, secondo questa ricostruzione, di consentire un utilizzo senza limiti del proprio software in ambito militare, inclusi impieghi legati alla sorveglianza di massa e a sistemi d’arma autonomi. Una vicenda che non ha però spento l’interesse della Casa Bianca verso una tecnologia considerata troppo sensibile per poter sfuggire al controllo americano o, peggio, finire nelle mani di Stati ostili o gruppi terroristici.
In questo quadro si collocano anche alcuni incontri ad alto livello a Washington: da un lato il colloquio riservato tra Dario Amodei e la chief of staff di Donald Trump, Susie Wiles; dall’altro la riunione convocata dal Tesoro con i dirigenti delle maggiori banche statunitensi, proprio per discutere l’impatto dell’intelligenza artificiale e, in particolare, di Mythos. Il tema, inoltre, sarebbe approdato anche ai tavoli del Fondo monetario internazionale, a conferma della portata globale della questione.
Pericoli concreti o strategie marketing?
Ma quanto c’è di concreto in questo allarme? E quanto, invece, è frutto di una narrazione costruita anche per accrescere l’attenzione attorno a questi strumenti?
Secondo Marco Zaffalon, direttore scientifico dell’Istituto Dalle Molle di studi sull’intelligenza artificiale USI-SUPSI e cofondatore di Artificialy, il primo passo è abbassare i toni. L’esperto invita a “togliere la sovraeccitazione” che accompagna spesso notizie di questo tipo, osservando che gli allarmi vengono talvolta amplificati dalle stesse aziende che sviluppano questi software. Dietro la comunicazione pubblica, suggerisce, c’è anche una strategia di posizionamento: presentare la tecnologia come rivoluzionaria, potentissima e potenzialmente pericolosa contribuisce a farne crescere peso, valore e centralità nel dibattito pubblico.
Per l’esperto è un copione già visto con i grandi modelli linguistici come ChatGPT o Claude, strumenti molto efficaci in numerosi ambiti, ma che non vanno confusi con una forma di intelligenza generale paragonabile a quella umana. Il fatto che “parlino in modo fluente” non dovrebbe indurre a sovrastimarne le reali capacità di ragionamento. Il tecnico è netto anche quando si affronta il tema della postura “etica” delle aziende del settore. Nel mercato dell’IA, osserva, non esistono attori davvero “buoni”, ma imprese che operano in un contesto estremamente competitivo e che sanno muoversi sul piano del business e della reputazione.
Ciò detto, non minimizza il problema. Mythos, spiega, è preoccupante nella misura in cui il sistema non è ancora pronto ad affrontare strumenti di questo tipo. Il punto, quindi, non è soltanto la pericolosità del modello in sé, ma il ritardo con cui istituzioni, imprese e infrastrutture si stanno attrezzando per convivere con una nuova fase tecnologica. Lo stesso strumento, del resto, potrebbe essere usato in senso opposto, per scandagliare autonomamente i software di una banca, ad esempio, e individuare falle da correggere prima che vengano sfruttate da attaccanti reali.
Per questo, più che parlare di una “grande invenzione” in senso assoluto, l’esperto preferisce sottolinearne l’impatto. La novità non starebbe tanto in una sofisticazione radicalmente inedita, quanto nel salto di scala che questi sistemi consentono. È una trasformazione con cui, sostiene, bisognerà imparare a convivere investendo in sicurezza, competenze e strumenti di difesa.
Il vero nodo, allora, diventa la regolamentazione. Il settore non può essere lasciato al far west, spiega, come è accaduto a lungo con i social network.

IA: le considerazioni di Marco Zaffalon (USI-SUPSI)
SEIDISERA 20.04.2026, 18:00
Contenuto audio










