L’AI entra nel perimetro della sicurezza critica

L’AI entra nella sicurezza critica: tra allarmi cyber, regole UE, modelli sempre più potenti e guerra per chip e infrastrutture.

Non siamo più nel territorio delle demo sorprendenti o dei tool che fanno risparmiare tempo. Siamo nel punto in cui i modelli cominciano a toccare banche, software fondamentali, infrastrutture, compliance, regolazione e potere industriale.

Le ultime ore hanno messo in fila segnali che, presi singolarmente, sembrano notizie diverse. In realtà raccontano la stessa trasformazione. Da una parte Anthropic, con un modello abbastanza potente da spingere autorità e grandi istituzioni finanziarie a interrogarsi sul rischio cyber. Dall’altra l’Unione Europea che valuta se ChatGPT Search debba ricadere in un perimetro regolatorio più duro. In mezzo, Meta che rilancia la propria offensiva con Muse Spark e OpenAI che rende sempre più esplicito un punto: il vero mercato dell’AI, ormai, non è il giocattolo virale ma l’infrastruttura enterprise.

Quando il modello entra nella difesa delle vulnerabilità

Il caso più significativo è quello di Claude Mythos Preview. Anthropic lo ha inserito dentro Project Glasswing, un’iniziativa costruita insieme a grandi attori tecnologici e di sicurezza per trovare e correggere vulnerabilità nei sistemi software più critici. Il messaggio è già di per sé pesante: il modello non viene presentato come un assistente generico, ma come uno strumento da usare in un contesto dove l’errore, l’abuso o l’asimmetria di accesso possono avere conseguenze sistemiche.

Quando regolatori, banche centrali, ministeri e grandi istituzioni finanziarie iniziano a chiedersi se un modello del genere possa modificare il profilo di rischio del sistema, il settore AI smette di essere solo una questione di innovazione. Diventa una questione di resilienza. Il punto non è soltanto che un modello possa aiutare i difensori a trovare falle più in fretta. Il punto è che la stessa capacità, nelle mani sbagliate o distribuita senza freni, può comprimere ancora di più il tempo che separa la scoperta di una vulnerabilità dal suo sfruttamento.

Questo è il vero salto. La cybersecurity, fino a ieri, era ancora raccontabile come un campo in cui l’automazione aiutava analisti e team tecnici. Oggi siamo davanti a modelli che possono leggere, capire, testare e modificare codice a una scala che spinge governi e imprese a rivedere le proprie posture di sicurezza. È lo stesso passaggio che abbiamo già visto altrove: prima il modello viene descritto come utile, poi come inevitabile, poi come troppo potente per essere lasciato al mercato senza un nuovo livello di controllo.

Chi segue da vicino l’AI sa che questo tema si lega direttamente alla crescita degli AI agent e alla loro capacità di agire su sistemi reali. Più un modello è bravo a orientarsi in ambienti complessi, più smette di essere solo una macchina linguistica e diventa una leva operativa. Ed è qui che comincia la parte scomoda della storia.

Se Bruxelles guarda ChatGPT come una piattaforma regolata

Il secondo segnale è politico, e forse per questo ancora più importante. La Commissione europea sta valutando se OpenAI debba essere sottoposta a obblighi più stringenti del Digital Services Act dopo la comunicazione di 120,4 milioni di destinatari attivi medi mensili nell’Unione Europea per ChatGPT Search nel semestre chiuso a settembre 2025. La soglia dei 45 milioni prevista dal DSA non è un dettaglio tecnico: è la linea che separa un servizio rilevante da una piattaforma il cui impatto diventa sistemico.

Questo passaggio conta perché cambia la grammatica con cui parliamo di AI. Se l’Europa comincia a trattare strumenti di questo tipo non solo come prodotti tecnologici ma come infrastrutture informative da sorvegliare, allora l’intelligenza artificiale entra in una fase più adulta e più dura. Non basta più dire che il modello è utile, popolare o innovativo. Bisogna discutere chi risponde dei rischi, quali obblighi di trasparenza scattano, come si gestiscono contenuti, ranking, visibilità e impatto pubblico.

Ed è un passaggio coerente con quello che già sappiamo: quando una tecnologia si avvicina alla soglia della mediazione di massa, smette di essere neutra. Non decide solo “quanto bene funziona”, ma anche come orienta attenzione, fiducia e accesso all’informazione. Lo abbiamo già visto con le piattaforme social; ora lo stiamo vedendo con l’AI conversazionale e con la sua evoluzione verso motore di risposta, ricerca e interfaccia universale.

Meta e OpenAI mostrano dove sta andando davvero il mercato

Nel frattempo, il lato industriale della corsa continua a spingere. Meta ha lanciato Muse Spark, primo modello visibile del suo team dedicato alla “superintelligence”, in un momento in cui il gruppo ha bisogno di dimostrare di non essere rimasto indietro dopo una ricezione meno entusiastica di Llama 4. Non è solo una notizia di prodotto. È il segnale che la competizione tra i grandi player si è fatta troppo strategica per consentire passi falsi lunghi.

Meta vuole rientrare al centro del tavolo non perché il pubblico abbia bisogno di un altro modello, ma perché perdere quota in questa fase significa perdere posizione negoziale sul futuro delle interfacce, dei servizi, del lavoro cognitivo e dei dati. In altre parole: non si combatte soltanto per il benchmark, ma per il diritto di stare nell’infrastruttura quotidiana di miliardi di persone.

OpenAI, da parte sua, ha scelto una linea ancora più chiara. Nel suo aggiornamento sull’enterprise ha dichiarato che oltre il 40% del fatturato arriva ormai da quel segmento, che Codex ha raggiunto 3 milioni di utenti attivi settimanali e che GPT-5.4 sta spingendo i workflow agentici. Tradotto: il business si sta spostando dalla fascinazione consumer alla penetrazione operativa nelle aziende.

È qui che molti continuano a guardare la parte sbagliata del film. L’AI non sta vincendo perché sa fare immagini o testi sempre più fluidi. Sta vincendo perché viene incorporata nei processi, nei team, nei sistemi di sviluppo, nei cicli decisionali, nelle interfacce di lavoro. Chi controlla questi passaggi non controlla solo un software: controlla il modo in cui il lavoro viene delegato, accelerato e reso misurabile.

Per capire perché questa traiettoria era quasi inevitabile basta tornare a una domanda di base: come vengono addestrati i modelli AI, e soprattutto come vengono poi trasformati in servizi, API, strumenti di coding e automazione. Il cuore del potere non è soltanto nel modello, ma nella filiera che lo rende continuamente disponibile, integrabile e affidabile per il mercato.

Questione di Chip, TPU e gigawatt

Broadcom e Google hanno stretto un accordo di lungo periodo per sviluppare chip AI custom fino al 2031. Anthropic ha annunciato un’espansione della partnership con Google e Broadcom per ottenere più capacità TPU a partire dal 2027. Questa non è una nota tecnica da addetti ai lavori. È la prova materiale che la guerra dei modelli si regge su una guerra delle fondamenta.

Ogni volta che vediamo un nuovo modello, una nuova funzione, un nuovo record di adozione, dovremmo chiederci dove sta il retrobottega fisico di quella promessa. La risposta passa da data center, energia, supply chain, semiconduttori, cloud e capacità di calcolo prenotata con anni di anticipo. Passa anche da una risorsa diventata ormai apertamente geopolitica: la potenza di calcolo come asset strategico di internet.

Se l’AI entra nella sicurezza critica, se viene osservata dai regolatori come piattaforma sistemica, se i grandi gruppi rilanciano senza sosta per presidiare l’interfaccia del lavoro e se tutto questo richiede chip, gigawatt e infrastrutture dedicate, allora non stiamo più guardando una moda tecnologica. Stiamo guardando la costruzione di un nuovo strato di potere.

 

Loading Next Post...
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...