L’AI sarà sempre più distribuita tra cloud, edge e device locali. Ma distribuire l’inferenza non significa ancora distribuire il potere digitale.
L’AI vuole stare più vicina ai dati, più vicina ai luoghi in cui si prende una decisione, più vicina all’utente finale. Vuole meno latenza, più resilienza, più controllo locale, più sovranità. È da questa tensione che nasce la vera domanda sul futuro: l’AI resterà soprattutto un potere centralizzato nelle mani di pochi, oppure diventerà davvero distribuita?
La risposta onesta è meno romantica di quanto piaccia ai tifosi della decentralizzazione e meno rassicurante di quanto piaccia alle Big Tech. Il futuro dell’AI distribuita esiste già, ma non coincide automaticamente con un futuro più democratico. Distribuire l’esecuzione non significa distribuire il comando. Eppure qualcosa si sta muovendo. Non perché sia arrivata una nuova ideologia, ma perché il modello ipercentralizzato comincia a urtare contro limiti tecnici, economici e politici.
Su Terza Pillola questa faglia si vede bene se si mettono insieme alcuni pezzi che spesso vengono trattati separatamente: internet senza cloud è possibile?, cos’è l’edge computing, chi possiede davvero l’infrastruttura di internet, il potere delle Big Tech nell’AI. Visti insieme, raccontano una storia semplice: più l’intelligenza artificiale entra nella vita quotidiana e nei processi produttivi, più diventa difficile farla vivere soltanto in poche fortezze remote.
Il cloud centralizzato resta fondamentale. Chiunque voglia addestrare modelli di frontiera o gestire grandi carichi continuerà ad aver bisogno di data center enormi, hardware specializzato e stack software pesantissimi. Nessuno scenario realistico immagina la scomparsa improvvisa di questi poli. Anzi: per il training e per i modelli più esigenti resteranno probabilmente ancora più centrali di oggi.
Ma il problema nasce quando tutta la catena dell’AI viene immaginata solo così. Perché i bisogni reali dei sistemi moderni sono più vari. Google Distributed Cloud descrive bene il punto: ci sono casi in cui servono bassa latenza, trattamento locale dei dati, resilienza, sopravvivenza operativa anche in ambienti isolati, requisiti di sovranità digitale e normativa. Microsoft, con i suoi strumenti di inferenza locale, insiste su altri fattori decisivi: tempi di risposta di livello millisecondi, capacità offline, riduzione della dipendenza continua dalla rete. IBM aggiunge che portare modelli e inferenza all’edge riduce trasferimento dei dati, costi operativi e problemi di privacy.
Queste esigenze non sono dettagli da architetti cloud. Sono la prova che l’AI, quando esce dal teatrino delle demo e va dentro fabbriche, ospedali, negozi, apparati industriali, dispositivi personali, infrastrutture sensibili o ambienti regolati, non può vivere tutta nello stesso posto. Se hai bisogno di decidere in tempo reale, se non puoi mandare ogni dato sensibile in un data center remoto, se vuoi mantenere operatività anche con connettività limitata, la distribuzione smette di essere una filosofia e diventa un requisito.
È qui che il futuro comincia a cambiare forma. Non più solo modelli mastodontici centralizzati, ma una stratificazione. In alto, i grandi poli del training e dei foundation model. In mezzo, sistemi di adattamento, fine-tuning e orchestrazione. Più in basso, inferenza distribuita su edge, on-premise e dispositivi locali. Questo non elimina il centro. Lo ridimensiona come unico luogo possibile dell’intelligenza.
In pratica, la spinta verso l’AI distribuita nasce da quattro pressioni principali. La prima è la latenza: se la risposta deve arrivare subito, avvicinare il modello al punto d’uso diventa vitale. La seconda è il costo: non tutto ha senso se ogni richiesta deve fare avanti e indietro verso il cloud con trasferimenti costanti di dati. La terza è la privacy e la sovranità: in molti settori il dato non può semplicemente andarsene in vacanza dentro un’infrastruttura di qualcun altro. La quarta è la resilienza: sistemi critici non possono dipendere sempre da un unico canale remoto.
Ed eccoci al punto che quasi tutti cercano di saltare. L’AI distribuita non coincide automaticamente con l’AI decentralizzata nel senso forte del termine. Puoi eseguire modelli in più luoghi e restare comunque dentro un ecosistema profondamente centralizzato. Anzi, è quello che molto probabilmente succederà in una grande parte del mercato.
Pensa al caso più probabile: il modello di base viene addestrato da pochi attori giganteschi, aggiornato dentro grandi cluster, distribuito poi sotto forma di servizi, versioni ottimizzate o pesi utilizzabili in contesti specifici. L’inferenza si sposta verso edge, PC, smartphone, apparati industriali o ambienti on-premise. Sembra una dispersione del potere. Ma chi controlla il modello, il chip, gli aggiornamenti, gli strumenti di deployment, le policy di sicurezza, le librerie, gli account, la fatturazione, spesso continua a essere sempre lo stesso blocco di attori.
In altre parole: puoi distribuire l’esecuzione e centralizzare il governo. È già successo con il cloud, con gli smartphone, con gli store, con i social. I terminali si moltiplicano, ma la regia resta altrove. Per questo bisogna stare attenti a non confondere tre concetti diversi: distribuito, decentralizzato e sovrano. Un sistema distribuito può essere semplicemente più efficiente. Un sistema decentralizzato prova a spostare il potere di coordinamento. Un sistema sovrano prova a mantenere controllo su dati, processi e dipendenze strategiche. Le tre cose possono sovrapporsi, ma non coincidono.
Questo vale anche per l’on-device AI, che tanti presentano come anticamera della liberazione dall’oligopolio cloud. Certo, far girare modelli localmente su PC e dispositivi personali può ridurre lock-in, migliorare privacy, abbassare la dipendenza da connessioni continue. Ma se quei modelli sono progettati, firmati, aggiornati e limitati dentro ecosistemi chiusi, la libertà resta parziale. Hai spostato il luogo dell’inferenza, non necessariamente il comando politico del sistema.
Lo stesso ragionamento vale per le architetture ibride enterprise. Un’azienda può portare una parte dell’AI on-premise per ragioni normative o operative. Ottimo. Ma se dipende comunque da pochi fornitori per chip, toolchain, modelli, orchestrazione e servizi critici, la sua autonomia resta condizionata. Più che una rivoluzione, è un riequilibrio. Importante, ma da leggere con lucidità.
E qui si incrociano anche gli esperimenti più radicali, come le reti che provano a coordinare servizi AI in modo aperto e incentivato, tra cui casi come Bittensor. Sono tentativi interessanti, perché mettono pressione al modello supercentralizzato. Ma, come nel caso delle reti crypto-AI, restano esposti a problemi enormi: misurazione del valore, concentrazione del capitale, costi del compute, sicurezza, qualità del servizio. La distribuzione, da sola, non risolve la politica del potere digitale.
Se togliamo la propaganda, il futuro più plausibile è questo: l’AI diventerà più distribuita sul piano operativo e resterà in larga parte concentrata sul piano strategico. In alto continueranno a dominare pochi soggetti capaci di finanziare addestramento, chip, data center, ricerca e integrazione verticale. Nel mezzo cresceranno aziende e istituzioni che proveranno a riprendersi margini di autonomia con deployment ibridi, modelli aperti, orchestrazione proprietaria, ambienti regolati. In basso esploderà l’inferenza distribuita: dispositivi personali, edge industriale, nodi locali, ambienti offline o quasi.
Questo scenario produce una conseguenza decisiva. Il conflitto non sarà più solo fra “cloud sì” e “cloud no”, ma fra diversi livelli di dipendenza. Chi possiede il modello? Chi decide gli aggiornamenti? Chi controlla l’accesso al compute? Chi tiene in mano identità, billing, sicurezza e osservabilità? Chi può spostare davvero i carichi? Chi può sostituire un fornitore senza fermare tutto? In un mondo di AI distribuita, la libertà non si misura solo da dove gira il modello. Si misura da quante catene restano attaccate al sistema.
Per questo, nei prossimi anni, diventeranno cruciali temi che oggi sembrano da addetti ai lavori: standard aperti, interoperabilità, portabilità dei modelli, controllo locale dei dati, accesso al compute, disponibilità di modelli open weight, capacità di gestire inferenza senza dover chiedere permesso a una singola piattaforma. Non sono dettagli tecnici. Sono le nuove condizioni materiali della sovranità digitale.
La centralizzazione dell’AI non sparirà. Ma non resterà nemmeno incontestata. Verrà scavata ai bordi da esigenze economiche, normative e operative. Il risultato non sarà una utopia peer-to-peer né una vittoria totale delle nuvole oligopolistiche. Sarà una geografia più complessa, in cui il potere si contenderà a strati.
Ed è proprio qui che torna la domanda di fondo che accompagna tutto il progetto Terza Pillola: cosa possiamo ancora scegliere dentro un sistema progettato dagli algoritmi? Nel caso dell’AI distribuita, la risposta comincia da una distinzione netta. Possiamo scegliere di applaudire qualsiasi dispersione dell’inferenza come se fosse libertà. Oppure possiamo imparare a riconoscere dove si distribuisce davvero la capacità di decidere e dove, invece, si sta distribuendo solo il costo operativo.
Il futuro dell’AI sarà più distribuito di quanto sembri, ma non per questo sarà automaticamente più libero. Perché spostare i modelli più vicino a noi non conta molto, se il potere di aggiornarli, limitarli e monetizzarli continua a stare sempre lontano.