L’AI non ha fame di dati: ha fame di elettricità

RedazioneEconomia1 week ago13 Views

Nel 2026 la corsa all’AI si scontra con un limite fisico: energia, data center e costi. Il futuro digitale assomiglia sempre più a un’industria pesante.

Per capire dove sta andando davvero l’intelligenza artificiale conviene smettere per un momento di guardare i demo e guardare il contatore.

Perché la notizia di questi giorni non è solo che Big Tech vuole spendere circa 635 miliardi di dollari in infrastrutture AI nel 2026, come ha riportato S&P Global. La notizia è che questa corsa può incepparsi non per mancanza di idee, ma per mancanza di energia, aumento dei costi e colli di bottiglia fisici. Traduzione: l’AI sta smettendo di sembrare un business software e sta cominciando a comportarsi come un’industria pesante.

È un cambio di natura quasi comico, se uno ripensa alla favoletta della “nuvola”. Dietro la nuvola ci sono edifici, cavi, trasformatori, chip, turbine, contratti di fornitura elettrica. E infatti, Microsoft, Chevron ed Engine No. 1 hanno firmato un accordo di esclusiva per lavorare a nuova generazione e nuova fornitura di energia per data center.

Cioè: i signori del software stanno facendo accordi con i signori del gas. Altro che futuro leggero.

Il collo di bottiglia non è più il modello

Se i grandi gruppi tecnologici pianificano centinaia di miliardi di spesa ma devono fare i conti con prezzi energetici instabili, rete insufficiente e tempi lunghi di costruzione dei data center, allora la gara non si decide solo nei laboratori ma nelle infrastrutture. E questo cambia tutto.

Chi pensa che sia un dettaglio tecnico dovrebbe fare un giro dentro il cuore materiale del digitale, cioè i data center, e ricordarsi anche quanto consuma davvero internet. L’AI generativa non galleggia nell’aria: mastica elettricità, acqua, silicio, suolo e debito. Più cresce, più il suo racconto futurista si sporca di economia politica.

La cosa interessante è che questa dipendenza energetica non è un incidente: è il prezzo strutturale di un paradigma che punta a modelli sempre più grandi, inferenza sempre più diffusa, agenti sempre attivi, servizi sempre più integrati in ogni software e in ogni dispositivo. Ogni nuova “funzione magica” ha un retrobottega fatto di potenza di calcolo.

E la potenza di calcolo, al momento, si traduce in centrali, accordi industriali e spesa capitale gigantesca.

Se per far funzionare l’AI serve il gas, il gioco è cambiato

Quando una società come Microsoft si muove per assicurarsi nuova capacità di generazione accanto ai data center, vuol dire che il problema non è più soltanto comprare chip o prenotare cloud. Vuol dire che il fabbisogno energetico è diventato così strategico da richiedere alle Big Tech un comportamento da utility, da conglomerato industriale, quasi da pianificatore di filiera.

Questo ha almeno tre conseguenze. La prima: aumenta la barriera d’ingresso, perché non basta più un buon modello, serve anche l’accesso alla potenza. La seconda: rende l’AI molto più esposta a shock geopolitici, prezzi dell’energia, regolazione ambientale e finanza del debito. La terza: smonta la narrazione innocua secondo cui il digitale sarebbe automaticamente “immateriale”, perchè è un’industria ad altissima intensità energetica.

Non è detto che questo rallenti davvero la corsa, ma di sicuro la rende più costosa, più sporca e più selettiva. Chi ha capitale, terra, elettricità e accesso alla rete parte avvantaggiato. Chi ha solo la retorica dell’innovazione resta indietro. Ecco perché la vera storia dell’AI nel 2026 potrebbe non essere il prossimo chatbot, ma la lotta per alimentarlo senza far esplodere i costi.

L’intelligenza artificiale non sta diventando solo più intelligente, ma anche più pesante e inquinante, e necessiterà una nuova politica dell’energia.

Loading Next Post...
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...