
L’AGI è davvero già qui? Tra dichiarazioni, hype e realtà: lo stato dell’arte dell’intelligenza artificiale generale nel 2026.
Jensen Huang ha appena detto che, in pratica, l’AGI sarebbe già stata raggiunta. Elon Musk continua a spostare l’orizzonte al 2026. Il punto è che queste frasi fanno rumore perché sembrano rispondere a una domanda tecnica, ma in realtà rispondono prima di tutto a una domanda politica, industriale e culturale: chi ha il diritto di dichiarare che l’intelligenza artificiale è ormai “generale”?
Secondo quanto riportato da The Verge, il CEO di Nvidia ha sostenuto che l’AGI può essere considerata raggiunta se si guarda alla capacità operativa dell’AI. Durante il podcast di Lex Fridman, Huang ha infatti collegato il concetto di intelligenza generale alla produzione di valore economico.
Nel transcript completo dell’intervista, emerge chiaramente questo approccio: un sistema AI che riesce a creare prodotti, servizi o startup capaci di generare profitti significativi potrebbe già soddisfare una definizione pragmatica di AGI.
Ma lo stesso Huang introduce un limite importante: la probabilità che agenti AI costruiscano da zero una realtà complessa come Nvidia è oggi pari a zero. Quindi anche nella sua visione esiste una frattura evidente: l’AI può creare valore, ma non è ancora in grado di sostenere la complessità del mondo reale su larga scala.
Elon Musk si muove su una linea simile ma con una strategia diversa: la previsione temporale. Secondo quanto riportato da Business Insider, il CEO di xAI ha indicato il 2026 come possibile momento di svolta, attribuendo anche una probabilità (seppur bassa) che modelli come Grok possano arrivarci.
Qui il punto è meno tecnico di quanto sembri. Parlare di AGI imminente significa attirare capitali, talenti e attenzione. In altre parole, la parola AGI oggi non è solo una definizione scientifica: è una leva di potere dentro la competizione tra Big Tech.
Questa dinamica si inserisce perfettamente nella logica già analizzata in Big Tech e corsa all’intelligenza artificiale, dove il controllo dell’AI coincide sempre più con il controllo dell’infrastruttura economica futura.
Il nodo centrale è che non esiste un accordo su cosa sia davvero l’AGI. Nel suo Charter ufficiale, OpenAI definisce l’AGI come sistemi capaci di superare gli esseri umani nella maggior parte del lavoro economicamente rilevante.
Google DeepMind, invece, sottolinea la necessità di criteri più rigorosi. Nel proprio framework sulla AGI, insiste su concetti come generalità, autonomia e sicurezza.
Questo significa una cosa molto semplice: stiamo usando la stessa parola per descrivere cose diverse. E quando le definizioni cambiano, cambia anche la percezione del progresso.
I modelli attuali stanno facendo passi avanti evidenti. OpenAI descrive i suoi sistemi più recenti come capaci di reasoning avanzato, coding, uso di strumenti e gestione di workflow complessi (documentazione ufficiale).
Questa evoluzione si collega direttamente a ciò che abbiamo spiegato in come funzionano davvero i modelli AI: non si tratta più solo di generare testo, ma di orchestrare azioni.
Tuttavia, il quadro resta incompleto. L’International AI Safety Report 2026 evidenzia che questi sistemi, pur avanzati, restano soggetti a errori, allucinazioni e limiti di affidabilità.
In altre parole: l’AI è abbastanza potente da sembrare generale, ma non abbastanza stabile da esserlo davvero.
Nuovi benchmark come quelli proposti da ARC Prize cercano di misurare la capacità di adattamento reale, non solo la performance su test statici.
Questo è il vero cuore del problema: l’intelligenza generale non è eseguire bene compiti già noti, ma sapersi muovere in contesti nuovi e imprevedibili.
Ed è qui che il dibattito si sposta. Non si tratta più solo di tecnologia, ma di narrativa. Se chi sviluppa AI può dichiarare “AGI raggiunta” cambiando il criterio di valutazione, allora la definizione diventa uno strumento di posizionamento.
Lo abbiamo già visto nel tema più ampio del potere degli algoritmi, analizzato in chi controlla davvero gli algoritmi.
Lo stato dell’arte è chiaro, anche se meno spettacolare dei titoli: non siamo davanti a una vera AGI, ma nemmeno ai sistemi limitati di pochi anni fa.
Siamo in una zona intermedia. Un territorio in cui le macchine iniziano a lavorare, produrre valore e prendere decisioni, ma restano fragili, opache e non completamente affidabili.
Il momento in cui l’AGI verrà davvero raggiunta non sarà annunciato da un CEO, ma riconosciuto quando non ci sarà più bisogno di cambiare continuamente la definizione per far sembrare completo qualcosa che è ancora in costruzione.