14X. È quanto è aumentato il fatturato di DeepSeek nell’ultimo trimestre, rendendo il suo CEO uno delle persone più ricche del mondo da un giorno all’altro. Nel frattempo, Jensen Huang di Nvidia ha annunciato con nonchalance che abbiamo “raggiunto l’AGI,” e l’industria dell’AI ha colto un sospiro di disinteresse collettivo poiché nessuno riesce a concordare sul significato di tale affermazione.
Questo è lo stato dell’intelligenza artificiale nel 2025: CEO che lanciano termini come coriandoli a una parata, investitori che perdono la testa per i multipli di fatturato e il resto di noi che cerca di capire se stiamo vivendo una rivoluzione tecnologica o la campagna di marketing più costosa al mondo.
Il Problema della Definizione di AGI
La dichiarazione di Huang sarebbe monumentale se qualcuno potesse definire esattamente cosa sia l’AGI. Chiedi a dieci ricercatori di AI e otterrai undici definizioni. È intelligenza a livello umano? Prestazioni superumane in tutti i compiti? La capacità di apprendere qualsiasi cosa che un umano possa apprendere? Un sistema capace di prepararti una buona tazza di caffè senza fare a pezzi la tua cucina?
L’ambiguità non è casuale. È strategicamente utile. Quando i pali della porta sono montati su ruote, puoi sempre affermare di aver segnato.
Guarda cosa sta succedendo realmente nel mercato. Character.AI ha appena bandito i minorenni dalla loro piattaforma a causa di cause legali e pressioni normative. Non è la mossa di una azienda sicura della maturità della propria tecnologia. È gestione dei danni di un prodotto che non riesce a evitare output dannosi quando parla con utenti vulnerabili.
Segui i Soldi, Non il Rumore
La vera storia non risiede nelle dichiarazioni di AGI. È nei numeri. Alexandr Wang, un college dropout, ha appena chiuso un affare da 14,3 miliardi di dollari con Meta per infrastrutture di AI. Siemens sta scommettendo sui set di dati industriali della Germania per il loro sviluppo nell’AI. I CEO stanno utilizzando “un numero” per decidere quanti dipendenti hanno ancora bisogno.
Queste non sono le azioni di persone che pensano che l’AGI sia arrivata. Queste sono le mosse di persone che si stanno preparando per ciò che verrà dopo, qualunque cosa sia.
Il picco del fatturato di DeepSeek del 14X ti dice tutto su dove siamo realmente: nelle prime fasi della commercializzazione, non al termine del percorso dell’intelligenza artificiale. Le aziende stanno guadagnando a mani basse non perché abbiano risolto il problema dell’intelligenza, ma perché hanno risolto problemi specifici e preziosi per i quali le aziende sono disposte a pagare.
Cosa Abbiamo Davvero
Togliendo di mezzo la guerra terminologica, ecco cosa esiste: sistemi di AI che sono veramente utili per compiti ristretti, occasionalmente impressionanti per compiti più ampi e costantemente inaffidabili quando hai bisogno di loro per essere affidabili.
L’attuale AI può scrivere codice? Sì, spesso in modo adeguato. Può ragionare su problemi complessi? A volte. Può farlo in modo coerente, sicuro e senza hallucinare fatti? Per niente.
Il divario tra “AGI raggiunta” e “abbiamo bandito i minorenni dall’uso del nostro chatbot perché non possiamo controllare cosa dice” è grande quanto il Gran Canyon. Entrambi questi eventi sono accaduti nello stesso ciclo di notizie.
La Vera Domanda
Forse il dibattito sull’AGI è completamente la conversazione sbagliata. Forse dovremmo chiederci: abbiamo bisogno dell’AGI affinché l’AI sia trasformativa?
Le prove suggeriscono di no. Le aziende stanno già ristrutturandosi attorno a capacità di AI che sono ben lontane dall’intelligenza generale. Il “un numero” di cui parla Fortune, che i CEO utilizzano per le decisioni sulla forza lavoro? Non è basato sull’AGI. È basato su strumenti di AI ristretta che possono automatizzare flussi di lavoro specifici.
I set di dati industriali che entusiasmano Siemens? Questi alimentano modelli specializzati per l’ottimizzazione della produzione, non macchine pensanti a scopo generale.
Il colossale affare di Wang con Meta? Infrastruttura per addestrare e distribuire modelli che sono potenti ma decisamente non sono intelligenza generale.
Dove Ci Lascia Questo
La dichiarazione di AGI di Huang è prematura, creativamente definitoria o geniale dal punto di vista del marketing, a seconda della tua prospettiva. Probabilmente tutte e tre.
Certo è che l’industria dell’AI ha un problema di credibilità. Quando la stessa tecnologia viene simultaneamente dichiarata come raggiunta intelligenza generale e troppo pericolosa per essere utilizzata da adolescenti senza supervisione, qualcosa non quadra.
I soldi che fluiscono nell’AI sono reali. Le capacità sono reali. Le trasformazioni aziendali sono reali. Ma il divario tra ciò che viene dichiarato e ciò che viene consegnato cresce ogni volta che un CEO fa una dichiarazione audace che il resto dell’industria contesta immediatamente.
Non abbiamo raggiunto l’AGI. Abbiamo raggiunto qualcos’altro: sistemi di AI abbastanza potenti da essere realmente utili e legittimamente preoccupanti, ma non così potenti da meritare la terminologia divina che continuiamo a affibbiare loro. Questa è la vera storia, anche se è meno entusiasmante rispetto al titolo di Huang.
Prima ci rendiamo conto di dove siamo realmente, prima potremo avere conversazioni produttive su dove stiamo andando e quali guardrail abbiamo bisogno lungo il cammino.
🕒 Published: