Italian Hackathon League  · Leggi su La Stampa →
28 gennaio 20269 min di letturaYellow Tech

Il soffitto di cristallo dell'IA: perché la corsa all'infinito potrebbe aver trovato il suo primo muro

Dopo anni di crescita esponenziale, la Silicon Valley sussurra una parola temuta: "plateau". Aggiungere dati non basta più. Ma per le aziende italiane questa frenata apparente potrebbe essere un'ottima notizia.

Il soffitto di cristallo dell'IA: perché la corsa all'infinito potrebbe aver trovato il suo primo muro

Ci eravamo abituati bene. Forse troppo. Negli ultimi tre anni, il mondo tech ha vissuto aggrappato a un dogma semplice, quasi brutale: le Scaling Laws. L'equazione, ripetuta come un mantra in ogni pitch deck da San Francisco a Milano, era lineare e rassicurante: più dati inserisci, più potenza di calcolo aggiungi, più parametri ha il modello, più l'intelligenza aumenta.

Sembrava una retta puntata verso l'infinito. Un automatismo che ci avrebbe portato alla superintelligenza (AGI) quasi per inerzia. Bastava "dare gas".

Eppure, nelle ultime settimane, l'atmosfera nei corridori della Silicon Valley è cambiata. Dai trionfalismi si è passati ai sussurri, e dai grafici a 45 gradi si è passati a linee più piatte. I rumor che filtrano dai principali laboratori di ricerca suggeriscono che siamo di fronte a un plateau.

La domanda che fino a ieri era eresia, oggi è sul tavolo di ogni CTO e investitore: l'intelligenza artificiale ha un tetto? E soprattutto: se la crescita "muscolare" dell'IA si ferma, cosa succede agli investimenti e al business reale?

Per capirlo dobbiamo guardare sotto il cofano. Perché quello che sembra un problema tecnico, in realtà, è l'inizio di una fase molto più matura (e utile) per le imprese.

La fine dell'Internet "utile"

Il primo ostacolo è fisico, quasi banale: abbiamo finito Internet. I Large Language Model (LLM) come GPT, Claude o Gemini funzionano su base statistica. Hanno "letto" biblioteche intere, codici sorgente, articoli di giornale e discussioni sui forum per imparare a prevedere la parola successiva in una frase. Per renderli più intelligenti, finora la ricetta è stata semplice: aumentare le dimensioni del "cervello" (parametri) e la quantità di testi da fargli digerire (dati).

Ma c'è un problema di scarsità. Le aziende di AI hanno pressoché esaurito i testi di alta qualità prodotti dagli esseri umani. Per mantenere i ritmi di crescita esponenziale a cui ci siamo assuefatti, servirebbero volumi di dati che semplicemente non esistono.

Qualcuno sta provando la scorciatoia dei dati sintetici (testi scritti da altre AI per addestrare nuove AI), ma i rischi sono evidenti. È l'effetto "fotocopia della fotocopia": se il modello impara dai suoi stessi output, perde le sfumature, l'ironia e la logica complessa tipica dell'uomo. La qualità degrada, le "allucinazioni" aumentano e si rischia quello che i ricercatori chiamano "Model Collapse".

Siamo di fronte alla classica legge dei rendimenti decrescenti. Se ieri spendendo 100 in calcolo ottenevo un miglioramento di 10, oggi spendendo 100 rischio di ottenere un miglioramento di 1. È un muro economico prima ancora che tecnologico: ha senso investire 1 miliardo di dollari per un modello che è solo il 2% più bravo del precedente a scrivere una mail?

System 1 vs System 2

Significa che l'innovazione è finita? Tutt'altro. Significa che sta cambiando corsia. Ed è qui che la questione diventa interessante per chi fa impresa e deve integrare questi strumenti.

Fino a ieri, la competizione era su chi aveva il modello che "sapeva" più cose (conoscenza enciclopedica). Oggi, la frontiera si sposta sul ragionamento. Se non posso farti leggere più libri perché li hai finiti, posso però insegnarti a "riflettere" meglio su quello che hai già letto.

Stiamo assistendo al passaggio dai sistemi predittivi istintivi (che Daniel Kahneman definirebbe System 1 thinking) ai modelli riflessivi (System 2 thinking).

Come era prima: l'IA rispondeva "di pancia", completando la frase statisticamente più probabile. Veloce, ma incline all'errore logico.

Come sarà adesso: il software, prima di rispondere, si prende del tempo ("inference time compute") per simulare diversi percorsi logici, verificare i passaggi e correggersi.

L'IA smette di essere un "pappagallo stocastico" e inizia a diventare un risolutore di problemi complessi. Non diventa necessariamente onnisciente, ma di sicuro estremamente più affidabile. E per un'azienda che deve usare l'AI per analizzare contratti o ottimizzare la supply chain, l'affidabilità vale molto più della creatività.

Dalla chat all'azione: l'era degli Agenti

Ma il ragionamento è solo il carburante per il vero trend dei prossimi 12 mesi: gli agenti. L'obiettivo della Silicon Valley non è più creare un chatbot con cui conversare, ma un collega digitale che lavora.

La differenza è sottile ma sostanziale. Con un chatbot dici "Scrivimi il codice per una pagina web" e poi devi copiare, incollare, testare, correggere. Con un agente dici "Costruisci e pubblica la pagina web" e l'agente scrive, testa, corregge e mette online.

Strumenti come Claude Code, Antigravity o le evoluzioni di Copilot stanno dimostrando che l'AI può gestire autonomamente task complessi. Inoltre, i grandi nomi stanno esplorando strade alternative ai soli LLM. Ilya Sutskever (co-fondatore ed ex scienziato capo di OpenAI) ha fondato SSI puntando su architetture diverse; Yann LeCun (ex capo dell'AI di Meta) lavora sui "World Models", sistemi che apprendono non dalle parole, ma dalla logica fisica del mondo reale.

Gli investimenti restano senza precedenti

Se avete dubbi sul fatto che il settore creda ancora in questa tecnologia, basta guardare il portafoglio. Nonostante i timori sul plateau tecnologico, i grafici del Capex delle Big Tech mostrano una mobilitazione di risorse mai vista nella storia industriale recente.

Secondo le previsioni degli analisti, la spesa complessiva di Amazon, Alphabet, Microsoft, Meta e Apple è salita dagli 80 miliardi del 2019 ai circa 247 miliardi di dollari nel 2025. Sono cifre che garantiscono una cosa sola: queste aziende stanno costruendo le "ferrovie" del futuro. Se la strada dei "più dati" si chiude, questa mole di denaro ne sfonderà altre dieci.

Perché per l'Italia è una buona notizia

Paradossalmente, questa frenata nella corsa al gigantismo è un assist formidabile per il tessuto produttivo italiano.

Molte nostre aziende sono rimaste alla finestra, paralizzate da due paure tipiche del decisore prudente: aspettare il "modello perfetto" che non sbaglia mai, e il timore di investire su una tecnologia che diventa obsoleta ogni tre mesi.

Se la curva esponenziale rallenta, si apre finalmente l'era della stabilità e dell'adozione reale. La verità è che non abbiamo bisogno di un'IA più potente di GPT-5.2 per rivoluzionare l'intera Pubblica Amministrazione italiana o per gestire il customer care di una PMI.

I modelli attuali sono già ampiamente sovradimensionati rispetto all'uso che ne facciamo. Li usiamo per riassumere mail, quando potrebbero analizzare bilanci. Li usiamo per scrivere post social, quando potrebbero incrociare dati di produzione. Il "soffitto" tecnologico è altissimo; è il nostro soffitto applicativo (processi, cultura aziendale, integrazione dei dati proprietari) a essere ancora troppo basso.

Il mito dell'onniscienza

Dobbiamo smettere di aspettare l'IA divina che risolva tutto con un click magico. La sfida dei prossimi mesi non sarà avere il modello più grande, ma costruire le architetture aziendali per far lavorare bene i modelli che già abbiamo.

Tre aree su cui spostare il focus. Prima: Integrazione dei dati (RAG) — i modelli sono intelligenti ma non conoscono nulla della tua azienda. La sfida è collegarli in sicurezza ai tuoi database. Seconda: Guardrail di sicurezza — creare recinti con paletti ben chiari sul cosa l'AI deve e non deve fare. Terza: Ridisegno dei processi — l'IA non sempre ha senso che si "appoggi" sopra un processo vecchio. Spesso la cosa più utile è ridisegnare il flusso di lavoro dove l'umano è oggi il collo di bottiglia.

Il limite dell'IA esiste, come per ogni tecnologia fisica. Ma è ancora così lontano dalle nostre capacità attuali di adozione che è irrilevante. La vera notizia non è che l'IA ha rallentato, ma che è arrivato il momento per noi di accelerare sull'implementazione.