Se il 2025 è stato l’anno in cui l’AI ha ricevuto un reality check, il 2026 sarà l’anno in cui questa tecnologia diventerà pratica. L’attenzione si sta già spostando dalla costruzione di modelli linguistici sempre più grandi verso l’impegno, ben più arduo, di rendere l’AI utilizzabile. In pratica, ciò significa implementare modelli più piccoli dove necessario, incorporare intelligenza nei dispositivi fisici e progettare sistemi che si integrano in modo fluido nei flussi di lavoro umani.
Gli esperti con cui TechCrunch ha parlato vedono il 2026 come un anno di transizione, che evolve dalla semplice scalabilità verso la ricerca di nuove architetture, da demo appariscenti a implementazioni mirate, e da agenti che promettono autonomia a quelli che effettivamente potenziano il lavoro umano.
La festa non è finita, ma l’industria sta iniziando a tornare sobria.
Le leggi della scalabilità non bastano più
Crediti immagine:Amazon Nel 2012, Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton, con il loro paper su ImageNet, mostrarono come i sistemi AI potessero “imparare” a riconoscere oggetti nelle immagini osservando milioni di esempi. L’approccio era computazionalmente costoso, ma reso possibile dalle GPU. Il risultato? Un decennio di ricerca AI intensa, in cui gli scienziati hanno lavorato per inventare nuove architetture per diversi compiti.
Questo culminò intorno al 2020, quando OpenAI lanciò GPT-3, dimostrando come rendere il modello 100 volte più grande sbloccasse capacità come la programmazione e il ragionamento senza richiedere addestramento esplicito. Questo segnò il passaggio a quella che Kian Katanforoosh, CEO e fondatore della piattaforma per agenti AI Workera, definisce “l’era della scalabilità”: un periodo caratterizzato dalla convinzione che più potenza di calcolo, più dati e modelli transformer più grandi avrebbero inevitabilmente portato alle prossime grandi scoperte nell’AI.
Oggi, molti ricercatori ritengono che l’industria AI stia iniziando ad esaurire i limiti delle leggi della scalabilità e stia per entrare nuovamente in una fase di ricerca.
Yann LeCun, ex chief AI scientist di Meta, da tempo sostiene che non si debba fare eccessivo affidamento sulla scalabilità, sottolineando la necessità di sviluppare architetture migliori. Sutskever, in una recente intervista, ha dichiarato che i modelli attuali stanno raggiungendo un plateau e che i risultati del pretraining si sono appiattiti, indicando la necessità di nuove idee.
Unisciti alla lista d’attesa di Disrupt 2026
Aggiungiti alla lista d’attesa di Disrupt 2026 per essere tra i primi quando saranno disponibili i biglietti Early Bird. I passati Disrupt hanno visto protagonisti Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil e Vinod Khosla — parte di oltre 250 leader di settore che hanno guidato più di 200 sessioni pensate per alimentare la tua crescita e affinare il tuo vantaggio. Inoltre, potrai incontrare centinaia di startup che innovano in ogni settore.
Unisciti alla lista d’attesa di Disrupt 2026
Aggiungiti alla lista d’attesa di Disrupt 2026 per essere tra i primi quando saranno disponibili i biglietti Early Bird. I passati Disrupt hanno visto protagonisti Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil e Vinod Khosla — parte di oltre 250 leader di settore che hanno guidato più di 200 sessioni pensate per alimentare la tua crescita e affinare il tuo vantaggio. Inoltre, potrai incontrare centinaia di startup che innovano in ogni settore.
“Credo che molto probabilmente nei prossimi cinque anni troveremo un’architettura migliore che rappresenterà un miglioramento significativo rispetto ai transformer,” ha detto Katanforoosh. “E se non accadrà, non possiamo aspettarci grandi miglioramenti dai modelli.”
A volte meno è meglio
I grandi modelli linguistici sono eccellenti nel generalizzare la conoscenza, ma molti esperti sostengono che la prossima ondata di adozione dell’AI in ambito enterprise sarà guidata da modelli linguistici più piccoli e agili, ottimizzabili per soluzioni specifiche di settore.
“Gli SLM ottimizzati saranno la grande tendenza e diventeranno uno standard utilizzato dalle aziende AI mature nel 2026, poiché i vantaggi in termini di costi e prestazioni ne guideranno l’utilizzo rispetto agli LLM preconfezionati,” ha dichiarato Andy Markus, chief data officer di AT&T, a TechCrunch. “Abbiamo già visto aziende affidarsi sempre più agli SLM perché, se ottimizzati correttamente, eguagliano i modelli generalizzati più grandi in accuratezza per applicazioni business, e sono eccezionali in termini di costi e velocità.”
Abbiamo già visto questa argomentazione dalla startup francese di AI open-weight Mistral: sostiene che i suoi piccoli modelli funzionano meglio di quelli più grandi su diversi benchmark dopo l’ottimizzazione.
“L’efficienza, l’economicità e l’adattabilità degli SLM li rendono ideali per applicazioni su misura dove la precisione è fondamentale,” ha dichiarato Jon Knisley, AI strategist presso ABBYY, azienda AI di Austin.
Mentre Markus pensa che gli SLM saranno fondamentali nell’era agentica, secondo Knisley la natura dei modelli piccoli li rende ideali per l’implementazione su dispositivi locali, “una tendenza accelerata dai progressi del edge computing.”
Imparare dall’esperienza
Crediti immagine:World Labs/TechCrunch Gli esseri umani non apprendono solo tramite il linguaggio; impariamo sperimentando come funziona il mondo. Ma gli LLM non comprendono davvero il mondo; si limitano a predire la parola o l’idea successiva. Ecco perché molti ricercatori credono che il prossimo grande salto deriverà dai world model: sistemi AI che apprendono come si muovono e interagiscono le cose negli spazi 3D, così da poter formulare previsioni e compiere azioni.
I segnali che il 2026 sarà un grande anno per i world model si stanno moltiplicando. LeCun ha lasciato Meta per fondare il proprio laboratorio dedicato ai world model e, secondo indiscrezioni, sta cercando una valutazione da 5 miliardi di dollari. DeepMind di Google sta lavorando su Genie e ad agosto ha lanciato il suo ultimo modello che costruisce world model in tempo reale e a scopo generale. Accanto alle demo di startup come Decart e Odyssey, World Labs di Fei-Fei Li ha lanciato il suo primo world model commerciale, Marble. Nuovi arrivati come General Intuition in ottobre hanno raccolto un seed round da 134 milioni di dollari per insegnare agli agenti il ragionamento spaziale mediante clip di videogiochi, e la startup di video generativi Runway a dicembre ha pubblicato il suo primo world model, GWM-1.
Sebbene i ricercatori vedano un potenziale a lungo termine in robotica e autonomia, l’impatto immediato si vedrà probabilmente prima nei videogiochi. PitchBook prevede che il mercato dei world model nel gaming potrebbe crescere da 1,2 miliardi di dollari tra il 2022 e il 2025 a 276 miliardi entro il 2030, grazie alla capacità della tecnologia di generare mondi interattivi e personaggi non giocanti sempre più realistici.
Pim de Witte, fondatore di General Intuition, ha dichiarato a TechCrunch che gli ambienti virtuali potrebbero non solo rivoluzionare il gaming, ma anche diventare terreni di prova cruciali per la prossima generazione di modelli fondamentali.
Nation agentica
Gli agenti non hanno mantenuto le promesse nel 2025, ma uno dei motivi principali è la difficoltà di collegarli ai sistemi dove avviene davvero il lavoro. Senza un modo per accedere a strumenti e contesto, la maggior parte degli agenti è rimasta intrappolata in flussi di lavoro pilota.
Il Model Context Protocol (MCP) di Anthropic, una sorta di “USB-C per l’AI” che permette agli agenti AI di interagire con strumenti esterni come database, motori di ricerca e API, si è rivelato il tessuto connettivo mancante e sta rapidamente diventando lo standard. OpenAI e Microsoft hanno pubblicamente abbracciato MCP, e Anthropic lo ha recentemente donato alla nuova Agentic AI Foundation della Linux Foundation, che mira a standardizzare gli strumenti agentici open source. Anche Google ha iniziato a offrire i suoi server MCP gestiti per collegare gli agenti AI ai propri prodotti e servizi.
Con MCP che riduce l’attrito nel connettere gli agenti ai sistemi reali, il 2026 sarà probabilmente l’anno in cui i flussi di lavoro agentici passeranno finalmente dalle demo alla pratica quotidiana.
Rajeev Dham, partner di Sapphire Ventures, afferma che questi progressi porteranno a soluzioni agent-first che assumeranno ruoli di “system-of-record” in vari settori.
“Man mano che gli agenti vocali gestiranno più compiti end-to-end come accoglienza e comunicazione con i clienti, inizieranno anche a costituire i sistemi core sottostanti,” ha dichiarato Dham. “Lo vedremo in diversi settori come servizi per la casa, proptech, sanità, nonché in funzioni orizzontali come vendite, IT e supporto.”
Potenziare, non automatizzare
Crediti immagine:Foto di Igor Omilaev su Unsplash Sebbene flussi di lavoro più agentici possano generare timori di licenziamenti, Katanforoosh di Workera non è così convinto che questo sia il messaggio: “Il 2026 sarà l’anno degli umani,” ha detto.
Nel 2024, ogni azienda AI prevedeva di automatizzare i lavori eliminando la necessità di personale umano. Ma la tecnologia non è ancora pronta e, in un’economia instabile, questa retorica non è molto popolare. Secondo Katanforoosh, il prossimo anno ci renderemo conto che “l’AI non ha funzionato in modo autonomo come pensavamo” e la discussione si concentrerà di più su come l’AI venga utilizzata per potenziare i flussi di lavoro umani, invece che sostituirli.
“E penso che molte aziende inizieranno ad assumere,” ha aggiunto, osservando che si aspetta la nascita di nuovi ruoli in governance AI, trasparenza, sicurezza e gestione dei dati. “Sono piuttosto ottimista su una disoccupazione media sotto il 4% il prossimo anno.”
“Le persone vogliono stare sopra l’API, non sotto di essa, e penso che il 2026 sarà un anno importante per questo,” ha aggiunto de Witte.
Verso il fisico
Crediti immagine:David Paul Morris/Bloomberg / Getty Images Gli esperti sostengono che i progressi in tecnologie come modelli piccoli, world model e edge computing permetteranno applicazioni fisiche sempre più diffuse del machine learning.
“L’AI fisica raggiungerà il mainstream nel 2026, mentre nuove categorie di dispositivi alimentati da AI, tra cui robotica, veicoli autonomi, droni e dispositivi indossabili, inizieranno a entrare sul mercato,” ha dichiarato Vikram Taneja, responsabile di AT&T Ventures, a TechCrunch.
Mentre veicoli autonomi e robotica rappresentano casi d’uso ovvi per l’AI fisica che continueranno a crescere nel 2026, l’addestramento e l’implementazione necessari sono ancora costosi. I dispositivi indossabili, invece, offrono una via più economica con il consenso dei consumatori. Occhiali smart come i Ray-Ban Meta stanno iniziando a integrare assistenti in grado di rispondere a domande su ciò che si sta osservando, e nuovi formati come anelli sanitari AI-powered e smartwatch stanno normalizzando l’inferenza always-on indossata.
“I provider di connettività lavoreranno per ottimizzare la propria infrastruttura di rete per supportare questa nuova ondata di dispositivi, e chi avrà flessibilità nel modo in cui può offrire connettività sarà meglio posizionato,” ha dichiarato Taneja.


