L’allarme di Matt Shumer sull’intelligenza artificiale: perché parla di una svolta imminente

Nel suo post “Something Big Is Happening”, l’imprenditore americano descrive un’accelerazione senza precedenti dell’AI e avverte: molti lavori cognitivi potrebbero cambiare entro pochi anni

Non è un annuncio tecnico né una previsione generica sul futuro. Nel suo lungo intervento pubblicato il 9 febbraio 2026, Matt Shumer sostiene che l’intelligenza artificiale abbia appena superato una soglia critica. Secondo l’imprenditore, ciò che sta accadendo nei laboratori di poche aziende potrebbe trasformare in tempi brevissimi il lavoro d’ufficio, le professioni intellettuali e perfino gli equilibri geopolitici. Il suo messaggio è semplice ma radicale: la fase di scetticismo pubblico ricorda i giorni precedenti alla pandemia, quando pochi avevano compreso la portata di ciò che stava per accadere.

 

Chi è Matt Shumer e perché il suo post ha fatto discutere

Matt Shumer è un imprenditore attivo da anni nel settore dell’intelligenza artificiale. Nel suo blog personale ha pubblicato un testo dal titolo evocativo: “Something Big Is Happening”. Il post è diventato rapidamente virale, rilanciato su Reddit e discusso anche sulla stampa economica italiana, tra cui Il Sole 24 Ore.

Il motivo del clamore non è una rivelazione tecnica segreta, ma il tono diretto e quasi personale dell’autore. Shumer afferma di aver “edulcorato” per mesi la realtà quando amici e familiari gli chiedevano cosa stesse accadendo nell’AI. Ora, scrive, la distanza tra percezione pubblica e realtà tecnologica sarebbe diventata troppo ampia per continuare a minimizzare.


Il paragone con il 2020

Il post si apre con un paragone forte: febbraio 2020, poche settimane prima che il Covid cambiasse la vita quotidiana in tutto il mondo.

Secondo Shumer, oggi ci troveremmo in una fase simile:

  • Molti hanno sentito parlare dei progressi dell’AI.

  • Alcuni professionisti la usano sporadicamente.

  • La maggioranza ritiene che l’entusiasmo sia eccessivo.

Ma, a suo avviso, come nel 2020, la percezione collettiva sarebbe in ritardo rispetto alla realtà.


Il punto centrale: l’AI fa già il lavoro tecnico meglio di lui

La parte più significativa del post riguarda l’esperienza personale dell’autore. Shumer racconta che, fino a pochi mesi fa, utilizzava l’AI come strumento di supporto: suggeriva codice, correggeva errori, velocizzava il lavoro.

Poi, tra fine 2025 e inizio 2026, qualcosa sarebbe cambiato.

Cita in particolare il rilascio di nuovi modelli come GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic. Con questi strumenti, sostiene, non è più necessario intervenire in modo continuo:

  • Descrive un’applicazione in linguaggio naturale.

  • L’AI scrive decine di migliaia di righe di codice.

  • Testa autonomamente il software.

  • Corregge errori.

  • Migliora design e funzionalità.

  • Presenta un prodotto finito.

Il passaggio che colpisce di più è questo: “Non è una bozza da sistemare. È il lavoro finito.”

Per Shumer, questo non è un miglioramento graduale, ma un salto di qualità.


Perché hanno puntato prima sui programmatori

Un aspetto che nel post viene spiegato con chiarezza riguarda la strategia delle aziende di AI.

Secondo l’autore, i laboratori avrebbero scelto di rendere i modelli eccellenti nella scrittura di codice per un motivo preciso: l’AI serve a costruire altra AI. Se un modello può contribuire allo sviluppo del successivo, il ciclo di miglioramento accelera.

Questa dinamica è confermata anche da dichiarazioni pubbliche di Dario Amodei, CEO di Anthropic, citato nel testo. Amodei sostiene che l’AI stia già scrivendo una parte rilevante del codice nei suoi laboratori e che il ciclo di auto-miglioramento stia accelerando.

Il concetto evocato è quello di “intelligence explosion”, una crescita esponenziale delle capacità.


La misura dell’accelerazione

Shumer cita i dati di METR, un’organizzazione che misura la durata dei compiti che un modello può svolgere autonomamente senza intervento umano.

L’evoluzione descritta nel post segue questa traiettoria:

Anno Capacità media stimata
2022 Errori in compiti aritmetici semplici
2023 Superamento di esami complessi come il bar exam USA
2024 Scrittura di software funzionante e analisi scientifica avanzata
Fine 2025 Gestione autonoma di task da diverse ore

Secondo il post, la durata dei compiti completabili senza supervisione starebbe raddoppiando ogni pochi mesi.


L’impatto sul lavoro: la previsione più controversa

La parte più discussa riguarda l’occupazione.

Shumer richiama dichiarazioni pubbliche di Amodei, secondo cui fino al 50% dei lavori white-collar entry level potrebbe essere colpito entro uno-cinque anni.

L’autore sostiene che l’AI non sostituisca una singola competenza, ma rappresenti un sostituto generale del lavoro cognitivo su computer. Se un’attività consiste in:

  • leggere,

  • scrivere,

  • analizzare dati,

  • redigere documenti,

  • programmare,

  • prendere decisioni basate su informazioni digitali,

allora, secondo la sua tesi, l’AI può già svolgerne una parte crescente.

I settori citati includono:

  • Legale

  • Finanza

  • Scrittura e marketing

  • Programmazione

  • Analisi medica

  • Customer service


Cosa consiglia di fare

Il post non si limita all’allarme. Shumer propone una strategia individuale:

  1. Usare seriamente l’AI, non come motore di ricerca.

  2. Sperimentare ogni giorno.

  3. Automatizzare parti ripetitive del proprio lavoro.

  4. Rafforzare la resilienza finanziaria.

  5. Investire in competenze difficili da sostituire: relazioni, responsabilità legale, presenza fisica.

L’idea centrale è che essere tra i primi ad adattarsi offre un vantaggio temporaneo.


La dimensione geopolitica e il rischio sistemico

Il post allarga lo sguardo oltre il lavoro. Amodei viene citato per un esperimento mentale: immaginare la nascita di un “Paese” composto da milioni di intelligenze superiori agli esseri umani, operative 24 ore su 24.

Secondo questa visione, l’AI rappresenterebbe al tempo stesso:

  • La più grande opportunità scientifica della storia, con possibili progressi in medicina e ricerca.

  • Un rischio sistemico, se fuori controllo o sfruttata per fini autoritari.

Shumer sottolinea che gli stessi sviluppatori sarebbero divisi tra entusiasmo e preoccupazione.


Perché il post ha colpito così tanto

Il successo del testo non dipende solo dal contenuto tecnico. Il motivo è il tono: non una previsione astratta, ma il racconto di qualcuno che afferma di aver già visto il proprio lavoro trasformarsi.

La sua tesi, in sintesi, è questa:

  • L’AI non è più una curiosità.

  • Non è una moda passeggera.

  • Non è una tecnologia lontana dieci anni.

È, secondo lui, una trasformazione già iniziata, con effetti che potrebbero diventare evidenti nel giro di pochi anni.


Tra percezione e realtà

Resta aperta la domanda cruciale: la visione di Shumer è un’analisi lucida o una lettura influenzata dall’entusiasmo del settore?

Ciò che è certo è che il dibattito sull’intelligenza artificiale sta cambiando tono. Non si parla più solo di potenzialità future, ma di impatti concreti su professioni e modelli economici.

Se la sua previsione si rivelerà corretta, i prossimi due-cinque anni potrebbero segnare una riconfigurazione profonda del lavoro cognitivo. Se invece la crescita rallentasse, il post resterà come testimonianza di una fase di forte accelerazione percepita.

In entrambi i casi, il messaggio centrale rimane: ignorare l’AI oggi potrebbe significare trovarsi impreparati domani.