IBM crolla in borsa del 13%: la startup Anthropic scuote i mercati annunciando la fine dell’era COBOL

Un singolo annuncio sull’intelligenza artificiale applicata ai sistemi informatici degli anni Sessanta ha bruciato miliardi di capitalizzazione e riaperto il dibattito sul futuro dei mainframe IBM

Il titolo di IBM ha vissuto la peggiore seduta degli ultimi 25 anni, crollando di oltre il 13% a Wall Street e di quasi il 18% a Milano. Il catalizzatore è stato un annuncio di Anthropic, startup americana specializzata in intelligenza artificiale, che ha comunicato di aver sviluppato nuove funzionalità del proprio strumento Claude Code specificamente pensate per modernizzare il COBOL — il linguaggio di programmazione che da sessant’anni costituisce il cuore pulsante dei sistemi informatici di banche, assicurazioni, compagnie aeree e pubblica amministrazione di mezzo mondo.


Il crollo e le sue cause

Il 24 febbraio 2026 resterà segnato nei libri contabili di IBM come uno dei giorni più bui della lunga storia del gruppo di Armonk, New York. Il titolo ha chiuso la seduta a 223,35 dollari per azione, con una flessione del 13,18%, bruciando in poche ore miliardi di dollari di capitalizzazione di mercato. Il calo ha portato le perdite da inizio anno oltre il 24%, avvicinando febbraio 2026 al peggior mese borsistico per IBM dal lontano 1968.

La scintilla è partita da un post pubblicato sul blog ufficiale di Anthropic, in cui la società — fondata nel 2021 e guidata da Dario Amodei — ha illustrato come il proprio strumento Claude Code possa automatizzare le attività di esplorazione e analisi che rendono così complessa e costosa la modernizzazione dei sistemi scritti in COBOL (Common Business-Oriented Language). Un annuncio apparentemente tecnico, ma con implicazioni economiche che il mercato ha immediatamente recepito nella sua brutalità.

Non ha perso terreno soltanto IBM: anche Accenture e Cognizant Technology Solutions, due colossi della consulenza tecnologica con importanti divisioni dedicata alla modernizzazione dei sistemi legacy, hanno registrato flessioni significative durante la stessa seduta. Il segnale è inequivocabile: gli investitori temono che l’intelligenza artificiale possa ridurre drasticamente il bisogno di costosi team di consulenti specializzati nel codice ereditato dal passato.


Che cos’è il COBOL e perché è ancora ovunque

Per capire perché un singolo annuncio possa affondare uno dei giganti tecnologici mondiali, occorre comprendere la pervasività quasi invisibile del COBOL nelle infrastrutture digitali globali. Sviluppato alla fine degli anni Cinquanta, questo linguaggio — il cui nome significa letteralmente “linguaggio comune orientato al business” — è stato progettato per gestire con precisione assoluta le operazioni matematiche decimali richieste dai sistemi contabili e transazionali.

Settant’anni dopo, il COBOL è ancora in funzione in misura impressionante. Secondo le stime di Anthropic stessa, centinaia di miliardi di righe di codice COBOL girano quotidianamente in produzione, gestendo sistemi critici nella finanza, nel trasporto aereo e nella pubblica amministrazione. Negli Stati Uniti, circa il 95% delle transazioni agli sportelli bancomat (ATM) passa ancora da codice COBOL. In Italia, le ricerche di profili con competenze in questo linguaggio da parte di enti come Sogei, la società informatica del Ministero dell’Economia, testimoniano una realtà analoga.

La ragione per cui questi sistemi non sono stati sostituiti non è nostalgia: è che farlo è straordinariamente difficile e costoso. Riscrivere un sistema COBOL non significa semplicemente tradurre righe di codice in un linguaggio moderno. Significa ricostruire decenni di logiche di business accumulate strato su strato, spesso senza documentazione adeguata, e garantire al tempo stesso una continuità operativa praticamente assoluta. In settori come quello bancario, dove ogni transazione deve essere certificata e auditabile, i rischi di un’operazione del genere sono enormi.

A questo si aggiunge il problema demografico: i programmatori che conoscono il COBOL sono sempre meno, poiché si tratta in gran parte di professionisti formati tra gli anni Sessanta e Ottanta, molti dei quali sono ormai in pensione o prossimi al ritiro. La combinazione tra scarso know-how disponibile e costi proibitivi ha di fatto congelato per decenni il rinnovamento di questi sistemi.


Cosa ha annunciato esattamente Anthropic

Il 23 febbraio 2026, Anthropic ha pubblicato un post dettagliato — accompagnato da un Code Modernization Playbook — in cui spiega come Claude Code possa affrontare proprio quella fase di analisi e comprensione del codice legacy che storicamente ha rappresentato l’ostacolo principale alla modernizzazione.

Secondo quanto illustrato dall’azienda, lo strumento è in grado di:

  • Mappare le dipendenze attraverso migliaia di righe di codice, creando una visione strutturata dell’architettura esistente;
  • Documentare automaticamente i flussi di lavoro che in passato richiedevano mesi di lavoro da parte di team specializzati;
  • Identificare rischi e componenti migrabili in sicurezza, distinguendo le parti del codice che possono essere trasferite senza impatto da quelle che richiedono interventi più profondi;
  • Proporre una strategia di migrazione graduale verso linguaggi moderni come Java o Python, procedendo componente per componente con test sistematici prima di ogni passaggio.

Il messaggio di fondo di Anthropic è sintetizzato in una frase del blog post: <em>”La modernizzazione del codice legacy è rimasta bloccata per anni perché comprendere il codice esistente costava più che riscriverlo. L’intelligenza artificiale capovolge questa equazione.”</em>

Oltre alle funzionalità COBOL, nella stessa occasione Anthropic ha presentato Claude Code Security, un’estensione dello stesso ecosistema dedicata all’analisi delle vulnerabilità nel codice software, con conseguenti pressioni anche sul comparto della cybersecurity.


La reazione degli analisti e la difesa di IBM

La risposta della comunità finanziaria non si è fatta attendere. Diversi analisti si sono affrettati a contestualizzare il panico del mercato, sottolineando che la minaccia potrebbe essere meno immediata di quanto le vendite in borsa suggerissero.

Amit Daryanani, analista di Evercore ISI, ha ricordato che IBM aveva già offerto da anni diverse soluzioni di modernizzazione ai propri clienti mainframe, eppure questi continuano a preferire la piattaforma. La questione non è solo tecnica, ma anche legata alla certificazione dei sistemi, alla compliance normativa e alla gestione del rischio operativo, aspetti su cui i mainframe IBM offrono garanzie consolidate e difficilmente replicabili nel breve periodo.

Wedbush, altra casa di analisi americana, ha confermato il proprio rating su IBM pur riconoscendo la legittimità delle preoccupazioni del mercato. Gli analisti hanno evidenziato che la piattaforma mainframe di IBM supporta molti linguaggi oltre al COBOL e resta integrata in ambienti mission-critical attraverso servizi ad alto valore aggiunto: dalla migrazione strutturata alla validazione della conformità, dall’integrazione di sistemi alla sicurezza crittografica — con il sistema z/OS e Cybervault capace di gestire 25 miliardi di transazioni crittografate al giorno.

Wedbush ha inoltre sottolineato un punto cruciale: gli strumenti di modernizzazione basati sull’intelligenza artificiale hanno maggiori probabilità di stimolare un nuovo ciclo di trasformazione — potenzialmente a vantaggio anche di IBM — piuttosto che bypassare del tutto la base installata del gruppo.


IBM aveva già visto arrivare questa sfida

Un elemento spesso trascurato nel racconto del crollo in borsa è che IBM non è stata colta di sorpresa da questa evoluzione. Già nel 2023 l’azienda aveva presentato strumenti basati sull’intelligenza artificiale per la conversione del COBOL in Java, tra cui watsonx Code Assistant for Z, parte del più ampio ecosistema watsonx che il gruppo ha sviluppato proprio per non farsi trovare impreparato davanti all’avanzata dell’AI generativa.

Il paradosso è evidente, come ha notato anche il portale specializzato TechBuzz: IBM è stata tra i pionieri mondiali della ricerca sull’intelligenza artificiale — il programma Watson era sulla bocca di tutti un decennio fa. Ora viene messa sotto pressione da una startup fondata appena tre anni fa che ha identificato il suo punto debole più esposto.

La migrazione dai mainframe, del resto, non è una novità dell’era dell’AI. Negli ultimi anni diversi hyperscaler e system integrator internazionali hanno promosso iniziative analoghe, spesso con risultati parziali proprio a causa della complessità tecnica citata in precedenza. Ciononostante, IBM ha continuato a registrare ricavi da mainframe tra i più elevati degli ultimi vent’anni, a dimostrazione che la presenza sul mercato dei sistemi legacy non dipende soltanto dalla tecnologia disponibile, ma da un complesso intreccio di fattori regolatori, contrattuali e operativi.


La questione dell’affidabilità nei sistemi critici

Aldilà delle valutazioni borsistiche, resta aperto un interrogativo fondamentale che il mercato tende a trascurare nell’immediato: quanto può essere affidabile un sistema di intelligenza artificiale nell’operare su codice mission-critical?

I modelli linguistici di grandi dimensioni, per quanto sofisticati, operano in modo probabilistico: forniscono risposte statisticamente plausibili, non deterministicamente corrette. I sistemi COBOL che gestiscono transazioni bancarie, invece, richiedono un’accuratezza assoluta, con margini di errore prossimi allo zero e disponibilità operativa praticamente continua. Un errore in una migrazione bancaria può significare milioni di transazioni errate, con conseguenze regolamentari e reputazionali gravissime.

Questo non rende impossibile l’utilizzo dell’AI nel processo di modernizzazione, ma suggerisce che il percorso più realistico non è una sostituzione rapida e radicale, bensì una progressiva integrazione tra strumenti automatizzati e supervisione umana qualificata. La fase di validazione — il vero collo di bottiglia in qualsiasi migrazione di sistemi critici — rimane un processo che richiede competenze umane approfondite, test estensivi e certificazioni normative che nessuna soluzione automatizzata può sostituire integralmente nel breve periodo.

L’AI può ridurre drasticamente i tempi e i costi della fase di analisi, ma la responsabilità finale della migrazione di sistemi che muovono trilioni di dollari ogni giorno difficilmente potrà essere delegata a un sistema probabilistico senza supervisione umana per molti anni ancora.


Le implicazioni più ampie per il settore tecnologico

Il caso IBM non è un episodio isolato. Nelle settimane precedenti, pressioni simili avevano già colpito diversi attori del software enterprise e del mondo SaaS, in un clima di mercato sempre più influenzato dai timori — ma anche dalle opportunità — legate alla diffusione dell’intelligenza artificiale generativa.

Il pattern si ripete con una certa regolarità: un annuncio di una delle grandi aziende di AI mostra come l’automazione possa intaccare un’attività tradizionalmente ad alta intensità di lavoro specializzato, e il mercato reagisce penalizzando i soggetti che da quella attività traggono ricavi rilevanti. Accade con la consulenza, con la programmazione, con l’analisi documentale, e ora con la modernizzazione dei sistemi legacy.

La risposta razionale a questa dinamica non è il catastrofismo. Nei prossimi anni, la domanda di competenze per la gestione della transizione tecnologica — migrazione di sistemi, integrazione dell’AI con le infrastrutture esistenti, gestione della compliance in ambienti ibridi — è destinata a crescere significativamente, creando nuovi profili professionali anche dove altri vengono messi sotto pressione.

Per IBM, la sfida è trasformare la propria posizione da gestore di sistemi legacy a protagonista attivo della loro modernizzazione: un ruolo che il gruppo stava già cercando di costruire con watsonx e le altre iniziative AI, e che ora dovrà accelerare con maggiore determinazione per riconquistare la fiducia degli investitori.