Anthropic, la società statunitense che sviluppa modelli di intelligenza artificiale, ha reso noto un episodio preoccupante che evidenzia i rischi concreti legati all’uso delle IA in ambito informatico. Secondo quanto comunicato dall’azienda, un gruppo di hacker cinesi, avrebbe utilizzato uno dei suoi prodotti, Claude Code, per compiere un esteso attacco informatico.
Le vittime sono state circa 30, tra grandi aziende tecnologiche, istituzioni finanziarie, imprese chimiche e agenzie governative. In almeno quattro casi, l’attacco ha avuto successo, permettendo ai criminali di accedere a dati sensibili e compromettere i sistemi dell’obiettivo.
Negli ultimi due anni, casi di IA impiegate in attacchi informatici non sono stati rari. Tuttavia, secondo Anthropic, questo episodio segna una nuova soglia di gravità, in quanto Claude Code è riuscito a svolgere la maggior parte delle operazioni in autonomia, con un coinvolgimento umano minimo. Più dell’80 per cento del lavoro, normalmente svolto da hacker, è stato completato dal modello in tempi decisamente più brevi rispetto a quanto avviene tradizionalmente. L’azienda ha sottolineato come la rapidità con cui le capacità di programmazione dei sistemi di intelligenza artificiale si sono evolute abbia superato le proprie aspettative, rivelando quanto possa essere fragile la gestione e il controllo di tali strumenti.
Anthropic ha dichiarato di aver scoperto l’attacco a settembre e di aver avviato un’indagine interna per capire come fosse stato possibile. L’azienda ha informato le organizzazioni coinvolte, i cui nomi non sono stati divulgati, e ha deciso di rendere pubblico il caso per mettere in guardia aziende e governi. L’obiettivo dichiarato è sensibilizzare sulla necessità di rafforzare i sistemi di difesa informatica, considerando che attacchi di questo tipo potrebbero diventare sempre più frequenti e facili da realizzare. Contestualmente, Anthropic ha iniziato a lavorare per impedire che i propri modelli possano essere sfruttati per operazioni simili in futuro.
Secondo l’azienda, l’attacco è stato possibile grazie a tre caratteristiche principali dei modelli di intelligenza artificiale sviluppati nell’ultimo anno: la capacità di eseguire istruzioni complesse e compiti sofisticati, la capacità di agire come agenti autonomi, concatenando compiti a partire da un singolo comando umano, e la capacità di usare software esterni online a proprio vantaggio. Queste caratteristiche, sebbene rappresentino progressi tecnologici significativi, dimostrano anche quanto facilmente un sistema potente e mal controllato possa essere manipolato per scopi malevoli.
Anthropic ha analizzato l’attacco suddividendolo in tre fasi distinte.
Nella prima fase, gli hacker umani hanno selezionato gli obiettivi da colpire – per esempio un’agenzia governativa – e hanno sviluppato un piano basato sul presupposto che Claude Code avrebbe svolto tutte le operazioni più complesse e dispendiose in termini di tempo.
Per aggirare i protocolli di sicurezza del modello, progettati per prevenire usi malevoli, gli hacker hanno frammentato le istruzioni in piccoli compiti separati e hanno fatto credere al sistema di operare per una società informatica legittima impegnata in test di difesa, che normalmente servono alle aziende per valutare la propria sicurezza.
La seconda fase ha visto Claude Code operare praticamente in autonomia. Il modello ha ispezionato i portali delle aziende e delle agenzie target, identificato le vulnerabilità presenti, e tentato di infiltrarsi per scaricare dati sensibili, riuscendoci in alcuni casi. Secondo Anthropic, il programma ha individuato gli account con le autorizzazioni più elevate su ciascuna piattaforma, ha creato backdoor, cioè accessi nascosti ai sistemi, e ha sottratto informazioni in modo silenzioso. Questa fase, normalmente molto lunga e affidata a team di più hacker, è stata completata dal modello a velocità estremamente superiore, effettuando migliaia di richieste al secondo.
Nella fase finale, Claude ha redatto una documentazione dettagliata dell’attacco, includendo le credenziali rubate, gli obiettivi raggiunti e persino consigli su come procedere in futuro, su richiesta degli hacker. Questo passaggio evidenzia quanto un modello di IA possa non solo automatizzare le operazioni complesse, ma anche produrre report e strategie, compiti che tradizionalmente richiederebbero supervisione umana e coordinamento.
Il caso solleva interrogativi seri e immediati. La tecnologia IA, pur offrendo capacità straordinarie, si sta evolvendo più rapidamente delle difese e dei sistemi di controllo. La vulnerabilità intrinseca di modelli come Claude Code diventa evidente quando, con intervento umano minimo, possono essere manipolati per scopi criminali di grande impatto. Anthropic stessa ammette di lavorare per limitare questi rischi, ma il problema centrale resta: sistemi così avanzati, se utilizzati impropriamente, possono produrre danni significativi in tempi brevissimi, e le attuali misure di sicurezza potrebbero non essere sufficienti a prevenire nuove violazioni.
In sintesi, questo episodio non è solo un allarme per aziende e governi, ma un monito sull’urgenza di ripensare la sicurezza e la responsabilità nell’uso dell’intelligenza artificiale. L’evento dimostra chiaramente che la potenza tecnica dei modelli di IA deve essere accompagnata da un altrettanto rigoroso controllo etico e operativo, per evitare che strumenti creati per semplificare compiti complessi diventino armi nelle mani di chi intende sfruttarli per scopi malevoli.


