Nel test di simulazione di Anthropic, gli AI Agents hanno scoperto una vulnerabilità nei contratti intelligenti del valore di 4,6 milioni di dollari
Secondo ChainCatcher, una recente ricerca di Anthropic mostra che gli AI Agents possiedono notevoli capacità di attacco on-chain: durante test simulati su smart contract realmente hackerati tra il 2020 e il 2025, Claude Opus 4.5, Sonnet 4.5 e GPT-5 hanno riprodotto vulnerabilità sfruttate per un valore totale di circa 4,6 milioni di dollari; inoltre, durante la scansione di 2.849 contratti senza vulnerabilità note, due modelli hanno scoperto due nuove vulnerabilità zero-day e simulato con successo un profitto.
La ricerca sottolinea che i profitti degli attacchi on-chain tramite AI sono raddoppiati circa ogni 1,3 mesi nell'ultimo anno, e che la tecnologia è ormai pienamente in grado di sfruttare vulnerabilità in modo autonomo e redditizio.
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
L'oro spot è sceso dello 0,30%, in calo dell'1% questa settimana.
Strive sollecita MSCI a non escludere le aziende con riserve in bitcoin
