Claude Mythos изтече от Anthropic — кибер акциите паднаха с 14.5 милиарда

Грешка в системите на Anthropic изтече документация за Claude Mythos — AI модел с безпрецедентни кибер рискове. Акциите паднаха за часове.

Claude Mythos изтече от Anthropic — кибер акциите паднаха с 14.5 милиарда

Когато компанията, която твърди, че прави AI по най-безопасния начин, не може да защити собствените си системи — имаме проблем.

На 27 март 2026 година нещо изненадващо се появи в публичното пространство: документация за Claude Mythos — най-мощният AI модел, който Anthropic някога е създавала. Не беше планирано представяне. Беше теч.

Как се случи?

Грешка в конфигурацията на системата за управление на съдържанието (CMS) на Anthropic остави чернова на блог пост в публично достъпно и индексируемо хранилище. Всеки можеше да го намери.

В документа се описва модел, който Anthropic нарича „стъпаловидна промяна" (step change) в AI — по-мощен от техните Opus модели, които досега бяха върхът.

Новото ниво се казва "Capybara" — по-голямо и по-интелигентно от всичко преди.

Защо се сринаха кибер акциите?

В изтеклия документ пише нещо, което уплаши инвеститорите: моделът „представлява безпрецедентни рискове за киберсигурността."

Реакцията беше мигновена. Кибер акциите загубиха $14.5 милиарда за часове. CrowdStrike, който вече е надолу с 21% за 2026 година, беше сред най-засегнатите.

Логиката е проста: ако AI модел може да открива и експлоатира софтуерни уязвимости, тогава хакерите могат да пуснат множество кампании едновременно. А агентите стават все по-автономни.

Anthropic частно предупреждава правителствени служители, че мащабни кибератаки стават „много по-вероятни" през 2026.

Двоен теч за една седмица

Ако един теч не беше достатъчен — дни по-късно Anthropic изтече и 512,000 реда изходен код на Claude Code чрез npm пакет. Отново случайно.

Два сериозни инцидента за сигурността за по-малко от седмица. От компанията, която се позиционира като лидер в отговорното AI.

Какво означава това?

Между нас казано, проблемът не е в самия модел. AI модели ще стават все по-мощни — това е неизбежно. Проблемът е, че дори компаниите, които изграждат тези модели, не могат да ги контролират напълно.

Mythos все още не е пуснат публично — той е „изключително ресурсоемък и скъп за работа." Anthropic казва, че работи по оптимизацията преди евентуален пуск.

Но светът вече знае какво идва. И кибер индустрията трепери.

Два въпроса за размисъл: Ако AI може да открива уязвимости по-бързо от хората — кой го ползва пръв, защитниците или нападателите? И ако компанията зад „безопасния AI" не може да защити собствените си тайни — кой може?

Сподели:👤🐦💼