Claude Mythos изтече от Anthropic — кибер акциите паднаха с 14.5 милиарда
Грешка в системите на Anthropic изтече документация за Claude Mythos — AI модел с безпрецедентни кибер рискове. Акциите паднаха за часове.

Когато компанията, която твърди, че прави AI по най-безопасния начин, не може да защити собствените си системи — имаме проблем.
На 27 март 2026 година нещо изненадващо се появи в публичното пространство: документация за Claude Mythos — най-мощният AI модел, който Anthropic някога е създавала. Не беше планирано представяне. Беше теч.
Как се случи?
Грешка в конфигурацията на системата за управление на съдържанието (CMS) на Anthropic остави чернова на блог пост в публично достъпно и индексируемо хранилище. Всеки можеше да го намери.
В документа се описва модел, който Anthropic нарича „стъпаловидна промяна" (step change) в AI — по-мощен от техните Opus модели, които досега бяха върхът.
Новото ниво се казва "Capybara" — по-голямо и по-интелигентно от всичко преди.
Защо се сринаха кибер акциите?
В изтеклия документ пише нещо, което уплаши инвеститорите: моделът „представлява безпрецедентни рискове за киберсигурността."
Реакцията беше мигновена. Кибер акциите загубиха $14.5 милиарда за часове. CrowdStrike, който вече е надолу с 21% за 2026 година, беше сред най-засегнатите.
Логиката е проста: ако AI модел може да открива и експлоатира софтуерни уязвимости, тогава хакерите могат да пуснат множество кампании едновременно. А агентите стават все по-автономни.
Anthropic частно предупреждава правителствени служители, че мащабни кибератаки стават „много по-вероятни" през 2026.
Двоен теч за една седмица
Ако един теч не беше достатъчен — дни по-късно Anthropic изтече и 512,000 реда изходен код на Claude Code чрез npm пакет. Отново случайно.
Два сериозни инцидента за сигурността за по-малко от седмица. От компанията, която се позиционира като лидер в отговорното AI.
Какво означава това?
Между нас казано, проблемът не е в самия модел. AI модели ще стават все по-мощни — това е неизбежно. Проблемът е, че дори компаниите, които изграждат тези модели, не могат да ги контролират напълно.
Mythos все още не е пуснат публично — той е „изключително ресурсоемък и скъп за работа." Anthropic казва, че работи по оптимизацията преди евентуален пуск.
Но светът вече знае какво идва. И кибер индустрията трепери.
Два въпроса за размисъл: Ако AI може да открива уязвимости по-бързо от хората — кой го ползва пръв, защитниците или нападателите? И ако компанията зад „безопасния AI" не може да защити собствените си тайни — кой може?


