Anthropic скрывает новую ИИ-модель после обнаружения тысяч внешних уязвимостей
Ключевые тезисы:
- Модель Claude Mythos Preview самостоятельно обнаружила уязвимости нулевого дня в крупнейших ОС и браузерах — включая 27-летний баг в OpenBSD и 17-летнюю RCE-уязвимость во FreeBSD.
- Anthropic не выпускает модель публично и запускает Project Glasswing — закрытую инициативу с AWS, Apple, Google, Microsoft, Nvidia и ещё 40+ организациями.
- Компания выделяет $100 млн в виде кредитов на использование модели и жертвует $4 млн напрямую в open-source организации по защите безопасности.
- Те же улучшения, что делают модель эффективной в поиске уязвимостей, делают её опасной — она умеет их и эксплуатировать.
- Anthropic уже провела закрытые брифинги для высокопоставленных чиновников правительства США о полных возможностях Mythos Preview.
Самая мощная ИИ-модель Anthropic уже обнаружила тысячи уязвимостей в кибербезопасности — во всех крупных операционных системах и веб-браузерах. Ответом компании стало не публичное развёртывание, а тихая передача доступа организациям, ответственным за работу интернета.
Эта модель — Claude Mythos Preview, а инициатива называется Project Glasswing.
Модель, которая переросла собственные бенчмарки
Mythos Preview не обучалась специально для работы в области кибербезопасности. По словам Anthropic, её возможности «возникли как следствие общих улучшений в коде, рассуждениях и автономности». При этом те же улучшения, которые делают модель эффективной в поиске и исправлении уязвимостей, делают её столь же эффективной в их эксплуатации.
Mythos Preview достигла такого уровня, что фактически исчерпала существующие бенчмарки безопасности — и Anthropic была вынуждена переключиться на новые задачи в реальном мире: уязвимости нулевого дня, ранее неизвестные разработчикам ПО.
Самые резонансные находки: 27-летний баг в OpenBSD — ОС, известной высоким уровнем безопасности. Во FreeBSD модель полностью автономно нашла и эксплуатировала 17-летнюю RCE-уязвимость (CVE-2026-4747), позволяющую неавторизованному пользователю из любой точки интернета получить полный контроль над сервером под NFS. После начального промпта участие человека не требовалось.
«Эта модель умеет выстраивать цепочки из трёх, четырёх, а иногда и пяти уязвимостей, которые в совокупности дают какой-то сложный итоговый результат. За последние несколько недель я нашёл больше багов, чем за всю остальную жизнь.»
Николас Карлини, команда Anthropic Research
Почему модель не выпускают?
Ньютон Ченг, руководитель Frontier Red Team Cyber в Anthropic, объяснил позицию компании прямо: «Мы не планируем делать Claude Mythos Preview общедоступной из-за её возможностей в области кибербезопасности. Судя по темпам развития ИИ, не пройдёт много времени, как такие возможности распространятся — возможно, среди акторов, не приверженных безопасному применению. Последствия для экономики, общественной безопасности и национальной безопасности могут быть катастрофическими».
Реальный прецедент: Anthropic раскрыла первый задокументированный случай кибератаки, по большей части осуществлённой с помощью ИИ — китайская группа, связанная с государством, использовала агентов ИИ для автономного проникновения примерно в 30 целей по всему миру, где ИИ самостоятельно выполнял большинство тактических операций.
Компания также провела закрытые брифинги для высокопоставленных чиновников правительства США о полных возможностях Mythos Preview. Разведывательное сообщество сейчас активно изучает, как модель может изменить как наступательные, так и оборонительные хакерские операции.
Проблема open-source
Особое измерение Project Glasswing — защита программного обеспечения с открытым исходным кодом. Джим Землин, CEO Linux Foundation, сформулировал суть проблемы прямо: «В прошлом экспертиза в области безопасности была привилегией организаций с большими командами. Мейнтейнеры open-source-проектов, чьё ПО лежит в основе критической инфраструктуры всего мира, исторически были предоставлены самим себе».
Anthropic пожертвовала $2,5 млн в Alpha-Omega и OpenSSF через Linux Foundation и $1,5 млн в Apache Software Foundation. Это даёт мейнтейнерам критических open-source кодовых баз доступ к ИИ-сканированию уязвимостей — в масштабах, ранее недостижимых для них.
Что дальше?
Anthropic заявляет, что в конечном счёте планирует развернуть модели класса Mythos в масштабе — но только после внедрения новых защитных механизмов. Компания намерена сначала отработать их с предстоящей моделью Claude Opus — на модели с более низким уровнем риска.
Конкурентный ландшафт уже меняется. В феврале OpenAI выпустила GPT-5.3-Codex — первую модель, классифицированную компанией как высококомпетентная в задачах кибербезопасности в рамках собственного Preparedness Framework. Шаг Anthropic с Glasswing сигнализирует: передовые лаборатории рассматривают контролируемое развёртывание — а не открытый выпуск — как новый стандарт для моделей такого уровня возможностей.
Удержится ли этот стандарт по мере дальнейшего распространения подобных возможностей — вопрос, на который ни одна инициатива пока не может дать окончательного ответа.
Читайте также

Клики из поиска стремительно падают, а ИИ-сводки захватывают внимание пользователей. Разбираем принципиальную разницу между AEO и GEO — и почему бренды, не оптимизированные для ИИ-ответов, рискуют исчезнуть из поля зрения покупателей.
11 апреля 2026

Крупные технологические компании разрабатывают агентные ИИ-системы со встроенными контрольными точками — чтобы защитить пользователей от несанкционированных действий, утечки данных и финансовых потерь.
11 апреля 2026

OpenAI делает серьёзную ставку на аудио‑ИИ — и речь не только о том, чтобы улучшить голос ChatGPT. Как сообщает The Information, за последние два месяца компания объединила несколько инженерных, продуктовых и исследовательских команд, чтобы кардинально переработать свои аудиомодели.
06 января 2026