Anthropic скрывает новую ИИ-модель после обнаружения тысяч внешних уязвимостей

11 апреля 2026

Ключевые тезисы:

  • Модель Claude Mythos Preview самостоятельно обнаружила уязвимости нулевого дня в крупнейших ОС и браузерах — включая 27-летний баг в OpenBSD и 17-летнюю RCE-уязвимость во FreeBSD.
  • Anthropic не выпускает модель публично и запускает Project Glasswing — закрытую инициативу с AWS, Apple, Google, Microsoft, Nvidia и ещё 40+ организациями.
  • Компания выделяет $100 млн в виде кредитов на использование модели и жертвует $4 млн напрямую в open-source организации по защите безопасности.
  • Те же улучшения, что делают модель эффективной в поиске уязвимостей, делают её опасной — она умеет их и эксплуатировать.
  • Anthropic уже провела закрытые брифинги для высокопоставленных чиновников правительства США о полных возможностях Mythos Preview.

Самая мощная ИИ-модель Anthropic уже обнаружила тысячи уязвимостей в кибербезопасности — во всех крупных операционных системах и веб-браузерах. Ответом компании стало не публичное развёртывание, а тихая передача доступа организациям, ответственным за работу интернета.

Эта модель — Claude Mythos Preview, а инициатива называется Project Glasswing.

Партнёры запуска
Amazon Web Services Apple Broadcom Cisco CrowdStrike Google JPMorgan Chase Linux Foundation Microsoft Nvidia Palo Alto Networks + 40 организаций
$100M
кредитов на использование Mythos Preview
$4M
прямые пожертвования в open-source организации
40+
дополнительных организаций с доступом к модели
27 лет
возраст старейшего найденного бага в OpenBSD

Модель, которая переросла собственные бенчмарки

Mythos Preview не обучалась специально для работы в области кибербезопасности. По словам Anthropic, её возможности «возникли как следствие общих улучшений в коде, рассуждениях и автономности». При этом те же улучшения, которые делают модель эффективной в поиске и исправлении уязвимостей, делают её столь же эффективной в их эксплуатации.

Mythos Preview достигла такого уровня, что фактически исчерпала существующие бенчмарки безопасности — и Anthropic была вынуждена переключиться на новые задачи в реальном мире: уязвимости нулевого дня, ранее неизвестные разработчикам ПО.

Самые резонансные находки: 27-летний баг в OpenBSD — ОС, известной высоким уровнем безопасности. Во FreeBSD модель полностью автономно нашла и эксплуатировала 17-летнюю RCE-уязвимость (CVE-2026-4747), позволяющую неавторизованному пользователю из любой точки интернета получить полный контроль над сервером под NFS. После начального промпта участие человека не требовалось.

«Эта модель умеет выстраивать цепочки из трёх, четырёх, а иногда и пяти уязвимостей, которые в совокупности дают какой-то сложный итоговый результат. За последние несколько недель я нашёл больше багов, чем за всю остальную жизнь.»

Николас Карлини, команда Anthropic Research

Почему модель не выпускают?

Ньютон Ченг, руководитель Frontier Red Team Cyber в Anthropic, объяснил позицию компании прямо: «Мы не планируем делать Claude Mythos Preview общедоступной из-за её возможностей в области кибербезопасности. Судя по темпам развития ИИ, не пройдёт много времени, как такие возможности распространятся — возможно, среди акторов, не приверженных безопасному применению. Последствия для экономики, общественной безопасности и национальной безопасности могут быть катастрофическими».

Реальный прецедент: Anthropic раскрыла первый задокументированный случай кибератаки, по большей части осуществлённой с помощью ИИ — китайская группа, связанная с государством, использовала агентов ИИ для автономного проникновения примерно в 30 целей по всему миру, где ИИ самостоятельно выполнял большинство тактических операций.

Компания также провела закрытые брифинги для высокопоставленных чиновников правительства США о полных возможностях Mythos Preview. Разведывательное сообщество сейчас активно изучает, как модель может изменить как наступательные, так и оборонительные хакерские операции.

Проблема open-source

Особое измерение Project Glasswing — защита программного обеспечения с открытым исходным кодом. Джим Землин, CEO Linux Foundation, сформулировал суть проблемы прямо: «В прошлом экспертиза в области безопасности была привилегией организаций с большими командами. Мейнтейнеры open-source-проектов, чьё ПО лежит в основе критической инфраструктуры всего мира, исторически были предоставлены самим себе».

Anthropic пожертвовала $2,5 млн в Alpha-Omega и OpenSSF через Linux Foundation и $1,5 млн в Apache Software Foundation. Это даёт мейнтейнерам критических open-source кодовых баз доступ к ИИ-сканированию уязвимостей — в масштабах, ранее недостижимых для них.

Что дальше?

Anthropic заявляет, что в конечном счёте планирует развернуть модели класса Mythos в масштабе — но только после внедрения новых защитных механизмов. Компания намерена сначала отработать их с предстоящей моделью Claude Opus — на модели с более низким уровнем риска.

Конкурентный ландшафт уже меняется. В феврале OpenAI выпустила GPT-5.3-Codex — первую модель, классифицированную компанией как высококомпетентная в задачах кибербезопасности в рамках собственного Preparedness Framework. Шаг Anthropic с Glasswing сигнализирует: передовые лаборатории рассматривают контролируемое развёртывание — а не открытый выпуск — как новый стандарт для моделей такого уровня возможностей.

Удержится ли этот стандарт по мере дальнейшего распространения подобных возможностей — вопрос, на который ни одна инициатива пока не может дать окончательного ответа.

Читайте также

Как AEO и GEO меняют обнаружение брендов в эпоху ИИ в 2026 годуCL
Как AEO и GEO меняют обнаружение брендов в эпоху ИИ в 2026 году

Клики из поиска стремительно падают, а ИИ-сводки захватывают внимание пользователей. Разбираем принципиальную разницу между AEO и GEO — и почему бренды, не оптимизированные для ИИ-ответов, рискуют исчезнуть из поля зрения покупателей.

11 апреля 2026

Почему такие компании, как Apple, создают ИИ-агентов с ограничениямиCL
Почему такие компании, как Apple, создают ИИ-агентов с ограничениями

Крупные технологические компании разрабатывают агентные ИИ-системы со встроенными контрольными точками — чтобы защитить пользователей от несанкционированных действий, утечки данных и финансовых потерь.

11 апреля 2026

OpenAI делает серьёзную ставку на аудио‑ИИCL
OpenAI делает серьёзную ставку на аудио‑ИИ

OpenAI делает серьёзную ставку на аудио‑ИИ — и речь не только о том, чтобы улучшить голос ChatGPT. Как сообщает The Information, за последние два месяца компания объединила несколько инженерных, продуктовых и исследовательских команд, чтобы кардинально переработать свои аудиомодели.

06 января 2026