14 апреля 2026 года OpenAI официально запустила GPT-5.4-Cyber — специализированную версию флагманской модели GPT-5.4, заточенную под задачи защитной кибербезопасности. Это не просто точная настройка: по сути, это принципиально новый подход к тому, кому и на каких условиях AI-компании доверяют мощные offensive-возможности своих моделей.
Что такое GPT-5.4-Cyber
GPT-5.4-Cyber — это «cyber-permissive» вариант GPT-5.4, то есть модель с намеренно сниженным порогом отказов на запросы, связанные с безопасностью. Стандартные потребительские модели блокируют большинство запросов на анализ уязвимостей, написание эксплойтов или реверс-инжиниринг. GPT-5.4-Cyber — нет, при условии, что запрос исходит от верифицированного специалиста.
Ключевая новинка — бинарный реверс-инжиниринг без исходного кода: модель умеет анализировать скомпилированные исполняемые файлы, находить в них уязвимости и вредоносный код напрямую. Раньше такая возможность в публичных AI-моделях не заявлялась.
Производительность на бенчмарках
OpenAI показала впечатляющую динамику роста на CTF-бенчмарках:
| Модель | Дата | Результат на CTF |
|---|---|---|
| GPT-5 | Август 2025 | 27% |
| GPT-5.1-Codex-Max | Ноябрь 2025 | 76% |
| GPT-5.3-Codex | Февраль 2026 | ~85% (High Risk) |
| GPT-5.4-Cyber | Апрель 2026 | не раскрыт |
Для понимания масштаба: GPT-5.3-Codex стал первой моделью OpenAI, которая достигла уровня «High Cybersecurity Risk» по внутренней системе Preparedness Framework. GPT-5.4-Cyber идёт ещё дальше — компания признаёт, что модель способна проводить сложные end-to-end кибератаки в эмулированных сетях.
Доступ: верификация вместо ограничений
OpenAI сделала принципиальный стратегический выбор — расширить доступ, но через строгую идентификацию, а не закрывать модель от всех, как это делает Anthropic с Mythos Preview. Подход работает через программу Trusted Access for Cyber, запущенную ещё в феврале 2026 года:
- Индивидуальный доступ — через chatgpt.com/cyber с верификацией личности
- Корпоративный доступ — заявка через представителя OpenAI для команд
- Финансирование — $10 млн в API-кредитах уже выделено на развитие защитных инструментов
- Масштаб — тысячи индивидуальных специалистов и сотни команд безопасности
Это прямой контраст с Anthropic: у Mythos Preview — около 40 организаций с доступом; у OpenAI целевой охват на порядки шире.
Возможности для специалистов ИБ
GPT-5.4-Cyber закрывает реальные задачи, с которыми сталкиваются пентестеры и bug bounty хантеры ежедневно:
- Поиск уязвимостей — анализ кода на предмет CVE, логических багов и небезопасных паттернов в реальном времени
- Реверс-инжиниринг — работа с бинарными файлами без исходников
- Анализ угроз — выявление признаков компрометации и вредоносного поведения
- Secure code review — автоматизированный аудит с немедленной обратной связью для разработчиков
- CTF и учебные полигоны — решение задач профессионального уровня
Защитные механизмы
Несмотря на сниженный порог отказов, модель оснащена несколькими уровнями защиты:
- Обучение на отказ от явно вредоносных запросов (кража учётных данных, деструктивные атаки)
- Автоматические классификаторы, которые маршрутизируют подозрительные запросы на менее мощную версию GPT-5.2
- Защита от джейлбрейка и prompt injection
- Мониторинг паттернов использования с системой enforcement
Контекст и конкуренция
GPT-5.4-Cyber вышел в разгар гонки AI-компаний за рынок кибербезопасности: Anthropic закрыто тестирует Mythos Preview с избранными партнёрами, Google развивает SecLM, а Microsoft интегрирует аналогичные возможности в Security Copilot. OpenAI делает ставку на то, что скорость масштабирования через верификацию победит осторожность конкурентов.
Ценообразование пока не раскрыто — доступ предоставляется в рамках корпоративных договорённостей или по итогам верификации через Trusted Access. Для тех, кто профессионально занимается пентестингом, bug bounty или защитой инфраструктуры — это, пожалуй, наиболее интересный публичный AI-инструмент из вышедших на сегодня.
