AI

Патч за 24 часа или взлом: как подготовить security-программу к эпохе ИИ-атак

Как защитить компанию от ИИ-ускоренных кибератак: 5 принципов, практическая дорожная карта и шаги адаптации программы безопасности к LLM угрозам.

VibeLab


Anthropic опубликовала исследование Project Glasswing — и выводы тревожные. Фронтирные модели уже находят уязвимости, которые человеческие ревью пропускали годами, а окно между публикацией патча и появлением рабочего эксплойта сжимается до часов. Разбираем, что конкретно менять в корпоративной программе информационной безопасности прямо сейчас — пока ИИ работает на вашей стороне, а не против вас.

Почему ИИ меняет правила игры в кибербезопасности

В апреле 2026 года Anthropic анонсировала Project Glasswing — проект, в рамках которого фронтирная модель Claude Mythos Preview применяется для поиска уязвимостей в реальных кодовых базах. Результаты показали: модель находит критические баги, которые проходили мимо стандартных code review на протяжении лет. И это не теоретическая угроза — ранее модели уровнем ниже Mythos уже обнаружили серьёзные уязвимости в Mozilla Firefox, пропущенные традиционными проверками.

Ключевой тезис исследования: в ближайшие 24 месяца огромное количество багов, тихо сидевших в коде годами, будет найдено ИИ-моделями и собрано в рабочие цепочки эксплойтов. Модели, способные на это, станут широкодоступными.

Это не очередной хайп вокруг генеративного ИИ. Речь о системном сдвиге: большие языковые модели снижают порог входа в кибератаки по трём параметрам одновременно — ресурсы, время, квалификация. Раньше для цепочки «разведка → поиск уязвимости → написание эксплойта → атака» нужна была команда и месяцы работы. LLM сжимают этот цикл до дней, а иногда — часов.

Для security-менеджеров и CISO это означает пересмотр базовых допущений. Программа информационной безопасности, спроектированная под угрозы 2020 года, в 2026-м оставляет компанию открытой.

Как LLM ускоряют и масштабируют кибератаки

Генеративный ИИ не создаёт принципиально новых классов атак. Он делает кое-что опаснее — масштабирует существующие методы до уровня, с которым традиционные системы безопасности не справляются.

LLM-генерированный фишинг: персонализация в промышленных масштабах

Классический фишинг работал по шаблонам. Письма содержали грамматические ошибки, не учитывали контекст получателя и легко фильтровались. LLM-генерированный фишинг — другая история.

Модель анализирует открытые данные о цели: LinkedIn-профиль, публикации, стиль переписки. На выходе — тысячи уникальных писем, каждое из которых имитирует стиль конкретного отправителя и учитывает контекст получателя. По данным Proofpoint, в 2025 году объём фишинговых атак с признаками ИИ-генерации вырос на 60%. Google Threat Intelligence фиксирует аналогичный тренд: социальная инженерия с использованием ИИ становится основным вектором первичного доступа.

Что это значит на практике: корпоративные фишинг-тренинги, построенные на распознавании «кривого русского» и подозрительных ссылок, больше не работают. Письмо от «коллеги» с идеальным языком и релевантным контекстом обойдёт и человека, и базовые фильтры.

Автоматизированная разведка и поиск уязвимостей с помощью ИИ

Anthropic прямо указывает: ИИ-модели отлично справляются с реверс-инжинирингом патчей. Берём опубликованный патч, скармливаем модели — получаем рабочий эксплойт для непатченных систем. Это «механический анализ, в котором модели преуспевают».

LLM ускоряют OSINT-разведку: автоматический сбор информации о технологическом стеке компании, поиск забытых поддоменов, анализ утечек конфигураций. То, на что у пентестера уходила неделя, модель делает за часы.

Отдельная проблема — zero-day уязвимости. Если фронтирная модель находит баги, пропущенные годами code review (как показал Project Glasswing), то модели следующего поколения в руках атакующих будут делать то же самое. Разница в том, что защитники могут не узнать об уязвимости до момента эксплуатации.

Deepfake и атаки на идентификацию

Голосовые и видео-дипфейки вышли за рамки лабораторных экспериментов. В 2024 году финансовая компания из Гонконга потеряла $25 млн после видеозвонка, в котором злоумышленники с помощью deepfake имитировали CFO. В 2025–2026 годах подобные инциденты фиксируются регулярно.

Deepfake-атаки бьют по ключевому элементу корпоративной безопасности — верификации личности. Когда синтетический голос проходит голосовую аутентификацию банка, а сгенерированное видео убеждает сотрудника перевести деньги, традиционные протоколы идентификации дают сбой.

Синтетические личности — ещё один вектор. ИИ генерирует правдоподобные профили для прохождения KYC-проверок, создания учётных записей, социальной инженерии. Масштаб проблемы только растёт с повышением качества генерации.

Где традиционные программы безопасности дают сбой

Большинство корпоративных систем безопасности построены на допущениях, которые ИИ-ускоренные атаки разрушают.

Сигнатурный подход. Антивирусы и IDS, работающие на сигнатурах известных угроз, не ловят ИИ-генерированные атаки. Каждое фишинговое письмо уникально. Каждый эксплойт модифицирован. Сигнатуры по определению отстают от атакующего, а ИИ увеличивает этот разрыв.

Периметровая защита. Концепция «защищённого периметра» устарела и без ИИ, но LLM добивают её окончательно. Автоматизированная разведка находит точки входа быстрее, чем команда SOC успевает их закрыть.

Обучение по старым сценариям. Awareness-программы, где сотрудникам показывают скриншоты «типичного фишинга» с ошибками, бесполезны против LLM-генерированных атак. Когда фишинговое письмо неотличимо от настоящего, нужны другие критерии распознавания.

Ручной патч-менеджмент. Anthropic рекомендует патчить интернет-доступные системы в течение 24 часов после появления эксплойта. Если ваш процесс включает «еженедельное совещание и таблицу» — вы не успеваете. Ручные этапы согласования добавляют задержку, а задержка теперь — главный риск.

Статичные политики паролей. Когда ИИ обходит MFA через deepfake или генерирует убедительные претексты для сброса пароля через техподдержку, сложность пароля перестаёт быть релевантной метрикой защиты.

Пять принципов адаптации программы безопасности к эпохе ИИ

На основе исследования Anthropic и практики работы с AI-инструментами мы выделили пять принципов, которые трансформируют обеспечение безопасности из реактивного в проактивное.

Принцип 1: Переход от сигнатурной защиты к поведенческому анализу

Сигнатуры ловят известное. ИИ-генерированные атаки по определению уникальны. Значит, нужен анализ поведения, а не образцов.

Что внедрять:

  • UEBA (User and Entity Behavior Analytics) — системы, которые строят профиль нормального поведения пользователя и сигналят об отклонениях. Если бухгалтер в 3 часа ночи начинает массово выгружать документы — это аномалия, независимо от того, прошёл ли он аутентификацию.
  • NDR (Network Detection and Response) — анализ сетевого трафика на уровне поведения, а не сигнатур. ML-модели детектируют аномальные паттерны коммуникации, латеральное перемещение, эксфильтрацию данных.
  • ML-детекция аномалий в логах — вместо правил «если X, то алерт» используется обучение на исторических данных с выявлением отклонений от нормы.

Ключевой trade-off: поведенческие системы генерируют больше false positives на старте. Нужен период обучения (2–4 недели) и тюнинг. Но альтернатива — пропустить атаку, которую сигнатуры не увидят.

Принцип 2: Переосмысление обучения сотрудников

Старый подход: «Не кликайте на подозрительные ссылки. Вот как выглядит фишинг.» Проблема: LLM-фишинг не выглядит подозрительно.

Новый подход строится на трёх элементах:

  • Симуляции LLM-фишинга. Тренировочные фишинговые кампании должны использовать тот же инструментарий, что и атакующие. Генерируйте персонализированные письма с помощью LLM, учитывайте контекст сотрудника. Цель — не поймать, а научить.
  • Обновлённые критерии распознавания. Вместо «ищите ошибки в тексте» — «проверяйте канал коммуникации». Если «руководитель» просит срочный перевод через email — перезвоните. Если «коллега» присылает файл, которого вы не ожидали — уточните через мессенджер.
  • Культура подозрительности без стигмы. Сотрудник, который переспросил и задержал процесс, — не параноик, а первая линия обороны. Это нужно закрепить на уровне корпоративной культуры.

Принцип 3: Внедрение Zero Trust с учётом ИИ-векторов

Zero Trust — правильная архитектура, но её классическая реализация не учитывает ИИ-специфичные угрозы.

Проблема: deepfake проходит видеоверификацию, синтетический голос — голосовую аутентификацию, ИИ-сгенерированные документы — базовую проверку KYC. MFA, построенная на «что-то, что ты знаешь + что-то, что ты имеешь», устойчива. Но MFA с биометрией голоса или лица — уязвима.

Что добавить к стандартному Zero Trust:

  • Continuous authentication — не одноразовая проверка при входе, а постоянный мониторинг поведенческих паттернов в течение сессии.
  • Поведенческие биометрики — скорость набора текста, паттерны перемещения мыши, типичные последовательности действий. Их сложнее подделать, чем голос или лицо.
  • Контекстные политики — доступ зависит не только от identity, но и от устройства, сети, времени, геолокации, типичного паттерна запросов.
  • Аппаратные токены для критичных операций — физический ключ (YubiKey, FIDO2) остаётся самым устойчивым фактором аутентификации, который ИИ не может подделать дистанционно.

Принцип 4: Автоматизация защиты с помощью ИИ

Anthropic формулирует это прямо: «Сканируйте свой код и системы теми же моделями, которые использовал бы атакующий, — только делайте это раньше.» По их оценке, если из всех рекомендаций внедрить только одну — внедрите эту.

Конкретные применения ИИ в защите:

  • AI vulnerability scanning — прогон собственного кода через фронтирные модели для поиска уязвимостей. Требуется изолированный агент, верификационный шаг для фильтрации шума и интеграция в существующий процесс триажа.
  • Автоматическая генерация патчей. Когда SAST или сканер находит баг, модель предлагает патч. Работа разработчика меняется с «понять баг и написать фикс» на «проверить предложенный фикс». Второе быстрее.
  • ИИ-ассистенты в SOC. LLM анализирует логи, коррелирует события, дедуплицирует алерты, оценивает exposure, готовит черновики тикетов на ремедиацию. Триаж — бутылочное горлышко SOC, и его автоматизация даёт ощутимый эффект.
  • Автоматизированный threat hunting. Модель формулирует гипотезы на основе threat intelligence, проверяет их по логам и телеметрии, выдаёт приоритизированные результаты аналитику.
  • Аудит зависимостей. LLM анализирует lockfile проекта, находит дублирующиеся библиотеки, предлагает консолидацию. Anthropic оценивает это как «упражнение на час, которое часто окупается».

Инструменты, на которые стоит обратить внимание: CodeQL (GitHub) для SAST в CI, OpenSSF Scorecard для оценки open-source зависимостей, SLSA framework для защиты цепочки сборки.

Принцип 5: Governance и политики использования ИИ внутри компании

Внешние угрозы — половина проблемы. Вторая половина — shadow AI внутри организации.

Сотрудники используют ChatGPT, Claude, Gemini для рабочих задач. Часто — вставляя в промпты фрагменты кода, внутренние документы, данные клиентов. Без политик и контроля это прямой канал утечки.

Что нужно:

  • Политика допустимого использования ИИ (AUP). Чёткие правила: какие данные можно и нельзя отправлять во внешние LLM, какие инструменты одобрены, кто отвечает за compliance.
  • DLP для ИИ-инструментов. Решения, которые мониторят и при необходимости блокируют передачу чувствительных данных в ИИ-сервисы. Традиционные DLP не отслеживают обращения к API OpenAI или Anthropic — это новая категория.
  • Корпоративные инстансы LLM. Если сотрудникам нужен ИИ (а он нужен), дайте им безопасную альтернативу — self-hosted модели или enterprise-тарифы с гарантиями по обработке данных.
  • Инвентаризация ИИ-инструментов. Какие ИИ-сервисы уже используются? Кем? Для каких задач? Без этой картины любые политики останутся на бумаге.

Дорожная карта: конкретные шаги прямо сейчас

Краткосрочные меры: 0–90 дней

  1. Аудит patch gap. Сверьтесь с каталогом CISA KEV — всё, что в нём и доступно из сети, патчится немедленно. Для остальных CVE используйте EPSS для приоритизации.
  2. Сократите time-to-patch. Цель — 24 часа для интернет-доступных систем после появления эксплойта. Включите автоматическое обновление там, где риск outage приемлем.
  3. Проведите LLM-фишинг-симуляцию. Сгенерируйте персонализированные фишинговые письма с помощью LLM, отправьте сотрудникам, замерьте click rate.
  4. Инвентаризация ИИ-инструментов. Выясните, кто и что использует. Опрос, анализ трафика, разговоры с тимлидами.
  5. Добавьте SAST в CI. CodeQL на GitHub настраивается за пару часов. Блокируйте merge на high-confidence findings.
  6. Обновите политику паролей и MFA. Приоритизируйте аппаратные токены для админов, финансовых операций, доступа к продакшену.

Среднесрочная стратегия: 3–12 месяцев

  1. Внедрите UEBA и NDR. Выберите решение, проведите пилот на одном сегменте, настройте базовые модели поведения, масштабируйте.
  2. Запустите ИИ-сканирование собственного кода. Изолированный агент + фронтирная модель + интеграция с тикет-системой. Начните с критичных сервисов.
  3. Пересмотрите архитектуру идентификации. Добавьте continuous authentication и поведенческие биометрики. Оцените устойчивость текущей MFA к deepfake-атакам.
  4. Обновите требования к вендорам. Включите в опросники third-party risk management вопросы о подготовке к ИИ-ускоренным угрозам.
  5. Аудит open-source зависимостей. Прогоните зависимости через OpenSSF Scorecard. Для библиотек с низким скором — рассмотрите замену.
  6. Внедрите SLSA для защиты цепочки сборки. Reusable workflow от OpenSSF даёт SLSA Level 3 из GitHub Actions с минимальными усилиями.

Ключевые выводы из исследования Anthropic

Проблема уже здесь. Публично доступные модели уже находят серьёзные уязвимости, которые традиционные ревью пропускали годами. Речь не о гипотетических рисках.

Реверс-инжиниринг патчей — самый опасный вектор. Каждый публичный патч — одновременно и исправление для обновившихся, и инструкция по атаке для остальных. Окно сужается до часов.

Защитники имеют преимущество — если действуют первыми. Те же модели, которые находят уязвимости для атакующих, работают и на защитников. Разница — в скорости внедрения.

Объём уязвимостей вырастет на порядок. Anthropic рекомендует готовиться к десятикратному росту числа обнаруженных уязвимостей. Процессы триажа и ремедиации должны масштабироваться соответственно.

Приоритеты изменились. Советы знакомы — SOC 2, ISO 27001, Zero Trust. Новое — приоритизация. Patch gap из «важно, но терпит» стал «критично, закрывайте немедленно». SAST в CI из хорошей практики превратился в обязательный контроль.

Итог

ИИ не отменяет основы информационной безопасности — он ускоряет всё. Атаки становятся быстрее, дешевле, персонализированнее. Но и инструменты защиты получают тот же буст.

Три принципа, которые стоит зафиксировать:

  • Скорость важнее совершенства. Патч, накатанный за 24 часа, ценнее идеального патча через неделю.
  • ИИ — инструмент, не угроза. Модели, которые находят уязвимости для атакующих, работают и для вас. Используйте их первыми.
  • Люди остаются главным вектором. Социальная инженерия — самый масштабируемый вектор LLM-атак. Инвестиции в обучение и культуру безопасности окупаются.

Начните с аудита своей security-программы по пяти принципам из этой статьи. Пройдитесь по каждому пункту дорожной карты и честно оцените статус.


Подписывайтесь на наш канал: @vibelogia

Поделимся опытом

hello@vibelab.ru

8 800 201 85 68

Написать в Telegram