Google Threat Intelligence Group (GTIG) выявила минимум пять семейств вредоносов, которые напрямую используют большие языковые модели (LLM) в ходе атак. Новая волна инструментов не ограничивается заранее «зашитой» логикой: ИИ на лету генерирует скрипты, запутывает (обфусцирует) код и подстраивает функциональность под конкретную среду — что усложняет детектирование и анализ.
Что меняется по сути
— Вредоносы переходят от статической логики в бинарях к «живым» сценариям, по требованию генерируемым LLM.
— Обфускация и модификация кода выполняются циклически, что повышает выживаемость ПО в условиях противодействия.
— Нагрузку по созданию и обновлению вредоносных компонентов частично берет на себя ИИ-сервис через API.
Примеры из отчёта GTIG
— PROMPTFLUX: запускает процесс Thinking Robot, который ежечасно обращается к API Gemini, чтобы переписывать собственный VBScript.
— PROMPTSTEAL (ассоциируется с APT28): использует модель Qwen для генерации команд Windows по запросу.
— UNC1069 (Masan, КНДР): злоупотребляла Gemini для поиска данных кошельковых приложений, генерации скриптов к зашифрованным хранилищам и подготовки многоязычного фишинга против сотрудников криптобирж.
Контекст и тенденции
Использование ИИ в киберпреступности растёт с 2024 года: инструменты применяются для фишинга, автоматизированного сканирования смарт-контрактов, построения многоступенчатых атак и последующего отмывания средств. На подпольных форумах продвигаются «почтовые» LLM (например, SpamGPT) для автоматизации спама и компрометации e-mail-систем. При этом ИИ активно используют и «белые хакеры»: соревнования и баунти-программы показывают, что LLM ускоряют поиск уязвимостей, а значит, «двусторонняя» гонка вооружений усиливается.
Почему это критично для защиты
— Динамичность: сигнатурные средства защиты теряют эффективность — образцы постоянно меняются.
— Модульность: функции подгружаются по запросу, что затрудняет поведенческий анализ.
— Зависимость от API: злоумышленники маскируют трафик к ИИ-сервисам под легитимные запросы.
— Мультиязычный фишинг: LLM создают правдоподобные тексты для разных регионов и доменов.
Практические меры снижения риска
-
Контроль egress-трафика: политики для внешних LLM-API, allow-list доменов, TLS-инспекция по возможности.
-
Runtime-защита: EDR/XDR с упором на поведенческие правила (частая модификация скриптов, подозрительные WMI/PowerShell/VBScript-паттерны, нетипичные цепочки процессов).
-
App Control: блокировка интерпретаторов скриптов и макросов там, где они не нужны; подписи/изоляция админ-инструментов.
-
Secret & Wallet Hygiene: DLP/Secrets-сканирование, аппаратные кошельки, политика минимально необходимых доступов к хранилищам ключей.
-
Фишинг-устойчивость: FIDO2/Passkeys, DMARC/DKIM/SPF, регулярные тренировки и эмуляции таргетированных кампаний.
-
Твердое журналирование: централизованные логи (Sysmon, PowerShell Operational), корреляция событий SIEM + правила для генеративных «артефактов» (частые похожие запросы к одному API и т. п.).
-
Zero Trust на уровне сервисов: сегментация, JIT-доступ, непрерывная верификация устройств и пользователей.
-
Процедуры инцидент-реакции: плейбуки на случай LLM-ассоциированных атак (блокировка ключей, отзыв токенов, ротация API-доступов, отключение автоматических агентов).
Вывод
LLM превращают вредоносы из статичных объектов в адаптивные «сервисы». Это повышает их живучесть и снижает ценность чисто сигнатурного детекта. Противодействие требует комбинации сетевых политик к ИИ-API, поведенческой телеметрии на конечных точках, строгого управления правами и готовых плейбуков на случай злоупотребления генеративными моделями.
