Пн. — Сб. с 11:00 до 21:00 по ОАЭ.
Вс. — выходной

100 60
08.11.2025

Google Threat Intelligence Group (GTIG) выявила минимум пять семейств вредоносов, которые напрямую используют большие языковые модели (LLM) в ходе атак. Новая волна инструментов не ограничивается заранее «зашитой» логикой: ИИ на лету генерирует скрипты, запутывает (обфусцирует) код и подстраивает функциональность под конкретную среду — что усложняет детектирование и анализ.

Что меняется по сути
— Вредоносы переходят от статической логики в бинарях к «живым» сценариям, по требованию генерируемым LLM.
— Обфускация и модификация кода выполняются циклически, что повышает выживаемость ПО в условиях противодействия.
— Нагрузку по созданию и обновлению вредоносных компонентов частично берет на себя ИИ-сервис через API.

Примеры из отчёта GTIG
PROMPTFLUX: запускает процесс Thinking Robot, который ежечасно обращается к API Gemini, чтобы переписывать собственный VBScript.
PROMPTSTEAL (ассоциируется с APT28): использует модель Qwen для генерации команд Windows по запросу.
UNC1069 (Masan, КНДР): злоупотребляла Gemini для поиска данных кошельковых приложений, генерации скриптов к зашифрованным хранилищам и подготовки многоязычного фишинга против сотрудников криптобирж.

Контекст и тенденции
Использование ИИ в киберпреступности растёт с 2024 года: инструменты применяются для фишинга, автоматизированного сканирования смарт-контрактов, построения многоступенчатых атак и последующего отмывания средств. На подпольных форумах продвигаются «почтовые» LLM (например, SpamGPT) для автоматизации спама и компрометации e-mail-систем. При этом ИИ активно используют и «белые хакеры»: соревнования и баунти-программы показывают, что LLM ускоряют поиск уязвимостей, а значит, «двусторонняя» гонка вооружений усиливается.

Почему это критично для защиты
Динамичность: сигнатурные средства защиты теряют эффективность — образцы постоянно меняются.
Модульность: функции подгружаются по запросу, что затрудняет поведенческий анализ.
Зависимость от API: злоумышленники маскируют трафик к ИИ-сервисам под легитимные запросы.
Мультиязычный фишинг: LLM создают правдоподобные тексты для разных регионов и доменов.

Практические меры снижения риска

  1. Контроль egress-трафика: политики для внешних LLM-API, allow-list доменов, TLS-инспекция по возможности.

  2. Runtime-защита: EDR/XDR с упором на поведенческие правила (частая модификация скриптов, подозрительные WMI/PowerShell/VBScript-паттерны, нетипичные цепочки процессов).

  3. App Control: блокировка интерпретаторов скриптов и макросов там, где они не нужны; подписи/изоляция админ-инструментов.

  4. Secret & Wallet Hygiene: DLP/Secrets-сканирование, аппаратные кошельки, политика минимально необходимых доступов к хранилищам ключей.

  5. Фишинг-устойчивость: FIDO2/Passkeys, DMARC/DKIM/SPF, регулярные тренировки и эмуляции таргетированных кампаний.

  6. Твердое журналирование: централизованные логи (Sysmon, PowerShell Operational), корреляция событий SIEM + правила для генеративных «артефактов» (частые похожие запросы к одному API и т. п.).

  7. Zero Trust на уровне сервисов: сегментация, JIT-доступ, непрерывная верификация устройств и пользователей.

  8. Процедуры инцидент-реакции: плейбуки на случай LLM-ассоциированных атак (блокировка ключей, отзыв токенов, ротация API-доступов, отключение автоматических агентов).

Вывод
LLM превращают вредоносы из статичных объектов в адаптивные «сервисы». Это повышает их живучесть и снижает ценность чисто сигнатурного детекта. Противодействие требует комбинации сетевых политик к ИИ-API, поведенческой телеметрии на конечных точках, строгого управления правами и готовых плейбуков на случай злоупотребления генеративными моделями.

Оператор online
15.12.2025, 15:44