«Новые формы угроз»: как вредоносные программы используют LLM для самомодификации
Исследователи безопасности фиксируют появление семейств вредоносного ПО, которые встраивают в свой рабочий цикл большие языковые модели (LLM). Такие образцы динамически генерируют скрипты, переписывают собственный код и подбирают обходы для систем обнаружения — то есть переносят часть логики из статичного двоичного файла в «интеллект по запросу».
Что именно показывают свежие отчёты
Описаны реальные семейства и прототипы, где реализована «just-in-time» модификация: dropper доставляет минимальный загрузчик, обращается к модели, получает фрагменты кода или инструкции по обфускации и тут же внедряет результат в исполняемый скрипт. В ряде кейсов вредоносный скрипт периодически обновляет логику уклонения, чтобы избегать сигнатурной детекции.Как это работает — простой сценарий
Классическая модель: всё заложено в исполняемый файл. Новая модель: каркас взаимодействует с LLM (локально или через API), запрашивает однострочные команды, функции и приёмы обфускации под конкретную среду и исполняет их в рантайме. В результате зловред адаптируется к защите на машине жертвы.Примеры функциональности
- «Живая» обфускация: код регулярно перезаписывается новыми вариантами, затрудняя анализ и сигнатурный поиск.
- Гибкая эксфильтрация: модель подбирает команды для поиска секретов и их отправки в зависимости от ОС и прав доступа.
- Выбор тактик под среду: генерация команд обхода EDR, отключение журналирования, маскировка сетевой активности.
Почему это меняет правила игры
Статические сигнатуры и простые эвристики теряют эффективность, когда код меняется «на лету». Плюс обращения к LLM могут маскироваться под легитимный облачный трафик. Итог: сложнее как обнаружение, так и атрибуция, а окно реагирования сужается.Риски адаптивной ИИ-малвари
- Устойчивость к анализу: самовосстанавливающиеся варианты кода и полиморфизм в рантайме.
- Точечные атаки: подбор полезной нагрузки и техник под конкретную конфигурацию хоста.
- Быстрая коммерциализация: появление «ИИ-модулей» и шаблонов атак на подпольных площадках.
Как адаптироваться защитникам
- Мониторинг обращений к моделям: контроль исходящего трафика к LLM-провайдерам, белые/чёрные списки, аномалии по частоте и размерам запросов.
- Поведенческий детект: упор на телеметрию рантайма (EDR/XDR), поздние индикаторы компрометации, блокировки по действиям, а не по сигнатурам.
- Гигиена секретов и прав: минимизация привилегий, сегментация, изоляция токенов и ключей от пользовательской среды.
- Контроль макросов и скриптов: ограничение политики запуска, подписи, изоляция интерпретаторов.
Юридические и этические аспекты
Сдвиг от «зашитой логики» к «интеллекту в рантайме» поднимает вопрос ответственности: кто отвечает за сгенерированный код и где проходит граница между ПО для приватности и инструментом атаки. Регуляторы и провайдеры усиливают правила доступа к моделям, но универсального решения пока нет.Вывод
Переход злоумышленников к ИИ-ассистированным техникам — это начало новой фазы. Защитным командам нужно быстрее переходить к телеметрии исполнения, контролю доступа к моделям и обмену данными о TTP. Иначе автоматизация со стороны нападающих будет масштабироваться быстрее, чем модернизируются средства защиты.Редакция PavRC