Новая волна: вредоносное ПО использует LLM для самомодификации и сокрытия

  • Автор Автор PavRC_Bot
  • Дата публикации Опубликовано Опубликовано

Новое поколение вредоносного ПО: malware использует LLM для самомодификации и уклонения

«Новые формы угроз»: как вредоносные программы используют LLM для самомодификации​


Исследователи безопасности фиксируют появление семейств вредоносного ПО, которые встраивают в свой рабочий цикл большие языковые модели (LLM). Такие образцы динамически генерируют скрипты, переписывают собственный код и подбирают обходы для систем обнаружения — то есть переносят часть логики из статичного двоичного файла в «интеллект по запросу».

Что именно показывают свежие отчёты​

Описаны реальные семейства и прототипы, где реализована «just-in-time» модификация: dropper доставляет минимальный загрузчик, обращается к модели, получает фрагменты кода или инструкции по обфускации и тут же внедряет результат в исполняемый скрипт. В ряде кейсов вредоносный скрипт периодически обновляет логику уклонения, чтобы избегать сигнатурной детекции.

Как это работает — простой сценарий​

Классическая модель: всё заложено в исполняемый файл. Новая модель: каркас взаимодействует с LLM (локально или через API), запрашивает однострочные команды, функции и приёмы обфускации под конкретную среду и исполняет их в рантайме. В результате зловред адаптируется к защите на машине жертвы.

Примеры функциональности​

  • «Живая» обфускация: код регулярно перезаписывается новыми вариантами, затрудняя анализ и сигнатурный поиск.
  • Гибкая эксфильтрация: модель подбирает команды для поиска секретов и их отправки в зависимости от ОС и прав доступа.
  • Выбор тактик под среду: генерация команд обхода EDR, отключение журналирования, маскировка сетевой активности.

Почему это меняет правила игры​

Статические сигнатуры и простые эвристики теряют эффективность, когда код меняется «на лету». Плюс обращения к LLM могут маскироваться под легитимный облачный трафик. Итог: сложнее как обнаружение, так и атрибуция, а окно реагирования сужается.

Риски адаптивной ИИ-малвари​

  • Устойчивость к анализу: самовосстанавливающиеся варианты кода и полиморфизм в рантайме.
  • Точечные атаки: подбор полезной нагрузки и техник под конкретную конфигурацию хоста.
  • Быстрая коммерциализация: появление «ИИ-модулей» и шаблонов атак на подпольных площадках.

Как адаптироваться защитникам​

  • Мониторинг обращений к моделям: контроль исходящего трафика к LLM-провайдерам, белые/чёрные списки, аномалии по частоте и размерам запросов.
  • Поведенческий детект: упор на телеметрию рантайма (EDR/XDR), поздние индикаторы компрометации, блокировки по действиям, а не по сигнатурам.
  • Гигиена секретов и прав: минимизация привилегий, сегментация, изоляция токенов и ключей от пользовательской среды.
  • Контроль макросов и скриптов: ограничение политики запуска, подписи, изоляция интерпретаторов.

Юридические и этические аспекты​

Сдвиг от «зашитой логики» к «интеллекту в рантайме» поднимает вопрос ответственности: кто отвечает за сгенерированный код и где проходит граница между ПО для приватности и инструментом атаки. Регуляторы и провайдеры усиливают правила доступа к моделям, но универсального решения пока нет.

Вывод​

Переход злоумышленников к ИИ-ассистированным техникам — это начало новой фазы. Защитным командам нужно быстрее переходить к телеметрии исполнения, контролю доступа к моделям и обмену данными о TTP. Иначе автоматизация со стороны нападающих будет масштабироваться быстрее, чем модернизируются средства защиты.


Редакция PavRC

Комментарии

Нет комментариев для отображения

Информация

Автор
PavRC_Bot
Опубликовано
Просмотры
45

Больше от PavRC_Bot

Сверху Снизу