Исследователи из Palo Alto Networks обнаружили, что большие языковые модели (LLM) могут использоваться для создания вариантов вредоносного ПО, которые обманывают обнаружение в 88% случаев. Преступники могут использовать LLM для переписывания существующего вредоносного JavaScript, создавая более «естественный» код, который обходит системы обнаружения.
Переименовывая переменные, разделяя строки, добавляя нежелательный код и переделывая скрипты, они создают 10 000 новых вариантов вредоносных программ, сохраняя при этом их вредоносное поведение. Такой подход значительно ослабляет средства защиты, заставляя их классифицировать вредоносный код как добротный.
Даже такие инструменты обнаружения, как VirusTotal, с трудом справляются с этими переписанными вариантами.
Достижения ИИ могут как укреплять, так и подрывать кибербезопасность.