Согласно расследованию Microsoft и OpenAI, хакеры используют большие языковые модели (LLM) для проведения исследований, написания сценариев атак или фишинговых писем. «Группы киберпреступников исследуют и тестируют различные технологии искусственного интеллекта по мере их появления, пытаясь понять потенциальную ценность для своих операций и средства контроля безопасности, которые им, возможно, придется обойти», — говорится в блоге Microsoft.
В отчете упоминается о кибергруппировках, поддерживаемых россией, Северной Кореей, Ираном и Китаем. В настоящее время установлено, что хакеры Strontium, связанные с российской военной разведкой, используют большую языковую модель «для понимания протоколов спутниковой связи, технологий радиолокационных изображений и конкретных технических параметров».
Группа, также известная как APT28 или Fancy Bear, была активной во время российско-украинской войны, а также участвовала в атаках на президентскую кампанию Хиллари Клинтон в 2016 году.
По словам Microsoft, хакеры также используют LLM для помощи в «основных задачах сценариев, включая манипулирование файлами, выбор данных, регулярные выражения и многопроцессорную обработку, чтобы потенциально автоматизировать или оптимизировать технические операции».
Читать на itc.ua