ФСТЭК добавила риски ИИ в базу угроз информационной безопасности
Федеральная служба по техническому и экспортному контролю (ФСТЭК) обновила банк данных угроз (БДУ) информационной безопасности, включив в него раздел, посвященный рискам, связанным с технологиями искусственного интеллекта. Перечень становится официальным источником для разработки моделей угроз, обязательной для государственных систем и критической информационной инфраструктуры.
Федеральная служба по техническому и экспортному контролю (ФСТЭК) внесла в банк данных угроз (БДУ) информационной безопасности новый раздел, посвященный рискам, связанным с искусственным интеллектом, сообщают «Ведомости».
В перечне описаны специфичные технологии ИИ, уязвимости которых могут эксплуатироваться злоумышленниками. К ним относятся модели машинного обучения, наборы обучающих данных (датасеты), подход RAG (Retrieval Augmented Generation) и LoRA-адаптеры (Low-Rank Adaptation). Также, как указывается в документе, описаны векторы возможных атак, такие как эксплуатация уязвимостей в ИИ-фреймворках, модификация системных промптов или конфигураций агентов, а также DoS-атаки на исчерпание квоты запросов.
Согласно требованиям законодательства, включая 152-ФЗ «О персональных данных», организации, обязанные защищать свои информационные системы, должны использовать БДУ для разработки моделей угроз. Как сообщили в ФСТЭК, новый раздел становится официальным источником для такого моделирования в части ИИ.
Как сообщили эксперты «Ведомостям», перечень не предписывает бизнесу немедленных действий, но определяет критерии для выбора средств защиты, указывая, от каких векторов атак они должны защищать. Документ адресован, в первую очередь, субъектам критической информационной инфраструктуры (КИИ) и органам государственной власти.
Как стало известно ранее, на основе этого перечня будет разработан стандарт ФСТЭК по безопасной разработке ИИ-систем, который дополнит существующие требования по безопасной разработке ПО. Его подготовка была анонсирована на форуме BIS-2025, а публикация ожидалась до конца 2025 года. Этот стандарт, как поясняется, будет представлять собой детализированное методическое руководство с мерами для жизненного цикла систем ИИ и дополнит положения приказа ФСТЭК №117, который вступает в силу с 1 марта 2026 года и также содержит раздел о безопасности ИИ.
Отдельно в сообщении приводятся данные международных исследований. Согласно исследованию компании SlashNext, за год после выхода ChatGPT-4 количество фишинговых рассылок в мире выросло на 1265% за счет их массовой генерации с помощью больших языковых моделей.