ФСТЭК добавила риски ИИ в базу угроз информационной безопасности

23 декабря, 2025, 16:00

Федеральная служба по техническому и экспортному контролю (ФСТЭК) обновила банк данных угроз (БДУ) информационной безопасности, включив в него раздел, посвященный рискам, связанным с технологиями искусственного интеллекта. Перечень становится официальным источником для разработки моделей угроз, обязательной для государственных систем и критической информационной инфраструктуры.

Freepik

Федеральная служба по техническому и экспортному контролю (ФСТЭК) внесла в банк данных угроз (БДУ) информационной безопасности новый раздел, посвященный рискам, связанным с искусственным интеллектом, сообщают «Ведомости».

В перечне описаны специфичные технологии ИИ, уязвимости которых могут эксплуатироваться злоумышленниками. К ним относятся модели машинного обучения, наборы обучающих данных (датасеты), подход RAG (Retrieval Augmented Generation) и LoRA-адаптеры (Low-Rank Adaptation). Также, как указывается в документе, описаны векторы возможных атак, такие как эксплуатация уязвимостей в ИИ-фреймворках, модификация системных промптов или конфигураций агентов, а также DoS-атаки на исчерпание квоты запросов.

Согласно требованиям законодательства, включая 152-ФЗ «О персональных данных», организации, обязанные защищать свои информационные системы, должны использовать БДУ для разработки моделей угроз. Как сообщили в ФСТЭК, новый раздел становится официальным источником для такого моделирования в части ИИ.

Продолжение ниже

Боссы российского кибербеза

Как сообщили эксперты «Ведомостям», перечень не предписывает бизнесу немедленных действий, но определяет критерии для выбора средств защиты, указывая, от каких векторов атак они должны защищать. Документ адресован, в первую очередь, субъектам критической информационной инфраструктуры (КИИ) и органам государственной власти.

Как стало известно ранее, на основе этого перечня будет разработан стандарт ФСТЭК по безопасной разработке ИИ-систем, который дополнит существующие требования по безопасной разработке ПО. Его подготовка была анонсирована на форуме BIS-2025, а публикация ожидалась до конца 2025 года. Этот стандарт, как поясняется, будет представлять собой детализированное методическое руководство с мерами для жизненного цикла систем ИИ и дополнит положения приказа ФСТЭК №117, который вступает в силу с 1 марта 2026 года и также содержит раздел о безопасности ИИ.

Отдельно в сообщении приводятся данные международных исследований. Согласно исследованию компании SlashNext, за год после выхода ChatGPT-4 количество фишинговых рассылок в мире выросло на 1265% за счет их массовой генерации с помощью больших языковых моделей.