ИИ под прицелом. Как развивается кибербезопасность нейросетей в России и в мире

29 октября, 2025, 18:00

Российский рынок безопасности искусственного интеллекта (ИИ) представляет собой формирующийся сегмент, где пересекаются импортозамещение, государственное регулирование, научные школы и стартапы. Артем Семёнов, автор канала PWNAI, рассказал SecPost о ключевых игроках и тенденциях на рынке защиты ИИ.

Эксперты и авторы телеграм-каналов PWNAI и OK ML совместно проанализировали отчеты аналитических агентств по защите искусственного интеллекта, публикации в СМИ, а таже имеющиеся российские продукты в этой области, сравнив их с иностранными аналогами. Согласно выводам нашего исследования, к осени 2025 года в России насчитывается более 50 компаний, связанных с AI Security (защита искусственного интеллекта), но лишь 11 из них специализируются на этой сфере, а 4 встроили её в основной бизнес. Это свидетельствует о начальной стадии развития рынка: большинство решений остаются в начале своего пути или прототипами. Однако к середине 2026 года, вероятно, стоит ожидать появления первых зрелых продуктов, способных занять устойчивую позицию на рынке.

Среди таких решений — HiveTrace, разработанная в партнёрстве ИТМО и компании Raft: это прокси-фильтр для LLM (Large Language Model, «большая языковая модель»), совместимый с любыми моделями и блокирующий до 70% уязвимостей из международного репозитория по кибербезопасности OWASP Top 10 for LLM. Также можно отметить решение «Безвайрос» — «антивирус для ИИ», ориентированный на защиту русскоязычных моделей. Оба продукта находятся в ранней стадии коммерциализации и пока не имеют широкого внедрения. В отчете отмечается, что многие решения на рынке остаются на уровне концепций, и граница между анонсированными и действительно доступными решениями часто размыта. При этом многие другие анонсы — например, от «Газинформсервиса» или ряда вендоров — остаются на уровне концепций: есть матрицы угроз, полезная информация о продукте (или white paper), даже патенты, но нет пока данных о том, что решения внедрены. Эта размытость границы между «есть» и «скоро будет» — ещё один признак рынка на стадии становления.

Крупные игроки активно вовлечены в процесс: «Сбер» опубликовал первую в России модель угроз для ИИ с 70 сценариями, Т-Банк делится инструментами для security-задач, а Positive Technologies сделала набор готовых инструментов для MLSecOps (Machine Learning Security Operations— совокупность процессов, практик и технологий, нацеленных на обеспечение безопасности конвейера разработки приложений с моделями машинного обучения).

Продолжение ниже

Кто есть кто на рынке SGRC

В отличие от западного рынка, где регуляторы задают ключевые тренды, например, регламент Европейского союза об искусственном интеллекте (EU AI Act ) — первый в мире комплексный нормативный акт, регулирующий искусственный интеллект на уровне региона, в России развитие отрасли происходит благодаря синергии между компаниями и государственными регуляторами. Крупные компании активно выпускают white paper и делятся кейсами, но ФСТЭК и другие регуляторы уже вводят конкретные требования, которые формируют нормативную базу для рынка. Например, в апреле 2025 года ФСТЭК впервые ввела требования к ГИС, касающиеся ИИ: обязательный контроль шаблонов запросов к ИИ (для предотвращения использования опасных «промтов»), логирование всех операций с моделью, запрет нерегламентированного влияния на параметры моделей. Эти нормы пока касаются только госсектора.

Оценки объема и динамики рынка ИИ приведены в таблице:

*оценка авторов отчета PWNAI и OKML, 2025 год.

Главный вопрос, стоящий перед рынком: безопасность ИИ — это технология или процесс? Всплеск интереса к LLM-фаерволам (системам защиты искусственного интеллекта) сменяется фокусом на MLSecOps как на новый стандарт. Поставить фильтр недостаточно — безопасность должна быть интегрирована в культуру разработки, на каждом этапе жизненного цикла модели. Но я думаю, что без процесса любая технология станет временной и уязвимой. Иначе мы получим «безопасность как наклейку» — красивую, но неэффективную.

Особую роль в этом процессе играет академическая среда. В ИТМО, ВШЭ, ИСП РАН и МФТИ уже читаются курсы по безопасности LLM. Однако коммерциализация решений остаётся сложной: научные прототипы требуют инженерной доработки, а рынок пока не готов платить за решения на начальном уровне развития.

Ещё один вызов — кадры. В отчётах указываются цифры вроде «878 вакансий в 2024 году», что описано в исследовании Swordfish Security. Но на 2025 год открытых вакансий в РФ немного. Однако проблема не в количестве вакансий, а в том, что специалистов, которые одновременно понимают природу состязательных атак, регуляторику и могут писать с PyTorch (фреймворк машинного обучения для языка Python с открытым исходным кодом), — единицы.

Отчёт необходим, чтобы сформировать общее понимание рынка и определить вектор развития. Но будущее остаётся неопределённым — за следующие полтора года рынок может трансформироваться кардинально. Возможны разные сценарии: от форсированного роста под давлением регуляторов и госзаказа до стагнации из-за отсутствия зрелых продуктов и кадров. Наиболее вероятен гибридный путь: медленное, но устойчивое формирование экосистемы вокруг LLM Security, MLSecOps и сертифицированных решений для госсектора.

Пока же российский AI Security находится на пути поиска себя — от тестирования угроз до выстраивания политик и архитектур. Это начальный этап, но именно сейчас закладываются основы для будущих решений для того, чтобы ИИ не стал «открытой дверью» для новых видов атак.

Полная версия отчета.