«Нужно жесткое регулирование, изоляция, контроль», – CISO «СберТеха» о принципах защиты ИИ и доступе «белых хакеров» к даркнет-нейросетям

19 февраля, 2026, 09:30

Главный редактор SecPost Тимофей Корнев побеседовал в формате подкаста с директором по информационной безопасности «СберТеха» Всеславом Солеником. На просторах конференции «Код СберТеха» Всеслав рассказал о том, как компания использует ИИ, каким образом его защищает, каковы ключевые риски ИИ, а также поделился ожиданиями из области ИБ для искусственного интеллекта в 2026-2028 годах. В материале представлены ключевые тезисы подкаста, а с полной версией беседы можно ознакомиться в видеоформате.

Источник: пресс-служба "СберТех"
Источник: пресс-служба "СберТех"

Какие проблемы ИБ в сфере ИИ вы видите сегодня?

— Первая – это то, что я называю Shadow AI («Теневой ИИ» — несанкционированное использование сотрудниками внешних ИИ-сервисов для выполнения рабочих задач, прим. ред). Пока корпорация только выстраивает архитектуру, роли, требования, агенты, токены, например, юристы уже используют LLM с личных устройств, потому что это ускоряет работу.

И тут возникают риски: BYOD, утечка конфиденциальных данных, персональных данных. Это не злонамеренный инсайдер, это недостаток внимания к кибербезопасности в процессе внедрения технологии.

Если смотреть шире, уже есть OWASP Top-10 для LLM – угрозы отравления моделей, промпт-инъекции, риски open source-площадок вроде Hugging Face. Форматные модели могут нести исполняемый код – можно скачать модель, а вместе с ней майнер.

Отдельная история – использование ИИ злоумышленниками. Автопентесты, модели двойного назначения, которые перебирают уязвимости, ищут Zero Day. Это новый уровень угроз.

Нужно ли разрешать «даркнет-нейронки» пентестерам?

— Двоякая история. Возьмем Metasploit или Kali Linux. В инфраструктуре их быть не должно – это инцидент. Но есть конкретный «белый хакер», для которого это рабочий инструмент.

Нужно жесткое регулирование, изоляция, контроль. Я привожу аналогию с правом на оружие: оно запрещено, но у строго определенных людей есть лицензия. Так же и здесь – четко контролируемое исключение.

Отстает ли ИБ от развития ИИ?

В части инструментария – по некоторым угрозам да. Но многие классические технологии можно адаптировать. Мы, например, дорабатываем API Security Gateway, превращая его в AI-firewall.

Промпт-инъекции невозможно закрыть на 100%. Важен вопрос реагирования. В этом плане рынок зрелый – расследовать и реагировать мы умеем.

Есть ли готовые решения для защиты ИИ?

— В настоящее время рынок решений для защиты ИИ находится на этапе развития. Open source-инструменты полезны для экспериментов и тестирования, но для промышленного применения компании разрабатывают собственные гардрейлы, валидаторы и шлюзы. Мы тоже активно работаем в этом направлении, превращая наш опыт по защите ИИ в полноценный продукт.

Есть ли движение со стороны регуляторов?

— Да, в приказах для ГИСов и КИИ уже появляются меры по защите ИИ. Мы участвуем в рабочих группах по выработке требований. Думаю, полноценная регуляторика появится в 2026 году. И это своевременно.

Что ждать в 2026–2028 годах в ИБ для ИИ?

— Во-первых, регуляторики. Во-вторых, развития средств защиты. В-третьих, громких инцидентов именно вокруг ИИ в промышленной эксплуатации.

Технология уже пошла в промышленность, а значит, защищать ее уже пора – не обсуждать, а реализовывать.