«Нужно жесткое регулирование, изоляция, контроль», – CISO «СберТеха» о принципах защиты ИИ и доступе «белых хакеров» к даркнет-нейросетям
Главный редактор SecPost Тимофей Корнев побеседовал в формате подкаста с директором по информационной безопасности «СберТеха» Всеславом Солеником. На просторах конференции «Код СберТеха» Всеслав рассказал о том, как компания использует ИИ, каким образом его защищает, каковы ключевые риски ИИ, а также поделился ожиданиями из области ИБ для искусственного интеллекта в 2026-2028 годах. В материале представлены ключевые тезисы подкаста, а с полной версией беседы можно ознакомиться в видеоформате.
Какие проблемы ИБ в сфере ИИ вы видите сегодня?
— Первая – это то, что я называю Shadow AI («Теневой ИИ» — несанкционированное использование сотрудниками внешних ИИ-сервисов для выполнения рабочих задач, прим. ред). Пока корпорация только выстраивает архитектуру, роли, требования, агенты, токены, например, юристы уже используют LLM с личных устройств, потому что это ускоряет работу.
И тут возникают риски: BYOD, утечка конфиденциальных данных, персональных данных. Это не злонамеренный инсайдер, это недостаток внимания к кибербезопасности в процессе внедрения технологии.
Если смотреть шире, уже есть OWASP Top-10 для LLM – угрозы отравления моделей, промпт-инъекции, риски open source-площадок вроде Hugging Face. Форматные модели могут нести исполняемый код – можно скачать модель, а вместе с ней майнер.
Отдельная история – использование ИИ злоумышленниками. Автопентесты, модели двойного назначения, которые перебирают уязвимости, ищут Zero Day. Это новый уровень угроз.
Нужно ли разрешать «даркнет-нейронки» пентестерам?
— Двоякая история. Возьмем Metasploit или Kali Linux. В инфраструктуре их быть не должно – это инцидент. Но есть конкретный «белый хакер», для которого это рабочий инструмент.
Нужно жесткое регулирование, изоляция, контроль. Я привожу аналогию с правом на оружие: оно запрещено, но у строго определенных людей есть лицензия. Так же и здесь – четко контролируемое исключение.
Отстает ли ИБ от развития ИИ?
В части инструментария – по некоторым угрозам да. Но многие классические технологии можно адаптировать. Мы, например, дорабатываем API Security Gateway, превращая его в AI-firewall.
Промпт-инъекции невозможно закрыть на 100%. Важен вопрос реагирования. В этом плане рынок зрелый – расследовать и реагировать мы умеем.
Есть ли готовые решения для защиты ИИ?
— В настоящее время рынок решений для защиты ИИ находится на этапе развития. Open source-инструменты полезны для экспериментов и тестирования, но для промышленного применения компании разрабатывают собственные гардрейлы, валидаторы и шлюзы. Мы тоже активно работаем в этом направлении, превращая наш опыт по защите ИИ в полноценный продукт.
Есть ли движение со стороны регуляторов?
— Да, в приказах для ГИСов и КИИ уже появляются меры по защите ИИ. Мы участвуем в рабочих группах по выработке требований. Думаю, полноценная регуляторика появится в 2026 году. И это своевременно.
Что ждать в 2026–2028 годах в ИБ для ИИ?
— Во-первых, регуляторики. Во-вторых, развития средств защиты. В-третьих, громких инцидентов именно вокруг ИИ в промышленной эксплуатации.
Технология уже пошла в промышленность, а значит, защищать ее уже пора – не обсуждать, а реализовывать.

