Правительство будет регулировать ИИ руководствуясь «традиционными российскими духовно-нравственными ценностями»
Проект закона «Об основах регулирования сфер применения технологий ИИ» обяжет разработчиков моделировать риски, а операторов — тестировать системы на возможность противоправного использования. Документ вводит реестр «доверенных моделей» для госсистем и КИИ, обязательную маркировку синтезированного контента и согласование нормативных актов с ФСТЭК.
Правительством Российской Федерации внесен на рассмотрение проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Целью документа, как указывается в пояснительной записке, является создание правовых условий для развития и внедрения ИИ при обеспечении безопасности личности, общества и государства.
Законопроект вводит базовые понятия: искусственный интеллект, системы и сервисы на его основе, а также большие фундаментальные модели ИИ. Регулирование, согласно тексту документа, будет строиться на принципах верховенства прав человека, риск-ориентированного подхода и обеспечения технологической независимости. Отдельно подчеркивается необходимость учета традиционных российских духовно-нравственных ценностей.
В документе закрепляются требования к разработчикам, операторам и владельцам сервисов. Они обязаны обеспечивать безопасность, документировать архитектуру моделей, информировать пользователей о взаимодействии с ИИ и незамедлительно приостанавливать эксплуатацию при угрозе причинения вреда.
Координация регулирования
В документе устанавливается особая роль уполномоченного органа в сфере ИИ, с которым должны согласовываться все профильные нормативные акты. Как указано в статье 2 «Правовое регулирование отношений, связанных с применением технологий искусственного интеллекта», если в документах содержатся вопросы, относящиеся к компетенции органов исполнительной власти, уполномоченных в противодействии техническим разведкам и и органов, уполномоченных в области обеспечения безопасности (вероятнее всего, подразумеваются ФСТЭК и ФСБ), они подлежат обязательному согласованию с этими ведомствами.
Требования к безопасности разработки и эксплуатации
Критически важным нововведением, как следует из текста законопроекта, станет институт «доверенных моделей искусственного интеллекта», описанный в статье 8 «Обеспечение доверия и безопасности при применении технологий искусственного интеллекта». В соответствующий реестр будут включаться модели, прошедшие проверку на безопасность и качество, а также обеспечивающие обработку данных исключительно на территории России. Использование таких моделей станет обязательным в государственных информационных системах и на значимых объектах критической информационной инфраструктуры.
Законопроект также устанавливает особенности ответственности (статья 11 «Ответственность субъектов отношений в сфере искусственного интеллекта в соответствии с законодательством Российской Федерации»). Разработчик, оператор и владелец сервиса несут ответственность за результат работы ИИ, если они заведомо знали или должны были знать о возможности получения такого результата, и не приняли исчерпывающих мер для его предотвращения. Пользователь отвечает за умышленное использование результатов работы ИИ в противоправных целях.
В законопроекте закрепляются обязанности для участников рынка, фактически вводящие элементы DevSecOps в процессы создания ИИ. Разработчики, согласно статье 10 «Обязанности разработчика модели искусственного интеллекта, оператора системы искусственного интеллекта, владельца сервиса искусственного интеллект, пользователя сервиса искусственного интеллекта», должны моделировать потенциальные риски еще на этапе создания технологий, а также документировать архитектуру и логику работы моделей. Операторы систем ИИ, в свою очередь, обязаны проводить тестирование для выявления потенциальных возможностей их использования в противоправных целях. Для владельцев крупных сервисов (с аудиторией от 500 тысяч пользователей в сутки) предусмотрено выполнение обязанностей, установленных «пакетом Яровой» (статья 10.1 Федерального закона от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации»).
Маркировка контента и защита КИИ
Отдельные статьи посвящены защите прав граждан, вопросам интеллектуальной собственности и международному сотрудничеству. В частности, статья 12 «Идентификация синтезированного информационного материала» обязывает владельцев сервисов маркировать синтезированный контент (сгенерированные аудио, видео и тексты) специальными предупреждениями в формате, воспринимаемом человеком и машиночитаемом формате. SecPost ранее писал о планах Минцифры по созданию межведомственной группы по борьбе с дипфейками, а также о создании платформы «Антифрод» для борьбы с интернет-бандитами.
Кроме того, согласно статье 20 «Особенности создания и эксплуатация вычислительной инфраструктуры для искусственного интеллекта», системы искусственного интеллекта, отнесенные к объектам критической информационной инфраструктуры, могут эксплуатироваться только с использованием сертифицированных центров обработки данных, соответствующих требованиям органов безопасности и технической защиты информации.
В документе уточняется, что использование охраняемых авторским правом материалов для обучения ИИ не является нарушением при условии правомерного доступа к ним.
Предусмотрены меры поддержки отрасли, включая особые условия для создания и эксплуатации центров обработки данных (суперкомпьютеров), включенных в специальный правительственный перечень. Для них могут устанавливаться льготы по техприсоединению к электросетям, налоговые преференции и иные меры.
Вступление закона в силу, согласно проекту, планируется с 1 сентября 2027 года. Действие документа не будет распространяться на сферы обороны, безопасности государства и охраны правопорядка, если иное не предусмотрено профильными законами или указами президента.

