Ужесточать ли наказание для мошенников за ИИ: насколько нейросети опасны в руках преступников
В Минюсте скептически отнеслись к предложенным Минцифры поправкам в Уголовный кодекс, делающим использование ИИ отягчающим обстоятельством для преступников. Профильные ассоциации, дававшие заключения по документу, также считают, что инициатива может создать противоречия и барьеры для отрасли, поэтому требует конкретизации понятий, например, дипфейков. Между тем ИБ-эксперты отмечают, что ИИ скоро станет основным инструментом мошенников, а один скрипт будет создавать инциденты, для которых раньше требовался целый колл-центр.
Отягчающее или нет
Министерство юстиции дало критическую оценку законопроекту Минцифры, согласно которому использование искусственного интеллекта в мошеннических схемах предлагалось расценивать как отягчающее обстоятельство. Как сообщили «Ведомости», по мнению замглавы Минюста Вадима Федорова, за подписью которого было отправлено заключение по поправкам, такое нововведение приведет к формированию противоречивой правоприменительной практики. Кроме того, понадобятся дополнительные экспертизы, что повысит нагрузку на экспертные учреждения и увеличит сроки рассмотрения уголовных дел.
В Минюсте подтвердили SecPost, что проект поправок в Уголовный кодекс находился на рассмотрении министерства «на предмет проведения правовой и антикоррупционной экспертиз». Заключение направлено в Минцифры.
В пресс-службе Министерства цифрового развития, связи и массовых коммуникаций пояснили, что версия законопроекта, которая оказалась в распоряжении СМИ, уже неактуальна. Однако, какие изменения с того времени внесли в инициативу, в Минцифры не уточнили. «До официального внесения в Госдуму распространять документ не представляется возможным», — отметили SecPost в министерстве.
За то, чтобы сделать использование ИИ в мошенничестве отягчающим обстоятельством, активно выступали силовики. В частности, сделать это предлагал глава Следственного комитета России Александр Бастрыкин на совещании президента Владимира Путина с членами правительства в марте прошлого года.
«Статья 63 (Уголовного кодекса — обстоятельства, отягчающие наказание), которая существует, должна быть дополнена вот этим моментом, что являются отягчающими обстоятельства, когда используются современные информационные технологии и искусственный разум», — сказал Бастрыкин. Он добавил, что в России уже зафиксированы случаи, когда ИИ «вторгался в систему финансового обеспечения», правда, не сообщил деталей.
Президент в апреле по итогам этого совещания дал поручение правительству вместе с Верховным судом, МВД, СК и ФСБ «рассмотреть вопрос о целесообразности признания в качестве обстоятельства, отягчающего ответственность или наказание, использования при совершении правонарушения (преступления) технологий ИИ и при необходимости обеспечить внесение» поправок в парламент до января 2026 года, сообщалось на сайте Кремля.
От ИИ к дипфейкам
Идею ужесточать наказание за применение ИИ мошенниками поддерживал глава комитета Госдумы по информационной политике Сергей Боярский. «Будем делать отягчающим обстоятельством использование специальных технологий и дипфейков при совершении преступлений — уже в новом антифрод-пакете», — сообщал депутат в своем телеграм-канале в июне.
В Альянсе в сфере искусственного интеллекта считают, что при сегодняшнем отсутствии концептуального регулирования закрепление понятия искусственного интеллекта в Уголовном кодексе в качестве отягчающего обстоятельства несет риски криминализации и формирования противоречий в юридической практике. «Предлагаемое определение ИИ слишком общее, быстро устаревает и может неоднозначно трактоваться в судах, создавая дополнительную нагрузку на судебную систему и барьеры для легального использования технологий», — отмечает генеральный директор альянса Валерия Воробьева.
По мнению Воробьевой, бороться следует с конкретными мошенническими практиками, а не с самим фактом применения ИИ. В частности, такие явления, как дипфейки, можно и нужно четко и однозначно фиксировать в законе, считает она.
В Ассоциации больших данных (АБД) также поддерживают позицию Минюста о необходимости более взвешенного подхода к предлагаемой норме. В АБД считают, что попытка закрепить использование ИИ как отягчающее обстоятельство несет серьезные риски и потенциальные барьеры для ИИ-отрасли, сообщили в пресс-службе объединения. «Мы поддерживаем ужесточение ответственности для мошенников, но считаем принципиально важным фокусироваться на квалификации деяний с учетом их общественной опасности, а не исходя из формального применения тех или иных технологий», — комментируют в ассоциации.
Зампред правления «Сбера» Станислав Кузнецов в октябре на форуме «Диалоги о фейках 3.0» выразил мнение, что для эффективного противодействия мошенникам необходимо признать отягчающим обстоятельством дипфейки. Он отметил, что киберпреступники уже активно используют их, подделывая видео и голосовые сообщения конкретных людей.
Переломный момент
ИИ позволяет мошенникам увеличивать количество атак и масштабировать их, говорит руководитель департамента социальных сервисов Infosecurity (ГК Softline) Константин Мельников. С демократизацией ИИ-технологий эти решения стали доступны широкому кругу пользователей, в том числе злоумышленникам, что привело к заметной эскалации угроз в цифровом пространстве, подчеркнул он.
«Одним из наиболее заметных последствий стал рост фишинговой активности. Во-первых, автоматизация рутинных процессов через ИИ привела к увеличению количества мошеннических ресурсов. Во-вторых, злоумышленники начали активно применять модели для создания фото- и видеоконтента», — отметил Мельников.
В 2025 году мошенничество с применением ИИ достигло нового пика: 87% организаций в мире столкнулись с ИИ-атаками, дипфейк-инциденты выросли на 2137% за три года, а 82,6% фишинговых писем теперь создается с помощью искусственного интеллекта, приводит цифры эксперт по информационной безопасности «Инфосистемы Джет» Андрей Захаров. «Мы переживаем переломный момент, когда мошенничество становится ориентированным на ИИ по своей природе. Где-то это развито больше, где-то меньше, но тренд один», — уверен он.
Кроме генерации видео, голоса и изображений, мошенники обращаются к нейросетям за «консультациями», чтобы придумать новые или доработать имеющиеся сценарии атак, полагает руководитель Bi.ZONE Digital Risk Protection Дмитрий Кирюшкин. «Даже если с жертвой общается непосредственно человек, это не говорит о том, что злоумышленники не использовали большие языковые модели для подготовки схемы обмана», — считает эксперт.
Число атак с применением дипфейков в 2025 году выросло более чем вдвое, и этот тренд сохраняется, говорит архитектор систем ИБ компании «Гарда» Артемий Новожилов. Главное изменение, по его словам, в том, что ИИ перестал быть «дорогой игрушкой» для элитных хакеров и стал SaaS-услугой для мошенников среднего звена, позволяющей автоматизировать создание фишинга и подделку голосов «за копейки».
Основной фокус сейчас на голосовых дипфейках, поясняет Новожилов: 3-5 секунд записи голоса из соцсетей или мессенджеров достаточно, чтобы сгенерировать убедительный звонок от имени руководителя или родственника.
Защита от киберугроз, в том числе с использованием ИИ, начинается с осознанности действий, уверен Константин Мельников. Прежде чем скачивать ПО или переходить на сомнительные ресурсы, следует оценивать легитимность этих действий и возможные риски. При этом особую осторожность требуется проявлять в ситуациях, связанных с цифровыми двойниками и дипфейками.
«Дипфейки можно распознать по ряду признаков. Несмотря на высокое качество современных подделок, они редко бывают идеальными», — объясняет Мельников. Чаще всего такие записи ограничиваются изображением лица, шеи и плеч, так как злоумышленники не всегда располагают полными данными о внешности человека. Во-вторых, речевые обороты и произношение могут быть неестественными из-за недостаточной обработки звука.
С ростом объема и качества ИИ-контента стремительно развиваются и специализированные инструменты для выявления дипфейков с мультимодальным подходом к анализу, отмечает Андрей Захаров. «В ближайшем будущем начнут внедряться новые механизмы аутентификации и авторизации ИИ-агентов: каждый легитимный агент получит уникальный идентификатор и будет иметь подписанный пользователем мандат на выполнение определенных операций. Все остальные действия ИИ-агентов будут блокироваться», — полагает эксперт.
Защита все чаще строится по принципу ИИ против ИИ, подчеркнул Артемий Новожилов. Компании внедряют детекторы синтетического контента, которые анализируют голосовые и видеоартефакты, выявляя признаки генерации.
«Параллельно усиливается поведенческий анализ: банки и финтех постепенно переходят от контроля того, что именно вводит пользователь, к анализу того, как он это делает, — по поведенческим паттернам, типичным маршрутам в приложении и аномалиям в сценариях действий. Это помогает ловить атаки даже тогда, когда злоумышленник выглядит убедительно и действует “по инструкции”», — сказал Новожилов.
Не верить глазам и ушам
Безопасность ИИ затрагивает разные уровни работы компании – от юридических аспектов до подразделений ИТ и ИБ, например, как ограничивать использование «теневого ИИ», говорит руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин. Также, по его словам, необходимо подключать профильную экспертизу ИИ-специалистов и смежных команд — аналитиков и data science — для учета особенностей их процессов. «В идеальной модели в офисе цифровой трансформации должны работать отдельные эксперты по безопасности ИИ, координирующие все задействованные команды», — считает Аникин.
В дальнейшем тренд на использование ИИ в киберпреступлениях будет активно набирать обороты, а число связанных с этим инцидентов — расти, прогнозирует Константин Мельников. При этом построение абсолютной защиты крайне затруднено. Многие опасные ИИ-сервисы базируются за рубежом, что осложняет контроль и расследования, а их разработчики юридически снимают с себя ответственность, добавил эксперт.
К 2027 году можно будет ожидать массовую персонализацию атак, когда ИИ будет собирать досье на жертву по утечкам, открытым данным и автоматически генерировать уникальный сценарий для нападения на конкретного человека, предполагает Артемий Новожилов. При этом атака, которая раньше требовала работы целого колл-центра, будет выполняться одним скриптом. «Удастся ли выстроить защиту? Технически — да, но человеческий фактор останется слабым звеном. В 2026 году безопасность — это не только антивирус, но и умение человека не верить своим глазам и ушам», — резюмировал архитектор систем ИБ компании «Гарда».
