ИИ меняет ландшафт киберугроз: выводы отчета Trend Micro

6 октября, 2025, 12:27

Искусственный интеллект стал одним из ключевых факторов, меняющих кибербезопасность. Он повышает эффективность бизнеса, но одновременно усиливает возможности атакующих. Компания Trend Micro представила отчет «State of AI Security Report 1H 2025», в котором описала, как развитие ИИ влияет на угрозы и какие новые риски возникают. С полной версией документа можно ознакомиться по ссылке.

По данным Trend Micro, 93 % руководителей в области ИБ ожидают ежедневных атак с использованием ИИ, а 66% опрошенных организаций ожидают, что ИИ окажет наиболее значительное влияние на кибербезопасность в этом году. Рост внедрений ведет к расширению «поверхности атаки»: ИИ уже присутствует в бизнес-процессах, аналитике, автоматизации и облачных сервисах. Сложные экосистемы моделей, баз векторных данных и API становятся новыми целями для злоумышленников.

Атаки на инфраструктуру ИИ

На международном конкурсе по поиску уязвимостей Pwn2Own Berlin 2025, организованном Trend Micro в рамках программы Zero Day Initiative, впервые тестировались системы искусственного интеллекта. За три дня специалисты выявили 28 уязвимостей, семь из них – в ИИ-компонентах: базах векторных данных, серверах инференса и контейнерных инструментах. Это показало, что инфраструктура ИИ подвержена тем же атакам, что и классические ИТ-системы, – эксплуатации устаревших модулей, ошибкам конфигурации и несвоевременным обновлениям.

Продолжение ниже

Боссы российского кибербеза

Trend Micro зафиксировала сотни открытых серверов, доступных без аутентификации, включая экземпляры Chroma DB и Redis. Контейнерные среды и инструменты работы с GPU становятся новой зоной риска: неправильная настройка может позволить атакующим получить полный контроль над системой.

Новые уязвимости и эволюция атак

Наряду с привычными проблемами ИТ-инфраструктуры появляются специфические риски, характерные именно для систем искусственного интеллекта. В 2025 году зарегистрирована критическая уязвимость в Microsoft 365 Copilot (CVE-2025-32711), позволявшая похищать данные через специально сформированные команды. Уровень риска оценен в 9,3 по CVSS – один из первых случаев официальной регистрации CVE для ИИ-сервиса.

Эксперименты Trend Micro показали, что приложения на базе LLM уязвимы к косвенным инструкциям, внедренным в данные, и к созданию небезопасных SQL-запросов. Возможны «хранимые инъекции» – вредоносные подсказки, сохраняемые в базах данных и срабатывающие при каждом обращении. Быстро распространяются prompt-атаки, использующие особенности рассуждений модели: Chain of Thought (эксплуатация пошаговой логики), Link Trap (внедрение вредоносных ссылок), невидимые инъекции (скрытые символы, воспринимаемые моделью), Prompt Leakage (раскрытие внутренних настроек). Эти техники превращают ИИ не только в цель, но и в инструмент атаки.

ИИ как инструмент киберпреступников

Искусственный интеллект уже стал частью стандартного набора средств злоумышленников. На подпольных форумах активно продаются «криминальные GPT» – версии языковых моделей без ограничений, а также сервисы обхода защитных механизмов («jailbreak-as-a-service»), предлагающие инструкции для взлома чат-ботов.

Автоматический перевод помогает группам расширять географию атак и действовать в странах, где раньше мешал языковой барьер. Это упрощает фишинговые кампании и затрудняет расследование. Одновременно deepfake становится одним из основных инструментов социальной инженерии: по данным Trend Micro, 36 % пользователей сталкивались с попытками обмана с помощью поддельного аудио или видео. Подделки применяются в мошенничестве, шантаже и для обхода идентификации (eKYC) на криптоплатформах. Рынок подделок растет. В открытом доступе появились дешевые сервисы генерации аудио и видео, а в даркнете сформировался сегмент «deepfake-as-a-service» с готовыми услугами под ключ. ИИ снижает порог вхождения в киберпреступность, облегчает масштабирование атак и делает угрозу более массовой и трудной для контроля.

Будущее: агентные системы и цифровые ассистенты

Следующий этап развития искусственного интеллекта связан с агентными системами, способными самостоятельно выполнять цепочки действий, обращаться к внешним сервисам и принимать решения без участия человека. Эти возможности открывают путь к полной автоматизации, но одновременно увеличивают количество потенциальных точек атаки.

Основные риски связаны с уязвимостями во внешних API, модулях и хранилищах, которые могут привести к компрометации всей системы. Опасность представляют и атаки через цепочку поставок – подмена или внедрение вредоносных компонентов в сторонние плагины и библиотеки. Сложная архитектура агентных решений делает невозможным ограничиться классической защитой «по периметру»: необходим многоуровневый контроль и постоянное тестирование. Для пользователей это проявится в виде цифровых ассистентов нового поколения, объединяющих работу нескольких агентов. Рост их функциональности повышает удобство, но создает и новые уязвимости: плагины и расширения могут содержать вредоносный код, а манипуляции ассистентами облегчают атаки социальной инженерии. Эксперты Trend Micro рекомендуют закладывать защиту на этапе проектирования, применять принципы zero trust — недоверие по умолчанию ко всем источникам данных — и регулярно проводить red teaming и пентесты, то есть комплексные проверки защиты с имитацией реальных атак.

Заключение и рекомендации

Развитие искусственного интеллекта создает новые бизнес-возможности, но и расширяет поверхность атак. ИИ становится частью критической цифровой инфраструктуры и требует такого же уровня защиты, как традиционные ИТ-системы.

По данным Trend Micro, уязвимости выявляются не только в базах данных, контейнерах и серверах, но и в специфических функциях ИИ – подсказках, агентах и интерфейсах взаимодействия. ИИ активно используется киберпреступниками для создания deepfake-контента, обхода идентификации и автоматизации атак. Следующий этап рисков связан с агентными системами, способными действовать автономно и взаимодействовать с внешними сервисами. Организациям необходимо включать ИИ-системы в общие процессы управления уязвимостями и обновлениями, применять принципы zero trust, фильтрацию данных и регулярное тестирование с учетом особенностей моделей. Особое внимание стоит уделить прозрачности работы цифровых ассистентов и контролю их расширений.