00:0508 февраля 2026
Бизнесу следует заранее подготовиться к рискам, связанным с анализом и фильтрацией интернета при помощи искусственного интеллекта.
Впервые за 10 лет трафик ИИ–ботов в интернете превысил человеческий — об этом в недавнем отчёте рассказала американская IT–компания Imperva. По её данным, 51% всего интернет–трафика в мире теперь стал ИИ–сгенерированным. У западных телеком–операторов боты составили даже 56% трафика.
Боты выполняют во Всемирной сети самые разные задачи: ищут и анализируют информацию, необходимую для маркетинговых стратегий, облегчают работу с поисковыми системами, обрабатывают запросы клиентов, оптимизируя рутинные процессы, и многое другое.
Открывающиеся возможности настолько широки, что ими стремятся воспользоваться все, в том числе и злоумышленники. Как подсчитали специалисты Imperva, около трети ИИ–трафика принадлежало "плохим" ботам: программам, которые атаковали аккаунты пользователей и сайты предприятий. Почти каждая пятая ИИ–атака была направлена на системы связи.
Выше по привлекательности для мошенников был только сектор финтеха. Обычно атаки нацелены не на сами инфраструктуры, а на API (машинные интерфейсы, через которые приложения обмениваются данными). Боты массово отправляют запросы к API, чтобы собирать базы данных клиентов и цены, подбирать логины и пароли или имитировать транзакции, не заходя на сайт через обычный пользовательский интерфейс.
Список подозреваемых
Государственные структуры тоже не остаются в стороне от технологической гонки в этой области. В России последнее время об использовании ИИ–механизмов в интернете чаще всего говорят в связи с инициативами Роскомнадзора. Ведомство объявило об экспериментах с внедрением нейросетей ещё в 2024 году. В последних числах декабря 2025–го эти намерения обрели конкретику.
На заседании правительственной комиссии по цифровому развитию, использованию информтехнологий для улучшения качества жизни и условий ведения предпринимательской деятельности был представлен план цифровизации Роскомнадзора, где фигурировала сумма 2,27 млрд рублей, которую ведомство намерено потратить на создание и внедрение механизма фильтрации интернет–трафика с использованием ML–систем (Machine Learning, или машинное обучение). С их помощью планируется более эффективно отсеивать запрещённые ресурсы (в том числе VPN–сервисы) и контент.
Фильтрация и блокировка трафика осуществляются через автоматизированную систему безопасности российского сегмента интернета (АСБИ). Она анализирует проходящий через неё трафик и выявляет запрещённое содержимое. С помощью АСБИ заблокировано уже более 1 млн ресурсов, примерно по 5,5 тыс. адресов в день — об этом в интервью "Известиям" сообщал заместитель главы Роскомнадзора Олег Терляков ещё летом прошлого года.
Планы ведомства по усилению контроля, да ещё и с передачей части функций ИИ–агентам, вызвали противоречивую реакцию представителей общества и бизнеса.
По мнению бизнес–консультанта по информационной безопасности Positive Technologies Алексея Лукацкого, внедрение ИИ–фильтрации может повлечь за собой рост социальной напряжённости. Эксперт объясняет, что машинное обучение — это вероятностная история, которая не может быть лишена ошибок на 100%. Поэтому нельзя исключать и того, что во время внедрения и эксплуатации "под раздачу" попадут компании и граждане, трафик которых не был противозаконным.
Последствия попадания в "список подозреваемых" от Роскомнадзора могут быть разными: как минимум блокировка, а как максимум — административное дело по соответствующим статьям КоАП. Тем не менее, считает Алексей Лукацкий, оценивать работу нейросетей и их эффективность в работе технических средств противодействия угрозам (ТСПУ) пока рано.
Тонкие настройки
Для многих игроков рынка необходимость развёртывания ML–систем на страже российского интернет–трафика и перспективы их использования не вполне очевидны.
DPI (deep packet inspection) анализирует не только адреса и порты, но и часть содержимого и метаданных сетевых пакетов, сверяя их с заранее заданными сигнатурами и шаблонами поведения. Это позволяет достаточно точно понимать, какой сервис передаёт данные, и относить поток к нужной категории: веб–серфинг, видео, мессенджеры, VPN, торренты. А после уже к каждой категории применять свои правила фильтрации и приоретизации.
ИИ используется, когда анализируемый трафик оказывается дополнительно зашифрован или "усложнён". Сервисы нередко меняют протоколы, маскируют свои запросы под другие типы трафика и используют нестандартные схемы передачи данных, из–за чего обычных заданных правил DPI уже не хватает. Таким образом, ML–решения представляют собой скорее "надстройку" или дополнительный инструмент для особых случаев в Сети.
Алексей Лукацкий также отмечает, что основным вызовом при развёртывании ИИ–анализа трафика может стать рост нагрузки и объёма данных.
"Отличия связаны с несколькими факторами. Иными скоростями передачи трафика — десятки и сотни гигабит в секунду. Архитектурой — территориальная распределённость на всю страну и на разных операторов связи, на чьих площадках будут установлены соответствующие технические решения. Отказоустойчивостью — цена отказа или ошибки существенно выше", — рассуждает он.
Под ценой отказа или ошибки имеются в виду случаи, когда, к примеру, проводится блокировка не того сервиса или сайта. В результате доступ к нему теряют тысячи или даже сотни тысяч пользователей. А если на этот ресурс были завязаны какие–то коммерческие операции, то бизнес несёт убытки.
При этом, если эти решения будут работать только в режиме мониторинга, без активной блокировки, нагрузка может испытываться не так остро.
В рамках полномочий
Генеральный директор юридической компании "Достигация" Артём Баранов подчёркивает, что с точки зрения формальных полномочий Роскомнадзору не требуется отдельный закон, посвящённый именно внедрению машинного обучения.
"Роскомнадзор является контролирующим органом, поэтому все необходимые для контроля полномочия, вне зависимости от формата, у него уже есть — в законе о связи, законе об информации, законе о суверенном интернете и так далее. Для внедрения ML–систем специального закона не требуется, это по сути модернизация уже существующей инфраструктуры и продолжение курса на “суверенный интернет”", — говорит Артём Баранов. При этом, по оценке юриста, эта модернизация способна сделать российскую систему фильтрации одной из самых технологичных в мире.
"В этот момент фундаментальная статья 23 Конституции РФ о неприкосновенности частной жизни и тайне переписки оказывается под давлением. Для обычных пользователей будет снижаться уровень конфиденциальности (в том числе за счёт анализа зашифрованных потоков), а для бизнеса — расти риск блокировки критически важных сервисов", — отмечает Артём Баранов.
Формально операторы несут ответственность за неисполнение требований Роскомнадзора и могут получить административное наказание. По идее, и сам регулятор в случае неправомерной блокировки должен отвечать перед пользователями или операторами за понесённые убытки.
"Но на практике привлечь контролирующий орган к такой ответственности крайне сложно, если вообще возможно. Чаще всего вы получите формальную отписку с отсылкой к общим “резиновым” нормам права, которые можно приложить к любой ситуации", — добавляет Артём Баранов.
По оценке специалиста, законодательству не хватает нескольких элементов. В частности, он предлагает прямо указать в законе об информации или подзаконных актах, что Роскомнадзор вправе использовать автоматизированные системы (включая ML) для выявления угроз и способов обхода блокировок, обязать регулятора хотя бы в общих чертах публиковать критерии и методики принятия решений алгоритмами и ввести понятный механизм досудебного обжалования ложных срабатываний.
Отдельно он говорит о необходимости чётко закрепить ответственность государства за ущерб от ошибок алгоритма. Например, через специальный фонд или механизм ex gratia выплат. Также стоит проводить оценку влияния на права граждан (privacy impact assessment) перед внедрением таких систем.
"Но, судя по практике последних лет, законодатель может предпочесть промолчать и дать Роскомнадзору действовать в рамках уже имеющихся полномочий", — резюмирует эксперт.
Бизнесу — приготовиться
Для компаний развитие ML–фильтрации трафика — это в первую очередь история про устойчивость собственных цифровых процессов. Чем больше бизнес завязан на онлайн–сервисы, облака, API и постоянные интеграции, тем чувствительнее он к ложным срабатываниям и точечным ограничениям. Фактически любая система, которая автоматически маркирует трафик как нежелательный, добавляет ещё один слой инфраструктурного риска поверх уже существующих — от перебоев у провайдеров до сбоев в дата–центрах.
Как уже отмечали эксперты, говорить о существенных изменениях в работе сетевых сервисов пока рано. Но подобные системы постоянно растут в качестве работы, поэтому вполне вероятно, что в ближайшем будущем борьба с незаконным контентом будет осуществляться ещё точнее и эффективнее.
Однако именно здесь и могут возникнуть риски для бизнеса. Многие компании используют те же технологии, что и частные пользователи: VPN–тоннели для зарубежных платформ и дата–центров, доступ к облачным сервисам, транзакции через международные платёжные шлюзы, интеграции с глобальными SaaS–сервисами (облачными приложениями по подписке — CRM, бухгалтерия).
Часть из них подпадают под законодательный запрет на территории страны, часть — нет. Но для алгоритма это всё будет трафик с определёнными "подозрительными" признаками.
Если модель решит, что часть такого потока похожа на обход блокировок, ограничение может затронуть не только "теневой" и нелегальный сегмент, но и вполне легальные операции. От работы распределённой команды до синхронизации складских и финансовых систем.
Практических выводов для компаний несколько.
Во–первых, критичные IT–сервисы (платежи, CRM, доступ к SaaS, личные кабинеты) придётся проектировать с учётом возможных "просадок" по трафику — с резервированием каналов, альтернативными поставщиками и сценариями быстрого переноса нагрузки.
Во–вторых, бизнесу стоит внимательнее отнестись к юридической части: прописывать в договорах с провайдерами режим инцидентов, фиксировать факты блокировок и деградации, чтобы иметь основу для претензий и переговоров, если что–то пойдёт не так.
В–третьих, по мере появления подзаконных актов и практики применения ML–фильтрации крупным компаниям, особенно работающим с чувствительными данными и массовыми пользователями, логично заложить в риск–карты отдельную строчку под регуляторные и инфраструктурные риски, связанные с трафиком.
Ждать, что освоение государственными структурами ИИ–инструментов откроет новый сегмент рынка или как–то существенно повлияет на работу компаний сферы кибербезопасности, не стоит.
"Вероятно, заказ на разработку поступит к генподрядчику, ответственному за создание и поддержку работы ТСПУ, который просто добавит ещё один механизм выявления и блокирования доступа к запрещённой информации или ресурсам. А учитывая закрытость и самого разработчика ТСПУ, и используемых им технических решений, эта тема вряд ли попадёт на передовицы даже специализированных изданий, не говоря уже о более массовом сегменте", — поясняет Алексей Лукацкий.

