Автор фото: VStock_A/Shutterstock/FOTODOM

Реестр "доверенных" моделей может перекроить российский рынок искусственного интеллекта в пользу избранных.

Опубликованный Минцифры проект федерального закона "Об основах государственного регулирования сфер применения технологий искусственного интеллекта" пока выглядит как рамочный документ. Но для рынка его логика уже вполне понятна: внедрение ИИ перестаёт быть вопросом исключительно технологий. Теперь не менее важными становятся комплаенс, сертификация, капитальные затраты и доступ к рынку. Закон неизбежно повышает цену входа.
Причём не для всех одинаково. Крупные холдинги, госкорпорации, операторы ЦОД и системные интеграторы получают шанс закрепиться в качестве "доверенных" поставщиков. Малые разработчики, напротив, рискуют оказаться в положении субподрядчиков, нишевых команд или вовсе уйти в серый контур.
Одним из ключевых сюжетов становится будущий реестр "доверенных" моделей.
"В первую очередь выиграют крупные ИТ–холдинги и госкорпорации, у которых уже есть ресурсы, комплаенс и связи для прохождения процедуры подтверждения безопасности и качества. Для них реестр станет инструментом закрепления монополии на госзаказ и критическую инфраструктуру, так как альтернативы вне реестра к этим сегментам просто не допустят", — говорит директор по развитию CorpSoft24 Иван Болгар.
Руководитель продуктового направления Data Science в Hybrid Илья Лысенко считает, что часть небольших компаний всё же попытается заработать. Не на собственных фундаментальных моделях, а на сопутствующих сервисах — например, на создании решений, помогающих корпорациям проходить проверки регулятора.
Директор по GR промышленного интегратора "УльтимаТек" Дмитрий Трунов формулирует ещё жёстче: главные выгодоприобретатели — это не просто большие ИТ–игроки, а те, у кого уже есть связка "модель + ЦОД + комплаенс + доступ к госзаказу".
"Это порог, который стартапу пройти на порядок сложнее, чем холдингу с собственной инфраструктурой и службой сертификации", — подчёркивает он.
Управляющий партнёр "ДАР" Константин Смирнов полагает, что необходимое юридическое сопровождение, мощная ИТ–инфраструктура, выстроенное соответствие нормам информационной безопасности — это ресурс, который малому бизнесу часто просто недоступен.
Руководитель направления ИИ в SimbirSoft Илья Фомичёв прямо говорит, что госкорпорации получат преимущество не столько благодаря технологическому перевесу, сколько "благодаря близости к регулятору и участию в формировании самих критериев отбора".
Законопроект требует документации, оценки рисков, тестирования, журналирования инцидентов, назначения ответственных лиц, а в отдельных случаях ещё и подтверждения безопасности и качества. Все эти требования вполне подъёмны для корпорации, но для стартапа могут оказаться неподъёмным постоянным расходом.
"Вход в крупные проекты, особенно в госсектор, станет практически невозможным без соответствия требованиям реестра. Роль малых команд, вероятно, сместится на уровень субподрядчиков крупных игроков", — прогнозирует основатель noroots, Moll Y / X Валентин Микляев.
По мнению Константина Смирнова, у малых компаний два вероятных сценария: либо субподряд у крупных интеграторов, либо уход на рынки, где требования к ИИ–продуктам ниже.
Директор проектов Minerva Result в компании Minervasoft Денис Кучеров добавляет ещё более неприятный вариант: если у команды действительно сильный продукт с глобальным потенциалом, то внутри страны "модель устойчивого роста" может оказаться недостижимой. Тогда компании придётся рассматривать "релокацию и развитие в иностранных юрисдикциях как единственный способ масштабирования".
Технический директор N3. Tech Александр Чиченин не спорит с риском вытеснения, но считает, что проблема не в самой идее сертификации, а в том, как будет выстроена её архитектура. Решением он видит многоуровневую систему доверия, в которой корневые центры сертификации должны предоставлять право проведения дополнительной сертификации другим, производным центрам. Иначе говоря, вместо одного узкого горлышка нужен распределённый контур допуска, где малые команды смогут получать точечную сертификацию в своей нише.
Если система сертификации будет многоуровневой, то небольшие компании смогут конкурировать "не масштабом, а глубиной специализации". Если же реестр останется централизованным и тяжёлым, многие действительно будут обречены либо на субподряд, либо на уход в серый контур.

Локализация и серость

Отдельная проблема — требования к "суверенным" моделям. Разработка, обучение и эксплуатация — всё должно делаться в России, для российских граждан, оформлено российскими юрлицами, на российской инфраструктуре и с российскими датасетами.
Юрий Шевченко предупреждает, что при чрезмерной регуляторной нагрузке рынок может получить не реальную независимость, а волну гибридных схем. "Российская “обёртка”, локальный оператор или инфраструктура, но критические компоненты, обучение, донастройка или сервисная поддержка останутся иностранными", — поясняет он.
Илья Лысенко допускает, что вероятность массовой фиктивной локализации близка к 100%. По его словам, под видом суверенных разработок будут появляться решения, которые окажутся "лишь оболочкой, внутри которой работают западные API или слегка дообученные зарубежные open–source модели".
Директор департамента бизнес–решений и цифровой трансформации "Софтлайн Решения" Егор Ворогушин в свою очередь напоминает, что похожие механизмы уже наблюдались после 2022 года на объектах критической информационной инфраструктуры. Формально в контуре числилось одно решение, а фактически критичный процесс продолжал опираться на иностранную систему или сервис. Причём зачастую это не попытка обмана как такового, а следствие того, что быстро и безболезненно заменить сложный ИТ–ландшафт крупной организации почти невозможно.
Константин Смирнов полагает, что "полный запрет использования западных моделей маловероятен" и речь прежде всего идёт о том, чтобы не использовать зарубежные решения для критических задач в ключевых отраслях. Валентин Микляев согласен, что в первую очередь ограничения коснутся критической инфраструктуры и чувствительных отраслей, а на массовом и коммерческом рынке иностранные решения, вероятно, сохранятся.
Руководитель ИИ–направления "МТС Линк" Дмитрий Крюков обращает внимание на то, что переход на локализованные модели сам по себе не всегда означает капитальную пересборку сервиса. "Если речь про большие языковые модели (LLM), то заменить одну на другую обычно несложно: современные AI–сервисы чаще всего подключаются через похожие API", — говорит он.
Но затем начинаются детали: если продукт завязан на собственной базе знаний, то при смене модели часто приходится заново "подготовить" весь массив документов и данных под новую логику работы. Поэтому на скорость внедрения и конкурентоспособность новые требования действительно могут повлиять.
С аппаратной стороны картину описывает технический директор компании "Гигант Компьютерные системы" Игорь Юрин. По его словам, на рынке уже появилось отечественное многосокетное оборудование, включённое в реестр Минпромторга. Однако на отечественных площадках объёмы выпуска существенно ниже, фактически речь идёт о штучных или мелкосерийных заказах. При этом обязательная сертификация оборудования занимает от 2 месяцев до полугода и сопровождается значительными издержками. "В совокупности эти факторы неизбежно приводят к ощутимому удорожанию проектов", —предупреждает эксперт.
Высокотехнологичные компоненты по–прежнему производятся за пределами России, а значит, бизнес остаётся зависимым от логистики, валютных курсов и турбулентности мировой экономики.
Уровень строгости регулирования сферы ИИ сильно отличается от страны к стране
Уровень строгости регулирования сферы ИИ сильно отличается от страны к стране
Автор: TANYARICO/ Shutterstock/ FOTODOM
Большинство собеседников "ДП" признают: если финальные правила окажутся слишком тяжёлыми и непрозрачными, рынок начнёт искать обходные схемы. "Будут называть ИИ “аналитическим модулем”, выносить генерацию за пределы формально значимого процесса или использовать зарубежные модели через посредников", — прогнозирует Дмитрий Трунов.
Илья Лысенко полагает, что доказать техническую подмену в таких случаях будет чрезвычайно сложно, поскольку алгоритмы работают как "чёрный ящик", а внутренние веса защищены коммерческой тайной.
Основатель инженерного альянса прикладных информационных технологий Николай Свиридов убеждён, что если всё будет устроено именно так, как написано в законопроекте, то смысла уходить в тень может и не быть. Налоговые льготы и дополнительное финансирование способны компенсировать новые затраты. Но это, пожалуй, и есть главный вопрос ко всей конструкции: сможет ли государство сделать "белый контур" не только обязательным, но и экономически внятным.

Кто ответит за ошибку

Не менее болезненный блок — ответственность. Законопроект пытается распределить её между разработчиком, оператором, владельцем сервиса и пользователем. По мнению Юрия Шевченко, неопределённость правил может заставить бизнес отказаться от продвинутых кейсов и выбрать консервативный сценарий: либо вовсе не внедрять сложные ИИ–решения, либо использовать формально безопасные и менее эффективные решения".
Дмитрий Трунов говорит, что закон может охладить спрос на сложные ИИ–сценарии, особенно там, где решения автономны и затрагивают права граждан или критические процессы. "Бизнесу проще купить “безопасный калькулятор с ML”, чем внедрять автономную модель", — отмечает он.
Основатель и генеральный директор Invenrorus Евгений Елфимов допускает, что формально проект пытается разложить ответственность пропорционально вине. Но в реальной практике крайним чаще всего будет тот, кто ближе всего к контакту с пользователем и деньгами. "То есть бизнес, который внедрил ИИ в конкретный процесс и принял на себя решение использовать его в рабочем контуре", — поясняет Елфимов.
Именно поэтому, по его мнению, резко вырастет спрос на модели с доказуемой трассировкой решений, логированием, политиками ограничений и понятным человеческим контуром контроля.

Право на данные

Законопроект также пытается описать правила использования результатов, созданных с помощью ИИ, и в то же время допускает извлечение информации из охраняемых объектов для формирования датасетов и обучения моделей при определённых условиях. Именно здесь некоторые собеседники видят риск будущих конфликтов не меньше, чем в реестре доверенных моделей.
Егор Ворогушин призывает пока не торопиться с выводами: реальные границы допустимого использования данных, по его словам, определят правоприменение и подзаконные акты. Николай Свиридов тоже считает, что законопроект лишь обязывает разработчиков и владельцев сервисов заранее проработать порядок передачи прав и учёта интересов авторов исходных работ.
Но есть и гораздо более жёсткие оценки. Евгений Елфимов называет эту тему "одним из самых чувствительных сюжетов". Если возможность использовать защищённые авторским правом результаты для обучения моделей без согласия правообладателя закрепится без нормального механизма компенсации и оспаривания, рынок воспримет это как "частичную легализацию принудительного использования чужого контента (узаконенное пиратство)". По его мнению, развитие суверенного ИИ не должно строиться на подрыве доверия создателей контента.
Александр Чиченин, напротив, предлагает провести границу между публичными и приватными данными. Контент, находящийся в открытом доступе, по его логике, может использоваться для обучения моделей "так же, как он используется для обучения людей". Но использование закрытых данных без согласия пользователей должно регулироваться гораздо жёстче.

Субъективная традиционность

Отдельный пласт вопросов связан с требованием соответствия ИИ "традиционным ценностям". Этот пункт эксперты называют одним из самых размытых элементов регулирования. Как отмечает Дмитрий Трунов, в проекте закона сами ценности сформулированы широко, а оценка их соблюдения передаётся уполномоченным организациям, что создаёт проблему измеримости. Если безопасность можно проверить через бенчмарки и тесты, то понимание смыслов неизбежно переходит в область интерпретаций.
Николай Свиридов предполагает, что на практике это может означать ручное тестирование экспертными группами. При этом риск субъективности и ошибок остаётся высоким, а сами требования могут оказаться сопоставимыми с попыткой формализовать культурный контекст через технические критерии. В результате регулирование может затронуть не столько архитектуру моделей, сколько правила фильтрации и настройки контента, усилив роль операторов, отвечающих за интерпретацию допустимого поведения ИИ.
Николай Свиридов считает, что закон скорее поможет отсечь "сырые, непродуманные и непротестированные" решения и тем самым поощрит добросовестных разработчиков. Евгений Елфимов тоже отмечает, что понятные правила могут сделать рынок взрослее, вытеснив "декоративные" ИИ–проекты. Но только в том случае, если комплаенс не станет настолько тяжёлым, что "дешевле вообще ничего не внедрять".
По мнению Юрия Шевченко, главный риск проекта не в прямом запрете как таковом, а "в создании атмосферы регуляторной осторожности, которая замедляет инновации сильнее любого прямого ограничения".
На нашем сайте используются cookie-файлы. Продолжая пользоваться данным сайтом, вы подтверждаете свое согласие на использование файлов cookie в соответствии с настоящим уведомлением и Политикой о конфиденциальности.