Михаил Киселёв Все статьи автора
27 июня 2021, 07:17 14370

"Судный день" откладывается: искусственный интеллект в ЕС регламентируют

Фото: Vostock-photo

Нейросети, дипфейки, искусственный интеллект, который в некоторых областях уже намного умнее человека, — всё это заставило официальный Брюссель подстраховаться заранее. Новейшие технологии решили регламентировать, а опасные — ограничить.

Разделили по рискам

Страны ЕС определились, на что потратить "коронавирусные" миллиарды

Страны ЕС определились, на что потратить "коронавирусные" миллиарды

9107
Михаил Киселёв

Свои предложения по регулированию систем искусственного интеллекта в Еврокомиссии представили ещё в конце апреля. Всего разработали два устава — Положение об ИИ и Положение о машинах.

В Брюсселе считают, что эти своды правил и запланированные действия должны помочь Европе стать глобальным центром надёжного ИИ. Однако документы могут усложнить разработку некоторых систем, особенно тех, которые будут отнесены к категории высокого риска.

Именно в соответствии с уровнем риска ЕК хочет классифицировать ИИ, а системы с наивысшим риском будут и вовсе запрещены. За нарушение правил могут быть наложены штрафы в размере до 6% от мирового оборота компании-нарушителя. Для крупных технологических корпораций эта сумма может исчисляться миллиардами.

Системы с минимальным риском, такие как видеоигры или спам-фильтры, вообще не будут регулироваться. Они будут свободно разрабатываться, распространяться и использоваться во всём ЕС.

Системы с низким уровнем риска, такие как чат-боты, будут подчиняться только требованиям прозрачности — пользователи должны будут знать, что они общаются с машиной.

Однако для систем, которые будут отнесены к категории высокого риска — таких как системы удалённой биометрической идентификации, включая интеллектуальные камеры видеонаблюдения, способные распознавать лица — предлагается установить гораздо более строгие требования.

Например, системы биометрической идентификации в принципе будет запрещено использовать непосредственно в общественных местах. Даже в целях соблюдения правопорядка. За исключением нескольких строго определённых исключительных случаев. Например, когда это необходимо для поиска пропавшего ребёнка или для предотвращения конкретного террористического акта. Также для розыска лиц, совершивших тяжкие преступления. Однако это должно быть санкционировано судом.

Экономика на стероидах: инфляция грозит ЕС новым кризисом

Экономика на стероидах: инфляция грозит ЕС новым кризисом

10383
Михаил Киселёв

Другие системы с высоким уровнем риска — такие как беспилотные автомобили, приложения кредитного скоринга (автоматическая система оценки кредитоспособности) или медицинская диагностика — смогут разрабатываться, продаваться и использоваться в ЕС. Но они должны будут соответствовать строгим требованиям, некоторые из которых еще не до конца ясны. Создатели систем ИИ уже сегодня готовятся тратить дополнительные средства и человеческие ресурсы на адаптацию к новым правилам.

Потребуют отчётности

Например, разрабатываемые системы IoT (так называемый "Интернет вещей" — аналитические инструменты интерпретации получаемой информации, Internet of Things) с высоким уровнем риска необходимо будет зарегистрировать и обеспечить при необходимости предоставление всех результатов их деятельности. Администраторы таких систем, в свою очередь, должны будут предоставлять контролирующим органам документацию с подробной информацией о системе, её возможностях и назначении.

"Системы IoT с высокой степенью риска должны будут подвергаться оценке риска и механизмам смягчения последствий, основанным на высококачественных наборах данных для минимизации риска и получения результатов, которые будут максимально недискриминационными", — говорится в отчёте ЕК.

Всё это станет дополнительным бременем для разработчиков, а особенно сложно, считают специалисты, придётся начинающим стартапам. Большие корпорации менее чувствительны к относительно дорогостоящим нововведениям и заранее закладывают в свои бюджеты расходы на администрирование разработок. Они иногда едва ли не равны расходам на всё производство.

"Чрезмерное регулирование всегда сильнее всего бьёт по начинающим компаниям. У них не так много средств. Крупные компании могут позволить себе нанимать адвокатов и платить штрафы. А разработчики, которые обычно не обладают юридическими знаниями, дважды подумают о том, чтобы заняться бизнесом, если им придётся потратить первые 6 месяцев на разъяснение закона. Попросту чтобы узнать, нарушает ли их продукт этот закон или нет", — комментируя инициативу Брюсселя в интервью газете Verslo zinios рассуждает президент Литовской ассоциации искусственного интеллекта Довидас Чейлутка.

"Я не говорю, что мы должны всё позволять и ничего не регулировать. Мы просто должны делать это разумно. В последнее время сектору IoT уделяется много внимания, хотя многое из того, что стартапы делают с помощью IoT, можно делать и другими, нерегулируемыми способами", — добавляет он.

Доказательством может служить пример Общего регламента по защите данных ЕС (GTPR). Эксперты в области IT в один голос утверждают, что это довольно абстрактный документ, который все применяют и интерпретируют по-разному. При этом практически невозможно на 100% соблюдать все правила, которые прописали европейские законотворцы.

Запрещённые системы

Последняя категория — неприемлемый риск IoT. Это системы, представляющие явную угрозу безопасности, средствам к существованию и правам людей. К ним относятся решения, при которых правительства могут применять модель социального ранжирования. В ЕС такие системы будут запрещены без исключения.

В докладе ЕК не упоминаются автономное оружие и беспилотники. Однако многие учёные по обе стороны Атлантики выступают за то, чтобы никогда не позволять машинам нажимать на курок. Поэтому можно с уверенностью предположить, что в ЕС не будет ни автономного оружия, ни исследований в этой области.

"Доверие к искусственному интеллекту — это не столько пожелание, сколько необходимость. Этими исключительными правилами ЕС поощряет создание новых глобальных норм, которые помогут обеспечить доверие к ИИ. Установив стандарты, мы сможем обеспечить развёртывание этических технологий по всему миру, гарантируя при этом, что ЕС останется конкурентоспособным", — комментирует исполнительный вице-президент Европейской комиссии Маргрете Вестагер.

"Наши перспективные и благоприятные для инноваций правила будут применяться только тогда, когда это действительно необходимо — когда на карту поставлены безопасность и основные права граждан ЕС", — добавила она.

Европейский парламент и государства-члены должны будут принять предложения ЕК по европейскому подходу к искусственному интеллекту и по техническим продуктам в рамках обычной законодательной процедуры. Правила будут иметь прямое действие на всей территории ЕС, а национальные органы надзора будут следить за их практическим внедрением.

По разным оценкам, в настоящее время ЕС по объёму инвестиций в ИИ в четыре раза отстаёт от США и в два раза от Китая. С точки зрения количества и веса американских, китайских и европейских IoT-решений и платформ на рынке, разрыв выглядит ещё более значительным. Совокупная рыночная капитализация американских и китайских платформ составляет около 90% мирового рынка IoT. На долю европейских платформ приходится только около 4%.

Выделите фрагмент с текстом ошибки и нажмите Ctrl+Enter
Новости партнеров
Реклама