Когда реальный контент не отличается от сгенерированного, манипулировать информацией становится очень легко. Современные инструменты по типу маркировки ИИ–контента могли бы стать решением этой проблемы.
Дипфейк — это метод синтеза контента, основанный на машинном обучении и искусственном интеллекте. Нейросеть накладывает фрагменты контента на исходное изображение. Подменяются лицо, мимика, жесты и голос человека в видео или на звуковой дорожке. Так описывает дипфейк статья "Сбера", одной из российских компаний, которые активно занимаются распознаванием ненастоящих видео в Сети.
Реально ли распознать подделку
В 2022 году 57% из 16 тыс. опрошенных заявляли, что могут распознать дипфейк. При этом некоторые исследования показывали, что качественно сделанное видео удаётся опознать только 24,5% опрошенных. При этом стоит учитывать, что качество подделок увеличивается нелинейно: за 3 года индустрия генеративных видео прошла от нелепых низкокачественных видео до неотличимых от реальных записей фрагментов.
Этим активно пользуются злоумышленники. В среднем каждые 5 минут в мире происходит попытка мошенничества при помощи подмены личности, отмечает компания кибербезопасности Entrust. Согласно её отчёту, в 2023–м количество махинацией с ИИ (identity fraud, подмена личности онлайн) выросло на 3000%. Более 50% опрошенных ожидают рост количества мошенников в ближайшие годы, приводят данные исследователи компании Deloitte. Интересно, что более склонны к пессимистичным прогнозам те, кто уже встречался со злоумышленниками.
Оценки ущерба от дипфейков
Выросло не только количество случаев мошенничества с дипфейками, но и суммы, которые похищают злоумышленники. К 2027 году в Соединённых Штатах потери от этого вида обмана могут составить до $40 млрд — это рост на 32% в год. В 2023–м было похищено $12,3 млрд.
Чаще всего используют образы медийных личностей (46%) в видеоформате — дальше идут фото– и аудио. Чтобы подделать голос, сейчас требуется 5–7 минут и небольшой голосовой фрагмент носителя. Общие потери россиян от кибермошенничества сейчас эксперты оценивают в 250–300 млрд рублей.
Вычислить реальный масштаб проблемы на уровне стран или мира затруднительно: далеко не все заявляют о мошенничестве (кто–то боится репутационных рисков, а кто–то предоставляет только общую информацию). Скорее всего, рынок дипфейков наносит ещё более серьёзный урон, чем это показывают цифры, — и он продолжит расти с развитием искусственного интеллекта.
Особое внимание на детали
Но как отличить качественный дипфейк от подлинника — и что делать, чтобы обезопасить себя?
Эксперты советуют обращать внимание на мелочи: несовпадение освещения, неровный тон кожи, неестественные тени, "пластиковую" гладь лица — обычные признаки дипфейка. Особое внимание уделяют глазам, бровям, рту — артефакты в этих деталях часто выдают подделку.
Детекторы вроде OpenAI Deepfake Detector, Intel FakeCatcher, Microsoft Video Authenticator и университетский DeepFake–o–meter анализируют различные признаки биологической активности (например, изменения цвета кожи, пульса) — и при этом выдают процентную оценку вероятности фейка.
Однако такие системы несовершенны — один и тот же клип может показать самые разные результаты, поэтому без интерпретации человеком даже самые современные решения малоэффективны.
Работают ли метки "Создано ИИ"?
Правительственные агентства и частные лаборатории строят комбинированные системы: от анализа метаданных и файловых артефактов (Error Level Analysis), через сравнение с биометрическими эталонами, до токенов подлинности и блокчейн–маркировки. Решения включают алгоритмы, которые не только отслеживают движения глаз, но и "всматриваются" вплоть до отражения света в роговице.
Помощь в борьбе с дипфейками ищут и на стороне платформ, а не только специальных распознавательных сервисов. Социальные сети предлагают всё чаще метки "ИИ–контент", повышая бдительность пользователей. Однако подобные метки носят несколько спорный характер. Наличие ярлыка снижает доверие к контенту, а если пост не промаркирован, не значит, что он не сгенерирован ИИ.
Государственный подход к борьбе с дипфейками
Решением последней проблемы занимаются и на государственном уровне. Так в РФ собираются внедрить систему, которая сама станет маркировать ИИ–контент. Об этом сообщил вице–премьер Дмитрий Чернышенко, отметив, что эта система будет работать при помощи водяных знаков — невидимых или слаборазличимых отметок на контенте. Помимо этого, изменения планируется внести и в кодекс этики искусственного интеллекта. Это не первые инициативы в России по упорядочиванию ИИ–контента. Ещё в начале 2024 года МВД страны заявило, что собирается разработать к этому году систему "Клон", с помощью которой правоохранительные органы будут выявлять подделку видеоизображений.
Что предлагают корпорации
Борьбой с дипфейками занимаются и отечественные IT–компании. В мае ПАО "МТС" заявило, что внедряет детектор VisionLabs с точностью распознавания фейков 99%. Основными клиентами называются компании, которые должны проводить идентификацию клиентов на основе 115–ФЗ для противодействия мошенничеству. Интересным аспектом для законодателей также мог бы стать вопрос обучения нейросетей. К примеру, Дания всерьёз намерена защитить данные пользователей до конца лета, чтобы их не использовали ИИ–компании для своих нужд. По мнению датчан, это также поможет против генерации поддельных "фотореалистичных" изображений и закрепит "неоспоримое право" на голос и внешность граждан.
Вопрос этики
В теории защита личности в цифровом пространстве могла бы стать логичным продолжением разметки ИИ–контента в России. С учётом того, что в стране планируют внедрять мессенджер Max от холдинга VK, о чём стало известно ещё весной, о сохранности и суверенитете данных пользователей стоит говорить уже сейчас: это вопрос и проблема сегодняшнего дня. В кодексе этики ИИ от Альянса в сфере искусственного интеллекта, созданного в рамках национальной инициативы, пока нет чёткого указания на то, что внешность или голос людей — их собственность и не может быть без спроса взята для нужд искусственного интеллекта. Тем не менее российские нейросети, такие как GigaChat или Kandinskiy, данные для обучения и создания текстов с изображениями откуда–то брали. Пока что зона этики в этой сфере стоит перед большим количеством вызовов и неоднозначных вопросов, которые исследователям, предпринимателям и законодателям нужно преодолеть.