Обратная сторона новостей. Генерацией фейков займутся не только люди, но и боты

Автор фото: vostock-photo
По данным ВЦИОМ, почти каждый второй россиянин (42%) признает, что не может отличить достоверную информацию от фейка. Без сомнений таким публикациям верят 31% опрошенных, подвох чувствуют 62%. Во многом страх перед фейковыми новостями выглядит надуманным, поскольку пока их можно распознать, проявив банальные навыки факт-чекинга.
Но были и опасные прецеденты: в 2013 году хакеры взломали twitter–аккаунт информагентства Associated Press и сообщили о взрыве, в результате которого был ранен Барак Обама. Это привело к обвалу на американском фондовом рынке.
Очередной всплеск фейковой информации в соцсетях ожидается в 2020 году во время предвыборной кампании в США. "Причем если раньше созданием fake news занимались люди, то теперь над этим будут активно работать системы искусственного интеллекта", — рассказывает основатель IT–компании XCritical Яков Лившиц. Впоследствии, уверен он, эта технология распространится не только на политику, но и на остальные сферы.

Американские боты

На днях ученым из Вашингтонского университета и Института Аллена по изучению искусственного интеллекта удалось создать нейросеть, которая может автоматически генерировать правдоподобные материалы. Система подготовила новость о добыче полезных ископаемых на Луне. По структуре, стилю письма, наличию цитат и ссылок на "источники" материал выглядит достаточно журналистским.
Нейросеть учили писать новости на примере базы текстов Wall Street Journal. В итоге она создала уникальный материал, собранный из слов и конструкций уже опубликованных текстов.
В начале года о развитии аналогичного проекта заявили ученые из института OpenAI в Сан–Франциско. Пытаясь воспроизвести алгоритм написания новостей, система сообщила, что Россия объявила войну США из–за действий Дональда Трампа.
Однако исследователь данных в "Лаборатории Касперского" Владислав Тушканов уверен, что нейросетевые технологии еще недостаточно развиты для того, чтобы стабильно генерировать текст без ошибок и странностей. "Кроме того, их выход сложно контролировать: нейросеть может отходить от темы, повторяться", — отмечает он.
В свою очередь, представитель IT–компании "Инфосистемы Джет" Анна Олейникова подчеркивает, что отличить достоверную информацию от фейковой порой уже бывает сложно, но все–таки можно. "Есть несколько признаков, например использование неподтвержденных источников, несуществующих людей и организаций", — добавляет эксперт.
Наиболее перспективная (и более трудозатратная) ниша для фальшивых новостей — это так называемые deepfake–видео. Недавно эта технология стала популярным развлечением на YouTube: лица одних актеров заменяются другими, и, например, фильм "Сияние" можно частично посмотреть в исполнении Джима Керри вместо Джека Николсона. По подсчетам нидерландской компании Deeptrace, к октябрю 2019 года в сети появилось 14,6 тыс. фейковых видео (большинство из них в категории "для взрослых"; против видео со своим "участием", например, публично выступала Скарлетт Йоханссон). В декабре 2018–го их было почти вдвое меньше — 7,9 тыс. Пока эта технология полна изъянов: deepfake не учитывает частоту моргания человека, да и в целом воспроизведение мимики пока дается системе с трудом, говорят эксперты.
Несмотря на возможный вред этой технологии, полностью ее запрещать никто не будет, поскольку она уже используется в коммерческих целях. "Deepfake также применяется для создания визуальных эффектов в кинематографе. Можно прогнозировать распространение deepfake для усиления впечатляющего эффекта в шоу–бизнесе", — считает Анна Олейникова.

Клин клином вышибают

Считается, что благодаря фейковым текстам и видео злоумышленники прежде всего смогут вести более качественную информационную атаку против конкретных лиц и компаний. Однако они могут служить и для более приземленных целей.
"Fake news существуют уже давно, их используют для решения оперативно–тактических задач. Среди них — финансовое мошенничество, агрессивная травля, банальная месть, моральный вред, создание помех следствию, лоббизм. Эти приемы успешно применяются на бытовом уровне, в бизнесе и в политике", — рассказывает аналитик управления системной архитектуры компании "Техносерв" Александр Голышко. Можно, например, использовать deepfake–образ популярного человека для рекламы мошеннических сайтов.
Методы борьбы с подобной угрозой кажутся немного парадоксальными: IT–компании и университеты разрабатывают собственные генераторы фейков. "Чем более мощным генератором мы располагаем, тем более успешно можем использовать его для автоматического обнаружения фальшивых текстов. Технологии для обнаружения сгенерированных видео тоже существуют, а компании, такие как Microsoft и Facebook, запускают конкурсы по дальнейшему их усовершенствованию", — рассказывают в "Лаборатории Касперского". Программист, который предложит наиболее эффективное средство борьбы с фейками, получит от компаний $10 млн.
На практике условная "фабрика троллей" и другие фейк–ньюсмейкеры пока эффективнее, поскольку они точно знают, какая информация заинтересует читателя. Однако распространение фейков размоет информационный фон и затруднит поиск действительно важных новостей.
Фейки — это очередной вызов как для индустрии информбезопасности, так и для соцсетей, новостных агентств и вообще всех участников информационного пространства. Традиционные механизмы защиты от неправды уже неприменимы, так как между потребителем информации и ее источником нет редакции с правилами факт–чекинга и личной ответственностью журналиста. Соцсети полны новостных лент сомнительного содержания, инструментарий для реализации технологии широкодоступен. Масштабная кампания в соцсети по дискредитации журналиста с использованием десятков тысяч фейковых профилей стоит порядка $50 тыс.
Михаил Кондрашин
технический директор Trend Micro в России и СНГ
Злоумышленники смогут использовать фейки для фишинга. Например, преступникам будет доступна имитация манеры речи или образа человека, который уполномочен давать важные указания и санкционировать переводы денежных средств. Еще одна угроза — распространение фейковой информации для дискредитации того или иного человека, публикация компрометирующих видеозаписей якобы с его участием. Впрочем, использование deepfake для банковского мошенничества пока маловероятно. Современные банковские нейросети сумеют распознать обман. Система анализирует голос, сопоставляя его с биометрическим слепком клиента. Но в будущем можно опасаться и учащения подобных инцидентов.
Андрей Арсентьев
руководитель отдела аналитики и спецпроектов ГК Infowatch