В этом руководстве мы поговорим о том, что такое дипфейки, как они могут серьезно навредить людям и организациям, и как защитить себя и избежать их.
В этом полном руководстве вы узнаете о:
С момента их первого появления многие люди, компании и правительства стали жертвами поддельных медиа, потеряв деньги и репутацию. Поскольку создать дипфейк может практически каждый с помощью доступных программ, каждый может стать его целью.
Поэтому хорошо уметь распознавать дипфейки на первый взгляд. Более того, так как угрозы от дипфейков могут коснуться многих других областей, исследователи пытаются разработать более точные методы обнаружения дипфейков.
Статья рассматривает различные виды дипфейков и освещает угрозы, которые они могут представлять, включая использование для обмана, шантажа, вмешательства в биометрические системы, создание непристойного контента, достижение политических целей и манипулирование общественным мнением.
Также в статье предложены методы распознавания дипфейков и рекомендации по защите от них, включая повышение собственной осведомленности и критического мышления, использование проверенных источников информации и применение специализированных инструментов для выявления подделок.
Дипфейки — это поддельные медиа, созданные путем манипуляций с человеком на существующем фото или видео с использованием мощных методов машинного обучения.
Например, в 2018 году появилось фейковое видео, на котором Барак Обама критикует Дональда Трампа, и оно стало вирусным. Основная цель этого видео была продемонстрировать, насколько мощными могут быть дипфейки. В 2019 году Марк Цукерберг появился в фейковом видео о том, как Facebook контролирует данные миллиардов пользователей.
Термин «дипфейк» образован от английских слов «deep learning» (глубокое обучение) и «fake» (подделка), потому что он использует архитектуры глубокого обучения, раздел машинного обучения и искусственного интеллекта.
Дипфейки создаются с помощью тренировки автокодировщиков или GANs для создания очень убедительных поддельных медиа. Любой может создать дипфейк и заставить людей верить, что это реально, хотя это не так, и это самая опасная часть таких фейковых медиа.
Впервые появившись в порнографическом видео с участием знаменитости в 2017 году, дипфейки быстро распространились в таких областях как политика, финансы, новости и т.д.
Многие знаменитости уже попали в интернет на порнографических видео, а политические лидеры оказывались в новостях, говоря слова, которые они никогда не произносили.
Техники создания дипфейков обычно требуют множества фотографий и видео целей. Лица известных личностей часто становятся целями из-за больших данных, доступных в интернете. Таким образом, дипфейки могут серьезно навредить репутации любой известной личности.
Сегодня популярные программы для создания дипфейков, такие как FakeApp, DeepFaceLab, FaceSwap и ZAO, легко доступны для всех, кто хочет создать дипфейк.
Дипфейки обычно подразделяются на несколько категорий, таких как:
Основой приложений для создания дипфейков являются две технологии глубокого обучения: автокодировщики и GANs.
Автокодировщики в основном используются для создания дипфейков с заменой лица. Чтобы сделать дипфейк видео с кем-то, сначала вам нужно обучить автокодировщик, состоящий из двух частей: кодера и декодера.
Обычно для этой техники используются две пары кодера и декодера. Вам нужно прогнать множество изображений двух людей, лица которых вы хотите поменять местами, через кодер. Чтобы эти изображения были как можно более реалистичными, они должны содержать лица, снятые под разными углами и в разном освещении.
Во время этого обучения кодер извлекает скрытые характеристики изображений или сжимает их до латентного представления. Затем декодер восстанавливает изображения из этого латентного представления.
Например, предположим, вы обучили изображение человека номер 1 с использованием декодера A. Декодер A затем восстанавливает изображение человека номер 2, используя характеристики человека номер 1. После этого вы можете использовать декодер B для восстановления этого изображения.
По завершении обучения меняйте местами два декодера, чтобы восстановить два разных изображения, в итоге заменяя их местами. ПО как ZAO и FakeApp популярны для создания реалистичных изображений на основе замены лиц.
GANs также состоят из двух алгоритмов: генератора и дискриминатора, которые работают друг против друга. Сначала генератор создает новые изображения из латентного представления исходного материала.
Затем алгоритм дискриминатора пытается определить, создано ли правильное изображение, чтобы обнаружить дефекты. Именно по этой причине генератор будет создавать как можно более реалистичные изображения.
Множество сервисов для создания дипфейков можно найти на теневом интернете.
Дипфейки могут стать серьезной угрозой для отдельных людей, бизнеса и общественных институтов.
Есть области, где дипфейки используются для повышения продуктивности. Например, создатели фильмов и 3D-видео сокращают время производства с помощью техник дипфейков. Их также можно использовать исключительно для развлечения широкой аудитории.
Однако основной мотив большинства дипфейков — манипулировать аудиторией и заставить ее верить в то, чего на самом деле не произошло или не было сказано.
Автор искажает данные и распространяет ложную информацию с различными злонамеренными целями. Например:
Среди всех этих примеров дипфейки могут стать серьезной угрозой для личности и репутации людей, конфиденциальных данных, таких как финансовая информация, кибербезопасности, политических выборов и многого другого.
Эти злоупотребления могут проявляться в мошенничестве против отдельных лиц и компаний, включая социальные сети.
В 2019 году The Wall Street Journal сообщал, что CEO британской энергетической компании был обманут и перевел 220 000 евро венгерскому поставщику по телефону.
Мошенник якобы использовал технологию аудио-дипфейков, чтобы имитировать голос CEO родительской компании и приказать сделать платеж.
Аудио-дипфейки — самый популярный вид дипфейков, используемых для мошенничества, которые заставляют людей думать, что они разговаривают с надежным собеседником. В большинстве случаев аудио-дипфейк имитирует, что звонящий — это высокопоставленный сотрудник, например, CEO или CTO.
Сейчас удаленная работа на подъеме из-за пандемии COVID-19. Поэтому количество бизнеса, проводимого через видеоконференции или по телефону, увеличивается, что делает их более уязвимыми для таких мошенничеств.
Компании находятся под высоким риском финансовых потерь и ухудшения своего имиджа из-за дипфейков. Они невольно помогают мошенникам совершать мошенничества, что может привести к нежелательным судебным искам.
Биометрические технологии широко используются как надежный метод доступа во многих организациях. Дипфейки могут серьезно повлиять на эту технологию, если она будет скомпрометирована.
Так как биометрия предоставляет доступ к ограниченным зонам, взлом сканеров лица даст несанкционированный доступ к этим зонам.
Дипфейки популярны на платформах социальных сетей и созданы для того, чтобы вызвать реакцию среди людей и максимизировать охват страниц. Предположим, есть страница в Facebook, размещающая дипфейки, связанные с политическими фигурами или какой-либо знаменитостью, и вызывающая бурю комментариев, создающую хаос.
Кроме того, можно ли гарантировать, что любой профиль соответствует реальному человеку? Вряд ли. Аватар, который вы видите на этом аккаунте в Facebook, может быть дипфейком. Если это так, то все, что они публикуют в своем профиле, скорее всего, тоже ненастоящее.
Еще одна область, подвергающаяся угрозе от дипфейков, — это политические манипуляции. Благодаря легкодоступному программному обеспечению для создания дипфейков, их легко создать и распространить среди широкой аудитории.
Из-за этого преимущества любой может использовать дипфейки для распространения ложной информации среди общественности для получения политических преимуществ, особенно во время выборов.
Один из ярких примеров — распространение поддельного видео американского политика Нэнси Пелоси в социальных сетях. На нем она, как будто бы, говорит в состоянии алкогольного опьянения.
Бывший американский президент Дональд Дж. Трамп поделился этим видео в своих социальных сетях, надеясь изменить образ Нэнси Пелоси, своей политической соперницы. В результате видео собрало более 2 миллионов просмотров и репостов в социальных сетях.
Угрозы от дипфейков не ограничиваются только политическими отношениями внутри одной страны. Они могут даже выходить за рамки национальных границ и подрывать отношения между странами.
Например, в 2020 году премьер-министр Австралии, Скотт Моррисон, потребовал извинений от Китая из-за поддельного твита, в котором показано, как австралийский солдат угрожает убить афганского ребенка, держа нож у его горла.
Это изображение вызвало гнев в интернете и временно подорвало двусторонние отношения между правительствами Австралии и Китая. Поэтому многие органы подчеркивают необходимость контролировать дипфейки на платформах социальных сетей, направленных на получение политических преимуществ.
Существует несколько методов, которые помогут выявить дипфейки.
Если вы заметили, что кто-то появляется в видео, делая что-то необычное, всегда проверяйте следующие характеристики самостоятельно. Ведь дипфейки находятся на этапе, когда можно различить разницу, тщательно присмотревшись к следующим признакам:
Дипфейки стали одной из самых серьезных угроз для многих людей по всему миру. С растущим использованием контента в социальных сетях, создатели дипфейков будут продолжать создавать все более качественные дипфейки, которые сложно обнаружить.
Таким образом, технологии обнаружения дипфейков должны непрерывно развиваться, а правительства должны регулировать использование дипфейков в социальных сетях. Чтобы избежать попадания в такие ловушки, убедитесь следовать советам, перечисленным в этой статье.
Некоторые люди нашли ответы на эти вопросы полезными
Сколько фотографий нужно для создания дипфейка?
Точность и качество изображения дипфейка сильно зависят от количества целевых изображений, используемых для обучения модели глубокого обучения. Изображения также должны содержать широкий спектр черт лица. Для правильного воссоздания изображений лучше использовать от 300 до 2000 фотографий лица.
Являются ли дипфейки законными?
В США было принято много законов для регулирования и мониторинга использования дипфейков. Например, Калифорния экспериментировала с запретом дипфейков и приняла закон, запрещающий их использование для влияния на выборы.
Когда был создан первый дипфейк?
Первый дипфейк был создан в 2017 году пользователем Reddit, который называл себя Deepfakes, но исследователи впервые изобрели его в 1990 году.
Создавать дипфейки легко?
Да. Создавать видео с дипфейками настолько просто, что может сделать это каждый. Есть несколько программ для создания дипфейков, таких как FakeApp, DeepFaceLab и FaceSwap, и вы найдете множество уроков по созданию с помощью нескольких простых шагов.