На протяжении десятилетий кинематографисты стремились изменить или улучшить человеческую биологию с помощью грима, протезов и дублеров, чтобы сцены выглядели более правдоподобно. Но до появления современных технологий визуальных эффектов (VFX) результаты были неоднозначными. От таких фильмов, как Ирландец и Капитан Марвел до Мстители: Финал, VFX позволяет актерам преодолевать физические невозможности. Иногда визуальные эффекты позволяют сливать лица актеров с телами других исполнителей для ролей, к которым они не готовы или не могут выполнить.
Но, как вы можете себе представить, современные технологии VFX в Голливуде дороги, сложны и требуют кропотливой работы. Очевидно, не у всех есть бюджет в несколько сотен миллионов долларов для найма студии VFX. Вот здесь-то и вступает в игру технология дипфейков.
Что такое дипфейк? Определение
"Дипфейк" обозначает воссозданную медиа, имитирующую внешний вид и/или голос человека с помощью технологии искусственного интеллекта под названием "глубокое обучение" (отсюда и название, дипфейк). Пользователь Reddit, который делился дипфейками на сайте, ввел термин в 2017 году.
Дипфейки обычно представляют собой поддельные изображения, видео или аудиозаписи. Возможно, вы видели популярные видео, где знаменитости или политики говорят что-то, что вряд ли они бы сказали в реальной жизни. Это обычные примеры дипфейков. Появление видео с дипфейками вызывает опасения по поводу потенциальной «премии лжеца», когда дезинформация распространяется, подрывая доверие и искажая реальность.
Как работают дипфейки?
Технология дипфейков использует сложный искусственный интеллект с помощью генеративных состязательных сетей (GANs), состоящих из двух критических алгоритмов: генератора и дискриминатора. Генератор инициирует процесс, создавая начальный фейковый контент на основе желаемого результата, используя обучающий набор данных. Между тем, дискриминатор оценивает подлинность этого контента, выявляя области для улучшения. Этот итеративный процесс позволяет генератору улучшать свою способность производить все более реалистичный контент, а дискриминатору — лучше выявлять несоответствия для исправления.
GANs играют ключевую роль в создании дипфейков, анализируя паттерны в подлинных изображениях для их воспроизведения в сфабрикованном контенте. Для фотографий системы GAN проверяют изображения цели под разными углами, чтобы охватить все детали. Для видео анализируются не только углы, но и поведение, движения и речи. Этот многоаспектный анализ проходит множество итераций через дискриминатор для совершенствования реалистичности конечного продукта.
Видео с дипфейками появляются через два основных метода: манипуляция оригинальным видео для изменения того, что говорит или делает цель (дипфейк исходного видео) или замена лица цели на теле другого человека (замена лиц). Дипфейки исходного видео вовлекают нейросетевой автокодировщик, который разбирает видео для понимания и последующего наложения выражений лица и языка тела цели на оригинальные кадры. Для аудио похожий процесс клонирует голос человека, позволяя ему воспроизводить любую желаемую речь.
Основные техники создания дипфейков включают:
- Дипфейки исходного видео: Использует автокодировщик с энкодером для анализа атрибутов и декодером для применения этих атрибутов на целевом видео.
- Аудио дипфейки: Использует GANs для клонирования вокальных паттернов, позволяя создавать реалистичные голосовые реплики.
- Синхронизация губ: Соответствует голосовым записям видео, усиливая иллюзию того, что субъект говорит записанные слова, и поддерживается рекуррентными нейронными сетями для большей реалистичности.
Создание дипфейков обеспечивается передовыми технологиями, такими как сверточные нейронные сети (CNN) для распознавания лиц, автокодировщики для сопоставления атрибутов, обработка естественного языка (NLP) для генерации синтетического аудио, и вычислительная мощность, предоставляемая высокопроизводительными вычислительными системами. Такие инструменты, как Deep Art Effects, Deepswap и FaceApp, демонстрируют доступность генерации дипфейков, указывая на будущее, где создание убедительных дипфейков доступно многим.
Являются ли дипфейки законными?
По своей сути, дипфейки не являются по своей природе незаконными; законность в значительной степени зависит от их содержания и намерений. Эта инновационная технология может пересечь законные границы, если она нарушает существующие законы о детской порнографии, клевете, разжигании ненависти или других преступных деяниях.
На сегодняшний день существует немного законов, специально направленных на дипфейки, и они значительно различаются от страны к стране. Однако распространение технологии дипфейков вызывает опасения по поводу распространения ложных заявлений и их влияния на общественное доверие и дискурс. Уже существуют значительные исключения в Соединенных Штатах, где некоторые штаты приняли меры по ограничению вредного воздействия технологии дипфейков:
- Техас: Этот штат принял законодательство, запрещающее создание и распространение дипфейков с целью вмешательства в выборы. Этот шаг направлен на защиту целостности избирательного процесса, предотвращая распространение вводящей в заблуждение или ложной информации о кандидатах через гиперреалистичное фейковое видео или аудиозаписи. Кроме того, Техас принял закон, специально нацеленный на сексуально откровенные дипфейки, распространяемые без согласия субъекта, чтобы защитить людей от стресса или унижения, причиняемого таким контентом. Оба нарушения рассматриваются как правонарушения класса A, с потенциальными наказаниями, включая до года в тюрьме и штрафы до $4,000.
- Вирджиния: Осознавая личный и общественный вред, причиняемый дипфейковой порнографией, Вирджиния специально запретила распространение такого контента. Этот закон нацелен на дипфейки, которые сексуально эксплуатируют людей без их согласия, предоставляя жертвам законное средство для поиска правосудия. Распространение порнографии мести, включая дипфейковую порнографию, классифицируется как правонарушение класса 1, наказуемое лишением свободы до 12 месяцев и штрафом до $2,500.
- Калифорния: С акцентом как на политические, так и личные последствия дипфейков, Калифорния приняла законы против использования дипфейков, которые направлены на обман избирателей в течение 60 дней до выборов. Кроме того, в штате запрещено создавать и распространять несогласованную дипфейковую порнографию, что отражает нарастающую озабоченность использованием этой технологии для нарушения приватности и достоинства людей.
Мозаика регулирований подчеркивает более широкую проблему: многие люди остаются неосведомленными о технологии дипфейков, ее потенциальных применениях и рисках. Этот пробел в осведомленности способствует правовой среде, в которой жертвы дипфейков, за пределами конкретных сценариев, охваченных законами штатов, часто оказываются без ясных правовых средств защиты. Развивающийся характер технологии дипфейков и её последствия требуют более информированного общества, а также комплексных правовых рамок для защиты людей от её потенциального злоупотребления.
Чем опасны дипфейки?
Технология дипфейков, хотя и инновационная, приносит значительные риски. Речь идет не только о создании ложных изображений или видео; последствия распространяются на серьезные сферы, такие как:
- Личная безопасность, когда люди сталкиваются с угрозами шантажа.
- Целостность демократических процессов, через фальсификацию вводящего в заблуждение политического контента.
- Финансовые рынки, уязвимые для манипуляций из-за сфабрикованных отчетов.
- Кражи личных данных с риском их неправильного использования.
Изменяющийся ландшафт требует мощной реакции, объединяющей бдительность, технологические решения и правовые рамки для защиты от этих возникающих угроз.
Как обнаружить дипфейки?
Обнаружение контента с дипфейками требует внимания к специфическим визуальным и текстовым индикаторам. Вот некоторые ключевые признаки, на которые стоит обратить внимание:
Визуальные индикаторы:
- Необычные положения лица или неловкие выражения.
- Неестественные движения лица или тела.
- Несоответствующая окраска на видео.
- Странные явления при увеличении или увеличении масштаба.
- Несоответствие или несогласованный звук.
- Отсутствие естественного моргания у людей.
Текстовые индикаторы:
- Ошибки в правописании и грамматически неверные предложения.
- Поток предложений, который кажется неестественным.
- Адреса электронной почты, которые выглядят подозрительно.
- Формулировки, которые не соответствуют ожидаемому стилю отправителя.
- Сообщения, которые вырваны из контекста или неуместны.
Кроме того, рассмотрите аномалии в поведении и контексте:
- Несоответствия в поведении: Обратите внимание на поведение и манеры субъекта. Дипфейки могут не точно воспроизводить тонкие черты личности, характерные движения или эмоциональные реакции, делая субъект немного «не таким».
- Контекстуальные аномалии: Анализируйте контекст, в котором появляется видео или аудио. Несоответствия в фоне, неожиданные взаимодействия с окружающей средой или аномалии в сюжете могут указывать на манипуляцию.
Технологические достижения в области ИИ улучшают обнаружение этих признаков, но информированность о них остается важной для выявления дипфейков.
Как защититься от дипфейков?
Ключевая стратегия защиты от дипфейков заключается в использовании передовой технологии для выявления и блокировки этих поддельных медиа.
Правительственные учреждения, такие как Агентство перспективных исследовательских проектов в области обороны (DARPA) Министерства обороны США, находятся на переднем плане, разрабатывая передовые решения для различения реального и манипулированного контента. Так же социальные сети и технологические компании внедряют инновационные методы для обеспечения подлинности медиафайлов, публикуемых на их платформах.
Например, некоторые платформы используют технологию blockchain для проверки происхождения видео и изображений, создавая доверенные источники и эффективно предотвращая распространение фейкового контента.
Внедрение политики социальных сетей
Осознавая потенциальный вред, который могут причинить вредоносные дипфейки, такие платформы, как Facebook и Twitter, приняли жесткую позицию, запретив их. Эти правила являются частью более широких усилий по защите пользователей от негативного воздействия обманных медиа, подчеркивая роль управления платформами в поддержании цифровой доверенности.
Использование программного обеспечения для обнаружения дипфейков
Борьба с дипфейками также поддерживается инновациями частного сектора. Ряд компаний предлагают сложное программное обеспечение для обнаружения дипфейков, предоставляя важные инструменты для выявления манипулированного медиа.
- Инициатива по подлинности контента Adobe: Adobe представила систему, позволяющую создателям прикреплять цифровую подпись к их видео и фотографиям. Эта подпись включает детальную информацию о создании медиа, предлагая прозрачный метод проверки подлинности.
- Инструмент обнаружения от Microsoft: Microsoft разработала инструмент на базе искусственного интеллекта, который анализирует видео и фото, чтобы оценить их подлинность. Он предоставляет оценку уверенности, указывающую на вероятность манипуляций, помогая пользователям определить надежность встречаемого ими медиа.
- Операция Минерва: Эта инициатива фокусируется на каталогизации известных дипфейков и их цифровых отпечатков. По сравнению новых видео с этим каталогом возможно идентифицировать модификации ранее обнаруженных фейков, улучшая процесс обнаружения.
- Платформа обнаружения Sensity: Sensity предлагает платформу, использующую глубокое обучение для обнаружения дипфейк медиа, аналогично тому, как антивирусные инструменты идентифицируют вирусы и вредоносное ПО. Она уведомляет пользователей по электронной почте в случае встречи с дипфейком, добавляя дополнительный уровень защиты.
Как вы можете защитить себя? Практические шаги
Помимо этих технологических решений, люди могут предпринять практические шаги, чтобы защититься от дипфейков:
- Будьте в курсе: Осведомленность о существовании и природе дипфейков является первым шагом в защите. Понимая технологии и их потенциальное злоупотребление, вы можете критически относиться к цифровому контенту.
- Проверяйте источники: Всегда проверяйте источник информации. Ищите подтверждающие данные из надежных источников, прежде чем считать медиа правдой.
- Используйте надежные инструменты обнаружения: Используйте инструменты обнаружения дипфейков, где это возможно. Многие компании и платформы предоставляют инструменты или плагины, предназначенные для выявления манипулированного контента.
- Сообщайте о подозрительном контенте: Если вы столкнулись с тем, что кажется дипфейком, сообщите об этом на платформу, размещающую контент. Пользовательские сообщения играют ключевую роль в помощи платформам выявлять и предпринимать действия против обманчивых медиа.
Защита от дипфейков требует многостороннего подхода, сочетающего инновации в технологии, выполнение политики и информированное внимание. Оставаясь в курсе и используя доступные инструменты и стратегии, как индивидуумы, так и организации могут лучше защититься от пагубных эффектов технологии дипфейков.
Для чего используют дипфейки?
Дипфейки, хотя часто обсуждаются в контексте потенциального вреда, имеют ряд сфер применения. Понимание этих применений помогает оценить сложность и двойственную природу технологии дипфейков. Вот некоторые ключевые приложения:
- Развлечения и медиа: Технология дипфейков все чаще используется в кино и видеоиграх для улучшения визуальных эффектов, таких как старение или омоложение актеров, или воскрешение оставшихся в живых, для камео. Это применение также может быть использовано для создания реалистичных виртуальных аватаров для онлайн взаимодействий.
- Образование и обучение: В образовательных контекстах дипфейки могут создавать захватывающие учебные опыты, такие как исторические реконструкции или симуляции. Например, они могут оживить исторических деятелей, предлагая студентам динамичный способ взаимодействия с историей.
- Искусство и креативность: Художники и творцы исследуют дипфейки как новое средство выражения. Это включает в себя создание новых форм цифрового искусства, сатиры или изучение границ между реальностью и искусственностью.
- Реклама и маркетинг: Бренды могут использовать технологию дипфейков для создания более увлекательного и персонализированного маркетингового контента. Например, дипфейки позволяют использовать послов бренда в различных кампаниях без их физического присутствия, возможно, на разных языках, чтобы удовлетворить мировую аудиторию.
- Политические и социальные кампании: Хотя это вызывает споры, дипфейки использовались для повышения осведомленности о социальных проблемах или потенциальных опасностях дезинформации. Тщательно созданные дипфейки могут подчеркнуть важность критического мышления в цифровую эпоху.
- Создание синтетических медиа: Дипфейки являются частью более широкой категории синтетических медиа, используемых для создания реалистичного аудио, видео или изображений для создания контента. Это может упростить процесс производства в новостях, документальных фильмах и других формах медиа.
Хотя дипфейки имеют многообещающий потенциал в этих приложениях, важно управлять их использованием ответственно, гарантируя соблюдение этических стандартов для предотвращения злоупотреблений и защиты прав и конфиденциальности.
Примеры дипфейков
Известные примеры дипфейков включают видео с фальшивым Бараком Обамой, насмехающимся над Дональдом Трампом, фальшивым Марком Цукербергом, хвастающимся контролем над данными миллиардов людей, и круглым столом с дипфейковыми знаменитостями, такими как Том Круз, Джордж Лукас, Роберт Дауни мл., Джефф Голдблюм и Юэн Макгрегор.
Сопутствующие статьи
Что такое социальная инженерия?
Часто задаваемые вопросы
Люди могут подать в суд на создание deepfake , ссылаясь на диффамацию, эмоциональное расстройство или нарушение интеллектуальной собственности. Юридическая консультация имеет решающее значение для понимания прав и возможностей.