DeepFake

Материал из Викиреальностя
Перейти к: навигация, поиск

()

Пример DeepFake-видео

()

Мона Лиза (DeepFake)

DeepFake (другое название — face swap) — технология замены или наложения части изображения в картинках или видеороликах с использованием искусственного интеллекта и машинного обучения. Наиболее известна как технология распознавания и замены лиц в видеозаписях.

Содержание

[править] Происхождение названия

Название DeepFake образовалось в результате объединения применяемого в области машинного обучения термина «Deep Learning» («глубокое обучение») и слова «Fake» («подделка»). Термин начал употребляться с 2017 года, после того, как пользователь Reddit с ником deepfakes опубликовал серию скандальных порнороликов со вставленными в них лицами известных артистов.

[править] Процесс создания DeepFake

Основой технологии DeepFake является создание дипфейк-видеороликов.

Процесс синтеза дипфейков состоит из нескольких этапов. Сначала выбирается необходимое программное обеспечение для создания DeepFake. Затем подбирается целевое видео, которое нужно изменить, и множество исходных (донорских) файлов с образцами накладываемого изображения. Далее запускается программа искусственного интеллекта, происходит тренировка и обучение нейросети, требующее больших вычислительных ресурсов и времени на обработку. Кодировщик и декодировщик осуществляют разложение видео на кадры, обработку и перенос изображения; дискриминатор проверяет схожесть получившегося изображения с оригиналом. Технология постоянно усложняется и совершенствуется. Для улучшения качества в тех местах, где программа не справилась на 100%, в контент вносятся корректирующие правки дизайнером вручную до и после программной обработки.

Данная технология позволяет осуществить перенос и наложение лица или тела другого человека на оригинальную видеозапись. В результате получается поддельная видеозапись с наложением лица, мимики и движений, которую в случае высокого качества обработки трудно отличить от настоящей. Дополнительным способом получить качественный дипфейк является использование в целевом видео людей, очень похожих на оригинальную персону, лицо которой накладывается на видеозапись.

Созданные DeepFake-видео публикуются в интернете на различных видеохостингах, и вызывают массовую реакцию зрителей, вводя их в заблуждение и заставляя делать неверные выводы. Если же фейковые видео низкого качества или об их фейковости зритель предупреждён, такие записи обычно несут юмористический или провокационный характер.

[править] Недостатки технологии

В случае применения примитивных алгоритмов и программ получившиеся материалы имеют ряд недостатков, среди которых — мимические артефакты, нереалистичные и неестественные движения лица, монотонная речь. По мере совершенствования технологий заметить недостатки становится всё труднее, и DeepFake-видео становятся всё реалистичнее.

[править] Области применения

[править] Производство видео- и игровой продукции

Технология DeepFake применяется при создании рекламы и в кинопроизводстве, при монтаже и создании спецэффектов. Применение данной технологии позволяет сократить финансовые затраты на производство видеопродукции, используя, к примеру, изображение известной персоны для создания контента вместо затрат на актёрские услуги живых знаментостей и известных персон (актёров, спортсменов, политиков и др.).

Кроме этого технология DeepFake используется в исследовательских и развлекательных целях, применяется в технологиях виртуальной и дополненной реальности, в компьютерных играх.

[править] Злоупотребления

()

Дипфейк-ролик, выпущенный в апреле 2018 года актёром и режиссёром Джорданом Пилом, в котором тот под видом 44-го президента США Барака Обамы предостерёг об опасности фейковых новостей: «Мы вступаем в эру, в которой наши враги могут заставить любого сказать что угодно и когда угодно».

Технология DeepFake применяются мошенниками и злоумышленниками для недобросовестного использования образа человека без его согласия, для компрометирования личности, шантажа, дискредитации известных персон и создания фейковых новостей.[1] Одним из примеров стало создание в 2017 году поддельных порнороликов с наложением на видео лиц известных артистов.

Дипфейки могут быть применены как информационное оружие в информационных войнах. Использование при создании дипфейков лиц крупных предпринимателей способно привести к экономическим колебаниям и обрушению фондовых рынков, а использование лиц известных политиков может привести к политическим скандалам, провокациям, и даже к войне в том случае, если фейковый политик на видео объявит о начале военных действий.

Кроме нарушения законодательства фейковые видеозаписи могут нарушать также различные этические нормы.

[править] DeepNude

Разновидностью DeepFake стала нейросеть DeepNude, которая «раздевает» девушек на фото, удаляя одежду и создавая реалистичное изображение обнажённого тела.[2]

[править] Борьба с дипфейками

В сентябре 2019 года компания Google создала специальный датасет дипфейков. В начале октября 2019 года члены Комитета по разведке Сената США призвали крупные технологические компании разработать план для борьбы с дипфейками.

[править] Юридический статус

В США накануне выборов 2020 года губернатор штата Калифорния Гэвин Ньюсон подписал два закона штата, первый из которых запрещает распространение политических дипфейков с кандидатами в президенты в течение 60 дней перед началом выборов, а второй позволяет жителям штата обращаться в суд на того, кто использует дипфейк с их изображением в порнографическом видео. Срок действия законов установлен до 1 января 2023 года.[3][4]

В Китае с 1 января 2020 года производство и распространение дипфейков без сопровождающего обозначения об их поддельности приравнивается к уголовному преступлению.[5]

[править] Перспективы использования технологии

Ряд возможностей технологии DeepFake на практике ещё не реализован по причине новизны технологии, но является потенциально возможным. Некоторые из них:

  • Продажа лицензированных виртуальных образов известных людей для последующего использования при создании видеопродукции.
  • Интерактивное изменение лиц актеров на видеозаписи в зависимости от предпочтений зрителя при просмотре фильма.
  • Таргетированная реклама, показывающая пользователю сюжеты, в которых герои имеют лица его близких родственников, взятые из фотографий соцсетей.

[править] Программное обеспечение для создания DeepFake

  • DeepFaceLab
  • faceswap[6]
  • развлекательные приложения (например Zao, Doublicat)
  • FaceApp

[править] См. также

[править] Ссылки

[править] Примечания

DeepFake относится к теме «Информационная безопасность»   ±