DeepFake
DeepFake (другое название — face swap) — технология замены или наложения части изображения в картинках или видеороликах с использованием искусственного интеллекта и машинного обучения. Наиболее известна как технология распознавания и замены лиц в видеозаписях.
Содержание |
[править] Происхождение названия
Название DeepFake образовалось в результате объединения применяемого в области машинного обучения термина «Deep Learning» («глубокое обучение») и слова «Fake» («подделка»). Термин начал употребляться с 2017 года, после того, как пользователь Reddit с ником deepfakes опубликовал серию скандальных порнороликов со вставленными в них лицами известных артистов.
[править] Процесс создания DeepFake
Основой технологии DeepFake является создание дипфейк-видеороликов.
Процесс синтеза дипфейков состоит из нескольких этапов. Сначала выбирается необходимое программное обеспечение для создания DeepFake. Затем подбирается целевое видео, которое нужно изменить, и множество исходных (донорских) файлов с образцами накладываемого изображения. Далее запускается программа искусственного интеллекта, происходит тренировка и обучение нейросети, требующее больших вычислительных ресурсов и времени на обработку. Кодировщик и декодировщик осуществляют разложение видео на кадры, обработку и перенос изображения; дискриминатор проверяет схожесть получившегося изображения с оригиналом. Технология постоянно усложняется и совершенствуется. Для улучшения качества в тех местах, где программа не справилась на 100%, в контент вносятся корректирующие правки дизайнером вручную до и после программной обработки.
Данная технология позволяет осуществить перенос и наложение лица или тела другого человека на оригинальную видеозапись. В результате получается поддельная видеозапись с наложением лица, мимики и движений, которую в случае высокого качества обработки трудно отличить от настоящей. Дополнительным способом получить качественный дипфейк является использование в целевом видео людей, очень похожих на оригинальную персону, лицо которой накладывается на видеозапись.
Созданные DeepFake-видео публикуются в интернете на различных видеохостингах, и вызывают массовую реакцию зрителей, вводя их в заблуждение и заставляя делать неверные выводы. Если же фейковые видео низкого качества или об их фейковости зритель предупреждён, такие записи обычно несут юмористический или провокационный характер.
[править] Недостатки технологии
В случае применения примитивных алгоритмов и программ получившиеся материалы имеют ряд недостатков, среди которых — мимические артефакты, нереалистичные и неестественные движения лица, монотонная речь. По мере совершенствования технологий заметить недостатки становится всё труднее, и DeepFake-видео становятся всё реалистичнее.
[править] Области применения
[править] Производство видео- и игровой продукции
Технология DeepFake применяется при создании рекламы и в кинопроизводстве, при монтаже и создании спецэффектов. Применение данной технологии позволяет сократить финансовые затраты на производство видеопродукции, используя, к примеру, изображение известной персоны для создания контента вместо затрат на актёрские услуги живых знаментостей и известных персон (актёров, спортсменов, политиков и др.).
Кроме этого технология DeepFake используется в исследовательских и развлекательных целях, применяется в технологиях виртуальной и дополненной реальности, в компьютерных играх.
[править] Злоупотребления
Технология DeepFake применяются мошенниками и злоумышленниками для недобросовестного использования образа человека без его согласия, для компрометирования личности, шантажа, дискредитации известных персон и создания фейковых новостей.[1] Одним из примеров стало создание в 2017 году поддельных порнороликов с наложением на видео лиц известных артистов.
Дипфейки могут быть применены как информационное оружие в информационных войнах. Использование при создании дипфейков лиц крупных предпринимателей способно привести к экономическим колебаниям и обрушению фондовых рынков, а использование лиц известных политиков может привести к политическим скандалам, провокациям, и даже к войне в том случае, если фейковый политик на видео объявит о начале военных действий.
Кроме нарушения законодательства фейковые видеозаписи могут нарушать также различные этические нормы.
[править] DeepNude
Разновидностью DeepFake стала нейросеть DeepNude, которая «раздевает» девушек на фото, удаляя одежду и создавая реалистичное изображение обнажённого тела.[2]
[править] Борьба с дипфейками
В сентябре 2019 года компания Google создала специальный датасет дипфейков. В начале октября 2019 года члены Комитета по разведке Сената США призвали крупные технологические компании разработать план для борьбы с дипфейками.
[править] Юридический статус
В США накануне выборов 2020 года губернатор штата Калифорния Гэвин Ньюсон подписал два закона штата, первый из которых запрещает распространение политических дипфейков с кандидатами в президенты в течение 60 дней перед началом выборов, а второй позволяет жителям штата обращаться в суд на того, кто использует дипфейк с их изображением в порнографическом видео. Срок действия законов установлен до 1 января 2023 года.[3][4]
В Китае с 1 января 2020 года производство и распространение дипфейков без сопровождающего обозначения об их поддельности приравнивается к уголовному преступлению.[5]
[править] Перспективы использования технологии
Ряд возможностей технологии DeepFake на практике ещё не реализован по причине новизны технологии, но является потенциально возможным. Некоторые из них:
- Продажа лицензированных виртуальных образов известных людей для последующего использования при создании видеопродукции.
- Интерактивное изменение лиц актеров на видеозаписи в зависимости от предпочтений зрителя при просмотре фильма.
- Таргетированная реклама, показывающая пользователю сюжеты, в которых герои имеют лица его близких родственников, взятые из фотографий соцсетей.
[править] Программное обеспечение для создания DeepFake
- DeepFaceLab
- faceswap[6]
- развлекательные приложения (например Zao, Doublicat)
- FaceApp
[править] См. также
[править] Ссылки
- Alina Valyaeva Как делают deepfake-видео и почему лучше говорить «face swap». — vc.ru, 27 ноя 2019.
- matyushkin DeepFake-туториал: создаем собственный дипфейк в DeepFaceLab. — 16 ноября 2019.
- Юрий ВИШНЕВСКИЙ Deepfake. Чем это угрожает миру и можно ли от него спастись // Деловая Столица. — 1 Марта 2020.
- Дарья Попова Дипфейки: от порнороликов до качественного рекламного инструмента // Sostav.ru. — 09.10.2019.
[править] Примечания
- ↑ XuMuK DeepFake своими руками - знакомимся с пакетом DeepFaceLab. — Overclockers.ru, 20 января 2020.
- ↑ Виктор Подволоцкий DeepNude — нейросеть, которая «раздевает» девушек на фото // Лайфхакер. — 27 июня 2019.
- ↑ Елизавета Ивтушок Калифорния запретила предвыборные дипфейки с политиками // N+1. — 07 Окт. 2019.
- ↑ Калифорния ввела два закона против дипфейков. — Хабр, 8 октября 2019.
- ↑ Кирилл Иртлач С 1 января в Китае будет запрещено публиковать дипфейк-контент, не содержащий пометки, указывающей на его неправдивость // ITC.ua. — 01.12.2019.
- ↑ ЧТО МОЖНО КУПИТЬ В ДАРКНЕТЕ ЗА 200$ В 2020 ГОДУ? Deepfake, база американцев, продвижение фейков (YouTube)
DeepFake относится к теме «Информационная безопасность» |