Вы, наверное, видели рекламу одного оператора сотовой связи, в которой «снялся» Брюс Уиллис. На самом деле, он не участвовал в съемках этого ролика. Сделано рекламное видео с применением технологии — дипфейк. В этой статье, мы хотим рассказать, что это за технология, как работает и как может использоваться в рекламе.
Что такое дипфейк
Дипфейк — метод создания изображения или голоса с помощью искусственного интеллекта. Визуально это будет выглядеть, как обычное видео.
Простыми словами, deepfake — это изображение, имитирующее известного человека или специально разработанного персонажа.
Технологии для создания дипфейков
Они создаются с помощью алгоритмов искусственного интеллекта. Сейчас обычно используются генеративные состязательные сети (GAN). Фактически это две нейросети, объединенные в одно целое:
- Генератор. Эта нейросеть создает изображение.
- Дискриминатор. Двоичный классификатор, который оценивает реалистичность изображений созданных генератором.
Посмотрим, как это работает на практике. Допустим, у нас есть изображение человека. Его загружают в генератор, который изучает распределение пикселей, и на основе этих данных создает схожее изображение.
Вот здесь и требуется дискриминатор. Эта нейросеть сравнивает оригинал и полученное изображение. Причем оценивается вероятность того, что поддельное изображение не является таковым. Чем меньше вероятность, тем менее схожи изображения. Разность между оригиналом и копией называют потерями дискриминатора.
Изначально генератор не может оценить, насколько созданные изображения похожи на оригинал. Но, после загрузки в него потерь дискриминатора, генератор может учесть их при следующей генерации.
После нескольких итераций «генерирование → оценка потерь → генерирование с учетом потерь», генератор обучается делать более похожие изображения. При этом дискриминатор начинает делать больше ошибок, указывая на фальшивые изображения, как на оригиналы.
Постепенно в процессе обучения генератор начинает делать изображения, не отличимые от оригинала. При этом дискриминатор их пропускает как правильные, то есть уже не может отличить фейк от оригинала.
Распространение дипфейка: как часто он используется
Технология довольно «молодая», но развивается быстро. И если еще несколько лет назад про deepfake знали немногие, сейчас с ними сталкивался практически каждый, даже если не догадывался об этом.
Маркетологи быстро оценили возможности создания видео и фото без участия актеров. К примеру, KFC решили отказаться от реального актера для образа маскота «полковник Сандерс». Теперь эту роль выполняет сгенерированный нейросетью персонаж.
Другой пример — перенос персонажей из прошлого в текущее время. Так «Сбер» использовал образ Жоржа Милославского из советской комедии. Персонаж познакомился с продуктами современного «Сбера», а также заставил людей немного понастольгировать.
Есть еще варианты использования образов современных актеров. В рекламе «Пятерочки» был использован образ Ольги Медынич. Производители рекламы оплатили лицензию на использование изображения актрисы. Это помогло снизить затраты на создание роликов.
Со временем deepfake станут еще более популярными. К примеру, актеры смогут получить дополнительный заработок, продавая лицензии на использование своих образов. С другой стороны рекламные агентства снизят расходы на подготовку видеороликов, лицензия на изображение человека гораздо дешевле, чем его личное присутствие на съемочной площадке.
Какой вред могут принести дипфейки
К сожалению, технология может принести не только пользу, но и дополнительные проблемы. В основном они связаны с незаконным использованием чужих изображений, причем цели могут быть совершенно разными.
- Мошенничество. В этом случае deepfake используется вместо определенного человека. К примеру, британская компания потеряла 250 тысяч долларов, переведя их на подставной счет. В финансовый отдел компании позвонил по видеосвязи «руководитель» компании и приказал перевести средства на этот счет. В более простом случае делается рекламный ролик, где якобы известный инвестор рекомендует скам-инвестиции. На самом деле это deepfake этого человека.
- Шантаж. Обычно в этом случае используются порно-ролики. Вместо лиц моделей злоумышленники устанавливают deepfake шантажируемого человека, после чего вымогают деньги, угрожая выложить этот ролик в интернет. Вариантом такого использования может быть просто выкладывание порно-ролика с целью навредить репутации жертвы.
- Незаконное использование лиц. Мы уже упоминали этот способ вначале статьи. В этом случае deepfake создают на основе лица известного человека, после чего применяют его в рекламе или фильме. В этом случае нарушается авторское право человека, а также право на его изображение.
Несмотря на видимую опасность такой технологии, преимущества ее использования перекрывают все недостатки.
Чем полезны deepfake
В первую очередь, технология полезна для людей занимающихся рекламой. Видеоролики созданные таким образом будут дешевле привлечения моделей. Вот некоторые полезные функции и возможности deepfake.
- Низкая стоимость. Для записи видео не требуется присутствие актера или модели. Вам достаточно приобрести лицензию на использование образа. Это будет стоить дешевле.
- Омниканальность. Иногда для разных платформ нужен разный контент. Если раньше для каждого канала нужно было проводить отдельную съемку и платить модели, дипфейки не требуют присутствия человека на съемочной площадке. Опять же благодаря лицензии на изображение вы можете быстро делать ролики под нужную платформу.
- Быстрота внедрения правок. Если в процессе показа рекламного ролика выясняется, что его нужно изменить, deepfake также поможет сделать это с минимальными временными затратами.
- Персонализация. Появляется возможность делать на базе одной модели, видеоролики с разным цветом кожи, говорящие на разных языках. Так можно более точно подбирать ролики под вашу аудиторию, используя разные варианты внешности модели.
В целом deepfake позволяют снижать затраты на медийную рекламу. По всей видимости, в ближайшие годы это станет стандартом рекламной отрасли.
Применение дипфейка: области использования и возможные риски
Сейчас технология используется и компаниями, и обычными пользователями, а также в науке. Вот несколько вариантов применения deepfake:
- Реклама. Здесь технологию применяют, чтобы не приглашать знаменитостей не съемочную площадку. Лицензия на изображение дешевле приглашения актера на съемки.
- Приложения для создания сторис. Пользователь может наложить свое лицо на готовую картинку.
- Анимация изображений. С помощью технологии можно создавать простые анимационные ролики.
- Астрофизика. Технология позволяет добиваться улучшения фотографий дальних космических объектов.
- Кино. В этом случае, помимо экономии на актерах, есть еще одно применение — использование уже умерших актеров в новых фильмах или омоложение актеров. Так к примеру, в сериале «Книге Бобы Фета» вышедшем в 2022 году появился Люк Скайуокер из классической трилогии «Звездных Войн».
Как видите, полезных применений технологии намного больше, чем опасных и мошеннических.
Как распознать deepfake
Пока технология не настолько совершенна, и внимательный человек может заметить признаки deepfake. При этом стоит учитывать, что полной уверенности в том, что перед вами фейковый ролик, без тщательной экспертизы, быть не может.
Посмотрим, на какие признаки стоит обратить внимание:
- Странное движение губ и глаз. Человек на видео может двигать губами невпопад тексту. С глазами вариантов ошибочной генерации больше, например, изображение может моргать невпопад или вообще не моргать.
- Дергание объекта. При просмотре видео возникает ощущение, что объект резко дергается в сторону. Это происходит из-за сбоев в процессе генерации.
- Глаза разного цвета. Получается такой эффект из-за ошибок в обучении генератора и дискриминатора.
- Отсутствие бликов в глазах и на зубах. Этот эффект можно наблюдать при имитации студийной съемки. Если снимается человек, осветительные приборы будут давать отблески в глазах и на зубах. У deepfake такого не наблюдается.
Если для генерации используется слабое оборудование, могут возникать тени на лице в неожиданных местах. Иногда в целом размазывается изображение.
4 приложения для создания deepfake
Рассмотрим, какие есть приложения для их создания. Здесь будут только варианты доступные в России без VPN и не требующих оплаты с иностранных банковских карт.
FaceSwapper: ai Swap Videos
Сайт: https://play.google.com/store/apps/details?id=com.face.replacer&hl=en
Простейшее приложение для подмены лиц. Изображение полученное с его помощью сложно назвать профессиональным. Контур лица может съезжать. Но, сделать простое видео для заливки его в сторис или shorts вы сможете.
DeepFaceLab
Сайт: https://github.com/iperov/DeepFaceLab
Это уже профессиональная нейросеть, требующая полноценного обучения. Ее можно поставить на персональный компьютер и дообучить под свои задачи. К плюсам программы можно отнести качественную картинку, но при этом требуется мощное «железо», а также нужно будет изучать технические нюансы.
FaceApp
Сайт: https://play.google.com/store/apps/details?id=io.faceapp
Одно из самых популярных приложений. Здесь много готовых масок. Можно посмотреть как вы будете выглядеть с разными прическами, с сединой или бородой. Ничего сложно здесь не сделаешь, но в качестве развлечения или подготовки контента для личного блога может подойти.
FacePlay
Сайт: https://play.google.com/store/apps/details?id=com.ai.face.play
Позволяет сделать короткий мультипликационный ролик с вашим лицом. Предлагается больше 3000 шаблонов, которые можно использовать для создания образа.
Что говорит закон
Регуляция использования deepfake регулируется законом об авторским правам. Причем затрагиваться могут самые разные статьи Гражданского кодекса: все зависит от ситуации и того как будет использоваться deepfake.
В качестве примера можно взять историю с Roistat. Они для рекламы своего мероприятия взяли ролик с фейковым изображением Киану Ривзом. Маркетологи компании посчитали, что ролик, созданный нейросетью, не защищен авторским правом. Однако создатель — видеокомпания Agenda Media Group (AMG) — обратились в суд. После судебного разбирательства было вынесено постановление, что ролик — это произведение режиссера, инженера, настраивающего ИИ, а значит им и компании, на которую они работают, принадлежат авторские права. С Roistat взыскали 500 тысяч рублей.
При этом в ситуации есть и другая сторона: компания AMG не покупала лицензию на изображение Киано Ривза. То есть представители актера могут подать на них в суд за незаконное использование образа.
В России нет никакого особого регулирования deepfake. Обычно, в зависимости от ситуации, применяют или закон об охране изображения гражданина, или в случае буллинга — закон о клевете.
Коротко о главном
- Дипфейк позволяет делать видеоролики и фото с лицом человека без его участия в съемке.
- С помощью технологии можно сэкономить на производстве рекламы.
- Она вполне может использоваться в мошеннических целях, и это нужно учитывать.
- Для использования изображения человека необходимо получить у него разрешение.
Материалы:
Киселёв Александр Сергеевич: Дипфейк как технология призрачных коммуникаций
Комментарии