Дипфейки развиваются настолько стремительно, что скоро потребуют законодательного регулирования.
Дипфейк — это набор технологий для симуляции аудио– и видеоконтента, неотличимого от реального. В их основе лежат искусственный интеллект и нейросети. Это они заставляют знаменитых людей говорить то, чего те никогда не говорили, и делать то, чего никогда не делали. Мы знаем опыт цифровой реинкарнации в кино, когда создатели блокбастеров возвращают к жизни ушедших актеров. Цифровую копию, например, в "Изгой–один: Звездные войны" получил актер Питер Кушинг, который покинул мир четверть века назад, а в 2013–м в рекламе шоколада "снималась" молодая Одри Хепберн.
Технологии добрались и до России. Несколько дней назад стартовало реалити–шоу "Битва престолов", которое запустил продюсер "Дома–2" и "Окон" Валерий Комиссаров. Одна из ведущих шоу — цифровая Людмила Гурченко: в презентации программы она танцует, говорит фразами из фильмов и смотрится вполне реалистично в антураже средневекового замка, где живут участники.
Для взрослых
В основе дипфейков лежат генеративно–состязательные нейросети (GAN), которые в 2014 году начал разрабатывать тогда еще студент Стэнфордского университета Ян Гудфеллоу. Это алгоритмы на базе машинного обучения, способные генерировать новый контент из заданного набора. GAN может, например, изучить весь аудио–, фото– и видеоконтент с участием королевы Великобритании и создаст свой, сохранив все черты и мимику Елизаветы II.
По данным нидерландской компании Deeptrace, занимающейся кибербезопасностью, 96% дипфейк–видео, размещенных в интернете, — это порноролики с использованием лиц известных людей. Их на данный момент посмотрели минимум 134 млн раз.
Однако дипфейками активно пользуется не только порноиндустрия, но и шоу–бизнес: 2 года назад в мировой тур "отправился" цифровой клон автора хита Pretty Woman Рой Орбисон, свои концерты дала цифровая оперная дива Мария Каллас. Цифровой двойник Майкла Джексона явился зрителям во время церемонии Billboard Music Awards в 2014–м. Театр Apollo в Гарлеме поручил роль экскурсовода дипфейку джазовой певицы Билли Холидей.
"В кино, на концертах, в порноиндустрии действительно используется одна и та же технология. Программное обеспечение зависит уже от выбора создателя ролика", — говорит Венера Шайдуллина, директор Центра исследований и экспертиз департамента ПРЭД Финансового университета при правительстве РФ.
Один из самых скандально известных примеров — видео, где персонаж, похожий на экс–лидера США Барака Обаму, оскорбляет человека, напоминающего нынешнего президента Дональда Трампа. История с этим роликом четко обозначила перспективы недобросовестного использования новации.
Двуликий фейк
"Это одна из самых неоднозначных цифровых технологий последних лет, — говорит вице–президент QBF Владимир Масленников. — С одной стороны, она открывает перспективы для развития киноискусства. К примеру, позволяет сократить количество дублей, необходимых для создания фильма, или завершить картину, съемка которой была прервана из–за смерти актера".
Еще один очевидный плюс технологии — способность привлечь внимание дополнительной аудитории и повысить капитализацию бизнеса. "Понимая это, совершенствованием конструкторов дипфейков занимаются владельцы некоторых социальных медиа, например компания Bytedance, которой принадлежит TikTok, а также Snapchat, предложивший пользователям дипфейк–гифки", — подчеркивает Масленников.
С другой стороны, технология позволяет вложить любые слова в уста политиков и общественных деятелей. Популярность набирают сервисы, которые моделируют реалистичный видеоряд, демонстрирующий человека голым. К рискам использования дипфейков можно также отнести распространение ложной информации, вторжение в частную жизнь, разрушение репутации, говорит Венера Шайдуллина.
Мошенники не дремлют
"Дипфейки могут использоваться как мощный дискредитирующий инструмент, средство разжигания ненависти между социальными и национальными группами. А в 2019 году технологию даже использовали для финансовых махинаций", — говорит Масленников. Руководителю английской энергетической компании позвонил мошенник и попросил сделать срочный денежный перевод. Он точно воспроизвел чужой голос и интонацию, поэтому его просьба была выполнена. Недавно по анонимным telegram–каналам прошла информация, что мошенники уже начали собирать аудиосообщения пользователей, чтобы в будущем создавать записи с просьбой одолжить деньги.
Дипфейки пригодятся и маркетологам: можно заставить рекламировать товар тех, кто никогда бы не согласился на это. "Нелегальные букмекерские конторы могут снять видео с любым человеком и приделать голову блогера. Люди с невысокой технической грамотностью запросто попадутся на такой трюк", — говорит Антон Круглов, операционный директор агентства BlackLight Creative Communications.
Очевидно, что для предотвращения подобных преступлений необходимо ПО, отличающее истину от подделки. "Так, Facebook совместно с Microsoft, MIT и Калифорнийским университетом объявил Deepfake Detection Challenge — состязание в способах выявления фейкового контента. Facebook готов инвестировать $10 млн в борьбу с дипфейками", — говорит Масленников.
Места гнездования
Большая часть компаний по развитию технологий дипфейков сосредоточена в США и Китае. "Яркие примеры — это ZAO (Китай), StyleGAN (США)", — говорит Антон Круглов.
Венера Шайдуллина добавляет в этот ряд Deepfakes web ? (Япония), AvengeThem (Франция) и DeepFaceLab (США). Есть еще и британская Synthesia, которая в 2019–м привлекла $3,1 млн от LDV Capital и группы инвесторов.
Компании, которые работают в области дипфейк–технологий, существуют и в России. Например, Dowell (входит в Everypixel Group) и AvaTunes. Первая занимается разработками для кино– и рекламной индустрии. Технологии второй позволяют пользователям устроить "живое" выступление любимой звезды в любом месте.
"Попытка синтезировать голоса звезд предпринята командой проекта Vera Voice, над которым трудится Screenlife Technologies Тимура Бекмамбетова совместно с Stafory, разработчиком сервиса "Робот Вера". В начале 2019 года похожую разработку представила учрежденная Сбербанком компания АБК: специалисты обучили нейронную сеть произносить произвольный текст голосом Иннокентия Смоктуновского", — говорит Масленников.
Новые законы
Прогресс уже не остановить: видеороликов, сгенерированных искусственным интеллектом, будет все больше, они продолжат становиться все более похожими на настоящие.
"Лавинообразный рост популярности технологии стал возможным благодаря тому, что несколько групп исследователей выкладывают свои разработки в открытый доступ: их модели может использовать любой желающий", — объясняет Владимир Еронин, директор Центра компетенций по искусственному интеллекту и анализу данных Crayon.
Сейчас технологию начали использовать на выборах в США. "В самом технологическом штате — Калифорнии — дипфейки в рамках политических кампаний решили запретить на законодательном уровне. Но технологически закон удастся соблюдать не всегда: у соцсетей, где распространяются дипфейк–видео с политиками и звездами, алгоритмы не всегда определяют подставное лицо на видео", — говорит Антон Круглов.
"В Китае уже принят закон, который запрещает публикацию дипфейков без специальной и различимой пометки. Он вступил в силу с 1 января 2020 года. В ближайшем будущем использование данной технологии обязательно будет регулироваться по всему миру", — уверена Венера Шайдуллина.
“
Сферу рекламы и развлечений ожидает этап бурного роста применения дипфейков. Пока он сдерживается технологическими сложностями и некоторыми правовыми аспектами, но это вопрос времени. Как только процесс упростится, сети наводнят истории с качественными подменами, на волне которых можно будет продвигать все — от мыла до космической ракеты. Технология породит волну челленджей и прочих активностей в соцсетях. Чем опасен дипфейк? Алгоритм может стать находкой для нечистых на руку пиарщиков и тех, кого интересуют репутационные войны. По сути, технология не оставляет шансов дополнительного заработка для плеяды актеров, для которых работа в рекламе и промо — основной источник дохода. У публичных лиц в стоимости услуг появится строка "прайс на лицо". Существует и этический вопрос: нужно ли делать в кино и рекламе пометку "дипфейк"?
Сергей Житинец
генеральный директор компании Motive