«Обманываться рады»: Как дипфейки помогут Голливуду, рекламщикам и программистам
Неосязаемое новое платье короля уже не сказка, а реальный хит в мире моды. И стоит оно по-королевски: $9,5 тыс. заплатил американец Ричард Ма за цифровое платье для своей жены, в котором она сможет появиться разве что на экранах мониторов и в постах соцсетей. Законодатель цифровой моды — нидерландская фэшн-компания «Фабрикант» — уверяет, что виртуальная одежда от их ИИ-дизайнера освободит людей от ограничений физического мира. Клиенты могут примерить фейковые наряды на фоне «жутких ландшафтов с остатками индустрии моды».
Летом 2019 года гендиректору британского филиала одной из немецких энергетических компаний позвонил руководитель головного офиса, попросив перевести €220 тыс. венгерскому поставщику. Отправить деньги нужно было в течение часа. Несмотря на то что просьба выглядела странной, управленец не стал спорить с боссом. Лишь позднее он узнал, что голос руководителя, который был ему так хорошо знаком, принадлежал... компьютерной программе. Неизвестный злоумышленник использовал сгенерированную нейросетями имитацию. И хорошо, если бы это был единичный случай...
Если бы несчастный гендиректор следил за развитием технологий, он бы наверняка знал о том, что подделать теперь можно не только голос, но и лицо человека, «вклеив» его в любое видео. Такого рода подделки, получившие название дипфейк, не раз становились причинами политических скандалов. Весной 2019 года президент США Дональд Трамп опубликовал видеозапись выступления председателя конгресса Нэнси Пелоси, которая выглядела пьяной. Выяснилось, что авторы ролика намеренно обработали запись: скорость уменьшили, а голос изменили так, что речь стала невнятной. После инцидента конгресс США запустил расследование, заявив, что такие видео могли фатально повлиять на выборы президента в ноябре 2020 года.
Университетский колледж Лондона называет одиозную технологию главной угрозой ближайших 15 лет. «Индустрия дипфейков развивается стремительно. По данным компании Sensity, которая занимается кибербезопасностью, количество таких видео увеличилось в два раза в период с января по июнь 2020 года. В настоящее время существует порядка 15 тыс. дипфейк-видео», — говорит Аркадий Оверин, технический директор «Номикс», компании-разработчика интерактивных AR/VR-приложений и игр.
Авторы сфабрикованных роликов зачастую стараются бросить тень не только на политиков, голливудских актрис и прочих знаменитостей, но и на обычных людей — например, шантажируют с помощью сгенерированного порно их «участниц» — замужних женщин. Делают дипфейки и в России, причем официально. Как выяснилось, использовать их можно не только в дурных целях: огромный запрос на дипфейки существует со стороны рекламной и развлекательной индустрии.
Обман с Обамой
Для тех, кто следит за развитием технологий, слово «дипфейк» уже знакомо — впервые мир заговорил о новом явлении еще в 2017 году, когда пользователь новостного агрегатора Reddit стал выкладывать порноролики, где лица актрис были «позаимствованы» у голливудских знаменитостей. Это применение дипфейков, кстати, до сих пор остается основным: по данным Sensity, 96% технологичных подделок — именно порно. В Telegram существуют десятки ботов, которые по запросу пользователей создают порнографические ролики и фотографии на основе изображений реальных людей. К июлю 2020 года в общедоступных каналах мессенджера были опубликованы более 100 тыс. таких дипфейков, в том числе с участием несовершеннолетних.
Позже на YouTube стали появляться видео, где политические деятели делали неожиданные громкие заявления. Например, видео 2018 года с Бараком Обамой, в котором экс-президент США рассказывает о дипфейках, параллельно оскорбляя Дональда Трампа. Этот ролик, впрочем, был создан в благих целях — его сгенерировал американский актер Джордан Пил совместно с BuzzFeed, чтобы показать, насколько реальна угроза дезинформации, созданной с помощью искусственного интеллекта. А вот появившееся летом 2019 года в Instagram (соцсеть признана в РФ экстремистской и запрещена) фальшивое видео с Марком Цукербергом, в котором он рассказывает о том, как Facebook (соцсеть признана в РФ экстремистской и запрещена) управляет будущим благодаря украденным данным пользователей, многих легковерных настроило против этой соцсети.
Зимой 2020 года CNN рассказал историю старшеклассника из штата Нью-Йорк, который создал и смог верифицировать в Twitter аккаунт несуществующего кандидата в президенты от Республиканской партии. На подростка сильно подействовал школьный урок истории, на котором учитель рассказал о якобы имевшем место российском вмешательстве в американские выборы. Молодой человек задался вопросом: как соцсети будут бороться с подобными угрозами на следующих выборах? И провел эксперимент: с помощью нейросети, которая генерирует фото несуществующих людей, создал кандидата Эндрю Вальца, сочинил ему легенду и слоган для предвыборной кампании. Обеспокоенность подобными инцидентами привела к тому, что осенью 2019 года в штате Калифорния приняли закон, запрещающий использование нейронных сетей для манипуляций вниманием без прямого указания на это.
Однако в других странах подобных законов нет, и дипфейки там могут значительно повлиять на исход политических кампаний. Зимой 2020 года в Индии набрали популярность два видеоролика, в которых президент Индийской народной партии Маной Тивари агитирует голосовать за себя. В одном видео политик говорит на хинди, а в другом — на диалекте хариани, которым он в реальности не владеет: нейронные сети помогли кандидату привлечь новых избирателей. Накануне парламентских выборов, которые прошли 31 октября, правящая партия «Грузинская мечта — демократическая Грузия» заявила, что представители радикальной оппозиции готовили провокационные материалы с использованием дипфейков.
Порой авторы политических фальшивок заявляют, что сделали их на благо обществу. Например, в сентябре в соцсетях появилось два ролика, которые по заказу беспартийной правозащитной организации RepresentUs создало креативное агентство Mischief at No Fixed Address. В одном из них президент России Владимир Путин говорит о том, что американцам не нужно бояться иностранного вмешательства в выборы, поскольку они сами преуспели в уничтожении демократии. Во втором ролике то же самое сообщение доносит северокорейский лидер Ким Чен Ын.
Оба видео, разумеется, дипфейки. То, насколько тонка грань между подобной попыткой напомнить о демократических ценностях и пропагандой, очевидно даже американцам: как пишет MIT Technology Review, трансляция этих дипфейков планировалась на телеканалах Fox, CNN и MSNBC, но в последний момент их сняли с эфира.
Закон не писан
Дипфейки тем опаснее, что сделать их сегодня может даже школьник. «В свободном доступе имеются многочисленные сервисы и ИИ-ресурсы, которые могут генерировать дипфейки: MarioNETte, Synthesia Reface, Doublicat, Reflect, Faceswap, DeepFake Lab, FakeApp, Dowell, Morphine, технология синтеза речи знаменитостей Vera Voice, — перечисляет Валентина Максимова, персональный член Ассоциации развития интерактивной рекламы (IAB Russia). — Отсутствие единого регулятора для таких платформ увеличивает риск роста распространения фальсифицированного контента, поскольку этические стандарты остаются исключительно на совести разработчика. Запрос на единый инструмент, позволяющий не только идентифицировать недостоверную информацию, но и определить авторство, должен разрешиться на государственном уровне с участием телеком-компаний. В то же время нам не хватает широкой образовательной программы для населения по работе с информацией».
Нормативная и правовая база традиционно не поспевает за технологиями. «На данный момент специального законодательства в области дипфейков нет, — отмечает Аркадий Оверин. — При попытке разрешить споры, касающиеся фейкового видео, могут применяться ранее установленные законы. Например, можно подать заявление о злонамеренной лжи, но только в том случае, если контент содержит ложные утверждения, которые привели к материальному и моральному ущербу. А вот законы о конфиденциальности вряд ли будут применимы, так как дипфейки чаще всего создаются с использованием фотографий, предоставленных самим лицом, понесшим ущерб (например, путем публикации в социальных медиа)».
Впрочем, четких инструментов для регулирования одиозной технологии нет в большинстве стран мира, признает Андрей Тарасов, специалист Центра машинного обучения «Инфосистемы Джет»: «Вот только в Китае с 1 января этого года ресурсы, публикующие дипфейк-видео, обязаны их маркировать. В случае несоблюдения требований предусмотрена уголовная ответственность».
Дипфейки обладают серьезным потенциалом к разрушению, но в наших силах ему противостоять, считает Мария Чмир, основательница компании Deepcake, которая развивает технологии, позволяющие генерировать подобные видео:
- «Во-первых, фактчекинг должен стать правилом № 1 нашей цифровой гигиены. Дипфейки пока еще заметны по внешним признакам: лицо может немного дергаться, отличаться по цвету от остальной картинки, в движении губ и взгляда наблюдается рассинхрон.
- Во-вторых, колоссальная ответственность лежит на создателях технологий. Мало просто помечать контент вотермарками (от которых легко избавиться), важно развивать технологии невидимых цифровых водяных знаков. Даже если видео заходят разрезать, сжать или многократно скопировать, наш маркер не сотрется.
- Третий путь — повышать качество детекции. Алгоритмы создания подделок и их идентификации родственны друг другу, что дает надежду на совершенствование технологий детекции».
Шоу должно продолжаться
Запрещать технологию дипфейков нельзя не только потому, что это исключительно сложно, но и потому, что ее можно задействовать на благо бизнеса. «Это всего лишь инструмент, который может быть использован и в развлекательных, и в практических целях. Допустим, я хочу купить очки, но из-за эпидемии не хочу идти в магазин. Примерил с помощью генератора дипфейков 20 моделей и подобрал подходящие. То же самое с одеждой и обувью», — рассказывает Вячеслав Архипов, преподаватель онлайн-университета Skillbox и ведущий дата-сайентист стартапа Banuba. Стартап разрабатывает, в частности, маски, которые могут сделать видеообщение пользователей на порядок интереснее — можно прямо во время разговора превратить свое лицо в обезьянью морду, обзавестись заячьими ушами или заставить бегать по своей голове тарантула.
В киноиндустрии технология способна значительно сократить материальные и временные затраты на производство, а также состарить, омолодить или даже воскресить актеров. Примером может служить фильм «Форсаж-7», который доснимался после гибели актера Пола Уокера: авторы картины создали цифровую копию героя боевика. Дипфейки также позволяют заменять лицами актеров лица каскадеров, реставрировать старые фильмы и кинохроники.
Российский стартап Deepcake специализируется на разработке искусственного интеллекта для визуальной коммуникации: его технологии позволяют не только накладывать одно лицо поверх другого, но и «оживлять» обычную фотографию, заставляя лицо двигаться, изображать различные эмоции и говорить. Разработанные стартапом технологии позволяют, скажем, интегрировать съемки новогоднего корпоратива в известный голливудский фильм или создавать обучающие материалы от первых лиц компании — например, с согласия гендиректора использовать его лицо во всех роликах, которые новый сотрудник смотрит, чтобы войти в курс дела. Прежний проект Марии Чмир — сервис Pantomime — делал анимированные портреты из фото пользователей, которые они загружали на сайт: клиенты выбирали эмоции из набора и потом делились «живыми портретами» с друзьям в мессенджерах. «Людям хочется общаться персонализированно и экспрессивно. Часто из текстовых сообщений невозможно считать интонацию. Мы подумали, а что, если бы у человека была возможность за несколько секунд создать анимированный эквивалент своего текущего состояния, — говорит Мария Чмир. — Пользователи начали делать себе стикерпаки, обменивались ими. К нам стали обращаться приложения, которые занимаются стикерами, приходили бренды, которые хотели интегрировать сервис в свои приложения».
Еще один отечественный проект — Avatarify — представил технологию, с помощью которой можно принять чей угодно облик во время звонка в Zoom или Skype. Весной создатели приложения Али Алиев и Карим Искаков выпустили демо-видео, которое показывало, как в видеодиалог двух молодых людей внезапно ворвался Илон Маск. Через некоторое время с разработчиками связался художник Билл Постерс (создатель упомянутого выше дипфейка с Цукербергом) и предложил им поучаствовать в создании видеоклипа для американского рэпера Lil Uzi Vert. В клипе Wassup, вышедшем на YouTube в мае 2020 года, «снялись» знаменитости, которых непросто собрать на одной съемочной площадке — рэперы Канье Уэст и Дрейк, Рианна, экс-президент Барак Обама и многие другие. А сервис Vera Voice, созданный Тимуром Бекмамбетовым и Владимиром Свешниковым, сооснователем Stafory (разработчик робота для подбора персонала «Вера»), подражает голосам знаменитостей. В 2020 году команда запустила приложение Parodist, с помощью которого можно разыграть друга либо отправить ему поздравление голосом Владимира Путина, Ксении Собчак или любой другой известной личности.
«На скорость развития этой технологии сильно повлияет спрос. Случился коронавирус, все засели дома — большой толчок для развития получили игры по сети. Там можно те же маски использовать — это как новая форма коммуникации. Видеосвязь с использованием дипфейков будет развиваться, появятся коллективные игры, где люди будут общаться через своих видеоаватаров», — заключает Вячеслав Архипов.
Что такое дипфейки
Название «дипфейк» — гибрид от англоязычных терминов deep learning (глубокое обучение) и fake news (фальшивые новости). Так называют фото-, видеои аудиоконтент, старающийся ввести в заблуждение пользователя. Для их создания чаще всего используются генеративно-состязательные сети. Они состоят из двух нейронных сетей, соревнующихся друг с другом: одна генерирует фальшивые кадры, а другая пытается определить, реальны они или нет. Этот цикл повторяется множество раз до тех пор, пока вторая сеть окажется неспособной отличить сгенерированное изображение от подлинного.
Вблизи Дали
Технический директор «Номикс» Аркадий Оверин приводит еще несколько примеров, когда технология может быть использована без вреда кому-либо.
Образование. Можно создавать захватывающие уроки — например, оживить на видео реальных исторических личностей.
Искусство. Лаборатория искусственного интеллекта Samsung с помощью дипфейка заставила Мону Лизу улыбнуться. В музее Сальвадора Дали во Флориде создали инсталляцию «Дали жив», где «воскрешенный» художник приветствовал посетителей.
Виртуальная реальность. Актеры могут за плату «сдавать» свои лица в библиотеки трехмерных изображений, с помощью которой аниматоры легко накладывали бы их на виртуальные манекены для создания персонажей VR-игр и различных приложений.
Фото: Zuma / ТАСС
Политика соцсетей по защите политиков
Автор: Янина Ноэль
Технологии совершенствования дипфейков развиваются быстрее, чем законы в этой области. Американские Twitter, Facebook (соцсеть признана в РФ экстремистской и запрещена) и китайский TikTok попытались самостоятельно отрегулировать распространение дипфейков разными способами.
Twitter ввел правила по дипфейкам и манипулированию СМИ, которые в основном предусматривают пометку твитов и предупреждение пользователей об измененных новостях, а не их удаление. По заявлению компании, твиты, содержащие фальсифицированные или недостоверные материалы, будут удаляться только в том случае, если они могут причинить вред. В определение вреда также включены любые угрозы конфиденциальности или права человека или группы лиц свободно выражать свое мнение. Это означает, что политика распространяется на преследование, навязчивое внимание, подавление или запугивание избирателей, а также на контент, содержащий фразы, предназначенные для того, чтобы заставить кого-то замолчать.
Facebook (соцсеть признана в РФ экстремистской и запрещена) в начале года анонсировал политику для удаления дипфейков. Сообщения будут удалены, если они соответствуют таким критериям:
- контент был отредактирован или синтезирован (помимо улучшения четкости или качества) таким образом, который не очевиден для обычного человека и, вероятно, может ввести кого-то в заблуждение, заставив думать, что субъект видео сказал слова, которых он на самом деле не говорил;
- это продукт искусственного интеллекта или машинного обучения, который объединяет, заменяет или накладывает контент на видео, делая его похожим на аутентичный.
TikTok. Новая политика TikTok запрещает любой синтетический или манипулирующий контент, который вводит пользователей в заблуждение, искажая правду о событиях, и который влечет причинение вреда. Политика касается не только запрещения конкретной технологии, основанной на ИИ, сколько в большей степени введена для защиты от использования любого вида обманного видео для очернения политических оппонентов в интернете.
Основной проблемой для соцсетей являлось отсутствие технологии обнаружения дипфейков. В 2019 году Facebook (соцсеть признана в РФ экстремистской и запрещена) вместе с Microsoft и другими партнерами запустили конкурс для решения проблемы обнаружения The Deepfake Detection Challenge. Самой успешной стала модель белорусского разработчика Селима Сефербекова. Она достигла точности 65,18% на тестовых дата-сетах. На третьем месте — модель российской компании NTechLab.