Видео подделки: Технологии подделки видео и голоса стали общедоступными

Содержание

Технологии подделки видео и голоса стали общедоступными

Добавить в избранное
Мнение, Технологии

Станислав Петровский

Юрист компании «Объединенная Энергия», кандидат юридических наук

Опубликован видеоролик, который показывает, что американцы не были на Луне, а разбились при посадке. В ролике президент США официально скорбит о гибели астронавтов космического корабля Аполлон-11 на Луне. Теперь ролик с речью президента США Никсона о лунной катастрофе In Event of Moon Disaster можно увидеть в YouTube (фильм с видео речи президента США Никсона, которой никогда не было в действительности). Его записали специалисты Центра передовой виртуальности (Center for Advanced Virtuality) Массачусетского технологического института. Ролик создан с помощью технологии DeepFake, которая позволяет на основе нескольких образцов голоса и видео с человеком создать искусную подделку, на глаз неотличимую от оригинала.

Другая разработка под названием DeepVoice позволяет синтезировать речь со всеми нюансами, характерными для конкретного человека, включая произношение. Системе достаточно 10 образцов голоса человека по 5 секунд, чтобы создать звукозапись, которую не отличит система распознавания по голосу. Существует также аналогичный канадский проект Lyrebird. Специалисты университетов Принстона, Макса Планка и Стэнфорда также создали приложение Neural Rendering, которое имитирует произнесение текста человеком на видео. Язык говорящего не имеет значения.

Конечно, в противовес началось развитие технологий, позволяющих выявлять подделку изображений, видео или звуковых роликов, но они выявляют далеко не все подделки и нуждаются в существенной доработке.

Компании Facebook и Microsoft провели в 2020 году DeepFake Detection Challenge — конкурс лучшего решения для выявления подмены лиц на видео. Приз составлял $1 млн, но лучшее решение только в 68% случаев выявляет подделку. Причем речь идет о видео DeepFake, в которые не вносились специальные шумы, затрудняющие распознавание подделок. По непроверенным данным, уже разработано специальное программное обеспечение на основе искусственного интеллекта, противодействующее распознаванию подделок.

Самым известным примером незаконного использования DeepFake является случай с энергетической компанией, которая потеряла около 220 тысяч евро. Злоумышленники позвонили по телефону бухгалтеру и голосом руководителя передали распоряжение на оплату. Была правдоподобно сымитирована манера разговора и немецкий акцент.

Сегодня технология DeepFake стала доступна для всех желающих. Помимо инструментов для фото и видео DeepFaceLab, FaceSwap, Faceswapweb.com и других, сразу несколько русскоязычных Telegram-каналов предложили сервис подмены номера телефона и голоса. Сервис позволяет подменить ваш номер на любой другой, а также поменять ваш голос на один из нескольких вариантов. Это предоставляет всем желающим возможности как для невинных розыгрышей, так и для крупного мошенничества. Становятся бесполезными приложения, которые с помощью определителя номера выявляют навязчивую рекламу или мошенников. Теперь имеет смысл просить собеседника сообщать наиболее важную информацию через мессенджеры, поскольку там пока, по крайней мере в широком доступе, нет средств для подмены номера.

Технологии синтеза реалистичной речи и видео вызывают обоснованное беспокойство специалистов, поскольку позволяют мошенникам записывать голосовые сообщения голосом знакомых вам людей или подделывать видео, в том числе обманывать системы банковской идентификации, а также подделывать доказательства для суда. Развитие технологии может привести к тому, что видеозаписи и аудиозаписи будет невозможно использовать в суде. DeepFake отрывает широкие возможности для краж с банковских счетов, политической дискредитации, а также запугивания, шантажа и мошенничества, целью которых может стать любой, включая детей. Уже сейчас в интернете распространены поддельные порноролики, где внешность порноактера заменена на внешность знаменитости.

С октября 2019 года в Калифорнии запрещено выкладывать в сеть ролики с политическими кандидатами за 60 дней до выборов. С января 2020 года в Китае запрещено публиковать фото и видео, созданные с помощью технологии DeepFake без специальной пометки.

Учитывая, что отличить подделку даже с помощью специализированного программного обеспечения не всегда возможно, впору повторить слова известного персонажа: «Не верь глазам своим!»

Тут есть о чем задуматься: как всем нам, так и законодателям, судьям, а также специалистам по криминалистической экспертизе.

Загрузка…

Новости СМИ2

Как распознать онлайн поддельные фото и видео — Lava Media на vc.ru

{«id»:13959,»url»:»\/distributions\/13959\/click?bit=1&hash=3e504f7b176350354538806b2b3c72f263e69d5504c520ebf447170dc4ee79ed»,»title»:»\u0422\u0430\u0431\u043b\u0438\u0447\u043a\u0438 \u0441 \u043f\u0430\u0440\u043e\u043b\u044f\u043c\u0438 \u2014 \u044d\u0442\u043e \u043f\u0440\u043e\u0448\u043b\u044b\u0439 \u0432\u0435\u043a»,»buttonText»:»\u041f\u043e\u0447\u0435\u043c\u0443?»,»imageUuid»:»9133a6f2-4291-5bdb-b75d-c389dca92e58″}

Всегда ли можно доверять информации в социальных сетях? Какие ролики и фото являются подлинными, а какие – фейки? Используйте советы и инструменты из этой статьи для быстрого обнаружения подделок.

256 просмотров

Почему важно учиться видеть фальшь

Распространители дезинформации действуют все более искусно, создавая достоверные подделки с помощью передовых технологий. Критически подходите к подобной визуальной информации и проверяйте ее подлинность перед публикацией. Публикация ложных материалов может привести к потере читателей, репутации и даже работы.

Всегда задавайте себе 4 вопроса

Что говорит интуиция? Если вам с первого взгляда показалось, что это не может быть правдой – возможно, перед вами подделка. Наше подсознание оценивает изображение и предупреждает о его неестественности.

Есть ли источник? Надежные издания соблюдают авторские права и демонстрируют подлинность, указывая источники. Если эти сведения отсутствуют, то дальше можете не проверять.

Насколько достоверен свет? Если объект и фон различаются по контрастности, типу освещения и пр., то перед вами результат фотошопа.

Фото кажется знакомым? Это вполне может быть старая фотография с обработкой. Или оригинальная – только уже в другом контексте.

5 методов распознавания подделок

Обратный поиск. Перейдите в Яндекс – поиск по фото или Google Images и загрузите файл (перетащите в поле поиска, укажите url и пр.). Найдите совпадающие или похожие изображения, изучите историю фотографии. Если картинка уже находится в сети – используйте поиск Google Lens по правой кнопке мыши. Функция Google Lens доступна на Android / iOS смартфонах, есть и сторонние приложения для обратного поиска.

Изучение метаданных. Используйте EXIFdata или другие бесплатные инструменты для проверки по метаданным (Metapicz, Exif Viewer). С их помощью вы можете узнать дату, время и GPS координаты создания снимка, каким устройством он был сделан, а также выдержку, разрешение и другие параметры. Только учтите, что некоторые соцсети автоматически удаляют метаданные для соблюдения конфиденциальности.

Визуально-криминалистическая экспертиза. Проверьте фото на специализированных ресурсах. Сервис TinEye дает возможность сортировать и фильтровать фото по степени изменения, а также выделять различия с помощью функции сравнения.

Анализ подручными средствами. Сайт Snopes – один из лучших для проверки фактов читателями и журналистами. Он позволяет распознать дезинформацию, отличить правду от мифов и слухов. На нем также можно узнать, является ли популярная фотография подлинной или фальшивой.

На Твиттере имеются дескрипторы, которые помогут вам в работе. К примеру, @PicPedant отслеживает украденные, поддельные и незарегистрированные фотографии.

Проверка видео. Анализируйте метаданные роликов на YouTube с помощью YouTube Dataviewer. Сервис находит копии видео и связанные с ним миниатюры, что позволяет отследить оригинальный экземпляр ролика.

Плагин проверки InVID ведет обратный поиск, анализирует ключевые кадры, проверяет авторские права на видео и делает многое другое. Универсальный инструмент для профессионалов!

Хотите погрузиться в тему фейков глубже? Рекомендуем Справочник по верификации от Европейского центра журналистики.

Сможете назвать сколько стоят рекламные ролики? Пройдите тест и узнайте насколько точно вы можете оценить бюджет видео роликов. В качестве бонуса вы получите каталог на мировые видео с их посчитанными бюджетами.

Лучшие примеры дипфейков | Креативный блок

Это не Джим Керри (Изображение предоставлено: Ctrl Shift Face/Youtube)

Лучшие примеры дипфейков продолжают удивлять нас, а также вызывают сомнения в том, можем ли мы быть уверены, что это правда. За несколько коротких лет такие технологии, как искусственный интеллект и дипфейк, продвинулись до такой степени, что становится очень трудно увидеть недостатки в этих творениях. Раньше у них было ощущение «зловещей долины», из-за которого было очевидно, что то, на что мы смотрим, не реально, но в последний год или около того мы видели все более убедительные примеры дипфейков.

В этом обзоре мы попытались показать широкий спектр примеров дипфейков — от самых реалистичных правок до тех, которые предназначены исключительно для развлекательных целей. Дипфейки использовались для различных целей, в основном для развлечения и пародии. Но по мере того, как технология совершенствуется и становится более доступной, мы также стали свидетелями некоторых злоупотреблений, пытающихся распространять дезинформацию, выдавая себя за важных общественных деятелей, таких как политики.

Но что такое дипфейк? Прокрутите вниз, чтобы ознакомиться с кратким описанием работы технологии, но на самом базовом уровне дипфейк — это видео, в котором используется впечатляющая технология для воспроизведения сходства субъекта с целью замены лица другого — по сути превращения одного человека в другого. Результаты могут быть впечатляющими и очень забавными, но они также могут вызывать опасения по поводу конфиденциальности, манипуляций и подлинности. Чтобы узнать больше о более широком явлении изображений, созданных ИИ, ознакомьтесь с нашим руководством о том, как использовать DALL-E 2 и сравнить лучшие генераторы искусства ИИ. А пока вот лучшие примеры дипфейков, которые мы видели до сих пор.

Лучшие примеры дипфейков

01. Это не Морган Фримен

Один из самых пугающе убедительных дипфейков — это дипфейк Моргана Фримена. Видео было впервые опубликовано голландским дипфейковым каналом Diep Nep на YouTube в прошлом году, приписывая концепцию Бобу де Йонгу и (очень хорошую) озвучку Боэту Шувинку.

Видео по-прежнему впечатляет и пугает даже год спустя, как мы видели, когда оно появилось в Твиттере в прошлом месяце. «Как эту технологию НЕ использовать на выборах 2024 года?» один пользователь прокомментировал. «Вскоре мы увидим, что даже это, по сути, детская игра, когда дело доходит до реальных, вездесущих (но невидимых) возможностей манипулирования идентификацией и создания полной цифровой идентичности… последствия которых далеко идущие и леденящие кровь». », — добавил кто-то.

02. «Сияние» с Джимом Керри в главной роли

Причудливые кроссоверы между фильмами и актерами популярны среди создателей дипфейков; вы можете найти множество из них на YouTube (включая вышеупомянутый мэшап Jerry Seinfield и Pulp Fiction). В этом ужасно хорошем монтаже Джим Керри берет на себя роль Джека Торренса в серии видеороликов, демонстрирующих самые важные моменты из фильма 1980 года «Сияние». Это пугающе убедительно и заставляет нас хотеть увидеть Джима Керри в фильме ужасов. Его преувеличенное выражение лица было бы идеальным.

Если вы хотите увидеть лучшее сравнение редактирования Deepfake с оригиналом, создатели Ctrl Shift Face загрузили до и после преобразования Джека в Джимми.

03. Человек-паук: Домой нет пути, но это Тоби Магуайр

У каждого есть любимый актер Человека-паука, и если вам больше всего нравится Тоби Магуайр, вам понравится именно этот вариант. Популярный создатель дипфейков Шамук взял трейлер фильма «Человек-паук: Дому нет» и заменил лицо Тома Холланда на оригинального паука Тоби Магуайра. Это едва уловимый эффект, но выполненный блестяще, так что едва ли можно сказать, что произошли какие-то изменения.

Такое редактирование заставляет нас задуматься о том, как может выглядеть будущее кино с использованием этой технологии. Представьте, что вы можете выбрать любимого актера на главную роль в фильме, который вы смотрите. Дикий.

04. Джерри Сайнфелд в «Криминальном чтиве»

Это забавное и прекрасно выполненное творение DesiFakes помещает Джерри Сайнфелда в одну из самых известных сцен из «Криминального чтива», и это работает фантастически. Редактирование звука здесь так же важно, как и визуальные эффекты, с идеальной синхронизацией вплоть до неуместного консервированного смеха, звона и титров. Выражение лица могло прийти прямо из эпизода Seinfeld. Именно для таких вещей и были созданы дипфейки.

05. Дипфейк Тома Круза на TikTok

@deeptomcruise

Держите руки в чистоте.

♬ оригинальный звук — Том

За последние годы дипфейки зашли так далеко, что теперь есть учетная запись TikTok, полностью посвященная дипфейкам Тома Круза. В видео @deeptomcruise все еще есть намек на сверхъестественную долину, но его мастерство актерского голоса и манеры наряду с использованием быстро развивающихся технологий привели к одним из самых убедительных примеров дипфейков.

На видео видно, как Круз делает все, от игры в гольф до демонстрации фокуса, даже в повседневных ситуациях, например, моет руки. Описание учетной записи TikTok просто гласит: «Пародия. Тоже моложе».

06. The Mandalorian Luke Skywalker deepfake

Фэндом «Звездных войн» взорвался при виде Люка Скайуокера в финале второго сезона «Мандалорца». Однако, как только космическая пыль наконец улеглась, зрители поспешили указать на то, что они считали недостатками в цифровом воссоздании молодого Марка Хэмилла. В очередной раз ютубер Shamook попытался подделать Люка Скайуокера эпохи Возвращения джедая с очень впечатляющими результатами.

На самом деле позже было подтверждено, что Шамук был нанят не кем иным, как Industrial Light and Magic, легендарной компанией по созданию визуальных эффектов, которая помогает оживить галактику Звездных войн. Технология дипфейков сейчас используется для формирования далекой-далекой галактики.

07. Дипфейк Киану Ривза в TikTok

tiktok.com/@unreal_keanu/video/7146204821958217002″ data-video-id=»7146204821958217002″>
@unreal_keanu ♬ оригинальный звук — Unreal Keanu Reeves

Круз — не единственная фальшивая знаменитость, у которой есть свои поклонники в TikTok. С тех пор к нему присоединились на платформе дипфейк Киану Ривз и многие другие. У Unreal_Keanu невероятные 7,4 миллиона подписчиков, которым, кажется, нравятся ссылки на его ролики, его танцы (это TikTok) и шутки о жизни с партнером.

Как и в случае с Крузом выше, этот конкретный дипфейк-знаменитость используется для смеха, а не выдается за настоящего. Но, несмотря на юмор, это показывает риски, которые дипфейки представляют для знаменитостей. С одной стороны, технология может позволить знаменитостям продавать свой имидж брендам, не утруждая себя съемкой ролика или фотосессией. Но, с другой стороны, уже были сообщения о недобросовестных брендах, использующих дипфейки для продвижения своей продукции без разрешения знаменитостей.

08.

Ведущий новостей из Кореи Ким Джу-Ха

Многие примеры дипфейков представляют собой забавные пародии или эксперименты, предназначенные для проверки пределов возможностей технологии глубокого обучения. Тем не менее, пожалуй, самый главный признак того, что дипфейки могут стать частью повседневных средств массовой информации, появился в конце прошлого года, когда корейский телеканал MBN представил зрителям дипфейк собственного ведущего новостей Ким Чжу-Ха.

Канал заранее предупредил зрителей, что читатель новостей будет поддельным, а у Ким Чжу-Ха все еще есть работа. Тем не менее, MBN заявил, что планирует продолжать использовать дипфейк для некоторых экстренных новостных сообщений, а компания, стоящая за дипфейком, южнокорейская DeepBrain AI (ранее известная как Moneybrain), заявила, что ищет покупателей медиа в Китае и США. некоторые опасаются, что программы для чтения новостей могут устареть.

09. Чудо-женщина

Ремейки и перезапуски продолжают оставаться важной частью современного кинематографа. Всякий раз, когда новых актеров берут на классические роли, неизбежно делаются сравнения между разными образами. Технология дипфейков позволила людям сделать еще один шаг в этих сравнениях, поставив одного актера на место другого в последовательности, выделив сходства и различия, за которыми невероятно интересно наблюдать.

Этот пример от DeepFaker помещает актрису Линду Картер из классического телешоу 70-х «Чудо-женщина» в переосмысленный мир и костюм «Чудо-женщины» Галь Гадот на большом экране — с захватывающими дух результатами.

10. Глубокие подделки Snoop Dogg Doggy Dog чтения Таро

Предсказания по телефону раньше доминировали в позднем ночном телевидении во многих местах, когда зрители звонили по телефону, чтобы узнать свое будущее от весьма сомнительных экстрасенсов. Это был теневой бизнес, поэтому он кажется скорее приложением для лечения дипфейков, и кто может лучше сыграть в нем главную роль, чем гангста-рэпер с Западного побережья Снуп Догг. Этот веселый дипфейк — работа Брайана Монарха.

11. Круглый стол по дипфейкам

В сфере развлечений прямо сейчас происходит сейсмический сдвиг, поскольку потоковые сервисы, такие как Netflix, борются за внимание с большим экраном. Имея это в виду, Collider собрал этот веселый дипфейк с супер узнаваемыми лицами Тома Круза, Роберта Дауни-младшего, Джорджа Лукаса, Юэна МакГрегора и Джеффа Голдблюма, обсуждающих потоковое вещание и будущее кино. Это наш любимый ролик не только потому, что он невероятно убедителен, но и потому, что это очень забавное видео. Как выразился один комментатор, это «ужасно хорошо».

12. Дональд Трамп присоединяется к сериалу «Во все тяжкие»

В этом видео взята сцена из мегапопулярного сериала «Во все тяжкие» и представлена ​​Дональд Трамп в роли мошенника-адвоката Сола Гудмана. В этой сцене Гудман объясняет основы отмывания денег Джесси Пинкману, которого в сериале играет Аарон Пол. Чтобы добавить немного реализма, зять Дональда Трампа, Джаред Кушнер, сфальсифицированный с помощью дипфейка, берет на себя роль Пола, делая пародию почти личной по душам.

Создатели YouTube Ctrl Shift Face, создатели пародии, использовали DeepFaceLab для покадрового создания лиц Трампа и Кушнера. Голоса, завершающие сцену, были предоставлены Stable Voices — пользовательской моделью искусственного интеллекта, которая обучается на образцах реальной речи.

Дональд Трамп, должно быть, один из тех, кто чаще всего подвергался дипфейкам, часто с очень забавными результатами. На самом деле создатели «Южного парка» изначально планировали сделать из своего «Дерзкого правосудия» целый фильм (см. ниже). Deep Fake: The Movie, похоже, в настоящее время приостановлен, но это пример того, как он может выглядеть.

13. Объявление государственной службы Обамы

Многие из наиболее убедительных примеров дипфейков были созданы с помощью имитаторов, которые имитируют голос и жесты источника, как это видео, созданное BuzzFeed и комиком Джорданом Пил с использованием After Effects CC и FakeApp . Рот Пила был наклеен на рот Обамы, заменив линию подбородка бывшего президента той, которая следовала за движениями рта Пила. Затем FakeApp использовался для уточнения отснятого материала в течение более чем 50 часов автоматической обработки.

Политики и знаменитости часто становятся объектами дипфейков. Менее чем за год до этого видео компьютерщики Вашингтонского университета использовали искусственный интеллект нейронной сети, чтобы смоделировать форму рта Обамы и синхронизировать его губы с аудиовходом.

Высокопоставленные личности являются идеальными источниками для дипфейкинга, потому что их публичные профили содержат множество исходных материалов для обучения ИИ, но с учетом того количества селфи, которое средний человек делает за всю жизнь, и быстрого технического прогресса, возможно, скоро кто-нибудь можно использовать как источник.

14. Цукерберг говорит откровенно

[НОВЫЙ ВЫПУСК] «Хотел бы я…» (2019) Марк Цукерберг, основатель @facebook, раскрывает «правду» о конфиденциальности на #facebook . Это произведение является частью серии созданных искусственным интеллектом видеоработ, созданных для «Спектра» — захватывающего исследования индустрии цифрового влияния, технологий и демократии. [ссылка в био]. Искусство Билла Постера и @danielhau для @sheffdocfest @sitegallery #artnotmisinformation #thefutureisntprivate #deepfakes #deepfake #spectreknows #surveillancecapitalism #privacy #democracy #dataism #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryart Bill Posters

Фотография, опубликованная @bill_posters_uk 13 июня 2019 года в 5:18 утра по тихоокеанскому времени

В ответ на отказ Facebook удалить поддельное видео с Нэнси Пелоси, художник Билл Постерс опубликовал этот дипфейк в принадлежащем Facebook Instagram, на котором изображен Марк Цукерберг. хвастаться тем, как платформа «владеет» своими пользователями. Будет ли Facebook реагировать по-другому, когда его основателем манипулируют?

Изначально этот фильм был частью фильма «Спектр» от студии Posters и Дэниела Хоу, который был заказан для Sheffield Doc Fest, чтобы привлечь внимание к тому, как люди могут манипулировать людьми с помощью социальных сетей. Он был сделан с использованием программного обеспечения VDR (замена видеодиалога) израильского стартапа Canny AI, которое продвигается с помощью дипфейкового пения с участием различных мировых лидеров.

Instagram не удалил видео Цукерберга, но сказал, что будет «относиться к этому контенту так же, как мы относимся ко всей дезинформации в Instagram. Если сторонние средства проверки фактов отметят это как ложное, мы его отфильтруем». Плакаты отметили это хэштегом #deepfake. В то время как видео достаточно убедительно без звука, голос выдает это, показывая, что хороший актер все еще нужен для создания правдоподобных примеров дипфейков (хотя синтез голоса ИИ продвигается семимильными шагами, так что, возможно, ненадолго).

15. Дональд Трамп читает лекции Бельгии

Снова Трамп! Это старое видео, но оно примечательно тем, что стало первым примером того, как политическая партия использовала дипфейк. Бельгийская Socialistische Partij Anders (sp.a) опубликовала это видео на Facebook еще в мае 2018 года, на котором Трамп насмехается над Бельгией за то, что она осталась в Париже. климатическое соглашение. С прической Трампа, выглядящей еще более странно, чем обычно, и грубым движением рта, это явно фальшивка, и голос за кадром говорит об этом, хотя последняя фраза «Мы все знаем, что изменение климата фальшиво, как и это видео», не соответствует действительности. t с субтитрами на фламандском языке, но этого все же было достаточно, чтобы спровоцировать одного пользователя на комментарий «Трампи нужно взглянуть на свою страну с ее сумасшедшими детоубийцами», и для sp.a, чтобы уточнить, что это фальшивка.

Более убедительный образ Трампа (ниже) позже был создан ютубером Derpfakes, который обучил DeepFaceLab сопоставить изображение лица Трампа с изображением Алека Болдуина в субботу вечером в прямом эфире, чтобы показать, как далеко продвинулась технология за год. Видео было заблокировано в США и Канаде.

16. Deepfake Dove’s Toxic Advice

Вот пример дипфейков, используемых крупным брендом для маркетинговой кампании с позитивной миссией. Dove использовала технологию дипфейка, чтобы вкладывать в уста матерей девочек-подростков очень маловероятные советы, цель которых заключалась в том, чтобы повысить осведомленность о негативном влиянии многих опасных советов о «красоте», которыми делятся влиятельные лица в приложениях для социальных сетей. В видео кампании участники сидят с открытыми ртами, явно напуганные искаженными советами, которые дают их мамы. Объявление под названием «Токсичное влияние» было создано Огилви.

17. Билл Хейдер превращается в Пачино и Шварценеггера

Если в основе убедительного дипфейка лежит отличное подражание, то это видео актера и комика Билла Хейдера, превращающегося в голливудских легенд Аль Пачино и Арнольда Шварценеггера, не может не пройти. Хотя команда Ctrl Shift Face не пытается никого обмануть этим видео, они демонстрируют, насколько важно иметь актера, который может уловить манеры вашего источника. Тонкое превращение лица Хадера в лицо Пачино, а затем Шварценеггера немного пугает и совершенно уморительно.

18. Сальвадор Дали возвращается к жизни

Агентство GS&P провернуло захватывающий трюк, который оценил бы любитель рекламы Дали, когда они воскресили каталонского художника в качестве харизматичного хозяина в Музее Дали во Флориде. Объявленный как «искусство встречается с искусственным интеллектом», Dalí Lives был создан путем извлечения более 6000 кадров из старых видеоинтервью и обработки их через 1000 часов машинного обучения, прежде чем наложить исходный код на лицо актера. Текст состоял из цитат из интервью и писем с новыми комментариями, призванными помочь посетителям сопереживать художнику и относиться к его творчеству.

Новизна этого примера дипфейка заключается в его интерактивности. В общей сложности 45 минут отснятого материала, разделенного на 125 видеороликов, позволяют использовать более 190 000 возможных комбинаций в зависимости от ответов посетителей и даже включают комментарии о погоде. Он заканчивается тем, что Дали оборачивается и делает селфи со своей аудиторией. Дали утверждал, что маловероятно, что он когда-нибудь умрет, и, возможно, он был прав, потому что недавно он был оживлен во второй раз лабораторией искусственного интеллекта Samsung в Москве, на этот раз путем обучения искусственного интеллекта на выдающихся чертах лица всего на нескольких изображениях, а не на обычные тысячи.

19. Глубокий фейк Владимира Зеленского. 2022

Подробнее

К счастью, большинство известных примеров дипфейков в Интернете четко помечены как фальшивые и не предназначены для того, чтобы кого-то обмануть. Их обычно разыгрывают для смеха, например, Николас Кейдж появляется в каждом когда-либо снятом фильме, или, в худшем случае, для грязных фантазий (дипфейковое порно со знаменитостями, благодаря которому технология впервые прижилась, было запрещено). Но были случаи, когда люди использовали дипфейки в гнусных целях и пытались выдать их за настоящие.

Этот пугающий пример был показан на взломанном украинском телеканале всего через месяц после вторжения России в страну. На нем изображен президент Украины Владимир Зеленский, отдающий приказ войскам страны сдаться России. Хотя качество низкое и выглядит не очень убедительно, это пример того, почему люди так обеспокоены тем, что дипфейки могут быть использованы для распространения фейковых новостей.

20. Ян Ми путешествует во времени

Еще в 2019 году появилось видео, наклеивающее лицо Ян Ми, одного из самых известных современных китайских актеров, в 1983 Гонконгская телевизионная драма «Легенда о героях-кондорах» стала вирусной, набрав 240 миллионов просмотров, прежде чем китайские власти удалили ее.

Его создатель, фанат Ян Ми, принес извинения на сайте микроблогов Weibo и сказал, что снял видео в качестве предупреждения, чтобы повысить осведомленность об этой технологии. На самом деле мы видим множество возможных применений дипфейков в кино- и телеиндустрии. Также можно увидеть, как индустрия может в конечном итоге принять эту технологию и превратить ее в прибыль, позволяя зрителям играть режиссера в домашних релизах, манипулируя диалогами, включая альтернативные сцены или даже вставляя себя в качестве персонажей. Мы не удивимся, если увидим много видеоигр с участием знаменитостей.

Что такое дипфейк?

Дипфейки получили свое название из-за того, что они используют технологию глубокого обучения для создания поддельных видео. Технология глубокого обучения — это разновидность машинного обучения, которая применяет моделирование нейронной сети к массивным наборам данных. Искусственный интеллект (ИИ) эффективно изучает, как выглядит конкретное лицо под разными углами, чтобы перенести лицо на цель, как если бы это была маска.

Огромные успехи были достигнуты благодаря использованию генеративно-состязательных сетей (GANS) для противопоставления двух алгоритмов ИИ друг другу, один из которых создает подделку, а другой оценивает его усилия, обучая механизм синтеза создавать более качественные подделки.

В последние годы Голливуд успешно переносил настоящие или вымышленные лица на других актеров, например, вернув к жизни Питера Кушинга в фильме «Изгой-один: Звездные войны: Истории» 2016 года, но эта техника потребовала сложных и дорогих конвейеров с камерами, установленными на лице. С тех пор доступные программные инструменты, такие как FakeApp и DeepFaceLab, сделали технологию дипфейка доступной для всех.

Технология, лежащая в основе дипфейков, предлагает множество интересных возможностей для различных творческих сфер: от дублирования и восстановления видео до решения эффекта «зловещей долины» персонажей компьютерной графики в фильмах и видеоиграх, избавления актеров от необходимости повторять небрежную реплику и создания приложений, которые позволяют нам попробовать новую одежду и прически.

Эта технология даже используется для создания корпоративных обучающих видеороликов и обучения врачей. Однако по-прежнему преобладает опасение, что технология может быть использована в зловещих целях. Если вы хотите глубже разобраться в этих проблемах, ознакомьтесь с нашей статьей об этике цифровых людей.

Как отличить дипфейк?

С ростом опасений, что убедительные дипфейки могут быть использованы в преступных целях или для обмана целых групп населения, многие люди неизбежно задаются вопросом, как можно обнаружить дипфейки. Существуют организации, которые работают над подтверждением подлинности видео и изображений, размещенных в Интернете, с использованием различных методов, но если вы когда-нибудь обнаружите, что разговариваете по видеосвязи с кем-то, кто, как вы подозреваете, может быть ненастоящим, хорошей идеей будет попросить человека обратиться к сторона.

Это работает, потому что программное обеспечение, используемое для оценки поз лица для дипфейковых видео, не слишком хорошо справляется с острыми углами и назначает больше ориентиров передней части лица, чем сбоку. В большинстве случаев в профиле также меньше изображений людей, а это означает, что у них меньше примеров изображений для обучения.

Читать далее:

  • Эти мотивационные коты-знаменитости с искусственным интеллектом — то, ради чего был изобретен Интернет
  • Да, это аниме с искусственным интеллектом настолько плохо, как все говорят
  • Лучшие мониторы для видеомонтажа

Спасибо, что прочитали 5 статей в этом месяце* Присоединяйтесь сейчас, чтобы получить неограниченный доступ

Наслаждайтесь первым месяцем всего за 1 фунт стерлингов / 1 доллар США / 1 евро

У вас уже есть аккаунт? Войдите здесь

*Читайте 5 бесплатных статей в месяц без подписки

Присоединяйтесь сейчас, чтобы получить неограниченный доступ

Попробуйте первый месяц всего за 1 фунт стерлингов / 1 доллар США / 1 евро

У вас уже есть аккаунт? Войдите здесь

Ежедневные новости дизайна, обзоры, практические советы и многое другое, выбранное редакторами.

Свяжитесь со мной, чтобы сообщить о новостях и предложениях от других брендов Future. Получайте электронные письма от нас от имени наших надежных партнеров или спонсоров.

Джо — постоянный журналист-фрилансер и редактор Creative Bloq. Он пишет новости и статьи, обновляет руководства по покупке и отслеживает лучшее оборудование для творчества, от мониторов до аксессуаров и канцелярских товаров. Писатель и переводчик, он также работает менеджером проектов в расположенном в Лондоне и Буэнос-Айресе агентстве дизайна и брендинга Hermana Creatives, где он руководит командой дизайнеров, фотографов и видеоредакторов, которые специализируются на производстве фотографий, видеоконтента, графического дизайна и обеспечение для гостиничного сектора. Он увлекается фотографией, особенно фотографией природы, велнесом и танцует аргентинское танго.

веб-дипфейков | Сделай свой собственный дипфейк! [Онлайн-приложение]

Облачное ПО

Приложение Deepfakes — это онлайн-программа для дипфейков, которая работает в облаке. Все, что вам нужно сделать, это загрузить видео и нажать кнопку, наше приложение сделает все остальное.

Частный

Только у вас есть доступ к вашим обучающим данным, видео и изображениям. Мы не передаем информацию третьим лицам и не публикуем ваши видео каким-либо образом.

Повторное использование модели

Вы можете повторно использовать обученную модель. Это позволяет улучшить качество результатов замены лиц или сделать дополнительные видеоролики без переобучения модели.

Создать дипфейковое видео

* Качество вашего дипфейка зависит от качества и продолжительности ваших видео. Чем лучше обучена ваша модель ИИ, тем лучше результат.

* Пожалуйста, используйте наши технологии ответственно и ознакомьтесь с нашей политикой в ​​отношении содержания и нашими условиями использования.

Шаг 1. Загрузите исходное и целевое видео

Шаг 2. Позвольте ИИ изучить и обработать ваше видео

3. Загрузите или просмотрите недавно созданное видео Deepfake

Теперь вы можете посмотреть видео.

4. Повторно используйте свою модель

Чем ниже значения потерь, тем выше будет качество. (Они должны быть меньше 0,02)

4 доллара в час

Средняя стоимость и время
Базовый дипфейк (10 000 итераций) — 20 долларов
Высококачественный дипфейк (50 000 итераций) — 80 долларов

Создать дипфейковое видео

* Качество вашего дипфейка зависит от качества и продолжительности ваших видео. Чем лучше обучена ваша модель ИИ, тем лучше результат.

* Пожалуйста, используйте наши технологии ответственно и ознакомьтесь с нашей политикой в ​​отношении содержания и нашими условиями использования.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *