Home Робототехника Что такое дипфейк и для чего он используется? | DeepTech

Что такое дипфейк и для чего он используется? | DeepTech

0
Что такое дипфейк и для чего он используется?
 | DeepTech

Введение

Дипфейки используют искусственный интеллект с глубоким обучением, чтобы заменить сходство одного человека с другим в видео и других цифровых медиа.

Дипфейки — одно из наиболее ярких проявлений того, что сейчас называют «синтетическим медиа», — это изображения, звуки и видео, которые кажутся созданными традиционными средствами, но на самом деле были созданы с помощью сложных алгоритмов с использованием глубокое обучение и искусственный интеллект.

Моделирование реальности с помощью компьютеров становится все более точным. Сегодня современные фильмы в значительной степени полагаются на компьютерные декорации, декорации и персонажей вместо практичного реквизита и локаций, которые когда-то были нормой. Часто эти сцены невозможно отличить от реальности.

Технология Deepfake недавно попала в заголовки газет. Искусственный интеллект (ИИ) используется для замены изображения одного человека другим в записанном видео при создании видеороликов.

Читайте также: Искусственный интеллект-самоучка положит нам конец

Как работают дипфейки?

«Дипфейки» относятся к базовой технологии «глубокого обучения», разновидности искусственного интеллекта. С помощью алгоритмов глубокого обучения, которые учатся решать проблемы на основе больших объемов данных, фейковые медиа можно сделать реалистичными.

Дипфейки: реалистичная оценка потенциала, рисков и политического регулирования.

Дипфейк можно создать разными способами. Один из наиболее распространенных включает в себя глубокие нейронные сети и автокодировщики, использующие метод замены лиц. Первое, что вам понадобится, — это целевое видео для дипфейка, а также коллекция клипов человека, которого вы хотите вставить в цель.

Видео могут быть совершенно не связаны между собой; целью может быть отрывок из голливудского фильма, а видео выбранной темы — случайные клипы с YouTube.

Автоэнкодер — это программа искусственного интеллекта, созданная для изучения видеоклипов с целью определения того, как выглядит человек с разных ракурсов и в различных погодных условиях. Затем он используется для сопоставления этого человека с человеком в целевом видео путем обнаружения сходства.

ГАН

Дипфейк дополнительно улучшается с помощью генеративно-состязательных сетей (GAN), которые обнаруживают и устраняют недостатки в течение нескольких раундов, что усложняет декодирование детекторов дипфейков.

Еще одно применение GAN — создание дипфейков, которые используют большое количество данных, чтобы «научиться» создавать новые примеры, максимально точно воспроизводящие реальность.

Дипфейки могут легко создавать даже новички с помощью таких приложений и программного обеспечения, как Zao, DeepFace Lab, FaceApp, Face Swap, а также удаленного DeepNude, который генерировал опасные изображения обнаженных женщин.

GitHub, сообщество разработчиков программного обеспечения с открытым исходным кодом, содержит множество поддельных программ. Некоторые из этих приложений созданы исключительно для развлечения. Вот почему создание дипфейков не является незаконным, в то время как другие, вероятно, используются злонамеренно.

Читайте также: Как сделать дипфейк

Как используются дипфейки?

Автоматизация замены лиц для создания достоверных и реалистичных синтетических видеороликов имеет несколько интересных и полезных применений (например, в кино и играх), но это явно опасная технология. Дипфейки впервые были применены для создания синтетической порнографии.

По данным Deeptrace, порнография была основным содержанием 96% дипфейковых видео, найденных в Интернете в 2019 году. Это стало результатом того, что пользователь Reddit под ником «deepfakes» создал форум для актеров, которым поменяли лица. С тех пор порно (особенно порноместь) неоднократно попадало в заголовки газет, нанося ущерб репутации знаменитостей и выдающихся деятелей.

С тех пор технология стала использоваться на выдающихся национальных деятелях. Яркими примерами являются бывший президент Барак Обама и Дональд Трамп.

Source: YouTube

В юморе и сатире нет недостатка в дипфейках, таких как чипы, которые отвечают на такие вопросы, как, например, как бы выглядел Николас Кейдж, если бы он появился в «В поисках утраченного ковчега«?

Source: YouTube

Вот еще один пример того, как можно убедительно использовать эту технологию. Это не видео настоящего Тома Круза –

Source: YouTube

Художник по визуальным эффектам Крис Уме объединился с имитатором Тома Круза Майлзом Фишером, чтобы создать гиперреалистичный аккаунт @deeptomcruise в TikTok, набирая просмотры и приводя Интернет в безумие.

Дипфейки — это только видео?

Они не ограничиваются только видео. Deepfake audio — быстро развивающаяся область, имеющая огромный спектр приложений.

Благодаря алгоритмам глубокого обучения теперь можно создавать реалистичные дипфейки звука всего за несколько часов (или в некоторых случаях нескольких минут) аудио человека, чей голос клонируется. После создания модели голоса этого человека можно заставить говорить что угодно, например, когда в прошлом году фальшивая аудиозапись генерального директора использовалась для совершения мошенничества.

Справочник по цифровому манипулированию и обнаружению лиц: от DeepFakes до морфинговых атак.

Медицинские работники могут использовать дипфейковый звук для замены голоса, а также дизайнеры компьютерных игр — теперь персонажи игры могут говорить все, что хотят, без необходимости полагаться на сценарии, записанные заранее до выхода игры.

Как обнаружить дипфейк

Вполне вероятно, что обществу придется адаптироваться к обнаружению дипфейковых видео, поскольку онлайн-пользователи теперь умеют обнаруживать другие типы фейковых новостей, поскольку дипфейки становятся все более распространенными.

В сфере кибербезопасности обнаружение и предотвращение дипфейковых технологий часто требует дополнительных инноваций, что, в свою очередь, запускает порочный круг и представляет собой постоянно меняющуюся картину угроз.

Source: YouTube

Есть несколько показателей, которые выдают дипфейки:

  • Современные дипфейки испытывают трудности с реалистичной анимацией лиц, и в результате получаются видеоролики, в которых объект никогда не моргает или моргает слишком часто или неестественно. После публикации исследователями Университета Олбани исследования, в котором была обнаружена аномалия мерцания, были выпущены новые дипфейки, в которых этой проблемы не было.
  • Ищите проблемы с кожей или волосами, а также лица, которые кажутся более размытыми, чем окружающая среда, в которой они находятся. Фокус может показаться неестественно мягким.
  • Освещение кажется вам неестественным? Алгоритмы Deepfake обычно сохраняют освещение клипов, которые использовались в качестве моделей для фальшивого видео, которое не соответствует освещению в целевом видео.
  • В некоторых случаях звук может не соответствовать человеку, особенно если видео было поддельным, но исходный звук не подвергался тщательной обработке.

Читайте также: Как распознать дипфейк

Борьба с дипфейками с помощью технологий

По мере совершенствования технологий дипфейки будут становиться только более реалистичными, но мы не совсем беззащитны, когда дело доходит до борьбы с ними. Некоторые стартапы разрабатывают методы обнаружения дипфейков, и некоторые из этих компаний сами являются стартапами.

Sensority разработала платформу, похожую на антивирус для дипфейков, которая предупреждает пользователей по электронной почте, когда они смотрят что-то, имеющее характерные отпечатки пальцев, созданные искусственным интеллектом.

Операция «Минерва» выявляет дипфейки более простым способом. Алгоритм операции «Минерва» сравнивает потенциальные дипфейки с известными видео, на которых есть «цифровые отпечатки пальцев». Например, он может идентифицировать порноместь, распознав, что видео представляет собой просто модифицированную версию видео, которое уже каталогизирует операция «Минерва».

Задача по обнаружению дипфейков

AWS, Facebook, Microsoft, Партнерство в Руководящем комитете AI по обеспечению честности СМИ, и ученые объединились, чтобы создать Deepfake Detection Challenge (DFDC). Целью конкурса было побудить исследователей по всему миру создавать новые инновационные технологии, которые могут помочь обнаружить дипфейки и манипулируемые медиа.

По мере развития этой технологии будет становиться все труднее определять, что реально, а что нет. это помогает создавать фейковые видеоролики, которые могут создавать фейковые повествования на любую тему по вашему выбору. Очень важно доверять и проверять то, что мы видим в Интернете, прежде чем делиться этим в социальных сетях.

Эксперты прогнозируют, что дипфейки станут более изощренными по мере развития технологий и могут представлять большую угрозу для общества, например вмешательство в выборы, политическую напряженность и дополнительную преступную деятельность.

Рекомендации

Лайонс, Тера. «Руководящий комитет Партнерства по искусственному интеллекту и честности СМИ». Партнерство в сфере ИИ, 5 сентября 2019 г., https://www.partnershiponai.org/the-partnership-on-ai-steering-committee-on-ai-and-media-integrity/. По состоянию на 7 февраля 2023 г.

Проект «Брандализм». «Хотел бы я…» (2019). YouTube, Видео, 14 июня 2019 г., https://youtu.be/3f66kBwfMto. По состоянию на 7 февраля 2023 г.

ПОРОК. «Человек, стоящий за вирусным дипфейком Тома Круза». YouTube, Видео, 13 мая 2021 г., https://youtu.be/p7-B8S734T4. По состоянию на 7 февраля 2023 г.

БаззФидВидео. «Вы не поверите, что Обама говорит в этом видео! 😉.» YouTube, Видео, 17 апреля 2018 г., https://youtu.be/cQ54GDm1eL0. По состоянию на 7 февраля 2023 г.

Пользовательподписка. «Подборка фильмов Ника Кейджа DeepFakes». YouTube, Видео, 31 января 2018 г., https://www.youtube.com/watch?v=BU9YAHigNx8. По состоянию на 7 февраля 2023 г.

LEAVE A REPLY

Please enter your comment!
Please enter your name here