РУССКИЙ
РУССКИЙ
ENGLISH
27.10.2021

Scamopedia: дипфейки

Рэпер Моргенштерн в видеоролике обещает подарить до 100 000 рублей всем, кто перейдет по ссылке: «Осталось три часа. Забирай свои 100 000 рублей скорее». На самом деле это видео — дипфейк (deepfake), проще говоря подделка, созданная при помощи искусственного интеллекта и нейронных сетей.

Дипфейки часто используют в виде безобидной шутки, например, заменив лицо актера своим лицом, но случается что преступники используют порно-дипфейки для шантажа и вымогательства. Количество дипфейков растет стремительно. Если в декабре 2019 года Sensity AI обнаружила около 24 000 подделок, то к концу 2020 года — уже 85 047 фейковых видео. Как распознать подделку?
Для создания дипфейк-видео используются разные приложения, например, RefaceAI (более 100 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap, замечает Владимир Калугин, руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB. Некоторые из приложений, по словам эксперта, требуют минимальных технических навыков и позволяют создавать дипфейк-видео на основании лишь одного фото.

Несмотря на то, что технологии становятся все реалистичнее, они пока не смогли преодолеть так называемый эффект «зловещей долины» (uncanny valley) — явление, при котором малейшая неестественность во внешнем виде и поведении объекта или робота, выглядящего и действующего как человек, вызывает у наблюдателя тревогу, неприязнь, а порой и отвращение.

Эксперт советует обратить внимание на пять основных моментов:

  • излишняя пикселизация, дефекты, нечеткое и смазанное изображение, дублирование элементов;
  • неестественная мимика, особенно при моргании, движении бровей и губ;
  • низкое качество видео, за которым нередко пытаются скрыть некорректную работу нейросетей;
  • отличия в телосложении, прическе и голосе от оригинала. Злоумышленники нередко подбирает похожих по типажу актеров, а голос может быть также скорректирован с помощью специальной технологии, например, в программах RealTimeVoiceCLoning, Resemble и Descript;
  • в наиболее популярных решениях заменяется только лицо, поэтому можно заметить границу наложения лица, различие в тенях, освещенности и оттенке кожи.
  • Кроме того, обращайте внимание на то, кто, где и как распространяет видео, не доверяйте роликам с непроверенных и сомнительных сайтов.
Голос свыше
В ОАЭ мошенники с помощью аудиодипфейка смоделировали голос директора крупной компании и обманули менеджеров банка, которые перевели на их счет $35 млн. Это довольно редкий (но не единичный случай!), когда преступники используют аудиодипфейки. В 2019 году в Великобритании злоумышленникам удалось украсть €220 тыс. у энергетической компании. Тогда они выдали себя за генерального директора фирмы и убедили сотрудника перевести деньги на мошеннический счет.

В отличие от фейковых видео, где различные артефакты работы нейросетей все еще можно увидеть невооруженным глазом (например, заметить, так называемый Эффект зловещей долины (см выше), определить фейковое аудио на слух гораздо сложнее, рассказал Владимир Калугин, руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB.

«Аудиофейки, как правило, тоже создаются с помощью нейросетей, но в основе лежат проверенные и неплохо развитые технологии: анализ образца голоса и модулирование на его основе синтетического профиля. Анализ звукового ряда применяется, например, в музыкальной индустрии, в том числе для улучшения вокальных партий, а модулирование — при переводе текста в речь (text-to-speech), с которым мы знакомы по работе умных голосовых помощников типа Siri, «Алисы» и многих других. Кроме того, аудиофейки передаются как голосовые сообщения — через мессенджеры или по телефону. В таком случае запись в несколько измененном виде и с помехами не вызывает подозрений».

По словам эксперта Group-IB, технология создания дипфейков является широко доступной и из-за этого количество мошенничеств с использованием дипфейков будет только расти: «На рынке существует много решений как для профессионалов, так и для новичков. Некоторые сервисы созданы для удобного решения вполне легальных задач, например озвучивания видео. Но при этом они могут быть использованы как инструмент для создания аудиофейка».