В ОАЭ мошенники с помощью аудиодипфейка смоделировали голос директора крупной компании и обманули менеджеров банка, которые перевели на их счет $35 млн. Это довольно редкий (но не единичный случай!), когда преступники используют аудиодипфейки. В 2019 году в Великобритании злоумышленникам удалось украсть €220 тыс. у энергетической компании. Тогда они выдали себя за генерального директора фирмы и убедили сотрудника перевести деньги на мошеннический счет.
В отличие от фейковых видео, где различные артефакты работы нейросетей все еще можно увидеть невооруженным глазом (например, заметить, так называемый Эффект зловещей долины (см выше), определить фейковое аудио на слух гораздо сложнее, рассказал Владимир Калугин, руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB.
«Аудиофейки, как правило, тоже создаются с помощью нейросетей, но в основе лежат проверенные и неплохо развитые технологии: анализ образца голоса и модулирование на его основе синтетического профиля. Анализ звукового ряда применяется, например, в музыкальной индустрии, в том числе для улучшения вокальных партий, а модулирование — при переводе текста в речь (text-to-speech), с которым мы знакомы по работе умных голосовых помощников типа Siri, «Алисы» и многих других. Кроме того, аудиофейки передаются как голосовые сообщения — через мессенджеры или по телефону. В таком случае запись в несколько измененном виде и с помехами не вызывает подозрений».
По словам эксперта Group-IB, технология создания дипфейков является широко доступной и из-за этого количество мошенничеств с использованием дипфейков будет только расти: «На рынке существует много решений как для профессионалов, так и для новичков. Некоторые сервисы созданы для удобного решения вполне легальных задач, например озвучивания видео. Но при этом они могут быть использованы как инструмент для создания аудиофейка».