Александр Пономарёв

Текст

Неизвестные мошенники сумели при помощи нейросети клонировать голос директора банка и в результате разговора завладеть обманным путем суммой в 35 миллионов долларов

В разгар рабочего дня операционному менеджеру одного из банков в Объединенных Арабских Эмиратах позвонил директор этого самого банка, который рассказал, что планирует осуществить крупную сделку, для чего потребуется перевод на сумму 35 миллионов долларов. Для сопровождения сделки и координации всех финансовых процессов директор банка адресовал менеджера к внешнему юристу по имени Мартин Зелнер.

После этого менеджер банка получил на служебную почту несколько электронных писем как от имени директора, так и от юриста. Они содержали реквизиты для перевода и все необходимые для подтверждения сделки документы. В итоге менеджер без каких-либо подозрений провел операцию, а вскоре выяснилось, что директор банка ему не звонил и не присылал никаких писем. Полиции ОАЭ удалось выяснить, что кибермошенники клонировали голос директора банка и использовали нейросеть для того, чтобы использовать его в преступных целях.

Следователям удалось отследить часть похищенных денег — 400 тысяч долларов были переведены на счета американского банка Centennial. В правоохранительных органах Объединенных Арабских Эмиратов считают, что в операции были задействованы не менее 17 человек, а украденные средства разошлись буквально по всему миру. Отследить их пока так и не удалось.

Впрочем, технологию DeepFake, конечно же, можно применять и вполне в мирных целях:

Читать на ЦО.РФ

DeepFake в мирных целях Лицо на лицо менять – только время терять?

Термином DeepFake принято называть технологию синтеза аудио и видео нейронной сетью. Негативную коннотацию ей придает окончание Fake (фэйк), подразумевающее обман зрителя. Однако сама технология – просто инструмент, и этот инструмент можно применять с большой пользой. Предлагаем несколько интересных и полезных применений DeepFake, в том числе доступных рядовому пользователю

Использованные источники: