В Сеть выложили программу для подмены лиц в видео с инструкцией на русском языке

В Сеть выложен бесплатный инструмент для Windows, позволяющий осуществлять подмену лиц в видеороликах с помощью нейросети.

Проект Deepfacelab, разработка которого ведется с 2018 г., размещен на площадке для хранения и распространения ПО Github пользователем под псевдонимом iperov. Утверждается, что за разработкой инструмента стоит всего один человек.

Название Deepfacelab, по всей видимости, отсылает к созвучному англоязычному термину Deepfake, синтезированному из выражений «глубинное обучение» (Deep Learning) и «подделка» (Fake). Данный термин появился несколько лет назад применительно к технологии, где искусственный интеллект используется для обучения нейронных сетей с применением реальных изображений и видео человека с целью синтеза поддельного видео.

В репозитории Deepfacelab можно найти исходные коды инструмента, несколько готовых сборок программы под различные модели видеокарт, обучающее видео, а также руководство пользователя, в том числе и на русском языке.

* * *


Программа не имеет графического интерфейса и представляет собой набор пакетных файлов (с расширением bat) для Windows. Она обладает скромными минимальными системными требованиями: процессор с поддержкой набора инструкций SSE; 2 ГБ оперативной памяти + файл подкачки; видеокарта, совместимая с OpenCL (Open Computing Language, «открытый язык вычислений») и оснащенная не менее чем 256 МБ оперативной памяти; операционная система Windows 7.

По заявлению разработчика, для обучения нейронной сети Deepfacelab может задействовать не только ресурсы графического ускорителя Nvidia, AMD или IntelHD, но и центрального процессора. В документации к проекту отмечается, что «восьмое поколение процессоров Intel способно выдать неплохой демонстрационный результат за два дня тренировки».


К плюсам своего творения автор также относит отсутствие необходимости устанавливать какие-либо дополнительные программы, кроме драйверов видеокарты, наличие режима ручного выделения лиц, поддержку сортировки извлеченных лиц для быстрого удаления ненужных и быструю работу с видео.

В документации к программе подчеркивается, что она не гарантирует идеальной замены лиц во всех случаях. Итоговый результат в значительной степени зависит от качества исходных данных, «совместимости» лиц, подмена которых осуществляется, расположения источников света и других факторов.

* * *


Программы для создания Deepfake принимают множество изображений конкретного человека, запечатленного под разными углами, демонстрирующего различные выражения лица. Собрав достаточное количество данных, алгоритмы способны на их основе синтезировать видеоряд, в котором этот человек делает то, чего он на самом деле не совершал.

Полученные «фейки» могут использоваться злоумышленниками, к примеру, для дискредитации публичных персон. Жертвами «глубокой подделки видео» неоднократно становились многие известные личности. Одним из наиболее громких скандалов стало появление в соцсетях поддельного видео с Марком Цукербергом, главой Facebook. Также известен случай реалистичной подделки видео с выступлением Барака Обамы, бывшего президента США.

Нередко «фейковый» контент, сгенерированный нейросетями и размещенный на просторах интернета, носит эротический характер. В таких случаях актрис из откровенных видео превращают в голливудских знаменитостей, известных музыкантов и моделей.

* * *


Современные технологии искусственного интеллекта могут быть использованы злоумышленниками не только для создания поддельных видео. Не меньшую опасность представляют попавшие в плохие руки технологии имитации человеческой речи.

По мнению аналитиков Symantec, такие системы могут использоваться кибермошенниками для хищения различных активов, включая финансы, корпоративную и частную информацию. По данным компании, эти технологии уже использовалась для хищения «миллионов долларов».

Ранее специалисты Symantec сообщали о как минимум трех случаях, когда поддельные голоса гендиректоров были применены для обмана глав финансовых отделов компаний с целью мошеннического вывода денежных средств.

Технология имитации голоса имеет значительно больший потенциал для мошеннических махинаций, считают в Symantec. Так, в отличие от подделки видео, где «натренированная модель» должна заместить собой исходное видео для подделки лица, поддельный аудио профиль может использоваться даже с давно известной технологией преобразования текста в голос.