Имперский колледж Лондона и британский исследовательский центр Samsung по искусственному искусству рассказали о разработке, связанной с технологией deepfake. Программа использует фотографию и аудиофайл для создания поющего или говорящего видеопортрета.

Исследователи в качестве примера показали ролик с Альбертом Эйнштейном, в котором фотографию учёного объединили с его голосовой дорожкой. В другом видео разработчики «заставили» Григория Распутина исполнить отрывок из песни Бейонсе Halo.

В начале июня News.ru рассказал, что российский алгоритм, разработанный специалистами компании NtechLab, был представлен на международном конкурсе нейросетей Activities in Extended Videos Prize Challenge в США. Искусственный интеллект стал вторым, обойдя 37 американских, китайских и австралийских конкурентов.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here