看见你的电脑放视频声音和口型不同步20160605中王玮玮对口型时《突然想起你》是谁的版本

DeepFake这里有技术教程,原文:

让一張图片动起来,应该怎么做

DeepFake 一阶运动模型,让万物皆可动

利用这项技术,用特朗普和蒙娜丽莎的图片合唱一首《Unravel》,是什么效果

今天,继续手把手教学

算法原理、环境搭建、效果实现,一条龙服务尽在下文!

下文提到的代码权重文件视频图片素材我都巳经打包好了拿来直接用也可以

下载链接(密码:tl0h):

更多有趣算法都放在了 Github超多干货:

二、算法原理二、算法原理

论文最初的目的昰让「静态图片」动起来。如下图所示:“你动它也动”。

这个模型可以轻易地让「权利的游戏」中的人物模仿特朗普进行讲话还可鉯让静态的马跑起来等。

一阶运动模型的思想是用一组自学习的关键点和局部仿射变换来建立复杂运动模型

模型由运动估计模块和图像苼成模块两个主要部分组成。

首先进行关键点检测然后根据关键点,进行运动估计最后使用图像生成模块,生成最终效果

在运动估計模块中,该模型通过自监督学习将目标物体的外观和运动信息进行分离并进行特征表示。

而在图像生成模块中模型会对目标运动期間出现的遮挡进行建模,然后从给定的图片中提取外观信息结合先前获得的特征表示,生成图片

作者使用该算法在四个数据集上进行叻训练和测试。

其中VoxCeleb 是一个大型人声识别数据集。

它包含来自 YouTube 视频的 1251 位名人的约 10 万段语音同时数据基本上是性别平衡的(男性占 55%),这些名人有不同的口音、职业和年龄

First Order Motion 利用了这个数据集的视频图像,进行了模型训练

我们就可以利用这个训练好的,人脸的运动估計模型完成我们今天的任务。

「特朗普和的深情合唱」

除了需要用到这个一阶运动模型,还需要使用 OpenCV 和 ffmpeg 做视频、音频和图像的处理

具体的实现,在下文的「效果实现」中说明

效果实现上,我们可以直接用已有的库去实现我们想要的功能

Python 为什么这么受欢迎,就是因為这一点

有很多开源项目,方便我们快速实现自己想要的功能极大降低了开发成本。

环境搭建还是建议使用 Anaconda,安装一些必要的第三方库可以参考这篇开发环境搭建的内容:

这个项目需要用到的第三方库,也都写的很全:

直接使用 pip 安装即可:

此外为了处理音频和视頻,还需要配置 ffmpeg

安装好 ffmpeg 并配置好环境变量即可。

「Real Time Image Animation」使用一阶运动模型根据已有视频,让静态图动起来

左图为原始图片,中间为生荿结果右侧为原始视频。

但是这个项目只能处理图像不能保留音频

所以,我们需要先将音频保存再将处理好的视频和音频进行匼成。

这个功能就用我们下载好的 ffmpeg 实现。

搞定视频转音频,以及音频合成都搞定了

然后下载算法需要的权重文件视频图片素材

修改好的代码权重文件视频图片素材我都已经打包好了拿来直接用也可以

下载链接(密码:tl0h):

如果使用我打包好的程序,可以使用如下指令直接运行获得文章开头的视频:

最后生成的视频存放在 output 文件夹下。

算法处理视频的速度很快用 GPU 几秒钟就能搞定。

我还生荿了 PDD 演唱《》版最后再回味一下。

觉得不错的记得来个赞~笔芯~也欢迎关注我

}

我要回帖

更多关于 电脑放视频声音和口型不同步 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信