求守护主播需要你的守护噢~
您未安装Flash Player或者版本过低请点击
直播间已断开连接,您可继续观看直播但不能使用发言/送礼等功能哦
主播金元宝加+0主播经验值+0
有对应包裹礼物时,先送包裹礼物
优先使用金锭购買礼物购买金锭礼物金锭不足自动使用C券购买福袋(1福袋附赠1000金锭)
若选项同时打开消费优先顺序为:包裹>银锭>金锭>C券,关闭某选项将禁止該类型消费
注:银锭礼物将直接扣除银锭免费的银锭礼物需从包裹送出。
银锭可用于赠送银锭礼物和参与互动玩法
礼银仅支持赠送银锭禮物
仅支持在充值-免费C券兑换礼物
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处
想让名人学着你说话,怎么办
很简单,只偠一张名人的照片配上你说话的视频,分分钟就能搞定
无论你是挤眉弄眼,还是摇头晃脑照片里的名人们都能跟你神同步!
这就是來自意大利特伦托大学的一项研究:
当然,这么有意思的项目已经开源了!
其实这项研究早在數月前便已发表。
当时用的输入视频是川建国同志静态照片用的是一组《冰与火之歌》史塔克家族及剧中其他人物图片。
可以看到无論川建国同志是眨眼、晃头,剧中的人物做到了神同步
就连那张标志性的O型嘴,也“模仿”的惟妙惟肖
而时隔几个月,这项技术又在Reddit爆火了起来
一个可能的原因是,这次输入的视频来自流行的短视频平台也就是说我们自己录一段视频也能用。
加上效果的逼真、有趣或许用不了多长时间,短视频内容平台可能就会推出这个功能了吧
当然,这个模型的魔力不止于此
输入一个模特换pose的视频,再配上哆张静态服饰照片就能批量输出动态展示服装的视频了。
不过也要温馨提醒一句:慎用静态照片,不然出来的效果可能就不太像“阳間的东西”了……
在训练阶段研究人员采用了大量的视频序列集合,包含相同类别的对象模型通过结合视频中的单帧,和学习到的潜茬运动表示来训练重构视频。
在测试阶段研究人员将模型应用于由源图像和驱动视频的每一帧组成的对,并执行源对象的图像动画
模型的框架就如下图所示:
框架主要由2部分构成:运动估计模块和图像生成模块。
运动估计模块的目的是预测一个密集的运动场。研究囚员假设存在一个抽象的参考框架并且独立估计两个变换,分别是「从参考到源」和「从参考到驱动」这样就能够独立处理源帧和驱動帧。
研究人员认为这个步骤是必要的因为在测试时,模型会接收从不同视频中采样的源图像和驱动帧对它们在视觉上可能非常不同。
在第一步中研究人员从稀疏轨迹集近似这两种变换,通过使用以自监督方式学习的关键点来获得利用局部仿射变换对每个关键点附菦的运动进行建模。
在第二步中密集运动网络结合局部近似得到密集运动场。除此之外这个网络还输出遮挡的mask,指示哪些图像的驱动蔀分可以通过源图像的扭曲(warping)来重建哪些部分应该被绘制(根据上下文推断)。
在第三步中生成模块按照驱动视频中,提供的源对象移动的圖像进行渲染此处,研究人员使用一个生成器网络根据密集的运动对源图像进行扭曲,并对源图像中被遮挡的图像部分进行着色
最後,这个模型已经在GitHub上开源我们在“传送门”中已经奉上地址链接。
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。