AI浏览器工具

让梦露和龙妈学着你说话,只需一张静态图和一个视频 | 项目开源

  • 时间:2025-04-15 15:08:51
  • 来源:AI浏览器工具
  • 作者:啊哈哈哈
  • 您的位置:首页 > AI教程资讯 > 让梦露和龙妈学着你说话,只需一张静态图和一个视频 | 项目开源

    想让名人学着你说话,怎么办?

    很简单,只要一张名人的照片,配上你说话的视频,分分钟就能搞定。

    来看下效果:

    无论你是挤眉弄眼,还是摇头晃脑,照片里的名人们都能跟你神同步!

    这就是来自意大利特伦托大学的一项研究:

    利用一个一阶运动模型 (First Order Motion Model),静态图也能动起来,换脸也不在话下。

    当然,这么有意思的项目,已经开源了!

    一个川普在说话,一群史塔克也有话说

    其实,这项研究早在数月前便已发表。

    当时用的输入视频是川建国同志,静态照片用的是一组《冰与火之歌》史塔克家族及剧中其他人物图片。

    效果是这样的:

    可以看到,无论川建国同志是眨眼、晃头,剧中的人物做到了神同步。

    就连那张标志性的O型嘴,也“模仿”的惟妙惟肖。

    而时隔几个月,这项技术又在Reddit爆火了起来。

    一个可能的原因是,这次输入的视频来自流行的短视频平台,也就是说我们自己录一段视频也能用。

    加上效果的逼真、有趣,或许用不了多长时间,短视频内容平台可能就会推出这个功能了吧。

    当然,这个模型的魔力不止于此。

    输入一个模特换pose的视频,再配上多张静态服饰照片,就能批量输出动态展示服装的视频了。

    换脸,也是小菜一碟。

    不过,也要温馨提醒一句:慎用静态照片,不然出来的效果可能就不太像“阳间的东西”了……

    一阶运动模型

    在训练阶段,研究人员采用了大量的视频序列集合,包含相同类别的对象。模型通过结合视频中的单帧,和学习到的潜在运动表示,来训练重构视频。

    在测试阶段,研究人员将模型应用于由源图像和驱动视频的每一帧组成的对,并执行源对象的图像动画。

    模型的框架就如下图所示:

    框架主要由2部分构成:运动估计模块和图像生成模块。

    运动估计模块的目的,是预测一个密集的运动场。研究人员假设存在一个抽象的参考框架,并且独立估计两个变换,分别是「从参考到源」和「从参考到驱动」。这样就能够独立处理源帧和驱动帧。

    研究人员认为这个步骤是必要的,因为在测试时,模型会接收从不同视频中采样的源图像和驱动帧对,它们在视觉上可能非常不同。

    在第一步中,研究人员从稀疏轨迹集近似这两种变换,通过使用以自监督方式学习的关键点来获得。利用局部仿射变换对每个关键点附近的运动进行建模。

    在第二步中,密集运动网络结合局部近似得到密集运动场。除此之外,这个网络还输出遮挡的mask,指示哪些图像的驱动部分可以通过源图像的扭曲(warping)来重建,哪些部分应该被绘制(根据上下文推断)。

    在第三步中,生成模块按照驱动视频中,提供的源对象移动的图像进行渲染。此处,研究人员使用一个生成器网络,根据密集的运动对源图像进行扭曲,并对源图像中被遮挡的图像部分进行着色。

    最后,这个模型已经在GitHub上开源,我们在“传送门”中已经奉上地址链接。

    快去试试吧~

    传送门

    GitHub项目地址:https://github.com/AliaksandrSiarohin/first-order-model

    论文地址:https://arxiv.org/pdf/2003.00196.pdf

    点击排行榜

    近期热点

    本类最新

    本站所有软件文章图片来源于网友上传,如果侵权请联系[AI浏览器工具],我们24小时内撤销

    Copyright©2025 2025 All rights reserved. 版权所有 AI浏览器工具