AI浏览器工具

中国女博士的「水淹食堂」大法:单目视频完美重建3D场景,画面毫无违和感

  • 时间:2025-06-20 14:20:32
  • 来源:AI浏览器工具
  • 作者:啊哈哈哈
  • 您的位置:首页 > AI教程资讯 > 中国女博士的「水淹食堂」大法:单目视频完美重建3D场景,画面毫无违和感

    一位程序员小哥,正在Facebook食堂愉快地准备喝咖啡。

    突然,就被水淹了。

    而另一位正好好坐着玩手机的同学,则猝不及防地遭遇了屋顶漏雪事件。

    不过几秒钟的时间,不仅头发上覆上了一层雪,脚面都被积雪埋住了。

    遭遇“灵异事件”的还有一只无辜的小猫咪。

    它本乖乖坐在小桌板上专心卖萌,房间却突然暗了下来,还有奇怪的小光球开始绕着它转圈圈!

    当事猫表示:当时我心里害怕极了。

    看着受害猫惊(dan)慌(ding)的表情,兼此事件一时引得物议沸腾:

    我们决定:走进科学。

    而当我们剥开事实的真相,发现,这一切事件的“始作俑者”竟是——

    来自华盛顿大学和Facebook的最新单目深度估计算法,已中SIGGRAPH 2020,将于下周在GitHub上开源。

    单目视频深度估计

    算法的核心思路,是结合单图像深度估计网络和传统的结构-运动重建法,使网络学会为指定视频生成几何一致的深度。

    该方法整体设计架构如下。

    输入单目视频,对一对相机位置不同的帧进行采样,然后,用预先训练好的单图像深度估计模型估计深度,得到初始深度图。

    对这对图像,使用光流法前后向一致性检查建立对应关系。

    接着,利用这些对应关系和相机位置提取三维几何约束。

    将三维几何约束分解为两个损失:

    空间损失视差损失

    通过标准反向传播,用这两个损失对深度估计网络的权重进行微调,以最小化多帧几何不一致性误差。

    如此,只需要对视频中任意帧进行配对采样,就可以将这一过程扩展到整个视频,对单目视频中的所有像素进行几何一致的深度重建。

    在研究人员的实验中,对于一个244帧的视频,用4个英伟达Tesla M40 GPU训练下来需要40分钟。

    超过此前SOTA,各个数据集上表现稳定

    在评估深度重构方法方面,已经有了很多数据集。

    但论文作者认为,这些数据集或多或少存在一些问题——要么是合成的,要么是针对自动驾驶等特定领域的,要么是针对单幅图像或静态场景的视频的,并不能完美地评估他们方法有效性。

    于是他们用手持摄像机做了一个自定义3D数据集,来进行评估。数据集由静态和物体运动量很小的动态场景组成,视频的分辨率为1920×1440像素,长度从119帧到359帧不等。

    对比的对象是此前最先进的深度估计模型:传统的多视角立体视觉系统COLMAP、单图像深度估计模型Mannequin Challenge和MiDaS-v2、基于视频的深度估计模型WSVD(两帧)和 NeuralRGBD(多帧)。

    评估的指标一共有三个,覆盖模型的“测光误差”(Es)、“(不)稳定性”(Ed)、“漂移程度”(Ep),都是反向指标,数值越小,证明模型效果更好。

    从下图中可以看出,无论是静态场景还是动态场景,论文中提出的深度估计算法,在各个指标上都是最优。

    从直观的结果中也能够看出效果的差异:

    不仅精度和几何一致性更高,视觉效果也更加稳定。

    此外,为了评估的完整性与公平性,他们还在三个公开数据集上,与这些模型进行了定量比较,分别是:TUM数据集、ScanNet数据集和KITTI 2015数据集。

    下表展示的是ScanNet数据集上结果,论文中提出的方法虽然不是最优,但与最优算法的差距并不算大。

    来自中国女学霸,本科毕业于上海交大

    这一研究成果来自华盛顿大学、Facebook等研究机构,一共有5名学者参与。

    一作名为罗璇,是华盛顿大学在读博士,2015年毕业于上海交大ACM班,是戴文渊等大神的直系学妹。

    本科毕业之后,先后拿到加州伯克利大学、华盛顿大学等高校Offer,为了追求“虚拟视觉”而选择了华盛顿大学,这也是她从高中就开始关注的领域。

    去华盛顿大学读博之后,她先后在迪士尼、谷歌等知名企业实习,当前的这一研究成果,是她在Facebook实习期间的研究成果。

    第二作者是Jia-Bin Huang,弗吉尼亚理工学院助理教授,本科毕业于***立交通大学。论文的其他三位作者, 都来自Facebook,分别是Richard Szeliski、Kevin Matzen、Johannes Kopf。

    关于这一研究,他们在结论部分提到了不足之处——比较依赖此前的研究成果,比如用COLMAP估计单目视频中摄像机的姿态,依赖FlowNet2建立几何约束等等。

    这些方法的不足,也直接影响到了罗璇等人的研究。

    另一个值得改进的地方在于,它不支持在线处理,训练244帧的视频需要约40分钟,如果想要实际的生活中,还需要进一步优化。

    但从广大网友的山呼海啸般的反响中,也能够看到算法一旦实现,用户是肯定有的~

    你期待吗?

    传送门

    论文地址:

    https://arxiv.org/abs/2004.15021

    项目地址:

    https://roxanneluo.github.io/Consistent-Video-Depth-Estimation/

    点击排行榜

    近期热点

    本类最新

    本站所有软件文章图片来源于网友上传,如果侵权请联系[AI浏览器工具],我们24小时内撤销

    Copyright©2025 2025 All rights reserved. 版权所有 AI浏览器工具