Stable Video 3D是Stability AI推出的新模型,它在3D技术领域取得了显著进步,与之前发布的Stable Zero123相比,提供了大幅改进的质量和多视角支持。该模型能够在没有相机条件的情况下,基于单张图片输入生成轨道视频,并且能够沿着指定的相机路径创建3D视频。
本论文提出了一种基于扩散先验的动态视角合成方法,用于从单目视频中生成动态场景的新视角。该方法通过对视频帧进行微调和知识蒸馏,实现了几何一致性和场景一致性。论文通过定性和定量实验评估了方法的有效性和鲁棒性,证明了该方法在复杂场景下的优势。