Cyanpuppets是一个专注于2D视频生成3D动作模型的AI算法团队。他们的无标记动作捕捉系统通过2个RGB摄像头完成超过208个关键点的捕捉,支持UE5和UNITY 2021版本,延迟仅为0.1秒。Cyanpuppets支持大多数骨骼标准,其技术广泛应用于游戏、电影和其他娱乐领域。
Museclip是一个基于3D模型的实时人物设计平台,拥有智能编辑、魔法画笔和文字提示等功能,可以在几秒内将3D人物基础模型转换成逼真的角色形象,大幅提高人物设计的效率。它的主要优势有:实时渲染技术,快速定制化,智能简洁的设计流程,为用户提供极大的创作自由度。
GauHuman是一个基于高斯扩散的3D人体模型,它能在短时间内(1-2分钟)完成训练,并提供实时渲染(最高达189 FPS),与现有基于NeRF的隐式表示建模框架相比,后者需要数小时训练和每帧数秒渲染。GauHuman在规范空间对高斯扩散进行编码,并利用线性混合皮肤(LBS)将3D高斯从规范空间转换到姿态空间,在此过程中设计了有效的姿态和LBS细化模块,以微不足道的计算成本学习3D人体的细节。此外,GauHuman还通过3D人体先验初始化和修剪3D高斯,并通过KL散度引导进行拆分/克隆,以及进一步加速的新型合并操作,从而实现快速优化。
3Deblurring 3D Gaussian Splatting是一种基于最新提出的光栅化方法、3D高斯和光栅化的新型神经场去模糊框架。通过使用小型多层感知器(MLP),该产品可以在实时渲染的同时,从模糊图像中重建细节清晰的图像。该产品通过在训练期间使用K-最近邻(KNN)算法添加额外的点来使点云更加密集,并根据相对深度对3D高斯进行松散修剪,以保留更多的3D高斯。经过多项实验,证实了该产品在去模糊方面的有效性。
BakedAvatar是一种用于实时神经头像合成的全新表示,可部署在标准多边形光栅化流水线中。该方法从学习到的头部等值面提取可变形的多层网格,并计算可烘焙到静态纹理中的表情、姿势和视角相关外观,从而为实时4D头像合成提供支持。我们提出了一个三阶段的神经头像合成流水线,包括学习连续变形、流形和辐射场,提取分层网格和纹理,以及通过微分光栅化来微调纹理细节。实验结果表明,我们的表示产生了与其他最先进方法相当的综合结果,并显著减少了所需的推理时间。我们进一步展示了从单眼视频中产生的各种头像合成结果,包括视图合成、面部重现、表情编辑和姿势编辑,所有这些都以交互式帧率进行。