DreaMoving是一个基于扩散模型的可控制视频生成框架,用于生成高质量的定制人类舞蹈视频。通过给定目标身份和姿势序列,DreaMoving可以生成一个目标身份的视频,驱动姿势序列在任何地方跳舞。为此,我们提出了一个视频控制网络来进行运动控制,以及一个内容导引器来保留身份信息。该模型易于使用,并可适应大多数风格化扩散模型以生成多样化的结果。