DreamTalk是由清华大学、阿里巴巴与华中科技大学联合开发的扩散模型驱动面部动画生成框架,核心能力是让静态人物照片“开口说话”,支持匹配歌曲、多语言语音、嘈杂音频等多种声音类型,生成的唇部动作与表情风格高度自然逼真,打破了传统照片说话技术对纯净音频、表情参考的依赖。
VideoCrafter基于扩散模型与机器学习技术,支持文本到视频(Text2Video)、图像到视频(Image2Video)两大核心能力,即使是无视频编辑或动画经验的新手,也能轻松制作出媲美专业水准的视频内容。