DreamTalk:清华联合阿里、华中科大研发,音频驱动的高逼真照片说话框架

DreamTalk是由清华大学、阿里巴巴与华中科技大学联合开发的扩散模型驱动面部动画生成框架,核心能力是让静态人物照片“开口说话”,支持匹配歌曲、多语言语音、嘈杂音频等多种声音类型,生成的唇部动作与表情风格高度自然逼真,打破了传统照片说话技术对纯净音频、表情参考的依赖。

AI开源项目华中科大开放式扩散模型清华大学阿里巴巴框架
VideoCrafter:腾讯联合高校打造,支持多场景连贯生成的开源视频扩散模型

VideoCrafter基于扩散模型与机器学习技术,支持文本到视频(Text2Video)、图像到视频(Image2Video)两大核心能力,即使是无视频编辑或动画经验的新手,也能轻松制作出媲美专业水准的视频内容。

AI开源项目开放式扩散模型腾讯AI