FlowAct-R1:字节跳动推出的实时交互数字人视频生成框架

FlowAct-R1是字节跳动推出的实时交互数字人视频生成框架,该框架凭借分块扩散强制策略、多模态大语言模型等核心技术,实现1.5秒首帧低延迟与25fps稳定实时响应,可精细调控数字人面部表情和肢体动作。

字节跳动框架数字人视频视频生成框架
ViMax:香港大学数据科学实验室研发的端到端多智能体视频生成框架

ViMax是香港大学数据科学实验室研发的端到端多智能体视频生成框架,框架创新性整合导演、编剧、制片人及视频生成器的核心职能,支持Idea2Video、Novel2Video、Script2Video、AutoCameo四大生成模式。

多智能体框架港大开源视频生成框架香港大学
LONGLIVE:英伟达联合研发的实时交互式长视频生成框架

LONGLIVE是英伟达等顶尖机构联合推出的实时交互式长视频生成框架,针对长视频生成的效率与质量双重瓶颈,创新融合帧级自回归模型、KV-recache机制、流式长视频微调技术及短窗口注意力+帧汇入策略,构建起高性能的长视频生成链路。

英伟达视频生成框架
StoryMem:字节跳动与南洋理工大学联合发布的开源视频生成框架

StoryMem是字节跳动与南洋理工大学联合研发的开源多镜头视频生成框架,核心解决AI视频生成领域长期存在的跨镜头一致性痛点。它创新性地引入显式视觉记忆机制,将传统单镜头视频扩散模型升级为专业多镜头叙事工具;

南洋理工大学字节跳动框架视频生成框架
OmniHuman:字节推出的一款端到端的多模态数字人视频生成框架

OmniHuman是字节跳动推出的端到端多模态数字人视频生成框架,上传1张静态照片+音频即可实时合成高自然度说话唱歌视频,支持全身、半身、卡通任意比例输入,口型误差<0.1秒,可一键下载,面向虚拟主播、短视频、影视动画、在线教育、游戏NPC等场景开放体验。

字节跳动框架数字人生成框架视频生成框架
一款由字节跳动推出的先进AI视频生成工具——Phantom

Phantom是一款由字节跳动推出的先进AI视频生成工具,它能够通过单张或多张参考图像生成高质量的视频内容。它通过跨模态对齐技术,实现了主体一致性的视频生成,能够精准复刻人物、物品、动物等主体的细节。

字节跳动视频生成框架
AnyCharV :一款由香港大学联合清华大学等机构推出的角色可控视频生成框架

AnyCharV是一个高效、灵活且易于使用的视频生成框架,特别适合需要快速进行视频编辑的用户。其无需训练的特点和对现有工具的支持使其成为视频编辑领域的有力工具。

清华大学视频生成框架香港大学
CineMaster:快手推出的一款具备3D感知能力的文本到视频生成框架

CineMaster是一款由快手科技联合大连理工大学和香港中文大学共同推出的具备3D感知能力的文本到视频生成框架,类似于视频版的ControlNet。

3D框架快手软件文本生视频视频生成框架
HumanDiT:一款由浙大联合字节推出的姿态引导的高保真人体视频生成框架

HumanDiT 在包含 14000 小时高质量视频的大型数据集上进行训练,数据通过结构化的数据处理流程收集,涵盖了多种人类动作场景。

字节跳动框架浙江大学视频生成框架
一款基于扩散模型的可控制视频生成框架——DreaMoving

DreaMoving是一个基于扩散模型的视频生成框架,能够生成高质量且定制化的舞蹈视频。用户只需提供目标身份和舞蹈姿势序列,DreaMoving便能生成一段目标身份的舞蹈视频,让指定的姿势序列在任何场景中流畅地舞动。

AI视频AI视频生成器DreaMoving视频生成框架