Fun-CosyVoice3.5是阿里通义实验室语音团队全新推出的新一代语音生成模型,模型首创FreeStyle口语化指令控制,无需专业参数,只需用自然语言描述即可精准调节语气、语速、语调、情绪;同时支持13种语言,发音准确率与生成延迟全面优化,是面向实时交互、内容创作、多语言出海的工业化级语音方案。
Fun-AudioGen-VD是阿里通义实验室语音团队自研的新一代语音生成大模型,专注于专业声音设计与场景化音频生成。模型支持自然语言FreeStyle自由指令生成,可一次性输出包含指定音色、情感、环境、空间、设备质感的完整音频。
Wan2.2 Animate支持精确面部表情控制、身体动作复制、无缝角色替换等核心能力,可在保留原始动作、环境背景、光照的前提下完成角色动画创作,无需注册、浏览器直连使用,适配学术研究、效果展示、创意实验等多元场景。
通义DeepResearch无需人工干预即可生成高质量训练数据集,突破传统智能体的数据瓶颈;构建“智能体持续预训练(Agentic CPT)—监督微调(SFT)—强化学习(RL)”的端到端完整训练链路,确保模型能力的系统性迭代。
ArenaRL是由通义DeepResearch团队联合高德共同开源的对比式强化学习方法,专为开放域智能体的训练优化设计。目前,ArenaRL不仅在学术基准测试中表现优异,更已在高德地图真实业务场景中完成落地验证,显著提升了智能体在复杂任务中的规划与执行能力。
MAI-UI是通义实验室推出的全尺寸GUI智能体基座模型,核心具备用户交互、工具调用、端云协同三大核心能力。依托自主进化数据管线与大规模在线强化学习技术,模型实现2B到235B-A22B的全尺寸覆盖,适配多元场景。
开源的Fun-Audio-Chat-8B在语音对话、情感识别等核心任务上表现突出,综合性能超越GLM4-Voice等同尺寸竞品,现已落地智能客服、情感陪伴等多元场景,开发者可通过ModelScope、HuggingFace平台免费下载使用。
通义万相 Wan2.1是一款强大的视频生成模型,凭借其高质量的视频生成能力、复杂运动处理和多语言支持,广泛应用于内容创作、广告制作和教育等领域。
QwQ-Max 是一款先进的 AI 模型,具备深度自省和动态推理能力,能够在复杂问题解决中表现出类似人类的思考过程。它通过跨语言思维、灵活的推理路径和知识增强模块,显著提升了数学推理和编程任务的性能。
通义灵码凭借其强大的代码生成、优化和智能问答功能,显著提升了开发效率和代码质量。它特别适合国内开发者,尤其是在中文编程环境中的使用。