LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型

LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上,让高性能大模型真正走向端侧部署。

AI混合专家大模型MoE架构
Grok 4.20模型使用入口,采用约3T参数的MoE架构,支持256K tokens超长上下文窗口

Grok 4.20是马斯克旗下xAI推出的新一代多智能体AI系统,核心搭载革命性「四Agent协作架构」,内置队长Grok、研究专家Harper、逻辑专家Benjamin及创意专家Lucas四大专业化智能体。

MoE架构xAI公司多智能体框架智能体AI模型
JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型

JoyAI-LLM-Flash是京东开源的中型指令大模型,模型创新性引入FiberPO优化框架——首次将纤维丛理论应用于强化学习,结合Muon优化器完成SFT、DPO及RL全阶段训练;同时搭载稠密多Token预测(MTP)技术,吞吐量较非MTP版本提升1.3-1.7倍。

AI混合专家大模型MoE架构京东框架
JoyAI-LLM-Flash模型使用入口,京东AI开源的最新大语言模型

JoyAI-LLM-Flash是京东在Hugging Face正式开源的最新大语言模型,该模型采用混合专家(MoE)架构,总参数达480亿,而每次推理仅激活30亿参数,既能保持强大的模型能力,又能显著降低计算开销。

HuggingFace模型库MoE架构京东框架
Ovis2.6-30B-A3B模型使用入口,阿里国际Ovis系列多模态大语言模型

Ovis2.6-30B-A3B核心升级为MoE架构,实现300亿总参数与仅30亿激活参数的平衡,兼顾大模型能力与小模型推理成本;MoE架构提效降本、64K长上下文+高清图像处理、主动式图像思考、强化的OCR/文档/图表理解。

AI多模态模型HuggingFace模型库MoE架构Ovis系列阿里国际
Intern-S1-Pro:上海AI实验室开源的万亿参数科学多模态大模型

Intern-S1-Pro是上海AI实验室开源的万亿参数科学多模态大模型,采用MoE混合专家架构,基于「通专融合」SAGE技术打造。模型通过傅里叶位置编码与重构时序编码器赋予独特「物理直觉」,可统一理解从微观生命信号到宏观宇宙波动的全尺度科学数据。

MoE架构上海AI实验室多模态AI模型