LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型

LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上,让高性能大模型真正走向端侧部署。

AI混合专家大模型MoE架构
JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型

JoyAI-LLM-Flash是京东开源的中型指令大模型,模型创新性引入FiberPO优化框架——首次将纤维丛理论应用于强化学习,结合Muon优化器完成SFT、DPO及RL全阶段训练;同时搭载稠密多Token预测(MTP)技术,吞吐量较非MTP版本提升1.3-1.7倍。

AI混合专家大模型MoE架构京东框架
LongCat-Flash-Thinking-2601:美团LongCat团队推出高效混合专家大模型

LongCat-Flash-Thinking的核心突破在于系统性训练架构:通过多环境强化学习、抗噪课程训练和任务合成机制,使模型在不完美、高噪声的真实环境中仍能稳健运行。

AI混合专家大模型美团LongCat