
LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家(MoE)架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上(含集显、独立NPU的笔记本与台式机),让高性能大模型真正走向端侧部署。

LFM2-24B‑A2B核心架构:
1、门控短卷积+分组查询注意力(GQA):
通过硬件在环架构搜索(Hardware‑in‑the‑loop NAS)设计,兼顾卷积高效预填与注意力长程建模能力,实现极低内存占用+超快解码速度。
2、深度与专家数双重扩展:
– 层数从LFM2‑8B的24层提升至40层,语义表达更丰富
– 每个MoE模块专家数从32个翻倍至64个,搭配Top‑4路由,任务专业化能力更强
3、精细激活参数控制:
为将激活参数稳定控制在23亿以内,对专家中间层宽度做小幅收窄(1536 vs 1792)。
4、容量与效率极致平衡:
总参数从8B扩大到24B(提升3倍),但激活参数仅增加1.5倍。
模型把海量知识存在“休眠参数”中,按需激活,在保持端侧友好的同时,智能水平大幅提升。
LFM2-24B‑A2B开源生态与快速上手:
1、获取权重:在Hugging Face直接下载模型文件。
2、本地运行:支持llama.cpp多量化方案,一键跑在MacBook / Windows笔记本。
3、微调定制:提供完整文档,支持垂直领域精调。
4、在线体验:可通过LiquidAI Playground直接测试效果。
Grok 4.20模型使用入口,采用约3T参数的MoE架构,支持256K tokens超长上下文窗口
JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型
JoyAI-LLM-Flash模型使用入口,京东AI开源的最新大语言模型
Ovis2.6-30B-A3B模型使用入口,阿里国际Ovis系列多模态大语言模型
Intern-S1-Pro:上海AI实验室开源的万亿参数科学多模态大模型
上面是“LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型”的全面内容,想了解更多关于 AI项目和框架 内容,请继续关注web建站教程。
当前网址:https://m.ipkd.cn/webs_31320.html
声明:本站提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请发送到邮箱:admin@ipkd.cn,我们会在看到邮件的第一时间内为您处理!

vue项目如何做路由监听(防止页面跳转不刷新)
CLOSERSCOPY:专注快速生成高转化率的营销文案、长篇内容
爆棚小组PlayGM论坛官网首页入口