
LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家(MoE)架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上(含集显、独立NPU的笔记本与台式机),让高性能大模型真正走向端侧部署。

LFM2-24B‑A2B核心架构:
1、门控短卷积+分组查询注意力(GQA):
通过硬件在环架构搜索(Hardware‑in‑the‑loop NAS)设计,兼顾卷积高效预填与注意力长程建模能力,实现极低内存占用+超快解码速度。
2、深度与专家数双重扩展:
– 层数从LFM2‑8B的24层提升至40层,语义表达更丰富
– 每个MoE模块专家数从32个翻倍至64个,搭配Top‑4路由,任务专业化能力更强
3、精细激活参数控制:
为将激活参数稳定控制在23亿以内,对专家中间层宽度做小幅收窄(1536 vs 1792)。
4、容量与效率极致平衡:
总参数从8B扩大到24B(提升3倍),但激活参数仅增加1.5倍。
模型把海量知识存在“休眠参数”中,按需激活,在保持端侧友好的同时,智能水平大幅提升。
LFM2-24B‑A2B开源生态与快速上手:
1、获取权重:在Hugging Face直接下载模型文件。
2、本地运行:支持llama.cpp多量化方案,一键跑在MacBook / Windows笔记本。
3、微调定制:提供完整文档,支持垂直领域精调。
4、在线体验:可通过LiquidAI Playground直接测试效果。
Grok 4.20模型使用入口,采用约3T参数的MoE架构,支持256K tokens超长上下文窗口
JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型
JoyAI-LLM-Flash模型使用入口,京东AI开源的最新大语言模型
Ovis2.6-30B-A3B模型使用入口,阿里国际Ovis系列多模态大语言模型
Intern-S1-Pro:上海AI实验室开源的万亿参数科学多模态大模型
上面是“LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型”的全面内容,想了解更多关于 AI项目和框架 内容,请继续关注web建站教程。
当前网址:https://m.ipkd.cn/webs_31320.html
声明:本站提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请发送到邮箱:admin@ipkd.cn,我们会在看到邮件的第一时间内为您处理!

咪咕文学:中国移动旗下的数字阅读平台,挖掘和培育优秀网络作家
js把一个数组根据相同名字合并成到子数组里
一刻电影网:免费提供最新高清电影迅雷下载服务的网站
动手学深度学习:实践驱动的深度学习入门与进阶指南