LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型

55 ℃
Trae:新一代免费的AI编程工具

LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家(MoE)架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上(含集显、独立NPU的笔记本与台式机),让高性能大模型真正走向端侧部署。

LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型

LFM2-24B‑A2B核心架构:

1、门控短卷积+分组查询注意力(GQA)

通过硬件在环架构搜索(Hardware‑in‑the‑loop NAS)设计,兼顾卷积高效预填与注意力长程建模能力,实现极低内存占用+超快解码速度。

2、深度与专家数双重扩展

– 层数从LFM2‑8B的24层提升至40层,语义表达更丰富

– 每个MoE模块专家数从32个翻倍至64个,搭配Top‑4路由,任务专业化能力更强

3、精细激活参数控制

为将激活参数稳定控制在23亿以内,对专家中间层宽度做小幅收窄(1536 vs 1792)。

4、容量与效率极致平衡

总参数从8B扩大到24B(提升3倍),但激活参数仅增加1.5倍。

模型把海量知识存在“休眠参数”中,按需激活,在保持端侧友好的同时,智能水平大幅提升。

LFM2-24B‑A2B开源生态与快速上手:

1、获取权重:在Hugging Face直接下载模型文件。

2、本地运行:支持llama.cpp多量化方案,一键跑在MacBook / Windows笔记本。

3、微调定制:提供完整文档,支持垂直领域精调。

4、在线体验:可通过LiquidAI Playground直接测试效果。

进入LFM2-24B-A2B模型官网入口

Grok 4.20模型使用入口,采用约3T参数的MoE架构,支持256K tokens超长上下文窗口

JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型

JoyAI-LLM-Flash模型使用入口,京东AI开源的最新大语言模型

Ovis2.6-30B-A3B模型使用入口,阿里国际Ovis系列多模态大语言模型

Intern-S1-Pro:上海AI实验室开源的万亿参数科学多模态大模型

标签: AI混合专家大模型, MoE架构

上面是“LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型”的全面内容,想了解更多关于 AI项目和框架 内容,请继续关注web建站教程。

当前网址:https://m.ipkd.cn/webs_31320.html

声明:本站提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请发送到邮箱:admin@ipkd.cn,我们会在看到邮件的第一时间内为您处理!

生活小工具

收录了万年历、老黄历、八字智能排盘等100+款小工具!生活小工具

猜你喜欢