Gemini 3.1 Flash-Lite模型使用入口,谷歌轻量级旗舰模型,每秒363 token的输出速度

Gemini 3.1 Flash-Lite是Google推出的轻量级旗舰大模型,主打极致速度与超高性价比。模型支持可调思考深度,适合高频翻译、内容审核、实时UI生成等场景,目前已通过Google AI Studio和Vertex AI开放预览。

谷歌开源轻量级AI模型
PicoClaw官网使用入口,支持Telegram、Discord等多平台接入

PicoClaw是Sipeed推出的超轻量级AI Agent助手,采用Go语言开发,专为低成本硬件量身打造。不同于本地运行大模型的方案,它以轻量客户端形式,通过API调用Claude、GPT、智谱GLM等云端模型,同时在本地高效实现文件操作、网页搜索、任务规划等核心Agent能力。

AI AgentSipeed智谱GLM轻量级AI模型
GPT‑5.3‑Codex‑Spark模型使用入口,OpenAI首款实时编程轻量级模型

GPT-5.3-Codex-Spark是OpenAI首款实时编程轻量级模型,核心优势为1000 tokens/秒超高速推理、80%延迟降低、边输出边修改的即时协作体验;核心应用于即时代码调试、界面迭代、代码审查、编程学习、原型验证等需要快速响应的编码场景,已向 ChatGPT Pro用户开放。

AI编程模型OpenAI轻量级AI模型
Skywork R1V4-Lite:昆仑万维推出的轻量级多模态智能体

Skywork R1V4-Lite是昆仑万维推出的轻量级多模态智能体,该模型无需人工设计提示词,用户仅需上传一张图片,即可自动完成观察、推理、决策并输出答案;同时支持图像裁切、放大、旋转等主动操作,结合联网搜索能力构建“搜索—推理—验证”闭环,高效解决复杂多模态任务。

多模态智能体昆仑万维轻量级AI模型
豆包大模型 1.6 Lite:字节跳动推出轻量高效的企业级AI解决方案

豆包大模型1.6 Lite是字节跳动推出的轻量级企业级人工智能模型,相较于旗舰版豆包1.6,它在保持核心能力的基础上实现了更精简的体积、更快的推理速度和更高的性价比。

企业级AI字节跳动豆包大模型轻量级AI模型