UnifoLM-VLA-0是宇树科技开源的通用视觉-语言-动作(VLA)大模型,基于Qwen2.5-VL-7B架构完成持续预训练,核心通过融合2D/3D空间感知、轨迹预测等多维监督信号,实现从视觉语言理解到具身智能体的技术进化。