Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

8.5.1 “视觉–语言–动作”统一 Transformer 架构抽象

学习导航

  • 本章主题:8.5.1 “视觉–语言–动作”统一 Transformer 架构抽象
  • 前置知识:建议先完成第 3-7 章对应先修内容。
  • 建议用时:70-90 分钟
  • 阅读顺序:先看概念框架,再看公式/代码,最后做自测。

在前面的章节里,我们已经分别从“视觉–语言多模态”“动作解码”与“条件建模”的角度拆开讨论了 VLA 的各个部件。本小节尝试把这些内容重新“合体”,抽象出一类越来越主流的统一 Transformer 架构——把视觉、语言、动作、状态统统看成一个长序列,交给单个 Transformer做统一建模。

代表性的工作包括 RT-2、PaLM-E、RT-X / Open X-Embodiment、OpenVLA 等,它们都在不同程度上体现了这种“所有东西都是 token”的思路。(arXiv)

【图 8-5-1 占位】 统一 Transformer 架构示意图:语言 token、视觉 patch token、机器人状态 token、历史动作 token 被串成一条长序列,输入同一个 Transformer;输出为下一步动作 token。


8.5.1.1 序列建模扩展

基本想法:把机器人问题改写成“下一个 token 预测”问题。

在经典自回归语言模型中,输入是一串文本 token,模型学习“给定前面所有 token,预测下一个 token”。统一 VLA 的思路是:

  • 先把视觉帧拆成 patch,再嵌入成一串视觉 token;
  • 语言指令分词,得到一串文本 token;
  • 机器人状态(关节角、末端位姿、夹爪开合、是否抓到物体等)编码成若干状态 token;
  • 历史动作离散化或量化成动作 token;
  • 最后把它们按某种规则串联成一条长序列,交给 Transformer 处理,预测“下一步动作 token”。

典型的实现方式是构造一条“多模态句子”,例如(只示意结构):

[LANG …] [IMG …] [STATE …] [ACT_t-1 …] → [ACT_t …]

其中语言指令通常是固定前缀(例如一开始给出“把红色杯子放到盘子里”),视觉 token 和状态 token 随时间更新,动作 token 被自回归地逐步生成。RT-2 就是将机器人的连续动作编码成“伪文本 token”,和自然语言答案一起作为统一的输出空间,在同一个序列上做下一个 token 预测。(arXiv)

PaLM-E 更进一步直接把图像特征、机器人状态向量嵌入到语言模型的 token 序列里,形成“多模态句子”,由一个巨大的 LLM 主干统一处理。(arXiv)

在实践中,序列通常还会带有以下辅助信息:

+模态嵌入(modality embedding):指示当前 token 属于视觉、语言、动作还是状态; +时间步嵌入(timestep / position embedding):编码“这是第几步控制”“这是最近 N 帧中的第几帧”; +机器人/任务嵌入(embodiment / task embedding):在多机器人、多任务场景下加入全局条件,这部分在 8.5.2 详细展开。

序列组织方式的变体。

统一序列并不意味着只有一种排法,常见有两类:

1.按时间展开

\[ \underbrace{[\text{LANG}, \text{IMG}_t, \text{STATE}_t, \text{ACT}_{t-1}]}_{\text{第 }t\text{ 步}} \quad \underbrace{[\text{IMG}_{t+1}, \text{STATE}_{t+1}, \text{ACT}_{t}]}_{\text{第 }t+1\text{ 步}} \quad \dots \]

每个时间步是一个“小句子”,所有时间步再串联。这样强调时序结构,类似“视频 + 控制命令”的联合建模。 2.按模态分块[LANG 全部] + [若干帧 IMG] + [若干 STATE] + [若干 ACT]。 这种更接近 RT-1/RT-2 的做法:指令常常一次性给出,视觉帧也可以只取最近几张,动作 token 在尾部自回归生成。(谷歌研究)

注意还需要在注意力掩码上做区分:

+语言与视觉 token通常允许双向注意力(类似 Encoder),便于充分融合视觉–语言信息; +动作 token常使用因果掩码,不能看到未来的动作,以满足“预测下一步动作”的因果性要求。


8.5.1.2 单 Transformer 优势

用单个 Transformer 承担“感知–语言–决策”三件事,乍看有些暴力,但在实际系统里已经被证明非常有吸引力。

1.统一表示空间,天然跨模态对齐。 当视觉、语言、动作 token 一起在同一堆 self-attention 层里反复交互时,模型自然会学到“哪些图像区域与哪些文字、哪些动作有关”。RT-2 的结果表明,经过互联网视觉–语言数据与机器人轨迹的联合训练后,模型能把 web 上学到的语义知识迁移到现实机器人动作中,在未见场景上的成功率由 RT-1 的 32% 提升到 62%。(Google DeepMind) 2.共享一个大模型,跨任务和多模态正迁移。 PaLM-E 显示,随着参数规模从几十亿扩展到 562B,同一个模型在视觉问答、文本任务和机器人任务上的表现同时提升,而且不同任务之间存在明显的正迁移——更多的互联网多模态数据可以帮助机器人任务,机器人数据反过来也不会破坏语言能力。(arXiv) 这一点对“从网络知识走向具身智能”非常关键。 3.工程上结构简单、接口干净。 统一 Transformer 的架构非常接近“LLM + 视觉前端 + 动作头”的模板,如 OpenVLA 在一个 7B 级别的开源 VLM 主干上仅增加了少量输入适配层和动作解码头,就实现了多机器人、多任务的控制能力。(arXiv) 这意味着:

  • 可以直接复用主流 LLM/VLM 的工程基础(分布式训练、推理框架等);
  • 模型升级(比如换一个更强的 LLM 主干)时,只需相对局部的改动。 4.训练范式统一,易于“混合数据”。 把一切都当 token 后,网络训练目标本质上就是“预测下一个 token 或填补被 mask 的 token”,和语言模型完全一致。RT-2 就是在 VLM 的 web 预训练任务(描述图像、问答)上插入机器人轨迹数据,以几乎相同的损失函数联合训练,从而复用成熟的 LM 训练流水线。(arXiv) 5.为后续扩展留出空间。 一旦序列接口确定,未来加入新的模态(深度图、触觉、力传感器)、新的控制信号,只需要定义新的 token 类型和嵌入方式,而不用重新发明整套网络结构。这与第 12 章讨论的“统一感知–语言–动作–记忆大模型”是完全一致的设计哲学。(VLA Models Survey)

8.5.1.3 挑战

统一 Transformer 非常“优雅”,但现实里要在机器人上真正跑起来,还会遇到不少硬骨头。

1.序列过长带来的计算瓶颈。 自注意力复杂度是 \(O(N^2)\)。视觉 patch(几十到几百个)、语言 token(几十个)、状态和动作 token,再乘上时间维度,很容易就堆出几百乃至上千长度的序列。 对于需要 10–30 Hz 实时控制的机器人,这会迅速压垮显存和算力。最近的 VLA 综述也把“计算约束”列为走向真实部署的一大障碍。(arXiv) 实际系统中常用的折中包括:

  • 只保留最近 1–2 帧图像,远历史用压缩状态代替;
  • 降采样视觉 token(更粗的 patch、更小的分辨率);
  • 使用稀疏注意力或分块注意力,只在局部时间窗口做完全注意力。 2.模态频率与时间尺度不匹配。
  • 视觉:通常 5–15 Hz,信息密度高但刷新慢;
  • 状态与动作:可以高达 50–1000 Hz;
  • 语言指令:大多是“低频、几乎静态”的条件。 如果一股脑儿全塞进同一序列,要么动作过度压缩(影响控制精度),要么视觉/语言 token 被大量重复(增加冗余计算)。 工程中常见的做法是:
  • 在统一 Transformer 前加一个**“低频感知、高频控制”分层**:高频控制层只看最近一次感知和短历史动作;
  • 或者在统一序列内部,引入只更新子序列的机制(例如每 K 帧插入一次视觉 token,其余时间只滚动动作和状态)。 3.从“相关”到“因果”的困难。 统一 Transformer 通常使用自监督或模仿学习目标(BC),擅长捕捉“统计相关性”:某种图像+语言组合对应某种动作序列。但在长时间任务中,需要模型理解动作对未来结果的因果影响,这在纯“下一个 token 预测”框架中并不直接体现。 因此,很多工作把统一 Transformer 视作强表示 + 先验,再在其上做 RL 微调或规划(详见第 9 章),以弥补长期 credit assignment 的不足。(VLA Models Survey) 4.数据分布与模态对齐问题。 互联网数据中的图像与文本,和机器人场景下的相机画面、操作轨迹分布完全不同:
  • web 图像多为拍照、插图;机器人视角则是“俯视桌面”“贴近物体”;
  • 自然语言描述关注“是什么”“好不好看”,而机器人指令要求“怎么做”“具体动哪”。 RT-2 通过共同微调(co-fine-tuning),在训练时同时保留部分 web 视觉–语言任务与机器人数据,以减少灾难性遗忘和分布错位;但要做到完美对齐仍是开放问题。(arXiv) 5.安全与可控性。 把动作 token 当作“语言的一部分”虽然统一了接口,也把语言模型那种“有时很会瞎编”的特性原封不动带到机器人控制中:
  • 在“开放式指令”下模型可能产生意料之外的动作序列;
  • 统一 Transformer 很难自带强约束(如速度上限、禁入区域等)。 因此,在实际系统部署时,通常会在统一 Transformer 外再包一层动作约束与安全检查(第 10.3 节),在解码时限制动作范围或直接过滤掉危险动作,仅让统一 Transformer 在安全的“可行域”内发挥聪明才智。(arXiv)

8.5.2 单模型多机器人、多任务共享的设计原则

统一 Transformer 只是“脑袋长成什么样”的问题。如果我们希望**“一个脑袋带 N 个身体”**——同一模型可以控制多种机器人、执行成百上千种任务,那就必须进一步考虑:输入输出如何“对齐”、参数如何共享、怎样避免互相干扰。

近期的 Open X-Embodiment / RT-X、OpenVLA 等工作,已经在22 种机器人、百万量级轨迹上验证了多机器人统一策略的可行性,并给出了相对成熟的“多机器人工程模式”。(arXiv)

【图 8-5-2 占位】 多机器人共享 VLA:左侧是不同形态的机器人(多关节机械臂、双臂、移动底盘+机械臂等),通过“输入适配器”映射到统一 token 序列;右侧是共享的 Transformer 主干和若干“输出适配器”,分别产生各机器人可执行的动作。


8.5.2.1 输入适配

多机器人输入的关键,是把“千奇百怪的传感器和坐标系”映射到统一、规范化的表示中,同时显式告诉模型“我现在是哪个机器人”。

1.统一视觉与状态坐标系。 虽然每个机器人相机的安装位置、视场角、分辨率各不相同,但我们可以在预处理时强制统一到某种规范:

  • 统一图像尺寸和颜色空间(如全部缩放到 256×256、RGB);
  • 尽量使用相似的视角配置(例如“手眼相机俯视桌面”);
  • 把关节角、末端位姿、夹爪状态等归一化到统一量纲(例如 \([-1,1]\))。 Open X-Embodiment 在整合 22 种机器人数据时,把观测统一为“相机图像 + 7-DoF 末端状态 + 夹爪开合”等少数字段,作为所有模型的公共输入界面。(arXiv) 2.Embodiment 编码(机器人身份与形态嵌入)。 模型必须知道“我现在是那只机器人”,否则统一表示会混淆不同机械结构。常见做法包括:
  • 为每个机器人分配一个离散的 ID token,类似语言模型里的 [ROBOTA][ROBOTB],学习一个对应的 embedding;
  • 使用更细致的形态描述向量,编码关节数、关节类型(旋转/移动)、连杆长度等,甚至直接从 URDF 中提取。 PaLM-E 实验表明,在同一模型中同时训练多种 embodiment 时,适当的形态/模态嵌入有助于实现正迁移,而不是互相拖累。(arXiv) 3.任务与场景条件嵌入。 多任务场景下,还需要通过语言+任务 ID 来告诉模型“现在该做什么”:
  • 主通道使用自然语言指令(例如“把蓝色杯子放在盘子里”);
  • 也可以附加一个任务类别 token(例如来自 Open X-Embodiment 中 527 种 skill 的 ID),帮助模型在长尾任务上稳定收敛。(arXiv) 4.输入适配器(input adapters)。 在工程实现上,经常会在统一 Transformer 之前加一层轻量的输入适配模块:
  • 对不同分辨率的相机使用独立的 CNN/ViT backbone,然后都投影到统一维度;
  • 对不同类型的状态向量(仅机械臂 / 机械臂+底盘)使用不同 MLP,再concat 到统一长度。 这些适配器可以视作“硬件驱动层”,而后面的 Transformer 主干则是“共享算法层”。

8.5.2.2 输出适配

输入统一之后,还需要解决更棘手的一个问题:不同机器人动作空间完全不同。有的 7 自由度机械臂,有的多加一个滑轨,有的带移动底盘,还有夹爪、吸盘、双臂等各种组合。

1.优先统一到“任务空间动作”。 当前多机器人工作中比较成功的一条路线,是把动作统一定义为末端位姿或其增量(Delta pose)+ 夹爪开合

  • 模型输出一个规范化的 \(\Delta x, \Delta y, \Delta z, \Delta \text{roll/pitch/yaw}, \Delta g\) 向量或对应 token;

  • 每个机器人本地再用 IK 或已有控制器把这个末端增量转换成实际关节命令。 Open X-Embodiment 的 RT-X 系列就采用了类似思路,将不同机器人动作粗略对齐为“7-DoF + 夹爪”格式,再训练统一策略。(Google DeepMind) 2.共享动作头 + 机器人特定投影。 更一般的结构是:

  • Transformer 主干输出一个**共享动作向量 \(a_\text{shared}\)**或一串动作 token;

  • 对每个机器人 \(\displaystyle r\) 配一个小型的输出适配器 \(g_r\)(通常是 1–2 层 MLP),将 \(a_\text{shared}\) 转换为该机器人的实际命令:

    \[ u_r = g_r(a_\text{shared}), \]

    其中 \(u_r\) 可以是关节速度、关节位置、底盘速度等。 如此一来,大部分决策能力都在共享主干中,输出适配器仅负责“单位换算 + 形态映射”,既保留可移植性,又允许适配差异较大的平台。 3.离散化动作空间下的适配。 若采用 RT-1、RT-2 类“离散动作 token”设计,输出适配问题会有不同表现:(谷歌研究)

  • 可以为不同机器人定义一套统一的 token vocabulary,例如每个 token 对应“末端沿 X 轴 +1cm”“夹爪闭合 10%”等;

  • 或者为每个机器人单独定义 token 集合,但将它们嵌入到统一的动作 embedding 空间(共享 embedding 矩阵 + 部分专用行),用机器人 ID 来选择子集。 RT-2 把动作表示为文本样式的 token,是一种更极端的形式:输出空间事实上就是自然语言词表的子集;真正的低层控制由外部解析器负责解释这些 token 并转换为关节命令。(arXiv) 4.安全范围与单位归一化。 无论采用哪种表示,都应当在输出适配层中处理:

  • 单位换算(如归一化到 \([-1,1]\) 再按各机器人上限缩放);

  • 限幅与裁剪(保证速度、加速度、力矩在允许范围内);

  • 特定自由度屏蔽(例如对不带底盘的机器人,将底盘相关维度强制为 0)。 这部分内容在第 10 章关于安全与系统部署中会再详细展开,这里只提醒读者:输出适配既是形态问题,也是安全问题。


8.5.2.3 参数共享与分支

实现多机器人、多任务的单模型共享时,一大难题是:

  • 共享太多:容易互相干扰,导致“谁都学不好”;
  • 分得太开:又失去了跨任务、跨平台正迁移的好处。

现有工作逐渐形成了一些实践经验。

1.“大共享,小特化”的基本格局。 多数成功的 VLA 系统采用类似模式: +完全共享视觉 backbone、语言 backbone 和大部分 Transformer 层;

  • 只在靠近输入/输出的少数层中加入机器人或任务特定分支。 例如 OpenVLA 使用一个 7B 的统一 VLA 模型,在多机器人数据上预训练后,通过LoRA / Adapter 等参数高效微调方法为新机器人或新任务添加极少量额外参数,就能快速适配而不破坏已有能力。(arXiv) 2.多机器人共享的经验:RT-X 与 Open X-Embodiment。 RT-X 在 Open X-Embodiment 数据集上训练统一模型,实验表明:
  • 统一模型在多种机器人上的平均表现优于分别为每个机器人训练单独模型;
  • 特别是在数据较少的机器人上,能从其他机器人数据中获得显著增益。(arXiv) 这说明适当共享确实能带来“数据放大效应”,是构建通用机器人大脑的关键。 3.MoE / gating 与任务分支。 为了进一步减轻“互相拖累”的问题,可以考虑在统一 Transformer 中加入**专家混合(Mixture-of-Experts)**或软门控结构:
  • 为不同机器人、任务准备若干组专家 FFN / 注意力子层;
  • 根据机器人 ID、任务嵌入或当前观察自动选择或加权这些专家;
  • 这样既保持参数共享,又允许模型在不同场景下使用不同子网络。 这类结构目前在大语言模型中已经被广泛使用,在 VLA 领域也逐渐开始探索(可参考第 12 章对“更通用具身基础模型”的讨论)。(arXiv) 4.训练策略:采样均衡与防止灾难性遗忘。 多机器人、多任务训练容易出现“大数据任务压死小数据任务”的现象。实践中常用手段有: +分任务/分机器人均衡采样:保证每个 batch 中各机器人数据比例相对均衡;
  • 对长尾任务或少样本机器人给予更高 loss 权重;
  • 逐步解冻策略:先在大数据机器人上预训练主干,再逐步加入其他机器人数据和适配参数,避免一开始就“乱拉扯”。 OpenVLA 和后续基于它的实验都报告,合理的采样与微调策略可以显著提升在长尾任务和新机器人上的表现。(Medium)

总的来说,多机器人共享的设计哲学可以概括为:用尽可能统一的输入/输出接口和大规模共享主干,叠加尽可能小的特化分支。这与后续第 10 章中讨论的“云端大模型 + 端侧小适配”的系统架构,也是高度一致的。


8.5.3 模型尺度(参数量)与性能 / 部署成本权衡

统一 Transformer + 多机器人共享听上去很美,但实现“从 zero 到 hero”的另一块硬约束,就是模型规模

  • 做得太小,学不会复杂语义和泛化能力;
  • 做得太大,机器人本体根本带不动,或者控制频率降到不能用。

这一节不追求给出具体“最佳参数量”的数字,而是希望帮助读者形成一套思考模型规模的框架

+**性能潜力:**大模型究竟在 VLA 里带来了什么? +**成本约束:**训练与推理各花在哪里? +**实践决策:**面对真实硬件和任务,我们如何选一个“够用而不过度”的规模。


8.5.3.1 大模型性能潜力

大模型的优势,在 VLA 场景中已经通过多个代表性工作得到实证。

1.更强的语言与视觉理解能力。 PaLM-E 把一个数百亿甚至 562B 参数的 LLM 与视觉、机器人模态结合,结果显示:

  • 在视觉问答基准(OK-VQA、VQAv2)上达到或超过专门微调模型的水平;
  • 在机器人任务上,比仅在单一任务上训练的小模型表现更优;
  • 随着参数规模增大,语言能力几乎不被破坏,甚至还能继续提升。(arXiv) 这说明,“大脑更大”并不一定会被“机器人任务”拖累,相反多任务联合训练可以利用规模优势。 2.更强的零样本 / 组合泛化。 RT-1、RT-2 等工作一再强调:当模型容量足够大、训练数据足够多时,机器人策略在未见任务和未见物体上的成功率显著提高:

这类“模糊指令 + 复杂语义”的能力,很难用小规模、专用型模型手工编码出来。

  • RT-1 在未见指令上的成功率可达到 76%,比下一最佳基线高出 24 个百分点;(arXiv)
  • RT-2 在 unseen 场景上的成功率从 RT-1 的 32% 提升到 62%,大量例子表明模型能理解“最小的”“离 X 最近的”“可以当锤子用的东西”等抽象语义并正确选择物体。(Google DeepMind)

3.更强的多机器人、多任务正迁移能力。 Open X-Embodiment / RT-X 表明,在 22 种机器人、百万轨迹上训练的统一模型,相比单机器人模型不仅没有退步,反而在平均性能上提升,并显著提高数据稀缺机器人上的表现。(arXiv) OpenVLA 进一步展示,单个 7B 级 VLA 模型在多个机器人、多个场景上的成功率可以超过一些 50B+ 封闭模型和 diffusion policy 方法。(arXiv)

从理论与经验上看,在数据足够丰富、训练做得好的前提下,增加参数量确实能换来更强的泛化与综合能力。但问题在于:机器人不是搜索引擎或聊天系统,它对实时性与能耗的约束远严苛得多。


8.5.3.2 训练推理成本

要把一个 VLA 模型从“纸上谈兵”训练到能在真实机器人上跑,需要分别面对训练成本推理成本两座大山。

1.训练成本:算力、数据与工程复杂度。

工程上,这意味着:

对研究生或小团队而言,通常需要借助已经预训练好的大模型(如开源的 OpenVLA-7B)来降低前期成本。(arXiv)

+预训练阶段通常在大规模图文数据(CLIP 风格)与纯文本(LLM)上进行,这部分已经是工业级别的算力消耗;(arXiv) +机器人阶段往往需要在百万级轨迹、上万小时的机器人交互记录上进行微调或共同训练,例如 Open X-Embodiment 的 100 万+ 真实轨迹、RT-1 的 13 万集真实操作等。(arXiv)

  • 必须使用分布式训练、混合精度(FP16/BF16)、流水线并行等技术;
  • 数据管线须支持从多源数据集中高吞吐读取、在线随机化与过滤;
  • 只为训练这样一个模型就可能需要数十到上百张 GPU/TPU,持续数天甚至数周。

2.**推理成本:时延、频率与硬件约束。**机器人控制对推理有几个硬约束:

现实里,一台带中高端 GPU 的桌面工作站可以勉强实时运行 1–7B 级别的 VLA 模型(视输入长度而定);几十亿以上的模型很难在本地高频控制(RT-2 这类通常采用云端推理或较低频规划式控制)。(得克萨斯大学计算机科学系)

因此:

+控制频率:典型操作任务希望 VLA 在 5–10 Hz 输出高层命令(低层由控制器插值); +端到端时延(从采集图像到输出动作)要远小于机器人动态变化时间常数,通常希望在几十毫秒到一两百毫秒内; +边缘设备资源有限:很多机器人仅搭载 8–32 GB 显存的嵌入式 GPU 或移动 GPU。

  • 统一 Transformer 的层数、宽度、注意力头数与序列长度必须一起考虑,不能简单照搬语言模型配置;
  • 需要结合 10.4 节中的量化、蒸馏、模型剪枝等手段,把训练好的“大脑”压缩到机器人能吃得下的规模。OpenVLA 就展示了 7B 模型在 4bit 量化后,成功率几乎不降(71.9% vs 71.3%),显存占用却下降了一半以上。(alphaXiv)

8.5.3.3 最优规模选择

在具体项目中,如何决定“我的 VLA 模型要做多大”?这个问题没有一个放之四海皆准的数字,但可以用几条实用原则来指导决策。

1.**先从“实时性预算”反推模型规模。**可以做一个简化思路:

对于实验室早期研究,可以先不管硬件约束,直接在大 GPU 上试验较大模型,等验证方法有效后再做压缩和架构优化。

  • 目标控制频率为 \(\displaystyle f\)(例如 10 Hz),则单次推理允许的最大时延约为 \(T = 1/f\) 的一半到三分之一(预留传感与通信开销);
  • 在目标硬件上测量不同大小 Transformer(不同层数、隐藏维度、序列长度)的前向时间;
  • 选一个既能满足时延预算,又能放入显存的规模。

2.任务复杂度和开放度越高,模型越需要“宽一点”。

此外,可以采用“两级架构”:

  • 若任务场景较封闭(固定工厂产线、物体种类有限、指令模式固定),通常几十到几百 M 级别的模型就足以胜任;
  • 若目标是开放环境 + 自然语言 + 新物体/新任务泛化(类似 RT-2、OpenVLA 的定位),则实践上会倾向 1B–10B 范围的模型作为“机器人大脑”,并辅以大规模多模态预训练。(arXiv)
  • 大模型负责高层规划、子任务分解与自然语言理解(可以云端或离线执行);
  • 小模型负责本地实时控制与安全执行(在机器人上部署),二者通过中间表示(子目标、动作原语)交互。第 10 章和 12 章会再次讨论这种分层模式。

3.**善用蒸馏与量化:大模型“教”,小模型“跑”。**一种越来越常见的工程套路是:

这样,模型的表达上限由大模型决定,而实际运行成本由小模型承担,两者之间通过知识蒸馏建立联系。这与第 10.4 节中的“教师–学生”模型压缩框架是一致的。

+先用大模型(如 OpenVLA-7B) + 大数据训练一个强策略,在仿真和少量真实环境中获得满意表现;

  • 再通过行为蒸馏把大模型在大量状态上的动作分布“蒸馏”到一个小模型(例如 200M–1B),让小模型模仿大模型的策略;(Medium)
  • 最后对小模型进行量化、结构优化(如减少层数、使用更高效注意力)以满足机器人部署的硬件约束。

4.**围绕数据和团队能力做现实选择。**最后,规模选择还必须考虑非常朴素的现实因素:

  • 你手上有多少高质量机器人数据?如果只有几千条示范,那么上十亿参数只会带来严重过拟合和无端复杂度;
  • 团队是否有足够工程能力维护一个超大模型的训练与调参流程? 在很多学校/实验室场景里,一个数亿级参数、结构简洁、训练可控的 VLA,往往比盲目追逐巨模型更能帮助你快速完成科研闭环,并为将来对接更大基础模型打好接口。

综上,本小节从理论抽象与工程实践两个角度,介绍了统一 Transformer 架构、多机器人共享设计以及模型规模权衡这三块“结构性问题”。 在接下来的第 9 章,我们会转向“训练范式”的视角,讨论在这样的架构之上,如何通过预训练、模仿学习、强化学习以及人类反馈等方式,把一个“空壳的统一模型”真正训练成具备通用操作能力的 VLA 系统。

本章小结与自测

三行小结

  1. 本章是 VLA 架构设计核心:输入、融合、动作解码。
  2. 重点在多模态对齐与条件策略建模。
  3. 学完后应能比较不同 VLA 架构的设计权衡。

检查题

  1. 用你自己的话总结本章最核心的一个公式/机制。
  2. 给出一个“如果要落地到项目里,你会怎么用”的具体例子。

常见误区

  1. 盲目堆模型参数。
  2. 忽略动作空间定义与约束。
  3. 多模态融合后不做可解释性检查。

公式到代码(最小示例)

# 多模态特征拼接最小示例
vision = [0.1, 0.2, 0.3]
language = [0.5, -0.1]
state = [0.0, 1.0]
fusion = vision + language + state
print(fusion)

本章外部参考(集中)

  1. arXiv
  2. arXiv
  3. 谷歌研究
  4. Google DeepMind
  5. arXiv
  6. VLA Models Survey
  7. arXiv
  8. arXiv
  9. Google DeepMind
  10. Medium
  11. arXiv
  12. 得克萨斯大学计算机科学系
  13. 本章其余链接可在正文中按上下文继续查阅。