Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

12.3.1 物理机器人系统安全标准与法规

具身智能把“只活在显卡里的模型”拉进了真实世界:机器人会移动、抓取、接触人和环境。从研究走向应用的第一道门槛就是安全与合规 。本节先从标准体系讲起,再看政策法规,最后介绍如何做系统性的安全评估,为后文责任与信任、产业落地打基础。


12.3.1.1 安全标准

  1. 机械安全标准体系的整体框架

国际上,机器安全标准大致形成了一个“三层结构”:

  • A 类标准(基础安全标准):给出通用的安全术语、风险评估方法和设计原则,代表性标准是 ISO 12100《机械安全——设计通则 风险评估与风险降低》。它提出了经典的三步策略: 1)本质安全设计; 2)防护装置与附加保护措施; 3)使用信息(警示、说明书等)。
  • B 类标准(通用安全标准):针对某一类安全要素,如安全距离、急停按钮、双手启动装置,或安全控制系统的性能等级等。
  • C 类标准(专用机械标准):面向具体设备(工业机器人、AGV 等),给出该类设备的详细安全要求。

ISO/TR 22100 系列则专门说明 A/B/C 标准之间如何配合使用,指导设计者通过风险评估与风险降低达到“可接受风险”水平。

【图 12-X】国际机器人相关安全标准的层级关系示意图(占位:包括 ISO 12100、ISO 10218、ISO 13482、ISO 3691-4、ISO 14971 等的关系箭头图)

  1. 工业机器人与协作机器人的安全标准

工业机器人是最早被系统化规范安全的机器人门类。

  • ISO 10218-1/2 是工业机器人和工业机器人系统的核心安全标准:第 1 部分针对“机器人本体”,第 2 部分针对“机器人系统与集成”。它要求在设计阶段识别和控制典型危险(挤压、碰撞、意外启动等),并规定防护围栏、安全互锁、急停和安全控制系统等措施。
  • 随着人机协作机器人(cobot) 的兴起,ISO/TS 15066 进一步对协作模式下的安全提出细化要求,包括人体各部位允许的碰撞力/压强阈值、协作操作模式(力/功率限制、手导示教、速度与距离监控等)的具体设计指导。

在中国,对应的 GB 11291《工业机器人安全要求》 系列等同或修改采用了 ISO 10218-2 的内容,用于指导国内工业机器人及生产线的设计与验收。

对具身智能和 VLA 来说,这意味着:即便高层是“会聊天、会看图”的模型,底层动作也必须被限制在满足 ISO 10218/ISO/TS 15066 等标准的安全包络内,例如限制协作机械臂末端最大速度、碰撞检测阈值等。

  1. 服务与个人护理机器人安全标准

当机器人走出工厂、进入家庭和公共空间,与非专业用户长期共存时,安全要求发生了质变。

  • ISO 13482 是个人护理机器人(Personal Care Robot)的重要标准,涵盖:移动服务机器人、物理辅助机器人、载人机器人等三大类。 标准除了机械风险外,还特别强调:
    • 对易受伤人群(老年人、儿童)的接触力限制;
    • 稳定性、防跌落、防夹压设计;
    • 对心理伤害和隐私侵犯的预防要求。

这类标准为养老机器人、陪伴机器人等提供了基本安全门槛,也为后续人形服务机器人、安全认证和产品责任提供了基础参照。

  1. 移动机器人、AGV/AMR 的安全标准

在仓储、工厂和医院中,自动导引车(AGV)与自主移动机器人(AMR) 已经成为“地面具身智能”的主力军。

  • ISO 3691-4 专门规范无人驾驶工业车辆(AGV/AMR 等)的安全要求,如路径规划、制动性能、速度限制、障碍物检测和紧急停止等,并规定了安全功能的验证方法,属于典型 C 类标准。

对于部署在仓库、工厂甚至医院走廊中的 VLA 机器人,这些标准意味着其行驶轨迹和速度必须满足严格的碰撞风险控制与制动距离约束,不能只依赖“模型觉得安全”。

  1. 医疗机器人与医疗器械风险管理标准

医疗机器人一方面是机器人,另一方面又是医疗器械,同时受到机械安全与医疗监管的双重约束。

  • IEC 60601 系列 定义了医疗电气设备的基本安全与性能要求,各种手术设备、监护设备都在此框架下设计。
  • 针对手术机器人等,IEC 80601-2-78 等专用标准给出了额外要求,例如系统冗余、故障安全状态等。
  • ISO 14971 则是医疗器械领域通用的风险管理过程标准,从设计到报废全过程要求持续风险识别、控制与残余风险评估。

这类标准对未来“VLA+手术机器人”的演进非常关键:再聪明的决策模型,也必须嵌入可以被审计和验证的风险管理流程中

  1. 国家与前沿领域标准的发展趋势

在国家层面,除了等同采用国际标准外,各国正针对新型机器人形态制定补充规范:

  • 我国近年来陆续发布了巡检机器人、腿式机器人、一体化关节等国家标准,补齐新形态机器人在安全与性能方面的空白。
  • 2025 年,中国启动了人形机器人标准化委员会,准备在总体架构、安全与核心技术等方面制定国家标准,从制度层面为类人具身智能扫清障碍。

【图 12-Y】具身智能相关安全标准图谱(占位:按工业机器人、移动机器人、个人护理机器人、医疗机器人分区列出对应的 ISO/IEC/GB 标准)


12.3.1.2 政策法规

安全标准告诉我们“如何做才安全”,而** 法律法规决定“什么是合法、谁负责任”**。对打算让机器人真正进入产业与社会的研究者来说,了解基本监管框架是必需的。

  1. 欧盟:从机械法规到 AI 法案
  • 欧盟《机械法规》2023/1230/EU 将在过渡期后取代旧的《机械指令》,规定了在欧盟市场投放机械产品(包括机器人)时必须满足的基本健康和安全要求(EHSR)。新法规一大特点是:
    • 明确考虑数字化、联网和 AI 带来的新风险;
    • 特别强调人机协作、远程更新和网络安全。
  • 欧盟《AI 法案》(AI Act) 则从“算法”角度出发,对 AI 系统进行分级监管:
    • 若 AI 系统是某种产品(如机器人)的安全部件,或本身是安全相关产品,则被归为** 高风险 AI**;
    • 高风险 AI 必须落实风险管理、数据治理、日志记录、透明性和人类监督等要求。

由于企业和各方压力,部分高风险条款的实施时间被推迟到 2027 年左右,但整体方向并未改变:将“看得见、摸得着”的机器人与其背后的“看不见的 AI”一起纳入安全监管

  1. 产品责任与 AI 责任的现代化

即便机器人满足安全标准,也可能因为设计缺陷、软件更新、训练数据偏差而造成损害。欧盟正在通过一系列新规来重塑责任规则:

  • 新版《产品责任指令》(PLD, 2024/…) 将软件、数字文件和 AI 明确纳入“产品”范围,并扩展潜在责任主体(包括平台运营者、非欧盟制造商代理等),对于技术高度复杂导致因果关系难以证明的案件,引入了** 缺陷与因果关系的推定**。
  • 拟议中的 AI 责任指令 则试图调整 AI 相关损害中的举证规则和责任分配,使受害人不至于在面对复杂系统时完全无从下手。

加上学界对“AI 是产品还是服务”的讨论,这些改革共同决定了:当一台搭载 VLA 的机器人出事时,责任可能如何在制造商、系统集成商、运营商、模型提供方之间分配。

  1. 其他地区与本土监管举措
  • 在医疗领域,美国 FDA 已经对手术机器人等设备形成了较成熟的审批路径,并通过认可 IEC 60601、IEC 80601 等国际标准来判定“安全与性能”。
  • 国内方面,工信部等部门发布了机器人产业规范条件和相关技术政策,地方政府(如上海)也针对人形机器人发布治理指引,强调技术标准、风险管理和价值观对齐的重要性。

对具身智能研究者而言,一个简单的经验是:

“早在论文阶段,就要想清楚:如果把这套系统真正做成产品,它会落在哪些法规框架下?需要满足哪些强制性要求?”


12.3.1.3 安全评估

有了标准和法规,还需要一个可操作的安全评估流程,来回答三个问题: 1)哪些地方有危险? 2)风险是否可接受? 3)如何证明我们已经做得足够安全?

  1. 基于 ISO 12100 的通用风险评估流程

ISO 12100 提供了一个经典的迭代流程:

1)危险识别:识别所有可能导致伤害的源头,包括机械、控制、电气、热、噪声以及使用错误等。 2)风险估计:对每个危险,综合考虑伤害严重度、发生概率和暴露频率,给出风险等级。 3)风险评价:判断现有设计下风险是否在“可容忍范围”内。 4)风险降低:按照“本质安全设计优先”的原则,依次考虑结构改动、防护装置、安全控制系统和警示信息。 5)验证与文档化:通过测试、计算、审查等手段验证风险降低措施有效,并形成可追溯文档。

对于具身智能机器人,这个流程需要扩展到软件与算法层面,包括对模型失效模式、数据缺陷和更新机制的分析。

  1. 医疗器械中的风险管理:ISO 14971 视角

ISO 14971 要求医疗器械制造商在整个生命周期中持续执行风险管理:

  • 在设计阶段进行系统性的危险分析和风险估计;
  • 对每一项不可接受风险制定控制措施(设计更改、防护、信息);
  • 评估残余风险是否与收益相比仍可接受;
  • 上市后通过上市后监测和事件报告,不断更新风险管理文件。

对手术机器人、康复机器人等来说,这意味着每一次软件更新、模型再训练或控制策略变更,都需要重新评估风险影响,而不仅仅是“线上热更新一个模型”。

  1. 具身智能系统特有的安全评估要点

相较传统机械,具身智能/ VLA 机器人的风险评估面临三类额外挑战:

  • 功能不确定性:决策模型往往是统计式或深度学习式的,难以穷举所有输入–输出组合的行为,容易出现“分布外输入”或“幻觉式决策”。
  • 学习与更新:模型可能在部署后继续学习或更新(在线学习、联邦学习),风险特性随时间变化,必须将更新过程纳入风险管理边界。
  • 网络与数据安全:ISO/TR 22100-4 专门提醒制造商关注与机械安全相关的网络安全问题,例如远程攻击导致安全功能失效,这在云端控制的机器人中尤为关键。
  1. 方法工具:从 FMEA 到场景库测试

工程实践中常用的一些方法可以直接迁移到具身智能系统:

  • FMEA(失效模式及影响分析)/ FTA(故障树分析):自顶向下分析哪些组件失效会引发危险行为,尤其适用于安全控制链路(传感器–控制器–执行器–监控系统)。
  • STPA 等系统理论视角方法:从控制结构和约束角度分析事故原因,适合处理复杂人–机–组织系统。
  • 仿真+场景库测试:对移动机器人、自动驾驶和 AGV/AMR,常通过大规模仿真场景库覆盖各种极端工况,结合 ISO 3691-4 等标准规定的试验项目来验证安全功能。
  • AI 合规测试:在 AI Act 的框架下,高风险 AI 还需要专门的性能、鲁棒性与偏差测试,并形成技术文档与日志,证明系统在设计范围内“足够安全”。

【图 12-Z】机器人系统安全评估与风险管理流程示意图(占位:左侧为危险识别与风险评估,右侧为设计/控制/使用三层风险降低措施,底部是文档与合规)


12.3.2 人机协作场景中的责任与信任

当机器人不再被关在笼子里,而是与人共享空间、共同完成任务时,技术问题会自然升级为责任与信任问题

  • 出事了谁负责?
  • 用户应不应该相信它、相信到什么程度?
  • 社会能不能接受这样的伙伴和“同事”?

本节从责任划分、信任建立和社会接受度三个层面展开。


12.3.2.1 责任划分

  1. 人机协作中的多方主体

典型的人机协作场景包括:

  • 车间里协作机械臂与工人共同装配;
  • 仓库里 AMR/人形机器人与拣货员共同搬运;
  • 手术室中外科医生与手术机器人协同操作;
  • 自动驾驶接驳车与安全员共同值守……

在这些场景中,至少涉及以下几类责任主体:

  • 制造商 / 算法开发者:机器人本体、控制系统、VLA 模型等的设计者;
  • 系统集成商:将机器人集成进具体产线或业务流程的一方;
  • 部署与运营方:工厂、物流公司、医院等,负责配置环境、下发任务、维护设备;
  • 人类操作员/监督者:负责给机器人发指令、监控状态、在必要时接管;
  • 关键部件/模型提供方:传感器供应商、通用大模型服务提供商等。

不同法律体系下,损害发生后责任如何划分会有差异,但一个共识是:不能把一切都推给“前线操作员”

  1. “道德缓冲区”(Moral Crumple Zone)现象

机器人伦理研究提出了“道德缓冲区(moral crumple zone)”概念:在高度自动化、多方参与的系统中,一旦事故发生,道德和法律责任往往集中落在那个“看起来在控制系统的人类”身上,即使他/她对整个系统的实际可控程度有限。

在机器人–人类协作中,这种现象表现为:

  • 协作机械臂伤人时,人往往指责“当班操作员没注意”;
  • 自动驾驶出事时,舆论首先问的是“安全员在干什么”;
  • 而系统设计者、算法提供方、组织层面的决策失误常常被淡化。

未来在设计 VLA 系统时,需要在技术和制度层面避免这种“责任挤压”:

  • 在系统架构中明确控制权边界,例如哪些动作是机器人自主做出的,哪些动作必须经过人类确认;
  • 完整记录决策与指令日志,让事后分析能够还原“谁在什么时候做了什么决定”;
  • 在产品说明和培训中清楚告知操作员其职责和能力范围,避免“挂名负责但没有相应控制手段”的状态。
  1. 从研究原型到合同与保险

当研究原型向产品转化时,责任问题会具体体现在:

  • 合同如何约定事故责任与保险条款;
  • 维护和更新职责如何划定(例如谁负责升级 VLA 模型,以及升级后如果出现异常由谁负责);
  • 是否需要针对高风险场景购买专门责任保险。

对研究生和工程师来说,在设计系统时就考虑“责任可分解、可追溯”,会极大降低后续产业化阻力。


12.3.2.2 建立信任

信任不是“用户喜欢它就行”,而是用户对系统能力与边界形成符合现实的预期 。对具身智能机器人来说,这种信任既有技术层面,也有人文层面。

  1. 信任的三个维度

相关研究表明,人们对社交机器人整体态度较为正面,但同时存在大量“犹豫”与“条件接受”。 可以把信任拆成三个维度:

  • 技术可信
    • 行为可预测、重复性好;
    • 遇到极端情况时能安全退避或求助,而不是“赌一把”;
    • 有清晰的安全保障机制(力/速度限制、急停、冗余传感器等)。
  • 交互可信
    • 机器人能用人类能理解的方式表达自己的状态和意图,如提示“我现在在学习环境、可能动作慢一些”;
    • 不通过“过度拟人化”误导用户,把自己包装成真实的人类或“全知全能的 AI”;
    • 尊重用户自主性(用户可以拒绝、修改命令)。
  • 组织可信
    • 背后机构有明确的客服和事故处理机制;
    • 有透明的隐私政策和数据使用说明;
    • 在发生错误时愿意承担责任并改进系统。
  1. 技术手段:让信任“有依据”

对 VLA 型机器人来说,可以利用模型本身的语言能力来增强透明度和信任,例如:

  • 自描述:在执行高风险动作前,用简短语言说明自己的理解和计划,如“我将以低速移动到你右侧,距离约 0.5 米”。
  • 不确定性提示:当视觉识别或语言理解置信度较低时,主动提示并请求确认,如“我不确定黄色小盒是不是你说的药箱,需要你确认一下”。
  • 多层自主等级:在医疗、协作工业场景中,允许用户选择“自动模式”“建议+确认模式”“纯手动模式”,并简明说明各模式下机器人会做什么。

这些设计可以帮助用户形成**“不过度信任,也不过度怀疑”** 的合理预期。

【图 12-T】人–机器人协作中“控制权–责任–信任”关系示意图(占位:三角形结构,一角是人类操作者,一角是机器人,一角是组织/厂商,中间标注信息流和决策权)


12.3.2.3 社会接受度

单个用户的信任可以通过设计慢慢建立,但要大规模部署具身智能机器人,还需要社会整体的接受与认可。

  1. 总体态度与关键顾虑

多项综述表明,人们对社交机器人和服务机器人总体态度偏向积极,但存在明显的分化和情境依赖

  • 在医疗、养老场景中,如果机器人能缓解人力紧缺、提升照护质量,公众往往较为支持;
  • 在监控、治安等敏感场景,则更担心隐私与权力滥用;
  • 在就业压力较大的地区,人们会更关注机器人是否“抢工作”。
  1. 养老与照护场景的特殊敏感性

老年人、认知障碍患者等人群往往在技术讨论中被视作“受益者”,但伦理研究提醒我们:

  • 机器人带来的陪伴与照护不能替代人类关系;
  • 长期监测可能损害隐私与尊严;
  • 设计不当的机器人可能强化年龄歧视或“幼儿化”老年人。

对具身智能来说,这意味着:

在养老场景中,VLA 应当被设计为“赋能型”伙伴,帮助老年人保持自主,而不是替其做所有决定。

  1. 工业与物流中的社会影响

在工厂和仓库中,机器人既改善了安全与效率,也引发了对就业与技能结构的担忧:

  • 有研究表明,在部分地区工业机器人显著降低了工伤事故率,改善了工作环境。
  • 同时,亚马逊等企业在仓库大规模应用机器人和 AI 调度系统,引发对工作节奏加快、岗位替代和劳动关系变化的讨论。

对政策制定者来说,配套措施包括:

  • 将机器人部署与职业培训、岗位转型政策联动;
  • 在引入具身智能系统前进行社会影响评估,与工会和员工充分沟通;
  • 把安全收益与就业结构变化一并纳入成本–收益分析,而不是只看短期效率。
  1. 人形机器人的接受度与“拟人边界”

随着人形机器人大量进入仓储、制造和未来的服务业,新一轮社会讨论正在展开:

  • 支持者强调其与人类共享环境、复用人类工具的潜力;
  • 批评者担忧其外形会让人高估其能力,从而导致危险;
  • 有人认为在照护场景中过度拟人化会制造“情感错觉”。

对具身智能研究来说,这提示我们:

不要把“更像人”当作唯一优化目标,而要兼顾安全、伦理与社会接受度。


12.3.3 面向产业与社会的落地场景分析

具身智能和 VLA 模型真正的价值,在于落地到具体产业与社会场景中。本节选取医疗机器人、辅助与养老、工业自动化与物流 三个典型领域,分析其应用特点、安全与伦理挑战,以及对本书所讨论技术路线的需求。


12.3.3.1 医疗机器人

  1. 典型类型与应用场景

医疗机器人大致可分为:

  • 手术机器人:如微创外科、骨科、神经外科机器人,用于提高精度、减少创伤;
  • 介入与影像引导机器人:辅助穿刺、导管导航等;
  • 康复机器人:外骨骼、下肢康复机器人等,用于训练和恢复运动功能;
  • 医院物流机器人:在医院内部运输药品、标本、被服等。

以手术机器人为例,文献梳理了 2015–2023 年间 FDA 批准的多种机器人系统,并提出“手术机器人自主等级(LASR)”,从单纯工具辅助到高度自主分级,显示目前主流系统仍然强调“人主导,机器人辅助”。

  1. 监管与标准框架

医疗机器人通常被视为医疗器械,其监管路径包括:

  • 符合 IEC 60601 系列的电气安全和基本性能要求;
  • 按照 ISO 14971 执行风险管理,对每一种潜在危害进行识别和控制;
  • 满足相关专用标准(如手术机器人 IEC 80601-2-78 等);
  • 在欧盟,还要符合 MDR 和 AI Act 中针对高风险医疗 AI 的额外要求。

对 VLA 医疗机器人而言,一个现实的中短期路线是:

把 VLA 放在“辅助决策与人机界面层”,而关键控制回路仍由可验证的安全控制系统承担。

  1. 具身智能在医疗场景中的角色

具身智能可以在多个层次增强医疗系统:

  • 术前与术中理解:通过视觉–语言模型理解影像(CT/MRI/内窥镜)与医生口头/文本指令,将“病灶概念”和空间位置联系起来;
  • 人机协作界面:医生用自然语言提出高层目标(如“沿血管轴向推进 2 cm”),系统转换为一系列安全约束下的低层控制命令;
  • 术后与训练:通过语言解释手术过程,辅助术者反思;利用 VLA 在仿真环境中为年轻医生提供训练场景。

但在监管层面,只要机器人动作直接作用于患者,高风险 AI 规则和医疗器械风险管理就会严格约束其自主程度,短期内很难完全替代医生。

【图 12-M】手术机器人系统组成与 VLA 集成示意图(占位:左为医生控制台,右为机械臂和患者,中间标注 VLA 模块对影像和语言指令的处理)


12.3.3.2 辅助与养老

  1. 老龄化背景与技术需求

在许多国家,老龄化和护理人力短缺正在成为结构性问题,社会机器人、服务机器人被视作缓解照护压力的重要工具。系统综述显示,人们期待这些机器人在陪伴、认知刺激和日常协助方面提供帮助,但同时指出大量伦理挑战。

典型应用包括:

  • 生活提醒与陪伴(吃药提醒、聊天、娱乐活动组织);
  • 移动与体力辅助(助行器、上肢/下肢助力设备);
  • 安全监测(跌倒检测、异常行为提醒);
  • 远程沟通(与家属、医生的视频连接)。
  1. 伦理与隐私问题

养老场景中,机器人往往长期驻留在家庭或机构中,这带来一系列伦理问题:

  • 隐私与监控:连续的音视频采集和位置跟踪可能让老人感觉被“时时刻刻监督”;
  • 自主性与依赖:过度依赖机器人可能削弱老人的自理能力,或让照护机构以技术替代人际互动;
  • 尊严与刻板印象:如果机器人用过度幼儿化的语气或过分照看,会伤害老人尊严;
  • 数据与偏见:用于训练模型的数据可能带有年龄歧视或文化偏见,影响机器人对老人的态度和决策。
  1. 标准与治理框架
  • 在安全层面,个人护理与辅助机器人可首先参照 ISO 13482 及相关解释文档,以限制接触力、速度和行驶区域等。
  • 在治理层面,地方性指引(如上海关于人形机器人的治理指南)开始加入伦理原则和风险管理要求,强调技术标准与人类价值观的一致性。
  • AI Act 在高风险 AI 章节中也强调,涉及弱势群体的系统必须特别关注基本权利与歧视问题。
  1. VLA 在养老辅助中的机会与风险

VLA 对养老机器人极具吸引力:

  • 能理解自然语言指令和闲聊,降低使用门槛;
  • 能结合视觉识别环境(药盒、轮椅、门锁)执行复杂任务;
  • 能根据历史交互形成一定“记忆”,实现个性化陪伴。

但这也放大了风险:

  • 语言能力越强,用户越容易把机器人视为“懂自己的人”,从而过度信任;
  • 长期存储和分析个人生活数据会极大提高隐私泄露的后果;
  • 若模型更新缺乏严格控制,可能在无意间引入新的偏见或行为模式。

因此,在设计具身智能养老系统时,应坚持:

“用具身智能提升老人的自主与尊严,而不是用技术掩盖照护体系本身的问题。”

【图 12-E】家庭环境中辅助机器人与老年人交互示意图(占位:标注视觉感知、语音/文本对话、行动规划模块,以及家庭成员/护理人员在闭环中的位置)


12.3.3.3 工业自动化与物流

  1. 从固定机器人到“机器人同事”

在工业和物流领域,机器人已经从围栏内的机械臂 发展到与人共享空间的 AMR、人形机器人和协作机械臂:

  • 仓储与配送中心大规模部署 AMR、分拣机械臂、自动装卸设备,显著提升效率与准确率;
  • 在一些国家,引入机器人还与改善工人安全、降低工伤事故 相关。
  • 新兴的人形机器人开始在仓库执行搬运、上下货等任务,作为“通用工人”的候选形态。
  1. 安全与标准化基础

这些场景中的机器人通常需要同时满足多类标准:

  • 生产线上的机械臂遵循 ISO 10218 和 ** ISO/TS 15066**,在协作区域内按规定限制速度和力。
  • 仓库 AMR/AGV 依据 ISO 3691-4 做路径规划、防撞系统和紧急停车设计。
  • 对于人形或多功能机器人,未来可能会综合适用服务机器人、移动机器人和人形机器人新的专用标准。

同时,AI Act 可能会把控制装配线、化工过程或高风险仓储系统的 AI 归类为高风险 AI,要求更严格的合规管理。

  1. VLA 在工业和物流中的角色

在这些场景中,VLA 可以发挥出相当务实的价值:

  • 任务理解与调度:把文本/语音订单(如“从 A 区取 10 箱 B 商品送到打包工位”)转化为一系列机器人可执行的高层和低层任务;
  • 环境理解:通过视觉–语言模型识别货架、托盘、标签和异常情况(破损、遮挡),自动调整计划;
  • 多机器人协作:用语言或符号协议协调多台机器人和人类工人的分工,实现“机器人车队”的高层调度;
  • 人机协作界面:工人可以直接用自然语言调整机器人行为(“你先帮我做 C 订单,这批货比较急”),而不是通过僵硬的终端界面。

但所有这些能力都必须在安全控制层的约束之内

  • AMR 的最高速度和制动性能由 ISO 3691-4 等标准确定;
  • 协作机械臂的接触力上限由 ISO/TS 15066 决定;
  • VLA 只能在这些硬约束之内调度动作,而不能突破它们“自由发挥”。
  1. 社会与劳动力市场影响

在物流与制造领域,机器人带来的影响不仅是效率,还包括:

  • 套用仓储行业的经验:机器人可以接手高强度、重复性和危险的工作(如搬重箱、进出冷库、装卸卡车),减少工伤和人员流失。
  • 在劳动力短缺和人口老龄化严重的地区(如日本),自动化甚至被视为维持供应链运转的必要条件。
  • 同时,岗位结构向更高技能迁移:需要更多机器人运维人员、数据工程师和系统集成工程师。

对具身智能研究者而言,这里隐含着两类机会:

  • 一类是技术机会:如何用 VLA 改善人机协作体验、降低部署门槛;
  • 另一类是制度与社会机会:如何在项目中主动设计培训、岗位转型和参与式决策机制,让机器人真正成为“放大人类能力”的工具,而不是简单的替代品。

【图 12-L】智能仓储中多种机器人与人协作的示意图(占位:包括机械臂、AGV/AMR、人形机器人与工人,标注安全区域和任务分配)


本节从标准、法规到责任、信任与应用场景,描绘了具身智能从“实验室原型”走向“现实世界系统”所必须面对的外部约束。后续章节在讨论更通用的基础模型与长期发展时,可以把这些安全与社会因素视为“边界条件”:真正成功的具身智能,不是只在 benchmark 上得分最高,而是能在复杂社会系统中长期、安全、可持续地运行。