1.3.2

Meta(Neural Band · Horizon OS · Quest)


Meta 的手势交互战略以腕部 sEMG(表面肌电图)为核心技术路线。2019 年收购 CTRL Labs 后,Reality Labs 历经六年研发,于 2025 年 9 月发布 Meta Neural Band——迄今首款面向消费者的高带宽神经运动接口产品,与 Ray-Ban Display AI 眼镜捆绑销售,定价 799 美元,在 Nature(2025)发表同行评审论文。

硬件架构

组件规格作用
sEMG 电极阵列16 通道,金刚石碳(DLC)镀层采集腕部肌肉微弱生物电信号(μV 量级)
外壳材料Vectran 编织网格(同款用于火星探测器着陆气囊)结构强度与佩戴舒适性
尺寸 / 防水S/M/L 三档,IPX7适配不同腕围,支持日常水洗
续航 / 通信18 小时,蓝牙低能耗on-device ML 本地推理,原始数据不离开设备

核心技术突破:跨用户零校准

此前 sEMG 接口最大的工程瓶颈是跨用户泛化困难——不同人的肌肉结构、皮肤阻抗差异显著,模型必须针对每位用户单独校准。Meta 基于近 20 万名参与者的数据训练深度学习模型,实现了开箱即用的跨用户泛化。对高精度任务(手写输入),少量个人化数据可将识别准确率进一步提升约 16%,系统随使用时间自我优化。sEMG 信号还具有超前于可见运动的特性,理论上实现预判式响应。

消费版四大核心手势

手势动作触发方式主要场景
Click拇指轻敲中指单击 / 双击确认选择、切换显示开关、返回主菜单
Swipe拇指侧向滑动左划 / 右划翻页导航、内容切换、时间线浏览
Menu食指向内侧划单次滑动调出系统菜单、快捷功能面板
Volume拇指食指捏合滑动上下滑动音量/亮度调节、数值连续控制

手势设计遵循"腕部优先"原则:手可置于身侧、口袋或膝盖,无需举起,无语音、无物理声响,适用于会议、公共场所等静默场景。Meta 同时规划 2025 年 12 月引入手写识别功能(约 20.9 词/分钟),实现 AR 场景下的无设备文字输入。

生态扩展

  • AR 眼镜:Neural Band 首发与 Ray-Ban Display AI 眼镜捆绑,二者构成完整输入-输出闭环;Orion 完整 AR 原型同样以神经腕带为核心输入
  • VR/MR:Quest SDK 已引入 microgestures(拇指滑动指尖),sEMG 手势能力正式进入 VR 开发者生态
  • 车载与智能家居:CES 2026 联合 Garmin 演示神经腕带控制车载信息娱乐系统;同期探索控制智能音箱、门锁等家居设备
  • 无障碍:开放超 100 小时 sEMG 数据集;脊髓损伤患者通过残余肌肉信号操控设备(与卡内基梅隆大学合作)
Meta 可穿戴手势交互框架 · sEMG 腕带 · 四层架构 · 设计六大原则 独立窗口 ↗
Meta 手势框架

sEMG 的结构性优势:无视野依赖(手离摄像头视野仍有效);信号超前于运动(预判式响应);隐私架构(不采集声音/图像,原始数据本地处理)。这三点是 sEMG 相对摄像头方案、语音方案的不可替代差异。