1.3.1

Apple(watchOS · visionOS · AirPods)


苹果将可穿戴手势统一在空间交互(Spatial Interaction)框架下,核心设计哲学是"用最小的肢体动作,触发最符合情境的主要操作"。从 Apple Watch 到 Vision Pro 再到 AirPods,三条产品线构成从腕部到空间再到听觉的完整手势覆盖,并遵循统一的跨设备语义原则。

Apple Watch — 三层手势体系

层级手势类型代表动作传感方式
基础触控层 单击 / 上下左右滑动 / 长按 / 捂屏静音 抬腕亮屏、右滑返回、捂屏快速静音 电容触摸屏 + 加速度计
Double Tap 层 拇指与食指快速轻叩两次 接听/挂断电话、播放/暂停、推迟闹钟、打开 Smart Stack 加速度计 + 陀螺仪 + 光学心率 + Neural Engine(watchOS 10.1+,Series 9/Ultra 2)
AssistiveTouch 层 握拳 / 双握拳 / 手指轻触 / 腕部动作指针 唤起辅助菜单、全功能导航(无需触屏) IMU 融合 + 机器学习(无障碍独立层)

Double Tap 的技术实现依赖 Neural Engine 融合三路传感器数据:食指与拇指碰触时,加速度计检测腕部细微运动,陀螺仪捕捉角速度变化,光学心率传感器识别血流变化特征组合。watchOS 11 将 Double Tap 扩展至滚动列表和垂直分页标签切换。

Vision Pro — 眼手协同交互

Vision Pro 构建了"目光定位 + 手势触发"双因子模型:眼睛充当主指针(视线注视高亮目标),手势动作作为执行触发器(捏合确认)。这一设计将传统空间手势的"Gorilla Arm"问题彻底规避——手可自然垂放于腿上或身侧。核心手势包括:

手势动作描述功能
Pinch(捏合)拇指 + 食指相触点击 / 选择
Pinch + Drag捏合后拖动移动 / 重定位窗口
Pinch + Expand双手捏合后张开放大内容
Pinch + Rotate双手捏合并旋转旋转虚拟对象
Look Up视线朝上看打开控制中心

12 颗摄像头阵列 + R1 专用芯片支撑全方位手部追踪,LiDAR 提供精准 z 轴深度定位,红外眼动追踪传感器精度达亚角度级。

AirPods Pro — 听觉场景头部手势

iOS 18 为 AirPods Pro 2 引入头部手势识别:点头(加速度计检测前后运动)接受来电 / 确认 Siri;摇头(陀螺仪检测左右运动)拒绝来电 / 忽略通知。这是听觉可穿戴领域动作交互的开创性探索,开辟了"无手操作"的第三交互形态。

技术前沿:EMBridge 与下一代 EMG 形态

苹果机器学习研究团队公开发表的 EMBridge 框架,是首个通过跨模态表示学习实现 EMG 零样本手势分类的方案——用户无需为每个新手势录制训练样本即可识别未见过的动作。结合行业传闻的 Apple Ring,苹果下一个手势交互载体可能将微型 IMU 与 EMG 传感器集成于戒指形态,配合 iPhone / Vision Pro 作为主显示端,实现比手表更精细的手指动作识别。

Apple 可穿戴手势交互框架 · 设备覆盖 · 设计原则 · 技术演进路线 独立窗口 ↗
Apple 手势框架

核心设计哲学:跨设备手势语义一致(Watch Double Tap 与 Vision Pro Pinch 共享"执行主要操作"语义);情境自适应(同一 Double Tap 在不同 App 绑定不同主操作);AssistiveTouch 无障碍层独立运行,不与标准交互冲突。