随着用于增强现实和虚拟现实的商用头戴式显示器的普及,以自我为中心的3D交互技术又重新兴起。其中,一系列的技术允许用户在三维环境中移动,并通过控制器直接操纵虚拟场景中的对象。例如在《Blocks》中,将双面调色板接到用户非支配手的控制器,支配手的控制器则可用于选择。又如,《Tilt Brush》将具有多层UI控件的虚拟棱镜锚定到非主控制器,主控制器则可用于滚动浏览。
各种技术都会提供这种“调色板+笔刷”的范式,允许用户利用自己的本体感在3D空间中定位自己的非支配手,同时无需显式搜索菜单。所以,本体感创造了一个参照系,减少了寻找调色板所需的视觉和心理努力。这种技术利用双手的不对称性来将任务流中断情况降到最低,这样每次选择调色板时,用户的注意力就不会从主要任务转移。
根据这一观察,专注于发明人机交互未来的Chatham Labs和Facebook Reality Labs的研究人员进一步探索了非对称双手交互技术。随着应用程序复杂性的增长和人体追踪技术的成熟,团队设想UI控件布局的设计将会从手周围的空间(手锚定UI)迁移到手臂周围的空间(臂锚定UI)。
团队指出,包裹在非支配臂周围的3D调色板可以为用户提供更大的工作空间,同时允许其利用双手交互和本体感的好处。团队进一步评估了手臂锚定UI控件的好处。在一个跑步场景中,跑步应用程序可以在用户手臂的一侧显示当前进度,而音乐应用程序可以在同一手臂的另一侧显示当前播放列表。这样,用户能够通过旋转前臂来快速浏览不同的应用程序。用户同时可以使用前臂的滑动手势调用函数,如暂停音乐。所述例子展示了利用用户对手臂的本体感而在3D环境中部署手臂锚定UI控件的潜在有用性。