谷歌Pixel产品经理Brandon Barbero认为,Motion Sense本质上提供了三种类型的交互模式,这让我们明白了为什么每个应用场景对于提升Pixel 4的整体体验都非常重要。因此,谷歌认为,Motion Sense不仅是新技术的展示,也绝对不仅仅是噱头。
首先,第一个应用场景是存在意识。当Pixel在桌面上放置4次时,其内置的Soli雷达芯片将在手机周围创建一个半径为60英里的感应区域。该雷达将始终“盯着”用户,以确保它是否在附近。如果它感觉到用户不在身边,它会自动关闭屏幕上的所有内容。
第二个应用场景是到达感知,这也是一个有趣的功能:Pixel 4会监控你是否已经伸手拿手机,如果已经够到了,Pixel 4会快速打开屏幕,激活人脸解锁传感器。如果闹钟或来电响起,当我们伸手拿手机时,Pixel 4会自动静音。
最后一个场景是运动控制,分为两种类型。首先,我们可以快速挥动手掌,直接取消拒接电话或闹钟午睡。你也可以左右摇摆来控制前一首歌和下一首歌。我们可以在未来做一些更具体的操作,但谷歌暂时不会向第三方开发这个开放的手势控制API。
事实上,上述大多数功能已经可以通过其他类型的传感器来实现,例如,我们也可以通过摄像头来实现运动传感功能。当我们拿起一部iPhone时,内置的加速计会感应到这一点,并开始激活Face ID。所以我们不禁要问:如果谷歌用全新的雷达传感器让同样的操作体验变得更好?用户如何才能真正注意到这些新功能?
巴伯罗说:“这并不是说我们会注意到它有多好。正是因为它的性能好,所以不太容易引起注意。大家都会觉得应该是这样的。”
但是,谷歌必须同时解决一些技术问题,这样雷达传感器才能在这样微妙的命令下更好地工作。在项目开发的最后,Poupyrev承认他的团队不得不放弃原来的机器学习模型,从零开始。“在最后一刻,我们必须重新开始,重新定义每一项功能。我们必须从零开始发展,毕竟这和我们传统印象中的巨大雷达不一样。”
Poupyrev说:“在我看来,将这项新技术应用到手机上简直就是一个工程奇迹。”因此,虽然理论上Soli项目可以探测到任何目标,从蝴蝶翅膀到墙后7米站立的人,但实际上,该系统需要更多的改进和训练才能实现这样的目标。
然而,谷歌仍然限制了Motion Sense可以做的事情,因为谷歌正在创造一种全新的交互语言,它从一开始就限制了它所识别的东西。否则,未来影响识别精度的不确定因素太多。
比如在播放音乐的时候,我们可以在手机上方挥动手掌,向前或向后播放歌曲。“怎么挥手?”Poupyrev说。“我们花了几周时间试图解决正确挥手识别的问题。毕竟,不同的人用不同的方式挥动手掌。有些人挥了很多,有些人挥了一点。有的人手心向上,有的人是平的,所以都需要更多的模特训练。
如果谷歌能向我们展示操作过程,解释挥手时的具体姿势,那么问题就来了,会给人一种过于程式化的感觉,这不是谷歌想要的。像素4需要能够应对各种情况。
谷歌甚至需要理解“向左滑动”和“向右滑动”的不同含义。实际上,每个人都没有相同的控制方法。不同的人会根据自己的思维模式进行操作,有不同的方向和角度,指的是我们实际互动的过程,而不仅仅是动动手。谷歌必须为那些更喜欢翻转手掌的人提供设置偏好。
我一直在想,这些都不是必不可少的功能,但大部分都是噱头。我真的需要手机使用手势半秒后才能直接操作吗?直接按屏幕有那么难吗?
事实并非如此。谷歌预计这项技术不会给所有用户带来太大的改变,但该系统可以提供更好、更无缝的操作体验。Poupyrev指出,许多人更喜欢使用自动回复按钮,而不是手动输入文本。他认为,归根结底,能够成功的技术是那些最容易使用的技术。“一切就这么简单,只要扫除一点障碍,人们就会越来越习惯使用这项技术。”
如果你只是看到“它能为我们做什么”,Poupyrev的意思是它就像一把“电动牙刷”。这项技术的重点不是带来更多新功能,而是提升交互体验。
当然,有些功能只是好玩。除了教程《神奇宝贝》,谷歌还在Pixel4中搭建了壁纸,可以用手势与我们互动。还有一款和UsTwo合作开发的游戏。不过,巴伯罗表示,大部分都是为了让设备的核心功能使用得更自然。