本文由腾讯数码独家发布
在昨天结束的谷歌新产品发布会上,相信大家已经注意到了刚刚出现的Pixel 4和Pixel 4 XL最大的亮点,就是内置了一个微型雷达芯片。这种新的雷达可以让我们使用挥手或滑动等手势来分离空像素4。更重要的是,谷歌所谓的“动态感知”功能也可以用来检测用户即将到来的动作状态,判断用户是否想要操作智能手机。其实Pixel 4的这项技术来源于2015年首次公开展示的Soli项目,Pixel 4成为这项技术的第一个商业载体。虽然很多人认为这个手势控制功能更有意义,但Google还是向我们展示了这项技术背后更大的潜力。
事实上,每出现一种新的计算接口技术,都会面临类似的情况。当初,鼠标和触摸屏的出现引发了计算领域的一场巨大革命,所以我们今天已经习惯的鼠标也是创新精神的代表。当苹果首席执行官蒂姆·库克展示苹果手表的数字皇冠时,他也标榜这是一项与鼠标一样重要的创新。
好在谷歌没有给Pixel 4的Motion Sense这么高的地位,确实需要面对类似的问题。当这项技术问世时,运动感觉能做什么和它实际能做什么之间有着巨大的差距。理论上,在手机上安装雷达传感器从来没有发生过。所以很多人把这当成噱头。
Google Pixel产品经理布兰登·巴尔贝罗(Brandon Barbello)表示,Motion Sense本质上提供了三种类型的交互模式,这让我们明白了为什么每个应用场景对于增强Pixel 4的整体体验非常重要。所以谷歌认为,Motion Sense不仅仅是新技术的展示,也绝对不仅仅是噱头。
首先,第一个应用场景是存在意识。当Pixel在桌子上放置4次时,其内置的Soli雷达芯片会在手机周围创建一个半径为60英里的感应区域(只有当前屏幕朝上或朝外时才会打开)。该雷达将始终“盯着”用户,以确保它是否在附近。如果它感觉到用户不在身边,它会自动关闭屏幕上的所有内容。
第二个应用场景是到达感知,这也是一个有趣的功能:Pixel 4会监控你是否已经伸手拿手机,如果是,Pixel 4会快速打开屏幕,激活人脸解锁传感器。如果闹钟或来电响起,当我们伸手拿手机时,Pixel 4会自动静音。
最后一个场景是运动控制,分为两种。首先,我们可以快速的挥动手掌,直接取消拒接电话或者闹钟午睡。还可以左右挥舞来控制音乐的前一首和下一首。我们以后可以做一些更具体的操作,但是Google暂时不会向第三方开发这个开放的手势控制API。
事实上,上述大部分功能已经可以通过其他类型的传感器实现,例如,我们也可以通过摄像头实现运动传感功能。当我们拿起一部苹果手机时,内置的加速度计会感应到这一点,并开始激活Face ID。所以我们不禁要问:如果谷歌用全新的雷达传感器让同样的操作体验更好?用户如何才能真正注意到这些新功能?
巴伯罗说:“这并不是说我们会注意到它有多好。正是因为它的性能好,所以不太容易引起注意。大家都会觉得应该是这样。”
谷歌ATAP开发工程总监伊万·普派列夫(Ivan Poupyrev)表示,从技术上来说,用户应该更喜欢通过雷达芯片而不是摄像头进行这种操作。首先,雷达传感器消耗的能量比照相机少得多。另一方面,雷达不是摄像头,不能用来识别身份,所以不需要担心隐私。Poupyrev说:“如果你看过电视上的雷达信号,你就知道它不具备识别目标身份和特征的能力。”
Soli项目技术也不需要像相机一样固定的视线,甚至可以通过其他材料达到目的。原则上,当我们把手机面朝下或放在背包里时,相机就不起作用了。但理论上,Soli项目即使在七米的距离也能工作(但会消耗更多的电能)。
但是Project Soli已经在Pixel 4上定制了Motion Sense,这个功能在启动的时候会受到更多的限制,但是这个限制并不严格。巴尔贝罗说:“我们可以像蝴蝶翅膀一样准确地感知运动,至少在理论上是这样。就在三年前,当Poupyrev第一次向我展示Soli项目技术时,我能够用拇指和手指通过智能手表上方最轻微的移动来转动虚拟表盘。”
但是谷歌必须同时解决一些技术问题,这样雷达传感器才能在这样细微的命令下更好的工作。在项目开发的最后,Poupyrev承认他的团队不得不放弃原来的机器学习模型,从零开始。“在最后一刻,我们必须重新开始,重新定义每一项功能。一定要从零开始发展,毕竟和我们传统印象中的巨大雷达不一样。”
Poupyrev说:“在我看来,把这项新技术应用到手机上简直是工程奇迹。”所以,虽然理论上Soli项目可以探测到任何目标,从蝴蝶翅膀到墙后7米站着的人,但实际上系统需要更多的改进和训练才能达到这样的目标。
但是谷歌还是限制了Motion Sense可以做的事情,因为谷歌在创造一种全新的交互语言,它从一开始就限制了它所识别的东西。不然以后影响识别准确率的不确定因素太多了。
比如在播放音乐的时候,我们可以在手机上方挥动手掌,向前或向后播放歌曲。“怎么挥手?”Poupyrev说。“我们花了几周时间试图解决正确挥手识别的问题。毕竟不同的人挥动手掌的方式不同。有的人浪大,有的人浪小。有的人手心向上,有的人是平的,都需要更多的模特训练。
如果谷歌能给我们展示操作流程,解释挥手时的具体姿势,那么问题就来了,会给人一种太程式化的感觉,这不是谷歌想要的。像素4需要能够应对各种情况。
谷歌甚至需要理解“向左滑动”和“向右滑动”的不同含义。其实不是每个人都有同样的控制方法。不同的人会根据自己的思维模式进行操作,方向和角度不同,指的是我们实际互动的过程,而不仅仅是动动手。谷歌必须为那些更喜欢翻转手掌的人提供设置偏好。
我一直在想,这些都不是必不可少的功能,但大部分都是噱头。真的需要手机用手势半秒后才能直接操作?直接按屏幕有那么难吗?
事实并非如此。Google并不指望这项技术会给所有用户带来多大的改变,但是系统可以提供更好更无缝的运营体验。Poupyrev指出,许多人更喜欢使用自动回复按钮,而不是手动输入文本。他认为,归根结底,能够成功的技术是那些最容易使用的技术。“一切就这么简单,去掉一点障碍,人们就会越来越习惯使用这项技术。”
如果你只是看到“它能为我们做什么”,Poupyrev的意思是它就像一把“电动牙刷”。这项技术的重点不是带来更多的新功能,而是提高交互体验。
当然有些功能只是好玩。除了教程《神奇宝贝》,谷歌还在Pixel4中建立了壁纸,可以用手势和我们互动。还有一款和UsTwo合作开发的游戏。不过巴伯罗表示,大部分都是为了让设备的核心功能使用得更自然。
1.《soli 一起来了解Pixel 4面部识别和动作控制背后的Soli技术究竟是什么》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《soli 一起来了解Pixel 4面部识别和动作控制背后的Soli技术究竟是什么》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/keji/1571791.html