早上赶地铁,手揣在口袋里,手机响了。你想切首歌,但不想掏出来——这时候要是能隔空一划就换歌,是不是挺爽?这种场景现在听起来像科幻片,可随着技术推进,隔空触摸正悄悄从实验室往我们生活里钻。
\n\n什么是隔空触摸
\n简单说,就是不用真正碰到屏幕,靠手势、雷达、摄像头甚至超声波来识别你的动作,完成点击、滑动、缩放等操作。比如你抬手挥一下,电脑就翻页;手指在空中画个圈,音量就调高了。
\n\n谷歌的Project Soli芯片就是个典型例子,它用微型雷达捕捉手指微动,已经用在Pixel 4的主动感测功能上。虽然那代手机没主推这功能,但技术底子留了下来。现在一些车载系统也开始用类似方案,开车时手不离方向盘就能调空调。
\n\n开发工具跟上了吗
\n开发者想做隔空交互,不是只能从零造轮子。Leap Motion虽然消费版停了,但它的SDK还在被不少VR项目使用。Unity和Unreal引擎都支持接入手势识别插件,配合Intel RealSense或Azure Kinect这类深度摄像头,开发原型比五年前快多了。
\n\n拿Unity举个例,你可以这样接入手势事件:
\n<using Leap;>\n<public class HandGestureDetector : MonoBehaviour {>\n< private Controller leapController;>\n\n< void Start() {>\n< leapController = new Controller();>\n< }>\n\n< void Update() {>\n< Frame frame = leapController.Frame();>\n< if (frame.Hands.Count > 0) {>\n< // 检测挥手手势&g<|endoftext|>Can you continue from where it was cut off?