苹果ipad测距仪怎么用 ipad前置摄像头像素

就在今天早晨,苹果发布了iOS/iPadOS 13.4更新,除了常规升级,还有个看似不起眼的更新:加入了ARKit 3.5 。
如果你关注过上周发布的iPad Pro,想必已经能猜到,ARKit 3.5是就是为它的激光雷达准备的 。

从2017年开始,苹果就开始大力推广AR(增强现实),但只有发布会上的MineCraft等游戏展示令人印象深刻,之后鲜有厂商跟进 。曾经开发AR眼镜的Magic Leap也濒临“卖身” 。
AR似乎远远看不到大范围实际应用的那一天,但是iPad Pro激光雷达的出现可能改变这一局面 。
关于ARKit 3.5
在今天更新的ARKit 3.5中,苹果添加了一个新的“场景几何”(Scene Geometry)API,允许开发者使用iPad Pro上激光雷达扫描仪创建房间的3D地图,识别地板、墙壁、天花板、桌椅沙发等 。
能够在5米范围内精准测量物体的长宽高,感知到物体每个平面的方向,甚至还能发现物体之间的遮挡关系,让嵌入在视频的中数字内容与场景更好地融合在一起 。
这让iOS自带的测距仪App体验有了质的飞跃 。
之前的iPad和iPhone都是通过摄像头的景深来感知物体的远近,实际上测距仪的照片中并不包含真正的3D信息 。
用过测距仪的用户都知道,比如我们在测量桌子长度的时候,测距仪的起点和终点很难精准地放置在桌子边缘上 。这使得我们的测量准确度大打折扣 。
iPad Pro上测距仪App因为有了激光雷达的存在,与其他苹果设备有很大的不同 。
而配备了激光雷达的iPad Pro当它到达要测量的桌子等物体的末端时,能够自动识别边缘 。
△图片转自魏布斯视频
而且如果你走得更近,则会在屏幕上展示更多细节,比如自动显示的新标尺视图 。
△图片转自魏布斯视频
数码评测达人魏布斯在他的评测视频中对iPad Pro的激光雷达有详细的介绍 。
尽管苹果没有特别提及,但激光雷达也将改善相机拍摄效果,今后在采用人像模式时,背景虚化也会更加精准 。
iPad上的激光雷达
激光雷达之前已经广泛用在自动驾驶汽车上,用于物体的3D成像 。苹果的自动驾驶秘密项目Titan Project也用过激光雷达 。
苹果在2017年发表的一篇研究论文详细介绍了自动驾驶汽车上的3D对象识别系统 。该系统利用了激光雷达的深度图,与神经网络结合起来,大大提高了自动驾驶汽车识别环境的能力 。
如今苹果的自动驾驶汽车计划已搁浅,但激光雷达却被用在了移动设备上 。
那么iPad Pro上的这颗激光雷达有何特别之处呢?
iPad Pro上的这颗LiDAR本质上是一颗飞行时间传感器(ToF) 。ToF现在被各大手机厂商用在相机的对焦上 。
但苹果使用的ToF与其他厂商不同,它是一颗真正根据飞行时间计算距离的传感器dToF 。
其他厂商都是根据相位差,利用发射光线和反射回的光线之间的相位干涉来判断时间和距离 。
而是更具发射光子反射回来的时间差来计算距离,这颗ToF能以纳秒(十亿分之一秒)速度运行,精度更高、能耗更低 。正是这个传感器的出现让AR应用成为可能 。
用iPad拍摄照片看起来相当笨拙,但是今年的iPhone可能配备激光雷达,如果苹果的AR眼镜计划付诸实践,那么未来的苹果AR眼镜也一定会有激光雷达相助 。
【苹果ipad测距仪怎么用 ipad前置摄像头像素】令人高兴的是,外媒AppleInsider爆料称,iOS 14的代码中显示今年的iPhone会加入激光雷达 。只是iPhone背后的三摄排列似乎没有给激光雷达留下足够的空间,难道iPhone的摄像头布局还要改吗?