伴随着不久前的Iphone 12系列的的发布,激光雷达这个词再一次频发的出现在社交平台和公众号文章中,而上次则是半年前的iPad Pro 2020发布时。那么今天阿飞就大家来了解下这颗激光雷达到底是能干什么?
首先激光激光雷达扫描仪简称LiDAR,可以理解为雷达的轻型版本发现不可见光线检测和测距 并测量需要多少时间,达到目标后向后反射,计算不同物体和相机镜头之间的j距离。
就好像回声一样,本质上光的原理也是相同的。通过Ios14的机器学习和深度框架。
Iphone会了解周围的世界,并建立精确深度图。
简单的来说激光雷达功能就是:测距。而测距功能可集成到AR应用中,还可以用于优化拍照、甚至3D扫描等。
比如说进行对象和房间扫描,深度的照片和视频效果以及AR物体坐标的精准定位。激光雷达是Iphone12Pro提供实时AR在应用程序中提供了无限的可能.
AR应用
凭借激光雷达快速测距特性,可让设备快速进入AR应用环境,减少等待时间;同时由于激光雷达更精准的测距表现,可以让AR应用虚实结合更逼真,提供更良好的遮挡表现等等;
随着iPhone 12 Pro发布,Snap今天正式宣布旗下内容创作平台Snap Lenses 3.2版本正式兼容LiDAR模组,创作者可充分利用LiDAR创作出更身临其境的AR体验基于LiDAR、ARKit 3.5的能力,Snapchat可理解网格化的场景,理解环境中的对象几何性状,甚至理解场景的含义。基于这些理解能力,提升AR体验效果,例如光线投射功能,遮挡等。
Snap前不久还宣布在伦敦进行了一场大型多人LBS AR活动:City Painter,进入特定地点后即可在AR场景街道上进行涂鸦、装饰等,支持多人交互,玩法有趣。
据了解,这场LBS AR活动是Snap基于全景的街景图像来建模,它基于AI算法将大量2D图像或全景图像重建成3D点云,以此来实现对立体空间的识别和建模。
由于LiDAR这种纳秒级的场景定位能力结合A系列处理强大的性能,未来的AR可以同时放置多达1000个虚拟物体,这为未来大型LBS体验提供了必要基础。
优化拍照
优化拍照实际上是广大消费者最为看重的一个功能,iPhone 12 Pro中LiDAR发挥的作用是:助激光雷达在黑暗中的可视化能力经理用于相机自动对焦 和弱光下场景提高对焦精度和减少场景捕获时间实现快速对焦。
基于高精度的测距, 提升人像和黑暗环境拍照。这点比较容易理解,由于可以理解环境深度,就可提升低光环境的自动对焦速度(宣称最大提升6倍),开始支持夜间人像模式,可以更清晰的获得人物轮廓等。
最为明显的使用就是Iphone上的额测距仪 能够快速的计算不同物体表面的距离,简直太好用,并且借助一些软件可以实现工程数据的快速绘图,快速实时建模后可以快速进行模型数据的编辑。比如家居软件放个桌子椅子。不同于以往的AR软件,这个雷达扫描仪能把你的房间模型重建出来,可以贴着墙,平放在桌子上等等,手机能更好的理解所在的房间,能够从选来的几周的建模减少为几小时。
AppleGlasses
当然Iphone的雷达扫描仪小编更多看到的是硬件上的准备为以后的AppleGlasses 做准备。
借助这种技术,你带上AR眼镜或头盔后,电脑将会自动辨认和注释你的兴趣点,将你需要的虚拟信息叠加到真实环境视图之上。
闭上眼,简单想象一下,你戴着一个AR头盔或眼镜,眼前会自动浮现出你面前感兴趣对象的各种信息,例如名称、属性、周边优惠、公交信息等等。
通过眼镜与现实增强信息进行互动:你可以凭空使用手势来查阅或是删除这些信息,更好地将虚拟内容与现实世界无缝叠加,实现超越现实的感官体验。
最终将呈现出《三体》中的未来世界图景:那时,一个个信息图标将在人们的身边川流不息,与你有关的消息,将跟随你、环绕你。你可以推开它们,或点开它们。
就像苹果CEO所说的:“我相信未来人们每天都会用到AR,它会像一日三餐一样必不可少。”