I/O 2021:谷歌升级Android增强现实API 带来更具沉浸感的使用体验
作为谷歌力推的增强现实平台,ARCore 已在全球超过 8.5 亿部 Android 智能机上得到采用。而在今天开幕的 I/O 2021 开发者大会期间,这家科技巨头又宣布了 ARCore 的一些重要功能升级。据悉,与需要专门硬件的 Project Tango 等项目不同,ARCore 可借助手机现有的硬件和传感器来收集深度、光线、以及运动追踪等信息,以帮助开发者构建交互式的 AR 体验。https://p3.toutiaoimg.com/large/pgc-image/SXq6cezEelw6Pc
自发布以来,Google 一直在稳步改进 ARCore 的功能集合,且不断突破了 AR 应用程序开发者可在常规 Android 智能机硬件平台上实现相关功能的局限性。
比如去年发布的 ARCore Depth API,就允许开发者借助 RGB 相机传感器来生成深度图,并带来逼真的 AR 体验。
https://p3.toutiaoimg.com/large/pgc-image/SXq6cfSGiGJGML
今天,该公司又在 ARCore 的武器库中添加了两款新工具,分别是原始深度(Raw Depth)和录制与回放(Recording and Playback)API 。
前者建立在此前的 Depth API 基础上,可通过深度信息与对应的信心图像映射,来提供有关周围环境物体的更详细表述。
深度 API 专注于生成具有所欲像素深度估值的平滑深度图,而 Raw Depth 旨在利用提供每个像素深度估值的置信度图像,来捕获更加逼真的深度图。
https://p6.toutiaoimg.com/large/pgc-image/SXq6cgWGch0bJW
ARCore Raw DepthAPI
另一项改进是命中测试,其现使用深度(而不是平面)图。即使在非平面和低纹理的地板上,也能够提供更多的 hit-test 结果。
比如 TeamViewer 的 LifeAR 应用程序,就利用了深度命中测试方案,将 AR 功能集成到了视频通话应用场景中。
这些新改进无需借助飞行时间(ToF)之类的专用传感器硬件,因而能够在绝大多数获得 ARCore 认证的设备上实现,感兴趣的开发者可于即日起上手体验。
https://p3.toutiaoimg.com/large/pgc-image/SXq6ciVHltrOGw
ARCore Recording and PlaybackAPI
然后是 ARCore 新迎来的录制与回放 API,该应用程序接口为需要测试不同 AR 体验的开发者们提供了更大的灵活性。
通常情况下,AR 开发者必须在特定的环境和位置下开展持续测试。但在新 API 的帮助下,开发者现能够采取包括深度和 IMU 运动传感器信息等在内的 AR 元数据。
通过重用这些视频素材,开发者能够方便地在相同环境中展开进一步测试。只需一次录制,即可将之用于测试其它 AR 效果和体验的模板,而无需每次都拍摄新的素材。
举个例子,滴滴打车(Didi-Rider)就利用了该 API 来构建和测试基于 AR 的虚拟标识指引功能。这不仅帮助该公司节省了 25% 的研发费用,还将开发周期缩短了六个月。
对于最终用户来说,该 API 还能带来新颖的 AR 体验。比如能够将之前录制的视频提交给 AR 特效应用程序,而无需呆呆站在同一位置并启用实时的摄像头会话。 这个高德上就有啊
页:
[1]