Apple 苹果完善AR和VR头显的视频压缩和触觉反馈功能
苹果正在继续开发和完善 "苹果眼镜 "等头戴式设备的技术,包括视频压缩方法和方向性触觉反馈 。据悉苹果正在研发两款不同的头显,包括一款利用苹果VR技术的混合现实头戴式设备和上述的苹果AR设备 。周二,苹果获得了两项专利,可以适用于这两种头显 。
访问:
苹果在线商店(中国)
在第一项名为 "具有方向性触觉输出的电子设备 "的专利中,苹果概述了一种可以 "相对于设备外壳表面(如侧壁表面或其他设备表面)的给定方向提供触觉反馈的方法 。首先,苹果概述了触觉反馈的一些问题,包括输出太弱或提供不想要的感觉 。此外,它还表示,一些系统可能提供的触觉输出并没有应用到用户身体的适当位置 。苹果还指出,触觉输出设备可能过于笨重 。
虽然看起来苹果这项专利所述的技术并不是专门针对头显,但苹果也指出,该系统的操作方法可以同时使用头戴式设备和手机 。该方法将包括一个运动传感器收集用户输入,以相对于显示屏中的其他虚拟对象移动一个虚拟对象 。当用户施加一定的力或物体与周围其他虚拟物体互动时,系统将应用方向性反馈,提供对便携式电子设备进一步移动的阻力感 。
【Apple|苹果完善AR和VR头显的视频压缩和触觉反馈功能】第二项名为 "视频压缩方法和设备 "的专利更清晰地概述了一种头戴式设备的方法 。这项专利的重点是基于 "包括头戴式显示器和基站的混合现实系统 "的系统 。苹果在专利当中表示,头显传感器套件收集的数据可以通过有线或无线连接传输到基站 。
渲染引擎地根据传感器信息渲染包括虚拟内容的帧,编码器在通过连接将帧发送到头显之前,根据编码协议对帧进行压缩 。在编码器中不是使用之前的帧来估计运动矢量,而是将头显和渲染引擎的运动矢量输入到编码器中,并用于压缩帧 。
视频压缩将是头戴式设备的重要组成部分,尤其是有传言称它们将使用一套摄像头和超高分辨率8K显示屏进行视频输出 。苹果在这里概述的系统设想了一种方法,可以减少在基站上对渲染帧进行编码后再传输到头显的时间 。
此外,苹果还指出,可能会有一些特定的帧没有正确地传输到头显的时候 。在这些情况下,苹果表示,AR或VR设备 可能会使用运动矢量从上一帧中合成一帧 。确保视频输出的流畅性 。这些特定的帧既可以是用户的实际周围环境,也可以是任何数量的虚拟物体和动画 。两者结合在一起,就能提供一种混合现实或MR的效果 。
苹果每周都会提交大量的专利,其中描述的许多技术最终都不会出现在消费产品中 。专利和专利申请也没有说明某项功能或系统何时可能会进入市场 。
文章图片
推荐阅读
- Apple iOS 14.7 Beta 2曝出“SIM卡失败”Bug 测试人员应避开该版本
- Huawei 华为正式发布HarmonyOS操作系统 央视:打破了苹果、谷歌的垄断
- Google Google拟加强Android用户隐私保护并与苹果抗衡
- Apple iPhone 13将全系标配LiDAR传感器 两款Pro型号最高容量1TB
- Apple Wedbush证券分析师:14/16吋MacBook Pro将亮相今年WWDC
- 最新消息 Zeta拟美股上市:创始人为前苹果CEO 曾将乔布斯赶出家门
- Google 苹果联合创始人沃兹尼亚克在起诉YouTube的官司中败诉
- Apple 内部邮件揭示苹果曾考虑推出Mac平板电脑和15英寸MacBook Air
- 社交 增强同苹果iMessage竞争力 Facebook推出一系列企业通信工具
- Apple Apple Watch用户不会频繁找医生 但更可能接受心脏病诊疗介入
