为什么EyeSight显示屏看起来如此不稳定?
从左到右依次为:生成脸部、分割及插入、渲染在Eyesight显示屏上、通过透镜层、通过第二层镜头、3D立体输出
Apple 希望实现一些非常具体的目标:可以动起来的、带有眼睛的3D 立体脸部。为了实现这一目标,他们必须做出非常策略性的设计选择和妥协。
人类的大脑对面孔和表情非常敏感,其中一部分原因是深度感知。苹果需要创造可信的 3D 效果。3D 渲染看起来不像真正的 3D 的原因之一是它们缺乏立体效果。为了让事物看起来像 3D,我们需要用每只眼睛看到略有不同的图像。Vision Pro 通过双凸透镜解决了这个问题。
当从不同角度观看时,双凸透镜会显示不同的图像。你可以使用此效果来模拟一个动作的两帧运动。或者,你可以使用同一物体的不同角度的图像创建立体3D 效果。
Vision Pro 的外部 OLED 面板顶部有一个光栅层。VisionOS 渲染多个面部图像(将它们称为 A 和 B),将它们分割,并从一个服务于你左眼的角度显示 A,从另一个服务于你右眼的角度显示 B。这通过立体效果创建了 3D 脸部。这些角度很小,而且数量众多,需要一台显微镜你才能真正理解我们的意思。
这种方法其实包含了一些妥协。如果要在多个图像中进行划分的话,水平分辨率会显著降低。例如,如果两个图像显示在2000 像素宽的显示器上,则每个图像只有 1000 个水平像素可以使用。即使我们不知道显示器的分辨率,也不知道交织的图像数量,分辨率也必然会降低。这就是EyeSight 看起来模糊的主要原因。
透镜层前面是另一个塑料透镜层,具有类似的透镜脊。该层似乎将投影的面部拉伸到足以适合 Vision Pro 的宽度。移除这层透镜并启动 Pro 会看到一些受过挤压的变形的眼睛。
此外,镜头可能会限制有效视角。将效果限制在 Vision Pro 的正前方,可以限制你在极端角度可能看到的伪影,有点像隐私滤镜。缺点是你要通过另一层镜头传递已经复杂、模糊的图像。这使得它变得更加模糊和黑暗。
镜头插件、立体显示器