iPhone的前置单摄像头是如何记录景深信息并拍摄人像模式照片的?
- 发布时间: 2020-12-5
当你查看苹果的支持页面时,你会发现iPhone 8不支持的人像模式,新iPhone SE支持——即使两者只有一个后镜头,规格完全一样。
一般情况下,用手机拍摄“人像模式”这样的模糊照片,都要通过双镜头来完成——就像人眼一样,两个不同位置的镜头会得到两个不同角度的图片,然后根据视角差来估计景深,从而实现背景模糊,保持被摄对象清晰。现在名单上的Plus系列,或者是X,XS,11这几年基本都是靠多摄像头系统来完成人像模糊拍摄。
那么,iPhone的前置摄像头是如何解决的呢?核心在于Face ID系统中的红外点阵投影仪,它也能获得精确的深度数据,相当于一个“辅助镜头”。
至于新iPhone SE,由于传感器太旧,无法依靠传感器获取视差图,基本上只能依靠A13仿生芯片提供的机器学习算法来模拟生成深度数据图。
新iPhone SE实现的虚拟人像拍照是单个拍照手机通过软件优化可以达到的极限。严格来说,这其实是由于A13芯片。如果没有带来最新的机器学习算法,SE的拍摄体验显然要用过时的相机对折了。
这在一定程度上证明了智能手机开发多摄像头系统还是有意义的。我们可以利用超广角来拓宽视野,通过长焦可以获得无损变焦的照片,更不用说ToF、Lidar等“特殊镜头”对ar增强现实检测的帮助。这些都不是只有OTA升级或者算法才能实现的特性。