iPhone 11 1200万像素为何拍照更出色?怎么拍?

发布时间:2020年09月29日 阅读:222 次

在拍手问答上的517个问题,只写接地气的科技内容,欢迎关注。2K分辨率的手机屏幕,包含的像素点也不过区区400万不到,所以1200W像素是足够的。在如今相机动不动三摄四摄的年代,当我们评判拍照的时候,首先还是要去想一下:到底三摄四摄是怎样协同工作的?这里我们就拿iPhone 11

在拍手问答上的517个问题,只写接地气的科技内容,欢迎关注。


2K分辨率的手机屏幕,包含的像素点也不过区区400万不到,所以1200W像素是足够的。

在如今相机动不动三摄四摄的年代,当我们评判拍照的时候,首先还是要去想一下:到底三摄四摄是怎样协同工作的?这里我们就拿iPhone 11系列的镜头举例子,来看看成像的关键因素到底是什么。

三摄工作机制

首先目前旗舰手机来说,一般至少会标配三枚镜头:一枚是超广角镜头,用于拍摄风光照片;一枚是广角主摄镜头,用于多数场景的成像;一枚是长焦镜头,用户拍摄物体和人像使用,同时可以协助变焦。三枚镜头实际上是协同工作,共同来完成拍照任务的。

我们拿iPhone 11 Pro的三摄来举例子:当用户使用13mm超广角镜头拍摄的时候,其实26mm主摄和52mm长焦镜头也在工作,这样他们的画面可以使得中心画面的成像质量更好,拍下的照片也会保存26mm和52mm镜头采集的数据,使得照片有更大的后期空间。使用26mm拍照的时候也是一样,13mm镜头工作,画面可以弥补边缘画质,52mm也可以弥补中心画质。所以三摄是共同工作,相辅相成的。

那么总要有一个镜头说了算对吧,三枚镜头毕竟硬件素质不同,传感器不同,如何确保呢?实际上三枚镜头工作时,所有的测光和对焦参数都是以主摄像头为准的,这样就确保了三枚镜头成像的画质是相似的。这也是为什么主摄像头会配备更好的传感器,配备更好的对焦系统,也就当之无愧对得起“主摄”的称号了。

背后的软件方案

硬件只是成像的基础,实际上决定最后成像质量的,其实是最终的软件方案。

当光想非常好的环境下,成像是比较简单的,无非就是记录下三摄的镜头成像数据,做好拼接,软件微微调色,最多就是虚化的时候实现机器算法的抠图弥补,识别出物体之间的前后关系,把主物体提取出来,背景适当虚化掉。华为采用了一枚景深镜头来实现,iPhone这一次则是单纯使用的算法。

当光线比较阴暗的时候,也就是室内环境或者阴天,此时为了获得比较好的成像,就需要使用到多帧合成技术了,也就是三枚镜头同时成像,而且是一次多次成像,比如说iPhone 11 Pro每枚镜头会记录下三张,一共9张照片,做堆叠。这时候就需要有优秀的算法处理能力了,也就是不仅仅要分辨出物体关系,还要明白物体是什么?天是天,人是人,山是山,树是树,然后给每个物体匹配相应的颜色实现正常曝光。

当光线极度昏暗的时候,也就是我们常说的夜景成像。三摄镜头就不仅仅是多张记录,还会适当增加曝光时间来提升光线的接收数量。但是手机毕竟是手机,传感器很小,再怎样接收的光线也不多,怎么办呢?这个时候就真正需要用到机器学习了。也就是镜头采集的画面,可能只能够识别出轮廓,但是很多地方是没办法看清楚的,怎么办呢?那就只能“机器脑补”了。也就是机器自动来弥补出画面......是不是很牛X?

处理器和算法才是背后的功臣

想要完成这样的使命,光靠ISP图形处理模块是不够的,核心还是硬件和算法的进步。

拿硬件来说吧,iPhone 11搭载的A13芯片,在CPU上新增了两个“机器学习模块”,其实就是用来处理算法问题的,作为地表最强性能的A13芯片,处理能力可以达到万亿次每秒,一方面可以实现更高效的运算,另一方面则是减少用户的等待时间,可以按下快门就得到照片,提升用户体验。

至于算法层面,就是谷歌前几年一直在做的算法革命了。比如弥补脸部的算法,其实是实验室阶段学习了百万张人脸在这个光线环境下的状态得到的,这样一来即便没有抓取到清晰的像素,但是依旧可以依靠算法“脑补”出正确的影像和光线。看似简单的背后,都是长久以来算法工程师做出的努力。


为什么iPhone 11能够拍出更好的照片,这样看来,你觉得跟1200W像素关系大么?

",
Tag:镜头 算法 物体 光线 时候
相关文章

发表评论: