发布网友 发布时间:2022-11-12 13:39
共1个回答
热心网友 时间:2024-10-17 11:21
iPhone12Pro是一款非常受欢迎的苹果手机,这款好挤支持5G网,很多小伙伴都非常注重的iPhone12Pro相机,那么iPhone12Pro影像系统怎么样呢?与华为、三星对比哪个好呢?下面就和我一起来看一看具体的评测吧,希望对大家有所帮助。
尤其是对于iPhone 12系列来说,相机更成为了苹果用以展现Pro级体验的重要差异点。
对于iPhone这样在产品定义上自成一派的品牌来说,以数镜头、比像素的方式去评判手机成像好坏的做法并不客观。拿到iPhone 12 Pro之后这段时间,我们有针对性地对其影像系统做了一些体验。
目的是弄清楚两个方面的问题:一是看看iPhone 12和当前行业一流的拍照旗舰相比,在影像方案上有哪些差异;二是站在苹果的角度,尝试去理解Shot on iPhone背后的产品和技术逻辑。
沿用1200万像素的逻辑每年新iPhone发布之后,苹果官方都有一个保留节目Experiments Shot on iPhone系列。今年iPhone 12 Pro这支片子名为《Dark Universe》(暗黑宇宙),从名字就能看出来,主要展示的就是iPhone在低光照环境下的成像能力。
iPhone 12 Pro相机系统这次重点也是围绕暗光成像作为主要的升级方向的。依然采用的是1200万像素的三摄方案,但主摄方案的光圈增加到了/1.6,同时镜头也采用了全新设计的7镜片设计。更多的镜片数量意味着镜头汇聚光线的能力更强,能够增加镜头解析力与对比度。
从这里其实可以看得出来,iPhone 12 Pro和前代相比可以算是改进性的升级。其硬件方案上并没有明显的提升,只是在原有三摄方案的基础上做了一些针对性的优化。
沿用1200万像素,尤其是在主摄方案上1200万像素的做法,在当前行业普遍采用高像素方案的大环境下显得独树一帜。苹果既然敢于如此,那么1200万像素的iPhone 12 Pro和当前市面上一流的高像素旗舰相比会不会吃亏呢?
我们拿来了华为Mate40 Pro和三星S20 Ultra两款安卓旗舰作为参照对象(之所以选择三星S20 Ultra,是因为其经过了三星接近大半年的OTA优化,成像素质更加稳定)。
华为Mate40 Pro和三星S20 Ultra的主摄分别采用的是IMX700(50MP)以及HM1(108MP),二者都采用了当下高像素机型常见的像素融合方案。其中,前者是采用了四合一,默认输出为1250万像素。而后者采用的是九合一方案,默认输出1200万像素。
华为Mate40 Pro(上)三星S20 Ultra(中)iPhone 12 Pro(下)
华为Mate40 Pro和三星S20 Ultra主摄采用的大底+高像素方案的确有一定的画质优势。最明显的差异就是,两者的样张更经得起放大。将样张拉伸到400%左右进行对比,可以发现iPhone 12 Pro的画面已经有些许模糊的迹象,而华为Mate40 Pro和三星S20 Ultra依然能够有相对锐利清晰的观感。
但要注意,这里就可以看出,高像素带来的画质红利是有限的。华为Mate40 Pro和三星S20 Ultra主摄四倍和九倍的像素数,并没有给予手机成像与其绝对像素数相匹配的线性画质提升。这是因为绝对的画质不仅仅取决于像素数量,还关系到CMOS尺寸、镜组ISP、算法等因素。
iPhone 12 Pro没有采用高像素方案的做法也变得可以理解。既然一味提升像素并不能带来本质上的画质提升,还不如在像素够用的基础上用心打磨。三颗后置镜头都采用1200万像素我认为很大程度上是为了提升多摄模组成像体验的一致性。在这方面,目前iPhone 12 Pro的体验是无人能敌的。
早在去年的iPhone 11系列上就被人津津乐道的丝滑变焦体验,很大程度上也和三颗镜头在像素数量的一致有关。同时,iPhone 12 Pro的三颗摄像头在白平衡、色彩表现等方面的统一也让人印象深刻。
不过并不能因此得出当前行业普遍采用的高像素是方向错了的结论。高像素方案有两个优势:其一就是通过多像素合并技术,提高感光度,获得暗光条件下的画质提升。
其次就是高像素能够对手机的长焦画质起到辅助作用。更高的像素输出提供了更大的画面裁切空间,也就是大家常说的数码变焦。它和光学变焦方案搭配使用,能够衔接广角-长焦镜头之间的中间焦段,也能实现更好的数码+光学的混合变焦画质。
除了混合变焦之外,多像素合并技术本身就是建立在默认低像素输出的基础之上的。对于手机这类设备来说,在光学性能受到设备体积制约的情况下,以AI影像为代表的计算摄影对于手机成像有更明显的辅助意义。
而动辄数千万甚至是上亿的全像素输出,对于ISP性能、功耗是一个严峻的考验,这让计算摄影的应用变得异常困难。这也是华为Mate40 Pro和三星S20 Ultra等高像素手机均采用和iPhone 12 Pro差不多的默认1200万像素输出的主要原因。
由此看来,1200万像素的三摄方案有一定的道理。其实就是在牺牲了一定不太明显的解析力的情况下,实现了更好的多摄成像体验。
多场景的适应能力iPhone 12 Pro的这种优势体现在哪里呢?最典型的其实就是极限环境下的成像。
长久以来,iPhone的成像一直以准确著称。手机在任何环境下,都拥有精准的白平衡控制能力和色彩还原水平。苹果在这方面的坚持其实和很多友商都不太一样。尤其是在当下,大多数的手机都会使用AI将色彩尽可能做到讨好用户眼球。而这种准确,真实的成像风格就是苹果对于手机拍照的基本理解。
最典型例子其实还是iPhone 12 Pro前置成像,苹果的原生相机*向来都被视作是检验颜值的标准之一。其相对真实的前置成像风格,让脸部的一些小瑕疵在照片上暴露无遗。
但一些特殊的场景下,这种真实自然的前置成像就有了自己的发挥空间。
比如样张中这种极暗光环境,iPhone 12 Pro的前置相机能够在暗夜模式的辅助下提供2S左右的曝光时长,以提升画面的整体亮度。与此同时,还尽可能保留了人物的更多细节,比如边缘的发丝,衣服的纹理。同时大面积散射的光源也并没有对人物五官应有的立体感造成影响,脸部应有的光影、层次得到了很好地还原。
这种应对复杂极限场景的能力,在手机产品中是非常难得的。而iPhone 12 Pro的厉害之处在于将这种能力赋予了每一颗镜头。
如上图所示的这种单一光源场景,其所在的拍摄环境本身就缺乏足够多的光线。iPhone 12 Pro的主摄在这种条件下能够做到精准的曝光,还能够将栏杆上反射的光线、地板的纹理、墙面的细节保留下来。整个画面光源部分曝光准确,同时明暗过渡自然,细节清晰,展现出了极佳的动态范围。
这种能够准确理解所处环境光线,并将其精准捕捉的能力,对于日常成像的至关重要。尤其是在夜间拍照的时候,往往会感觉自己看到的景象和手机拍出来的画面存在很大的差异。其实就是因为你的眼睛看到了的画面,但手机却无法将这种明暗关系以及细节层次呈现出来。最明显的表现就是,大多数手机在这种场景下,普遍都存在暗处一片死黑的情况。
iPhone 12 Pro在面对这样的拍摄场景时,应用到了名为深度融合的成像技术。这项技术其实有点类似于HDR:在一些中低光场景中,手机的摄像头会先拍摄多张曝光值不同的包围曝光照片,然后将这些画面合成一张曝光值理想的画面。然后通过AI神经引擎向高光和暗部等区域添加足够的细节,最后再通过AI进行画面降噪处理,生成最终的成片。
这里其实就体现了计算摄影的意义,事实上你最终得到照片是经过了AI处理之后的效果。再说直白一些,这些照片很大程度上就是AI算出来的画面。这其实并非是苹果的专属,当前智能手机针对暗光环境开发应用的夜景模式其实也属于这个范畴。
华为Mate40 Pro(上)三星S20 Ultra(中)iPhone12 Pro(下)
上面这组照片是在一个几乎纯黑的环境中隔窗拍摄。三台手机都采用了夜景模式,提供了最多十多秒的手持曝光时长。iPhone 12 Pro的画面亮度最高,同时对于花朵的色彩有非常自然的还原,还兼顾了画面细节。
相比之下,华为Mate40 Pro的问题在于画面有些泛黄,三星S20 Ultra则整体保持了较高的色彩饱和度,样张有不错的观感。
华为Mate40 Pro(上)三星S20 Ultra(中)iPhone12 Pro(下)
不过华为Mate40 Pro应对暗光场景的解决办法更多。尤其是借助其手持超级夜景模式,能够大幅提升画面亮度和暗部细节。相比之下,三星S20 Ultra的画面亮度有所欠缺,同时也丢失了一些应有的细节。iPhone12 Pro的画面亮度尚可,但在细节表现上稍逊华为一筹。总的来看,其暗光成像也是属于一流的水平。
需要注意的是,iPhone 12 Pro的这种优异的暗光成像素质不仅仅体现在主摄,还有超广角镜头的画质表现上。由于这颗超广角镜头增大了光圈,同时支持了夜景模式,和上一代的超广角镜头相比,其在夜间同样拥有了极佳的画质和优秀的色彩表现。尤其是在一些极限环境下边缘画质也有了非常明显的进步。
但需要注意的是,iPhone 12 Pro的超广角镜头对于畸变控制能力还有待提升。
另外之前iPhone 11系列上就存在的鬼影问题,iPhone 12 Pro依然没有明显的改善。在上图这样的深色背景,单一光源的环境下,鬼影就会出现。只能在拍摄时尽可能调整手机的拍摄角度,可以一定程度上规避这个问题。
至于长焦镜头,iPhone 12 Pro这次依然是采用的2X于主摄的长焦方案。这颗56mm镜头明显就是给人像模式准备的,所以它还是更应该叫做人像镜头。
由于这次iPhone 12 Pro加入了一颗激光雷达镜头,用以提升暗光环境下的对焦体验。在这颗雷达镜头的辅助下,iPhone 12 Pro的对焦体验精准快速,尤其是在暗光环境下能够准确完成对焦。
而借助而利用激光雷达深度图提供的细节,使得相机即使是在光线昏暗,神经网络引擎也能让拍摄主体清晰对焦,拍摄出背景虚化良好的人像照片。激光雷达镜头的加入对于iPhone 12 Pro整体对焦体验和夜景人像的辅助作用非常明显。
事实上,这颗雷达镜头能做的事儿其实还有很多,比如做一个简单的3D建模什么的。
算力,是一切的基础而这一切,其实是建立在iPhone 12 Pro的算力基础之上的。
正如前面所说,计算摄影其实本身对于手机性能有非常高的要求。得益于A14仿生芯片提供的强大性能,这次iPhone 12 Pro搭载的智能HDR 3技术,能够通过机器学习和曝光合成技术,实现更好的大光比环境表现。
这里所谓的智能,就是它能够自动优化亮部、暗部,主体轮廓,能够对画面的白平衡进行精准调整。iPhone 12 Pro应对逆光环境的能力是非常强悍的。尤其是这种HDR画质在iPhone 12 Pro的屏幕上呈现出了堪称惊艳的画质表现。
而真正能体现iPhone 12 Pro算力极限的,其实还是其支持杜比视界视频的拍摄。
杜比视界是杜比实验室开发的一种专有的动态HDR格式。通过在逐景(甚至逐帧)的基础上调整画面,可以让用户看到更多的细节,实现更好的色彩精度。
多说一句,你们还记得iPhone 12 Pro发布会上紧接着库克之后登场的那位副总裁鲍勃 波彻斯(Bob Borchers)吗?他之前就曾经是杜比实验室的首席市场官兼高级副总裁。
拍摄杜比视界格式的视频时,iPhone 12 Pro 会拍摄两帧不同曝光值的画面,再根据定制的图像信号处理器进行分析,创建一张代表每帧画面色调值的直方图。然后根据这张直方图生成杜比视界视频元数据。
这对于iPhone 12 Pro的A14仿生芯片的性能有极高的要求。因为这意味着,iPhone 12 Pro需要实时处理海量的视频数据。4K 60帧的视频所包含的数据运算量已经相当大了,而iPhone 12 Pro还要在此基础上做每一帧画面的数据进行分析,然后对细节和色彩进行动态调整。这对于手机的性能和功耗控制的要求可想而知。
以上就是我们使用iPhone 12 Pro拍摄的一段杜比视界视频的屏摄画面。可以看到,和普通的SDR画面相比,杜比视界的画面亮度更高,细节更多,色彩更加艳丽。
最直观的变化还是你从杜比视界画面回到普通SDR画面之后产生的落差感。只有这个时候,你才会对杜比视界的HDR画面有更深刻的理解。习惯了杜比视界画质之后,你再回到普通画面,你会觉得后者简直是寡淡如水。
很可惜,这种差异我无法通过视频的方式动态呈现给你。因为大多数的平台当前还不支持杜比视界格式,而且即便平台支持,也需要你的手机屏幕硬件支持。实际上iPhone 12 Pro搭载的这块XDR显示屏和它才是绝配,这也体现了苹果历来软硬件生态深度融合的特点。
可以看出,苹果在维持一贯优异精准的成像素质的基础上,通过各种手段着力提升iPhone 12Pro应对极限环境的成像能力。这也是当前旗舰手机最能够拉开拍照体验差距的地方。和当前一流的夜拍旗舰相比,它的优势在于稳定出色的画质输出以及良好的拍摄体验。尤其是在各种复杂场景下,它都有良好的适应能力和稳定的成像表现。
不可否认,当前无论是消费者还是终端厂商对于手机成像都有足够重视。在智能手机成像方案的演进上也难免有一些浮躁和激进的情绪。
尤其是很多品牌都将注意力放在了更能营造营销卖点,更能吸引消费者眼球的噱头型功能上。这样的后果就是,大家到了最后都不得不拼命增加手机的相机数量,大幅提升镜头像素数.......只有这样才便于宣传。这种做法用当前一个比较流行的词形容就是:内卷。
手机影像技术当前就面临一定的内卷化特征,很大程度上这其实是对于消费者核心需求的忽视。大多数人想要的就是一台随时能拿出来,拿出来就能拍,拍肯定能拍好的手机。以这个角度来看,iPhone 12 Pro还是那个值得学习和借鉴的。
另一方面,这种内卷化何尝又不是手机行业群雄逐鹿的一种体现呢?和当前同样优秀的同行们相比,iPhone 12 Pro也存在让人懊恼的鬼影问题,绝对画质也还有一定的提升空间,长焦方案是不是可以再够远一点?这些都是iPhone 12 Pro身上实实在在存在的问题和不足。
不过没关系,不是还有超大杯的iPhone 12 Pro Max吗?更大的主摄,更远的长焦,还有诸如位移式防抖这类独占的技术加持。尤其是在视频拍摄方面,iPhone12 Pro结合杜比视界的能力已经恐怖如斯,理论上有更好暗光画质和更强防抖能力的iPhone 12 Pro Max会有怎样的表现?非常值得期待。这一切悬念,就等着我们11号的抢先体验揭晓吧。