清晰、锐利、分辨率,当你听到这些专业术语时,你理解它们的意思吗?
你知道分辨率是如何测量的吗?
你知道锐度和清晰度的区别吗?
你知道哪些是主观、哪些是客观的吗?
这三个概念,或许连许多资深摄影爱好者都会「傻傻分不清」。
那么,它们到底应该如何区分呢?今天,影像君将为大家深入剖析这三个概念,让大家不仅知其然,也知其「所以然」。
我们的话题先从分辨率说起。
一、 分辨率
1.1 概念和定义
分辨率(resolution),又称「分辨度」或「解像度」(从日语直译而来)。广义上的分辨率*括很多,如像素分辨率、温度分辨率、瞬时分辨率等,而本文主要讨论的是空间分辨率(spatical resolution)。它描述的是光学设备或影像系统辨别、解析物体细节的能力。系统捕捉的细节越多、越丰富,相应的分辨率或解像力(resolving power)也就越高。
分辨率通常使用每毫米的线对(line-pairs)数量来描述,单位是lp/mm。所谓「线对」,是指一系列互相交错的黑白线条(如图1-1所示)。单位长度拥有的线对又称为「空间频率」(spatial frequency),线对越多,频率越高。
图1-1
那么,如何判断解析是否成功呢?
假设物面(Object plane)上的两个像素点相距很近但彼此独立,投射至传感器上时两个像素的线对出现重叠现象,与实际情况有偏差,则称之为解析失败,如图1-2中的(a)所示;反之,若在像面(Image plane)上能正确反映线对的物理位置,则称之为解析成功,如图1-2中的(b)所示:
图1-2,Photo via edmundoptics.
以图1-1为例。原本线条黑白之间的边界是非常清晰的,经过透镜成像后,放大观测到的线条边缘开始变得有些模糊,于是我们大致可以认为这片透镜的分辨率较低。如图1-3所示:
图1-3,Photo via edmundoptics.
分辨率是衡量影像画质的一个重要维度。那么,有没有一些科学的标准可以更好地量化和测量光学器件的分辨率呢?
答案是有。
1.2 分辨率的测量
说到分辨率的测量,有些人可能会说:
其实不是的。图片的有效像素只是部分代表了传感器的分辨率,而成像是系统各组件共同协作的结果,其它元件(如镜头、增距镜、滤镜等)的分辨率同样会影响系统的整体表现。大幅增加传感器的像素,虽然可以提升空间分辨能力,但同时也会增加系统其余部件的性能瓶颈。因此,不能简单地以「像素数量」去衡量系统的空间分辨率,更况且,同一张图像的中心区域和边缘区域,两者的分辨率也会有差异。
分辨率的测量标准和方法有很多,比如,曾经流行的美国空军USAF-1951分辨率测试条形靶(bar target)便是其中一种,如图1-4所示:
图1-4,USAF 1951.
假设要测试一颗镜头的分辨率[1]: