数字图像的基本属性
用相机,望远镜,显微镜或其他类型的光学仪器拍摄的自然图像显示出一系列连续变化的阴影和色调。用胶片制作的照片,或用视频摄像管产生的视频图像,是所有可能图像的子集,并且包含从暗到亮的各种强度的光谱,以及可以包括几乎任何可想象的色调和颜色的光谱,饱和度水平。这种类型的图像称为连续色调,因为各种色调的阴影和色相融合在一起而不会中断,以忠实再现原始场景。

连续色调图像是由模拟光学和电子设备产生的,它们可以通过几种方法准确记录图像数据,例如一系列电信号波动或薄膜乳剂化学性质的变化,这些变化在图像的所有维度上都不断变化。为了由计算机处理或显示连续色调或模拟图像,必须先将其转换为计算机可读形式或数字格式。此过程适用于所有图像,无论其来源和复杂性如何,是否以黑白(灰度)或全彩色形式存在。由于灰度图像在某种程度上更易于解释,因此它们将在以下许多讨论中用作主要模型。
为了将连续色调图像转换成数字格式,模拟图像通过称为采样和量化的两个操作过程被分成单独的亮度值,图1(a)展示了用光学显微镜成像的微型海星的模拟表示。在二维阵列中采样后(图1(b)),模拟图像中特定位置的亮度级别将被记录,然后在量化过程中将其转换为整数(图1(c))。目标是将图像转换为离散点的阵列,每个离散点包含有关亮度或色调范围的特定信息,并可以通过精确位置中的特定数字数据值进行描述。采样过程测量图像中连续位置处的亮度,并形成一个二维数组,其中包含强度信息的小矩形块。采样完成后,对所得数据进行量化,为每个采样数据点分配特定的数字亮度值,范围从黑色到所有中间灰度级再到白色。结果是强度的数值表示,对于阵列中的每个采样数据点,结果通常称为图片元素或像素。
因为图像的尺寸通常是正方形或矩形,所以图像数字化产生的每个像素都由在典型的笛卡尔坐标系中排列的特定x和y值的坐标对表示。x坐标指定像素的水平位置或行位置,而y坐标指定列号或垂直位置。按照惯例,位于坐标(0,0)的像素位于阵列的左上角,而位于(158,350)的像素将位于第158行与第350列相交的位置。在许多情况下,x位置称为像素编号,y位置称为线编号。因此,数字图像由代表一系列强度值并通过有组织的(x,y)坐标系排序的矩形(或正方形)像素阵列组成。实际上,图像仅以数字(或数据值)的大型串行数组形式存在,可以由计算机解释以生成原始场景的数字表示形式。
长宽比
数字图像的纵横尺寸比称为图像的纵横比,可以通过将水平宽度除以垂直高度来计算。推荐的电视和视频设备NTSC(国家电视系统委员会)商业广播标准宽高比为1.33,转换为4:3的比例,其中图像的水平尺寸是垂直尺寸的1.33倍。相反,长宽比为1:1的图像(通常在闭路电视或CCTV中使用)是完美的正方形。通过遵守用于显示数字图像的标准纵横比,可以避免在远程平台上显示图像时出现图像的严重失真,例如出现为椭圆的圆形。

4:3长宽比标准已广泛用于电视和计算机显示器,产生的显示器宽4单位,高3单位。例如,一台32英寸的电视(从左下角到右上角对角线测量)宽25.6英寸,高19.2英寸。数字高清电视(HDTV)的标准宽高比是16:9(或1.78:1),这会导致屏幕更矩形。 16:9的宽高比有时被称为宽屏格式(参见图2),它是标准广播格式和通常用于电影的格式之间的折衷方案。已确定该比率可为消除或减小宽荧幕格式电影的黑条尺寸提供最佳折衷,同时最小化将传统4:3广播在宽屏格式的屏幕上播放所需的黑条尺寸。
高清晰度电视的宽高比已成为用于数字电视广播的新标准,它源于努力创建更宽的电视屏幕,这些屏幕也可用于电影格式。最近,使用Panavision宽屏镜头制作的电影出现了更宽的格式(2.35:1)。这种格式也称为宽屏,在将电影传输到数字视盘(DVD)软件(电影或视频)以在家庭观看中很常见。请注意,术语“ DVD”在参考DVD-ROM格式存储数据时也指数字多功能盘。.
当对连续色调图像进行采样和量化时,所得数字图像的像素维度将获得原始模拟图像的长宽比。在这方面,重要的是每个单独的像素都具有1:1的长宽比(称为正方形像素),以确保与常见的数字图像处理算法兼容并最大程度地减少失真。如果模拟图像的长宽比为4:3,则在水平方向上要比在垂直方向上获取更多的样本(每3个垂直样本需要4个水平样本)。具有其他长宽比的模拟图像在数字化时需要类似的考虑。
空间分辨率
数字图像的质量(通常称为图像分辨率)由像素数量和图像中每个像素的可用亮度值范围确定。图像的分辨率被认为是数字图像再现原始模拟图像或场景中存在的精细细节的能力。通常,术语空间分辨率被保留用来描述在构建和渲染数字图像中使用的像素数量。此数量取决于在采集或数字化期间对图像的采样程度,而空间分辨率较高的图像在相同的物理尺寸内具有更多的像素。因此,随着在数字图像的采样和量化期间获取的像素数量增加,图像的空间分辨率也增加。
采样频率或用于构建数字图像的像素数,是通过成像器件(通常是CCD或CMOS图像传感器)的光学和电子分辨率和用于可视化图像的计算机系统相匹配来确定的。应该通过采样和量化生成足够数量的像素,以忠实地代表原始扫描或光学获取的图像。当对模拟图像的采样不足时,可能会丢失或掩盖大量细节,如图3中的图表所示。图3(a)中显示的原始模拟信号既可以表示从照片获得的扫描图像,也可以表示由相机或显微镜产生的光学图像。注意绘制成采样位置函数的原始图像在采样和数字化之前显示的连续强度分布。在此示例中,当获取32个数字样本时(图3(b)),所得图像将保留原始模拟图像中存在的大多数特征强度和空间频率。

但是,当降低采样频率时(图3(c)和图3(d)),原始模拟图像中存在的某些信息(频率)在从模拟到数字的转换中会丢失,这种现象通常称为混叠开始发展。如图3(d)所示,它代表了样本数量最少的数字图像,混叠产生了高空间频率数据的损失,同时引入了实际上并不存在的虚假低频数据。当与图3(d)中的数字图像相比时,原始模拟图像中位置0和16之间的区域中的峰谷损失会显示出这种效果。另外,在模拟图像中位置3处出现的峰在图3(d)中已变为谷,而在位置12处的谷被解释为较低分辨率数字图像中峰的斜坡。
数字图像的空间分辨率与图像的空间密度以及用于拍摄图像的显微镜或其他光学设备的光学分辨率有关。数字图像中包含的像素数量以及每个像素之间的距离(称为采样间隔)是数字化设备精度的函数。光学分辨率是光学镜头系统(显微镜或相机)分辨原始场景中细节的能力的度量,并且与光学器件,图像传感器和电子器件的质量有关。结合空间密度(数字图像中的像素数),光学分辨率决定了图像的整体空间分辨率。在光学成像系统的光学分辨率优于空间密度的情况下,所得数字图像的空间分辨率仅受空间密度限制。
数字图像中包含的所有细节,从非常粗糙到极细不等,都由亮度的转变组成,该亮度转变在各种明暗级别之间循环。亮度转变之间的循环速率称为图像的空间频率,较高的速率对应于较高的空间频率。通过显微镜观察到的微小样本中亮度的变化水平是常见的,背景通常由均匀的强度组成,样本表现出一系列的亮度水平。在强度相对恒定的区域(例如背景),空间频率在整个视场中仅略有变化。另外,许多标本细节通常会表现出极度的明暗变化,其间存在很大的亮度范围。
数字图像中每个像素的数值表示在采样间隔内平均的光学图像的强度。因此,背景强度将由相对均匀的像素混合组成,而样本通常包含的像素值范围从非常暗到非常亮。数码相机系统准确捕获所有这些细节的能力取决于采样间隔。在显微镜中看到的小于数字采样间隔(具有较高空间频率)的特征将无法在数字图像中准确表示。奈奎斯特准则要求采样间隔等于最高标本空间频率的两倍,以准确地保持所得数字图像中的空间分辨率。香农(Shannon)的采样定理是一种等效的测量方法,该定理指出,数字化设备必须使用的采样间隔不大于光学图像最小可分辨特征尺寸的一半。因此,为了捕获样本中存在的最小细节程度,采样频率必须足够,以便针对每个特征收集两个样本,从而确保成像设备可以同时收集空间周期的明暗部分。
如果样本的采样间隔低于奈奎斯特准则或香农定理所要求的间隔,则最终数字图像中将无法准确表示高频率的细节。在光学显微镜中,光学图像分辨率的阿贝极限为0.22微米,这意味着数字转换器必须能够以与样本空间中0.11微米或更小的间隔进行采样。在每条水平扫描线以512个点(或像素)对样本进行采样的数字化仪将产生约56微米(512 x 0.11微米)的最大水平视场。如果在样本采集中使用的像素太少,则构成样本的所有空间细节将不会出现在最终图像中。相反,如果成像设备收集了太多像素(通常是由于光学放大倍数过大),则不会提供额外的空间信息,我们说图像已过采样。从理论上讲,多余的像素不会提高空间分辨率,但通常可以帮助提高从数字图像获取的特征测量的准确性。为了确保为高分辨率成像提供足够的采样,建议最小可分辨特征的采样间隔为2.5到3个采样点。

大多数与现代显微镜和其他光学仪器连接的数字相机具有固定的最小采样间隔,无法调整为与样本的空间频率匹配。选择能够满足显微镜放大倍率和样本特征的最低空间分辨率要求的相机和数字化仪的组合非常重要。如果采样间隔超过特定样本所需的间隔,则生成的数字图像将包含比所需更多的数据,但是不会丢失空间信息。
在图4中显示了使用光学显微镜成像的年轻海星标本在不同空间分辨率下对数字采样图像的影响。在最高的空间分辨率下(图4(a);175 x 175像素,总计30,625像素),标本特征清晰可辨。随着空间分辨率的降低(图4(b)-4(f)),像素尺寸变得越来越大。以连续较低的空间频率采样的样本细节会导致图像细节丢失。在最低采样频率下(图4(e)和4(f)),发生像素阻塞(通常称为像素化)并掩盖了大多数图像特征。
许多设计为与光学显微镜耦合的入门级数字相机包含一个像素尺寸约为7.6平方微米的图像传感器,当传感器在VGA模式下工作时,图像传感器会在光电二极管阵列的表面上产生4.86 x 3.64毫米的对应图像区域。所得的数字图像大小为640 x 480像素,等于307,200个单独的传感器元件。数字图像传感器的最终分辨率取决于光电二极管的数量及其相对于通过显微镜光学器件投射到阵列表面上的图像的尺寸的函数。只有在每个可分辨单元上至少采样两次时,用数字显微镜成像的标本才能达到可接受的分辨率。低端显微镜的数值孔径在最低光学放大倍率(0.5倍)时约为0.05,在最高放大倍数(无油时为100倍)时约为0.95。考虑到550纳米的平均可见光波长和0.5到7微米之间的光学分辨率范围(取决于放大倍数),传感器元件的尺寸足以在中等至高倍放大倍率下捕获大多数样品中存在的所有细节而无需牺牲分辨率。
当以小于其空间频率两倍的采样率对模拟图像或实际样本中存在的细节进行采样时,就会发生严重的采样伪影,即空间混叠。 这种现象通常也称为欠采样,通常发生在数字化仪中的像素与图像中存在的高频细节相比间隔太远时。 结果,准确呈现模拟图像细节所需的最高频率信息可能会伪装成数字图像中实际上不存在的较低空间频率特征。 当采样频率下降到临界水平以下时,混叠通常以突然转变的形式出现,该临界水平大约是重复的高频样本图案的1.5倍,或者比奈奎斯特分辨率极限低约25%。 包含规则间隔,重复图案的标本通常会出现莫尔条纹,这是由于欠采样导致的混叠伪影所致。
图像亮度和位深度
数字图像的亮度(或发光亮度)是在使用数字相机采集图像或通过模数转换器数字化图像后,整个像素阵列上相对强度值的度量。亮度不应与强度(更准确地称为辐射强度)相混淆,强度是指从模拟或数字设备成像的对象实际反射或透射的光能的大小或数量。相反,就数字图像处理而言,亮度更恰当地描述为构成整体的所有像素的测量强度,该整体测量强度构成了在捕获,数字化和显示的数字图像。像素亮度是数字图像中的一个重要因素,因为(颜色除外)它是处理技术可以用来定量调整图像的唯一变量。
在对物体成像并采样后,每个可分辨的单位都可以用数字整数(假设图像是用数字相机系统捕获的)或胶片(或视频显像管)上的模拟强度值来表示。无论采用哪种捕获方法,都必须对图像进行数字化处理,以将样本中表示的每个连续色调强度转换为数字亮度值。数字值的精度与数字化设备的位深度成正比。如果使用2位,则图像只能由4个亮度值或等级表示。同样,如果用3位或4位处理,则相应的图像分别具有8个和16个亮度级别(请参见图5)。在所有这些情况下,级别0表示黑色,而上级(3、7或15)表示白色,每个中间级别是不同的灰色阴影。

这些黑色,白色和灰色亮度级别全部组合在构成图像的灰度或亮度范围内。更高数量的灰度级对应于更大的位深度,并且能够准确表示更大的信号动态范围(参见表1)。例如,一个12位数字转换器可以显示4,096个灰度级,对应于72dB(分贝)的传感器动态范围。当以这种方式应用时,动态范围是指最大信号电平相对于CCD传感器可以传递用于图像显示的噪声,并且可以根据像素信号容量和传感器噪声特性进行具体定义。通常使用相似的术语来描述在创建和显示数字图像时使用的灰度范围,该范围可以由强度直方图表示。如果专门澄清此用法则称为场景内动态范围。彩色图像由三个独立的通道(红色,绿色和蓝色)构成,它们具有自己的“灰度”标度,其中每种颜色的亮度水平各不相同。颜色在每个像素内组合以表示最终图像。
在计算机技术中,在使用二进制数学系统(仅由数字1和0组成)的表示法中,位(二进制数字的缩称)是信息的最小信息单位。一个字节通常由8位线性字符串构成,并能够存储256个整数值(28))。同样,两个字节(等于16位或一个计算机字)可以存储216个整数,范围从0到65,535。 1千字节(缩写为Kbyte)等于1024字节,而1兆字节(Mbyte)等于1024 KB。在大多数计算机电路中,位与存储单元中的晶体管或电容器的状态或硬盘上的磁畴在物理上相关联。
术语位深度是指模数转换器用来将模拟图像信息转换为能够由计算机读取和分析的离散数字值的可能灰度值的二进制范围。例如,最流行的8位数字转换器的二进制范围为28或256个可能值(图5),而10位转换器的二进制范围为210(1,024个值), 16位转换器具有216或65,536个可能值。模数转换器的位深度确定灰度增量的大小,其中更高的位深度对应于可从相机获得的更大范围的有用图像信息。
表1列出了用于存储数字信息的位数,灰度级的数值等效值和传感器动态范围的对应值之间的关系(以分贝为单位;一位等于大约6dB)。如表中所示,如果一个0.72伏的视频信号由A / D转换器以1位精度数字化,则该信号将由两个值表示,二进制值0或1,电压值分别为0和0.72伏。在消费类和低端科学应用中使用的数字相机中的大多数数字转换器都采用8位A / D转换器,该转换器具有256个离散的灰度级(介于0和255之间)来表示电压幅度。然后将0.72伏的最大信号细分为256个步长,每个步长的值均为2.9毫伏。
位深,灰度级和传感器动态范围
位深 | 灰度级 | 动态范围(分贝) |
1 | 2 | 6dB |
2 | 4 | 12dB |
3 | 8 | 18dB |
4 | 16 | 24dB |
5 | 32 | 30dB |
6 | 64 | 36dB |
7 | 128 | 42dB |
8 | 256 | 48dB |
9 | 512 | 54dB |
10 | 1,024 | 60dB |
11 | 2,048 | 66dB |
12 | 4,096 | 72dB |
13 | 8,192 | 78dB |
14 | 16,384 | 84dB |
16 | 65,536 | 96dB |
18 | 262,144 | 108dB |
20 | 1,048,576 | 120dB |
表1
为了获得可接受的视觉质量而必须生成的灰度级数量应足以使人眼无法识别各个灰度值之间的步阶。在理想的观看条件下,普通人眼能察觉到灰度图像的强度的“明显差异”约为2%。眼睛最多可以分辨出视频监视器强度范围内的约50个离散灰度,这表明图像的最小位深度应在6到7位之间(64和128级灰度;请参见图5)。
数字图像应至少具有8位至10位分辨率,以避免在图像处理过程中增加对比度时在增强图像中产生视觉上明显的灰度级差。在图6中可以看到减少灰度级数量对用光学显微镜捕获的数字图像外观的影响,图6显示了普通跳蚤的黑白(最初是8位)图像。标本以各种灰度分辨率显示,范围从6位(图6(a))到1位(图6(f)),中间有多个级别。在较低的分辨率(低于5位)下,图像开始出现细节明显较少的机械外观,并且许多样本区域都经历了称为灰度轮廓化或色调分离的现象。灰度轮廓化首先出现在背景区域中(请参见图6(c)),在该区域中,灰度级趋向于逐渐变化,这表明灰度级分辨率不足。在最低分辨率(1位和2位;图6(e)和6(f))下,会丢失大量图像细节。对于大多数典型应用(例如在计算机屏幕上或通过Web浏览器显示),对于视觉上令人愉悦的数字图像,6位或7位分辨率通常就足够了。
最终,由原始场景(或显微镜中的标本)的物理属性决定是否需要多少足够的像素和灰度来描述图像。许多低对比度,高分辨率的图像需要大量的灰度级和像素才能产生令人满意的结果,而其他高对比度和低分辨率的图像(如线条图)则可以用较低的像素密度和灰度级范围充分表示。最后,在对比度,分辨率,位深和图像处理算法的速度之间需要在计算机性能之间进行权衡。与具有较少像素和灰度级的图像相比,具有大量变量的图像将需要更多的计算机“马力”。但是,任何现代计算机都能够非常快速地对常见尺寸(640 x 480至1280 x 1024)的数字图像执行复杂的计算。较大的图像或包含多层的专有文件格式(例如Photoshop文档-PSD)存储的图像可能会降低性能,但仍可以在大多数个人计算机上的合理时间内处理。

具有10位(在高端型号中甚至为12位)分辨率特性CCD和CMOS图像传感器的改进的数字相机和具有8位分辨率的相机比,可以在更大的范围内显示图像。发生这种情况是因为适当的软件可以从较大的调色板(1,024或4,096灰度级)渲染必要的灰度阴影,以显示在计算机监视器上,而通常监视器以256阶灰度显示图像。相反,一个8位数字图像被最初由数字相机捕获的256阶灰级的调色板限制。在图像处理过程中,随着放大倍数的增加,软件可以选择最准确的灰度来再现放大图像的部分,而无需更改原始数据。当检查阴影区域时,这一点尤其重要,在阴影区域中10位数字图像的深度允许软件呈现8位图像中不会出现的细微细节。
模拟视频信号的数字转换所需的精度取决于数字灰度阶跃和相机输出中均方根噪声之间的差异。带有内部A/D转换器的CCD相机产生的数字数据流不需要在计算机中重新采样和数字化。这些相机在高端型号中能够产生高达16位分辨率(65,536级灰阶)的数字数据。更为先进的CCD相机所展现的大数字范围的主要优势在于,所显示的8位图像的信噪比得到改善,并且信号可以数字化的线性动态范围也很广。
色彩空间模型
数字化的彩色图像与它们的灰度对应图像一样也受相同的采样,量化,空间分辨率,位深和动态范围的概念支配。但是,彩色图像使用三个独立的亮度分量(每个原色各一个)量化像素,而不是用灰级或灰度表示的单个亮度值。当彩色图像显示在计算机监视器上时,将使用三个单独的彩色发射器,每个发射器产生一个独特的光谱带,这些光谱带在屏幕上以变化的亮度级别组合在一起,以生成可见光谱中的所有颜色。
如果CCD或CMOS图像传感器上每个光电二极管上安装有按特定图案排列的红色,绿色和蓝色微型吸收滤光片,则可以将图像渲染成彩色。或者,一些数字相机用旋转的滤光轮或采用三个独立的图像传感器,每个图像传感器位于单独的滤色器后面,以生成彩色图像。通常,通过将算法分别应用于每个颜色通道,然后组合通道,可以将对灰度图像执行的所有处理操作扩展到彩色图像。因此,与灰度图像中使用的位深(通常为8位)等效的分辨率对每个颜色分量进行量化和处理。然后将得到的8位分量合并以生成24位像素(称为真彩色),尽管某些应用可能需要更多或更少的颜色分辨率。
可以将红色,绿色和蓝色这些原色进行选择性组合相加,生成可见光谱中的所有颜色。这些原色共同构成了一个色彩空间(通常称为色域),可以用作处理和显示彩色数字图像的基础。在某些情况下,替代的色彩空间模型更适合于特定的算法或应用,该模型仅需要将红色,绿色和蓝色(RGB)空间简单地数学转换为另一个色彩空间。例如,如果必须打印数字图像,它首先作为RGB图像被获取和处理,然后被转换为三色打印或者处理软件或者打印机本身所需的青色,品红色,黄色(CMY)色彩空间。
通常,图像传感器使用RGB色彩空间(尽管有些使用CMY滤镜)来检测和生成彩色数字图像,但是其他派生色彩空间通常对于彩色图像处理更为有用。这些色彩空间模型表示用不同方法定义色彩变量,例如色相,饱和度,亮度或强度,并且可以根据特定应用的需要进行任意修改。最受欢迎的替代色空间模型是色相,饱和度和强度(HSI)色彩空间,它以直观的方式(人类倾向于感知的方式)表示颜色。 HIS色彩空间不是像RGB色彩空间那样描述单个颜色或混合色的特征,而是根据颜色的直观组成部分建模。例如,色相分量控制色谱(红色,绿色,蓝色,黄色等),而饱和度分量控制颜色的纯度,而强度分量控制颜色的亮度。
已经设计出许多HSI色彩空间模型的派生模型,包括色相,饱和度,明度(Lightness)(HSL),色相,饱和度,亮度(HSB)以及其他几个紧密相关但不完全相同的模型。术语“亮度”,“明度”,“值”和“强度”通常可以互换使用,但实际上代表着颜色呈现出多么明亮的截然不同的表现。每个色彩空间模型都提供了针对特定应用量身定制的颜色表示方案。
通过将特定的灰度范围分配给特定的颜色值,可以将灰度数字图像渲染为伪彩色。该技术对于突出显示灰度图像中的特定感兴趣区域很有用,因为人眼能够更好地区分不同的颜色阴影而不是变化的灰色阴影。伪彩色成像已广泛用于荧光显微镜中,以显示多次染色样本在不同波长下获得的合并的黑白图像。通常,在拼贴组合图像中分配给各个荧光团的颜色在颜色上与荧光染料自然发出的颜色接近。
图像直方图
灰度直方图以图形方式描绘构成数字图像的像素的强度或亮度,它映射了图像中存在的每个灰度级的像素数量。 图7(a)和7(b)分别显示了典型的灰度数字图像(用光学显微镜拍摄)及其相应的直方图。 灰度值绘制在8位图像的水平轴上,范围从0到255(总共256个灰度级)。 以类似的方式,在垂直轴上绘制构成每个灰度级的像素的数量。 图像中的每个像素都具有与图中的值相对应的灰度值,因此直方图的每个灰度列中的像素数量必须相加等于图像中的像素总数。

直方图通常通过指示每个亮度级别的相对像素数量和图像的整体强度分布来提供数字图像的便捷表示。可以使用从直方图得出的统计数据来比较图像之间的对比度和强度,或者可以通过图像处理算法更改直方图以在图像中产生相应的变化。另外,直方图中的像素数量可用于确定特定图像细节的面积测量,或评估和比较视频相机或数字转换器的性能。
数字图像直方图最流行和最实用的用途之一是调整对比度。灰度直方图还揭示了数字图像使用的可用灰度范围的程度。例如,像素集中落在50到75亮度级别范围内,而直方图的其他区域只有几个像素,表示强度(亮度)级别的范围有限。相反,良好平衡的直方图(如图7(b)所示)是较大的场景内动态范围的良好指标。具有高和低对比度的数字图像在图7(c)至7(f)中示出。标本是在明场照明下成像和记录的人体组织的染色薄切片(如上文针对图7(a)和7(b)所述)。图7(c)显示了图像对比度非常低的情况,导致大多数像素集中分布在直方图的中心(图7(d)),从而严重限制了动态范围(和对比度)。当对比度沿相反方向移动时(图7(f)),大多数像素被双峰分组为最高和最低灰度级,而中心级则相对较少。这种分布对应于非常高的对比度,导致数字图像的白色和黑色像素过多,但是中间灰度级别相对较少(请参见图7(e))。从这些示例中可以清楚地看出,数字图像直方图是图像保真度的有力指标,可用于确定图像复原中的必要步骤。
彩色数字图像的直方图是三个灰度直方图的合成,这些直方图是针对每种颜色分量(通常是红色,绿色和蓝色)计算并显示的。彩色直方图可以表示RGB色彩空间,HSI模型或数字图像处理算法所需的任何其他色彩空间模型。这些直方图可以以叠加的方式同时显示,也可以分成单独的图表,以帮助确定各个颜色分量的亮度分布,对比度和动态范围。

图8显示的是用光学显微镜拍摄的典型全彩色数字图像。 该标本是用曙红和苏木精染色的哺乳动物味蕾的薄片,并在明场照明模式下成像。RGB直方图显示在数字图像的右侧,其中包含三个(红色,绿色和蓝色)颜色通道的叠加像素分布。 在数字图像和RGB直方图下方是分别表示红色,绿色和蓝色各个通道的直方图。 请注意,强度级别的分布在红色通道中最高,这对应于数字图像中相当明显的红色调。 双峰绿色通道表示此颜色通道中的对比度很高,而蓝色通道显示的直方图的强度范围分布相对较好。
数字图像显示
为了在模拟计算机监视器(或电视)上重建数字图像,必须对像素强度进行插值,而不明显损失空间信息。从理论上讲,这只能通过使用sin(x)/x函数(参见图9)呈现像素元素的显示系统来实现,这是一个复杂的二维波形,在整个图像的所有位置均具有零强度。由于标准的计算机监视器无法充分生成所需的函数,因此这种要求对使用电子枪的模拟显示系统提出了问题。通过数模转换器转换回模拟信号后,视频监视器上的扫描点非常类似于高斯分布函数(图9)。这两个函数仅在中央最大值处相似,并且用于数字显示可能会导致潜在的严重幅度和波形变化,从而掩盖图像中存在的高分辨率信息。
解决计算机监视器显示不足的解决方案是增加数字图像中的像素数量,同时使用频率响应(视频带宽)超过20兆赫兹的高分辨率监视器。即使是相对较低端的现代计算机监视器也可以满足这些要求,并且可以始终通过插值技术来提高图像的像素密度(尽管并不总是建议这样做)。另一种方法是对模拟图像进行超采样(超出Nyquist限制),以确保有足够的像素数据用于复杂的图像处理算法和后续显示。
视频显示的刷新率也是查看和处理数字图像的重要因素。 显示屏闪烁是一种严重的伪影,即使在很短的时间内也会使眼睛疲劳。 为了避免闪烁的伪像,电视显示器采用隔行扫描技术,该技术顺序刷新奇数行和偶数行,从而产生交错效果。 隔行扫描给人的印象是,生成新帧的频率是实际生成频率的两倍。 最初,隔行扫描被用于电视广播信号,因为它可以在不出现明显图像闪烁的情况下降低显示刷新频率。

现代计算机监视器采用非隔行扫描技术(也称为逐行扫描),该技术可以在一次扫描中显示整个视频缓冲区。逐行扫描监视器要求帧率以隔行扫描设备频率的两倍运行,以避免闪烁的伪像。而且,该技术消除了行到行的闪烁并减少了显示图像中的运动伪像。现代计算机监视器通常具有用户可调的逐行扫描速率,范围从每秒60到超过100帧,可以呈现非常稳定的图像,几乎没有闪烁。
数字图像存储要求
为了节省存储资源,数字图像的各个像素坐标不以常见的计算机文件格式存储。这是因为图像是数字化设备(CCD,扫描仪等)按顺序通过光栅扫描或阵列读取进行数字化的,数字化设备以像素亮度值的串行字符串将数据传输到计算机。然后,根据记录在图像文件头中建立的图像垂直和水平尺寸,通过对像素进行增量计数来显示图像。
数字图像的特征可以由多种方式表示。例如,可以指定给定长度尺寸的像素数(例如每英寸像素),或者可以使用像素阵列大小(例如640x 480)来描述图像。另外,图像像素总数或计算机存储文件大小会指示图像尺寸。可以通过将像素尺寸乘以位深度,然后将该数字除以8(每个字节的位数),来确定文件大小(以字节为单位)。例如,具有8位分辨率的640 x 480(像素)图像将转换为302 KB的计算机内存(请参见表2)。同样,具有24位深度的高分辨率1280 x 1024真彩色图像需要超过3.8MB的存储空间。
表2中列出了各种图像的数字图像文件大小,它是像素大小,格式和位深度的函数。未压缩的文件格式,例如标记的图像文件格式(TIFF)和“ Windows”图像位图(BMP) ,全彩色编码时需要最大的硬盘空间。 相反,包括流行的联合图像专家组(JPEG)技术在内的常用压缩算法可以在保持合理程度的图像质量的同时,大大降低存储要求。 像素深度和目标输出要求也是决定如何存储数字图像的重要因素。 用于印刷媒体的图像需要高像素分辨率(通常超过每英寸300像素),而打算在Internet上分发的图像则受益于降低的分辨率(每英寸约72像素)和文件大小。
数字文件格式的内存要求
Pixel Dimensions |
Grayscale (8-Bit) |
Bitmap (24-Bit) |
JPEG (24-Bit) |
TIFF (24-Bit) |
16 x 16 | 2k | 2k | 2k | 2k |
64 x 64 | 6k | 13k | 5k | 13k |
128 x 128 | 18k | 49k | 12k | 49k |
256 x 256 | 66k | 193k | 22k | 193k |
320 x 240 | 77k | 226k | 24k | 226k |
512 x 512 | 258k | 769k | 52k | 770k |
640 x 480 | 302k | 901k | 56k | 902k |
800 x 600 | 470k | 1,407k | 75k | 1,408k |
1024 x 768 | 770k | 2,305k | 104k | 2,306k |
1280 x 1024 | 1,282k | 3,841k | 147k | 3,842k |
1600 x 1200 | 1,877k | 5,626k | 161k | 5,627k |
2250 x 1800 | 3,960k | 11,869k | 276k | 11,867k |
3200 x 2560 | 8,002k | 24,001k | 458k | 24,002k |
3840 x 3072 | 11,522k | 34,561k | 611k | 34,562k |
表 2
由于目前计算机内存(RAM)成本相对较低,再加上容量和速度的显着提高,因此与过去相比,数字图像的存储已不再受到关注。现在可以在个人计算机上高速存储和处理1024 x 1024像素,位深为10、12或16位大型数字化阵列。此外,可以将数十个较小的(640 x 480,8位)图像存储为堆栈,并可以使用商业软件快速访问,作为视频电影播放或同时进行图像处理。
通过光学切片共聚焦和多光子显微镜技术获得的多个数字图像,或使用CCD或CMOS图像传感器依次拍摄的多个数字图像,都可以快速显示和处理。沿两个适当倾斜的轴光学切面堆栈的投影产生公共的立体对,可将其用于可视化微观场景的伪三维渲染。当前的数字图像处理软件包可以通过强度编码或伪彩色分配等多种简单的显示策略来可视化对象。当在连续的时间点记录多个图像时,可以将图像显示为二维“电影”,也可以将其组合以生成四维图像,其中三维对象被描述为时间的函数。
先进的数字图像处理技术和显示操作可以用来生成三维对象的出色图像,比如通过使用适当的阴影,着色和深度提示渲染对象的视图。通常用于渲染三维显示的光学切面的两种流行技术是体渲染和表面渲染。在光学图像集的体渲染中,将二维像素的几何形状和强度信息与已知的焦点位移组合在一起,以生成称为体素的体积元素。然后对生成的体素进行适当的着色和投影,以产生具有相关联的透视图和照明的标本体积的视图,从而产生三维表示。在图像集的表面渲染中,仅使用表面像素来表示样本的外表面,并且由于表面不透明,内部结构不可见。同样,照明,透视和深度提示对于产生视觉上可接受的再现至关重要。
撰稿人
Kenneth R. Spring – Scientific Consultant, Lusby, Maryland, 20657.
John C. Russ – Materials Science and Engineering Department, North Carolina State University, Raleigh, North Carolina, 27695.
Michael W. Davidson – National High Magnetic Field Laboratory, 1800 East Paul Dirac Dr., The Florida State University, Tallahassee, Florida, 32310.