CN113409247B - 一种多曝光融合图像质量评价方法 - Google Patents
一种多曝光融合图像质量评价方法 Download PDFInfo
- Publication number
- CN113409247B CN113409247B CN202110403967.4A CN202110403967A CN113409247B CN 113409247 B CN113409247 B CN 113409247B CN 202110403967 A CN202110403967 A CN 202110403967A CN 113409247 B CN113409247 B CN 113409247B
- Authority
- CN
- China
- Prior art keywords
- normal
- under
- over
- pixel point
- coordinate position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 36
- 238000011156 evaluation Methods 0.000 claims abstract description 12
- 238000005516 engineering process Methods 0.000 claims abstract description 10
- 238000005070 sampling Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012886 linear function Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 2
- 230000008447 perception Effects 0.000 abstract description 17
- 239000000284 extract Substances 0.000 abstract 1
- 230000008859 change Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000001303 quality assessment method Methods 0.000 description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 4
- 101150117895 LAMP2 gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- XIWFQDBQMCDYJT-UHFFFAOYSA-M benzyl-dimethyl-tridecylazanium;chloride Chemical compound [Cl-].CCCCCCCCCCCCC[N+](C)(C)CC1=CC=CC=C1 XIWFQDBQMCDYJT-UHFFFAOYSA-M 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 229910052742 iron Inorganic materials 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种多曝光融合图像质量评价方法,其从三幅原始图像的梯度图中提取出最大值梯度图,进而得到梯度特征;获取原始图像的梯度图中的像素点的结构张量,并获取多曝光融合图像的梯度图中的像素点的结构张量,通过计算结构张量之间的余弦距离得到结构特征;通过计算原始图像中的每个像素点的曝光度、对比度和饱和度,得到对应的权重图,再利用金字塔融合技术对原始图像上采样生成拉普拉斯金字塔,对权重图上采样生成高斯金字塔,得到伪参考融合图像,进而得到全局感知特征;将梯度特征、结构特征、全局感知特征构成的特征向量作为输入,结合支持向量回归技术,得到客观质量评价预测值;优点是能提高客观评价结果与主观感知的相关性。
Description
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种多曝光融合图像质量评价方法。
背景技术
动态范围指的是一个场景下光线强度的最大值与最小值之比。自然场景中的动态范围通常要远超普通数码相机所拍摄获取到的数码照片的动态范围,从另一方面来说,在一个高动态范围的场景下,现有的显示装置只能处理非常有限的动态范围,这导致单一的数码照片无法展示自然场景中的全部细节信息,具体表现在数码照片的亮的区域与暗的区域细节信息丢失。普通数码相机在拍摄过程中,存在过曝光与欠曝光现象,这导致出现了低动态范围的现象。在特殊的拍摄环境中,比如在天空中,由于光线环境的特殊性,因此存在高亮极暗的现象,这导致数码照片的过亮的区域与过暗的区域细节信息丢失。因此,单一的数码照片通常会丢失自然场景的部分细节信息,甚至是关键信息,从而无法满足人们对于高质量图片的需求。
近几年来,存在着两种技术途径来解决单一的数码照片无法展示自然场景下的所有细节信息的技术问题:高动态范围(High Dynamic Range,HDR)技术和多曝光图像融合(Multi-exposure image Fusion,MEF)技术。
高动态范围技术首先通过同一场景下不同曝光度的图像序列来扩充图像的动态范围,再通过色调映射的方法在单一图像中显示。由于高动态范围技术需要进行高动态范围重建与色调映射两个步骤,因此存在计算量大、耗时久的问题。
多曝光图像融合技术直接对多曝光图像序列进行融合,极大地简化了图像的生成过程。通常来说,多曝光图像融合技术首先使用数码相机在不同的曝光度下拍摄多张低动态范围图像,然后在变换域或者空间域上进行图像融合。近年来,随着深度学习以及神经网络相关研究的不断发展,也出现了许多基于深度学习的多曝光图像融合方法。多曝光图像融合技术目前在各种电子显示设备上都有着广泛的应用,其被证明能够有效地增强图像的显示效果,并且能够在普通的显示设备上显示,而不需要昂贵的高动态显示设备。
目前,有许多人提出了不同的多曝光图像融合方法,但是关于多曝光融合图像质量评价方面的研究还有所欠缺。因此,为了筛选出性能最佳的多曝光图像融合方法,多曝光融合图像质量评价就显得尤为重要。在近十年间,大量图像评价领域的研究人员开发出了许多客观质量评价模型,用来评价多曝光融合图像的质量,有的认为多曝光融合图像的质量与信息的保持程度有关,提出一种通过计算参考图像与多曝光融合图像之间的互信息的方法来评价多曝光融合图像的质量,但是该方法并没有针对多曝光融合图像的具体的特征,而是仅仅考虑了多曝光融合图像整体的信息相关性。后来人们发现多曝光融合图像的边缘区域对人眼视觉感知系统影响很大,因此提出了一些基于图像边缘信息的质量评价方法。例如,利用Sobel边缘算子提取输入图像的边缘信息,计算每幅参考图像和多曝光融合图像中边缘信息的强度和方向的保持程度,然后在原图像之间进行组合,得到最终质量分数;或是使用小波变换对图像进行了尺度分解,并且计算每个尺度下多曝光融合图像的边缘保持。此外,还有人通过计算参考图像的局部显著信息在多曝光融合图像中的表现程度开发了一种评价方法。上述这些多曝光融合图像质量评价方法的客观评价结果与主观感知的相关性还有待提高。
发明内容
本发明所要解决的技术问题是提供一种多曝光融合图像质量评价方法,其能够有效地提高客观评价结果与主观感知的相关性。
本发明解决上述技术问题所采用的技术方案为:一种多曝光融合图像质量评价方法,其特征在于包括以下步骤:
步骤1:选取一幅多曝光融合图像作为待评价的多曝光融合图像,并记为Smefi,同时将Smefi相应的三幅不同曝光程度的原始图像即正常曝光图像、过曝光图像、欠曝光图像对应记为Snormal、Sover-ex、Sunder-ex;其中,Smefi、Snormal、Sover-ex、Sunder-ex的宽度为W且高度为H;
步骤2:计算Smefi、Snormal、Sover-ex、Sunder-ex各自的梯度图,对应记为Gmefi、Gnormal、Gover-ex、Gunder-ex;其中,Gmefi、Gnormal、Gover-ex、Gunder-ex的宽度为W且高度为H;
步骤3:从Gnormal、Gover-ex、Gunder-ex中提取得到最大值梯度图,记为Gmax,将Gmax中坐标位置为(x,y)的像素点的像素值记为Gmax(x,y),Gmax(x,y)=max(Gnormal(x,y),Gover-ex(x,y),Gunder-ex(x,y));然后计算Gmax中的每个像素点与Gmefi中对应的像素点的SSIM;再计算W×H个SSIM值的平均值,并将平均值作为Smefi的梯度特征;其中,Gmax的宽度为W且高度为H,1≤x≤W,1≤y≤H,max()为取最大值函数,Gnormal(x,y)表示Gnormal中坐标位置为(x,y)的像素点的像素值,Gover-ex(x,y)表示Gover-ex中坐标位置为(x,y)的像素点的像素值,Gunder-ex(x,y)表示Gunder-ex中坐标位置为(x,y)的像素点的像素值;
步骤4:根据Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的像素值构成Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点共同对应的维数为3×2的梯度值矩阵,将Gnormal中坐标位置为(x,y)的像素点、Gover-ex中坐标位置为(x,y)的像素点、Gunder-ex中坐标位置为(x,y)的像素点共同对应的维数为3×2的梯度值矩阵记为J(x,y),同样,根据Gmefi中的每个像素点的像素值构成Gmefi中的每个像素点对应的维数为1×2的梯度值矩阵,将Gmefi中坐标位置为(x,y)的像素点对应的维数为1×2的梯度值矩阵记为J'(x,y),然后计算Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的结构张量,将Gnormal中坐标位置为(x,y)的像素点、Gover-ex中坐标位置为(x,y)的像素点、Gunder-ex中坐标位置为(x,y)的像素点的结构张量记为Z(x,y),Z(x,y)=(J(x,y))TJ(x,y);同样,计算Gmefi中的每个像素点的结构张量,将Gmefi中坐标位置为(x,y)的像素点的结构张量记为Z'(x,y),Z'(x,y)=(J'(x,y))TJ'(x,y);接着计算Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的结构张量与Gmefi中对应像素点的结构张量的余弦距离,将Z(x,y)与Z'(x,y)的余弦距离记为d(x,y);再将所有余弦距离的平均值作为Smefi的结构特征;其中,表示水平方向,表示垂直方向,表示Gnormal(x,y)的水平方向的分量,表示Gnormal(x,y)的垂直方向的分量,表示Gover-ex(x,y)的水平方向的分量,表示Gover-ex(x,y)的垂直方向的分量,表示Gunder-ex(x,y)的水平方向的分量,表示Gunder-ex(x,y)的垂直方向的分量,Z(x,y)的维数为2×2,(J(x,y))T表示J(x,y)的转置,表示Gmefi中坐标位置为(x,y)的像素点的像素值Gmefi(x,y)的水平方向的分量,表示Gmefi中坐标位置为(x,y)的像素点的像素值Gmefi(x,y)的垂直方向的分量,Z'(x,y)的维数为2×2,(J'(x,y))T表示J'(x,y)的转置;
步骤5:计算Snormal、Sover-ex、Sunder-ex各自中的每个像素点的曝光度、对比度和饱和度,将Snormal中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Enormal(x,y)、Cnormal(x,y)、Sanormal(x,y),将Sover-ex中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Eover-ex(x,y)、Cover-ex(x,y)、Saover-ex(x,y),将Sunder-ex中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Eunder-ex(x,y)、Cunder-ex(x,y)、Saunder-ex(x,y);然后计算Snormal、Sover-ex、Sunder-ex各自中的每个像素点的权重,将Snormal中坐标位置为(x,y)的像素点的权重记为ωnormal(x,y),ωnormal(x,y)=Enormal(x,y)×Cnormal(x,y)×Sanormal(x,y),将Sover-ex中坐标位置为(x,y)的像素点的权重记为ωover-ex(x,y),ωover-ex(x,y)=Eover-ex(x,y)×Cover-ex(x,y)×Saover-ex(x,y),将Sunder-ex中坐标位置为(x,y)的像素点的权重记为ωunder-ex(x,y),ωunder-ex(x,y)=Eunder-ex(x,y)×Cunder-ex(x,y)×Saunder-ex(x,y);接着对Snormal、Sover-ex、Sunder-ex各自中的每个像素点的权重进行归一化处理,得到Snormal、Sover-ex、Sunder-ex各自对应的权重图,对应记为weightnormal、weightover-ex、weightunder-ex;再对Snormal、Sover-ex、Sunder-ex与weightnormal、weightover-ex、weightunder-ex进行金字塔融合,对Snormal、Sover-ex、Sunder-ex上采样生成拉普拉斯金字塔,对weightnormal、weightover-ex、weightunder-ex上采样生成高斯金字塔,融合得到一幅伪参考融合图像;之后计算Smefi中的每个像素点与伪参考融合图像中对应的像素点的SSIM值;最后计算W×H个SSIM值的平均值,并将平均值作为Smefi的全局感知特征;
步骤6:将Smefi的梯度特征、Smefi的结构特征、Smefi的全局感知特征按序排列构成的向量作为Smefi的特征向量;
步骤7:将Smefi的特征向量作为输入,结合支持向量回归技术,计算得到Smefi的客观质量评价预测值;其中,Smefi的客观质量评价预测值越大,说明Smefi的质量越好;反之,说明Smefi的质量越差。
所述的步骤2中,计算Smefi、Snormal、Sover-ex、Sunder-ex各自的梯度图时采用的梯度算子为Prewitt算子、Roberts算子、Scharr算子和Sobel算子中的一种。
所述的步骤5中,Cnormal(x,y)=|L*Ynormal(x,y)|,Sanormal(x,y)=|Unormal(x,y)|+|Vnormal(x,y)|+1,Cover-ex(x,y)=|L*Yover-ex(x,y)|,Saover-ex(x,y)=|Uover-ex(x,y)|+|Vover-ex(x,y)|+1,Cunder-ex(x,y)=|L*Yunder-ex(x,y)|,Saunder-ex(x,y)=|Uunder-ex(x,y)|+|Vunder-ex(x,y)|+1;其中,e表示自然基数,表示Snormal的Y通道中坐标位置为(x,y)的像素点的像素值的归一化值,Ynormal(x,y)表示Snormal的Y通道中坐标位置为(x,y)的像素点的像素值,μ和σ均为常数,μ=0.5,σ=0.2,符号“| |”为取绝对值符号,L表示拉普拉斯算子,符号“*”为卷积运算符号,Unormal(x,y)表示Snormal的U通道中坐标位置为(x,y)的像素点的像素值,Vnormal(x,y)表示Snormal的V通道中坐标位置为(x,y)的像素点的像素值,表示Sover-ex的Y通道中坐标位置为(x,y)的像素点的像素值的归一化值,Yover-ex(x,y)表示Sover-ex的Y通道中坐标位置为(x,y)的像素点的像素值,Uover-ex(x,y)表示Sover-ex的U通道中坐标位置为(x,y)的像素点的像素值,Vover-ex(x,y)表示Sover-ex的V通道中坐标位置为(x,y)的像素点的像素值,表示Sunder-ex的Y通道中坐标位置为(x,y)的像素点的像素值的归一化值,Yunder-ex(x,y)表示Sunder-ex的Y通道中坐标位置为(x,y)的像素点的像素值,Uunder-ex(x,y)表示Sunder-ex的U通道中坐标位置为(x,y)的像素点的像素值,Vunder-ex(x,y)表示Sunder-ex的V通道中坐标位置为(x,y)的像素点的像素值。
所述的步骤5中,weightnormal、weightover-ex、weightunder-ex的获取过程为:将weightnormal中坐标位置为(x,y)的像素点的像素值记为weightnormal(x,y),
weightnormal(x,y)亦为对ωnormal(x,y)进行归一化处理后得到的权重,将weightover-ex中坐标位置为(x,y)的像素点的像素值记为weightover-ex(x,y),
weightover-ex(x,y)亦为对ωover-ex(x,y)进行归一化处理后得到的权重,将weightunder-ex中坐标位置为(x,y)的像素点的像素值记为weightunder-ex(x,y),
与现有技术相比,本发明的优点在于:
1)本发明方法首先考虑到图像中的像素点的梯度值反映了该像素点的像素值的变化程度,在图像的一些边缘位置的像素点通常拥有较大的梯度值,而在图像细节比较少比较平滑的区域,像素点的梯度值较小,一般来说,图像中的边缘像素点的能见度与梯度的幅度密切相关,像素点的梯度的幅度较大的部分通常可见度更高,更加清晰,考虑到正常曝光图像、过曝光图像、欠曝光图像三幅不同曝光程度的原始图像都是拍摄的真实的自然场景,因此在真实的自然场景条件下将对应像素点的最大梯度值作为最佳的梯度值能够很好地反应多曝光融合图像的梯度特征,从而有效地提高了客观评价结果与主观感知的相关性。
2)本发明方法使用Jacobian矩阵来结合不同曝光程度图像的结构特征,通过构成的结构张量来表示多曝光融合图像的结构特征,并且考虑到图像的亮度变化和色度变化对于图像质量的影响尤为重要,首先将RGB图像转换到YUV颜色空间,从曝光度、对比度和饱和度三个方面来构造权重图,用来获取多曝光融合图像中的各种信息,进而得到多曝光融合图像的全局感知特征,实验结果表明,本发明方法在评价自然场景下的多曝光融合图像质量方面与人类对图像的感知质量具有更高的一致性。
附图说明
图1为本发明方法的总体实现框图;
图2为本发明方法中的金字塔融合的过程示意图;
图3a为过曝光图像;
图3b为正常曝光图像;
图3c为欠曝光图像;
图3d为根据图3a、图3b、图3c得到的多曝光融合图像;
图3e为图3a的梯度图;
图3f为图3b的梯度图;
图3g为图3c的梯度图;
图3h为图3d的梯度图;
图3i为从图3e、图3f、图3g中提取得到的最大值梯度图;
图4a为伪参考融合图像;
图4b为待评价的多曝光融合图像;
图4c为图4b与图4a的SSIM图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种多曝光融合图像质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
步骤1:选取一幅多曝光融合图像作为待评价的多曝光融合图像,并记为Smefi,同时将Smefi相应的三幅不同曝光程度的原始图像即正常曝光图像、过曝光图像、欠曝光图像对应记为Snormal、Sover-ex、Sunder-ex;其中,Smefi、Snormal、Sover-ex、Sunder-ex的宽度为W且高度为H。
步骤2:计算Smefi、Snormal、Sover-ex、Sunder-ex各自的梯度图,对应记为Gmefi、Gnormal、Gover-ex、Gunder-ex;其中,Gmefi、Gnormal、Gover-ex、Gunder-ex的宽度为W且高度为H;图像中的像素点的梯度值反映了该像素点的像素值的变化程度,在图像的一些边缘位置的像素点通常拥有较大的梯度值,而在图像细节比较少比较平滑的区域,像素值变化较小,相应的这些区域中的像素点的梯度值也会减小。
在此具体实施例中,步骤2中,计算Smefi、Snormal、Sover-ex、Sunder-ex各自的梯度图时采用的梯度算子为Prewitt算子、Roberts算子、Scharr算子和Sobel算子中的一种。在图像处理中,图像中的像素点的梯度值通常指的是梯度的模。
步骤3:一般来说,图像中的边缘像素点即处于边缘的像素点的能见度与梯度的幅度密切相关,像素点的梯度的幅度较大的部分通常可见度更高,更加清晰,同时,过大的梯度可能会导致图像局部的锐利度过高,与实际场景存在一定差异,考虑到Snormal、Sover-ex、Sunder-ex都是拍摄的真实的自然场景,因此在真实的自然场景条件下将对应像素点的最大梯度值作为最佳的梯度值。因此本发明从Gnormal、Gover-ex、Gunder-ex中提取得到最大值梯度图,记为Gmax,将Gmax中坐标位置为(x,y)的像素点的像素值记为Gmax(x,y),Gmax(x,y)=max(Gnormal(x,y),Gover-ex(x,y),Gunder-ex(x,y));然后计算Gmax中的每个像素点与Gmefi中对应的像素点的SSIM(structural similarity index measurement,结构相似性)值(即计算Gmax和Gmefi中相同坐标位置的像素点的SSIM值);再计算W×H个SSIM值的平均值,并将平均值作为Smefi的梯度特征;其中,Gmax的宽度为W且高度为H,1≤x≤W,1≤y≤H,max()为取最大值函数,Gnormal(x,y)表示Gnormal中坐标位置为(x,y)的像素点的像素值,也即为Snormal中坐标位置为(x,y)的像素点的梯度值,Gover-ex(x,y)表示Gover-ex中坐标位置为(x,y)的像素点的像素值,也即为Sover-ex中坐标位置为(x,y)的像素点的梯度值,Gunder-ex(x,y)表示Gunder-ex中坐标位置为(x,y)的像素点的像素值,也即为Sunder-ex中坐标位置为(x,y)的像素点的梯度值。
步骤4:图像结构是评价图像质量的重要特征之一,如何有效地表示出图像的结构特征一直是质量评价领域相关研究人员重要的研究课题,然而,在评价多曝光融合图像时,为了处理多张不同曝光程度图像组合而成的高维图像,需要重新考虑如何组合不同曝光程度图像的结构信息,受到关于结构张量研究的启发,本发明使用Jacobian矩阵来结合不同曝光程度图像的结构特征,即根据Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的像素值构成Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点共同对应的维数为3×2的梯度值矩阵,将Gnormal中坐标位置为(x,y)的像素点、Gover-ex中坐标位置为(x,y)的像素点、Gunder-ex中坐标位置为(x,y)的像素点共同对应的维数为3×2的梯度值矩阵记为J(x,y),同样,根据Gmefi中的每个像素点的像素值构成Gmefi中的每个像素点对应的维数为1×2的梯度值矩阵,将Gmefi中坐标位置为(x,y)的像素点对应的维数为1×2的梯度值矩阵记为J'(x,y),然后计算Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的结构张量,将Gnormal中坐标位置为(x,y)的像素点、Gover-ex中坐标位置为(x,y)的像素点、Gunder-ex中坐标位置为(x,y)的像素点的结构张量记为Z(x,y),Z(x,y)=(J(x,y))TJ(x,y),Z(x,y)是一个实对称矩阵,因此它有两个非负的实特征值,相应的特征值表示图像的变化率;同样,计算Gmefi中的每个像素点的结构张量,将Gmefi中坐标位置为(x,y)的像素点的结构张量记为Z'(x,y),Z'(x,y)=(J'(x,y))TJ'(x,y);接着为了计算三幅不同曝光程度的原始图像与待评价的多曝光融合图像之间的结构信息的差异,本发明利用结构张量之间的余弦距离来表示这个差异,计算Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的结构张量与Gmefi中对应像素点的结构张量的余弦距离,将Z(x,y)与Z'(x,y)的余弦距离记为d(x,y);再将所有余弦距离的平均值作为Smefi的结构特征;其中,表示水平方向,表示垂直方向,表示Gnormal(x,y)的水平方向的分量,也即为Snormal中坐标位置为(x,y)的像素点的水平梯度值,表示Gnormal(x,y)的垂直方向的分量,也即为Snormal中坐标位置为(x,y)的像素点的垂直梯度值,表示Gover-ex(x,y)的水平方向的分量,也即为Sover-ex中坐标位置为(x,y)的像素点的水平梯度值,表示Gover-ex(x,y)的垂直方向的分量,也即为Sover-ex中坐标位置为(x,y)的像素点的垂直梯度值,表示Gunder-ex(x,y)的水平方向的分量,也即为Sunder-ex中坐标位置为(x,y)的像素点的水平梯度值,表示Gunder-ex(x,y)的垂直方向的分量,也即为Sunder-ex中坐标位置为(x,y)的像素点的垂直梯度值,Z(x,y)的维数为2×2,(J(x,y))T表示J(x,y)的转置,表示Gmefi中坐标位置为(x,y)的像素点的像素值Gmefi(x,y)的水平方向的分量,也即为Smefi中坐标位置为(x,y)的像素点的水平梯度值,表示Gmefi中坐标位置为(x,y)的像素点的像素值Gmefi(x,y)的垂直方向的分量,也即为Smefi中坐标位置为(x,y)的像素点的垂直梯度值,Z'(x,y)的维数为2×2,(J'(x,y))T表示J'(x,y)的转置。
步骤5:虽然梯度特征可以有效地捕捉待评价的多曝光融合图像中局部的边缘,结构结构可以有效地捕捉待评价的多曝光融合图像的结构,但是都没有注意到待评价的多曝光融合图像全局的感知变化,这种细微的变化很容易被人类察觉,因此,为了使本发明方法的客观评价结果与人类对图像的感知更加一致,加入了全局感知测量。考虑到图像的亮度变化和色度变化对于人类感知的影响尤为重要,首先将RGB图像转换到YUV颜色空间,在多曝光图像融合的过程中,多曝光图像的不同曝光度对最终的融合结果影响最为明显,其次是多曝光图像的对比度和饱和度,于是从这三个方面来构造多曝光图像的权重图,用来获取多曝光图像中的各种信息,进而得到全局感知特征。
计算Snormal、Sover-ex、Sunder-ex各自中的每个像素点的曝光度、对比度和饱和度,将Snormal中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Enormal(x,y)、Cnormal(x,y)、Sanormal(x,y),将Sover-ex中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Eover-ex(x,y)、Cover-ex(x,y)、Saover-ex(x,y),将Sunder-ex中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Eunder-ex(x,y)、Cunder-ex(x,y)、Saunder-ex(x,y);然后计算Snormal、Sover-ex、Sunder-ex各自中的每个像素点的权重,将Snormal中坐标位置为(x,y)的像素点的权重记为ωnormal(x,y),ωnormal(x,y)=Enormal(x,y)×Cnormal(x,y)×Sanormal(x,y),将Sover-ex中坐标位置为(x,y)的像素点的权重记为ωover-ex(x,y),ωover-ex(x,y)=Eover-ex(x,y)×Cover-ex(x,y)×Saover-ex(x,y),将Sunder-ex中坐标位置为(x,y)的像素点的权重记为ωunder-ex(x,y),ωunder-ex(x,y)=Eunder-ex(x,y)×Cunder-ex(x,y)×Saunder-ex(x,y);接着对Snormal、Sover-ex、Sunder-ex各自中的每个像素点的权重进行归一化处理,得到Snormal、Sover-ex、Sunder-ex各自对应的权重图,对应记为weightnormal、weightover-ex、weightunder-ex;再对Snormal、Sover-ex、Sunder-ex与weightnormal、weightover-ex、weightunder-ex进行金字塔融合,对Snormal、Sover-ex、Sunder-ex上采样生成拉普拉斯金字塔,对weightnormal、weightover-ex、weightunder-ex上采样生成高斯金字塔,融合得到一幅伪参考融合图像;之后计算Smefi中的每个像素点与伪参考融合图像中对应的像素点的SSIM值(即计算Smefi和伪参考融合图像中相同坐标位置的像素点的SSIM值);最后计算W×H个SSIM值的平均值,并将平均值作为Smefi的全局感知特征。
在此,金字塔融合为现有技术,图2给出了金字塔融合的过程示意图,图2中I表示Snormal、Sover-ex、Sunder-ex,即I(1)表示Snormal,I(N)表示Sunder-ex,W表示weightnormal、weightover-ex、weightunder-ex,即W(1)表示weightnormal,W(N)表示weightunder-ex。
在此具体实施例中,步骤5中,Cnormal(x,y)=|L*Ynormal(x,y)|,Sanormal(x,y)=|Unormal(x,y)|+|Vnormal(x,y)|+1,Cover-ex(x,y)=|L*Yover-ex(x,y)|,Saover-ex(x,y)=|Uover-ex(x,y)|+|Vover-ex(x,y)|+1,Cunder-ex(x,y)=|L*Yunder-ex(x,y)|,Saunder-ex(x,y)=|Uunder-ex(x,y)|+|Vunder-ex(x,y)|+1;其中,e表示自然基数,e=2.71828…,表示Snormal的Y通道(亮度通道)中坐标位置为(x,y)的像素点的像素值的归一化值,Ynormal(x,y)表示Snormal的Y通道(亮度通道)中坐标位置为(x,y)的像素点的像素值,μ和σ均为常数,μ=0.5,σ=0.2,符号“| |”为取绝对值符号,L表示拉普拉斯算子,符号“*”为卷积运算符号,Unormal(x,y)表示Snormal的U通道(U色度通道)中坐标位置为(x,y)的像素点的像素值,Vnormal(x,y)表示Snormal的V通道(V色度通道)中坐标位置为(x,y)的像素点的像素值,表示Sover-ex的Y通道(亮度通道)中坐标位置为(x,y)的像素点的像素值的归一化值,Yover-ex(x,y)表示Sover-ex的Y通道(亮度通道)中坐标位置为(x,y)的像素点的像素值,Uover-ex(x,y)表示Sover-ex的U通道(U色度通道)中坐标位置为(x,y)的像素点的像素值,Vover-ex(x,y)表示Sover-ex的V通道(V色度通道)中坐标位置为(x,y)的像素点的像素值,Yunder-ex(x,y)表示Sunder-ex的Y通道(亮度通道)中坐标位置为(x,y)的像素点的像素值的归一化值,Yunder-ex(x,y)表示Sunder-ex的Y通道(亮度通道)中坐标位置为(x,y)的像素点的像素值,Uunder-ex(x,y)表示Sunder-ex的U通道(U色度通道)中坐标位置为(x,y)的像素点的像素值,Vunder-ex(x,y)表示Sunder-ex的V通道(V色度通道)中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤5中,weightnormal、weightover-ex、weightunder-ex的获取过程为:将weightnormal中坐标位置为(x,y)的像素点的像素值记为weightnormal(x,y),weightnormal(x,y)亦为对ωnormal(x,y)进行归一化处理后得到的权重,将weightover-ex中坐标位置为(x,y)的像素点的像素值记为weightover-ex(x,y),weightover-ex(x,y)亦为对ωover-ex(x,y)进行归一化处理后得到的权重,将weightunder-ex中坐标位置为(x,y)的像素点的像素值记为weightunder-ex(x,y),weightunder-ex(x,y)亦为对ωunder-ex(x,y)进行归一化处理后得到的权重。
步骤6:将Smefi的梯度特征、Smefi的结构特征、Smefi的全局感知特征按序排列构成的向量作为Smefi的特征向量。
步骤7:将Smefi的特征向量作为输入,结合支持向量回归技术,计算得到Smefi的客观质量评价预测值;其中,Smefi的客观质量评价预测值越大,说明Smefi的质量越好;反之,说明Smefi的质量越差。
为了进一步说明本发明方法的可行性和有效性,对本发明方法进行试验。
选取一个现成的数据库,该数据库包含了17种不同场景下的自然图像(即原始图像),17种不同场景分别为“Balloons”、“Belgium house”、“Lampl”、“Candle”、“Cave”、“Chinese garden”、“Farmhouse”、“House”、“Kluki”、“Lamp2”、“Landscape”、“Lighthouse”、“Madison capitol”、“Memorial”、“Office”、“Tower”、“Venice”,针对每个场景分别使用了8种不同的多曝光图像融合方法,并拥有25名受试者的主观打分(即主观平均分MOS),计算客观质量评价预测值与主观平均分MOS之间的Pearson线性相关系数(PLCC)和Spearman的秩序相关系数(SROCC)作为评价标准,PLCC或SROCC值越大,表示性能越好。
在试验中,采用留一法(leave one out)的策略,每次从该数据库中只选择一个场景下的8幅多曝光融合图像构成测试集,而将其余16种场景下的共128幅(16×8=128)幅多曝光融合图像构成训练集。在训练时,按照本发明方法的步骤1至步骤6的过程,以相同的方式获得训练集中的每幅多曝光融合图像的特征向量,将训练集中的所有多曝光融合图像的特征向量输入到支持向量机中进行训练,使得经过训练得到的回归函数值与主观平均分MOS之间的误差最小,拟合得到最优的权重矢量和最优的偏置项,再利用最优的权重矢量和最优的偏置项构造支持向量回归模型。在测试时,按照本发明方法的步骤1至步骤6的过程,以相同的方式获得测试集中的每幅多曝光融合图像的特征向量,采用支持向量回归模型对测试集中的每幅多曝光融合图像的特征向量进行测试,得到测试集中的每幅多曝光融合图像的客观质量评价预测值。
按留一法(leave one out)的策略,训练17次,每种场景下的8幅多曝光融合图像测试一次。计算17种场景下本发明方法中的待评价的多曝光融合图像的特征向量仅由梯度特征构成时、待评价的多曝光融合图像的特征向量仅由结构特征构成时、待评价的多曝光融合图像的特征向量仅由全局感知特征构成时、待评价的多曝光融合图像的特征向量由梯度特征和结构特征构成时、待评价的多曝光融合图像的特征向量由梯度特征和全局感知特征构成时、待评价的多曝光融合图像的特征向量由结构特征和全局感知特征构成时,及本发明方法(待评价的多曝光融合图像的特征向量由梯度特征、结构特征、全局感知特征构成)的平均PLCC值和平均SROCC值作为性能指标,17种场景下特征向量由不同特征构成的各个方案的平均PLCC值如表1所列,17种场景下特征向量由不同特征构成的各个方案的平均SROCC值如表2所列。
表1 17种场景下特征向量由不同特征构成的各个方案的平均PLCC值
梯度特征 | √ | √ | √ | √ | |||
结构特征 | √ | √ | √ | √ | |||
全局感知特征 | √ | √ | √ | √ | |||
Balloons | 0.8260 | 0.8116 | 0.8947 | 0.8150 | 0.8599 | 0.8147 | 0.8358 |
Belgium house | 0.9517 | 0.8381 | 0.9759 | 0.9608 | 0.9820 | 0.9776 | 0.9931 |
Lampl | 0.8318 | 0.8590 | 0.8578 | 0.8674 | 0.8767 | 0.8639 | 0.9218 |
Candle | 0.9390 | 0.8355 | 0.9770 | 0.9519 | 0.9731 | 0.9590 | 0.8643 |
Cave | 0.9077 | 0.3578 | 0.9293 | 0.9144 | 0.9391 | 0.9293 | 0.9421 |
Chinese garden | 0.8809 | 0.6531 | 0.9596 | 0.8891 | 0.9556 | 0.9596 | 0.9683 |
Farmhouse | 0.8159 | 0.9787 | 0.8616 | 0.8218 | 0.8729 | 0.8617 | 0.8759 |
House | 0.8947 | 0.7171 | 0.9553 | 0.8993 | 0.9505 | 0.9556 | 0.9601 |
Kluki | 0.5157 | 0.8402 | 0.7446 | 0.7947 | 0.7233 | 0.7418 | 0.7305 |
Lamp2 | 0.9279 | 0.7933 | 0.8432 | 0.9127 | 0.9432 | 0.8436 | 0.9748 |
Landscape | 0.8997 | 0.8110 | 0.7210 | 0.9335 | 0.9525 | 0.7208 | 0.8838 |
Lighthouse | 0.9753 | 0.9417 | 0.9500 | 0.9729 | 0.9812 | 0.9470 | 0.9879 |
Madison capitol | 0.8378 | 0.7791 | 0.9368 | 0.9241 | 0.9509 | 0.9364 | 0.9433 |
Memorial | 0.9567 | 0.9579 | 0.9689 | 0.9659 | 0.9642 | 0.9700 | 0.9680 |
Office | 0.8689 | 0.8507 | 0.8904 | 0.9429 | 0.8913 | 0.8902 | 0.9553 |
Tower | 0.9148 | 0.8701 | 0.9370 | 0.9190 | 0.9428 | 0.9480 | 0.9580 |
Venice | 0.8976 | 0.8925 | 0.8764 | 0.8842 | 0.8793 | 0.8765 | 0.9668 |
平均值 | 0.8730 | 0.8110 | 0.8987 | 0.9048 | 0.9199 | 0.8938 | 0.9252 |
表2 17种场景下特征向量由不同特征构成的各个方案的平均SROCC值
从表1和表2中可以看到,特征向量包含梯度特征的方案均表现出了与受试者的主观打分较高的一致性,这是因为观测者对图像的局部边缘特征十分敏感,而本发明方法在梯度域所采用的最大值梯度图的计算方法能获得最佳的图像质量,并且由于合成的伪参考融合图像的质量十分符合人眼对高质量图像的追求,所以全局感知特征能很好地反映出多曝光融合图像的客观质量。
图3a给出了过曝光图像,图3b给出了正常曝光图像,图3c给出了欠曝光图像,图3d给出了根据图3a、图3b、图3c得到的多曝光融合图像,图3e给出了图3a的梯度图,图3f给出了图3b的梯度图,图3g给出了图3c的梯度图,图3h给出了图3d的梯度图,图3i给出了从图3e、图3f、图3g中提取得到的最大值梯度图。从图3a、图3c、图3i中可以看到,在过曝光图像中的天空等高亮区域以及欠曝光图像的房屋等暗部区域均存在细节信息丢失的情况,而在最大值梯度图中,成功提取了过曝光图像中的房屋以及欠曝光图像中的天空云彩的边缘细节信息,并将它们组合到一起用来获得最佳图像质量。
图4a给出了伪参考融合图像,图4b给出了待评价的多曝光融合图像,图4c给出了图4b与图4a的SSIM图。从图4b中可以看到,图4b中的天空以及铁塔的边缘处存在一些不自然的伪影,铁塔内部的细节比较模糊,而这些信息丢失的部分都可以在质量图即图4c中显示出来,深色区域表示图像质量较差的部分,白色区域表示图像质量较好的部分。
从上述分析可知,本发明方法在评价自然场景下的多曝光融合图像质量方面与人类对图像的感知质量具有更高的一致性。
为了使实验结果更具说服力,将本发明方法与近年来提出的具有代表性的4种图像质量评价方法进行对比,4种图像质量评价方法分别是:[1]引自C.S.Xydeas andV.S.Petrovic,“Objective image fusion performance measure,”Proc.SPIE,SensorFusion,Archit.,Algorithms,Appl.IV,vol.4051,pp.89–98,Apr.2000.(客观图像融合性能指标),其利用Sobel边缘算子提取输入图像的边缘信息,计算每幅参考图像和融合图像中边缘信息的强度和方向的保持程度,然后在源图像之间进行组合,得到最终质量分数。[2]引自P.Wang and B.Liu,“A novel image fusion metric based on multi-scaleanalysis,”in Proc.IEEE 9th Int.Conf.Signal Process.,Oct 2008,pp.965–968.(基于多尺度分析的新型图像融合评价方法),其使用小波变换对图像进行尺度分解,并且计算每个尺度下融合图像的边缘保持。[3]引自K.Ma,K.Zeng,and Z.Wang,“Perceptual qualityassessment for multi-exposure image fusion,”IEEE Trans.Image Process.,vol.24,no.11,pp.3345–3356,Nov.2015.(多曝光融合图像感知质量评价),其将图像分解为亮度、对比度和结构信息,并分别增强对比度和结构得到伪参考信息,提出了一个评价标准。[4]引自D.Kundu,D.Ghadiyaram,A.C.Bovik and B.L.Evans,"No-Reference QualityAssessment of Tone-Mapped HDR Pictures,"in IEEE Transactions on ImageProcessing,vol.26,no.6,pp.2957-2971,June 2017.(色调映射的HDR图像的无参考质量评价),其基于差分自然场景统计特征构建了一个无参考质量评价模型。17种场景下本发明方法及现有的4种图像质量评价方法的平均PLCC值如表3所列,17种场景下本发明方法及现有的4种图像质量评价方法的平均SROCC值如表4所列。
表3 17种场景下本发明方法及现有的4种图像质量评价方法的平均PLCC值
表4 17种场景下本发明方法及现有的4种图像质量评价方法的平均SROCC值
原始图像 | 方法[1] | 方法[2] | 方法[3] | 方法[4] | 本发明方法 |
Balloons | 0.6667 | 0.5000 | 0.8333 | 0.9286 | 0.8095 |
Belgium house | 0.7785 | 0.7545 | 0.9701 | 0.9222 | 0.9701 |
Lampl | 0.7857 | 0.6190 | 0.9762 | 0.8095 | 0.9048 |
Candle | 0.9762 | 0.7857 | 0.9286 | 0.7615 | 0.9762 |
Cave | 0.7143 | 0.8095 | 0.8333 | 0.6190 | 0.8333 |
Chinese garden | 0.6905 | 0.7857 | 0.9286 | 0.5714 | 0.7857 |
Farmhouse | 0.7381 | 0.8095 | 0.9286 | 0.5714 | 0.9286 |
House | 0.5952 | 0.4524 | 0.8571 | 0.9762 | 0.8333 |
Kluki | 0.2619 | 0.2857 | 0.7857 | -0.1667 | 0.7381 |
Lamp2 | 0.7619 | 0.6190 | 0.7143 | 0.7381 | 0.9524 |
Landscape | 0.0238 | 0.4048 | 0.5238 | 0.5000 | 0.7619 |
Lighthouse | 0.5000 | 0.4286 | 0.8810 | 0.7857 | 0.8810 |
Madison capitol | 0.5238 | 0.3571 | 0.8810 | 0.6429 | 0.8095 |
Memorial | 0.7619 | 0.5476 | 0.8571 | 0.8810 | 0.8571 |
Office | 0.2771 | 0.3976 | 0.7832 | 0.1687 | 0.8555 |
Tower | 0.5714 | 0.5238 | 0.9524 | 0.7381 | 0.8571 |
Venice | 0.9102 | 0.7306 | 0.9341 | 0.5868 | 0.8623 |
平均值 | 0.6198 | 0.5771 | 0.8570 | 0.6491 | 0.8597 |
从表3和表4中可以看出,本发明方法的PLCC值和SROCC值均高于现有的4种方法,展示出了本发明方法的优越性能。
Claims (5)
1.一种多曝光融合图像质量评价方法,其特征在于包括以下步骤:
步骤1:选取一幅多曝光融合图像作为待评价的多曝光融合图像,并记为Smefi,同时将Smefi相应的三幅不同曝光程度的原始图像即正常曝光图像、过曝光图像、欠曝光图像对应记为Snormal、Sover-ex、Sunder-ex;其中,Smefi、Snormal、Sover-ex、Sunder-ex的宽度为W且高度为H;
步骤2:计算Smefi、Snormal、Sover-ex、Sunder-ex各自的梯度图,对应记为Gmefi、Gnormal、Gover-ex、Gunder-ex;其中,Gmefi、Gnormal、Gover-ex、Gunder-ex的宽度为W且高度为H;
步骤3:从Gnormal、Gover-ex、Gunder-ex中提取得到最大值梯度图,记为Gmax,将Gmax中坐标位置为(x,y)的像素点的像素值记为Gmax(x,y),Gmax(x,y)=max(Gnormal(x,y),Gover-ex(x,y),Gunder-ex(x,y));然后计算Gmax中的每个像素点与Gmefi中对应的像素点的SSIM;再计算W×H个SSIM值的平均值,并将平均值作为Smefi的梯度特征;其中,Gmax的宽度为W且高度为H,1≤x≤W,1≤y≤H,max()为取最大值函数,Gnormal(x,y)表示Gnormal中坐标位置为(x,y)的像素点的像素值,Gover-ex(x,y)表示Gover-ex中坐标位置为(x,y)的像素点的像素值,Gunder-ex(x,y)表示Gunder-ex中坐标位置为(x,y)的像素点的像素值;
步骤4:根据Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的像素值构成Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点共同对应的维数为3×2的梯度值矩阵,将Gnormal中坐标位置为(x,y)的像素点、Gover-ex中坐标位置为(x,y)的像素点、Gunder-ex中坐标位置为(x,y)的像素点共同对应的维数为3×2的梯度值矩阵记为J(x,y),同样,根据Gmefi中的每个像素点的像素值构成Gmefi中的每个像素点对应的维数为1×2的梯度值矩阵,将Gmefi中坐标位置为(x,y)的像素点对应的维数为1×2的梯度值矩阵记为J'(x,y),然后计算Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的结构张量,将Gnormal中坐标位置为(x,y)的像素点、Gover-ex中坐标位置为(x,y)的像素点、Gunder-ex中坐标位置为(x,y)的像素点的结构张量记为Z(x,y),Z(x,y)=(J(x,y))TJ(x,y);同样,计算Gmefi中的每个像素点的结构张量,将Gmefi中坐标位置为(x,y)的像素点的结构张量记为Z'(x,y),Z'(x,y)=(J'(x,y))TJ'(x,y);接着计算Gnormal、Gover-ex、Gunder-ex中相同坐标位置的像素点的结构张量与Gmefi中对应像素点的结构张量的余弦距离,将Z(x,y)与Z'(x,y)的余弦距离记为d(x,y);再将所有余弦距离的平均值作为Smefi的结构特征;其中,表示水平方向,表示垂直方向,表示Gnormal(x,y)的水平方向的分量,表示Gnormal(x,y)的垂直方向的分量,表示Gover-ex(x,y)的水平方向的分量,表示Gover-ex(x,y)的垂直方向的分量,表示Gunder-ex(x,y)的水平方向的分量,表示Gunder-ex(x,y)的垂直方向的分量,Z(x,y)的维数为2×2,(J(x,y))T表示J(x,y)的转置,表示Gmefi中坐标位置为(x,y)的像素点的像素值Gmefi(x,y)的水平方向的分量,表示Gmefi中坐标位置为(x,y)的像素点的像素值Gmefi(x,y)的垂直方向的分量,Z'(x,y)的维数为2×2,(J'(x,y))T表示J'(x,y)的转置;
步骤5:计算Snormal、Sover-ex、Sunder-ex各自中的每个像素点的曝光度、对比度和饱和度,将Snormal中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Enormal(x,y)、Cnormal(x,y)、Sanormal(x,y),将Sover-ex中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Eover-ex(x,y)、Cover-ex(x,y)、Saover-ex(x,y),将Sunder-ex中坐标位置为(x,y)的像素点的曝光度、对比度和饱和度对应记为Eunder-ex(x,y)、Cunder-ex(x,y)、Saunder-ex(x,y);然后计算Snormal、Sover-ex、Sunder-ex各自中的每个像素点的权重,将Snormal中坐标位置为(x,y)的像素点的权重记为ωnormal(x,y),ωnormal(x,y)=Enormal(x,y)×Cnormal(x,y)×Sanormal(x,y),将Sover-ex中坐标位置为(x,y)的像素点的权重记为ωover-ex(x,y),ωover-ex(x,y)=Eover-ex(x,y)×Cover-ex(x,y)×Saover-ex(x,y),将Sunder-ex中坐标位置为(x,y)的像素点的权重记为ωunder-ex(x,y),ωunder-ex(x,y)=Eunder-ex(x,y)×Cunder-ex(x,y)×Saunder-ex(x,y);接着对Snormal、Sover-ex、Sunder-ex各自中的每个像素点的权重进行归一化处理,得到Snormal、Sover-ex、Sunder-ex各自对应的权重图,对应记为weightnormal、weightover-ex、weightunder-ex;再对Snormal、Sover-ex、Sunder-ex与weightnormal、weightover-ex、weightunder-ex进行金字塔融合,对Snormal、Sover-ex、Sunder-ex上采样生成拉普拉斯金字塔,对weightnormal、weightover-ex、weightunder-ex上采样生成高斯金字塔,融合得到一幅伪参考融合图像;之后计算Smefi中的每个像素点与伪参考融合图像中对应的像素点的SSIM值;最后计算W×H个SSIM值的平均值,并将平均值作为Smefi的全局感知特征;
步骤6:将Smefi的梯度特征、Smefi的结构特征、Smefi的全局感知特征按序排列构成的向量作为Smefi的特征向量;
步骤7:将Smefi的特征向量作为输入,结合支持向量回归技术,计算得到Smefi的客观质量评价预测值;其中,Smefi的客观质量评价预测值越大,说明Smefi的质量越好;反之,说明Smefi的质量越差。
2.根据权利要求1所述的一种多曝光融合图像质量评价方法,其特征在于所述的步骤2中,计算Smefi、Snormal、Sover-ex、Sunder-ex各自的梯度图时采用的梯度算子为Prewitt算子、Roberts算子、Scharr算子和Sobel算子中的一种。
4.根据权利要求3所述的一种多曝光融合图像质量评价方法,其特征在于所述的步骤5中,Cnormal(x,y)=|L*Ynormal(x,y)|,Sanormal(x,y)=|Unormal(x,y)|+|Vnormal(x,y)|+1,Cover-ex(x,y)=|L*Yover-ex(x,y)|,Saover-ex(x,y)=|Uover-ex(x,y)|+|Vover-ex(x,y)|+1,Cunder-ex(x,y)=|L*Yunder-ex(x,y)|,Saunder-ex(x,y)=|Uunder-ex(x,y)|+|Vunder-ex(x,y)|+1;其中,e表示自然基数,表示Snormal的Y通道中坐标位置为(x,y)的像素点的像素值的归一化值,Ynormal(x,y)表示Snormal的Y通道中坐标位置为(x,y)的像素点的像素值,μ和σ均为常数,μ=0.5,σ=0.2,符号“| |”为取绝对值符号,L表示拉普拉斯算子,符号“*”为卷积运算符号,Unormal(x,y)表示Snormal的U通道中坐标位置为(x,y)的像素点的像素值,Vnormal(x,y)表示Snormal的V通道中坐标位置为(x,y)的像素点的像素值,表示Sover-ex的Y通道中坐标位置为(x,y)的像素点的像素值的归一化值,Yover-ex(x,y)表示Sover-ex的Y通道中坐标位置为(x,y)的像素点的像素值,Uover-ex(x,y)表示Sover-ex的U通道中坐标位置为(x,y)的像素点的像素值,Vover-ex(x,y)表示Sover-ex的V通道中坐标位置为(x,y)的像素点的像素值,表示Sunder-ex的Y通道中坐标位置为(x,y)的像素点的像素值的归一化值,Yunder-ex(x,y)表示Sunder-ex的Y通道中坐标位置为(x,y)的像素点的像素值,Uunder-ex(x,y)表示Sunder-ex的U通道中坐标位置为(x,y)的像素点的像素值,Vunder-ex(x,y)表示Sunder-ex的V通道中坐标位置为(x,y)的像素点的像素值。
5.根据权利要求4所述的一种多曝光融合图像质量评价方法,其特征在于所述的步骤5中,weightnormal、weightover-ex、weightunder-ex的获取过程为:将weightnormal中坐标位置为(x,y)的像素点的像素值记为weightnormal(x,y),weightnormal(x,y)亦为对ωnormal(x,y)进行归一化处理后得到的权重,将weightover-ex中坐标位置为(x,y)的像素点的像素值记为weightover-ex(x,y),weightover-ex(x,y)亦为对ωover-ex(x,y)进行归一化处理后得到的权重,将weightunder-ex中坐标位置为(x,y)的像素点的像素值记为weightunder-ex(x,y),weightunder-ex(x,y)亦为对ωunder-ex(x,y)进行归一化处理后得到的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110403967.4A CN113409247B (zh) | 2021-04-15 | 2021-04-15 | 一种多曝光融合图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110403967.4A CN113409247B (zh) | 2021-04-15 | 2021-04-15 | 一种多曝光融合图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113409247A CN113409247A (zh) | 2021-09-17 |
CN113409247B true CN113409247B (zh) | 2022-07-15 |
Family
ID=77677846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110403967.4A Active CN113409247B (zh) | 2021-04-15 | 2021-04-15 | 一种多曝光融合图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113409247B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782422B (zh) * | 2022-06-17 | 2022-10-14 | 电子科技大学 | 一种svr特征融合的无参考jpeg图像质量评价方法 |
CN117097989B (zh) * | 2023-10-18 | 2024-01-02 | 北京道仪数慧科技有限公司 | 一种图像优选的处理方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780463A (zh) * | 2016-12-15 | 2017-05-31 | 华侨大学 | 一种基于对比度和饱和度的全参考多曝光融合图像质量评估方法 |
CN106886992A (zh) * | 2017-01-24 | 2017-06-23 | 北京理工大学 | 一种基于饱和度的彩色多曝光融合图像的质量评价方法 |
KR102045538B1 (ko) * | 2018-05-31 | 2019-11-15 | 한양대학교 산학협력단 | 패치 기반 다중 노출 영상 융합 방법 및 장치 |
CN112651945A (zh) * | 2020-12-29 | 2021-04-13 | 台州学院 | 一种基于多特征的多曝光图像感知质量评价方法 |
-
2021
- 2021-04-15 CN CN202110403967.4A patent/CN113409247B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780463A (zh) * | 2016-12-15 | 2017-05-31 | 华侨大学 | 一种基于对比度和饱和度的全参考多曝光融合图像质量评估方法 |
CN106886992A (zh) * | 2017-01-24 | 2017-06-23 | 北京理工大学 | 一种基于饱和度的彩色多曝光融合图像的质量评价方法 |
KR102045538B1 (ko) * | 2018-05-31 | 2019-11-15 | 한양대학교 산학협력단 | 패치 기반 다중 노출 영상 융합 방법 및 장치 |
CN112651945A (zh) * | 2020-12-29 | 2021-04-13 | 台州学院 | 一种基于多特征的多曝光图像感知质量评价方法 |
Non-Patent Citations (6)
Title |
---|
Detail-Enhanced Multi-Scale Exposure Fusion in YUV Color Space;Qiantong Wang; Weihai Chen; Xingming Wu,et.,al.;《 IEEE Transactions on Circuits and Systems for Video Technology》;20190327;第30卷(第8期);第2418-2429页 * |
Gradient field multi-exposure images fusion for high dynamic range image visualization;Bo Gu,Wujing Li,Jiangtao Wong,et.,al.;《Journal of Visual Communication and Image Representation》;20120303;第605-610页 * |
Gradient-Directed Multiexposure Composition;Wei Zhang;Wai-Kuen Cham;《IEEE Transactions on Image Processing 》;20110929;第21卷(第4期);第2318-2323页 * |
Perceptual Quality Assessment for Multi-Exposure Image Fusion;Kede Ma; Kai Zeng; Zhou Wang;《 IEEE Transactions on Image Processing 》;20150609;第24卷(第11期);第3345-3356页 * |
一种多曝光融合图像质量评价方法;王丹,郁梅,白永强等;《激光杂志》;20190130;第40卷(第1期);第92-97页 * |
多曝光图像融合质量评价及其感知优化;诸汉炜;《中国优秀硕士学位论文全文数据库信息科技辑》;20201215;第138-243页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113409247A (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046673B (zh) | 基于多特征融合的无参考色调映射图像质量评价方法 | |
CN108694705A (zh) | 一种多帧图像配准与融合去噪的方法 | |
CN106127718B (zh) | 一种基于小波变换的多曝光图像融合方法 | |
CN113409247B (zh) | 一种多曝光融合图像质量评价方法 | |
CN111105376B (zh) | 基于双分支神经网络的单曝光高动态范围图像生成方法 | |
CN109035155B (zh) | 一种光晕去除的多曝光图像融合方法 | |
WO2011031331A1 (en) | Interactive tone mapping for high dynamic range video | |
Ke et al. | Perceptual multi-exposure image fusion with overall image quality index and local saturation | |
Wang et al. | Low-light image enhancement based on virtual exposure | |
CN112950596A (zh) | 基于多区域多层次的色调映射全向图像质量评价方法 | |
CN110910347B (zh) | 一种基于图像分割的色调映射图像无参考质量评价方法 | |
Lv et al. | Low-light image enhancement via deep Retinex decomposition and bilateral learning | |
CN112070692A (zh) | 一种基于虚拟曝光的单幅逆光图像增强方法 | |
Liu et al. | Color enhancement using global parameters and local features learning | |
CN110246086A (zh) | 彩色图像增强的图像处理方法及其图像处理系统 | |
CN112651945A (zh) | 一种基于多特征的多曝光图像感知质量评价方法 | |
Ye et al. | Single exposure high dynamic range image reconstruction based on deep dual-branch network | |
Bhandari et al. | Gamma corrected reflectance for low contrast image enhancement using guided filter | |
Akyüz et al. | An evaluation of image reproduction algorithms for high contrast scenes on large and small screen display devices | |
KR20140072980A (ko) | 단일 영상을 이용한 hdr 영상 생성 장치 및 방법 | |
JP4359662B2 (ja) | カラー画像の露出補正方法 | |
Zabaleta et al. | Photorealistic style transfer for video | |
Shen et al. | Over-exposure image correction with automatic texture synthesis | |
CN116977190A (zh) | 图像处理方法、装置、设备、存储介质及程序产品 | |
CN114862698A (zh) | 一种基于通道引导的真实过曝光图像校正方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |