CN110910365A - 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法 - Google Patents

一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法 Download PDF

Info

Publication number
CN110910365A
CN110910365A CN201911124954.2A CN201911124954A CN110910365A CN 110910365 A CN110910365 A CN 110910365A CN 201911124954 A CN201911124954 A CN 201911124954A CN 110910365 A CN110910365 A CN 110910365A
Authority
CN
China
Prior art keywords
image
information
region
quality
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911124954.2A
Other languages
English (en)
Inventor
方玉明
鄢杰斌
曾妍
诸汉炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201911124954.2A priority Critical patent/CN110910365A/zh
Publication of CN110910365A publication Critical patent/CN110910365A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法,其特征在于,首先,基于多曝光融合图像与源曝光级序列图像的结构差异性使用超像素分割法将融合图像划分为信息量较大和信息量较小区域;其次,基于拉普拉斯金字塔分别计算信息量较大和信息量较小区域的质量图;再次,采用基于信息论的自适应性加权策略计算信息量较大和信息量较小区域局部质量分数,然后平均所得的变动较大和变动较小区域的局部质量分数得到融合图像的质量分数。实验结果表明,该方法对动态场景和静态场景的多曝光融合图像的视觉质量评价都展现出良好的预测性能。

Description

一种同时对于动态场景和静态场景的多曝光融合图像的质量 评价方法
技术领域
本发明涉及一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法,属于多媒体技术领域,具体属于数字图像和数字视频处理技术领域。
背景技术
随着数字媒体的爆炸式增长,人们对于高质量图像的需求也在不断增长,然而,普通传感器和显示器能捕捉到的亮度动态范围的是有限的,很难重现真实世界中的所有动态范围的细节。高动态范围图像合成技术和多曝光融合技术可以克服这个缺陷,高动态范围图像合成技术是通过转换相机响应函数将一系列在相同的场景拍摄不同的曝光级别的图像序列融合成一张高动态范围图像,为了能在普通显示器上显示图像,随后借助色调映射技术将高动态范围图像压缩成低动态范围图像。而多曝光融合技术直接将一系列不同曝光级别的图像序列融合成一张信息丰富的低动态范围图像。
然而,高动态范围图像合成技术和多曝光融合技术都需要输入对齐的不同曝光级别的图像序列,也就是拍摄场景中不能包含移动的物体或相机、手的抖动,获得的源曝光级序列中不能包含动态信息,不同曝光级别图像间小小的位移都会导致最终融合的图像中产生鬼影。最近几年,越来越多人研究如何检测和抑制鬼影。然而,不同的高动态范围图像合成技术和多曝光融合技术会影响融合图像结构、对比度和颜色等方面,并且产生的融合图像拥有不同的感知质量。因此,设计一个质量评价方法同时评估动态场景和静态场景的多曝光融合图像是非常有必要的。现存只有几个评估静态场景的多曝光融合图像的客观质量评估方法和少量评估动态场景的多曝光融合图像的客观质量评估方法,这些方法都不能同时评估动态场景和静态场景的多曝光融合图像。就本发明所知的,目前没有提出任何同时针对动态场景和静态场景的多曝光融合图像的客观质量评价算法。因此,填补同时针对动态场景和静态场景的多曝光融合图像质量评价的空白,本发明旨在设计针对同时针对动态场景和静态场景的多曝光融合图像的客观质量算法,有效的实现同时针对动态场景和静态场景的多曝光融合图像客观质量的自动预测。
发明内容
本发明涉及一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法,其特征在于,首先,基于多曝光融合图像与源曝光级序列图像的结构差异性使用超像素分割法将融合图像划分为信息量较大和信息量较小区域;其次,基于拉普拉斯金字塔分别计算信息量较大和信息量较小区域的质量图;再次,采用基于信息论的自适应性加权策略计算信息量较大和信息量较小区域局部质量分数,然后平均所得的变动较大和变动较小区域的局部质量分数得到融合图像的质量分数。实验结果表明,该方法对动态场景和静态场景的多曝光融合图像的视觉质量评价都展现出良好的预测性能。
一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法,其特征在于,包括以下几个步骤:
A.计算多曝光融合图像与源曝光级序列图像的结构差异性,同时,对多曝光融合图像进行超像素分割,计算每个超像素块中的平均差异值,并根据所得的差异值将超像素块二值化,由此获得将融合图像划分为信息量较大和信息量较小区域的二值图;
B.将融合图像进行拉普拉斯金字塔分解,对于信息量较大区域,计算融合图像与源曝光级序列图像的结构相似性和对比度保真度,结合结构相似性和对比度保真度获得信息量较大区域的质量图;
C.对于信息量较小区域,分别计算融合图像与源曝光级序列图像的纹理相似性和对比度保真度,结合纹理相似性和对比度保真的获得信息量较小区域的质量图;
D.分别计算信息量较大区域和信息量较小区域的超像素块的质量分数,然后计算融合图像的锐度,并求得每个超像素块锐利度的熵,把所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,将得到的局部质量分数求平均,获得融合图像的全局质量分数,最后采用多尺度加权方法得到融合图像的总体视觉质量分数。
进一步地,基于多曝光融合图像与源曝光级序列图像的结构差异性,用超像素分割将融合图像划分为信息量较大区域和信息量较小区域,其具体步骤是:
A.计算融合图像与源曝光级序列图像的结构差异性,其计算公式如下:
Figure BDA0002276502090000031
其中,xk表示第k张源曝光级序列图,共有K张序列图;y表示多曝光融合图像;σy
Figure BDA0002276502090000036
是用大小为11×11,标准差为1.5的高斯滑动窗口分别计算融合图像y,第k张源曝光级序列图像xk的方差;
Figure BDA0002276502090000035
是融合图像y和第k张源曝光级序列图像xk的协方差;C1是一个提高算式稳定性的常量,C1=(0.03×255)2
B.随后计算每个超像素块中的结构差异值,其计算公式如下:
其中,bi是以第i个像素点为中心的超像素块;|bi|是该超像素块中包含的像素数量;mean(·)表示在每个像素点上的求均值操作;然后根据所得的差异值二值化超像素块,得到将融合图像划分为信息量较大和信息量较小区域的二值图,其计算公式如下:
Figure BDA0002276502090000033
其中,Th是提前设置的阈值,Th=0.9。
进一步地,将融合图像进行拉普拉斯金字塔分解,对于信息量较大区域,计算融合图像与源曝光级序列图像的结构相似性和对比度保真度,结合结构相似性和对比度保真度获得信息量较大区域的质量图,其具体步骤是:
A.将融合图像与源曝光级序列图像进行拉普拉斯金字塔分解,用ly,s
Figure BDA0002276502090000037
表示第s个尺度的融合图像和第k张源曝光级序列图像的拉普拉斯金字塔分解图,共有S个尺度,则融合图像和第k张源曝光级序列图像在第s个尺度上的结构相似性的计算公式如下:
Figure BDA0002276502090000034
其中,C2是一个提高算式稳定性的常量,C2=C1
B.使用对比度敏感函数(Contrast sensitive function)量化图像的对比度信息,其计算公式如下;
cy,s(m,n)=F-1[F[ly,s]sd(r)], (5
Figure BDA0002276502090000048
其中,(m,n)表示像素点位置;F[·]表示傅里叶变换;sd(r)是在极坐标中的对比度敏感函数,计算公式如下:
Figure BDA0002276502090000041
其中,r表示极坐标点,
Figure BDA0002276502090000042
f0和f1表示中心和四周的空间频率,f0=15.3870,f1=1.3456;参数a是振幅参数,a=0.7622;随后,对比度保真度可由如下公式计算:
Figure BDA0002276502090000043
C.通过结合结构保真度和对比度保真度,可获得信息量较大区域的质量图,其计算公式如下:
Figure BDA0002276502090000044
其中,α和β是用来调节两个保真度的相对重要性,α=β=1。
进一步地,对于信息量较小区域,分别计算融合图像与源曝光级序列图像的纹理相似性和对比度保真度,结合纹理相似性和对比度保真的获得变动较小区域的质量,其具体步骤是:
A.使用高斯拉普拉斯算子提取融合图像和源曝光级序列图像的纹理信息,其计算公式如下:
Figure BDA0002276502090000045
Figure BDA0002276502090000046
Figure BDA0002276502090000047
其中,gy,s
Figure BDA0002276502090000049
分别是融合图像和第k张源曝光级序列图像在s个尺度上的纹理信息;LoG(m,n)是以0为中心,标准差为σ高斯拉普拉斯函数;
Figure BDA00022765020900000410
表示卷积操作;融合图像和源曝光级序列图像间的纹理相似性可通过如下公式计算得:
Figure BDA0002276502090000051
B.与信息量较大区域相似,通过式(5)-(8)可以计算得到信息量较小区域的对比度保准度
Figure BDA0002276502090000052
C.结合纹理相似性和对比度保真度,得到变动较小区域的质量图,其计算公式如下:
Figure BDA0002276502090000053
其中,γ和δ是调节两个保真度的相对重要性,γ=δ=1。
进一步地,分别计算信息量较大区域和信息量较小区域的超像素块的质量分数,然后计算融合图像的锐利度,并求得每个超像素块锐利度的熵,把所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,将得到的局部质量分数求平均,获得融合图像的全局质量分数,最后采用多尺度的方法加权得到融合图像的总体视觉质量分数;其具体步骤是:
A.首先,计算融合图像y与第k张源曝光级序列图像的互信息
Figure BDA0002276502090000054
然后用互信息加权每个超像素块中的平均质量,并选择最大的质量分数作为超像素块的质量分数,其计算公式如下:
Figure BDA0002276502090000055
其中,br是在信息量较大区域以第r个像素为中心的超像素块;|br|是该超像素块中包含的像素数量;
B.对于超像素块中最大的平均质量分数,其计算公式如下:
Figure BDA0002276502090000056
C.信息量较大区域内的超像素块的质量分数可通过如下公式计算得到:
Figure BDA0002276502090000057
其中,wt是平衡两个质量分数的权重;
D.对于信息量较小区域,计算每张源曝光级序列图像的感知信息内容,其计算公式如下:
Figure BDA0002276502090000061
其中,C4表示人类视觉系统中的噪声强度,通过计算得到的感知信息内容将信息量较小区域的质量图融合成一张质量图,其计算公式如下:
Figure BDA0002276502090000062
Figure BDA0002276502090000063
E.信息量较小区域内的超像素块的质量分数可通过如下公式计算得到:
Figure BDA0002276502090000064
其中,bd是在信息量较小区域以第d个像素为中心的超像素块;|bd|是该超像素块中包含的像素数量;
F.对于融合图像的锐度,利用四个多方向的算子{fτ}τ=1,2,3,4提取融合图像的锐度,其计算公式如下:
Figure BDA0002276502090000065
其中,τ1和τ2表示卷积后得到前两个最大值的算子的索引;|·|表示取绝对值;
G.计算每个超像素块锐度的熵,把信息量较大区域以像素r为中心的超像素块的熵记为
Figure BDA0002276502090000066
信息量较大区域以像素d为中心的超像素块的熵记为
Figure BDA0002276502090000067
随后,将所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,其计算公式如下:
Figure BDA0002276502090000068
其中,nu和nv分别表示信息量较大区域和信息量较小区域超像素的数量;因此,融合图像的全局质量分数为:
Figure BDA0002276502090000071
H.采用多尺度的方法计算融合图像的总体视觉质量分数,其计算公式如下:
Figure BDA0002276502090000072
其中ωs表示第s个尺度的权重,其中ωs为{ω1=0.0517,ω2=0.3295,ω3=0.3462,ω4=0.2726}。
附图说明
图1为本发明的算法框架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
其中,本文所涉及的技术特征、简写/缩写、符号等,以本领域技术人员的公知认识/通常理解为基础进行解释、定义/说明。
下面结合附图,对本发明的技术方案做进一步的详细描述。
本发明的过程如图1所示,具体过程如下:
步骤1:计算多曝光融合图像与源曝光级序列图像的结构差异性,同时,对多曝光融合图像进行超像素分割,计算每个超像素块中的平均差异值,并根据所得的差异值将超像素块二值化,由此获得将融合图像划分为信息量较大和信息量较小区域的二值图;
步骤2:将融合图像进行拉普拉斯金字塔分解,对于信息量较大区域,计算融合图像与源曝光级序列图像的结构相似性和对比度保真度,结合结构相似性和对比度保真度获得信息量较大区域的质量图;
步骤3:对于信息量较小区域,分别计算融合图像与源曝光级序列图像的纹理相似性和对比度保真度,结合纹理相似性和对比度保真的获得信息量较小区域的质量图;
步骤4:采用自适应权重策略,分别计算信息量较大区域和信息量较小区域的超像素块的质量分数,然后计算融合图像的锐度,并求得每个超像素块锐利度的熵,把所求的熵值作为变动较大区域和变动较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,将得到的局部质量分数求平均,获得融合图像的全局质量分数。
本发明使用一种常用的标准来评估算法预测三维视频质量的准确性。斯皮尔曼的相关系数(Spearman Rank-order Correlation Coefficient,SRCC),用来评估预测的单调性。一般来说,SRCC值越接近于1说明单调性越高,越接近0说明单调性越低。为了验证本发明提出的算法的性能,本发明将算法与现有的多曝光融合图像质量评价方法在静态多曝光融合数据库MEF-S和动态多曝光融合数据库MEF-D上进行比较,包括Wang08、Hossny08、Wang04、Ma15、Xing17、Rahman17以及Fang19。
本发明提出了一种有效的同时针对动态场景和静态场景的多曝光融合图像的客观质量评价方法,该方法主要分为为四个部分:信息量较大和信息量较小区域划分;信息量较大区域质量评价;信息量较小区域质量评价;自适应权重策略。
本发明各个部分的具体操作如下:
(1)信息量较大和信息量较小区域划分:
多曝光融合图像是由一组不同曝光级别的图像序列融合而成,首先,计算融合图像与源曝光级序列图像的结构差异性,其计算公式如下:
Figure BDA0002276502090000081
其中,xk表示第k张源曝光级序列图,共有K张序列图;y表示多曝光融合图像;σy
Figure BDA0002276502090000082
是用大小为11×11,标准差为1.5的高斯滑动窗口分别计算融合图像y,第k张源曝光级序列图像xk的方差;
Figure BDA0002276502090000083
是融合图像y和第k张源曝光级序列图像xk的协方差;C1是一个提高算式稳定性的常量,C1=(0.03×255)2;随后计算每个超像素块中的结构差异值,其计算公式如下:
Figure BDA0002276502090000091
其中,bi是以第i个像素点为中心的超像素块;|bi|是该超像素块中包含的像素数量;mean(·)表示在每个像素点上的求均值操作;然后根据所得的差异值二值化超像素块,得到将融合图像划分为信息量较大和信息量较小区域的二值图,其计算公式如下:
Figure BDA0002276502090000092
其中,Th是提前设置的阈值,Th=0.9。
(2)信息量较大区域质量评价:
将融合图像与源曝光级序列图像进行拉普拉斯金字塔分解,用ly,s
Figure BDA0002276502090000093
表示第s个尺度的融合图像和第k张源曝光级序列图像的拉普拉斯金字塔分解图,共有S个尺度;则融合图像和第k张源曝光级序列图像在第s个尺度上的结构相似度的计算公式如下:
Figure BDA0002276502090000094
其中,C2是一个提高算式稳定性的常量,C2=C1。使用对比度敏感函数(Contrastsensitive function)量化图像的对比度信息,其计算公式如下;
cy,s(m,n)=F-1[F[ly,s]sd(r)], (30
Figure BDA0002276502090000095
其中,(m,n)表示像素点位置;F[·]表示傅里叶变换;sd(r)是在极坐标中的对比度敏感函数,计算公式如下:
Figure BDA0002276502090000101
其中,r表示极坐标点,
Figure BDA0002276502090000102
f0和f1表示中心和四周的空间频率,f0=15.3870,f1=1.3456;参数a是振幅参数,a=0.7622。随后,对比度保真度可由如下公式计算:
Figure BDA0002276502090000103
随后,通过结合结构相似度和对比度保真度,可获得信息量较大区域的质量图,其计算公式如下:
Figure BDA0002276502090000104
其中,α和β是用来调节两个保真度的相对重要性,α=β=1。
(3)信息量较小区域质量评价:
使用高斯拉普拉斯(Laplacian ofGaussian)算子提取融合图像和源曝光级序列图像的纹理信息,其计算公式如下:
Figure BDA0002276502090000105
Figure BDA0002276502090000106
Figure BDA0002276502090000107
其中,LoG(m,n)是以0为中心,标准差为σ高斯拉普拉斯函数,
Figure BDA0002276502090000108
表示卷积操作;因此,融合图像和源曝光级序列图像间的纹理相似度可通过如下公式计算得:
Figure BDA0002276502090000109
与信息量较大区域相似,通过式(5)-(8)可以计算得到信息量较小区域的对比度保准度
Figure BDA00022765020900001010
结合纹理相似度和对比度保真度,得到信息量较小区域的质量图,其计算公式如下:
Figure BDA0002276502090000111
其中,γ和δ是调节两个保真度的相对重要性,γ=δ=1。
(4)自适应权重策略
首先,计算融合图像y与第k张源曝光级序列图像的互信息
Figure BDA0002276502090000112
然后用互信息加权每个超像素块中的平均质量,并选择最大的质量分数作为超像素块的质量分数,其计算公式如下:
Figure BDA0002276502090000113
其中,br是在信息量较大区域以第r个像素为中心的超像素块;|br|是该超像素块中包含的像素数量;对于超像素块中最大的平均质量分数,其计算公式如下:
Figure BDA0002276502090000114
因此,信息量较大区域内的超像素块的质量分数可通过如下公式计算得到:
Figure BDA0002276502090000115
其中,wt是平衡两个质量分数的权重。
对于信息量较小区域,计算每张源曝光级序列图像的感知信息内容,其计算公式如下:
Figure BDA0002276502090000116
其中,C4表示人类视觉系统中的噪声强度。通过计算得到的感知信息内容将信息量小区域的质量图融合成一张质量图,其计算公式如下:
Figure BDA0002276502090000117
Figure BDA0002276502090000118
信息量较小区域内的超像素块的质量分数可通过如下公式计算得到:
Figure BDA0002276502090000121
其中,bd是在信息量较小区域以第d个像素为中心的超像素块;|bd|是该超像素块中包含的像素数量。
接下来,计算融合图像的锐度,利用四个多方向的算子{fτ}τ=1,2,3,4提取融合图像的锐度,其计算公式如下:
Figure BDA0002276502090000122
其中,τ1和τ2表示卷积后得到前两个最大值的算子的索引;|·|表示取绝对值。计算每个超像素块锐度的熵,把信息量较大区域以像素r为中心的超像素块的熵记为
Figure BDA0002276502090000123
信息量较大区域以像素d为中心的超像素块的熵记为
Figure BDA0002276502090000124
随后,将所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,其计算公式如下:
Figure BDA0002276502090000125
其中,nu和nv分别表示信息量较大区域和信息量较小区域超像素的数量。因此,融合图像的全局质量分数为:
Figure BDA0002276502090000126
最后采用多尺度的方法计算融合图像的总体视觉质量分数,其计算公式如下:
Figure BDA0002276502090000127
其中ωs表示第s个尺度的权重,其中{ω1=0.0517,ω2=0.3295,ω3=0.3462,ω4=0.2726}。
表1:本发明和其它不同质量评价方法模型在数据库MEF-S上性能的比较
方法 Hossny08 Wang04 Ma15 Xing17 Rahman17 Fang19 本发明
SRCC -0.278 -0.252 0.857 0.878 0.910 0.697 0.870
表1为不同融合图像客观质量评价方法在静态多曝光融合图像数据库上比较的实例,本发明提出的同时对于动态场景和静态场景的多曝光融合图像质量评价方法性能较好。
表2:本发明和其它不同质量评价方法模型在数据库MEF-D上性能的比较
方法 Wang08 Hossny08 Wang04 Ma15 Rahman17 Fang19 本发明
SRCC 0.283 0.608 0.618 0.202 0.188 0.730 0.743
表2为不同融合图像客观质量评价方法在动态多曝光融合图像数据库上比较的实例,本发明提出的同时对于动态场景和静态场景的多曝光融合图像质量评价方法性能最好。
上述实施方式是对本发明的说明,不是对本发明的限定,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的保护范围由所附权利要求及其等同物限定。

Claims (5)

1.一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法,其特征在于,包括以下几个步骤:
A.计算多曝光融合图像与源曝光级序列图像的结构差异性,同时,对多曝光融合图像进行超像素分割,计算每个超像素块中的平均差异值,并根据所得的差异值将超像素块二值化,由此获得将融合图像划分为信息量较大和信息量较小区域的二值图;
B.将融合图像进行拉普拉斯金字塔分解,对于信息量较大区域,计算融合图像与源曝光级序列图像的结构相似性和对比度保真度,结合结构相似性和对比度保真度获得信息量较大区域的质量图;
C.对于信息量较小区域,分别计算融合图像与源曝光级序列图像的纹理相似性和对比度保真度,结合纹理相似性和对比度保真的获得信息量较小区域的质量图;
D.分别计算信息量较大区域和信息量较小区域的超像素块的质量分数,然后计算融合图像的锐度,并求得每个超像素块锐利度的熵,把所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,将得到的局部质量分数求平均,获得融合图像的全局质量分数,最后采用多尺度加权方法得到融合图像的总体视觉质量分数。
2.根据权利要求1所述的方法,其特征在于,基于多曝光融合图像与源曝光级序列图像的结构差异性,用超像素分割将融合图像划分为信息量较大区域和信息量较小区域,其具体步骤是:
A.计算融合图像与源曝光级序列图像的结构差异性,其计算公式如下:
Figure FDA0002276502080000011
其中,xk表示第k张源曝光级序列图,共有K张序列图;y表示多曝光融合图像;σy
Figure FDA0002276502080000012
是用大小为11×11,标准差为1.5的高斯滑动窗口分别计算融合图像y,第k张源曝光级序列图像xk的方差;
Figure FDA0002276502080000013
是融合图像y和第k张源曝光级序列图像xk的协方差;C1是一个提高算式稳定性的常量,C1=(0.03×255)2
B.随后计算每个超像素块中的结构差异值,其计算公式如下:
Figure FDA0002276502080000021
其中,bi是以第i个像素点为中心的超像素块;|bi|是该超像素块中包含的像素数量;mean(·)表示在每个像素点上的求均值操作;然后根据所得的差异值二值化超像素块,得到将融合图像划分为信息量较大和信息量较小区域的二值图,其计算公式如下:
Figure FDA0002276502080000022
其中,Th是提前设置的阈值,Th=0.9。
3.根据权利要求1所述的方法,其特征在于,将融合图像进行拉普拉斯金字塔分解,对于信息量较大区域,计算融合图像与源曝光级序列图像的结构相似性和对比度保真度,结合结构相似性和对比度保真度获得信息量较大区域的质量图,其具体步骤是:
A.将融合图像与源曝光级序列图像进行拉普拉斯金字塔分解,用ly,s
Figure FDA0002276502080000027
表示第s个尺度的融合图像和第k张源曝光级序列图像的拉普拉斯金字塔分解图,共有S个尺度,则融合图像和第k张源曝光级序列图像在第s个尺度上的结构相似性的计算公式如下:
Figure FDA0002276502080000023
其中,C2是一个提高算式稳定性的常量,C2=C1
B.使用对比度敏感函数(Contrast sensitive function)量化图像的对比度信息,其计算公式如下;
cy,s(m,n)=F-1[F[ly,s]sd(r)], (5)
Figure FDA0002276502080000024
其中,(m,n)表示像素点位置;F[·]表示傅里叶变换;sd(r)是在极坐标中的对比度敏感函数,计算公式如下:
Figure FDA0002276502080000025
其中,r表示极坐标点,
Figure FDA0002276502080000026
f0和f1表示中心和四周的空间频率,f0=15.3870,f1=1.3456;参数a是振幅参数,a=0.7622;随后,对比度保真度可由如下公式计算:
Figure FDA0002276502080000031
C.通过结合结构保真度和对比度保真度,可获得信息量较大区域的质量图,其计算公式如下:
Figure FDA0002276502080000032
其中,α和β是用来调节两个保真度的相对重要性,α=β=1。
4.根据权利要求3所述的方法,其特征在于,对于信息量较小区域,分别计算融合图像与源曝光级序列图像的纹理相似性和对比度保真度,结合纹理相似性和对比度保真的获得变动较小区域的质量,其具体步骤是:
A.使用高斯拉普拉斯算子提取融合图像和源曝光级序列图像的纹理信息,其计算公式如下:
Figure FDA0002276502080000033
Figure FDA0002276502080000034
Figure FDA0002276502080000035
其中,gy,s
Figure FDA00022765020800000310
分别是融合图像和第k张源曝光级序列图像在s个尺度上的纹理信息;LoG(m,n)是以0为中心,标准差为σ高斯拉普拉斯函数;
Figure FDA0002276502080000038
表示卷积操作;融合图像和源曝光级序列图像间的纹理相似性可通过如下公式计算得:
Figure FDA0002276502080000036
B.与信息量较大区域相似,通过式(5)-(8)可以计算得到信息量较小区域的对比度保准度
Figure FDA0002276502080000039
C.结合纹理相似性和对比度保真度,得到变动较小区域的质量图,其计算公式如下:
Figure FDA0002276502080000037
其中,γ和δ是调节两个保真度的相对重要性,γ=δ=1。
5.根据权利要求3所述的方法,其特征在于,分别计算信息量较大区域和信息量较小区域的超像素块的质量分数,然后计算融合图像的锐利度,并求得每个超像素块锐利度的熵,把所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,将得到的局部质量分数求平均,获得融合图像的全局质量分数,最后采用多尺度的方法加权得到融合图像的总体视觉质量分数;其具体步骤是:
A.首先,计算融合图像y与第k张源曝光级序列图像的互信息
Figure FDA0002276502080000045
然后用互信息加权每个超像素块中的平均质量,并选择最大的质量分数作为超像素块的质量分数,其计算公式如下:
Figure FDA0002276502080000041
其中,br是在信息量较大区域以第r个像素为中心的超像素块;|br|是该超像素块中包含的像素数量;
B.对于超像素块中最大的平均质量分数,其计算公式如下:
Figure FDA0002276502080000042
C.信息量较大区域内的超像素块的质量分数可通过如下公式计算得到:
Figure FDA0002276502080000043
其中,wt是平衡两个质量分数的权重;
D.对于信息量较小区域,计算每张源曝光级序列图像的感知信息内容,其计算公式如下:
Figure FDA0002276502080000044
其中,C4表示人类视觉系统中的噪声强度,通过计算得到的感知信息内容将信息量较小区域的质量图融合成一张质量图,其计算公式如下:
Figure FDA0002276502080000051
Figure FDA0002276502080000052
E.信息量较小区域内的超像素块的质量分数可通过如下公式计算得到:
Figure FDA0002276502080000053
其中,bd是在信息量较小区域以第d个像素为中心的超像素块;|bd|是该超像素块中包含的像素数量;
F.对于融合图像的锐度,利用四个多方向的算子{fτ}τ=1,2,3,4提取融合图像的锐度,其计算公式如下:
Figure FDA0002276502080000054
其中,τ1和τ2表示卷积后得到前两个最大值的算子的索引;|·|表示取绝对值;
G.计算每个超像素块锐度的熵,把信息量较大区域以像素r为中心的超像素块的熵记为
Figure FDA0002276502080000058
信息量较大区域以像素d为中心的超像素块的熵记为
Figure FDA0002276502080000059
随后,将所求的熵值作为信息量较大区域和信息量较小区域质量分数的权重,计算得到信息量较大区域和信息量较小区域的局部质量分数,其计算公式如下:
Figure FDA0002276502080000055
其中,nu和nv分别表示信息量较大区域和信息量较小区域超像素的数量;因此,融合图像的全局质量分数为:
Figure FDA0002276502080000056
H.采用多尺度的方法计算融合图像的总体视觉质量分数,其计算公式如下:
Figure FDA0002276502080000057
其中ωs表示第s个尺度的权重,其中ωs为{ω1=0.0517,ω2=0.3295,ω3=0.3462,ω4=0.2726}。
CN201911124954.2A 2019-11-18 2019-11-18 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法 Pending CN110910365A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911124954.2A CN110910365A (zh) 2019-11-18 2019-11-18 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911124954.2A CN110910365A (zh) 2019-11-18 2019-11-18 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法

Publications (1)

Publication Number Publication Date
CN110910365A true CN110910365A (zh) 2020-03-24

Family

ID=69817557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911124954.2A Pending CN110910365A (zh) 2019-11-18 2019-11-18 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法

Country Status (1)

Country Link
CN (1) CN110910365A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113079323A (zh) * 2021-03-31 2021-07-06 中国科学院长春光学精密机械与物理研究所 一种基于二维熵的航天遥感载荷自动曝光方法
CN113610863A (zh) * 2021-07-22 2021-11-05 东华理工大学 多曝光图像融合质量评估方法
TWI800943B (zh) * 2021-10-08 2023-05-01 大陸商星宸科技股份有限公司 圖像處理裝置與圖像處理方法
CN117097989A (zh) * 2023-10-18 2023-11-21 北京道仪数慧科技有限公司 一种图像优选的处理方法和装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113079323A (zh) * 2021-03-31 2021-07-06 中国科学院长春光学精密机械与物理研究所 一种基于二维熵的航天遥感载荷自动曝光方法
CN113610863A (zh) * 2021-07-22 2021-11-05 东华理工大学 多曝光图像融合质量评估方法
CN113610863B (zh) * 2021-07-22 2023-08-04 东华理工大学 多曝光图像融合质量评估方法
TWI800943B (zh) * 2021-10-08 2023-05-01 大陸商星宸科技股份有限公司 圖像處理裝置與圖像處理方法
CN117097989A (zh) * 2023-10-18 2023-11-21 北京道仪数慧科技有限公司 一种图像优选的处理方法和装置
CN117097989B (zh) * 2023-10-18 2024-01-02 北京道仪数慧科技有限公司 一种图像优选的处理方法和装置

Similar Documents

Publication Publication Date Title
CN107767413B (zh) 一种基于卷积神经网络的图像深度估计方法
CN110910365A (zh) 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法
CN108549874B (zh) 一种目标检测方法、设备及计算机可读存储介质
Negru et al. Exponential contrast restoration in fog conditions for driving assistance
CN109360178B (zh) 基于融合图像的无参考立体图像质量评价方法
CN109255358B (zh) 一种基于视觉显著性和深度图的3d图像质量评价方法
CN109978854B (zh) 一种基于边缘与结构特征的屏幕内容图像质量评估方法
CN101729911B (zh) 一种基于视觉感知的多视点图像颜色校正方法
CN105279772B (zh) 一种红外序列图像的可跟踪性判别方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN107358141B (zh) 数据识别的方法及装置
CN111047543A (zh) 图像增强方法、装置和存储介质
CN107578399B (zh) 基于边界特征分割的全参考图像质量评价方法
CN102231844B (zh) 基于结构相似度和人眼视觉的视频图像融合性能评价方法
CN110853027A (zh) 一种基于局部变动和全局变化的三维合成图像无参考质量评价方法
CN108830829B (zh) 联合多种边缘检测算子的无参考质量评价算法
CN111260687A (zh) 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN116129195A (zh) 图像质量评价装置、方法、电子设备和存储介质
CN110046595B (zh) 一种基于级联式多尺度的密集人脸检测方法
CN108122231B (zh) 监控视频下基于roi拉普拉斯算法的图像质量评价方法
CN112508847A (zh) 一种基于深度特征与结构加权lbp特征的图像质量评价方法
CN104394405B (zh) 一种基于全参考图像的客观质量评价方法
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
CN110796635B (zh) 一种基于剪切波变换的光场图像质量评价方法
CN109167988B (zh) 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination