CN102881010B - 基于人眼视觉特性的融合图像感知清晰度评价方法 - Google Patents
基于人眼视觉特性的融合图像感知清晰度评价方法 Download PDFInfo
- Publication number
- CN102881010B CN102881010B CN201210310703.5A CN201210310703A CN102881010B CN 102881010 B CN102881010 B CN 102881010B CN 201210310703 A CN201210310703 A CN 201210310703A CN 102881010 B CN102881010 B CN 102881010B
- Authority
- CN
- China
- Prior art keywords
- image
- human
- contrast
- perception
- sharpness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明涉及一种基于人眼视觉特性的彩色融合图像清晰度评价方法,属于图像处理中图像融合技术领域。本发明基于两方面主要的人眼视觉特性,即对比度敏感特性和亮度掩模特性,构造了人眼感知对比度模型,通过改进Peli对比度模型提出新的图像感知对比度算法,通过计算图像中细节边缘区域的人眼感知对比度来评价图像的感知清晰度,得到与人眼主观更加一致的图像清晰度客观评价模型。本方法主要用于衡量不同波段融合图像是否能满足特定的应用需求,即是否有利于观察者对图像场景内容的理解。
Description
技术领域
本发明涉及一种基于人眼视觉特性的融合图像感知清晰度评价方法,属于图像处理中融合技术领域。
背景技术
近年来,随着多波段图像传感器技术的发展,多波段图像融合技术已有实用的系统和装备获得成功的应用。使观察者获得更准确的场景理解是融合图像的主要目的之一,清晰的融合图像更有利于观察者对图像场景内容的理解,如何评价融合图像的质量,成为图像融合技术和系统设计的重要环节。
图像清晰度是评价图像质量时常用的质量属性,其包含分辨率和锐度两方面因素。分辨率反映图像细节信息,锐度则表示边缘变化的尖锐程度。清晰度好的图像具有较丰富的细节信息,表现出边缘和纹理方面较好的辨识性。同时,使观察者获得更准确的场景理解是融合图像的主要目的之一,清晰的融合图像更有利于观察者对图像场景内容的理解。因此,清晰度是影响融合图像质量的一个重要方面。对于彩色图像,清晰度主要取决于图像的亮度分量。因此,目前大量研究均使用彩色图像的亮度分量来构造客观计算模型,评价彩色图像的清晰度,例如,Yuan基于亮度分量的梯度信息给出彩色融合图像清晰度评价模型SY;Zhang通过衡量灰度图像的局部对比度给出彩色图像清晰度评价模型SZ;Zhu基于灰度图像局部梯度的奇异值分解,提出了彩色图像清晰度评价模型SZhu。此外,Marziliano通过计算图像中边缘过渡带的宽度给出图像模糊度指标BM(图像越模糊则清晰度越差);Crete利用不同清晰度图像,经相同高斯模糊后,梯度变化量的不同,给出彩色图像模糊度评价模型BC。
以上所述模型均利用图像的亮度分量来评价彩色图像清晰度,虽然可以方便的衡量图像的清晰度,但是缺少考虑人眼视觉特性,以上模型在某些情况下无法得到与人眼主观一致的评价结果。事实上,图像感知清晰度与观察者所处的观察条件,例如观察距离,显示器屏幕每英寸的像素数等因素,以及人眼视觉特性有密切的关系。因此,考虑特定观察条件下人眼的视觉特性来构造与人眼主观更加一致的融合图像感知清晰度评价模型成为亟待解决的问题。
发明内容
本发明的目的是克服现有技术的上述不足,建立一种考虑人眼视觉特性的融合图像感知清晰度的评价方法。本发明基于人眼视觉特性,提出新的图像感知对比度算法,能够实现对彩色融合图像感知清晰度的客观评价,其评价结果与人眼主观感受具有较好的一致性。
为达到上述目的,本发明的技术方案为:
一种基于人眼视觉特性的融合图像感知清晰度评价方法,包括如下步骤:
步骤一、设同一场景的两幅源图像分别为图像一S1(x,y)和图像二S2(x,y),以及二者的融合图像为g(x,y),(x,y)为图像中像素位置坐标,图像一S1(x,y)和图像二S2(x,y)尺寸一致,若融合后的图像为彩色图像,则将融合后的图像转换为灰度图像g(x,y);
步骤二、利用图像一与图像二,计算该图像场景的人眼感兴趣区域ROI,方法如下:
201、分别计算图像一的带通图像Ibp1(x,y)和图像二的带通图像Ibp2(x,y),即:
Ibp1(x,y)=(φ0-φ1)*S1(x,y)
Ibp2(x,y)=(φ0-φ1)*S2(x,y)
其中,“*”为卷积;φj为高斯核标准偏差σj=2j,j取0和1时,分别对应φ0和φ1;
202、针对图像一的带通图像Ibp1(x,y),利用最大类间方差法自动选取二值化阈值,进行二值化处理;针对图像二的带通图像Ibp2(x,y),同样利用最大类间方差法自动选取二值化阈值,进行二值化处理,提取Ibp1(x,y)二值化图像矩阵和Ibp2(x,y)二值化图像矩阵中元素值为1的点的坐标组成集合,定义为该场景图像的人眼感兴趣区域ROI;
步骤三、针对g(x,y)进行频域的CSF滤波和OE调制,得到人眼感知图像g'(x,y);其中,CSF为人眼对比度敏感模型,OE为倾斜效应模型;
步骤四、在人眼感兴趣区域ROI中,计算所述g'(x,y)对应的人眼感知对比度PC0(x,y)之和,除以ROI的总像素数NROI,得到融合图像感知清晰度评价分数PS:
其中,人眼感知对比度函数PC0(x,y)为
其中,背景灰度I=φ1*g'(x,y),JND为人类视觉感知模型,是通过人眼主观实验测量的不同灰度背景I下人眼恰可分辨差异,得到JND关于I的曲线;Dmax(x,y)为图像g'(x,y)中像素位置(x,y)处加权平均灰度变化Dn(x,y)在四个方向掩膜下的最大值,n=1,2,3,4;
所述的四个方向掩膜W1(α,β)~W4(α,β)分别为: Wn(α,β)表示第n个方向掩膜中第α行、第β列的值;
ROI中PC0越大则PS值越大,表示感知对比度越大,图像清晰度越好。
进一步地,图像一和图像二可以分别为同一场景的红外和可见光/微光源图像。
优选地,若图像一和图像二尺寸不一致则在执行步骤二之前对图像一或图像二进行缩放处理,使二者尺寸相同。
有益效果:
1)本方法针对peli局部频带对比度模型进行了改进,提出了新的图像感知对比度算法,能够有效的对融合图像清晰度进行客观评价;
2)选择真实场景的120幅红外与可见光融合图像(15组红外IR与可见光Vis源图像,每组图像使用8种不同的融合算法产生不同效果的融合图像,共120幅实验图像),17名观察者进行颜色协调性主观评价实验。结果表明,与现有的五种彩色图像清晰(模糊)度的客观评价模型相比,本发明考虑人眼视觉特性构造的感知清晰度模型计算结果与人眼主观感受具有较好的一致性。
附图说明
图1是本发明中计算典型场景彩色融合图像感知清晰度客观评价指标流程图;
图2是低通和带通滤波器;
图3是相同灰度差在不同灰度背景中的模拟图;
图4是不同灰度背景下的人眼可见阈值JND;
图5是计算四个方向上加权平均灰度变化的掩膜。
具体实施方式
本发明公开了一种基于人眼视觉特性的融合图像感知清晰度评价方法,本方法在Peli提出的局部频带对比度模型基础上,考虑到人眼的亮度掩膜特性,引入韦伯定律,对Peli对比度进行改进,得出了人眼感知对比度计算公式。并利用该公式结合具体步骤可以对融合图像的清晰度进行评价。
下面结合附图并举具体实施例对本方法做进一步说明:
实施例(1)
本实施例针对同一场景的红外源图像与可见光源图像的彩色融合图像进行人眼感知清晰度评价,评价步骤如下:
步骤一、设同一场景的红外源图像和可见光源图像分别为SIR(x,y)和SVis(x,y)。若二者尺寸大小不一致,则对红外源图像和可见光源图像进行缩放处理,使其尺寸一致,以下步骤均是针对缩放处理后的红外源图像SIR(x,y)和可见光源图像SVis(x,y)进行,(x,y)为图像中像素位置坐标;
步骤二、利用步骤一所述的红外(IR)源图像与可见光源(Vis)图像确定人眼感兴趣区域ROI,其步骤如下:
201、高频带带通图像对应图像的细节和边缘,因此人眼感兴趣区域利用高频带带通图像来确定,分别计算IR源图像的高频带带通图像Ibp-IR(x,y)和Vis源图像的高频带带通图像Ibp-Vis(x,y),即:
Ibp-IR(x,y)=(φ0-φ1)*SIR(x,y)
Ibp-Vis(x,y)=(φ0-φ1)*SVis(x,y)
其中,“*”为卷积;φj为高斯核标准偏差σj=2j,j取0和1时,对应φ0和φ1。
202、针对IR的带通图像Ibp-IR(x,y),利用Otsu等人提出的最大类间方差法【参见Otsu N.,A Threshold Selection Method from Gray-Level Histograms[J],IEEETransactions on Systems,Man,and Cybernetics,1979,9(1):62-66.】对Ibp-IR(x,y)自动选取二值化阈值,进行二值化处理;针对Vis源图像的带通图像Ibp-Vis(x,y),同样利用Otsu等人提出的最大类间方差法自动选取二值化阈值,进行二值化处理,提取Ibp-IR(x,y)二值化图像矩阵和Ibp-Vis(x,y)二值化图像矩阵中像素值为1的坐标位置组成集合,定义为该场景图像的人眼感兴趣区域ROI;
步骤三、计算人眼感知图像g'(x,y),步骤如下:
301、将彩色融合图像转化为灰度图像g(x,y);
302、对于步骤301得到的灰度图像g(x,y),傅里叶变换得到G(u,v),其中(u,v)表示傅里叶频谱中的坐标。使用CSF模型进行滤并进行OE调制,得到G'(u,v):
G'(u,v)=G(u,v)CSF(f)OE(f,θ)
之后,G'(u,v)经过逆傅立叶变换得到滤波后人眼感知图像g'(x,y)。
其中,CSF(f)为人眼对比度敏感函数。本实施例使用Barten给出的CSF模型对图像亮度分量进行滤波【参见Barten P G J,Evaluation of subjective imagequality with the square-root integral method[J],Journal of the Optical Society ofAmerica A,1990,7(10):2024-2031.】:
CSF(f)=kaf exp(-bf)[1+c exp(bf)]1/2
式中,k为归一化系数;b=0.3(1+100/L)0.15;c=0.06;L为图像平均亮度;ω为图像显示角,单位为度;f为空间频率,即人眼每度视角内亮暗条纹的成像周期数,单位为周/度(cpd)。cpd的值与显示器屏幕每英寸的像素数和观察距离有关,其计算公式为
其中,ppi为显示器每英寸的像素数;DV为人眼与显示器之间的距离,单位为英寸。这里为了保持图像的平均灰度,将CSF带通滤波器截断为低通滤波器,即若fp为CSF曲线最大值CSF(f)max对应的峰值频率,将空间频率小于fp对应的CSF值均调整为CSF(f)max。OE(f,θ)为倾斜效应模型【参见Andrew B.Watsonand Albert J.Ahumada,Jr.A standard model for foveal detection of spatial contrast[J],Journal of Vision,2005,5(9),717-740.】,由于CSF模型具有各向同性,即对图像亮度进行滤波时并不考虑方向差异,而对于同一幅图像来说,人眼在斜方向上的对比度敏感程度低于水平和竖直方向上的对比度敏感程度,即倾斜效应OE。本实施例利用Watson的倾斜效应模型OE(f,θ),对各向同性的CSF模型进行调制,模拟人眼视觉斜方向上敏感度的衰减
其中,θ=arctan(v/u);f0=3.48cpd;f1=13.57cpd。
步骤四、在人眼感兴趣区域ROI中,对于步骤三得到的g'(x,y),计算高频带感知对比度PC0(x,y)之和,除以ROI的总像素数NROI,得到融合图像感知清晰度评价分数PS:
其中人眼感知对比度PC0函数为
本实施例使用Peli模型,将Peli对比度分母的低通图像作为背景图像,基于对人眼的亮度掩模特性的考虑,引入韦伯定律,对Peli对比度进行改进,得到人眼感知对比度PC0函数,其推导过程如下:
Peli提出的局部频带对比度【参见E.Peli,Contrast in complex images[J],Journal of the Optical Society of America A,1990,7(10):2032-2040.】,可反映图像每一点对应不同频带的对比度,将第j频带对比度Cj(x,y)定义为该频带的带通图像与低于这个频带的低通图像(即背景图像)之比
式中,p(x,y)为输入图像,在本实施例中p(x,y)为人眼感知图像g'(x,y);“*”为卷积;φj为第j(j=0,1,…,N)级低通滤波器,本发明采用常用高斯核标准差σj=2j;ψj为第j频带的带通滤波器,常取ψj=φj-φj+1。
图2即为高频带(j=0)的低通和带通滤波器图。
根据韦伯定律【参见A.N.Nettravali and B.G.Haskell.Digital pictures:Representation and compression[M],Plenum Press,2nd edition,New York,USA,1988:266-269.】,在均匀背景亮度L中存在一个亮度为L+△L的目标,只有当△L超过一定阈值时,人眼才能分辨出背景中的目标,该现象也称为人眼的亮度掩模特性。
在一定背景亮度范围内,△L与L的比值为常数:
式中,K为韦伯比,满足这一关系的背景亮度变化区域为Weber’s Law区域。
在显示器上显示的图像,其灰度和输出亮度存在非线性关系,表现出指数特性(称为γ特性)
式中,Ld为显示亮度,单位cd/m2;L0为显示器最大亮度;Id为像素灰度,Imax为最大灰度;对于8bit量化的数字图像,Id的取值范围为[0,Imax=255];γ为常数,对于CRT显示器,通常γ=2.2。
若图像目标的亮度为Lt对应的灰度为It,代入式(3)得:
图像的背景亮度为L,对应的灰度分别为和I,代入式(3)得:
由式(4)和式(5)得
由式(2)和式(6)得
因此,在Weber’s Law区域,图像背景灰度I与人眼恰可分辨灰度差ΔI之比近似为常数K'。但是在过亮或过暗背景时,K'值变大,人眼对亮度差异的辨别能力下降。如图3所示,不同灰度背景(灰度分别为1,64,128,192,250)上存在灰度差为5的亮目标。在较亮(I=250)和较暗(I=1)的背景上,人眼难以区分目标和背景。Chou等通过人眼主观实验测量了不同灰度背景I下人眼恰可分辨差异称为JND(Just Noticeable Difference)【参见C.H.Chou,Y.C.Li,Perceptuallytuned subband image coder based on the measure of just-noticeable-distortion profile[J],IEEE Trans.Circuits Syst.Video Technol.1995,5(6):467-476.】,给出了I和JND之间的关系曲线,如图4。
将Peli高频带对比度(j=0)分母的低通图像作为背景图像,综合式(1)和式(7),考虑人眼的亮度掩模特性,对Peli对比度进行改进,得到人眼感知对比度PC函数
其中,背景灰度I=φ1*g′(x,y),对应的JND(I)使用图4中给出的数据;Dmax(x,y)为图像像素(x,y)处加权平均灰度变化Dn(x,y)在四个方向(n=1,2,3,4)中的最大值【参见C.H.Chou,Y.C.Li,Perceptually tuned subband image coder based on the measure ofjust-noticeable-distortion profile[J],IEEE Trans.Circuits Syst.Video Technol.1995,5(6):467-476.】
其中,四个方向掩膜Wn(α,β)如图5所示,Wn(α,β)表示第n个方向掩膜中第α行、第β列的值。
当人眼无法感知到图像灰度变化时,PC0计算结果为0;处于人眼亮度差异最敏感的区域时,PC0计算结果最大,与人眼主观感受一致。PC0越大则PS值越大表示感知对比度越大,图像清晰度越好。
实施例(2)
本实施例针对IR源图像与Vis源图像的灰度融合图像进行人眼感知清晰度评价,本实施例的具体过程与实施例(1)相同,不同之处在于:第二步中,图像融合时选择灰度融合,则直接得到灰度融合图像g(x,y),使用于以后的各步骤,即可得到灰度融合图像的清晰度评价分数。
实施例(3)
本实施例针对其他波段图像的彩色融合图像或灰度融合图像进行人眼感知清晰度评价,评价步骤如下:
本发明不仅适用于红外源图像(IR)与可见光源图像(Vis)的彩色融合图像的清晰度评价,同样适用于除红外和可见光之外的其他任意两波段间图像融合之后的清晰度评价,用于其他任意两波段间图像融合的感知清晰度评价时,其具体评价步骤与实施例(1)或实施例(2)相似。
Claims (3)
1.一种基于人眼视觉特性的融合图像感知清晰度评价方法,其特征在于,包括如下步骤:
步骤一、设同一场景的两幅源图像分别为图像一S1(x,y)和图像二S2(x,y),以及二者的融合图像为g(x,y),(x,y)为图像中像素位置坐标,图像一S1(x,y)和图像二S2(x,y)尺寸一致,若融合后的图像为彩色图像,则将融合后的图像转换为灰度图像g(x,y);
步骤二、利用所述的图像一与图像二,计算该图像场景的人眼感兴趣区域ROI,方法如下:
201、分别计算图像一的带通图像Ibp1(x,y)和图像二的带通图像Ibp2(x,y),即:
Ibp1(x,y)=(φ0-φ1)*S1(x,y)
Ibp2(x,y)=(φ0-φ1)*S2(x,y)
其中,“*”为卷积;φj为高斯核标准偏差σj=2j,j取0和1时,分别对应φ0和φ1;
202、针对图像一的带通图像Ibp1(x,y),利用最大类间方差法自动选取二值化阈值,进行二值化处理;针对图像二的带通图像Ibp2(x,y),同样利用最大类间方差法自动选取二值化阈值,进行二值化处理,提取Ibp1(x,y)二值化图像矩阵和Ibp2(x,y)二值化图像矩阵中元素值为1的点的坐标组成集合,定义为该场景图像的人眼感兴趣区域ROI;
步骤三、针对g(x,y)进行频域的CSF滤波和OE调制,得到人眼感知图像g'(x,y);其中,CSF为人眼对比度敏感模型,OE为倾斜效应模型;
步骤四、在人眼感兴趣区域ROI中,计算所述g'(x,y)对应的人眼感知对比度PC0(x,y)之和,除以ROI的总像素数NROI,得到融合图像感知清晰度评价分数PS:
其中,人眼感知对比度函数PC0(x,y)为
其中,背景灰度I=φ1*g'(x,y),JND为人类视觉感知模型,是通过人眼主观实验测量的不同灰度背景I下人眼恰可分辨差异,得到JND关于I的曲线;Dmax(x,y)为图像g'(x,y)中像素位置(x,y)处加权平均灰度变化Dn(x,y)在四个方向掩膜下的最大值,n=1,2,3,4;
所述的四个方向掩膜W1~W4分别为: α、β分别表示某个方向掩膜Wn的行和列;
ROI中PC0越大则PS值越大,表示感知对比度越大,图像清晰度越好。
2.如权利要求1所述的一种基于人眼视觉特性的融合图像感知清晰度评价方法,其特征在于,所述的图像一和图像二分别为同一场景的红外和可见光/微光源图像。
3.如权利要求1或2所述的一种基于人眼视觉特性的融合图像感知清晰度评价方法,其特征在于,若图像一和图像二尺寸不一致则在执行步骤二之前对图像一或图像二进行缩放处理,使二者尺寸相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210310703.5A CN102881010B (zh) | 2012-08-28 | 2012-08-28 | 基于人眼视觉特性的融合图像感知清晰度评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210310703.5A CN102881010B (zh) | 2012-08-28 | 2012-08-28 | 基于人眼视觉特性的融合图像感知清晰度评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102881010A CN102881010A (zh) | 2013-01-16 |
CN102881010B true CN102881010B (zh) | 2015-03-11 |
Family
ID=47482323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210310703.5A Active CN102881010B (zh) | 2012-08-28 | 2012-08-28 | 基于人眼视觉特性的融合图像感知清晰度评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102881010B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510494A (zh) * | 2018-04-09 | 2018-09-07 | 中国石油大学(华东) | 基于子空间辨识方法的彩色融合图像质量评价方法 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530876B (zh) * | 2013-10-10 | 2016-03-30 | 中国科学院上海技术物理研究所 | 一种基于傅里叶变换的红外图像分析方法 |
CN103955689A (zh) * | 2014-04-14 | 2014-07-30 | 杭州电子科技大学 | 一种采用频率筛选的图像视觉感兴趣区域提取方法 |
CN104132733B (zh) * | 2014-07-04 | 2017-03-08 | 国家电网公司 | 组合式红外热像仪及其温度检测方法 |
SG11201701485TA (en) * | 2014-08-25 | 2017-03-30 | Agency Science Tech & Res | Methods and systems for assessing retinal images, and obtaining information from retinal images |
CN105118060B (zh) * | 2015-08-19 | 2018-06-26 | 杭州电子科技大学 | 一种结合视觉分析的图像清晰度衡量方法 |
CN105513067B (zh) * | 2015-12-03 | 2018-09-04 | 小米科技有限责任公司 | 一种图像清晰度检测方法及装置 |
CN107105150A (zh) * | 2016-02-23 | 2017-08-29 | 中兴通讯股份有限公司 | 一种选择待输出照片的方法、拍照方法及其对应装置 |
CN106355195B (zh) * | 2016-08-22 | 2021-04-23 | 中国科学院深圳先进技术研究院 | 用于测量图像清晰度值的系统及其方法 |
CN106791493A (zh) * | 2016-11-17 | 2017-05-31 | 天津大学 | 基于模糊控制的颜色协调立体字幕制作方法 |
CN107169944B (zh) * | 2017-04-21 | 2020-09-04 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN107240096A (zh) * | 2017-06-01 | 2017-10-10 | 陕西学前师范学院 | 一种红外与可见光图像融合质量评价方法 |
CN107371015A (zh) * | 2017-07-21 | 2017-11-21 | 华侨大学 | 一种无参考对比度变化图像质量评价方法 |
CN107871011B (zh) * | 2017-11-21 | 2020-04-24 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN107862648B (zh) * | 2017-11-24 | 2021-01-19 | 齐鲁工业大学 | 基于人眼视觉特性的彩色水印嵌入与提取方法 |
CN108830847A (zh) * | 2018-06-19 | 2018-11-16 | 中国石油大学(华东) | 可见光与红外灰度融合图像感知对比度客观评价 |
CN108830851B (zh) * | 2018-06-29 | 2020-08-28 | 凌云光技术集团有限责任公司 | 一种lcd粗糙斑缺陷检测方法 |
CN110866904A (zh) * | 2019-11-08 | 2020-03-06 | 北京环境特性研究所 | 一种红外偏振重构图像的评价方法和装置 |
CN111080547A (zh) * | 2019-12-11 | 2020-04-28 | 苏州新光维医疗科技有限公司 | 一种内窥镜图像增强方法 |
CN111145120A (zh) * | 2019-12-26 | 2020-05-12 | 上海眼控科技股份有限公司 | 能见度检测方法、装置、计算机设备和存储介质 |
CN111696058A (zh) * | 2020-05-27 | 2020-09-22 | 重庆邮电大学移通学院 | 图像处理方法、装置及存储介质 |
CN115187519B (zh) * | 2022-06-21 | 2023-04-07 | 上海市计量测试技术研究院 | 图像质量评价方法、系统及计算机可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1604139A (zh) * | 2004-10-28 | 2005-04-06 | 上海交通大学 | 图像融合评价系统的构建方法 |
CN101489130A (zh) * | 2009-01-21 | 2009-07-22 | 西安交通大学 | 基于图像边缘差异统计特性的全参考型图像质量评价方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7783130B2 (en) * | 2005-01-24 | 2010-08-24 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Spatial standard observer |
-
2012
- 2012-08-28 CN CN201210310703.5A patent/CN102881010B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1604139A (zh) * | 2004-10-28 | 2005-04-06 | 上海交通大学 | 图像融合评价系统的构建方法 |
CN101489130A (zh) * | 2009-01-21 | 2009-07-22 | 西安交通大学 | 基于图像边缘差异统计特性的全参考型图像质量评价方法 |
Non-Patent Citations (1)
Title |
---|
基于人眼视觉特性的图像质量评价方法研究;刘江 等;《中国地理信息系统协会第四次会员代表大会暨第十一届年会论文集》;20071101;311-318 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510494A (zh) * | 2018-04-09 | 2018-09-07 | 中国石油大学(华东) | 基于子空间辨识方法的彩色融合图像质量评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102881010A (zh) | 2013-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102881010B (zh) | 基于人眼视觉特性的融合图像感知清晰度评价方法 | |
Wang et al. | Structural similarity based image quality assessment | |
CN100586159C (zh) | 处理视频信号的方法和系统 | |
Wang et al. | Multiscale structural similarity for image quality assessment | |
Aydin et al. | Dynamic range independent image quality assessment | |
CN104200480B (zh) | 一种应用于智能终端的图像模糊度评价方法及系统 | |
US8086030B2 (en) | Method and system for visually presenting a high dynamic range image | |
CN102663745B (zh) | 一种基于视觉任务的彩色融合图像质量评价方法 | |
CN107424146A (zh) | 一种红外偏振图像质量客观评价方法和系统 | |
CN105959684A (zh) | 基于双目融合的立体图像质量评价方法 | |
Lavoué et al. | Quality assessment in computer graphics | |
CN104361593A (zh) | 一种基于hvs和四元数的彩色图像质量评价方法 | |
CN102497565B (zh) | 一种影响立体图像舒适度的亮度范围的测定方法 | |
CN108109147A (zh) | 一种模糊图像的无参考质量评价方法 | |
CN101976444A (zh) | 一种基于像素类型的结构类似性图像质量客观评价方法 | |
Dong et al. | Perceptual quality assessment for 3D triangle mesh based on curvature | |
CN108335289A (zh) | 一种全参考融合的图像客观质量评价方法 | |
Kundu et al. | Visual attention guided quality assessment of tone-mapped images using scene statistics | |
CN108898569A (zh) | 一种针对于可见光和红外遥感影像的融合方法及其融合结果评价方法 | |
CN106023214A (zh) | 基于中央凹视梯度结构相似性的图像质量评价方法及系统 | |
CN112954304B (zh) | 一种显示面板Mura缺陷评估方法 | |
Opozda et al. | The survey of subjective and objective methods for quality assessment of 2D and 3D images | |
CN106204523A (zh) | 一种图像质量度量方法及装置 | |
Zerman et al. | Effects of display rendering on HDR image quality assessment | |
CN106993183A (zh) | 基于立体图像显著区域的舒适亮度定量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |