CN103886608B - 一种图像全局最小可觉察差异的测定方法 - Google Patents
一种图像全局最小可觉察差异的测定方法 Download PDFInfo
- Publication number
- CN103886608B CN103886608B CN201410133305.XA CN201410133305A CN103886608B CN 103886608 B CN103886608 B CN 103886608B CN 201410133305 A CN201410133305 A CN 201410133305A CN 103886608 B CN103886608 B CN 103886608B
- Authority
- CN
- China
- Prior art keywords
- contrast
- difference
- test pictures
- sensitivity
- visual angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种图像全局最小可觉察差异的测定方法,模型建立阶段根据每组测试图片特征参数生成相对应的测试图片,利用阶梯法得到对应的噪声强度阈值,获取针对对比度掩蔽的视觉特性模型,提出全局最小可觉察差异的计算模型。模型应用阶段,利用模型建立阶段所得全局最小可觉察差异的计算模型,计算获取任意输入灰度图像的图像全局最小可觉察差异。本发明生成的测试图片具有更大的均方误差MSE与隐藏噪声的能力,更有效地挖掘人眼的感知冗余;本发明提出的图像全局最小可觉察差异的计算模型,综合了对比度掩蔽效应与其他掩蔽效应,结果更准确。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种图像全局最小可觉察差异的测定方法。
背景技术
近年来,视频内容逐渐朝着高画质与高解析度发展,但高质量的视频也伴随着巨大的数据量。为了降低传输和存储成本,需要提出更好地视频压缩方法,以达到压缩比和视频质量之间的平衡。
传统的视频压缩方法通过去除空间和时间统计冗余来达到压缩的目的。为了获得更好地压缩效率,需要更加深入的研究人类视觉系统(HVS)的感知冗余特性。研究者已经使用JND(最小可觉差)来模拟HVS的亮度、对比度与时空掩蔽效应。JND将感知冗余量化成为一个阈值(visibility threshold),低于这个阈值的噪声将无法被人眼察觉。目前相关学者提出了许多JND模型,大体上可以分为两类:基于变化域的JND模型,例如DCT域或wavelet域的JND模型;基于像素域的JND模型,如SJND等。
目前大部分JND模型都基于一个假设,即认为人眼对图像或视频上每一个像素点的敏感性相同。然而,相关生理、心理学实验表明,视网膜上的感光细胞分布并不均匀。在中央凹区域,视锥细胞分布密度大,敏感性高,随着与中央区域的距离增大,感光细胞密度减小,导致相对应的敏感性也就减小,即可以容忍更多的噪声。
基于相同敏感性假设的传统JND模型,可以用图像本地最小可觉察差异来表示。而在基于视网膜感光细胞分布不均匀前提下的JND模型,则可以用图像全局最小可觉察差异来表示。理论上,基于图像全局最小可觉察差异的产生的失真图像具有更大的均方误差MSE,能够更好地体现人眼的视觉冗余。
发明内容
本发明的目的在于针对传统图像本地最小可觉察差异模型的不足,提出一种基于视角图像全局最小可觉察差异的测定方法。
本发明技术方案提供一种图像全局最小可觉察差异的测定方法,包括模型建立阶段和模型应用阶段,
模型建立阶段包括以下步骤,
步骤1.1,输入多组不同的测试图片特征参数,每组测试图片特征参数包括背景灰度bg、对比度eh和噪声出现半径e;
所述测试图片包括固定背景部分、对比部分、噪声部分和辅助注意力集中部分,固定背景部分的灰度设置为bg;对比部分为以测试图片的图像中心为圆心,半径为e的圆形区域,区域内灰度设置为bg-eh;噪声区域随机分布在圆形区域的圆周上某一位置,噪声区域内部随机分布若干噪声;辅助注意力部分设置在测试图片的图像中心处;
步骤1.2,根据步骤1.1输入的每组测试图片特征参数,生成相对应的测试图片;
步骤1.3,对每一组测试图片特征参数相对应的测试图片,分别利用阶梯法得到对应的噪声强度阈值;
步骤1.4,基于步骤1.3所得结果,获取针对对比度掩蔽的视觉特性模型。
步骤a,针对每个测试图片,分别计算测试图片噪声区域对应的本地最小可觉察差异;
步骤b,针对每个测试图片,分别计算不同视角条件下测试值与理论值的比值,得到平均比例P;
步骤c,针对每个测试图片,分别计算不同视角对应的对比度敏感性,并做归一化处理,得到基于视角归一化对比度敏感性Sf;
步骤d,用所有测试图片的基于视角归一化对比度敏感性Sf与对比度eh去拟合平均比例P,得到针对对比度掩蔽的视觉特性模型如下式,
其中,m1(Sf,eh)为基于视角归一化对比度敏感性和像素对比度的因子,记为m1;Sf表示归一化对比度敏感性;eh表示测试图像每个像素的对比度;a、b、c为常数;
步骤1.5,计算描述对比度掩蔽效应的视觉感知特征g1=f1·m1,
其中,图像本地最小可觉察差异f1表示SJND中描述对比度掩蔽效应的部分,m1为基于视角归一化对比度敏感性和像素对比度的因子;
步骤1.6,计算其他掩蔽效应对应的视觉感知特征gi,i=2,4,5...,n;
步骤1.7,提出全局最小可觉察差异的计算模型如下,
F=max{g1,g2,…,gn},
其中,F为全局最小可觉察差异,g1,g2,…,gn为视觉感知特征,g1为描述对比度掩蔽效应的视觉感知特征,g2,…,gn为描述其他视觉感知特性的视觉感知特征;
模型应用阶段,利用模型建立阶段所得全局最小可觉察差异的计算模型,计算获取任意输入灰度图像的图像全局最小可觉察差异。
而且,模型应用阶段包括以下子步骤,
步骤2.1,读取输入灰度图像;
步骤2.2,计算输入灰度图像的平均灰度矩阵、对比度矩阵和视角矩阵;
步骤2.3,计算输入灰度图像的基于视角归一化对比度敏感性矩阵;
步骤2.4,计算输入灰度图像的图像本地最小可觉察差异f1;
步骤2.5,根据步骤2.3所得输入灰度图像的基于视角归一化对比度敏感性矩阵,利用模型建立阶段提出的基于视角针对对比度掩蔽的视觉特性模型,计算输入灰度图像的基于视角归一化对比度敏感性和像素对比度的因子m1;
步骤2.6,计算输入灰度图像的描述对比度掩蔽效应的视觉感知特征g1=f1·m1;
步骤2.7,计算输入灰度图像的其他掩蔽效应对应的视觉感知特征gi,i=2,4,5...,n;
步骤2.8,根据全局最小可觉察差异的计算模型得到输入灰度图像的图像全局最小可觉察差异。
而且,步骤1.4的步骤c求基于视角归一化对比度敏感性Sf和步骤2.3计算输入灰度图像的基于视角归一化对比度敏感性矩阵时,按以下公式求取基于视角归一化对比度敏感性Sf,
fm(v,e)=min(fc(e),fd(v))
其中,e为视角,fm(v,e)表示联合截止频率,fm(v,0)表示e=0时的联合截止频率,fc(e)表示截止频率,fd(v)表示显示截止频率;CT0为最小对比度阈值,e2为半分辨率视角常数,χ表示空间频率衰退常数;v表示视距,d表示图像上某点至注意力中心的距离。
本发明与现有技术相比具有以下优点:
1.本发明中设计的测试图片能够保证在图像对比度(contrast)相同的条件下,测定不同视角对应的视觉阈值,从而能为后续的模型建立、测试与应用提供有效的数据。
2.本发明中提出的一种综合相关掩蔽效应的图像全局最小可觉察差异的计算模型,综合了对比度掩蔽效应与其他掩蔽效应,具有更好的理论基础,结果更准确。
3.本发明提出的改进算法能够在不影响图片视觉感受的条件下,生成具有更大均方误差MSE的失真图像,更有效地挖掘人眼的感知冗余。
附图说明
图1为本发明实施例的测试图片示意图。
图2为本发明实施例的观察视角几何示意图。
具体实施方式
本发明首先通过视觉感知实验,测定在对比度掩蔽(contrast masking)条件下,对应不同视角(retinal eccentricity)的最小可觉察差异;然后根据现有图像本地最小可觉察差异模型计算测试图片的本地最小可觉察差异;接着计算测试最小可觉察差异与本地最小可觉察差异的比值,得到不同视角条件下的平均比例;计算不同视角对应的对比度敏感性(contrast sensitivity),并做归一化处理。接下来,用基于视角归一化对比度敏感性与对比度去拟合平均比例,得到基于视角针对对比度掩蔽的视觉特性模型m1。最后,在本实验结果的基础上,提出一种图像全局最小可觉察差异的计算模型。
本发明技术方案可采用计算机软件方式支持自动运行流程。以下结合附图和实施例详细说明本发明技术方案。
本发明预先生成的测试噪声图片由四部分组成,分别为固定背景部分、对比部分、噪声部分、辅助注意力集中部分。固定背景部分为恒定灰度区域;对比部分为以测试图片图像中心为圆心,半径为某一设定值的圆形区域,区域内灰度与背景灰度形成对比;噪声区域随机分布在圆形区域圆周上某一位置,噪声区域形状不局限于正方形,噪声区域内部随机分布一定数量的噪声点,控制强度相同。辅助注意力部分设置在测试图片的图像中心处,用来帮助测试者集中注意力,其形状不局限于十字形。
图1是实施例中实验部分的测试图片示意图。其中图片的背景灰度设置为bg;以图片中心为圆心,半径为e的范围内的灰度设置为bg-eh,这样便在圆周内外保证了相同对比度eh的测试条件;在测试过程中,一个30×30的正方形噪声区域会随机出现在圆周的不同位置,其内部会随机生成强度的为A的噪声;对于设定的噪声强度A,在噪声区域内、圆内的区域的噪声灰度为bg-eh+A或bg-eh-A,在内、圆外的区域的噪声灰度为bg+A或bg-A;图像中心设置了一灰度为255或0的注视区域,用来辅助测试者集中注意力,从而帮助测试者的注意力不转移至其他区域。
实施例包括模型建立阶段和模型应用阶段。模型建立阶段具体的步骤为:
步骤1.1,输入多组不同的测试图片特征参数,每组测试图片特征参数包括背景灰度(bg)、对比度(eh)、噪声出现半径(e)。
实施例预先设定实验条件为:
背景灰度bg=64、96、127、144、192;
对比度eh=0、15、30、45、60;
半径e=108、216、325、436、550、666(pixel);
可得到5×5×6组不同的测试图片特征参数。
步骤1.2,根据步骤1.1输入的每组测试图片特征参数,生成相对应的测试图片,如图1所示。
实施例根据设定实验条件,遍历5×5×6组取值,每组取值都生成对应的噪音图片。
步骤1.3,对每一组测试图片特征参数相对应的测试图片,分别利用阶梯法得到对应的噪声强度阈值。这样可利用阶梯法求出对应不同背景灰度、对比度与半径的噪声强度阈值。
阶梯法(staircase method)是系列试验的参数评定法,具体实现为现有技术。为便于实施参考,提供具体实施时,对任一组测试图片特征参数相对应的测试图片,可利用阶梯法得到对应的噪声强度阈值说明如下:
步骤a,将噪声强度设置为0;
步骤b,逐步增大噪声强度(例如每次将强度增加1),直至测试者刚好可以察觉噪声为止,此时记录对应的噪声强度阈值T1;
步骤c,根据步骤b中获得T1,将测试图片的噪声强度调节至某一高于T1的值;
步骤d,逐步减小噪声强度(例如每次将强度减小1),直至测试者刚好不可以察觉到噪声为止,记录对应测噪声强度阈值T2;
步骤e,根据步骤d中获得T2,将测试图片的噪声强度调节至某一低于T2的值;
步骤f,返回重复步骤a~e,直到迭代次数达到预先设置的数值,停止迭代后将每次执行步骤e进行测试图片的噪声强度调节所得数据取均值,作为该组测试图片特征参数相应测试图片的噪声强度阈值T,即测试最小可觉察差异。
按以上方式,每个测试图片得到相应的噪声强度阈值T。
步骤1.4,基于步骤1.3所得结果,获取针对对比度掩蔽的视觉特性模型。
步骤a,针对每个测试图片,分别计算测试图片噪声区域对应的本地最小可觉察差异,计算方式为现有技术,本发明不予赘述;
步骤b,针对每个测试图片,分别计算不同视角条件下,测试值与理论值的比值P,即测试图片的测试最小可觉察差异(步骤1.3所得噪声强度阈值T)与测试图片噪声区域的本地最小可觉察差异的比值P;
步骤c,针对每个测试图片,分别计算不同视角对应的对比度敏感性(contrastsensitivity),并做归一化处理,得到基于视角归一化对比度敏感性Sf,Sf体现了视角对于视觉敏感性的影响,计算方式如下,
fm(v,e)=min(fc(e),fd(v))
其中,fm(v,e)表示联合截止频率,fm(v,0)表示e=0时的联合截止频率,fc(e)表示截止频率,fd(v)表示显示截止频率,计算方法为现有技术;e为视角,CT0为最小对比度阈值,e2为半分辨率视角常数,χ表示空间频率衰退常数;v表示视距,即人眼与待观察图像之间的距离,d表示图像上某点至注意力中心的距离,如附图2所示,视网膜中央凹是人类视觉感知系统的一部分,是视网膜中视觉(辨色力、分辨力)最敏锐的区域,人眼的注意力中心点(xf,yf)和图像平面上任一点(x,y)的距离为d。
步骤d,用所有测试图片的基于视角归一化对比度敏感性Sf与对比度eh(即测试图片的对比度eh)去拟合平均比例P,得到一个基于视角针对对比度掩蔽的视觉特性模型如下式,
其中,m1(Sf,eh)为基于视角归一化对比度敏感性、像素对比度的因子,描述不同视角下对比度掩蔽效应,可记为m1;Sf表示基于视角归一化对比度敏感性;a、b、c为常数,具体实施时本领域技术人员可根据实验预先设定取值,实施例采用经实验测试所得常数a=0.37,b=-4,c=-12。
步骤1.5,计算描述对比度掩蔽效应的视觉感知特征g1=f1·m1。
g1为描述对比度掩蔽效应(contrast masking effect)的视觉感知特征,图像本地最小可觉察差异f1表示SJND中描述对比度掩蔽效应的部分,不包括对视角的描述;m1为基于视角归一化对比度敏感性、像素对比度的因子。
步骤1.6,计算其他掩蔽效应对应的视觉感知特征gi(i=2,4,5...,n)。例如亮度掩蔽效应,纹理掩蔽效应等,本领域技术人员可根据自行指定,具体计算可采用现有技术。比如设g2为描述亮度掩蔽效应的视觉感知特征,可基于亮度掩蔽效应计算相应本地最小可觉察差异f2和基于视角归一化的m2,得到相应g2。
步骤1.7,提出全局最小可觉察差异的计算模型如下,
F=max{g1,g2,…,gn}
使用对比度掩蔽效应(contrast masking effect)作为构建全局最小可觉察差异模型的一部分,公式如下,
g1=f1·m1,
其中,F为全局最小可觉察差异,g1,g2,…,gn为视觉感知特征,n为视觉感知特征的个数,g1为描述对比度掩蔽效应(contrast masking effect)的视觉感知特征,g2,…,gn为描述其他视觉感知特性的视觉感知特征。
在上述所得全局最小可觉察差异计算模型基础上,在模型应用阶段,利用模型具体计算获取任意输入灰度图像的图像全局最小可觉察差异过程如下:
步骤2.1,读取输入灰度图像;
步骤2.2,计算输入灰度图像的平均灰度矩阵、对比度矩阵、视角矩阵,计算方式为现有技术,本发明不予赘述;
和测试图片的测试图片特征参数背景灰度(bg)、对比度(eh)、噪声出现半径(e)对应,本步骤计算输入灰度图像的平均灰度矩阵、对比度矩阵、视角矩阵,得到输入灰度图像每个像素的灰度、对比度、视角;
步骤2.3,计算输入灰度图像的基于视角归一化对比度敏感性矩阵,可对应模型建立阶段的基于视角对应归一化对比度敏感性Sf,根据输入灰度图像的平均灰度矩阵、对比度矩阵计算;
步骤2.4,计算输入灰度图像的图像本地最小可觉察差异,即SJND中描述对比度掩蔽效应的部分f1,可根据输入灰度图像的视角矩阵计算,计算方式为现有技术,本发明不予赘述;
步骤2.5,根据步骤2.3所得输入灰度图像的基于视角归一化对比度敏感性矩阵,利用模型建立阶段提出的基于视角针对对比度掩蔽的视觉特性模型计算输入灰度图像的基于视角归一化对比度敏感性、像素对比度的因子m1;
步骤2.6,计算输入灰度图像的描述对比度掩蔽效应的视觉感知特征g1=f1·m1;
步骤2.7,计算输入灰度图像的其他掩蔽效应对应的视觉感知特征gi(i=2,4,5...,n);
步骤2.8,计算输入灰度图像的图像全局最小可觉察差异F
F=max{g1,g2,…,gn}。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (3)
1.一种图像全局最小可觉察差异的测定方法,其特征在于:包括模型建立阶段和模型应用阶段,
模型建立阶段包括以下步骤,
步骤1.1,输入多组不同的测试图片特征参数,每组测试图片特征参数包括背景灰度bg、对比度eh和噪声出现半径e;
测试图片包括固定背景部分、对比部分、噪声部分和辅助注意力集中部分,固定背景部分的灰度设置为bg;对比部分为以测试图片的图像中心为圆心,半径为e的圆形区域,区域内灰度设置为bg-eh;噪声部分随机分布在圆形区域的圆周上某一位置,噪声部分内部随机分布若干噪声;辅助注意力集中部分设置在测试图片的图像中心处;
步骤1.2,根据步骤1.1输入的每组测试图片特征参数,生成相对应的测试图片;
步骤1.3,对每一组测试图片特征参数相对应的测试图片,分别利用阶梯法得到对应的噪声强度阈值;
步骤1.4,基于步骤1.3所得结果,获取针对对比度掩蔽的视觉特性模型;
步骤a,针对每个测试图片,分别计算测试图片噪声部分对应的本地最小可觉察差异;
步骤b,针对每个测试图片,分别计算不同视角条件下测试值与理论值的比值,得到平均比例P,所述不同视角条件下测试值与理论值的比值为测试图片的测试最小可觉察差异与测试图片噪声部分的本地最小可觉察差异的比值,测试图片的测试最小可觉察差异是步骤1.3所得噪声强度阈值;
步骤c,针对每个测试图片,分别计算不同视角对应的对比度敏感性,并做归一化处理,得到基于视角归一化对比度敏感性Sf;
步骤d,用所有测试图片的基于视角归一化对比度敏感性Sf与对比度eh去拟合平均比例P,得到针对对比度掩蔽的视觉特性模型如下式,
其中,m1(Sf,eh)为基于视角归一化对比度敏感性和像素对比度的因子,记为m1;Sf表示归一化对比度敏感性;eh表示测试图片中每个像素的对比度;a、b、c为常数;
步骤1.5,计算描述对比度掩蔽效应的视觉感知特征g1=f1·m1,
其中,图像本地最小可觉察差异f1表示SJND中描述对比度掩蔽效应的部分,SJND表示基于像素域的JND模型;m1为基于视角归一化对比度敏感性和像素对比度的因子;
步骤1.6,计算其他掩蔽效应对应的视觉感知特征gi,i=2,4,5...,n,n为视觉感知特征的个数;
步骤1.7,提出全局最小可觉察差异的计算模型如下,
F=max{g1,g2,…,gn},
其中,F为全局最小可觉察差异,g1,g2,…,gn为视觉感知特征,g1为描述对比度掩蔽效应的视觉感知特征,g2,…,gn为描述其他掩蔽效应对应的视觉感知特征;
模型应用阶段,利用模型建立阶段所得全局最小可觉察差异的计算模型,计算获取任意输入灰度图像的图像全局最小可觉察差异。
2.根据权利要求1所述图像全局最小可觉察差异的测定方法,其特征在于:模型应用阶段包括以下子步骤,
步骤2.1,读取输入灰度图像;
步骤2.2,计算输入灰度图像的平均灰度矩阵、对比度矩阵和视角矩阵;
步骤2.3,计算输入灰度图像的基于视角归一化对比度敏感性矩阵;
步骤2.4,计算输入灰度图像的图像本地最小可觉察差异f1;
步骤2.5,根据步骤2.3所得输入灰度图像的基于视角归一化对比度敏感性矩阵,利用模型建立阶段提出的基于视角针对对比度掩蔽的视觉特性模型,计算输入灰度图像的基于视角归一化对比度敏感性和像素对比度的因子m1;
步骤2.6,计算输入灰度图像的描述对比度掩蔽效应的视觉感知特征g1=f1·m1;
步骤2.7,计算输入灰度图像的其他掩蔽效应对应的视觉感知特征gi,i=2,4,5...,n;
步骤2.8,根据全局最小可觉察差异的计算模型得到输入灰度图像的图像全局最小可觉察差异。
3.根据权利要求2所述图像全局最小可觉察差异的测定方法,其特征在于:步骤1.4的步骤c 求基于视角归一化对比度敏感性Sf和步骤2.3计算输入灰度图像的基于视角归一化对比度敏感性矩阵时,按以下公式求取基于视角归一化对比度敏感性Sf,
fm(v,e)=min(fc(e),fd(v))
其中,e为视角,fm(v,e)表示联合截止频率,fm(v,0)表示e=0时的联合截止频率,fc(e)表示截止频率,fd(v)表示显示截止频率;CT0为最小对比度阈值,e2为半分辨率视角常数,χ表示空间频率衰退常数;v表示视距,d表示图像上某点至注意力中心的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410133305.XA CN103886608B (zh) | 2014-04-03 | 2014-04-03 | 一种图像全局最小可觉察差异的测定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410133305.XA CN103886608B (zh) | 2014-04-03 | 2014-04-03 | 一种图像全局最小可觉察差异的测定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103886608A CN103886608A (zh) | 2014-06-25 |
CN103886608B true CN103886608B (zh) | 2017-03-29 |
Family
ID=50955481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410133305.XA Active CN103886608B (zh) | 2014-04-03 | 2014-04-03 | 一种图像全局最小可觉察差异的测定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103886608B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110139112B (zh) * | 2019-04-29 | 2022-04-05 | 暨南大学 | 一种基于jnd模型的视频编码方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102905130A (zh) * | 2012-09-29 | 2013-01-30 | 浙江大学 | 基于视觉感知的多分辨率jnd模型建构方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101911716A (zh) * | 2008-01-18 | 2010-12-08 | 汤姆森许可贸易公司 | 评估感知质量的方法 |
-
2014
- 2014-04-03 CN CN201410133305.XA patent/CN103886608B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102905130A (zh) * | 2012-09-29 | 2013-01-30 | 浙江大学 | 基于视觉感知的多分辨率jnd模型建构方法 |
Non-Patent Citations (2)
Title |
---|
PERCEPTUAL VIDEO CODING: CHALLENGES AND APPROACHES;Zhenzhong Chen等;《Multimedia and Expo (ICME), 2010 IEEE International Conference on》;20100723;784-789 * |
融合HVS计算模型的视频感知哈希算法研究;欧阳杰等;《中国图象图形学报》;20111031;第16卷(第10期);1883-1889 * |
Also Published As
Publication number | Publication date |
---|---|
CN103886608A (zh) | 2014-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Park et al. | 3D visual discomfort prediction: vergence, foveation, and the physiological optics of accommodation | |
Mantiuk et al. | HDR-VDP-2: A calibrated visual metric for visibility and quality predictions in all luminance conditions | |
Abramoff et al. | Automated segmentation of the optic disc from stereo color photographs using physiologically plausible features | |
CN102289808B (zh) | 一种图像融合质量评估方法和系统 | |
Yue et al. | Blind stereoscopic 3D image quality assessment via analysis of naturalness, structure, and binocular asymmetry | |
CN109754377A (zh) | 一种多曝光图像融合方法 | |
CN110074813A (zh) | 一种超声图像重建方法及系统 | |
CN114926459B (zh) | 图像质量评价方法、系统及计算机可读介质 | |
CN106127740B (zh) | 一种基于视通路多感受野朝向性关联的轮廓检测方法 | |
CN103025228B (zh) | 供跨视野测量使用的超阈值测试和子像素策略 | |
CN106485721A (zh) | 从光学相干断层图像获取视网膜结构的方法及其系统 | |
CN104778696B (zh) | 一种基于视通路方位敏感的图像边缘分级检测方法 | |
CN108449596A (zh) | 一种融合美学和舒适度的3d立体图像质量评估方法 | |
Yang et al. | A perceptual stereoscopic image quality assessment model accounting for binocular combination behavior | |
Zhou et al. | Utilizing binocular vision to facilitate completely blind 3D image quality measurement | |
Overington | Towards a complete model of photopic visual threshold performance | |
CN105718919A (zh) | 一种眼底图像视盘定位方法及系统 | |
CN103886608B (zh) | 一种图像全局最小可觉察差异的测定方法 | |
CN111882516A (zh) | 一种基于视觉显著性和深度神经网络的图像质量评价方法 | |
CN110009631A (zh) | 眼底图像的血管质量评估方法、装置、设备和介质 | |
CN109558797A (zh) | 基于视觉刺激下的重心面积模型区分人体平衡障碍的方法 | |
Chamaret et al. | No-reference harmony-guided quality assessment | |
CN109905694A (zh) | 一种立体视频的质量评价方法、装置和设备 | |
Ortiz-Jaramillo et al. | Content-aware contrast ratio measure for images | |
CN106993183A (zh) | 基于立体图像显著区域的舒适亮度定量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |