CN108648186A - 基于初级视觉感知机制的无参考立体图像质量评价方法 - Google Patents

基于初级视觉感知机制的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN108648186A
CN108648186A CN201810446849.XA CN201810446849A CN108648186A CN 108648186 A CN108648186 A CN 108648186A CN 201810446849 A CN201810446849 A CN 201810446849A CN 108648186 A CN108648186 A CN 108648186A
Authority
CN
China
Prior art keywords
image
perception
represent
quality evaluation
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810446849.XA
Other languages
English (en)
Other versions
CN108648186B (zh
Inventor
刘利雄
张久发
黄华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201810446849.XA priority Critical patent/CN108648186B/zh
Publication of CN108648186A publication Critical patent/CN108648186A/zh
Application granted granted Critical
Publication of CN108648186B publication Critical patent/CN108648186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明提出了一种基于初级视觉感知机制的无参考立体图像质量评价方法,属于图像分析技术领域。本方法首先将输入立体图像对转化为灰度信息,利用灰度信息模拟初级视觉感知机制下基于信道分离的单目感知响应和反馈聚合优化的双目感知响应。其次,分别利用得到的单目和双目感知响应模拟初级视觉皮层中经典与非经典接受场响应,并对生成的两类接受场响应图像提取结构算子LBP的概率统计特征向量。然后,利用支持向量机对特征进行训练,得到预测模型,应用预测模型和测试集对应的特征向量进行质量预测和评估。本方法具有主观一致性高,数据库独立性高,稳定性高的特点,在处理多种复杂失真类型时都表现出了极具竞争力的效果,具有很强的应用价值。

Description

基于初级视觉感知机制的无参考立体图像质量评价方法
技术领域
本发明涉及一种立体图像质量评价方法,特别涉及一种基于初级视觉感知机制的无参考立体图像质量评价方法,属于图像分析领域。
背景技术
近些年来,随着科学技术的发展,立体图像产生和传播的成本变得越来越低,这使得立体图像作为一种优秀的信息传播的媒介,在我们的日常生活中变得越来越普遍,越来越不可缺少。然而,立体图像在场景采集、编码、网络传输、解码、后期处理、压缩存储和放映的各个阶段都会不可避免的引入失真,例如,在场景采集过程中由于设备参数设定、镜头晃动等因素引起的模糊失真;图像压缩存储引起的压缩失真等等。而失真的引入则会大大降低人们的视觉体验,严重的还会影响到人们的身心健康。如何遏制低质量立体图像的传播,保证人们的视觉体验,成为了一个亟待解决的问题。
使立体图像产生和传播的媒体具有自动评价图像质量高低的能力,从而改善媒体输出端图像的质量,对于解决这个问题具有重要意义。具体来说,本研究具有以下应用价值:
(1)可以嵌入实际的应用系统(比如视频的放映系统、网络传输系统等)中,实时的监控图像/视频的质量;
(2)可以用于评价各种立体图像/视频处理算法、工具(比如立体图像的压缩编码、图像/视频采集工具等)的优劣;
(3)可以用于立体图像/视频作品的质量审核,防止劣质图像制品危害观众的身心健康。
综上所述,对于客观无参考立体图像质量评价模型的研究具有重要的理论价值和现实意义。本发明提出了一种基于初级视觉感知机制的无参考立体图像质量评价方法,其参考的已有理论和技术为Kruger等人提出的初级视觉皮层感知理论以及LBP概率统计特征提取方法。
(一)初级视觉皮层感知理论
Kruger等人提出了初级视觉皮层感知理论,有关初级视觉皮层感知理论的研究首先要考虑人眼视网膜的感知现象。双眼感知到外界信息后,视网膜上感知到的光信号被视觉神经捕获,转化为神经脉冲信号。视网膜上的神经细胞按照自己的感知模式,可以分为on-center/off-surround和off-center/on-surround(即ON/OFF)通道细胞,其具有不同的中心环绕感知模式,并且对不同的光信号敏感。在经过了视觉信号在ON/OFF通道细胞上的转换后,包含视觉信息的信号经由外膝体(LGN层)被送至初级视觉皮层。V1层中的细胞可以被划分为单目和双目感知细胞,并且具有不同的接受场感知模式。在V1层中,经典与非经典接受场能够有效地表示视觉细胞对视觉信息的响应。因此,经过V1层处理后,单目和双目感知细胞的两类接受场响应在对视觉信息感知的过程中具有相同的重要程度。
(二)LBP概率统计特征提取
考虑到初级视觉皮层对结构信息的感知和处理模式与视觉内容的感知质量密切相关,利用结构描述算子LBP提取接受场响应图像的概率统计特征作为视觉感知特征。
LBP概率统计特征的提取方法如下,以左视图单目感知响应图像为例:
其中,HLBP(t)表示左视图单目感知响应图像图像的概率统计特征,p(·)代表实际像素值与对左视图单目感知响应图像应用LBP算子生成的特征图像ILBP(x,y)中每个像素的可能值t之间的对应关系,X和Y分别代表图像的宽度和高度,a,b=-1,0,1,,j代表8-邻域像素的序号,T(·)代表衡量中心点和邻域值的关系的阈值函数,(x′,y′)代表坐标(x,y)处的邻域点。
发明内容
本发明的目的是为了解决无参考立体图像质量评价中人眼视觉感知机制模拟方法不够完善,对图像中视觉感知信息的利用不充分,主观一致性差,数据库独立性差,算法稳定性差等问题,提出一种基于初级视觉感知机制的无参考立体图像质量评价方法。
本发明方法是通过以下技术方案实现的。
基于初级视觉感知机制的无参考立体图像质量评价方法,其具体步骤如下:
步骤一、将输入的待测试立体图像对转化为灰度信息;
立体图像对为RGB三个颜色通道的信息集合,采用RGB颜色空间变换,将三通道信息转化为单通道的灰度信息。
步骤二、基于ON/OFF通道细胞感知机制,应用信道分离处理方法对左右视图灰度信息做进一步的处理,得到左右视图的单目感知响应图像;
步骤三、对灰度信息应用匹配算法得到模拟视差图,利用左右视图灰度信息和模拟视差图校正合成单眼图像;
步骤四、对单眼图像进行信道分离和反馈聚合优化,得到单眼图像的双目感知响应图像;
步骤五、基于初级视觉感知机制中的接受场效应,分别利用得到的单目和双目感知响应模拟初级视觉皮层中经典与非经典接受场响应图像,并对生成的两类接受场响应图像提取结构算子LBP的概率统计特征向量;
步骤六、采用步骤一、步骤二、步骤三、步骤四和步骤五的方法对数据库中的每一幅彩色立体图像对进行处理,计算得到每一组立体图像对应的质量特征向量;然后利用基于学习的机器学习方法,在训练集上进行训练,在测试集上进行测试,把质量特征向量映射为对应的质量分数;进而利用现有的算法性能指标(SRCC、PLCC、KRCC等)对算法的优劣进行评估。
有益效果
本发明提出的基于初级视觉感知机制的无参考立体图像质量评价方法,与已有技术相比具有主观一致性高,数据库独立性高,算法稳定性高等特点;可以与立体图像/视频处理相关应用系统协同使用,具有很强的应用价值。
附图说明
图1是本发明的基于初级视觉感知机制的无参考立体图像质量评价方法的流程图;
图2是本发明以及其他立体图像质量评价方法在LIVE Phase II数据库上进行测试的盒形图。
具体实施方式
下面结合附图和具体实施例对本发明方法的实施方式做详细的说明。
实施例
本方法的流程如图1所示,具体实施过程为:
步骤一、将输入的待测试立体图像对转化为灰度信息;
步骤二、基于ON/OFF通道细胞感知机制,应用信道分离处理方法对左右视图灰度信息做进一步的处理,得到左右视图的单目感知响应图像;
单目感知响应图像通过左、右视图灰度信息的ON/OFF信道分离处理方法得到。
单目感知响应图像的计算方法如下:
其中,ML-ON和ML-OFF分别表示左视图的ON通道和OFF通道单目感知响应图像,MR-ON和MR-OFF分别表示右视图的ON通道和OFF通道单目感知响应图像,IL(i)代表左视图灰度图,IR(i)代表右视图灰度图,i=(x,y)表示空间坐标位置,代表线性卷积操作运算符,gON和gOFF分别代表ON和OFF信道分离处理操作的滤波器,它们的表示如下:
其中,σON/OFF代表ON或OFF通道下的卷积函数的尺度参数,左右视图的单目感知响应图像都将用于后续的经典与非经典接受场响应图像的生成。
步骤三、对灰度信息应用匹配算法得到模拟视差图,利用左右视图灰度信息和模拟视差图校正合成单眼图像;
模拟视差图通过左、右视图灰度信息的结构相似度匹配得到。
单眼图像的计算方法如下:
其中,CI代表合成的单眼图像,ε[IL(i)]和ε[IR(i+d)]分别代表立体图像对左视图和经过视差校正的右视图的灰度图的信息熵,d代表在位置i处的视差,α代表一个常量来确保加权过程的稳定性,z是像素值,Z表示像素值的取值范围,这里取0至255,p(·)是像素分布概率函数。
步骤四、对单眼图像进行信道分离和反馈聚合优化,得到单眼图像的双目感知响应图像;
双目感知响应图像的计算方法如下:
BCI-ON=(1+E)·CION-(1-E)·CIOFF (12)
BCI-OFF=(1+E)·CIOFF-(1-E)·CION (13)
其中,BCI-ON和BCI-OFF分别代表经过反馈聚合优化后的单眼图像的ON和OFF通道双目感知响应图像,CION和CIOFF分别代表单眼图像的ON和OFF视觉通道信息,E代表一种梯度加权模型,G代表单眼图像在水平和垂直两个方向下的梯度信息,gh和gv为水平和垂直两个方向下的高斯滤波器,Gmax和Gmin分别代表梯度幅值在全局范围内的最大值和最小值,两者用来对梯度信息归一化提供标准参数。单眼图像的双目感知响应图像将用于后续的经典与非经典接受场响应图像的生成。
步骤五、基于初级视觉感知机制中的接受场效应,分别利用得到的单目和双目感知响应模拟初级视觉皮层中经典与非经典接受场响应图像,并对生成的两类接受场响应图像提取结构算子LBP的概率统计特征向量;
经典接受场响应图像的计算方法如下:
其中,CRFL、CRFR和CRFCI分别代表左、右视图的单目感知响应图像以及单眼图像的双目感知响应图像的经典接受场响应图像,k用来实现对接收场偏转角度的调整,N代表在实验过程中所选择的偏转角度个数,分别表示ON和OFF通道下使用的偏置卷积函数,m=sin(θ),n=cos(θ),θ表示接受场偏转角度,σh与σv分别表示水平和垂直方向上的延展标准差。生成的三种经典接受场响应图像将用于后续的统计特征提取。
非经典接受场响应图像的计算方法如下:
其中,NCRFL、NCRFR和NCRFCI分别代表左、右视图的单目感知响应图像以及单眼视图的双目感知响应图像的非经典接收场响应图像。gNCRF代表ON、OFF通道的差分算子,σ代表标准差。生成的三种非经典接受场响应图像将用于后续的统计特征提取。
LBP概率统计特征的提取方法如下,以CRFL为例:
其中,HLBP(t)表示CRFL图像的概率统计特征,p(·)代表实际像素值与对CRFL应用LBP算子生成的特征图像ILBP(x,y)中每个像素的可能值t之间的对应关系,X和Y分别代表图像的宽度和高度,a,b=-1,0,1,,j代表8-邻域像素的序号,T(·)代表衡量中心点和邻域值的关系的阈值函数,(x′,y′)代表坐标(x,y)处的邻域点。对CRFR、CRFCI、NCRFL、NCRFR和NCRFCI分别进行同样的特征提取操作,得到接受场响应图像的概率统计特征向量。
步骤六、采用步骤一、步骤二、步骤三、步骤四和步骤五的方法对数据库中的每一幅彩色立体图像对进行处理,计算得到每一组立体图像对应的质量特征向量;然后利用基于学习的机器学习方法,在这里我们选择采用支持向量机(SVR)的机器学习方法在训练集上进行训练,在测试集上进行测试,把质量特征向量映射为对应的质量分数;进而利用现有的算法性能指标(SRCC、PLCC、KRCC等)对算法的优劣进行评估。
测试中,在四个立体图像质量评价数据库上实施了本发明所述方法,包括LIVEPhase I,LIVE Phase II,Waterloo IVC 3D Phase I和Phase II。这些数据库的基本信息列举在了表一中。同时,选取了七种算法公开、性能优秀的质量评价算法与本发明方法进行比较,包括四种2D基础上的立体图像质量评价算法:SSIM,VIF,SSEQ,BRISQUE。一种全参考立体图像质量评价方法Chen-FR和两种无参考立体图像质量评价方法Chen-NR,Su。为了消除训练数据和随机性的影响,在数据库上进行了1000次80%训练-20%测试的重复试验,即80%的数据用于训练,剩下的20%的数据用于测试,训练数据和测试数据不存在内容的重叠。最后利用现有的算法性能指标(1000次重复试验SRCC,PLCC,KRCC,RMSE的中值)对算法的优劣进行评估,实验结果见表二。
表一数据库基本信息
结合附图2可以看出,本发明提出的算法BSIQE在四个数据库的测试中,不仅表现出了比其他无参考图像质量评价算法更优秀的主观一致性和稳定性,在LIVE和WaterlooIVC数据库上,甚至优于全参考的质量评价方法。
表二 四个数据库上算法性能比较

Claims (10)

1.基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于,包括以下步骤:
步骤一、将输入的待测试立体图像对转化为灰度信息;
步骤二、对左右视图灰度信息做进一步处理,得到左右视图的单目感知响应图像;
步骤三、通过左、右视图灰度信息的结构相似度匹配得到模拟视差图,利用左右视图灰度信息和模拟视差图校正合成单眼图像;
步骤四、对单眼图像进行信道分离和反馈聚合优化,得到单眼图像的双目感知响应图像;
步骤五、基于初级视觉感知机制中的接受场效应,分别利用得到的单目和双目感知响应模拟初级视觉皮层中经典与非经典接受场响应图像,并对生成的两类接受场响应图像提取结构算子LBP的概率统计特征向量;
步骤六、采用步骤一、步骤二、步骤三、步骤四和步骤五的方法对数据库中的每一幅彩色立体图像对进行处理,计算得到每一组立体图像对应的质量特征向量;然后利用基于学习的机器学习方法,在训练集上进行训练,在测试集上进行测试,把质量特征向量映射为对应的质量分数,利用现有的算法性能指标对算法的优劣进行评估。
2.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤一中,立体图像对为RGB三个颜色通道的信息集合,采用RGB颜色空间变换,将三通道信息转化为单通道的灰度信息。
3.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤二中,单目感知响应图像通过左、右视图灰度信息的ON/OFF信道分离处理方法得到。
4.如权利要求3所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:利用对左、右视图灰度信息的ON/OFF信道分离处理方法获得单目感知响应图像的计算过程如下:
其中,ML-ON和ML-OFF分别表示左视图的ON通道和OFF通道单目感知响应图像,MR-ON和MR-OFF分别表示右视图的ON通道和OFF通道单目感知响应图像,IL(i)代表左视图灰度图,IR(i)代表右视图灰度图,i=(x,y)表示空间坐标位置,代表线性卷积操作运算符,gON和gOFF分别代表ON和OFF信道分离处理操作的滤波器,表示如下:
其中,σON/OFF代表ON或OFF通道下的卷积函数的尺度参数。
5.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤三中,合成单眼图像的计算方法如下:
其中,CI代表合成的单眼图像,ε[IL(i)]和ε[IR(i+d)]分别代表立体图像对左视图和经过视差校正的右视图的灰度图的信息熵,d代表在位置i处的视差,α代表一个常量来确保加权过程的稳定性,z是像素值,Z表示像素值的取值范围,p(·)是像素分布概率函数。
6.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤四中,获得双目感知响应图像的计算方法如下:
BCI-ON=(1+E)·CION-(1-E)·CIOFF (8)
BCI-OFF=(1+E)·CIOFF-(1-E)·CION (9)
其中,BCI-ON和BCI-OFF分别代表经过反馈聚合优化后的单眼图像的ON和OFF通道双目感知响应图像,CION和CIOFF分别代表单眼图像的ON和OFF视觉通道信息,E代表一种梯度加权模型,G代表单眼图像在水平和垂直两个方向下的梯度信息,gh和gv为水平和垂直两个方向下的高斯滤波器,Gmax和Gmin分别代表梯度幅值在全局范围内的最大值和最小值,两者用来对梯度信息归一化提供标准参数。
7.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤五中,经典接受场响应图像的计算方法如下:
其中,CRFL、CRFR和CRFCI分别代表左、右视图的单目感知响应图像以及单眼图像的双目感知响应图像的经典接受场响应图像,k用来实现对接收场偏转角度的调整,N代表在实验过程中所选择的偏转角度个数,分别表示ON和OFF通道下使用的偏置卷积函数,m=sin(θ),n=cos(θ),θ表示接受场偏转角度,σh与σv分别表示水平和垂直方向上的延展标准差。
8.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤五中,非经典接受场响应图像的计算方法如下:
其中,NCRFL、NCRFR和NCRFCI分别代表左、右视图的单目感知响应图像以及单眼视图的双目感知响应图像的非经典接收场响应图像;gNCRF代表ON、OFF通道的差分算子,σ代表标准差,k用来实现对接收场偏转角度的调整,N代表在实验过程中所选择的偏转角度个数。
9.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤五中,LBP概率统计特征的提取方法如下:
其中,HLBP(t)表示CRFL图像的概率统计特征,p(·)代表实际像素值与对CRFL应用LBP算子生成的特征图像ILBP(x,y)中每个像素的可能值t之间的对应关系,X和Y分别代表图像的宽度和高度,a,b=-1,0,1,,j代表8-邻域像素的序号,T(·)代表衡量中心点和邻域值的关系的阈值函数,(x′,y′)代表坐标(x,y)处的邻域点;
对CRFR、CRFCI、NCRFL、NCRFR和NCRFCI分别进行同样的特征提取操作,得到接受场响应图像的概率统计特征向量。
10.如权利要求1所述的基于初级视觉感知机制的无参考立体图像质量评价方法,其特征在于:所述步骤六中,采用支持向量机的机器学习方法在训练集上进行训练。
CN201810446849.XA 2018-05-11 2018-05-11 基于初级视觉感知机制的无参考立体图像质量评价方法 Active CN108648186B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810446849.XA CN108648186B (zh) 2018-05-11 2018-05-11 基于初级视觉感知机制的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810446849.XA CN108648186B (zh) 2018-05-11 2018-05-11 基于初级视觉感知机制的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN108648186A true CN108648186A (zh) 2018-10-12
CN108648186B CN108648186B (zh) 2021-11-19

Family

ID=63754534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810446849.XA Active CN108648186B (zh) 2018-05-11 2018-05-11 基于初级视觉感知机制的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN108648186B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325550A (zh) * 2018-11-02 2019-02-12 武汉大学 基于图像熵的无参考图像质量评价方法
CN109887023A (zh) * 2019-01-11 2019-06-14 杭州电子科技大学 一种基于加权梯度幅度的双目融合立体图像质量评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
US20170295353A1 (en) * 2014-08-25 2017-10-12 Schepens Eye Research Institute Compensating 3d stereoscopic imagery
CN107371016A (zh) * 2017-07-25 2017-11-21 天津大学 基于非对称失真的无参考3d立体图像质量评价方法
CN107635136A (zh) * 2017-09-27 2018-01-26 北京理工大学 基于视觉感知和双目竞争的无参考立体图像质量评价方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170295353A1 (en) * 2014-08-25 2017-10-12 Schepens Eye Research Institute Compensating 3d stereoscopic imagery
CN105338343A (zh) * 2015-10-20 2016-02-17 北京理工大学 一种基于双目感知的无参考立体图像质量评价方法
CN107371016A (zh) * 2017-07-25 2017-11-21 天津大学 基于非对称失真的无参考3d立体图像质量评价方法
CN107635136A (zh) * 2017-09-27 2018-01-26 北京理工大学 基于视觉感知和双目竞争的无参考立体图像质量评价方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325550A (zh) * 2018-11-02 2019-02-12 武汉大学 基于图像熵的无参考图像质量评价方法
CN109325550B (zh) * 2018-11-02 2020-07-10 武汉大学 基于图像熵的无参考图像质量评价方法
CN109887023A (zh) * 2019-01-11 2019-06-14 杭州电子科技大学 一种基于加权梯度幅度的双目融合立体图像质量评价方法

Also Published As

Publication number Publication date
CN108648186B (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
Shao et al. Full-reference quality assessment of stereoscopic images by learning binocular receptive field properties
CN107635136B (zh) 基于视觉感知和双目竞争的无参考立体图像质量评价方法
CN105744256B (zh) 基于图谱视觉显著的立体图像质量客观评价方法
CN109167996B (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN110060236B (zh) 基于深度卷积神经网络的立体图像质量评价方法
CN108769671B (zh) 基于自适应融合图像的立体图像质量评价方法
CN107578403A (zh) 基于梯度信息指导双目视图融合的立体图像质量评价方法
CN104376565B (zh) 基于离散余弦变换和稀疏表示的无参考图像质量评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN109523513B (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN104954778B (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN105049838B (zh) 一种用于压缩立体视频质量的客观评价方法
CN108074241B (zh) 目标图像的质量评分方法、装置、终端及存储介质
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN108520510B (zh) 一种基于整体和局部分析的无参考立体图像质量评价方法
CN112767385B (zh) 基于显著性策略与特征融合无参考图像质量评价方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN107018410B (zh) 一种基于预注意机制和空间依赖性的无参考图像质量评价方法
CN108648186A (zh) 基于初级视觉感知机制的无参考立体图像质量评价方法
CN108259893A (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
CN108492275B (zh) 基于深度神经网络的无参考立体图像质量评价方法
CN109345520A (zh) 一种图像清晰度的质量评价方法
CN106960432B (zh) 一种无参考立体图像质量评价方法
CN111127386B (zh) 一种基于深度学习的图像质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant