CN109257592A - 基于深度学习的立体视频质量客观评价方法 - Google Patents
基于深度学习的立体视频质量客观评价方法 Download PDFInfo
- Publication number
- CN109257592A CN109257592A CN201710566729.9A CN201710566729A CN109257592A CN 109257592 A CN109257592 A CN 109257592A CN 201710566729 A CN201710566729 A CN 201710566729A CN 109257592 A CN109257592 A CN 109257592A
- Authority
- CN
- China
- Prior art keywords
- feature
- binocular
- video
- eyed
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的立体视频质量客观评价方法:处理图像得到独眼图、双目和图及双目差图;独眼图上提取HOG特征;分别在双目和图和双目差图提取GM和LOG的联合分布特征;光流场上提取时域特征;时间方向上求视频每组特征平均值;通过稀疏自编码器对输入特征抽象表达,分别建立深度学习网络评价模型;利用深度学习网络评价模型分别预测独眼图、双目和图和双目差图、流场图的质量分数;独眼图、双目和图和双目差图、流场图加权整合。本发明结合HOG特征、GM和LOG的联合分布特征、以及光流特征对立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。
Description
技术领域
本发明涉及视频处理领域,更具体的说,是涉及一种基于深度学习的立体视频质量客观评价方法。
背景技术
由于3D能够带给观众立体感和更真实的观看体验,因此三维视频技术已经受到工业产品生产商和电子产品消费者的广泛关注。然而,视频的采集、编码压缩、传输、显示以及处理过程中的任何一个环节都有可能引起视频的失真,导致视频质量下降,因此对视频质量评价的研究对推动图像和视频处理技术的发展具有重要意义。
立体视频质量评价方法分为主观质量评价和客观质量评价两种方法,客观评价方法又分为全参考、半参考和无参考型方法。在无参考质量评价方法中,现有的质量评价模型大多是浅层学习网络,如支持向量机、反向传播神经网络等,通过在视频上提取特征并用浅层网络训练和预测视频质量,取得了一定的效果。但是浅层学习网络由单层非线性特征转换层构成,对复杂函数的表征能力有限。由于人类视觉系统感知机理非常复杂,浅层学习网络不能充分表达这一过程,而深度学习网络,如卷积神经网络、深信度网络等,可通过学习深层非线性网络结构实现对复杂函数的表达。因此,近年来越来越多的研究者开始致力于用深度学习网络模型来模拟人类视觉系统的处理机制,从而预测图像和视频的质量。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于深度学习的立体视频质量客观评价方法,结合HOG特征、高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征、以及光流特征对立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。
本发明的目的是通过以下技术方案实现的。
本发明的基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,包括以下步骤:
第一步,对组成左视点视频和右视点视频的图像序列分别进行处理,得到独眼图、双目和图及双目差图;
第二步,空域特征提取:在独眼图上提取HOG特征,记为
第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,分别记为和
第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft;
第五步,以上述空域特征、时域特征为基础,对视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为 和并将双目和图和双目差图的特征进行级联,记为
第六步,在已知主观分数的立体视频库上训练自稀疏编码器模型,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE-C、SAE-SD、SAE-T;
第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt;
第八步,整合阶段:将独眼图、双目和图及双目差图看作空域质量,将光流场图看作时域质量;将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合:
Q=α·Qs+β·Qt(α+β=1)
Qs=u·Qc+v·Qsd(u+v=1)
第一步中:
(1)独眼图定义如下:
CI(x,y)=WL(x,y)·IL(x,y)+WR(x+d,y)·IR(x+d,y)
IL和IR分别为左视点视频图像和右视点视频图像,d为双目视差值,WL和WR分别为左视点视频图像权重和右视点视频图像权重;左视点视频图像权重和右视点视频图像权重通过Gabor滤波器的能量响应幅度得到:
GEL和GER分别为左视点视频图像和右视点视频图像的能量响应值;
(2)双目和图的定义如下:
(3)双目差图的定义如下:
DI(x,y)=IL(x,y)-IR(x,y)
第二步中独眼图的HOG特征提取方法为:
(1)首先对图像进行归一化处理:
I(x,y)=I(x,y)γ
I是待处理图像,(x,y)是图像中像素的坐标,γ为归一化参数;
归一化后的独眼图水平方向梯度Ghor(x,y)和垂直方向梯度Gver(x,y)表示为:
Ghor(x,y)=I(x+1,y)-I(x-1,y)
Gver(x,y)=I(x,y+1)-I(x,y-1)
独眼图的梯度表示为:
其中,G(x,y)和分别为图像的梯度幅度和梯度相位;
(2)将图像的梯度图分解为互不重叠的6×6子块,并统计每个子块的梯度直方图,这里将梯度方向按照公式分为z个部分(z个方向,共z个特征);
其中,Sp是角度间的间隔,z是角度间隔的总数量;
随后,将4个相邻的子块组成较大的块,并统计较大的块内的归一化梯度直方图(共4z个特征),最后对一幅图像的所有块的特征求其平均值,即为HOG特征:
fhi是每个角度的HOG特征,nB是一幅图像中分块的总数量。
第三步中双目和图和双目差图的GM和LOG的联合分布特征均以下方法提取:
一幅图像I的GM图表示为:
*为卷积符号,σ为尺度参数;
一幅图像I的LOG图表示为:
LI=I*hLOG
随后,GM和LOG联合归一化为
计算每一像素位置的自适应归一化因子
Ωx,y是像素(x,y)的局部邻域,w(l,k)是局部邻域每个像素点的权重系数;
最后,GM和LOG特征图归一化为:
C为常数,设置为0.2,将归一化后的GM和LOG特征分别量化为M和N个等级,双目和图上提取(M+N)个特征,双目差图上提取(M+N)个特征,总共得到(2M+2N)个特征。
第四步中:
(1)相邻两帧图像的独眼图间的光流场计算公式如下:
根据光流场理论,每个像素都有一个运动矢量,反映相邻帧之间的运动关系,计算视频相邻帧之间的光流场作为运动信息,
光流方程为:
Ixvx+Iyvy+It=0
其中,Ix表示水平方向梯度,Iy表示垂直方向梯度,It表示时间方向梯度,U=(vx,vy)T表示光流;
(2)光流场特征提取方法如下:
对于相邻两帧图像之间的矢量光流场,计算以下五个变量:
div(v)=Ixvx+Iyvy,shA(v)=Ixvx-Iyvy,
rot(v)=Ixvy-Iyvx,shB(v)=Ixvy+Iyvx.
对于以上每个矩阵变量,将其分成不重叠的K×L块,分别计算每个块的熵和二范数,并对一幅光流图的所有块的熵和二范数求平均值,即为时域特征。
第六步中稀疏自编码器的原理为:
c维的输入矢量通过稀疏自编码器为可以转换为c'位的隐层矢量:
h=fθ(r)=s(Wr+b)
fθ(r)为编码器,θ={W,b}是编码器设置参数,W是c'×c的权重矩阵,b是c'的偏移矢量,s是输入函数,r是输入矢量;
隐层的输出再通过解码器反向传播到输入层,形成重建输入层:
其中,gθ'(h)为解码器,θ′={W′,b′}是解码器设置参数;通过比较原输入层h和重建输入层之间的差距来微调网络,减小传播误差,使重建输入值更接近于原始输入值;
重建误差表示为:
i表示第i个样本,n表示样本的总数量,L2为均方损失函数:
与现有技术相比,本发明的技术方案所带来的有益效果是:
本发明综合考虑独眼图的HOG特性、双目和图和双目差图的高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征和基于光流算法的时域特征,将提取的特征向量输入到包含三个隐层的稀疏自编码器中,建立特征和主观分数的回归模型,根据已建立的回归模型,预测输入视频的各部分质量分数,最后对各部分质量分数进行加权作为最终的质量分数;将深度学习应用于立体视频质量客观评价方法之中,得到的立体视频质量客观评价结果与主观结果具有很高的一致性,极大的提高立体视频客观质量评价的性能。
附图说明
图1是本发明基于深度学习的立体视频质量客观评价方法的流程图。
具体实施方式
下面结合附图对本发明作进一步的描述。
本发明主要包括特征提取和训练测试两个阶段。首先在特征提取阶段,主要提取独眼图(cyclopean image,CI)的HOG特征、双目和图(summation image,SI)和双目差图(difference image,DI)的高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,和基于光流算法的时域特征;在训练预测阶段,首先将提取的特征向量输入到包含3个隐层的稀疏自编码器中,建立特征和主观分数的回归模型;根据已建立的回归模型,预测输入视频的各部分质量分数。最后对各部分质量分数进行加权作为最终的质量分数。具体技术方案如下:
如图1所示,基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,设失真视频对为(tl,tr),包括以下步骤:
第一步,对组成左视点视频和右视点视频的图像序列IL和IR分别进行处理,得到独眼图、双目和图及双目差图。
(1)独眼图定义如下:
CI(x,y)=WL(x,y)·IL(x,y)+WR(x+d,y)·IR(x+d,y) (1)
IL和IR分别为左视点视频图像和右视点视频图像,d为双目视差值,WL和WR分别为左视点视频图像权重和右视点视频图像权重;左视点视频图像权重和右视点视频图像权重通过Gabor滤波器的能量响应幅度得到:
GEL和GER分别为左视点视频图像和右视点视频图像的能量响应值;
(2)双目和图的定义如下:
(3)双目差图的定义如下:
DI(x,y)=IL(x,y)-IR(x,y) (5)
第二步,空域特征提取:在独眼图上提取HOG特征,记为
独眼图的HOG特征提取方法为:
(1)首先对图像进行归一化处理:
I(x,y)=I(x,y)γ (6)
I是待处理图像,(x,y)是图像中像素的坐标,γ为归一化参数。
归一化后的独眼图水平方向梯度Ghor(x,y)和垂直方向梯度Gver(x,y)可表示为:
Ghor(x,y)=I(x+1,y)-I(x-1,y) (7)
Gver(x,y)=I(x,y+1)-I(x,y-1) (8)
独眼图的梯度可表示为:
其中,G(x,y)和分别为图像的梯度幅度和梯度相位。
(2)将图像的梯度图分解为互不重叠的6×6小子块,并统计每个小子块的梯度直方图,这里将梯度方向按照公式分为z个部分(z个方向,共z个特征);
其中,Sp是角度间的间隔,z是角度间隔的总数量;
随后,将4个相邻的子块组成较大的块,并统计较大的块内的归一化梯度直方图(共4z个特征),最后对一幅图像的所有块的特征求其平均值,即为HOG特征:
fhi是每个角度的HOG特征,nB是一幅图像中分块的总数量。若z=9,则hi=1,2,3,...,36。
第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,分别记为和
双目和图和双目差图的GM和LOG的联合分布特征均以下方法提取:
一幅图像I的GM图可表示为:
*为卷积符号,σ为尺度参数。
一幅图像I的LOG图可表示为:
LI=I*hLOG (16)
随后,GM和LOG联合归一化为:
计算每一像素位置的自适应归一化因子:
Ωx,y是像素(x,y)的局部邻域,w(l,k)是局部邻域每个像素点的权重系数。
最后,GM和LOG特征图可归一化为:
C为常数,设置为0.2,将归一化后的GM和LOG特征分别量化为M和N个等级,双目和图上提取(M+N)个特征,双目差图上提取(M+N)个特征,总共得到(2M+2N)个特征。这里可设置M=N=5,因此,双目和图上提取10个特征,双目差图上提取10个特征,总共得到20个特征。
第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft。
(1)相邻两帧图像的独眼图间的光流场计算公式如下:
根据光流场理论,每个像素都有一个运动矢量,可以反映相邻帧之间的运动关系,计算视频相邻帧之间的光流场作为运动信息。
光流方程为:
Ixvx+Iyvy+It=0 (22)
其中,Ix表示水平方向梯度,Iy表示垂直方向梯度,It表示时间方向梯度,U=(vx,vy)T表示光流。随后在光流场上提取时域统计特征,用来估计时域特性失真程度。
(2)光流场特征提取方法如下:
对于相邻两帧图像之间的矢量光流场,计算以下五个变量:
div(v)=Ixvx+Iyvy (24)
rot(v)=Ixvy-Iyvx (25)
shA(v)=Ixvx-Iyvy (26)
shB(v)=Ixvy+Iyvx (27)
对于以上每一个矩阵变量,将其分成不重叠的K×L块,分别计算每个块的熵和二范数,并对一幅光流图的所有块的熵和二范数求平均值,即为时域特征。
第五步,以上述空域特征、时域特征为基础,对一段视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为 和并将双目和图和双目差图的特征进行级联,记为每组特征在时间方向上求均值的公式为:
其中,uj为第j个特征在一段视频的所有图像序列上的平均值,B为视频的总帧数,Di,j为第j个特征的在第i帧图像上的值。
第六步,在已知主观分数的立体视频库上训练自稀疏编码器模型,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE-C、SAE-SD、SAE-T。
稀疏自编码器的原理为:
c维的输入矢量通过稀疏自编码器为可以转换为c'位的隐层矢量:
h=fθ(r)=s(Wr+b) (29)
fθ(r)为编码器,θ={W,b}是编码器设置参数,W是c'×c的权重矩阵,b是c'的偏移矢量,s是输入函数,r是输入矢量。
隐层的输出再通过解码器反向传播到输入层,形成重建输入层:
其中,gθ'(h)为解码器,θ′={W′,b′}是解码器设置参数;通过比较原输入层h和重建输入层之间的差距来微调网络,减小传播误差,使重建输入值更接近于原始输入值。
重建误差可表示为:
i表示第i个样本,n表示样本的总数量,L2为均方损失函数:
第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt。
第八步,各部分质量分数的整合阶段:将独眼图、双目和图及双目差图看作空域质量,将光流场图看作时域质量,因此,将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合:
Q=α·Qs+β·Qt(α+β=1) (33)
其中,
Qs=u·Qc+v·Qsd(u+v=1) (34)
α,β,u,v均为权重系数。
尽管上面结合附图对本发明的功能及工作过程进行了描述,但本发明并不局限于上述的具体功能和工作过程,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可以做出很多形式,这些均属于本发明的保护之内。
Claims (6)
1.基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,其特征在于,包括以下步骤:
第一步,对组成左视点视频和右视点视频的图像序列分别进行处理,得到独眼图、双目和图及双目差图;
第二步,空域特征提取:在独眼图上提取HOG特征,记为
第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,分别记为和
第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft;
第五步,以上述空域特征、时域特征为基础,对视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为 和并将双目和图和双目差图的特征进行级联,记为
第六步,在已知主观分数的立体视频库上训练自稀疏编码器模型,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE-C、SAE-SD、SAE-T;
第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt;
第八步,整合阶段:将独眼图、双目和图及双目差图看作空域质量,将光流场图看作时域质量;将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合:
Q=α·Qs+β·Qt (α+β=1)
Qs=u·Qc+v·Qsd (u+v=1)
2.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第一步中:
(1)独眼图定义如下:
CI(x,y)=WL(x,y)·IL(x,y)+WR(x+d,y)·IR(x+d,y)
IL和IR分别为左视点视频图像和右视点视频图像,d为双目视差值,WL和WR分别为左视点视频图像权重和右视点视频图像权重;左视点视频图像权重和右视点视频图像权重通过Gabor滤波器的能量响应幅度得到:
GEL和GER分别为左视点视频图像和右视点视频图像的能量响应值;
(2)双目和图的定义如下:
(3)双目差图的定义如下:
DI(x,y)=IL(x,y)-IR(x,y)
3.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第二步中独眼图的HOG特征提取方法为:
(1)首先对图像进行归一化处理:
I(x,y)=I(x,y)γ
I是待处理图像,(x,y)是图像中像素的坐标,γ为归一化参数;
归一化后的独眼图水平方向梯度Ghor(x,y)和垂直方向梯度Gver(x,y)表示为:
Ghor(x,y)=I(x+1,y)-I(x-1,y)
Gver(x,y)=I(x,y+1)-I(x,y-1)
独眼图的梯度表示为:
其中,G(x,y)和分别为图像的梯度幅度和梯度相位;
(2)将图像的梯度图分解为互不重叠的6×6子块,并统计每个子块的梯度直方图,这里将梯度方向按照公式分为z个部分(z个方向,共z个特征);
其中,Sp是角度间的间隔,z是角度间隔的总数量;
随后,将4个相邻的子块组成较大的块,并统计较大的块内的归一化梯度直方图(共4z个特征),最后对一幅图像的所有块的特征求其平均值,即为HOG特征:
fhi是每个角度的HOG特征,nB是一幅图像中分块的总数量。
4.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第三步中双目和图和双目差图的GM和LOG的联合分布特征均以下方法提取:
一幅图像I的GM图表示为:
*为卷积符号,σ为尺度参数;
一幅图像I的LOG图表示为:
LI=I*hLOG
随后,GM和LOG联合归一化为
计算每一像素位置的自适应归一化因子
Ωx,y是像素(x,y)的局部邻域,w(l,k)是局部邻域每个像素点的权重系数;
最后,GM和LOG特征图归一化为:
C为常数,设置为0.2,将归一化后的GM和LOG特征分别量化为M和N个等级,双目和图上提取(M+N)个特征,双目差图上提取(M+N)个特征,总共得到(2M+2N)个特征。
5.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第四步中:
(1)相邻两帧图像的独眼图间的光流场计算公式如下:
根据光流场理论,每个像素都有一个运动矢量,反映相邻帧之间的运动关系,计算视频相邻帧之间的光流场作为运动信息,
光流方程为:
Ixvx+Iyvy+It=0
其中,Ix表示水平方向梯度,Iy表示垂直方向梯度,It表示时间方向梯度,U=(vx,vy)T表示光流;
(2)光流场特征提取方法如下:
对于相邻两帧图像之间的矢量光流场,计算以下五个变量:
div(v)=Ixvx+Iyvy,shA(v)=Ixvx-Iyvy,
rot(v)=Ixvy-Iyvx,shB(v)=Ixvy+Iyvx.
对于以上每个矩阵变量,将其分成不重叠的K×L块,分别计算每个块的熵和二范数,并对一幅光流图的所有块的熵和二范数求平均值,即为时域特征。
6.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第六步中稀疏自编码器的原理为:
c维的输入矢量通过稀疏自编码器为可以转换为c'位的隐层矢量:
h=fθ(r)=s(Wr+b)
fθ(r)为编码器,θ={W,b}是编码器设置参数,W是c'×c的权重矩阵,b是c'的偏移矢量,s是输入函数,r是输入矢量;
隐层的输出再通过解码器反向传播到输入层,形成重建输入层:
其中,gθ'(h)为解码器,θ′={W′,b′}是解码器设置参数;通过比较原输入层h和重建输入层之间的差距来微调网络,减小传播误差,使重建输入值更接近于原始输入值;
重建误差表示为:
i表示第i个样本,n表示样本的总数量,L2为均方损失函数:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566729.9A CN109257592B (zh) | 2017-07-12 | 2017-07-12 | 基于深度学习的立体视频质量客观评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566729.9A CN109257592B (zh) | 2017-07-12 | 2017-07-12 | 基于深度学习的立体视频质量客观评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109257592A true CN109257592A (zh) | 2019-01-22 |
CN109257592B CN109257592B (zh) | 2020-09-01 |
Family
ID=65051545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710566729.9A Active CN109257592B (zh) | 2017-07-12 | 2017-07-12 | 基于深度学习的立体视频质量客观评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109257592B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903273A (zh) * | 2019-01-30 | 2019-06-18 | 武汉科技大学 | 一种基于dct域特征的立体图像质量客观评价方法 |
CN112702592A (zh) * | 2020-12-28 | 2021-04-23 | 北京航空航天大学 | 端到端双目图像联合压缩方法、装置、设备和介质 |
CN113505695A (zh) * | 2021-07-09 | 2021-10-15 | 上海工程技术大学 | 一种基于aehal特征的轨道扣件状态检测方法 |
CN114598864A (zh) * | 2022-03-12 | 2022-06-07 | 中国传媒大学 | 一种基于深度学习的全参考超高清视频质量客观评价方法 |
CN114845137A (zh) * | 2022-03-21 | 2022-08-02 | 南京大学 | 一种基于图像配准的视频光路重建方法及其装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102595185A (zh) * | 2012-02-27 | 2012-07-18 | 宁波大学 | 一种立体图像质量客观评价方法 |
CN103873855A (zh) * | 2014-02-26 | 2014-06-18 | 天津大学 | 一种基于人类视觉基本特性的立体图像客观质量评价方法 |
CN105208374A (zh) * | 2015-08-24 | 2015-12-30 | 宁波大学 | 一种基于深度学习的无参考图像质量客观评价方法 |
CN106462771A (zh) * | 2016-08-05 | 2017-02-22 | 深圳大学 | 一种3d图像的显著性检测方法 |
-
2017
- 2017-07-12 CN CN201710566729.9A patent/CN109257592B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102595185A (zh) * | 2012-02-27 | 2012-07-18 | 宁波大学 | 一种立体图像质量客观评价方法 |
CN103873855A (zh) * | 2014-02-26 | 2014-06-18 | 天津大学 | 一种基于人类视觉基本特性的立体图像客观质量评价方法 |
CN105208374A (zh) * | 2015-08-24 | 2015-12-30 | 宁波大学 | 一种基于深度学习的无参考图像质量客观评价方法 |
CN106462771A (zh) * | 2016-08-05 | 2017-02-22 | 深圳大学 | 一种3d图像的显著性检测方法 |
Non-Patent Citations (1)
Title |
---|
田维军等: "基于深度学习的无参考立体图像质量评价", 《计算机辅助设计与图形学学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903273A (zh) * | 2019-01-30 | 2019-06-18 | 武汉科技大学 | 一种基于dct域特征的立体图像质量客观评价方法 |
CN109903273B (zh) * | 2019-01-30 | 2023-03-17 | 武汉科技大学 | 一种基于dct域特征的立体图像质量客观评价方法 |
CN112702592A (zh) * | 2020-12-28 | 2021-04-23 | 北京航空航天大学 | 端到端双目图像联合压缩方法、装置、设备和介质 |
CN113505695A (zh) * | 2021-07-09 | 2021-10-15 | 上海工程技术大学 | 一种基于aehal特征的轨道扣件状态检测方法 |
CN114598864A (zh) * | 2022-03-12 | 2022-06-07 | 中国传媒大学 | 一种基于深度学习的全参考超高清视频质量客观评价方法 |
CN114845137A (zh) * | 2022-03-21 | 2022-08-02 | 南京大学 | 一种基于图像配准的视频光路重建方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109257592B (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109257592A (zh) | 基于深度学习的立体视频质量客观评价方法 | |
CN109360155B (zh) | 基于多尺度特征融合的单帧图像去雨方法 | |
CN104079925B (zh) | 基于视觉感知特性的超高清视频图像质量客观评价方法 | |
CN106303507B (zh) | 基于时空联合信息的无参考视频质量评估方法 | |
Wang et al. | A hybrid model for image denoising combining modified isotropic diffusion model and modified Perona-Malik model | |
CN112767279B (zh) | 一种基于离散小波集成生成对抗网络的水下图像增强方法 | |
CN101765022A (zh) | 一种基于光流与图像分割的深度表示方法 | |
CN105338343A (zh) | 一种基于双目感知的无参考立体图像质量评价方法 | |
CN103780895B (zh) | 一种立体视频质量评价方法 | |
CN107959848A (zh) | 基于三维卷积神经网络的通用型无参考视频质量评价算法 | |
CN107123094A (zh) | 一种混合泊松、高斯和脉冲噪声的视频去噪方法 | |
CN110246111A (zh) | 基于融合图像和强化图像的无参考立体图像质量评价方法 | |
CN110060286A (zh) | 一种单目深度估计方法 | |
CN108259893B (zh) | 基于双流卷积神经网络的虚拟现实视频质量评价方法 | |
CN110490807A (zh) | 图像重建方法、装置及存储介质 | |
CN104952051B (zh) | 基于高斯混合模型的低秩图像修复方法 | |
Jeong et al. | Visual comfort assessment of stereoscopic images using deep visual and disparity features based on human attention | |
CN109523590B (zh) | 一种基于样例的3d图像深度信息视觉舒适度评估方法 | |
CN107018410A (zh) | 一种基于预注意机制和空间依赖性的无参考图像质量评价方法 | |
Kai et al. | EvTexture: Event-driven Texture Enhancement for Video Super-Resolution | |
CN103077514B (zh) | 一种基于全变分的视觉感知图像质量评价方法 | |
CN117333365A (zh) | 基于混合Transformer超分辨率网络的图像超分辨率方法 | |
CN109257591A (zh) | 基于稀疏表示的无参考立体视频质量客观评价方法 | |
Chen et al. | Depth map inpainting via sparse distortion model | |
CN116524387A (zh) | 一种基于深度学习网络的超高清视频压缩损伤等级评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |