CN109257592B - 基于深度学习的立体视频质量客观评价方法 - Google Patents

基于深度学习的立体视频质量客观评价方法 Download PDF

Info

Publication number
CN109257592B
CN109257592B CN201710566729.9A CN201710566729A CN109257592B CN 109257592 B CN109257592 B CN 109257592B CN 201710566729 A CN201710566729 A CN 201710566729A CN 109257592 B CN109257592 B CN 109257592B
Authority
CN
China
Prior art keywords
binocular
diagram
quality
flow field
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710566729.9A
Other languages
English (en)
Other versions
CN109257592A (zh
Inventor
杨嘉琛
王焕玲
姜斌
朱英豪
计春祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710566729.9A priority Critical patent/CN109257592B/zh
Publication of CN109257592A publication Critical patent/CN109257592A/zh
Application granted granted Critical
Publication of CN109257592B publication Critical patent/CN109257592B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的立体视频质量客观评价方法:处理图像得到独眼图、双目和图及双目差图;独眼图上提取HOG特征;分别在双目和图和双目差图提取GM和LOG的联合分布特征;光流场上提取时域特征;时间方向上求视频每组特征平均值;通过稀疏自编码器对输入特征抽象表达,分别建立深度学习网络评价模型;利用深度学习网络评价模型分别预测独眼图、双目和图和双目差图、流场图的质量分数;独眼图、双目和图和双目差图、流场图加权整合。本发明结合HOG特征、GM和LOG的联合分布特征、以及光流特征对立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。

Description

基于深度学习的立体视频质量客观评价方法
技术领域
本发明涉及视频处理领域,更具体的说,是涉及一种基于深度学习的立体视频质量客观评价方法。
背景技术
由于3D能够带给观众立体感和更真实的观看体验,因此三维视频技术已经受到工业产品生产商和电子产品消费者的广泛关注。然而,视频的采集、编码压缩、传输、显示以及处理过程中的任何一个环节都有可能引起视频的失真,导致视频质量下降,因此对视频质量评价的研究对推动图像和视频处理技术的发展具有重要意义。
立体视频质量评价方法分为主观质量评价和客观质量评价两种方法,客观评价方法又分为全参考、半参考和无参考型方法。在无参考质量评价方法中,现有的质量评价模型大多是浅层学习网络,如支持向量机、反向传播神经网络等,通过在视频上提取特征并用浅层网络训练和预测视频质量,取得了一定的效果。但是浅层学习网络由单层非线性特征转换层构成,对复杂函数的表征能力有限。由于人类视觉系统感知机理非常复杂,浅层学习网络不能充分表达这一过程,而深度学习网络,如卷积神经网络、深信度网络等,可通过学习深层非线性网络结构实现对复杂函数的表达。因此,近年来越来越多的研究者开始致力于用深度学习网络模型来模拟人类视觉系统的处理机制,从而预测图像和视频的质量。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于深度学习的立体视频质量客观评价方法,结合HOG特征、高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征、以及光流特征对立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。
本发明的目的是通过以下技术方案实现的。
本发明的基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,包括以下步骤:
第一步,对组成左视点视频和右视点视频的图像序列分别进行处理,得到独眼图、双目和图及双目差图;
第二步,空域特征提取:在独眼图上提取HOG特征,记为
Figure BDA0001348572820000021
第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,分别记为
Figure BDA0001348572820000022
Figure BDA0001348572820000023
第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft
第五步,以上述空域特征、时域特征为基础,对视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为
Figure BDA0001348572820000024
Figure BDA0001348572820000025
Figure BDA0001348572820000026
Figure BDA0001348572820000027
并将双目和图和双目差图的特征进行级联,记为
Figure BDA0001348572820000028
第六步,在已知主观分数的立体视频库上训练自稀疏编码器模型,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE-C、SAE-SD、SAE-T;
第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt
第八步,整合阶段:将独眼图、双目和图及双目差图看作空域质量,将光流场图看作时域质量;将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合:
Q=α·Qs+β·Qt(α+β=1)
Qs=u·Qc+v·Qsd(u+v=1)
第一步中:
(1)独眼图定义如下:
CI(x,y)=WL(x,y)·IL(x,y)+WR(x+d,y)·IR(x+d,y)
IL和IR分别为左视点视频图像和右视点视频图像,d为双目视差值,WL和WR分别为左视点视频图像权重和右视点视频图像权重;左视点视频图像权重和右视点视频图像权重通过Gabor滤波器的能量响应幅度得到:
Figure BDA0001348572820000031
Figure BDA0001348572820000032
GEL和GER分别为左视点视频图像和右视点视频图像的能量响应值;
(2)双目和图的定义如下:
Figure BDA0001348572820000033
(3)双目差图的定义如下:
DI(x,y)=IL(x,y)-IR(x,y)
第二步中独眼图的HOG特征提取方法为:
(1)首先对图像进行归一化处理:
I(x,y)=I(x,y)γ
I是待处理图像,(x,y)是图像中像素的坐标,γ为归一化参数;
归一化后的独眼图水平方向梯度Ghor(x,y)和垂直方向梯度Gver(x,y)表示为:
Ghor(x,y)=I(x+1,y)-I(x-1,y)
Gver(x,y)=I(x,y+1)-I(x,y-1)
独眼图的梯度表示为:
Figure BDA0001348572820000034
Figure BDA0001348572820000035
其中,G(x,y)和
Figure BDA0001348572820000036
分别为图像的梯度幅度和梯度相位;
(2)将图像的梯度图分解为互不重叠的6×6子块,并统计每个子块的梯度直方图,这里将梯度方向按照公式分为z个部分(z个方向,共z个特征);
Figure BDA0001348572820000041
其中,Sp是角度间的间隔,z是角度间隔的总数量;
随后,将4个相邻的子块组成较大的块,并统计较大的块内的归一化梯度直方图(共4z个特征),最后对一幅图像的所有块的特征求其平均值,即为HOG特征:
Figure BDA0001348572820000042
fhi是每个角度的HOG特征,nB是一幅图像中分块的总数量。
第三步中双目和图和双目差图的GM和LOG的联合分布特征均以下方法提取:
一幅图像I的GM图表示为:
Figure BDA0001348572820000043
Figure BDA0001348572820000044
Figure BDA0001348572820000045
*为卷积符号,σ为尺度参数;
一幅图像I的LOG图表示为:
LI=I*hLOG
Figure BDA0001348572820000046
随后,GM和LOG联合归一化为
Figure BDA0001348572820000047
计算每一像素位置的自适应归一化因子
Figure BDA0001348572820000048
Ωx,y是像素(x,y)的局部邻域,w(l,k)是局部邻域每个像素点的权重系数;
最后,GM和LOG特征图归一化为:
Figure BDA0001348572820000051
Figure BDA0001348572820000052
C为常数,设置为0.2,将归一化后的GM和LOG特征分别量化为M和N个等级,双目和图上提取(M+N)个特征,双目差图上提取(M+N)个特征,总共得到(2M+2N)个特征。
第四步中:
(1)相邻两帧图像的独眼图间的光流场计算公式如下:
根据光流场理论,每个像素都有一个运动矢量,反映相邻帧之间的运动关系,计算视频相邻帧之间的光流场作为运动信息,
光流方程为:
Ixvx+Iyvy+It=0
其中,Ix表示水平方向梯度,Iy表示垂直方向梯度,It表示时间方向梯度,U=(vx,vy)T表示光流;
(2)光流场特征提取方法如下:
对于相邻两帧图像之间的矢量光流场,计算以下五个变量:
Figure BDA0001348572820000053
div(v)=Ixvx+Iyvy,shA(v)=Ixvx-Iyvy,
rot(v)=Ixvy-Iyvx,shB(v)=Ixvy+Iyvx.
对于以上每个矩阵变量,将其分成不重叠的K×L块,分别计算每个块的熵和二范数,并对一幅光流图的所有块的熵和二范数求平均值,即为时域特征。
第六步中稀疏自编码器的原理为:
c维的输入矢量通过稀疏自编码器为可以转换为c'位的隐层矢量:
h=fθ(r)=s(Wr+b)
fθ(r)为编码器,θ={W,b}是编码器设置参数,W是c'×c的权重矩阵,b是c'的偏移矢量,s是输入函数,r是输入矢量;
隐层的输出再通过解码器反向传播到输入层,形成重建输入层:
Figure BDA0001348572820000061
其中,gθ'(h)为解码器,θ′={W′,b′}是解码器设置参数;通过比较原输入层h和重建输入层
Figure BDA0001348572820000062
之间的差距来微调网络,减小传播误差,使重建输入值更接近于原始输入值;
重建误差表示为:
Figure BDA0001348572820000063
i表示第i个样本,n表示样本的总数量,L2为均方损失函数:
Figure BDA0001348572820000064
与现有技术相比,本发明的技术方案所带来的有益效果是:
本发明综合考虑独眼图的HOG特性、双目和图和双目差图的高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征和基于光流算法的时域特征,将提取的特征向量输入到包含三个隐层的稀疏自编码器中,建立特征和主观分数的回归模型,根据已建立的回归模型,预测输入视频的各部分质量分数,最后对各部分质量分数进行加权作为最终的质量分数;将深度学习应用于立体视频质量客观评价方法之中,得到的立体视频质量客观评价结果与主观结果具有很高的一致性,极大的提高立体视频客观质量评价的性能。
附图说明
图1是本发明基于深度学习的立体视频质量客观评价方法的流程图。
具体实施方式
下面结合附图对本发明作进一步的描述。
本发明主要包括特征提取和训练测试两个阶段。首先在特征提取阶段,主要提取独眼图(cyclopean image,CI)的HOG特征、双目和图(summation image,SI)和双目差图(difference image,DI)的高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,和基于光流算法的时域特征;在训练预测阶段,首先将提取的特征向量输入到包含3个隐层的稀疏自编码器中,建立特征和主观分数的回归模型;根据已建立的回归模型,预测输入视频的各部分质量分数。最后对各部分质量分数进行加权作为最终的质量分数。具体技术方案如下:
如图1所示,基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,设失真视频对为(tl,tr),包括以下步骤:
第一步,对组成左视点视频和右视点视频的图像序列IL和IR分别进行处理,得到独眼图、双目和图及双目差图。
(1)独眼图定义如下:
CI(x,y)=WL(x,y)·IL(x,y)+WR(x+d,y)·IR(x+d,y) (1)
IL和IR分别为左视点视频图像和右视点视频图像,d为双目视差值,WL和WR分别为左视点视频图像权重和右视点视频图像权重;左视点视频图像权重和右视点视频图像权重通过Gabor滤波器的能量响应幅度得到:
Figure BDA0001348572820000071
Figure BDA0001348572820000072
GEL和GER分别为左视点视频图像和右视点视频图像的能量响应值;
(2)双目和图的定义如下:
Figure BDA0001348572820000073
(3)双目差图的定义如下:
DI(x,y)=IL(x,y)-IR(x,y) (5)
第二步,空域特征提取:在独眼图上提取HOG特征,记为
Figure BDA0001348572820000074
独眼图的HOG特征提取方法为:
(1)首先对图像进行归一化处理:
I(x,y)=I(x,y)γ (6)
I是待处理图像,(x,y)是图像中像素的坐标,γ为归一化参数。
归一化后的独眼图水平方向梯度Ghor(x,y)和垂直方向梯度Gver(x,y)可表示为:
Ghor(x,y)=I(x+1,y)-I(x-1,y) (7)
Gver(x,y)=I(x,y+1)-I(x,y-1) (8)
独眼图的梯度可表示为:
Figure BDA0001348572820000081
Figure BDA0001348572820000082
其中,G(x,y)和
Figure BDA0001348572820000087
分别为图像的梯度幅度和梯度相位。
(2)将图像的梯度图分解为互不重叠的6×6小子块,并统计每个小子块的梯度直方图,这里将梯度方向按照公式分为z个部分(z个方向,共z个特征);
Figure BDA0001348572820000083
其中,Sp是角度间的间隔,z是角度间隔的总数量;
随后,将4个相邻的子块组成较大的块,并统计较大的块内的归一化梯度直方图(共4z个特征),最后对一幅图像的所有块的特征求其平均值,即为HOG特征:
Figure BDA0001348572820000084
fhi是每个角度的HOG特征,nB是一幅图像中分块的总数量。若z=9,则hi=1,2,3,...,36。
第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,分别记为
Figure BDA0001348572820000085
Figure BDA0001348572820000086
双目和图和双目差图的GM和LOG的联合分布特征均以下方法提取:
一幅图像I的GM图可表示为:
Figure BDA0001348572820000091
Figure BDA0001348572820000092
Figure BDA0001348572820000093
*为卷积符号,σ为尺度参数。
一幅图像I的LOG图可表示为:
LI=I*hLOG (16)
Figure BDA0001348572820000094
随后,GM和LOG联合归一化为:
Figure BDA0001348572820000095
计算每一像素位置的自适应归一化因子:
Figure BDA0001348572820000096
Ωx,y是像素(x,y)的局部邻域,w(l,k)是局部邻域每个像素点的权重系数。
最后,GM和LOG特征图可归一化为:
Figure BDA0001348572820000097
Figure BDA0001348572820000098
C为常数,设置为0.2,将归一化后的GM和LOG特征分别量化为M和N个等级,双目和图上提取(M+N)个特征,双目差图上提取(M+N)个特征,总共得到(2M+2N)个特征。这里可设置M=N=5,因此,双目和图上提取10个特征,双目差图上提取10个特征,总共得到20个特征。
第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft
(1)相邻两帧图像的独眼图间的光流场计算公式如下:
根据光流场理论,每个像素都有一个运动矢量,可以反映相邻帧之间的运动关系,计算视频相邻帧之间的光流场作为运动信息。
光流方程为:
Ixvx+Iyvy+It=0 (22)
其中,Ix表示水平方向梯度,Iy表示垂直方向梯度,It表示时间方向梯度,U=(vx,vy)T表示光流。随后在光流场上提取时域统计特征,用来估计时域特性失真程度。
(2)光流场特征提取方法如下:
对于相邻两帧图像之间的矢量光流场,计算以下五个变量:
Figure BDA0001348572820000101
div(v)=Ixvx+Iyvy (24)
rot(v)=Ixvy-Iyvx (25)
shA(v)=Ixvx-Iyvy (26)
shB(v)=Ixvy+Iyvx (27)
对于以上每一个矩阵变量,将其分成不重叠的K×L块,分别计算每个块的熵和二范数,并对一幅光流图的所有块的熵和二范数求平均值,即为时域特征。
第五步,以上述空域特征、时域特征为基础,对一段视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为
Figure BDA0001348572820000102
Figure BDA0001348572820000103
Figure BDA0001348572820000104
并将双目和图和双目差图的特征进行级联,记为
Figure BDA0001348572820000105
每组特征在时间方向上求均值的公式为:
Figure BDA0001348572820000106
其中,uj为第j个特征在一段视频的所有图像序列上的平均值,B为视频的总帧数,Di,j为第j个特征的在第i帧图像上的值。
第六步,在已知主观分数的立体视频库上训练自稀疏编码器模型,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE-C、SAE-SD、SAE-T。
稀疏自编码器的原理为:
c维的输入矢量通过稀疏自编码器为可以转换为c'位的隐层矢量:
h=fθ(r)=s(Wr+b) (29)
fθ(r)为编码器,θ={W,b}是编码器设置参数,W是c'×c的权重矩阵,b是c'的偏移矢量,s是输入函数,r是输入矢量。
隐层的输出再通过解码器反向传播到输入层,形成重建输入层:
Figure BDA0001348572820000111
其中,gθ'(h)为解码器,θ′={W′,b′}是解码器设置参数;通过比较原输入层h和重建输入层
Figure BDA0001348572820000112
之间的差距来微调网络,减小传播误差,使重建输入值更接近于原始输入值。
重建误差可表示为:
Figure BDA0001348572820000113
i表示第i个样本,n表示样本的总数量,L2为均方损失函数:
Figure BDA0001348572820000114
第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt
第八步,各部分质量分数的整合阶段:将独眼图、双目和图及双目差图看作空域质量,将光流场图看作时域质量,因此,将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合:
Q=α·Qs+β·Qt(α+β=1) (33)
其中,
Qs=u·Qc+v·Qsd(u+v=1) (34)
α,β,u,v均为权重系数。
尽管上面结合附图对本发明的功能及工作过程进行了描述,但本发明并不局限于上述的具体功能和工作过程,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可以做出很多形式,这些均属于本发明的保护之内。

Claims (3)

1.基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,其特征在于,包括以下步骤:
第一步,对组成左视点视频和右视点视频的图像序列进行处理,得到独眼图、双目和图及双目差图;
(1)独眼图定义如下:
CI(x,y)=WL(x,y)·IL(x,y)+WR(x+d,y)·IR(x+d,y)
x,y分别是左视点视频图像的横纵坐标,IL和IR分别为左视点视频图像和右视点视频图像,d为双目视差值,WL和WR分别为左视点视频图像权重和右视点视频图像权重;左视点视频图像权重和右视点视频图像权重通过Gabor滤波器的能量响应幅度得到:
Figure FDA0002579516340000011
Figure FDA0002579516340000012
GEL和GER分别为左视点视频图像和右视点视频图像的能量响应幅度;
(2)双目和图的定义如下:
Figure FDA0002579516340000013
(3)双目差图的定义如下:
DI(x,y)=IL(x,y)-IR(x,y);
第二步,空域特征提取:在独眼图上提取HOG特征,记为
Figure FDA0002579516340000014
第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度和高斯拉普拉斯算子的联合分布特征,分别记为
Figure FDA0002579516340000015
Figure FDA0002579516340000016
第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft
第五步,对视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为
Figure FDA0002579516340000021
Figure FDA0002579516340000022
并将双目和图和双目差图的特征进行级联,记为
Figure FDA0002579516340000023
第六步,在已知主观分数的立体视频库上训练稀疏自编码器,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE-C、SAE-SD、SAE-T;
第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt
第八步,整合阶段:将独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd看作空域质量,将光流场图质量客观分数预测值Qt看作时域质量;将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合,从而得到最终质量预测值Q:
Q=α·Qs+β·Qt,α+β=1
其中,Qs=u·Qc+v·Qsd,u+v=1。
2.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第四步中:
(1)相邻两帧图像的独眼图间的光流场计算公式如下:
根据光流场理论,每个像素都有一个运动矢量,反映相邻帧之间的运动关系,计算视频相邻帧之间的光流场作为运动信息,
光流方程为:
Ixvx+Iyvy+It=0
其中,Ix表示水平方向梯度,Iy表示垂直方向梯度,It表示时间方向梯度,U=(vx,vy)T表示光流;
(2)光流场特征提取方法如下:
对于相邻两帧图像之间的矢量光流场,计算以下五个变量:
Figure FDA0002579516340000031
div(v)=Ixvx+Iyvy,shA(v)=Ixvx-Iyvy,
rot(v)=Ixvy-Iyvx,shB(v)=Ixvy+Iyvx.
对于以上五个变量分别构成的矩阵变量,将每个矩阵变量分成不重叠的K×L块,分别计算每个块的熵和二范数,并对一幅光流场图的所有块的熵和二范数求平均值,即为时域特征。
3.根据权利要求1所述的基于深度学习的立体视频质量客观评价方法,其特征在于,第六步中稀疏自编码器的原理为:
c维的输入矢量通过稀疏自编码器转换为c'维的隐层矢量:
h=fθ(r)=s(Wr+b)
fθ(r)为编码器,θ={W,b}是编码器设置参数,W是c'×c的权重矩阵,b是c'的偏移矢量,s是输入函数,r是输入矢量;
隐层矢量的输出再通过解码器反向传播到输入层,形成重建输入层矢量:
Figure FDA0002579516340000032
其中,gθ'(h)为解码器,θ′={W′,b′}是解码器设置参数,W′是c×c′的权重矩阵,b′是c的偏移矢量;通过比较输入矢量r和重建输入层矢量
Figure FDA0002579516340000033
之间的差距来微调网络,减小传播误差,使重建输入值更接近于原始输入值;
重建误差表示为:
Figure FDA0002579516340000034
i表示第i个样本,n表示样本的总数量,L2为均方损失函数:
Figure FDA0002579516340000035
CN201710566729.9A 2017-07-12 2017-07-12 基于深度学习的立体视频质量客观评价方法 Active CN109257592B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710566729.9A CN109257592B (zh) 2017-07-12 2017-07-12 基于深度学习的立体视频质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710566729.9A CN109257592B (zh) 2017-07-12 2017-07-12 基于深度学习的立体视频质量客观评价方法

Publications (2)

Publication Number Publication Date
CN109257592A CN109257592A (zh) 2019-01-22
CN109257592B true CN109257592B (zh) 2020-09-01

Family

ID=65051545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710566729.9A Active CN109257592B (zh) 2017-07-12 2017-07-12 基于深度学习的立体视频质量客观评价方法

Country Status (1)

Country Link
CN (1) CN109257592B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903273B (zh) * 2019-01-30 2023-03-17 武汉科技大学 一种基于dct域特征的立体图像质量客观评价方法
CN112702592B (zh) * 2020-12-28 2021-10-29 北京航空航天大学 端到端双目图像联合压缩方法、装置、设备和介质
CN113505695A (zh) * 2021-07-09 2021-10-15 上海工程技术大学 一种基于aehal特征的轨道扣件状态检测方法
CN114845137B (zh) * 2022-03-21 2023-03-10 南京大学 一种基于图像配准的视频光路重建方法及其装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102595185A (zh) * 2012-02-27 2012-07-18 宁波大学 一种立体图像质量客观评价方法
CN103873855A (zh) * 2014-02-26 2014-06-18 天津大学 一种基于人类视觉基本特性的立体图像客观质量评价方法
CN105208374A (zh) * 2015-08-24 2015-12-30 宁波大学 一种基于深度学习的无参考图像质量客观评价方法
CN106462771A (zh) * 2016-08-05 2017-02-22 深圳大学 一种3d图像的显著性检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102595185A (zh) * 2012-02-27 2012-07-18 宁波大学 一种立体图像质量客观评价方法
CN103873855A (zh) * 2014-02-26 2014-06-18 天津大学 一种基于人类视觉基本特性的立体图像客观质量评价方法
CN105208374A (zh) * 2015-08-24 2015-12-30 宁波大学 一种基于深度学习的无参考图像质量客观评价方法
CN106462771A (zh) * 2016-08-05 2017-02-22 深圳大学 一种3d图像的显著性检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的无参考立体图像质量评价;田维军等;《计算机辅助设计与图形学学报》;20160630;第28卷(第6期);第968-975页 *

Also Published As

Publication number Publication date
CN109257592A (zh) 2019-01-22

Similar Documents

Publication Publication Date Title
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN108428227B (zh) 基于全卷积神经网络的无参考图像质量评价方法
CN109257592B (zh) 基于深度学习的立体视频质量客观评价方法
CN107483920B (zh) 一种基于多层级质量因子的全景视频评估方法及系统
CN109523513B (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN110246111B (zh) 基于融合图像和强化图像的无参考立体图像质量评价方法
CN102209257A (zh) 一种立体图像质量客观评价方法
CN109429051B (zh) 基于多视图特征学习的无参考立体视频质量客观评价方法
CN109788275A (zh) 自然性、结构和双目不对称无参考立体图像质量评价方法
CN102547368A (zh) 一种立体图像质量客观评价方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN108259893B (zh) 基于双流卷积神经网络的虚拟现实视频质量评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN105049838A (zh) 一种用于压缩立体视频质量的客观评价方法
CN114915777A (zh) 一种基于深度强化学习的无参考超高清视频质量客观评价方法
CN103914835A (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN110796635B (zh) 一种基于剪切波变换的光场图像质量评价方法
CN111127386B (zh) 一种基于深度学习的图像质量评价方法
CN107590796B (zh) 基于稀疏分解残差的全参考混合失真图像质量评价方法
Chen et al. Depth map inpainting via sparse distortion model
Li et al. Unsupervised neural rendering for image hazing
CN110930398B (zh) 一种基于Log-Gabor相似度的全参考视频质量评价方法
CN111127587B (zh) 一种基于对抗生成网络的无参考图像质量地图生成方法
CN114359180A (zh) 一种面向虚拟现实的图像质量评价方法
CN109257593B (zh) 基于人眼视觉感知过程的沉浸式虚拟现实质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant