CN110517237B - 基于膨胀三维卷积神经网络的无参考视频质量评价方法 - Google Patents

基于膨胀三维卷积神经网络的无参考视频质量评价方法 Download PDF

Info

Publication number
CN110517237B
CN110517237B CN201910766634.0A CN201910766634A CN110517237B CN 110517237 B CN110517237 B CN 110517237B CN 201910766634 A CN201910766634 A CN 201910766634A CN 110517237 B CN110517237 B CN 110517237B
Authority
CN
China
Prior art keywords
video
neural network
dimensional
layer
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910766634.0A
Other languages
English (en)
Other versions
CN110517237A (zh
Inventor
路文
张珅源
何立火
韩仕帅
孙晓鹏
马带锎
亓统帅
龙钢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910766634.0A priority Critical patent/CN110517237B/zh
Publication of CN110517237A publication Critical patent/CN110517237A/zh
Application granted granted Critical
Publication of CN110517237B publication Critical patent/CN110517237B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于膨胀三维卷积神经网络的无参考视频质量评价方法,其步骤为:构建由粗特征提取模块、三维时空特征学习模块、非线性回归模块组成的膨胀三维卷积神经网络,生成无参考的训练数据集和测试数据集,训练膨胀三维卷积神经网络,输出测试集中每个失真视频的质量评价分数值。本发明用于从输入的失真视频中自适应地提取时空域内容的质量感知特征,在网络的输出端得到对应的预测质量分数,实现了端对端的质量评价,具有评价无参考视频质量时结果更加准确、应用更广泛的优点。

Description

基于膨胀三维卷积神经网络的无参考视频质量评价方法
技术领域
本发明属于图像处理技术领域,更进一步涉及视频处理技术领域中的一种基于膨胀三维卷积神经网络的无参考视频质量评价方法。本发明可用于视频压缩、传输和存储中对没有原始参考信息的失真视频进行三维时空特征提取,并依据提取的特征进行视频质量的客观评估。
背景技术
视频是最直观、生动的信息载体,随着成像设备的普及和信息技术的发展,越来越多的视频流媒体为人们的工作和生活带来便利和乐趣。但是,视频在录制、处理、传输和存储的过程中,受到成像系统、处理方法、传输介质以及存储设备等其它因素的影响,最终不可避免的会引入噪声导致终端获得的视频存在质量下降的问题。失真视频会降低人类感知的舒适度,甚至影响人们对视频内容的正确理解。因此,视频的感知质量是比较各种数字图像处理算法性能优劣以及描述视频视觉体验的重要指标。视频质量评价是对用户端接收到的视频是否满足其需求进行评估的技术。其中,无参考视频质量评价方法在预测视频的感知质量时无需其原始的参考视频,即只对失真视频进行评估得到预测质量。在实际应用场景中我们无法得到参考视频,因此这是一种最具挑战性也最有实际应用价值的视频质量评价方法。
江南大学在其申请的专利文献“基于时空域特征提取的无参考视频质量评价方法”(专利申请号:201910149737.2;申请公布号:CN109862350A)中公开了一种基于Xception和XGBoost的无参考视频质量评价方法。该方法首先训练了一个基于Xception模块的网络模型,该模型将失真视频的帧差图作为输入,经过全连接层提取视频的时空域特征,并对特征进行拼接得到拼接图,然后采用PCA方法对拼接图进行降维处理,最后通过建立XGBoost预测模型将经过深度表达的特征映射为失真视频的质量分数。该方法存在的不足之处是,只使用视频的帧差图作为输入,没有考虑视频的空域失真对人类感知的影响,使得视频的先验知识不够丰富,使得评价结果准确度不高。
央视国际网络无锡有限公司在其申请的专利文献“基于失真恢复度的无参考视频质量评价方法及装置”(专利申请号:201811533786.8;申请公布号:CN109587474A)中提出了一种基于图像失真恢复模型的无参考视频质量评价方法。该方法首先构建了一个图像失真恢复模型。该模型将无失真图像通过不同等级的压缩得到的失真图像作为输入进行训练,然后将失真视频输入训练好的图像失真恢复模型获得恢复图像序列,并逐帧计算失真视频灰度图以及对应恢复图像之间的RD-PSNR或RD-SSIM,得到每帧图像的质量恢复度,最后根据每帧图像的质量恢复度对待评价视频的质量进行评价。该方法存在三个不足之处是,其一,该方法的图像失真恢复模型仅考虑了不同等级的压缩失真类型,而现实世界的视频往往是多种失真类型的组合;其二,最终的预测结果很大程度上依赖该图像失真恢复模型建模的准确性;其三,视频是一组连续的图像序列,该方法只使用了视频的空域信息而忽略了每帧之间的时域信息对质量评价的贡献,使得评价结果不能更好的符合人类视觉系统。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于膨胀三维卷积神经网络的无参考视频质量评价方法。用于解决现有技术忽略了失真视频的空域内容、时域内容或其时空相关性导致的先验知识不够丰富,使得评价结果准确度不高的问题。
实现本发明目的的思路是:
利用构建的粗特征提取模块从输入的失真视频中自适应地提取低级特征,利用构建的三维时空特征学习模块从低级特征中学习质量感知相关的时空特征,利用构建的非线性回归模块从时空特征中预测失真视频的质量分数,生成膨胀三维卷积神经网络对失真视频进行端对端的质量评价,实现不需要任何参考信息,只将失真视频作为输入进行评估的无参考视频质量评价。
实现本发明目的的具体步骤如下:
步骤1,构建一个粗特征提取模块:
搭建一个五层的粗特征提取模块,其结构依次为:输入层→第1卷积层→第1池化层→第2卷积层→第3卷积层→第2池化层;
设置粗特征提取模块中各层的参数如下:
将输入层的通道数设置为1;
将第1、2、3卷积层的卷积核依次设置为64、64、192个,卷积核大小依次设置为3×3×3、1×1×1、3×3×3,步长依次设置为2、1、1;
将第1、2池化层的卷积核大小均设置为3×3×1,步长均设置为2×2×1;
步骤2,构建一个三维时空特征学习模块:
搭建一个四层的三维时空特征学习模块,其结构依次为:第1 Inception层→第1池化层→第2Inception层→第1卷积层;
设置三维时空特征学习模块的各层参数如下:
将在ImageNet数据集上预训练过的Inception v3网络的参数设置为第1、2Inception层的初始参数;
将第1池化层的卷积核大小设置为3×3×3,步长设置为2×2×2;
将第1卷积层的卷积核设置为512个,卷积核大小设置为3×3×3,步长设置为1;
步骤3,构建一个非线性回归模块:
搭建一个三层的非线性回归模块,其结构依次为:第1均值池化层→第1卷积层→第2卷积层;
设置非线性回归模块的各层参数如下:
将第1、2卷积层的卷积核依次设置为800、1个,卷积核大小均设置为1×1×1,步长均设置为1;
步骤4,生成膨胀三维卷积神经网络:
将粗特征提取模块、三维时空特征学习模块、非线性回归模块依次级联,组成膨胀三维卷积神经网络;
步骤5,生成无参考的训练集和测试集:
将自然视频公知数据集中所有的失真视频的亮度通道映射到[0,1]区间;将自然视频公知数据集中所有的失真视频对应的质量分数映射到[0,100]区间;保存每个失真视频映射后的所有帧序列及其质量分数;
按照参考视频随机划分所有的映射后的失真视频,将其中80%的参考视频对应的映射后的失真视频组成训练集,其余20%的参考视频对应的映射后的失真视频组成测试集,测试集中的失真视频在视频内容上与训练集中的失真视频无重叠;
步骤6,训练膨胀三维卷积神经网络:
将训练集中每个失真视频,随机裁剪成256×256×16的不重叠视频段,输入到膨胀三维卷积神经网络中,输出预测质量分数和两类网络参数W与b,其中,W表示膨胀三维卷积神经网络中边连接的权值向量,b表示膨胀三维卷积神经网络中下一层对上一层的偏置;
利用最小绝对误差LAE的公式,计算膨胀三维卷积神经网络的损失值,利用随机梯度下降法,更新参数W和b,得到训练好的膨胀三维卷积神经网络;
步骤7,输出测试集中每个失真视频的质量评价分数值:
将测试集中的无参考的失真视频在空域和时域上不重叠的分段后,依次输入到训练好的膨胀三维卷积神经网络中,粗特征提取模块从输入的失真视频中自适应地提取低级特征,三维时空特征学习模块从低级特征中学习质量感知相关的时空特征,非线性回归模块从时空特征中预测失真视频的质量分数,膨胀三维卷积神经网络输出无参考的失真视频段对应的视频质量评价分数;
将失真视频对应的视频段分数通过均值池化方法汇总,得到最终视频质量分数。
本发明与现有技术相比较,具有以下优点:
第一,由于本发明构建一个低级特征提取模块,用于从输入的失真视频段中自适应地提取时空域内容的质量感知特征,克服了现有技术由于仅输入失真视频的时域信息,而忽略了空域信息对人类视觉感知的影响,导致评价结果准确度不高的问题,使得本发明具有在评价无参考失真视频质量时结果更加准确的优点。
第二,由于本发明生成膨胀三维卷积神经网络,可用于将输入的失真视频在网络的输出端得到对应的预测质量分数,实现了端对端的质量评价,克服了现有技术中存在的由于仅考虑单一类型的失真,导致其无法对具有不同失真类型的失真视频进行质量评价的问题,使得本发明具有对存在各种失真类型的失真视频质量评价通用性的优点。
第三,由于本发明生成膨胀三维卷积神经网络,可用于将输入的失真视频在网络的输出端得到对应的预测质量分数,实现了端对端的质量评价,克服了现有技术中存在的视频质量预测结果依赖图像失真恢复模型建模准确性的问题,使得本发明具有从失真视频的数据直接映射到质量分数的优点。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图1对本发明的具体步骤做进一步的详细描述。
步骤1,构建一个粗特征提取模块。
搭建一个五层的粗特征提取模块,用于从输入的失真视频中自适应地提取低级特征,其结构依次为:输入层→第1卷积层→第1池化层→第2卷积层→第3卷积层→第2池化层。
设置粗特征提取模块中各层的参数如下:
将输入层的通道数设置为1。
将第1、2、3卷积层的卷积核依次设置为64、64、192个,卷积核大小依次设置为3×3×3、1×1×1、3×3×3,步长依次设置为2、1、1。
将第1、2池化层的卷积核大小均设置为3×3×1,步长均设置为2×2×1。
所述的卷积层均为膨胀三维卷积层,所述池化层均为最大池化层。
步骤2,构建一个三维时空特征学习模块。
搭建一个四层的三维时空特征学习模块,用于从低级特征中学习质量感知相关的时空特征,其结构依次为:第1 Inception层→第1池化层→第2 Inception层→第1卷积层。
设置三维时空特征学习模块的各层参数如下:
将在ImageNet数据集上预训练过的Inception v3网络的参数设置为第1、2Inception层的初始参数。
将第1池化层的卷积核大小设置为3×3×3,步长设置为2×2×2。
将第1卷积层的卷积核设置为512个,卷积核大小设置为3×3×3,步长设置为1。
所述的Inception层均为膨胀三维Inception层。
所述的卷积层均为膨胀三维卷积层,所述池化层均为最大池化层。
步骤3,构建一个非线性回归模块。
搭建一个三层的非线性回归模块,用于将提取的时空特征回归到预测分数,其结构依次为:第1均值池化层→第1卷积层→第2卷积层。
设置非线性回归模块的各层参数如下:
将第1、2卷积层的卷积核依次设置为800、1个,卷积核大小均设置为1×1×1,步长均设置为1。
所述的卷积层均为膨胀三维卷积层,所述池化层均为最大池化层。
步骤4,生成膨胀三维卷积神经网络。
将粗特征提取模块、三维时空特征学习模块、非线性回归模块依次级联,组成膨胀三维卷积神经网络。
步骤5,生成无参考的训练集和测试集。
将自然视频公知数据集中所有的失真视频的亮度通道映射到[0,1]区间;将自然视频公知数据集中所有的失真视频对应的质量分数映射到[0,100]区间;保存每个失真视频映射后的所有帧序列及其质量分数。
按照参考视频随机划分所有的映射后的失真视频,将其中80%的参考视频对应的映射后的失真视频组成训练集,其余20%的参考视频对应的映射后的失真视频组成测试集,测试集中的失真视频在视频内容上与训练集中的失真视频无重叠。
所述的数据集给出的失真视频对应的质量分数是指平均质量分数MOS,若数据集给出对应的失真视频的质量分数为差异平均质量分数DMOS,将差异平均质量分数DMOS的比例翻转后得到平均质量分数MOS。
所述的参考视频是指,自然视频公知数据集中与不同失真类型的失真视频对应的没有任何失真的原始视频。
所述的测试集中的失真视频在视频内容上与训练集中的失真视频无重叠是指,自然视频公知数据集中所有的参考视频的内容都不相同,将每个参考视频对应的一组不同失真类型的失真视频同时划分到训练集或者测试集中。
步骤6,训练膨胀三维卷积神经网络。
将训练集中每个失真视频,随机裁剪成256×256×16的不重叠视频段,输入到膨胀三维卷积神经网络中,输出预测质量分数和两类网络参数W与b,其中,W表示膨胀三维卷积神经网络中边连接的权值向量,b表示膨胀三维卷积神经网络中下一层对上一层的偏置。
利用最小绝对误差LAE的公式,计算膨胀三维卷积神经网络的损失值,利用随机梯度下降法,更新参数W和b,得到训练好的膨胀三维卷积神经网络;
所述最小绝对误差LAE的公式如下:
Figure BDA0002172146950000071
其中,L表示膨胀三维卷积神经网络的损失值,∑表示求和操作,||·||1表示1范数操作,S表示训练集中失真视频对应的质量分数,P表示训练集中的失真视频输入到膨胀三维卷积神经网络后输出的预测质量分数。
所述的随机梯度下降法的步骤如下:
第1步,按照下式,更新膨胀三维卷积神经网络的每个参数,将参数更新后的膨胀三维卷积神经网络的参数放入一个参数集合中:
Figure BDA0002172146950000072
其中,θk′表示膨胀三维卷积神经网络更新后的第k个参数,θk表示膨胀三维卷积神经网络更新前的第k个参数,α表示更新参数时的学习率,
Figure BDA0002172146950000073
表示求偏导数操作,L是膨胀三维卷积神经网络的损失值,Pk表示膨胀三维卷积神经网络第k个参数。
第2步,执行第1步300次,从参数集合中的300个网络参数里选择验证误差最小的网络参数,将其对应的网络作为训练好的膨胀三维卷积神经网络;所述的验证误差是指Pearson线性相关系数PLCC和Spearman秩次相关系数SROCC两种标准测量方法。
步骤7,输出测试集中每个失真视频的质量评价分数值。
将测试集中的无参考的失真视频在空域和时域上不重叠的分段后,依次输入到训练好的膨胀三维卷积神经网络中,粗特征提取模块从输入的失真视频中自适应地提取低级特征,三维时空特征学习模块从低级特征中学习质量感知相关的时空特征,非线性回归模块从时空特征中预测失真视频的质量分数,膨胀三维卷积神经网络输出无参考的失真视频段对应的视频质量评价分数。
将失真视频对应的视频段分数通过均值池化方法汇总,得到最终视频质量分数。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:处理器为Intel(R)Core(TM)i7-8700K CPU,主频为3.70GHz,内存32GB,显卡为NVIDIA GeForce GTX 1080Ti。
本发明的仿真实验的软件平台为:Ubuntu 16.04操作系统,Pytorch 1.0.4框架,Python 3.6。
本发明仿真实验所使用的输入视频为自然视频,来源于视频质量评价公知数据库LIVE和EPFL-PoliMi。
2.仿真内容及其结果分析:
本发明的仿真实验是采用本发明和三个现有技术(基于弱监督学习和重采样策略的盲视频质量评价方法、基于时空统计的无参考视频质量评价方法、基于卷积神经网络与多元回归的评价的无参考视频质量评价方法),分别对两个视频质量评价公知数据库LIVE和EPFL-PoliMi中所有的失真视频进行无参考视频质量评价,预测失真视频的质量分数。
在仿真实验中,采用的三个现有技术是指:
Zhang Y等人在其发表的论文“Blind Video Quality Assessment with WeaklySupervised Learning and Resampling Strategy”(IEEE Transactions on Circuitsand Systems for Video Technology,2018)中公开的一种基于弱监督学习和重采样策略的盲视频质量评价方法。
Li X等人在其发表的论文“Spatiotemporal statistics for video qualityassessment”(IEEE Transactions on Image Processing,25(7):3329–3342,2016)中公开的一种基于时空统计的无参考视频质量评价方法。
Wang C等人在其发表的论文“COME for No-Reference Video QualityAssessment”(2018 IEEE Conference on Multimedia Information Processing andRetrieval(MIPR),232–370,2018)中公开的一种基于卷积神经网络与多元回归的评价的无参考视频质量评价方法。
在仿真实验中采用的两个视频质量评价公知数据库LIVE和EPFL-PoliMi是指:
LIVE公知数据库是指,Seshadrinathan等人在“Study of subjective andobjective quality assessment of video”(IEEE transactions on Image Processing,19(6):1427-1441,2010)中公开的视频质量评价数据库,简称LIVE公知数据库。
EPFL-PoliMi公知数据库是指,D.Simone等人在“Subjective assessment ofH.264/AVC video sequences transmitted over a noisy channel”(2009International Workshop on Quality of Multimedia Experience,204–209,2009)中公开的视频质量评价数据库,简称EPFL-PoliMi公知数据库。
为了评判本发明和另外三个现有技术的无参考视频质量评价效果,本发明的仿真实验采用斯皮尔曼秩相关系数SROCC(Spearman rank-order correlation coefficient)和线性相关系数LCC(linear correlation coefficient)这两个指标,分别对本发明和三个现有技术的无参考视频质量评价效果进行评判。斯皮尔曼秩相关系数SROCC∈[-1,1],其数值越高,说明被评判的无参考视频质量评价方法的评价结果能更正确地反映出不同视频之间的质量好坏程度,所述的线性相关系数LCC∈[-1,1],其数值越高,说明被评判的无参考视频质量评价方法的评价结果更接近视频的质量分数。
所述的斯皮尔曼秩相关系数SROCC和线性相关系数LCC是按照下式计算得到的:
Figure BDA0002172146950000091
Figure BDA0002172146950000092
其中,SROCC表示斯皮尔曼秩相关系数,n表示用来评价的视频数,∑表示求和操作,be表示第e个失真视频的质量评价值的排序序号与其质量分数的排序序号之差,LCC表示线性相关系数,sr表示第r个失真视频的质量评价分数,
Figure BDA0002172146950000093
表示所有失真视频的质量评价分数的平均值,pr表示第r个失真视频的质量分数,
Figure BDA0002172146950000094
表示所有失真视频的质量分数的平均值。
本发明的仿真实验使用本发明和三个现有技术对两种不同的公知数据库里的视频进行评价,计算每种方法的评价结果的斯皮尔曼秩相关系数SROCC和线性相关系数LCC,计算结果如表1所示。
表1.四种方法的评价结果对比表
Figure BDA0002172146950000101
从表1可见,本发明在两种公知数据库上评价结果的斯皮尔曼秩相关系数SROCC和线性相关系数LCC高于三种现有技术,证明本发明具有更好的无参考视频质量评价效果。

Claims (6)

1.一种基于膨胀三维卷积神经网络的无参考视频质量评价方法,其特征在于,利用构建的粗特征提取模块从输入的失真视频中自适应地提取低级特征,利用构建的三维时空特征学习模块从低级特征中学习质量感知相关的时空特征,利用构建的非线性回归模块从时空特征中预测失真视频的质量分数,生成膨胀三维卷积神经网络对失真视频进行端对端的质量评价;该方法具体步骤包括如下:
步骤1,构建一个粗特征提取模块:
搭建一个五层的粗特征提取模块,其结构依次为:输入层→第1卷积层→第1池化层→第2卷积层→第3卷积层→第2池化层;
设置粗特征提取模块中各层的参数如下:
将输入层的通道数设置为1;
将第1、2、3卷积层的卷积核依次设置为64、64、192个,卷积核大小依次设置为3×3×3、1×1×1、3×3×3,步长依次设置为2、1、1;
将第1、2池化层的卷积核大小均设置为3×3×1,步长均设置为2×2×1;
步骤2,构建一个三维时空特征学习模块:
搭建一个四层的三维时空特征学习模块,其结构依次为:第1Inception层→第1池化层→第2Inception层→第1卷积层;
设置三维时空特征学习模块的各层参数如下:
将在ImageNet数据集上预训练过的Inception v3网络的参数设置为第1、2Inception层的初始参数;
将第1池化层的卷积核大小设置为3×3×3,步长设置为2×2×2;
将第1卷积层的卷积核设置为512个,卷积核大小设置为3×3×3,步长设置为1;
步骤3,构建一个非线性回归模块:
搭建一个三层的非线性回归模块,其结构依次为:第1均值池化层→第1卷积层→第2卷积层;
设置非线性回归模块的各层参数如下:
将第1、2卷积层的卷积核依次设置为800、1个,卷积核大小均设置为1×1×1,步长均设置为1;
步骤4,生成膨胀三维卷积神经网络:
将粗特征提取模块、三维时空特征学习模块、非线性回归模块依次级联,组成膨胀三维卷积神经网络;
步骤5,生成无参考的训练集和测试集:
将自然视频公知数据集中所有的失真视频的亮度通道映射到[0,1]区间;将自然视频公知数据集中所有的失真视频对应的质量分数映射到[0,100]区间;保存每个失真视频映射后的所有帧序列及其质量分数;
按照参考视频随机划分所有的映射后的失真视频,将其中80%的参考视频对应的映射后的失真视频组成训练集,其余20%的参考视频对应的映射后的失真视频组成测试集,测试集中的失真视频在视频内容上与训练集中的失真视频无重叠;
步骤6,训练膨胀三维卷积神经网络:
将训练集中每个失真视频,随机裁剪成256×256×16的不重叠视频段,输入到膨胀三维卷积神经网络中,输出预测质量分数和两类网络参数W与b,其中,W表示膨胀三维卷积神经网络中边连接的权值向量,b表示膨胀三维卷积神经网络中下一层对上一层的偏置;
利用最小绝对误差LAE的公式,计算膨胀三维卷积神经网络的损失值,利用随机梯度下降法,更新参数W和b,得到训练好的膨胀三维卷积神经网络;
步骤7,输出测试集中每个失真视频的质量评价分数值:
将测试集中的无参考的失真视频在空域和时域上不重叠的分段后,依次输入到训练好的膨胀三维卷积神经网络中,粗特征提取模块从输入的失真视频中自适应地提取低级特征,三维时空特征学习模块从低级特征中学习质量感知相关的时空特征,非线性回归模块从时空特征中预测失真视频的质量分数,膨胀三维卷积神经网络输出无参考的失真视频段对应的视频质量评价分数;
将失真视频对应的视频段分数通过均值池化方法汇总,得到最终视频质量分数。
2.根据权利要求1所述的基于膨胀三维卷积神经网络的无参考视频质量评价方法,其特征在于:步骤1、步骤2、步骤3中所述的卷积层均为膨胀三维卷积层,所述池化层均为最大池化层。
3.根据权利要求1所述的基于膨胀三维卷积神经网络的无参考视频质量评价方法,其特征在于:步骤2中所述的Inception层均为膨胀三维Inception层。
4.根据权利要求1所述的基于膨胀三维卷积神经网络的无参考视频质量评价方法,其特征在于:步骤5中所述的数据集给出的失真视频对应的质量分数是指平均质量分数MOS,若数据集给出失真视频对应的质量分数为差异平均质量分数DMOS,将差异平均质量分数DMOS的比例翻转后得到平均质量分数MOS。
5.根据权利要求1所述的基于膨胀三维卷积神经网络的无参考视频质量评价方法,其特征在于:步骤6中所述最小绝对误差LAE的公式如下:
Figure FDA0002172146940000031
其中,L表示膨胀三维卷积神经网络的损失值,∑表示求和操作,||·||1表示1范数操作,S表示训练集中失真视频对应的质量分数,P表示训练集中的失真视频输入到膨胀三维卷积神经网络后输出的预测质量分数。
6.根据权利要求1所述的基于膨胀三维卷积神经网络的无参考视频质量评价方法,其特征在于,步骤6中所述的随机梯度下降法的步骤如下:
第1步,按照下式,更新膨胀三维卷积神经网络的每个参数,将参数更新后的膨胀三维卷积神经网络的参数放入一个参数集合中:
Figure FDA0002172146940000032
其中,θ′k表示膨胀三维卷积神经网络更新后的第k个参数,θk表示膨胀三维卷积神经网络更新前的第k个参数,α表示更新参数时的学习率,α∈[0,1],
Figure FDA0002172146940000033
表示求偏导数操作,L是膨胀三维卷积神经网络的损失值,Pk表示膨胀三维卷积神经网络第k个参数;
第2步,执行第1步300次,从参数集合中的300个网络参数里选择验证误差最小的网络参数,将其对应的网络作为训练好的膨胀三维卷积神经网络;所述的验证误差是指Pearson线性相关系数PLCC和Spearman秩次相关系数SROCC两种标准测量方法。
CN201910766634.0A 2019-08-20 2019-08-20 基于膨胀三维卷积神经网络的无参考视频质量评价方法 Active CN110517237B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910766634.0A CN110517237B (zh) 2019-08-20 2019-08-20 基于膨胀三维卷积神经网络的无参考视频质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910766634.0A CN110517237B (zh) 2019-08-20 2019-08-20 基于膨胀三维卷积神经网络的无参考视频质量评价方法

Publications (2)

Publication Number Publication Date
CN110517237A CN110517237A (zh) 2019-11-29
CN110517237B true CN110517237B (zh) 2022-12-06

Family

ID=68626683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910766634.0A Active CN110517237B (zh) 2019-08-20 2019-08-20 基于膨胀三维卷积神经网络的无参考视频质量评价方法

Country Status (1)

Country Link
CN (1) CN110517237B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369548B (zh) * 2020-03-10 2023-06-06 江南大学 一种基于生成对抗网络的无参考视频质量评价方法及装置
CN112085102B (zh) * 2020-09-10 2023-03-10 西安电子科技大学 基于三维时空特征分解的无参考视频质量评价方法
CN112529866A (zh) * 2020-12-08 2021-03-19 鲁能集团有限公司 一种基于深传输cnn结构的远程运维无参考视频质量评估方法
CN113313683B (zh) * 2021-05-28 2023-03-24 西安电子科技大学 基于元迁移学习的无参考视频质量评价方法
CN113313682B (zh) * 2021-05-28 2023-03-21 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法
CN115510271B (zh) * 2021-06-23 2024-04-30 南京中科逆熵科技有限公司 一种面向内容的动画视频无参考质量评价方法
CN113822856A (zh) * 2021-08-16 2021-12-21 南京中科逆熵科技有限公司 一种基于分层时空域特征表示的端到端无参考视频质量评价方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428227A (zh) * 2018-02-27 2018-08-21 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法
CN109272499A (zh) * 2018-09-25 2019-01-25 西安电子科技大学 基于卷积自编码网络的无参考图像质量评价方法
WO2019047949A1 (zh) * 2017-09-08 2019-03-14 众安信息技术服务有限公司 图像质量评估方法及图像质量评估系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741107B2 (en) * 2015-06-05 2017-08-22 Sony Corporation Full reference image quality assessment based on convolutional neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019047949A1 (zh) * 2017-09-08 2019-03-14 众安信息技术服务有限公司 图像质量评估方法及图像质量评估系统
CN108428227A (zh) * 2018-02-27 2018-08-21 浙江科技学院 基于全卷积神经网络的无参考图像质量评价方法
CN109272499A (zh) * 2018-09-25 2019-01-25 西安电子科技大学 基于卷积自编码网络的无参考图像质量评价方法

Also Published As

Publication number Publication date
CN110517237A (zh) 2019-11-29

Similar Documents

Publication Publication Date Title
CN110517237B (zh) 基于膨胀三维卷积神经网络的无参考视频质量评价方法
CN112085102B (zh) 基于三维时空特征分解的无参考视频质量评价方法
CN108428227B (zh) 基于全卷积神经网络的无参考图像质量评价方法
CN108665460B (zh) 基于组合神经网络和分类神经网络的图像质量评价方法
CN112954312B (zh) 一种融合时空特征的无参考视频质量评估方法
CN110189260B (zh) 一种基于多尺度并行门控神经网络的图像降噪方法
CN109801232A (zh) 一种基于深度学习的单幅图像去雾方法
CN109859166A (zh) 一种基于多列卷积神经网络的无参3d图像质量评估方法
Chetouani et al. A novel free reference image quality metric using neural network approach
CN116485741A (zh) 一种无参考图像质量评价方法、系统、电子设备及存储介质
CN113421237A (zh) 基于深度特征迁移学习的无参考图像质量评价方法
CN113313682B (zh) 基于时空多尺度分析的无参考视频质量评价方法
CN114915777A (zh) 一种基于深度强化学习的无参考超高清视频质量客观评价方法
Nizami et al. Impact of feature selection algorithms on blind image quality assessment
Gaata et al. No-reference quality metric for watermarked images based on combining of objective metrics using neural network
CN110738645B (zh) 基于卷积神经网络的3d图像质量检测方法
CN117391920A (zh) 基于rgb通道差分平面的大容量隐写方法及系统
CN112101091A (zh) 视频分类方法、电子设备和存储介质
Gaata et al. No-reference quality metric based on fuzzy neural network for subjective image watermarking evaluation
Cemiloglu et al. Blind video quality assessment via spatiotemporal statistical analysis of adaptive cube size 3D‐DCT coefficients
Le Callet et al. Continuous quality assessment of MPEG2 video with reduced reference
CN115457015A (zh) 一种基于视觉交互感知双流网络的图像无参考质量评估方法及装置
CN112598598B (zh) 一种基于两级反射光消除网络的图像反射光去除方法
CN110958417B (zh) 一种基于语音线索的视频通话类视频去除压缩噪声的方法
US8970710B2 (en) Method and apparatus for measuring quality of video based on frame loss pattern

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant