CN108259891A - 基于双目时空内在推理机制的3d视频质量盲评估方法 - Google Patents

基于双目时空内在推理机制的3d视频质量盲评估方法 Download PDF

Info

Publication number
CN108259891A
CN108259891A CN201810172989.2A CN201810172989A CN108259891A CN 108259891 A CN108259891 A CN 108259891A CN 201810172989 A CN201810172989 A CN 201810172989A CN 108259891 A CN108259891 A CN 108259891A
Authority
CN
China
Prior art keywords
video
binocular
difference
uncertain
statistical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810172989.2A
Other languages
English (en)
Other versions
CN108259891B (zh
Inventor
王永芳
朱芸
帅源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201810172989.2A priority Critical patent/CN108259891B/zh
Publication of CN108259891A publication Critical patent/CN108259891A/zh
Application granted granted Critical
Publication of CN108259891B publication Critical patent/CN108259891B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种基于双目时空内在推理机制的3D视频质量盲评估方法。首先,通过双目时空内在推理机制将3D视频的两个视点分别分解成多通道视频,包括能预测部分和不确定部分。结合左右视点和双目差值图的能预测部分和不确定部分得到6个通道的视频。然后,对每个视频建立多通道自然视频(Natural video statistics,NVS)统计模型,并提取NVS模型的统计参数作为视频质量的特征。最后,采用一个AdaBoosting径向基函数网络对数据进行训练得到一个将特征映射为视频质量的模型。本发明方法在IRCCYN和IMCL两个通用3D视频数据库上进行试验,都具有较高的鲁棒性和准确性。

Description

基于双目时空内在推理机制的3D视频质量盲评估方法
技术领域
本发明涉及一种3D视频质量评估方法,特别是涉及一种基于双目时空内在推理机制的3D视频质量盲评估方法,属于视频编码、传输技术利用。
背景技术
随着通信技术和计算机网络技术的发展,网络已经广泛应用于人们的日常工作生活中,给人们以直观生动的形象,视频电话、视频会议、网络电视等网络视频业务越来越普遍。3D视频的立体感给人身临其境的沉浸感,深受观众追捧。网络视频对实时性要求高,并且对时延、抖动、分组丢失等网络失真非常敏感,然而传统的互联网协议网络遵循尽力而为的服务原则,网络视频业务的服务质量并不能得到保证。对3D视频进行实时评估有助于网络供应商对突发网络状况做出决策,给用户提供更好的视觉体验。
根据对原始视频的参考程度,可以将视频质量评估方法分为全参考、半参考和无参考。全参考质量评估方法(Full-reference,FR)是通过比较参考视频序列和测试视频序列每一帧之间的差别得到测试视频的质量。该方法需要获取完整的原始参考视频,并且通常是没有被压缩和损坏的视频,因此对实际运用来说是一个巨大的限制。无参考质量评估方法(No-reference,NR)在评估时只能得到测试视频序列而无法得到参考视频序列。该方法只是通过对接收到的测试视频进行分析和处理提取到视频序列的某些失真信息,如方块效应、模糊等,然后根据这些失真的特征信息来评估测试视频的质量。半参考质量评估方法(Reduced reference,RR)是介于FR方法和NR方法的一种方法。视频质量评估方法都有各自不同的应用环境。FR方法需要严格的应用到参考视频,FR方法较适合用于为了调整编码参数的离线视频质量评估或实验室测试评估。RR方法和NR方法较适合用于网络视频系统中任意节点嵌入式视频质量监控,NR方法也可方便的用于网络终端视频质量监控和评估,因此研究无参考视频质量评估对网络视频意义重大。
发明内容
本发明的目的是为了对网络终端3D视频进行质量监控和评估,提出一种基于双目时空内在推理机制的3D视频质量盲评估方法,通过对失真的3D视频进行统计模型建模和基于人类视觉系统的分析得到视频质量的评估值。本发明方法不需要原始视频,属于无参考视频质量评估模型,节省了带宽的同时提高了质量评估模型的精确度。
为达到上述目的,本发明的构思是:
首先,通过双目时空内在推理机制将3D视频的左右两个视点分别分解成多通道视频,包括能预测部分和不确定部分。然后,对每个视频建立多通道自然视频(Natural videostatistics,NVS)统计模型,并提取NVS模型的统计参数作为视频质量的特征。最后,采用一个AdaBoosting径向基函数网络对数据进行训练得到一个将特征映射为视频质量的模型,即本发明所述的3D视频质量盲评估模型。
根据上述构思,本发明采用如下技术方案:
一种基于双目时空内在推理机制的3D视频质量盲评估方法,包括如下步骤:
步骤1、3D视频内容分解:根据双目时空内在推理机制,将3D视频的左右视点分别分解成能预测部分和不确定部分;
步骤2、多通道视频内容提取:根据步骤1得到左右视点的不确定部分和能预测部分共4个通道的视频,将左右视点能预测部分相减,得到能预测部分双目差值图;同样地,将左右视点不确定部分相减,得到不确定部分双目差值图;由此,得到6个通道的视频内容;
步骤3、自然视频统计模型建立:对每个通道的视频进行统计建模,即对每个通道的视频的前后帧作差值以捕捉视频时空域的失真,将帧间差值用梯度进行校正,使其服从广义高斯分布统计模型;对帧间差值进行低通滤波,同样的,对滤波后的视频用梯度进行校正,使其服从广义高斯分布统计模型;
步骤4、统计特征提取:提取步骤3中的统计模型的参数,得到这两个模型的统计参数之间的相关性作为特征;对步骤2得到的6个通道的视频重复步骤3-4的操作,得到3D视频的6个特征值;
步骤5、特征训练:采用一个AdaBoosting径向基函数网络对数据进行训练,其中,AdaBoosting提供了一个框架,即由弱学习机组合成一个有较强鲁棒性和分类能力的强学习机;这里,弱学习机采用的是径向基函数网络;
步骤6、质量评估值输出:由上述步骤5训练得到的模型将视频的特征映射为最终的3D视频质量值。
在所述步骤1中,能预测部分由贝叶斯预测模型得到,表示为:
其中,xp表示对左视点当前帧的每个像素的预测值, F(x;xi),F(x;x'j)和F(x;x″j)是x分别与χ,χ',χ”之间的互信息;l1、l2、l3为不同信息所占的重要性,l1+l2+l3=1;同理,得到右视点的能预测部分为不确定部分由当前帧减去能预测部分得到,左右视点的不确定部分分别表示为
在所述步骤2中,左右视点能预测部分和不确定部分相减得到不确定部分双目差值图分别为:
由此得到6个通道的视频分别为:
在所述步骤3中,分别将每个通道的视频帧划分成M×N大小的块;将前后帧的相应块相减得到帧间差值为ΔIt,对其进行归一化并用梯度值对帧间差值进行校正,校正后的服从广义高斯分布;每个块得到广义高斯分布的分布参数α、β,每一帧共P×Q个块,得到的分布参数向量记为其中,对帧间差值进行滤波,得到一个子带ΔJt,同样的对其进行归一化并用梯度值对帧间差值进行校正,得到统计分布参数向量为子带间的相关性反映视频的质量,因此,将子带间的相关性作为视频的特征。
上述步骤4中,相关性计算表达式为:
其中,
上述步骤5中,AdaBoosting径向基函数神经网络是由弱学习机集合成的一个具有较强学习能力和较高鲁棒性的神经网络,这里每个径向基函数神经网络共有3层网络,分别为输入层、隐藏层和输出层;输入是隐藏层共有6个隐藏节点与输入进行全连接,激活函数是高斯函数,输出层是一个输出值,即视频质量的预测值;每个弱学习机的输出由误差函数进行加权调整,得到最终的视频质量预测值。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
1、本发明方法充分考虑了人类视觉系统的特点,即人脑会根据前后帧之间的联系和左右视点之间的联系推测视频的主要内容,并忽略不确定的残差信息。提出了一种基于双目时空内在推导机制的视频内容分解模型。
2、本发明方法利用梯度信息对统计模型进行校正,使其更符合高斯分布模型,从而提高模型的精确度。
3、本发明方法利用统计信息进行建模,不需要原始视频,节约了带宽资源。
4、本发明方法采用AdaBoosting径向基函数神经网络对数据进行训练,比一般的训练方法具有更高的鲁棒性和精确度。
附图说明
图1为本发明基于双目时空内在推理机制的3D视频质量盲评估方法的操作程序框图。
图2为基于双目时空内在推理机制的贝叶斯预测模型。
图3为3D视频内容分解结果(左视点为例),(a)能预测部分,(b)不确定部分。
图4为单通道视频的帧间差值的统计分布图。
图5为视频质量随子带相关性变化图。
图6为AdaBoosting径向基函数神经网络的结构图。
具体实施方式
本发明的优选实施例结合附图详述如下:
本实施例的具体步骤如图1流程图所示。在Win10,Matlab 2012b环境下编程仿真实现本方法。首先,根据双目时空内在推理机制将左右视点分别分解为能预测部分和不确定部分共4个通道的视频然后分别将左右视点的能预测部分和不确定部分相减得到双目差值图。能预测部分和不确定部分的差值分别为到此,一共得到6个通道的视频然后,对每个通道的视频进行统计建模,提取统计特征,得到6个统计特征为最后,用AdaBoosting径向基函数神经网络进行训练得到最终的视频质量评估模型。
本方法具体包括如下步骤:
步骤1、3D视频内容分解:根据双目时空内在推理机制,将3D视频的左右视点分别分解成能预测部分和不确定部分;
步骤2、多通道视频内容提取:根据步骤1得到左右视点的不确定部分和能预测部分共4个通道的视频,将左右视点能预测部分相减,得到能预测部分双目差值图;同样地,将左右视点不确定部分相减,得到不确定部分双目差值图;由此,得到6个通道的视频内容;
步骤3、自然视频统计模型建立:对每个通道的视频进行统计建模,即对每个通道的视频的前后帧作差值以捕捉视频时空域的失真,将帧间差值用梯度进行校正,使其服从广义高斯分布统计模型;对帧间差值进行低通滤波,同样的,对滤波后的视频用梯度进行校正,使其服从广义高斯分布统计模型;
步骤4、统计特征提取:提取步骤3中的统计模型的参数,得到这两个模型的统计参数之间的相关性作为特征;对步骤2得到的6个通道的视频重复步骤3-4的操作,得到3D视频的6个特征值;
步骤5、特征训练:采用一个AdaBoosting径向基函数网络对数据进行训练,其中,AdaBoosting提供了一个框架,即由弱学习机组合成一个有较强鲁棒性和分类能力的强学习机;这里,弱学习机采用的是径向基函数网络;
步骤6、质量评估值输出:由上述步骤5训练得到的模型将视频的特征映射为最终的3D视频质量值。
在所述步骤1中,以左视点为例,利用左视点当前帧左视点前一帧右视点当前帧之间的互信息,将左视点分解成能预测部分和不确定部分能预测部分由贝叶斯预测模型得到,如图2所示,x是当前帧(左视点为例)的待预测像素,χ={x1,x2,...,xN}是与x相邻的像素,χ'={x1',x'2,...,x'N}是左视点前一帧中与x'相邻的像素,χ″={x″1,x″2,...,x″N}是右视点当前帧中与x”相邻的像素,x、x'、x”在每一帧中有相同的位置。
能预测部分的像素表示为:
其中,xp表示对左视点当前帧的每个像素的预测值, F(x;xi)F(x;x'j)和F(x;x″j)是x分别与χ,χ',χ”之间的互信息。l1、l2、l3不同信息所占的重要性,l1+l2+l3=1,同理,得到右视点的能预测部分为如图3所示是左视点分解之后的结果,(a)是能预测部分,(b)是不确定部分。
不确定部分由当前帧减去能预测部分得到,左右视点的不确定部分分别表示为
在所述步骤2中,左右视点的差值表示视差变化大的地方,这些地方的失真对3D视频的质量影响较大,尤其是对3D的深度感知的影响。左右视点能预测部分和不确定部分相减得到不确定部分双目差值图分别为:
由此得到6个通道的视频分别为:
在所述步骤3中,如图4所示,是归一化帧间差值统计分布图,可见其服从广义高斯分布。分别将每个通道的视频帧划分成M×N大小的块。将前后帧的相应块相减得到帧间差值为ΔIt,对其进行归一化并用梯度值对帧间差值进行校正:
校正后的服从广义高斯分布:
其中,β是形状参数,σ是标准差。
每个块可以得到广义高斯分布的分布参数α、β,每一帧共P×Q个块,得到的分布参数向量记为其中,
对帧间差值进行滤波得到一个子带ΔJt,同样的对其进行归一化并校正,得到统计分布参数向量为子带间的相关性可以反映视频的质量,如图5所示,因此,将子带间的相关性作为视频的特征。
上述步骤4中,将前后帧的统计参数向量相减得到:
其中,t∈{1,2,...,T}。
分别表示为:
子带间的相关性表示为:
对相关性进行时域的池化:
提取步骤2中的6个通道的视频的统计特征为
上述步骤5中,如图6所示,采用一个AdaBoosting径向基函数网络对数据进行训练,其中,AdaBoosting提供了一个框架,即由弱学习机组合成一个有较强鲁棒性和分类能力的强学习机;这里,弱学习机采用的是径向基函数网络;本发明所用的弱学习机是径向基函数网络,这里每个径向基函数神经网络共有3层网络,分别为输入层、隐藏层和输出层。输入是隐藏层共有6个隐藏节点与输入进行全连接,激活函数是高斯函数,输出层是一个输出值,即视频质量的预测值。
下面在IRCCYN和IMCL两个通用3D视频数据库上进行试验来评估本发明所提出的基于双目时空内在推理机制的3D视频质量盲评估方法。IRCCYN数据库共有10个不同内容的3D视频,每个视频有10种不同的失真情况,包括H.264,JPEG2000,下采样和锐化等失真,本实验只采用了其中H.264,JPEG2000压缩失真的一部分视频。IMCL视频库是基于HEVC压缩下的失真建立的视频库,包括了不同量化系数下的对称失真和不对称失真,并含有不同深度场景下的视频。本实验的环境是Win 10 64位操作系统下的Matlab 2012b平台,内存为4GB,CPU频率为2.7GHz。上述每一帧划分为P×Q块,每块大小为M×N,大小设为72×72。在实验中,数据库中80%设为训练集,剩下的20%作为测试集,训练集和测试集不重合。使用斯皮尔曼秩相关系数(Spearman’s rank ordered correlation coefficient,SROCC)和皮尔逊线性相关系数(Pearson’s linear correlation coefficient,PLCC)作为质量评估模型的与主观评价的相似度,这两个值越接近1代表模型与主观评价的符合度更高,精确度越高。
本实施例选取了7个对比算法,分别是Chen[1],STRIQE[2],STMAD[3],QFL[4],FLOSIM[5],Chen3D以及STRIQE3D。其中,Chen和STRIQE是3D图像评估算法,本实验将它们简单地扩展到视频算法;STMAD是一个2维视频的评估算法,本实验用该方法得到左右视点视频的质量并做加权平均得到最终的3D视频质量;QFL是一种精确度较高的3D视频质量评估算法;FLOSIM在算法中加入了视差图;Chen3D和STRIQE3D是采用时域和空域特征对Chen和STRIQE进行扩展的3D视频质量评估算法。实验结果如表1和表2所示是本发明的评估方法与其他7个算法的SROCC和PLCC结果比较。
表1
表2
其中,实验结果最好的算法用黑色字体加粗。从表中可以看到本发明的方法在两个数据库上都有较好的鲁棒性和精确性,特别是在IMCL数据库上,由于该数据库上有非对称失真,其他算法的精确度都明显下降,而本发明方法仍旧有较好的实验结果。由上述实验可见,本发明方法在3D视频质量评估上确实有较好的鲁棒性和精确性,并且计算复杂度低,能更好地适用于实时视频质量监控。
参考文献:
1M.J.Chen,C.C.Su,D.K.Kwon,L.K.Cormack,and A.C.Bovik,“Full-referencequality assessment of stereopairs accounting for rivalry,”Signal Processing:Image Communication,vol.28,no.9,pp.1143–1155,2013.
2S.K.Md,B.Appina,and S.Channappayya,“Full-Reference Stereo ImageQuality Assessment Using Natural Stereo Scene Statistics”,IEEE SignalProcessing Letters,vol.22,no.11,Nov.2015.
3P.V.Vu,C.T.Vu,and D.M.Chandler,“A spatiotemporal mostapparent-distortion model for video quality assessment,”in 18th IEEE InternationalConference on Image Processing,pp.2505–2508,IEEE,2011.
4B.Appina,M.K.,and S.S.Channappayya,“A Full Reference StereoscopicVideo Quality Assessment Metric”,IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),2017.
5M.K.and S.S.Channappayya,“An optical flow-based full reference videoquality assessment algorithm,”IEEE Transactions on Image Processing,vol.25,pp.2480–2492,June 2016.

Claims (6)

1.一种基于双目时空内在推理机制的3D视频质量盲评估方法,其特征在于,包括如下步骤:
步骤1、3D视频内容分解:根据双目时空内在推理机制,将3D视频的左右视点分别分解成能预测部分和不确定部分;
步骤2、多通道视频内容提取:根据步骤1得到左右视点的不确定部分和能预测部分共4个通道的视频,将左右视点能预测部分相减,得到能预测部分双目差值图;同样地,将左右视点不确定部分相减,得到不确定部分双目差值图;由此,得到6个通道的视频内容;
步骤3、自然视频统计模型建立:对每个通道的视频进行统计建模,即对每个通道的视频的前后帧作差值以捕捉视频时空域的失真,将帧间差值用梯度进行校正,使其服从广义高斯分布统计模型;对帧间差值进行低通滤波,同样的,对滤波后的视频用梯度进行校正,使其服从广义高斯分布统计模型;
步骤4、统计特征提取:提取步骤3中的统计模型的参数,得到这两个模型的统计参数之间的相关性作为特征;对步骤2得到的6个通道的视频重复步骤3-4的操作,得到3D视频的6个特征值;
步骤5、特征训练:采用一个AdaBoosting径向基函数网络对数据进行训练,其中,AdaBoosting提供了一个框架,即由弱学习机组合成一个有较强鲁棒性和分类能力的强学习机;这里,弱学习机采用的是径向基函数网络;
步骤6、质量评估值输出:由上述步骤5训练得到的模型将视频的特征映射为最终的3D视频质量值。
2.根据权利要求1所述的基于双目时空内在推理机制的3D视频质量盲评估方法,其特征在于,在所述步骤1中,能预测部分由贝叶斯预测模型得到,表示为:
其中,xp表示对左视点当前帧的每个像素的预测值, F(x;x′j)和F(x;x″j)是x分别与χ,χ′,χ″之间的互信息;l1、l2、l3为不同信息所占的重要性,l1+l2+l3=1;同理,得到右视点的能预测部分为不确定部分由当前帧减去能预测部分得到,左右视点的不确定部分分别表示为
3.根据权利要求1所述的基于双目时空内在推理机制的3D视频质量盲评估方法,其特征在于,在所述步骤2中,左右视点能预测部分和不确定部分相减得到不确定部分双目差值图分别为:
由此得到6个通道的视频分别为:
4.根据权利要求1所述的基于双目时空内在推理机制的3D视频质量盲评估方法,其特征在于,在所述步骤3中,分别将每个通道的视频帧划分成M×N大小的块;将前后帧的相应块相减得到帧间差值为ΔIt,对其进行归一化并用梯度值对帧间差值进行校正,校正后的服从广义高斯分布;每个块得到广义高斯分布的分布参数α、β,每一帧共P×Q个块,得到的分布参数向量记为其中,对帧间差值进行滤波,得到一个子带ΔJt,同样的对其进行归一化并用梯度值对帧间差值进行校正,得到统计分布参数向量为子带间的相关性反映视频的质量,因此,将子带间的相关性作为视频的特征。
5.根据权利要求1所述的基于双目时空内在推理机制的3D视频质量盲评估方法,其特征在于,上述步骤4中,相关性计算表达式为:
其中,
6.根据权利要求1所述的基于双目时空内在推理机制的3D视频质量盲评估方法,其特征在于,上述步骤5中,AdaBoosting径向基函数神经网络是由弱学习机集合成的一个具有较强学习能力和较高鲁棒性的神经网络,这里每个径向基函数神经网络共有3层网络,分别为输入层、隐藏层和输出层;输入是隐藏层共有6个隐藏节点与输入进行全连接,激活函数是高斯函数,输出层是一个输出值,即视频质量的预测值;每个弱学习机的输出由误差函数进行加权调整,得到最终的视频质量预测值。
CN201810172989.2A 2018-03-02 2018-03-02 基于双目时空内在推理机制的3d视频质量盲评估方法 Active CN108259891B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810172989.2A CN108259891B (zh) 2018-03-02 2018-03-02 基于双目时空内在推理机制的3d视频质量盲评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810172989.2A CN108259891B (zh) 2018-03-02 2018-03-02 基于双目时空内在推理机制的3d视频质量盲评估方法

Publications (2)

Publication Number Publication Date
CN108259891A true CN108259891A (zh) 2018-07-06
CN108259891B CN108259891B (zh) 2020-11-24

Family

ID=62745575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810172989.2A Active CN108259891B (zh) 2018-03-02 2018-03-02 基于双目时空内在推理机制的3d视频质量盲评估方法

Country Status (1)

Country Link
CN (1) CN108259891B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109257593A (zh) * 2018-10-12 2019-01-22 天津大学 基于人眼视觉感知过程的沉浸式虚拟现实质量评价方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011109349A (ja) * 2009-11-17 2011-06-02 Canon Inc 立体映像符号化装置
CN106303507A (zh) * 2015-06-05 2017-01-04 江苏惠纬讯信息科技有限公司 基于时空联合信息的无参考视频质量评估方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011109349A (ja) * 2009-11-17 2011-06-02 Canon Inc 立体映像符号化装置
CN106303507A (zh) * 2015-06-05 2017-01-04 江苏惠纬讯信息科技有限公司 基于时空联合信息的无参考视频质量评估方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUNZHU: "BLIND VIDEO QUALITY ASSESSMENT BASED ON SPATIO-", 《IEEE》 *
徐科: "《金属表面质量在线检测技术》", 30 October 2016 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109257593A (zh) * 2018-10-12 2019-01-22 天津大学 基于人眼视觉感知过程的沉浸式虚拟现实质量评价方法
CN109257593B (zh) * 2018-10-12 2020-08-18 天津大学 基于人眼视觉感知过程的沉浸式虚拟现实质量评价方法

Also Published As

Publication number Publication date
CN108259891B (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
Barman et al. No-reference video quality estimation based on machine learning for passive gaming video streaming applications
Li et al. No-reference video quality assessment with 3D shearlet transform and convolutional neural networks
CN112085102B (zh) 基于三维时空特征分解的无参考视频质量评价方法
Winkler Perceptual video quality metrics—A review
Liu et al. Visual quality assessment: recent developments, coding applications and future trends
Ma et al. Reorganized DCT-based image representation for reduced reference stereoscopic image quality assessment
Ahn et al. Deep blind video quality assessment based on temporal human perception
CN104023225B (zh) 基于空时域自然场景统计特征的无参考视频质量评估方法
Yang et al. No reference quality assessment of stereo video based on saliency and sparsity
CN108769671B (zh) 基于自适应融合图像的立体图像质量评价方法
CN110944200B (zh) 一种评估沉浸式视频转码方案的方法
Akbari et al. Sparse recovery-based error concealment
Ma et al. Reduced-reference stereoscopic image quality assessment using natural scene statistics and structural degradation
CN110827198A (zh) 基于压缩感知和超分辨率重构的多相机全景图像构建方法
Shao et al. No-reference view synthesis quality prediction for 3-D videos based on color–depth interactions
Yang et al. A no-reference optical flow-based quality evaluator for stereoscopic videos in curvelet domain
CN111369548A (zh) 一种基于生成对抗网络的无参考视频质量评价方法及装置
Liu et al. Recent developments and future trends in visual quality assessment
CN108259891B (zh) 基于双目时空内在推理机制的3d视频质量盲评估方法
CN112085667B (zh) 一种基于伪模拟视频传输的去分块效应方法和装置
Nur Yilmaz A no reference depth perception assessment metric for 3D video
Okarma Colour image quality assessment using the combined full-reference metric
Cemiloglu et al. Blind video quality assessment via spatiotemporal statistical analysis of adaptive cube size 3D‐DCT coefficients
Xie et al. Just noticeable visual redundancy forecasting: a deep multimodal-driven approach
Ye et al. Lightweight Generative Joint Source-Channel Coding for Semantic Image Transmission with Compressed Conditional GANs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant