CN109429051B - 基于多视图特征学习的无参考立体视频质量客观评价方法 - Google Patents
基于多视图特征学习的无参考立体视频质量客观评价方法 Download PDFInfo
- Publication number
- CN109429051B CN109429051B CN201710566720.8A CN201710566720A CN109429051B CN 109429051 B CN109429051 B CN 109429051B CN 201710566720 A CN201710566720 A CN 201710566720A CN 109429051 B CN109429051 B CN 109429051B
- Authority
- CN
- China
- Prior art keywords
- video
- quality
- domain
- view
- stereo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20052—Discrete cosine transform [DCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多视图特征学习的无参考立体视频质量客观评价方法:对图像序列进行曲波变换,提取系数作为纹理特征;将八个相邻像素点与中心像素点比较;产生十种输出模式;计算每种模式出现频率,取平均值作为空域纹理特征;降维处理,得到空域特征;获得相邻图像运动强度特征,求平均值作为时域特征;立体感知域视图进行DCT变换,DCT系数建模,提取形状参数,求平均值作为立体感知域特征;进行SVM训练;利用评价模型分别预测,得到客观质量分数;加权得到最终质量分数。本发明结合空域、时域和立体感特征对于立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。
Description
技术领域
本发明涉及视频处理领域,更具体的说,是涉及一种基于多视图特征学习的无参考立体视频质量客观评价方法。
背景技术
由于3D能够带给观众立体感和更真实的观看体验,因此三维视频技术已经受到工业产品生产商和电子产品消费者的广泛关注。然而,视频的采集、编码压缩、传输、处理以及显示过程中的任何一个环节都有可能引起视频的失真,导致视频质量下降,因此视频质量评价的研究对推动图像和视频处理技术的发展具有重要意义。
立体视频质量评价方法分为主观质量评价和客观质量评价两种方法。主观质量评价方法是通过一组受测试者按照相应的实验标准观看一系列的视频序列,并判断相应的感知质量的过程;客观评价方法是通过计算模型来评价视频质量,并且使评价结果尽可能与主观结果相一致的方法。与客观质量评价方法相比,主观评价方法过程繁琐,耗时较长,花费较大,很难在实时性要求较高的系统中得到应用,因此研究者开始广泛致力于客观质量评价方法的研究。如今的立体视频客观质量评价方法大多是有参考的,需要原始视频信息,然而在实际应用中,原始视频很难获取,因此探索无参考的立体视频质量客观评价方法显得尤为重要。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于多视图特征学习的无参考立体视频质量客观评价方法,结合空域特征、时域特征和立体感特征对于立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。
本发明的目的是通过以下技术方案实现的。
本发明的基于多视图特征学习的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,包括以下步骤:
第一步:对组成左视点视频和右视点视频的图像序列分别进行曲波变换,提取每幅图像的曲波变换系数作为纹理特征;
第二步:对于每个曲波变换系数子带,任选一点作为中心像素点,将八个相邻像素点的曲波系数与中心像素点的曲波系数进行比较,大于中心像素点的相邻像素点的位置标记为1,否则为0;3×3邻域内的八个相邻像素点经比较产生八位二进制数,即得到该窗口中心像素点的LBP值,总共产生十种不同的输出模式(0~9);最终在每个曲波变换系数子带中计算每种输出模式的出现频率,并在左视点视频和右视点视频的所有帧上取平均值,将其作为立体视频质量评价的空域纹理特征;
第三步:用主成分分析法对第二步中的空域纹理特征进行降维处理,得到最终的空域特征;
第四步:利用新三步搜索法获得相邻两帧图像之间运动矢量,并提取图像的运动强度特征,最终对视频所有图像序列的运动强度特征求平均值作为最终的时域特征;
第五步:对左视点视频和右视点视频做差运算,得到立体视频的立体感知域视图,在其每个子图像块上进行DCT变换,然后在整幅图像上对所有DCT变换系数进行分布统计,利用广义高斯概率分布对立体感知域视图的DCT变换系数进行建模,并提取形状参数作为DCT变换系数分布的特征,最终在视频所有图像序列上求形状参数平均值作为衡量立体感失真程度的特征,即立体感知域特征;
第六步:在已知主观分数值的立体视频库训练集上进行SVM训练,得到一个与所得特征相对应的评价模型;对待测试视频进行第一步到第五步的处理,提取对应的空域特征、时域特征和立体感知域特征,之后利用评价模型分别进行预测,分别得到空域、时域和立体感知域视图的客观质量分数;
第七步:将第六步得到的空域、时域和立体感知域视图的客观质量分数进行加权得到立体视频的最终质量分数。
第一步中所述曲波变换系数的计算方法如下:
其中,k1和k2分别表示空间域的横、纵坐标,j和l分别表示尺度和方向参数,尺度为默认尺度j=log2(min(M,N))-3,M和N分别表示输入图像的长度和宽度,f[m,n]表示二维图像矩阵,并且0≤m<M,0≤n<N,表示第l个方向、第j个尺度、空间位置为k1和k2的椭圆形曲波。
第二步中所述中心像素点的LBP值的确定过程为:
对于给定的一像素点c,此处的LBP编码通过下式比较此像素点的值和周围八个邻近像素点的值得到,
其中,P是相邻像素的数目(P=8),R是邻域半径,g是某一像素点的值,c是中心像素点,p是相邻像素点,gc是中心像素点的值,gp是相邻像素点的值,s(x)是阈值函数,
上述传统的LBP描述特征能力有限,因此采用改进的具备旋转不变性的LBP描述算子:
第二步中所述每种输出模式的出现频率按以下方法进行计算:
其中,K是LBP模式的最大值,f(a,b)是阈值函数,
第二步中所述最终空域纹理特征表示为:
其中,Sl为左视点空域纹理特征值,Sr为右视点空域纹理特征值,n为视频的总帧数。
第三步中空域特征表示为:
第四步中所述相邻两帧图像之间运动矢量:
MO(x,y)=[MOhor(x,y),MOver(x,y)]
其中,MOhor(x,y)为水平方向运动矢量,MOver(x,y)为垂直方向运动矢量
根据两帧图像之间的运动矢量,计算运动矢量的运动幅度:
并求得一幅图像的平均运动幅度,作为该幅图像的运动强度特征:
其中,L表示运动矢量MO(x,y)的数量。
第五步中所述立体感知域视图表示为:
Id(i,j,t)=|Il(i,j,t)-Ir(i,j,t)|
其中,Il是左视点视频的图像序列,Ir是右视点视频的图像序列,
所述广义高斯概率分布函数为:
其中,μ是均值,γ是形状参数,α是归一化参数,β是尺寸参数。
步骤七中所述立体视频的最终质量分数:
与现有技术相比,本发明的技术方案所带来的有益效果是:
本发明本发明综合考虑时域特性、空域特性和立体感知域特性,将基于曲波变换和LBP的空域纹理特征、基于新三步搜索法的时域特征和基于DCT变换的立体感知域特征应用于视频质量客观评价方法之中,对提取的三部分特征分别进行训练并得出三部分的质量分数,最终对三部分的分数进行加权作为立体视频的最终质量分数,得到的立体视频质量客观评价结果与主观结果具有很高的一致性,从而对立体视频质量做出更加全面、准确的客观评价,极大的提高了立体视频客观质量评价的性能。
附图说明
图1是本发明的流程框图;
图2是本发明中3×3窗口的旋转不变LBP示意图;
图3是本发明中DCT系数统计分布的γ参数分布示意图。
具体实施方式
下面结合附图对本发明作进一步的描述。
本发明的基于多视图特征学习的无参考立体视频质量客观评价方法,利用LBP算子提取失真对空域特性影响的特征,利用新三步搜索法提取失真对视频时域特性影响的特征,利用DCT变换提取视频的立体感特征,并以支持向量机(SVM)作为工具,对提取的三部分特征分别进行训练并得出三部分的质量分数;最终对三部分的分数进行加权作为立体视频的最终质量分数,从而对立体视频质量做出更加全面、准确的客观评价。
如图1至图3所示,本发明的基于多视图特征学习的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,设失真视频对为(tl,tr),具体包括以下步骤:
第一步:对组成左视点视频和右视点视频的图像序列Il和Ir分别进行曲波变换,提取每幅图像的曲波变换系数作为纹理特征。
曲波变换是一种多尺度几何变换算法,曲波变换系数的计算方法如下:
其中,k1和k2分别表示空间域的横、纵坐标,j和l分别表示尺度和方向参数,这里所用尺度为默认尺度j=log2(min(M,N))-3,M和N分别表示输入图像的长度和宽度,f[m,n]表示二维图像矩阵,并且0≤m<M,0≤n<N,表示第l个方向、第j个尺度、空间位置为k1和k2的椭圆形曲波。
第二步:对于每个曲波变换系数子带,任选一点作为中心像素点,将八个相邻像素点的曲波系数与中心像素点的曲波系数进行比较,大于中心像素点的相邻像素点(周围值大于中心值)的位置标记为1,否则为0。这样,3×3邻域内的八个相邻像素点经比较产生八位二进制数,即得到该窗口中心像素点的LBP值。
对于给定的一像素点c,此处的LBP编码通过下式(2)比较此像素点的值和周围八个邻近像素点的值得到,
其中,P是相邻像素的数目(P=8),R是邻域半径,g是某一像素点的值,c是中心像素点,p是相邻像素点,gc是中心像素点的值,gp是相邻像素点的值,s(x)是阈值函数,
但是上述传统的LBP描述特征能力有限,且不具备旋转不变性,因此我们采用改进的具备旋转不变性的LBP描述算子:
根据上述定义,对于3×3的窗格,总共可产生十种不同的旋转不变的输出模式(0~9)。
接下来在每个曲波变换系数子带中计算每种输出模式的出现次数:
其中,K是LBP模式的最大值,f(a,b)是阈值函数,
每种输出模式的出现频率:
计算出每种输出模式的出现频率后,并在左视点视频和右视点视频的所有帧上取平均值,将其作为立体视频质量评价的空域纹理特征。
其中,Sl为左视点空域纹理特征值,Sr为右视点空域纹理特征值,n为视频的总帧数。
第三步:由于曲波变换会产生多个维度,每个维度上产生十个空域纹理特征,因此空域和时空交互空间的特征存在大量冗余,占用存储空间较大,后续处理时间较长。因此,我们用主成分分析法(PCA)对上述空域纹理特征进行降维处理,即用较少数量的特征对样本特征进行描述,得到最终的空域特征fs。
主成分分析的作用就是将多个相关性较强的空域纹理特征X1,X2,...Xp重新组合,生成少数积分彼此不相关的特征F1,F2,...Fm,并且使他们尽可能多地包含原有变量的信息。将原有变量重新组合成主成分的方法如下
第四步:根据新三步搜索法,每个像素都有一个运动矢量,可以反映相邻帧之间的运动关系。本文将一帧图像分为大小为w×w的子块,利用新三步搜索法获得相邻两帧图像之间运动矢量(相邻帧图像每个子块对应的运动矢量):
MO(x,y)=[MOhor(x,y),MOver(x,y)] (11)
其中,MOhor(x,y)为水平方向运动矢量,MOver(x,y)为垂直方向运动矢量。
随后,根据两帧图像之间的运动矢量,计算运动矢量的运动幅度:
并求得一幅图像的平均运动幅度,作为该幅图像的运动强度特征:
其中,L表示运动矢量MO(x,y)的数量。
最终对视频所有图像序列的运动强度特征求平均值作为最终的时域特征,用来估计时域特性失真程度。
第五步:对左视点视频和右视点视频做差运算,得到立体视频的立体感知域视图(差值图像):
Id(i,j,t)=|Il(i,j,t)-Ir(i,j,t)| (14)
其中,Il是左视点视频的图像序列,Ir是右视点视频的图像序列。
针对一幅大小为M×N的差值图像,将其分为w×w大小的子图像块,在其每个子图像块上进行DCT变换,然后在整幅图像上对所有DCT变换系数进行分布统计,利用广义高斯概率分布对立体感知域视图的DCT变换系数进行建模,并提取广义高斯概率分布函数的形状参数作为DCT变换系数分布的特征。
广义高斯概率分布函数为:
其中,μ是均值,γ是形状参数,α是
归一化参数,β是尺寸参数。在其他参数不变的条件下,γ值的变化会对应不同的分布曲线。
最终在视频所有图像序列上求形状参数平均值作为衡量立体感失真程度的特征,即立体感
知域特征。
第六步:以上述空域特征、时域特征和立体感知域特征为基础,对视频的所有图像序列求每组特征的平均值。在已知主观分数值的立体视频库训练集上进行SVM训练,得到一个与所得特征相对应的评价模型。对待测试视频进行第一步到第五步的处理,提取对应的空域特征、时域特征和立体感知域特征,之后利用评价模型分别进行预测,分别得到空域、时域和立体感知域视图的客观质量分数。
第七步:根据双目视觉特征,一段视频的运动强度越小,人眼越会关注视频的空域质量;相反,一段视频的运动强度越大,人眼越会关注视频的时域质量。将前面得到的空域、时域和立体感知域视图的客观质量分数进行加权得到立体视频的最终质量分数:
尽管上面结合附图对本发明的功能及工作过程进行了描述,但本发明并不局限于上述的具体功能和工作过程,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可以做出很多形式,这些均属于本发明的保护之内。
Claims (8)
1.基于多视图特征学习的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,其特征在于,包括以下步骤:
第一步:对组成左视点视频和右视点视频的图像序列分别进行曲波变换,提取每幅图像的曲波变换系数作为纹理特征;
第二步:对于每个曲波变换系数子带,任选一点作为中心像素点,将八个相邻像素点的曲波系数与中心像素点的曲波系数进行比较,大于中心像素点的相邻像素点的位置标记为1,否则为0;3×3邻域内的八个相邻像素点经比较产生八位二进制数,即得到该窗口中心像素点的LBP值,总共产生十种不同的输出模式:0~9;最终在每个曲波变换系数子带中计算每种输出模式的出现频率,并在左视点视频和右视点视频的所有帧上取平均值,将其作为立体视频质量评价的空域纹理特征;
第三步:用主成分分析法对第二步中的空域纹理特征进行降维处理,得到最终的空域特征;
第四步:利用新三步搜索法获得相邻两帧图像之间运动矢量,并提取图像的运动强度特征,最终对视频所有图像序列的运动强度特征求平均值作为最终的时域特征;
第五步:对左视点视频和右视点视频做差运算,得到立体视频的立体感知域视图,在其每个子图像块上进行DCT变换,然后在整幅图像上对所有DCT变换系数进行分布统计,利用广义高斯概率分布对立体感知域视图的DCT变换系数进行建模,并提取形状参数作为DCT变换系数分布的特征,最终在视频所有图像序列上求形状参数平均值作为衡量立体感失真程度的特征,即立体感知域特征;
第六步:在已知主观分数值的立体视频库训练集上进行SVM训练,得到一个与所得特征相对应的评价模型;对待测试视频进行第一步到第五步的处理,提取对应的空域特征、时域特征和立体感知域特征,之后利用评价模型分别进行预测,分别得到空域、时域和立体感知域视图的客观质量分数;
第七步:将第六步得到的空域、时域和立体感知域视图的客观质量分数进行加权得到立体视频的最终质量分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566720.8A CN109429051B (zh) | 2017-07-12 | 2017-07-12 | 基于多视图特征学习的无参考立体视频质量客观评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566720.8A CN109429051B (zh) | 2017-07-12 | 2017-07-12 | 基于多视图特征学习的无参考立体视频质量客观评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109429051A CN109429051A (zh) | 2019-03-05 |
CN109429051B true CN109429051B (zh) | 2020-08-18 |
Family
ID=65497521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710566720.8A Active CN109429051B (zh) | 2017-07-12 | 2017-07-12 | 基于多视图特征学习的无参考立体视频质量客观评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109429051B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110582008B (zh) * | 2019-09-30 | 2022-01-21 | 北京奇艺世纪科技有限公司 | 一种视频质量评价方法及装置 |
CN110933402B (zh) * | 2019-11-28 | 2021-03-26 | 天津大学 | 基于运动纹理特征的无参考立体视频质量评价方法 |
CN111711812B (zh) * | 2019-12-04 | 2021-04-27 | 天津大学 | 基于帧间交叉信息的无参考立体视频质量评价方法 |
CN111818329B (zh) * | 2020-06-24 | 2021-08-13 | 天津大学 | 基于堆栈式自适应编码器的视频质量评价方法 |
CN113313683B (zh) * | 2021-05-28 | 2023-03-24 | 西安电子科技大学 | 基于元迁移学习的无参考视频质量评价方法 |
WO2024210338A1 (ko) * | 2023-04-05 | 2024-10-10 | 삼성전자 주식회사 | 이미지 처리 장치 및 이의 동작 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013105720A1 (ko) * | 2012-01-10 | 2013-07-18 | 에스케이플래닛 주식회사 | 3차원 입체영상의 품질 분석 장치 및 방법 |
CN104754322A (zh) * | 2013-12-27 | 2015-07-01 | 华为技术有限公司 | 一种立体视频舒适度评价方法及装置 |
CN105007488A (zh) * | 2015-07-06 | 2015-10-28 | 浙江理工大学 | 基于变换域和空间域的通用无参考图像质量评价方法 |
CN105407349A (zh) * | 2015-11-30 | 2016-03-16 | 宁波大学 | 基于双目视觉感知的无参考立体图像质量客观评价方法 |
CN106028026A (zh) * | 2016-05-27 | 2016-10-12 | 宁波大学 | 一种基于时空域结构的高效视频质量客观评价方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013186960A1 (ja) * | 2012-06-15 | 2013-12-19 | パナソニック株式会社 | 画像データ処理装置及び画像データ処理方法 |
-
2017
- 2017-07-12 CN CN201710566720.8A patent/CN109429051B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013105720A1 (ko) * | 2012-01-10 | 2013-07-18 | 에스케이플래닛 주식회사 | 3차원 입체영상의 품질 분석 장치 및 방법 |
CN104754322A (zh) * | 2013-12-27 | 2015-07-01 | 华为技术有限公司 | 一种立体视频舒适度评价方法及装置 |
CN105007488A (zh) * | 2015-07-06 | 2015-10-28 | 浙江理工大学 | 基于变换域和空间域的通用无参考图像质量评价方法 |
CN105407349A (zh) * | 2015-11-30 | 2016-03-16 | 宁波大学 | 基于双目视觉感知的无参考立体图像质量客观评价方法 |
CN106028026A (zh) * | 2016-05-27 | 2016-10-12 | 宁波大学 | 一种基于时空域结构的高效视频质量客观评价方法 |
Non-Patent Citations (2)
Title |
---|
《基于感知的立体视频质量评价模型研究》;郑凯辉;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160331;全文 * |
《无参考视频质量评价方法研究》;林翔宇;《中国博士学位论文全文数据库 信息科技辑》;20130831;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109429051A (zh) | 2019-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109429051B (zh) | 基于多视图特征学习的无参考立体视频质量客观评价方法 | |
CN105338343B (zh) | 一种基于双目感知的无参考立体图像质量评价方法 | |
CN104658001B (zh) | 一种无参考非对称失真立体图像客观质量评价方法 | |
CN106127741B (zh) | 基于改良自然场景统计模型的无参考图像质量评价方法 | |
Yue et al. | Blind stereoscopic 3D image quality assessment via analysis of naturalness, structure, and binocular asymmetry | |
Appina et al. | Study of subjective quality and objective blind quality prediction of stereoscopic videos | |
CN104023225B (zh) | 基于空时域自然场景统计特征的无参考视频质量评估方法 | |
CN107959848B (zh) | 基于三维卷积神经网络的通用型无参考视频质量评价算法 | |
CN108134937B (zh) | 一种基于hevc的压缩域显著性检测方法 | |
CN107635136B (zh) | 基于视觉感知和双目竞争的无参考立体图像质量评价方法 | |
CN107146220B (zh) | 一种通用型无参考图像质量评价方法 | |
CN109831664B (zh) | 基于深度学习的快速压缩立体视频质量评价方法 | |
CN104036502B (zh) | 一种无参考模糊失真立体图像质量评价方法 | |
CN103780895B (zh) | 一种立体视频质量评价方法 | |
Yan et al. | Blind stereoscopic image quality assessment by deep neural network of multi-level feature fusion | |
CN109257592B (zh) | 基于深度学习的立体视频质量客观评价方法 | |
Jiang et al. | No reference stereo video quality assessment based on motion feature in tensor decomposition domain | |
CN108765414A (zh) | 基于小波分解和自然场景统计的无参考立体图像质量评价方法 | |
Bhateja et al. | Fast SSIM index for color images employing reduced-reference evaluation | |
CN109510981B (zh) | 一种基于多尺度dct变换的立体图像舒适度预测方法 | |
CN109788275A (zh) | 自然性、结构和双目不对称无参考立体图像质量评价方法 | |
Yang et al. | No-reference quality evaluation of stereoscopic video based on spatio-temporal texture | |
CN111369548A (zh) | 一种基于生成对抗网络的无参考视频质量评价方法及装置 | |
CN109523590B (zh) | 一种基于样例的3d图像深度信息视觉舒适度评估方法 | |
Jakhetiya et al. | Distortion specific contrast based no-reference quality assessment of DIBR-synthesized views |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |