CN109257591A - 基于稀疏表示的无参考立体视频质量客观评价方法 - Google Patents

基于稀疏表示的无参考立体视频质量客观评价方法 Download PDF

Info

Publication number
CN109257591A
CN109257591A CN201710566727.XA CN201710566727A CN109257591A CN 109257591 A CN109257591 A CN 109257591A CN 201710566727 A CN201710566727 A CN 201710566727A CN 109257591 A CN109257591 A CN 109257591A
Authority
CN
China
Prior art keywords
video
image
obtains
rarefaction representation
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710566727.XA
Other languages
English (en)
Inventor
杨嘉琛
王焕玲
姜斌
朱英豪
计春祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710566727.XA priority Critical patent/CN109257591A/zh
Publication of CN109257591A publication Critical patent/CN109257591A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Abstract

本发明公开了一种基于稀疏表示的无参考立体视频质量客观评价方法:对立体视频进行降采样,得到立体视频对;对立体视频对左、右视点分别求单目能量幅度图,得到左、右视图的加权因子;立体视频对双视点进行加权运算,得到视觉感知图;在视觉感知图上计算视觉感兴趣区域,得到视觉感知显著性图;字典学习;对视觉感知显著性图稀疏表示,得到系数矩阵,得到其熵;对系数矩阵求均值,方差和二范数操作,得到系数矩阵;在视频库中选择视频对的系数矩阵和MOS用于训练,得到训练模型;利用训练模型对任一立体视频进行质量预测,得到最终客观预测值。本发明根据视觉感知图像,稀疏表示为工具,对立体视频质量做出更加全面、准确的客观评价。

Description

基于稀疏表示的无参考立体视频质量客观评价方法
技术领域
本发明涉及视频处理领域,更具体的说,是涉及一种基于稀疏表示的无参考立体视频质量客观评价方法。
背景技术
在人类感知世界的过程中,视觉信息扮演着很重要的角色。近年来,随着立体拍摄技术和立体显示技术的迅猛发展,越来越多的人开始观看3D电影,立体视频能够带给观众更加真实生动的立体场景,因此具有广阔的发展前景。但是,在立体视频的采集、压缩、传输和显示等过程中,诸多因素会导致视频质量下降。因此,十分有必要提出一种有效的立体视频质量评价算法,这对于提高立体视频处理系统的性能和提升人们的观看体验具有重要意义。
和图像质量评价方法一样,根据对参考视频的依赖程度,立体视频质量客观评价方法可以分为全参考型、半参考型和无参考型。全参考型需要参考视频的原始立体视频信息进行质量评价;半参考型只需要参考原始视频的部分信息;而无参考型不需要参考原始视频的任何信息就可以对立体视频的质量进行评价。并且,多数视频的获取具有随机性,质量评价过程中大多数无法得到无失真的原始立体视频。因此,不依赖于原始视频的无参考立体视频质量评价方法更有研究价值。
发明内容
本发明的目的是为了克服现有技术中的不足,提高立体视频质量评价的鲁棒性,提供一种基于稀疏表示的无参考立体图像质量客观评价方法,以稀疏表示为基础,又充分考虑双视点特性的立体视频质量客观评价方法,具体来说,就是根据人类视觉系统特性模拟大脑中形成的视觉感知图像,以稀疏表示作为工具,对立体视频质量做出更加全面、准确的客观评价。
本发明的目的是通过以下技术方案实现的。
本发明的基于稀疏表示的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点和右视点组成,包括以下步骤:
第一步,对立体视频进行降采样处理,每隔一定帧数取一帧,得到总帧数为l的立体视频对;
第二步,模拟人类视觉特性,对第一步得到的立体视频对的左视点和右视点分别求其单目能量幅度图,得到左视图和右视图的加权因子WL(x,y,n)和WR(x+d,y,n);
第三步,将第一步得到的立体视频对的双视点(tl,tr)进行加权运算,得到一段视频的第n对图像的视觉感知图V(x,y,n),计算公式如下所示:
V(x,y,n)=WL(x,y,n)×tl(x,y,n)+WR(x+d,y,n)×tr((x+d),y,n)
第四步,在合成的视觉感知图V(x,y)上计算视觉感兴趣区域,得到视觉感知显著性图SM(x,y);
第五步,用图像进行字典学习;
第六步,对视觉感知显著性图SM(x,y)进行稀疏表示:首先对视频对的一幅图像进行稀疏表示,得到相应的系数矩阵C,随后对系数矩阵C进行求熵,得到其熵E;
第七步,对帧长为l的SM(x,y)视频的所有图像序列执行第六步,得到稀疏表示后的系数矩阵l×K,最后对系数矩阵在时间方向上进行求均值,方差和二范数操作,得到该视频处理后的系数矩阵(3×K);
第八步,对立体视频库中的每一组失真立体视频对进行第一步至第七步操作,并利用支持向量机(SVM)对视频库中的视频的稀疏矩阵及相应的主观评价值(MOS)进行训练;具体如下,在视频库中随机选择80%视频对的系数矩阵和MOS用于训练,得到相应的训练模型;利用该训练模型对任一立体视频进行质量预测,得到最终的客观预测值。
第二步中左视点能量图和右视点能量图的加权因子WL(x,y,n)和WR(x+d,y,n)的求解过程:
(1)左视点图像中的点p(x,y),在右视点图像中匹配点为p'(x+d,y),d表示对右视点图像进行视差补偿的像素点横坐标差值,这两个像素点的能量分别为:
pi为p周围相邻点,p′i为p′周围相邻点;为对应于pi的能量,为对应于p′i的能量;ψ为去掉p点的p周围相邻区域,ψ′为去掉p′点的p′周围相邻区域,z是p周围相邻点个数;
最终,依照上式,得到左视图的能量图为GEL(x,y)和对应右视图的能量图GER((x+d),y)
(2)左视图和右视图的加权因子WL(x,y)和WR((x+d),y)表示为:
第四步中立体视频的视觉感知显著性图按以下公式获得:
SM(x,y,n)=λ·SM3D(x,y,n)+(1-λ)·SMmo(x,y,n)
其中,SM3D(x,y,n)为第n幅图像的3D显著性图,SMmo(x,y,n)为运动显著性图,λ为权重系数。
第五步中用图像进行字典学习的方法如下:
选取P幅p×q尺寸无失真的平面参考图像,每个图像分割为8×8的图像块,共有M=[p/8]×[q/8]个小块,其中[k]表示不大于k的最大整数;并将每个8×8的图像块按列排成一列,标记为ri(64×1);这样每个无失真参考图像都转换为(64×1)×M的二维矩阵;P幅无失真平面参考图像通过上述处理,得到一个64×(M×P)的矩阵;根据如下公式,求得相应的字典D。
其中,D是超完备字典矩阵,ai是对应于ri的系数矢量,在求解的过程中,字典的求解利用K-SVD算法,迭代次数设置为40次,字典稀疏基(原子)的数目为256。
第六步中对一帧图像进行稀疏表示的方法如下:
(1)利用第五步中得到的字典D,求解一帧图像的稀疏表示系数;此过程中,采用的算法是OMP算法,迭代次数为14次;每一图像系数矩阵的大小为256×([p/8]×[q/8])×14的三维矩阵;
(2)对每一次迭代的稀疏系数结果进行求熵操作,得到1×14的一维矩阵;
具体操作如下:
代表稀疏表示第i(1≤i≤14)次迭代中,第j(1≤j≤256)个稀疏基中系数的具体值:
对应概率分布函数如下:
根据香农公式,其熵如下:
其中,k是稀疏基的个数,本发明中k=256,按照上述操作,求得一幅图像的稀疏系数熵E,E为1×14的行向量。
与现有技术相比,本发明的技术方案所带来的有益效果是:
本发明所提出的立体视频质量客观评价方法涉及人脑中视觉感知图像序列的合成、3D感兴趣区域的计算,稀疏表示的计算;提出了利用稀疏表示系数表征视觉感知图像,并通过求均值、方差和二范数的方式对稀疏系数进行处理,最终利用训练的方法得到评价结果;以双目视觉特性为基础,通过稀疏表示的方式建立了无参考立体视频质量客观评价模型,利用该模型得到的立体视频质量客观评价结果与主观评价结果具有很高的一致性,能够较为准确的反映立体视频的质量。
附图说明
图1是本发明基于稀疏表示的无参考立体视频质量客观评价方法的流程图。
具体实施方式
下面结合附图对本发明作进一步的描述。
本发明涉及人脑中视觉感知图像序列的合成、3D感兴趣区域的计算,稀疏表示的计算。提出了利用稀疏表示系数表征视觉感知图像,并通过求均值、方差和二范数的方式对稀疏系数进行处理,最终利用训练的方法得到评价结果。
如图1所示,基于稀疏表示的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点和右视点组成,设立体视频对为(tl,tr),包括以下步骤:
第一步:对立体视频进行降采样处理,每隔一定帧数取一帧,得到总帧数为l的立体视频对;其中,可以每八帧取一帧。
第二步:研究双目理论,能量较高的区域包含较多的视觉信息,在视觉感知中占有主导地位。模拟人类视觉特性,对第一步得到的立体视频对的左视点和右视点分别求其单目能量幅度图,得到左视图和右视图的加权因子WL(x,y,n)和WR(x+d,y,n)。
(1)左视点图像中的点p(x,y),在右视点图像中匹配点为p'(x+d,y),d表示对右视点图像进行视差补偿的像素点横坐标差值,这两个像素点的能量分别为:
其中,
pi为p周围相邻点,p′i为p′周围相邻点;为对应于pi的能量,为对应于p′i的能量;ψ为去掉p点的p周围相邻区域,ψ′为去掉p′点的p′周围相邻区域,z是p周围相邻点个数;
最终,依照上式(1)和(2),得到左视图的能量图为GEL(x,y)和对应右视图的能量图GER((x+d),y)。
(2)左视图和右视图的加权因子WL(x,y)和WR((x+d),y)表示为:
第三步:将第一步得到的立体视频对的双视点(tl,tr)进行加权运算,得到一段视频的第n对图像的视觉感知图V(x,y,n),计算公式如下所示:
V(x,y,n)=WL(x,y,n)×tl(x,y,n)+WR(x+d,y,n)×tr((x+d),y,n)(7)
第四步:立体视频信息量较大,人眼很难在较短的时间内捕捉到全部信息,因此提取感兴趣区域十分必要。本步骤在合成的视觉感知图V(x,y)上计算视觉感兴趣区域,得到视觉感知显著性图SM(x,y)。
立体视频的视觉感知显著性图按以下公式获得:
SM(x,y,n)=λ·SM3D(x,y,n)+(1-λ)·SMmo(x,y,n) (8)
其中,SM3D(x,y,n)为第n幅图像的3D显著性图,SMmo(x,y,n)为运动显著性图,λ为权重系数。
第五步:用图像进行字典学习。选取P幅p×q尺寸无失真的平面参考图像,每个图像分割为8×8的图像块,共有M=[p/8]×[q/8]个小块,其中[k]表示不大于k的最大整数;并将每个8×8的图像块按列排成一列,标记为ri(64×1);这样每个无失真参考图像都可以转换为(64×1)×M的二维矩阵;P幅无失真平面参考图像通过上述处理,可以得到一个64×(M×P)的矩阵;随后,根据如下公式,可以求得相应的字典D。
其中,D是超完备字典矩阵,ai是对应于ri的系数矢量,在求解的过程中,字典的求解利用K-SVD算法,迭代次数设置为40次,字典稀疏基(原子)的数目为256。
第六步:对视觉感知显著性图SM(x,y)进行稀疏表示。首先对视频对的一幅图像进行稀疏表示,得到相应的系数矩阵C,随后对系数矩阵C进行求熵,得到其熵E。
对一帧图像进行稀疏表示的方法如下:
(1)利用第五步中得到的字典D,求解一帧图像的稀疏表示系数;此过程中,采用的算法是OMP算法,迭代次数为14次;每一图像系数矩阵的大小为256×([p/8]×[q/8])×14的三维矩阵;
(2)对每一次迭代的稀疏系数结果进行求熵操作,得到1×14的一维矩阵;
具体操作如下:
代表稀疏表示第i(1≤i≤14)次迭代中,第j(1≤j≤256)个稀疏基中系数的具体值:
对应概率分布函数如下:
根据香农公式,其熵如下:
其中,k是稀疏基的个数,本发明中k=256,按照上述操作,求得一幅图像的稀疏系数熵E,E为1×14的行向量。
第七步,对帧长为l的SM(x,y)视频的所有图像序列执行第六步,得到稀疏表示后的系数矩阵l×K(l×14),最后对系数矩阵在时间方向上进行求均值,方差和二范数操作,得到该视频处理后的系数矩阵(3×K=3×14)。最终,该视频可以表示为的3×14的稀疏系数矩阵。
第八步,对立体视频库中的每一组失真立体视频对进行第一步至第七步操作,并利用支持向量机(SVM)对视频库中的视频的稀疏矩阵及相应的主观评价值(MOS)进行训练;具体如下,在视频库中随机选择80%视频对的系数矩阵和MOS用于训练,得到相应的训练模型;利用该训练模型对任一立体视频进行质量预测,得到最终的客观预测值。
尽管上面结合附图对本发明的功能及工作过程进行了描述,但本发明并不局限于上述的具体功能和工作过程,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可以做出很多形式,这些均属于本发明的保护之内。

Claims (5)

1.基于稀疏表示的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点和右视点组成,其特征在于,包括以下步骤:
第一步,对立体视频进行降采样处理,每隔一定帧数取一帧,得到总帧数为l的立体视频对;
第二步,模拟人类视觉特性,对第一步得到的立体视频对的左视点和右视点分别求其单目能量幅度图,得到左视图和右视图的加权因子WL(x,y,n)和WR(x+d,y,n);
第三步,将第一步得到的立体视频对的双视点(tl,tr)进行加权运算,得到一段视频的第n对图像的视觉感知图V(x,y,n),计算公式如下所示:
V(x,y,n)=WL(x,y,n)×tl(x,y,n)+WR(x+d,y,n)×tr((x+d),y,n)
第四步,在合成的视觉感知图V(x,y)上计算视觉感兴趣区域,得到视觉感知显著性图SM(x,y);
第五步,用图像进行字典学习;
第六步,对视觉感知显著性图SM(x,y)进行稀疏表示:首先对视频对的一幅图像进行稀疏表示,得到相应的系数矩阵C,随后对系数矩阵C进行求熵,得到其熵E;
第七步,对帧长为l的SM(x,y)视频的所有图像序列执行第六步,得到稀疏表示后的系数矩阵l×K,最后对系数矩阵在时间方向上进行求均值,方差和二范数操作,得到该视频处理后的系数矩阵(3×K);
第八步,对立体视频库中的每一组失真立体视频对进行第一步至第七步操作,并利用支持向量机(SVM)对视频库中的视频的稀疏矩阵及相应的主观评价值(MOS)进行训练;具体如下,在视频库中随机选择80%视频对的系数矩阵和MOS用于训练,得到相应的训练模型;利用该训练模型对任一立体视频进行质量预测,得到最终的客观预测值。
2.根据权利要求1所述的基于稀疏表示的无参考立体视频质量客观评价方法,其特征在于,第二步中左视点能量图和右视点能量图的加权因子WL(x,y,n)和WR(x+d,y,n)的求解过程:
(1)左视点图像中的点p(x,y),在右视点图像中匹配点为p'(x+d,y),d表示对右视点图像进行视差补偿的像素点横坐标差值,这两个像素点的能量分别为:
pi为p周围相邻点,pi'为p'周围相邻点;Epi为对应于pi的能量,为对应于p′i的能量;ψ为去掉p点的p周围相邻区域,ψ′为去掉p′点的p′周围相邻区域,z是p周围相邻点个数;
最终,依照上式,得到左视图的能量图为GEL(x,y)和对应右视图的能量图GER((x+d),y)
(2)左视图和右视图的加权因子WL(x,y)和WR((x+d),y)表示为:
3.根据权利要求1所述的基于稀疏表示的无参考立体视频质量客观评价方法,其特征在于,第四步中立体视频的视觉感知显著性图按以下公式获得:
SM(x,y,n)=λ·SM3D(x,y,n)+(1-λ)·SMmo(x,y,n)
其中,SM3D(x,y,n)为第n幅图像的3D显著性图,SMmo(x,y,n)为运动显著性图,λ为权重系数。
4.根据权利要求1所述的基于稀疏表示的无参考立体视频质量客观评价方法,其特征在于,第五步中用图像进行字典学习的方法如下:
选取P幅p×q尺寸无失真的平面参考图像,每个图像分割为8×8的图像块,共有M=[p/8]×[q/8]个小块,其中[k]表示不大于k的最大整数;并将每个8×8的图像块按列排成一列,标记为ri(64×1);这样每个无失真参考图像都转换为(64×1)×M的二维矩阵;P幅无失真平面参考图像通过上述处理,得到一个64×(M×P)的矩阵;根据如下公式,求得相应的字典D。
其中,D是超完备字典矩阵,ai是对应于ri的系数矢量,在求解的过程中,字典的求解利用K-SVD算法,迭代次数设置为40次,字典稀疏基(原子)的数目为256。
5.根据权利要求1所述的基于稀疏表示的无参考立体视频质量客观评价方法,其特征在于,第六步中对一帧图像进行稀疏表示的方法如下:
(1)利用第五步中得到的字典D,求解一帧图像的稀疏表示系数;此过程中,采用的算法是OMP算法,迭代次数为14次;每一图像系数矩阵的大小为256×([p/8]×[q/8])×14的三维矩阵;
(2)对每一次迭代的稀疏系数结果进行求熵操作,得到1×14的一维矩阵;
具体操作如下:
代表稀疏表示第i(1≤i≤14)次迭代中,第j(1≤j≤256)个稀疏基中系数的具体值:
对应概率分布函数如下:
根据香农公式,其熵如下:
其中,k是稀疏基的个数,本发明中k=256,按照上述操作,求得一幅图像的稀疏系数熵E,E为1×14的行向量。
CN201710566727.XA 2017-07-12 2017-07-12 基于稀疏表示的无参考立体视频质量客观评价方法 Pending CN109257591A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710566727.XA CN109257591A (zh) 2017-07-12 2017-07-12 基于稀疏表示的无参考立体视频质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710566727.XA CN109257591A (zh) 2017-07-12 2017-07-12 基于稀疏表示的无参考立体视频质量客观评价方法

Publications (1)

Publication Number Publication Date
CN109257591A true CN109257591A (zh) 2019-01-22

Family

ID=65051538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710566727.XA Pending CN109257591A (zh) 2017-07-12 2017-07-12 基于稀疏表示的无参考立体视频质量客观评价方法

Country Status (1)

Country Link
CN (1) CN109257591A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109714593A (zh) * 2019-01-31 2019-05-03 天津大学 基于双目融合网络与显著性的立体视频质量评价方法
CN110599468A (zh) * 2019-08-30 2019-12-20 中国信息通信研究院 无参考视频质量评估方法及装置
CN112634468A (zh) * 2021-03-05 2021-04-09 南京魔鱼互动智能科技有限公司 基于SpPccs的虚拟场景和实景视频融合算法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104853182A (zh) * 2015-05-21 2015-08-19 天津大学 基于幅度和相位的立体图像质量客观评价方法
CN106530282A (zh) * 2016-10-20 2017-03-22 天津大学 基于空域特征的无参考立体图像质量客观评价方法
CN106651835A (zh) * 2016-10-20 2017-05-10 天津大学 基于熵的双视点无参考立体图像质量客观评价方法
CN106780441A (zh) * 2016-11-30 2017-05-31 杭州电子科技大学 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104853182A (zh) * 2015-05-21 2015-08-19 天津大学 基于幅度和相位的立体图像质量客观评价方法
CN106530282A (zh) * 2016-10-20 2017-03-22 天津大学 基于空域特征的无参考立体图像质量客观评价方法
CN106651835A (zh) * 2016-10-20 2017-05-10 天津大学 基于熵的双视点无参考立体图像质量客观评价方法
CN106780441A (zh) * 2016-11-30 2017-05-31 杭州电子科技大学 一种基于字典学习和人眼视觉特性的立体图像质量客观测量方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王珊珊: "基于稀疏表示的无参考立体图像质量评价方法", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109714593A (zh) * 2019-01-31 2019-05-03 天津大学 基于双目融合网络与显著性的立体视频质量评价方法
CN110599468A (zh) * 2019-08-30 2019-12-20 中国信息通信研究院 无参考视频质量评估方法及装置
CN112634468A (zh) * 2021-03-05 2021-04-09 南京魔鱼互动智能科技有限公司 基于SpPccs的虚拟场景和实景视频融合算法

Similar Documents

Publication Publication Date Title
CN105744256B (zh) 基于图谱视觉显著的立体图像质量客观评价方法
CN102750695B (zh) 一种基于机器学习的立体图像质量客观评价方法
CN105338343B (zh) 一种基于双目感知的无参考立体图像质量评价方法
CN107635136B (zh) 基于视觉感知和双目竞争的无参考立体图像质量评价方法
CN101877143B (zh) 一种二维图像组的三维场景重建方法
CN106530282B (zh) 基于空域特征的无参考立体图像质量客观评价方法
CN104036501A (zh) 一种基于稀疏表示的立体图像质量客观评价方法
RU2009110511A (ru) Система и способ формирования и воспроизведения трехмерного видеоизображения
CN107360416A (zh) 基于局部多元高斯描述子的立体图像质量评价方法
CN103413298B (zh) 一种基于视觉特性的立体图像质量客观评价方法
JP2021525401A (ja) 画像生成ネットワークの訓練および画像処理方法、装置、電子機器、ならびに媒体
CN105654465B (zh) 一种采用视差补偿视点间滤波的立体图像质量评价方法
CN101610425A (zh) 一种评测立体图像质量的方法和装置
CN109257591A (zh) 基于稀疏表示的无参考立体视频质量客观评价方法
CN109523513A (zh) 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN106651835A (zh) 基于熵的双视点无参考立体图像质量客观评价方法
CN109510981B (zh) 一种基于多尺度dct变换的立体图像舒适度预测方法
CN105282543A (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN110060334B (zh) 基于尺度不变特征变换的计算集成成像图像重构方法
CN103914807B (zh) 一种缩放尺度补偿的非局部性图像超分辨率方法及系统
CN103914835A (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN104717514B (zh) 多视点图像渲染系统及方法
CN106504236B (zh) 基于稀疏表示的无参考立体图像质量客观评价方法
CN105898279A (zh) 一种立体图像质量客观评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190122