CN103702120B - 一种合成视点主观失真估计方法 - Google Patents

一种合成视点主观失真估计方法 Download PDF

Info

Publication number
CN103702120B
CN103702120B CN201310686917.7A CN201310686917A CN103702120B CN 103702120 B CN103702120 B CN 103702120B CN 201310686917 A CN201310686917 A CN 201310686917A CN 103702120 B CN103702120 B CN 103702120B
Authority
CN
China
Prior art keywords
distortion
viewpoint
synthesis
reference view
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310686917.7A
Other languages
English (en)
Other versions
CN103702120A (zh
Inventor
张蕾
刘思远
陈乾友
熊荣东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Jiuzhou Electric Group Co Ltd
Original Assignee
Sichuan Jiuzhou Electric Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Jiuzhou Electric Group Co Ltd filed Critical Sichuan Jiuzhou Electric Group Co Ltd
Priority to CN201310686917.7A priority Critical patent/CN103702120B/zh
Publication of CN103702120A publication Critical patent/CN103702120A/zh
Application granted granted Critical
Publication of CN103702120B publication Critical patent/CN103702120B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供了一种合成视点主观失真估计方法。具体方法为:计算深度图像失真对合成视点的失真影响时,以像素点的空间结构相关性为基础,结合人眼的感知融合特性进行主观失真度估计。可在立体/多视点视频编码中更准确地估计合成视点的主观失真度;将其用于各个关键编码环节的率失真优化编码,可有效提高立体/多视点视频编码性能。

Description

一种合成视点主观失真估计方法
技术领域
本发明涉及一种合成视点主观失真估计方法,特别是涉及一种适用于三维视频技术领域的立体/多视点视频编码和图像主观失真估计中的合成视点主观失真估计方法。
背景技术
立体/多视点视频由摄像机阵列从不同角度拍摄同一场景得到一组视频信号,与单视点视频相比能获取场景的三维信息,从而更加生动地再现三维场景。近年来三维立体显示的迅速发展,特别是不需佩戴眼镜就能观看到逼真立体影像的裸视光栅三维立体显示器的出现,使人类的三维显示梦想成为现实。可以预见,立体/多视点视频将在影视、医疗、远程控制、虚拟现实等方面拥有广阔的应用前景。然而与传统二维视频数据相比,具有立体感的图像/视频由于包含了场景的深度信息,其数据量会随着视点数目的增多而急剧增加。因此,为了满足立体/多视点视频存储和传输的应用需求,高效的立体/多视点视频压缩编码技术的研究就显得尤为重要。
现有的立体/多视点视频编码主要是利用视点间的相关性来提高视频压缩率,最常用编码方案包括:“基于视差/运动联合估计的立体/多视点视频编码”和“基于视点合成预测的立体/多视点视频编码”。其中“基于视点合成预测的立体/多视点视频编码”利用深度图等场景几何信息来生成视点图像,与“基于视差/运动联合估计的立体/多视点视频编码”相比,可以更有效地利用视点间相关性提高立体/多视点视频编码性能,同时更好地满足视点间随机访问与自由视点应用,具有很好的实际应用前景。因此,基于视点合成预测的立体/多视点视频编码成为目前视频编码的研究热点。
在视频编码中,率失真优化是其核心,它贯穿于视频编码的各个关键环节。而失真度估计是率失真优化实现的基础。不同于传统的视频编码方案,在基于视点合成预测的立体/多视点视频编码过程中,除了需要估计纹理图像和深度图像本身的编码失真外,还需要进一步估计合成视点的图像质量,以获得最佳的立体/多视点视频编码性能。对此,国内外学者们围绕合成视点失真估计展开了越来越多的研究,其研究成果在一定程度上促进了立体/多视点视频技术的发展。
根据人类视觉系统(Human Visual System,HVS)的研究发现,HVS对视频场景中的空间结构失真有较高的视觉敏感度。因此,采用传统方法估计的合成视点失真,难与人眼感知的图像质量相一致。
发明内容
本发明要解决的技术问题是提供一种人眼感知的图像质量相一致合成视点。
本发明采用的技术方案如下:一种合成视点主观失真估计方法,具体方法为:计算深度图像失真对合成视点的失真影响时,以像素点的空间结构相关性为基础,结合人眼的感知融合特性进行主观失真度估计。
作为优选,具体方法步骤为:步骤一、利用深度图像的空间结构信息,计算合成视点的空间结构相似度;步骤二、利用人眼对纹理图像的视觉感知特性,修正合成视点的空间结构相似度;步骤三、融合空间和纹理结构相似度,实现合成视点的主观失真估计。
作为优选,所述步骤一的具体方法步骤为:1、根据参考视点和合成视点的相机内部参数和外部参数,计算在不同深度值条件下,从参考视点到合成视点的空间投影变化矩阵;2、计算参考视点深度图像失真前后,其各像素点或编码块投影变换到合成视点深度图像中水平和垂直方向的坐标;3、根据步骤2计算得到的投影变换坐标,依次计算参考视点深度图像各像素点或编码块在水平和垂直方向投影变换坐标的空间结构相似度。
作为优选,所述步骤二的具体方法步骤为:A、根据参考视点失真的纹理图像,依次计算参考视点各像素点或编码块在水平和垂直方向的纹理复杂度;B、修正合成视点的空间结构相似度。
作为优选,所述步骤三的具体方法步骤为:a、采用纹理图像的结构相似度模型,计算参考视点纹理图像失真前后各像素点或编码块的结构相似度;b、融合所述所述步骤B中计算得到的空间结构相似度和所述步骤a中计算得到的纹理结构相似度,估计合成视点的主观失真。
作为优选,所述步骤1的具体方法步骤为:1-1、根据参考视点的内部参数、外部参数和深度值,计算参考视点图像坐标对应的世界坐标;1-2、根据合成视点的内部参数和外部参数,计算合成视点世界坐标对应的图像坐标和深度值;1-3、根据参考视点图像坐标和对应的合成视点图像坐标,计算深度值条件下的3×3空间投影变化矩阵。
作为优选,所述步骤2的具体方法步骤为:2-1、根据参考视点原始的深度图像和空间投影变化矩阵,依次对参考视点各像素点或编码块进行空间投影变化到合成视点,记录各像素点或编码块投影变换后水平和垂直方向的坐标;2-2、根据参考视点失真深度图像和空间投影变化矩阵,依次对参考视点各像素点或编码块进行空间投影变化到合成视点,记录各像素和编码块投影变换后水平和垂直方向的坐标。
作为优选,所述步骤B的具体方法步骤为:B-1、根据步骤A计算得到的纹理复杂度,结合人眼视觉感知特性,计算人眼对其空间结构失真的敏感阈值;B-2、使用敏感阈值对所述步骤3中计算得到的空间结构相似度进行感知修正。
与现有技术相比,本发明的有益效果是:鉴于大部分立体/多视点视频的最终消费者是“人眼”,将合成视点空间结构特征和人眼视觉感知特性相结合,实现一种新的以空间投影结构相似度为依据的合成视点失真估计方法,可在立体/多视点视频编码中更准确地估计合成视点的主观失真度;将其用于各个关键编码环节的率失真优化编码,可有效提高立体/多视点视频编码性能。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本说明书(包括任何附加权利要求和摘要)中公开的任一特征,除非特别叙述,均可被其他等效或者具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
根据率失真优化选择待编码的参考视点,其率失真优化中失真度的计算采用本发明提出的基于空间结构相似度的合成视点主观失真估计方法。本具体实施例以视点0和视点4为多视点视频序列待编码的参考视点;视点2为多视点视频序列用于失真估计的合成视点。
一种合成视点主观失真估计方法,具体方法为:计算深度图像失真对合成视点的失真影响时,以像素点的空间结构相关性为基础,结合人眼的感知融合特性进行主观失真度估计。
具体方法步骤为:步骤一、利用深度图像的空间结构信息,计算合成视点的空间结构相似度;步骤二、利用人眼对纹理图像的视觉感知特性,修正合成视点的空间结构相似度;步骤三、融合空间和纹理结构相似度,实现合成视点的主观失真估计。
所述步骤一的具体方法步骤为:
1、计算3×3空间投影变化矩阵:根据参考视点和合成视点的相机内部参数和外部参数,计算在不同深度值z条件下,从参考视点到合成视点的空间投影变化矩阵H(z)。
具体方法步骤为:
1-1、根据参考视点的内部参数A3×3,r、外部参数R3×3,r、t3×1,r和深度值z,计算参考视点图像坐标(ur,vr)对应的世界坐标对应的世界坐标(Xw,Yw,Zw)
1-2、根据合成视点的内部参数A3×3,v和外部参数R3×3,v、t3×1,v,计算合成视点世界坐标(Xw,Yw,Zw)对应的图像坐标(uv,vv)和深度值zv
1-3、根据参考视点图像坐标和对应的合成视点图像坐标,计算深度值z条件下的3×3空间投影变化矩阵
其中,z的取值范围为0~255,通过遍历z即可获取参考视点到合成视点的所有3×3空间投影变化矩阵H(z)。
2、计算参考视点深度图像失真前后,其各像素点或编码块投影变换到合成视点深度图像中水平和垂直方向的坐标。
具体方法步骤为:
2-1、根据参考视点原始的深度图像和空间投影变化矩阵H(z),依次对参考视点各像素点或编码块进行空间投影变化到合成视点,记录各像素点或编码块投影变换后水平和垂直方向的坐标u(i,j)和v(i,j)
2-2、根据参考视点失真深度图像和空间投影变化矩阵H(z),依次对参考视点各像素点或编码块进行空间投影变化到合成视点,记录各像素和编码块投影变换后水平和垂直方向的坐标ud(i,j)和vd(i,j)
其中,(i,j)表示参考视点各像素点或编码块的坐标;z(i,j)、z'(i,j)分别表示参考视点深度图像的原始深度值和编码失真后的深度值。
3、计算空间结构相似度:根据步骤2计算得到的投影变换坐标u、v、ud和vd,依次计算参考视点深度图像各像素点或编码块在水平和垂直方向投影变换坐标的空间结构相似度
其中,分别表示给定空间范围内,深度图失真前后水平和垂直方向投影坐标的协方差;分别给定空间范围内,深度图无失真时水平和垂直方向投影坐标的方差;分别表示给定空间范围内,深度图失真时水平和垂直方向投影坐标的方差;c用于避免分母为0的常数。当处理单元为像素点时,给定空间范围内是以当前像素点为中心的A×A像素大小的矩形区域,A为大于0的常数;当处理单元为编码块时,给定空间范围内即为当前编码块,其统计特征值可以通过预测函数计算得到,以适用于编码过程中的相似度计算。后续部分“给定空间范围”的实施方法均是相同的,不再重复描述。
所述步骤二的具体方法步骤为:
A、计算水平和垂直方向纹理复杂度:根据参考视点失真的纹理图像,依次计算参考视点各像素点或编码块在水平和垂直方向的纹理复杂度,记为Wu(i,j)和Wv(i,j)。本实施例以像素点为处理单元(9×9像素大小空间范围),基于信号方差的纹理复杂度计算方法为例:
其中,p(i,j)表示参考视点纹理图像(i,j)坐标点的像素值;分别表示参考视点当前列给定范围内和当前行给定范围内像素点的均值。
B、修正合成视点的空间结构相似度。
所述步骤B的具体方法步骤为:
B-1、根据步骤A计算得到的纹理复杂度,结合人眼视觉感知特性,计算人眼对其空间结构失真的敏感阈值。
Pu(Wu(i,j)|Wv(i,j))=F(Wu(i,j),Wv(i,j))
Pv(Wv(i,j)|Wu(i,j))=F(Wv(i,j),Wu(i,j))
其中,F(·)表示相对复杂度计算函数,它可以通过特定的物理实验测量得到,也可以通过离线的机器学习从训练数据获取。
B-2、使用敏感阈值对所述步骤3中计算得到的空间结构相似度进行感知修正。
所述步骤三的具体方法步骤为:
a、计算纹理图像的结构相似度:采用纹理图像的结构相似度模型,计算参考视点纹理图像失真前后各像素点或编码块的结构相似度。本实施例以基于SSIM的纹理结构相似度模型为例:
其中,up分别表示给定空间范围内,纹理图像失真前后的像素均值;σp 2分别给定空间范围内,纹理图像失真前后的像素方差;表示给定空间范围内,纹理图像失真前后的像素协方差。
b、融合所述所述步骤B中计算得到的空间结构相似度Su(i,j)、Sv(i,j)和所述步骤a中计算得到的纹理结构相似度S(i,j),估计合成视点的主观失真D(i,j)。
D(i,j)=Pool(S(i,j),Su(i,j),Sv(i,j))
其中,Pool(·)表示感知失真融合函数,它可以通过特定的物理实验测量得到,也可以通过离线的机器学习从训练数据获取。
本发明适用于基于视点合成预测的立体/多视点视频编码框架,包括一个以上的待编码参考视点视频图像,且每个参考视点视频的编码包括纹理图像和深度图像编码。本实施例以五个视点的多视点视频序列为例。其具体编解码步骤依次是:
多视点视频序列编码:
根据率失真优化选择待编码的参考视点,其率失真优化中失真度的计算采用本发明提出的基于空间结构相似度的合成视点主观失真估计方法。
参考视点0编码,包括纹理图像编码和深度图像编码:
采用率失真模型实现纹理/深度图像间的优化码率分配,其率失真模型中失真度的计算采用本发明提出的基于空间结构相似度的合成视点主观失真估计方法。
参考视点0的纹理图像编码,使用基于视点合成预测的立体/多视点视频编码方式编码,其编码单元为宏块:
1)当前纹理编码单元的码率分配及量化参数计算,根据缓冲区状态和率失真模型计算当前纹理编码单元的码率分配及量化参数。码率分配既可采用帧级码率分配也可采用宏块级码率分配。其率失真模型中失真度的计算采用本发明提出的基于空间结构相似度的合成视点主观失真估计方法。
2)当前纹理编码单元的最佳编码模式计算,给定一个编码模式,通过率失真优化算法选择当前模式下的最佳预测编码参数(其候选预测编码,包括:帧内预测、运动补偿预测/基于合成视点的视点间补偿预测);遍历完所有可能的编码模式,通过率失真优化算法选择最佳的编码模式。其率失真优化中失真度的计算采用本发明提出的基于空间结构相似度的合成视点主观失真估计方法。
3)当前纹理编码单元预测残差的变换量化,采用标准的编码方式。
4)当前纹理编码单元量化系数的熵编码输出,采用标准的编码方式。
纹理图像编码过程中,与深度图相关的结构相似度沿用纹理/深度图像间的优化码率分配环节的计算值。
参考视点0的深度图像编码,使用基于视点合成预测的立体/多视点视频编码方式编码,其编码单元为宏块,编码方式与参考视点0的纹理图像编码方式相同。深度图像编码过程中,与纹理图相关的结构相似度沿用纹理/深度图像间的优化码率分配环节的计算值。
参考视点4编码,其编码方式与参考视点0编码方式相同。
根据基于视点合成预测的立体/多视点视频编码理论,立体/多视点视频序列包括一个以上的待编码参考视点视频图像,且每个参考视点视频的编码包括纹理图像和深度图像编码。纹理图像和深度图像分别采用标准的视频编码方式编码,如H.264/AVC视频编码。在其编码过程中,采用本发明提出的基于空间结构相似度的合成视点主观失真估计方法实现率失真优化编码,具体包括4个关键环节的编码优化:1)待编码参考视点的选择;2)纹理/深度图像间的码率优化分配;3)纹理图像和深度图像内的码率优化分配及量化参数计算;4)基于率失真优化的帧内/帧间预测编码,包括:模式选择、帧内预测、运动补偿预测/基于合成视点的视点间补偿预测。

Claims (7)

1.一种合成视点主观失真估计方法,具体方法为:计算深度图像失真对合成视点的失真影响时,以像素点的空间结构相关性为基础,结合人眼的感知融合特性进行主观失真度估计;具体方法步骤为:步骤一、利用深度图像的空间结构信息,计算合成视点的空间结构相似度;步骤二、利用人眼对纹理图像的视觉感知特性,修正合成视点的空间结构相似度;步骤三、融合空间和纹理结构相似度,实现合成视点的主观失真估计。
2.根据权利要求1所述的合成视点主观失真估计方法,所述步骤一的具体方法步骤为:1、根据参考视点和合成视点的相机内部参数和外部参数,计算在不同深度值条件下,从参考视点到合成视点的空间投影变化矩阵;2、计算参考视点深度图像失真前后,其各像素点或编码块投影变换到合成视点深度图像中水平和垂直方向的坐标;3、根据步骤2计算得到的投影变换坐标,依次计算参考视点深度图像各像素点或编码块在水平和垂直方向投影变换坐标的空间结构相似度。
3.根据权利要求2所述的合成视点主观失真估计方法,所述步骤二的具体方法步骤为:A、根据参考视点失真的纹理图像,依次计算参考视点各像素点或编码块在水平和垂直方向的纹理复杂度;以像素点为处理单元,基于信号方差对水平和垂直方向的纹理复杂度进行计算;B、修正合成视点的空间结构相似度。
4.根据权利要求3所述的合成视点主观失真估计方法,所述步骤三的具体方法步骤为:a、采用纹理图像的结构相似度模型,计算参考视点纹理图像失真前后各像素点或编码块的结构相似度;b、融合所述步骤B中计算得到的感知失真空间结构相似度和所述步骤a中计算得到的感知失真纹理结构相似度,估计合成视点的主观失真。
5.根据权利要求2所述的合成视点主观失真估计方法,所述步骤1的具体方法步骤为:1-1、根据参考视点的内部参数、外部参数和深度值,计算参考视点图像坐标对应的世界坐标;1-2、根据合成视点的内部参数和外部参数,计算合成视点世界坐标对应的图像坐标和深度值;1-3、根据参考视点图像坐标和对应的合成视点图像坐标,计算深度值条件下的3×3空间投影变化矩阵。
6.根据权利要求2所述的合成视点主观失真估计方法,所述步骤2的具体方法步骤为:2-1、根据参考视点原始的深度图像和空间投影变化矩阵,依次对参考视点各像素点或编码块进行空间投影变化到合成视点,记录各像素点或编码块投影变换后水平和垂直方向的坐标;2-2、根据参考视点失真深度图像和空间投影变化矩阵,依次对参考视点各像素点或编码块进行空间投影变化到合成视点,记录各像素和编码块投影变换后水平和垂直方向的坐标。
7.根据权利要求3所述的合成视点主观失真估计方法,所述步骤B的具体方法步骤为:B-1、根据步骤A计算得到的纹理复杂度,结合人眼视觉感知特性,计算人眼对其空间结构失真的敏感阈值;B-2、使用敏感阈值对所述步骤3中计算得到的空间结构相似度进行感知修正。
CN201310686917.7A 2013-12-11 2013-12-11 一种合成视点主观失真估计方法 Active CN103702120B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310686917.7A CN103702120B (zh) 2013-12-11 2013-12-11 一种合成视点主观失真估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310686917.7A CN103702120B (zh) 2013-12-11 2013-12-11 一种合成视点主观失真估计方法

Publications (2)

Publication Number Publication Date
CN103702120A CN103702120A (zh) 2014-04-02
CN103702120B true CN103702120B (zh) 2017-02-15

Family

ID=50363505

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310686917.7A Active CN103702120B (zh) 2013-12-11 2013-12-11 一种合成视点主观失真估计方法

Country Status (1)

Country Link
CN (1) CN103702120B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106162198B (zh) * 2016-08-31 2019-02-15 重庆邮电大学 基于不规则匀质块分割的三维视频深度图编码及解码方法
CN106454388B (zh) * 2016-09-20 2019-08-16 北京百度网讯科技有限公司 一种用于确定直播设置信息的方法与设备
CN108924554B (zh) * 2018-07-13 2020-07-24 宁波大学 一种球形加权结构相似度的全景视频编码率失真优化方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710949B (zh) * 2012-05-11 2014-06-04 宁波大学 一种基于视觉感知的立体视频编码方法

Also Published As

Publication number Publication date
CN103702120A (zh) 2014-04-02

Similar Documents

Publication Publication Date Title
CN101668205B (zh) 基于残差宏块自适应下采样立体视频压缩编码方法
CN101771893B (zh) 一种基于视频序列背景建模的虚拟视点绘制方法
CN100496121C (zh) 一种交互式多视点视频系统的图像信号处理方法
CN102307304B (zh) 基于图像分割的立体视频右图像整帧丢失的错误隐藏方法
CN101404766B (zh) 一种多视点视频信号的编码方法
CN104754359B (zh) 一种二维自由视点视频的深度图编码失真预测方法
CN102970529B (zh) 一种基于对象的多视点视频分形编码压缩与解压缩方法
CN106210722B (zh) 基于hevc的分层深度视频残差层数据的编码方法
CN101986716B (zh) 一种快速深度视频编码方法
CN102801997B (zh) 基于感兴趣深度的立体图像压缩方法
CN103828359A (zh) 使用织锦编码的多视图图像的表现和代码化
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN105306954B (zh) 一种基于视差最小可察觉误差模型的感知立体视频编码
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN103873876A (zh) 基于显著性的多视点彩色加深度视频编码方法
CN103702120B (zh) 一种合成视点主观失真估计方法
CN101198061A (zh) 基于视点图像映射的立体视频流编码方法
CN102790895B (zh) 一种基于最小二乘的多视点视频编码视点合成预测方法
Qi et al. Stereoscopic video quality assessment based on stereo just-noticeable difference model
CN104853175A (zh) 一种新的合成虚拟视点客观质量评价方法
CN106331707A (zh) 基于恰可觉察失真模型的非对称感知视频编码系统及方法
CN107071385B (zh) 一种基于h265引入视差补偿的立体视频编码方法
CN103139554A (zh) 一种三维视频率失真优化方法及优化装置
CN111526354B (zh) 一种基于多尺度空间视差信息的立体视频舒适度预测方法
CN105915886A (zh) 一种基于视频压缩域的深度图推理算法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant