CN102158712B - 一种基于视觉的多视点视频信号编码方法 - Google Patents
一种基于视觉的多视点视频信号编码方法 Download PDFInfo
- Publication number
- CN102158712B CN102158712B CN 201110069318 CN201110069318A CN102158712B CN 102158712 B CN102158712 B CN 102158712B CN 201110069318 CN201110069318 CN 201110069318 CN 201110069318 A CN201110069318 A CN 201110069318A CN 102158712 B CN102158712 B CN 102158712B
- Authority
- CN
- China
- Prior art keywords
- image
- color image
- color
- feature
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013139 quantization Methods 0.000 claims abstract description 17
- 230000000007 visual effect Effects 0.000 claims description 38
- 238000010606 normalization Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 30
- 230000004927 fusion Effects 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 8
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 239000004576 sand Substances 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉的多视点视频信号编码方法,通过建立被编码的视频图像的视觉显著性图对视频图像感兴趣区域进行划分,在其后的编码过程中,在人眼比较感兴趣的区域采用较小的编码量化参数,而在人眼不太感兴趣的区域采用较大的编码量化参数。虽然本发明在人眼关注度比较低的区域分配较少的码率,但这些区域由于编码所造成的失真不会或很少引起人眼的察觉,因而对图像整体质量的影响并不明显,而与此同时却极大地节省了码率;而在人眼关注度比较高的区域分配较多的码率,可以提高解码图像的整体主观视觉质量,从而提高多视点视频信号编码效率。
Description
技术领域
本发明涉及视频信号处理技术,尤其是涉及一种基于视觉的多视点视频信号编码方法。
背景技术
随着计算机技术以及图形图像处理等多媒体技术的发展,尤其是近年来3D显示技术的长足进步,使人们希望自由地选择视点欣赏场景的愿望逐渐成为可能。这种自由视点视频系统(FVV,Free Viewpoint Video)在影视娱乐、教育、产品展示、医疗、安全监控和虚拟现实等领域具有广阔的应用前景,是下一代多媒体技术的核心。自由视点视频是通过多相机系统进行捕获,各视点独立地接受来自同一场景的特定摄像点的视频,并通过绘制技术来生成任意视点视频,从而达到使人们能欣赏到任意位置视点图像的目的。传统的虚拟视点的绘制方法可以采用两路彩色视频信号进行绘制。而由于深度视频中只有亮度信号需要编码,相对于彩色视频信号具有更小的码流,因此采用基于深度图的绘制技术(DIBR,Depth Image Based Rendering),更加适合于表示和实现FVV系统。由于单路视频信号及对应的深度视频仅允许在较小的范围内进行交互式地自由切换视点,所以国际标准化组织采用多路彩色视频信号及对应多路深度视频信号(MVD,MultiviewView plus Depth)来扩展FVV的视频切换范围。图1是用多路彩色视频信号及对应多路深度视频信号表示和实现的FVV的框图。从该框图可以看出,自由视点视频的核心技术是多视点视频信号编解码和实时的图像绘制。
和传统的单通道视频相比,多视点视频中彩色视频的数据量随着相机数量的增加而成倍增长,且每幅彩色视频图像都对应一幅深度图,使得MVD的数据量更为惊人。为了能有效存储、传输MVD信号,并且在应用中能实现用户和系统之间的交互操作、视点间的自由切换,必须对多视点视频信号进行高效的压缩。目前,很多FVV系统框架中的多视点视频信号编码压缩方法中采用了如图2所示的分层B帧(HBP,HierarchicalB Pictures)预测编码结构。HBP结构除了采用运动估计消除时间上的信号冗余外,还采用了视差估计来消除视点间的空间冗余,能够对多视点视频信号进行较好的压缩。
JMVM(Joint Multiview Video Model)是国际标准组织的联合视频编码组JVT用于多视点视频编码研究的基于H.264编码标准的多视点视频编码校验模型。在JMVM中,编码量化策略是根据B帧所在层次决定的,具体的方案是:如果基准量化步长参数BasicQP确定,那么其它编码帧的量化步长参数QP是通过QP=QPl+C得到的。l表示在HBP结构中的帧层次,当l=1时,QPl=BasicQP,C=3;当l>1时,C=1。通过这种分帧层量化的方法可以获得较高的编码效率。然而,在JMVM校检模型中,编码也仅仅是从传统的空间、时间和视点间的信号冗余的角度出发,而没有挖掘视频图像中大量存在的视觉冗余。大量人类视觉生理学和视觉心理学实验表明,针对一幅视频图像,人眼对其中的内容并非一视同仁,而是往往表现出选择性和迁移性,即人眼会下意识地或者有意地将一幅图像划分为若干个不同的区域,并将注意力集中在人眼比较感兴趣的区域;如果感兴趣区域不止一个的话,注意力在这些区域中也往往会有个迁移的过程,即注意力首先集中在最感兴趣的区域,一定的时间段之后再转移到次感兴趣的区域,依次类推,当人眼关注度比较低的区域发生某些变化时,甚至不能引起人眼的察觉。人类视觉的这种特性对图像观察者理解图像内容和评价图像质量起着至关重要的作用。因此,在编码过程中充分考虑人类视觉特性,有助于在保证人眼的主观视觉效果的同时提高编码压缩效率。
发明内容
本发明所要解决的技术问题是提供一种基于视觉的多视点视频信号编码方法,根据人眼视觉特性划分视频图像中人眼感兴趣区域,并以此为基础,对人眼感兴趣区域和非感兴趣区域采用不同的量化参数进行编码,以提高多视点视频信号编码效率。
本发明解决上述技术问题所采用的技术方案为:一种基于视觉的多视点视频信号编码方法,其特征在于首先建立被编码的视频图像的视觉显著性图以对视频图像感兴趣区域进行划分,在其后的编码过程中,在人眼比较感兴趣的区域分配较多的码率,而在人眼不太感兴趣的区域分配较少的码率,具体包括以下步骤:
①计算得到静态视觉的亮度显著性图AI、颜色显著性图AH,S和方向显著性图Aθ:
A1.记多视点视频中当前正在处理的t时刻的彩色图像为Ct,把彩色图像Ct转换到HSI彩色空间表示,彩色图像Ct的色调分量表示为彩色图像Ct的饱和度分量表示为彩色图像Ct的亮度分量表示为采用Gabor方向滤波器对彩色图像Ct的亮度分量进行滤波,得到彩色图像Ct在0°、45°、90°和135°四个方向的方向分量,分别记为 和
A2.对彩色图像Ct的每一个图像分量P∈{H,S,I,0°,45°,90°,135°},分别进行高斯金字塔运算,得到彩色图像Ct的各个图像分量的不同层次的图像特征图1≤n≤8,这里,其中为第n层高斯金字塔运算的结果,Gaussian是高斯函数卷积核,符号“*”表示卷积运算,SubSample[Image]表示对输入图像Image的水平和垂直方向均进行1/2下采样;当n=1时,即为
A3.对于彩色图像Ct的各个图像分量计算其高斯金字塔不同层次的图像特征图的Center-Surround差异其中,和分别表示彩色图像Ct的图像分量的高斯金字塔第i层和第j层的图像特征图,i∈{2,3,4},j=i+d,d∈{3,4};符号“Θ”表示将第j层的图像特征图上采样到第i层的图像特征图的尺寸大小,然后将这2幅图像特征图对应像素点进行相减,“|·|”表示取绝对值;
A4.对于彩色图像Ct的亮度分量对其6幅Center-Surround差异计算结果进行Across-Scale融合, 其中,表示局部迭代归一化过程,若令M是局部迭代归一化过程的输入图像,则这里DOG是高斯差分函数,c是一个常量,符号“*”表示卷积运算;符号表示先将6幅Center-Surround差异计算结果局部迭代归一化后得到的图像均下采样到高斯金字塔中第4层图像特征图的尺寸大小,即长宽均为彩色图像Ct长宽的1/16,然后将经上述处理后的6幅Center-Surround差异计算结果相加;对于彩色图像Ct的色调分量和饱和度分量对其12幅Center-Surround差异计算结果 以及进行Across-Scale融合,即对于彩色图像Ct的四个方向分量和对其24幅Center-Surround差异计算结果进行Across-Scale融合,即
②计算其中,和分别为与彩色图像Ct同一个视点的前一时刻t-1时刻和后一时刻t+1时刻的彩色图像Ct-1和Ct+1的亮度分量,符号“∩”表示图像与运算,“|·|”表示取绝对值;对进行线性归一化使其各个像素的值在0~255之间;然后,对线性归一化后的的水平和垂直方向均进行1/16下采样,得到运动视觉显著性图M;
③计算得到深度视觉显著性图B,具体步骤为:
C2.对步骤C1得到的每一个图像分量R∈{I,0°,45°,90°,135°},分别进行高斯金字塔运算,得到深度图像的各个图像分量不同层次的图像特征图1≤n≤8,这里,其中为第n层高斯金字塔运算的结果;当n=1时,即为
C3.对于深度图像的各个图像分量计算其高斯金字塔不同层次的图像特征图的Center-Surround差异,即其中,和分别表示图像分量的高斯金字塔第i层和第j层的图像特征图,i∈{2,3,4},j=i+d,d∈{3,4};符号“Θ”表示将第j层的图像特征图上采样到第i层的图像特征图的尺寸大小,然后将这2幅图像特征图对应像素点进行相减;
C4.对于深度图像对其6幅Center-Surround差异计算结果 进行Across-Scale融合,即其中,表示局部迭代归一化过程,符号表示先将6幅Center-Surround差异计算结果局部迭代归一化后得到的图像均下采样到高斯金字塔中第4层图像的尺寸大小,即长宽均为输入的深度图像长宽的1/16,然后将经上述处理后的6幅Center-Surround差异计算结果相加;对于四个方向分量 和对其24幅Center-Surround差异计算结果进行Across-Scale融合,即
④将静态视觉的亮度显著性图AI、颜色显著性图AH,S和方向显著性图Aθ、运动视觉显著性图M、深度视觉显著性图B,按照VPV=αAI+βAH,S+γAθ+λM+ηB进行加权融合,得到输入的彩色图像Ct的视觉显著性图VPV;视觉显著性图中每个像素的像素值vpvi为彩色图像Ct对应的第i个16×16宏块的视觉优先权值,表征人眼对该宏块的关注度;α、β、γ、λ和η分别是亮度特征、颜色特征、方向特征、运动特征和深度特征的权重系数,表征人眼对这些特征的敏感程度;
⑤对彩色图像Ct进行编码,在编码时,根据彩色图像Ct的视觉显著性图VPV调整彩色图像Ct各个16×16宏块的编码量化参数:QPi=QP+ΔQPi,其中QP是由JMVM确定的对于彩色图像Ct进行编码所采用的量化参数,QPi是编码彩色图像Ct中第i个宏块时最终所采用的量化参数,这里,是彩色图像Ct的第i个16×16宏块的视觉优先权值,vpvmax和vpvmin分别为彩色图像Ct的视觉显著性图VPV中的最大值和最小值,α1、β1、α2、β2、γ2、ω2、α3、β3、γ3和μ为常数。
所述的步骤④中的亮度特征、颜色特征、方向特征、运动特征和深度特征的权重系数α、β、γ、λ和η的取值分别是α=0.3、β=0.1、γ=0.1、λ=04和η=0.1。
所述的步骤⑤中α1=6.27,β1=-0.10;α2=-2.75,β2=-52.10,γ2=18.3,ω2=4.17;α3=-0.05,β3=-6.57,γ3=3.21;μ=0.08。
与现有技术相比,本发明的优点在于充分挖掘了多视点视频中大量存在的视觉冗余,在人眼关注度比较低的区域分配较少的码率,这样在这些区域由于编码所造成的失真不会或很少引起人眼的察觉,与此同时却极大地节省了码率;而在人眼关注度比较高的区域分配较多的码率,以提高解码图像的整体主观视觉质量,从而提高多视点视频信号编码效率。
附图说明
图1为典型的FVV视频系统;
图2为分层B帧预测编码结构;
图3为多视点视频Ballet的彩色图像;
图4为图3所示的多视点视频Ballet的彩色图像对应的深度图像;
图5为图3所示的多视点视频Ballet的彩色图像的视觉显著性图;
图6为本发明编码方法码率的节省情况;
图7为本发明编码方法与现有编码方法编码后图像质量的比较(QP=22);
图8为本发明编码方法与现有编码方法编码后图像质量的比较(QP=27);
图9为本发明编码方法与现有编码方法编码后图像质量的比较(QP=32);
图10为本发明编码方法与现有编码方法编码后图像质量的比较(QP=37)。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明的一种基于视觉的多视点视频信号编码方法,其特征在于首先建立被编码的视频图像的视觉显著性图以对视频图像感兴趣区域进行划分,在其后的编码过程中,在人眼比较感兴趣的区域分配较多的码率,而在人眼不太感兴趣的区域分配较少的码率,具体包括以下步骤:
①计算得到静态视觉的亮度显著性图AI、颜色显著性图AH,S和方向显著性图Aθ:
A1.记多视点视频中当前正在处理的t时刻的彩色图像为Ct,把彩色图像Ct转换到HSI彩色空间表示,彩色图像Ct的色调分量表示为彩色图像Ct的饱和度分量表示为彩色图像Ct的亮度分量表示为采用Gabor方向滤波器对彩色图像Ct的亮度分量进行滤波,得到彩色图像Ct在0°、45°、90°和135°四个方向的方向分量,分别记为和
A2.对彩色图像Ct的每一个图像分量P∈{H,S,I,0°,45°,90°,135°},分别进行高斯金字塔运算,得到彩色图像Ct的各个图像分量的不同层次的图像特征图1≤n≤8,这里,其中为第n层高斯金字塔运算的结果,Gaussian是高斯函数卷积核,本实施例中采用了5×5的高斯函数卷积核,即符号“*”表示卷积运算,SubSample[Image]表示对输入图像Image的水平和垂直方向均进行1/2下采样;当n=1时,即为
A3.对于彩色图像Ct的各个图像分量计算其高斯金字塔不同层次的图像特征图的Center-Surround差异其中,和分别表示彩色图像Ct的图像分量的高斯金字塔第i层和第j层的图像特征图,i∈{2,3,4},j=i+d,d∈{3,4};符号“Θ”表示将第j层的图像特征图上采样到第i层的图像特征图的尺寸大小,然后将这2幅图像特征图对应像素点进行相减,“|·|”表示取绝对值。
A4.对于彩色图像Ct的亮度分量对其6幅Center-Surround差异计算结果进行Across-Scale融合,即其中,表示局部迭代归一化过程,若令M是局部迭代归一化过程的输入图像,则这里DOG是高斯差分函数,本实施例中σex和σinh分别为输入图像宽度的2%和25%,cex取0.5,cinh取1.5,c是一个常量,取值为1。符号“*”表示卷积运算;符号表示先将6幅Center-Surround差异计算结果局部迭代归一化后得到的图像均下采样到高斯金字塔中第4层图像特征图的尺寸大小,即长宽均为彩色图像Ct长宽的1/16,然后将经上述处理后的6幅Center-Surround差异计算结果相加;对于彩色图像Ct的色调分量和饱和度分量对其12幅Center-Surround差异计算结果 以及进行Across-Scale融合,即对于彩色图像Ct的四个方向分量对其24幅Center-Surround差异计算结果进行Across-Scale融合,即
②计算其中,和分别为与彩色图像Ct同一个视点的前一时刻t-1时刻和后一时刻t+1时刻的彩色图像Ct-1和Ct+1的亮度分量,符号“∩”表示图像与运算,“|·|”表示取绝对值;对进行线性归一化使其各个像素的值在0~255之间;然后,对线性归一化后的的水平和垂直方向均进行1/16下采样,得到运动视觉显著性图M。
③计算得到深度视觉显著性图B,具体步骤为:
C2.对步骤C1得到的每一个图像分量R∈{I,0°,45°,90°,135°},分别进行高斯金字塔运算,得到深度图像的各个图像分量不同层次的图像特征图1≤n≤8,这里,其中为第n层高斯金字塔运算的结果;当n=1时,即为
C3.对于深度图像的各个图像分量计算其高斯金字塔不同层次的图像特征图的Center-Surround差异,即其中,和分别表示图像分量的高斯金字塔第i层和第j层的图像特征图,i∈{2,3,4},j=i+d,d∈{3,4};符号“Θ”表示将第j层的图像特征图上采样到第i层的图像特征图的尺寸大小,然后将这2幅图像特征图对应像素点进行相减。
C4.对于深度图像对其6幅Center-Surround差异计算结果 进行Across-Scale融合,即其中表示局部迭代归一化过程,符号表示先将6幅Center-Surround差异计算结果局部迭代归一化后得到的图像均下采样到高斯金字塔中第4层图像的尺寸大小,即长宽均为输入的深度图像长宽的1/16,然后将经上述处理后的6幅Center-Surround差异计算结果相加;对于四个方向分量 和对其24幅Center-Surround差异计算结果进行Across-Scale融合,即
④将静态视觉的亮度显著性图AI、颜色显著性图AH,S和方向显著性图Aθ、运动视觉显著性图M、深度视觉显著性图B,按照VPV=αAI+βAH,S+γAθ+λM+ηB进行加权融合,得到输入的彩色图像Ct的视觉显著性图VPV;视觉显著性图中每个像素的像素值vpvi为彩色图像Ct对应的第i个16×16宏块的视觉优先权值,表征人眼对该宏块的关注度;α、β、γ、λ和η分别是亮度特征、颜色特征、方向特征、运动特征和深度特征的权重系数,表征人眼对这些特征的敏感程度。本实施例中,α=0.3、β=0.1、γ=0.1、λ=0.4和η=0.1。图5给出了按上述方法得到的图3所示的多视点视频Ballet的彩色图像的视觉显著性图,该视觉显著性图的长宽均为图3所示的Ballet的彩色图像以及图4所示的Ballet的深度图像的1/16。
⑤对彩色图像Ct进行编码,在编码时,根据彩色图像Ct的视觉显著性图VPV调整彩色图像Ct各个16×16宏块的编码量化参数:QPi=QP+ΔQPi,其中QP是由JMVM确定的对于彩色图像Ct进行编码所采用的量化参数,QPi是编码彩色图像Ct中第i个宏块时最终所采用的量化参数,这里,T=α1+β1·QP,是彩色图像Ct的第i个16×16宏块的视觉优先权值,vpvmax和vpvmin分别为彩色图像Ct的视觉显著性图VPV中的最大值和最小值。本实施例中,α1=6.27,β1=-0.10;α2=-2.75,β2=-52.10,γ2=18.3,ω2=4.17;α3=-0.05,β3=-6.57,γ3=3.21;μ=0.08。
图6是采用本发明编码方法编码如图3所示的多视点视频Ballet时码率的节省情况,编码平台采用JMVM,HBP结构,GOP长度为12,编码Ballet序列61帧。如图6所示,在不同的编码量化参数下,与JMVM编码方法相比,采用本发明编码方法码率节省了5%~30%。对于重建图像的质量,这里采用基于结构相似度(Structural SIMilarity,SSIM)的图像质量评价方法,具体的指标为:1)原始图像与JMVM编码后重建图像的SSIM(原始图像,JMVM);2)原始图像与本发明编码方法编码后重建图像的SSIM(原始图像,本发明);3)JMVM编码后重建图像与本发明编码方法编码后重建图像的SSIM(JMVM,本发明)。图7、图8、图9、图10分别给出了Ballet序列在QP=22、QP=27、QP=32、QP=37时的上述3项指标的结果,从图中可以看出,本发明编码方法编码后重建图像与JMVM编码后重建图像的结构相似度达到98%以上,即与JMVM相比,本发明编码方法的重建图像质量几乎与JMVM编码重建图像相当,但是码率却节省了5~30%,因而本发明编码方法在保证图像质量的同时很大程度上提高了编码效率。
Claims (3)
1.一种基于视觉的多视点视频信号编码方法,其特征在于首先建立被编码的视频图像的视觉显著性图以对视频图像感兴趣区域进行划分,在其后的编码过程中,在人眼比较感兴趣的区域分配较多的码率,而在人眼不太感兴趣的区域分配较少的码率,具体包括以下步骤:
①计算得到静态视觉的亮度显著性图AI、颜色显著性图AH,S和方向显著性图Aθ:
A1.记多视点视频中当前正在处理的t时刻的彩色图像为Ct,把彩色图像Ct转换到HSI彩色空间表示,彩色图像Ct的色调分量表示为 彩色图像Ct的饱和度分量表示为 彩色图像Ct的亮度分量表示为 采用Gabor方向滤波器对彩色图像Ct的亮度分量 进行滤波,得到彩色图像Ct在0°、45°、90°和135°四个方向的方向分量,分别记为 和
A2.对彩色图像Ct的每一个图像分量 P∈{H,S,I,0°,45°,90°,135°},分别进行高斯金字塔运算,得到彩色图像Ct的各个图像分量的不同层次的图像特征图 1≤n≤8,这里,其中 为第n层高斯金字塔运算的结果,Gaussian是高斯函数卷积核,符号“*”表示卷积运算,SubSample[Image]表示对输入图像Image的水平和垂直方向均进行1/2下采样;当n=1时, 即为
A3.对于彩色图像Ct的各个图像分量 计算其高斯金字塔不同层次的图像特征图的Center-Surround差异 其中, 和 分别表示彩色图像Ct的图像分量 的高斯金字塔第i层和第j层的图像特征图,i∈{2,3,4},j=i+d,d∈{3,4};符号“Θ”表示将第j层的图像特征图 上采样到第i层的图像特征图 的尺寸大小,然后将这2幅图像特征图对应像素点进行相减,“|·|”表示取绝对值;
A4.对于彩色图像Ct的亮度分量 对其6幅Center-Surround差异计算结果 进行Across-Scale融合,即 其中,N表示局部迭代归一化过程,若令M是局部迭代归一化过程的输入图像,则 这里DOG是高斯差分函数,c是一个常量,符号“*”表示卷积运算;符号“⊕”表示先将6幅Center-Surround差异计算 结果局部迭代归一化后得到的图像 均下采样到高斯金字塔中第4层图像特征图的尺寸大小,即长宽均为彩色图像Ct长宽的1/16,然后将经上述处理后的6幅Center-Surround差异计算结果相加;对于彩色图像Ct的色调分量 和饱和度分量 对其12幅Center-Surround差异计算结果 以及 进行Across-Scale融合,即对于彩色图像Ct的四个方向分量 对其24幅Center-Surround差异计算结果进行Across-Scale融合,即
②计算 其中, 和 分别为与彩色图像Ct同一个视点的前一时刻t-1时刻和后一时刻t+1时刻的彩色图像Ct-1和Ct+1的亮度分量,符号“∩”表示图像与运算,“|·|”表示取绝对值;对 进行线性归一化使其各个像素的值在0~255之间;然后,对线性归一化后的 的水平和垂直方向均进行1/16下采样,得到运动视觉显著性图M;
③计算得到深度视觉显著性图B,具体步骤为:
C2.对步骤C1得到的每一个图像分量 R∈{I,0°,45°,90°,135°},分别进行高斯金字塔运算,得到深度图像 的各个图像分量不同层次的图像特征图 1≤n≤8,这里,其中 为第n层高斯金字塔运算的结果;当n=1时, 即为
C3.对于深度图像 的各个图像分量 计算其高斯金字塔不同层次的图像特征图的Center-Surround差异,即 其中, 和 分别表 示图像分量 的高斯金字塔第i层和第j层的图像特征图,i∈{2,3,4},j=i+d,d∈{3,4};符号“Θ”表示将第j层的图像特征图 上采样到第i层的图像特征图 的尺寸大小,然后将这2幅图像特征图对应像素点进行相减;
C4.对于深度图像 对其6幅Center-Surround差异计算结果 进行Across-Scale融合,即 其中,N表示局部迭代归一化过程,符号“⊕”表示先将6幅Center-Surround差异计算结果局部迭代归一化后得到的图像 均下采样到高斯金字塔中第4层图像的尺寸大小,即长宽均为输入的深度图像长宽的1/16,然后将经上述处理后的6幅Center-Surround差异计算结果相加;对于四个方向分量 和 对其24幅Center-Surround差异计算结果进行Across-Scale融合,即
④将静态视觉的亮度显著性图AI、颜色显著性图AH,S和方向显著性图Aθ、运动视觉显著性图M、深度视觉显著性图B,按照VPV=αAI+βAH,S+γAθ+λM+ηB进行加权融合,得到输入的彩色图像Ct的视觉显著性图VPV;视觉显著性图中每个像素的像素值vpvi为彩色图像Ct对应的第i个16×16宏块的视觉优先权值,表征人眼对该宏块的关注度;α、β、γ、λ和η分别是亮度特征、颜色特征、方向特征、运动特征和深度特征的权重系数,表征人眼对这些特征的敏感程度;
2.根据权利要求1所述的一种基于视觉的多视点视频信号编码方法,其特征在于所述的步骤④中的亮度特征、颜色特征、方向特征、运动特征和深度特征的权重系数α、β、γ、λ和η的取值分别是α=0.3、β=0.1、γ=0.1、λ=0.4和η=0.1。
3.根据权利要求1所述的一种基于视觉的多视点视频信号编码方法,其特征在于所述的步骤⑤中α1=6.27,β1=-0.10;α2=-2.75,β2=-52.10,γ2=18.3,ω2=4.17;α3=-0.05,β3=-6.57,γ3=3.21;μ=0.08。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110069318 CN102158712B (zh) | 2011-03-22 | 2011-03-22 | 一种基于视觉的多视点视频信号编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110069318 CN102158712B (zh) | 2011-03-22 | 2011-03-22 | 一种基于视觉的多视点视频信号编码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102158712A CN102158712A (zh) | 2011-08-17 |
CN102158712B true CN102158712B (zh) | 2012-10-24 |
Family
ID=44439852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110069318 Expired - Fee Related CN102158712B (zh) | 2011-03-22 | 2011-03-22 | 一种基于视觉的多视点视频信号编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102158712B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102957903A (zh) * | 2011-08-24 | 2013-03-06 | 赵翔 | 基于3g网络通讯的照片和视频低失真压缩传输方法 |
CN102438167B (zh) * | 2011-10-21 | 2014-03-12 | 宁波大学 | 一种基于深度图像绘制的立体视频编码方法 |
CN102769749B (zh) * | 2012-06-29 | 2015-03-18 | 宁波大学 | 一种深度图像的后处理方法 |
US10075689B2 (en) | 2012-07-04 | 2018-09-11 | Intel Corporation | Region-of-interest based 3D video coding |
CN104427291B (zh) * | 2013-08-19 | 2018-09-28 | 华为技术有限公司 | 一种图像处理方法及设备 |
CN104052992B (zh) * | 2014-06-09 | 2018-02-27 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN106462771A (zh) * | 2016-08-05 | 2017-02-22 | 深圳大学 | 一种3d图像的显著性检测方法 |
CN106331674B (zh) * | 2016-08-23 | 2018-05-15 | 深圳市捷视飞通科技股份有限公司 | 基于图像稀疏特征的立体视频显示方法及装置 |
CN109922343A (zh) * | 2019-04-12 | 2019-06-21 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 一种从少量用户眼动数据提取显著性进行视频压缩的方法 |
CN110251076B (zh) * | 2019-06-21 | 2021-10-22 | 安徽大学 | 融合视觉注意力基于对比度的显著性检测方法及装置 |
CN110213587A (zh) * | 2019-07-08 | 2019-09-06 | 北京达佳互联信息技术有限公司 | 视频编码方法、装置、电子设备及存储介质 |
CN114827622A (zh) * | 2021-01-19 | 2022-07-29 | 华为技术有限公司 | 分层编解码的方法及装置 |
CN114079779B (zh) * | 2022-01-12 | 2022-05-17 | 深圳传音控股股份有限公司 | 图像处理方法、智能终端及存储介质 |
CN115314722B (zh) * | 2022-06-17 | 2023-12-08 | 百果园技术(新加坡)有限公司 | 一种视频码率分配方法、系统、设备及存储介质 |
CN115604477B (zh) * | 2022-12-14 | 2023-03-31 | 广州波视信息科技股份有限公司 | 一种超高清视频失真优化编码方法 |
CN117615148B (zh) * | 2024-01-24 | 2024-04-05 | 华中科技大学 | 一种基于多尺度框架的端到端特征图分层压缩方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7397851B2 (en) * | 2001-05-10 | 2008-07-08 | Roman Kendyl A | Separate plane compression |
CN101533512B (zh) * | 2009-04-24 | 2012-05-09 | 西安电子科技大学 | 基于人类视觉注意系统的图像感兴趣区域自动提取方法 |
CN101986716B (zh) * | 2010-11-05 | 2012-07-04 | 宁波大学 | 一种快速深度视频编码方法 |
-
2011
- 2011-03-22 CN CN 201110069318 patent/CN102158712B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102158712A (zh) | 2011-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102158712B (zh) | 一种基于视觉的多视点视频信号编码方法 | |
EP3669333B1 (en) | Sequential encoding and decoding of volymetric video | |
US9094660B2 (en) | Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video | |
US9525858B2 (en) | Depth or disparity map upscaling | |
CN104469386B (zh) | 一种基于dof的恰可察觉误差模型的感知立体视频编码方法 | |
WO2018119808A1 (zh) | 一种基于3d卷积神经网络的立体视频生成方法 | |
CN105469375B (zh) | 处理高动态范围全景图的方法和装置 | |
CN110852964A (zh) | 一种基于深度学习的图像比特增强方法 | |
CN103024402B (zh) | 一种自由视点视频整帧丢失错误隐藏方法 | |
EP2979449B1 (en) | Enhancing motion pictures with accurate motion information | |
CN107240147B (zh) | 图像渲染方法及系统 | |
WO2022268181A1 (zh) | 视频增强处理方法、装置、电子设备和存储介质 | |
CN105306954A (zh) | 一种基于视差最小可察觉误差模型的感知立体视频编码 | |
CN103024381A (zh) | 一种基于恰可察觉失真的宏块模式快速选择方法 | |
Lu et al. | A survey on multiview video synthesis and editing | |
CN107509074B (zh) | 基于压缩感知的自适应3d视频压缩编解码方法 | |
CN103826135B (zh) | 基于恰可识别视差错误估计的三维视频深度图编码方法 | |
Jammal et al. | Multiview video quality enhancement without depth information | |
WO2023133888A1 (zh) | 图像处理方法、装置、遥控设备、系统及存储介质 | |
CN105141967A (zh) | 基于恰可觉察失真模型的快速自适应环路滤波算法 | |
Xiang et al. | Auto-regressive model based error concealment scheme for stereoscopic video coding | |
CN112819707B (zh) | 一种端到端抗块效应低照度图像增强方法 | |
Gao et al. | Occupancy-assisted attribute artifact reduction for video-based point cloud compression | |
Ali et al. | Depth image-based spatial error concealment for 3-D video transmission | |
CN107770511A (zh) | 一种多视点视频的编解码方法、装置和相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121024 Termination date: 20200322 |
|
CF01 | Termination of patent right due to non-payment of annual fee |