CN103237226A - 一种立体视频宏块丢失错误隐藏方法 - Google Patents

一种立体视频宏块丢失错误隐藏方法 Download PDF

Info

Publication number
CN103237226A
CN103237226A CN2013101172706A CN201310117270A CN103237226A CN 103237226 A CN103237226 A CN 103237226A CN 2013101172706 A CN2013101172706 A CN 2013101172706A CN 201310117270 A CN201310117270 A CN 201310117270A CN 103237226 A CN103237226 A CN 103237226A
Authority
CN
China
Prior art keywords
macro block
block
coordinate position
image
current lost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101172706A
Other languages
English (en)
Other versions
CN103237226B (zh
Inventor
蒋刚毅
孙越
陈芬
邵枫
彭宗举
王晓东
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310117270.6A priority Critical patent/CN103237226B/zh
Publication of CN103237226A publication Critical patent/CN103237226A/zh
Application granted granted Critical
Publication of CN103237226B publication Critical patent/CN103237226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种立体视频宏块丢失错误隐藏方法,其首先确定丢失宏块属于左边界遮挡区域或右边界遮挡区域还是属于非边界遮挡区域,然后对属于非边界遮挡区域的丢失宏块,根据宏块的运动与静止特性将其归为运动宏块或静止宏块,接着利用宏块的人眼敏感度特性将运动宏块归为敏感块或不敏感块,再利用宏块的纹理与平滑特性将敏感块归为纹理块或平滑块,对属于左边界遮挡区域或右边界遮挡区域的丢失宏块、静止宏块、不敏感块、纹理块、平滑块分别采用时域运动补偿预测、时域帧拷贝、视差补偿预测、多方向插值、线性插值的方式恢复丢失宏块,由于本发明方法根据不同特性的宏块采用自适应的恢复策略,因此有效地提高了恢复的宏块的主客观质量。

Description

一种立体视频宏块丢失错误隐藏方法
技术领域
本发明涉及一种视频错误隐藏方法,尤其是涉及一种立体视频宏块丢失错误隐藏方法。
背景技术
随着多媒体与网络技术的快速发展,视频技术正向立体化、数字化、网络化、高清晰度方向发展。与传统媒体相比,立体视频的突出优势在于它能够为大众创造更加直观真实的场景感受,提供更多样化全方位的媒体交互功能。因而,人们对立体视频系统开发与应用的需求也越来越迫切,如在数字立体电视、远程教育、远程工业控制、三维视频会议系统、虚拟现实系统、远程医疗、遥控机器人、自动导航、消费电子等诸多领域。
立体视频压缩通常是利用视差估计与补偿、运动估计与补偿、离散余弦变换、块量化以及变长编码来最大限度地降低立体视频信号在空间、时间、视点间的冗余,达到高效压缩。另一方面,高效压缩编码可能会降低视频传输中的容错能力。由于网络阻塞和信道扰动,立体视频码流的传输会不可避免地出现数据包丢失或部分比特出错,从而导致客户端解码出错并直接影响立体图像质量,这种情况在低码率立体视频码流传输中尤为明显。现有的立体视频错误隐藏方法主要集中在整帧丢失的情况,然而,整帧丢失时可用于错误恢复的信息少于部分宏块丢失时可用的信息,因而面向部分宏块丢失的错误隐藏方法在一定程度上有别于整帧丢失的错误隐藏方法。当解码帧中部分宏块丢失时,除时域相关性和视点间相关性可以用于错误隐藏外,还可以利用同一图像帧中丢失宏块周边正常解码重建宏块的信息对丢失宏块进行预测,并通过宏块边界匹配寻找与周围宏块纹理边缘匹配最佳的预测宏块,以达到较好的错误隐藏效果。就立体视频信号而言,对不同丢失宏块的类型采用单一的恢复方法不能取得较好的恢复效果。因此,需要根据丢失宏块的类型设计一种高效的恢复策略。而现有的立体视频部分宏块丢失错误隐藏方法并没有很好的考虑不同丢失宏块的不同特性信息,从而导致采用恢复策略不当,最终影响了丢失宏块的恢复质量。
发明内容
本发明所要解决的技术问题是提供一种立体视频宏块丢失错误隐藏方法,其能够有效地提高丢失宏块恢复的主观质量和客观质量。
本发明解决上述技术问题所采用的技术方案为:一种立体视频宏块丢失错误隐藏方法,其特征在于包括以下步骤:
①假设立体视频中t时刻的右视点图像为丢失帧,记为
Figure BDA00003014985100021
将立体视频中已正确解码的t-1时刻的右视点图像记为
Figure BDA00003014985100022
将立体视频中已正确解码的t-2时刻的右视点图像记为
Figure BDA00003014985100023
将立体视频中已正确解码的t时刻的左视点图像记为,将立体视频中已正确解码的t-1时刻的左视点图像记为
Figure BDA00003014985100024
②采用移动帧差法计算
Figure BDA00003014985100025
Figure BDA00003014985100026
之间的全局视差矢量,记为dG d G = arg min ( Σ ( x , y ) ∈ D | P t - 1 r ( x , y ) - P t - 1 l ( x + d , y ) | ( W - | d | ) × H ) , 其中, arg min ( Σ ( x , y ) ∈ D | P t - 1 r ( x , y ) - P t - 1 l ( x + d , y ) | ( W - | d | ) × H ) 表示
Figure BDA00003014985100029
取最小值时位移d的值,D表示
Figure BDA000030149851000210
中宽为W-|d|且高为H的窗口,符号“||”为取绝对值符号,此处1≤x≤W,1≤y≤H且(x,y)∈D,W表示立体视频中左视点图像和右视点图像的宽度,H表示立体视频中左视点图像和右视点图像的高度,
Figure BDA000030149851000211
表示
Figure BDA000030149851000212
中坐标位置为(x,y)的像素点的像素值,
Figure BDA000030149851000213
表示
Figure BDA000030149851000214
中坐标位置为(x+d,y)的像素点的像素值,-W/λ1≤d≤W/λ1,λ1表示位移d的判断阈值;
③将
Figure BDA000030149851000215
中从左边界起的宽度为C个宏块的宽度且高度为H的区域定义为左边界遮挡区域,将
Figure BDA000030149851000216
中从右边界起的宽度为C个宏块的宽度且高度为H的区域定义为右边界遮挡区域,将
Figure BDA000030149851000217
中除左边界遮挡区域和右边界遮挡区域外的区域定义为非边界遮挡区域,其中,
Figure BDA000030149851000218
符号
Figure BDA000030149851000219
为向下取整符号,符号“||”为取绝对值符号;
④将
Figure BDA000030149851000220
中当前检测到的丢失的宏块定义为当前丢失宏块;
⑤判断当前丢失宏块属于左边界遮挡区域或右边界遮挡区域还是属于非边界遮挡区域,如果属于左边界遮挡区域或右边界遮挡区域,则采用时域运动补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果属于非边界遮挡区域,则执行步骤⑥;
⑥根据dG中与当前丢失宏块的坐标位置相同的宏块进行水平位移,然后将中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块划分为多个互不重叠的第一图像块,接着确定
Figure BDA00003014985100033
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的每个第一图像块为静止块还是为运动块,再确定
Figure BDA00003014985100034
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为静止宏块还是为运动宏块;将
Figure BDA00003014985100035
中与当前丢失宏块的坐标位置相同的宏块划分为多个互不重叠的且尺寸大小与第一图像块相同的第二图像块,接着确定
Figure BDA00003014985100036
中与当前丢失宏块的坐标位置相同的宏块中的每个第二图像块为静止块还是为运动块,再确定
Figure BDA00003014985100037
中与当前丢失宏块的坐标位置相同的宏块为静止宏块还是为运动宏块;最后根据
Figure BDA00003014985100038
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块和
Figure BDA00003014985100039
中与当前丢失宏块的坐标位置相同的宏块,确定当前丢失宏块为静止宏块还是为运动宏块,如果当前丢失宏块为静止宏块,则采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,执行步骤⑦;
⑦获取
Figure BDA000030149851000310
的全局双目恰可觉察失真阈值图,记为JNDdr,然后根据JNDdr中的每个宏块中的所有像素点的全局双目恰可觉察失真阈值的均值,确定当前丢失宏块为不敏感块还是为敏感块,如果当前丢失宏块为不敏感块,则采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果当前丢失宏块为敏感块,然后执行步骤⑧;
⑧将当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块中已正确解码的宏块作为可用宏块,然后对每个可用宏块进行DCT变换得到每个可用宏块中的每个像素点的交流系数,接着根据每个可用宏块中的所有像素点的交流系数的总能量,计算每个可用宏块的图像细节程度评价因子,再根据每个可用宏块的图像细节程度评价因子,确定每个可用宏块为纹理块还是为平滑块,最后根据当前丢失宏块对应的可用宏块为纹理块的个数和为平滑块的个数,确定当前丢失宏块为纹理块还是为平滑块,如果当前丢失宏块为纹理块,则采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果当前丢失宏块为平滑块,则采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨;
⑨将
Figure BDA00003014985100041
中检测到的下一个丢失的宏块作为当前丢失宏块,然后返回步骤⑤继续执行,直至
Figure BDA00003014985100042
中的所有丢失的宏块的亮度信息和色度信息恢复完毕。
所述的步骤②中取λ1=5。
所述的步骤⑥的具体过程为:
⑥-1、根据dG,对
Figure BDA00003014985100043
中与当前丢失宏块的坐标位置相同的宏块进行水平位移,当dG>0时将
Figure BDA00003014985100044
中与当前丢失宏块的坐标位置相同的宏块向左水平位移GDB列像素,当dG≤0时将
Figure BDA00003014985100045
中与当前丢失宏块的坐标位置相同的宏块向右水平位移GDB列像素,得到
Figure BDA00003014985100046
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块,其中,
Figure BDA00003014985100047
符号
Figure BDA00003014985100048
为向下取整符号,符号“||”为取绝对值符号;
⑥-2、将中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块划分为个互不重叠的尺寸大小为M1×N1的第一图像块,其中,1<M1<16,1<N1<16;
⑥-3、将
Figure BDA000030149851000411
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中当前待处理的第一图像块定义为当前第一图像块;
⑥-4、在
Figure BDA000030149851000412
中以与当前第一图像块中的中心像素点的坐标位置相同的像素点为搜索中心,且以[-Δx1,Δx1]为水平方向搜索范围及[-Δy1,Δy1]为垂直方向搜索范围进行搜索,得到每次搜索对应的像素点的平均绝对误差,将在水平方向搜索范围[-Δx1,Δx1]和垂直方向搜索范围[-Δy1,Δy1]内偏移坐标位置为(i1,j1)的像素点的平均绝对误差记为MAD(i1,j1), MAD ( i 1 , j 1 ) = &Sigma; i 1 = - &Delta; x 1 &Delta; x 1 &Sigma; j 1 = - &Delta; y 1 &Delta; y 1 &Sigma; ( x 1 , y 1 ) &Element; D 1 | P t l ( x 1 , y 1 ) - P t - 1 l ( x 1 + i 1 , y 1 + j 1 ) | M 1 &times; N 1 , 其中,-Δx1≤i1≤Δx1,-Δy1≤j1≤Δy1,D1表示
Figure BDA000030149851000414
中以与当前第一图像块中的中心像素点的坐标位置相同的像素点为中心像素点且尺寸大小为M1×N1的窗口,此处1≤x1≤W,1≤y1≤H且(x1,y1)∈D1,符号“||”为取绝对值符号,
Figure BDA00003014985100051
表示
Figure BDA00003014985100052
中坐标位置为(x1,y1)的像素点的像素值,
Figure BDA00003014985100053
表示
Figure BDA00003014985100054
中坐标位置为(x1+i1,y1+j1)的像素点的像素值;
⑥-5、在步骤⑥-4中计算得到的在水平方向搜索范围[-Δx1,Δx1]和垂直方向搜索范围[-Δy1,Δy1]内的所有像素点的平均绝对误差中找出值最小的平均绝对误差,判断值最小的平均绝对误差对应的像素点是否为
Figure BDA00003014985100055
中与当前第一图像块中的中心像素点的坐标位置相同的像素点,如果是,则确定当前第一图像块为静止块,否则,确定当前第一图像块为运动块;
⑥-6、将中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中下一个待处理的第一图像块作为当前第一图像块,然后返回步骤⑥-4继续执行,直至
Figure BDA00003014985100057
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的所有第一图像块处理完毕;
⑥-7、判断
Figure BDA00003014985100058
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的所有第一图像块是否均为静止块,如果是,则确定
Figure BDA00003014985100059
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为静止宏块,否则,确定
Figure BDA000030149851000510
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为运动宏块;
⑥-8、将
Figure BDA000030149851000511
中与当前丢失宏块的坐标位置相同的宏块划分为
Figure BDA000030149851000512
个互不重叠的尺寸大小为M2×N2的第二图像块,其中,1<M2<16,1<N2<16;
⑥-9、将
Figure BDA000030149851000513
中与当前丢失宏块的坐标位置相同的宏块中当前待处理的第二图像块定义为当前第二图像块;
⑥-10、在
Figure BDA000030149851000514
中以与当前第二图像块中的中心像素点的坐标位置相同的像素点为搜索中心,且以[-Δx2,Δx2]为水平方向搜索范围及[-Δy2,Δy2]为垂直方向搜索范围进行搜索,得到每次搜索对应的像素点的平均绝对误差,将在水平方向搜索范围[-Δx2,Δx2]和垂直方向搜索范围[-Δy2,Δy2]内偏移坐标位置为(i2,j2)的像素点的平均绝对误差记为MAD(i2,j2), MAD ( i 2 , j 2 ) = &Sigma; i 2 = - &Delta; x 2 &Delta; x 2 &Sigma; j 2 = - &Delta; y 2 &Delta; y 2 &Sigma; ( x 2 , y 2 ) &Element; D 2 | P t - 1 r ( x 2 , y 2 ) - P t - 2 r ( x 2 + i 2 , y 2 + j 2 ) | M 2 &times; N 2 , 其中,-Δx2≤i2≤Δx2,-Δy2≤j2≤Δy2,D2表示
Figure BDA00003014985100062
中以与当前第二图像块中的中心像素点的坐标位置相同的像素点为中心像素点且尺寸大小为M2×N2的窗口,此处1≤x2≤W,1≤y2≤H且(x2,y2)∈D2,符号“||”为取绝对值符号,表示
Figure BDA00003014985100064
中坐标位置为(x2,y2)的像素点的像素值,表示
Figure BDA00003014985100066
中坐标位置为(x2+i2,y2+j2)的像素点的像素值;
⑥-11、在步骤⑥-10中计算得到的在水平方向搜索范围[-Δx2,Δx2]和垂直方向搜索范围[-Δy2,Δy2]内的所有像素点的平均绝对误差中找出值最小的平均绝对误差,判断值最小的平均绝对误差对应的像素点是否为
Figure BDA00003014985100067
中与当前第二图像块中的中心像素点的坐标位置相同的像素点,如果是,则确定当前第二图像块为静止块,否则,确定当前第二图像块为运动块;
⑥-12、将中与当前丢失宏块的坐标位置相同的宏块中下一个待处理的第二图像块作为当前第二图像块,然后返回步骤⑥-10继续执行,直至
Figure BDA00003014985100069
中与当前丢失宏块的坐标位置相同的宏块中的所有第二图像块处理完毕;
⑥-13、判断
Figure BDA000030149851000610
中与当前丢失宏块的坐标位置相同的宏块中的所有第二图像块是否均为静止块,如果是,则确定
Figure BDA000030149851000611
中与当前丢失宏块的坐标位置相同的宏块为静止宏块,否则,确定
Figure BDA000030149851000612
中与当前丢失宏块的坐标位置相同的宏块为运动宏块;
⑥-14、判断
Figure BDA000030149851000613
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块和中与当前丢失宏块的坐标位置相同的宏块是否均为静止宏块,如果是,则确定当前丢失宏块为静止宏块,然后采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为运动宏块,然后执行步骤⑦。
所述的步骤⑥-2中取M1=N1=8;所述的步骤⑥-8中取M2=N2=8。
所述的步骤⑥-4中取Δx1=16且Δy1=0;所述的步骤⑥-10中取Δx2=16且Δy2=0。
所述的步骤⑦的具体过程为:
⑦-1、获取的全局双目恰可觉察失真阈值图,记为JNDdr,将JNDdr中坐标位置为(x,y)的像素点的全局双目恰可觉察失真阈值记为BJNDdr(x,y), BJND dr ( x , y ) = T C , lim ( x , y ) &times; ( 1 - ( n l ( x , y ) T C , lim ( x , y ) ) &lambda; ) 1 / &lambda; , 其中,1≤x≤W,1≤y≤H,TC,lim(x,y)表示
Figure BDA00003014985100073
中坐标位置为(x,y)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(x,y)=TC(bg(x,y))+K(bg(x,y))×eh(x,y),TC(bg(x,y))表示左视点图像在给定bg(x,y)的情况下引发感知差异的最小噪声幅值,K(bg(x,y))表示依据主观实验结果建立的增大因子拟合函数,K(bg(x,y))=-10(-6)×(0.7×bg(x,y)2+32×bg(x,y))+0.07,bg(x,y)表示
Figure BDA00003014985100074
中坐标位置为(x,y)的像素点的背景亮度值,eh(x,y)表示
Figure BDA00003014985100075
中坐标位置为(x,y)的像素点的梯度值,nl(x,y)表示中坐标位置为(x,y)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数;
⑦-2、计算JNDdr中的每个宏块中的所有像素点的全局双目恰可觉察失真阈值的均值,并将JNDdr中与当前丢失宏块的坐标位置相同的宏块中的所有像素点的全局双目恰可觉察失真阈值的均值记为μ,然后计算JNDdr中的所有宏块对应的全局双目恰可觉察失真阈值的均值的平均值和标准差,分别记为μ1和σ1,再判断μ<μ1+σ1是否成立,如果成立,则确定当前丢失宏块为不敏感块,然后采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为敏感块,然后执行步骤⑧。
所述的步骤⑧的具体过程为:
⑧-1、检测当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块是否已正确解码,然后将当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块中已正确解码的宏块作为可用宏块;
⑧-2、对每个可用宏块进行DCT变换,得到每个可用宏块中的每个像素点的交流系数;
⑧-3、计算每个可用宏块中的所有像素点的交流系数的总能量,将第k个可用宏块中的所有像素点的交流系数的总能量记为EAC(k),其中,1≤k≤K,k的初始值为1,K表示当前丢失宏块对应的可用宏块的个数;
⑧-4、根据每个可用宏块中的所有像素点的交流系数的总能量,计算每个可用宏块的图像细节程度评价因子,将第k个可用宏块的图像细节程度评价因子记为TD(k),
Figure BDA00003014985100081
其中,ln()为以e为底的对数函数,e=2.7182818,EACmax表示当前丢失宏块对应的可用宏块中的所有像素点的交流系数的最大能量, E AC max = 16 &times; 16 2 &times; 255 2 - ( 16 &times; 16 ) &times; ( 255 2 ) 2 ;
⑧-5、根据每个可用宏块的图像细节程度评价因子,确定每个可用宏块为纹理块还是为平滑块,对于第k个可用宏块,判断TD(k)是否大于或等于设定的判断阈值TDT,如果是,则确定第k个可用宏块为纹理块,否则,确定第k个可用宏块为平滑块;
⑧-6、判断当前丢失宏块对应的可用宏块为纹理块的个数是否大于或等于为平滑块的个数,如果是,则确定当前丢失宏块为纹理块,然后采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为平滑块,然后采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨。
所述的步骤⑧-5中取TDT=0.78。
与现有技术相比,本发明的优点在于:其根据立体视频编码结构的特点以及立体视频序列时域、空域、视点间的相关性,首先确定丢失宏块属于左边界遮挡区域或右边界遮挡区域还是属于非边界遮挡区域,然后对于属于非边界遮挡区域的丢失宏块,根据丢失宏块的运动与静止特性将其归为运动宏块或静止宏块,接着利用宏块的人眼敏感度特性将归为运动宏块的丢失宏块归为敏感块或不敏感块,再利用宏块的纹理与平滑特性将归为敏感块的丢失宏块归为纹理块或平滑块,对属于左边界遮挡区域或右边界遮挡区域的丢失宏块、归为静止宏块的丢失宏块、归为不敏感块的丢失宏块、归为纹理块的丢失宏块、归为平滑块的丢失宏块分别采用时域运动补偿预测、时域帧拷贝、视差补偿预测、多方向插值、线性插值的方式恢复丢失宏块的亮度信息和色度信息,由于本发明方法根据不同特性的宏块采用自适应的恢复策略,因此有效地提高了恢复的宏块的主客观质量。
附图说明
图1为本发明方法处理的立体视频采用的IPPP立体视频预测编码结构的示意图;
图2为Akko序列中的宏块敏感特性时域相关性的实验结果;
图3为Door flowers序列中的宏块敏感特性时域相关性的实验结果;
图4为Rena序列中的宏块敏感特性时域相关性的实验结果
图5为Akko序列采用不同错误隐藏方法恢复的图像的PSNR性能逐帧比较曲线;
图6为Door flowers序列采用不同错误隐藏方法恢复的图像的PSNR性能逐帧比较曲线;
图7为Rena序列采用不同错误隐藏方法恢复的图像的PSNR性能逐帧比较曲线;
图8a为Akko序列右视点第16帧正确解码(40.44dB)的主观效果图;
图8b为Akko序列右视点第16帧发生宏块丢失且丢失率为10%(16.78dB)的主观效果图;
图8c为Akko序列右视点第16帧经Xiang’s方法恢复得到的图像(37.58dB)的主观效果图;
图8d为Akko序列右视点第16帧经DCP方法恢复得到的图像(37.42dB)的主观效果图;
图8e为Akko序列右视点第16帧经MVE方法恢复得到的图像(30.66dB)的主观效果图;
图8f为Akko序列右视点第16帧经本发明方法恢复得到的图像(38.88dB)的主观效果图;
图9a为图8a的局部放大主观效果图;
图9b为图8b的局部放大主观效果图;
图9c为图8c的局部放大主观效果图;
图9d为图8d的局部放大主观效果图;
图9e为图8e的局部放大主观效果图;
图9f为图8f的局部放大主观效果图;
图10a为Door flowers序列右视点第35帧正确解码(39.95dB)的主观效果图;
图10b为Door flowers序列右视点第35帧发生宏块丢失且丢失率为10%(17.41dB)的主观效果图;
图10c为Door flowers序列右视点第35帧经Xiang’s方法恢复得到的图像(38.46dB)的主观效果图;
图10d为Door flowers序列右视点第35帧经DCP方法恢复得到的图像(37.66dB)的主观效果图;
图10e为Door flowers序列右视点第35帧经MVE方法恢复得到的图像(38.02dB)的主观效果图;
图10f为Door flowers序列右视点第35帧经本发明方法恢复得到的图像(39.25dB)的主观效果图;
图11a为图10a的局部放大主观效果图一;
图11b为图10b的局部放大主观效果图一;
图11c为图10c的局部放大主观效果图一;
图11d为图10d的局部放大主观效果图一;
图11e为图10e的局部放大主观效果图一;
图11f为图10f的局部放大主观效果图一;
图12a为图10a的局部放大主观效果图二;
图12b为图10b的局部放大主观效果图二;
图12c为图10c的局部放大主观效果图二;
图12d为图10d的局部放大主观效果图二;
图12e为图10e的局部放大主观效果图二;
图12f为图10f的局部放大主观效果图二。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体视频宏块丢失错误隐藏方法,其从立体视频序列的编码特点以及视频序列时域、空域、视点间视频图像信息区域特征的相似性考虑,假设右视点某一时刻帧部分图像丢失即部分宏块丢失,首先对丢失宏块的遮挡特性、运动与静止特性、敏感特性以及纹理与平滑特性进行分析;然后根据丢失宏块不同的特性,分别采用时域运动补偿预测、视差补偿预测或空域插值的方式恢复丢失宏块的亮度信息和色度信息。为了与单视点视频服务保持兼容,图1给出了本发明方法的立体视频编码结构中的左视点视频序列采用基于H.264的编码标准进行独立压缩编码,右视点视频序列采用联合运动补偿预测(MCP,motion compensation prediction)和视差补偿预测(DCP,disparitycompensation prediction)的编码结构,而视差补偿预测在单通道的编码中是不存在的,这是立体视频编码的重要特征。该结构(IPPP立体视频预测编码结构)中既利用了运动补偿消除视点内的编码冗余,又采用了视差补偿消除视点间的编码冗余。
本发明的立体视频宏块丢失错误隐藏方法具体包括以下步骤:
①假设立体视频中t时刻的右视点图像为丢失帧,记为
Figure BDA00003014985100101
将立体视频中已正确解码的t-1时刻的右视点图像记为
Figure BDA00003014985100111
将立体视频中已正确解码的t-2时刻的右视点图像记为
Figure BDA00003014985100112
将立体视频中已正确解码的t时刻的左视点图像记为将立体视频中已正确解码的t-1时刻的左视点图像记为
Figure BDA00003014985100114
②采用现有的移动帧差法计算
Figure BDA00003014985100115
之间的全局视差矢量,记为dG d G = arg min ( &Sigma; ( x , y ) &Element; D | P t - 1 r ( x , y ) - P t - 1 l ( x + d , y ) | ( W - | d | ) &times; H ) , 其中, arg min ( &Sigma; ( x , y ) &Element; D | P t - 1 r ( x , y ) - P t - 1 l ( x + d , y ) | ( W - | d | ) &times; H ) 表示
Figure BDA00003014985100119
取最小值时位移d的值,D表示
Figure BDA000030149851001110
中宽为W-|d|且高为H的窗口,符号“||”为取绝对值符号,此处1≤x≤W,1≤y≤H且(x,y)∈D,W表示立体视频中左视点图像和右视点图像的宽度,H表示立体视频中左视点图像和右视点图像的高度,
Figure BDA000030149851001111
表示
Figure BDA000030149851001112
中坐标位置为(x,y)的像素点的像素值,表示
Figure BDA000030149851001114
中坐标位置为(x+d,y)的像素点的像素值,-W/λ1≤d≤W/λ1,λ1表示位移d的判断阈值,在本实施例中,取λ1=5。
③将
Figure BDA000030149851001115
中从左边界起的宽度为C个宏块的宽度且高度为H的区域定义为左边界遮挡区域,将
Figure BDA000030149851001116
中从右边界起的宽度为C个宏块的宽度且高度为H的区域定义为右边界遮挡区域,将中除左边界遮挡区域和右边界遮挡区域外的区域定义为非边界遮挡区域,其中,符号
Figure BDA000030149851001119
为向下取整符号,符号“||”为取绝对值符号。
④将
Figure BDA000030149851001120
中当前检测到的丢失的宏块定义为当前丢失宏块。
⑤判断当前丢失宏块属于左边界遮挡区域或右边界遮挡区域还是属于非边界遮挡区域,如果属于左边界遮挡区域或右边界遮挡区域,则采用时域运动补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果属于非边界遮挡区域,则执行步骤⑥。
在此,采用时域运动补偿预测方法恢复当前丢失宏块的亮度信息和色度信息的过程为:将
Figure BDA000030149851001121
中与当前丢失宏块的坐标位置相同的宏块的运动矢量作为当前丢失宏块的运动矢量来恢复当前丢失宏块的亮度信息和色度信息,其中,运动补偿预测的水平方向搜索范围为[-Δx4,Δx4],且垂直方向搜索范围为[-Δy4,Δy4],在具体实施过程中取Δx4=16,Δy4=16。
⑥根据dG
Figure BDA00003014985100121
中与当前丢失宏块的坐标位置相同的宏块进行水平位移,然后将
Figure BDA00003014985100122
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块划分为多个互不重叠的第一图像块,接着确定
Figure BDA00003014985100123
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的每个第一图像块为静止块还是为运动块,再确定
Figure BDA00003014985100124
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为静止宏块还是为运动宏块;将
Figure BDA00003014985100125
中与当前丢失宏块的坐标位置相同的宏块划分为多个互不重叠的且尺寸大小与第一图像块相同的第二图像块,接着确定
Figure BDA00003014985100126
中与当前丢失宏块的坐标位置相同的宏块中的每个第二图像块为静止块还是为运动块,再确定中与当前丢失宏块的坐标位置相同的宏块为静止宏块还是为运动宏块;最后根据中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块和
Figure BDA00003014985100129
中与当前丢失宏块的坐标位置相同的宏块,确定当前丢失宏块为静止宏块还是为运动宏块,如果当前丢失宏块为静止宏块,则采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,执行步骤⑦。
在此具体实施例中,步骤⑥的具体过程为:
⑥-1、根据dG,对
Figure BDA000030149851001210
中与当前丢失宏块的坐标位置相同的宏块进行水平位移,当dG>0时将
Figure BDA000030149851001211
中与当前丢失宏块的坐标位置相同的宏块向左水平位移GDB列像素,当dG≤0时将
Figure BDA000030149851001212
中与当前丢失宏块的坐标位置相同的宏块向右水平位移GDB列像素,得到
Figure BDA000030149851001213
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块,其中,
Figure BDA000030149851001214
符号
Figure BDA000030149851001215
为向下取整符号,符号“||”为取绝对值符号。
⑥-2、将
Figure BDA000030149851001216
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块划分为
Figure BDA000030149851001217
个互不重叠的尺寸大小为M1×N1的第一图像块,其中,1<M1<16,1<N1<16,在此取M1=N1=8。
⑥-3、将
Figure BDA00003014985100131
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中当前待处理的第一图像块定义为当前第一图像块。
⑥-4、在中以与当前第一图像块中的中心像素点的坐标位置相同的像素点为搜索中心,且以[-Δx1,Δx1]为水平方向搜索范围及[-Δy1,Δy1]为垂直方向搜索范围进行搜索,得到每次搜索对应的像素点的平均绝对误差,将在水平方向搜索范围[-Δx1,Δx1]和垂直方向搜索范围[-Δy1,Δy1]内偏移坐标位置为(i1,j1)的像素点的平均绝对误差记为MAD(i1,j1), MAD ( i 1 , j 1 ) = &Sigma; i 1 = - &Delta; x 1 &Delta; x 1 &Sigma; j 1 = - &Delta; y 1 &Delta; y 1 &Sigma; ( x 1 , y 1 ) &Element; D 1 | P t l ( x 1 , y 1 ) - P t - 1 l ( x 1 + i 1 , y 1 + j 1 ) | M 1 &times; N 1 , 其中,-Δx1≤i1≤Δx1,-Δy1≤j1≤Δy1,D1表示中以与当前第一图像块中的中心像素点的坐标位置相同的像素点为中心像素点且尺寸大小为M1×N1的窗口,此处1≤x1≤W,1≤y1≤H且(x1,y1)∈D1,符号“||”为取绝对值符号,
Figure BDA00003014985100135
表示
Figure BDA00003014985100136
中坐标位置为(x1,y1)的像素点的像素值,表示中坐标位置为(x1+i1,y1+j1)的像素点的像素值,即表示中与当前第一图像块中坐标位置为(x1,y1)的像素点对应的横坐标偏移i1且纵坐标偏移j1后的坐标位置为(x1+i1,y1+j1)的像素点的像素值。
在此,取Δx1=16,Δy1=0。
⑥-5、在步骤⑥-4中计算得到的在水平方向搜索范围[-Δx1,Δx1]和垂直方向搜索范围[-Δy1,Δy1]内的所有像素点的平均绝对误差中找出值最小的平均绝对误差,判断值最小的平均绝对误差对应的像素点是否为
Figure BDA000030149851001310
中与当前第一图像块中的中心像素点的坐标位置相同的像素点,如果是,则确定当前第一图像块为静止块,否则,确定当前第一图像块为运动块。
⑥-6、将
Figure BDA000030149851001311
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中下一个待处理的第一图像块作为当前第一图像块,然后返回步骤⑥-4继续执行,直至
Figure BDA00003014985100141
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的所有第一图像块处理完毕。
⑥-7、判断
Figure BDA00003014985100142
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的所有第一图像块是否均为静止块,如果是,则确定
Figure BDA00003014985100143
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为静止宏块,否则,即
Figure BDA00003014985100144
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中至少有一个第一图像块为运动块,确定
Figure BDA00003014985100145
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为运动宏块。
⑥-8、将
Figure BDA00003014985100146
中与当前丢失宏块的坐标位置相同的宏块划分为
Figure BDA00003014985100147
个互不重叠的尺寸大小为M2×N2的第二图像块,其中,1<M2<16,1<N2<16,在此取M2=N2=8。
⑥-9、将
Figure BDA00003014985100148
中与当前丢失宏块的坐标位置相同的宏块中当前待处理的第二图像块定义为当前第二图像块。
⑥-10、在
Figure BDA00003014985100149
中以与当前第二图像块中的中心像素点的坐标位置相同的像素点为搜索中心,且以[-Δx2,Δx2]为水平方向搜索范围及[-Δy2,Δy2]为垂直方向搜索范围进行搜索,得到每次搜索对应的像素点的平均绝对误差,将在水平方向搜索范围[-Δx2,Δx2]和垂直方向搜索范围[-Δy2,Δy2]内偏移坐标位置为(i2,j2)的像素点的平均绝对误差记为MAD(i2,j2), MAD ( i 2 , j 2 ) = &Sigma; i 2 = - &Delta; x 2 &Delta; x 2 &Sigma; j 2 = - &Delta; y 2 &Delta; y 2 &Sigma; ( x 2 , y 2 ) &Element; D 2 | P t - 1 r ( x 2 , y 2 ) - P t - 2 r ( x 2 + i 2 , y 2 + j 2 ) | M 2 &times; N 2 , 其中,-Δx2≤i2≤Δx2,-Δy2≤j2≤Δy2,D2表示
Figure BDA000030149851001411
中以与当前第二图像块中的中心像素点的坐标位置相同的像素点为中心像素点且尺寸大小为M2×N2的窗口,此处1≤x2≤W,1≤y2≤H且(x2,y2)∈D2,符号“||”为取绝对值符号,
Figure BDA000030149851001412
表示
Figure BDA000030149851001413
中坐标位置为(x2,y2)的像素点的像素值,
Figure BDA000030149851001414
表示
Figure BDA000030149851001415
中坐标位置为(x2+i2,y2+j2)的像素点的像素值,即表示
Figure BDA000030149851001416
中与当前第二图像块中坐标位置为(x2,y2)的像素点对应的横坐标偏移i2且纵坐标偏移j2后的坐标位置为(x2+i2,y2+j2)的像素点的像素值。
在此,取Δx2=16,Δy2=0。
⑥-11、在步骤⑥-10中计算得到的在水平方向搜索范围[-Δx2,Δx2]和垂直方向搜索范围[-Δy2,Δy2]内的所有像素点的平均绝对误差中找出值最小的平均绝对误差,判断值最小的平均绝对误差对应的像素点是否为
Figure BDA00003014985100151
中与当前第二图像块中的中心像素点的坐标位置相同的像素点,如果是,则确定当前第二图像块为静止块,否则,确定当前第二图像块为运动块。
⑥-12、将
Figure BDA00003014985100152
中与当前丢失宏块的坐标位置相同的宏块中下一个待处理的第二图像块作为当前第二图像块,然后返回步骤⑥-10继续执行,直至
Figure BDA00003014985100153
中与当前丢失宏块的坐标位置相同的宏块中的所有第二图像块处理完毕。
⑥-13、判断
Figure BDA00003014985100154
中与当前丢失宏块的坐标位置相同的宏块中的所有第二图像块是否均为静止块,如果是,则确定
Figure BDA00003014985100155
中与当前丢失宏块的坐标位置相同的宏块为静止宏块,否则,即中与当前丢失宏块的坐标位置相同的宏块中至少有一个第二图像块为运动块,确定
Figure BDA00003014985100157
中与当前丢失宏块的坐标位置相同的宏块为运动宏块.
⑥-14、判断
Figure BDA00003014985100158
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块和
Figure BDA00003014985100159
中与当前丢失宏块的坐标位置相同的宏块是否均为静止宏块,如果是,则确定当前丢失宏块为静止宏块,然后采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为运动宏块,然后执行步骤⑦。
在本实施例中,取M1=N1=M2=N2=8,实验表明,若以尺寸大小为4×4的图像块为单位判断图像块为运动块还是为静止块,则会因为图像块的尺寸较小,图像块包含的有效信息不多,而出现大量的误匹配,导致运动块判断不准确;而若以尺寸大小为16×16的图像块为单位判断图像块为运动块还是为静止块,又可能会因为图像块内变化区域比例较低导致运动块被误判为静止块。因此,本发明方法以折中的尺寸大小为8×8(即M1=N1=M2=N2=8)的图像块为单位判断图像块为运动块还是为静止块。
在本实施例中,采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息的过程为:直接将
Figure BDA00003014985100161
中与当前丢失宏块的坐标位置相同的宏块的亮度信息和色度信息作为当前丢失宏块的亮度信息和色度信息。
⑦获取
Figure BDA00003014985100162
的全局双目恰可觉察失真阈值图,记为JNDdr,然后根据JNDdr中的每个宏块中的所有像素点的全局双目恰可觉察失真阈值的均值,确定当前丢失宏块为不敏感块还是为敏感块,如果当前丢失宏块为不敏感块,则采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果当前丢失宏块为敏感块,然后执行步骤⑧。
⑦-1、获取
Figure BDA00003014985100168
的全局双目恰可觉察失真阈值图,记为JNDdr,将JNDdr中坐标位置为(x,y)的像素点的全局双目恰可觉察失真阈值记为BJNDdr(x,y), BJND dr ( x , y ) = T C , lim ( x , y ) &times; ( 1 - ( n l ( x , y ) T C , lim ( x , y ) ) &lambda; ) 1 / &lambda; , 其中,1≤x≤W,1≤y≤H,TC,lim(x,y)表示
Figure BDA00003014985100164
中坐标位置为(x,y)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(x,y)=TC(bg(x,y))+K(bg(x,y))×eh(x,y),TC(bg(x,y))表示左视点图像在给定bg(x,y)的情况下引发感知差异的最小噪声幅值,K(bg(x,y))表示依据主观实验结果建立的增大因子拟合函数,K(bg(x,y))=-10(-6)×(0.7×bg(x,y)2+32×bg(x,y))+0.07,bg(x,y)表示
Figure BDA00003014985100165
中坐标位置为(x,y)的像素点的背景亮度值,eh(x,y)表示
Figure BDA00003014985100166
中坐标位置为(x,y)的像素点的梯度值,nl(x,y)表示
Figure BDA00003014985100167
中坐标位置为(x,y)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数,在本实施例中取λ=1。
⑦-2、计算JNDdr中的每个宏块中的所有像素点的全局双目恰可觉察失真阈值的均值,并将JNDdr中与当前丢失宏块的坐标位置相同的宏块中的所有像素点的全局双目恰可觉察失真阈值的均值记为μ,然后计算JNDdr中的所有宏块对应的全局双目恰可觉察失真阈值的均值的平均值和标准差,分别记为μ1和σ1,再判断μ<μ1+σ1是否成立,如果成立,则确定当前丢失宏块为不敏感块,然后采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为敏感块,然后执行步骤⑧。
在本实施例中,采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息的过程为:将
Figure BDA00003014985100171
中与当前丢失宏块的坐标位置相同的宏块的视差矢量作为当前丢失宏块的视差矢量,并按照视差矢量将
Figure BDA00003014985100172
中与当前丢失宏块的坐标位置相同的宏块的亮度信息和色度信息作为当前丢失宏块的亮度信息和色度信息,其中,视差补偿预测的水平方向搜索范围为[-Δx3,Δx3],且垂直方向搜索范围为[-Δy3,Δy3],在具体实施过程中取Δx3=48,Δy3=2。
在本实施例中,分别对Akko序列(分辨率为640×480)、Doorflowers序列(分辨率为512×384)和Rena序列(分辨率为640×480)中的宏块进行敏感特性时域相关性分析实验,实验结果分别如图2、图3和图4所示。从图2中可以看出,Akko序列相邻时刻帧中,至少88.1%以上的宏块的敏感程度是一样的;从图3中可以看出,Door_flowers序列邻时刻帧中,至少95.3%以上的宏块的敏感程度是一样的;从图4中可以看出,Rena序列相邻时刻帧中,至少94.7%以上的宏块的敏感程度是一样的。可见,立体视频右视点图像中宏块的敏感程度具有很强的时域相关性,因此本实施例中直接把丢失宏块前一时刻对应位置宏块的敏感度特性作为当前丢失宏块的敏感度特性。
⑧将当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块中已正确解码的宏块作为可用宏块,然后对每个可用宏块进行DCT变换得到每个可用宏块中的每个像素点的交流系数,接着根据每个可用宏块中的所有像素点的交流系数的总能量,计算每个可用宏块的图像细节程度评价因子,再根据每个可用宏块的图像细节程度评价因子,确定每个可用宏块为纹理块还是为平滑块,最后根据当前丢失宏块对应的可用宏块为纹理块的个数和为平滑块的个数,确定当前丢失宏块为纹理块还是为平滑块,如果当前丢失宏块为纹理块,则采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果当前丢失宏块为平滑块,则采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨。
⑧-1、检测当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块是否已正确解码,然后将当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块中已正确解码的宏块作为可用宏块。在此,当前宏块的上相邻宏块为位于当前宏块上方的宏块,当前宏块的下相邻宏块为位于当前宏块下方的宏块,当前宏块的左相邻宏块为位于当前宏块左方的宏块,当前宏块的右相邻宏块为位于当前宏块右方的宏块,即如果当前宏块的坐标位置为(p,q),则当前宏块的上相邻宏块的坐标位置为(p,q-1),当前宏块的下相邻宏块的坐标位置为(p,q+1),当前宏块的左相邻宏块的坐标位置为(p-1,q),当前宏块的右相邻宏块的坐标位置为(p+1,q),其中,
⑧-2、对每个可用宏块进行DCT变换,得到每个可用宏块中的每个像素点的交流系数。
⑧-3、计算每个可用宏块中的所有像素点的交流系数的总能量,将第k个可用宏块中的所有像素点的交流系数的总能量记为EAC(k),其中,1≤k≤K,k的初始值为1,K表示当前丢失宏块对应的可用宏块的个数。
⑧-4、根据每个可用宏块中的所有像素点的交流系数的总能量,计算每个可用宏块的图像细节程度评价因子,将第k个可用宏块的图像细节程度评价因子记为TD(k),其中,ln()为以e为底的对数函数,e=2.7182818,EACmax表示当前丢失宏块对应的可用宏块中的所有像素点的交流系数的最大能量, E AC max = 16 &times; 16 2 &times; 255 2 - ( 16 &times; 16 ) &times; ( 255 2 ) 2 .
⑧-5、根据每个可用宏块的图像细节程度评价因子,确定每个可用宏块为纹理块还是为平滑块,对于第k个可用宏块,判断TD(k)是否大于或等于设定的判断阈值TDT,如果是,则确定第k个可用宏块为纹理块,否则,确定第k个可用宏块为平滑块,在本实施例中,取TDT=0.78。
⑧-6、判断当前丢失宏块对应的可用宏块为纹理块的个数是否大于或等于为平滑块的个数,如果是,则确定当前丢失宏块为纹理块,然后采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为平滑块,然后采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨。
在此,采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息的过程为:先通过Sobel算子判断可靠的插值方向,然后将可靠的插值方向以梯度值作为权重进行加权平均。
在此,采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息的过程为:将水平方向和垂直方向作为插值方向,然后将水平方向和垂直方向插值像素点与受损像素点的水平距离、垂直距离分别作为水平方向和垂直方向插值像素点的权重进行加权平均。
⑨将
Figure BDA00003014985100191
中检测到的下一个丢失的宏块作为当前丢失宏块,然后返回步骤⑤继续执行,直至
Figure BDA00003014985100192
中的所有丢失的宏块的亮度信息和色度信息恢复完毕。
为了说明本发明方法的有效性,本实施例在基于H.264/AVC的立体视频校验平台JM8.6上构建基于图1所示的IPPP立体视频预测编码结构。测试序列采用分辨率为640×480的Akko序列、分辨率为512×384的Doorflowers序列和分辨率为640×480的Rena序列。实验中,编码量化参数QP分别取为22、27、32和37。为了说明本发明方法的有效性,本发明方法分别与Xiang等人提出的错误隐藏方法(Xiang’s方法)、视差补偿预测方法(DCP方法)、运动矢量外推方法(MVE方法)进行比较。
由于丢失宏块在一帧中的位置分布,会直接影响到错误隐藏的效果,因此在实验中对每一帧进行10次宏块丢失实验,取10次实验的平均值作为当前测试帧的PSNR值。图5给出了QP为27、宏块丢失率为10%时,Akko序列分别采用本发明方法、Xiang’s方法、DCP方法、MVE方法恢复得到的Akko序列的错误隐藏性能曲线及正确解码时的性能曲线,图6给出了QP为27、宏块丢失率为10%时,Doorflowers序列分别采用本发明方法、Xiang’s方法、DCP方法、MVE方法恢复得到的Doorflowers序列的错误隐藏性能曲线及正确解码时的性能曲线,图7给出了QP为27、宏块丢失率为10%时,Rena序列分别采用本发明方法、Xiang’s方法、DCP方法、MVE方法恢复得到的Rena序列的错误隐藏性能曲线及正确解码时的性能曲线。从图5、图6和图7中可以看出,对于Akko序列和Doorflowers序列,经DCP方法恢复得到的图像比利用MVE方法恢复得到的图像的PSNR值平均分别提高了约4.7dB和1.3dB,Xiang’s方法恢复得到的图像比DCP方法恢复得到的图像的PSNR值平均分别提高了约1.0dB和0.50dB,而采用本发明方法恢复得到的图像比利用Xiang’s方法恢复得到的图像的PSNR值平均分别提高了约0.81dB和0.64dB。对于Rena序列,当Rena序列中运动对象运动缓慢或者静止时,采用MVE方法求取的运动矢量较为准确,此时采用MVE方法恢复得到的图像的效果要好于采用DCP方法恢复得到的图像的效果,但运动较为剧烈或纹理复杂时,MVE方法的恢复结果较差,但从总体来看,对于Rena序列MVE方法恢复结果的PSNR值分别比Xiang’s方法、DCP方法恢复结果的PSNR值平均低0.95dB和2.14dB,而本发明方法充分考虑了宏块的特性,对运动缓慢和运动剧烈的视频图像都能取得较好的效果,对于Rena序列本发明方法恢复结果的PSNR值相比于Xiang’s方法恢复结果的PSNR值平均提高了约0.31dB。
本实施例随机选取Akko序列第16帧、Rena序列第214帧和Doorflowers序列第35帧在同一QP不同丢包率以及相同丢包率不同QP下分别采用Xiang’s方法、DCP方法、MVE方法和本发明方法在客观质量PSNR上进行对比,结果如表1和表2所列。从表1和表2中可知,本发明方法在同一QP不同丢包率以及相同丢包率不同QP下均取得了较好的结果。
表1不同宏块丢失率下丢失帧恢复后的平均PSNR值比较
表2不同QP值下丢失帧恢复后的平均PSNR值比较
为了更加有效地说明本发明方法的有效性,本实施例给出了QP为27、宏块丢失率为10%时,Akko序列右视点第16帧图像、Door flowers序列右视点第35帧图像在各错误隐藏方法下的主观质量比较结果。
图8a、图8b、图8c、图8d、图8e、图8f分别给出了Akko序列右视点第16帧正确解码(40.44dB)的主观效果图、发生宏块丢失且丢失率为10%(16.78dB)的主观效果图、经Xiang’s方法恢复得到的图像(37.58dB)的主观效果图、经DCP方法恢复得到的图像(37.42dB)的主观效果图、经MVE方法恢复得到的图像(30.66dB)的主观效果图、经本发明方法恢复得到的图像(38.88dB)的主观效果图,图9a、图9b、图9c、图9d、图9e、图9f分别对应给出了图8a、图8b、图8c、图8d、图8e、图8f的局部放大主观效果图。
图10a、图10b、图10c、图10d、图10e、图10f分别给出了Door flowers序列右视点第35帧正确解码(39.95dB)的主观效果图、发生宏块丢失且丢失率为10%(17.41dB)的主观效果图、经Xiang’s方法恢复得到的图像(38.46dB)的主观效果图、经DCP方法恢复得到的图像(37.66dB)的主观效果图、经MVE方法恢复得到的图像(38.02dB)的主观效果图、经本发明方法恢复得到的图像(39.25dB)的主观效果图,图11a、图11b、图11c、图11d、图11e、图11f分别对应给出了图10a、图10b、图10c、图10d、图10e、图10f的局部放大主观效果图一,图12a、图12b、图12c、图12d、图12e、图12f分别对应给出了图10a、图10b、图10c、图10d、图10e、图10f的局部放大主观效果图二。
从图8a至图12f中可以看出,采用MVE方法和DCP方法存在由于运动矢量和视差矢量求取不准确而导致的误匹配的问题,影响了立体视频的主观观看效果;Xiang’s方法采用重叠块方法重建丢失宏块时会造成宏块局部信息模糊,而本发明方法充分考虑了丢失宏块的特点,自适应的采用最佳的恢复方法对丢失宏块的亮度信息和色度信息进行恢复。本发明方法针对视频序列图像中丢失的运动对象部分以及静止对象部分都恢复出了较好的视频图像质量,主客观效果明显好于Xiang’s方法、MVE方法和DCP方法恢复得到的图像。
本发明方法有效利用了立体视频序列的编码特点以及视频序列时域、空域、视点间视频图像信息区域特征的相似性,提高了丢失帧恢复的主客观质量。

Claims (8)

1.一种立体视频宏块丢失错误隐藏方法,其特征在于包括以下步骤:
①假设立体视频中t时刻的右视点图像为丢失帧,记为
Figure FDA00003014985000011
将立体视频中已正确解码的t-1时刻的右视点图像记为
Figure FDA00003014985000012
将立体视频中已正确解码的t-2时刻的右视点图像记为将立体视频中已正确解码的t时刻的左视点图像记为
Figure FDA00003014985000014
将立体视频中已正确解码的t-1时刻的左视点图像记为
Figure FDA00003014985000015
②采用移动帧差法计算
Figure FDA00003014985000016
Figure FDA00003014985000017
之间的全局视差矢量,记为dG d G = arg min ( &Sigma; ( x , y ) &Element; D | P t - 1 r ( x , y ) - P t - 1 l ( x + d , y ) | ( W - | d | ) &times; H ) , 其中, arg min ( &Sigma; ( x , y ) &Element; D | P t - 1 r ( x , y ) - P t - 1 l ( x + d , y ) | ( W - | d | ) &times; H ) 表示
Figure FDA000030149850000110
取最小值时位移d的值,D表示中宽为W-|d|且高为H的窗口,符号“||”为取绝对值符号,此处1≤x≤W,1≤y≤H且(x,y)∈D,W表示立体视频中左视点图像和右视点图像的宽度,H表示立体视频中左视点图像和右视点图像的高度,
Figure FDA000030149850000112
表示
Figure FDA000030149850000113
中坐标位置为(x,y)的像素点的像素值,
Figure FDA000030149850000114
表示
Figure FDA000030149850000115
中坐标位置为(x+d,y)的像素点的像素值,-W/λ1≤d≤W/λ1,λ1表示位移d的判断阈值;
③将
Figure FDA000030149850000116
中从左边界起的宽度为C个宏块的宽度且高度为H的区域定义为左边界遮挡区域,将
Figure FDA000030149850000117
中从右边界起的宽度为C个宏块的宽度且高度为H的区域定义为右边界遮挡区域,将
Figure FDA000030149850000118
中除左边界遮挡区域和右边界遮挡区域外的区域定义为非边界遮挡区域,其中,
Figure FDA000030149850000119
符号
Figure FDA000030149850000120
为向下取整符号,符号“||”为取绝对值符号;
④将
Figure FDA000030149850000121
中当前检测到的丢失的宏块定义为当前丢失宏块;
⑤判断当前丢失宏块属于左边界遮挡区域或右边界遮挡区域还是属于非边界遮挡区域,如果属于左边界遮挡区域或右边界遮挡区域,则采用时域运动补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果属于非边界遮挡区域,则执行步骤⑥;
⑥根据dG中与当前丢失宏块的坐标位置相同的宏块进行水平位移,然后将
Figure FDA00003014985000022
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块划分为多个互不重叠的第一图像块,接着确定
Figure FDA00003014985000023
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的每个第一图像块为静止块还是为运动块,再确定
Figure FDA00003014985000024
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为静止宏块还是为运动宏块;将
Figure FDA00003014985000025
中与当前丢失宏块的坐标位置相同的宏块划分为多个互不重叠的且尺寸大小与第一图像块相同的第二图像块,接着确定
Figure FDA00003014985000026
中与当前丢失宏块的坐标位置相同的宏块中的每个第二图像块为静止块还是为运动块,再确定
Figure FDA00003014985000027
中与当前丢失宏块的坐标位置相同的宏块为静止宏块还是为运动宏块;最后根据
Figure FDA00003014985000028
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块和
Figure FDA00003014985000029
中与当前丢失宏块的坐标位置相同的宏块,确定当前丢失宏块为静止宏块还是为运动宏块,如果当前丢失宏块为静止宏块,则采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,执行步骤⑦;
⑦获取
Figure FDA000030149850000210
的全局双目恰可觉察失真阈值图,记为JNDdr,然后根据JNDdr中的每个宏块中的所有像素点的全局双目恰可觉察失真阈值的均值,确定当前丢失宏块为不敏感块还是为敏感块,如果当前丢失宏块为不敏感块,则采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果当前丢失宏块为敏感块,然后执行步骤⑧;
⑧将当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块中已正确解码的宏块作为可用宏块,然后对每个可用宏块进行DCT变换得到每个可用宏块中的每个像素点的交流系数,接着根据每个可用宏块中的所有像素点的交流系数的总能量,计算每个可用宏块的图像细节程度评价因子,再根据每个可用宏块的图像细节程度评价因子,确定每个可用宏块为纹理块还是为平滑块,最后根据当前丢失宏块对应的可用宏块为纹理块的个数和为平滑块的个数,确定当前丢失宏块为纹理块还是为平滑块,如果当前丢失宏块为纹理块,则采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨,如果当前丢失宏块为平滑块,则采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息,然后执行步骤⑨;
⑨将
Figure FDA000030149850000211
中检测到的下一个丢失的宏块作为当前丢失宏块,然后返回步骤⑤继续执行,直至
Figure FDA00003014985000031
中的所有丢失的宏块的亮度信息和色度信息恢复完毕。
2.根据权利要求1所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤②中取λ1=5。
3.根据权利要求1或2所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤⑥的具体过程为:
⑥-1、根据dG,对
Figure FDA00003014985000032
中与当前丢失宏块的坐标位置相同的宏块进行水平位移,当dG>0时将
Figure FDA00003014985000033
中与当前丢失宏块的坐标位置相同的宏块向左水平位移GDB列像素,当dG≤0时将
Figure FDA000030149850000313
中与当前丢失宏块的坐标位置相同的宏块向右水平位移GDB列像素,得到中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块,其中,
Figure FDA00003014985000035
符号
Figure FDA00003014985000036
为向下取整符号,符号“||”为取绝对值符号;
⑥-2、将
Figure FDA00003014985000037
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块划分为
Figure FDA00003014985000038
个互不重叠的尺寸大小为M1×N1的第一图像块,其中,1<M1<16,1<N1<16;
⑥-3、将
Figure FDA00003014985000039
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中当前待处理的第一图像块定义为当前第一图像块;
⑥-4、在
Figure FDA000030149850000310
中以与当前第一图像块中的中心像素点的坐标位置相同的像素点为搜索中心,且以[-Δx1,Δx1]为水平方向搜索范围及[-Δy1,Δy1]为垂直方向搜索范围进行搜索,得到每次搜索对应的像素点的平均绝对误差,将在水平方向搜索范围[-Δx1,Δx1]和垂直方向搜索范围[-Δy1,Δy1]内偏移坐标位置为(i1,j1)的像素点的平均绝对误差记为MAD(i1,j1), MAD ( i 1 , j 1 ) = &Sigma; i 1 = - &Delta; x 1 &Delta; x 1 &Sigma; j 1 = - &Delta; y 1 &Delta; y 1 &Sigma; ( x 1 , y 1 ) &Element; D 1 | P t l ( x 1 , y 1 ) - P t - 1 l ( x 1 + i 1 , y 1 + j 1 ) | M 1 &times; N 1 , 其中,-Δx1≤i1≤Δx1,-Δy1≤j1≤Δy1,D1表示
Figure FDA000030149850000312
中以与当前第一图像块中的中心像素点的坐标位置相同的像素点为中心像素点且尺寸大小为M1×N1的窗口,此处1≤x1≤W,1≤y1≤H且(x1,y1)∈D1,符号“||”为取绝对值符号,
Figure FDA00003014985000041
表示
Figure FDA00003014985000042
中坐标位置为(x1,y1)的像素点的像素值,
Figure FDA00003014985000043
表示
Figure FDA00003014985000044
中坐标位置为(x1+i1,y1+j1)的像素点的像素值;
⑥-5、在步骤⑥-4中计算得到的在水平方向搜索范围[-Δx1,Δx1]和垂直方向搜索范围[-Δy1,Δy1]内的所有像素点的平均绝对误差中找出值最小的平均绝对误差,判断值最小的平均绝对误差对应的像素点是否为
Figure FDA00003014985000045
中与当前第一图像块中的中心像素点的坐标位置相同的像素点,如果是,则确定当前第一图像块为静止块,否则,确定当前第一图像块为运动块;
⑥-6、将
Figure FDA00003014985000046
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中下一个待处理的第一图像块作为当前第一图像块,然后返回步骤⑥-4继续执行,直至
Figure FDA00003014985000047
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的所有第一图像块处理完毕;
⑥-7、判断
Figure FDA00003014985000048
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块中的所有第一图像块是否均为静止块,如果是,则确定
Figure FDA00003014985000049
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为静止宏块,否则,确定
Figure FDA000030149850000410
中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块为运动宏块;
⑥-8、将
Figure FDA000030149850000411
中与当前丢失宏块的坐标位置相同的宏块划分为
Figure FDA000030149850000412
个互不重叠的尺寸大小为M2×N2的第二图像块,其中,1<M2<16,1<N2<16;
⑥-9、将
Figure FDA000030149850000413
中与当前丢失宏块的坐标位置相同的宏块中当前待处理的第二图像块定义为当前第二图像块;
⑥-10、在
Figure FDA000030149850000414
中以与当前第二图像块中的中心像素点的坐标位置相同的像素点为搜索中心,且以[-Δx2,Δx2]为水平方向搜索范围及[-Δy2,Δy2]为垂直方向搜索范围进行搜索,得到每次搜索对应的像素点的平均绝对误差,将在水平方向搜索范围[-Δx2,Δx2]和垂直方向搜索范围[-Δy2,Δy2]内偏移坐标位置为(i2,j2)的像素点的平均绝对误差记为MAD(i2,j2), MAD ( i 2 , j 2 ) = &Sigma; i 2 = - &Delta; x 2 &Delta; x 2 &Sigma; j 2 = - &Delta; y 2 &Delta; y 2 &Sigma; ( x 2 , y 2 ) &Element; D 2 | P t - 1 r ( x 2 , y 2 ) - P t - 2 r ( x 2 + i 2 , y 2 + j 2 ) | M 2 &times; N 2 , 其中,-Δx2≤i2≤Δx2,-Δy2≤j2≤Δy2,D2表示中以与当前第二图像块中的中心像素点的坐标位置相同的像素点为中心像素点且尺寸大小为M2×N2的窗口,此处1≤x2≤W,1≤y2≤H且(x2,y2)∈D2,符号“||”为取绝对值符号,
Figure FDA00003014985000053
表示
Figure FDA00003014985000054
中坐标位置为(x2,y2)的像素点的像素值,表示
Figure FDA00003014985000056
中坐标位置为(x2+i2,y2+j2)的像素点的像素值;
⑥-11、在步骤⑥-10中计算得到的在水平方向搜索范围[-Δx2,Δx2]和垂直方向搜索范围[-Δy2,Δy2]内的所有像素点的平均绝对误差中找出值最小的平均绝对误差,判断值最小的平均绝对误差对应的像素点是否为
Figure FDA00003014985000057
中与当前第二图像块中的中心像素点的坐标位置相同的像素点,如果是,则确定当前第二图像块为静止块,否则,确定当前第二图像块为运动块;
⑥-12、将
Figure FDA00003014985000058
中与当前丢失宏块的坐标位置相同的宏块中下一个待处理的第二图像块作为当前第二图像块,然后返回步骤⑥-10继续执行,直至
Figure FDA00003014985000059
中与当前丢失宏块的坐标位置相同的宏块中的所有第二图像块处理完毕;
⑥-13、判断
Figure FDA000030149850000510
中与当前丢失宏块的坐标位置相同的宏块中的所有第二图像块是否均为静止块,如果是,则确定
Figure FDA000030149850000511
中与当前丢失宏块的坐标位置相同的宏块为静止宏块,否则,确定
Figure FDA000030149850000512
中与当前丢失宏块的坐标位置相同的宏块为运动宏块;
⑥-14、判断中与当前丢失宏块的坐标位置相同的宏块经水平位移后的宏块和
Figure FDA000030149850000514
中与当前丢失宏块的坐标位置相同的宏块是否均为静止宏块,如果是,则确定当前丢失宏块为静止宏块,然后采用时域帧拷贝的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为运动宏块,然后执行步骤⑦。
4.根据权利要求3所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤⑥-2中取M1=N1=8;所述的步骤⑥-8中取M2=N2=8。
5.根据权利要求4所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤⑥-4中取Δx1=16且Δy1=0;所述的步骤⑥-10中取Δx2=16且Δy2=0。
6.根据权利要求5所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤⑦的具体过程为:
⑦-1、获取
Figure FDA00003014985000066
的全局双目恰可觉察失真阈值图,记为JNDdr,将JNDdr中坐标位置为(x,y)的像素点的全局双目恰可觉察失真阈值记为BJNDdr(x,y), BJND dr ( x , y ) = T C , lim ( x , y ) &times; ( 1 - ( n l ( x , y ) T C , lim ( x , y ) ) &lambda; ) 1 / &lambda; , 其中,1≤x≤W,1≤y≤H,TC,lim(x,y)表示
Figure FDA00003014985000062
中坐标位置为(x,y)的像素点的对比度掩蔽效应的最大失真阈值,TC,lim(x,y)=TC(bg(x,y))+K(bg(x,y))×eh(x,y),TC(bg(x,y))表示左视点图像在给定bg(x,y)的情况下引发感知差异的最小噪声幅值,K(bg(x,y))表示依据主观实验结果建立的增大因子拟合函数,K(bg(x,y))=-10(-6)×(0.7×bg(x,y)2+32×bg(x,y))+0.07,bg(x,y)表示
Figure FDA00003014985000063
中坐标位置为(x,y)的像素点的背景亮度值,eh(x,y)表示中坐标位置为(x,y)的像素点的梯度值,nl(x,y)表示
Figure FDA00003014985000065
中坐标位置为(x,y)的像素点上的噪声幅值,λ为控制主观亮度掩蔽对实验结果影响的参数;
⑦-2、计算JNDdr中的每个宏块中的所有像素点的全局双目恰可觉察失真阈值的均值,并将JNDdr中与当前丢失宏块的坐标位置相同的宏块中的所有像素点的全局双目恰可觉察失真阈值的均值记为μ,然后计算JNDdr中的所有宏块对应的全局双目恰可觉察失真阈值的均值的平均值和标准差,分别记为μ1和σ1,再判断μ<μ1+σ1是否成立,如果成立,则确定当前丢失宏块为不敏感块,然后采用视差补偿预测方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为敏感块,然后执行步骤⑧。
7.根据权利要求6所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤⑧的具体过程为:
⑧-1、检测当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块是否已正确解码,然后将当前丢失宏块的上相邻宏块、下相邻宏块、左相邻宏块和右相邻宏块中已正确解码的宏块作为可用宏块;
⑧-2、对每个可用宏块进行DCT变换,得到每个可用宏块中的每个像素点的交流系数;
⑧-3、计算每个可用宏块中的所有像素点的交流系数的总能量,将第k个可用宏块中的所有像素点的交流系数的总能量记为EAC(k),其中,1≤k≤K,k的初始值为1,K表示当前丢失宏块对应的可用宏块的个数;
⑧-4、根据每个可用宏块中的所有像素点的交流系数的总能量,计算每个可用宏块的图像细节程度评价因子,将第k个可用宏块的图像细节程度评价因子记为TD(k),
Figure FDA00003014985000071
其中,ln()为以e为底的对数函数,e=2.7182818,EACmax表示当前丢失宏块对应的可用宏块中的所有像素点的交流系数的最大能量, E AC max = 16 &times; 16 2 &times; 255 2 - ( 16 &times; 16 ) &times; ( 255 2 ) 2 ;
⑧-5、根据每个可用宏块的图像细节程度评价因子,确定每个可用宏块为纹理块还是为平滑块,对于第k个可用宏块,判断TD(k)是否大于或等于设定的判断阈值TDT,如果是,则确定第k个可用宏块为纹理块,否则,确定第k个可用宏块为平滑块;
⑧-6、判断当前丢失宏块对应的可用宏块为纹理块的个数是否大于或等于为平滑块的个数,如果是,则确定当前丢失宏块为纹理块,然后采用空域多方向插值的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨,否则,确定当前丢失宏块为平滑块,然后采用空域线性插值的方法恢复当前丢失宏块的亮度信息和色度信息,再执行步骤⑨。
8.根据权利要求7所述的一种立体视频宏块丢失错误隐藏方法,其特征在于所述的步骤⑧-5中取TDT=0.78。
CN201310117270.6A 2013-04-07 2013-04-07 一种立体视频宏块丢失错误隐藏方法 Active CN103237226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310117270.6A CN103237226B (zh) 2013-04-07 2013-04-07 一种立体视频宏块丢失错误隐藏方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310117270.6A CN103237226B (zh) 2013-04-07 2013-04-07 一种立体视频宏块丢失错误隐藏方法

Publications (2)

Publication Number Publication Date
CN103237226A true CN103237226A (zh) 2013-08-07
CN103237226B CN103237226B (zh) 2016-08-03

Family

ID=48885238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310117270.6A Active CN103237226B (zh) 2013-04-07 2013-04-07 一种立体视频宏块丢失错误隐藏方法

Country Status (1)

Country Link
CN (1) CN103237226B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015131323A1 (en) * 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Block flipping and skip mode in intra block copy prediction
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
CN107241609A (zh) * 2017-07-21 2017-10-10 东华大学 基于梯度特征统计与非迭代收缩填充的空域错误隐藏方法
CN107888931A (zh) * 2017-11-28 2018-04-06 上海大学 一种利用视频统计特征预测差错敏感度的方法
CN109285146A (zh) * 2018-08-30 2019-01-29 南京邮电大学 基于恰可觉察失真的全参考图像质量评价方法
CN109819230A (zh) * 2019-01-28 2019-05-28 杭州电子科技大学 一种基于hevc标准的立体三维视频错误隐藏方法
CN110062219A (zh) * 2019-03-12 2019-07-26 杭州电子科技大学 结合虚拟视点绘制3d-hevc整帧丢失错误隐藏方法
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US10469863B2 (en) 2014-01-03 2019-11-05 Microsoft Technology Licensing, Llc Block vector prediction in video and image coding/decoding
US10506254B2 (en) 2013-10-14 2019-12-10 Microsoft Technology Licensing, Llc Features of base color index map mode for video and image coding and decoding
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
US10582213B2 (en) 2013-10-14 2020-03-03 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
CN111182313A (zh) * 2019-12-20 2020-05-19 东华大学 一种面向通用空域错误隐藏的自适应混合填充方法
US10659783B2 (en) 2015-06-09 2020-05-19 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
US10785486B2 (en) 2014-06-19 2020-09-22 Microsoft Technology Licensing, Llc Unified intra block copy and inter prediction modes
US10812817B2 (en) 2014-09-30 2020-10-20 Microsoft Technology Licensing, Llc Rules for intra-picture prediction modes when wavefront parallel processing is enabled
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
US11109036B2 (en) 2013-10-14 2021-08-31 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107682705B (zh) * 2017-09-26 2020-05-12 杭州电子科技大学 基于mv-hevc框架的立体视频b帧错误隐藏方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1455596A (zh) * 2003-03-03 2003-11-12 西南交通大学 基于运动向量外推及运动向量搜索的视频差错掩盖方法
CN101707721A (zh) * 2009-09-25 2010-05-12 南京邮电大学 基于模糊推理的自适应空域差错掩盖方法
CN102307304A (zh) * 2011-09-16 2012-01-04 北京航空航天大学 基于图像分割的立体视频右图像整帧丢失的错误隐藏方法
CN102595145A (zh) * 2012-03-13 2012-07-18 宁波大学 一种立体视频整帧丢失错误隐藏方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1455596A (zh) * 2003-03-03 2003-11-12 西南交通大学 基于运动向量外推及运动向量搜索的视频差错掩盖方法
CN101707721A (zh) * 2009-09-25 2010-05-12 南京邮电大学 基于模糊推理的自适应空域差错掩盖方法
CN102307304A (zh) * 2011-09-16 2012-01-04 北京航空航天大学 基于图像分割的立体视频右图像整帧丢失的错误隐藏方法
CN102595145A (zh) * 2012-03-13 2012-07-18 宁波大学 一种立体视频整帧丢失错误隐藏方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GUIJIN TANG,ET AL: "Error concealment for stereoscopic images using boundary smooth degree", 《COMMUNICATIONS, 2009. APCC 2009. 15TH ASIA-PACIFIC CONFERENCE ON》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10582213B2 (en) 2013-10-14 2020-03-03 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
US11109036B2 (en) 2013-10-14 2021-08-31 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
US10506254B2 (en) 2013-10-14 2019-12-10 Microsoft Technology Licensing, Llc Features of base color index map mode for video and image coding and decoding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US10469863B2 (en) 2014-01-03 2019-11-05 Microsoft Technology Licensing, Llc Block vector prediction in video and image coding/decoding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
WO2015131323A1 (en) * 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Block flipping and skip mode in intra block copy prediction
US10368091B2 (en) 2014-03-04 2019-07-30 Microsoft Technology Licensing, Llc Block flipping and skip mode in intra block copy prediction
US10785486B2 (en) 2014-06-19 2020-09-22 Microsoft Technology Licensing, Llc Unified intra block copy and inter prediction modes
US10812817B2 (en) 2014-09-30 2020-10-20 Microsoft Technology Licensing, Llc Rules for intra-picture prediction modes when wavefront parallel processing is enabled
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
US10659783B2 (en) 2015-06-09 2020-05-19 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
CN107241609A (zh) * 2017-07-21 2017-10-10 东华大学 基于梯度特征统计与非迭代收缩填充的空域错误隐藏方法
CN107888931B (zh) * 2017-11-28 2020-03-17 上海大学 一种利用视频统计特征预测差错敏感度的方法
CN107888931A (zh) * 2017-11-28 2018-04-06 上海大学 一种利用视频统计特征预测差错敏感度的方法
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN109285146A (zh) * 2018-08-30 2019-01-29 南京邮电大学 基于恰可觉察失真的全参考图像质量评价方法
CN109819230B (zh) * 2019-01-28 2020-08-25 杭州电子科技大学 一种基于hevc标准的立体三维视频错误隐藏方法
CN109819230A (zh) * 2019-01-28 2019-05-28 杭州电子科技大学 一种基于hevc标准的立体三维视频错误隐藏方法
CN110062219A (zh) * 2019-03-12 2019-07-26 杭州电子科技大学 结合虚拟视点绘制3d-hevc整帧丢失错误隐藏方法
CN110062219B (zh) * 2019-03-12 2020-11-06 杭州电子科技大学 结合虚拟视点绘制3d-hevc整帧丢失错误隐藏方法
CN111182313A (zh) * 2019-12-20 2020-05-19 东华大学 一种面向通用空域错误隐藏的自适应混合填充方法

Also Published As

Publication number Publication date
CN103237226B (zh) 2016-08-03

Similar Documents

Publication Publication Date Title
CN103237226B (zh) 一种立体视频宏块丢失错误隐藏方法
CN102595145B (zh) 一种立体视频整帧丢失错误隐藏方法
CN104602028B (zh) 一种立体视频b帧整帧丢失错误隐藏方法
Wang et al. Frame rate up-conversion using trilateral filtering
RU2518435C2 (ru) Оптимизация кодера в системах доставки стереоскопического видео
RU2480941C2 (ru) Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
CN106341677B (zh) 虚拟视点视频质量评价方法
EP2458865A2 (en) Apparatuses for image coding and decoding
CN102572446B (zh) 一种多视点视频整帧丢失错误隐藏方法
CN102724525B (zh) 一种基于中心凹恰可觉察失真模型的深度视频编码方法
CN107241607B (zh) 一种基于多域jnd模型的视觉感知编码方法
US9451233B2 (en) Methods and arrangements for 3D scene representation
KR20100008677A (ko) 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법및 다시점 비디오의 인코딩 방법
CN105306954B (zh) 一种基于视差最小可察觉误差模型的感知立体视频编码
CN101986716A (zh) 一种快速深度视频编码方法
CN103024402A (zh) 一种自由视点视频整帧丢失错误隐藏方法
US20130128979A1 (en) Video signal compression coding
Zhu et al. Spatial error concealment for stereoscopic video coding based on pixel matching
KR20040070892A (ko) 영상 블록 분할 방법 및 그 장치
Fu et al. Temporal consistency enhancement on depth sequences
Ku et al. Bit allocation based on visual saliency in HEVC
CN104243974B (zh) 一种基于三维离散余弦变换的立体视频质量客观评价方法
CN103220533A (zh) 一种立体视频宏块丢失错误隐藏方法
CN108668135A (zh) 一种基于人眼感知的立体视频b帧错误隐藏方法
CN101370145B (zh) 图像帧的掩盖方法与装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant