CN107864380A - 基于dct的3d‑hevc快速帧内预测决策方法 - Google Patents
基于dct的3d‑hevc快速帧内预测决策方法 Download PDFInfo
- Publication number
- CN107864380A CN107864380A CN201711337701.4A CN201711337701A CN107864380A CN 107864380 A CN107864380 A CN 107864380A CN 201711337701 A CN201711337701 A CN 201711337701A CN 107864380 A CN107864380 A CN 107864380A
- Authority
- CN
- China
- Prior art keywords
- block
- prediction
- coefficient
- dct
- prediction block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000001502 supplementing effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 abstract description 2
- 238000003786 synthesis reaction Methods 0.000 abstract description 2
- 230000010354 integration Effects 0.000 abstract 1
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/625—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于DCT的3D‑HEVC快速帧内预测决策方法。本发明首先利用DCT公式计算当前预测块的DCT矩阵,然后对当前系数块的左上角系数和进一步对右下角系数进行判断是否具有边缘,最后通过是否具有边缘判定是否要将DMMs加入帧内预测模式候选列表。本发明在3D‑HEVC中引入了深度图实现更好的视图合成,3D视频编码扩展开发联合协作组针对深度图帧内预测编码提出了4中新的针对深度图帧内预测模式DMMs。DCT具有能量聚集的特性,故在3D‑HEVC深度图编码过程中可以明显区分编码块是否具有边缘。本发明具有计算复杂度低、编码时间短和视频重建效果好的特点。
Description
技术领域
本发明涉及视频编码领域,具体是一种基于DCT的3D-HEVC快速帧内预测决策方法。
背景技术
在过去几年里,随着3D视频服务需求的增加,3D视频的展现、压缩和传输成为一个新的有挑战的研究课题。多视角加深度图(MVD)的视频格式是多种有发展前景的视频表现形式中的一种。由3D视频编码扩展开发联合协作组(JCT-3V)提出的高质量视频编码的3D扩展(3D-HEVC)是对于压缩MVD数据的一种新兴视频编码标准。
由于深度图具有尖锐的边缘和大量接近平滑的区域,故深度图编码和纹理图编码具有很大的差异性。如果使用传统的纹理图帧内预测模式对深度图进行编码,这将导致边缘的失真以及整体合成效果不好。因此,JCT提出了4种新的针对深度图帧内预测模式DMMs,分别是一个跳跃模式和三个新的预测模式Intra Single、Intra Wedge和Intra Contour模式。
帧内预测的步骤是1.遍历所有的预测模式,得到各种模式下的残差信号,再对残差信号进行Hadamard变换计算SATD值,2.利用SATD值计算每种预测模式的率失真代价,选取率失真代价最小的几种模式为预测模式集,3.将已编码相邻块的预测模式补充到预测模式集中,4.遍历模式集合中的所有模式,并对残差信号进行熵编码,计算率失真代价,5.选取最优的预测模式作为该预测块的最优模式,6.当亮度块的模式选定后,把该模式以及DC、planars、水平方向、垂直方向模式作为色度块的候选列表,选取最优模式。而对于深度图编码已经有了原来35种纹理图预测模式又加入了新的DMMs的帧内预测,这样在选择最优的几种模式中将很大程度增加编码的计算复杂度和编码时间。
离散余弦变换(DCT)是与傅立叶变换相关的一种变换,其中II类DCT经常被用在信号和图像处理,特别是有损压缩,因为它具有很强的“能量集中”属性。对于灰度值缓慢变化的像素块来说,经过DCT后绝大部分能量集中在左上角的低频系数中;相反,如果像素块中包含较多细节纹理信息,则较多能量分散在高频区域。虽然随着变换尺寸的增大,DCT去相关性能越来越好,但是提升幅度逐渐变缓,因为余弦函数的存在使得DCT过程必须使用浮点数,这样不可避免地带来舍入误差。针对上述问题,从H.264/AVC标准开始采用整数DCT,整型数的使用使得DCT的运行速度大为提高。H.265/HEVC使用了4种不同尺寸的整数DCT,分别为4*4、8*8、16*16和32*32。
参考文献:
[1]Tech G,Chen Y,Müller K,et al.Overview of the Multiview and3DExtensions of High Efficiency Video Coding[J].IEEE Transactions on Circuits&Systems for Video Technology,2016,26(1):35-49.
[2]Gu Z,Zheng J,Ling N,et al.Fast Depth Modeling Mode selection for3D HEVC depth intra coding[C]//IEEE International Conference on Multimediaand Expo Workshops.IEEE,2013:1-4.
[3]Zhang Q,Yang Y,Chang H,et al.Fast intra mode decision for depthcoding in 3D-HEVC[J].Multidimensional Systems&Signal Processing,2016:1-24.
发明内容
本发明的目的是鉴于图像DCT矩阵左上角和右下角的能量分布对深度图帧内预测模式选取的重要性,提出一种基于DCT的3D-HEVC快速帧内预测决策方法,该方法将视频中的一帧图像进行DCT变换,对生成的DCT矩阵选点判断。该方法具有计算复杂度低、编码时间短和视频重建效果好的特点。
为了实现上述目的,本发明的技术方案包括如下步骤:
步骤1.基于3D-HEVC,在进行预测块划分后,首先得到该预测块在35种传统帧内预测模式下的残差信号,再对残差信号进行Hadamard变换计算SATD值,并利用SATD值计算每种传统预测模式的率失真代价;
步骤2.对不同大小的PU块,利用整数DCT公式计算当前预测块的DCT系数矩阵,保存为一个矩阵;
步骤3.若当前预测块尺寸为4*4、8*8大小,则对当前系数块的左上角系数进行判断,首先判断最左边的块系数,再判断上面的块系数,若某个块系数小于阈值则直接判断该预测块具有边缘,并且跳转步骤5,若所有块系数大于阈值,则直接判断该预测块没有边缘,并且跳转步骤5;若当前预测块尺寸为16*16、32*32大小,则对当前系数块的左上角系数进行判断,若某个块系数小于阈值则直接判断该预测块具有边缘,并且跳转步骤5,若所有块系数都大于阈值,则继续判断右下角系数是否为零,跳转步骤4;
步骤4.若当前预测块为16*16大小,则只对当前系数块的右下角系数中的坐标的系数进行判断:若该系数不是零则直接判断该预测块具有边缘,跳转步骤5,若该系数为零则认为该预测块没有边缘,继续下一步计算;若当前预测块为32*32大小,则对当前系数块的右下角系数进行判断:首先判断最右下角的块系数是否为零,再判断另外两个系数块是否为零,若某个块系数不是零则直接判断该预测块具有边缘,跳转步骤5,若所有块都是全零系数块,则认为该预测块没有边缘,继续下一步计算;
步骤5.若预测块没有边缘则不计算该预测块在DMMs下所有模式的率失真代价,反之则计算该预测块在DMMs下所有模式的率失真代价,并将DMMs模式加入预测候选列表;
步骤6.从预测候选列表中选取率失真代价最小的几种模式为预测模式集,并且将当前预测块的已编码相邻块的预测模式补充到预测模式集中,得到最终的预测模式集合rd-cost;
步骤7.遍历预测模式集合rd-cost中的所有模式,并对每个预测模式的残差信号进行熵编码,并且计算每个预测模式下的率失真代价RD-Cost;从预测模式集合rd-cost中的所有模式中选取率失真代价最小的预测模式,即最优的帧内预测模式作为该预测块中亮度块选取的最优模式,并保存最优模式的所有数据;通过得到当前预测块的最优帧内预测模式对当前预测块进行变换、量化;
步骤8.当预测块中亮度块选取的最优模式式选定后,把该最优模式以及传统帧内预测模式种的DC、planars、水平方向、垂直方向模式作为预测块中色度块的候选列表,同样遍历预测模式候选列表,计算预测模式候选列表中每个预测模式的率失真代价,选取率失真代价最小的预测模式,即最优的帧内预测模式作为色度块的最优模式;通过得到的最优帧内预测模式对当前预测块进行变换、量化;
步骤9.继续下一个预测块的帧内预测。
步骤1所述的具体实现如下:
Hadamard矩阵:
SATD是指将残差信号进行Hadamard变换后再求各元素绝对值之和,设某残差信号方阵为X,则SATD为:
其中,M为方阵的大小,H为归一化的M*M Hadamard矩阵;
率失真代价=SATD+λ*ModeBits
其中,λ由限定码率ModeBits预测编码单元的量化参数映射关系确定。
步骤2所述的整数DCT公式如下:
其中,
H.265/HEVC使用了4种不同尺寸的整数DCT,分别为4*4、8*8、16*16和32*32;所述的H.265/HEVC中4*4、8*8、16*16和32*32整数DCT公式为:
其中:X为该预测块的像素矩阵,E为缩放比例
H16和H32变换矩阵参见H.265/HEVC标准;整数DCT对当前PU块进行DCT转换,生成一个DCT系数矩阵。
步骤3所述的左上角系数判断是否大于阈值varThreshold,具体如下:
threshold=max((pcCU→getP(0))>>3)-1,3); (1)
varThreshold=threshold*threshold-8; (2)
其中,pcCU→getQP(0)表示获得当前预测模块的量化参数值;
如果大于阈值,则判断DCT系数矩阵右下角系数是否为0,否则就判断该预测块有边缘。
本发明的有益效果如下:
本发明使用DCT应用于三维视频编码,利用DCT方法判断在深度图编码下DMMs是否要加入候选列表,并且在视频码率基本不变的情况下有效的减少了编码时间,避免了计算冗余模式,减少计算量。DCT具有“能量集中”的特性,并且能够很好地区分图像边缘。同时整数DCT矩阵保留了更多的精度,更接近于浮点DCT,能够获得更好的性能,H.265/HEVC不同大小的变换较为统一,利用这一特性,可为不同大小的整数DCT设计出具有统一形式的快速蝶形算法,大幅提高了预测块像素矩阵转变为DCT系数矩阵的速度。
附图说明
图1是本发明流程图。
图2是DCT系数矩阵及其左上角和右下角选择系数点。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1-2所示,基于DCT的3D-HEVC快速帧内预测决策方法,具体包括如下步骤:
步骤1.基于3D-HEVC,在进行预测块(PU)划分后,首先得到该预测块在35种传统帧内预测模式下的残差信号,再对残差信号进行Hadamard变换计算SATD值,并利用SATD值计算每种传统预测模式的率失真代价。
Hadamard矩阵:
SATD是指将残差信号进行Hadamard变换后再求各元素绝对值之和,设某残差信号方阵为X,则SATD为:
其中,M为方阵的大小,H为归一化的M*M Hadamard矩阵。
率失真代价=SATD+λ*ModeBits
其中,λ由限定码率ModeBits预测编码单元的量化参数映射关系确定。
步骤2.对不同大小的PU块,利用整数DCT公式计算当前预测块的DCT系数矩阵,保存为一个矩阵,整数DCT公式如下:
其中,
由于浮点数DCT对尺寸较大的预测块进行转换时运算速度很慢,故采用整数DCT方法。H.265/HEVC使用了4种不同尺寸的整数DCT,分别为4*4、8*8、16*16和32*32。所述的H.265/HEVC中4*4、8*8、16*16和32*32整数DCT公式为:
其中:X为该预测块的像素矩阵,E为缩放比例
H16和H32变换矩阵参见H.265/HEVC标准。H.265/HEVC不同大小的变换形式较为统一。这得益于在整数化DCT矩阵时,不同大小的矩阵放大倍数不同,且满足一定规律。利用这一特征,可为不同大小的整数DCT设计出具有统一形式的快速蝶形算法。
整数DCT对当前PU块进行DCT转换,生成一个DCT系数矩阵。
步骤3.若当前预测块尺寸为4*4、8*8大小,则对当前系数块的左上角系数(图2左上角灰色块)进行判断,首先判断最左边的块系数,再判断上面的块系数,若某个块系数小于阈值则直接判断该预测块具有边缘,并且跳转步骤5,若所有块系数大于阈值,则直接判断该预测块没有边缘,并且跳转步骤5。若当前预测块尺寸为16*16、32*32大小,则对当前系数块的左上角系数(图2左上角灰色块)进行判断,若某个块系数小于阈值则直接判断该预测块具有边缘,并且跳转步骤5,若所有块系数都大于阈值,则继续判断右下角系数是否为零,跳转步骤4。
步骤4.若当前预测块为16*16大小,则只对当前系数块的右下角系数(图2右下角黑色块)中的坐标(15,15)的系数进行判断,若该系数不是零则直接判断该预测块具有边缘,跳转第五步,若该系数为零则认为该预测块没有边缘,继续下一步计算。若当前预测块为32*32大小,则对当前系数块的右下角系数(图2右下角黑色块)进行判断,首先判断最右下角的块系数是否为零,再判断另外两个系数块是否为零,若某个块系数不是零则直接判断该预测块具有边缘,跳转步骤5,若所有块都是全零系数块,则认为该预测块没有边缘,继续下一步计算。
步骤5。若预测块没有边缘则不计算该预测块在DMMs下所有模式的率失真代价,反之则计算该预测块在DMMs下所有模式的率失真代价,并将DMMs模式加入预测候选列表;
步骤6.从预测候选列表中选取率失真代价最小的几种模式为预测模式集,并且将当前预测块的已编码相邻块的预测模式补充到预测模式集中,得到最终的预测模式集合rd-cost。
步骤7.遍历预测模式集合rd-cost中的所有模式,并对每个预测模式的残差信号进行熵编码,并且计算每个预测模式下的率失真代价RD-Cost;从预测模式集合rd-cost中的所有模式中选取率失真代价最小的预测模式,即最优的帧内预测模式作为该预测块中亮度块选取的最优模式,并保存最优模式的所有数据;通过得到当前预测块的最优帧内预测模式对当前预测块进行变换、量化;
步骤8.当预测块中亮度块选取的最优模式式选定后,把该最优模式以及传统帧内预测模式种的DC、planars、水平方向、垂直方向模式作为预测块中色度块的候选列表,同样遍历预测模式候选列表,计算预测模式候选列表中每个预测模式的率失真代价,选取率失真代价最小的预测模式,即最优的帧内预测模式作为色度块的最优模式;通过得到的最优帧内预测模式对当前预测块进行变换、量化。
步骤9.继续下一个预测块(PU)的帧内预测。
Claims (4)
1.基于DCT的3D-HEVC快速帧内预测决策方法,其特征在于包括如下步骤:
步骤1.基于3D-HEVC,在进行预测块划分后,首先得到该预测块在35种传统帧内预测模式下的残差信号,再对残差信号进行Hadamard变换计算SATD值,并利用SATD值计算每种传统预测模式的率失真代价;
步骤2.对不同大小的PU块,利用整数DCT公式计算当前预测块的DCT系数矩阵,保存为一个矩阵;
步骤3.若当前预测块尺寸为4*4、8*8大小,则对当前系数块的左上角系数进行判断,首先判断最左边的块系数,再判断上面的块系数,若某个块系数小于阈值则直接判断该预测块具有边缘,并且跳转步骤5,若所有块系数大于阈值,则直接判断该预测块没有边缘,并且跳转步骤5;若当前预测块尺寸为16*16、32*32大小,则对当前系数块的左上角系数进行判断,若某个块系数小于阈值则直接判断该预测块具有边缘,并且跳转步骤5,若所有块系数都大于阈值,则继续判断右下角系数是否为零,跳转步骤4;
步骤4.若当前预测块为16*16大小,则只对当前系数块的右下角系数中的坐标的系数进行判断:若该系数不是零则直接判断该预测块具有边缘,跳转步骤5,若该系数为零则认为该预测块没有边缘,继续下一步计算;若当前预测块为32*32大小,则对当前系数块的右下角系数进行判断:首先判断最右下角的块系数是否为零,再判断另外两个系数块是否为零,若某个块系数不是零则直接判断该预测块具有边缘,跳转步骤5,若所有块都是全零系数块,则认为该预测块没有边缘,继续下一步计算;
步骤5.若预测块没有边缘则不计算该预测块在DMMs下所有模式的率失真代价,反之则计算该预测块在DMMs下所有模式的率失真代价,并将DMMs模式加入预测候选列表;
步骤6.从预测候选列表中选取率失真代价最小的几种模式为预测模式集,并且将当前预测块的已编码相邻块的预测模式补充到预测模式集中,得到最终的预测模式集合rd-cost;
步骤7.遍历预测模式集合rd-cost中的所有模式,并对每个预测模式的残差信号进行熵编码,并且计算每个预测模式下的率失真代价RD-Cost;从预测模式集合rd-cost中的所有模式中选取率失真代价最小的预测模式,即最优的帧内预测模式作为该预测块中亮度块选取的最优模式,并保存最优模式的所有数据;通过得到当前预测块的最优帧内预测模式对当前预测块进行变换、量化;
步骤8.当预测块中亮度块选取的最优模式式选定后,把该最优模式以及传统帧内预测模式种的DC、planars、水平方向、垂直方向模式作为预测块中色度块的候选列表,同样遍历预测模式候选列表,计算预测模式候选列表中每个预测模式的率失真代价,选取率失真代价最小的预测模式,即最优的帧内预测模式作为色度块的最优模式;通过得到的最优帧内预测模式对当前预测块进行变换、量化;
步骤9.继续下一个预测块的帧内预测。
2.根据权利要求1所述的基于DCT的3D-HEVC快速帧内预测决策方法,其特征在于步骤1所述的具体实现如下:
Hadamard矩阵:
<mrow>
<msub>
<mrow>
<mo>{</mo>
<msub>
<mi>H</mi>
<mi>m</mi>
</msub>
<mo>}</mo>
</mrow>
<msub>
<mi>i</mi>
<mrow>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msup>
<mn>2</mn>
<mfrac>
<mi>n</mi>
<mn>2</mn>
</mfrac>
</msup>
</mfrac>
<msup>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msup>
<mo>,</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
<mo>,</mo>
<mn>1</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
SATD是指将残差信号进行Hadamard变换后再求各元素绝对值之和,设某残差信号方阵为X,则SATD为:
<mrow>
<mi>S</mi>
<mi>A</mi>
<mi>T</mi>
<mi>D</mi>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>{</mo>
<mi>M</mi>
<mo>}</mo>
</mrow>
</munder>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>{</mo>
<mi>M</mi>
<mo>}</mo>
</mrow>
</munder>
<mo>|</mo>
<mi>H</mi>
<mi>X</mi>
<mi>H</mi>
<mo>|</mo>
</mrow>
其中,M为方阵的大小,H为归一化的M*M Hadamard矩阵;
率失真代价=SATD+λ*ModeBits
其中,λ由限定码率ModeBits预测编码单元的量化参数映射关系确定。
3.根据权利要求2所述的基于DCT的3D-HEVC快速帧内预测决策方法,其特征在于步骤2所述的整数DCT公式如下:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>X</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>,</mo>
<mi>l</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>l</mi>
<mo>)</mo>
</mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mo>{</mo>
<mi>m</mi>
<mo>=</mo>
<mn>0</mn>
<mo>}</mo>
</mrow>
<mrow>
<mo>{</mo>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
<mo>}</mo>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mo>{</mo>
<mi>n</mi>
<mo>=</mo>
<mn>0</mn>
<mo>}</mo>
</mrow>
<mrow>
<mo>{</mo>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
<mo>}</mo>
</mrow>
</munderover>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mo>&lsqb;</mo>
<mfrac>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>m</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
<mi>k</mi>
<mi>&pi;</mi>
</mrow>
<mrow>
<mn>2</mn>
<mi>N</mi>
</mrow>
</mfrac>
<mo>&rsqb;</mo>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mo>&lsqb;</mo>
<mfrac>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>n</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
<mi>l</mi>
<mi>&pi;</mi>
</mrow>
<mrow>
<mn>2</mn>
<mi>N</mi>
</mrow>
</mfrac>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>k</mi>
<mo>,</mo>
<mi>l</mi>
<mo>=</mo>
<mn>0</mn>
<mo>,</mo>
<mn>1</mn>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,
H.265/HEVC使用了4种不同尺寸的整数DCT,分别为4*4、8*8、16*16和32*32;所述的H.265/HEVC中4*4、8*8、16*16和32*32整数DCT公式为:
<mrow>
<mi>Y</mi>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>H</mi>
<mi>n</mi>
</msub>
<msubsup>
<mi>XH</mi>
<mi>n</mi>
<mi>T</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>&CircleTimes;</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>E</mi>
<mi>n</mi>
</msub>
<mo>&CircleTimes;</mo>
<msubsup>
<mi>E</mi>
<mi>n</mi>
<mi>T</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
其中:X为该预测块的像素矩阵,E为缩放比例
<mrow>
<msub>
<mi>H</mi>
<mn>4</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>89</mn>
</mtd>
<mtd>
<mn>75</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>36</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>83</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>64</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>64</mn>
</mrow>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>36</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>83</mn>
</mrow>
</mtd>
<mtd>
<mn>83</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>36</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<msub>
<mi>H</mi>
<mn>8</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>89</mn>
</mtd>
<mtd>
<mn>75</mn>
</mtd>
<mtd>
<mn>50</mn>
</mtd>
<mtd>
<mn>18</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>18</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>50</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>75</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>89</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>83</mn>
</mtd>
<mtd>
<mn>36</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>36</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>83</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>83</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>36</mn>
</mrow>
</mtd>
<mtd>
<mn>36</mn>
</mtd>
<mtd>
<mn>83</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>75</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>18</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>89</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>50</mn>
</mrow>
</mtd>
<mtd>
<mn>50</mn>
</mtd>
<mtd>
<mn>89</mn>
</mtd>
<mtd>
<mn>18</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>75</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>64</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>64</mn>
</mrow>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>64</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>64</mn>
</mrow>
</mtd>
<mtd>
<mn>64</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>50</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>89</mn>
</mrow>
</mtd>
<mtd>
<mn>18</mn>
</mtd>
<mtd>
<mn>75</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>75</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>18</mn>
</mrow>
</mtd>
<mtd>
<mn>89</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>50</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>36</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>83</mn>
</mrow>
</mtd>
<mtd>
<mn>83</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>36</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>36</mn>
</mrow>
</mtd>
<mtd>
<mn>83</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>83</mn>
</mrow>
</mtd>
<mtd>
<mn>36</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>18</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>50</mn>
</mrow>
</mtd>
<mtd>
<mn>75</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>89</mn>
</mrow>
</mtd>
<mtd>
<mn>89</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>75</mn>
</mrow>
</mtd>
<mtd>
<mn>50</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>18</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
H16和H32变换矩阵参见H.265/HEVC标准;整数DCT对当前PU块进行DCT转换,生成一个DCT系数矩阵。
4.根据权利要求3所述的基于DCT的3D-HEVC快速帧内预测决策方法,其特征在于步骤3所述的左上角系数判断是否大于阈值varThreshold,具体如下:
threshold=max(((pcCU→getQP(0))>>3)-1,3); (1)
varThreshold=threshold*threshold-8; (2)
其中,pcCU→getQP(0)表示获得当前预测模块的量化参数值;
如果大于阈值,则判断DCT系数矩阵右下角系数是否为0,否则就判断该预测块有边缘。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711337701.4A CN107864380B (zh) | 2017-12-14 | 2017-12-14 | 基于dct的3d-hevc快速帧内预测决策方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711337701.4A CN107864380B (zh) | 2017-12-14 | 2017-12-14 | 基于dct的3d-hevc快速帧内预测决策方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107864380A true CN107864380A (zh) | 2018-03-30 |
CN107864380B CN107864380B (zh) | 2020-08-11 |
Family
ID=61706028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711337701.4A Active CN107864380B (zh) | 2017-12-14 | 2017-12-14 | 基于dct的3d-hevc快速帧内预测决策方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107864380B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109660794A (zh) * | 2018-11-07 | 2019-04-19 | 北京达佳互联信息技术有限公司 | 帧内预测模式的决策方法、决策装置和计算机可读存储介质 |
CN110022477A (zh) * | 2019-03-29 | 2019-07-16 | 中南大学 | 一种基于CUTree的帧间预测模式快速选择方法 |
CN110049338A (zh) * | 2019-04-26 | 2019-07-23 | 杭州电子科技大学 | 基于多层次分类的hevc快速帧间编码方法 |
CN110460844A (zh) * | 2019-08-13 | 2019-11-15 | 杭州电子科技大学 | 基于dwt的3d-hevc快速cu分割预测方法 |
CN110650335A (zh) * | 2019-08-13 | 2020-01-03 | 杭州电子科技大学 | 基于dwt的3d-hevc快速dmm预测决策方法 |
CN113709482A (zh) * | 2021-07-30 | 2021-11-26 | 北京大学深圳研究生院 | 面向硬件的帧内编码模式中编码单元划分模式确定方法 |
CN113747153A (zh) * | 2021-08-09 | 2021-12-03 | 杭州当虹科技股份有限公司 | 一种hevc tile编码边界质量优化方法和系统 |
CN114449283A (zh) * | 2020-10-30 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104378643A (zh) * | 2014-12-04 | 2015-02-25 | 南京理工大学 | 一种3d视频深度图像帧内预测模式选择方法及系统 |
CN105409215A (zh) * | 2013-01-11 | 2016-03-16 | 华为技术有限公司 | 深度预测模式选择方法及装置 |
CN105791862A (zh) * | 2016-03-21 | 2016-07-20 | 杭州电子科技大学 | 基于边缘复杂度的三维视频编码深度图内部模式选择方法 |
CN105898332A (zh) * | 2016-06-27 | 2016-08-24 | 河南工业大学 | 针对3d-hevc编码标准的快速深度图帧内模式判决方法 |
US20160381389A1 (en) * | 2016-07-05 | 2016-12-29 | Ningbo University | 3D-HEVC depth video information hiding method based on single-depth intra mode |
-
2017
- 2017-12-14 CN CN201711337701.4A patent/CN107864380B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105409215A (zh) * | 2013-01-11 | 2016-03-16 | 华为技术有限公司 | 深度预测模式选择方法及装置 |
CN104378643A (zh) * | 2014-12-04 | 2015-02-25 | 南京理工大学 | 一种3d视频深度图像帧内预测模式选择方法及系统 |
CN105791862A (zh) * | 2016-03-21 | 2016-07-20 | 杭州电子科技大学 | 基于边缘复杂度的三维视频编码深度图内部模式选择方法 |
CN105898332A (zh) * | 2016-06-27 | 2016-08-24 | 河南工业大学 | 针对3d-hevc编码标准的快速深度图帧内模式判决方法 |
US20160381389A1 (en) * | 2016-07-05 | 2016-12-29 | Ningbo University | 3D-HEVC depth video information hiding method based on single-depth intra mode |
Non-Patent Citations (3)
Title |
---|
CHUN-SU PARK: "Efficient intra-mode decision algorithm skipping unnecessary depth-modelling modes in 3D-HEVC", 《ELECTRONICS LETTERS》 * |
ZHOUYE GU: "FAST DEPTH MODELING MODE SELECTION FOR 3D HEVC DEPTH INTRA CODING", 《2013 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO WORKSHOPS (ICMEW)》 * |
项璐露: "基于边缘复杂度的深度图帧内模式选择方法", 《杭州电子科技大学学报(自然科学版)》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109660794B (zh) * | 2018-11-07 | 2020-07-07 | 北京达佳互联信息技术有限公司 | 帧内预测模式的决策方法、决策装置和计算机可读存储介质 |
CN109660794A (zh) * | 2018-11-07 | 2019-04-19 | 北京达佳互联信息技术有限公司 | 帧内预测模式的决策方法、决策装置和计算机可读存储介质 |
CN110022477A (zh) * | 2019-03-29 | 2019-07-16 | 中南大学 | 一种基于CUTree的帧间预测模式快速选择方法 |
CN110022477B (zh) * | 2019-03-29 | 2021-02-19 | 中南大学 | 一种基于CUTree的帧间预测模式快速选择方法 |
CN110049338A (zh) * | 2019-04-26 | 2019-07-23 | 杭州电子科技大学 | 基于多层次分类的hevc快速帧间编码方法 |
CN110460844A (zh) * | 2019-08-13 | 2019-11-15 | 杭州电子科技大学 | 基于dwt的3d-hevc快速cu分割预测方法 |
CN110650335A (zh) * | 2019-08-13 | 2020-01-03 | 杭州电子科技大学 | 基于dwt的3d-hevc快速dmm预测决策方法 |
CN110650335B (zh) * | 2019-08-13 | 2021-06-15 | 杭州电子科技大学 | 基于dwt的3d-hevc快速dmm预测决策方法 |
CN110460844B (zh) * | 2019-08-13 | 2021-07-09 | 杭州电子科技大学 | 基于dwt的3d-hevc快速cu分割预测方法 |
CN114449283A (zh) * | 2020-10-30 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备及存储介质 |
CN114449283B (zh) * | 2020-10-30 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备及存储介质 |
CN113709482A (zh) * | 2021-07-30 | 2021-11-26 | 北京大学深圳研究生院 | 面向硬件的帧内编码模式中编码单元划分模式确定方法 |
CN113709482B (zh) * | 2021-07-30 | 2024-04-16 | 北京大学深圳研究生院 | 面向硬件的帧内编码模式中编码单元划分模式确定方法 |
CN113747153A (zh) * | 2021-08-09 | 2021-12-03 | 杭州当虹科技股份有限公司 | 一种hevc tile编码边界质量优化方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107864380B (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107864380B (zh) | 基于dct的3d-hevc快速帧内预测决策方法 | |
CN102484704B (zh) | 对视频编码的方法和设备以及对视频解码的方法和设备 | |
CN109688414B (zh) | 一种vvc帧内编码单元候选预测模式缩减及块划分提前终止方法 | |
CN104602003B (zh) | 预测块产生设备 | |
CN102484719B (zh) | 对视频编码的方法和设备及对视频解码的方法和设备 | |
CN104041035B (zh) | 用于复合视频的无损编码及相关信号表示方法 | |
CN104125469B (zh) | 一种用于hevc的快速编码方法 | |
JP6469048B2 (ja) | 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、動画像符号化データ及び記録媒体 | |
CN104255029A (zh) | 产生用于不同的颜色取样格式的子像素值 | |
CN103765901A (zh) | 用于使用帧内预测进行图像编码和解码的方法和设备 | |
CN104980756A (zh) | 根据像素分类使用偏移调整的视频解码方法及其设备 | |
CN105245886A (zh) | 用于对图像编码的设备和方法 | |
CN104602011A (zh) | 图像解码装置 | |
CN103581647A (zh) | 一种基于彩色视频运动矢量的深度图序列分形编码方法 | |
CN103596004A (zh) | Hevc中基于数学统计和分类训练的帧内预测方法及装置 | |
CN109327703A (zh) | 一种基于不同采样块的深度图编解码方法 | |
JP2022172137A (ja) | 適応乗算係数を用いた画像フィルタリングのための方法および装置 | |
US10015484B2 (en) | Adaptive scan device and method for scanning thereof | |
CN110650335B (zh) | 基于dwt的3d-hevc快速dmm预测决策方法 | |
Zamarin et al. | A novel multi-view image coding scheme based on view-warping and 3D-DCT | |
CN107736021A (zh) | 用于样点值补偿的图像编码方法和装置以及用于样点值补偿的图像解码方法和装置 | |
Zhang et al. | Edge-detection based fast intra-mode selection for depth map coding in 3D-HEVC | |
CN109889831A (zh) | 基于cu尺寸的360度视频帧内模式选择 | |
Yang et al. | Fast depth map coding based on virtual view quality | |
Afsana et al. | Efficient Scalable 360-degree Video Compression Scheme using 3D Cuboid Partitioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |