CN117376587A - 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 - Google Patents
用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 Download PDFInfo
- Publication number
- CN117376587A CN117376587A CN202310851257.7A CN202310851257A CN117376587A CN 117376587 A CN117376587 A CN 117376587A CN 202310851257 A CN202310851257 A CN 202310851257A CN 117376587 A CN117376587 A CN 117376587A
- Authority
- CN
- China
- Prior art keywords
- block
- prediction
- sub
- intra
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 206
- 238000001914 filtration Methods 0.000 title claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 98
- 230000008569 process Effects 0.000 claims abstract description 80
- 239000013074 reference sample Substances 0.000 claims abstract description 50
- 238000004891 communication Methods 0.000 claims description 25
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 6
- 239000000523 sample Substances 0.000 description 58
- 230000006870 function Effects 0.000 description 20
- 239000013598 vector Substances 0.000 description 18
- 238000004590 computer program Methods 0.000 description 14
- 241000023320 Luma <angiosperm> Species 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 12
- 238000013139 quantization Methods 0.000 description 11
- 238000000638 solvent extraction Methods 0.000 description 11
- 238000005192 partition Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 238000013461 design Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 238000003491 array Methods 0.000 description 6
- 238000009795 derivation Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 235000019800 disodium phosphate Nutrition 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- IESVDEZGAHUQJU-ZLBXKVHBSA-N 1-hexadecanoyl-2-(4Z,7Z,10Z,13Z,16Z,19Z-docosahexaenoyl)-sn-glycero-3-phosphocholine Chemical compound CCCCCCCCCCCCCCCC(=O)OC[C@H](COP([O-])(=O)OCC[N+](C)(C)C)OC(=O)CC\C=C/C\C=C/C\C=C/C\C=C/C\C=C/C\C=C/CC IESVDEZGAHUQJU-ZLBXKVHBSA-N 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
一种视频译码方法,其中,所述方法包括:第一块的帧间预测处理,其中,所述帧间预测处理包括参考块样本的子像素插值滤波;第二块的帧内预测处理,其中,所述帧内预测处理包括参考样本的子像素插值滤波;所述方法还包括:根据整数参考样本位置与分数参考样本位置之间的子像素偏移,选择用于所述子像素插值滤波的插值滤波系数,其中,对于相同的子像素偏移,相同的插值滤波系数被选择用于进行帧内预测处理和帧间预测处理。
Description
本申请是分案申请,原申请的申请号是201980046958.5,原申请日是2019年09月06日,原申请的全部内容通过引用结合在本申请中。
技术领域
本发明涉及图像和/或视频编解码技术领域,具体地涉及用于进行帧内预测和帧间预测的插值滤波方法和装置。
背景技术
自从DVD光盘问世以来,数字视频已得到广泛使用。对视频进行编码,然后通过传输介质进行传输。观看者接收视频,并使用观看设备解码和显示视频。多年来,由于分辨率、色彩深度和帧率等的提高,视频质量已经得到了提高。这使得目前通常通过互联网和移动通信网络传输的数据流更大。
然而,更高分辨率视频通常具有更多信息,因此需要更多带宽。为了降低带宽要求,便引入了涉及视频压缩的视频译码标准。当对视频进行编码时,带宽要求(或存储时对应的内存要求)会降低。这种降低往往牺牲了质量。因此,视频译码标准试图在带宽要求与质量之间找到平衡。
高性能视频译码(High Efficiency Video Coding,HEVC)是本领域技术人员所熟知的视频译码标准的示例。在HEVC中,将译码单元(coding unit,CU)划分为预测单元(prediction unit,PU)或变换单元(transform unit,TU)。通用视频译码(VersatileVideo Coding,VVC)下一代标准是ITU-T视频译码专家组(Video Coding Experts Group,VCEG)和ISO/IEC运动图像专家组(Moving Picture Experts Group,MPEG)最近的联合视频项目,这两个标准化组织共同合作,其伙伴关系被称为联合视频探索小组(Joint VideoExploration Team,JVET)。VVC也称为ITU-T H.266/下一代视频译码(Next GenerationVideo Coding,NGVC)标准。VVC中去掉了多种分割类型的概念,即不区分CU、PU和TU概念(除非CU的尺寸对于最大变换长度而言太大),并支持更灵活的CU分割形状。
这些译码单元(coding unit,CU)(也称为块)的处理取决于其尺寸、空间位置和编码器指定的编码模式。根据预测的类型,编码模式可以分为两类:帧内预测模式和帧间预测模式。帧内预测模式使用同一图像(picture/image)(也称为帧)的样本来生成参考样本,以计算重建的块的样本的预测值。帧内预测也称为空间预测。帧间预测模式设计用于时间预测,并使用先前、当前(相同)或后续图像的参考样本来预测当前图像的块的样本。
ITU-T VCEG(Q6/16)和ISO/IEC MPEG(JTC 1/SC 29/WG 11)正在研究未来视频译码技术标准化的潜在需求,其中,未来视频译码技术的压缩能力将大大超过当前HEVC标准的压缩能力(包括针对屏幕内容译码和高动态范围译码的当前扩展和近期扩展)。这些小组正与联合视频探索小组(Joint Video Exploration Team,JVET)共同努力开展这项探索活动,以评估其领域专家提出的压缩技术设计。
通用测试模型(Versatile Test Model,VTM)标准使用35种帧内模式,而基准集(Benchmark Set,BMS)使用67种帧内模式。
当前在BMS中描述的帧内模式译码方案被认为是复杂的,且非选择模式集的缺点在于索引列表总是恒定的,并且不能根据当前块属性(例如,对于其邻块帧内模式)进行调整。
发明内容
本发明公开了用于进行帧内预测和帧间预测的插值滤波方法和装置。该装置和方法采用相同的样本插值过程,以统一帧间预测和帧内预测的计算流程,从而提高译码效率。保护范围由权利要求界定。
上述和其它目的通过独立权利要求请求保护的主题来实现。其它实现方式在从属权利要求、说明书和附图中显而易见。
具体实施例在所附独立权利要求中概述,其它实施例在从属权利要求中概述。
根据第一方面,本发明涉及一种视频译码方法,其中,所述方法包括:
-(图像或视频的)第一块的帧间预测处理,其中,所述帧间预测处理包括(针对分数位置)(所述第一块的或针对所述第一块的)参考块的样本的子像素插值滤波;
-(图像或视频的)第二块的帧内预测处理,其中,所述帧内预测处理包括(针对分数位置)(所述第二块的或针对所述第二块的)参考样本的子像素插值滤波;
其中,所述方法还包括:
-根据整数参考样本位置与分数参考样本位置之间的子像素偏移,选择用于所述子像素插值滤波的插值滤波系数,其中,对于相同的子像素偏移,相同的插值滤波系数被选择用于进行帧内预测处理和帧间预测处理。
子像素插值滤波用于对分数(即非整数)参考样本位置执行,因为相应的值通常无法从解码图像缓冲器(decoded picture buffer,DPB)等获得。整数参考样本位置的值通常可以直接从DPB等获得,因此不需要插值滤波来获得这些值。所述第一方面提供的方法也可以称为用于视频译码的帧间预测处理和帧内预测处理方法,或用于视频译码中帧间预测处理和帧内预测处理的子像素插值滤波方法。
在所述第一方面提供的一种实现方式中,所述方法例如可以包括:根据整数参考样本位置与分数参考样本位置之间的第一子像素偏移,选择第一组插值滤波系数(例如,c0至c3),(例如,对色度样本)进行子像素插值滤波,以进行帧间预测;如果具有与所述第一子像素偏移相同的子像素偏移,则选择相同的第一组插值滤波系数(c0至c3),(例如,对亮度样本)进行子像素滤波,以进行帧内预测。
在所述第一方面提供的方法的一种可能实现方式中,所述选择的滤波系数用于对色度样本进行所述子像素插值滤波,以进行帧间预测处理;所述选择的滤波系数用于对亮度样本进行所述子像素插值滤波,以进行帧内预测处理。
在所述第一方面提供的方法的一种可能实现方式中,所述帧间预测处理为块内复制处理。
在所述第一方面提供的方法的一种可能实现方式中,用于帧间预测处理和帧内预测处理的所述插值滤波系数是从查找表中获取的。
在所述第一方面提供的方法的一种可能实现方式中,4抽头滤波器用于所述子像素插值滤波。
在所述第一方面提供的方法的一种可能实现方式中,选择所述插值滤波系数包括:根据以下子像素偏移与插值滤波系数之间的关系选择所述插值滤波系数:
其中,所述子像素偏移以1/32子像素分辨率定义,且c0至c3表示所述插值滤波系数。
在所述第一方面提供的方法的一种可能实现方式中,选择所述插值滤波系数包括:根据以下子像素偏移与插值滤波系数之间的关系针对分数位置选择所述插值滤波系数:
其中,所述子像素偏移以1/32子像素分辨率定义,且c0至c3表示所述插值滤波系数。
根据第二方面,本发明涉及一种获取当前译码块的预测样本值的视频译码方法,其中,所述方法包括:
当通过帧间预测过程获得当前译码块的预测样本时,执行如下过程(或步骤)获得帧间预测样本值,
根据第一子像素偏移值从查找表中获得滤波系数,
根据所述滤波系数,获得所述帧间预测样本值;
当通过帧内预测过程获得当前译码块的预测样本时,执行如下过程(或步骤)获得帧内预测样本值,
根据第二子像素偏移值从查找表中获得滤波系数,其中,重复使用用于帧间预测的查找表进行帧内预测,
根据滤波系数,获得帧内预测样本值。
如第一方面所述,对分数(即非整数)参考样本位置执行子像素插值滤波,因为相应的值通常无法从解码图像缓冲器(decoded picture buffer,DPB)等获得。整数参考样本位置的值通常可以直接从DPB等获得,因此不需要插值滤波来获得这些值。所述第二方面提供的方法也可以称为用于视频译码的帧间预测处理和帧内预测处理方法,或用于视频译码中帧间预测处理和帧内预测处理的子像素插值滤波方法。
在所述第二方面提供的方法的一种可能实现方式中,在分数样本位置插值中使用查找表中的滤波系数,以进行帧内预测过程或帧间预测过程。
在所述第二方面提供的方法的一种可能实现方式中,帧内预测过程中使用的或用于帧内预测过程的查找表与帧间预测过程中使用的或用于帧间预测过程的查找表相同。
在所述第二方面提供的方法的一种可能实现方式中,其中,查找表如下所述:
其中,“子像素偏移”列以1/32子像素分辨率定义,且c0、c1、c2、c3为滤波系数。在所述第二方面提供的方法的一种可能实现方式中,查找表如下所述:
其中,“子像素偏移”列以1/32子像素分辨率定义,且c0、c1、c2、c3为滤波系数。
在所述第二方面提供的方法的一种可能实现方式中,帧间预测样本值用于当前译码块的色度分量。
在所述第二方面提供的方法的一种可能实现方式中,帧内预测样本值用于当前译码块的亮度分量。
在所述第二方面提供的方法的一种可能实现方式中,当帧内预测中使用的主参考边的尺寸小于或等于阈值时,选择帧内预测中使用的查找表。
在所述第二方面提供的方法的一种可能实现方式中,阈值为8个样本。
在所述第二方面提供的方法的一种可能实现方式中,所述帧间预测处理为块内复制处理。
根据第三方面,本发明涉及一种编码器,所述编码器包括用于执行所述第一方面、所述第二方面、所述第一方面的任意可能实施例或所述第二方面的任意可能实施例提供的方法的处理电路。
根据第四方面,本发明涉及一种解码器,所述解码器包括用于执行所述第一方面、所述第二方面、所述第一方面的任意可能实施例或所述第二方面的任意可能实施例提供的方法的处理电路。
根据第五方面,本发明涉及一种对视频流进行解码的装置,包括处理器和存储器。所述存储器存储有指令,所述指令使所述处理器执行所述第一方面、所述第二方面、所述第一方面的任意可能实施例或所述第二方面的任意可能实施例提供的方法。
根据第六方面,本发明涉及一种对视频流进行解码的装置,包括处理器和存储器。所述存储器存储有指令,所述指令使所述处理器执行所述第一方面、所述第二方面、所述第一方面的任意可能实施例或所述第二方面的任意可能实施例提供的方法。
根据第七方面,提供一种储存有指令的计算机可读存储介质,所述指令在执行时使一个或多个处理器对视频数据进行译码。所述指令使一个或多个处理器执行所述第一方面、所述第二方面、所述第一方面的任意可能实施例或所述第二方面的任意可能实施例提供的方法。
根据第八方面,本发明涉及一种包括程序代码的计算机程序,所述程序代码用于在计算机上执行时执行所述第一方面、所述第二方面、所述第一方面的任意可能实施例或所述第二方面的任意可能实施例提供的方法。
附图和以下说明中将详细描述一个或多个实施例。其它特征、目的和优点在说明书、附图以及权利要求中是显而易见的。
附图说明
下面结合本发明实施例中的附图对本发明实施例进行详细描述。在附图中:
图1为用于实现本发明实施例的视频译码系统示例的框图;
图2为用于实现本发明实施例的视频编码器示例的框图;
图3为用于实现本发明实施例的视频解码器示例的框图;
图4示出了67种帧内预测模式的示例;
图5示出了用于帧间预测和帧内预测的插值滤波器的示例;
图6示出了用于帧间预测和帧内预测的插值滤波器的另一示例;
图7示出了用于帧间预测和帧内预测的插值滤波器的另一示例;
图8示出了重复使用4抽头插值滤波器进行帧间预测和帧内预测的本发明实施例;
图9示出了重复使用4抽头插值滤波器用于帧间预测和帧内预测的本发明另一实施例;
图10示出了重复使用4抽头系数进行帧间预测和帧内预测的本发明实施例;
图11示出了35种帧内预测模式的示例;
图12示出了一种插值滤波器选择的示例;
图13示出了四叉树和二叉树分割的示例;
图14示出了矩形块取向的示例;
图15示出了一种插值滤波器选择的另一示例;
图16示出了一种插值滤波器选择的另一示例;
图17示出了一种插值滤波器选择的另一示例;
图18是一种网络设备的示意图;
图19示出了一种装置的框图;
图20是本发明的一个实施例的流程图。
在下文中,除非另外明确说明,否则相同的附图标记是指相同或至少功能上等效的特征。
具体实施方式
以下描述中,参考附图,所述附图组成本发明的一部分并以说明的方式示出本发明实施例的具体方面或可使用本发明实施例的具体方面。应理解,本发明实施例可在其它方面中使用,并可包括附图中未描绘的结构变化或逻辑变化。因此,以下详细描述不应以限制性的意义来理解,本发明的范围由所附权利要求书界定。
例如,应理解,结合所描述方法的公开内容对用于执行所述方法的对应设备或系统也可以同样适用,反之亦然。例如,如果描述一个或多个具体方法步骤,则对应的设备可以包括一个或多个单元(例如,功能单元)来执行所描述的一个或多个方法步骤(例如,一个单元执行一个或多个步骤,或多个单元中的每个单元都执行多个步骤中的一个或多个),即使附图中未明确描述或说明该一个或多个单元。另一方面,例如,如果基于一个或多个单元(例如,功能单元)描述具体装置,则对应的方法可以包括一个步骤来实现一个或多个单元的功能(例如,一个步骤实现一个或多个单元的功能,或多个步骤中的每个步骤实现多个单元中一个或多个单元的功能),即使附图中未明确描述或说明该一个或多个步骤。此外,应理解,除非另有说明,否则本文描述的各种示例性实施例和/或方面的特征可彼此组合。
缩略语和术语定义
JEM Joint Exploration Model联合探索模型(未来视频译码探索的软件代码库)
JVET Joint Video Experts Team视频联合专家小组
LUT Look-Up Table查找表
QT QuadTree四叉树
QTBT QuadTree plus Binary Tree四叉树加二叉树
RDO Rate-distortion Optimization率失真优化
ROM Read-Only Memory只读存储器
VTM VVC Test Model VVC测试模型
VVC Versatile Video Coding通用视频译码,一种JVET开发的标准化项目。
CTU/CTB–Coding Tree Unit译码树单元/Coding Tree Block译码树块
CU/CB –Coding Unit译码单元/Coding Block译码块
PU/PB –Prediction Unit预测单元/Prediction Block预测块
TU/TB –Transform Unit变换单元/Transform Block变换块
HEVC –High Efficiency Video Coding高性能视频译码
H.264/AVC和HEVC等视频译码方案是按照基于块的混合视频译码的成功原理而设计的。使用该原理,首先将图像分割成块,然后通过使用帧内或帧间预测来预测每个块。
自H.261之后的几个视频译码标准属于“有损混合视频编解码器”组(即,将样本域中的空间预测和时间预测与变换域中用于应用量化的2D变换译码结合)。视频序列中的每个图像通常分割成不重叠的块集合,通常在块级进行译码。换句话说,在编码器处,通常在块(视频块)级对视频进行处理,即编码,例如,通过空间(帧内图像)预测和时间(帧间图像)预测来生成预测块;从当前块(当前处理/待处理的块)中减去预测块,以获得残差块;在变换域中变换残差块并量化残差块,以减少待传输(压缩)的数据量,而相比于编码器,在解码器处,将逆处理部分地应用于编码块或压缩块,以重建当前块,用于表示。此外,编码器重复解码器的处理步骤,使得编码器和解码器生成相同的预测(例如,帧内预测和帧间预测)和/或重建,用于对后续块进行处理(即译码)。
如本文所使用的,术语“块”可以是图像或帧的一部分。为便于描述,本文参考由ITU-T视频译码专家组(Video Coding Experts Group,VCEG)和ISO/IEC运动图像专家组(Motion Picture Experts Group,MPEG)的视频译码联合工作组(Joint CollaborationTeam on Video Coding,JCT-VC)研发的高性能视频译码(High-Efficiency VideoCoding,HEVC)或通用视频译码(Versatile Video Coding,VVC)参考软件描述本发明实施例。本领域普通技术人员应理解本发明实施例不限于HEVC或VVC。它可以指CU、PU和TU。在HEVC中,通过表示为译码树的四叉树结构将CTU划分成CU。在CU级决定是使用帧间(时间)预测还是帧内(空间)预测对图像区域进行译码。可以根据PU划分类型将每个CU进一步划分为一个、两个或四个PU。一个PU内应用相同的预测过程,并以PU为单位向解码器传输相关信息。在根据PU划分类型应用预测过程获得残差块之后,可以根据与用于CU的译码树类似的另一种四叉树结构将CU分割为变换单元(transform unit,TU)。在视频压缩技术的最新进展中,使用四叉树和二叉树(qual-tree and binary tree,QTBT)分割来分割译码块。在QTBT块结构中,CU可以为正方形或矩形。例如,首先通过四叉树结构分割译码树单元(coding tree unit,CTU)。通过二叉树结构进一步分割四叉树叶节点。二叉树叶节点称为译码单元(coding unit,CU),该分段用于预测和变换处理,而不进行任何进一步分割。即,在QTBT译码块结构中,CU、PU和TU的块尺寸相同。同时,还提出将三叉树分割等多重分割与QTBT块结构结合使用。
ITU-T VCEG(Q6/16)和ISO/IEC MPEG(JTC 1/SC 29/WG 11)正在研究未来视频译码技术标准化的潜在需求,其中,未来视频译码技术的压缩能力将大大超过当前HEVC标准的压缩能力(包括针对屏幕内容译码和高动态范围译码的当前扩展和近期扩展)。这些小组正与联合视频探索小组(Joint Video Exploration Team,JVET)共同努力开展这项探索活动,以评估其领域专家提出的压缩技术设计。
通用测试模型(Versatile Test Model,VTM)使用35种帧内模式,而基准集(Benchmark Set,BMS)使用67种帧内模式。帧内预测是许多视频译码框架中使用的一种机制,用于在只涉及给定帧的情况下提高压缩效率。
本文使用的视频译码是指对构成视频或视频序列的图像序列进行处理。术语“图像(picture/image)”或“帧(frame)”可在视频译码领域以及在本申请中作为同义词使用。每个图像通常被分割成一组不重叠的块。图像的编码/解码通常在块级执行,例如,在块级,使用帧间预测或帧内预测生成预测块,以从当前块(当前处理的块/待处理的块)中减去预测块,获得残差块,进一步对所述残差块进行变换和量化以减少待传输(压缩)的数据量,而在解码端,对编码后/压缩后的块进行逆处理以重建块用于表示。
图1为示意性框图,示出了可利用本申请(本发明)技术的示例性译码系统10,例如视频译码系统10。视频译码系统10的编码器20(例如,视频编码器20)和解码器30(例如,视频解码器30)表示可以用于根据本申请中描述的各种示例执行各技术的设备的示例。如图1所示,译码系统10包括源设备12,所述源设备12用于将编码数据13(例如,编码图像13)提供到目的设备14等,以对编码数据13进行解码。
源设备12包括编码器20,并且可以另外(即可选地)包括图像源16、预处理单元18(例如,图像预处理单元18)和通信接口或通信单元22。
图像源16可以包括或可以是任何类型的图像捕获设备,例如用于捕获真实世界图像的设备,和/或任何类型的图像或评论(对于屏幕内容译码,屏幕上的一些文本也被认为是待编码的图像(picture/image)的一部分)生成设备,例如用于生成计算机动画图像的计算机图形处理器,或用于获取和/或提供真实世界图像、计算机动画图像(例如,屏幕内容、虚拟现实(virtual reality,VR)图像)和/或其任何组合(例如,增强现实(augmentedreality,AR)图像)的任何类型的设备。
(数字)图像为或可以看作具有强度值的样本的二维阵列或矩阵。阵列中的样本也可以称为像素(pixel或pel)(图像元素的简称)。阵列或图像在水平和垂直方向(或轴线)上的样本数量定义了图像的尺寸和/或分辨率。通常采用三种颜色分量来表示颜色,即该图像可表示为三个样本阵列或包括三个样本阵列。在RGB格式或颜色空间中,图像包括对应的红色、绿色和蓝色样本阵列。然而,在视频译码中,每个像素通常由亮度/色度格式或在颜色空间中表示,例如,YCbCr,包括Y指示的亮度分量(有时也用L指示)和Cb和Cr指示的两个色度分量。亮度(或简称luma)分量Y表示亮度或灰度级强度(例如,在灰度图像中),而两个色度(或简称chroma)分量Cb和Cr表示色度或颜色信息分量。因此,YCbCr格式的图像包括亮度样本值(Y)的亮度样本阵列和色度值(Cb和Cr)的两个色度样本阵列。RGB格式的图像可以转换或变换为YCbCr格式,反之亦然,该过程也称为颜色变换或转换。如果图像是单色的,则该图像可以仅包括亮度样本阵列。
图像源16(例如,视频源16)可以是用于捕获图像的摄像机、包括或存储先前捕获或生成的图像的存储器(例如,图像存储器),和/或用于获取或接收图像的任何类型的(内部或外部)接口等。例如,所述摄像机可以是集成在源设备中的本地或集成摄像机,所述存储器可以是例如集成在源设备中的本地或集成存储器。例如,所述接口可以是从外部视频源接收图像的外部接口,其中,所述外部视频源如摄像机等外部图像捕获设备、外部存储器,或外部计算机图形处理器、计算机或服务器等外部图像生成设备。所述接口可以是根据任何专有或标准化接口协议的任何类型的接口,例如有线或无线接口、光接口。用于获取图像数据17的接口可以是与通信接口22相同的接口,或作为通信接口22的一部分。
区别于预处理单元18和预处理单元18执行的处理,图像或图像数据17(例如,视频数据16)也可以称为原始图像或原始图像数据17。
预处理单元18用于接收(原始)图像数据17,对图像数据17进行预处理,以获得经预处理的图像19或经预处理的图像数据19。预处理单元18执行的预处理可以包括修剪、颜色格式转换(例如,从RGB转换为YCbCr)、颜色校正或去噪等。可以理解的是,预处理单元18可以是可选组件。
编码器20(例如,视频编码器20)用于接收经预处理的图像数据19并提供编码后的图像数据21(下文将根据图2等进一步描述细节)。
源设备12的通信接口22可以用于接收编码后的图像数据21,并将其发送到其它设备(例如,目的设备14或用于存储或直接重建的任何其它设备);或分别在存储编码数据13和/或将编码数据13发送到其它设备(例如,目的设备14或用于解码或存储的任何其它设备)之前处理编码后的图像数据21。
目的设备14包括解码器30(例如,视频解码器30),并且可以另外(即,可选地)包括通信接口或通信单元28、后处理单元32和显示设备34。
目的设备14的通信接口28用于接收编码后的图像数据21或编码数据13,例如,直接从源设备12或任何其它源(例如,编码后的图像数据存储设备等存储设备)接收。
通信接口22和通信接口28可以用于通过源设备12与目的设备14之间的直接通信链路(例如,直接有线或无线连接),或通过任何类型的网络(例如,有线或无线网络或其任意组合,或任何类型的专用和公共网络),或其任意组合发送或接收编码后的图像数据21或编码数据13。
例如,通信接口22可以用于将编码后的图像数据21打包为合适的格式(例如,数据包),用于通过通信链路或通信网络传输。
形成通信接口22的对应部分的通信接口28可以用于对编码数据13进行解包以获得编码后的图像数据21等。
通信接口22和通信接口28均可配置为单向通信接口(如图1中从源设备12指向目的设备14的编码后的图像数据13的箭头所指示),或双向通信接口,并可用于发送和接收消息等,例如,建立连接,确认和交换与通信链路和/或数据传输(例如,编码后的图像数据传输)相关的任何其它信息。
解码器30用于接收编码后的图像数据21并提供解码后的图像数据31或解码后的图像31(下面将根据图3等进一步描述细节)。
目的设备14的后处理器32用于对解码后的图像数据31(也称为经重建的图像数据)(例如,解码图像31)进行后处理,以获得经后处理的图像数据33(例如,后处理图像33)。后处理单元32执行的后处理可以包括例如颜色格式转换(例如,从YCbCr转换为RGB)、颜色校正、修剪或重采样,或任何其它处理,例如,用于准备解码后的图像数据31以供显示设备34等显示。
目的设备14的显示设备34用于接收经后处理的图像数据33,以向用户或观看者等显示图像。显示设备34可以是或包括用于显示重建图像的任何类型的显示器,例如,集成或外部的显示器或监视器。例如,显示器可以包括液晶显示器(liquid crystal display,LCD)、有机发光二极管(organic light emitting diode,OLED)显示器、等离子显示器、投影仪、微型LED显示器、硅基液晶显示器(liquid crystal on silicon,LCoS)、数字光处理器(digital light processor,DLP)或任何类型的其它显示器。
尽管图1将源设备12和目的设备14作为单独的设备进行描述,但是设备实施例还可以包括两种设备或两种功能,即源设备12或对应功能以及目的设备14或对应功能。在这类实施例中,源设备12或对应功能以及目的设备14或对应功能可以使用相同的硬件和/或软件或通过单独的硬件和/或软件或其任何组合来实现。
根据描述,技术人员显而易见的是,图1所示的源设备12和/或目的设备14中的不同单元或功能的存在和(精确)划分可以根据实际设备和应用而不同。
编码器20(例如,视频编码器20)和解码器30(例如,视频解码器30)可以各自实现为各种合适电路中的任一种,如一个或多个微处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application-specific integrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)、离散逻辑、硬件或其任何组合。如果技术部分地以软件形式实现,则设备可以将软件的指令存储在合适的非瞬时性计算机可读介质中,并且可以使用一个或多个处理器执行硬件中的指令,以执行本发明的技术。上述任一种电路(包括硬件、软件、硬件和软件的组合等)可以被认为是一个或多个处理器。视频编码器20和视频解码器30可以各自包括在一个或多个编码器或解码器中,其中任一者可以作为组合的编码器/解码器(编解码器)的一部分集成在相应设备中。
图2示出了用于实现本申请技术的示例性视频编码器20的示意性/概念性框图。在图2的示例中,视频编码器20包括残差计算单元204、变换处理单元206、量化单元208、反量化单元210和逆变换处理单元212、重建单元214、缓冲器216、环路滤波器单元220、解码图像缓冲器(decoded picture buffer,DPB)230、预测处理单元260和熵编码单元270。预测处理单元260可以包括帧间预测单元244、帧内预测单元254和模式选择单元262。帧间预测单元244可以包括运动估计单元和运动补偿单元(未示出)。图2所示的视频编码器20也可以称为混合视频编码器或根据混合视频编解码器的视频编码器。
例如,残差计算单元204、变换处理单元206、量化单元208、预测处理单元260和熵编码单元270形成编码器20的正向信号路径,而反量化单元210、逆变换处理单元212、重建单元214、缓冲器216、环路滤波器220、解码图像缓冲器(decoded picture buffer,DPB)230、预测处理单元260形成编码器的反向信号路径,其中,编码器的反向信号路径与解码器(参见图3中的解码器30)的信号路径对应。
编码器20用于通过输入端202等接收图像201或图像201(例如,形成视频或视频序列的图像序列的图像)的块203。图像块203也可以称为当前图像块或待译码图像块,图像201也可以称为当前图像或待译码图像(特别是在视频译码中,以便将当前图像与其它图像(例如,同一视频序列(即,也包括当前图像的视频序列)的先前编码和/或解码的图像))区分开。
预测处理单元260(也称为块预测处理单元260)用于:接收或获取块203(当前图像201的当前块203)和重建的图像数据,例如,来自缓冲器216的相同(当前)图像的参考样本和/或来自解码图像缓冲器230的一个或多个先前解码图像的参考图像数据231,并处理此类数据以进行预测,即提供预测块265,其中,所述预测块265可以是帧间预测块245或帧内预测块255。
模式选择单元262可用于选择预测模式(例如,帧内预测或帧间预测模式)和/或对应的预测块245或255用作预测块265,以用于计算残差块205和重建重建块215。
模式选择单元262的实施例可用于选择分割和预测模式(例如,从预测处理单元260支持的预测模式中选择),所述预测模式提供最佳匹配或者最小残差(最小残差指传输或存储中更好的压缩),或提供最小指示(signaling)开销(最小指示开销指传输或存储中更好的压缩),或者同时考虑或平衡以上两者。模式选择单元262可用于根据率失真优化(rate distortion optimization,RDO)确定预测模式,即选择提供最小率失真优化的预测模式,或者选择至少满足预测模式选择标准的相关率失真的预测模式。本文中“最佳”、“最小”、“最优”等术语不一定指总体上“最佳”、“最小”、“最优”,也可以指满足终止或选择标准的情况,例如,超过或低于阈值的值或其它约束条件可能会进行“次优选择”,但可以降低复杂度和处理时间。
帧内预测单元254还用于根据帧内预测参数(例如,所选帧内预测模式)确定帧内预测块255。在任何情况下,在对块选择帧内预测模式之后,帧内预测单元254还用于向熵编码单元270提供帧内预测参数,即指示块的所选帧内预测模式的信息。在一个示例中,帧内预测单元254可用于执行下文描述的帧内预测技术的任何组合。
图3为用于实现本申请技术的示例性视频解码器30。视频解码器30用于接收例如由编码器100编码的编码后的图像数据(例如,编码后的码流)21,以获得解码图像131。在解码过程中,视频解码器30从视频编码器100接收视频数据,例如表示编码后的视频条带(slice)的图像块的编码后的视频码流以及相关的语法元素。
在图3的示例中,解码器30包括熵解码单元304、反量化单元310、逆变换处理单元312、重建单元314(例如,求和器314)、缓冲器316、环路滤波器320、解码图像缓冲器330和预测处理单元360。预测处理单元360可以包括帧间预测单元344、帧内预测单元354和模式选择单元362。在一些示例中,视频解码器30可执行通常与针对图2的视频编码器100描述的编码过程相反的解码过程。
熵解码单元304用于对编码后的图像数据21执行熵解码,以获得量化系数309和/或解码后的译码参数(图3中未示出)等,例如帧间预测参数、帧内预测参数、环路滤波器参数和/或其它语法元素中的(解码的)任一者或全部。熵解码单元304还用于将帧间预测参数、帧内预测参数和/或其它语法元素转发给预测处理单元360。视频解码器30可以接收视频条带级和/或视频块级的语法元素。
反量化单元310的功能可以与反量化单元110的功能相同;逆变换处理单元312的功能可以与逆变换处理单元112的功能相同;重建单元314的功能可以与重建单元114的功能相同;缓冲器316的功能可以与缓冲器116的功能相同;环路滤波器320的功能可以与环路滤波器120的功能相同;解码图像缓冲器330的功能可以与解码图像缓冲器130的功能相同。
预测处理单元360可以包括帧间预测单元344和帧内预测单元354,其中,帧间预测单元344的功能可以与帧间预测单元144的功能类似,帧内预测单元354的功能可以与帧内预测单元154的功能类似。预测处理单元360通常用于根据编码数据21进行块预测和/或获得预测块365,并用于从熵解码单元304等接收或获得(显式或隐式地)预测相关参数和/或关于所选预测模式的信息。
当将视频条带译码为帧内译码(I)条带时,预测处理单元360的帧内预测单元354用于根据指示的帧内预测模式和来自当前帧或图像的先前解码块的数据生成当前视频条带的图像块的预测块365。当将视频帧译码为帧间译码(即,B或P)条带时,预测处理单元360的帧间预测单元344(例如,运动补偿单元)用于根据运动矢量和从熵解码单元304接收的其它语法元素产生当前视频条带的视频块的预测块365。对于帧间预测,可从其中一个参考图像列表中的其中一个参考图像产生这些预测块。视频解码器30可以根据存储在DPB 330中的参考图像,使用默认构建技术来构建参考帧列表:列表0和列表1。
预测处理单元360用于通过解析运动矢量和其它语法元素来确定当前视频条带的视频块的预测信息,并使用所述预测信息针对所解码的当前视频块生成预测块。例如,预测处理单元360使用接收到的一些语法元素确定用于对视频条带的视频块进行译码的预测模式(例如,帧内预测或帧间预测)、帧间预测条带类型(例如,B条带、P条带或GPB条带)、条带的一个或多个参考图像列表的构建信息、条带的每个帧间编码视频块的运动矢量、条带的每个帧间译码视频块的帧间预测状态,以及其它信息,以对当前视频条带中的视频块进行解码。
反量化单元310用于对码流中提供并由熵解码单元304解码的量化变换系数进行反量化,即解量化。反量化过程可以包括使用视频编码器100针对视频条带中的每个视频块计算的量化参数来确定量化程度,同样地确定需要应用的反量化的程度。
逆变换处理单元312用于对变换系数应用逆变换,例如逆DCT、逆整数变换或概念上类似的逆变换过程,以在像素域中产生残差块。
重建单元314(例如,求和器314)用于通过将重建残差块313的样本值和预测块365的样本值相加等将逆变换块313(即重建残差块313)添加到预测块365,以在样本域中获得重建块315。
环路滤波单元320(在译码环路中或译码环路之后)用于对重建块315进行滤波,以获得滤波块321,以平滑像素转变或以其它方式提高视频质量等。在一个示例中,环路滤波器单元320可用于执行下文描述的滤波技术的任何组合。环路滤波单元320用于表示一个或多个环路滤波器,如去块效应滤波器、样本自适应偏移(sample-adaptive offset,SAO)滤波器或其它滤波器,例如双边滤波器或自适应环路滤波器(adaptive loop filter,ALF)或锐化或平滑滤波器或协作滤波器。尽管环路滤波器单元320在图3中示为环路滤波器,但在其它配置中,环路滤波器单元320可以实现为环后滤波器。
然后,将给定帧或图像中的解码视频块321存储在解码图像缓冲器330中,所述解码图像缓冲器330存储用于后续运动补偿的参考图像。
解码器30用于通过输出端332等输出解码图像331,向用户呈现或供用户观看。
可以使用其它形式的视频解码器30对压缩码流进行解码。例如,解码器30可以在没有环路滤波单元320的情况下产生输出视频流。例如,基于非变换的解码器30可以在没有逆变换处理单元312的情况下直接反量化某些块或帧的残差信号。在另一种实现方式中,视频解码器30可以具有组合成单个单元的反量化单元310和逆变换处理单元312。
图4示出了如针对VVC提出的67种帧内预测模式的示例,67种帧内预测模式的多种帧内预测模式包括:平面模式(索引为0)、dc模式(索引为1),以及角度模式(索引为2到66),其中,图4中的左下角度模式是指索引2,并且索引的编号递增,直到索引66对应图4的最右上角度模式为止。
如图4所示,JEM的最新版本具有一些对应于倾斜帧内预测方向的模式。对于这些模式中的任一模式,为了预测块内的样本,如果块边内的对应位置为分数,则应执行相邻参考样本集合的插值。在HEVC和VVC中,使用两个相邻参考样本之间的线性插值。在JEM中,使用复杂的4抽头插值滤波器。根据块的宽度值或块的高度值,选择高斯滤波系数或三次滤波系数。使用宽度还是高度的决策与主参考边的选择的决策一致。当帧内预测模式的值大于或等于对角线模式的值时,选择参考样本的顶边作为主参考边,并选择宽度值来确定正在使用的插值滤波器。当帧内预测模式的值小于对角线模式的值时,从块的左边选择主参考边,并使用高度值控制滤波器的选择过程。具体地,如果所选边的长度小于或等于8个样本,则使用4抽头三次滤波器。如果所选边的长度大于8个样本,则使用4抽头高斯滤波器作为插值滤波器。
JEM中使用的具体滤波系数如表1所示。根据子像素偏移和滤波器类型,通过使用从表1中选择的系数进行卷积运算来计算预测样本,如下所示:
在该等式中,“>>”表示按位右移操作。
如果选择三次滤波器,则将预测样本(样本值)进一步修正(clip)为在允许的值范围内,该值范围是在序列参数集合(sequence parameter set,SPS)中定义,或从所选分量的位深度推导得到。
表1:帧内预测插值滤波器
当参考块的像素的位移为分数时,运动补偿过程还使用滤波来预测样本值。在JEM中,亮度分量采用8抽头滤波,色度分量采用4抽头长度滤波。首先水平应用运动插值滤波器,并且对水平滤波的输出进行进一步垂直滤波。表2中给出了4抽头色度滤波器的系数。
表2:色度运动插值滤波系数
许多视频译码解决方案也使用不同的插值滤波器进行帧内预测和帧间预测。具体地,图5-图7示出了插值滤波器的不同示例。图5示出了JEM中使用的插值滤波器的示例。图6示出了在ITU-JVET K1023中公开的针对Core-experiment CE 3–3.1.3提出的插值滤波器的另一示例。图7示出了ITU-JVET K0064中提出的插值滤波器的另一示例。
本发明实施例的基本思想是重复使用色度运动补偿子像素滤波器的查找表和/或硬件模块,如果像素值在参考样本之间的分数位置中,则在帧内预测值内插像素值。由于预期使用相同的硬件进行帧间预测和帧内预测,因此滤波系数的精度应一致,即,表示用于帧内参考样本插值的滤波系数的位数应与运动子像素运动补偿插值滤波的系数精度一致。
图8示出了本发明提出的一个实施例。具有6位色度系数的4抽头插值滤波器(也称为“统一帧内/帧间滤波器”)可用于两个过程:帧内预测样本的插值和帧间预测样本的插值。
图9中示出了利用这种设计的特定实施例。在该实现方式中,滤波模块实现为单独单元,该单独单元参与预测运动补偿中的色度样本以及在执行帧内预测时预测亮度和色度样本。在该实现方式中,硬件滤波部分用于帧内预测和帧间预测过程。
图10示出了仅重复使用滤波系数的LUT时的另一实施例(参见图10)。图10是基于重复使用系数的LUT的提供应用的示例性实现方式。在该实现方式中,硬件滤波模块从存储在ROM中的LUT中加载系数。针对帧内预测过程示出的开关根据选择用于帧内预测处理的主边长度来确定待使用的滤波器类型。
所提供的应用的一个实际实施例可以使用以下系数(参见表3)。
表3:帧内和帧间插值滤波器
根据子像素偏移和滤波器类型,通过使用从表3中选择的系数进行卷积运算来计算帧内预测样本,如下所示:
在该等式中,“>>”表示按位右移操作。
如果选择“统一帧内/帧间滤波器”,则将预测样本进一步修正为在允许的值范围内,该值范围是在SPS中定义,或从所选组件的位深度推导得到。
所提供的本发明实施例的区别特征如下:
对于帧内参考样本插值和子像素运动补偿插值,可以使用相同的滤波器来重复使用硬件模块并减少所需总体内存尺寸。
除了重复使用滤波器外,帧内参考样本插值使用的滤波系数的精度应与上述重复使用滤波系数的精度一致。
运动补偿中的亮度处理未必使用8抽头滤波,也可以使用4抽头滤波。在这种情况下,可以选择4抽头滤波器进行统一。
本发明实施例可以应用于帧内预测过程的不同部分,其中可能涉及插值。特别地,在扩展主参考样本时,也可以使用统一插值滤波器对边参考样本进行滤波(详见JVET-K0211第2.1、3.1、4.1和5节)。
块内复制操作还涉及可以使用所提供的发明的插值步骤(关于块内复制描述的内容,参见[Xiaozhong Xu、Shan Liu、Tzu-Der Chuang、Yu-Wen Huang、Shawmin Lei、Krishnakanth Rapaka、Chao Pang、Vadim Seregin、Ye-Kui Wang、Marta Karczewicz:《HEVC屏幕内容译码扩展中的块内复制(Intra Block Copy in HEVC Screen ContentCoding Extensions)》.IEEE J.Emerg.Sel.Topics Circuits Syst.6(4):409-419(2016)])。
其它实施例可以包括用于帧内预测的宽高比相关滤波的方法,所述方法包括:
根据块的宽高比为待预测块选择插值滤波器。
在一个示例中,所述插值滤波器的选择取决于用于对待预测块的帧内预测模式的阈值的方向。
在一个示例中,所述方向对应于待预测块的主对角线的角度。
在一个示例中,所述方向的角度计算为:
其中,W,H分别为待预测块的宽度和高度。
在一个示例中,确定宽高比RA,例如对应于以下等式:
RA=log2(W)-log2(H),其中,W,H分别为待预测块的宽度和高度。
在一个示例中,根据宽高比确定待预测块的主对角线的角度。
在一个示例中,根据待预测块的主对角线的角度确定块的帧内预测模式的阈值。
在一个示例中,插值滤波器的选择取决于使用的参考样本属于哪一边。
在一个示例中,角度对应于帧内方向的直线将块划分为两个区域。
在一个示例中,使用不同的插值滤波器预测属于不同区域的参考样本。
在一个示例中,滤波器包括三次插值滤波器或高斯插值滤波器。
在本申请的一个实现方式中,帧与图像相同。
在本申请的一种实现方式中,对应于VER_IDX的值为50;对应于HOR_IDX的值为18;对应于VDIA_IDX的值为66,该数值可以为对应于角度模式的值中的最大值;对应于帧内模式2的值2可以为对应于角度模式的值中的最小值;对应于DIA_IDX的值为34。
本发明实施例是针对帧内模式指示方案的改进。本发明提出一种视频解码方法和视频解码器。
图4示出了如针对VVC提供的67种帧内预测模式的示例。所述67种帧内预测模式的多种帧内预测模式包括:平面模式(索引为0)、dc模式(索引为1),以及角度模式(索引为2到66),其中,图4中的左下角度模式是指索引2,并且索引的编号递增,直到索引66对应图4的最右上角度模式为止。
在本申请的另一方面中,公开了一种包括处理电路的解码器,用于执行上述解码方法。
在本申请的另一方面中,公开了一种计算机程序产品,其包括用于执行上述解码方法的程序代码。
在本申请的另一方面中,公开了一种用于解码视频数据的解码器,所述解码器包括:一个或多个处理器;非瞬时性计算机可读存储介质,耦合到所述处理器并存储供所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述解码器执行上述解码方法。
处理电路可以在硬件或硬件和软件的组合中实现,例如通过软件可编程处理器等实现。
处理电路可以在硬件或硬件和软件的组合中实现,例如通过软件可编程处理器等实现。
图11示出了HEVC UIP方案中使用的多种帧内预测模式的示意图,这些模式可由另一实施例使用。对于亮度块,帧内预测模式可以包括多达36种帧内预测模式,可以包括三种非方向模式和33种方向模式。非方向模式可以包括平面预测模式、均值(DC)预测模式和基于亮度预测模式得到的色度预测模式(LM)。平面预测模式可以通过假定块幅度表面具有从块的边界推导的水平和垂直斜率来执行预测。DC预测模式可以通过假设平坦块表面具有与块边界的平均值相匹配的值来执行预测。LM预测模式可以通过假设块的色度值与块的亮度值相匹配来执行预测。定向模式可以根据邻块执行预测,如图11所示。
H.264/AVC和HEVC规定低通滤波器可以在用于帧内预测过程之前应用于参考样本。是否使用参考样本滤波器由帧内预测模式和块尺寸决定。这种机制可以称为模式相关帧内平滑化(Mode Dependent Intra Smoothing,MDIS)。还存在与MDIS相关的多种方法。例如,自适应参考样本平滑化(Adaptive Reference Sample Smoothing,ARSS)方法可以显式(即,标记包括在码流中)或隐式(即,例如,使用数据隐藏来避免将标记放入码流中以减少指示开销)指示是否对预测样本进行滤波。在这种情况下,编码器可以通过测试所有潜在帧内预测模式的率失真(Rate-Distortion,RD)成本来决定进行平滑化。
如图4所示,JEM的最新版本(JEM-7.2)具有一些对应于倾斜帧内预测方向的模式。对于这些模式中的任一模式,如果块边内的对应位置为分数,则应执行相邻参考样本集合的插值,以预测块内的样本。HEVC和VVC在两个相邻参考样本之间使用线性插值。JEM使用更复杂的4抽头插值滤波器。根据宽度值或高度值,选择高斯滤波系数或三次滤波系数。使用宽度还是高度的决策与主参考边选择的决策一致:当帧内预测模式大于或等于对角线模式时,选择参考样本的顶边作为主参考边,并选择宽度值来确定正在使用的插值滤波器。否则,从块的左边选择主参考边,并且使用高度值控制滤波器选择过程。具体地,如果所选边的长度小于或等于8个样本,则使用4抽头三次插值滤波器。否则,使用4抽头高斯滤波器作为插值滤波器。
在图12中示出了在32×4块的情况下,对于小于和大于对角线模式(表示为45°)的插值滤波器选择的示例。
在VVC中,使用基于四叉树和二叉树的分割机制,称为QTBT。如图13所示,QTBT分割不仅可以提供方形块,而且可以提供矩形块。当然,与HEVC/H.265标准中使用的传统的基于四叉树的分割相比,QTBT分割在编码端增加了一些指示开销增加也增加了计算复杂度。然而,基于QTBT的分割具有更好的分割特性,因此,比传统四叉树分割译码效率更高。
然而,VVC在其当前状态下,对参考样本的两边(左边和上边)使用相同的滤波器。无论块是垂直方向还是水平方向,参考样本滤波器对于两个参考样本边都是相同的。
在本文中,术语“垂直方向块”(“块的垂直方向”)和“水平方向块”(“块的水平方向”)应用于QTBT框架生成的矩形块。这些术语的含义与图14所示相同。
本发明实施例提出了一种选择不同参考样本滤波器的机制,以便考虑块的方向。具体地,对块的宽度和高度进行单独检查,以便对位于待预测块的不同边的参考样本应用不同的参考样本滤波器。
在一些示例中,描述了插值滤波器的选择与主参考边选择的决策一致。这两个决策目前都基于帧内预测模式与对角线(45度)方向的比较。
然而,应该注意的是,这种设计对于加长块有严重的缺陷。从图15中可以观察到,即使根据模式比较标准选择较短的边作为主参考,大多数预测像素仍将从较长边(示出为虚线区域)的参考样本推导。图15示出了关于边长相关参考滤波器选择的示例。
本发明提供在插值滤波器选择过程中使用替代方向来确定帧内预测模式的阈值。具体地,所述方向对应于待预测块的主对角线的角度。例如,对于尺寸为32×4和4×32的块,用于确定参考样本滤波器的阈值模式mT如图16所示定义。
阈值帧内预测角度的具体值可以通过如下公式计算:
其中,W和H分别是块宽度和高度。
本发明的另一个实施例是使用不同的插值滤波器,这取决于所使用的参考样本属于哪一边。图17中示出了这种确定的一个示例。图17示出了关于使用不同插值滤波器的示例,这取决于所使用的参考样本属于哪一边。
角度对应于帧内方向m的直线将预测块划分为两个区域。使用不同的插值滤波器对属于不同区域的样本进行预测。
示例值mT(对于BMS1.0中定义的帧内预测模式集合)和对应角度在表4中给出。角度α在图16中给出。
表4:mT的示例值(针对BMS1.0中定义的帧内预测模式集合)
与现有技术和解决方案相比,本发明使用块内使用不同的插值滤波器预测的样本,其中,根据块形状、水平或垂直方向以及帧内预测模式角度选择用于预测样本的插值滤波器。
本发明可以在参考样本滤波阶段应用。具体地,可以使用上述用于插值滤波器选择过程的类似规则来确定参考样本平滑化滤波器。
图18为本发明实施例提供的网络设备1300(例如,译码设备)的示意图。网络设备1300适用于实现本文描述的公开实施例。网络设备1300包括:入端口1310和接收器单元(Rx)1320,用于接收数据;处理器、逻辑单元或中央处理单元(central processing unit,CPU)1330,用于处理数据;发送器单元(Tx)1340和出端口1350,用于发送数据;存储器1360,用于存储数据。网络设备1300还可以包括与入端口1310、接收器单元1320、发送器单元1340和出端口1350耦合的光电(optical-to-electrical,OE)组件和电光(electrical-to-optical,EO)组件,用作光信号或电信号的出口或入口。
处理器1330通过硬件和软件实现。处理器1330可以实现为一个或多个CPU芯片、核(例如像多核处理器)、现场可编程门阵列(field-programmable gate array,FPGA)、专用集成电路(application specific integrated circuit,ASIC)和数字信号处理器(digital signal processor,DSP)。处理器1330与入端口1310、接收器单元1320、发送器单元1340、出端口1350和存储器1360通信。处理器1330包括译码模块1370。译码模块1370实现上述公开的实施例。例如,译码模块1370实现、处理、准备或提供各种联网功能。因此,包括译码模块1370使得网络设备1300功能得到了显著改进,并且实现了网络设备1300不同状态的转换。或者,以存储在存储器1360中并由处理器1330执行的指令来实现译码模块1370。
存储器1360包括一个或多个磁盘、磁带机和固态硬盘,可用作溢出数据存储设备,以在选择执行程序时存储这类程序,并存储在程序执行期间读取的指令和数据。存储器1360可以是易失性和/或非易失性,并且可以是只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、三态内容寻址存储器(ternary content-addressable memory,TCAM)和/或静态随机存取存储器(static random-access memory,SRAM)。
虽然本发明中已提供若干实施例,但应理解,在不脱离本发明的精神或范围的情况下,所公开的系统和方法可以以多种其它特定形式来体现。本发明示例应被视为说明性而非限制性的,且本发明并不限于本文所给出的细节。例如,可以在另一系统中结合或集成各种元件或组件,或者可以省略或不实现某些特征。
另外,在不偏离本发明的范围的情况下,各种实施例中描述及图示为独立或分离的技术、系统、子系统和方法可以与其它系统、模块、技术或方法组合或集成。示出或描述为彼此耦合、或直接耦合、或相互通信的其它项目可通过某种接口、设备或中间组件以电方式、机械方式或其它方式间接耦合或通信。变化、替换和变更的其它示例可由本领域技术人员确定,并可在不脱离本文公开的精神和范围的情况下举例。
以下结合附图进行描述,所述附图是描述的一部分,并通过图解说明的方式示出可以实施本发明的具体方面。
根据HEVC/H.265标准,有35种可用的帧内预测模式。如图11所示,该集合包含以下模式:平面模式(帧内预测模式索引为0)、DC模式(帧内预测模式索引为1),以及覆盖180°范围且帧内预测模式索引值范围为2至34(如图11中的黑色箭头所示)的方向(角度)模式。为了捕获自然视频中存在的任意边缘方向,HEVC中使用的方向帧内模式的数量从33种扩展到65种。其它方向模式在图4中显示为虚线箭头,平面模式和DC模式保持不变。值得注意的是,帧内预测模式覆盖的范围可以大于180°。具体地,索引值为3至64的62种方向模式覆盖了约230°的范围,即,若干对模式具有相反的方向性。如图4所示,在HEVC参考模型(HEVCReference Model,HM)和JEM平台的情况下,只有一对角度模式(即,模式2和66)具有相反的方向性。为了构建预测器,传统的角度模式通过获取参考样本并(视需要)对它们进行滤波来获得样本预测值。构建预测值所需参考样本的数量取决于用于插值的滤波器的长度(例如,双线性滤波器和三次滤波器的长度分别为2和4)。
例如,在实施例中,根据当前正在开发的最新视频译码标准(称为通用视频译码(Versatile Video Coding,VVC)),例如,四叉树嵌套多类型树(使用二叉树和三叉树)的组合可以划分分割结构,例如用于分割译码树单元。在译码树单元内的译码树结构中,CU可以为正方形或矩形。例如,首先通过四叉树分割译码树单元(coding tree unit,CTU)。然后,可以通过多类型树结构进一步分割四叉树叶节点。多类型树结构有四种划分类型:垂直二叉树划分(SPLIT_BT_VER)、水平二叉树划分(SPLIT_BT_HOR)、垂直三叉树划分(SPLIT_TT_VER)和水平三叉树划分(SPLIT_TT_HOR)。多类型树叶节点称为译码单元(coding unit,CU),除非CU大于最大变换长度,否则在无需任何进一步分割的情况下将该分割用于预测和变换处理。即,在大多数情况下,CU、PU和TU在四叉树嵌套多类型树的译码块结构中的块尺寸相同。当最大支持变换长度小于CU的彩色分量的宽度或高度时,就会出现该异常。制定了具有四叉树嵌套多类型树的译码结构中的分割划分信息的唯一指示机制。在该指示机制中,译码树单元(coding tree unit,CTU)作为四叉树的根进行处理,首先通过四叉树结构分割。然后,进一步通过多类型树结构分割每个四叉树叶节点(当大到足以进行分割时)。在多类型树结构中,指示第一标志(mtt_split_cu_flag)来表示是否进一步分割节点;当进一步分割节点时,指示第二标志(mtt_split_cu_vertical_flag)来表示划分方向,然后指示第三标志(mtt_split_cu_binary_flag)来表示划分为二叉树划分还是三叉树划分。根据mtt_split_cu_vertical_flag和mtt_split_cu_binary_flag的值,解码器可以根据预定义规则或表格推导出CU的多类型树划分模式(MttSplitMode)。需要说明的是,对于某种设计,例如VVC硬件解码器中的64×64的亮度块和32×32的色度流水线设计,当亮度译码块的宽度或高度大于64时,不允许进行TT划分,如图6所示。当色度译码块的宽度或高度大于32时,也禁止TT划分。流水线设计将图像分为多个虚拟流水数据单元(virtual pipeline dataunit,VPDU),定义为图像中的不重叠的单元。在硬件解码器中,多个流水线阶段同时处理连续的VPDU。在大多数流水线阶段,VPDU尺寸与缓冲器尺寸大致成正比,因此需要保持较小的VPDU。在大多数硬件解码器中,可以将VPDU尺寸设置为最大变换块(transform block,TB)尺寸。然而,在VVC中,三叉树(ternary tree,TT)和二叉树(binary tree,BT)分割可能会增加VPDU的尺寸。
另外,需要说明的是,当树节点块的一部分超出底部或右侧图像边界时,对该树节点块进行强制划分,直到每个译码CU的所有样本都位于图像边界内。
例如,帧内子分割(Intra Sub-Partitions,ISP)工具可以根据块尺寸将亮度帧内预测块垂直或水平分为2个或4个子分割。
帧内预测
帧内预测模式集合可以包括35种不同的帧内预测模式,例如,如DC(或均值)模式和平面模式等非方向性模式,或如HEVC中定义的方向性模式,或者可以包括67种不同的帧内预测模式,例如,如DC(或均值)模式和平面模式等非方向性模式,或如针对VVC定义的方向性模式。在一个示例中,若干传统角度帧内预测模式自适应地替换为例如VVC中定义的非正方形块的广角帧内预测模式。在另一示例中,为了避免DC预测的除法运算,仅使用较长边来计算非正方形块的平均值。并且,还可以通过位置决定的帧内预测组合(positiondependent intra prediction combination,PDPC)方法修改平面模式的帧内预测结果。
帧内预测单元用于根据帧内预测模式集合中的帧内预测模式,使用同一当前图像的邻块的重建样本来生成帧内预测块。
帧内预测单元(或通常为模式选择单元)还用于将帧内预测参数(或通常为指示块的所选帧内预测模式的信息)以语法元素的形式输出到熵编码单元,以包括到编码后的图像数据中,使得例如视频解码器可以接收并使用预测参数进行解码。
帧间预测
在可能的实现中,帧间预测模式集合取决于可用参考图像(即,例如存储在DPB中的先前至少部分解码的图像)和其它帧间预测参数,例如取决于是否使用整个参考图像或只使用参考图像的一部分(例如当前块的区域附近的搜索窗口区域)来搜索最佳匹配参考块,和/或例如取决于是否应用像素插值(例如二分之一/半像素、四分之一像素和/或1/16像素插值)。
除上述预测模式外,还可以应用跳过模式、直接模式和/或其它帧间预测模式。
例如,对于扩展融合(merge)预测,这种模式的融合候选列表由以下五种候选类型按顺序组成:空间相邻CU的空间MVP、并置CU的时间MVP、FIFO表的基于历史的MVP、成对平均MVP和零MV。可以应用基于双边匹配的解码端运动矢量修正(decoder side motion vectorrefinement,DMVR)来提高融合模式的MV的准确度。带有MVD的融合模式(merge mode withMVD,MMVD)来自有运动矢量差值的融合模式。在发送跳过标志和融合标志之后立即指示MMVD标志,以表示是否对CU使用MMVD模式。可以应用CU级自适应运动矢量分辨率(adaptivemotion vector resolution,AMVR)方案。AMVR支持以不同的精度对CU的MVD进行译码。根据当前CU的预测模式,可以自适应地选择当前CU的MVD。当以融合模式对CU进行译码时,可以将合并的帧间/帧内预测(combined inter/intra prediction,CIIP)模式应用于当前CU。对帧间和帧内预测信号进行加权平均,得到CIIP预测。对于仿射运动补偿预测,通过2个控制点(4参数)或3个控制点(6参数)运动矢量的运动信息来描述块的仿射运动场。基于子块的时间运动矢量预测(subblock-based temporal motion vector prediction,SbTMVP)与HEVC中的时间运动矢量预测(temporal motion vector prediction,TMVP)类似,但预测的是当前CU内子CU的运动矢量。双向光流(bi-directional optical flow,BDOF)以前称为BIO,是一种减少计算的简化版本,特别是在乘法次数和乘数尺寸方面的计算。在三角形分割模式中,使用对角线划分或反对角线划分将CU均匀划分为两个三角形部分。此外,双向预测模式在简单平均的基础上进行了扩展,以支持两个预测信号的加权平均。
帧间预测单元可以包括运动估计(motion estimation,ME)单元和运动补偿(motion compensation,MC)单元(两者在图2中均未示出)。运动估计单元可以用于接收或获取图像块(当前图像的当前图像块)和解码图像,或至少一个或多个先前重建块,例如,一个或多个其它/不同先前解码图像的重建块,以进行运动估计。例如,视频序列可以包括当前图像和先前解码图像,或换句话说,当前图像和先前解码图像可以为形成视频序列的图像序列的一部分或形成该图像序列。
例如,编码器可用于从多个其它图像中的相同或不同图像的多个参考块中选择参考块,并将参考图像(或参考图像索引)和/或参考块的位置(x坐标,y坐标)与当前块的位置之间的偏移(空间偏移)作为帧间预测参数提供给运动估计单元。该偏移也称为运动矢量(motion vector,MV)。
运动补偿单元用于获取例如接收帧间预测参数,并根据或使用帧间预测参数进行帧间预测,以获得帧间预测块。由运动补偿单元执行的运动补偿可能涉及根据通过运动估计确定的运动/块矢量来提取或生成预测块,还可能涉及对子像素精度进行插值。插值滤波可以从已知像素的样本中生成额外像素的样本,从而可能增加可用于对图像块进行译码的候选预测块的数量。一旦接收到当前图像块的PU的运动矢量,运动补偿单元可以定位在其中一个参考图像列表中运动矢量指向的预测块。
运动补偿单元还可以生成与块和视频条带相关的语法元素,以供视频解码器30在解码视频条带的图像块时使用。除了条带和相应语法元素或作为条带和相应语法元素的替代,还可以接收和/或使用分块组(tile group)和/或分块(tile)以及相应语法元素。
如图20所示,在本发明实施例中,一种视频译码方法可以包括:
S2001:获取视频码流。
解码端从另一边(编码端或网络发送端)接收编码后的视频码流,或者解码端读取存储在解码端存储器中的编码后的视频码流。
编码后的视频码流包括用于对编码后的图像数据进行解码的信息,例如表示已编码的视频的图像块的数据和相关的语法元素。
S2002:根据视频码流确定当前译码块的预测样本是使用帧内预测还是帧间预测获得。
在解码端,当前译码块为解码端当前正在重建的块。当前译码块位于视频的帧或图像中。
可以根据视频码流中的语法元素确定当前译码块的预测样本是使用帧内预测还是帧间预测获得。
视频码流中可以有一个语法元素用于表示使用帧间预测或帧内预测的当前译码块。例如,码流中有一个标志用于表示对当前译码块使用帧内预测过程或帧间预测过程。当标志的值等于1(或其它值)时,使用帧内预测获得当前译码块的预测样本;当标志的值等于0(或其它值)时,使用帧间预测获得当前译码块的预测样本。
也可以使用两个或更多个语法元素来表示使用帧间预测或帧内预测的当前译码块。例如,码流中有一个指示信息(例如,标志)用于表示当前译码块是否使用帧内预测过程,码流中还有其它指示信息(例如,另一标志)用于表示当前译码块是否使用帧间预测过程。
当确定使用帧内预测获得当前译码块的预测样本时,执行步骤S2003。当确定使用帧间预测获得当前译码块的预测样本时,执行步骤S2006。
S2003:根据当前译码块的帧内预测模式和预测样本在当前译码块内的位置获得第一子像素偏移值。
在一个示例中,还可以根据视频码流获取当前译码块的帧内预测模式。
图4示出了如针对VVC提出的67种帧内预测模式的示例,67种帧内预测模式的多种帧内预测模式包括:平面模式(索引为0)、dc模式(索引为1),以及角度模式(索引为2到66),其中,图4中的左下角度模式是指索引2,并且索引的编号递增,直到索引66对应图4的最右上角度模式为止。
图11示出了HEVC UIP方案中使用的多种帧内预测模式的示意图。对于亮度块,帧内预测模式可以包括多达36种帧内预测模式,可以包括三种非方向模式和33种方向模式。非方向模式可以包括平面预测模式、均值(DC)预测模式和基于亮度预测模式得到的色度预测模式(LM)。平面预测模式可以通过假定块幅度表面具有从块的边界推导的水平和垂直斜率来执行预测。DC预测模式可以通过假设平坦块表面具有与块边界的平均值相匹配的值来执行预测。LM预测模式可以通过假设块的色度值与块的亮度值相匹配来执行预测。定向模式可以根据邻块执行预测,如图11所示。
根据对当前译码块的视频码流的解析,可以获得当前译码块的帧内预测模式。在一个示例中,根据视频码流获得当前译码块的最可能模式(Most Probable Modes,MPM)标志的值。在一个示例中,当MPM标志的值为真(例如,MPM标志的值为1)时,获取索引的值,该索引的值用于表示MPM中当前译码块的帧内预测模式值。
在另一示例中,当MPM标志的值为真(例如,MPM标志的值为1)时,获取第二标志(例如,平面标志)的值。当第二标志的值为假(在一个示例中,第二标志的值为假表示当前译码块的帧内预测模式不是平面模式)时,获取索引的值,该索引的值用于表示MPM中当前译码块的帧内预测模式值。
在一个示例中,语法元素intra_luma_mpm_flag[x0][y0]、intra_luma_mpm_idx[x0][y0]和intra_luma_mpm_remainder[x0][y0]表示亮度样本的帧内预测模式。阵列索引x0,y0表示所考虑预测块的左上亮度样本相对于图像的左上亮度样本的位置(x0,y0)。当intra_luma_mpm_flag[x0][y0]等于1时,从相邻帧内预测的预测单元推断帧内预测模式。
在一个示例中,当MPM标志的值为假(例如,MPM标志的值为0)时,获取索引的值,该索引的值用于表示非MPM中当前译码块的帧内预测模式值。
根据帧内预测模式的斜率获得预测样本在当前译码块内的位置。样本在预测块(例如,当前译码块)中的位置相对于左上预测样本的位置由一对整数值(xp,yp)定义,其中,xp是预测样本相对于左上预测样本的水平偏移,yp是预测样本相对于左上预测样本的垂直偏移。左上预测样本的位置定义为xp=0,yp=0。
从参考样本生成预测样本,执行以下步骤。定义两个帧内预测模式范围。帧内预测模式的第一范围对应于垂直方向的预测,帧内预测模式的第二范围对应于水平方向的模式。当针对预测块指定的帧内预测模式属于帧内预测模式的第一范围时,还可以用位置(x,y)寻址预测样本块,其中x集合等于xp,y集合等于yp。当针对预测块指定的帧内预测模式属于帧内预测模式的第二范围时,还可以用位置(x,y)寻址预测样本块,其中x集合等于yp,y集合等于xp。在一些示例中,帧内预测模式的第一范围定义为[34,80]。帧内预测模式的第二范围定义为[–14,–1]∪[1,33]。
反角度参数invAngle根据intraPredAngle推导如下:
每个帧内预测模式都具有相关的帧内预测变量,还称为“intraPredAngle”。这种相关如表8-8所示。
使用以下等式定义表示为“iFact”且还称为“第一子像素偏移值”的子像素偏移:
iFact=((y+1+refIdx)*intraPredAngle)&31
在该等式中,refIdx表示参考样本集合相对于预测块边界的偏移。对于亮度分量,可以获得该值,例如如下所示:
intra_luma_ref_idx | refIdx |
0 | 0 |
1 | 1 |
2 | 3 |
语法元素“intra_luma_ref_idx”的值在码流中指示。
还提供了获得预测样本(如所述VVC标准,JVET-O2001)的过程的实施例,其中,不管帧内预测模式是水平方向还是垂直方向,位置(x,y)总是定义为x=xp和y=yp:
预测样本predSamples[x][y]的值推导如下,其中,x=0……nTbW–1,y=0……nTbH–1:
–如果predModeIntra大于等于34,则使用如下顺序步骤:
1.参考样本阵列ref[x]指定如下:
–以下适用:
ref[x]=p[–1–refIdx+x][–1–refIdx],其中,x=0……nTbW+refIdx+1
–如果intraPredAngle小于0时,则主参考样本阵列扩展如下:
ref[x]=p[–1–refIdx][–1–refIdx+Min((x*invAngle+256)>>9,nTbH)],
其中,x=–nTbH……1
–否则,
ref[x]=p[–1–refIdx+x][–1–refIdx],其中,x=
nTbW+2+refIdx……refW+refIdx
–附加样本ref[refW+refIdx+x]推导如下,其中,x=1……(Max(1,
nTbW/nTbH)*refIdx+2):
ref[refW+refIdx+x]=p[–1+refW][–1–refIdx]
2.预测样本predSamples[x][y]的值推导如下,其中,x=0……nTbW–1,y=0……nTbH–1:
–索引变量iIdx和乘法因子iFact推导如下:
iIdx=(((y+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((y+1+refIdx)*intraPredAngle)&31
–如果cIdx等于0,则以下适用:
–插值滤波系数fT[j]推导如下,其中,j=0……3:
fT[j]=filterFlag?fG[iFact][j]:C[iFact][j]
–预测样本predSamples[x][y]的值推导如下:
–否则(cIdx不等于0),根据iFact的值,以下适用:
–如果iFact不等于0,则预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=
((32–iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5
–否则,预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=ref[x+iIdx+1]
–否则(predModeIntra小于34),使用如下顺序步骤:
1.参考样本阵列ref[x]指定如下:
–以下适用:
ref[x]=p[–1–refIdx][–1–refIdx+x],其中,x=0……nTbH+refIdx+1
–如果intraPredAngle小于0时,则主参考样本阵列扩展如下:
ref[x]=p[–1–refIdx+Min((x*invAngle+256)>>9,nTbW)][–1–refIdx],
其中,x=–nTbW……–1
–否则,
ref[x]=p[–1–refIdx][–1–refIdx+x],其中,x=
nTbH+2+refIdx……refH+refIdx
–附加样本ref[refH+refIdx+x]推导如下,其中,x=1……(Max(1,
nTbW/nTbH)*refIdx+2):
ref[refH+refIdx+x]=p[–1+refH][–1–refIdx]
2.预测样本predSamples[x][y]的值推导如下,其中,x=0……nTbW–1,y=0……nTbH–1:
–索引变量iIdx和乘法因子iFact推导如下:
iIdx=(((x+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((x+1+refIdx)*intraPredAngle)&31
–如果cIdx等于0,则以下适用:
–插值滤波系数fT[j]推导如下,其中,j=0……3:
fT[j]=filterFlag?fG[iFact][j]:C[iFact][j]
–预测样本predSamples[x][y]的值推导如下:
–否则(cIdx不等于0),根据iFact的值,以下适用:
–如果iFact不等于0,则预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=
((32–iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5
–否则,预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=ref[y+iIdx+1]。
S2004:根据第一子像素偏移值获取滤波系数。
在一个示例中,根据第一子像素偏移值获得滤波系数是指根据预定义的查找表和第一子像素偏移值获得滤波系数。在一个示例中,使用第一子像素偏移值作为索引,使用预定义查找表描述滤波系数与子像素偏移之间的映射关系。
在一个示例中,预定义查找表描述如下:
其中,“子像素偏移”列以1/32子像素分辨率定义,且c0、c1、c2、c3为滤波系数。在另一示例中,预定义查找表描述如下:
其中,“子像素偏移”列以1/32子像素分辨率定义,且c0、c1、c2、c3为滤波系数。
在另一可能的实现实施例中,用于帧内预测和帧间预测的插值滤波系数推导过程的结果是4抽头滤波器的系数。
在一种可能的实现实施例中,当帧内预测中使用的主参考边的尺寸小于或等于阈值时,选择插值滤波系数推导过程。
在一个示例中,根据块的宽度值或块的高度值,选择高斯滤波系数或三次滤波系数。使用宽度还是高度的决策与主参考边选择的决策一致。当帧内预测模式的值大于或等于对角线模式的值时,选择参考样本的顶边作为主参考边,并选择宽度值来确定正在使用的插值滤波器。当帧内预测模式的值小于对角线模式的值时,从块的左边选择主参考边,并使用高度值控制滤波器的选择过程。具体地,如果所选边的长度小于或等于8个样本,则使用4抽头三次滤波器。如果所选边的长度大于8个样本,则插值滤波器为4抽头高斯滤波器。
对于每个帧内预测模式,一个值对应一个帧内预测模式。因此,可以使用不同帧内预测模式值中的值关系(例如,小于、等于或大于)来选择主参考边。
图12示出了在32×4块的情况下,对于小于和大于对角线模式(表示为45°)的模式选择的示例。如图12所示,如果对应于当前译码块的帧内预测模式的值小于对应于对角线模式的值,则选择当前译码块的左边(高度)作为主参考边。在这种情况下,针对预测块指定的帧内预测模式是水平方向的,即,该帧内预测模式属于帧内预测模式的第二范围。由于左边具有4个样本,其小于阈值(例如,8个样本),因此,选择三次插值滤波器。
如果对应于当前译码块的帧内预测模式的值大于或等于对应于对角线模式的值,则选择当前译码块的顶边(宽度)作为主参考边。在这种情况下,针对预测块指定的帧内预测模式是垂直方向的,即,该帧内预测模式属于帧内预测模式的第一范围。由于顶边具有32个样本,其大于阈值(例如,8个样本),因此,选择高斯插值滤波器。
在一个示例中,如果选择三次滤波器,则将预测样本进一步修正为在允许的值范围内,该值范围是在序列参数集合(sequence parameter set,SPS)中定义,或从所选组件的位深度推导得到。
在一个示例中,如图8所示,“具有6位色度系数的4抽头插值滤波器”(也称为“统一帧内/帧间滤波器”)可用于两个过程:帧内预测样本的插值和帧间预测样本的插值。
图9中示出了使用这种设计的实施例。在该实现方式中,滤波模块实现为单独单元,该单独单元参与预测运动补偿906中的色度样本以及在执行帧内预测907时预测亮度和色度样本。在该实现方式中,硬件滤波部分(例如,4抽头滤波器904)用于帧内预测和帧间预测过程。
另一实施例示出在重复使用滤波系数的LUT时的实施例(参见图10)。图10是基于重复使用系数的LUT的提供应用的示例性实现方式。在该实现方式中,硬件滤波模块从存储在ROM中的LUT中加载系数。帧内预测过程中示出的开关根据选择用于帧内预测处理的主边长度来确定待使用的滤波器类型。
在另一示例中,根据阈值,选择高斯滤波系数或三次滤波系数。
在一些示例中,对于尺寸为32×4和4×32的块,用于确定参考样本滤波器的阈值模式mT如其在图16所示定义。
阈值帧内预测角度的值可以通过如下公式计算:
其中,W和H分别是块宽度和高度。
在一个示例中,示出INTRA_ANGULAR2……INTRA_ANGULAR66帧内预测模式的规格。
该过程的输入是:
–帧内预测模式predModeIntra,
–变量refIdx,表示帧内预测参考线索引,
–变量nTbW,表示变换块宽度,
–变量nTbH,表示变换块高度,
–变量refW,表示参考样本宽度,
–变量refH,表示参考样本高度,
–变量nCbW,表示译码块宽度,
–变量nCbH,表示译码块高度,
–变量refFilterFlag,表示参考滤波器标志的值,
–变量cIdx,表示当前块的颜色分量,
–相邻样本p[x][y],其中,x=–1–refIdx,y=–1–refIdx……refH–1,x=–refIdx……refW–
1,y=–1–refIdx。
该过程的输出是预测样本predSamples[x][y],其中x=0……nTbW–1,y=0……nTbH–1。将变量nTbS设置为(Log2(nTbW)+Log2(nTbH))>>1。
变量filterFlag推导如下:
–如果以下条件中的一个或多个为真,则filterFlag设置为0。
–refFilterFlag等于1
–refIdx不等于0
–IntraSubPartitionsSplitType不等于ISP_NO_SPLIT
–否则,以下适用:
–将变量minDistVerHor设置为Min(Abs(predModeIntra–50),Abs(predModeIntra–
18))。
–变量intraHorVerDistThres[nTbS]在表8-7中指定。
–变量filterFlag推导如下:
–如果minDistVerHor大于intraHorVerDistThres[nTbS],且refFilterFlag等于0,则filterFlag设置为1。
–否则,filterFlag设置为0。
表8-7-各种变换块尺寸nTbS的intraHorVerDistThres[nTbS]的规格
表8-8是predModeIntra与角度参数intraPredAngle之间的映射表。
表8-8–intraPredAngle的规格
predModeIntra | –14 | –13 | –12 | –11 | –10 | –9 | –8 | –7 | –6 | –5 | –4 | –3 | –2 | –1 | 2 | 3 | 4 |
intraPredAngle | 512 | 341 | 256 | 171 | 128 | 102 | 86 | 73 | 64 | 57 | 51 | 45 | 39 | 35 | 32 | 29 | 26 |
predModeIntra | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 |
intraPredAngle | 23 | 20 | 18 | 16 | 14 | 12 | 10 | 8 | 6 | 4 | 3 | 2 | 1 | 0 | –1 | –2 | –3 |
predModeIntra | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 |
intraPredAngle | –4 | –6 | –8 | –10 | –12 | –14 | –16 | –18 | –20 | –23 | –26 | –29 | –32 | –29 | –26 | –23 | –20 |
predModeIntra | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 |
intraPredAngle | –18 | –16 | –14 | –12 | –10 | –8 | –6 | –4 | –3 | –2 | –1 | 0 | 1 | 2 | 3 | 4 | 6 |
predModeIntra | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 |
intraPredAngle | 8 | 10 | 12 | 14 | 16 | 18 | 20 | 23 | 26 | 29 | 32 | 35 | 39 | 45 | 51 | 57 | 64 |
predModeIntra | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | |||||||||
intraPredAngle | 73 | 86 | 102 | 128 | 171 | 256 | 341 | 512 |
反角度参数invAngle根据intraPredAngle推导如下:
在表8-9中指定插值滤波系数fC[phase][j]和fG[phase][j],其中phase=0……31,j=0……3。
表8-9-插值滤波系数fC和fG的规格
S2005:根据滤波系数,获得帧内预测样本值。
帧内预测样本值用于当前译码块的亮度分量。
在一个实施例中,根据子像素偏移和滤波器类型,通过使用从表3中选择的系数进行卷积运算来计算帧内预测样本,如下所示:
在该等式中,“>>”表示按位右移操作,ci表示使用第一子像素偏移值推导出的一组滤波系数中的一个系数,s(x)表示位置(x,y)处的帧内预测样本,refi+x表示一组参考样本,其中,ref1+x位于位置(xr,yr)处,该参考样本位置定义如下:
xr=(((y+1+refIdx)*intraPredAngle)>>5)+refIdx;
yr=>>–1–refIdx。
在一个示例中,预测样本predSamples[x][y]的值推导如下,其中,x=0……nTbW–1,y=0……nTbH–1:
–如果predModeIntra大于等于34,则使用如下顺序步骤:
3.参考样本阵列ref[x]指定如下:
–以下适用:
ref[x]=p[–1–refIdx+x][–1–refIdx],其中,x=0……nTbW+refIdx+1
–如果intraPredAngle小于0时,则主参考样本阵列扩展如下:
ref[x]=p[–1–refIdx][–1–refIdx+Min((x*invAngle+256)>>9,nTbH)],
其中,x=–nTbH……1
–否则,
ref[x]=p[–1–refIdx+x][–1–refIdx],其中,x=nTbW+2+refIdx……refW+refIdx
–附加样本ref[refW+refIdx+x]推导如下,其中,x=1……(Max(1,nTbW/nTbH)*refIdx+2):
ref[refW+refIdx+x]=p[–1+refW][–1–refIdx]
4.预测样本predSamples[x][y]的值推导如下,其中,x=0……nTbW–1,y=0……nTbH–1:
–索引变量iIdx和乘法因子iFact推导如下:
iIdx=(((y+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((y+1+refIdx)*intraPredAngle)&31
–如果cIdx等于0,则以下适用:
–插值滤波系数fT[j]推导如下,其中,j=0……3:
fT[j]=filterFlag?fG[iFact][j]:C[iFact][j]
–预测样本predSamples[x][y]的值推导如下:
–否则(cIdx不等于0),根据iFact的值,以下适用:
–如果iFact不等于0,则预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=
((32–iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5
–否则,预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=ref[x+iIdx+1]
–否则(predModeIntra小于34),使用如下顺序步骤:
3.参考样本阵列ref[x]指定如下:
–以下适用:
ref[x]=p[–1–refIdx][–1–refIdx+x],其中,x=0……nTbH+refIdx+1
–如果intraPredAngle小于0时,则主参考样本阵列扩展如下:
ref[x]=p[–1–refIdx+Min((x*invAngle+256)>>9,nTbW)][–1–refIdx],
其中,x=–nTbW……–1
–否则,
ref[x]=p[–1–refIdx][–1–refIdx+x],其中,x=
nTbH+2+refIdx……refH+refIdx
–附加样本ref[refH+refIdx+x]推导如下,其中,x=1……(Max(1,
nTbW/nTbH)*refIdx+2):
ref[refH+refIdx+x]=p[–1+refH][–1–refIdx]
4.预测样本predSamples[x][y]的值推导如下,其中,x=0……nTbW–1,y=0……nTbH–1:
–索引变量iIdx和乘法因子iFact推导如下:
iIdx=(((x+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((x+1+refIdx)*intraPredAngle)&31
–如果cIdx等于0,则以下适用:
–插值滤波系数fT[j]推导如下,其中,j=0……3:
fT[j]=filterFlag?fG[iFact][j]:C[iFact][j]
–预测样本predSamples[x][y]的值推导如下:
–否则(cIdx不等于0),根据iFact的值,以下适用:
–如果iFact不等于0,则预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=
((32–iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5
–否则,预测样本predSamples[x][y]的值推导如下:
predSamples[x][y]=ref[y+iIdx+1]。
S2006:根据当前译码块的运动信息获得第二子像素偏移值。
当前译码块的运动信息在码流中指示。运动信息可以包括在帧间预测中使用的运动矢量和其它语法元素。
在一个示例中,第一子像素偏移值可以等于第二子像素偏移值。在另一示例中,第一子像素偏移值和第二子像素偏移值可以不同。
S2007:根据第二子像素偏移值获得滤波系数。
在可能的实现实施例中,执行在帧间预测中使用的插值滤波系数推导过程,在帧内预测中使用的预定义查找表也是如此。在该示例中,根据第一子像素偏移值获得滤波系数是指根据预定义查找表和第二子像素偏移值获得滤波系数。在一个示例中,使用第二子像素偏移值作为索引,使用预定义查找表描述滤波系数与子像素偏移之间的映射关系。
在一个示例中,预定义查找表描述如下:
其中,“子像素偏移”列以1/32子像素分辨率定义,且c0、c1、c2、c3为滤波系数。在另一示例中,预定义查找表描述如下:
其中,“子像素偏移”列以1/32子像素分辨率定义,且c0、c1、c2、c3为滤波系数。
当子像素偏移值等于0时,不需要滤波系数来获得帧间预测样本。在第一替代实施例中,可以执行以下步骤:
在第二替代实施例中,可以执行以下步骤:
在第三替代实施例中,可以执行以下步骤:
–样本阵列temp[n]推导如下,其中,n=0……3:
–色度样本预测值predSampleLXC推导如下:
predSampleLXC=(fC[yFracC][0]*temp[0]+
fC[yFracC][1]*temp[1]+
fC[yFracC][2]*temp[2]+
fC[yFracC][3]*temp[3])>>shift2
在上述三个可选实施例中,yFracC和xFracC设置为0,fC[0][0]=0,fC[0][1]=64,fC[0][2]=0,fC[0][3]=0。
在另一可能的实现实施例中,用于帧内预测和帧间预测的插值滤波系数推导过程的结果是4抽头滤波器的系数。
S2008:根据滤波系数,获得帧间预测样本值。
在可能的实现实施例中,将帧间预测样本值用于当前译码块的色度分量。
在一个示例中,公开了色度样本插值过程。
该过程的输入是:
–全样本单元中的色度位置(xIntC,yIntC),
–1/32分数样本单元中的色度位置(xFracC,yFracC),
–全样本单元中的色度位置(xSbIntC,ySbIntC)指定相对于参考图像的左上色度样本的用于参考样本填充的边界块的左上样本,
–变量sbWidth,指定当前子块的宽度,
–变量sbHeight,指定当前子块的高度,
–色度参考样本阵列refPicLXC。
该过程的输出是预测色度样本值predSampleLXC。
变量shift1、shift2和shift3推导如下:
–将变量shift1设置为Min(4,BitDepthC–8),将变量shift2设置为6,将变量shift3设置为Max(2,14–BitDepthC)。
–将变量picWC设置为pic_width_in_luma_samples/SubWidthC,并将变量picHC设置为pic_height_in_luma_samples/SubHeightC。
表8-13中指定每个1/32分数样本位置p的色度插值滤波系数fC[p]等于xFracC或yFracC。
变量xOffset设置为(sps_ref_wraparound_offset_minus1+1)*MinCbSizeY)/SubWidthC。
对于i=0……3,全样本单元中的色度位置(xInti,yInti)推导如下:
–如果subpic_treated_as_pic_flag[SubPicIdx]等于1,则以下适用:
xInti=Clip3(SubPicLeftBoundaryPos/SubWidthC,SubPicRightBoundaryPos/SubWidthC,
xIntL+i)
yInti=Clip3(SubPicTopBoundaryPos/SubHeightC,SubPicBotBoundaryPos/SubHeightC,
yIntL+i)
–否则(subpic_treated_as_pic_flag[SubPicIdx]等于0),则以下适用:
xInti=Clip3(0,picWC–1,sps_ref_wraparound_enabled_flag?ClipH(xOffset,picWC,
xIntC+i–1):xIntC+i–1)
yInti=Clip3(0,picHC–1,yIntC+i–1)
对于i=0……3,全样本单元(xInti,yInti)中的色度位置进一步修改如下:
xInti=Clip3(xSbIntC–1,xSbIntC+sbWidth+2,xInti)
yInti=Clip3(ySbIntC–1,ySbIntC+sbHeight+2,yInti)
色度样本预测值predSampleLXC推导如下:
–如果xFracC和yFracC都等于0,则predSampleLXC的值推导如下:
predSampleLXC=refPicLXC[xInt1][yInt1]<<shift3
–否则,如果xFracC不等于0,yFracC等于0,则predSampleLXC的值推导如下:
–否则,如果xFracC和yFracC都等于0,则predSampleLXC的值推导如下:
–否则,如果xFracC和yFracC都不等于0,则predSampleLXC的值推导如下:
–样本阵列temp[n]推导如下,其中,n=0……3:
–色度样本预测值predSampleLXC推导如下:
predSampleLXC=(fC[yFracC][0]*temp[0]+
fC[yFracC][1]*temp[1]+
fC[yFracC][2]*temp[2]+
fC[yFracC][3]*temp[3])>>shift2。
一种解码器,包括用于执行上述方法的处理电路。
在本发明中,公开了一种计算机程序产品,所述计算机程序产品包括用于执行上述方法的程序代码。
在本发明中,公开了一种用于对视频数据进行解码的解码器,所述解码器包括:一个或多个处理器;非瞬时性计算机可读存储介质,耦合到所述处理器并存储供所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述解码器执行上述方法。
图18为本发明实施例提供的网络设备1300的示意图。网络设备1300适用于实现本文描述的公开实施例。网络设备1300包括:入端口1310和接收器单元(Rx)1320,用于接收数据;处理器、逻辑单元或中央处理单元(central processing unit,CPU)1330,用于处理数据;发送器单元(Tx)1340和出端口1350,用于发送数据;存储器1360,用于存储数据。网络设备1300还可以包括与入端口1310、接收器单元1320、发送器单元1340和出端口1350耦合的光电(optical-to-electrical,OE)组件和电光(electrical-to-optical,EO)组件,用作光信号或电信号的出口或入口。
处理器1330通过硬件和软件实现。处理器1330可以实现为一个或多个CPU芯片、核(例如像多核处理器)、现场可编程门阵列(field-programmable gate array,FPGA)、专用集成电路(application specific integrated circuit,ASIC)和数字信号处理器(digital signal processor,DSP)。处理器1330与入端口1310、接收器单元1320、发送器单元1340、出端口1350和存储器1360通信。处理器1330包括译码模块1370。译码模块1370实现上述公开的实施例。例如,译码模块1370实现、处理、准备或提供各种联网功能。因此,包括译码模块1370使得网络设备1300功能得到了显著改进,并且实现了网络设备1300不同状态的转换。或者,以存储在存储器1360中并由处理器1330执行的指令来实现译码模块1370。
存储器1360包括一个或多个磁盘、磁带机和固态硬盘,可用作溢出数据存储设备,以在选择执行程序时存储这类程序,并存储在程序执行期间读取的指令和数据。存储器1360可以是易失性和/或非易失性,并且可以是只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、三态内容寻址存储器(ternary content-addressable memory,TCAM)和/或静态随机存取存储器(static random-access memory,SRAM)。
图19为可用于实现各种实施例的装置1500的框图。装置1500可以是图1所示的源设备102、或图2所示的视频编码器200、或图1所示的目的设备104、或图3所示的视频解码器300。此外,装置1100可包括一个或多个所描述的元件。在一些实施例中,装置1100配备有一个或多个输入/输出设备,如扬声器、麦克风、鼠标、触摸屏、小键盘、键盘、打印机、显示器等。装置1500可包括连接到总线的一个或多个中央处理单元(central processing unit,CPU)1510、存储器1520、大容量存储器1530、视频适配器1540和I/O接口1560。所述总线是任何类型的若干总线架构中的一种或多种,包括内存总线或内存控制器、外围总线、视频总线等。
CPU 1510可具有任何类型的电子数据处理器。存储器1520可具有或者可以是任何类型的系统存储器,如静态随机存取存储器(static random access memory,SRAM)、动态随机存取存储器(dynamic random access memory,DRAM)、同步DRAM(synchronous DRAM,SDRAM)、只读存储器(read-only memory,ROM)、其组合等。在一个实施例中,存储器1520可以包括在开机时使用的ROM以及在执行程序时使用的存储程序和数据的DRAM。在一个实施例中,内存1520是非瞬时性存储器。大容量存储器1530包括存储数据、程序和其它信息并使数据、程序和其它信息能够通过总线访问的任何类型的存储设备。例如,大容量存储器1530包括固态硬盘、硬盘驱动器、磁盘驱动器、光盘驱动器等中的一种或多种。
视频适配器1540和I/O接口1560提供接口以使外部输入和输出设备与装置1100耦合。例如,装置1100可向客户端提供SQL命令接口。如图所示,输入和输出设备的示例包括与视频适配器1540耦合的显示器1590和与I/O接口1560耦合的鼠标/键盘/打印机1570的任何组合。其它设备可与装置1100耦合,并且可使用额外的或更少的接口卡。例如,串行接口卡(未示出)可以用于为打印机提供串行接口。
装置1100还包括一个或多个网络接口1550,或一个或多个网络1580,其中,网络接口1550包括以太网线等有线链路,和/或用于接入节点的无线链路。网络接口1550使得装置1100可以通过网络1580与远程单元通信。例如,网络接口1550可提供与数据库的通信。在一个实施例中,装置1100与局域网或广域网耦合,以进行数据处理并与如其它处理单元、互联网、远程存储设施等远程设备进行通信。
引入分段线性近似,以计算用于预测给定块内像素所需的加权系数的值。分段线性近似一方面与直接的加权系数计算相比,大大降低了距离加权预测机制的计算复杂度,另一方面与现有技术简化相比,有助于实现加权系数值的更高精确度。
实施例可以应用于其它双向和位置相关帧内预测技术(例如,PDPC的不同修改)以及使用取决于从一个像素到另一个像素的距离的加权系数混合图像的不同部分的机制(例如,图像处理中的一些混合方法)。
本发明所描述的主题和操作可在数字电子电路中实现,也可在计算机软件、固件或硬件中实现,包括在本发明中公开的结构及其结构等同物中实现,或在其一个或多个的组合中实现。本发明所描述的主题可实现为一个或多个计算机程序,即计算机程序指令的一个或多个模块,所述一个或多个计算机程序被编码在计算机存储介质中,以由数据处理装置执行或控制数据处理装置的操作。或者或另外,所述程序指令可在人工生成的传播信号(例如,机器生成的电、光或电磁信号)上进行编码,生成所述信号以对信息进行编码以传输到合适的接收器装置,供数据处理装置执行。计算机存储介质,例如计算机可读介质,可以是或包括在计算机可读存储设备、计算机可读存储衬底、随机或串行访问存储阵列或设备,或其中一个或多个的组合中。此外,虽然计算机存储介质不是传播信号,但计算机存储介质可以是编码到人工生成的传播信号中的计算机程序指令的源或目标。计算机存储介质也可以是或包括在一个或多个单独的物理和/或非瞬时性组件或介质(例如,多个CD、磁盘或其它存储设备)中。
在一些实现方式中,本发明所描述的操作可实现为云计算网络中服务器中提供的托管服务。例如,可在云计算网络内对计算机可读存储介质进行逻辑分组和访问。云计算网络中的服务器可包括云计算平台,用于提供云服务。在不脱离本发明范围的情况下,术语“云”、“云计算”和“基于云”可酌情互换使用。云服务可以是托管服务,由服务器提供,并通过网络传送到客户端平台,以增强、补充或替换在客户端计算机上本地执行的应用。电路可使用云服务来快速接收软件升级、应用和其它资源,否则,这些资源需要很长的时间才能传送到所述电路。
计算机程序(也称为程序、软件、软件应用、脚本或代码)可以任何形式的编程语言编写,包括编译或直译语言、声明性语言或程序语言,并且可以任何形式进行部署,例如,作为独立程序或作为模块、组件、子例程、对象或适用于计算环境中的其它单元进行部署。计算机程序可(但不必)对应文件系统中的文件。程序可存储在包括其它程序或数据的文件的一部分中(例如,存储在标记语言文档中的一个或多个脚本)、专用于相关程序的单个文件中,或多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)中。可将计算机程序部署在一台计算机中执行,或部署在位于一个站点或分布于多个站点并通过通信网络互连的多台计算机中执行。
本发明中描述的过程和逻辑流可由执行一个或多个计算机程序的一个或多个可编程处理器执行,以通过对输入数据进行操作和生成输出来执行动作。所述过程和逻辑流也可由现场可编程门阵列(field programmable gate array,FPGA)或专用集成电路(application-specific integrated circuit,ASIC)等专用逻辑电路执行,且装置也可实现为所述专用逻辑电路。
例如,适合于执行计算机程序的处理器包括通用和专用微处理器,以及任何种类的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者中接收指令和数据。计算机的基本元件为用于根据指令执行动作的处理器和用于存储指令和数据的一个或多个存储设备。通常,计算机还包括一个或多个用于存储数据的大容量存储设备(例如磁盘、磁光盘或光盘),或与一个或多个用于存储数据的大容量存储设备可操作地耦合以从大容量存储设备接收数据和/或将数据传送给大容量存储设备。然而,计算机不必具有此类设备。此外,可将计算机嵌入到其它设备中,例如移动电话、个人数字助理(personal digital assistant,PDA)、移动音频或视频播放器、游戏机、全球定位系统(Global Positioning System,GPS)接收器或便携式存储设备(例如,通用串行总线(universal serial bus,USB)闪存驱动器)等。适合存储计算机程序指令和数据的设备包括各种形式的非易失性存储器、介质和存储设备,例如,包括EPROM、EEPROM和闪存设备等半导体存储设备;内置硬盘或可移动硬盘等磁盘;磁光盘;以及CD-ROM和DVD-ROM磁盘。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路。
虽然本发明包括许多具体实现方式的细节,但这些不应对任何实现方式的范围或所要求保护的范围造成限制,而应作为针对特定实现方式的特定实现方式的特征的描述。在单独实现方式的上下文中,本发明中所描述的某些特征也可以在单个实现方式中组合实现。反之,在单个实现方式的上下文中描述的各种特征也可以在多个实现方式中单独实现或在任何合适的子组合中实现。此外,尽管上文可将特征描述为以某些组合来实现,甚至最初要求保护,但是在某些情况下,可从要求保护的组合中去除该组合中的一个或多个特征,且所要求保护的组合可针对子组合或子组合的变型。
同样,虽然附图以特定顺序描述操作,但这不应理解为要求此类操作按照所示的特定顺序或按顺序执行,或者要求执行所示的所有操作,以达到期望的结果。在某些情况下,进行多任务处理和并行处理可以是有利的。此外,上述实现方式中的各种系统组件的分离不应理解为所有实现方式都要求这种分离。应理解,所描述的程序组件和系统通常可以一起集成到单个软件产品中或封装到多个软件产品中。
因此,已经描述了本主题的特定实现方式。其它实现方式在以下权利要求的保护范围之内。在一些情况下,可以不同的顺序执行权利要求中所述的动作,并且仍然达到期望的结果。此外,附图中描述的过程不一定要求按所示的特定顺序或按顺序执行才能达到期望的结果。在某些实现方式中,进行多任务处理和并行处理可以是有利的。
虽然本发明中已提供若干实施例,但应理解,在不脱离本发明的精神或范围的情况下,所公开的系统和方法可以以多种其它特定形式来体现。本发明示例应被视为说明性而非限制性的,且本发明并不限于本文所给出的细节。例如,可以在另一系统中结合或集成各种元件或组件,或者可以省略或不实现某些特征。
另外,在不偏离本发明的范围的情况下,各种实施例中描述及图示为独立或分离的技术、系统、子系统和方法可以与其它系统、模块、技术或方法组合或集成。示出或描述为彼此耦合、或直接耦合、或相互通信的其它项目可通过某种接口、设备或中间组件以电方式、机械方式或其它方式间接耦合或通信。变化、替换和变更的其它示例可由本领域技术人员确定,并可在不脱离本文公开的精神和范围的情况下举例。
在以下本发明的另外实施例中描述,其中实施例的编号不一定与在前文中使用的编号相匹配。
实施例1.一种帧内预测方法,其中,所述方法包括:
使用用于色度分量的插值滤波器作为块的帧内预测的插值滤波器。
实施例2.根据实施例1所述的方法,其中,用于色度分量的插值滤波器的查找表与用于帧内预测的插值滤波器的查找表相同。
实施例3.根据实施例1所述的方法,其中,用于色度分量的插值滤波器的查找表与用于帧内预测的插值滤波器的查找表不同。
实施例4.根据实施例1至3中任一项所述的方法,其中,插值滤波器为4抽头滤波器。
实施例5.根据实施例1至4中任一项所述的方法,其中,用于色度分量的插值滤波器的查找表为:
实施例6.一种帧内预测方法,其中,所述方法包括:
从用于块的帧内预测的一组插值滤波器中选择一个插值滤波器。
实施例7.根据实施例6所述的方法,其中,一组插值滤波器包括高斯滤波器和三次滤波器。
实施例8.根据实施例6或7所述的方法,其中,所选插值滤波器的查找表与用于色度分量的插值滤波器的查找表相同。
实施例9.根据实施例6至8中任一项所述的方法,其中,所选插值滤波器为4抽头滤波器。
实施例10.根据实施例6至9中任一项所述的方法,其中,所选插值滤波器为三次滤波器。
实施例11.根据实施例6至10中任一项所述的方法,其中,所选插值滤波器的查找表为:
实施例12.一种编码器,包括用于执行根据实施例1至11中任一项所述的方法的处理电路。
实施例13.一种解码器,包括用于执行根据实施例1至11中任一项所述的方法的处理电路。
实施例14.一种计算机程序产品,包括用于执行根据实施例1至11中任一项所述方法的程序代码。
实施例15.一种解码器,包括:
一个或多个处理器;
非瞬时性计算机可读存储介质,耦合至所述处理器,并存储由所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述解码器执行根据实施例1至11中任一项所述的方法。
实施例16.一种编码器,包括:
一个或多个处理器;
非瞬时性计算机可读存储介质,耦合至所述处理器,并存储由所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述编码器执行根据实施例1至11中任一项所述的方法。
在一个实施例中,公开一种视频译码方法,所述方法包括:
块的帧间预测过程,包括应用于参考块的亮度和色度样本的子像素插值滤波器(例如,可以定义一个或通常几个滤波器用于进行MC插值);
块的帧内预测过程,包括应用于亮度和色度参考样本的子像素插值滤波器(例如,可以定义一个或通常几个滤波器用于帧内参考样本插值);
其中,基于参考样本位置与插值样本位置之间的子像素偏移来选择子像素插值滤波器,对于帧内预测和帧间预测处理中的相等的所述子像素偏移,帧内预测处理中的滤波器(例如,对于参考帧内样本插值,可以使用一个或多个滤波器)选择为与用于帧间预测处理的滤波器相同。
在另一实施例中,从一组滤波器(例如,一个或几个滤波器可用于MC插值)中选择针对给定子像素偏移的帧内预测过程的滤波器(例如,仅一个滤波器或滤波器集合中的一个滤波器可用于帧内预测处理),所述一组滤波器中的一个滤波器与用于帧间预测过程的滤波器相同。
在另一实施例中,在帧间预测过程中应用于色度样本的滤波器与在帧内预测过程中应用于亮度和色度参考样本的滤波器相同。
在另一实施例中,在帧间预测过程中应用于亮度和色度样本的滤波器与在帧内预测过程中应用于亮度和色度参考样本的滤波器相同。
在另一实施例中,如果帧内预测过程中使用的主参考边的尺寸小于阈值,则帧内预测过程的滤波器选择为与用于帧间预测过程的滤波器相同。
在另一实施例中,边尺寸阈值为16个样本。
在另一实施例中,帧间预测过程为块内复制过程。
在另一实施例中,用于帧间预测和帧内预测过程的滤波器是有限脉冲响应滤波器,并且它们的系数从查找表中获取。
在另一实施例中,帧内预测过程中使用的插值滤波器是4抽头滤波器。
在另一实施例中,滤波器的系数取决于子像素偏移,如下所示:
其中,“子像素偏移”列以1/32子像素分辨率定义。
在另一实施例中,一组滤波器包括高斯滤波器和三次滤波器。
在另一实施例中,编码器包括用于执行上述方法的处理电路。
在另一实施例中,解码器包括用于执行上述方法的处理电路。
在另一实施例中,一种计算机程序产品包括用于执行上述方法的程序代码。
在另一实施例中,解码器包括:一个或多个处理器;非瞬时性计算机可读存储介质,耦合到所述处理器并存储供所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述解码器执行上述方法。
在另一实施例中,编码器包括:一个或多个处理器;非瞬时性计算机可读存储介质,耦合到所述处理器并存储供所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述编码器执行上述编码方法。
Claims (18)
1.一种视频译码方法,其特征在于,所述方法包括:
-第一块的帧间预测处理,其中,所述帧间预测处理包括参考块的样本的子像素插值滤波;
-第二块的帧内预测处理,其中,所述帧内预测处理包括参考样本的子像素插值滤波,其中,用于所述子像素插值滤波的插值滤波器基于所述第二块的帧内预测模式确定;
其中,所述方法还包括:
-根据整数参考样本位置与分数参考样本位置之间的子像素偏移,选择用于所述子像素插值滤波的插值滤波系数,其中,对于相同的子像素偏移,相同的插值滤波系数被选择用于进行帧内预测处理和帧间预测处理。
2.根据权利要求1所述的方法,其特征在于,所述(相同的)选择的滤波系数用于对色度样本进行所述子像素插值滤波,以进行帧间预测处理;所述(相同的)选择的滤波系数用于对亮度样本进行所述子像素插值滤波,以进行帧内预测处理。
3.根据权利要求1或2所述的方法,其特征在于,所述帧间预测处理是块内复制处理。
4.根据权利要求1或2所述的方法,其特征在于,用于帧间预测处理和帧内预测处理的所述插值滤波系数是从查找表(look up table,LUT)中获取的。
5.根据权利要求1或2所述的方法,其特征在于,4抽头滤波器用于所述子像素插值滤波。
6.根据权利要求1或2所述的方法,其特征在于,选择所述插值滤波系数包括:根据以下子像素偏移与插值滤波系数之间的关系选择所述插值滤波系数:
其中,所述子像素偏移以1/32子像素分辨率定义,且c0至c3表示所述插值滤波系数。
7.根据权利要求1或2所述的方法,其特征在于,选择所述插值滤波系数包括:根据以下子像素偏移与插值滤波系数之间的关系针对分数位置选择所述插值滤波系数:
其中,所述子像素偏移以1/32子像素分辨率定义,且c0至c3表示所述插值滤波系数。
8.一种编码器,其特征在于,包括用于执行根据权利要求1至7中任一项所述的方法的处理电路。
9.一种解码器,其特征在于,包括用于执行根据权利要求1至7中任一项所述的方法的处理电路。
10.一种计算机可读存储介质,其特征在于,包括用于执行根据权利要求1至7中任一项所述方法的程序代码。
11.一种解码器,其特征在于,包括:
一个或多个处理器;
非瞬时性计算机可读存储介质,耦合至所述处理器,并存储由所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述解码器执行权利要求1至7中任一项所述的方法。
12.一种编码器,其特征在于,包括:
一个或多个处理器;
非瞬时性计算机可读存储介质,耦合至所述处理器,并存储由所述处理器执行的程序,其中,在所述处理器执行所述程序时,配置所述编码器执行权利要求1至7中任一项所述的方法。
13.一种视频码流的传输系统,其特征在于,所述系统包括:
获取装置,用于获取视频码流,所述视频码流是根据权利要求8或12所述的编码器进行编码得到的;
传输装置,用于传输所述视频码流。
14.一种视频码流的存储方法,其特征在于,所述视频码流是根据权利要求8或12所述的编码器进行编码得到的。
15.一种视频码流的存储装置,其特征在于,
通信接口,用于获取视频码流,所述视频码流是根据权利要求8或12所述的编码器进行编码得到的;
存储器,用于存储所述视频码流。
16.一种视频码流的发送方法,其特征在于,所述视频码流是根据权利要求8或12所述的编码器进行编码得到的。
17.一种视频码流的发送系统,其特征在于,所述系统包括:
获取装置,用于获取视频码流,所述是根据权利要求8或12所述的编码器进行编码得到的;通信接口,将所述视频码流发送给目的设备。
18.一种视频译码方法,其特征在于,所述方法包括:
-第一块的帧间预测处理,其中,所述帧间预测处理包括参考块的样本的子像素插值滤波;
-第二块的帧内预测处理,其中,所述帧内预测处理包括参考样本的子像素插值滤波;
其中,所述方法还包括:
-根据整数参考样本位置与分数参考样本位置之间的子像素偏移,选择用于所述子像素插值滤波的插值滤波系数,其中,对于相同的子像素偏移,相同的插值滤波系数被选择用于进行帧内预测处理和帧间预测处理;
其中,所述方法还包括:
在执行所述帧间预测处理之后,获取所述第一块的残差块,并对所述第一块的残差块执行变换处理以得到所述第一块对应的变换块;
在执行所述帧内预测处理之后,获取所述第二块的残差块,并对所述第二块的残差块执行变换处理以得到所述第二块对应的变换块。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862728666P | 2018-09-07 | 2018-09-07 | |
US62/728,666 | 2018-09-07 | ||
CN201980046958.5A CN112425169B (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
PCT/RU2019/050141 WO2020050752A1 (en) | 2018-09-07 | 2019-09-06 | Method and apparatus for interpolation filtering for intra- and inter-prediction in video coding |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980046958.5A Division CN112425169B (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117376587A true CN117376587A (zh) | 2024-01-09 |
Family
ID=69722811
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310851257.7A Pending CN117376587A (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
CN201980046958.5A Active CN112425169B (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
CN202110591210.2A Active CN113784145B (zh) | 2018-09-07 | 2019-09-06 | 一种视频译码方法和装置,编码器和解码器 |
CN202210898128.9A Pending CN115914624A (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
CN202310849443.7A Pending CN117376586A (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980046958.5A Active CN112425169B (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
CN202110591210.2A Active CN113784145B (zh) | 2018-09-07 | 2019-09-06 | 一种视频译码方法和装置,编码器和解码器 |
CN202210898128.9A Pending CN115914624A (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
CN202310849443.7A Pending CN117376586A (zh) | 2018-09-07 | 2019-09-06 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
Country Status (16)
Country | Link |
---|---|
US (3) | US11405612B2 (zh) |
EP (2) | EP4254960A3 (zh) |
JP (3) | JP7066912B2 (zh) |
KR (2) | KR102698614B1 (zh) |
CN (5) | CN117376587A (zh) |
AU (1) | AU2019336062B2 (zh) |
BR (1) | BR112020026863A2 (zh) |
CA (1) | CA3111760C (zh) |
ES (1) | ES2960283T3 (zh) |
HU (1) | HUE063698T2 (zh) |
MX (1) | MX2021001515A (zh) |
PL (1) | PL3834415T3 (zh) |
PT (1) | PT3834415T (zh) |
SG (1) | SG11202101822SA (zh) |
WO (1) | WO2020050752A1 (zh) |
ZA (1) | ZA202102228B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117376587A (zh) * | 2018-09-07 | 2024-01-09 | 华为技术有限公司 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
US10469845B1 (en) * | 2018-09-21 | 2019-11-05 | Tencent America, Llc | Method and apparatus for intra mode coding |
TWI810596B (zh) * | 2019-03-12 | 2023-08-01 | 弗勞恩霍夫爾協會 | 用於混合視訊編碼的編碼器、解碼器、方法及視訊位元流以及電腦程式 |
JP2022548555A (ja) * | 2019-09-24 | 2022-11-21 | アリババ グループ ホウルディング リミテッド | 映像符号化のための動き補償方法 |
JP7541439B2 (ja) | 2020-02-19 | 2024-08-28 | 日本放送協会 | 画像符号化装置、画像復号装置及びこれらのプログラム |
WO2021194308A1 (ko) * | 2020-03-26 | 2021-09-30 | 엘지전자 주식회사 | 랩-어라운드 움직임 보상에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
KR20220159415A (ko) | 2020-03-26 | 2022-12-02 | 엘지전자 주식회사 | 랩-어라운드 움직임 보상에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
KR102578407B1 (ko) * | 2020-03-31 | 2023-09-13 | 엘지전자 주식회사 | 레이어간 정렬된 서브픽처 정보에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 |
WO2021204137A1 (en) * | 2020-04-07 | 2021-10-14 | Beijing Bytedance Network Technology Co., Ltd. | Clipping operation for reference picture wrap around |
CN115428457A (zh) | 2020-04-09 | 2022-12-02 | 抖音视界有限公司 | 基于颜色格式的自适应参数集的约束 |
CN115486064A (zh) | 2020-04-10 | 2022-12-16 | 抖音视界有限公司 | 标头语法元素和自适应参数集的使用 |
WO2021209061A1 (en) | 2020-04-17 | 2021-10-21 | Beijing Bytedance Network Technology Co., Ltd. | Presence of adaptation parameter set units |
WO2021222036A1 (en) | 2020-04-26 | 2021-11-04 | Bytedance Inc. | Conditional signaling of video coding syntax elements |
US11882270B2 (en) * | 2020-06-09 | 2024-01-23 | Hfi Innovation Inc. | Method and apparatus for video coding with constraints on reference picture lists of a RADL picture |
US20220224938A1 (en) * | 2021-01-08 | 2022-07-14 | Offinno, LLC | Intra Prediction Signaling |
KR20230166956A (ko) * | 2022-05-30 | 2023-12-07 | 주식회사 케이티 | 영상 부호화/복호화 방법 및 장치 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942505B2 (en) | 2007-01-09 | 2015-01-27 | Telefonaktiebolaget L M Ericsson (Publ) | Adaptive filter representation |
US9693070B2 (en) | 2011-06-24 | 2017-06-27 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
US20140078394A1 (en) | 2012-09-17 | 2014-03-20 | General Instrument Corporation | Selective use of chroma interpolation filters in luma interpolation process |
US20150071357A1 (en) * | 2013-09-12 | 2015-03-12 | Qualcomm Incorporated | Partial intra block copying for video coding |
BR112016017201B1 (pt) * | 2014-01-29 | 2023-09-26 | Hfi Innovation Inc | Método de codificação e decodificação para precisão adaptativa de vetor de movimento de um bloco de dados de vídeo |
US10555001B2 (en) * | 2014-02-21 | 2020-02-04 | Mediatek Singapore Pte. Ltd. | Method of video coding using prediction based on intra picture block copy |
US10412387B2 (en) * | 2014-08-22 | 2019-09-10 | Qualcomm Incorporated | Unified intra-block copy and inter-prediction |
US9838662B2 (en) | 2014-10-10 | 2017-12-05 | Qualcomm Incorporated | Harmonization of cross-component prediction and adaptive color transform in video coding |
US9854237B2 (en) * | 2014-10-14 | 2017-12-26 | Qualcomm Incorporated | AMVP and merge candidate list derivation for intra BC and inter prediction unification |
WO2016072722A1 (ko) * | 2014-11-04 | 2016-05-12 | 삼성전자 주식회사 | 영상 특성을 반영한 보간 필터를 이용하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
US10075712B2 (en) * | 2014-11-20 | 2018-09-11 | Hfi Innovation Inc. | Method of motion vector and block vector resolution control |
CN115002458A (zh) * | 2015-06-05 | 2022-09-02 | 杜比实验室特许公司 | 图像编码和解码方法和图像解码设备 |
KR102539009B1 (ko) * | 2015-06-08 | 2023-05-31 | 브이아이디 스케일, 인크. | 스크린 콘텐츠 코딩을 위한 인트라 블록 카피 모드 |
US11463689B2 (en) * | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20170099490A1 (en) * | 2015-10-02 | 2017-04-06 | Qualcomm Incorporated | Constrained intra-prediction for block copy mode |
US10812822B2 (en) | 2015-10-02 | 2020-10-20 | Qualcomm Incorporated | Intra block copy merge mode and padding of unavailable IBC reference region |
KR102437109B1 (ko) * | 2015-11-11 | 2022-08-26 | 삼성전자주식회사 | 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치 |
KR20170058837A (ko) * | 2015-11-19 | 2017-05-29 | 한국전자통신연구원 | 화면내 예측모드 부호화/복호화 방법 및 장치 |
US10194170B2 (en) * | 2015-11-20 | 2019-01-29 | Mediatek Inc. | Method and apparatus for video coding using filter coefficients determined based on pixel projection phase |
US10390015B2 (en) * | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10341659B2 (en) * | 2016-10-05 | 2019-07-02 | Qualcomm Incorporated | Systems and methods of switching interpolation filters |
CN116320493A (zh) * | 2016-11-28 | 2023-06-23 | 韩国电子通信研究院 | 用于滤波的方法和装置 |
US11202079B2 (en) * | 2018-02-05 | 2021-12-14 | Tencent America LLC | Method and apparatus for video decoding of an affine model in an intra block copy mode |
CN117376587A (zh) * | 2018-09-07 | 2024-01-09 | 华为技术有限公司 | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 |
-
2019
- 2019-09-06 CN CN202310851257.7A patent/CN117376587A/zh active Pending
- 2019-09-06 CN CN201980046958.5A patent/CN112425169B/zh active Active
- 2019-09-06 ES ES19856848T patent/ES2960283T3/es active Active
- 2019-09-06 CN CN202110591210.2A patent/CN113784145B/zh active Active
- 2019-09-06 CN CN202210898128.9A patent/CN115914624A/zh active Pending
- 2019-09-06 PT PT198568487T patent/PT3834415T/pt unknown
- 2019-09-06 KR KR1020237040674A patent/KR102698614B1/ko active IP Right Grant
- 2019-09-06 SG SG11202101822SA patent/SG11202101822SA/en unknown
- 2019-09-06 CN CN202310849443.7A patent/CN117376586A/zh active Pending
- 2019-09-06 JP JP2021503019A patent/JP7066912B2/ja active Active
- 2019-09-06 EP EP23192341.8A patent/EP4254960A3/en active Pending
- 2019-09-06 CA CA3111760A patent/CA3111760C/en active Active
- 2019-09-06 MX MX2021001515A patent/MX2021001515A/es unknown
- 2019-09-06 KR KR1020217000299A patent/KR102607839B1/ko active IP Right Grant
- 2019-09-06 EP EP19856848.7A patent/EP3834415B1/en active Active
- 2019-09-06 PL PL19856848.7T patent/PL3834415T3/pl unknown
- 2019-09-06 AU AU2019336062A patent/AU2019336062B2/en active Active
- 2019-09-06 WO PCT/RU2019/050141 patent/WO2020050752A1/en active Application Filing
- 2019-09-06 BR BR112020026863-1A patent/BR112020026863A2/pt unknown
- 2019-09-06 HU HUE19856848A patent/HUE063698T2/hu unknown
-
2021
- 2021-01-05 US US17/142,170 patent/US11405612B2/en active Active
- 2021-04-01 ZA ZA2021/02228A patent/ZA202102228B/en unknown
-
2022
- 2022-04-26 JP JP2022072354A patent/JP7342188B2/ja active Active
- 2022-07-29 US US17/877,492 patent/US11968362B2/en active Active
-
2023
- 2023-08-30 JP JP2023139999A patent/JP7506235B2/ja active Active
-
2024
- 2024-03-23 US US18/614,636 patent/US20240314309A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112425169B (zh) | 用于视频译码中帧内预测和帧间预测的插值滤波方法和装置 | |
CN114845102B (zh) | 光流修正的提前终止 | |
CN114143539B (zh) | 用于预测的方法和装置 | |
CN115243039A (zh) | 一种视频图像预测方法及装置 | |
CN113615194B (zh) | 使用抽取预测块的dmvr | |
JP7384939B2 (ja) | 双予測のオプティカルフロー計算および双予測補正におけるブロックレベル境界サンプル勾配計算のための整数グリッド参照サンプルの位置を計算するための方法 | |
JP2023022071A (ja) | イントラ予測のための方法及び機器 | |
CN112425165B (zh) | 基于邻块的帧内预测模式推导 | |
RU2820638C2 (ru) | Способ вычисления позиции опорной выборки целочисленной сетки для вычисления градиента граничной выборки блочного уровня в вычислении оптического потока с двойным предсказанием и коррекции с двойным предсказанием | |
CN118631998A (zh) | 一种帧间预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |