CN113728651A - 视频处理中的自适应环路滤波 - Google Patents
视频处理中的自适应环路滤波 Download PDFInfo
- Publication number
- CN113728651A CN113728651A CN202080026270.3A CN202080026270A CN113728651A CN 113728651 A CN113728651 A CN 113728651A CN 202080026270 A CN202080026270 A CN 202080026270A CN 113728651 A CN113728651 A CN 113728651A
- Authority
- CN
- China
- Prior art keywords
- block
- current block
- gradient
- pixels
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 88
- 230000003044 adaptive effect Effects 0.000 title claims description 26
- 238000012545 processing Methods 0.000 title abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 235
- 230000008569 process Effects 0.000 claims abstract description 96
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 230000007704 transition Effects 0.000 claims abstract description 12
- 238000007493 shaping process Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 9
- 230000002146 bilateral effect Effects 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims 2
- 230000003287 optical effect Effects 0.000 description 30
- 235000019557 luminance Nutrition 0.000 description 25
- 241000023320 Luma <angiosperm> Species 0.000 description 21
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 21
- 230000002123 temporal effect Effects 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 239000013598 vector Substances 0.000 description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 11
- 238000005070 sampling Methods 0.000 description 8
- 230000011664 signaling Effects 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000009795 derivation Methods 0.000 description 5
- 239000010432 diamond Substances 0.000 description 5
- 238000012886 linear function Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 229910003460 diamond Inorganic materials 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
描述了用于视频编解码的样点细化和滤波方法的设备、系统和方法。在示例性方面,用于视频处理的方法包括对于视频的当前块和视频的比特流表示之间的转换,基于当前块的相邻像素集合配置滤波过程。该方法还包括基于滤波过程执行转换。
Description
相关申请的交叉引用
根据适用专利法和/或适用于巴黎公约的规则,本申请及时要求2019年4月2日提交的国际专利申请No.PCT/CN2019/080914号的优先权和权益。出于法律的所有目的,上述申请的全部公开作为本申请公开的一部分通过引用并入。
技术领域
本专利文档涉及视频编解码和解码技术、设备和系统。
背景技术
尽管视频压缩有所进步,数字视频在互联网和其他数字通信网络上仍占最大的带宽使用量。随着能够接收和显示视频的连接用户设备的数量增加,预计数字视频使用所需的带宽将继续增长。
发明内容
描述了与数字视频编解码有关的设备、系统和方法,尤其是与视频编解码的样点细化和滤波方法有关的设备、系统和方法。所描述的方法可以应用于现有的视频编解码标准(诸如,高效视频编解码(HEVC))以及未来的视频编解码标准(诸如,通用视频编解码(VVC)或编解码器)。
在一个代表性的方面,所公开的技术可以用于提供用于视频处理的方法。该方法包括,对于视频的当前块和视频的比特流表示之间的转换,将裁剪操作应用于当前块中的像素与该像素的相邻像素之间的差的加权平均。该方法还包括基于裁剪操作的输出执行转换。
在另一个代表性的方面,所公开的技术可以用于提供用于视频处理的方法。该方法包括,对于视频的当前块和视频的比特流表示之间的转换,基于当前块的相邻像素集合配置滤波过程。该方法还包括基于滤波过程的输出执行转换。
在另一个代表性的方面,所公开的技术可以用于提供用于视频处理的方法。该方法包括,对于视频的块和视频的比特流表示之间的转换,通过将裁剪操作应用于细化值来修改该块中的预测样点的细化值。细化值是基于光流编解码处理的梯度值推导的。裁剪操作的输出在范围内。该方法还包括基于修改的细化值来细化预测样点,以及基于细化的预测样点来执行转换。
在另一个代表性的方面,所公开的技术可以用于提供用于视频处理的方法。该方法包括,对于视频的块和视频的比特流表示之间的转换,修改光流编解码过程中的梯度值。该方法还包括基于用于转换的修改的梯度值执行后续预测操作。
在另一个代表性的方面,所公开的技术可以用于提供用于视频处理的方法。该方法包括,为当前视频块配置一维滤波过程,以及基于一维滤波过程,从对应的比特流表示中重建当前视频块。
在又一代表性方面,上述方法以处理器可执行代码的形式实施并存储在计算机可读程序介质中。
在又一代表性方面,公开了一种配置或可操作以执行上述方法的设备。该设备可以包括被编程为实现该方法的处理器。
在又一代表性方面,视频解码器装置可实现如本文中所描述的方法。
在附图、说明书和权利要求中更详细地描述了所公开技术的上述和其他方面和特征。
附图说明
图1示出了用于视频编解码的编码器框图的示例。
图2A、2B和2C示出了基于几何变换的自适应环路滤波器(GALF)滤波器形状的示例。
图3示出了用于GALF编码器决策的流程图的示例。
图4A-4D示出了用于自适应环路滤波器(ALF)分类的示例子采样拉普拉斯计算。
图5示出了亮度滤波器形状的示例。
图6示出了宽视频图形阵列(WVGA)序列的区域划分的示例。
图7示出了具有整形(reshaping)的解码流程的示例性流程图。
图8示出了双向光流(BDOF或BIO)算法所使用的光流轨迹的示例。
图9A和9B示出了使用没有块扩展的双向光流(BIO)算法的示例快照。
图10示出了具有光流(PROF)的预测细化的示例。
图11A和11B示出了根据所公开的技术的用于视频编解码中的样点细化和滤波的示例方法的流程图。
图12是用于实现本文档中描述的视觉媒体解码或视觉媒体编码技术的硬件平台的示例的框图。
图13是其中可实现所公开的技术的示例视频处理系统的框图。
图14是根据本技术的用于视频处理的方法的流程图表示。
图15是根据本技术的用于视频处理的另一种方法的流程图表示。
图16是根据本技术的用于视频处理的另一种方法的流程图表示。
图17是根据本技术的用于视频处理的又一种方法的流程图表示。
具体实施方式
由于对更高分辨率视频的需求的增加,在现代技术中普遍存在视频编解码方法和技术。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且不断改进以提供更高的编解码效率。视频编解码器将未压缩视频转换为压缩格式,反之亦然。视频质量、用于表示视频的数据量(由比特率确定)、编码和解码算法的复杂度、对数据丢失和错误的敏感性、编辑的简易性、随机访问和端到端延迟(迟延)之间存在复杂的关系。压缩格式通常符合标准视频压缩规范,例如,高效视频编解码(HEVC)标准(也称为H.265或MPEG-H第2部分)、要完成的通用视频编解码(Versatile Video Coding,VVC)标准、或其他当前和/或未来的视频编解码标准。
在一些实施例中,使用称为联合探索模型(JEM)的参考软件来探索未来的视频编解码技术。在JEM中,在几种编解码工具中采用基于子块的预测,诸如仿射预测、可选时域运动矢量预测(ATMVP)、空时运动矢量预测(STMVP)、双向光流(BIO)、帧速率上转换(FRUC)、本地自适应运动矢量分辨率(LAMVR)、重叠块运动补偿(OBMC)、局部照明补偿(LIC)和解码器侧运动矢量细化(DMVR)。
所公开技术的实施例可应用于现有视频译码标准(例如,HEVC、H.265)和未来标准以改善运行时间性能。在本文档中使用节标题来提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实施方式)仅限于相应节。
1.颜色空间和色度子采样的示例
颜色空间,也称为颜色模型(或颜色系统),是一种抽象数学模型,其将颜色范围简单地描述为数字元组,通常为3或4个值或颜色分量(例如RGB)。基本上,颜色空间是对坐标系和子空间的详细说明。
对于视频压缩,最常用的颜色空间是YCbCr和RGB。
YcbCr、Y'CbCr或Y Pb/Cb Pr/Cr,也称为YCBCR或Y'CBCR,是用作视频和数字摄影系统中彩色图像流水线(pipeline)的一部分的一系列颜色空间。Y'是亮度分量,CB和CR是蓝差(blue-difference)和红差(red-difference)色度分量。Y′(带有撇号(prime))区分于Y(亮度),表示光强度是基于伽玛校正的RGB原色进行非线性编码的。
色度子采样是通过对色度信息实现比对亮度信息更低的分辨率来对图像进行编码的实践,利用了人类视觉系统对色差比对亮度的更低敏锐度。
1.1 4:4:4颜色格式
三个Y'CbCr分量中的每一个具有相同的采样率,因此不存在色度子采样。该方案有时用于高端胶片扫描仪和电影后期制作中。
1.2 4:2:2颜色格式
两个色度分量以亮度的采样率的一半(例如,水平色度分辨率减半)进行采样。这将未压缩视频信号的带宽减少了三分之一,且几乎没有视觉差异。
1.3 4:2:0颜色格式
在4:2:0中,水平采样是4:1:1的两倍,但是由于Cb和Cr通道仅在此方案中的每条交替线上采样,因此垂直分辨率减半。因此,数据速率相同。Cb和Cr分别在水平和垂直方向上以2的因子进行子采样。4:2:0方案有三种变体,其具有不同的水平和垂直位置。
○在MPEG-2中,Cb和Cr水平共存。Cb和Cr在垂直方向上位于像素之间(间隙地位于)。
○在JPEG/JFIF、H.261和MPEG-1中,Cb和Cr间隙地位于交替亮度样点之间的中间。
○在4∶2∶0 DV中,Cb和Cr在水平方向上共存。在垂直方向上,它们共存于交替线上。
2.典型视频编解码器的编解码流程的示例
图1示出了VVC的编码器框图的示例,其中包含三个环路滤波块:去块滤波器(DF)、采样自适应偏移(SAO)和自适应环路滤波器(ALF)。与使用预定义滤波器的DF不同,SAO和ALF利用当前图片的原始样点分别通过增加偏移和应用有限脉冲响应(FIR)滤波器来减少原始样点与重建样点之间的均方误差,其中编解码的边信息(side information)信令通知偏移和滤波器系数。ALF位于每个图片的最后一个处理阶段,可以看作是试图捕获和修复由先前阶段创建的伪像的工具。
3.JEM中基于几何变换的自适应环路滤波器的示例
在JEM中,应用了具有基于块的滤波器自适应的基于几何变换的自适应环路滤波器(GALF)。对于亮度分量,基于局部梯度的方向和活动,为每个2×2块选择25个滤波器中的一个。
3.1滤波器形状的示例
在JEM中,可以为亮度分量选择多达三个菱形滤波器形状(分别如图2A、2B和2C所示的5×5菱形、7×7菱形和9×9菱形)。在图片级别信令通知索引,以指示用于亮度分量的滤波器形状。对于图片中的色度分量,使用5×5菱形形状。
3.1.1块分类
索引i和j指代2×2块内左上样点的坐标,并且R(i,j)指示在坐标(i,j)处的重建样点。
然后将水平和垂直方向的梯度的D个最大值和最小值设置为:
并且将两个对角方向的梯度的最大值和最小值设置为:
为了推导方向性D的值,将这些值相互并使用两个阈值t1和t2进行比较:
将活动值A计算为:
3.1.2滤波器系数的几何变换
在对每个2×2块进行滤波之前,取决于为该块计算的梯度值,将诸如旋转或对角和垂直翻转的几何变换应用于滤波器系数f(k,l)。这等效于将这些变换应用于滤波器支持区域中的样点。思想是通过对齐它们的方向性来使应用了ALF的不同块更加相似。
引入了三种几何变换,包括对角、垂直翻转和旋转:
对角:fD(k,l)=f(l,k),
垂直翻转:fV(k,l)=f(k,K-l-1), (9)
旋转:fR(k,l)=f(K-l-1,k)。
其中,K是滤波器的尺寸,并且0≤k,l≤K-1是系数坐标,使得位置(0,0)在左上角,并且位置(K-1,K-1)在右下角。取决于为该块计算的梯度值,将变换应用于滤波器系数f(k,1)。表1总结了变换与四个方向的四个梯度之间的关系。
表1-为一个块计算的梯度和变换之间的映射
梯度值 | 变换 |
g<sub>d2</sub><g<sub>d1</sub> and g<sub>h</sub><g<sub>v</sub> | 无变换 |
g<sub>d2</sub><g<sub>d1</sub> and g<sub>v</sub><g<sub>h</sub> | 对角 |
g<sub>d1</sub><g<sub>d2</sub> and g<sub>h</sub><g<sub>v</sub> | 垂直翻转 |
g<sub>d1</sub><g<sub>d2</sub> and g<sub>v</sub><g<sub>h</sub> | 旋转 |
3.1.3滤波器参数的信令
在JEM中,例如在第一CTU的条带标头之后和SAO参数之前,为第一CTU信令通知GALF滤波器参数。可以信令通知多达25组亮度滤波器系数。为了减少比特开销,可以合并不同分类的滤波器系数。另外,参考图片的GALF系数被存储并且被允许重新使用作为当前图片的GALF系数。当前图片可以选择使用为参考图片存储的GALF系数,并绕过信令通知GALF系数。在这种情况下,仅信令通知参考图片之一的索引,并且所存储的指示的参考图片的GALF系数被继承用于当前图片。
为了支持GALF时域预测,维持GALF滤波器集合的候选列表。在开始解码新序列时,候选列表为空。在解码一个图片之后,可以将对应的滤波器集合添加到候选列表。一旦候选列表的尺寸达到最大可允许值(例如,当前JEM中为6),新的滤波器集合就会以解码顺序覆盖最旧的集合,即将先进先出(FIFO)规则应用于更新候选列表。为避免重复,只有当对应图片不使用GALF时域预测时,才可以将集合添加到列表中。为了支持时域可伸缩性,存在滤波器集合的多个候选列表,并且每个候选列表都与时域层相关联。更具体地,由时域层索引(TempIdx)分配的每个阵列可以组成具有等于较低的TempIdx的先前解码图片的滤波器集合。例如,第k个阵列被分配为与等于k的TempIdx相关联,并且它仅包含来自具有TempIdx小于或等于k的图片的滤波器集合。在对某个图片进行编解码之后,与该图片相关联的滤波器集合将用于更新与相等的或更高的TempIdx相关联的那些阵列。
GALF系数的时域预测用于帧间编解码的帧,以最小化信令开销。对于帧内帧,时域预测不可用,并且为每个类别分配了16个固定滤波器的集合。为了指示固定滤波器的用法,将信令通知每个类别的标志,并在必要时信令通知所选固定滤波器的索引。即使为给定类别选择了固定滤波器,仍可以为该类别发送自适应滤波器的系数f(k,1),在这种情况下,将应用于重建图像的滤波器系数为两组系数的和。
亮度分量的滤波过程可以控制在CU级别。信令通知标志以指示是否将GALF应用于CU的亮度分量。对于色度分量,仅在图片级别指示是否应用GALF。
3.1.4滤波过程
在解码器侧,当对块启用GALF时,对该块内的每个样点R(i,j)进行滤波,得出样点值R′(i,j),如下所示,其中L表示滤波器长度,fm,n表示滤波器系数,f(k,l)表示解码的滤波器系数。
3.1.5编码器侧滤波器参数的确定过程
在图3中示出了用于GALF的总体编码器决策过程。对于每个CU的亮度样点,编码器决策是否应用GALF以及是否在条带标头中包括适当的信令标记。对于色度样点,基于图片级别而不是CU级别决策是否应用滤波器。此外,仅当为图片启用亮度GALF时,才会检查图片的色度GALF。
4.VVC中基于几何变换的自适应环路滤波器的示例
与JEM相比,VVC中GALF的当前设计具有以下主要变化:
(1)去除自适应滤波器形状。亮度分量仅允许7x7滤波器形状,色度分量仅允许5x5滤波器形状。
(2)去除了ALF参数的时域预测和来自固定滤波器的预测。
(3)对于每个CTU,无论启用或禁用ALF都信令通知一比特标志。
(4)类别索引的计算以4x4级别而不是2x2执行。另外,在一些实施例中,利用了用于ALF分类的子采样拉普拉斯计算方法。更具体地,不需要为一个块内的每个样点计算水平/垂直/45对角/135度梯度。取而代之的是,使用了1∶2子采样。
5.AVS2中基于区域的自适应环路滤波器的示例
ALF是环路滤波的最后阶段。此过程中有两个阶段。第一阶段是滤波器系数推导。为了训练滤波器系数,编码器将亮度分量的重建像素分类为16个区域,并使用维纳-霍夫方程对每个类别训练一组滤波器系数,以最小化原始帧和重建帧之间的均方误差。为了减少这16组滤波器系数之间的冗余,编码器将基于率失真性能自适应地合并它们。最多可以为亮度分量分配16个不同的滤波器集合,而为色度分量只能分配一个。第二阶段是滤波器决策,其包括帧级别和LCU级别。首先,编码器决策是否执行帧级别自适应环路滤波。如果帧级别ALF启用,则编码器进一步确定是否执行LCU级别ALF。
5.1滤波器形状
对于亮度和色度分量,示例性的滤波器形状是叠加了3×3正方形的7×7十字形,如图5所示。图5中的每个正方形对应于样点。因此,总共使用17个样点来推导位置C8的样点的滤波值。考虑到发送系数的开销,使用仅剩九个系数{C0,C1,...,C8}的点对称滤波器,这将滤波器系数的数量减少了一半,并且将滤波中的乘法的数量减少了一半。点对称滤波器还可以将一个滤波的样点的计算减少一半,例如,对于一个滤波的样点仅进行9次乘法和14次加法运算。
5.2基于区域的自适应Merge
为了适应不同的编解码误差,一些实施例对亮度分量采用基于区域的多个自适应环路滤波器。亮度分量被分成16个尺寸大致相等的基本区域,其中每个基本区域与最大编解码单元(LCU)边界对齐,如图6所示,并且对每个区域推导一个维纳滤波器。使用的滤波器越多,减少的失真就越多,但是用于对这些系数进行编码的比特随着滤波器的数量而增加。为了获得最佳率失真性能,可以将这些区域合并为较少的较大区域,这些区域共享相同的滤波器系数。为了简化合并过程,基于图像先验相关性,根据修改的希尔伯特顺序,为每个区域分配索引。可以基于率失真成本合并具有连续索引的两个区域。
区域之间的映射信息应该信令通知给解码器。在AVS-2中,基本区域的数量用于表示Merge结果,并且滤波器系数根据其区域顺序依次压缩。例如,当{0,1}、{2、3、4}、{5、6、7、8、9}和剩余基本区域分别合并为一个区域时,仅对三个整数进行编解码来表示该Merge映射,即2、3、5。
5.3边信息的信令
还使用了多个开关标志。序列开关标志adaptive_loop_filter_enable用于控制是否对整个序列应用自适应环路滤波器。图像开关标志picture_alf_enble[i]控制是否对对应的第i个图像分量应用ALF。仅当启用picture_alf_enble[i]时,才发送该颜色分量的对应LCU级别标志和滤波器系数。LCU级别标志lcu_alf_enable[k]控制是否对对应的第k个LCU启用ALF,并将该标志交织到条带数据中。不同级别的调节标志的决策全部基于率失真成本。高灵活性进一步使ALF大大提高了编解码效率。
在一些实施例中,对于亮度分量,可能有多达16组滤波器系数。
在一些实施例中,对于每个色度分量(Cb和Cr),可以发送一组滤波器系数。
6示例GALF
在一些实施例中,自适应环路滤波器的滤波过程如下执行:
O(x,y)=∑(i,j)w(i,j).I(x+i,y+j) (11)
其中样点I(x+i,y+j)是输入样点,O(x,y)是滤波后的输出样点(即滤波结果),并且w(i,j)表示滤波系数。在一些实施例中,它使用用于定点精度计算的整数算法来实现:
其中L表示滤波器长度,并且其中w(i,j)是定点精度的滤波器系数。
7非线性自适应环路滤波(ALF)
7.1滤波重述(reformulation)
可以在以下表达式中重述公式(11),而不影响编解码效率:
O(x,y)=I(x,y)+∑(i,j)≠(0,0)w(i,j).(I(x+i,y+j)-I(x,y)) (13)
其中,w(i,j)是与公式(11)相同的滤波器系数[除了w(0,0),其在公式(13)中等于1,而在公式(11)中等于1-∑(i,j)≠(0,0)w(i,j)]。
7.2修改的滤波器
使用该上述(13)的滤波器公式,可以通过使用简单的裁剪函数来引入非线性以提高ALF的效率,以在邻居样点值与当前正被滤波的样点值(I(x,y)),大不相同时,减少邻居样点值(I(x+i,y+j))的影响。
在此提议中,ALF滤波器修改如下:
O′(x,y)=I(x,y)+∑(i,j)≠(0,0)w(i,j).K(I(x+i,y+j)-I(x,y),k(i,j)) (14)
其中,K(d,b)=min(b,max(-b,d))是裁剪函数,并且k(i,j)是取决于(i,j)滤波器系数的裁剪参数。编码器执行优化以找到最佳k(i,j)。
在一些实施例中,为每个ALF滤波器指定裁剪参数k(i,j),对每个滤波器系数信令通知一个裁剪值。这意味着对每个亮度滤波器可以在比特流中信令通知最多12个裁剪值,对色度滤波器可以在比特流中信令通知最多6个裁剪值。
为了限制信令成本和编码器复杂度,可以将裁剪值的评估限制为可能值的小集合。只能使用4个与INTER和INTRA片组相同的固定值。
由于亮度的局部差异的方差通常比色度的高,因此对于亮度和色度滤波器可以使用两个不同的集合。可以在每个集合中包括最大样点值(在本文中对于10比特的比特深度为1024),以便在不必要时可以禁用裁剪。
在表2中提供了在一些实施例中使用的裁剪值的集合。通过在对数域中将亮度的样点值的全范围(以10比特进行编解码)以及色度从4到1024的范围进行大致相等地划分,选择了4个值。
更精确地,裁剪值的亮度表已通过以下公式获得:
类似地,裁剪值的色度表根据以下公式获得:
表2:授权的裁剪值
通过使用与上表2中的裁剪值的索引相对应的Golomb编码方案,在“alf_data”语法元素中对所选择的裁剪值进行编解码。该编码方案与滤波器索引的编码方案相同。
8示例环路整形(ILR)
环路整形(ILR)的基本思想是将原始(在第一域中)信号(预测/重建信号)转换为第二域(整形域)。
环路亮度整形器实现为一对查找表(LUT),但是两个LUT中只有一个需要信令通知,因为另一个可以从信令通知的LUT计算出来。每个LUT是一维10比特1024项映射表(1D-LUT)。一个LUT是前向LUT FwdLUT,它将输入的亮度编解码值Yi映射为更改的值Yr:Yr=FwdLUT[Yi]。另一个LUT是反向LUT InvLUT,它将更改的编解码值Yr映射为表示Yi的重建值。)。
8.1示例分段线性(PWL)模型
从概念上讲,分段线性(PWL)通过以下方式实现:
令x1、x2为两个输入枢轴点,并且y1、y2为一段上它们对应的输出枢轴点。在x1和x2之间的任何输入值x的输出值y可以通过以下公式进行插值:
y=((y2-y1)/(x2-x1))*(x-x1)+y1
在定点实现中,公式可重写为:
y=((m*x+2FP_PREC-1)>>FP_PREC)+c
其中,m是标量,c是偏移,并且FP_PREC是用于指定精度的常数。
注意,在一些实施例中,PWL模型用于预计算1024项的FwdLUT和InvLUT映射表;但是,PWL模型还允许无需预计算LUT即可实时计算相同映射值的实施方式。
8.2示例整形
8.2.1亮度整形
环路亮度整形的一些实施例提供了较低复杂度的流水线,该流水线还消除了在帧间条带重建中分块帧内预测的解码时延。对帧间和帧内条带均在整形域中执行帧内预测。
无论条带类型如何,都在整形域中执行帧内预测。通过这种布置,可以在完成先前的TU重建之后立即开始帧内预测。这样的布置还可以为帧内模式提供统一的过程,而不是依赖于条带。图7示出了基于模式的示例解码过程的框图。
一些实施例还测试了亮度和色度残差缩放的16段分段线性(PWL)模型,而不是32段PWL模型。
在一些实施例中,利用环路亮度整形器进行帧间条带重建(较浅的阴影块指示整形域中的信号:亮度残差;预测的帧内亮度;以及重建的帧内亮度)
8.2.2依赖亮度的色度残差缩放
依赖亮度的色度残差缩放是用定点整数运算实现的乘法过程。色度残差缩放补偿亮度信号与色度信号的相互作用。在TU级别应用色度残差缩放。更具体地,适用以下内容:
○对于帧内,对重建的亮度进行平均。
○对于帧间,对预测亮度进行平均。
平均值用于标识PWL模型中的索引。该索引标识缩放因子cScaleInv。将色度残差乘以该数。
注意,根据前向映射的预测亮度值而不是重建的亮度值来计算色度缩放因子。
8.2.3 ILR边信息的信令
在片组标头中(当前)发送参数(类似于ALF)。据报告,这些占用了40-100比特。
以下说明书基于JVET-L1001的版本9。添加的语法以黄色突出显示。
在7.3.2.1中的序列参数集RBSP语法
在7.3.3.1中的通用片组标头语法
添加新语法表片组整形器模型:
在通用序列参数集RBSP语义中,添加以下语义:
sps_reshaper_enabled_flag等于1指定在编解码的视频序列(CVS)中使用整形器。sps_reshaper_enabled_flag等于0指定在CVS中不使用整形器。
在片组标头语法中,添加以下语义
tile_group_reshaper_model_present_flag等于1指定片组标头中存在tile_group_reshaper_model()。tile_group_reshaper_model_present_flag等于0指定片组标头中不存在tile_group_reshaper_model()。当不存在tile_group_reshaper_model_present_flag时,将其推断为等于0。
tile_group_reshaper_enabled_flag等于1指定对当前片组启用整形器。tile_group_reshaper_enabled_flag等于0指定对当前片组不启用整形器。当不存在tile_group_reshaper_enable_flag时,将其推断为等于0。
tile_group_reshaper_chroma_residual_scale_flag等于1指定对当前片组启用色度残差缩放。tile_group_reshaper_chroma_residual_scale_flag等于0指定对当前片组不启用色度残差缩放。当不存在tile_group_reshaper_chroma_residual_scale_flag时,将其推断为等于0。
添加tile_group_reshaper_model()语法
reshape_model_min_bin_idx指定将要用于整形器构建过程的最小二进制码(或段)索引。reshape_model_min_bin_idx的值应在0到MaxBinIdx(包括端值)范围内。MaxBinIdx的值应等于15。
reshape_model_delta_max_bin_idx指定最大允许的二进制码(或段)索引MaxBinIdx减去将要用于整形器构建过程的最大位索引。将reshape_model_max_bin_idx的值设置为等于MaxBinIdx–reshape_model_delta_max_bin_idx。
reshaper_model_bin_delta_abs_cw_prec_minus1加1指定用于表示语法reshape_model_bin_delta_abs_CW[i]的比特数。
reshape_model_bin_delta_abs_CW[i]指定第i个二进制码的绝对增量(delta)码字值。
reshaper_model_bin_delta_sign_CW_flag[i]指定reshape_model_bin_delta_abs_CW[i]的符号,如下:
–如果reshape_model_bin_delta_sign_CW_flag[i]等于0,则对应的变量RspDeltaCW[i]为正值。
–否则(reshape_model_bin_delta_sign_CW_flag[i]不等于0),则对应的变量RspDeltaCW[i]为负值。
当reshape_model_bin_delta_sign_CW_flag[i]不存在时,将其推断为等于0。
变量RspCW[i]按以下步骤推导:
将变量OrgCW设置为等于(1<<BitDepthY)/(MaxBinIdx+1)。
–如果reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idx,则RspCW[i]=OrgCW+RspDeltaCW[i]。
–否则,则RspCW[i]=0。
如果BitDepthY的值等于10,则RspCW[i]的值应在32到2*OrgCW-1的范围内。
变量InputPivot[i](i在范围0到MaxBinIdx+1中(包括端值))推导如下
InputPivot[i]=i*OrgCW
变量ReshapePivot[i](i在范围0到MaxBinIdx+1中(包括端值))、变量ScaleCoef[i]和InvScaleCoeff[i](i在范围为0到MaxBinIdx中(包括端值))推导如下:
变量ChromaScaleCoef[i](i在范围0到MaxBinIdx中(包括端值))推导如下:
ChromaResidualScaleLut[64]={16384,16384,16384,16384,16384,16384,16384,8192,8192,8192,8192,5461,5461,5461,5461,4096,4096,4096,4096,3277,3277,3277,3277,2731,2731,2731,2731,2341,2341,2341,2048,2048,2048,1820,1820,1820,1638,1638,1638,1638,1489,1489,1489,1489,1365,1365,1365,1365,1260,1260,1260,1260,1170,1170,1170,1170,1092,1092,1092,1092,1024,1024,1024,1024};
shiftC=11
–如果(RspCW[i]==0)
ChromaScaleCoef[i]=(1<<shiftC)
否则(RspCW[i]!=0),ChromaScaleCoef[i]=ChromaResidualScaleLut[RspCW[i]>>1]
8.2.4 ILR的使用
在编码器侧,首先将每个图片(或片组)转换到整形域。并且所有编解码过程都在整形域中执行。对于帧内预测,相邻块在整形域中;对于帧间预测,首先将参考块(从解码图片缓冲器的原始域生成)转换到整形域。然后生成残差并将其编解码到比特流。
在整个图片(或片组)完成编码/解码之后,将整形域中的样点转换到原始域,然后应用去块滤波器和其他滤波器。
在以下情况下,禁用对预测信号的前向整形:
○当前块是帧内编解码的
○当前块被编解码为CPR(当前图片参考,也称为帧内块复制,IBC)
○当前块被编解码为组合帧间-帧内模式(CIIP),并且对帧内预测块禁用前向整形
9.双向光流(Bi-directional optical flow,BIO或BDOF)
9.1 BIO的概述和分析
在BDOF(又名BIO)中,首先执行运动补偿以生成当前块的第一预测(在每个预测方向上)。第一预测用于推导块内每个子块/像素的空间梯度、时间梯度和光流,然后使用其生成第二预测,例如,子块/像素的最终预测。细节描述如下。
双向光流方法(BIO)是在双向预测的分块运动补偿基础上执行的分样点运动细化。在一些实施方式中,样点级别运动细化不使用信令。
设I(k)为块运动补偿之后参考k(k=0,1)的亮度值,并且θI(k)/θx和θI(k)/θy分别表示I(k)梯度的水平分量和垂直分量。假设光流是有效的,则运动矢量场(vx,vy)由下式给出:
θI(k)/θt+vxθI(k)/θx+vyθI(k)/θy=0. (15)
将此光流公式与每个样点运动轨迹的埃尔米特插值相结合,得到唯一的三阶多项式,该三阶多项式最后匹配函数值I(k)和其导数θI(k)/θx,θI(k)/θy两者。该三阶多项式在t=0时的值是BIO预测:
predBIO=1/2·(I(0)+I(1)+vx/2·(τ1θI(1)/θx-τ0θI(0)/θx)+vy/2·(τ1θI(1)/θy-τ0θI(0)/θy)). (16)
图8示出了双向光流(BIO)方法中的示例光流轨迹。此处,τ0和τ1表示到参考帧的距离。基于Ref0和Ref1的POC计算距离τ0和τ1:τ0=POC(当前)-POC(Ref0),τ1=POC(Ref1)-POC(当前)。如果两个预测都来自相同的时间方向(两者都来自过去或都来自未来),则符号是不同的(例如,τ0·τ1<0)。在这种情况下,仅当预测不是来自相同的时刻(例如,τ0≠τ1)时才应用BIO。两个参考区域都具有非零运动(例如,MVx0,MVy0,MVx1,MVy1≠0)并且块运动矢量与时间距离成比例(例如,MVx0/MVx1=MVy0/MVVy1=-τ0/τ1)。
通过最小化点A和B中的值之间的差Δ来确定运动矢量场(vx,vy)。图8示出了运动轨迹和参考帧平面的交叉的示例。模式仅使用Δ的局部泰勒展开的第一线性项:
Δ=(I(0)-I(1) 0+vx(τ1θI(1)/θx+τ0θI(0)/θx)+vy(τ1θI(1)/θy+τ0θI(0)/θy)) (17)
上述公式中的所有值都取决于样点位置,表示为(i′,j′)。假设运动在局部周围区域是一致的,可以在以当前预测点(i,j)为中心的(2M+1)×(2M+1)的方形窗口Ω内最小化Δ,其中M等于2:
对于该优化问题,JEM使用简化方法,首先在垂直方向上进行最小化,然后在水平方向上进行最小化。结果如下:
其中,
为了避免除以零或非常小的值,在公式19和20中可以引入正则化参数r和m,其中:
r=500·4d-8 (22)
m=700·4d-8 (23)
其中,d是视频样点的比特深度。
为了使BIO的存储器访问与常规双向预测运动补偿保持相同,仅针对当前块内的位置计算所有预测和梯度值I(k)、θI(k)/θx、θI(k)/θy。图9A示出了块900外部的访问位置的示例。如图9A所示,在公式(17)中,以在预测块的边界上的当前预测点为中心的(2M+1)×(2M+1)方形窗口Ω需要访问块外部的位置。在JEM中,将块外部的I(k)、θI(k)/θx、θI(k)/θy的值设置为等于块内最近的可用值。例如,这可以实施为填充区域1901,如图9B所示。
利用BIO,可以针对每个样点细化运动场。为了降低计算复杂度,在JEM中使用基于块的BIO设计。可以基于4×4的块计算运动细化。在基于块的BIO中,可以聚合4×4的块中的所有样点的公式21中的sn的值,然后将sn的聚合值用于推导4×4块的BIO运动矢量偏移。更具体地,以下公式可以用于基于块的BIO推导:
其中,bk表示属于预测块的第k个4×4块的样点集。将公式19和20中的sn替换为((sn,bk)>>4),以推导相关联的运动矢量偏移。
在一些情景下,由于噪音或不规则运动,BIO的MV团(MV regiment)可能不可靠。因此,在BIO中,MV团的大小被阈值裁剪。基于当前图片的参考图片是否都来自一个方向来确定阈值。例如,如果当前图片的所有参考图片都来自一个方向,则将阈值的值设置为12×214-d;否则,将其设置为12×213-d。
可以使用与HEVC运动补偿过程(例如,2D可分离有限脉冲响应(FIR))一致的操作通过运动补偿插值来同时计算BIO的梯度。在一些实施例中,该2D可分离FIR的输入是与运动补偿过程和根据块运动矢量的分数部分得到的分数位置(fracX,fracY)相同的参考帧样点。对于水平梯度θI/θx,首先使用与具有去缩放移位d-8的分数位置fracY相对应的BIOfilterS垂直插值信号。然后在水平方向上应用梯度滤波器BIOfilterG,该BIOfilterG与具有去缩放移位18-d的分数位置fracX相对应。对于垂直梯度θI/θy,首先使用与具有去缩放移位d-8的分数位置fracY相对应的BIOfilterG垂直应用梯度滤波器。然后在水平方向上使用BIOfilterS执行信号位移,该BIOfilterS与具有去缩放移位18-d的分数位置fracX相对应。用于梯度计算的插值滤波器BIOfilterG和用于信号位移的插值滤波器BIOfilterS的长度可以较短(例如,6抽头),以保持合理的复杂度。表3示出了可以用于BIO中块运动矢量的不同分数位置的梯度计算的滤波器的示例。表4示出了可以用于BIO中预测信号生成的插值滤波器的示例。
表3:用于BIO中梯度计算的示例性滤波器
分数像素位置 | 梯度的插值滤波器(BIOfilterG) |
0 | {8,-39,-3,46,-17,5} |
1/16 | {8,-32,-13,50,-18,5} |
1/8 | {7,-27,-20,54,-19,5} |
3/16 | {6,-21,-29,57,-18,5} |
1/4 | {4,-17,-36,60,-15,4} |
5/16 | {3,-9,-44,61,-15,4} |
3/8 | {1,-4,-48,61,-13,3} |
7/16 | {0,1,-54,60,-9,2} |
1/2 | {-1,4,-57,57,-4,1} |
表4:用于BIO中预测信号生成的示例性插值滤波器
分数像素位置 | 预测信号的插值滤波器(BIOfilterS) |
0 | {0,0,64,0,0,0} |
1/16 | {1,-3,64,4,-2,0} |
1/8 | {1,-6,62,9,-3,1} |
3/16 | {2,-8,60,14,-5,1} |
1/4 | {2,-9,57,19,-7,2} |
5/16 | {3,-10,53,24,-8,2} |
3/8 | {3,-11,50,29,-9,2} |
7/16 | {3,-11,44,35,-10,3} |
1/2 | {3,-10,35,44,-11,3} |
在JEM中,当两个预测来自不同的参考图片时,BIO可以应用于所有双向预测块。当为CU启用局部照明补偿(LIC)时,可以禁用BIO。
在一些实施例中,OBMC在正常MC过程之后应用于块。为了降低计算复杂度,在OBMC过程中可以不应用BIO。这意味着BIO仅在使用其自身的MV时才应用于块的MC过程,并且在OBMC过程中使用相邻块的MV时不应用于MC过程。
10利用光流的预测细化(PROF)的示例
在一些实施例中,可以利用光流来细化基于子块的仿射运动补偿预测。在执行基于子块的仿射运动补偿之后,通过添加由光流公式推导的差来细化预测样点,这被称为利用光流的预测细化(PROF)。这样的技术可以在不增加存储器访问带宽的情况下以像素级别粒度实现帧间预测。
为了实现更精细的运动补偿粒度,该贡献提出了利用光流来细化基于子块的仿射运动补偿预测的方法。在执行基于子块的仿射运动补偿之后,通过添加由光流公式推导的差来细化亮度预测样点。将PROF描述为以下四个步骤。
步骤1)执行基于子块的仿射运动补偿以生成子块预测I(i,j)。
步骤2)使用3抽头滤波器[-1,0,1]在每个样点位置计算子块预测的空域梯度gx(i,j)和gy(i,j)。
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1)
子块预测在每侧扩展一个像素以进行梯度计算。为了减少存储器带宽和复杂度,扩展边界上的像素从参考图片中最近的整数像素位置复制。因此,避免了对填充区域的附加插值。
步骤3)通过光流公式计算亮度预测细化。
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j)
此处,Δv(i,j)是对采样位置(i,j)计算出的像素MV(由v(i,j)表示)与像素(i,h)所属的子块的子块MV之间的差,如图10所示。
由于仿射模型参数和相对于子块中心的像素位置从子块到子块没有变化,因此可以对第一子块计算Δv(i,j),并将Δv(i,j)重用于相同CU中的其他子块。令x和y为从像素位置到子块中心的水平和垂直偏移,则可以通过以下公式推导Δv(x,y):
对于4参数仿射模型,
对于6参数仿射模型
此处,(v0x,v0y)、(v1x,v1y)、(v2x,v2y)是左上、右上和左下控制点运动矢量,w和h是CU的宽度和高度。
步骤4)最后,将亮度预测细化添加到子块预测I(i,j)。按照以下公式生成最终预测I’:
I′(i,j)=I(i,j)+ΔI(i,j)
11现有实施方式的缺点
非线性ALF(NLALF)、BIO(也称为BDOF)和/或PROF设计具有以下问题:
(1)对于BDOF或PROF,推导的应用于预测样点的偏移值可能与原始样点相距太远,从而导致较大的残差。
(2)应用了2-D滤波,其对于具有强水平或垂直模式的序列可能是次最优的。
12视频编解码中样点细化和滤波的示例性方法
当前公开的技术的实施例克服了现有实施方式的缺点,从而提供了具有更高编解码效率的视频编解码。在针对各种实施方式描述的以下示例中阐明了基于所公开的技术的用于视频编解码的样点细化和滤波方法可以增强现有和未来的视频编解码标准。下面提供的所公开的技术的示例解释了一般概念,并且不意味着被解释为限制性的。在示例中,除非明确指出相反,否则可以对这些示例中描述的各种特征进行组合。
注意,在下面的示例中提到的“滤波方法”可以指代自适应环路滤波器/重建后滤波器(诸如双边滤波器\扩散滤波器等)。
1.裁剪可以应用于相邻像素的加权平均,而不是对每个相邻像素和当前像素之间的差进行裁剪。
a.在一些实施例中,裁剪可以如下进行,其中K是裁剪操作。
2.可以利用一维滤波方法。
a.在一些实施例中,1-D滤波器可以仅使用水平相邻样点。
i.在一些实施例中,可以用以下方式表示滤波过程:
ii.对于不同的像素,样点数/滤波器抽头数(例如,T)可以不同。例如,对于CTU边界处的像素,不使用不在当前CTU内的像素。
b.在一些实施例中,短抽头滤波器可以仅使用垂直相邻样点。
i.对于不同的像素,T可以不同。例如,对于CTU边界处的像素,不使用不在当前CTU内的像素。
c.在一些实施例中,一维抽头滤波器可以仅使用沿除水平/垂直方向之外的一个方向上的相邻样点。
d.在一些实施例中,对于不同类别的像素,ws(si)可以不同。
e.在一些实施例中,对于不同类别的像素,ws(si)可以相同。
f.在一些实施例中,可以将ws(si)信令通知解码器。
g.在一些实施例中,ws(si)可以是预定义的。
3.可以利用一维非线性自适应环路滤波方法。
a.在一些实施例中,短抽头滤波器可以仅使用水平相邻样点。
i.在一些实施例中,非线性滤波方法可以用水平相邻样点以以下方式表示:
ii.对于不同的像素,T可以不同。例如,对于CTU边界处的像素,不使用不在当前CTU内的像素。
b.在一些实施例中,一维非线性滤波器可以仅使用垂直相邻样点。
i.在一些实施例中,非线性滤波方法可以用垂直相邻样点以以下方式表示:
ii.对于不同的像素,T可以不同。例如,对于CTU边界处的像素,不使用不在当前CTU内的像素。
c.在一些实施例中,一维非线性抽头滤波器可以仅使用沿除水平/垂直方向之外的一个方向的相邻样点。
d.在一些实施例中,对于不同类别的像素,ws(si)可以不同。
e.在一些实施例中,对于不同类别的像素,ws(si)可以相同。
f.在一些实施例中,可以将ws(si)信令通知解码器。
g.在一些实施例中,ws(si)可以是预定义的。
4.在双边滤波器或哈达玛(Hadamard)滤波器中,可以沿不同方向对像素进行滤波。
a.在一些实施例中,可以取决于梯度信息,沿不同方向对像素进行滤波。
b.在一些实施例中,对于每个M×N子块,可以计算水平梯度和垂直梯度,并且如果绝对水平梯度之和大于或/和等于绝对垂直梯度之和,则可以对子块内的像素进行水平滤波。
i.可替代地,可以对子块内的像素进行垂直滤波。
c.在一些实施例中,对于每个M×N子块,可以计算水平梯度和垂直梯度,并且如果绝对水平梯度之和小于或/和等于绝对垂直梯度之和,则可以对子块内的像素进行垂直滤波。
i.可替代地,可以对子块内的像素进行水平滤波。
d.在一些实施例中,对于每个M×N子块,可以计算水平梯度、垂直梯度、45度对角梯度和135度对角梯度,可以沿绝对梯度之和最大的方向对子块内的像素进行滤波。
e.在一些实施例中,对于每个M×N子块,可以计算水平梯度、垂直梯度、45度对角梯度和135度对角梯度,可以沿绝对梯度之和最小的方向对子块内的像素进行滤波。
5.在BODF中,可以在将梯度用于样点细化或/和MV偏移推导之前进行修改。
a.在一些实施例中,可以将在BDOF中计算的空域或/和时域梯度裁剪到范围[min,max]。
i.对于空域和时域梯度,变量min和max可以不同。
ii.变量min可以小于0,且变量max可以大于零。
iii.变量min和max可以取决于样点的输入比特深度。
iv.变量min和max可以取决于用于生成中间样点的插值滤波器。
v.可以信令通知变量min和max。
vi.变量min和max可以是预定义的。
b.在一些实施例中,可以通过非线性函数来修改在BDOF中计算的空域或/和时域梯度。
i.例如,可以使用逻辑sigmoid函数。
c.类似地,在PROF中,可以在将梯度用于样点细化或/和MV偏移推导之前进行修改。
6.在BODF/PROF中,在细化的样点值或预测样点与其细化的样点值之间的差(或偏移)用于推导最终重建样点值之前,可以进一步修改细化的样点值或预测样点与其细化的样点值之间的差(或偏移)。
a.在BODF/PROF中,可以将裁剪操作加到预测样点及其细化样点值之间的差中。
b.在一些实施例中,该差可以被裁剪到范围[min,max]。
i.对于空域和时域梯度,变量min和max可以不同。
ii.变量min可以小于0,且变量max可以大于零。
iii.变量min和max可以取决于样点的输入比特深度。
iv.变量min和max可以取决于用于生成中间样点的插值滤波器。
v.可以信令通知变量min和max。
vi.变量min和max可以是预定义的。
c.此外,可替代地,一个预测样点的最终重建值可以取决于裁剪后的差。
d.此外,可替代地,一个预测样点的最终重建值可以取决于修改的细化的样点/修改的细化的差。
7.以上方法中利用的裁剪参数可以以诸如序列级别、图片级别、CTU级别等的一些视频编解码单元级别信令通知。
a.在一些实施例中,可以在SPS/VPS/PPS/片组标头/CTU行/区域中信令通知它们。
b.可替代地,可以实时推导参数。
c.可替代地,可以根据量化参数、片组类型、编解码模式信息、整形参数等来推导参数。
8.是否应用以上方法可以取决于颜色格式。
a.所提出的方法可以仅适用于一个颜色分量,诸如G或亮度颜色分量。
b.可替代地,所提出的方法可以适用于4:4:4颜色格式的所有颜色分量。
可以在下面描述的方法的上下文中包含上述示例,例如方法1100和1150,其可以在视频解码器或视频编码器处实现。
图11A示出了用于视频处理的示例性方法的流程图。方法1100包括,在步骤1102,为当前视频块配置滤波过程,该滤波过程包括应用于当前视频块的相邻像素的加权平均的裁剪操作。
在一些实施例中,滤波过程包括
O(x,y)=I(x,y)+K(∑(i,j)≠(0,0)w(i,j).(I(x+i,y+j)-I(x,y))),
其中,I(x,y)是当前视频块的第(x,y)个像素,O(x,y)是第(x,y)个像素的输出值,w(i,j)是加权因子,并且K(·)是裁剪操作。
方法1100包括,在步骤1104,基于滤波过程,从对应的比特流表示中重建当前视频块。
在一些实施例中,在序列参数集(SPS)、视频参数集(VPS)、图片参数集(PPS)、片组标头、编解码树单元(CTU)行或CTU区域中信令通知裁剪操作的一个或多个参数。
在一些实施例中,裁剪操作的一个或多个参数是实时推导的。
在一些实施例中,基于当前视频块的一个或多个量化参数、一个或多个整形参数、片组类型或编解码模式来推导裁剪操作的一个或多个参数。
在一些实施例中,滤波过程对应于自适应环路滤波过程或重建后滤波过程。在示例中,重建后滤波过程使用双边滤波器、哈达玛滤波器或扩散滤波器中的至少一个。
图11B示出了用于视频处理的示例性方法的流程图。方法1150包括,在步骤1152,为当前视频块配置一维滤波过程。
方法1150包括,在步骤1154,基于一维滤波过程,从对应的比特流表示中重建当前视频块。
在一些实施例中,将一维滤波过程应用于当前视频块的水平相邻样点、垂直相邻样点、沿45度对角的相邻样点或沿135度对角的相邻样点中的至少一个。在示例中,应用于编解码树单元(CTU)边界处的像素的一维滤波过程的滤波器抽头的第一集合不同于应用于完全在CTU内的像素的一维滤波过程的滤波器抽头的第二集合。在另一示例中,滤波器抽头的第一集合或滤波器抽头的第二集合是预定义的或在对应的比特流表示中信令通知。
在一些实施例中,基于梯度信息来配置一维滤波过程。在示例中,梯度信息包括当前视频块的M×N子块的多个水平梯度和多个垂直梯度。在另一示例中,多个水平梯度的绝对值之和大于或等于多个垂直梯度的绝对值之和。在又一示例中,多个水平梯度的绝对值之和小于或等于多个垂直梯度的绝对值之和。在又一示例中,将一维滤波过程应用于水平相邻样点。在又一示例中,将一维滤波过程应用于垂直相邻样点。
在一些实施例中,梯度信息还包括用于M×N子块的多个45度对角梯度和用于M×N子块的多个135度对角梯度。在示例中,沿与多个水平梯度、垂直梯度、45度对角梯度和135度对角梯度的绝对值之和的最大值对应的方向应用一维滤波过程。在另一示例中,沿与多个水平梯度、垂直梯度、45度对角梯度和135度对角梯度的绝对值之和的最小值对应的方向应用一维滤波过程。
在一些实施例中,基于梯度信息的修改来配置一维滤波过程。在示例中,修改包括对梯度信息应用范围为[min,max]的裁剪操作。在另一示例中,min和max配置有用于空间梯度的第一值集合,并且其中min和max配置有用于时间梯度的第二值集合,该第二值集合不同于第一值集合。在又一示例中,min<0并且max>0。在又一示例中,基于当前视频块的样点的输入比特深度来选择min和max的值。在又一个示例中,min和max的值是预定义的或在对应的比特流表示中信令通知。
在一些实施例中,修改包括对梯度信息应用非线性函数。在示例中,非线性函数是逻辑sigmoid函数。
在一些实施例中,一维滤波过程对应于自适应环路滤波过程或重建后滤波过程。在示例中,重建后滤波过程使用双边滤波器、哈达玛滤波器或扩散滤波器中的至少一个。
13.所公开的技术的示例实施方式
图12是视频处理装置1200的框图。装置1200可用于实现本文所描述的一个或多个方法。装置1200可以实施在智能手机、平板电脑、计算机、物联网(IoT)接收器等中。装置1200可以包括一个或多个处理器1202、一个或多个存储器1204和视频处理硬件1206。(一个或多个)处理器1202可以被配置为实现在本文中描述的一种或多种方法(包括但不限于方法1100和1150)。可以将(一个或多个)存储器1204用于存储用于实现本文所描述的方法和技术的数据和代码。视频处理硬件1206可用于在硬件电路中实现本文档中描述的一些技术。
在一些实施例中,视频编解码方法可以使用关于图12所描述的在硬件平台上实现的装置来实现。
图13是示出其中可实现本文中所公开的各种技术的示例视频处理系统1300的框图。各种实施方式可以包括系统1300的一些或全部组件。系统1300可以包括用于接收视频内容的输入1302。视频内容可以以原始或未压缩的格式(例如8或10位多分量像素值)接收,或者可以以压缩或编码的格式接收。输入1302可以表示网络接口、外围总线接口或存储接口。网络接口的示例包括有线接口(诸如以太网、无源光网络(PON)等)和无线接口(诸如Wi-Fi或蜂窝接口)。
系统1300可以包括可以实现本文中描述的各种编解码或编码方法的编解码组件1304。编解码组件1304可以减少从编解码组件1304的输入1302到输出的视频的平均比特率,以产生视频的编解码表示。因此,编解码技术有时称为视频压缩或视频转码技术。如组件1306所表示的,编解码组件1304的输出可以被存储或经由所连接的通信来发送。在输入1302处接收的视频的存储或传送的比特流(或编解码)表示可以被组件1308使用,以生成被发送到显示接口1310的像素值或可显示视频。从比特流表示中生成用户可见视频的过程有时称为视频解压缩。此外,尽管某些视频处理操作被称为“编解码”操作或工具,但是应当理解,在编码器处使用编解码工具或操作,并且将由解码器执行反向编解码结果的对应解码工具或操作。
外围总线接口或显示接口的示例可以包括通用串行总线(USB)或高清多媒体接口(HDMI)或Displayport等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等。本文中描述的技术可以实施在各种电子设备中,诸如移动电话、膝上型计算机、智能电话或其他能够执行数字数据处理和/或视频显示的设备。
图14是根据本技术的用于视频处理的方法1400的流程图表示。方法1400包括,在操作1410处,对于视频的当前块和视频的比特流表示之间的转换,将裁剪操作应用于当前块中的像素与该像素的相邻像素之间的差的加权平均。方法1400包括,在操作1420处,基于裁剪操作的输出执行转换。
在一些实施例中,将裁剪操作应用为:O(x,y)=I(x,y)+K(∑(i,j)≠(0,0)w(i,j).(I(x+i,y+j)-I(x,y))),其中I(x,y)是当前块的第(x,y)个像素,O(x,y)是第(x,y)个像素的输出值,w(i,j)是加权因子,并且K(·)是裁剪操作。在一些实施例中,在序列参数集(SPS)、视频参数集(VPS)、图片参数集(PPS)、片组标头、编解码树单元(CTU)行或CTU区域中信令通知裁剪操作的一个或多个参数。在一些实施例中,裁剪操作的一个或多个参数是实时推导的。在一些实施例中,基于当前视频块的一个或多个量化参数、一个或多个整形参数、片组类型或编解码模式来推导裁剪操作的一个或多个参数。
图15是根据本技术的用于视频处理的方法1500的流程图表示。方法1500包括,在操作1510处,对于视频的当前块和视频的比特流表示之间的转换,基于当前块的相邻像素集合配置滤波过程。方法1500包括,在操作1520处,基于滤波过程的输出执行转换。
在一些实施例中,滤波过程包括基于当前块的相邻像素集合的一维滤波操作。在一些实施例中,一维滤波操作包括非线性自适应环路滤波方法。
在一些实施例中,相邻像素集合包括当前块的水平相邻像素。在一些实施例中,滤波过程包括: 其中I(x,y)是当前块的第(x,y)个像素,O(x,y)是第(x,y)个像素的输出值,w(i,j)是加权因子,T表示要用于滤波过程的像素数,并且ws(si)表示与T相对应的滤波系数。在一些实施例中,滤波过程包括: 其中I(x,y)是当前块的第(x,y)个像素,O(x,y)是第(x,y)个像素的输出值,w(i,j)是加权因子,K(·)是裁剪操作,T表示要用于滤波过程的像素数,ws(si)表示与T对应的滤波系数,并且k(i,j)表示裁剪参数。
在一些实施例中,相邻像素集合包括当前块的垂直相邻像素。在一些实施例中,滤波过程包括: 其中I(x,y)是当前块的第(x,y)个像素,O(x,y)是第(x,y)个像素的输出值,w(i,j)是加权因子,T表示要用于滤波过程的像素数,并且ws(si)表示与T对应的滤波系数。在一些实施例中,滤波过程包括: 其中I(x,y)是当前块的第(x,y)个像素,O(x,y)是第(x,y)个像素的输出值,w(i,j)是加权因子,K(·)是裁剪操作,T表示要用于滤波过程的像素数,ws(si)表示与T对应的滤波系数,并且k(i,j)表示裁剪参数。
在一些实施例中,T针对当前块中的不同像素而变化。在一些实施例中,在当前块的第(x,y)个像素位于当前块的边界的情况下,要用于滤波过程的像素数T不包括位于当前块外部的像素。在一些实施例中,对于当前块中的不同像素,ws(k)不同。在一些实施例中,对于当前块中的不同像素,ws(k)相同。在一些实施例中,在比特流表示中信令通知ws(k)。在一些实施例中,ws(k)是预定义的。
在一些实施例中,一维滤波操作不包括沿水平或垂直方向应用滤波器。
在一些实施例中,滤波过程包括沿不同方向应用滤波器。在一些实施例中,滤波器包括双边滤波器或哈达玛滤波器。在一些实施例中,基于与当前块相关联的梯度信息,将滤波器应用于不同方向。在一些实施例中,该方法包括:对于当前块内的子块,确定子块中像素的水平梯度和垂直梯度;以及在绝对水平梯度之和大于或等于绝对垂直梯度之和的情况下,将滤波器水平应用于子块。在一些实施例中,该方法包括:对于当前块内的子块,确定子块中像素的水平梯度和垂直梯度;以及在绝对水平梯度之和大于或等于绝对垂直梯度之和的情况下,将滤波器垂直应用于子块。在一些实施例中,该方法包括:对于当前块内的子块,确定子块中像素的水平梯度和垂直梯度;以及在绝对水平梯度之和小于或等于绝对垂直梯度之和的情况下,将滤波器水平应用于子块。在一些实施例中,该方法包括:对于当前块内的子块,确定子块中像素的水平梯度和垂直梯度;以及在绝对水平梯度之和小于或等于绝对垂直梯度之和的情况下,将滤波器垂直应用于子块。在一些实施例中,该方法包括:对于当前块内的子块,确定子块中像素的水平梯度、垂直梯度、45度对角梯度和135度对角梯度;以及基于所确定的水平梯度、垂直梯度、45度对角梯度和135度对角梯度,将滤波器沿绝对梯度之和最大的方向应用于子块。在一些实施例中,该方法包括:对于当前块内的子块,确定子块中像素的水平梯度、垂直梯度、45度对角梯度和135度对角梯度;以及基于所确定的水平梯度、垂直梯度、45度对角梯度和135度对角梯度,将滤波器沿绝对梯度之和最大的方向应用于子块。
在一些实施例中,滤波过程是否适用于当前块基于当前块的颜色格式。在一些实施例中,滤波过程适用于当前块的单个颜色分量。在一些实施例中,单个颜色分量是亮度分量或绿色分量。在一些实施例中,在当前块的颜色格式是4∶4∶4颜色格式的情况下,滤波过程适用于当前块的所有颜色分量。
图16是根据本技术的用于视频处理的方法1600的流程图表示。方法1600包括,在操作1610处,对于视频的块和视频的比特流表示之间的转换,通过将裁剪操作应用于细化值,来对块中的预测样点的细化值进行修改。基于光流编解码过程的梯度值来推导细化值。裁剪操作的输出在范围内。方法1600包括,在操作1620处,基于修改的细化值来细化预测样点。方法1600还包括,在操作1630处,基于细化的预测样点执行转换。
在一些实施例中,光流编解码过程包括具有光流过程的预测细化。在一些实施例中,光流编解码过程包括双向光流过程。
在一些实施例中,基于样点的输入比特深度来确定范围。在一些实施例中,范围基于样点的空间梯度或时间梯度可变。在一些实施例中,范围是[min,max],min小于0并且max大于0。在一些实施例中,范围基于用于生成与样点相关联的中间样点的插值滤波器。在一些实施例中,在比特流表示中信令通知范围。在一些实施例中,范围是预定义的。
在一些实施例中,基于裁剪操作的输出来确定样点的最终重建值。在一些实施例中,基于样点的修改的预测值来确定样点的最终重建值。在一些实施例中,块以仿射运动进行编解码。在一些实施例中,对块中的多个样点中的每个推导细化值。
图17是根据本技术的用于视频处理的方法1700的流程图表示。方法1700包括,在操作1710处,对于视频的块和视频的比特流表示之间的转换,修改光流编解码过程中的梯度值。方法1700还包括,在操作1720处,基于用于转换的修改的梯度值执行后续预测操作。在一些实施例中,光流编解码过程包括具有光流过程或双向光流过程的预测细化。在一些实施例中,后续预测操作包括样点细化操作或运动矢量偏移推导操作。
在一些实施例中,修改梯度值包括对梯度值应用裁剪操作,并且其中裁剪操作的输出在范围内。在一些实施例中,范围基于梯度值是预测样点的空间梯度还是时间梯度可变。在一些实施例中,范围是[min,max],min小于0,并且max大于0。在一些实施例中,基于样点的输入比特深度来确定范围。在一些实施例中,范围基于用于生成与样点相关联的中间样点的插值滤波器。在一些实施例中,在比特流表示中用信号通知范围。在一些实施例中,范围是预定义的。在一些实施例中,修改梯度值包括将非线性函数应用于梯度值。在一些实施例中,非线性函数包括逻辑sigmoid函数。
在一些实施例中,块以仿射运动进行编解码。在一些实施例中,对块中的多个样点的每个推导梯度值。
在一些实施例中,在序列参数集(SPS)、视频参数集(VPS)、图片参数集(PPS)、片组标头、编解码树单元(CTU)行或CTU区域中信令通知裁剪操作的一个或多个参数。在一些实施例中,裁剪操作的一个或多个参数是实时推导的。在一些实施例中,基于当前视频块的一个或多个量化参数、一个或多个整形参数、片组类型或编解码模式来推导裁剪操作的一个或多个参数。
在一些实施例中,修改是否适用于当前块基于当前块的颜色格式。在一些实施例中,修改适用于当前块的单个颜色分量。在一些实施例中,单个颜色分量是亮度分量或绿色分量。在一些实施例中,在当前块的颜色格式是4:4:4颜色格式的情况下,修改适用于当前块的所有颜色分量。
在一些实施例中,光流编解码过程是其中将块中的运动建模为光流的过程。
在一些实施例中,执行转换包括基于视频的当前块来生成比特流表示。在一些实施例中,执行转换包括从比特流表示生成视频的当前块。
所公开技术的一些实施例包括做出决策或确定以启用视频处理工具或模式。在示例中,当启用视频处理工具或模式时,编码器将在视频块的处理中使用或实现该工具或模式,但是不一定基于该工具或模式的使用来修改产生的比特流。换言之,从视频块到视频的比特流表示的转换将在基于决策或确定启用视频处理工具或模式时使用视频处理工具或模式。在另一示例中,当启用视频处理工具或模式时,解码器将在知道已经基于视频处理工具或模式修改比特流的情况下处理比特流。换言之,将使用基于决策或确定而启用的视频处理工具或模式来执行从视频的比特流表示到视频块的转换。
所公开技术的一些实施例包括作出决策或确定以禁用视频处理工具或模式。在示例中,当禁用视频处理工具或模式时,编码器将在视频块到视频的比特流表示的转换中不使用该工具或模式。在另一示例中,当禁用视频处理工具或模式时,解码器将在知道尚未使用基于决策或确定而启用的视频处理工具或模式修改比特流的情况下处理比特流。
在本文档中,术语“视频处理”可以指代视频编码、视频解码、视频压缩或视频解压缩。例如,可以在从视频的像素表示到对应的比特流表示(或编解码表示)的转换期间应用视频压缩算法,反之亦然。如语法所定义,当前视频块的比特流表示可以例如对应于位于比特流内的不同位置中并置或散布的比特。例如,可以根据变换和编解码的误差残差值并且还使用标头中的比特和比特流中的其他字段来对宏块进行编码。此外,如以上解决方案中所描述的,在转换期间,解码器可以在已知存在或不存在某些字段的情况下基于确定来解析比特流。类似地,编码器可以确定是否包括某些语法字段,并通过从编解码表示中包括或排除语法字段来相应地生成编解码表示。
从前述内容可以理解,本文已经出于说明的目的描述了当前所公开的技术的具体实施例,但是在不脱离本发明的范围的情况下可以做出各种修改。因此,除了所附权利要求之外,当前所公开的技术不受限制。
本专利文档中描述的主题的实施方式和功能性操作可以在各种系统、数字电子电路中实施,或者在计算机软件、固件或硬件中实施,包括本说明书中所公开的结构及其结构等同物,或者以他们中的一个或多个的组合实施。本说明书中描述的主题的实施方式可以被实现为一个或多个计算机程序产品,即,在暂时性和非暂时性计算机可读介质上编码的计算机程序指令的一个或多个模块,以用于由数据处理装置执行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质的合成、或者它们中的一个或多个的组合。术语“数据处理单元”和“数据处理装置”包括用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机或者多个处理器或计算机。除了硬件之外,装置可以包括为所讨论的计算机程序创建执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统及其一个或多个的组合的代码。
计算机程序(也称为程序、软件、软件应用、脚本或代码)可以用任何形式的编程语言(包括编译语言或解释语言)编写,并且可以以任何形式部署,包括作为独立程序或作为模块、组件、子程序或其他适合在计算环境中使用的单元。计算机程序不一定与文件系统中的文件相对应。程序可以存储在保存其他程序或数据的文件的部分中(例如,存储在标记语言文档中的一个或多个脚本)、专用于所讨论的程序的单个文件中、或多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)中。计算机程序可以部署在一台或多台计算机上来执行,这些计算机位于一个站点或分布在多个站点并通过通信网络互连。
本说明书中描述的处理和逻辑流可以由一个或多个可编程处理器执行,该一个或多个处理器执行一个或多个计算机程序,通过对输入数据进行操作并生成输出来执行功能。处理和逻辑流也可以由专用逻辑电路来执行,并且装置也可以实施为专用逻辑电路,例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路)。
例如,适用于执行计算机程序的处理器包括通用和专用微处理器、以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是执行指令的处理器和存储指令和数据的一个或多个存储设备。通常,计算机还将包括一个或多个用于存储数据的大容量存储设备,例如,磁盘、磁光盘或光盘,或可操作地耦接到一个或多个大容量存储设备,以从其接收数据或向其传送数据,或两者兼有。然而,计算机不一定需要具有这样的设备。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路来补充,或合并到专用逻辑电路中。
旨在将说明书与附图一起仅视为示例性的,其中示例性意味着示例。如本文所使用的,单数形式“一(a)”、“一个(an)”和“该(the)”也意图包括复数形式,除非上下文另外明确指出。另外,除非上下文另有明确说明,否则“或”的使用旨在包括“和/或”。
虽然本专利文档包含许多细节,但不应将其解释为对任何发明或要求保护的范围的限制,而应解释为特定于特定发明的特定实施例的特征的描述。本专利文档在分离的实施例的上下文描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以在多个实施例中单独地实现,或在任何合适的子组合中实现。此外,虽然特征可以被描述为在某些组合中起作用,甚至最初这样要求保护,但在某些情况下,可以从组合中移除来自要求保护的组合的一个或多个特征,并且要求保护的组合可以指向子组合或子组合的变体。
同样,尽管在附图中以特定顺序描述了操作,但这不应理解为要获得期望的结果必须按照所示的特定顺序或次序顺序来执行这些操作,或执行所有示出的操作。此外,本专利文档所述实施例中的各种系统组件的分离不应理解为在所有实施例中都需要这样的分离。
仅描述了一些实施方式和示例,其他实施方式、增强和变体可以基于本专利文档中描述和说明的内容做出。
Claims (38)
1.一种视频处理方法,包括:
对于在视频的当前块和所述视频的比特流表示之间的转换,将裁剪操作应用于所述当前块中的像素与所述像素的相邻像素之间的差的加权平均;以及
基于所述裁剪操作的输出执行所述转换。
2.根据权利要求1所述的方法,其中,将所述裁剪操作应用为:
O(x,y)=I(x,y)+K(∑(i,j)≠(0,0)w(i,j).(I(x+i,y+j)-I(x,y))),
其中,I(x,y)是所述当前块的第(x,y)个像素,O(x,y)是所述第(x,y)个像素的输出值,w(i,j)是加权因子,并且K(·)是所述裁剪操作。
3.根据权利要求1或2所述的方法,其中,在序列参数集(SPS)、视频参数集(VPS)、图片参数集(PPS)、片组标头、编解码树单元(CTU)行或编解码树单元区域中信令通知所述裁剪操作的一个或多个参数。
4.根据权利要求1或2所述的方法,其中,所述裁剪操作的一个或多个参数是实时推导的。
5.根据权利要求1或2所述的方法,其中,基于所述当前视频块的一个或多个量化参数、一个或多个整形参数、片组类型或编解码模式来推导所述裁剪操作的一个或多个参数。
6.一种视频处理方法,包括:
对于视频的当前块和所述视频的比特流表示之间的转换,基于所述当前块的相邻像素集合配置滤波过程;以及
基于所述滤波过程的输出执行所述转换。
7.根据权利要求6所述的方法,其中,所述滤波过程包括基于所述当前块的相邻像素集合的一维滤波操作。
8.根据权利要求7所述的方法,其中,所述一维滤波操作包括非线性自适应环路滤波方法。
9.根据权利要求7或8所述的方法,其中,所述相邻像素集合包括所述当前块的水平相邻像素。
12.根据权利要求7或8所述的方法,其中,所述相邻像素集合包括所述当前块的垂直相邻像素。
15.根据权利要求7至14中任一项或多项所述的方法,其中,T针对所述当前块中的不同像素而变化。
16.根据权利要求15所述的方法,其中,在所述当前块的第(x,y)个像素位于所述当前块的边界的情况下,要用于所述滤波过程的像素数T不包括位于所述当前块外部的像素。
17.根据权利要求7至16中任一项或多项所述的方法,其中,对于所述当前块中的不同像素,ws(k)不同。
18.根据权利要求7至16中任一项或多项所述的方法,其中,对于所述当前块中的不同像素,ws(k)相同。
19.根据权利要求7至16中任一项或多项所述的方法,其中,在所述比特流表示中信令通知ws(k)。
20.根据权利要求7至16中任一项或多项所述的方法,其中,ws(k)是预定义的。
21.根据权利要求7或8所述的方法,其中,所述一维滤波操作不包括沿水平或垂直方向应用滤波器。
22.根据权利要求6所述的方法,其中,所述滤波过程包括沿不同方向应用滤波器。
23.根据权利要求22所述的方法,其中,所述滤波器包括双边滤波器或哈达玛滤波器。
24.根据权利要求22或23所述的方法,其中,基于与所述当前块相关联的梯度信息,将所述滤波器应用于所述不同方向。
25.根据权利要求24所述的方法,包括:
对于所述当前块内的子块,确定所述子块中像素的水平梯度和垂直梯度;以及
在绝对水平梯度之和大于或等于绝对垂直梯度之和的情况下,将所述滤波器水平应用于所述子块。
26.根据权利要求24所述的方法,包括:
对于所述当前块内的子块,确定所述子块中像素的水平梯度和垂直梯度;以及
在绝对水平梯度之和大于或等于绝对垂直梯度之和的情况下,将所述滤波器垂直应用于所述子块。
27.根据权利要求24所述的方法,包括:
对于所述当前块内的子块,确定所述子块中像素的水平梯度和垂直梯度;以及
在绝对水平梯度之和小于或等于绝对垂直梯度之和的情况下,将所述滤波器水平应用于所述子块。
28.根据权利要求24所述的方法,包括:
对于所述当前块内的子块,确定所述子块中像素的水平梯度和垂直梯度;以及
在绝对水平梯度之和小于或等于绝对垂直梯度之和的情况下,将所述滤波器垂直应用于所述子块。
29.根据权利要求24所述的方法,包括:
对于所述当前块内的子块,确定所述子块中像素的水平梯度、垂直梯度、45度对角梯度和135度对角梯度;以及
基于所确定的水平梯度、垂直梯度、45度对角梯度和135度对角梯度,将所述滤波器沿绝对梯度之和最大的方向应用于所述子块。
30.根据权利要求24所述的方法,包括:
对于所述当前块内的子块,确定所述子块中像素的水平梯度、垂直梯度、45度对角梯度和135度对角梯度;以及
基于所确定的水平梯度、垂直梯度、45度对角梯度和135度对角梯度,将所述滤波器沿绝对梯度之和最小的方向应用于所述子块。
31.根据权利要求1至30中任一项或多项所述的方法,其中,所述滤波过程是否适用于所述当前块基于所述当前块的颜色格式。
32.根据权利要求31所述的方法,其中,所述滤波过程适用于所述当前块的单个颜色分量。
33.根据权利要求32所述的方法,其中,所述单个颜色分量是亮度颜色分量或绿色分量。
34.根据权利要求31所述的方法,其中,在所述当前块的颜色格式是4:4:4颜色格式的情况下,所述滤波过程适用于所述当前块的所有颜色分量。
35.根据权利要求1至34中任一项或多项所述的方法,其中,执行所述转换包括基于所述视频的当前块来生成所述比特流表示。
36.根据权利要求1至34中任一项或多项所述的方法,其中,执行所述转换包括从所述比特流表示生成所述视频的当前块。
37.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中,所述指令在由所述处理器执行时使所述处理器实现权利要求1至36中任一项所述的方法。
38.一种存储在非暂时性计算机可读介质上的计算机程序产品,所述计算机程序产品包括用于执行权利要求1至36中任一项所述的方法的程序代码。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2019/080914 | 2019-04-02 | ||
CN2019080914 | 2019-04-02 | ||
PCT/CN2020/082976 WO2020200277A1 (en) | 2019-04-02 | 2020-04-02 | Adaptive loop filtering in video processing |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113728651A true CN113728651A (zh) | 2021-11-30 |
CN113728651B CN113728651B (zh) | 2022-10-25 |
Family
ID=72664568
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080026399.4A Active CN113661708B (zh) | 2019-04-02 | 2020-04-02 | 基于双向光流的视频编解码和解码 |
CN202080026270.3A Active CN113728651B (zh) | 2019-04-02 | 2020-04-02 | 视频处理中的自适应环路滤波 |
CN202311511842.9A Pending CN117319681A (zh) | 2019-04-02 | 2020-04-02 | 基于双向光流的视频编解码和解码 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080026399.4A Active CN113661708B (zh) | 2019-04-02 | 2020-04-02 | 基于双向光流的视频编解码和解码 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311511842.9A Pending CN117319681A (zh) | 2019-04-02 | 2020-04-02 | 基于双向光流的视频编解码和解码 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11516497B2 (zh) |
EP (1) | EP3928521A4 (zh) |
JP (2) | JP7239732B2 (zh) |
KR (2) | KR102609947B1 (zh) |
CN (3) | CN113661708B (zh) |
WO (2) | WO2020200277A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023125834A1 (en) * | 2021-12-30 | 2023-07-06 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102609947B1 (ko) * | 2019-04-02 | 2023-12-04 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 양방향 광학 흐름 기반 비디오 코딩 및 디코딩 |
EP3928524A4 (en) | 2019-04-15 | 2022-06-22 | Beijing Bytedance Network Technology Co., Ltd. | TIME PREDICTION OF PARAMETERS IN A NONLINEAR ADAPTIVE LOOP FILTER |
CN113711608B (zh) | 2019-04-19 | 2023-09-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程的适用性 |
CN113711609B (zh) | 2019-04-19 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程中的增量运动矢量 |
WO2020211864A1 (en) | 2019-04-19 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Region based gradient calculation in different motion vector refinements |
CN113784814B (zh) * | 2019-05-08 | 2023-08-15 | 东京毅力科创株式会社 | 接合装置、接合系统以及接合方法 |
JP7323641B2 (ja) | 2019-05-21 | 2023-08-08 | 北京字節跳動網絡技術有限公司 | アフィンモードのための適応動きベクトル差分分解 |
CN113826165A (zh) * | 2019-05-22 | 2021-12-21 | 维耶尔公司 | 用于转移设置的对准过程 |
CN114073090A (zh) * | 2019-07-01 | 2022-02-18 | 交互数字Vc控股法国公司 | 仿射运动补偿的双向光流细化 |
KR20220042125A (ko) | 2019-08-10 | 2022-04-04 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브픽처 디코딩에서의 버퍼 관리 |
JP6960969B2 (ja) * | 2019-09-20 | 2021-11-05 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
JP7482220B2 (ja) | 2019-10-18 | 2024-05-13 | 北京字節跳動網絡技術有限公司 | サブピクチャのパラメータセットシグナリングにおける構文制約 |
BR112022012807A2 (pt) | 2019-12-27 | 2022-09-27 | Beijing Bytedance Network Tech Co Ltd | Método de processamento de vídeo, aparelho para processar dados de vídeo e meios não transitórios legíveis por computador |
US11863742B2 (en) * | 2020-12-03 | 2024-01-02 | Alibaba Group Holding Limited | Method for using adaptive loop filter and system thereof |
WO2022262693A1 (en) * | 2021-06-15 | 2022-12-22 | Beijing Bytedance Network Technology Co., Ltd. | Method, device, and medium for video processing |
WO2022271635A1 (en) * | 2021-06-22 | 2022-12-29 | Beijing Dajia Internet Information Technology Co., Ltd. | Side window bilateral filtering for video coding |
WO2024008105A1 (en) * | 2022-07-05 | 2024-01-11 | Douyin Vision (Beijing) Co., Ltd. | Multi-source based extended taps for adaptive loop filter in video coding |
WO2024078551A1 (en) * | 2022-10-13 | 2024-04-18 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017142939A1 (en) * | 2016-02-15 | 2017-08-24 | Qualcomm Incorporated | Geometric transforms for filters for video coding |
WO2017184970A1 (en) * | 2016-04-22 | 2017-10-26 | Vid Scale, Inc. | Prediction systems and methods for video coding based on filtering nearest neighboring pixels |
CN107925773A (zh) * | 2015-06-11 | 2018-04-17 | 英迪股份有限公司 | 使用自适应去块滤波编码和解码图像的方法及其装置 |
CN107925772A (zh) * | 2015-09-25 | 2018-04-17 | 华为技术有限公司 | 利用可选插值滤波器进行视频运动补偿的装置和方法 |
CN108293118A (zh) * | 2015-11-24 | 2018-07-17 | 三星电子株式会社 | 视频解码方法和装置以及视频编码方法和装置 |
CN109076237A (zh) * | 2015-11-18 | 2018-12-21 | 联发科技股份有限公司 | 在视频和图像压缩中使用帧内预测滤波器的帧内预测模式的方法和装置 |
CN109479130A (zh) * | 2016-08-02 | 2019-03-15 | 高通股份有限公司 | 基于几何变换的自适应环路滤波 |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2321970A1 (en) | 2008-09-04 | 2011-05-18 | Thomson Licensing | Methods and apparatus for prediction refinement using implicit motion prediction |
JP2011142585A (ja) | 2010-01-08 | 2011-07-21 | Sony Corp | 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム |
KR101529992B1 (ko) * | 2010-04-05 | 2015-06-18 | 삼성전자주식회사 | 픽셀 그룹별 픽셀값 보상을 위한 비디오 부호화 방법과 그 장치, 및 픽셀 그룹별 픽셀값 보상을 위한 비디오 복호화 방법과 그 장치 |
JP5768662B2 (ja) | 2011-10-31 | 2015-08-26 | 富士通株式会社 | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US10390041B2 (en) | 2012-03-30 | 2019-08-20 | Sun Patent Trust | Predictive image coding and decoding using two reference pictures |
WO2014058280A1 (ko) | 2012-10-12 | 2014-04-17 | 한국전자통신연구원 | 영상의 부호화/복호화 방법 및 이를 이용하는 장치 |
US10412419B2 (en) | 2013-07-12 | 2019-09-10 | Qualcomm Incorporated | Adaptive filtering in video coding |
DK3047639T3 (en) | 2013-09-20 | 2018-10-15 | Vid Scale Inc | Video Codes and Methods to Provide 3D Lookup Table Encoding for Color Game Scalability |
WO2015165030A1 (en) * | 2014-04-29 | 2015-11-05 | Microsoft Technology Licensing, Llc | Encoder-side decisions for sample adaptive offset filtering |
AU2014202921B2 (en) | 2014-05-29 | 2017-02-02 | Canon Kabushiki Kaisha | Method, apparatus and system for de-blocking a block of video samples |
WO2015194669A1 (ja) | 2014-06-19 | 2015-12-23 | シャープ株式会社 | 画像復号装置、画像符号化装置および予測画像生成装置 |
KR20170078682A (ko) * | 2014-11-04 | 2017-07-07 | 삼성전자주식회사 | 에지 타입의 오프셋을 적용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
KR101908249B1 (ko) | 2014-11-18 | 2018-10-15 | 미디어텍 인크. | 단방향 예측 및 병합 후보로부터의 모션 벡터에 기초한 양방향 예측 비디오 코딩 방법 |
US10158836B2 (en) * | 2015-01-30 | 2018-12-18 | Qualcomm Incorporated | Clipping for cross-component prediction and adaptive color transform for video coding |
US10057574B2 (en) * | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
EP3310055A4 (en) | 2015-06-09 | 2018-06-20 | Huawei Technologies Co. Ltd. | Image encoding/decoding method and apparatus |
CA2988107A1 (en) * | 2015-06-19 | 2016-12-22 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
US20190158870A1 (en) | 2016-01-07 | 2019-05-23 | Mediatek Inc. | Method and apparatus for affine merge mode prediction for video coding system |
CN108541375B (zh) | 2016-02-03 | 2022-04-12 | 夏普株式会社 | 运动图像解码装置、运动图像编码装置、以及预测图像生成装置 |
MY201069A (en) | 2016-02-05 | 2024-02-01 | Hfi Innovation Inc | Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding |
WO2017171107A1 (ko) | 2016-03-28 | 2017-10-05 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
KR20190015216A (ko) * | 2016-05-05 | 2019-02-13 | 브이아이디 스케일, 인크. | 인트라 코딩을 위한 제어 포인트 기반의 인트라 방향 표현 |
JP2019519148A (ja) * | 2016-05-13 | 2019-07-04 | ヴィド スケール インコーポレイテッド | ビデオ符号化のための一般化された多重仮説予測(Generalized Multi−Hypothesis Prediction)のためのシステムおよび方法 |
WO2017194312A2 (en) * | 2016-05-13 | 2017-11-16 | Thomson Licensing | Method and apparatus for video coding with adaptive clipping |
US10560712B2 (en) | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
WO2018048265A1 (ko) | 2016-09-11 | 2018-03-15 | 엘지전자 주식회사 | 향상된 옵티컬 플로우 움직임 백터를 이용하여 비디오 신호를 처리하는 방법 및 장치 |
JP7026049B2 (ja) | 2016-09-27 | 2022-02-25 | シャープ株式会社 | アフィン動きベクトル導出装置、予測画像生成装置、動画像復号装置、および動画像符号化装置 |
US10631002B2 (en) | 2016-09-30 | 2020-04-21 | Qualcomm Incorporated | Frame rate up-conversion coding mode |
US10341659B2 (en) | 2016-10-05 | 2019-07-02 | Qualcomm Incorporated | Systems and methods of switching interpolation filters |
US10448010B2 (en) | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
WO2018105579A1 (ja) * | 2016-12-09 | 2018-06-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
EP4258657A1 (en) * | 2017-01-04 | 2023-10-11 | Samsung Electronics Co., Ltd. | Video decoding method and apparatus and video encoding method and apparatus |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US10701366B2 (en) | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) * | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US10701390B2 (en) | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
EP3586513A4 (en) * | 2017-03-16 | 2020-12-09 | MediaTek Inc | METHOD AND APPARATUS FOR REFINING MOTION BASED ON A BIDIRECTIONAL OPTICAL FLOW FOR VIDEO CODING |
US10491917B2 (en) | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
WO2018199468A1 (ko) | 2017-04-24 | 2018-11-01 | 에스케이텔레콤 주식회사 | 움직임 보상을 위한 옵티컬 플로우 추정 방법 및 장치 |
US10805630B2 (en) | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
JP6765520B2 (ja) * | 2017-05-19 | 2020-10-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 符号化装置、復号装置、符号化方法及び復号方法 |
CN107277316B (zh) | 2017-06-12 | 2020-05-12 | 京东方科技集团股份有限公司 | 显示装置及其制造方法 |
US10904565B2 (en) | 2017-06-23 | 2021-01-26 | Qualcomm Incorporated | Memory-bandwidth-efficient design for bi-directional optical flow (BIO) |
US10477237B2 (en) * | 2017-06-28 | 2019-11-12 | Futurewei Technologies, Inc. | Decoder side motion vector refinement in video coding |
CN117478884A (zh) * | 2017-07-03 | 2024-01-30 | Vid拓展公司 | 用于视频编解码的设备、方法 |
US10757442B2 (en) | 2017-07-05 | 2020-08-25 | Qualcomm Incorporated | Partial reconstruction based template matching for motion vector derivation |
US11505446B2 (en) * | 2017-08-24 | 2022-11-22 | Ford Global Technologies, Llc | Enhanced vehicle refueling |
US10609384B2 (en) | 2017-09-21 | 2020-03-31 | Futurewei Technologies, Inc. | Restriction on sub-block size derivation for affine inter prediction |
EP3682639A1 (en) | 2017-10-02 | 2020-07-22 | ARRIS Enterprises LLC | System and method for reducing blocking artifacts and providing improved coding efficiency |
US10757417B2 (en) | 2018-01-20 | 2020-08-25 | Qualcomm Incorporated | Affine motion compensation in video coding |
GB2588004B (en) * | 2018-06-05 | 2023-03-01 | Beijing Bytedance Network Tech Co Ltd | Interaction between IBC and affine |
US11303923B2 (en) | 2018-06-15 | 2022-04-12 | Intel Corporation | Affine motion compensation for current picture referencing |
TWI746994B (zh) | 2018-06-19 | 2021-11-21 | 大陸商北京字節跳動網絡技術有限公司 | 用於不同參考列表的不同精確度 |
CN110809165B (zh) * | 2018-08-04 | 2022-07-26 | 北京字节跳动网络技术有限公司 | 仿射的运动矢量差精度 |
EP4325859A3 (en) | 2018-09-19 | 2024-05-15 | Beijing Bytedance Network Technology Co., Ltd. | Syntax reuse for affine mode with adaptive motion vector resolution |
EP3834418A1 (en) | 2018-09-23 | 2021-06-16 | Beijing Bytedance Network Technology Co. Ltd. | Modification of motion vector with adaptive motion vector resolution |
CN111010569B (zh) * | 2018-10-06 | 2023-02-28 | 北京字节跳动网络技术有限公司 | Bio中的时间梯度计算的改善 |
CN111357294B (zh) | 2018-10-23 | 2022-12-30 | 北京字节跳动网络技术有限公司 | 基于子块的运动信息列表的简化熵编解码 |
WO2020093999A1 (en) | 2018-11-05 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Inter prediction with refinement in video processing |
CN113170171B (zh) * | 2018-11-20 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 组合帧间帧内预测模式的预测细化 |
MX2021006014A (es) * | 2018-11-26 | 2021-08-24 | Fraunhofer Ges Forschung | Concepto de interprediccion que utiliza restricciones de independencia de mosaicos. |
GB2580173B (en) * | 2018-12-21 | 2022-07-27 | Canon Kk | A filter |
CN113491114A (zh) | 2019-02-20 | 2021-10-08 | 北京达佳互联信息技术有限公司 | 用于帧间预测的运动向量舍入、截取和存储的方法和装置 |
US20200296405A1 (en) | 2019-03-14 | 2020-09-17 | Qualcomm Incorporated | Affine motion compensation refinement using optical flow |
CN113632484A (zh) * | 2019-03-15 | 2021-11-09 | 北京达佳互联信息技术有限公司 | 用于双向光流的比特宽度控制的方法和设备 |
WO2020191034A1 (en) * | 2019-03-18 | 2020-09-24 | Tencent America LLC | Method and apparatus for video coding |
US11343525B2 (en) | 2019-03-19 | 2022-05-24 | Tencent America LLC | Method and apparatus for video coding by constraining sub-block motion vectors and determining adjustment values based on constrained sub-block motion vectors |
US11962796B2 (en) * | 2019-04-01 | 2024-04-16 | Qualcomm Incorporated | Gradient-based prediction refinement for video coding |
KR102609947B1 (ko) * | 2019-04-02 | 2023-12-04 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 양방향 광학 흐름 기반 비디오 코딩 및 디코딩 |
WO2020211864A1 (en) | 2019-04-19 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Region based gradient calculation in different motion vector refinements |
CN113711608B (zh) * | 2019-04-19 | 2023-09-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程的适用性 |
CN113711609B (zh) | 2019-04-19 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程中的增量运动矢量 |
WO2021061400A1 (en) * | 2019-09-23 | 2021-04-01 | Alibaba Group Holding Limited | Methods and apparatuses for prediction refinement with optical flow in reference picture resampling |
-
2020
- 2020-04-02 KR KR1020217030716A patent/KR102609947B1/ko active IP Right Grant
- 2020-04-02 JP JP2021557133A patent/JP7239732B2/ja active Active
- 2020-04-02 EP EP20782029.1A patent/EP3928521A4/en active Pending
- 2020-04-02 WO PCT/CN2020/082976 patent/WO2020200277A1/en active Application Filing
- 2020-04-02 CN CN202080026399.4A patent/CN113661708B/zh active Active
- 2020-04-02 KR KR1020237041404A patent/KR20230165888A/ko active Application Filing
- 2020-04-02 CN CN202080026270.3A patent/CN113728651B/zh active Active
- 2020-04-02 CN CN202311511842.9A patent/CN117319681A/zh active Pending
- 2020-04-02 WO PCT/CN2020/082941 patent/WO2020200270A1/en unknown
-
2021
- 2021-08-18 US US17/405,374 patent/US11516497B2/en active Active
-
2022
- 2022-06-13 US US17/838,498 patent/US11997303B2/en active Active
-
2023
- 2023-03-02 JP JP2023031928A patent/JP7425241B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107925773A (zh) * | 2015-06-11 | 2018-04-17 | 英迪股份有限公司 | 使用自适应去块滤波编码和解码图像的方法及其装置 |
CN107925772A (zh) * | 2015-09-25 | 2018-04-17 | 华为技术有限公司 | 利用可选插值滤波器进行视频运动补偿的装置和方法 |
CN109076237A (zh) * | 2015-11-18 | 2018-12-21 | 联发科技股份有限公司 | 在视频和图像压缩中使用帧内预测滤波器的帧内预测模式的方法和装置 |
CN108293118A (zh) * | 2015-11-24 | 2018-07-17 | 三星电子株式会社 | 视频解码方法和装置以及视频编码方法和装置 |
WO2017142939A1 (en) * | 2016-02-15 | 2017-08-24 | Qualcomm Incorporated | Geometric transforms for filters for video coding |
WO2017184970A1 (en) * | 2016-04-22 | 2017-10-26 | Vid Scale, Inc. | Prediction systems and methods for video coding based on filtering nearest neighboring pixels |
CN109479130A (zh) * | 2016-08-02 | 2019-03-15 | 高通股份有限公司 | 基于几何变换的自适应环路滤波 |
Non-Patent Citations (1)
Title |
---|
JONATHAN TAQUET ET AL.: "Non-Linear Adaptive Loop Filter", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023125834A1 (en) * | 2021-12-30 | 2023-07-06 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Also Published As
Publication number | Publication date |
---|---|
CN113728651B (zh) | 2022-10-25 |
US20210385482A1 (en) | 2021-12-09 |
KR102609947B1 (ko) | 2023-12-04 |
JP2022528062A (ja) | 2022-06-08 |
JP7425241B2 (ja) | 2024-01-30 |
JP2023075210A (ja) | 2023-05-30 |
JP7239732B2 (ja) | 2023-03-14 |
US11997303B2 (en) | 2024-05-28 |
KR20210141523A (ko) | 2021-11-23 |
CN113661708B (zh) | 2023-12-15 |
WO2020200270A1 (en) | 2020-10-08 |
US11516497B2 (en) | 2022-11-29 |
EP3928521A1 (en) | 2021-12-29 |
KR20230165888A (ko) | 2023-12-05 |
CN117319681A (zh) | 2023-12-29 |
EP3928521A4 (en) | 2022-08-17 |
CN113661708A (zh) | 2021-11-16 |
US20220329842A1 (en) | 2022-10-13 |
WO2020200277A1 (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113728651B (zh) | 视频处理中的自适应环路滤波 | |
CN113632490B (zh) | 视频处理中的非线性自适应环路滤波 | |
CN113767632B (zh) | 用于视频编解码的自适应环路滤波 | |
CN114339221A (zh) | 用于视频编解码的基于卷积神经网络的滤波器 | |
JPWO2020192644A5 (zh) | ||
CN113632480B (zh) | 自适应环路滤波与其他编解码工具之间的交互 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |