CN112291571B - 视频解码方法及装置以及计算机设备和存储介质 - Google Patents
视频解码方法及装置以及计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112291571B CN112291571B CN202010709619.5A CN202010709619A CN112291571B CN 112291571 B CN112291571 B CN 112291571B CN 202010709619 A CN202010709619 A CN 202010709619A CN 112291571 B CN112291571 B CN 112291571B
- Authority
- CN
- China
- Prior art keywords
- block
- prediction
- sub
- correction
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 138
- 238000003860 storage Methods 0.000 title abstract description 23
- 238000012937 correction Methods 0.000 claims abstract description 116
- 230000003287 optical effect Effects 0.000 claims abstract description 75
- 230000033001 locomotion Effects 0.000 claims description 191
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 136
- 239000013598 vector Substances 0.000 claims description 91
- 230000015654 memory Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 37
- 238000012545 processing Methods 0.000 description 28
- 230000006835 compression Effects 0.000 description 27
- 238000007906 compression Methods 0.000 description 27
- 230000002123 temporal effect Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 25
- 241000023320 Luma <angiosperm> Species 0.000 description 19
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 19
- 239000000872 buffer Substances 0.000 description 16
- 238000009795 derivation Methods 0.000 description 14
- 238000001914 filtration Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 9
- 230000009466 transformation Effects 0.000 description 9
- 238000005192 partition Methods 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 101150114515 CTBS gene Proteins 0.000 description 1
- 241000985610 Forpus Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本申请实施例提供了视频解码方法和装置,以及计算机设备和存储介质。该方法包括:从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示使用第一光流修正编解码工具的预测模式,所述第一光流修正编解码工具使用在光流修正的操作期间由至少第二光流修正编解码工具额外地使用的网格结构;使用所述第一光流修正编解码工具,基于所述网格结构计算对所述当前块的样本的预测的修正;以及基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
Description
引用并入
本申请要求于2019年7月23日提交的第62/877,718号美国临时申请以及于2020年7月20日提交的第16/932,937号美国正式申请的优先权,其全部内容通过引用并入本文中。
技术领域
本申请涉及视频编解码的技术领域。具体地,本申请提供了视频解码方法及装置、以及计算机设备和存储介质。
背景技术
本文所提供的背景描述旨在陈述本申请的研究范围。就本背景部分所述,以及在提交申请时可能不符合现有技术条件所述的各个方面,当前已署名的发明人的工作,既不明确也不隐含地承认为本申请的现有技术。
带有运动补偿的帧间图片预测可被用于视频编码和解码。未压缩的数字视频可以包括一连串的图片,每个图片具有例如1920×1080个亮度样本和相关联的色度样本的空间维度。该一连串的图片可以具有固定的或可变的图片速率(非正式地也被称为帧速率),例如每秒60个图片或60Hz。未压缩的视频具有显著的比特率需求。例如,每样本8比特的1080p60 4:2:0视频(在60Hz帧速率的1920×1080亮度样本分辨率)需要接近于1.5Gbit/s带宽。一小时这样的视频需要超过600千兆的存储空间。
视频编码和解码的一个目的可以是通过压缩减少输入视频信号中的冗余。压缩能够帮助降低上述的带宽或存储空间需求,在某些情况下减少两个数量级或更多。无损压缩和有损压缩,以及这两者的组合都可被采用。无损压缩指的是可从压缩的原始信号重构原始信号的精确副本的技术。当使用有损压缩时,重构的信号可能与原始信号不相同,但是原始信号和重构的信号之间的失真足够小以使重构的信号可用于预定应用。在视频中广泛地采用有损压缩。可被容忍的失真量取决于应用;例如,与电视发行应用的用户相比,某些消费者流媒体应用的用户可以容忍较高的失真。可实现的压缩比可反映出较高容许的/可容忍的失真能够产生较高的压缩比。
运动补偿可以是有损压缩技术并且可以涉及如下技术,其中来自先前重建的图片或该图片(参考图片)的一部分的样本数据的块在运动矢量(以下称为MV)所指示的方向上被空间移位之后,用于预测最近重建的图片或图片的一部分。在一些情况下,参考图片可以与当前正在重建的图片相同。MV可以具有二个维度X和Y,或三个维度,第三个维度是使用中的参考图片的指示(间接地,后者可以是时间维度)。
在一些视频压缩技术中,可以从其它MV(例如与重建区域空间相邻的样本数据的另一个区域有关的、并且按解码顺序在可适用于样本数据的某区域的MV之前的那些MV)预测可适用于样本数据的某区域的MV。这样做可以大幅减少编码MV所需要的数据量,从而去除冗余并且提高压缩。MV预测可以有效地工作,例如因为当对来源于照相机的输入视频信号(被称为自然视频)进行编码时,存在与单个MV可适用的区域相比更大的区域在类似的方向上移动的统计可能性,并且因此在某些情况下可使用来源于邻近区域的MV的类似的运动矢量来预测。这导致对于给定区域发现的MV将与从周围MV预测的MV类似或相同,并且反过来在熵编码之后,可以与对MV直接进行编码所使用的比特数量相比更小数量的比特来表示。在一些情况下,MV预测可以是从原始信号(即:样本流)推导出的信号(即:MV)的无损压缩的示例。在其它情况下,例如由于从若干周围MV计算预测值时的舍入误差,MV预测本身可能是有损的。
在当前的VVC工作草案中,BDOF和PROF使用不同的过程来计算梯度、MV差和修正,使得视频编解码的架构和硬件实施复杂化。而且,在当前的VVC工作草案中,当对块使用仿射预测时,可以在仿射子块的边缘应用解块滤波器。当应用仿射PROF时,在修正过程之后,可能不需要在重建的仿射子块边缘上应用解块滤波器。此外,使用基于子块的帧间预测或应用仿射PROF时,子块变换(SBT)可能无济于事。上述这些情况降低了视频解码的效率。
发明内容
本申请实施例提供了一种视频解码方法,包括:
从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示使用第一光流修正编解码工具的预测模式,所述第一光流修正编解码工具使用在光流修正的操作期间由至少第二光流修正编解码工具额外地使用的网格结构;
使用所述第一光流修正编解码工具,基于所述网格结构计算对所述当前块的样本的预测的修正;以及
基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
本申请实施例提供了一种视频解码装置,包括:
解码模块,用于从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示使用第一光流修正编解码工具的预测模式,所述第一光流修正编解码工具使用在光流修正的操作期间由至少第二光流修正编解码工具额外地使用的网格结构;
计算模块,用于使用所述第一光流修正编解码工具,基于所述网格结构计算对所述当前块的样本的预测的修正;和
重建模块,用于基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
本申请实施例提供了一种计算机设备,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现本申请任一实施例所述的方法。
本申请实施例提供了一种存储指令的非暂时性计算机可读介质,所述指令当由计算机执行以用于视频解码时,使得所述计算机执行本申请任一实施例所述的方法。
根据本申请的实施例,对于BDOF和PROF,可以使用统一的方法来计算梯度、MV差和修正。因此,可以简化编码器和解码器的体系结构和硬件实现。此外,当应用仿射PROF时,运动矢量修正可实现像素级运动矢量调整。因此,在修正过程之后,在重建的仿射子块边缘上的解块滤波器不是必需的,且可被跳过。因此,本申请实施例提供的技术方案提高了视频解码的效率。
附图说明
根据以下详细描述和附图,所公开的主题的另外的特征、性质和各种优点将更显而易见,在附图中:
图1是一个示例中的当前块及其周围的空间合并候选的示意图。
图2是根据实施例的通信系统的简化框图的示意图。
图3是根据另一实施例的通信系统的简化框图的示意图。
图4是根据实施例的解码器的简化框图的示意图。
图5是根据实施例的编码器的简化框图的示意图。
图6示出了根据另一实施例的编码器的框图。
图7示出了根据另一实施例的解码器的框图。
图8示出了图示一些实施例的冗余校验对的图。
图9示出了时间候选推导的示例。
图10示出了用于图示时间候选的位置的示例。
图11A示出了由两个控制点(4参数仿射模型)的运动信息描述的块的仿射运动场。
图11B示出了由三个控制点(6参数仿射模型)描述的块的仿射运动场。
图12示出了每一子块的仿射运动矢量场的示例。
图13示出了仿射合并模式的示例。
图14示出了根据本申请的一些实施例的空间邻居和时间邻居的示例。
图15和图16示出了根据本申请的一些实施例的基于子块的时间运动矢量预测过程的示例。
图17示出了根据本申请的实施例的利用光流的预测修正的示例的示意图。
图18示出了用于图示一些示例中的双向光流的图。
图19A至图19D示出了图示子块变换的子块类型的图。
图20示出了根据本申请的实施例的用于确定解块滤波强度值的示例性方法的流程图。
图21示出了根据本申请的一些实施例的用于导出滤波强度的样本位置的示例。
图22示出了概述根据本申请的一些实施例的方法示例的流程图。
图23是根据实施例的计算机系统的示意图。
具体实施方式
H.265/HEVC(ITU-T H.265建议书,“高效视频编解码(High Efficiency VideoCoding)”,2016年12月)中描述了各种MV预测机制。在H.265提供的多种MV预测机制中,本申请描述的是下文称作“空间合并”的技术。
请参考图1,当前块(101)包括在运动搜索过程期间已由编码器发现的样本,根据已产生空间偏移的相同大小的先前块,可预测所述样本。另外,可从一个或多个参考图片相关联的元数据中导出所述MV,而非对MV直接编码。例如,使用关联于A0、A1和B0、B1、B2(分别对应102到106)五个周围样本中的任一样本的MV,(按解码次序)从最近的参考图片的元数据中导出所述MV。在H.265中,MV预测可使用相邻块也正在使用的相同参考图片的预测值。
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的第一终端装置(210)和第二终端装置(220)。在图2的实施例中,第一终端装置(210)和第二终端装置(220)执行单向数据传输。举例来说,第一终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到第二端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。第二终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第三终端装置(230)和第四终端装置(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,第三终端装置(230)和第四终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码,以通过网络(250)传输到第三终端装置(230)和第四终端装置(240)中的另一终端装置。第三终端装置(230)和第四终端装置(240)中的每个终端装置还可接收由第三终端装置(230)和第四终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本申请的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从时域或空间域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
本申请的各实施例提供了可用于帧间预测修正、解块过程和子块变换的领域中的技术。
在各种实施例中,对于帧间预测CU,运动参数(包括运动矢量、参考图片索引、参考图片列表使用索引和/或其它附加信息)可被用于帧间预测样本生成。帧间预测可以包括单向预测、双向预测等。在单向预测中,可以使用参考图片列表(例如,第一参考图片列表或列表0(L0),或者第二参考图片列表或列表1(L1))。在双向预测中,可以使用L0和L1两者。参考图片列表使用索引可以指示参考图片列表包括L0、L1,或L0和L1。
可以以显式方式或隐式方式发信号通知运动参数。当利用跳过模式对CU进行编码时,CU可以与一个PU相关联,并且可以不包括有效残差系数(例如,残差系数为零),不包括已编码运动矢量差(MVD)或不包括参考图片索引。
可以使用合并模式,在合并模式中可以从相邻CU获得当前CU的运动参数,运动参数包括空间合并候选和时间合并候选,以及可选的其它合并候选。合并模式可被应用于帧间预测的CU,且可被用于跳过模式。可替代地,可以显式地发送或发信号通知运动参数。例如,每个CU可以明确地发信号通知运动矢量、每个参考图片列表的对应参考图片索引、参考图片列表使用标志和其它信息。
在一些实施例中,使用以下帧间预测编解码工具中的一个或多个:(1)扩展合并预测,(2)具有运动矢量差的合并模式(MMVD),(3)具有对称MVD信令的高级运动矢量预测(AMVP)模式,(4)仿射运动补偿预测,(5)基于子块的时间运动矢量预测(SbTMVP),(6)自适应运动矢量分辨率(AMVR),(7)运动场存储:1/16亮度样本MV存储和8×8运动场压缩,(8)具有加权平均的双向预测(BWA),(9)双向光流(BDOF),(10)解码器侧运动矢量修正(DMVR),(11)三角形分区预测,以及(12)组合的帧间和帧内预测(CIIP)。
在一些示例中,可以使用扩展合并预测。具体地,在一些示例(例如,VTM4)中,通过按以下顺序包括五种类型的候选来构造合并候选列表:(1)来自空间相邻CU的空间运动矢量预测(MVP);(2)来自位置相同CU的时间MVP;(3)来自先进先出(FIFO)表的基于历史的MVP;(4)成对平均MVP;以及(5)零MV。在一些实施例中,在合并候选列表构造中使用的技术包括空间候选推导、时间候选推导、基于历史的合并候选推导和成对平均合并候选推导。
在示例中,在条带头中用信号通知合并列表的大小,且在一些示例(例如,VTM4)中合并列表的最大允许大小为6。对于以合并模式编码的每个CU,可以使用截断一元二进制化(TU)对最佳合并候选的索引进行编码。用上下文编码来编码合并索引的第一二进制编码,并且旁路编码可被用于其它二进制编码。
对于空间候选推导,根据本申请的实施例,VVC中的空间合并候选的推导类似于HEVC中的空间合并候选的推导。例如,在位于图1中所示的位置A0-A1和B0-B2中的候选中选择最多四个合并候选。推导的顺序可以是A1、B1、B0、A0和B2。只有当位置A1、B1、B0、A0中的任一CU不可用(例如,属于另一条带或图块)或者被帧内编码时,才考虑位置B2。在添加位置A1处的候选之后,可以对其余候选的添加进行冗余校验,冗余校验确保具有相同运动信息的候选被排除在列表之外,从而提高编解码效率。为了降低计算复杂度,在上述冗余校验中不考虑所有可能的候选对。
图8示出了图示一些实施例的冗余校验对的图。在实施例中,在冗余校验中仅考虑图8中的用箭头链接的对,并且仅当用于冗余校验的对应候选不具有相同的运动信息时,才将候选添加到列表。
对于时间候选推导,根据本申请的实施例,仅将一个候选添加到列表。具体地,在时间合并候选推导中,基于属于位置相同的参考图片的位置相同的CU来导出缩放的运动矢量。在条带头中明确地用信号通知将被用于推导位置相同的CU的参考图片列表。
图9示出了时间候选推导的示例。具体地,图9示出了图片序列,该图片序列包括具有当前CU的当前图片、具有当前CU的位置相同的CU的位置相同的图片、当前图片的参考图片和位置相同的图片的参考图片。在示例中,当前图片的参考图片与当前图片之间的图片次序计数(POC)距离(例如,POC的差)被表示为tb,且位置相同的图片的参考图片与位置相同的图片之间的POC距离被表示为td。图9中的(910)示出了时间合并候选的缩放的运动矢量,其使用POC距离tb和td(例如,tb与td的比率)根据位置相同的CU的运动矢量(920)来缩放。在示例中,将时间合并候选的参考图片索引设置为等于零。
图10示出了用于图示在候选C0与C1之间选择的时间候选的位置的示例。当位置C0处的CU不可用、或被帧内编码、或在CTU的当前行之外时,则可以使用位置C1。否则,在时间合并候选的导出中使用位置C0。
对于仿射运动补偿预测,在HEVC中,仅将平移运动模型应用于运动补偿预测(MCP)。在现实世界中,存在许多种运动(例如,放大/缩小运动、旋转运动、透视运动和其它不规则运动)。在一些示例(例如,VTM4)中,应用基于块的仿射变换运动补偿预测。
图11A示出了由两个控制点(4参数仿射模型)的运动信息描述的块的仿射运动场,且图11B示出了由三个控制点(6参数仿射模型)描述的块的仿射运动场。
在一些实施例中,对于4参数仿射运动模型,块中的样本位置(x,y)处的运动矢量可被导出为(等式1),且对于6参数仿射运动模型,在块中的样本位置(x,y)处的运动矢量可被导出为(等式2):
其中,(mv0x,mv0y)表示左上角控制点CP0的运动矢量,(mv1x,mv1y)表示右上角控制点CP1的运动矢量,并且(mv2x,mv2y)是左下角控制点CP2的运动矢量。
为了简化运动补偿预测,应用基于块的仿射变换预测。
图12示出了每个子块的仿射MV场的示例。当前CU被分成4×4亮度子块。为了导出每个4×4亮度子块的运动矢量,如图12所示,每个子块的中心样本的运动矢量根据上述等式被计算,并且被四舍五入到例如1/16分数精度。然后,运动补偿内插滤波器被应用以生成具有导出的运动矢量的每个子块的预测。色度分量的子块大小也可以被设置为4×4。在示例中,4×4色度子块的MV被计算为四个对应的4×4亮度子块的MV的平均值。
可使用两种仿射运动帧间预测模式,诸如仿射合并(AF_MERGE)模式和仿射高级MVP(仿射AMVP)模式。
对于仿射合并预测,在示例中,AF_MERGE模式可应用于宽度和高度两者都大于或等于8的CU。在AF_MERGE模式中,基于空间相邻CU的运动信息来生成当前CU的控制点运动矢量CPMV。在示例中,可存在多达五个控制点运动矢量预测器(CPMVP)候选,且发信号通知索引以指示将被用于当前CU的那个CPMVP候选。在示例中,使用三种类型的CPMV候选来形成仿射合并候选列表。第一种类型的CPMV候选是从相邻CU的CPMV推知的继承的仿射合并候选。第二种类型的CPMV候选是使用相邻CU的平移MV导出的构造的仿射合并候选CPMVP。第三种类型的CPMV候选是零MV。
在一些示例中,例如在VTM3中,可使用最多两个继承的仿射候选。在示例中,从相邻块的仿射运动模型导出两个继承的仿射候选,一个来自左相邻CU(称为左预测器),一个来自上相邻CU(称为上预测器)。使用图1所示的相邻块作为示例,对于左预测器,扫描顺序是A0->A1;对于上预测器,扫描顺序是B0->B1->B2。在示例中,可以仅选择来自每一侧的第一个继承的候选。在一些示例中,在两个继承的候选之间不执行修剪检查。当识别出相邻的仿射CU时,所述相邻的仿射CU的控制点运动矢量被用于导出当前CU的仿射合并列表中的CPMVP候选。
图13示出了仿射合并模式的示例。如图13所示,当以仿射模式对相邻的左下块A进编码时,得到包含块A的CU的左上角、右上角和左下角的运动矢量mv2、mv3和mv4。当用4参数仿射模型对块A进行编码时,可以根据mv2和mv3来计算当前CU的两个CPMV。当用6参数仿射模型对块A进行编码时,可以根据mv2、mv3和mv4来计算当前CU的三个CPMV。
在一些示例中,构造的仿射候选是通过组合每个控制点的相邻平移运动信息来构造的。控制点的运动信息可以从指定的空间邻居和时间邻居导出。
图14示出了根据本申请的一些实施例的空间邻居(例如,A0至A2和B0至B3)和时间邻居(例如,T)的示例。在示例中,CPMVk(k=1,2,3,4)表示第k个控制点。对于CPMV1,检查B2->B3->A2块(->用于检查顺序),并且使用第一可用块的MV。对于CPMV2,检查B1->B0块,并且对于CPMV3,检查A1->A0块。对于TMVP,检查T,并且如果块T的MV可用,则将T用作CPMV4。
在获得四个控制点的MV之后,基于该运动信息构造仿射合并候选。以下控制点MV的组合用于按顺序构造:{CPMV1,CPMV2,CPMV3}、{CPMV1,CPMV2,CPMV4}、{CPMV1,CPMV3,CPMV4}、{CPMV2,CPMV3,CPMV4}、{CPMV1,CPMV2}、{CPMV1,CPMV3}。
3个CPMV的组合可以构造6参数仿射合并候选,并且2个CPMV的组合可以构造4参数仿射合并候选。在示例中,为了避免运动缩放过程,当控制点的参考索引不同时,可以丢弃控制点MV的相关组合。
在示例中,在检查继承的仿射合并候选和构造的仿射合并候选之后,如果候选列表仍然未满,则将零MV插入到列表的末尾。
对于仿射AMVP预测,仿射AMVP模式可被应用于宽度和高度两者都大于或等于16的CU。在一些示例中,在码流(例如,已编码视频码流)中发信号通知CU级的仿射标志,以指示仿射AMVP模式是否被用于CU中,且然后发信号通知另一标志,以指示4参数仿射或6参数仿射是否被使用。在仿射AMVP模式中,可以在码流中发信号通知当前CU的CPMV与当前CU的CPMV的预测器CPMVP的差。仿射AVMP候选列表大小可以是2,并且仿射AVMP候选列表通过使用以下四种类型的CPVM候选来按顺序生成:(1)从相邻CU的CPMV推断的继承的仿射AMVP候选;(2)使用相邻CU的平移MV推导的构造的仿射AMVP候选;(3)来自相邻CU的平移MV;以及(4)零MV。
在一些示例中,继承的仿射AMVP候选的检查顺序与继承的仿射合并候选的检查顺序相同。在示例中,仿射合并预测与仿射AMVP预测之间的差别仅在于,对于AVMP候选,仅考虑具有与当前块相同的参考图片的仿射CU。在示例中,当将继承的仿射运动预测器插入到候选列表中时,不应用修剪过程。
在一些示例中,构造的AMVP候选可从图14所示的指定空间邻居导出。在示例中,使用与仿射合并预测的候选构造中所执行的相同检查顺序。此外,还检查相邻块的参考图片索引。可以使用检查顺序中的第一块,该第一块是帧间编码的并且具有与当前CU中相同的参考图片。当用4参数仿射模式对当前CU进行编码、且两个控制点mv0和mv1的运动矢量均可用时,将所述两个控制点的运动矢量作为一个候选添加到仿射AMVP列表中。当用6参数仿射模式对当前CU进行编码、且控制点CPMV的三个运动矢量全部可用时,可将控制点CPMV的三个运动矢量作为一个候选添加到仿射AMVP列表中。否则,将构造的AMVP候选设置为不可用。
如果在检查了继承的仿射AMVP候选和构造的仿射AMVP候选之后,仿射AMVP列表候选的数目仍然小于2,则可以按顺序将mv0、mv1和mv2作为平移MV添加以预测当前CU的所有控制点MV(如果可用的话)。最后,如果仿射AMVP列表仍然未满,使用零MV来填充仿射AMVP候选列表。
在一些示例中,可以在VTM中使用基于子块的时间运动矢量预测(SbTMVP)。类似于HEVC中的时间运动矢量预测(TMVP),SbTMVP使用位置相同的图片中的运动场以改进当前图片中的CU的运动矢量预测和合并模式。在一些示例中,TMVP所使用的位置相同的图片被用于SbTVMP。SbTMVP在两个方面不同于TMVP。在第一方面中,TMVP预测CU级处的运动,而SbTMVP预测子CU级处的运动。在第二方面中,TMVP从位置相同的图片中的位置相同的块(该位置相同的块是相对于当前CU的右下块或中心块)提取时间运动矢量。在从位置相同的图片提取时间运动信息之前,SbTMVP应用运动偏移。从来自当前CU的空间相邻块之一的运动矢量获得运动偏移。
图15至图16示出了根据本申请的一些实施例的SbTVMP过程的示例。SbtMVP分两个步骤预测当前CU内的子CU的运动矢量。在第一步骤中,按照A1、B1、B0和A0的顺序检查图15中所示的空间邻居,以识别第一空间相邻块,第一空间相邻块具有使用位置相同的图片作为其参考图片的运动矢量。然后,将使用所收集的图片作为其参考图片的运动矢量选择为要应用的运动偏移。如果没有从空间邻居A1、B1、B0和A0识别出这种运动,则可以将运动偏移设置为(0,0)。
在第二步骤中,应用在第一步骤中识别的运动偏移(即,将其添加到当前块的坐标中),以从如图16所示的位置相同的图片中获得子CU级运动信息(运动矢量和参考索引)。在图16的示例中,将A1的运动矢量设置为运动偏移(1610)。然后,对于每个子CU,在位置相同的图片中的对应块(覆盖中心样本的最小运动网格)的运动信息被用于导出子CU的运动信息。在识别了位置相同的子CU的运动信息之后,以与HEVC的TMVP过程类似的方式将其转换为当前子CU的运动矢量和参考索引。例如,应用时间运动缩放来将时间运动矢量的参考图片与当前CU的参考图片对准。
在一些示例中,例如在VTM3中,组合的基于子块的合并列表(包括SbTVMP候选和仿射合并候选两者)被用于用信号通知基于子块的合并模式。SbTVMP模式可以由序列参数集(SPS)标志启用或禁用。当启用SbTMVP模式时,添加SbTMVP预测器作为组合的基于子块的合并列表的第一条目,并且其后是仿射合并候选。在VTM3中,基于子块的合并列表的最大允许大小是5。
在示例中,将SbTMVP中使用的子CU大小固定为8×8,并且如对于仿射合并模式所做的,SbTMVP模式仅适用于宽度和高度两者都大于或等于8的CU。
在一些实施例中,附加的SbTMVP合并候选的编码逻辑与其它合并候选的相同。在示例中,对于P条带或B条带中的每个CU,可以执行附加的率失真检查以确定是否使用SbTMVP候选。
在一些实施例中,可实施利用光流的预测修正(PROF)(也称为PROF方法)以改进基于子块的仿射运动补偿,从而具有更细的运动补偿粒度。在实施例中,在执行基于子块的仿射运动补偿之后,可将基于光流等式导出的差(或修正值、修正、预测修正)添加到预测样本(例如,亮度预测的样本或亮度预测样本),以获得修正的预测的样本。
图17示出了根据本申请的实施例的PROF方法的示例的示意图。可以将当前块(1710)分成四个子块(1712、1714、1716和1718)。每个子块(1712、1714、1716和1718)可以具有4×4像素或样本的大小。可以例如使用子块(1712)的中心位置和仿射运动模型(例如,4参数仿射运动模型、6参数仿射运动模型)、根据当前块1710的CPMV导出用于子块(1712)的子块MV(1720)。子块MV(1720)可以指向参考图片中的参考子块(1732)。可以根据参考子块(1732)来确定初始子块预测样本。
在一些示例中,如由子块MV(1720)所描述的从参考子块(1732)到子块(1712)的平移运动无法高精度预测子块(1712)。除了由子块MV(1720)所描述的平移运动之外,子块(1712)还可以经历非平移运动(例如,如图17中所见的旋转)。参考图17,具有阴影样本(例如,样本(1732a))的参考图片中的子块(1750)对应于并可用于重建子块(1712)中的样本。阴影样本(1732a)可以被像素MV(1740)移位,以高精度重建子块(1712)中的样本(1712a)。因此,在一些示例中,当发生非平移运动时,为了提高预测的准确性,可在仿射运动模型中应用适当的预测修正方法,如下文所描述的。
在示例中,使用以下四个步骤来实施PROF方法。在步骤(1)中,可执行基于子块的仿射运动补偿以生成用于当前子块(例如子块(1712))的预测,例如初始子块预测I(i,j),其中,i和j是对应于当前子块(1712)中的位置(i,j)处(也称为样本位置、样本定位)的样本的坐标。
在步骤(2)中,可以执行梯度计算,其中,可以使用例如3抽头滤波器[-1,0,1]根据如下所示等式3和等式4来计算每个样本位置(i,j)处的初始子块预测I(i,j)的空间梯度gx(i,j)和gy(i,j):
gx(i,j)=I(i+1,j)-I(i-1,j) (等式3)
gy(i,j)=I(i,j+1)-I(i,j-1) (等式4)
对于梯度计算,子块预测可以在每侧扩展一个像素。在一些实施例中,为了减小存储器带宽和复杂度,可以从参考图片(例如,包括子块(1732)的参考图片)中的最近的整数像素位置复制扩展的边界上的像素。因此,可避免用于填充区域的附加内插。
在步骤(3)中,可以通过如下所示的等式5(例如,光流等式)计算预测修正ΔI(i,j):
ΔI(i,j)=gx(i,j)×Δmvx(i,j)+gy(i,j)×Δmvy(i,j) (等式5)
其中,Δmv(i,j)(例如ΔMV(1742))是用于样本位置(i,j)的像素MV或样本MVmv(i,j)(例如,像素MV(1740))与样本位置(i,j)所在的子块(例如,子块(1712))的子块MVMvSB(例如,子块MV(1720))之间的差值MV。Δmv(i,j)也可称为在样本位置(i,j)处的样本或样本(i,j)的MV修正(MVR)。Δmv(i,j)可以使用如下所示的等式6确定:
Δmv(i,j)=mv(i,j)-mvSB (等式6)
Δmvx(i,j)和Δmvy(i,j)分别是差值MV Δmv(i,j)的x分量(例如,水平分量)和y分量(例如,垂直分量)。
由于仿射模型参数和相对于子块中心位置的像素位置从一个子块到另一个子块不改变,因此Δmv(i,j)可以针对第一子块(例如,子块(1712))计算,并且针对相同当前块(1710)中的其它子块(例如,子块(1714)、(1716)和(1718))被重复使用。在一些示例中,x和y表示样本位置(i,j)相对于子块(1712)的中心位置的水平偏移和垂直偏移,Δmv(i,j)(例如,包括Δmvx(i,j)和Δmvy(i,j))可以通过如下等
式7导出:
其中,Δmvx(x,y)是x分量Δmvx(i,j)且Δmvy(x,y)是y分量Δmvy(i,j)。
在示例中,对于4参数仿射运动模型,参数a至d由等式1描述。对于6参数仿射运动模型,参数a至d由等式2描述,如上文所述。
在步骤(4)中,可将预测修正ΔI(i,j)(例如,亮度预测修正)添加到初始子块预测I(i,j)以生成另一预测,例如修正的预测I′(i,j)。针对样本(i,j),可以使用如下所示的等式8生成修正的预测I′(i,j):
I′(i,j)=I(i,j)+ΔI(i,j) (等式8)
根据本申请的一些实施例,在帧间预测中使用被称为双向光流(BDOF)模式的运动修正技术。在一些示例中,BDOF也称为BIO。BDOF可被用于在4×4子块级上对CU的双向预测信号进行修正。当CU满足某些条件时,BDOF可以应用于CU。在示例中,这些条件包括:(i)CU的高度不是4,且CU的大小不是4×8,(ii)CU不是使用仿射模式或ATMVP合并模式编码的,(iii)CU是使用“真”双向预测模式编码的,例如,两个参考图片中的一个在显示顺序中位于当前图片之前,而另一个参考图片在显示顺序中位于当前图片之后。在一些示例中,BDOF仅应用于亮度分量。在示例中,这些条件包括:(i)CU是使用“真”双向预测模式编码的,例如,两个参考图片中的一个在显示顺序中位于当前图片之前,而另一个参考图片在显示顺序中位于当前图片之后,(ii)从两个参考图片到当前图片的距离(即,POC差)是相同的,(iii)两个参考图片是短期参考图片,(iv)CU是不使用仿射模式或ATMVP合并模式来编码的,(v)CU具有多于64个亮度样本,(vi)CU高度和CU宽度大于或等于8个亮度样本,(vii)BCW权重索引指示相等权重,(viii)不针对当前CU启用加权预测(WP),和(ix)不针对当前CU使用CIIP模式。
图18示出了用于在一些示例中图示BDOF的图。在实施例中,BDOF模式应用于亮度分量。BDOF模式中的运动修正基于光流概念,该光流概念假设对象的运动是平滑的。对于每个4×4子块(例如,图18中的CU(1810)中的子块(1820)),通过最小化L0预测样本和L1预测样本之间的差来计算运动修正(Δmvx,Δmvy)。然后,使用运动修正调整4×4子块(例如,子块(1820))中的双向预测样本值。在BDOF过程中应用以下步骤。
首先,通过直接计算两个相邻样本之间的差值来计算两个预测信号的水平梯度和垂直梯度和k=0,1,例如:
其中,I(k)(i,j)是列表k(k=0,1)中预测信号的坐标(i,j)处的样本值,并且基于亮度比特深度bitDepth计算参数shift1。在示例中,shift1=max(6,bitDepth-6)。在一些示例中,shift1等于2和(14-bitDepth)的最大值。在示例中,等式9中的计算可以适于等式10-11中的计算:
在示例中,如下计算梯度S1、S2、S3、S5和S6的自相关和互相关:
其中,
并且Ω是围绕4×4子块(例如,子块(1820))的6×6窗口(例如,(1840)),并且值na和nb被分别设置为等于min(5,bitDepth-7)和min(8,bitDepth-4)。
在示例中,使用等式14如下计算梯度S1、S2、S3、S5和S6的自相关和互相关:
其中,Ω是围绕4×4子块(例如,子块(1820))的6×6窗口(例如,(1840)),并且值na和nb被分别设置为等于min(1,bitDepth-11)和min(4,bitDepth-8)。
可以使用以下等式利用自相关和互相关来导出运动修正或MVR(Δmvx,Δmvy):
其中,是向下取整函数,并且在示例中,th′BIO=2max(5,BD-7)。在示例中,th′BIO=213-BD。
基于运动修正和梯度,可以为4×4子块中的每个样本计算以下调整量(或预测修正)b(x,y):
在示例中,上面的等式(17)中的计算可适用于以下等式18中的计算。
其中,函数“rnd”表示舍入运算。
可以通过如下调整双向预测样本来计算CU的BDOF样本:
predBDOF(x,y)=(I(0)(xy)+I(1)(x,y)+b(x,y)+ooffset)>>shift (等式19)
在实施例中,选择值使得BDOF过程中的乘数不超过15比特,并且BDOF过程中的中间参数的最大位宽保持在32比特以内。
在示例中,为了导出梯度值,将生成当前CU边界之外的列表k(k=0,1)中的预测样本I(k)(i,j)。参照图18,(例如,VVC中的)BDOF可以使用CU(1810)的边界周围的扩展行/列。为了控制生成边界外预测样本(例如,对样本的预测(1830)或预测样本(1830))的计算复杂度,可以通过直接在附近整数位置处取得参考样本(例如,使用对坐标的向下取整运算)而无需内插来生成扩展区域(图18中的图案区域)中的预测样本。在示例中,使用8抽头运动补偿内插滤波器(也称为8抽头内插滤波器)来生成CU(1810)(白色位置)内的预测样本。在图18所示的示例中,CU(1810)包括8×8样本。在示例中,扩展样本值仅用于梯度计算中。梯度计算可以使用等式9,或等式10至等式11,如上所述。
参照图18,对于BDOF过程中的其余的步骤(例如,等式12-14),如果使用CU边界外的预测样本和梯度值,则可以从对应的最近邻居填充(例如,重复地)CU边界外的预测样本和梯度值,如图18中的箭头所示。例如,(1830)处的预测样本和梯度值可以从(1821)处的对应预测样本和梯度值填充。
在实施例中,当CU的宽度和/或高度大于16个亮度样本时,可以将CU分割成宽度和/或高度等于16个亮度样本的子块,并且可以在BDOF过程中将子块边界视为CU边界。例如,BDOF过程的最大单元大小限于16×16个样本。在示例中,对于子块,可以跳过BDOF过程。在示例中,当初始L0和L1预测样本之间的SAD小于阈值时,不对子块应用BDOF过程。所述阈值可被设置为等于(8×W×(H>>1)),其中,W指示子块宽度,且H指示子块高度。为了避免绝对差之和(SAD)计算的附加复杂度,在解码器端运动矢量修正(Decoder side motionvector refinement,DMVR)过程中计算的初始L0和L1预测样本之间的SAD可以在这里重复使用。
在BDOF的一些示例中(例如,VTM5),光流的计算会需要许多乘法。例如,可以在三步过程中计算BDOF。在第一步骤中,使用两个参考块的预测图像来计算梯度图像。在第二步骤中,对于每个4×4子块计算五种类型的相关性,并且推导出光流。在第三步骤中,计算每个像素的BDOF偏移并生成预测样本。在三步过程中,当计算相关性和BDOF偏移时,用到乘法。特别地,五种类型的相关性的计算需要大量的乘法。等式14可以用如下等式20至等式24的等效形式写出(每4×4子块单元的相关性):
其中,I0,I1是来自参考L0和L1上的运动补偿(MC)的预测图像;是对应的梯度图像;Ω是每个4×4子块的6×6区域。
然后,如等式25至等式26计算运动修正:
可以如等式27计算BDOF偏移(每个样本单元):
在一些示例中,可以使用简化的计算过程来执行BDOF。在示例中,在计算BDOF中的相关性时的梯度值的乘法可以用sign函数代替。每4×4子块单元的相关性可以如下计算:
其中,I0,I1是来自参考L0和L1上的运动补偿(MC)的预测图像;是对应的梯度图像;Ω是每个4×4子块的6×6区域。
然后,如等式34至等式35计算运动修正:
BDOF偏移(每个样本单元)可以如下计算:
在一些实施例中,在帧间预测的CU中采用子块变换(SBT),子块变换也称为空间变化变换(SVT)。SBT可以应用于帧间预测残差。例如,在编码块中,仅将编码块的一部分视为残差块,且将变换应用于编码块的该部分。假设编码块的剩余部分是零残差。因此,残差块小于编码块,并且SBT中的变换大小小于编码块大小。对于没有被残差块覆盖的区域,不进行变换处理。
例如,当帧间预测的CU具有cu_cbf等于1,可发信号通知cu_sbt_flag以指示是对整个残差块进行编码还是对残差块的子部分进行编码。在前一种情况下,进一步解析帧间多重变换选择(MTS)信息以确定CU的变换类型。在后一种情况下,利用推断的自适应变换对残差块的一部分进行编码,并且将残差块的其余部分清零。
当SBT用于帧间编码的CU时,在码流中用信号通知SBT类型和SBT位置信息类型。在一些示例中,有两种SBT类型和两个SBT位置。
图19A至图19D示出了SBT中支持的子块类型(SVT-H、SVT-V)(例如,垂直地分区或水平地分区)、大小和位置(例如,左半部、左四分之一、右半部、右四分之一、上半部、上四分之一、底半部、底四分之一)。在CU中,由字母“A”标记的阴影区域是具有变换的残差块的部分,而其它区域假定为无变换的零残差。
对于SBT-V(或SBT-H),TU宽度(或高度)可以等于CU宽度(或高度)的一半或CU宽度(或高度)的1/4,从而产生2:2分割或1:3/3:1分割。2:2分割类似于二叉树(BT)分割,而1:3/3:1分割类似于非对称二叉树(ABT)分割。在ABT分割中,小区域包含非零残差。如果在亮度样本中CU的一个维度是8,则不允许沿着该维度进行1:3/3:1分割。对于CU最多有8个SBT模式。
将位置相关变换核心选择应用在SBT-V和SBT-H(在一些示例中使用DCT-2的色度TB)中的亮度变换块上。SBT-H和SBT-V的两个位置与不同的核心变换相关联。在示例中,图19A至图19C示出了每个SBT位置的水平变换和垂直变换。例如,SBT-V位置0的水平变换和垂直变换分别是DCT-8和DST-7。当残差TU的一侧大于32时,将两个维度的变换设置为DCT-2。因此,子块变换可以共同地指定TU平铺、cbf以及残差块的水平核心变换类型和垂直核心变换类型。
在一些示例中,在SPS中用信号通知由maxSbtSize代表的变量,以指定可以应用SBT的最大CU大小。在示例(例如,VTM5)中,对于高清晰度(HD)和4K视频序列,编码器将maxSbtSize设置为64;对于其它较小分辨率的序列,可以将maxSbtSize设置为32。
在一些示例中,SBT不被应用于以组合的帧间-帧内模式或三角形分区模式(TPM)模式编码的CU。
在一些实施例中,可以使用解块滤波技术。在示例(例如,HEVC)中,以与解码过程相同的顺序对每个CU执行解块滤波过程。例如,可以分别对CU的边缘进行滤波。在示例中,首先对垂直边缘进行滤波(水平滤波),然后对水平边缘进行滤波(垂直滤波)。在一些示例中,对于亮度分量和色度分量两者,可以对8×8块边界应用滤波;为了降低复杂度,可以不处理4×4块边界。边界强度(Bs)可被用于指示可用于边界的解块滤波过程的程度或强度。在实施例中,Bs的值2指示强滤波,值1指示弱滤波,且值0指示没有解块滤波。
在实施例中,基于4×4样本网格来计算Bs,但是可以将Bs重新映射到8×8样本网格。在示例中,8×8块包括四个4×4块,因此8×8块的边界包括两个相邻4×4块的两侧。Bs的两个值(对应于形成4×4网格中的线的8个像素)的最大值可被选择作为8×8网格中的边界的Bs。
图20示出了根据本申请的实施例的用于确定Bs值的示例性方法(2000)的流程图。注意,图20中的步骤顺序可以重新排序,或者在其它实施例中省略一个或多个步骤。
在图20中,P和Q是两个相邻块,这两个相邻块之间具有边界。在垂直边缘的情况下,P可以表示位于边界左侧的块,Q可以表示位于边界右侧的块。在水平边缘的情况下,P可以表示位于边界之上的块,Q可以表示位于边界之下的块。
如图20所示,可以基于预测模式(例如,帧内编解码模式)、非零变换系数(例如,非零变换系数的存在)、参考图片、多个运动矢量和运动矢量差来确定Bs值。
在步骤(S2010)处,方法(2000)确定P或Q是否以帧内预测模式进行编码。当P和Q中的至少一个被确定为以帧内预测模式编码时,方法(2000)确定Bs的第一值(例如,2)。否则,方法(2000)进行到步骤(S2020)。
在步骤(S2020)处,方法(2000)确定P或Q是否具有非零变换系数。当确定P和Q中的至少一个具有非零变换系数时,方法(2000)确定Bs的第二值(例如,1)。否则,方法(2000)进行到步骤(S2030)。
在步骤(S2030)处,方法(2000)确定P和Q是否具有不同的参考图片。当确定P和Q具有不同的参考图片时,方法(2000)确定Bs的第三值(例如,1)。否则,方法(2000)进行到步骤(S2040)。
在步骤(S2040)处,方法(2000)确定P和Q是否具有不同数量的运动矢量。当确定P和Q具有不同数量的运动矢量时,方法(2000)确定Bs的第四值(例如,1)。否则,方法(2000)进行到步骤(S2050)。
在步骤(S2050)处,方法(2000)确定P和Q之间的运动矢量差是否大于或等于阈值T。当确定P和Q之间的运动矢量差大于或等于阈值T时,方法(2000)确定Bs的第五值(例如,1)。否则,方法(2000)确定Bs的第六值(例如,0)。在实施例中,阈值T被设置为1个像素。在示例中,MV精度为1/4像素,且可以将MV差阈值的值设置为4。在另一示例中,MV精度为1/16,且可以将MV差的值可设置为16。
在一些示例中,例如VTM5中,可以修改上述解块滤波过程。在一些实施例中,可以进行以下修改中的一个或多个:(1)解块滤波器的滤波强度可取决于重建样本的平均亮度级;(2)可以扩展解块tC表;(3)较强的解块滤波器可被用于亮度;(4)较强的解块滤波器可被用于色度;(5)不同的解块网格可被用于亮度和色度,例如,在4×4样本网格上执行亮度解块,在8×8样本网格上执行色度解块。
具体地,在实施例中,滤波强度取决于重建的平均亮度级。在一些示例(例如,HEVC)中,解块滤波器的滤波强度由从平均量化参数qPL导出的变量β和tC控制。在示例中的VTM5中,解块滤波器的强度也由到qPL的偏移来控制,该偏移是根据重建样本的亮度级来设置的。重建的亮度级LL可被推导为等式37:
LL=((p0,0+p0,3+q0,0+q0,3)>>2)/(1<<bitDepth) (等式37)
其中,基于样本位置推导出样本值pi,k和qi,k,其中,i=0..3,k=0和3。
图21示出了推导pi,k和qi,k的示例,其中,i=0..3,k=0和3。
在示例中,变量qPL被推导为等式38:
qPL=((QpQ+QpP+1)>>1)+qpOffset (等式38)
其中,QpQ和QpP分别表示包含样本q0,0和p0,0的编码单元的量化参数。偏移量qpOffset取决于传递函数,在SPS中用信号通知这些值。
在实施例中,可以扩展解块tC表。例如,在VTM5中,最大QP可以从51改变到63。基于块QP导出解块参数tC的值,从而相应地改变解块表。下面是更新后的tC表,以适应QP范围的扩展:
tC=[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,2,2,2,2,3,3,3,3,4,4,4,5,5,6,6,7,8,9,10,11,13,14,16,18,20,22,25,28,31,35,39,44,50,56,63,70,79,88,99]
在实施例中,可以针对亮度使用更强的解块滤波器。在一些示例中,当边界的任一侧处的样本属于大块时,使用双线性滤波器(更强的解块滤波器)。对于垂直边界,当块的宽度大于或等于32时,以及对于水平边界,当块的高度大于或等于32时,定义属于大块的样本。然后,块边界样本pi(i=0到Sp-1)和qi(j=0到Sq-1)被线性插值替换如下:
pi′=(fi×Middles,t+(64-fi)×Ps+32)>>6),clipped to pi±tcPDi (等式39)
qj′=(gj×Middles,t+(64-gj)×Qs+32)>>6),clipped to qj±tcPDj (等式40)
其中,tcPDi和tcPDj项是依赖于位置的限幅,并且gj、fi、Middles,t、Ps和Qs基于下面的表1给出:
表1:针对亮度的更强的解块参数的推导
在一些实施例中,仅当所有三个条件(称为Condition1、Condition2和Condition3)都为真时,才使用上述更强的亮度滤波器。Condition1是“大块条件”。Condition1检测P侧和Q侧的样本是否属于大块。Condition2和Condition3如下确定:
Condition2=(d<β)?真:假 (等式41)
Condition3=强滤波器条件=(dpq小于(β>>2),sp3+sq3小于(3×β>>5),和Abs(p0-q0)
小于(5×tC+1)>>1)?真:假 (等式42)
在实施例中,强解块滤波器用于色度。在示例中,用于色度的强解块滤波器可以定义为如等式42’至等式44所示:
p2′=(3×p3+2×p2+p1+p0+q0+4)>>3 (等式42’)
p1′=(2×p3+p2+2×p1+p0+q0+q1+4)>>3 (等式43)
p0′=(p3+p2+p1+2×p0+q0+q1+q2+4)>>3 (等式44)
上述色度滤波器在8×8色度样本网格上执行解块。色度强滤波器用于块边界的两侧。在示例中,当色度边缘的两侧都大于或等于8(以色度样本为单位)且满足三个条件的以下判定时,选择色度滤波器。第一条件是判定边界强度和大块。第二条件和第三条件基本上与HEVC亮度判定相同,它们分别是开/关判定和强滤波器判定。在第一判定中,修改边界强度(Bs)以用于色度滤波,如表2所示。依次检查表2中的条件。如果满足条件,则在一些示例中可以跳过具有较低优先级的剩余条件。
表2-修改的边界强度
当Bs等于2时,或者当检测到大块边界Bs等于1时,执行色度解块。第二条件和第三条件可以与HEVC亮度强滤波器判定相同。
在实施例中,使用子块边界的解块滤波器。在一些示例中,针对亮度在4×4网格上启用解块滤波器,针对色度在8×8网格上启用解块滤波器。在一些示例中,针对PU在8×8网格上启用解块滤波器。在一些实施例中,对CU边界以及子块边界应用解块滤波过程。子块边界包括由STMVP和仿射模式引入的预测单元边界,以及由SBT和ISP模式引入的变换单元边界。
在一些示例中,对于SBT和ISP子块,可以应用TU中的在HEVC解块滤波器中使用的相同逻辑。当跨越边缘的任一子块中存在非零系数时,可在TU边界处应用解块滤波器。
对于4×4网格上的SbTMVP和仿射子块,应用PU中的在HEVC解块滤波器中使用的相同逻辑。对于PU边界,考虑运动矢量和相邻子块的参考图片之间的差异来应用解块滤波器。
根据本申请的实施例,对于BDOF和PROF,可以使用统一的方法来计算梯度、MV差和修正。因此,可以简化编码器和解码器的体系结构和硬件实现。
根据本申请的实施例,可以跳过某些不必要的工具。在一些示例中,当应用仿射PROF时,运动矢量修正可实现像素级运动矢量调整。因此,在修正过程之后,在重建的仿射子块边缘上的解块滤波器不是必需的,且可被跳过。
在一些示例中,当使用基于子块的帧间预测时,或者当应用仿射PROF时,子块变换(SBT)可能没有帮助。
所提出的方法可以单独使用或以任何顺序组合使用。进一步地,方法(或实施例)、编码器和解码器中的每一者可由处理电路(例如,一个或多个处理器或一个或多个集成电路)实现。在一个示例中,一个或多个处理器执行存储在非暂时性计算机可读介质中的程序。在下文中,术语块可以被解释为预测块、编码块或编码单元(即,CU)。
在一些实施例中,可以统一BDOF和PROF上的修正过程(包括修正过程中的参数)。例如,可以统一PROF和BDOF的子块大小。在示例中,统一的子块大小可以用于BDOF和仿射PROF两者,并且统一的子块大小在亮度样本中可以被表示为N×M,其中,N是每个子块的宽度,M是每个子块的高度。
在实施例中,对于BDOF和具有PROF的仿射两者,将运动补偿应用于N×M的子块大小。在一个示例中,N和M都等于8个亮度样本。在另一示例中,N=8且M=4。在另一示例中,N=4且M=8。
在另一实施例中,对于BDOF和仿射PROF两者,可以对N×M的子块大小执行梯度计算,其中,在块的每个边缘上具有1个附加样本填充(例如,超出上边缘和下边缘的附加一行填充,以及超出左边缘和右边缘的附加一列填充)。在示例中,N和M都等于8。
在另一实施例中,对于BDOF和仿射PROF两者,对每个N×M子块大小执行预测修正计算。在一个示例中,N和M都等于8,并且与4×4的子块大小相比,可以降低复杂度和减少计算量。
在一些实施例中,可以在BDOF和仿射PROF中使用统一的每像素MV修正计算。在一些相关示例中,仿射PROF计算仿射子块内的每个像素的MV修正值;BDOF计算每个4×4子块的MV修正值。在本申请的实施例中,可以为每个像素计算BDOF的MV修正。
具体地,在BDOF计算的实施例中,相关性(每亮度样本)可被计算为:
其中,I0,I1是来自参考L0和L1上的运动补偿(MC)的预测图像;是对应的梯度图像;Ω是每个样本的3×3区域。
进一步地,运动修正计算如下:
然后,可以如下计算BDOF偏移量(每样本单元):
在一些其它实施例中,可以为每个子块计算BDOF的MV修正。在一些示例中,用于PROF修正的子块大小可以小于用于PROF运动补偿的子块大小。例如,2×2的子块大小用于MV修正,4×4子块大小用于BDOF和PROF的运动补偿。
根据本申请的实施例,当应用仿射PROF时,修改解块技术。具体地,在一些示例中,在利用仿射帧间预测编码的编码块中,当应用PROF时,修改沿着仿射子块的边缘的解块方法。修改的解块方法可以默认启用,或者由诸如在条带级、图片级、图块级、图块组级等的高级语法用信号通知。还可以在块级用信号通知修改的解块方法的使用。
在实施例中,当对编码块应用仿射PROF时,在编码块的所有子块的边缘(除了编码块的边界上的那些边缘之外)上禁用解块滤波器。
在另一实施例中,当在编码块上应用仿射PROF时,在编码块的所有子块的边缘(除了编码块的边界上的那些边缘之外)上,解块滤波器强度被减小值S。在示例中,解块滤波器强度值在减小之前已经小于S,可以将强度值设置为0。在一些示例中,S的值可以是1。
在另一实施例中,当对编码块应用仿射PROF时,对于内部的子块边缘(除了编码块边界之外的边缘),可以跳过基于运动矢量差的解块边界强度计算。请注意,仍然可以执行基于变换的解块边界强度计算。
在另一实施例中,当对编码块应用仿射PROF时,对于内部的子块边缘,可以跳过基于运动矢量差的解块边界强度计算,除了启用子块变换并且子块边缘处于子块变换块边界的情况之外。
在另一实施例中,当在编码块上应用仿射PROF时,可以在编码块的所有子块的边缘(除了编码块的边界上的那些边缘之外)上有条件地禁用解块滤波器。在一些实施例中,阈值可用于确定是否对仿射子块应用解块滤波器。
在一些示例中,当与边缘(称为子块边缘)相邻的两个子块使用的运动矢量的水平分量或垂直分量之间的绝对差小于阈值(表示为TH)时,在子块边缘上禁用解块滤波器,或者将子块边缘的边界强度设置为0。
在示例中,可以以四分之一亮度样本为单位将TH设置为等于4。在另一示例中,可以以四分之一亮度样本为单位将TH设置为等于6。在另一示例中,可以以四分之一亮度样本为单位将TH设置为等于8。
在另一实施例中,用于编码块的仿射模型的仿射参数的最大绝对值可被用于确定是在仿射子块边缘还是在解块Bs上禁用解块滤波器。
例如,可以根据控制点运动矢量(CPMV)和仿射块的宽度/高度来计算仿射参数的值。在4参数仿射的示例中,两个控制点的控制点运动矢量被表示为CPMV0(MVx0,MVy0)和CPMV1(MVx1,MVy1)。两个参数(例如,斜率参数)a和b可被计算为:
类似地,在6参数仿射的示例中,三个控制点的控制点运动矢量被表示为CPMV0(MVx0,MVy0)、CPMV1(MVx1,MVy1)和CPMV2(MVx2,MVy2)。四个参数(例如,斜率参数)a、b、c和d可被计算为:
在一些示例中,仿射参数的最大绝对值可被计算为:
maxParam=max{|a|,|b|,|c|,|d|} (等式56)
当maxParam小于阈值TH时,可以禁用子块边缘上的解块滤波器。在示例中,可以以四分之一亮度样本为单位将TH设置为等于8。在另一实施例中,当maxParam大于TH时,可以将解块Bs设置为1。
根据本申请的实施例,编码块的利用基于子块的帧间预测的有条件的子块变换可被执行。在某些条件下,可以禁用用于子块帧间预测模式的子块变换。在实施例中,当使用仿射帧间预测对块进行编码时,可针对所述块禁用子块变换。在另一实施例中,当使用基于子块的TMVP(SbTMVP)对块进行编码时,可针对所述块禁用子块变换。在另一实施例中,当使用仿射帧间预测对块进行编码且启用用于仿射的PROF时,可针对所述块禁用子块变换。在另一实施例中,当使用仿射帧间预测对块进行编码且对所述块使用子块变换时,那么用于仿射的PROF被禁用。
图22示出了概述根据本申请的实施例的方法(2200)的流程图。可以在块的重建中使用方法(2200),以便为重建中的块生成预测块。在各种实施例中,方法(2200)由处理电路执行,诸如,终端设备(210)、终端设备(220)、终端设备(230)和终端设备(240)中的处理电路、执行视频编码器(303)的功能的处理电路、执行视频解码器(310)的功能的处理电路、执行视频解码器(410)的功能的处理电路、执行视频编码器(503)的功能的处理电路,等等。在一些实施例中,方法(2200)用软件指令实现,因此当处理电路执行软件指令时,处理电路执行方法(2200)。该方法开始于(S2201)并进行到(S2210)。
在(S2210)处,从已编码视频码流对当前图片中的当前块的预测信息进行解码。预测信息指示使用第一光流修正编解码工具的预测模式。第一光流修正编解码工具使用网格结构,该网格结构在光流修正的操作期间由至少第二光流修正编解码工具额外地使用。
在一些实施例中,第一光流修正编解码工具是基于双向光流(BDOF)的编解码工具和基于利用光流的仿射预测修正(PROF)的编解码工具中的一个;第二光流修正编解码工具是基于BDOF的编解码工具和基于仿射PROF的编解码工具中的另一个。
在(S2220)处,根据第一光流修正编解码工具,基于网格结构来计算对当前块的样本的预测的修正。
在实施例中,对具有子块大小的子块应用运动补偿,并且第一光流修正编解码工具和第二光流修正编解码工具使用子块大小作为用于运动补偿的统一网格。
在另一实施例中,根据第一光流修正编解码工具,对具有子块大小的子块执行梯度计算,并且第一光流修正编解码工具和第二光流修正编解码工具使用子块大小作为用于梯度计算的统一网格。
在另一实施例中,根据第一光流修正编解码工具,在具有子块大小的每个子块上计算对样本的预测的修正,第一光流修正编解码工具和第二光流修正编解码工具使用子块大小作为用于预测修正计算的统一网格。
在另一实施例中,第一光流修正编解码工具和第二光流修正编解码工具计算每个像素的运动矢量修正。
在(S2230)处,基于样本的修正和预测来重建当前块的样本。在一些实施例中,可以适当地应用解块滤波器。
在一些实施例中,第一光流修正编解码工具是基于利用光流的仿射预测修正(PROF)编解码工具,可以降低解块滤波器的强度,该解块滤波器应用在当前块内的子块之间的至少内部边缘上。在实施例中,可以禁用应用在当前块内的子块之间的内部边缘上的解块滤波器。
在一些实施例中,有条件地禁用解块滤波器。例如,可以将指示内部边缘的两侧上的运动矢量差的指示参数与阈值进行比较,基于比较结果使用或禁用解块滤波器。在示例中,将与内部边缘相邻的两个子块所使用的运动矢量的水平分量或垂直分量之间的绝对差与阈值进行比较,并且基于比较结果使用或禁用解块滤波器。
在另一示例中,可将仿射参数与阈值进行比较。例如,将仿射参数的最大值与阈值进行比较,并且基于比较结果使用或禁用解块滤波器。
然后,方法进行到(S2299)并结束。
本申请实施例提供了一种视频解码方法,包括:
从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示使用第一光流修正编解码工具的预测模式,所述第一光流修正编解码工具使用在光流修正的操作期间由至少第二光流修正编解码工具额外地使用的网格结构;
使用所述第一光流修正编解码工具,基于所述网格结构计算对所述当前块的样本的预测的修正;以及
基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
本申请实施例提供了一种视频解码装置,包括:
解码模块,用于从已编码视频码流中解码当前图片中的当前块的预测信息,所述预测信息指示使用第一光流修正编解码工具的预测模式,所述第一光流修正编解码工具使用在光流修正的操作期间由至少第二光流修正编解码工具额外地使用的网格结构;
计算模块,用于使用所述第一光流修正编解码工具,基于所述网格结构计算对所述当前块的样本的预测的修正;和
重建模块,用于基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
本申请实施例提供了一种计算机设备,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现本申请任一实施例所述的方法。
本申请实施例提供了一种存储指令的非暂时性计算机可读介质,所述指令当由计算机执行以用于视频解码时,使得所述计算机执行本申请任一实施例所述的方法。
本申请的实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请任一实施例所述的方法。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图23示出了适于实现所公开主题的某些实施例的计算机系统(2300)。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图23所示的用于计算机系统(2300)的组件本质上是示例性的,并且不旨在对实现本申请的实施例的计算机软件的使用范围或功能提出任何限制。也不应将组件的配置解释为对计算机系统(2300)的示范性实施例中所说明的组件中的任一者或组合具有任何依赖性或要求。
计算机系统(2300)可以包括某些人机界面输入设备。所述人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出)对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕捉不必直接与人类有意识输入相关的某些媒体,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(仅描绘其中一个):键盘(2301)、鼠标(2302)、触控板(2303)、触摸屏(2310)、数据手套(未示出)、操纵杆(2305)、麦克风(2306)、扫描仪(2307)、照相机(2308)。
计算机系统(2300)还可以包括某些人机界面输出设备。所述人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。所述人机界面输出设备可包括触觉输出设备(例如通过触摸屏(2310)、数据手套(未示出)或操纵杆(2305)的触觉反馈,但也可有不是输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(2309)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(2310),其中每个都有或没有触摸屏输入功能、触觉反馈功能——其中一些可通过如立体画面输出等手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(2300)还可以包括人类可访问的存储设备及其相关联介质,如包括具有CD/DVD的CD/DVD ROM/RW(2320)等介质(2321)的光学介质、拇指驱动器(2322)、可移动硬盘驱动器或固态驱动器(2323)、如磁带和软盘(未示出)的传统磁介质、如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合本申请的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(2300)还可以包括到一个或多个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要连接到某些通用数据端口或外围总线(2349)(例如,计算机系统(2300)的USB端口)的外部网络接口适配器;其它系统通常通过连接到如下所述的系统总线集成到计算机系统(2300)的内核(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(2300)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
前述的人机界面设备、人类可访问存储设备和网络接口可以连接到计算机系统(2300)的内核(2340)。
内核(2340)可包括一个或多个中央处理单元(CPU)(2341)、图形处理单元(GPU)(2342)、以现场可编程门阵列(FPGA)(2343)形式存在的专用可编程处理单元、用于特定任务的硬件加速器(2344)等。上述设备以及只读存储器(ROM)(2345)、随机存取存储器(2346)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、SSD等)(2347)等可通过系统总线(2348)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(2348),以便通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到内核的系统总线(2348),或通过外围总线(2349)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(2341)、GPU(2342)、FPGA(2343)和加速器(2344)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(2345)或RAM(2346)中。过渡数据也可以存储在RAM(2346)中,而永久数据可以存储在例如内部大容量存储器(2347)中。通过使用高速缓存可实现对任何存储器设备的快速存储和检索,高速缓存可与一个或多个CPU(2341)、GPU(2342)、大容量存储器(2347)、ROM(2345)、RAM(2346)等紧密关联。
所述计算机可读介质上可具有用于执行各种计算机实现操作的计算机代码。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为示例而非限制,具有体系结构(2300)的计算机系统,特别是内核(2340),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供功能,执行包含在一个或多个有形的计算机可读介质中的软件。这种计算机可读介质可以是与如上所述的用户可访问的大容量存储器相关联的介质,以及具有非瞬时性质的内核(2340)的特定存储器,诸如内核内部大容量存储器(2347)或ROM(2345)。实现本申请的各种实施例的软件可以存储在这种设备中并且由内核(2340)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得内核(2340)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(2346)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其他方式包含在电路(例如,加速器(2344))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录A:首字母缩写
JEM:联合探索模式
VVC:通用视频编解码
BMS:基准集
MV:运动矢量
HEVC:高效视频编解码
SEI:补充增强信息
VUI:视频可用性信息
GOP:图片组
TU:变换单元
PU:预测单元
CTU:编码树单元
CTB:编码树块
PB:预测块
HRD:假设参考解码器
SNR:信噪比
CPU:中央处理单元
GPU:图形处理单元
CRT:阴极射线管
LCD:液晶显示器
OLED:有机发光二极管
CD:光盘
DVD:数字化视频光盘
ROM:只读存储器
RAM:随机存取存储器
ASIC:专用集成电路
PLD:可编程逻辑器件
LAN:局域网
GSM:全球移动通信系统
LTE:长期演进
CANBus:控制器局域网总线
USB:通用串行总线
PCI:外围设备互连
FPGA:现场可编程门阵列
SSD:固态驱动器
IC:集成电路
CU:编码单元
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、置换和各种替代属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。
Claims (10)
1.一种视频解码方法,其特征在于,包括:
从基于双向光流BDOF的编解码工具和基于利用光流的仿射预测修正PROF的编解码工具中选定第一光流修正编解码工具,所述基于双向光流BDOF的编解码工具和基于利用光流的仿射预测修正PROF的编解码工具两者,使用统一的子块大小;
根据所述第一光流修正编解码工具,计算每个像素的运动矢量修正;
使用所述第一光流修正编解码工具,计算对当前块中具有所述统一的子块大小的子块中的样本的预测的修正;以及
基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
2.根据权利要求1所述的方法,其特征在于,进一步包括:
对于基于双向光流BDOF的编解码工具和基于利用光流的仿射预测修正PROF的编解码工具两者,对具有所述统一的子块大小的子块应用运动补偿。
3.根据权利要求1所述的方法,其特征在于,进一步包括:
对于基于双向光流BDOF的编解码工具和基于利用光流的仿射预测修正PROF的编解码工具两者,计算具有所述统一的子块大小的子块上的梯度。
4.根据权利要求1所述的方法,其特征在于,所述第一光流修正编解码工具是基于利用光流的仿射预测修正PROF的编解码工具,并且所述方法进一步包括:
降低解块滤波器的强度,所述解块滤波器应用在所述当前块内的子块之间的内部边缘上。
5.根据权利要求1所述的方法,其特征在于,所述第一光流修正编解码工具是基于利用光流的仿射预测修正PROF的编解码工具,所述方法进一步包括:
禁用解块滤波器,所述解块滤波器应用在所述当前块内的子块之间的内部边缘上。
6.根据权利要求1所述的方法,其特征在于,所述第一光流修正编解码工具是基于利用光流的仿射预测修正PROF的编解码工具,所述方法进一步包括:
将指示内部边缘的两侧上的运动矢量差的指示参数与阈值进行比较;并且
响应于所述比较的结果,启用或禁用解块滤波器。
7.根据权利要求6所述的方法,其特征在于,所述指示参数包括与所述内部边缘相邻的两个子块的运动矢量之间的绝对差和仿射参数中的至少一个。
8.一种视频解码装置,其特征在于,包括:
解码模块,用于从基于双向光流BDOF的编解码工具和基于利用光流的仿射预测修正PROF的编解码工具中选定第一光流修正编解码工具,所述基于双向光流BDOF的编解码工具和基于利用光流的仿射预测修正PROF的编解码工具两者,使用统一的子块大小;
计算模块,用于根据所述第一光流修正编解码工具,计算每个像素的运动矢量修正;使用所述第一光流修正编解码工具,计算对当前块中具有所述统一的子块大小的子块中的样本的预测的修正;和
重建模块,用于基于所述样本的所述修正和所述预测,重建所述当前块的所述样本。
9.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现权利要求1至7中的任一项所述的方法。
10.一种存储指令的非暂时性计算机可读介质,其特征在于,所述指令当由计算机执行以用于视频解码时,使得所述计算机执行权利要求1至7中的任一项所述的方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962877718P | 2019-07-23 | 2019-07-23 | |
US62/877,718 | 2019-07-23 | ||
US16/932,937 US11272203B2 (en) | 2019-07-23 | 2020-07-20 | Method and apparatus for video coding |
US16/932,937 | 2020-07-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112291571A CN112291571A (zh) | 2021-01-29 |
CN112291571B true CN112291571B (zh) | 2023-09-29 |
Family
ID=74190579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010709619.5A Active CN112291571B (zh) | 2019-07-23 | 2020-07-22 | 视频解码方法及装置以及计算机设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
US (2) | US11272203B2 (zh) |
CN (1) | CN112291571B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11356657B2 (en) * | 2018-01-26 | 2022-06-07 | Hfi Innovation Inc. | Method and apparatus of affine inter prediction for video coding system |
CN111083489B (zh) | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 多次迭代运动矢量细化 |
CN111083484B (zh) | 2018-10-22 | 2024-06-28 | 北京字节跳动网络技术有限公司 | 基于子块的预测 |
WO2020098643A1 (en) | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Simplification of combined inter-intra prediction |
CN113170093B (zh) | 2018-11-20 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 视频处理中的细化帧间预测 |
CN117319644A (zh) * | 2018-11-20 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 基于部分位置的差计算 |
WO2020177756A1 (en) | 2019-03-06 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Size dependent inter coding |
CN115190317A (zh) * | 2019-04-02 | 2022-10-14 | 抖音视界有限公司 | 解码器侧运动矢量推导 |
WO2021023255A1 (en) * | 2019-08-08 | 2021-02-11 | FG Innovation Company Limited | Device and method for coding video data |
US11310519B2 (en) * | 2019-09-18 | 2022-04-19 | Qualcomm Incorporated | Deblocking of subblock boundaries for affine motion compensated coding |
WO2022028855A1 (en) * | 2020-08-07 | 2022-02-10 | Interdigital Vc Holdings France, Sas | Combining abt with vvc sub-block-based coding tools |
CN114640845B (zh) * | 2021-02-23 | 2023-02-28 | 杭州海康威视数字技术股份有限公司 | 编解码方法、装置及其设备 |
WO2024149035A1 (en) * | 2023-01-13 | 2024-07-18 | Mediatek Inc. | Methods and apparatus of affine motion compensation for block boundaries and motion refinement in video coding |
WO2024199399A1 (en) * | 2023-03-29 | 2024-10-03 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175409A1 (en) * | 2017-03-20 | 2018-09-27 | Qualcomm Incorporated | Enhanced deblocking filtering design in video coding |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7558320B2 (en) * | 2003-06-13 | 2009-07-07 | Microsoft Corporation | Quality control in frame interpolation with motion analysis |
US8259809B2 (en) * | 2009-01-12 | 2012-09-04 | Mediatek Singapore Pte Ltd. | One step sub-pixel motion estimation |
US10931969B2 (en) * | 2017-01-04 | 2021-02-23 | Qualcomm Incorporated | Motion vector reconstructions for bi-directional optical flow (BIO) |
US10701366B2 (en) * | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) * | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US10595035B2 (en) * | 2017-03-22 | 2020-03-17 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
US10491917B2 (en) * | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
US10805630B2 (en) * | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
US10757442B2 (en) * | 2017-07-05 | 2020-08-25 | Qualcomm Incorporated | Partial reconstruction based template matching for motion vector derivation |
US10986360B2 (en) * | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
US11575925B2 (en) * | 2018-03-30 | 2023-02-07 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium in which bitstream is stored |
US10958928B2 (en) * | 2018-04-10 | 2021-03-23 | Qualcomm Incorporated | Decoder-side motion vector derivation for video coding |
CN110809155B (zh) * | 2018-08-04 | 2023-01-31 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置和计算机可读介质 |
CN110858901B (zh) * | 2018-08-24 | 2023-01-20 | 北京字节跳动网络技术有限公司 | 使用时域邻居的重叠块运动补偿 |
CN111010569B (zh) * | 2018-10-06 | 2023-02-28 | 北京字节跳动网络技术有限公司 | Bio中的时间梯度计算的改善 |
WO2020084465A1 (en) * | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Simplified coding of generalized bi-directional index |
CN112997485A (zh) * | 2018-11-05 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 用于具有细化的帧间预测的插值 |
KR20210134400A (ko) * | 2019-03-20 | 2021-11-09 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 아핀 코딩된 블록에 대한 광학 흐름 이용 예측 정제를 위한 방법 및 장치 |
JP2022547599A (ja) * | 2019-09-12 | 2022-11-14 | アリババ グループ ホウルディング リミテッド | 映像符号化情報をシグナリングするための方法及び装置 |
-
2020
- 2020-07-20 US US16/932,937 patent/US11272203B2/en active Active
- 2020-07-22 CN CN202010709619.5A patent/CN112291571B/zh active Active
-
2022
- 2022-01-26 US US17/585,424 patent/US11800133B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175409A1 (en) * | 2017-03-20 | 2018-09-27 | Qualcomm Incorporated | Enhanced deblocking filtering design in video coding |
Non-Patent Citations (5)
Title |
---|
CE4-related: Unified padding for BDOF and PROF;Kai Zhang等;Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0624;摘要,第1-2节 * |
Naeri Park等.Non-CE4: Block size alignment between PROF and BDOF.Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-P0282.2019,摘要,第1-3节. * |
Non-CE4: Block size alignment between PROF and BDOF;Naeri Park等;Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-P0282;摘要,第1-3节 * |
Non-CE4: On prediction refinement with optical flow;Xiang Li等;Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0553;全文 * |
Non-CE5: On deblocking on affine internal prediction sub-block edges;Guichun Li等;Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-P0441;摘要,第1-2节 * |
Also Published As
Publication number | Publication date |
---|---|
CN112291571A (zh) | 2021-01-29 |
US11800133B2 (en) | 2023-10-24 |
US20210029370A1 (en) | 2021-01-28 |
US11272203B2 (en) | 2022-03-08 |
US20220150528A1 (en) | 2022-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112291571B (zh) | 视频解码方法及装置以及计算机设备和存储介质 | |
CN113545083B (zh) | 视频编解码的方法和装置 | |
CN113287307B (zh) | 视频解码的方法和装置、计算机设备及介质 | |
CN116723315B (zh) | 视频解码的方法和装置、视频编码的方法和装置及存储介质 | |
CN113196782B (zh) | 视频解码方法、装置及可读存储介质 | |
CN110719469B (zh) | 视频编解码方法、设备和存储介质 | |
CN113302932B (zh) | 视频编解码的方法、装置及存储介质 | |
CN113574885B (zh) | 视频解码方法、装置以及电子设备 | |
CN110944202B (zh) | 视频编解码方法、装置、计算机设备和存储介质 | |
CN111885387B (zh) | 用于仿射光流预测值细化的视频解码方法和装置 | |
CN113875234B (zh) | 视频解码方法、装置和介质 | |
CN114666581B (zh) | 视频编解码的方法、装置及存储介质 | |
CN114651447B (zh) | 视频编解码的方法、装置及存储介质 | |
CN114827597B (zh) | 视频解码方法、装置、计算机设备及存储介质 | |
CN113519159B (zh) | 视频编解码的方法和装置 | |
CN112399183A (zh) | 用于视频编解码的方法和装置 | |
CN111316639B (zh) | 视频解码方法和装置、及存储介质 | |
CN113196745B (zh) | 视频编解码的方法和装置 | |
CN111901609B (zh) | 视频解码的方法和装置、计算机设备和存储介质 | |
CN112514400B (zh) | 视频解码方法、视频解码器、计算机设备和可读存储介质 | |
CN113348668B (zh) | 一种视频解码方法、装置及存储介质 | |
CN113497940B (zh) | 视频解码方法、装置、计算机设备及存储介质 | |
CN111988631B (zh) | 视频编码、解码的方法、装置以及存储介质 | |
CN113228631B (zh) | 视频编解码的方法和装置 | |
CN113841412B (zh) | 视频编解码的方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |