CN110730353A - 视频解码方法和装置、计算机设备、存储介质 - Google Patents

视频解码方法和装置、计算机设备、存储介质 Download PDF

Info

Publication number
CN110730353A
CN110730353A CN201910613792.2A CN201910613792A CN110730353A CN 110730353 A CN110730353 A CN 110730353A CN 201910613792 A CN201910613792 A CN 201910613792A CN 110730353 A CN110730353 A CN 110730353A
Authority
CN
China
Prior art keywords
current block
block
video
prediction
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910613792.2A
Other languages
English (en)
Other versions
CN110730353B (zh
Inventor
许晓中
刘杉
李翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN110730353A publication Critical patent/CN110730353A/zh
Application granted granted Critical
Publication of CN110730353B publication Critical patent/CN110730353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks

Abstract

本申请的实施例提供视频解码方法和装置。视频解码方法从已编码视频码流解码当前图片中的当前块的预测信息。所述预测信息指示合并模式中的仿射模型。进一步地,视频解码方法从缓冲器中获取与所述当前图片中的所述当前块相邻的邻近块中的底部位置的运动信息。然后,视频解码方法基于所述邻近块中的底部位置的运动信息确定所述仿射模型的参数,所述仿射模型用于在所述当前块和已经被重建的参考图片中的参考块之间进行变换。进一步地,视频解码方法基于所述仿射模型重建所述当前块的至少一个样本。

Description

视频解码方法和装置、计算机设备、存储介质
本申请要求于2018年7月16日提交的第62/698,747号美国临时申请案“TECHNIQUES OF PARAMETER DERIVATION IN AFFINE MOTION COMPENSATION(仿射运动补偿中的参数推导的技术)”的优先权,以及于2018年12月17日提交的第16/222,582号美国申请案的优先权,所述两个申请案的公开内容以全文引用的方式并入本文中。
技术领域
本申请涉及视频解码技术,尤其涉及视频解码方法和装置。
背景技术
本文所提供的背景描述旨在陈述本申请的研究范围。就本背景部分所述,以及在提交申请时可能不符合现有技术条件所述的各个方面,当前已署名的发明人的工作,既不明确也不隐含地承认为本申请的现有技术。
带有运动补偿的帧间图片预测可被用于视频编码和解码。未压缩的数字视频可以包括一连串的图片,每个图片具有例如1920×1080个亮度样本和相关联的色度样本的空间维度。该一连串的图片可以具有固定的或可变的图片速率(非正式地也被称为帧速率),例如每秒60个图片或60Hz。未压缩的视频具有显著的比特率需求。例如,每样本8比特的1080p60 4:2:0视频(在60Hz帧速率的1920×1080亮度样本分辨率)需要接近于1.5Gbit/s带宽。一小时这样的视频需要超过600千兆的存储空间。
视频编码和解码的一个目的可以是通过压缩减少输入视频信号中的冗余。压缩能够帮助降低上述的带宽或存储空间需求,在某些情况下减少两个数量级或更多。无损压缩和有损压缩,以及这两者的组合都可被采用。无损压缩指的是可从压缩的原始信号重构原始信号的精确副本的技术。当使用有损压缩时,重构的信号可能与原始信号不相同,但是原始信号和重构的信号之间的失真足够小以使重构的信号可用于预定应用。在视频中广泛地采用有损压缩。可被容忍的失真量取决于应用;例如,与电视发行应用的用户相比,某些消费者流媒体应用的用户可以容忍较高的失真。可实现的压缩比可反映出较高容许的/可容忍的失真能够产生较高的压缩比。
运动补偿可以是有损压缩技术并且可以涉及如下技术,其中来自先前重建的图片或该图片(参考图片)的一部分的样本数据的块在运动矢量(以下称为MV)所指示的方向上被空间移位之后,用于预测最近重建的图片或图片的一部分。在一些情况下,参考图片可以与当前正在重建的图片相同。MV可以具有二个维度X和Y,或三个维度,第三个维度是使用中的参考图片的指示(间接地,后者可以是时间维度)。
在一些视频压缩技术中,可以从其它MV(例如与重建区域空间相邻的样本数据的另一个区域有关的、并且按解码顺序在可适用于样本数据的某区域的MV之前的那些MV)预测可适用于样本数据的某区域的MV。这样做可以大幅减少编码MV所需要的数据量,从而去除冗余并且提高压缩。MV预测可以有效地工作,例如因为当对来源于照相机的输入视频信号(被称为自然视频)进行编码时,存在与单个MV可适用的区域相比更大的区域在类似的方向上移动的统计可能性,并且因此在某些情况下可使用来源于邻近区域的MV的类似的运动矢量来预测。这导致对于给定区域发现的MV将与从周围MV预测的MV类似或相同,并且反过来在熵编码之后,可以与对MV直接进行编码所使用的比特数量相比更小数量的比特来表示。在一些情况下,MV预测可以是从原始信号(即:样本流)推导出的信号(即:MV)的无损压缩的示例。在其它情况下,例如由于从若干周围MV计算预测值时的舍入误差,MV预测本身可能是有损的。
发明内容
本申请的实施例提供视频编码/解码的方法和装置。在一些示例中,视频解码装置包括接收电路和处理电路。处理电路从已编码视频码流解码当前图片中的当前块的预测信息。所述预测信息指示合并模式中的仿射模型。进一步地,处理电路获取与所述当前图片中的所述当前块相邻的邻近块中的底部角位置的运动信息。然后,处理电路基于所述邻近块中的底部角位置的运动信息确定所述当前块的控制点处的运动矢量,基于所述确定的当前块的控制点处的运动矢量确定所述仿射模型的参数,所述仿射模型用于在所述当前块和已经被重建的参考图片中的参考块之间进行变换。进一步地,处理电路基于所述仿射模型重建所述当前块的至少一个样本。
根据本申请的实施例,当所述邻近块和所述当前块在不同的编码树单元CTU行中时,处理电路从行缓冲区中获取所述邻近块中的两个底部角位置的特定运动矢量,所述行缓冲区中包括当前块上方的CTU行中的块的底部角位置的运动矢量。在一些实施例中,行缓冲区被配置为不缓冲当前块上方的CTU行中的非底部位置的运动矢量。
在一些实施例中,当邻近块与当前块的左边缘相邻时,处理电路从缓冲器中获取邻近块中的两个底部角位置的特定运动矢量。
根据本申请的方面,处理电路基于所述邻近块中的底部位置的运动信息确定当前块的控制点的运动矢量,并且基于所述当前块的控制点的运动矢量确定所述仿射模型的所述参数。
在一些实施例中,处理电路确定所述运动矢量为基于所述邻近块中的底部位置的运动信息生成的运动矢量预测。在一些示例中,处理电路基于所述邻近块中的底部位置的运动信息生成运动矢量预测。进一步地,处理电路从已编码视频码流中解码残差,并且将所述运动矢量预测与所述残差组合以确定所述当前块的控制点的所述运动矢量。
在示例中,处理电路基于所述邻近块中的底部位置的运动信息确定所述当前块的两个控制点的运动矢量,并且基于所述邻近块中的两个控制点的运动矢量确定4参数仿射模型的参数。在另一个示例中,处理电路基于所述邻近块中的底部位置的运动信息确定所述当前块的三个控制点的运动矢量,并且基于所述邻近块中的三个控制点的运动矢量确定6参数仿射模型的参数。
本申请实施例提供一种视频解码方法,包括:从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示仿射模型;基于所述当前块的形状确定所述当前块中的控制点;基于在所述控制点的运动矢量信息确定所述仿射模型的参数;以及基于所述仿射模型重建所述当前块的至少一个样本。
本申请实施例提供一种视频解码装置,包括:
解码模块,用于从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示合并模式中的仿射模型;
获取模块,用于获取与所述当前图片中的所述当前块相邻的邻近块中的底部角位置的运动信息;
确定模块,用于基于所述邻近块中的底部角位置的运动信息确定所述当前块的控制点处的运动矢量,并且基于所述确定的当前块的控制点处的运动矢量确定所述仿射模型的参数,所述仿射模型用于在所述当前块和已经被重建的参考图片中的参考块之间进行变换;以及
重建模块,用于基于所述仿射模型重建所述当前块的至少一个样本。
本申请实施例提供一种视频解码装置,包括:
解码模块,用于从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示仿射模型;
确定模块,用于基于所述当前块的形状确定所述当前块中的控制点,并且基于在所述控制点的运动矢量信息确定所述仿射模型的参数;以及
重建模块,用于基于所述仿射模型重建所述当前块的至少一个样本。
本申请实施例提供一种计算机设备,包括处理器和存储器,所述存储器存储有机器可读指令,当所述机器可读指令被所述处理器执行时,使所述处理器执行本申请任一实施例所述的视频解码方法。
本申请的实施例也提供一种非暂时性计算机可读介质,其上存储有指令,当所述指令被计算机执行时使所述计算机执行本申请任一实施例所述的视频解码方法。
从上述技术方案可以看出,本申请实施例提出了仿射合并模式或仿射AMVP模式的仿射模型参数的推导方法。来自相邻块的两个底部角控制点的MV用于推导出4参数仿射模型,该模型用于预测当前块的仿射参数。在第二种方法中,提出了形状相关的控制点的选择。应用本申请实施例,可提高视频解码准确率及视频解码的效率。
附图的简要说明
根据以下详细描述和附图,本申请的主题的另外的特征、性质,以及各种优点将更明显,在附图中:
图1是在一个示例中的当前块和其周围的空间合并候选的示意图;
图2是根据实施例的通信系统的简化框图的示意图;
图3是根据另一实施例的通信系统的简化框图的示意图;
图4是根据实施例的解码器的简化框图的示意图;
图5是根据实施例的编码器的简化框图的示意图;
图6示出根据另一个实施例的编码器的框图;
图7示出根据另一个实施例的解码器的框图;
图8示出在一些示例中的空间候选和时间候选的示例;
图9示出具有仿射模型的块的示例;
图10示出根据一些实施例的仿射变换的示例;
图11示出根据本申请一些实施例的当前块以及当前块的两个控制点CP0和CP1的图;
图12示出根据本申请实施例的仿射模式中的运动矢量预测的图;
图13示出根据本申请实施例的仿射模式中的运动矢量预测的另一个图;
图14A和14B示出用于复杂合并模式的候选位置;
图15A和15B示出根据本申请一些实施例的用于仿射模型的控制点的基于形状的选择的示例;
图16示出用于形状相关的仿射AMVP模式的语法结构的伪代码的示例;
图17A示出根据本申请实施例的概述处理示例的流程图;
图17B示出根据本申请实施例的视频解码装置的结构示意图;
图17C示出根据本申请另一实施例的视频解码装置的结构示意图;
图17D示出根据本申请另一实施例的视频解码装置的结构示意图;
图18是根据实施例的计算机系统的示意图。
具体实施方式
H.265/HEVC(ITU-T H.265建议书,“高效视频编解码(High Efficiency VideoCoding)”,2016年12月)中描述了各种MV预测机制。在H.265提供的多种MV预测机制中,本申请描述的是下文称作“空间合并”的技术。
请参考图1,当前块(101)包括在运动搜索过程期间已由编码器发现的样本,根据已产生空间偏移的相同大小的先前块,可预测所述样本。另外,可从一个或多个参考图片相关联的元数据中导出所述MV,而非对MV直接编码。例如,使用关联于A0、A1和B0、B1、B2(分别对应102到106)五个周围样本中的任一样本的MV,(按解码次序)从最近的参考图片的元数据中导出所述MV。在H.265中,MV预测可使用相邻块也正在使用的相同参考图片的预测值。
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括多个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的终端装置(210)和终端装置(220)。在图2的实施例中,终端装置(210)和终端装置(220)执行单向数据传输。举例来说,终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到另一终端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的终端装置(230)和(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,终端装置(230)和终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码以通过网络(250)传输到终端装置(230)和终端装置(240)中的另一终端装置。终端装置(230)和终端装置(240)中的每个终端装置还可接收由终端装置(230)和终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本论述的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、条带、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余条带、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可传输附加数据和已编码的视频。此类数据可以是已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和条带等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于在频域中转换残差数据,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
本申请的实施例提供在仿射运动补偿中进行参数推导的技术。可以在帧间图片预测和帧内块复制模式中使用仿射运动补偿。
通常,可以以显式方式对块的运动矢量进行编码以将差值用信号通知给运动矢量预测值(例如,高级运动矢量预测或AMVP模式);或以隐含的方式对块的运动矢量进行编码以便其完全地从一个先前编码或生成的运动矢量被指示。后一种被称为合并模式,意指通过使用其运动信息将当前块合并到先前编码的块中。
AMVP模式和合并模式两者在解码期间构建候选列表。
图8示出在一些示例中的空间和时间候选的示例。
对于帧间预测中的合并模式,主要通过从当前块的空间或时间邻近块任一中检查运动信息来形成候选列表中的合并候选。在图8示例中,顺序地检查候选块A1、B1、B0、A0和B2。当任何候选块是有效的候选——例如利用运动矢量被编码时,然后,可以将有效候选块的运动信息添加到合并候选列表中。执行一些修剪操作以保证重复的候选不被再次输入到列表中。候选块A1、B1、B0、A0和B2与当前块的角相邻,并且被称为角候选。
在空间候选之后,也将时间候选检查到列表中。在一些示例中,找出指定的参考图片中的当前块的共置的块。在共置的块的C0位置(当前块的右下角)的运动信息将被用作时间合并候选。如果在该位置的块没有在帧间模式中被编码或不可用,则改为使用C1位置(在共置的块的中心的外部的右下角)。本申请提供进一步改善合并模式的技术。
根据本申请的实施例,例如通过描述用于编码块的6参数(或简化的4参数)仿射模型,仿射运动补偿可以高效地预测用于当前块内的样本的运动信息。更具体地,在仿射编码或描述的编码块中,样本的不同的部分可以具有不同的运动矢量。在仿射编码或描述的块中具有运动矢量的基本单元被称为子块。子块的尺寸最小可以为1个样本,并且最大可以与当前块的尺寸一样大。
当确定了仿射模式时,对于当前块中的每个样本,可以使用这样的模型(例如,6参数仿射模型或4参数仿射模型)推导出其运动矢量(相对于目标参考图片)。为了减少实施复杂度,逐子块地而非逐样本地执行仿射运动补偿。这意味着,每个子块将推导出其运动矢量,并且对于每个子块中的样本,运动矢量是相同的。假定每个子块的特定位置(诸如子块的左上或中心点)为代表性位置。在一个示例中,这样的子块尺寸包含4×4个样本。
通常,仿射模型具有6个参数用于描述块的运动信息。在仿射变换之后,矩形块将变为平行四边形。在示例中,可以通过块的三个不同的位置的3个运动矢量表示仿射编码块的6个参数。
图9示出具有仿射模型的块(900)的示例。块(900)使用三个角位置A、B和C的运动矢量
Figure BDA0002123242020000171
Figure BDA0002123242020000172
描述用于块(900)的仿射模型的运动信息。这些位置A、B和C被称为控制点。
在简化示例中,基于在仿射变换之后块的形状不改变的假定,仿射模型使用4个参数描述块的运动信息。因此,在变换之后,矩形块将保持矩形以及相同的长宽比(例如,高度/宽度)。可以通过两个不同位置(诸如角位置A和B)的两个运动矢量来表示这样的块的仿射模型。
图10示出用于6参数仿射模式(使用6参数仿射模型)和4参数仿射模式(使用4参数仿射模型)的仿射变换的示例。
根据本申请的实施例,当使用仿射运动补偿时,可以使用两种信令技术。在合并模式中使用第一信令技术,并且在残差模式或高级的运动矢量预测(AMVP)模式中使用第二信令技术。
在合并模式中,从先前仿射已编码块预测当前块的仿射信息。各种技术可以用于预测仿射信息。在第一实施例中,假定参考块和当前块是同一仿射对象,使得可以从参考块的模型(例如,参考块的对应点)推导出在当前块的控制点的运动矢量(MV)。此外,以与从一个控制点到参考块中的另一个控制点相同的方式线性地修改在当前块的其它位置的MV。在第一实施例中使用的技术被称为基于模型的仿射预测。
在第二实施例中,将邻近块的运动矢量直接用作当前块的控制点的运动矢量。然后,使用来自控制点的信息生成块的其余的运动矢量。在第二实施例中使用的技术被称为基于控制点的仿射预测。
在合并模式中,在第一实施例和第二实施例任一中,不用信号通知当前块的MV的残差分量。MV的残差分量被假定为零。
在残差模式(或AMVP模式)中,可以预测当前块的控制点的仿射参数或者MV。在实施例中,因为被预测的运动矢量不止一个,所以以分组方式对用于所有控制点的运动矢量的候选列表进行组织,使得候选列表中的每个候选包括用于所有控制点的运动矢量预测值的集合。例如,候选1={用于控制点A的预测值1A、用于控制点B的预测值1B、用于控制点C的预测值1C};候选2={用于控制点A的预测值2A、用于控制点B的预测值2B、用于控制点C的预测值2C},等等。用于不同的候选中的相同的控制点的预测值(例如,预测值1A和预测值2A)可以是相同的或不同的。运动矢量预测值标志(用于列表0的mvp_l0_flag或用于列表1的mvp_l1_flag)将用于指示选择列表中的哪个候选。在预测之后,将用信号通知参数的残差部分(例如,参数与由预测值预测的参数的差值),或者控制点的MV的差值(例如,MV与由MV预测值预测的MV的差值)。使用对于(仿射)合并模式的以上描述中所描述的技术,每个控制点的MV预测值也可以来自其邻居之一的基于模型的仿射预测。
在一些实施例中,对于在仿射模式中被编码的块,一旦确定了仿射模型的参数,例如决定了控制点的MV,就可以使用仿射模型计算用于块的其余位置的MV。
例如,使用4参数仿射模型在(公式1)中示出当前块中的位置(x,y)与参考图片中的对应的位置(x’,y’)之间的像素对应。在(公式1)中,ρ是用于缩放的缩放系数,θ是用于旋转的角度因子,并且(c,f)是描述平移运动的运动矢量。四个参数是ρ,θ,c和f。
Figure BDA0002123242020000191
在实施例中,对于当前块中的任意位置(x,y),其指向参考图片的运动矢量可以通过使用(公式1)得出所述参考图片中的对应像素的对应位置(x’,y’)来确定。在实施例中,用于位置(x,y)的运动矢量MV0是MV0=(x’-x,y’-y)。在示例中,通过将整体块(当前块)划分到最小单元的阵列中来执行仿射补偿。单元(例如,最小单元)内的像素共用相同的运动矢量。通过使用诸如左上像素、单元的中心等等的单元中的所选择的位置(表示位置)来确定每个单元(例如,最小单元)的位置。用于仿射补偿的最小单元的尺寸可以是1个像素、4×4个像素、M×N个像素,M和N是正整数,等等。
在一些示例中,当前块被划分为子块。在子块中,选择位置,并且用于所选择的位置的运动矢量被称为子块的运动矢量场(MVF)。在示例中,子块是用于仿射补偿的最小单元。可以基于当前块的控制点的运动矢量确定子块的MVF。
图11示出根据本申请的一些实施例的当前块以及当前块的两个控制点CP0和CP1的图。在图11示例中,CP0是位于当前块的左上角的控制点,并且具有运动矢量V0=(v0x,v0y),并且CP1是位于当前块的右上角的控制点,并且具有运动矢量V1=(v1x,v1y)。
在图11示例中,当用于子块的所选择的位置是(x,y)((x,y)是当前块的左上角的相对位置)时,那么子块的MVF是V=(vx,vy),并且可以使用(公式2)来计算:
Figure BDA0002123242020000192
其中w表示当前块(例如,当前块具有正方形形状)的宽度和高度。
请注意,其它适当的位置可以被选作控制点,并且当前块内部的任意位置的运动矢量的推导可以如在(公式2)中类似地被表示。在示例中,底部两个角被用作控制点CP2和CP3。CP2是位于当前块的左下角的控制点,并且具有运动矢量V2=(v2x,v2y),并且CP3是位于当前块的右下角的控制点,并且具有运动矢量V3=(v3x,v3y)。然后,可以使用(公式3)来计算位置(x,y)((x,y)是当前块的左上角的相对位置)的运动矢量V=(vx,vy):
Figure BDA0002123242020000201
根据本申请的实施例,使用来自多个邻近仿射已编码块的任一基于模型的仿射预测,或者使用来自多个邻近MV的基于多个控制点的仿射合并,各种技术可以用于生成用于当前块的仿射预测值。
图12示出根据本申请的实施例的仿射模式中的运动矢量预测的图。图12示出可以被选作控制点CP0、CP1和CP2的三个角。CP0是位于当前块的左上角的控制点,并且具有运动矢量v0=(v0x,v0y),CP1是位于当前块的右上角的控制点,并且具有运动矢量v1=(v1x,v1y),并且CP2是位于当前块的左下角的控制点,并且具有运动矢量v2=(v2x,v2y)。
在实施例中,在仿射AMVP模式中,使用一对控制点{CP0,CP1},并且使用邻近块来构造具有运动矢量对{CP0,CP1}的候选列表。例如,通过{(v0,v1)|v0={vB2,vB3,vA2},v1={vB1,vB0}}来表示候选列表。如图12中所示,v0是从块B2、B3或A2的运动矢量中选择的。根据参考列表和用于邻近块的参考的POC、用于当前CU的参考的POC以及当前CU的POC之间的关系来缩放来自邻近块的运动矢量。类似地,v1是从邻近块B1和B0的运动矢量中选择的。在示例中,如果候选列表中的候选的数量小于2,则通过复制每一个AMVP候选所构成的运动矢量对来填充候选列表。例如,在v1={vB1,vB0}中,如果vB0是不可用的,则{CP0,CP1}对中的每个CP1将使用vB1。在另一个示例中,当候选列表中的候选的数量大于2时,首先根据邻近运动矢量的一致性(例如,一对候选中的两个运动矢量的相似性)对候选进行排序并且前两个候选被保持。在一些示例中,在编码器侧,率失真(RD)代价检查用于确定选择哪个运动矢量对候选作为用于当前块的控制点的运动矢量预测值(MVP)。此外,在已编码视频码流中用信号通知指示控制点的所选择的MVP在候选列表中的位置的索引。在确定用于当前仿射块的控制点的MVP之后,应用仿射运动估计并且找出控制点的运动矢量。然后,在已编码视频码流中用信号通知控制点的MV和控制点的MVP之间的差值。
请注意,在解码器侧,以与在编码器侧类似的方式构造候选列表。此外,解码器从已编码视频码流中解码指示控制点的所选择的MVP在候选列表中的位置的索引并且解码控制点的MVP和MV之间的差值。基于控制点的MVP和该差值,解码器确定控制点的MV。
在另一个实施例中,使用被称为基于模型的仿射合并的技术。例如,当在块中应用仿射合并模式时,检查来自有效邻近重建块的候选块以选择利用仿射模式编码的块。例如,将利用仿射模式编码的第一块选为合并候选块。
根据选择顺序对第一块进行选择。在示例中,用于候选块的选择顺序是从左、上方、右上、左下到左上,诸如在图12示例中的顺序{A1、B1、B0、A0、B2}。请注意,可以使用其它适当的选择顺序。例如,在仿射模式中对如图12中所示的左邻近块A1进行编码。左邻近块A1位于编码单元N1中。然后,推导出诸如在编码单元N1的左上角、右上角和左下角的CP1A1、CP2A1、CP3A1等控制点的运动矢量。然后,在示例中,根据CP1A1、CP2A1和CP3A1的运动矢量计算当前CU(或当前块)的左上控制点(CP0)的运动矢量。进一步地,根据CP1A1、CP2A1和CP3A1的运动矢量计算当前CU(或当前块)的右上控制点(CP1)的运动矢量。
在示例中根据简化的仿射运动模型推导出当前CU的控制点CP0和CP1的MV之后,可以例如根据(公式2)计算当前CU的MVF。在实施例中,当在仿射模式中对当前CU的至少一个邻近块进行编码时,编码器在已编码视频码流中用信号通知仿射标志以便标识当前CU是否是利用仿射合并模式编码的。在解码器侧,解码器可以从已编码视频码流中解码仿射标志,并且基于仿射标志确定当前块是否以仿射合并模式编码。
图13示出根据本申请实施例的仿射模式中的运动矢量预测的另一个图。在图13示例中,当前块处于CTU上边界。因此,一些邻近块(诸如上邻近块N2和N3等等)位于不同的CTU中。在示例中,如在图13中所示的邻近块B2以仿射模式编码并且被选择。邻近块B2位于编码单元N2中。然后,推导出诸如在编码单元N2的左上角、右上角和左下角的CP1B2、CP2B2和CP3B2之类的控制点的运动矢量。然后,在示例中,根据CP1B2、CP2B2和CP3B2的运动矢量计算当前CU(或当前块)的左上控制点(CP0)的运动矢量。进一步地,根据CP1B2、CP2B2和CP3B2的运动矢量计算当前CU(或当前块)的右上控制点(CP1)的运动矢量。
在一些示例中,如图13中所示当当前块处于CTU上边界时,邻近块的运动信息被保存在行缓冲区中。在示例中,行缓冲区保存用于邻近块的控制点的所有MV的信息和对应的块尺寸,因此行缓冲区具有相对大的尺寸。
在另一个实施例中,可以使用基于多个控制点的仿射合并。基于多个控制点的仿射合并被称为复杂合并模式。
图14A和14B示出用于复杂合并模式的候选位置。图14A示出用于复杂合并模式的空间候选的位置,并且图14B示出用于复杂合并模式的时间候选的位置。
在复杂合并模式中,需要数个控制点确定运动模型。在复杂合并模式的第一步中,确定控制点的候选。在图14A和14B中示出预测控制点的候选。CPk表示第k控制点。例如,控制点CP1、CP2、CP3和CP4位于当前块的角处。在图14A-14B示例中,CP1是位于当前块的左上角的控制点、CP2是位于当前块的右上角的控制点、CP3是位于当前块的左下角的控制点,并且CP4是位于当前块的右下角的控制点。图14A示出用于预测CP1、CP2和CP3的运动信息的空间候选。图14B示出用于预测CP4的运动信息的时间候选的位置。具体地,用于预测CP1的运动信息的空间候选被示为B2、A2和B3,用于预测CP2的运动信息的空间候选被示为B0和B1,并且用于预测CP3的运动信息的空间候选被示为A0和A1。用于预测CP4的运动信息的时间候选被示为TRb
在一些示例中,控制点具有多个候选,并且根据优先级顺序从候选中确定控制点的运动信息。例如,对于CP1,用于检查的优先级顺序是B2、A2、然后B3;对于CP2,用于检查的优先级顺序是B0然后B1;对于CP3,用于检查的优先级顺序是A0然后A1;对于CP4,使用TRb
控制点然后用于创建候选模型列表。可以基于诸如CP1、CP2、CP3和CP4之类的控制点的子集创建各种模型。例如,可以创建11个模型。第一模型是使用两个控制点(CP2,CP3)创建的仿射模型;第二模型是使用两个控制点(CP1,CP3)创建的仿射模型;第三模型是使用三个控制点(CP1,CP2,CP3)创建的仿射模型;第四模型是使用两个控制点(CP1,CP2)创建的仿射模型;第五模型是使用两个控制点(CP2,CP4)创建的仿射模型;第六模型是使用两个控制点(CP3,CP4)创建的仿射模型;第七模型是使用两个控制点(CP1,CP4)创建的仿射模型;第八模型是双线性模型;第九模型是使用三个控制点(CP1,CP2,CP4)创建的仿射模型;第十模型是使用三个控制点(CP2,CP3,CP4)创建的仿射模型;第十一模型是使用三个控制点(CP1,CP3,CP4)创建的仿射模型。
根据顺序(诸如从第一模型到第十一模型的顺序)创建候选模型列表。例如,当用于模型的所选择的控制点的运动信息可被推导出并且在至少一个参考图片列表(例如L0或L1)中不相同时,该模型可以作为候选模型之一被输入到候选模型列表中。在示例中,编码器将用于候选模型列表中的模型的索引编码在已编码视频流中,在编码器侧使用该模型进行复杂合并模式的预测。可以使用等长度二值化将索引编码为3个二进制比特。在解码器侧,解码器从已编码视频码流中的3个二进制比特解码复杂合并索引。解码器开始处理以创建候选模型列表。当将被输入到候选模型列表中的模型的候选索引等于已解码的复杂合并索引时,处理停止,并且解码器确定该模型是编码器使用的相同的模型。
在另一个实施例中,基于当前块的形状选择控制点的技术可被使用。用于块的控制点可以来自许多可能位置。当使用4参数仿射模型时,通常块的顶部的两个角被用作控制点。可以基于当前块的形状确定对控制点的选择。
图15A和15B示出根据本申请一些实施例的用于仿射模型的基于形状选择控制点的示例。图15A示出块A。块A的宽度大于或等于块A的高度。在图15A示例中,被示为P0和P1的顶部两个角被用作控制点,并且在示例中推导出在位置P0和P1的运动矢量。
图15B示出块B。块B的宽度小于块B的高度。在图15B示例中,被示为P0和P2的左上角和左下角被用作控制点,并且在示例中推导出在位置P0和P2的运动矢量。
在有关的示例中,对于以仿射模式编码的当前块,并且其仿射模型是使用4参数仿射模型从邻近仿射已编码块继承而来,则邻近块的顶部两个角的控制点MV用于推导出当前块的仿射模型参数和控制点的MV。在图13示例中,当当前块被合并到包含B2的邻近块N2中时,顶部角控制点CP1B2和CP2B2的运动信息(例如运动矢量)用于推导出当前块中的控制点CP0和CP1(并且如果是6参数则还有CP2)的MV。在另一个示例中,当当前块被合并到包含A1的邻近块N1中时,顶部角控制点CP1A1和CP2A1的运动信息(例如运动矢量)用于推导出当前块中的控制点CP0和CP1(并且如果是6参数则还有CP2)的MV。
当邻近仿射已编码块(例如,邻近块N2)是当前块的上邻近块,并且该邻近仿射已编码块位于顶部CTU行(意指当前块顶部的不同的CTU行)中时,则使用顶部两个角的控制点(例如,CP1B2和CP2B2)可能要求行缓冲区足够大以存储来自上邻近块的顶部角的运动信息。在一些实施例中,当邻近块(例如,邻近块N2)位于顶部CTU行中时,底部两个控制点(CP3B2和CP4B2)的MV用于推导出用于当前块的仿射模型参数和控制点MV。
本申请的实施例提供以一致方式从邻近块推导出仿射参数的技术,无论邻近块中是6参数仿射模型还是4参数仿射模型、邻近块是位于顶部CTU行还是在当前CTU行内部还是来自左侧CTU,等等。该技术推导出用于仿射合并模式或仿射AMVP模式的仿射模型参数。在一些实施例中,来自邻近块中的底部两个角控制点的MV用于推导出4参数仿射模型,并且该4参数仿射模型用于预测当前块的仿射参数。在其它实施例中,对控制点的选择取决于当前块的形状。在下面描述中,尽管以仿射合并模式为例,但类似的技术也可以被应用于仿射AMVP模式中的控制点MVP候选的推导。
在一些实施例中,当从作为仿射已编码块的邻近块推导出当前块的控制点的运动矢量时,在邻近块的底部两个角的控制点的运动矢量用于推导出用于当前块的仿射参数或控制点MV。在实施例中,无论当前块是以4参数仿射模型还是6参数仿射模型编码,在邻近块的底部两个角的控制点的运动矢量用于推导出用于当前块的仿射参数或控制点MV。在另一个实施例中,当在4参数仿射模型中对当前块进行编码时,在邻近块的底部两个角的控制点的运动矢量用于推导出用于当前块的仿射参数或控制点MV。
在另一个实施例中,无论邻近块是以4参数仿射模型还是6参数仿射模型编码,在邻近块的底部两个角的控制点的运动矢量用于推导出用于当前块的仿射参数或控制点MV。在另一个实施例中,当在4参数仿射模型中对邻近块进行编码时,在邻近块的底部两个角的控制点的运动矢量用于推导出用于当前块的仿射参数或控制点MV。
在一些实施例中,顶部CTU行中的行缓冲区缓冲在顶部CTU行中的块(例如,当前块的上邻近块)的底部两个角的运动矢量,并且不缓冲那些块的顶部角的运动矢量。
请注意,当使用底部两个控制点时,可以通过4参数仿射模型、使用(公式2)或(公式3)推导出当前块的CP点(2个控制点或3个控制点)的运动矢量。
在图13示例中,当前块位于CTU边界,并且诸如邻近块N2的上邻近块与当前块位于不同的CTU行中。例如,邻近块N2位于CTU行R(R是正整数),并且当前块位于CTU行R+1。行缓冲区缓冲两个底部控制点CP3B2和CP4B2的运动矢量。在示例中,行缓冲区不缓冲邻近块N2的顶部角的控制点CP1B2和CP2B2的运动矢量。当当前块被合并到包含B2的邻近块N2中时,则底部两个控制点CP3B2和CP4B2用于推导出当前块中的控制点CP0和CP1(并且当在当前块中使用6参数仿射模型时,还有CP2)的MV。
在另一个示例中,当当前块被合并到包含A1的邻近块N1中时,则底部两个控制点CP3A1和CP4A1用于推导出当前块中的控制点CP0和CP1(并且如果是6参数则还有CP2)的MV。例如,底部两个控制点CP3A1和CP4A1的运动矢量被缓冲,并且可被用于推导出当前块中的控制点CP0和CP1(并且如果是6参数则还有CP2)的MV通过例如使用(公式2)或(公式3)。
在一些实施例中,基于当前块的形状选择控制点,并且从基于当前块的形状选择的控制点推导出当前块的仿射模型。
在实施例中,当当前块的宽度等于当前块的高度时,使用6参数仿射模型。在示例中,左上角、右上角和左下角用于推导出6参数仿射模型。在另一个示例中,右上角、左下角和右下角用于推导出6参数仿射模型。
在实施例中,当块的宽度大于块的高度时,使用4参数仿射模型,并且选择当前块的顶部两个角作为控制点推导出4参数仿射模型。
在实施例中,当块的宽度小于块的高度时,使用4参数仿射模型,并且选择当前块的左边两个角作为控制点推导出4参数仿射模型。
根据本申请的实施例,在仿射AMVP模式的上下文中,对于所选择的控制点生成MV预测。计算每个控制点的MV差值并且该差值在编码器侧被进一步编码进已编码视频码流中。在解码器侧,为所选择的控制点生成MV预测,从已编码视频码流中解码每个控制点的MV差值,并且然后可以基于MV预测和MV差值确定控制点的MV。
图16示出用于形状相关的仿射AMVP模式的语法结构的伪代码的示例。图16中的示例使用列表0中的单向预测以及可切换的4/6参数仿射模型。语法结构也可以被适当地扩展到双向预测。
图17A示出根据本申请实施例的概述处理(1700)的流程图。处理(1700)可被用于重建以帧内模式编码的块,从而生成重建块的预测块。在各个实施例中,处理(1700)可被处理电路执行,诸如终端设备(210)、(220)、(230)和(240)中的处理电路、执行视频编码器(303)的功能的处理电路、执行视频解码器(310)的功能的处理电路、执行视频解码器(410)的功能的处理电路、执行帧内预测模块(452)的功能的处理电路、执行视频编码器(503)的功能的处理电路、执行预测器(535)的功能的处理电路、执行帧内编码器(622)的功能的处理电路、执行帧内解码器(772)的功能的处理电路,等等。在一些实施例中,以软件指令实施处理(1700),因此当处理电路执行软件指令时,处理电路执行处理(1700)。处理开始于(S1701)并且继续到(S1710)。
在(S1710),从已编码视频码流解码当前块的预测信息。该预测信息指示合并模式中的仿射模型。
在(S1720),获取诸如与当前块相邻的邻近块的底部角的两个控制点之类的底部位置的运动信息。在示例中,邻近块与当前块位于不同的CTU行,例如当前块上方的CTU行。邻近块的运动信息被存储在行缓冲区中。当非底部位置(例如,邻近块的顶部角的控制点)的运动信息不需要用于确定仿射模型时,行缓冲区不需要存储非底部位置的运动信息。于是,行缓冲区的尺寸可以被减小以节省成本。
在(S1730),基于邻近块中的底部位置的运动信息确定仿射模型的参数。例如,可以使用(公式2)或(公式3)从邻近块的底部两个控制点的运动矢量推导出当前块的控制点的运动矢量。
在(S1740),根据仿射模型重建块的样本。在示例中,根据仿射模型确定对应于块中的像素的参考图片中的参考像素。进一步地,根据参考图片中的参考像素重建块中的像素。然后,处理继续到(S1799)并且结束。
图17B示出根据本申请实施例的视频解码装置的结构示意图。如图17B所示,该视频解码装置包括:
第一解码模块1701,用于从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示合并模式中的仿射模型;
第一获取模块1702,用于获取与所述当前图片中的所述当前块相邻的邻近块中的底部角位置的运动信息;
第一确定模块1703,用于基于所述邻近块中的底部角位置的运动信息确定所述当前块的控制点处的运动矢量,并且基于所述确定的当前块的控制点处的运动矢量确定所述仿射模型的参数,所述仿射模型用于在所述当前块和已经被重建的参考图片中的参考块之间进行变换;以及
第一重建模块1704,用于基于所述仿射模型重建所述当前块的至少一个样本。
在本申请另一实施例中,如图17C所示,该视频解码装置进一步包括:
第二获取模块1705,用于当所述邻近块和所述当前块在不同的编码树单元CTU行中时,从行缓冲区中获取所述邻近块中的两个底部角位置的特定运动矢量,所述行缓冲区中包括当前块上方的CTU行中的块的底部角位置的运动矢量。
所述行缓冲区被配置为不缓冲当前块上方的CTU行中的非底部位置的运动矢量。
如图17C所示,该视频解码装置进一步包括:
第三获取模块1706,用于当所述邻近块与所述当前块的左边缘相邻时,从所述缓冲器中获取所述邻近块中的两个底部角位置的特定运动矢量。
如图17C所示,该视频解码装置进一步包括:
第二确定模块1707,用于基于所述邻近块中的底部位置的运动信息确定当前块的控制点的运动矢量;以及
第三确定模块1708,用于基于所述当前块的控制点的运动矢量确定所述仿射模型的所述参数。
如图17C所示,该视频解码装置进一步包括:
第四确定模块1709,用于确定所述运动矢量为基于所述邻近块中的底部位置的运动信息生成的运动矢量预测。
图17D示出根据本申请另一实施例的视频解码装置的结构示意图。如图17D所示,该视频解码装置包括:
第二解码模块1710,用于从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示仿射模型;
第五确定模块1711,用于基于所述当前块的形状确定所述当前块中的控制点,并且基于在所述控制点的运动矢量信息确定所述仿射模型的参数;以及
第二重建模块1712,用于基于所述仿射模型重建所述当前块的至少一个样本。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图18示出了适于实现所公开主题的某些实施例的计算机系统(1800)。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU)、图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图18所示的用于计算机系统(1800)的组件本质上是示例性的,并且不旨在对实现本申请的实施例的计算机软件的使用范围或功能提出任何限制。也不应将组件的配置解释为对计算机系统(1800)的示范性实施例中所说明的组件中的任一者或组合具有任何依赖性或要求。
计算机系统(1800)可以包括某些人机界面输入设备。所述人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出)对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕捉不必直接与人类有意识输入相关的某些媒体,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(仅描绘其中一个):键盘(1801)、鼠标(1802)、触控板(1803)、触摸屏(1810)、数据手套(未示出)、操纵杆(1805)、麦克风(1806)、扫描仪(1807)、照相机(1808)。
计算机系统(1800)还可以包括某些人机界面输出设备。所述人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。所述人机界面输出设备可包括触觉输出设备(例如通过触摸屏(1810)、数据手套(未示出)或操纵杆(1805)的触觉反馈,但也可有不是输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(1809)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(1810),其中每个都有或没有触摸屏输入功能、触觉反馈功能——其中一些可通过如立体图片输出等手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(1800)还可以包括人类可访问的存储设备及其相关联介质,如包括具有CD/DVD的CD/DVD ROM/RW(1820)等介质(1821)的光学介质、拇指驱动器(1822)、可移动硬盘驱动器或固态驱动器(1823)、如磁带和软盘(未示出)的传统磁介质、如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合本申请的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(1800)还可以包括到一个或多个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要连接到某些通用数据端口或外围总线(1849)(例如,计算机系统(1800)的USB端口)的外部网络接口适配器;其它系统通常通过连接到如下所述的系统总线集成到计算机系统(1800)的内核(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(1800)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
前述的人机界面设备、人类可访问存储设备和网络接口可以连接到计算机系统(1800)的内核(1840)。
内核(1840)可包括一个或多个中央处理单元(CPU)(1841)、图形处理单元(GPU)(1842)、以现场可编程门阵列(FPGA)(1843)形式存在的专用可编程处理单元、用于特定任务的硬件加速器(1844)等。上述设备以及只读存储器(ROM)(1845)、随机存取存储器(1846)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、SSD等)(1847)等可通过系统总线(1848)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(1848),以便通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到内核的系统总线(1848),或通过外围总线(1849)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(1841)、GPU(1842)、FPGA(1843)和加速器(1844)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(1845)或RAM(1846)中。过渡数据也可以存储在RAM(1846)中,而永久数据可以存储在例如内部大容量存储器(1847)中。通过使用高速缓存可实现对任何存储器设备的快速存储和检索,高速缓存可与一个或多个CPU(1841)、GPU(1842)、大容量存储器(1847)、ROM(1845)、RAM(1846)等紧密关联。
所述计算机可读介质上可具有用于执行各种计算机实现操作的计算机代码。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为示例而非限制,具有体系结构(1800)的计算机系统,特别是内核(1840),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供功能,执行包含在一个或多个有形的计算机可读介质中的软件。这种计算机可读介质可以是与如上所述的用户可访问的大容量存储器相关联的介质,以及具有非瞬时性质的内核(1840)的特定存储器,诸如内核内部大容量存储器(1847)或ROM(1845)。实现本申请的各种实施例的软件可以存储在这种设备中并且由内核(1840)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得内核(1840)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(1846)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其他方式包含在电路(例如,加速器(1844))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录:首字母缩略词
JEM:joint exploration model联合开发模型
VVC:versatile video coding通用视频编码
BMS:benchmark set基准集
MV:Motion Vector运动矢量
HEVC:High Efficiency Video Coding高效视频编码
SEI:Supplementary Enhancement Information补充增强信息
VUI:Video Usability Information视频可用性信息
GOP:Groups of Pictures图片组
TU:Transform Unit变换单元
PU:Prediction Unit预测单元
CTU:Coding Tree Unit编码树单元
CTB:Coding Tree Block编码树块
PB:Prediction Block预测块
HRD:Hypothetical Reference Decoder假定参考解码器
SNR:Signal Noise Ratio信噪比
CPU:Central Processing Unit中央处理单元
GPU:Graphics Processing Unit图形处理单元
CRT:Cathode Ray Tube阴极射线管
LCD:Liquid-Crystal Display液晶显示器
OLED:Organic Light-Emitting Diode有机发光二极管
CD:Compact Disc光碟
DVD:Digital Video Disc数字视频盘
ROM:Read-Only Memory只读存储器
RAM:Random Access Memory随机存取存储器
ASIC:Application-Specific Integrated Circuit专用集成电路
PLD:Programmable Logic Device可编程逻辑设备
LAN:Local Area Network局域网
GSM:Global System for Mobile communications全球移动通信系统
LTE:Long-Term Evolution长期演进
CAN总线:Controller Area Network Bus控制器局域网总线
USB:Universal Serial Bus通用串行总线
PCI:Peripheral Component Interconnect外部组件互联
FPGA:Field Programmable Gate Arrays现场可编程门阵列
SSD:solid-state drive固态驱动
IC:Integrated Circuit集成电路
CU:Coding Unit编码单元
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、置换和各种替代属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。

Claims (16)

1.一种视频解码方法,其特征在于,包括:
从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示合并模式中的仿射模型;
获取与所述当前图片中的所述当前块相邻的邻近块中的底部角位置的运动信息;
基于所述邻近块中的底部角位置的运动信息确定所述当前块的控制点处的运动矢量;
基于所述确定的当前块的控制点处的运动矢量确定所述仿射模型的参数,所述仿射模型用于在所述当前块和已经被重建的参考图片中的参考块之间进行变换;以及
基于所述仿射模型重建所述当前块的至少一个样本。
2.根据权利要求1所述的方法,其特征在于,进一步包括:
当所述邻近块和所述当前块在不同的编码树单元CTU行中时,从行缓冲区中获取所述邻近块中的两个底部角位置的特定运动矢量,所述行缓冲区中包括当前块上方的CTU行中的块的底部角位置的运动矢量。
3.根据权利要求2所述的方法,其特征在于,所述行缓冲区不缓冲当前块上方的CTU行中的非底部位置的运动矢量。
4.根据权利要求1所述的方法,其特征在于,进一步包括:
当所述邻近块与所述当前块的左边缘相邻时,从缓冲器中获取所述邻近块中的两个底部角位置的特定运动矢量。
5.根据权利要求1所述的方法,其特征在于,进一步包括:
基于所述邻近块中的底部位置的运动信息确定当前块的控制点的运动矢量;以及
基于所述当前块的控制点的运动矢量确定所述仿射模型的所述参数。
6.根据权利要求5所述的方法,其特征在于,进一步包括:
确定所述运动矢量为基于所述邻近块中的底部位置的运动信息生成的运动矢量预测。
7.根据权利要求5所述的方法,其特征在于,进一步包括:
基于所述邻近块中的底部位置的运动信息生成运动矢量预测;
从已编码视频码流中解码残差;以及
将所述运动矢量预测与所述残差组合以确定所述当前块的控制点的所述运动矢量。
8.根据权利要求5所述的方法,其特征在于,进一步包括:
基于所述邻近块中的底部位置的运动信息确定所述当前块的两个控制点的运动矢量;以及
基于所述邻近块中的两个控制点的运动矢量确定4参数仿射模型的参数。
9.根据权利要求5所述的方法,其特征在于,进一步包括:
基于所述邻近块中的底部位置的运动信息确定所述当前块的三个控制点的运动矢量;以及
基于所述邻近块中的三个控制点的运动矢量确定6参数仿射模型的参数。
10.一种视频解码方法,其特征在于,包括:
从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示仿射模型;
基于所述当前块的形状确定所述当前块中的控制点;
基于在所述控制点的运动矢量信息确定所述仿射模型的参数;以及
基于所述仿射模型重建所述当前块的至少一个样本。
11.根据权利要求10所述的方法,其特征在于,进一步包括:
当所述当前块具有正方形形状时,选择左上角、右上角和左下角作为所述控制点。
12.根据权利要求10所述的方法,其特征在于,进一步包括:
选择在所述当前块的较长侧的角作为所述控制点。
13.一种视频解码装置,其特征在于,包括:
解码模块,用于从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示合并模式中的仿射模型;
获取模块,用于获取与所述当前图片中的所述当前块相邻的邻近块中的底部角位置的运动信息;
确定模块,用于基于所述邻近块中的底部角位置的运动信息确定所述当前块的控制点处的运动矢量,并且基于所述确定的当前块的控制点处的运动矢量确定所述仿射模型的参数,所述仿射模型用于在所述当前块和已经被重建的参考图片中的参考块之间进行变换;以及
重建模块,用于基于所述仿射模型重建所述当前块的至少一个样本。
14.一种视频解码装置,其特征在于,包括:
解码模块,用于从已编码视频码流解码当前图片中的当前块的预测信息,所述预测信息指示仿射模型;
确定模块,用于基于所述当前块的形状确定所述当前块中的控制点,并且基于在所述控制点的运动矢量信息确定所述仿射模型的参数;以及
重建模块,用于基于所述仿射模型重建所述当前块的至少一个样本。
15.一种计算机设备,其特征在于,包括处理器和存储器,所述存储器存储有机器可读指令,当所述机器可读指令被所述处理器执行时,使所述处理器执行如权利要求1-12任一项所述的方法。
16.一种非暂时性计算机可读存储介质,其特征在于,其上存储有指令,当所述指令被计算机执行时,使所述计算机执行如权利要求1-12任一项所述的方法。
CN201910613792.2A 2018-07-16 2019-07-09 视频解码方法和装置、计算机设备、存储介质 Active CN110730353B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862698747P 2018-07-16 2018-07-16
US62/698,747 2018-07-16
US16/222,582 US10805624B2 (en) 2018-07-16 2018-12-17 Determination of parameters of an affine model
US16/222,582 2018-12-17

Publications (2)

Publication Number Publication Date
CN110730353A true CN110730353A (zh) 2020-01-24
CN110730353B CN110730353B (zh) 2023-03-17

Family

ID=69139824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910613792.2A Active CN110730353B (zh) 2018-07-16 2019-07-09 视频解码方法和装置、计算机设备、存储介质

Country Status (2)

Country Link
US (1) US10805624B2 (zh)
CN (1) CN110730353B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11057636B2 (en) 2018-09-17 2021-07-06 Qualcomm Incorporated Affine motion prediction
WO2020058954A1 (en) * 2018-09-23 2020-03-26 Beijing Bytedance Network Technology Co., Ltd. Representation of affine model
CN111083487A (zh) * 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 仿射模式的运动信息的存储
WO2020098803A1 (en) * 2018-11-15 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Harmonization between affine mode and other inter coding tools
US11159795B2 (en) * 2019-03-04 2021-10-26 Tencent America LLC Max transform size control
CN112804525B (zh) * 2021-04-07 2021-07-09 浙江华创视讯科技有限公司 Ibc模式帧内块拷贝预测方法、装置、介质及设备
US20230291908A1 (en) * 2022-02-04 2023-09-14 Tencent America LLC Affine estimation in pre-analysis of encoder

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017157259A1 (en) * 2016-03-15 2017-09-21 Mediatek Inc. Method and apparatus of video coding with affine motion compensation
US20180098063A1 (en) * 2016-10-05 2018-04-05 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
WO2018128379A1 (ko) * 2017-01-03 2018-07-12 엘지전자(주) 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8526495B2 (en) 2010-11-22 2013-09-03 Mediatek Singapore Pte. Ltd. Apparatus and method of constrained partition size for high efficiency video coding
US9049452B2 (en) 2011-01-25 2015-06-02 Mediatek Singapore Pte. Ltd. Method and apparatus for compressing coding unit in high efficiency video coding
CN103748877B (zh) 2011-08-17 2017-05-10 联发科技(新加坡)私人有限公司 帧内预测方法和装置
KR20240025714A (ko) * 2016-03-24 2024-02-27 엘지전자 주식회사 비디오 코딩 시스템에서 인터 예측 방법 및 장치
US10560712B2 (en) * 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US10694181B2 (en) * 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
US10701391B2 (en) * 2017-03-23 2020-06-30 Qualcomm Incorporated Motion vector difference (MVD) prediction
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US11877001B2 (en) * 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
US10462488B1 (en) * 2018-07-13 2019-10-29 Tencent America LLC Method and apparatus for video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017157259A1 (en) * 2016-03-15 2017-09-21 Mediatek Inc. Method and apparatus of video coding with affine motion compensation
US20180098063A1 (en) * 2016-10-05 2018-04-05 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
WO2018128379A1 (ko) * 2017-01-03 2018-07-12 엘지전자(주) 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINHUA ZHOU等: "Non-CE4: A study on the affine merge mode (JVET-K0052-V2)", 《NON-CE4: A STUDY ON THE AFFINE MERGE MODE (JVET-K0052-V2)》 *
YUWEN HE等: "CE4-related: Shape dependent control point selection for affine mode(JVET-K0335-V3)", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 11TH MEETING: LJUBLJANA, SI, 10–18 JULY 2018》 *

Also Published As

Publication number Publication date
US10805624B2 (en) 2020-10-13
CN110730353B (zh) 2023-03-17
US20200021840A1 (en) 2020-01-16

Similar Documents

Publication Publication Date Title
CN111903131B (zh) 用于解码器中的视频解码的方法、装置及计算机可读介质
CN110719483B (zh) 视频解码、编码方法和装置、计算机设备及存储介质
CN110719488B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN112703730B (zh) 视频编解码的方法、设备和存储介质
CN110944185B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN110730353B (zh) 视频解码方法和装置、计算机设备、存储介质
CN110730351B (zh) 视频解码的方法和装置、存储介质
CN110719469A (zh) 视频编解码方法、设备和存储介质
CN112806008B (zh) 视频解码方法、装置、计算机设备及存储介质
CN110876056B (zh) 视频解码的方法和装置、计算机设备及存储介质
CN110971902B (zh) 视频解码的方法和装置、计算机设备
CN112235581B (zh) 视频解码方法、装置、存储介质及电子设备
CN112655205A (zh) 仿射模型运动矢量的约束
CN113875234A (zh) 视频编解码的方法和装置
CN111971965A (zh) 视频编解码的方法和装置
CN113661703A (zh) 视频编解码的方法和装置
CN112789851A (zh) 视频编解码方法及装置
CN113632465A (zh) 发信号通知用于帧内图像块补偿的预测器候选列表尺寸的方法和装置
CN111316639A (zh) 用于子块运动矢量预测的方法和装置
CN114503570A (zh) 视频编解码的方法和装置
CN110582002B (zh) 视频解码方法、视频解码器及可读介质
CN113228631A (zh) 视频编解码的方法和装置
CN113348668A (zh) 在帧内块补偿中利用整数偏移进行块矢量预测的方法和装置
CN110730348B (zh) 视频解码方法和装置、计算机设备以及存储介质
CN113841412A (zh) 基于cu的插值滤波器选择的信令

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant