CN117956139A - 视频编解码的帧间预测方法及装置 - Google Patents

视频编解码的帧间预测方法及装置 Download PDF

Info

Publication number
CN117956139A
CN117956139A CN202410054753.4A CN202410054753A CN117956139A CN 117956139 A CN117956139 A CN 117956139A CN 202410054753 A CN202410054753 A CN 202410054753A CN 117956139 A CN117956139 A CN 117956139A
Authority
CN
China
Prior art keywords
block
sub
current
codec
merge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410054753.4A
Other languages
English (en)
Inventor
陈俊嘉
徐志玮
庄子德
陈庆晔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of CN117956139A publication Critical patent/CN117956139A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

公开了一种用于视频编解码的帧间预测的方法和装置。根据一种方法,对于小尺寸编解码单元,关闭子块运动向量预测模式。在另一种方法中,如果当前编解码单元的相邻参考块在根编解码单元区域中,则相邻参考块不用于导出合并候选者,或者根编解码单元的共享边界上的修改的相邻参考块用于导出当前块的合并候选。在又一方法中,为根编解码单元区域或合并估计区域内的子编解码单元导出共享子块合并候选列表。如果相邻参考块在与当前子编解码单元相同的合并估计区域内,则相邻参考块不用于导出共享子编解码单元合并列表的候选。

Description

视频编解码的帧间预测方法及装置
【相关申请的交叉引用】
本申请是要求如下申请的优先权:2018年08月17日提出的申请号为62/719,175的美国临时专利申请案、2018年10月03日提出的申请号为62/740,430的美国临时专利申请案、2018年10月06日提出的申请号为62/742,281的美国临时专利申请案和2018年10月11日提出的申请号为62/744,422的美国临时专利申请案。且上述列出的美国临时申请的内容以引用方式整体并入本文中。
【技术领域】
本发明涉及用于视频编解码的合并模式。特别地,本发明公开了通过对处理合并候选施加限制来提高硬件处理效率的技术。此外,公开了处理在根CU下或在共享区域内的子CU的共享候选列表中的子CU合并候选的技术。
【背景技术】
高效视频编解码(HEVC)标准是在ITU-T视频编解码专家组(VCEG)和ISO/IEC运动图像专家组(MPEG)标准化组织,并且尤其是在被称为视频编解码联合协作团队(JCT-VC)的联合视频项目下开发的。在HEVC中,一个切片被划分为多个编解码树单元(CTU)。在主配置文档(profile)中,CTU的最小和最大大小由序列参数集(SPS)中的语法元素指定。允许的CTU大小可以是8x8、16x16、32x32或64x64。对于每个切片,根据光栅扫描顺序处理切片内的CTU。
CTU进一步划分为多个编解码单元(CU)以适应各种局部特性。表示为编解码树的四叉树用于将CTU划分为多个CU。令CTU大小为MxM,其中M是64、32或16的值之一。CTU可以是单个CU(即,没有分裂)或者可以分成四个相同大小的较小单元(即,每个M/2xM/2),对应于编解码树的节点。如果单元是编解码树的叶节点,则单元成为CU。否则,可以迭代四叉树(split)分裂过程,直到节点的大小达到SPS(序列参数集)中指定的最小允许CU大小。该表示产生如图1中的编解码树(也称为划分树结构)120所指定的递归结构。图1中示出了CTU划分110,其中实线指示CU边界。是否使用图像间(时间)或图像内(空间)预测来编解码图像区域的决定是在CU级别进行的。由于最小CU大小可以是8x8,因此用于在不同基本预测类型之间切换的最小粒度是8x8。
此外,根据HEVC,可以将每个CU划分为一个或多个预测单元(PU)。PU与CU一起用作共享预测信息的基本代表块。在每个PU内部,应用相同的预测过程,并且基于PU将相关信息发送到解码器。可以根据PU分裂类型将CU分成一个、两个或四个PU。HEVC定义了用于将CU分成PU的八种形状,如图2所示,包括2Nx2N、2NxN、Nx2N、NxN、2NxnU、2NxnD、nLx2N和nRx2N划分类型。与CU不同,PU可以仅根据HEVC分裂一次。第二行中所示的划分对应于不对称划分,其中两个划分部分具有不同的大小。
在通过基于PU分裂类型的预测过程获得残差块之后,可以根据另一种四叉树结构将CU的预测残差划分为变换单元(TU),该四叉树结构类似于如图1所示的CU的编解码树。实线表示CU边界,虚线表示TU边界。TU是具有用于应用整数变换和量化的残差或变换系数的基本代表性块。对于每个TU,应用具有与TU相同大小的一个整数变换以获得残差系数。在以TU为基础量化之后,将这些系数发送到解码器。
术语编解码树块(CTB)、编解码块(CB)、预测块(PB)和变换块(TB)被定义为指定分别与CTU、CU、PU和TU相关联的一个颜色分量的2-D样本阵列。因此,CTU由一个亮度CTB、两个色度CTB和相关的语法元素组成。类似的关系对CU、PU和TU有效。树划分通常同时应用于亮度和色度,但是当达到色度的某些最小尺寸时例外。
或者,在JCTVC-P1005中提出了二叉树块划分结构(D.Flynn等,“HEVC RangeExtensions Draft 6”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11视频编解码联合协作团队(JCT-VC),第16次会议:San Jose,US,2014年1月9日至17日,文档:JCTVC-P1005)。在所提出的二叉树划分结构中,可以使用各种二进制分裂类型将块递归地分裂成两个较小的块,如图3所示。最有效和最简单的是对称的水平和垂直分裂,如图3中前两个分裂类型所示。对于大小为M×N的给定块,信令(signal)标志以指示给定块是否被分成两个较小的块。如果是,则信令另一语法元素以指示使用哪种分裂类型。如果使用水平分裂,则将给定块分成两个大小为M×N/2的块。如果使用垂直分裂,则将给定块分成两个大小为M/2×N的块。可以迭代二叉树分裂过程,直到分裂块的大小(宽度或高度)达到最小允许块大小(宽度或高度)。可以在诸如SPS的高级语法中定义最小允许块大小。由于二叉树具有两种分裂类型(即水平和垂直),因此应指示最小允许块宽度和高度。当分裂将导致块高度小于指示的最小值时,隐含地暗示非水平分裂(Non-horizontal splitting)。当分裂将导致块宽度小于指示的最小值时,隐含地暗示非垂直分裂(Non-vertical splitting)。图4示出了块划分410及其对应的二叉树420的示例。在二叉树的每个分裂节点(即,非叶节点)中,使用一个标志来指示使用哪种分裂类型(水平或垂直),其中0表示水平分裂,1表示垂直分裂。
二叉树结构可用于将图像区域划分为多个较小的块,诸如将切片划分为CTU,将CTU划分为CU,将CU划分为PU,或将CU划分为TU,等等。二叉树可以用于将CTU划分为CU,其中二叉树的根节点是CTU,二叉树的叶节点是CU。叶节点可以通过预测和变换编解码进一步处理。为了简化,不存在从CU到PU或从CU到TU的进一步划分,这意味着CU等于PU并且PU等于TU。因此,换句话说,二叉树的叶节点是用于预测和转换编解码的基本单元。
QTBT结构
二叉树结构比四叉树结构更灵活,因为可以支持更多的划分形状,这也是编解码效率改进的来源。但是,编码复杂度也会增加,以便选择最佳的划分形状。为了平衡复杂性和编码码效率,已经公开了一种组合四叉树和二叉树结构的方法,也称为四叉树加二叉树(QTBT)结构。根据QTBT结构,CTU(或I切片的CTB)是四叉树的根节点,CTU首先由四叉树分裂,其中一个节点的四叉树分裂可以迭代,直到节点达到允许的最小四叉树叶节点大小(即MinQTSize)。如果四叉树叶节点大小不大于最大允许二叉树根节点大小(即,MaxBTSize),则可以通过二叉树进一步对其进行划分。可以迭代一个节点的二叉树分裂,直到节点达到最小允许二叉树叶节点大小(即,MinBTSize)或最大允许二叉树深度(即,MaxBTDepth)。二叉树叶节点,即CU(或用于I切片的CB)将用于预测(例如,图像内或图像间预测)并且在没有任何进一步划分(partition)的情况下进行变换。二叉树分裂中有两种分裂类型:对称水平分裂和对称垂直分裂。在QTBT结构中,允许的最小四叉树叶节点大小、允许的最大二叉树根节点大小、允许的最小二叉树叶节点宽度和高度以及允许的最大二叉树深度可以在高级语法中,例如在SPS中指示。图5示出了块划分510及其对应的QTBT 520的示例。实线表示四叉树分裂,虚线表示二叉树分裂。在二叉树的每个分裂节点(即,非叶节点)中,一个标志指示使用哪种分裂类型(水平或垂直),0可以指示水平分裂,1可以指示垂直分裂。
上述QTBT结构可用于将图像区域(例如,切片、CTU或CU)划分为多个较小的块,例如将切片划分为CTU,将CTU划分为CU,将CU划分为PU,或将CU划分为TU等。例如,QTBT可以用于将CTU划分为CU,其中QTBT的根节点是CTU,其通过QTBT结构划分为多个CU,并且CU通过预测和变换编解码进一步处理。为了简化,不存在从CU到PU或从CU到TU的进一步划分。这意味着CU等于PU并且PU等于TU。因此,换句话说,QTBT结构的叶节点是用于预测和变换的基本单元。
QTBT结构的示例如下所示。对于大小为128x128的CTU,允许的最小四叉树叶节点大小设置为16x16,允许的最大二叉树根节点大小设置为64x64,允许的最小二叉树叶节点宽度和高度都设置为4,并且允许的最大二叉树深度设置为4。首先,CTU由四叉树结构划分,叶四叉树单元可以具有从16x16(即,允许的最小四叉树叶节点大小)到128x128(等于CTU大小,即,没有分裂)。如果叶四叉树单元是128x128,则由于大小超过允许的最大二叉树根节点大小64x64,因此无法通过二叉树进一步拆分。否则,叶四叉树单元可以通过二叉树进一步分裂。叶四叉树单元也是根二叉树单元,其二叉树深度为0。当二叉树深度达到4(即,如所指示的最大允许二叉树)时,隐含地暗示不分裂。当相应二叉树节点的块具有等于4的宽度时,隐含地暗示非水平分裂。当相应二叉树节点的块具有等于4的高度时,隐含地暗示非垂直分裂。通过预测(图像内(Intra picture)或图像间(Inter picture))和变换编解码进一步处理QTBT的叶节点。
对于I-切片,QTBT树结构通常应用亮度/色度分离编解码。例如,QTBT树结构分别应用于I-切片的亮度和色度分量,并且同时应用于P-和B-切片的亮度和色度(除非达到色度的某些最小大小)。换句话说,在I-切片中,亮度CTB具有其QTBT结构的块划分,并且两个色度CTB具有另一个QTBT结构的块划分。在另一示例中,两个色度CTB还可以具有它们自己的QTBT结构块划分。
高效视频编解码(HEVC)是由视频编解码的联合协作团队(JCT-VC)开发的新的国际视频编解码标准。HEVC基于基于混合块的运动补偿DCT类变换编解码架构。用于压缩的基本单元(称为编解码单元(CU))是2N×2N方块,并且每个CU可以递归地分成四个较小的CU,直到达到预定义的最小大小。每个CU包含一个或多个预测单元(PU)。
为了实现HEVC中的混合编解码架构的最佳编解码效率,针对每个PU存在两种预测模式(即,帧内预测和帧间预测)。对于帧内预测模式,空间相邻重建像素可用于生成方向预测。HEVC最多有35个方向。对于帧间预测模式,时间重建参考帧可用于生成运动补偿预测。有三种不同的模式,包括Skip、Merge和Inter高级运动向量预测(AMVP)模式。
当以帧间AMVP模式编解码PU时,利用可与运动向量预测子(MVP)一起使用的发送的运动向量差(MVD)来执行运动补偿预测,以用于导出运动向量(MV)。为了在帧间AMVP模式中确定MVP,使用高级运动向量预测(AMVP)方案来选择包括两个空间MVP和一个时间MVP的AMVP候选集中的运动向量预测子。因此,在AMVP模式中,需要对MVP的MVP索引和相应的MVD进行编码和传输。另外,用于指定双向预测(bi-prediction)和单向预测(uni-prediction)(列表0(即,L0)和列表1(即,L1))中的预测方向的帧间预测方向,以及每个列表的参考帧索引也应当被编码和传输。
当以跳过或合并模式编码PU时,除了所选候选的合并索引之外,不发送运动信息,因为跳过和合并模式利用运动推断方法。由于跳过和合并模式的运动向量差(MVD)为零,因此跳过或合并编解码块的MV与运动向量预测子(MVP)相同(即,MV=MVP+MVD=MVP)。因此,跳过或合并编解码块从位于共址图像中的空间相邻块(空间候选)或时间块(时间候选)获得运动信息。共址图像是列表0或列表1中的第一参考图像,其在切片报头中发信。在跳过PU的情况下,也省略残差信号。为了确定跳过和合并模式的合并索引,合并方案用于在包含四个空间MVP和一个时间MVP的合并候选集中选择运动向量预测子。
通过允许MTT的第二级中的二叉树和三树划分方法,多类型树(MTT)块划分(partition)扩展了QTBT中的两级树结构的概念。MTT中的两级树分别称为区域树(RT)和预测树(PT)。第一级RT始终是四叉树(QT)划分,第二级PT可以是二叉树(BT)划分或三树(TT)划分。例如,首先通过RT对CTU进行划分,(其为QT划分),并且每个RT叶节点可以进一步由PT分裂(其为BT或TT划分)。由PT划分的块可以进一步用PT分裂,直到达到最大PT深度。例如,可以首先通过垂直BT划分来划分块以生成左子块和右子块,并且通过水平TT划分进一步划分左子块,同时通过水平BT划分进一步划分右子块。PT叶节点是用于预测和变换的基本编解码单元(CU),并且不会被进一步分裂。
图6示出了根据MTT块划分的用于块划分的树型(tree-type)信令的示例。RT信令可以类似于QTBT块划分中的四叉树信令。为了信令PT节点,信令一个附加仓(bin)以指示它是二叉树划分还是三树划分。对于通过RT分裂的块,信令第一个仓以指示是否存在另一个RT分裂,如果该块未被RT进一步分裂(即,第一个仓为0),则信令第二个仓以指示是否存在PT分裂。如果块也没有被PT进一步分裂(即第二个仓是0),则该块是叶节点。如果块随后被PT分裂(即第二个仓是1),则发送第三个仓以指示水平或垂直划分,接着是第四个仓,用于区分二叉树(BT)或三树(TT)划分。
在构建MTT块划分之后,MTT叶节点是CU,其用于预测和变换而无需任何进一步的划分。在MTT中,所提出的树结构在I切片中针对亮度和色度单独编解码,并且同时应用于P和B切片中的亮度和色度(除了在达到色度的某些最小大小时)。也就是说,在I切片中,亮度CTB具有其QTBT结构的块划分,并且两个色度CTB具有另一个QTBT结构的块划分。
虽然所提出的MTT能够通过自适应地划分用于预测和变换的块来提高性能,但是希望在可能的情况下进一步改进性能以便实现整体效率目标。
合并模式
为了增加HEVC中的运动向量(MV)编解码的编解码效率,HEVC具有跳过和合并模式。跳过和合并模式从空间相邻块(空间候选)或时间共位块(时间候选)获得运动信息,如图7所示。当PU是跳过或合并模式时,不编解码运动信息,而是仅编解码所选候选的索引。对于跳过模式,残差信号被强制为零而不进行编解码。在HEVC中,如果特定块被编码为跳过或合并,则信令候选索引以指示候选集中的哪个候选用于合并。每个合并的PU重用所选候选的MV、预测方向和参考图像索引。
对于HEVC中HM-4.0(HEVC测试模型4.0)中的合并模式,如图7所示,从A0、A1、B0和B1导出多达四个空间MV候选,并且从TBR或TCTR(首先使用TCTR,如果没有TBR,则使用TCTR)导出一个时间MV候选。请注意,如果四个空间MV候选中的任何一个不可用,则位置B2然后用于导出MV候选作为替换。在四个空间MV候选和一个时间MV候选的推导过程之后,应用去除冗余(修剪)以移除冗余MV候选。如果在去除冗余(修剪)之后,可用MV候选的数量小于5,则导出三种类型的附加候选并将其添加到候选集合(候选列表)中。编码器基于速率-失真优化(RDO)判决选择候选集合中的一个最终候选用于跳过或合并模式,并将索引发送到解码器。
在本公开中,跳过和合并模式被表示为“合并模式”。
图7还示出了用于导出AMVP和合并方案的空间和时间MVP的相邻PU。在AMVP中,左MVP是A0、A1中的第一个可用的MVP,顶部MVP是来自B0、B1、B2的第一个可用的MVP,并且时间MVP是来自TBR或TCTR的第一个可用的MVP(首先使用TBR,如果TBR不可用,则使用TCTR代替)。如果左MVP不可用且顶部MVP未缩放MVP,则如果在B0、B1和B2中存在缩放的MVP,则可以导出第二顶部MVP。在HEVC中,AMVP的MVP的列表大小是2。因此,在两个空间MVP和一个时间MVP的推导过程之后,只有前两个MVP可以包括在MVP列表中。如果在去除冗余之后,可用MVP的数量小于2,则将零向量候选添加到候选列表中。
对于跳过和合并模式,如图7所示,从A0、A1、B0和B1导出多达四个空间合并索引,并且从TBR或TCTR导出一个时间合并索引(首先使用TBR,如果TBR不可用,则使用TCTR代替)。请注意,如果四个空间合并索引中的任何一个不可用,则使用位置B2来导出合并索引作为替换。在四个空间合并索引和一个时间合并索引的推导过程之后,应用移除冗余(removingredundancy)来移除冗余合并索引。如果在移除冗余之后,可用的合并索引的数量小于5,则导出三种类型的附加候选并将其添加到候选列表中。
通过使用原始合并候选来创建额外的双向预测合并候选。额外的候选分为三种候选:
1.组合双向预测合并候选(候选类型1)
2.比例的双向预测合并候选(候选类型2)
3.零向量合并/AMVP候选(候选类型3)
在候选类型1中,通过组合原始合并候选来创建组合的双向预测合并候选。特别地,原始候选中的两个候选具有mvL0(列表0中的运动向量)和refIdxL0(列表0中的参考图像索引)或mvL1(列表1中的运动向量)和refIdxL1(列表1中的参考图像索引),用于创建双向预测合并候选。图8示出了组合的双向预测合并候选的推导过程的示例。候选集810对应于原始候选列表,其包括L0中的mvL0_A、ref0(831)和L1中的mvL1_B、ref(832)。如图8中的过程830所示,可以通过组合L0和L1中的候选来形成双向预测MVP 833。候选集820对应于如过程830所示的包括两个生成的双向预测MVP的扩展候选列表。
在候选类型2中,通过缩放原始合并候选来创建缩放的双向预测合并候选。具体地,具有mvLX(列表X中的运动向量)和refIdxLX(列表X中的参考图像索引,X可以是0或1)的原始候选中的一个候选用于创建双向预测合并候选。例如,一个候选A是具有mvL0_A和ref0的单一预测的列表0,首先将ref0复制到列表1中的参考索引ref0'。之后,通过用ref0和ref0'缩放mvL0_A来计算mvL0'_A。然后,创建在列表0中具有mvL0_A和ref0以及在列表1中具有mvL0'_A和ref0'的双向预测合并候选,并将其添加到合并候选列表中。在图9A中示出了缩放的双向预测合并候选的导出过程的示例,其中候选列表910对应于原始候选列表,并且候选列表920对应于如过程930所示的包括两个生成的双向预测MVP的扩展候选列表。
在候选类型3中,通过组合零向量和参考索引来创建零向量合并/AMVP候选,其可被参考。图9B示出了用于添加零向量合并候选的示例,其中候选列表940对应于原始合并候选列表,并且候选列表950通过添加零候选对应于扩展的合并候选列表。图9C示出了用于添加零向量AMVP候选的示例,其中候选列表960(L0)和962(L1)对应于原始AMVP候选列表,并且候选列表970(L0)和972(L1)添加零候选对应于扩展的AMVP候选列表。如果零向量候选不重复,则将其添加到合并/AMVP候选列表中。
传统的子PU时间运动向量预测(SbTMVP)
ATMVP(高级时间运动向量预测)模式(或者也称为子PU时间运动向量预测(SbTMVP))是用于合并候选的基于子PU的模式,它使用空间相邻来获得初始向量并且初始向量(在一些实施例中将被修改)用于获得并置图像上的并置块的坐标。然后,检索并置图像上的并置块的子CU(通常是4×4或8×8)运动信息,并将其填充到当前合并候选的子CU(通常是4×4或8×8)运动缓冲器中。JVET-C1001(J.Chen等人,“Algorithm Descriptionof Joint Exploration Test Model 3(JEM3)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC29/WG 11联合视频专家组(Joint Video Exploration Team(JVET)),第3次会议:日内瓦,CH,2016年5月26日至6月1日,文档:JVET-C1001)和JVET-K0346(X.Xiu等人,“CE4-related:One simplified design of advanced temporal motion vector prediction(ATMVP)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11联合视频专家组(JVET),第11次会议:Ljubljana,SI,2018年7月10日至18日,文档:JVET-K0346)中公开了ATMVP的几种变型。
时间-空间运动向量预测(STMVP)
STMVP模式是用于合并候选的基于子PU的模式。以光栅扫描顺序递归地生成子PU的运动向量。当前子PU的MV的推导首先识别其两个空间相邻。然后使用一些MV缩放来导出一个时间相邻。在检索和缩放MV之后,将所有可用运动向量(最多3个)平均以形成STMVP,其被指定为当前子PU的运动向量。STMVP的详细描述可以在JVET-C1001的2.3.1.2节中找到。
基于历史的合并模式构建
基于历史的合并模式是传统合并模式的变体。基于历史记录的合并模式存储历史数组(array)中某些先前CU的合并候选。因此,除了原始合并候选之外,当前CU可以使用历史数组内的一个或多个候选来丰富合并模式候选。基于历史的合并模式的细节可以在JVET-K0104(L.Zhang等人,“CE4-related:History-based Motion Vector Prediction”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11联合视频专家组(JVET),第11次会议:Ljubljana,SI,2018年7月10日至18日,文档:JVET-K0104)中找到。
基于历史的方法也可以应用于AMVP候选列表。
非相邻合并候选
非相邻合并候选使用远离当前CU的一些空间候选。非相邻合并候选的变动可以在JVET-K0228(R.Yu,等人,“CE4-2.1:Adding non-adjacent spatial merge candidates”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11联合视频专家组(JVET),第11次会议:Ljubljana,SI,2018年7月10日-18日,文档:JVET-K0104)和JVET-K0286(J.Ye等人,“CE4:Additional merge candidates(Test4.2.13)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC29/WG 11联合视频专家组(JVET),第11次会议:Ljubljana,SI,2018年7月10日-18日,文档:JVET-K0104)。
基于非相邻的方法也可以应用于AMVP候选列表。
IBC模式
在HEVC SCC扩展的标准化期间已经提出了当前图像参考(current picturereference,简写为CPR)或帧内块复制(Intra block copy,简写为IBC)。已经证明它对于编解码屏幕内容视频数据是有效的。IBC操作与视频编解码器中的原始帧间模式非常相似。然而,参考图像是当前解码的帧而不是先前编解码的帧。IBC的一些细节可以在JVET-K0076(X.Xu等人,“CE8-2.2:Current picture referencing using reference indexsignaling”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11联合视频专家组(JVET),第11次会议:Ljubljana,SI,2018年7月10日至18日,文档:JVET-K0076)和Xu等人的技术论文(X.Xu等人,“Intra Block Copy in HEVC Screen Content Coding Extensions”,IEEEJ.Emerg.Sel.Topics Circuits Syst.,vol.6,no.4,第409-419页,2016)中找到。
仿射模式
提交给ITU-VCEG的贡献ITU-T13-SG16-C1016(Lin等人,“Affine transformprediction for next generation coding”,ITU-U,Study Group 16,Question Q6/16,Contribution C1016,2015年9月,日内瓦,CH)公开了一种四参数仿射预测,其包括仿射合并模式。当仿射运动块正在移动时,块的运动向量场(field)可以通过两个控制点(control-point)运动向量或如下的四个参数来描述,其中(vx,vy)表示运动向量
图10中示出了四参数仿射模型的示例,其中块1010对应于当前块,块1020对应于参考块。变换后的块是矩形块。该移动块中每个点的运动向量场可以用下面的等式描述:
在上面的等式中,(v0x,v0y)是块的左上角处的控制点运动向量(即,v0),并且(v1x,v1y)是块的右上角处的另一个控制点运动向量(即,v1)。当解码两个控制点的MV时,可以根据上面的等式确定块的每个4×4块的MV。换句话说,可以通过两个控制点处的两个运动向量来指定块的仿射(affine)运动模型。此外,虽然块的左上角和右上角用作两个控制点,但是也可以使用其他两个控制点。
有两种仿射候选:继承的仿射候选和角推导的(Corner derived)候选(即,构建的候选(constructed candidate))。对于继承的仿射候选,当前块继承相邻块的仿射模型。所有控制点MV来自相同的相邻块。如果当前块1110从块A1继承仿射运动,则块A1的控制点MV用作当前块的控制点MV,如图11A所示,其中与块A1相关联的块1112基于两个控制点MV(v0和v1)被旋转为块1114。因此,当前块1110被旋转为块1116。在角推导的候选之前插入继承的候选。选择继承控制点MV的候选的顺序是:(A0->A1)(B0->B1->B2)。
在贡献ITU-T13-SG16-C1016中,对于帧间模式编解码CU,信令仿射标志以指示当CU大小等于或大于16×16时是否应用仿射帧间模式。如果当前块(例如,当前CU)以仿射帧间模式编解码,则使用相邻有效重构块来构建候选MVP对列表。图11B示出了用于导出角推导的仿射候选的相邻块集合。如图11B所示,对应于当前块1120的左上角的块V0的运动向量,其从相邻块a0(称为左上块)、a1(称为内左上方块)和a2(称为较低左上方块)的运动向量中选择。/>对应于当前块1120的右上角处的块V1的运动向量,其从相邻块b0(称为上方块)和b1(称为右上块)的运动向量中选择。
在上面的等式中,MVa是与块a0,a1或a2相关联的运动向量,MVb是从块b0和b1的运动向量中选择的,并且MVc是从块c0和c1的运动向量中选择的。选择具有最小DV的MVa和MVb以形成MVP对。因此,虽然仅针对最小DV搜索两个MV集(即,MVa和MVb),但是第三DV集(即,MVc)也参与选择过程。第三DV集对应于当前块1110的左下角处的块的运动向量,其从相邻块c0(称为左块)和c1(称为左下块)的运动向量中选择。在图11B的示例中,用于构造仿射运动模型的控制点MV的相邻块(a0,a1,a2,b0,b1,b2,c0和c1)被称为本公开中的相邻块集合。
在ITU-T13-SG16-C-1016中,还提出了仿射合并模式。如果当前是合并PU,则检查相邻的五个块(图11B中的c0,b0,b1,c1和a0块)以确定它们中的一个是否仿射帧间模式或仿射合并模式。如果是,则信令affine_flag以指示当前PU是否是仿射模式。当当前PU以仿射合并模式编解码时,它从有效的相邻重建块获得用仿射模式编解码的第一块。候选块的选择顺序是从左、上、右上、左下到左上(即,c0→b0→b1→c1→a0),如图11B所示。第一仿射编解码块的仿射参数用于导出当前PU的v0和v1
【发明内容】
公开了一种用于视频编解码的帧间预测的方法和装置,其允许子块模式运动向量预测。根据本发明的一种方法,在视频编码器侧接收与当前图像中的当前块相关的输入数据,或者在视频解码器侧接收与包括当前图像中的当前块的压缩数据相对应的视频比特流。基于当前块的块大小确定条件。如果满足条件,则使用除了目标子块模式编解码工具之外的编解码工具集对与当前块相关联的当前运动信息进行编码或解码。如果不满足条件,则使用包括目标子块模式编解码工具的编解码工具集对与当前块相关联的当前运动信息进行编码或解码。在一个实施例中,目标子块模式编解码工具对应于基于子块的时间运动向量预测(SbTMVP)。
在一个实施例中,如果当前块的块大小小于阈值,则满足条件。例如,如果当前块的面积(area)小于阈值,则满足条件。在另一示例中,如果当前块的块宽度或当前块的块高度小于阈值,则满足条件。
在本发明的另一方法中,当前块对应于根节点下的多个叶块中的一个目标叶块,所述多个叶块是由包括当前块的区域的块划分产生的。确定MER(合并估计区域),其中MER包含所述多个叶块。如果当前块的参考块在MER内,则从合并候选列表中排除与参考块相关联的目标候选,或者在合并候选列表中包括修改的目标候选,其中基于MER之外的修改参考块导出修改的目标候选。使用合并候选列表对与当前块相关联的当前运动信息进行编码或解码。
在一个实施例中,针对子块模式导出合并候选列表。在另一实施例中,针对SbTMVP(基于子块的时间运动向量预测)模式导出合并候选列表。在又一个实施例中,修改的参考块位于MER的边界附近。
在本发明的又一方法中,接收对应于根节点下的多个子CU中的一个目标子CU的当前CU,该当前CU是由包括当前CU的区域的块划分产生的。确定包围所述多个子CU的共享边界,并且所述多个子CU彼此之间没有编解码依赖性,以便允许所述多个子CU的并行编解码处理。基于位于共享边界附近的一个或多个相邻参考块来导出共享合并列表。使用共享合并列表对与所述多个子CU相关联的当前运动信息进行编码或解码。
在一个实施例中,所述一个或多个相邻参考块的控制点MV(运动向量)用于导出所述多个子CU的一个或多个仿射合并候选。在另一实施例中,所述一个或多个相邻参考块的仿射参数用于导出所述多个子CU的一个或多个仿射合并候选。例如,所述一个或多个相邻参考块的仿射参数对应于所述一个或多个相邻参考块的运动向量梯度、起始MV和位置。
【附图说明】
图1示出了使用四叉树结构将编解码树单元(CTU)划分为编解码单元(CU)的块划分的示例。
图2示出了根据高效视频编解码(HEVC)的非对称运动划分(AMP),其中AMP定义了用于将CU分成PU的八种形状。
图3示出了二叉树划分结构使用的各种二进制分裂类型的示例,其中可以使用分裂类型将块递归地分裂成两个较小的块。
图4示出了块划分及其对应的二叉树的示例,其中在二叉树的每个分裂节点(即,非叶节点)中,一种语法用于指示哪种分裂类型(水平或垂直)被使用,其中0可表示水平分裂,1可表示垂直分裂。
图5示出了块划分及其对应的QTBT的示例,其中实线指示四叉树分裂,而虚线指示二叉树分裂。
图6示出了根据MTT块划分的用于块划分的树型信令的示例,其中RT信令可以类似于QTBT块划分中的四叉树信令。
图7示出了用于导出AMVP和合并方案的空间和时间MVP的相邻PU。
图8示出了组合的双向预测合并候选的推导过程的示例。
图9A示出了缩放的双向预测合并候选的导出过程的示例,其中左侧的候选列表对应于原始候选列表,右侧的候选列表对应于包括两个生成的双向预测MVP的扩展候选列表。
图9B示出了添加零向量合并候选的示例,其中左侧的候选列表对应于原始合并候选列表,右侧的候选列表通过添加零候选对应于扩展的合并候选列表。
图9C示出了用于添加零向量AMVP候选的示例,其中顶部的候选列表对应于原始AMVP候选列表(左侧的L0和右侧的L1),并且底部的候选列表通过添加零候选对应于扩展的AMVP候选列表(左侧为L0,右侧为L1)。
图10示出了四参数仿射模型的示例,其中示出了当前块和参考块。
图11A示出了继承的仿射候选推导的示例,其中当前块通过继承相邻块的控制点MV作为当前块的控制点MV来继承相邻块的仿射模型。
图11B示出了用于导出角推导的仿射候选的相邻块集合,其中一个MV可以从一个相邻组中决定出来。
图12A-图12C示出了根CU内的子CU的共享合并列表的示例。
图13示出了子树的示例,其中子树根是QTBT分裂树内的树节点。
图14示出了视频编解码的示例性帧间预测的流程图,其中所述视频编解码允许根据本发明的实施例的子块模式运动向量预测。
图15示出了根据本发明实施例的视频编解码的示例性帧间预测的流程图,其中一个根区域内的相邻块被取消或推送用于合并候选。
图16示出了根据本发明实施例的视频编解码的示例性帧间预测的流程图,其中一个根区域内的子块共享公共合并候选列表。
【具体实施方式】
以下描述是实现本发明的最佳方案。进行该描述是为了说明本发明的一般原理,而不应被视为具有限制意义。通过参考所附权利要求最好地确定本发明的范围。
在本发明中,公开了一些简化子块合并模式的技术。
方法-共享的候选列表
为了简化编解码器操作复杂度,提出了一种共享候选列表的方法。“候选列表”可以对应于合并候选列表、AMVP候选列表或其他类型的预测候选列表(例如,DMVR(解码器侧运动向量微调)或双侧微调候选列表)。“共享候选列表”的基本思想是在更大的边界(或QTBT树中的子树的一个根)上生成候选列表,以便生成的候选列表可以由边界内或者子树内的所有叶CU共享。共享候选列表的一些示例在图12A至图12C中示出。在图12A中,子树的根CU由大虚线框(1210)示出。分裂叶CU(1212)显示为较小的虚线框。与根CU相关联的虚线框1210还对应于根叶下的叶CU的共享边界。在图12B中,共享边界(1220)由大虚线框示出。小叶CU(1222)显示为较小的虚线框。图12C示出了合并共享节点的四个示例。为虚线虚拟CU(即,合并共享节点)生成共享合并候选列表。在划分1232中,对应于8×8块的合并共享节点被分成4个4×4块。在划分1234中,对应于8×8块的合并共享节点被分成2个4×8块。在划分1236中,对应于4×16块的合并共享节点被分成2个4×8块。在划分1238中,对应于4×16块的合并共享节点被分成2个4×4块和1个8×8块。
“共享候选列表”有两个主要实施例:一个是在子树内共享候选列表;另一种是在“共同共享边界”内共享候选列表。
实施例-一个子树内的共享候选列表
术语“子树”被定义为QTBT分裂树的子树(例如,如图1所示的QTBT分裂树120)。“子树”(1310)的一个示例在图13中示出,其中子树根是QTBT分裂树内的树节点(1312)。子树的最终分裂叶CU在该子树内。块划分1320对应于图13中的子树1310。在所提出的方法中,可以在共享块边界基础上生成候选列表(合并模式、AMVP模式候选或其他类型的预测候选列表),其中,共享块边界的示例基于子树的根CU边界,如图12A所示。然后,候选列表被重用于子树内的所有叶CU。共同共享候选列表(common shared candidate list)由子树的根生成。换句话说,空间相邻位置和时间相邻位置都基于子树的根CU边界的矩形边界(即,共享边界)。
"实施例-一个“共同共享边界”内的共享候选列表
在该实施例中,定义了“共同共享边界(common shared boundary)”。一个“共同共享边界”是在图像内对齐的最小块(例如4×4)的矩形区域。“共同共享边界”内的每个CU可以使用共同共享候选列表,其中基于“共同共享边界”生成共同共享候选列表。例如,共同共享边界1210内的子块可以共享合并候选列表,其中基于共同共享边界上的相邻块导出一个或多个合并候选。换句话说,空间相邻位置和时间邻近位置都基于“共同共享边界”。
共享候选列表中的子CU合并候选处理
用于实现子CU候选的共享列表(例如,在合并模式中的ATMVP、STMVP或仿射合并)的一些方法。根据本发明的共享候选列表的子CU候选的示例如下所示。
一种方法是关闭共享候选列表中的子CU候选。另一种方法是在根CU上构建子CU候选(或建立在共享块边界上),并且对于每个“用于共享的子CU”,它直接从子CU候选检索子CU的运动信息(的相应区域)。例如,对于使用ATMVP模式的共享16×8边界,可以在共享边界16x8上生成ATMVP,作为传统的ATMVP方法。当在公共边界(16×8)内共享2个子CU(例如8×8)的该候选列表时,可以直接检索16×8ATMVP的左8×8运动信息以形成用于左8×8子CU的新的8×8ATMVP。类似地,可以直接检索16x8 ATMVP的右8x8运动信息,以形成用于右8x8子CU的新8x8 ATMVP。因此,生成适合8×8的ATMVP候选。
在另一实施例中,通过使用根CU或共享边界的大小/深度/形状/区域/宽度/高度来导出ATMVP的初始MV(用于在ATMVP中导出并置的MV参考块)。可以为子CU共享根CU的ATMVP的初始MV或共享边界。共享初始MV可用于导出子CU的并置MV参考块,然后导出子CU的块MV或子块MV。
根据本发明的另一个实施例,它根据CU大小移除一些候选。如果CU大小小于与CU大小相关的预定义阈值(例如,区域=16),则从候选列表的构造中移除一些候选。如本领域中已知的,CU大小可以对应于块宽度、块高度或块区域。虽然该区域用作与CU大小相关的预定义阈值的示例,但是宽度、高度或两者可以用作与CU大小相关的预定义阈值。有数个移除一些候选的实施例。例如,可以基于与CU大小相关的一个或多个预定阈值来移除ATMVP。
根据本发明的一个实施例,关闭共享候选列表中的子CU候选。根据本发明的另一个实施例,子CU候选建立在根CU上(或建立在共享块边界上)。对于每个“用于共享的子CU”,从子CU候选直接检索子CU运动信息的对应区域。在具有ATMVP模式的共享边界(大小为16×8)的示例中,可以如传统的ATMVP方法基于共享边界(大小16×8)生成ATMVP。当在公共边界(即,16×8)内共享具有大小为8×8的两个子CU的该候选列表时,可以直接检索16×8ATMVP的左8×8运动信息以形成用于左8×8子CU的新的8×8ATMVP候选。类似地,可以直接检索16x8 ATMVP候选的右8x8运动信息,以形成用于右8x8子CU的新8x8 ATMVP候选。因此,可以基于16×8块导出适合于8×8的ATMVP候选。
根据本发明实施例的所提出的“共享候选列表”、“共享合并索引”和其他共享属性提案可以应用于其他类型的合并列表构造方法,例如“基于历史的合并模式构造”和“不相邻的合并候选”。换句话说,共享属性提案通常适用于所有合并模式算法和AMVP模式算法。
此外,我们还建议信令标志以打开或关闭所提出的共享方法。在一个实施例中,可以信令标志以指示是否启用“共享候选列表”。信令中的单元的最小大小也可以在序列级、图像级、切片级或PU级中单独编解码。
在一个实施例中,当导出用于ATMVP的初始向量时,如果所参考的相邻MV在根CU或共享边界内,则不使用ATMVP。
方法-关闭小CU的子CU合并模式
在该实施例中,其关闭(或称为排除(exclude))用于小CU的子CU合并模式(例如,ATMVP、STMVP或仿射合并)(例如,CU大小低于阈值或任何其他CU大小相关特征低于阈值)。
在子块合并列表中,可以插入多于一个ATMVP候选。例如,可以插入两个ATMVP候选。在一个实施例中,两个ATMVP候选被插入子块合并列表的前面。在另一个实施例中,在子块合并列表的前面插入一个ATMVP候选,在一个或多个其他类型的子块候选(例如,仿射候选)之后插入另一个ATMVP候选。在一个示例中,ATMVP被插入子块合并列表的第三、第四或第五位置。在另一个例子中,在子块合并列表中的某些仿射候选之后(例如,在一些仿射继承的候选之后或在仿射构造的候选之前)插入ATMVP。在另一实施例中,在一个或多个其他类型的子块候选(例如,仿射候选)之后插入两个ATMVP候选。
方法-仿射编解码块的共享列表
在所提出的共享列表方法(例如,在一个子树和共同共享边界内的共享候选列表)中,使用根CU(也称为父CU)或共享边界大小/深度/形状/宽度/高度导出候选列表。在候选列表推导中,对于任何基于位置的推导(例如,根据当前块/CU/PU位置/大小/深度/形状/宽度/高度的参考块位置推导),使用根CU或共享边界位置和形状/大小/深度/宽度/高度。在一个实施例中,对于仿射继承候选推导,首先导出参考块位置。当应用共享列表时,通过使用根CU或共享边界位置以及形状/大小/深度/宽度/高度来导出参考块位置。在一个示例中,存储参考块位置。当子CU在根CU或共享边界中时,存储的参考块位置用于找到用于仿射候选推导的参考块。
在另一实施例中,导出根据根CU或共享边界来推导出的候选列表中的每个仿射候选的控制点MV。根CU或每个仿射候选的共享边界的控制点MV被共享用于该根CU或共享边界中的子CU。在一个示例中,可以为子CU存储导出的控制点MV。对于根CU或共享边界中的每个子CU,根CU或共享边界的控制点MV用于导出子CU的控制点MV或用于导出子CU的子块MV。在一个示例中,子CU的子块MV是从子CU的控制点MV导出的,子CU的控制点MV是从根CU或共享边界的控制MV导出的。在一个示例中,子CU的子块MV是从根CU或共享边界的控制点MV导出的。在一个示例中,可以在根CU或共享边界处导出根CU或共享边界中的子块的MV。可以直接使用导出的子块MV。对于根CU或共享边界之外的相邻CU中的CU,从根CU或共享边界的控制点MV导出的控制点MV用于导出仿射继承候选。在另一示例中,根CU或共享边界的控制点MV用于导出仿射继承候选。在另一示例中,CU的存储的子块MV用于导出仿射继承候选。在另一示例中,根CU或共享边界的存储的子块MV用于导出仿射继承的候选。在一个实施例中,对于上方(above)CTU行(row)中的相邻参考CU,相邻参考CU的存储的子块MV(例如,左下(bottom-left)和右下(bottom-right)子块MV、左下和底部(bottom-centre)中心子块MV,或者底部中心和右下子块MV)用于导出仿射继承候选而不是根CU的控制点。
在另一示例中,当编解码子CU时,可以存储或导出根CU或共享边界的位置和形状/宽度/高度/大小以用于仿射候选参考块导出。可以使用4-参数仿射模型(在等式(3)中)和6参数仿射模型(在等式(4)中)来导出仿射候选或子CU的控制点MV。例如,在图12A中,根CU内的CU可以参考块A0、A1,B0,B1、B2和并置块TBR和TCTR以导出仿射候选。在另一实施例中,对于仿射继承候选推导,使用当前子CU位置和形状/大小/深度/宽度/高度。如果参考块在根CU或共享边界内,则它不用于导出仿射候选。
对于仿射角推导的候选,根据本发明的一个实施例,不使用子CU的角推导的候选。在另一实施例中,使用当前子CU位置和形状/大小/深度/宽度/高度。如果参考块/MV在根CU或共享边界内,则它不用于导出仿射候选。在另一实施例中,使用根CU或共享边界的形状/大小/深度/宽度/高度。基于根CU或共享边界的形状/大小/深度/宽度/高度导出角参考块(corner reference block)/MV。导出的MV可以直接用作控制点MV。在另一实施例中,基于根CU或共享边界的形状/大小/深度/宽度/高度导出角参考块/MV。参考MV及其位置可用于通过使用仿射模型(例如,4-参数仿射模型或6参数仿射模型)来导出仿射候选。例如,可以将导出的角控制点MV视为根CU或共享边界的CU的控制点MV。可以通过使用等式(3)和/或(4)导出子CU的仿射候选。换句话说,基于共享边界上的相邻参考块生成仿射参数。此外,仿射参数可以对应于梯度、起始MV和相邻参考块的位置,如等式(3)和/或(4)中所示。
可以存储根CU或根共享边界的所构造的仿射候选的控制点MV。对于根CU或共享边界中的子CU,存储的参考块位置用于找到用于仿射候选推导的参考块。在另一实施例中,导出根CU或候选列表中的每个仿射候选的共享边界的控制点MV。根CU或每个仿射候选的共享边界的控制点MV被共享用于该根CU或共享边界中的子CU。在一个示例中,可以为子CU存储导出的控制点MV。对于根CU或共享边界中的每个子CU,根CU或共享边界的控制点MV用于导出子CU的控制点MV或用于导出子CU的子块的MV。在一个示例中,子CU的子块MV是从子CU的控制点MV导出的,子CU的控制点MV是从根CU或共享边界的控制MV导出的。在一个示例中,子CU的子块MV是从根CU或共享边界的控制点MV导出的。在一个示例中,可以在根CU或共享边界处导出根CU或共享边界中的子块的MV。可以直接使用导出的子块MV。对于根CU或共享边界之外的相邻CU中的CU,从根CU或从共享边界的控制点MV导出的控制点MV用于导出仿射继承的候选。在另一示例中,根CU或共享边界的控制点MV用于导出仿射继承候选。在另一示例中,CU的存储的子块MV用于导出仿射继承的候选。在另一示例中,根CU或共享边界的存储的子块MV用于导出仿射继承的候选。在一个实施例中,对于上方CTU行中的相邻参考CU,相邻参考CU的存储的子块MV(例如,左下(bottom-left)和右下(bottom-right)子块MV、左下和底部(bottom-centre)中心子块MV,或者底部中心和右下子块MV)用于导出仿射继承候选,而不是根CU或包括相邻参考CU的共享边界的控制点用于导出仿射继承候选或相邻参考CU的控制点MV用于导出仿射继承候选。
在另一实施例中,可以直接使用来自根CU和共享边界的导出的控制点MV,而无需仿射模型变换。
在另一实施例中,对于所提出的共享列表方法(例如,一个子树内或一个共同共享边界内的共享候选列表),当导出参考块位置时,使用当前块位置/大小/深度/形状/宽度/高度。然而,如果参考块在根CU或共享边界内,则将参考块位置推送(push)或移到根CU或共享边界之外。例如,在图7中,块B1是当前块的右上样本的上方块。如果块B1在根CU或共享边界内,则块B1的位置在根CU或共享边界的第一最近块外侧上方移动。在另一实施例中,当导出参考块位置时,使用当前块位置/大小/深度/形状/宽度/高度。但是,如果参考块在根CU或共享边界内,则不使用参考块/MV(视为不可用)。在另一实施例中,当导出参考块位置时,使用当前块位置/大小/深度/形状/宽度/高度。但是,如果参考块在根CU或共享边界内,则不使用参考块/MV(视为不可用)。
在一个实施例中,对于时间并置MV推导,根CU或共享边界的并置MV被共享/用于所有子CU。在另一实施例中,对于时间并置MV推导,使用每个CU/块的并置MV而不是共享时间并置MV。
方法-MER和共享列表都存在于QTMTT结构中
在该方法中,MER(合并估计区域)和共享列表概念都可以在QTMTT结构中启用。HEVC中引用的合并估计区域对应于可以并行处理该区域内的所有叶CU的区域。换句话说,可以消除该区域内的叶CU之间的依赖性。QTMTT对应于一种类型的多类型树(MTT)块划分,其中四叉树和另一划分树(例如二叉树(BT)或三叉树(TT))用于MTT。在一个实施例中,对于正常的合并和ATMVP,根CU中的叶CU使用共享列表。但对于仿射合并,它使用基于QTMTT的MER。在另一实施例中,对于一些预测模式,根CU中的叶CU使用共享列表,但是对于其他合并模式或AMVP模式,它使用MER概念。
在一个实施例中,HEVC中的合并估计区域(MER)的概念可以扩展到QTBT或QTBTTT(四叉树/二叉树/三叉树)结构。MER可以是非正方形的。MER可以具有不同的形状或大小,具体取决于结构划分。可以在序列/图像/切片级别中预定义或信令大小/深度/区域/宽度/高度。对于MER的宽度/高度,可以信令宽度/高度的log2值。对于MER的区域/大小,可以信令大小/区域的log2值。当针对区域定义MER时,该MER中的CU/PU不能用作用于合并模式候选推导的参考CU/PU,使得该MER中的CU/PU从合并模式候选推导中被排除。举例来说,此MER中的CU/PU的MV或仿射参数不能由用于合并候选或仿射合并候选导出的相同MER中的CU/PU参考。那些MV和/或仿射参数被视为对于相同MER中的CU/PU不可用。对于子块模式(例如ATMVP模式)推导,使用当前CU的大小/深度/形状/区域/宽度/高度。如果参考CU在相同的MER中,则不能使用参考CU的MV信息。
当定义MER区域/大小/深度/形状/面积/宽度/高度(例如,预定义或信令)时,如果当前CU大于或等于定义的区域/尺寸/形状/面积/宽度/高度并且子划分之一或所有子划分或子划分的一部分小于区域/大小/形状/面积/宽度/高度,当前CU是一个MER。在另一示例中,如果当前CU的深度小于或等于定义的深度和子划分之一的深度,或者所有子划分或子划分的一部分大于定义的深度,则当前CU是一个MER。在另一个实施例中,如果当前CU小于或等于定义的面积/大小/形状/区域/宽度/高度并且父CU大于定义的面积/大小/形状/区域/宽度/高度,则当前CU是一个MER。在另一示例中,如果当前CU的深度大于或等于所定义的深度并且父CU小于所定义的深度,则当前CU是一个MER。例如,如果定义的区域是1024并且CU大小是64x32(宽度等于64并且高度等于32),则使用垂直TT分裂(例如,64x32 CU划分为16x32子CU、32x32子CU和16×32子CU),在一个实施例中,64×32块是一个MER。此64x32中的子CU使用共享列表。在另一实施例中,64x32块不是MER。然而,16x32子CU、32x32子CU和16x32子CU分别是MER。在另一个实施例中,对于定义的MER面积/大小/形状/区域/宽度/高度,当进行TT分裂时,MER面积/大小/形状/区域/宽度/高度可以在不同的TT划分中不同。例如,对于第一和第三划分,MER面积/大小/形状/区域/宽度/高度的阈值可以除以2(或者深度增加1)。对于第二划分,MER面积/大小/形状/区域/宽度/高度的阈值保持相同。
方法-根据CU维度减少合并候选列表
该方法应用于合并模式或其他候选列表模式,例如仿射合并列表(仅仿射合并候选),或统一仿射-ATPVP合并列表(将仿射合并候选和ATMVP候选组到一个列表中)或ATMVP普通合并(normal merge)列表(平移类型(translational)合并候选和ATMVP候选在一个列表中),依此类推。
在另一实施例中,其根据CU大小或任何其它CU大小相关特征移除一些候选。如果CU大小大于预定阈值(例如,面积=16),则从候选列表的构造中移除(或称为排除)一些候选(例如,ATMVP)。
在另一实施例中,ATMVP的关闭取决于当前CU的宽度或高度,其也与CU大小有关。在一个示例中,如果CU宽度小于预定阈值,则关闭ATMVP。在另一示例中,如果CU高度小于预定阈值,则关闭ATMVP。在另一实施例中,如果CU高度小于预定阈值或CU宽度小于另一预定阈值,则关闭ATMVP。在另一实施例中,如果CU高度小于预定阈值并且CU宽度小于另一预定阈值,则关闭ATMVP。
在一个示例中,当宽度小于8或高度小于8时,ATMVP被关闭(即,禁用或排除)。
在另一实施例中,ATMVP的关闭取决于当前CU的宽度或高度。例如,如果CU宽度大于预定阈值,则关闭ATMVP。在另一示例中,如果CU高度大于预定阈值,则关闭ATMVP。在另一实施例中,如果CU高度大于预定阈值或CU宽度大于另一预定阈值,则关闭ATMVP。在另一实施例中,如果CU高度大于预定阈值并且CU宽度大于另一预定阈值,则关闭ATMVP。
在另一实施例中,ATMVP的关闭取决于当前CU的形状。例如,如果CU纵横比(即,宽度/高度或高度/宽度)小于预定阈值,则关闭ATMVP。在另一示例中,如果CU纵横比(即,宽度/高度或高度/宽度)大于预定阈值,则ATMVP被关闭。
可以为所有图像大小和所有比特流固定和预定义大小阈值、宽度阈值或高度阈值。在另一个实施例中,可以根据图像大小自适应地确定大小阈值、宽度阈值或高度阈值。对于不同的图像大小,阈值可能不同。在另一个实施例中,可以从编码器向解码器信令大小阈值、宽度阈值或高度阈值。用于信令大小阈值/宽度阈值/高度阈值的单元的最小尺寸也可以在序列级、图像级、切片级或PU级中单独编解码。
用于合并/帧间/仿射合并/仿射帧间/ATMVP/子块候选列表构造的共享合并列表MV
在根CU或共享边界处生成的候选列表可以用于子CU的合并/帧间/仿射合并/仿射帧间/ATMVP/子块候选列表构造,即使共享列表未启用。可以将根CU或共享边界的候选添加到子CU的候选列表中。根CU或共享边界的形状/大小/深度/宽度/高度可以是预定义的、信令的(例如在序列/图像/切片/图块/CTU行/CTU级别中)或导出的。例如,根CU可以是父N级(parent N-level)CU。N可以是整数。
在一个实施例中,可以定义两个阈值:一个较大而一个较小。较大的根CU或较大的共享边界由较大的阈值定义/确定。在较大的根CU或较大的共享边界处生成候选列表。对于较大根CU或较大共享边界中的所有子CU,可以将较大根CU或较大共享边界的候选添加到子CU的候选列表中。较小的根CU或较小的共享边界由较小的阈值定义/确定。在较小的根CU或较小的共享边界处生成候选列表。当生成较小根CU或较小共享边界的候选列表时,可以添加较大根CU或较大共享边界的候选。对于较小根CU或较小共享边界中的子CU,使用在较小根CU或较小共享边界处生成的候选列表。
可以在编码器和/或解码器中实现前面提出的方法。例如,任何所提出的方法可以在编码器中的熵编码模块或块划分模块中实现,和/或在解码器中的熵解析器模块或块划分模块中实现。或者,任何所提出的方法都可以实现为耦合到编码器中的熵编码模块或块划分模块的电路,和/或解码器中的熵解析器模块或块划分模块,以便提供熵解析器模块或块划分模块所需的信息。
图14示出了视频编解码的示例性帧间预测的流程图,其中所述视频编解码允许根据本发明的实施例的子块模式运动向量预测。流程图中示出的步骤以及本公开中的其他后续流程图可以实现为在编码器侧和/或解码器侧的一个或多个处理器(例如,一个或多个CPU)上可执行的程序代码。流程图中示出的步骤还可以基于诸如被布置为执行流程图中的步骤的一个或多个电子设备或处理器的硬件来实现。根据该方法,在步骤1410,在视频编码器侧接收与当前图像中的当前块相关的输入数据,或者在视频解码器侧接收与包括当前图像中的当前块的压缩数据相对应的视频比特流。在步骤1420,基于当前块的块大小确定条件。在步骤1430,如果满足条件,则使用排除目标子块的编解码工具的编解码工具集对与当前块相关联的当前运动信息进行编码或解码。如果不满足条件,则在步骤1440中使用包括目标子块模式编解码工具的编解码工具集对与当前块相关联的当前运动信息进行编码或解码。
图15示出了根据本发明实施例的视频编解码的示例性帧间预测的流程图,其中一个根区域内的相邻块被取消或推送用于合并候选。根据该方法,在步骤1510,在视频编码器侧接收与当前图像中的当前块相关的输入数据,或者在视频解码器侧接收与包括当前图像中的当前块的压缩数据相对应的视频比特流,其中当前块对应于根节点下的多个叶块之中的一个目标叶块,该多个叶块是由包括当前块的区域的块划分产生的。在步骤1520中确定包围所述多个叶块的MER(合并估计区域)。在步骤1530中,如果当前块的参考块在MER内,则从合并候选列表中排除与参考块相关联的目标候选,或者修改的目标候选包括在合并候选列表中,其中基于MER外部的修改的参考块导出修改的目标候选。在步骤1540,使用合并候选列表对与当前块相关联的当前运动信息进行编码或解码。
图16示出了根据本发明实施例的视频编解码的示例性帧间预测的流程图,其中一个根区域内的子块共享公共合并候选列表。根据该方法,在步骤1610中,在视频编码器侧接收与当前图像中的当前CU(编码单元)相关的输入数据,或者在视频解码器侧接收与包括当前图像中的当前CU的压缩数据相对应的视频比特流,其中当前CU对应于根节点下的多个子CU中的一个目标子CU,所述根节点是由包括当前CU的区域的块划分产生的。在步骤1620中确定包围所述多个子CU的共享边界。在步骤1630中,基于位于共享边界附近的一个或多个相邻参考块导出共享合并列表。在步骤1640中使用共享合并列表编码或解码与所述多个子CU相关联的当前运动信息。
所示的流程图旨在示出根据本发明的视频编解码的示例。在不脱离本发明的精神的情况下,本领域技术人员可以修改每个步骤,重新安排步骤,分裂步骤,或组合步骤以实施本发明。在本公开中,已经使用特定语法和语义来说明用于实现本发明的实施例的示例。本领域技术人员可以通过用等同的语法和语义替换语法和语义来实践本发明而不脱离本发明的精神。
呈现以上描述是为了使得本领域技术人员能够实践在特定应用及其要求的上下文中提供的本发明。对所描述的实施例的各种修改对于本领域技术人员来说是显而易见的,并且这里定义的一般原理可以应用于其他实施例。因此,本发明不限于所示出和描述的特定实施例,而是与符合本文所公开的原理和新颖特征的最宽范围相一致。在以上详细描述中,示出了各种具体细节以便提供对本发明的透彻理解。然而,本领域技术人员将理解,可以实施本发明。
如上所述的本发明的实施例可以以各种硬件、软件代码或两者的组合来实现。例如,本发明的实施例可以是集成到视频压缩芯片中的一个或多个电路或集成到视频压缩软件中的程序代码,以执行这里描述的处理。本发明的实施例还可以是要在数字信号处理器(DSP)上执行的程序代码,以执行这里描述的处理。本发明还可以涉及由计算机处理器、数字信号处理器、微处理器或现场可编程门阵列(FPGA)执行的许多功能。这些处理器可以被配置为通过执行定义本发明所体现的特定方法的机器可读软件代码或固件代码来执行根据本发明的特定任务。软件代码或固件代码可以用不同的程序语言和不同的格式或样式开发。还可以针对不同的目标平台编译软件代码。然而,软件代码的不同代码格式、样式和语言以及配置代码以执行根据本发明的任务的其他装置将不脱离本发明的精神和范围。
在不脱离本发明的精神或基本特征的情况下,本发明可以以其他特定形式实施。所描述的示例在所有方面都应被视为仅是说明性的而非限制性的。因此,本发明的范围由所附权利要求而不是前面的描述表示。在权利要求的含义和等同范围内的所有变化都包含在其范围内。

Claims (11)

1.一种视频编解码的帧间预测方法,其中该视频编解码允许子块模式运动向量预测,该方法包括:
在视频编码器侧接收与当前图像中的当前块相关的输入数据或者在视频解码器侧接收与包括当前图像中的当前块的压缩数据相对应的视频比特流;
基于该当前块的块大小确定条件;
如果该条件满足,则使用不包括目标子块模式编解码工具的编解码工具集编码或解码与该当前块相关联的当前运动信息;以及
如果该条件不满足,则使用包括该目标子块模式编解码工具的该编解码工具集编码或解码与该当前块相关联的该当前运动信息。
2.根据权利要求1所述的方法,其特征在于,该目标子块模式编解码工具对应于基于子块的时间运动向量预测。
3.根据权利要求1所述的方法,其特征在于,如果该当前块的块大小小于阈值,则满足该条件。
4.根据权利要求1所述的方法,其特征在于,如果该当前块的面积小于阈值,则满足该条件。
5.根据权利要求1所述的方法,其特征在于,如果该当前块的块宽度或该当前块的块高度小于阈值,则满足该条件。
6.一种用于视频编解码的帧间预测的装置,其中该视频编解码允许子块模式运动向量预测,该装置包括一个或多个电子电路或处理器,其被布置成:
在视频编码器侧接收与当前图像中的当前块相关的输入数据或者在视频解码器侧接收与包括当前图像中的当前块的压缩数据相对应的视频比特流;
基于该当前块的块大小确定条件;
如果该条件满足,则使用不包括目标子块模式编解码工具的编解码工具集编码或解码与该当前块相关联的当前运动信息;以及
如果该条件不满足,则使用包括该目标子块模式编解码工具的该编解码工具集编码或解码与该当前块相关联的该当前运动信息。
7.一种用于视频编解码的帧间预测的方法,其中所述视频编解码允许使用包括仿射模式预测或基于子块的时间运动向量预测模式的子块模式的编解码工具,该方法包括:
在视频编码器侧接收与当前图像中的当前编解码单元相关的输入数据或者在视频解码器侧接收与包括当前图像中的当前编解码单元的压缩数据相对应的视频比特流,其中该当前编解码单元对应于根节点下的多个子编解码单元中的目标子编解码单元,该根节点是由包括该当前编解码单元的区域的块划分产生的;
确定包围该多个子编解码单元的共享边界;
基于位于该共享边界附近的一个或多个相邻参考块来导出共享合并列表;以及
使用该共享合并列表编码或解码与该多个子编解码单元相关联的当前运动信息。
8.根据权利要求7所述的方法,其特征在于,该一个或多个相邻参考块的控制点运动向量用于导出该多个子编解码单元的一个或多个仿射合并候选。
9.根据权利要求7所述的方法,其特征在于,该一个或多个相邻参考块的仿射参数用于导出该多个子编解码单元的一个或多个仿射合并候选。
10.根据权利要求9所述的方法,其特征在于,该一个或多个相邻参考块的该仿射参数对应于该一个或多个相邻参考块的运动向量梯度、一个或多个起始运动向量和位置。
11.一种用于视频编解码的帧间预测的装置,其中该视频编解码允许使用包括仿射模式预测或基于子块的时间运动向量预测模式的子块模式的编码解码工具,该装置包括一个或多个电子电路或处理器,安排如下:
在视频编码器侧接收与当前图像中的当前编解码单元相关的输入数据或者在视频解码器侧接收与包括当前图像中的当前编解码单元的压缩数据相对应的视频比特流,其中该当前编解码单元对应于根节点下的多个子编解码单元中的目标子编解码单元,该根节点是由包括该当前编解码单元的区域的块划分产生的;
确定包围该多个子编解码单元的共享边界;
基于位于该共享边界附近的一个或多个相邻参考块来导出共享合并列表;以及
使用该共享合并列表编码或解码与该多个子编解码单元相关联的当前运动信息。
CN202410054753.4A 2018-08-17 2019-08-15 视频编解码的帧间预测方法及装置 Pending CN117956139A (zh)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201862719175P 2018-08-17 2018-08-17
US62/719,175 2018-08-17
US201862740430P 2018-10-03 2018-10-03
US62/740,430 2018-10-03
US201862742281P 2018-10-06 2018-10-06
US62/742,281 2018-10-06
US201862744422P 2018-10-11 2018-10-11
US62/744,422 2018-10-11
CN201980052435.1A CN112585972B (zh) 2018-08-17 2019-08-15 视频编解码的帧间预测方法及装置
PCT/CN2019/100812 WO2020035029A1 (en) 2018-08-17 2019-08-15 Method and apparatus of simplified sub-mode for video coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201980052435.1A Division CN112585972B (zh) 2018-08-17 2019-08-15 视频编解码的帧间预测方法及装置

Publications (1)

Publication Number Publication Date
CN117956139A true CN117956139A (zh) 2024-04-30

Family

ID=69525135

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202410054753.4A Pending CN117956139A (zh) 2018-08-17 2019-08-15 视频编解码的帧间预测方法及装置
CN201980052435.1A Active CN112585972B (zh) 2018-08-17 2019-08-15 视频编解码的帧间预测方法及装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201980052435.1A Active CN112585972B (zh) 2018-08-17 2019-08-15 视频编解码的帧间预测方法及装置

Country Status (5)

Country Link
US (1) US11503329B2 (zh)
EP (1) EP3831062A4 (zh)
CN (2) CN117956139A (zh)
TW (2) TWI718079B (zh)
WO (1) WO2020035029A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3809705B1 (en) * 2018-07-02 2024-05-01 Huawei Technologies Co., Ltd. Motion vector prediction method and device, and codec
CN111357290B (zh) * 2019-01-03 2023-08-22 北京大学 视频图像处理方法与装置
WO2024005616A1 (ko) * 2022-07-01 2024-01-04 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608458A (en) 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
JP2011259204A (ja) 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号装置およびその方法とプログラム
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
CN105915902B (zh) 2011-03-08 2017-09-22 Jvc 建伍株式会社 动图像编码装置以及动图像编码方法
WO2012128540A2 (ko) * 2011-03-21 2012-09-27 엘지전자 주식회사 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치
US8964833B2 (en) 2011-07-19 2015-02-24 Qualcomm Incorporated Deblocking of non-square blocks for video coding
US9736489B2 (en) * 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
CA2824755C (en) * 2011-09-23 2018-01-16 Kt Corporation Method for deriving a merge candidate block and device using same
JP5972888B2 (ja) 2011-09-29 2016-08-17 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
US20130114717A1 (en) 2011-11-07 2013-05-09 Qualcomm Incorporated Generating additional merge candidates
RU2632154C1 (ru) 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Способ и устройство для совместного использования списка кандидатов
EP2942961A1 (en) * 2011-11-23 2015-11-11 HUMAX Holdings Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
US20130188715A1 (en) 2012-01-09 2013-07-25 Qualcomm Incorporated Device and methods for merge list reordering in video coding
CN104054346A (zh) 2012-01-19 2014-09-17 索尼公司 图像处理装置和方法
US9544592B2 (en) * 2012-02-10 2017-01-10 Texas Instruments Incorporated Methods and systems for encoding pictures associated with video data
US9826244B2 (en) * 2013-01-08 2017-11-21 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
US20150071357A1 (en) 2013-09-12 2015-03-12 Qualcomm Incorporated Partial intra block copying for video coding
US9762927B2 (en) * 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US20150373343A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Representation format update in multi-layer codecs
US10027981B2 (en) * 2014-09-01 2018-07-17 Hfi Innovation Inc. Method of intra picture block copy for screen content and video coding
US10230980B2 (en) * 2015-01-26 2019-03-12 Qualcomm Incorporated Overlapped motion compensation for video coding
US10271064B2 (en) 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
JP6065951B2 (ja) * 2015-07-27 2017-01-25 株式会社Jvcケンウッド 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法及び受信プログラム
EP3334158A4 (en) * 2015-08-07 2019-03-20 LG Electronics Inc. METHOD AND DEVICE FOR INTERPRETING IN A VIDEO CODING SYSTEM
US20170078703A1 (en) 2015-09-10 2017-03-16 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system
WO2017147765A1 (en) * 2016-03-01 2017-09-08 Mediatek Inc. Methods for affine motion compensation
WO2017156705A1 (en) 2016-03-15 2017-09-21 Mediatek Inc. Affine prediction for video coding
US10567808B2 (en) 2016-05-25 2020-02-18 Arris Enterprises Llc Binary ternary quad tree partitioning for JVET
CN109565592B (zh) 2016-06-24 2020-11-17 华为技术有限公司 一种使用基于分割的视频编码块划分的视频编码设备和方法
US10326986B2 (en) 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US20210281873A1 (en) 2016-09-06 2021-09-09 Mediatek Inc. Methods and apparatuses of candidate set determination for binary-tree splitting blocks
US10477238B2 (en) * 2016-09-07 2019-11-12 Qualcomm Incorporated Sub-PU based bi-directional motion compensation in video coding
JP2019535202A (ja) 2016-10-06 2019-12-05 エルジー エレクトロニクス インコーポレイティド インター予測モードベースの画像処理方法及びそのための装置
US10931969B2 (en) 2017-01-04 2021-02-23 Qualcomm Incorporated Motion vector reconstructions for bi-directional optical flow (BIO)
US10582209B2 (en) * 2017-03-30 2020-03-03 Mediatek Inc. Sub-prediction unit temporal motion vector prediction (sub-PU TMVP) for video coding
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
KR102545728B1 (ko) * 2018-07-16 2023-06-20 엘지전자 주식회사 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치
JP7319365B2 (ja) * 2018-11-22 2023-08-01 北京字節跳動網絡技術有限公司 サブブロックに基づくインター予測のための調整方法

Also Published As

Publication number Publication date
WO2020035029A1 (en) 2020-02-20
US20210266589A1 (en) 2021-08-26
US11503329B2 (en) 2022-11-15
TWI718079B (zh) 2021-02-01
TWI709328B (zh) 2020-11-01
CN112585972B (zh) 2024-02-09
EP3831062A4 (en) 2022-07-06
EP3831062A1 (en) 2021-06-09
TW202021355A (zh) 2020-06-01
TW202046731A (zh) 2020-12-16
CN112585972A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
EP3639519B1 (en) Motion vector prediction
TWI729446B (zh) 用於視訊編解碼之增強型幀內塊複製模式的方法和裝置
US11122260B2 (en) Method and apparatus of Merge list generation for Intra Block Copy mode
CN112840653B (zh) 视频编解码中共享合并候选列表区域的方法和装置
CN117915083A (zh) 块内拷贝模式和帧间预测工具之间的交互
JP7425808B2 (ja) 動き候補リスト構築プロセスの条件付き実行
JP2018129809A (ja) 映像復号化方法、映像符号化方法及び記録媒体
TWI774141B (zh) 視訊編解碼方法及裝置
CN114175636B (zh) 自适应参数集中的自适应环路滤波的指示
TWI729458B (zh) 用於視訊編解碼的簡化的合併候選列表的方法和裝置
CN112585972B (zh) 视频编解码的帧间预测方法及装置
CN114208198A (zh) 视频编码中用于帧内分区的转换类型分配方法和装置

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination