CN113194314A - 视频处理方法、编码端及解码端 - Google Patents

视频处理方法、编码端及解码端 Download PDF

Info

Publication number
CN113194314A
CN113194314A CN202110501154.9A CN202110501154A CN113194314A CN 113194314 A CN113194314 A CN 113194314A CN 202110501154 A CN202110501154 A CN 202110501154A CN 113194314 A CN113194314 A CN 113194314A
Authority
CN
China
Prior art keywords
block
motion vector
current block
reference frame
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110501154.9A
Other languages
English (en)
Other versions
CN113194314B (zh
Inventor
郑萧桢
王苏红
马思伟
王苫社
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
SZ DJI Technology Co Ltd
Original Assignee
Peking University
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University, SZ DJI Technology Co Ltd filed Critical Peking University
Publication of CN113194314A publication Critical patent/CN113194314A/zh
Application granted granted Critical
Publication of CN113194314B publication Critical patent/CN113194314B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种视频处理方法、编码端及解码端。其中,视频处理方法包括:获取当前块的时域运动矢量;根据所述当前块的时域运动矢量确定所述当前块在参考帧中的对应块;根据所述当前块在参考帧中的对应块确定所述当前块的子块的运动信息;将所述当前块的子块的运动信息加入所述当前块的仿射融合候选列表;根据所述仿射融合候选列表对所述当前块进行帧间预测。

Description

视频处理方法、编码端及解码端
技术领域
本申请涉及视频编解码领域,并且更为具体地,涉及一种视频处理方法、编码端及解码端。
背景技术
视频编码过程包括帧间预测过程。帧间预测的模式包括merge模式和非merge模式。merge模式下,通常需要先构建merge模式的运动矢量候选列表,并从merge模式的运动矢量候选列表中选取当前块的运动矢量。当前块也可称为当前编码单元(coding unit,CU)。
随着编码技术的发展,帧间预测方式引入了可选/高级时域运动矢量预测(alternative/advanced temporal motion vector prediction,ATMVP)技术。在 ATMVP技术中,当前块会被划分成多个子块,并计算子块的运动信息。 ATMVP技术旨在引入子块级别的运动矢量预测,以提升视频的整体编码性能。
利用ATMVP技术寻找当前块的子块的运动信息的过程比较复杂,存在一些冗余操作,该过程中仍有改进的空间。
发明内容
本申请提供一种视频处理方法和装置,能够简化编解码操作。
第一方面,提供一种视频处理方法,包括:获取当前块的参考帧列表,所述当前块的参考帧列表包括第一参考帧列表和第二参考帧列表;根据所述当前块的参考帧列表,确定目标参考帧列表,所述目标参考帧列表为所述第一参考帧列表和所述第二参考帧列表之一;根据所述当前块的目标参考帧列表确定所述当前块的时域运动矢量;根据所述时域运动矢量确定所述当前块的子块的运动信息;根据所述当前块的子块的运动信息对所述当前块进行帧间预测。
第二方面,提供一种视频处理装置,包括:存储器,用于存储代码;处理器,用于执行所述存储器中存储的代码,以执行如下操作:获取当前块的参考帧列表,所述当前块的参考帧列表包括第一参考帧列表和第二参考帧列表;根据所述当前块的参考帧列表,确定目标参考帧列表,所述目标参考帧列表为所述第一参考帧列表和所述第二参考帧列表之一;根据所述当前块的目标参考帧列表确定所述当前块的时域运动矢量;根据所述时域运动矢量确定所述当前块的子块的运动信息;根据所述当前块的子块的运动信息对所述当前块进行帧间预测。
第三方面,提供一种计算机可读存储介质,其上存储有用于执行第一方面中的方法的指令。
第四方面,提供一种计算机程序产品,包含用于执行第一方面中的方法的指令。
通过限制双向预测过程中的需要扫描的参考帧列表的数量,可以简化编解码操作。
附图说明
图1是构造affine merge candidate list的流程图。
图2是当前块的周围块的示意图。
图3是ATMVP的实现过程的流程图。
图4是当前块的子块的运动信息的获取方式的示例图。
图5是本申请实施例提供的视频处理方法的流程示意图。
图6是本申请实施例提供的视频处理装置的结构示意图。
具体实施方式
本申请可应用于多种视频编码标准,如H.264,高效率视频编码(high efficiencyvideo coding,HEVC),通用视频编码(versatile video coding,VVC),音视频编码标准(audio video coding standard,AVS),AVS+,AVS2以及AVS3 等。
视频编码过程主要包括预测、变换、量化、熵编码、环路滤波等部分。预测是主流视频编码技术的重要组成部分。预测可以分为帧内预测和帧间预测。帧间预测可以通过运动补偿的方式来实现。下面对运动补偿过程进行举例说明。
例如,对于一帧图像,可以先将其划分成一个或多个编码区域。该编码区域也可称为编码树单元(coding tree unit,CTU)。CTU的尺寸例如可以是 64×64,也可以是128×128(单位为像素,后文的类似描述均省略单位)。每个CTU可以划分成方形或矩形的图像块。该图像块也可称为编码单元 (coding unit,CU),后文会将待编码的当前CU称为当前块。
在对当前块进行帧间预测时,可以从参考帧(可以是时域附近的已重构帧)中寻找当前块的相似块,作为当前块的预测块。当前块与相似块之间的相对位移称为运动矢量(motion vector,MV)。在参考帧中寻找相似块作为当前块的预测块的过程即为运动补偿。
帧间预测模式包括merge模式和非merge模式。在merge模式中,图像块的运动矢量(motion vector,MV)即为图像块的运动矢量预测(motion vector prediction,MVP),因此,对于merge模式,在码流中传输MVP的索引及参考帧的索引即可。相比而言,非merge模式不但需要在码流中传输MVP和参考帧的索引,还需要在码流中传输运动矢量差值(motionvector difference, MVD)。
传统的运动矢量采用的是简单的平移模型,即当前块的运动矢量代表的是当前块与参考块之间的相对位移。这种类型的运动矢量难以准确描述视频中的更为复杂的运动情况,如缩放、旋转、透视等。为了能够描述更为复杂的运动情况,相关编解码标准中引入了仿射模型(affine模型)。仿射模型利用当前块的两个或三个控制点(control point,CP)的运动矢量描述当前块的仿射运动场。该两个控制点例如可以是当前块的左上角点和右上角点;该三个控制点例如可以是当前块的左上角点,右上角点和左下角点。
将仿射模型与前文提及的merge模式结合在一起,即形成affine merge 模式。普通merge模式的运动矢量候选列表(merge candidate list)中记录的是图像块的MVP,而affine merge模式的运动矢量候选列表(affine merge candidate list)中记录的是控制点运动矢量预测(control point motion vector prediction,CPMVP)。与普通merge模式类似,affine merge模式无需在码流中添加MVD,而是直接将CPMVP作为当前块的CPMV。
当前块的affine merge candidate list的构造是affine merge模式的重要过程之一。图1示出了affine merge candidate list(仿射融合候选列表)的一种可能的构造方式。
步骤S110,在当前块的affine merge candidate list中插入ATMVP。
ATMVP包含的是当前块的子块的运动信息。换句话说,采用ATMVP 技术时,affinemerge candidate list会插入当前块的子块的运动信息,使得 affine merge模式能够在子块这一级别进行运动补偿,从而提升视频的整体编码性能。下文会结合图3,对步骤S110的实现方式进行详细描述,此处暂不详述。
所述运动信息包括以下一种或多种信息的组合:运动矢量;运动矢量差值;参考帧索引值;帧间预测的参考方向;图像块采用帧内编码或帧间编码的信息;图像块的划分模式。
步骤S120,在affine merge candidate list中插入继承的affine candidates。
例如,如图2所示,可以按照A1->B1->B0->A0->B2的顺序扫描当前块的周围块,将采用affine merge模式的周围块的CPMV作为当前块的affine candidates,插入当前块的affine merge candidate list。
步骤S130,判断affine merge candidate list中的affine candidates的数量是否小于预设值。
如果affine merge candidate list中的affine candidates的数量已达到预设值,结束图1的流程;如果affine merge candidate list中的affine candidates 的数量小于预设值,继续执行步骤S140。
步骤S140,在affine merge candidate list中插入构造的affine candidates。
例如,可以将当前块的周围块的运动信息进行组合,以构造出新的affinecandidates,并将构造生成的affine candidates插入affine merge candidate list。
步骤S150,判断affine merge candidate list中的affine candidates的数量是否小于预设值。
如果affine merge candidate list中的affine candidates的数量已达到预设值,结束图1的流程;如果affine merge candidate list中的affine candidates 的数量小于预设值,继续执行步骤S160。
在步骤S160,在affine merge candidate list中插入0矢量。
换句话说,使用0矢量填充(padding)affine merge candidate list,使其达到预设值。
下面结合图3,对图1中的步骤S110的实现方式进行详细地举例说明。在一些示例中,以下所介绍的在当前块的affine merge candidate list中插入 ATMVP的方法也可以不局限与上述图1所示的实施例中。
如图3所示,ATVMP技术的实现方式,即当前块的子块的运动信息的获取方式大致可以分为两步:步骤S310和S320。
在步骤S310,确定当前块的参考帧中的对应块(corresponding block)。
在目前的ATMVP技术中,当前帧(当前块所在的帧)的用于获取运动信息的帧被称为同位帧(co-located picture)。当前帧的同位帧会在slice(条带)初始化时设置。以前向预测为例,第一参考帧列表可以是前向参考帧列表,也可以是包含了第一组参考帧的参考帧列表。所述第一组参考帧中包括了时间顺序在当前帧之前及之后的参考帧。在slice初始化时,通常会将当前块的第一参考帧列表中的第一帧设置为当前帧的同位帧。
当前块在参考帧中的对应块是通过一个时域运动矢量(temp MV)来确定的。因此,为了得到当前块在参考帧中的对应块,需要先推导该时域运动矢量。下面分别以前向预测和双向预测为例,对时域运动矢量的推导过程进行说明。
对于前向预测而言,当前块的参考帧列表(也可称为参考列表或参考图像列表)的个数为1。当前块的参考帧列表可以称为第一参考帧列表 (reference list 0)。在一种场景中,该第一参考帧列表可以为前向参考帧列表。当前帧的同位帧通常被设置为第一参考帧列表中的第一帧。
在推导时域运动矢量的过程中,一种实现方式是:先扫描当前块的运动矢量候选列表(该运动矢量候选列表可以基于空域4个相邻位置的图像块的运动矢量构建),将该运动矢量候选列表中的第一个候选运动矢量作为初始的时域运动矢量。然后,扫描当前块的第一参考帧列表,如果该第一个候选运动矢量的参考帧与当前帧的同位帧相同,则可以将该第一个候选运动矢量作为时域运动矢量;如果该第一个候选运动矢量的参考帧与当前帧的同位帧不同,则可以将时域运动矢量设置为0矢量,并停止扫描。
在该实现方式中,需要构建运动矢量候选列表,以获得列表中第一个候选运动矢量。在另一种实现方式中:可以直接取当前块某一个空域相邻块的运动矢量作为初始的时域运动矢量。如果该空域相邻块的运动矢量的参考帧与当前帧的同位帧相同,则可以将该其作为时域运动矢量;否则,则可以将时域运动矢量设置为0矢量,并停止扫描。这里,空域相邻块可以是当前块周围已编码块中的任一个,如可以固定是当前块的左侧块、或固定是当前块的上方块、或固定是当前块的左上块等。
对于双向预测而言,当前块的参考帧列表的个数为2,即包括第一参考帧列表(reference list 0)和第二参考帧列表(reference list 1)。其中在一种场景中,第一参考帧列表可以是前向参考帧列表,第二参考帧列表可以是后向参考帧列表。
在推导时域运动矢量的过程中,一种实现方式是:先扫描当前的运动矢量候选列表,将该运动矢量候选列表中的第一个候选运动矢量作为初始的时域运动矢量。然后,先扫描当前块的当前参考方向上的一个参考帧列表(可以是第一参考帧列表,也可以是第二参考帧列表),如果该第一个候选运动矢量的参考帧与当前帧的同位帧相同,则可以将该第一个候选运动矢量作为时域运动矢量;如果该第一个候选运动矢量的参考帧与当前帧的同位帧不同,则继续扫描当前块的另一参考方向上的参考帧列表。同样地,如果第一个候选运动矢量在该另一参考帧列表中的参考帧与当前帧的同位帧相同,则可以将该第一个候选运动矢量作为时域运动矢量;如果该第一个候选运动矢量的参考帧与当前帧的同位帧不同,则可以将时域运动矢量设置为0矢量,并停止扫描。需要注意的是,在另外一些场景中,第一参考帧列表和第二参考帧列表都可以包含时间顺序在当前帧之前及之后的参考帧,所述的双向预测是指从第一参考帧列表和第二参考帧列表中选择了参考方向不同的参考帧。
在该实现方式中,双向预测中导出ATMVP的temp MV仍需要构建运动矢量候选列表。在另一种实现方式中:可以直接取当前块某一个空域相邻块的运动矢量作为初始的时域运动矢量。对于双向预测,先扫描当前块的当前参考方向上的一个参考帧列表(可以是第一参考帧列表,也可以是第二参考帧列表),如果该空域相邻块的运动矢量的在该参考方向上的参考帧与当前帧的同位帧相同,则可以将该其作为时域运动矢量。可选地,如果该空域相邻块的运动矢量在这个参考方向上的参考帧与当前帧的同位帧不同,则继续扫描当前块的另一参考方向上的参考帧列表。同样地,如果该空域相邻块的运动矢量在该另一参考帧列表中的参考帧与当前帧的同位帧相同,则可以将该空域相邻块的运动矢量作为时域运动矢量;如果该空域相邻块运动矢量的参考帧与当前帧的同位帧不同,则可以将时域运动矢量设置为0矢量,并停止扫描。这里,空域相邻块可以是当前块周围已编码块中的任一个,如固定是当前块的左侧块、或固定是当前块的上方块、或固定是当前块的左上块等。
对于双向预测而言,第一参考帧列表和第二参考帧列表的扫描顺序可以按照如下规则确定:
当当前帧采用的是低时延(low delay)编码模式,且当前帧的同位帧被设置为第二参考帧列表中的第一帧,则先扫描第二参考帧列表;否则,先扫描第一参考帧列表。
其中,当前帧采用低时延(low delay)编码模式可表示当前帧的参考帧在视频序列中的播放顺序均处于当前帧之前;当前帧的同位帧被设置为第二参考帧列表中的第一帧可表示当前帧的第一参考帧列表的第一个slice的量化步长小于第二参考帧列表的第一个slice的量化步长。
在推导出时域运动矢量之后,即可利用该时域运动矢量在参考帧中找到当前块的对应块。
在步骤S320,根据当前块的对应块,获取当前块的子块的运动信息。
如图4所示,可以将当前块划分成多个子块,然后确定子块在对应块中的运动信息。值得注意的是,对于每个子块而言,对应块的运动信息可以由其所在的最小运动信息存储单位确定。
所述运动信息包括以下一种或多种信息的组合:运动矢量;运动矢量差值;参考帧索引值;帧间预测的参考方向;图像块采用帧内编码或帧间编码的信息;图像块的划分模式。
从图3描述的ATMVP的实现过程可以看出,对于双向预测而言,最坏的情况是:在推导时域运动矢量的过程中,对两个参考帧列表均进行扫描,仍然没有导出符合条件的时域运动矢量,在这种情况下,对于两个参考帧列表的扫描是冗余的。
此外,在双向预测中,如果当前帧的编码模式为低时延模式(low delay B)或随机访问模式(random access),第一参考帧列表与第二参考帧列表中的参考帧会有一定程度上的重叠,因此,在获取时域运动矢量的过程中,对两个参考帧列表的扫描过程会存在冗余操作。
因此,相关技术针对双向预测提供的时域运动矢量推导方案比较复杂,存在改善的空间。
下面结合图5,对本申请实施例进行详细描述。
图5是本申请实施例提供的视频处理方法的示意性流程图。图5的方法可应用于编码端,也可应用于解码端。
在步骤S510,获取当前块的参考帧列表,当前块的参考帧列表包括第一参考帧列表和第二参考帧列表。
当前块也可称为当前CU。当前块的参考帧列表包括第一参考帧列表和第二参考帧列表,表示当前块要执行的是帧间的双向预测。
可选地,所述第一参考帧列表可以为前向参考帧列表,也可以是包含了第一组参考帧的参考帧列表。所述第一组参考帧中包括了时间顺序在当前帧之前及之后的参考帧。
可选地,所述第二参考帧列表可以为后向参考帧列表,也可以是包含了第二组参考帧的参考帧列表,所述第二组参考帧中包括了时间顺序在当前帧之前及之后的参考帧。
需要注意的是,在一些场景中,第一参考帧列表和第二参考帧列表都可以包含时间顺序在当前帧之前及之后的参考帧,所述的双向预测可以指从第一参考帧列表和第二参考帧列表中选择了参考方向不同的参考帧。
在步骤S520,根据当前块的参考帧列表,确定目标参考帧列表。
目标参考帧列表为第一参考帧列表和第二参考帧列表之一。该目标参考帧列表可以随机选取,也可以按照一定的规则选取。例如,可以按照如下规则选取:如果当前块所在的当前帧采用低延时编码模式、且当前帧的同位帧为第二参考帧列表中的第一帧,将第二参考帧列表确定为目标参考帧列表;和/或如果当前块所在的当前帧未采用低延时编码模式或当前帧的同位帧不是第二参考帧列表中的第一帧,将第一参考帧列表确定为目标参考帧列表。
在步骤S530,根据当前块的目标参考帧列表确定当前块的时域运动矢量。
在双向预测过程中,本申请实施例根据第一参考帧列表和第二参考帧列表中的一个参考帧列表确定当前块的时域运动矢量。换句话说,无论是否能够从目标参考帧列表中推导出时域运动矢量,在扫描完目标参考帧列表之后,即停止扫描。换句话说,可以仅根据目标参考帧列表确定当前块的时域运动矢量。
举例说明,可以先从当前的运动矢量候选列表(该运动矢量候选列表可以基于空域4个相邻位置的图像块的运动矢量构建)中选取第一个候选运动矢量;从目标参考帧列表中查找第一个候选运动矢量的参考帧;当第一个候选运动矢量的参考帧与当前块的同位帧相同时,可以将第一个候选运动矢量确定为时域运动矢量;当第一个候选运动矢量的参考帧与当前块的同位帧不同时,也停止扫描,而不像图3实施例中描述的那样继续扫描当前块的另一参考帧列表,在这种情况下,可以将0矢量作为当前块的时域运动矢量。
在步骤S540,根据时域运动矢量确定当前块的子块的运动信息。
例如,可以根据时域运动矢量确定当前块在参考帧中的对应块。然后,可以根据当前块在参考帧中的对应块确定当前块的子块的运动信息。所述运动信息包括以下一种或多种信息的组合:运动矢量;运动矢量差值;参考帧索引值;帧间预测的参考方向;图像块采用帧内编码或帧间编码的信息;图像块的划分模式。步骤S540可以参照上文中的步骤S320实现,此处不再详述。
在步骤S550,根据当前块的子块的运动信息对当前块进行帧间预测。
作为一个示例,步骤S550可以包括:以当前块的子块为单位根据当前块的子块的运动信息进行帧间预测。
例如,可以像图1所示的那样,将当前块的子块的运动信息作为ATMVP 插入当前块的affine merge candidates list中,然后按照图1中的步骤S120至步骤S160那样,构造出完整的affine merge candidates list。接着,可以利用该affine merge candidateslist中的候选运动矢量,对当前块进行帧间预测,以确定最优的候选运动矢量。步骤S550的详细实现方式可以参照相关技术执行,本申请实施例对此并不限定。
本申请实施例通过限制双向预测过程中需要扫描的参考帧列表的数量,可以简化编解码端的操作。
可以理解的是,图5的方法分别应用于编码端和解码端时,步骤S550 描述的对当前块的帧间预测过程会有所差异。例如,当图5的方法应用于编码端时,对当前块进行帧间预测可以包括:确定当前块的预测块;根据当前块的原始块和预测块,计算当前块的残差块。又如,当图5的方法应用于解码端时,对当前块进行帧间预测可以包括:确定当前块的预测块和残差块;根据当前块的预测块和残差块,计算当前块的重构块。
上文结合图1至图5,详细描述了本申请的方法实施例,下面结合图6,详细描述本申请的装置实施例。应理解,方法实施例的描述与装置实施例的描述相互对应,因此,未详细描述的部分可以参见前面方法实施例。
图6是本申请实施例提供的视频处理装置的示意性结构图。图6的装置 60包括:存储器62和处理器64。
存储器62可用于存储代码。
处理器64可用于执行所述存储器中存储的代码,以执行如下操作:获取当前块的参考帧列表,所述当前块的参考帧列表包括第一参考帧列表和第二参考帧列表;根据所述当前块的参考帧列表,确定目标参考帧列表,所述目标参考帧列表为所述第一参考帧列表和所述第二参考帧列表之一;根据所述当前块的目标参考帧列表确定所述当前块的时域运动矢量;根据所述时域运动矢量确定所述当前块的子块的运动信息;根据所述当前块的子块的运动信息对所述当前块进行帧间预测。
可选地,所述根据所述时域运动矢量确定所述当前块的子块的运动信息,包括:根据所述时域运动矢量确定所述当前块在参考帧中的对应块;根据所述当前块在所述参考帧中的对应块确定所述当前块的子块的运动信息。
可选地,所述根据所述当前块的参考帧列表,确定目标参考帧列表,包括:如果所述当前块所在的当前帧采用低延时编码模式、且所述当前帧的同位帧为所述第二参考帧列表中的第一帧,将所述第二参考帧列表确定为所述目标参考帧列表;和/或如果所述当前块所在的当前帧未采用低延时编码模式或所述当前帧的同位帧不是所述第二参考帧列表中的第一帧,将所述第一参考帧列表确定为所述目标参考帧列表。
可选地,所述第一参考帧列表可以为前向参考帧列表,也可以是包含了第一组参考帧的参考帧列表。所述第一组参考帧中包括了时间顺序在当前帧之前及之后的参考帧。
可选地,所述第二参考帧列表可以为后向参考帧列表,也可以是包含了第二组参考帧的参考帧列表,所述第二组参考帧中包括了时间顺序在当前帧之前及之后的参考帧。
需要注意的是,在一些场景中,第一参考帧列表和第二参考帧列表都可以包含时间顺序在当前帧之前及之后的参考帧,所述的双向预测可以指从第一参考帧列表和第二参考帧列表中选择了参考方向不同的参考帧。
可选地,所述根据当前块的目标参考帧列表确定所述当前块的时域运动矢量,包括:从所述当前的运动矢量候选列表中选取第一个候选运动矢量;从所述目标参考帧列表中查找所述第一个候选运动矢量的参考帧;当所述第一个候选运动矢量的参考帧与所述当前块的同位帧相同时,将所述第一个候选运动矢量确定为所述时域运动矢量。
可选地,所述根据当前块的目标参考帧列表确定所述当前块的时域运动矢量,还包括:当所述第一个候选运动矢量的参考帧与所述当前块的同位帧不同时,将所述时域运动矢量确定为0矢量。
可选地,所述对所述当前块进行帧间预测,包括:确定所述当前块的预测块;根据所述当前块的原始块和预测块,计算所述当前块的残差块。
可选地,所述对所述当前块进行帧间预测,包括:确定所述当前块的预测块和残差块;根据所述当前块的预测块和残差块,计算所述当前块的重构块。
可选地,所述根据所述当前块的子块的运动信息对所述当前块进行帧间预测可以包括:以所述当前块的子块为单位根据所述当前块的子块的运动信息进行帧间预测。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其他任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线 (例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线 (例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质 (例如数字视频光盘(digital video disc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种视频处理方法,其特征在于,包括:
获取当前块的时域运动矢量;
根据所述当前块的时域运动矢量确定所述当前块在参考帧中的对应块;
根据所述当前块在参考帧中的对应块确定所述当前块的子块的运动信息;
将所述当前块的子块的运动信息加入所述当前块的仿射融合候选列表;
根据所述仿射融合候选列表对所述当前块进行帧间预测。
2.根据权利要求1所述的视频处理方法,其特征在于,所述获取当前块的时域运动矢量,包括:
取所述当前块的某一个空域相邻块的运动矢量作为初始的时域运动矢量;
对于双向预测,确定所述当前块的第一参考阵帧列表和第二参考帧列表;
先扫描所述第一参考帧列表,当所述空域相邻块的运动矢量在所述第一参考帧列表中的参考帧与所述当前帧的同位帧相同,则将所述空域相邻块的运动矢量作为时域运动矢量;
当所述空域相邻块的运动矢量在所述第一参考帧列表中的参考帧与所述当前帧的同位帧不同时,继续扫描所述第二参考帧列表,当所述空域相邻块的运动矢量在所述第二参考帧列表中的参考帧与所述当前帧的同位帧相同时,将所述空域相邻块的运动矢量作为时域运动矢量。
3.根据权利要求1或2所述的视频处理方法,其特征在于,在所述当前块所在的slice初始化时,将所述当前块的第一参考帧列表中的第一帧设置为所述当前帧的同位帧。
4.根据权利要求1或2所述的视频处理方法,其特征在于,所述第一参考帧列表为前向参考帧列表。
5.根据权利要求1或2所述的视频处理方法,其特征在于,所述方法还包括:
在所述当前块的仿射融合候选列表中,插入从所述当前块的采用仿射融合模式的周围块继承的控制点的运动矢量。
6.根据权利要求1或2所述的视频处理方法,其特征在于,所述方法还包括:
当所述当前块的仿射融合候选列表中候选数量达到预设值时,停止往所述当前块的仿射融合候选列表中添加候选;
当所述当前块的仿射融合候选列表中候选数量未达到预设值时,使用0矢量填充所述仿射融合候选列表,使得所述仿射融合候选列表中的候选数量达到预设值。
7.一种编码端,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述存储器中存储的程序,以执行如下操作:
获取当前块的时域运动矢量;
根据所述当前块的时域运动矢量确定所述当前块在参考帧中的对应块;
根据所述当前块在参考帧中的对应块确定所述当前块的子块的运动信息;
将所述当前块的子块的运动信息加入所述当前块的仿射融合候选列表;
根据所述仿射融合候选列表对所述当前块进行帧间预测。
8.根据权利要求7所述的编码端,其特征在于,所述获取当前块的时域运动矢量,包括:
取所述当前块的某一个空域相邻块的运动矢量作为初始的时域运动矢量;
对于双向预测,确定所述当前块的第一参考阵帧列表和第二参考帧列表;
先扫描所述第一参考帧列表,当所述空域相邻块的运动矢量在所述第一参考帧列表中的参考帧与所述当前帧的同位帧相同,则将所述空域相邻块的运动矢量作为时域运动矢量;
当所述空域相邻块的运动矢量在所述第一参考帧列表中的参考帧与所述当前帧的同位帧不同时,继续扫描所述第二参考帧列表,当所述空域相邻块的运动矢量在所述第二参考帧列表中的参考帧与所述当前帧的同位帧相同时,将所述空域相邻块的运动矢量作为时域运动矢量。
9.一种解码端,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述存储器中存储的程序,以执行如下操作:
获取当前块的时域运动矢量;
根据所述当前块的时域运动矢量确定所述当前块在参考帧中的对应块;
根据所述当前块在参考帧中的对应块确定所述当前块的子块的运动信息;
将所述当前块的子块的运动信息加入所述当前块的仿射融合候选列表;
根据所述仿射融合候选列表对所述当前块进行帧间预测。
10.根据权利要求9所述的解码端,其特征在于,所述获取当前块的时域运动矢量,包括:
取所述当前块的某一个空域相邻块的运动矢量作为初始的时域运动矢量;
对于双向预测,确定所述当前块的第一参考阵帧列表和第二参考帧列表;
先扫描所述第一参考帧列表,当所述空域相邻块的运动矢量在所述第一参考帧列表中的参考帧与所述当前帧的同位帧相同,则将所述空域相邻块的运动矢量作为时域运动矢量;
当所述空域相邻块的运动矢量在所述第一参考帧列表中的参考帧与所述当前帧的同位帧不同时,继续扫描所述第二参考帧列表,当所述空域相邻块的运动矢量在所述第二参考帧列表中的参考帧与所述当前帧的同位帧相同时,将所述空域相邻块的运动矢量作为时域运动矢量。
CN202110501154.9A 2019-01-03 2019-12-31 视频处理方法、编码端及解码端 Active CN113194314B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
PCT/CN2019/070306 WO2020140242A1 (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CNPCT/CN2019/070306 2019-01-03
CN201980009017.4A CN111630861B (zh) 2019-01-03 2019-12-31 视频处理方法和装置
PCT/CN2019/130881 WO2020140916A1 (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201980009017.4A Division CN111630861B (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Publications (2)

Publication Number Publication Date
CN113194314A true CN113194314A (zh) 2021-07-30
CN113194314B CN113194314B (zh) 2022-10-25

Family

ID=70562433

Family Applications (7)

Application Number Title Priority Date Filing Date
CN201980004606.3A Pending CN111164976A (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CN202311024533.9A Pending CN116866605A (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CN202110897611.0A Active CN113453015B (zh) 2019-01-03 2019-12-31 视频处理方法和装置
CN202110896384.XA Active CN113507612B (zh) 2019-01-03 2019-12-31 视频处理方法和装置
CN201980009017.4A Active CN111630861B (zh) 2019-01-03 2019-12-31 视频处理方法和装置
CN202110501154.9A Active CN113194314B (zh) 2019-01-03 2019-12-31 视频处理方法、编码端及解码端
CN201980009160.3A Pending CN111630860A (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Family Applications Before (5)

Application Number Title Priority Date Filing Date
CN201980004606.3A Pending CN111164976A (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CN202311024533.9A Pending CN116866605A (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CN202110897611.0A Active CN113453015B (zh) 2019-01-03 2019-12-31 视频处理方法和装置
CN202110896384.XA Active CN113507612B (zh) 2019-01-03 2019-12-31 视频处理方法和装置
CN201980009017.4A Active CN111630861B (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201980009160.3A Pending CN111630860A (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Country Status (6)

Country Link
US (1) US20210337232A1 (zh)
EP (1) EP3908002A4 (zh)
JP (2) JP7328337B2 (zh)
KR (1) KR20210094089A (zh)
CN (7) CN111164976A (zh)
WO (3) WO2020140242A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894397B1 (ko) * 2011-06-14 2018-09-03 삼성전자주식회사 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN111953997A (zh) * 2019-05-15 2020-11-17 华为技术有限公司 候选运动矢量列表获取方法、装置及编解码器
CN117395397A (zh) 2019-06-04 2024-01-12 北京字节跳动网络技术有限公司 使用临近块信息的运动候选列表构建
CN114097228B (zh) 2019-06-04 2023-12-15 北京字节跳动网络技术有限公司 具有几何分割模式编解码的运动候选列表
JP7460661B2 (ja) 2019-06-06 2024-04-02 北京字節跳動網絡技術有限公司 映像符号化のための動き候補リストの構成
CN114175636B (zh) 2019-07-14 2024-01-12 北京字节跳动网络技术有限公司 自适应参数集中的自适应环路滤波的指示
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
CN114007078B (zh) * 2020-07-03 2022-12-23 杭州海康威视数字技术股份有限公司 一种运动信息候选列表的构建方法、装置及其设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104365101A (zh) * 2012-04-15 2015-02-18 三星电子株式会社 用于确定用于帧间预测的参考图像的方法及设备
CN104427345A (zh) * 2013-09-11 2015-03-18 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
US20150296218A1 (en) * 2012-11-27 2015-10-15 Squid Design Systems Pvt Ltd System and method of performing motion estimation in multiple reference frame
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system
WO2017131908A1 (en) * 2016-01-29 2017-08-03 Google Inc. Dynamic reference motion vector coding mode

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298902A (ja) * 1998-04-08 1999-10-29 Sony Corp 画像符号化装置および方法
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
CN1870748A (zh) * 2005-04-27 2006-11-29 王云川 因特网协议电视
WO2007029914A1 (en) * 2005-07-19 2007-03-15 Samsung Eletronics Co., Ltd. Video encoding/decoding method and apparatus in temporal direct mode in hierarchica structure
JP2011077722A (ja) * 2009-09-29 2011-04-14 Victor Co Of Japan Ltd 画像復号装置、画像復号方法およびそのプログラム
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
CN102685477B (zh) * 2011-03-10 2014-12-10 华为技术有限公司 获取用于合并模式的图像块的方法和设备
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
CN103533376B (zh) * 2012-07-02 2017-04-12 华为技术有限公司 帧间预测编码运动信息的处理方法、装置和编解码系统
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
WO2015124110A1 (en) * 2014-02-21 2015-08-27 Mediatek Singapore Pte. Ltd. Method of video coding using prediction based on intra picture block copy
WO2015143603A1 (en) * 2014-03-24 2015-10-01 Mediatek Singapore Pte. Ltd. An improved method for temporal motion vector prediction in video coding
US9854237B2 (en) * 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
CN104717513B (zh) * 2015-03-31 2018-02-09 北京奇艺世纪科技有限公司 一种双向帧间预测方法及装置
CN104811729B (zh) * 2015-04-23 2017-11-10 湖南大目信息科技有限公司 一种视频多参考帧编码方法
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
US9866862B2 (en) * 2016-03-18 2018-01-09 Google Llc Motion vector reference selection through reference frame buffer tracking
CN113438477A (zh) * 2016-04-06 2021-09-24 株式会社Kt 对视频进行编码、解码的方法及存储压缩视频数据的设备
WO2017176092A1 (ko) * 2016-04-08 2017-10-12 한국전자통신연구원 움직임 예측 정보를 유도하는 방법 및 장치
CN109196864B (zh) * 2016-05-24 2023-07-11 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
WO2018066874A1 (ko) * 2016-10-06 2018-04-12 세종대학교 산학협력단 비디오 신호의 복호화 방법 및 이의 장치
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
CN109089119B (zh) * 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
CN111903123B (zh) * 2018-07-02 2024-03-08 Lg电子株式会社 基于帧间预测模式的图像处理方法和用于该方法的装置
WO2020060316A1 (ko) * 2018-09-20 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104365101A (zh) * 2012-04-15 2015-02-18 三星电子株式会社 用于确定用于帧间预测的参考图像的方法及设备
US20150296218A1 (en) * 2012-11-27 2015-10-15 Squid Design Systems Pvt Ltd System and method of performing motion estimation in multiple reference frame
CN104427345A (zh) * 2013-09-11 2015-03-18 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system
WO2017131908A1 (en) * 2016-01-29 2017-08-03 Google Inc. Dynamic reference motion vector coding mode

Also Published As

Publication number Publication date
CN113453015A (zh) 2021-09-28
CN113194314B (zh) 2022-10-25
CN111164976A (zh) 2020-05-15
CN113507612A (zh) 2021-10-15
JP7328337B2 (ja) 2023-08-16
JP2023139221A (ja) 2023-10-03
EP3908002A1 (en) 2021-11-10
CN113453015B (zh) 2022-10-25
CN111630860A (zh) 2020-09-04
WO2020140242A1 (zh) 2020-07-09
CN116866605A (zh) 2023-10-10
CN113507612B (zh) 2023-05-12
KR20210094089A (ko) 2021-07-28
CN111630861A (zh) 2020-09-04
CN111630861B (zh) 2021-08-24
EP3908002A4 (en) 2022-04-20
JP2022515807A (ja) 2022-02-22
WO2020140916A1 (zh) 2020-07-09
US20210337232A1 (en) 2021-10-28
WO2020140915A1 (zh) 2020-07-09

Similar Documents

Publication Publication Date Title
CN111630861B (zh) 视频处理方法和装置
CN113824966B (zh) 获取视频图像运动矢量的方法与装置
US8311106B2 (en) Method of encoding and decoding motion picture frames
CN111357290B (zh) 视频图像处理方法与装置
US9473787B2 (en) Video coding apparatus and video coding method
US20220232208A1 (en) Displacement vector prediction method and apparatus in video encoding and decoding and device
BR112021002335A2 (pt) método de decodificação de imagem com base na predição de movimento afim e dispositivo usando lista de candidatos à fusão afins no sistema de codificação de imagem
CN111684799B (zh) 视频处理方法和装置
CN111247804B (zh) 图像处理的方法与装置
CN111357288B (zh) 视频图像处理方法与装置
CN112514391A (zh) 视频处理的方法与装置
WO2023034640A1 (en) Candidate derivation for affine merge mode in video coding
WO2023055967A1 (en) Candidate derivation for affine merge mode in video coding
CN111226439A (zh) 视频处理方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant