CN107580219B - 用于解码视频信号的方法 - Google Patents

用于解码视频信号的方法 Download PDF

Info

Publication number
CN107580219B
CN107580219B CN201710736224.2A CN201710736224A CN107580219B CN 107580219 B CN107580219 B CN 107580219B CN 201710736224 A CN201710736224 A CN 201710736224A CN 107580219 B CN107580219 B CN 107580219B
Authority
CN
China
Prior art keywords
block
collocated
prediction
prediction target
target block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710736224.2A
Other languages
English (en)
Other versions
CN107580219A (zh
Inventor
李培根
权载哲
金柱英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by KT Corp filed Critical KT Corp
Publication of CN107580219A publication Critical patent/CN107580219A/zh
Application granted granted Critical
Publication of CN107580219B publication Critical patent/CN107580219B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Abstract

公开了解码视频信号的方法,包括:从视频信号获得残块;基于与预测目标块相邻的相邻块,导出预测目标块的空间融合候选;基于并置图片中的并置块,导出预测目标块的时间融合候选;生成预测目标块的、包括空间和时间融合候选的融合候选列表;基于列表,执行预测目标块的帧间预测;基于通过帧间预测获得的预测块和残块,获得重构块;和将去块滤波器应用于重构块。基于预测目标块的下边界与最大编码单元的下边界是否毗连,确定并置块是第一和第五并置块中的一个。如果预测目标块的左上方的点位置是(xP,yP)、预测目标块宽度是nPSW且预测目标块高度是nPSH,则第一并置块是并置图片内包括点(xP+nPSW,yP+nPSH)的块,且第五并置块是并置图片内包括点(xP+(nPSW>>1),yP+(nPSH>>1))的块。

Description

用于解码视频信号的方法
本申请是2012年9月6日提交的申请号为PCT/KR2012/007174,进入中国国家阶段的申请号为201280013098.3,标题为“用于导出时间预测运动矢量的方法及使用该方法的设备”的专利申请的分案申请。
技术领域
本发明涉及一种视频编码和解码方法,更具体地,本发明涉及一种用于导出时间预测运动矢量的方法以及用于使用该方法的设备。
背景技术
近年来,针对高分辨率、高品质视频(如HD(高清晰度)视频和UHD(超高清晰度)视频)的需求已经在各个领域增长。随着视频数据逐渐具有高分辨率和/或高品质,与现有视频数据相比,视频数据量相对上升,因此,当经由传统的有线/无线宽带网络传输视频数据或将视频数据存储在现有的存储介质中时,传输和存储成本增加。为了解决随着视频数据达到高分辨率和高品质而出现的这样的问题,可以利用高效视频压缩技术。
针对视频压缩已经提出了多种方案,例如,根据当前图片之前或之后的图片来预测当前图片中所包括的像素值的帧间预测方案;使用当前图片中的像素信息来预测当前图片中所包括的像素值的帧内预测方案;以及将较短的码字分配给较频繁出现的值而将较长的码字分配给较少出现的值的熵编码方案。可以利用这样的视频压缩方案来有效地压缩、传输或存储视频数据。
发明内容
技术问题
本发明的目的是提供一种用于导出与LCU边界毗连的块的时间预测运动矢量的方法。
本发明的另一目的是提供一种执行用于导出与LCU边界毗连的块的时间预测运动矢量的方法的设备。
技术方案
为了实现本发明的第一目的,根据本发明的方面,一种视频解码方法,包括:用于确定预测目标块的并置块的参考图片索引的步骤;以及用于确定并置块的运动预测矢量的步骤,该并置块是通过预测目标块在最大编码单元(LCU)内的位置自适应地确定的块。可以通过判定预测目标块的下边界是否与LCU边界毗连来确定该并置块。可以通过判定预测目标块的下边界是否与LCU边界毗连以及是否仅预测目标块的右边界与LCU边界毗连来确定该并置块。可以通过参考该LCU内的像素的位置确定该并置块。如果预测目标块的左侧或下边界与LCU边界不毗连,则根据相应位置处并置块的可用性顺次将第一并置块和第五并置块确定为并置块。
为了实现本发明的第二目的,根据本发明的方面,一种视频解码方法,可以包括:用于确定预测目标块的边界是否与LCU的边界毗连的步骤;以及用于根据关于预测目标块的边界是否与LCU的边界毗连的确定来确定第一并置块的可用性的步骤。视频解码方法还可以包括如下步骤:如果确定第一并置块不可用,则将除第一并置块之外的其它并置块确定为用以导出时间预测运动矢量的并置块。如果第一并置块不可用则将除第一并置块之外的其它并置块确定为用以导出时间预测运动矢量的并置块的步骤是用于针对预测目标块的下边界与LCU的边界毗连的情况以及针对仅预测目标块的右边界与LCU的边界毗连的情况来确定不同的用以导出时间预测运动矢量的并置块的步骤。根据对预测目标块的边界是否与LCU的边界毗连的确定来确定第一并置块的可用性的步骤是如下步骤:如果预测目标块的下边界与LCU的边界毗连,则将第一并置块确定为不可用。还可以包括如果第一并置块可用则将第一并置块确定为用以导出时间预测运动矢量的并置块的步骤或者如果第一并置块不可用则确定第五并置块的可用性的步骤。
为了实现本发明的第三目的,根据本发明的方面,一种视频解码设备,包括:熵解码单元,对LCU大小信息进行解码;以及预测单元,确定预测目标块的并置块的参考图片索引并且确定该并置块的运动预测矢量,其中,该并置块是通过预测目标块在LCU内的位置自适应地确定的块。可以通过判定预测目标块的下边界是否与LCU边界毗连来确定并置块。可以通过判定预测目标块的下边界是否与LCU边界毗连以及是否仅预测目标块的右边界与LCU边界毗连来确定并置块。可以通过参考LCU内的像素的位置确定该并置块。如果预测目标块的左侧或下边界与LCU边界不毗连,则根据相应位置处并置块的可用性顺次将第一并置块和第五并置块确定为并置块。
为了实现本发明的第四目的,根据本发明的方面,一种视频解码单元,可以包括:熵解码单元,对LCU大小信息进行解码;以及预测单元,确定预测目标块是否与LCU的边界毗连并且根据关于预测目标块的边界是否与LCU的边界毗连的确定来确定第一并置块的可用性。如果确定第一并置块不可用,则预测单元可以将除第一并置块之外的其它并置块确定为用以导出时间预测运动矢量的并置块。预测单元可以针对预测目标块的下边界与LCU的边界毗连的情况以及针对仅预测目标块的右边界与LCU的边界毗连的情况来确定不同的用以导出时间预测运动矢量的并置块。如果预测目标块的下边界与LCU的边界毗连,则预测单元可以将第一并置块确定为不可用。如果第一并置块可用,则预测单元可以将第一并置块确定为用以导出时间预测运动矢量的并置块,或者如果第一并置块不可用,则预测单元可以确定第五并置块的可用性。
有益效果
如上所述,依据预测目标块是否与LCU毗连,根据本发明实施方式的用于导出时间预测运动矢量的方法以及使用该方法的设备可以不同地使用根据其来导出时间运动矢量的并置(或同位或共处)图片。通过使用该方法,可以减少对于导出时间运动矢量不必要的存储带宽,并且可以将实现复杂度最小化。
附图说明
图1是示出根据本发明的实施方式的视频编码设备的框图。
图2是示出根据本发明的另一实施方式的视频解码器的框图。
图3是示出根据本发明的实施方式的用于导出时间预测运动矢量的方法的概念视图。
图4是示出根据本发明的实施方式的用于导出时间预测运动矢量的方法的流程图。
图5是示出根据本发明的实施方式的用于导出时间运动矢量的并置块的位置的概念视图。
图6是示出根据本发明的实施方式的确定用以导出运动预测矢量的并置块的方法的概念视图。
图7是示出根据本发明的实施方式的预测目标块与LCU的下边界毗连的情况的概念视图。
图8是示出根据本发明的实施方式的使用融合模式的帧间预测方法的流程图。
图9是示出根据本发明的实施方式的空间融合候选的位置的概念视图。
图10是示出根据本发明的实施方式的使用AMVP的帧间预测方法的流程图。
具体实施方式
可以对本发明做出各种修改,并且本发明可以具有多个实施方式。参考附图详细描述了具体实施方式。然而,本发明不限于具体的实施方式,并且应该理解的是,本发明包括本发明的精神和技术范围中所包含的全部修改、等同方案或替代。在对附图进行说明时,相似的模块之间可以使用相似的附图标记。
术语“第一”和“第二”可以用于描述各种部件(或特征)。然而,部件并不限于此。这些术语仅用于对部件进行区分。例如,第一部件也可以被命名为第二部件,并且第二部件也可以类似地被命名为第一部件。术语“和/或”包括本文所描述的多个相关项的组合或多个相关项的任何一个。
当部件(或特征)“连接”或“耦合”到另一部件时,该部件可以直接地连接或耦合到其它部件。相反,当部件“直接地连接或耦合”到另一部件时,没有部件介入。
本文所使用的术语用于描述实施方式而不意在限制本发明。除非在上下文中另外明确声明,否则单数术语包括复数术语。如本文所使用,术语“包括”或“具有”等用于指示存在如本文所描述的特征、数字、步骤、操作、部件、部分或其组合,但不排除存在或添加一个或更多个特征、数字、步骤、操作、部件、部分或其组合的可能性。
下文中,将参照附图更详细地描述本发明的优选实施方式。在全部附图中,相同的附图标记指示相同的部件,并且没有重复对于相同部件的描述。
图1是示出根据本发明的实施方式的视频编码设备的框图。
参照图1,视频编码设备100可以包括图片分割模块110、帧间预测模块120、帧内预测模块125、变换模块130、量化模块135、重置模块160、熵编码模块165、反量化模块140、逆变换模块145、滤波模块150以及存储器155。
图1的每个模块彼此独立地示出以表示视频编码设备中彼此不同的功能,但是这并不意味着每个模块应该以单独的硬件或软件模块(部件)单元来实现。即,为便于描述,模块被示出为独立地提供,并且可以组合这些模块中的至少两个模块以构成一个模块,或者这些模块中的一个模块可以被分割成用以执行功能的多个模块。在不背离本发明主旨的情况下,模块组合的实施方式或模块分割的实施方式也包括在本发明的范围中。
另外,一些模块可以不是用于执行本发明的基本功能的必要模块,而是用于提高性能的可选模块。本发明可以排除仅用于更好性能的模块而仅包括用于实现本发明的主旨所必需的必要模块,并且该结构也包括在本发明的范围中。
图片分割模块110可以将输入图片分割成至少一个处理单元。此时,该处理单元可以为预测单元(PU)、变换单元(TU)或编码单元(CU)。图片分割模块110可以通过将一个图片分割成多个编码单元(预测单元和变换单元)的组合来对该图片进行编码,并且可以根据预定标准(或参考),诸如成本函数,来选择一个编码单元(预测单元和变换单元)的组合并且对其进行编码。
例如,可以将一个图片分割成多个编码单元。可以使用递归树结构(如四叉树结构)将图片分割成编码单元。利用图片或最大编码单元作为根,可以将编码单元分割成其它编码单元作为与所分割编码单元的数量一样多的子节点。由于预定的限制而不再分割的编码单元作为叶节点。即,假定仅方形分割可用于编码单元,则编码单元可以被分割成最多四个其它编码单元。
下文中,在本发明的实施方式中,编码单元可以是指按照其执行解码及编码的单元。
可以将预测单元划分成在编码单元内具有相同大小的至少一个正方形或长方形的形式。
在生成其中基于编码单元执行帧内预测的预测单元时,如果编码单元不是最小的编码单元,则可以在不将预测单元分割成多个NxN预测单元的情况下执行帧内预测。
预测模块可以包括执行帧间预测的帧间预测模块120和执行帧内预测的帧内预测模块125。可以确定针对预测单元执行帧间预测还是帧内预测,并且可以根据每个预测方法确定特定信息(例如,帧内预测模式、运动矢量、参考图片等)。此时,被执行预测的处理单元可以不同于对其确定了预测方法及其细节的处理单元。例如,可以由预测单元确定预测方法和预测模式,并且可以在变换单元中执行预测行为。可以将所生成的预测块与原始块之间的残值(残块)输入到变换模块130。另外,可以在熵编码模块165中对用于预测的预测模式信息和运动矢量信息等以及残值进行编码,然后将其发送到解码设备。如果使用特定的编码模式而不通过预测模块120和125生成预测块,则可以对原始块照原样进行编码并且将其发送到解码设备。
帧间预测模块可以基于当前图片之前的或当前图片之后的图片当中的至少一个图片的信息来对预测单元进行预测。帧间预测模块可以包括参考图片插值模块、运动预测模块以及运动补偿模块。
参考图片插值模块可以接收来自存储器155的参考图片信息,并且可以按照参考图片中小于整数像素单元的单元生成像素信息。在亮度像素的情况下,可以使用针对每阶(tap)具有不同滤波器系数的基于DCT的8阶插值滤波器按照小于整数像素单元(1/4像素单元)的单元生成像素信息。在色度信号的情况下,可以使用针对每阶具有不同滤波器系数的基于DCT的4阶插值滤波器按照小于整数像素单元(1/8像素单元)的单元生成像素信息。
运动预测模块可以基于由参考图片插值模块插入的参考图片来执行运动预测。为了导出运动矢量,可是使用各种方法,诸如FBMA(基于全搜索块匹配算法)、TSS(三步搜索)、NTS(新三步搜索算法)等。基于所插入的像素,运动矢量可以具有1/2像素单元或1/4像素单元的运动矢量值。运动预测模块可以通过应用各种运动预测方法来预测当前预测单元。至于运动预测方法,可以使用各种方法,诸如跳过方法、融合方法或AMVP(先进运动矢量预测)方法。
根据本发明的实施方式,帧间预测模块可以确定预测目标块的边界是否与LCU(最大编码单元)的边界毗连,并且可以根据预测目标块的边界是否与LCU的边界毗连的确定来确定第一并置(或处于同一点的)块是否可用。例如,在第一并置块不可用的情况下,可以将第二并置块确定为用以导出时间预测运动矢量的并置块。或者,在第一并置块不可用的情况下,可以改变第一并置块的位置,并且将位置改变后的第一并置块确定为用以导出时间预测运动矢量的并置块。
另外,帧间预测模块可以包括用于确定预测目标块的并置块的参考图片索引并确定并置块的运动预测矢量的预测模块。可以根据预测目标块在LCU(最大编码单元)中的位置自适应地确定并置块。下文中,详细描述了根据本发明的预测模块的操作。
帧间预测模块可以基于与当前块相邻的参考像素的信息(当前图片中的像素的像素信息)生成预测单元。在与当前预测单元相邻的块是应用帧间预测的块的情况下,因此,参考像素是经过帧间预测的像素,可以使用应用帧内预测的块的参考像素信息来替代应用帧间预测的块所包括的参考像素。即,在参考像素不可用的情况下,可以利用至少一个可用的参考像素来替代不可用的参考像素信息。
至于帧内预测,预测模式可以包括方向预测模式和非方向模式。在方向预测模式中,根据预测方向使用参考像素信息,在非方向模式中,在预测时不使用方向信息。用于预测亮度信息的模式可以不同于用于预测色度信息的模式。另外,可以利用已经预测了亮度信息的帧内预测模式的信息或预测的亮度信号信息,来预测色度信息。
在执行帧内预测时,如果预测单元的大小与变换单元的大小相同,则基于位于预测单元左侧的像素、位于预测单元左上方的像素以及位于预测单元上方的像素来执行帧内预测。然而,在执行帧内预测时,如果预测单元的大小与变换单元的大小不同,则可以通过基于变换单元使用参考像素来执行帧内预测。另外,仅针对最小编码单元,可以通过使用NxN分区来执行帧内预测。
在帧内预测方法中,可以在对参考像素应用MDIS(模式依赖帧内平滑)滤波器之后根据预测模式来生成预测块。可以对参考像素应用各种类型的MDIS滤波器。为了执行帧内预测方法,可以根据当前预测单元的相邻预测单元的帧内预测模式预测当前预测单元的帧内预测模式。在使用根据相邻预测单元所预测的模式信息来预测当前预测单元的预测模式的情况下,如果当前预测单元的帧内预测模式与相邻预测单元的帧内预测模式相同,则可以使用预定的标志信息来发送表示当前预测单元在预测模式方面与相邻预测单元等同的信息。并且,如果当前预测单元的预测模式与相邻预测单元的预测模式不同,则可以执行熵编码来对当前块的预测模式信息进行编码。
另外,可以得到包括与如下残值有关的信息的残块,该残值为预测单元的原始块与基于预测模块120和125中所生成的预测单元而执行预测的预测单元之间的差分值。可以将所得到的残块输入到变换模块130。变换模块130可以通过例如DCT(离散余弦变换)或DST(离散正弦变换)的变换方法对残块进行变换。残块包括通过预测模块120和125所生成的预测单元与原始块之间的残值信息。可以基于用于生成残块的预测单元的帧内预测模式信息来确定是否应用DCT或DST对残块进行变换。
量化模块135可以对由变换模块130变换到频域的值进行量化。量化参数可以根据块或图像的重要性而不同。从量化模块135生成的值可以被提供给反量化模块140及重置模块160。
重置模块160可以执行量化后的残值的系数的重置。
通过系数扫描方法,重置模块160可以将二维(2D)块形状的系数改变为一维矢量形式。例如,重置模块160可以使用用于从DC系数到高频系数扫描的对角扫描方法,从而将2D块形状的系数布置成一维矢量形式。代替对角扫描方法,可以依据变换单元的大小和帧内预测模式使用垂直扫描方法或水平扫描方法,其中,在垂直扫描方法中,沿列方向对2D块形状的系数进行扫描,在水平扫描方法中,沿行方向对2D块形状的系数进行扫描。换句话说,可以依据变换单元的大小和帧内预测模式使用对角扫描、垂直扫描及水平扫描之一。
熵编码模块165可以基于由重置模块160生成的值执行熵编码。针对熵编码,可以应用各种编码方法,例如指数哥伦布码编码、CABAC(基于上下文的自适应二进制算术编码)。
熵编码模块165可以对各种信息进行编码,这些信息例如是由重置模块160及预测模块120和125所提供的编码单元的残留系数信息和块类型信息、预测模式信息、分区单元信息、预测单元信息及发送单元信息、运动矢量信息、参考帧信息、块的插值信息、滤波信息以及LCU大小信息。
熵编码模块165可以通过使用熵编码方法(如CABAC)对作为输入的、来自重置模块160的编码单元的系数值进行熵编码。
反量化模块140可以对由量化模块135量化的值执行反量化,并且逆变换模块145可以对由变换模块130变换后的值执行逆变换。可以将通过反量化模块140和逆变换模块145所生成的残值与通过包括在预测模块120和125中的运动估计模块、运动补偿模块和帧内预测模块所预测的预测单元相加,从而生成恢复的块。
滤波模块150可以包括去块滤波器、偏差校正模块以及ALF(自适应环路滤波器)中的至少一个。
去块滤波器可以去除由于恢复后的(重构的)图片中的块边界而导致的块失真。可以通过包含于块中的若干行或列所包括的像素来确定是否对当前块应用去块滤波器。在对块应用去块滤波器的情况下,可以根据去块滤波器的必要强度来应用强滤波器或弱滤波器。另外,在对块应用去块滤波器的情况下,可以并行地执行水平方向滤波和垂直方向滤波。
偏差校正模块可以对原始图片与以像素为单位(或逐个像素地)应用去块的图片之间的偏差进行校正。为了对特定图片执行偏差校正,将图片中所包括的像素划分成预定数量的区域,然后其中一个区域被确定执行偏差,并且可以使用对相应区域施加偏差的方法或考虑每个像素的边缘信息而施加偏差的方法。
ALF(自适应环路滤波器)可以基于通过比较经滤波的重构(恢复的)图片和原始图片而获得的值来执行滤波。图片中所包含的像素被划分成预定的组,然后,确定要应用于相应组的一个滤波器,从而以区别的方式对每个组执行滤波。关于是否应用ALF的信息,可以针对每个编码单元发送亮度信号,并且要应用的ALF的大小和系数可能针对每个块而不同。ALF可以具有多种形状,并且滤波器中所包括的系数的数量也可以相应地改变。可以将这样的ALF的滤波相关的信息(例如,滤波器系数信息,ALF打开/关闭信息或滤波器形状信息)包括在比特流的预定参数集中进行发送。
存储器155可以存储通过滤波模块150所生成的重构的块或图片,并且当执行帧间预测时,可以将所存储的重构的块或图片提供给预测模块120和125。
图2是示出根据本发明另一实施方式的视频解码器的框图。
参照图2,视频解码器可以包括熵解码模块210、重置模块215、反量化模块220、逆变换模块225、预测模块230和235、滤波模块240以及存储器245。
在从视频编码器输入了视频比特流的情况下,可以按照与视频编码器相反的过程对输入的比特流进行解码。
熵解码模块210可以按照与视频编码器的熵编码模块中所执行的熵编码的过程相反的过程来执行熵解码。将在熵解码模块210中所解码的信息中用于导出预测块的信息(如LCU大小信息或块大小信息)提供给预测模块230和235,并且将通过熵解码模块中的熵解码所获得的残值输入到重置模块215。
熵解码模块210可以对与编码器中所执行的帧内预测和帧间预测有关的信息进行解码。如上所述,对于在视频编码器执行帧内预测和帧间预测时存在预定限制的情况,基于该限制执行熵解码,以接收与当前块的帧内预测和帧间预测有关的信息。
重置模块215可以基于编码器用以重置的方法,来对在熵解码模块210中熵解码的比特流执行重置。可以通过将以一维矢量形式表示的系数恢复成2D块形状的系数来执行该重置。
反量化模块220可以基于从编码器提供的重置系数和量化系数的块来执行反量化。
相对于由变换模块所执行的DCT和DST,逆变换模块225可以对视频编码器中所执行的量化的结果执行逆DCT和逆DST。可以根据在视频编码器处确定的发送单元执行逆变换。视频编码器的变换模块可以依据多个信息(例如,预测方法、当前块的大小和预测方向)选择性地执行DCT和DST,并且视频解码器的逆变换模块225可以基于由视频编码器的变换模块执行的变换信息来执行逆变换。
预测模块230和235可以基于从存储器245提供的先前解码的块或先前解码的图片信息以及从熵解码模块210提供的与预测块生成有关的信息来生成预测块。
预测模块230和235可以包括预测单元确定模块、帧间预测模块以及帧内预测模块。预测单元确定模块可以接收各种信息(包括帧内预测方法的预测模式信息、帧间预测方法的与运动预测相关的信息、预测单元信息),并且从熵解码模块输入各种信息。预测单元确定模块可以将预测单元与当前编码单元分开,并且可以确定对预测单元执行帧内预测还是帧间预测。帧间预测模块可以根据包括在当前图片之前或当前图片之后的图片中的至少一个图片中的信息来对当前预测单元执行帧间预测。帧间预测模块可以通过使用从视频解码器提供的当前预测单元的帧间预测所必需的信息,来对当前预测单元执行帧间预测。
可以基于编码单元确定跳过模式、融合模式以及AMVP模式中的哪个模式是针对相应编码单元中所包括的预测单元的运动预测的方法,以便执行帧间预测。
根据本发明的实施方式,帧间预测模块可以确定预测目标块是否与LCU(最大编码单元)的边界毗连,并且可以根据预测目标块是否与LCU的边界毗连的确定来确定第一并置块是否可用。例如,如果确定第一并置块不可用,则可以将第二并置块确定为用以导出时间预测运动矢量的并置块,或者,如果第一并置块不可用,则可以改变第一并置块的位置,使得可以将位置改变后的第一并置块确定为用以导出时间预测运动矢量的并置块。另外,帧间预测模块可以包括用于确定预测目标块的并置块的参考图片索引并且确定并置块的运动预测矢量的预测模块。可以根据LCU(最大编码单元)中的预测目标块的位置自适应地确定并置块。下文中详细描述了根据本发明的预测模块的操作。
帧内预测模块可以基于当前图片中的像素的信息来生成预测块。在该预测单元是应用帧内预测的预测单元的情况下,可以基于从视频编码器提供的预测单元的帧内预测模式信息来执行帧内预测。帧内预测模块可以包括MDIS滤波器、参考像素插值模块以及DC滤波器。MDIS滤波器对当前块的参考像素执行滤波。对于MDIS滤波器,可以根据当前预测单元的预测模式确定是否应用该滤波器。可以使用从视频编码器提供的预测单元的预测模式和MDIS滤波器信息来对当前块的参考像素执行滤波。在当前块的预测模式是不执行滤波的模式的情况下,可以不应用MDIS滤波器。
在预测单元的预测模式是基于通过对参考像素进行插值而获得的像素值来执行帧内预测的预测模式时,可以通过对参考像素进行插值来导出具有小于整数像素的单元的参考像素。在当前预测单元的预测模式是不对参考像素进行插值而生成预测块的预测模式时,可以不对参考像素进行插值。如果当前块的预测模式是DC模式,则DC滤波器可以通过滤波生成预测块。
可以将重构后的块或图片提供给滤波模块240。滤波模块240可以包括去块滤波器、偏差校正模块和ALF。
可以从视频(或图像)编码器提供关于是否已对相应的块或图片应用去块滤波器的信息。如果已应用去块滤波器,则可以从视频编码器提供关于所应用的去块滤波器是强滤波器还是弱滤波器的信息。视频解码器的去块滤波器可以接收来自视频编码器的与去块滤波器相关的信息,并且可以对视频解码器中相应的块执行去块滤波。与视频编码器一样,视频解码器可以首先执行垂直去块滤波和水平去块滤波。重叠部分可能经历垂直去块滤波和水平去块滤波中的至少一个。在垂直去块滤波和水平去块滤波相互重叠的区域中,可以针对该区域执行先前没有执行的垂直去块滤波或水平去块滤波之一。这样的去块滤波处理使得能够进行去块滤波的并行处理。
偏差校正模块可以基于编码处理中应用于图片的偏差校正的类型以及关于编码处理中应用的偏差值的信息,来对重构的图片执行偏差校正。
ALF可以根据滤波后的重构的图片与原始图片之间的比较来执行滤波。可以基于从编码器提供的、关于是否应用ALF的信息及ALF系数信息,来对编码单元执行ALF。可以通过将ALF信息包括在特定参数集中来提供该ALF信息。
存储器245可以存储重构的图片或重构的块以将其用作参考图片或参考块,并且可以将重构的图片提供给显示模块。
如上所述,即便为了便于描述而在本发明的实施方式中使用了术语“编码单元”,编码单元也可以用作用于解码的单元。下文中,可以在部件(如图1和2中所示出的预测模块)中执行根据本发明实施方式的、以下结合图3至10描述的预测方法。
图3是示出根据本发明实施方式的用于导出时间预测运动矢量的方法的概念视图。
参照图3,可以基于并置图片(colPic)中的并置块(colPu)的运动矢量值导出时间预测运动矢量。
并置图片是包括并置块的图片,其中,并置块用于在执行帧间预测方法(例如,融合或AMVP)时导出与时间预测运动有关的信息。并置块可以被定义为包括在并置图片中的块,并且基于预测目标块的位置信息导出并置块且并置块与预测目标块具有时间上不同的相位。
针对一个预测目标块可以存在多个并置块。可以将并置图片中所包括的并置块的运动相关的信息存储为相对于预定单元的一个代表值。例如,针对16x16的块大小的单元,可以确定运动预测相关的信息(运动矢量、参考图片等)并且将其存储为16x16块单元中的一个代表值。
图4是示出根据本发明实施方式的用于导出时间预测运动矢量的方法的流程图。
下文中,下面要描述的用于导出时间预测运动矢量的方法可以用在诸如融合模式或AMVP模式的帧间预测方法中。用于导出时间预测运动矢量的方法可以是用于导出执行融合模式的时间候选块(并置块)的方法、用于导出执行AMVP模式的时间候选块(并置块)的方法以及用于导出时间预测运动矢量的方法。
下文中,在本发明的实施方式中,可以将并置块定义并用作用于指示融合模式和AMVP模式中所使用的时间候选块的术语。
参照图4,导出并置图片信息(步骤S400)。
可以使用预测目标块的位置信息、预测目标块的大小信息和预测目标块的参考图片索引信息,来导出并置图片信息、并置块信息及时间预测运动矢量。
根据本发明的实施方式,可以基于片类型信息(slice_type)、参考图片列表信息(collocated_from_10_flag)以及参考图片索引信息(collocated_ref_idx)导出并置图片信息。使用参考图片列表信息(collocated_from_10_flag),如果参考图片列表信息(collocated_from_10_flag)指示1,则表示并置图片包括在第一参考图片列表(List 0)中,并且如果参考图片列表信息(collocated_from_10_flag)指示0,则表示并置图片包括在第二参考图片列表(List 1)中。
例如,在片类型为片B且参考图片列表信息的值(collocated_from_10_flag)为0的情况下,可以将并置图片确定为第二参考图片列表中所包括的图片,并且在片类型为片B且参考图片列表信息的值(collocated_from_10_flag)为1的情况下或在片类型为片P的情况下,可以将并置图片确定为第一参考图片列表中所包括的图片。
在使用融合模式的帧间预测方法的情况下,如果满足预定条件,则可以将特定位置处的相邻块的参考图片索引信息确定为并置图片的信息;如果不满足预定条件,则可以将当前图片的先前图片确定为并置图片。
导出并置块的信息(步骤S410)。
可以依据预测目标块的部分(或局部)是否与LCU(最大编码单元)的边界毗连来不同地导出并置块的信息。下文中,参照图5至9描述依据预测目标块的位置和LCU的边界来确定并置块的方法。
图5是示出根据本发明实施方式的用以导出时间运动矢量的并置块的位置的概念视图。
参照图5,可以将相对于预测目标块处于各个位置的块用作用以导出时间运动矢量的并置块。可以依据如下位置对可用以导出时间运动矢量的并置块进行分类。
在位于预测目标块的左上方处的点为(xP,yP)、预测目标块的宽度为nPSW且预测目标块的高度为nPSH的情况下,第一并置块500可以是并置图片中包括点(xP+nPSW,yP+nPSH)的块,第二并置块510可以是并置图片中包括点(xP+nPSW-MinPuSize,yP+nPSH)的块,第三并置块520可以是并置图片中包括点(xP+nPSW,yP+nPSH-MinPuSize)的块,第四并置块530可以是并置图片中包括点(xP+nPSW-1,yP+nPSH-1)的块,第五并置块540可以是并置图片中包括点(xP+(nPSW>>1),yP+(nPSH>>1))的块,并且第六并置块550可以是并置图片中包括点(xP+(nPSW>>1)-1,yP+(nPSH>>1)-1)的块。
可以根据当前预测单元在LCU中所处的位置来自适应地确定并置块。可以将预测目标块与LCU的边界之间的位置关系分类为如下的情况:1)预测目标块的低端与右侧不与LCU边界毗连;2)仅预测目标块的低端与LCU边界毗连;3)预测目标块的右侧和低端均与LCU边界毗连以及4)仅预测目标块的右侧与LCU边界毗连。
根据本发明的实施方式,可以依据预测目标块在LCU中的位置以不同的方式自适应地确定并置块。
1)在预测目标块的低端和右侧不与LCU边界毗连的情况下,可以利用可用性检查将第一并置块和第五并置块顺次用作用以导出时间预测运动矢量的并置块。
2)在仅预测目标块的低端与LCU边界毗连的情况下,可以利用可用性检查将第三并置块和第五并置块顺次用作用以导出时间预测运动矢量的并置块。
3)在预测目标块的右侧和低端均与LCU边界毗连的情况下,可以利用可用性检查将第四并置块和第五并置块顺次用作用以导出时间预测运动矢量的并置块。
4)在仅预测目标块的右侧与LCU边界毗连的情况下,可以利用可用性检查将第二并置块和第五并置块顺次用作用以导出时间预测运动矢量的并置块。
即,根据本发明的实施方式,可以依据当前块在LCU中的位置自适应地确定时间候选块。在当前块的下边界与LCU边界毗连时的情况下用于指定时间候选块的像素的位置,可以不同于在当前块的下边界与LCU边界不毗连时的情况下用于指定时间候选块的像素的位置。并且,在当前块的下边界与LCU边界毗连时的情况下用于指定时间候选块的像素的位置,可以不同于在仅当前块的右边界与LCU边界毗连的情况下用于指定时间候选块的像素的位置。
根据本发明的另一实施方式,可以使用如下方法:在该方法中,可以依据预测目标块在LCU中的位置来自适应地和不同地确定(或选择)并置块,使得并置块和预测目标块位于同一LCU中;或者,如果并置块和目标预测块不位于同一LCU中,则可以不使用并置块。
图6是示出根据本发明实施方式的确定用以导出时间预测运动矢量的并置块的方法的概念视图。
参照图6,可以知道一个LCU中所包括的多个预测单元的并置块的位置。
对于PU0、PU1、PU2和PU5的情况,预测单元为LCU内部的预测单元,可以首先使用第一并置块作为用以导出时间预测运动矢量的并置块。
对于PU4和PU7的情况,预测单元的边界仅与LCU的下边界毗连,从而可以首先使用第三并置块作为用以导出时间预测运动矢量的并置块。
对于PU8的情况,预测单元的边界与LCU的下边界和右边界均毗连,从而可以首先使用第四并置块作为用以导出时间预测运动矢量的并置块。
对于PU3和PU6的情况,预测单元的边界仅与LCU的右边界毗连,从而可以首先使用第二并置块作为用以导出时间预测运动矢量的并置块。
即,如上所述,依据当前块在LCU中的位置自适应地确定时间候选块,并且以下两种情况下用于指定时间候选块的像素的位置彼此不同:当前块的下边界与LCU边界毗连的情况(PU4、PU7及PU8的情况)以及当前块的下边界和LCU边界不毗连的情况(PU0、PU1、PU2、PU3、PU5及PU6的情况)。另外,以下两种情况下用于指定时间候选块的像素的位置彼此不同:当前块的下边界与LCU边界毗连的情况(PU4、PU7及PU8的情况)以及仅当前块的右边界与LUC边界毗连的情况(PU3和PU6的情况)。
根据本发明的另一实施方式,只要并置块连同预测目标块位于同一LCU中,则依据预测目标块在LCU中的位置自适应和不同地确定并置块。如果特定并置块与预测目标块不位于同一LCU中,则这样的特定并置块可能不可用。例如,如果预测块的下边界与LCU的下边界毗连(如PU4、PU7及PU8),则可以将第一并置块标记(指示)为不可用,并且可以将第五并置块替代地用作用以导出时间预测运动矢量的并置块。
像这样,作为用于导出并置块的方法,可以使用如下方法:依据预测目标块的位置和LCU边界对如上所述的预测目标块的特性进行分类,依据预测目标块的分类位置来选择要用作并置块的块。优选地,假定可以顺次使用第一并置块和第五并置块作为用以导出时间预测运动矢量的并置块。在对第一并置块的可用性进行检查(例如,预测目标块的下边界是否与LCU毗连)之后,可以将除第一并置块之外的并置块确定为用以导出时间预测运动矢量的并置块。例如,如果通过用于确定预测目标块是否与LCU(最大编码单元)的边界毗连的步骤而将第一并置块确定为不可用,则可以将用于导出时间运动矢量的并置块改变为其它并置块(例如,第三并置块),或者可以在不使用第一并置块的情况下直接使用第五并置块。
具体地,可以通过如下步骤执行以上方法:
1)用于确定预测目标块的边界是否与LCU(最大编码单元)的边界毗连的步骤,
2)用于依据预测目标块的边界是否与LCU边界毗连来确定第一并置块是否可用的步骤。特别地,在步骤2)中,当预测目标块的下边界与LCU边界毗连时,可以确定第一并置块不可用。
3)用于在第一并置块不可用时将除第一并置块之外的并置块确定为用以导出时间预测运动矢量的并置块的步骤。特别地,在步骤3)中,对于预测目标块的下边界与LCU毗连的情况以及对于预测目标块的右边界与LCU边界毗连的情况,可以将针对每个不同情况的不同并置块确定为用以导出时间预测运动矢量的并置块。
4)如果第一并置块可用,则将第一并置块确定为用以导出时间预测运动矢量的并置块,并且如果第一并置块不可用,则确定第五并置块的可用性的步骤。
以上步骤可以是可选步骤,并且可以在不背离本发明的主旨的情况下改变确定的步骤或方法的顺序关系。
图7是示出根据本发明实施方式的预测目标块与LCU的下边界毗连的情况的概念视图。
参照图7,示出了当预测目标块(PU4、PU7或PU8)位于LCU的下边界处时改变并置块的位置的情况。在预测目标块(PU4、PU7或PU8)位于LCU的下边界处的情况下,可以设置并置块的位置,使得即使在没有在LCU中搜索位于当前LCU下面的LCU的情况下也可以导出运动预测相关的信息。例如,通过使用预测目标块的第三并置块而不是第一并置块可以导出时间预测运动矢量。1)在仅与LCU的右边界毗连的情况下,依据可用性顺次将第一并置块和第五并置块确定为用以导出时间预测运动矢量的并置块;2)在与LCU的下边界毗连的情况下,可以依据可用性顺次将第三并置块和第五并置块确定为用以导出时间预测运动矢量的并置块。即,根据本发明的实施方式,对于当前块的下边界与LCU边界毗连的情况以及对于当前块的下边界与LCU边界不毗连的情况,用于指定时间候选块的像素的位置可能不同。
返回参照图4,基于通过以上结合图5至7所述的方法所确定的并置块,导出并置块运动预测矢量(mvLXCol)以及并置块可用性信息(availableFlagLXCol)(步骤S420)。
可以通过以下方法导出并置块可用性信息(availableFlagLXCol)及并置块的运动矢量(mvLXCol),其用于基于通过图5至7所示出的处理所确定的并置块信息的、预测目标块的帧间预测:
1)如果基于帧内预测模式对并置块(colPu)进行编码,如果并置块(colPu)不可用,如果并置图片(colPic)不能用于预测时间预测运动矢量,或者如果在不使用时间预测运动矢量的情况下执行帧间预测,则可以将并置块运动矢量(mvLXCol)和并置块可用性信息(availableFlagLXCol)设置为0。
2)除情况1)之外,可以通过标志(PredFlagL0)和标志(PredFlagL1)来导出并置块运动矢量信息(mvLXCol)及并置块可用性信息(availableFlagLXCol),其中标志(PredFlagL0)指示是否使用L0列表,并且标志(PredFlagL1)指示是否使用L1列表。
首先,如果确定在不使用列表L0的情况下(标志(PredFlagL0)等于0)对并置块执行了帧间预测,则可以将并置块的运动预测相关的信息(如mvCol信息、refldxCol信息以及listCol信息)设置为作为通过使用列表L1导出的并置块的运动预测相关的信息的L1、MvL1[xPCol][yPCol]及RefIdxL1[xPCol][yPCol],并且可以将并置块可用性信息(availableFlagLXCol)设置为1。
在其它情况下,如果确定使用列表L0(标志(PredFlagL0)等于1)对并置块执行了帧间预测,则可以分别针对PredFlagL1为0及针对PredFlagL1为1的情况设置并置块的运动预测相关的信息(如mvCol信息、refldxCol信息及listCol信息),并且可以将并置块可用性信息(availableFlagLXCol)设置为1。
对所导出的mvLXCol进行缩放(步骤S430)。
为了将通过步骤S420导出的mvLXCol用作预测目标块的时间预测运动矢量,可以基于与以下距离有关的距离信息对所导出的mvLXCol值进行缩放:包括并置块的并置图片与并置块所参考的并置块参考图片之间的距离,以及包括预测目标块的图片与预测目标块所参考的参考图片之间的距离。在对所导出的mvLXCol值进行缩放之后,能够导出时间预测运动矢量。
下文中,根据本发明的实施方式,描述用于执行帧间预测的方法,如融合和AMVP。
图8是示出根据本发明实施方式的使用融合模式的帧间预测方法的流程图。
参照图8,可以根据空间融合候选导出运动预测相关的信息(步骤S1000)。
可以根据预测目标块的相邻预测单元导出空间融合候选。为了导出空间融合候选,可以接收关于预测单元的宽度和高度的信息、MER(运动估计区域)信息、singleMCLFlag信息以及分区位置信息。基于这些输入信息,可以导出根据空间融合候选的位置的可用性信息(availableFlagN)、参考图片信息(refldxL0,refldxL1)、列表利用信息(predFlagL0N,redFlagL1N)以及运动矢量信息(mvL0N,mvL1N)。与预测目标块相邻的多个块可以是空间融合候选。
图9是示出根据本发明实施方式的空间融合候选的位置的概念视图。
参照图9,在预测目标块的左上方处的点的位置是(xP,yP)、预测目标块的宽度是nPSW且预测目标块的高度是nPSH的情况下,空间融合候选可以是包括点(xP-1,yP+nPSH)的块A0,包括点(xP-1,yP+nPSH-MinPuSize)的块A1,包括点(xP+nPSW,yP-1)的块B0,包括点(xP+nPSW-MinPuSize,yP-1)的块B1以及包括点(xP-MinPuSize,yP-1)的块B2。
返回参照图8,导出时间融合候选的参考图片索引值(步骤S1010)。
可以通过以下特定条件来导出时间融合候选的参考图片索引值,作为包括时间融合候选(并置块)的并置图片的索引值。以下条件是任意的并且可以改变。例如,在预测目标块的左上方处的点的位置是(xP,yP)、预测目标块的宽度是nPSW且预测目标块的高度是nPSH的情况下,当1)存在对应于位置(xP-1,yP+nPSH-1)的预测目标块的相邻预测单元(下文中称为参考图片索引导出相邻预测单元),2)参考图片索引导出相邻预测单元的分区索引值是0,3)参考图片索引导出相邻预测单元不是使用帧内预测模式执行预测的块,以及4)预测目标块和参考图片索引导出相邻预测块不属于同一MER(运动估计区域)时,可以将时间融合候选的参考图片索引值确定为与参考图片索引导出相邻预测单元的参考图片索引值相同的值。在不满足这些条件的情况下,可以将时间融合候选的参考图片索引值设置为0。
确定时间融合候选块(并置块),并且根据并置块导出运动预测相关的信息(步骤S1020)。
根据本发明的实施方式,可以依据LCU中预测目标块的位置来自适应地确定时间融合候选块(并置块),使得并置块连同预测目标块一起包括在同一LCU中。
1)在预测目标块的下端和右侧与LCU边界不毗连的情况下,确定可用性,可以顺次将第一并置块和第五并置块用作用以导出时间运动矢量的并置块。
2)在仅预测目标块的下端与LCU边界毗连的情况下,确定可用性,可以顺次将第三并置块和第五并置块用作用以导出时间运动矢量的并置块。
3)在预测目标块的右侧与下端均与LCU边界毗连的情况下,确定可用性,从而可以顺次将第四并置块与第五并置块用作用以导出时间运动矢量的并置块。
4)在仅预测目标块的右侧与LCU边界毗连的情况下,确定可用性,从而可以顺次将第二并置块和第五并置块用作用以导出时间运动矢量的并置块。
根据本发明的实施方式,可以使用方法使得依据预测目标块在LCU中的位置自适应且不同地确定的并置块能够连同预测目标块出现在包括在一个LCU中的位置处,或者可以不使用不与预测目标块一起包括在一个LCU中的并置块。
如上所述,作为用于产生并置块的方法,可以使用下述方法:依据预测目标块的位置和LCU边界如上所述分离预测目标块的特性,并且依据所分离的预测目标块的位置确定即将被用作并置块的块。然而,可以首先假定顺次将第一并置块和第五并置块用作用以导出时间运动矢量的并置块,确定第一并置块是否可用(例如,预测目标块的下边界是否与LCU毗连),并且然后,可以将除第一并置块之外的并置块确定为用以导出时间运动矢量的并置块。
配置融合候选列表(步骤S1030)。
融合候选可以被构造成包括空间融合候选及时间融合候选中的至少一个。可以利用预定的优先级对包括在融合候选列表中的空间融合候选及时间融合候选进行布置。
融合候选列表可以被构造成具有固定数量的融合候选,并且如果融合候选的数量少于固定数量,则对融合候选所拥有的运动预测相关的信息进行组合以生成融合候选,或者生成零矢量作为融合候选,从而生成融合候选列表。
图10是示出根据本发明实施方式的使用AMVP的帧间预测方法的流程图。
参照图10,根据空间AMVP候选块导出运动预测相关的信息(步骤S1200)。
为了导出预测目标块的参考图片索引信息和预测运动矢量,可以根据预测目标块的相邻预测块导出空间AMVP候选块。
返回参照图9,可以将块A0和块A1之一用作第一空间AMVP候选块,并且可以将块B0、块B1和块B2之一用作第二空间AMVP候选块,从而导出空间AMVP候选块。
根据时间AMVP候选块导出运动预测相关的信息(步骤S1210)。
根据本发明的实施方式,可以依据预测目标块在LCU中的位置自适应地确定并置块,使得并置块连同预测目标块被包括同一LCU中。
1)在预测目标块的下端和右侧与LCU边界不毗连的情况下,可以利用可用性检查顺次将第一并置块和第五并置块用作用以导出时间运动矢量的并置块。
2)在仅预测目标块的下端与LCU边界毗连的情况下,可以利用可用性检查顺次将第三并置块和第五并置块用作用以导出时间运动矢量的并置块。
3)在预测目标块的右侧和下端均与LCU边界毗连的情况下,可以利用可用性检查顺次将第四并置块和第五并置块用作用以导出时间运动矢量的并置块。
4)在仅预测目标块的右侧与LCU边界毗连的情况下,可以利用可用性检查顺次将第二并置块和第五并置块用作用以导出时间运动矢量的并置块。
根据本发明的实施方式,可以不使用并置块和预测目标块不包括在同一LCU中的方法,也可以使用使得依据预测目标块在LCU中的位置自适应地确定的并置块连同预测目标块存在于包括在同一LCU中的位置处的方法。
在用于导出空间AMVP候选块的步骤S1200中,当第一空间AMVP候选块和第二空间AMVP候选块被确定为可用且所导出的运动预测矢量值不同时,可以不执行用于导出时间预测运动矢量的步骤S1210。
构造AMVP候选列表(步骤S1220)。
通过使用经步骤S1200和S1210中的至少一个导出的运动预测相关信息来构造AMVP候选列表。在所构造的AMVP候选列表中存在相同的运动预测相关的信息的情况下,可以将相同的运动预测相关的信息中的一个值用作AMVP候选值。包括在AMVP候选列表中运动预测相关信息可以仅包括固定数量的候选值。
尽管到目前为止描述了本发明的实施方式,本领域的技术人员可以理解的是,在不背离本发明的精神和范围的情况下可以对本发明做出各种修改和变型。
通过上述描述可知,本发明的实施例公开了但不限于如下方案:
1.一种用于导出候选运动预测矢量的方法,所述方法包括:
确定预测目标块的并置块的参考图片索引;以及
确定所述并置块的运动预测矢量,
其中,所述并置块是通过所述预测目标块在最大编码单元(LCU)中的位置自适应地确定的块。
2.根据方案1的方法,其中,通过判定所述预测目标块的下边界是否与LCU边界毗连来不同地确定所述并置块。
3.根据方案1的方法,其中,通过判定所述预测目标块的下边界是否与LCU边界毗连以及是否仅所述预测目标块的右边界与所述LCU边界毗连来不同地确定所述并置块。
4.根据方案1的方法,其中,通过参考所述LCU内的像素的位置来确定所述并置块。
5.根据方案1的方法,其中,如果所述预测目标块的左侧或下边界与所述LCU边界不毗连,则根据相应位置处的并置块的可用性顺次将第一并置块和第五并置块确定为所述并置块,以及
其中,如果所述预测目标块的左上方处的点的位置是(xP,yP)、所述预测目标块的宽度是nPSW且所述预测目标块的高度是nPSH,则所述第一并置块是并置图片内包括(xP+nPSW,yP+nPSH)处的点的块,并且所述第五并置块是所述并置图片内包括(xP+(nPSW>>1),yP+(nPSH>>1))处的点的块。
6.一种用于导出候选运动预测矢量的方法,所述方法包括:
确定预测目标块的边界是否与最大编码单元(LCU)的边界毗连;以及
根据关于所述预测目标块的边界是否与所述LCU的边界毗连的确定,来确定第一并置块的可用性。
7.根据方案6的方法,还包括:如果确定所述第一并置块不可用,则将除所述第一并置块之外的其它并置块确定为用以导出时间预测运动矢量的并置块。
8.根据方案7的方法,其中,如果所述第一并置块不可用则将除所述第一并置块之外的其它并置块确定为用以导出时间预测运动矢量的并置块的步骤是如下步骤:该步骤用于针对所述预测目标块的下边界与所述LCU的边界毗连的情况以及针对仅所述预测目标块的右边界与所述LCU的边界毗连的情况,来确定不同的用以导出所述时间预测运动矢量的并置块。
9.根据方案6的方法,其中,根据关于所述预测目标块的边界是否与所述LCU的边界毗连的确定来确定所述第一并置块的可用性的步骤是如下步骤:在所述预测目标块的下边界与所述LCU的边界毗连的情况下,该步骤将所述第一并置块确定为不可用。
10.根据方案6的方法,还包括如下步骤:如果所述第一并置块可用,则将所述第一并置块确定为用以导出所述时间预测运动矢量的并置块,或者如果所述第一并置块不可用,则确定第五并置块的可用性,
其中,如果所述预测目标块的左上方处的点的位置是(xP,yP)、所述预测目标块的宽度是nPSW且所述预测目标块的高度是nPSH,则所述第一并置块是并置图片内包括点(xP+nPSW,yP+nPSH)的块,并且所述第五并置块是所述并置图片内包括点(xP+(nPSW>>1),yP+(nPSH>>1))的块。
11.一种视频解码设备,所述设备包括:
熵解码单元,其对LCU大小信息进行解码;以及
预测单元,其确定预测目标块的并置块的参考图片索引并且确定所述并置块的运动预测矢量,其中,所述并置块是通过所述预测目标块在最大编码单元(LCU)内的位置自适应地确定的块。
12.根据方案11的设备,其中,通过判定所述预测目标块的下边界是否与LCU边界毗连来不同地确定所述并置块。
13.根据方案11的设备,其中,通过判定所述预测目标块的下边界是否与LCU边界毗连以及是否仅所述预测目标块的右边界与所述LCU边界毗连来不同地确定所述并置块。
14.根据方案11的设备,其中,通过参考所述LCU内的像素的位置来确定所述并置块。
15.根据方案11的设备,其中,如果所述预测目标块的左侧或下边界与所述LCU边界不毗连,则根据相应位置处的并置块的可用性顺次将第一并置块和第五并置块确定为所述并置块,以及
其中,如果所述预测目标块的左上方处的点的位置是(xP,yP)、所述预测目标块的宽度是nPSW且所述预测目标块的高度是nPSH,则所述第一并置块是并置图片内包括点(xP+nPSW,yP+nPSH)的块,并且所述第五并置块是所述并置图片内包括点(xP+(nPSW>>1),yP+(nPSH>>1))的块。
16.一种视频解码设备,所述设备包括:
熵解码单元,其对LCU大小信息进行解码;以及
预测单元,其确定预测目标块的边界是否与最大编码单元(LCU)的边界毗连,并且根据关于所述预测目标块的边界是否与所述LCU的边界毗连的确定来确定第一并置块的可用性。
17.根据方案16的设备,其中,如果所述预测单元确定所述第一并置块不可用,则所述预测单元将除所述第一并置块之外的其它并置块确定为用以导出时间预测运动矢量的并置块。
18.根据方案17的设备,其中,针对所述预测目标块的下边界与所述LCU的边界毗连的情况以及针对仅所述预测目标块的右边界与所述LCU的边界毗连的情况,所述预测单元确定不同的用以导出所述时间预测运动矢量的并置块。
19.根据方案16的设备,其中,如果所述预测目标块的下边界与所述LCU的边界毗连,则所述预测单元将所述第一并置块确定为不可用。
20.根据方案16的设备,其中,如果所述第一并置块可用,则所述预测单元将所述第一并置块确定为用以导出所述时间预测运动矢量的并置块,或者如果所述第一并置块不可用,则所述预测单元确定第五并置块的可用性,以及
其中,如果所述预测目标块的左上方处的点的位置是(xP,yP)、所述预测目标块的宽度是nPSW且所述预测目标块的高度是nPSH,则所述第一并置块是并置图片内包括点(xP+nPSW,yP+nPSH)的块,并且所述第五并置块是所述并置图片内包括点(xP+(nPSW>>1),yP+(nPSH>>1))的块。

Claims (4)

1.一种用于解码视频信号的方法,所述方法包括:
从所述视频信号中获得预测目标块的残块;
基于与所述预测目标块相邻的相邻块,导出所述预测目标块的空间融合候选;
基于并置图片中的并置块,导出所述预测目标块的时间融合候选;
生成所述预测目标块的融合候选列表,所述融合候选列表包括所述空间融合候选和所述时间融合候选;
基于所生成的融合候选列表,执行针对所述预测目标块的帧间预测;
基于通过执行所述帧间预测所获得的预测块和所述残块,获得重构的块;和
将去块滤波器应用于所述重构的块,
其中,基于所述预测目标块的下边界与最大编码单元LCU的下边界是否毗连,确定所述并置块是第一并置块和第五并置块中的一个,
其中,在所述预测目标块的下边界与所述LCU的下边界毗连的情况下,将所述第五并置块而并非所述第一并置块确定为所述并置块,
其中,如果所述预测目标块的左上方处的点的位置是(xP,yP)、所述预测目标块的宽度是nPSW且所述预测目标块的高度是nPSH,则所述第一并置块是所述并置图片内的包括(xP+nPSW,yP+nPSH)处的点的块,并且所述第五并置块是所述并置图片内的包括(xP+(nPSW>>1),yP+(nPSH>>1))处的点的块,以及
其中,所述时间融合候选的时间预测运动矢量是通过对所确定的并置块的运动矢量进行缩放而获得的。
2.根据权利要求1所述的方法,其中,与所述预测目标块相邻的所述相邻块包括上相邻块、右上相邻块、左上相邻块、左相邻块和左下相邻块中的至少一个。
3.根据权利要求1所述的方法,其中,基于包括所述预测目标块的图片与所述预测目标块的参考图片之间的时间距离以及包括所述并置块的所述并置图片与所述并置块的参考图片之间的时间距离,执行所述缩放。
4.根据权利要求1所述的方法,其中,所述并置块的参考图片索引被确定为和与所述预测目标块相邻的所述相邻块的参考图片索引相同的值,或者被确定为固定值“0”。
CN201710736224.2A 2011-09-09 2012-09-06 用于解码视频信号的方法 Active CN107580219B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2011-0091782 2011-09-09
KR20110091782 2011-09-09
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-0039501 2012-04-17
CN201280013098.3A CN103430550B (zh) 2011-09-09 2012-09-06 用于导出时间预测运动矢量的方法及使用该方法的设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280013098.3A Division CN103430550B (zh) 2011-09-09 2012-09-06 用于导出时间预测运动矢量的方法及使用该方法的设备

Publications (2)

Publication Number Publication Date
CN107580219A CN107580219A (zh) 2018-01-12
CN107580219B true CN107580219B (zh) 2020-12-08

Family

ID=47832709

Family Applications (19)

Application Number Title Priority Date Filing Date
CN201710735677.3A Active CN107635140B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736365.4A Active CN107483926B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736975.4A Active CN107396099B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735855.2A Active CN107580218B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710737242.2A Active CN107483928B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710737681.3A Active CN107592529B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735853.3A Active CN107483925B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736976.9A Active CN107483927B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736974.XA Active CN107396098B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736230.8A Active CN107580220B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201280013098.3A Active CN103430550B (zh) 2011-09-09 2012-09-06 用于导出时间预测运动矢量的方法及使用该方法的设备
CN201710736236.5A Active CN107580221B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736224.2A Active CN107580219B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735663.1A Active CN107592527B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735700.9A Active CN107404651B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201610740915.5A Active CN106170088B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201410601678.5A Active CN104349164B (zh) 2011-09-09 2012-09-06 用于对视频信号进行解码的方法和设备
CN201710737674.3A Active CN107483929B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735665.0A Active CN107592528B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法

Family Applications Before (12)

Application Number Title Priority Date Filing Date
CN201710735677.3A Active CN107635140B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736365.4A Active CN107483926B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736975.4A Active CN107396099B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735855.2A Active CN107580218B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710737242.2A Active CN107483928B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710737681.3A Active CN107592529B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735853.3A Active CN107483925B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736976.9A Active CN107483927B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736974.XA Active CN107396098B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710736230.8A Active CN107580220B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201280013098.3A Active CN103430550B (zh) 2011-09-09 2012-09-06 用于导出时间预测运动矢量的方法及使用该方法的设备
CN201710736236.5A Active CN107580221B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法

Family Applications After (6)

Application Number Title Priority Date Filing Date
CN201710735663.1A Active CN107592527B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735700.9A Active CN107404651B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201610740915.5A Active CN106170088B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201410601678.5A Active CN104349164B (zh) 2011-09-09 2012-09-06 用于对视频信号进行解码的方法和设备
CN201710737674.3A Active CN107483929B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法
CN201710735665.0A Active CN107592528B (zh) 2011-09-09 2012-09-06 用于解码视频信号的方法

Country Status (14)

Country Link
US (4) US10523967B2 (zh)
EP (2) EP3179723B1 (zh)
JP (7) JP5745693B2 (zh)
CN (19) CN107635140B (zh)
AU (1) AU2012305071B2 (zh)
BR (1) BR112013022641B1 (zh)
CA (2) CA2829114C (zh)
ES (1) ES2487993B1 (zh)
GB (7) GB2559227B (zh)
MX (4) MX2013010155A (zh)
PL (1) PL231159B1 (zh)
RU (10) RU2622849C1 (zh)
SE (5) SE538787C2 (zh)
WO (1) WO2013036041A2 (zh)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014501091A (ja) 2010-12-17 2014-01-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート インター予測方法及びその装置
RU2622849C1 (ru) * 2011-09-09 2017-06-20 Кт Корпорейшен Способ и устройство декодирования видеосигнала
RU2694018C2 (ru) * 2011-09-23 2019-07-08 Кт Корпорейшен Способ декодирования видеосигнала
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
CN105453562B (zh) 2013-07-30 2018-12-25 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
CN105453563B (zh) 2013-07-30 2019-08-16 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
CN112584140A (zh) * 2014-11-27 2021-03-30 株式会社Kt 对视频信号进行解码或编码的方法
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN109314785B (zh) * 2016-04-08 2023-06-30 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
US11095892B2 (en) * 2016-09-20 2021-08-17 Kt Corporation Method and apparatus for processing video signal
WO2018128223A1 (ko) * 2017-01-03 2018-07-12 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
EP3383043A1 (en) 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
KR20200095463A (ko) * 2017-11-01 2020-08-10 브이아이디 스케일, 인크. 병합 모드를 위한 서브-블록 모션 도출 및 디코더측 모션 벡터 정교화
WO2019147079A1 (ko) * 2018-01-25 2019-08-01 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
WO2019164031A1 (ko) * 2018-02-22 2019-08-29 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치
CN116866563A (zh) * 2018-03-21 2023-10-10 Lx 半导体科技有限公司 图像编码/解码方法、存储介质以及图像数据的传输方法
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
KR20240007299A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
MX2020013829A (es) 2018-06-29 2022-05-18 Beijing Bytedance Network Tech Co Ltd Poda parcial/total cuando se añade un candidato a hmvp para fusión/amvp.
CA3105330C (en) 2018-06-29 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
CN110662058B (zh) 2018-06-29 2023-06-30 北京字节跳动网络技术有限公司 查找表的使用条件
TWI747000B (zh) 2018-06-29 2021-11-21 大陸商北京字節跳動網絡技術有限公司 虛擬Merge候選
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110677648B (zh) 2018-07-02 2022-06-07 北京字节跳动网络技术有限公司 处理视频数据的方法、装置及非暂时性存储介质
KR20230022267A (ko) * 2018-07-02 2023-02-14 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN117241039A (zh) * 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
KR20240013897A (ko) * 2018-08-29 2024-01-30 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치
CN111064959B (zh) 2018-09-12 2023-09-01 北京字节跳动网络技术有限公司 要检查多少个hmvp候选
BR112021005175A2 (pt) 2018-09-21 2021-06-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. método de decodificação de vídeo, método de codificação de vídeo, aparelho de decodificação de vídeo e aparelho de codificação de vídeo
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
US11570461B2 (en) * 2018-10-10 2023-01-31 Samsung Electronics Co., Ltd. Method for encoding and decoding video by using motion vector differential value, and apparatus for encoding and decoding motion information
GB2578150C (en) 2018-10-18 2022-05-18 Canon Kk Video coding and decoding
GB2595054B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
JP7281890B2 (ja) * 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
CN113347433B (zh) * 2019-06-21 2022-05-20 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
EP4333431A1 (en) 2019-10-18 2024-03-06 Beijing Bytedance Network Technology Co., Ltd. Syntax constraints in parameter set signaling of subpictures
WO2021160165A1 (en) * 2020-02-14 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Collocated picture indication in video bitstreams
CN115349254A (zh) * 2020-03-23 2022-11-15 抖音视界有限公司 控制编解码视频中不同级别的去块滤波
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446083B1 (ko) * 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
CN1656514A (zh) * 2002-05-30 2005-08-17 皇家飞利浦电子股份有限公司 估计运动矢量的单元和方法
CN1756361A (zh) * 2004-09-30 2006-04-05 三星电子株式会社 在基于多重扫描的帧内模式中编码和解码的方法和设备
CN101156451A (zh) * 2005-04-12 2008-04-02 皇家飞利浦电子股份有限公司 使用基于区域的多次通过运动估计和时间运动矢量候选更新的视频处理
CN101222638A (zh) * 2007-01-08 2008-07-16 华为技术有限公司 多视视频编解码方法及装置
US20100086052A1 (en) * 2008-10-06 2010-04-08 Lg Electronics Inc. Method and an apparatus for processing a video signal
CN101931803A (zh) * 2009-06-26 2010-12-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법

Family Cites Families (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) * 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
US5508744A (en) 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) * 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
WO2002009419A2 (en) 2000-07-20 2002-01-31 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
RU2182727C2 (ru) 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
JP4363326B2 (ja) 2002-07-15 2009-11-11 株式会社日立製作所 動画像復号化方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
EP1547264A4 (en) * 2002-10-01 2010-11-03 Thomson Licensing IMPLIED WEIGHTING OF REFERENCE IMAGES IN A VIDEO CODER
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US20060294113A1 (en) 2003-08-22 2006-12-28 Deepak Turaga Joint spatial-temporal-orientation-scale prediction and coding of motion vectors for rate-distortion-complexity optimized video coding
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
BR0318528A (pt) 2003-10-09 2006-09-12 Thomson Licensing processo de derivação de modo direto para encobrimento de erros
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
RU2329615C2 (ru) * 2003-12-01 2008-07-20 Самсунг Электроникс Ко., Лтд. Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
JP5404038B2 (ja) 2005-07-01 2014-01-29 ソニック ソリューションズ リミテッド ライアビリティー カンパニー マルチメディア信号エンコーディングに使用される方法、装置およびシステム
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
WO2007114611A1 (en) 2006-03-30 2007-10-11 Lg Electronics Inc. A method and apparatus for decoding/encoding a video signal
CN101491095B (zh) 2006-03-30 2013-07-10 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101090491B (zh) 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
EP2030450B1 (en) 2006-06-19 2015-01-07 LG Electronics Inc. Method and apparatus for processing a video signal
CN101102503A (zh) 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
WO2008023967A1 (en) 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
US20100266042A1 (en) 2007-03-02 2010-10-21 Han Suh Koo Method and an apparatus for decoding/encoding a video signal
CN101690220B (zh) 2007-04-25 2013-09-25 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101119493B (zh) 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
AU2008313328A1 (en) 2007-10-15 2009-04-23 Nokia Corporation Motion skip and single-loop encoding for multi-view video content
KR102139535B1 (ko) 2007-10-16 2020-07-30 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8908765B2 (en) 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
CN101983029B (zh) * 2008-03-31 2015-01-14 皇家飞利浦电子股份有限公司 制备包括传感器的可吞服胶囊的方法
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
TWI374672B (en) * 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
RU2011104707A (ru) * 2008-07-10 2012-08-20 Мицубиси Электрик Корпорейшн (Jp) Устройство кодирования изображений, устройство декодирования изображений, способ кодирования изображений и способ декодирования изображений
CN101540926B (zh) * 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US20130005493A1 (en) 2009-08-20 2013-01-03 Nak Sung Kim Swing ride tilting swing chair back and forth
JP2011097572A (ja) 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR20110068792A (ko) 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
EP2533539A2 (en) 2010-02-02 2012-12-12 Humax Co., Ltd. Image encoding/decoding method for rate-distortion optimization and apparatus for performing same
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
PT2945382T (pt) * 2010-04-23 2017-07-11 M&K Holdings Inc Aparelho e método de codificação de imagem
KR102158700B1 (ko) 2010-05-04 2020-09-22 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
CN106412601B (zh) * 2010-09-02 2019-12-17 Lg电子株式会社 编码和解码视频的装置及可读存储介质
KR101033243B1 (ko) 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
JP2014501091A (ja) 2010-12-17 2014-01-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート インター予測方法及びその装置
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
US9532050B2 (en) 2011-01-25 2016-12-27 Sun Patent Trust Moving picture coding method and moving picture decoding method
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
EP3136727B1 (en) 2011-04-12 2018-06-13 Sun Patent Trust Motion-video coding method and motion-video coding apparatus
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
RU2622849C1 (ru) 2011-09-09 2017-06-20 Кт Корпорейшен Способ и устройство декодирования видеосигнала
US9392235B2 (en) 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
US9350992B2 (en) 2011-11-18 2016-05-24 Google Technology Holdings LLC Explicit way for signaling a collocated picture for high efficiency video coding
WO2013078248A1 (en) 2011-11-21 2013-05-30 General Instrument Corporation Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9549177B2 (en) 2012-04-11 2017-01-17 Google Technology Holdings LLC Evaluation of signaling of collocated reference picture for temporal prediction
JP6144754B2 (ja) 2012-04-11 2017-06-07 モトローラ モビリティ エルエルシーMotorola Mobility Llc 時間的予測のための時間的動きベクトル予測(mvp)フラグのシグナリング
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446083B1 (ko) * 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
CN1656514A (zh) * 2002-05-30 2005-08-17 皇家飞利浦电子股份有限公司 估计运动矢量的单元和方法
CN1756361A (zh) * 2004-09-30 2006-04-05 三星电子株式会社 在基于多重扫描的帧内模式中编码和解码的方法和设备
CN101156451A (zh) * 2005-04-12 2008-04-02 皇家飞利浦电子股份有限公司 使用基于区域的多次通过运动估计和时间运动矢量候选更新的视频处理
CN101222638A (zh) * 2007-01-08 2008-07-16 华为技术有限公司 多视视频编解码方法及装置
US20100086052A1 (en) * 2008-10-06 2010-04-08 Lg Electronics Inc. Method and an apparatus for processing a video signal
CN101931803A (zh) * 2009-06-26 2010-12-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Direct Mode Coding for Bipredictive Slices in the H.264 Standard;Alexis Michael Tourapis, et al.;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20050101;第15卷(第1期);全文 *
Improved Advanced Motion Vector Prediction;Jian-Liang Lin, et al.;《Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 4th Meeting: Daegu, KR, 20-28 January, 2011》;20110128;全文 *
Modified derivation process of temporal motion vector predictor;Toshiyasu Sugio, et al.;《Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 4th Meeting: Daegu, KR, 20-28 January, 2011》;20110115;全文 *
Temporal MV predictor modification for MV-Comp, Skip, Direct and Merge schemes;J. Jung, et al.;《Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 4th Meeting: Daegu, KR, 20-28 January, 2011》;20110128;全文 *

Also Published As

Publication number Publication date
CN107404651B (zh) 2020-03-06
GB2508739B (en) 2018-12-05
CN107483927B (zh) 2020-06-05
RU2636117C1 (ru) 2017-11-20
RU2635235C1 (ru) 2017-11-09
RU2646384C1 (ru) 2018-03-02
GB2559227B (en) 2018-11-28
EP2672710A4 (en) 2016-08-03
CN107483929B (zh) 2020-05-12
US10523967B2 (en) 2019-12-31
CN107483928B (zh) 2020-05-12
CN107580221A (zh) 2018-01-12
RU2016133580A (ru) 2018-12-10
GB2508739A (en) 2014-06-11
CN104349164A (zh) 2015-02-11
CN107483925A (zh) 2017-12-15
RU2016133580A3 (zh) 2020-01-30
RU2016133579A (ru) 2018-12-10
CN107483929A (zh) 2017-12-15
CN103430550B (zh) 2017-10-13
RU2716231C2 (ru) 2020-03-06
CA2937483A1 (en) 2013-03-14
RU2016133566A (ru) 2018-12-10
CA2937483C (en) 2017-09-05
RU2016133570A (ru) 2018-12-10
WO2013036041A2 (ko) 2013-03-14
SE538057C2 (sv) 2016-02-23
GB2562635B (en) 2019-04-03
RU2016133566A3 (zh) 2020-01-30
GB201716265D0 (en) 2017-11-22
GB201716273D0 (en) 2017-11-22
GB2562129A (en) 2018-11-07
GB201716270D0 (en) 2017-11-22
CN107483928A (zh) 2017-12-15
MX351041B (es) 2017-09-29
GB201809871D0 (en) 2018-08-01
AU2012305071B2 (en) 2014-12-11
SE1651148A1 (sv) 2016-08-25
SE538787C2 (sv) 2016-11-22
GB2559445B (en) 2018-11-28
JP2018139422A (ja) 2018-09-06
JP6062508B2 (ja) 2017-01-18
CN107592529B (zh) 2020-05-12
RU2716229C2 (ru) 2020-03-06
EP3179723B1 (en) 2023-01-25
MX338137B (es) 2016-04-05
EP2672710B1 (en) 2022-10-26
RU2016133570A3 (zh) 2020-01-30
JP5993484B2 (ja) 2016-09-14
US11089333B2 (en) 2021-08-10
SE1351475A1 (sv) 2014-06-09
EP3179723A1 (en) 2017-06-14
GB2559227A (en) 2018-08-01
CN107396099B (zh) 2020-03-06
SE1651149A1 (sv) 2016-08-25
CN107580218A (zh) 2018-01-12
BR112013022641B1 (pt) 2022-07-12
US10805639B2 (en) 2020-10-13
CA2829114C (en) 2016-11-22
MX2013010155A (es) 2013-12-02
CN107580218B (zh) 2020-05-12
BR112013022641A2 (zh) 2017-09-21
GB2562130A (en) 2018-11-07
GB201716271D0 (en) 2017-11-22
GB2562635A (en) 2018-11-21
AU2012305071A1 (en) 2013-10-03
JP2014520477A (ja) 2014-08-21
JP5745693B2 (ja) 2015-07-08
CN107592528A (zh) 2018-01-16
PL407911A1 (pl) 2015-05-25
GB2559226A (en) 2018-08-01
ES2487993A2 (es) 2014-08-25
GB201321881D0 (en) 2014-01-22
JP6619045B2 (ja) 2019-12-11
JP2016007039A (ja) 2016-01-14
US20200084475A1 (en) 2020-03-12
WO2013036041A3 (ko) 2013-05-02
GB2562129B (en) 2019-04-03
CN107635140B (zh) 2020-12-08
JP6062480B2 (ja) 2017-01-18
CN107483926A (zh) 2017-12-15
SE1551592A1 (sv) 2015-12-03
US20150208093A1 (en) 2015-07-23
CN107592528B (zh) 2020-05-12
CN104349164B (zh) 2018-02-02
CN107396099A (zh) 2017-11-24
CN107592527A (zh) 2018-01-16
CN107580219A (zh) 2018-01-12
JP2015167373A (ja) 2015-09-24
CN107580220B (zh) 2020-06-19
CN107396098B (zh) 2020-03-06
RU2013140661A (ru) 2015-10-20
CN106170088B (zh) 2019-02-19
JP2015167372A (ja) 2015-09-24
MX351052B (es) 2017-09-29
US20130343461A1 (en) 2013-12-26
RU2622849C1 (ru) 2017-06-20
AU2012305071A8 (en) 2013-10-31
CN107592527B (zh) 2020-05-12
CN107483925B (zh) 2020-06-19
CN106170088A (zh) 2016-11-30
GB2559445A (en) 2018-08-08
CN107483927A (zh) 2017-12-15
BR112013022641A8 (pt) 2017-09-12
RU2716563C2 (ru) 2020-03-12
JP6062507B2 (ja) 2017-01-18
EP2672710A2 (en) 2013-12-11
CA2829114A1 (en) 2013-03-14
ES2487993B1 (es) 2015-09-29
CN107483926B (zh) 2020-06-05
ES2487993R1 (es) 2015-01-27
US20210044832A1 (en) 2021-02-11
JP2017098967A (ja) 2017-06-01
RU2016133579A3 (zh) 2020-01-30
RU2716230C2 (ru) 2020-03-06
CN107404651A (zh) 2017-11-28
CN107592529A (zh) 2018-01-16
GB2559445A8 (en) 2018-10-03
RU2636118C1 (ru) 2017-11-20
PL231159B1 (pl) 2019-01-31
SE1651147A1 (sv) 2016-08-25
CN103430550A (zh) 2013-12-04
CN107396098A (zh) 2017-11-24
CN107580220A (zh) 2018-01-12
GB2562130B (en) 2019-04-03
RU2600547C2 (ru) 2016-10-20
CN107580221B (zh) 2020-12-08
GB2559226B (en) 2018-11-28
JP2016007040A (ja) 2016-01-14
JP6322693B2 (ja) 2018-05-09
CN107635140A (zh) 2018-01-26
GB201716275D0 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
CN107580219B (zh) 用于解码视频信号的方法
AU2015200360B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
AU2016216724B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant