CN110267048B - 用于共享候选者列表的方法和装置 - Google Patents

用于共享候选者列表的方法和装置 Download PDF

Info

Publication number
CN110267048B
CN110267048B CN201910309527.5A CN201910309527A CN110267048B CN 110267048 B CN110267048 B CN 110267048B CN 201910309527 A CN201910309527 A CN 201910309527A CN 110267048 B CN110267048 B CN 110267048B
Authority
CN
China
Prior art keywords
block
prediction
merge candidate
blocks
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910309527.5A
Other languages
English (en)
Other versions
CN110267048A (zh
Inventor
金晖容
朴光勋
金耿龙
金尚珉
林成昶
李镇浩
崔振秀
金镇雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Kyung Hee University
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Kyung Hee University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI, Kyung Hee University filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of CN110267048A publication Critical patent/CN110267048A/zh
Application granted granted Critical
Publication of CN110267048B publication Critical patent/CN110267048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及一种用于共享候选者列表的方法和装置。一种用于生成用于预测性块的合并候选者列表的方法可以包括:基于包括对于其执行并行合并处理的预测性块的编码块,来产生该预测性块的空间合并候选者和时间合并候选者中的至少一个;以及基于所产生的合并候选者,来生成用于该编码块的单一合并候选者列表。因而,可能通过对多个预测性块并行地执行画面间预测,来增加用于编码和解码的处理速度。

Description

用于共享候选者列表的方法和装置
本申请是向中国知识产权局提交的申请日为2012年11月08日、申请号为201280066431.7、发明名称为“用于共享候选者列表的方法和装置”的申请的分案申请。
技术领域
本发明涉及一种视频处理方法和使用该方法的设备,且更具体地,涉及一种帧间预测(inter-prediction)方法和使用该方法的设备。
背景技术
在众多应用中存在对于高分辨率、高质量视频(诸如,HD(高清晰度)和UHD(超高清晰度)视频)的日益增长的需求。由于与传统的视频数据相比、要以更高分辨率和/或质量来处置的数据量相对大,所以当将视频数据通过现有的有线或无线宽带线路进行传送或存储在传统的存储介质中时,用于传送和存储的成本随后增加。为了解决高分辨率、高质量视频数据所导致的问题,可以利用高效压缩技术。
当前的视频压缩技术包括:帧间预测技术,其通过使用当前视频帧的先前或随后视频帧来预测当前视频帧的像素值;帧内预测(intra-prediction)技术,其通过使用当前帧内的像素信息来预测当前视频帧的像素值;熵编码方法,其向具有高频率的那些像素值分配短码字,并且向具有低频率的那些像素值分配长码字等等。可以通过使用上面的视频压缩技术来有效地压缩视频数据,并随后进行传送或存储。
发明内容
本发明的目的在于提供一种用于通过生成单一候选者列表、按照并行方式来进行用于预测块的帧间预测的方法。
本发明的另一目的在于提供一种用于通过生成单一候选者列表、按照并行方式来进行用于预测块的帧间预测的设备。
为了实现以上目的,根据本发明一个方面的一种用于生成用于预测块的合并候选者列表的方法,包括:基于包括该预测块的编码块,来得到能够应用并行合并处理的该预测块的空间合并候选者和时间合并候选者之中的至少一个合并候选者;以及基于所得到的合并候选者,相对于该编码块来生成单一合并候选者列表。所述基于包括该预测块的编码块、来得到能够应用并行合并处理的该预测块的空间合并候选者和时间合并候选者之中的至少一个合并候选者的步骤包括:基于该编码块的像素位置和尺寸,来得到空间合并候选者块和时间合并候选者块;以及得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息,作为该合并候选者。所述用于生成用于预测块的合并候选者列表的方法还包括:确定并行合并处理是否能够应用于该预测块;并且所述确定并行合并处理是否能够应用于预测块的步骤包括:对能够应用并行合并处理的块的尺寸信息进行解码;以及基于能够应用并行合并处理的块的尺寸信息、和该编码块的尺寸信息,来确定并行合并处理是否能够应用于该预测块。所述得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息、作为该合并候选者的步骤包括:确定该编码块和基于该编码块所得到的空间合并候选者块是否属于能够应用并行合并处理的块的内部;以及在该编码块和基于该编码块所得到的空间合并候选者块属于能够应用并行合并处理的块的内部的情况下,将该空间合并候选者块确定为不可用的空间合并候选者块。所述基于能够应用并行合并处理的块的尺寸信息和该编码块的尺寸信息、来确定并行合并处理是否能够应用于该预测块的步骤包括:确定能够应用并行合并处理的块的尺寸是否大于预定尺寸;确定该编码块是否具有特定尺寸;以及在能够应用并行合并处理的块的尺寸大于该预定尺寸并且该编码块具有该特定尺寸的情况下,确定通过使用该单一合并候选者列表来针对该预测块进行合并。所述用于生成用于预测块的合并候选者列表的方法还包括:在并行合并处理不能够应用于该预测块的情况下,基于该预测块的像素位置和尺寸,来得到该空间合并候选者块和该时间合并候选者块;以及得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息,作为该合并候选者。所述得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息、作为该合并候选者的步骤包括:确定该预测块是否对应于被划分为Nx2N、nLx2N和nRx2N形式之一的块、并且该预测块是否对应于第二预测块;以及在该预测块对应于被划分为Nx2N、nLx2N和nRx2N形式之一的块、并且该预测块对应于第二预测块的情况下,确定在第一预测块中包括的空间合并候选者块作为不可用的块。所述得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息、作为该合并候选者的步骤包括:确定该预测块是否对应于被划分为2NxN、2NxnU和2NxnD形式之一的块、并且该预测块是否对应于第二预测块;以及在该预测块对应于被划分为2NxN、2NxnU和2NxnD形式之一的块、并且该预测块对应于该第二预测块的情况下,确定在该第一预测块中包括的空间合并候选者块作为不可用的块。
为了实现以上目的,根据本发明一个方面的一种视频解码设备包括预测单元。该预测单元基于包括该预测块的编码块来得到能够应用并行合并处理的该预测块的空间合并候选者和时间合并候选者之中的至少一个合并候选者;并且基于所得到的合并候选者,相对于该编码块来生成单一合并候选者列表。该预测单元为了基于包括该预测块的编码块、来得到能够应用并行合并处理的该预测块的空间合并候选者和时间合并候选者之中的至少一个合并候选者,基于该编码块的像素位置和尺寸来得到空间合并候选者块和时间合并候选者块,并且得到所得到的空间合并候选者块和时间合并候选者块之中的、可用合并候选者块的运动预测相关信息作为该合并候选者。该预测单元确定并行合并处理是否能够应用于该预测块;并且为了确定并行合并处理是否能够应用于该预测块,基于能够应用并行合并处理的所解码的块的尺寸信息和该编码块的尺寸信息,来确定并行合并处理是否能够应用于该预测块。该预测单元为了得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息、作为该合并候选者,而确定该编码块和基于该编码块所得到的空间合并候选者块是否属于能够应用并行合并处理的块的内部;并且在该编码块和基于该编码块所得到的空间合并候选者块属于能够应用并行合并处理的块的内部的情况下,将该空间合并候选者块确定为不可用的空间合并候选者块。该预测单元为了基于能够应用并行合并处理的块的尺寸信息和该编码块的尺寸信息、来确定并行合并处理是否能够应用于该预测单元,而确定能够应用并行合并处理的块的尺寸是否大于预定尺寸,确定该编码块是否具有特定尺寸,并且在能够应用并行合并处理的块的尺寸大于该预定尺寸、并且该编码块具有该特定尺寸的情况下,确定通过使用该单一合并候选者列表来针对该预测块进行合并。该预测单元在并行合并处理不能应用于该预测块的情况下,基于该预测块的像素位置和尺寸来得到该空间合并候选者块和该时间合并候选者块;并且得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息,作为该合并候选者。该预测单元为了得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息、作为该合并候选者,而确定该预测块是否对应于被划分为Nx2N、nLx2N和nRx2N形式之一的块、并且该预测块是否对应于第二预测块;并且在该预测块对应于被划分为Nx2N、nLx2N和nRx2N形式之一的块、并且该预测块对应于第二预测块的情况下,确定在第一预测块中包括的空间合并候选者块作为不可用的块。该预测单元为了得到所得到的空间合并候选者块和时间合并候选者块之中的可用合并候选者块的运动预测相关信息、作为该合并候选者,而确定该预测块是否对应于被划分为2NxN、2NxnU和2NxnD形式之一的块并且该预测块是否对应于第二预测块;并且在该预测块对应于被划分为2NxN、2NxnU和2NxnD形式之一的块、并且该预测块对应于该第二预测块的情况下,确定在该第一预测块中包括的空间合并候选者块作为不可用的块。
依照根据本发明实施例的用于共享候选者列表的方法和使用该方法的设备,由于在从一个编码块划分的多个预测块之间共享单一候选者列表时进行帧间预测,所以减少了由于帧间预测所引起的复杂性。此外,由于针对多个预测块、按照并行的方式进行帧间预测,所以可以改善编码和解码的处理速度。
附图说明
图1是图示了根据本发明一个实施例的视频编码设备的结构的框图。
图2是图示了根据本发明另一实施例的视频解码设备的结构的框图。
图3是图示了根据本发明实施例的用于使用合并(merging)来进行帧间预测的方法的概念图。
图4是图示了其中将一个编码块划分为两个预测块的情况的概念图。
图5是图示了根据本发明实施例的使用时间合并候选者和时间合并候选者的参考画面索引的帧间预测的概念图。
图6是图示了根据本发明实施例的用于通过在多个预测块中共享空间合并候选者和时间合并候选者两者、来生成单一合并候选者列表的方法的概念图。
图7是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享空间合并候选者、来生成单一合并候选者列表的方法的概念图。
图8是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享时间合并候选者、来生成单一合并候选者列表的方法的概念图。
图9是图示了使用AMVP的帧间预测模式的概念图。
图10是图示了根据本发明实施例的用于通过在多个预测块中共享空间候选者预测块和时间候选者预测块两者、来生成单一运动向量预测候选者列表的方法的概念图。
图11是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享空间候选者预测块、来生成单一运动向量预测候选者列表的方法的概念图。
图12是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享时间候选者预测块、来生成单一运动向量预测候选者列表的方法的概念图。
图13是图示了根据本发明实施例的用于生成单一合并候选者列表的方法的概念图。
图14是图示了根据本发明实施例的用于生成单一合并候选者列表的方法的概念图。
图15是图示了根据本发明实施例的用于生成单一合并候选者列表的方法的概念图。
图16是图示了根据本发明实施例的用于生成合并候选者列表的方法的概念图。
图17是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
图18是图示了根据本发明实施例的用于生成合并候选者列表的方法的概念图。
图19是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
图20是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
图21是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
图22是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
图23是图示了当使用根据本发明实施例的用于生成单一候选者列表的方法时的过程的概念图,通过该过程、按照并行方式来对多个预测块进行解码和编码。
具体实施方式
在接下来的内容中,将参考附图来描述根据本发明的优选实施例。在描述本发明的实施例时,如果确定关于公众公知的功能的相关结构有关的特定描述可能会误导本发明的技术原理,则将省略对应的描述。
如果将某一构成元素提及为“链接”或“连接”到另一构成元素,则该元素可以直接地链接或连接到该另一构成元素,但是应该理解的是,在所述两个元素之间可以存在另一元素。此外,在本发明中被“包括”的含义应该被理解为,它没有排除除了在文档中明确包括的那些组件之外的其他组件,并且可以将另外的结构包括在本发明的实施例或技术范围中。
术语第一、第二等可以用于描述各个构成元素,但是所述构成元素不应该受到所述术语的限制。相反地,所述术语仅仅用于区分一个构成元素与其他构成元素。例如,可以将第一构成元素称为第二构成元素,而没有脱离本发明权利要求的范围,并且反之亦然。
其间,本发明实施例中的构成单元被独立地图示,以描述彼此不同的特性功能,并因而,没有指示出每个构成单元包括硬件或软件的单独单元。换言之,为了描述方便,照这样描述了每个构成单元;因而,至少两个构成单元可以形成单一单元,并同时,在将单一单元划分为多个子单元时,该单一单元可以提供预期的功能,并且各个单元的集成实施例和由子单元执行的实施例都应该被理解为属于本发明的权利要求,只要那些实施例属于本发明的技术范围即可。
另外,一些构成元素对于执行本发明的基础功能而言并不是至关紧要的;相反地,本可以可选地引入它们,以改善所述功能的性能。可以通过仅仅使用用于实现本发明的技术原理所必要的那些元素来实现本发明,而无需采用用于性能增强的可选元素。应该理解的是,仅仅包括那些必要元素排除只用于性能增强的可选元素的配置仍然属于本发明的技术范围。
图1是图示了根据本发明一个实施例的视频编码设备的结构的框图。
参考图1,视频编码设备100包括:运动预测单元111、运动补偿单元112、帧内预测单元120、开关115、减法单元125、变换单元130、量化单元140、熵编码单元150、逆量化单元160、逆变换单元170、加法器175、滤波器180、和参考画面缓冲器190。
视频编码设备100在帧内模式或帧间模式中对输入视频执行编码,并且产生比特流。在帧内模式的情况下,开关115切换到帧内,而在帧间模式的情况下,开关115切换到帧间。在相对于输入块而得到预测块之后,视频编码设备100对输入和预测块之间的残差(residual)进行编码。
将帧内模式定义为画面内预测模式,而将帧间模式定义为画面间预测模式;可以将帧内预测单元120称为画面内预测单元;而将运动预测单元111和运动补偿单元112称为画面间预测单元。
在帧内模式的情况下,帧内预测单元120通过使用当前块周围的预编码块的像素值来进行空间预测,并且得到预测块。
在帧间模式的情况下,运动预测单元111可以在运动预测处理期间,通过对在参考画面缓冲器190中存储的参考帧搜索与输入块的最为匹配的区域来获得运动向量。运动补偿单元112可以通过使用该运动向量进行运动补偿来得到预测块。
减法单元125基于输入块与所得到的预测块之间的残差来得到残差块。变换单元130通过进行残差块的变换来产生变换系数。这里,变换系数暗指通过将变换应用于残差块和/或残差信号所获得的系数值。对于此文档接下来的部分而言,通过将量化应用于变换系数所得到的、量化后的变换系数等级也可以称为变换系数。
量化单元140根据量化系数来对所输入的变换系数进行量化,并且输出量化后的变换系数等级。
熵编码单元150基于量化单元140所得到的值或者通过编码处理所得到的编码参数来进行熵编码;并且输出比特流。
在熵编码的情况下,将少量数目的比特分配到具有高出现概率的码元,而将大量数目的比特分配到具有低出现概率的码元,由此减少了用于要编码的码元的比特流的尺寸。因此,可以通过熵编码来改进视频编码的压缩性能。熵编码单元150可以利用诸如指数哥伦布、CAVLC(上下文自适应可变长度编码)、CABAC(上下文自适应二进制算术编码)等等的编码方法,用于熵编码。
由于图1的根据实施例的视频编码设备进行间预测编码,即帧间预测编码,所以必须对当前所编码的帧进行解码并存储,使得可以将它用作参考帧。因此,通过逆量化单元160来对量化后的系数进行逆量化,并且通过逆变换单元170来进行逆变换。通过加法器175来将逆量化后的变换系数添加到预测块,并且获得重构块。
重构块通过滤波器180,并且滤波器180可以向重构块或重构画面应用去块滤波器、SAO(采样自适应偏移)、和ALF(自适应环路滤波器)中的至少一个或多个。可以将已经通过滤波器180的重构块存储在参考画面缓冲器190中。
图2是图示了根据本发明另一实施例的视频解码设备的结构的框图。
参考图2,视频解码设备200包括熵解码单元210、逆量化单元220、逆变换单元230、帧内预测单元240、运动补偿单元250、加法器255、滤波器260、和参考画面缓冲器270。
视频解码设备200接收从编码器输出的比特流,并且在帧内或帧间模式中进行解码,并产生所重新配置的视频,即所重构的视频。在帧内模式的情况下,开关切换到帧内,而在帧间模式的情况下,开关切换到帧间。视频解码设备200根据所输入的比特流来获得所重构的残差块,并得到预测块,并且通过将残差块与预测块相加来产生所重新配置的块,即所重构的块。
熵解码单元210根据概率分布来将熵解码应用于所输入的比特流,并且产生量化系数形式的码元。熵解码方法与上述的熵编码方法相似。
在应用了熵解码方法的情况下,将少量数目的比特分配到具有高出现概率的码元,而将大量数目的比特分配到具有低出现概率的码元,由此减少用于每个码元的比特流的尺寸。因此,可以通过熵解码方法来增强视频解码的压缩性能。
通过逆量化单元220来对量化系数进行逆量化,并且通过逆变换单元230来进行逆变换;由于对量化系数进行逆量化/逆变换,所以获得所重构的残差块。
在帧内模式的情况下,帧内预测单元240通过使用当前块周围的预编码块的像素值进行空间预测,来获得预测块。在帧间模式的情况下,运动补偿单元250通过使用运动向量和参考画面缓冲器270中存储的参考帧进行运动补偿,来获得预测单元。
通过加法器255来将所重构的残差块和预测块相加在一起,并且所相加的块通过滤波器260。滤波器260向所重构的块或画面应用去块滤波器、SAO、和ALF中的至少一个或多个。滤波器260输出所重新配置的帧,即所重构的帧。所重构的帧可以存储在参考画面缓冲器270中,并且用于帧间预测。
用于改善编码/解码设备的预测性能的方法包括:用于增加内插视频帧的准确性的方法、和用于预测差分信号的方法。在本发明中,取决于上下文,可以用“残差块”或“差分块”来替换“差分信号”,并且本领域技术人员应该理解,所述术语可以彼此区别,而不影响本发明的技术原理。
在本发明的实施例中,编码单元(CU)、预测单元(PU)、或变换单元(TU)用于指代处理视频帧的单元。
编码单元是对于其来进行编码/解码的视频处理单元,并且包括:编码块,该编码块是应用了编码/解码的亮度采样或色度采样的块式集合;和用于对编码块的采样进行编码或解码的信息。
预测单元是对于其来进行预测的视频处理单元,并且包括:预测块,该预测块是执行了预测的亮度采样或色度采样的块式集合;和用于对预测块的采样进行预测的信息。可以将编码块划分为多个预测块。
变换单元是对于其来进行变换的视频处理单元,并且包括:变换块,该变换块是执行了变换的亮度采样或色度采样的块式集合;和用于对变换块的采样进行变换的信息。可以将编码块划分为多个变换块。
在接下来的内容中,除非相反地明确陈述,否则将块和单元解释为具有彼此相同的含义。
此外,当前块指代进行特定视频处理的块,诸如,当前进行预测的预测块或当前进行编码的编码块。例如,如果将一个编码块划分为两个预测块,则可以将对其进行预测的两个块之一称为当前块。
可以按照上面在图1和2中描述的视频编码器和视频解码器中包括的各个单元,来实现要在本发明的实施例中稍后描述的视频编码方法和视频解码方法。各个单元中的每一个可以包括可以通过算法实现的软件处理单元以及基于硬件的处理单元。
在下文中,可以利用在本发明实施例中描述的用于生成合并候选者列表的方法,以用于视频处理方法中的跳跃(SKIP)模式和作为帧间预测方法之一的合并两者。跳跃模式是这样的视频处理方法,其输出基于从相邻块得到的运动预测信息所预测的块,作为重构块,而没有生成残差块。作为帧间预测方法之一的合并是这样的视频处理方法,其在基于从相邻块得到的运动预测信息来生成所预测的块的意义上与跳跃模式是相同的,但是,通过另外地对残差块信息进行编码和解码,来根据残差块和预测块产生重构块。另外,可以将诸如去块滤波和采样自适应偏移之类的环内滤波方法应用于所产生的重构块。
图3是图示了根据本发明实施例的用于使用合并来进行帧间预测的方法的概念图。
参考图3,如下面描述地进行基于合并的帧间预测。
基于合并的帧间预测是指进行帧间预测的方法,其根据当前块周围的相邻块来得到合并候选者,并且通过使用所述合并候选者来进行帧间预测。可以将用于得到合并候选者的相邻块分类为:与当前块相邻、同时与当前块属于相同画面的那些块;以及与当前块属于不同画面、但是与当前块共置(co-locate)的那些块。
在本发明的下文中,将空间合并候选者块定义为相邻块之中、用于得到合并候选者的块,其与当前块相邻,并且与当前块属于相同画面。同时地,将从空间合并候选者块得到的运动预测相关信息称为空间合并候选者。将时间合并候选者块定义为相邻块之中、用于得到合并候选者的块,其与当前块共置,但是与当前块属于不同画面。将从时间合并候选者块得到的运动预测相关信息称为时间合并候选者。
换言之,可以将使用合并的帧间预测方法描述为以下帧间预测方法,其通过使用空间合并候选者块的运动预测相关信息(空间合并候选者)、或时间合并候选者块的运动预测相关信息(时间合并候选者)来预测当前块,这要在稍后进行描述。
运动向量(mvL0/L1)、参考画面索引(refIdxL0/L1)、和参考画面列表利用信息(predFlagL0/L1)可以用于运动预测相关信息。图3A图示了运动向量(mvL0/L1)、参考画面索引(refIdxL0/L1)、和参考画面列表利用信息(predFlagL0/L1)。
在执行帧间预测时,运动向量304提供方向性信息,并且用于预测块,以得到与参考画面的特定位置相关的像素信息。在通过使用多个方向性信息来在预测块中进行帧间预测的情况下,可以通过使用mvL0和mvL1来表示用于每个方向的运动向量。
参考画面索引306提供关于参考画面的索引信息,用于预测块进行帧间预测。在通过使用多个参考画面来进行帧间预测的情况下,可以通过使用参考画面索引refIdxL0和refIdxL1来对所使用的每个参考画面编索引。
参考画面列表利用信息指示出已经从哪一个参考画面列表308得到了参考画面。例如,i、j、k画面可以存储在参考画面列表0 308中。在存在其中存储有参考画面的两个列表的情况下,可以通过predFlagL0和predFlagL1来表示以下信息,该信息指示出从其中得到参考画面的参考画面列表。
为了实现通过使用合并的帧间预测方法,首先,通过下面的步骤(1)来获得空间合并候选者。图3B图示了空间合并候选者和时间合并候选者。
(1)根据与当前块(预测目标块)相邻的块来得到空间合并候选者。
如上所述,空间合并候选者提供了从空间合并候选者块得到的运动预测相关信息。可以相对于当前块的位置来得到空间合并候选者块。
参考图3B,相对于预测块来得到现有的空间合并候选者块300、310、320、330、340。假设位于预测块左上的像素的位置是(xP,yP);预测块的宽度是nPbW;预测块的高度是nPbH;并且MinPbSize表示最小预测块的尺寸。于是,在本发明的下文中,预测块的空间合并候选者块将包含(xP-1,yP+nPbH)处像素的块描述为左边第一块(或A0块,300);将包含(xP-1,yP+nPbH-1)处像素的块描述为左边第二块(或A1块,310);将包含(xP+nPbW,yP-1)处像素的块描述为上边第一块(或B0块,320);将包含(xP+nPbW-1,yP-1)处像素的块描述为上边第二块(或B1块,330);并且将包含(xp_1,yP-1)处像素的块描述为上边第三块(或B2块,340)。替代使用1作为索引,可以使用不同值,例如“MinPbSize”,并且同样在此情况下,可以对相同物理位置处的块编索引。任意地选定用于指定特定位置处的块的坐标,并且可以通过使用各种其他表达方式来指定相同的块。
在图3中描述的空间合并候选者块300、310、320、330、340的位置和数目、以及时间合并候选者块360、370的位置和数目是任意的;因此,空间合并候选者块的位置和数目、以及时间合并候选者块的位置和数目可以变化,只要它们没有脱离本发明的技术范围即可。此外,可以改变在构造合并候选者列表时所要扫描的合并候选者块的顺序。换言之,在接下来的内容中,在本发明实施例中描述的在构造候选者预测运动向量列表时使用的候选者预测块的位置、数目、扫描顺序、候选者预测组仅仅是示例,其可以改变,只要它们落入本发明的技术范围内即可。
确定空间合并候选者块300、310、320、330、340的可用性,并且根据可用的空间合并候选者块,可以得到空间合并候选者。可用性信息提供了以下信息,其指示出是否可以根据空间合并候选者来得到空间合并候选者。例如,在空间合并候选者块位于当前块所属的片段(slice)、拼接块(tile)、或画面外部、或者已经对于空间合并候选者块执行了帧内预测的情况下,无法得到作为运动预测相关信息的空间合并候选者;在此情况下,可以确定出空间合并候选者块不可用。可以使用各种方法来确定空间合并候选者的可用性信息。将为这种实施例提供另外的描述。
可以对于可用的空间合并候选者块得到运动预测相关信息,并且用于对当前块进行预测。
可以将一个编码块划分为至少一个预测块。换言之,编码块可以包括一个或多个预测块。当在编码块中包括多于一个预测块的情况下,可以通过特定索引信息来对预测块编索引。例如,如果将一个编码块划分为两个预测块,则可以通过向所述块之一分配分区索引0、同时向另一个块分配分区索引1,来对这两个预测块编索引。可以按照以下方式来使用不同的术语,使得将分区索引0的块叫做第一预测块,而将分区索引1的块叫做第二预测块。如果将一个编码块进一步划分为另外的预测块,则可以相应地增加用于指定预测块的索引值。任意地选定用于指定预测块的术语;因此,可以按照不同的方式来利用或解释它们。
可以将预测块的分区索引用作用于描述通过预测块执行的视频处理(诸如,编码或解码)的顺序的信息。此外,在下文中,根据本发明实施例的用于共享单一候选者列表的方法通过重新定义可以应用并行合并处理的块来描述并行合并处理。可以将可应用并行合并处理的块定义为包括至少一个编码块或多个预测块的单元,这将在下文中另外地进行描述。
在对于每个预测块得到空间合并候选者的情况下,如果将一个编码块划分为两个预测块,则必须对于每个块得到空间合并候选者。在此情况下,在一个编码块中包括的一个预测块的编码或解码完成之前,必须等待以得到用于另一预测块的空间合并候选者。这是因为一些空间合并候选者块310包括在另一预测块中,并且只有当对应的预测块完成编码或解码且位于某一位置处的另一空间合并候选者块300尚未进行编码或解码时,才允许得到空间合并候选者块。换言之,在编码块包括多个预测单元的情况下,不能按照并行方式来进行用于每个预测块的编码或解码。图4更加详细地图示了前述问题。
图4是图示了其中将一个编码块划分为两个预测块的情况的概念图。
参考图4,将一个编码块划分为第一预测块400和第二预测块420,所述两个预测块都具有N x 2N的形式。基于第一预测块400的位置来得到第一预测块的空间合并候选者,如图4A所示;而基于第二预测块420的位置来得到第二预测块420的空间合并候选者块,如图4B所示。尽管没有示出时间合并候选者块,但是基于每个预测块的位置来得到时间合并候选者。
第一预测块400的空间合并候选者块是位于第一预测块400外部的块,并且位于已经完成编码或解码的地方。
然而,第二预测块420的空间合并候选者块之中的Al块430属于第一预测块400的内部。因此,在进行第一预测块400的预测之后,可以知道Al块430的运动预测相关信息。换言之,在生成第一预测块400的合并候选者列表之后,进行用于生成第二预测块420的合并候选者列表的过程。
图4C图示了当将一个编码块划分为两个预测块时、生成合并候选者列表的顺序。
参考图4C,当在编码或解码处理期间将一个编码块划分为多个预测块的情况下,无法按照并行方式来进行用于生成关于多个预测块的合并候选者列表的处理,但是相反地,对于每个预测块,可以依次地进行用于生成关于多个预测块的合并候选者列表的处理。
根据本发明实施例的用于共享候选者列表的方法和使用该方法的设备描述了以下方法,其用于从一个编码块划分的多个预测单元在得到空间和时间合并候选者时,共享合并候选者列表。通过单一合并候选者列表的术语来定义由多个预测单元共享的合并候选者列表。
换言之,本发明提供了以下方法,其基于在从编码块划分的编码块中包括的几个预测块的单一合并候选者列表,使用多个预测块,来进行帧间预测。可以通过采用单一合并候选者列表来减小由于对于各个预测块若干次地生成合并候选者列表所引起的复杂性。此外,可以并行地进行在执行通过合并的帧间预测的一个编码块内划分的多个预测块的编码或解码。
在接下来的内容中,将在本发明的实施例中另外地描述用于生成单一合并候选者列表的方法。
(2)对时间合并候选者的参考画面索引进行配置。
时间合并候选者提供了从包含当前块的画面和属于另一画面的时间合并候选者块所得到的运动预测相关信息。基于相对于当前块的位置处于共置位置处的块,来得到时间合并候选者块。也可以按照与时间合并候选者块相同的含义来使用调用块(call block)的术语。
再次相对于图3,如果相对于包括预测块的画面内的像素位置(xP,yP),包括当前预测块的共置画面中处于(xP+nPSW,yP+nPSH)处像素的块或包括处于(xP+nPSW,yP+nPSH)处像素的块不可用,则时间合并候选者块360、370可以充当包括处于(xP+(nPSW>>1),yP+(nPSH>>1))处像素的块。将包括共置画面中处于(xP+nPSW,yP+nPSH)处像素的预测块称为第一时间合并候选者块(或第一共置块360);而将包括共置画面中处于(xP+(nPSW>>1),yP+(nPSH>>1))处像素的预测块称为第二时间合并候选者块370。用于得到时间合并候选者(运动预测相关信息)的最终时间合并候选者块的位置可以对应于位于相对于第一360和第二时间合并候选者块370的位置移动了一点的位置处的块。例如,在属于共置画面的预测块的运动预测相关信息的仅仅一部分存储在存储器中的情况下,可以将位于相对于第一360和第二时间合并候选者块370的位置移动了一点的位置处的块用作最终的时间合并候选者块,其用于得到最终的运动预测相关信息。按照与空间合并候选者块相同的方式,可以与图3不同地改变或增大时间合并候选者块的位置,并且稍后将描述用于描述该情况的实施例。
时间合并候选者的参考画面索引提供了以下信息,其基于从时间合并候选者所得到的运动向量(mvLXCol)来指定当前块用于进行帧间预测所参考的画面。
图5是图示了根据本发明实施例的使用时间合并候选者和时间合并候选者的参考画面索引的帧间预测的概念图。
参考图5,可以定义当前块500、包括当前块的画面510、时间合并候选者块520、和包括调用块的共置画面530。
相对于时间合并候选者块520,存在画面540,用于时间合并候选者块应用用于时间合并候选者块520的帧间预测。将这种画面定义为共置画面530的参考画面540。此外,可以将用于时间合并候选者块520根据共置画面的参考画面540来进行帧间预测的运动向量定义为mvCol 570。
相对于当前块500,必须定义用于当前块500基于所得到的mvCol 570的帧间预测的参考画面560。可以将定义为用于当前块500的帧间预测的参考画面称为时间合并候选者的参考画面560。换言之,时间合并候选者的参考索引560用于指定用于当前块500的时间运动预测的参考画面。如上所述,步骤(2)得到时间合并候选者的参考画面索引。
可以根据共置画面530和该共置画面的参考画面540之间的距离、与包括当前块的画面510和通过步骤(2)所得到的时间合并候选者的参考画面560之间的距离的关系,来将根据时间合并候选者块520所得到的运动向量mvCol 570缩放并修改为另一值。
换言之,可以基于通过稍后描述的步骤(3)所得到的mvLXCol 580和时间合并候选者的参考画面索引560,来进行通过当前块500的时间合并候选者的帧间预测,该mvLXCol580基于通过步骤(2)所得到的时间合并候选者的参考画面索引560,并且可以将mvLXCol定义为时间运动向量。
(3)得到时间合并候选者的运动预测相关信息。
步骤(3)得到时间合并候选者,诸如关于时间合并候选者块是否可用的信息、参考画面列表利用信息(predFlagLXCol)、和时间合并候选者的运动向量信息,以基于时间合并候选者来进行运动预测。时间合并候选者块的可用性信息提供了关于是否可以根据时间合并候选者块来得到时间合并候选者的信息。基于时间合并候选者块的可用性信息,可以将时间合并候选者包括在合并候选者列表中。
(4)得到合并候选者列表。
合并候选者列表基于合并候选者块(空间合并候选者块或时间合并候选者块)的可用性信息,而包括关于可以用于通过合并的帧间预测的合并候选者的信息。在合并候选者列表中包括的一个合并候选者可以用来对当前块进行预测。在编码处理中对关于将使用哪一个合并候选者来对当前块进行预测的信息(合并索引)进行编码,并且传送到解码器。
可以根据如下所述的优先级来生成合并候选者列表。
1)在A1块可用的情况下根据A1块所得到的合并候选者
2)在B1块可用的情况下根据B1块所得到的合并候选者
3)在B0块可用的情况下根据B0块所得到的合并候选者
4)在A0块可用的情况下根据A0块所得到的合并候选者
5)在B2块可用的情况下根据B2块所得到的合并候选者
6)在Col块可用的情况下根据Col块所得到的合并候选者
例如,根据可用块的数目,合并候选者列表可以包括0到5个合并候选者。在更多块涉及用于得到合并候选者的情况下,可以将更多的合并候选者包括在合并候选者列表中。
(5)在包括于合并候选者列表中的合并候选者的数目小于可以在合并候选者列表中包括的合并候选者的最大数目的情况下,得到另外的合并候选者。
另外的合并候选者可以是通过组合现有合并候选者的运动预测相关信息所生成的合并候选者或零向量合并候选者。此时,零向量合并候选者是指其运动向量为(0,0)的合并候选者。
(6)在包括于合并候选者列表中的合并候选者之中,确定应用于当前块的帧间预测的合并候选者,并且将该合并候选者的运动预测相关信息设置为当前块的运动预测相关信息。
在解码处理中,可以基于合并索引(merge_idx[xP][yP]),对于当前块来进行通过合并的帧间预测,该合并索引是关于使用合并候选者列表中包括的候选者之中的哪一个候选者用于当前块的帧间预测的信息。
通过上述的过程(1)到(6)来得到关于当前块的运动预测相关信息,并且通过使用所得到的运动预测相关信息,来进行关于当前块的帧间预测。
在接下来的内容中,本发明的实施例另外地描述了一种方法,通过该方法,在使用步骤(1)的用于根据当前块(预测目标块)的空间合并候选者块来得到空间合并候选者的方法时,通过对于在一个编码块中包括的至少一个预测块得到一个合并候选者列表,来对于至少一个预测块进行并行合并处理。在接下来的内容中,为了便于描述,本发明的实施例假设,将一个编码块划分为多个预测块;然而,该实施例可以同样地应用于以下情况,其中没有对一个编码块进行划分,但是编码块的尺寸等于一个预测块的尺寸。
以下实施例描述了一种用于相对于空间和时间合并候选者来构造单一合并候选者列表的方法。然而,按照与其中将通过组合空间和/或时间合并候选者的运动预测相关信息所生成的合并候选者添加到合并候选者列表、或者将零合并候选者添加到合并候选者列表的情况相同的方式,可以按照以下方式来应用该方法,使得从一个编码块划分的多个预测块使用基于编码块所确定的单一合并候选者列表。
为了构造单一合并候选者列表,多个预测块可以共享1)空间合并候选者和时间合并候选者两者、2)仅仅空间合并候选者、或3)仅仅时间合并候选者。在2)和3)的情况下,用于预测块的合并候选者列表可以彼此不同;然而,由于仅仅共享了候选者的一部分,所以为了方便的目的而综合地定义并使用了术语单一合并候选者。
更具体地,可以通过使用以下方法来在彼此不同的预测块之中共享合并候选者列表:
(1)用于在从一个编码块划分的多个预测块共享基于编码块所确定的空间和时间合并候选者两者时、生成单一合并候选者列表的方法;
(2)用于在从一个编码块划分的多个预测块仅仅共享空间合并候选者并且时间合并候选者使用基于每一个预测块所得到的块时、生成单一合并候选者列表的方法;以及
(3)用于在从一个编码块划分的多个预测块仅仅共享时间合并候选者并且空间合并候选者使用基于每一个预测块所得到的块时、生成单一合并候选者列表的方法。
图6是图示了根据本发明实施例的用于通过在多个预测块中共享空间合并候选者和时间合并候选者两者、来生成单一合并候选者列表的方法的概念图。
图6描述了用于在从一个编码块划分的多个预测块共享基于编码块所确定的空间和时间合并候选者两者时、生成单一合并候选者列表的方法。
参考图6,第一预测块600和第二预测块650根据相同的空间合并候选者块来得到空间合并候选者,并且共享该空间合并候选者。基于编码块来确定关于第一600和第二预测块650的空间合并候选者块,并且可以将A0块605、A1块610、B0块615、B1块620、和B2块625用作空间合并候选者块。
每一个空间合并候选者块的位置对应于包括在该图中示出的相对于编码块的左上位置(xC,yC)和尺寸nC的像素的位置。
A0块605对应于包括(xC-1,yC+nCS)处像素的块;A1块610对应于包括(xC-1,yC+nCS-1)处像素的块;B0块615对应于包括(xC+nCS,yC-1)处像素的块;B1块620对应于包括(xC+nCS-1,yC-1)处像素的块;B2块625对应于包括(xC-1,yC-1)处像素的块。
此外,第一600和第二预测块650可以共享时间合并候选者。还可以得到用于得到由第一600和第二预测块650所共享的时间合并候选者的时间合并候选者块660、670,作为位于基于编码块的左上位置(xC,yC)和尺寸nCS所得到的位置处的块。
例如,如果相对于包括预测块的画面内的像素位置(xC,yC)、包括当前预测块的共置画面中处于(xC+nCS,yC+nCS)处像素的预测块或包括处于(xC+nCS,yC+nCS)处像素的块不可用,则时间合并候选者块660、670可以充当包括处于(xC+(nCS>>1),yC+(nCS>>1))处像素的预测块670。
可以通过使用用于得到单一合并候选者列表的方法对于各个预测块应用并行合并处理,来进行帧间预测,并且不必单独地对于每一个预测块来得到合并候选者列表。因此,通过使用根据本发明实施例的单一合并候选者列表,可以对于需要巨大数据处理量的诸如UHDTV(超高清晰度电视)之类的装置,增强视频处理速度。
尽管在图6中图示的方法将第一N x 2N预测块600和第二N x 2N预测块650划分为N x 2N形式的块,但是也可以将该方法应用于被划分为各种其他形式的预测块的块(例如,2N x N、2N x nU、nL x 2N、nR x 2N、或N x N)。
此外,该方法可以根据块的尺寸或划分深度,来不同地确定是否应用单一合并候选者列表。例如,基于可以应用并行合并处理的块的尺寸和编码块的尺寸信息,关于特定块是否使用单一合并候选者列表的信息。例如,可以通过标志信息来指示关于特定块是否使用单一合并候选者列表的信息。通过singleMCLflag来定义指示出特定块是否使用单一合并候选者列表的标志。例如,如果singleMCLflag是0,则它指示出对应的块不使用单一合并候选者列表;而如果singleMCLflag是1,则它指示出对应的块使用单一合并候选者列表。基于singleMCLflag的值,可以相对于编码块来得到关于预测块的空间合并候选者。
例如,基于可以应用并行合并处理的块的尺寸必须大于4x4尺寸并且当前块的尺寸是8x8的信息,可以得到指示出从8x8编码块得到的预测块使用单一合并候选者列表的标志信息。稍后,可以使用所得到的标志,以基于编码块来得到预测块的空间合并候选者和时间合并候选者。
下面,将提供关于本发明实施例的另外描述。
图7是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享空间合并候选者、来生成单一合并候选者列表的方法的概念图。
图7图示了用于生成单一合并候选者列表的方法,其中,从一个编码块划分的多个预测块仅仅共享基于编码块所确定的空间合并候选者,而时间合并候选者使用基于每一个预测块所得到的合并候选者。
相对于图7,第一预测块700和第二预测块750可以共享相同的空间合并候选者。基于编码块来确定第一700和第二预测块750的空间合并候选者块,并且可以将A0块750、A1块710、B0块715、B1块720、和B2块725用作空间合并候选者块。每一个块可以位于基于编码块所得到的位置。
可以基于每个预测块的位置,来得到第一700和第二预测块750的时间合并候选者块(或共置块)。
第一预测块700将Hpu0块755与Mpu0块760之间的至少一个块用作时间合并候选者,该Hpu0块755与该Mpu0块760是基于该第一预测块700自身的块位置所确定的时间合并候选者。第二预测块750将Hpu1块765与Mpu1块770之间的至少一个块用作时间合并候选者,该Hpu1块765与该Mpu1块770是基于该第一预测块700自身的块位置所确定的共置块。如上所述,用于得到最终运动预测相关信息的时间合并候选者块的位置可以对应于相对于Hpu0块755、Mpu0块760、Hpu1块765、和Mpu1块770的位置移动了一点的位置。
时间合并候选者块755、765、770属于所预编码或解码的画面;并且第一700和第二预测块750可以通过按照并行方式生成合并候选者列表,来进行帧间预测。
图8是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享时间合并候选者、来生成单一合并候选者列表的方法的概念图。
图8图示了用于生成单一合并候选者列表的方法,其中,从一个编码块划分的多个预测块仅仅共享基于编码块所确定的时间合并候选者;而空间合并候选者使用基于每一个预测块所得到的合并候选者。
参考图8,第一预测块800和第二预测块850可以根据每个块的位置和尺寸,从对应的空间合并候选者块得到彼此不同的空间合并候选者。
第一预测块800的空间合并候选者块是A0块805、A1块810、B0块813、和B2块820;可以基于第一预测块800的左上像素的位置和第一预测块800的尺寸(宽度和高度),来得到每个块的位置。
例如,假设第一预测块的左上像素是(xP,yP)。于是,预测块的空间合并候选者块进行配置,使得包括(xP-1,yP+nPbH)处像素的块是左边第一块(或A0块,805);包括(xP-1,yP+nPbH-1)处像素的块是左边第二块(或A1块,810);包括(xP+nPbW,yP-1)处像素的块是上边第一块(或B0块,813);包括(xP+nPbW-1,yP-1)处像素的块是上边第二块(或B1块,815);并且包括(xP-1,yP-1)处像素的块是上边第三块(或B2块,820)。
第二预测块850的空间合并候选者块是A0'块825、A1'块830、B0'块835、B1'块840、和B2'块815;并且可以根据第二预测块850的左上像素的位置和第二预测块850的尺寸(宽度和高度),来得到每个块的位置。
例如,如果第二预测块的左上像素是(xP’,yP’),则预测块的空间合并候选者块进行配置,使得包括(xP'-1,yP'+nPbH)处像素的块是左边第一块(或A0'块,825);包括(xP'-1,yP'+nPbH-1)处像素的块是左边第二块(或A1'块,830);包括(xP'+nPbW,yP'-1)处像素的块是上边第一块(或B0;块,835);包括(xP'+nPbW-1,yP'-1)处像素的块是上边第二块(B1'块,840);并且包括(xP'-1,yP'-1)处像素的块是上边第三块(B2'块,815)。
换言之,可以基于每一个预测块800、850的位置和尺寸,来得到空间合并候选者。
基于编码块来得到第一800和第二预测块850的时间合并候选者块(或共置块860、870),并且两个预测块可以共享相同的时间合并候选者。
还可以将上述的用于得到单一合并候选者列表的方法用于使用AMVP(高级运动向量预测)来在帧间预测模式中生成AMVP(高级运动向量预测)列表(或运动向量预测器候选者列表)。
图9是图示了使用AMVP的帧间预测模式的概念图。
为了参考图9来简要地描述使用AMVP的帧间预测模式,在使用AMVP的帧间预测模式中使用的空间候选者预测块包括左边第一块A0 900、左边第二块A1 910、上边第一块B0920、上边第二块B1 930、和上边第三块B2 940。可以将空间候选者预测块划分为两个空间候选者预测组,其中将包括左边第一块900和左边第二块910的组定义为第一空间候选者预测组,而将包括上边第一块920、上边第二块930、和上边第三块940的组定义为第二空间候选者预测组。
基于包括当前预测块的画面中的像素位置(xP,yP),时间合并候选者预测块可以包括包含当前预测块的共置画面中(xP+nPbW,yP+nPbH)处像素的预测块950;如果包括(xP+nPbW,yP+nPbH)处像素的预测块不可用,则时间候选者块可以包括包含(xP+(nPbW>>1),yP+(nPbH>>1))处像素的预测块960。按照与合并相同的方式,用于在AMVP中得到最终运动预测相关信息的最终时间合并候选者可以对应于位于相对于第一950和第二时间合并候选者960的位置移动了一点位置处的块。
使用AMVP的帧间预测方法基于根据源自于每一个空间合并预测组的运动向量和源自于时间合并预测块的运动向量所得到的运动向量,来生成运动向量预测候选者列表。可以将所得到的运动向量预测候选者列表的运动向量用于进行关于当前块的帧间预测。
可以按照并行的方式来进行用于根据候选者预测块(空间候选者预测块或时间候选者预测块)来得到运动向量的方法。例如,如果在得到候选者预测运动向量的情况下、根据两个空间候选者预测组(第一空间候选者预测组和第二空间候选者预测组)中的每一个来得到一个候选者预测运动向量并且根据时间合并候选者块来得到一个候选者预测运动向量,则可以按照并行的方式来进行用于根据第一空间候选者预测组、第二空间候选者预测组、和时间候选者预测组来得到候选者预测运动向量的操作。按照并行的方式来进行用于得到候选者预测运动向量的处理导致减少了在得到候选者预测运动向量的处理中固有的复杂性。换言之,可以按照并行的方式来进行根据第一空间候选者预测组来得到空间候选者预测运动向量、根据第二空间候选者预测组来得到空间候选者预测运动向量、和根据时间候选者预测组来得到时间候选者预测运动向量。
根据本发明的实施例,还可以按照并行的方式来进行从编码块划分的每一个预测块的使用AMVP的帧间预测。
按照与合并相同的方式,在将一个编码块划分为多个预测单元的情况下,AMVP生成用于每一个预测块的运动向量预测候选者列表。在此情况下,将特定预测块的空间候选者预测块包括在另一预测块中,并且它不得不等待预测完成。因此,当运动向量预测候选者列表被生成或特定预测块的空间候选者预测块位于未编码或未解码的位置处时,存在以下情况,其中无法根据对应的块来得到运动向量。
为了解决以上问题并且构造运动向量预测候选者列表,可以通过使得多个预测块1)共享空间候选者预测块和时间候选者预测块两者、2)仅仅共享空间候选者预测块、或3)仅仅共享时间候选者预测块,来得到空间候选者预测运动向量或时间候选者预测运动向量。在2)和3)的情况下,关于预测块的运动向量预测候选者列表可以彼此不同;然而,由于仅仅共享候选者的一部分,所以为了方便的目的而综合地定义并使用术语单一运动向量预测候选者列表。
更具体地,可以通过使用以下方法来在彼此不同的预测块之中共享运动向量预测候选者列表:
(1)用于在从一个编码块划分的多个预测块共享基于编码块所得到的空间和时间候选者预测块两者时、生成单一运动向量预测候选者列表的方法;
(2)用于在从一个编码块划分的多个预测块仅仅共享基于编码块所得到的空间合并候选者并且时间候选者预测块使用基于每一个预测块所得到的块时、生成单一运动向量预测候选者列表的方法;以及
(3)用于在从一个编码块划分的多个预测块仅仅共享基于编码块所得到的时间候选者预测块、并且空间候选者预测块使用基于每一个预测块所得到的块时、生成单一运动向量预测列表的方法。
图10是图示了根据本发明实施例的用于通过在多个预测块中共享空间候选者预测块和时间候选者预测块两者、来生成单一运动向量预测候选者列表的方法的概念图。
图10图示了用于生成单一运动向量候选者列表的方法,其中,从一个编码块所划分的多个预测块共享基于该编码块所确定的空间候选者预测块和时间候选者预测块两者。在接下来的实施例中,假设从候选者预测块所得到的所有运动向量预测候选者是可用的。
参考图10,第一预测块1000和第二预测块1050共享相同的空间候选者预测块。基于编码块来确定第一1000和第二预测块1050的空间候选者预测块,该编码块可以对应于A0块1005、A1块1010、B0块1015、B1块1020、和B2块1025。
第一1000和第二预测块1050基于共享的A0 1005和A1块1010来得到一个运动向量预测候选者,同时基于B0 1015、B1 1020、和B2块1025来得到一个运动向量预测候选者。
另外,第一1000和第二预测块1050可以共享时间候选者预测块(或,共置块1050、1060)。第一1000和第二预测块1050可以根据共享的时间候选者预测块(或共置块1050、1060)来得到运动向量预测候选者。
换言之,第一1000和第二预测块1050可以通过使用基于空间候选者预测块1005、1010、1015、1020、1025以及时间候选者预测块1050、1060所得到的运动向量预测候选者,来生成单一运动向量预测候选者列表。
图11是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享空间候选者预测块、来生成单一运动向量预测候选者列表的方法的概念图。
图11图示了用于得到运动向量预测候选者的方法,其中,从一个编码块所得到的多个预测块仅仅共享基于该编码块所确定的空间候选者预测块。换言之,描述的是用于生成单一运动向量预测候选者列表的方法,其中,时间候选者预测块根据基于每一个预测块所得到的块,来得到运动向量预测候选者。
参考图11,第一预测块1100和第二预测块1150共享相同的空间候选者预测块。基于编码块来确定第一1100和第二预测块1150的空间候选者预测块,该编码块可以共享A0块1105、A1块1110、B0块1115、B1块1120、和B2块1025,并且将各个块用作空间候选者预测块。
可以基于各个预测块的位置,来得到第一1100和第二预测块1150的时间候选者预测块(或共置块1155、1160、1165、1170)。
第一预测块1100将来自Hpu0块1155和Mpu0块1160中的至少一个块用作时间候选者预测块,该Hpu0块1155和该Mpu0块1160是基于它们自身位置所确定的共置块。
第二预测块1150将来自Hpu1块1165和Mpu1块1170中的至少一个块用作时间候选者预测块,该Hpu1块1165和该Mpu1块1170是基于它们自身位置所确定的共置块。
时间候选者预测块1155、1160、1165、1170属于预编码的或预解码的块;即使当它们不共享时间候选者预测块时,第一1100和第二预测块1150也按照并行方式来生成运动向量预测候选者列表,并因而进行帧间预测。
图12是图示了根据本发明实施例的用于通过在多个预测块中仅仅共享时间候选者预测块来生成单一运动向量预测候选者列表的方法的概念图。
图12图示了用于生成单一运动向量预测候选者列表的方法,其中,从一个编码块所得到的多个预测块仅仅共享基于该编码块所确定的时间候选者预测块,并且空间候选者预测块使用基于每一个预测块所得到的块。
参考图12,第一预测块1200和第二预测块1250可以使用相对于各个预测块的位置而彼此不同的空间候选者预测块。换言之,用于第一预测块1200的空间候选者预测块可以对应于A0块1205、A1块1210、B0块1212、B1块1215、和B2块1220,而用于第二预测块1250的空间候选者预测块可以对应于A0'块1225、A1'块1230、B0'块1235、B1'块1240、和B2'块1215。
基于编码块来得到第一1200和第二预测块1250的时间合并候选者块(或共置块1260、1270),并且这两个预测块可以共享相同的时间合并候选者。
在基于AMVP的帧间预测模式中,可以根据块所参考的参考画面索引,来不同地生成单一运动向量预测候选者列表。例如,如果当前画面(或片段)具有四个参考画面,则可以定义多达四个参考画面索引。在此情况下,由于每一个参考画面索引可以具有单一运动向量预测候选者列表,所以可以生成总共“四个”单一运动向量预测候选者列表,并且将它们用于目标预测块。
此外,可以使得编码或解码按照以下方式进行,使得当前编码块内的所有预测块都使用相同的参考画面索引。在此情况下,由于当前编码块内的所有预测块都具有相同的参考画面索引,所以具有仅仅一个单一运动向量预测候选者列表是足够的。可以根据编码块的尺寸或深度,来不同地确定是否应用这些方法。
除了上述方法之外,可以使用各种其他方法来生成单一合并候选者列表和单一运动向量预测候选者列表。在下文中,将描述用于生成各个候选者列表(单一合并候选者列表、单一运动向量预测候选者列表)的方法。
图13是图示了根据本发明实施例的用于生成单一合并候选者列表的方法的概念图。
尽管为了便于描述,图13图示了用于生成单一合并候选者列表的方法,但是也可以将它应用于用于生成单一运动向量预测候选者列表(AMVP列表)的方法。
如上所述,可以任意地变更时间合并候选者和空间合并候选者的位置,并且同时,可以改变时间合并候选者和空间合并候选者的数目。
参考图13A和13B,可以重新定义用于生成单一合并候选者列表的空间合并候选者块的位置和时间合并候选者块的位置。
在图13A中,可以将A1块1300的位置重新定义为包括(xC-1,yC+nCS/2)处像素的位置,而将B1块1305的位置重新定义为包括(xC+nCS/2,yC-1)处像素的位置。
此外,除了现有的位置之外,可以得到时间合并候选者块的位置还可以包括H1块1310、H2块1320、H3块1330、和H4块1340。在共置块中,H1块1310可以对应于包括(xC+nCS/2,yC+nCS)处像素的块;H2块1320可以对应于包括(xC+nCS,yC+nCS/2)处像素的块;H3块1330可以对应于包括(xC,yC+nCS)处像素的块;并且H4块1340可以对应于包括(xC+nCS,yC)处像素的块。
在图13B中,可以将A1块1350的位置重新定义为包括(xC-1,yC+nCS/2-1)处像素的位置,而将B1块1355的位置重新定义为包括(xC+nCS/2,yC-1)处像素的位置。
此外,除了现有的位置之外,时间合并候选者块的位置还可以包括H1块1360、H2块1360、H3块1380、和H4块1390。在共置块中,H1块1360可以对应于包括(xC+nCS/2,yC+nCS)处像素的块;H2块1370可以对应于包括(xC+nCS,yC+nCS/2)处像素的块;H3块1380可以对应于包括(xC,yC+nCS)处像素的块;并且H4块1390可以对应于包括(xC+nCS,yC)处像素的块。
上面的用于生成单一合并候选者列表和单一运动向量预测候选者列表的方法描述了用于基于编码块来生成单一合并候选者列表和单一运动向量预测候选者列表的方法;并且该方法还描述了可以限制根据其来生成单一合并候选者列表和单一运动向量预测候选者列表的编码块的尺寸。整可以引入单一候选者列表的概念,来整合单一合并候选者列表和单一运动向量预测候选者列表的概念。
此外,根据本发明的实施例,可以通过使用普通块(例如,包括至少一个编码块或至少一个预测块的特定尺寸的块)、而不是编码块来生成单一候选者列表。此外,还可以将用于生成单一候选者列表的方法仅仅应用于合并和AMVP之间的一个帧间预测模式。
可以如下面表1所示地归纳上面的细节。
<表1>
Figure GDA0003301450620000261
表1根据由其来生成单一候选者列表的块类型、块尺寸、和向通过其来生成单一合并候选者列表的帧间预测应用的合并和AMVP之间的方法的类型,对方法进行分类。
图14是图示了根据本发明实施例的用于生成单一合并候选者列表的方法的概念图。
图14描述了用于在使用合并的帧间预测中基于块来共享单一合并候选者列表的方法。
参考图14,由实线指示的区域表示编码块,而由虚线指示的区域表示从对应编码块所划分的预测块。图14示出了将包括多个编码块的较大块单元用作通过其来得到空间合并候选者块1400、1405、1410、1415、1420以及时间合并候选者块1450到1480的单元。换言之,可以通过比编码块更大的块来生成单一合并候选者列表。可以对这种信息进行编码并解码,作为关于可以应用并行合并处理的块的信息。根据本发明的实施例,可以通过基于关于可以应用并行合并处理的块的信息和关于包括预测块的编码块的信息,使用单一合并候选者列表,来确定在特定编码块中包括的预测块是否进行合并。
在根据属于可以应用并行合并处理的块的编码块所得到的空间合并候选者块之中、属于可以应用并行合并处理的块的空间合并候选者块是不可用的块,并且不可以用于得到空间合并候选者。相反地,在通过合并的帧间预测期间,属于可以应用并行合并处理的块外部的空间合并候选者块可以用于得到空间合并候选者。换言之,可以将属于可以应用并行合并处理的块的空间合并候选者块确定为不可用的空间合并候选者块,并且不可以用于得到空间合并候选者。
为了进行该确定,确定在可以应用相同并行合并处理的块中是否包括当前块(目标预测块)和该当前块的空间合并候选者块。如果在可以应用相同并行合并处理的块中包括当前块(目标预测块)和该当前块的空间合并候选者块,则将对应块确定为不可用,并且不可以用于构造合并候选者列表。
同样,可以基于可以应用并行合并处理的块,来得到与满足以上条件的块相关的时间合并候选者块。换言之,当在特定编码块中包括的预测块通过使用单一合并候选者列表来进行合并的情况下,可以共享并使用用于预测块的相同时间合并候选者。
图15是图示了根据本发明实施例的用于生成单一合并候选者列表的方法的概念图。
图15描述了用于在通过合并的帧间预测期间、只有当编码块的尺寸小于或等于特定尺寸时、才使相同编码块内的预测块共享空间合并候选者和时间合并候选者的方法。
可以使用各种信息,来采用用于仅仅针对满足特定条件的块来共享单一合并候选者列表的方法。例如,可以基于关于可以应用并行合并处理的块的尺寸的信息和当前编码块的尺寸信息,来得到关于当前块是否使用单一合并候选者列表的信息。根据所得到的信息,可以相对于满足特定条件的编码块,来得到用于预测块的空间合并候选者和时间合并候选者。
参考图15,例如,只有当可以应用并行合并处理的块的尺寸是8x8或更大、并且编码块的尺寸是8x8时,从该编码块所划分的预测块才可以共享单一合并候选者列表。
现在,假设在图15A中,第一编码块CU0 1500是32x32的块;第二编码块CU1 1510是16x16的块;第三编码块CU2 1520是32x32的块;第四编码块CU3 1530是16x16的块;并且第五编码块CU4 1500是8x8的块。
图15B是仅仅示出了关于编码块的一部分的空间合并候选者块的概念图。
参考图15B,将第二编码块1510划分为nL x 2N形式的两个预测块1515、1518,而将第五编码块1540划分为N x 2N形式的两个预测块1545、1550。图15B假设仅仅针对8x8尺寸的编码块1540来生成单一合并候选者列表。
第二编码块1510的第一预测块1515和第二预测块1518得到用于每一个预测块的空间合并候选者,并且生成用于各个预测块的合并候选者列表。
第五编码块的尺寸是8x8,并且满足在可以应用并行合并处理的块的尺寸、和当前编码块的尺寸上施加的条件。在此情况下,在第五编码块1540中包括的第三预测块1545和第四预测块1550可以基于从该编码块的位置和尺寸所得到的空间合并候选者和时间合并候选者,来生成单一合并候选者列表。
换言之,确定定义为可以应用并行合并处理的块的尺寸是否大于预定的特定尺寸、和编码块是否具有特定尺寸,并且如果定义为可以应用并行合并处理的块的尺寸大于预定的特定尺寸、并且编码块具有特定尺寸,则可以确定出预测单元通过使用单一合并候选者列表来进行合并。
在根据属于可以应用并行合并处理的块的编码块所得到的空间合并候选者块之中、属于可以应用并行合并处理的块的空间合并候选者块不可以用于得到空间合并候选者。相反地,属于可以应用并行合并处理的块外部的空间合并候选者块可以用于通过合并的帧间预测。换言之,可以将属于可以应用并行合并处理的块的空间合并候选者块确定为不可用的空间合并候选者块,并且不可以用于得到空间合并候选者。
例如,为了进行该确定,确定在可以应用相同并行合并处理的块中是否包括当前块(目标预测块)和该当前块的空间合并候选者块。如果在可以应用相同并行合并处理的块中包括当前块(目标预测块)和该当前块的空间合并候选者块,则将对应的空间合并候选者块确定为不可用,并且不可以用于根据空间合并候选者块来得到空间合并候选者。
如上所述,为了生成用于特定尺寸的编码块的单一合并候选者列表,可以得到1)与在通过合并的帧间预测期间可以应用并行合并处理的块的尺寸相关的信息、和2)指示出对应块基于当前块的尺寸信息来生成单一合并候选者列表的单一合并候选者列表标志(singleMCLflag)。此外,由于可以根据1)与在通过合并的帧间预测期间可以应用并行合并处理的块的尺寸相关的信息、来得知在得到空间合并候选者时哪一个空间合并候选者块对应于不可用的块,所以可以不根据对应块来得到空间合并候选者。
例如,假设可以应用并行合并处理的块的尺寸是8x8,并且当前编码块的尺寸是8x8。如果编码块和基于该编码块所得到的空间合并候选者块属于可以应用并行合并处理的相同块,则可以将空间合并候选者块确定为不可用。换言之,在编码块和基于该编码块所得到的空间合并候选者块属于可以应用不同并行合并处理的块的情况下,可以使用对应的空间合并候选者块用于得到空间合并候选者。
当得到了空间合并候选者和时间合并候选者并且将它们用于生成单一合并候选者列表时,随后采用所得到的单一合并候选者列表标志(singleMCLflag),在该单一合并候选者列表中,由从特定尺寸的编码块所划分的预测块共享相同的合并候选者。
在接下来的内容中,本发明的实施例参考表2到5描述与在通过合并的帧间预测期间可以应用并行合并处理的块相关的信息、以及用于将该信息编码为比特流或对该比特流进行解码的语法结构。
<表2>
Figure GDA0003301450620000301
<表3>
Figure GDA0003301450620000302
<表4>
Figure GDA0003301450620000311
<表5>
Figure GDA0003301450620000321
可以将在表格2到5的语法中包括的“parallel_merge_enabled_flag(并行合并使能标志)”用作指示出是否基于编码块来使用单一合并候选者列表的信息。此外,“parallel_merge_enabled_flag”可以包括关于是否进行并行合并处理的信息。
例如,在“parallel_merge_enabled_flag”是1的情况下,它指示出已经基于编码块而应用了用于生成单一合并候选者列表的方法,并且指示出要进行的并行合并处理;而在“parallel_merge_enabled_flag”是0的情况下,它可以指示出尚未应用用于单一合并候选者列表并且并行合并处理不可应用;反之亦然。此外,可以将“parallel_merge_enabled_flag”用作指示出是否按照并行方式对编码块内的所有预测块进行编码或解码的信息,并且用作指示出是否按照并行方式来构造编码块内的所有预测块的合并候选者列表的信息。
同时,当基于编码块来应用用于生成单一合并候选者列表的方法时(例如,当“parallel_merge_enabled_flag”具有真值时),激活“parallel_merge_disabled_depth_info(并行合并禁止深度信息)”,其通知根据编码块的深度或尺寸的单一合并候选者列表的可应用性。
例如,在“parallel_merge_disabled_depth_info”是0的情况下,如果编码块的深度是0(其对应于最大的编码块,例如,尺寸为64x64的块),则不可以应用对应的方法。在“parallel_merge_disabled_depth_info”是1的情况下,如果编码块的深度是1(其对应于比最大编码块小一个步长(step)的尺寸,例如,尺寸为32x32的块),则不可以应用对应的方法。
作为另一示例,在“parallel_merge_disabled_depth_info”是0的情况下,如果编码块的深度大于0(其对应于最大的编码块),则不可以应用对应的方法。相似地,在“parallel_merge_disabled_depth_info”是1的情况下,如果编码块的深度大于1(这个情况描述了除了最大编码块之外的编码块的尺寸;例如,如果最大编码块的尺寸是64x64,则编码块尺寸可以取32x32、16x16、和8x8),则不可以应用对应的方法。
作为又一示例,在“parallel_merge_disabled_depth_info”是1的情况下,如果编码块的深度大于1(其对应于除了最大编码块之外的编码块尺寸),则不可以应用对应的方法。
“parallel_merge_disabled_depth_info”是与在通过合并的帧间预测期间可以应用并行合并处理的块相关的信息的一个示例;可以使用不同的语法元素来表示在通过合并的帧间预测期间的并行合并处理,并且这个实施例也属于本发明的技术范围。
另一方面,可以通过仅仅使用“parallel_merge_disabled_depth_info”来表示关于是否可应用并行合并处理的信息,即使没有采用诸如“parallel_merge_enabled_flag”之类的信息。例如,在“parallel_merge_disabled_depth_info”对应于特定值的情况下,它可以指示出并行合并处理是不可能的。并且,这种实施例同样属于本发明的技术范围。
作为又一示例,可以定义log2_parallel_merge_level_minus2。log2_parallel_merge_level_minus2指示出可以应用并行合并处理的等级。例如,如果log2_parallel_merge_level_minus2的值是0,则它指示出可以应用并行合并处理的块(或编码块)的尺寸是4x4。如果假设4x4的块是最小的编码块,则它指示出在log2_parallel_merge_level_minus2的值是0时不进行并行合并处理。作为又一示例,如果log2_parallel_merge_level_minus2是1,则它指示出可以将并行合并处理应用于属于尺寸为8x8的块的所有预测块。如果log2_parallel_merge_level_minus2是2,则可以将并行合并处理应用于属于尺寸为16x16的块的所有预测块。如果log2_parallel_merge_level_minus2是3,则可以将并行合并处理应用于属于尺寸为32x32的块的所有预测块。如果log2_parallel_merge_level_minus2是4,则可以将并行合并处理应用于属于尺寸为64x64的块的所有预测块。换言之,通过使用上面的语法元素,指定了可以应用特定并行合并处理的块的尺寸。如上所述,可以通过使用经由log2_parallel_merge_level_minus2所得到的关于可以应用并行合并处理的块的信息、和当前块的信息(例如,尺寸信息),来确定是否针对在当前块中包括的至少一个预测块、执行使用单一合并候选者列表的帧间预测。可以确定基于编码块所得到的、用于得到在单一合并候选者列表中包括的空间合并候选者的空间合并候选者块是否属于可以应用并行合并处理的块。例如,假设对于其应用并行合并处理的块是尺寸为8x8的块,并且当前编码块的尺寸是8x8。如果编码块和基于该编码块所得到的空间合并候选者块属于对于其可以应用相同并行合并处理的块,则可以将空间合并候选者块确定为不可用的空间合并候选者。换言之,如果编码块和基于该编码块所得到的空间合并候选者块属于对于其可以应用不同并行合并处理的块,则可以使用对应的空间合并候选者块用于得到空间合并候选者。
在本发明接下来的实施例中,将描述根据另一实施例的用于通过使用单一候选者列表来按照并行方式对从一个编码块所划分的预测块进行编码或解码的方法。要描述的方法可以通过针对编码块内的几个预测块共享空间候选者的一部分,来生成单一合并候选者列表。
在共享空间候选者的一部分时,同样地,通过使得编码块内的所有预测块的空间合并候选者块的搜索位置总是位于编码块的外部,可以在编码块内的预测块中按照并行方式来进行帧间预测。相似地,可以通过根据该块的划分图案,使用位于固定位置处的空间合并候选者块,来生成合并候选者列表。
例如,由于每一个预测块共享空间合并候选者的一部分,所以可以减少用于在通过合并的帧间预测期间得到合并候选者的处理的复杂性。
例如,在选择编码块外部的预测块的空间合并候选者的搜索位置时,可以产生沿着垂直方向(例如,按照N x 2N的形式)所划分的那些预测块,以共享编码块外部位置之中处于左边位置中的空间合并候选者块。可以产生沿着水平方向(例如,按照2N x N的形式)所划分的预测块,以共享编码块外部位置之中处于上边位置中的空间合并候选者块。换言之,与不共享合并候选者的方法相比,显著地减少了得到空间合并候选者的数目。
现在,将参考相关附图来更加详细地描述上面方法的实施例。
在接下来的实施例中,假设采用通过合并的帧间预测;然而,稍后描述的方法也可以用于基于AMVP的帧间预测。在下文中,在合并方法中使用的空间合并候选者块和时间合并候选者块对应于用于在AMVP环境中相对于预测块来构造运动向量预测候选者列表的多个预测块,并且可以被解释为空间候选者预测块和时间候选者预测块。
在本发明接下来的实施例中,可以通过使用所划分块的划分索引,来标识预测块。在划分索引是0的情况下,它指示出第一预测块,而在划分索引是1的情况下,它可以是第二预测块。
图16是图示了根据本发明实施例的用于生成合并候选者列表的方法的概念图。
图16A图示了以下情况,其中将编码块划分为N x 2N形式的预测块。在第一预测块1600的情况下,可以通过将A0块1605、A1块1610、B0块1615、B1块1629、和B2块1625用作空间合并候选者块,相对于第一预测块1600的位置,来生成合并候选者列表。
然而,在第二预测块1650的情况下,如果基于第二预测块的位置来得到空间合并候选者块,则空间合并候选者块的一部分(A0块1630和A1块1635)可以位于属于第一预测块的位置或尚未编码的编码块的位置处。在空间合并候选者块位于这种位置的情况下,不能按照并行方式来进行用于第一1600和第二预测块1650的通过合并的帧间预测。因此,可以通过将用作空间合并候选者块的A0块1630和A1块1635的位置改变为位于编码块外部的A0'块1605和A1'块1610并且得到关于第二预测块1650的合并候选者列表,来进行通过合并的帧间预测。A0'块1605和A1'块1610可以位于与第一预测块1600的空间合并候选者块的位置相同的位置处。
图16B图示了以下情况,其中将编码块划分为2N x N形式的预测块。在第一预测块1660的情况下,可以通过将A0块1665、A1块1667、B0块1673、B1块1675、和B2块1679用作空间合并候选者块,相对于第一预测块1660的位置,来生成合并候选者列表。
然而,在第二预测块1690的情况下,如果基于第二预测块1690的位置来得到空间合并候选者块,则空间合并候选者块的一部分(B0块1685和B1块1687)可以位于属于第一预测块1660的位置或尚未编码的编码块的位置处。在块位于这种位置的情况下,不能按照并行方式来进行用于第一1660和第二预测块1690的通过合并的帧间预测。因此,可以通过将B0块1685和B1块1687的位置改变为位于编码块外部的A0'块1673和A1'块1675、并且得到关于第二预测块1690的合并候选者列表,来进行通过合并的帧间预测。B0'块1673和B1'块1675可以位于由第一预测块1660所采用的空间合并候选者块的位置处。
为了改变空间合并候选者块的位置,检查在可以应用并行合并处理的块中是否包括当前块(目标预测块)和该当前块的空间合并候选者块。在作为检查结果、发现了在可以应用并行合并处理的相同块中包括当前块(目标预测块)和该当前块的空间合并候选者的情况下,通过将对应块确定为不可用,而不可以使用对应块用于构造合并候选者列表。
图17是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
参考图17,可以通过根据块的划分图案、得到位于彼此不同位置处的空间合并候选者块,来得到空间合并候选者。换言之,通过使得所有预测块的空间合并候选者块的位置位于其中已经完成编码的编码块的外部,可以使得按照并行方式来进行用于从一个编码块划分的多个预测块的通过合并的帧间预测。此外,可以通过对意欲得到空间合并候选者的空间合并候选者块的一部分进行共享,来减少用于得到合并候选者列表的处理的复杂性。
图18是图示了根据本发明实施例的用于生成合并候选者列表的方法的概念图。
图18A图示了以下情况,其中将编码块划分为N x 2N形式的预测块。在第一预测块1800的情况下,可以通过将A0块1805、A1块1810、B0块1815、B1块1829、和B2块1825用作空间合并候选者块,相对于第一预测块1800的位置,来生成合并候选者列表。
然而,在第二预测块1850的情况下,可以相对于包括第二预测块1850的编码块的位置,来得到空间合并候选者块。在相对于第二预测块1850来得到空间合并候选者块的情况下,可以按照并行方式来进行用于第一1800和第二预测块1850的通过合并的帧间预测。因此,可以通过将块1805、1830、1835、1825用作空间合并候选者块来得到合并候选者列表,其中所述块位于包括第二预测块1850的编码块的外部,并且位于已进行编码或解码的块位置处。
图18B图示了以下情况,其中将编码块划分为2N x N形式的预测块。在第一预测块1860的情况下,可以通过将A0块1865、A1块1870、B0块1875、B1块1880、和B2块1885用作空间合并候选者块,相对于第一预测块1860的位置,来生成合并候选者列表。
然而,在第二预测块1895的情况下,可以通过经由将位于对于其已经进行编码或解码的编码块外部的块的位置处的块改变为空间合并候选者块1887、1889、1875、1880、1885、得到用于第二预测块的合并候选者列表,来进行通过合并的帧间预测。
图19是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
参考图19,可以得到并使用根据各个块的划分图案的、处于彼此不同位置处的空间合并候选者块。换言之,通过使得所有预测块的空间合并候选者块位于对于其已经完成编码的编码块的外部,可以按照并行方式来进行用于从一个编码块划分的多个预测块的通过合并的帧间预测。
图20是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
参考图20A,在水平划分形式(2NxnU、2NxnD、2NxN)的情况下,可以通过将处于相同位置处的空间合并候选者块(它们是A0块、A1块、B0块、B1块、和B2块)用于第二预测块,来与划分形式无关地使用位于相同位置处的空间合并候选者块。
参考图20B,在水平划分形式(nLx2N、nRx2N、Nx2N)的情况下,可以通过将处于相同位置处的空间合并候选者块(它们是A0块、A1块、B0块、B1块、和B2块)用于第二预测块,来与划分形式无关地使用位于相同位置处的空间合并候选者块。
图20中的固定位置是使用一个编码块中固定位置处的空间合并候选者块的一个示例。换言之,可以改变空间合并候选者块的固定位置,并且此实施例同样属于本发明的技术范围。
图21是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
图21图示了以下情况,其中将特定尺寸的编码块划分为多个编码块。在相对于特定尺寸的块来共享相同的合并候选者列表的情况下,可以基于特定尺寸的块的位置来得到空间合并候选者块,并且可以通过使用所得到的空间合并候选者来构造单一合并候选者列表。在编码块对应于在特定尺寸的块中包括的左上编码块的情况下,即使相对于对应编码块来得到空间合并候选者块,所有的空间合并候选者块也都位于其中已经进行编码的位置处;因此,可以通过生成不同的合并候选者列表来单独地使用左上编码块。
参考图21,在包括于特定尺寸的块中的预测块之中,除了在左上编码块2100中包括的预测块之外的剩余预测块可以共享基于该特定尺寸块的位置所得到的相同空间合并候选者块A0、A1、B0、B1、B2。
然而,当在特定尺寸的块之中的左上编码块2100的情况下,可以通过使用基于对应编码块所得到的空间合并候选者块来进行通过合并的帧间预测。由于在左上编码块2100的情况下,基于对应块所得到的空间合并候选者块都位于可用位置处,所以左上编码块可以通过使用根据相对于左上编码块的位置而得到的空间合并候选者块所得到的空间合并候选者,来进行帧间预测。
可以按照与空间合并候选者相同的方式,基于特定尺寸的块来得到时间合并候选者。时间合并候选者按照H0、H1、H2、H3、和H4块的顺序来确定可用块;并且将可用块并入到合并候选者列表中,以供稍后使用。可以根据参考画面的画面数目来缩放并使用时间合并候选者。时间合并候选者不但可以利用处于与图21对应的块X'的边界处的块,而且可以利用该块内部的块M、N、O、P、Q。
图22是图示了根据本发明实施例的根据编码块的划分形式的空间合并候选者的位置的概念图。
在相对于特定块的尺寸、编码块远离空间合并候选者块的情况下,图22图示了用于通过仅仅使用时间合并候选者、而不是使用根据基于特定块的尺寸而得到的空间合并候选者块所得到的空间合并候选者、来生成合并候选者列表的方法。
参考图22,例如,可以通过相对于指定为1 2200的尺寸的块、仅仅使用时间合并候选者,来生成合并候选者列表。换言之,可以指定块单元,对于所述块单元,通过经由特定指定器仅仅使用时间候选者,来生成合并候选者列表。
时间合并候选者按照H0、H1、H2、H3、和H4块的顺序来确定可用块;并且将从可用块得到的时间合并候选者并入到合并候选者列表中,以供稍后使用。可以根据参考画面的画面数目,来缩放并使用从时间合并候选者所得到的运动向量。时间合并候选者不但可以利用处于与图22对应的块X'的边界处的块,而且可以利用该块内部的块M、N、O、P、Q。
上述的所有方法都可以具有根据编码块的尺寸或深度的不同应用范围。可以对确定应用范围的参数(即,块尺寸信息或块深度信息)进行设置,使得编码器或解码器使用预定值、或者根据视频编码方法的简档(profile)或等级所确定的值。同样,如果编码器将参数值编码为比特流,则解码器可以根据该比特流来获得该值,以供稍后使用。
当需要根据编码块的深度来区别应用范围时,可以如表格6所示地应用以下分类:A)仅仅可应用于比预定值更大的深度的方法、B)仅仅可应用于比预定值更小的深度的方法、以及C)仅仅可应用于给定深度的方法。
在编码块的深度是2的情况下,表格6说明了用于确定A)、B)、和C)方法的应用范围的方法的示例(其中,0指示出对应深度处的可应用性,而1指示出对应深度处的不可应用性)。
<表6>
编码块的深度 方法A 方法B 方法C
0 X O X
1 X O X
2 O O O
3 O X X
4 O X X
在没有将本发明的方法应用于整个深度范围的情况下,可以使用诸如表5所说明的parallel_merge_enabled_flag之类的标志,以表示对应的情况;或者可以通过将对应信息并入到表示出要应用的深度信息的语法元素中来传送该对应信息。可以通过发信号传送比编码块的最大深度值大一的值、作为表示出应用范围的编码块的深度值,来表示该情况。
图23是图示了当使用了根据本发明实施例的用于生成单一候选者列表的方法时的过程的概念图,通过该过程、按照并行方式来对多个预测块进行解码和编码。
图23A假设将一个编码块划分为两个预测块。例如,如果编码块满足特定条件,则可以通过使用单一合并候选者列表来将并行合并处理应用于在编码块中包括的两个预测块。例如,如果编码块的尺寸是特定值并且被包括在可以应用并行合并处理的块的尺寸中,则可以通过相对于编码块而得到空间合并候选者和时间合并候选者,来进行通过合并的帧间预测。可以将这种方法应用于各种类型的块。
图23B图示了以下情况,其中通过将单一合并候选者列表用于被划分为各个形式的编码块,来进行编码。如该图中所示的,可以将一个编码块划分为各个类型的块。所划分的预测块可以共享合并候选者列表,并且通过使用所共享的合并候选者列表、按照并行方式来进行通过合并的帧间预测。换言之,并行编码可能用于在一个编码块中包括的多个预测块。也可以将以上方法应用于解码。
通过使用以上方法,可以减少由于用于每一个预测块的合并候选者列表的生成所引起的复杂性,并同时,可以增加视频处理速度。在诸如UHDTV之类的高分辨率视频的情况下,并行处理在进行视频处理时是重要的。通过使用本发明的方法,使得并行方式的视频处理成为可能。
可以按照在图1和2中描述的视频编码器和视频解码器的每一个构成单元,来实现上述的视频编码和解码方法。
尽管已经参考优选实施例而描述了本发明,但是本领域的技术人员应该理解,可以按照各种方式来对本发明进行修改和改变,而不脱离由所附权利要求限定的本发明的技术原理和范围。

Claims (6)

1.一种用于对视频信号进行解码的方法,包括:
基于当前块的尺寸,确定第一子块和第二子块是否共享单一合并候选者列表,其中,所述当前块包括第一子块和第二子块;
当第一子块和第二子块共享单一合并候选者列表时,基于所述当前块的像素位置和尺寸推导与第一子块相关的至少一个合并候选者;
基于合并候选者产生第一子块的第一合并候选者列表;
基于第一合并候选者列表确定所述当前块的运动信息;
通过使用所述运动信息来获得所述当前块的预测样点;
通过执行逆变换来获得所述当前块的残差样点;
通过将所述当前块的预测样点和所述当前块的残差样点相加来产生所述当前块的重建样点,
其中,确定第一子块和第二子块是否共享单一合并候选者列表是基于将所述当前块的尺寸与预定尺寸进行比较的结果来确定的,
其中,所述当前块是编码块。
2.如权利要求1所述的方法,其中,所述预定尺寸为8×8。
3.一种用于对视频信号进行编码的方法,包括:
确定当前块的运动信息,其中,所述当前块包括第一子块和第二子块;
获得所述当前块的预测样点;
通过使用所述当前块的预测样点来获得所述当前块的残差样点;
基于所述当前块的尺寸,确定第一子块和第二子块是否共享单一合并候选者列表;
当第一子块和第二子块共享单一合并候选者列表时,基于所述当前块的像素位置和尺寸推导与第一子块相关的至少一个合并候选者;
基于合并候选者产生第一子块的第一合并候选者列表;
通过将所述当前块的预测样点和所述当前块的残差样点相加来产生所述当前块的重建样点;
对所述当前块的残差样点进行编码,
其中,确定第一子块和第二子块是否共享单一合并候选者列表是基于将所述当前块的尺寸与预定尺寸进行比较的结果来确定的,
其中,所述当前块是编码块。
4.如权利要求3所述的方法,其中,所述预定尺寸为8×8。
5.一种发送由用于对视频信号进行编码的方法形成的比特流的设备,所述方法包括:
确定当前块的运动信息,其中,所述当前块包括第一子块和第二子块;
获得所述当前块的预测样点;
通过使用所述当前块的预测样点来获得所述当前块的残差样点;
基于所述当前块的尺寸,确定第一子块和第二子块是否共享单一合并候选者列表;
当第一子块和第二子块共享单一合并候选者列表时,基于所述当前块的像素位置和尺寸推导与第一子块相关的至少一个合并候选者;
基于合并候选者产生第一子块的第一合并候选者列表;
通过将所述当前块的预测样点和所述当前块的残差样点相加来产生所述当前块的重建样点;
对所述当前块的残差样点进行编码,
其中,确定第一子块和第二子块是否共享单一合并候选者列表是基于所述当前块的尺寸与预定尺寸的比较结果来确定的,
其中,所述当前块是编码块。
6.如权利要求5所述的设备,其中,所述预定尺寸为8×8。
CN201910309527.5A 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置 Active CN110267048B (zh)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
KR20110115607 2011-11-08
KR10-2011-0115607 2011-11-08
KR20110116527 2011-11-09
KR10-2011-0116527 2011-11-09
KR20110121428 2011-11-21
KR10-2011-0121428 2011-11-21
KR10-2011-0124813 2011-11-28
KR20110124813 2011-11-28
KR20110140861 2011-12-23
KR10-2011-0140861 2011-12-23
KR10-2012-0011412 2012-02-03
KR20120011412 2012-02-03
CN201280066431.7A CN104185988B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280066431.7A Division CN104185988B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置

Publications (2)

Publication Number Publication Date
CN110267048A CN110267048A (zh) 2019-09-20
CN110267048B true CN110267048B (zh) 2022-01-11

Family

ID=48661129

Family Applications (11)

Application Number Title Priority Date Filing Date
CN201280066431.7A Active CN104185988B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309236.6A Active CN110198448B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910310770.9A Active CN110198441B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308974.9A Active CN110198449B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309201.2A Active CN110198447B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309028.6A Active CN110198450B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308821.4A Active CN110446039B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308563.XA Active CN109996082B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309527.5A Active CN110267048B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308561.0A Active CN110446038B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308479.8A Active CN110446037B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置

Family Applications Before (8)

Application Number Title Priority Date Filing Date
CN201280066431.7A Active CN104185988B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309236.6A Active CN110198448B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910310770.9A Active CN110198441B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308974.9A Active CN110198449B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309201.2A Active CN110198447B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910309028.6A Active CN110198450B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308821.4A Active CN110446039B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308563.XA Active CN109996082B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN201910308561.0A Active CN110446038B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置
CN201910308479.8A Active CN110446037B (zh) 2011-11-08 2012-11-08 用于共享候选者列表的方法和装置

Country Status (7)

Country Link
US (16) US9516334B2 (zh)
EP (2) EP4009640A1 (zh)
JP (14) JP5969041B2 (zh)
KR (17) KR101615662B1 (zh)
CN (11) CN104185988B (zh)
RU (4) RU2632154C1 (zh)
WO (1) WO2013070001A1 (zh)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT2624873T (pt) 2010-10-06 2020-03-04 Harvard College Hidrogéis injectáveis formadores de poros para terapias celulares à base de materiais
KR102379457B1 (ko) * 2011-09-09 2022-03-28 엘지전자 주식회사 인터 예측 방법 및 그 장치
RU2694018C2 (ru) 2011-09-23 2019-07-08 Кт Корпорейшен Способ декодирования видеосигнала
RU2632154C1 (ru) * 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Способ и устройство для совместного использования списка кандидатов
JP5835208B2 (ja) * 2011-12-28 2015-12-24 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5842803B2 (ja) * 2011-12-28 2016-01-13 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
CN110545419B (zh) * 2012-10-12 2022-11-22 韩国电子通信研究院 图像编码/解码方法和使用其的装置
KR102179383B1 (ko) * 2013-08-09 2020-11-16 삼성전자주식회사 병합 모드 결정 방법 및 장치
JP6574976B2 (ja) * 2014-03-18 2019-09-18 パナソニックIpマネジメント株式会社 動画像符号化装置および動画像符号化方法
CN108632629B9 (zh) * 2014-03-19 2021-06-15 株式会社Kt 针对多视图视频信号生成合并候选列表的方法及解码装置
JP6569665B2 (ja) * 2014-03-25 2019-09-04 株式会社ソシオネクスト 画像復号装置、画像復号方法、及び集積回路
CN111741308B (zh) 2014-10-31 2024-03-19 三星电子株式会社 用于对运动矢量进行编码/解码的方法和装置
KR102551767B1 (ko) 2015-02-03 2023-07-06 암페놀 에프씨아이 아시아 피티이 엘티디 전기 접점
WO2017010073A1 (ja) 2015-07-10 2017-01-19 日本電気株式会社 動画像符号化装置、動画像符号化方法および動画像符号化プログラムを記憶する記録媒体
WO2017043734A1 (ko) * 2015-09-07 2017-03-16 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20170085886A1 (en) * 2015-09-18 2017-03-23 Qualcomm Incorporated Variable partition size for block prediction mode for display stream compression (dsc)
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
EP3469793A1 (en) * 2016-06-24 2019-04-17 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
CN116708785A (zh) 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
EP3496400A4 (en) * 2016-08-03 2020-02-19 KT Corporation VIDEO SIGNAL PROCESSING METHOD AND DEVICE
CA3039155A1 (en) 2016-10-04 2018-04-12 Kt Corporation Method and apparatus for processing video signal
JP2019535202A (ja) * 2016-10-06 2019-12-05 エルジー エレクトロニクス インコーポレイティド インター予測モードベースの画像処理方法及びそのための装置
US10484703B2 (en) * 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US11330269B2 (en) 2017-09-27 2022-05-10 Nec Corporation Moving image coding device, moving image coding method and moving image coding program
CN116489387A (zh) 2017-09-29 2023-07-25 Lx 半导体科技有限公司 图像编码/解码方法和设备
CN116866571A (zh) 2017-10-20 2023-10-10 株式会社Kt 视频信号处理方法及装置
US10812810B2 (en) * 2018-02-06 2020-10-20 Tencent America LLC Method and apparatus for video coding in merge mode
WO2019164031A1 (ko) 2018-02-22 2019-08-29 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치
KR20190110044A (ko) * 2018-03-19 2019-09-27 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10397603B1 (en) * 2018-05-08 2019-08-27 Tencent America LLC Method and apparatus for video coding
US11412211B2 (en) * 2018-05-23 2022-08-09 Kt Corporation Method and apparatus for processing video signal
KR20190134521A (ko) 2018-05-24 2019-12-04 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11490077B2 (en) 2018-06-27 2022-11-01 Digitalinsights Inc. Image encoding/decoding method and apparatus involving merge candidate list and triangular shape partitions
MX2020013829A (es) 2018-06-29 2022-05-18 Beijing Bytedance Network Tech Co Ltd Poda parcial/total cuando se añade un candidato a hmvp para fusión/amvp.
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110662058B (zh) 2018-06-29 2023-06-30 北京字节跳动网络技术有限公司 查找表的使用条件
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
CA3105330C (en) 2018-06-29 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
KR20240007299A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
CN110677648B (zh) 2018-07-02 2022-06-07 北京字节跳动网络技术有限公司 处理视频数据的方法、装置及非暂时性存储介质
BR112021000750A2 (pt) * 2018-07-16 2021-05-11 Electronics And Telecommunications Research Institute método e aparelho para codificar/decodificar imagens e mídia de gravação na qual um fluxo de bits é armazenado
US11019357B2 (en) * 2018-08-07 2021-05-25 Qualcomm Incorporated Motion vector predictor list generation
US11245922B2 (en) * 2018-08-17 2022-02-08 Mediatek Inc. Shared candidate list
CN112585972B (zh) 2018-08-17 2024-02-09 寰发股份有限公司 视频编解码的帧间预测方法及装置
CN111064959B (zh) 2018-09-12 2023-09-01 北京字节跳动网络技术有限公司 要检查多少个hmvp候选
US10958932B2 (en) 2018-09-12 2021-03-23 Qualcomm Incorporated Inter-prediction coding of video data using generated motion vector predictor list including non-adjacent blocks
EP3850837A4 (en) * 2018-09-17 2022-06-01 HFI Innovation Inc. METHODS AND APPARATUS COMBINING A PLURALITY OF PREDICTORS FOR BLOCK PREDICTION IN VIDEO CODING SYSTEMS
CN112840653B (zh) * 2018-10-06 2023-12-26 寰发股份有限公司 视频编解码中共享合并候选列表区域的方法和装置
BR112021012744A2 (pt) * 2018-12-28 2021-09-08 Samsung Electronics Co., Ltd. Método de decodificação de vídeo, aparelho de decodificação de vídeo, e método de codificação de vídeo
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
CN117499644A (zh) 2019-03-14 2024-02-02 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
US11218727B2 (en) 2019-07-11 2022-01-04 Tencent America LLC Method and apparatus for predictor candidate list size signaling for intra picture block compensation
CN112565789B (zh) * 2019-11-13 2021-09-17 腾讯科技(深圳)有限公司 视频解码及编码方法、装置、计算机可读介质及电子设备
US11778169B2 (en) * 2019-12-27 2023-10-03 Electronics And Telecommunications Research Institute Method, apparatus and storage medium for image encoding/decoding using reference picture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101026761A (zh) * 2006-02-17 2007-08-29 中国科学院自动化研究所 一种具有最小误差的快速变尺寸块匹配的运动估计方法
CN101438597A (zh) * 2006-05-17 2009-05-20 富士通株式会社 图像数据压缩装置、压缩方法及程序、以及图像数据恢复装置、恢复方法及程序
CN101610413A (zh) * 2009-07-29 2009-12-23 清华大学 一种视频的编码/解码方法及装置
CN101686393A (zh) * 2008-09-28 2010-03-31 华为技术有限公司 应用于模板匹配的快速运动搜索方法及装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
KR100987764B1 (ko) * 2003-09-04 2010-10-13 경희대학교 산학협력단 영상 데이터의 예측 부호화를 위한 참조 데이터 유닛 결정방법 및 그 장치
KR101039204B1 (ko) 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
RU2426267C2 (ru) * 2007-01-08 2011-08-10 Нокиа Корпорейшн Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала
JP5285765B2 (ja) 2008-04-01 2013-09-11 ハネウェル・インターナショナル・インコーポレーテッド ヒートポンプ用の潤滑剤を選択する方法
KR101306834B1 (ko) * 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
JP5340289B2 (ja) * 2008-11-10 2013-11-13 パナソニック株式会社 画像復号装置、画像復号方法、集積回路及びプログラム
US20100166073A1 (en) 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
US9139633B2 (en) 2009-07-14 2015-09-22 Novartis Ag Mesenchymal stem cell differentiation
WO2011051821A2 (en) 2009-10-30 2011-05-05 Spinx, Inc. Siphoning as a washing method and apparatus for heterogenenous assays
US8488007B2 (en) * 2010-01-19 2013-07-16 Sony Corporation Method to estimate segmented motion
WO2011145737A1 (ja) 2010-05-21 2011-11-24 株式会社明治 皮膚状態の改善用組成物
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
EP2692370B1 (en) * 2011-03-31 2018-08-22 Terumo Kabushiki Kaisha Artificial lung
US9313494B2 (en) 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
US20130036071A1 (en) 2011-07-29 2013-02-07 Summerhaven Index Management Llc Dynamic commodity index methodology
KR20140057683A (ko) 2011-08-29 2014-05-13 주식회사 아이벡스피티홀딩스 머지 모드에서 영상 부호화 방법
KR102379457B1 (ko) * 2011-09-09 2022-03-28 엘지전자 주식회사 인터 예측 방법 및 그 장치
US9736489B2 (en) * 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
RU2694018C2 (ru) * 2011-09-23 2019-07-08 Кт Корпорейшен Способ декодирования видеосигнала
US9280835B2 (en) * 2011-10-18 2016-03-08 Nokia Technologies Oy Method for coding and an apparatus based on a DC prediction value
KR20130050406A (ko) 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
RU2632154C1 (ru) * 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Способ и устройство для совместного использования списка кандидатов

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101026761A (zh) * 2006-02-17 2007-08-29 中国科学院自动化研究所 一种具有最小误差的快速变尺寸块匹配的运动估计方法
CN101438597A (zh) * 2006-05-17 2009-05-20 富士通株式会社 图像数据压缩装置、压缩方法及程序、以及图像数据恢复装置、恢复方法及程序
CN101686393A (zh) * 2008-09-28 2010-03-31 华为技术有限公司 应用于模板匹配的快速运动搜索方法及装置
CN101610413A (zh) * 2009-07-29 2009-12-23 清华大学 一种视频的编码/解码方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Parallelized merge/skip mode for HEVC;Minhua Zhou;《Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting: Torino, IT, 14-22 July, 2011》;20110701;全文 *

Also Published As

Publication number Publication date
CN110198447A (zh) 2019-09-03
KR102412640B1 (ko) 2022-06-24
KR101903602B1 (ko) 2018-10-04
KR20200057680A (ko) 2020-05-26
KR20170034367A (ko) 2017-03-28
RU2632158C2 (ru) 2017-10-02
KR101651595B1 (ko) 2016-08-26
CN110198441A (zh) 2019-09-03
CN110446038B (zh) 2022-01-04
KR102559003B1 (ko) 2023-07-25
KR20220090488A (ko) 2022-06-29
US10694191B2 (en) 2020-06-23
US20190261006A1 (en) 2019-08-22
KR101718886B1 (ko) 2017-03-22
JP7117352B2 (ja) 2022-08-12
KR102331195B1 (ko) 2021-11-29
US9854249B2 (en) 2017-12-26
US20220094946A1 (en) 2022-03-24
KR20140099430A (ko) 2014-08-12
JP2019149816A (ja) 2019-09-05
KR20140110806A (ko) 2014-09-17
US20220337845A1 (en) 2022-10-20
US9516334B2 (en) 2016-12-06
JP2024038231A (ja) 2024-03-19
US20200275106A1 (en) 2020-08-27
KR102017163B1 (ko) 2019-09-03
JP7358573B2 (ja) 2023-10-10
JP7358582B2 (ja) 2023-10-10
KR102017166B1 (ko) 2019-09-03
WO2013070001A1 (ko) 2013-05-16
US20180077418A1 (en) 2018-03-15
US20180316924A1 (en) 2018-11-01
CN104185988A (zh) 2014-12-03
CN110198447B (zh) 2022-01-04
US11206411B2 (en) 2021-12-21
KR101651594B1 (ko) 2016-08-26
RU2632154C1 (ru) 2017-10-02
CN110267048A (zh) 2019-09-20
CN110198441B (zh) 2022-01-11
KR102017165B1 (ko) 2019-09-03
US10038907B2 (en) 2018-07-31
JP2022110094A (ja) 2022-07-28
JP6208285B2 (ja) 2017-10-04
KR101720622B1 (ko) 2017-03-28
KR20180109786A (ko) 2018-10-08
CN110446039A (zh) 2019-11-12
US10863181B2 (en) 2020-12-08
KR20180109055A (ko) 2018-10-05
RU2632157C2 (ru) 2017-10-02
KR20180109054A (ko) 2018-10-05
US20180316925A1 (en) 2018-11-01
US20200145666A1 (en) 2020-05-07
JP2017225180A (ja) 2017-12-21
JP6203898B2 (ja) 2017-09-27
US20170142420A1 (en) 2017-05-18
US10326999B2 (en) 2019-06-18
EP2779649A4 (en) 2016-01-06
RU2016101099A (ru) 2017-07-20
US20170078673A1 (en) 2017-03-16
CN104185988B (zh) 2019-05-10
JP2022133464A (ja) 2022-09-13
KR102412641B1 (ko) 2022-06-24
KR20150099487A (ko) 2015-08-31
JP2016165144A (ja) 2016-09-08
JP6208284B2 (ja) 2017-10-04
CN110198450A (zh) 2019-09-03
US10536706B2 (en) 2020-01-14
US10326998B2 (en) 2019-06-18
KR101615662B1 (ko) 2016-04-26
EP4009640A1 (en) 2022-06-08
JP5969041B2 (ja) 2016-08-10
KR20210144639A (ko) 2021-11-30
JP6746749B2 (ja) 2020-08-26
KR20180109787A (ko) 2018-10-08
US20140341284A1 (en) 2014-11-20
CN110198448B (zh) 2021-12-31
KR20190102167A (ko) 2019-09-03
RU2632155C1 (ru) 2017-10-02
JP2016167866A (ja) 2016-09-15
JP6553691B2 (ja) 2019-07-31
JP7414909B2 (ja) 2024-01-16
CN110198449B (zh) 2022-01-04
US11711523B2 (en) 2023-07-25
US10341666B2 (en) 2019-07-02
US9621910B2 (en) 2017-04-11
RU2016101098A (ru) 2017-07-18
KR102559004B1 (ko) 2023-07-25
CN110198450B (zh) 2021-12-31
KR20210145704A (ko) 2021-12-02
JP2014533059A (ja) 2014-12-08
CN110446038A (zh) 2019-11-12
JP2016165143A (ja) 2016-09-08
CN109996082A (zh) 2019-07-09
US20180310002A1 (en) 2018-10-25
KR102412642B1 (ko) 2022-06-24
CN110446037A (zh) 2019-11-12
CN109996082B (zh) 2022-01-25
US9621903B2 (en) 2017-04-11
CN110198449A (zh) 2019-09-03
JP2020184803A (ja) 2020-11-12
CN110198448A (zh) 2019-09-03
KR102114036B1 (ko) 2020-05-25
JP6203899B2 (ja) 2017-09-27
JP7025491B2 (ja) 2022-02-24
US10805612B2 (en) 2020-10-13
JP7271768B2 (ja) 2023-05-11
JP2020184802A (ja) 2020-11-12
KR20220090489A (ko) 2022-06-29
EP2779649A1 (en) 2014-09-17
US9716890B2 (en) 2017-07-25
JP2016165145A (ja) 2016-09-08
RU2014123309A (ru) 2015-12-20
JP2022153667A (ja) 2022-10-12
KR20150099486A (ko) 2015-08-31
KR20130050905A (ko) 2013-05-16
US20200099936A1 (en) 2020-03-26
US20170142419A1 (en) 2017-05-18
US20210037249A1 (en) 2021-02-04
CN110446037B (zh) 2022-01-04
CN110446039B (zh) 2022-01-11
KR102017164B1 (ko) 2019-09-03
US20170054995A1 (en) 2017-02-23
JP2022153666A (ja) 2022-10-12
KR20210144640A (ko) 2021-11-30

Similar Documents

Publication Publication Date Title
CN110267048B (zh) 用于共享候选者列表的方法和装置
CN107659813B (zh) 图像解码方法、图像编码方法和记录介质
RU2575419C2 (ru) Способ и устройство для совместного использования списка кандидатов

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant