JP2014520453A - 動き情報の符号化方法及びその装置、その復号化方法及びその装置 - Google Patents

動き情報の符号化方法及びその装置、その復号化方法及びその装置 Download PDF

Info

Publication number
JP2014520453A
JP2014520453A JP2014515754A JP2014515754A JP2014520453A JP 2014520453 A JP2014520453 A JP 2014520453A JP 2014515754 A JP2014515754 A JP 2014515754A JP 2014515754 A JP2014515754 A JP 2014515754A JP 2014520453 A JP2014520453 A JP 2014520453A
Authority
JP
Japan
Prior art keywords
unit
motion information
prediction unit
motion vector
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014515754A
Other languages
English (en)
Other versions
JP5886950B2 (ja
Inventor
リー,テミー
チェン,ジアンル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014520453A publication Critical patent/JP2014520453A/ja
Application granted granted Critical
Publication of JP5886950B2 publication Critical patent/JP5886950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • H04N19/166Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

動き情報の符号化、復号化方法及びその装置に係り、該動き情報符号化方法は、現在予測単位と時空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得し、動き情報候補に含まれた動き情報の個数が、所定個数nより少ない場合、動き情報候補に含まれた動き情報の個数が、所定個数nになるように、代案的動き情報を動き情報候補に付加し、n個の動き情報候補のうち、現在予測単位に係わる動き情報を決定し、決定された動き情報を示すインデックス情報を、現在予測単位の動き情報として符号化する。

Description

本発明は、ビデオの符号化、復号化方法及びその装置に係り、さらに具体的には、現在予測単位の動き情報を効率的に符号化する方法及びその装置、復号化する方法及びその装置に関する。
最近、高解像度(high definition)ビデオ・コンテンツが増加するにつれ、MPEG(moving picture experts group)−4H.264/MPEG−4 AVC(advanced video coding)のような既存のビデオコーデックスに比べ、さらに高いコーディング効率を有するビデオコーデックスの必要性が高まっている。
動き補償は、ビデオ信号で、時間的リダンダンシー(重複性)を除去するための技術として、原ビデオ信号と、動きベクトルが示す参照信号との差値である残差信号を伝送することにより、ビデオコーディングで圧縮効率を向上させる。一般的に、動き補償を利用した各ブロックに対する符号化結果として、各ブロックの動きベクトルと残差値とがデコーダ側に伝送される。各ブロックの動きベクトルは、符号化されたビットストリームで相当な部分を占めるので、圧縮効率を向上させるために、各ブロックに割り当てられた動きベクトルに係わる情報を減らす必要がある。
動きベクトルの符号化による伝送オーバーヘッドを減少させるために、従来、MPEG−2コーデックスでは、以前ブロックの動きベクトルを、現在ブロックの予測動きベクトルとして利用して、MPEG−4H.264/MPEG−4 AVCのようなコーデックスでは、現在ブロックの左側、上側及び右上側に隣接した以前の符号化されたブロックの動きベクトル中央値(median)を、現在ブロックの予測動きベクトル(motion vector predictor)として利用する。
本発明が解決しようとする技術的課題は、予測単位の動き情報を効率的に符号化する方法及びその装置を提供することである。
現在予測単位と、時間的または空間的に関連した予測単位が有する動き情報を利用して、固定された所定個数を有する動き情報候補を生成する。
本発明によれば、固定された個数の動き情報候補を利用することにより、動き情報を周辺情報に基づいて決定する方式や、別途に動き補を伝送する方式に比べ、独立した処理が可能であり、エラー発生時にも、動き情報候補の個数は固定されているので、パージング(parsing)段階でのエラーロバスト性(error robustness)が増強される。
本発明の一実施形態によるビデオ符号化装置のブロック図である。 本発明の一実施形態によるビデオ復号化装置のブロック図である。 本発明の一実施形態による符号化単位の概念を図示する図面である。 本発明の一実施形態による符号化単位に基づいた映像符号化部のブロック図である。 本発明の一実施形態による符号化単位に基づいた映像復号化部のブロック図である。 本発明の一実施形態による、深度別符号化単位及びパーティションを図示する図面である。 本発明の一実施形態による、符号化単位及び変換単位の関係を図示する図面である。 本発明の一実施形態による深度別符号化情報を図示する図面である。 本発明の一実施形態による深度別符号化単位を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示する図面である。 本発明の一実施形態による動き情報符号化装置の構成を示したブロック図である。 本発明の他の実施形態による動き情報符号化装置の構成を示したブロック図である。 図14Aの予測動きベクトル候補生成部の具体的な構成を示したブロック図である。 本発明の一実施形態による、現在予測単位の予測動きベクトル獲得に利用される周辺予測単位を図示する図面である。 本発明の一実施形態による、スケーリングされた空間的予測動きベクトル候補を決定する過程を説明するための参照図である。 本発明の一実施形態による、周辺予測単位の動きベクトルをスケーリングし、現在予測単位の予測動きベクトル候補を生成する方式を説明するための参照図である。 本発明の一実施形態による、時間的予測動きベクトルを生成する過程を説明するための参照図である。 本発明の一実施形態による、現在予測単位の予測動きベクトルを示すインデックス情報の一例を示した図面である。 本発明の一実施形態による、現在予測単位の予測動きベクトルを示すインデックス情報の一例を示した図面である。 本発明の一実施形態による、併合候補から除去される周辺予測単位について説明するための参照図である。 本発明の一実施形態による、併合候補から除去される周辺予測単位について説明するための参照図である。 本発明の一実施形態による、併合候補に含まれた動き情報のリダンダンシーを除去する過程について説明するための参照図である。 本発明の一実施形態による、代案的併合候補を併合候補に付加する過程について説明するための参照図である。 本発明の一実施形態による、代案的併合候補を併合候補に付加する過程について説明するための参照図である。 本発明の一実施形態による、代案的併合候補を併合候補に付加する過程について説明するための参照図である。 本発明の一実施形態による動き情報符号化方法のフローチャートである。 本発明の一実施形態による動き情報復号化装置の構成を示したブロック図である。 本発明の一実施形態による動き情報復号化装置の構成を示したブロック図である。 本発明の一実施形態による動きベクトル復号化方法を示したフローチャートである。
本発明の一実施形態による動き情報の符号化方法は、現在予測単位に対する動き予測を行い、前記現在予測単位に係わる動き情報を獲得する段階と、前記現在予測単位と、時間的または空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得する段階と、前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する段階と、前記n個の動き情報候補のうち、前記現在予測単位に係わる動き情報を決定する段階と、前記動き情報を示すインデックス情報を、前記現在予測単位の動き情報として符号化する段階と、を含むことを特徴とする。
本発明の一実施形態による動き情報の符号化装置は、現在予測単位と、時間的または空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得し、前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する動き情報候補生成部;及び前記n個の動き情報候補のうち、前記現在予測単位に係わる動き情報を決定し、前記動き情報を示すインデックス情報を、前記現在予測単位の動き情報として符号化する動き情報符号化部;を含むことを特徴とする。
本発明の一実施形態による動き情報の復号化方法は、現在予測単位と、時間的または空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得する段階と、前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する段階と、ビットストリームから前記動き情報候補のうち、1つの動き情報を示すインデックスを獲得する段階と、前記獲得されたインデックスが示す動き情報を利用して、前記現在予測単位の動き情報を獲得する段階と、を含むことを特徴とする。
本発明の一実施形態による動き情報の復号化装置は、現在予測単位と、時間的または空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得し、前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する動き情報候補生成部;ビットストリームから、前記動き情報候補のうち、1つの動き情報を示すインデックスを獲得するエントロピ復号化部;及び前記獲得されたインデックスが示す動き情報を利用して、前記現在予測単位の動き情報を獲得する動き情報復号化部;を含むことを特徴とする。
以下、添付された図面を参照し、本発明の望ましい実施形態について具体的に説明する。
図1は、本発明の一実施形態によるビデオ符号化装置のブロック図を図示している。
一実施形態によるビデオ符号化装置100は、最大符号化単位分割部110、符号化単位決定部120及び出力部130を含む。
最大符号化単位分割部110は、映像の現在ピクチャのための最大サイズの符号化単位である最大符号化単位に基づいて、現在ピクチャを区画することができる。現在ピクチャが最大符号化単位より大きければ、現在ピクチャの映像データは、少なくとも1つの最大符号化単位に分割される。一実施形態による最大符号化単位は、サイズ32x32,64x64,128x128,256x256のようなデータ単位であり、縦横に大きさが8より大きい2の自乗である正方形のデータ単位でもある。映像データは、少なくとも1つの最大符号化単位別に符号化単位決定部120に出力される。
一実施形態による符号化単位は、最大サイズ及び最大深度で特徴づけられる。深度とは、最大符号化単位から、符号化単位が空間的に分割された回数を示し、深度が深くなるほど、深度別符号化単位は、最大符号化単位から最小符号化単位まで分割される。最大符号化単位の深度が最上位深度であり、最小符号化単位が最下位符号化単位と定義される。最大符号化単位は、深度が深くなるにつれ、深度別符号化単位の大きさは小さくなるので、上位深度の符号化単位は、複数個の下位深度の符号化単位を含んでもよい。
前述のように、符号化単位の最大サイズによって、現在ピクチャの映像データを最大符号化単位に分割し、それぞれの最大符号化単位は、深度別に分割される符号化単位を含んでもよい。一実施形態による最大符号化単位は、深度別に分割されるので、最大符号化単位に含まれた空間領域(spatial domain)の映像データが深度によって階層的に分類される。
最大符号化単位の高さ及び幅を階層的に分割することができる総回数を制限する最大深度及び符号化単位の最大サイズがあらかじめ設定されている。
符号化単位決定部120は、深度ごとに、最大符号化単位の領域が分割された少なくとも1つの分割領域を符号化し、少なくとも1つの分割領域別に最終符号化結果が出力される深度を決定する。すなわち、符号化単位決定部120は、現在ピクチャの最大符号化単位ごとに、深度別符号化単位で映像データを符号化し、最小の符号化誤差が発生する深度を選択し、符号化深度として決定する。決定された符号化深度、及び最大符号化単位別映像データは、出力部130に出力される。
最大符号化単位内の映像データは、最大深度以下の少なくとも1つの深度によって、深度別符号化単位に基づいて符号化され、それぞれの深度別符号化単位に基づいた符号化結果が比較される。深度別符号化単位の符号化誤差の比較結果、符号化誤差が最小である深度が選択される。それぞれの最大化符号化単位ごとに、少なくとも1つの符号化深度が決定される。
最大符号化単位の大きさは、深度が深くなるにつれ、符号化単位が階層的に分割されて分割され、符号化単位の個数は増加する。また、1つの最大符号化単位に含まれる同一の深度の符号化単位であるとしても、それぞれのデータに係わる符号化誤差を測定し、下位深度への分割いかんが決定される。従って、1つの最大符号化単位に含まれるデータであるとしても、位置によって、深度別符号化誤差が異なるので、位置によって、符号化深度が異なっても決定される。従って、1つの最大符号化単位に対して、符号化深度が一つ以上設定され、最大符号化単位のデータは、一つ以上の符号化深度の符号化単位によって区画されもする。
従って、一実施形態による符号化単位決定部120は、現在最大符号化単位に含まれるツリー構造による符号化単位を決定することができる。一実施形態による「ツリー構造による符号化単位」は、現在最大符号化単位に含まれる全ての深度別符号化単位のうち、符号化深度として決定された深度の符号化単位を含む。符号化深度の符号化単位は、最大符号化単位内で、同一領域では、深度によって階層的に決定され、他の領域については、独立して決定されもする。同様に、現在領域に係わる符号化深度は、他の領域に係わる符号化深度と独立して決定されもする。
一実施形態による最大深度は、最大符号化単位から最小符号化単位までの分割回数と係わる指標である。一実施形態による第1最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示すことができる。一実施形態による第2最大深度は、最大符号化単位から最小符号化単位までの深度レベルの総個数を示すことができる。例えば、最大符号化単位の深度が0であるとするとき、最大符号化単位が1回分割された符号化単位の深度は、1に設定され、2回分割された符号化単位の深度は、2に設定される。その場合、最大符号化単位から4回分割された符号化単位が最小符号化単位であるならば、深度0,1,2,3及び4の深度レベルが存在するので、第1最大深度は、4、第2最大深度は、5に設定される。
最大符号化単位の予測符号化及び周波数変換が行われる。予測符号化及び周波数変換も同様に、最大符号化単位ごとに、最大深度以下の深度ごとに、深度別符号化単位を基に行われる。
最大符号化単位が深度別に分割されるたびに、深度別符号化単位の個数が増加するので、深度が深くなるにつれ、生成される全ての深度別符号化単位に対して、予測符号化及び周波数変換を含んだ符号化が行われなければならない。以下、説明の便宜のために、少なくとも1つの最大符号化単位のうち、現在深度の符号化単位を基に、予測符号化及び周波数変換について説明する。
一実施形態によるビデオ符号化装置100は、映像データの符号化のためのデータ単位の大きさまたは形態を多様に選択することができる。映像データの符号化のためには、予測符号化、周波数変換、エントロピ符号化などの段階を経るが、全ての段階にわたって同一のデータ単位が使用され、段階別にデータ単位が変更されもする。
例えば、ビデオ符号化装置100は、映像データの符号化のための符号化単位だけではなく、符号化単位の映像データの予測符号化を行うために、符号化単位と異なるデータ単位を選択することができる。
最大符号化単位の予測符号化のためには、一実施形態による符号化深度の符号化単位、すなわち、それ以上分割されない符号化単位を基に、予測符号化が行われる。以下、予測符号化の基になるそれ以上分割されない符号化単位を「予測単位」とする。予測単位として分割されたパーティションは、予測単位、並びに予測単位の高さ及び幅のうち少なくとも一つが分割されたデータ単位を含む。
例えば、サイズ2Nx2N(ただし、Nは正の整数)の符号化単位が、それ以上分割されない場合、サイズ2Nx2Nの予測単位になり、パーティションの大きさは、2Nx2N、2NxN、Nx2N、NxNなどでもある。一実施形態によるパーティションタイプは、予測単位の高さまたは幅が、対称的な比率に分割された対称的パーティションだけではなく、1:nまたはn:1のように、非対称的な比率に分割されたパーティション、幾何学的な形態に分割されたパーティション、任意的形態のパーティションなどを選択的に含んでもよい。
予測単位の予測モードは、イントラモード、インターモード及びスキップモードのうち少なくとも一つである。例えば、イントラモード及びインターモードは、2Nx2N,2NxN,Nx2N,NxNサイズのパーティションについて遂行される。また、スキップモードは、2Nx2Nサイズのパーティションについてのみ遂行される。符号化単位以内の1つの予測単位ごとに独立して符号化が行われ、符号化誤差が最小である予測モードが選択される。
また、一実施形態によるビデオ符号化装置100は、映像データの符号化のための符号化単位だけでなく、符号化単位と異なるデータ単位を基に、符号化単位の映像データの周波数変換を行うことができる。
符号化単位の周波数変換のためには、符号化単位より小さいか、あるいは同サイズのデータ単位を基に、周波数変換が行われる。例えば、周波数変換のためのデータ単位は、イントラモードのためのデータ単位及びインターモードのためのデータ単位を含んでもよい。
以下、周波数変換の基になるデータ単位を、「変換単位」とする。符号化単位と類似した方式で、符号化単位内の変換単位も再帰的に(recursively)さらに小サイズの変換単位に分割されながら、符号化単位の残差データが、変換深度によってツリー構造による変換単位によって区画される。
一実施形態による変換単位についても、符号化単位の高さ及び幅が分割され、変換単位に至るまでの分割回数を示す変換深度が設定される。例えば、サイズ2Nx2Nの現在符号化単位の変換単位の大きさが2Nx2Nであるならば、変換深度0、変換単位の大きさがNxNであるならば、変換深度1、変換単位の大きさがN/2xN/2であるならば、変換深度2に設定される。すなわち、変換単位についても、変換深度によって、ツリー構造による変換単位が設定される。
符号化深度別符号化情報は、符号化深度だけでなく、予測関連情報及び周波数変換関連情報が必要である。従って、符号化単位決定部120は、最小符号化誤差を発生させた符号化深度だけでなく、予測単位をパーティションで分割したパーティションタイプ、予測単位別予測モード、周波数変換のための変換単位の大きさなどを決定することができる。
一実施形態による最大符号化単位のツリー構造による符号化単位及びパーティションの決定方式については、図3ないし図12を参照して詳細に説明する。
符号化単位決定部120は、深度別符号化単位の符号化誤差を、ラグランジュ乗数(Lagrangian multiplier)基盤の率・歪曲最適化技法(rate-distortion optimization)を利用して測定することができる。
出力部130は、符号化単位決定部120で決定された少なくとも1つの符号化深度に基づいて符号化された最大符号化単位の映像データ、及び深度別符号化モードについての情報をビットストリーム状に出力する。
符号化された映像データは、映像の残差データの符号化結果でもある。
深度別符号化モードについての情報は、符号化深度情報、予測単位のパーティションタイプ情報、予測モード情報、変換単位の大きさ情報などを含んでもよい。
符号化深度情報は、現在深度に符号化せず、下位深度の符号化単位に符号化するか否かを示す深度別分割情報を利用して定義される。現在符号化単位の現在深度が、符号化深度であるならば、現在符号化単位は、現在深度の符号化単位で符号化されるので、現在深度の分割情報は、それ以上下位深度に分割されないように定義される。一方、現在符号化単位の現在深度が符号化深度ではないならば、下位深度の符号化単位を利用した符号化を試みなければならないので、現在深度の分割情報は、下位深度の符号化単位に分割されるように定義される。
現在深度が符号化深度ではないならば、下位深度の符号化単位に分割された符号化単位に対して符号化が行われる。現在深度の符号化単位内に、下位深度の符号化単位が一つ以上存在するので、それぞれの下位深度の符号化単位ごとに反復して符号化が行われ、同一の深度の符号化単位ごとに、再帰的(recursive)符号化が行われる。
1つの最大符号化単位内でツリー構造の符号化単位が決定され、符号化深度の符号化単位ごとに、少なくとも1つの符号化モードについての情報が決定されなければならないので、1つの最大符号化単位については、少なくとも1つの符号化モードについての情報が決定されもする。また、最大符号化単位のデータは、深度によって階層的に区画され、位置別に符号化深度が異なるので、データについて、符号化深度及び符号化モードについての情報が設定される。
従って、一実施形態による出力部130は、最大符号化単位に含まれている符号化単位、予測単位及び最小単位のうち少なくとも一つについて、当該符号化深度及び符号化モードに係わる符号化情報を割り当てられる。
一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位であり、最大符号化単位に含まれる全ての符号化単位、予測単位及び変換単位内に含まれる最大サイズの正方形データ単位でもある。
例えば、出力部130を介して出力される符号化情報は、深度別符号化単位別符号化情報と、予測単位別符号化情報とに分類される。深度別符号化単位別符号化情報は、予測モード情報、パーティションサイズ情報を含んでもよい。予測単位別に伝送される符号化情報は、インターモードの推定方向についての情報、インターモードの参照映像インデックスについての情報、動きベクトルについての情報、イントラモードのクロマ成分についての情報、イントラモードの補間方式についての情報などを含んでもよい。また、ピクチャ、スライスまたはGOP(group of pictures)別に定義される符号化単位の最大サイズについての情報、及び最大深度についての情報は、ビットストリームのヘッダに挿入される。
ビデオ符号化装置100の最も簡単な形態の実施形態によれば、深度別符号化単位は、1階層上位深度の符号化単位の高さ及び幅を半分にした大きさの符号化単位である。すなわち、現在深度の符号化単位の大きさが2Nx2Nであるならば、下位深度の符号化単位の大きさは、NxNである。また、2Nx2Nサイズの現在符号化単位は、NxNサイズの下位深度符号化単位を最大4個含む。
従って、一実施形態によるビデオ符号化装置100は、現在ピクチャの特性を考慮して決定された最大符号化単位の大きさ及び最大深度を基に、それぞれの最大符号化単位ごとに、最適の形態及び大きさの符号化単位を決定し、ツリー構造による符号化単位を構成することができる。また、それぞれの最大符号化単位ごとに、多様な予測モード、周波数変換方式などで符号化することができるので、多様な映像サイズの符号化単位の映像特性を考慮し、最適の符号化モードが決定される。
従って、映像の解像度が非常に高いか、あるいはデータ量が非常に多い映像を、既存メクロブロック単位に符号化するならば、ピクチャ当たりマクロブロックの数が過度に多くなる。それにより、マクロブロックごとに生成される圧縮情報も多くなるので、圧縮情報の伝送負担が大きくなり、データ圧縮効率が低下するという傾向がある。従って、一実施形態によるビデオ符号化装置は、映像の大きさを考慮し、符号化単位の最大サイズを増大させながら、映像特性を考慮し、符号化単位を調節することができるので、映像圧縮効率が上昇する。
図2は、本発明の一実施形態によるビデオ復号化装置のブロック図を図示している。一実施形態によるビデオ復号化装置200は、受信部210、映像データ及び符号化情報抽出部220、並びに映像データ復号化部230を含む。一実施形態によるビデオ復号化装置200の各種プロセッシングのための符号化単位、深度、予測単位、変換単位、各種符号化モードについての情報など各種用語の定義は、図1及びビデオ符号化装置100を参照して説明したところと同一である。
受信部210は、符号化されたビデオに係わるビットストリームを受信してパージング(parsing)する。映像データ及び符号化情報抽出部220は、パージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位によって、符号化単位ごとに符号化された映像データを抽出し、映像データ復号化部230に出力する。映像データ及び符号化情報抽出部220は、現在ピクチャに係わるヘッダから、現在ピクチャの符号化単位の最大サイズについての情報を抽出することができる。
また、映像データ及び符号化情報抽出部220は、パージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位に係わる符号化深度及び符号化モードについての情報を抽出する。抽出された符号化深度及び符号化モードについての情報は、映像データ復号化部230に出力される。すなわち、ビット列の映像データを最大符号化単位に分割し、映像データ復号化部230をして最大符号化単位ごとに映像データを復号化させる。
最大符号化単位別符号化深度及び符号化モードについての情報は、一つ以上の符号化深度情報について設定され、符号化深度別符号化モードについての情報は、当該符号化単位のパーティションタイプ情報、予測モード情報及び変換単位の大きさ情報などを含んでもよい。また、符号化深度情報として、深度別分割情報が抽出されもする。
映像データ及び符号化情報抽出部220が抽出した最大符号化単位別符号化深度及び符号化モードについての情報は、一実施形態によるビデオ符号化装置100のように、符号化端で、最大符号化単位別深度別符号化単位ごとに反復して符号化を行い、最小符号化誤差を発生させることによって決定された符号化深度及び符号化モードについての情報である。従って、ビデオ復号化装置200は、最小符号化誤差を発生させる符号化方式によってデータを復号化して映像を復元することができる。
一実施形態による符号化深度及び符号化モードに係わる符号化情報は、当該符号化単位、予測単位及び最小単位のうち所定データ単位に対して割り当てられているので、映像データ及び符号化情報抽出部220は、所定データ単位別に、符号化深度及び符号化モードについての情報を抽出することができる。所定データ単位別に、当該最大符号化単位の符号化深度及び符号化モードについての情報が記録されているならば、同一の符号化深度及び符号化モードについての情報を有している所定データ単位は、同一の最大符号化単位に含まれるデータ単位であると類推される。
映像データ復号化部230は、最大符号化単位別符号化深度及び符号化モードについての情報に基づいて、それぞれの最大符号化単位の映像データを復号化し、現在ピクチャを復元する。すなわち、映像データ復号化部230は、最大符号化単位に含まれるツリー構造による符号化単位のうち、それぞれの符号化単位ごとに、読み取られたパーティションタイプ、予測モード、変換単位に基づいて符号化された映像データを復号化することができる。復号化過程は、イントラ予測及び動き補償を含む予測過程、及び周波数逆変換過程を含んでもよい。
映像データ復号化部230は、符号化深度別符号化単位の予測単位のパーティションタイプ情報及び予測モード情報に基づいて、符号化単位ごとに、それぞれのパーティション及び予測モードによって、イントラ予測または動き補償を行うことができる。
また、映像データ復号化部230は、最大符号化単位別周波数逆変換のために、符号化深度別符号化単位の変換単位の大きさ情報に基づいて、符号化単位ごとに、それぞれの変換単位によって、周波数逆変換を行うことができる。
映像データ復号化部230は、深度別分割情報を利用して、現在最大符号化単位の符号化深度を決定することができる。もし分割情報が現在深度で、それ以上分割されないということを示しているならば、現在深度が符号化深度である。従って、映像データ復号化部230は、現在最大符号化単位の映像データについて、現在深度の符号化単位を、予測単位のパーティションタイプ、予測モード及び変換単位サイズ情報を利用して、復号化することができる。
すなわち、符号化単位、予測単位及び最小単位のうち、所定データ単位について設定されている符号化情報を観察し、同一の分割情報を含んだ符号化情報を保有しているデータ単位が集まり、映像データ復号化部230によって、同一の符号化モードで復号化する1つのデータ単位と見なされる。
一実施形態によるビデオ復号化装置200は、符号化過程で、最大符号化単位ごとに再帰的に符号化を行い、最小符号化誤差を発生させた符号化単位に係わる情報を獲得し、現在ピクチャに係わる復号化に利用することができる。すなわち、最大符号化単位ごとに、最適符号化単位であると決定されたツリー構造による符号化単位の符号化された映像データの復号化が可能になる。
従って、高い解像度の映像またはデータ量が過度に多い映像であるとしても、符号化端から伝送された最適符号化モードについての情報を利用して、映像の特性に適応的に決定された符号化単位の大きさ及び符号化モードによって、効率的に映像データを復号化して復元することができる。
以下、図3ないし図13を参照し、本発明の一実施形態によるツリー構造による符号化単位、予測単位及び変換単位の決定方式について説明する。
図3は、階層的符号化単位の概念を図示している。
符号化単位の例は、符号化単位の大きさは、幅x高さで表現され、サイズ64x64である符号化単位から、サイズ32x32,16x16,8x8を含んでもよい。サイズ64x64の符号化単位は、サイズ64x64,64x32,32x64,32x32のパーティションに分割され、サイズ32x32の符号化単位は、サイズ32x32,32x16,16x32,16x16のパーティションに、サイズ16x16の符号化単位は、サイズ16x16,16x8,8x16,8x8のパーティションに、サイズ8x8の符号化単位は、サイズ8x8,8x4,4x8,4x4のパーティションに分割される。
ビデオデータ310については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が2に設定されている。ビデオデータ320については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が3に設定されている。ビデオデータ330については、解像度が352x288、符号化単位の最大サイズが16、最大深度が1に設定されている。図3に図示された最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示す。
解像度が高いか、あるいはデータ量が多い場合、符号化効率の向上だけでなく、映像特性を正確に反映するために、符号化サイズの最大サイズは、相対的に大きいことが望ましい。従って、ビデオデータ330に比べ、解像度が高いビデオデータ310,320は、符号化サイズの最大サイズが64に選択される。
ビデオデータ310の最大深度が2であるので、ビデオデータ310の符号化単位315は、長軸サイズが64である最大符号化単位から、2回分割されて深度が2階層深くなり、長軸サイズが32,16である符号化単位まで含んでもよい。一方、ビデオデータ330の最大深度が1であるので、ビデオデータ330の符号化単位335は、長軸サイズが16である符号化単位から、1回分割されて深度が1階層深くなり、長軸サイズが8である符号化単位まで含んでもよい。
ビデオデータ320の最大深度が3であるので、ビデオデータ320の符号化単位325は、長軸サイズが64である最大符号化単位から、3回分割されて深度が3階層深くなり、長軸サイズが32,16,8である符号化単位まで含んでもよい。深度が深くなるほど、詳細情報の表現能が向上するのである。
図4は、本発明の一実施形態による符号化単位に基づいた映像符号化部のブロック図を図示している。
一実施形態による映像符号化部400は、ビデオ符号化装置100の符号化単位決定部120で、映像データを符号化するのに経る作業を含む。すなわち、イントラ予測部410は、現在フレーム405のおいて、イントラモードの符号化単位についてイントラ予測を行い、動き推定部420及び動き補償部425は、インターモードの現在フレーム405及び参照フレーム495を利用して、インター推定及び動き補償を行う。
イントラ予測部410、動き推定部420及び動き補償部425から出力されたデータは、周波数変換部430及び量子化部440を経て、量子化された変換係数として出力される。量子化された変換係数は、逆量子化部460、周波数逆変換部470を介して、空間領域のデータに復元され、復元された空間領域のデータは、デブロッキング部480及びループフィルタリング部490を経て後処理され、参照フレーム495として出力される。量子化された変換係数は、エントロピ符号化部450を経て、ビットストリーム455として出力される。
一実施形態によるビデオ符号化装置100に適用されるためには、映像符号化部400の構成要素であるイントラ予測部410、動き推定部420、動き補償部425、周波数変換部430、量子化部440、エントロピ符号化部450、逆量子化部460、周波数逆変換部470、デブロッキング部480及びループフィルタリング部490が、いずれも最大符号化単位ごとに、最大深度を考慮して、ツリー構造による符号化単位において、それぞれの符号化単位に基づいた作業を行わなければならない。
特に、イントラ予測部410、動き推定部420及び動き補償部425は、現在最大符号化単位の最大サイズ及び最大深度を考慮して、ツリー構造による符号化単位において、それぞれの符号化単位のパーティション及び予測モードを決定し、周波数変換部430は、ツリー構造による符号化単位において、それぞれの符号化単位内の変換単位の大きさを決定しければならない。
図5は、本発明の一実施形態による符号化単位に基づいた映像復号化部のブロック図を図示している。
ビットストリーム505がパージング部510を経て、復号化対象である符号化された映像データ及び復号化のために必要な符号化についての情報がパージングされる。符号化された映像データは、エントロピ復号化部520及び逆量子化部530を経て、逆量子化されたデータとして出力され、周波数逆変換部540を経て、空間領域の映像データが復元される。
空間領域の映像データについて、イントラ予測部550は、イントラモードの符号化単位に対してイントラ予測を行い、動き補償部560は、参照フレーム585を共に利用して、インターモードの符号化単位に対して動き補償を行う。
イントラ予測部550及び動き補償部560を経た空間領域のデータは、デブロッキング部570及びループフィルタリング部580を経て後処理され、復元フレーム595として出力される。また、デブロッキング部570及びループフィルタリング部580を経て後処理されたデータは、参照フレーム585として出力される。
ビデオ復号化装置200の映像データ復号化部230で、映像データを復号化するために、一実施形態による映像復号化部500のパージング部510以後の段階別作業が行われる。
一実施形態によるビデオ復号化装置200に適用されるためには、映像復号化部500の構成要素であるパージング部510、エントロピ復号化部520、逆量子化部530、周波数逆変換部540、イントラ予測部550、動き補償部560、デブロッキング部570及びループフィルタリング部580が、いずれも最大符号化単位ごとにツリー構造による符号化単位に基づいて、作業を行わなければならない。
特に、イントラ予測部550、動き補償部560は、ツリー構造による符号化単位ごとに、それぞれパーティション及び予測モードを決定し、周波数逆変換部540は、符号化単位ごとに、変換単位の大きさを決定しければならない。
図6は、本発明の一実施形態による深度別符号化単位及びパーティションを図示している。
一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200は、映像特性を考慮するために、階層的な符号化単位を使う。符号化単位の最大高及び最大幅、最大深度は、映像の特性によって適応的に決定され、ユーザの要求によって多様に設定される。既設定の符号化単位の最大サイズによって、深度別符号化単位の大きさが決定される。
一実施形態による符号化単位の階層構造600は、符号化単位の最大高及び最大幅が64であり、最大深度が4である場合を図示している。一実施形態による符号化単位の階層構造600の縦軸に沿って深度が深くなるので、深度別符号化単位の高さ及び幅がそれぞれ分割される。また、符号化単位の階層構造600の横軸に沿って、それぞれの深度別符号化単位の予測符号化の基になる予測単位及びパーティションが図示されている。
すなわち、符号化単位610は、符号化単位の階層構造600において、最大符号化単位であって深度が0であり、符号化単位の大きさ、すなわち、高さ及び幅が64x64である。縦軸に沿って深度が深くなり、サイズ32x32である深度1の符号化単位620、サイズ16x16である深度2の符号化単位630、サイズ8x8である深度3の符号化単位640、サイズ4x4である深度4の符号化単位650が存在する。サイズ4x4である深度4の符号化単位650は、最小符号化単位である。
それぞれの深度別に、横軸に沿って、符号化単位の予測単位及びパーティションが配列される。すなわち、深度0のサイズ64x64の符号化単位610が予測単位であるならば、予測単位は、サイズ64x64の符号化単位610に含まれるサイズ64x64のパーティション610、サイズ64x32のパーティション612、サイズ32x64のパーティション614、サイズ32x32のパーティション616に分割される。
同様に、深度1のサイズ32x32の符号化単位620の予測単位は、サイズ32x32の符号化単位620に含まれるサイズ32x32のパーティション620、サイズ32x16のパーティション622、サイズ16x32のパーティション624、サイズ16x16のパーティション626に分割される。
同様に、深度2のサイズ16x16の符号化単位630の予測単位は、サイズ16x16の符号化単位630に含まれるサイズ16x16のパーティション630、サイズ16x8のパーティション632、サイズ8x16のパーティション634、サイズ8x8のパーティション636に分割される。
同様に、深度3のサイズ8x8の符号化単位640の予測単位は、サイズ8x8の符号化単位640に含まれるサイズ8x8のパーティション640、サイズ8x4のパーティション642、サイズ4x8のパーティション644、サイズ4x4のパーティション646に分割される。
最後に、深度4のサイズ4x4の符号化単位650は、最小符号化単位であり、最下位深度の符号化単位であり、当該予測単位もサイズ4x4のパーティション650だけに設定される。
一実施形態によるビデオ符号化装置100の符号化単位決定部120は、最大符号化単位610の符号化深度を決定するために、最大符号化単位610に含まれるそれぞれの深度の符号化単位ごとに符号化を行わなければならない。
同一の範囲及び大きさのデータを含むための深度別符号化単位の個数は、深度が深くなるほど、深度別符号化単位の個数も増加する。例えば、深度1の符号化単位一つが含むデータに対し、深度2の符号化単位は、四つが必要である。従って、同一のデータの符号化結果を、深度別に比較するために、1つの深度1の符号化単位、及び4つの深度2の符号化単位を利用して、それぞれ符号化されなければならない。
それぞれの深度別符号化のためには、符号化単位の階層構造600の横軸に沿って、深度別符号化単位の予測単位ごとに符号化を行い、当該深度で最小の符号化誤差である代表符号化誤差が選択される。また、符号化単位の階層構造600の縦軸に沿って深度が深くなり、それぞれの深度ごとに符号化を行い、深度別代表符号化誤差を比較し、最小符号化誤差が検索される。最大符号化単位610において、最小符号化誤差が発生する深度及びパーティションが最大符号化単位610の符号化深度及びパーティションタイプに選択される。
図7は、本発明の一実施形態による、符号化単位及び変換単位の関係を図示している。
一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200は、最大符号化単位ごとに、最大符号化単位より小さいか、あるいは同サイズの符号化単位で、映像を符号化したり復号化する。符号化過程において、周波数変換のための変換単位の大きさは、それぞれの符号化単位より大きくないデータ単位を基に選択される。
例えば、一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200で、現在符号化単位710が64x64サイズであるとき、32x32サイズの変換単位720を利用して周波数変換が行われる。
また、64x64サイズの符号化単位710のデータを、64x64サイズ以下の32x32,16x16,8x8,4x4サイズの変換単位でそれぞれ周波数変換を行って符号化した後、原本との誤差が最小である変換単位が選択される。
図8は、本発明の一実施形態による、深度別符号化情報を図示している。
一実施形態によるビデオ符号化装置100の出力部130は、符号化モードについての情報として、それぞれの符号化深度の符号化単位ごとに,パーティションタイプについての情報800、予測モードについての情報810、変換単位サイズに係わる情報820を符号化して伝送することができる。
パーティションタイプに係わる情報800は、現在符号化単位の予測符号化のためのデータ単位として、現在符号化単位の予測単位が分割されたパーティションの形態に係わる情報を示す。例えば、サイズ2Nx2Nの現在符号化単位CU_0は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806、サイズNxNのパーティション808のうちいずれか1つのタイプに分割されて利用される。その場合、現在符号化単位のパーティションタイプについての情報800は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806、及びサイズNxNのパーティション808のうち一つを示すように設定される。
予測モードについての情報810は、それぞれのパーティションの予測モードを示す。例えば、予測モードについての情報810を介して、パーティションタイプについての情報800が示すパーティションが、イントラモード812、インターモード814及びスキップモード816のうちいずれか一つで予測符号化が行われるかが設定される。
また、変換単位サイズについての情報820は、現在符号化単位を、いかなる変換単位を基に周波数変換を行うかを示す。例えば、変換単位は、第1イントラ変換単位サイズ822、第2イントラ変換単位サイズ824、第1インター変換単位サイズ826、第2インター変換単位サイズ828のうち一つである。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部210は、それぞれの深度別符号化単位ごとに、パーティションタイプについての情報800、予測モードについての情報810、変換単位サイズに係わる情報820を抽出し、復号化に利用することができる。
図9は、本発明の一実施形態による深度別符号化単位を図示している。
深度の変化を示すために、分割情報が利用される。分割情報は、現在深度の符号化単位が、下位深度の符号化単位に分割されるか否かを示す。
深度0及び2N_0x2N_0サイズの符号化単位900の予測符号化のための予測単位910は、2N_0x2N_0サイズのパーティションタイプ912、2N_0xN_0サイズのパーティションタイプ914、N_0x2N_0サイズのパーティションタイプ916、N_0xN_0サイズのパーティションタイプ918を含んでもよい。予測単位が対称的な比率に分割されたパーティション912,914,916,918だけが例示されているが、前述のように、パーティションタイプは、それらに限定されるものではなく、非対称的パーティション、任意的形態のパーティション、幾何学的形態のパーティションなどを含んでもよい。
パーティションタイプごとに、1つの2N_0x2N_0サイズのパーティション、2つの2N_0xN_0サイズのパーティション、2つのN_0x2N_0サイズのパーティション、4つのN_0xN_0サイズのパーティションごとに、反復して予測符号化が行われなければならない。サイズ2N_0x2N_0、サイズN_0x2N_0、サイズ2N_0xN_0及びサイズN_0xN_0のパーティションについては、イントラモード及びインターモードで予測符号化が行われる。スキップモードは、サイズ2N_0x2N_0のパーティションについてのみ予測符号化が行われる。
サイズ2N_0x2N_0,2N_0xN_0及びN_0x2N_0のパーティションタイプ912,914,916のうち一つによる符号化誤差が最も小さければ、それ以上下位深度に分割する必要ない。
サイズN_0xN_0のパーティションタイプ918による符号化誤差が最も小さければ、深度0を1に変更しながら分割し(920)、深度2及びサイズN_0xN_0のパーティションタイプの符号化単位930に対して反復して符号化を行い、最小符号化誤差を検索していくことができる。
深度1及びサイズ2N_1x2N_1(=N_0xN_0)の符号化単位930の予測符号化のための予測単位940は、サイズ2N_1x2N_1のパーティションタイプ942、サイズ2N_1xN_1のパーティションタイプ944、サイズN_1x2N_1のパーティションタイプ946、サイズN_1xN_1のパーティションタイプ948を含んでもよい。
また、サイズN_1xN_1サイズのパーティションタイプ948による符号化誤差が最も小さければ、深度1を深度2に変更しながら分割し(950)、深度2及びサイズN_2xN_2の符号化単位960に対して反復して符号化を行い、最小符号化誤差を検索していくことができる。
最大深度がdである場合、深度別分割情報は、深度d−1になるまで設定され、分割情報は、深度d−2まで設定される。すなわち、深度d−2から分割(970)になって深度d−1まで符号化が行われる場合、深度d−1及びサイズ2N_(d−1)x2N_(d−1)の符号化単位980の予測符号化のための予測単位990は、サイズ2N_(d−1)x2N_(d−1)のパーティションタイプ992、サイズ2N_(d−1)xN_(d−1)のパーティションタイプ994、サイズN_(d−1)x2N_(d−1)のパーティションタイプ996、サイズN_(d−1)xN_(d−1)のパーティションタイプ998を含んでもよい。
パーティションタイプのうち、1つのサイズ2N_(d−1)x2N_(d−1)のパーティション、2つのサイズ2N_(d−1)xN_(d−1)のパーティション、2つのサイズN_(d−1)x2N_(d−1)のパーティション、4つのサイズN_(d−1)xN_(d−1)のパーティションごとに、反復して予測符号化を介した符号化が行われ、最小符号化誤差が発生するパーティションタイプが検索される。
サイズN_(d−1)xN_(d−1)のパーティションタイプ998による符号化誤差が最も小さいとしても、最大深度がdであるので、深度d−1の符号化単位CU_(d−1)は、それ以上下位深度への分割過程を経ず、現在最大符号化単位900に対する符号化深度が深度d−1と決定され、パーティションタイプは、N_(d−1)xN_(d−1)と決定される。また、最大深度がdであるので、深度d−1の符号化単位952に対して、分割情報は設定されない。
データ単位999は、現在最大符号化単位に係わる「最小単位」とされる。一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位でもある。このような反復的符号化過程を介して、一実施形態によるビデオ符号化装置100は、符号化単位900の深度別符号化誤差を比較し、最小の符号化誤差が発生する深度を選択し、符号化深度を決定し、当該パーティションタイプ及び予測モードが符号化深度の符号化モードに設定される。
このように、深度0,1,…,d−1,dの全ての深度別最小符号化誤差を比較し、誤差が最小である深度が選択され、符号化深度として決定される。符号化深度、予測単位のパーティションタイプ及び予測モードは、符号化モードについての情報として符号化されて伝送される。また、深度0から符号化深度に至るまで符号化単位が分割されなければならないので、符号化深度の分割情報だけが「0」に設定され、符号化深度を除いた深度別分割情報は、「1」に設定されなければならない。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部220は、符号化単位900に対する符号化深度及び予測単位についての情報を抽出し、符号化単位912を復号化するのに利用することができる。一実施形態によるビデオ復号化装置200は、深度別分割情報を利用して、分割情報が「0」である深度を符号化深度として把握し、当該深度に係わる符号化モードについての情報を利用して、復号化に利用することができる。
図10、図11及び図12は、本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示している。
符号化単位1010は、最大符号化単位について、一実施形態によるビデオ符号化装置100が決定した符号化深度別符号化単位である。予測単位1060は、符号化単位1010において、それぞれの符号化深度別符号化単位の予測単位のパーティションであり、変換単位1070は、それぞれの符号化深度別符号化単位の変換単位である。
深度別符号化単位1010は、最大符号化単位の深度が0であるとすれば、符号化単位1012,1054は、深度が1、符号化単位1014,1016,1018,1028,1050,1052は、深度が2、符号化単位1020,1022,1024,1026,1030,1032,1048は、深度が3、符号化単位1040,1042,1044,1046は、深度が4である。
予測単位1060のうち一部パーティション1014,1016,1022,1032,1048,1050,1052,1054は、符号化単位が分割された形態である。すなわち、パーティション1014,1022,1050,1054は、2NxNのパーティションタイプであり、パーティション1016,1048,1052は、Nx2Nのパーティションタイプであり、パーティション1032は、NxNのパーティションタイプである。深度別符号化単位1010の予測単位及びパーティションは、それぞれの符号化単位より小さいか、あるいは同じである。
変換単位1070のうち一部変換単位1052の映像データについては、符号化単位に比べて、小サイズのデータ単位であり、周波数変換または周波数逆変換が行われる。また、変換単位1014,1016,1022,1032,1048,1050,1052,1054は、予測単位1060において、当該予測単位及びパーティションに比べれば、互いに異なる大きさまたは形態のデータ単位である。すなわち、一実施形態によるビデオ符号化装置100、及び一実施形態に他のビデオ復号化装置200は、同一の符号化単位に係わるイントラ予測/動き推定/動き補償作業、及び周波数変換/逆変換作業であるとしても、それぞれ別個のデータ単位を基に遂行することができる。
それにより、最大符号化単位ごとに、領域別に階層的な構造の符号化単位ごとに再帰的に符号化が行われ、最適符号化単位が決定されることにより、再帰的ツリー構造による符号化単位が構成される。符号化情報は、符号化単位に係わる分割情報、パーティションタイプ情報、予測モード情報、変換単位サイズ情報を含んでもよい。下記表1は、一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200で設定することができる一例を示している。
Figure 2014520453
一実施形態によるビデオ符号化装置100の出力部130は、ツリー構造による符号化単位に係わる符号化情報を出力し、一実施形態によるビデオ復号化装置200の符号化情報抽出部220は、受信されたビットストリームから、ツリー構造による符号化単位に係わる符号化情報を抽出することができる。
分割情報は、現在符号化単位が、下位深度の符号化単位に分割されるかいかんを示す。現在深度dの分割情報が0であるならば、現在符号化単位は、現在符号化単位が下位符号化単位にそれ以上分割されない深度が符号化深度であるので、符号化深度に対して、パーティションタイプ情報、予測モード、変換単位サイズ情報が定義される。分割情報により、1段階さらに分割されなければならない場合には、分割された4個の下位深度の符号化単位ごとに独立して符号化が行われなければならない。
予測モードは、イントラモード、インターモード及びスキップモードのうち一つで示すことができる。イントラモード及びインターモードは、全てのパーティションタイプで定義され、スキップモードは、パーティションタイプ2Nx2Nでのみ定義される。
パーティションタイプ情報は、予測単位の高さまたは幅が対称的な比率に分割された対称的パーティションタイプ2Nx2N,2NxN,Nx2N及びNxNと、非対称的な比率に分割された非対称的パーティションタイプ2NxnU,2NxnD,nLx2N,nRx2Nを示すことができる。非対称的パーティションタイプ2NxnU及び2NxnDは、それぞれ高さが1:3及び3:1に分割された形態であり、非対称的パーティションタイプnLx2N及びnRx2Nは、それぞれ幅が1:3及び3:1に分割された形態を示す。
変換単位サイズは、イントラモードで、2種類の大きさ、インターモードで2種類の大きさに設定される。すなわち、変換単位分割情報が0であるならば、変換単位の大きさは、現在符号化単位のサイズ2Nx2Nに設定される。変換単位分割情報が1であるならば、現在符号化単位が分割された大きさの変換単位が設定される。また、サイズ2Nx2Nである現在符号化単位に係わるパーティションタイプが、対称形パーティションタイプであるならば、変換単位の大きさは、NxN、非対称形パーティションタイプであるならば、N/2xN/2に設定される。
一実施形態によるツリー構造による符号化単位の符号化情報は、符号化深度の符号化単位、予測単位及び最小単位単位のうち少なくとも一つに対して割り当てられる。符号化深度の符号化単位は、同一の符号化情報を保有している予測単位及び最小単位を一つ以上含んでもよい。
従って、隣接したデータ単位同士それぞれ保有している符号化情報を確認すれば、同一の符号化深度の符号化単位に含まれるか否かが確認される。また、データ単位が保有している符号化情報を利用すれば、当該符号化深度の符号化単位を確認することができるので、最大符号化単位内の符号化深度の分布が類推される。
従って、その場合、現在符号化単位が周辺データ単位を参照して予測する場合、現在符号化単位に隣接する深度別符号化単位内のデータ単位の符号化情報が直接参照されて利用される。
他の実施形態で、現在符号化単位が周辺符号化単位を参照して予測符号化が行われる場合、隣接する深度別符号化単位の符号化情報を利用して、深度別符号化単位内で、現在符号化単位に隣接するデータが検索されることにより、周辺符号化単位が参照されもする。
図13は、表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示している。
最大符号化単位1300は、符号化深度の符号化単位1302,1304,1306,1312,1314,1316,1318を含む。そのうち1つの符号化単位1318は、符号化深度の符号化単位であるので、分割情報が0に設定される。サイズ2Nx2Nの符号化単位1318のパーティションタイプ情報は、パーティションタイプ2Nx2N 1322,2NxN 1324,Nx2N 1326、NxN 1328,2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定される。
パーティションタイプ情報が、対称形パーティションタイプ2Nx2N 1322,2NxN 1324,Nx2N 1326及びNxN 1328のうち一つに設定されている場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1342が設定され、変換単位分割情報が1であるならば、サイズNxNの変換単位1344が設定される。
パーティションタイプ情報が、非対称形パーティションタイプ2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定された場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1352が設定され、変換単位分割情報が1であるならば、サイズN/2xN/2の変換単位1354が設定される。
以下、図4の本発明の一実施形態による映像符号化装置100の動き予測部420、動き補償部425及び、図5の映像復号化装置200の動き補償部550で行われる動き予測及び補償過程;図4のエントロピ符号化部450、及び図5のエントロピ復号化部520で行われる動き情報の符号化及び復号化の過程;について具体的に説明する。図1ないし図13を参照し、前述のように、予測単位は、符号化単位の予測符号化のためのデータ単位であり、以下の説明で予測単位は、予測単位自体を意味するか、あるいは予測単位を分割するパーティションを示すことができる。
前述のように、予測単位は、イントラ予測モード、インタ予測モード及びスキップモードなどの多様な予測モードを介して符号化される。
インタ予測モードで、現在予測単位は、単方向予測(uni-direction prediction)または双方向予測(bi-directional prediction)を介して予測される。具体的には、Pスライス内に含まれた予測単位は、参照ピクチャリストlist 0に含まれた参照ピクチャL0 picture、または参照ピクチャリストlist 1に含まれた参照ピクチャL1 pictureのうちいずれか1つのみを利用する単方向予測を介して予測される。参照ピクチャリストlist 0に含まれた参照ピクチャL0 pictureを利用する予測方式を「LO予測」といい、参照ピクチャリストlist 1に含まれた参照ピクチャL1 pictureを利用する場合、「L1予測」という。参照ピクチャリストlist 0では、最も最近の過去ピクチャから、それ以前のピクチャの順序で、参照ピクチャ・インデックスが割り当てられ、その次に最も近い将来ピクチャから、その後のピクチャの順序で、参照ピクチャ・インデックスが割り当てられる。参照ピクチャリストlist 1では、参照ピクチャリストlist 0と反対に、最も近い将来ピクチャから、その後のピクチャの順序で参照ピクチャ・インデックスが割り当てられ、その次に最も最近の過去ピクチャから、それ以前ピクチャの順序で、参照ピクチャ・インデックスが割り当てられる。
Bスライス内に含まれた予測単位は、単方向予測、または参照ピクチャリストlist 0に含まれた参照ピクチャL0 picture、並びに参照ピクチャリストlist 1に含まれた参照ピクチャL1 pictureの平均値を利用する双方向予測を介して予測される。動き予測部420で遂行される双方向予測モードは、現在ピクチャ前後の参照ピクチャに制限されず、で任意の2枚の参照ピクチャを使用することができ、双予測モード(bi-predictive mode)とも呼ばれる。
各予測モードによって獲得された予測値を符号化したコストが比較され、最小のコストを有する予測モードが、現在予測単位の最終的な予測モードとして決定される。コスト比較時には、率・歪曲(rate-distortion)に基づいて、現在予測単位に適用される最終予測モードが決定される。
復号化側でインター予測される予測単位の予測値を生成するように、インター予測される予測単位ごとに、いかなるピクチャを参照しているかに係わる参照ピクチャ情報、動きベクトル情報、及び予測方向のような動き情報が伝送されなければならない。
本発明の実施形態によれば、動き情報の符号化方式は、1)予測単位の予測動きベクトル・インデックス、予測動きベクトルと原動きベクトルとの差値、参照ピクチャ情報及び予測方向情報をそれぞれ符号化して伝送する第1動き情報符号化モード(AMVP:advanced motion vector prediction)モード)、及び2)周辺予測単位の動き情報をそのまま現在予測単位の動き情報として利用する併合(merge)モードであり、併合モードに該当するか否かを示すフラグ(merge flag)、及び動き情報を持ってくる周辺予測単位候補のうち一つを示すフラグ(merge index)を予測単位の動き情報として符号化する第2動き情報符号化モード(「併合モード」)の2つののうちいずれか一つを利用することができる。AMVPモード及び併合モードのうちいずれのモードによって予測単位の動き情報を符号化するかということは、各モードによって生じるRDコストを比較し、さらに小コストを有するモードを選択することができる。
符号化側では、現在予測単位の動き情報をAMVPモードを介して符号化する場合、併合モードに該当するか否かを示すフラグ(merge flag)を0に設定し、予測単位の予測動きベクトル・インデックス、予測動きベクトルと原動きベクトルとの差値、参照ピクチャ情報及び予測方向情報を符号化して復号化側に伝送する。復号化側では、併合モードに該当するか否かを示すフラグ(merge flag)が0に設定された場合、現在予測単位の動き情報がAMVPモードで符号化されたものであると判断し、ビットストリームから、現在予測単位の予測動きベクトル・インデックス、予測動きベクトルと原動きベクトルとの差値、参照ピクチャ情報及び予測方向情報を獲得する。
また、符号化側では、現在予測単位の動き情報を、併合モードを介して符号化する場合、併合モードいかんを示すフラグ(merge flag)を1に設定し、併合モードいかんを示すフラグ(merge flag)、及び動き情報を持ってくる併合予測単位候補のうち一つを示すフラグ(merge index)を復号化側に伝送する。復号化側では、併合モードいかんを示すフラグ(merge flag)が1に設定された場合、現在予測単位の動き情報が併合モードで符号化されたものであると判断し、ビットストリームから動き情報を持ってくる併合候補のうち一つを示すインデックス(merge index)を獲得し、merge indexを利用して決定された併合候補の動き情報、すなわち、周辺予測単位の動きベクトル、参照ピクチャ情報及び予測方向情報をそのまま現在予測単位の動き情報として利用する。
本発明の実施形態による動き情報符号化、復号化方法及びその装置では、現在予測単位と時空間的に関連した予測単位の動き情報を利用して獲得された基本(default)動き情報を利用して、現在予測単位の動き情報候補を生成し、もし基本動き情報が、既定の所定個数n(nは、整数)より少ない場合、基本動き情報を変更したり、あるいは既定の動き情報を動き情報候補に付加することにより、n個の動き情報を生成し、現在予測単位に適用された動き情報を示すインデックスを、現在予測単位の動き情報として、符号化したり復号化することを特徴とする。
本発明について説明するにあたり、動き情報のうち動きベクトル情報を符号化する場合を中心に説明するが、本発明による思想は、それに限定されるものではなく、動きベクトル以外に、参照ピクチャ情報、予測方向情報のような他の動き情報を符号化する場合にも適用されもする。
以下、本発明の実施形態による、予測単位の動き情報を符号化する方法及びその装置と、予測単位の動き情報を復号化する方法及びその装置とについて具体的に説明する。
I.AMVPモードによる動き情報の符号化
図14Aは、本発明の一実施形態による動き情報符号化装置の構成を示したブロック図である。図14Aを参照すれば、動き情報符号化装置1400は、予測動きベクトル候補生成部1410及び動きベクトル符号化部1420を含む。図14Aの動き情報符号化装置1400は、図4のビデオ符号化装置400に含まれる。例えば、図4の動き予測部420は、図14Aの予測動きベクトル候補生成部1410の機能を遂行することができ、エントロピ復号化部450は、図14Aの動きベクトル符号化部1420の機能を遂行することができる。それに限定されるものではなく、図4に図示されたビデオ符号化装置400の他の構成要素や、図示されていない制御部などによって、図14Aの動き情報符号化装置1400で遂行される機能が遂行される。予測動きベクトル候補生成部1410は、現在予測単位の周辺予測単位が有する動きベクトルを利用して、予測動きベクトル候補を獲得する。特に、本発明の一実施形態による予測動きベクトル候補生成部1410は、現在予測単位の位置や、周辺予測単位の動き情報のような外部条件に係わりなく、常に固定された個数n(nは、整数)個の予測動きベクトル候補を生成する。もし予測動きベクトル候補に含まれた動きベクトルの個数が、所定個数n(nは、整数)より少ない場合、予測動きベクトル候補生成部410は、予測動きベクトル候補に含まれた動きベクトルの個数がnになるように、現在予測単位と時間的に関連した予測単位、及び空間的に関連した予測単位が有する基本予測動きベクトルを変更したり、ゼロベクトルを含む代案的予測動きベクトルを、予測動きベクトル候補に付加することにより、全体n個の予測動きベクトル候補を生成する。予測動きベクトル候補の生成過程については、後述する。
動きベクトル符号化部1420は、n個の予測動きベクトル候補のうち、現在予測単位に係わる動きベクトルの予測動きベクトルを決定し、予測動きベクトルを示すインデックス情報を、現在予測単位の動きベクトル情報として符号化する。具体的には、動きベクトル符号化部1420は、n個の予測動きベクトル候補それぞれに、0から(n−1)までの予測動きベクトル・インデックスを割り当て、現在予測単位の予測動きベクトルに対応する予測動きベクトル・インデックスを、現在予測単位の動きベクトル情報として符号化する。例えば、n=2、すなわち、現在予測単位の予測動きベクトル候補が2個に固定された場合、L0方向またはL1方向それぞれに対して予測動きベクトル候補生成部1410で生成された2個の予測動きベクトル候補を、それぞれMVLX_Cand0,MVLX_Cand1(Xは、0または1)であるとすれば、動きベクトル符号化部1420は、MVLX_Cand0を示す予測動きベクトル・インデックスを0、MVLX_Cand1を示す予測動きベクトル・インデックスを1に設定し、現在予測単位に係わる符号化結果によって、最小コストを有する予測動きベクトルに対応するインデックスを、現在予測単位の動きベクトル情報として符号化する。このように、n=2である場合、1ビットの予測動きベクトル・インデックスを介して、現在予測単位の動きベクトル情報を符号化することができる。
動きベクトル符号化部1420は、予測動きベクトル・インデックス以外に、現在予測単位の原動きベクトルと予測動きベクトルとの差値、参照ピクチャ情報及び予測方向情報を符号化してビットストリームに付加する。
そのように、符号化側で、所定規則によって、固定された個数の予測動きベクトル候補を獲得し、予測動きベクトル候補のうち1つの予測動きベクトルを示すインデックス情報を伝送する場合、復号化側では、符号化側と同一の規則によって、固定された個数の予測動きベクトル候補を生成し、伝送されたインデックス情報を利用して、現在予測単位の予測動きベクトルを決定することができる。また、復号化側では、ビットストリームから、原動きベクトルと予測動きベクトルとの差値を獲得し、予測動きベクトル・インデックスが示す予測動きベクトルと差値とを加算し、現在予測単位の動きベクトルを復元することができる。また、復号化側では、復元された動きベクトル、ビットストリームから獲得された参照ピクチャ情報及び予測方向情報(L0方向、L1方向)を利用して、現在予測単位の予測値を生成することができる。
以下、AMVPモードで、予測動きベクトル候補を生成する過程について、具体的に説明する。
図15は、図14Aの予測動きベクトル候補生成部1410の具体的な構成を示したブロック図である。図15を参照すれば、予測動きベクトル候補生成部1410は、空間的予測動きベクトル候補生成部1510、時間的予測動きベクトル候補生成部1520、重複除去部1530及び最終予測動きベクトル候補生成部1540を含む。
空間的予測動きベクトル候補生成部1510は、現在予測単位と空間的に関連した予測単位の動き情報を利用して、予測動きベクトル候補を生成する。具体的には、空間的予測動きベクトル候補生成部1510は、現在予測単位の左側に位置した周辺予測単位を、所定順序によって順次に検索し、第1空間的予測動きベクトル候補を獲得する第1空間的予測動きベクトル候補生成部1511、及び現在予測単位の上側に位置した周辺予測単位を、所定順序によって順次に検索し、第2空間的予測動きベクトル候補を獲得する第2空間的予測動きベクトル候補生成部1512を含む。
図16は、本発明の一実施形態によって、現在予測単位の予測動きベクトルを獲得するのに利用される周辺予測単位を図示している。図16を参照すれば、空間的予測動きベクトル候補生成部1510は、現在予測単位1610の左側に位置した周辺予測単位のうち、現在予測単位1610の左下側(left-bottom)に位置した周辺予測単位(A0)1621、及び左下側に位置した周辺予測単位(A0)1621の上側に位置した(left-down)周辺予測単位(A1)1622が有する動きベクトルのうち、利用可能な動きベクトルを、第1空間的予測動きベクトル候補として決定する。また、空間的予測動きベクトル候補生成部1510は、現在予測単位1610の上側に位置した周辺予測単位のうち、現在予測単位1610の右上側(above-right)に位置した周辺予測単位(B0)1631、右上側に位置した周辺予測単位(B0)1631の左側に位置した周辺予測単位(B1)1632、及び現在予測単位1610の左上側(above-left)に位置した周辺予測単位(B2)1633が有する動きベクトルのうち、利用可能な動きベクトルを、第2空間的予測動きベクトル候補として決定する。
具体的には、第1空間的予測動きベクトル候補生成部1511は、A0 1621及びA1 1622の動きベクトルの利用可能性いかんを順次にチェックし、利用可能な動きベクトルを有すると検索された周辺予測単位の動きベクトルを、第1空間的予測動きベクトル候補として決定する。ここで、動きベクトルの利用可能性とは、周辺予測単位が、現在予測単位と同一の参照ピクチャリスト内の同一の参照ピクチャを示す動きベクトルを有するか否かということを示す。例えば、現在予測単位1610の動きベクトルが、L0リスト内のR0参照インデックスを有する参照ピクチャL0R0 pictureを示す動きベクトルとするとき、A0 1621は、イントラ予測された予測単位であるか、現在予測単位1610と異なる参照ピクチャリストに含まれた参照ピクチャを示す動きベクトルを有したり、あるいは同一の参照ピクチャリストの他の参照ピクチャを示す動きベクトルを有する場合には、A0 1621は、利用可能な動きベクトルを有さないと判断される。もしA1 1622が、現在予測単位1610と同一の参照ピクチャリスト内の同一の参照ピクチャを示す動きベクトルを有する場合、A1 1622の動きベクトルは、第1空間的予測動きベクトル候補として決定される。
同様に、第2空間的予測動きベクトル候補生成部1512は、B0 1631、B1 1632及びB2 1633の動きベクトルの利用可能性いかんを順次にチェックし、現在予測単位1610と同一の参照ピクチャリスト内の同一の参照ピクチャを示す周辺予測単位の動きベクトルを、第2空間的予測動きベクトル候補として決定する。
周辺予測単位のうち、利用可能な動きベクトルを有する周辺予測単位が存在しない場合には、同一の参照ピクチャリストの他の参照ピクチャを示す周辺予測単位の動きベクトル、または他の参照ピクチャリストに含まれた参照ピクチャを示す周辺予測単位の動きベクトルをスケーリングし、現在予測単位の予測動きベクトル候補として利用することができる。
図17は、本発明の一実施形態による、スケーリングされた空間的予測動きベクトル候補を決定する過程について説明するための参照図である。図17を参照すれば、現在予測符号化単位1730の動きベクトルMVL0_curは、L0リスト内のR0参照インデックスを有する参照ピクチャであるL0R0ピクチャ1720を示し、A0 1735は、イントラ予測された予測単位、A1 1736は、L1リスト内のR0参照インデックスを有する参照ピクチャであるL1R0ピクチャ1740を示す動きベクトルmvL1_A1を有し、B0 1732は、イントラ予測された予測単位、B1 1733は、L1リスト内のR1参照インデックスを有する参照ピクチャであるL1R1ピクチャ1750を示す動きベクトルmvL1_B1を有し、B2 1734は、L0リスト内のR1参照インデックスを有する参照ピクチャであるL0R1ピクチャ1710を示す動きベクトルmvL0_B2を有する。図17で、現在予測単位(PU)1731の周辺予測単位のうち、いかなる予測単位も、現在予測単位1731の動きベクトルmvL0_curと同様に、L0R0ピクチャ1720を有する動きベクトルを有さない。
このように、周辺予測単位のうち、現在予測単位1731の動きベクトルが示す参照ピクチャと同一の参照ピクチャを示す動きベクトルを有する周辺予測単位が存在しない場合、空間的予測動きベクトル候補生成部1510は、周辺予測単位のうち、インター予測される予測単位の動きベクトルが示す参照ピクチャと、現在予測単位の動きベクトルが示す参照ピクチャとの時間的距離に基づいて、前記インター予測される予測単位の動きベクトルをスケーリングし、スケーリングされた動きベクトルを、予測動きベクトル候補に付加することができる。すなわち、空間的予測動きベクトル候補生成部1510は、周辺予測単位の動きベクトルのうち、現在予測単位1731と同一の参照ピクチャリスト内の他の参照インデックスを有する参照ピクチャを示す周辺予測単位の動きベクトルを、予測動きベクトル候補に付加したり、あるいは現在予測単位1731と同一の参照ピクチャリスト内の他の参照インデックスを有する参照ピクチャを示す周辺予測単位の動きベクトルも存在しない場合には、現在予測単位17310と異なる参照ピクチャリスト内の参照ピクチャを示す周辺予測単位の動きベクトルを、予測動きベクトル候補に付加することができる。
例えば、空間的予測動きベクトル候補生成部1510は、イントラ予測されたA0 1735予測単位は除外し、A1 1736の動きベクトルmvL1_A1を、現在ピクチャ1730と、現在予測単位1731の動きベクトルmvL0_curが示すL0R0ピクチャ1720との時間的距離;及び現在ピクチャ1730と、A1 1736の動きベクトルmvL1_A1が示すL1R0ピクチャ1740との時間的距離;を考慮してスケーリングし、スケーリングされた動きベクトルmvL1_A1’を、第1空間的予測動きベクトル候補として決定することができる。
また、空間的予測動きベクトル候補生成部1510は、第2空間的予測動きベクトル候補として、他の参照ピクチャリスト内の参照ピクチャであるL1R1ピクチャ1750を示すB1 1733の動きベクトルmvL1_B1の代わりに、現在予測単位1731の動きベクトルmvL0_curと同一の参照ピクチャリスト内の他の参照インデックスを有する参照ピクチャであるL0R1ピクチャ1710を示すB2 1734の動きベクトルmvL0_B2をスケーリングし、第2空間的予測動きベクトル候補として決定する。すなわち、空間的予測動きベクトル候補生成部1510は、スケーリングする周辺予測単位の動きベクトルを決定するとき、現在予測単位の動きベクトルと同一の参照ピクチャリストに含まれた参照ピクチャを示す周辺予測単位の動きベクトルをまず決定した後、同一の参照ピクチャリストに含まれた参照ピクチャを示す周辺予測単位の動きベクトルが存在しない場合には、他の参照ピクチャリストに含まれた参照ピクチャを示す周辺予測単位の動きベクトルを、スケーリングする動きベクトルとして決定する。空間的予測動きベクトル候補生成部1510は、B2 1734の動きベクトルmvL0_B2を、現在ピクチャ1730と、現在予測単位1731の動きベクトルmvL0_curが示すL0R0ピクチャ1720との時間的距離;及び現在ピクチャ1730と、B2 1734の動きベクトルmvL0_B2が示すL0R1ピクチャ1710との時間的距離;を考慮してスケーリングし、スケーリングされた動きベクトルmvL0_B2’を、第2空間的予測動きベクトル候補として決定することができる。
一方、そのようなスケーリングされた動きベクトルを、空間的予測動きベクトル候補に含めるか否かということは、特定条件を考慮して決定される。例えば、空間的予測動きベクトル候補生成部1510は、現在予測単位の左側に隣接した周辺予測単位(A0及びA1)のうちいずれか一つがイントラ予測された場合にのみ、B0、B1及びB2のうちインター予測された予測単位の動きベクトルをスケーリングし、第2空間的予測動きベクトル候補に含める。言い替えれば、スケーリングされた動きベクトルを、空間的予測動きベクトル候補に含めるか否かということは、既設定の特定条件を満足させるか否かによって選択的に行われる。特定条件は、設計可能な事項であり、前述の例に限定されるものではなく、多様な方式で設定される。
図18は、本発明の一実施形態によって、周辺予測単位の動きベクトルをスケーリングし、現在予測単位の予測動きベクトル候補を生成する方式について説明するための参照図である。
前述のように、現在予測単位の周辺予測単位のうち、現在予測単位と同一の動きベクトル、すなわち、同一参照ピクチャリスト内に存在する同一参照インデックスを有する参照ピクチャを示す動きベクトルが存在しない場合、同一参照ピクチャリスト内の他の参照ピクチャを参照する周辺予測単位(図18で、Bn予測単位)の動きベクトルMV(Bn)をスケーリングしたり、あるいは他の参照ピクチャリスト内の参照ピクチャを参照する周辺予測単位(図18で、An予測単位)の動きベクトルMV(An)をスケーリングし、現在予測単位の予測動きベクトル候補に付加することができる。具体的には、現在ピクチャと、現在予測単位の動きベクトルMVL0_curが示す参照ピクチャ(L0R0ピクチャ)との時間的距離をd(cur)とし、現在ピクチャと、Bn予測単位の動きベクトルMV(Bn)が示す参照ピクチャ(L0R1ピクチャ)との時間的距離をd(Bn)とすれば、Bn予測単位の動きベクトルMV(Bn)は、次の数式:MV(Bn)’=MV(Bn)*{d(cur)/d(Bn)}のようにスケーリングされ、スケーリングされた動きベクトルMV(Bn)’は、現在予測単位の予測動きベクトル候補に付加される。同様に、現在ピクチャと、An予測単位の動きベクトルMV(An)が示す参照ピクチャ(L1R1ピクチャ)との時間的距離をd(An)とすれば、An予測単位の動きベクトルMV(An)は、次の数式:MV(An)’=MV(An)*{d(cur)/d(An)}のようにスケーリングされ、スケーリングされた動きベクトルMV(An)’は、現在予測単位の予測動きベクトル候補に付加される。
再び図15を参照すれば、重複除去部1530は、第1空間的予測動きベクトル候補と、第2空間的予測動きベクトル候補との同一性いかんを判断し、第1空間的予測動きベクトル候補と、第2空間的予測動きベクトル候補とが同一である場合、重複する第2空間的予測動きベクトル候補を、予測動きベクトル候補から除去することにより、第1空間的予測動きベクトルのみを予測動きベクトル候補に含め、第1空間的予測動きベクトル候補と、第2空間的予測動きベクトル候補とが同一ではない場合には、第1空間的予測動きベクトル候補と、第2空間的予測動きベクトル候補とをいずれも予測動きベクトル候補として維持する。
時間的予測動きベクトル候補生成部1520は、現在予測単位と時間的に関連した予測単位、すなわち、以前に符号化された以前ピクチャの予測単位のうち、現在予測単位の位置を基準に、関連した(collocated)予測単位の動きベクトルを利用して生成された時間的予測動きベクトルを、予測動きベクトル候補に付加する。
図19は、本発明の一実施形態による時間的予測動きベクトルを生成する過程について説明するための参照図である。
図15及び図19を参照すれば、時間的予測動きベクトル候補生成部1520は、現在ピクチャ1910以前に符号化された参照ピクチャ1920の予測単位のうち、現在予測単位1911と同一の位置の参照ピクチャ1920の予測単位1921の右側下端に位置した予測単位1924が有する動きベクトルをスケーリングし、時間的予測動きベクトルを生成し、生成された時間的予測動きベクトルを、予測動きベクトル候補に付加する。時間的予測動きベクトルのスケーリング過程は、前述の図18のように、右側下端の予測単位1924の動きベクトルが示す参照ピクチャと、現在予測単位の動きベクトルが示す参照ピクチャとの時間的距離に基づいて行われる。
もし右側下端に位置した予測単位1924がイントラ予測され、動きベクトルが利用可能ではない場合、時間的予測動きベクトル候補生成部1520は、現在予測単位1911の中心位置のポイントC 1912と同一位置の参照ピクチャ1920のポイントC’1922を含む予測単位1921の動きベクトルをスケーリングし、時間的予測動きベクトルを生成することができる。
重複除去部1530を介してリダンダンシー(重複性)が除去された予測動きベクトル候補に含まれた予測動きベクトルの個数は、固定されたn個に至らないことがある。前述の例で、現在予測単位の上側または左側に隣接した周辺予測単位がいずれもイントラ予測された場合、空間的予測動きベクトル候補生成部1510及び時間的予測動き候補生成部1520を介してn個未満の予測動きベクトル候補だけが生成される。
最終予測動きベクトル候補生成部1540は、重複が除去された予測動きベクトル候補に含まれた動きベクトルの個数が、あらかじめ固定されたn個より少ない場合、予測動きベクトル候補に含まれた動きベクトルの個数がn個になるまで、既定の成分値を有する所定動きベクトルを、予測動きベクトル候補に付加したり、あるいは基本予測動きベクトルの値を変更した予測動きベクトルを、予測動きベクトル候補に付加する。ここで所定動きベクトルは、各成分値が0である値を有するゼロベクトルであることが望ましい。例えば、n=2とし、時空間的予測動きベクトルのリダンダンシーを除去した予測動きベクトル候補が、ただ1個の予測動きベクトル候補のみを有する場合、最終予測動きベクトル候補生成部1540は、(0,0)のゼロベクトルを予測動きベクトル候補に付加する。
図20A及び図20Bは、本発明の一実施形態によって、現在予測単位の予測動きベクトルを示すインデックス情報の一例を示した図面である。図20A及び図20Bで、n=2、すなわち、予測動きベクトル候補に含まれなければならない予測動きベクトルの個数が2個である場合、予測動きベクトル候補に含まれた予測動きベクトルごとに設定されるインデックス(AMVP_idx)を示したものである。
図20Aでは、現在予測単位の予測動きベクトルとして、L0方向の予測動きベクトル候補に設定されたインデックスを示し、図20Bでは、L1方向の予測動きベクトル候補に設定されたインデックスを示す。図示されているように、n=2である場合、予測動きベクトル候補mvLX_Cand0,mvLX_Cand1(Xは、0または1)それぞれに対して、0ないし1の予測動きベクトル・インデックス(AMVP_idx)が割り当てられ、現在予測単位の予測動きベクトルに割り当てられたインデックスが、現在予測単位の動きベクトル情報として符号化される。
予測動きベクトル・インデックス(AMVP_idx)は、現在予測単位と時空間的に関連した予測単位が有する動きベクトルを利用して獲得された予測動きベクトル候補には、小さな値(value)を割り当て、基本予測動きベクトル候補を変更したり、あるいはゼロベクトルのように、全体予測動きベクトル候補の個数がn個になるように付加した代案的予測動きベクトルには、時空間的予測動きベクトル候補に割り当てられたインデックスの次の値を有するインデックスを割り当てることが望ましい。また、予測動きベクトル・インデックス(AMVP_idx)は、切削型単項二進符号化(truncated unary binarization)を介して符号化される。
このように、AMVPモードでは、固定されたn個の予測動きベクトル候補を生成し、n個の予測動きベクトル候補ごとに、0から(n−1)までの予測動きベクトル・インデックス(AMVP_idx)を割り当て、現在予測単位の動きベクトル情報として、現在予測単位の動きベクトルの予測に利用された予測動きベクトル候補を示す予測動きベクトル・インデックス(AMVP_idx)、予測動きベクトルと、原動きベクトルとの差値、参照ピクチャ情報及び予測方向情報が符号化されて復号化側に伝送される。
II.併合モードによる動き情報の符号化
併合モードは、現在予測単位の動き情報を、併合候補に含まれた予測単位の動き情報を利用して符号化するモードであり、併合モードいかんを示すフラグ(merge flag)、及び動き情報を持ってくる併合候補のうち一つを示すインデックス(merge index)を復号化側に伝送する。
図14Bは、本発明の他の実施形態による動き情報符号化装置の構成を示したブロック図である。図14Bを参照すれば、動き情報符号化装置1450は、併合候補生成部1460及び動き情報符号化部1470を含む。
併合候補生成部1460は、まず、現在予測単位の周辺予測単位を検索し、各周辺予測単位が有する動き情報を利用して、併合候補を生成する。検索される時空間的に関連した周辺予測単位は、前述のAMVPモードで、予測動きベクトル候補を生成するために検索される予測単位と類似している。ただし、併合モードにおいて、空間的に関連した周辺予測単位の検索順序において、AMVPモードと若干の違いがある。具体的には、図14B及び図16を参照すれば、併合候補生成部1460は、A1 1622→B1 1632→B0 1631→A0 1621→B2 1633の順序で、周辺予測単位を検索し、各周辺予測単位の動き情報を併合候補に含めるか否かをチェックする。併合候補生成部1460は、前記順序で各予測単位を検索し、他のパーティションに含まれた予測単位を除去したり、あるいは重複する動き情報を有する予測単位を除去し、残っている予測単位の動き情報を利用して併合候補を生成する。特に、併合候補生成部1460は、常に固定された個数n(nは、整数)個の併合候補を生成する。もし併合候補に含まれた動き情報の個数が、所定個数nより少ない場合、併合候補生成部1460は、併合候補に含まれた動き情報の個数がnになるように、代案的併合候補を併合候補に付加することにより、全体n個の併合候補を生成する。後述のように、代案的併合候補は、時間的予測動きベクトルの生成に利用される予測単位の動き情報、またはゼロベクトルを利用した動き情報が利用される。
動き情報符号化部1470は、n個の併合候補のうち、現在予測単位の動き情報として利用する併合候補を決定し、決定された併合候補を示すインデックス(merge index)、及び併合モードを示すフラグ(merge flag)を符号化する。
図21A及び図21Bは、本発明の一実施形態によって、併合候補から除去される周辺予測単位について説明するための参照図である。
図21Aを参照すれば、PU0 2110及びPU1 2120は、1つの符号化単位2100に含まれた予測単位であると仮定する。PU1 2120は、符号化単位2100の最初予測単位ではないので、PU1 2120の併合候補生成時には、PU0 2110に含まれた予測単位であるA1 2115の動き情報は、併合候補から除外される。A1 2115を除外した残りの周辺予測単位B1,B0,A0,B2の動き情報は、併合候補に含まれる。周辺予測単位B1,B0,A0,B2において、動き情報を有さない予測単位は、併合候補から除外される。
同様に、図21Bを参照すれば、PU0 2140及びPU1 2150は、1つの符号化単位2130に含まれた予測単位であると仮定する。PU1 2150は、符号化単位2130の最初の予測単位ではないので、PU1 2150の併合候補生成時には、PU0 2140に含まれた予測単位であるB1の動き情報は、併合候補から除外され、残りの周辺予測単位A1,B0,A0,B2の動き情報が併合候補に含まれる。
併合候補生成部1460は、現在予測単位を基準に、A1,B1,B0,A0,B2の動き情報利用可能性、他のパーティションに含まれるか否かということなどを基準に、併合候補を生成した後、併合候補に含まれた候補に存在する動き情報のリダンダンシーを除去する。
図22は、本発明の一実施形態によって、併合候補に含まれた動き情報のリダンダンシーを除去する過程について説明するための参照図である。
図16及び図22を参照すれば、併合候補生成部1460は、まず第一に検索されるA1予測単位の動き情報が併合候補に含まれた場合、A1予測単位の動き情報は、併合候補にそのまま維持する。併合候補生成部1460は、図示された矢印方向に沿って、動き情報のリダンダンシーをチェックする。例えば、併合候補生成部1460は、B1予測単位の動き情報と、A1予測単位の動き情報とを比較し、両者が重複する場合、B1予測単位の動き情報を併合候補から除去する。また、併合候補生成部1460は、B1予測単位の動き情報と、A1予測単位の動き情報とを比較し、重複する場合、B1予測単位の動き情報を併合候補から除去する。同様に、併合候補生成部1460は、B0予測単位が、B1予測単位と同一の動き情報を含む場合、B0予測単位の動き情報を併合候補から除去し、A0予測単位が、A1予測単位と同一の動き情報を有する場合、A0予測単位の動き情報を併合候補から除去し、B2予測単位が、B1予測単位またはA1予測単位のうちいずれか一つと同一の動き情報を有する場合、B2予測単位の動き情報を、併合候補から除去することにより、併合候補に存在する動き情報のリダンダンシーを除去する。
また、併合候補生成部1460は、前述の図19に図示されているように、AMVPモードで、時間的予測動きベクトル候補を生成するのに利用される予測単位1921,1924の動き情報を併合候補に含めることができる。
併合候補生成部1460は、周辺予測単位または時間的予測動きベクトル候補を生成するのに利用された予測単位の動き情報を含む併合候補の個数が、固定されたn個を超える場合、前側からn個の併合候補を選択することができる。併合候補生成部1460は、併合候補の個数が、固定されたn個未満である場合、代案的併合候補を併合候補に付加する。
図23ないし図25は、本発明の一実施形態によって、代案的併合候補を併合候補に付加する過程について説明するための参照図である。
図23を参照すれば、周辺予測単位の動き情報、または時間的予測動きベクトルの決定に利用される予測単位の動き情報などを介して生成された原併合候補は、参照番号2300のようであると仮定する。Bスライスの双予測される予測単位の動き情報の符号化のために、併合候補生成部1460は、原併合候補に含まれた動き情報2311,2312を結合し、双予測される動き情報2313を、新たに原併合候補2300に付加することにより、更新された併合候補2310を生成することができる。もし現在予測単位が、参照ピクチャリストlist 0内のref0の参照インデックスを有する参照ピクチャ、及び参照ピクチャリストlist 1内のref0の参照インデックスを有する参照ピクチャを利用して双予測された場合、そのような現在予測単位の動き情報として、Merge_idx=3の値を符号化すればよい。復号化側では、符号化側と同一の方式で、併合候補を生成して更新した後、ビットストリームに含まれたmerge index情報を利用して、現在予測単位の動き情報を決定し、決定された動き情報を利用して、現在予測単位の予測値を生成することができる。
図24を参照すれば、周辺予測単位の動き情報、または時間的予測動きベクトルの決定に利用される予測単位の動き情報などを介して生成された原併合候補は、参照番号2400のようであると仮定する。Bスライスの双予測される予測単位の動き情報の符号化のために、併合候補生成部1460は、原併合候補に含まれた動き情報2411,2412をスケーリングし、双予測される動き情報2413,2414を、新たに原併合候補2400に付加することにより、更新された併合候補2410を生成することができる。例えば、併合候補生成部1460は、Merge_idx=0に該当する動き情報2411に含まれた動きベクトルmvL0_Aをスケーリングし、他の参照ピクチャリスト内に含まれた同一の参照インデックスを有する参照ピクチャ(L1R1)を示す動き情報2413を生成することができる。
図25を参照すれば、周辺予測単位の動き情報、または時間的予測動きベクトルの決定に利用される予測単位の動き情報などを介して生成された原併合候補は、参照番号2500のようであると仮定する。Bスライスの双予測される予測単位の動き情報の符号化のために、併合候補生成部1460は、原併合候補に含まれた動き情報の参照ピクチャ情報は、そのまま維持したまま、ゼロベクトルを有する動き情報2511,2512を、新たに原併合候補2500に付加することにより、更新された併合候補2510を生成することができる。
このように、併合候補生成部1460は、原併合候補に含まれた動き情報を結合したり、動きベクトルをスケーリングしたり、あるいはゼロベクトルを有する動き情報を付加することにより、併合候補に含まれた動き情報がn個になるようにする。
このように、n個の動き情報が含まれた併合候補が生成されれば、動き情報符号化部1470は、n個の動き情報ごとに、0から(n−1)までの併合インデックス(merge index)を設定し、現在予測単位の符号化に利用される動き情報を示す併合インデックス(merge index)、及び併合モードの適用いかんを示すフラグ(merge flag)を現在予測単位の動き情報として符号化する。
図26は、本発明の一実施形態による動き情報符号化方法のフローチャートである。図26を参照すれば、段階2610で、動き予測部420は、現在予測単位に係わる動き予測を行い、現在予測単位に係わる動きベクトルを獲得する。
段階2620で、予測動きベクトル候補生成部1410は、現在予測単位と時間的に関連した予測単位、及び空間的に関連した予測単位が有する動きベクトルを利用して、予測動きベクトル候補を獲得する。前述の図16に図示されているように、予測動きベクトル候補生成部1410は、左側に隣接した予測単位A0,A1、及び上側に隣接した予測単位B0,B1,B2の動きベクトルの利用可能性をチェックし、利用可能な周辺予測単位の動きベクトルを、予測動きベクトル候補に含める。前述のように、利用可能な周辺予測単位の動きベクトルが存在しない場合、インター予測された周辺予測単位の動きベクトルをスケーリングした動きベクトルを、予測動きベクトル候補に含めることができる。
段階2630で、予測動きベクトル候補生成部1410は、予測動きベクトル候補に含まれた動きベクトルの個数が、所定個数n(nは、整数)より少ない場合、予測動きベクトル候補に含まれた動きベクトルの個数がnになるように、代案的予測動きベクトルを、予測動きベクトル候補に付加する。前述のように、代案的予測動きベクトルとして、基本予測動きベクトルを変更した動きベクトルまたはゼロベクトルを利用することができる。
段階2640で、動きベクトル符号化部1420は、n個の予測動きベクトル候補のうち、現在予測単位に係わる動きベクトルの予測動きベクトルを決定し、段階2650で、動きベクトル符号化部1420は、予測動きベクトルを示すインデックス情報(AMVP_idx)を、現在予測単位の動きベクトル情報として符号化する。さらに、AMVPモードでは、予測動きベクトルを示すインデックス情報(AMVP_idx)以外に、予測動きベクトルと、現在予測単位の実際動きベクトルとの差値、参照ピクチャ情報及び予測方向に係わる情報が伝送される。
一方、図14Aの動き情報符号化装置1400の予測動き候補生成部1410は、複雑度を低減させるために、代案的予測動きベクトルを候補群に含めるとき、リダンダンシーチェックを減少させることができる。
また、前述の本発明の一実施形態では、符号化側と復号化側とで、あらかじめ固定されたn個の予測動き候補を利用する場合を仮定したが、それに限定されるものではなく、予測動き候補の個数は、SPS(sequence parameter set)、PPS(picture parameter set)またはスライスヘッダに付加されて伝送される。また、予測動き候補の個数は、現在予測単位に、以前に処理された周辺予測単位のうち、インター予測されて動きベクトルを有する予測単位の個数(A)を利用して適応的に決定されるか、あるいはAと、あらかじめ固定されたnとの値のうち小さい値になるように設定される。
III.AMVPモードでの動き情報の復号化
前述のように、現在予測単位の動き情報が、AMVPモードを介して符号化された場合、併合モードに該当するか否かを示すフラグ(merge flag)は、0に設定される。復号化側では、併合モードに該当するか否かを示すフラグ(merge flag)が0に設定された場合、現在予測単位の動き情報が、AMVPモードで符号化されたと判断し、ビットストリームから、現在予測単位の予測動きベクトル・インデックス(AMVP_idx)、予測動きベクトルと原動きベクトルとの差値、参照ピクチャ情報及び予測方向情報を獲得する。
図27Aは、本発明の一実施形態による動きベクトル復号化装置の構成を示したブロック図である。図27Aを参照すれば、動きベクトル復号化装置2700は、エントロピ復号化部2710、予測動きベクトル候補生成部2720及び動きベクトル復号化部2730を含む。
エントロピ復号化部2710は、ビットストリームから、現在予測単位の予測動きベクトル・インデックス(AMVP_idx)、予測動きベクトルと原動きベクトルとの差値、参照ピクチャ情報及び予測方向情報を獲得する。
予測動きベクトル候補生成部2720は、前述の図14Aの予測動きベクトル候補生成部1410と同一に、現在予測単位の周辺予測単位が有する動きベクトルを利用して、予測動きベクトル候補を獲得し、予測動きベクトル候補に含まれた動きベクトルの個数が、所定個数n(nは、整数)より少ない場合、予測動きベクトル候補に含まれた動きベクトルの個数がnになるように、代案的予測動きベクトルを予測動きベクトル候補に付加する。
動きベクトル復号化部2730は、ビットストリームから獲得された現在予測単位の予測動きベクトル・インデックス(AMVP_idx)を利用して、予測動きベクトル候補生成部2720で生成された予測動きベクトル候補のうち、1つの予測動きベクトルを獲得する。そして、動きベクトル復号化部2730は、ビットストリームから獲得された予測動きベクトルと原動きベクトルとの差値を、予測動きベクトルと加算し、現在予測単位の動きベクトルを復元する。
IV.併合モードでの動き情報の復号化
前述のように、現在予測単位の動き情報が、周辺予測単位の動き情報を、そのまま現在予測単位の動き情報として利用する併合(merge)モードとして符号化された場合、符号化側では併合モードいかんを示すフラグ(merge flag)を1に設定し、併合モードいかんを示すフラグ(merge flag)、及び動き情報を持ってくる併合候補のうち一つを示すインデックス(merge index)を復号化側に伝送する。復号化側では、併合モードいかんを示すフラグ(merge flag)が1に設定された場合、現在予測単位の動き情報が併合モードで符号化されたと判断し、ビットストリームから、動き情報を持ってくる併合候補のうち一つを示すインデックス(merge index)を獲得し、merge indexを利用して決定された併合候補の動き情報、すなわち、周辺予測単位の動きベクトル、参照ピクチャ情報及び予測方向情報を、現在予測単位の動き情報として利用する。
図27Bは、本発明の一実施形態による動き情報復号化装置の構成を示したブロック図である。図27Bを参照すれば、動き情報復号化装置2750は、エントロピ復号化部(2760)、併合候補生成部2770及び動きベクトル復号化部2780を含む。
エントロピ復号化部2760は、ビットストリームから、併合モードいかんを示すフラグ(merge flag)、及び動き情報を持ってくる併合候補のうち一つを示すインデックス(merge index)を獲得する。
予測動きベクトル候補生成部2720は、前述の図14Bの併合候補生成部1460と同一に、現在予測単位の周辺予測単位を検索し、各周辺予測単位が有する動き情報、視覚的予測動きベクトルの決定に利用される予測単位の動き情報、原併合候補に含まれた動き情報を結合したり、動きベクトルをスケーリングしたり、あるいはゼロベクトルを有する動き情報を付加することにより、n個の動き情報を含む併合候補を生成する。
動き情報復号化部2780は、n個の動き情報が含まれた併合候補が生成されれば、ビットストリームから獲得された併合候補のうち一つを示すインデックス(merge index)が示す併合候補の動き情報を利用して、現在予測単位の動き情報を設定する。併合モードの場合、AMVPモードと異なり、併合候補に含まれた動きベクトルがそのまま現在予測単位の動きベクトルに利用される。
図28は、本発明の一実施形態による動きベクトル復号化方法を示したフローチャートである。図28を参照すれば、段階2810で、予測動きベクトル候補生成部2720は、現在予測単位と時間的に関連した予測単位、及び空間的に関連した予測単位が有する動きベクトルを利用して、予測動きベクトル候補を獲得する。前述のように、予測動きベクトル候補生成部2720は、図14の予測動きベクトル候補生成部1410と同一の方式で、予測動きベクトル候補を生成する。
段階2820で、予測動きベクトル候補生成部2720は、予測動きベクトル候補に含まれた動きベクトルの個数が、所定個数n(nは、整数)より少ない場合、前記予測動きベクトル候補に含まれた動きベクトルの個数が、前記所定個数nになるように、代案的予測動きベクトルを、前記予測動きベクトル候補に付加する。前述のように、あらかじめ固定されたn個の予測動きベクトル候補の生成は、予測動きベクトル候補を示すインデックス(AMVP_idx)が変更されず、周辺情報なしに独立した処理を可能にするためのものである。
段階2830で、エントロピ復号化部2710は、ビットストリームから、予測動きベクトル候補のうち、現在予測単位に適用された予測動きベクトルを示すインデックスを獲得する。
段階2840で、動きベクトル復号化部2730は、獲得されたインデックスが示す予測動きベクトルを利用して、現在予測単位の動きベクトルを復元する。具体的には、動きベクトル復号化部2730は、ビットストリームに含まれた予測動きベクトル候補を示すインデックス(AMVP_idx)を利用して決定された予測動きベクトルと、ビットストリームに含まれた予測動きベクトルと、原動きベクトルとの差値を加算し、現在予測単位の動きベクトルを復元する。前述のように、AMVPモードでは、そのような動きベクトルについての情報以外に、ビットストリームに、参照ピクチャ情報及び予測方向についての情報がさらに含まれている。併合モードでは、併合候補に含まれた動き情報をそのまま利用して、現在予測単位の動き情報が復元される。
本発明はまた、コンピュータで読み取り可能な記録媒体に、コンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータ・システムによって読み取り可能なデータが保存される全ての種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(read-only memory)、RAM(random-access memory)、CD(compact disc)−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などが含まれる。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータ・システムに分散され、分散方式で、コンピュータで読み取り可能なコードに保存されて実行される。
以上、本発明についてその望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が本発明の本質的な特性から外れない範囲で変形された形態に具現されるということを理解することができるであろう。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、本発明に含まれたものであると解釈されなければならないものである。

Claims (15)

  1. 動き情報の符号化方法において、
    現在予測単位に係わる動き予測を行い、前記現在予測単位に係わる動き情報を獲得する段階と、
    前記現在予測単位と時間的に関連した予測単位及び空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得する段階と、
    前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する段階と、
    前記n個の動き情報候補のうち、前記現在予測単位に係わる動き情報を決定する段階と、
    前記動き情報を示すインデックス情報を、前記現在予測単位の動き情報として符号化する段階と、を含むことを特徴とする動き情報の符号化方法。
  2. 前記現在予測単位に空間的に関連した周辺予測単位は、前記現在予測単位の左下側に位置した周辺予測単位(A0)、及び前記左下側に位置した周辺予測単位(A0)の上側に位置した周辺予測単位(A1)と、
    前記現在予測単位の右上側に位置した周辺予測単位(B0)、前記右上側に位置した周辺予測単位(B0)の左側に位置した周辺予測単位(B1)、及び前記現在予測単位の左上側に位置した周辺予測単位(B2)と、を含むことを特徴とする請求項1に記載の動き情報の符号化方法。
  3. 前記代案的動き情報は、
    既定の成分値を有する所定動きベクトルを含むことを特徴とする請求項1に記載の動き情報の符号化方法。
  4. 前記代案的動き情報は、前記獲得された時間的に関連した予測単位または空間的に関連した予測単位が有する動き情報を変更して生成されることを特徴とする請求項1に記載の動き情報の符号化方法。
  5. 前記代案的動き情報は、
    前記時間的に関連した予測単位または空間的に関連した予測単位が有する動きベクトルをスケーリングした動きベクトルを含むことを特徴とする請求項1に記載の動き情報の符号化方法。
  6. 前記符号化する段階は、
    前記n個の動き情報候補それぞれに対して、0から(n−1)までのインデックスを割り当てる段階と、
    前記現在予測単位の動き情報に利用される動き情報に割り当てられたインデックスを、前記現在予測単位の動き情報として符号化する段階と、を含むことを特徴とする請求項1に記載の動き情報の符号化方法。
  7. 前記動き情報候補に含まれた動き情報の個数であるnを、SPS(sequence parameter set)、PPS(picture parameter set)及びスライスヘッダのうち少なくとも一つに付加することを特徴とする請求項1に記載の動き情報の符号化方法。
  8. 動きベクトルの復号化方法において、
    現在予測単位と時間的に関連した予測単位及び空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得する段階と、
    前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する段階と、
    ビットストリームから、前記動き情報候補のうち、1つの動き情報を示すインデックスを獲得する段階と、
    前記獲得されたインデックスが示す動き情報を利用して、前記現在予測単位の動き情報を獲得する段階と、を含むことを特徴とする動き情報の復号化方法。
  9. 前記現在予測単位に空間的に関連した予測単位は、前記現在予測単位の左下側に位置した周辺予測単位(A0)、及び前記左下側に位置した周辺予測単位(A0)の上側に位置した周辺予測単位(A1)と、
    前記現在予測単位の右上側に位置した周辺予測単位(B0)、前記右上側に位置した周辺予測単位(B0)の左側に位置した周辺予測単位(B1)、及び前記現在予測単位の左上側に位置した周辺予測単位(B2)と、を含むことを特徴とする請求項8に記載の動き情報の復号化方法。
  10. 前記代案的予測動きベクトルは、
    既定の成分値を有する所定動きベクトルを含むことを特徴とする請求項8に記載の動き情報の復号化方法。
  11. 前記代案的動き情報は、前記獲得された時間的に関連した予測単位または空間的に関連した予測単位が有する動き情報を変更して生成されることを特徴とする請求項8に記載の動き情報の復号化方法。
  12. 前記代案的動き情報は、
    前記時間的に関連した予測単位及び空間的に関連した予測単位が有する動きベクトルをスケーリングした動きベクトルを含むことを特徴とする請求項8に記載の動き情報の復号化方法。
  13. 前記現在予測単位の動き情報を獲得する段階は、
    前記n個の動き情報候補それぞれに対して、0から(n−1)まで割り当てられたインデックスと、前記獲得された現在予測単位の動き情報のインデックスと、を利用して、前記動き情報候補のうち、前記現在予測単位の動き情報を獲得することを特徴とする請求項8に記載の動き情報の復号化方法。
  14. 前記動き情報候補に含まれた動き情報の個数であるnは、SPS(sequence parameter set)、PPS(picture parameter set)及びスライスヘッダのうち少なくとも一つに含まれることを特徴とする請求項8に記載の動き情報の復号化方法。
  15. 動き情報の復号化装置において、
    現在予測単位と時間的に関連した予測単位及び空間的に関連した予測単位が有する動き情報を利用して、動き情報候補を獲得し、前記動き情報候補に含まれた動き情報の個数が、所定個数n(nは、整数)より少ない場合、前記動き情報候補に含まれた動き情報の個数が、前記所定個数nになるように、代案的動き情報を、前記動き情報候補に付加する動き情報候補生成部と、
    ビットストリームから、前記動き情報候補のうち、1つの動き情報を示すインデックスを獲得するエントロピ復号化部と、
    前記獲得されたインデックスが示す動き情報を利用して、前記現在予測単位の動き情報を獲得する動き情報復号化部と、を含むことを特徴とする動き情報の復号化装置。
JP2014515754A 2011-06-14 2012-06-14 動き情報の符号化方法及びその装置、その復号化方法及びその装置 Active JP5886950B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161496780P 2011-06-14 2011-06-14
US61/496,780 2011-06-14
PCT/KR2012/004710 WO2012173415A2 (ko) 2011-06-14 2012-06-14 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016025266A Division JP6050531B2 (ja) 2011-06-14 2016-02-12 動き情報の符号化方法及びその装置、その復号化方法及びその装置

Publications (2)

Publication Number Publication Date
JP2014520453A true JP2014520453A (ja) 2014-08-21
JP5886950B2 JP5886950B2 (ja) 2016-03-16

Family

ID=47357614

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2014515754A Active JP5886950B2 (ja) 2011-06-14 2012-06-14 動き情報の符号化方法及びその装置、その復号化方法及びその装置
JP2016025266A Active JP6050531B2 (ja) 2011-06-14 2016-02-12 動き情報の符号化方法及びその装置、その復号化方法及びその装置
JP2016228253A Active JP6298140B2 (ja) 2011-06-14 2016-11-24 映像の復号化方法
JP2018029547A Active JP6543368B2 (ja) 2011-06-14 2018-02-22 映像復号化方法、映像符号化方法及び記録媒体
JP2019111294A Active JP6835910B2 (ja) 2011-06-14 2019-06-14 映像復号化方法、映像符号化方法及び記録媒体

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2016025266A Active JP6050531B2 (ja) 2011-06-14 2016-02-12 動き情報の符号化方法及びその装置、その復号化方法及びその装置
JP2016228253A Active JP6298140B2 (ja) 2011-06-14 2016-11-24 映像の復号化方法
JP2018029547A Active JP6543368B2 (ja) 2011-06-14 2018-02-22 映像復号化方法、映像符号化方法及び記録媒体
JP2019111294A Active JP6835910B2 (ja) 2011-06-14 2019-06-14 映像復号化方法、映像符号化方法及び記録媒体

Country Status (8)

Country Link
US (5) US10264276B2 (ja)
EP (2) EP2723076A4 (ja)
JP (5) JP5886950B2 (ja)
KR (5) KR101894397B1 (ja)
CN (5) CN106803956B (ja)
AU (1) AU2012270359B2 (ja)
CA (2) CA2841921C (ja)
WO (1) WO2012173415A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014523184A (ja) * 2011-06-27 2014-09-08 サムスン エレクトロニクス カンパニー リミテッド 動き情報の符号化方法及び該装置、その復号化方法及び該装置
JP2014526838A (ja) * 2011-09-16 2014-10-06 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 予測動きベクトル誘導方法及びその方法を使用する装置

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071459B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
GB2487197B (en) * 2011-01-11 2015-06-17 Canon Kk Video encoding and decoding with improved error resilience
US9648334B2 (en) 2011-03-21 2017-05-09 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
KR101935620B1 (ko) * 2011-04-12 2019-01-04 선 페이턴트 트러스트 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호화 방법, 동화상 복호화 장치, 및 동화상 부호화 복호화 장치
SG194600A1 (en) 2011-05-24 2013-12-30 Panasonic Corp Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
EP3614665B1 (en) 2011-05-27 2022-03-23 Sun Patent Trust Apparatus, method and program for decoding moving pictures
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
ES2779226T3 (es) 2011-05-31 2020-08-14 Sun Patent Trust Procedimiento de descodificación de vídeo y dispositivo de descodificación de vídeo
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
CA2841921C (en) * 2011-06-14 2021-01-26 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
PL2728878T3 (pl) 2011-06-30 2020-06-15 Sun Patent Trust Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
MX341415B (es) 2011-08-03 2016-08-19 Panasonic Ip Corp America Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
BR112014007492B1 (pt) * 2011-09-28 2023-01-10 JVC Kenwood Corporation Dispositivo de codificação de imagem em movimento, método de codificação de imagem em movimento, dispositivo de decodificação de imagem em movimento e método de decodificação de imagem em movimento
CN104378637B (zh) 2011-10-18 2017-11-21 株式会社Kt 视频信号解码方法
CN108881903B (zh) 2011-10-19 2022-01-04 太阳专利托管公司 图像编码方法及装置、图像解码方法及装置、编解码装置
JP5942782B2 (ja) * 2011-10-31 2016-06-29 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
US20130114717A1 (en) * 2011-11-07 2013-05-09 Qualcomm Incorporated Generating additional merge candidates
TWI559747B (zh) * 2011-12-28 2016-11-21 Jvc Kenwood Corp A dynamic image coding apparatus, a motion picture coding method and a motion picture coding program, and a motion picture decoding apparatus, a motion picture decoding method, and a motion picture decoding program
CN108055547B (zh) 2012-01-19 2021-10-08 韩国电子通信研究院 用于图像编码/解码的方法和设备
US9531990B1 (en) 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
US9628790B1 (en) * 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
KR102179383B1 (ko) 2013-08-09 2020-11-16 삼성전자주식회사 병합 모드 결정 방법 및 장치
WO2015085575A1 (en) * 2013-12-13 2015-06-18 Mediatek Singapore Pte. Ltd. Methods for background residual prediction
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
CN112188207B (zh) * 2014-10-31 2023-10-20 三星电子株式会社 使用高精度跳过编码的视频编码设备和视频解码设备及其方法
JP6678357B2 (ja) * 2015-03-31 2020-04-08 リアルネットワークス,インコーポレーテッド ビデオ符号化システムにおける動きベクトルの選択及び予測方法
JP5975146B2 (ja) * 2015-05-14 2016-08-23 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
CN108432252A (zh) 2015-12-22 2018-08-21 真实网络公司 视频编码中的运动矢量选择及预测系统和方法
US11032550B2 (en) * 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US20170357322A1 (en) * 2016-06-08 2017-12-14 Mplus Co., Ltd. Terminal device on which piezo actuator module using piezo has been installed
JP6183505B2 (ja) * 2016-06-29 2017-08-23 株式会社Jvcケンウッド 動画像符号化装置
US10523934B2 (en) * 2017-05-31 2019-12-31 Mediatek Inc. Split based motion vector operation reduction
WO2019000443A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种帧间预测的方法及装置
JP6406408B2 (ja) * 2017-09-28 2018-10-17 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び、動画像復号プログラム
JP6406409B2 (ja) * 2017-09-28 2018-10-17 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び、動画像復号プログラム
US11394992B2 (en) * 2018-03-14 2022-07-19 Hfi Innovation Inc. Methods and apparatuses of generating average candidates in video coding systems
TWI723430B (zh) * 2018-06-19 2021-04-01 大陸商北京字節跳動網絡技術有限公司 不同精度的多個候選
CN112703731A (zh) * 2018-07-27 2021-04-23 三星电子株式会社 基于子块对图像进行编码的方法和装置以及对图像进行解码的方法和装置
EP3827586A1 (en) 2018-09-19 2021-06-02 Beijing Bytedance Network Technology Co. Ltd. Syntax reuse for affine mode with adaptive motion vector resolution
JP7157246B2 (ja) 2018-11-06 2022-10-19 北京字節跳動網絡技術有限公司 ジオメトリック分割を用いたインター予測のためのサイド情報信号通知方法
WO2020140862A1 (en) 2018-12-30 2020-07-09 Beijing Bytedance Network Technology Co., Ltd. Conditional application of inter prediction with geometric partitioning in video processing
US20220078407A1 (en) * 2019-01-01 2022-03-10 Lg Electronics Inc. Method and apparatus for processing video signal on basis of inter prediction
WO2020141912A1 (ko) * 2019-01-01 2020-07-09 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
KR20210121021A (ko) 2019-01-31 2021-10-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 어파인 모드 적응적 움직임 벡터 해상도 코딩 문맥
CN113545078A (zh) * 2019-03-08 2021-10-22 韩国电子通信研究院 图像编码/解码方法和设备以及用于存储比特流的记录介质
CN111698507B (zh) * 2019-03-11 2022-08-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法及列表中索引编码方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128540A2 (ko) * 2011-03-21 2012-09-27 엘지전자 주식회사 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치
WO2012140821A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
WO2012160803A1 (ja) * 2011-05-24 2012-11-29 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012164906A1 (ja) * 2011-05-31 2012-12-06 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012164924A1 (ja) * 2011-05-31 2012-12-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
WO2012164803A1 (ja) * 2011-06-02 2012-12-06 信越化学工業株式会社 多結晶シリコン棒の選択方法および単結晶シリコンの製造方法
WO2012164880A1 (ja) * 2011-05-27 2012-12-06 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5668608A (en) * 1995-07-26 1997-09-16 Daewoo Electronics Co., Ltd. Motion vector estimation method and apparatus for use in an image signal encoding system
AU1941797A (en) 1997-03-17 1998-10-12 Mitsubishi Denki Kabushiki Kaisha Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system
DE69901525T2 (de) 1998-02-13 2003-01-09 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur videokodierung
KR100727910B1 (ko) * 2000-10-11 2007-06-13 삼성전자주식회사 하이브리드형 고속 움직임 추정 방법 및 그 장치
EP1378124B1 (en) 2001-02-13 2005-06-01 Koninklijke Philips Electronics N.V. Motion information coding and decoding method
CN1838774B (zh) 2001-11-30 2011-08-17 株式会社Ntt都科摩 移动图像编码设备及方法、移动图像解码设备及方法
EP2373035B1 (en) 2001-11-30 2015-11-25 NTT DoCoMo, Inc. Moving picture encoding device, moving picture decoding device, moving picture encoding method, moving picture decoding method, program, and computer readable recording medium storing program
EP1586201A1 (en) 2003-01-10 2005-10-19 Koninklijke Philips Electronics N.V. Efficient predictive image parameter estimation
EP1618744B1 (en) * 2003-04-17 2007-09-05 Koninklijke Philips Electronics N.V. Video transcoding
US20060012719A1 (en) 2004-07-12 2006-01-19 Nokia Corporation System and method for motion prediction in scalable video coding
US8340177B2 (en) 2004-07-12 2012-12-25 Microsoft Corporation Embedded base layer codec for 3D sub-band coding
CN101023672A (zh) * 2004-07-12 2007-08-22 诺基亚公司 在可调整视频编码中用于运动预测的系统和方法
JP2006031597A (ja) 2004-07-21 2006-02-02 Shibasoku:Kk 動きベクトル検出装置
JP2006333436A (ja) 2005-01-07 2006-12-07 Ntt Docomo Inc 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム
CN100471280C (zh) 2005-01-07 2009-03-18 株式会社Ntt都科摩 运动图像编码及译码装置、方法
US20060222074A1 (en) 2005-04-01 2006-10-05 Bo Zhang Method and system for motion estimation in a video encoder
CN100473168C (zh) 2005-06-21 2009-03-25 中国科学院计算技术研究所 视频编码的运动矢量空间预测方法
KR101174901B1 (ko) * 2005-11-28 2012-08-17 세종대학교산학협력단 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법
WO2009115901A2 (en) 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
KR101364195B1 (ko) * 2008-06-26 2014-02-21 에스케이텔레콤 주식회사 움직임벡터 부호화/복호화 방법 및 그 장치
CN101621320A (zh) * 2008-06-30 2010-01-06 上海华为技术有限公司 数据传输方法以及系统和终端
KR101279573B1 (ko) 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
CN101860754B (zh) 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
DK2568706T3 (en) * 2010-05-04 2019-03-11 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING A VIDEO SIGNAL
DK2897365T3 (da) * 2010-07-09 2017-02-13 Samsung Electronics Co Ltd Apparat til at afkode video ved at anvende bloksammenlægning
CN105812817B (zh) * 2010-11-23 2019-07-12 Lg电子株式会社 由编码装置和解码装置执行的间预测方法
CN102075784B (zh) * 2011-02-18 2012-11-28 中国传媒大学 一种联合考虑压缩和丢包损伤条件下的视频质量评价方法
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
ES2779226T3 (es) 2011-05-31 2020-08-14 Sun Patent Trust Procedimiento de descodificación de vídeo y dispositivo de descodificación de vídeo
CA2841921C (en) * 2011-06-14 2021-01-26 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
JP2013145971A (ja) 2012-01-13 2013-07-25 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
US9395497B2 (en) * 2012-12-13 2016-07-19 Corning Optical Communications LLC Optical port having one or more alignment features
WO2016008157A1 (en) * 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
KR102435500B1 (ko) * 2016-10-06 2022-08-23 세종대학교산학협력단 비디오 신호의 복호화 방법 및 이의 장치
US20200221077A1 (en) * 2017-09-05 2020-07-09 Lg Electronics Inc. Inter prediction mode-based image processing method and apparatus therefor
US10958934B2 (en) * 2018-07-27 2021-03-23 Tencent America LLC History-based affine merge and motion vector prediction
BR122021008241A2 (pt) * 2018-08-13 2021-05-04 Lg Electronics Inc. método de decodificação de imagem realizado por um aparelho de decodificação, método de codificação de imagem realizado por um aparelho de codificação e mídia de armazenamento legível por computador não transitória
EP3850837A4 (en) * 2018-09-17 2022-06-01 HFI Innovation Inc. METHODS AND APPARATUS COMBINING A PLURALITY OF PREDICTORS FOR BLOCK PREDICTION IN VIDEO CODING SYSTEMS
US11012687B2 (en) * 2018-10-01 2021-05-18 Tencent America LLC Method and apparatus for video coding
US11032574B2 (en) * 2018-12-31 2021-06-08 Tencent America LLC Method and apparatus for video coding
CN116866605A (zh) * 2019-01-03 2023-10-10 北京大学 视频处理方法和装置
US11140406B2 (en) * 2019-02-20 2021-10-05 Qualcomm Incorporated Signalling for merge mode with motion vector differences in video coding
CN111698506B (zh) * 2019-03-11 2022-04-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、三角预测解码方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128540A2 (ko) * 2011-03-21 2012-09-27 엘지전자 주식회사 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치
JP2014514811A (ja) * 2011-03-21 2014-06-19 エルジー エレクトロニクス インコーポレイティド 動きベクトル予測子の選択方法及び動きベクトル予測子の選択方法を利用する装置
WO2012140821A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
WO2012160803A1 (ja) * 2011-05-24 2012-11-29 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012164880A1 (ja) * 2011-05-27 2012-12-06 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012164906A1 (ja) * 2011-05-31 2012-12-06 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012164924A1 (ja) * 2011-05-31 2012-12-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
WO2012164803A1 (ja) * 2011-06-02 2012-12-06 信越化学工業株式会社 多結晶シリコン棒の選択方法および単結晶シリコンの製造方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN AND TAMMY LEE: "MVP index parsing with fixed number of candidates", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F402_r1, JPN6012064442, July 2011 (2011-07-01), pages 1 - 17, ISSN: 0003233236 *
TOSHIYASU SUGIO AND TAKAHIRO NISHI: "Parsing Robustness for Merge/AMVP", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F470_r4, JPN6012064444, July 2011 (2011-07-01), pages 1 - 15, ISSN: 0003233237 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014523184A (ja) * 2011-06-27 2014-09-08 サムスン エレクトロニクス カンパニー リミテッド 動き情報の符号化方法及び該装置、その復号化方法及び該装置
US9137543B2 (en) 2011-06-27 2015-09-15 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
US9204160B2 (en) 2011-06-27 2015-12-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
US9204162B2 (en) 2011-06-27 2015-12-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
US9253500B2 (en) 2011-06-27 2016-02-02 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
US9253501B2 (en) 2011-06-27 2016-02-02 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
US9432680B2 (en) 2011-06-27 2016-08-30 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
JP2014526838A (ja) * 2011-09-16 2014-10-06 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 予測動きベクトル誘導方法及びその方法を使用する装置

Also Published As

Publication number Publication date
JP2019198088A (ja) 2019-11-14
JP6298140B2 (ja) 2018-03-20
US10623766B2 (en) 2020-04-14
EP2723076A2 (en) 2014-04-23
JP6835910B2 (ja) 2021-02-24
WO2012173415A2 (ko) 2012-12-20
US20140140408A1 (en) 2014-05-22
US10972748B2 (en) 2021-04-06
JP2018129809A (ja) 2018-08-16
EP3182703A1 (en) 2017-06-21
CN106713910A (zh) 2017-05-24
KR20200023349A (ko) 2020-03-04
US20230179791A1 (en) 2023-06-08
EP2723076A4 (en) 2015-03-04
CN106686378B (zh) 2019-10-08
JP2016086447A (ja) 2016-05-19
KR101894397B1 (ko) 2018-09-03
CN106713910B (zh) 2019-12-10
KR102085183B1 (ko) 2020-03-05
JP6050531B2 (ja) 2016-12-21
CN106686378A (zh) 2017-05-17
KR20120138706A (ko) 2012-12-26
KR101997040B1 (ko) 2019-07-05
US10264276B2 (en) 2019-04-16
US11917191B2 (en) 2024-02-27
JP2017073807A (ja) 2017-04-13
CA3101406C (en) 2023-05-09
AU2012270359A1 (en) 2014-02-06
US20190222860A1 (en) 2019-07-18
US20200213611A1 (en) 2020-07-02
CA2841921C (en) 2021-01-26
CN106803956B (zh) 2020-05-01
AU2012270359B2 (en) 2014-10-30
KR20190079591A (ko) 2019-07-05
CN103733625B (zh) 2017-04-05
WO2012173415A3 (ko) 2013-03-28
CN103733625A (zh) 2014-04-16
CN106791834B (zh) 2020-07-10
KR102318611B1 (ko) 2021-10-28
KR102211857B1 (ko) 2021-02-03
KR20210014718A (ko) 2021-02-09
JP6543368B2 (ja) 2019-07-10
KR20180107767A (ko) 2018-10-02
CN106791834A (zh) 2017-05-31
CA2841921A1 (en) 2012-12-20
US11595684B2 (en) 2023-02-28
JP5886950B2 (ja) 2016-03-16
CA3101406A1 (en) 2012-12-20
US20210195231A1 (en) 2021-06-24
CN106803956A (zh) 2017-06-06

Similar Documents

Publication Publication Date Title
JP6298140B2 (ja) 映像の復号化方法
KR101862357B1 (ko) 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2014511645A (ja) 映像の符号化方法及びその装置、その復号化方法及びその装置
AU2015200192B2 (en) Method and apparatus for encoding motion information and method and apparatus for decoding same
AU2015203681A1 (en) Method and apparatus for encoding motion information and method and apparatus for decoding same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160212

R150 Certificate of patent or registration of utility model

Ref document number: 5886950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250