JP2017063468A - ビデオ符号化方法、ビデオ復号化方法及びその装置 - Google Patents

ビデオ符号化方法、ビデオ復号化方法及びその装置 Download PDF

Info

Publication number
JP2017063468A
JP2017063468A JP2016221865A JP2016221865A JP2017063468A JP 2017063468 A JP2017063468 A JP 2017063468A JP 2016221865 A JP2016221865 A JP 2016221865A JP 2016221865 A JP2016221865 A JP 2016221865A JP 2017063468 A JP2017063468 A JP 2017063468A
Authority
JP
Japan
Prior art keywords
unit
coding
prediction
size
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016221865A
Other languages
English (en)
Inventor
アルシナ,エレナ
Alshina Elena
チェン,ジアンル
Jianle Chen
ハン,ウ−ジン
Woo-Jin Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2017063468A publication Critical patent/JP2017063468A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

【課題】ビデオ符号化方法、ビデオ復号化方法及びその装置を提供する。【解決手段】方法は、現在予測単位のサイズが所定サイズの場合、現在予測単位の所定の動き予測モード情報を獲得する段階と、現在予測単位のサイズが所定サイズでない場合、現在予測単位の所定の動き予測モード情報を獲得する段階と、獲得された動き予測モード情報によって、現在予測単位の参照ピクチャを決定する段階と、現在予測単位の動きベクトルを用いて、参照ピクチャ内の参照サブピクセルの位置を決定する段階と、参照サブピクセルの上側に存在する隣接サブピクセルを用いて、参照サブピクセルのピクセル値を生成する段階と、参照サブピクセルを含む現在予測単位の予測ブロックを生成する段階と、を含む。【選択図】図28

Description

本発明は、ビデオの符号化及び復号化に係り、さらに具体的には、動き補償過程で、参照フレームのデータを読み取るためのメモリアクセスを減少させるビデオの符号化及び復号化に関する。
ビデオを符号化するために、1つのピクチャをマクロブロックのような所定データ単位に分割する。そして、インター予測(inter prediction)またはイントラ予測(intra prediction)を利用して、それぞれのマクロブロックを予測符号化する。
インター予測は、ピクチャ間の時間的な重複性(temporal redundancy)を除去して映像を圧縮する方法であり、動き予測及び動き補償を利用する。動き予測は、少なくとも1つの参照ピクチャを利用して、現在ピクチャのブロックを予測する。動き予測及び動き補償は、所定の評価関数を利用して、現在ブロックと最も類似した参照ブロックを所定の検索範囲で検索し、検索された現在ブロックと最も類似した参照ブロックのデータを読み取る過程である。動き予測及び動き補償をさらに正確に行うために、参照ピクチャの検索範囲に対して補間を行い、整数ピクセル間のサブピクセルを生成し、生成されたサブピクセル精度を有する参照ピクチャに基づいて、動き予測及び動き補償が行われる。サブピクセル正確度で動き予測及び動き補償を行うためには、参照ピクチャのデータを補間する過程が必要である。
従来技術によれば、所定タップ数を有するFIR(finite impulse response)フィルタを利用して、補間を行う。NタップFIRフィルタは、N個の周辺整数ピクセルを利用して、サブピクセルを補間する。NタップFIRフィルタ補間過程で、1つのサブピクセルを補間するために、メモリからN個の参照ピクセルを読み取る必要がある。もし動きベクトルの水平成分及び垂直成分がいずれもサブピクセル正確度を有する場合、水平方向及び垂直方向に、二次元補間過程が必要であるので、メモリアクセス回数が増加する。また、単方向(uni-directional)動き予測に必要なメモリアクセス回数に比べ、双方向(bi-directional)動き予測に必要なメモリアクセス回数は、2個の参照ピクチャを利用するので、2倍になる。
本発明が解決する技術的課題は、動き予測及び動き補償の過程で、参照データを読み取るためのメモリアクセスを減少させるビデオ符号化方法、ビデオ復号化方法及びその装置を提供することである。
本発明の一実施形態によるビデオ符号化方法は、符号化される現在予測単位の大きさに基づいて、前記現在予測単位の動き予測及び動き補償に適用される単方向動き予測モード、並びに双方向動き予測モードの利用いかんを決定する段階と、前記単方向動き予測モード及び双方向動き予測モードの利用いかんにより、前記単方向動き予測モード及び双方向動き予測モードのうち少なくとも1つの動き予測モードを適用し、前記現在予測単位に対する動き予測及び動き補償を行う段階と、前記動き予測及び動き補償を介して獲得された前記現在予測単位の符号化コストに基づいて、前記現在予測単位の動き予測モードを決定する段階と、前記現在予測単位の大きさに基づいて、前記決定された動き予測モード情報を符号化する段階と、を含むことを特徴とする。
本発明の一実施形態によるビデオ符号化装置は、符号化される現在予測単位の大きさに基づいて、前記現在予測単位の動き予測及び動き補償に適用される単方向動き予測モード、並びに双方向動き予測モードの利用いかんを決定し、前記単方向動き予測モード及び双方向動き予測モードの利用いかんにより、前記単方向動き予測モード及び双方向動き予測モードのうち少なくとも1つの動き予測モードを適用し、前記現在予測単位に対する動き予測及び動き補償を行う動き予測及び動き補償部と、前記動き予測及び動き補償を介して獲得された前記現在予測単位の符号化コストに基づいて、前記現在予測単位の動き予測モードを決定する制御部と、前記現在予測単位の大きさに基づいて、前記決定された動き予測モード情報を符号化するエントロピー符号化部と、を含むことを特徴とする。
本発明の一実施形態によるビデオ復号化装置は、ビットストリームから、復号化される現在予測単位のサイズ情報、及び現在予測単位に適用された動き予測モードを現わす動き予測モード情報を獲得するエントロピー復号化部と、前記獲得された動き予測モード情報と、前記現在予測単位の大きさとに基づいて、単方向動き予測モード及び双方向動き予測モードのうち、前記現在予測単位に適用された動き予測モードを決定し、前記決定された動き予測モードを利用して、前記現在予測単位に対する動き補償を行う動き補償部と、を含むことを特徴とする。
本発明の実施形態によれば、予測単位の大きさに基づいて、単方向動き予測モード及び双方向動き予測モードの利用いかんを決定し、決定された動き予測モードを適用し、動き予測及び動き補償を行うことにより、参照フレームのデータを読み取るためのメモリアクセスを、所定帯域幅内に制限することができる。
本発明の一実施形態によるビデオ符号化装置のブロック図である。 本発明の一実施形態によるビデオ復号化装置のブロック図である。 本発明の一実施形態による符号化単位の概念を図示する図面である。 本発明の一実施形態による、符号化単位に基づいた映像符号化部のブロック図である。 本発明の一実施形態による、符号化単位に基づいた映像復号化部のブロック図である。 本発明の一実施形態による、深度別符号化単位及びパーティションを図示する図面である。 本発明の一実施形態による、符号化単位及び変換単位の関係を図示する図面である。 本発明の一実施形態による深度別符号化情報を図示する図面である。 本発明の一実施形態による深度別符号化単位を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示する図面である。 本発明の一実施形態による動き予測装置を図示する図面である。 1/4ピクセル精度を有する場合、動き補償過程で選択可能な整数ピクセル及びサブピクセル位置を図示する図面である。 本発明の一実施形態による参照フレームの補間過程について説明するための図面である。 本発明の一実施形態による、動き補償過程に必要な参照フレームのデータを示した図面である。 本発明の一実施形態による、動き補償過程に必要な参照フレームのデータを示した図面である。 本発明の一実施形態による、動き補償過程に必要な参照フレームのデータを示した図面である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。 輝度成分の予測単位の大きさ、色差成分の予測単位の大きさ、動き予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を、大きい値から降順に示した表である。 輝度成分の予測単位の大きさ、色差成分の予測単位の大きさ、動き予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を、大きい値から降順に示した表である。 本発明の他の実施形態による参照フレームのデータ読み取り過程を減少させるための補間過程について説明するための参照図である。 本発明の他の実施形態による参照フレームのデータ読み取り過程を減少させるための補間過程について説明するための参照図である。 本発明の他の実施形態による参照フレームのデータ読み取り過程を減少させるための補間過程について説明するための参照図である。 本発明の他の実施形態によって、補間フィルタのタップ数を減少させたり、あるいは二次元補間過程の代わりに、一次元補間フィルタを介して獲得される周辺サブピクセルや整数ピクセルを利用して補間を行う場合、輝度成分の予測単位の大きさ、色差成分の予測単位の大きさ、動き予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が大きい値から降順に示した表である。 本発明の他の実施形態によって、補間フィルタのタップ数を減少させたり、あるいは二次元補間過程の代わりに、一次元補間フィルタを介して獲得される周辺サブピクセルや整数ピクセルを利用して補間を行う場合、輝度成分の予測単位の大きさ、色差成分の予測単位の大きさ、動き予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が大きい値から降順に示した表である。 本発明の一実施形態によるビデオ符号化方法を示したフローチャートである。 本発明の一実施形態による動き補償装置を図示する図面である。 本発明の一実施形態によるビデオ復号化方法を示したフローチャートである。 一実施形態による、プログラムが保存されたディスクの物理的構造を例示する。 ディスクを利用して、プログラムを記録して読み取るためのディスクドライブを図示する図面である。 コンテンツ流通サービス(content distribution service)を提供するためのコンテンツ供給システム(content supply system)の全体的構造を図示する図面である。 一実施形態による本発明のビデオ符号化方法及びビデオ復号化方法が適用される携帯電話の外部構造を図示する図面である。 一実施形態による本発明のビデオ符号化方法及びビデオ復号化方法が適用される携帯電話の内部構造を図示する図面である。 本発明による通信システムが適用されたデジタル放送システムを図示する図面である。 本発明の一実施形態によるビデオ符号化装置及びビデオ復号化装置を利用するクラウドコンピュータ・システムのネットワーク構造を図示する図面である。
以下、添付された図面を参照し、本発明の望ましい実施形態について具体的に説明する。
図1は、本発明の一実施形態によるビデオ符号化装置のブロック図を図示している。一実施形態によるビデオ符号化装置100は、最大符号化単位分割部110、符号化単位決定部120及び出力部130を含む。
最大符号化単位分割部110は、映像の現在ピクチャのための最大サイズの符号化単位である最大符号化単位に基づいて、現在ピクチャを区画することができる。現在ピクチャが最大符号化単位より大きければ、現在ピクチャの映像データは、少なくとも1つの最大符号化単位に分割される。一実施形態による最大符号化単位は、サイズ32x32,64x64,128x128,256x256のようなデータ単位であり、縦横サイズが8より大きい2の累乗である正方形のデータ単位でもある。映像データは、少なくとも1つの最大符号化単位別に、符号化単位決定部120に出力される。
一実施形態による符号化単位は、最大サイズ及び最大深度で特徴づけられる。深度とは、最大符号化単位から、符号化単位が空間的に分割された回数を示し、深度が深くなるほど、深度別符号化単位は、最大符号化単位から最小符号化単位まで分割される。最大符号化単位の深度が最上位深度であり、最小符号化単位が最下位符号化単位であると定義される。最大符号化単位は、深度が深くなるにつれて、深度別符号化単位の大きさは減少するので、上位深度の符号化単位は、複数個の下位深度の符号化単位を含んでもよい。
前述のように、符号化単位の最大サイズにより、現在ピクチャの映像データを最大符号化単位に分割し、それぞれの最大符号化単位は、深度別に分割される符号化単位を含んでもよい。一実施形態による最大符号化単位は、深度別に分割されるので、最大符号化単位に含まれた空間領域(spatial domain)の映像データが深度によって階層的に分類される。
最大符号化単位の高さ及び幅を階層的に分割することができる総回数を制限する最大深度及び符号化単位の最大サイズがあらかじめ設定されている。
符号化単位決定部120は、深度ごとに、最大符号化単位の領域が分割された少なくとも1つの分割領域を符号化し、少なくとも1つの分割領域別に最終符号化結果が出力される深度を決定する。すなわち、符号化単位決定部120は、現在ピクチャの最大符号化単位ごとに、深度別符号化単位で、映像データを符号化し、最小の符号化誤差が生じる深度を選択し、符号化深度として決定する。決定された符号化深度及び最大符号化単位別映像データは、出力部130に出力される。
最大符号化単位内の映像データは、最大深度以下の少なくとも1つの深度によって、深度別符号化単位に基づいて符号化され、それぞれの深度別符号化単位に基づいた符号化結果が比較される。深度別符号化単位の符号化誤差の比較結果、符号化誤差が最小である深度が選択される。それぞれの最大化符号化単位ごとに、少なくとも1つの符号化深度が決定される。
最大符号化単位の大きさは、深度が深くなるにつれて、符号化単位が階層的に分割されて分割され、符号化単位の個数が増加する。また、1つの最大符号化単位に含まれる同一深度の符号化単位であるとしても、それぞれのデータに係わる符号化誤差を測定し、下位深度への分割いかんが決定される。従って、1つの最大符号化単位に含まれるデータであるとしても、位置によって深度別符号化誤差が異なるので、位置によって符号化深度が異なって決定される。従って、1つの最大符号化単位について、符号化深度が一つ以上設定されもし、最大符号化単位のデータは、一つ以上の符号化深度の符号化単位によって区画される。
従って、一実施形態による符号化単位決定部120は、現在最大符号化単位に含まれるツリー構造による符号化単位が決定される。一実施形態による「ツリー構造による符号化単位」は、現在最大符号化単位に含まれるあらゆる深度別符号化単位のうち、符号化深度として決定された深度の符号化単位を含む。符号化深度の符号化単位は、最大符号化単位内において同一領域では、深度によって階層的に決定され、他の領域については、独立して決定される。同様に、現在領域に係わる符号化深度は、他の領域に係わる符号化深度と独立して決定される。
一実施形態による最大深度は、最大符号化単位から最小符号化単位までの分割回数に係わる指標である。一実施形態による第1最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示すことができる。一実施形態による第2最大深度は、最大符号化単位から最小符号化単位までの深度レベルの総個数を示すことができる。例えば、最大符号化単位の深度が0であるとするとき、最大符号化単位が1回分割された符号化単位の深度は、1に設定され、2回分割された符号化単位の深度は、2に設定される。その場合、最大符号化単位から4回分割された符号化単位が最小符号化単位であるならば、深度0,1,2,3及び4の深度レベルが存在するので、第1最大深度は、4に、第2最大深度は、5に設定される。
最大符号化単位の予測符号化及び周波数変換が行われる。予測符号化及び周波数変換も同様に、最大符号化単位ごとに、最大深度以下の深度ごとに、深度別符号化単位を基に行われる。
最大符号化単位が深度別に分割されるたびに、深度別符号化単位の個数が増加するので、深度が深くなるにつれて、生成されるあらゆる深度別符号化単位に対して、予測符号化、及び周波数変換を含んだ符号化が行われなければならない。以下、説明の便宜のために、少なくとも1つの最大符号化単位において、現在深度の符号化単位を基に、予測符号化及び周波数変換について説明する。
一実施形態によるビデオ符号化装置100は、映像データの符号化のためのデータ単位の大きさまたは形態を多様に選択することができる。映像データの符号化のためには、予測符号化、周波数変換、エントロピー符号化などの段階を経るが、あらゆる段階にわたって、同一のデータ単位が使用され、段階別にデータ単位が変更されもする。
例えば、ビデオ符号化装置100は、映像データの符号化のための符号化単位だけではなく、符号化単位の映像データの予測符号化を行うために、符号化単位と異なるデータ単位を選択することができる。
最大符号化単位の予測符号化のためには、一実施形態による符号化深度の符号化単位、すなわち、それ以上分割されない符号化単位を基に、予測符号化が行われる。以下、予測符号化の基になる、それ以上分割されない符号化単位を「予測単位」とする。予測単位が分割されたパーティションは、予測単位、並びに予測単位の高さ及び幅のうち少なくとも一つが分割されたデータ単位を含んでもよい。
例えば、サイズ2Nx2N(ただし、Nは、正の整数)の符号化単位が、それ以上分割されない場合、サイズ2Nx2Nの予測単位になり、パーティションの大きさは、サイズ2Nx2N,2NxN,Nx2N,NxNなどでもある。一実施形態によるパーティションタイプは、予測単位の高さまたは幅が対称的な比率に分割された対称的パーティションだけではなく、1:nまたはn:1のように、非対称的な比率に分割されたパーティション、幾何学的な形態に分割されたパーティション、任意的形態のパーティションなどを選択的に含んでもよい。
予測単位の予測モードは、イントラモード、インターモード及びスキップモードのうち少なくとも一つでもある。例えば、イントラモード及びインターモードは、2Nx2N,2NxN,Nx2N,NxNサイズのパーティションに対して遂行される。また、スキップモードは、2Nx2Nサイズのパーティションに対してのみ遂行される。符号化単位以内の1つの予測単位ごとに、独立して符号化が行われ、符号化誤差が最小である予測モードが選択される。
また、一実施形態によるビデオ符号化装置100は、映像データの符号化のための符号化単位だけではなく、符号化単位と異なるデータ単位を基に、符号化単位の映像データの周波数変換を行うことができる。
符号化単位の周波数変換のためには、符号化単位より小さいか、あるいはそれと同じ大きさのデータ単位を基に、周波数変換が行われる。例えば、周波数変換のためのデータ単位は、イントラモードのためのデータ単位、及びインターモードのためのデータ単位を含んでもよい。
以下、周波数変換の基になるデータ単位を「変換単位」とする。符号化単位と類似した方式で、符号化単位内の変換単位も、再帰的にさらに小サイズの変換単位に分割されながら、符号化単位の残差データ(residual data)が、変換深度によって、ツリー構造による変換単位によって区画される。
一実施形態による変換単位についても、符号化単位の高さ及び幅を分割し、変換単位に至るまでの分割回数を示す変換深度が設定される。例えば、サイズ2Nx2Nの現在符号化単位の変換単位の大きさが、2Nx2Nであるならば、変換深度0、変換単位の大きさがNxNであるならば、変換深度1に、変換単位の大きさがN/2xN/2であるならば、変換深度2に設定される。すなわち、変換単位についても、変換深度によって、ツリー構造による変換単位が設定される。
符号化深度別符号化情報は、符号化深度だけではなく、予測関連情報及び周波数変換関連情報が必要である。従って、符号化単位決定部120は、最小符号化誤差を発生させた符号化深度だけではなく、予測単位をパーティションに分割したパーティションタイプ、予測単位別予測モード、周波数変換のための変換単位の大きさなどを決定することができる。
一実施形態による最大符号化単位のツリー構造による符号化単位及びパーティションの決定方式については、図3ないし図12を参照して詳細に説明する。
符号化単位決定部120は、深度別符号化単位の符号化誤差を、ラグランジュ乗数(Lagrangian multiplier)基盤の率・歪曲最適化技法(rate-distortion optimization)を利用して測定することができる。
出力部130は、符号化単位決定部120で決定された少なくとも1つの符号化深度に基づいて符号化された最大符号化単位の映像データ、及び深度別符号化モードに関する情報を、ビットストリーム状で出力する。
符号化された映像データは、映像の残差データの符号化結果でもある。
深度別符号化モードについての情報は、符号化深度情報、予測単位のパーティションタイプ情報、予測モード情報、変換単位のサイズ情報などを含んでもよい。
符号化深度情報は、現在深度で符号化せず、下位深度の符号化単位で符号化するか否かということを示す深度別分割情報を利用して定義される。現在符号化単位の現在深度が符号化深度であるならば、現在符号化単位は、現在深度の符号化単位で符号化されるので、現在深度の分割情報はそ、れ以上下位深度に分割されないように定義される。一方、現在符号化単位の現在深度が符号化深度ではないならば、下位深度の符号化単位を利用した符号化を試みなればならないので、現在深度の分割情報は、下位深度の符号化単位に分割されるように定義される。
現在深度が符号化深度ではないならば、下位深度の符号化単位に分割された符号化単位に対して符号化が行われる。現在深度の符号化単位内に、下位深度の符号化単位が一つ以上存在するので、それぞれの下位深度の符号化単位ごとに、反復的に符号化が行われ、同一深度の符号化単位ごとに、再帰的(recursive)符号化が行われる。
1つの最大符号化単位内で、ツリー構造の符号化単位が決定され、符号化深度の符号化単位ごとに、少なくとも1つの符号化モードについての情報が決定されなければならないので、1つの最大符号化単位については、少なくとも1つの符号化モードについての情報が決定される。また、最大符号化単位のデータは、深度によって階層的に区画され、位置別に符号化深度が異なることがあるので、データに対して、符号化深度及び符号化モードについての情報が設定される。
従って、一実施形態による出力部130は、最大符号化単位に含まれている符号化単位、予測単位及び最小単位のうち少なくとも一つに対して、当該符号化深度及び符号化モードに係わる符号化情報を割り当てられる。
一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位であり、最大符号化単位に含まれるあらゆる符号化単位、予測単位及び変換単位内に含まれる最大サイズの正方形データ単位でもある。
例えば、出力部130を介して出力される符号化情報は、深度別符号化単位別符号化情報と、予測単位別符号化情報とに分類される。深度別符号化単位別符号化情報は、予測モード情報、パーティションサイズ情報を含んでもよい。予測単位別に伝送される符号化情報は、インターモードの推定方向についての情報、インターモードの参照映像インデックスについての情報、動きベクトルについての情報、イントラモードのクロマ成分(chroma component)についての情報、イントラモードの補間方式についての情報などを含んでもよい。また、ピクチャ、スライスまたはGOP(group of pictures)別に定義される符号化単位の最大サイズについての情報、及び最大深度についての情報は、ビットストリームのヘッダに挿入される。
ビデオ符号化装置100の最も簡単な形態の実施形態によれば、深度別符号化単位は、1階層上位深度の符号化単位の高さ及び幅を半分にした大きさの符号化単位である。すなわち、現在深度の符号化単位の大きさが、2Nx2Nであるならば、下位深度の符号化単位の大きさは、NxNである。また、2Nx2Nサイズの現在符号化単位は、NxNサイズの下位深度符号化単位を最大4個含む。
従って、一実施形態によるビデオ符号化装置100は、現在ピクチャの特性を考慮して決定された最大符号化単位の大きさ及び最大深度を基に、それぞれの最大符号化単位ごとに、最適の形態及び大きさの符号化単位を決定し、ツリー構造による符号化単位を構成することができる。また、それぞれの最大符号化単位ごとに、多様な予測モード、周波数変換方式などで符号化することができるので、多様な映像サイズの符号化単位の映像特性を考慮し、最適の符号化モードが決定される。
従って、映像の解像度が非常に高かったり、あるいはデータ量が非常に多い映像を既存マクロブロック単位で符号化するとするならば、ピクチャ当たりマクロブロックの数が過度に多くなる。それにより、マクロブロックごとに生成される圧縮情報も多くなるので、圧縮情報の伝送負担が大きくなり、データ圧縮効率が低下する傾向がある。従って、一実施形態によるビデオ符号化装置は、映像の大きさを考慮して、符号化単位の最大サイズを増大させながら、映像特性を考慮して符号化単位を調節することができるので、映像圧縮効率が上昇する。
図2は、本発明の一実施形態によるビデオ復号化装置のブロック図を図示している。一実施形態によるビデオ復号化装置200は、受信部210、映像データ及び符号化情報抽出部220、並びに映像データ復号化部230を含む。一実施形態によるビデオ復号化装置200の各種プロセシングのための符号化単位、深度、予測単位、変換単位、各種符号化モードについての情報など、各種用語の定義は、図1のビデオ符号化装置100を参照して説明したところと同一である。
受信部210は、符号化されたビデオに係わるビットストリームを受信してバージング(parsing)する。映像データ及び符号化情報抽出部220は、バージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位によって符号化単位ごとに符号化された映像データを抽出し、映像データ復号化部230に出力する。映像データ及び符号化情報抽出部220は、現在ピクチャに係わるヘッダから、現在ピクチャの符号化単位の最大サイズについての情報を抽出することができる。
また、映像データ及び符号化情報抽出部220は、バージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位に係わる符号化深度及び符号化モードについての情報を抽出する。抽出された符号化深度及び符号化モードについての情報は、映像データ復号化部230に出力される。すなわち、ビット列の映像データを最大符号化単位に分割し、映像データ復号化部230をして、最大符号化単位ごとに映像データを復号化させる。
最大符号化単位別符号化深度及び符号化モードについての情報は、一つ以上の符号化深度情報に対して設定され、符号化深度別符号化モードについての情報は、当該符号化単位のパーティションタイプ情報、予測モード情報及び変換単位のサイズ情報などを含んでもよい。また、符号化深度情報として、深度別分割情報が抽出されもする。
映像データ及び符号化情報抽出部220が抽出した最大符号化単位別符号化深度及び符号化モードについての情報は、一実施形態によるビデオ符号化装置100のように、符号化端で、最大符号化単位別深度別符号化単位ごとに反復的に符号化を行い、最小符号化誤差を発生させると決定された符号化深度及び符号化モードについての情報である。従って、ビデオ復号化装置200は、最小符号化誤差を発生させる符号化方式により、データを復号化して映像を復元することができる。
一実施形態による符号化深度及び符号化モードに係わる符号化情報は、当該符号化単位、予測単位及び最小単位のうち、所定データ単位に対して割り当てられているので、映像データ及び符号化情報抽出部220は、所定データ単位別に、符号化深度及び符号化モードについての情報を抽出することができる。所定データ単位別に、当該最大符号化単位の符号化深度及び符号化モードについての情報が記録されているのであるならば、同一の符号化深度及び符号化モードについての情報を有している所定データ単位は、同一の最大符号化単位に含まれるデータ単位と類推される。
映像データ復号化部230は、最大符号化単位別符号化深度及び符号化モードについての情報に基づいて、それぞれの最大符号化単位の映像データを復号化し、現在ピクチャを復元する。すなわち、映像データ復号化部230は、最大符号化単位に含まれるツリー構造による符号化単位のうちそれぞれの符号化単位ごとに、読み取られたパーティションタイプ、予測モード、変換単位に基づいて符号化された映像データを復号化することができる。復号化過程は、イントラ予測及び動き補償を含む予測過程、及び周波数逆変換過程を含んでもよい。
映像データ復号化部230は、符号化深度別符号化単位の予測単位のパーティションタイプ情報及び予測モード情報に基づいて、符号化単位ごとに、それぞれのパーティション及び予測モードによって、イントラ予測または動き補償を行うことができる。
また、映像データ復号化部230は、最大符号化単位別周波数逆変換のために、符号化深度別符号化単位の変換単位のサイズ情報に基づいて、符号化単位ごとに、それぞれの変換単位によって、周波数逆変換を行うことができる。
映像データ復号化部230は、深度別分割情報を利用して、現在最大符号化単位の符号化深度を決定することができる。もし分割情報が現在深度において、それ以上分割されないということを示しているのであるならば、現在深度が符号化深度である。従って、映像データ復号化部230は、現在最大符号化単位の映像データに対して、現在深度の符号化単位を、予測単位のパーティションタイプ、予測モード及び変換単位サイズ情報を利用して復号化することができる。
すなわち、符号化単位、予測単位及び最小単位のうち、所定データ単位に対して設定されている符号化情報を観察し、同一の分割情報を含んだ符号化情報を保有しているデータ単位が集まり、映像データ復号化部230によって、同一の符号化モードに復号化する1つのデータ単位と見なされる。
一実施形態によるビデオ復号化装置200は、符号化過程で、最大符号化単位ごとに、再帰的に符号化を行い、最小符号化誤差を発生させた符号化単位に係わる情報を獲得し、現在ピクチャに係わる復号化に利用することができる。すなわち、最大符号化単位ごとに最適符号化単位と決定されたツリー構造による符号化単位の符号化された映像データの復号化が可能になる。
従って、高い解像度の映像、またはデータ量が過度に多い映像でも、符号化端から伝送された最適符号化モードについての情報を利用して、映像の特性に適応的に決定された符号化単位の大きさ及び符号化モードによって、効率的に映像データを復号化して復元することができる。
以下、図3ないし図13を参照し、本発明の一実施形態によるツリー構造による符号化単位、予測単位及び変換単位の決定方式について説明する。
図3は、階層的符号化単位の概念を図示している。
符号化単位の例は、符号化単位の大きさは、幅x高さで表現され、サイズ64x64である符号化単位から、サイズ32x32,16x16,8x8を含んでもよい。サイズ64x64の符号化単位は、サイズ64x64,64x32,32x64,32x32のパーティションに分割され、サイズ32x32の符号化単位は、サイズ32x32,32x16,16x32,16x16のパーティションに分割され、サイズ16x16の符号化単位は、サイズ16x16,16x8,8x16,8x8のパーティションに分割され、サイズ8x8の符号化単位は、サイズ8x8,8x4,4x8,4x4のパーティションに分割される。
ビデオデータ310については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が2に設定されている。ビデオデータ320については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が3に設定されている。ビデオデータ330については、解像度が352x288、符号化単位の最大サイズが16、最大深度が1に設定されている。図3に図示された最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示す。
解像度が高いか、あるいはデータ量が多い場合、符号化効率の向上だけではなく、映像特性を正確に反映させるために、符号化サイズの最大サイズが相対的に大きいことが望ましい。従って、ビデオデータ330に比べ、解像度が高いビデオデータ310,320は、符号化サイズの最大サイズが64に選択される。
ビデオデータ310の最大深度が2であるので、ビデオデータ310の符号化単位315は、長軸サイズが64である最大符号化単位から、2回分割されて深度が2階層深くなり、長軸サイズが32,16である符号化単位まで含んでもよい。一方、ビデオデータ330の最大深度が1であるので、ビデオデータ330の符号化単位335は、長軸サイズが16である符号化単位から、1回分割されて深度が1階層深くなり、長軸サイズが8である符号化単位まで含んでもよい。
ビデオデータ320の最大深度が3であるので、ビデオデータ320の符号化単位325は、長軸サイズが64である最大符号化単位から、3回分割されて深度が3階層深くなり、長軸サイズが32,16,8である符号化単位まで含んでもよい。深度が深くなるほど、細部情報の表現能が向上する。
図4は、本発明の一実施形態による、符号化単位に基づいた映像符号化部のブロック図を図示している。一実施形態による映像符号化部400は、ビデオ符号化装置100の符号化単位決定部120で、映像データを符号化するのに経る作業を含む。すなわち、イントラ予測部410は、現在フレーム405において、イントラモードの符号化単位に対してイントラ予測を行い、動き推定部420及び動き補償部425は、インターモードの現在フレーム405及び参照フレーム495を利用して、インター推定及び動き補償を行う。
イントラ予測部410、動き推定部420及び動き補償部425から出力されたデータは、周波数変換部430及び量子化部440を経て、量子化された変換係数として出力される。量子化された変換係数は、逆量子化部460、周波数逆変換部470を介して、空間領域のデータに復元され、復元された空間領域のデータは、デブロッキング部480及びループ・フィルタリング部490を経て後処理され、参照フレーム495として出力される。量子化された変換係数は、エントロピー符号化部450を経て、ビットストリーム455として出力される。
一実施形態によるビデオ符号化装置100に適用されるためには、映像符号化部400の構成要素であるイントラ予測部410、動き推定部420、動き補償部425、周波数変換部430、量子化部440、エントロピー符号化部450、逆量子化部460、周波数逆変換部470、デブロッキング部480及びループ・フィルタリング部490が、いずれも最大符号化単位ごとに、最大深度を考慮し、ツリー構造による符号化単位のうち、それぞれの符号化単位に基づいた作業を行わなければならない。
特に、イントラ予測部410、動き推定部420及び動き補償部425は、現在最大符号化単位の最大サイズ及び最大深度を考慮して、ツリー構造による符号化単位のうち、それぞれの符号化単位のパーティション及び予測モードを決定し、周波数変換部430は、ツリー構造による符号化単位のうち、それぞれの符号化単位内の変換単位サイズを決定しなければならない。
図5は、本発明の一実施形態による、符号化単位に基づいた映像復号化部のブロック図を図示している。ビットストリーム505がバージング部510を経て、復号化対象である符号化された映像データ及び復号化のために必要な符号化についての情報がバージングされる。符号化された映像データは、エントロピー復号化部520及び逆量子化部530を経て、逆量子化されたデータとして出力され、周波数逆変換部540を経て残差データが復元される。
イントラ予測部550は、イントラモードの符号化単位に対して、イントラ予測を行い、動き補償部560は、参照フレーム585を共に利用して、インターモードの符号化単位に対して動き補償を行う。
イントラ予測部550及び動き補償部560を経た復元データは、デブロッキング部570及びループ・フィルタリング部580を経て後処理され、復元フレーム595として出力される。また、デブロッキング部570及びループ・フィルタリング部580を経て後処理されたデータは、参照フレーム585として出力される。
ビデオ復号化装置200の映像データ復号化部230で、映像データを復号化するために、一実施形態による映像復号化部500のバージング部510以後の段階別作業が行われる。
一実施形態によるビデオ復号化装置200に適用されるためには、映像復号化部500の構成要素であるバージング部510、エントロピー復号化部520、逆量子化部530、周波数逆変換部540、イントラ予測部550、動き補償部560、デブロッキング部570及びループ・フィルタリング部580が、いずれも最大符号化単位ごとに、ツリー構造による符号化単位に基づいて、作業を行わなければならない。
特に、イントラ予測部550、動き補償部560は、ツリー構造による符号化単位ごとに、それぞれパーティション及び予測モードを決定し、周波数逆変換部540は、符号化単位ごとに、変換単位の大きさを決定しなければならない。
図6は、本発明の一実施形態による、深度別符号化単位及びパーティションを図示している。一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200は、映像特性を考慮するために、階層的な符号化単位を使用する。符号化単位の最大高さ及び最大幅、最大深度は、映像の特性によって適応的に決定され、ユーザの要求によって、多様に設定されもする。あらかじめ設定された符号化単位の最大サイズにより、深度別符号化単位の大きさが決定されもする。
一実施形態による符号化単位の階層構造600は、符号化単位の最大高さ及び最大幅が64であり、最大深度が4である場合を図示している。一実施形態による符号化単位の階層構造600の縦軸に沿って深度が深くなるので、深度別符号化単位の高さ及び幅がそれぞれ分割される。また、符号化単位の階層構造600の横軸に沿って、それぞれの深度別符号化単位の予測符号化の基になる予測単位及びパーティションが図示されている。
すなわち、符号化単位610は、符号化単位の階層構造600において最大符号化単位であり、深度が0であり、符号化単位の大きさ、すなわち、高さ及び幅が64x64である。縦軸に沿って深度が深くなり、サイズ32x32である深度1の符号化単位620、サイズ16x16である深度2の符号化単位630、サイズ8x8である深度3の符号化単位640、サイズ4x4である深度4の符号化単位650が存在する。サイズ4x4である深度4の符号化単位650は、最小符号化単位である。
それぞれの深度別に横軸に沿って、符号化単位の予測単位及びパーティションが配列される。すなわち、深度0のサイズ64x64の符号化単位610が、予測単位であるならば、予測単位は、サイズ64x64の符号化単位610に含まれるサイズ64x64のパーティション610、サイズ64x32のパーティション612、サイズ32x64のパーティション614、サイズ32x32のパーティション616に分割される。
同様に、深度1のサイズ32x32の符号化単位620の予測単位は、サイズ32x32の符号化単位620に含まれるサイズ32x32のパーティション620、サイズ32x16のパーティション622、サイズ16x32のパーティション624、サイズ16x16のパーティション626に分割される。
同様に、深度2のサイズ16x16の符号化単位630の予測単位は、サイズ16x16の符号化単位630に含まれるサイズ16x16のパーティション630、サイズ16x8のパーティション632、サイズ8x16のパーティション634、サイズ8x8のパーティション636に分割される。
同様に、深度3のサイズ8x8の符号化単位640の予測単位は、サイズ8x8の符号化単位640に含まれるサイズ8x8のパーティション640、サイズ8x4のパーティション642、サイズ4x8のパーティション644、サイズ4x4のパーティション646に分割される。
最後に、深度4のサイズ4x4の符号化単位650は、最小符号化単位であり、最下位深度の符号化単位であり、当該予測単位も、サイズ4x4のパーティション650だけに設定される。
一実施形態によるビデオ符号化装置100の符号化単位決定部120は、最大符号化単位610の符号化深度を決定するために、最大符号化単位610に含まれるそれぞれの深度の符号化単位ごとに符号化を行わなければならない。
同一の範囲及び大きさのデータを含むための深度別符号化単位の個数は、深度が深くなるほど、深度別符号化単位の個数も増加する。例えば、深度1の符号化単位一つが含むデータに対して、深度2の符号化単位は、四つが必要である。従って、同一のデータの符号化結果を、深度別に比較するために、1つの深度1の符号化単位、及び4つの深度2の符号化単位を利用して、それぞれ符号化されなければならない。
それぞれの深度別符号化のためには、符号化単位の階層構造600の横軸に沿って、深度別符号化単位の予測単位ごとに符号化を行い、当該深度で、最小となる符号化誤差である代表符号化誤差が選択される。また、符号化単位の階層構造600の縦軸に沿って深度が深くなり、それぞれの深度ごとに符号化を行い、深度別代表符号化誤差を比較し、最小符号化誤差が検索される。最大符号化単位610において、最小符号化誤差が生じる深度及びパーティションが、最大符号化単位610の符号化深度及びパーティションタイプに選択される。
図7は、本発明の一実施形態による、符号化単位及び変換単位の関係を図示している。
一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200は、最大符号化単位ごとに、最大符号化単位より小さいか、あるいはそれと同じ大きさの符号化単位で、映像を符号化したり、あるいは復号化する。符号化過程において、周波数変換のための変換単位の大きさは、それぞれの符号化単位より大きくないデータ単位を基に選択される。
例えば、一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200で、現在符号化単位710が64x64サイズであるとき、32x32サイズの変換単位720を利用して、周波数変換が行われる。
また、64x64サイズの符号化単位710のデータを、64x64サイズ以下の32x32,16x16,8x8,4x4サイズの変換単位で、それぞれ周波数変換を行って符号化した後、原本との誤差が最小である変換単位が選択される。
図8は、本発明の一実施形態による深度別符号化情報を図示している。
一実施形態によるビデオ符号化装置100の出力部130は、符号化モードについての情報として、それぞれの符号化深度の符号化単位ごとに、パーティションタイプについての情報800、予測モードについての情報810、変換単位サイズについての情報820を符号化して伝送することができる。
パーティションタイプについての情報800は、現在符号化単位の予測符号化のためのデータ単位として、現在符号化単位の予測単位が分割されたパーティションの形態についての情報を示す。例えば、サイズ2Nx2Nの現在符号化単位CU_0は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806、サイズNxNのパーティション808のうちいずれか1つのタイプに分割されて利用される。その場合、現在符号化単位のパーティションタイプについての情報800は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806及びサイズNxNのパーティション808のうち一つを示すように設定される。
予測モードについての情報810は、それぞれのパーティションの予測モードを示す。例えば、予測モードについての情報810を介して、パーティションタイプについての情報800が示すパーティションが、イントラモード812、インターモード814及びスキップモード816のうち一つで予測符号化が行われるということが設定される。
また、変換単位サイズについての情報820は、現在符号化単位を、いかなる変換単位を基に周波数変換を行うということを示す。例えば、変換単位は、第1イントラ変換単位サイズ822、第2イントラ変換単位サイズ824、第1インター変換単位サイズ826、第2インター変換単位サイズ828のうち一つでもある。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部210は、それぞれの深度別符号化単位ごとに、パーティションタイプについての情報800、予測モードについての情報810、変換単位サイズについての情報820を抽出し、復号化に利用することができる。
図9は、本発明の一実施形態による深度別符号化単位を図示している。
深度の変化を示すために、分割情報が利用される。分割情報は、現在深度の符号化単位が、下位深度の符号化単位に分割されるか否かということを示す。
深度0及び2N_0x2N_0サイズの符号化単位900の予測符号化のための予測単位910は、2N_0x2N_0サイズのパーティションタイプ912、2N_0xN_0サイズのパーティションタイプ914、N_0x2N_0サイズのパーティションタイプ916、N_0xN_0サイズのパーティションタイプ918を含んでもよい。予測単位が対称的な比率に分割されたパーティション912,914,916,918のみが例示されているが、前述のように、パーティションタイプは、それらに限定されるものではなく、非対称的パーティション、任意的形態のパーティション、幾何学的形態のパーティションなどを含んでもよい。
パーティションタイプごとに、1つの2N_0x2N_0サイズのパーティション、2つの2N_0xN_0サイズのパーティション、2つのN_0x2N_0サイズのパーティション、4つのN_0xN_0サイズのパーティションごとに、反復的に予測符号化が行われなければならない。サイズ2N_0x2N_0、サイズN_0x2N_0、サイズ2N_0xN_0及びサイズN_0xN_0のパーティションについては、イントラモード及びインターモードで予測符号化が行われる。スキップモードは、サイズ2N_0x2N_0のパーティションについてのみ予測符号化が行われる。
サイズ2N_0x2N_0,2N_0xN_0及びN_0x2N_0のパーティションタイプ912,914,916のうち一つによる符号化誤差が最小であれば、それ以上下位深度に分割する必要ない。
サイズN_0xN_0のパーティションタイプ918による符号化誤差が最小であれば、深度0を1に変更しながら分割し(920)、深度2及びサイズN_0xN_0のパーティションタイプの符号化単位930に対して反復的に符号化を行い、最小符号化誤差を検索していくことができる。
深度1及びサイズ2N_1x2N_1(=N_0xN_0)の符号化単位930の予測符号化のための予測単位940は、サイズ2N_1x2N_1のパーティションタイプ942、サイズ2N_1xN_1のパーティションタイプ944、サイズN_1x2N_1のパーティションタイプ946、サイズN_1xN_1のパーティションタイプ948を含んでもよい。
また、サイズN_1xN_1のパーティションタイプ948による符号化誤差が最小であれば、深度1を深度2に変更しながら分割し(950)、深度2及びサイズN_2xN_2の符号化単位960に対して反復的に符号化を行い、最小符号化誤差を検索していくことができる。
最大深度がdである場合、深度別分割情報は、深度d−1になるまで設定され、分割情報は、深度d−2まで設定される。すなわち、深度d−2から分割され(970)、深度d−1まで符号化が行われる場合、深度d−1及びサイズ2N_(d−1)x2N_(d−1)の符号化単位980の予測符号化のための予測単位990は、サイズ2N_(d−1)x2N_(d−1)のパーティションタイプ992、サイズ2N_(d−1)xN_(d−1)のパーティションタイプ994、サイズN_(d−1)x2N_(d−1)のパーティションタイプ996、サイズN_(d−1)xN_(d−1)のパーティションタイプ998を含んでもよい。
パーティションタイプのうち、1つのサイズ2N_(d−1)x2N_(d−1)のパーティション、2つのサイズ2N_(d−1)xN_(d−1)のパーティション、2つのサイズN_(d−1)x2N_(d−1)のパーティション、4つのサイズN_(d−1)xN_(d−1)のパーティションごとに、反復的に予測符号化を介した符号化が行われ、最小符号化誤差が生じるパーティションタイプが検索される。
サイズN_(d−1)xN_(d−1)のパーティションタイプ998による符号化誤差が最小であるとしても、最大深度がdであるので、深度d−1の符号化単位CU_(d−1)は、それ以上下位深度への分割過程を経ず、現在最大符号化単位900に対する符号化深度が深度d−1に決定され、パーティションタイプは、N_(d−1)xN_(d−1)に決定される。また、最大深度がdであるので、深度d−1の符号化単位952に対して、分割情報が設定されない。
データ単位999は、現在最大符号化単位に係わる「最小単位」とされる。一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位でもある。そのような反復的符号化過程を介して、一実施形態によるビデオ符号化装置100は、符号化単位900の深度別符号化誤差を比較し、最小の符号化誤差が生じる深度を選択し、符号化深度を決定し、当該パーティションタイプ及び予測モードが、符号化深度の符号化モードに設定される。
かように深度0,1,…,d−1,dのあらゆる深度別最小符号化誤差を比較し、誤差が最小である深度が選択され、符号化深度として決定される。符号化深度、予測単位のパーティションタイプ及び予測モードは、符号化モードについての情報として符号化されて伝送される。また、深度0から符号化深度に至るまでb符号化単位が分割されなければならないので、符号化深度の分割情報だけが「0」に設定され、符号化深度を除いた深度別分割情報は、「1」に設定されなければならない。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部220は、符号化単位900に対する符号化深度及び予測単位についての情報を抽出し、符号化単位912を復号化するのに利用することができる。一実施形態によるビデオ復号化装置200は、深度別分割情報を利用して、分割情報が「0」である深度を符号化深度で把握し、当該深度に係わる符号化モードについての情報を利用して、復号化に利用することができる。
図10、図11及び図12は、本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示している。符号化単位1010は、最大符号化単位に対して、一実施形態によるビデオ符号化装置100が決定した符号化深度別符号化単位である。予測単位1060は、符号化単位1010において、それぞれの符号化深度別符号化単位の予測単位のパーティションであり、変換単位1070は、それぞれの符号化深度別符号化単位の変換単位である。
深度別符号化単位1010は、最大符号化単位の深度が0であるとすれば、符号化単位1012,1054は、深度が1、符号化単位1014,1016,1018,1028,1050,1052は、深度が2、符号化単位1020,1022,1024,1026,1030,1032,1048は、深度が3、符号化単位1040,1042,1044,1046は、深度が4である。
予測単位1060のうち一部パーティション1014,1016,1022,1032,1048,1050,1052,1054は、符号化単位が分割された形態である。すなわち、パーティション1014,1022,1050,1054は、2NxNのパーティションタイプであり、パーティション1016,1048,1052は、Nx2Nのパーティションタイプであり、パーティション1032は、NxNのパーティションタイプである。深度別符号化単位1010の予測単位及びパーティションは、それぞれの符号化単位より小さいか、あるいはそれと同じである。
変換単位1070のうち一部変換単位1052の映像データについては、符号化単位に比べて小サイズのデータ単位で、周波数変換または周波数逆変換が行われる。また、変換単位1014,1016,1022,1032,1048,1050,1052,1054は、予測単位1060のうち、当該予測単位及びパーティションと比較すれば、互いに異なる大きさまたは形態のデータ単位である。すなわち、一実施形態によるビデオ符号化装置100、及び一実施形態に他のビデオ復号化装置200は、同一の符号化単位に係わるイントラ予測/動き推定/動き補償作業、及び周波数変換/逆変換作業であるとしても、それぞれ別個のデータ単位を基に行うことができる。
それにより、最大符号化単位ごとに、領域別に階層的な構造の符号化単位ごとに再帰的に符号化が行われ、最適符号化単位が決定されることにより、再帰的ツリー構造による符号化単位が構成される。符号化情報は、符号化単位に係わる分割情報、パーティションタイプ情報、予測モード情報、変換単位サイズ情報を含んでもよい。下記表1は、一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200で設定することができる一例を示している。
Figure 2017063468
一実施形態によるビデオ符号化装置100の出力部130は、ツリー構造による符号化単位に係わる符号化情報を出力し、一実施形態によるビデオ復号化装置200の符号化情報抽出部220は、受信されたビットストリームから、ツリー構造による符号化単位に係わる符号化情報を抽出することができる。
分割情報は、現在符号化単位が、下位深度の符号化単位に分割されるか否かということを示す。現在深度dの分割情報が0であるならば、現在符号化単位は、現在符号化単位が下位符号化単位にそれ以上分割されない深度が、符号化深度であるので、符号化深度に対して、パーティションタイプ情報、予測モード情報、変換単位サイズ情報が定義される。分割情報により、1段階さらに分割されなければならない場合には、分割された4個の下位深度の符号化単位ごとに、独立して符号化が行われなければならない。
予測モードは、イントラモード、インターモード及びスキップモードのうち一つで示すことができる。イントラモード及びインターモードは、あらゆるパーティションタイプで定義され、スキップモードは、パーティションタイプ2Nx2Nでのみ定義される。
パーティションタイプ情報は、予測単位の高さまたは幅が、対称的な比率に分割された対称的パーティションタイプ2Nx2N,2NxN,Nx2N及びNxNと、非対称的な比率に分割された非対称的パーティションタイプ2NxnU,2NxnD,nLx2N,nRx2Nを示すことができる。非対称的パーティションタイプ2NxnU及び2NxnDは、それぞれ高さが1:3及び3:1に分割された形態であり、非対称的パーティションタイプnLx2N及びnRx2Nは、それぞれ幅が1:3及び3:1に分割された形態を示す。
変換単位サイズは、イントラモードで二種の大きさ、インターモードで二種の大きさに設定される。すなわち、変換単位分割情報が0であるならば、変換単位の大きさは、現在符号化単位のサイズ2Nx2Nに設定される。変換単位分割情報が1であるならば、現在符号化単位が分割された大きさの変換単位が設定される。また、サイズ2Nx2Nである現在符号化単位に係わるパーティションタイプが、対称形パーティションタイプであるならば、変換単位の大きさは、NxNに、非対称形パーティションタイプであるならば、N/2xN/2に設定される。
一実施形態によるツリー構造による符号化単位の符号化情報は、符号化深度の符号化単位、予測単位及び最小単位単位のうち少なくとも一つに対して割り当てられる。符号化深度の符号化単位は、同一の符号化情報を保有している予測単位及び最小単位を一つ以上含んでもよい。
従って、隣接したデータ単位同士それぞれ保有している符号化情報を確認すれば、同一の符号化深度の符号化単位に含まれるか否かということが確認される。また、データ単位が保有している符号化情報を利用すれば、当該符号化深度の符号化単位を確認することができるので、最大符号化単位内の符号化深度の分布が類推される。
従って、その場合、現在符号化単位が周辺データ単位を参照して予測する場合、現在符号化単位に隣接する深度別符号化単位内のデータ単位の符号化情報が直接参照されて利用される。
さらに他の実施形態で、現在符号化単位が周辺符号化単位を参照して予測符号化が行われる場合、隣接する深度別符号化単位の符号化情報を利用して、深度別符号化単位内で、現在符号化単位に隣接するデータが検索されることにより、周辺符号化単位が参照される。
図13は、表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示している。最大符号化単位1300は、符号化深度の符号化単位1302,1304,1306,1312,1314,1316,1318を含む。そのうち1つの符号化単位1318は、符号化深度の符号化単位であるので、分割情報が0に設定される。サイズ2Nx2Nの符号化単位1318のパーティションタイプ情報は、パーティションタイプ2Nx2N 1322,2NxN 1324,Nx2N 1326,NxN 1328,2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定される。
パーティションタイプ情報が対称形パーティションタイプ2Nx2N 1322,2NxN 1324,Nx2N 1326及びNxN 1328のうち一つに設定されている場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1342が設定され、変換単位分割情報が1であるならば、サイズNxNの変換単位1344が設定される。
パーティションタイプ情報が、非対称形パーティションタイプ2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定されている場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1352が設定され、変換単位分割情報が1であるならば、サイズN/2xN/2の変換単位1354が設定される。
以下、図4の本発明の一実施形態による映像符号化装置400の動き補償部425と、図5の映像復号化装置500の動き補償部550とで行われる動き補償過程について具体的に説明する。
図14は、本発明の一実施形態による動き予測装置1400を図示している。図14の動き予測装置1400は、図4の映像符号化装置400の動き推定部420に対応する。
補間部1410は、参照フレームを補間し、サブピクセル位置のピクセル値を生成することにより、補間された参照フレームを生成する。動き予測遂行部1420は、補間された参照フレームを利用して、サブピクセル精度を有する動き予測を行い、予測単位と最も類似した参照フレームの対応領域を示す動きベクトルを決定して出力する。図4の動き補償部425は、動きベクトルが示す参照フレームの整数ピクセル、または補間されたサブピクセルを獲得することにより、予測単位のピクセルの予測値を獲得する。図14では、補間部1410が動き予測装置1400に含まれた場合を図示したが、補間部1410は、動き予測装置1400と分離して構成されもし、図示された構成に限定されるものではない。
図15は、1/4ピクセル精度を有する場合、動き補償過程で選択可能な整数ピクセル及びサブピクセル位置を図示している。図15を参照すれば、アルファベット大文字で表示されたA 1501、B 1502、C 1503及びD 1504は、整数ピクセルを示し、アルファベット小文字で表示されたaないしo 1505ないし1519は、整数ピクセル間のサブピクセルを示す。もし動きベクトルがA 1501、B 1502、C 1503及びD 1504のうちいずれか一つを示す場合、すなわち、動きベクトルの水平成分及び垂直成分がいずれも整数値を有する場合には、動き補償過程で、メモリに保存された参照フレームのデータをすぐに読み取り、予測単位の予測値を獲得することができる。従って、動きベクトルの水平成分及び垂直成分がいずれも整数値を有する場合には、補間過程が必要ではない。例えば、現在予測単位がLxM(L、Mは整数)であり、現在予測単位に係わる動き予測の結果として獲得された動きベクトルMVの水平成分MVx及び垂直成分MVyがいずれも整数値を有する場合、動き補償部425は、メモリに保存された参照フレームから、現在予測単位を動きベクトル(MVx,MVy)ほど変移させた位置の対応領域に該当するLxM個の整数ピクセルを獲得することにより、現在予測単位の予測値を獲得することができる。
動きベクトルが、整数ピクセル位置ではないaないしo 1505ないし1519のうちいずれか1つのサブピクセルを示す場合、当該サブピクセルを獲得するために、補間過程が必要である。サブピクセルの補間過程は、所定のフィルタタップ数を有する補間フィルタを、参照フレームの整数ピクセルに適用して行われる。水平方向に隣接した整数ピクセルA 1501及びB 1502の間に位置したサブピクセルであるa 1505、b 1506及びc 1507の場合、水平成分だけが分数値を有し、垂直成分は、整数値を有する。従って、a 1505、b 1506及びc 1507を補間するためには、水平方向に、一次元補間過程が適用される。同様に、垂直方向に隣接した整数ピクセルA 1501及びC 1503の間に位置したサブピクセルであるd 1508、h 1512及びl 1516の場合、垂直成分だけが分数値を有し、水平成分は、整数値を有する。従って、d 1508、h 1512及びl 1516を補間するためには、垂直方向に一次元補間過程が適用される。
a 1505、b 1506、c 1507、d 1508、h 1512及びl 1516を除いた残りのサブピクセルe 1509、f 1510、g 1511、i 1513、j 1514、k 1515、m 1517、n 1518、o 1519の場合、水平成分及び垂直成分がいずれも分数値を有するようになるので、水平方向及び垂直方向への二次元補間過程が必要である。
このように、本発明で利用される一次元補間過程は、動きベクトルの水平成分及び垂直成分のうちいずれか一つだけが整数値ではない分数値を有し、動き補償過程で、水平方向及び垂直方向のうち、ただ一方向だけに補間が行われる場合を意味し、二次元補間過程は、動きベクトルの水平成分及び垂直成分がいずれも整数値ではない分数値を有し、水平方向モード及び垂直方向モードで補間が行われる場合を意味する。
図16は、本発明の一実施形態による参照フレームの補間過程について説明するための図面である。図16で、アルファベット大文字(AないしZ)は、整数ピクセルを示し、アルファベット小文字で表示されたピクセルは、1/2または1/4サブピクセルを示す。
補間部1410は、動き予測及び動き補償に必要なサブピクセルを生成するために、所定のフィルタタップ数を有する補間フィルタを、整数ピクセルに適用する。例えば、図16を参照すれば、補間部1410は、水平方向または垂直方向に、整数画素信号AないしZに、N(Nは整数)タップ補間フィルタを適用し、サブピクセルを生成することができる。輝度成分の補間のために、8タップ補間フィルタを適用し、色差成分の補間のために、4タップ補間フィルタを適用することができる。フィルタタップ数Nは、それに限定されるものではなくして変更されてもよい。
図16を参照し、サブピクセルの補間過程についてさらに具体的に説明する。
整数ピクセルと同一行または同一列に位置したサブピクセルであるa、b、c、d、h、nを補間するために、前述のように、水平方向または垂直方向のうちいずれか1つの方向に、フィルタタップ数によるN個の整数ピクセルを読み取り、読み取られたN個の整数ピクセルに、補間フィルタを適用することにより、サブピクセルを生成することができる。例えば、1/2サブピクセルb 1610は、{p1,p2,p3,p4,p5,p6,p7,p8}のタップ係数を有する8タップ補間フィルタを、サブピクセルb 1610と水平方向に隣接した8個の整数ピクセルであるG、H、I、J、K、L、M、Nに適用し、次の数学式:b=(G*p1+H*p2+I*p3+J*p4+K*p5+L*p6+M*p7+N*p8)を介して生成される。同様に、1/2サブピクセルh 1620は、垂直方向に隣接した8個の整数ピクセルA、C、E、J、R、W、Y、AAに、{p1,p2,p3,p4,p5,p6,p7,p8}のタップ係数を有する8タップ補間フィルタを適用し、次の数学式:h=(A*p1+C*p2+E*p3+J*p4+R*p5+W*p6+Y*p7+AA*p8)を介して生成される。前述のように、タップ数及びタップ係数は変更されてもよい。
整数ピクセルと同一行または同一列に位置した1/4サブピクセルであるa、c、d、nは、前述の補間過程を介して生成された1/2サブピクセルb 1610,h 1620と整数ピクセルとの平均値を介して生成される。例えば、1/4サブピクセルa 1640)は、次の数学式:a=(J+b)/2のように生成される。そのように、整数ピクセルと同一行または同一列に位置した1/2サブピクセルb,nや、1/4サブピクセルであるa、c、d、nを補間するためには、フィルタタップ係数N個の周辺整数ピクセルを読み取る過程が必要である。
次に、整数ピクセルと同一行または同一列に位置していないサブピクセルであるe、f、g、i、j、k、p、q、rの補間過程について説明する。
1/2サブピクセルj 1630は、水平方向または垂直方向のうち、任意の方向に補間フィルタを適用して生成される。例えば、1/2サブピクセルj 1630は、水平方向に隣接した周辺の1/2サブピクセルnn,mm,ll,h,hh,ii,jj,kに、8タップ補間フィルタを適用して生成されるか、あるいは垂直方向に隣接した周辺の1/2サブピクセルaa,bb,cc,b,dd,ee,ff,ggに、8タップ補間フィルタを適用して生成される。ここで、水平方向に隣接した1/2サブピクセルnn,mm,ll,h,hh,ii,jj,kは、前述の1/2サブピクセルh 1620の獲得過程と同様に生成され、垂直方向に隣接した1/2サブピクセルaa,bb,cc,b,dd,ee,ff,ggは、前述の1/2サブピクセルb 1610の獲得過程と同様に生成される。
整数ピクセルと同一行または同一列に位置していない1/4サブピクセルであるe、f、g、i、k、p、q、rは、周辺に隣接した整数ピクセルまたは1/2サブピクセルの平均値フィルタを利用して生成される。例えば、1/4サブピクセルf 1650は、1/2サブピクセルb 1610と1/2サブピクセルj 1630との平均値を利用して獲得され、1/4サブピクセルr 1660は、次の数学式:r=(hh+dd)/2のように、対角線方向の平均値フィルタを利用して生成される。
図17Aないし図17Cは、本発明の一実施形態による、動き補償過程に必要な参照フレームのデータを示した図面である。
図17Aを参照すれば、動き予測部420において、動き予測を介して、LxM(L,Mは整数)サイズを有する現在予測単位1711の動きベクトルMV1が決定されれば、動き補償部425は、参照フレーム1720において、動きベクトルMV1が示す対応領域1721をメモリから読み取り、現在予測単位1711の予測値を生成する。動きベクトルMV1の水平成分がMVx1であり、垂直成分がMVy1であり、水平成分MVx1が整数値、垂直成分MVy1が分数値を有すると仮定する。そのような場合、対応領域1721を読み取るためには、垂直方向に隣接した整数ピクセル間のサブピクセルを生成する必要がある。もし垂直方向に適用される補間フィルタのタップ数をNと仮定すれば、1つのピクセル当たり垂直方向補間に必要な垂直方向の整数ピクセルの個数がNであり、対応領域1721の1列がL個のピクセルで構成されるので、対応領域1721を読み取るためには、補間に必要な垂直方向の整数ピクセルを含め、総(L+N−1)*M個の整数ピクセルを読み取る必要がある。
同様に、図17Bを参照すれば、動き予測部420において、動き予測を介して、現在予測単位1711の動きベクトルMV2が決定されれば、動き補償部425は、参照フレーム1720において、動きベクトルMV2が示す対応領域1721を、メモリから読み取り、現在予測単位1711の予測値を生成する。動きベクトルMV2の水平成分がMVx2であり、垂直成分がMVy2であり、水平成分MVx2が分数値、垂直成分MVy2が整数値を有すると仮定する。そのような場合、対応領域1721を読み取るためには、水平方向に隣接した整数ピクセル間のサブピクセルを生成する必要がある。もし水平方向に適用される補間フィルタのタップ数をNと仮定すれば、1つのピクセル当たり水平方向補間に必要な水平方向の整数ピクセルの個数がNであり、対応領域1721の1行がM個のピクセルで構成されるので、対応領域1721を読み取るためには、補間に必要な水平方向の整数ピクセルを含め、総L*(M+N−1)個の整数ピクセルを読み取る必要がある。
図17Cを参照すれば、動き予測部420において、動き予測を介して、現在予測単位1711の動きベクトルMV3が決定されれば、動き補償部425は、参照フレーム1720において、動きベクトルMV3が示す対応領域1721をメモリから読み取り、現在予測単位1711の予測値を生成する。動きベクトルMV3の水平成分がMVx3であり、垂直成分がMVy3であり、水平成分MVx3及び垂直成分MVy3がいずれも分数値を有すると仮定する。そのような場合、対応領域1721を読み取るためには、水平方向及び垂直方向に補間を行い、整数ピクセル間のサブピクセルを生成する必要がある。前述のように、垂直方向に適用される補間フィルタのタップ数をN、水平方向に適用される補間フィルタのタップ数をNと仮定すれば、対応領域1721を読み取るためには、補間に必要な水平方向及び垂直方向の整数ピクセルを含め、総(L+N−1)*(M+N−1)個の整数ピクセルを読み取る必要がある。
そのように、現在予測単位の動きベクトルの水平成分及び垂直成分によって、サブピクセルを補間するために読み取られる参照フレームの整数ピクセルの個数が決定される。
メモリアクセスの観点で、動き補償時、現在予測単位の1つのピクセル当たり必要な参照フレームの整数ピクセルの個数Numは、次の数学式:Num=(現在予測単位の動き補償に必要な参照フレームのピクセル個数)/(現在予測単位に含まれた全体ピクセル個数)を介して獲得される。前述のように、垂直方向に適用される補間フィルタのタップ数がNであり、水平方向に適用される補間フィルタのタップ数がNであり、現在予測単位の動きベクトルの水平成分がMVx、垂直成分がMVyであると仮定する。動きベクトルの水平成分MVxだけが整数値ではない分数値を有する場合、LxMサイズの現在予測単位の動き補償に必要な参照フレームのピクセル個数は、(L+N−1)*Mであるので、その場合、動き補償時、現在予測単位の1つのピクセル当たり必要な参照フレームの整数ピクセルの個数Numは、次の数学式:Num=(L+N−1)*M/(L*M)となる。
同様に、動きベクトルの垂直成分MVyだけが整数値ではない分数値を有する場合、LxMサイズの現在予測単位の動き補償に必要な参照フレームのピクセル個数は、L*(M+N−1)であるので、その場合、動き補償時、現在予測単位の1つのピクセル当たり必要な参照フレームの整数ピクセルの個数Numは、次の数学式:Num=L*(M+N−1)/(L*M)となる。
動きベクトルの水平成分MVx及び垂直成分MVyがいずれも整数値ではない分数値を有する場合、LxMサイズの現在予測単位の動き補償に必要な参照フレームのピクセル個数は(L+N−1)*(M+N−1)であるので、その場合、動き補償時、現在予測単位の1つのピクセル当たり必要な参照フレームの整数ピクセルの個数Numは、次の数学式:Num=(L+N−1)*(M+N−1)/(L*M)となる。
そのように、動き補償時、現在予測単位の1つのピクセル当たり参照フレームの整数ピクセルの個数Numは、単方向予測である場合に該当し、双方向予測である場合には2個の参照フレームを利用するので、必要な整数ピクセルの個数は、2*Numになる。
後述する通り、本発明の一実施形態によれば、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数Numを、現在予測単位の大きさ、並びに現在予測単位に適用される単方向動き予測モード及び双方向動き予測モードによって分類し、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が、所定臨界値以下である場合には、現在予測単位に、前記単方向動き予測モード及び前記双方向動き予測モードをいずれも適用し、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が、所定臨界値より大きい場合には、現在予測単位に単方向動き予測モードのみを適用することにより、参照フレームを保存する所定メモリ装置へのアクセスを制限する。すなわち、本発明の一実施形態によれば、動き補償過程で、1ピクセル当たり要求される参照フレームのピクセル個数が過度に多い場合には、当該動き補償過程を制限することにより、動き補償過程で、参照フレームデータの読み取りのためのメモリへのアクセスを制限する。
図18Aないし図18Gは、予測単位の大きさ、予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を示した表である。図18Aないし図18Gの表で、Iは、動きベクトルの水平成分及び垂直成分がいずれも整数値を有する場合を示し、1Dは、動きベクトルの水平成分及び垂直成分のうちいずれか一つが整数値ではない分数値を有する場合を示し、2Dは、動きベクトルの水平成分及び垂直成分いずれもが整数値ではない分数値を有する場合を示す。また、第1参照ピクチャリストを参照するL0予測、及び第2参照ピクチャリストを参照するL1予測を含む双方向予測(bi-prediction)の場合、記載されたI−Iは、L0予測及びL1予測に利用される2個の動きベクトルの水平成分及び垂直成分が、いずれも整数値である場合を示し、1D−1Dは、L0予測及びL1予測に利用される2個の動きベクトルが、いずれも整数値ではない分数値を有する1つの水平成分または垂直成分を有する場合を示し、2D−2Dは、L0予測及びL1予測に利用される2個の動きベクトル水平成分及び垂直成分いずれもが整数値ではない分数値を有する場合を示す。また、I−1Dは、L0予測及びL1予測に利用される2個の動きベクトルのうち、1つの動きベクトルの水平成分及び垂直成分がいずれも整数値を有し、他の1つの動きベクトルが、動きベクトルの水平成分及び垂直成分のうちいずれか一つが整数値ではない分数値を有する場合を示す。また、I−2Dは、L0予測及びL1予測に利用される2個の動きベクトルのうち、1つの動きベクトルの水平成分及び垂直成分がいずれも整数値を有し、他の1つの動きベクトルが、水平成分及び垂直成分いずれも整数値ではない分数値を有する場合を示す。また、1D−2Dは、L0予測及びL1予測に利用される2個の動きベクトルのうち、1つの動きベクトルが、水平成分または垂直成分のうち一つが整数値ではない分数値を有し、他の1つの動きベクトルが、水平成分及び垂直成分いずれも整数値ではない分数値を有する場合を示す。
また、図18Aないし図18Gで、水平方向及び垂直方向での補間フィルタとして、同一のタップ数Nを有する補間フィルタが適用され、図18Aないし図18Gそれぞれは、タップ数Nが8から2である値を有する場合に該当する。
図18Aを参照すれば、8タップ補間フィルタを利用して、4x8サイズの予測単位の動きベクトルが、水平成分または垂直成分のうちいずれか一つだけが整数値ではない分数値を有し、4x8サイズの予測単位に対して、単方向動き予測(uni-prediction)を行う場合、4x8サイズの予測単位の動き補償に必要な全体整数ピクセルの個数は、(4+8−1)*8であるので、4x8サイズの予測単位に含まれた32個のピクセルで割り、2.75の値を獲得することができる。すなわち、(4+8−1)*8/(4x8)=2.75である。そのような計算過程を介して、図18Aに図示されたように、予測単位(ブロック)の大きさが4x8であり、動きベクトルの水平成分及び垂直成分のうちいずれか一つだけが整数値ではない分数値を有し(1Dである場合)、単方向予測モードの場合、1つのピクセル当たり必要な参照フレームの整数ピクセル個数である2.75を獲得することができる。他の場合にも、前述の動きベクトルの水平成分及び垂直成分が整数値であるか分数値であるかということにより、動き補償時、現在予測単位の1つのピクセル当たり必要な参照フレームの整数ピクセルの個数を計算する次の数学式:Num=(L+N−1)*M/(L*M)またはNum=L*(M+N−1)/(L*M)またはNum=(L+N−1)*(M+N−1)/(L*M)のうち一つを利用して、図18Aないし図18Gに図示された表を獲得することができる。
一方、図18Aないし図18Gの表を分析すれば、動き補償時、現在予測単位の1つのピクセル当たり必要な参照フレームの整数ピクセルの個数は、予測単位の大きさが増大するほど減少するということが分かる。例えば、図18Aを参照すれば、双方向予測モード(bi-prediction)で、動きベクトルの水平成分及び垂直成分いずれも整数値ではない分数値を有し(2D−2Dである場合)、予測単位の大きさが、2x2から64x64に増大するほど、1つのピクセル当たり必要な参照フレームの整数ピクセル個数は、40.50から2.46に減少するということを確認することができる。そのように、過度に小サイズの予測単位に対して、動き予測及び動き補償を行う場合、メモリアクセス観点で、1つのピクセル当たり必要な参照フレームの整数ピクセル個数が増加するので、非効率的である。従って、本発明の一実施形態によれば、予測単位の大きさが所定サイズより大きい場合、単方向動き予測モード及び双方向動き予測モードをいずれも利用して、予測単位の大きさが、所定サイズ以下である場合、単方向動き予測モードのみを利用することにより、予測単位の大きさが、所定臨界値以下の小サイズを有する場合に適用される動き予測モードを制限し、参照フレームデータの読み取りのためのメモリへのアクセスを、所定帯域幅内に制限する。
図19及び図20は、輝度成分(luminance component)の予測単位の大きさ、色差成分(chroma component)の予測単位の大きさ、動き予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を、大きい値から降順に示した表である。図19で、輝度成分に対して、補間フィルタとして、8タップ補間フィルタ、色差成分に対する補間フィルタとして、4タップ補間フィルタが利用され、輝度成分の最小予測単位の大きさが4x8であり、色差成分の最小予測単位の大きさが2x4である場合を仮定する。図20は、図19と比較し、輝度成分の最小予測単位の大きさが4x4であり、色差成分の最小予測単位の大きさが2x2である場合である。
図19を参照すれば、表で、上位に位置した場合であればあるほど、メモリアクセス観点で、非効率的な場合を意味するので、本発明の実施形態による動き予測部420及び動き補償部425は、上位に位置した場合の動き予測モードを制限したり、あるいは変更することにより、動き補償過程でのメモリアクセスを制限することができる。例えば、動き予測部420及び動き補償部425は、輝度成分の予測単位の大きさが、最小予測単位である4x8または8x4に該当する場合には、L0予測及びL1予測を含む単方向動き予測モードのみを適用し、輝度成分の予測単位の大きさが、最小予測単位である4x8または8x4より大きい場合にのみ、単方向動き予測モード以外に、双方向動き予測モードを遂行することができる。同様に、動き予測部420及び動き補償部425は、色差成分の予測単位の大きさが、最小予測単位である2x4または4x2に該当する場合には、L0予測及びL1予測を含む単方向動き予測モードのみを適用し、色差成分の予測単位の大きさが、最小予測単位である2x4または4x2より大きい場合にのみ、単方向動き予測モード以外に、双方向動き予測モードを遂行することができる。
同様に、図20を参照すれば、動き予測部420及び動き補償部425は、上位に位置した場合に該当する動き予測モードを制限したり、あるいは変更することにより、動き補償過程でのメモリアクセスを制限することができる。
前述のように、本発明の一実施形態による動き予測部420及び動き補償部425は、メモリアクセス観点で、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が、所定臨界値以上に該当する場合、当該動き予測モードを制限する。すなわち、動き予測部420及び動き補償部425は、現在予測単位の大きさが、所定サイズより大きい場合、単方向動き予測モード並びに双方向動き予測モードをいずれも利用すると決定し、現在予測単位の大きさが、所定サイズ以下である場合、単方向動き予測モードのみを利用すると決定する。そして、動き予測部420及び動き補償部425は、現在予測単位の大きさが過度に小さい場合には、動き予測モード自体を適用しないと決定することができる。例えば、動き予測部420及び動き補償部425は、輝度成分の予測単位については、最小予測単位の大きさとして、4x8または8x4を設定し、輝度成分の現在予測単位が、4x8または8x4より小さい場合、動き予測自体を遂行しないこともある。また、動き予測部420及び動き補償部425は、色差成分の予測単位については、最小予測単位の大きさとして、2x4または4x2を設定し、色差成分の現在予測単位が、2x4または4x2より小さい場合、動き予測自体を遂行しないこともある。そして、動き予測部420及び動き補償部425は、最小予測単位の大きさ以上の場合にも、行われる動き予測モードを分類し、メモリアクセス観点で最も非効率的である現在予測単位の大きさが、最小予測単位サイズに該当する場合には、単方向動き予測モードのみを利用して、現在予測単位の大きさが、最小予測単位サイズに該当しない場合、すなわち、現在予測単位の大きさ、が最小予測単位の大きさより大きい場合にのみ、単方向動き予測モード及び双方向動き予測モードをいずれも利用すると決定することができる。
このように、動き予測部420及び動き補償部425は、現在予測単位の大きさに基づいて、現在予測単位の動き予測及び動き補償に適用される単方向動き予測モード、並びに双方向動き予測モードの利用いかんを決定し、単方向動き予測モード及び双方向動き予測モードの利用いかんにより、単方向動き予測モード及び双方向動き予測モードのうち、少なくとも1つの動き予測モードを適用し、現在予測単位に係わる動き予測及び動き補償を行う。図4に図示されていない制御部では、動き予測及び動き補償を介して獲得された現在予測単位の符号化コスト、例えば、RD(rate distortion)コストなどに基づいて、現在予測単位に適用される最適の動き予測モードを決定する。そして、エントロピー符号化部450は、現在予測単位の大きさに基づいて、決定された動き予測モード情報を符号化する。
例えば、エントロピー符号化部460は、現在予測単位の大きさに基づいて、現在予測単位について決定された最終動き予測モードを示すシンタックスであるinter_pred_idcを、次の表2に基づいて決定し、inter_pred_idcを符号化する。
Figure 2017063468
表2を参照すれば、エントロピー符号化部450は、現在予測単位の大きさに基づいて、現在予測単位に対して最終的に決定された動き予測モードを示すinter_pred_idcをエントロピー符号化する。具体的には、現在予測単位が、輝度成分の予測単位として、最小予測単位である4x8または8x4より大サイズを有する場合、単方向予測(L0予測及びL1予測)と双方向予測とがいずれも利用されが、現在予測単位の最終動き予測モードとして、L1予測が決定された場合、エントロピー符号化部450は、inter_pred_idcとして1の値をエントロピー符号化する。復号化側のエントロピー復号化部520は、ビットストリームから獲得される現在予測単位のサイズ情報と、inter_pred_idcに基づいて、表2によって現在予測単位に利用された動き予測モードとを決定することができる。他の例として、現在予測単位が輝度成分の予測単位として、最小予測単位である4x8または8x4の最小予測単位に該当する場合、単方向予測(L0予測及びL1予測)だけが利用され、現在予測単位の最終動き予測モードとして、L1予測が決定された場合、エントロピー符号化部460は、inter_pred_idcとして1の値をエントロピー符号化する。
本発明の一実施形態によれば、メモリアクセス観点で、予測単位の大きさに基づいて、単方向動き予測モード及び双方向動き予測モードの利用いかんを制限することにより、動き補償を行う。本発明の他の実施形態によれば、動き補償に利用される補間フィルタのタップ数を減少させることができる。例えば、本発明の他の実施形態によれば、輝度成分の補間に利用される8タップ補間フィルタの代わりに、4タップ補間フィルタを利用したり、あるいは色差成分の補間に利用される4タップ補間フィルタの代わりに、2タップ補間フィルタを利用することができる。
また、本発明のさらに他の実施形態によれば、二次元補間過程を一次元補間過程で代替することにより、参照フレームのデータ読み取り過程を減少させることができる。
図21ないし図23は、本発明のさらに他の実施形態による参照フレームのデータ読み取り過程を減少させるための補間過程について説明するための参照図である。図21ないし図23を参照すれば、前述のように、整数ピクセルと同一行または同一列に位置していないサブピクセルであるe、f、g、i、j、k、m、n、oは、一次元補間フィルタのみを適用して獲得されず、二次元補間過程を介して獲得されるので、メモリアクセスを増加させる。従って、本発明のさらに他の実施形態によれば、二次元補間過程を介して獲得されるサブピクセルであるe、f、g、i、j、k、m、n、oに対する補間過程を遂行せず、一次元補間フィルタを介して獲得される周辺サブピクセルや整数ピクセルを利用して、サブピクセルe,f,g,i,j,k,m,n,oの値を獲得する。
図21ないし図23を参照すれば、動き予測部420及び動き補償部425は、サブピクセルであるe、f、g、i、j、k、m、n、oの値を生成するために、図示された矢印が示す周辺サブピクセルや整数ピクセルを利用することができる。
図24及び図25は、本発明の他の実施形態によって、補間フィルタのタップ数を減少させたり、あるいは二次元補間過程の代わりに、一次元補間フィルタを介して獲得される周辺サブピクセルや整数ピクセルを利用して補間を行う場合、輝度成分の予測単位の大きさ、色差成分の予測単位の大きさ、動き予測モード、並びに予測単位の動きベクトルの水平方向及び垂直方向の成分値が整数値であるか否かということにより、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数を、大きい値から降順に示した表である。図24は、輝度成分の最小予測単位の大きさが4x8であり、色差成分の最小予測単位の大きさが2x4である場合であり、図25は、輝度成分の最小予測単位の大きさが4x4であり、色差成分の最小予測単位の大きさが2x2である場合である。また、図24及び図25でAは、本発明の他の実施形態によって、補間フィルタのタップ数を減少させた場合であり、Bは、本発明のさらに他の実施形態によって、二次元補間過程の代わりに、一次元補間フィルタを介して獲得される周辺サブピクセルや整数ピクセルを利用して、補間を行う場合に該当する。
図24及び図25を参照すれば、本発明の他の実施形態によって、補間フィルタのタップ数を減少させたり、あるいは二次元補間過程の代わりに、一次元補間フィルタを介して獲得される周辺サブピクセルや整数ピクセルを利用して補間を行う場合、そうではない場合(original)に比べ、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が減少するということを確認することができる。
図26は、本発明の一実施形態によるビデオ符号化方法を示したフローチャートである。図26を参照すれば、段階2610で、動き予測部420及び動き補償部425は、符号化される現在予測単位の大きさに基づいて、現在予測単位の動き予測及び動き補償に適用される単方向動き予測モード、並びに双方向動き予測モードの利用いかんを決定する。前述のように、動き予測部420及び動き補償部425は、メモリアクセス観点で、現在予測単位の1ピクセル当たり動き補償に必要な参照フレームのピクセル個数が所定臨界値以上に該当する場合、当該動き予測モードを制限する。すなわち、動き予測部420及び動き補償部425は、現在予測単位の大きさが、所定サイズより大きい場合、単方向動き予測モード並びに双方向動き予測モードをいずれも利用すると決定し、現在予測単位の大きさが、所定サイズ以下である場合、単方向動き予測モードのみを利用すると決定することができる。
段階2620で、動き予測部420及び動き補償部425は、単方向動き予測モード及び双方向動き予測モードの利用いかんにより、単方向動き予測モード及び双方向動き予測モードのうち少なくとも1つの動き予測モードを適用し、現在予測単位に係わる動き予測及び動き補償を行う。
段階2630で、制御部は、動き予測及び動き補償を介して獲得された現在予測単位の符号化コストに基づいて、現在予測単位の動き予測モードを決定し、段階2640で、エントロピー符号化部460は、現在予測単位の大きさに基づいて、決定された動き予測モード情報をエントロピー符号化する。前述のように、エントロピー符号化部460は、現在予測単位の大きさに基づいて、現在予測単位に対して決定された最終動き予測モードを示すシンタックスであるinter_pred_idcを、表2に基づいて決定し、inter_pred_idcをエントロピー符号化する。
図27は、本発明の一実施形態による動き補償装置2700を図示している。図27の動き補償装置2700は、図5の映像復号化装置500の動き補償部560に対応する。
図5及び図27を参照すれば、エントロピー復号化部520は、ビットストリームから、復号化される現在予測単位のサイズ情報、及び現在予測単位に適用された動き予測モードを示す動き予測モード情報を獲得する。
図1ないし図13を参照して説明したように、ビットストリームから、ビデオを構成するフレームが分割された最大符号化単位の大きさ、前記最大符号化単位の空間的分割回数を示す深度、深度によって階層的に構成される符号化単位の予測符号化時に利用された予測単位及び階層的構造の変換単位の構造を示す情報を獲得し、獲得された情報に基づいて、フレームを最大サイズの符号化単位に分割した少なくとも1つの最大符号化単位ごとに、最大符号化単位の空間的分割回数を示す深度によって、階層的に構成される深度別符号化単位のうち、符号化深度の符号化単位を含むツリー構造による符号化単位を決定し、符号化深度の符号化単位ごとに、予測符号化のための予測単位を決定し、ツリー構造による変換単位を決定することができる。
また、動き予測モード情報は、現在予測単位の大きさに基づいて、現在予測単位に適用された動き予測モードを示すシンタックスであるinter_pred_idcが利用される。
動き補償遂行部2720は、獲得された動き予測モード情報(inter_pred_idc)と、現在予測単位の大きさとに基づいて、単方向動き予測モード及び双方向動き予測モードのうち、現在予測単位に適用された動き予測モードを、前述の表2を利用して決定する。
一例として、表2を再び参照すれば、現在予測単位が、輝度成分の予測単位として最小予測単位である4x8または8x4より大サイズを有し、ビットストリームから抽出されたinter_pred_idcの値が1である場合、動き補償遂行部2720は、現在予測単位の動き予測モードを、単方向L1予測と決定する。他の例として、現在予測単位が、輝度成分の予測単位として、最小予測単位である4x8または8x4の最小予測単位に該当する場合、動き補償遂行部2720は、ビットストリームから抽出されたinter_pred_idcの値が1であるならば、現在予測単位の最終動き予測モードをL1予測と決定し、inter_pred_idcの値が2であるならば、現在予測単位に対して、動き予測モードを適用しないと決定する。
図28は、本発明の一実施形態によるビデオ復号化方法を示したフローチャートである。図28を参照すれば、段階2810で、エントロピー復号化部520は、ビットストリームから、復号化される現在予測単位のサイズ情報、及び現在予測単位に適用された動き予測モードを示す動き予測モード情報を獲得する。
段階2820で、動き補償部560は、獲得された動き予測モード情報と、現在予測単位の大きさとに基づいて、単方向動き予測モード及び双方向動き予測モードのうち、現在予測単位に適用された動き予測モードを決定する。前述のように、動き補償部560は、表2によって決定されたシンタックスであるinter_pred_idcと、現在予測単位の大きさとに基づいて、現在予測単位に利用する動き予測モードを決定することができる。
段階2830で、動き補償部560は、決定された動き予測モードによって、参照フレームのデータを読み取り、現在予測単位に係わる予測値を獲得する動き補償を行う。
図1ないし図28を参照して説明したビデオ符号化、復号化方法のそれぞれの実施形態を具現するためのプログラムが、コンピュータで読み取り可能な記録媒体に保存されることにより、独立したコンピュータシステムが、前記記録媒体に保存された実施形態による動作を容易に具現することができる。
一実施形態によるプログラムが保存されるコンピュータで読み取り可能な記録媒体が、ディスク260である実施形態について、以下で説明する。
図29Aは、一実施形態によるプログラムが保存されたディスク260の物理的構造を例示している。記録媒体として説明したディスク260は、ハードドライブ、CD(compact disc)−ROM(read-only memory)ディスク、ブルーレイ(blu-ray)ディスク、DVD(digital versatile disc)でもある。ディスク260は、多数の同心円のトラックTrから構成され、トラックTrは、円周に沿って、所定個数のセクタSeに分割される。前述の一実施形態によるプログラムを保存するディスク260における特定領域に、前述のビデオ符号化方法、ビデオ復号化方法を具現するためのプログラムが割り当てられて保存される。
前述のビデオ符号化方法及びビデオ復号化方法を具現するためのプログラムを保存する記録媒体を利用して達成されたコンピュータシステムについて、図29Bを参照して説明する。
図29Bは、ディスク260を利用して、プログラムを記録して読み取るためのディスクドライブ263を図示している。コンピュータ・システム265は、ディスクドライブ263を利用して、本発明のビデオ符号化方法及びビデオ復号化方法のうち少なくとも一つを具現するためのプログラムを、ディスク260に保存することができる。ディスク260に保存されたプログラムを、コンピュータシステム265上で実行するために、ディスクドライブ263によって、ディスク260からプログラムが読み取られ、プログラムがコンピュータシステム265に伝送される。
図29A及び図29Bで例示されたディスク260だけではなく、メモリカード、ROMカセット、SSD(solid state drive)にも、本発明のビデオ符号化方法及びビデオ復号化方法のうち少なくとも一つを具現するためのプログラムが保存される。
前述の実施形態によるビデオ符号化方法及びビデオ復号化方法が適用されたシステムについて説明する。
図30は、コンテンツ流通サービス(content distribution service)を提供するためのコンテンツ供給システム(content supply system)1100の全体的構造を図示している。通信システムのサービス領域は、所定サイズのセルに分割され、各セルに、ベースステーションになる無線基地局1170,1180,1190,1200が設置される。
コンテンツ供給システム1100は、多数の独立デバイスを含む。例えば、コンピュータ1210、PDA(personal digital assistant)1220、ビデオカメラ1230及び携帯電話1250のような独立デバイスが、インターネットサービス供給者1120、通信網1140、及び無線基地局1170,1180,1190,1200を経て、インターネット1110に連結される。
しかし、コンテンツ供給システム1100は、図30に図示された構造にのみ限定されるものではなく、デバイスが選択的に連結されもする。独立デバイスは、無線基地局1170,1180,1190,1200を経ずに、通信網1140に直接連結されもする。
ビデオカメラ1230は、デジタルビデオカメラのように、ビデオ映像を撮影することができる撮像デバイスである。携帯電話1250は、PDC(personal digital communications)、CDMA(code division multiple access)、W−CDMA(wideband code division multiple access)、GSM(登録商標:global system for mobile communications)及びPHS(personal handyphone system)の各方式のような多様なプロトコルのうち少なくとも1つの通信方式を採択することができる。
ビデオカメラ1230は、無線基地局1190及び通信網1140を経て、ストリーミング・サーバ1130に連結される。ストリーミング・サーバ1130は、ユーザがビデオカメラ1230を使用して伝送したコンテンツを、リアルタイム放送でストリーミング伝送することができる。ビデオカメラ1230から受信されたコンテンツは、ビデオカメラ1230またはストリーミング・サーバ1130によって符号化される。ビデオカメラ1230に撮影されたビデオデータは、コンピュータ1210を経て、ストリーミング・サーバ1130に伝送される。
カメラ1260に撮影されたビデオデータも、コンピュータ1210を経て、ストリーミング・サーバ1130に伝送される。カメラ1260は、デジタルカメラのように、静止映像とビデオ映像とをいずれも撮影することができる撮像装置である。カメラ1260から受信されたビデオデータは、カメラ1260またはコンピュータ1210によって符号化される。ビデオ符号化及び復号化のためのソフトウェアは、コンピュータ1210がアクセスすることができるCD−ROMディスク、フロッピー(登録商標)、ハードディスクドライブ、SSD、メモリカードのようなコンピュータで読み取り可能な記録媒体に保存される。
また、携帯電話1250に搭載されたカメラによってビデオが撮影された場合、ビデオデータが携帯電話1250から受信される。
ビデオデータは、ビデオカメラ1230、携帯電話1250またはカメラ1260に搭載されたLSI(large scale integrated circuit)システムによって符号化される。
一実施形態によるコンテンツ供給システム1100で、例えば、コンサートの現場録画コンテンツのように、ユーザが、ビデオカメラ1230、カメラ1260、携帯電話1250または他の撮像デバイスを利用して録画されたコンテンツが符号化され、ストリーミング・サーバ1130に伝送される。ストリーミング・サーバ1130は、コンテンツデータを要請した他のクライアントに、コンテンツデータをストリーミング伝送することができる。
クライアントは、符号化されたコンテンツデータを復号化することができるデバイスであり、例えば、コンピュータ1210、PDA 1220、ビデオカメラ1230または携帯電話1250でもある。従って、コンテンツ供給システム1100は、クライアントをして、符号化されたコンテンツデータを受信して再生させる。また、コンテンツ供給システム1100は、クライアントをして、符号化されたコンテンツデータを受信してリアルタイムで復号化して再生させ、個人放送(personal broadcasting)を可能にする。
コンテンツ供給システム1100に含まれた独立デバイスの符号化動作及び復号化動作に、本発明のビデオ符号化装置及びビデオ復号化装置が適用される。
図31及び図32を参照し、コンテンツ供給システム1100における携帯電話1250の一実施形態について詳細に説明する。
図31は、一実施形態による本発明のビデオ符号化方法及びビデオ復号化方法が適用される携帯電話1250の外部構造を図示している。携帯電話1250は、機能が制限されず、応用プログラムを介して、相当部分の機能を変更したり、あるいは拡張することができるスマートホンでもある。
携帯電話1250は、無線基地局1200とRF(radio frequency)信号を交換するための内蔵アンテナ1251を含み、カメラ1253によって撮影された映像、またはアンテナ1251によって受信されて復号化された映像をディスプレイするためのLCD(liquid crystal display)画面、OLED(organic light emitting diode)画面のようなdeliスプレイ画面1252を含む。スマートホン1251は、制御ボタン、タッチパネルを含む動作パネル1254を含む。ディスプレイ画面1252がタッチスクリーンである場合、動作パネル1254は、ディスプレイ画面1252のタッチ感知パネルをさらに含む。スマートホン1251は、音声、音響を出力するためのスピーカ1258または他の形態の音響出力部と、音声、音響が入力されるマイクロホン1255または他の形態の音響入力部と、を含む。スマートホン1251は、ビデオ及び静止映像を撮影するためのCCD(charge coupled device)カメラのようなカメラ1253をさらに含む。また、スマートホン1251は、カメラ1253によって撮影されたり、電子メール(E−mail)として受信されたり、あるいは他の形態で獲得されたビデオや静止映像のように、符号化されるか復号化されたデータを保存するための記録媒体1257と、記録媒体1257を携帯電話1250に装着するためのスロット1256と、を含んでもよい。記録媒体1257は、SDカード、またはプラスチックケースに内蔵されたEEPROM(electrically erasable and programmable read only memory)のような他の形態のフラッシュメモリでもある。
図32は、携帯電話1250の内部構造を図示している。ディスプレイ画面1252及び動作パネル1254によって構成された携帯電話1250の各パートを組織的に制御するために、電力供給回路1270、動作入力制御部1264、映像符号化部1272、カメラ・インターフェース1263、LCD制御部1262、映像復号化部1269、マルチプレクサ/デマルチプレクサ(MUX:multiplexer/DEMUX:demultiplexer)1268、記録/判読部1267、変調/復調(modulation/demodulation)部1266及び音響処理部1265が、同期化バス1273を介して、中央制御部1271に連結される。
ユーザが電源ボタンを動作させ、「電源オフ」状態から「電源オン」状態に設定すれば、電力供給回路1270は、バッテリパックから、携帯電話1250の各パートに電力を供給することにより、携帯電話1250が動作モードにセッティングされる。
中央制御部1271は、CPU(central processing unit)、ROM及びRAM(random access memory)を含む。
携帯電話1250が、外部に通信データを送信する過程では、中央制御部1271の制御によって、携帯電話1250でデジタル信号が生成される、例えば、音響処理部1265では、デジタル音響信号が生成され、映像符号化部1272では、デジタル映像信号が生成され、動作パネル1254及び動作入力制御部1264を介して、メッセージのテキストデータが生成される。中央制御部1271の制御によって、デジタル信号が変調/復調部1266に伝達されれば、変調/復調部1266は、デジタル信号の周波数帯域を変調し、通信回路1261は、帯域変調されたデジタル音響信号に対して、D/A変換(digital-analog conversion)処理及び周波数変換(frequency conversion)処理を行う。通信回路1261から出力された送信信号は、アンテナ1251を介して、音声通信基地局または無線基地局1200に送出される。
例えば、携帯電話1250が通話モードであるとき、マイクロホン1255によって獲得された音響信号は、中央制御部1271の制御によって、音響処理部1265で、デジタル音響信号に変換される。生成されたデジタル音響信号は、変調/復調部1266及び通信回路1261を経て、送信信号に変換され、アンテナ1251を介して送出される。
データ通信モードで、電子メールのようなテキストメッセージが伝送される場合、動作パネル1254を利用して、メッセージのテキストデータが入力され、テキストデータが、動作入力制御部1264を介して、中央制御部1261に伝送される。中央制御部1261の制御により、テキストデータは、変調/復調部1266及び通信回路1261を介して送信信号に変換され、アンテナ1251を介して、無線基地局1200に送出される。
データ通信モードで、映像データを伝送するために、カメラ1253によって撮影された映像データが、カメラ・インターフェース1263を介し、て映像符号化部1272に提供される。カメラ1253によって撮影された映像データは、カメラ・インターフェース1263及びLCD制御部1262を介して、ディスプレイ画面1252に直ちにディスプレイされる。
映像符号化部1272の構造は、前述の本発明のビデオ符号化装置の構造と相応する。映像符号化部1272は、カメラ1253から提供された映像データを、前述のビデオ符号化装置100または映像符号化部400のビデオ符号化方式によって符号化し、圧縮符号化された映像データに変換して、符号化された映像データを、多重化/逆多重化部1268に出力することができる。カメラ1253の録画中に、携帯電話1250のマイクロホン1255によって獲得された音響信号も、音響処理部1265を経て、デジタル音響データに変換され、デジタル音響データは、多重化/逆多重化部1268に伝達することができる。
多重化/逆多重化部1268は、音響処理部1265から提供された音響データと共に、映像符号化部1272から提供された符号化された映像データを多重化する。多重化されたデータは、変調/復調部1266及び通信回路1261を介して送信信号に変換され、アンテナ1251を介して送出される。
携帯電話1250が、外部から通信データを受信する過程では、アンテナ1251を介して受信された信号を、周波数復元(frequency recovery)処理及びA/D変換(analog-digital conversion)処理を介してデジタル信号を変換する。変調/復調部1266は、デジタル信号の周波数帯域を復調する。帯域復調されたデジタル信号は、種類によって、ビデオ復号化部1269、音響処理部1265またはLCD制御部1262に伝達される。
携帯電話1250は、通話モードであるとき、アンテナ1251を介して受信された信号を増幅し、周波数変換及びA/D変換処理を介して、デジタル音響信号を生成する。受信されたデジタル音響信号は、中央制御部1271の制御によって、変調/復調部1266及び音響処理部1265を経て、アナログ音響信号に変換され、アナログ音響信号が、スピーカ1258を介して出力される。
データ通信モードで、インターネットのウェブサイトからアクセスされたビデオファイルのデータが受信される場合、アンテナ1251を介して、無線基地局1200から受信された信号は、変調/復調部1266の処理結果、多重化されたデータを出力し、多重化されたデータは、多重化/逆多重化部1268に伝達される。
アンテナ1251を介して受信された多重化されたデータを復号化するために、多重化/逆多重化部1268は、多重化されたデータを逆多重化し、符号化されたビデオデータ・ストリームと、符号化されたオーディオデータ・ストリームとを分離する。同期化バス1273により、符号化されたビデオデータ・ストリームは、ビデオ復号化部1269に提供され、符号化されたオーディオデータ・ストリームは、音響処理部1265に提供される。
映像復号化部1269の構造は、前述の本発明のビデオ復号化装置の構造と相応する。映像復号化部1269は、前述のビデオ復号化装置200または映像復号化部500のビデオ復号化方式を利用して、符号化されたビデオデータを復号化し、復元されたビデオデータを生成し、復元されたビデオデータを、LCD制御部1262を経てディスプレイ画面1252に提供することができる。
それにより、インターネットのウェブサイトからアクセスされたビデオファイルのビデオデータが、ディスプレイ画面1252にディスプレイされる。それと同時に、音響処理部1265も、オーディオデータをアナログ音響信号に変換し、アナログ音響信号をスピーカ1258に提供することができる。それにより、インターネットのウェブサイトからアクセスされたビデオファイルに含まれたオーディオデータも、スピーカ1258で再生される。
携帯電話1250または他の形態の通信端末機は、本発明のビデオ符号化装置及びビデオ復号化装置をいずれも含む送受信端末機であるか、前述の本発明のビデオ符号化装置のみを含む送信端末機であるか、あるいは本発明のビデオ復号化装置のみを含む受信端末機でもある。
本発明の通信システムは、図30を参照して説明した構造に限定されるものではない。例えば、図33は、本発明による通信システムが適用されたデジタル放送システムを図示している。図33の一実施形態によるデジタル放送システムは、本発明のビデオ符号化装置及びビデオ復号化装置を利用して、衛星ネットワークまたは地上波ネットワークを介して伝送されるデジタル放送を受信することができる。
具体的には、放送局1289は、電波を介して、ビデオデータ・ストリームを通信衛星または放送衛星1290に伝送する。放送衛星1290は、放送信号を伝送し、放送信号は、宅内にあるアンテナ1286によって衛星放送受信機に受信される。各家庭で、符号化されたビデオストリームは、TV(television)受信機1281、セットトップ・ボックス(set-top box)(1287)または他のデバイスによって復号化されて再生される。
再生装置1283で、本発明のビデオ復号化装置が具現されることにより、再生装置1283が、ディスク及びメモリカードのような記録媒体1282に記録された符号化されたビデオストリームを読み取って復号化することができる。それによって復元されたビデオ信号は、例えば、モニタ1284で再生される。
衛星/地上波放送のためのアンテナ1286、またはケーブルTV受信のためのケーブルアンテナ1285に連結されたセットトップ・ボックス1287にも、本発明のビデオ復号化装置が搭載される。セットトップ・ボックス1287の出力データも、TVモニタ1288で再生される。
他の例として、セットトップ・ボックス1287の代わりに、TV受信機1281自体に、本発明のビデオ復号化装置が搭載されもする。
適切なアンテナ1291を具備した自動車1292が、衛星1290または無線基地局1170から送出される信号を受信することもできる。自動車1292に搭載された自動車ナビゲーションシステム1293のディスプレイ画面で、復号化されたビデオが再生される。
ビデオ信号は、本発明のビデオ符号化装置によって符号化され、記録媒体に記録されて保存される。具体的には、DVDレコーダによって、映像信号がDVDディスク1296に保存されるか、あるいはハードディスク・レコーダ1295によって、ハードディスクに映像信号が保存される。他の例として、ビデオ信号は、SDカード1297に保存されもする。ハードディスク・レコーダ1295が、一実施形態による本発明のビデオ復号化装置を具備すれば、DVDディスク1296、SDカード1297、または他の形態の記録媒体に記録されたビデオ信号がモニタ1288で再生される。
自動車ナビゲーションシステム1293は、図32のカメラ1253、カメラ・インターフェース1263及び映像符号化部1272を含まないこともある。例えば、コンピュータ1210及びTV受信機1281も、図32のカメラ1253、カメラ・インターフェース1263及び映像符号化部1272を含まないこともある。
図34は、本発明の一実施形態によるビデオ符号化装置及びビデオ復号化装置を利用するクラウドコンピュータ・システムのネットワーク構造を図示している。
本発明のクラウドコンピュータ・システムは、クラウドコンピュータ・サーバ1400、ユーザDB(database)1410、コンピューティング資源1420及びユーザ端末機を含んでもなる。
クラウドコンピュータ・システムは、ユーザ端末機の要請により、インターネットのような情報通信網を介して、コンピューティング資源1420のオンデマンド・アウトソーシングサービスを提供する。クラウドコンピュータ環境で、サービス提供者は、互いに異なる物理的な位置に存在するデータセンターのコンピュータ資源を、仮想化技術で統合し、ユーザが必要とするサービスを提供する。サービスユーザは、アプリケーション(application)、ストレージ(storage)、運用体制(OS)、保安(security)などのコンピューティング資源を、各ユーザ所有の端末にインストールして使用するのではなく、仮想化技術を介して生成された仮想空間上のサービスを、所望時点で所望のほど選択して使用することができる。
特定サービスユーザのユーザ端末機は、インターネット及び移動通信網を含む情報通信網を介して、クラウドコンピュータ・サーバ1400に接続する。ユーザ端末機は、クラウドコンピュータ・サーバ1400から、クラウドコンピュータ・サービス、特に、動画再生サービスを提供される。ユーザ端末機は、デスクトップPC(personal computer)1430、スマートTV 1440、スマートホン1450、ノート型パソコン1460、PMP(portable multimedia player)1470、タブレットPC 1480など、インターネット接続が可能なあらゆる電子機器にもなる。
クラウドコンピュータ・サーバ1400は、クラウド網に分散されている多数のコンピューティング資源1420を統合し、ユーザ端末機に提供することができる。多数のコンピューティング資源1420は、さまざまなデータサービスを含み、ユーザ端末機からアップロードされたデータを含んでもよい。かように、クラウドコンピュータ・サーバ1400は、さまざまなところに分散されている動画データベースを、仮想化技術で統合してユーザ端末機が要求するサービスを提供する。
ユーザDB 1410には、クラウドコンピュータ・サービスに加入しているユーザ情報が保存される。ここで、ユーザ情報は、ログイン情報;及び住所、名前など個人信用情報;を含む。また、ユーザ情報は、動画のインデックス(index)を含んでもよい。ここで、インデックスは、再生を完了した動画リストや、再生中の動画リストや、再生中である動画の停止時点などを含んでもよい。
ユーザDB 1410に保存された動画についての情報は、ユーザデバイス間に共有される。従って、例えば、ノート・パソコン1460から再生要請され、ノート型パソコン1460に、所定動画サービスを提供した場合、ユーザDB 1410に、所定動画サービスの再生ヒストリーが保存される。スマートホン1450から、同一の動画サービスの再生要請が受信される場合、クラウドコンピュータ・サーバ1400は、ユーザDB 1410を参照し、所定動画サービスを探して再生する。スマートホン1450がクラウドコンピュータ・サーバ1400を介し、て動画データストリームを受信する場合、動画データストリームを復号化してビデオを再生する動作は、前述の図32を参照して説明した携帯電話1250の動作と類似している。
クラウドコンピュータ・サーバ1400は、ユーザDB 1410に保存された所定動画サービスの再生ヒストリーを参照することもできる。例えば、クラウドコンピュータ・サーバ1400は、ユーザ端末機から、ユーザDB 1410に保存された動画に対する再生要請を受信する。動画が、それ以前に再生中であったものであるならば、クラウドコンピュータ・サーバ1400は、ユーザ端末機への選択によって、最初から再生するか、あるいは以前停止時点から再生するかということにより、ストリーミング方法が異なる。例えば、ユーザ端末機が、最初から再生するように要請した場合には、クラウドコンピュータ・サーバ1400は、ユーザ端末機に、当該動画を最初のフレームからストリーミング伝送する。一方、ユーザ端末機が、以前停止時点から続けて再生するように要請した場合には、クラウドコンピュータ・サーバ1400は、ユーザ端末機に、当該動画を、停止時点のフレームからストリーミング伝送する。
そのとき、ユーザ端末機は、図1ないし図28を参照して説明した本発明のビデオ復号化装置を含んでもよい。他の例として、ユーザ端末機は、図1ないし図28を参照して説明した本発明のビデオ符号化装置を含んでもよい。また、ユーザ端末機は、図1ないし図28を参照して説明した本発明のビデオ符号化装置及びビデオ復号化装置をいずれも含んでもよい。
図1ないし図28を参照して説明した本発明のビデオ符号化方法及びビデオ復号化方法、本発明のビデオ符号化装置及びビデオ復号化装置が活用される多様な実施形態について、図29Aないし図34で説明した。しかし、図1ないし図28を参照して説明した本発明のビデオ符号化方法及びビデオ復号化方法が記録媒体に保存されたり、あるいは本発明のビデオ符号化装置及びビデオ復号化装置がデバイスで具現される多様な実施形態は、図29Aないし図34の実施形態に限定されるものではない。
本発明で開示されたブロック図は、本発明の原理を具現するための回路を概念的に表現した形態であると当業者に解釈されるものである。同様に、任意のフローチャート、順序図、状態転移図、疑似コードなどは、コンピュータで読み取り可能媒体で実質的に表現され、コンピュータまたはプロセッサが明示上に図示していようといまいと、かようなコンピュータまたはプロセッサによって実行される多様なプロセスを示すということは、当業者に認識されるであろう。従って、前述の本発明の実施形態は、コンピュータで実行されるプログラムに作成可能であり、コンピュータで読み取り可能な記録媒体を利用して、前記プログラムを動作させる汎用デジタルコンピュータで具現される。前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。
図面に図示された多様な要素の機能は、適切なソフトウェアに係わってソフトウェアを実行することができるハードウェアだけではなく、専用ハードウェアの利用を介して提供されもする。プロセッサによって提供されるとき、かような機能は単一専用プロセッサ、単一共有プロセッサ、または一部が共有される複数の個別プロセッサによって提供される。また、用語「プロセッサ」または「制御部」の明示上利用は、ソフトウェアを実行することができるハードウェアを排他的に指すものであると解釈されるものではなく、制限なしに、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを保存するためのROM、RAM及び不揮発性保存装置を暗黙的に含んでもよい。
本明細書の特許請求の範囲、特定機能を遂行するための手段として表現された要素は、特定機能を遂行する任意の方式を包括し、そのような要素は、特定機能を遂行する回路要素の組み合わせ、または特定機能を遂行するためのソフトウェアを実行するために適する回路と結合された、ファームウエア、マイクロコードなどを含む任意形態のソフトウェアを含んでもよい。
本明細書で、本発明の原理の「一実施形態」、及びかような表現の多様な変形の指称は、その実施形態に係わり、特定特徴、構造、特性などが、本発明の原理の少なくとも1つの実施形態に含まれるということを意味する。従って、表現「一実施形態において」と、本明細書全体を通じて開示された任意の他の変形例は、必ずしもいずれも同一の実施形態を指すものであるというわけではない。
本明細書で、「A及びBのうち少なくとも一つ」の場合、「〜のうち少なくとも一つ」の表現は、最初のオプション(A)の選択のみ、2番目に列挙されたオプション(B)の選択のみ、または両方のオプション(A及びB)の選択を包括するために使用される。さらなる例として、「A、B及びCのうち少なくとも一つ」の場合は、最初に列挙されたオプション(A)の選択のみ、または2番目に列挙されたオプション(B)の選択のみ、または3番目に列挙されたオプション(C)の選択のみ、あるいは最初及び2番目に列挙されたオプション(A及びB)の選択のみ、または2番目及び3番目に列挙されたオプション(B及びC)の選択のみ、あるいはあらゆる3個のオプションの選択(A、B及びC)を包括することができる。さらに多くの項目が列挙される場合にも、当業者に明白に拡張解釈されるであろう。
以上、本発明について、その望ましい実施形態を中心に説明した。本明細書を介して開示されたあらゆる実施形態と条件付き例示は、本発明の技術分野で、当業者をして、本発明の原理と概念とを理解させるように一助とするための意図から記述されたものであり、当業者は、本発明が、本発明の本質的な特性から外れない範囲で変形された形態に具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異は、本発明に含まれたものであると解釈されなければならないであろう。

Claims (1)

  1. ビデオの復号化方法において、
    現在符号化単位の分割形態を示すパーティションタイプ情報をビットストリームから獲得する段階と、
    前記パーティションタイプ情報を用いて前記現在符号化単位内の現在予測単位のサイズを決定する段階と、
    前記現在予測単位のサイズが所定サイズの場合、前記現在予測単位の予測モードがL0予測であるか、またはL1予測であるかを示す動き予測モード情報を獲得する段階と、
    前記現在予測単位のサイズが前記所定サイズでない場合、前記現在予測単位の予測モードが前記L0予測であるか、前記L1予測であるか、またはBI予測であるかを示す動き予測モード情報を獲得する段階と、
    前記獲得された動き予測モード情報が示す前記L0予測、前記L1予測または前記BI予測のうちいずれか一つの予測モードによって、前記現在予測単位の参照ピクチャを決定する段階と、
    前記現在予測単位の動きベクトルを用いて、前記参照ピクチャ内の参照サブピクセルの位置(N+1/4、M+1/4)(N、Mは、整数)を決定する段階と、
    前記参照サブピクセルの上側に存在する隣接サブピクセル(N+1/4、M)を用いて、前記参照サブピクセルのピクセル値を生成する段階と、
    前記参照サブピクセルを含む前記現在予測単位の予測ブロックを生成する段階と、
    を含み、
    前記隣接サブピクセル(N+1/4、M)のピクセル値は、7タップ補間フィルタを用いて生成され、
    予測単位の所定サイズは、4x8または8x4であることを特徴とするビデオ復号化方法。
JP2016221865A 2011-09-14 2016-11-14 ビデオ符号化方法、ビデオ復号化方法及びその装置 Pending JP2017063468A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161534499P 2011-09-14 2011-09-14
US61/534,499 2011-09-14

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014530597A Division JP2014531153A (ja) 2011-09-14 2012-09-14 ビデオ符号化方法、ビデオ復号化方法及びその装置

Publications (1)

Publication Number Publication Date
JP2017063468A true JP2017063468A (ja) 2017-03-30

Family

ID=47883895

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014530597A Pending JP2014531153A (ja) 2011-09-14 2012-09-14 ビデオ符号化方法、ビデオ復号化方法及びその装置
JP2016221865A Pending JP2017063468A (ja) 2011-09-14 2016-11-14 ビデオ符号化方法、ビデオ復号化方法及びその装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014530597A Pending JP2014531153A (ja) 2011-09-14 2012-09-14 ビデオ符号化方法、ビデオ復号化方法及びその装置

Country Status (18)

Country Link
US (5) US9538184B2 (ja)
EP (2) EP3454561B1 (ja)
JP (2) JP2014531153A (ja)
KR (8) KR20130029361A (ja)
CN (6) CN107820090B (ja)
CY (1) CY1121108T1 (ja)
DK (2) DK2744204T3 (ja)
ES (2) ES2702290T3 (ja)
HR (1) HRP20182107T1 (ja)
HU (2) HUE043274T2 (ja)
LT (1) LT2744204T (ja)
PL (2) PL3454561T3 (ja)
PT (1) PT2744204T (ja)
RS (1) RS58057B1 (ja)
SI (1) SI2744204T1 (ja)
TR (1) TR201819237T4 (ja)
TW (4) TWI562601B (ja)
WO (1) WO2013039357A2 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2724534A2 (en) 2011-06-24 2014-04-30 Motorola Mobility LLC Selection of phase offsets for interpolation filters for motion compensation
US10110891B2 (en) 2011-09-29 2018-10-23 Sharp Kabushiki Kaisha Image decoding device, image decoding method, and image encoding device
IN2014CN02456A (ja) * 2011-09-29 2015-06-19 Sharp Kk
US9451277B2 (en) * 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
RU2608354C2 (ru) * 2012-07-02 2017-01-18 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока
US20140078394A1 (en) * 2012-09-17 2014-03-20 General Instrument Corporation Selective use of chroma interpolation filters in luma interpolation process
US9313493B1 (en) * 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
WO2015005507A1 (ko) * 2013-07-08 2015-01-15 삼성전자 주식회사 다수의 가설 추정자들을 이용하는 인터 예측 방법 및 그 장치
KR101506723B1 (ko) * 2013-10-02 2015-03-30 인하대학교 산학협력단 Hevc 압축을 위한 계층적 상관관계를 갖는 예측 방향의 초기 결정 방법
US10531116B2 (en) * 2014-01-09 2020-01-07 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
KR102290964B1 (ko) 2014-02-19 2021-08-18 삼성전자주식회사 적응적 서치 레인지를 이용한 비디오 인코딩 장치 및 그 방법
US10327001B2 (en) * 2014-06-19 2019-06-18 Qualcomm Incorporated Systems and methods for intra-block copy
US9936201B2 (en) * 2015-01-27 2018-04-03 Qualcomm Incorporated Contexts for large coding tree units
KR102402671B1 (ko) * 2015-09-09 2022-05-26 삼성전자주식회사 보간 필터의 연산 복잡도를 조절할 수 있는 영상 처리 장치, 영상 보간 방법 및 영상 부호화 방법
US10009622B1 (en) 2015-12-15 2018-06-26 Google Llc Video coding with degradation of residuals
WO2017188566A1 (ko) * 2016-04-25 2017-11-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
KR102017027B1 (ko) * 2016-05-10 2019-09-02 한양대학교 산학협력단 고속 영상 부호화 방법 및 장치
CN117201815A (zh) 2016-10-04 2023-12-08 英迪股份有限公司 图像解码方法、图像编码方法以及发送比特流的方法
US10609384B2 (en) * 2017-09-21 2020-03-31 Futurewei Technologies, Inc. Restriction on sub-block size derivation for affine inter prediction
KR20210084691A (ko) 2018-01-15 2021-07-07 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US10869016B2 (en) * 2018-04-12 2020-12-15 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding virtual reality content
WO2019199071A1 (ko) * 2018-04-13 2019-10-17 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
CN111083489A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 多次迭代运动矢量细化
CN109561315B (zh) * 2018-10-31 2020-10-02 北京金山云网络技术有限公司 一种运动估计方法、装置、电子设备及存储介质
KR102628361B1 (ko) 2018-11-12 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인터-예측을 위한 대역폭 제어 방법
WO2020103852A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Difference calculation based on patial position
CN111010572A (zh) * 2018-12-04 2020-04-14 北京达佳互联信息技术有限公司 一种视频编码方法和装置及设备
CN115361549B (zh) 2018-12-21 2024-04-09 华为技术有限公司 一种使用基于历史的运动矢量预测的编码器、解码器及相应方法
WO2020177755A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Usage of converted uni-prediction candidate
CN110213577B (zh) * 2019-06-20 2023-05-09 深圳市网心科技有限公司 一种重建帧构造方法、系统及电子设备和存储介质
CN112004091B (zh) * 2020-07-31 2021-08-03 浙江大华技术股份有限公司 帧间预测方法及其相关装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006006609A1 (en) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. Motion compensation method
WO2006082690A1 (ja) * 2005-02-01 2006-08-10 Matsushita Electric Industrial Co., Ltd. 画像符号化方法および画像符号化装置
WO2010039731A2 (en) * 2008-10-03 2010-04-08 Qualcomm Incorporated Video coding with large macroblocks
WO2011103482A1 (en) * 2010-02-19 2011-08-25 Qualcomm Incorporated Block type signalling in video coding
WO2012017858A1 (ja) * 2010-08-03 2012-02-09 ソニー株式会社 画像処理装置と画像処理方法
WO2013047811A1 (ja) * 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
WO2013065570A1 (ja) * 2011-11-04 2013-05-10 ソニー株式会社 画像処理装置および方法
WO2013069095A1 (ja) * 2011-11-08 2013-05-16 株式会社東芝 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5477272A (en) * 1993-07-22 1995-12-19 Gte Laboratories Incorporated Variable-block size multi-resolution motion estimation scheme for pyramid coding
KR0126871B1 (ko) * 1994-07-30 1997-12-29 심상철 양방향 이동벡터 추정을 위한 고속 블럭정합 방식
JP2000511366A (ja) * 1995-10-25 2000-08-29 サーノフ コーポレイション 4分割ツリーベースの可変ブロックサイズ動き推定装置および方法
US5832120A (en) * 1995-12-22 1998-11-03 Cirrus Logic, Inc. Universal MPEG decoder with scalable picture size
US5973755A (en) * 1997-04-04 1999-10-26 Microsoft Corporation Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
US6418166B1 (en) * 1998-11-30 2002-07-09 Microsoft Corporation Motion estimation and block matching pattern
US6950469B2 (en) * 2001-09-17 2005-09-27 Nokia Corporation Method for sub-pixel value interpolation
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
JP3861698B2 (ja) * 2002-01-23 2006-12-20 ソニー株式会社 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US7352808B2 (en) * 2004-01-29 2008-04-01 International Business Machines Corporation System and method for the dynamic resolution change for video encoding
EP1578137A2 (en) * 2004-03-17 2005-09-21 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus with multistep interpolation process
US7006700B2 (en) * 2004-06-25 2006-02-28 Avocent Corporation Digital video compression command priority
US8111752B2 (en) * 2004-06-27 2012-02-07 Apple Inc. Encoding mode pruning during video encoding
US7792188B2 (en) * 2004-06-27 2010-09-07 Apple Inc. Selecting encoding types and predictive modes for encoding video data
JP2006080925A (ja) * 2004-09-09 2006-03-23 Toshiba Corp 動画符号化装置、動画符号化方法および動画符号化プログラム
JP4666255B2 (ja) * 2005-12-27 2011-04-06 日本電気株式会社 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置
JP4752631B2 (ja) * 2006-06-08 2011-08-17 株式会社日立製作所 画像符号化装置、及び画像符号化方法
US8320460B2 (en) * 2006-09-18 2012-11-27 Freescale, Semiconductor, Inc. Dyadic spatial re-sampling filters for inter-layer texture predictions in scalable image processing
US20080137743A1 (en) * 2006-12-06 2008-06-12 Electronics And Telecommunications Research Institute Intra-mode predication search method and apparatus for compression of real-time video signal
TWI330341B (en) * 2007-03-05 2010-09-11 Univ Nat Chiao Tung Video surveillance system hiding and video encoding method based on data
TW200840366A (en) * 2007-03-28 2008-10-01 Univ Nat Central Complexity control method of video encoder
KR100944333B1 (ko) * 2007-07-30 2010-03-02 한국과학기술원 스케일러블 비디오 부호화에서 계층간 예측모드 고속결정방법
JP2011501508A (ja) * 2007-10-12 2011-01-06 トムソン ライセンシング 幾何学分割された双方向予測モードパーティションのビデオエンコーディング及びデコーディングのための方法及び装置
EP2061248A1 (en) * 2007-11-13 2009-05-20 IBBT vzw Motion estimation and compensation process and device
FR2925819A1 (fr) * 2007-12-21 2009-06-26 Thomson Licensing Sas Procede de codage double passe par macrobloc
US10080034B2 (en) * 2008-03-10 2018-09-18 Thomson Licensing Dtv Method and apparatus for predictive frame selection supporting enhanced efficiency and subjective quality
EP2277318B1 (fr) * 2008-04-15 2020-11-04 Orange Codage et decodage d'une image ou d'une sequence d'images decoupees selon des partitions de pixels de forme lineaire
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
CN101350925A (zh) * 2008-07-11 2009-01-21 清华大学 一种插值滤波方法
KR101703362B1 (ko) * 2008-09-04 2017-02-06 톰슨 라이센싱 암시적 모션 예측을 이용한 예측 리파인먼트를 위한 방법들 및 장치들
US8503527B2 (en) * 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
JP5394212B2 (ja) * 2008-12-19 2014-01-22 トムソン ライセンシング データを挿入する方法、挿入されたデータを読み出す方法
US8311112B2 (en) * 2008-12-31 2012-11-13 Entropic Communications, Inc. System and method for video compression using predictive coding
US9113168B2 (en) * 2009-05-12 2015-08-18 Lg Electronics Inc. Method and apparatus of processing a video signal
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
KR101487686B1 (ko) * 2009-08-14 2015-01-30 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CA2714932A1 (en) * 2009-09-23 2011-03-23 Her Majesty The Queen In The Right Of Canada As Represented By The Minister Of Industry Image interpolation for motion/disparity compensation
US8548065B2 (en) * 2009-10-22 2013-10-01 The Chinese University Of Hong Kong Parametric interpolation filter for motion-compensated prediction
EP2942960A1 (en) * 2009-12-01 2015-11-11 HUMAX Holdings Co., Ltd. Apparatus for decoding high-resolution images
KR20110061468A (ko) 2009-12-01 2011-06-09 (주)휴맥스 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
US20110142135A1 (en) * 2009-12-14 2011-06-16 Madhukar Budagavi Adaptive Use of Quarter-Pel Motion Compensation
US20110194613A1 (en) * 2010-02-11 2011-08-11 Qualcomm Incorporated Video coding with large macroblocks
CA2935176C (en) * 2010-04-23 2018-03-13 M&K Holdings Inc. Image encoding apparatus
PT3849194T (pt) * 2010-09-27 2022-09-13 Lg Electronics Inc Método para particionar bloco e dispositivo de descodificação
SG10201507816SA (en) * 2010-09-30 2015-10-29 Mitsubishi Electric Corp Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
EP2661880A4 (en) * 2011-01-07 2016-06-29 Mediatek Singapore Pte Ltd METHOD AND DEVICE FOR IMPROVED CODING OF INTRA-LUMA PREDICTION MODE
US20120236936A1 (en) * 2011-03-14 2012-09-20 Segall Christopher A Video coding based on edge determination
CN104041034B (zh) * 2012-01-19 2018-10-16 索尼公司 图像处理设备和方法
MX354306B (es) * 2012-04-15 2018-02-23 Samsung Electronics Co Ltd Metodo y aparato para determinar imagenes de referencia para inter-prediccion.
KR102424431B1 (ko) * 2012-07-02 2022-07-22 엘지전자 주식회사 영상 정보 코딩 방법 및 이를 이용하는 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006006609A1 (en) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. Motion compensation method
WO2006082690A1 (ja) * 2005-02-01 2006-08-10 Matsushita Electric Industrial Co., Ltd. 画像符号化方法および画像符号化装置
WO2010039731A2 (en) * 2008-10-03 2010-04-08 Qualcomm Incorporated Video coding with large macroblocks
WO2011103482A1 (en) * 2010-02-19 2011-08-25 Qualcomm Incorporated Block type signalling in video coding
WO2012017858A1 (ja) * 2010-08-03 2012-02-09 ソニー株式会社 画像処理装置と画像処理方法
WO2013047811A1 (ja) * 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
WO2013065570A1 (ja) * 2011-11-04 2013-05-10 ソニー株式会社 画像処理装置および方法
WO2013069095A1 (ja) * 2011-11-08 2013-05-16 株式会社東芝 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
A. ALSHIN AND E. ALSHINA: "CE3: DCT derived interpolation filter test by Samsung", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F247_r3, JPN6015037562, July 2011 (2011-07-01), pages 1 - 10, ISSN: 0003810688 *
ALEXANDER (SANDY) MACINNIS: "Complexity Limitations for High Definition", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q.6), vol. JVT-D134r1, JPN6015036822, July 2002 (2002-07-01), pages 1 - 3, ISSN: 0003810684 *
ELENA ALSHINA ET AL.: "CE3: The worst case memory band-width reduction by 2D->1D interpolation replacement (from Samsung).", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G780, JPN6015036828, November 2011 (2011-11-01), pages 1 - 8, ISSN: 0003630755 *
JEONGYEON LIM ET AL.: "Description of video coding technology proposal by SK telecom, Sejong Univ. and Sungkyunkwan Univ.", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-A113, JPN6015036823, April 2010 (2010-04-01), pages 1 - 8, ISSN: 0003810685 *
JIAN LOU ET AL.: "CE3: Fixed interpolation filter tests by Motorola Mobility", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F574r2, JPN6015037563, July 2011 (2011-07-01), pages 1 - 10, ISSN: 0003810689 *
JIAN LOU ET AL.: "CE3: Report on Motorola Mobility's interpolation filter for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-E358, JPN6016023582, March 2011 (2011-03-01), pages 1 - 4, ISSN: 0003810687 *
KEMAL UGUR ET AL.: "CE3: Interpolation filter with shorter tap-length for small PU's", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F248r2, JPN6015036824, July 2011 (2011-07-01), pages 1 - 5, ISSN: 0003630750 *
KENJI KONDO AND TERUHIKO SUZUKI: "Non-CE3: Report on a restriction for small block", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G392_r1, JPN6015036826, November 2011 (2011-11-01), pages 1 - 8, ISSN: 0003630753 *
TAKESHI CHUJOH AND TOMOO YAMAKAGE: "Non-CE3: A restriction of motion vector for small block size", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G0770_r3, JPN6015036827, November 2011 (2011-11-01), pages 1 - 4, ISSN: 0003630754 *
TERUHIKO SUZUKI AND ALI TABATABAI: "Description of video coding technology proposal by Sony", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-A103, JPN6016006934, April 2010 (2010-04-01), pages 1 - 6, ISSN: 0003810686 *
TERUHIKO SUZUKI: "Study of memory bandwidth of HEVC Motion Compensation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F487_r1, JPN6015036825, July 2011 (2011-07-01), pages 1 - 3, ISSN: 0003630751 *
TOMOHIRO IKAI: "Bi-prediction restriction in small PU", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG11, vol. JCTVC-G307_r1, JPN6015000700, November 2011 (2011-11-01), pages 1 - 5, ISSN: 0003630752 *

Also Published As

Publication number Publication date
CN107979757A (zh) 2018-05-01
ES2702290T3 (es) 2019-02-28
CN103931184A (zh) 2014-07-16
KR101728465B1 (ko) 2017-04-19
CN107820090B (zh) 2020-06-23
CN103931184B (zh) 2017-12-01
CN107979755A (zh) 2018-05-01
US20150172699A1 (en) 2015-06-18
CN107968945B (zh) 2021-09-14
TWI601411B (zh) 2017-10-01
US20150172696A1 (en) 2015-06-18
CN107801028A (zh) 2018-03-13
KR101728466B1 (ko) 2017-04-19
US9538184B2 (en) 2017-01-03
TWI615018B (zh) 2018-02-11
PT2744204T (pt) 2019-01-31
CN107979755B (zh) 2021-12-21
KR20170081578A (ko) 2017-07-12
KR20190104967A (ko) 2019-09-11
CN107968945A (zh) 2018-04-27
PL2744204T3 (pl) 2019-03-29
TWI650010B (zh) 2019-02-01
EP3454561A1 (en) 2019-03-13
KR20160097161A (ko) 2016-08-17
US20150172656A1 (en) 2015-06-18
KR101821703B1 (ko) 2018-01-24
KR101925555B1 (ko) 2018-12-05
TW201813395A (zh) 2018-04-01
TW201707449A (zh) 2017-02-16
US9538188B2 (en) 2017-01-03
EP2744204A4 (en) 2015-01-28
WO2013039357A3 (ko) 2013-05-10
RS58057B1 (sr) 2019-02-28
TWI562601B (en) 2016-12-11
CN107979757B (zh) 2021-12-21
KR20180019009A (ko) 2018-02-22
US9544600B2 (en) 2017-01-10
EP2744204B1 (en) 2018-12-12
HRP20182107T1 (hr) 2019-02-22
EP3454561B1 (en) 2020-02-05
TR201819237T4 (tr) 2019-01-21
KR20180131521A (ko) 2018-12-10
KR102123064B1 (ko) 2020-06-15
ES2773691T3 (es) 2020-07-14
DK3454561T3 (da) 2020-02-17
JP2014531153A (ja) 2014-11-20
KR20200070184A (ko) 2020-06-17
CY1121108T1 (el) 2019-12-11
US9538187B2 (en) 2017-01-03
US20150172707A1 (en) 2015-06-18
CN107820090A (zh) 2018-03-20
KR102019491B1 (ko) 2019-09-06
KR102214441B1 (ko) 2021-02-09
TW201740736A (zh) 2017-11-16
KR20160097160A (ko) 2016-08-17
TW201320761A (zh) 2013-05-16
LT2744204T (lt) 2019-01-10
HUE043274T2 (hu) 2019-08-28
US20140233634A1 (en) 2014-08-21
HUE049155T2 (hu) 2020-09-28
KR20130029361A (ko) 2013-03-22
EP2744204A2 (en) 2014-06-18
US9578332B2 (en) 2017-02-21
DK2744204T3 (en) 2019-01-14
WO2013039357A2 (ko) 2013-03-21
PL3454561T3 (pl) 2020-05-18
CN107801028B (zh) 2020-11-27
SI2744204T1 (sl) 2019-02-28

Similar Documents

Publication Publication Date Title
KR102123064B1 (ko) 비디오 부호화, 복호화 방법 및 장치
KR102466902B1 (ko) 움직임 벡터 부복호화 방법 및 장치
KR102082303B1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치, 및 비트스트림을 포함하는 기록매체
JP2014527350A (ja) 多視点ビデオデータの符号化方法及びその装置、該復号化方法及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180509

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180517

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180608