JP5745693B2 - 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置 - Google Patents

時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置 Download PDF

Info

Publication number
JP5745693B2
JP5745693B2 JP2014516928A JP2014516928A JP5745693B2 JP 5745693 B2 JP5745693 B2 JP 5745693B2 JP 2014516928 A JP2014516928 A JP 2014516928A JP 2014516928 A JP2014516928 A JP 2014516928A JP 5745693 B2 JP5745693 B2 JP 5745693B2
Authority
JP
Japan
Prior art keywords
block
prediction
collocated
motion vector
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014516928A
Other languages
English (en)
Other versions
JP2014520477A (ja
JP2014520477A5 (ja
Inventor
リー、ベ、グン
クォン、ジェ、チョル
キム、ジュ、ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by KT Corp filed Critical KT Corp
Publication of JP2014520477A publication Critical patent/JP2014520477A/ja
Publication of JP2014520477A5 publication Critical patent/JP2014520477A5/ja
Application granted granted Critical
Publication of JP5745693B2 publication Critical patent/JP5745693B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Description

本発明は、映像符号化及び復号化方法に関し、より詳細には、時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置に関するものである。
近年、HD(High Definition)映像及びUHD(Ultra High Definition)映像のような高解像度、高品質な映像への需要が、多様な応用分野において増加しつつある。映像データが高解像度、高品質になるほど既存の映像データに比べて相対的にデータ量が増加するため、既存の有無線の広帯域ネットワークのような媒体を用いて映像データを伝送するか、既存の記憶媒体を用いて記憶する場合、伝送コストと記憶コストが増加する。映像データが高解像度、高品質化になることで発生するこのような問題を解決するためには、高効率の映像圧縮技術が活用されることができる。
映像圧縮技術として、現在ピクチャの以前または以後ピクチャから現在ピクチャに含まれた画素値を予測する画面間予測技術、現在ピクチャ内の画素情報を用いて現在ピクチャに含まれた画素値を予測する画面内予測技術、出現頻度の高い値に短い符号を割り当て、出現頻度の低い値に長い符号を割り当てるエントロピー符号化技術など、多様な技術が存在しており、このような映像圧縮技術を用いて映像データを効果的に圧縮して伝送または記憶することができる。
本発明の目的は、LCUの境界に接しているブロックの時間的な動き予測ベクトルを誘導する方法を提供することにある。
本発明のまた別の目的は、LCUの境界に接しているブロックの時間的な動き予測ベクトルを誘導する方法を行う装置を提供することにある。
上述した本発明の目的を達成するための本発明の一側面に係る映像復号化方法は、予測対象ブロックのコロケーテッドブロックの参照ピクチャインデックスを決定するステップと、上記コロケーテッドブロックの動き予測ベクトルを決定するステップとを含み、上記コロケーテッドブロックは、上記予測対象ブロックのLCU(Largest Coding Unit)内の位置によって適応的に決定されるコロケーテッドブロックであってもよい。上記コロケーテッドブロックは、上記予測対象ブロックの下側境界がLCUの境界に接するか否かによって異なるように決定されることができる。上記コロケーテッドブロックは、上記予測対象ブロックの下側境界がLCUの境界に接するか否かと上記予測対象ブロックの右側境界のみがLCUの境界に接するか否かによって、異なるように決定されることができる。上記コロケーテッドブロックは、上記LCU内における位置によって決定される画素の位置を基準に決定されることができる。上記コロケーテッドブロックは、上記予測対象ブロックの左側または下側境界が上記LCUの境界と接しない場合には、該当位置のコロケーテッドブロックが使用可能であるか否かによって順次に第1コロケーテッドブロック及び第5コロケーテッドブロックがコロケーテッドブロックと決定されることができる。
上述した本発明の第2の目的を達成するための本発明の一側面に係る映像復号化方法は、予測対象ブロックの境界とLCU(Largset Coding Unit)の境界とが接しているか否かを判断するステップと、上記予測対象ブロックの境界と上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定するステップとを含むことができる。上記映像復号化方法は、上記第1コロケーテッドブロックが使用可能でない場合、上記第1コロケーテッドブロックを除く他のコロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定するステップをさらに含むことができる。上記第1コロケーテッドブロックが使用可能でない場合、上記第1コロケーテッドブロックを除く他のコロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定するステップは、上記予測対象ブロックの下側境界と上記LCUの境界とが接している場合と、上記予測対象ブロックの右側境界のみが上記LCUの境界と接している場合とで、互いに異なるコロケーテッドブロックが時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定されるステップであってもよい。上記予測対象ブロックの境界と上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定するステップは、上記予測対象ブロックの下側境界と上記LCUの境界とが接している場合、上記第1コロケーテッドブロックが使用可能でないと判断するステップであってもよい。上記映像復号化方法は、上記第1コロケーテッドブロックが使用可能である場合、第1コロケーテッドブロックを時間的な動き予測ブロックを算出するためのコロケーテッドブロックと決定し、第1コロケーテッドブロックが使用可能でない場合、第5コロケーテッドブロックの使用可能性を判断するステップをさらに含むことができる。
上述した本発明の第3の目的を達成するための本発明の一側面に係る映像復号化装置は、LCUの大きさ情報を復号化するエントロピー復号化部と、予測対象ブロックのコロケーテッドブロックの参照ピクチャインデックスを決定し、上記コロケーテッドブロックの動き予測ベクトルを決定する予測部とを含み、上記コロケーテッドブロックは、上記予測対象ブロックのLCU(Largest Coding Unit)内の位置によって適応的に決定されるコロケーテッドブロックであってもよい。上記コロケーテッドブロックは、上記予測対象ブロックの下側境界がLCUの境界に接するか否かによって異なるように決定されることができる。上記コロケーテッドブロックは、上記予測対象ブロックの下側境界がLCUの境界に接するか否かまたは上記予測対象ブロックの右側境界のみがLCUの境界に接するか否かによって、異なるように決定されることができる。上記コロケーテッドブロックは、上記LCU内における位置によって決定される画素の位置を基準に決定されることができる。上記コロケーテッドブロックは、上記予測対象ブロックの左側または下側境界が上記LCUの境界と接しない場合には、該当位置のコロケーテッドブロックが使用可能であるか否かによって順次に第1コロケーテッドブロック及び第5コロケーテッドブロックがコロケーテッドブロックと決定されることができる。
上述した本発明の第4の目的を達成するための本発明の一側面に係る映像復号化装置は、LCUの大きさ情報を復号化するエントロピー復号化部と、予測対象ブロックの境界とLCU(Largest Coding Unit)の境界とが接しているか否かを判断し、上記予測対象ブロックの境界と上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定する予測部を含むことができる。上記予測部は、上記第1コロケーテッドブロックが使用可能でない場合、上記第1コロケーテッドブロックを除く他のコロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定する予測部であってもよい。上記予測部は、上記予測対象ブロックの下側境界と上記LCUの境界とが接している場合と、上記予測対象ブロックの右側境界のみが上記LCUの境界と接している場合とで、互いに異なるコロケーテッドブロックが時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定される予測部であってもよい。上記予測部は、上記予測対象ブロックの下側境界と上記LCUの境界とが接している場合、上記第1コロケーテッドブロックが使用可能でないと判断する予測部であってもよい。上記予測部は、上記第1コロケーテッドブロックが使用可能である場合、第1コロケーテッドブロックを時間的な動き予測ブロックを算出するためのコロケーテッドブロックと決定し、第1コロケーテッドブロックが使用可能でない場合、第5コロケーテッドブロックの使用可能性を判断する予測部であってもよい。
上述したように、本発明の実施例に係る時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置によれば、予測対象ブロックがLCUに接しているか否かによって時間的な動きベクトルを誘導するコロケーテッドピクチャを異ならせて使用することができる。このような方法を使用することにより、時間的な動きベクトルを誘導するのに不要に使用されるメモリ帯域幅を減少させ、具現複雑度を減少させることができる。
本発明の実施例に係る映像符号化装置を示すブロック図である。 本発明の別の実施例に係る映像復号器を示すブロック図である。 本発明の実施例に係る時間的な予測動きベクトル誘導方法を示す概念図である。 本発明の実施例に係る時間的な予測動きベクトル誘導方法を示すフローチャートである。 本発明の実施例に係る時間的な動きベクトルを誘導するためのコロケーテッドブロックの位置を示す概念図である。 本発明の実施例に係る動き予測ベクトルを算出するためのコロケーテッドブロックを決定する方法を示す概念図である。 本発明の実施例に係る予測対象ブロックがLCUの下側境界に接している場合を示す概念図である。 本発明の実施例に係るマージモードを用いた画面間予測方法を示すフローチャートである。 本発明の実施例に係る空間的なマージ候補の位置を示す概念図である。 本発明の実施例に係るAMVPを用いた画面間予測方法を示すフローチャートである。
発明の実施のための形態
本発明は、多様な変更を加えることができ、様々な実施例を有することができるので、特定の実施例を図面に例示し、詳細な説明において詳しく説明する。ところが、これは本発明を特定の実施形態に限定するものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物ないし代替物を含むものと理解しなければならない。各図面を説明するにあたって、類似する参照符号を類似する構成要素に対して使用する。
第1、第2などの用語は、多様な構成要素を説明するのに使用されることができるが、上記構成要素は上記用語によって限定されるものではない。上記用語は、一つの構成要素を他の構成要素から区別する目的だけで使用される。例えば、本発明の権利範囲から外れない範囲で、第1の構成要素は第2の構成要素と命名されることができ、同様に第2の構成要素も第1の構成要素と命名されることができる。「及び/または」という用語は、複数の関連した記載の項目の組合わせまたは複数の関連した記載の項目のうちいずれかの項目を含む。
ある構成要素が他の構成要素に「連結されて」いるとか「接続されて」いると言及されたときには、その他の構成要素に直接的に連結されているかまたは接続されている場合もあるが、その間に他の構成要素が存在することもできると理解しなければならない。一方、ある構成要素が他の構成要素に「直接連結されて」いるとか「直接接続されて」いると言及されたときには、その間に他の構成要素が存在しないことと理解しなければならない。
本出願において使用する用語は、単に特定の実施例を説明するために使用されたものであって、本発明を限定しようとする意図ではない。単数の表現は、文脈上、明らかに異なる意味でない限り、複数の表現を含む。本出願において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品またはこれらの組み合わせが存在することを指定するものであって、一つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品またはこれらの組み合わせたなどの存在または付加可能性を予め排除しないものと理解しなければならない。
以下、添付の図面を参照して、本発明の好ましい実施例をより詳細に説明する。以下、図面において、同一の構成要素に対しては同一の参照符号を使用し、同一の構成要素に対して重複する説明は省略する。
図1は、本発明の実施例に係る映像符号化装置を示すブロック図である。
図1を参照すれば、映像符号化装置100は、ピクチャ分割部110、インター予測部120、イントラ予測部125、変換部130、量子化部135、再整列部160、エントロピー符号化部165、逆量子化部140、逆変換部145、フィルタ部150及びメモリ155を含むことができる。
図1に示される各構成部は、映像符号化装置において互いに異なる特徴的な機能を示すために独立して図示したものであって、各構成部が分離したハードウェアや一つのソフトウェア構成単位からなることを意味しない。すなわち、各構成部は、説明の便宜上、それぞれの構成部として並べられて含まれるものであって、各構成部のうち少なくとも二つの構成部が結合して一つの構成部となるか、一つの構成部が複数個の構成部に分けられて機能を実行することができ、このような各構成部の統合した実施例及び分離した実施例も、本発明の本質から外れない限り、本発明の権利範囲に含まれる。
また、一部の構成要素は、本発明において本質的な機能を実行する必須の構成要素ではなく、単に性能向上のための選択的な構成要素であってもよい。本発明は、単に性能向上のために使用される構成要素を除く本発明の本質を実現するのに必須の構成部のみを含んで具現されることができ、単に性能向上のために使用される選択的な構成要素を除く必須の構成要素のみを含む構造も、本発明の権利範囲に含まれる。
ピクチャ分割部110は、入力されたピクチャを少なくとも一つの処理単位に分割することができる。このとき、処理単位は、予測単位(Prediction Unit:PU)であってもよく、変換単位(Transform Unit:TU)であってもよく、符号化単位(Coding Unit:CU)であってもよい。ピクチャ分割部105では、一つのピクチャに対して複数の符号化単位、予測単位及び変換単位の組合わせに分割し、所定の基準(例えば、費用関数)に沿って一つの符号化単位、予測単位及び変換単位の組合わせを選択してピクチャを符号化することができる。
例えば、一つのピクチャは複数個の符号化単位に分割されることができる。ピクチャにおいて符号化単位を分割するためには、4分木構造(Quad Tree Structure)のような再帰的なツリー構造を使用することができるが、一つの映像または最大の符号化単位を根として他の符号化単位に分割される符号化単位は、分割された符号化単位の個数だけの子ノードを持って分割されることができる。一定の制限によってそれ以上分割されない符号化単位は葉ノードとなる。すなわち、一つの符号化単位に対して正方形の分割だけが可能であると仮定する場合、一つの符号化単位は最大4つの他の符号化単位に分割されることができる。
以下、本発明の実施例においては、符号化単位の意味を、符号化をする単位という意味だけでなく、復号化をする単位の意味としても使用することができる。
予測単位は、一つの符号化単位内で同一の大きさの少なくとも一つの正方形または長方形などの形態を持って分割されることができる。
符号化単位に基づいて画面内予測を行う予測単位を生成する際、最小符号化単位ではない場合、N×N単位の複数の予測単位に分割せずに画面内予測を行うことができる。
予測部は、画面間予測を行うインター予測部120と、画面内予測を行うイントラ予測部125とを含むことができる。予測単位に対して画面間予測を行うかまたは画面内予測を行うかを決定し、各予測方法による具体的な情報(例えば、画面内予測モード、動きベクトル、参照ピクチャなど)を決定することができる。このとき、予測が行われる処理単位と予測方法及び具体的な内容が決定される処理単位は異なっていてもよい。例えば、予測方法と予測モードなどは予測単位で決定され、予測の実行は変換単位で実行されることもできる。生成された予測ブロックと原本ブロック間の残差値(残差ブロック)は、変換部130に入力されることができる。また、予測のために使用した予測モード情報、動きベクトル情報等は、残差値とともにエントロピー符号化部135で符号化されて復号器に伝達されることができる。特定の符号化モードを使用する場合、予測部120,125によって予測ブロックを生成せず、原本ブロックをそのまま符号化して復号化部に伝送することもできる。
画面間予測部は、現在ピクチャの以前ピクチャまたは以後ピクチャのうち少なくとも一つのピクチャの情報に基づいて予測単位を予測することができる。画面間予測部は、参照ピクチャ補間部、動き予測部、動き補償部を含むことができる。
参照ピクチャ補間部では、メモリ155から参照ピクチャ情報を提供され、参照ピクチャから整数画素以下の画素情報を生成することができる。輝度画素の場合、1/4画素単位で整数画素以下の画素情報を生成するために、フィルタ係数の異なるDCTベースの8タップ補間フィルタ(DCT−based Interpolation Filter)が使用されることができる。色差信号の場合、1/8画素単位で整数画素以下の画素情報を生成するために、フィルタ係数の異なるDCTベースの4タップ補間フィルタ(DCT−based Interpolation Filter)が使用されることができる。
動き予測部は、参照ピクチャ補間部によって補間された参照ピクチャに基づいて動き予測を行うことができる。動きベクトルを算出するための方法として、FBMA(Full search−based Block Matching Algorithm)、TSS(Three Step Search)、NTS(New Three−Step Search Algorithm)など多様な方法が使用されることができる。動きベクトルは、補間された画素に基づいて1/2または1/4画素単位の動きベクトル値を持つことができる。動き予測部では、動き予測方法を異ならせて現在予測単位を予測することができる。動き予測方法として、スキップ(Skip)法、マージ(Merge)法、AMVP(Advanced Motion Vector Prediction)法など多様な方法が使用されることができる。
本発明の実施例によれば、画面間予測部では、予測対象ブロックとLCU(Largest Coding Unit)の境界とが接しているか否かを判断し、予測対象ブックと上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定することができる。例えば、第1コロケーテッドブロックが使用可能でない場合、第2コロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定するか、第1コロケーテッドブロックが使用可能でない場合、上記第1コロケーテッドブロックの位置を変更させ、変更された第1コロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定することができる.
また、画面間予測部では、予測対象ブロックのコロケーテッドブロックの参照ピクチャインデックスを決定し、上記コロケーテッドブロックの動き予測ベクトルを決定する予測部を含み、コロケーテッドブロックは、上記予測対象ブロックのLCU(Largest Coding Unit)内の位置によって適応的に決定されることができる。以下、本発明における予測部の動作に関して詳述する。
画面内予測部は、現在ピクチャ内の画素情報である現在ブロック周辺の参照ピクセル情報に基づいて、予測単位を生成することができる。現在予測単位の周辺ブロックが画面間予測を行ったブロックであって、参照ピクセルが画面間予測を行ったピクセルである場合、画面間予測を行ったブロックに含まれる参照ピクセルを、周辺の画面内予測を行ったブロックの参照ピクセル情報に置き換えて使用することができる。すなわち、参照ピクセルが使用不可である場合、使用不可な参照ピクセル情報を使用可能な参照ピクセルのうち少なくとも一つの参照ピクセルに置き換えて使用することができる。
画面内予測において、予測モードは、参照ピクセル情報を予測方向によって使用する方向性予測モードと、予測を行う際に方向性情報を使用しない非方向性モードとを有することができる。輝度情報を予測するためのモードと色差情報を予測するためのモードとが異なっていてもよく、色差情報を予測するために輝度情報を予測した画面内予測モード情報または予測された輝度信号情報を活用することができる。
画面内予測を行う際に、予測単位の大きさと変換単位の大きさとが同一である場合、予測単位の左に存在するピクセル、左上に存在するピクセル、上に存在するピクセルに基づいて予測単位に対する画面内予測を行うが、画面内予測を行う際に、予測単位の大きさと変換単位の大きさとが異なっている場合、変換単位に基づく参照ピクセルを用いて画面内予測を行うことができる。また、最小符号化単位に対してのみN×N分割を使用する画面内予測を使用することができる。
画面内予測方法は、予測モードによって参照画素にMDIS(Mode Dependent Intra Smoothing)フィルタを適用した後、予測ブロックを生成することができる。参照画素に適用されるMDISフィルタの種類は異なっていてもよい。画面内予測方法を行うために、現在予測単位の画面内予測モードは、現在予測単位の周辺に存在する予測単位の画面内予測モードから予測することができる。周辺予測単位から予測されたモード情報を用いて現在予測単位の予測モードを予測する場合、現在予測単位と周辺予測単位との画面内予測モードが同一である場合、所定のフラグ情報を用いて現在予測単位と周辺予測単位との予測モードが同一である旨の情報を伝送することができ、仮に、現在予測単位と周辺予測単位との予測モードが異なっている場合、エントロピー符号化を行って現在ブロックの予測モード情報を符号化することができる。
また、予測部120,125で生成された予測単位に基づいて予測を行った予測単位と予測単位の原本ブロックとの差である残差値(Residual)情報を含む残差ブロックが生成されることができる。生成された残差ブロックは、変換部130に入力されることができる。変換部130では、原本ブロックと予測部120,125によって生成された予測単位との残差値(residual)情報を含む残差ブロックをDCT(Discrete Cosine Transform)またはDST(Discrete Sine Transform)のような変換方法を使用して変換させることができる。残差ブロックを変換するためにDCTを適用するかDSTを適用するかは、残差ブロックを生成するために使用された予測単位の画面内予測モード情報に基づいて決定することができる。
量子化部135は、変換部130で周波数領域に変換された値を量子化することができる。ブロックによってまたは映像の重要度によって量子化係数は変わり得る。量子化部135で算出された値は、逆量子化部140と再整列部160に提供されることができる。
再整列部160は、量子化された残差値に対して係数値の再整列を行うことができる。
再整列部160は、係数スキャニング(Coefficient Scanning)法によって2次元のブロック形態の係数を1次元のベクトル形態に変更することができる。例えば、再整列部160では、ダイアゴナルスキャン(Diagonal Scan)法を用いて、DC係数から高周波数領域の係数までスキャンして1次元のベクトル形態に変更させることができる。変換単位の大きさ及び画面内予測モードによってダイアゴナルスキャン(Diagonal Scan)法でない2次元のブロック形態の係数を列方向にスキャンする垂直スキャン法、2次元のブロック形態の係数を行方向にスキャンする水平スキャン法が使用されることができる。すなわち、変換単位の大きさ及び画面内予測モードによってダイアゴナルスキャン、垂直方向スキャン及び水平方向スキャンのうちいずれのスキャン法が使用されるかを決定することができる。
エントロピー符号化部165は、再整列部160によって算出された値に基づいてエントロピー符号化を行うことができる。エントロピー符号化は、例えば、指数ゴロム(Exponential Golomb)、CABAC(Context−Adaptive Binary Arithmetic Coding)のような多様な符号化方法を使用することができる。
エントロピー符号化部165は、再整列部160及び予測部120, 125から符号化単位の残差値係数情報及びブロックタイプ情報、予測モード情報、分割単位情報、予測単位情報及び伝送単位情報、動きベクトル情報、参照フレーム情報、ブロックの補間情報、フィルタリング情報、LCUの大きさ情報など多様な情報を符号化することができる。
エントロピー符号化部165では、再整列部160から入力された符号化単位の係数値をCABACのようなエントロピー符号化方法を使用してエントロピー符号化を行うことができる。
逆量子化部140及び逆変換部145では、量子化部135で量子化された値を逆量子化し、変換部130で変換された値を逆変換する。逆量子化部140及び逆変換部145で生成された残差値(Residual)は、予測部120, 125に含まれた動き推定部、動き補償部及びイントラ予測部によって予測された予測単位と合せられて復元ブロック(Reconstructed Block)を生成することができる。
フィルタ部150は、デブロッキングフィルタ、オフセット補正部、ALF(Adaptive Loop Filter)のうち少なくとも一つを含むことができる。
デブロッキングフィルタは、復元されたピクチャにおいてブロック間の境界によって生じたブロック歪みを除去することができる。デブロッキングを行うか否かを判断するために、ブロックに含まれた数個の列または行に含まれたピクセルに基づいて、現在ブロックにデブロッキングフィルタを適用するか否かを判断することができる。ブロックにデブロッキングフィルタを適用する場合、必要なデブロッキングフィルタリングの強度によって強いフィルタ(Strong Filter)または弱いフィルタ(Weak Filter)を適用することができる。また、デブロッキングフィルタを適用するにあたって、垂直フィルタリング及び水平フィルタリングを行うとき、水平方向フィルタリング及び垂直方向フィルタリングが併行処理されるようにすることができる。
オフセット補正部は、デブロッキングを行った映像に対してピクセル単位で原本映像とのオフセットを補正することができる。特定ピクチャに対するオフセット補正を行うために映像に含まれたピクセルを一定の数の領域に区分した後、オフセットを行う領域を決定して該当領域にオフセットを適用する方法、または各ピクセルのエッジ情報を考慮してオフセットを適用する方法を使用することができる。
ALF(Adaptive Loop Filter)は、フィルタリングした復元映像と本来の映像とを比べた値に基づいてフィルタリングを行うことができる。映像に含まれたピクセルを所定のグループに分けた後、該当グループに適用される一つのフィルタを決定し、グループ毎に差別的にフィルタリングを行うことができる。ALFを適用するか否かに係る情報は、輝度信号は符号化単位(Coding Unit, CU)別に伝送されることができ、それぞれのブロックによって適用されるALFの大きさ及び係数は変わり得る。ALFは多様な形態を有することができ、それによってフィルタに含まれる係数の個数も変わることができる。このようなALFのフィルタリング関連情報(フィルタ係数情報、ALF On/Off情報、フィルタ形態情報)は、ビットストリームで所定のパラメータセットに含まれて伝送されることができる。
メモリ155は、フィルタ部150によって算出された復元ブロックまたはピクチャを格納することができ、格納された復元ブロックまたはピクチャは、画面間予測を行う際に予測部120, 125に提供されることができる。
図2は、本発明の別の実施例に係る映像復号器を示すブロック図である。
図2を参照すれば、映像復号器は、エントロピー復号化部210、再整列部215、逆量子化部220、逆変換部225、予測部230, 235、フィルタ部240、メモリ245が含まれることができる。
映像符号器から映像ビットストリームが入力された場合、入力されたビットストリームは映像符号器と逆の手順で復号化されることができる。
エントロピー復号化部210は、映像符号器のエントロピー符号化部でエントロピー符号化を行ったことと逆の手順でエントロピー復号化を行うことができる。エントロピー復号化部210で復号化された情報のうちLCUの大きさ情報、ブロックの大きさ情報などのような予測ブロックを生成するための情報は、予測部230, 235に提供され、エントロピー復号化部でエントロピー復号化を行った残差値は、再整列部215に入力されることができる。
エントロピー復号化部210では、符号器で行われた画面内予測及び画面間予測に係る情報を復号化することができる。上述したように、映像符号器で画面内予測及び画面間予測を行う際に所定の制約がある場合、このような制約に基づくエントロピー復号化を行って、現在ブロックに対する画面内予測及び画面間予測に係る情報を提供されることができる。
再整列部215は、エントロピー復号化部210でエントロピー復号化されたビットストリームを符号化部で再整列した方法に基づいて再整列を行うことができる。1次元ベクトルの形態で表現された係数をさらに2次元のブロック形態の係数に復元して再整列することができる。
逆量子化部220は、符号器から提供された量子化パラメータと再整列されたブロックの係数値に基づいて逆量子化を行うことができる。
逆変換部225は、映像符号器で行った量子化結果について変換部で行ったDCT及びDSTに対して、逆DCT及び逆DSTを行うことができる。逆変換は、映像符号器で決定された伝送単位に基づいて行われることができる。映像符号器の変換部では、DCTとDSTは予測方法、現在ブロックの大きさ及び予測方向など複数の情報によって選択的に行われることができ、映像復号器の逆変換部225では、映像符号器の変換部で行われた変換情報に基づいて逆変換を行うことができる。
予測部230, 235は、エントロピー復号化部210から提供された予測ブロック生成関連情報と、メモリ245から提供された以前に復号化されたブロックまたはピクチャ情報に基づいて、予測ブロックを生成することができる。
予測部230, 235は、予測単位判別部、画面間予測部及び画面内予測部を含むことができる。予測単位判別部は、エントロピー復号化部から入力される予測単位情報、画面内予測方法の予測モード情報、画面間予測方法の動き予測関連情報など多様な情報を入力され、現在符号化単位から予測単位を区分し、予測単位が画面間予測を行うのか、それとも画面内予測を行うのかを判別することができる。画面間予測部は、映像符号器から提供された現在予測単位の画面間予測に必要な情報を用いて、現在予測単位が含まれた現在ピクチャの以前ピクチャまたは以後ピクチャのうち少なくとも一つのピクチャに含まれた情報に基づいて現在予測単位に対する画面間予測を行うことができる。
画面間予測を行うために符号化単位を基準に該当符号化単位に含まれた予測単位の動き予測方法が、スキップモード(Skip Mode)、マージモード(Merge Mode)、AMVPモード(AMVP Mode)のうちいずれの方法であるのかを判断することができる。
本発明の実施例によれば、画面間予測部では、予測対象ブロックとLCU(Largest Coding Unit)の境界とが接しているか否かを判断し、予測対象ブロックと上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定することができる。例えば、第1コロケーテッドブロックが使用可能でない場合、第2コロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定するか、第1コロケーテッドブロックが使用可能でない場合、上記第1コロケーテッドブロックの位置を変更させ、変更された第1コロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定することができる。また、画面間予測部では、予測対象ブロックのコロケーテッドブロックの参照ピクチャインデックスを決定し、上記コロケーテッドブロックの動き予測ベクトルを決定する予測部を含み、コロケーテッドブロックは、上記予測対象ブロックのLCU(Largest Coding Unit)内の位置によって適応的に決定されることができる。以下、本発明における予測部の動作について詳述する。
画面内予測部は、現在ピクチャ内の画素情報に基づいて予測ブロックを生成することができる。予測単位が画面内予測を行った予測単位である場合、映像符号器から提供された予測単位の画面内予測モード情報に基づいて画面内予測を行うことができる。画面内予測部には、MDISフィルタ、参照画素補間部、DCフィルタを含むことができる。MDISフィルタは、現在ブロックの参照画素にフィルタリングを行う部分であって、現在予測単位の予測モードによってフィルタの適用有無を決定して適用することができる。映像符号器から提供された予測単位の予測モード及びMDISフィルタ情報を用いて、現在ブロックの参照画素にフィルタリングを行うことができる。現在ブロックの予測モードがフィルタリングを行わないモードである場合、MDISフィルタは適用されなくてもよい。
参照画素補間部は、予測単位の予測モードが参照画素を補間した画素値に基づいて画面内予測を行う予測単位である場合、参照画素を補間して整数値以下の画素単位の参照画素を生成することができる。現在予測単位の予測モードが参照画素を補間せずに予測ブロックを生成する予測モードである場合、参照画素は補間されなくてもよい。DCフィルタは、現在ブロックの予測モードがDCモードである場合、フィルタリングによって予測ブロックを生成することができる。
復元されたブロックまたはピクチャはフィルタ部240に提供されることができる。フィルタ部240は、デブロッキングフィルタ、オフセット補正部、ALFを含むことができる。
映像符号器から該当ブロックまたはピクチャにデブロッキングフィルタを適用したか否かに関する情報、及びデブロッキングフィルタを適用した場合、強いフィルタを適用したのかまたは弱いフィルタを適用したのかに関する情報を提供されることができる。映像復号器のデブロッキングフィルタでは、映像符号器から提供されたデブロッキングフィルタ関連情報を提供され、映像復号器で該当ブロックに対するデブロッキングフィルタリングを行うことができる。映像符号器と同様に、まず垂直デブロッキングフィルタリング及び水平デブロッキングフィルタリングを行うが、重なる部分においては垂直デブロッキング及び水平デブロッキングのうち少なくとも一つを行うことができる。垂直デブロッキングフィルタリング及び水平デブロッキングフィルタリングが重なる部分で、以前に行われることができなかった垂直デブロッキングフィルタリングまたは水平デブロッキングフィルタリングが行われることができる。このようなデブロッキングフィルタリング過程を通じて、デブロッキングフィルタリングの並列処理(Parallel Processing)が可能である。
オフセット補正部は、符号化の際に映像に適用されたオフセット補正の種類及びオフセット値情報などに基づいて復元された映像にオフセット補正を行うことができる。
ALFは、フィルタリングを行った後、復元された映像と本来の映像とを比べた値に基づいてフィルタリングを行うことができる。符号器から提供されたALF適用有無情報、ALF係数情報などに基づいて符号化単位にALFを適用することができる。このようなALF情報は、特定のパラメータセットに含まれて提供されることができる。
メモリ245は、復元されたピクチャまたはブロックを格納して参照ピクチャまたは参照ブロックとして使用できるようにし、また、復元されたピクチャを出力部に提供することができる。
上述したように、以下、本発明の実施例においては、説明の便宜上、コーディングユニット(Coding Unit)を符号化単位という用語で使用するが、符号化だけでなく復号化を行う単位になってもよい。以下、本発明の実施例に係る図3ないし図11で説明する映像予測方法は、図1及び図2に含まれた予測部のような構成部で行われることができる。
図3は、本発明の実施例に係る時間的な予測動きベクトル誘導方法を示す概念図である。
図3を参照すれば、時間的な予測動きベクトルは、コロケーテッドピクチャ(colocated picture,colPic)に存在するコロケーテッドブロック(colocated block,colPu)の動きベクトル値に基づいて算出されることができる。
コロケーテッドピクチャは、マージ(Merge)またはAMVPのような画面間予測方法を行う際に、時間的な予測動き関連情報を算出するためのコロケーテッドブロックを含むピクチャであり、コロケーテッドブロックは、予測対象ブロックと時間的に異なる位相を有する予測対象ブロックの位置情報に基づいて算出されたコロケーテッドピクチャに含まれたブロックと定義されることができる。
一つの予測対象ブロックに対してコロケーテッドブロックは複数個存在することができる。コロケーテッドピクチャに含まれるコロケーテッドブロックの動き関連情報は、一定の単位を基準に一つの代表値として格納されることができる。例えば、16×16大きさのブロック単位を基準に16×16ブロック単位で動き予測関連情報(動きベクトル、参照ピクチャなど)が一つの代表値と決定されて格納されることができる。
図4は、本発明の実施例に係る時間的な予測動きベクトル誘導方法を示すフローチャートである。
以下、本発明の実施例で説明する時間的な予測動きベクトルを算出する方法は、MergeまたはAMVPのような画面間予測方法でマージを行うための時間的な候補ブロック(コロケーテッドブロック)算出方法、AMVPを行うための時間的な候補ブロック(コロケーテッドブロック)算出方法及び時間的な予測動きベクトル算出方法として使用されることができる。
以下、本発明の実施例においては、コロケーテッドブロックを、マージ及びAMVPで使用される時間的な候補ブロックを指し示す用語と定義して使用することができる。
図4を参照すれば、コロケーテッドピクチャ情報を算出する(ステップS400)。
コロケーテッドピクチャ情報、コロケーテッドブロック情報及び時間的な予測動きベクトルを誘導するために、予測対象ブロックの位置情報、予測対象ブロックの大きさ情報、予測対象ブロックの参照ピクチャインデックス情報を使用することができる。
本発明の実施例によれば、スライスタイプ情報(slice type)、参照ピクチャリスト情報(collocated_from_l0_flag)、参照ピクチャインデックス情報(collocated_ref_idx)のような情報に基づいて、コロケーテッドピクチャ情報を算出することができる。参照ピクチャリスト情報(collocated_from_l0_flag)を使用して参照ピクチャリスト情報(collocated_from_l0_flag)が1であれば、コロケーテッドピクチャが第1参照ピクチャリスト(List0)に含まれていることを示し、参照ピクチャリスト情報(collocated_from_l0_flag)が0である場合、コロケーテッドピクチャが第2参照ピクチャリスト(List1)に含まれていることを示すことができる。
例えば、スライスタイプがBスライスであり参照ピクチャリスト情報(collocated_from_l0_flag)の値が0である場合、コロケーテッドピクチャは第1参照ピクチャリストに含まれたピクチャと判断することができ、スライスタイプがBスライスであり参照ピクチャリスト情報(collocated_from_l0_flag)の値が1であるかスライスタイプがPスライスである場合、コロケーテッドピクチャは第2参照ピクチャリストに含まれたピクチャと判断することができる。
マージを使用した画面間予測方法の場合、所定の条件を満足する場合、特定の位置に存在する周辺ブロックの参照ピクチャインデックス情報をコロケーテッドピクチャ情報と決定し、所定の条件を満足できない場合、現在ピクチャの以前ピクチャをコロケーテッドピクチャ情報と決定することもできる。
コロケーテッドブロック情報を算出する(ステップS410)。
コロケーテッドブロック情報は、予測対象ブロックの一部がLCU(Largest Coding unit)の境界に接しているか否かによって異なるように算出されることができる。以下、図5ないし図9では、予測対象ブロックの位置とLCUの境界によってコロケーテッドブロックを決定する方法を開示する。
図5は、本発明の実施例に係る時間的な動きベクトルを誘導するためのコロケーテッドブロックの位置を示す概念図である。
図5を参照すれば, 予測対象ブロックを基準に多様な位置に存在するブロックが、時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用されることができる。時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用できるコロケーテッドブロックを位置によって区分すれば、下記の通りである。
予測対象ブロックの左上に位置する点が(xP,yP)、予測対象ブロックの幅をnPSW、予測対象ブロックの高さをnPSHとする場合、第1コロケーテッドブロック500はコロケーテッドピクチャに位置する点(xP+nPSW,yP+nPSH)を含むブロック、第2コロケーテッドブロック510はコロケーテッドピクチャに位置する点(xP+nPSW−MinPuSize,yP+nPSH)を含むブロック、第3コロケーテッドブロック520はコロケーテッドピクチャに位置する点(xP+nPSW,yP+nPSH−MinPuSize)を含むブロック、第4コロケーテッドブロック530はコロケーテッドピクチャに位置する点(xP+nPSW−1,yP+nPSH−1)を含むブロック、第5コロケーテッドブロック540はコロケーテッドピクチャに位置する点(xP+(nPSW>>1),yP+(nPSH>>1))を含むブロック、第6コロケーテッドブロック550はコロケーテッドピクチャに位置する点(xP+(nPSW>>1)−1,yP+(nPSH>>1)−1)を含むブロックになることができる。
コロケーテッドブロックは、現在予測単位の位置がLCU内におけるどの位置に存在するかによって適応的に決定されることができる。予測対象ブロックとLCUの境界との位置関係は、1) 予測対象ブロックの下側及び右側がLCUの境界と接しない場合、2) 予測対象ブロックの下側のみがLCUの境界と接する場合、3) 予測対象ブロックの右側と下側がいずれもLCUの境界と接する場合、4) 予測対象ブロックの右側のみがLCUの境界と接する場合、に区分されることができる。
本発明の実施例によれば、コロケーテッドブロックは、予測対象ブロックと同一のLCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定されることができる。
1) 予測対象ブロックの下側及び右側がLCUの境界と接しない場合は、使用可能であるか否かを判断して、第1コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
2) 予測対象ブロックの下側のみがLCUの境界と接する場合は、使用可能であるか否かを判断して、第3コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
3) 予測対象ブロックの右側と下側がいずれもLCUの境界と接する場合は、使用可能であるか否かを判断して、第4コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
4) 予測対象ブロックの右側のみがLCUの境界と接する場合は、使用可能であるか否かを判断して、第2コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
すなわち、本発明の実施例によれば、現在ブロックのLCU内における位置によって適応的に時間的な補者ブロックが決定されることができるが、現在ブロックの下側境界がLCUの境界と接する場合と、現在ブロックの下側境界がLCUの境界と接しない場合とで、時間的な候補ブロックを求めるための画素の位置が変わることができ、現在ブロックの下側境界がLCUの境界と接する場合と、現在ブロックの右側境界のみがLCUの境界と接する場合とで、時間的な候補ブロックを求めるための画素の位置が変わることができる。
本発明のまた別の実施例によれば、コロケーテッドブロックは、予測対象ブロックと同一のLCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定される方法を使用できるだけでなく、予測対象ブロックと同一のLCUに含まれないコロケーテッドブロックの場合は、使用しなくてもよい。
図6は、本発明の実施例に係る動き予測ベクトルを算出するためのコロケーテッドブロックを決定する方法を示すための概念図である。
図6を参照すれば、一つのLCU内に含まれた複数個の予測単位のコロケーテッドブロックの位置が分かる。
PU0、PU1、PU2、PU5の場合は、予測単位がLCUの内部に存在する予測単位であって、第1コロケーテッドブロックを優先的に時間的な動きベクトルを算出するためのコロケーテッドブロックとして使用することができる。
PU4、PU7の場合は、予測単位の境界がLCUの下側境界にのみ接する場合の予測単位であって、第3コロケーテッドブロックを優先的に時間的な動きベクトルを算出するためのコロケーテッドブロックとして使用することができる。
PU8の場合は、予測単位の境界がLCUの下側境界と右側境界にいずれも接する場合の予測単位であって、第4コロケーテッドブロックを優先的に時間的な動きベクトルを算出するためのコロケーテッドブロックとして使用することができる。
PU3及びPU6の場合は、予測単位の境界がLCUの右側境界にのみ接する場合の予測単位であって、第2コロケーテッドブロックを優先的に時間的な動きベクトルを算出するためのコロケーテッドブロックとして使用することができる。
すなわち、上述したように、現在ブロックのLCU内における位置によって適応的に時間的な候補ブロックが決定され、現在ブロックの下側境界がLCUの境界に接する場合(PU4,PU7,PU8)と、現在ブロックの下側境界がLCUの境界に接しない場合(PU0,PU1,PU2,PU3,PU5,PU6)とで、時間的な候補ブロックを求めるための画素の位置が変わる。また、現在ブロックの下側境界がLCUの境界と接する場合(PU4,PU7,PU8)と、現在ブロックの右側境界のみがLCUの境界に接する場合(PU3,PU6)とで、時間的な候補ブロックを求めるための画素の位置が変わることができる。
本発明のまた別の実施例によれば、コロケーテッドブロックは、予測対象ブロックと同一のLCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定される方法を使用できるだけでなく、予測対象ブロックと同一のLCUに含まれないコロケーテッドブロックの場合は、使用しなくてもよい。例えば、PU4、PU7、PU8のように予測ブロックの下側境界がLCUの下側境界に接する場合、第1コロケーテッドブロックを使用不可なものと表示し、第5コロケーテッドブロックを時間的な予測ベクトルを算出するためのコロケーテッドブロックとして使用することもできる。
上記のようにコロケーテッドブロックを算出する方法として、予測対象ブロックとLCUの境界の位置によって予測対象ブロックの性格を上記のように区分し、区分された予測対象ブロックの位置によって直ぐコロケーテッドブロックとして使用されるブロックを決定する方法を使用することができるが、優先的に第1コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することと仮定し、第1コロケーテッドブロックが使用可能であるか否か(例えば、予測対象ブロックの下側境界がLCUと接するか否かなど)を判断した後、第1コロケーテッドブロックではない他のコロケーテッドブロックを時間的な動きベクトルを誘導するためのコロケーテッドブロックと決定することができる。例えば、予測対象ブロックとLCU(Largest Coding Unit)の境界とが接しているか否かを判断し、予測対象ブロックと上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定するステップを通じて、第1コロケーテッドブロックが使用可能でない場合、他のコロケーテッドブロック(例えば、第3コロケーテッドブロック)にコロケーテッドブロックを変更するか、第1コロケーテッドブロックを使用せずに直ぐに第5コロケーテッドブロックを使用する方法を使用することもできる。
上記の方法は、具体的に次のようなステップによってなされることができる。
1) 予測対象ブロックの境界とLCU(Largest Coding Unit)の境界とが接しているか否かを判断するステップ
2) 予測対象ブロックの境界と上記LCUの境界とが接しているか否かによって第1コロケーテッドブロックが使用可能であるか否かを決定するステップ
ステップ2)は、具体的に、予測対象ブロックの下側境界と上記LCUの境界とが接している場合、第1コロケーテッドブロックが使用可能でないと判断するステップになることができる。
3) 第1コロケーテッドブロックが使用可能でない場合、上記第1コロケーテッドブロックを除く他のコロケーテッドブロックを時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定するステップ
ステップ3)は、具体的に、予測対象ブロックの下側境界とLCUの境界とが接している場合と、予測対象ブロックの右側境界のみがLCUの境界と接している場合とで、互いに異なるコロケーテッドブロックが時間的な動き予測ベクトルを算出するためのコロケーテッドブロックと決定されるステップになることができる。
4) 第1コロケーテッドブロックが使用可能である場合、第1コロケーテッドブロックを時間的な動き予測ブロックを算出するためのコロケーテッドブロックと決定し、第1コロケーテッドブロックが使用可能でない場合、第5コロケーテッドブロックの使用可能性を判断するステップ
上記のようなステップは任意のものであって、ステップの順次的な関係や判断方法は、本発明の本質から外れない限り、変わることができる。
図7は、本発明の実施例に係る予測対象ブロックがLCUの下側境界に接している場合を示す概念図である。
図7を参照すれば、LCUの下側境界の部分に予測対象ブロック(PU4,PU7,PU8)が位置する場合のみ、コロケーテッドブロックの位置を変更する場合を示す。LCUの下側境界の部分に予測対象ブロック(PU4,PU7,PU8)が位置する場合、コロケーテッドブロックの位置をLCUのうち現在LCUの下に位置するLCUを探索しなくとも動き予測関連情報を算出できるように設定することができる。例えば、予測対象ブロックの第1コロケーテッドブロックではない第3コロケーテッドブロックをコロケーテッドブロックとして時間的な動き予測ベクトルを算出することができる。1) LCUの右側境界にのみ接している場合は、使用可能であるか否かによって、第1コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動き予測ベクトルを算出するコロケーテッドブロックと決定し、2) LCUの下側境界に接する場合は、使用可能であるか否かによって、第3コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動き予測ベクトルを算出するコロケーテッドブロックと決定することができる。すなわち、本発明の実施例によれば、現在ブロックの下側境界がLCUの境界と接する場合と、現在ブロックの下側境界がLCUの境界と接しない場合とで、時間的な候補ブロックを求めるための画素の位置が変わることができる。
さらに図4を参照すれば、図5ないし図7において上述した方法によって決定されたコロケーテッドブロックに基づいて、コロケーテッドブロック動き予測ベクトル
(mvLXCol)及びコロケーテッドブロック使用可能性情報(availableFlagLXCol)を算出する(ステップS420)。
図5ないし図7の過程を通じて決定されたコロケーテッドブロック情報に基づいて、予測対象ブロックの画面間予測に使用されるコロケーテッドブロックの動きベクトル(mvLXCol)及びコロケーテッドブロック使用可能性情報(availableFlagLXCol)を、次のような方法で算出することができる。
1) コロケーテッドブロック(colPu)が画面内予測方法に基づいて符号化されるか、コロケーテッドブロック(colPu)が使用可能でないか、コロケーテッドピクチャ(colPic)が時間的な動き予測ベクトルの予測に使用できないピクチャであるか、時間的な動き予測ベクトルを使用せずに画面間予測を行う場合は、コロケーテッドブロック動きベクトル(mvLXCol)及びコロケーテッドブロック使用可能性情報(availableFlagLXCol)を0と設定することができる。
2) 1)のような場合でなければ、L0リスト使用有無判断フラグ(PredFlagL0)、及びL1リスト使用有無判断フラグ(PredFlagL1)を通じて、コロケーテッドブロック動きベクトル情報(mvLXCol)とコロケーテッドブロック使用可能性情報(availableFlagLXCol)を算出することができる。
まず、L0リスト使用有無判断フラグ(PredFlagL0)が0であってコロケーテッドブロックがL0リストを使用せずに画面間予測を行ったものと判断されれば、コロケーテッドブロックの動き予測関連情報であるmvCol、refIdxCol及びlistColなどのような情報は、L1リストを使用して算出されたコロケーテッドブロックの動き予測関連情報であるMvL1[xPCol][yPCol]、RefIdxL1[xPCol][yPCol]及びL1と設定し、コロケーテッドブロック使用可能性情報(availableFlagLXCol)を1と設定することができる。
他の場合として、L0リスト使用有無判断フラグ(PredFlagL0)が1であってコロケーテッドブロックがL0リストを使用して画面間予測を行ったものと判断されれば、PredFlagL1が0である場合と1である場合とに分けて、コロケーテッドブロックの動き予測関連情報であるmvCol、refIdxCol及びlistColのような情報を設定し、コロケーテッドブロック使用可能性情報(availableFlagLXCol)を1と設定することができる。
算出された mvLXColをスケーリングする(ステップS430)。
ステップS420を通じて算出されたmvLXColを予測対象ブロックの時間的な動き予測ベクトルとして使用するために、予測対象ブロックが含まれたピクチャと予測対象ブロックが参照する参照ピクチャ間の距離、コロケーテッドブロックが含まれたコロケーテッドピクチャとコロケーテッドブロックが参照するコロケーテッドブロック参照ピクチャ間の距離情報に基づいて算出されたmvLXCol値をスケーリングして、時間的な予測動きベクトルを算出することができる。
以下、本発明の実施例においては、Merge及びAMVPのような画面間予測を行う方法について開示する。
図8は、本発明の実施例に係るマージモードを用いた画面間予測方法を示すフローチャートである。
図8を参照すれば、空間的なマージ候補から動き予測関連情報を誘導する(ステップ S1000)。
予測対象ブロックの周辺の予測単位から空間的なマージ候補(spatial merge candidate)を誘導することができる。空間的なマージ候補を誘導するために、予測単位の幅と高さ情報、MER(Motion Estimation Region)情報、singleMCLFlag情報、パーティション位置情報などを提供されることができる。上記のような入力情報に基づいて、空間的なマージ候補の位置による使用可能性情報(availableFlagN)、参照ピクチャ情報(refIdxL0, refIdxL1)、リスト利用情報(predFlagL0N, predFlagL1N)、動きベクトル情報(mvL0N, mvL1N)を誘導することができる。空間的なマージ候補は、予測対象ブロックの周辺に存在する複数のブロックになってもよい。
図9は、本発明の実施例に係る空間的なマージ候補の位置を示す概念図である。
図9を参照すれば、空間的なマージ候補は、予測対象ブロックの位置を基準に予測対象ブロックの左上に位置する点が(xP,yP)、予測対象ブロックの幅をnPSW、予測対象ブロックの幅をnPSHとする場合、(xP−1,yP+nPSH)である点を含むA0ブロック、(xP−1,yP+nPSH−MinPuSize)である点を含むA1ブロック、(xP+nPSW,yP−1)である点を含むB0ブロック、(xP+nPSW−MinPuSize,yP−1)である点を含むB1ブロック、(xP−MinPuSize,yP−1)である点を含むB2ブロックになることができる。
図9を参照すれば、空間的なマージ候補は、予測対象ブロックの位置を基準に予測対象ブロックの左上に位置する点が(xP,yP)、予測対象ブロックの幅をnPSW、予測対象ブロックの高さをnPSHとする場合、(xP−1,yP+nPSH)である点を含むA0ブロック、(xP−1,yP+nPSH−MinPuSize)である点を含むA1ブロック、(xP+nPSW,yP−1)である点を含むB0ブロック、(xP+nPSW−MinPuSize,yP−1)である点を含むB1ブロック、(xP−MinPuSize,yP−1)である点を含むB2ブロックになることができる。
時間的なマージ候補の参照ピクチャインデックス値は、時間的なマージ候補(コロケーテッドブロック)が含まれたコロケーテッドピクチャのインデックス値であって、下記のような特定の条件を通じて誘導されることができる。下記の条件は任意のものであって、変わることができる。例えば、予測対象ブロックの左上に位置する点が(Xp,yP)、予測対象ブロックの幅をnPSW、予測対象ブロックの幅をnPSHとする場合、1) (xP−1,yP+nPSH−1)の位置に該当する予測対象ブロックの周辺予測単位が存在し(以下、「参照ピクチャインデックス算出周辺予測単位」という。)、2) 参照ピクチャインデックス算出周辺予測単位のパーティションインデックス値が0であり、3) 参照ピクチャインデックス算出周辺予測単位が画面内予測モードを使用して予測を行ったブロックではなく、4) 予測対象ブロックと参照ピクチャインデックス算出周辺予測ブロックとが同一のMER(Motion Estimation Region)に属しない場合、時間的なマージ候補の参照ピクチャインデックス値を参照ピクチャインデックス算出周辺予測単位の参照ピクチャインデックス値と同一の値と決定することができる。上記のような条件を満足しない場合、時間的なマージ候補の参照ピクチャインデックス値は0と設定することができる。
時間的なマージ候補の参照ピクチャインデックス値は、時間的なマージ候補(コロケーテッドブロック)が含まれたコロケーテッドピクチャのインデックス値であって、下記のような特定の条件を通じて誘導されることができる。下記の条件は任意のものであって、変わることができる。例えば、予測対象ブロックの左上に位置する点が(Xp,yP)、予測対象ブロックの幅をnPSW、予測対象ブロックの高さをnPSHとする場合、1) (xP−1,yP+nPSH−1)の位置に該当する予測対象ブロックの周辺予測単位が存在し(以下、「参照ピクチャインデックス算出周辺予測単位」という。)、2) 参照ピクチャインデックス算出周辺予測単位のパーティションインデックス値が0であり、3) 参照ピクチャインデックス算出周辺予測単位が画面内予測モードを使用して予測を行ったブロックではなく、4) 予測対象ブロックと参照ピクチャインデックス算出周辺予測ブロックとが同一のMER(Motion Estimation Region)に属しない場合、時間的なマージ候補の参照ピクチャインデックス値を参照ピクチャインデックス算出周辺予測単位の参照ピクチャインデックス値と同一の値と決定することができる。上記のような条件を満足しない場合、時間的なマージ候補の参照ピクチャインデックス値は0と設定することができる。
本発明の実施例によれば、時間的なマージ候補ブロック(コロケーテッドブロック)は、予測対象ブロックと同一のLCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定されることができる。
1) 予測対象ブロックの下側及び右側がLCUの境界と接しない場合は、使用可能であるか否かを判断して、第1コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
2) 予測対象ブロックの下側のみがLCUの境界と接する場合は、使用可能であるか否かを判断して、第3コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
3) 予測対象ブロックの右側と下側がいずれもLCUの境界と接する場合は、使用可能であるか否かを判断して、第4コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
4) 予測対象ブロックの右側のみがLCUの境界と接する場合は、使用可能であるか否かを判断して、第2コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
本発明の実施例によれば、コロケーテッドブロックは、予測対象ブロックと同一のLCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定される方法を使用できるだけでなく、予測対象ブロックと同一のLCUに含まれないコロケーテッドブロックの場合は、使用しなくてもよい。
上述したように、コロケーテッドブロックを算出する方法として予測対象ブロックとLCUの境界の位置によって予測対象ブロックの性格を上記のように区分し、区分された予測対象ブロックの位置によって直ぐコロケーテッドブロックとして使用されるブロックを決定する方法を使用することができるが、優先的に第1コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することと仮定し、第1コロケーテッドブロックが使用可能であるか否か(例えば、予測対象ブロックの下側境界がLCUと接するか否かなど)を判断した後、第1コロケーテッドブロックではない他のコロケーテッドブロックを時間的な動きベクトルを誘導するためのコロケーテッドブロックと決定することができる。
マージ候補リストを構成する(ステップS1030)。
マージ候補リストは、空間的なマージ候補及び時間的なマージ候補のうち少なくとも一つを含んで構成されることができる。マージ候補リストに含まれる空間的なマージ候補及び時間的なマージ候補は、一定の優先順位を持って配列されることができる。
マージ候補リストは、固定された数のマージ候補を含んで構成されることができ、 固定された数のマージ候補を生成するためにマージ候補が不足する場合、マージ候補が有する動き予測関連情報を組み合わせてマージ候補を生成するか、零ベクトル値をマージ候補として生成してマージ候補リストを生成することができる。
図10は、本発明の実施例に係るAMVPを用いた画面間予測方法を示すフローチャートである。
図10を参照すれば、空間的なAMVP候補ブロックから動き予測関連情報を誘導する(ステップS1200)。
予測対象ブロックの予測動きベクトル及び参照ピクチャインデックス情報を誘導するために、予測対象ブロックの周辺にある周辺予測ブロックから空間的なAMVP候補ブロックを誘導することができる。
図9をさらに参照すれば、空間的なAMVP候補ブロックは、A0ブロック、A1ブロックのうち一つのブロックを第1空間的なAMVP候補ブロックとして使用し、B0ブロック、B1ブロック、B2ブロックのうち一つのブロックを第2空間的なAMVP候補ブロックとして使用して、空間的なAMVP候補ブロックを誘導することができる。
時間的なAMVP候補ブロックから動き予測関連情報を誘導する(ステップS1210)。
本発明の実施例によれば、コロケーテッドブロックは、予測対象ブロックと同一の LCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定されることができる。
1) 予測対象ブロックの下側及び右側がLCUの境界と接しない場合は、使用可能であるか否かを判断して、第1コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
2) 予測対象ブロックの下側のみがLCUの境界と接する場合は、使用可能であるか否かを判断して、第3コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
3) 予測対象ブロックの右側と下側がいずれもLCUの境界と接する場合は、使用可能であるか否かを判断して、第4コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
4) 予測対象ブロックの右側のみがLCUの境界と接する場合は、使用可能であるか否かを判断して、第2コロケーテッドブロックと第5コロケーテッドブロックを順次に時間的な動きベクトルを誘導するためのコロケーテッドブロックとして使用することができる。
本発明の実施例によれば、コロケーテッドブロックは、予測対象ブロックと同一のLCUに含まれた位置に存在するように予測対象ブロックのLCU内における位置によって適応的に異なるように決定される方法を使用できるだけでなく、予測対象ブロックと同一のLCUに含まれないコロケーテッドブロックの場合は、使用しなくてもよい。
空間的なAMVP候補ブロックを誘導するステップS1200で、第1空間的なAMVP候補ブロック及び第2空間的なAMVP候補ブロックが使用可能であると判断され、誘導された動き予測ベクトル値が同一でない場合、時間的な動き予測ベクトルを誘導するステップであるステップS1210は行われなくてもよい。
AMVP候補リストを構成する(ステップS1220)。
ステップS1200及びステップS1210のうち少なくとも一つのステップを通じて算出された動き予測関連情報を用いてAMVP候補リストを構成する。構成されたAMVP候補リストにおいて同一の動き予測関連情報が存在する場合、一つの値のみをAMVP候補値として使用することができる。AMVP候補リストに含まれる動き予測関連情報は、固定された個数の候補値のみを含むことができる。
以上、実施例を参照して説明したが、当該技術分野の熟練した当業者は、下記の特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内で、本発明を多様に修正及び変更させ得ることを理解しなければならない。

Claims (14)

  1. 像信号を復号化する方法であって、
    最大の符号化単位の境界に現在ブロックの境界が接するか否かに基づいて、コロケーテッドピクチャ内のコロケーテッドブロックを決定するステップと、
    コロケーテッドブロックの動きベクトルを用いて、前記現在ブロックの時間的な予測動きベクトルを得るステップと、
    前記時間的な予測動きベクトルを含む動きベクトル候補リストを発生するステップと、 発生された前記動きベクトル候補リストに基づいて、前記現在ブロックの画面予測を実行するステップと、
    を備えることを特徴とする映像信号を復号化する方法。
  2. 前記コロケーテッドピクチャは、コロケーテッド参照インデックスに基づいて決定され、前記コロケーテッド参照インデックスは、前記コロケーテッドブロックを含むピクチャを同定することを特徴とする請求項1に記載の方法。
  3. 前記現在ブロック及び前記最大の符号化単位が接する前記境界は、下側境界であることを特徴とする請求項に記載の方法。
  4. 前記時間的な予測動きベクトルは、前記コロケーテッドブロックの前記動きベクトルをスケーリングすることによって得られることを特徴とする請求項1に記載の方法。
  5. 前記現在ブロックを含む現在ピクチャと、前記現在ブロックの参照ピクチャとの間の時間的な距離に基づいて、前記コロケーテッドブロックの前記動きベクトルはスケーリングされることを特徴とする請求項に記載の方法。
  6. 前記コロケーテッドピクチャと、前記コロケーテッドブロックの参照ピクチャとの間の時間的な距離に基づいて、前記コロケーテッドブロックの前記動きベクトルはスケーリングされることを特徴とする請求項に記載の方法。
  7. 前記コロケーテッドブロックの前記動きベクトルは、第1の時間的な距離と第2の時間的な距離に基づいてスケーリングされ、前記第1の時間的な距離は、前記現在ブロックを含む現在ピクチャと前記現在ブロックの参照ピクチャとの間の時間的な距離であり、前記第2の時間的な距離は、前記コロケーテッドピクチャと前記コロケーテッドブロックの参照ピクチャとの間の時間的な距離であることを特徴とする請求項に記載の方法。
  8. 像信号を復号化する装置であって、
    最大の符号化単位の境界に現在ブロックの境界が接するか否かに基づいて、コロケーテッドピクチャ内のコロケーテッドブロックを決定するように構成され、前記コロケーテッドブロックの動きベクトルを用いて、前記現在ブロックの時間的な予測動きベクトルを得るように構成され、前記時間的な予測動きベクトルを含む動きベクトル候補リストを発生するように構成され、発生された前記動きベクトル候補リストに基づいて、前記現在ブロックの画面予測を実行するように構成された画面内予測ユニットを備えることを特徴とする映像信号を復号化する装置。
  9. 前記コロケーテッドピクチャは、コロケーテッド参照インデックスに基づいて決定され、前記コロケーテッド参照インデックスは、前記コロケーテッドブロックを含むピクチャを同定することを特徴とする請求項に記載の装置。
  10. 前記現在ブロック及び前記最大の符号化単位が接する前記境界は、下側境界であることを特徴とする請求項に記載の方法。
  11. 前記時間的な予測動きベクトルは、前記コロケーテッドブロックの前記動きベクトルをスケーリングすることによって得られることを特徴とする請求項に記載の装置。
  12. 前記現在ブロックを含む現在ピクチャと、前記現在ブロックの参照ピクチャとの間の時間的な距離に基づいて、前記コロケーテッドブロックの前記動きベクトルはスケーリングされることを特徴とする請求項11に記載の装置。
  13. 前記コロケーテッドピクチャと、前記コロケーテッドブロックの参照ピクチャとの間の時間的な距離に基づいて、前記コロケーテッドブロックの前記動きベクトルはスケーリングされることを特徴とする請求項に記載の装置。
  14. 前記コロケーテッドブロックの前記動きベクトルは、第1の時間的な距離と第2の時間的な距離に基づいてスケーリングされ、前記第1の時間的な距離は、前記現在ブロックを含む現在ピクチャと前記現在ブロックの参照ピクチャとの間の時間的な距離であり、前記第2の時間的な距離は、前記コロケーテッドピクチャと前記コロケーテッドブロックの参照ピクチャとの間の時間的な距離であることを特徴とする請求項に記載の装置。
JP2014516928A 2011-09-09 2012-09-06 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置 Active JP5745693B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2011-0091782 2011-09-09
KR20110091782 2011-09-09
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-0039501 2012-04-17
PCT/KR2012/007174 WO2013036041A2 (ko) 2011-09-09 2012-09-06 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2015084318A Division JP5993484B2 (ja) 2011-09-09 2015-04-16 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015084331A Division JP6062480B2 (ja) 2011-09-09 2015-04-16 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置

Publications (3)

Publication Number Publication Date
JP2014520477A JP2014520477A (ja) 2014-08-21
JP2014520477A5 JP2014520477A5 (ja) 2014-11-27
JP5745693B2 true JP5745693B2 (ja) 2015-07-08

Family

ID=47832709

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2014516928A Active JP5745693B2 (ja) 2011-09-09 2012-09-06 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015084318A Active JP5993484B2 (ja) 2011-09-09 2015-04-16 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015084331A Active JP6062480B2 (ja) 2011-09-09 2015-04-16 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015160175A Active JP6062508B2 (ja) 2011-09-09 2015-08-14 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015160173A Active JP6062507B2 (ja) 2011-09-09 2015-08-14 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2016241358A Active JP6322693B2 (ja) 2011-09-09 2016-12-13 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2018074837A Active JP6619045B2 (ja) 2011-09-09 2018-04-09 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置

Family Applications After (6)

Application Number Title Priority Date Filing Date
JP2015084318A Active JP5993484B2 (ja) 2011-09-09 2015-04-16 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015084331A Active JP6062480B2 (ja) 2011-09-09 2015-04-16 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015160175A Active JP6062508B2 (ja) 2011-09-09 2015-08-14 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2015160173A Active JP6062507B2 (ja) 2011-09-09 2015-08-14 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2016241358A Active JP6322693B2 (ja) 2011-09-09 2016-12-13 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP2018074837A Active JP6619045B2 (ja) 2011-09-09 2018-04-09 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置

Country Status (14)

Country Link
US (4) US10523967B2 (ja)
EP (2) EP3179723B1 (ja)
JP (7) JP5745693B2 (ja)
CN (19) CN107396099B (ja)
AU (1) AU2012305071B2 (ja)
BR (1) BR112013022641B1 (ja)
CA (2) CA2829114C (ja)
ES (1) ES2487993B1 (ja)
GB (7) GB2562130B (ja)
MX (4) MX2013010155A (ja)
PL (1) PL231159B1 (ja)
RU (10) RU2600547C2 (ja)
SE (5) SE538057C2 (ja)
WO (1) WO2013036041A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167372A (ja) * 2011-09-09 2015-09-24 ケィティ、コーポレーションKt Corporation 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
ES2705251B1 (es) * 2011-09-23 2020-01-29 Kt Corp Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
CN105453564B (zh) 2013-07-30 2019-05-10 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
US9894369B2 (en) 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
CN111147845B (zh) * 2014-11-27 2023-10-10 株式会社Kt 对视频信号进行解码的方法和对视频信号进行编码的方法
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN116546206A (zh) * 2016-04-08 2023-08-04 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
WO2018056703A1 (ko) * 2016-09-20 2018-03-29 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2018128223A1 (ko) * 2017-01-03 2018-07-12 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
EP3383043A1 (en) * 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
US11558633B2 (en) * 2017-11-01 2023-01-17 Vid Scale, Inc. Sub-block motion derivation and decoder-side motion vector refinement for merge mode
KR20190090728A (ko) * 2018-01-25 2019-08-02 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
CN111886861B (zh) * 2018-02-22 2023-12-22 Lg电子株式会社 根据图像编码系统中的块划分结构的图像解码方法和设备
WO2019182385A1 (ko) * 2018-03-21 2019-09-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020003280A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Which lut to be updated or no updating
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
WO2020003255A1 (en) * 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Mer improvements
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
KR102660666B1 (ko) 2018-06-29 2024-04-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut들을 업데이트하기 위한 조건들
CN117812257A (zh) * 2018-07-02 2024-04-02 Lg电子株式会社 图像解码方法、图像编码方法、存储介质和发送方法
EP4307679A2 (en) 2018-07-02 2024-01-17 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
CN117241039A (zh) * 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
KR20240013897A (ko) * 2018-08-29 2024-01-30 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
KR20200034646A (ko) 2018-09-21 2020-03-31 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
EP3866470A4 (en) * 2018-10-10 2022-07-20 Samsung Electronics Co., Ltd. VIDEO ENCODING AND DECODING METHODS USING DIFFERENTIAL MOTION VECTOR VALUES, AND APPARATUS FOR ENCODING AND DECODING MOTION INFORMATION
GB2578150C (en) 2018-10-18 2022-05-18 Canon Kk Video coding and decoding
GB2595054B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
JP7281890B2 (ja) * 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
EP3888355A4 (en) 2019-01-10 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. LOOKUP TABLE UPDATE INVOCATION
CN113383554B (zh) * 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113365076B (zh) * 2019-06-21 2022-03-08 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
CN114631321B (zh) 2019-10-18 2024-04-12 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
CN115176467A (zh) * 2020-02-14 2022-10-11 抖音视界有限公司 视频比特流中的通用约束标志的使用
CN115349254A (zh) * 2020-03-23 2022-11-15 抖音视界有限公司 控制编解码视频中不同级别的去块滤波
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
US5508744A (en) * 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
RU2182727C2 (ru) * 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
WO2002009419A2 (en) 2000-07-20 2002-01-31 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100446083B1 (ko) * 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
EP1514241A2 (en) * 2002-05-30 2005-03-16 Koninklijke Philips Electronics N.V. Unit for and method of estimating a motion vector
WO2004008775A1 (ja) * 2002-07-15 2004-01-22 Hitachi, Ltd. 動画像符号化方法及び復号化方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
AU2003273307A1 (en) 2002-10-01 2004-04-23 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
CN1839632A (zh) 2003-08-22 2006-09-27 皇家飞利浦电子股份有限公司 用于速率-失真-复杂度优化的视频编码的运动矢量联合时空指向尺度预测和编码
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
AU2003282462A1 (en) 2003-10-09 2005-05-26 Thomson Licensing Direct mode derivation process for error concealment
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
MXPA06006107A (es) * 2003-12-01 2006-08-11 Samsung Electronics Co Ltd Metodo y aparato de codificacion y decodificacion escalables de video.
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100694059B1 (ko) 2004-09-30 2007-03-12 삼성전자주식회사 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP2008538433A (ja) * 2005-04-12 2008-10-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 領域ベース複数パス動き推定及び時間的動きベクトル候補の更新を用いたビデオ処理
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
WO2007005750A2 (en) 2005-07-01 2007-01-11 Sonic Solutions Method, apparatus and system for use in multimedia signal encoding
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
KR100959536B1 (ko) 2006-03-30 2010-05-27 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
CN101455082B (zh) 2006-03-30 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101090491B (zh) * 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
US8325814B2 (en) 2006-06-19 2012-12-04 Lg Electronics Inc. Method and apparatus for processing a video signal
CN101102503A (zh) 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
US8532178B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
CN101669367A (zh) 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
EP2149262A4 (en) 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
CN101119493B (zh) 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
JP2011501497A (ja) 2007-10-15 2011-01-06 ノキア コーポレイション マルチビュー映像コンテンツのための動きスキップおよびシングルループ符号化
US8462853B2 (en) 2007-10-16 2013-06-11 Lg Electronics Inc. Method and an apparatus for processing a video signal
US8908765B2 (en) 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) * 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
JP5681861B2 (ja) * 2008-03-31 2015-03-11 メディメトリクス ペルソナリズド ドルグ デリヴェリー ベー ヴェ センサを有する嚥下型カプセルを作成する方法
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
TWI374672B (en) 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
CA2730383A1 (en) 2008-07-10 2010-01-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
WO2010041856A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
CN101540926B (zh) 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US20130005493A1 (en) 2009-08-20 2013-01-03 Nak Sung Kim Swing ride tilting swing chair back and forth
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
US20120300850A1 (en) 2010-02-02 2012-11-29 Alex Chungku Yie Image encoding/decoding apparatus and method
KR20110090781A (ko) 2010-02-02 2011-08-10 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
SG10201503179VA (en) * 2010-04-23 2015-06-29 M&K Holdings Inc Image encoding apparatus
KR101789635B1 (ko) * 2010-05-04 2017-10-25 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
CN103081470B (zh) * 2010-09-02 2016-08-03 Lg电子株式会社 编码和解码视频的方法和使用该方法的装置
KR101033243B1 (ko) * 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
WO2012102021A1 (ja) 2011-01-25 2012-08-02 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
PL2698999T3 (pl) 2011-04-12 2017-10-31 Sun Patent Trust Sposób kodowania ruchomych obrazów, urządzenie do kodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, urządzenie do dekodowania ruchomych obrazów, oraz urządzenie do kodowania/dekodowania ruchomych obrazów
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
EP3179723B1 (en) 2011-09-09 2023-01-25 KT Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
EP3471420B1 (en) 2011-11-18 2020-05-13 Google Technology Holdings LLC An explicit way for signaling a collocated picture for high efficiency video coding (hevc)
US9392235B2 (en) * 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
US9467694B2 (en) 2011-11-21 2016-10-11 Google Technology Holdings LLC Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
KR102099485B1 (ko) 2012-04-11 2020-04-09 구글 테크놀로지 홀딩스 엘엘씨 시간적 예측을 위한 시간적 모션 벡터 예측기(mvp) 플래그의 시그널링
WO2013154674A1 (en) 2012-04-11 2013-10-17 Motorola Mobility Llc Evaluation of signaling of collocated reference picture for temporal prediction
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167372A (ja) * 2011-09-09 2015-09-24 ケィティ、コーポレーションKt Corporation 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
US10523967B2 (en) 2011-09-09 2019-12-31 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
US10805639B2 (en) 2011-09-09 2020-10-13 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
US11089333B2 (en) 2011-09-09 2021-08-10 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method

Also Published As

Publication number Publication date
JP6619045B2 (ja) 2019-12-11
EP3179723A1 (en) 2017-06-14
JP2014520477A (ja) 2014-08-21
JP2015167373A (ja) 2015-09-24
CN107580221B (zh) 2020-12-08
RU2016133579A3 (ja) 2020-01-30
CA2829114C (en) 2016-11-22
ES2487993B1 (es) 2015-09-29
CN107592528A (zh) 2018-01-16
CN103430550B (zh) 2017-10-13
GB2562635B (en) 2019-04-03
CN106170088B (zh) 2019-02-19
RU2716229C2 (ru) 2020-03-06
JP2016007039A (ja) 2016-01-14
GB201321881D0 (en) 2014-01-22
AU2012305071B2 (en) 2014-12-11
SE1651148A1 (sv) 2016-08-25
GB201809871D0 (en) 2018-08-01
RU2646384C1 (ru) 2018-03-02
GB2562129B (en) 2019-04-03
PL231159B1 (pl) 2019-01-31
GB2559445A8 (en) 2018-10-03
CN107580219B (zh) 2020-12-08
CN107483926B (zh) 2020-06-05
SE1651149A1 (sv) 2016-08-25
CN107592527A (zh) 2018-01-16
GB201716265D0 (en) 2017-11-22
CN107580219A (zh) 2018-01-12
CN107580218A (zh) 2018-01-12
RU2716563C2 (ru) 2020-03-12
RU2016133580A3 (ja) 2020-01-30
US10523967B2 (en) 2019-12-31
CN107580221A (zh) 2018-01-12
CA2829114A1 (en) 2013-03-14
BR112013022641A2 (ja) 2017-09-21
GB2562129A (en) 2018-11-07
BR112013022641A8 (pt) 2017-09-12
CN107580220B (zh) 2020-06-19
GB2559227B (en) 2018-11-28
GB2559226A (en) 2018-08-01
RU2635235C1 (ru) 2017-11-09
CN107404651B (zh) 2020-03-06
SE1551592A1 (sv) 2015-12-03
AU2012305071A1 (en) 2013-10-03
MX351041B (es) 2017-09-29
GB201716275D0 (en) 2017-11-22
PL407911A1 (pl) 2015-05-25
MX351052B (es) 2017-09-29
US20130343461A1 (en) 2013-12-26
CN107396099B (zh) 2020-03-06
CN107396099A (zh) 2017-11-24
RU2013140661A (ru) 2015-10-20
RU2016133570A (ru) 2018-12-10
CN107580220A (zh) 2018-01-12
EP2672710B1 (en) 2022-10-26
CN107396098B (zh) 2020-03-06
CN103430550A (zh) 2013-12-04
US10805639B2 (en) 2020-10-13
GB201716271D0 (en) 2017-11-22
JP5993484B2 (ja) 2016-09-14
CN107592529B (zh) 2020-05-12
GB2562635A (en) 2018-11-21
ES2487993A2 (es) 2014-08-25
CN106170088A (zh) 2016-11-30
RU2636117C1 (ru) 2017-11-20
GB2559227A (en) 2018-08-01
CN107592527B (zh) 2020-05-12
AU2012305071A8 (en) 2013-10-31
WO2013036041A2 (ko) 2013-03-14
GB2562130B (en) 2019-04-03
CN104349164B (zh) 2018-02-02
JP2015167372A (ja) 2015-09-24
JP6062508B2 (ja) 2017-01-18
JP2016007040A (ja) 2016-01-14
CN107396098A (zh) 2017-11-24
CN107483927A (zh) 2017-12-15
SE538057C2 (sv) 2016-02-23
RU2636118C1 (ru) 2017-11-20
SE538787C2 (sv) 2016-11-22
EP2672710A2 (en) 2013-12-11
US20210044832A1 (en) 2021-02-11
GB2508739B (en) 2018-12-05
RU2716230C2 (ru) 2020-03-06
CN107483925B (zh) 2020-06-19
GB2562130A (en) 2018-11-07
GB201716270D0 (en) 2017-11-22
JP6322693B2 (ja) 2018-05-09
EP3179723B1 (en) 2023-01-25
CN107483928A (zh) 2017-12-15
CN107592529A (zh) 2018-01-16
RU2600547C2 (ru) 2016-10-20
US11089333B2 (en) 2021-08-10
ES2487993R1 (es) 2015-01-27
CN107483929A (zh) 2017-12-15
GB2559445A (en) 2018-08-08
MX338137B (es) 2016-04-05
SE1351475A1 (sv) 2014-06-09
GB201716273D0 (en) 2017-11-22
MX2013010155A (es) 2013-12-02
RU2716231C2 (ru) 2020-03-06
CN107635140A (zh) 2018-01-26
RU2016133579A (ru) 2018-12-10
GB2559445B (en) 2018-11-28
CN107580218B (zh) 2020-05-12
US20200084475A1 (en) 2020-03-12
CN107483928B (zh) 2020-05-12
SE1651147A1 (sv) 2016-08-25
RU2016133566A (ru) 2018-12-10
JP2017098967A (ja) 2017-06-01
CN107635140B (zh) 2020-12-08
CA2937483C (en) 2017-09-05
RU2016133570A3 (ja) 2020-01-30
CN107404651A (zh) 2017-11-28
CN107483925A (zh) 2017-12-15
CN107483926A (zh) 2017-12-15
CN107483929B (zh) 2020-05-12
WO2013036041A3 (ko) 2013-05-02
CN107592528B (zh) 2020-05-12
CA2937483A1 (en) 2013-03-14
JP6062507B2 (ja) 2017-01-18
JP6062480B2 (ja) 2017-01-18
US20150208093A1 (en) 2015-07-23
GB2508739A (en) 2014-06-11
CN104349164A (zh) 2015-02-11
RU2016133580A (ru) 2018-12-10
BR112013022641B1 (pt) 2022-07-12
GB2559226B (en) 2018-11-28
RU2016133566A3 (ja) 2020-01-30
RU2622849C1 (ru) 2017-06-20
EP2672710A4 (en) 2016-08-03
CN107483927B (zh) 2020-06-05
JP2018139422A (ja) 2018-09-06

Similar Documents

Publication Publication Date Title
JP6619045B2 (ja) 時間的な予測動きベクトル誘導方法及びこのような方法を用いる装置
JP6595020B2 (ja) マージ候補ブロック誘導方法及びこのような方法を用いる装置
KR101204026B1 (ko) 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150501

R150 Certificate of patent or registration of utility model

Ref document number: 5745693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250