JP2014534756A - Amvpモードにおける映像復号化方法 - Google Patents

Amvpモードにおける映像復号化方法 Download PDF

Info

Publication number
JP2014534756A
JP2014534756A JP2014539239A JP2014539239A JP2014534756A JP 2014534756 A JP2014534756 A JP 2014534756A JP 2014539239 A JP2014539239 A JP 2014539239A JP 2014539239 A JP2014539239 A JP 2014539239A JP 2014534756 A JP2014534756 A JP 2014534756A
Authority
JP
Japan
Prior art keywords
motion vector
block
candidate
unit
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014539239A
Other languages
English (en)
Other versions
JP5832660B2 (ja
Inventor
ソー ミ オー,
ソー ミ オー,
ムーノック ヤン,
ムーノック ヤン,
Original Assignee
インフォブリッジ ピーティーイー. エルティーディー.
インフォブリッジ ピーティーイー. エルティーディー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48288528&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2014534756(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by インフォブリッジ ピーティーイー. エルティーディー., インフォブリッジ ピーティーイー. エルティーディー. filed Critical インフォブリッジ ピーティーイー. エルティーディー.
Publication of JP2014534756A publication Critical patent/JP2014534756A/ja
Application granted granted Critical
Publication of JP5832660B2 publication Critical patent/JP5832660B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本発明による方法ではビットストリームから差分動きベクトルとAMVPインデックスを抽出し左側、上側及び時間動きベクトル候補のうち少なくとも2個が利用可能な場合、2個の利用可能な動きベクトルを利用してAMVP候補リストを構築しAMVPインデックスを利用してAMVP候補リストの中から動きベクトル予測子を選択し動きベクトル予測子及び差分動きベクトルを利用して動きベクトルを生成する。時間動きベクトル候補は時間動きベクトル候補ピクチャ内の時間動きベクトル候補ブロックの動きベクトルであり時間動きベクトル候補ブロックは時間動きベクトル候補ブロックの位置に基づいて決定される。したがって多様な動きベクトル候補を含んで動き情報の符号化効率が向上する。また参照ピクチャの動き情報を適応的に格納し時間動きベクトル候補を適応的に生成し符号化効率を向上させると共に符号器と復号器の演算複雑度を減らすことができる。【選択図】図1

Description

本発明は、動きベクトルを誘導する方法に関し、より詳しくは、動き情報候補を生成して動き情報を誘導する方法に関する。
H.264/MPEG−4 AVCでは、一つのピクチャが複数個のマクロブロックに分割され、イントラ予測又はインター予測を利用して予測ブロックを生成することによって各々のマクロブロックを符号化する。原本ブロックと予測ブロックとの間の残差ブロックが変換されて変換ブロックを生成し、変換ブロックは、量子化パラメータと量子化マトリクスを利用して量子化される。量子化ブロックの量子化係数は、予め決められたスキャンパターンを利用してスキャンされてエントロピー符号化される。前記量子化パラメータは、マクロブロック毎に調節され、以前量子化パラメータを利用して予測符号化される。
H.264/MPEG−4 AVCでは、連続されるピクチャ間の時間的重複性を除去するために動き予測が利用される。時間的重複性を検出するために、複数個の参照ピクチャを使用して現在ブロックの動きを予測し、動き補償を実行して予測ブロックを生成する。動き情報は、少なくとも一つの参照ピクチャインデックスと少なくとも一つの動きベクトルを含む。
H.264/MPEG−4 AVCによると、動きベクトルのみが隣接動きベクトルを利用して予測されて符号化され、参照ピクチャインデックスは、隣接参照ピクチャインデックスを利用せずに符号化される。
しかし、多様なサイズがインター予測に使われると、現在ブロックの動き情報と一つ以上の隣接ブロックの動き情報との間の連関性が増加するようになる。また、映像の動きがほぼない又は遅い場合、ピクチャサイズが大きくなるにつれて、現在ブロックの動きベクトルと参照ピクチャ内の隣接ブロックの動きベクトルとの連関性も大きくなる。
したがって、前述された従来の圧縮方法によると、ピクチャのサイズが高画質ピクチャより大きくなり、動き予測及び動き補償のために多様なサイズが利用されると、動き情報の圧縮効率が落ちるようになる。
本発明が達成しようとする目的は、複数の動きベクトル候補を利用して動きベクトルを復号化する方法を提供することである。
本発明による現在予測ユニットの動き情報を誘導する方法は、ビットストリームから差分動きベクトルとAMVPインデックスを抽出し、左側動きベクトル候補、上側動きベクトル候補及び時間動きベクトル候補のうち少なくとも2個が利用可能な場合、2個の利用可能な動きベクトルを利用してAMVP候補リストを構築し、AMVPインデックスを利用してAMVP候補リストの中から動きベクトル予測子を選択し、前記動きベクトル予測子及び差分動きベクトルを利用して動きベクトルを生成する。前記時間動きベクトル候補は、時間動きベクトル候補ピクチャ内の時間動きベクトル候補ブロックの動きベクトルであり、前記時間動きベクトル候補ブロックは、前記時間動きベクトル候補ブロックの位置に基づいて決定される。
本発明による方法では、ビットストリームから差分動きベクトルとAMVPインデックスを抽出し、左側動きベクトル候補、上側動きベクトル候補及び時間動きベクトル候補のうち少なくとも2個が利用可能な場合、2個の利用可能な動きベクトルを利用してAMVP候補リストを構築し、AMVPインデックスを利用してAMVP候補リストの中から動きベクトル予測子を選択し、前記動きベクトル予測子及び差分動きベクトルを利用して動きベクトルを生成する。前記時間動きベクトル候補は、時間動きベクトル候補ピクチャ内の時間動きベクトル候補ブロックの動きベクトルであり、前記時間動きベクトル候補ブロックは、前記時間動きベクトル候補ブロックの位置に基づいて決定される。したがって、多様な動きベクトル候補を含んで動き情報の符号化効率が向上する。また、参照ピクチャの動き情報を適応的に格納し、時間動きベクトル候補を適応的に生成し、符号化効率を向上させると共に、符号器と復号器の演算複雑度を減らすことができる。
本発明による映像符号化装置を示すブロック図である。 本発明によるインター予測モードにおける映像データを符号化する方法を説明するフローチャートである。 本発明によるAMVPモードにおける動き情報を符号化する方法を説明するフローチャートである。 本発明による空間動きベクトル候補ブロックの位置を説明する概念図である。 本発明による時間動きベクトル候補ブロックの位置を説明する概念図である。 本発明による動き情報を格納する方法を説明する概念図である。 本発明による映像復号化装置を示すブロック図である。 本発明によるインター予測モードにおける映像を復号化する方法を説明するフローチャートである。 本発明によるAMVPモードにおける動き情報を誘導する方法を説明するフローチャートである。 本発明によるインター予測モードにおける残差ブロックを生成する方法を説明するフローチャートである。
以下、本発明の多様な実施例を例示図面を参照して詳細に説明する。本発明は、多様な変更を加えることができ、多様な実施例を有することができ、本発明を特定の実施形態に対して限定するものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むと理解しなければならない。各図面の説明において、類似の構成要素に対して類似の参照符号を使用した。
本発明による映像符号化装置及び映像復号化装置は、パソコン、個人携帯端末、移動マルチメディアプレーヤー、スマートフォン又は無線通信ターミナルなどのようにユーザターミナルである。前記映像符号化装置及び映像復号化装置は、多様な機器と通信する通信ユニットと、映像を符号化又は復号化するために多様なプログラムとデータを格納するためのメモリとを具備する。
図1は、本発明による映像符号化装置100を示すブロック図である。
図1を参照すると、本発明による映像符号化装置100は、ピクチャ分割部110、イントラ予測部120、インター予測部130、変換部140、量子化部150、スキャニング部160、エントロピー符号化部170、逆量子化部155、逆変換部145、後処理部180、ピクチャ格納部190、減算部192及び加算部194を含む。
ピクチャ分割部110は、ピクチャ又はスライスを複数個のLCU(Largest Coding Unit)に分割し、前記各々のLCUを一つ以上のコーディングユニットに分割する。LCUのサイズは、32×32、64×64又は128×128である。ピクチャ分割部110は、各コーディングユニットの予測モード及び予測ユニットのサイズを決定する。
一つのLCUは、1個又は複数個のコーディングユニット(coding unit)を含む。前記LCUは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。コーディングユニットの最大サイズ及び最小サイズを示す情報がシーケンスパラメータセット(sequence parameter set)に含まれる。前記分割構造は、1個又は複数個の分割コーディングユニットフラグ(split_cu_flag)を利用して特定される。コーディングユニットは、2N×2Nのサイズを有する。LCUが64×64ブロックであり、且つ最小コーディングユニット(SCU:smallest coding unit)が8×8ブロックの場合、コーディングユニットのサイズは、64×64、32×32、16×16又は8×8である。
コーディングユニットは、1個又は複数個の予測ユニット(prediction unit)を含む。イントラ予測において、前記予測ユニットのサイズは、2N×2N又はN×Nである。インター予測において、前記予測ユニットのサイズは、分割モードにより特定される。コーディングユニットが対称に分割されると、分割モードは、2N×2N、2N×N、N×2N又はN×Nである。コーディングユニットが非対称に分割されると、分割モードは、hN×2N、(2−h)N×2N、2N×hN又は2N×(2−h)Nである。
コーディングユニットは、1個又は複数個の変換ユニット(transform unit)を含む。変換ユニットは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。分割構造は、1個又は複数個の分割変換ユニットフラグ(split_transform_flag)により表現される。変換ユニットの最大サイズ及び最小サイズを示すパラメータがシーケンスパラメータセットに含まれる。色差変換ユニットは、変換サイズが4×4でない場合、変換ユニットの1/2の幅と1/2の高さを有する。色差変換ユニットの最小サイズは、4×4である。
イントラ予測部120は、現在予測ユニットのイントラ予測モードを決定し、前記イントラ予測モードを利用して予測ブロックを生成する。
インター予測部130は、ピクチャ格納部190に格納されている一つ以上の参照ピクチャを利用して現在予測ユニットの動き情報を決定し、前記予測ユニットの予測ブロックを生成する。前記動き情報は、参照ピクチャを示す一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを含む。
変換部140は、現在ブロックと予測ブロックを使用して生成される残差信号を変換して変換ブロックを生成する。前記残差信号は、変換ユニット単位に変換される。変換マトリクスは、予測モード及び変換ユニットのサイズにより決定される。前記変換マトリクスは、DCTベースの整数変換マトリクス又はDSTベースの整数変換マトリクスである。インター予測では、DCTベースの整数変換マトリクスが使われる。
量子化部150は、前記変換ブロックを量子化するための量子化パラメータを決定する。量子化パラメータは、量子化ステップサイズを意味する。量子化パラメータは、量子化ユニット毎に決定される。量子化ユニットのサイズは、変更されることができ、コーディングユニットの許容可能なサイズのうち一つである。コーディングユニットのサイズが量子化ユニットの最小サイズより大きい又は同じ場合、前記コーディングユニットは、量子化ユニットになる。複数個のコーディングユニットが最小サイズの量子化ユニットに含まれることができる。量子化ユニットの最小サイズは、ピクチャ毎に決定され、量子化ユニットの最小サイズを特定するパラメータは、ピクチャパラメータセット(picture parameter set)に含まれる。
量子化部150は、量子化パラメータ予測子を生成し、量子化パラメータから量子化パラメータ予測子を減算して差分量子化パラメータを生成する。前記差分量子化パラメータは、符号化される。
前記量子化パラメータ予測子は、隣接コーディングユニットの量子化パラメータ及び以前コーディングユニットの量子化パラメータを利用して下記のように生成される。
左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータは、前記順序通りに検索される。少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。即ち、前記上側及び左側量子化パラメータが利用可能な場合、前記上側及び左側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記上側及び左側量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前パラメータの平均値が前記量子化パラメータ予測子に設定される。前記上側及び左側量子化パラメータが両方とも利用可能でない場合、前記以前量子化パラメータが前記量子化パラメータ予測子に設定される。前記平均値は、四捨五入した値である。
前記差分量子化パラメータは、二進化過程を介して前記差分量子化パラメータの絶対値を示すビン(bin)と前記差分量子化パラメータの符号を示すビンに変換され、前記ビンは、算術符号化される。dQPの絶対値が0の場合、符号を示すビンは省略されることができる。トランケーテッドユーナリ(truncated unary)方式が前記絶対値の二進化表現に使われる。
量子化部150は、量子化マトリクス及び量子化パラメータを利用して変換ブロックを量子化して量子化ブロックを生成する。量子化ブロックは、逆量子化/逆変換部180に提供される。
スキャニング部160は、量子化ブロックにスキャンパターンを適用する。
インター予測では、エントロピー符号化のためにCABACが使われると、対角線スキャンがスキャンパターンとして使われる。量子化ブロックの係数は、量子化係数成分に分離される。前記量子化係数成分は、重要係数(significant coefficients)、係数符号(coefficient flags)及び係数レベル(coefficient levels)である。対角線スキャンが前記係数成分の各々に適用される。重要係数は、対応する量子化係数が0であるか否かを示す。係数符号は、0でない量子化係数の符号を示す。係数レベルは、0でない量子化係数の絶対値を示す。
変換ユニットのサイズが予め決められたサイズより大きい場合、前記量子化ブロックは、複数個のサブセットに分割され、対角線スキャンが各サブセットに適用される。各サブセットの重要フラグ、係数符号及び係数レベルが前記対角線スキャンによって各々スキャンされる。前記予め決められたサイズは、4×4である。前記サブセットは、16個の変換係数を含む4×4ブロックである。
サブセットをスキャンするためのスキャンパターンは、前記各サブセットの量子化された変換係数をスキャンするためのスキャンパターンと同じである。各サブセットの重要フラグ、係数符号及び係数レベルは、逆方向にスキャンされる。前記サブセットも逆方向にスキャンされる。
0でない最後の係数位置を示すパラメータが符号化されて復号器に送信される。前記パラメータは、量子化ブロック内の0でない最後の量子化係数の位置を示す。ノンゼロサブセットフラグ(non−zero subset flags)が最初のサブセット及び最後のサブセット以外のサブセットに対して定義される。前記最初のサブセットは、DC係数を含む。前記最後のサブセットは、0でない最後の量子化係数を含む。前記ノンゼロサブセットは、サブセットが0でない係数を含むかどうかを示す。
逆量子化/逆変換部180は、量子化ブロックの量子化された変換係数を逆量子化し、逆量子化ブロックを逆変換して残差ブロックを生成する。
後処理部190は、復元されたピクチャで発生するブロッキングアーチファクトを除去するためのデブロッキングフィルタリング過程を実行する。
ピクチャ格納部195は、後処理部190から後処理された映像を受信し、ピクチャ単位に前記映像を格納する。ピクチャは、フレーム又はフィールドである。
エントロピー符号化部170は、スキャニング部160から受信されるスキャンされた係数成分、イントラ予測部120から受信されるイントラ予測情報、インター予測部130から受信される動き情報などをエントロピー符号化する。
図2は、本発明によるインター予測モードにおける映像データを符号化する方法を説明するフローチャートである。
現在ブロックの動き情報が決定される(S110)。現在ブロックは、予測ユニットである。現在ブロックのサイズは、コーディングユニットのサイズ及び分割モードにより決定される。
動き情報は、予測タイプによって変わる。予測タイプが単方向予測の場合、前記動き情報は、参照リスト0のピクチャを特定する参照インデックスと、一つの動きベクトルとを含む。予測タイプが両方向予測の場合、前記動き情報は、参照リスト0のピクチャ及び参照リスト1のピクチャを特定する2個の参照インデックスと、リスト0動きベクトル及びリスト1動きベクトルとを含む。
前記動き情報を利用して現在ブロックの予測ブロックが生成される(S120)。動きベクトルが画素位置を示す場合、前記動きベクトルにより特定される参照ピクチャのブロックを複写して予測ブロックを生成する。前記動きベクトルがサブ画素位置を示す場合、予測ブロックは、参照ピクチャの画素を補間して生成される。
前記現在ブロックと予測ブロックを利用して残差ブロックが生成される(S130)。
前記残差ブロックが符号化される(S140)。残差ブロックは、変換ユニットと同じサイズを有する。予測ユニットが変換ユニットより大きい場合、現在ブロックと予測ブロックとの間の残差信号は、複数個の残差ブロックに分けられる。一つ以上の残差ブロックが図1の変換部140、量子化部150、スキャニング部160及びエントロピー符号化部170により符号化される。
前記動き情報が符号化される(S150)。動き情報は、現在ブロックの空間候補と時間候補を利用して予測符号化されることができる。動き情報は、スキップモード、マージモード又はAMVPモードに符号化される。スキップモードでは、予測ユニットがコーディングユニットのサイズを有し、動き情報は、マージモードと同様の方法により符号化される。
図3は、本発明によるAMVPモードにおける動き情報を符号化する方法を説明するフローチャートである。図4は、本発明による空間動きベクトル候補ブロックの位置を説明する概念図である。
左側動きベクトル候補は、現在ブロックの左側ブロック(ブロックA)又は左下側ブロック(ブロックD)の動きベクトルである。上側動きベクトル候補は、現在ブロックの上側ブロック(ブロックB)、右上側ブロック(ブロックC)又は左上側ブロック(ブロックE)である。隣接ブロックは、現在ブロックと比較して4個のタイプのうち一つに属する。隣接ブロックが現在ブロックと同じ参照ピクチャ及び同じ参照ピクチャリストを有する場合、前記隣接ブロックは、第1のタイプに属する。隣接ブロックが現在ブロックと同じ参照ピクチャ及び異なる参照ピクチャリストを有する場合、前記隣接ブロックは、第2のタイプに属する。隣接ブロックが現在ブロックと異なる参照ピクチャ及び同じ参照ピクチャリストを有する場合、前記隣接ブロックは、第3のタイプに属する。隣接ブロックが現在ブロックと異なる参照ピクチャ及び異なる参照ピクチャリストを有する場合、前記隣接ブロックは、第4のタイプに属する。
左側動きベクトル候補が誘導される(S210)。ブロックDが第1のタイプ又は第2のタイプに属するかどうかを決定する。ブロックDが第1のタイプ又は第2のタイプに属する場合、ブロックDの動きベクトルが左側動きベクトル候補に設定される。ブロックDが第1のタイプ又は第2のタイプに属しない場合、ブロックAが第1のタイプ又は第2のタイプに属するかどうかを決定する。ブロックAが第1のタイプ又は第2のタイプに属する場合、ブロックAの動きベクトルが左側動きベクトル候補に設定される。ブロックAが第1のタイプ又は第2のタイプに属しない場合、ブロックDが第3のタイプ又は第4のタイプに属するかどうかを決定する。ブロックDが第3のタイプ又は第4のタイプに属する場合、ブロックDのスケーリングされた動きベクトルが左側動きベクトル候補に設定される。ブロックDが第3のタイプ又は第4のタイプに属しない場合、ブロックAが第3のタイプ又は第4のタイプに属するかどうかを決定する。ブロックAが第3のタイプ又は第4のタイプに属する場合、ブロックAのスケーリングされた動きベクトルが左側動きベクトル候補に設定される。ブロックAが第3のタイプ又は第4のタイプに属しない場合、左側動きベクトル候補は、利用可能でないと設定される。
上側動きベクトル候補が誘導される(S220)。上側動きベクトル候補は、左側動きベクトル候補に依存して決定される。ブロックC、B及びEのいずれか一つが前記第1のタイプ又は第2のタイプに属する場合、ブロックC、B、Eの順に検索する時、接する最初のブロックの動きベクトルが上側動きベクトルに設定される。しかし、ブロックC、B及びEの全てが第1のタイプ及び第2のタイプに属しない場合、上側動きベクトルは、下記のように決定される。
左側動きベクトルが第1又は第2のタイプに属する場合、第3又は第4のタイプに属する最初のブロックの動きベクトルが上側動きベクトル候補に設定される。ブロックC、B及びEの全てが第3のタイプ又は第4のタイプに属しない場合、上側動きベクトルは、利用可能でないと設定される。前記最初のブロックは、ブロックC、B及びEの順序に検索される時、接する最初のブロックである。
左側動きベクトルが第3又は第4のタイプに属する場合、前記動きベクトル候補は、利用可能でないと設定される。
時間動きベクトル候補が誘導される(S230)。時間動きベクトル候補は、下記のように誘導される。左側動きベクトル及び上側動きベクトルが両方とも利用可能であり、且つ互いに異なる場合、時間動きベクトル候補は、誘導されない。
まず、時間動きベクトル候補ピクチャが決定される。時間動きベクトル候補ピクチャは、時間動きベクトル候補ブロックを含む。スライス内で一つの時間動きベクトル候補ピクチャが使われる。時間動きベクトル候補ピクチャの参照ピクチャインデックスは、0に設定されることもできる。
現在スライスがPスライスの場合、参照ピクチャリスト0の参照ピクチャのうち一つが時間動きベクトル候補ピクチャとして設定される。現在スライスがBスライスの場合、参照ピクチャリスト0と1の参照ピクチャのうち一つが時間動きベクトル候補ピクチャとして設定される。現在スライスがBスライスの場合、時間動きベクトル候補ピクチャが参照ピクチャリスト0に属するか、又は1に属するかを示すリスト指示子がスライスヘッダに含まれる。時間動きベクトル候補ピクチャを特定する参照ピクチャインデックスがスライスヘッダに含まれることができる。
次に、時間動きベクトル候補ブロックが決定される。図5は、本発明による時間動きベクトル候補ブロックの位置を説明する概念図である。図5に示すように、第1の候補ブロックは、ブロックCの右下側コーナーブロック(ブロックH)である。ブロックCは、現在ブロックと同じサイズを有して同じ位置に存在し、前記時間候補ピクチャに位置する。第2の候補ブロックは、ブロックCのセンターの右下側画素を含むブロックである。
時間動きベクトル候補ブロックは、第1の候補ブロック及び第2の候補ブロックのうち一つである。第1の候補ブロックが利用可能な場合、第1の候補ブロックが時間動きベクトル候補ブロックとして設定される。第1の候補ブロックが利用可能でない場合、第2の候補ブロックが時間動きベクトル候補ブロックとして設定される。第2の候補ブロックが利用可能でない場合、時間動きベクトル候補ブロックは、利用可能でないと設定される。
時間動きベクトル候補ブロックは、現在ブロックの位置に基づいて決定される。例えば、現在ブロックが下側LCUに接する場合(即ち、第1の候補ブロックが下側LCUに属する場合)、第1の候補ブロックは、現在LCU内のブロックに変更され、又は利用可能でないと設定される。
また、第1及び第2の候補ブロックは、動き格納ユニット内での前記候補ブロックの位置に基づいて他のブロックに変更されることができる。前記動きベクトル格納ユニットは、参照ピクチャの動き情報を格納する基本単位である。
図6は、本発明による動き情報を格納する方法を説明する概念図である。図6に示すように、動きベクトル格納ユニットは、16×16ブロックである。動きベクトル格納ユニットを16個の4×4ブロックに分けることができる。動きベクトル格納ユニットが16×16ブロックの場合、動き情報は、前記動きベクトル格納ユニット毎に格納される。前記動きベクトル格納ユニットが参照ピクチャの複数個の予測ユニットを含む場合、メモリに格納される動き情報の量を減らすために、複数個の予測ユニットのうち、予め決められた予測ユニットの動き情報がメモリに格納される。前記予め決められた予測ユニットは、前記16個の4×4ブロックのうち一つをカバーすることができる。前記予め決められた予測ユニットは、ブロックC3又はブロックBRをカバーするブロックである。または、前記予め決められた予測ユニットは、ブロックULをカバーするブロックである。
したがって、候補ブロックが前記予め決められたブロックを含まない場合、前記候補ブロックは、前記予め決められたブロックを含むブロックに変更される。
時間動きベクトル候補ブロックが決定されると、時間動きベクトル候補ブロックの動きベクトルが前記時間動きベクトル候補に設定される。
動きベクトル候補リストが構成される(S240)。動きベクトル候補は、左側、上側及び時間動きベクトル候補の順序に整列される。左側及び上側動きベクトル候補が同じ場合、上側動きベクトルが前記動きベクトル候補リストから削除される。
動きベクトル候補の数が予め決められた数より小さい場合、一つ以上の動きベクトルが前記動きベクトルリストに追加される(S250)。前記予め決められた数は、2である。
動きベクトル候補が動きベクトル予測子に選択され、現在ブロックの動きベクトルから前記動きベクトル候補を減算して差分動きベクトルが生成される(S260)。
参照ピクチャインデックス、差分動きベクトル及びAMVPインデックスが符号化される(S270)。AMVPインデックスは、動きベクトル予測子を特定する。
図7は、本発明による映像復号化装置200を示すブロック図である。
本発明による映像復号化装置200は、エントロピー復号化部210、逆スキャニング部220、逆量子化部230、逆変換部240、イントラ予測部250及びインター予測部260、後処理部270、ピクチャ格納部280及び加算部290を含む。
エントロピー復号化部210は、CABAD(context−adaptive binary arithmetic decoding)方法を利用して受信されたビットストリームから、イントラ予測情報、インター予測情報及び量子化係数成分を抽出する。
逆スキャニング部220は、逆スキャンパターンを量子化係数成分に適用して量子化ブロックを生成する。インター予測では、逆スキャンパターンが対角線スキャンである。量子化係数成分は、重要フラグ、係数符号及び係数レベルを含む。
変換ユニットのサイズが予め決められたサイズより大きい場合、重要フラグ、係数符号及び係数レベルが対角線スキャンによってサブセット単位に逆スキャンされてサブセットを生成し、前記サブセットが前記対角線スキャンによって逆スキャンされて量子化ブロックを生成する。前記予め決められたサイズは、サブセットのサイズである。前記サブセットは、16個の変換係数を含む4×4ブロックである。重要フラグ、係数符号及び係数レベルは、逆方向にスキャンされる。前記サブセットも逆方向にスキャンされる。
0でない最後の係数の位置指示子及びノンゼロサブセットフラグがビットストリームから抽出される。サブセットフラグが前記最初のサブセットと最後のサブセット以外のサブセットに定義される。サブセットフラグは、サブセットが0でない係数を含むかどうかを示す。
逆量子化部230は、エントロピー復号化部210から差分量子化パラメータを受信し、コーディングユニットの量子化パラメータ予測子を生成する。量子化パラメータは、図1の量子化部150による動作と同様の過程を介して生成される。そして、前記差分量子化パラメータと前記量子化パラメータ予測子を加えて現在コーディングユニットの量子化パラメータを生成する。現在コーディングユニットの差分量子化パラメータが符号器から受信されない場合、前記差分量子化パラメータは、0に設定される。
前記量子化パラメータと色差量子化パラメータとの関係を示すパラメータがPPSに含まれる。前記関係をスライス毎に変更することが許容されると、スライスヘッダに他のパラメータが含まれる。したがって、色差量子化パラメータは、前記量子化パラメータ及びPPSに含まれる前記パラメータ又は前記量子化パラメータ及び前記2個のパラメータを利用して生成される。
逆量子化部230は、量子化ブロックを逆量子化する。
逆変換部240は、前記逆量子化されたブロックを逆変換して残差ブロックを復元する。逆変換タイプは、予測モード及び変換ユニットのサイズによって決定される。逆変換タイプは、DCTベースの整数変換又はDSTベースの整数変換である。インター予測では、DCTベースの整数変換が使われる。
イントラ予測部250は、イントラ予測情報を利用して現在予測ユニットのイントラ予測モードを復元し、前記復元されたイントラ予測モードに応じて予測ブロックを生成する。
インター予測部260は、インター予測情報を利用して現在予測ユニットの動き情報を復元し、前記動き情報を利用して予測ブロックを生成する。
後処理部270は、図1の後処理部180と同様に動作する。
ピクチャ格納部280は、後処理部270から後処理された映像を受信し、ピクチャ単位に前記映像を格納する。ピクチャは、フレーム又はフィールドである。
加算部290は、復元された残差ブロックと予測ブロックを加えて復元ブロックを生成する。
図8は、本発明によるインター予測モードにおける映像復号化方法を説明するフローチャートである。
現在ブロックの動き情報が誘導される(S310)。現在ブロックは、予測ユニットである。現在ブロックのサイズは、コーディングユニットのサイズ及び分割モードに応じて決定される。
動き情報は、予測タイプによって変わる。予測タイプが単方向予測の場合、前記動き情報は、参照リスト0のピクチャを特定する参照インデックスと、一つの動きベクトルとを含む。予測タイプが両方向予測の場合、前記動き情報は、参照リスト0のピクチャ及び参照リスト1のピクチャを特定する2個の参照インデックスと、リスト0動きベクトル及びリスト1動きベクトルとを含む。
動き情報は、符号化モードに応じて適応的に復号化される。動き情報の符号化モードは、スキップフラグとマージフラグにより決定される。スキップフラグが1の場合、マージフラグが存在せず、符号化モードは、スキップモードである。スキップフラグが0であり、且つマージフラグが1の場合、符号化モードは、マージモードである。スキップフラグ及びマージフラグが0の場合、符号化モードは、AMVPモードである。
前記動き情報を利用して現在ブロックの予測ブロックが生成される(S320)。
動きベクトルが画素位置を示す場合、予測ブロックは、前記動きベクトルにより特定される参照ピクチャのブロックを複写して生成される。動きベクトルがサブ画素位置を示す場合、予測ブロックは、参照ピクチャの画素を補間して生成される。
残差ブロックが生成される(S330)。残差ブロックは、図6のエントロピー復号化部210、逆スキャニング部220、逆量子化部230及び逆変換部240により生成される。
前記予測ブロックと残差ブロックを利用して復元ブロックが生成される(S340)。
予測ブロックは、予測ユニットと同じサイズを有し、残差ブロックは、変換ユニットと同じサイズを有する。したがって、同じサイズの残差信号と予測信号が加えられて復元信号が生成される。
図9は、本発明によるAMVPモードにおける動き情報を誘導する方法を説明するフローチャートである。
参照ピクチャインデックス、差分動きベクトル及びAMVPインデックスがビットストリームから抽出される(S410)。AMVPインデックスは、動きベクトル予測子を特定する。
左側動きベクトル候補が誘導される(S420)。左側動きベクトル予測子は、図3のS210に示すように誘導される。
上側動きベクトル候補が誘導される(S430)。上側動きベクトル予測子は、図3のS220に示すように誘導される。
時間動きベクトル候補が誘導される(S440)。時間動きベクトル予測子は、図3のS230に示すように誘導される。前記左側動きベクトル及び上側動きベクトルが両方とも利用可能であり、且つ互いに異なる場合、時間動きベクトル候補は、誘導されない。
動きベクトル候補リストが構成される(S450)。動きベクトル候補リストは、左側、上側及び時間動きベクトル候補の順序に整列される。左側動きベクトル候補と上側動きベクトル候補が同じ場合、上側動きベクトル候補と動きベクトル候補リストから除去されることができる。
動きベクトル候補の数が2より小さい場合、一つ以上の0動きベクトルが前記リストに追加されることができる(S460)。
AMVPインデックスにより特定される動きベクトル候補が動きベクトル予測子に設定される(S470)。
差分動きベクトルと動きベクトル予測子を加えて現在ブロックの動きベクトルが生成される(S480)。
図10は、本発明によるインター予測モードにおける残差ブロックを生成する過程を説明するフローチャートである。
量子化係数成分がエントロピー復号化されて生成される(S510)。
量子化ブロックは、対角線スキャンによって前記量子化係数成分を逆スキャンして生成する(S520)。量子化係数成分は、重要フラグ、係数符号及び係数レベルを含む。
変換ユニットのサイズが予め決められたサイズより大きい場合、対角線スキャンによって、重要フラグ、係数符号及び係数レベルがサブセット単位に逆スキャンされてサブセットを生成し、前記サブセットは、対角線スキャンによって逆スキャンされて量子化ブロックを生成する。前記予め決められたサイズは、サブセットのサイズと同じである。サブセットは、16個の係数を含む4×4ブロックである。重要フラグ、係数符号及び係数レベルは、逆方向に逆スキャンされる。サブセットも逆方向に逆スキャンされる。
0でない量子化係数の位置を示すパラメータ及びノンゼロサブセットフラグがビットストリームから抽出される。符号化されたサブセットの数は、前記パラメータに基づいて決定される。ノンゼロサブセットフラグは、対応サブセットが0でない係数を少なくとも一つ含むかどうかを決定するために使われる。ノンゼロサブセットフラグが1の場合、サブセットは、対角線スキャンを使用して生成される。最初及び最後のサブセットは、逆スキャンパターンを利用して生成される。
逆量子化マトリクス及び量子化パラメータを利用して量子化ブロックが逆量子化される(S530)。
量子化パラメータは、下記のように誘導される。
量子化ユニットの最小サイズが決定される。ビットストリームのPPSからパラメータ(cu_qp_delta_enabled_info)が抽出され、最小量子化ユニットのサイズは、前記パラメータを利用して決定される。
現在コーディングユニットの差分量子化パラメータが誘導される。符号化された差分量子化パラメータは、算術復号化され、差分量子化パラメータの絶対値を示すビンストリング(bin string)と差分量子化パラメータの符号を示すビンが生成される。前記ビンストリングは、トランケーテッドユーナリコード(truncated unary code)である。差分量子化パラメータの絶対値が0の場合、前記符号を示すビンは、存在しない。差分量子化パラメータは、前記絶対値を示すビンストリングと符号を示すビンを利用して誘導される。
現在コーディングユニットの前記量子化パラメータ予測子が生成される。前記量子化パラメータ予測子は、隣接コーディングユニットの量子化パラメータと以前コーディングユニットの量子化パラメータを利用して生成される。
左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータは、前記順序通りに検索される。少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。即ち、前記左側量子化パラメータ及び前記上側量子化パラメータが両方とも利用可能な場合、前記左側量子化パラメータ及び前記上側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側量子化パラメータ及び前記上側量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側量子化パラメータ及び前記上側量子化パラメータが両方とも利用可能でない場合、前記以前量子化パラメータが前記量子化パラメータ予測子に設定される。
最小量子化ユニットが複数個のコーディングユニットを含む場合、復号化の順序上、最初のコーディングユニットの量子化パラメータ予測子が生成され、前記生成された量子化パラメータ予測子が前記量子化ユニット内の全てのコーディングユニットに使われる。
前記差分量子化パラメータと前記量子化パラメータ予測子を利用して量子化パラメータが生成される。
前記逆量子化ブロックを逆変換して残差ブロックを生成する(S540)。1次元の水平及び垂直逆DCTベースの変換が使われる。
以上、実施例を参照して説明したが、該当技術分野の熟練された当業者は、特許請求の範囲に記載された本発明の思想及び領域から外れない範囲内で本発明を多様に修正及び変更可能であることを理解することができる。
130 インター予測部
本発明は、映像復号化方法に関し、より詳しくは、動き情報候補を生成し、動き情報を誘導して映像を復号化する方法に関する。
本発明が達成しようとする目的は、複数の動きベクトル候補を利用して動きベクトルを復号化することで、映像を復号化する方法を提供することである。
本発明による映像復号化方法は、ビットストリームから差分動きベクトルとAMVPインデックスを抽出し、左側、上側及び時間動きベクトル候補のうち利用可能な動きベクトル候補を利用してAMVP候補リストを構築し、AMVPインデックス差分動きベクトルを利用して動きベクトルを生成して予測ブロックを生成し、量子化パラメータを利用して残差ブロックを生成して復元ブロックを生成する。
本発明による方法では、ビットストリームから差分動きベクトルとAMVPインデックスを抽出し、左側、上側及び時間動きベクトル候補のうち利用可能な動きベクトル候補を利用してAMVP候補リストを構築し、AMVPインデックス差分動きベクトルを利用して動きベクトルを生成して予測ブロックを生成し、量子化パラメータを利用して残差ブロックを生成して復元ブロックを生成する。したがって、多様な動きベクトル候補を含んで動き情報の符号化効率が向上する。また、参照ピクチャの動き情報を適応的に格納し、時間動きベクトル候補を適応的に生成し、符号化効率を向上させると共に、符号器と復号器の演算複雑度を減らすことができる。
本発明はさらに、たとえば、以下を提供する。
(項目1)
現在予測ユニットの動き情報を誘導する方法において、
ビットストリームから差分動きベクトルとAMVPインデックスを抽出するステップ;
左側動きベクトル候補、上側動きベクトル候補及び時間動きベクトル候補のうち少なくとも2個が利用可能な場合、2個の利用可能な動きベクトルを利用してAMVP候補リストを構築するステップ;
AMVPインデックスを利用してAMVP候補リストの中から動きベクトル予測子を選択するステップ;及び、
前記動きベクトル予測子及び差分動きベクトルを利用して動きベクトルを生成するステップ;を含み、
前記時間動きベクトル候補は、時間動きベクトル候補ピクチャ内の時間動きベクトル候補ブロックの動きベクトルであり、前記時間動きベクトル候補ブロックは、前記時間動きベクトル候補ブロックの位置に基づいて決定されることを特徴とする方法。
(項目2)
前記時間動きベクトル候補ブロックは、第1の候補ブロックが利用可能な場合、第1の候補ブロックであり、前記第1の候補ブロックが利用可能でない場合、第2の候補ブロックであることを特徴とする項目1に記載の方法。
(項目3)
前記第1の候補ブロックは、動きベクトル格納ユニット内での右下側コーナーブロック又は前記右下側コーナーブロックに基づいて格納される変更された右下側コーナーブロックであることを特徴とする項目2に記載の方法。
(項目4)
前記第2の候補ブロックは、対応ブロックの中心位置の左上側画素を含む中央ブロックであることを特徴とする項目2に記載の方法。
(項目5)
前記左側動きベクトル候補は、左側又は左下側ブロックの動きベクトルであり、前記上側動きベクトル候補は、上側ブロック、右上側又は左上側ブロックの動きベクトルであることを特徴とする項目1に記載の方法。
(項目6)
前記上側ブロックが現在予測ユニットと同じ参照ピクチャを有する場合、前記動きベクトル候補は、上側ブロックの動きベクトルであることを特徴とする項目5に記載の方法。
(項目7)
上側ブロック、右上側ブロック及び左上側ブロックが現在予測ユニットと同じ参照ピクチャを有しない場合、前記上側動きベクトルは、左側動きベクトル候補に基づいて決定されることを特徴とする項目6に記載の方法。
(項目8)
左側動きベクトル候補が現在予測ユニットと異なる参照ピクチャを有する場合、上側動きベクトル候補は、利用可能でないと設定されることを特徴とする項目7に記載の方法。

Claims (8)

  1. 現在予測ユニットの動き情報を誘導する方法において、
    ビットストリームから差分動きベクトルとAMVPインデックスを抽出するステップ;
    左側動きベクトル候補、上側動きベクトル候補及び時間動きベクトル候補のうち少なくとも2個が利用可能な場合、2個の利用可能な動きベクトルを利用してAMVP候補リストを構築するステップ;
    AMVPインデックスを利用してAMVP候補リストの中から動きベクトル予測子を選択するステップ;及び、
    前記動きベクトル予測子及び差分動きベクトルを利用して動きベクトルを生成するステップ;を含み、
    前記時間動きベクトル候補は、時間動きベクトル候補ピクチャ内の時間動きベクトル候補ブロックの動きベクトルであり、前記時間動きベクトル候補ブロックは、前記時間動きベクトル候補ブロックの位置に基づいて決定されることを特徴とする方法。
  2. 前記時間動きベクトル候補ブロックは、第1の候補ブロックが利用可能な場合、第1の候補ブロックであり、前記第1の候補ブロックが利用可能でない場合、第2の候補ブロックであることを特徴とする請求項1に記載の方法。
  3. 前記第1の候補ブロックは、動きベクトル格納ユニット内での右下側コーナーブロック又は前記右下側コーナーブロックに基づいて格納される変更された右下側コーナーブロックであることを特徴とする請求項2に記載の方法。
  4. 前記第2の候補ブロックは、対応ブロックの中心位置の左上側画素を含む中央ブロックであることを特徴とする請求項2に記載の方法。
  5. 前記左側動きベクトル候補は、左側又は左下側ブロックの動きベクトルであり、前記上側動きベクトル候補は、上側ブロック、右上側又は左上側ブロックの動きベクトルであることを特徴とする請求項1に記載の方法。
  6. 前記上側ブロックが現在予測ユニットと同じ参照ピクチャを有する場合、前記動きベクトル候補は、上側ブロックの動きベクトルであることを特徴とする請求項5に記載の方法。
  7. 上側ブロック、右上側ブロック及び左上側ブロックが現在予測ユニットと同じ参照ピクチャを有しない場合、前記上側動きベクトルは、左側動きベクトル候補に基づいて決定されることを特徴とする請求項6に記載の方法。
  8. 左側動きベクトル候補が現在予測ユニットと異なる参照ピクチャを有する場合、上側動きベクトル候補は、利用可能でないと設定されることを特徴とする請求項7に記載の方法。
JP2014539239A 2011-11-07 2012-11-07 Amvpモードにおける映像復号化方法 Active JP5832660B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0115218 2011-11-07
KR1020110115218A KR20130050405A (ko) 2011-11-07 2011-11-07 인터 모드에서의 시간 후보자 결정방법
PCT/CN2012/084182 WO2013067924A1 (en) 2011-11-07 2012-11-07 Method of decoding motion vector

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015210845A Division JP6081553B2 (ja) 2011-11-07 2015-10-27 Amvpモードにおける映像復号化方法

Publications (2)

Publication Number Publication Date
JP2014534756A true JP2014534756A (ja) 2014-12-18
JP5832660B2 JP5832660B2 (ja) 2015-12-16

Family

ID=48288528

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2014539239A Active JP5832660B2 (ja) 2011-11-07 2012-11-07 Amvpモードにおける映像復号化方法
JP2015210845A Active JP6081553B2 (ja) 2011-11-07 2015-10-27 Amvpモードにおける映像復号化方法
JP2017006641A Active JP6267373B2 (ja) 2011-11-07 2017-01-18 Amvpモードにおける映像復号化方法
JP2017245009A Withdrawn JP2018082451A (ja) 2011-11-07 2017-12-21 Amvpモードにおける映像復号化方法
JP2019105942A Active JP6711944B2 (ja) 2011-11-07 2019-06-06 Amvpモードにおいて画像を符号化する装置

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2015210845A Active JP6081553B2 (ja) 2011-11-07 2015-10-27 Amvpモードにおける映像復号化方法
JP2017006641A Active JP6267373B2 (ja) 2011-11-07 2017-01-18 Amvpモードにおける映像復号化方法
JP2017245009A Withdrawn JP2018082451A (ja) 2011-11-07 2017-12-21 Amvpモードにおける映像復号化方法
JP2019105942A Active JP6711944B2 (ja) 2011-11-07 2019-06-06 Amvpモードにおいて画像を符号化する装置

Country Status (7)

Country Link
US (6) US9451249B2 (ja)
EP (3) EP3930328A1 (ja)
JP (5) JP5832660B2 (ja)
KR (4) KR20130050405A (ja)
CN (6) CN108924562B (ja)
TW (5) TWI737971B (ja)
WO (1) WO2013067924A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508247A (ja) * 2012-01-19 2015-03-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像符号化/復号化方法及び装置

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2654301A4 (en) * 2010-12-14 2016-02-17 M&K Holdings Inc METHOD FOR INTER-PREDICTIVE DECODING OF ENCODED FILMS
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
CN107396100B (zh) * 2011-11-08 2020-05-05 株式会社Kt 利用解码装置对视频信号进行解码的方法
WO2014075552A1 (en) * 2012-11-15 2014-05-22 Mediatek Inc. Inter-layer texture coding with adaptive transform and multiple inter-layer motion candidates
CN110351567B (zh) 2014-06-16 2023-07-14 高通股份有限公司 3d-hevc中的简化移位合并候选者及合并列表导出
WO2016175550A1 (ko) * 2015-04-27 2016-11-03 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
CN115002458A (zh) * 2015-06-05 2022-09-02 杜比实验室特许公司 图像编码和解码方法和图像解码设备
KR20180059443A (ko) 2015-09-24 2018-06-04 엘지전자 주식회사 영상 코딩 시스템에서 움직임 벡터 정제 기반 인터 예측 방법 및 장치
KR101932525B1 (ko) * 2017-01-25 2018-12-27 주식회사 골프존 운동하는 객체의 위치 정보를 산출하기 위한 센싱장치 및 이를 이용한 센싱방법
CN109089119B (zh) 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
WO2019009567A1 (ko) * 2017-07-03 2019-01-10 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
CN109963155B (zh) 2017-12-23 2023-06-06 华为技术有限公司 图像块的运动信息的预测方法、装置及编解码器
CN112703731B (zh) * 2018-07-27 2024-07-30 三星电子株式会社 基于子块对图像进行编码的方法和装置以及对图像进行解码的方法和装置
GB2577318B (en) 2018-09-21 2021-03-10 Canon Kk Video coding and decoding
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
GB2578151B (en) 2018-10-18 2021-06-09 Canon Kk Video coding and decoding
GB2595053B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
TWI766214B (zh) * 2018-12-28 2022-06-01 日商Jvc建伍股份有限公司 影像編碼裝置、影像編碼方法、影像編碼程式、影像解碼裝置、影像解碼方法及影像解碼程式
CN117793346A (zh) * 2019-01-31 2024-03-29 北京字节跳动网络技术有限公司 视频编解码中的细化量化步骤
CN110809161B (zh) 2019-03-11 2020-12-29 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法及装置
WO2020185147A1 (en) * 2019-03-11 2020-09-17 Telefonaktiebolaget Lm Ericsson (Publ) Motion refinement and weighted prediction
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2011514056A (ja) * 2008-02-22 2011-04-28 クゥアルコム・インコーポレイテッド 早いマクロブロック・デルタqpの決定

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5054103A (en) * 1987-09-24 1991-10-01 Matsushita Electric Works, Ltd. Picture encoding system
US8625665B2 (en) * 1996-09-20 2014-01-07 At&T Intellectual Property Ii, L.P. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video
AU2001259428A1 (en) * 2000-05-02 2001-11-12 Zaxel Systems, Inc. Fast loss less image compression based on neighborhood comparisons
EP3282699B1 (en) * 2001-11-29 2019-10-23 Godo Kaisha IP Bridge 1 Coding distortion removal method
FR2868579A1 (fr) * 2004-03-30 2005-10-07 St Microelectronics Sa Procede et dispositif de generation de vecteurs candidats pour les systemes d'interpolation d'images par estimation et compensation de mouvement
US7519229B2 (en) * 2004-03-30 2009-04-14 Apple, Inc. Video coding system providing separate coding chains for dynamically selected small-size or full-size playback
JP4699460B2 (ja) * 2004-07-20 2011-06-08 クゥアルコム・インコーポレイテッド 時間的なビデオ圧縮における運動ベクトル予測のための方法および装置
US20060153300A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Method and system for motion vector prediction in scalable video coding
CN100473168C (zh) 2005-06-21 2009-03-25 中国科学院计算技术研究所 视频编码的运动矢量空间预测方法
TWI283133B (en) * 2005-12-23 2007-06-21 Inventec Corp Method for estimating motion of video coding
US7693219B2 (en) * 2006-01-04 2010-04-06 Freescale Semiconductor, Inc. System and method for fast motion estimation
CN101895744B (zh) * 2006-01-12 2013-03-20 Lg电子株式会社 处理多视图视频
JP4831372B2 (ja) * 2006-11-24 2011-12-07 日本電気株式会社 符号化および復号装置、符号化および復号方法ならびにプログラム
TWI323132B (en) * 2006-12-29 2010-04-01 Ind Tech Res Inst Motion vector (mv) prediction method and apparatus
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
CN100493198C (zh) * 2007-05-31 2009-05-27 北京中星微电子有限公司 算术编码中的概率模型存储方法
US8619853B2 (en) * 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
US8571104B2 (en) * 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
RU2461978C2 (ru) * 2007-10-25 2012-09-20 Ниппон Телеграф Энд Телефон Корпорейшн Способ масштабируемого кодирования и способ масштабируемого декодирования видеоинформации, устройства для них, программы для них и носитель записи, на котором записаны программы
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
JP2012504925A (ja) * 2008-10-06 2012-02-23 エルジー エレクトロニクス インコーポレイティド ビデオ信号の処理方法及び装置
CN101867799B (zh) * 2009-04-17 2011-11-16 北京大学 一种视频帧处理方法和视频编码器
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
KR101452860B1 (ko) * 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101457418B1 (ko) * 2009-10-23 2014-11-04 삼성전자주식회사 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101441905B1 (ko) 2009-11-18 2014-09-24 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN101860754B (zh) 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
US8588297B2 (en) * 2009-12-23 2013-11-19 Oracle America, Inc. Quantization parameter prediction
US9036692B2 (en) * 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
JP2011160359A (ja) * 2010-02-03 2011-08-18 Sharp Corp ブロックノイズ量予測装置、ブロックノイズ量予測方法、画像処理装置、プログラム、及び、記録媒体
US9628788B2 (en) * 2010-03-16 2017-04-18 Thomson Licensing Methods and apparatus for implicit adaptive motion vector predictor selection for video encoding and decoding
JP2011223316A (ja) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8929440B2 (en) * 2010-04-09 2015-01-06 Sony Corporation QP adaptive coefficients scanning and application
CN113556563B (zh) * 2010-04-13 2024-08-20 Ge视频压缩有限责任公司 显著性图和变换系数块的编码
WO2011132400A1 (ja) * 2010-04-22 2011-10-27 パナソニック株式会社 画像符号化方法及び画像復号化方法
WO2011136896A1 (en) * 2010-04-27 2011-11-03 Sony Corporation Boundary adaptive intra prediction for improving subjective video quality
KR101822214B1 (ko) * 2010-06-10 2018-01-25 톰슨 라이센싱 복수의 이웃 양자화 파라미터들로부터 양자화 파라미터 예측 변수들을 결정하기 위한 방법들 및 장치
PL2924995T3 (pl) * 2010-07-09 2018-11-30 Samsung Electronics Co., Ltd Sposób dekodowania wideo wykorzystujący łączenie bloków
US9641846B2 (en) * 2010-10-22 2017-05-02 Qualcomm Incorporated Adaptive scanning of transform coefficients for video coding
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
JP5563148B2 (ja) * 2011-03-09 2014-07-30 株式会社東芝 動画像符号化方法及び動画像復号化方法
CN102137258B (zh) * 2011-03-22 2013-04-24 宁波大学 一种立体视频码率控制方法
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
US20140085415A1 (en) * 2012-09-27 2014-03-27 Nokia Corporation Method and apparatus for video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2011514056A (ja) * 2008-02-22 2011-04-28 クゥアルコム・インコーポレイテッド 早いマクロブロック・デルタqpの決定

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J.SOLE,ET.AL.: "Unified scan for the significance map and coeffcient level coding in high coding efficiency", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 5TH ME, vol. JCTVC-E335, JPN6015023936, 11 March 2011 (2011-03-11), US, pages 1 - 4, ISSN: 0003096469 *
KENJI KONDO,ET.AL.: "Improvement of delta-QP coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH ME, vol. JCTVC-F422, JPN6015023940, 1 July 2011 (2011-07-01), US, pages 1 - 6, ISSN: 0003096468 *
MINHUA ZHOU,ET.AL.: "CE9: Simplified AMVP design (SP061S1,SP06S2)", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH ME, vol. JCTVC-F088, JPN6015023938, 1 July 2011 (2011-07-01), US, pages 1 - 16, ISSN: 0003096467 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508247A (ja) * 2012-01-19 2015-03-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像符号化/復号化方法及び装置
JP2017028712A (ja) * 2012-01-19 2017-02-02 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像復号化装置

Also Published As

Publication number Publication date
KR20140076586A (ko) 2014-06-20
KR20130050405A (ko) 2013-05-16
US10757405B2 (en) 2020-08-25
CN108600768B (zh) 2021-10-01
US20240155116A1 (en) 2024-05-09
US20180338140A1 (en) 2018-11-22
TWI659641B (zh) 2019-05-11
JP2017108418A (ja) 2017-06-15
CN108600768A (zh) 2018-09-28
JP6711944B2 (ja) 2020-06-17
TW202143731A (zh) 2021-11-16
JP2018082451A (ja) 2018-05-24
JP6081553B2 (ja) 2017-02-15
JP5832660B2 (ja) 2015-12-16
US10057572B2 (en) 2018-08-21
US11259017B2 (en) 2022-02-22
TW201924351A (zh) 2019-06-16
KR20140071436A (ko) 2014-06-11
KR20140074953A (ko) 2014-06-18
CN108600766B (zh) 2021-09-24
KR101472975B1 (ko) 2014-12-19
CN108600767B (zh) 2022-04-19
US20160373738A1 (en) 2016-12-22
CN108600765A (zh) 2018-09-28
CN108600766A (zh) 2018-09-28
US20200374515A1 (en) 2020-11-26
CN103152562B (zh) 2018-07-27
CN108924562B (zh) 2021-09-24
TWI791252B (zh) 2023-02-01
EP2777278A1 (en) 2014-09-17
TW201804793A (zh) 2018-02-01
EP3930328A1 (en) 2021-12-29
TW201644272A (zh) 2016-12-16
JP2019169973A (ja) 2019-10-03
TWI608725B (zh) 2017-12-11
TWI737971B (zh) 2021-09-01
US20140307799A1 (en) 2014-10-16
WO2013067924A1 (en) 2013-05-16
CN103152562A (zh) 2013-06-12
TWI559735B (zh) 2016-11-21
JP2016042714A (ja) 2016-03-31
TW201325250A (zh) 2013-06-16
CN108600767A (zh) 2018-09-28
US11889065B2 (en) 2024-01-30
US9451249B2 (en) 2016-09-20
CN108924562A (zh) 2018-11-30
EP4024863A1 (en) 2022-07-06
EP2777278A4 (en) 2015-06-17
JP6267373B2 (ja) 2018-01-24
CN108600765B (zh) 2021-09-28
US20220150477A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
JP6267373B2 (ja) Amvpモードにおける映像復号化方法
JP6607417B2 (ja) 映像復号化装置
JP6114362B2 (ja) マージモードにおける映像復号化方法
JP6005792B2 (ja) マージモードにおける映像符号化装置
CN108347609B (zh) 利用合并模式的图像解码方法
JP2014534753A (ja) 映像データを復号化する方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151027

R150 Certificate of patent or registration of utility model

Ref document number: 5832660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250