JP6242979B2 - 動画復号化装置 - Google Patents

動画復号化装置 Download PDF

Info

Publication number
JP6242979B2
JP6242979B2 JP2016199645A JP2016199645A JP6242979B2 JP 6242979 B2 JP6242979 B2 JP 6242979B2 JP 2016199645 A JP2016199645 A JP 2016199645A JP 2016199645 A JP2016199645 A JP 2016199645A JP 6242979 B2 JP6242979 B2 JP 6242979B2
Authority
JP
Japan
Prior art keywords
motion vector
unit
prediction unit
block
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016199645A
Other languages
English (en)
Other versions
JP2017005764A (ja
Inventor
オ,ス−ミ
ヤン,ムノク
Original Assignee
エム アンド ケー ホールディングス インコーポレイテッド
エム アンド ケー ホールディングス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45839101&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6242979(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by エム アンド ケー ホールディングス インコーポレイテッド, エム アンド ケー ホールディングス インコーポレイテッド filed Critical エム アンド ケー ホールディングス インコーポレイテッド
Publication of JP2017005764A publication Critical patent/JP2017005764A/ja
Application granted granted Critical
Publication of JP6242979B2 publication Critical patent/JP6242979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Error Detection And Correction (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明は、インター予測符号化方法に係り、さらに詳細には、現在予測ユニットに隣接している予測ユニットの動きベクトル及び以前に符号化された参照ピクチャー内の既定の位置の動きベクトルのうち一つを用いて、現在予測ユニットの動きベクトルを予測符号化するインター予測符号化方法に関する。
本発明は、現在予測ユニットの動きベクトルを予測して符号化及び保護化する装置及び方法に関する。
MPEG−1、MPEG−2、MPEG−4 H.264/MPEG−4 AVC(Advanced Video coding)などの映像圧縮方式では、映像を符号化するために一つのピクチャーをマクロブロックに分ける。そして、インター予測(inter prediction)及びイントラ予測(intra prediction)を用いてそれぞれのマクロブロックを符号化する。次いで、符号化されたマクロブロックのデータサイズ及び原本マクロブロックの歪曲程度を考慮して最適の符号化モードを選択し、マクロブロックを符号化する。
インター予測を用いて映像を符号化する方法は、ピクチャー間の時間的な重複性をとり除いて映像を圧縮する方法であり、動き推定符号化方法が代表的な例である。動き推定符号化は、一つ以上の参照ピクチャーを用いて現在ピクチャーの動きをブロック単位で推定かつ補償して映像を符号化する方法である。
動き推定符号化では、所定の評価関数を用いて現在ブロックと最も類似したブロックを、参照ピクチャーの定められた検索範囲で検索する。類似したブロックが検索されれば、現在ブロックと参照ピクチャー内の類似したブロックとの間のレジデューのみ伝送することでデータの圧縮率を高める。
この時、動き推定符号化された現在ブロックを復号化するためには、現在ブロックと参照ピクチャー内の類似したブロックとの位置差を示す動きベクトルに関する情報が必要である。したがって、符号化時に動きベクトルに関する情報を符号化してビットストリームに挿入するが、動きベクトルに関する情報をそのまま符号化して挿入すれば、オーバーヘッドが増加して映像データの圧縮率が低くなる。
したがって、インター予測符号化方法では、現在ブロックの動きベクトルを周辺ブロックを用いて予測し、予測の結果で生成された予測動きベクトルと原本動きベクトルとの差分値のみを符号化して伝送することで、動きベクトルに関する情報も圧縮する。
H.264では、現在ブロックの動きベクトルの予測値である予測動きベクトルは、予測動きベクトル=中央値(mvA、mvB、mvC)によって定められる。隣接しているブロックは類似性を持ちやすいため、現在ブロックの動きベクトルを周辺ブロックの動きベクトルの中央値と定める。
しかし、隣接ブロックの動きベクトルのうち一つ以上が現在ブロックの動きベクトルと異なる場合、前記中央値が現在ブロックの動きベクトルを効果的に予測できないという点が発生する。また、映像の動きがほとんどないか、または時間的にほぼ一定に動く映像及び背景映像については、既存の動き予測方式より効果的な動き予測のための候補者選定及び動きベクトルを符号化/復号化する方式が求められる。
本発明が解決しようとする課題は、現在予測ユニットに隣接している予測ユニットの動きベクトル及び以前に符号化された参照ピクチャー内の既定の位置の動きベクトルのうち一つを用いて、現在予測ユニットの動きベクトルを予測符号化するインター予測符号化する方法を提供することである。
本発明によるインター予測符号化方法は、現在予測ユニットの動きベクトル及び参照ピクチャーインデックスを定め、前記現在予測ユニットと隣接している既定の位置の予測ユニットの有効な動きベクトルを空間動きベクトル候補者に誘導し、前記現在予測ユニットの有効な時間動きベクトル候補者を誘導し、前記有効な空間動きベクトル候補者及び時間動きベクトル候補者のうち一つを、現在予測ユニットの動きベクトル予測子と定め、前記現在予測ユニットの動きベクトルと前記定められた動きベクトル予測子との動きベクトル差値を求め、前記差値及び前記参照ピクチャーインデックスを符号化し、前記時間動きベクトル候補者は、以前に符号化された参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルであることを特徴とする。
本発明によるインター予測符号化方法は、動き情報を効果的に符号化するために、現在予測ユニットと隣接している既定の位置の予測ユニットの有効な動きベクトルを空間動きベクトル候補者に誘導し、以前に符号化された参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルを、前記現在予測ユニットの有効な時間動きベクトル候補者に誘導する。そして、前記有効な空間動きベクトル候補者及び時間動きベクトル候補者のうち一つを現在予測ユニットの動きベクトル予測子と定め、前記現在予測ユニットの動きベクトルと前記定められた動きベクトル予測子との動きベクトル差値を求める。したがって、空間及び時間動きベクトル候補者を用いることで現在予測ユニットの動き情報の符号化量を低減させる。
本発明の実施形態による動画符号化装置を示すブロック図である。 本発明の実施形態による動画復号化装置を示すブロック図である。 本発明の実施形態によるスキップ符号化された予測ユニットの復元ブロックを生成する過程を示す図面である。 本発明の実施形態による空間スキップ候補者の位置を示す図面である。 本発明の実施形態による時間スキップ候補者を求めるために使われる予測ユニットの位置を示す図面である。 本発明の実施形態による時間スキップ候補者ピクチャー内の現在予測ユニットに対応する対応ブロックを示す図面である。 本発明の実施形態による動きベクトル予測符号化された予測ユニットの復元ブロックを生成する過程を示す図面である。 本発明の実施形態による空間動きベクトル候補者のための現在予測ユニットに隣接している予測ユニットの位置を示す図面である。
以下、本発明のいろいろな実施形態を例示的な図面により詳細に説明する。本発明は多様な変更を加えることができ、かつ多様な実施形態を持つことができるところ、本発明を特定の実施形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物ないし代替物を含むと理解されねばならない。
映像符号化のために、ピクチャーは複数のスライスで構成され、スライスは、複数のLCU(largest coding unit)で構成される。LCUの位置は、アドレス指示子によって定められる。前記LCUは、それ自体がコーディングユニット(CU:coding unit)になってもよく、さらに小さな単位のCUに分割されてもよい。LCU単位ごとにLCU内のCU構成を示す情報を含む。前記CU構成を示すために分割フラグが使われる。
それぞれ定められたCUは、一つまたは複数の予測ユニット(PU:prediction unit)で構成される。PUは、イントラまたはインター予測のために使われる基本単位を意味する。
変換ユニット(TU:transform unit)は、変換符号化の基本単位を意味する。イントラ予測の場合には、PUが複数のTUを持ってもよい。インター予測の場合には、複数のPUが一つのTUを構成してもよい。PUの最大サイズはSPS(sequence parameter set)で定義され、四分木形態に分割される。イントラ予測及びインター予測についての最大サイズのPUは互いに異なる。したがって、前記情報はSPSを通じて復号器に伝送される。
図1は、本発明による動画符号化装置を示すブロック図である。図1を参照すれば、本発明による動画符号化装置100は、ピクチャー分割部110、変換部120、量子化部130、スキャニング部131、エントロピー符号化部140、イントラ予測部150、インター予測部160、逆量子化部135、逆変換部125、後処理部170、ピクチャー保存部180、減算部190及び加算部195を備える。
ピクチャー分割部110は、入力されるビデオ信号を分析し、ピクチャーを最大のコーディングユニットごとに所定サイズのコーディングユニットに分割して予測モードを定め、前記コーディングユニット別に予測ユニットのサイズを定める。そして、ピクチャー分割部110は、符号化する予測ユニットを、予測モードによってイントラ予測部150またはインター予測部160に伝送する。また、ピクチャー分割部110は、符号化する予測ユニットを減算部190に伝送する。
変換部120は、入力された予測ユニットの原本ブロックと、イントラ予測部150またはインター予測部160で生成された予測ブロックとの残差信号である残差ブロックを変換する。前記残差ブロックは、コーディングユニットで構成することが望ましい。コーディングユニットで構成された残差ブロックは、最適の変換ユニットに分割されて変換される。予測モード(イントラまたはインター)及びイントラ予測モードによって適応的に変換マトリックスが定められる。変換ユニットは、2個(水平、垂直)の1次元変換マトリックスによって変換される。例えば、インター予測の場合には、既定の1つの変換マトリックスが定められる。
イントラ予測の場合、イントラ予測モードが水平である場合には、残差ブロックが垂直方向への方向性を持つ確率が高くなるので、垂直方向にはDCT基盤の定数マトリックスを適用し、水平方向にはDST基盤またはKLT基盤の定数マトリックスを適用する。イントラ予測モードが垂直である場合には、垂直方向にはDST基盤またはKLT基盤の定数マトリックスを、水平方向にはDCT基盤の定数マトリックスを適用する。DCモードの場合には、双方向ともDCT基盤の定数マトリックスを適用する。前記方式は、変換ユニットのサイズが既定のサイズより小さいか、または同じ場合に適用する。前記既定のサイズは、4×4または8×8である。したがって、変換ユニットのサイズが既定のサイズより大きい場合には、双方向ともDCT基盤の定数マトリックスを適用するか、または2次元のDCT基盤の定数マトリックスを適用する。すなわち、イントラ予測の場合、変換ユニットのサイズ及びイントラ予測モードによって変換マトリックスが適応的に定められてもよい。
量子化部130は、前記変換マトリックスによって変換された残差ブロックの係数を量子化するための量子化ステップサイズを、既定のサイズ以上のコーディングユニット別に定める。既定のサイズより小さなコーディングユニットについての量子化ステップサイズは、既定のサイズ単位で定められる量子化ステップサイズの値を持つ。そして、定められた量子化ステップサイズ及び予測モードによって定められる量子化マトリックスを用いて、前記変換ブロックの係数を量子化する。量子化部130は、現在コーディングユニットの量子化ステップサイズ予測子として、現在コーディングユニットに隣接しているコーディングユニットの量子化ステップサイズを優先的に用いる。すなわち、量子化部130は、現在コーディングユニットの左側コーディングユニットの量子化ステップサイズを、現在コーディングユニットの量子化ステップサイズ予測子と定める。前記左側コーディングユニットが利用不可能な場合には、スキャン順序上、直前のコーディングユニットの量子化ステップサイズを現在コーディングユニットの量子化ステップサイズ予測子と定める。または左側コーディングユニット、上側コーディングユニット、スキャン順序上、直前のコーディングユニット順序で検索して、有効なコーディングユニットの量子化ステップサイズを現在コーディングユニットの量子化ステップサイズ予測子と定める。
前記量子化された変換ブロックは、逆量子化部135及びスキャニング部131で提供される。スキャニング部131は、量子化された変換ブロックの係数をスキャニングして1次元の量子化係数に変換する。係数スキャニング方式は、予測モード及びイントラ予測モードによって定められる。また、係数スキャニング方式は、変換ユニットのサイズによって異なって定められてもよい。
スキャニング部131は、現在変換ユニットがサイズによって量子化された係数ブロックを複数のサブセットに分割するかどうかを定める。変換ユニットのサイズが第1基準サイズより大きい場合、前記量子化された係数ブロックを複数のサブセットに分割する。前記第1基準サイズは、4×4または8×8であることが望ましい。
スキャニング部131は、量子化された係数ブロックに適用されるスキャンパターンを定める。インター予測モードの場合には、既定のスキャンパターン(例えば、ジグザグスキャン)のみを適用する。イントラ予測の場合には、イントラ予測モード及び変換ユニットのサイズによってスキャンパターンが変わる。非方向性モードについては、前記既定のスキャンパターンを適用する。非方向性モードは、DCモードまたは平面モードである。
イントラ予測方向性モードは、イントラ予測モード及び変換ユニットのサイズによって前記スキャンパターンが変わる。既定のサイズ以上の変換ユニットについては、前記既定のスキャンパターンを適用し、既定のサイズより小さな変換ユニットについては、方向性イントラ予測モードによって適応的にスキャンパターンが定められる。前記既定のサイズは16×16である。
既定のサイズより小さな変換ユニットについては、3種のスキャンパターンが適用される。3種のスキャンパターンは、第1スキャンパターン(前記既定のスキャンパターンと同一)、第2スキャンパターン(水平スキャンパターン)、第3スキャンパターン(垂直スキャンパターン)である。垂直モードの場合には、水平方向への変換係数の存在する可能性が大きいため、第2スキャンパターンを適用する。同様に、前記垂直モードの左側及び右側に隣接している所定数の方向性イントラ予測モードについても第2スキャンパターンを適用する。同様に、水平モードの場合には、第3スキャンパターンを適用する。そして、前記水平モードの上側及び下側の所定数の方向性イントラ予測モードについては、第3スキャンパターンを適用する。前記所定数は、各方向に対して3または4であることが望ましい。
量子化係数のスキャン順序は、逆方向にスキャンする。前記量子化された係数が複数のサブセットに分割された場合には、それぞれのサブセット内の量子化係数に同じスキャンパターンを適用する。前記複数のサブセットは、一つのメインサブセットと少なくとも一つ以上の残余サブセットとで構成される。メインサブセットは、DC係数を含む左上側に位置し、前記残余サブセットは、メインサブセット以外の領域をカバーする。
サブセット間のスキャンパターンは、ジグザグスキャンを適用する。スキャンパターンは、メインサブセットから順方向に残余サブセットにスキャンすることが望ましいが、その逆方向も可能である。また、サブセット内の量子化された係数のスキャンパターンと同じくサブセット間のスキャンパターンを設定してもよい。この場合、サブセット間のスキャンパターンが、イントラ予測モードによって定められる。一方、符号器は、前記変換ユニット内の0ではない最後の量子化係数の位置を示す情報を復号器に伝送する。各サブセット内の0ではない最後の量子化係数の位置を示す情報も復号器に伝送する。前記情報は、それぞれのサブセット内の0ではない最後の量子化係数の位置を示す情報である。
逆量子化135は、前記量子化された量子化係数を逆量子化する。逆変換部125は、逆量子化された変換係数を空間領域の残差ブロックに復元する。加算器は、前記逆変換部によって復元された残差ブロックと、イントラ予測部150またはインター予測部160からの予測ブロックとを合わせて復元ブロックを生成する。
後処理部160は、復元されたピクチャーに発生するブロッキング効果を除去するためのデブロッキングフィルタリング過程、ピクセル単位で原本映像との差値を補うための適応的オフセット適用過程、及びコーディングユニットで原本映像との差値を補うための適応的ループフィルタリング過程を行う。
デブロッキングフィルタリング過程は、既定のサイズ以上のサイズを持つ予測ユニット及び変換ユニットの境界に適用することが望ましい。前記サイズは、8×8である。前記デブロッキングフィルタリング過程は、フィルタリングする境界(boundary)を定める段階、前記境界に適用する境界フィルタリング強度(bounary filtering strength)を定める段階、デブロッキングフィルターの適用如何を定める段階、前記デブロッキングフィルターを適用すると定められた場合、前記境界に適用するフィルターを選択する段階を含む。
前記デブロッキングフィルターの適用如何は、i)前記境界フィルタリング強度が0より大きいかどうか、及びii)前記フィルタリングする境界に隣接している2個のブロック(Pブロック、Qブロック)境界部分でのピクセル値の変化程度を示す値が、量子化パラメータによって定められる第1基準値より小さいかどうかによって定められる。
前記フィルターは、少なくとも2個以上であることが望ましい。ブロック境界に位置している2個のピクセル間の差値の絶対値が第2基準値より大きいか、または同じ場合には、相対的に弱いフィルタリングを行うフィルターを選択する。前記第2基準値は、前記量子化パラメータ及び前記境界フィルタリング強度によって定められる。
適応的ループフィルタリング過程は、デブロッキングフィルタリング過程または適応的オフセット適用過程を経た復元された映像と原本映像とを比べた値に基づいてフィルタリングを行える。適応的ループフィルターは、4×4サイズのブロックに基づいて、一つのラプラシアン活動値(Laplacian Activity value)を通じて検出される。前記定められたALFは、4×4サイズまたは8×8サイズのブロックに含まれた画素全体に適用される。適応的ループフィルターの適用如何は、コーディングユニット別に定められる。各コーディングユニットによって適用されるループフィルターのサイズ及び係数は変わりうる。コーディングユニット別に前記適応的ループフィルターの適用如何を示す情報、フィルター係数情報、フィルター形態情報などは各スライスヘッダに含まれて復号器に伝送される。色差信号の場合には、ピクチャー単位で適応的ループフィルターの適用如何を定める。ループフィルターの形態も、輝度とは異なって長方形でありうる。
適応的ループフィルタリングの適用如何は、シーケンスまたはピクチャー単位で設定される。前記適応的ループフィルタリング過程に適用される適応的ループフィルターパラメータ情報は、ピクチャーまたはスライスヘッダに含まれる。前記適応的ループフィルターパラメータ情報がピクチャーヘッダに含まれれば、スライスヘッダは前記情報を含まない。一方、前記適応的ループフィルターパラメータ情報がピクチャーヘッダに含まれていなければ、スライスヘッダは前記情報を含む。前記適応的ループフィルターパラメータ情報は、適応的ループフィルタリング過程で使われるluma成分の水平及び/または垂直方向のフィルター長を示す情報を含む。前記情報は、使われるフィルターの数を示す情報を含む。フィルターの数が2以上ならば、フィルター係数が予測方法を使って符号化されるかどうかを示す情報を含み、予測方法が使われる場合には予測されたフィルター係数を含み、そうではない場合には予測されていないフィルター係数を含む。
一方、輝度成分だけではなく色差成分も適応的にフィルタリングされる。したがって、前記情報は、色差成分それぞれがフィルタリングされるかどうかを示す情報を含む。この場合、ビット数を低減させるためにCr及びCbについてのフィルタリング如何を共に示す情報はジョイント符号化される。色差成分いずれもフィルタリングしない場合が最も頻繁であるため、これについて最も小さな情報を割り当てるエントロピー符号化を行うことが望ましい。また、色差成分のうち少なくとも一つ以上がフィルタリングされる場合には、前記情報は、色差成分に対するフィルター係数の水平及び/または垂直方向のフィルター長を示す情報及びフィルター情報を含む。
また、適応的ループフィルタリング過程は、所定サイズ以上のコーディングユニットごとにオン・オフされる。したがって、各スライスヘッダは、スライス内のコーディングユニット単位で適応的ループフィルタリング過程が適用されるかどうかを示す情報を含む。
ピクチャー保存部180は、後処理された映像データを後処理部160から入力されて、ピクチャー単位で映像を復元して保存する。ピクチャーは、フレーム単位の映像またはフィールド単位の映像である。ピクチャー保存部180は、複数のピクチャーを保存できるバッファ(図示せず)を備える。
インター予測部150は、前記ピクチャー保存部180に保存された少なくとも一つ以上の参照ピクチャーを用いて動き推定を行い、参照ピクチャーを示す参照ピクチャーインデックス及び動きベクトルを定める。そして、定められた参照ピクチャーインデックス及び動きベクトルによって、ピクチャー保存部150に保存された複数の参照ピクチャーのうち動き推定に用いられた参照ピクチャーから、符号化しようとする予測ユニットに対応する予測ブロックを抽出して出力する。
イントラ予測部140は、現在予測ユニットが含まれるピクチャー内部の再構成された画素値を用いてイントラ予測符号化を行う。イントラ予測部140は、予測符号化する現在予測ユニットを入力されて、現在ブロックのサイズによって予め設定された数のイントラ予測モードのうち一つを選択してイントラ予測を行う。イントラ予測部は、イントラ予測ブロックを生成するために参照ピクセルを適応的にフィルタリングする。参照ピクセルが有効でない場合には、有効な参照ピクセルを用いて前記有効でない位置の参照ピクセルを生成する。
エントロピー符号化部130は、量子化部130によって量子化された量子化係数、イントラ予測部140から受信されたイントラ予測情報、インター予測部150から受信された動き情報などをエントロピー符号化する。
一方、本発明による動画符号化装置100は、動きベクトルを予測符号化する。動きベクトルの予測符号化過程は、インター予測部150及びエントロピー符号化部140によって行われる。前記動画符号化装置100による動きベクトル予測符号化過程(AMVP符号化過程)は、次の通りである。
現在予測ユニットの動きベクトルを求める。そして、現在予測ユニットと隣接している既定の位置の予測ユニットの有効な(available)動きベクトルを、空間動きベクトル候補者と設定する。隣接している予測ユニットの動きベクトルが存在しない場合、予測ユニットが他のスライスに含まれる場合には、動きベクトルが有効ではないと判断する。
次いで、前記空間動きベクトル候補者を適応的にスケーリングする。現在予測ユニットと隣接予測ユニットとが互いに同じピクチャーを参照する場合にはスケーリングせず、互いに異なる参照ピクチャーを参照する場合または参照ピクチャーとの時間的距離(temporal distance of the reference picture)が異なる場合には、前記空間動きベクトル候補者をスケーリングする。スケーリングは、参照ピクチャーとの時間的距離を用いて行う。しかし、動かない映像(例えば、背景など)の場合には、スケーリングしなくてもよい。この場合、スケーリング如何を示す情報(フラグ)を復号器に伝送してもよい。または、既定数の空間動きベクトルのみをスケーリングしてもよい。
前記空間動きベクトル候補者及び前記時間動きベクトル候補者のうち、現在予測ユニットの動きベクトル予測子を選択する。
現在予測ユニットの動きベクトルと前記現在予測ユニットの動きベクトル予測子との動きベクトル差値(MVD)を求め、前記MVDを符号化する。そして、前記動きベクトル予測子を示す情報も符号化する。
前記時間動きベクトル候補者は、以前に符号化された特定参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルである。前記特定参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルが複数である場合には、既定の方式によっていずれか一つが時間動きベクトル候補者と定められる。すなわち、前記特定ピクチャー内の現在予測に対応する第1位置の動きベクトルが有効な場合には、これを時間動きベクトル候補者と設定し、前記第1位置の動きベクトルが有効でない場合には、第2位置の動きベクトルを時間動きベクトル候補者と設定する。
スライスタイプがB(双方向予測)である場合、時間動きベクトル候補者が含まれた前記特定参照ピクチャーは、リスト0またはリスト1から定められる。したがって、符号化部は、前記リスト情報を符号化して伝送し、復号化部は、前記リスト情報に基づいて特定参照ピクチャーを定める。
また、時間動きベクトルが使われたかどうかを示す情報が、ビットストリームに含まれて受信される。この場合、前記情報によって前記動きベクトル復号化過程が変わる。
前記空間動きベクトル候補者は、左側動きベクトル候補者及び上側動きベクトル候補者を含む。現在予測ユニットの左側動きベクトル候補者は、現在予測ユニットの左側または左下側に隣接している予測ユニットの動きベクトルである。既定の順序で有効な動きベクトルが得られるまで、左側または左下側予測ユニットの動きベクトル候補者を検索(retrieve)して得られた動きベクトルである。現在予測ユニットの上側動きベクトル候補者は、現在予測ユニットの上側、右上側、左上側の予測ユニットの動きベクトルのうち既定の順序で検索して得られた、最初の有効な動きベクトルである。
同一値の動きベクトル候補者が存在する場合、順序上、後の動きベクトルをリストからとり除く。
動きベクトル候補者が1つであれば、これを動きベクトル予測子と選択し、動きベクトル予測子を示す情報は符号化されない。
図2は、本発明の実施形態による動画復号化装置を示すブロック図である。図2を参照すれば、本発明による動画復号化装置は、エントロピー復号化部210、逆スキャニング部215、逆量子化部220、逆変換部225、加算器270、後処理部250、ピクチャー保存部260、イントラ予測部230、インター予測部240及びイントラ/インター転換スィッチ280を備える。
エントロピー復号化部210は、動画符号化装置から伝送される符号化ビートストリームを復号して、イントラ予測モードインデックス、動き情報、量子化係数シーケンスなどに分離する。エントロピー復号化部210は、復号された動き情報をインター予測部240に供給する。エントロピー復号化部210は、前記イントラ予測モード情報を、前記イントラ予測部230、逆量子化部220及び逆変換部225に供給する。また、前記エントロピー復号化210は、前記逆量子化係数シーケンスを逆量子化部220及び逆変換部225に供給する。
逆スキャニング部215は、前記量子化係数情報を2次元配列の逆量子化ブロックに変換する。前記変換のために、複数の逆スキャニングパターンのうち一つを選択する。係数逆スキャニングパターンは、イントラ予測モードによって定められる。現在変換ユニットのサイズが既定のサイズより大きい場合には、既定のサイズのサブセット単位で逆スキャンして量子化された変換ユニットを構成する。そして、現在変換ユニットのサイズが既定のサイズと同じ場合には、変換ユニット単位で逆スキャンして量子化された変換ユニットを構成する。前記量子化された係数が複数のサブセット単位で逆スキャンされる場合には、それぞれのサブセット内の量子化係数に同じ逆スキャンパターンを適用する。前記複数のサブセットは、一つのメインサブセットと少なくとも一つ以上の残余サブセットとで構成される。メインサブセットは、DC係数を含む左上側に位置し、前記残余サブセットは、メインサブセット以外の領域をカバーする。
サブセット間の逆スキャンパターンは、逆ジグザグスキャンを適用する。スキャンパターンは、残余サブセットからメインサブセットに逆スキャンすることが望ましいが、その逆方向も可能である。サブセット内の量子化された係数の逆スキャンパターンと同様にサブセット間の逆スキャンパターンを設定してもよい。逆スキャニング部215は、現在変換ユニット内の0ではない最後の量子化係数の位置を示す情報を用いて逆スキャニングを行う。
イントラ予測方向性モードについてのサブセット内の逆スキャンパターンは、イントラ予測モード及び変換ユニットのサイズによって変わる。すなわち、既定のサイズ以上の変換ユニットについては、既定のスキャンパターンを適用し、既定のサイズより小さな変換ユニットについては、方向性イントラ予測モードによって適応的に逆スキャンパターンが定められる。前記既定のサイズは、16×16である。既定のサイズより小さな変換ユニットについては、3種の逆スキャンパターンが適用される。3種のスキャンパターンは、第1スキャンパターン(前記既定のスキャンパターンと同一)、第2スキャンパターン(水平スキャンパターン)、第3スキャンパターン(垂直スキャンパターン)である。垂直モードと、前記垂直モードの左側及び右側に隣接している所定数の方向性イントラ予測モードとについても、第2スキャンパターンを適用する。同様に、水平モードと、前記水平モードの上側及び下側に隣接している所定数の方向性イントラ予測モードとについては、第3スキャンパターンを適用する。前記所定数は、各方向に対して3または4であることが望ましい。
逆量子化部220は、前記2次元配列の逆量子化係数を逆量子化するために量子化ステップサイズを復元する。量子化ステップサイズは、既定のサイズ以上のコーディングユニット別に定める。既定のサイズより小さなコーディングユニットについての量子化ステップサイズは、既定のサイズ単位で定められる量子化ステップサイズの値を持つ。逆量子化部220は、現在コーディングユニットの量子化ステップサイズ予測子として、現在コーディングユニットに隣接しているコーディングユニットの量子化ステップサイズを優先的に用いる。すなわち、現在コーディングユニットの左側コーディングユニットの量子化ステップサイズを、現在コーディングユニットの量子化ステップサイズ予測子と定める。前記左側コーディングユニットが利用不可能な場合には、スキャン順序上、直前のコーディングユニットの量子化ステップサイズを現在コーディングユニットの量子化ステップサイズ予測子と定める。または、左側コーディングユニット、上側コーディングユニット、スキャン順序上、直前のコーディングユニット順序で検索し、有効なコーディングユニットの量子化ステップサイズを現在コーディングユニットの量子化ステップサイズ予測子と定める。
前記量子化ステップサイズ予測子が定められれば、受信された残余量子化ステップサイズと前記定められた量子化ステップサイズ予測子とを加えて量子化ステップサイズを得る。そして、前記量子化ステップサイズ及び予測モードによって定められる逆量子化マトリックスを用いて前記逆量子化係数を逆量子化する。
逆変換部225は、逆量子化ブロックを逆変換して残差ブロックを復元する。前記逆量子化ブロックに適用する逆変換マトリックスは、予測モード(イントラまたはインター)及びイントラ予測モードによって適応的に定められる。図1の変換部120に適用された変換マトリックスの逆変換マトリックスが適用される。
加算器270は、逆量子化部220及び逆変換部225によって復元された残差ブロックと、イントラ予測部230またはインター予測部240によって生成される予測ブロックとを加算することで、映像ブロックを復元する。
後処理部250は、加算器270によって生成された復元映像にデブロッキングフィルター処理を行う。これによって、量子化過程による映像損失に起因するデブロッキングアーティファクトを低減させる。
ピクチャー保存部260は、後処理部250によってデブロッキングフィルター処理が行われたローカル復号映像を保持するフレームメモリである。
イントラ予測部230は、エントロピー復号化部210から受信されたイントラ予測モードインデックスに基づいて現在ブロックのイントラ予測モードを復元する。そして、復元されたイントラ予測モードによって予測ブロックを生成する。
インター予測部240は、受信された動き情報に基づいて現在予測ユニットの動きベクトルを復元する。そして、前記復元された動きベクトル情報に基づいて、ピクチャー保存部260に保存されたピクチャーから現在ブロックに対する予測ブロックを生成する。小数点精度の動き補償が適用される場合には、選択された補間フィルターを適用して予測ブロックを生成する。
インター予測部の動きベクトル予測復号化過程(AMVP復号化過程)は、次の通りである。
符号化された動きベクトル差値を復号化してMVDを生成する。現在予測ユニットと隣接している既定の位置の予測ユニットの有効な動きベクトルを空間動きベクトル候補者と設定する。そして、前記空間動きベクトル候補者を適応的にスケーリングする。現在予測ユニットと隣接予測ユニットとが互いに同じピクチャーを参照する場合には、スケーリングせず、互いに異なる参照ピクチャーを参照する場合には、前記空間動きベクトル候補者をスケーリングする。スケーリングは、参照ピクチャーの時間的距離(temporal distance of the reference picture)を用いて行う。
動きベクトル予測子を示す動き情報に基づいて、空間動きベクトル候補者及び時間動きベクトル候補者のうち、現在予測ユニットの動きベクトル予測子を選択する。そして、前記選択された動きベクトル予測子とMVDとを加えて現在予測ユニットの動きベクトルを復元する。
前記時間動きベクトル候補者は、以前に符号化された特定参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルである。前記特定参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルが複数である場合には、既定の方式によっていずれか一つが時間動きベクトル候補者と定められる。すなわち、前記特定ピクチャー内の現在予測に対応する第1位置の動きベクトルが有効な場合には、これを時間動きベクトル候補者と設定し、前記第1位置の動きベクトルが有効でない場合には、第2位置の動きベクトルを時間動きベクトル候補者と設定する。
スライスタイプがBである場合、時間動きベクトル候補者が含まれた前記特定参照ピクチャーは、リスト0またはリスト1から定められる。したがって、復号化部は、前記リスト情報に基づいて特定参照ピクチャーを定める。
また、時間動きベクトルが使われたかどうかを示す情報が、ビットストリームに含まれて受信される。この場合、前記情報によって前記動きベクトル復号化過程が変わる。前記空間動きベクトル候補者は、左側動きベクトル候補者及び上側動きベクトル候補者を含む。現在予測ユニットの左側動きベクトル候補者は、現在予測ユニットの左側または左下側に隣接している予測ユニットの動きベクトルである。既定の順序で有効な動きベクトルが得られるまで、左側または左下側予測ユニットの動きベクトル候補者を検索(retrieve)して得られた動きベクトルである。現在予測ユニットの上側動きベクトル候補者は現在予測ユニットの上側、右上側、左上側のエツックユニットの動きベクトルのうち既定の順序に検索して得られた、最初の有効な動きベクトルである。
同一値の動きベクトル候補者が存在する場合、順序上、後の動きベクトルをリストからとり除く。動きベクトル候補者が1つであれば、これを動きベクトル予測子と選択し、動きベクトル予測子を示す情報は符号化されない。
イントラ/インター転換スィッチ280は、符号化モードに基づいて、イントラ予測部230とインター予測部240のいずれか一つで生成された予測ブロックを加算器270に提供する。
以下では、本発明によるインター予測復号化過程を説明する。インター予測復号化過程は、現在予測ユニットの動き情報を復号化する過程、現在予測ユニットの予測ブロックを生成する過程、残差ブロックを生成する過程、及び予測ブロックと残差ブロックとを用いて再構成ブロックを生成を含む。前記動き情報は、動きベクトル及び参照ピクチャーインデックスを含む。
図3は、本発明によるスキップ符号化された予測ユニットの復元ブロックを生成する過程を示す図面である。受信された符号化ユニット内のskip_flagが1である場合の予測ブロックを生成する過程である。
先ず、隣接予測ユニットから空間スキップ候補者を誘導(derivation)する(S210)。
空間スキップ候補者は、図4に示したように、現在予測ユニットの左側予測ユニット(ブロックA)、現在予測ユニットの上側予測ユニット(ブロックB)、現在予測ユニットの右上側予測ユニット(ブロックC)及び現在予測ユニットの左下側予測ユニット(ブロックD)の動き情報になる。現在予測ユニットの左上側予測ユニット(ブロックE)の動き情報も空間スキップ候補者になりうるが、これは特別な場合に限定することが望ましい。例えば、予測ユニットA、B、C、Dのうち一部(例えば、1つ以上)の動き情報が有効でない場合に、ブロックEの動き情報が空間スキップ候補者に組み込まれる。動き情報は、参照ピクチャーインデックスと動きベクトルを含む。
また、空間スキップ候補者は、左側予測ユニットA、上側予測ユニットB及びコーナー予測ユニット(CまたはDまたはE)の動き情報であってもよい。ここでコーナー予測ユニットは、既定の順序(C、D、E順またはD、C、E順)にスキャンして有効な最初の予測ユニットである。
前記各隣接予測ユニットの有効性検査(Availability check)を進める。予測ユニットが存在しないか、予測ユニットの予測モードがイントラモードである場合には、有効でない予測ユニットと処理する。
一方、現在予測ユニットの左側に複数の予測ユニットが存在する場合には、既定の順序(上から下へ、または下から上へ)で予測ユニットの有効性検査を進め、有効な最初の予測ユニットを左側予測ユニットと設定する。または、既定の位置の予測ユニット(例えば、最上側または最下側予測ユニット)を左側予測ユニットと設定してもよい。同様に、上側に複数の予測ユニットが存在する場合には、既定の順序(左側から右側へ、または右側から左側へ)で予測ユニットの有効性検査を進め、有効な最初の予測ユニットを上側予測ユニットと設定してもよい。または、既定の位置の予測ユニット(最左側または最右側予測ユニット)を上側予測ユニットと設定してもよい。
時間スキップ候補者を誘導する(S220)。時間スキップ候補者を誘導する段階は、時間スキップ候補者のための参照ピクチャーインデックスを求める段階と、時間スキップ候補者の動きベクトルを求める段階とで構成される。
時間スキップ候補者のための参照ピクチャーインデックスを求める。時間スキップ候補者のための参照ピクチャーインデックスは0と設定される。または、時間スキップ候補者のための参照ピクチャーインデックスは、現在予測ユニットに空間的に隣接している予測ユニットの参照ピクチャーインデックスを用いて求めてもよい。
図5は、時間スキップ候補者のための参照ピクチャーインデックスを求めるために使われる現在予測ユニットに隣接している予測ユニットの位置を示す。時間スキップ候補者のための参照ピクチャーインデックスは、現在予測ユニットに隣接している予測ユニットの参照ピクチャーインデックスのうち一つと定める。
時間スキップ候補者のための参照インデックスを求めるために、現在予測ユニットの左側予測ユニットA、上側予測ユニットB、右上側予測ユニットC、左下側予測ユニットD及び左上側予測ユニットEの参照ピクチャーインデックスが使われる。
上側予測ユニットが複数存在する場合には、左側から右側(または右側から左側)へスキャンし、最初に有効な予測ユニットの参照ピクチャーインデックスを上側予測ユニットの参照ピクチャーインデックスと定めてもよい。同様に、左側予測ユニットが複数存在する場合には、上側から下側へスキャンし、最初に有効な予測ユニットの参照ピクチャーインデックスを左側予測ユニットの参照ピクチャーインデックスと定めてもよい。
右上側予測ユニットC、左下側予測ユニットD、左上側予測ユニットEのブロック順でスキャンし、有効な最初の予測ユニットの参照ピクチャーインデックスをコーナー予測ユニットの参照ピクチャーインデックスと定める。
現在予測ユニットの左側予測ユニットの参照ピクチャーインデックス(以下、左側参照ピクチャーインデックス)、現在予測ユニットの上側予測ユニットの参照ピクチャーインデックス(以下、上側参照ピクチャーインデックス)、及び現在予測ユニットのコーナー予測ユニットの参照ピクチャーインデックス(以下、コーナー参照ピクチャーインデックス)が求められれば、これらから時間スキップ候補者のための参照ピクチャーインデックスを求める。ここでは、コーナーの予測ユニットC、D、Eのうち一つのみを候補者と設定したが、これに限定されず、予測ユニットC、Dが候補者と設定される場合(候補者4個)、予測ユニットC、D、Eがいずれも候補者と設定される場合(候補者5個)も可能である。以下では、上側、左側及びコーナーの3種の参照ピクチャーインデックスを用いる過程のみについて例示的に説明する。
有効な参照ピクチャーインデックスのうち最も多い頻度を持つ参照ピクチャーインデックスを、時間スキップ候補者のための参照ピクチャーインデックスと設定する。有効な候補者のうち最も多い頻度を持つ参照ピクチャーインデックスが複数存在する場合には、前記複数の参照ピクチャーインデックスのうち最小値を持つ参照ピクチャーインデックスを、時間スキップ候補者のための参照ピクチャーインデックスと設定する。
次いで、前記時間スキップ候補者の動きベクトルを求める段階を説明する。
先ず、前記時間スキップ候補者ブロックが属するピクチャー(以下、時間スキップ候補者ピクチャー)を定める。時間スキップ候補者ピクチャーは、参照ピクチャーインデックスが0であるピクチャーと設定される。この場合、スライスタイプがPである場合には、リスト0(list0)の最初のピクチャーが時間スキップ候補者ピクチャーと設定される。スライスタイプがBである場合には、スライスヘッダ内の時間スキップ候補者ピクチャーが属するリストを示すフラグを用いて参照ピクチャーリストを選択し、前記参照ピクチャーリスト内の参照ピクチャーインデックスが0であるピクチャーを時間スキップ候補者ピクチャーと定める。例えば、前記フラグが1を示せば、list0から、0を示せば、list1から時間スキップ候補者ピクチャーを設定する。
一方、前記時間スキップ候補者のための参照ピクチャーインデックスが示す参照ピクチャーを、時間スキップ候補者ブロックが属するピクチャーと設定してもよい。この場合にも、スライスタイプがPである場合には、リスト0(list0)の前記時間スキップ候補者の参照ピクチャーインデックスが示す参照ピクチャーが、時間スキップ候補者ピクチャーと設定される。そして、スライスタイプがBである場合には、スライスヘッダ内の時間スキップ候補者が属するリストを示すフラグを用いて、時間スキップ候補者ピクチャーを設定する。
次いで、前記時間スキップ候補者ピクチャー内の時間スキップ候補者ブロックを求める。前記時間スキップ候補者ブロックとして、前記時間スキップ候補者ピクチャー内の現在予測ユニットに対応する複数の対応ブロックのうちいずれか一つが選択される。この場合、複数の対応ブロックに優先順位を与え、前記優先順位に基づいて有効な最初の対応ブロックが時間スキップ候補者ブロックと選択される。
図6は、前記時間スキップ候補者ピクチャー内の現在予測ユニットに対応する対応ブロックを示す。時間スキップ候補者の位置は、空間スキップ候補者の位置と異なることが望ましい。
したがって、前記時間スキップ候補者ピクチャー内の現在予測ユニットに対応するブロックに隣接している左下側コーナーブロックBR0、または前記時間スキップ候補者ピクチャー内の現在予測ユニットに対応するブロック内の左下側ブロックBR1を第1候補者ブロックと設定し、前記時間スキップ候補者ピクチャー内の現在予測ユニットに対応するブロックの中央位置の左上側ピクセルまたは右下側ピクセルを含むブロックCを第2候補者ブロックと設定する。
前記第1候補者ブロックが有効であれば、前記第1候補者ブロックを時間スキップ候補者ブロックと設定し、前記第1候補者ブロックが有効でなく前記第2候補者ブロックが有効であれば、前記第2候補者ブロックを時間スキップ候補者ブロックと設定する。
一方、前記左下側コーナーブロックBR0、前記左下側ブロックBR1、前記右下側ピクセルまたは左上側ピクセルを含むブロックC順にスキャンしてもよい。また、有効な時間スキップ候補者ブロックが複数存在する場合、最大の面積を持つ対応ブロックまたはこれらの中央値(median)を時間スキップ候補者動きベクトルと設定してもよい。
前記時間候補者予測ブロックが定められれば、前記時間候補者予測ブロックの動きベクトルを時間スキップ候補者動きベクトルと設定する。
次いで、有効なスキップ候補者リストを構築する(S230)。
有効な空間スキップ候補者及び時間スキップ候補者を用いてスキップ候補者リストを構築する。スキップ候補者リストは、既定の順序で構築することが望ましい。既定の順序は、空間左側スキップ候補者A、空間上側スキップ候補者B、時間スキップ候補者、空間右上側スキップ候補者C、空間左下側シキップ候補者Dの順に設定される。また、時間スキップ候補者、空間左側スキップ候補者A、空間上側スキップ候補者B、空間右上側スキップ候補者C、空間左下側スキップ候補者Dの順に設定されてもよい。
一方、空間左側スキップ候補者A、空間上側スキップ候補者B、空間右上側スキップ候補者C、空間左下側スキップ候補者Dのうちいずれか一つ以上が有効でない場合には、空間左上側スキップ候補者Eが追加される。この場合、空間左上側スキップ候補者Eは、有効でない空間スキップ候補者の位置に追加される。すなわち、各空間スキップ候補者別優先順位によって有効性を検査し、有効でない空間スキップ候補者の位置に前記空間左上側スキップ候補者Eを追加する。前記優先順位は、A、B、C、D順、またはA、D、B、C順である。
スキップ候補者リストの構築時、複数のスキップ候補者が同一動きベクトル及び同一参照ピクチャーインデックスを持つようになれば、スキップ候補者リスト上で後順位のスキップ候補者をリスト上で削除する。
次いで、現在予測ユニットの動きベクトル及び参照ピクチャーインデックスを求める(S240)。
受信された予測ユニット内にスキップインデックスが存在する場合には、スキップ候補者リスト上の対応するインデックスのスキップ候補者予測ユニットの動きベクトル及び参照ピクチャーインデックスを、現在予測ユニットの動きベクトル及び参照ピクチャーインデックスと定める。
しかし、受信された予測ユニット内にスキップインデックスが存在していない場合には、スキップ候補者が存在すれば、前記スキップ候補者の動きベクトル及び参照ピクチャーインデックスを現在予測ユニットの動きベクトル及び参照ピクチャーインデックスと定める。
そして、受信された予測ユニット内にスキップインデックスが存在せず、スキップ候補者も存在していなければ、現在予測ユニットの動きベクトルを0、参照ピクチャーインデックスを0と定める。
一方、スキップ候補者が時間スキップ候補者である場合には、時間スキップ候補者の動きベクトルを現在予測ユニットの動きベクトルと設定する。そして、0または前記時間スキップ候補者のための参照ピクチャーインデックスを現在予測ユニットの参照ピクチャーインデックスと定める。
一方、スキップインデックスは、有効なスキップ候補者数によって互いに異なるVLCテーブルを用いて符号化された値である。この場合、有効なスキップ候補者数を求めた後、ここに対応するVLCテーブルを用いて前記スキップインデックスを復号する段階が、段階S230と段階S240との間に追加される。段階S240は、前記復号されたスキップインデックスを用いて現在予測ユニットの動き情報を定める。また、スキップ候補者数が固定でありうる。この場合には、有効なスキップ候補者を用いて有効でないスキップ候補者を生成し、スキップ候補者リストを構築する。
現在予測ユニットの動きベクトル及び参照ピクチャーインデックスが求められれば、参照ピクチャーインデックスが示すピクチャー内で、動きベクトルを用いて予測ブロックを生成する(S250)。前記生成された予測ブロックは復元ブロックになる。
一方、符号化ユニット内のskip_flagが0であり、受信された予測ユニット内のmerge_flagが1である場合の復元ブロックを生成する過程は、前記スキップモードでの復元ブロックを生成する過程とほぼ同一である。具体的に、予測ブロックを生成する過程は同一である。しかし、スキップモードでは残差ブロックが0であるため、生成された予測ブロックが復元ブロックになる一方、マージモードでは残差ブロックが0でないため、残差ブロックを復元する段階及び生成された予測ブロックと復元された残差ブロックとを加えて復元ブロックを生成する段階が追加される。
隣接予測ユニットから空間マージ候補者及び時間マージ候補者を誘導する。空間マージ候補者を誘導する過程は、空間スキップ候補者を求める過程と同一である。また、時間マージ候補者を誘導する過程も、時間スキップ候補者を求める過程と同一である。
次いで、有効なマージ候補者リストを構築する。有効な空間マージ候補者及び時間マージ候補者を既定の順序で整列する。既定の順序は、空間左側マージ候補者A、空間上側マージ候補者B、時間マージ候補者、空間右上側マージ候補者C、空間左下側マージ候補者Dの順に設定される。また、時間マージ候補者、空間左側マージ候補者A、空間上側マージ候補者B、空間右上側マージ候補者C、空間左下側マージ候補者Dの順に設定されてもよい。
一方、空間左側マージ候補者A、空間上側マージ候補者B、空間右上側マージ候補者C、空間左下側マージ候補者Dのうちいずれか一つ以上が有効でない場合には、空間左上側マージ候補者Eが追加される。この場合、空間左上側マージ候補者Eは、有効でない空間マージ候補者の位置に追加される。すなわち、各空間マージ候補者別優先順位によって有効性を検査し、有効でない空間マージ候補者の位置に前記空間左上側マージ候補者Eを追加する。前記優先順位は、A、B、C、D順、またはA、D、B、C順である。
また、前記既定の順序は、予測ユニットの予測モードによって異なって設定されてもよく、一部のマージ候補者を候補者から排除させてもよい。すなわち、予測ユニットが2N×Nである場合には前記順序で設定できるが、空間左下側マージ候補者Dを候補者から削除する。また、予測ユニットがN×2Nである場合には、空間右上側マージ候補者Cより空間左下側マージ候補者Dが現在予測ユニットとの連関性が高いため、前記2個の候補者の順序を変更するか、または空間右上側マージ候補者Cを空間マージ候補者から除外してもよい。
次いで、現在予測ユニットの動きベクトル及び参照ピクチャーインデックスを求める。受信された予測ユニット内にマージインデックスが存在する場合には、マージ候補者リスト上の対応するインデックスのマージ候補者の動きベクトル及び参照ピクチャーインデックスを、現在予測ユニットの動きベクトル及び参照ピクチャーインデックスと定める。
しかし、受信された予測ユニット内に、マージインデックスは存在していないが、マージ候補者が存在するならば、前記マージ候補者の動きベクトル及び参照ピクチャーインデックスを、現在予測ユニットの動きベクトル及び参照ピクチャーインデックスと定める。
そして、受信された予測ユニット内にマージインデックスが存在せずにスキップ候補者も存在していなければ、現在予測ユニットの動きベクトルを0、参照ピクチャーインデックスを0と定める。
一方、マージ候補者が時間マージ候補者である場合には、時間マージ候補者の動きベクトルを現在予測ユニットの動きベクトルと設定する。そして、0または時間マージ候補者のための参照ピクチャーインデックスを、現在予測ユニットの参照ピクチャーインデックスと定める。
一方、マージインデックスは、有効なマージ候補者数によって互いに異なるVLCテーブルを用いて符号化された値である。この場合、有効なマージ候補者数を求めた後、これに対応するVLCテーブルを用いて前記スキップインデックスを復号する段階が追加される。
現在予測ユニットの動きベクトル及び参照ピクチャーインデックスが求められれば、参照ピクチャーインデックスが示すピクチャー内で動きベクトルを用いて予測ブロックを生成する。
また、変換ユニット単位で残差ブロックを復元する。残差ブロックは、エントロピー復号化、逆スキャン、逆量子化及び逆変換過程を通じて復元される。前記過程は、図2の動画復号化装置のエントロピー復号化部210、逆スキャニング部215、逆量子化部220、逆変換部225によって行われる。
最後に、前記生成された予測ブロック及び前記復元された残差ブロックを用いて復元ブロックを生成する。復元ブロックは符号化ユニット単位で復元する。したがって、生成された予測ブロック及び復元された残差ブロックをそれぞれ符号化ユニット単位で作った後、前記符号化単位の予測ブロック及び符号化単位の残差ブロックを用いて復元ブロックを生成する。
図7は、本発明による動きベクトル予測符号化された予測ユニットの復元ブロックを生成する過程を示す図面である。符号化ユニット内のskip_flagが0であり、受信された予測ユニット内のmerge_flagが0である場合に適用される。
先ず、受信されたビットストリームの予測ユニットシンタックスから、現在予測ユニットの参照ピクチャーインデックス及び差分動きベクトルを求める(S310)。
スライスタイプがBである場合には、インター予測情報を確認する。インター予測情報が参照ピクチャー組み合わせリストPred_LCを用いた片方向予測を示せば、参照ピクチャーインデックスを用いて参照ピクチャー組み合わせリストlist_c内の参照ピクチャーを選択する。そして、差分動きベクトルを復元する。インター予測情報が参照ピクチャーリスト0を用いた片方向予測を示せば、参照ピクチャーリスト0の参照ピクチャーインデックスを用いて参照ピクチャーを求め、差分動きベクトルを復元する。インター予測情報が双方向予測を示せば、参照ピクチャーリスト0の参照ピクチャーインデックス及び参照ピクチャーリスト1の参照ピクチャーインデックスを用いて各参照ピクチャーを求め、各参照ピクチャーに対する差分動きベクトルを復元する。
次いで、空間動きベクトル候補者を求める(S320)。図8は、本発明による空間動きベクトル候補者を求めるために使われる現在予測ユニットに隣接している予測ユニットの位置を示す。
左側空間動きベクトル候補者は、現在予測ユニットの左側予測ユニットのうち一つ(ブロックA、Dのうち一つ)になる。上側空間動きベクトル候補者は、現在予測ユニットの上側予測ユニットのうち一つ(ブロックB、C、Eのうち一つ)になる。
先ず、左側空間動きベクトル候補者を求める過程を説明する。
現在予測ユニットの左側予測ユニットをA、D順序、またはD、A順序で検索して第1条件を満たす予測ユニットの存否を検索する。第1条件を満たす予測ユニットとは、(1)予測ユニットが存在し、(2)予測ユニットがインター予測ユニットであり、(3)現在予測ユニットの参照ピクチャーと同じ参照ピクチャーを持ち、(4)参照ピクチャーリストの同じ予測ユニットをいう。前記第1条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを左側空間動きベクトル候補者と設定する。第1条件を満たす予測ユニットが存在していなければ、第2条件を満たす予測ユニットの存否を検索する。第2条件を満たす予測ユニットとは、(1)予測ユニットが存在し、(2)予測ユニットがインター予測ユニットであり、(3)現在予測ユニットの参照ピクチャーと同じ参照ピクチャーを持つものの、(4)参照ピクチャーリストの異なる予測ユニットをいう。前記第2条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを左側空間動きベクトル候補者と設定する。
第2条件を満たす予測ユニットも存在していなければ、第3条件を満たす予測ユニットの存否を検索する。第3条件を満たす予測ユニットとは、(1)予測ユニットが存在し、(2)予測ユニットがインター予測ユニットであり、(3)参照ピクチャーリストが同一であるものの、(4)現在予測ユニットの参照ピクチャーと異なる参照ピクチャーを持つ予測ユニットをいう。前記第3条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを左側空間動きベクトル候補者と設定する。
第3条件を満たす予測ユニットも存在していなければ、第4条件を満たす予測ユニットの存否を検索する。第4条件を満たす予測ユニットとは、(1)予測ユニットが存在し、(2)予測ユニットがインター予測ユニットであるものの、(3)参照ピクチャーリストが異なり、(4)現在予測ユニットの参照ピクチャーと異なる参照ピクチャーを持つ予測ユニットをいう。前記第4条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを左側空間動きベクトル候補者と設定する。
第1条件または第2条件を満たす予測ユニットの動きベクトルは、そのまま動きベクトル候補者と使われるが、第3条件または第4条件を満たす予測ユニットの動きベクトルは、スケーリングされて動きベクトル候補者と使われる。
前記すべての条件を満たす動きベクトルが存在していなければ、左側空間動きベクトル候補者は有効でないと設定する。
次いで、上側空間動きベクトル候補者を求める過程を説明する。
現在予測ユニットの上側予測ユニットをB、C、E順序またはC、B、E順序で検索し、第1条件を満たす予測ユニットの存否を検索する。前記第1条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを上側空間動きベクトル候補者と設定する。
第1条件を満たす予測ユニットが存在していなければ、第2条件を満たす予測ユニットの存否を検索する。前記第2条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを上側空間動きベクトル候補者と設定する。
第2条件を満たす予測ユニットも存在していなければ、第3条件を満たす予測ユニットの存否を検索する。前記第3条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを上側空間動きベクトル候補者と設定する。
第3条件を満たす予測ユニットも存在していなければ、第4条件を満たす予測ユニットの存否を検索する。前記第4条件を満たす予測ユニットが存在すれば、前記予測ユニットの動きベクトルを上側空間動きベクトル候補者と設定する。
第1条件または第2条件を満たす予測ユニットの動きベクトルは、そのまま動きベクトル候補者と使われるが、第3条件または第4条件を満たす予測ユニットの動きベクトルは、スケーリングされて動きベクトル候補者と使われる。前記すべての条件を満たす動きベクトルが存在していなければ、上側空間動きベクトル候補者は有効でないと設定する。
左側空間動きベクトル候補者を求める過程での第1〜4条件と、上側空間動きベクトル候補者を求める過程での第1〜4条件とは同一である。時間動きベクトル候補者を求める(S330)。先ず、前記時間動きベクトル候補者ブロックが属するピクチャー(以下、時間動きベクトル候補者ピクチャー)を定める。時間動きベクトル候補者ピクチャーは、参照ピクチャーインデックスが0であるピクチャーと定められる。この場合、スライスタイプがPである場合には、リスト0(list0)の最初のピクチャーが時間動きベクトル候補者ピクチャーと定められる。スライスタイプがBである場合には、スライスヘッダ内の時間動きベクトル候補者が属するリストを示すフラグを用いて、時間動きベクトル候補者ピクチャーが定められる。例えば、前記フラグが1を示せば、list0から、0を示せば、list1から時間動きベクトル候補者ピクチャーを定める。また、受信された予測ユニットから求めた現在予測ユニットの参照ピクチャーインデックスに対応するピクチャーを、時間動きベクトル候補者ピクチャーと定めてもよい。
次いで、前記時間動きベクトル候補者ピクチャー内の時間動きベクトル候補者ブロックを求める。前記時間動きベクトル候補者ブロックは、時間スキップ動きベクトル候補者と同一である。前記時間動きベクトル候補者ブロックが定められれば、前記時間動きベクトル候補者ブロックの動きベクトルを時間動きベクトル候補者と設定する。
次いで、動きベクトル候補者リストを生成する(S340)。動きベクトル候補者リストは、有効な動きベクトル候補者のみを用いる。リストは、既定の順序で構築することが望ましい。既定の順序は、空間左側動きベクトル候補者、空間上側動きベクトル候補者、時間動きベクトル候補者の順に設定される。また、時間動きベクトル候補者、空間上側動きベクトル候補者順序、空間上側動きベクトル候補者の順に設定されてもよい。
但し、予測ユニットの予測モードによって空間動きベクトル候補者の順序が異なって設定されてもよく、一部空間動きベクトル候補者を候補者から排除してもよい。すなわち、符号化ユニットが2個の2N×Nの予測ユニットに分割される場合の下側の2N×N予測ブロックの場合には、空間上側動きベクトル候補者をリストから排除する。同様に、符号化ユニットが2個のN×2Nの予測ユニットに分割される場合の右側のN×2N予測ブロックの場合には、空間上側動きベクトル候補者と空間左側動きベクトル候補者との順序を切り替えるか、または空間左側動きベクトル候補者をリストから排除する。
一方、符号化ユニットが2個の2N×Nの予測ユニットに分割される場合の上側の2N×N予測ブロックはマージになる。しかし、マージにならない場合には、空間左側動きベクトル候補者を求める過程でDを除外するか、またはA、D順序で検索する。同様に、符号化ユニットが2個のN×2Nの予測ユニットに分割される場合の左側のN×2N予測ブロックはマージになる。しかし、マージにならない場合には、空間上側動きベクトル候補者を求める過程でCを除外するか、またはB、C、E順序で検索する。
次いで、動きベクトル候補者リストが構築され、複数の動きベクトル候補者が同一動きベクトルを持つようになれば、動きベクトル候補者リスト上で後順位の動きベクトル候補者を削除する。
次いで、現在予測ユニットの動きベクトル予測子を求める(S350)。
動きベクトルインデックスが予測ユニット内に存在する場合には、前記動きベクトル候補者リスト上の対応するインデックスの動きベクトル候補者を現在予測ユニットの動きベクトル予測子と定める。動きベクトルインデックスが予測ユニット内に存在しないものの、動きベクトル候補者が存在すれば、前記動きベクトル候補者を現在予測ユニットの動きベクトル予測子と設定する。もし、すべての候補者が有効でなければ、現在予測ユニットの動きベクトル予測子を0と設定する。
一方、動きベクトル候補者リストを設定する前に、予測ユニット内の動きベクトルインデックスを先ず読み取る。この場合には、動きベクトルインデックスが示す数ほどのみ既定の順序で有効な動きベクトル候補者を検出した後、動きベクトルインデックスに対応する動きベクトル候補者を現在予測ユニットの動きベクトルと設定する。動きベクトルインデックスは、固定長で符号化された情報であるが、可変長であることが望ましい。
現在予測ユニットの動きベクトル予測子が求められれば、受信された差分動きベクトルと前記動きベクトル予測子とを加えて現在予測ユニットの動きベクトルを復元する(S360)。次いで、前記復元された現在予測ユニットの動きベクトル及び受信された現在予測ユニットの参照ピクチャーインデックスを用いて予測ブロックを生成する(S370)。
また、変換ユニット単位で残差ブロックを復元する(S380)。残差ブロックは、エントロピー復号化、逆スキャン、逆量子化及び逆変換過程を通じて復元される。前記過程は、図2の動画復号化装置のエントロピー復号化部210、逆スキャニング部215、逆量子化部220、逆変換部225によって行われる。
最後に、前記生成された予測ブロック及び前記復元された残差ブロックを用いて復元ブロックを生成する(S390)。復元ブロックは、符号化ユニット単位で復元する。したがって、生成された予測ブロック及び復元された残差ブロックをそれぞれ符号化ユニット単位で作った後、前記符号化単位の予測ブロック及び符号化単位の残差ブロックを用いて復元ブロックを生成する。
以上、実施形態を参照して説明したが、当業者ならば、特許請求の範囲に記載した本発明の思想及び領域から逸脱しない範囲内で本発明を多様に修正及び変更できるということを理解できるであろう。
(付記1)
インター予測符号化方法において、
現在予測ユニットの動きベクトル及び参照ピクチャーインデックスを定める段階と、
前記現在予測ユニットと隣接している既定の位置の予測ユニットの有効な動きベクトルを空間動きベクトル候補者に誘導する段階と、
前記現在予測ユニットの有効な時間動きベクトル候補者を誘導する段階と、
前記有効な空間動きベクトル候補者及び時間動きベクトル候補者のうち一つを、現在予測ユニットの動きベクトル予測子と定める段階と、
前記現在予測ユニットの動きベクトルと前記定められた動きベクトル予測子との動きベクトル差値を求め、前記差値及び前記参照ピクチャーインデックスを符号化する段階と、を含み、
前記時間動きベクトル候補者は、以前に符号化された参照ピクチャー内の現在予測ユニットに対応する位置、またはその周辺に存在する予測ユニットの動きベクトルであることを特徴とするインター予測符号化方法。
(付記2)
前記時間動きベクトル候補者は、前記参照ピクチャー内の既定の第1位置及び第2位置の順序で検索して有効な動きベクトルと定められることを特徴とする付記1に記載のインター予測符号化方法。
(付記3)
前記参照ピクチャー内の既定の第1位置及び第2位置の動きベクトルがいずれも有効でない場合、前記時間動きベクトル候補者は有効でないと定めることを特徴とする付記2に記載のインター予測符号化方法。
(付記4)
スライスタイプが双方向予測である場合、前記時間動きベクトル候補者が属する参照ピクチャーを、リスト0の参照ピクチャー及びリスト1の参照ピクチャーのうち一つと定め、前記リストを特定する情報を符号化することを特徴とする付記1に記載のインター予測符号化方法。
(付記5)
前記時間動きベクトル候補者が使われるかどうかを判断し、前記情報を符号化することを特徴とする付記1に記載のインター予測符号化方法。
(付記6)
前記現在予測ユニットの有効な左側動きベクトル及び前記現在予測ユニットの有効な上側動きベクトルが前記空間動きベクトル候補者と定められることを特徴とする付記1に記載のインター予測符号化方法。
(付記7)
前記左側動きベクトル候補者は、前記現在予測ユニットの左側及び左下側に隣接している予測ユニットの動きベクトルを既定の順序で検索して得られた有効な動きベクトルであることを特徴とする付記6に記載のインター予測符号化方法。
(付記8)
前記上側動きベクトル候補者は、現在予測ユニットの上側、右上側及び左上側に隣接している予測ユニットの動きベクトルを既定の順序で検索して得られた有効な動きベクトルであることを特徴とする付記6に記載のインター予測符号化方法。
(付記9)
前記有効な空間動きベクトル候補者を適応的にスケーリングすることを特徴とする付記1に記載のインター予測符号化方法。
(付記10)
前記現在予測ユニットの参照ピクチャーと前記空間動きベクトル候補者の参照ピクチャーからの時間的距離によって前記有効な空間動きベクトル候補者をスケーリングすることを特徴とする付記1に記載のインター予測符号化方法。

Claims (2)

  1. イントラ予測モードインデックス、動き情報及び量子化された係数列を復元するエントロピー復号化部と、
    量子化された変換ブロックのサイズが既定のサイズより大きければ、前記量子化された係数列をサブセット単位で逆スキャンして前記量子化された変換ブロックを生成する逆スキャニング部と、
    量子化ステップサイズ予測子を生成し、前記量子化ステップサイズ予測子に残余量子化ステップサイズを加えて量子化ステップサイズを復元し、前記量子化ステップサイズを用いて前記量子化された変換ブロックを逆量子化し、変換ブロックを生成する逆量子化部と、
    前記変換ブロックを逆変換して残差ブロックを生成する逆変換部と、
    現在ブロックがインター予測モードで符号化された場合に、前記現在ブロックの動きベクトル予測子を定め、前記動きベクトル予測子を用いて前記現在ブロックの動きベクトルを復元し、前記動きベクトルを使って前記現在ブロックの予測ブロックを生成するインター予測部と、
    前記現在ブロックがイントラ予測モードで符号化された場合に、前記現在ブロックのイントラ予測モードを復元し、前記イントラ予測モードによって前記現在ブロックの予測ブロックを生成するイントラ予測部と、を備え、
    前記動きベクトル予測子は、現在予測ユニットの有効な空間動きベクトル候補または有効な時間動きベクトル候補であり、前記時間動きベクトル候補は、参照ピクチャー内の既定の第1位置の動きベクトルと第2位置の動きベクトルとを順次に検索して得られる最初の有効な動きベクトルであり、
    現在コーディングユニットの左側、上側及び直前のコーディングユニットのみを用いて前記現在コーディングユニットの量子化ステップサイズ予測子を定めるが、前記現在コーディングユニットの左側コーディングユニットの量子化ステップサイズ及び上側コーディングユニットの量子化ステップサイズが有効ではない場合、スキャン順序上、直前のコーディングユニットの量子化ステップサイズを前記量子化ステップサイズ予測子と定め、
    前記現在ブロックがイントラ予測モードで符号化された場合に、前記逆スキャニング部は、前記量子化された係数列に前記イントラ予測モードによって定められたスキャンパターンを適用して複数のサブセットを復元し、前記複数のサブセットに前記イントラ予測モードによって定められたスキャンパターンを適用して前記量子化された変換ブロックを復元し、前記量子化された係数列から前記複数のサブセットを復元するためのスキャンパターンと、前記複数のサブセットから前記量子化された変換ブロックを復元するためのスキャンパターンとは、同一であることを特徴とする動画復号化装置。
  2. 前記逆スキャニング部は、前記複数のサブセットを逆方向に逆スキャンすることを特徴とする請求項1に記載の動画復号化装置。
JP2016199645A 2010-08-17 2016-10-11 動画復号化装置 Active JP6242979B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100079530 2010-08-17
KR10-2010-0079530 2010-08-17
KR1020110064306A KR20120016991A (ko) 2010-08-17 2011-06-30 인터 프리딕션 방법
KR10-2011-0064306 2011-06-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013524785A Division JP6025726B2 (ja) 2010-08-17 2011-08-12 動画復号化装置

Publications (2)

Publication Number Publication Date
JP2017005764A JP2017005764A (ja) 2017-01-05
JP6242979B2 true JP6242979B2 (ja) 2017-12-06

Family

ID=45839101

Family Applications (11)

Application Number Title Priority Date Filing Date
JP2013524785A Active JP6025726B2 (ja) 2010-08-17 2011-08-12 動画復号化装置
JP2016199644A Active JP6242978B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199648A Expired - Fee Related JP6242982B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199650A Expired - Fee Related JP6242984B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199647A Active JP6242981B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199649A Expired - Fee Related JP6242983B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199652A Active JP6321749B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199653A Active JP6321750B2 (ja) 2010-08-17 2016-10-11 映像符号化装置
JP2016199645A Active JP6242979B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199651A Expired - Fee Related JP6242985B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199646A Active JP6242980B2 (ja) 2010-08-17 2016-10-11 動画復号化装置

Family Applications Before (8)

Application Number Title Priority Date Filing Date
JP2013524785A Active JP6025726B2 (ja) 2010-08-17 2011-08-12 動画復号化装置
JP2016199644A Active JP6242978B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199648A Expired - Fee Related JP6242982B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199650A Expired - Fee Related JP6242984B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199647A Active JP6242981B2 (ja) 2010-08-17 2016-10-11 動画復号化装置
JP2016199649A Expired - Fee Related JP6242983B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199652A Active JP6321749B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199653A Active JP6321750B2 (ja) 2010-08-17 2016-10-11 映像符号化装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016199651A Expired - Fee Related JP6242985B2 (ja) 2010-08-17 2016-10-11 動画符号化装置
JP2016199646A Active JP6242980B2 (ja) 2010-08-17 2016-10-11 動画復号化装置

Country Status (16)

Country Link
US (13) US9544611B2 (ja)
EP (7) EP3145188B1 (ja)
JP (11) JP6025726B2 (ja)
KR (10) KR20120016991A (ja)
CN (9) CN104602022B (ja)
DK (2) DK3958564T3 (ja)
ES (6) ES2952358T3 (ja)
FI (1) FI3145188T3 (ja)
HR (2) HRP20230005T1 (ja)
HU (2) HUE063254T2 (ja)
LT (1) LT3145188T (ja)
PL (6) PL3145188T3 (ja)
PT (6) PT3145188T (ja)
RS (2) RS63977B1 (ja)
SI (1) SI3145188T1 (ja)
WO (1) WO2012023763A2 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102037328B1 (ko) * 2007-10-16 2019-10-28 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CA2857849C (en) * 2010-04-23 2020-02-11 Soo Mi Oh Apparatus and method for encoding a moving picture
US10104391B2 (en) 2010-10-01 2018-10-16 Dolby International Ab System for nested entropy encoding
US20120082228A1 (en) 2010-10-01 2012-04-05 Yeping Su Nested entropy encoding
EP2654301A4 (en) * 2010-12-14 2016-02-17 M&K Holdings Inc METHOD FOR INTER-PREDICTIVE DECODING OF ENCODED FILMS
EP2938082B1 (en) * 2011-01-07 2017-03-22 Ntt Docomo, Inc. Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and predictive decoding method, predictive decoding device, and predictive decoding program of motion vector
US9635382B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for determining a motion vector
KR102232113B1 (ko) * 2011-03-21 2021-03-25 엘지전자 주식회사 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치
CN105376577A (zh) * 2011-08-29 2016-03-02 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
KR102512333B1 (ko) 2011-10-18 2023-03-22 엘지전자 주식회사 인트라 예측 방법 및 그 장치
KR102072124B1 (ko) * 2011-11-24 2020-02-04 에스케이텔레콤 주식회사 세밀한 예측 단위를 사용하는 효과적인 부호화/복호화 방법 및 장치
CN104255031B (zh) * 2012-02-29 2017-12-22 Lg 电子株式会社 层间预测方法和使用层间预测方法的装置
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
BR112015008460A2 (pt) * 2012-11-06 2017-07-04 Nec Corp método de codificação de vídeo, dispositivo de codificação de vídeo, e programa de codificação de vídeo
KR20150099797A (ko) * 2013-01-07 2015-09-01 미디어텍 인크. 3차원 비디오 코딩에서의 직접 모드 및 스킵 모드에 대한 공간 모션 벡터 예측 유도 방법 및 장치
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
CN105379276A (zh) 2013-07-15 2016-03-02 株式会社Kt 可伸缩视频信号编码/解码方法和装置
CN105379277B (zh) 2013-07-15 2019-12-17 株式会社Kt 用于编码/解码可伸缩视频信号的方法和装置
GB2534591A (en) * 2015-01-29 2016-08-03 Nokia Technologies Oy Video encoding and decoding
CN115134609A (zh) 2015-06-11 2022-09-30 杜比实验室特许公司 使用自适应去块滤波编码和解码图像的方法及其装置
CN114697679A (zh) * 2015-09-11 2022-07-01 株式会社Kt 图像解码方法、图像编码方法和包括比特流的设备
CN108353168B (zh) * 2015-11-20 2023-04-21 韩国电子通信研究院 对图像进行编/解码的方法和编/解码图像的装置
US11563938B2 (en) 2016-02-15 2023-01-24 Qualcomm Incorporated Geometric transforms for filters for video coding
MX2019003553A (es) 2016-09-30 2019-08-12 Huawei Tech Co Ltd Metodo de codificacion de video, metodo de decodificacion de video y terminal.
US10506230B2 (en) 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
CN110546956B (zh) 2017-06-30 2021-12-28 华为技术有限公司 一种帧间预测的方法及装置
EP3451664A1 (en) * 2017-09-01 2019-03-06 Thomson Licensing Motion compensation at a finer precision than motion vector differential
WO2019183906A1 (zh) 2018-03-29 2019-10-03 华为技术有限公司 帧间预测的方法和装置
WO2019192170A1 (zh) * 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 视频图像处理方法与装置
CN117061738A (zh) 2018-04-02 2023-11-14 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
CN110662059B (zh) 2018-06-29 2021-04-20 北京字节跳动网络技术有限公司 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
CN115134599A (zh) * 2018-06-29 2022-09-30 抖音视界有限公司 更新查找表(lut)的条件
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
KR102646649B1 (ko) 2018-06-29 2024-03-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
WO2020086317A1 (en) * 2018-10-23 2020-04-30 Tencent America Llc. Method and apparatus for video coding
EP3847814A4 (en) * 2018-11-06 2021-07-14 Beijing Bytedance Network Technology Co. Ltd. POSITION DEPENDENT STORAGE, MOVEMENT INFORMATION
CN111385575A (zh) 2018-12-29 2020-07-07 华为技术有限公司 帧间预测方法、装置以及相应的编码器和解码器
US11032574B2 (en) 2018-12-31 2021-06-08 Tencent America LLC Method and apparatus for video coding
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN118075478A (zh) 2019-03-21 2024-05-24 Sk电信有限公司 编解码视频数据的当前块的方法及提供视频数据的方法
CN111866515B (zh) * 2019-04-30 2022-03-04 杭州海康威视数字技术股份有限公司 一种矢量差解码方法、装置及电子设备
JP7522135B2 (ja) 2019-05-11 2024-07-24 北京字節跳動網絡技術有限公司 複数のイントラ符号化方法の相互作用
MX2021015524A (es) 2019-06-14 2022-02-03 Lg Electronics Inc Metodo y dispositivo de codificacion de imagenes usando diferencias de vectores de movimiento.
JP7437426B2 (ja) 2019-09-24 2024-02-22 オッポ広東移動通信有限公司 インター予測方法および装置、機器、記憶媒体
MX2022006967A (es) * 2019-12-12 2022-09-19 Lg Electronics Inc Codificacion de video o imagen empleando filtro de bucle adaptivo.
CN113766227B (zh) * 2020-06-06 2023-07-11 华为技术有限公司 用于图像编码和解码的量化和反量化方法及装置
WO2024071680A1 (ko) * 2022-09-29 2024-04-04 현대자동차주식회사 분리 불가능한 1차 변환 기반 비디오 코딩을 위한 방법 및 장치

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256298A (ja) * 1991-02-08 1992-09-10 Toshiba Corp 動画像符号化装置
US5317397A (en) * 1991-05-31 1994-05-31 Kabushiki Kaisha Toshiba Predictive coding using spatial-temporal filtering and plural motion vectors
US6005627A (en) * 1991-05-31 1999-12-21 Kabushiki Kaisha Toshiba Video coding apparatus
JP2531106B2 (ja) * 1993-08-17 1996-09-04 日本電気株式会社 動画像符号化制御方式
US5745183A (en) * 1995-08-25 1998-04-28 Thomson Consumer Electronics, Inc. Image motion estimation system which derives candidate block from interpolated motion vectors
US5832125A (en) * 1995-12-07 1998-11-03 Intel Corporation Bit rate control using short-term and long-term performance characterization
CN1183769C (zh) * 1996-05-28 2005-01-05 松下电器产业株式会社 图像预测编码/解码装置和方法以及记录媒体
CN1140130C (zh) * 1997-02-08 2004-02-25 松下电器产业株式会社 静画和动画编码的量化矩阵
US6195389B1 (en) * 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
CN1248509C (zh) * 2001-02-13 2006-03-29 皇家菲利浦电子有限公司 运动信息编码和解码方法
KR100642043B1 (ko) * 2001-09-14 2006-11-03 가부시키가이샤 엔티티 도코모 부호화 방법, 복호 방법, 부호화 장치, 복호 장치, 화상 처리 시스템, 및 저장 매체
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
WO2003053066A1 (en) * 2001-12-17 2003-06-26 Microsoft Corporation Skip macroblock coding
KR100454501B1 (ko) * 2001-12-26 2004-10-28 브이케이 주식회사 영상신호를 부호화 또는 복호화하기 위한 예측 장치 및 방법
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
US6690307B2 (en) * 2002-01-22 2004-02-10 Nokia Corporation Adaptive variable length coding of digital video
US7386048B2 (en) * 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
KR100534207B1 (ko) * 2002-12-09 2005-12-08 삼성전자주식회사 비디오 부호화기의 움직임 추정기 및 그 방법
EP1582060A4 (en) * 2003-01-10 2009-09-23 Thomson Licensing SCHEDULE DECISION FOR INTERFRAME ENCODING
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
CN1194544C (zh) * 2003-04-25 2005-03-23 北京工业大学 基于时空域相关性运动矢量预测的视频编码方法
CN1263309C (zh) * 2003-06-27 2006-07-05 中国科学院计算技术研究所 用于视频编码的运动矢量预测方法
US7738554B2 (en) * 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7369707B2 (en) * 2003-10-28 2008-05-06 Matsushita Electric Industrial Co., Ltd. Intra-picture prediction coding method
KR100596706B1 (ko) * 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
EP1592248B1 (en) * 2004-04-30 2006-09-20 Matsushita Electric Industrial Co., Ltd. Motion vector estimation employing adaptive temporal prediction
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
US7830960B2 (en) * 2005-01-13 2010-11-09 Qualcomm Incorporated Mode selection techniques for intra-prediction video encoding
WO2006078125A1 (en) * 2005-01-21 2006-07-27 Samsung Electronics Co., Ltd. Video coding method and apparatus for efficiently predicting unsynchronized frame
CN1658673A (zh) * 2005-03-23 2005-08-24 南京大学 视频压缩编解码方法
US20070098069A1 (en) * 2005-04-27 2007-05-03 Stephen Gordon Inverse scan, coefficient, inverse quantization and inverse transform system and method
US8761259B2 (en) * 2005-09-22 2014-06-24 Qualcomm Incorporated Multi-dimensional neighboring block prediction for video encoding
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
US20100232505A1 (en) * 2006-02-17 2010-09-16 Thomson Licensing Process for Coding Images Using Intra Prediction Mode
JP4820191B2 (ja) * 2006-03-15 2011-11-24 富士通株式会社 動画像符号化装置及びプログラム
KR101311402B1 (ko) * 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
US8165202B1 (en) * 2006-03-31 2012-04-24 Texas Instruments Incorporated Video compression rate
US7995649B2 (en) * 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US7974340B2 (en) * 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
CN101072356B (zh) * 2006-05-12 2011-02-09 中国科学院计算技术研究所 一种运动矢量预测方法
WO2008053746A1 (fr) 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme
US8243797B2 (en) * 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US20100215101A1 (en) * 2007-04-09 2010-08-26 Yong Joon Jeon Method and an apparatus for processing a video signal
US8160150B2 (en) * 2007-04-10 2012-04-17 Texas Instruments Incorporated Method and system for rate distortion optimization
CN101321283B (zh) * 2007-06-10 2010-04-07 华为技术有限公司 兼容不同大小块变换的编解码方法及编解码器
US8345968B2 (en) * 2007-06-28 2013-01-01 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
CN101340578A (zh) * 2007-07-03 2009-01-07 株式会社日立制作所 运动矢量估计装置、编码器及摄像机
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
US8938009B2 (en) * 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
KR102037328B1 (ko) * 2007-10-16 2019-10-28 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
JP2009212900A (ja) 2008-03-05 2009-09-17 Nec Electronics Corp 画像復号化装置及び画像復号化方法
KR20090097013A (ko) * 2008-03-10 2009-09-15 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
KR101431545B1 (ko) * 2008-03-17 2014-08-20 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
EP2266318B1 (en) * 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
WO2010021700A1 (en) * 2008-08-19 2010-02-25 Thomson Licensing A propagation map
US8634457B2 (en) * 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
US8660176B2 (en) * 2008-09-26 2014-02-25 Qualcomm Incorporated Resolving geometric relationships among video data units
US8805106B2 (en) * 2008-09-26 2014-08-12 Futurewei Technologies, Inc. System and method for compressing and decompressing images and video
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
CN101686393B (zh) * 2008-09-28 2012-10-17 华为技术有限公司 应用于模板匹配的快速运动搜索方法及装置
US20100104022A1 (en) * 2008-10-24 2010-04-29 Chanchal Chatterjee Method and apparatus for video processing using macroblock mode refinement
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
US20100296579A1 (en) * 2009-05-22 2010-11-25 Qualcomm Incorporated Adaptive picture type decision for video coding
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US9036692B2 (en) * 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
US9100649B2 (en) * 2010-02-10 2015-08-04 Lg Electronics Inc. Method and apparatus for processing a video signal
US20110194613A1 (en) * 2010-02-11 2011-08-11 Qualcomm Incorporated Video coding with large macroblocks
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US20110268180A1 (en) * 2010-04-29 2011-11-03 Naveen Srinivasamurthy Method and System for Low Complexity Adaptive Quantization
KR102233820B1 (ko) * 2010-05-26 2021-03-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8930562B2 (en) * 2010-07-20 2015-01-06 Qualcomm Incorporated Arranging sub-track fragments for streaming video data
ES2682102T3 (es) * 2010-12-21 2018-09-18 Ntt Docomo, Inc. Codificación y descodificación de intra-predicción en un modo plano
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
US20130251028A1 (en) * 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
US9538172B2 (en) * 2012-04-11 2017-01-03 Qualcomm Incorporated Grouping bypass coded syntax elements in video coding
JP6553925B2 (ja) * 2015-04-09 2019-07-31 東洋スチレン株式会社 スチレン系樹脂組成物及び成形体
JP6569278B2 (ja) * 2015-04-09 2019-09-04 東洋インキScホールディングス株式会社 顔料組成物およびその製造方法、並びにインクジェットインキ

Also Published As

Publication number Publication date
KR20140057396A (ko) 2014-05-12
PT3958559T (pt) 2023-06-30
CN107087197B (zh) 2020-01-17
EP3145188A3 (en) 2017-08-16
FI3145188T3 (fi) 2023-03-20
CN107087198B (zh) 2020-01-17
US10979731B2 (en) 2021-04-13
US20170085902A1 (en) 2017-03-23
US10602181B2 (en) 2020-03-24
HRP20230005T1 (hr) 2023-02-17
US9807414B2 (en) 2017-10-31
US10015516B2 (en) 2018-07-03
KR20180015686A (ko) 2018-02-13
PL3958560T3 (pl) 2023-10-02
HRP20230575T1 (hr) 2023-09-01
EP3958562A1 (en) 2022-02-23
JP2017034706A (ja) 2017-02-09
CN106878747A (zh) 2017-06-20
PL3958559T3 (pl) 2023-11-06
US20170085899A1 (en) 2017-03-23
US20200195957A1 (en) 2020-06-18
CN104602023B (zh) 2018-01-23
JP2017005764A (ja) 2017-01-05
ES2952359T3 (es) 2023-10-31
EP3958560B1 (en) 2023-06-07
DK3145188T3 (da) 2023-03-20
CN104602021B (zh) 2016-09-21
JP6242978B2 (ja) 2017-12-06
JP2017041902A (ja) 2017-02-23
CN106878747B (zh) 2019-08-30
HUE061766T2 (hu) 2023-08-28
KR20130051444A (ko) 2013-05-20
SI3145188T1 (sl) 2023-02-28
US10237572B2 (en) 2019-03-19
US20170085903A1 (en) 2017-03-23
CN106878746A (zh) 2017-06-20
PT3958563T (pt) 2023-07-04
JP2017034705A (ja) 2017-02-09
EP3958563A1 (en) 2022-02-23
PT3958560T (pt) 2023-07-03
US10931966B2 (en) 2021-02-23
EP3958559B1 (en) 2023-06-07
CN107087197A (zh) 2017-08-22
LT3145188T (lt) 2023-01-25
CN106878748B (zh) 2019-12-06
US20170085900A1 (en) 2017-03-23
KR20190049919A (ko) 2019-05-09
JP6242984B2 (ja) 2017-12-06
EP3958564B1 (en) 2023-06-07
US20170085910A1 (en) 2017-03-23
CN104602022B (zh) 2016-06-01
CN104602021A (zh) 2015-05-06
US9794585B2 (en) 2017-10-17
PT3958562T (pt) 2023-06-30
ES2939615T3 (es) 2023-04-25
ES2954981T3 (es) 2023-11-27
RS64413B1 (sr) 2023-09-29
EP3145188B1 (en) 2022-12-21
KR101430048B1 (ko) 2014-08-18
ES2954979T3 (es) 2023-11-27
EP3145188A2 (en) 2017-03-22
JP2017041901A (ja) 2017-02-23
WO2012023763A2 (ko) 2012-02-23
PT3958564T (pt) 2023-06-22
DK3958564T3 (da) 2023-08-14
US20170085909A1 (en) 2017-03-23
ES2952358T3 (es) 2023-10-31
KR20130099244A (ko) 2013-09-05
EP2608543A4 (en) 2014-08-06
JP6242980B2 (ja) 2017-12-06
JP6242983B2 (ja) 2017-12-06
CN106878746B (zh) 2020-03-27
CN103190151A (zh) 2013-07-03
US10116958B2 (en) 2018-10-30
EP3958563B1 (en) 2023-06-07
ES2952357T3 (es) 2023-10-31
HUE063254T2 (hu) 2024-01-28
PT3145188T (pt) 2023-01-23
KR20140057397A (ko) 2014-05-12
JP2017034707A (ja) 2017-02-09
KR101430049B1 (ko) 2014-08-14
JP6025726B2 (ja) 2016-11-16
EP3958562B1 (en) 2023-06-07
RS63977B1 (sr) 2023-03-31
JP2017005763A (ja) 2017-01-05
CN103190151B (zh) 2017-02-15
US20170085901A1 (en) 2017-03-23
EP3958559A1 (en) 2022-02-23
JP6242982B2 (ja) 2017-12-06
US9955180B2 (en) 2018-04-24
US20170085898A1 (en) 2017-03-23
JP2017041900A (ja) 2017-02-23
US20200195958A1 (en) 2020-06-18
CN104602023A (zh) 2015-05-06
US20170085908A1 (en) 2017-03-23
PL3958564T3 (pl) 2023-10-02
KR20120016991A (ko) 2012-02-27
US20190158872A1 (en) 2019-05-23
CN104602022A (zh) 2015-05-06
CN106878748A (zh) 2017-06-20
EP3958560A1 (en) 2022-02-23
PL3958562T3 (pl) 2023-10-09
US20130022122A1 (en) 2013-01-24
JP2017041899A (ja) 2017-02-23
US9544611B2 (en) 2017-01-10
JP2017041898A (ja) 2017-02-23
EP2608543A2 (en) 2013-06-26
JP2013537772A (ja) 2013-10-03
US9794586B2 (en) 2017-10-17
EP3958564A1 (en) 2022-02-23
WO2012023763A3 (ko) 2012-05-10
JP6321749B2 (ja) 2018-05-09
KR20180018591A (ko) 2018-02-21
KR20140057675A (ko) 2014-05-13
PL3958563T3 (pl) 2023-10-09
PL3145188T3 (pl) 2023-04-17
US9877039B2 (en) 2018-01-23
KR20130099243A (ko) 2013-09-05
JP6242981B2 (ja) 2017-12-06
CN107087198A (zh) 2017-08-22
JP6321750B2 (ja) 2018-05-09
US9894380B2 (en) 2018-02-13
JP6242985B2 (ja) 2017-12-06

Similar Documents

Publication Publication Date Title
JP6242978B2 (ja) 動画復号化装置
US11689734B2 (en) Method for generating prediction block in AMVP mode
KR101316060B1 (ko) 인터 예측 부호화된 동영상 복호화 방법
KR20130067280A (ko) 인터 예측 부호화된 동영상 복호화 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171108

R150 Certificate of patent or registration of utility model

Ref document number: 6242979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250