JP2016028517A - 映像データを復号化する方法 - Google Patents

映像データを復号化する方法 Download PDF

Info

Publication number
JP2016028517A
JP2016028517A JP2015203553A JP2015203553A JP2016028517A JP 2016028517 A JP2016028517 A JP 2016028517A JP 2015203553 A JP2015203553 A JP 2015203553A JP 2015203553 A JP2015203553 A JP 2015203553A JP 2016028517 A JP2016028517 A JP 2016028517A
Authority
JP
Japan
Prior art keywords
block
prediction
quantization parameter
quantization
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015203553A
Other languages
English (en)
Other versions
JP6074475B2 (ja
Inventor
ソー ミ オー
Soo Mi Oh
ソー ミ オー
ヤン ムーノック
Moonock Yang
ヤン ムーノック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infobridge Pte Ltd
Original Assignee
Infobridge Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infobridge Pte Ltd filed Critical Infobridge Pte Ltd
Publication of JP2016028517A publication Critical patent/JP2016028517A/ja
Application granted granted Critical
Publication of JP6074475B2 publication Critical patent/JP6074475B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】映像データを復号化する好適な方法を提供すること。【解決手段】本発明による方法では、現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導し、前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成し、量子化係数成分を逆スキャンして量子化ブロックを生成し、量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成し、前記変換ブロックを逆変換して残差ブロックを形成し、前記予測ブロックと残差ブロックを利用して復元ブロックを生成する。予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成される。したがって、多様なマージ候補を利用して動き情報の符号化効率が向上する。また、動きベクトルにより決定される予測画素の位置に応じて異なるフィルタを選択することで、符号器及び復号器の演算複雑度を減らすことができる。【選択図】図1

Description

本発明は、映像データを復号化する方法に関し、より詳しくは、空間及び時間マージ候補を利用してマージリストを構築することによって、マージモードにおける動き情報を誘導し、前記動き情報を利用して予測ブロックを生成する方法に関する。
映像データを圧縮する方法には、MPEG−2、MPEG−4及びH.264/MPEG−4 AVCがある。前記方法によると、一つのピクチャが複数個のマクロブロックに分割され、イントラ予測又はインター予測を利用して予測ブロックを生成することによって、各々のマクロブロックを符号化して映像を符号化する。原本ブロックと予測ブロックとの残差ブロックが変換されて変換ブロックを生成し、変換ブロックは、量子化パラメータと予め決められた量子化マトリクスを利用して量子化される。量子化ブロックの量子化係数は、予め決められたスキャンパターンを利用してスキャンされ、エントロピー符号化される。前記量子化パラメータは、マクロブロック毎に調節され、以前量子化パラメータを利用して符号化される。
H.264/MPEG−4 AVCでは、時間的重複性を除去するために、連続されるピクチャ間の動き予測が利用される。時間的重複性を検出するために、現在ブロックの動きを予測するために複数個の参照ピクチャが検査され、予測ブロックを生成するために動き情報を利用して動き補償が実行される。動き情報は、一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを含む。
H.264/MPEG−4 AVCによると、動きベクトルのみが隣接動きベクトルを利用して予測符号化され、参照ピクチャインデックスは、隣接参照ピクチャインデックスを利用せずに符号化される。また、予測ブロックが長いタッブ数のフィルタを使用して補間されるため、予測ブロックを生成するための演算複雑度が高い。
しかし、多様なサイズを利用してインター予測が実行されると、現在ブロックの動き情報と一つ以上の隣接ブロックの動き情報との間の連関性が増加するようになる。また、映像の動きが停止し、又は遅く動く場合は、ピクチャサイズが増加するにつれて現在ブロックの動きベクトルと参照ピクチャ内の隣接ブロックの動きベクトルとの間の連関性が大きくなるようになる。したがって、前述した従来の圧縮方法では、ピクチャのサイズが高画質サイズ(HD size)より大きくなり、多様なサイズが動き予測及び動き補償に使われる場合、動き情報の圧縮効率が落ちる問題がある。
本発明が達成しようとする目的は、空間及び時間マージ候補を利用してマージリストを構築することによって動き情報を誘導し、動きベクトルにより決定されるフィルタを利用して予測ブロックを生成する方法を提供することである。
本発明による映像データを復号化する方法は、現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導し、前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成し、量子化係数成分を逆スキャンして量子化ブロックを生成し、量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成し、前記変換ブロックを逆変換して残差ブロックを形成し、前記予測ブロックと残差ブロックを利用して復元ブロックを生成する。予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成される。
例えば、本願発明は以下の項目を提供する。
(項目1)
映像データを復号化する方法において、
現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導するステップ;
前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成するステップ;
量子化係数成分を逆スキャンして量子化ブロックを生成するステップ;
量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成するステップ;
前記変換ブロックを逆変換して残差ブロックを形成するステップ;及び、
前記予測ブロックと残差ブロックを利用して復元ブロックを生成するステップ;を含み、
前記予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成されることを特徴とする方法。
(項目2)
前記動きベクトルが1/4画素位置を示す場合、前記補間フィルタは、7タッブ非対称フィルタ又は6タッブ非対称フィルタであることを特徴とする項目1に記載の方法。
(項目3)
前記量子化パラメータは、量子化ユニット毎に誘導され、前記量子化ユニットのサイズは、コーディングユニットの許容可能なサイズのうち一つであることを特徴とする項目1に記載の方法。
(項目4)
前記量子化パラメータは、差分量子化パラメータ及び量子化パラメータ予測子を利用して誘導されることを特徴とする項目3に記載の方法。
(項目5)
前記量子化パラメータ予測子は、左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータのうち、少なくとも2個が有効な場合、有効な2個の量子化パラメータの平均値であることを特徴とする項目4に記載の方法。
(項目6)
前記現在コーディングユニットがピクチャ又はスライスの上側に位置する場合、左側量子化パラメータ及び以前量子化パラメータの平均値であることを特徴とする項目5に記載の方法。
(項目7)
現在フィルタのタッブ数は、前記動きベクトルの予測画素位置により決定されることを特徴とする項目1に記載の方法。
本発明による方法では、現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導し、前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成し、量子化係数成分を逆スキャンして量子化ブロックを生成し、量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成し、前記変換ブロックを逆変換して残差ブロックを形成し、前記予測ブロックと残差ブロックを利用して復元ブロックを生成する。予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成される。したがって、多様なマージ候補を利用して動き情報の符号化効率が向上する。また、動きベクトルにより決定される予測画素の位置に応じて異なるフィルタを選択することで、符号器及び復号器の演算複雑度を減らすことができる。
本発明による映像符号化装置を示すブロック図である。 本発明によるインター予測モードにおける映像データを符号化する方法を説明するフローチャートである。 本発明による動きベクトルにより指示される画素位置を説明する概念図である。 本発明によるマージモードにおける動き情報を符号化する方法を説明するフローチャートである。 本発明による空間マージ候補ブロックの位置を説明する概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。 本発明による時間マージ候補ブロックの位置を説明する概念図である。 本発明による動き情報を格納する方法を説明する概念図である。 本発明による映像復号化装置を示すブロック図である。 本発明によるインター予測モードにおける映像を復号化する方法を説明するフローチャートである。 本発明によるマージモードにおける動き情報を誘導する方法を説明するフローチャートである。 本発明によるインター予測モードにおける残差ブロックを生成する過程を説明するフローチャートである。
以下、本発明の多様な実施例を例示図面を参照して詳細に説明する。本発明は、多様な変更を加えることができ、多様な実施例を有することができ、本発明を特定の実施形態に対して限定するものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むと理解しなければならない。各図面の説明において、類似の構成要素に対して類似の参照符号を使用した。
本発明による映像符号化装置及び映像復号化装置は、パソコン、個人携帯端末、移動マルチメディアプレーヤー、スマートフォン又は無線通信ターミナルなどのようにユーザターミナルである。前記映像符号化装置及び映像復号化装置は、多様な機器と通信する通信ユニットと、映像を符号化又は復号化するために多様なプログラムとデータを格納するためのメモリとを具備する。
図1は、本発明による映像符号化装置100を示すブロック図である。
図1を参照すると、本発明による映像符号化装置100は、ピクチャ分割部110、イントラ予測部120、インター予測部130、変換部140、量子化部150、スキャニング部160、エントロピー符号化部170、逆量子化/逆変換部180、後処理部190及びピクチャ格納部195を含む。
ピクチャ分割部110は、ピクチャ又はスライスを複数個のLCU(Largest Coding Unit)に分割し、前記各々のLCUを一つ以上のコーディングユニットに分割する。LCUのサイズは、32×32、64×64又は128×128である。ピクチャ分割部110は、各コーディングユニットの予測モード及び分割モード(partitioning mode)を決定する。
一つのLCUは、一個又は複数個のコーディングユニット(coding unit)を含む。前記LCUは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。コーディングユニットの最大サイズ及び最小サイズを示す情報がシーケンスパラメータセット(sequence parameter set)に含まれる。前記分割構造は、一個又は複数個の分割コーディングユニットフラグ(split_cu_flag)を利用して特定される。コーディングユニットは、2N×2Nのサイズを有する。LCUのサイズが64×64であり、且つ最小コーディングユニット(SCU:smallest coding unit)が8×8の場合、コーディングユニットは、64×64、32×32、16×16又は8×8である。
コーディングユニットは、一個又は複数個の予測ユニット(prediction unit)を含む。イントラ予測において、前記予測ユニットのサイズは、2N×2N又はN×Nである。インター予測において、前記予測ユニットのサイズは、前記分割モードにより特定される。コーディングユニットが対称に分割されると、分割モードは、2N×2N、2N×N、N×2N及びN×Nのうち一つである。コーディングユニットが非対称に分割されると、分割モードは、2N×nU、2N×nD、nL×2N及びnR×2Nのうち一つである。ハードウェアの複雑度を減らすために、コーディングユニットのサイズに基づいて分割モードが許容される。コーディングユニットが最小サイズを有する場合、非対称分割が許容されない。また、コーディングユニットが最小サイズを有する場合、N×N分割モードが許容されない。
コーディングユニットは、一個又は複数個の変換ユニット(transform unit)を含む。変換ユニットは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。分割構造は、一個又は複数個の分割変換ユニットフラグ(split_tu_flag)により表現される。変換ユニットの最大サイズ及び最小サイズを示すパラメータがシーケンスパラメータセットに含まれる。
イントラ予測部120は、現在予測ユニットのイントラ予測モードを決定し、前記イントラ予測モードを利用して予測ブロックを生成する。
インター予測部130は、ピクチャ格納部195に格納されている一つ以上の参照ピクチャを利用して現在予測ユニットの動き情報を決定し、前記予測ユニットの予測ブロックを生成する。前記動き情報は、参照ピクチャを示す一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを含む。
変換部140は、残差ブロックを変換して変換ブロックを生成する。前記残差ブロックは、変換ユニットのサイズを有する。予測ユニットが変換ユニットより大きい場合、現在ブロックと予測ブロックとの間の残差信号は、複数個の残差ブロックに分割される。
量子化部150は、前記変換ブロックを量子化するための量子化パラメータを決定する。量子化パラメータは、量子化ステップサイズを意味する。量子化パラメータは、量子化ユニット毎に決定される。量子化ユニットのサイズは、変更されることができ、コーディングユニットの許容可能なサイズのうち一つである。コーディングユニットのサイズが最小サイズより大きい又は同じ場合、前記コーディングユニットは、量子化ユニットになる。複数個のコーディングユニットが最小サイズの量子化ユニットに含まれることもできる。量子化ユニットの最小サイズは、ピクチャ毎に決定され、量子化ユニットの最小サイズを特定するパラメータは、ピクチャパラメータセット(picture parameter set)に含まれる。
量子化部150は、量子化パラメータ予測子を生成し、量子化パラメータから量子化パラメータ予測子を減算して差分量子化パラメータを生成する。前記差分量子化パラメータは、符号化される。
前記量子化パラメータ予測子は、隣接コーディングユニットの量子化パラメータ及び以前コーディングユニットの量子化パラメータを利用して下記のように生成される。
左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータは、前記順序通りに検索される。少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。即ち、前記上側及び左側量子化パラメータが利用可能な場合、前記上側及び左側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記上側及び左側量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前パラメータの平均値が前記量子化パラメータ予測子に設定される。前記上側及び左側量子化パラメータが両方とも利用可能でない場合、前記以前量子化パラメータが前記量子化パラメータ予測子に設定される。前記平均値は、四捨五入した値である。
前記差分量子化パラメータは、二進化過程を介して前記差分量子化パラメータの絶対値を示すビン(bin)と前記差分量子化パラメータの符号を示すビンに変換され、前記ビンは、算術符号化される。dQPの絶対値が0の場合、符号を示すビンは省略されることができる。トランケーテッドユーナリ(truncated unary)方式が前記絶対値の二進化表現に使われる。
量子化部150は、量子化マトリクス及び量子化パラメータを利用して変換ブロックを量子化することによって量子化ブロックを生成する。量子化ブロックは、逆量子化/逆変換部180に提供される。
スキャニング部160は、量子化ブロックにスキャンパターンを適用する。
インター予測では、エントロピー符号化のためにCABACが使われると、対角線スキャンがスキャンパターンとして使われる。量子化ブロックの量子化係数は、量子化係数成分に分離される。前記量子化係数成分は、重要フラグ(significant flags)、係数符号(coefficient signs)及び係数レベル(coefficient levels)である。対角線スキャンが前記係数成分の各々に適用される。重要フラグは、対応する量子化係数が0であるか否かを示す。係数符号は、0でない量子化係数の符号を示す。係数レベルは、0でない量子化係数の絶対値を示す。
変換ユニットのサイズが予め決められたサイズより大きい場合、前記量子化ブロックは、複数個のサブセットに分割され、対角線スキャンが各サブセットに適用される。各サブセットの重要フラグ、係数符号及び係数レベルが前記対角線スキャンによって各々スキャンされる。前記予め決められたサイズは、4×4である。前記サブセットは、16個の変換係数を含む4×4ブロックである。
サブセットをスキャンするためのスキャンパターンは、前記各サブセットの量子化された変換係数をスキャンするためのスキャンパターンと同じである。各サブセットの重要フラグ、係数符号及び係数レベルは、逆方向にスキャンされる。前記サブセットも逆方向にスキャンされる。
0でない最後の係数位置を示すパラメータが符号化され、復号器に送信される。前記パラメータは、量子化ブロック内の0でない最後の量子化係数の位置を示す。ノンゼロサブセットフラグ(non−zero subset flags)が最初のサブセット及び最後のサブセット以外のサブセットに対して定義され、復号器側に送信される。前記最初のサブセットは、DC係数を含む。前記最後のサブセットは、0でない最後の量子化係数を含む。前記ノンゼロサブセットは、サブセットが0でない係数を含むかどうかを示す。
エントロピー符号化部170は、スキャニング部160から受信されるスキャンされた係数成分、イントラ予測部120から受信されるイントラ予測情報、インター予測部130から受信される動き情報などをエントロピー符号化する。
逆量子化/逆変換部180は、量子化ブロックの量子化された変換係数を逆量子化し、逆量子化ブロックを逆変換して残差信号を生成する。
後処理部190は、復元されたピクチャで発生するブロッキングアーチファクトを除去するためのデブロッキングフィルタリング過程を実行する。
ピクチャ格納部195は、後処理部190から後処理された映像を受信し、ピクチャ単位に前記映像を格納する。ピクチャは、フレーム又はフィールドである。
図2は、本発明による映像データを符号化する方法を説明するフローチャートである。
現在ブロックの動き情報が決定される(S110)。現在ブロックは、予測ユニットである。現在ブロックのサイズは、コーディングユニットのサイズ及び分割モードにより決定される。
動き情報は、予測タイプによって変わる。予測タイプが単方向予測の場合、前記動き情報は、参照リスト0のピクチャを特定する参照インデックスと、一つの動きベクトルとを含む。予測タイプが両方向予測の場合、前記動き情報は、参照リスト0のピクチャ及び参照リスト1のピクチャを特定する2個の参照インデックスと、リスト0動きベクトル及びリスト1動きベクトルとを含む。
前記動き情報を利用して現在ブロックの予測ブロックが生成される(S120)。動きベクトルが整数画素位置を示す場合、前記動きベクトルにより特定される参照ピクチャのブロックを複写して予測ブロックを生成する。前記動きベクトルがサブ画素位置を示す場合、予測ブロックは、参照ピクチャの画素を補間して生成される。動きベクトルは、1/4画素単位に与えられる。
図3は、本発明による動きベクトルが示す画素位置を説明する概念図である。
図3において、L0、R0、R1、L1、A0及びB0で表記された画素は、参照ピクチャの整数位置の画素であり、サブ画素位置に存在するaL0からrL0までの位置の画素は、前記動きベクトルに基づいて選択される補間フィルタを使用して補間されるべき分数画素(fractional pixels)である。
補間されるべき画素がサブ画素位置aL0、bL0又はcL0に位置する場合、水平方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってaL0、bL0又はcL0で表記される画素が生成される。補間されるべき画素がサブ画素位置dL0、hL0又はnL0に位置する場合、垂直方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってdL0、hL0又はnL0で表記される画素が生成される。補間されるべき画素がサブ画素位置eL0、iL0又はpL0に位置する場合、垂直方向に文字‘a’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってeL0、iL0又はpL0で表記される画素が生成される。補間されるべき画素がサブ画素位置gL0、kL0又はrL0に位置する場合、水平方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってgL0、kL0又はrL0で表記される画素が生成される。補間されるべき画素がサブ画素位置fL0、jL0又はqL0に位置する場合、垂直方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってfL0、jL0又はqL0で表記される画素が生成される。
前記補間フィルタは、補間されるべき画素のサブ画素の位置に基づいて決定され、又は前記補間されるべき画素のサブ画素の位置及び予測モードに基づいて決定される。
表1は、例示的フィルタを示す。サブ画素位置Hは、補間方向に1/2画素位置を示す。例えば、bL0、hL0、iL0、jL0及びkL0は、前記サブ画素位置Hに対応される。サブ画素位置FLとFRは、補間方向に1/4画素位置を示す。例えば、aL0、dL0、eL0、fL0及びgL0は、前記サブ画素位置FLに対応され、cL0、nL0、pL0、qL0及びrL0は、前記サブ画素位置FRに対応される。
表1に示すように、単方向予測では、1/2画素位置Hの補間画素を生成するために6タッブ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために5タッブ非対称フィルタが使われることができる。両方向予測では、1/2画素位置Hの補間画素を生成するために8タッブ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために8タッブ非対称フィルタが使われることができる。
一方、フィルタは、補間されるべきサブ画素位置によってのみ決定されることもできる。単方向予測では、1/2画素位置の補間画素を生成するために8タッブ対称フィルタが使われ、1/4画素位置の補間画素を生成するために7タッブ非対称フィルタ又は6タッブ非対称フィルタが使われることができる。
前記現在ブロックと予測ブロックを利用して残差ブロックが生成される(S130)。
残差ブロックは、変換ユニットと同じサイズを有する。予測ユニットが変換ユニットより大きい場合、現在ブロックと予測ブロックとの間の残差信号は、複数個の残差ブロックに分けられる。
前記残差ブロックが符号化される(S140)。残差ブロックは、図1の変換部140、量子化部150、スキャニング部160及びエントロピー符号化部170により符号化される。
前記動き情報が符号化される(S150)。動き情報は、現在ブロックの空間候補と時間候補を利用して予測符号化されることができる。動き情報は、スキップモード、マージモード又はAMVPモードに符号化される。スキップモードにおいて、予測ユニットは、コーディングユニットのサイズを有し、動き情報は、マージモードと同様の方法により符号化される。マージモードにおいて、現在予測ユニットの動き情報は、候補のうち一つの動き情報と同じである。AMVPモードにおいて、動き情報の動きベクトルは、一つ以上の動きベクトル候補を利用して予測符号化される。
図4は、本発明によるマージモードにおける動き情報を符号化する方法を説明するフローチャートである。
空間マージ候補が誘導される(S210)。図5は、本発明による空間マージ候補ブロックの位置を説明する概念図である。
図5に示すように、マージ候補ブロックは、現在ブロックの利用可能な左側ブロック(ブロックA)、利用可能な上側ブロック(ブロックB)、利用可能な右上側ブロック(ブロックC)又は利用可能な左下側ブロック(ブロックD)である。前記ブロックは、予測ブロックである。ブロックA、B、C及びDのうち少なくとも一つが利用可能でない場合、利用可能な左上側ブロック(ブロックE)がマージ候補ブロックとして設定される。利用可能なマージ候補ブロックNの動き情報が空間マージ候補Nに設定される。Nは、A、B、C、D又はEである。
空間マージ候補は、現在ブロックの形態及び位置によって利用可能でないと設定されることができる。例えば、コーディングユニットが非対称分割により2個の予測ユニット(ブロックP0及びブロックP1)に分割されると、ブロックP0の動き情報とブロックP1の動き情報が同じでない可能性が高い。したがって、現在ブロックが非対称ブロックP1の場合、図6乃至図9に示すように、ブロックP0は、利用可能でないと設定される。
図6は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する概念図である。
図6に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、nL×2Nモードである。ブロックP0のサイズは、hN×2Nであり、ブロックP1のサイズは、(2−h)N×2Nである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックAである。
本発明では、前記空間マージ候補ブロックAを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックAと同じ動き情報を有する前記空間マージ候補ブロックB、C、D又はEは、利用可能でないと設定される。
図7は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。
図7に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、nR×2Nモードである。ブロックP0のサイズは、(2−h)N×2Nであり、ブロックP1のサイズは、hN×2Nである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックAである。
本発明では、前記空間マージ候補ブロックAを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックAと同じ動き情報を有する前記空間マージ候補ブロックB、C、D又はEは、利用可能でないと設定される。
図8は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。
図8に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、2N×nUモードである。ブロックP0のサイズは、2N×hNであり、ブロックP1のサイズは、2N×(2−h)Nである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックBである。
本発明では、前記空間マージ候補ブロックBを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックBと同じ動き情報を有する前記空間マージ候補ブロックC、D又はEは、利用可能でないと設定される。
図9は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。
図9に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、2N×nDモードである。ブロックP0のサイズは、2N×(2−h)Nであり、ブロックP1のサイズは、2N×hNである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックBである。
本発明では、前記空間マージ候補ブロックBを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックBと同じ動き情報を有する前記空間マージ候補ブロックC、D又はEは、利用可能でないと設定される。
また、空間マージ候補ブロックがマージ領域に基づいて利用可能でないと設定されることもできる。現在ブロックと空間マージ候補ブロックが同じマージ領域に含まれる場合、前記空間マージ候補ブロックが利用可能でないと設定される。マージ領域は、動き予測が行われる領域単位であり、前記マージ領域を特定する情報は、ビットストリームに含まれる。
時間マージ候補が誘導される(S220)。時間マージ候補は、参照ピクチャインデックスと動きベクトルを含む。
時間マージ候補の参照ピクチャインデックスは、隣接ブロックの一つ以上の参照ピクチャインデックスを利用して誘導されることができる。例えば、左側隣接ブロック、上側隣接ブロック及びコーナー隣接ブロックの参照ピクチャインデックスのうち一つが時間マージ候補の参照ピクチャインデックスとして設定される。コーナー隣接ブロックは、右上側隣接ブロック、左下側隣接ブロック及び左上側隣接ブロックのうち一つである。または、複雑度減少のために、時間マージ候補の参照ピクチャインデックスを0に設定することができる。
時間マージ候補の動きベクトルは、下記のように誘導される。
まず、時間マージ候補ピクチャが決定される。時間マージ候補ピクチャは、時間マージ候補ブロックを含む。スライス内で一つのマージ候補ピクチャが使われる。時間マージ候補ピクチャの参照ピクチャインデックスは、0に設定されることもできる。
現在スライスがPスライスの場合、参照ピクチャリスト0の参照ピクチャのうち一つが時間マージ候補ピクチャとして設定される。現在スライスがBスライスの場合、参照ピクチャリスト0と1の参照ピクチャのうち一つが時間マージ候補ピクチャとして設定される。現在スライスがBスライスの場合、時間マージ候補ピクチャが参照ピクチャリスト0に属するか、又は1に属するかを示すリスト指示子は、スライスヘッダに含まれる。時間マージ候補ピクチャを特定する参照ピクチャインデックスがスライスヘッダに含まれることができる。
次に、時間マージ候補ブロックが決定される。図10は、本発明による時間マージ候補ブロックの位置を説明する概念図である。図10に示すように、第1の候補ブロックは、ブロックCの右下側コーナーブロック(ブロックH)である。ブロックCは、現在ブロックと同じサイズを有し、同じ位置に存在し、前記時間マージ候補ピクチャに位置する。第2の候補ブロックは、ブロックCのセンターの右下側画素を含むブロックである。
時間マージ候補ブロックは、前記第1の候補ブロック及び第2の候補ブロックのうち一つである。第1の候補ブロックが利用可能な場合、第1の候補ブロックが時間マージ候補ブロックとして設定される。第1の候補ブロックが利用可能でない場合、第2の候補ブロックが時間マージ候補ブロックとして設定される。第2の候補ブロックが利用可能でない場合、時間候補ブロックは、利用可能でないと設定される。
時間マージ候補ブロックは、現在ブロックの位置に基づいて決定される。例えば、現在ブロックが下側LCUと接すると(即ち、前記第1の候補ブロックが下側LCUに属すると)、前記第1の候補ブロックがLCU内の一ブロックに変更され、又は利用可能でないと設定される。
また、前記第1及び第2の候補ブロックは、候補ブロックの各位置に基づいて動きベクトル格納ユニット内の他のブロックに代替されることができる。前記動きベクトル格納ユニットは、参照ピクチャの動きベクトルを格納する基本ユニットである。
図11は、本発明による動き情報を格納する方法を説明する概念図である。図11に示すように、動き格納ユニットは、16×16である。前記動きベクトル格納ユニットは、16個の4×4ブロックに分けられる。動きベクトル格納ユニットが16×16ブロックの場合、動き情報は、前記動きベクトル格納ユニット毎に格納される。動きベクトル格納ユニットが複数個の予測ユニットを含む場合、メモリに格納される動き情報の量を減らすために、前記複数個の予測ユニットのうち予め決められた予測ユニットの動きベクトルがメモリに格納される。前記予め決められた予測ユニットは、前記16個の4×4ブロックのうち一つをカバーするブロックである。前記予め決められた予測ユニットは、ブロックC3又はブロックBRをカバーする予測ユニットである。または、前記予め決められた予測ユニットは、ブロックULをカバーする予測ユニットである。
したがって、候補ブロックが前記予め決められたブロックを含まない場合、候補ブロックは、前記予め決められたブロックを含むブロックに変更される。
時間マージ候補ブロックが決定されると、時間マージ候補ブロックの動きベクトルが前記時間マージ候補の動きベクトルとして設定される。
マージ候補リストが構成される(S230)。利用可能な空間候補及び時間候補が予め決められた順序にリストされる。空間マージ候補は、A、B、C、D及びEの順序に4個まで含まれることができる。時間マージ候補は、BとCとの間又は空間候補の後に位置することができる。
一つ以上のマージ候補が生成されるべきであるかどうかを判断する(S240)。前記決定は、前記マージ候補リスト上のマージ候補の数と予め決められた数を比較して実行される。前記予め決められた数は、ピクチャ又はスライス毎に決定されることができる。
マージ候補リスト上のマージ候補の数が前記予め決められた数より小さい場合、一つ以上のマージ候補が生成される(S250)。生成されたマージ候補は、最後の位置のマージ候補の後に位置する。
利用可能なマージ候補の数が2より大きい又は同じであり、それらのうち、一つがリスト0動き情報を有し、他の一つがリスト1動き情報を有する場合、リスト0動き情報とリスト1動き情報を結合してマージ候補を生成することができる。複数個の組合せが存在する場合、複数個の候補が生成されることができる。
一つ以上のゼロマージ候補がリストに追加されることもできる。スライスタイプがPの場合、前記ゼロマージ候補は、リスト0動き情報のみを有する。スライスタイプがBの場合、前記ゼロマージ候補は、リスト0動き情報とリスト1動き情報を有する。
前記マージ候補リストのマージ候補の中からマージ予測子が選択され、前記マージ予測子を特定するマージインデックスが符号化される(S260)。
図12は、本発明による映像復号化装置200を示すブロック図である。
本発明による映像復号化装置200は、エントロピー復号化部210、逆スキャニング部220、逆量子化部230、逆変換部240、イントラ予測部250及びインター予測部260、後処理部270、ピクチャ格納部280及び加算部290を含む。
エントロピー復号化部210は、CABAD(context−adaptive binary arithmetic decoding)方法を利用して受信されたビットストリームからイントラ予測情報、インター予測情報及び量子化係数成分を抽出する。
逆スキャニング部220は、逆スキャンパターンを量子化係数成分に適用して量子化ブロックを生成する。インター予測では、逆スキャンパターンが対角線スキャンである。量子化係数成分は、重要フラグ、係数符号及び係数レベルを含む。
変換ユニットのサイズが予め決められたサイズより大きい場合、サブセット単位に重要フラグ、係数符号及び係数レベルが前記対角線スキャンによって各々逆スキャンされてサブセットを生成し、前記サブセットが前記対角線スキャンによって逆スキャンされて量子化ブロックを生成する。前記予め決められたサイズは、4×4である。前記サブセットは、16個の変換係数を含む4×4ブロックである。重要フラグ、係数符号及び係数レベルは、逆方向にスキャンされる。前記サブセットも逆方向にスキャンされる。
0でない最後の係数位置を示すパラメータ及びノンゼロサブセットフラグがビットストリームから抽出される。符号化されたサブセットの数は、前記0でない最後の係数位置を示すパラメータに基づいて決定される。ノンゼロサブセットフラグは、対応サブセットが少なくとも一つの0でない係数を有するかどうかを決定するのに利用される。ノンゼロサブセットフラグが1の場合、サブセットが対角線スキャンを利用して生成される。最初及び最後のサブセットも前記逆スキャンパターンを使用して生成される。
逆量子化部230は、エントロピー復号化部210から差分量子化パラメータを受信し、コーディングユニットの量子化パラメータ予測子を生成する。量子化パラメータ予測子は、図1の量子化部150による動作と同様の過程を介して生成される。そして、前記差分量子化パラメータと前記量子化パラメータ予測子を加えて現在コーディングユニットの量子化パラメータを生成する。現在コーディングユニットの差分量子化パラメータが符号器から受信されない場合、前記差分量子化パラメータは、0に設定される。
逆量子化部230は、量子化ブロックを逆量子化する。
逆変換部240は、前記逆量子化されたブロックを逆変換して残差ブロックを復元する。逆変換タイプは、予測モード及び変換ユニットのサイズによって決定される。逆変換タイプは、DCTベースの整数変換又はDSTベースの整数変換である。インター予測では、DCTベースの整数変換が使われる。
イントラ予測部250は、受信されたイントラ予測情報を利用して現在予測ユニットのイントラ予測モードを復元し、前記復元されたイントラ予測モードに応じて予測ブロックを生成する。
インター予測部260は、受信されたインター予測情報を利用して現在予測ユニットの動き情報を復元し、前記動き情報を利用して予測ブロックを生成する。
後処理部270は、図1の後処理部180と同様に動作する。
ピクチャ格納部280は、後処理部270から後処理された映像を受信し、ピクチャ単位に前記映像を格納する。ピクチャは、フレーム又はフィールドである。
加算部290は、復元された残差ブロックと予測ブロックを加えて復元ブロックを生成する。
図13は、本発明によるインター予測モードにおける映像復号化方法を説明するフローチャートである。
現在ブロックの動き情報が誘導される(S310)。現在ブロックは、予測ユニットである。現在ブロックのサイズは、コーディングユニットのサイズ及び分割モードに応じて決定される。
動き情報は、予測タイプによって変わる。予測タイプが単方向予測の場合、前記動き情報は、参照リスト0のピクチャを特定する参照インデックスと、一つの動きベクトルとを含む。予測タイプが両方向予測の場合、前記動き情報は、参照リスト0のピクチャ及び参照リスト1のピクチャを特定する2個の参照インデックスと、リスト0動きベクトル及びリスト1動きベクトルとを含む。
動き情報は、符号化モードに応じて適応的に復号化される。動き情報の符号化モードは、スキップフラグとマージフラグにより決定される。スキップフラグが1の場合、マージフラグは、存在せず、符号化モードは、スキップモードである。スキップフラグが0であり、且つマージフラグが1の場合、符号化モードは、マージモードである。スキップフラグ及びマージフラグが0の場合、符号化モードは、AMVPモードである。
前記動き情報を利用して現在ブロックの予測ブロックが生成される(S320)。
動きベクトルが画素位置を示す場合、予測ブロックは、前記動きベクトルにより特定される参照ピクチャのブロックを複写して生成される。動きベクトルがサブ画素位置を示す場合、予測ブロックは、参照ピクチャの画素を補間して生成される。動きベクトルは、1/4画素単位に表示される。
図3に示すように、L0、R0、R1、L1、A0及びB0で表記された画素は、参照ピクチャの整数位置の画素であり、サブ画素位置に存在するaL0からrL0までの位置の画素は、前記動きベクトルに基づいて選択される補間フィルタを使用して補間されるべき分数画素(fractional pixels)である。
補間されるべき画素がサブ画素位置aL0、bL0又はcL0に位置する場合、水平方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってaL0、bL0又はcL0で表記される画素が生成される。補間されるべき画素がサブ画素位置dL0、hL0又はnL0に位置する場合、垂直方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってdL0、hL0又はnL0で表記される画素が生成される。補間されるべき画素がサブ画素位置eL0、iL0又はpL0に位置する場合、垂直方向に文字‘a’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってeL0、iL0又はpL0で表記される画素が生成される。補間されるべき画素がサブ画素位置gL0、kL0又はrL0に位置する場合、水平方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってgL0、kL0又はrL0で表記される画素が生成される。補間されるべき画素がサブ画素位置fL0、jL0又はqL0に位置する場合、垂直方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってfL0、jL0又はqL0で表記される画素が生成される。
前記補間フィルタは、補間されるべき画素のサブ画素の位置に基づいて決定され、又は前記補間されるべき画素のサブ画素の位置及び予測モードに基づいて決定される。
表1に示すように、単方向予測では、1/2画素位置Hの補間画素を生成するために6タッブ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために5タッブ非対称フィルタが使われることができる。両方向予測では、1/2画素位置Hの補間画素を生成するために8タッブ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために8タッブ非対称フィルタが使われることができる。
一方、フィルタは、補間されるべきサブ画素位置によってのみ決定されることもできる。単方向予測では、1/2画素位置の補間画素を生成するために8タッブ対称フィルタが使われ、1/4画素位置の補間画素を生成するために7タッブ非対称フィルタ又は6タッブ非対称フィルタが使われることができる。両方向では、より小さいタッブ数を有する同じ又は異なるフィルタがサブ画素位置の画素を補間するために利用されることができる。
残差ブロックが生成される(S330)。残差ブロックは、図12のエントロピー復号化部210、逆スキャニング部220、逆量子化部230及び逆変換部240により生成される。
前記予測ブロックと残差ブロックを利用して復元ブロックが生成される(S340)。
予測ブロックは、予測ユニットと同じサイズを有し、残差ブロックは、変換ユニットと同じサイズを有する。したがって、同じサイズの残差信号と予測信号が加えられて復元信号が生成される。
図14は、本発明によるマージモードにおける動き情報を誘導する方法を説明するフローチャートである。
マージインデックスがビットストリームから抽出される(S410)。マージインデックスが存在しない場合、マージ候補の数は、1に設定される。
空間マージ候補が誘導される(S420)。利用可能な空間マージ候補は、図4のS210に記述された内容と同じである。
時間マージ候補が誘導される(S430)。時間マージ候補は、参照ピクチャインデックスと動きベクトルを含む。時間マージ候補の参照ピクチャインデックス及び動きベクトルは、図4のS220に記述された内容と同じである。
マージ候補リストが構築される(S440)。マージ候補リストは、図4のS230と同様に構築される。
一つ以上のマージ候補が生成されるかどうかを決定する(S450)。前記決定は、マージ候補リスト上のマージ候補の数と予め決められた数を比較して行われる。予め決められた数は、ピクチャ又はスライス毎に決定される。
マージ候補リスト上のマージ候補の数が前記予め決められた数より小さい場合、一つ以上のマージ候補が生成される(S460)。生成されたマージ候補は、利用可能な最後のマージ候補の後に位置するようになる。マージ候補は、図4のS250に記述されたものと同様の方法により生成される。
マージインデックスにより特定されるマージ候補を現在ブロックの動き情報に設定する(S470)。
図15は、本発明によるインター予測モードにおける残差ブロックを生成する過程を説明するフローチャートである。
量子化係数成分がエントロピー復号化されて生成される(S510)。
量子化ブロックは、対角線スキャンによって前記量子化係数成分を逆スキャンして生成する(S520)。量子化係数成分は、重要フラグ、係数符号及び係数レベルを含む。
変換ユニットのサイズが予め決められたサイズより大きい場合、対角線スキャンによって重要フラグ、係数符号及び係数レベルがサブセット単位に逆スキャンされてサブセットを生成し、前記サブセットは、対角線スキャンによって逆スキャンされて量子化ブロックを生成する。前記予め決められたサイズは、サブセットのサイズと同じである。サブセットは、16個の係数を含む4×4ブロックである。重要フラグ、係数符号及び係数レベルは、逆方向に逆スキャンされる。サブセットも逆方向に逆スキャンされる。
0でない量子化係数の位置を示すパラメータ及びノンゼロサブセットフラグがビットストリームから抽出される。符号化されたサブセットの数は、前記0でない係数の位置を示すパラメータに基づいて決定される。ノンゼロサブセットフラグは、対応サブセットが0でない係数を少なくとも一つ含むかどうかを決定するために使われる。ノンゼロサブセットフラグが1の場合、サブセットは、対角線スキャンを使用して生成される。最初及び最後のサブセットは、逆スキャンパターンを利用して生成される。
逆量子化マトリクス及び量子化パラメータを利用して量子化ブロックが逆量子化される(S530)。
量子化ユニットの最小サイズが決定される。前記最小サイズを特定するパラメータ(cu_qp_delta_enabled_info)がPPSから抽出され、量子化ユニットの最小サイズは、下記のように誘導される。
Log2(MinQUSize)=Log2(MaxCUSize)−cu_qp_delta_enabled_info
MinQUSizeは、量子化ユニットの最小サイズである。MaxCUSizeは、LCUのサイズである。cu_qp_delta_enabled_infoは、ピクチャパラメータセットから抽出される。
現在コーディングユニットの差分量子化パラメータ(dQP)が誘導される。差分量子化パラメータは、量子化ユニット毎に含まれる。したがって、現在コーディングユニットのサイズが前記最小サイズより大きい又は同じ場合、現在コーディングユニットに対して差分量子化パラメータが復元される。差分量子化パラメータが存在しない場合、差分量子化パラメータは、0に設定される。複数個のコーディングユニットが一つの量子化ユニットに含む場合、復号化の順序上、0でない係数を少なくとも一つ有する最初のコーディングユニットが差分量子化パラメータを含む。
前記符号化された差分量子化パラメータは、算術復号化されて差分量子化パラメータの絶対値を示すビンストリング(bin string)と差分量子化パラメータの符号を示すビンが生成される。前記ビンストリングは、トランケーテッドユーナリ(truncated unary)方式に二進化されたビンストリングである。前記差分量子化パラメータの絶対値が0の場合、前記符号を示すビンは存在しない。前記絶対値を示すビンストリングと前記符号を示すビンを利用して前記差分量子化パラメータが誘導される。
現在コーディングユニットの前記量子化パラメータ予測子が誘導される。前記量子化パラメータ予測子は、隣接コーディングユニットの量子化パラメータと以前コーディングユニットの量子化パラメータを利用して生成される。
左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータは、前記順序通りに検索される。少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。即ち、前記左側量子化パラメータ及び前記上側量子化パラメータが両方とも利用可能な場合、前記左側量子化パラメータ及び前記上側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側量子化パラメータ及び前記上側量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側量子化パラメータ及び前記上側量子化パラメータが両方とも利用可能でない場合、前記以前量子化パラメータが前記量子化パラメータ予測子に設定される。
量子化ユニットが複数個のコーディングユニットを含む場合、復号化の順序上、最初のコーディングユニットの量子化パラメータ予測子が生成され、前記生成された量子化パラメータ予測子が前記量子化ユニット内の全てのコーディングユニットに使われる。
前記差分量子化パラメータと前記量子化パラメータ予測子を利用して量子化パラメータが生成される。
前記逆量子化ブロックを逆変換して残差ブロックを生成する(S540)。1次元の水平及び垂直逆DCTベースの変換が使われる。
以上、実施例を参照して説明したが、該当技術分野の熟練された当業者は、特許請求の範囲に記載された本発明の思想及び領域から外れない範囲内で本発明を多様に修正及び変更可能であることを理解することができる。
130 インター予測部
本発明は、映像データを復号化する方法に関し、より詳しくは、空間及び時間マージ候補を利用してマージリストを構築することによって、マージモードにおける動き情報を誘導し、前記動き情報を利用して予測ブロックを生成する方法に関する。
映像データを圧縮する方法には、MPEG−2、MPEG−4及びH.264/MPEG−4 AVCがある。前記方法によると、一つのピクチャが複数個のマクロブロックに分割され、イントラ予測又はインター予測を利用して予測ブロックを生成することによって、各々のマクロブロックを符号化して映像を符号化する。原本ブロックと予測ブロックとの残差ブロックが変換されて変換ブロックを生成し、変換ブロックは、量子化パラメータと予め決められた量子化マトリクスを利用して量子化される。量子化ブロックの量子化係数は、予め決められたスキャンパターンを利用してスキャンされ、エントロピー符号化される。前記量子化パラメータは、マクロブロック毎に調節され、以前量子化パラメータを利用して符号化される。
H.264/MPEG−4 AVCでは、時間的重複性を除去するために、連続されるピクチャ間の動き予測が利用される。時間的重複性を検出するために、現在ブロックの動きを予測するために複数個の参照ピクチャが検査され、予測ブロックを生成するために動き情報を利用して動き補償が実行される。動き情報は、一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを含む。
H.264/MPEG−4 AVCによると、動きベクトルのみが隣接動きベクトルを利用して予測符号化され、参照ピクチャインデックスは、隣接参照ピクチャインデックスを利用せずに符号化される。また、予測ブロックが長いタッ数のフィルタを使用して補間されるため、予測ブロックを生成するための演算複雑度が高い。
しかし、多様なサイズを利用してインター予測が実行されると、現在ブロックの動き情報と一つ以上の隣接ブロックの動き情報との間の連関性が増加するようになる。また、映像の動きが停止し、又は遅く動く場合は、ピクチャサイズが増加するにつれて現在ブロックの動きベクトルと参照ピクチャ内の隣接ブロックの動きベクトルとの間の連関性が大きくなるようになる。したがって、前述した従来の圧縮方法では、ピクチャのサイズが高画質サイズ(HD size)より大きくなり、多様なサイズが動き予測及び動き補償に使われる場合、動き情報の圧縮効率が落ちる問題がある。
本発明が達成しようとする目的は、空間及び時間マージ候補を利用してマージリストを構築することによって動き情報を誘導し、動きベクトルにより決定されるフィルタを利用して予測ブロックを生成する方法を提供することである。
本発明による映像データを復号化する方法は、現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導し、前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成し、量子化係数成分を逆スキャンして量子化ブロックを生成し、量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成し、前記変換ブロックを逆変換して残差ブロックを形成し、前記予測ブロックと残差ブロックを利用して復元ブロックを生成する。予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成される。
例えば、本願発明は以下の項目を提供する。
(項目1)
映像データを復号化する方法において、
現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導するステップ;
前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成するステップ;
量子化係数成分を逆スキャンして量子化ブロックを生成するステップ;
量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成するステップ;
前記変換ブロックを逆変換して残差ブロックを形成するステップ;及び、
前記予測ブロックと残差ブロックを利用して復元ブロックを生成するステップ;を含み、
前記予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成されることを特徴とする方法。
(項目2)
前記動きベクトルが1/4画素位置を示す場合、前記補間フィルタは、7タッ非対称フィルタ又は6タッ非対称フィルタであることを特徴とする項目1に記載の方法。
(項目3)
前記量子化パラメータは、量子化ユニット毎に誘導され、前記量子化ユニットのサイズは、コーディングユニットの許容可能なサイズのうち一つであることを特徴とする項目1に記載の方法。
(項目4)
前記量子化パラメータは、差分量子化パラメータ及び量子化パラメータ予測子を利用して誘導されることを特徴とする項目3に記載の方法。
(項目5)
前記量子化パラメータ予測子は、左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータのうち、少なくとも2個が有効な場合、有効な2個の量子化パラメータの平均値であることを特徴とする項目4に記載の方法。
(項目6)
前記現在コーディングユニットがピクチャ又はスライスの上側に位置する場合、左側量子化パラメータ及び以前量子化パラメータの平均値であることを特徴とする項目5に記載の方法。
(項目7)
現在フィルタのタッ数は、前記動きベクトルの予測画素位置により決定されることを特徴とする項目1に記載の方法。
本発明による方法では、現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導し、前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成し、量子化係数成分を逆スキャンして量子化ブロックを生成し、量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成し、前記変換ブロックを逆変換して残差ブロックを形成し、前記予測ブロックと残差ブロックを利用して復元ブロックを生成する。予測ブロックの予測画素は、前記動きベクトルにより選択される補間フィルタを利用して生成される。したがって、多様なマージ候補を利用して動き情報の符号化効率が向上する。また、動きベクトルにより決定される予測画素の位置に応じて異なるフィルタを選択することで、符号器及び復号器の演算複雑度を減らすことができる。
本発明による映像符号化装置を示すブロック図である。 本発明によるインター予測モードにおける映像データを符号化する方法を説明するフローチャートである。 本発明による動きベクトルにより指示される画素位置を説明する概念図である。 本発明によるマージモードにおける動き情報を符号化する方法を説明するフローチャートである。 本発明による空間マージ候補ブロックの位置を説明する概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。 本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。 本発明による時間マージ候補ブロックの位置を説明する概念図である。 本発明による動き情報を格納する方法を説明する概念図である。 本発明による映像復号化装置を示すブロック図である。 本発明によるインター予測モードにおける映像を復号化する方法を説明するフローチャートである。 本発明によるマージモードにおける動き情報を誘導する方法を説明するフローチャートである。 本発明によるインター予測モードにおける残差ブロックを生成する過程を説明するフローチャートである。
以下、本発明の多様な実施例を例示図面を参照して詳細に説明する。本発明は、多様な変更を加えることができ、多様な実施例を有することができ、本発明を特定の実施形態に対して限定するものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むと理解しなければならない。各図面の説明において、類似の構成要素に対して類似の参照符号を使用した。
本発明による映像符号化装置及び映像復号化装置は、パソコン、個人携帯端末、移動マルチメディアプレーヤー、スマートフォン又は無線通信ターミナルなどのようにユーザターミナルである。前記映像符号化装置及び映像復号化装置は、多様な機器と通信する通信ユニットと、映像を符号化又は復号化するために多様なプログラムとデータを格納するためのメモリとを具備する。
図1は、本発明による映像符号化装置100を示すブロック図である。
図1を参照すると、本発明による映像符号化装置100は、ピクチャ分割部110、イントラ予測部120、インター予測部130、変換部140、量子化部150、スキャニング部160、エントロピー符号化部170、逆量子化/逆変換部180、後処理部190及びピクチャ格納部195を含む。
ピクチャ分割部110は、ピクチャ又はスライスを複数個のLCU(Largest Coding Unit)に分割し、前記各々のLCUを一つ以上のコーディングユニットに分割する。LCUのサイズは、32×32、64×64又は128×128である。ピクチャ分割部110は、各コーディングユニットの予測モード及び分割モード(partitioning mode)を決定する。
一つのLCUは、一個又は複数個のコーディングユニット(coding unit)を含む。前記LCUは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。コーディングユニットの最大サイズ及び最小サイズを示す情報がシーケンスパラメータセット(sequence parameter set)に含まれる。前記分割構造は、一個又は複数個の分割コーディングユニットフラグ(split_cu_flag)を利用して特定される。コーディングユニットは、2N×2Nのサイズを有する。LCUのサイズが64×64であり、且つ最小コーディングユニット(SCU:smallest coding unit)が8×8の場合、コーディングユニットは、64×64、32×32、16×16又は8×8である。
コーディングユニットは、一個又は複数個の予測ユニット(prediction unit)を含む。イントラ予測において、前記予測ユニットのサイズは、2N×2N又はN×Nである。インター予測において、前記予測ユニットのサイズは、前記分割モードにより特定される。コーディングユニットが対称に分割されると、分割モードは、2N×2N、2N×N、N×2N及びN×Nのうち一つである。コーディングユニットが非対称に分割されると、分割モードは、2N×nU、2N×nD、nL×2N及びnR×2Nのうち一つである。ハードウェアの複雑度を減らすために、コーディングユニットのサイズに基づいて分割モードが許容される。コーディングユニットが最小サイズを有する場合、非対称分割が許容されない。また、コーディングユニットが最小サイズを有する場合、N×N分割モードが許容されない。
コーディングユニットは、一個又は複数個の変換ユニット(transform unit)を含む。変換ユニットは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。分割構造は、一個又は複数個の分割変換ユニットフラグ(split_tu_flag)により表現される。変換ユニットの最大サイズ及び最小サイズを示すパラメータがシーケンスパラメータセットに含まれる。
イントラ予測部120は、現在予測ユニットのイントラ予測モードを決定し、前記イントラ予測モードを利用して予測ブロックを生成する。
インター予測部130は、ピクチャ格納部195に格納されている一つ以上の参照ピクチャを利用して現在予測ユニットの動き情報を決定し、前記予測ユニットの予測ブロックを生成する。前記動き情報は、参照ピクチャを示す一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを含む。
変換部140は、残差ブロックを変換して変換ブロックを生成する。前記残差ブロックは、変換ユニットのサイズを有する。予測ユニットが変換ユニットより大きい場合、現在ブロックと予測ブロックとの間の残差信号は、複数個の残差ブロックに分割される。
量子化部150は、前記変換ブロックを量子化するための量子化パラメータを決定する。量子化パラメータは、量子化ステップサイズを意味する。量子化パラメータは、量子化ユニット毎に決定される。量子化ユニットのサイズは、変更されることができ、コーディングユニットの許容可能なサイズのうち一つである。コーディングユニットのサイズが最小サイズより大きい又は同じ場合、前記コーディングユニットは、量子化ユニットになる。複数個のコーディングユニットが最小サイズの量子化ユニットに含まれることもできる。量子化ユニットの最小サイズは、ピクチャ毎に決定され、量子化ユニットの最小サイズを特定するパラメータは、ピクチャパラメータセット(picture parameter set)に含まれる。
量子化部150は、量子化パラメータ予測子を生成し、量子化パラメータから量子化パラメータ予測子を減算して差分量子化パラメータを生成する。前記差分量子化パラメータは、符号化される。
前記量子化パラメータ予測子は、隣接コーディングユニットの量子化パラメータ及び以前コーディングユニットの量子化パラメータを利用して下記のように生成される。
左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータは、前記順序通りに検索される。少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。即ち、前記上側及び左側量子化パラメータが利用可能な場合、前記上側及び左側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記上側及び左側量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前パラメータの平均値が前記量子化パラメータ予測子に設定される。前記上側及び左側量子化パラメータが両方とも利用可能でない場合、前記以前量子化パラメータが前記量子化パラメータ予測子に設定される。前記平均値は、四捨五入した値である。
前記差分量子化パラメータは、二進化過程を介して前記差分量子化パラメータの絶対値を示すビン(bin)と前記差分量子化パラメータの符号を示すビンに変換され、前記ビンは、算術符号化される。dQPの絶対値が0の場合、符号を示すビンは省略されることができる。トランケーテッドユーナリ(truncated unary)方式が前記絶対値の二進化表現に使われる。
量子化部150は、量子化マトリクス及び量子化パラメータを利用して変換ブロックを量子化することによって量子化ブロックを生成する。量子化ブロックは、逆量子化/逆変換部180に提供される。
スキャニング部160は、量子化ブロックにスキャンパターンを適用する。
インター予測では、エントロピー符号化のためにCABACが使われると、対角線スキャンがスキャンパターンとして使われる。量子化ブロックの量子化係数は、量子化係数成分に分離される。前記量子化係数成分は、重要フラグ(significant flags)、係数符号(coefficient signs)及び係数レベル(coefficient levels)である。対角線スキャンが前記係数成分の各々に適用される。重要フラグは、対応する量子化係数が0であるか否かを示す。係数符号は、0でない量子化係数の符号を示す。係数レベルは、0でない量子化係数の絶対値を示す。
変換ユニットのサイズが予め決められたサイズより大きい場合、前記量子化ブロックは、複数個のサブセットに分割され、対角線スキャンが各サブセットに適用される。各サブセットの重要フラグ、係数符号及び係数レベルが前記対角線スキャンによって各々スキャンされる。前記予め決められたサイズは、4×4である。前記サブセットは、16個の変換係数を含む4×4ブロックである。
サブセットをスキャンするためのスキャンパターンは、前記各サブセットの量子化された変換係数をスキャンするためのスキャンパターンと同じである。各サブセットの重要フラグ、係数符号及び係数レベルは、逆方向にスキャンされる。前記サブセットも逆方向にスキャンされる。
0でない最後の係数位置を示すパラメータが符号化され、復号器に送信される。前記パラメータは、量子化ブロック内の0でない最後の量子化係数の位置を示す。ノンゼロサブセットフラグ(non−zero subset flags)が最初のサブセット及び最後のサブセット以外のサブセットに対して定義され、復号器側に送信される。前記最初のサブセットは、DC係数を含む。前記最後のサブセットは、0でない最後の量子化係数を含む。前記ノンゼロサブセットは、サブセットが0でない係数を含むかどうかを示す。
エントロピー符号化部170は、スキャニング部160から受信されるスキャンされた係数成分、イントラ予測部120から受信されるイントラ予測情報、インター予測部130から受信される動き情報などをエントロピー符号化する。
逆量子化/逆変換部180は、量子化ブロックの量子化された変換係数を逆量子化し、逆量子化ブロックを逆変換して残差信号を生成する。
後処理部190は、復元されたピクチャで発生するブロッキングアーチファクトを除去するためのデブロッキングフィルタリング過程を実行する。
ピクチャ格納部195は、後処理部190から後処理された映像を受信し、ピクチャ単位に前記映像を格納する。ピクチャは、フレーム又はフィールドである。
図2は、本発明による映像データを符号化する方法を説明するフローチャートである。
現在ブロックの動き情報が決定される(S110)。現在ブロックは、予測ユニットである。現在ブロックのサイズは、コーディングユニットのサイズ及び分割モードにより決定される。
動き情報は、予測タイプによって変わる。予測タイプが単方向予測の場合、前記動き情報は、参照リスト0のピクチャを特定する参照インデックスと、一つの動きベクトルとを含む。予測タイプが両方向予測の場合、前記動き情報は、参照リスト0のピクチャ及び参照リスト1のピクチャを特定する2個の参照インデックスと、リスト0動きベクトル及びリスト1動きベクトルとを含む。
前記動き情報を利用して現在ブロックの予測ブロックが生成される(S120)。動きベクトルが整数画素位置を示す場合、前記動きベクトルにより特定される参照ピクチャのブロックを複写して予測ブロックを生成する。前記動きベクトルがサブ画素位置を示す場合、予測ブロックは、参照ピクチャの画素を補間して生成される。動きベクトルは、1/4画素単位に与えられる。
図3は、本発明による動きベクトルが示す画素位置を説明する概念図である。
図3において、L0、R0、R1、L1、A0及びB0で表記された画素は、参照ピクチャの整数位置の画素であり、サブ画素位置に存在するaL0からrL0までの位置の画素は、前記動きベクトルに基づいて選択される補間フィルタを使用して補間されるべき分数画素(fractional pixels)である。
補間されるべき画素がサブ画素位置aL0、bL0又はcL0に位置する場合、水平方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってaL0、bL0又はcL0で表記される画素が生成される。補間されるべき画素がサブ画素位置dL0、hL0又はnL0に位置する場合、垂直方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってdL0、hL0又はnL0で表記される画素が生成される。補間されるべき画素がサブ画素位置eL0、iL0又はpL0に位置する場合、垂直方向に文字‘a’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってeL0、iL0又はpL0で表記される画素が生成される。補間されるべき画素がサブ画素位置gL0、kL0又はrL0に位置する場合、水平方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってgL0、kL0又はrL0で表記される画素が生成される。補間されるべき画素がサブ画素位置fL0、jL0又はqL0に位置する場合、垂直方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってfL0、jL0又はqL0で表記される画素が生成される。
前記補間フィルタは、補間されるべき画素のサブ画素の位置に基づいて決定され、又は前記補間されるべき画素のサブ画素の位置及び予測モードに基づいて決定される。
表1は、例示的フィルタを示す。サブ画素位置Hは、補間方向に1/2画素位置を示す。例えば、bL0、hL0、iL0、jL0及びkL0は、前記サブ画素位置Hに対応される。サブ画素位置FLとFRは、補間方向に1/4画素位置を示す。例えば、aL0、dL0、eL0、fL0及びgL0は、前記サブ画素位置FLに対応され、cL0、nL0、pL0、qL0及びrL0は、前記サブ画素位置FRに対応される。
表1に示すように、単方向予測では、1/2画素位置Hの補間画素を生成するために6タッ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために5タッ非対称フィルタが使われることができる。両方向予測では、1/2画素位置Hの補間画素を生成するために8タッ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために8タッ非対称フィルタが使われることができる。
一方、フィルタは、補間されるべきサブ画素位置によってのみ決定されることもできる。単方向予測では、1/2画素位置の補間画素を生成するために8タッ対称フィルタが使われ、1/4画素位置の補間画素を生成するために7タッ非対称フィルタ又は6タッ非対称フィルタが使われることができる。
前記現在ブロックと予測ブロックを利用して残差ブロックが生成される(S130)。
残差ブロックは、変換ユニットと同じサイズを有する。予測ユニットが変換ユニットより大きい場合、現在ブロックと予測ブロックとの間の残差信号は、複数個の残差ブロックに分けられる。
前記残差ブロックが符号化される(S140)。残差ブロックは、図1の変換部140、量子化部150、スキャニング部160及びエントロピー符号化部170により符号化される。
前記動き情報が符号化される(S150)。動き情報は、現在ブロックの空間候補と時間候補を利用して予測符号化されることができる。動き情報は、スキップモード、マージモード又はAMVPモードに符号化される。スキップモードにおいて、予測ユニットは、コーディングユニットのサイズを有し、動き情報は、マージモードと同様の方法により符号化される。マージモードにおいて、現在予測ユニットの動き情報は、候補のうち一つの動き情報と同じである。AMVPモードにおいて、動き情報の動きベクトルは、一つ以上の動きベクトル候補を利用して予測符号化される。
図4は、本発明によるマージモードにおける動き情報を符号化する方法を説明するフローチャートである。
空間マージ候補が誘導される(S210)。図5は、本発明による空間マージ候補ブロックの位置を説明する概念図である。
図5に示すように、マージ候補ブロックは、現在ブロックの利用可能な左側ブロック(ブロックA)、利用可能な上側ブロック(ブロックB)、利用可能な右上側ブロック(ブロックC)又は利用可能な左下側ブロック(ブロックD)である。前記ブロックは、予測ブロックである。ブロックA、B、C及びDのうち少なくとも一つが利用可能でない場合、利用可能な左上側ブロック(ブロックE)がマージ候補ブロックとして設定される。利用可能なマージ候補ブロックNの動き情報が空間マージ候補Nに設定される。Nは、A、B、C、D又はEである。
空間マージ候補は、現在ブロックの形態及び位置によって利用可能でないと設定されることができる。例えば、コーディングユニットが非対称分割により2個の予測ユニット(ブロックP0及びブロックP1)に分割されると、ブロックP0の動き情報とブロックP1の動き情報が同じでない可能性が高い。したがって、現在ブロックが非対称ブロックP1の場合、図6乃至図9に示すように、ブロックP0は、利用可能でないと設定される。
図6は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する概念図である。
図6に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、nL×2Nモードである。ブロックP0のサイズは、hN×2Nであり、ブロックP1のサイズは、(2−h)N×2Nである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックAである。
本発明では、前記空間マージ候補ブロックAを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックAと同じ動き情報を有する前記空間マージ候補ブロックB、C、D又はEは、利用可能でないと設定される。
図7は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。
図7に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、nR×2Nモードである。ブロックP0のサイズは、(2−h)N×2Nであり、ブロックP1のサイズは、hN×2Nである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックAである。
本発明では、前記空間マージ候補ブロックAを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックAと同じ動き情報を有する前記空間マージ候補ブロックB、C、D又はEは、利用可能でないと設定される。
図8は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。
図8に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、2N×nUモードである。ブロックP0のサイズは、2N×hNであり、ブロックP1のサイズは、2N×(2−h)Nである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックBである。
本発明では、前記空間マージ候補ブロックBを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックBと同じ動き情報を有する前記空間マージ候補ブロックC、D又はEは、利用可能でないと設定される。
図9は、本発明による非対称分割モードにおける空間マージ候補ブロックの位置を説明する他の概念図である。
図9に示すように、コーディングユニットは、2個の非対称予測ブロックP0及び予測ブロックP1に分割され、前記分割モードは、2N×nDモードである。ブロックP0のサイズは、2N×(2−h)Nであり、ブロックP1のサイズは、2N×hNである。hの値は、1/2である。現在ブロックは、ブロックP1である。ブロックA、B、C、D及びEが空間マージ候補ブロックである。ブロックP0は、空間マージ候補ブロックBである。
本発明では、前記空間マージ候補ブロックBを利用可能でないと設定してマージ候補リストに記載されないようにする。また、前記空間マージ候補ブロックBと同じ動き情報を有する前記空間マージ候補ブロックC、D又はEは、利用可能でないと設定される。
また、空間マージ候補ブロックがマージ領域に基づいて利用可能でないと設定されることもできる。現在ブロックと空間マージ候補ブロックが同じマージ領域に含まれる場合、前記空間マージ候補ブロックが利用可能でないと設定される。マージ領域は、動き予測が行われる領域単位であり、前記マージ領域を特定する情報は、ビットストリームに含まれる。
時間マージ候補が誘導される(S220)。時間マージ候補は、参照ピクチャインデックスと動きベクトルを含む。
時間マージ候補の参照ピクチャインデックスは、隣接ブロックの一つ以上の参照ピクチャインデックスを利用して誘導されることができる。例えば、左側隣接ブロック、上側隣接ブロック及びコーナー隣接ブロックの参照ピクチャインデックスのうち一つが時間マージ候補の参照ピクチャインデックスとして設定される。コーナー隣接ブロックは、右上側隣接ブロック、左下側隣接ブロック及び左上側隣接ブロックのうち一つである。または、複雑度減少のために、時間マージ候補の参照ピクチャインデックスを0に設定することができる。
時間マージ候補の動きベクトルは、下記のように誘導される。
まず、時間マージ候補ピクチャが決定される。時間マージ候補ピクチャは、時間マージ候補ブロックを含む。スライス内で一つのマージ候補ピクチャが使われる。時間マージ候補ピクチャの参照ピクチャインデックスは、0に設定されることもできる。
現在スライスがPスライスの場合、参照ピクチャリスト0の参照ピクチャのうち一つが時間マージ候補ピクチャとして設定される。現在スライスがBスライスの場合、参照ピクチャリスト0と1の参照ピクチャのうち一つが時間マージ候補ピクチャとして設定される。現在スライスがBスライスの場合、時間マージ候補ピクチャが参照ピクチャリスト0に属するか、又は1に属するかを示すリスト指示子は、スライスヘッダに含まれる。時間マージ候補ピクチャを特定する参照ピクチャインデックスがスライスヘッダに含まれることができる。
次に、時間マージ候補ブロックが決定される。図10は、本発明による時間マージ候補ブロックの位置を説明する概念図である。図10に示すように、第1の候補ブロックは、ブロックCの右下側コーナーブロック(ブロックH)である。ブロックCは、現在ブロックと同じサイズを有し、同じ位置に存在し、前記時間マージ候補ピクチャに位置する。第2の候補ブロックは、ブロックCのセンターの右下側画素を含むブロックである。
時間マージ候補ブロックは、前記第1の候補ブロック及び第2の候補ブロックのうち一つである。第1の候補ブロックが利用可能な場合、第1の候補ブロックが時間マージ候補ブロックとして設定される。第1の候補ブロックが利用可能でない場合、第2の候補ブロックが時間マージ候補ブロックとして設定される。第2の候補ブロックが利用可能でない場合、時間候補ブロックは、利用可能でないと設定される。
時間マージ候補ブロックは、現在ブロックの位置に基づいて決定される。例えば、現在ブロックが下側LCUと接すると(即ち、前記第1の候補ブロックが下側LCUに属すると)、前記第1の候補ブロックがLCU内の一ブロックに変更され、又は利用可能でないと設定される。
また、前記第1及び第2の候補ブロックは、候補ブロックの各位置に基づいて動きベクトル格納ユニット内の他のブロックに代替されることができる。前記動きベクトル格納ユニットは、参照ピクチャの動きベクトルを格納する基本ユニットである。
図11は、本発明による動き情報を格納する方法を説明する概念図である。図11に示すように、動き格納ユニットは、16×16である。前記動きベクトル格納ユニットは、16個の4×4ブロックに分けられる。動きベクトル格納ユニットが16×16ブロックの場合、動き情報は、前記動きベクトル格納ユニット毎に格納される。動きベクトル格納ユニットが複数個の予測ユニットを含む場合、メモリに格納される動き情報の量を減らすために、前記複数個の予測ユニットのうち予め決められた予測ユニットの動きベクトルがメモリに格納される。前記予め決められた予測ユニットは、前記16個の4×4ブロックのうち一つをカバーするブロックである。前記予め決められた予測ユニットは、ブロックC3又はブロックBRをカバーする予測ユニットである。または、前記予め決められた予測ユニットは、ブロックULをカバーする予測ユニットである。
したがって、候補ブロックが前記予め決められたブロックを含まない場合、候補ブロックは、前記予め決められたブロックを含むブロックに変更される。
時間マージ候補ブロックが決定されると、時間マージ候補ブロックの動きベクトルが前記時間マージ候補の動きベクトルとして設定される。
マージ候補リストが構成される(S230)。利用可能な空間候補及び時間候補が予め決められた順序にリストされる。空間マージ候補は、A、B、C、D及びEの順序に4個まで含まれることができる。時間マージ候補は、BとCとの間又は空間候補の後に位置することができる。
一つ以上のマージ候補が生成されるべきであるかどうかを判断する(S240)。前記決定は、前記マージ候補リスト上のマージ候補の数と予め決められた数を比較して実行される。前記予め決められた数は、ピクチャ又はスライス毎に決定されることができる。
マージ候補リスト上のマージ候補の数が前記予め決められた数より小さい場合、一つ以上のマージ候補が生成される(S250)。生成されたマージ候補は、最後の位置のマージ候補の後に位置する。
利用可能なマージ候補の数が2より大きい又は同じであり、それらのうち、一つがリスト0動き情報を有し、他の一つがリスト1動き情報を有する場合、リスト0動き情報とリスト1動き情報を結合してマージ候補を生成することができる。複数個の組合せが存在する場合、複数個の候補が生成されることができる。
一つ以上のゼロマージ候補がリストに追加されることもできる。スライスタイプがPの場合、前記ゼロマージ候補は、リスト0動き情報のみを有する。スライスタイプがBの場合、前記ゼロマージ候補は、リスト0動き情報とリスト1動き情報を有する。
前記マージ候補リストのマージ候補の中からマージ予測子が選択され、前記マージ予測子を特定するマージインデックスが符号化される(S260)。
図12は、本発明による映像復号化装置200を示すブロック図である。
本発明による映像復号化装置200は、エントロピー復号化部210、逆スキャニング部220、逆量子化部230、逆変換部240、イントラ予測部250及びインター予測部260、後処理部270、ピクチャ格納部280及び加算部290を含む。
エントロピー復号化部210は、CABAD(context−adaptive binary arithmetic decoding)方法を利用して受信されたビットストリームからイントラ予測情報、インター予測情報及び量子化係数成分を抽出する。
逆スキャニング部220は、逆スキャンパターンを量子化係数成分に適用して量子化ブロックを生成する。インター予測では、逆スキャンパターンが対角線スキャンである。量子化係数成分は、重要フラグ、係数符号及び係数レベルを含む。
変換ユニットのサイズが予め決められたサイズより大きい場合、サブセット単位に重要フラグ、係数符号及び係数レベルが前記対角線スキャンによって各々逆スキャンされてサブセットを生成し、前記サブセットが前記対角線スキャンによって逆スキャンされて量子化ブロックを生成する。前記予め決められたサイズは、4×4である。前記サブセットは、16個の変換係数を含む4×4ブロックである。重要フラグ、係数符号及び係数レベルは、逆方向にスキャンされる。前記サブセットも逆方向にスキャンされる。
0でない最後の係数位置を示すパラメータ及びノンゼロサブセットフラグがビットストリームから抽出される。符号化されたサブセットの数は、前記0でない最後の係数位置を示すパラメータに基づいて決定される。ノンゼロサブセットフラグは、対応サブセットが少なくとも一つの0でない係数を有するかどうかを決定するのに利用される。ノンゼロサブセットフラグが1の場合、サブセットが対角線スキャンを利用して生成される。最初及び最後のサブセットも前記逆スキャンパターンを使用して生成される。
逆量子化部230は、エントロピー復号化部210から差分量子化パラメータを受信し、コーディングユニットの量子化パラメータ予測子を生成する。量子化パラメータ予測子は、図1の量子化部150による動作と同様の過程を介して生成される。そして、前記差分量子化パラメータと前記量子化パラメータ予測子を加えて現在コーディングユニットの量子化パラメータを生成する。現在コーディングユニットの差分量子化パラメータが符号器から受信されない場合、前記差分量子化パラメータは、0に設定される。
逆量子化部230は、量子化ブロックを逆量子化する。
逆変換部240は、前記逆量子化されたブロックを逆変換して残差ブロックを復元する。逆変換タイプは、予測モード及び変換ユニットのサイズによって決定される。逆変換タイプは、DCTベースの整数変換又はDSTベースの整数変換である。インター予測では、DCTベースの整数変換が使われる。
イントラ予測部250は、受信されたイントラ予測情報を利用して現在予測ユニットのイントラ予測モードを復元し、前記復元されたイントラ予測モードに応じて予測ブロックを生成する。
インター予測部260は、受信されたインター予測情報を利用して現在予測ユニットの動き情報を復元し、前記動き情報を利用して予測ブロックを生成する。
後処理部270は、図1の後処理部180と同様に動作する。
ピクチャ格納部280は、後処理部270から後処理された映像を受信し、ピクチャ単位に前記映像を格納する。ピクチャは、フレーム又はフィールドである。
加算部290は、復元された残差ブロックと予測ブロックを加えて復元ブロックを生成する。
図13は、本発明によるインター予測モードにおける映像復号化方法を説明するフローチャートである。
現在ブロックの動き情報が誘導される(S310)。現在ブロックは、予測ユニットである。現在ブロックのサイズは、コーディングユニットのサイズ及び分割モードに応じて決定される。
動き情報は、予測タイプによって変わる。予測タイプが単方向予測の場合、前記動き情報は、参照リスト0のピクチャを特定する参照インデックスと、一つの動きベクトルとを含む。予測タイプが両方向予測の場合、前記動き情報は、参照リスト0のピクチャ及び参照リスト1のピクチャを特定する2個の参照インデックスと、リスト0動きベクトル及びリスト1動きベクトルとを含む。
動き情報は、符号化モードに応じて適応的に復号化される。動き情報の符号化モードは、スキップフラグとマージフラグにより決定される。スキップフラグが1の場合、マージフラグは、存在せず、符号化モードは、スキップモードである。スキップフラグが0であり、且つマージフラグが1の場合、符号化モードは、マージモードである。スキップフラグ及びマージフラグが0の場合、符号化モードは、AMVPモードである。
前記動き情報を利用して現在ブロックの予測ブロックが生成される(S320)。
動きベクトルが画素位置を示す場合、予測ブロックは、前記動きベクトルにより特定される参照ピクチャのブロックを複写して生成される。動きベクトルがサブ画素位置を示す場合、予測ブロックは、参照ピクチャの画素を補間して生成される。動きベクトルは、1/4画素単位に表示される。
図3に示すように、L0、R0、R1、L1、A0及びB0で表記された画素は、参照ピクチャの整数位置の画素であり、サブ画素位置に存在するaL0からrL0までの位置の画素は、前記動きベクトルに基づいて選択される補間フィルタを使用して補間されるべき分数画素(fractional pixels)である。
補間されるべき画素がサブ画素位置aL0、bL0又はcL0に位置する場合、水平方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってaL0、bL0又はcL0で表記される画素が生成される。補間されるべき画素がサブ画素位置dL0、hL0又はnL0に位置する場合、垂直方向に最も近い位置の整数位置の画素に補間フィルタが適用されることによってdL0、hL0又はnL0で表記される画素が生成される。補間されるべき画素がサブ画素位置eL0、iL0又はpL0に位置する場合、垂直方向に文字‘a’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってeL0、iL0又はpL0で表記される画素が生成される。補間されるべき画素がサブ画素位置gL0、kL0又はrL0に位置する場合、水平方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってgL0、kL0又はrL0で表記される画素が生成される。補間されるべき画素がサブ画素位置fL0、jL0又はqL0に位置する場合、垂直方向に文字‘c’を表記に含む最も近い位置の補間画素に補間フィルタが適用されることによってfL0、jL0又はqL0で表記される画素が生成される。
前記補間フィルタは、補間されるべき画素のサブ画素の位置に基づいて決定され、又は前記補間されるべき画素のサブ画素の位置及び予測モードに基づいて決定される。
表1に示すように、単方向予測では、1/2画素位置Hの補間画素を生成するために6タッ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために5タッ非対称フィルタが使われることができる。両方向予測では、1/2画素位置Hの補間画素を生成するために8タッ対称フィルタが使われ、1/4画素位置FL又はFRの補間画素を生成するために8タッ非対称フィルタが使われることができる。
一方、フィルタは、補間されるべきサブ画素位置によってのみ決定されることもできる。単方向予測では、1/2画素位置の補間画素を生成するために8タッ対称フィルタが使われ、1/4画素位置の補間画素を生成するために7タッ非対称フィルタ又は6タッ非対称フィルタが使われることができる。両方向では、より小さいタッ数を有する同じ又は異なるフィルタがサブ画素位置の画素を補間するために利用されることができる。
残差ブロックが生成される(S330)。残差ブロックは、図12のエントロピー復号化部210、逆スキャニング部220、逆量子化部230及び逆変換部240により生成される。
前記予測ブロックと残差ブロックを利用して復元ブロックが生成される(S340)。
予測ブロックは、予測ユニットと同じサイズを有し、残差ブロックは、変換ユニットと同じサイズを有する。したがって、同じサイズの残差信号と予測信号が加えられて復元信号が生成される。
図14は、本発明によるマージモードにおける動き情報を誘導する方法を説明するフローチャートである。
マージインデックスがビットストリームから抽出される(S410)。マージインデックスが存在しない場合、マージ候補の数は、1に設定される。
空間マージ候補が誘導される(S420)。利用可能な空間マージ候補は、図4のS210に記述された内容と同じである。
時間マージ候補が誘導される(S430)。時間マージ候補は、参照ピクチャインデックスと動きベクトルを含む。時間マージ候補の参照ピクチャインデックス及び動きベクトルは、図4のS220に記述された内容と同じである。
マージ候補リストが構築される(S440)。マージ候補リストは、図4のS230と同様に構築される。
一つ以上のマージ候補が生成されるかどうかを決定する(S450)。前記決定は、マージ候補リスト上のマージ候補の数と予め決められた数を比較して行われる。予め決められた数は、ピクチャ又はスライス毎に決定される。
マージ候補リスト上のマージ候補の数が前記予め決められた数より小さい場合、一つ以上のマージ候補が生成される(S460)。生成されたマージ候補は、利用可能な最後のマージ候補の後に位置するようになる。マージ候補は、図4のS250に記述されたものと同様の方法により生成される。
マージインデックスにより特定されるマージ候補を現在ブロックの動き情報に設定する(S470)。
図15は、本発明によるインター予測モードにおける残差ブロックを生成する過程を説明するフローチャートである。
量子化係数成分がエントロピー復号化されて生成される(S510)。
量子化ブロックは、対角線スキャンによって前記量子化係数成分を逆スキャンして生成する(S520)。量子化係数成分は、重要フラグ、係数符号及び係数レベルを含む。
変換ユニットのサイズが予め決められたサイズより大きい場合、対角線スキャンによって重要フラグ、係数符号及び係数レベルがサブセット単位に逆スキャンされてサブセットを生成し、前記サブセットは、対角線スキャンによって逆スキャンされて量子化ブロックを生成する。前記予め決められたサイズは、サブセットのサイズと同じである。サブセットは、16個の係数を含む4×4ブロックである。重要フラグ、係数符号及び係数レベルは、逆方向に逆スキャンされる。サブセットも逆方向に逆スキャンされる。
0でない量子化係数の位置を示すパラメータ及びノンゼロサブセットフラグがビットストリームから抽出される。符号化されたサブセットの数は、前記0でない係数の位置を示すパラメータに基づいて決定される。ノンゼロサブセットフラグは、対応サブセットが0でない係数を少なくとも一つ含むかどうかを決定するために使われる。ノンゼロサブセットフラグが1の場合、サブセットは、対角線スキャンを使用して生成される。最初及び最後のサブセットは、逆スキャンパターンを利用して生成される。
逆量子化マトリクス及び量子化パラメータを利用して量子化ブロックが逆量子化される(S530)。
量子化ユニットの最小サイズが決定される。前記最小サイズを特定するパラメータ(cu_qp_delta_enabled_info)がPPSから抽出され、量子化ユニットの最小サイズは、下記のように誘導される。
Log2(MinQUSize)=Log2(MaxCUSize)−cu_qp_delta_enabled_info
MinQUSizeは、量子化ユニットの最小サイズである。MaxCUSizeは、LCUのサイズである。cu_qp_delta_enabled_infoは、ピクチャパラメータセットから抽出される。
現在コーディングユニットの差分量子化パラメータ(dQP)が誘導される。差分量子化パラメータは、量子化ユニット毎に含まれる。したがって、現在コーディングユニットのサイズが前記最小サイズより大きい又は同じ場合、現在コーディングユニットに対して差分量子化パラメータが復元される。差分量子化パラメータが存在しない場合、差分量子化パラメータは、0に設定される。複数個のコーディングユニットが一つの量子化ユニットに含む場合、復号化の順序上、0でない係数を少なくとも一つ有する最初のコーディングユニットが差分量子化パラメータを含む。
前記符号化された差分量子化パラメータは、算術復号化されて差分量子化パラメータの絶対値を示すビンストリング(bin string)と差分量子化パラメータの符号を示すビンが生成される。前記ビンストリングは、トランケーテッドユーナリ(truncated unary)方式に二進化されたビンストリングである。前記差分量子化パラメータの絶対値が0の場合、前記符号を示すビンは存在しない。前記絶対値を示すビンストリングと前記符号を示すビンを利用して前記差分量子化パラメータが誘導される。
現在コーディングユニットの前記量子化パラメータ予測子が誘導される。前記量子化パラメータ予測子は、隣接コーディングユニットの量子化パラメータと以前コーディングユニットの量子化パラメータを利用して生成される。
左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータは、前記順序通りに検索される。少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。即ち、前記左側量子化パラメータ及び前記上側量子化パラメータが両方とも利用可能な場合、前記左側量子化パラメータ及び前記上側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側量子化パラメータ及び前記上側量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側量子化パラメータ及び前記上側量子化パラメータが両方とも利用可能でない場合、前記以前量子化パラメータが前記量子化パラメータ予測子に設定される。
量子化ユニットが複数個のコーディングユニットを含む場合、復号化の順序上、最初のコーディングユニットの量子化パラメータ予測子が生成され、前記生成された量子化パラメータ予測子が前記量子化ユニット内の全てのコーディングユニットに使われる。
前記差分量子化パラメータと前記量子化パラメータ予測子を利用して量子化パラメータが生成される。
前記逆量子化ブロックを逆変換して残差ブロックを生成する(S540)。1次元の水平及び垂直逆DCTベースの変換が使われる。
以上、実施例を参照して説明したが、該当技術分野の熟練された当業者は、特許請求の範囲に記載された本発明の思想及び領域から外れない範囲内で本発明を多様に修正及び変更可能であることを理解することができる。
130 インター予測部

Claims (9)

  1. 単方向予測により映像データを復号化する方法であって、
    現在予測ユニットの参照ピクチャインデックスと動きベクトルを誘導するステップ;
    前記参照ピクチャインデックス及び動きベクトルを利用して現在予測ユニットの予測ブロックを生成するステップ;
    量子化係数成分を逆スキャンして量子化ブロックを生成するステップ;
    量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成するステップ;
    前記変換ブロックを逆変換して残差ブロックを形成するステップ;及び
    前記予測ブロックと残差ブロックを利用して復元ブロックを生成するステップ;を含み、
    前記動きベクトルが1/4画素位置を示す場合、前記予測ブロックの予測画素は、7タップ補間フィルタを利用して生成され、前記動きベクトルが1/2画素位置を示す場合、前記予測ブロックの予測画素は、8タップ補間フィルタを利用して生成され、
    前記量子化パラメータは、差分量子化パラメータ及び量子化パラメータ予測子を利用して生成され、
    左側及び上側量子化パラメータが両方とも利用可能な場合、前記量子化パラメータ予測子は、前記左側及び上側量子化パラメータの平均値に設定され、
    左側及び上側量子化パラメータのうち一つのみが利用可能な場合、前記量子化パラメータ予測子は、前記利用可能な一つの量子化パラメータと以前量子化パラメータの平均値に設定されることを特徴とする方法。
  2. 前記量子化パラメータは、一つ以上のコーディングユニットを含む量子化ユニット単位で誘導され、前記量子化ユニットのサイズは、コーディングユニットの許容可能なサイズのうち一つであることを特徴とする請求項1に記載の方法。
  3. 前記差分量子化パラメータは、前記量子化ユニット単位で誘導されることを特徴とする請求項1に記載の方法。
  4. 前記量子化ユニットのサイズは、ピクチャ単位で決定されることを特徴とする請求項1に記載の方法。
  5. 現在予測ユニットの前記参照ピクチャインデックスと前記動きベクトルは、マージインデックスにより特定される空間マージ候補または時間マージ候補のうち一つの動き情報であることを特徴とする請求項1に記載の方法。
  6. 前記時間マージ候補の動きベクトルは、時間マージ候補ピクチャ内の時間マージ候補ブロックの動きベクトルであり、前記時間マージ候補ブロックの位置は、最大コーディングユニット内での現在ブロックの位置に応じて決定されることを特徴とする請求項4に記載の方法。
  7. 前記空間マージ候補は、空間マージ候補ブロックの動き情報であり、前記空間マージ候補ブロックは、現在ブロックの左側ブロック、上側ブロック、右上側ブロック、左下側ブロックまたは左上側ブロックであることを特徴とする請求項4に記載の方法。
  8. 前記左側ブロック、前記上側ブロック、前記右上側ブロック及び前記左下側ブロックの動き情報がいずれも利用可能な場合、前記左上側ブロックは、マージ候補ブロックとして設定されないことを特徴とする請求項7に記載の方法。
  9. 左側量子化パラメータ及び上側量子化パラメータが両方とも利用可能でない場合、以前量子化パラメータが、前記量子化パラメータ予測子として設定されることを特徴とする請求項1に記載の方法。
JP2015203553A 2011-11-07 2015-10-15 映像データを復号化する方法 Active JP6074475B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110115348A KR20130050149A (ko) 2011-11-07 2011-11-07 인터 모드에서의 예측 블록 생성 방법
KR10-2011-0115348 2011-11-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014539234A Division JP5827412B2 (ja) 2011-11-07 2012-11-02 映像データを復号化する方法

Publications (2)

Publication Number Publication Date
JP2016028517A true JP2016028517A (ja) 2016-02-25
JP6074475B2 JP6074475B2 (ja) 2017-02-01

Family

ID=48288520

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2014539234A Active JP5827412B2 (ja) 2011-11-07 2012-11-02 映像データを復号化する方法
JP2015203555A Active JP6074477B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する装置
JP2015203553A Active JP6074475B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する方法
JP2015203552A Active JP6076438B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する方法
JP2015203554A Active JP6074476B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する装置
JP2017001945A Active JP6345815B2 (ja) 2011-11-07 2017-01-10 映像データを復号化する方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2014539234A Active JP5827412B2 (ja) 2011-11-07 2012-11-02 映像データを復号化する方法
JP2015203555A Active JP6074477B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する装置

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2015203552A Active JP6076438B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する方法
JP2015203554A Active JP6074476B2 (ja) 2011-11-07 2015-10-15 映像データを復号化する装置
JP2017001945A Active JP6345815B2 (ja) 2011-11-07 2017-01-10 映像データを復号化する方法

Country Status (16)

Country Link
US (8) US8982957B2 (ja)
EP (5) EP3930326A1 (ja)
JP (6) JP5827412B2 (ja)
KR (4) KR20130050149A (ja)
CN (7) CN104883568B (ja)
AU (5) AU2012334553B2 (ja)
BR (5) BR122015027407B8 (ja)
CA (5) CA3039421C (ja)
HK (6) HK1199588A1 (ja)
IL (5) IL231707A (ja)
MX (5) MX347163B (ja)
MY (2) MY201790A (ja)
PH (6) PH12015500839B1 (ja)
RU (5) RU2621966C1 (ja)
SG (5) SG10201503437RA (ja)
WO (1) WO2013067903A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016028519A (ja) * 2011-11-07 2016-02-25 インフォブリッジ ピーティーイー. エルティーディー. 映像データを復号化する方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014501091A (ja) * 2010-12-17 2014-01-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート インター予測方法及びその装置
MX336301B (es) * 2011-06-28 2016-01-14 Samsung Electronics Co Ltd Metodo para interpolacion de imagen que utiliza filtro de interpolacion asimetrico y aparato para ello.
JP5900308B2 (ja) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
FR3032583B1 (fr) * 2015-02-06 2018-03-02 Orange Procede de codage d'une image numerique, procede de decodage, dispositifs, et programmes d'ordinateurs associes
AU2015395514B2 (en) * 2015-05-21 2019-10-10 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
CN108028926B (zh) * 2015-08-20 2021-08-24 日本放送协会 图像编码装置、图像解码装置
WO2017122997A1 (ko) * 2016-01-11 2017-07-20 삼성전자 주식회사 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2017176092A1 (ko) * 2016-04-08 2017-10-12 한국전자통신연구원 움직임 예측 정보를 유도하는 방법 및 장치
US10602176B2 (en) * 2016-04-15 2020-03-24 Google Llc Coding interpolation filter type
ES2802817B2 (es) 2016-07-05 2023-06-22 Kt Corp Metodo y aparato para procesar senal de video
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
US10341659B2 (en) * 2016-10-05 2019-07-02 Qualcomm Incorporated Systems and methods of switching interpolation filters
EP3525460A4 (en) 2016-10-06 2020-06-17 LG Electronics Inc. -1- METHOD FOR PROCESSING A VIDEO BASED ON AN INTRAPREDICATION MODE AND DEVICE THEREFOR
US10623746B2 (en) * 2017-12-07 2020-04-14 Tencent America LLC Method and apparatus for video coding
US20200007872A1 (en) * 2018-06-29 2020-01-02 Industrial Technology Research Institute Video decoding method, video decoder, video encoding method and video encoder
EP3905686A4 (en) 2018-12-28 2022-10-19 JVCKenwood Corporation DYNAMIC IMAGE DECODING DEVICE, DYNAMIC IMAGE DECODING METHOD, DYNAMIC IMAGE DECODING PROGRAM, DYNAMIC IMAGE CODING DEVICE, DYNAMIC IMAGE CODING METHOD AND DYNAMIC IMAGE CODING PROGRAM
CN112468825B (zh) 2018-12-28 2022-04-26 杭州海康威视数字技术股份有限公司 一种编解码方法及其设备
CN113728633B (zh) 2019-04-01 2022-12-20 北京字节跳动网络技术有限公司 对基于历史的运动矢量预测使用插值滤波器
JP7359942B2 (ja) 2019-08-20 2023-10-11 北京字節跳動網絡技術有限公司 映像処理における代替の補間フィルタの選択的使用
JP7267885B2 (ja) * 2019-09-20 2023-05-02 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
JP2021052241A (ja) * 2019-09-20 2021-04-01 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
WO2023028965A1 (en) * 2021-09-02 2023-03-09 Nvidia Corporation Hardware codec accelerators for high-performance video encoding
CN116114245A (zh) 2021-09-02 2023-05-12 辉达公司 在视频编码过程中视频帧的并行处理
CN117255205A (zh) * 2022-06-16 2023-12-19 北京三星通信技术研究有限公司 视频编解码方法及相应的设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016028519A (ja) * 2011-11-07 2016-02-25 インフォブリッジ ピーティーイー. エルティーディー. 映像データを復号化する方法

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3853554T2 (de) * 1987-06-09 1995-08-24 Sony Corp Bewegungsvektorabschätzung in Fernsehbildern.
US5339108A (en) * 1992-04-09 1994-08-16 Ampex Corporation Ordering and formatting coded image data and reconstructing partial images from the data
US5867602A (en) * 1994-09-21 1999-02-02 Ricoh Corporation Reversible wavelet transform and embedded codestream manipulation
US5881176A (en) * 1994-09-21 1999-03-09 Ricoh Corporation Compression and decompression with wavelet style and binary style including quantization by device-dependent parser
US6009236A (en) * 1994-09-26 1999-12-28 Mitsubishi Denki Kabushiki Kaisha Digital video signal record and playback device and method for giving priority to a center of an I frame
US5982935A (en) * 1997-04-11 1999-11-09 National Semiconductor Corporation Method and apparatus for computing MPEG video reconstructed DCT coefficients
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
US6639942B1 (en) * 1999-10-21 2003-10-28 Toshiba America Electronic Components, Inc. Method and apparatus for estimating and controlling the number of bits
US7663695B2 (en) * 2000-05-05 2010-02-16 Stmicroelectronics S.R.L. Method and system for de-interlacing digital images, and computer program product therefor
WO2002078355A1 (en) * 2001-03-23 2002-10-03 Nokia Corporation Variable length coding
US6735254B2 (en) * 2001-06-29 2004-05-11 Qualcomm, Inc. DCT compression using Golomb-Rice coding
US8243803B2 (en) * 2001-11-30 2012-08-14 Ntt Docomo, Inc. Moving picture coding apparatus, moving picture decoding apparatus, moving picture coding method, moving picture decoding method, program, and computer-readable recording medium containing the program
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US7305034B2 (en) * 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
CN101232618B (zh) * 2002-04-23 2013-03-27 诺基亚有限公司 用于在视频编码系统中指示量化器参数的方法与设备
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
NO319629B1 (no) * 2003-11-28 2005-09-05 Tandberg Telecom As Fremgangsmate for korrigering av interpolerte pikselverdier
US7599435B2 (en) * 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
US20050207495A1 (en) * 2004-03-10 2005-09-22 Jayaram Ramasastry Methods and apparatuses for compressing digital image data with motion prediction
US7894530B2 (en) * 2004-05-07 2011-02-22 Broadcom Corporation Method and system for dynamic selection of transform size in a video decoder based on signal content
US8823821B2 (en) * 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
JP4074868B2 (ja) * 2004-12-22 2008-04-16 株式会社東芝 画像符号化制御方法及びその装置
US7583844B2 (en) * 2005-03-11 2009-09-01 Nokia Corporation Method, device, and system for processing of still images in the compressed domain
US8208564B2 (en) * 2005-06-24 2012-06-26 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation
KR20080044874A (ko) * 2005-08-15 2008-05-21 노키아 코포레이션 비디오 코딩 시의 갱신 연산을 위한 서브 픽셀 보간 방법및 장치
US20080137732A1 (en) * 2005-09-20 2008-06-12 Mitsubishi Electric Corporation Image encoding method and image decoding method, image encoder and image decoder, and image encoded bit stream and recording medium
US9113147B2 (en) 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
KR100977101B1 (ko) * 2005-11-30 2010-08-23 가부시끼가이샤 도시바 화상 부호화/화상 복호화 방법 및 화상 부호화/화상 복호화장치
US8265151B1 (en) * 2005-12-14 2012-09-11 Ambarella Taiwan Ltd. Mode decision using approximate 1/2 pel interpolation
KR100867995B1 (ko) * 2006-01-07 2008-11-10 한국전자통신연구원 동영상 데이터 인코딩/디코딩 방법 및 그 장치
CN101401435A (zh) * 2006-02-13 2009-04-01 株式会社东芝 运动图像编码/译码方法、装置以及程序
JP4820191B2 (ja) 2006-03-15 2011-11-24 富士通株式会社 動画像符号化装置及びプログラム
US8325807B2 (en) * 2006-04-03 2012-12-04 British Telecommunications Public Limited Company Video coding
US20070274396A1 (en) * 2006-05-26 2007-11-29 Ximin Zhang Complexity adaptive skip mode estimation for video encoding
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
US8208545B2 (en) * 2006-06-01 2012-06-26 Electronics And Telecommunications Research Institute Method and apparatus for video coding on pixel-wise prediction
US8422555B2 (en) * 2006-07-11 2013-04-16 Nokia Corporation Scalable video coding
JP2009545920A (ja) * 2006-08-02 2009-12-24 トムソン ライセンシング ビデオ符号化処理のためにアダブティブなジオメトリック分割を行う方法および装置
US20080170611A1 (en) * 2007-01-17 2008-07-17 Srikrishna Ramaswamy Configurable functional multi-processing architecture for video processing
EP2120462B1 (en) * 2007-03-05 2018-12-19 NEC Corporation Weighted prediction information calculation method, device, program, dynamic image encoding method, device, and program
US8107571B2 (en) * 2007-03-20 2012-01-31 Microsoft Corporation Parameterized filters and signaling techniques
KR101366242B1 (ko) * 2007-03-29 2014-02-20 삼성전자주식회사 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치
BRPI0809255A2 (pt) * 2007-04-16 2014-09-23 Toshiba Kk Toshiba Corp Método e aparelho para a codificação e decodificação de vídeo
JPWO2009001793A1 (ja) * 2007-06-26 2010-08-26 株式会社東芝 画像符号化と画像復号化の方法及び装置
ATE484155T1 (de) * 2007-06-29 2010-10-15 Fraunhofer Ges Forschung Skalierbare videocodierung, die pixelwert- verfeinerungsskalierbarkeit unterstützt
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
JP4876048B2 (ja) * 2007-09-21 2012-02-15 株式会社日立製作所 映像送受信方法、受信装置、映像蓄積装置
US8938005B2 (en) * 2007-11-05 2015-01-20 Canon Kabushiki Kaisha Image encoding apparatus, method of controlling the same, and computer program
US8885726B2 (en) * 2007-12-04 2014-11-11 Vixs Systems, Inc. Neighbor management for use in entropy encoding and methods for use therewith
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
KR20090094595A (ko) * 2008-03-03 2009-09-08 삼성전자주식회사 복수 참조에 의한 움직임 예측을 이용한 부호화 방법 및장치, 그리고 복수 참조에 의한 움직임 예측을 이용한복호화 방법 및 장치
US9077971B2 (en) * 2008-04-10 2015-07-07 Qualcomm Incorporated Interpolation-like filtering of integer-pixel positions in video coding
KR101549823B1 (ko) * 2008-09-02 2015-09-04 삼성전자주식회사 적응적 이진화를 이용한 영상 부호화, 복호화 방법 및 장치
EP2161936A1 (en) * 2008-09-04 2010-03-10 Panasonic Corporation Locally adaptive filters for video coding controlled by local correlation data
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
US8483285B2 (en) * 2008-10-03 2013-07-09 Qualcomm Incorporated Video coding using transforms bigger than 4×4 and 8×8
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
TWI387314B (zh) * 2009-03-10 2013-02-21 Univ Nat Central Image processing apparatus and method thereof
EP2237557A1 (en) * 2009-04-03 2010-10-06 Panasonic Corporation Coding for filter coefficients
KR101557504B1 (ko) * 2009-04-13 2015-10-07 삼성전자주식회사 채널 적응형 비디오 전송 방법, 이를 이용한 장치 및 이를 제공하는 시스템
US20110002391A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by resolution-adaptive macroblock coding
KR101675116B1 (ko) * 2009-08-06 2016-11-10 삼성전자 주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
JPWO2011046008A1 (ja) * 2009-10-16 2013-03-04 シャープ株式会社 動画像符号化装置、および、動画像復号装置
US9237355B2 (en) * 2010-02-19 2016-01-12 Qualcomm Incorporated Adaptive motion resolution for video coding
JP5688136B2 (ja) * 2010-04-23 2015-03-25 エム アンド ケー ホールディングス インコーポレイテッド 映像を符号化する装置及び方法
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
US10349070B2 (en) * 2010-09-30 2019-07-09 Texas Instruments Incorporated Simplified binary arithmetic coding engine
US8787443B2 (en) * 2010-10-05 2014-07-22 Microsoft Corporation Content adaptive deblocking during video encoding and decoding
US10327008B2 (en) * 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
US8755438B2 (en) * 2010-11-29 2014-06-17 Ecole De Technologie Superieure Method and system for selectively performing multiple video transcoding operations
US9288496B2 (en) * 2010-12-03 2016-03-15 Qualcomm Incorporated Video coding using function-based scan order for transform coefficients
US20120163448A1 (en) * 2010-12-22 2012-06-28 Qualcomm Incorporated Coding the position of a last significant coefficient of a video block in video coding
US9172972B2 (en) * 2011-01-05 2015-10-27 Qualcomm Incorporated Low complexity interpolation filtering with adaptive tap size
US9008176B2 (en) * 2011-01-22 2015-04-14 Qualcomm Incorporated Combined reference picture list construction for video coding
US9008181B2 (en) * 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
JP5982734B2 (ja) * 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9143799B2 (en) * 2011-05-27 2015-09-22 Cisco Technology, Inc. Method, apparatus and computer program product for image motion prediction
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
US9942573B2 (en) * 2011-06-22 2018-04-10 Texas Instruments Incorporated Systems and methods for reducing blocking artifacts
US10536701B2 (en) * 2011-07-01 2020-01-14 Qualcomm Incorporated Video coding using adaptive motion vector resolution
US9756360B2 (en) * 2011-07-19 2017-09-05 Qualcomm Incorporated Coefficient scanning in video coding
US9699456B2 (en) * 2011-07-20 2017-07-04 Qualcomm Incorporated Buffering prediction data in video coding
US9824426B2 (en) * 2011-08-01 2017-11-21 Microsoft Technology Licensing, Llc Reduced latency video stabilization
US9344743B2 (en) * 2011-08-24 2016-05-17 Texas Instruments Incorporated Flexible region based sample adaptive offset (SAO) and adaptive loop filter (ALF)
US10070152B2 (en) * 2011-08-24 2018-09-04 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
US20130083844A1 (en) * 2011-09-30 2013-04-04 In Suk Chong Coefficient coding for sample adaptive offset and adaptive loop filter
US9762899B2 (en) * 2011-10-04 2017-09-12 Texas Instruments Incorporated Virtual memory access bandwidth verification (VMBV) in video coding
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US9699457B2 (en) * 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
US9357235B2 (en) * 2011-10-13 2016-05-31 Qualcomm Incorporated Sample adaptive offset merged with adaptive loop filter in video coding
US20130101033A1 (en) * 2011-10-14 2013-04-25 Qualcomm Incorporated Coding non-symmetric distributions of data
US8915706B2 (en) 2011-10-18 2014-12-23 General Electric Company Transition nozzle
MX338988B (es) * 2011-10-24 2016-05-09 Infobridge Pte Ltd Aparato para la decodificacion de imagenes.
US10129540B2 (en) * 2012-04-10 2018-11-13 Texas Instruments Incorporated Reduced complexity coefficient transmission for adaptive loop filtering (ALF) in video coding
US9420280B2 (en) * 2012-06-08 2016-08-16 Qualcomm Incorporated Adaptive upsampling filters
US9648318B2 (en) * 2012-09-30 2017-05-09 Qualcomm Incorporated Performing residual prediction in video coding
US10136143B2 (en) * 2012-12-07 2018-11-20 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US10462480B2 (en) * 2014-12-31 2019-10-29 Microsoft Technology Licensing, Llc Computationally efficient motion estimation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016028519A (ja) * 2011-11-07 2016-02-25 インフォブリッジ ピーティーイー. エルティーディー. 映像データを復号化する方法
JP2016028518A (ja) * 2011-11-07 2016-02-25 インフォブリッジ ピーティーイー. エルティーディー. 映像データを復号化する方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
JPN6015021703; Benjamin Bross et al.: 'High efficiency video coding (HEVC) text specification draft 6' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 7th M JCTVC-H1003_dJ, 201202, pp.47-53,85-90,112-119,126-128,137-142 *
JPN6015021704; Masaaki Kobayashi and Masato Shima: 'Sub-LCU level delta QP signaling' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E198, 201103, pp.1-9, 5th Meeting: Geneve, CH *
JPN6015021705; Kazushi Sato: 'CE4: Result of 2.3.d and 2.3.e' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F420r1, 201107, pp.1-5, 6th Meeting: Torino, IT *
JPN6015021706; Kenji Kondo et al.: 'Improvement of delta-QP Coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F422r1, 201107, pp.1-8, 6th Meeting: Torino, IT *
JPN6015021707; Hiroya Nakamura et al.: 'Non-CE4: Compatible QP prediction with RC and AQ' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-H0204_r2, 201202, pp.1-11, 8th Meeting: San Jose, CA, USA *
JPN6015037562; A. Alshin and E. Alshina: 'CE3: DCT derived interpolation filter test by Samsung' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F247_r3, 201107, pp.1-10, 6th Meeting: Torino, IT *
JPN6015037563; Jian Lou et al.: 'CE3: Fixed interpolation filter tests by Motorola Mobility' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F574r2, 201107, pp.1-10, 6th Meeting: Torino, IT *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016028519A (ja) * 2011-11-07 2016-02-25 インフォブリッジ ピーティーイー. エルティーディー. 映像データを復号化する方法
JP2016028518A (ja) * 2011-11-07 2016-02-25 インフォブリッジ ピーティーイー. エルティーディー. 映像データを復号化する方法
US9615106B2 (en) 2011-11-07 2017-04-04 Infobridge Pte. Ltd. Method of decoding video data
US9635384B2 (en) 2011-11-07 2017-04-25 Infobridge Pte. Ltd. Method of decoding video data
US9641860B2 (en) 2011-11-07 2017-05-02 Infobridge Pte. Ltd. Method of decoding video data
US9648343B2 (en) 2011-11-07 2017-05-09 Infobridge Pte. Ltd. Method of decoding video data
US10212449B2 (en) 2011-11-07 2019-02-19 Infobridge Pte. Ltd. Method of encoding video data
US10873757B2 (en) 2011-11-07 2020-12-22 Infobridge Pte. Ltd. Method of encoding video data

Also Published As

Publication number Publication date
JP5827412B2 (ja) 2015-12-02
HK1214701A1 (zh) 2016-07-29
MY201095A (en) 2024-02-05
CN104869402A (zh) 2015-08-26
PH12015500843A1 (en) 2016-08-15
BR122015027404B1 (pt) 2022-06-28
HK1199588A1 (en) 2015-07-03
PH12015500844B1 (en) 2016-08-15
PH12015500843B1 (en) 2016-08-15
JP6074477B2 (ja) 2017-02-01
EP3930325A1 (en) 2021-12-29
IL239726A0 (en) 2015-08-31
RU2014113082A (ru) 2015-12-20
MX356738B (es) 2018-06-12
JP6074476B2 (ja) 2017-02-01
BR122015027407B1 (pt) 2022-06-28
IL239727B (en) 2019-02-28
CA2849029A1 (en) 2013-05-16
AU2012334553A1 (en) 2014-04-17
CN107517382B (zh) 2020-07-10
JP2014534753A (ja) 2014-12-18
KR20140077919A (ko) 2014-06-24
PH12015500844A1 (en) 2016-08-15
US20170214934A1 (en) 2017-07-27
US20190141349A1 (en) 2019-05-09
WO2013067903A1 (en) 2013-05-16
MX339984B (es) 2016-06-20
EP3926951A1 (en) 2021-12-22
US9615106B2 (en) 2017-04-04
AU2015249104B2 (en) 2017-08-03
BR122015027425A8 (pt) 2022-10-04
US20150156510A1 (en) 2015-06-04
US20150229951A1 (en) 2015-08-13
AU2015249103B2 (en) 2017-08-03
PH12015500839A1 (en) 2016-08-15
SG10201503437RA (en) 2015-06-29
US20150229952A1 (en) 2015-08-13
IL239727A0 (en) 2015-08-31
CN104012094B (zh) 2017-11-10
CN107517382A (zh) 2017-12-26
CA3039421C (en) 2020-10-27
BR122015027404A2 (pt) 2019-08-27
BR122015027402B8 (pt) 2022-10-04
EP2752007A4 (en) 2015-06-17
SG10201503443YA (en) 2015-06-29
JP2016028519A (ja) 2016-02-25
CN104869401B (zh) 2018-03-23
PH12017502131B1 (en) 2018-07-02
US9635384B2 (en) 2017-04-25
EP3934248A1 (en) 2022-01-05
CN104869400B (zh) 2018-03-27
PH12017502132A1 (en) 2018-07-02
PH12017502131A1 (en) 2018-07-02
IL231707A0 (en) 2014-05-28
JP6074475B2 (ja) 2017-02-01
IL239728B (en) 2019-07-31
BR112014007593B1 (pt) 2022-06-21
MX347162B (es) 2017-04-17
PH12015500841B1 (en) 2016-08-15
CA3092392A1 (en) 2013-05-16
AU2015249104A1 (en) 2015-11-12
SG11201400667QA (en) 2014-04-28
PH12015500839B1 (en) 2016-08-15
US20150229953A1 (en) 2015-08-13
IL239728A0 (en) 2015-08-31
US20140269926A1 (en) 2014-09-18
SG10201503439UA (en) 2015-06-29
US10212449B2 (en) 2019-02-19
CA2931709A1 (en) 2013-05-16
EP3930326A1 (en) 2021-12-29
JP2016028516A (ja) 2016-02-25
RU2621970C1 (ru) 2017-06-08
JP6076438B2 (ja) 2017-02-08
IL231707A (en) 2016-10-31
US20150229950A1 (en) 2015-08-13
CN104869402B (zh) 2017-10-24
CA3039421A1 (en) 2013-05-16
CN104869401A (zh) 2015-08-26
HK1214442A1 (zh) 2016-07-22
AU2015249105B2 (en) 2017-08-03
BR122015027402B1 (pt) 2022-06-28
CA2931745A1 (en) 2013-05-16
MX347163B (es) 2017-04-17
CA2931745C (en) 2019-05-21
US8982957B2 (en) 2015-03-17
BR112014007593A2 (pt) 2017-04-11
AU2015249103A1 (en) 2015-11-12
JP2017085646A (ja) 2017-05-18
JP2016028518A (ja) 2016-02-25
RU2621967C1 (ru) 2017-06-08
US9648343B2 (en) 2017-05-09
CA3092392C (en) 2022-04-12
SG10201503444WA (en) 2015-06-29
MY201790A (en) 2024-03-18
CN104967847B (zh) 2018-04-13
RU2621972C2 (ru) 2017-06-08
BR122015027404B8 (pt) 2022-10-04
AU2012334553B2 (en) 2015-07-30
JP6345815B2 (ja) 2018-06-20
HK1214443A1 (zh) 2016-07-22
CA2931709C (en) 2019-05-21
EP3930325A3 (en) 2022-03-09
CA2849029C (en) 2016-08-09
US9351012B2 (en) 2016-05-24
CN104012094A (zh) 2014-08-27
IL239725A0 (en) 2015-08-31
HK1214444A1 (zh) 2016-07-22
CN104869400A (zh) 2015-08-26
KR20130050149A (ko) 2013-05-15
RU2589866C2 (ru) 2016-07-10
AU2015249102B2 (en) 2017-08-03
BR122015027425A2 (pt) 2019-08-27
HK1214703A1 (zh) 2016-07-29
BR122015027407B8 (pt) 2022-10-04
RU2015131333A (ru) 2015-11-27
AU2015249105A1 (en) 2015-11-12
US10873757B2 (en) 2020-12-22
BR122015027407A2 (pt) 2019-08-27
CN104883568B (zh) 2018-04-17
BR122015027425B1 (pt) 2023-01-10
RU2621966C1 (ru) 2017-06-08
IL239725A (en) 2017-07-31
PH12017502132B1 (en) 2018-07-02
EP2752007A1 (en) 2014-07-09
PH12015500841A1 (en) 2016-08-15
KR20140074949A (ko) 2014-06-18
CN104883568A (zh) 2015-09-02
CN104967847A (zh) 2015-10-07
BR122015027402A2 (pt) 2019-08-27
AU2015249102A1 (en) 2015-11-12
KR20140082702A (ko) 2014-07-02
MX2014003962A (es) 2014-08-01
US9641860B2 (en) 2017-05-02

Similar Documents

Publication Publication Date Title
JP6345815B2 (ja) 映像データを復号化する方法
JP6267373B2 (ja) Amvpモードにおける映像復号化方法
JP6607417B2 (ja) 映像復号化装置
JP6114362B2 (ja) マージモードにおける映像復号化方法
JP6005792B2 (ja) マージモードにおける映像符号化装置
JP2016029818A (ja) マージリスト構築方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20160804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170106

R150 Certificate of patent or registration of utility model

Ref document number: 6074475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250