JP6306050B2 - ビデオ信号処理方法および装置 - Google Patents

ビデオ信号処理方法および装置 Download PDF

Info

Publication number
JP6306050B2
JP6306050B2 JP2015551613A JP2015551613A JP6306050B2 JP 6306050 B2 JP6306050 B2 JP 6306050B2 JP 2015551613 A JP2015551613 A JP 2015551613A JP 2015551613 A JP2015551613 A JP 2015551613A JP 6306050 B2 JP6306050 B2 JP 6306050B2
Authority
JP
Japan
Prior art keywords
intra prediction
mode
list
prediction mode
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015551613A
Other languages
English (en)
Other versions
JP2016506689A (ja
Inventor
チン ホ
チン ホ
チウク チョン
チウク チョン
ソフン イェ
ソフン イェ
ムンモ ク
ムンモ ク
テソプ キム
テソプ キム
チェウォン ソン
チェウォン ソン
ウンヨン ソン
ウンヨン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2016506689A publication Critical patent/JP2016506689A/ja
Application granted granted Critical
Publication of JP6306050B2 publication Critical patent/JP6306050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Description

本発明は、ビデオ信号のコーディング方法およびビデオ信号のコーディング装置に関する。
圧縮符号化とは、デジタル化した情報を通信回線を介して伝送したり、格納媒体に適した形態で格納することに関する一連の信号処理技術を意味する。圧縮符号化の対象としては音声、映像、文字などの対象が存在し、特に、映像を対象として圧縮符号化を行う技術をビデオ映像圧縮と称する。多視点ビデオ映像の一般的な特徴は、空間的冗長性、時間的冗長性および視点間冗長性を有している点にある。
本発明の目的は、ビデオ信号のコーディング効率を高めることにある。
本発明に係るビデオ信号処理方法は、現在のブロックの空間隣接ブロック(spatial neighboring block)からのイントラ予測モードに基づいて現在のブロックの候補モードリスト(candidate mode list)を生成し、現在のブロックの隣接視点からのイントラ予測モードに基づいて候補モードリストを修正し、修正した候補モードリストに基づいて現在のブロックのイントラ予測モードを導出し、導出したイントラ予測モードを用いて現在のブロックを予測することを特徴とする。
本発明に係る空間隣接ブロックは、現在のブロックに隣接した左側隣接ブロックおよび上側(上端)(upper)隣接ブロックのうち少なくとも一つを含むことを特徴とする。
本発明に係る候補モードリストを修正するステップは、現在のブロックの視差ベクトルを取得し、視差ベクトルに基づいて隣接視点の参照ブロックを取得し、参照ブロックがイントラモードでコーディングされたブロックであるか否かを確認し、参照ブロックがイントラモードでコーディングされたブロックである場合、参照ブロックのイントラ予測モードを用いて候補モードリストを修正することを特徴とする。
本発明に係る現在のブロックの視差ベクトルは、現在のブロックの左側、上側、左側下端、右側上端および左側上端に位置する各隣接ブロックのうち少なくとも一つの隣接ブロックの視差ベクトルを用いて取得することを特徴とする。
本発明に係る現在のブロックの視差ベクトルは、現在のブロックに対応するデプス(奥行き)(depth)データから導出されることを特徴とする。
本発明に係る候補モードリストは、現在のブロックが利用可能な複数のイントラ予測モードと、複数のイントラ予測モードのそれぞれに対応するリストインデックス情報と、を定義し、リストインデックス情報は、候補モードリスト内に順次配列された複数のイントラ予測モードのそれぞれの位置を特定することを特徴とする。
本発明に係る候補モードリストを修正するステップは、候補モードリスト内に隣接視点からのイントラ予測モードと同一のイントラ予測モードが存在する場合、隣接視点のイントラ予測モードと同一のイントラ予測モードに対応するリストインデックス情報を変更し、候補モードリストを再配列することを特徴とする。
本発明に係る候補モードリストを修正するステップは、候補モードリスト内の複数のイントラ予測モードのうちいずれか一つを隣接視点からのイントラ予測モードに置き換える(replace)ことを特徴とする。
本発明に係る候補モードリストを修正するステップは、空間隣接ブロックからのイントラ予測モードに基づいて生成された候補モードリストに隣接視点からのイントラ予測モードを追加することを特徴とする。
本発明は、現在のブロックに空間的に隣接した隣接ブロックのイントラ予測モードから候補モードリストを生成し、これを用いて現在のブロックのイントラ予測モードを導出することによって、より正確なイントラ予測モードを取得することができる。さらに、正確なイントラ予測モードを導出することによって、現在のブロックの残差(レジデュアル)(residual)をコーディングするのに必要なビット数を減少させることができる。
また、本発明は、空間的に隣接した隣接ブロックを用いるだけでなく、視点間の類似性を考慮して、隣接視点に位置する参照ブロックからのイントラ予測モードを用いて候補モードリストを生成することによって、現在のブロックのイントラ予測のコーディング効率を向上させることができる。
本発明が適用される一実施例であって、ビデオデコーダの概略ブロック図である。 本発明が適用される一実施例であって、ビデオデコーダが適用される放送受信機の内部ブロック図である。 本発明が適用される一実施例であって、イントラ予測モードの種類を示した図である。 本発明が適用される一実施例であって、現在のブロックの候補モードリストを生成する方法を示したフローチャートである。 本発明が適用される一実施例であって、隣接視点の参照ブロックのイントラ予測モードを含む候補モードリストを生成する方法を示したフローチャートである。 本発明が適用される一実施例であって、隣接視点の参照ブロックのイントラ予測モードを用いて修正された候補モードリストを生成する方法を示した図である。 本発明が適用される一実施例であって、候補モードリストを用いて現在のブロックのイントラ予測モードを導出する方法を示したフローチャートである。
上記目的を達成するために、本発明に係るビデオ信号処理方法は、現在のブロックの空間隣接ブロック(spatial neighboring block)からのイントラ予測モードに基づいて現在のブロックの候補モードリスト(candidate mode list)を生成し、現在のブロックの隣接視点からのイントラ予測モードに基づいて上記候補モードリストを修正し、上記修正した候補モードリストに基づいて現在のブロックのイントラ予測モードを導出し、上記導出したイントラ予測モードを用いて現在のブロックを予測することを特徴とする。
本発明に係る上記空間隣接ブロックは、上記現在のブロックに隣接した左側隣接ブロックおよび上側(上端)(upper)隣接ブロックのうち少なくとも一つを含むことを特徴とする。
本発明に係る上記候補モードリストを修正するステップは、上記現在のブロックの視差ベクトルを取得し、上記視差ベクトルに基づいて隣接視点の参照ブロックを取得し、上記参照ブロックがイントラモードでコーディングされたブロックであるか否かを確認し、上記参照ブロックがイントラモードでコーディングされたブロックである場合、上記参照ブロックのイントラ予測モードを用いて上記候補モードリストを修正することを特徴とする。
本発明に係る上記現在のブロックの視差ベクトルは、上記現在のブロックの左側、上側、左側下端、右側上端および左側上端に位置する各隣接ブロックのうち少なくとも一つの隣接ブロックの視差ベクトルを用いて取得されることを特徴とする。
本発明に係る上記現在のブロックの視差ベクトルは、上記現在のブロックに対応するデプス(奥行き)(depth)データから導出されることを特徴とする。
本発明に係る上記候補モードリストは、上記現在のブロックが利用可能な複数のイントラ予測モードと、上記複数のイントラ予測モードのそれぞれに対応するリストインデックス情報と、を定義し、上記リストインデックス情報は、上記候補モードリスト内に順次配列された上記複数のイントラ予測モードのそれぞれの位置を特定することを特徴とする。
本発明に係る上記候補モードリストを修正するステップは、上記候補モードリスト内に上記隣接視点からのイントラ予測モードと同一のイントラ予測モードが存在する場合、上記隣接視点のイントラ予測モードと同一のイントラ予測モードに対応するリストインデックス情報を変更し、上記候補モードリストを再配列することを特徴とする。
本発明に係る上記候補モードリストを修正するステップは、上記候補モードリスト内の複数のイントラ予測モードのうちいずれか一つを上記隣接視点からのイントラ予測モードに置き換える(replace)ことを特徴とする。
本発明に係る上記候補モードリストを修正するステップは、上記空間隣接ブロックのイントラ予測モードに基づいて生成された候補モードリストに上記隣接視点からのイントラ予測モードを追加することを特徴とする。
以下、添付の図面を参照して本発明の好ましい実施例を詳細に説明する。説明の前に、本明細書および特許請求の範囲に使用された用語や単語は、通常または辞典における意味に限定して解釈してはならず、発明者が自身の発明を最も最善の方法で説明するために用語の概念を適宜定義できるとの原則に立脚して、本発明の技術的思想に符合する意味および概念に解釈しなければならない。したがって、本明細書に記載した実施例と図面に示した構成とは、本発明の最も好ましい一実施例に過ぎず、本発明の技術的思想をすべて代弁するものではないので、本出願時点において、これらに取って代わる多様な均等物および変形例があり得ることを理解しなければならない。
図1は、本発明が適用される一実施例であって、ビデオデコーダの概略ブロック図である。
図1を参照すると、ビデオデコーダは、NALパージング部100、エントロピデコーディング部110、逆量子化/逆変換部120、イントラ予測部130、インループフィルタ部140、復号ピクチャバッファ部150、およびインター予測部160を含むことができる。NALパージング部100は、多視点テクスチャデータを含むビットストリームを受信することができる。また、デプスデータがテクスチャデータのコーディングに必要な場合、エンコードされたデプスデータを含むビットストリームをさらに受信することもできる。このときに入力されるテクスチャデータおよびデプスデータは、一つのビットストリームで伝送されてもよく、別個のビットストリームで伝送されてもよい。NALパージング部100は、入力されたビットストリームを復号するためにNAL単位でパージングを行うことができる。入力されたビットストリームが多視点関連データ(例えば、3−Dimensional Video)である場合、入力されたビットストリームはカメラパラメータをさらに含むことができる。カメラパラメータとしては、内因性(固有の)カメラパラメータ(intrinsic camera parameter)および外因性(非固有の)カメラパラメータ(extrinsic camera parameter)があり、内因性カメラパラメータは、焦点距離(focal length)、縦横比(aspect ratio)、主点(principal point)などを含むことができ、外因性カメラパラメータは、世界座標系でのカメラの位置情報などを含むことができる。
エントロピデコーディング部110は、エントロピデコーディングを通じて量子化された変換係数、テクスチャピクチャの予測のためのコーディング情報などを抽出することができる。逆量子化/逆変換部120では、量子化された変換係数に量子化パラメータを適用することによって変換係数を取得し、変換係数を逆変換することによってテクスチャデータまたはデプスデータを復号することができる。ここで、復号されたテクスチャデータまたはデプスデータは、予測コーディングによる残差データを含むことができる。また、デプスブロックに対する量子化パラメータは、テクスチャデータの複雑度を考慮して設定することができる。例えば、デプスブロックに対応するテクスチャブロックが複雑度の高い領域である場合は低い量子化パラメータを設定し、複雑度の低い領域である場合は高い量子化パラメータを設定することができる。テクスチャブロックの複雑度は、数式1のように復元されたテクスチャピクチャ内で互いに隣接した各ピクセル間の差分値に基づいて決定することができる。
Figure 0006306050
数式1において、Eは、テクスチャデータの複雑度を示し、Cは、復元されたテクスチャデータを意味し、Nは、複雑度を算出しようとするテクスチャデータ領域内のピクセル数を意味し得る。数式1を参照すると、テクスチャデータの複雑度は、位置(x,y)に対応するテクスチャデータと位置(x−1,y)に対応するテクスチャデータとの間の差分値と、位置(x,y)に対応するテクスチャデータと位置(x+1,y)に対応するテクスチャデータとの間の差分値と、を用いて算出することができる。また、複雑度は、テクスチャピクチャおよびテクスチャブロックに対してそれぞれ算出することができ、これを用いて下記の数式2のように量子化パラメータを導出することができる。
Figure 0006306050
数式2を参照すると、デプスブロックに対する量子化パラメータは、テクスチャピクチャの複雑度とテクスチャブロックの複雑度との比率に基づいて決定することができる。αおよびβは、デコーダによって導出される可変整数であってもよく、デコーダ内で予め定められた定数であってもよい。
イントラ予測部130は、現在のテクスチャピクチャ内の復元されたテクスチャデータを用いて画面内予測を行うことができる。具体的には、現在のブロックのイントラ予測モードおよび現在のブロックに隣接した隣接サンプルを用いて現在のブロックのサンプルを予測することができる。ここで、現在のブロックのイントラ予測モードは、候補モードリストを用いて導出することができ、これについては、図4〜図7を参照して詳細に説明する。また、デプスピクチャに関しても、テクスチャピクチャと同一の方式で画面内予測を行うことができる。例えば、テクスチャピクチャの画面内予測のために用いられるコーディング情報をテブスピクチャでも同一に用いることができる。ここで、画面内予測のために用いられるコーディング情報は、イントラ予測モード、イントラ予測のパーティション情報を含むことができる。
インループフィルタ部140は、ブロック歪曲現象を減少させるためにそれぞれのコーディングされたブロックにインループフィルタを適用することができる。フィルタは、ブロックの縁部を滑らかに(スムージング)(smooth)し、デコーディングされたピクチャの画質を向上させることができる。フィルタリングを経たテクスチャピクチャまたはデプスピクチャは、出力されたり、参照ピクチャとして用いるために復号ピクチャバッファ部150に格納されてもよい。一方、テクスチャデータの特性とデプスデータの特性とが互いに異なるので、同一のインループフィルタを用いてテクスチャデータおよびデプスデータのコーディングを行う場合、コーディング効率が低下し得る。したがって、デプスデータのための別途のインループフィルタを定義することもできる。以下、デプスデータを効率的にコーディングできるインループフィルタリング方法として、領域ベースの適応ループフィルタ(region-based adaptive loop filter)とトリラテラルループフィルタ(trilateral loop filter)とを説明する。
領域ベースの適応ループフィルタの場合、デプスブロックの変化量(variance)に基づいて、領域ベースの適応ループフィルタを適用するか否かを決定することができる。ここで、デプスブロックの変化量は、デプスブロック内での最大ピクセル値と最小ピクセル値との間の差分として定義することができる。デプスブロックの変化量と予め定められたしきい値との間の比較を通じてフィルタを適用するか否かを決定することができる。例えば、デプスブロックの変化量が予め定められたしきい値より大きいか同じである場合、デプスブロック内の最大ピクセル値と最小ピクセル値との間の差が大きいことを意味するので、領域ベースの適応ループフィルタを適用すると決定することができる。一方、デプス変化量が予め定められたしきい値より小さい場合は、領域ベースの適応ループフィルタを適用しないと決定することができる。上記比較の結果によってフィルタを適用する場合、フィルタリングされたデプスブロックのピクセル値は、所定の加重値(重み)(weight)を隣接ピクセル値に適用して導出することができる。ここで、所定の加重値は、現在フィルタリングされるピクセルと隣接ピクセルとの間の位置の差および/または現在フィルタリングされるピクセル値と隣接ピクセル値との間の差分値に基づいて決定することができる。また、隣接ピクセル値は、デプスブロック内に含まれたピクセル値のうち現在フィルタリングされるピクセル値を除いたいずれか一つを意味し得る。
本発明に係るトリラテラルループフィルタは、領域ベースの適応ループフィルタと類似しているが、テクスチャデータをさらに考慮するという点で相違点を有する。具体的には、トリラテラルループフィルタは、次の三つの条件を比較して、これを満足する隣接ピクセルのデプスデータを抽出することができる。
Figure 0006306050
Figure 0006306050
Figure 0006306050
条件1は、デプスブロック内の現在のピクセル(p)と隣接ピクセル(q)との間の位置の差を予め定められた媒介変数と比較することであって、条件2は、現在のピクセル(p)のデプスデータと隣接ピクセル(q)のデプスデータとの間の差分を予め定められた媒介変数と比較することであって、条件3は、現在のピクセル(p)のテクスチャデータと隣接ピクセル(q)のテクスチャデータとの間の差分を予め定められた媒介変数と比較することである。
上記三つの条件を満足する各隣接ピクセルを抽出し、これらのデプスデータの中間値または平均値で現在のピクセル(p)をフィルタリングすることができる。
復号ピクチャバッファ部(Decoded Picture Buffer unit)150では、画面間予測を行うために、以前にコーディングされたテクスチャピクチャまたはデプスピクチャを格納または開放(解放)する役割などを行う。このとき、これらのピクチャを復号ピクチャバッファ部150に格納または開放するために、各ピクチャのframe_numおよびPOC(Picture Order Count)を用いることができる。さらに、デプスコーディングにおいて、上記以前にコーディングされた各ピクチャには、現在のデプスピクチャと異なる視点にあるデプスピクチャもあるので、これらの各ピクチャを参照ピクチャとして活用するためには、デプスピクチャの視点を識別する視点識別情報を用いることもできる。復号ピクチャバッファ部150は、より柔軟に画面間予測を実現するために適応メモリ管理方法(Memory Management Control Operation Method)および移動(スライディング)ウィンドウ方法(Sliding Window Method)などを用いて参照ピクチャを管理することができる。これは、参照ピクチャと非参照ピクチャとのメモリを一つのメモリに統一して管理し、少ないメモリで効率的に管理するためである。デプスコーディングにおいて、各デプスピクチャは、復号ピクチャバッファ部内で各テクスチャピクチャと区別するために別途のマーク(表示)でマーキングすることができ、上記マーキング処理で各デプスピクチャを識別するための情報を用いることができる。
インター予測部160は、復号ピクチャバッファ部150に格納された参照ピクチャおよび動き情報(motion information)を用いて現在のブロックの動き補償(motion compensation)を行うことができる。本明細書において、動き情報とは、動きベクトル(motion vector)、参照インデックス(reference index)情報を含む広義の概念として理解することができる。また、インター予測部160は、動き補償を行うために時間インター予測(temporal inter-prediction)を行うことができる。時間インター予測とは、現在のテクスチャブロックと同一の視点および異なる時間帯に位置する参照ピクチャと、現在のテクスチャブロックの動き情報と、を用いたインター予測を意味し得る。また、複数のカメラによって撮影された多視点映像の場合、時間インター予測のみならず、視点間インター予測をさらに行うこともできる。視点間インター予測とは、現在のテクスチャブロックと異なる視点に位置する参照ピクチャと現在のテクスチャブロックの動き情報とを用いたインター予測を意味し得る。一方、理解の便宜のために、視点間予測に用いられる動き情報をビュー間(インタービュー)(視点間)(inter-view)動きベクトル、ビュー間参照インデックス情報と称することにする。したがって、本明細書において、動き情報は、ビュー間動きベクトルおよびビュー間参照インデックス情報を含む概念として柔軟に解釈することができる。
図2は、本発明が適用される一実施例であって、ビデオデコーダが適用される放送受信機の内部ブロック図である。
本実施例に係る放送受信機は、地上波放送信号(terrestrial broadcast signals)を受信し、映像を再生するためのものである。上記放送受信機は、受信した各デプス関連情報を用いて3次元コンテンツを生成することができる。上記放送受信機は、チューナ200、復調(demodulator)/チャンネルデコーダ202、トランスポート逆多重化部204、脱パケット化(パケット解除)部(depacketizer)206、オーディオデコーダ208、ビデオデコーダ210、PSI/PSIP処理部214、3Dレンダリング部216、フォーマッタ220およびディスプレイ部222を含む。
チューナ200は、アンテナ(図示せず)を介して入力される多数の放送信号のうちユーザが選局したいずれか一つのチャンネルの放送信号を選択して出力する。復調/チャンネルデコーダ202は、チューナ200からの放送信号を復調し、復調された信号に対してエラー訂正デコーディングを行い、トランスポートストリーム(TS)を出力する。トランスポート逆多重化部204は、トランスポートストリームを逆多重化し、ビデオPESとオーディオPESとを分離し、PSI/PSIP情報を抽出する。脱パケット化部206は、ビデオPESおよびオーディオPESに対して脱パケット化(パケットを解除)し(depacketize)、ビデオESおよびオーディオESを復元する。オーディオデコーダ208は、オーディオESをデコーディングし、オーディオビットストリームを出力する。オーディオビットストリームは、デジタル−アナログ変換器(図示せず)によってアナログ音声信号に変換され、増幅器(図示せず)によって増幅された後、スピーカ(図示せず)を通じて出力される。ビデオデコーダ210は、ビデオESをデコーディングし、元の映像を復元する。上記オーディオデコーダ208および上記ビデオデコーダ210のデコーディング処理は、PSI/PSIP処理部214によって確認されるパケットID(PID)に基づいて進めることができる。デコーディング処理で、上記ビデオデコーダ210はデプス情報を抽出することができる。また、仮想カメラ視点の映像を生成するのに必要な付加情報、例えば、カメラ情報、または相対的に手前にある客体によって隠される領域(Occlusion)を推定するための情報(例えば、客体輪郭線などの幾何学情報、客体透明度情報およびカラー情報)などを抽出して、3Dレンダリング部216に提供することができる。しかし、本発明の他の実施例においては、上記デプス情報および/または付加情報がトランスポート逆多重化部204によって分離されることもある。
PSI/PSIP処理部214は、トランスポート逆多重化部204からのPSI/PSIP情報を受け取り、これをパージングしてメモリ(図示せず)またはレジスタに格納することによって、格納された情報に基づいて放送を再生させることを可能にする。3Dレンダリング部216は、復元された映像、デプス情報、付加情報およびカメラパラメータを用いて仮想カメラ位置でのカラー情報、デプス情報などを生成することができる。
また、3Dレンダリング部216は、復元された映像と上記復元された映像に対するデプス情報とを用いて3Dワーピング(Warping)を行うことによって、仮想カメラ位置での仮想映像を生成する。本実施例では、上記3Dレンダリング部216が上記ビデオデコーダ210と別個のブロックで構成される場合を説明しているが、これは一実施例に過ぎなく、上記3Dレンダリング部216は、上記ビデオデコーダ210に含まれてもよい。
フォーマッタ220は、デコーディング処理で復元した映像、すなわち、実際のカメラによって撮影された映像と、3Dレンダリング部216によって生成された仮想映像と、を該当の受信機でのディスプレイ方式に合わせてフォーマッティングし、ディスプレイ部222を通じて3D映像を表示させるようになる。ここで、上記3Dレンダリング部216による仮想カメラ位置でのデプス情報と仮想映像との合成、そして、フォーマッタ220による映像フォーマッティングは、ユーザの命令に応答して選択的に行うこともできる。すなわち、視聴者は、リモートコントローラ(図示せず)を操作することによって合成映像を表示させないこともでき、映像合成が行われる視点を指定することもできる。
以上説明したように、3D映像を生成するために、デプス情報は、3Dレンダリング部216で用いられているが、他の実施例として、上記ビデオデコーダ210で用いられることもある。
図3は、本発明が適用される一実施例であって、イントラ予測モードの種類を示したものである。
図3を参照すると、イントラ予測モードには、平面(プレーナ)(Planar)モード(intra_Planar)、DC(平均値)モード(intra_DC)、方向性(アンギュラ)(Angular)モード(intra_Angular)がある。ここで、平面モードとは、現在のブロックの上端(upper end)、左側、左側下端および右側上端に位置する隣接サンプルに加重値を適用し、現在のブロックのサンプルを予測するモードである。具体的には、上端および左側下端に位置する各隣接サンプルのバイリニア(二重線形)補間(bi-linear interpolation)による値と、左側および右側上端に位置する各隣接サンプルのバイリニア補間による値をそれぞれ算出し、算出した各値の平均値を現在のブロックの予測されたサンプルとして用いることができる。上記DCモードは、現在のブロックの上端、左側、左側上端に位置する各隣接サンプルの平均値を用いて現在のブロックのサンプルを予測するモードである。上記方向性モードは、予測方向の角度による隣接サンプルを用いて現在のブロックのサンプルを予測するモードである。方向性モードは、図3に示したように、垂直モードと水平モードを含む合計33個のイントラ予測モードとして定義することができる。
図4は、本発明が適用される一実施例であって、現在のブロックの候補モードリストを生成する方法を示したフローチャートである。
候補モードリストは、現在のブロックが利用可能な複数のイントラ予測モードと、それぞれのイントラ予測モードに対応するリストインデックス情報と、を定義する。ここで、複数のイントラ予測モードは、現在のブロックが使用する可能性が大きい順に配列することができる。また、上記リストインデックス情報は、候補モードリスト内に順次配列されたイントラ予測モードの位置を特定することができる。以下、図4を参照して、候補モードリストを生成する方法について説明する。
まず、隣接ブロックのイントラ予測モードを取得することができる(ステップS400)。ここで、隣接ブロックは、現在のブロックに隣接する左側隣接ブロックおよび上側(上端)隣接ブロック(upper neighboring block)を含むことができる。ただし、上記隣接ブロックが存在しない場合、または上記隣接ブロックがイントラモードでコーディングされていない場合、該当の隣接ブロックは、イントラ予測モードを有していない可能性がある。この場合は、既に定義されたイントラ予測モード(例えば、DCモード)を上記隣接ブロックに割り当てることによって、隣接ブロックのイントラ予測モードを取得することもできる。
ステップS400で取得された左側隣接ブロックのイントラ予測モード(IntraModeleft)と上側隣接ブロックのイントラ予測モード(IntraModetop)とが同一であるか否かを確認することができる(ステップS410)。これは、候補モードリストに同一のイントラ予測モードを冗長的に含ませることを排除するためである。
ステップS410の確認の結果、両者のイントラ予測モードが同一である場合、左側隣接ブロックのイントラ予測モードが平面モードであるか、それともDCモードであるかを確認することができる(ステップS420)。
左側隣接ブロックのイントラ予測モードが平面モードおよびDCモードのうちいずれか一つに該当する場合、候補モードリストは、平面モード、DCモードおよび垂直モードを含むことができる(ステップS430)。具体的には、候補モードリスト内でリストインデックス情報が0である位置に平面モードを割り当て、リストインデックス情報が1である位置にDCモードを割り当て、リストインデックス情報が2である位置に垂直モードを割り当てることができる。
一方、左側隣接ブロックのイントラ予測モードが平面モードおよびDCモードのうちいずれか一つに該当しない場合、候補モードリストは、左側隣接ブロックのイントラ予測モードと、これから導出されたイントラ予測モードと、を含むことができる(ステップS440)。
具体的には、リストインデックス情報が0である位置に左側隣接ブロックのイントラ予測モードを割り当てる。その後、左側隣接ブロックのイントラ予測モードの値から1を引いた値に対応するイントラ予測モードをリストインデックス情報が1である位置に割り当て、左側隣接ブロックのイントラ予測モードの値に1を足した値に対応するイントラ予測モードをリストインデックス情報が2である位置に割り当てることができる。例えば、左側隣接ブロックのイントラ予測モードの値が10である場合、イントラ予測モードの値が9および11であるイントラ予測モードを上記候補モードリストに含ませることができる。
一方、ステップS410の確認の結果、両者のイントラ予測モードが同一でない場合、上記候補モードリストは、左側隣接ブロックのイントラ予測モードおよび上側隣接ブロックのイントラ予測モードを含むことができる(ステップS450)。
具体的には、リストインデックス情報が0である位置に左側隣接ブロックのイントラ予測モードを割り当て、リストインデックス情報が1である位置に上側隣接ブロックのイントラ予測モードを割り当てることができる。さらに、リストインデックス情報が2である位置には左側/上側隣接ブロックのイントラ予測モードを考慮して、予め定義されたイントラ予測モードを割り当てることができる。例えば、平面モード、DCモードおよび垂直モードのうち左側/上側隣接ブロックのイントラ予測モードと同一でないモードを選択し、これをリストインデックス情報が2である位置に割り当てることができる。ここで、平面モード、DCモードおよび垂直モードの間の優先順位を考慮して、左側/上側隣接ブロックのイントラ予測モードと同一であるか否かを確認することができる。この確認処理は、左側/上側隣接ブロックのイントラ予測モードと同一でないモードを発見するまで行うことができる。
一方、空間的に隣接した隣接ブロックのイントラ予測モードだけでなく、隣接視点の参照ブロックのイントラ予測モードを上記候補モードリストに追加することができ、これについては、以下の図5および図6を参照して説明する。
図5は、本発明が適用される一実施例であって、隣接視点の参照ブロックのイントラ予測モードを含む候補モードリストを生成する方法を示したフローチャートである。
図5を参照すると、現在の視点の現在のブロックの視差ベクトル(disparity vector)を取得することができる(ステップS500)。ここで、視差ベクトルは、視点方向に現在のブロックに対応する参照ブロックを特定する動きベクトルを意味し得る。上記現在のブロックの視差ベクトルは、隣接ブロックの視差ベクトルから導出することができる。ここで、隣接ブロックは、現在のブロックの左側、上側、左側下端、右側上端および左側上端に位置する隣接ブロックのうち少なくとも一つを含むことができる。例えば、上記隣接ブロックが有する視差ベクトルを現在のブロックの視差ベクトルとして設定することができる。または、上記現在のブロックの視差ベクトルは、現在のブロックに対応するデプスデータから導出することもできる。具体的な導出方法は、数式3および4に基づいて説明する。
Figure 0006306050
数式3を参照すると、Zは、該当のピクセルのカメラからの距離を意味し、Dは、Zを量子化した値であって、デプスデータに対応する。ZnearおよびZfarは、現在の視点に対して定義されたZの最小値および最大値をそれぞれ意味する。また、ZnearおよびZfarは、シーケンスパラメータセット、スライスヘッダなどを通じてビットストリームから抽出することができ、デコーダ内で予め定義された情報であってもよい。したがって、該当のピクセルのカメラからの距離Zを256レベルで量子化した場合、数式3のように、デプスデータ、ZnearおよびZfarを用いてZを復元することができる。その後、復元されたZを用いて数式4のように現在のブロックに対する視差ベクトルを導出することができる。
Figure 0006306050
数式4において、dは、視差ベクトルを意味し、fは、カメラの焦点距離を意味し、Bは、カメラ間の距離を意味する。fおよびBは、すべてのカメラに対して同一であると仮定することができ、したがって、デコーダに予め定義された情報であってもよい。
上記現在のブロックの視差ベクトルに基づいて隣接視点の参照ブロックを取得することができる(ステップS510)。ここで、隣接視点は、現在の視点でない他の視点を意味し得る。または、上記隣接視点は、視点間予測をせず、他の視点と独立してコーディングされる基準(ベース)視点(base view)を意味することもできる。一方、上記参照ブロックは、現在のブロックの位置を基準にして視差ベクトルによって特定されたブロックを意味し得る。
上記参照ブロックがイントラモードでコーディングされたブロックであるか否かを確認することができる(ステップS520)。換言すると、上記参照ブロックがイントラ予測モードを有しているか否かを確認することができる。
ステップS520の確認の結果、参照ブロックがイントラモードでコーディングされたブロックである場合、上記参照ブロックのイントラ予測モードを用いて修正された候補モードリストを生成することができる(ステップS530)。具体的な生成方法については、以下の図6を参照して説明する。
図6は、本発明が適用される一実施例であって、隣接視点の参照ブロックのイントラ予測モードを用いて修正された候補モードリストを生成する方法を示したものである。
1.候補モードリストの再配列(Rearrangement)
隣接視点の参照ブロックのイントラ予測モードと候補モードリストに含まれたイントラ予測モードとが同一であるか否かを確認することができる。上記候補モードリスト内に上記隣接視点からのイントラ予測モードと同一のイントラ予測モードが存在する場合、現在のブロックは、上記隣接視点からのイントラ予測モードと同一のイントラ予測モードを選択する確率が高い。この場合、上記隣接視点からのイントラ予測モードと同一の候補モードリスト内のイントラ予測モードに対応するリストインデックス情報を変更し、これを再配列することができる。例えば、上記隣接視点からのイントラ予測モードと同一のイントラ予測モードの位置とリストインデックス情報が0である位置のイントラ予測モードの位置とを互いに入れ換える(スワップする)(swap)ことによって、候補モードリストを再配列することができる。ただし、上記隣接視点からのイントラ予測モードと同一のイントラ予測モードが既にリストインデックス情報が0である位置に存在する場合、上記再配列処理はスキップし得る。
例えば、図6(a)を参照すると、隣接視点からのイントラ予測モード(MPMview)が候補モードリスト内でリストインデックス情報が2である位置のイントラ予測モード(MPM2)と同一である場合、リストインデックス情報が2である位置のイントラ予測モード(MPM2)の位置とリストインデックス情報が0である位置のイントラ予測モード(MPM0)の位置とを互いに入れ換えることができる。このように選択される確率が大きいイントラ予測モードをリストインデックス情報が0である位置に配列することによって、候補モードリスト内で現在のブロックのイントラ予測モードを特定するモードインデックス情報をコーディングするのに必要なビット数を減少させることができる。
2.イントラ予測モードの置換(Replacement)
候補モードリスト内の複数のイントラ予測モード(MPM0、MPM1、MPM2)のうちいずれか一つを隣接視点からのイントラ予測モード(MPMview)に置き換えることができる。好ましくは、上記複数のイントラ予測モードのうちリストインデックス情報が2である位置のイントラ予測モード(MPM2)を隣接視点からのイントラ予測モード(MPMview)に置き換えることができる。これは、リストインデックス情報が2である位置のイントラ予測モード(MPM2)が、候補モードリスト内のイントラ予測モードのうち最も選択率が低下するためである。
3.イントラ予測モードの追加(Addition)
空間隣接ブロックのイントラ予測モードから導出された候補モードリストに隣接視点からのイントラ予測モードを追加することができる。
例えば、図6(c)を参照すると、隣接視点からのイントラ予測モードは、候補モードリスト内で最下端に位置し得る。すなわち、リストインデックス情報が3である位置に追加することができる。このように、候補モードリスト内にリストインデックス情報が3である位置にイントラ予測モードを追加したとしても、MPM0〜MPM3は依然として2ビットでコーディング可能である。
また、本発明の一実施例として、隣接視点からのイントラ予測モードは、候補モードリスト内で最上端に位置し得る。すなわち、リストインデックス情報が0である位置に追加することができる。この場合、リストインデックス情報が0である位置のイントラ予測モードはリストインデックス情報が1である位置に、リストインデックス情報が1である位置のイントラ予測モードはリストインデックス情報が2である位置に、リストインデックス情報が2である位置のイントラ予測モードはリストインデックス情報が3である位置にそれぞれ再配列することができる。
また、本発明が適用される一実施例として、隣接視点からのイントラ予測モードが平面モードまたはDCモードである場合は候補モードリスト内で最上端に位置させ、そうでない場合(方向性モードである場合)は候補モードリスト内で最下端に位置させるよう設定することもできる。
一方、修正された候補モードリストを生成する処理を適応的に用いるために、ベースモード利用フラグを定義することができる。ここで、ベースモード利用フラグは、現在のブロックに対する候補モードリストの生成において、隣接視点からのイントラ予測モードを用いるか否かを示す情報を意味し得る。したがって、上記ベースモード利用フラグが隣接視点からのイントラ予測モードを用いることを示す場合に限って、隣接視点の参照ブロックからイントラ予測モードを取得することができる。
また、隣接視点からのイントラ予測モードが既に生成された候補モードリスト内のイントラ予測モードと同一であるか否かを比較し、上述した候補モードリストの再配列方式、イントラ予測モードの置換方式およびイントラ予測モードの追加方式のうちいずれか一つを特定することができる。隣接視点からのイントラ予測モードと同一のイントラ予測モードが既に生成された候補モードリストに含まれている場合、上記イントラ予測モードの置換またはイントラ予測モードの追加は有利でない可能性がある。したがって、隣接視点からのイントラ予測モードと同一のイントラ予測モードが既に生成された候補モードリストに含まれている場合は候補モードリストの再配列方式を用い、そうでない場合はイントラ予測モードの置換方式またはイントラ予測モードの追加方式を用いるよう設定することができる。
図7は、本発明が適用される一実施例であって、候補モードリストを用いて現在のブロックのイントラ予測モードを導出する方法を示したフローチャートである。
ここで、候補モードリストは、空間隣接ブロックを用いて導出された候補モードリストを意味するだけでなく、隣接視点からのイントラ予測モードを用いて修正された候補モードリストをすべて含む概念として理解することができる。
図7を参照すると、ビットストリームから候補モードフラグを取得することができる(ステップS700)。ここで、候補モードフラグは、現在のブロックが候補モードリストからのイントラ予測モードを用いるか否かを示す情報を意味し得る。
上記取得された候補モードフラグが、現在のブロックが候補モードリストからのイントラ予測モードを用いることを示す場合、ビットストリームからイントラモードインデックス情報を取得することができる(ステップS710)。ここで、イントラモードインデックス情報は、候補モードリスト内で現在のブロックの画面内予測のために使用されるイントラ予測モードを特定する情報を意味し得る。
したがって、候補モードリストから上記イントラモードインデックス情報に対応するイントラ予測モードを取得することができる(ステップS720)。
一方、上記取得された候補モードフラグが、現在のブロックが候補モードリストからのイントラ予測モードを用いないことを示す場合、ビットストリームからイントラ予測モードを抽出することができる(ステップS730)。ビットストリームから抽出されたイントラ予測モードは、35個のイントラ予測モードから候補モードリストに含まれたイントラ予測モードを除いたイントラ予測モードのうちいずれか一つを特定し得る。したがって、上記抽出されたイントラ予測モードに基づいて現在のブロックのイントラ予測モードを導出することができる(ステップS740)。
以上説明した各実施例は、本発明の各構成要素と各特徴が所定の形態で組み合わせられたものである。各構成要素または特徴は、別途の明示的な言及がない限り、選択的なものとして考慮しなければならない。各構成要素または特徴は、他の構成要素や特徴と組み合わせられない形態で実施することができる。また、一部の構成要素および/または特徴を組み合わせて本発明の実施例を構成することも可能である。本発明の各実施例で説明する各動作の順序は変更可能である。いずれかの実施例の一部の構成や特徴は他の実施例に含ませることができ、または、他の実施例の対応する構成または特徴と置き換えることができる。
本発明は、ビデオ信号をコーディングするのに用いることができる。

Claims (7)

  1. 現在のブロックの空間隣接ブロックからのイントラ予測モードに基づいて前記現在のブロックの候補モードリストを生成するステップと、
    前記現在のブロックの隣接視点からのイントラ予測モードに基づいて前記候補モードリストを修正するステップと、
    前記修正した候補モードリストに基づいて前記現在のブロックのイントラ予測モードを導出するステップと、
    前記導出したイントラ予測モードを用いて前記現在のブロックを予測するステップと、を有し、
    前記候補モードリストを修正するステップは、
    前記隣接視点からのイントラ予測モードを前記候補モードリストのイントラ予測モードと比較するステップと、
    前記隣接視点からのイントラ予測モードが0以外のリストインデックスに対応する特定のイントラ予測モードと同じである場合、前記特定のイントラ予測モードの位置とリストインデックス0に対応するイントラ予測モードの位置とを入れ換えて前記候補モードリストを再配列するステップと、
    前記隣接視点からのイントラ予測モードが前記候補モードリストのイントラ予測モードと同じでない場合、前記隣接視点からのイントラ予測モードを前記候補モードリストにおけるリストインデックス3に対応する位置に追加するステップと、を有する、ビデオデコーダによるビデオ信号処理方法。
  2. 前記空間隣接ブロックは、前記現在のブロックに隣接した左側隣接ブロックおよび上側隣接ブロックのうち少なくとも一つを有する、請求項1に記載のビデオ信号処理方法。
  3. 前記候補モードリストを修正するステップは、
    前記現在のブロックの視差ベクトルを取得するステップと、
    前記視差ベクトルに基づいて前記隣接視点の参照ブロックを取得するステップと、
    前記参照ブロックがイントラモードでコーディングされたブロックであるか否かを確認するステップと、
    前記参照ブロックがイントラモードでコーディングされたブロックである場合、前記隣接視点からのイントラ予測モードとして前記参照ブロックのイントラ予測モードを用いるステップと、をさらに有する、請求項1に記載のビデオ信号処理方法。
  4. 前記現在のブロックの視差ベクトルは、前記現在のブロックの左側、上側、左側下端、右側上端および左側上端に位置する各隣接ブロックのうち少なくとも一つの隣接ブロックの視差ベクトルを用いて取得される、請求項3に記載のビデオ信号処理方法。
  5. 前記現在のブロックの視差ベクトルは、前記現在のブロックに対応するデプスデータから導出される、請求項3に記載のビデオ信号処理方法。
  6. 前記候補モードリストは、前記現在のブロックが利用可能な複数のイントラ予測モードと、前記複数のイントラ予測モードのそれぞれに対応するリストインデックス情報と、を定義し、
    前記リストインデックス情報は、前記候補モードリスト内に順次配列された前記複数のイントラ予測モードのそれぞれの位置を特定する、請求項1に記載のビデオ信号処理方法。
  7. 現在のブロックの空間隣接ブロックからのイントラ予測モードに基づいて前記現在のブロックの候補モードリストを生成し、
    前記現在のブロックの隣接視点からのイントラ予測モードに基づいて前記候補モードリストを修正し、
    前記修正した候補モードリストに基づいて前記現在のブロックのイントラ予測モードを導出し、
    前記導出したイントラ予測モードを用いて前記現在のブロックを予測する、よう構成されたイントラ予測部を有し、
    前記候補モードリストを修正することは、
    前記隣接視点からのイントラ予測モードを前記候補モードリストのイントラ予測モードと比較することと、
    前記隣接視点からのイントラ予測モードが0以外のリストインデックスに対応する特定のイントラ予測モードと同じである場合、前記特定のイントラ予測モードの位置とリストインデックス0に対応するイントラ予測モードの位置とを入れ換えて前記候補モードリストを再配列することと、
    前記隣接視点からのイントラ予測モードが前記候補モードリストのイントラ予測モードと同じでない場合、前記隣接視点からのイントラ予測モードを前記候補モードリストにおけるリストインデックス3に対応する位置に追加することと、を有する、ビデオ信号を処理するビデオデコーダ。
JP2015551613A 2013-01-07 2014-01-07 ビデオ信号処理方法および装置 Active JP6306050B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361749395P 2013-01-07 2013-01-07
US61/749,395 2013-01-07
PCT/KR2014/000135 WO2014107083A1 (ko) 2013-01-07 2014-01-07 비디오 신호 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2016506689A JP2016506689A (ja) 2016-03-03
JP6306050B2 true JP6306050B2 (ja) 2018-04-04

Family

ID=51062354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015551613A Active JP6306050B2 (ja) 2013-01-07 2014-01-07 ビデオ信号処理方法および装置

Country Status (6)

Country Link
US (1) US9826239B2 (ja)
EP (1) EP2942955A4 (ja)
JP (1) JP6306050B2 (ja)
KR (1) KR20160048025A (ja)
CN (1) CN104904209B (ja)
WO (1) WO2014107083A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616815B1 (ko) * 2011-12-05 2023-12-21 엘지전자 주식회사 인트라 예측 방법 및 장치
WO2015005750A1 (ko) * 2013-07-12 2015-01-15 삼성전자 주식회사 변이 벡터 유도를 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2016137166A1 (ko) * 2015-02-23 2016-09-01 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN115134593A (zh) * 2015-06-05 2022-09-30 杜比实验室特许公司 用于执行帧间预测的图像编解码方法、比特流存储方法
EP4192009A1 (en) * 2015-11-19 2023-06-07 LX Semicon Co., Ltd. Method and apparatus for encoding/decoding intra prediction mode
KR20170058837A (ko) * 2015-11-19 2017-05-29 한국전자통신연구원 화면내 예측모드 부호화/복호화 방법 및 장치
KR20190052128A (ko) * 2016-10-04 2019-05-15 김기백 영상 데이터 부호화/복호화 방법 및 장치
KR20180041833A (ko) * 2016-10-17 2018-04-25 디지털인사이트 주식회사 화면 내 예측에 대한 참조 모드 리스트를 사용하는 비디오 코딩 방법 및 장치
CN109120926B (zh) 2017-06-23 2019-08-13 腾讯科技(深圳)有限公司 预测模式选择方法、装置及介质
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US20220239906A1 (en) * 2021-01-26 2022-07-28 Beijing Dajia Internet Information Technology Co., Ltd. System and method for applying adaptive loop filter in video coding

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8804839B2 (en) 2007-06-27 2014-08-12 Korea Electronics Technology Institute Method for image prediction of multi-view video codec and computer-readable recording medium thereof
US9049455B2 (en) * 2010-12-28 2015-06-02 Panasonic Intellectual Property Corporation Of America Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block
US9485518B2 (en) * 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
JP5252029B2 (ja) 2011-05-31 2013-07-31 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法、及び受信プログラム
MX2013012209A (es) * 2011-05-31 2013-11-01 Panasonic Corp Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US20140078254A1 (en) 2011-06-15 2014-03-20 Mediatek Inc. Method and Apparatus of Motion and Disparity Vector Prediction and Compensation for 3D Video Coding
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding

Also Published As

Publication number Publication date
US9826239B2 (en) 2017-11-21
WO2014107083A1 (ko) 2014-07-10
JP2016506689A (ja) 2016-03-03
EP2942955A1 (en) 2015-11-11
EP2942955A4 (en) 2016-07-20
KR20160048025A (ko) 2016-05-03
US20150350657A1 (en) 2015-12-03
CN104904209B (zh) 2018-07-24
CN104904209A (zh) 2015-09-09

Similar Documents

Publication Publication Date Title
JP6306050B2 (ja) ビデオ信号処理方法および装置
US9196059B2 (en) Method and apparatus for processing video signals using boundary intra coding
KR101619450B1 (ko) 뎁스 정보를 이용한 비디오 신호 처리 방법 및 장치
US9204168B2 (en) Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
WO2019194496A1 (ko) 비디오 신호의 컬러 컴포넌트에 대한 병렬 처리 방법 및 이를 위한 장치
KR20150020175A (ko) 비디오 신호 처리 방법 및 장치
JP6231560B2 (ja) ビデオ信号処理方法およびビデオ信号処理装置
AU2014205860B2 (en) Method and apparatus for processing video signal
CN104782127B (zh) 处理视频信号的方法和设备
US20160165259A1 (en) Method and apparatus for processing video signal
US9781442B2 (en) Method and apparatus for processing video signal
KR101753592B1 (ko) 비디오 신호 처리 방법 및 장치
KR20160002712A (ko) 비디오 신호 처리 방법 및 장치
KR101783617B1 (ko) 비디오 신호 처리 방법 및 장치
KR102300036B1 (ko) 비디오 신호 처리 방법 및 장치
KR20150095679A (ko) 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180307

R150 Certificate of patent or registration of utility model

Ref document number: 6306050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250