JP6615777B2 - 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置 - Google Patents

多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置 Download PDF

Info

Publication number
JP6615777B2
JP6615777B2 JP2016562717A JP2016562717A JP6615777B2 JP 6615777 B2 JP6615777 B2 JP 6615777B2 JP 2016562717 A JP2016562717 A JP 2016562717A JP 2016562717 A JP2016562717 A JP 2016562717A JP 6615777 B2 JP6615777 B2 JP 6615777B2
Authority
JP
Japan
Prior art keywords
prediction
block
view
current block
curr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016562717A
Other languages
English (en)
Other versions
JP2017510219A (ja
Inventor
ハン、チョン、キ
リー、ジェ、ユン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academy Cooperation Foundation of Sejong University
Original Assignee
Industry Academy Cooperation Foundation of Sejong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industry Academy Cooperation Foundation of Sejong University filed Critical Industry Academy Cooperation Foundation of Sejong University
Publication of JP2017510219A publication Critical patent/JP2017510219A/ja
Application granted granted Critical
Publication of JP6615777B2 publication Critical patent/JP6615777B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は多視点ビデオの符号化/復号化に関するもので、より詳細には多視点映像のための動きベクター予測及び残差予測のための方法及びこれを行う装置に関するものである。
従来のH.264/AVCに比べて約2倍以上の圧縮効率を有するものに知られている次世代ビデオ圧縮標準技術としてHEVC(High Efficiency Video Coding)に対する標準化が進行して最近に完了した。
HEVCはクアッドツリー(quadtree)構造を有するコーディングユニット(CU:Coding Unit)、予測ユニット(PU:Prediction Unit)、変換ユニット(TU:Transform Unit)を定義しており、サンプル適応的オフセット(SAO:Sample Adaptive Offset)、デブロッキングフィルター(Deblocking filter)のようなインループフィルターを適用している。また、既存のイントラ予測(intra prediction)及びインター予測(inter prediction)を改善して圧縮符号化効率を向上させている。
一方、HEVCに対する拡張(extension)バージョンとしてSVC(Scalable Video Coding)に対する標準化が進行されており、既存のMVC(Multi−View Coding)を改善してH.264/AVC又はHEVCに基づく3DVC(3D Video Coding)に対する標準化が進行されている。
国際標準化機構であるISO/IECのビデオ専門家グループであるMPEGでは最近3DVCに対する標準化を始めた。3DVCに対する標準化は既存の2D単視点ビデオのための符号化技術(H.264/AVC)、2D多視点ビデオのための符号化技術(MVC)及び最近JCT−VCで標準化が完了したHEVC符号化技術を基にして進行されている。
詳述すると、MPEGとITU−Tは共同で3DVCに対する標準化を行うことで決定し、JCT−3Vという新しい共同標準化グループを結成した。JCT−3Vでは、既存のMVCに深度映像符/復号化のための高級構文定義、H.264/AVCに基づく新しいカラー映像及び深度映像に対する符/復号化方法である3D−AVC、HEVCに基づく多視点カラー映像符/復号化方法、そしてHEVCに基づく多視点カラー映像及び深度映像に対する符/復号化方法である3D−HEVCを一緒に標準化している。
3DVCに対する標準化においては多様な技術が論議されているが、これらの技術の共通点は視点(view point)間の予測による符/復号化方法を含むことである。すなわち、多視点映像は符号化して伝送しなければならないデータの量が視点の個数に比例して増加するため、視点間依存関係に基づいて多視点映像を効率よく符/復号化する技術が必要というのが実情である。
前記のような問題点を解決するための本発明の目的は、動きベクター予測によって多視点映像のための動きベクターを符号化及び復号化する方法及びこれを行う装置を提供することにある。
前記のような問題点を解決するための本発明の他の目的は、残差予測によって多視点映像のための残差を符号化及び復号化する方法及びこれを行う装置を提供することにある。
前記目的を達成するための本発明の実施例による多視点映像のための復号化方法は、復号化対象である現在ブロック及び前記現在ブロックに対応する対応ブロックに行われた動き予測方法を判断する段階;及び前記判断された動き予測方法によって前記対応ブロックの動きベクターを用いて前記現在ブロックの動きベクター予測値を生成する段階を含む。
ここで、前記動き予測方法を判断する段階は、受信したビットストリームを復号化して映像復号化のためのデータを算出する段階;及び前記映像復号化のためのデータを用いて前記現在ブロック及び前記対応ブロックに行われた動き予測方法を確認する段階を含むことができる。
ここで、前記映像復号化のためのデータを算出する段階は、前記受信したビットストリームにエントロピー復号化、逆量子化及び逆変換を行うことができる。
ここで、前記動き予測方法を確認する段階は、前記映像復号化のためのデータに含まれたView ID情報、View order情報及び動き予測方法の区分のためのフラグ情報の少なくとも一つを用いて動き予測方法を区分することができる。
ここで、前記動き予測方法を確認する段階は、前記映像復号化のためのデータを用いて前記現在ブロック及び前記対応ブロックのそれぞれに対してロングターム予測(Long−term prediction)、ショートターム予測(Short−term prediction)及び視点間予測(Inter−view prediction)のいずれか一つが行われるかを判断することができる。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックにロングターム予測が行われた場合、前記対応ブロックの動きベクターを前記現在ブロックの動きベクター予測値に生成することができる。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックにショートターム予測が行われた場合、前記現在ブロックの画面間参照距離と前記対応ブロックの画面間参照距離の割合を用いて前記対応ブロックの動きベクターをスケーリング(scaling)することにより、前記現在ブロックの動きベクター予測値を生成することができる。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックに視点間予測が行われた場合、前記現在ブロックの視点間参照距離(inter−view reference distance)と前記対応ブロックの視点間参照距離の割合を用いて前記対応ブロックの動きベクターをスケーリング(scaling)することにより、前記現在ブロックの動きベクター予測値を生成することができる。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックに行われた動き予測方法が互いに異なる場合、前記対応ブロックの動きベクターを用いないことができる。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックに行われた動き予測方法が互いに異なって前記対応ブロックの動きベクターを用いない場合、前記現在ブロックの動きベクター予測値を前もって設定されたベクターに生成することができる。
ここで、前記前もって設定されたベクターは(0、0)であってもよい。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックのいずれか一方に視点間予測が行われ、他方にロングターム予測又はショートターム予測が行われた場合、前記対応ブロックの動きベクターを用いないことができる。
ここで、前記現在ブロックの動きベクター予測値を生成する段階は、前記現在ブロック及び前記対応ブロックのいずれか一方にロングターム予測が行われ、他方にショートターム予測が行われる場合であるか、あるいは前記現在ブロック及び前記対応ブロックのいずれか一方にショートターム予測が行われ、他方にロングターム予測が行われた場合、前記対応ブロックの動きベクターを用いないことができる。
ここで、前記映像復号化のためのデータに含まれた前記現在ブロックの動きベクター差分値に前記現在ブロックの動きベクター予測値を加算して前記現在ブロックの動きベクターを復元する段階をさらに含むことができる。
前記他の目的を達成するための本発明の実施例による多視点映像のための復号化方法は、復号化対象である現在ブロックが視点間予測(inter−view prediction)のために参照する第1参照ブロックに行われた動き予測方法を判断する段階;及び前記第1参照ブロックの動き予測方法によって前記現在ブロックのための予測残差を生成する段階を含む。
ここで、前記第1参照ブロックに行われた動き予測方法を判断する段階は、受信したビットストリームを復号化して映像復号化のためのデータを算出する段階;及び前記映像復号化のためのデータを用いて前記第1参照ブロックに行われた動き予測方法を確認する段階を含むができる。
ここで、前記映像復号化のためのデータを算出する段階は、前記受信したビットストリームにエントロピー復号化、逆量子化及び逆変換を行うことができる。
ここで、前記第1参照ブロックに行われた動き予測方法を確認する段階は、前記映像復号化のためのデータに含まれたView ID情報、View order情報及び動き予測方法の区分のためのフラグ情報の少なくとも一つを用いて予測方法を区分することができる。
ここで、前記第1参照ブロックに行われた動き予測方法を確認する段階は、前記映像復号化のためのデータを用いて前記第1参照ブロックに時間動き予測(Temporal motion prediction)及び視点間予測(Inter−view prediction)のいずれか一つが行われるかを確認することができる。
ここで、前記現在ブロックのための予測残差を生成する段階は、前記現在ブロックが時間動き予測のために参照する第2参照ブロックと前記第1参照ブロックが参照する第3参照ブロック間の差分値を前記予測残差に生成することができる。
ここで、前記第2参照ブロックは、前記現在ブロックが属する現在ピクチュアの参照リストにおいて時間方向に最も近いピクチュアに属することができる。
ここで、前記現在ブロックのための予測残差を生成する段階は、前記第1参照ブロックに時間動き予測が行われたことが確認された場合、前記第3参照ブロックの探索のための動きベクターにスケールファクターを適用してスケールされた動きベクターを生成し、前記スケールされた動きベクターを用いて前記第2参照ブロックを決定することができる。
ここで、前記スケールファクターは、前記第1参照ブロックが属する参照ピクチュアの番号と前記第1参照ブロックが時間動き予測のために参照する前記第3参照ブロックが属するピクチュアの番号の間の差分値と前記現在ブロックが属するピクチュアの番号と前記第2参照ブロックが属するピクチュアの番号の間の差分値に基づいて生成されることができる。
ここで、前記現在ブロックのための予測残差を生成する段階は、前記第1参照ブロックに視点間予測が行われたことが確認された場合、前記第2参照ブロックの探索のための動きベクターとして(0、0)を適用して前記第2参照ブロックを決定することができる。
ここで、前記映像復号化のためのデータに含まれた前記現在ブロックの残差差分値に前記予測残差を加算して前記現在ブロックの残差を復元する段階をさらに含むことができる。
前記目的を達成するための本発明の他の側面による多視点映像を復号化する装置は、復号化対象である現在ブロックが視点間予測(inter−view prediction)のために参照する第1参照ブロックに行われた動き予測方法を判断し、第1参照ブロックの動き予測方法によって現在ブロックのための予測残差を生成するプロセッサを含む。
前記のような本発明の一実施例による多視点映像のための動きベクター予測方法は、多視点映像を符号化/復号化する過程で動きベクターを効果的に符号化/復号化することができるようにする。すなわち、現在ブロック及び対応ブロックの動きベクター予測方法によって適応的に時間的動きベクターに対する予測を行うことができる。
前記のような本発明の他の実施例による多視点映像のための残差予測方法は、多視点映像を符号化/復号化する過程で残差を効果的に符号化/復号化することができるようにする。すなわち、予測残差を生成する過程で動きベクターをスケーリングするためのスケールファクターの算出に間違いが発生することを防止することができ、これにより多視点映像のための残差予測において間違い又はエラーを防止することができる。
本発明の一実施例による動きベクター予測方法を説明するための概念図である。
本発明の他の実施例による動きベクター予測方法を説明するための概念図である。
本発明のさらに他の実施例による動きベクター予測方法を説明するための概念図である。
本発明のさらに他の実施例による動きベクター予測方法を説明するための概念図である。
本発明のさらに他の実施例による動きベクター予測方法を説明するための概念図である。
本発明の実施例による動きベクター予測方法を説明するためのフローチャートである。
本発明の一実施例による残差予測方法を説明するための概念図である。
本発明の他の実施例による残差予測方法を説明するための概念図である。
本発明のさらに他の実施例による残差予測方法を説明するための概念図である。
本発明の実施例による多視点映像を符号化/復号化する装置を説明するためのブロック図である。
本発明の実施例によって多視点映像を符号化する装置を説明するためのブロック図である。
本発明の実施例によって多視点映像を復号化する装置を説明するためのブロック図である。
本発明は多様な変更を加えることができ、さまざまな実施例を有することができる。そのうち、特定の実施例を図面に例示して詳細な説明に詳細に説明する。しかし、これは本発明を特定の実施形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれるすべての変更、均等物乃至代替物を含むものに理解しなければならない。それぞれの図面の説明において、類似した参照符号は類似した構成要素に対して用いている。
第1、第2、A、Bなどの用語は多様な構成要素を説明するのに使われることができるが、前記構成要素は前記用語に限定されてはいけない。前記用語は一構成要素を他の構成要素から区別する目的のみで使われる。例えば、本発明の権利範囲を逸脱しない範疇内で第1構成要素は第2構成要素と名付けることができ、これと同様に第2構成要素も第1構成要素と名付けることができる。及び/又はという用語は複数の関連した記載項目の組合せ又は複数の関連した記載項目中のいずれか項目を含む。
ある構成要素が他の構成要素に“連結されて”いるか“接続されて”いると言及されたときには、その他の構成要素に直接的に連結されているかあるいは接続されていることができるが、中間に他の構成要素が存在することもできると理解すべきであろう。一方、ある構成要素が他の構成要素に“直接連結されて”いるか“直接接続されて”いると言及されたときには、中間に他の構成要素が存在しないと理解すべきであろう。
本出願で使用した用語はただ特定の実施例を説明するために使用されたもので、本発明を限定しようとする意図ではない。単数の表現は文脈上明らかに他に指示がない限り、複数の表現を含む。本出願で、“含む”又は“有する”などの用語は明細書上に記載された特徴、数字、段階、動作、構成要素、部品又はこれらを組み合わせたものが存在することを指定しようとするものであって、一つ又はそれ以上の他の特徴、数字、段階、動作、構成要素、部品又はこれらを組み合わせたものなどの存在又は付加の可能性を予め排除しないものと理解すべきである。
他に定義しない限り、技術的や科学的な用語を含んで、ここで使われるすべての用語は本発明が属する技術分野で通常の知識を持った者によって一般的に理解されるものと同一の意味を持っている。一般的に使われる辞書に定義されているもののような用語は関連技術の文脈で有する意味と一致する意味を有するものに解釈しなければならなく、本出願で明らかに定義しない限り、理想的であるか過度に形式的な意味と解釈されない。
以下に後述する映像符号化装置(Video Encoding Apparatus)、映像復号化装置(Video Decoding Apparatus)は個人用コンピュータ(PC:Personal Computer)、ノート型パソコン、個人携帯端末機(PDA:Personal Digital Assistant)、携帯型マルチメディアプレーヤー(PMP:Portable Multimedia Player)、プレイステーションポータブル(PSP:PlayStation Portable)、無線通信端末機(Wireless Communication Terminal)、スマートフォン(Smart Phone)、TV応用サーバー及びサービスサーバーなどのサーバー端末機であることができ、各種の機器などの使用者端末機であるか有無線通信ネットワークと通信を行うための通信モデムなどの通信装置、映像を符号化するか復号化するかあるいは符号化又は復号化のために画面間又は画面内の予測するための各種のプログラムとデータを記憶するためのメモリ、プログラムを実行して演算及び制御するためのマイクロプロセッサなどを備えている多様な装置を意味することができる。
また、映像符号化装置によってビットストリームに符号化された映像は実時間又は非実時間でインターネット、近距離無線通信ネットワーク、無線LANネットワーク、Wibroネットワーク、移動通信ネットワークなどの有無線通信ネットワークなどを通じて、あるいはケーブル、ユニバーサルシリアルバス(USB:Universal Serial Bus)などの多様な通信インターフェースを通じて映像復号化装置に伝送され、映像復号化装置で復号化されて映像に復元されて再生されることができる。
通常に、動画は一連のピクチュア(Picture)からなることができ、各ピクチュアはフレーム又はブロック(Block)のような所定の領域に分割されることができる。映像の領域がブロックに分割される場合、分割されたブロックは符号化方法によって大きくイントラブロック(Intra Block)及びインターブロック(Inter Block)に分類されることができる。イントラブロックは画面内予測符号化(Intra Prediction Coding)方式で符号化されるブロックを意味する。画面内予測符号化とは現在符号化を行う現在ピクチュア内で以前に符号化及び復号化されて復元されたブロックの画素を用いて現在ブロックの画素を予測することによって予測ブロックを生成し、現在ブロックの画素との差分値を符号化する方式である。インターブロックは画面間予測符号化(Inter Prediction Coding)によって符号化されるブロックを意味する。画面間予測符号化とは、一つ以上の過去ピクチュア又は未来ピクチュアを参照して現在ピクチュア内の現在ブロックを予測することによって予測ブロックを生成し、現在ブロックとの差分値を符号化する方式である。ここで、現在ピクチュアを符号化するか復号化するのに参照されるフレームを参照フレーム(Reference Frame)と言う。また、以下に記載した“ピクチュア(picture)”という用語は、映像(image)、フレーム(frame)などの同等な意味を有する他の用語に代替して使われることができることをこの実施例が属する技術分野で通常の知識を持った者であれば理解することができる。また、本発明において、参照となるピクチュアは復元されたピクチュアを意味するというのはこの実施例が属する技術分野で通常の知識を持った者であれば理解することができる。
さらに、ブロック(block)という用語はHEVC標準のコーディングユニット(CU)、予測ユニット(PU)及び変換ユニット(TU)を含む概念であることができる。特に、動き推定はPU単位で行われることができる。
詳述すると、一つのPUに対して以前に符号化されたフレームで類似のブロックを探す過程を動き推定(motion estimation、ME)という。ここで、動き推定とは、実際ブロックの動きを意味するものではなく、現在ブロックとの誤差が一番小さいブロックを探す過程を意味することができる。
また、本発明は多視点映像を対象とするビデオコーデックに関する技術であり、動き推定は他の視点(view)に属する映像を参照する過程に適用されることができる。ここで、他の視点(view)に属する映像を参照する過程を視点間予測(inter−view prediction)と名付けることができる。
以下、本発明による好適な実施例を添付図面に基づいて詳細に説明する。
動きベクター予測を行って動きベクターを符号化及び復号化する第1実施例を説明し、残差予測を行って残差を符号化及び復号化する第2実施例を説明する。
第1実施例−動きベクター予測によって動きベクター符号化及び復号化する方法
動きベクター予測(Motion Vector Prediction)は、時間的な動きベクターの相関度を用いて時間的動きベクター予測値(TMVP:Temporal Motion Vector Predictor)を算出するか、あるいは空間的な動きベクターの相関度を用いて空間的動きベクター予測値(SMVP:Spatial Motion Vector Predictor)を算出する過程を意味することができ、現在ブロック(Current Block)の動きベクターから動きベクター予測値を差分して算出した値を動きベクター差分値(MVD:Motion Vector Difference)と名付けることができる。
図1は本発明の一実施例による動きベクター予測方法を説明するための概念図である。
図1を参照すると、多視点(Multi−View)映像は多数の視点(view)で撮影された映像を用いて立体的な画面を具現することができる。視点(view)はView IDに区分又は識別されることができる。
詳述すると、多視点映像は基本視点(Basic View)の映像と少なくとも一つの向上視点(enhancement View)又は拡張視点(extension view)の映像を含むことができる。
図1で、View ID0は参照となる視点の映像を示すことができ、View ID1は現在符号化又は復号化対象となる視点(view)の映像(現在ピクチュア)を含むことができ、View ID2は現在ピクチュアが符号化又は復号化される以前に符号化又は復号化が完了した視点(view)の映像(対応ピクチュア)を含むことができる。ここで、対応ブロック(PUcol)は現在ブロック(PUcurr)が含まれた現在ピクチュア(Piccurr)と違うピクチュア上で現在ブロック(PUcurr)の位置に相応して位置するブロックを意味することができる。例えば、対応ブロック(PUcol)は現在ピクチュア(Piccurr)と違うピクチュア上で現在ブロック(PUcurr)と同一位置に存在する(collocated)ブロックを意味することができる。また、対応ピクチュア(Piccol)は対応ブロック(PUcol)を含んでいるピクチュアを意味することができる。
現在ピクチュア(Piccurr)は、異なった視点(view)の映像又は同一視点(view)内の他のピクチュアを参照するために動き推定を行うことができる。
本発明において、ロングターム予測(Long−term prediction)は前もって設定された時間差以上離れた同一視点(view)に属するピクチュアを参照することを意味することができる。よって、前もって設定された時間差未満で離れた同一視点(view)に属するピクチュアを参照する場合をショートターム予測(Short−term prediction)と言える。
現在ブロック(PUcurr)が含まれた現在ピクチュア(Piccurr)と違うピクチュアである対応ピクチュア(Piccol)で現在ブロック(PUcurr)に相応して位置する対応ブロック(PUcol)の動きベクターをスケーリング(scaling)した結果を現在ブロック(PUcurr)の動きベクター予測値(MVP:Motion Vector Predictor)として活用することができる。
図1は現在ブロック(PUcurr)が他の視点(view)に属するピクチュアを参照し、対応ブロック(PUcol)も他の視点(view)に属するピクチュアを参照する場合を示す。すなわち、現在ブロック(PUcurr)と対応ブロック(PUcol)は共に視点間予測(inter−view prediction)を行うことができる。
この場合、現在ブロック(PUcurr)の視点間参照距離(inter−view reference distance)と対応ブロック(PUcol)の視点間参照距離が互いに異なることができる。ここで、視点間参照距離はView IDの差分値を意味することができる。
図1を見ると、現在ブロック(PUcurr)はView ID1に属するとともにView ID0に属する参照映像(Picref)を参照する。すなわち、現在ブロック(PUcurr)の視点間参照距離はView IDの差分値1である。
また、対応ブロック(PUcol)はView ID2に属するとともにView ID0に属する参照映像(Picref)を参照する。すなわち、対応ブロック(PUcol)の視点間参照距離はView IDの差分値2である。
したがって、現在ブロック(PUcurr)の視点間参照距離と対応ブロック(PUcol)の視点間参照距離が互いに異なるから、対応ブロック(PUcol)の動きベクターをスケーリングすることが必要である。
対応ブロック(PUcol)の動きベクターをスケーリングする過程をより詳細に説明すると次のようである。
図1のような場合、現在ブロック(PUcurr)の動きベクター(MVcurr)を符号化又は復号化するための現在ブロック(PUcurr)の動きベクター予測値(MVP)は対応ブロック(PUcol)の動きベクター(MVcol)をスケーリングして得ることができる。
対応ブロック(PUcol)の動きベクター(MVcol)をスケーリングする過程をより詳細に説明すると次のようである。
数学式1で、現在ブロック(PUcurr)の視点間参照距離(Diffcurr)は現在ブロック(PUcurr)が属するView ID(ViewIDcurr)と現在ブロック(PUcurr)の参照ブロックが属するView ID(ViewIDref)の間の差分値となる。
また、対応ブロック(PUcol)の視点間参照距離(Diffcol)は対応ブロック(PUcol)が属するView ID(ViewIDcol)と対応ブロック(PUcol)の参照ブロックが属するView ID(ViewIDcolref)との間の差分値となる。
したがって、対応ブロック(PUcol)の動きベクター(MVcol)に適用するスケールファクター(ScaleFactor)は次の数学式2によって算出することができる。
したがって、現在ブロックの動きベクター予測値(MVPcurr)は対応ブロック(PUcol)の動きベクター(MVcol)にスケールファクターを掛けることによって生成されることができる。
すなわち、現在ブロックの動きベクター予測値(MVPcurr)は前記数学式3のように表現できる。
図2は本発明の他の実施例による動きベクター予測方法を説明するための概念図である。
図2は現在ブロック(PUcurr)及び対応ブロック(PUcol)にショートターム予測(Short−term prediction)が行われる場合を示す。ここで、ショートターム予測は前もって設定された時間差未満で離れた同一視点(view)に属するピクチュアを参照する場合を意味することができる。
図2のような場合には、現在ブロック(PUcurr)の画面間参照距離と対応ブロック(PUcol)の画面間参照距離の割合を用いて対応ブロック(PUcol)の動きベクター(MVcol)をスケーリング(scaling)することにより、現在ブロック(PUcurr)の動きベクター予測値(MVPcurr)を生成することができる。ここで、画面間参照距離は時間的順序によるピクチュア順序(POC:Picture Order Count)の差を意味することができる。
対応ブロック(PUcol)の動きベクター(MVcol)をスケーリングする過程をより詳細に説明すると次のようである。
数学式4で、現在ブロック(PUcurr)の画面間参照距離(Diffcurr)は現在ブロック(PUcurr)が属する現在ピクチュアのピクチュア順序(POCcurr)と現在ブロック(PUcurr)が参照する参照ブロックが属する参照ピクチュアのピクチュア順序(POCref)の間の差分値となる。
また、対応ブロック(PUcol)の画面間参照距離(Diffcol)は対応ブロック(PUcol)が属する対応ピクチュア(Piccol)のピクチュア順序(POCcol)と対応ブロック(PUcol)が参照する参照ブロックが属する参照ピクチュアのピクチュア順序(POCcolref)の間の差分値となる。
対応ブロック(PUcol)の動きベクター(MVcol)に適用するスケールファクター(ScaleFactor)は次の数学式5によって算出することができる。
したがって、現在ブロック(PUcurr)の動きベクター予測値(MVPcurr)は対応ブロック(PUcol)の動きベクター(MVcol)にスケールファクターを掛けることによって生成されることができる。
すなわち、現在ブロック(PUcurr)の動きベクター予測値(MVPcurr)は前記数学式6のように表現できる。
図3は本発明のさらに他の実施例による動きベクター予測方法を説明するための概念図である。
図3は現在ブロック(PUcurr)及び対応ブロック(PUcol)にロングターム予測(Long−term prediction)が行われる場合を示す。ここで、ロングターム予測(Long−term prediction)は前もって設定された時間差以上離れた同一視点(view)に属するピクチュアを参照することを意味することができる。
現在ブロック(PUcurr)及び対応ブロック(PUcol)にロングターム予測が行われる場合、対応ブロック(PUcol)の動きベクター(MVcol)を現在ブロック(PUcurr)の動きベクター予測値(MVPcurr)から生成することができる。
すなわち、現在ブロック(PUcurr)の予測動きベクター(MVPcurr)は前記数学式7のように対応ブロック(PUcol)の動きベクター(MVcol)と同一であることができる。
結論的に、図1〜3によって現在ブロック(PUcurr)の動きベクター予測値(MVPcurr)が決定されれば、現在ブロック(PUcurr)のための動きベクター差分値(MVDcurr:Motion Vector Difference)が決定できる。
すなわち、現在ブロック(PUcurr)のための動きベクター差分値(MVDcurr)は数学式8のように決定できる。よって、現在ブロックの動きベクター差分値に現在ブロックの動きベクター予測値を加算して現在ブロックの動きベクターを復元することができる。
図4及び図5は本発明のさらに他の実施例による動きベクター予測方法を説明するための概念図である。
図4は現在ブロック(PUcurr)にショートターム予測が行われ、対応ブロック(PUcol)にロングターム予測が行われた場合を示す。
また、図5は現在ブロック(PUcurr)に視点間予測が行われ、対応ブロック(PUcol)にロングターム予測が行われた場合を示す。
図4及び図5のように現在ブロック(PUcurr)の動き予測方法と対応ブロック(PUcol)の動き予測方法に違う場合には、現在ブロック(PUcurr)の動きベクター予測値(MVPcurr)を生成するのに対応ブロック(PUcol)の動きベクター(MVcol)を活用しないことができる。
図6は本発明の実施例による動きベクター予測方法を説明するためのフローチャートである。
図6を参照すると、本発明の実施例による動きベクター予測方法は、現在ブロック及び現在ブロックに対応する対応ブロックに行われる動き予測方法を判断する段階と、判断された動き予測方法によって対応ブロックの動きベクターに基づいて現在ブロックの動きベクター予測値を生成する段階とを含む。
現在ブロック及び対応ブロックのそれぞれに対し、ロングターム予測(Long−term prediction)、ショートターム予測(Short−term prediction)及び視点間予測(Inter−view prediction)のいずれか一つが行われるかを判断することができる。
すなわち、受信したビットストリームを復号化して映像復号化のためのデータを算出し、映像復号化のためのデータを用いて、現在ブロック及び対応ブロックに行われた動き予測方法を確認することができる。例えば、映像復号化のためのデータに含まれたView ID情報、Vieworder情報及び動き予測方法の区分のためのフラグ情報の少なくとも一つを用いて動き予測方法を区分することができる。ここで、映像復号化のためのデータは、受信したビットストリームにエントロピー復号化、逆量子化及び逆変換を行って算出することができる。
現在ブロック及び対応ブロックにロングターム予測が行われる場合、対応ブロックの動きベクターを現在ブロックの予測動きベクターに生成することができる。
また、現在ブロック及び対応ブロックにショートターム予測が行われる場合、現在ブロックの画面間参照距離と対応ブロックの画面間参照距離の割合を用いて対応ブロックの動きベクターをスケーリング(scaling)することにより、現在ブロックの動きベクター予測値を生成することができる。
また、現在ブロック及び対応ブロックに視点間予測が行われる場合、現在ブロックの視点間参照距離(inter−view reference distance)と対応ブロックの視点間参照距離の割合を用いて対応ブロックの動きベクターをスケーリング(scaling)することにより、現在ブロックの動きベクター予測値を生成することができる。
しかし、現在ブロック及び対応ブロックのいずれか一方に視点間予測が行われ、他方にロングターム予測又はショートターム予測が行われる場合であるか、あるいは現在ブロック及び対応ブロックのいずれか一方にロングターム予測が行われ、他方にショートターム予測が行われる場合には、現在ブロックの予測動きベクターを算出するのに対応ブロックの動きベクターを活用しないことができる。
また、現在ブロック及び対応ブロックに行われた動き予測方法が互いに異なって対応ブロックの動きベクターを用いない場合、現在ブロックの動きベクター予測値を前もって設定されたベクターに生成することができる。例えば、前もって設定されたベクターは、(0、0)に設定できる。
したがって、現在ブロック(Curren tblock)の動き予測方法と対応ブロック(Co−located block)の動き予測方法の相関関係による現在ブロックの時間的動きベクター予測値(TMVP)は次の表1の通りである。
図6によるフローチャートを説明するに先立ち、それぞれのパラメーターを定義すると次の表2の通りである。
図6を参照して本発明の実施例による多視点のための動きベクター予測方法をより詳細に説明すると次のようである。
S610段階でLTcurrとLTcolが同一でない場合はMVcurrが示す参照映像とMVcolが示す参照映像のマーキングが異なる場合であり、例えばMVcurrはShort−term reference映像を参照し、MVcolはLong−term reference映像を参照するものである。この場合には、TMVP(Temporal Motion Vector Predictor)を使うことができない(S690)。
S610段階でIVcurrとIVcolが同一でない場合はMVcurrとMVcolの特性が異なる場合であり、例えばMVcurrはInter−view motion vectorであり、MVcolはTemporal Motion Vectorである。この場合には、TMVPを使うことができない(S690)。
S620段階でIVcurrが‘1’である場合、MVcurrとMVcolは共にInter−view motion vectorである場合であり、View IDの差分値でスケーリングが可能である(S640)。
S620段階でIVcurrが‘0’である場合、MVcurrとMVcolが共にTemporal Motion Vectorである場合であり、POCの差分値でスケーリングが可能である(S630)。
ここで、BaseViewFlagcurrが‘0’である場合はPiccurrがベース視点(Base view)ではないことを意味することができる。
S650段階でDiffcurrとDiffcol値が同一でなく、IVcurrが‘1’であるかあるいはLTcurrが0である場合、TMVPcurrはMVcolをスケーリングして使用する(S670)。
S650段階でDiffcurrとDiffcol値が同一であれば、TMVPcurrはMVcolに設定することができる(S660)。
S650段階で現在ブロック(PUcurr)と対応ブロック(PUcol)が共にlong−term reference映像を参照し、二つともinter−view予測を使わない場合、TMVPcurrはMVcolに設定することができる(S660)。
第2実施例−残差予測によって残差を符号化及び復号化する方法
残差予測(Residual Prediction)によって多視点映像を符号化及び復号化することができる。多視点映像のために改善された残差予測(ARP:Advanced Residual Prediction)は現在ブロックに対する動き予測によって残差を生成し、生成された残差に対する予測を行って予測残差を生成することを意味することができる。
したがって、残差予測によって残差を符号化及び復号化する方法は、現在ブロックの残差から予測残差を差分して生成した残差差値を符号化及び復号化することを意味することができる。
図7は本発明の一実施例による残差予測方法を説明するための概念図である。
図7を参照すると、現在ブロック(Curr)が属する視点(view)を現在視点(Current View)といい、現在視点によって参照される視点(View)を参照視点(Reference View)という。
現在ブロック(Curr)が同一視点(View)上で参照する参照ブロックをCurrRefというとき、残差信号Rは次の数学式9によって算出することができる。ここで、現在ブロック(Curr)の動きベクターをMVCurrといえる。
すなわち、次の数学式9を参照すると、現在ブロック(Curr)の残差信号Rは現在ブロック(Curr)から参照ブロック(CurrRef)を差分して算出することができる。
残差信号Rは視点間の類似性を用いて重複性をもっと除去することができる。現在ブロック(Curr)がディスパリティベクター(DVderived:Disparity Vector)を用いて参照視点上で現在ブロック(Curr)に対応する対応ブロック(Base)を探索することができる。
現在ブロック(Curr)の動きベクターであるMVcurrをスケーリングして生成したMVscaledを用いて現在ブロック(Curr)に対応する対応ブロック(Base)が時間方向に参照する参照ブロック(BaseRef)を探索することができる。
この場合、対応ブロック(Base)が参照する参照ブロック(BaseRef)が属するピクチュアは現在ブロック(Curr)に対応する対応ブロック(Base)が属するピクチュアのための参照ピクチュアリスト(Reference picture list)の中で対応ブロック(Base)が属するピクチュアと同一番号を有するピクチュアを除き、対応ブロック(Base)が属するピクチュアとPOC(Picture Order Count)の差が最も小さなピクチュアを意味することができる。
MVscaledは次の数学式10及び数学式11によって算出することができる。
数学式10で、現在ブロック(Curr)の時間方向の参照距離はDiffPOCcurrと表現することができれば、DiffPOCcurrは現在ブロック(Curr)が属するピクチュア番号(POCcurr)と現在ブロック(Curr)が時間方向に参照する参照ブロック(CurrRef)が属するピクチュア番号(POCcurrRef)の間の差分値から算出することができる。
また、対応ブロック(Base)の時間方向の参照距離はDiffPOCBaseと表現することができ、DiffPOCBaseは対応ブロック(Base)が属するピクチュア番号(POCBase)と対応ブロック(Base)が時間方向に参照する参照ブロック(BaseRef)が属するピクチュア番号(POCBaseRef)の間の差分値から算出することができる。
現在ブロック(Curr)の動きベクター(MVCurr)をスケーリングするスケールファクター(ScaleFactor)は現在ブロック(Curr)の時間方向の参照距離と対応ブロック(Base)の時間方向の参照距離の割合で示すことができる。
したがって、MVScaledは数学式11のように現在ブロック(Curr)の動きベクターであるMVCurrをスケールファクターでスケーリングして生成することができ、対応ブロック(Base)はMVScaledを用いて対応ブロック(Base)が時間方向に参照する参照ブロック(BaseRef)を探索することができる。
現在ブロック(Curr)の予測残差信号R’は数学式12によって算出することができる。すなわち、予測残差信号R’は対応ブロック(Base)から対応ブロック(Base)が時間方向に参照する参照ブロック(BaseRef)を差分して算出することができる。
また、加重値(w)を対応ブロック(Base)又は参照ブロック(BaseRef)に適用して予測残差信号R’を算出するか、あるいは数学式12による予測残差信号R’が前もって設定された臨界値(ω)より大きくなるように設定されることもできる。
したがって、残差差分値は数学式9による現在ブロック(Curr)の残差信号Rから数学式12による現在ブロック(Curr)の予測残差信号R’を差分して算出することができ、これを数学式13のように最終残差(RFinal)と名付けることができる。
また、図7及び数学式9〜13による残差予測をTemporal ARP(Advanced Residual Prediction)と名付けることができる。
図8は本発明の他の実施例による残差予測方法を説明するための概念図である。
図8を参照すると、現在ブロック(Curr)が他の視点(View)上で参照する参照ブロックをIvRefというとき、残差信号Rは次の数学式14によって算出することができる。ここで、現在ブロック(Curr)の動きベクターをMVCurrということができ、MVCurrによって視点間予測(inter−view prediction)が行われることができる。
すなわち、次の数学式14を参照すると、現在ブロック(Curr)の残差信号Rは現在ブロック(Curr)から参照ブロック(IvRef)を差分して算出することができる。
数学式14を参照すると、残差信号Rは時間間の類似性を用いて重複性をもっと除去することができる。現在ブロック(Curr)が動きベクター(MVCurr)を用いて参照視点上で現在ブロック(Curr)が視点間(inter−view)参照する参照ブロック(IvRef)を探索することができる。
現在ブロック(Curr)の参照ブロック(IvRef)はdTMVBaseを用いて時間方向に参照する参照ブロック(IvTRef)を探索することができる。
また、現在ブロック(Curr)の参照ブロック(IvRef)が使用するdTMVBaseをスケーリングして生成したdMVScaledを用いて現在ブロック(Curr)が時間方向に参照する参照ブロック(TRef)を探索することができる。
この場合、現在ブロック(Curr)が時間方向に参照する参照ブロック(TRef)が属するピクチュアは現在ブロック(Curr)が属するピクチュアのための参照ピクチュアリスト(Reference picture list)の中で現在ブロック(Curr)が属するピクチュアと同一番号を有するピクチュアを除き、現在ブロック(Curr)が属するピクチュアとPOC(Picture Order Count)の差が最も小さなピクチュアを意味することができる。
MVScaledは次の数学式15及び数学式16を用いて算出することができる。
数学式15で、現在ブロック(Curr)の時間方向の参照距離はDiffPOCCurrと表現することができ、DiffPOCCurrは現在ブロック(Curr)が属するピクチュア番号(POCCurr)と現在ブロック(Curr)が時間方向に参照する参照ブロック(TRef)が属するピクチュア番号(POCTRef)の間の差分値から算出することができる。
また、参照ブロック(IvRef)の時間方向の参照距離はDiffPOCBaseで表現することができ、DiffPOCBaseは参照ブロック(IvRef)が属するピクチュア番号(POCIvRef)と参照ブロック(IvRef)が時間方向に参照する参照ブロック(IvTRef)が属するピクチュア番号(POCIvTRef)の間の差分値として算出することができる。
参照ブロック(IvRef)の動きベクター(dTMVBase)をスケーリングするスケールファクター(ScaleFactor)は現在ブロック(Curr)の時間方向の参照距離と対応ブロック(Base)の時間方向の参照距離の割合で示すことができる。
したがって、dTMVScaledは数学式16のように参照ブロック(IvRef)の動きベクターであるdTMVBaseをスケールファクターでスケーリングして生成することができ、現在ブロック(Curr)はdTMVScaledを用いて現在ブロック(Curr)が時間方向に参照する参照ブロック(TRef)を探索することができる。
現在ブロック(Curr)の予測残差信号R’は数学式17によって算出することができる。すなわち、予測残差信号R’は現在ブロック(Curr)が時間方向に参照する参照ブロック(TRef)から現在ブロック(Curr)の参照ブロック(IvRef)が時間方向に参照する参照ブロック(IvTRef)を差分して算出することができる。
また、加重値(w)を参照ブロック(TRef又はIvTRef)に適用して予測残差信号R’を算出するか、あるいは数学式17による予測残差信号R’が前もって設定された臨界値(ω)より大きくなるように設定されることもできる。
したがって、残差差分値は数学式14による現在ブロック(Curr)の残差信号Rから数学式17による現在ブロック(Curr)の予測残差信号R’を差分して算出することができ、これを数学式18のように最終残差(RFinal)と名付けることができる。
また、図8及び数学式14〜18による残差予測をInter−view ARP(Advanced Residual Prediction)と名付けることができる。
図9は本発明のさらに他の実施例による残差予測方法を説明するための概念図である。
図9を参照すると、現在ブロック(Curr)が動きベクター(MVCurr)を用いて参照視点(View ID1)上で現在ブロック(Curr)が視点間(inter−view)参照する参照ブロック(IvRef)を探索することができる。
図9の場合には、図8の場合とは異なり、現在ブロック(Curr)の参照ブロック(IvRef)はMVRefを用いて他の視点(view)上で参照する参照ブロック(IvTRef)を探索することができる。
この場合、現在ブロック(Curr)の参照ブロック(IvRef)が使用するMVRefをスケーリングしてMVScaledを生成するのに問題が発生する。すなわち、MVRefは視点間予測(inter−view prediction)に使われる動きベクターであることに対し、MVScaledは時間方向に動き予測を行うベクターであるからである。
より詳細に、MVRefは視点間予測(inter−view prediction)に使われる動きベクターであるから、数学式15において分母が0となってスケールファクターが無限大に算出される問題点が発生することができる。
したがって、数学式19を用いてMVScaledを算出する過程で間違い又はエラーが発生することができるため、MVScaledを(0、0)に設定して間違い又はエラーの発生を解決することができる。
図8及び図9で、IvRefを第1参照ブロックに、TRefを第2参照ブロックに、IvTRefを第3参照ブロックにして説明すると次のようである。
現在ブロックが視点間予測(inter−view prediction)のために参照する第1参照ブロックに行われた動き予測方法を判断する段階と、第1参照ブロックの動き予測方法によって現在ブロックのための予測残差を生成する段階とを含む。
第1参照ブロックに時間動き予測(Temporal motion prediction)及び視点間予測(Inter−view prediction)のいずれか一つが行われるかを確認することができる。
現在ブロックが時間動き予測のために参照する第2参照ブロックと第1参照ブロックが参照する第3参照ブロック間の差分値を予測残差として生成することができる。ここで、第2参照ブロックは、現在ブロックが属する現在ピクチュアの参照リストにおいて時間方向に最も近いピクチュアに属することができる。
第1参照ブロックに時間動き予測が行われたことが確認された場合、第3参照ブロックの探索のための動きベクターにスケールファクターを適用してスケールされた動きベクターを生成し、スケールされた動きベクターを用いて第2参照ブロックを決定することができる。ここで、スケールファクターは、第1参照ブロックが属する参照ピクチュアの番号と第1参照ブロックが時間動き予測のために参照する第3参照ブロックが属するピクチュアの番号間の差分値と現在ブロックが属するピクチュアの番号と第2参照ブロックが属するピクチュアの番号との間の差分値に基づいて生成することができる。
また、第1参照ブロックに視点間予測が行われたことが確認された場合、第2参照ブロックの探索のための動きベクターとして(0、0)を適用して第2参照ブロックを決定することができる。
図10は本発明の実施例による多視点映像を符号化/復号化する装置を説明するためのブロック図である。
図10を参照すると、本発明の実施例によって多視点映像を符号化/復号化するシステムは、多視点映像符号化装置10及び多視点映像復号化装置20を含んでなる。
多視点映像符号化装置10は、基本視点映像を符号化するための基本視点映像符号化装置11及び拡張視点映像を符号化するための拡張視点映像符号化装置12、13を含むことができる。ここで、基本視点映像は2D単視点映像を提供するための映像を意味し、拡張視点映像は3Dのような拡張した視点の映像を提供するための映像を意味することができる。
例えば、多視点映像符号化装置10は、基本視点映像符号化装置11、第1拡張視点映像符号化装置12及び第2拡張視点映像符号化装置13を含んでなることができる。また、拡張視点映像符号化装置は、第1拡張視点映像符号化装置12や第2拡張視点映像符号化装置13に限定されなく、視点(view point)の数によって数が増加することができる。その上、基本視点映像符号化装置11及び拡張視点映像符号化装置12、13は、カラー映像と深度映像(Depth map)を区分して符号化を行うことができる。
多視点映像符号化装置10は、多視点映像を符号化したビットストリームを多視点映像復号化装置20に伝送することができる。
ビットストリームを受信した多視点映像復号化装置20は、ビットストリーム抽出部29、基本視点映像復号化装置21及び拡張視点映像復号化装置22、23を含むことができる。
例えば、多視点映像復号化装置20は、基本視点映像復号化装置21、第1拡張視点映像復号化装置22及び第2拡張視点映像復号化装置23を含んでなることができ、拡張視点映像復号化装置は視点の数によって数が増加することができるのは言うまでもない。
詳述すると、ビットストリーム抽出部29はビットストリームを視点(view point)別に区分することができ、区分されたビットストリームは基本視点映像復号化装置21及び拡張視点映像復号化装置22、23にそれぞれ伝達されることができる。
本発明の実施例によれば、復号化された基本視点映像は既存の2Dディスプレイ装置で表示される逆方向適合性を有することができる。また、復号化された基本視点映像及び復号化された少なくとも一つの拡張視点映像はステレオディスプレイ装置又は多視点ディスプレイ装置で表示されることができる。
一方、入力されたカメラ位置情報などはビットストリームによってステレオディスプレイ装置又は多視点ディスプレイ装置に補助情報として伝送されることができる。
図11は本発明の実施例によって多視点映像を符号化する装置を説明するためのブロック図である。
図11を参照すると、本発明の実施例による多視点映像符号化装置10は、基本視点映像符号化装置11と拡張視点映像符号化装置12を含んでなることができる。ただ、視点によって拡張視点映像符号化装置がさらに付け加えられることができる。
基本視点映像符号化装置11と拡張視点映像符号化装置12のそれぞれは、減算部110、110−1、変換部120、120−1、量子化部130、130−1、逆量子化部131、131−1、逆変換部121、121−1、エントロピー符号化部140、140−1、加算部150、150−1、インループフィルター部160、160−1、フレームメモリ170、170−1、イントラ予測部180、180−1及び動き補償部190、190−1を含む。
減算部110、110−1は、提供された入力映像である符号化すべき対象映像(現在映像)からイントラ予測又はインター予測によって生成された予測映像を引き算することによって現在映像と予測映像間の残差映像(residue image)を生成する。
変換部120、120−1は、減算部110、110−1によって生成された残差映像を空間領域から周波数領域に変換する機能をする。ここで、変換部120、120−1は、ハダマール変換、離散余弦変換(Discrete Cosine Transform)、離散サイン変換(Discrete Cosine Transform)などのように空間軸の画像信号を周波数軸に変換する技法を用いて残差映像を周波数領域に変換することができる。
量子化部130、130−1は、変換部120、120−1から提供される変換されたデータ(周波数係数)に対して量子化を行う。すなわち、量子化部130、130−1は、変換部120、120−1によって変換されたデータである周波数係数を量子化ステップサイズ(Quantization Step−Size)に分けて近似化して量子化結果値を算出する。
エントロピー符号化部140、140−1は、量子化部130、130−1によって算出された量子化結果値をエントロピー符号化することによってビットストリームを生成する。また、エントロピー符号化部140、140−1は、量子化部130、130−1によって算出された量子化結果値をCAVLC(Context−Adaptive Variable Length Coding)又はCABAC(Context−Adaptive Binary Arithmetic Coding)技法などでエントロピー符号化することができ、量子化結果値以外に映像を復号化するのに必要な情報をエントロピー符号化することができる。
逆量子化部131、131−1は、量子化部130、130−1によって算出された量子化結果値を逆量子化する。すなわち、逆量子化部131、131−1は、量子化結果値から周波数領域の値(周波数係数)を復元する。
逆変換部121、121−1は、逆量子化部131、131−1に提供された周波数領域の値(周波数係数)を周波数領域から空間領域に変換することによって残差映像を復元し、加算部150、150−1はイントラ予測又はインター予測によって生成された予測映像に逆変換部121、121−1によって復元された残差映像を加算することによって入力映像の復元映像を生成してフレームメモリ170、170−1に記憶する。
イントラ予測部180、180−1はイントラ予測(Intra Prediction)を行い、動き補償部190、190−1はインター予測(Inter Prediction)のための動きベクターを補償する。ここで、イントラ予測部180、180−1と動き補償部190、190−1を予測部と通称することができる。
本発明の実施例によれば、拡張視点映像符号化装置12に含まれた予測部180−1、190−1は、参照視点の参照ブロックに対する予測遂行情報を用いて拡張視点の現在ブロックに対する予測を行うことができる。ここで、参照視点は拡張視点によって参照される視点で、基本視点を意味することができる。また、予測遂行情報は参照ブロックに対する予測モード情報及び動き情報を含むことができる。
インループフィルター部160、160−1は復元された映像に対するフィルタリングを行うもので、デブロッキングフィルター(DF:Deblocking Filter)、サンプル適応的オフセット(SAO:Sample Adaptive Offset)を含んでなることができる。
マルチプレクサー330は、符号化された基本視点映像に対するビットストリームと符号化された拡張視点映像に対するビットストリームを受信して拡張されたビットストリームを出力することができる。
特に、本発明の実施例による多視点映像符号化装置10は、視点間予測部310及び残差予測部320をさらに含むことができる。
図11で、視点間予測部310及び残差予測部320は基本視点映像符号化装置11と拡張視点映像符号化装置12の間に位置するものとして示されているが、その構造又は位置に限定されるものではない。
視点間予測部310は動き補償部190、190−1と連動して動作することができ、上述した第1実施例による動きベクター予測によって多視点映像のための動きベクターを符号化することができる。
また、残差予測部320は動き補償部190、190−1及びイントラ予測部180、180−1と連動して動作することができ、上述した第2実施例による残差予測によって多視点映像のための残差を符号化することができる。
図12は本発明の実施例によって多視点映像を復号化する装置を説明するためのブロック図である。
図12を参照すると、本発明の実施例による多視点映像復号化装置20は、ビットストリーム抽出部29、基本視点映像復号化装置21及び拡張視点映像復号化装置22、23を含んでなることができる。
ビットストリーム抽出部29はビットストリームを視点(view point)別に区分することができ、区分されたビットストリームは基本視点映像復号化装置21及び拡張視点映像復号化装置22、23にそれぞれ伝達されることができる。
基本視点映像復号化装置21と拡張視点映像復号化装置22、23のそれぞれは、エントロピー復号化部210、210−1、逆量子化部220、220−1、逆変換部230、230−2、加算部240、240−1、インループフィルター部250、250−1、フレームメモリ260、260−1、イントラ予測部270、270−1及び動き補償部280、280−1を含むことができる。ここで、イントラ予測部270、270−1及び動き補償部280、280−1は予測部と通称することができる。
特に、本発明の実施例による多視点映像復号化装置20は、視点間予測部410及び残差予測部420をさらに含むことができる。
図12で、視点間予測部410及び残差予測部420は基本視点映像復号化装置21と拡張視点映像復号化装置22の間に位置するものとして示されたが、その構造又は位置に限定されるものではない。
視点間予測部410は動き補償部290、290−1と連動して動作することができ、上述した第1実施例による動きベクター予測によって多視点映像のための動きベクターを復号化することができる。
また、残差予測部420は動き補償部290、290−1及びイントラ予測部280、280−1と連動して動作することができ、上述した第2実施例による残差予測によって多視点映像のための残差を復号化することができる。
一方、多視点映像復号化装置20の各構成要素は図11の多視点映像符号化装置10の構成要素とそれぞれ対応して理解されることができるので、詳細な説明は省略する。
また、上述した本発明の実施例による多視点映像符号化装置10及び多視点映像復号化装置20の各構成部は説明の便宜上それぞれの構成部として並べて含むもので、各構成部の少なくとも二つが合わせられて一つのプロセッサになるか、一つの構成部が複数のプロセッサに分けられて機能を果たすことができ、このような各構成部の統合及び分離された実施例の場合も、本発明の本質から逸脱しない限り、本発明の権利範囲に含まれる。
そして、本発明による多視点映像符号化装置10及び多視点映像復号化装置20は、コンピュータが読める記録媒体にコンピュータが読めるプログラム又はコードから具現することが可能である。コンピュータが読める記録媒体はコンピュータシステムによって読められるデータが格納されるすべての種類の記録装置を含む。また、コンピュータが読める記録媒体はネットワークを介して連結されたコンピュータシステムに分散され、分散方式でコンピュータで読めるプログラム又はコードが格納されて実行されることができる。
上述した本発明の第1実施例による多視点映像のための動きベクター予測方法は、多視点映像を符号化/復号化する過程で動きベクターを効果的に符号化/復号化することができるようにする。すなわち、本発明によれば、現在ブロック及び対応ブロックの動きベクター予測方法によって適応的に時間的動きベクターに対する予測を行うことができる。
上述した本発明の第2実施例による多視点映像のための残差予測方法は、多視点映像を符号化/復号化する過程で残差を効果的に符号化/復号化することができるようにする。すなわち、本発明によれば、予測残差を生成する過程で動きベクターをスケーリングするためのスケールファクターの算出に間違いが発生することを防止することができ、これにより、多視点映像のための残差予測において間違い又はエラーを防止することができる。
以上では本発明の好適な実施例を参照して説明したが、当該技術分野の熟練した当業者は下記の特許請求範囲に記載された本発明の思想及び領域から逸脱しない範疇内で本発明を多様に修正及び変更させることができることが理解可能であろう。

Claims (6)

  1. 多視点映像に対する復号化方法であって、
    復号化対象である現在ブロックによって参照される第1参照ブロックの予測方法を判断する段階;
    前記第1参照ブロックの前記予測方法によって前記現在ブロックのための予測残差を生成する段階;及び
    前記予測残差と、映像復号化のためのデータに含まれた前記現在ブロックの残差差分値とを用いて、前記現在ブロックを復元する段階;
    を含み、
    前記現在ブロックのための前記予測残差を生成する前記段階は、前記現在ブロックの時間的予測のために参照される第2参照ブロックと前記第1参照ブロックの時間的予測又は視点間予測のために参照される第3参照ブロック間の差分値に基づいて前記予測残差を生成する段階を備え、
    前記現在ブロックのための前記予測残差を生成する前記段階は、前記第1参照ブロックに前記視点間予測(Inter−view prediction)が行われたことが確認されたとき、前記第2参照ブロックのために決定することに用いられる動きベクターとして(0、0)を適用することにより前記第2参照ブロックを決定する段階を備えることを特徴とする多視点映像復号化方法。
  2. 記予測方法を判断する前記段階は、
    受信したビットストリームを復号化して映像復号化のための前記データを算出する段階;及び
    前記映像復号化のためのデータを用いて前記第1参照ブロックの前記予測方法を確認する段階を含む、請求項1に記載の多視点映像復号化方法。
  3. 前記映像復号化のためのデータを算出する前記段階は、
    前記受信したビットストリームにエントロピー復号化、逆量子化及び逆変換のうちの少なくとも一つを行う段階を含むことを特徴とする、請求項2に記載の多視点映像復号化方法。
  4. 前記予測方法を判断する前記段階は、
    前記映像復号化のためのデータに含まれたView ID情報、View order情報及び動き予測方法の区分のためのフラグ情報の少なくとも一つを用いて前記予測方法を区分する段階を含むことを特徴とする、請求項2に記載の多視点映像復号化方法。
  5. 記予測方法を確認する前記段階は、
    前記映像復号化のためのデータに基づいて前記第1参照ブロックに時間予測(Temporal prediction)及び視点間予測(Inter−view prediction)のいずれか一つが行われるかを確認する段階を含むことを特徴とする、請求項2に記載の多視点映像復号化方法。
  6. 前記第1参照ブロックは、前記現在ブロックの視点間予測(inter−view prediction)のために参照されるブロックであることを特徴とする、請求項1に記載の方法。
JP2016562717A 2014-01-02 2014-12-30 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置 Active JP6615777B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0000187 2014-01-02
KR20140000187 2014-01-02
PCT/KR2014/013034 WO2015102367A1 (ko) 2014-01-02 2014-12-30 다시점 비디오를 부호화하는 방법 및 그 장치, 다시점 비디오를 복호화하는 방법 및 그 장치

Publications (2)

Publication Number Publication Date
JP2017510219A JP2017510219A (ja) 2017-04-06
JP6615777B2 true JP6615777B2 (ja) 2019-12-04

Family

ID=53493649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562717A Active JP6615777B2 (ja) 2014-01-02 2014-12-30 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置

Country Status (11)

Country Link
US (1) US20160330472A1 (ja)
EP (2) EP3958572B1 (ja)
JP (1) JP6615777B2 (ja)
KR (8) KR101658192B1 (ja)
CN (1) CN106063272B (ja)
DK (2) DK3091741T3 (ja)
ES (1) ES2906182T3 (ja)
FI (1) FI3958572T3 (ja)
HU (1) HUE057890T2 (ja)
PL (2) PL3091741T3 (ja)
WO (1) WO2015102367A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015000108A1 (en) * 2013-07-01 2015-01-08 Mediatek Singapore Pte. Ltd. An improved texture merging candidate in 3dvc
WO2015102367A1 (ko) * 2014-01-02 2015-07-09 세종대학교산학협력단 다시점 비디오를 부호화하는 방법 및 그 장치, 다시점 비디오를 복호화하는 방법 및 그 장치
WO2016124710A1 (en) * 2015-02-05 2016-08-11 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-view video codec supporting residual prediction
CN117061738A (zh) 2018-04-02 2023-11-14 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
US11575935B2 (en) 2019-06-14 2023-02-07 Electronics And Telecommunications Research Institute Video encoding method and video decoding method
WO2020262914A1 (ko) * 2019-06-24 2020-12-30 엘지전자 주식회사 인터 예측 기반 영상 코딩 방법 및 장치
CN112261409A (zh) * 2019-07-22 2021-01-22 中兴通讯股份有限公司 残差编码、解码方法及装置、存储介质及电子装置
CN111651268B (zh) * 2020-05-14 2023-01-31 武汉兰丁智能医学股份有限公司 显微图像快速处理系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101023672A (zh) * 2004-07-12 2007-08-22 诺基亚公司 在可调整视频编码中用于运动预测的系统和方法
KR101039204B1 (ko) * 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
KR20090113281A (ko) * 2007-01-24 2009-10-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
RU2602794C2 (ru) * 2011-06-30 2016-11-20 Сони Корпорейшн Устройство обработки изображений и способ обработки изображений
CN103891290B (zh) * 2011-08-19 2018-02-02 瑞典爱立信有限公司 运动矢量处理
TWI556648B (zh) * 2011-11-08 2016-11-01 三星電子股份有限公司 解碼影像的方法
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US20130329800A1 (en) * 2012-06-07 2013-12-12 Samsung Electronics Co., Ltd. Method of performing prediction for multiview video processing
US9357195B2 (en) * 2012-08-16 2016-05-31 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
US9781442B2 (en) * 2012-09-17 2017-10-03 Lg Electronics Inc. Method and apparatus for processing video signal
US9497439B2 (en) * 2013-07-15 2016-11-15 Ati Technologies Ulc Apparatus and method for fast multiview video coding
WO2015006951A1 (en) * 2013-07-18 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for fast encoder decision
WO2015102367A1 (ko) * 2014-01-02 2015-07-09 세종대학교산학협력단 다시점 비디오를 부호화하는 방법 및 그 장치, 다시점 비디오를 복호화하는 방법 및 그 장치
US10110925B2 (en) * 2014-01-03 2018-10-23 Hfi Innovation Inc. Method of reference picture selection and signaling in 3D and multi-view video coding

Also Published As

Publication number Publication date
KR20150080906A (ko) 2015-07-10
KR20150080905A (ko) 2015-07-10
KR101692744B1 (ko) 2017-01-04
KR20160116326A (ko) 2016-10-07
DK3958572T3 (da) 2024-03-04
KR102550448B1 (ko) 2023-07-03
US20160330472A1 (en) 2016-11-10
KR20230104560A (ko) 2023-07-10
HUE057890T2 (hu) 2022-06-28
KR101658192B1 (ko) 2016-09-20
EP3091741A4 (en) 2017-08-16
KR102344088B1 (ko) 2021-12-29
EP3958572B1 (en) 2024-02-07
CN106063272B (zh) 2019-11-15
ES2906182T3 (es) 2022-04-13
KR20210158843A (ko) 2021-12-31
EP3091741A1 (en) 2016-11-09
PL3091741T3 (pl) 2022-03-28
KR102643840B1 (ko) 2024-03-06
DK3091741T3 (da) 2022-01-31
FI3958572T3 (fi) 2024-03-13
KR101778710B1 (ko) 2017-09-14
KR20210007007A (ko) 2021-01-19
EP3958572A1 (en) 2022-02-23
KR101662662B1 (ko) 2016-10-05
CN106063272A (zh) 2016-10-26
EP3091741B1 (en) 2021-10-27
KR20160100896A (ko) 2016-08-24
JP2017510219A (ja) 2017-04-06
KR20170003513A (ko) 2017-01-09
KR102201591B1 (ko) 2021-01-12
WO2015102367A1 (ko) 2015-07-09
PL3958572T3 (pl) 2024-05-06

Similar Documents

Publication Publication Date Title
JP6615777B2 (ja) 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置
US20220078408A1 (en) Device and method for processing video signal by using inter prediction
US11792419B2 (en) Image encoding/decoding method and device for performing prediction, and method for transmitting bitstream involving weighted prediction and bidirectional optical flow
US20220038732A1 (en) Method and device for processing video signal for inter-prediction
EP3996372A1 (en) Video encoding/decoding method and device for deriving weight index for bidirectional prediction of merge candidate, and method for transmitting bitstream
JP2013078097A (ja) 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
CN114208171A (zh) 用于推导用于生成预测样本的权重索引信息的图像解码方法和装置
US20240171749A1 (en) Image encoding/decoding method and device for performing prof, and method for transmitting bitstream
JP2023165944A (ja) 同一位置ピクチャに関する情報を含むピクチャヘッダーに基づく画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
CN114270833A (zh) 用于在视频/图像编译系统中移除重叠信令的方法和装置
CN114342387A (zh) 基于运动预测的图像编译方法和装置
JP6386466B2 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
JP2013085156A (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
CN114365485A (zh) 用于执行bdof的图像编码/解码方法和装置及用于发送比特流的方法
CN114270824A (zh) 用于基于帧间预测编译图像的方法和装置
US20220191472A1 (en) Image encoding/decoding method and device for deriving weight index of bidirectional prediction, and method for transmitting bitstream
US20220191535A1 (en) Image encoding/decoding method and apparatus for performing bi-directional prediction, and method for transmitting bitstream
KR102634643B1 (ko) 양방향 예측의 가중치 인덱스를 유도하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR20150020593A (ko) 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 프로그램, 동화상 복호 프로그램 및 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250