JP6545796B2 - ビデオコーディングにおけるデプスピクチャコーディング方法及び装置 - Google Patents

ビデオコーディングにおけるデプスピクチャコーディング方法及び装置 Download PDF

Info

Publication number
JP6545796B2
JP6545796B2 JP2017520852A JP2017520852A JP6545796B2 JP 6545796 B2 JP6545796 B2 JP 6545796B2 JP 2017520852 A JP2017520852 A JP 2017520852A JP 2017520852 A JP2017520852 A JP 2017520852A JP 6545796 B2 JP6545796 B2 JP 6545796B2
Authority
JP
Japan
Prior art keywords
view
block
prediction
picture
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017520852A
Other languages
English (en)
Other versions
JP2017525314A (ja
Inventor
チョンハク ナム
チョンハク ナム
ソフン イェ
ソフン イェ
チョントン ソ
チョントン ソ
ソンミ ユ
ソンミ ユ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2017525314A publication Critical patent/JP2017525314A/ja
Application granted granted Critical
Publication of JP6545796B2 publication Critical patent/JP6545796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Description

本発明は、ビデオコーディングに関し、より詳しくは、ビデオコーディングにおけるデプスピクチャコーディング方法及び装置に関する。
最近、高解像度、高品質の映像に対する要求が多様な応用分野において増加している。しかしながら、映像が高解像度を有し高品質になるほど、該当映像に関する情報量も共に増加する。
したがって、従来の有線又は無線広帯域回線のような媒体を利用して、映像情報を送信するか、または従来の格納媒体を利用して映像情報を格納する場合には、情報の送信費用と格納費用が増加するようになる。高解像度、高品質映像の情報を効果的に送信したり格納し、再生するために、高効率の映像圧縮技術を使用することができる。
一方、高解像度/大容量の映像を処理できるようになるにつれて、3Dビデオを利用したデジタル放送サービスが次世代放送サービスの一つとして注目されている。3Dビデオは、複数の視点(view)チャネルを利用して現場感と没入感を提供できる。
3Dビデオは、FVV(free viewpoint video)、FTV(free viewpoint TV)、3DTV、社会安全網(surveillance)及びホームエンターテイメントのような多様な領域に使用されることができる。
シングルビュービデオ(single view video)とは異なり、マルチビューを利用した3Dビデオは、同じPOC(picture order count)のビューの間に高い相関(correlation)を有する。マルチビュー映像は、隣接した複数のカメラ、即ち、複数視点(view)を利用して全く同じ場面を同時に撮影するから、視差と若干の照明差を除外すると、ほとんど同じ情報を含んでいるので、互いに異なるビュー間の相関が高い。
したがって、マルチビュービデオのエンコード/デコードでは、互いに異なるビュー間の相関を考慮して、現在ビューのエンコード及び/またはデコードに必要な情報を獲得できる。例えば、現在ビューのデコード対象ブロックを他のビューのブロックを参照して予測またはデコードできる。
また、デプスピクチャとテクスチャピクチャは、同じ場面に対する情報を含んでいるため、互いに相関が高い。したがって、テクスチャピクチャを参照してデプスピクチャを予測し、またはデコーディングすることもできる。
本発明は、3Dビデオコーディングにおいて、現在ブロックを予測する方法及び装置を提供する。
本発明は、インタービュー動き予測(inter−view motion prediction、IMVP)を実行する方法及び装置を提供する。
本発明は、IMVPを実行するにあたって使用可能な参照ビューを設定する方法及び装置を提供する。
本発明は、デプスピクチャコーディングにおいて、現在ブロックのディスパリティ(disparity)を誘導する方法及び装置を提供する。
本発明は、現在ブロックのディスパリティを誘導するために使われる参照ビューインデックスを設定する方法及び装置を提供する。
本発明の一実施例によると、3Dビデオデコーディング方法を提供する。前記デコーディング方法は、参照ビュー(view)及び所定値に基づいてディスパリティ値を取得するステップ、前記ディスパリティ値に基づいてデプスピクチャ内の現在ブロックの動き情報を導出するステップ、及び前記動き情報に基づいて前記現在ブロックの予測サンプルを生成するステップを含み、前記参照ビューは、参照ピクチャリスト内の参照ピクチャのビューであることを特徴とする。
本発明の他の実施例によると、3Dビデオデコーディング装置を提供する。前記デコーディング装置は、予測モード情報を含むビットストリームを受信してデコーディングするデコーディング部、前記参照ビュー(view)及び所定値に基づいてディスパリティ値を取得し、前記ディスパリティ値に基づいてデプスピクチャ内の現在ブロックの動き情報を導出し、及び前記予測モード情報及び前記動き情報に基づいて前記現在ブロックの予測サンプルを生成する予測部を含み、前記参照ビューは、参照ピクチャリスト内の参照ピクチャのビューであることを特徴とする。
本発明によると、3Dビデオコーディングにおいて、現在ブロックのディスパリティベクトルを円滑に誘導することができる。
本発明によると、ベースビュー(base view)をアクセスすることができない場合にも、DPB(decoded picture buffer)内の使用可能な参照ビューインデックスに基づいてディスパリティベクトルを誘導することができ、コーディング効率を向上させることができる。
本発明が適用されることができる3Dビデオのエンコーディング及びデコーディング過程を概略的に説明する図面である。 本発明が適用されることができるビデオエンコーディング装置の構成を概略的に説明する図面である。 本発明が適用されることができるビデオデコーディング装置の構成を概略的に説明する図面である。 本発明が適用されることができるマルチビュービデオコーディングの一例を概略的に説明するための図面である。 Wedgeletモードを概略的に示す図面である。 Contourモードを概略的に示す図面である。 SDC符号化方法を概略的に示す図面である。 IVMP方法を概略的に示す図面である。 本発明の実施例に係る3Dビデオエンコーディング方法を概略的に示す流れ図である。 本発明の実施例に係る3Dビデオデコーディング方法を概略的に示す流れ図である。
本発明は多様な変更を加えることができ、さまざまな実施形態を有することができるところ、特定の実施形態を図面に例示し、詳細に説明しようとする。しかしながら、これは本発明を特定の実施形態に対して限定しようとするものではない。本明細書で使用する用語は単に特定の実施形態を説明するために使われたものであって、本発明の技術的思想を限定しようとする意図として使われるものではない。単数の表現は文脈上、明白に異なる意味として使用されない限り、複数の表現を含む。本明細書で、“含む”または“有する”などの用語は明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定しようとするものであり、一つまたはその以上の他の特徴や数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものの存在または付加可能性を予め排除しないことと理解されるべきである。
一方、本発明で説明される図面上の各構成はビデオエンコーディング装置/デコーディング装置で互いに異なる特徴的な機能に関する説明の便宜のために独立的に図示されたものであって、各構成が互いに別のハードウェアや別のソフトウェアで実装されることを意味しない。例えば、各構成のうち、二つ以上の構成が合わさって一つの構成をなすこともでき、一つの構成が複数の構成に分けられることもできる。各構成が統合及び/又は分離された実施形態も本発明の本質から逸脱しない限り、本発明の権利範囲に含まれる。
以下、添付した図面を参照して、本発明の好ましい実施形態をより詳細に説明する。以下、図面上の同一の構成要素に対しては同一の参照符号を使用し、同一の構成要素に対して重複した説明は省略する。
本明細書において、ピクチャ(picture)は、一般的に特定時間帯の一つの映像を示す単位を意味し、スライス(slice)は、コーディングにおいてピクチャの一部を構成する単位である。一つのピクチャは、複数のスライスで構成されることができ、必要によって、ピクチャ及びスライスは、互いに混用されることができる。
ピクセル(pixel)またはペル(pel)は、一つのピクチャ(または、映像)を構成する最小の単位を意味する。また、特定のピクセルの値を示す用語として‘サンプル(sample)’が使われることができる。サンプルは、一般的にピクセルの値を示すことができ、輝度(luma)成分のピクセル値のみを示すこともでき、彩度(chroma)成分のピクセル値のみを示すこともできる。
ユニット(unit)は、映像処理の基本単位を示す。ユニットは、ピクチャの特定領域及び該当領域に関連した情報のうち少なくとも一つを含むことができる。ユニットは、場合によって、ブロック(block)または領域(area)などの用語と混用されることができる。一般的な場合、M×Nブロックは、M個の列とN個の行からなるサンプルまたは変換係数(transform coefficient)のセットを示すことができる。
図1は、本発明が適用されることができる3Dビデオのエンコーディング及びデコーディング過程を概略的に説明する図面である。
図1を参照すると、3Dビデオエンコーダは、ビデオピクチャ及びデプスマップ(depth map)とカメラパラメータ(camera parameter)をエンコーディングしてビットストリームで出力できる。
デプスマップは、対応するビデオピクチャ(テクスチャピクチャ)のピクセルに対してカメラと被写体との間の距離情報(深さ情報)で構成されることができる。例えば、デプスマップは、深さ情報をビットデプス(bit depth)によって正規化した映像である。このとき、デプスマップは、色差表現なしで記録された深さ情報で構成されることができる。デプスマップは、デプスマップピクチャまたはデプスピクチャと呼ばれることができる。
一般的に、被写体との距離とディスパリティは、互いに反比例するため、カメラパラメータを利用してデプスマップの深さ情報からビュー間の相関を示すディスパリティ情報を誘導することができる。
一般的な、カラー映像、即ち、ビデオピクチャ(テクスチャピクチャ)と共にデプスマップとカメラパラメータを含むビットストリームは、ネットワーク(network)または格納媒体を介してデコーダに送信されることができる。
デコーダ側ではビットストリームを受信してビデオを復元することができる。デコーダ側で3Dビデオデコーダが利用される場合、3Dビデオデコーダは、ビットストリームからビデオピクチャとデプスマップ及びカメラパラメータをデコーディングすることができる。デコーディングされたビデオピクチャとデプスマップ、そしてカメラパラメータに基づいてマルチビュー(multi view)ディスプレイに必要なビューを合成する(synthesize)することもできる。このとき、使われるディスプレイがステレオ(stereo)ディスプレイである場合、復元されたマルチビューのうち二つのビューに対するピクチャを利用して3D映像をディスプレイすることができる。
ステレオビデオデコーダが使われる場合、ステレオビデオデコーダは、ビットストリームから両眼(eyes)に各々入射される二つのピクチャを復元することができる。ステレオディスプレイでは、左眼に入射される左側映像と右眼に入射される右側映像の視差(view difference)またはディスパリティ(disparity)を利用して立体映像をディスプレイすることができる。ステレオビデオデコーダと共にマルチビューディスプレイが使われる場合には、復元された二つのピクチャに基づいて異なるビューを生成してマルチビューをディスプレイすることもできる。
2Dデコーダが使われる場合には、2次元映像を復元して2Dディスプレイで映像を出力することができる。2Dディスプレイを使用するが、デコーダは、3Dビデオデコーダを使用したり、ステレオビデオデコーダを使用したりする場合には、復元された映像のうち一つを2Dディスプレイで出力することもできる。
図1の構成において、ビュー合成は、デコーダ側で実行されることもでき、ディスプレイ側で実行されることもできる。また、デコーダとディスプレイは、一つの装置であってもよく、別途の装置であってもよい。
図1では、説明の便宜のために、3Dビデオデコーダとステレオビデオデコーダ、そして2Dビデオデコーダが別途のデコーダであると説明したが、一つのデコーディング装置が3Dビデオデコーディング、ステレオビデオデコーディング、そして2Dビデオデコーディングを全て実行することもできる。また、3Dビデオデコーディング装置が3Dビデオデコーディングを実行し、ステレオビデオデコーディング装置がステレオビデオデコーディングを実行し、2Dビデオデコーディング装置が2Dビデオデコーディングを実行することもできる。さらに、マルチビューディスプレイが2Dビデオを出力したりステレオビデオを出力したりすることもできる。
図2は、本発明が適用されることができるビデオエンコーディング装置の構成を概略的に説明する図面である。
図2を参照すると、ビデオエンコーディング装置200は、ピクチャ分割部205、予測部210、減算部215、変換部220、量子化部225、再整列部230、エントロピーエンコーディング部235、逆量子化部240、逆変換部245、加算部250、フィルタ部255及びメモリ260を含む。
ピクチャ分割部205は、入力されたピクチャを少なくとも一つの処理ユニットブロック(processing unit block)に分割できる。このとき、処理ユニットブロックは、コーディングユニットブロック(coding unit block)、予測ユニットブロック(prediction unit block)または変換ユニットブロック(transform unit block)である。コーディングユニットブロックは、コーディングのユニットブロックであって、最大(largest)コーディングユニットブロックからクアッドツリー構造(quad−tree structure)によって分割(split)されることができる。予測ユニットブロックは、コーディングユニットブロックからパーティショニング(partitioning)されるブロックであって、サンプル予測のユニットブロックである。このとき、予測ユニットブロックは、サブブロック(sub block)に分けられる。変換ユニットブロックは、コーディングユニットブロックからクアッドツリー構造によって分割されることができ、変換係数によって誘導するユニットブロックまたは変換係数からレジデュアル信号(residual signal)を誘導するユニットブロックである。
以下、コーディングユニットブロックは、コーディングブロック(coding block、CB)またはコーディングユニット(coding unit、CU)と呼ばれ、予測ユニットブロックは、予測ブロック(prediction block、PB)または予測ユニット(prediction unit、PU)と呼ばれ、変換ユニットブロックは、変換ブロック(transform block、TB)または変換ユニット(transform unit、TU)と呼ばれることができる。
予測ブロックまたは予測ユニットは、ピクチャ内でブロック形態の特定領域を意味し、予測サンプルのアレイ(array)を含むことができる。また、変換ブロックまたは変換ユニットは、ピクチャ内でブロック形態の特定領域を意味し、変換係数またはレジデュアルサンプルのアレイを含むことができる。
予測部210は、処理対象ブロック(以下、現在ブロックという)に対する予測を実行し、前記現在ブロックに対する予測サンプルを含む予測ブロックを生成することができる。予測部210で実行される予測の単位は、コーディングブロック、または変換ブロック、または予測ブロックである。
予測部210は、現在ブロックにイントラ予測が適用されるか、インター予測が適用されるかを決定することができる。一例として、予測部210は、CU単位にイントラ予測またはインター予測が適用されるかを決定することができる。
イントラ予測の場合、予測部210は、現在ブロックが属するピクチャ(以下、現在ピクチャ)内の現在ブロックの外部の参照サンプルに基づいて現在ブロックに対する予測サンプルを誘導することができる。このとき、予測部210は、(i)現在ブロックの隣接(neighboring)参照サンプルの平均(average)またはインターポレーション(interpolation)に基づいて予測サンプルを誘導することができ、(ii)現在ブロックの隣接参照サンプルのうち予測サンプルに対して特定(予測)方向に存在する参照サンプルに基づいて前記予測サンプルを誘導することができる。(i)の場合は非方向性モードと呼ばれ、(ii)の場合は方向性(directional)モードと呼ばれることができる。予測部210は、隣接ブロックに適用された予測モードを利用し、現在ブロックに適用される予測モードを決定することもできる。
インター予測の場合、予測部210は、参照ピクチャ上で動きベクトルにより特定されるサンプルに基づいて、現在ブロックに対する予測サンプルを誘導することができる。予測部210は、スキップ(skip)モード、マージ(merge)モード、及びMVP(motion vector prediction)モードのうちいずれか一つを適用して現在ブロックに対する予測サンプルを誘導することができる。スキップモードとマージモードの場合、予測部210は、隣接ブロックの動き情報を現在ブロックの動き情報として利用できる。スキップモードの場合、マージモードと違って、予測サンプルと原本サンプルとの間の差(レジデュアル)が送信されない。MVPモードの場合、隣接ブロックの動きベクトルを動きベクトル予測子(motion vector predictor)で利用して現在ブロックの動きベクトル予測子で利用して現在ブロックの動きベクトルを誘導することができる。
インター予測の場合、隣接ブロックは、現在ピクチャ内に存在する空間的隣接ブロック(spatial neighboring block)と、参照ピクチャ(reference picture)に存在する時間的隣接ブロック(temporal neighboring block)と、を含む。前記時間的隣接ブロックを含む参照ピクチャは、同じ位置ピクチャ(collocated picture、colPic)とも呼ばれる。動き情報(motion information)は、動きベクトルと参照ピクチャを含むことができる。スキップモードとマージモードで時間的隣接ブロックの動き情報が利用される場合、参照ピクチャリスト(reference picture list)上の最上位ピクチャが参照ピクチャとして利用されることもできる。
マルチビューの場合、独立ビュー(independent view)と従属ビュー(dependent view)とに区分されることができ、従属ビューに対するエンコーディングの場合、予測部210は、インター予測だけでなく、インタービュー(inter−view)予測を実行することもできる。
予測部210は、他のビューのピクチャを含んで参照ピクチャリストを構成することができる。インタービュー予測のために、予測部210は、ディスパリティベクトルを誘導することができる。現在ビュー内の他のピクチャで現在ブロックに対応するブロックを特定する動きベクトルと違って、ディスパリティベクトルは、現在ピクチャと同じAU(access unit)の他のビューで現在ブロックに対応するブロックを特定することができる。AUは、例えば、マルチビューで、同じ時点(same time instance)に対応する(correspond)ビデオピクチャ及びデプスマップを含むことができる。ここで、AUは、POC(Picture Order Count)が同じピクチャのセットを意味する。POCは、ピクチャのディスプレイ順序に対応し、コーディング順序と区別されることができる。
予測部210は、ディスパリティベクトルに基づいて、デプスビュー(depth view)内のデプスブロック(depth block)を特定することができ、マージリストの構成、インタービュー動き予測(inter−view motion prediction)、レジデュアル予測、IC(illumination compensation)、ビュー合成などを実行することができる。
現在ブロックに対するディスパリティベクトルは、カメラパラメータを利用してデプス値から誘導されたり、現在または他のビュー内の隣接ブロックの動きベクトルまたはディスパリティベクトルから誘導されることができる。
例えば、予測部210は、参照ビュー(reference view)の時間的動き情報に対応するインタービューマージ候補(inter−view merging candidate:IvMC)、ディスパリティベクトルに対応するインタービューディスパリティベクトル候補(inter−view disparity vector candidate:IvDC)、ディスパリティベクトルのシフト(shift)により誘導されるシフテッドインタビューマージ候補(shifted IvMC)、現在ブロックがデプスマップ上のブロックである場合に対応するテクスチャピクチャから誘導されるテクスチャマージ候補(texture merging candidate:T)、テクスチャマージ候補からディスパリティを利用して誘導されるディスパリティ誘導マージ候補(disparity derived merging candidate:D)、ビュー合成に基づいて誘導されるビュー合成予測候補(view synthesis prediction candidate:VSP)などをマージ候補リストに追加できる。
このとき、従属ビューに適用されるマージ候補リストに含まれる候補の個数は、所定値に制限されることができる。
また、予測部210は、インタービュー動きベクトル予測を適用して、ディスパリティベクトルに基づいて現在ブロックの動きベクトルを予測することもできる。このとき、予測部210は、対応する深さブロック内の最大深さ値の変換(conversion)に基づいてディスパリティベクトルを誘導することができる。参照ビュー内の現在ブロックのサンプル位置にディスパリティベクトルを加えて参照ビュー内の参照サンプルの位置が特定されると、参照サンプルを含むブロックを参照ブロックとして利用できる。予測部210は、参照ブロックの動きベクトルを現在ブロックの候補動きパラメータまたは動きベクトル予測子候補として利用でき、前記ディスパリティベクトルをディスパリティ補償予測(disparity compensated prediction:DCP)のための候補ディスパリティベクトルとして利用できる。
減算部215は、原本サンプルと予測サンプルとの間の差であるレジデュアルサンプルを生成する。スキップモードが適用される場合には、前述したようにレジデュアルサンプルを生成しない。
変換部220は、変換ブロック単位にレジデュアルサンプルを変換して変換係数(transform coefficient)を生成する。量子化部225は、変換係数を量子化し、量子化された変換係数を生成することができる。
再整列部230は、量子化された変換係数を再整列する。再整列部230は、係数スキャニング(scanning)方法を介してブロック形態の量子化された変換係数を1次元ベクトル形態で再整列できる。
エントロピーエンコーディング部235は、量子化された変換係数に対するエントロピーエンコーディングを実行することができる。エントロピーエンコーディングは、例えば、指数ゴロム(exponential Golomb)、CAVLC(context−adaptive variable length coding)、CABAC(context−adaptive binary arithmetic coding)などのようなエンコーディング方法を含むことができる。エントロピーエンコーディング部235は、量子化された変換係数の他にビデオ復元に必要な情報(例えば、シンタックス要素(syntax element)の値等)を共にまたは別途にエンコーディングすることもできる。エントロピーエンコーディングされた情報は、ビットストリーム形態でNAL(network abstraction layer)ユニット単位に送信または格納されることができる。
加算部250は、レジデュアルサンプルと予測サンプルを加えてピクチャを復元する。レジデュアルサンプルと予測サンプルは、ブロック単位に加算されて復元ブロックが生成されることができる。ここで、加算部250を別途の構成で説明したが、加算部250は、予測部210の一部であってもよい。
復元されたピクチャ(reconstructed picture)に対してフィルタ部255は、デブロッキングフィルタ及び/またはサンプル適応的オフセット(sample adaptive offset)を適用することができる。デブロッキングフィルタリング及び/またはサンプル適応的オフセットを介して、復元ピクチャ内のブロック境界のアーチファクトや量子化過程での歪曲が補正されることができる。サンプル適応的オフセットは、サンプル単位に適用されることができ、デブロッキングフィルタリングの過程が完了した後に適用されることができる。
メモリ260は、復元ピクチャまたはエンコーディング/デコーディングに必要な情報を格納することができる。例えば、メモリ260は、インター予測/インタービュー予測に使われる(参照)ピクチャを格納することができる。このとき、インター予測/インタービュー予測に使われるピクチャは、参照ピクチャセット(reference picture set)または参照ピクチャリスト(reference picture list)により指定されることができる。
ここでは、一つのエンコーディング装置が独立ビュー及び従属ビューをエンコーディングすると説明したが、これは説明の便宜のためのものに過ぎず、各ビュー別に別途のエンコーディング装置が構成されたり、各ビュー別に別途の内部モジュール(例えば、各ビュー別予測モジュール)が構成されたりすることもできる。
図3は、本発明が適用されることができるビデオデコーディング装置の構成を概略的に説明する図面である。
図3を参照すると、ビデオデコーディング装置300は、エントロピーデコーディング部310、再整列部320、逆量子化部330、逆変換部340、予測部350、加算部360、フィルタ部370、メモリ380を含む。
ビデオ情報を含むビットストリームが入力されると、ビデオデコーディング装置300は、ビデオエンコーディング装置でビデオ情報が処理されたプロセスに対応してビデオを復元することができる。
例えば、ビデオデコーディング装置300は、ビデオエンコーディング装置で適用された処理ユニットを利用してビデオデコーディングを実行することができる。したがって、ビデオデコーディングの処理ユニットブロックは、コーディングユニットブロック、予測ユニットブロックまたは変換ユニットブロックである。コーディングユニットブロックは、デコーディングのユニットブロックであって、最大コーディングユニットブロックからクアッドツリー構造によって分割されることができる。予測ユニットブロックは、コーディングユニットブロックからパーティショニングされるブロックであって、サンプル予測のユニットブロックである。このとき、予測ユニットブロックは、サブブロックに分けられる。変換ユニットブロックは、コーディングユニットブロックからクアッドツリー構造によって分割されることができ、変換係数を誘導するユニットブロックまたは変換係数からレジデュアル信号を誘導するユニットブロックである。
エントロピーデコーディング部310は、ビットストリームをパーシングしてビデオ復元またはピクチャ復元に必要な情報を出力することができる。例えば、エントロピーデコーディング部310は、指数ゴロム符号化、CAVLCまたはCABACなどのコーディング方法に基づいてビットストリーム内の情報をデコーディングし、ビデオ復元に必要なシンタックスエレメントの値、レジデュアルに対する変換係数の量子化された値を出力することができる。
3Dビデオを再生するために、複数のビュー(view)を処理する場合、ビットストリームは、各ビュー別に入力されることができる。または、ビットストリーム内で各ビューに対する情報がマルチプレクシングされている。この場合、エントロピーデコーディング部310は、ビットストリームを逆多重化(de−multiplixing)してビュー別にパーシング(parsing)することもできる。
再整列部320は、量子化されている変換係数を2次元のブロック形態で再整列できる。再整列部320は、エンコーディング装置で実行された係数スキャニングに対応して再整列を実行することができる。
逆量子化部330は、量子化されている変換係数を(逆)量子化パラメータに基づいて逆量子化して変換係数を出力することができる。このとき、量子化パラメータを誘導するための情報は、エンコーディング装置からシグナリングされることができる。
逆変換部340は、変換係数を逆変換してレジデュアルサンプルを誘導することができる。
予測部350は、現在ブロックに対する予測を実行し、前記現在ブロックに対する予測サンプルを含む予測ブロックを生成することができる。予測部350で実行される予測の単位は、コーディングブロック、または変換ブロック、または予測ブロックである。
予測部350は、イントラ予測を適用するか、インター予測を適用するかを決定することができる。このとき、イントラ予測とインター予測のうちいずれかを適用するかを決定する単位と予測サンプルを生成する単位は異なる。併せて、インター予測とイントラ予測において、予測サンプルを生成する単位も異なる。例えば、インター予測とイントラ予測のうちいずれかを適用するかは、CU単位に決定できる。また、例えば、インター予測において、PU単位に予測モードを決定して予測サンプルを生成することができ、イントラ予測において、PU単位に予測モードを決定して、TU単位に予測サンプルを生成することもできる。
イントラ予測の場合に、予測部350は、現在ピクチャ内の隣接参照サンプルに基づいて現在ブロックに対する予測サンプルを誘導することができる。予測部350は、現在ブロックの隣接参照サンプルに基づいて方向性モードまたは非方向性モードを適用して現在ブロックに対する予測サンプルを誘導することができる。このとき、隣接ブロックのイントラ予測モードを利用して現在ブロックに適用する予測モードが決定されることもできる。
インター予測の場合に、予測部350は、参照ピクチャ上で動きベクトルにより、参照ピクチャ上で特定されるサンプルに基づいて現在ブロックに対する予測サンプルを誘導することができる。予測部350は、スキップ(skip)モード、マージ(merge)モード及びMVPモードのうちいずれか一つを適用して現在ブロックに対する予測サンプルを誘導することができる。
スキップモードとマージモードの場合に、隣接ブロックの動き情報が現在ブロックの動き情報として利用されることができる。このとき、隣接ブロックは、空間的隣接ブロックと時間的隣接ブロックを含むことができる。
予測部350は、使用可能な隣接ブロックの動き情報でマージ候補リストを構成し、マージインデックスがマージ候補リスト上で指示する情報を現在ブロックの動きベクトルとして使用することができる。マージインデックスは、エンコーディング装置からシグナリングされることができる。動き情報は、動きベクトルと参照ピクチャを含むことができる。スキップモードとマージモードで時間的隣接ブロックの動き情報が利用される場合に、参照ピクチャリスト上の最上位ピクチャが参照ピクチャとして利用されることができる。
スキップモードの場合、マージモードと違って、予測サンプルと原本サンプルとの間の差(レジデュアル)が送信されない。
MVPモードの場合、隣接ブロックの動きベクトルを動きベクトル予測子(motion vector predictor)で利用して現在ブロックの動きベクトルが誘導されることができる。このとき、隣接ブロックは、空間的隣接ブロックと時間的隣接ブロックを含むことができる。
従属ビュー(dependent view)に対する場合に、予測部350は、インタービュー予測を実行することができる。このとき、予測部350は、他のビューのピクチャを含んで参照ピクチャリストを構成することができる。
インタービュー予測のために、予測部350は、ディスパリティベクトルを誘導することができる。予測部350は、ディスパリティベクトルに基づいて、デプスビュー(depth view)内のデプスブロックを特定することもでき、マージリストの構成、インタービュー動き予測(inter−view motion prediction)、レジデュアル予測、IC(illumination compensation)、ビュー合成などを実行することができる。
現在ブロックに対するディスパリティベクトルは、カメラパラメータを利用してデプス値から誘導されたり、現在または他のビュー内の隣接ブロックの動きベクトルまたはディスパリティベクトルから誘導されたりすることができる。カメラパラメータは、エンコーディング装置からシグナリングされることができる。
従属ビューの現在ブロックにマージモードを適用する場合に、予測部350は、参照ビュー(refernece view)の時間的動き情報に対応するIvMC、ディスパリティベクトルに対応するIvDC、ディスパリティベクトルのシフト(shift)により誘導されるシフテッドIvMC、現在ブロックがデプスマップ上のブロックである場合に対応するテクスチャピクチャから誘導されるテクスチャマージ候補(T)、テクスチャマージ候補からディスパリティを利用して誘導されるディスパリティ誘導マージ候補(D)、ビュー合成に基づいて誘導されるビュー合成予測マージ候補(VSP)などをマージ候補リストに追加できる。
このとき、従属ビューに適用されるマージ候補リストに含まれる候補の個数は、所定値に制限されることができる。
また、予測部350は、インタービュー動きベクトル予測を適用して、ディスパリティベクトルに基づいて現在ブロックの動きベクトルを予測することもできる。このとき、予測部350は、ディスパリティベクトルにより特定される参照ビュー内のブロックを参照ブロックとして利用できる。予測部350は、参照ブロックの動きベクトルを現在ブロックの候補動きパラメータまたは動きベクトル予測子候補として利用でき、前記ディスパリティベクトルをディスパリティ補償予測(disparity compensated prediction:DCP)のための候補ディスパリティベクトルとして利用できる。
加算部360は、レジデュアルサンプルと予測サンプルを加えて現在ブロックまたは現在ピクチャを復元することができる。加算部360は、レジデュアルサンプルと予測サンプルをブロック単位に加えて現在ピクチャを復元することもできる。スキップモードが適用された場合にはレジデュアルが送信されないため、予測サンプルが復元サンプルになることができる。ここでは、加算部360を別途の構成で説明したが、加算部360は、予測部350の一部であってもよい。
フィルタ部370は、復元されたピクチャにデブロッキングフィルタリング及び/またはサンプル適応的オフセットを適用することができる。このとき、サンプル適応的オフセットは、サンプル単位に適用されることができ、デブロッキングフィルタリング以後に適用されることもできる。
メモリ380は、復元ピクチャまたはデコーディングに必要な情報を格納することができる。例えば、メモリ380は、インター予測/インタービュー予測に使われるピクチャを格納することができる。このとき、インター予測/インタービュー予測に使われるピクチャは、参照ピクチャセットまたは参照ピクチャリストにより指定されることもできる。復元されたピクチャは、他のピクチャに対する参照ピクチャとして利用されることができる。
また、メモリ380は、復元されたピクチャを出力順序によって出力することもできる。図示されていないが、3D映像を再生するために、出力部は、複数の互いに異なるビューをディスプレイすることができる。
図3の例では、一つのデコーディング装置で独立ビュー(independent view)と従属ビュー(dependent view)がデコーディングされると説明したが、これは説明の便宜のためのものに過ぎず、本発明はこれに限定されるものではない。例えば、ビュー別に各々のデコーディング装置が動作することもでき、一つのデコーディング装置内の各ビューに対応する内部モジュール(例えば、予測モジュール)が備えられることもできる。
マルチビュービデオコーディングは、現在ピクチャと同じAU(access unit)に属する他のビューのデコーディングデータを利用して現在ピクチャをコーディングすることで、現在ビューに対するビデオコーディング効率を上げることができる。
マルチビュービデオコーディングでは、AU単位にビューをコーディングすることができ、ビュー単位にピクチャをコーディングすることもできる。ビュー間には決められた順序によってコーディングが進行される。他のビューの参照なしでコーディングされることができるビューをベースビュー(base view)または独立ビューということができる。また、独立ビューがコーディングされた後、独立ビューまたは他のビューを参照してコーディングされることができるビューを従属ビューまたは拡張ビューということができる。また、現在ビューが従属ビューである場合、現在ビューのコーディングに参照されるビューを参照ビューということもできる。ここで、ビューをコーディングするとは、該当ビューに属するテクスチャピクチャ、デプスピクチャなどをコーディングすることを含む。
図4は、本発明が適用されることができるマルチビュービデオコーディングの一例を概略的に説明するための図面である。
マルチビュービデオをコーディングする場合、一つのAU内のビューIDが異なり、POCが同じピクチャは、あらかじめ定義されたビューコーディング順序(view coding order)によってコーディングされる。
例えば、図4に示すように、二つのビュー(ビューV0及びビューV1)をコーディングし、ビューコーディング順序がビューV0、ビューV1の順序である場合を仮定する。このとき、AU内の最初にコーディングされるビューであるV0は、他のビューの参照なしでコーディングされることができ、前記V0は、ベースビューまたは独立ビューになり、次にコーディングされるビューであるV1は、従属ビューになる。
ベースビューは、他のビューを参照せずに、ベースビューに属するピクチャを参照してコーディングされる。従属ビューは、ベースビューの次にコーディングされ、既にコーディングされた他のビューを参照してコーディングされる。
マルチビュービデオコーディングにおいて、従属ビューに属するCUは、既にコーディングされたピクチャを参照してインター予測を実行することができる。このとき、ビューIDが同じピクチャを参照して予測を実行する方法は、動き補償予測(motion compensated prediction、MCP)といい、同じAU内のビューIDが異なるピクチャを参照して予測を実行する方法をディスパリティ補償予測(disparity compensated prediction、DCP)という。
例えば、図4を参照すると、Aブロックは、自分と同じビュー(V1)に属するピクチャを参照して動きベクトルに基づいてMCPを実行することで予測サンプルを誘導することができる。Bブロックは、同じAU内の自分と異なるビュー(V0)のピクチャを参照してディスパリティベクトルに基づいてDCPを実行することで予測サンプルを誘導することができる。マルチビュービデオをコーディングする時、異なるビューのピクチャを利用することができ、同じビューのデプスピクチャを利用することもできる。
例えば、DCPを実行して予測サンプルを誘導する場合、現在ブロック内の予測サンプルの位置(x、y)に対応する参照ビュー内の対応ピクチャのサンプルの位置(x、y)にディスパリティベクトルを加え、参照ビュー内の対応ピクチャの参照サンプルの位置を決定することができる。前記参照ビュー内の前記参照サンプルに基づいて前記予測サンプルを誘導することができる。一例として、ディスパリティベクトルは、x軸成分のみを有している場合がある。この場合、ディスパリティベクトルは(disp、0)であり、参照サンプルの位置(xr、y)は(x+disp、y)に決定されることができる。ここで、dispは、前記ディスパリティベクトルの値を示す。
一方、3Dビデオは、一般的なカラー映像情報を有するテクスチャピクチャ(または、ビデオピクチャ)と、テクスチャピクチャに対する深さ情報を有するデプスピクチャと、を含む。3Dビデオでは、同じPOCに互いに異なる時点を有する複数個のテクスチャピクチャが存在し、前記複数個のテクスチャピクチャに各々対応するデプスピクチャが存在する。また、前記複数個のテクスチャピクチャは、互いに異なる時点を有する複数のカメラから取得されることができる。
デプスピクチャは、映像の各ピクセルが有する距離をグレースケール(gray scale)で格納しており、一つのブロック内では各ピクセル間の細かい深さの差が激しくなくて前景(foreground)と背景(background)の二つに分けて表現できる場合が多い。また、深さマップビデオは、物体の境界では強い(strong)エッジを有し、境界でない位置ではほぼ一定の値(定数値)を有する特性を示す。
デプスピクチャは、テクスチャピクチャと類似の方法により、イントラ予測(intra prediction)、動き補償(motion compensation)、ディスパリティ補償(disparity compensation)、変換(transform)などを使用してエンコーディング及びデコーディングされることができる。しかし、デプスピクチャは、テクスチャピクチャと違って、ピクセル値の変化が大きくなくて強いエッジを有する特性を有しているため、デプスピクチャの特性を反映する新しいイントラ予測モードが使われることができる。
このようなデプスピクチャのためのイントラ予測モードでは、ブロック(または、デプスブロック)を二つの四角形でない(non−rectangular)領域に分割(partitioning)するモデル(model)で表現し、分割された各領域は、定数値で表すことができる。
このように、デプスピクチャ内のブロックをモデリングして予測するイントラ予測モードをデプスモデリングモード(DMM:Depth Modelling Mode)という。DMMでは、デプスピクチャ内のブロックがどのように分割されるかに対するパーティション情報と各パーティションがどんな値で満たされるかに対する情報に基づいてデプスピクチャを予測することができる。
例えば、DMMは、分割(partitioning)する方式によって、WedgeletモードとContourモードとに区分されることができる。
図5は、Wedgeletモードを概略的に示す図面である。
図5を参照すると、Wedgeletモードは、ブロック(または、デプスブロック、現在ブロック)内の二つの領域が直線により分割されることができる。即ち、直線SEによって、前記ブロックは、P1領域及びP2領域に分割される。分割された領域は、各々、一つの定数値として予測値が生成されることができる。
図6は、Contourモードを概略的に示す図面である。
図6を参照すると、Contourモードは、ブロック(または、デプスブロック、現在ブロック)内の二つの領域が任意の曲線形態で分割されることができる。Contourモードにおいて、前記ブロック内の二つの領域は、一つの幾何学的な(geometric)関数により容易に表現されず、二つの領域は、任意のもようを有することができる。ここで、図5に示すように、各領域は、一つの塊でない分割された形態になることもできる。Contourモードにおいて、領域分割は、デプスピクチャ内の現在ブロック(デプスブロック)に対応されるテクスチャピクチャ内の対応ブロック(テクスチャブロック)に基づいて実行されることができる。Contourモードでも、分割された領域は、各々、一つの定数値として予測値が生成されることができる。
ブロックに対する予測値を生成した以後は既存のイントラ予測モードと同様に、原本サンプルと予測サンプルとの間の差を示すレジデュアル(または、レジデュアル信号)を計算し、変換(transform)及び量子化(quantization)を介して前記レジデュアル信号を送信することができる。
一方、SDC(segment−wise DC coding)方法がデプスピクチャのために使われることができる。SDCでは、分割された領域に対して予測値の平均を利用してレジデュアル信号を生成することができる。SDCにおいて、レジデュアルデータは、変換及び量子化手順なしでコーディングされることができる。一般的に、デプスピクチャのサンプル(ピクセル)値は、最小値(例えば、0)から最大値(例えば、255)まで等しく分布せずに特定領域に集中的に分布し、ブロック単位で値の変化が大きくないという特性がある。このような特性を考慮してデプスルックアップテーブル(depth lookup table、DLT)を生成し、デプスルックアップテーブルを使用してデプスピクチャの深さ値をデプスルックアップテーブルのインデックス値に変換して符号化を実行する場合、符号化するビット数を減らすことができる。デプスルックアップテーブルを利用して生成されたレジデュアルブロックは、変換と量子化過程なしでエントロピーコーディングされることができる。即ち、SDCは、原本ピクチャの平均明度値と予測ピクチャの平均明度値との差のみを送信するレジデュアルコーディング方法とみることができる。
以下、SDC方法に対してより具体的に説明する。
デプスピクチャのデプス値は、シーケンスパラメータセット(sequence parameter set、SPS)またはスライス(slice)単位で送信される。この場合、デプスピクチャのデプス値は、DLTに基づいて送信されることができる。この場合、各々のCUまたはPUブロック単位でSDCのための予測を実行する。
例えば、現在ブロック内の分割された各領域に対して(DMMの場合は二つの領域、プラナーモードの場合は一つの領域)イントラ予測されたデプス値の平均(DCpred)と元のデプス値の平均(DCorg)を計算し、計算された各々の平均値をDLTに最も誤差が少ない値でマッピングして各インデックス値をさがすことができる。そして、元のデプス値と予測されたデプス値との間の差分値を符号化する代わりに、DLTでマッピングされた元のデプス値の平均(DCorg)に対するインデックスと予測されたデプス値の平均(DCpred)に対するインデックスとの間の差分値(SDCresidual)が符号化されることができる。SDCは、CUブロック単位でフラグ情報により選択的に使われることができる。SDCが適用されるブロックに対してはSDCモード情報が送信される。SDCモード情報が送信された以後には元のデプス値の平均(DCorg)に対するインデックスと予測されたデプス値の平均(DCpred)に対するインデックスとの差分値(SDCresidual)が送信される。
以下の数式1は、SDC方法により現在ブロックに対する差分インデックス値を生成する過程を示す。
Figure 0006545796
数式1において、Value2Idx(x)は、DLTで入力されるx値に最も近い値を有するインデックスを示す。
図7は、SDC符号化方法を概略的に示す図面である。
図7を参照すると、符号化する原本ブロックに対してDCorgを求め、画面内予測により生成された予測ブロックに対してDCpredを求めた後、DCorgとDCpredを各々最も近いDLT値を有するインデックスでマッピングする。図6では、DCorgは、DLTインデックス2でマッピングされ、DCpredは、DLTインデックス4でマッピングされる。したがって、符号化過程では、前記二つのDLTインデックスの差に該当する値2が符号化されて送信される。一方、DCorgとDCpredのマッピング後、インデックス差がない場合が頻繁に発生し、効率的な処理のためにインデックス差が存在するかどうかを示すフラグを先に送信することができる。フラグ値が0である場合、DCorgとDCpredとの間の差がないことを意味し、デコーダは、予測ブロックの平均値(DCpred)で復元映像を生成することができる。もし、前記フラグ値が1である場合、DCorgとDCpredとの間の差が存在することを意味し、この場合、前記インデックス差分値が送信される。インデックス差分値は、正数または負数が存在できるため、インデックス差分値の符号(sign)と大きさ(magnitude)が各々送信されることができる。
一方、デプスピクチャが従属ビューに属する場合、テクスチャピクチャと同様に、参照ビューの対応ブロックにある動きベクトルなどの動き情報に基づいて現在ブロックの動き情報を導出するインタービュー動き予測(inter−view motion prediction、IVMP)が使われることができる。
図8は、IVMP方法を概略的に示す図面である。
図8を参照すると、現在ピクチャ810内の現在ブロック820がコーディング(エンコーディング/デコーディング)される場合を仮定する。ここで、現在ピクチャ810は、デプスピクチャである。また、ここで、現在ブロック820は、予測ブロックであり、MCPベースにコーディングされたブロックである。IVMPを適用する場合、インタービュー参照ピクチャ830内の対応ブロック840の動き情報に基づいて現在ブロック820の動き情報を導出することができる。対応ブロック840は、ディスパリティベクトルに基づいて誘導されることができる。
本発明によると、デプスピクチャのためのイントラ予測、ディスパリティ導出及びSDCを効率的に実行するためのシグナリング方法が提供される。
一般的にイントラ予測に使われる予測ユニット(PU)大きさの範囲は、エンコーダで決定されることができる。しかし、変換ユニット(TU)の大きさによって、実際に予測されるPUの大きさが変わることができる。即ち、ブロック情報及び予測モードの送信は、PU単位で実行されるが、イントラ予測過程は、TU単位で実行される。イントラ予測では、符号化しようとする現在ブロックの隣接ブロックのピクセルが利用されるため、PUの大きさとは別途にTUの大きさによって予測を実行する。即ち、イントラ予測過程では、TU単位ブロックの復元された隣接サンプルを利用してイントラ予測が実行される。これは復元された隣接ピクセルを使用して圧縮及びコーディング効率を上げるためである。したがって、イントラ予測が実行されるブロックの大きさは、TUの大きさによって制限される。それに対し、デプスピクチャのための前述したSDC方法では変換及び量子化が使われないため、PUに対してTUの大きさに関係なしで予測が実行されることができる。しかし、場合によって、エンコーダで提示する最大のTUの大きさより大きいブロックに対するイントラ予測が必要であり、そのためにSDC方法が適用されたブロックであるとしてもTUの大きさによってPU予測を実行するように制限できる。一方、DMMの場合には、モードの特性上、PUの大きさがTUの大きさより大きいとしてもブロックを分割して予測を実行することができない。したがって、TUの大きさよりPUの大きさが大きい場合には、DMMが適用されないように制限されなければならない。このような制限を介してエンコーダで設定したTUの大きさより大きいブロックに対する予測過程は除外されることができる。
一方、前述したように、従属ビューの現在(デプス)ピクチャの現在ブロックに対するIVMPを実行するために、ディスパリティベクトルが必要である。テクスチャビューまたはテクスチャピクチャのためにNBDV(disparity vector from neighboring blocks)またはDoNBDV(Depth−oriented disparity vector derivation)が使われることと違って、デプスビューまたはデプスピクチャのためのディスパリティは、周辺に復号化されたデプス値から誘導され、または所定の(デプス)値から誘導されることができる。前記所定の(デプス)値は、デプス値範囲(depth value range)の中間値(middle value)である。また、前記所定値は“1<<(ビット深度(BitDepth)−1)”である。ここで、前記ビット深度は、輝度サンプルに対して設定されたビット深度である。
IVMPでは、参照ビューの対応ブロックから動きベクトルを有してくることができるため、ディスパリティベクトルを誘導する時、前記動きベクトルを有してくるための前記参照ビューを考慮しなければならない。一例として、前記参照ビューは、ベースビューに固定されずに、参照ピクチャリスト内の使用可能な参照ピクチャのビューに設定されることができる。また、前記ディスパリティベクトルを誘導するための参照ビューと前記動きベクトルを有してくるための参照ビューは、互いに同じように設定されることもできる。
例えば、前記ディスパリティベクトルは、以下の数式2のように誘導されることができる。
Figure 0006545796
Figure 0006545796
ここで、DepthToDisparityB[j][d]は、現在ビューとデプス値dに相応するビューインデックス(ViewIdx)がjであるビューとの間のディスパリティベクトルの水平成分を示す(the horizontal component of a disparity vector between the current view and the view with ViewIdx equal j corresponding to the depth value d in the view with ViewIdx equal to j)。即ち、ここで、DefaultRefViewIdxは、前記ディスパリティベクトルを誘導するための参照ビューのインデックスを示す。この場合、前記動きベクトルを有してくるための参照ビューの参照ビュー順序インデックス(reference view order index、RefViewIdx)は前記DefaultRefViewIdxと同じである。
一方、前述したように、SDCによると、現在ブロックに対する差分インデックス値が送信され、この場合、前記差分インデックス値は、二つのステップに分けて送信されることができ、または差分値として送信されることもできる。一例として、インデックス差分値の存在可否を示すフラグ情報が先に送信され、フラグ値が1の時、前記インデックス差分値が送信されることができる。この場合、差分値は、0を有することができない。したがって、この場合、前記インデックス差分値に対する符号は、常に送信されることができる。他の例として、前記インデックス差分値の存在有無を示すフラグ情報なしで前記インデックス差分値が送信されることができる。この場合、前記インデックス差分値は、0を有することができ、前記インデックス差分値に対する符号は、前記インデックス差分値が0でない場合にのみ送信されることができる。
図9は、本発明の実施例に係る3Dビデオエンコーディング方法を概略的に示す流れ図である。図9の方法は、前述した図2のビデオエンコーディング装置により実行されることができる。
図9を参照すると、エンコーディング装置は、ディスパリティベクトルを導出する(S900)。前記ディスパリティベクトルは、デプスビューの現在ピクチャの現在ブロックに対するディスパリティベクトルである。エンコーディング装置は、前述したように、周辺に復号化されたデプス値から前記ディスパリティベクトルを導出し、または所定値から導出することができる。前記所定値は、デプス値範囲(depth value range)の中間値(middle value)である。また、前記所定値は“1<<(ビット深度(BitDepth)−1)”である。ここで、前記ビット深度は、輝度サンプルに対して設定されたビット深度である。
エンコーディング装置は、前記現在ブロックに対する動き情報を導出する(S910)。エンコーディング装置は、参照ピクチャの決まった領域内で動き情報推定(motion information estimation)手順によって現在ブロックと類似のブロックを探し、前記現在ブロックに対する動き情報を導出することができる。
エンコーディング装置は、前記現在ブロックに対する予測サンプルを生成する(S920)。エンコーディング装置は、前記予測サンプルとレジデュアルサンプル(信号)に基づいて現在ピクチャを復元することができ、前記復元されたピクチャは、他のピクチャのコーディングのための参照ピクチャとして活用されることができる。
エンコーディング装置は、ビデオデコーディングのためのビデオ情報をエンコーディングすることができる(S930)。エンコーディング装置は、ビデオ情報をエントロピーエンコーディングしてビットストリームに出力できる。出力されたビットストリームは、ネットワークを介して送信され、または格納媒体に格納されることができる。前記ビデオ情報は、現在ブロックを復元するための情報(例えば、予測モード情報及びレジデュアル信号)を含むことができる。前記ビデオ情報は、現在ブロックを復元するためのシンタックスエレメントの値を含むことができる。
図10は、本発明の実施例に係る3Dビデオデコーディング方法を概略的に示す流れ図である。図10の方法は、前述した図3のビデオデコーディング装置により実行されることができる。
図10を参照すると、デコーディング装置は、ディスパリティ値を導出する(S1000)。デコーディング装置は、ビットストリームに含まれているビデオ情報をエントロピーデコーディングし、参照ビュー(view)及び所定値に基づいてデプスビュー内の現在ピクチャの現在ブロックに対するディスパリティ値を取得することができる。
デコーディング装置は、前述したように、周辺に復号化されたデプス値から前記ディスパリティベクトルを導出し、または所定値から導出することができる。前記所定値は、デプス値範囲(depth value range)の中間値(middle value)である。また、前記所定値は“1<<(ビット深度(BitDepth)−1)”である。ここで、前記ビット深度は、輝度サンプルに対して設定されたビット深度である。前記デコーディング装置は、前述した数式2に基づいて前記ディスパリティベクトルを導出することができる。
前記参照ビューは、参照ピクチャリスト内の参照ピクチャのビューである。一例として、前記参照ビューは、前記参照ピクチャリスト内の1番目の参照ピクチャのビューである。
デコーディング装置は、前記ディスパリティ値に基づいて前記現在ブロックの動き情報を導出する(S1010)。デコーディング装置は、前述したIVMP方法に基づいて現在ブロックの動き情報を導出することができる。この場合、前記現在ブロックの動き情報は、前記ディスパリティ値を利用してインタービュー参照ピクチャ上で導出される対応ブロックの動き情報に基づいて導出されることができる。ここで、前記対応ブロックの動き情報が現在ブロックの動き情報として使われることができる。前記動き情報は、動きベクトルを含む。ここで、前記インタービュー参照ピクチャが属するビューは、前記参照ビューと同じである。
デコーディング装置は、前記動き情報に基づいて前記現在ブロックの予測サンプルを生成する(S1020)。デコーディング装置は、前記動き情報及び前記デプスビュー(現在ビュー)内の参照ピクチャに基づいて前記現在ブロックの予測サンプルを生成することができる。即ち、デコーディング装置は、前記デプスビュー内の参照ピクチャ上で前記動き情報に基づいて導出されたブロックに基づいて前記予測サンプルを生成することができる。
デコーディング装置は、受信したビットストリームから現在ブロックに対するレジデュアルサンプルを生成することができ、生成した予測サンプルとレジデュアルサンプルに基づいて復元サンプルを誘導することで現在ピクチャを復元することができる。サンプルの復元は、ブロック単位またはピクチャ単位で実行されることができる。
以上の説明は、本発明の技術思想を例示的に説明したものに過ぎず、本発明が属する技術分野において、通常の知識を有する者であれば、本発明の本質的な特性から外れない範囲で多様な修正及び変形が可能である。したがって、本発明に開示された実施例は、本発明の技術思想を限定するためのものではなく、説明するためのものであり、このような実施例により本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は、特許請求の範囲により解釈されなければならない。
本発明において、実施例がソフトウェアで実装される時、前述した方法は、前述した機能を遂行するモジュール(過程、機能など)で実装されることができる。モジュールは、メモリに格納され、プロセッサにより実行されることができる。メモリは、プロセッサの内部または外部にあり、よく知られた多様な手段でプロセッサと連結されることができる。

Claims (8)

  1. 3Dビデオデコーディング方法であって、
    現在ビューと参照ビューに基づいてディスパリティ値を導出するステップと、
    前記ディスパリティ値に基づいて前記参照ビュー内の参照ピクチャ上で対応するブロックの動き情報を導出するステップと
    前記ディスパリティ値に前記対応するブロックの前記動き情報に基づいて前記現在ビュー内のデプスピクチャ内の現在ブロックの動き情報を導出するステップと、
    前記現在ブロックの前記動き情報に基づいて前記現在ブロックの予測サンプルを生成するステップと、を含み、
    前記ディスパリティ値を導出するために利用された前記参照ビューは、参照ピクチャリスト内の前記参照ピクチャに対する前記参照ビューに等しく設定される、3Dビデオデコーディング方法。
  2. 前記ディスパリティ値を導出するために利用された前記参照ビューは、前記参照ピクチャリスト内の1番目の参照ピクチャのビューである、請求項1に記載の3Dビデオデコーディング方法。
  3. 前記ディスパリティ値を導出するために利用された前記参照ビューは、インタービュー参照ピクチャが属するビューと同じである、請求項1に記載の3Dビデオデコーディング方法。
  4. 前記予測サンプルは、前記現在ビュー内の参照ピクチャ上で前記動き情報に基づいて導出されたブロックに基づいて生成される、請求項3に記載の3Dビデオデコーディング方法。
  5. 前記デプスピクチャ内の前記現在ブロックのディスパリティ値は所定値に基づいてさらに取得され、
    前記所定値は、デプス値範囲の中間値である、請求項1に記載の3Dビデオデコーディング方法。
  6. 前記デプスピクチャ内の前記現在ブロックのディスパリティ値は所定値に基づいてさらに取得され、
    前記所定値は、“1<<(ビット深度−1)”である、請求項1に記載の3Dビデオデコーディング方法。
  7. 前記ビット深度は、輝度サンプルに対して設定されたビット深度である、請求項6に記載の3Dビデオデコーディング方法。
  8. 3Dビデオデコーディング装置であって、
    現在ビューと参照ビューに基づいてディスパリティ値を導出するエントロピデコーディングモジュールと、
    前記ディスパリティ値に基づいて前記参照ビュー内の参照ピクチャ上で対応するブロックの動き情報を導出し、前記対応するブロックの前記動き情報に基づいて前記現在ビュー内のデプスピクチャ内の現在ブロックの動き情報を導出し、前記現在ブロックの前記動き情報に基づいて前記現在ブロックの予測サンプルを生成する予測モジュールと、を含み、
    前記ディスパリティ値を導出するために利用された前記参照ビューは、参照ピクチャリスト内の前記参照ピクチャに対する前記参照ビューに等しく設定される、3Dビデオデコーディング装置。
JP2017520852A 2014-10-08 2015-09-25 ビデオコーディングにおけるデプスピクチャコーディング方法及び装置 Active JP6545796B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462061150P 2014-10-08 2014-10-08
US62/061,150 2014-10-08
PCT/KR2015/010142 WO2016056782A1 (ko) 2014-10-08 2015-09-25 비디오 코딩에서 뎁스 픽처 코딩 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2017525314A JP2017525314A (ja) 2017-08-31
JP6545796B2 true JP6545796B2 (ja) 2019-07-17

Family

ID=55653346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017520852A Active JP6545796B2 (ja) 2014-10-08 2015-09-25 ビデオコーディングにおけるデプスピクチャコーディング方法及び装置

Country Status (10)

Country Link
US (1) US10659814B2 (ja)
EP (1) EP3206402A4 (ja)
JP (1) JP6545796B2 (ja)
KR (1) KR101862498B1 (ja)
CN (1) CN106664423B (ja)
AU (1) AU2015328955B2 (ja)
CA (1) CA2952793C (ja)
MX (1) MX362021B (ja)
RU (1) RU2661331C2 (ja)
WO (1) WO2016056782A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017206826A1 (en) * 2016-05-28 2017-12-07 Mediatek Inc. Methods and apparatuses of video data processing with conditionally quantization parameter information signaling
CN107071478B (zh) * 2017-03-30 2019-08-20 成都图必优科技有限公司 基于双抛物线分区模板的深度图编码方法
WO2020050279A1 (ja) * 2018-09-05 2020-03-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
SG11202103372XA (en) * 2018-10-01 2021-04-29 Op Solutions Llc Methods and systems of exponential partitioning
CN110363212B (zh) * 2019-03-28 2022-02-15 西南石油大学 基于边界扫描的多wedgelet图像近似方法
KR20220063312A (ko) * 2019-04-25 2022-05-17 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 광학 흐름에 의한 예측 미세화 방법 및 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131688A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
RU2519057C2 (ru) * 2008-07-24 2014-06-10 Конинклейке Филипс Электроникс Н.В. Универсальный формат 3-d изображения
JP2012023651A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
US9363500B2 (en) 2011-03-18 2016-06-07 Sony Corporation Image processing device, image processing method, and program
KR20140011481A (ko) * 2011-06-15 2014-01-28 미디어텍 인크. 3d 비디오 코딩을 위한 움직임 벡터 및 변이 벡터의 예측과 보상 방법 및 장치
KR20130018628A (ko) 2011-08-09 2013-02-25 삼성전자주식회사 다시점 비디오 예측 부호화 방법 및 그 장치, 다시점 비디오 예측 복호화 방법 및 그 장치
US20140241434A1 (en) 2011-10-11 2014-08-28 Mediatek Inc Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
US20130176390A1 (en) 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
CN103650497B (zh) * 2012-03-02 2018-01-05 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置
WO2014005280A1 (en) * 2012-07-03 2014-01-09 Mediatek Singapore Pte. Ltd. Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction
US9516332B2 (en) * 2012-12-21 2016-12-06 Qualcomm Incorporated Disparity vector derivation in three-dimensional video coding
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9900576B2 (en) 2013-03-18 2018-02-20 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
US9521425B2 (en) * 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
CN105532001B (zh) * 2013-07-12 2018-11-30 三星电子株式会社 用于使用基于深度的视差矢量对视频进行层间编码方法以及解码方法和设备
US9906768B2 (en) * 2013-07-26 2018-02-27 Qualcomm Incorporated Use of a depth condition in 3DV codec
CN103916658B (zh) * 2014-04-18 2015-08-05 山东大学 采用深度传播技术的3dv系统视点间深度图生成方法

Also Published As

Publication number Publication date
US20170150178A1 (en) 2017-05-25
AU2015328955B2 (en) 2018-01-04
KR20170002573A (ko) 2017-01-06
CA2952793A1 (en) 2016-04-14
RU2016151372A (ru) 2018-06-28
CA2952793C (en) 2019-03-12
EP3206402A1 (en) 2017-08-16
RU2016151372A3 (ja) 2018-06-28
US10659814B2 (en) 2020-05-19
AU2015328955A1 (en) 2017-01-12
CN106664423A (zh) 2017-05-10
JP2017525314A (ja) 2017-08-31
WO2016056782A1 (ko) 2016-04-14
KR101862498B1 (ko) 2018-06-29
RU2661331C2 (ru) 2018-07-13
CN106664423B (zh) 2020-04-07
MX362021B (es) 2019-01-04
MX2016016990A (es) 2017-05-03
EP3206402A4 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
JP6545672B2 (ja) マルチビュービデオコーディングにおいて、ビュー合成予測方法及びこれを利用したマージ候補リスト構成方法
JP6535673B2 (ja) 非対称動き分割を使用するビデオコーディング技法
KR102135997B1 (ko) 심도 인트라 예측 모드들에 대한 잔차 코딩
US9756359B2 (en) Large blocks and depth modeling modes (DMM'S) in 3D video coding
JP6542206B2 (ja) マルチビュービデオをデコードするビデオデコード方法及び装置
JP6545796B2 (ja) ビデオコーディングにおけるデプスピクチャコーディング方法及び装置
JP6446488B2 (ja) ビデオデータデコーディング方法及びビデオデータデコーディング装置
US20160330480A1 (en) Simplification of segment-wise dc coding of large prediction blocks in 3d video coding
US20170310993A1 (en) Movement information compression method and device for 3d video coding
US20170310994A1 (en) 3d video coding method and device
JP6445026B2 (ja) 3dビデオコーディングにおけるカメラパラメータ処理方法および装置
US10587894B2 (en) Method and device for encoding/decoding 3D video
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置
KR20160072105A (ko) 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
US20160255368A1 (en) Method and apparatus for coding/decoding video comprising multi-view
KR20170065503A (ko) 3d 비디오 부호화/복호화 방법 및 장치
EP3122050A1 (en) 3d video encoding/decoding method and device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190417

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6545796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250