JP2015528649A - 3dシーンの1以上のビデオを処理する方法 - Google Patents

3dシーンの1以上のビデオを処理する方法

Info

Publication number
JP2015528649A
JP2015528649A JP2015506961A JP2015506961A JP2015528649A JP 2015528649 A JP2015528649 A JP 2015528649A JP 2015506961 A JP2015506961 A JP 2015506961A JP 2015506961 A JP2015506961 A JP 2015506961A JP 2015528649 A JP2015528649 A JP 2015528649A
Authority
JP
Japan
Prior art keywords
block
depth
current
disparity
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015506961A
Other languages
English (en)
Other versions
JP5976197B2 (ja
Inventor
ティアン、ドン
ゾウ、フェン
ヴェトロ、アンソニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/631,852 external-priority patent/US9264691B2/en
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015528649A publication Critical patent/JP2015528649A/ja
Application granted granted Critical
Publication of JP5976197B2 publication Critical patent/JP5976197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

ビュー合成のためにシーンのビデオが処理される。これらのビデオは、各カメラのビューが少なくとも1つの他のカメラのビューと重なり合うように配置された対応するカメラによって捕捉される。現在のブロックごとに、近傍ブロックから動きベクトル又は視差ベクトルが取得される。奥行きブロックは、対応する参照奥行き画像と、動きベクトル又は視差ベクトルとに基づく。動きフィールドの後方ワーピングを用いて、奥行きブロックに基づいて予測ブロックが生成される。次に、予測ブロックを用いた現在のブロックの予測コーディングが行われる。後方マッピングは空間領域において実行することもできる。

Description

本発明は、包括的にはマルチビュービデオをコーディングすることに関し、より詳細には、予測圧縮のために3Dマルチビュービデオをコーディングすることに関する。
マルチビュービデオのコーディングは、3次元テレビ(3DTV)、自由視点テレビ(FTV)、及びマルチカメラ監視等の用途に不可欠である。マルチビュービデオのコーディングは動的ライトフィールドの圧縮としても知られる。本明細書において用いられるとき、コーディングは、例えばコーデックにおける符号化、復号化又は双方を含むことができる。
奥行き画像は、新しい3Dビデオコーティング規格におけるデータフォーマットの推定される部分である。奥行き画像を副情報として用いて予測コーティングを行うことは、ビュー合成予測(VSP)として知られている。
従来のビデオコーディング、例えばH.264AVC(アドバンストビデオコーディング)規格及びH.265HEVC(高効率ビデオコーディング)規格によるコーディングでは、近傍ブロックからの動き情報を用いて動きベクトルが導出される。次に、導出された動きベクトルを動きベクトル予測子(MVP)として用いて、現在のブロックの動きベクトルが予測される。次に、現在の動きベクトルとMVPとの間の動きベクトル差分(MVD)が符号化され、送信される。
図1は、現在のブロックをコーディングする従来の方法を示している。ステップ110は、近傍ブロックから、MotionDeriveと呼ばれる動きベクトル又は視差ベクトルを導出する。ステップ120は、残差差分を最小にすることを目的とする動き推定技法を適用することによって、現在のブロックについてMotionCurrentと呼ばれる動きベクトル又は視差ベクトルを求める。ステップ130は、動きベクトル差分を計算し、コーディングする:(MotionDiff=MotionCurrent−MotionDerive)。最終的に、ステップ140は残差ブロックをコーディングする。
図2は、対応する従来技術による符号化器を示している。要素201は、ピクチャの一部分におけるブロックを示している。要素201において、現在のブロックはアスタリスク「*」によって表され、近傍ブロックはドット「.」によって表される。要素201において示すような近傍ブロックから動きベクトル又は視差ベクトルを導出する(202)。202からの導出された動きベクトル又は視差ベクトルは、動きベクトル予測子(MVP)203としての役割を果たす。
テクスチャ参照ピクチャバッファー204を参照することによって、現在のブロックについて動き推定が行われ(205)、現在のブロックのための動きベクトル(MotionCurrent)206が生成される。
MVPとMotionCurrentとの間の差分を計算した(207)後、動きベクトル差分(MVD)208が得られ、このMVDは符号化されて(209)ビットストリーム210にされる。
動き推定205からの別の出力は参照ピクチャであり、テクスチャ予測子211としての役割を果たす。次に、テクスチャ予測子211及び現在のピクチャ215に基づいてテクスチャ予測を行う(212)ことによってテクスチャ残差213が得られる。テクスチャ残差213も、ビットストリームの一部として符号化される(214)。
図3は復号化器を示している。要素301において示されるような近傍ブロックから、動きベクトル又は視差ベクトルを導出する(302)。導出された動きベクトル又は視差ベクトルは動きベクトル予測子(MVP)303としての役割を果たす。
コーディングされたビットストリーム310から、動きベクトル差分(MVD)308が復号化され(309)、加算器307に供給される。動きベクトル予測子303及び動きベクトル差分308は加算され(307)、次に、現在のブロックのために用いられる動きベクトルMotionCurrent306が得られる。
コーディングされたビットストリーム310から、テクスチャ残差ピクチャ313が復号化される(314)。現在の動きベクトル306及びテクスチャ残差ピクチャは、動き補償モジュール305への入力である。テクスチャ参照バッファー304とともに、動き補償が行われ、最終的に、復号化されたピクチャが出力される(315)。
本発明は、テクスチャコーディングのために後方ワーピングを用いることによってビュー合成予測(VSP)を行う方法及びシステムに関する。この方法及びシステムにおいて、奥行き成分はテクスチャ成分の後にコーディングされる。
従来の、前方ワーピングに基づくビュー合成予測は、一般的に、参照ビューからのテクスチャ成分及び奥行き成分を用いる。前方ワーピングは、通常、高い忠実度を提供するが、前方ワーピングに基づくVSPの主な欠点は、コーデックの複雑度が大幅に増大することである。
対照的に、本明細書において開示されるような後方ワーピングに基づくビュー合成予測(B−VSP)は複雑度がより低い。したがって、或る特定の用途において、後方ワーピングに基づくVSPが望ましい。さらに、後方ワーピングに基づくVSPは、ブロックに基づくVSP参照生成を容易にする。
不都合には、後方ワーピングに基づくVSPは、通常、奥行き優先コーディングを必要とする。すなわち、奥行き成分は同じアクセスユニットからの対応するテクスチャ成分の前にコーディングされる。アクセスユニットは、同じ時点における全ての成分(テクスチャ及び奥行き)の集合である。奥行き優先コーディングによって、対応するテクスチャ成分にアクセスする必要がある一切の奥行きコーディングツールの使用が妨げられる。
奥行き優先コーディングを回避しながら後方ワーピングに基づくVSPの利点を活用するために、実施の形態は、近傍ブロックからの動きベクトル又は視差ベクトルを用いて、以前のアクセスユニットにおいて、又は同じアクセスユニットであるが他の視点からコーディングされる奥行き画像等の、以前にコーディングされた奥行き画像から奥行きブロックを導出する。このため、導出された奥行きブロックは、コーディングされることになる現在のブロックのための推定奥行きブロックであると想定される。これは、最終的に、後方ワーピングに基づくVSPのために用いられる。
従来の、前方ワーピングに基づくビュー合成予測は、一般的に、参照ビューからのテクスチャ成分及び奥行き成分を用いる。前方ワーピングは、通常、より高いコストでより高い忠実度を提供する。対照的に、本発明によるビュー合成予測は、テクスチャコーディングのために後方ワーピングを用い、奥行き成分がテクスチャ成分の前にコーディングされることを必要としない。さらに、後方ワーピングに基づくVSPは、ブロックに基づくVSP参照生成を容易にする。これは複雑度がより低く、実施の利点を有する。
奥行き優先コーディングを回避しながら後方ワーピングに基づくVSPを可能にするために、本発明は、近傍ブロックからの動きベクトル又は視差ベクトルを用いて、以前のアクセスユニットにおいて、又は同じアクセスユニットであるが他の視点からコーディングされた奥行き画像等の、以前にコーディングされた奥行き画像から奥行きブロックを導出する。
近傍動き情報を用いて現在のブロックの動き情報をコーディングする従来技術の方法のフローチャートである。 従来技術の符号化器のブロック図である。 従来技術の復号化器のブロック図である。 本発明の実施の形態による、後方VSP予測により、近傍の動き情報又は視差情報を用いて現在のブロックをコーディングする方法のフローチャートである。 本発明の実施の形態による、空間予測を用いる符号化器のブロック図である。 本発明の実施の形態による、時間予測を用いる符号化器のブロック図である。 本発明の実施の形態による、空間予測を用いる復号化器のブロック図である。 本発明の実施の形態による、時間予測を用いる復号化器のブロック図である。 本発明の実施の形態による符号化方法のフローチャートである。 本発明の実施の形態による復号化方法のフローチャートである。 本発明の実施の形態による、近傍ブロックからの奥行き値を推定する例である。 本発明の実施の形態による、近傍ブロックからの奥行き値を推定する別の例である。 本発明の実施の形態による、B−VSPモードを用いた奥行きアンカーピクチャにおけるブロックの復号化プロセスを示すフローチャートである。
本発明の実施の形態は、後方ワーピング技法に基づいてビュー合成予測(VSP)参照ピクチャを生成するための方法及びシステムを提供する。本方法は、奥行き優先コーディングを用いない。本方法は、近傍ブロックから現在のブロックまでの動き情報又は視差情報を用いて、コーディングされる現在のブロックのための奥行きブロックを導出する。次に、導出された奥行きブロックを用いて後方ワーピングを行う。本明細書において用いられるとき、ビュー合成はシーンの1つ又は複数のビデオから合成ビデオを生成し、合成ビデオにおいて、3Dシーンの各ビデオは、特定の姿勢に配列された対応するカメラによって取得され、各カメラのビューは、少なくとも1つの他のカメラのビューと重なり合う。
近傍ブロックからの動き情報を用いる従来のビュー合成と比較して、実施の形態は、奥行きブロックを導出し、導出された奥行きブロックに基づいて、現在のブロックを予測するようにサンプルブロックを形成することを特徴とする。
実施の形態は、近傍ブロックからの動き情報又は視差情報を用いる様々な方法を開示する。特に、導出された動き情報又は視差情報は、奥行きブロックDepthDeriveを導出するのに直接用いられる。この奥行きブロックは、現在のブロックにおけるサンプル値の予測子を形成するのに更に用いられる。
図4は、本発明の実施の形態によるコーディング方法を示している。ステップは、現在のブロック401ごとに実行される。
ステップ410。近傍ブロックから動きベクトル又は視差ベクトルを取得する。
ステップ420。対応する参照奥行き画像と、動きベクトル又は視差ベクトルとに基づいて奥行きブロックを求める。
ステップ430。後方ワーピングを用いて奥行き値に基づいて予測ブロックを生成する。
ステップ440。予測ブロックを用いて現在のブロックについて予測コーディングを実行する。
図5Aは、比較可能な符号化器ブロック図を示している。要素501に示される近傍ブロックから、動きベクトル又は視差ベクトルMotionDerive(MVP)503を導出する(502)。任意選択で、MotionDerive、又は復号化器がMotionDeriveを求めるのを支援する副情報をコーディングし、シグナリングする(550)ことができ、これはコーディングされたビットストリーム510の一部分である。
MotionDeriveを用いて奥行き参照ピクチャバッファー551を参照することによって、現在のブロックのための奥行きブロックDepthDerive505が推定される(504)。
DepthDeriveを用いてテクスチャ参照ピクチャバッファー504を参照することによって、後方ワーピングが実行され(506)、テクスチャ予測子507が得られる。
次に、テクスチャ予測508がテクスチャ予測子507及び現在のピクチャ515に基づいてテクスチャ残差509を得る。これはビットストリーム内に符号化される(511)。
図6Aは、復号化器を示している。コーディングされたビットストリーム610から、動きベクトル選択又は視差ベクトル選択を導出するための副情報653をシグナリングすることができる(650)。副情報653が用いられる場合、この副情報が入力としてブロック601に供給される。
要素601に示すような近傍ブロックから、動きベクトル又は視差ベクトルMotionDerive603を導出する(602)。
MotionDeriveを用いて奥行き参照ピクチャバッファー651を参照することによって、現在のブロックのための奥行きブロックDepthDerive605が推定される(604)。
DepthDerive605を用いてテクスチャ参照ピクチャバッファー611を参照することによって、後方ワーピング612が実行され(606)、テクスチャ予測子607が得られる。
コーディングされたビットストリームから、テクスチャ残差609が復号化され(613)、テクスチャ予測608のためのテクスチャ予測子607及びテクスチャ残差609が得られ、復号化されたテクスチャピクチャが出力される(615)。
実施の形態によって用いられる技法は、従来技術におけるような動き又は視差を補償された予測と対照的に、奥行きを補償された予測と呼ぶことができる。
参照ピクチャから入手可能な異なるピクチャ及び奥行きを用いる3つの実施の形態について説明する。
実施の形態1:参照ビューからアンカーピクチャ、奥行きが入手可能
この実施の形態では、参照ピクチャからのテクスチャ成分及び奥行き成分がともに、現在のテクスチャ及び奥行きの前にコーディングされると仮定する。例えば、2ビューの場合のコーディング順序はT0D0T1D1であり、ここで、T及びDはテクスチャ及び奥行きを表し、0及び1は2つのビューを表す。ビュー0からのテクスチャ及び奥行きはビュー1のテクスチャ及び奥行きの前にコーディングされることに留意されたい。
アンカーピクチャの場合、全てのブロックがイントラモード又はビュー間予測モードのいずれかでコーディングされる。1つの例において、現在のブロックについて3つの近傍ブロックが存在する。それらのブロックは、左(A)、上(B)及び右上(C)にある。この説明は、追加の近傍ブロックを用いるように容易に拡張することができる。
近傍ブロック(A、B及びC)がビュー間予測モードにおいてコーディングされる場合、各ブロックは、DisparityA、DisparityB及びDisparityCによって表される視差ベクトルと関連付けられる。
現在のブロックと近傍ブロックとの類似性を検討すると、現在のブロックのための視差ベクトルは、近傍ブロックから導出することができ、DisparityDeriveで表される。1つの実施態様では、以下となる。
DisparityDerive
=Mean(DisparityA,DisparityB,DisparityC)
別の実施態様では、新しいHEVC規格において規定されているように、この導出結果を、候補リスト及びインデックスをマージ(merging)するためにシグナリングすることができる。すなわち、近傍ブロックから候補リストを構築する。次に、DisparityDeriveのために用いられる特定の候補を示すためにインデックスがビットストリームにおいてシグナリングされる。
DisparityDeriveを用いて、参照ビューからの奥行き画像における奥行きブロックDepthDeriveを特定し、この奥行きブロックDepthDeriveにアクセスすることができる。DepthDeriveを用いて現在のブロックのための後方ワーピングを行う。
近傍ブロックが全てビュー間予測モードを用いてコーディングされているとき、一般的なプロセスは、近傍ブロックを上記で説明されたように用いる。以下において、近傍ブロックがビュー間予測モードにおいて一切コーディングされていない場合について説明する。
近傍ブロックがイントラモードにおいてコーディングされている場合、対応する視差ベクトルはゼロである。
近傍ブロックがVSP予測モードを用いてコーディングされる場合、単一のベクトルはブロック全体に用いられない。代わりに、その場合、そのVSP予測のために用いられる奥行きブロックから視差ベクトルを求めることができる。視差ベクトルは、奥行きブロック全体の平均値とすることもできるし、現在のブロックに対してより近い奥行きピクセルに対して、より多くの重み付けをすることもできる。
上記において、まず視差ベクトルDisparityDeriveを導出し、次に単一の視差を用いて奥行きブロックDepthDeriveにアクセスする。代替的に、複数の導出された視差を用いるので、そうして、複数の導出された奥行きブロックを用いることができる。複数の導出された奥行きブロックは、重み付け平均に従って求められ、後方ワーピングのために用いられる単一の奥行きブロックが得られる。
図7は、B−VSPを候補コーディングモードとして用いるアンカーピクチャにおけるブロックのための符号化プロセスを示している。
ステップ701。A、B及びCを近傍ブロックとし、DisparityXをそれらの視差ベクトルとする(XがA、B又はCと置き換えられる)。
ステップ702。A、B及びCにおける任意のブロックがイントラモードにおいてコーディングされる場合、その視差ベクトルをゼロにセットする。
ステップ703。A、B及びCにおける任意のブロックがVSP予測モードにおいてコーディングされる場合、その視差ベクトルを、そのVSP予測のために用いられる奥行きブロックの平均値としてセットする。
ステップ704。DisparityDeriveをDisparityXの平均値になるようにセットする。
ステップ705。対応する奥行き画像における奥行きブロックDepthDeriveを取得する。
ステップ706。DepthDeriveを用いて後方ワーピングに基づくVSPを実行する。
ステップ707。B−VSPモードが他のコーディングモードと比較され、レート歪みコストがより少ない場合に選択される。
図8は、提案されるB−VSPモードを用いる、アンカーピクチャにおけるブロックの復号化プロセスである。
ステップ801。B−VSPモードが現在のブロックについてシグナリングされるか否かを検査する。シグナリングされる場合、ステップ802に進む。そうでない場合、ステップ808に進む。
ステップ802。A、B及びCを近傍ブロックとし、DisparityXをそれらの視差ベクトルとする(XがA、B又はCと置き換えられる)。
ステップ803。A、B及びCにおける任意のブロックがイントラモードにおいてコーディングされる場合、その視差ベクトルをゼロにセットする。
ステップ804。A、B及びCにおける任意のブロックがVSP予測モードにおいてコーディングされる場合、その視差ベクトルを、そのVSP予測のために用いられる奥行きブロックの平均値としてセットする。
ステップ805。DisparityDeriveをDisparityXの平均値になるようにセットする。
ステップ806。対応する奥行き画像における奥行きブロックDepthDeriveを取得する。
ステップ807。DepthDeriveを用いて後方ワーピングに基づくVSPを実行する。ステップ809に進む。
ステップ808。他のコーディングモードにおいて現在のブロックを復号化する。
ステップ809。手順の終了。
実施の形態2:参照ビューからアンカーピクチャ又は非アンカーピクチャ、奥行きが入手可能でない
この実施の形態では、アクセスユニットにおける全てのテクスチャ成分が、全ての奥行き成分の前にコーディングされると仮定する。例えば、2ビューの場合のコーディング順序はT0T1D0D1であり、ビュー0及びビュー1からの双方のテクスチャが奥行きの前にコーディングされる。この実施の形態は、奥行きのコーディングに対するテクスチャの依存性がないときにも適用することができる。
同様のプロセスにおいて、視差DisparityDeriveを近傍ブロックから導出することができる。しかしながら、参照用に奥行きデータが入手可能でないので、ピクセルあたりの奥行きブロックにアクセスすることができない。代わりに、視差DisparityA、DisparityB及びDisparityCを用いて奥行きブロックを補間する。この実施の形態では、線形補間が用いられる。他の補間も用いることができる。
図9は、例示的な補間を示しており、近傍ブロック(A、B及びC)のための単一の奥行き値(X、Y及びZ)が、それらの視差値DisparityA、DisparityB及びDisparityCからセットされる。現在の4×4のブロックのための奥行き値は以下のように補間される。
a=(X+Y)/2、
b=(X+2×Y)/3、
c=(2×X+Y)/3、
d=(X+3×Y)/4、
e=(3×X+Y)/4、
f=(X+4×Y)/5、
g=(4×X+Y)/5
ここで、a、b、c、d、e、f及びgは現在のブロックにおけるピクセルである。上記の実施態様において、ブロックCからの奥行き値Zは用いられない。補間されるピクセルに対してより近い奥行き値は、より多くの重み付けをされる。奥行きブロックを埋める他の補間方法が可能である。
さらに、ブロックがB−VSPモードを用いてコーディングされるときに、近傍ブロックからの奥行き値が変動する可能性がある。その場合、各ピクセルごとの補間プロセスは異なる可能性がある。
1つの例において、図10に示すように、行r及び列c、(r,c)におけるピクセルの奥行き値は以下のように補間することができる。
Depth(r,c)=(Xc+Yr)/2
実施の形態3:参照ビューから非アンカー、奥行きが入手可能
非アンカーピクチャの場合、近傍ブロックが、ビュー間予測モードではなく時間予測を用いる可能性がより高い。しかしながら、時間予測とビュー間予測とを区別する必要はない。代わりに、この実施の形態では、動きベクトル又は視差ベクトルの関連付けられた参照テクスチャは、入手可能な対応する奥行き参照ピクチャを有する。そうでない場合、実施の形態2について説明されたような事例が適用される。
実施の形態1におけるように、近傍ブロックからの動きベクトル又は視差ベクトルを用いて動きベクトル又は視差ベクトルを導出する。この動きベクトル又は視差ベクトルを用いて、対応する参照奥行き画像からの奥行きブロックを特定し、この奥行きブロックにアクセスする。
近傍ブロックがイントラモードにおいてコーディングされる場合において、動きベクトル又は視差ベクトルを導出するのに用いられる、近傍ブロックをシグナリングするメカニズムがビットストリームに存在しないとき、時間参照に対するゼロ動きベクトルではなく、ビュー間参照に対するゼロ視差ベクトルが用いられる。さもなければ、候補リストがあるとき、インデックスメカニズムが実施される。イントラコーディングされた近傍ブロックが存在するとき、ゼロ視差ベクトル及びゼロ動きベクトルの双方を候補リストに加える。次に、符号化器は、レート歪みコストに基づいて最適候補を選択する。
実施の形態4:奥行き画像のための後方ワーピングに基づくVSP
上記の実施の形態は、ディペンデントビューからの奥行きピクチャをコーディングするのにも適用可能である。後方ワーピングを行うのに奥行き画像が必要とされるので、従来のVSPにおいて奥行きについて後方ワーピングに基づくVSP予測を実施することは不可能である。本発明の実施の形態は、現在のブロックを必要としない。
後方VSPを行うための奥行きブロックを得るために近傍ブロックの動きベクトル又は視差ベクトルが利用される上記の実施形態とは異なり、奥行きブロックを推定するのに近傍ブロックのサンプル値を用いる。現在のピクチャは奥行き画像であるので、近傍ブロックはピクセルごとの奥行きを有する。これらのブロックのブロックレベルの動きベクトル又は視差ベクトルの代わりに、サンプル値を用いて、B−VSPを行うための奥行きを求める方が正確である。
図11は対応する復号化を示している。図8に示す実施の形態との違いは、近傍ブロックからの動きベクトル又は視差ベクトルが用いられないことである。
ステップ1101。B−VSPモードが現在のブロックについてシグナリングされるか否かを検査する。シグナリングされる場合、ステップ1102に進む。そうでない場合、1104に進む。
ステップ1102。近傍ブロック(奥行きブロックである)を用いて現在のブロックの奥行きDepthDeriveを推定する。
ステップ1103。DepthDeriveを用いて後方ワーピングに基づくVSPを実行する。ステップ1105に進む。
ステップ1104。他のコーディングモードにおいて現在のブロックを復号化する。
ステップ1105。手順の終了。
実施の形態5:動き領域におけるワーピング
以前の実施の形態において、ピクセル領域又は空間領域においてワーピングが実行された。換言すれば、現在のビューにおけるピクセルのテクスチャのための予測子が、参照ビューから現在のビューへのピクセル値のワーピングによって導出され、これはそれぞれ、図5A及び図6Aのブロック506及び611において行われる。
一方、3Dワーピング関係は、時間領域にも存在する。すなわち、現在のビューにおける物体の時間的な動きは、参照ビューにおいて類似した動きを有するように見える。
このため、この実施の形態では、空間領域及び時間領域においてワーピングを適用する。したがって、図5B及び図6Bに示すようにブロック506及び611における処理を変更し、動きフィールド(動きベクトル及び/又は参照ピクチャ情報)が現在のピクチャにおける対応するピクセルに割り当てられる。さらに、ブロック508及び608は、ワーピングされた動きフィールド情報を用いて時間予測を実行する。
テクスチャワーピングプロセスと同様に、動きフィールドにおけるワーピングをピクセルレベル又はブロックレベルにおいて実行することができることに留意されたい。HEVCとの関連で、最も大きなワーピング単位は予測単位(PU)レベルにおけるものである。
動きフィールドのワーピングがピクセルレベルにおいて実行されない場合、導出された奥行きブロックからの最大奥行きが視差ベクトルに変換され、最終的に、導出された視差ベクトルが、現在のブロックが動き情報にアクセスするための平行移動オフセットであると想定される。
奥行き参照ピクチャにおける奥行きブロックを参照することによる視差ベクトルの導出は、奥行き画像から奥行きブロックにアクセスすることができる限り、他の通常の空間近傍ブロック又は時間近傍ブロックに更に拡張することができることに留意するべきである。
このため、ワーピングは、関連特許出願において記載されているように空間領域において行うこともできるし、本出願において記載されているように時間領域において行うこともできるし、空間領域及び時間領域の双方において行うこともできる。
発明の効果
従来の、前方ワーピングに基づくビュー合成予測は、一般的に、参照ビューからのテクスチャ成分及び奥行き成分を用いる。前方ワーピングは、通常、より高いコストでより高い忠実度を提供する。対照的に、本発明によるビュー合成予測は、テクスチャコーディングのために後方ワーピングを用い、奥行き成分がテクスチャ成分の前にコーディングされることを必要としない。さらに、後方ワーピングに基づくVSPは、ブロックに基づくVSP参照生成を容易にする。これはより複雑度が低く、実施の利点を有する。
奥行き優先コーディングを回避しながら後方ワーピングに基づくVSPを可能にするために、本発明は、近傍ブロックからの動きベクトル又は視差ベクトルを用いて、以前のアクセスユニットにおいて、又は同じアクセスユニットであるが他の視点からコーディングされた奥行き画像等の、以前にコーディングされた奥行き画像から奥行きブロックを導出する。

Claims (19)

  1. 3Dシーンの1以上のビデオを処理する方法であって、各ビデオは特定の姿勢で配置された対応するカメラによって撮像され、処理されるべき現在のピクチャの現在のブロックごとに、
    前記現在のブロックの近傍ブロックから動きベクトル又は視差ベクトルを取得するステップと、
    前記現在のブロックのための前記動きベクトル又は視差ベクトルに基づいて、参照ピクチャの対応する奥行き成分から奥行きブロックを求めるステップと、
    後方ワーピングを用いて、参照ビューに対応する参照ピクチャと前記現在のビューに対応する前記奥行きブロックとに基づいて、現在のビューに対応する動きフィールドを合成するステップと、
    前記動きフィールドを用いて前記現在のブロックを予測的にコーディングするステップと、
    を含み、各前記ステップはプロセッサが実行する、3Dシーンの1以上のビデオを処理する方法。
  2. 各前記ステップは符号化器において実行される、請求項1に記載の方法。
  3. 参照ピクチャからのテクスチャ成分及び奥行き成分は、前記現在のピクチャからの前記テクスチャ成分及び前記奥行き成分の前にコーディングされる、請求項1に記載の方法。
  4. 全てのビューのテクスチャ成分は、前記現在のピクチャからの前記奥行き成分の前にコーディングされる、請求項1に記載の方法。
  5. 前記動きベクトル又は前記視差ベクトルは、前記近傍ブロックにおける動き情報又は視差情報の平均値から導出される、請求項1に記載の方法。
  6. 前記動きベクトル又は前記視差ベクトルは、ビットストリームにおいてシグナリングされる副情報に基づいて得られる、請求項1に記載の方法。
  7. 前記副情報は、前記動きベクトル又は前記視差ベクトルの候補リストへのインデックスである、請求項6に記載の方法。
  8. 前記奥行きブロックは、複数の奥行きブロックの加重平均に基づく、請求項1に記載の方法。
  9. 前記符号化はレート及び歪みコストに基づく、請求項2に記載の方法。
  10. 前記現在のピクチャはテクスチャ成分である、請求項1に記載の方法。
  11. 前記現在のピクチャは奥行き成分である、請求項1に記載の方法。
  12. 近傍ブロックからの前記動きベクトル又は前記視差ベクトルは、前記近傍ブロックのコーディングのために用いられる、請求項1に記載の方法。
  13. 前記近傍ブロックからの前記視差ベクトルは、前記近傍ブロックにおけるピクセル値に基づいて計算される、請求項11に記載の方法。
  14. 前記導出される奥行きブロックは、前記近傍ブロックの前記視差ベクトルから直接補間される、請求項1に記載の方法。
  15. 前記処理は、3Dビデオ用途において用いられる、請求項1に記載の方法。
  16. 前記取得するステップ及び前記求めるステップは反復的に実行される、請求項1に記載の方法。
  17. 前記合成するステップは、ピクセルレベルにおいて実行される、請求項1に記載の方法。
  18. 前記合成するステップは、ブロックレベルにおいて実行される、請求項1に記載の方法。
  19. 前記後方ワーピングを用いて、前記参照ビューに対応する前記参照ピクチャと前記現在のビューに対応する前記求められた奥行きブロックとに基づいて、前記現在のビューに対応する予測ブロックを合成するステップと、
    前記現在のブロックについて、前記予測ブロックと復号化された残差ブロックとを結合して、出力ピクチャのブロックを生成するステップと、
    を更に含む、請求項1に記載の方法。
JP2015506961A 2012-09-28 2013-09-20 3dシーンの1以上のビデオを処理する方法 Active JP5976197B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US13/631,852 2012-09-28
US13/631,852 US9264691B2 (en) 2012-09-28 2012-09-28 Method and system for backward 3D-view synthesis prediction using neighboring blocks
US13/742,461 US9253486B2 (en) 2012-09-28 2013-01-16 Method and system for motion field backward warping using neighboring blocks in videos
US13/742,461 2013-01-16
PCT/JP2013/076448 WO2014051133A1 (en) 2012-09-28 2013-09-20 Method for processing one or more videos of a 3d-scene

Publications (2)

Publication Number Publication Date
JP2015528649A true JP2015528649A (ja) 2015-09-28
JP5976197B2 JP5976197B2 (ja) 2016-08-23

Family

ID=49328602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015506961A Active JP5976197B2 (ja) 2012-09-28 2013-09-20 3dシーンの1以上のビデオを処理する方法

Country Status (8)

Country Link
US (1) US9253486B2 (ja)
EP (1) EP2901695B1 (ja)
JP (1) JP5976197B2 (ja)
KR (1) KR101653118B1 (ja)
CN (1) CN104685882B (ja)
ES (1) ES2606161T3 (ja)
PL (1) PL2901695T3 (ja)
WO (1) WO2014051133A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200059981A (ko) * 2018-11-22 2020-05-29 한양대학교 산학협력단 포인트 클라우드 데이터에 대한 고속 움직임 추정을 수행하는 방법 및 장치

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013284038B2 (en) * 2012-06-28 2015-11-05 Hfi Innovation Inc. Method and apparatus of disparity vector derivation in 3D video coding
US9843820B2 (en) * 2012-07-05 2017-12-12 Mediatek Inc Method and apparatus of unified disparity vector derivation for 3D video coding
FR3002716A1 (fr) * 2013-02-26 2014-08-29 France Telecom Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation
US9781416B2 (en) * 2013-02-26 2017-10-03 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
EP3024241A4 (en) * 2013-07-18 2017-02-22 LG Electronics Inc. Method and apparatus for processing video signal
JPWO2015056712A1 (ja) * 2013-10-17 2017-03-09 日本電信電話株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
TWI517096B (zh) * 2015-01-12 2016-01-11 國立交通大學 用於立體影像合成之逆向深度映射方法
CN107770511A (zh) * 2016-08-15 2018-03-06 中国移动通信集团山东有限公司 一种多视点视频的编解码方法、装置和相关设备
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
CN107027025B (zh) * 2017-03-28 2019-06-28 清华大学深圳研究生院 一种基于宏像素块自适应预测的光场图像压缩方法
US10244164B1 (en) 2017-09-11 2019-03-26 Qualcomm Incorporated Systems and methods for image stitching
US11348265B1 (en) 2017-09-15 2022-05-31 Snap Inc. Computing a point cloud from stitched images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014044168A1 (en) * 2012-09-21 2014-03-27 Mediatek Inc. Method and apparatus of virtual depth values in 3d video coding

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1913634B (zh) * 2001-11-06 2011-08-24 松下电器产业株式会社 运动图像解码方法
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US8284237B2 (en) * 2009-09-09 2012-10-09 Nokia Corporation Rendering multiview content in a 3D video system
US9451233B2 (en) * 2010-04-14 2016-09-20 Telefonaktiebolaget Lm Ericsson (Publ) Methods and arrangements for 3D scene representation
CN101917619B (zh) * 2010-08-20 2012-05-09 浙江大学 一种多视点视频编码快速运动估计方法
US9485517B2 (en) * 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014044168A1 (en) * 2012-09-21 2014-03-27 Mediatek Inc. Method and apparatus of virtual depth values in 3d video coding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200059981A (ko) * 2018-11-22 2020-05-29 한양대학교 산학협력단 포인트 클라우드 데이터에 대한 고속 움직임 추정을 수행하는 방법 및 장치
KR102155711B1 (ko) 2018-11-22 2020-09-14 한양대학교 산학협력단 포인트 클라우드 데이터에 대한 고속 움직임 추정을 수행하는 방법 및 장치

Also Published As

Publication number Publication date
US9253486B2 (en) 2016-02-02
EP2901695A1 (en) 2015-08-05
EP2901695B1 (en) 2016-11-02
KR101653118B1 (ko) 2016-08-31
WO2014051133A1 (en) 2014-04-03
ES2606161T3 (es) 2017-03-23
CN104685882B (zh) 2018-05-18
PL2901695T3 (pl) 2017-02-28
US20140092210A1 (en) 2014-04-03
JP5976197B2 (ja) 2016-08-23
KR20150063124A (ko) 2015-06-08
CN104685882A (zh) 2015-06-03

Similar Documents

Publication Publication Date Title
JP5976197B2 (ja) 3dシーンの1以上のビデオを処理する方法
JP7248741B2 (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11240478B2 (en) Efficient multi-view coding using depth-map estimate for a dependent view
US9264691B2 (en) Method and system for backward 3D-view synthesis prediction using neighboring blocks
JP6633694B2 (ja) 多視点信号コーデック
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
US9819959B2 (en) Method and apparatus for residual prediction in three-dimensional video coding
KR101753171B1 (ko) 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
KR20120000485A (ko) 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
JP2016513925A (ja) 3dビデオ符号化におけるビュー合成予測の方法と装置
CA2820133A1 (en) Multiview image encoding method, multiview image decoding method, multiview image encoding device, multiview image decoding device, and programs of same
EP1929783A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
WO2014168121A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
CN105144714A (zh) 三维视频编码的视差向量推导的方法及装置
Shimizu et al. View synthesis prediction via motion field synthesis for 3D video coding

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R150 Certificate of patent or registration of utility model

Ref document number: 5976197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250