JP2015525999A - 3dビデオ符号化における統一された視差ベクトル導出の方法と装置 - Google Patents

3dビデオ符号化における統一された視差ベクトル導出の方法と装置 Download PDF

Info

Publication number
JP2015525999A
JP2015525999A JP2015518828A JP2015518828A JP2015525999A JP 2015525999 A JP2015525999 A JP 2015525999A JP 2015518828 A JP2015518828 A JP 2015518828A JP 2015518828 A JP2015518828 A JP 2015518828A JP 2015525999 A JP2015525999 A JP 2015525999A
Authority
JP
Japan
Prior art keywords
disparity vector
block
depth
unified
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015518828A
Other languages
English (en)
Other versions
JP5970609B2 (ja
Inventor
ジャン−リャン リン,
ジャン−リャン リン,
イー−ウェン チェン,
イー−ウェン チェン,
ユ−ウェン ファン,
ユ−ウェン ファン,
シャウ−ミン レイ,
シャウ−ミン レイ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2015525999A publication Critical patent/JP2015525999A/ja
Application granted granted Critical
Publication of JP5970609B2 publication Critical patent/JP5970609B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】三次元ビデオ符号化または多視点ビデオ符号化の方法と装置を提供する。【解決手段】三次元ビデオ符号化または多視点ビデオ符号化の方法と装置が開示される。本発明による実施形態は、インターモードとスキップ/ダイレクトモードの奥行き情報から、統一された視差ベクトルを導出する。現在のブロックに対応する関連する奥行きブロックにおいて、統一された導出方法を用いて、統一された視差ベクトルが、奥行きサンプルのサブセットから生成される。奥行きデータから導出する視差ベクトルが、符号化または復号化に必要とされるとき、統一された導出方法が、インターモード、スキップモード、または、ダイレクトモードに適用される。統一された視差ベクトルが適用されて、視差ベクトルを導出して、対応するブロックを配置し、よって、ビュー間運動ベクトル候補が、スキップモードまたはダイレクトモードに対して決定される。【選択図】 図6

Description

この出願は、2012年7月5日に出願された“Disparity vector derivation for inter-view predictor in ATM”と題された米国特許仮出願番号61/668,424号、および、2012年10月3日に出願された“Disparity vector derivation for video coding”と題された米国特許仮出願番号61/744,888号から、優先権を主張するものであり、その内容は引用によって本願に援用される。
本発明はビデオ符号化に関するものであって、特に、3Dビデオ符号化の奥行き(深さ)データに基づいた視差ベクトル導出に関するものである。
三次元(3D)テレビは、近年、視聴者に、感覚的な視覚体験をもたらす技術となっている。多視点ビデオは、3Dビデオを獲得および表示する技術である。多視点ビデオは、一般に、多数のカメラを同時に用いることにより光景を獲得することにより形成され、多数のカメラは適切に配置されて、各カメラが、一視点からの光景を獲得する。光景に対する大量のビデオシーケンスを有する多視点ビデオは、大量のデータとなる。したがって、多視点ビデオは、保存のための大きい格納スペースおよび/または伝送のための高バンド幅を必要とする。よって、多視点ビデオ符号化技術は、必要な格納スペースまたは送信バンド幅を減少させるという技術領域とともに発展している。
真正面から正直に攻めるやり方は、従来のビデオ符号化技術を、単独で、各単一ビュー動画像列に適用すると共に、異なるビュー間では相互関係を無視する。このような直接的技術は、符号化パフォーマンスを低下させる。多視点ビデオ符号化効率を改善するため、多視点ビデオ符号化は、常に、ビュー間(iter-view)冗長を利用する。二つのビュー(視野)間の視差は、二つのそれぞれのカメラの位置と角度により生じる。たとえば、アフィンモデル(affine model)のような視差モデルが、二個のビューフレームのずれを示すために用いられる。さらに、一ビュー中のフレームの運動ベクトルが、別のビュー中のそれぞれのフレームの運動ベクトルを導出する。
3Dビデオにおいて、多重ビューに関連する従来のテクスチャデータに加え、奥行きデータが、いつも、同じように、獲得または導出する。奥行きデータが、一ビューまたは複数のビューに関連するビデオのために獲得される。情報は、また、異なるビューのイメージから導出する。奥行きデータは、テクスチャデータよりも、低い空間分解能で表される。立体情報が、ビュー合成とビュー間予測に有用である。リファレンスビューの前に符号化されたテクスチャ情報を共有するため、視差補償予測(DCP)のコンセプトが、代案として、動き補償予測(MCP)に加えられる。MCPは、異なるアクセスユニットで同じビューの前に符号化されたピクチャを用いるインターピクチャ予測を参照し、DCPは、同じアクセスユニット中の別のビューのすでに符号化されたピクチャを用いるインターピクチャ予測を参照する。DCPに用いられるベクトルは視差ベクトル(DV)で、MCPに用いられる運動ベクトル(MV)のアナログである。
3DV−ATMバージョン2(AVCベース3Dビデオ符号化のテストモデル)における奥行きベースの運動ベクトル予測方法は、二つの主要なツールからなる。第一ツールは、インターモードの方向−分離運動ベクトル予測、および、第二ツールは、スキップとダイレクトモード奥行きベースの運動ベクトル競争である。現在のブロックの運動ベクトルが、運動ベクトル予測に基づいて予測され、隣接ブロックに関連する候補運動ベクトルが、運動ベクトル予測に用いられる。図1Aは、隣接ブロックに基づいたMVP(運動ベクトル予測)導出の例を示す図で、ブロックCbは現在のブロックに対応し、ブロックA,BとCは、三空間的に、隣接ブロックに対応する。ターゲットリファレンス画像が一時的予測画像である場合、空間的な隣接ブロック(つまり、ブロックA,BとC)の運動ベクトルが提供され、運動ベクトルは、個々のブロックのテクスチャデータに基づいて導出する。隣接ブロックの一時的運動ベクトルが利用できない場合、ゼロベクトルが、MV(運動ベクトル)候補として用いられる。その後、一時的運動ベクトル予測が、隣接ブロックA,BおよびCの運動ベクトルの中間値に基づいて導出する。
一方、ターゲットリファレンス画像がビュー間予測画像である場合、隣接ブロックのビュー間運動ベクトルが用いられて、ビュー間運動ベクトル予測を導出する。図1Bのブロック110において、空間的な隣接ブロックのビュー間運動ベクトルが、個々のブロックのテクスチャデータに基づいて導出する。現在のブロックCbに関連する深度図も、ブロック160中に提供される。ブロックA,BとCのビュー間運動ベクトルの可用性がブロック120でチェックされる。ブロック130において、ビュー間運動ベクトルが利用できない場合、現在のブロックの視差ベクトルが用いられて、利用できないビュー間運動ベクトルを代替する。ブロック170に示されるように、視差ベクトルが、関連する奥行きブロックの最大深度値から導出する。ブロックA,BとCのビュー間運動ベクトルの中間値が、ビュー間運動ベクトル予測として用いられる。ブロック140に示されるように、従来のMVP工程において、最終MVPは、ビュー間MVPsまたは一時的MVPsの運動ベクトルの中間値に基づいて導出する。ブロック150において、運動ベクトル予測に基づいた運動ベクトル符号化が実行される。
3DV−ATMバージョン2によるスキップとダイレクトモードの奥行きベースの動き競争(DMC)のプロセスのフローチャートが、それぞれ、図2Aと図2Bに示される。入力データは、ブロックA,BとCに関連する動作データ210、および、ブロックCbとブロックA,BとCに関連する深度図220を含む。Cb,A,BとCのブロック設置が図1Aで示される。スキップモードにおいて、テクスチャデータブロック{A,B,C}の運動ベクトル{mv}は、それらの予測方向にしたがって、それぞれの一時的とビュー間集合に分割される(ステップ212)。DMCが、別々に、一時的MVs(ステップ214)とビュー間MVs(ステップ222)に実行される。
所定の群(一時的またはビュー間)内の各運動ベクトルmvにおいて、動き補償奥行きブロックd(cb,mv)が導出し、運動ベクトルmvが、d(cb)の位置に適用されて、運動ベクトルmvにより指し示されるリファレンス深度図から、奥行きブロックを得る。その後、d(cb)とd(cb,mv)間の類似点は方程式(2)にしたがって推定される:
Figure 2015525999
所定の群中の絶対差の最小和(SAD)を達成するmvが特定の方向(mvpdir)の群の最適な予測として選択され、すなわち、
Figure 2015525999
一時的方向(つまり、mvptmp)の予測は、ビュー間方向(つまり、mvpinter)の予測と競合する。最小SADを達成する予測が、スキップモードの方程式(4)にしたがって決定される(ステップ232):
Figure 2015525999
最後に、最適なMVPPmvpoptが別のビュー(ビュー間予測)を参照する場合、以下のチェックが最適なMVPに適用される。最適なMVPが“Zero−MV”に対応する場合、最適なMVPは“視差−MV”予測により代替され(ステップ234)、“視差−MV”予測の導出が、方程式(1)に示される。ステップ236に示されるように、最終MVPは、スキップモードに用いられる。
Figure 2015525999
式中、iは、現在のCb中の画素のインデックスNは、Cb中の画素の総数である。
BスライスのダイレクトモードのMVP導出のフローチャートが図2Bに示され、このプローチャートは、スキップモードに類似している。しかし、DMCは、リファレンス画像リスト両方(つまり、List0とList1)に別々に実行される(ステップ242)。よって、各予測方向(一時的またはビュー間)において、DMCは、二予測(mvp0dirとmvp1dir)を、それぞれ、List0とList1に生成する(ステップ244とステップ254)。mvp0dirとmvp1dirに関連する双方向補償ブロック(ステップ246とステップ256)は、方程式(5)に従って計算される:
Figure 2015525999
この双方向補償ブロックとCb間のSAD値が、各方向で、別々に、方程式(2)にしたがって計算される。その後、ダイレクトモードのMVPが、方程式(4)にしたがって、可用なmvpinterとmvptmp(ステップ262)から選択される。最適なMVPmvpopt

が別のビュー(つまり、MVPはビュー間予測に対応する)を参照する場合、以下のチェックが最適なMVPに適用される。最適なMVPが“Zero−MV”に対応する場合、各リファレンスリスト中の“zero−MV”は“視差−MV”予測(ステップ264)により代替され、“視差−MV”予測の導出が(1)に示される。ステップ266に示されるように、最終MVPは、ダイレクトモードに用いられる。
前述のように、3DV−ATMバージョン2にしたがって、奥行き情報からの視差ベクトル導出は、スキップとダイレクトモードにとってかなり複雑である。さらに、奥行き情報からの視差ベクトル導出は、インターモードとスキップ/ダイレクトモード間で異なる。パフォーマンスに顕著な影響を与えずに、導出プロセスを簡潔にすることが望まれる。
本発明においては、三次元ビデオ符号化または多視点ビデオ符号化のシステムのための方法と装置が開示される。
本発明による実施形態は、インターモードとスキップ/ダイレクトモードの統一された導出方法を用いて、奥行き情報から統一された視差ベクトルを導出する。現在のブロックの入力データは、統一された視差ベクトルにしたがって、符号化または復号化される。統一された導出方法は、関連する奥行きブロック中、奥行きサンプルのサブセットから、統一された視差ベクトルを生成し、奥行きデータから導出する視差ベクトルが、符号化または復号化に必要とされるとき、統一された導出方法が、インターモード、スキップモード、または、ダイレクトモードに適用される。サブセットは、関連する奥行きブロックより少ない奥行きサンプルを含む。
いくつかの実施形態において、ひとつ以上のビュー間運動ベクトル(MV)または視差ベクトル(DV)予測が、現在のブロックの隣接するブロックセットに基づいて導出し、隣接するブロックセット中の前記一ブロックが、一MVまたはDVを有さない場合、隣接するブロックセット中の一ブロックに関連する一ビュー間MVまたはDV予測が、統一された視差ベクトルから生成される。インターモードが現在のブロックに選択される場合、ひとつ以上のビュー間MVまたはDV予測を用いて、符号化または復号化が、現在のブロックのMV/DVまたは符号化されたMV/DVに適用される。
一実施形態において、スキップモードまたはダイレクトモードが現在のブロックに選択される場合、ひとつ以上のDV予測から導出するDVにより設置される対応するブロックから生成されるビュー間MV候補を用いて、符号化または復号化が入力データに適用される。隣接するブロックセット中の一ブロックがDVを有さない場合、ひとつ以上のDV予測が、現在のブロックの隣接するブロックセットに基づいて決定され、隣接するブロックセット中の一ブロックに関連する一DV予測が、統一された視差ベクトルから生成される。統一された視差ベクトルは、視差補償予測(DCP)、方向−分離運動ベクトル予測、ビュー間動き予測またはビュー間余剰予測のビュー間画像で、対応するブロックを設置するのに用いられる。
本発明の実施形態は、奥行き情報からの視差ベクトル導出の統一された導出方法に対処する。統一された視差ベクトルは、現在のブロックに関連する深度値のサブセットから生成され、サブセットは、関連する奥行きブロックより少ない奥行きサンプルを含む。いくつかの実施形態において、サブセットは、ひとつ以上の境界サンプル、たとえば、関連する奥行きブロックの最終行の中間サンプルまたは二隅サンプル、四隅サンプルを含む。
一実施形態において、サブセットは、さらに、関連する奥行きブロックの中央サンプルを含む。統一された視差ベクトルは、最大値、平均値、中間値、最大頻発または関連する奥行きブロックのサブセットの深度値の線形結合に対応し、サブセットは、二つ以上の奥行きサンプルを含む。一実施形態において、統一された視差ベクトルは、関連する奥行きブロックの四隅サンプルから生成される。さらに、統一された視差ベクトルが、関連する奥行きブロックの四隅サンプルの最大深度値から生成される。隣接するブロックセットは、ブロックA,BとCからなり、それぞれ、現在のブロックの左上側の第一位置、現在のブロックの左上側の第二位置、現在のブロックの対角線上の右上隅の第三位置に対応する。ビュー間運動ベクトルまたは視差ベクトル候補は、スキップ/ダイレクトモードで、検索順序にしたがって、現在のブロックの隣接するブロックセットから決定される。
フラグが用いられて、統一された導出方法が、インターモード、スキップモードおよびダイレクトモードにより共有されるかを示す。
図1Aは、現在のブロックの運動ベクトル予測の導出に用いられる隣接ブロックの例を示す図である。 図1Bは、インターモードの方向−分離運動ベクトル予測の例を示す図であって、利用できないビュー間運動ベクトルが、視差ベクトルにより代替され、視差ベクトルは、現在のブロックの全奥行きサンプルに基づいて決定される。 図2Aは、スキップモードにおける奥行きベースの動き競争(DMC)の導出プロセスのフローチャートである。 図2Bは、ダイレクトモードにおける奥行きベースの動き競争(DMC)の導出プロセスのフローチャートである。 図3は、関連する奥行きブロックの四隅深度値に基づいた視差ベクトル導出の例を示す図である。 図4は、3DV−ATMバージョン5におけるスキップ/ダイレクトモードの優先−ベースのMVP候補導出の例を示す図である。 図5Aは、奥行き情報からの視差ベクトル導出に用いられる奥行きサンプルの例を示す第1の図である。 図5Bは、奥行き情報からの視差ベクトル導出に用いられる奥行きサンプルの例を示す第2の図である。 図5Cは、奥行き情報からの視差ベクトル導出に用いられる奥行きサンプルの例を示す第3の図である。 図6は、本発明の一実施形態によるインターモードとスキップ/ダイレクトモードの統一された視差ベクトルを組み込んだ三次元符号化システムのフローチャートである。
前に述べたように、方向−分割運動ベクトル予測は、一時的とビュー間運動ベクトル予測からなる。ターゲットリファレンス画像が一時的予測画像である場合、図1中の現在のブロックCb、たとえば、A,BとC周辺の隣接ブロックの一時的運動ベクトルが、運動ベクトル予測の導出に用いられる。一時的運動ベクトルが利用できない場合、ゼロベクトルが用いられる。その後、運動ベクトル予測が、隣接ブロックA,BおよびCの運動ベクトルの中間値として導出する。
ターゲットリファレンス画像がビュー間予測画像である場合、隣接ブロックのビュー間運動ベクトルが、ビュー間予測に用いられる。ビュー間運動ベクトルが利用できない場合、3DV−ATMバージョン2にしたがって、視差ベクトルが、関連する奥行きブロック中の奥行きサンプルの最大深度値から導出する。図3に示されるように、視差ベクトル導出プロセスを簡潔にするため、本発明の一実施形態は、関連する奥行きブロックの四隅サンプルで、深度値に基づいて、視差ベクトルを導出する。その後、ビュー間運動ベクトルが、利用できない隣接ブロックA,BおよびCである場合、運動ベクトル予測が、ビュー間運動ベクトルまたは視差ベクトルの中間値として導出する。本発明によると、運動ベクトル予測と同じ導出プロセスを用いて、視差ベクトル予測が導出する。
スキップ/ダイレクトモードにおいて、MVP候補が、所定の導出順序に基づいて導出される。図4に示されるように、3DV−ATMバージョン5にしたがって、隣接ブロックA,BおよびC(Cが利用できないときだけDが用いられる)と関連するビュー間候補と三空間候補が含まれて、ビュー間運動ベクトル(MV)または運動ベクトル予測(MVP)候補を導出する。デコーダ側で、導出したMVP候補の動き情報に従って、動き補正が実行される。動き情報は、運動ベクトルに加え、予測方向(単方向予測または双方向予測)、リファレンス画像タイプ(一時的予測、バーチャル予測またはビュー間予測)およびリファレンス画像インデックスを含む。
ビュー間MVまたはMVP候補導出も図4に示される。従属ビューの現在のブロック410の中心点とその視差ベクトルが用いられ、ベースビューで対応点を見つける。その後、対応点が識別され、ベースビュー中の対応点を被覆するブロック420のMVが、現在のブロックのビュー間MVまたはMVP候補として用いられる。視差ベクトルが、中心点の隣接ブロックまたは深度値から導出する。図4中、隣接ブロックのひとつが視差ベクトル(DV)、たとえば、隣接ブロックAのDVを有する場合、隣接ブロックのDVが視差として用いられて、対応点を設置する。そうでなければ、奥行きベースの視差ベクトルが用いられて、対応点を設置し、奥行きベースの視差ベクトルは、中心点とカメラパラメータの深度値を用いて導出する。図4中の隣接ブロックはブロックA,BとCからなり、それぞれ、現在のブロックの左上側の第一位置、現在のブロックの左上側の第二位置および現在のブロックの対角線上の右上隅の第三位置に対応する。ブロックDは、現在のブロックの対角線上の左上隅の第四位置に対応し、ブロックCが視差ベクトルを有さない場合、ブロックDが用いられて、ブロックCを代替する。
3DV−ATMバージョン2において、インターモードの奥行きベースの視差ベクトル導出が、現在のブロックの最大深度値に基づく。大きいブロックにおいて、現在のブロックの最大値の導出は、大量の計算を含む。本発明の実施形態は、必要な計算を減少させる現在のブロックの四隅サンプルで、深度値間の最大深度値を決定する。一方、3DV−ATMバージョン5中、スキップ/ダイレクトモードの奥行きベースの視差ベクトル導出は、現在のブロックの中央位置の深度値に基づく。前述のように、3DV−ATMバージョン2中、スキップ/ダイレクトモードの奥行きベースの視差ベクトル導出は極めて複雑である。よって、奥行きベースの視差ベクトル導出は、インターモードとスキップ/ダイレクトモード間で異なる。
奥行きベースの視差ベクトル導出を簡潔にするため、本発明の実施形態は、統一された導出方法を用いて、インターモードとスキップ/ダイレクトモード両方の統一された視差ベクトルを生成する。奥行きデータから導出する視差ベクトルが必要とされるとき、統一された導出方法が、インターモードとスキップ/ダイレクトモード両方に適用される。たとえば、図3に示されるように、インターモードとスキップ/ダイレクトモード両方の視差ベクトル導出は、現在のブロックの四隅サンプルで、深度値に基づく。別の実施形態において、図5Aに示されるように、インターモードとスキップ/ダイレクトモード両方の視差ベクトル導出は、現在のブロックの最終行の中間深度値に基づく。さらに別の実施形態において、図5Bに示されるように、インターモードとスキップ/ダイレクトモード両方の視差ベクトル導出は、現在のブロックの最終行の両端の深度値に基づく。関連する奥行きブロックより少ない奥行きサンプルを有する奥行きの別のサブセットは、さらに、インターモードとスキップ/ダイレクトモード両方により用いられて、DV導出方法の複雑度を減少させる。いくつかの実施形態において、現在のブロックに関連するひとつ以上の限界深度値が視差ベクトル導出に用いられる。別の実施形態において、中央深度値が用いられて、視差ベクトルを導出する。中央深度値は、現在のブロックの中央点(図5Cの510で示される)に対し、左上サンプル、右上サンプル、左下サンプル、右下サンプルに対応する。さらに別の実施形態において、中央位置と四隅位置の深度値が用いられる。
最大値に加え、導出した視差ベクトルは、平均値、中央値、最大頻発または関連する奥行きブロックの深度値の線形結合または関連する奥行きブロックのサブセットに対応し、サブセットは、二つ以上の奥行きサンプルを含む。たとえば、導出した視差ベクトルは、関連する奥行きブロックの四隅サンプルの最大値に対し、導出した視差ベクトルは、インターモード、スキップ/ダイレクトモードにより共有される。本発明によると、統一された視差ベクトル導出の使用も、スキップ/ダイレクトモードのビュー間視差ベクトル(DV)または視差ベクトル予測(DVP)候補に適用される。
導出した視差ベクトルが用いられて、適応運動ベクトル予測(AMVP)/インターモードのビュー間運動ベクトルまたは視差ベクトル予測、マージモードまたはスキップモードのビュー間候補、ビュー間動き予測、ビュー間視差予測またはビュー間余剰予測を導出して、リファレンス余剰ブロックを設置する。導出した視差ベクトルが、AMVP/インターモードで、ビュー間運動ベクトル予測として用いられるとき、導出した視差ベクトルはビュー間リファレンス画像を指す。導出した視差ベクトルは、AMVP/インターモードで、ビュー間運動ベクトルまたは視差ベクトル予測の参照ブロックを設置する。導出した視差ベクトルが用いられて、スキップモードまたはダイレクトモードで符号化されるブロックのビュー間運動ベクトルまたは視差候補を導出し、余剰信号も動き情報も、スキップモードで送信されず、ダイレクトモードで送信されない。導出した視差ベクトルは、インターモードで、方向−分離運動ベクトル予測として用いられる。導出した視差ベクトルは、スキップ/ダイレクトモードの優先ベースのMVP候補導出で用いられて、リファレンスビューで、対応点を設置する。
3DV−ATMバージョン5.1に基づいて、インターモードとスキップ/ダイレクトモードの統一された視差ベクトル導出方法が、アンカーシステムと比較される。本発明の一実施形態によると、3DV−ATMバージョン5.1中、インターモードとスキップ/ダイレクトモード両方において、アクセスされる奥行きサンプル数量は4(つまり、現在のブロックに関連する四隅サンプルの深度値)である。一方、インターモードにおいて、奥行きサンプルの数量は4(つまり、現在のブロックの四隅サンプルの深度値)で、スキップ/ダイレクトモードにおいて、奥行きサンプル数量は1(つまり、現在のブロックに関連する中央深度値)である。性能比較は表1に示され、3DV−ATMv.5.1に基づくシステムがリファレンスとして用いられる。値“dBR”はパーセンテージ(%)で表されるビットレートの差に対応し、負の値は、リファレンスシステムと比較して減少したビットレートを意味する。値“dPSNR”はデシベル(dB)で表されるピーク信号対雑音比(PSNR)の差に対応し、正値は改善されたPSNRのことである。比較は、異なるテストビデオセット(S01−S08)に基づく。表1に示されるように、本発明による方法は、テクスチャ符号化、テクスチャおよび奥行き符号化および合成されたビデオのわずかに低い平均ビットレートで、ほぼ同じPSNRを達成する。
Figure 2015525999
別の比較が実行され、統一された視差導出方法は、インターモードとスキップ/ダイレクトモード両方の一奥行きサンプル(つまり、現在のブロックの中央深度値)に基づく。一方、前のように、アンカーシステムは3DV−ATMバージョン5.1に基づく。結果は表2に示される。表2に示されるように、本発明による方法は、テクスチャ符号化、テクスチャおよび奥行き符号化と合成されたビデオのわずかに高いビットレートで、同じPSNRを達成する。
Figure 2015525999
フラグは、奥行き情報からの視差ベクトルを導出する統一された導出方法が、インターモードとスキップ/ダイレクトモードにより共有されるかを示すのに用いられる。フラグは、シーケンスレベル、ピクチャ、スライスレベル、最大符号化ユニット(LCU)レベルまたはビットストリームの符号化レベルに組み込まれる。
図6は、本発明の一実施形態によるとインターモードとスキップ/ダイレクトモードの統一された導出方法を組み込んだ三次元符号化または復号化システムのフローチャートである。ステップ610において、システムは、現在のブロックの運動ベクトルまたは視差ベクトルに関連する入力データを受信する。符号化において、入力データは、予測的に符号化される現在のブロックに関連する運動ベクトルまたは視差ベクトルに対応する。復号化において、第一データは、運動ベクトルまたは視差ベクトルの余剰データ(つまり、予測差異)に対応する。入力データは、ストレージ、たとえば、コンピュータメモリ、バッファ(RAMまたはDRAM)または別の媒体から検索される。入力データは、さらに、プロセッサ、たとえば、コントローラー、中央処理装置、デジタル信号プロセッサまたは第一データを生成する電子回路から受信される。ステップ620において、統一された導出方法が用いられて、現在のブロックに対応する関連する奥行きブロックの奥行きデータから、統一された視差ベクトルを導出し、統一された導出方法は、関連する奥行きブロック中、奥行きサンプルのサブセットから、統一された視差ベクトルを生成し、奥行きデータから導出する一視差ベクトルが、符号化または復号化するに必要とされるとき、統一された導出方法が、インターモード、スキップモード、または、ダイレクトモードに適用され、サブセットは、関連する奥行きブロックより少ない奥行きサンプルを含む。その後、ステップ630において、スキップモードまたはダイレクトモードのインターモードまたは空間候補が現在のブロックに選択される場合、視差ベクトル予測または運動ベクトル予測を用いて、符号化または復号化が入力データに適用される。
上述の記述が提示され、当業者は、特定のアプリケーションとその要求の内容で提供されるように、本発明を実施することができる。記述された具体例への各種修正は当業者には明らかであり、ここで定義される一般原則は別の実施形態に適用できる。よって、本発明は、図示および記述される特定の実施形態に限定されず、開示される原則と新規特徴と一致する幅広い範囲が認められる。上記の詳細な説明において、本発明を十分に理解するため、各種特定の詳細が説明されている。
上述される本発明の実施形態は、各種ハードウェア、ソフトウェアコード、または、それらの組み合わせで実行される。たとえば、本発明の実施形態は、ビデオ圧縮チップに整合される回路またはビデオ圧縮ソフトウェアに整合されるプログラムコードで、ここで記述される処理を実行する。本発明の実施形態は、デジタル信号プロセッサ(DSP)で実行されるプログラムコードで、ここで記述される処理を実行する。本発明は、さらに、コンピュータプロセッサ、デジタル信号プロセッサ、マイクロプロセッサ、または、フィールドプログラマブルゲートアレイ(FPGA)により実行される複数の機能を含む。これらのプロセッサは、本発明により具体化される特定の方法を定義する機械可読ソフトウェアコードまたはファームウェアコードを実行することにより、本発明による特定のタスクを実行することができる。ソフトウェアコードまたはファームウェアコードは、異なるプログラミング言語および異なるフォーマットまたはスタイルで展開される。ソフトウェアコードは、異なるターゲットプラットフォームにコンパイルされる。しかし、本発明に関連するタスクを実行する異なるコードフォーマット、ソフトウェアコードのスタイルと言語および設定コードの別の手段は、本発明の精神と領域を脱しない。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変動や潤色を加えることができ、従って本発明の保護範囲は、特許請求の範囲で指定した内容を基準とする。

Claims (11)

  1. 三次元ビデオ符号化または復号化システムのための方法であって、前記方法は、
    現在のブロックの運動ベクトルまたは視差ベクトルに関連する入力データを受信する工程と、
    統一された導出方法を用いて、前記現在のブロックに対応する関連する奥行きブロックの奥行きデータから、統一された視差ベクトルを導出する工程であって、前記統一された導出方法は、前記関連する奥行きブロック中の奥行きサンプルのサブセットから、前記統一された視差ベクトルを生成し、且つ、前記統一された導出方法は、奥行きデータから導出された一視差ベクトルが符号化または復号化に必要とされるとき、インターモード、スキップモード、または、ダイレクトモードに適用され、前記サブセットが、前記関連する奥行きブロックより少ない奥行きサンプルを含むものであるところの当該工程と、
    前記インターモード、スキップモード、または、ダイレクトモードで、前記統一された視差ベクトルを用いて、前記入力データを符号化するまたは復号化する工程と、
    を含むことを特徴とする方法。
  2. さらに、
    前記統一された視差ベクトルを用いて、前記現在のブロックの隣接するブロックセットに基づいて、ひとつ以上の視差ベクトル予測またはひとつ以上の運動ベクトル予測を決定し、前記隣接するブロックセット中の前記第一ブロックが、視差ベクトルを有さない場合、前記隣接するブロックセット中の第一ブロックに関連する一視差ベクトルが、前記統一された視差ベクトルから生成され、前記隣接するブロックセット中の前記第二ブロックが運動ベクトルを有さない場合、前記隣接するブロックセット中の第二ブロックに関連する一運動ベクトル予測が、前記統一された視差ベクトルにより設置される対応するブロックから生成される工程と、
    前記統一された視差ベクトルを用いて決定される前記視差ベクトル予測または運動ベクトル予測を用いて符号化または復号化される工程と、
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記ひとつ以上の運動ベクトル予測または前記ひとつ以上の視差ベクトル予測は、検索順序にしたがって、前記現在のブロックの前記隣接するブロックセットから決定されることを特徴とする請求項2に記載の方法。
  4. 前記統一された視差ベクトルは、視差補償予測(DCP)、方向−分離運動ベクトル予測、ビュー間動き予測またはビュー間余剰予測のビュー間画像において、対応するブロックを設置するのに用いられることを特徴とする請求項1に記載の方法。
  5. 前記サブセットは、前記関連する奥行きブロックのひとつ以上の境界サンプルを含むことを特徴とする請求項1に記載の方法。
  6. 前記サブセットは、さらに、前記関連する奥行きブロックの中央サンプルを含むことを特徴とする請求項5に記載の方法。
  7. 前記サブセットは、前記関連する奥行きブロックの四隅サンプルを含むことを特徴とする請求項5に記載の方法。
  8. 前記統一された視差ベクトルは、最大値、平均値、中央値、最大頻発または前記関連する奥行きブロックの前記サブセットの深度値の線形結合に対応し、前記サブセットは、二つ以上の奥行きサンプルを含むことを特徴とする請求項1に記載の方法。
  9. 前記統一された導出方法が、インターモード、スキップモードおよびダイレクトモードにより共有されるかを示すフラグが用いられることを特徴とする請求項1に記載の方法。
  10. さらに、
    前記現在のブロックの隣接するブロックセットに基づいて、ひとつ以上の視差ベクトル予測を決定し、前記隣接するブロックセット中の前記一ブロックが視差ベクトルを有さない場合、前記隣接するブロックセット中の一ブロックに関連する一視差ベクトル予測が、前記統一された視差ベクトルから生成される工程と、
    前記ひとつ以上の視差ベクトル予測から導出する一視差ベクトルにより設置される対応するブロックから生成される運動ベクトル候補を決定する工程と、
    前記運動ベクトル候補を用いて、前記入力データを符号化または復号化する工程と、
    を含むことを特徴とする請求項1に記載の方法。
  11. 三次元ビデオ符号化または復号化システムのための装置であって、前記装置は、
    現在のブロックの運動ベクトルまたは視差ベクトルに関連する入力データを受信する手段と、
    統一された導出手段を用いて、前記現在のブロックに対応する関連する奥行きブロックの奥行きデータから、統一された視差ベクトルを導出する手段であって、前記統一された導出手段は、前記関連する奥行きブロックの奥行きサンプルのサブセットから、前記統一された視差ベクトルを生成し、且つ、前記統一された導出手段は、奥行きデータから導出する一視差ベクトルが符号化または復号化に必要とされるとき、インターモード、スキップモード、または、ダイレクトモードに適用され、前記サブセットは、前記関連する奥行きブロックより少ない奥行きサンプルを含むものであるところの当該手段と、
    前記インターモード、スキップモード、または、ダイレクトモードにおいて、前記統一された視差ベクトルを用いて、前記入力データを符号化または復号化する手段と、
    を含むことを特徴とする装置。
JP2015518828A 2012-07-05 2013-07-05 3dビデオ符号化における統一された視差ベクトル導出の方法と装置 Active JP5970609B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261668424P 2012-07-05 2012-07-05
US61/668,424 2012-07-05
US201261744888P 2012-10-03 2012-10-03
US61/744,888 2013-03-08
PCT/CN2013/078881 WO2014005548A1 (en) 2012-07-05 2013-07-05 Method and apparatus of unified disparity vector derivation for 3d video coding

Publications (2)

Publication Number Publication Date
JP2015525999A true JP2015525999A (ja) 2015-09-07
JP5970609B2 JP5970609B2 (ja) 2016-08-17

Family

ID=49881360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015518828A Active JP5970609B2 (ja) 2012-07-05 2013-07-05 3dビデオ符号化における統一された視差ベクトル導出の方法と装置

Country Status (5)

Country Link
US (1) US9843820B2 (ja)
EP (1) EP2842334B1 (ja)
JP (1) JP5970609B2 (ja)
CN (1) CN104412597B (ja)
WO (1) WO2014005548A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018064291A (ja) * 2012-07-10 2018-04-19 シャープ株式会社 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法
US10123007B2 (en) 2013-01-08 2018-11-06 Lg Electronics Inc. Method and apparatus for processing video signal

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103907346B (zh) * 2011-10-11 2017-05-24 联发科技股份有限公司 运动矢量预测子及视差矢量导出方法及其装置
CN104704819B (zh) * 2012-10-03 2016-12-21 联发科技股份有限公司 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置
CN104737536A (zh) * 2012-10-22 2015-06-24 数码士控股有限公司 用于在预测3维图像的视点间运动矢量时导出视差矢量的方法
WO2014106496A1 (en) * 2013-01-07 2014-07-10 Mediatek Inc. Method and apparatus of depth to disparity vector conversion for three-dimensional video coding
FR3002716A1 (fr) 2013-02-26 2014-08-29 France Telecom Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation
WO2014166349A1 (en) * 2013-04-10 2014-10-16 Mediatek Inc. Method and apparatus of disparity vector derivation for three-dimensional and multi-view video coding
US9800895B2 (en) 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
JP2016526853A (ja) * 2013-07-12 2016-09-05 サムスン エレクトロニクス カンパニー リミテッド 深さ基盤ディスパリティベクトルを利用するインターレイヤビデオ復号化方法及びその装置、並びに深さ基盤ディスパリティベクトルを利用するインターレイヤビデオ符号化方法及びその装置
KR101631281B1 (ko) * 2013-07-12 2016-06-16 삼성전자주식회사 뷰 합성 예측을 이용한 인터 레이어 비디오 복호화 방법 및 그 장치 뷰 합성 예측을 이용한 인터 레이어 비디오 부호화 방법 및 장치
JP6545672B2 (ja) * 2013-10-18 2019-07-17 エルジー エレクトロニクス インコーポレイティド マルチビュービデオコーディングにおいて、ビュー合成予測方法及びこれを利用したマージ候補リスト構成方法
KR102260146B1 (ko) * 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치
CN106471807B (zh) 2014-10-09 2019-08-23 寰发股份有限公司 包括视角合成预测的三维或多视角视频的编码方法
CN104333760B (zh) 2014-10-10 2018-11-06 华为技术有限公司 三维图像编码方法和三维图像解码方法及相关装置
CN112188207B (zh) 2014-10-31 2023-10-20 三星电子株式会社 使用高精度跳过编码的视频编码设备和视频解码设备及其方法
CN108600749B (zh) 2015-08-29 2021-12-28 华为技术有限公司 图像预测的方法及设备
US10728542B2 (en) * 2018-04-09 2020-07-28 Tencent America LLC Methods and apparatuses for sub-block motion vector prediction
US11463723B2 (en) 2018-12-26 2022-10-04 Apple Inc. Method for encoding/decoding image signal and device therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010502945A (ja) * 2006-09-04 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
JP2011519226A (ja) * 2008-04-25 2011-06-30 トムソン ライセンシング 奥行きを用いた視点間スキップモード
JP2012100019A (ja) * 2010-11-01 2012-05-24 Sharp Corp 多視点画像符号化装置及び多視点画像復号装置
WO2013053309A1 (en) * 2011-10-11 2013-04-18 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8823821B2 (en) * 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
CN101056398A (zh) * 2006-03-29 2007-10-17 清华大学 一种多视编码过程中获取视差矢量的方法及编解码方法
JP4605715B2 (ja) * 2006-06-14 2011-01-05 Kddi株式会社 多視点画像圧縮符号化方法、装置及びプログラム
WO2008088175A1 (en) * 2007-01-17 2008-07-24 Lg Electronics Inc. Method and apparatus for processing a video signal
BRPI0811469A8 (pt) * 2007-06-28 2019-01-22 Thomson Licensing métodos e dispositivo em um codificador e decodificador para suportar decodificação de ciclo simples de vídeo codificado em imagem multivista
CN101453662B (zh) * 2007-12-03 2012-04-04 华为技术有限公司 立体视频通信终端、系统及方法
CN101483770B (zh) 2008-01-08 2011-03-16 华为技术有限公司 一种编解码方法及装置
EP2348732A4 (en) * 2008-11-10 2012-05-09 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING VIDEO SIGNAL BY INTER-VIEW PREDICTION
US8687050B2 (en) * 2010-12-02 2014-04-01 Tektronix, Inc. Stereoscopic extinction ratio test pattern
US9503702B2 (en) * 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
WO2013162273A1 (ko) * 2012-04-24 2013-10-31 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9258562B2 (en) * 2012-06-13 2016-02-09 Qualcomm Incorporated Derivation of depth map estimate
CN107346061B (zh) * 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US9253486B2 (en) * 2012-09-28 2016-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion field backward warping using neighboring blocks in videos
US9264691B2 (en) * 2012-09-28 2016-02-16 Mitsubishi Electric Research Laboratories, Inc. Method and system for backward 3D-view synthesis prediction using neighboring blocks
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9667996B2 (en) * 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010502945A (ja) * 2006-09-04 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
JP2011519226A (ja) * 2008-04-25 2011-06-30 トムソン ライセンシング 奥行きを用いた視点間スキップモード
JP2012100019A (ja) * 2010-11-01 2012-05-24 Sharp Corp 多視点画像符号化装置及び多視点画像復号装置
WO2013053309A1 (en) * 2011-10-11 2013-04-18 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JPN6016003657; Christian Bartnik et.al.: 'HEVC Extension for Multiview Video Coding and Multiview Video plus Depth Coding' ITU - Telecommunications Standardization Sector STUDY GROUP 16 Question 6 Video Coding Experts Group VCEG-AR13, 201202, pp.1-42, 44nd Meeting: San Jose, CA, &#xFF3 *
JPN6016003659; Kiran Nanjunda Iyer et.al.: 'MULTIVIEW VIDEO CODING USING DEPTH BASED 3D WARPING' 2010 International Conference on Multimedia and Expo (ICME) , 201007, pp.1108 - 1113, IEEE *
JPN6016003661; Cheon Lee and Yo-Sung Ho: 'A Framework of 3D Video Coding usingView Synthesis Prediction' Picture Coding Symposium (PCS2012) , 201205, pp.9-12, IEEE *
JPN6016003663; Dmytro Rusanovskyy et al.: 'Suggestion for a depth-enhanced multiview video coding extension to H.264 Annex A: Nokia 3DV Test Mo' ITU - Telecommunications Standardization Sector STUDY GROUP 16 Question 6 Video Coding Experts Group VCEG-AR14-AnnexA, 201202, pp.1-14, 4 *
JPN6016003664; Jian-Liang Lin et al.: '3D-CE5.h related: Simplification on disparity vector derivation for HEVC-based 3D video coding' Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3 and ISO/IEC JT JCT2-A0047_r1, 201207, pp.1-3, 1st Meeting: St& *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018064291A (ja) * 2012-07-10 2018-04-19 シャープ株式会社 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法
US10123007B2 (en) 2013-01-08 2018-11-06 Lg Electronics Inc. Method and apparatus for processing video signal

Also Published As

Publication number Publication date
CN104412597B (zh) 2017-09-08
CN104412597A (zh) 2015-03-11
EP2842334B1 (en) 2019-02-20
US20150201216A1 (en) 2015-07-16
US9843820B2 (en) 2017-12-12
WO2014005548A1 (en) 2014-01-09
JP5970609B2 (ja) 2016-08-17
EP2842334A1 (en) 2015-03-04
EP2842334A4 (en) 2015-12-23

Similar Documents

Publication Publication Date Title
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
JP6633694B2 (ja) 多視点信号コーデック
US9924168B2 (en) Method and apparatus of motion vector derivation 3D video coding
US10021367B2 (en) Method and apparatus of inter-view candidate derivation for three-dimensional video coding
KR101753171B1 (ko) 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법
US20160309186A1 (en) Method of constrain disparity vector derivation in 3d video coding
US9961369B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
US9736498B2 (en) Method and apparatus of disparity vector derivation and inter-view motion vector prediction for 3D video coding
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
US9967586B2 (en) Method and apparatus of spatial motion vector prediction derivation for direct and skip modes in three-dimensional video coding
WO2014075615A1 (en) Method and apparatus for residual prediction in three-dimensional video coding
JP2015528649A (ja) 3dシーンの1以上のビデオを処理する方法
JP2015525997A (ja) 3dビデオ符号化におけるビュー間候補導出の方法と装置
JP2016513925A (ja) 3dビデオ符号化におけるビュー合成予測の方法と装置
US10341638B2 (en) Method and apparatus of depth to disparity vector conversion for three-dimensional video coding
US20160119643A1 (en) Method and Apparatus for Advanced Temporal Residual Prediction in Three-Dimensional Video Coding
CN105144714A (zh) 三维视频编码的视差向量推导的方法及装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R150 Certificate of patent or registration of utility model

Ref document number: 5970609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250