JP2016513924A - 三次元ビデオ符号化の視点間候補導出の方法と装置 - Google Patents

三次元ビデオ符号化の視点間候補導出の方法と装置 Download PDF

Info

Publication number
JP2016513924A
JP2016513924A JP2015561933A JP2015561933A JP2016513924A JP 2016513924 A JP2016513924 A JP 2016513924A JP 2015561933 A JP2015561933 A JP 2015561933A JP 2015561933 A JP2015561933 A JP 2015561933A JP 2016513924 A JP2016513924 A JP 2016513924A
Authority
JP
Japan
Prior art keywords
candidate
view
inter
candidate list
interview
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015561933A
Other languages
English (en)
Other versions
JP6389833B2 (ja
Inventor
ジャン−リャン リン,
ジャン−リャン リン,
イー−ウェン チェン,
イー−ウェン チェン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2016513924A publication Critical patent/JP2016513924A/ja
Application granted granted Critical
Publication of JP6389833B2 publication Critical patent/JP6389833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

【課題】Mergeモード、Skipモード又はAMVPベースInterモードの候補リスト中、第二視点間候補を含む候補リストを用いた三次元/多視点符号化の方法と装置を提供する。【解決手段】第二視点間候補が、候補リストのすでに符号化された又は復号化されたテクスチャデータに基づいて生成される。たとえば、第二視点間候補は、リファレンスビュー中の対応するブロックに関連する動き情報から決定され、対応するブロックは、右下の隣接ブロックの位置と選択された視差ベクトルに従って配置される。右下の隣接ブロックは現在のテクスチャブロックの右下隅から横切るように位置する。前の利用可能な候補の数量が前もって指定された数量より少ないときだけ、第二視点間候補が候補リストに挿入される。【選択図】 図3

Description

この出願は、2013年4月10日に出願された“Additional Inter-view Candidate for 3D and Multi-view Video Coding”と題された米国特許仮出願番号61/810,383から、優先権を主張するものであり、その内容は引用によって本願に援用される。
本発明はビデオ符号化に関するものであって、特に、本発明は、三次元/マルチビュー(多視点)ビデオ符号化における動きベクトル/視差ベクトル、または、動きベクトル予測/視差ベクトル予測のインタービュー(視点間)候補導出に関するものである。
三次元(3D)テレビは、近年、視聴者に、センセーショナルな視覚体験をもたらす技術となっている。マルチビュービデオ(多視点ビデオ)は、3Dビデオを捕捉、および、表示する技術である。マルチビュービデオは、通常、複数のカメラを同時に利用して、シーンを捕捉することにより生成され、複数のカメラが適切に設置されて、各カメラが、1ビューポイント(1視点)からシーンを捕捉することができる。視点に関連する大量のビデオシーケンスを有するマルチビュービデオは大量のデータを表す。したがって、マルチビュービデオは、保存のための大きいストレージ空間、および/または、送信のための高帯域幅を必要とする。これにより、マルチビュービデオ符号化技術は、必要なストレージ空間と伝送帯域幅を減少させる領域で発展してきた。真正面から取り組むやり方は、単に、従来のビデオ符号化技術を各単一ビュービデオシーケンス(単一視点ビデオシーケンス)に独立して応用するだけで、異なるビュー間の相互関係を無視する。このような直接的な技術は符号化パフォーマンスを低下させる。マルチビュービデオ符号化効率を改善するため、マルチビュービデオ符号化は、常に、インタービュー冗長性(視点間冗長性)を有効に使う。2視点間の視差は2つの対応するカメラの位置と角度により生じる。
インタービュー冗長性を減少させるため、視差−補償予測(DCP)が代替案として、動き補償予測(MCP)に用いられている。図1に示されるように、MCPは、異なるアクセスユニット中の同じ視点のすでに符号化されたピクチャを用いるピクチャ内予測を参照し、DCPは、同じアクセスユニット中の別の視点のすでに符号化されたピクチャを用いるピクチャ内予測を参照する。三次元/マルチビューデータは、テクスチャピクチャ(110)と深度図(120)から構成される。動き補償予測は、一時的方向(すなわち、図1中水平方向)で、テクスチャピクチャ、または、深度図に適用される。視差補償予測は、視点方向(すなわち、図1中垂直方向)で、テクスチャピクチャ、または、深度図に適用される。DCPに用いられるベクトルは視差ベクトル(DV)と称され、MCPに用いられる動きベクトル(MV)に類似する。
3D−HEVCは、3Dビデオの符号化/復号化に発展するHEVC(高効率ビデオ符号化)の延伸である。視点のひとつは、ベースビュー、または、独立ビューと称される。ベースビューは、深さデータと同様に、独立して符号化された別の視点である。さらに、ベースビューは、従来のHEVCビデオコーダーを用いて符号化される。
3D−HEVCにおいて、今でも、ハイブリッドブロックベースの動き補償DCT類転換符号化機構が用いられている。符号化ユニット(CU)と称される圧縮の基本ユニットは2Nx2N四角ブロックで、且つ、所定の最小サイズになるまで、各CUは、再帰的に、4個の小さいCUに分割される。各CUはひとつ以上の予測ユニット(PU)を含む。PUサイズは、2Nx2N、2NxN、Nx2N、または、NxNである。非対称運動パーティション(asymmetric motion partition、AMP)がサポートされるとき、PUサイズは、2NxnU、2NxnD、nLx2NおよびnRx2Nでもよい。
3D−HEVCにおいて、動きベクトル競争(MVC)ベースのスキームも、所定の候補集合(または、候補リスト)間で、動きベクトル予測/視差ベクトル予測(MVP/DVP)を選択するのに適用される。3つのインター予測モード、Inter(インター)、Skip(スキップ)およびMerge(マージ、併合)がある。Interモードは、送信された動きベクトル/視差ベクトル(MV/DV)で、動き補償予測/視差−補償予測を実行し、SkipとMergeモードは、推論手法を用いて、候補リストから、MV、または、DVを選択して、動き情報を得る。候補リストは、現在のピクチャに位置する空間的隣接ブロック、スライスヘッダー、または、インタービューリファレンス画像中(視点間基準画像中、視点間参照画像中)の対応するブロックでシグナリングされる一時的配列ピクチャ中に位置する一時的隣接ブロックからの候補を有する。これらの候補は、競争順序にしたがって、候補リスト中にアレンジされ、リスト中の一候補は、MV/DV、または、MVP/DVPとして選択される。PUが、Skip、または、Mergeモードで符号化されるとき、選択された候補の索引を除けば、動き情報が送信されない。Skipモードで符号化されるPUについて、残留信号も省略される。
HTM−4.0(3D−HEVC based Test Model version 4.0)中のInterモードにおいて、アドバンスト動きベクトル予測(AMVP)スキームが、AMVP候補集合間の動きベクトル予測を選択するのに用いられる。MergeとSkipモードにおいて、Mergeスキームが、Merge候補集合間の動きベクトル予測を選択するの用いられる。レート歪み最適化(rate-distortion optimization、RDO)決定に基づいて、エンコーダは、Inter、Skip、または、MergeモードのMVP/DVPの所定の候補集合中で、1つの最終MVP/DVPを選択すると共に、選択されたMVP/DVPの索引をデコーダに送信する。選択されたMVP/DVPは、一時的距離、または、視点距離にしたがって、線形で拡大縮小される。
深さ符号化のInterモードにおいて、リファレンス画像索引が、明示的に、デコーダに送信される。その後、MVP/DVPが、所定のリファレンス画像索引の候補集合間で選択される。図2に示されるように、HTM−4.0中のInterモードのMVP/DVP候補集合は、2個の空間的MVP/DVP、インタービュー候補(視点間候補)、および、一時的MVP/DVPを有する。ある空間的MVP/DVP候補はB0、B1とB2から選択され、その他の空間的MVP/DVP候補はA0とA1から選択される。一時的MVP/DVP候補はTBRから選択される。TBRが利用不可である場合、TCTが用いられる。一時的ブロックTBRとTCTは、一時的リファレンス画像中に位置する。MVP/DVP候補集合のサイズは、インタービュー候補が含まれるかどうかに基づいて、2か3に固定される。
3D−HEVCにおいて、特定のブロックがMergeモードを用いて符号化される場合、Merge索引がシグナリングされて、Merge候補集合中のどのMVP/DVP候補が、統合されるこのブロックに用いられるかを示す。動き情報共有の本質を理解するため、各統合されたPUは、選択された候補のMV、予測方向、および、リファレンス画像索引を再利用する。一時的統合候補において、リファレンス画像索引がゼロに設定され、且つ、MVは、POC距離にしたがって縮尺される。図2に示されるように、Merge候補集合は、5個の空間的統合候補、1つのインタービュー候補、1つの視差候補、1つのVSP候補、および、一つの一時的統合候補を有する。Merge候補集合のサイズは6に固定される。一時的候補は、一時的に配列されるブロックの右下ブロック(TBR)に基づく。右下ブロック(TBR)が、利用不可である場合、一時的に配列されるブロックの中央ブロック(TCT)が用いられる。3D−HEVC中のテクスチャ符号化の候補集合は以下のように示される:
インタービュー候補
- A1
- B1
- B0
- A0
- 視差候補(DV)
- B2
- VSP候補
- 一時的候補.
候補は、上述の競争順序(すなわち、インタービュー候補から一時的候補)にしたがって、ひとつづつ、候補リストに挿入される。併合候補リスト(マージ候補リスト)中の候補の総数が6に達するとき(with redundant candidates removed)、挿入される追加の候補がない。
MergeモードとSkipモードにおいて、候補リストがよいMV/DV、または、MVP/DVPをもたらす場合、さらに多くのブロックが、Mergeモード、または、Skipモードで符号化される。したがって、符号化効率が改善される。これにより、符号化効率を改善することができる併合候補リストを発展させることが望まれる。
Mergeモード、Skipモード、または、AMVPベース(アドバンスト動きベクトル予測ベース)Interモードの候補リスト中の第二インタービュー候補を含む候補リストを用いた三次元/マルチビュー符号化の方法と装置が開示される。
本発明による具体例は、候補リストの前記のすでに符号化された、または、復号化されたテクスチャデータに基づいて、第二インタービュー候補を生成すると共に、候補リストを用いて、現在のテクスチャブロックの動き情報を符号化/復号化する。第二インタービュー候補は、リファレンスビュー中の対応するブロックに関連する動き情報から決定され、対応するブロックは、右下の隣接ブロックの位置と選択された視差ベクトルに従って配置される。右下の隣接ブロックは、現在のテクスチャブロックの右下隅から横切るように配置される。
本発明の一態様は、選択された視差ベクトルの導出にアドレスする。一実施態様において、選択された視差ベクトルは、同一の視差ベクトルで、第一インタービュー候補を生成する。候補リストが視差候補を有するとき、選択された視差ベクトルは、視差候補と同じである。選択された視差ベクトルは、さらに、現在のテクスチャブロックに関連するすでに符号化された深さブロックのひとつ以上の深さサンプルから生成される。選択された視差ベクトルは、グローバル視差ベクトルから生成される。候補リストが一時的候補を有するとき、第二インタービュー候補は、競争順序にしたがって、一時的候補の前に、候補リストに挿入される。
第二インタービュー候補は、条件付きで、候補リストに挿入される。たとえば、前の利用可能な候補の数量が前もって指定された数量より少ないときだけ、第二インタービュー候補が候補リストに挿入される。あるいは、第一インタービュー候補が利用不可であるときだけ、第二インタービュー候補が候補リストに挿入される。候補リスト構成を簡潔にするため、冗長性確認のために、第二インタービュー候補が第一インタービュー候補と比較される。一実施態様において、第一インタービュー候補は、競争順序にしたがって、常に、候補リストの第一位置に位置する。第一インタービュー候補が利用不可である場合、第二インタービュー候補により代替される。第二インタービュー候補も利用不可である場合、デフォルト値が用いられる。第二インタービュー候補が候補リストに挿入されるとき、候補リスト中の候補の総数は1増加する。
一実施態様において、第二インタービュー候補が候補リストから選択されるとき、インタービュー残差予測(視点間残差予測)は現在のテクスチャブロックに適用されない。別の実施例において、第二インタービュー候補が候補リストから選択されるとき、インタービュー残差予測が現在のテクスチャブロックに適用される。さらに別の実施例において、第二インタービュー候補が候補リストから選択されるとき、インタービュー残差予測は、選択的に、システム構成、または、フラグに基づいて、現在のテクスチャブロックに適用される。第二インタービュー候補は、視差ベクトルにしたがって生成され、視差ベクトルが、現在のテクスチャブロックの後続ブロックの第二視差ベクトルを生成するのに用いられる。
動き補償予測(MCP)と視差補償予測(DCP)が用いられる三次元/マルチビュー符号化の例を示す図である。 高効率ビデオ符号化基準にしたがって、Merge/Skip/Interモードの候補リストを生成するのに用いられる空間的と一時的隣接ブロック設置を示す図である。 2個のインタービュー候補が併合候補リスト中に含まれる本発明の具体例を組み込んだ併合候補リストの例を示す図である。 本発明の具体例を組み込んだ三次元とマルチビュー符号化システムにおけるMergeモード、Skipモード、または、AMVP−ベースのInterモードの候補リストを生成するフローチャートである。
本発明において、追加インタービュー候補(追加視点間候補)が併合候補リストに組み込まれて、三次元/マルチビュー符号化システム(多視点符号化システム)の符号化効率を改善する。図3に示されるように、実施例による追加インタービュー候補(320)が、リファレンスビュー中の対応するブロックから生成され、対応するブロックは、選択された視差ベクトルによりシフトされる右下の隣接ブロック(ブロックH位置)の位置にしたがって配置される。右下の隣接ブロックは、現在のテクスチャブロック右下隅から横切るように配置される。選択された視差ベクトルは、第一インタービュー候補(310)の導出に用いられるものと同じ、または、併合候補リスト中の視差候補と同じである。
選択された視差ベクトルは、第一インタービュー候補の導出に用いられる視差ベクトル、または、視差候補プラスオフセット値である。オフセット値は、水平、垂直、または、水平と垂直両方の方向で加えられる。
選択された視差ベクトルは、さらに、隣接空間ブロック、または、一時的ブロックの視差ベクトルから決定される。さらに、選択された視差ベクトルが、さらに、関連する深さブロックから生成される。選択された視差ベクトルは、さらに、グローバル視差ベクトルから生成される。
追加インタービュー候補は、さらに、選択された視差ベクトルによりシフトされる別の位置(たとえば、ブロックA0、A1、B0、B1またはB2)により配置されるリファレンスビュー中の対応するブロックから生成される。
追加インタービュー候補は、任意の可能は位置で、併合候補リスト中に挿入される。たとえば、併合候補リストは競争順序(すなわち、高優先順序に対応する第一)の通りである:
テクスチャ符号化の併合候補リスト(サイズ=6)
インタービュー候補1
- A1
- B1
- B0
- 視差候補(N’<=4のとき)
- A0
- B2(N’<=4のときだけ)
- VSP候補(N’<=4のときだけ)
- インタービュー候補2(N’<=4のとき)
- 一時的候補(N’<=5のとき)、
N’は現在の候補を挿入するときまでの利用可能な候補の数量を示す整数である。
上述の例において、併合候補リストのサイズは6で、且つ、追加インタービュー候補(すなわち、第二インタービュー候補)は一時的候補(競争順序中)の前に挿入される。一実施態様において、本発明による追加インタービュー候補はある所定条件下で加えられる。上述の例において、追加インタービュー候補は、前の利用可能な候補数量が4またはそれより小さいときだけ加えられる。つまり、追加インタービュー候補は、前の利用可能な候補の数量が前もって指定された数量より少ないときだけ、候補リストに挿入される。
選別過程において、追加インタービュー候補は、すべての前の候補と比較されて、冗長性を除去する。簡潔にするため、追加インタービュー候補は第一インタービュー候補とだけ比較され、且つ、第一インタービュー候補と同じである場合、追加インタービュー候補は併合候補リスト中に追加されない。
別の実施例において、追加インタービュー候補は、第一インタービュー候補が利用不可であるときだけ、併合候補リストに加えられる。
本発明のさらにべつの実施例において、インタービュー候補は、常に、固定候補索引を有する候補に対応する。たとえば、候補索引=0である場合、インタービュー候補は、常に、Inter、Merge、または、Skipモードの候補リスト中、第一位置にある。インタービュー候補が候補索引=0に対応し、且つ、第一インタービュー候補が利用不可であるとき、インタービュー候補は、追加インタービュー候補(すなわち、第二インタービュー候補)により代替される。追加インタービュー候補が利用不可である場合、インタービュー候補は、デフォルト候補、たとえば、ゼロMVPにより代替される。
上述の追加インタービュー候補は、さらに、AMVP候補リストに加えられる。
本発明による追加インタービュー候補が、併合候補リスト、または、AMVP候補リスト中に含まれるとき、候補リストのサイズは1増加する。たとえば、HTM−6.0において、従属ビューを符号化する併合候補リストのサイズは6で、且つ、追加インタービュー候補が候補リスト中に含まれるとき、サイズは7に増加する。
三次元/マルチビュー符号化システムが複雑な制約を有する、または、複雑性を減少させることを好む場合、本発明による追加インタービュー候補が、MV/DV、または、MVP/DVPとして候補リストから選択されるとき、追加インタービュー候補はインタービュー残差予測に適用されない。
一方、三次元/マルチビュー符号化システムが、改善された符号化ゲインを有することを好む場合、本発明による追加インタービュー候補が、MV/DV、または、MVP/DVPとして、候補リストから選択されるとき、追加インタービュー候補がインタービュー残差予測に適用される。
あるいは、本発明による追加インタービュー候補が、MV/DV、または、MVP/DVPとして、候補リストから選択されるとき、追加インタービュー候補は、選択的に、インタービュー残差予測に適用される。この選択は、システム構成、たとえば、低複雑度、または、高性能の優先権に基づく。この選択は、フラグにより示される。
追加インタービュー候補を生成する選択されたDVは、以下のCU/PUのDV導出に用いられる。
追加インタービュー候補を有する本発明の具体例を組み込んだ3D/マルチビュービデオ符号化システムのパフォーマンスが、表1に示されるように、HTM−6.0に基づいて、従来のシステムのパフォーマンスと比較される。性能比較は、第一カラムでリストされる異なる組のテストデータに基づく。BD率差は、view 1(video 1)とview 2(video 2)中のテクスチャピクチャに示される。BD率の負値は、本発明がよい性能を有することを意味する。表1に示されるように、本発明の具体例を組み込んだvideo 1とvideo 2のBD率は、それぞれ、0.2%と0.1%減少する。第二群のパフォーマンスは、テクスチャビデオのみ(ビデオPSNR/ビデオビットレート)のBD率差、テクスチャビデオ(ビデオPSNR/総ビットレート)のテクスチャPSNR対総ビットレート(テクスチャビットレートと深さビットレート)のBD率差、および、6個の合成されたビュー対総ビットレート(シンセ.PSNR/総ビットレート)の平均PSNRである。表1に示されるように、この群の平均パフォーマンスも、従来のHTM−6.0よりわずかな改善(0.1%)を表す。処理時間(符号化時間、復号化時間、および、レンダリング時間)も比較される。表1に示されるように、符号化時間、復号化時間、および、レンダリング時間はほぼ同じである。
Figure 2016513924
図4は、本発明の具体例による第二インタービュー候補を有する候補リストを組み込んだ三次元/マルチビュー符号化システムのフローチャートである。システムは、ステップ410で、従属ビュー中の現在のテクスチャブロックの動き情報に関連する入力データを受信する。符号化において、現在のテクスチャブロックの動き情報に関連する入力データは、符号化される動き情報に対応する。復号化において、現在のテクスチャブロックの動き情報に関連する入力データは、復号化される符号化動き情報に対応する。現在のテクスチャブロックの動き情報は、メモリ(たとえば、コンピュータメモリ、バッファ(RAM、または、DRAM)、または、その他の媒体)から、または、プロセッサから回収される。第一インタービュー候補は、ステップ420において、すでに符号化された、または、復号化されたテクスチャデータにしたがって決定され、第一インタービュー候補は併合候補リストに挿入される。第二インタービュー候補は、ステップ430において、候補リストの前記のすでに符号化された、または、復号化されたテクスチャデータに基づいて決定される。現在のテクスチャブロックの動き情報は、その後、ステップ440で、候補リストを用いて符号化、または、復号化される。
上述のフローチャートは、第二インタービュー候補を有する候補リストを用いた3D/マルチビュー符号化の例を説明することを目的とする。当業者は、本発明を逸脱しない範囲で、各ステップを修正したり、ステップ再アレンジしたり、ステップを分割したり、組み合わせたりすることができる。
上の記述が提示されて、当業者に、特定のアプリケーションとその要求のコンテキストに記述される通り、本発明を行うことができる。当業者なら、記述された具体例への各種修正が理解でき、ここで定義される一般原則は別の実施例にも応用できる。よって、本発明は、記述される特定の実施例に制限することを目的としておらず、原理と新規特徴と一致する最大範囲に一致する。上述の記述において、本発明の十分な理解を提供するため、各種特定の詳細が説明される。当業者なら、本発明が行えることが理解できる。
上述の本発明の具体例は、各種ハードウェア、ソフトウェアコード、または、それらの組み合わせで実行される。たとえば、本発明の具体例は、画像圧縮チップに整合される回路、または、画像圧縮ソフトウェアに整合されるプログラムコードで、上述の処理を実行する。本発明の具体例は、デジタルシグナルプロセッサ(DSP)で実行されるプログラムコードで、上述の処理を実行する。本発明は、さらに、コンピュータプロセッサ、デジタルシグナルプロセッサ、マイクロプロセッサ、または、フィールドプログラマブルゲートアレイ(FPGA)により実行される複数の機能を含む。これらのプロセッサは、本発明により具体化される特定の方法を定義する機械読み取り可能ソフトウェアコード、または、ファームウェアコードを実行することにより、本発明による特定のタスクを実行するように設定される。ソフトウェアコード、または、ファームウェアコードは、異なるプログラミング言語、および、異なるフォーマット、または、スタイルで開発される。ソフトウェアコードは、さらに、異なるターゲットプラットフォームにコンパイルされる。しかし、本発明によるタスクを実行するソフトウェアコードの異なるコードフォーマット、スタイル、および、言語、および、設定コードのその他の手段は、本発明の精神を逸脱しない。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変動や潤色を加えることができ、従って本発明の保護範囲は、特許請求の範囲で指定した内容を基準とする。

Claims (18)

  1. 三次元(3D)、または、マルチビュー符号化システムにおけるMergeモード、Skipモード、または、Interモードの候補リストを生成する方法であって、前記方法は、
    従属ビュー中の現在のテクスチャブロックの動き情報に関連する入力データを受信する工程と、
    すでに符号化された、または、復号化されたテクスチャデータに基づいて、第一インタービュー候補を決定し、前記第一インタービュー候補が前記候補リストに挿入される工程と、
    前記候補リストの前記のすでに符号化された、または、復号化されたテクスチャデータに基づいて、第二インタービュー候補を決定する工程、および、
    前記候補リストを用いて、前記現在のテクスチャブロックの前記動き情報を符号化、または、復号化する工程と、
    を有することを特徴とする方法。
  2. 前記第二インタービュー候補は、リファレンスビュー中の対応するブロックに関連する前記動き情報から決定され、前記対応するブロックは、右下の隣接ブロックの第一位置と選択された視差ベクトルにしたがって配置され、前記右下の隣接ブロックは、前記現在のテクスチャブロックの右下隅から横切るように位置することを特徴とする請求項1に記載の方法。
  3. 前記選択された視差ベクトルは、前記第一インタービュー候補を生成するのに用いられる同一視差ベクトルであることを特徴とする請求項2に記載の方法。
  4. 前記選択された視差ベクトルは、第二視差ベクトルとオフセット値に基づいて生成され、前記第二視差ベクトルは、前記第一インタービュー候補の生成に用いられることを特徴とする請求項2に記載の方法。
  5. 前記候補リストは視差候補を有し、前記選択された視差ベクトルは前記視差候補と同じであることを特徴とする請求項2に記載の方法。
  6. 前記選択された視差ベクトルは、前記現在のテクスチャブロックに関連するすでに符号化された深さブロックのひとつ以上の深さサンプルから生成されることを特徴とする請求項2に記載の方法。
  7. 前記選択された視差ベクトルは、グローバル視差ベクトルから生成されることを特徴とする請求項2に記載の方法。
  8. 前記候補リストは一時的候補を有し、前記第二インタービュー候補は、競争順序にしたがって、前記一時的候補の前に、前記候補リスト中に挿入されることを特徴とする請求項1に記載の方法。
  9. 前の有効な候補の数量が前もって指定された数量より少ないときだけ、前記第二インタービュー候補が前記候補リストに挿入されることを特徴とする請求項1に記載の方法。
  10. 第一インタービュー候補が利用不可であるときだけ、前記第二インタービュー候補が前記候補リストに挿入されることを特徴とする請求項1に記載の方法。
  11. 冗長性確認のため、前記第二インタービュー候補だけが、第一インタービュー候補と比較されることを特徴とする請求項1に記載の方法。
  12. 前記第一インタービュー候補は、競争順序にしたがって、常に、前記候補リストの第一位置に位置し、前記第一インタービュー候補が利用不可である場合、前記第一インタービュー候補が前記第二インタービュー候補により代替され、前記第二インタービュー候補も利用不可である場合、前記第一インタービュー候補がデフォルト候補により代替されることを特徴とする請求項1に記載の方法。
  13. 前記第二インタービュー候補が前記候補リストに挿入されるとき、前記候補リスト中の候補総数は1増加することを特徴とする請求項1に記載の方法。
  14. 前記第二インタービュー候補が前記候補リストから選択されるとき、インタービュー残差予測は前記現在のテクスチャブロックに適用されないことを特徴とする請求項1に記載の方法。
  15. 前記第二インタービュー候補が前記候補リストから選択されるとき、インタービュー残差予測は、前記第二インタービュー候補にしたがって、前記現在のテクスチャブロックに適用されることを特徴とする請求項1に記載の方法。
  16. 前記第二インタービュー候補が前記候補リストから選択されるとき、システム構成、または、フラグに基づいて、インタービュー残差予測(視点間残差予測)が前記現在のテクスチャブロックに、選択的に適用されることを特徴とする請求項1に記載の方法。
  17. 前記第二インタービュー候補が視差ベクトルにしたがって生成され、前記視差ベクトルは、前記現在のテクスチャブロックの後続ブロックの第二視差ベクトルを生成するのに用いられることを特徴とする請求項1に記載の方法。
  18. 三次元(3D)、または、マルチビュー符号化システムにおけるMergeモード、Skipモード、または、Interモードの候補リストを生成する装置であって、前記装置は、ひとつ以上の電子回路を有し、前記ひとつ以上の電子回路が、
    従属ビュー中の現在のテクスチャブロックの動き情報に関連する入力データを受信する;
    すでに符号化された、または、復号化されたテクスチャデータに基づいて、第一インタービュー候補を決定し、前記第一インタービュー候補が前記候補リストに挿入される;
    前記候補リストの前記のすでに符号化された、または、復号化されたテクスチャデータに基づいて、第二インタービュー候補を決定する;
    前記候補リストを用いて、前記現在のテクスチャブロックの前記動き情報を符号化、または、復号化するように設定されることを特徴とする装置。
JP2015561933A 2013-04-10 2014-03-20 三次元ビデオ符号化の視点間候補導出の方法と装置 Active JP6389833B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361810383P 2013-04-10 2013-04-10
US61/810,383 2013-04-10
PCT/CN2014/073786 WO2014166329A1 (en) 2013-04-10 2014-03-20 Method and apparatus of inter-view candidate derivation for three-dimensional video coding

Publications (2)

Publication Number Publication Date
JP2016513924A true JP2016513924A (ja) 2016-05-16
JP6389833B2 JP6389833B2 (ja) 2018-09-12

Family

ID=51688932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015561933A Active JP6389833B2 (ja) 2013-04-10 2014-03-20 三次元ビデオ符号化の視点間候補導出の方法と装置

Country Status (6)

Country Link
US (1) US10021367B2 (ja)
EP (1) EP2932716A4 (ja)
JP (1) JP6389833B2 (ja)
KR (1) KR101706309B1 (ja)
CN (1) CN105324996B (ja)
WO (1) WO2014166329A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014166349A1 (en) * 2013-04-10 2014-10-16 Mediatek Inc. Method and apparatus of disparity vector derivation for three-dimensional and multi-view video coding
US10820007B2 (en) * 2015-01-21 2020-10-27 Samsung Electronics Co., Ltd. Method and apparatus for decoding inter-layer video, and method and apparatus for encoding inter-layer video
KR20180041831A (ko) * 2016-10-17 2018-04-25 디지털인사이트 주식회사 블록 분할에 따른 skip 후보 리스트를 사용하는 비디오 코딩 방법 및 장치
WO2019061537A1 (en) * 2017-09-30 2019-04-04 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR DERIVING CANDIDATES FROM TIME MOVEMENT DATA IN VIDEO CODING
EP3791586A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
SG11202011714RA (en) 2018-06-29 2020-12-30 Beijing Bytedance Network Technology Co Ltd Partial/full pruning when adding a hmvp candidate to merge/amvp
TWI724442B (zh) 2018-06-29 2021-04-11 大陸商北京字節跳動網絡技術有限公司 用於查找表更新的編碼的運動信息的選擇
SG11202013028PA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Interaction between lut and amvp
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
CN110876058B (zh) * 2018-08-30 2021-09-21 华为技术有限公司 一种历史候选列表更新方法与装置
CN111064959B (zh) * 2018-09-12 2023-09-01 北京字节跳动网络技术有限公司 要检查多少个hmvp候选
CN113273186A (zh) 2019-01-10 2021-08-17 北京字节跳动网络技术有限公司 Lut更新的调用
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013002342A1 (ja) * 2011-06-30 2013-01-03 ソニー株式会社 画像処理装置および方法
JP2013002342A (ja) * 2011-06-15 2013-01-07 Toyota Motor Corp 内燃機関の制御装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8823821B2 (en) * 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
CN101222627A (zh) * 2007-01-09 2008-07-16 华为技术有限公司 一种多视点视频编解码系统以及预测向量的方法和装置
EP2721825A4 (en) 2011-06-15 2014-12-24 Mediatek Inc METHOD AND DEVICE FOR MOTION AND DISPARITY VECTOR PREDICTION AND COMPENSATION IN 3D VIDEO CODING
RU2583040C2 (ru) * 2011-08-30 2016-05-10 Нокиа Текнолоджиз Ой Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов
US20130176390A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
FR2986395A1 (fr) * 2012-01-30 2013-08-02 France Telecom Codage et decodage par heritage progressif
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
SG11201405038RA (en) * 2012-04-24 2014-09-26 Mediatek Inc Method and apparatus of motion vector derivation for 3d video coding
US9258562B2 (en) * 2012-06-13 2016-02-09 Qualcomm Incorporated Derivation of depth map estimate
US10075728B2 (en) * 2012-10-01 2018-09-11 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction refinement
US9247271B2 (en) * 2012-10-08 2016-01-26 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction in multi-view video coding
CN102946536B (zh) 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
WO2014056150A1 (en) * 2012-10-09 2014-04-17 Nokia Corporation Method and apparatus for video coding
WO2015100710A1 (en) * 2014-01-02 2015-07-09 Mediatek Singapore Pte. Ltd. Existence of inter-view reference picture and availability of 3dvc coding tools
CN104079944B (zh) * 2014-06-30 2017-12-01 华为技术有限公司 视频编码的运动矢量列表构建方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013002342A (ja) * 2011-06-15 2013-01-07 Toyota Motor Corp 内燃機関の制御装置
WO2013002342A1 (ja) * 2011-06-30 2013-01-03 ソニー株式会社 画像処理装置および方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHRISTINE GUILLEMOT(外1名): "3D-CE5.h: Additional merge candidates derived from shifted disparity candidate predictors", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016036619, 23 January 2013 (2013-01-23), US, pages 1 - 5 *
JAEWON SUNG(外2名): "3D-CE2.h related: Motion Aware Temporal Disparity Vector Derivation", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016036620, 23 January 2013 (2013-01-23), US, pages 1 - 8 *
LI ZHANG(外3名): "3D-CE5.h: Merge candidates derivation from disparity vector shifting", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016036618, 23 January 2013 (2013-01-23), US, pages 1 - 4 *

Also Published As

Publication number Publication date
EP2932716A1 (en) 2015-10-21
US20150358600A1 (en) 2015-12-10
CN105324996A (zh) 2016-02-10
KR20150114988A (ko) 2015-10-13
WO2014166329A1 (en) 2014-10-16
EP2932716A4 (en) 2016-07-06
JP6389833B2 (ja) 2018-09-12
US10021367B2 (en) 2018-07-10
KR101706309B1 (ko) 2017-02-14
CN105324996B (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
JP6389833B2 (ja) 三次元ビデオ符号化の視点間候補導出の方法と装置
US10165252B2 (en) Method of sub-prediction unit inter-view motion prediction in 3D video coding
AU2012269583B2 (en) Method and apparatus of motion and disparity vector prediction and compensation for 3D video coding
US9743110B2 (en) Method of 3D or multi-view video coding including view synthesis prediction
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
US20150085932A1 (en) Method and apparatus of motion vector derivation for 3d video coding
JP6042536B2 (ja) 3dビデオ符号化におけるビュー間候補導出の方法と装置
EP3059970A1 (en) Method predicting view synthesis in multi-view video coding and method for constituting merge candidate list by using same
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
WO2015192706A1 (en) Method of coding for depth based block partitioning mode in three-dimensional or multi-view video coding
US20150304681A1 (en) Method and apparatus of inter-view motion vector prediction and disparity vector prediction in 3d video coding
WO2014166348A1 (en) Method and apparatus of view synthesis prediction in 3d video coding
EP2936815A1 (en) Method and apparatus of disparity vector derivation in 3d video coding
US20160057453A1 (en) Method and Apparatus of Camera Parameter Signaling in 3D Video Coding
WO2014106496A1 (en) Method and apparatus of depth to disparity vector conversion for three-dimensional video coding
JP2017508371A (ja) 3dビデオコーディングにおけるカメラパラメータ処理方法および装置
US20160119643A1 (en) Method and Apparatus for Advanced Temporal Residual Prediction in Three-Dimensional Video Coding
US9716884B2 (en) Method of signaling for mode selection in 3D and multi-view video coding
WO2012177063A2 (ko) 스킵 모드 부호화 복호화 방법 및 장치
KR20150010249A (ko) 제한적인 움직임 정보 유도를 통한 메모리 효율성을 향상시키는 방법 및 장치

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6389833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250