JP2016501469A - 3dビデオ符号化における制約される視差ベクトル導出の方法と装置 - Google Patents

3dビデオ符号化における制約される視差ベクトル導出の方法と装置 Download PDF

Info

Publication number
JP2016501469A
JP2016501469A JP2015542150A JP2015542150A JP2016501469A JP 2016501469 A JP2016501469 A JP 2016501469A JP 2015542150 A JP2015542150 A JP 2015542150A JP 2015542150 A JP2015542150 A JP 2015542150A JP 2016501469 A JP2016501469 A JP 2016501469A
Authority
JP
Japan
Prior art keywords
view
generated
inter
prediction
constraint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015542150A
Other languages
English (en)
Other versions
JP6042556B2 (ja
JP2016501469A5 (ja
Inventor
イー−ウェン チェン,
イー−ウェン チェン,
ジャン−リャン リン,
ジャン−リャン リン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2016501469A publication Critical patent/JP2016501469A/ja
Publication of JP2016501469A5 publication Critical patent/JP2016501469A5/ja
Application granted granted Critical
Publication of JP6042556B2 publication Critical patent/JP6042556B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】条件制約される視差ベクトルを有する三次元のビデオ符号化、または、復号化の方法と装置を提供する。【解決手段】条件制約される視差ベクトルを有する三次元のビデオの符号化または復号化の方法と装置が開示される。一実施形態において、現在のテクスチャブロックに生成されたDV(視差ベクトル)が決定され、および、DV制約が、生成されたDVに適用される、または、適用されず、最後に生成されたDVを獲得する。その後、選択された符号化ツールの少なくともひとつを用いて、ビュー間予測符号化、または、復号化が入力データに適用され、すべての選択された符号化ツールが、最後に生成された同じDVを用い、選択された符号化ツールは、ビュー間残差予測、ビュー合成予測、および、ビュー間動きパラメータ予測を有する。【選択図】 図8

Description

この出願は、2012年11月16日に出願された“Controlling of disparity vector constraint for video coding ”と題された米国特許仮出願番号61/727220号、および、2013年1月24日に出願された“Inter-view signal prediction conditional on disparity vector constraints for video ”と題された米国特許仮出願番号61/756043号から、優先権を主張するものであり、その内容は引用によって本願に援用される。
本発明は、三次元のビデオ符号化(ビデオ信号の符号化)に関するものであって、特に、3Dビデオ符号化におけるビュー間残差予測、および、ビュー間動きパラメータ予測の視差ベクトル導出に関するものである。
三次元(3D)テレビは、近年、視聴者に、センセーショナルな視覚体験をもたらす技術となっている。各種技術が発展し、3D鑑賞を可能にする。それらの間で、多視点ビデオは、その他の中で、3DTVアプリケーションの鍵となる技術である。従来のビデオは、カメラの投射からの場面の単一ビューだけを視聴者に提供する二次元(2D)媒体である。しかし、多視点ビデオは、動的情景の任意の視点を提供し、視聴者に実際の感覚を提供することができる。
多視点ビデオは、一般に、多眼カメラを同時に用いることにより場面をキャプチャする(取り込む)ことにより形成され、多眼カメラは適切に配置されて、各カメラは各々一視点からの場面をキャプチャする。したがって、多眼カメラは、多重の視点に対応する多重動画像列をキャプチャする。さらに多くの表示を提供するため、さらに多くのカメラが用いられて、表示に関連する多くの動画像列と、多視点ビデオを生成する。したがって、多視点ビデオは、保存のための大きい記録領域および/または伝送のための高バンド幅を必要とする。よって、多視点ビデオ符号化技術がその領域中で発展し、必要な記録領域または送信バンド幅を減少させている。
真正面からの正直取り組み方は、従来のビデオ符号化技術を、単独で、各単一ビュー動画像列に適用すると共に、異なるビュー間での相互関係を無視する方法である。このような符号化システムは、とても非効率である。多視点ビデオ符号化の効率を改善するため、一般の多視点ビデオ符号化はビュー間(画像間)冗長を利用する。よって、大部分の3Dビデオ符号化(3DVC)システムは、多重ビューと深度図に関連する映像データの相互関係を考慮する。標準的な発展体、ITU−Tビデオ符号化専門家グループ(VCEG)とISO/IECエムペグ(Moving Picture Experts Group、MPEG)のジョイントビデオチームは、H.264/MPEG−4 AVCを、ステレオと多視点ビデオの多視点ビデオ符号化(MVC)に拡張する。
MVCは、一時的と空間予測を採用し、圧縮効率を改善する。MVCの発展中、いくつかのマクロブロックレベルの符号化ツールが提案され、照明補償、適応参照フィルタリング、動きスキップモードとビュー合成予測を含む。これらの符号化ツールが提案され、多重ビュー間の冗長を利用する。照明補償は、異なるビュー間の照明変動の補償を対象とする。カメラ間の焦点ミスマッチのため、適応参照フィルタリングは、変動を減らすことを目的としている。動きスキップモードは、別のビューから推論される現在のビュー中で、運動ベクトルを許可する。ビュー合成予測は、別のビューから現在のビューのピクチャを予測する。
HEVCベースの3Dビデオ符号化(3D-HTM)のリファレンスソフトウェアにおいて、隣接するビューの予め符号化された動き情報を再設定するため、ビュー間候補が、Inter、Merge、および、Skipモードの動きベクトル(MV)、または、視差ベクトル(DV)候補として加えられる。3D−HTMにおいて、符号化ユニット(CU)として知られる圧縮の基本ユニットは2Nx2Nの四角形ブロックである。各CUは、所定の最小サイズになるまで、再帰的に、4つの小さいCUに分ける。各CUはひとつ以上の予測ユニット(PU)を含む。
隣接するビューの予め符号化されたテクスチャ情報をシェアするため、視差補償予測(DCP)として知られる技術は、動き補償予測(MCP)の代替の符号化ツールとして、3D−HTM中に含まれている。MCPは、同じビューの予め符号化された画像を用いるピクチャ間(inter-picture)予測、DCPは、同じアクセスユニット中、その他のビューの予め符号化された画像を用いたピクチャ間予測である。図1は、MCPとDCPを組み込んだ3Dビデオ符号化システムの例を示す図である。DCPに用いられるベクトル(110)は視差ベクトル(DV)で、MCPに用いられる動きベクトル(MV)に類似する。図1は、MCPに関連する3個のMV(120、130、および、140)を説明する。さらに、DCPブロックのDVは、さらに、ビュー間リファレンス画像を用いる隣接ブロック、または、一時的配列ブロックから生成する視差ベクトル予測(DVP)候補により予測される。3D−HTMにおいて、Merge/Skipモードのビュー間合併候補を生成するとき、対応するブロックの動き情報が利用可能でない、または、有効出ない場合、ビュー間合併候補がDVにより代替される。
ビュー間残差予測は、3D−HTM中に用いられる別の符号化ツールである。図2に示されるように、隣接するビューの予め符号化された残差情報をシェアするため、現在の予測ブロック(PU)の残留信号は、ビュー間ピクチャ中の対応するブロックの残留信号により予測される。対応するブロックは対応するDVにより設置される。特定のカメラ位置に対応する映像、および、奥行きマップが、ビュー識別子(すなわち、図2中のV0、V1とV2)で示される。同じカメラ位置に属する全映像と奥行きマップは、同じビューId(すなわち、ビュー識別子)に関連する。ビュー識別子が用いられて、アクセスユニット中の符号順序を指定し、エラーが出やすい環境において、紛失したビューを検出する。アクセスユニットは、同一時刻に対応する全映像と奥行きマップを含む。アクセスユニット中、ビューIdが0の映像、および、関連する奥行きマップが存在するとき、まず、ビューIdが1の映像と奥行きマップが符号化される。ビューIdが0(すなわち、図2中のV0)のビューも、ベースビュー、または、ディペンデントビューと称される。ベースビュー映像は、従来のHEVCビデオコーダーを用いて符号化され、別のビューに頼る必要がない。
図2に示されるように、現在のブロックにとって、動きベクトル予測(MVP)/視差ベクトル予測(DVP)が、ビュー間ピクチャ中のビュー間ブロックから生成される。続いて、ビュー間ピクチャ中のビュー間ブロックが、ビュー間ブロックとして短縮される。生成された候補はビュー間候補で、ビュー間MVP、または、DVPになる。別のビュー中の予め符号化された動き情報に基づいた現在のブロック(たとえば、現在の予測ユニット、PU)の動き情報を符号化する符号化ツールは、ビュー間動きパラメータ予測である。さらに、隣接するビュー中の対応するブロックはビュー間ブロックで、ビュー間ブロックが、現在の画像中の現在のブロックの深さ情報から生成される視差ベクトルを用いて配置される。
ビュー合成予測(VSP)は、異なる視点から、ビデオ信号間のビュー間冗長を除去する技術で、合成シグナルがリファレンスとして用いられ、現在の画像を予測する。3D−HEVCテストモデルにおいて、視差ベクトル予測を生成するいくつかのプロセスがある。その後、生成された視差ベクトルが用いられて、リファレンスビューの深さイメージ中で、深さブロックをフェッチする。フェッチされた深さブロックは、現在の予測ユニット(PU)と同サイズで、その後、現在のPUに後方ラッピング(backward warping)を施すのに用いられる。このほか、ラッピング操作は、サブ−PUレベルの精度、たとえば、8x4、または、4x8ブロックで実行される。最大深度値がサブ−PUブロックに選定され、サブ−PUブロック中の全画素をラッピングするのに用いられる。VSP技術は、テクスチャ画像符号化に適用される。現在の実行において、VSPは新しい合成候補として加えられ、VSP予測の使用を示す。このような方法において、VSPブロックは、いかなる残差もないスキップしたブロックであるか、または、符号化した残差情報を有する合併ブロックである。
図2に示される例は、V0(すなわち、ベースビュー)、V1、および、V2からのビュー符号化順序に対応する。符号化されている現在の画像の現在のブロックはV2である。HTM3.1によると、ビュー間ピクチャが、現在の画像のリファレンス画像リスト中になくても、予め符号化されたビュー中のリファレンスブロックの全MVは、ビュー間候補として見なされる。図2中、フレーム210、220、および、230は、それぞれ、時間t1で、ビューV0、V1とV2からの映像、または、奥行きマップに対応する。ブロック232は、現在のビュー中の現在のブロックであり、ブロック212と222は、それぞれ、V0とV1中の現在のブロックである。VO中の現在のブロック212において、視差ベクトル(216)が用いられて、ビュー間配列ブロック(214)を配置する。同様に、V1中の現在のブロック222において、視差ベクトル(226)が用いられて、ビュー間配列ブロック(224)を配置する。HTM3.1によると、任意の符号化されたビューからのビュー間配列ブロックに関連する動きベクトル、または、視差ベクトルは、ビュー間候補中に含まれる。よって、ビュー間候補の数量は相当大きく、これは、さらに多くの処理時間とストレージ空間が必要になる。処理時間、および/または、ストレージ要求を減少させ、BD率やその他の性能測定方面で、システムパフォーマンスに非常に注目すべき衝撃を与えることがない方法を開発することが必要である。
3DV−HTMにおいて、視差ベクトルは、InterモードのDVP候補、または、Merge/Skipモードの合併候補として用いられる。生成された視差ベクトルは、また、ビュー間動き予測とビュー間残差予測のオフセットベクトルとして用いられる。オフセットベクトルとして用いられるとき、図3に示されるように、DVが、空間的、または、一時的隣接ブロックから派生する。所定の順序にしたがって、複数の空間的、および、一時的隣接ブロックが決定され、空間的、および、一時的隣接ブロックのDVの可用性が確認される。隣接(空間的、および、一時的)ブロックに基づいたDV導出のこの符号化ツールは、隣接ブロックDV(NBDV)と称される。図3Aに示されるように、空間的隣接ブロック集合は、現在のブロックの左下角位置(すなわち、A0)、現在のブロックの左下側位置(すなわち、A1)、現在のブロックの左上角位置(すなわち、B2)、現在のブロックの右上角位置(すなわち、B0)、および、現在のブロックの右上側の位置(すなわち、B1)を含む。図3Bに示されるように、一時的隣接ブロック集合は、一時的リファレンス画像中、現在のブロックの中心位置(すなわち、BCTR)、および、現在のブロックの右下角位置(すなわち、RB)を含む。中央位置を除いて、一時的リファレンス画像中の現在のブロック内の別の位置(たとえば、右下のブロック)も用いられる。つまり、現在のブロックと配置される任意のブロックは、一時的ブロック集合中に含まれる。一旦、ブロックがDVを有すると識別されると、確認プロセスが終了する。図3A中の空間的隣接ブロックの例の検索順序は、(A1、B1、B0、A0、B2)である。図3B中の一時的隣接ブロックの例の検索順序は(BR,BCTR)である。空間的、および、一時的隣接ブロックは、HEVC中のAMVPとMergeモードの空間的、および、一時的隣接ブロックと同じである。
DCP符号化ブロックが、隣接ブロック集合(すなわち、図3Aと図3Bに示されるように、空間的、および、一時的隣接ブロック)で見つからない場合、視差情報は、別の符号化ツール(DV−MCP)から得られる。この場合は、隣接ブロックがMCP符号化ブロックで、且つ、その動きが、ビュー間動き予測により予測されるとき、図4に示されるように、ビュー間動き予測に用いられる視差ベクトルは、現在とビュー間リファレンス画像間の動き通信を示す。この種の動きベクトルは、ビュー間予測動きベクトルと称され、ブロックはDV−MCPブロックと称される。図4は、DV−MCPブロックの例を示す図で、DV−MCPブロック(410)の動き情報が、ビュー間リファレンス画像中の対応するブロック(420)から予測される。対応するブロック(420)の位置が視差ベクトル(430)により指定される。DV−MCPブロック中で用いられる視差ベクトルは、現在とビュー間リファレンス画像間の動き通信を示す。対応するブロック(420)の動き情報(422)が用いられて、現在のビュー中の現在のブロック(410)の動き情報(412)を予測する。
MCPブロックが、符号化されるDV−MCPであるかを示し、ビュー間動きパラメータ予測の視差ベクトルを保存するため、二つの変数が用いられて、各ブロックの動きベクトル情報を表す。dvMcpFlag、および、dvMcpDisparityである。
dvMcpFlagが1のとき、dvMCP視差は、視差ベクトルがビュー間動きパラメータ予測に用いられることを示すように設定される。AMVPとMerge候補リストの構成プロセスにおいて、候補がビュー間動きパラメータ予測により生成される場合、候補のdvMcpFlagは、1に設定され、そうでない場合は、0に設定される。DV−MCPブロックからの視差ベクトルは以下の順序で用いられる:A0、A1、B0、B1、B2、Col(すなわち、配列ブロックBCTRまたはRB)。
奥行きマップから、さらに精密な視差ベクトルを抽出することにより、NBDVを増強する方法が、現在の3D−HEVCに用いられている。まず、同じアクセスユニット中で符号化された奥行きマップからの深さブロックが検索され、現在のブロックの仮想深さとして用いられる。DV導出のためのこの符号化ツールは、深さ配向NBDV(DoNBDV)と称される。共同テスト条件下で、ビュー1とビュー2中のテクスチャを符号化する間、ビュー0の奥行きマップはすでに利用可能である。ビュー1とビュー2中のテクスチャの符号化は、ビュー0の奥行きマップから恩恵を受けることができる。図5で示されるように、推定された視差ベクトルは、仮想深さから引き出される。全体の流れは以下のようである:
1.現在の3D−HTM中のNBDVである推定された視差ベクトルを用いて、符号化されたテクスチャビュー中、対応するブロックを配置する。
2.現在のブロック(符号化ユニット)の符号化されたビュー中の配列深さを、仮想深さとして用いる。
3.前のステップで検索された仮想深さ中の最大値から、ビュー間動き予測の視差ベクトルを抽出する。
図5で説明される例において、ビュー0中の符号化された奥行きマップが用いられて、DVを符号化されるビュー1中のテクスチャフレームに派生させる。ビュー0中の推定された視差ベクトル(540)、および、符号化された奥行きマップの現在のブロックの位置(520)にしたがって、符号化されたD0中の対応する深さブロック(530)が、現在のブロック(CB,510)に検索される。検索されたブロック(530)は、その後、現在のブロックの仮想深さブロック(530’)として用いられ、DVを生成する。仮想深さブロック(530’)中の最大値が用いられて、ビュー間動き予測の視差ベクトルを取り出す。
現在の3D−AVC(3D video coding based on Advanced video coding (AVC))において、視差ベクトル(DV)が、視差補償予測(DCP)、予測DVに用いられると共に、ビュー間対応ブロックに、ビュー間候補を生成するよう指示する。
リファレンスビューの予め符号化されたテクスチャ情報をシェアするため、視差補償予測(DCP)のコンセプトが代替方式として、動き補償予測(MCP)に追加されている。MCPは、異なるアクセスユニット中の同じビューのすでに符号化された画像を用いるピクチャ間予測で、DCPは、同じアクセスユニット中の別のビューのすでに符号化された画像を用いるピクチャ間予測である。DCPに用いられるベクトルは視差ベクトル(DV)で、MCPに用いられる動きベクトル(MV)に類似する。
Interモードにおいて、方向分離動きベクトル予測は、3D−AVC中に用いられる別の符号化ツールである。方向分離動きベクトル予測は、一時的、および、ビュー間動きベクトル予測から構成される。ターゲットリファレンス画像が一時的予測画像である場合、現在のブロックCb、図6A中のたとえば、A、B、および、C周辺の隣接するブロックの一時的動きベクトルが、動きベクトル予測の導出に用いられる。一時的動きベクトルが利用可能でない場合、ビュー間動きベクトルが用いられる。ビュー間動きベクトルが、深さから変換されるDVで示される対応するブロックから生成される。その後、動きベクトル予測が、隣接するブロックA、B、および、Cの動きベクトルの中央値として生成される。Cが利用可能でないとき、ブロックDだけが用いられる。
それどころか、ターゲットリファレンス画像が、ビュー間予測画像である場合、隣接ブロックのビュー間動きベクトルがビュー間予測に用いられる。ビュー間動きベクトルが利用可能でない場合、関連する深さブロック中の4個のコーナー深さサンプルの最大深度値から生成される視差ベクトルが用いられる。その後、動きベクトル予測が、隣接するブロックA、B、および、Cのビュー間動きベクトルの中央値として生成される。
ターゲットリファレンス画像がビュー間予測画像であるとき、隣接ブロックのビュー間動きベクトルが用いられて、ビュー間動きベクトル予測を生成する。図6Bのブロック610において、対応するブロックのテクスチャデータに基づいて、空間的隣接ブロックのビュー間動きベクトルが生成される。現在のブロックCbに関連する奥行きマップも、ブロック660中に提供される。ブロック620中で、ブロックA、B、および、Cのビュー間動きベクトルの可用性が確認される。ブロック630に示されるように、ビュー間動きベクトルが利用可能でない場合、現在のブロックの視差ベクトルが用いられて、利用可能でないビュー間動きベクトルを代替する。ブロック670に示されるように、視差ベクトルが、関連する深さブロックの最大深度値から生成される。ブロックA、B、および、Cのビュー間動きベクトルの中央値が、ビュー間動きベクトル予測として用いられる。ブロック640に示されるように、従来のMVP工程において、最終MVPは、ビュー間MVP、または、一時的MVPの動きベクトルの中央値に基づいて生成される。ブロック650に示されるように、動きベクトル予測に基づいて、動きベクトル符号化が実行される。
Skip/Directモードの優先ベースのMVP候補導出は、3D−AVCの別の符号化ツールである。Skip/Directモードにおいて、MVP候補は、所定の導出順序に基づいて生成される。図7に示されるように、隣接ブロックA、B、および、C(Cが利用可能ではないとき、Dだけが用いられる)から、ビュー間候補、および、3個の空間的候補の中央値が生成される。
ビュー間MV候補導出も図7で示される。ディペンデントビューの現在のブロック(710)の中央点(712)、および、その視差ベクトルが用いられて、ベースビュー、または、リファレンスビュー中の対応点を探す。その後、ベースビュー中の対応点を含むブロックのMVが、現在のブロックのビュー間候補として用いられる。視差ベクトルは、隣接ブロック(A、B、および、C/D)、および、中央点の深度値両方から生成される。特に、一個の隣接ブロックだけが視差ベクトル(DV)を有する場合、DVは視差として用いられる。そうでなければ、DVは、その後、隣接するブロックA、B、および、CのDV(720)の中央値として生成される。DVが利用可能でない場合、深さから変換されたDVが代わりに用いられる。生成されたDVは、リファレンス画像(730)中の対応するブロック(740)を配置するのに用いられる。
上述のように、3D−HEVCと3D−AVC両方の3Dビデオ符号化において、DV導出は重大な意味を持つ。3Dシーケンスをテストする条件が修正され、且つ、ビュー間に垂直偏移がないことを考慮すると、ある符号化ツールは、ビュー間データアクセスの垂直方向成分がないDVだけを使用する。しかし、入力データが修正されない時、DVの垂直方向成分で、別のビュー中の正確な対応ブロックを示す必要がある。
三次元のビデオ符号化、または、復号化の方法と装置が開示される。
一実施形態において、現在のテクスチャブロックの生成されたDV(視差ベクトル)が決定され、且つ、DV制約が、生成されたDVに適用され、または、適用されず、最後に生成されたDVを獲得する。その後、選択された符号化ツールの少なくともひとつを用いて、ビュー間予測符号化、または、復号化が入力データに適用され、最後に生成された同じDVが選択された符号化ツール全てにより用いられ、選択された符号化ツールは、ビュー間残差予測、ビュー合成予測、および、ビュー間動きパラメータ予測を有する。最後に生成されたDVが用いられて、ビュー間残差予測のビュー間ピクチャ中のリファレンス残差ブロックを配置し、最後に生成されたDVにより配置されるリファレンスブロックに関連する最後に生成されたDV、または、関連する動きベクトルは、ビュー間動きパラメータ予測のビュー間動きベクトル予測として用いられ、最後に生成されたDVが用いられて、ビュー合成予測のビュー間深さ画像中のリファレンス深さブロックを配置する。符号化ツールはDCP(視差補償予測)を除外する。DV制約表示が用いられて、DV制約が、生成されたDVに適用されるかどうか判断し、符号化プロファイルにしたがって、DV制約表示が決定される。
一実施形態において、DV制約が第一プロファイルに適用されるとき、選択された符号化ツールはDCP(視差補償予測)を除外し、DCPに用いられる生成されたDVの垂直方向成分が、小範囲で設定され、選択された符号化ツールに生成されたDVの垂直方向成分がゼロに設定される。VPS(ビデオパラメータセット)、PPS(picture parameter set)、SPS(sequence parameter set)、スライスヘッダー、シーケンスレベル、ビューレベル、ピクチャレベル、スライスレベル、LCU(Coding Tree Unit;CTUとも称される)レベル、CUレベル、または、PUレベルで、構文要素を用いて、DV制約表示がシグナリングされる。DV制約は、最後に生成されたDVの垂直方向成分、または、水平成分をゼロに設定するか、または、小範囲に設定する。
本発明の一態様は、ビュー間残差予測の補間プロセスに取り組む。最後に生成されたDVがサブ−サンプル位置を指し示し、DV制約が適用されるとき、1Dフィルター(一次元フィルター)を用いて、リファレンスビューの残差サンプルを補間することにより、ビュー間残差予測の残差予測信号が生成される。しかし、DV制約が適用されない場合、2Dフィルター(二次元フィルター)を用いて、リファレンスビューの残差サンプルを補間することにより、ビュー間残差予測の残差予測信号が生成される。DoNBDV(深さ配向隣接ブロック視差ベクトル)にとって、および、最後に生成されたDVがサブ−サンプル位置を指し示し、DV制約が適用されるとき、1Dフィルター(一次元フィルター)を用いて、リファレンスビューの残差サンプルを補間することにより、DoNBDVの深さ信号が生成される。しかし、DV制約が適用されないとき、2Dフィルター(二次元フィルター)を用いて、リファレンスビューの残差サンプルを補間することにより、DoNBDVの深さ信号が生成される。2Dフィルターは、最後に生成されたDVをラウンディングすることにより生成されるラウンディングDVにより指し示される第一整数深さサンプルの第一値を整数値にする2Dラウンディングフィルターである。DV制約インジケーターが、DV制約が有効であることを示すとき、DoNBDVにより派生したDVの垂直方向成分がゼロに設定される。
図1は、動き補償予測(MCP)の代替方式として視差補償予測(DCP)を組み込んだ三次元符号化の例を示す図である。 図2は、隣接するビューの予め符号化された情報、または、残差情報を用いた三次元符号化の例を示す図である。 図3Aは、現在のブロックの視差ベクトルを生成する現在のブロックの空間的隣接ブロックを示す図である。 図3Bは、現在のブロックの視差ベクトルを生成する現在のブロックの一時的隣接ブロックを示す図である。 図4は、対応するブロックの位置が視差ベクトルにより指定される視差−ベクトルベースの動き補償予測(DV−MCP)ブロックの例を示す図である。 図5は、ブロックの仮想深さに基づいた推定された視差ベクトルの導出の例を示す図である。 図6Aは、Interモードの方向分離の動きベクトル予測の導出に用いられるブロックを示す図である。 図6Bは、Interモードの方向分離の動きベクトル予測の例を示す図である。 図7は、Skip/Directモードの優先ベースのMVP候補導出の例を示す図である。 図8は、本発明の一実施形態による条件制約される視差ベクトルを組み込んだビュー間予測符号化システムのフローチャートである。
上述のように、DVは、3D−HEVC、および、3D−AVC両方の3Dビデオ符号化において非常に重要な意味を持つ。本発明の実施形態において、視差ベクトル(DV)に、条件付きで、制約を適用する、または、除去する方法が開示される。さらに、本方法は、選択的に、3D、および、多視点ビデオ符号化システムにおいて、DVに適用される。
現有の3D−HEVCと3D−AVCにおいて、いくつかの符号化ツール中、制約が適用されて、垂直方向DV成分を強制的にゼロにする。しかし、別の符号化ツールにおいて、制約は垂直方向DV成分に適用されない。本発明の一実施形態において、視差補償予測(DCP)に用いられるDVを除いて、制約が、統一方式で、全符号化ツールのDVに適用される、または、除去される。つまり、DCPに用いられるもの以外の全DVの垂直方向成分が強制的にゼロ(あるいは、元のDVよりさらに小さい範囲内)になる、または、非ゼロ値を有することが容認される。制約はDVの水平成分に適用してもよい。さらに、制約は、選択された符号化ツールに用いられるDVだけに適用される。別の符号化ツールに用いられるDVは何の制約も受けない。あるいは、異なる制約が、別の符号化ツールに用いられるDVに適用される。
現有の3D−HEVCと3D−AVCにおいて、DV−MCPブロックから生成されるDVの水平成分だけが保存され、垂直方向成分が破棄される。制約がDVで除去されるとき、DV−MCPブロックから生成されるDVの垂直方法成分が非ゼロになる。この場合は、生成されるDVの垂直方向成分が保存される。DVの条件付き制約が、DV−MCPブロックから派生するDVに適用される。同様に、DV上の条件付き制約が、別の3Dビデオ符号化ツールに適用される。
上述の条件付き制約は、DVの垂直(または、水平)成分を、強制的にゼロ、または、MからNの所定範囲内で小さい値にする。特定の実施方式において、DVの垂直(水平)成分をゼロに設定する代わりに、DVの水平(または、垂直)成分だけが用いられる。よって、いくつかのメモリバッファが省略できる。さらに、一追加構文要素が、PPS(picture parameter set)、SPS(sequence parameter set)、スライスヘッダー、シーケンスレベル、ビューレベル、ピクチャレベル、スライスレベル、LCUレベル、CUレベル、PUレベル、または、その他のレベルでシグナリングされて、どの成分(垂直、または、水平)が制約を受けるか示す。
DVの条件付き製薬は、以下の条件に基づく:
1.カメラが水平に配列されるとき。
2.入力多視点ビデオが修正されるとき。
3.ビュー間に垂直視差が存在しないとき。
4.カメラの光軸が水平で、ビューが修正されて、垂直視差が存在しないとき。
5.カメラが垂直に配列されるとき。
6.ビュー間に、水平視差が存在しないとき。
7.カメラの光軸が垂直で、ビューが修正されて、水平視差が存在しないとき。
追加構文が、VPS(ビデオパラメータセット)、PPS、SPS、スライスヘッダー、シーケンスレベル、ビューレベル、ピクチャレベル、スライスレベル、LCUレベル、CUレベル、PUレベル、または、その他のレベルでシグナリングされて、制約がDVに適用されるかどうか示す。プロファイル依存スキームが別の実施形態に用いられて、制約が生成されたDVに適用されるかどうか示す。符号化システムにおいて、通常、符号化プロファイルが定義され、異なるアプリケーションの符号化システムを設定する。たとえば、メインプロファイルがコモンアプリケーションに用いられる。
単独で、または、組み合わせて、上述の例の条件が用いられる。たとえば、構文要素がシグナリングされて、DCPに用いられるDVの垂直方向成分が小さい範囲内にあるか、および、DCPに用いられるもの以外の全DVの垂直成分が強制的にゼロになるかを示す。別の例において、構文がシグナリングされて、DCPに用いられるもの以外の全DVの垂直方向成分が強制的にゼロになるか示す。この場合は、DCPに用いられるDVの垂直方向成分が縮小範囲に制限される、または、デフォルト設計に応じず、追加構文を送信しない。さらに別の例において、構文がシグナリングされて、DCPに用いられるDVの垂直方向成分が縮小範囲内にあるか示す。DCPに用いられる以外の全DVの垂直方向成分は、ゼロ、または、デフォルト設計に基づいて、非ゼロになり、追加構文を送信しない。さらに別の例において、追加構文がシグナリングされて、DCPに用いられるDVの垂直方向成分が縮小範囲内にあるか示す。さらに、追加構文がシグナリングされて、DCPに用いられるもの以外の全DVの垂直方向成分が強制的にゼロになるか示す。さらに別の例において、特定のプロファイルの選択に対し、DCPに用いられるDVの垂直方向成分は縮小範囲内にあり、且つ、DCPに用いられるもの以外の全DVの垂直方向成分が強制的にゼロになる。
本発明の別の実施形態において、条件付き制約が、3D、および、多視点ビデオ符号化システム中の適応符号化に適用される。DV制約は、特定範囲内で生成されたDVの制限されたx−成分(すなわち、水平成分)、y−成分(すなわち、垂直方向成分)、または、両方に対応する。
本発明の一態様は、視差ベクトルがサブ−サンプル位置を指し示すとき、ビュー間残差予測のDVの条件付き制約のDV導出に取り組む。この場合は、1D(一次元)フィルターを用いて、リファレンスビューの残差サンプルを補間することにより、残差予測信号が得られる。以下のリストから1Dフィルターが選択される:
1.1D(一次元)線形フィルター、
2.二つの最も近い整数残差サンプルを平均する1D平均フィルター、
3.二つのもっとも近い整数残差サンプルの最小値を選択する1D最小フィルター、
4.二つのもっとも近い整数残差サンプルの最大値を選択する1D最大フィルター、
5.ラウンディングDVにより指し示される整数残差サンプルの値を用いる 1Dラウンディングフィルター、および、
6.短縮型DVにより指し示される整数残差サンプルの値を用いる1D短縮型(truncating)フィルター。
ビュー間残差予測のDV制約が無効である場合、視差ベクトルがサブ−サンプル位置を指し示す場合、2D(二次元)フィルターを用いて、リファレンスビューの残差サンプルを補間することにより、残差予測信号が得られる。2Dフィルターは以下のリストから選択される:
1.2D双線形フィルター、
2.4つの最も近い整数残差サンプルを平均する2D平均フィルター、
3.4つの最も近い整数残差サンプルの最小値を選択する2D最小フィルター、
4.4つの最も近い整数残差サンプルの最大値を選択する2D最大フィルター、
5.4つの最も近い整数残差サンプルの中央値を用いる2D中央値フィルター、
6.ラウンディングDVにより指し示される整数残差サンプルの値を用いる2Dラウンディングフィルター、および、
7.短縮型DVにより指し示される整数残差サンプルの値を用いる2D短縮型フィルター。
上述のリストは、イメージ処理に用いられる従来の1Dフィルターを示す。しかし、リストは、包括的リストの方式ではない。本発明の別の態様は、視差ベクトルがサブ−サンプル位置を指し示すとき、深さ配向の隣接ブロックの視差ベクトル(DoNBDV)の条件付き制約のDV導出に取り組む。この場合は、1D(一次元)フィルターを用いて、リファレンスビューの深さサンプルを補間することにより、リファレンスビュー中の深さ信号が得られる。1Dフィルターが同じ1Dフィルターリストから選択され、有効なDVの条件付き制約を有するビュー間残差予測に用いられる。
DoNBDVのDV制約が無効であるとき、視差ベクトルがサブ−サンプル位置を指し示す場合、2D(二次元)フィルターを用いて、リファレンスビューの深さサンプルを補間することにより、リファレンスビュー中の深さ信号が得られる。2Dフィルターが、同一の2Dフィルターリストが選択され、無効のDVの条件付き制約を有するビュー間残差予測に用いられる。一実施形態において、補間に用いられる2Dフィルターは、最後に生成されたDVをラウンディングすることにより生成されるラウンディングDVに指し示される第一整数深さサンプルの第一値を整数値にする2Dラウンディングフィルターである。
本発明の一実施形態を組み込んだシステムのパフォーマンスと従来のシステムを比較する。コモンテスト条件(CTC)シーケンスとして設計されるテストシーケンス、および、多視点符号化(MVC)テストシーケンスが用いられて、システムパフォーマンスを比較する。CTCシーケンス(CTC_Noshift)がすべて修正され、且つ、垂直方向DV成分を含まない。しかし、実際のアプリケーション中、入力多視点映像は必ずしも修正されない。よって、垂直方向DV成分(CTC_Shift16,CTC_Shift32toCTC_Shift64)を有するシーケンスもテスティングに用いられる。同様に、MVCシーケンスは、垂直方向DV成分(MVC_Shift)を有するテストシーケンス、および、垂直方向DV成分(MVC_NoShift)を有するテストシーケンスを含む。表1は、現有のHTM中のDV制約、および、本発明の実施形態を組み込んだシステムのDV制約をまとめる。つまり、システム1はHTM−5.1システムに対応し、システム2は、本発明の一実施形態に対応し、システム2は、ビュー間残差予測とビュー間動きパラメータ予測両方に有効なDV制約を有し、システム3は、本発明の一実施形態に対応し、システム3は、ビュー間残差予測とビュー間動きパラメータ予測両方に無効なDV制約を有する。
Figure 2016501469
HTM−5.1が、比較のためのアンカーシステムとして用いられる。アンカーシステムに関連する本発明の実施形態を組み込んだシステムの符号化パフォーマンスが表2に示される。垂直方向DV成分を有する、および、有さないCTCとMVCテストシーケンス両方を用いて、性能比較が実行される。ビュー1(video 1)、ビュー2(video 2)、および、既定ピーク信号対ノイズ比(ビデオPSNR/総ビットレート)に達するビットレート全体中のテクスチャ画像のBDレート差異が示される。BDレート中の負の値は、本発明が高パフォーマンス(すなわち、低ビットレート)を有することを意味する。表2に示されるように、ソーステストシーケンス中に垂直方向DV成分がないとき、有効、または、無効のDV制約を有する現在の発明のBDレートは、HTM−5.1のBDレートパフォーマンスと比較可能である(総ビットレート中、0.3%減少するわずかによいパフォーマンス)。しかし、ビュー間の垂直偏移を有するシーケンスのDV制約を無効にするのは、それぞれ、シフトがあるMVCシーケンス、および、シフトがあるCTCシーケンスに対し、0.7%と0.3%の総BDレート減少を達成することができる。一方、表2に示されるように、ソーステストシーケンスが、ビュー間の垂直偏移を含むとき、DV制約を有効にすると、顕著な性能低下を生じる(総ビットレートで3%の損失)。
Figure 2016501469
図8は、本発明の一実施形態による条件制約される視差ベクトルを組み込んだ三次元の符号化、または、復号化システムのフローチャートである。ステップ810に示されるように、システムは、ディペンデントビューに対応する現在のテクスチャフレームの現在のテクスチャブロックに関連する入力データを受信する。符号化において、現在のテクスチャブロックに関連する入力データは、符号化される現在のブロック(たとえば、動きベクトル、視差ベクトル、動きベクトル差異、または、視差ベクトル差異)に関連する元の画素データ、深さデータ、残差データ、または、その他の情報に対応する。復号化において、入力データは、復号化される符号化テクスチャブロックに対応する。入力データが、ストレージ、たとえば、コンピュータメモリ、バッファ(RAMまたはDRAM)、または、別の媒体から検索される。入力データは、また、第一データを生成するプロセッサ、たとえば、コントローラー、中央処理ユニット、デジタル信号プロセッサ、または、電子回路から受信される。ステップ820に示されるように、生成されたDV(視差ベクトル)が現在のテクスチャブロックに決定される。ステップ830において、DV制約が、生成されたDVに適用され、または、適用されずに、最後に生成されたDVを得る。ステップ840において、選択された符号化ツールの少なくともひとつを用いて、ビュー間予測符号化、または、復号化が入力データに適用され、最後に生成された同じDVがすべての選択された符号化ツールにより用いられ、選択された符号化ツールは、ビュー間残差予測、ビュー合成予測、および、ビュー間動きパラメータ予測を有する。
上述のフローチャートは、条件制約される視差ベクトルを用いて、ビュー間予測の例を説明することを目的としている。当業者は、本発明の精神を逸脱しない範囲内で、各ステップを修正、ステップを再アレンジ、ステップを分割、または、ステップを結合して、本発明を実行することができる。
特定のアプリケーションとその要求を提供する背景下で、上述の描写が当業者に提示されて、本発明を実施できる。記述された実施形態の各種修正は当業者に明らかであり、ここで定義される一般原則は、その他の実施形態に適用される。よって、本発明は、特定の実施形態に限定することを目的としておらず、ここで開示される原理と新規性と一致する最大範囲を与える。詳細な記述において、本発明の十分な理解を提供するため、各種特定の詳細が説明される。しかし、当業者なら、本発明を理解して、実現することができる。
上述の本発明の実施形態は、各種ハードウェア、ソフトウェアコード、または、それらの組み合わせで実行される。たとえば、本発明の一実施形態は、画像圧縮チップに整合される回路、または、画像圧縮ソフトウェアに整合されるプログラムコードで、記述される処理を実行する。本発明の一実施形態は、また、デジタルシグナルプロセッサ(DSP)で実行されるプログラムコードで、記述される処理を実行する。本発明は、さらに、コンピュータプロセッサ、デジタルシグナルプロセッサ、マイクロプロセッサ、または、フィールドプログラマブルゲートアレイ(FPGA)により実行される複数の機能を含む。本発明によると、これらのプロセッサが設置されて、本発明により具体化される特定の方法を定義する機械可読ソフトウェアコード、または、ファームウェアコードを実行することにより特定のタスクを実行する。ソフトウェアコード、または、ファームウェアコードは、異なるプログラミング言語と異なるフォーマットやスタイルで発展する。ソフトウェアコードは、さらに、異なるターゲットプラットフォームにコンパイルされる。しかし、本発明によるタスクを実行する設定コードのソフトウェアコードの異なるコードフォーマット、スタイル、および、言語、および、他の手段は、本発明の精神と範囲を逸脱しない。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変動や潤色を加えることができ、従って本発明の保護範囲は、特許請求の範囲で指定した内容を基準とする。

Claims (21)

  1. 三次元または多視点ビデオの符号化または復号化の方法であって、本方法は、
    ディペンデントビューに対応する現在のテクスチャフレームの現在のテクスチャブロックに関連する入力データを受信し、前記現在のテクスチャブロックの生成されたDV(視差ベクトル)を決定する工程と、
    DV制約を、前記生成されたDVに適用し、または、適用せずに、最後に生成されたDVを得る工程と、
    選択された符号化ツールの少なくともひとつを用いて、ビュー間予測符号化、または、復号化を前記入力データに適用し、同じ最後に生成されたDVが、選択された符号化ツール全てにより用いられ、選択された符号化ツールが、ビュー間残差予測、ビュー合成予測、および、ビュー間動きパラメータ予測を含む工程と
    を有することを特徴とする方法。
  2. 前記最後に生成されたDVが用いられて、前記ビュー間残差予測のビュー間ピクチャ中のリファレンス残差ブロックを配置し、前記最後に生成されたDVにより配置されるリファレンスブロックに関連する前記最後に生成されたDV、または、関連する動きベクトルが、前記ビュー間動きパラメータ予測のビュー間動きベクトル予測として用いられ、前記最後に生成されたDVが用いられて、ビュー合成予測のビュー間深さ画像中のリファレンス深さブロックを配置することを特徴とする請求項1に記載の方法。
  3. 前記符号化ツールはDCP(視差補償予測)を除外することを特徴とする請求項1に記載の方法。
  4. DV制約表示にしたがって、前記生成されたDVにDV制約を適用する、または、適用しないことが決定されることを特徴とする請求項1に記載の方法。
  5. 符号化プロファイルにしたがって、前記DV制約表示が決定されることを特徴とする請求項4に記載の方法。
  6. 前記DV制約表示が、前記DV制約が第一プロファイルにとって有効であることを示すとき、選択された符号化ツールはDCP(視差補償予測)を除外すると共に、DCPに用いられる生成された一DVの垂直方向成分が小範囲で設定され、選択された符号化ツールに用いられる生成された一DVの一垂直方向成分がゼロに設定されることを特徴とする請求項5に記載の方法。
  7. 前記DV制約表示は、VPS(ビデオパラメータセット)、PPS(picture parameter set)、SPS(sequence parameter set)、スライスヘッダー、シーケンスレベル、ビューレベル、ピクチャレベル、スライスレベル、LCUレベル、CTUレベル、CUレベル、または、PUレベルで、構文要素を用いてシグナリングされることを特徴とする請求項4に記載の方法。
  8. 構文要素が、VPS(ビデオパラメータセット)、PPS(picture parameter set)、SPS(sequence parameter set)、スライスヘッダー、シーケンスレベル、ビューレベル、ピクチャレベル、スライスレベル、LCUレベル、CTUレベル、CUレベル、または、PUレベルでシグナリングされて、前記DV制約が適用される前記生成されたDVのどの成分かを示すことを特徴とする請求項1に記載の方法。
  9. DV制約の前記適用は、前記最後に生成されたDVの垂直方向成分、または、水平成分をゼロに、または、縮小範囲に設定することを特徴とする請求項1に記載の方法。
  10. 前記最後に生成されたDVがサブ−サンプル位置を指し示し、DV制約が適用されるとき、1Dフィルター(一次元フィルター)を用いて、リファレンスビューの残差サンプルを補間することにより、前記ビュー間残差予測の残差予測信号が生成されることを特徴とする請求項1に記載の方法。
  11. 前記1Dフィルターは1D線形フィルターとして選択されることを特徴とする請求項10に記載の方法。
  12. 前記最後に生成されたDVがサブ−サンプル位置を指し示し、DV制約が適用されないとき、2Dフィルター(二次元フィルター)を用いて、リファレンスビューの残差サンプルを補間することにより、前記ビュー間残差予測の残差予測信号が生成されることを特徴とする請求項1に記載の方法。
  13. 前記2Dフィルターは2D双線形フィルターとして選択されることを特徴とする請求項12に記載の方法。
  14. 前記符号化ツールは、さらに、DoNBDV(深さ配向の隣接ブロックの視差ベクトル)を有し、最後に生成されたDVがサブ−サンプル位置を指し示し、DV制約が適用されるとき、1Dフィルター(一次元フィルター)を用いて、リファレンスビューの深さサンプルを補間することにより、DoNBDVの深さ信号が生成されることを特徴とする請求項1に記載の方法。
  15. 前記1Dフィルターは、前記最後に生成されたDVをラウンディングすることにより生成されるラウンディングDVにより指し示される第一整数深さサンプルの第一値を、整数値にする1Dラウンディングフィルターであることを特徴とする請求項14に記載の方法。
  16. DV制約が適用されるとき、DoNBDVにより生成される前記DVの垂直方向成分がゼロに設定されることを特徴とする請求項14に記載の方法。
  17. 前記符号化ツールは、さらに、DoNBDV(深さ配向の隣接ブロックの視差ベクトル)を含み、前記最後に生成されたDVがサブ−サンプル位置を指し示し、および、DV制約インジケーターが適用されないとき、2Dフィルター(二次元フィルター)を用いて、リファレンスビューの深さサンプルを補間することにより、DoNBDVの深さ信号が生成されることを特徴とする請求項1に記載の方法。
  18. 前記2Dフィルターは、前記最後に生成されたDVをラウンディングすることにより生成されるラウンディングDVにより指し示される第一整数深さサンプルの第一値を整数値にする2Dラウンディングフィルターであることを特徴とする請求項17に記載の方法。
  19. 三次元または多視点ビデオの符号化または復号化装置であって、前記装置は、ひとつ、または、それ以上の電子回路を有し、前記ひとつ、または、それ以上の電子回路が設置され、
    ディペンデントビューに対応する現在のテクスチャフレームの現在のテクスチャブロックに関連する入力データを受信し、
    前記現在のテクスチャブロックの生成されたDV(視差ベクトル)を決定し、
    前記生成されたDVに、DV制約を適用する、または、適用せずに、最後に生成されたDVを得て、
    選択された符号化ツールの少なくともひとつを利用して、ビュー間予測符号化、または、復号化を、前記入力データを適用し、最後に生成された同じDVがすべての選択された符号化ツールにより用いられ、前記選択された符号化ツールが、ビュー間残差予測、ビュー合成予測、および、ビュー間動きパラメータ予測を含むことを特徴とする装置。
  20. 三次元または多視点ビデオの符号化または復号化の方法であって、前記方法は、
    ディペンデントビューに対応する現在のテクスチャフレームの現在のテクスチャブロックに関連する入力データを受信する工程と、
    前記現在のテクスチャブロックの生成されたDV(視差ベクトル)を決定する工程と、
    前記生成されたDVに、DV制約を適用する、または、適用せずに、最後に生成されたDVを得る工程と、
    選択された符号化ツールを利用して、ビュー間予測符号化、または、復号化を前記入力データに適用し、DV制約を適用する、または、適用しないかは、前記選択された符号化ツールに基づき、前記選択された符号化ツールがDCP(視差補償予測)である場合、DV制約が適用され、および、前記選択された符号化ツールが、ビュー間残差予測、ビュー合成予測、および、ビュー間動きパラメータ予測のひとつである場合、DV制約が適用されない工程と、
    を有することを特徴とする方法。
  21. DV制約が、DCPに用いられる前記の生成されたDVの垂直方向成分に適用され、且つ、前記垂直方向成分が、小範囲で設定されることを特徴とする請求項20に記載の方法。
JP2015542150A 2012-11-16 2013-11-15 3dビデオ符号化における制約される視差ベクトル導出の方法と装置 Active JP6042556B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261727220P 2012-11-16 2012-11-16
US61/727,220 2012-11-16
US201361756043P 2013-01-24 2013-01-24
US61/756,043 2013-01-24
PCT/CN2013/087215 WO2014075625A1 (en) 2012-11-16 2013-11-15 Method and apparatus of constrained disparity vector derivation in 3d video coding

Publications (3)

Publication Number Publication Date
JP2016501469A true JP2016501469A (ja) 2016-01-18
JP2016501469A5 JP2016501469A5 (ja) 2016-11-04
JP6042556B2 JP6042556B2 (ja) 2016-12-14

Family

ID=50730598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015542150A Active JP6042556B2 (ja) 2012-11-16 2013-11-15 3dビデオ符号化における制約される視差ベクトル導出の方法と装置

Country Status (6)

Country Link
US (1) US9998760B2 (ja)
EP (1) EP2920967A4 (ja)
JP (1) JP6042556B2 (ja)
CN (1) CN104798375B (ja)
CA (1) CA2891723C (ja)
WO (1) WO2014075625A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150201215A1 (en) * 2012-07-27 2015-07-16 Mediatek Inc. Method of constrain disparity vector derivation in 3d video coding
US10136143B2 (en) * 2012-12-07 2018-11-20 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
WO2014166119A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Stereo compatibility high level syntax
BR112016017201B1 (pt) * 2014-01-29 2023-09-26 Hfi Innovation Inc Método de codificação e decodificação para precisão adaptativa de vetor de movimento de um bloco de dados de vídeo
WO2015192781A1 (en) * 2014-06-20 2015-12-23 Mediatek Singapore Pte. Ltd. Method of sub-pu syntax signaling and illumination compensation for 3d and multi-view video coding
KR20170065502A (ko) 2014-10-08 2017-06-13 엘지전자 주식회사 3d 비디오 부호화/복호화 방법 및 장치
US9743110B2 (en) 2014-10-09 2017-08-22 Hfi Innovation Inc. Method of 3D or multi-view video coding including view synthesis prediction
US10623767B2 (en) * 2015-10-19 2020-04-14 Lg Electronics Inc. Method for encoding/decoding image and device therefor
CN112632888A (zh) * 2020-08-18 2021-04-09 上海致居信息科技有限公司 电路合成方法、设备、介质和数据存储证明系统
CN118216148A (zh) * 2021-11-23 2024-06-18 华为技术有限公司 一种视频编码方法及其相关装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8823821B2 (en) * 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
KR20080066522A (ko) 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
CN102291579B (zh) 2011-07-06 2014-03-05 北京航空航天大学 一种快速的多目立体视频分形压缩与解压缩方法
CN102244801A (zh) 2011-07-13 2011-11-16 中国民航大学 一种数字立体电视系统及编解码方法
EP2727366B1 (en) * 2011-10-11 2018-10-03 MediaTek Inc. Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US20140071235A1 (en) * 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
US20140098883A1 (en) * 2012-10-09 2014-04-10 Nokia Corporation Method and apparatus for video coding
US9357214B2 (en) * 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced merge/skip mode and advanced motion vector prediction (AMVP) mode for 3D video
US9615090B2 (en) * 2012-12-28 2017-04-04 Qualcomm Incorporated Parsing syntax elements in three-dimensional video coding

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JPN6016020400; Yi-Wen Chen et al.: 3D-CE5.h related: Constrained DV for inter-view data access , 20121013, Joint Collaborative Team on 3D Video Coding Extens *
JPN6016020403; Wenyi Su et al.: 3DV-CE1.a: Block-based View Synthesis Prediction for 3DV-ATM , 20120716, Joint Collaborative Team on 3D Video Coding Extens *
JPN6016020404; Tadashi Uchiumi et al.: 3D-CE5.h related: Restricted motion vector coding for inter-view prediction , 20121013, Joint Collaborative Team on 3D Video Coding Extens *
JPN6016020407; Yu-Lin Chang et al.: 3D-CE5.h related: Depth-oriented Neighboring Block Disparity Vector (DoNBDV) with virtual depth , 20121013, Joint Collaborative Team on 3D Video Coding Extens *

Also Published As

Publication number Publication date
JP6042556B2 (ja) 2016-12-14
US9998760B2 (en) 2018-06-12
CA2891723C (en) 2017-12-05
CA2891723A1 (en) 2014-05-22
CN104798375B (zh) 2018-08-28
CN104798375A (zh) 2015-07-22
WO2014075625A1 (en) 2014-05-22
EP2920967A4 (en) 2016-05-25
US20150288985A1 (en) 2015-10-08
EP2920967A1 (en) 2015-09-23

Similar Documents

Publication Publication Date Title
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
KR101638752B1 (ko) 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
US9924168B2 (en) Method and apparatus of motion vector derivation 3D video coding
KR101753171B1 (ko) 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법
CA2896905C (en) Method and apparatus of view synthesis prediction in 3d video coding
US9961369B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
CA2904424C (en) Method and apparatus of camera parameter signaling in 3d video coding
JP2016501469A5 (ja)
JP2016506195A (ja) 3次元ビデオ符号化の深度から視差ベクトルを導出する方法および装置
CA2921759C (en) Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
CN105144714A (zh) 三维视频编码的视差向量推导的方法及装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160823

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20160907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161109

R150 Certificate of patent or registration of utility model

Ref document number: 6042556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250