JP2016513925A - 3dビデオ符号化におけるビュー合成予測の方法と装置 - Google Patents

3dビデオ符号化におけるビュー合成予測の方法と装置 Download PDF

Info

Publication number
JP2016513925A
JP2016513925A JP2015561934A JP2015561934A JP2016513925A JP 2016513925 A JP2016513925 A JP 2016513925A JP 2015561934 A JP2015561934 A JP 2015561934A JP 2015561934 A JP2015561934 A JP 2015561934A JP 2016513925 A JP2016513925 A JP 2016513925A
Authority
JP
Japan
Prior art keywords
block
view
depth
texture block
vsp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015561934A
Other languages
English (en)
Inventor
イー−ウェン チェン,
イー−ウェン チェン,
ジチェン アン,
ジチェン アン,
ジャン−リャン リン,
ジャン−リャン リン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2016513925A publication Critical patent/JP2016513925A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】3Dビデオ符号化におけるビュー合成予測の方法と装置を提供する。【解決手段】計算の複雑性、及び/又は、メモリアクセスバンド幅が減少したビュー合成予測(VSP)を組み込んだ三次元符号化、又は、復号化システムの方法と装置が開示される。システムは、VSPプロセスをテクスチャデータだけに適用し、非VSPプロセスを深さデータに適用する。よって、従属ビュー中の現在のテクスチャブロックが、関連する深さブロックを用いて、現在のテクスチャブロックをリファレンス画像にバックワードワーピングすることにより、VSPにしたがって符号化されると共に、モーションパラメータ継承(MPI)モードが、従属中の対応する深さブロックに選択されるとき、従属ビュー中の対応する深さブロックは、現在のテクスチャブロックから継承される動き情報に基づいて、非VSPビュー間予測を用いて符号化又は復号化される。【選択図】 図8

Description

この出願は、2013年4月9日に出願された“Refinement of View Synthesis Prediction (VSP) for 3-D Video Coding”と題されたPCT特許出願番号PCT/CN2103/073977から、優先権を主張するものであり、その内容は引用によって本願に援用される。
本発明は、三次元ビデオ符号化に関するものである。特に、本発明は、三次元(3D)符号化システムにおけるテクスチャと深さデータのビュー合成予測に関するものである。
三次元(3D)テレビは、近年、視聴者に、センセーショナルな視覚体験をもたらす技術となっている。各種技術が発展し、3D鑑賞を可能にする。それらの間で、多視点ビデオは、その他の中で、3DTVアプリケーションの鍵となる技術である。従来のビデオは、カメラの視点からの場面の単一ビュー(単一視点)だけを視聴者に提供する二次元(2D)媒体である。しかし、多視点(マルチビュー)ビデオは、動的情景の任意の視点を提供し、視聴者に実際の感覚を提供することができる。
多視点ビデオは、一般に、多眼カメラを同時に用いることにより場面を捕捉する(キャプチャする)ことにより形成され、多眼カメラは適切に配置されて、各カメラが、一視点(シングルビュー)からの場面を捕捉する。したがって、多眼カメラは、多重の視点(ビュー)に対応する多重動画像列を捕捉する。さらに多くの表示を提供するため、さらに多くのカメラが用いられて、表示に関連する多くの動画像列と、多視点ビデオを生成する。したがって、多視点ビデオは、保存のための大きい記憶スペース、および/または、伝送のための高バンド幅を必要とする。よって、多視点ビデオ符号化技術がその領域中で発展し、必要な記憶スペースまたは送信バンド幅を減少させている。
真正面から正直に攻めるやり方は、従来のビデオ符号化技術を、単独で、各単一ビュー動画像列に適用すると共に、異なるビュー間で、相互関係を無視する。このような符号化システムは、とても非効率である。多視点ビデオ符号化の効率を改善するため、一般の多視点ビデオ符号化はインタービュー(視点間)冗長を利用する。よって、大部分の3Dビデオ符号化(3DVC)システムは、多重ビューと奥行きマップに関連する映像データの相互関係を考慮する。標準的な発展体、ITU−Tビデオ符号化専門家グループ(VCEG)とISO/IECエムペグ(Moving Picture Experts Group、MPEG)のジョイントビデオチームは、H.264/MPEG−4AVCを、ステレオと多視点ビデオの多視点ビデオ符号化(MVC)に拡張する。
MVCは、一時的と空間予測を採用し、圧縮効率を改善する。MVCの発展中、いくつかのマクロブロックレベルの符号化ツールが提案され、照明補償、適応参照フィルタリング、動きスキップモードとビュー合成予測を含む。これらの符号化ツールが提案され、多重ビュー中の冗長を利用する。照明補償は、異なるビュー中の照明変動の補償を対象とする。カメラ間の焦点ミスマッチのため、適応参照フィルタリングは、変動を減らすことを目的としている。動きスキップモードは、別のビューから推論される現在のビュー中で、運動ベクトルを許可する。ビュー合成予測は、別のビューから現在のビューのピクチャを予測する。
HEVCベースの3Dビデオ符号化(3D−HTM)のリファレンスソフトウェアにおいて、隣接するビューの予め符号化された動き情報を再設定するため、ビュー間候補が、インター(Inter)、マージ(Merge)、および、スキップ(Skip)モードの動きベクトル(MV)、または、視差ベクトル(DV)候補として加えられる。3D−HTMにおいて、符号化ユニット(CU)として知られる圧縮の基本ユニットは2Nx2Nの四角形ブロックである。各CUは、所定の最小サイズになるまで、再帰的に、4つの小さいCUに分ける。各CUはひとつ以上の予測ユニット(PU)を含む。
隣接するビューの予め符号化されたテクスチャ情報をシェアするため、視差補償予測(DCP)として知られる技術は、動き補償予測(MCP)の代替の符号化ツールとして、3D−HTM中に含まれている。MCPは、同じビューの予め符号化された画像を用いるピクチャ間(inter-picture)予測、DCPは、同じアクセスユニット中、その他のビューの予め符号化された画像を用いたピクチャ間予測である。図1は、MCPとDCPを組み込んだ3Dビデオ符号化システムの例を示す図である。DCPに用いられるベクトル(110)は視差ベクトル(DV)で、MCPに用いられる動きベクトル(MV)に類似する。図1は、MCPに関連する3個のMV(120、130、および、140)を説明する。さらに、DCPブロックのDVは、ビュー間リファレンス画像を用いる隣接ブロック、または、一時的配列ブロックから生成する視差ベクトル予測(DVP)候補により予測される。3D−HTMにおいて、マージ/スキップモードのビュー間合併候補を生成するとき、対応するブロックの動き情報が利用可能でない、または、有効でない場合、ビュー間合併候補がDVにより代替される。
ビュー間残差予測は、3D−HTM中に用いられる別の符号化ツールである。隣接するビューの予め符号化された残差情報をシェアするため、図2に示されるように、現在の予測ブロック(PU)の残留信号は、ビュー間ピクチャ中の対応するブロックの残留信号により予測される。対応するブロックは対応するDVにより設置される。特定のカメラ位置に対応する映像、および、奥行きマップが、ビュー識別子(すなわち、図2中のV0、V1とV2)で示される。同じカメラ位置に属する全映像と奥行きマップは、同じビューId(すなわち、ビュー識別子)に関連する。ビュー識別子が用いられて、アクセスユニット中の符号順序を指定し、エラーが出やすい環境において、紛失したビューを検出する。アクセスユニットは、同一時刻に対応する全映像と奥行きマップを含む。アクセスユニット中、ビューIdが0の映像、および、関連する奥行きマップが存在するとき、まず、ビューIdが1の映像と奥行きマップが符号化される。ビューIdが0(すなわち、図2中のV0)のビューも、ベースビュー、または、ディペンデントビューと称される。ベースビュー映像は、従来のHEVCビデオコーダーを用いて符号化され、別のビューに頼る必要がない。
図2に示されるように、現在のブロックにとって、動きベクトル予測(MVP)/視差ベクトル予測(DVP)が、ビュー間ピクチャ中のビュー間ブロックから生成される。続いて、ビュー間ピクチャ中のビュー間ブロックが、ビュー間ブロックとして短縮される。生成された候補はビュー間候補で、ビュー間MVP、または、DVPになる。別のビュー中の予め符号化された動き情報に基づいた現在のブロック(たとえば、現在の予測ユニット、PU)の動き情報を符号化する符号化ツールは、ビュー間動きパラメータ予測である。さらに、隣接するビュー中の対応するブロックはビュー間ブロックで、ビュー間ブロックが、現在の画像中の現在のブロックの深さ情報から生成される視差ベクトルを用いて配置される。
図2に示される例は、V0(すなわち、ベースビュー)、V1、および、V2からのビュー符号化順序に対応する。符号化されている現在の画像の現在のブロックはV2である。HTM3.1によると、ビュー間ピクチャが、現在の画像のリファレンス画像リスト中になくても、予め符号化されたビュー中のリファレンスブロックの全MVは、ビュー間候補として見なされる。図2中、フレーム210、220、および、230は、それぞれ、時間t1で、ビューV0、V1とV2からの映像、または、奥行きマップに対応する。ブロック232は、現在のビュー中の現在のブロックであり、ブロック212と222は、それぞれ、V0とV1中の現在のブロックである。VO中の現在のブロック212において、視差ベクトル(216)が用いられて、ビュー間配列ブロック(214)を配置する。同様に、V1中の現在のブロック222において、視差ベクトル(226)が用いられて、ビュー間配列ブロック(224)を配置する。HTM3.1によると、任意の符号化されたビューからのビュー間配列ブロックに関連する動きベクトル、または、視差ベクトルは、ビュー間候補中に含まれる。よって、ビュー間候補の数量は相当多く、これは、さらに多くの処理時間とストレージ空間が必要になる。処理時間、および/または、ストレージ要求を減少させ、BD率やその他の性能測定方面で、システムパフォーマンスに大きな衝撃を与えることがない方法を開発することが必要である。
3DV−HTMにおいて、視差ベクトルは、インターモードのDVP候補、または、マージ/スキップモードの合併候補として用いられる。生成された視差ベクトルは、また、ビュー間動き予測とビュー間残差予測のオフセットベクトルとして用いられる。オフセットベクトルとして用いられるとき、図3に示されるように、DVが、空間的、または、一時的隣接ブロックから派生する。所定の順序にしたがって、複数の空間的、および、一時的隣接ブロックが決定され、空間的、および、一時的隣接ブロックのDVの可用性が確認される。隣接(空間的、および、一時的)ブロックに基づいたDV導出のこの符号化ツールは、隣接ブロックDV(NBDV)と称される。図3Aに示されるように、空間的隣接ブロック集合は、現在のブロックの左下角位置(すなわち、A0)、現在のブロックの左下側位置(すなわち、A1)、現在のブロックの左上角位置(すなわち、B2)、現在のブロックの右上角位置(すなわち、B0)、および、現在のブロックの右上側の位置(すなわち、B1)を含む。図3Bに示されるように、一時的隣接ブロック集合は、一時的リファレンス画像中、現在のブロックの中心位置(すなわち、BCTR)、および、現在のブロックの右下角位置(すなわち、RB)を含む。中央位置を除いて、一時的リファレンス画像中の現在のブロック内の別の位置(たとえば、右下のブロック)も用いられる。つまり、現在のブロックと配置される任意のブロックは、一時的ブロック集合中に含まれる。一旦、ブロックがDVを有すると識別されると、確認プロセスが終了する。図3A中の空間的隣接ブロックの例の検索順序は、(A1、B1、B0、A0、B2)である。図3B中の一時的隣接ブロックの例の検索順序は(BR,BCTR)である。空間的、および、一時的隣接ブロックは、HEVC中のAMVPとマージモードの空間的、および、一時的隣接ブロックと同じである。
DCP符号化ブロックが、隣接ブロック集合(すなわち、図3Aと図3Bに示されるように、空間的、および、一時的隣接ブロック)で見つからない場合、視差情報は、別の符号化ツール(DV−MCP)から得られる。この場合は、隣接ブロックがMCP符号化ブロックで、且つ、その動きが、ビュー間動き予測により予測されるとき、図4に示されるように、ビュー間動き予測に用いられる視差ベクトルは、現在とビュー間リファレンス画像間の動き通信を示す。この種の動きベクトルは、ビュー間予測動きベクトルと称され、ブロックはDV−MCPブロックと称される。図4は、DV−MCPブロックの例を示す図で、DV−MCPブロック(410)の動き情報が、ビュー間リファレンス画像中の対応するブロック(420)から予測される。対応するブロック(420)の位置が視差ベクトル(430)により指定される。DV−MCPブロック中で用いられる視差ベクトルは、現在とビュー間リファレンス画像間の動き通信を示す。対応するブロック(420)の動き情報(422)が用いられて、現在のビュー中の現在のブロック(410)の動き情報(412)を予測する。
MCPブロックが、符号化されるDV−MCPであるかを示し、ビュー間動きパラメータ予測の視差ベクトルを保存するため、二つの変数が用いられて、各ブロックの動きベクトル情報を表す:dvMcpFlag、および、dvMcpDisparityである。
dvMcpFlagが1のとき、dvMCP視差は、視差ベクトルがビュー間動きパラメータ予測に用いられることを示すように設定される。AMVPとマージ候補リストの構成プロセスにおいて、候補がビュー間動きパラメータ予測により生成される場合、候補のdvMcpFlagは、1に設定され、そうでない場合は、0に設定される。DV−MCPブロックからの視差ベクトルは以下の順序で用いられる:A0、A1、B0、B1、B2、Col(すなわち、配列ブロックBCTRまたはRB)。
奥行きマップから、さらに精密な視差ベクトルを抽出することにより、NBDVを増強する方法が、現在の3D−HEVCに用いられている。まず、同じアクセスユニット中で符号化された奥行きマップからの深さブロックが検索され、現在のブロックの仮想深さとして用いられる。DV導出のためのこの符号化ツールは、深さ配向NBDV(DoNBDV)と称される。共同テスト条件下で、ビュー1とビュー2中のテクスチャを符号化する間、ビュー0の奥行きマップはすでに利用可能である。ビュー1とビュー2中のテクスチャの符号化は、ビュー0の奥行きマップから恩恵を受けることができる。図5で示されるように、推定された視差ベクトルは、仮想深さから引き出される。全体の流れは以下のようである。
1.現在の3D−HTM中のNBDVである推定された視差ベクトルを用いて、符号化されたテクスチャビュー中、対応するブロックを配置する。
2.現在のブロック(符号化ユニット)の符号化されたビュー中の配列深さを、仮想深さとして用いる。
3.前のステップで検索された仮想深さ中の最大値から、ビュー間動き予測の視差ベクトルを抽出する。
図5で説明される例において、ビュー0中の符号化された奥行きマップが用いられて、DVを符号化されるビュー1中のテクスチャフレームに派生させる。ビュー0中の推定された視差ベクトル(540)、および、符号化された奥行きマップの現在のブロックの位置(520)にしたがって、符号化されたD0中の対応する深さブロック(530)が、推定された視差ベクトル(540)、および、ビュー0中の符号化奥行きマップの現在のブロックの位置(520)にしたがって、現在のブロック(CB、510)に回収される。検索されたブロック(530)は、その後、現在のブロックの仮想深さブロック(530’)として用いられ、DVを生成する。仮想深さブロック(530’)中の最大値が用いられて、ビュー間動き予測の視差ベクトルを取り出す。
ビュー合成予測(VSP)は、異なる視点から、ビデオ信号間のビュー間冗長を除去する技術で、合成シグナルがリファレンスとして用いられ、現在の画像を予測する。現在の3D−AVCにおいて、前方マッピングVSPが、最初に提案されて、以下のように、合成参照を提供する。第一ビューのテクスチャち深さペアが、まず、符号化、および、復号化される。第二ビューは、第一ビューを第二ビュー位置にワープさせることにより予測される。また、VSPスキップ/ダイレクト(Direct)モード、および、コンテキスト−ベースの適応スキップフラグ(Skip flag)位置決め方法が考慮されて、隣接するブロックのスキップ状態にしたがって、スキップタイプフラグ(skip_type flag)を適応的に使用して、合成参照、または、非合成参照を選択する。3D−ATMバージョン5.0において、B−VSPが実行されて、元々の前方マッピングVSPを代替する。後方マッピングビュー合成スキームがB−VSPにより用いられて、第一ビューのテクスチャと第二ビューの深さが符号化、および、復号化され、且つ、第二ビューのテクスチャは、第二ビューの深さから転換された視差ベクトル(DV)により、第一ビューのテクスチャを第二ビュー位置にワープすることにより予測される。3D−HEVCテストモデルにおいて、視差ベクトル予測を導出する一プロセスがある。その後、導出された視差ベクトルが用いられて、リファレンスビューの深さイメージ中の深さブロックをフェッチする。フェッチされた深さブロックは、現在の予測ユニット(PU)と同じサイズで、且つ、現在のPUに、バックワードワーピングを実行するのに用いられる。それに加え、ワープ操作(warping operation)は、サブPUレベルの精密さ、たとえば、8x4や4x8ブロックで実行される。対応する深さサブブロック中の最大深度値深さサブブロックがサブPUブロックに選択されると共に、サブPUブロック中の全画素のワープに用いられる。
3D−AVC、および、3D−HEVCに考慮される従来のVSPは、非常に計算論的に強化され、十分なシステムリソース(たとえば、奥行きマップのデータアクセスに関連するシステム帯域幅)を用いる。図6は、従来の3D−HEVC、HTM−6.0中のVSPに関連するプロセスを説明する。まず、DoNBDVが用いられて、VSPプロセスの正確なDVを導出する。前述のように、DoNBDVプロセスは、NBDVにしたがって、DVを生成する工程(610)、対応する深さブロックを設置する工程(620)、および、正確なDVを導出する工程(630)を有する。正確なDVの決定時、正確なDVにしたがって、別の深さブロックが設置される(640)。正確なDVを用いて設置される深さブロックは、VSPプロセスにより、仮想深さブロックとして用いられて、ビュー合成予測(650)を実行する。図6に示されるように、DVは二回導出される(工程610と630)と共に、深さデータが二回アクセスされる(工程620と640)。パフォーマンスに対するぺナルティがない状況下で、さらに計算効率が高い、および/または、リソース効率が高いVSPプロセス(このような低いシステムの帯域幅利用)を発展させることが望まれる。
計算の複雑性、および/または、メモリアクセスバンド幅が減少したビュー合成予測(VSP)を組み込んだ三次元符号化、または、復号化システムの方法と装置が開示される。本発明の具体例は、VSPをテクスチャデータだけに適用し、非VSPプロセスを深さデータに適用する。よって、従属ビュー中の現在のテクスチャブロックが、VSPにしたがって、関連する深さブロックを用いて、現在のテクスチャブロックを、リファレンス画像にバックワードワーピングすることにより符号化され、モーションパラメータ継承(インヘリタンス)(MPI)モードが従属ビュー中の対応する深さブロックに選択されるとき、従属ビュー中の対応する深さブロックは、現在のテクスチャブロックから継承される動き情報に基づいて、非VSPビュー間予測を用いて符号化、または、復号化される。
関連する深さブロックは、現在のテクスチャブロックと選択された視差ベクトル(DV)の位置にしたがって、従属ビュー中のリファレンス奥行きマップから設置される。一実施例において、選択されたDVがNBDVプロセス(隣接ブロックの視差ベクトルプロセス)を用いて導出され、選択されたDVが、現在のテクスチャブロックの一組の隣接ブロックから、第一有効DVに基づいて選択される。別の実施例において、選択されたDVは、DoNBDVプロセス(深さ指向性隣接ブロックの視差ベクトルプロセス)を用いて導出され、導出されたDVは、現在のテクスチャブロックの一組の隣接ブロックからの第一有効DVに基づいて選択され、選択された深さブロックは、導出されたDVと現在のテクスチャブロックの位置にしたがって、リファレンス奥行きマップに設置され、選択されたDVが、選択された深さブロックの最大値から導出される。選択されたDVの選択プロセスは、シーケンスレベル、ピクチャレベル、スライスレベル、LCUレベル(最大符号化ユニットレベル)、CUレベル(符号化ユニットレベル)、PUレベル(予測単位レベル)、マクロブロックレベル、または、サブブロックレベルで、適応的に決定される。この場合、構文要素が用いられて、選択されたDVの選択プロセスを示す。選択されたDVの選択プロセスも、黙示的に、符号器側と復号器側で決定される。
VSPデータ生成期間中、現在のテクスチャブロックは、テクスチャサブブロックに分割され、且つ、関連する深さブロックを用いて、各サブブロックは、各テクスチャサブブロックをリファレンス画像にバックワードワーピングすることにより生成されるサブブロックVSPデータにより予測される。VSPプロセスは、予測単位(PU)基準で適用され、現在のテクスチャブロックはPUに対応する。
別の具体例は、NBDVプロセスをVSP符号化ブロックに用いると共に、DoNBDVプロセスを、マージモード、または、ビュー間残差予測でビュー間候補により符号化される別のブロックに用いる。実施例の方法は、リファレンスビュー中のリファレンス画像を受信する工程と、従属ビュー中の第一テクスチャブロックと第二テクスチャブロックに関連する入力データを受信する工程と、リファレンスビュー中のリファレンス奥行きマップから、第一視差ベクトル(DV)を導出して、第一深さブロックを設置する工程と、第一深さブロックを用いて、第一テクスチャブロックをリファレンス画像にバックワードワーピングすることにより、第一テクスチャブロックのVSPデータを生成する工程、および、VSPデータを用いて、第一テクスチャブロックを符号化、または、復号化する工程、を有する。第二DVが、第二テクスチャブロックの一組の隣接ブロックから導出され、第二DVにしたがって設置される第二深さブロックの最大値から、正確なDVが導出される。ビュー間マージ候補、または、ビュー間残差予測が、正確なDV、および、第二テクスチャブロックの位置を用いて導出されて、リファレンス奥行きマップから、正確な深さブロックを設置する。第二テクスチャブロックは、ビュー間マージ候補、または、ビュー間残差予測を用いて符号化、または、復号化される。
図1は、動き補償予測(MCP)に代わるものとして、視差−補償予測(DCP)を組み込んだ三次元符号化の例を示す図である。 図2は、HTM−3.1において、隣接ビューから前に符号化された情報、または、剰余情報を用いた三次元符号化の例を示す図である。 図3Aは、HTM−3.1における現在のブロックに視差ベクトルを導出する現在のブロックのそれぞれ空間的隣接ブロック、および、一時的隣接ブロックを示す第1の図である。 図3Bは、HTM−3.1における現在のブロックに視差ベクトルを導出する現在のブロックのそれぞれ空間的隣接ブロック、および、一時的隣接ブロックを示す第2の図である。 図4は、動き補償予測(DV−MCP)ブロックからの視差導出の例で、対応するブロックの位置が視差ベクトルにより特定されることを示す図である。 図5は、ブロックの仮想深さに基づいて推定された視差ベクトルの導出の例を示す図である。 図6は、HEVC(高効率ビデオ符号化)に基づいて、存在する三次元符号化にしたがったビュー合成予測プロセスを示す図である。 図7は、本発明による簡潔なビュー合成予測プロセスを示す図である。 図8は、本発明の具体例による簡潔なビュー合成予測プロセスを組み込んだビュー間予測符号化システムのフローチャートである。
前に述べたように、従来のAVC、または、HEVCベースの三次元ビデオ符号化中のVSPプロセスは、非常に計算論的、且つ、メモリアクセス強化がなされている。したがって、本発明の実施例は、簡潔なVSPプロセスを発展させて、計算の複雑性、および/または、メモリアクセスバンド幅を減少させている。一実施例において、奥行きマップにアクセスするメモリバンド幅は、DoNBDV(深さ指向性隣接ブロックの視差ベクトルプロセス)方法に基づいて、正確なDVをさらに導出し、正確なDVを用いて、VSPデータ生成の仮想深さブロックを設置する代わりに、NBDVにより決定されるDVを直接用いることにより減少されて、VSPデータ生成のために、深さブロックをフェッチする。別の実施例において、NBDVから決定されるDVを直接使用することにより深さブロックを設置して、深さブロックをフェッチする簡潔なプロセスは、VSPコーディングツールに適用される。少なくともひとつの別の三次元コーディングツールにおいて、たとえば、ビュー間マージ候補、AMVP(インターモード)、および、ビュー間残差予測の導出で、DoNBDVに基づくさらなる計算論的、および、メモリアクセス強化のDV導出が依然として用いられる。本発明によると、各VSP符号化ブロックに対し、一度、奥行きマップにアクセスすることだけが必要である。簡潔なVSPデータ生成プロセスにおいて、対応する深さブロックは、VSPデータ生成のNBDVプロセスから決定されるDVを用いて設置される。VSPデータは、その後、対応する深さサブブロックの最大深度値から導出される変換されたDVを用いて、サブブロックを、リファレンスビュー中のリファレンス画像にバックワードワーピングすることにより、現在のテクスチャブロックの各ブロックに生成される。
図7は、本発明の具体例によるVSPに関わるプロセスを説明する。DVは、NBDV(710)にしたがって導出され、導出されたDVが用いられて、対応する深さブロック(720)を設置する。VSPプロセスにより、導出されたDVを用いて設置される深さブロックが、仮想深さブロックとして用いられて、ビュー合成予測(730)を実行する。図6中のVSPプロセスと比較して、DVは一回だけ導出され、よって、深さデータは、一度アクセスされる。
VSPの符号化利得を改善するため、深さブロックを設置する方法は、適応的に、シーケンスレベル(たとえば、シーケンスパラメータセット、SPS)、ビューレベル(たとえば、ビューパラメータセット、VPS)、ピクチャレベル(たとえば、ピクチャパラメータセット、PPS)、スライスレベル(たとえば、スライスヘッダー)、符号化ユニット(CU)レベル、または、予測単位(PU)レベルで決定される。増設された構文は、対応レベル、または、上位レベルでシグナリングされて、一組の所定のDV導出方法、たとえば、NBDVとDoNBDV間の選択をシグナリングして、VSPデータ生成の深さブロックを回収する。あるいは、リファレンス深さブロックを設置するDV導出方法は、符号器と復号器両方で、黙示的に決定される。
従来の3D−HEVC(HTM6.0)において、VSPが、テクスチャと奥行きマップ符号化両方に用いられる。モーションパラメータ継承(MPI)モードにおいて、配列されたテクスチャブロックがVSPモードを用いる場合、現在の奥行きマップPUは、従来の3D−HEVCにしたがって、VSPモードを用いることもできる。
本発明の一実施例において、奥行きマップ符号化のVSPモードが無効になる。モーションパラメータ継承(MPI)モードが選択されるとき、および、配列されたテクスチャブロックがVSPモードを用いる場合、現在の深さPUは、VSPの使用に代わり、配列されたテクスチャブロックの動き情報(たとえば、動きベクトル、リファレンス画像)を継承する。したがって、現在の深さPUは、VSPモードの使用に代わって、継承された動き情報に基づいて、直接、動き補正、または、視差補償を実行する。通常、視差ベクトルと関連する動き情報が、テクスチャVSP符号化ブロックに保存される。よって、深さブロックは、配列されたテクスチャブロックからの動き情報を用いる。たとえば、現在の深さPUの視差ベクトル、リファレンスインデックス、および、ビューインデックスは、配列されたテクスチャブロックから継承されて、任意の非VSPプロセスを実行する。たとえば、現在の深さブロックは、視差補償予測を用いて符号化される。さらに、リファレンス画像が、継承されたリファレンス画像インデックスが−1に等しいとき、動きベクトルが指し示すベースビュー、または、ピクチャに設定される。
本発明の具体例を組み込んだ3D/マルチビュービデオ符号化システムのパフォーマンスが、HTM−6.0に基づく従来のシステムのパフォーマンスと比較され、表1に示されるように、奥行きマップのVSPプロセスが無効になる。性能比較は、第一カラムでリストされる異なる組のテストデータに基づく。BDレート差は、view 1(video 1)とview 2(video 2)中のテクスチャピクチャに表される。BDレート中の負値は、本発明がよいパフォーマンスを有することを意味する。表1に示されるように、総ビットレート(テクスチャビットレートと深さビットレート)のビットレート測定、および、符号化、および、合成されたビデオ(シンセ/総ビットレート)の総ビットレートは、従来のHTM−6.0とほぼ同じである。処理時間(符号化時間、復号化時間、および、レンダリング時間)も比較される。表1に示されるように、復号化時間がわずかに低下する(平均で1.5%)。したがって、奥行きマップ符号化のVSPを無効にするシステムは、従来のHTM−6.0と同じ性能を達成し、すなわち、性能損失がない。
Figure 2016513925
表2において、本発明の具体例を組み込んだ3D/マルチビュービデオ符号化システムのパフォーマンスは、HTM−6.0に基づく従来のシステムのパフォーマンスと比較され、VSPプロセスは、DoNBDVに代わって、NBDVから決定されるDVを用いる。BDレート差は、view 1(video 1)とview 2(video 2)中のテクスチャピクチャに示される。view 1のビットレートは従来の方法とほぼ同じで、且つ、ビットレートは、view 2で、わずかに(0.1%)増加する。テクスチャビデオのみのビットレート測定(ビデオ/ビデオビットレート)、および、総ビットレート、すなわち、テクスチャビットレートと深さビットレート(ビデオ/総ビットレート)は、HTM−6.0とほぼ同じである。合成されたビデオ(シンセ/総ビットレート)の総ビットレートは、わずかな改善(0.1%)が見られる。表2に示されるように、復号化時間がわずかに減少する(平均2.2%)。したがって、DoNBDVの代わりに、NBDVに基づいて導出されたDVを用いて、VSPデータ生成の対応する深さブロックを設置するシステムは、従来のHTM−6.0とほぼ同じ、または、少しよいパフォーマンスを達成する。前述したように、NBDVに基づくVSPは、各テクスチャブロックに対し、深さブロックに一度だけアクセスし、深さデータアクセスは、DoNBDV−ベースVSPと比較して半減する。
Figure 2016513925
表3中、本発明の具体例を組み込んだ3D/マルチビュービデオ符号化システムのパフォーマンスにおいて、VSPプロセスは、DoNBDVとVSPプロセスが深さデータに対し無効になるのに代わって、NBDVから決定されるDVを用い、HTM−6.0に基づいた従来のシステムのパフォーマンスと比較される。BDレート比較結果は、表2に示されるケースとほぼ同じである。しかし、復号化時間は、従来のHTM−6.0と比較して4%減少する。したがって、奥行きマップ符号化のVSPを無効にし、NBDVをテクスチャVSPに用いるシステムは、従来のHTM−6.0とほぼ同じ、または、少しよいパフォーマンスを達成する。しかし、深さデータアクセスは、DoNBDV−ベースVSPと比較して半減する。
Figure 2016513925
図8は、本発明の具体例による計算の複雑性、および/または、メモリアクセスバンド幅を減少させるビュー合成予測を組み込んだ三次元符号化、または、復号化システムのフローチャートである。システムは、ステップ810において、リファレンスビュー中のリファレンス画像を受信する。符号化において、リファレンスビュー中のテクスチャピクチャが符号化、および、復号化される。リファレンスビュー中の再構築されたピクチャは、その後、リファレンス画像として用いられ、従属ビュー中のピクチャを符号化する。リファレンス画像は、メモリ(たとえば、コンピュータメモリ、バッファ(RAMやDRAM)や別の媒体)、または、プロセッサから回収される。復号化において、リファレンス画像は、ビットストリームから再構築される。ステップ820で、従属ビュー中の現在のテクスチャブロックに関連する入力データは、その後、受信される。符号化において、入力データは、現在のブロックの画素データ(たとえば、ルマコンポーネント、または、クロマコンポーネント)に対応する。復号化において、入力データは、現在のブロックに関連する符号化データ(たとえば、VSP剰余、または、ビュー間剰余)に対応する。ステップ830において、その後、関連する深さブロックを用いて、現在のテクスチャブロックをリファレンス画像に後ろ向けにワープすることにより、現在のテクスチャブロックのビュー合成予測(VSP)データが生成される。ステップ840において、VSPデータ生成後、VSPデータが用いられて、現在のテクスチャブロックを符号化、または、復号化する。複雑性やメモリアクセスを減少させるため、VSPは深さデータに適用されない。よって、ステップ850において、モーションパラメータ継承(MPI)モードが選択されて、対応する深さブロックを符号化するとき、現在のテクスチャブロックから継承される動き情報に基づいて、非VSPビュー間予測を用いて、従属ビュー中の対応する深さブロックが符号化、または、復号化される。
上述のフローチャートは、計算の複雑性、および/または、メモリアクセスが減少したビュー合成予測の例を説明する。上述のフローチャートは、第二インタービュー候補を有する候補リストを用いた3D/マルチビュー符号化の例を説明することを目的とする。当業者は、本発明を逸脱しない範囲で、各ステップを修正したり、ステップを再アレンジしたり、ステップを分割したり、組み合わせたりすることができる。
上の記述が提示されて、当業者に、特定のアプリケーションとその要求のコンテキストに記述される通り、本発明を行うことができる。当業者なら、記述された具体例への各種修正が理解でき、ここで定義される一般原則は別の実施例にも応用できる。よって、本発明は、記述される特定の実施例に制限することを目的としておらず、原理と新規特徴と一致する最大範囲に一致する。上述の記述において、本発明の十分な理解を提供するため、各種特定の詳細が説明される。当業者なら、本発明が行えることが理解できる。
上述の本発明の具体例は、各種ハードウェア、ソフトウェアコード、または、それらの組み合わせで実行される。たとえば、本発明の具体例は、画像圧縮チップに整合される回路、または、画像圧縮ソフトウェアに整合されるプログラムコードで、上述の処理を実行する。本発明の具体例は、デジタルシグナルプロセッサ(DSP)で実行されるプログラムコードで、上述の処理を実行する。本発明は、さらに、コンピュータプロセッサ、デジタルシグナルプロセッサ、マイクロプロセッサ、または、フィールドプログラマブルゲートアレイ(FPGA)により実行される複数の機能を含む。これらのプロセッサは、本発明により具体化される特定の方法を定義する機械読み取り可能ソフトウェアコード、または、ファームウェアコードを実行することにより、本発明による特定のタスクを実行するように設定される。ソフトウェアコード、または、ファームウェアコードは、異なるプログラミング言語、および、異なるフォーマット、または、スタイルで開発される。ソフトウェアコードは、さらに、異なるターゲットプラットフォームにコンパイルされる。しかし、本発明によるタスクを実行するソフトウェアコードの異なるコードフォーマット、スタイル、および、言語、および、設定コードのその他の手段は、本発明の精神を逸脱しない。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変動や潤色を加えることができ、従って本発明の保護範囲は、特許請求の範囲で指定した内容を基準とする。

Claims (16)

  1. 三次元、または、マルチビュービデオ符号化、または、復号化の方法であって、前記方法は、
    リファレンスビュー中のリファレンス画像を受信する工程と、
    従属ビュー中の現在のテクスチャブロックに関連する入力データを受信する工程と、
    関連する深さブロックを用いて、前記現在のテクスチャブロックを、前記リファレンス画像にバックワードワーピングすることにより、ビュー合成予測(VSP)データを、前記現在のテクスチャブロックに生成する工程と、
    前記VSPデータを用いて、前記現在のテクスチャブロックを符号化、または、復号化する工程、および、
    前記現在のテクスチャブロックから継承される動き情報に基づいて、非VSPビュー間予測を用いて、前記従属ビュー中の対応する深さブロックを符号化、または、復号化し、前記対応する深さブロックが、前記現在のテクスチャブロックと配列される工程、
    を有することを特徴とする方法。
  2. 前記関連する深さブロックは、前記現在のテクスチャブロックの位置、および、選択された視差ベクトル(DV)にしたがって、前記従属ビュー中のリファレンス奥行きマップから設置されることを特徴とする請求項1に記載の方法。
  3. 前記選択されたDVは、NBDVプロセス(隣接ブロックの視差ベクトルプロセス)を用いて導出され、前記選択されたDVは、前記現在のテクスチャブロックの一組の隣接ブロックから、第一有効DVに基づいて選択されることを特徴とする請求項2に記載の方法。
  4. 前記選択されたDVは、DoNBDVプロセス(深さ指向性隣接ブロックの視差ベクトルプロセス)を用いて導出され、導出されたDVは、前記現在のテクスチャブロックの一組の隣接ブロックから、第一有効DVに基づいて選択され、選択された深さブロックは、導出されたDV、および、前記現在のテクスチャブロックの前記位置にしたがって、前記リファレンス奥行きマップから設置され、前記選択されたDVは、前記選択された深さブロックの最大値から導出されることを特徴とする請求項2に記載の方法。
  5. 前記選択されたDVの選択プロセスは、シーケンスレベル、ピクチャレベル、スライスレベル、LCUレベル(最大符号化ユニットレベル)、CUレベル(符号化ユニットレベル)、PUレベル(予測単位レベル)、マクロブロックレベル、または、サブブロックレベルで、適応的に決定されることを特徴とする請求項2に記載の方法。
  6. 構文要素が用いられて、前記選択されたプロセスを前記選択されたDVに示すことを特徴とする請求項5に記載の方法。
  7. 前記選択されたDVの前記選択プロセスは、黙示的に、符号器側、および、復号器側で決定されることを特徴とする請求項5に記載の方法。
  8. 前記現在のテクスチャブロックは、テクスチャサブブロックに分割され、各サブブロックは、前記関連する深さブロックを用いて、前記各テクスチャサブブロックを前記リファレンス画像にバックワードワーピングすることにより生成されるサブブロックVSPデータにより予測されることを特徴とする請求項1に記載の方法。
  9. 前記現在のテクスチャブロックは予測単位(PU)に対応することを特徴とする請求項1に記載の方法。
  10. 導出されたDVは、前記現在のテクスチャブロックの一組の隣接ブロックから、第一有効DVに基づいて選択され、選択された深さブロックは、導出されたDV、および、前記現在のテクスチャブロックの前記位置にしたがって、前記リファレンスビュー中のリファレンス奥行きマップから設置され、正確なDVは、前記選択された深さブロックの最大値から導出され、前記正確なDV、および、前記現在のテクスチャブロックの前記位置が用いられて、前記リファレンス奥行きマップから、正確な深さブロックを設置し、ビュー間マージ候補を導出することを特徴とする請求項1に記載の方法。
  11. モーションパラメータ継承(MPI)モードが選択されて、前記対応する深さブロックを符号化するとき、前記現在のテクスチャブロックから継承される動き情報に基づいて、非VSPビュー間予測を用いて、前記対応する深さブロックを符号化、または、復号化することを特徴とする請求項1に記載の方法。
  12. 三次元、または、マルチビュービデオ符号化、または、復号化の装置であって、前記装置は、ひとつ以上の電子回路を有し、前記ひとつ以上の電子回路が、
    リファレンスユー中のリファレンス画像を受信し、
    従属ビュー中の現在のテクスチャブロックに関連する入力データを受信し、
    関連する深さブロックを用いて、前記現在のテクスチャブロックを前記リファレンス画像にバックワードワーピングすることにより、ビュー合成予測(VSP)データを前記現在のテクスチャブロックに生成し、
    前記VSPデータを用いて、前記現在のテクスチャブロックを符号化、または、復号化し、
    非VSPビュー間予測を用いて、前記現在のテクスチャブロックから継承される動き情報に基づいて、前記従属ビュー中の対応する深さブロックを符号化、または、復号化し、前記対応する深さブロックは、前記現在のテクスチャブロックと配列されるように設定されることを特徴とする装置。
  13. 前記関連する深さブロックは、前記現在のテクスチャブロックの位置、および、選択された視差ベクトル(DV)にしたがって、前記従属ビュー中のリファレンス奥行きマップから設置されることを特徴とする請求項12に記載の装置。
  14. 前記選択されたDVは、NBDVプロセス(隣接ブロックの視差ベクトルプロセス)を用いて導出され、前記選択されたDVは、前記現在のテクスチャブロックの一組の隣接ブロックから、第一有効DVに基づいて選択されることを特徴とする請求項13に記載の装置。
  15. 導出されたDVは、前記現在のテクスチャブロックの一組の隣接ブロックから、第一有効DVに基づいて選択され、選択された深さブロックは、導出されたDV、および、前記現在のテクスチャブロックの前記位置にしたがって、前記リファレンスビュー中のリファレンス奥行きマップから設置され、正確なDVは、前記選択された深さブロックの最大値から導出され、前記正確なDV、および、前記現在のテクスチャブロックの位置が用いられて、前記リファレンス奥行きマップから正確な深さブロックが設置されて、ビュー間マージ候補を導出することを特徴とする請求項12に記載の装置。
  16. 三次元、または、マルチビュービデオ符号化、または、復号化の方法であって、前記方法は、
    リファレンスビュー中のリファレンス画像を受信する工程と、
    従属ビュー中で、第一テクスチャブロックと第二テクスチャブロックに関連する入力データを受信する工程と、
    前記第一テクスチャブロックの一組の隣接ブロックから、第一視差ベクトル(DV)を導出する工程と、
    前記第一DV、および、前記第一テクスチャブロックの位置にしたがって、前記リファレンスビュー中のリファレンス奥行きマップから、第一深さブロックを設置する工程と、
    前記第一深さブロックを用いて、前記第一テクスチャブロックを前記リファレンス画像にバックワードワーピングすることにより、前記第一テクスチャブロックのビュー合成予測(VSP)データを生成する工程と、
    前記VSPデータを用いて、前記第一テクスチャブロックを符号化、または、復号化する工程と、
    前記第二テクスチャブロックの一組の隣接ブロックから導出される第二DVに従って設置された第二深さブロックの最大値から、正確なDVを導出する工程と、
    前記正確なDV、および、前記第二テクスチャブロックの位置を用いて、ビュー間マージ候補を導出して、前記リファレンス奥行きマップから正確な深さブロックを設置する工程、および、
    前記ビュー間マージ候補を用いて、前記第二テクスチャブロックを符号化、または、復号化する工程、
    を有することを特徴とする方法。
JP2015561934A 2013-04-09 2014-04-02 3dビデオ符号化におけるビュー合成予測の方法と装置 Pending JP2016513925A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CNPCT/CN2013/073977 2013-04-09
PCT/CN2013/073977 WO2014166068A1 (en) 2013-04-09 2013-04-09 Refinement of view synthesis prediction for 3-d video coding
PCT/CN2014/074598 WO2014166348A1 (en) 2013-04-09 2014-04-02 Method and apparatus of view synthesis prediction in 3d video coding

Publications (1)

Publication Number Publication Date
JP2016513925A true JP2016513925A (ja) 2016-05-16

Family

ID=51688844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015561934A Pending JP2016513925A (ja) 2013-04-09 2014-04-02 3dビデオ符号化におけるビュー合成予測の方法と装置

Country Status (5)

Country Link
US (1) US9961370B2 (ja)
EP (1) EP2932713A4 (ja)
JP (1) JP2016513925A (ja)
CA (1) CA2896905C (ja)
WO (2) WO2014166068A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
WO2014166063A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Default vector for disparity vector derivation for 3d video coding
WO2014166349A1 (en) * 2013-04-10 2014-10-16 Mediatek Inc. Method and apparatus of disparity vector derivation for three-dimensional and multi-view video coding
WO2014166119A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Stereo compatibility high level syntax
US10009621B2 (en) * 2013-05-31 2018-06-26 Qualcomm Incorporated Advanced depth inter coding based on disparity of depth blocks
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
US9762927B2 (en) * 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
WO2015056961A1 (ko) * 2013-10-14 2015-04-23 삼성전자 주식회사 휘도 보상 여부에 따른 뷰 합성 예측 적용 방법 및 장치
CN104506871B (zh) 2014-11-23 2017-06-06 北京工业大学 一种基于hevc的3d视频快速编码方法
CN104469387B (zh) * 2014-12-15 2017-11-03 哈尔滨工业大学 一种多视点视频编码中分量间的运动参数继承方法
WO2017069505A1 (ko) * 2015-10-19 2017-04-27 엘지전자(주) 영상의 부호화/복호화 방법 및 이를 위한 장치
US11064180B2 (en) 2018-10-15 2021-07-13 City University Of Hong Kong Convolutional neural network based synthesized view quality enhancement for video coding
WO2021195584A1 (en) * 2020-03-26 2021-09-30 Alibaba Group Holding Limited Method and apparatus for deriving temporal motion information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105337A1 (ja) * 2010-02-24 2011-09-01 日本電信電話株式会社 多視点映像符号化方法、多視点映像復号方法、多視点映像符号化装置、多視点映像復号装置、及びプログラム
WO2013016231A1 (en) * 2011-07-22 2013-01-31 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055274A (en) * 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
KR20080066522A (ko) 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
WO2009131688A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
US9118929B2 (en) * 2010-04-14 2015-08-25 Mediatek Inc. Method for performing hybrid multihypothesis prediction during video coding of a coding unit, and associated apparatus
CN102055982B (zh) 2011-01-13 2012-06-27 浙江大学 三维视频编解码方法及装置
JP5872676B2 (ja) 2011-06-15 2016-03-01 メディアテック インコーポレイテッド 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置
KR20170005464A (ko) * 2011-08-30 2017-01-13 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
CN102438167B (zh) * 2011-10-21 2014-03-12 宁波大学 一种基于深度图像绘制的立体视频编码方法
SG11201402160XA (en) * 2011-11-08 2014-08-28 Samsung Electronics Co Ltd Method and apparatus for motion vector determination in video encoding or decoding
CN102413332B (zh) * 2011-12-01 2013-07-24 武汉大学 基于时域增强的视点合成预测多视点视频编码方法
US9253486B2 (en) * 2012-09-28 2016-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion field backward warping using neighboring blocks in videos
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9762905B2 (en) * 2013-03-22 2017-09-12 Qualcomm Incorporated Disparity vector refinement in video coding
US20140301463A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for video coding and decoding
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
WO2014166119A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Stereo compatibility high level syntax

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105337A1 (ja) * 2010-02-24 2011-09-01 日本電信電話株式会社 多視点映像符号化方法、多視点映像復号方法、多視点映像符号化装置、多視点映像復号装置、及びプログラム
WO2013016231A1 (en) * 2011-07-22 2013-01-31 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DONG TIAN(外2名): "CE1.h: Backward View Synthesis Prediction using Neighbouring Blocks", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016035901, 23 January 2013 (2013-01-23), US, pages 1 - 5 *
GERHARD TECH(外3名): "3D-HEVC Test Model 3", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016035902, 24 March 2013 (2013-03-24), US, pages 1 - 51 *

Also Published As

Publication number Publication date
WO2014166068A1 (en) 2014-10-16
EP2932713A4 (en) 2016-08-24
EP2932713A1 (en) 2015-10-21
WO2014166348A1 (en) 2014-10-16
US9961370B2 (en) 2018-05-01
CA2896905A1 (en) 2014-10-16
CA2896905C (en) 2018-02-27
US20150382019A1 (en) 2015-12-31

Similar Documents

Publication Publication Date Title
US9961370B2 (en) Method and apparatus of view synthesis prediction in 3D video coding
KR101753171B1 (ko) 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
KR101638752B1 (ko) 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법
JP6000463B2 (ja) 3d映像符号化の仮想深度値の方法および装置
JP6042536B2 (ja) 3dビデオ符号化におけるビュー間候補導出の方法と装置
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
JP2017536017A (ja) 視点合成予測を含む3dまたは多視点映像符号化の方法
US20150201214A1 (en) Method and apparatus of disparity vector derivation in 3d video coding
CN110062245B (zh) 三维视频编码的摄像机参数发信的方法和装置
JP2015525997A5 (ja)
US10341638B2 (en) Method and apparatus of depth to disparity vector conversion for three-dimensional video coding
CA2921759C (en) Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
CN105144714B (zh) 三维或多视图视频编码或解码的方法及装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181023