JP2010537484A - 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置 - Google Patents

多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置 Download PDF

Info

Publication number
JP2010537484A
JP2010537484A JP2010520980A JP2010520980A JP2010537484A JP 2010537484 A JP2010537484 A JP 2010537484A JP 2010520980 A JP2010520980 A JP 2010520980A JP 2010520980 A JP2010520980 A JP 2010520980A JP 2010537484 A JP2010537484 A JP 2010537484A
Authority
JP
Japan
Prior art keywords
picture
disparity
region
information
regional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010520980A
Other languages
English (en)
Other versions
JP5646994B2 (ja
Inventor
ライ ポリン
ビバス パンディット プルビン
ペン イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010537484A publication Critical patent/JP2010537484A/ja
Application granted granted Critical
Publication of JP5646994B2 publication Critical patent/JP5646994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

領域視差ベクトルを用いた多視点符号化されたビデオにおけるモーションスキップモードのための方法及び装置が提供される。装置は、多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいてイメージブロックのモーション情報を取得することによって、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを符号化するエンコーダを含む。当該他のピクチャの領域の視差情報は、当該他のピクチャの全体より小さな部分に対応する。

Description

関連発明の相互参照
本願は、米国仮特許出願第60/955,911号(出願日、2007年8月15日)の利益を主張し、当該出願は参照されることによって本願に包含されている。
本発明の原理は、全体としてビデオ符号化及びビデオ復号に関し、特に、多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置に関する。
モーションスキップモードは、国際標準化機構/国際電気標準会議(ISO/IEC)MPEG−4(Moving Picture Experts Group−4)第10部AVC(Advanced Video Cording)、国際電気通信連合電気通信標準化部門(ITU−T)H.264勧告(以下、「MPEG−4AVC規格」と称する)の多視点ビデオ符号化(MVC)拡張の符号化ツールとして近年採用されている。モーションスキップモードは、ピクチャ各々の単一の全体モーションベクトル(global motion vector)を使用して隣接する視点(view)内の対応するマクロブロックを発見してモーション情報を推測する。この方法の問題は、シーン(scene)が、異なった領域に対して異なった視差を有していることである。例えば、前景の物体は遠方の背景と比較して大きな視差を有している。単一の全体的な視差を用いたフレームワイズな(frame−wise)視差の近似は正確ではない。
従来のモーションスキップモードの使用は、大きく2つの段階に分けられる。第1の段階は対応するマクロブロックの検索を含み、第2の段階はモーション情報の取得を含む。第1の段階において、「全体視差ベクトル」が使用されて隣接視点のピクチャ内の対応する位置が示される。第2の段階において、モーション情報が隣接視点のピクチャ内の対応するマクロブロックから取得され、当該モーション情報は複製されて現在のマクロブロックに適用される。
従来のモーションスキップモード法では、全体視差ベクトル(GDV)によって隣接視点内の対応するマクロブロックを検索する。全体視差ベクトルは、現在のピクチャと隣接視点のピクチャとの間のユニットのマクロブロックサイズによって測定される。全体的な視差ベクトルは、定期的に、例えばアンカーピクチャ毎に評価されて復号される。このような場合、非アンカーピクチャの全体視差ベクトルは、アンカーピクチャからの最近時の全体視差ベクトルを使用して補間される。全体視差ベクトルは、全体ピクチャに関する単一ベクトルとして取得される。
図1を参照すると、従来技術に従った全体的視差の導出法が、全体として参照符号100で示されている。導出100は、空間軸110及び時間軸120に関して示されている。
現在の視点と特定のピクチャ順序情報(picture order count)(POC)において隣接する視点のうちの1つとの間のGDVcurは、以下の式を使用して導出される。
Figure 2010537484
GDVahead及びGDVbehindは、最近時に復号された全体視差ベクトルである。POCcur、POCahead及びPOCbehindは、時間軸120に沿ってナンバリングされたピクチャ順序情報である。現在のフレームは、結合多視点ビデオモデル(JMVM)の多視点ビデオ符号化(MVC)拡張シンタックスのシーケンスパラメータセット(SPS)内で定義された視点間予測参照(inter−view prediction reference)と同数のGDVcurを有し得る。
全体視差を復号するために、シンタックス要素global_disparity_mb_lXがスライスレベルでの使用のために提示される。当該シンタックス要素は、測定された全体視差ベクトルの成分を含み、非アンカーピクチャの全体的な視差は、上記の式を使用して導出される。
表1は、MPEG−4AVC規格の多視点ビデオ符号化拡張とともに使用するためのモーションスキップモードのスライスヘッダシンタックスを示している。
Figure 2010537484
表1内のいくつかのシンタックス要素は以下のように定義される:
global_disparity_mb_l0[compldx]は、現在のスライスとリスト0に関する視点間予測参照のスライスとの間のマクロブロックサイズユニット内の全体視差を示す。最初に、水平オフセットが復号順に復号され、Compldx=0が与えられる。次に、垂直オフセットが復号順に復号され、Compldx=1が与えられる。
global_disparity_mb_l1[compldx]は、global_disparity_mb_l0と同一のセマンティクス(semantics)を有し、l0及びリスト0は、l1及びリスト1によって各々置換される。
表2は、モーションスキップモードのためのマクロブロック層シンタックスを示している。
Figure 2010537484
表2内のいくつかのシンタックス要素は以下のように定義される:
motion_skip_flagが0であることは、符号化されたマクロブロックがモーションスキップモード内に無いことを示す。
米国仮特許出願第60/955,911号明細書
この従来技術の方法の主たる欠点は、シーン内の視差が、シーンの異なった領域間で大きく変化することである。例えば、前景の物体は、遠い背景に比べて大きな視差を有していることである。従って、単一の「全体視差ベクトル」を用いたピクチャ全体をカバーは不正確である。このことは、対象の現在のマクロブロックに実際は対応していないマクロブロックを隣接視点から発見することをもたらす。
先行技術のこれら及び他の欠点・短所は、多視点ビデオ符号化されたビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置に関する本発明の原理によって解決される。
本発明の原理の特徴に従って、装置が提供される。当該装置は、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを符号化するエンコーダを含み、当該符号化は、当該多視点ビデオコンテンツの少なくとも1つの他の視点に対応した他のピクチャの領域の視差情報に基づいて当該イメージブロックのモーション情報の取得することによって行われる。当該他のピクチャの領域の視差情報は、当該他のピクチャの全体より小さな部分に対応する。
本発明の原理の他の特徴に従って、方法が提供される。当該方法は、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを符号化するステップを含み、当該符号化は、当該多視点ビデオコンテンツの少なくとも1つの他の視点に対応した他のピクチャの領域の視差情報に基づいてイメージブロックに関するモーション情報の取得することによって行われる。当該他のピクチャの領域の視差情報は、当該他のピクチャの全体より小さな部分に対応する。
本発明の原理のさらに他の特徴に従って、装置が提供される。当該装置は、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを復号するデコーダを含み、当該復号は、当該多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいて当該イメージブロックのモーション情報の取得することによって行われる。当該他のピクチャの領域の視差情報は、当該他のピクチャの全体より小さな部分に対応する。
本発明の原理のさらに他の特徴に従って、方法が提供される。当該方法は、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを復号するステップ含み、当該復号は、当該多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいて当該イメージブロックのモーション情報の取得することによって行われる。当該他のピクチャの領域の視差情報は、当該他のピクチャの全体より小さな部分に対応する。
本発明の原理のこれら及び他の特徴、特性、利点は、添付の図面を参照して読まれる以下の発明を実施するための形態によって明らかになるだろう。
本発明の原理は、添付の図面に従って、さらに良く理解されるだろう。
従来技術に従った全体的視差の導出に関する図である。 本発明の原理の実施形態に従った、本発明の原理が適用され得る多視点ビデオ符号化(MVC)エンコーダの一例のブロック図である。 本発明の原理の実施形態に従った、本発明の原理が適用され得る多視点ビデオ符号化(MVC)デコーダの一例のブロック図である。 本発明の原理の実施形態に従った、領域視差ベクトルのガウス混合モデル分類後ヒストグラムの一例の図である。 本発明の原理の実施形態に従った、モーションスキップモードのために領域視差ベクトルを取得して信号伝送する方法の一例のフロー図である。 本発明の原理の実施形態に従った、領域視差ベクトルを復号して使用する方法の一例のフロー図である。 本発明の原理の実施形態に従った、領域視差ベクトルを取得して使用する方法の他の例のフロー図である。 本発明の原理の実施形態に従った、領域視差ベクトルを復号して使用する方法の他の例のフロー図である。
本発明の原理は、多視点符号化されたビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置に関する。
この発明を実施するための形態に本発明の原理が記載される。従って、当業者は、本明細書及び添付の図面に明示的に記載または図示されておらずとも、本発明の原理を包含しかつ本発明の原理の趣旨及び範囲内に含まれる様々な構成を案出可能であろう。
本明細書内の全ての例及び条件付きの表現は、発明者によって提供されて技術を進歩させる本発明の原理及び概念の理解において読者を補助する教育的な目的でなされており、具体的に示された例及び条件に制限されないものとして解釈されるべきである。
さらに、本明細書内において本発明の原理、本発明の原理の特徴及び本発明の原理の実施形態を示している全ての記載及びこれらの特定の例は、これらの構造的及び機能的な均等物の両方を包含することが意図されている。さらに、このような均等物は、現在知られている均等物及び将来開発される均等物、すなわち開発されて構造に関わらず同一の機能を発揮する全ての要素の両方を含むことが意図されている。
従って、例えば、当業者によって、本明細書内に示されたブロック図が、本発明の原理を実施する具体的回路の概念を表すことが理解されるだろう。同様に、任意のフローチャート、フロー図、状態遷移図、擬似コード(pseudocode)等が様々な処理を表し、当該様々な処理が実質的にコンピュータ可読媒体内に表されて、コンピュータまたはプロセッサが明示的に示されていてもいなくてもコンピュータまたはプロセッサによって実行され得ることが理解されるだろう。
添付の図面に示された様々な要素の機能は、専用のハードウェア、及び適切なソフトウェアと連携してソフトウェアを実行可能なハードウェアを使用して提供される。プロセッサによって提供される場合、機能は単一の専用プロセッサによって、単一の共有プロセッサによって、または複数の個別のプロセッサによって提供されても良く、当該複数の個別のプロセッサのいくつかは共有されても良い。さらに、用語「プロセッサ」または「コントローラ」の明示的な使用は、ソフトウェアを実行可能なハードウェアのみに言及すると解釈されるべきではなく、限定する訳ではないが、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを保存するROM(read−only memory)、RAM(random access memory)及び不揮発性記憶装置を非明示的に含み得る。
通常の及び/またはカスタムされた他のハードウェアも含まれ得る。同様に、添付の図面に示される任意のスイッチは単に概念的なものである。これらの機能は、プログラムロジックの動作によって、専用のロジックによって、プログラム制御及び専用のロジックの対話(interaction)によって、または手入力でも実行され得、文脈からさらに具体的に理解されるように個々の技術手段は実施者によって選択可能である。
本願の特許請求の範囲において、上記の特定の機能を実行する手段として表現される要素は、当該機能を実行する任意の方法・構成を含むことが意図されており、例えば、a)特定の機能を実行する回路要素の組み合わせ、またはb)ファームウェア、マイクロコード等を含むソフトウェアと当該ソフトウェアを実行して機能を発揮するのに適切な回路との組み合わせを含む。当該特許請求の範囲によって画定された本発明の原理は、記載された様々な手段によって提供される機能が特許請求の範囲に記載された態様にて組み合わされかつ結び付けられているという事実の下に存在する。従って、これらの機能を提供可能な任意の手段が本明細書内に示された手段と均等であるとみなされる。
本明細書において、本発明の原理の「1つの実施形態」への言及は、実施形態に関連して記載された特定の特性、構造及び特徴等が本発明の原理の少なくとも1つの実施形態に含まれることを意味する。従って、本明細書全体の様々な所に記載されている「1つの実施例において」という表現は、必ずしも同一の実施例に言及するものではない。
本明細書で使用されている表現「ハイレベルシンタックス」は、マクロブロック層よりも上の階層に存在するビットストリーム内のシンタックスをいう。例えば、本明細書において使用されているハイレベルシンタックスは、限定するわけではないが、スライスヘッダレベルのシンタックス、補足的な付加情報(SEI)レベルのシンタックス、ピクチャパラメータセット(PPS)レベルのシンタックス、シーケンスパラメータセット(SPS)レベルのシンタックス、視点パラメータセット(VPS)レベルのシンタックス及びネットワーク抽象化層(NAL)ユニットヘッダレベルのシンタックスをいう。
さらに、本明細書において置換可能に使用される「クロスビュー(cross−view)」及び「インタービュー(inter−view)」は、どちらも現在の視点以外の視点に属するピクチャをいう。
さらに、本明細書で使用されている「複数の」は、2以上のアイテムに言及する際に用いられる。従って、例えば「複数の領域視差ベクトル」は、2以上の領域視差ベクトルをいう。
また、本明細書で使用されている「モーション情報」というフレーズは、同一の視点に対応する時間的変化をいう。
加えて、本明細書で使用されている「視差情報」というフレーズは、異なった視点間の空間的変化をいう。
さらに、本明細書で使用されている「既存のシンタックス」は、本発明の原理の目的のために生成された新たなシンタックスと比較して、多視点コンテンツの関する任意の既存のビデオ符号化規格、勧告、及びこれらの拡張をいい、「既存のシンタックス」には、限定するわけではないが、MPEG−4AVC規格を含む。従って、これらの既存のシンタックスは、少なくとも2つの目的を提供し得る。第1の目的は、既存のビデオ符号化規格及び勧告に意図された目的であり、当該2つの目的は当該第1の目的及び本発明の原理に従った少なくとも1つの目的に関連している。
用語「及び/または」及び「少なくとも1つ」の使用、例えば「A及び/またはB」及び「A及びBの少なくとも1つ」という場合は、最初に挙げられた選択肢(A)のみの選択、2番目に挙げられた選択肢(B)のみの選択、または両方の選択肢(A及びB)の選択を包含することが意図されていると理解される。他の例として、「A、B及び/またはC」及び「A、B及びCの少なくとも1つ」という場合は、当該表現は、最初に挙げられた選択肢(A)のみの選択、2番目に挙げられた選択肢(B)のみの選択、3番目に挙げられた選択肢(C)のみの選択、最初及び2番目に挙げられた選択肢(A及びB)のみの選択、最初及び3番目に挙げられた選択肢(A及びC)のみの選択、2番目及び3番目に挙げられた選択肢(B及びC)のみの選択、または3つの全ての選択肢(A、B及びC)の選択を包含することが意図されている。このことは、本技術分野及び関連技術分野の当業者によって容易に理解されるように、多数のアイテムが挙げられる場合に拡張され得る
さらに、本明細書において、本発明の原理の1または複数の実施形態が、MPEG−4AVC規格の多視点ビデオ符号化(MVC)拡張に関して説明されているが、本発明の原理は、この規格のみに限定されるわけではないので、本発明の原理の趣旨を維持しつつ、マルチビデオ符号化に関する他のビデオ符号化規格、勧告及びこれらの拡張(MPEG−4AVC規格の拡張を含む)に対して使用され得ることが理解されるべきである。
図2を参照すると、多視点ビデオ符号化(MVC)エンコーダの一例が、全体として参照符号200で示されている。エンコーダ200は、変換器210の入力に信号通信可能に接続されている出力を有する合成器205を含む。変換器210の出力は、量子化器215の入力に信号通信可能に接続されている。量子化器215の出力は、エントロピーコーダ220の入力及び逆量子化器225の入力に信号通信可能に接続されている。逆量子化器225の出力は、逆変換器230の入力に信号通信可能に接続されている。逆変換器230の出力は、合成器235の第1の非反転入力に信号通信可能に接続されている。合成器235の出力は、イントラ予測器245の入力及びデブロッキングフィルタ(deblocking filter)250の入力に信号通信可能に接続されている。デブロッキングフィルタ250の出力は、参照ピクチャ保存器255(視点iに関する)の入力に信号通信可能に接続されている。参照ピクチャ保存器255の出力は、モーション補償器275の第1の入力及びモーション評価器280の第1の入力に信号通信可能に接続されている。モーション評価器280の出力は、モーション補償器275の第2の入力に信号通信可能に接続されている。
(その他の視点のための)参照ピクチャ保存器260は、視差/照度評価器270の第1の入力及び視差/照度補償器265の第1の入力に信号通信可能に接続されている。視差/照度評価器270の出力は、視差/照度補償器265の第2の入力に信号通信可能に接続されている。
エントロピーデコーダ220の出力は、エンコーダ200の出力として使用可能である。合成器205の非反転入力は、エンコーダ200の入力として使用可能であり、かつ視差/照度評価器270の第2の入力及びモーション評価器280の第2の入力に信号通信可能に接続されている。スイッチ285の出力は、合成器235の第2の非反転入力及び合成器205の反転入力に信号通信可能に接続されている。スイッチ285は、モーション補償器275の出力に信号通信可能に接続されている第1の入力、視差/照度補償器265の出力に信号通信可能に接続されている第2の入力、及びイントラ予測器245の出力に信号通信可能に接続されている第3の入力を備えている。
モード判定モジュール240は、スイッチ285によって選択される入力を制御するために、スイッチ285に接続されている出力を有している。
図3を参照すると、多視点ビデオ符号化(MVC)デコーダの一例が、全体として参照符号300で示されている。デコーダ300は、逆量子化器310の入力に信号通信可能に接続されている出力を有するエントロピーデコーダ305を備えている。逆量子化器310の出力は、逆変換器315の入力に信号通信可能に接続されている。逆変換器315の出力は、合成器320の第1の非反転入力に信号通信可能に接続されている。合成器320の出力は、デブロッキングフィルタ325の入力及びイントラ予測器330の入力に信号通信可能に接続されている。デブロッキングフィルタ325の出力は、(視点iのための)参照ピクチャ保存器340の入力に信号通信可能に接続されている。参照ピクチャ保存器340の出力は、モーション補償器335の第1の入力に信号通信可能に接続されている。
(その他の視点のための)参照ピクチャ保存器345の出力は、視差/照度補償器350の第1の入力に信号通信可能に接続されている。
エントロピーデコーダ305の入力は、残留ビットストリーム(residue bitstream)を受信するために、デコーダ300への入力として使用可能である。加えて、モードモジュール360の入力も、スイッチ355によって選択される入力を制御するための制御シンタックスを受信するために、デコーダ300への入力として使用可能である。さらに、モーション補償器335の第2の入力が、モーションベクトルを受信するために、デコーダ300の入力として使用可能である。視差/照度補償器350の第2の入力も、視差ベクトルシンタックス及び照度補償シンタックスを受信するために、デコーダ300の入力として使用可能である。
スイッチ355の出力は、合成器320の第2の非反転入力に信号通信可能に接続されている。スイッチ355の第1の入力は、視差/照度補償器350の出力に信号通信可能に接続されている。スイッチ355の第2の入力は、モーション補償器335の出力に信号通信可能に接続されている。スイッチ355の第3の入力は、イントラ予測器330の出力に信号通信可能に接続されている。モードモジュール260の出力は、スイッチ355によって選択される入力を制御するためにスイッチ355に信号通信可能に接続されている。デブロッキングフィルタ325の出力は、デコーダの出力として使用可能である。
上述の様に、本発明の原理は、多視点符号化されたビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置に関する。多視点ビデオ符号化(MVC)は、多視点シーケンス(multi−view sequence)の符号化のための圧縮規格である。多視点ビデオ符号化(MVC)のシーケンスは、異なった視点から同一のシーンをキャプチャした2以上のビデオのシーケンスのセットである。
従来技術に関して上述したように、現在、結合多視点ビデオモデル(JMVM)に従ったモーションスキップモードにおいて、特定の視点のモーション情報は、隣接視点のフレーム内の対応するマクロブロックから推測される。さらに、従来技術に関して上述したように、ピクチャ全体に適用される「全体視差ベクトル」が計算され、隣接視点内の対応するマクロブロックが計算される。その後、この全体視差ベクトルは、各々のアンカーピクチャにおいて伝送され、対応するマクロブロックを取得するために非アンカーピクチャに使用される。
対照的に、我々は、単一のピクチャに対する「領域視差ベクトル」の使用を提案する。ピクチャは、最初に、異なった視差を有する領域に分割される。領域の各々に関して、領域視差ベクトルが計算される。ピクセル、4×4ブロック、8×8ブロックまたは整列したマクロブロックであり得るN個の局所ベクトルの取得後、これらをアンカーピクチャの各々に関して信号伝送する。その後、非アンカーピクチャはマクロブロックベースで、モーション情報を推測するために使用する視差ベクトルを選択する。
1つの実施形態において、マクロブロックの各々に関する視差の比較的正確な情報を取得するために、ピクチャは異なった視差を有する領域に分割される。各々の領域は、特定のクラスに対応し、近い値の視差値を有するブロックを含む。その後、各々のクラスは、単一の視差ベクトルによって近似され得る。従って、いくつかの領域視差ベクトルが取得される。
1または複数の実施形態において、領域視差ベクトルは、アンカーピクチャに関してのみ伝送され得、非アンカーピクチャは、アンカーピクチャから直接これらのベクトルを使用し得るか、またはアンカーピクチャからのこれらの各々の相対距離に基づいてこれらのベクトルが評価され得る。これは選択的なものであるが、この方法の利点は、視差ベクトルに関して伝送されるビットが、アンカーピクチャにおいてのみ伝送されることによって節約され得ることである。
他の実施形態において、視差ベクトルは非アンカーピクチャの各々に関して伝送される。この方法の欠点は、領域視差ベクトルを伝送するために多くのビットが必要なことである。しかし、ベクトルがさらに正確になされて、さらに正確に対応するマクロブロックが選択され得ることが利点である。
現在のピクチャは、各々の領域内に大体近似した視差を有する領域に分割され、その後、領域の各々に単一の視差ベクトルを示す。視差情報を用いて、この目的を達成するための様々な方法が存在する。ピクセルレベルで正確かつ平滑な視差マップを得るように複雑な方法が開発されている多くのコンピュータビジョンの文献とは異なり、本発明の原理の実施形態によって、ビデオエンコーダによって実行された最初の視差補償から取得されたブロックワイズ(block−wise)な視差ベクトルの水平成分に基づいたクラスタリング手法(clustering method)が行われる。この方法は、同一の水平線上に配されたカメラを用いた多視点システムに適している。カメラアレイのような2次元(2D)カメラ配列に対して、クラスタリングは、視差ベクトルのX方向及びY方向の両方に拡張され得る。
視差ベクトルを使用するブロック分割を達成するために、我々は、ガウス混合モデル(GMM)を使用するクラスタリング手法を提案する。期待値最大化アルゴリズム(EMアルゴリズム)が適用されてGMMクラスタリングが達成される。この方法は、複数のガウス分布を有する視差ベクトルの水平成分のヒストグラムを生成する。ブロックは、ガウス成分の各々に対して計算された視差ベクトルの尤度に基づいて異なった領域に分類される。
この分類の後、視差クラス(領域)の各々に関して平均視差ベクトルが取得される。図4を参照すると、領域視差ベクトルのガウス混合モデル(GMM)分類後のヒストグラムの一例が、全体として参照符号400で示されている。ヒストグラム400は、本発明の原理に従った分類ツールの出力を示している。
N個の領域に関するN個の平均視差ベクトルが取得された後、当該N個の視差ベクトルは、ピクセル境界、4×4ブロック境界、8×8ブロック境界またはマクロブロック境界に対応し得る最も近い整数値に四捨五入される。1つの実施形態においては、その後、N個の平均視差ベクトルがハイレベルシンタックスとして信号伝送される。上述したように、ハイレベルシンタックスは、限定するわけではないが、スライスヘッダレベルのシンタックス、補足的な付加情報(SEI)レベルのシンタックス、ピクチャパラメータセット(PPS)レベルのシンタックス、シーケンスパラメータセット(SPS)レベルのシンタックス及びネットワーク抽象化層(NAL)ユニットヘッダレベルのシンタックス等であり得る。当該実施例によって、これらの領域視差ベクトルは、アンカーピクチャに関してのみ信号伝送され得るか、またはアンカーピクチャ及び非アンカーピクチャに関して信号伝送され得る。1つの実施形態において、この情報は、スライスヘッダにおいて全てのピクチャに関して信号伝送される。表3は、本発明の原理に従ったモーションスキップモードに対して提示されたスライスヘッダを示している。
以下の説明において、領域視差ベクトルがマクロブロック境界に合わせられると仮定しているが、領域視差ベクトルは、ピクセル境界、2×2ブロック境界、4×4ブロック境界または8×8ブロック境界にも合わせられ得る。
Figure 2010537484
これらの領域視差ベクトルが一度取得されると、マクロブロックの各々はこれらの領域視差ベクトルのうちの1つを使用し、モーションスキップモードのために他の視点から対応するマクロブロックを取得することが可能である。レート歪みに関して最も低いコストを与える領域視差ベクトルが判定されると、当該判定された領域視差ベクトルが信号伝送されるので、デコーダは同一の視差ベクトルを使用可能である。従って、マクロブロックレベルにおいて、マクロブロックモードがモーションスキップである場合にどの視差ベクトルが使用されるかが信号伝送される。表4は、本発明の原理の実施形態に従って、モーションスキップモード対して提示されたマクロブロック層を示している。
本発明の原理の実施形態に従って提示されたシンタックス要素に関するセマンティクスが以下で説明される。
スライスヘッダセマンティクスは以下を含む:
num_regional_disparity_vectors_l0は、LIST_0視点間参照ピクチャ(inter−view reference picture)に対応する現在のスライスの領域視差ベクトルの数を示す。
num_regional_disparity_vectors_l1は、LIST_1視点間参照ピクチャに対応する現在のスライスの領域視差ベクトルの数を示す。
regional_disparity_l0[numVect][compldx]は、使用される視差ベクトル成分を特定する。インデックスnumVectは、regional_disparity_l0が属する領域を特定する。水平視差ベクトル成分は、最初に復号順に復号されcompldx=0を与えられる。垂直視差ベクトル成分は、次に、復号順に復号されcompldx=1を与えられる。
regional_disparity_l1[numVect][compldx]は、regional_disparity_l0と同一のセマンティクスを有し、l0がl1に置換される。
マクロブロック層のセマンティクスは以下を含む:
list_idxが存在する場合、これはどのリストが使用されてモーション情報及びモード情報が推測されるかを示す。list_idxが0であることは、マクロブロックがList_0の視点間参照ピクチャからモーション情報及びモード情報を推測することを示す。list_idxが1であることは、マクロブロックがList_1の視点間参照ピクチャからモーション情報及びモード情報を推測することを示す。
regional_disparity_idxが存在する場合、これは対応するモーションベクトルを取得するための領域視差ベクトルの選択に使用されるregional_disparity_lx配列内のインデックスを特定する。regional_disparity_l0とregional_disparity_l1との間の選択は、シンタックスlist_idxに依存する。
他の実施形態において、領域視差ベクトルはエンコーダによっては伝送されないが、その代わりに従来のシンタックス及び利用可能なデータを使用してエンコーダ及び/またはデコーダ側で計算され得る。
アンカーピクチャ及び/または非アンカーピクチャに対して複数の視点間参照ピクチャを使用することも可能である。従って、他の実施形態において、領域視差ベクトルは、各々の視点間参照ピクチャに対して特定され得る。マクロブロックレベルにおいて、どの視点間参照ピクチャが使用されて情報が導出されるべきかを示す必要がある。表5は、本発明の原理の実施形態に従った、複数の参照を用いたモーションスキップモードのための提案されたスライスヘッダを示している。
Figure 2010537484
表6は、本発明の原理の実施形態に従った、複数の参照を用いたモーションスキップモードのための提案されたマクロブロック層を示している。
Figure 2010537484
表5における唯一の追加は、複数の参照に関するループである。表6において、追加のref_dxが追加されて、現在のマクロブロックに関する領域視差ベクトルを取得するために複数の視点間参照ピクチャのうちのどれが使用されるべきかが示される。ref_idxのセマンティクスは以下の通りである:
ref_idxが存在する場合、これは領域視差ベクトルの取得のために使用されるべき視点間参照ピクチャのlist_idxによって信号伝送される参照ピクチャリスト内のインデックスを特定する[明確にして下さい]。
図5を参照すると、モーションスキップモードのために領域視差ベクトルを取得して信号伝送する方法の一例が、全体として参照符号500で示されている。
方法500は、機能ブロック510に制御を渡す開始ブロック505を含んでいる。機能ブロック510は、視点間参照ピクチャの各々のピクチャのブロックの各々の視差ベクトルを取得し、制御を機能ブロック515に渡す。機能ブロック515は、分類ツール(例えば、限定するわけではないが、ガウス混合モデル(GMM)を含む)を使用して、視差ベクトルをクラスタリングし、制御を機能ブロック520に渡す。機能ブロック520は、異なった深さ(視差ベクトル)を有する異なった領域を取得し、機能ブロック525に制御を渡す。機能ブロック525は、当該領域の各々の平均視差ベクトルを取得し、制御を機能ブロック530に渡す。機能ブロック530は、領域視差ベクトルの各々を使用して他の視点から対応するモーションベクトルの各々を取得し、制御を機能ブロック535に渡す。機能ブロック535は、ハイレベルにおいて(例えば、ハイレベルシンタックスを使用して)リストの各々に関する全ての視差ベクトルを信号伝送し、制御を機能ブロック540に渡す。機能ブロック540は、マクロブロックレベルにおいてリストインデックス領域視差ベクトルインデックス及び視点間参照インデックスを信号伝送し、制御を終了ブロック599に渡す。
図6を参照すると、領域視差ベクトルを復号して使用する方法の一例が、全体として参照符号600で示されている。方法600は、制御を機能ブロック610に渡す開始ブロック605を含んでいる。機能ブロック610は、リストの各々からの視点間参照ピクチャの各々の領域視差ベクトルを解析し、制御を機能ブロック615に渡す。機能ブロック615は、スキップモードマクロブロックのためにリストインデックス、領域視差ベクトルインデックス及び視点間参照インデックスを解析し、制御を機能ブロック620に渡す。機能ブロック620は、リストインデックス、領域視差ベクトルインデックス及び視点間参照インデックスを使用して領域視差ベクトルを取得し、制御を機能ブロック625に渡す。機能ブロック625は、領域視差ベクトルを使用して、視点間参照ピクチャから対応するマクロブロックを取得し、制御を機能ブロック630に渡す。機能ブロック630は、モーションスキップマクロブロックを復号し、制御を終了ブロック699に渡す。
図7を参照すると、領域視差ベクトルを取得して使用する方法の他の例が、全体として参照符号700で示されている。
方法700は、制御を機能ブロック710に渡す開始ブロック705を含む。機能ブロック710は、対応する視点間参照ピクチャの各々の現在のピクチャの領域視差ベクトルを非明示的に取得し、制御を機能ブロック715に渡す。機能ブロック715は、所与の領域視差ベクトルを使用して他の視点から対応するモーションベクトルを取得し、制御を機能ブロック720に渡す。機能ブロック720は、デコーダ側において後に視差ベクトルの非明示的な導出を可能とする1または複数の対応するハイレベルシンタックスを信号伝送し、制御を終了ブロック799に渡す。
図8は、領域視差ベクトルを復号して使用する方法の他の例が、全体として参照符号800で示されている。
方法800は、制御を機能ブロック810に渡す開始ブロック805を含む。機能ブロック810は、スキップマクロブロックモードのためのハイレベルシンタックスを解析し、制御を機能ブロック815に渡す。機能ブロック815は、従来のシンタックスを使用して領域視差ベクトルを非明示的に取得し、制御を機能ブロック820に渡す。機能ブロック820は、領域視差ベクトルを使用して対応するマクロブロックを視点間参照ピクチャから取得し(復号されている現在のマクロブロックに関して)、制御を機能ブロック825に渡す。機能ブロック825は、現在のマクロブロックをモーションスキップマクロブロックとして復号し、制御を終了ブロック899に渡す。
本発明の多くの付随の利点/特徴のうちのいくつかが以下に説明されるが、そのうちのいくつかは既に上述されている。例えば、1つの利点/特徴は、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを符号化するエンコーダを含む装置であって、当該符号化が、多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいてイメージブロックのモーション情報を取得することによって行われる装置である。当該他のピクチャの領域の視差情報は、当該他のピクチャの全体より小さな部分に対応する。
他の利点/特徴は、上述のエンコーダを有する装置であって、当該他のピクチャの領域の視差情報が少なくとも1つの領域視差ベクトルを含み、当該エンコーダが、多視点ビデオコンテンツを符号化する際に用いられる視点間参照ピクチャの各々の2以上の領域視差ベクトルを取得する装置である。
さらに他の利点/特徴は、上述のエンコーダを有する装置であって、当該エンコーダが他のピクチャの複数の領域視差ベクトルを取得し、当該他のピクチャの領域の視差情報が領域視差ベクトルを含む装置である。
さらに他の利点/特徴は、他のピクチャの複数の領域視差ベクトルを取得するエンコーダを含み、当該他のピクチャ領域の視差情報が領域視差ベクトルを含む上述のような装置であって、当該エンコーダが、当該他のピクチャの複数のブロックの各々の複数の視差ベクトルを取得し、当該複数の視差ベクトルに基づいて当該複数のブロックを異なった領域に分類する装置である。
さらに、他の利点/特徴は、分類をするエンコーダを有する上述のような装置であって、当該エンコーダが当該異なった領域の各々の平均視差ベクトルを各々計算する装置である。
さらなる他の利点/特徴は、当該異なった領域の各々の平均視差ベクトルを各々計算するエンコーダを有する上述のような装置であって、当該異なった領域の各々に対して計算される平均視差ベクトルが、当該領域の領域視差ベクトルとして使用される装置である。
また、他の利点/特徴は、当該異なった領域の各々の平均視差ベクトルを各々計算するエンコーダを有する上述のような装置であって、当該異なった領域の各々に対して各々計算される領域視差ベクトルがハイレベルシンタックス要素を使用して伝送される装置である。
さらなる他の利点/特徴は、当該異なった領域の各々に対して各々計算される領域視差ベクトルをハイレベルシンタックス要素を使用して伝送するエンコーダを有する上述のような装置であって、当該ハイレベルシンタックス要素は、スライスヘッダ、シーケンスパラメータセット、ピクチャパラメータセット、視点パラメータセット、ネットワーク抽象化層ユニットヘッダ、及び補足的な付加情報メッセージのうちの少なくとも1つに含まれる。
さらに、他の利点/特徴は、上述のようなエンコーダを含む装置であって、リストインデックス、領域視差ベクトルインデックス及び参照インデックスが、モーションスキップマクロブロックとして選択された多視点コンテンツに対応するイメージブロックの各々に関して伝送される装置である。
さらなる他の利点/特徴は、上述のようなエンコーダを含む装置であって、当該エンコーダが、少なくとも1つのシンタックス要素から当該他のピクチャの異なった領域の各々に対して各々計算される領域視差ベクトルを非明示的に導出する装置である。
本発明の原理のこれら及び他の特徴並びに利点は、本明細書の教示に基づいて、関連技術分野の当業者によって容易に確認されるであろう。本発明の原理の教示は、ハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、またはこれらの組み合わせといった様々な形式で実施され得ることが理解されるべきである。
最も好ましくは、本発明の原理の教示は、ハードウェアとソフトウェアとの組み合わせとして実施される。さらに、ソフトウェアは、プログラム保存ユニットにおいて明確に具体化されるアプリケーションプログラムとして実施され得る。アプリケーションプログラムは、任意の適切なアーキテクチャを含むマシンにアップロードされ得、当該マシンによって実行され得る。好ましくは、当該マシンは、1または複数のCPU(central processing unit)、RAM(random access memory)及び入力/出力(I/O)インタフェース等のハードウェアを有するコンピュータプラットフォームにおいて実施される。当該コンピュータプラットフォームは、オペレーティングシステム及びマイクロインストラクションコード(microinstruction code)も含み得る。本明細書において説明されている様々な処理及び機能は、CPUによって実行され得るマイクロインストラクションコードの一部であるかまたはアプリケーションプログラムの一部であってもよく、これらの組み合わせであってもよい。さらに、追加のデータ記憶装置及びプリンタユニット等の様々な他の周辺機器ユニットが、当該コンピュータプラットフォームに接続されていてもよい。
添付の図面に示されている構成システムコンポーネント及び構成方法のいくつかがソフトウェアにおいて実施されるのが好ましい故に、システムコンポーネントまたは処理機能ブロックの間の実際の接続は、本発明の原理がプログラミングされる態様に依存して異なり得る。本明細書の教示を前提にすれば、関連技術分野の当業者は、本発明の原理のこれらの及び同様の実施または構成を予期することが可能であろう。
例示の実施形態が、本明細書において添付図面を参照して説明されてきたが、本発明の原理はこれらの詳細な実施形態に制限されないことが理解されるべきであり、様々な変更例及び変形例が、関連技術分野の当業者によって、本発明の原理の範囲及び趣旨から逸脱することなく達成されることも理解されるべきである。変更例及び変形例の全ては、添付の特許請求の範囲に記載の本発明の原理の範囲内に含まれることが意図されている。

Claims (37)

  1. 装置であって、
    多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいてイメージブロックのモーション情報を取得することによって、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを符号化するエンコーダ(200)を具え、
    前記他のピクチャの領域の視差情報は、前記他のピクチャの全体より小さな部分に対応することを特徴とする装置。
  2. 前記他のピクチャの領域の視差情報は、少なくとも1つの領域視差ベクトルを含み、前記エンコーダが、前記多視点ビデオコンテンツの符号化おいて用いられる視点間参照ピクチャの各々に対して2以上の領域視差ベクトルを取得することを特徴とする請求項1記載の装置。
  3. 前記エンコーダ(200)が、前記他のピクチャの複数の領域視差ベクトルを取得し、前記他のピクチャの領域の視差情報は、領域視差ベクトルを含むことを特徴とする請求項1記載の装置。
  4. 前記エンコーダ(200)が、前記他のピクチャの複数のブロックの各々に対して複数の視差ベクトルを取得し、前記複数の視差ベクトルに基づいて前記複数のブロックを異なった領域に分類することを特徴とする請求項3記載の装置。
  5. 前記エンコーダ(200)が、前記異なった領域の各々に対して平均視差ベクトルを各々計算することを特徴とする請求項4記載の装置。
  6. 前記異なった領域の各々に対して各々計算された前記平均視差ベクトルが、当該各異なった領域の前記領域視差ベクトルとして各々使用されることを特徴とする請求項5記載の装置。
  7. 前記異なった領域の各々に対して各々計算された領域視差ベクトルが、ハイレベルシンタックス要素を用いて伝送されることを特徴とする請求項5記載の装置。
  8. 前記ハイレベルシンタックス要素は、スライスヘッダ、シーケンスパラメータセット、ピクチャパラメータセット、視点パラメータセット、ネットワーク抽象化層ユニットヘッダ及び補足的な付加情報メッセージのうちの少なくとも1つに含まれることを特徴とする請求項7記載の装置。
  9. リストインデックス、領域視差インデックス及び参照インデックスが、モーションスキップマクロブロックとして選択された多視点コンテンツに対応するイメージブロックの各々に関して伝送されることを特徴とする請求項1記載の装置。
  10. 前記エンコーダ(200)が、少なくとも1つの従来のシンタックス要素から前記他のピクチャの異なった領域の各々に対して各々計算される領域視差ベクトルを非明示的に導出することを特徴とする請求項1記載の装置。
  11. 方法であって、
    多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいてイメージブロックのモーション情報を取得することによって、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを符号化するステップを具え、
    前記他のピクチャの領域の視差情報は、前記他のピクチャの全体より小さな部分に対応することを特徴とする方法(530)。
  12. 前記他のピクチャの領域の視差情報は、少なくとも1つの領域視差ベクトルを具え、
    前記符号化するステップは、前記多視点ビデオコンテンツの符号化おいて用いられる視点間参照ピクチャの各々の2以上の領域視差ベクトルを取得するステップを具えたことを特徴とする請求項11記載の方法(510)。
  13. 前記符号化するステップは、前記他のピクチャの複数の領域視差ベクトルを取得するステップを具え、
    前記他のピクチャの領域の視差情報は、領域視差ベクトルを具えたことを特徴とする請求項11記載の方法(520、525)。
  14. 前記符号化するステップは、前記他のピクチャの複数のブロックの各々に対して複数の視差ベクトルを取得し、前記複数の視差ベクトルに基づいて前記複数のブロックを異なった領域に分類するステップをさらに具えたことを特徴とする請求項13記載の方法(510、515)。
  15. 前記符号化するステップは、前記異なった領域の各々に対して平均視差ベクトルを各々計算するステップを具えたことを特徴とする請求項14記載の方法(525)。
  16. 前記異なった領域の各々に対して各々計算された前記平均視差ベクトルは、当該各異なった領域の前記領域視差ベクトルとして各々使用されること(525、530)を特徴とする請求項15記載の方法。
  17. 前記異なった領域の各々に対して各々計算された領域視差ベクトルをハイレベルシンタックス要素を用いて伝送するステップをさらに具えたことを特徴とする請求項15記載の方法(535)。
  18. 前記ハイレベルシンタックス要素は、スライスヘッダ、シーケンスパラメータセット、ピクチャパラメータセット、視点パラメータセット、ネットワーク抽象化層ユニットヘッダ及び補足的な付加情報メッセージのうちの少なくとも1つに具えられたことを特徴とする請求項17記載の方法(535)。
  19. リストインデックス、領域視差インデックス及び参照インデックスをモーションスキップマクロブロックとして選択された多視点コンテンツに対応するイメージブロックの各々に関して伝送するステップをさらに具えたことを特徴とする請求項11記載の装置(540)。
  20. 少なくとも1つの従来のシンタックス要素から前記他のピクチャの異なった領域の各々に対して各々計算される領域視差ベクトルを非明示的に導出することを特徴とする請求項11記載の方法。
  21. 装置であって、
    多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいてイメージブロックのモーション情報を取得することによって、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを復号するデコーダ(300)を具え、
    前記他のピクチャの領域の視差情報は前記他のピクチャの全体より小さな部分に対応することを特徴とする装置。
  22. 前記他のピクチャの領域に関する視差情報は、領域視差ベクトルを具えたことを特徴とする請求項21記載の装置。
  23. 前記他のピクチャの異なった領域の各々に対して、領域視差ベクトルの各々がハイレベルシンタックス要素において明示的に示され、
    前記デコーダ(300)は、前記ハイレベルシンタックス要素から前記他のピクチャの異なった領域の各々に対して領域視差ベクトルの各々を判定することを特徴とする請求項21記載の装置。
  24. 前記ハイレベルシンタックス要素は、スライスヘッダ、シーケンスパラメータセット、ピクチャパラメータセット、視点パラメータセット、ネットワーク抽象化層ユニットヘッダ及び補足的な付加情報メッセージのうちの少なくとも1つに具えられたことを特徴とする請求項23記載の装置。
  25. 前記デコーダ(300)は、少なくとも1つの従来のシンタックス要素から前記他のピクチャの異なった領域の各々に対して各々計算される領域視差ベクトルを非明示的に導出することを特徴とする請求項21記載の装置。
  26. 前記デコーダ(300)は、モーションスキップマクロブロックとして選択された多視点コンテンツに対応するイメージブロックの各々に関するリストインデックス、領域視差インデックス及び参照インデックスを受信することを特徴とする請求項21記載の装置。
  27. 前記デコーダ(300)は、前記リストインデックス、前記領域視差インデックス及び参照インデックスを用いて前記他のピクチャの領域の視差情報を取得し、
    前記他のピクチャの領域の視差情報は、領域視差ベクトルを具えたことを特徴とする請求項26記載の装置。
  28. 前記デコーダ(300)は、前記他のピクチャの領域の領域視差ベクトルを用いて、前記ピクチャのイメージブロックに対応する前記他のピクチャ内のイメージブロックを識別し、当該識別されたイメージブロックは、前記他のピクチャの領域内にあることを特徴とする請求項27記載の装置。
  29. 方法であって、
    多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいてイメージブロックのモーション情報を取得することによって、多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを復号するステップを具え、
    前記他のピクチャの領域の視差情報は前記他のピクチャの全体より小さな部分に対応することを特徴とする方法(610)。
  30. 前記他のピクチャの領域に関する視差情報は、領域視差ベクトルを具えたことを特徴とする請求項29記載の方法(610)。
  31. 前記他のピクチャの異なった領域の各々に対して、領域視差ベクトルの各々がハイレベルシンタックス要素において明示的に示され、
    前記復号するステップは、前記ハイレベルシンタックス要素から前記他のピクチャの異なった領域の各々に関する領域視差ベクトルの各々を判定するステップを具えたことを特徴とする請求項29記載の方法(610)。
  32. 前記ハイレベルシンタックス要素は、スライスヘッダ、シーケンスパラメータセット、ピクチャパラメータセット、視点パラメータセット、ネットワーク抽象化層ユニットヘッダ及び補足的な付加情報メッセージのうちの少なくとも1つに具えられたことを特徴とする請求項31記載の方法(610)。
  33. 前記復号するステップは、少なくとも1つの従来のシンタックス要素から前記他のピクチャの異なった領域の各々に対して各々計算される領域視差ベクトルを非明示的に導出するステップ(715)を具えたことを特徴とする請求項29記載の方法。
  34. 前記復号するステップは、モーションスキップマクロブロックとして選択された多視点コンテンツに対応するイメージブロックの各々に関するリストインデックス、領域視差インデックス及び参照インデックスを受信するステップを具えたことを特徴とする請求項29記載の方法(615)。
  35. 前記復号するステップは、前記リストインデックス、前記領域視差インデックス及び参照インデックスを用いて前記他のピクチャの領域の視差情報を取得するステップを具え、
    前記他のピクチャの領域の視差情報は、領域視差ベクトルを具えたことを特徴とする請求項29記載の方法(620、625)。
  36. 前記復号するステップは、前記他のピクチャの領域の領域視差ベクトルを用いて、前記ピクチャのイメージブロックに対応する前記他のピクチャ内のイメージブロックを識別するステップを具え、
    当該識別されたイメージブロックは、前記他のピクチャの領域内にあることを特徴とする請求項35記載の方法(625)。
  37. 符号化されたビデオ信号データを有する記憶媒体であって、
    多視点ビデオコンテンツの少なくとも1つの他の視点に対応する他のピクチャの領域の視差情報に基づいて前記イメージブロックのモーション情報を取得することによって、符号化された多視点ビデオコンテンツの少なくとも1つの視点に対応するピクチャのイメージブロックを具え、
    前記他のピクチャの領域の視差情報は、前記他のピクチャの全体より小さな部分に対応することを特徴とする記憶媒体。
JP2010520980A 2007-08-15 2008-07-30 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置 Active JP5646994B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US95591107P 2007-08-15 2007-08-15
US60/955,911 2007-08-15
PCT/US2008/009175 WO2009023091A2 (en) 2007-08-15 2008-07-30 Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors

Publications (2)

Publication Number Publication Date
JP2010537484A true JP2010537484A (ja) 2010-12-02
JP5646994B2 JP5646994B2 (ja) 2014-12-24

Family

ID=40119334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010520980A Active JP5646994B2 (ja) 2007-08-15 2008-07-30 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置

Country Status (7)

Country Link
US (1) US8964844B2 (ja)
EP (1) EP2177036A2 (ja)
JP (1) JP5646994B2 (ja)
CN (1) CN101785317B (ja)
BR (1) BRPI0815108A2 (ja)
TW (1) TWI488145B (ja)
WO (1) WO2009023091A2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013002342A1 (ja) * 2011-06-30 2013-01-03 ソニー株式会社 画像処理装置および方法
WO2013001748A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
WO2013001749A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
WO2013002109A1 (ja) * 2011-06-30 2013-01-03 ソニー株式会社 画像処理装置および方法
KR20140130152A (ko) * 2012-02-01 2014-11-07 노키아 코포레이션 비디오 코딩을 위한 방법 및 장치
KR20150058457A (ko) * 2012-09-21 2015-05-28 노키아 테크놀로지스 오와이 비디오 코딩 방법 및 장치
JP2016500497A (ja) * 2012-12-14 2016-01-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 視差ベクトル導出
JP2019169972A (ja) * 2011-11-11 2019-10-03 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11184600B2 (en) 2011-11-18 2021-11-23 Ge Video Compression, Llc Multi-view coding with efficient residual handling
US11240478B2 (en) 2011-11-11 2022-02-01 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate for a dependent view
US11477467B2 (en) 2012-10-01 2022-10-18 Ge Video Compression, Llc Scalable video coding using derivation of subblock subdivision for prediction from base layer

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101999228A (zh) * 2007-10-15 2011-03-30 诺基亚公司 针对多视角视频内容的运动跳跃和单环路编码
US9843793B2 (en) 2009-08-05 2017-12-12 Thomson Licensing Optical compensation for ghosting in stereoscopic displays
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
RU2480941C2 (ru) * 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
CN107274475A (zh) * 2011-03-18 2017-10-20 索尼公司 图像处理设备、图像处理方法和计算机可读存储介质
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
EP2717572B1 (en) * 2011-06-24 2018-08-08 LG Electronics Inc. Encoding/decoding method and apparatus using a skip mode
US20130188013A1 (en) * 2011-07-22 2013-07-25 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9521418B2 (en) * 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
CA2842150A1 (en) * 2011-08-31 2013-03-07 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
CN103907346B (zh) * 2011-10-11 2017-05-24 联发科技股份有限公司 运动矢量预测子及视差矢量导出方法及其装置
WO2013055148A2 (ko) * 2011-10-12 2013-04-18 엘지전자 주식회사 영상 인코딩 방법 및 디코딩 방법
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
TWI606718B (zh) 2012-01-03 2017-11-21 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數
US9961369B2 (en) 2012-06-28 2018-05-01 Hfi Innovation Inc. Method and apparatus of disparity vector derivation in 3D video coding
US20150172714A1 (en) * 2012-07-09 2015-06-18 Mediatek Inc. METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
CN104521236B (zh) * 2012-07-27 2017-10-20 寰发股份有限公司 三维视频编码或解码方法
EP2733933A1 (en) * 2012-09-19 2014-05-21 Thomson Licensing Method and apparatus of compensating illumination variations in a sequence of images
JP6172155B2 (ja) * 2012-09-28 2017-08-02 ソニー株式会社 画像処理装置および方法
US9313500B2 (en) * 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
CA2887106A1 (en) * 2012-10-03 2014-04-10 Mediatek Inc. Method and apparatus for inter-component motion prediction in three-dimensional video coding
KR20150095808A (ko) * 2012-12-14 2015-08-21 퀄컴 인코포레이티드 비대칭적 공간 해상도를 갖는 텍스처 및 심도 뷰 컴포넌트들 사이의 인사이드 뷰 모션 예측
US9521389B2 (en) 2013-03-06 2016-12-13 Qualcomm Incorporated Derived disparity vector in 3D video coding
CN105122808B (zh) * 2013-04-10 2018-08-03 联发科技股份有限公司 三维或多视图视频编码或解码的方法及装置
US9667990B2 (en) 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
CN105230014B (zh) * 2013-07-01 2018-02-02 寰发股份有限公司 用于三维视频编码系统的深度图编码的方法及其装置
WO2015006883A1 (en) * 2013-07-18 2015-01-22 Qualcomm Incorporated Motion vector inheritance techniques for depth coding
WO2015051533A1 (en) * 2013-10-11 2015-04-16 Mediatek Singapore Pte. Ltd. Improved advanced residual prediction in 3dvc
US20150103925A1 (en) * 2013-10-15 2015-04-16 Qualcomm Incorporated Parallel extensions of parameter sets
EP3026917A1 (en) * 2014-11-27 2016-06-01 Thomson Licensing Methods and apparatus for model-based visual descriptors compression
US10210624B2 (en) 2014-12-09 2019-02-19 Inuitive Ltd. Method for determining depth for stereoscopic reconstruction of three dimensional images
US10638130B1 (en) * 2019-04-09 2020-04-28 Google Llc Entropy-inspired directional filtering for image coding

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515400A (ja) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド 全域差ベクトルを利用した多視点映像の符号化、復号化方法及び装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2208950A1 (en) 1996-07-03 1998-01-03 Xuemin Chen Rate control for stereoscopic digital video encoding
JP2003223774A (ja) * 2002-01-28 2003-08-08 Sony Corp 磁気テープカートリッジおよび磁気テープカートリッジの記録再生装置
US7492387B2 (en) 2002-08-05 2009-02-17 Chih-Lung Yang Implementation of MPCP MCU technology for the H.264 video standard
WO2005034517A1 (en) * 2003-09-17 2005-04-14 Thomson Licensing S.A. Adaptive reference picture generation
KR100524077B1 (ko) * 2003-11-13 2005-10-26 삼성전자주식회사 중간 영상 합성을 위한 시간적 평활화 장치 및 방법
US7468745B2 (en) 2004-12-17 2008-12-23 Mitsubishi Electric Research Laboratories, Inc. Multiview video decomposition and encoding
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
KR100636785B1 (ko) 2005-05-31 2006-10-20 삼성전자주식회사 다시점 입체 영상 시스템 및 이에 적용되는 압축 및 복원방법
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
JP4605715B2 (ja) * 2006-06-14 2011-01-05 Kddi株式会社 多視点画像圧縮符号化方法、装置及びプログラム
WO2007148906A1 (en) * 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
US8804839B2 (en) * 2007-06-27 2014-08-12 Korea Electronics Technology Institute Method for image prediction of multi-view video codec and computer-readable recording medium thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515400A (ja) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド 全域差ベクトルを利用した多視点映像の符号化、復号化方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7012005385; Yang,H., et al: 'Regional Disparity Based Motion and Disparity Prediction for MVC' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT-V , 20070113 *

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013001748A1 (ja) * 2011-06-29 2015-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
WO2013001748A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
WO2013001749A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US9210402B2 (en) 2011-06-29 2015-12-08 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
US8559737B2 (en) 2011-06-29 2013-10-15 Panasonic Corporation Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
US8818122B2 (en) 2011-06-29 2014-08-26 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
US9491462B2 (en) 2011-06-30 2016-11-08 Sony Corporation High efficiency video coding device and method based on reference picture type
US10764600B2 (en) 2011-06-30 2020-09-01 Sony Corporation High efficiency video coding device and method based on reference picture type
US11405634B2 (en) 2011-06-30 2022-08-02 Sony Corporation High efficiency video coding device and method based on reference picture type
WO2013002342A1 (ja) * 2011-06-30 2013-01-03 ソニー株式会社 画像処理装置および方法
WO2013002109A1 (ja) * 2011-06-30 2013-01-03 ソニー株式会社 画像処理装置および方法
US10484704B2 (en) 2011-06-30 2019-11-19 Sony Corporation High efficiency video coding device and method based on reference picture type
US10187652B2 (en) 2011-06-30 2019-01-22 Sony Corporation High efficiency video coding device and method based on reference picture type
US10158877B2 (en) 2011-06-30 2018-12-18 Sony Corporation High efficiency video coding device and method based on reference picture type of co-located block
US9788008B2 (en) 2011-06-30 2017-10-10 Sony Corporation High efficiency video coding device and method based on reference picture type
US9648344B2 (en) 2011-06-30 2017-05-09 Sony Corporation High efficiency video coding device and method based on reference picture type
US9560375B2 (en) 2011-06-30 2017-01-31 Sony Corporation High efficiency video coding device and method based on reference picture type
US10887575B2 (en) 2011-11-11 2021-01-05 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate and update
JP2019169972A (ja) * 2011-11-11 2019-10-03 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11523098B2 (en) 2011-11-11 2022-12-06 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate and update
US11240478B2 (en) 2011-11-11 2022-02-01 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate for a dependent view
US11968348B2 (en) 2011-11-11 2024-04-23 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate for a dependent view
JP2021168479A (ja) * 2011-11-11 2021-10-21 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP7248741B2 (ja) 2011-11-11 2023-03-29 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US12088778B2 (en) 2011-11-11 2024-09-10 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate and update
US11184600B2 (en) 2011-11-18 2021-11-23 Ge Video Compression, Llc Multi-view coding with efficient residual handling
US10397610B2 (en) 2012-02-01 2019-08-27 Nokia Technologies Oy Method and apparatus for video coding
KR101669524B1 (ko) * 2012-02-01 2016-11-09 노키아 테크놀로지스 오와이 비디오 코딩을 위한 방법 및 장치
KR20140130152A (ko) * 2012-02-01 2014-11-07 노키아 코포레이션 비디오 코딩을 위한 방법 및 장치
US9479775B2 (en) 2012-02-01 2016-10-25 Nokia Technologies Oy Method and apparatus for video coding
JP2015509345A (ja) * 2012-02-01 2015-03-26 ノキア コーポレイション ビデオ符号化方法および装置
KR20150058457A (ko) * 2012-09-21 2015-05-28 노키아 테크놀로지스 오와이 비디오 코딩 방법 및 장치
US9736454B2 (en) 2012-09-21 2017-08-15 Nokia Technologies Oy Method and apparatus for video coding
KR101664758B1 (ko) * 2012-09-21 2016-10-10 노키아 테크놀로지스 오와이 비디오 코딩 방법 및 장치
US11477467B2 (en) 2012-10-01 2022-10-18 Ge Video Compression, Llc Scalable video coding using derivation of subblock subdivision for prediction from base layer
JP2016500497A (ja) * 2012-12-14 2016-01-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 視差ベクトル導出

Also Published As

Publication number Publication date
EP2177036A2 (en) 2010-04-21
TW200915228A (en) 2009-04-01
CN101785317A (zh) 2010-07-21
CN101785317B (zh) 2013-10-16
BRPI0815108A2 (pt) 2015-01-27
US8964844B2 (en) 2015-02-24
WO2009023091A3 (en) 2009-04-02
US20100158129A1 (en) 2010-06-24
WO2009023091A2 (en) 2009-02-19
TWI488145B (zh) 2015-06-11
JP5646994B2 (ja) 2014-12-24

Similar Documents

Publication Publication Date Title
JP5646994B2 (ja) 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置
JP7248741B2 (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
CN108632629B9 (zh) 针对多视图视频信号生成合并候选列表的方法及解码装置
KR101706309B1 (ko) 3차원 비디오 코딩을 위한 뷰간 후보자 유도 방법 및 장치
KR101571341B1 (ko) 비디오 인코딩 및 디코딩시 묵시적 블록 분할을 위한 방법 및 장치
KR101834688B1 (ko) 저 지연 조명 보상 프로세스 및 깊이 룩업 테이블 기반 코딩을 위한 방법
CN111971960B (zh) 用于基于帧间预测模式处理图像的方法及其装置
CN112204964B (zh) 基于帧间预测模式的图像处理方法及其装置
JP2014524706A (ja) 動きベクトル処理
KR20150110357A (ko) 다시점 비디오 신호 처리 방법 및 장치
WO2014075625A1 (en) Method and apparatus of constrained disparity vector derivation in 3d video coding
EP3737092A1 (en) Inter-prediction mode-based image processing method and device therefor
KR101386651B1 (ko) 다시점 비디오 인코딩 및 디코딩 방법 및 이를 이용한 인코딩 및 디코딩 장치
KR20140056599A (ko) Hevc 예측 모드 결정 방법 및 장치
Diaz-Honrubia et al. Using bayesian classifiers for low complexity multiview h. 264/avc and hevc hybrid architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130411

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131111

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141106

R150 Certificate of patent or registration of utility model

Ref document number: 5646994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250