JP2013538534A - オクルージョンデータのための圧縮方法および圧縮装置 - Google Patents

オクルージョンデータのための圧縮方法および圧縮装置 Download PDF

Info

Publication number
JP2013538534A
JP2013538534A JP2013529179A JP2013529179A JP2013538534A JP 2013538534 A JP2013538534 A JP 2013538534A JP 2013529179 A JP2013529179 A JP 2013529179A JP 2013529179 A JP2013529179 A JP 2013529179A JP 2013538534 A JP2013538534 A JP 2013538534A
Authority
JP
Japan
Prior art keywords
occlusion
data
format
occlusion data
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013529179A
Other languages
English (en)
Other versions
JP2013538534A5 (ja
Inventor
ドン ティエン
リン レイ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2013538534A publication Critical patent/JP2013538534A/ja
Publication of JP2013538534A5 publication Critical patent/JP2013538534A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3Dビデオにおけるオクルージョンビデオデータおよびオクルージョン奥行きデータなどのオクルージョンレイヤをコーディングするための方法および装置を開示する。デコーディング方法は、受信されたオクルージョンデータに関するオリジナルフォーマットを表すインジケータを抽出するステップ(S702)であって、オリジナルフォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップと、受信されたオクルージョンデータをデコーディングして、デコーディングされたオクルージョンデータを作成するステップ(S703)と、インジケータが、オリジナルフォーマットをフィルドオクルージョンデータフォーマットとして示している場合に、デコーディングされたオクルージョンデータをスパースオクルージョンデータフォーマットからフィルドオクルージョンデータフォーマットへ変換するステップ(S706)とを含み、変換するステップは、定義された特徴を用いて表されている非オクルージョンエリアデータを、オクルージョンデータに関連付けられているビデオデータフレーム内の2Dデータからのそれぞれの併置されるサンプルによって置き換えるステップ(S706)と、デコーディングされたオクルージョンデータ、および存在する場合には、変換されたデコーディングされたオクルージョンデータを出力するステップ(S705)とをさらに含む方法。

Description

本出願は、2010年9月14日に出願された「Compression Methods For Occlusion Data」と題する、本出願の権利者が所有する同時係属中の米国特許仮出願第61/403345号明細書(整理番号PU100192)からの優先権の利益を主張する。
本出願は、2010年4月30日という国際出願日を有する「3D Video Coding Formats」と題するPCT出願第PCT/US2010/001286号明細書(整理番号PU090045)、2010年4月30日という国際出願日を有する「Reference Picture Lists for 3DV」と題するPCT出願第PCT/US2010/001291号明細書(整理番号PU090049)、および2010年4月30日という国際出願日を有する「Inter-Layer Dependency Information for 3DV」と題するPCT出願第PCT/US2010/001292号明細書(整理番号PU100026)という本出願の権利者が所有する同時係属中の特許出願に関する。
本発明は、ビデオコーディングシステムに関し、より詳細には、3D(three dimensional)画像をコーディングおよびデコーディングするシステムに関する。
テレビジョン番組は、3Dでさらに広く利用可能になってきている。スポーツイベントおよびコンサートが、家庭での鑑賞用に放送されている。3Dコンポーネントの売上げが増えるにつれて、および3Dに対する需要が伸びるにつれて、3Dの番組が、近い将来、一般的なTVチャネルのほとんどで広く提供されることになると予想される。
3DテレビジョンおよびFVV(free−viewpoint video)などの新たなビデオアプリケーションを促進するために、従来の2Dビデオおよび奥行きの両方(一般に「2Dデータ」と呼ばれる)から構成されている3Dビデオデータフォーマットを利用することができ、それによって、エンドユーザまたは視聴者のためにさらなるビューをレンダリングすることができる。たとえば、いくつか例を挙げれば、2D+Z(2D plus depth)、LDV(Layered Depth Video)、MVD(Multiview plus Depth)、DES(Disparity Enhanced Stereo)、およびLDV+R(Layer Depth Video plus Right View)を含む複数の異なる3Dビデオフォーマットがある。2D+Z(2D plus depth)フォーマットは、2Dビデオ要素と、その対応する奥行きマップとから構成される。LDV(Layered Depth Video)フォーマットは、2D+Zフォーマット要素およびオクルージョンビデオをオクルージョン奥行きとともに含む。MVD(Multiview plus Depth)フォーマットは、2D+Zでフォーマットされた複数の要素のセットから構成され、2D+Zでフォーマットされたそれぞれの要素は、別々の視点に関連している。DES(Disparity Enhanced Stereo)フォーマットは、LDVでフォーマットされた2つの要素から構成され、LDVでフォーマットされたそれぞれの要素は、2つの異なる視点のうちの一方に関連している。LDV+R(Layer Depth Video plus Right View)フォーマットは、左のビューからのLDVでフォーマットされた1つの要素と、右のビューからの2Dビデオ要素とから構成される。
これらのさまざまなフォーマットにおけるデータを保護するために、ならびに可能な限りの伝送効率または処理効率さえ得るために、コーディングが使用されてきた。コーディングとは、この用語について本明細書において使用されるものとして考える際には、エンコーディングオペレーションおよびデコーディングオペレーションを包含するものと理解すべきである。通常は複数のビューを含んでいる3Dコンテンツを、そして場合によっては、対応する奥行きマップもコーディングすることは、典型的には難しい作業である。3Dコンテンツのそれぞれのフレームは、膨大な量のデータを取り扱うことをシステムに要求する場合がある。そのようなフォーマットされたデータのコーディングは、依然として目下の研究の課題であるが、これらのフォーマットにおける3Dビデオコンテンツの多くをエンコーディングおよびデコーディングするための少なくとも1つのフレームワークが、上で確認したPCT出願第PCT/US2010/001286号明細書において提示されていることが知られている。それでもなお、ほとんどのコーディングの取り組みは、奥行きおよびオクルージョンのデータなどの補足的なデータとは対照的に、主として実際のビデオまたはテクスチャーの情報を対象としているように思われる。
オクルージョンデータ、すなわち、オクルージョンビデオまたはオクルージョン奥行きは、TVディスプレイを見ているエンドユーザによって直接見られること、またはそうしたエンドユーザに直接提示されることはない。その代わりに、オクルージョンデータは、仮想ビューをレンダリングする目的で受信機によって使用される。オクルージョンデータは、通常のビデオまたは奥行きの情報とは異なる特徴を示す。オクルージョンデータは、典型的には、ピクセル値(すなわち、オクルージョンビデオデータ用)または奥行き値(すなわち、オクルージョン奥行きデータ用)を含み、それらの値は、TV視聴者の視聴ポイントからは見えない。オクルージョンデータは、少なくとも早くも2008年にはMPEG 3DVアドホックグループ内のLDVフォーマットにおいて登場していたという事実にもかかわらず、オクルージョンデータを効率よく取り扱ってコーディングするための技術は、現時点では知られていない。
LDVフォーマットに対していくつかのコーディングの実験が、MVC(multi−view video coding)を使用して行われたが、それらの実験においては、オクルージョンデータは、通常の2Dビューとして扱われている。しかしながら、このアプローチは、オクルージョンビデオデータおよびオクルージョン奥行きデータを取り扱うための効率的な方法ではない。
たとえば、手ごろな価格の3Dコンテンツに対する需要が伸びている中で、伝送帯域幅、格納容量、および処理能力における限界によって、3Dシステム全体にわたってさらに高い効率を求めるニーズが引き続き浮き彫りになるであろう。しかし、当技術分野において知られている技術のうちのいずれも、オクルージョンデータを効率よくコーディングすることに適していない。したがって、3Dコンテンツの処理、格納、および伝送においてさらに高いシステム効率を提供するために、オクルージョンビデオデータおよびオクルージョン奥行きデータの両方を含む、オクルージョンデータのためのさらに効率的なコーディング技術が必要とされていると思われる。
オクルージョンデータは、たとえレンダリング処理内で参照されるとしても、頻繁には参照されず、典型的には、レンダリング処理内のいずれの単一ポイントにおいても、オクルージョンデータのフレーム内のわずかなエリアしか使用されない、という事実を、これまでのオクルージョンデータ用のコーディング処理は無視しているように思われる。典型的には、オクルージョンビデオは、ビューが仮想位置にワープ(warp)した後に穴が見られる場合に参照される。その場合でさえ、オクルージョンビデオのうちで、ワープされたビュー内の穴の位置に対応する1つまたは複数のわずかなエリアしか参照されない。同様の原理が、オクルージョン奥行きの使用にも当てはまる。そしてこれらの観察結果は、オクルージョンデータのための効率的なコーディング戦略を作成する際に有用である。
本発明の原理によれば、3Dビデオにおけるオクルージョンビデオデータおよびオクルージョン奥行きデータなどのオクルージョンレイヤのためのコーディング方法は、このデータを取り扱うシステムにおける伝送および処理の効率を改善することを対象とする。オクルージョンデータのためのこれらのコーディング方法は、オクルージョンフォーマットを表示することと、すべてのオクルージョンデータをスパースデータフォーマットへと変換することと、非オクルージョンエリアまたはマクロブロックを、単一の色などの定義された特徴で満たすことと、参照ピクチャーリスト内の2Dデータの配置を並べ替えることと、奥行きの境界に対する近接度を使用して、オクルージョンエリアおよび非オクルージョンエリアまたはマクロブロックを検知することと、非オクルージョンエリアまたはマクロブロックのためにスキップモードのコーディングを使用することと、オクルージョンエリアマクロブロックをコーディングするためにレート歪みコストを使用することと、単一のオクルージョンフレームをコーディングする一方で、次のn−1個のオクルージョンフレームをスキップすることとを含む。これらの技術のそれぞれは、個別に適用されるか、または組み合わせて適用されるかにかかわらず、3Dデータのビットストリーム全体にわたって、改善されて著しく拡張さえされたコーディング利得および伝送利得を提供する。
本発明の原理の一態様によれば、ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための方法が提供され、この方法は、オクルージョンデータに関するフォーマットを特定するステップであって、そのフォーマットは、スパースオクルージョンデータフォーマットおよびフィルド(filled)オクルージョンデータフォーマットのうちの1つから選択されるステップと、オクルージョンデータに関するフォーマットが、フィルドオクルージョンデータフォーマットであると特定された場合に、エンコーディングの前にオクルージョンデータをスパースオクルージョンデータフォーマットへと変換するステップと、オクルージョンデータをエンコーディングして、エンコーディングされたオクルージョンデータを作成するステップと、エンコーディングされたオクルージョンデータを、オクルージョンデータに関して特定されたフォーマットを表すインジケータとともに出力するステップとを含む。
本発明の原理の別の態様によれば、ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための装置が提供され、この装置は、オクルージョンデータに関するフォーマットを特定するステップであって、そのフォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップと、オクルージョンデータに関するフォーマットが、フィルドオクルージョンデータフォーマットであると特定された場合に、エンコーディングの前にオクルージョンデータをスパースオクルージョンデータフォーマットへと変換するステップと、オクルージョンデータをエンコーディングして、エンコーディングされたオクルージョンデータを作成するステップと、エンコーディングされたオクルージョンデータを、オクルージョンデータに関して特定されたフォーマットを表すインジケータとともに出力するステップとを行うためのエンコーダを含む。
本発明の原理の別の態様によれば、ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための方法が提供され、この方法は、受信されたオクルージョンデータに関するオリジナルフォーマットを表すインジケータを抽出するステップであって、オリジナルフォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップと、受信されたオクルージョンデータをデコーディングして、デコーディングされたオクルージョンデータを作成するステップと、インジケータが、オリジナルフォーマットをフィルドオクルージョンデータフォーマットとして示している場合に、デコーディングされたオクルージョンデータをスパースオクルージョンデータフォーマットからフィルドオクルージョンデータフォーマットへ変換するステップとを含み、変換するステップは、定義された特徴を用いて表されている非オクルージョンエリアデータを、オクルージョンデータに関連付けられているビデオデータフレーム内の2Dデータからのそれぞれの併置されるサンプルによって置き換えるステップと、デコーディングされたオクルージョンデータ、および存在する場合には、変換されたデコーディングされたオクルージョンデータを出力するステップとをさらに含む。
本発明の原理の別の態様によれば、ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための装置が提供され、この装置は、受信されたオクルージョンデータに関するオリジナルフォーマットを表すインジケータを抽出するステップであって、オリジナルフォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップと、受信されたオクルージョンデータをデコーディングして、デコーディングされたオクルージョンデータを作成するステップと、インジケータが、オリジナルフォーマットをフィルドオクルージョンデータフォーマットとして示している場合に、デコーディングされたオクルージョンデータをスパースオクルージョンデータフォーマットからフィルドオクルージョンデータフォーマットへ変換するステップとを行うためのデコーダを含み、変換するステップは、定義された特徴を用いて表されている非オクルージョンエリアデータを、オクルージョンデータに関連付けられているビデオデータフレーム内の2Dデータからのそれぞれの併置されるサンプルによって置き換えるステップと、デコーディングされたオクルージョンデータ、および存在する場合には、変換されたデコーディングされたオクルージョンデータを出力するステップとをさらに含む。
1つまたは複数の実施態様の詳細が、添付の図面および以降の説明において示されている。たとえ特定の1つの様式で説明されていても、実施態様は、さまざまな様式で構成または具体化することができるということは明らかなはずである。たとえば、一実施態様は、方法として実行すること、または一式のオペレーションを実行するように構成されている装置として具体化すること、または一式のオペレーションを実行するための命令を格納する装置として具体化することができる。その他の態様および特徴は、以降の詳細な説明を添付の図面および特許請求の範囲と併せて考察すれば、明らかになるであろう。
本発明の実施形態についての以降の説明を添付の図面と併せて参照することによって、本発明の上述およびその他の特徴および利点、ならびにそれらを達成する方法が、より明らかになり、本発明をよりよく理解できるであろう。
例示的な3DV(3D video)エンコーダを表すブロック図である。 例示的な3DV(3D video)デコーダを表すブロック図である。 例示的な3DV(3D video)レイヤエンコーダを表すブロック図である。 例示的な3DV(3D video)レイヤデコーダを表すブロック図である。 LDVフォーマットの各成分を(a)〜(f)で示す図であり、(c)および(d)は、フィルドオクルージョンデータを表しており、(e)および(f)は、スパースオクルージョンデータを表しており、(e)および(f)は、それぞれ(c)および(d)の代わりに採用することができる。 本発明の原理に従って実現される、オクルージョンデータのためのキーイング技術とともにスパースオクルージョンデータおよびフィルドオクルージョンデータの表示を含むオクルージョンデータのエンコーディングの一実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのためのキーイング技術とともにスパースオクルージョンデータおよびフィルドオクルージョンデータの表示を含むオクルージョンデータのデコーディングの一実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのためのスキップモードの使用を含むオクルージョンデータのエンコーディングの第2の実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのためのスキップモードの使用を含むオクルージョンデータのデコーディングの第2の実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのための奥行きスキップモードの使用を含むオクルージョンデータのエンコーディングの第3の実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのための奥行きスキップモードの使用を含むオクルージョンデータのデコーディングの第3の実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのための更新の使用を含むオクルージョンデータのエンコーディングの第4の実施形態に関するフローチャートである。 本発明の原理に従って実現される、オクルージョンデータのための更新の使用を含むオクルージョンデータのデコーディングの第4の実施形態に関するフローチャートである。
本明細書に記載されている例示的な実施形態は、本発明の好ましい実施形態を示しており、そのような例示的な実施形態は、いかなる形であれ本発明の範囲を限定するものと解釈されるべきではない。
オクルージョンビデオデータおよびオクルージョン奥行きデータなどのオクルージョンレイヤのためのコーディング方法が、このデータを取り扱うシステムにおける伝送および処理の効率を改善することを対象とするものとして、本明細書に記載されている。いくつかの改良されたコーディング技術が開示されている。加えて、この説明はまた、オクルージョンデータの実際のタイプに関する詳細を伝達する目的でフレームヘッダまたはオーバーヘッドメッセージ内に含めるためのシンタックスに関する情報、および本発明の実施において有用なその他の情報を含む。
本明細書に記載されているエンコーディング技術およびデコーディング技術は、オクルージョンデータの特定の1つの種類が明示的に指定されていない限り、そのオクルージョンデータがオクルージョン奥行きデータであるか、またはオクルージョンビデオデータであるかにかかわらず、オクルージョンデータ全般に適用可能であるということが意図されている。その上、本明細書に記載されているエンコーディング技術およびデコーディング技術は、オクルージョンデータフォーマットの特定の1つのタイプが明示的に指定されていない限り、そのオクルージョンデータフォーマットがスパースであるか、またはフィルドであるかにかかわらず、オクルージョンデータのあらゆるフォーマット全般に適用可能であるということも意図されている。
特定の用語が本出願の文脈において適切に理解されるようにそれらの用語について説明することが重要である。特定の有用な用語について、下記のように定義する。
「2Dデータ」とは、2Dのビデオデータおよび奥行きデータのうちの一方または両方を含み、この場合、「データ」という用語は、「レイヤ」という用語と交換可能に使用することができる。
「2Dビデオ」レイヤとは一般に、本明細書においては、従来のビデオ信号を指すために使用される。
「奥行き」レイヤとは一般に、本明細書においては、シーンオブジェクトに関する距離情報を示すデータを指すために使用される。
「奥行きマップ」とは、奥行きレイヤの典型的な一例である。
「オクルージョンビデオ」レイヤとは一般に、本明細書においては、特定の視点からふさがれている(occluded)ビデオ情報を指すために使用される。オクルージョンビデオレイヤは、典型的には、2Dビデオレイヤに関するバックグラウンド情報を含む。
「オクルージョン奥行き」レイヤとは一般に、本明細書においては、特定の視点からふさがれている奥行き情報を指すために使用される。オクルージョン奥行きレイヤは、典型的には、奥行きレイヤに関するバックグラウンド情報を含む。
「透過」レイヤとは一般に、本明細書においては、奥行きの切れ目または奥行きの境界を示すピクチャーを指すために使用される。典型的な透過レイヤは、2値の情報を有し、それらの2つの値のうちの1つは、隣の奥行き値に対して、奥行きが特定のしきい値よりも大きい切れ目を有する位置を示す。
「3DVビュー」とは、本明細書においては、1つのビュー位置からのデータセットと定義され、これは、MVCにおいて使用される「ビュー」とは異なる。たとえば、3DVビューは、MVCにおけるビューよりも多くのデータを含むことができる。2D+Zフォーマットに関しては、3DVビューは、2つのレイヤ、すなわち、2Dビデオと、その奥行きマップとを含むことができる。LDVフォーマットに関しては、3DVビューは、4つのレイヤ、すなわち、2Dビデオと、奥行きマップと、オクルージョンビデオと、オクルージョン奥行きマップとを含むことができる。加えて、透過マップは、数ある中でも、3DVビュー内の別のレイヤデータタイプとすることができる。
「3DVレイヤ」とは、3DVビューのレイヤのうちの1つと定義される。3DVレイヤの例は、たとえば、2Dビューまたは2Dビデオ、奥行き、オクルージョンビデオ、オクルージョン奥行き、および透過マップである。2Dビューまたは2Dビデオ以外のレイヤは、「3DV補足レイヤ」とも定義される。1つまたは複数の実施形態においては、3DVデコーダは、レイヤを識別し、そのレイヤを、3dvレイヤidを使用してその他のレイヤから区別するように構成することができる。一実施態様においては、3dvレイヤidは、表1におけるように定義される。しかし、本明細書において提供されている教示に照らせば、当業者なら理解できることだが、それらのレイヤをその他の方法で定義および識別することもできるということに留意されたい。
一般的な3DVコーダ/デコーダ(コーデック)フレームワーク、たとえば、上で確認したPCT出願第PCT/US2010/001286号明細書に記載されているものなどにおいては、オクルージョンビデオおよびオクルージョン奥行きは、特定の3DVレイヤにおいて扱われ、それによって、新たなまたはさらなるコーディングモードを設計することが可能になる。この説明においては、PCT出願第PCT/US2010/001286号明細書の図3〜図6からの3DVコーデックフレームワークは、それぞれ図1〜図4として本明細書に含まれている。このフレームワークに関するさらなる詳細については、PCT出願第PCT/US2010/001286号明細書を参照することを推奨する。
図1および図2は、ハイレベルな一般的な3DVエンコーダ300およびデコーダ400をそれぞれ示している。エンコーダ300/デコーダ400は、レイヤエンコーダ/デコーダおよび3DV参照バッファから構成されている。たとえば、3DVコンテンツ信号302が、たとえば、2Dビューレイヤ、奥行きレイヤ、オクルージョンビューレイヤ、オクルージョン奥行きレイヤ、および透過マップレイヤを含むことができ、図1において示されているように、さまざまなレイヤエンコーダに入力される。具体的には、エンコーダシステム/装置300は、2Dレイヤをエンコーディングするように構成されていてAVCとの互換性を有することができる2Dレイヤエンコーダ304と、拡張2Dレイヤをエンコーディングするように構成されている拡張2Dレイヤエンコーダ306と、奥行きレイヤをエンコーディングするように構成されている奥行きレイヤエンコーダ308と、オクルージョンビューレイヤをエンコーディングするように構成されているオクルージョンビューレイヤエンコーダ310と、オクルージョン奥行きレイヤをエンコーディングするように構成されているオクルージョン奥行きレイヤエンコーダ312と、透過レイヤをエンコーディングするように構成されている透過レイヤエンコーダ314とを含む。このように、それぞれのレイヤは、別々のエンコーダおよび/またはエンコーディング技術を使用してエンコーディングすることができる。
拡張2Dレイヤとは一般に、本明細書においては、そのようなレイヤを、AVC、MVC、SVC、またはその他の何らかの基礎をなす標準との互換性を有するレイヤから区別するために使用される。たとえば拡張2Dレイヤは、典型的には、MVCとの互換性を有していない。なぜなら、そのようなレイヤは、たとえば、レイヤ間の参照を使用することなど、新たなコーディングツールを可能にするためである。したがって、そのようなレイヤは一般に、MVCとの下位互換性を有していない。
「拡張2Dレイヤ」(または補足レイヤ)という用語は、MVCを用いてコーディングすることができるが表示されることを期待されていないレイヤを指すためにも使用することもでき、したがって、MVCを用いてコーディングされるものとして説明されることは典型的ではないということに留意されたい。たとえば、一連の奥行きレイヤは、MVCによって一連のピクチャーとして扱われることが可能であり、MVCによってコーディングされることが可能である。しかし、奥行きレイヤを表示することは典型的ではなく、したがって、MVCを使用することによる以外に、そのようなレイヤを識別およびコーディングする別の方法を有することが望ましい場合が多い。
それぞれのレイヤは、別の参照を使用することもできる。その参照は、エンコーディングされている(デコーディングされている)ピクチャー/ブロックとは別のレイヤから生じるものとすることができる。別のレイヤからの参照は、3DV参照バッファ316(3DV参照/出力バッファ414)から得ることができる。図1において示されているように、それぞれのレイヤエンコーダは、入力信号302をさまざまなモードでエンコーディングして出力信号318を生成することを可能にするために、3DV参照バッファ316と信号通信状態にある。
3DV参照バッファ316を利用することによって、3DVフォーマットのそれぞれのレイヤは、それ自体のレイヤからの参照、たとえば、モーション補償および/もしくはディスパリティー補償を伴う同じレイヤ内での時間的参照および/もしくはビュー間参照などを使用して、ならびに/または、さまざまなレイヤの間におけるレイヤ間予測を使用してエンコーディングすることができる。たとえば、レイヤ間予測は、別のレイヤからのモーション情報、たとえば、モーションベクトル、参照インデックスなどを再利用して、現在のレイヤをエンコーディングすることができ、これは、モーションスキップモードとも呼ばれる。この方法においては、出力信号318は、1つまたは複数の3DVビューに関するさまざまなレイヤ情報でインターリーブされることが可能である。レイヤ間予測は、その他のレイヤのアクセスに基づく任意の種類の技術のものとすることができる。
デコーダシステム/装置400に関しては、システム400は、図2において示されているように信号318を入力することができるさまざまなレイヤデコーダを含む。詳細には、エンコーダシステム/装置400は、2Dレイヤをデコーディングするように構成されていてAVCとの互換性を有することができる2Dレイヤデコーダ402、拡張2Dレイヤをデコーディングするように構成されている拡張2Dレイヤデコーダ404、奥行きレイヤをデコーディングするように構成されている奥行きレイヤデコーダ406、オクルージョンビューレイヤをデコーディングするように構成されているオクルージョンビューレイヤデコーダ408、オクルージョン奥行きレイヤをデコーディングするように構成されているオクルージョン奥行きレイヤデコーダ410、および/または透過レイヤをデコーディングするように構成されている透過レイヤデコーダ412を含む。
図2において示されているように、それぞれのレイヤデコーダは、3DV参照/出力バッファ414と信号通信状態にあり、3DV参照/出力バッファ414は、レイヤデコーダから受信したデコーディングされたレイヤ情報を解析することと、入力信号内に含まれているレイヤが、3D処理をサポートする構造にどのように適合するかを特定することとを行うように構成することができる。そのような3D処理は、たとえば、本明細書に記載されているような3Dレイヤのコーディング、または受信機もしくはディスプレイユニットにおけるさらなるピクチャーのレンダリング(合成)を含むことができる。レンダリングは、たとえば、2Dビデオをワープするために奥行きピクチャーを、および/または、レンダリングされたピクチャーの穴をバックグラウンド情報で埋めるためにオクルージョンピクチャーを使用することができる。
加えて、3DV参照/出力バッファ414は、出力信号416を、ユーザへ提示するために3DV互換フォーマットで生成するように構成することができる。フォーマットされた3DVコンテンツ信号416は、もちろん、たとえば、2Dビューレイヤ、奥行きレイヤ、オクルージョンビューレイヤ、オクルージョン奥行きレイヤ、および透過マップレイヤを含むことができる。出力バッファは、図2において示されているように、参照バッファと一体化して実装することができるが、別法として、その他の実施形態においては、参照バッファと出力バッファとを別々にすることもできる。
エンコーダ300およびデコーダ400のその他の実装形態では、より多くのレイヤ、またはより少ないレイヤを使用することができる。加えて、示されているレイヤとは異なるレイヤを使用することもできる。「バッファ」という用語は、3DV参照バッファ316において、および3DV参照/出力バッファ414において使用される際には、インテリジェントバッファである、ということは明らかなはずである。そのようなバッファを使用して、たとえば、ピクチャーを格納すること、参照(または参照の一部分)を提供すること、およびピクチャーを出力用として並べ替えることができる。加えて、そのようなバッファを使用して、たとえば、その他のさまざまな処理オペレーション、例としては、仮説に基づく参照デコーダのテスト、マーキングコマンドの処理(たとえば、AVCにおけるメモリマネージメントコントロールオペレーション)、およびデコーディングされたピクチャーのバッファのマネージメントなどを実行することができる。
図3は、レイヤエンコーダ304〜314のうちの任意の1つまたは複数を実施するために使用することができる一般的な3DVレイヤエンコーダ500のハイレベルブロック図/流れ図を示しており、図4は、レイヤデコーダ402〜412のうちの任意の1つまたは複数を実施するために使用することができる一般的な3DVレイヤデコーダ600のハイレベルブロック図/流れ図を示している。レイヤエンコーダ304〜314のそれぞれは、特定の目的に有利に働くように、たとえば図3において示されているように、それぞれの対応するレイヤに対して同じ一般的な様式で設計することができるということがわかる。逆に、本明細書において提供されている教示に照らせば理解できることだが、それらのレイヤエンコーダは、それぞれの独自の特徴をよりよく利用するように別々の構成にすることもできる。同様に、デコーダ402〜412は、たとえば図4において示されているように、それぞれの対応するレイヤに対して同じ一般的な様式で設計することができる。逆に、それらのレイヤデコーダは、それぞれの独自の特徴をよりよく利用するように別々の構成にすることもできる。
MVCエンコーダに関しては、入力が、複数のビューから構成されているということに留意されたい。それぞれのビューは、従来の2Dビデオである。したがって、AVCエンコーダと比較して、典型的なMVCエンコーダは、ディスパリティー推定ブロック、ディスパリティー補償ブロック、およびビュー間参照バッファなど、さらなるブロックを含む。同じように、図3および図4は、3DVの参照およびレイヤ間予測のためのブロックを含む。3DVエンコーダでは、入力は、複数の3Dビューから構成されている。上述のように、それぞれの3Dビューは、いくつかのレイヤを含むことができる。したがって、それぞれのレイヤのためのエンコーディング方法は、それぞれの独自の特徴を利用するように別々に設計することができる。結果として、3DVエンコーダは、図1において示されているように、複数のレイヤエンコーダに分けることができる。しかし、それらのレイヤエンコーダを緊密に結合することもできる。レイヤエンコーダにおいて使用される技術は、所与のシステムに関して所望に応じて調整することができる。それぞれのレイヤはビデオ信号として現れるため、それらのレイヤは、図3において示されているように高いレベルでは同様の構造を有することができる。それらのレイヤエンコーダは、より低い、より具体的なレベルでは別々に設計することができるということに留意されたい。もちろん、一実施形態では、すべてのレイヤをエンコーディングするように構成されている単一のエンコーダを使用することもできる。
図3において示されているハイレベルの図に関して、3DVレイヤエンコーダ500は、レイヤパーティショナー504を含むことができ、レイヤパーティショナー504は、入力信号502内の3DVビューiに関する3DVビューレイヤを受信して、それらの3DVビューレイヤを互いに分割するように構成されている。パーティショナー504は、アダーまたはコンバイナー506、変位(モーション/ディスパリティー)補償モジュール508、および変位(モーション/ディスパリティー)推定モジュール510と信号通信状態にあり、それらはそれぞれ、一式の分割されたレイヤをパーティショナー504から受信する。アダー506への別の入力は、スイッチ512を通じて受信されるさまざまな可能な参照ピクチャー情報のうちの1つである。
たとえば、スイッチ512と信号通信状態にあるモード特定モジュール536が、現在エンコーディングされている同じブロックまたはスライスを参照して、エンコーディングモードをイントラ予測とすべきであると特定した場合には、アダーは、自分の入力をイントラ予測モジュール530から受信する。あるいは、モード特定モジュール536が、現在処理されている同じフレームもしくは3DVビューもしくは3DVレイヤのブロックもしくはスライス、または、現在エンコーディングされているブロックもしくはスライスとは異なる別の以前に処理されたフレームもしくは3DVビューもしくは3DVレイヤのブロックもしくはスライスを参照して、エンコーディングモードを変位補償および変位推定とすべきであると特定した場合には、アダーは、図3において示されているように、自分の入力を変位補償モジュール508から受信する。さらに、モード特定モジュール536が、現在処理されている同じフレームもしくは3DVビュー、または、現在処理されているレイヤとは異なる別の以前に処理されたフレームもしくは3DVビューの3DVレイヤを参照して、エンコーディングモードを3DVレイヤ間予測とすべきであると特定した場合には、アダーは、自分の入力を、3DV参照バッファ532と信号通信状態にある3DVレイヤ間予測モジュール534から受信する。
アダー506は、(1つまたは複数の)3DVレイヤおよび予測、補償、および/または推定の情報を含む信号を変換モジュール514に提供し、変換モジュール514は、自分の入力信号を変換して、その変換した信号を量子化モジュール516に提供するように構成されている。量子化モジュール516は、自分の受信した信号に対して量子化を実行して、その量子化した情報をエントロピーエンコーダ518に出力するように構成されている。エントロピーエンコーダ518は、自分の入力信号に対してエントロピーエンコーディングを実行して、ビットストリーム520を生成するように構成されている。逆量子化モジュール522は、量子化された信号を量子化モジュール516から受信して、その量子化された信号に対して逆量子化を実行するように構成されている。そして逆変換モジュール524は、逆量子化された信号をモジュール522から受信して、その受信した信号に対して逆変換を実行するように構成されている。モジュール522および524は、アダー506からの信号出力を再作成または再構築する。
アダーまたはコンバイナー526は、逆変換モジュール524から受信した信号と、スイッチ512から受信した信号とを足し合わせ(結合し)、その結果として得られた信号をイントラ予測モジュール530およびデブロッキングフィルタ528へ出力する。さらに、イントラ予測モジュール530は、上述のように、自分の受信した信号を使用してイントラ予測を実行する。同様に、デブロッキングフィルタ528は、アダー526から受信した信号をフィルタリングし、フィルタリングした信号を3DV参照バッファ532に提供する。
そして3DV参照バッファ532は、自分の受信した信号を解析する。3DV参照バッファ532は、要素534、508、および510による上述のようなレイヤ間エンコーディングおよび変位補償/推定エンコーディングに際して支援を行う。3DV参照バッファ532は、たとえば、さまざまな3DVレイヤのうちのすべてまたは一部を提供する。
再び図4を参照すると、3DVレイヤデコーダ600は、ビットストリーム受信機602を使用してビットストリーム318を受信するように構成することができ、そしてビットストリーム受信機602は、ビットストリームパーサ604と信号通信状態にあり、ビットストリームをパーサ604に提供する。ビットストリームパーサ604は、残りのビットストリーム605をエントロピーデコーダ606へ伝送し、コントロールシンタックス要素607をモード選択モジュール622へ伝送し、変位(モーション/ディスパリティー)ベクトル情報609を変位補償(モーション/ディスパリティー)モジュール618へ伝送し、現在デコーディングされている3DVレイヤ以外の3DVレイヤからのコーディング情報611を3DVレイヤ間予測モジュール620へ伝送するように構成することができる。逆量子化モジュール608は、エントロピーデコーダ606から受信したエントロピーデコーディングされた信号に対して逆量子化を実行するように構成することができる。加えて、逆変換モジュール610は、逆量子化モジュール608から受信した逆量子化された信号に対して逆変換を実行して、その逆変換した信号をアダーまたはコンバイナー612へ出力するように構成することができる。
アダー612は、採用されているデコーディングモードに応じて、その他のさまざまな信号のうちの1つを受信することができる。たとえば、モード特定モジュール622は、現在処理されているブロックに対してエンコーダ500によって3DVレイヤ間予測エンコーディングが実行されたか、変位補償エンコーディングが実行されたか、またはイントラ予測エンコーディングが実行されたかを、コントロールシンタックス要素607を解析および分析することによって特定することができる。特定されたモードに応じて、モデル選択コントロールモジュール622は、コントロールシンタックス要素607に基づいて、スイッチ623にアクセスしてスイッチ623をコントロールすることができ、それによって、アダー612は、3DVレイヤ間予測モジュール620、変位補償モジュール618、またはイントラ予測モジュール614から信号を受信することができる。
ここでは、イントラ予測モジュール614は、たとえば、現在デコーディングされている同じブロックまたはスライスへの参照を使用して、ブロックまたはスライスをデコーディングするためにイントラ予測を実行するように構成することができる。そして変位補償モジュール618は、たとえば、現在処理されている同じフレームもしくは3DVビューもしくは3DVレイヤのブロックもしくはスライス、または、現在デコーディングされているブロックもしくはスライスとは異なる別の以前に処理されたフレームもしくは3DVビューもしくは3DVレイヤのブロックもしくはスライスへの参照を使用して、ブロックまたはスライスをデコーディングするために変位補償を実行するように構成することができる。さらに、3DVレイヤ間予測モジュール620は、たとえば、現在処理されている同じフレームもしくは3DVビューの3DVレイヤ、または、現在処理されているレイヤとは異なる別の以前に処理されたフレームもしくは3DVビューの3DVレイヤへの参照を使用して、ブロックまたはスライスをデコーディングするために3DVレイヤ間予測を実行するように構成することができる。
予測情報信号または補償情報信号を受信した後に、アダー612は、その予測情報信号または補償情報信号を、デブロッキングフィラー602へ伝送するために、逆変換された信号と足し合わせることができる。デブロッキングフィルタ602は、自分の入力信号をフィルタリングして、デコーディングされたピクチャーを出力するように構成することができる。アダー612は、足し合わされた信号を、イントラ予測において使用するために、イントラ予測モジュール614へ出力することもできる。さらに、デブロッキングフィルタ602は、フィルタリングされた信号を3DV参照バッファ616へ伝送することができる。3DV参照バッファ316は、自分の受信した信号を解析して、要素618および620による上述のようなレイヤ間デコーディングおよび変位補償デコーディングを可能にして、それらのデコーディングに際して支援を行うように構成することができ、要素618および620のそれぞれに対して、3DV参照バッファ616は、解析された信号を提供する。そのような解析された信号は、たとえば、さまざまな3DVレイヤのうちのすべてまたは一部である場合がある。
本明細書において開示されている教示に照らせば、当業者なら理解できることだが、システム/装置300、400、500、および600は、別々の構成にすることができ、別々の要素を含むことができるということを理解されたい。
オクルージョンデータは、LDV(Layered Depth Video)フォーマットにおいて重要な役割を果たしている。図5は、LDVフォーマットの成分を(a)〜(f)で示している。LDVビデオフォーマットには、カラービデオ(図5(a))、奥行き(図5(b))、オクルージョンビデオ(図5(c/e))、およびオクルージョン奥行き(図5(d/f))という4つの成分がある。カラービデオは、図5(a)において示されており、奥行きは、図5(b)において示されている。図5(c)は、カラービデオからの対応するピクセルによって満たされている非オクルージョンエリアを有するオクルージョンビデオを示している。図5(d)は、奥行きからの対応する奥行きサンプルによって満たされている非オクルージョンエリアを有するオクルージョン奥行きを示している。図5(c)は、フィルドオクルージョンビデオを表しており、図5(d)は、フィルド奥行きデータを表している。代替構成においては、図5(e)は、スパースオクルージョンビデオを表しており、図5(f)は、スパース奥行きデータを表している。フィルドオクルージョンデータの代わりにスパースオクルージョンデータを使用することができ、またはその逆もまた同様である。
図5(e)および図5(f)においては、非オクルージョンエリアは、オクルージョンビデオに関しては黒色で、オクルージョン奥行きに関しては白色で示されている。通常、オクルージョンデータは、図5(c)および図5(d)において示されているように表されることになり、本明細書においては、フィルドオクルージョンデータとして知られている。オクルージョンデータが、図5(e)および図5(f)において示されているように特定の同一色、たとえば黒色または白色などによって満たされている(1つまたは複数の)非オクルージョンエリアを有する場合、この表示は、本明細書においては、スパースオクルージョンデータとして知られている。
視聴者のためにビデオをレンダリングする目的では、スパースオクルージョンデータは、対応するフィルドオクルージョンデータと同等であるとみなされるということを理解されたい。なぜなら、非オクルージョンエリアは一般に、3Dワープオペレーションおよび穴を埋めるオペレーションにおいては、まったく参照されないためである。したがって、フィルドオクルージョンデータまたはスパースオクルージョンデータを、LDVフォーマットにおいて、まったく混乱を伴わずに、または一般性をいっさい失うことなく、エンコーディングすることが可能である。
スパースオクルージョンデータおよびフィルドオクルージョンデータは、互いに同等であり、レンダリングの点からは交換可能である。しかし、レンダリング処理は、レンダリングの際に穴を埋める処理を実行する場合などに、ピクセルがオクルージョンエリアに属するか、または非オクルージョンエリアに属するかを知っておく必要が生じることがある。そのようなケースにおいては、穴ピクセルがオクルージョンエリア内に存在する場合には、オクルージョンデータを使用して、その穴ピクセルを埋めることができる。オクルージョンデータを使用しない場合には、隣のバックグラウンドピクセルを使用して、その穴ピクセルを埋めることができる。
上述のように、オクルージョンフォーマットの表示は、少なくとも、オクルージョンエリアか非オクルージョンエリアかの特定を支援する際に有用である。オクルージョンデータフォーマットの表示は、3Dビデオ信号のためのハイレベルシンタックス内に含めることができる。本明細書において使用される際には、「ハイレベルシンタックス」とは、階層的にはマクロブロックレイヤの上にあるビットストリーム内に存在するシンタックスを指す。たとえば、ハイレベルシンタックスは、本明細書において使用される際には、スライスヘッダレベル、SEI(Supplemental Enhancement Information)レベル、PPS(Picture Parameter Set)レベル、SPS(Sequence Parameter Set)レベル、VPS(View Parameter Set)、およびNAL(Network Abstraction Layer)ユニットヘッダレベルのシンタックスを指すことができるが、それらには限定されない。表2は、そのようなインジケータフラグを含めるための修正されたSPSの一例を提示しており、ここでは、一例として、3DVシーケンスのための拡張されたSPSが採用されている。
上記の表2におけるすべての陰影付きのエントリーに関するセマンティクスについては、本出願の権利者が所有する同時係属中のPCT出願第PCT/US2010/001286号明細書(整理番号PU090045)において、その中の表13に関連して、少なくともページ50〜55において、完全に説明されている。残りのエントリー、occlusion_data_formatのセマンティクスは、下記のとおりである。
・0という値は、コーディングされているオクルージョンビデオ/奥行きがフィルドオクルージョンデータであるということを示しており、
・1という値は、コーディングされているオクルージョンビデオ/奥行きがスパースオクルージョンデータであるということを示しており、
・1よりも大きい値は、この時点では予備である。
図6および図7は、オクルージョンデータのためのキーイング技術とともにスパースオクルージョンデータおよびフィルドオクルージョンデータの表示を含むオクルージョンデータのエンコーディングおよびデコーディングの一実施形態に関するフローチャートを示している。これらの処理のステップについては、すぐ次でさらに詳細に説明する。
図6におけるエンコーディング方法は、ステップS601において開始する。コントロールが、直接ステップS602に渡される。ステップS602においては、エンコーダによって最初に受信された入力オクルージョンデータフォーマットに関する特定が行われる。この特定に関しては、その他の技術を採用することもできるが、ある例示的で簡単な技術は、受信されたビデオフレームに関連付けられているオクルージョンデータフォーマットのインジケータまたは表示を分析する。そのインジケータの一実施形態が、ハイレベルシンタックス内のocclusion_data_formatエントリーとして上で示されている。このインジケータは、関連付けられているオクルージョンデータを、「フィルド」フォーマットのもの、または「スパース」フォーマットのものとして特徴付ける。いくつかのケースにおいては、このインジケータは、フラグとも呼ばれる。スパースオクルージョンデータがエンコーダによって受信されていることをインジケータが示した場合には、コントロールは、ステップS603へ移される。フィルドオクルージョンデータがエンコーダによって受信されていることをインジケータが示した場合には、コントロールは、ステップS604へ移される。
ステップS603においては、スパースオクルージョンデータが、標準的なビデオエンコーディング技術を使用してエンコーディングされて、エンコーディングされたオクルージョンデータが作成される。標準的なビデオエンコーディング技術としては、MVC(Multiview Video Coding)と、H.264/AVC(Advanced Video Coding)と、少なくともMPEG−2を含むMPEGコーディングとが含まれるが、それらには限定されない。これらのコーディング技術は、標準化されており、当業者によく知られているものとして理解されている。これらの技術に関するさらなる説明は、本明細書においては提示しない。コントロールは、ステップS605へ移される。
ステップS605においては、伝送のためにビットストリームが用意される。このビットストリームは、エンコーディングされたオクルージョンデータを、最初に受信されたオクルージョンデータに関するオクルージョンデータフォーマットのインジケータ(すなわち、スパースまたはフィルドの表示)とともに含む。コントロールは、ステップS606へ移され、ステップS606で、このエンコーディング方法は終了する。
ステップS604においては、受信されたオクルージョンデータが処理されて、オクルージョンデータフォーマットが、フィルドフォーマットからスパースフォーマットへ変更される。受信されたオクルージョンデータが、スパースフォーマットで表されている場合には、それぞれの非オクルージョンエリアは、定義された特徴、そのような定義された色またはデータ値として表される。これは、非オクルージョンエリア内のデータサンプルを、定義された色または定義された奥行きレベルなどの定義された特徴によって置き換えることによって達成され、それによって、結果としてスパースオクルージョンデータフォーマットが生じる。この処理は、1つの画像内のある色を使用して背後の別の画像を見せるカラーキーイング技術に類似している。表示においてスパースオクルージョンデータフォーマットへの変更を行うことは、標準的なコーディング技術から生じる効率のおかげで、逆の変更(すなわち、スパースフォーマットをフィルドフォーマットへ変更すること)よりも好ましい。
特定の同一色で均一に表されている非オクルージョンエリアのほとんどは、スキップモードでコーディングすることができるため、従来のエンコーディングを通じて効率が得られる。スキップモードのエンコーディングにおいては、マクロブロックは、スキップされたマクロブロックとしてコーディングされ、それによって、エンコーダによって出力されるエンコーディングされたオクルージョンデータにおけるデータの量が少なくなる。スキップモードのコーディングが使用される場合には、デコーダは、マクロブロックを、周囲のマクロブロックのモーションベクトルおよび/または周囲のマクロブロック内のパーティションを参照することによって、デコーディングする。スキップモードのコーディングは、当業者によく知られているものとして理解されている。このコーディング技術に関するさらなる説明は、本明細書においては提示しない。そしてコントロールは、ステップS603へ移される。
このステップにおいては、オクルージョンデータに関して、少なくとも1つのオクルージョンエリアおよび少なくとも1つの非オクルージョンエリアを識別することが必要である。これらのオクルージョンエリアは、互いに対して相互に排他的であろう。識別によって、定義された色などの定義された特徴で非オクルージョンエリアを満たすことが可能になる。
オクルージョンエリアまたは非オクルージョンエリアのそのような識別を実行するための1つの例示的な技術は、オクルージョンデータと同じフレームからの奥行きデータを、そのオクルージョンデータに関連付けられているビデオデータフレーム内の1つまたは複数の奥行きの切れ目を検知するために使用することを含む。そして、それぞれの検知された奥行きの切れ目に沿ったエリアが、オクルージョンデータ内のオクルージョンエリアとして分類される。本明細書に記載されている検知および/または分類を実行するために、その他の技術を利用することもできる。
別の例示的な技術においては、ビデオデータが、フィルドオクルージョンデータとともに入力される。非オクルージョンエリアは、ビデオフレームと、フィルドオクルージョンビデオフレームとの間における差分フレームを計算することによって明らかにされる。非オクルージョンエリア内のサンプルは、差分フレーム内では、ゼロ、またはゼロに近い値を有することになる。
図7におけるデコーディング方法は、ステップS701において開始する。コントロールが、直接ステップS702へ移される。ステップS702においては、エンコーダにおいて最初に受信されたオクルージョンデータに関するオクルージョンデータフォーマットを表すインジケータまたはフラグが抽出される。このフラグまたはインジケータは、そのオクルージョンデータフォーマットを、スパースオクルージョンデータフォーマットまたはフィルドオクルージョンデータフォーマットとして識別する。図6におけるエンコーディング方法を参照して上述したように、エンコーダは、実際には、エンコーディングされたオクルージョンデータをスパースデータフォーマットで出力するということを想起されたい。そしてコントロールは、ステップS703へ移される。
ステップ703においては、スパースオクルージョンデータが、標準的なビデオデコーディング技術を使用してデコーディングされて、デコーディングされたオクルージョンデータが作成される。標準的なビデオデコーディング技術としては、MVC(Multiview Video Coding)と、H.264/AVC(Advanced Video Coding)と、少なくともMPEG−2を含むMPEGコーディングとが含まれるが、それらには限定されない。コントロールは、ステップS704へ移される。
ステップS704においては、エンコーダにおいて最初に受信されたオクルージョンデータについてのオクルージョンデータフォーマットに関する特定が行われる。この特定は、ステップS702において抽出されたフラグまたはインジケータに少なくとも部分的に基づく。スパースオクルージョンデータがエンコーダによって最初に受信されたことをインジケータが示した場合には(図6)、コントロールは、ステップS705へ移される。フィルドオクルージョンデータがエンコーダによって最初に受信されたことをインジケータが示した場合には(図6)、コントロールは、ステップS706へ移される。
ステップS705においては、デコーディングされたオクルージョンデータが、(ステップS704からの)スパースオクルージョンデータフォーマットまたは(ステップS706からの)フィルドオクルージョンデータフォーマットで出力される。この方法は、ステップS707において終了する。
ステップS706へ進むのは、エンコーダによって最初に受信されたオクルージョンデータが、ステップS702において抽出されて受信されたフラグまたはインジケータによって識別された際に、フィルドオクルージョンデータフォーマットであったとステップS704において特定されたためである。上述のように、ステップS704では、デコーディングされたオクルージョンデータをスパースデータフォーマットで出力する。スパースオクルージョンデータフォーマットを、最初に受信されたフィルドオクルージョンデータフォーマットに変換するために、たとえば、定義された色などの定義された特徴によって識別された非オクルージョンエリアを、フレームの対応するビデオ成分または奥行き成分内の併置されるデータサンプルで満たすことが必要である。オクルージョンデータがオクルージョンビデオである場合には、同じフレームからの対応するビデオ成分が、デコーディングされたオクルージョンデータ内の非オクルージョンエリアデータサンプルを満たすために使用される。同様に、オクルージョンデータがオクルージョン奥行き成分である場合には、同じフレームからの対応する奥行き成分が、デコーディングされたオクルージョンデータ内の非オクルージョンエリアデータサンプルを満たすために使用される。デコーディングされたオクルージョンデータが、適切な最初に受信されたフォーマットへと変換されると、コントロールは、ステップS705へ移される。
本発明の別の実施形態においては、オクルージョンビデオまたはオクルージョン奥行きである場合があるオクルージョンデータの場所は、参照ピクチャーリスト内で変更される。参照ピクチャーリストの構築では、典型的には、その参照ピクチャーリスト内の時間的ピクチャーおよびビュー間参照ピクチャーの後にレイヤ間参照ピクチャーを付加する。さまざまな参照ピクチャーリストの例が、上で確認したPCT出願第PCT/US2010/001291号明細書に記載されている。この点については、本出願の権利者が所有する、Panditらに関する米国特許出願公開第2010/0118933号明細書も参照されたい。本発明においては、オクルージョンデータをエンコーディングする際には、ビデオレイヤからの参照ピクチャーが、参照ピクチャーリスト内の場所0に配置される。言い換えれば、オクルージョンデータをエンコーディングする際には、同じタイムスタンプ(すなわち、同じビデオフレーム)を有する2Dデータが、参照ピクチャーリスト内の場所0に配置される。
オクルージョンデータが、この並べ替えられた参照ピクチャーリストを使用してエンコーディングされる際には、非オクルージョンエリア内のブロックを取り扱う上でいくらかのコーディング効率を得ることが可能である。本明細書に記載されているエンコーディングは、オクルージョンビデオデータまたはオクルージョン奥行きデータに適用することができ、そのデータは、スパースオクルージョンデータフォーマットまたはフィルドオクルージョンデータフォーマットである場合があるということに留意されたい。非オクルージョンエリアのエンコーディング中に、スキップモードのエンコーディングを適用することができ、それによって、(1つまたは複数の)非オクルージョンエリアに対応する奥行きデータまたはビデオデータが、それらのデータにさらなる修正をいっさい加えることなく、その非オクルージョンエリア内に直接コピーされるため、コーディングの効率が得られる。この効率は、非オクルージョンエリア情報を、参照ピクチャーリスト内の場所0におけるオクルージョンビデオデータまたはオクルージョン奥行きデータからすぐに利用できるようにすることによって、可能になる。
非オクルージョンエリアの識別は、図6のステップS604を参照して上述した技術のうちのいずれかを通じて達成される。本明細書における同じ使用に関しては、非オクルージョンエリアを、およびオクルージョンエリアでさえ特定および識別するためのよく知られているいかなる技術も考えられる。ビデオデータのブロック(すなわち、マクロブロック)が、非オクルージョンエリア内にあるものとして、または非オクルージョンエリアに関連付けられているものとして識別された場合には、エンコーダは、そのブロック用にスキップモードのエンコーディングを選択する。ビデオデータのブロックが、オクルージョンエリア内にあるものとして、またはオクルージョンエリアに関連付けられているものとして識別された場合には、エンコーダは、レート歪みコスト(すなわち、RDコスト)に基づいて、そのブロック用のコーディングモードを選択する。エンコーディングソリューションのRDコストは、エンコーディングされたマクロブロック内の歪みを考慮し、そのエンコーディングソリューション用に生成されることになる実際のビットを計算に入れる場合が多い。ビデオエンコーディングにおけるRDコストの計算および使用は、よく知られている処理であると考えられ、本明細書においては、さらに詳細には説明しない。
本発明のこの態様に従って実現されるデコーダに関しては、ビデオ参照フレームからのデータは、非オクルージョンブロックへコピーされる。デコーダにおいてスパースオクルージョンデータフォーマットが所望されている場合には、デコーダ内のコピー処理はスキップされ、デコーダは、上述の定義された色などの定義された特徴によって、ブロックを単に満たす。
図8および図9は、上述のような、特定のオクルージョンデータをエンコーディング/デコーディングするための参照ピクチャーリストの並べ替えおよびスキップモードの使用に基づくオクルージョンデータ用のエンコーディングおよびデコーディングの一実施形態に関するフローチャートを示している。
図8におけるエンコーディング方法は、ステップS801において開始する。コントロールが、すぐにステップS802へ移される。
ステップS802においては、参照ピクチャーリストが、同じタイムスタンプを有する2Dデータを場所0に配置することによって構成される。「2Dデータ」という用語は、2Dのビデオデータおよび奥行きデータのうちの一方または両方を含むものと理解されている。次いでコントロールは、ステップS803へ移される。
本発明の好ましい実施形態は、受信されたオクルージョンデータを処理してオクルージョンデータフォーマットをフィルドフォーマットからスパースフォーマットへ変更することによって実現されるということを理解されたい。これについては、図6に関連して上述した。受信されたオクルージョンデータが、スパースフォーマットで表されている場合には、それぞれの非オクルージョンエリアは、定義された特徴、そのような定義された色またはデータ値として表される。これは、非オクルージョンエリア内のデータサンプルを、定義された色または定義された奥行きレベルなどの定義された特徴によって置き換えることによって達成され、それによって、結果としてスパースオクルージョンデータフォーマットが生じる。この処理は、1つの画像内のある色を使用して背後の別の画像を見せるカラーキーイング技術に類似している。表示においてスパースオクルージョンデータフォーマットへの変更を行うことは、標準的なコーディング技術から生じる効率のおかげで、逆の変更(すなわち、スパースフォーマットをフィルドフォーマットへ変更すること)よりも好ましい。
ステップS803においては、データのエンコーディングが実行される。エンコーディングされるデータのブロックが、非オクルージョンエリア内にあるものとして識別された場合には、そのブロック用にスキップモードのエンコーディングを使用して、エンコーディングが実行される。エンコーディングされるデータのブロックが、非オクルージョンエリア内にないものとして識別された場合には、非オクルージョンエリア内にない(すなわち、オクルージョンエリア内にある)ものとして識別されたデータのブロックに関しては、レート歪みコスト(RDコスト)という従来の基準でコーディングモードが選択される。次いでコントロールは、ステップS804へ移される。
ステップS804においては、出力伝送のためにビットストリームが用意される。このビットストリームは、エンコーディングされたオクルージョンデータを、最初に受信されたオクルージョンデータに関するインジケータまたはフラグオクルージョンデータフォーマット(すなわち、スパースまたはフィルドの表示)とともに含む。このインジケータについては、たとえば、図6に関連して詳細に上述した。コントロールは、ステップS805へ移され、ステップS805で、このエンコーディング方法は終了する。
図9におけるデコーディング方法は、ステップS901において開始する。コントロールが、すぐにステップS902へ移される。
ステップS902においては、やはり参照ピクチャーリストが、同じタイムスタンプを有する2Dデータを場所0に配置することによって構成される。上述のように、「2Dデータ」という用語は、2Dのビデオデータおよび奥行きデータのうちの一方または両方を含むものと理解されている。次いでコントロールは、ステップS903へ移される。
ステップS903においては、スライスまたはピクチャー内のすべてのマクロブロックが、従来のビデオデコーディング方法でデコーディングされる。次いでコントロールは、ステップS904へ移される。
ステップS904においては、ビデオデータとともに受信されたインジケータまたはフラグに基づいて、2つの可能な技術のうちの1つが、オクルージョンデータ用に使用される。インジケータが、最初に受信されたオクルージョンデータに関してオクルージョンデータフォーマットをスパースとして識別した場合には、非オクルージョンエリアは、定義された色または定義された奥行き値などの定義された特徴で満たされる。インジケータが、最初に受信されたオクルージョンデータに関してオクルージョンデータフォーマットをフィルドとして識別した場合には、非オクルージョンエリアは、2Dビデオの対応する部分からのデータサンプルで満たされる。次いでコントロールは、ステップS905へ移され、ステップS905で、このデータのためのデコーディング方法は終了する。
上述の実施形態において説明した改訂された参照ピクチャーリストの構築に関しては、参照ピクチャーインデックスが、必ずしもオクルージョンブロックのコーディングにとって最適化されるとは限らないということがここでわかる。最適化に関するこの問題が生じるのは、オクルージョンエリア内のブロックが、最良のマッチングのために、レイヤ間参照ピクチャーではなく、時間的参照ピクチャーを使用する可能性が高いためである。その一方で、上で確認したPCT出願第PCT/US2010/001291号明細書において示されているように、非オクルージョンエリア内のブロックが、レイヤ参照ピクチャーを参照ピクチャーリストの最後に置くことが、必ずしもよいとは限らない。したがって、参照ピクチャーリストの並べ替えだけでは、オクルージョンエリアに関連付けられているブロック、および非オクルージョンエリアに関連付けられているブロックの両方のブロックをエンコーディング/デコーディングするための完全に適切で効果的なソリューションを提供することはできない。
オクルージョンデータのためのエンコーダおよびデコーダ方法の別の実施形態は、奥行きの使用と、奥行きの境界の検知とを含む。この実施形態は、図10および図11において示されている。図10および図11は、特定のオクルージョンデータのための奥行きスキップモードのエンコーディングの使用を含むオクルージョンデータのエンコーディングおよびデコーディングのためのフローチャートを示している。上で説明したように、本明細書における技術は、オクルージョンビデオデータおよびオクルージョン奥行きデータの両方に交換可能に適用することができる。
本発明のこの実施形態に関しては、オクルージョンエリアブロックおよび非オクルージョンエリアブロックの両方のコーディングに有利に働くように、レイヤ間参照ピクチャーを参照ピクチャーリストの最後に付加することによって、参照ピクチャーリストが構成される。そのような参照ピクチャーリストの例は、PCT出願第PCT/US2010/001291号明細書に記載されている。
エンコーディング処理中に、再構築された奥行きサンプルに対して境界の検知が実行されて、検知された奥行きの境界に対する現在のマクロブロックの近接度が特定され、通常はピクセルで測定される。再構築された奥行きサンプルは、通常は図3のエンコーダ内のデブロッキングフィルタ528の出力において利用可能である。再構築された奥行きサンプルは、エンコーダ内で使用される。なぜなら、エンコーダおよびデコーダは、境界の検知のために実質的に同じ情報を使用しなければならないためであり、また、再構築された奥行きサンプル(マップ)は、デコーダ内で利用可能な唯一のサンプルであるためである。デコーダは、エンコーダ内に存在するオリジナルの奥行きデータを有していない。したがって、エンコーダおよびデコーダが実質的に同じ奥行き情報を使用しなければならないという制約が保持される場合には、エンコーダが境界の検知のためにオリジナルの奥行きサンプルを利用することは、適切ではないだろう。
マクロブロックが、検知された奥行きの境界からlピクセル内にあると特定された場合には、このマクロブロックは、オクルージョンエリアマクロブロックとしてマークされ、上で説明したようにレート歪み(RD)コストを使用して、エンコーディングモードが選択される。その一方で、マクロブロックが、検知された奥行きの境界からlピクセル内にないと特定された場合には、そのマクロブロックをエンコーディングするために、レイヤ間スキップエンコーディングモードが使用されることになる。
デコーディングの際には、スキップモードのエンコーディングを介してエンコーディングされたブロックは、下記の方法で奥行きデータを利用する。マクロブロックと、奥行きの境界との間における距離が特定される。エンコーディング処理においてスキップされたいかなるマクロブロックに関しても、そのマクロブロックから、最も近い検知された奥行きの境界までの距離が、lピクセルというしきい値である場合、またはそのしきい値内にある場合(すなわち、そのしきい値未満である場合)には、そのマクロブロックは、時間的にスキップされたブロックとして識別される。そうではなく、スキップされたマクロブロックから、最も近い検知された奥行きの境界までの距離が、lピクセルというしきい値よりも大きい場合(すなわち、そのしきい値を超える場合)には、そのマクロブロックは、非オクルージョンエリアマクロブロックとして識別され、さらには、レイヤ間のスキップされたマクロブロックであるとみなされる。
奥行きの境界の検知は、コーデックの実施形態のオペレーションにとって重要である。奥行きの境界は、好ましくは、エンコーダにおいて使用されたのと同じアルゴリズムを使用して、デコーダにおいて検知されるべきであるということがわかる。このことによって、再構築された奥行きサンプルは、エンコーダおよびデコーダにおいて必ず同じ再構築を有することになる。奥行きの境界の検知は、任意の数のよく知られている技術によって達成することができる。これらのよく知られている技術については、本明細書においては、これ以上説明しない。
図10におけるエンコーディング方法は、ステップS1001において開始する。コントロールが、すぐにステップS1002へ移される。ステップS1002においては、参照ピクチャーリストが、同じタイムスタンプを有する2Dデータを、その参照ピクチャーリスト内の時間的ピクチャーおよびビュー間参照ピクチャーの両方の後に配置することによって構成される。次いでコントロールは、ステップS1003へ移される。
ステップS1003においては、1つまたは複数の奥行きの境界が、再構築された奥行きマップから検知される。それぞれのマクロブロックから、最も近い奥行きの境界までの距離が測定される。マクロブロックから、その最も近い奥行きの境界までの距離が、lピクセル以下である場合には、そのマクロブロックは、オクルージョンエリアマクロブロックとしてマークされる。マクロブロックから、その最も近い奥行きの境界までの距離が、lピクセルを超える場合には、そのマクロブロックは、非オクルージョンエリアマクロブロックである。そのマークまたはフラグは、マクロブロックを、オクルージョンエリアマクロブロックであるものとして識別するため、そのマークまたはフラグがなければ、その関連付けられているマクロブロックは、非オクルージョンエリアマクロブロックであるものとして自動的に識別される。2つの状態フラグがあれば、それぞれのマクロブロックを、非オクルージョンエリアマクロブロック(たとえば、フラグ=0)、またはオクルージョンエリアマクロブロック(たとえば、フラグ=1)として適切に識別するのに十分であろうということに留意されたい。次いでコントロールは、ステップS1004へ移される。
ステップS1004においては、マクロブロックに関するフラグまたはマークが読み取られる。そのマクロブロックが非オクルージョンエリアマクロブロックであることをマークが示している場合には、そのマクロブロックをエンコーディングするために、従来のスキップモードのエンコーディングが使用される。そのマクロブロックがオクルージョンエリアマクロブロックであることをマークが示している場合には、従来のレート歪みコスト(RDコスト)に基づいて、エンコーディングモードが選択され、使用される。次いでコントロールは、ステップS1005へ移される。
ステップS1005においては、出力伝送のためにビットストリームが用意される。このビットストリームは、エンコーディングされたオクルージョンデータを、最初に受信されたオクルージョンデータに関するインジケータまたはフラグオクルージョンデータフォーマット(すなわち、スパースまたはフィルドの表示)とともに含む。このインジケータについては、たとえば、図6に関連して詳細に上述した。コントロールは、ステップS1006へ移され、ステップS1006で、このエンコーディング方法は終了する。
図11におけるデコーディング方法は、ステップS1101において開始する。コントロールが、すぐにステップS1102へ移される。
ステップS1102においては、参照ピクチャーリストが、同じタイムスタンプを有する2Dデータを、その参照ピクチャーリスト内の時間的ピクチャーおよびビュー間参照ピクチャーの両方の後に配置することによって構成される。次いでコントロールは、ステップS1103へ移される。
ステップS1103においては、エンコーディング方法に関するステップS1002におけるのとちょうど同じように、1つまたは複数の奥行きの境界が、再構築された奥行きマップから検知される。それぞれのマクロブロックから、最も近い奥行きの境界までの距離が測定される。マクロブロックから、その最も近い奥行きの境界までの距離が、lピクセル以下である場合には、そのマクロブロックは、オクルージョンエリアマクロブロックとしてマークされる。マクロブロックから、その最も近い奥行きの境界までの距離が、lピクセルを超える場合には、そのマクロブロックは、非オクルージョンエリアマクロブロックである。そのマークまたはフラグは、マクロブロックを、オクルージョンエリアマクロブロックであるものとして識別するため、そのマークまたはフラグがなければ、その関連付けられているマクロブロックは、非オクルージョンエリアマクロブロックであるものとして自動的に識別される。図10に関連して上述したように、2つの状態フラグがあれば、それぞれのマクロブロックを、非オクルージョンエリアマクロブロック(たとえば、フラグ=0)、またはオクルージョンエリアマクロブロック(たとえば、フラグ=1)として適切に識別するのに十分であろう。次いでコントロールは、ステップS1104へ移される。
次いでマクロブロックのデコーディングが、ステップS1104において実行される。デコーディングは、はじめに、ビデオデータとともに受信されたインジケータまたはフラグに基づいて実行され、一方のフラグまたはマークは、マクロブロックを、非オクルージョン/オクルージョンエリアマクロブロックであるものとして示し、他方のインジケータまたはフラグは、オクルージョンデータフォーマットを、スパースまたはフィルドとして識別する。最初に、スライスまたはピクチャー内のすべてのマクロブロックが、図9において示されているステップS903と同様の従来のビデオデコーディング方法でデコーディングされる。
スキップされたマクロブロックが、非オクルージョンエリアマクロブロックを示す一方のフラグ、および最初に受信されたオクルージョンデータに関してオクルージョンデータフォーマットをスパースとして識別する他方のインジケータによって識別された場合には、非オクルージョンエリアは、定義された色または定義された奥行き値などの定義された特徴で満たされる。スキップされたマクロブロックが、非オクルージョンエリアマクロブロックを示す一方のフラグ、および最初に受信されたオクルージョンデータに関してオクルージョンデータフォーマットをフィルドとして識別する他方のインジケータによって識別された場合には、非オクルージョンエリアは、2Dビデオの対応する部分からのデータサンプルで満たされる。その他のすべてのマクロブロックに関しては、上述のように、従来のデコーディングが使用される。次いでコントロールは、ステップS1105へ移され、ステップS1105で、このデータのためのデコーディング方法は終了する。
図12および図13は、オクルージョンデータのための更新メカニズムの使用を含む、本発明の原理に従って実現される、更新メカニズムを採用するオクルージョンデータのエンコーディングおよびデコーディングの別の実施形態に関するフローチャートを示している。
この実施形態においては、オクルージョンフレームは、定義された時間(またはフレーム)にわたって1つのフレームと次なるフレームとの間で実質的に同じまたは一定であることが予想される。エンコーダの側では、オクルージョンデータは、1つの代表オクルージョンデータフレームを使用することによって得ることができる。あるいは、1つのビデオシーンからの複数の連続したオクルージョンデータフレームを連結様式(combinatorial manner)でマージして、代表オクルージョンデータフレームを実現することもできる。そしてエンコーディングおよびデコーディングの両方に関して、代表オクルージョンデータフレームは、新たな代表オクルージョンデータフレームによって取って代わられるまで、定義された数のフレーム(すなわち、時間)にわたって有効である。この方法は、オクルージョンビデオデータまたはオクルージョン奥行きデータに適用することができる。
この技術を実現するためには、代表オクルージョンデータフレームが次の更新まで有効である間のフレーム数nを特定することが必要である。
加えて、代表オクルージョンデータフレームが次の更新まで有効である間のそのフレーム数nを、エンコーダからデコーダへのメッセージを介して伝送されるシンタックス内に含めることが必要であり、それによってデコーダは、適切に機能することができる。代表オクルージョンデータフレームが有効である間のフレームは、一般には連続していることが意図されているが、特定の状況のもとでは連続していないことも可能であると考えられる。たとえば、2つのシーンが頻繁に切り替えられる場合には、1つのシーンに関するオクルージョンデータは、交互のシーンシーケンスにおけるそのシーンに関連したフレームのために使用することができる。それらのフレームは、第2のシーンからのフレームと交互になっているため、その時間に関するフレーム数nは、実際には、連続していないフレームをカバーしている。
図12は、更新メカニズムの使用を採用するオクルージョンデータのエンコーディングを実現するためのフローチャートを示している。この方法は、ステップS1201において開始し、それに関するコントロールは、ステップS1202に渡される。
ステップS1202においては、時間nが特定される。この時間は、一般に整数のフレーム数として表される。これは、単一の代表オクルージョンデータフレーム(ビデオまたは奥行き)が有効である時間を表す。コントロールは、ステップS1203に渡される。
ステップS1203においては、代表オクルージョンデータフレームがエンコーディングされる。次のn−1個の連続したオクルージョンデータフレームに対しては、エンコーディングも伝送も実行されない。それらのフレームは、事実上スキップされる。代表オクルージョンデータフレームは、その代表オクルージョンデータフレームが有効である時間n内のn個の連続したオクルージョンデータフレームから選択された1つのオクルージョンデータフレームとすることができる。上述のように、代表オクルージョンデータフレームは、その代表オクルージョンデータフレームが有効である時間n内のn個の連続したオクルージョンデータフレームから選択された2つ以上のオクルージョンデータフレームの特徴の組合せとすることができる。コントロールは、ステップS1204に渡される。
ステップS1204においては、エンコーディングされた代表オクルージョンデータフレームが、時間nを示すシンタックスメッセージとともに伝送される。コントロールは、ステップS1205に渡される。
特定ステップS1205においては、時間nが経過したかどうかが特定され、それによって、新たな代表オクルージョンデータフレームをエンコーディングして、現在の代表オクルージョンデータフレームを更新して置き換えることができる。時間が経過し、エンコーディングのための準備が整っている別の代表オクルージョンデータフレームがある場合には、コントロールは、ステップS1202へ戻される。エンコーディングのための準備が整っているオクルージョンデータフレームがもうない場合には、コントロールは、ステップS1206に渡され、ステップS1206で、この処理は終了する。
この実施形態においては、デコーディングされたオクルージョンフレームが、別の代表オクルージョンフレームがデコーディングされて、前の代表オクルージョンフレームが更新されて置き換えられるまで、自分の関連付けられているフレームと、デコーディングの順序で後に続くn−1個の連続したフレームのすべてとにわたって有効であり続けることになる。
デコーディング処理が、ステップS1301において開始し、コントロールが、ステップS1302に渡される。ステップS1302においては、シンタックスメッセージがデコーディングされて、時間nが特定される。コントロールは、ステップS1303に渡される。
ステップS1303においては、代表オクルージョンデータフレームがデコーディングされる。そして、その代表オクルージョンデータフレームは、時間nにわたって、すなわち、次のn−1個の連続したフレームにわたって有効なものとして保持される。コントロールは、ステップS1304に渡される。
特定ステップS1304においては、時間nが経過したかどうかが特定され、それによって、新たな代表オクルージョンデータフレームをデコーディングして、現在の代表オクルージョンデータフレームを更新して置き換えることができる。時間nが経過し、デコーディングのための準備が整っている別の代表オクルージョンデータフレームがある場合には、コントロールは、ステップS1302へ戻される。デコーディングのための準備が整っているオクルージョンデータフレームがもうない場合には、コントロールは、ステップS1305に渡され、ステップS1305で、この処理は終了する。
本明細書に記載されている方法は、コンピュータプロセッサベースの実施態様における使用、またはコンピュータ可読ストレージメディア上での使用、または本明細書の図1〜図4において示されているコーディング/デコーディング装置などのその他の装置における使用のために考えられている。
オクルージョンデータのコーディングおよびデコーディングに関する上述の説明および図示は、本発明のさまざまな実施形態の例示である。特定の修正形態および変形形態、たとえば、異なるタイプのオクルージョンデータを使用すること、特定のエンコーディングステップもしくはデコーディングステップを実行する順序を変えること、または方法における1つもしくは複数のステップを省略することまでも、本発明を実施するために使用することができる。
本明細書において列挙されているすべての例および条件を表す表現(conditional language)は、本発明の原理、および、当技術分野を進展させることに対して本発明者によって寄与されたコンセプトを読者が理解する際に役立つための教示上の目的を意図されており、また、そのような具体的に列挙された例および条件に限定されるものではないと解釈されるべきである。
その上、本明細書において本発明の原理、態様、および実施形態、ならびにその具体例について述べるすべての記述は、その構造上の均等物および機能上の均等物の両方を包含することを意図されている。加えて、そのような均等物は、構造のいかんを問わず、同じ機能を実行するあらゆる均等物において開発されるあらゆる要素を含む、現在知られている均等物、ならびに将来開発される均等物の両方を含むことが意図されている。
複数の実施態様について、本明細書において説明してきた。それでもなお、さまざまな修正を行うことができるということが理解できるであろう。たとえば、別々の実施態様の要素どうしを結合、補完、修正、または除去して、その他の実施態様を作成することができる。加えて、開示されている構造および処理の代わりに、その他の構造および処理を使用することができ、その結果として生じる実施態様は、開示されている実施態様と比較して、少なくとも実質的に同じ(1つまたは複数の)機能を、少なくとも実質的に同じ(1つまたは複数の)方法で実行して、少なくとも実質的に同じ(1つまたは複数の)結果を達成することになるということを当業者なら理解するであろう。特に、本明細書においては、添付の図面を参照して、例示的な実施形態について説明してきたが、本発明の原理は、それらの厳密な実施形態に限定されるものではなく、当業者なら、本発明の原理の範囲または趣旨から逸脱することなく、それらの実施形態においてさまざまな変更および修正を行うことができるということを理解されたい。したがって、これらおよびその他の実施態様は、本出願によって考慮されており、添付の特許請求の範囲の範疇内に収まる。

Claims (32)

  1. ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための方法であって、
    前記オクルージョンデータに関するフォーマットを特定するステップであって、前記フォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップ(S602)と、
    前記オクルージョンデータに関する前記フォーマットが、前記フィルドオクルージョンデータフォーマットであると特定された場合に、エンコーディングの前に前記オクルージョンデータをスパースオクルージョンデータフォーマットへと変換するステップ(S604)と、
    前記オクルージョンデータをエンコーディングして、エンコーディングされたオクルージョンデータを作成するステップ(S603)と、
    前記エンコーディングされたオクルージョンデータを、前記オクルージョンデータに関して特定された前記フォーマットを表すインジケータとともに出力するステップ(S605)と、
    を含むことを特徴とする方法。
  2. 前記変換するステップは、
    前記オクルージョンデータ内に含まれているそれぞれの非オクルージョンエリア内のそれぞれのサンプルを、定義された特徴を用いて表すステップ(S604)をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記変換するステップは、前記表すステップの前に、前記オクルージョンデータに関して少なくとも1つのオクルージョンエリアおよび少なくとも1つの非オクルージョンエリアを識別するステップをさらに含み、前記少なくとも1つのオクルージョンエリアは、前記少なくとも1つの非オクルージョンエリアと相互に排他的であることを特徴とする請求項2に記載の方法。
  4. 前記識別するステップは、
    少なくとも奥行きデータに応答して、前記オクルージョンデータに関連付けられている前記ビデオデータフレーム内の1つまたは複数の奥行きの切れ目を検知するステップであって、前記奥行きデータは、前記オクルージョンデータに関連付けられている前記ビデオデータフレーム内に含まれているステップと、
    前記1つまたは複数の奥行きの切れ目に沿ったそれぞれのエリアを前記オクルージョンデータ内の非オクルージョンエリアとして分類するステップと、
    をさらに含むことを特徴とする請求項2に記載の方法。
  5. 前記定義された特徴は、定義された色を含むことを特徴とする請求項2に記載の方法。
  6. 前記定義された特徴は、定義された奥行き値を含むことを特徴とする請求項2に記載の方法。
  7. 前記オクルージョンデータは、オクルージョンビデオデータおよびオクルージョン奥行きデータのうちの1つを含むことを特徴とする請求項2に記載の方法。
  8. 前記エンコーディングするステップは、H.264/AVC、MVC、およびMPEG−2のうちの1つを含むビデオコーディング標準に従って実行されることを特徴とする請求項2に記載の方法。
  9. 前記エンコーディングするステップは、H.264/AVC、MVC、およびMPEG−2のうちの1つを含むビデオコーディング標準に従って実行されることを特徴とする請求項1に記載の方法。
  10. 前記オクルージョンデータに関して特定された前記フォーマットを表す前記インジケータは、スライスヘッダ、シーケンスパラメータセット、ピクチャーパラメータセット、ビューパラメータセット、ネットワーク抽象化レイヤユニットヘッダ、および付加拡張情報メッセージのうちの少なくとも1つの中に含まれていることを特徴とする請求項1に記載の方法。
  11. 前記オクルージョンデータは、オクルージョンビデオデータおよびオクルージョン奥行きデータのうちの1つを含むことを特徴とする請求項1に記載の方法。
  12. ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための装置であって、
    前記オクルージョンデータに関するフォーマットを特定するステップであって、前記フォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップ(S602)と、
    前記オクルージョンデータに関する前記フォーマットが、前記フィルドオクルージョンデータフォーマットであると特定された場合に、エンコーディングの前に前記オクルージョンデータをスパースオクルージョンデータフォーマットへと変換するステップ(S604)と、
    前記オクルージョンデータをエンコーディングして、エンコーディングされたオクルージョンデータを作成するステップ(S603)と、
    前記エンコーディングされたオクルージョンデータを、前記オクルージョンデータに関して特定された前記フォーマットを表すインジケータとともに出力するステップ(S605)と、
    を行うためのエンコーダを含むことを特徴とする装置。
  13. 前記変換するステップは、前記オクルージョンデータ内に含まれているそれぞれの非オクルージョンエリア内のそれぞれのサンプルを、定義された特徴を用いて表すステップ(S604)をさらに含むことを特徴とする請求項12に記載の装置。
  14. 前記変換するステップは、前記表すステップの前に、前記オクルージョンデータに関して少なくとも1つのオクルージョンエリアおよび少なくとも1つの非オクルージョンエリアを識別するステップをさらに含み、前記少なくとも1つのオクルージョンエリアは、前記少なくとも1つの非オクルージョンエリアと相互に排他的であることを特徴とする請求項13に記載の装置。
  15. 前記識別するステップは、
    少なくとも奥行きデータに応答して、前記オクルージョンデータに関連付けられている前記ビデオデータフレーム内の1つまたは複数の奥行きの切れ目を検知するステップであって、前記奥行きデータは、前記オクルージョンデータに関連付けられている前記ビデオデータフレーム内に含まれているステップと、
    前記1つまたは複数の奥行きの切れ目に沿ったそれぞれのエリアを前記オクルージョンデータ内の非オクルージョンエリアとして分類するステップと、
    をさらに含むことを特徴とする請求項13に記載の装置。
  16. 前記定義された特徴は、定義された色を含むことを特徴とする請求項13に記載の装置。
  17. 前記定義された特徴は、定義された奥行き値を含むことを特徴とする請求項13に記載の装置。
  18. 前記オクルージョンデータは、オクルージョンビデオデータおよびオクルージョン奥行きデータのうちの1つを含むことを特徴とする請求項13に記載の装置。
  19. 前記エンコーディングするステップは、H.264/AVC、MVC、およびMPEG−2のうちの1つを含むビデオコーディング標準に従って実行されることを特徴とする請求項13に記載の装置。
  20. 前記エンコーディングするステップは、H.264/AVC、MVC、およびMPEG−2のうちの1つを含むビデオコーディング標準に従って実行されることを特徴とする請求項12に記載の装置。
  21. 前記オクルージョンデータに関して特定された前記フォーマットを表す前記インジケータは、スライスヘッダ、シーケンスパラメータセット、ピクチャーパラメータセット、ビューパラメータセット、ネットワーク抽象化レイヤユニットヘッダ、および付加拡張情報メッセージのうちの少なくとも1つの中に含まれていることを特徴とする請求項12に記載の装置。
  22. 前記オクルージョンデータは、オクルージョンビデオデータおよびオクルージョン奥行きデータのうちの1つを含むことを特徴とする請求項12に記載の装置。
  23. ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための方法であって、
    受信されたオクルージョンデータに関するオリジナルフォーマットを表すインジケータを抽出するステップ(S702)であって、前記オリジナルフォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップと、
    前記受信されたオクルージョンデータをデコーディングして、デコーディングされたオクルージョンデータを作成するステップ(S703)と、
    前記インジケータが、前記オリジナルフォーマットをフィルドオクルージョンデータフォーマットとして示している場合に、前記デコーディングされたオクルージョンデータをスパースオクルージョンデータフォーマットから前記フィルドオクルージョンデータフォーマットへ変換するステップ(S706)と
    を含み、前記変換するステップは、
    定義された特徴を用いて表されている非オクルージョンエリアデータを、前記オクルージョンデータに関連付けられている前記ビデオデータフレーム内の2Dデータからのそれぞれの併置されるサンプルによって置き換えるステップ(S706)と、
    前記デコーディングされたオクルージョンデータ、および存在する場合には、変換されたデコーディングされたオクルージョンデータを出力するステップ(S705)と、
    をさらに含むことを特徴とする方法。
  24. 前記定義された特徴は、定義された色を含むことを特徴とする請求項1に記載の方法。
  25. 前記定義された特徴は、定義された奥行き値を含むことを特徴とする請求項1に記載の方法。
  26. 前記オクルージョンデータは、オクルージョンビデオデータおよびオクルージョン奥行きデータのうちの1つを含むことを特徴とする請求項1に記載の方法。
  27. 前記デコーディングするステップは、H.264/AVC、MVC、およびMPEG−2のうちの1つを含むビデオコーディング標準に従って実行されることを特徴とする請求項1に記載の方法。
  28. ビデオデータフレームのシーケンスにおいてオクルージョンデータを処理するための装置であって、
    受信されたオクルージョンデータに関するオリジナルフォーマットを表すインジケータを抽出するステップ(S702)であって、前記オリジナルフォーマットは、スパースオクルージョンデータフォーマットおよびフィルドオクルージョンデータフォーマットのうちの1つから選択されるステップと、
    前記受信されたオクルージョンデータをデコーディングして、デコーディングされたオクルージョンデータを作成するステップ(S703)と、
    前記インジケータが、前記オリジナルフォーマットをフィルドオクルージョンデータフォーマットとして示している場合に、前記デコーディングされたオクルージョンデータをスパースオクルージョンデータフォーマットから前記フィルドオクルージョンデータフォーマットへ変換するステップ(S706)と
    を行うためのデコーダを含み、前記変換するステップは、
    定義された特徴を用いて表されている非オクルージョンエリアデータを、前記オクルージョンデータに関連付けられている前記ビデオデータフレーム内の2Dデータからのそれぞれの併置されるサンプルによって置き換えるステップ(S706)と、
    前記デコーディングされたオクルージョンデータ、および存在する場合には、変換されたデコーディングされたオクルージョンデータを出力するステップ(S705)と、
    をさらに含むことを特徴とする装置。
  29. 前記定義された特徴は、定義された色を含むことを特徴とする請求項28に記載の装置。
  30. 前記定義された特徴は、定義された奥行き値を含むことを特徴とする請求項28に記載の装置。
  31. 前記オクルージョンデータは、オクルージョンビデオデータおよびオクルージョン奥行きデータのうちの1つを含むことを特徴とする請求項28に記載の装置。
  32. 前記デコーディングするステップは、H.264/AVC、MVC、およびMPEG−2のうちの1つを含むビデオコーディング標準に従って実行されることを特徴とする請求項28に記載の装置。
JP2013529179A 2010-09-14 2011-08-31 オクルージョンデータのための圧縮方法および圧縮装置 Pending JP2013538534A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US40334510P 2010-09-14 2010-09-14
US61/403,345 2010-09-14
PCT/US2011/049877 WO2012036901A1 (en) 2010-09-14 2011-08-31 Compression methods and apparatus for occlusion data

Publications (2)

Publication Number Publication Date
JP2013538534A true JP2013538534A (ja) 2013-10-10
JP2013538534A5 JP2013538534A5 (ja) 2015-01-15

Family

ID=44583508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013529179A Pending JP2013538534A (ja) 2010-09-14 2011-08-31 オクルージョンデータのための圧縮方法および圧縮装置

Country Status (8)

Country Link
US (3) US20130162774A1 (ja)
EP (1) EP2617194A1 (ja)
JP (1) JP2013538534A (ja)
KR (1) KR20130139242A (ja)
CN (1) CN103299619A (ja)
AU (1) AU2011302448A1 (ja)
BR (1) BR112013006006A2 (ja)
WO (3) WO2012036902A1 (ja)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101512988B1 (ko) * 2007-12-26 2015-04-17 코닌클리케 필립스 엔.브이. 그래픽 오브젝트를 중첩하기 위한 이미지 프로세서
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
KR101588877B1 (ko) 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5614900B2 (ja) 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US20130162774A1 (en) 2010-09-14 2013-06-27 Dong Tian Compression methods and apparatus for occlusion data
US9094660B2 (en) * 2010-11-11 2015-07-28 Georgia Tech Research Corporation Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JPWO2012111755A1 (ja) * 2011-02-18 2014-07-07 ソニー株式会社 画像処理装置および画像処理方法
US20120262545A1 (en) * 2011-04-18 2012-10-18 Paul Kerbiriou Method for coding and decoding a 3d video signal and corresponding devices
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
CN103765895B (zh) * 2011-06-24 2017-03-08 Lg电子株式会社 使用跳跃模式的编码/解码方法和装置
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
ITTO20120413A1 (it) * 2012-05-08 2013-11-09 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione.
EP2670139A1 (en) 2012-06-01 2013-12-04 Alcatel Lucent Method and apparatus for encoding a video stream having a transparency information channel
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN103533325B (zh) * 2012-07-06 2017-07-07 乐金电子(中国)研究开发中心有限公司 一种深度图像帧内编解码方法、装置及编解码器
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
CN104813669B (zh) * 2012-09-21 2018-05-22 诺基亚技术有限公司 用于视频编码的方法和装置
US20150245062A1 (en) * 2012-09-25 2015-08-27 Nippon Telegraph And Telephone Corporation Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program and recording medium
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
KR20140048802A (ko) * 2012-10-08 2014-04-24 삼성전자주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
US9674519B2 (en) * 2012-11-09 2017-06-06 Qualcomm Incorporated MPEG frame compatible video coding
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
KR20230080500A (ko) 2013-01-04 2023-06-07 지이 비디오 컴프레션, 엘엘씨 효율적인 확장가능한 코딩 개념
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
CN117956141A (zh) * 2013-04-08 2024-04-30 Ge视频压缩有限责任公司 多视图解码器
US9571812B2 (en) * 2013-04-12 2017-02-14 Disney Enterprises, Inc. Signaling warp maps using a high efficiency video coding (HEVC) extension for 3D video coding
JP6260809B2 (ja) * 2013-07-10 2018-01-17 ソニー株式会社 ディスプレイ装置、情報処理方法、及び、プログラム
US9898856B2 (en) * 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015054634A2 (en) * 2013-10-11 2015-04-16 Vid Scale, Inc. High level syntax for hevc extensions
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
JP2017513426A (ja) * 2014-03-14 2017-05-25 サムスン エレクトロニクス カンパニー リミテッド 類型情報を利用した、マルチレイヤビデオ符号化方法及びマルチレイヤビデオ復号方法
CN104133917B (zh) * 2014-08-15 2018-08-10 百度在线网络技术(北京)有限公司 照片的分类存储方法及装置
CN107077743B (zh) 2014-09-29 2021-03-23 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
MX2018003263A (es) 2015-09-17 2018-05-16 Thomson Licensing Metodo para codificar un contenido de campo luminoso.
JP6944131B2 (ja) * 2016-02-22 2021-10-06 ソニーグループ株式会社 ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法
CN106210722B (zh) * 2016-07-08 2019-06-25 上海大学 基于hevc的分层深度视频残差层数据的编码方法
TWI672938B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 可校正遮蔽區的深度圖產生裝置
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
EP3698332A4 (en) * 2017-10-18 2021-06-30 Nokia Technologies Oy APPARATUS, METHOD, AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO
US11509878B2 (en) * 2018-09-14 2022-11-22 Mediatek Singapore Pte. Ltd. Methods and apparatus for using track derivations for network based media processing
WO2020127226A1 (en) 2018-12-21 2020-06-25 Koninklijke Kpn N.V. Streaming volumetric and non-volumetric video
US10881956B2 (en) * 2018-12-28 2021-01-05 Intel Corporation 3D renderer to video encoder pipeline for improved visual quality and low latency
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004162A (es) 2019-10-07 2022-07-12 Boston Polarimetrics Inc Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion.
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
US11589032B2 (en) * 2020-01-07 2023-02-21 Mediatek Singapore Pte. Ltd. Methods and apparatus for using track derivations to generate new tracks for network based media processing applications
CN115552486A (zh) 2020-01-29 2022-12-30 因思创新有限责任公司 用于表征物体姿态检测和测量系统的系统和方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
WO2009001255A1 (en) * 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327509A (en) 1992-04-27 1994-07-05 Star Technologies, Inc. Compressed image system for texture patterns
US5892554A (en) 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
DE19623888A1 (de) 1996-06-05 1997-12-11 Hertz Inst Heinrich Digitaler optischer Schalter
US7058027B1 (en) 1998-09-16 2006-06-06 Scientific Research Corporation Systems and methods for asynchronous transfer mode and internet protocol
BR0014954A (pt) 1999-10-22 2002-07-30 Activesky Inc Sistema de vìdeo baseado em objetos
US6740069B2 (en) 2000-12-15 2004-05-25 Sca Hygiene Products Ab Absorbent article such as a sanitary napkin, a diaper, an incontinence guard, or a panty-liner
US7079667B2 (en) 2000-12-19 2006-07-18 Xerox Corporation Method and apparatus for implementing occlusion glyph code tilings
US20030012287A1 (en) 2001-03-05 2003-01-16 Ioannis Katsavounidis Systems and methods for decoding of systematic forward error correction (FEC) codes of selected data in a video bitstream
US7301537B2 (en) 2002-12-20 2007-11-27 Telefonaktiebolaget Lm Ericsson (Publ) Graphics processing apparatus, methods and computer program products using minimum-depth occlusion culling and zig-zag traversal
US7489342B2 (en) 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
JP2005130428A (ja) 2003-09-29 2005-05-19 Ntt Communications Kk 双方向画像通信装置、その処理方法及びクライアント装置並びにプログラム
KR100965881B1 (ko) 2003-10-10 2010-06-24 삼성전자주식회사 비디오 데이터 인코딩 시스템 및 디코딩 시스템
WO2005083636A1 (es) 2004-02-27 2005-09-09 Td Vision Corporation, S.A. De C.V. Método y sistema de codificación digital de imágenes de video 3d estereoscópicas
US7671894B2 (en) 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US7929776B2 (en) 2005-03-10 2011-04-19 Qualcomm, Incorporated Method and apparatus for error recovery using intra-slice resynchronization points
CN101203881B (zh) 2005-06-23 2015-04-22 皇家飞利浦电子股份有限公司 图像和相关数据的组合交换
US8384763B2 (en) 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
MY159176A (en) 2005-10-19 2016-12-30 Thomson Licensing Multi-view video coding using scalable video coding
US7903737B2 (en) 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
EP1806930A1 (en) 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
WO2007080223A1 (en) 2006-01-10 2007-07-19 Nokia Corporation Buffering of decoded reference pictures
WO2007081189A1 (en) 2006-01-16 2007-07-19 Electronics And Telecommunications Research Institute Method and apparatus for selective inter-layer prediction on macroblock basis
MX2008011652A (es) 2006-03-29 2008-09-22 Thomson Licensing Metodos y aparatos para usarse en un sistema de codificacion de video de multiples vistas.
PL2008460T3 (pl) 2006-03-30 2017-10-31 Lg Electronics Inc Sposób i urządzenie do dekodowania/kodowania sygnału wideo
KR101340911B1 (ko) 2006-03-31 2013-12-13 코닌클리케 필립스 엔.브이. 다중 뷰들의 효율적인 인코딩 방법
JP5013993B2 (ja) 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
CN101166282B (zh) 2006-10-16 2010-12-08 华为技术有限公司 摄像机参数编码传输的方法
BRPI0718206B1 (pt) 2006-10-16 2020-10-27 Nokia Technologies Oy método para codificar uma pluralidade de visões de uma cena; método de codificação de uma sequência de bits de vídeo codificada e aparelho
AP2545A (en) 2006-10-20 2012-12-20 Nokia Corp Virtual decoded reference picture marking and reference picture list
BRPI0718421A2 (pt) 2006-10-24 2013-11-12 Thomson Licensing Gerenciamento de quadro para codificação de vídeo de multivistas
WO2008054100A1 (en) 2006-11-01 2008-05-08 Electronics And Telecommunications Research Institute Method and apparatus for decoding metadata used for playing stereoscopic contents
US10291863B2 (en) * 2006-12-21 2019-05-14 InterDigital VC Holdings Inc. Method for indicating coding order in multi-view video coded content
ES2535314T3 (es) 2006-12-28 2015-05-08 Nippon Telegraph And Telephone Corporation Método de codificación de vídeo, método de decodificación, dispositivo de los mismos, programa de los mismos, y medio de almacenamiento que contiene el programa
EP3182708B1 (en) 2007-01-04 2019-03-06 InterDigital Madison Patent Holdings Methods and apparatus for multi-view information conveyed in high level syntax
CN101242530B (zh) 2007-02-08 2011-06-01 华为技术有限公司 运动估计方法、基于运动估计的多视编解码方法及装置
KR101418627B1 (ko) 2007-04-04 2014-07-15 톰슨 라이센싱 참조 화상 리스트 관리
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
KR101301181B1 (ko) 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
FI3920538T3 (fi) 2007-04-12 2023-04-05 Dolby Int Ab Limittäminen videon enkoodauksessa ja dekoodauksessa
US8488677B2 (en) 2007-04-25 2013-07-16 Lg Electronics Inc. Method and an apparatus for decoding/encoding a video signal
EP2757788B1 (en) 2007-06-19 2020-03-11 Electronics and Telecommunications Research Institute Metadata structure for storing and playing stereoscopic data, and method for storing stereoscopic content file using this metadata
CN101690231A (zh) 2007-06-28 2010-03-31 汤姆森特许公司 多视图编码视频的单环解码
CN101415114B (zh) 2007-10-17 2010-08-25 华为终端有限公司 视频编解码方法和装置以及视频编解码器
BRPI0821500A2 (pt) 2008-01-11 2015-06-16 Thomson Licensing Codificação de vídeo e profundidade
WO2009134482A2 (en) * 2008-01-31 2009-11-05 The Board Of Trustees Of The University Of Illinois Recognition via high-dimensional data classification
US8855199B2 (en) 2008-04-21 2014-10-07 Nokia Corporation Method and device for video coding and decoding
CN100563339C (zh) 2008-07-07 2009-11-25 浙江大学 一种利用深度信息的多通道视频流编码方法
CN102106151A (zh) 2008-07-21 2011-06-22 汤姆森许可贸易公司 3d视频信号的编码设备
EP2308241B1 (en) 2008-07-24 2017-04-12 Koninklijke Philips N.V. Versatile 3-d picture format
US20110149037A1 (en) * 2008-08-26 2011-06-23 Koninklijke Philips Electronics N.V. Method and system for encoding a 3D video signal, encoder for encoding a 3-D video signal, encoded 3D video signal, method and system for decoding a 3D video signal, decoder for decoding a 3D video signal.
JP5243612B2 (ja) 2008-10-02 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間画像合成およびマルチビューデータ信号抽出
US20110205226A1 (en) * 2008-10-28 2011-08-25 Koninklijke Philips Electronics N.V. Generation of occlusion data for image properties
EP2197217A1 (en) 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
US12120326B2 (en) 2009-02-19 2024-10-15 Interdigital Madison Patent Holdings Method and apparatus for encoding and decoding 3D video content
US20100226444A1 (en) 2009-03-09 2010-09-09 Telephoto Technologies Inc. System and method for facilitating video quality of live broadcast information over a shared packet based network
US8854428B2 (en) * 2009-03-19 2014-10-07 Lg Electronics, Inc. Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method
CN102308319A (zh) 2009-03-29 2012-01-04 诺曼德3D有限公司 用于编码数据与三维渲染的系统与格式
JP5614900B2 (ja) 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
US8681124B2 (en) 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US8515134B2 (en) 2009-12-11 2013-08-20 Nxp B.V. System and method for motion estimation using image depth information
US8576341B2 (en) 2010-03-01 2013-11-05 Stmicroelectronics, Inc. Occlusion adaptive motion compensated interpolator
US20130033586A1 (en) 2010-04-21 2013-02-07 Samir Hulyalkar System, Method and Apparatus for Generation, Transmission and Display of 3D Content
US20130162774A1 (en) 2010-09-14 2013-06-27 Dong Tian Compression methods and apparatus for occlusion data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
WO2009001255A1 (en) * 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal

Also Published As

Publication number Publication date
US9485492B2 (en) 2016-11-01
US20130162774A1 (en) 2013-06-27
US20130176394A1 (en) 2013-07-11
WO2012036903A1 (en) 2012-03-22
US9883161B2 (en) 2018-01-30
US20130162773A1 (en) 2013-06-27
AU2011302448A1 (en) 2013-03-21
WO2012036902A1 (en) 2012-03-22
BR112013006006A2 (pt) 2017-07-18
KR20130139242A (ko) 2013-12-20
WO2012036901A1 (en) 2012-03-22
CN103299619A (zh) 2013-09-11
EP2617194A1 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
JP2013538534A (ja) オクルージョンデータのための圧縮方法および圧縮装置
US11240478B2 (en) Efficient multi-view coding using depth-map estimate for a dependent view
JP6356286B2 (ja) 多視点信号コーデック
JP5916266B2 (ja) ビデオコーディング方法および装置
KR100934676B1 (ko) 다시점 비디오의 처리
JP5156088B2 (ja) ビデオ信号のデコーディング/エンコーディング方法及び装置
RU2611240C2 (ru) Устройство, способ и компьютерная программа для трехмерного видеокодирования
US11405635B2 (en) Multi-view coding with effective handling of renderable portions
JP6698351B2 (ja) ビュー内でのおよびビューにわたる深度ルックアップテーブルの予測コーディング
KR20120118781A (ko) 다시점 비디오를 위한 단일화된 스케일러블 비디오 부호화 방법 및 그 장치, 다시점 비디오를 위한 단일화된 스케일러블 비디오 복호화 방법 및 그 장치
EP2777266B1 (en) Multi-view coding with exploitation of renderable portions
CN102438141B (zh) 一种立体视频码流处理方法及装置
KR20120084628A (ko) 다시점 영상 부호화/복호화 장치 및 방법
JP2023543891A (ja) マルチビュー視点位置補足エンハンスメント情報メッセージ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160315