JP2012501580A - ヒューリスティックなビューマージングによるビュー合成 - Google Patents

ヒューリスティックなビューマージングによるビュー合成 Download PDF

Info

Publication number
JP2012501580A
JP2012501580A JP2011525007A JP2011525007A JP2012501580A JP 2012501580 A JP2012501580 A JP 2012501580A JP 2011525007 A JP2011525007 A JP 2011525007A JP 2011525007 A JP2011525007 A JP 2011525007A JP 2012501580 A JP2012501580 A JP 2012501580A
Authority
JP
Japan
Prior art keywords
candidate pixel
pixel
view
candidate
reference view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011525007A
Other languages
English (en)
Other versions
JP5551166B2 (ja
JP2012501580A5 (ja
Inventor
ニ,ゼフォン
ティアン,ドン
バガヴァシー,シタラム
リャッチ,ホアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2012501580A publication Critical patent/JP2012501580A/ja
Publication of JP2012501580A5 publication Critical patent/JP2012501580A5/ja
Application granted granted Critical
Publication of JP5551166B2 publication Critical patent/JP5551166B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

幾つかの実現は、3Dビデオ(3DV)応用のヒューリスティックなビューマージングによるビュー合成に関する。1態様によれば、第一の瞬間移動された基準のビューからの第一の候補となる画素及び第二の瞬間移動された基準のビューからの第二の候補となる画素は、前記第一の候補となる画素及び前記第二の候補なる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価される。この評価は、第一の瞬間移動された基準のビュー及び第二の瞬間移動された基準のビューを1つの合成されたビューにマージするプロセスの一部として行われる。この評価に基づいて、1つの合成されたビューにおける所与の目標となる画素について結果が判定される。この結果は、所与の目標となる画素の値を決定すること、又は所与の目標となる画素をホールとして記録することである。

Description

本発明は、符号化システムに関する。
様々な特定の実現は、3D映像(3DV)応用向けのヒューリスティックなビューマージングによるビュー合成に関する。
本出願は、(1)“View Synthesis with Boundary-Splatting and Heuristic View Merging for 3DV Applications”と題された2008年9月19日に提出された米国特許仮出願61/192612、及び(2)“View Synthesis with Adaptive Splatting for 3D Video(3DV) Application”と題された2008年8月29日に提出された米国特許仮出願61/092967の両者の利益を特許請求するものである。これらの米国特許仮出願の内容は、引用によりそれらの完全な形で本明細書に盛り込まれる。
3次元映像(3DV)は、多視点映像及び奥行き情報の符号化表現を含み、たとえば受信での高品質3Dレンダリングの生成を狙いとする新たなフレームワークである。これにより、オートステレオスコピックディスプレイによる3Dの視覚的な体験、自由視点応用及び立体ディスプレイを可能にする。更なるビューを生成する更なる技術を有することが望まれる。
一般的な態様によれば、第一の瞬間移動(ワープ)された基準のビュー(a first warped reference view)からの第一の候補となる画素、及び第二の瞬間移動された基準のビューからの第二の候補となる画素は、第一及び第二の候補となる画素の品質を評価する後方合成プロセス、第一及び第二の候補となる画素の周囲のホール分布、又は特定の周波数を超える第一及び第二の候補となる画素の周囲のエネルギー量の少なくとも1つに基づいて評価される。評価は、少なくとも第一及び第二の移動された基準のビューを1つの合成されたビューにマージするプロセスの一部として行われる。評価に基づいて、1つの合成されたビューにおける所与の目標とする画素について、結果が決定される。
1以上の実現の詳細は、添付図面及び以下の詳細な説明において述べられる。1つの特定のやり方で記載されるとしても、実現は様々なやり方で構成又は実施される場合があることが明らかである。たとえば、実現は、方法として実行されるか、たとえば動作のセットを実行するためにコンフィギュされる装置又は動作のセットを実行する命令を記憶する装置として実施されるか、或いは信号で実施される場合がある。他の態様及び特徴は、添付図面及び特許請求の範囲と共に考慮される以下の詳細な説明から明らかとなるであろう。
補正されないビュー合成の実現に関する図である。 補正されたビュー合成の実現に関する図である。 画像合成装置の実現に関する図である。 画像合成装置の実現に関する図である。 ビデオ送信システムの実現に関する図である。 ビデオ受信システムの実現に関する図である。 ビデオ処理装置の実現に関する図である。 奥行き情報をもつ多視点映像を送信及び受信するシステムの実現に関する図である。 ビュー合成及びマージングプロセスの実現に関する図である。 奥行き、ホール分布及びカメラパラメータを利用したマージングプロセスの実現に関する図である。 奥行き、後方合成エラー、カメラパラメータを利用したマージングプロセスの実現に関する図である。 奥行き、後方合成エラー、カメラパラメータを利用したマージングプロセスの別の実現に関する図である。 奥行き、後方合成エラー、カメラパラメータを利用したマージングプロセスの別の実現に関する図である。 高周波エネルギーを利用したマージングプロセスの実現に関する図である。
幾つかの3DV応用は、入力ビューに厳密な制約を課す。入力ビューは、ある画素があるビューから別のビューにどのように移されるかを1次元(1D)の視差が表すことができるように、典型的に良好に補正される必要がある。
DIBR(Depth-Image-Based Rendering)は、多数の較正されたカメラから捕捉された多数の画像及び関連する画素当たりの立体情報を使用するビュー合成の技術である。概念的に、このビュー生成方法は、(1)3Dイメージワーピング及び(2)再構成及びリサンプリング、といった2ステッププロセスとして理解することができる。3Dイメージワーピングに関して、参照画像からの画素を適切な3D位置に投影せずに、それらを新たな画像空間に再投影するため、奥行きデータ及び関連するカメラパラメータが使用される。再構成及びリサンプリングに関して、合成されたビューにおける画素値の決定が含まれる。
レンダリング方法は、画素に基づくか(splatting)又はメッシュに基づく(triangular)ことができる。3DVについて、レーザレンジのスキャニング又はコンピュータグラフィックスモデルから生成されるのではなく、ステレオのような受動的なコンピュータビジョン技術により1画素当たりの奥行きが典型的に推定される。したがって、3DVにおけるリアルタイム処理について、雑音のある奥行き情報のみが与えられた場合、複雑且つ計算コストが高いメッシュ生成を回避するために、画素に基づく方法が好まれるべきである。これは、ロバストな3D triangulation(表面再構成)は、困難な幾何学的な問題であるためである。
既存のスプラッティングアルゴリズムは、幾つかの非常に印象的な結果を達成する。しかし、高い精度の奥行きで動作するように設計され、低品質の奥行きについて十分ではない場合がある。さらに、3DVに存在しない、1画素当たりの正常な表面又は3Dにおける曇り点のような、多くの既存のアルゴリズムが当然のこととする態様が存在する。そこで、これらの特定の問題に対処するため、新たな合成アルゴリズムが望まれる。
奥行き情報及びカメラパラメータが与えられると、参照画像を合成されたビューにワープさせることは簡単である。大部分の重要な問題は、ワープされた参照画像の画素から目標となるビューにおける画素値をどのように予測するかである。図1A及び図1Bは、この基本的な問題を例示する。図1Aは、補正されていないビュー合成100を示す。図1Bは、補正されたビュー合成150を示す。図1A及び図1Bでは、文字“X”は、推定されるべき目標とするビューにおける画素を表し、円及び四角は、異なる基準とするビューからワープされた画素を表す。この場合、異なる形状は、異なる基準とするビューを示す。
簡単な方法は、ワープされたサンプルを、目標とするビューにおけるその最も近い画素の位置に丸めることである。多数の画素が合成されたビューにおける同じ位置にマッピングされたとき、Zバッファリングは典型的なソリューションであり、すなわちカメラに最も近い画素が選択される。この(最も近い画素の位置に丸める)方式は、特にオブジェクトの境界に沿って、僅かにアンダーサンプルされた任意の表面においてピンホールを生じさせる可能性がある。このピンホールの問題に対処する最も一般的な方法は、基準とするビューにおけるある画素を目標とするビューにおける幾つかの画素にマッピングすることである。このプロセスは、スプラッティング(splatting)と呼ばれる。
基準とする画素が目標とするビューにおける多数の周囲の目標とする画素にマッピングされる場合、大部分のピンホールを除去することができる。しかし、幾つかの画像の詳細が失われる。ピンホールの除去と詳細の損失との間の同じトレードオフは、トランスペアレントなスプラット型の再構成カーネルを使用するときに生じる。問題は、「スプラッティングの程度をどのように制御するか」である。たとえば、それぞれのワープされた画素について、全ての周囲の目標とする画素にマッピングするか、そのワープされた画素に最も近い画素にマップするか、である。この問題は、概して、文献において対処されていない。
多数の基準とするビューが使用されるとき、一般的な方法は、それぞれの基準とするビューからの合成を個別に処理し、次いで、多数の合成されたビューを互いに合成する。問題は、それらをどのようにマージすべきかであり、たとえば、ある種の重み付け方式が使用される場合がある。たとえば、角距離、画像の解像度等に基づいて異なる基準とするビューに異なる重みが適用される場合がある。なお、これらの問題は、雑音が多い奥行き情報に対してロバストであるやり方で対処されるべきである。
DIBRを使用して、この文脈では基準とするビューとも呼ばれる、捕捉されたビューから仮想的なビューが生成される。仮想的なビューの生成は、特に入力の奥行き情報が雑音が多く且つシーンの3D表面特性のような他のシーン情報が既知ではないときに骨が折れる作業である。
最も困難な問題の1つは、基準とするビューにおけるサンプルの画素がワープされた後に、合成されたビューにおけるそれぞれの画素の値をどのように推定すべきかである。たとえば、それぞれの目標とする合成された画素について、どのような基準とする画素が利用されるべきか、及びそれらをどのように結合すべきか。
少なくとも1つの実現では、3DV応用のために境界スプラッティングによるビュー合成のフレームワークを提案する。本発明者は、仮想的なビューの生成を含む(たとえばDIBRを使用した)3DV応用において、係る生成は、特に入力の奥行き情報が雑音が多く且つシーンの3D表面特性のような他のシーン情報が既知ではないときに骨が折れる作業であると述べた。
本発明者は、さらに、基準とする画素が目標とするビューにおける多数の周辺の目標とする画素にマッピングされる場合、大部分のピンホールが除去される一方で、残念なことに幾つかの画像の詳細が失われることを述べた。ピンホールの除去と詳細の損失との間の同じトレードオフは、トランスペアレントなスプラット型の再構成カーネルを使用したときに生じる。問題は、「スプラッティングの程度をどのように制御するか」である。たとえば、それぞれのワープされた画素について、全てのその周囲の目標とする画素にマッピングするか、又はワープされた画素に最も近い画素にマッピングするか、である。
少なくとも1つの実現では、(1)境界レイヤ周辺の画素にのみスプラッティングを適用すること、すなわち、それらの最も近い周囲の画素にのみ、奥行き不連続さを有さない領域における画素をマッピングすること、及び(2)複数の基準とするビューから合成された画像をマージするとき、Zバッファによるホール分布又は後方合成エラーを使用したヒューリスティックなマージングスキームを適用することを提案する。
さらに、本発明者は、基準とするビューから仮想的なビューを合成するため、3つのステップが一般的に必要とされることを述べた。すなわち、(1)フォワードワープ(forward warping)、(2)ブレンディング(blending: 単一視点の合成及び多視点のマージング)及び(3)ホールフィリング(hole-filling)である。少なくとも1つの実現は、雑音の多い奥行き情報により生じる問題に対処するため、ブレンディングを改善する幾つかのアルゴリズムに寄与する。本発明のシミュレーションは、3DVにおける幾つかの既存のスキームに比較して優れた品質を示している。
基準とするビューから仮想的なビューを合成することに関して、上述された3つのステップのワープステップに関して、基本的に、どのようにワープ結果が処理されるか、すなわちマージング及びブレンディングに関して、2つのオプションを考慮することができる。
マージングに関して、それぞれのビューを完全にワープさせて、それぞれの基準について最終的にワープされたビューを形成することができる。次いで、これらの最終的にワープされたビューを「マージ」して、1つの実際に最終の合成されたビューを得ることができる。「マージング(merging)」とは、たとえば(N個の最終的にワープされたビューを想定して)N個の候補の間で選択すること、又はそれらを幾つかのやり方で結合することを含む。勿論、目標とする画素値を決定するために使用される候補の数は、ワープされるビューの数と同じである必要はない。すなわち、多数の候補(又は全くなし)は、単一のビューから到来する場合がある。
ブレンディングに関して、それぞれのビューを更にワープさせるが、それぞれの基準について最終的にワープされたビューを形成しない。最終的にワープされたビューに進まないことで、ブレンディングするときに更なるオプションを維持する。これは、幾つかの場合、異なるビューは合成された目標とするビューの異なる部分について最良の情報を提供する場合があるので都合がよい。従って、ブレンディングは、それぞれの画素での異なるビューからの情報の正しい結合を選択する柔軟性を提供する。従って、マージングは、2ステップのブレンディングの特別のケースとして考慮され、それぞれのビューからの候補は、はじめに個別に処理され、次いで結果が結合される。
図1Aを再び参照して、図1Aは、典型的なブレンディング動作への入力を示すように解釈することができる。これは、図1Aが異なる基準とするビュー(円及び四角形のそれぞれ)からワープされた画素を含むためである。対照的に、典型的なマージングアプリケーションについて、円又は四角のいずれかのみを見ることを期待する。これは、それぞれの基準とするビューが典型的に個別にワープされ、次いで、それぞれの基準について最終的にワープされたビューを形成するために処理されるためである。次いで、多数の基準について最終的にワープされたビューは、典型的なマージングアプリケーションにおいて結合される。
ブレンディングに戻り、ブレンディングに関連する1つの可能なオプション/検討事項として、全てのホールを充填するのを望まないため、スプラッティングを実行しない場合がある。これらのオプション及び他のオプションは、本発明の精神を維持しつつ、当業者により容易に決定される。
従って、本発明の1以上の実施の形態は、マージングに向けられる一方で、本発明の他の実施の形態は、ブレンディングに向けられる場合があることを理解されたい。勿論、更なる実施の形態は、マージング及びブレンディングの組み合わせを含む場合がある。本出願で説明される特徴及び概念は、ブレンディング又はマージングのうちの1つのみの文脈でのみ議論されるとしても、ブレンディング及びマージングの両者に適用される場合がある。本実施の形態で提供される本発明の教示が与えられると、当業者であれば、本発明の精神を維持しつつ、マージング及び/又はブレンディングに関する様々な応用を容易に予期するであろう。
本発明は、一般に、通信システム、より詳細には、たとえば地上波放送、セルラー方式、Wi-Fi(Wireless-Fidelty)、衛星等のような無線システムに関することを理解されたい。さらに、本発明は、たとえばエンコーダ、デコーダ、プリプロセッサ、ポストプロセッサ、及び(これらの1以上を含む)受信機で実現される場合があることを理解されたい。たとえば、符号化目的で使用するために仮想イメージを生成することが望まれる応用では、本発明は、エンコーダで実現される場合がある。エンコーダに関する更なる例として、係るエンコーダは、その仮想的なビューの位置からの実際の画像を符号化するか、又は仮想的なビューの位置に近い仮想的な位置からの画像を符号化するため、仮想的なビューを合成するために使用される。2つの参照画像を含む実現では、両者は、仮想的なビューに対応する仮想イメージと共に符号化される。勿論、本明細書で提供される本発明の原理の教示が与えられると、当業者であれば、本発明の精神を維持しつつ、先に記載の応用に対する変形例と同様に、これらの応用及び他の応用を考えるであろう。
更に、1以上の実施の形態はH.264/MPEG-4 AVC(AVC)標準に関して本実施の形態で記載されるが、本発明はこれに限定されるものではなく、本実施の形態で提供される本発明の教示が与えられると、本発明の精神を維持しつつ、多視点映像符号化(MVC)、他の映像符号化標準、仕様、及び/又は勧告と同様に、現在及び将来的な3DV標準に容易に適用される場合があることを理解されたい。
「スプラッティング」は、基準とするビューからの1つのワープされた画素を目標とするビューにおける幾つかの画素にマッピングするプロセスを示す。
「奥行き情報」は、奥行きに関する様々な種類の情報を示す一般的な用語である。あるタイプの奥行き情報は、「奥行きマップ」であり、この奥行きマップは、1画素当たりの奥行き画像を一般的に示す。他のタイプの奥行き情報は、たとえば、それぞれの符号化画素ではなく、それぞれの符号化ブロックについて単一の深度値を使用することを含む。
図2Aは、本発明の実施の形態に係る、本発明が適用される例示的なビューシンセサイザ200を示す。ビューシンセサイザ200は、フォワードワーパ(forward warper)210−1〜210−K、ビューマージャ(view merger)220及びホールフィラー(hole-filler)230を含む。フォワードワーパ210−1〜210−Kのそれぞれの出力は、画像シンセサイザ215−1〜215−Kのそれぞれの入力と接続される。イメージシンセサイザ215−1〜215−Kのそれぞれの出力は、ビューマージャ220の第一の入力と接続される。ビューマージャ220の出力は、ホールフィラー230の第一の入力と接続される。フォワードワーパ210−1〜210−Kの第一のそれぞれの入力は、基準とするビュー1〜Kを受信するビューシンセサイザ200の入力として利用可能である。フォワードワーパ210−1〜210−Kの第二のそれぞれの入力及びイメージシンセサイザ215−1〜215−Kの第二のそれぞれの入力は、ビュー1及び目標とするビューの奥行きマップ並びにこれらに対応するカメラパラメータから、ビューK及び目標とするビューの奥行きマップ並びにこれらに対応するカメラパラメータまでをそれぞれ受信するため、ビューシンセサイザ200の入力として利用可能である。ビューマージャ220の第二の入力は、全てのビューの奥行きマップ及びカメラパラメータを受信するため、ビューシンセサイザの入力として利用可能である。ホールフィラー230の第二の(任意の)入力は、全てのビューの奥行きマップ及びカメラパラメータを受信するため、ビューシンセサイザ200の入力として利用可能である。ホールフィラー230の出力は、目標とするビューを出力するため、ビューシンセサイザ200の出力として利用可能である。
図2Bは、本発明の実施の形態に係る、本発明が適用される、例示的なイメージシンセサイザ250を示す。イメージシンセサイザ250は、ターゲットピクセルエバルエータ(target pixel evaluator)260の入力に接続される出力を有するスプラッタ(splatter)255を含む。ターゲットピクセルエバルエータ260の出力は、ホールマーカ(hole marker)265の入力と接続される。スプラッタ255の入力は、基準とするビューからのワープされた画素を受信するため、イメージシンセサイザ250の入力として利用可能である。ホールマーカ265は任意であり、ホールマーキングが必要とされないが、目標とする画素の評価が十分である実現において省略される場合があることを理解されたい。
スプラッタ255は、様々なやり方で実現される場合がある。たとえば、スプラッティングの機能を実行するソフトウェアアルゴリズムは、たとえば汎用コンピュータ又はビデオエンコーダのような専用コンピュータで実現される場合がある。スプラッティングの一般的な機能は、当業者に知られている。係る実現は、たとえばワープされた基準における画素が1以上の奥行きの境界から指定された距離にあるかに基づいてスプラッティング機能を実行するため、この応用において記載されるように変更される場合がある。スプラッティング機能は、この応用において記載される実現により変更されるとき、(特定用途向け集積回路(ASIC)のような)専用集積回路又は他のハードウェアで代替的に実現される場合がある。また、実現は、ソフトウェア、ハードウェア及びファームウェアの組み合わせを使用する場合がある。
たとえばフォワードワーパ210、ホールマーカ265及びターゲットピクセルエバルエータ260のような図2A及び図2Bの他のエレメントは、スプラッタ255のように実現される場合がある。たとえば、フォワードワーパ210の実現は、汎用コンピュータ又は特定用途向け装置又は特定用途向け集積回路で公知のワーピング機能を実行するため、ソフトウェア、ハードウェア及び/又はファームウェアを使用する場合がある。さらに、ホールマーカ265の実現は、ホールをマークする様々な実施の形態で記載される機能を実行するため、たとえばソフトウェア、ハードウェア、及び/又はファームウェアを使用する場合があり、これらの機能は、たとえば汎用コンピュータ又は特定用途向け装置又は特定用途向け集積回路で実行される場合がある。さらに、ターゲットピクセルエバルエータ260の実現は、目標とする画素を評価する様々な実施の形態で記載される機能を実行するため、たとえばソフトウェア、ハードウェア及び/又はファームウェアを使用する場合がある、これらの機能は、たとえば汎用コンピュータ又は特定用途向け装置又は特定用途向け集積回路で実行される場合がある。
さらに、ビューマージャ220は、ホールマーカ265又はホールマーカ265の変形のようなホールマーカを含む。係る実現では、ビューマージャ220は、たとえば実施の形態2及び3並びに図8及び9の説明において記載される、ホールを記録することができる。
さらに、ビューマージャ220は、様々なやり方で実現される場合がある。たとえば、ビューマージングの機能を実行するソフトウェアアルゴリズムは、汎用コンピュータ、又はたとえばビデオエンコーダのような専用マシンで実現される場合がある。ビューマージングの一般的な機能は、当業者に知られている。しかし、係る実現は、たとえば本出願の1以上の実現について説明されるビューマージング技術を実現するため、本出願において記載されるように変更される場合がある。本出願で記載される実現により変更されるように、ビューマージング機能は、(特定用途向け集積回路(ASIC)のような)専用集積回路又は他のハードウェアで代替的に実現される場合がある。実現は、ソフトウェア、ハードウェア及びファームウェアの組み合わせを使用する場合がある。
ビューマージャ220の幾つかの実現は、第一の候補となる画素及び第二の候補となる画素の品質を評価する後方合成プロセス(backward synthesis process)、第一及び第二の候補となる画素の周囲のホール分布、及び指定された周波数を超える第一及び第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて、第一のワープされた基準とするビューからの第一の候補となる画素と第二のワープされた基準とするビューからの第二の候補となる画素とを評価する機能を含む。ビューマージャ220の幾つかの実現は、上記評価に基づいて、1つの合成されたビューにおける所与の目標とする画素について結果を判定する機能を更に含む。たとえば、図10の説明及び本出願の他の部分において、これらの機能の両者が記載される。係る実現は、たとえばこれらの機能のそれぞれを実行するための命令からなる単一のセット又は命令からなる(オーバラップを含む)異なるセットを含む場合があり、係る命令は、たとえば汎用コンピュータ、(たとえばビデオエンコーダのような)専用マシン、或いは特定用途向け集積回路で実現される場合がある。さらに、係る機能は、ソフトウェア、ハードウェア又はファームウェアの様々な組み合わせを使用して実現される。
図3は、本発明の実現に係る、本発明が適用される例示的なビデオ送信システム300を示す。ビデオ送信システム300は、たとえば衛星、ケーブル、電話回線又は地上波放送のような様々な媒体の何れかを使用した信号を送信するヘッドエンド又は送信システムである場合がある。この送信は、インターネット又は幾つかの他のネットワークを通して提供される場合がある。
ビデオ送信システム300は、奥行きによる視点間のスキップモードを使用して符号化されたビデオコンテンツを生成及び転送可能である。これは、奥行き情報を含む符号化信号であるか、又はたとえばデコーダを有する受信機のエンドで奥行き情報を合成するために使用可能な情報を生成することで達成される。
ビデオ送信システム300は、符号化された信号を送信可能であるエンコーダ310及び送信機320を含む。エンコーダ310は、ビデオ情報を受信し、奥行きによる視点間のスキップモードを使用して、符号化された信号を生成する。エンコーダ310は、たとえば、AVCエンコーダである場合がある。エンコーダ310は、様々な情報の部分を受信して、記憶又は送信用の構造化されたフォーマットにアセンブルすることを含むサブモジュールを含む場合がある。様々な情報の部分は、たとえば、符号化又は非符号化されたビデオ、符号化又は非符号化された奥行き情報、及びたとえば動きベクトル、符号化モードインジケータ及びシンタックスエレメントのような符号化又は非符号化エレメントを含む場合がある。
送信機320は、たとえば符号化画像及び/又は該符号化画像に関連する情報を表す1以上のビットストリームを有するプログラム信号を送信する場合がある。典型的な送信機は、たとえば誤り訂正符号化を提供すること、信号におけるデータをインタリーブすること、信号におけるエネルギーをランダム化すること、及び信号を1以上のキャリアに変調することのうちの1つ以上のような機能を実行する。送信機は、アンテナ(図示せず)を含んでおり、アンテナと連動する。従って、送信機320の実現は、変調器を含んでいる。
図4は、本発明の実施の形態に係る、本発明が適用される例示的なビデオ受信システム400を示す。ビデオ受信システム400は、たとえば衛星、ケーブル、電話回線又は地上波放送のような様々な媒体を通して信号を受信する。信号は、インターネット又は幾つかの他のネットワークを通して受信される場合がある。
ビデオ受信システム400は、たとえば携帯電話、コンピュータ、セットトップボックス、テレビジョン、又はたとえば符号化されたビデオを受信し、ユーザに表示のため又は記憶のために復号化されたビデオを提供する他の装置である場合がある。従って、ビデオ受信システム400は、その出力を、たとえばテレビジョンのスクリーン、コンピュータのモニタ、(記憶、処理又は表示向け)コンピュータ、又は他の記憶、処理又は表示装置に提供する。
ビデオ受信システム400は、ビデオ情報を含むビデオコンテンツを受信及び処理可能である。ビデオ受信システム400は、本出願の実現において記載される信号のような符号化された信号を受信可能な受信機410、及び受信された信号を復号化可能なデコーダ420を含む。
受信機410は、符号化された画像を表す複数のビットストリームを有するプログラム信号を受信する。典型的な受信機は、たとえば変調及び符号化されたデータ信号を受信すること、1以上の搬送波からデータ信号を復調すること、信号におけるエネルギーを逆ランダム化すること、信号におけるデータをデインタリーブすること、信号を誤り訂正復号化すること、のうちの1以上のような機能を実行する。受信機410は、たとえばアンテナ(図示せず)を含んでいる。受信機410の実現は、復調器を含んでいる場合がある。
デコーダ420は、ビデオ情報及び奥行き情報を含むビデオ信号を出力する。デコーダ420は、たとえばAVCデコーダである場合がある。
図5は、本発明の実施の形態に係る、本発明が適用される例示的なビデオ処理装置500を示す。ビデオ処理装置500は、たとえばセットトップボックス、又は符号化されたビデオを受信し、ユーザへの表示のために又は記憶のために復号化されたビデオを提供する他の装置である場合がある。従って、ビデオ処理装置500は、その出力を、テレビジョン、コンピュータモニタ、コンピュータ或いは他の処理装置に提供する場合がある。
ビデオ処理装置500は、フロントエンド(FE)装置505及びデコーダ510を含む。フロントエンド装置505は、たとえば符号化された画像を表す複数のビットストリームを有するプログラム信号を受信し、複数のビットストリームから復号化のために1以上のビットストリームを選択する。典型的な受信機は、たとえば変調及び符号化されたデータ信号を受信すること、データ信号を復調すること、データ信号の1以上の符号化(たとえばチャネル符号化及び/又はソース符号化)を復号化すること、及び/又はデータ信号を誤り訂正すること、のうちの1以上のような機能を実行する。フロントエンド装置505は、たとえばアンテナ(図示せず)からプログラム信号を受信する。フロントエンド装置505は、受信されたデータ信号をデコーダ510に供給する。
デコーダ510は、データ信号520を受信する。データ信号520は、たとえば1以上のAVC(Advanced Video Coding)、SVC(Scalable Video Coding)又はMVC(Multi-view Video Coding)に互換性のあるストリームを含む場合がある。
AVCは、既存のISO/IEC(International Organization for Standardization/International Electrotechnical Commission)MPEG-4(Moving Picture Experts Group-4)Part10 AVC(Advanced Video Coding)標準/ITU-T(International Telecomminication Union Telecommunication Sector)H.264勧告(以下、「H.264/MPEG-4 AVC標準」、或いはその変形である「AVC標準」又は単に「AVC」と呼ぶ)においてより詳細に説明されている。
MVCは、H.264/MPEG-4 AVC MVC拡張(「MVC拡張」又は単に「MVC」)と呼ばれるAVC標準の多視点映像符号化(MVC)拡張(Annex H)においてより詳細に説明されている。
SVCは、H.264/MPEG-4 AVC SVC拡張(「SVC拡張」又は単に「SVC」)と呼ばれるAVC標準のスケーラブルビデオ符号化(SVC)拡張(Annex G)においてより詳細に説明されている。
デコーダ510は、受信された信号520の全部又は一部を復号化し、復号化されたビデオ信号530を出力として供給する。復号化されたビデオ530は、セレクタ550に供給される。装置500は、ユーザ入力570を受信するユーザインタフェース560を含む。ユーザインタフェース560は、ユーザ入力570に基づいて、画像選択信号580をセレクタ550に供給する。画像選択信号580及びユーザ入力570は、複数の画像のうちのどの画像を、複数の系列のうちのどの系列を、複数のスケーラブルバージョンのうちのどのバージョンで、複数のビューのうちのどのビューに、複数の利用可能な復号化されたデータの他の選択のうちのどの選択で、ユーザが表示させるのを望むかを示す。セレクタ550は、選択された画像を出力590として提供する。セレクタ550は、画像選択情報580を使用して、復号化されたビデオ530におけるどの画像を選択して出力590として供給するかを選択する。
様々な実現では、セレクタ550は、ユーザインタフェース560を含んでおり、他の実現では、個別のインタフェース機能が実行される必要なしにセレクタ550はユーザ入力570を受信するので、ユーザインタフェース560は必要とされない。セレクタ550は、たとえば、ソフトウェアで実現されるか、又は集積回路として実現される場合がある。1実現では、セレクタ550は、デコーダ510と組み合わされ、別の実現では、デコーダ510、セレクタ550及びユーザインタフェース560が全て統合される。
1つの応用では、フロントエンド505は、様々なテレビ番組の放送を受信し、そのうちの1つを処理のために選択する。ある番組の選択は、視聴すべき所望のチャネルのユーザ入力に基づく。フロントエンド装置505へのユーザ入力は図5に示されていないが、フロントエンド装置505は、ユーザ入力570を受信する。フロントエンド装置505は、ブロードキャストを受信し、ブロードキャストされたスペクトルの関連する部分を復調して、復調された番組の外側の符号化を復号化することで、所望の番組を処理する。フロントエンド装置505は、復号化された番組をデコーダ510に供給する。デコーダ510は、装置560及び550を含む集積ユニットである。従って、デコーダ510は、番組において視聴すべき所望のビューのユーザが供給した情報であるユーザ入力を受信する。デコーダ510は、他のビューからの任意の必要とされる参照画像と同様に、選択されたビューを復号化し、テレビジョン(図示せず)に表示のために復号化されたビュー590を提供する。
引き続き、ユーザは、表示されるビューを切り替えるのを望み、次いで、新たな入力をデコーダ510に供給する場合がある。ユーザから「ビューの切り替え」を受けた後、デコーダ510は、古いビューと新たなビューとの間にあるビューと同様に、古いビューと新たなビューの両者を復号化する。すなわち、デコーダ510は、古いビューを撮影するカメラと新たなビューを撮影するカメラとの間に物理的に位置されるカメラで撮影されたビューを復号化する。また、フロントエンド装置505は、古いビュー、新たなビュー、及びその間にあるビューを識別する情報を受ける。係る情報は、たとえばビューの位置に関する情報を有するコントローラ(図5に図示せず)、又はデコーダ510により供給される場合がある。他の実現は、フロントエンド装置と統合されるコントローラを有するフロントエンド装置を使用する場合がある。
デコーダ510は、出力590としてこれらの復号化されたビューの全てを供給する。ポストプロセッサ(図5に図示せず)は、古いビューから新たなビューへの滑らかな遷移を提供するためにビュー間を補間して、この遷移をユーザに表示する。新たなビューへの遷移の後、ポストプロセッサは、(図示しない1以上の通信リンクを通して)デコーダ510及びフロントエンド装置505に、新たなビューのみが望まれることを通知する。その後、デコーダ510は、新たなビューを出力590として供給する。
システム500は、画像の系列からなる複数のビューを受信し、表示用に1つのビューを表示し、滑らかなやり方で様々なビュー間で切り替えを行うために使用される。滑らかなやり方は、別のビューに移るために、ビュー間を補間することを含む場合がある。さらに、システム500は、オブジェクト又はシーンをユーザが回転するのを可能にするか、さもなければオブジェクト又はシーンの3次元表示をユーザが見るのを可能にする。たとえばオブジェクトの回転は、あるビューから別のビューに移り、ビュー間の滑らかな遷移を得るか又は単に3次元表示を得るためにビュー間を補間することに対応する。すなわち、ユーザは、表示すべき「ビュー」として補間されたビューを「選択する」場合がある。
図2A及び図2Bのエレメントは、図3〜5における様々な位置で組み込まれる。たとえば、図2A及び図2Bの1以上のエレメントは、エンコーダ310及びデコーダ420に位置される。更なる例として、ビデオ処理装置500の実現は、図2A及び図2Bの1以上のエレメントをデコーダ510に含むか、図5の説明で言及されたポストプロセッサに含む場合があり、このポストプロセッサは、受信されたビュー間を補間する。
本発明及び本発明が適用される場合がある環境の説明に戻り、有利なことに、本発明は3Dビデオ(3DV)に適用されることを理解されたい。3Dビデオは、多視点映像及び奥行き情報の符号化された表現を含み、受信機での高品質の3Dレンダリングの生成を狙いとする新たなフレームワークである。これにより、オートマルチスコピックディスプレイによる3Dの視覚的体験を可能にする。
図6は、本発明の実施の形態に係る、本発明が適用される、奥行き情報をもつ多視点映像を送信及び受信する例示的なシステム600を示す。図6では、ビデオデータは、実線で示されており、奥行きデータは、破線により示されており、メタデータは、点線により示されている。システム600は、たとえば限定されるものではないが、自由視点のテレビジョンシステムである場合がある。送信機側610で、システム600は、それぞれの複数のソースからの1以上のビデオ、奥行き及びメタデータを受信する複数の入力を有する3次元(3D)コンテンツプロデューサ620を含む。係るソースは、限定されるものではないが、ステレオカメラ611、奥行きカメラ612、マルチカメラセットアップ613及び2次元/3次元(2D/3D)変換プロセス614を含む。1以上のネットワーク630は、多視点映像符号化(MVC)及びデジタルビデオ放送(DVB)に関連する1以上のビデオ、奥行き、及びメタデータを送信するために使用される場合がある。
受信機側640で、奥行き画像に基づくレンダリング手段(depth image-based renderer)650は、奥行き画像に基づくレンダリングを実行して、信号を様々なタイプのディスプレイに投影する。本出願のシナリオは、狭角(<20°)での取得のような特定の制約を課す場合がある。奥行き画像に基づくレンダリング手段650は、ディスプレイのコンフィギュレーション情報及びユーザプリファレンスを受信可能である。奥行き画像に基づくレンダリング手段650の出力は、1以上の2Dディスプレイ661、M視点3Dディスプレイ662及び/又はヘッドトラックステレオディスプレイ663に供給される場合がある。
[フォワードワーピング]
ビュー合成の実行における最初のステップは、フォワードワーピングであり、これは、基準とするビューにおけるそれぞれの画素について、その対応する位置を目標とするビューにおいて発見することを含む。この3Dのイメージワープは、コンピュータグラフィックスにおいて知られている。入力ビューが補正されているかに依存して、異なる式を使用することができる。
(a)補正されていないビュー(non-rectified view)
その同次座標P=[x,y,z,l]Tにより3Dポイントを定義する場合、且つその基準とする画像平面における透視投影(すなわち2D画像位置)がpr=[urr,l]Tである場合、以下の式を有する。
Figure 2012501580
ここでwrは奥行き要素であり、PPMrは、カメラパラメータから知られる3×4の透視投影マトリクスである。それに応じて、以下のような合成された(目標とする)ビューの式を得る。
Figure 2012501580
PPMrの12個の要素をqijとして示す。ここでi=1,2,3及びj=1,2,3,4である。画像ポイントpr及びその奥行きzから、3DポイントPの他の2つの成分は、以下のように線形方程式により推定することができる。
Figure 2012501580
なお、基準とするビューにおけるそれぞれの画素の入力の奥行きレベルは、3DVにおいて8ビットに量子化される(すなわち256レベル、この場合、大きな値は、カメラに近いことを示す)。ワーピングの間に使用される奥行き要素zは、以下の式により入力の奥行きレベルYに直接にリンクされる。
Figure 2012501580
ここでZnear及びZfarは、そのシーンにおける最も近い画素及び最も遠い画素の奥行き要素にそれぞれ対応する。奥行き情報を量子化するために8ビットを超える(又は8ビット未満の)ビット数が使用されるとき、式(4)における値255は、Bをビット深度として2B−1で置き換えられる。
Pの3D位置が既知であり、且つこの3D位置を合成された画像平面に式(2)により投影し直すとき、目標とするビューpSにおけるその位置(すなわちワープされた画素の位置)を得る。
(b)補正されているビュー(rectified view)
補正されているビューについて、(典型的に水平線に沿った)1Dの視差は、ある画素があるビューから別のビューにどのように移動されるかを示す。以下のカメラパラメータが与えられるとする。
(i)f:カメラレンズの焦点距離
(ii)l:カメラ距離としても知られるベースライン間隔
(iii)du:主点のオフセットにおける差。
入力ビューが良好に補正されていると考えると、基準とするビューにおける画素pr=[urr,l]Tから、目標とするビューにおけるワープされた位置pS=[uSS,l]Tを計算するために以下の式を使用することができる。
Figure 2012501580
[基準とするビュー及び合成されたビューでのサブピクセルの精度]
合成されたビューでの画質を改善するため、基準とするビューをアップサンプルすることができ、すなわち新たなサブピクセルは半画素の位置に挿入され、4分の1画素の位置又は更に精度の細かい解像度となる。これに応じて奥行き画像をアップサンプルすることができる。基準とするビューにおけるサブピクセルは、整数の基準とする画素と同じやり方でワープされる(すなわち画素はフルピクセルの位置にワープされる)。同様に、合成されたビューにおいて、新たな目標とする画素は、サブピクセルの位置に挿入することができる。
2分の1画素及び2分の1画素の位置に関して1以上の実現が記載されるが、本発明は、本発明の精神を維持しつつ、任意のサイズのサブピクセルに容易に適用可能であることを理解されたい。
[提案される方法:ビューブレンディング]
ビューワーピングの結果は、図1A及び図1Bに例示される。ここで、目標とするビューにおける画素の値をその周囲のワープされた基準とする画素からどのように推定するかに関する問題に対処する。図7は、本発明の実施の形態に係る、ビュー合成及びマージングプロセス700を示す。プロセス700は、ワーピング後に実行され、単一のビューの合成及び新たなビューのマージングスキームのための境界レイヤのスプラッティングを含む。ステップ702で、基準とするビュー1は、プロセス700に入力される。ステップ704で、基準とするビュー2は、プロセス700に入力される。ステップ705で、(アップサンプリングにより挿入されたサブピクセルを含む)それぞれの基準とする画素がワープされる。ステップ710で、奥行き画像に基づいて境界が検出される。ステップ715で、ワープされた画素が境界に近いか否かが判定される。ワープされた画素が境界に近い場合、制御はステップ720に進む。さもなければ、制御はステップ735に進む。
ステップ720で、ワープされた画素は、その左及び右に関して最も近い目標とする画素にマッピングされる。
ステップ725で、多数の画素が同じ目標とする画素にマッピングされる場合に、Zバッファリングが実行される。
ステップ730で、基準とするビュー1から合成された画像は、前の処理から入力/取得される。ステップ740で、基準とするビュー1に関して実行された処理と同様に、基準とするビュー2に関して処理が実行される。ステップ745で、基準とするビュー2から合成された画像は、前の処理から入力/取得される。
ステップ750で、基準とするビュー1から合成された画像と基準とするビュー2から合成された画像とをマージするためにビューマージングが実行される。
[実施の形態1:境界レイヤのスプラッティング]
先に説明されたように、ピンホールを低減するため、ワープされた画素は、複数の隣接した目標とする画素にマッピングされる。補正されたビューの場合、典型的に、その左及び右にある目標とする画素にマッピングされる。簡単にするために、補正されたビューの場合(図1B)について提案される方法を説明する。たとえば、図1Bでは、ワープされた画素W1は、目標とする画素S1及びS2にマッピングされる。しかし、この方法は、特にサブピクセルの精度が使用されるとき、画質に影響を及ぼすことが分かる(すなわち、スプラッティングのために高周波の詳細が失われる)。ピンホールが前景と後景との間の境界、すなわち大きな奥行きの不連続さをもつ境界の周辺で大部分が生じることを考慮して、境界に近い画素についてのみスプラッティングを適用することが提案される。図1Bの場合、(たとえば境界から50画素の距離よりも離れているといった)画素W1が境界に近くない場合、この画素は、その最も近い目標とする画素S1にマッピングされる。勿論、先の50画素の距離は単なる例示であって、当業者により容易に考えられるように、本発明の精神を維持しつつ、他の画素の距離が使用される場合がある。
本実施の形態における「境界」とは、大きな奥行きの不連続さをもつ画像の一部分のみを示し、基準とするビューの奥行き画像から容易に検出される。境界として見なされる画素について、フォワードワーピングにおいてスプラッティングが実行される。他方で、境界から離れている画素についてスプラッティングは機能せず、これにより、特に、合成された画像でサブピクセルの精度が使用されるとき、多くの奥行きが変動することなしに、オブジェクト内の高周波の詳細を保存することができる。別の実施の形態では、基準とするビューの奥行き画像は、仮想的な位置に前方向にワープされ、次いで合成された奥行き画像における境界レイヤの抽出が続く。ひとたび、ある画素が境界領域にワープされると、スプラッティングが実行される。
多数のワープされた画素が合成されたビューにおける同じ目標とする画素にマッピングされたとき、奥行きレベルを比較することにより、(カメラに近い画素を採取する)Zバッファリング方法が適用される。勿論、本発明の精神を維持しつつ、それらを平均する他の重み付け方法を使用することもできる。
[実施の形態2:Zバッファリング、ホール分布及びカメラ位置に基づいたマージング]
1を超える基準とするビューが利用可能であるとき、2つのビューの場合に図7で例示されるように、合成された画像がそれぞれのビューから個別に生成されるとき、マージングプロセスが一般に必要とされる。問題は、それらのビューをどのように結合するか、すなわちp1(基準とするビューから合成された画像で配列される画素)及びp2(基準とするビュー2から合成された画像で配置される画素)から、マージされる画像における目標とする画素pの値をどのように取得するか、である。
合成された画像における幾つかの画素には、ある値がブレンディングステップの間に割り当てられない。これらの位置は、ホールと呼ばれ、ディスオクルージョン(視点における違いによる合成されたビューにおいてカバーされない基準とするビューにおける前の目に見えないシーンポイント)により引き起こされるか、又は入力の奥行きのエラーにより生じることがある。
p1又はp2の何れかがホールであるとき、非ホールの画素の画素値は、最終的にマージされた画像においてpに割り当てられる。p1及びp2の何れもホールでないときにコンフリクトが生じる。p1及びp2の両者がホールである場合、ホールフィリング方法が使用され、様々な係る方法は、当該技術分野において知られている。最も簡単な方法は、Zバッファリングを適用すること、すなわちそれらの奥行きレベルを比較することでカメラに近い画素を選択することである。しかし、入力の奥行き画像は雑音が多く、且つp1及びp2はその奥行き画像が一致しない場合がある2つの異なる基準とするビューからの画素であるので、Zバッファリングを単に適用することは、最終的にマージされた画像に多くのアーチファクトを生じる場合がある。この場合には、以下のようにp1及びp2を平均することは、アーチファクトを低減する場合がある。
Figure 2012501580
w1及びw2はビューの重み付け要素である。1実現では、これらはシンプルに1に設定することができる。補正されたビューについて、これらを、たとえばwi=1/liといった、ベースライン間隔li(ビューiと合成されたビューとの間のカメラ距離)に基づいて設定することを勧める。さらに、1又は複数のパラメータを結合して、他の既存の重み付け方法を適用することができる。
図8は、本発明の実施の形態に係る、奥行き、カメラパラメータを利用したマージングプロセスを示す。ステップ805で、p1,p2(pをもつ同じ画像の位置)は、プロセス800に入力される。ステップ810で、|depth(p1) − depth(p2)|> depthThresholdであるか否かが判定される。|depth(p1) − depth(p2)|> depthThresholdであると判定された場合、制御はステップ815に進み、|depth(p1) − depth(p2)|> depthThresholdであると判定されない場合、制御はステップ830に進む。
ステップ815で、カメラに近い(p1又はp2の何れかの)画素(すなわち、Zバッファリング)がpについて選択される。
ステップ830で、それぞれの合成された画像において、どの位多くのホールがp1及びp2の周囲にあるかに関するカウントが実行される。
ステップ820で、|holeCount1 − holeCount2|> holeThresholdであるか否かが判定される。|holeCount1 − holeCount2|> holeThresholdであると判定された場合、制御はステップ825に進む。|holeCount1 − holeCount2|> holeThresholdであると判定されない場合、制御はステップ835に進む。
ステップ825で、その周囲にホールを持たない(p1又はp2の何れかの)画素がpについて選択される。
ステップ835で、p1及びp2は、式(6)を使用して平均される。
プロセス800に関して、基本的な考えは、奥行きがかなり異なるか否かに関わらず、Zバッファリングを適用することである(たとえば、|depth(p1) − depth(p2)|> depthThreshold)。先の使用される奥行き量は、単なる例示的なものであって、従って、本発明の精神を維持しつつ、他の量が使用される場合があることを理解されたい。奥行きレベルが類似しているとき、p1及びp2の周囲のホール分布をチェックする。1例では、p1及びp2を取り囲んでいるホール画素の数がカウントされ、すなわちholeCount1及びholeCount2が発見される。これらがかなり異なる場合(たとえば|holeCount1 − holeCount2|> holeThreshold)、その周囲でホールを持たない画素が選択される。先の使用されるホールカウント量は例示的なものであって、従って本発明の精神を維持しつつ、他の量を使用することもできる。さもなければ、平均化のために式(6)が適用される。なお、たとえば画像のサイズ又は計算上の制約に基づいて、ホールの数をカウントするために異なる隣接画素を使用することができる。さらに、ビューの重み付け要素を計算するためにホールのカウントを使用することができる。
シンプルなホールのカウントに加えて、ホールの位置を考慮することもできる。たとえば、大部分のホールが一方の側(水平カメラの配置においてその左側又はその右側の何れか)に位置される画素に比較して、散乱されているホールを持つ画素は好ましくない。
異なる実現では、p1及びp2の両者は、それらの何れもが十分であると考えられる場合に捨てられる。結果として、pは、ホールとしてマークされ、その値はホールフィリングアルゴリズムに基づいて導出される。たとえば、p1及びp2は、それらのホールカウントが共に閾値holeThreshold2を超える場合に捨てられる。
「取り囲んでいるホール(surrounding hole)」は、1実現において特定の目標とする画素に対する隣接画素のみを含むか、特定の目標とする画素から予め決定された画素数の距離内にある画素を含む場合がある。これらの変形例及び他の変形例は、本発明の精神を維持しつつ、当業者により容易に考えることができる。
[実施の形態3:後方合成エラーの使用]
実施の形態2では、雑音が多い奥行き画像を処理するマージングプロセスについて、Zバッファリングと共に周囲のホール分布が使用される。ここで、図9に示されるビューマージングに役立つ別の方法を提案する。図9は、本発明の実施の形態に係る、奥行き、後方合成エラー、カメラパラメータを利用したマージングプロセスを示す。ステップ902で、基準とするビュー1からの合成された画像は、プロセス900に入力される。ステップ904で、基準とするビュー2からの合成された画像は、プロセス900に入力される。ステップ903で、p1,p2(pと同じ画像の位置)は、プロセスに入力される。ステップ905で、基準とするビュー1は、後方合成され、再合成された基準とするビュー1は、入力の基準とするビュー1と比較される。ステップ910で、入力の基準とするビューとの差(エラー)D1は、プロセス900に入力される。ステップ915で、pの周りの小さな領域でD1及びD2は比較され、これらが類似しているか否かが判定される。これらが類似していると判定された場合、制御は機能ブロック930に移る。これらが類似していると判定されない場合、制御は機能ブロック935に移る。
ステップ930で、p1及びp2は、式(6)を使用して平均される。
ステップ935で、エラーを持たない(p1又はp2の何れか)画素がpについて選択される。
ステップ920で、|depth(p1) − depth(p2)|> depthThresholdであるか否かが判定される。|depth(p1) − depth(p2)|> depthThresholdであると判定された場合、制御はステップ925に移る。|depth(p1) − depth(p2)|> depthThresholdであると判定されない場合、制御はステップ915に移る。
ステップ925で、カメラに近い(p1又はp2の何れかの)画素がpについて選択される。
ステップ950で、基準とするビュー2が後方合成され、再合成された基準とするビュー2は、入力の基準とするビュー2と比較される。ステップ955で、入力の基準とするビューとの差(エラー)D2は、プロセス900に入力される。
(合成された奥行きと共に)それぞれ合成された画像から、オリジナルの基準とするビューを再合成し、後方合成された画像と入力の参照画像との間でエラーが発見される。これを後方合成誤り画像と呼ぶ。このプロセスを基準画像1及び2に適用して、D1及びD2を得る。マージングステップの間、p1及びp2が類似の奥行きからなるとき、p1の周囲の領域における後方合成エラーD1(たとえば5×5の画素範囲におけるエラーの合計)がp2の周囲で計算されるD2よりも非常に大きい場合、p2が選択される。同様に、D2がD1よりも大きい場合、p1が選択される。この考えは、大きい後方合成エラーが大きい入力の奥行き画像の雑音に密に関連するという想定に基づく。エラーD1及びD2が類似している場合、式(6)が使用される。
実施の形態2に類似して、異なる実現では、p1及びp2の両者は、それらの何れもが十分でない場合に捨てられる。たとえば、図10に例示されるように、対応する後方合成エラーD1(D2)が所与の閾値を超える場合に、p1(p2)は捨てられる。
図10A及び図10Bは、本発明の実施の形態に係る、奥行き、後方合成エラー、及びカメラパラメータを利用した別のマージングプロセスを示す。ステップ1002で、基準とするビュー1は後方合成され、再合成された基準とするビュー1は、入力の基準とするビュー1と比較される。ステップ1010で、入力の基準とするビューとの差(エラー)D1は、プロセス1000に入力される。
ステップ1004で、基準とするビュー2からの合成された画像は、プロセス1000に入力される。ステップ1050で、基準とするビュー2は、後方合成され、再合成された基準とするビュー2は、入力の基準とするビュー2と比較される。ステップ1055で、入力の基準とするビューとの差(エラー)D2は、プロセス1000に入力される。D1及びD2は、ステップ1040及びステップ1040後の後続するステップで使用される。
ステップ1003で、p1,p2(pと同じ画像位置)は、プロセスに入力される。ステップ1020で、|depth(p1) − depth(p2)|> depthThresholdであるか否かが判定される。|depth(p1) − depth(p2)|> depthThresholdであると判定された場合、制御はステップ1025に進む。|depth(p1) − depth(p2)|> depthThresholdである判定されない場合、制御はステップ1040に進む。
ステップ1025で、カメラに近い(p1又はp2の何れかの)画素(すなわちZバッファリング)は、pについて選択される。
ステップ1040で、D1及びD2の両者がpの周囲の小さな領域で閾値よりも小さいか否かが判定される。D1及びD2の両者がpの周囲の小さな領域で閾値よりも小さいと判定された場合、制御はステップ1015に進む。D1及びD2の両者がpの周囲の小さな領域で閾値よりも小さいと判定されない場合、制御はステップ1060に進む。
ステップ1015で、D1及びD2は、pの周囲の小さな領域で比較され、これらが類似しているか否かが判定される。類似していると判定された場合、制御は機能ブロック1030に進む。類似していると判定されない場合、制御は機能ブロック1035に進む。
ステップ1030で、p1及びp2は、式(6)を使用して平均される。
ステップ1035で、エラーを持たない(p1又はp2の何れかの)画素は、pについて選択される。
ステップ1060で、D1がpの周囲の小さな領域で閾値よりも小さいか否かが判定される。小さいと判定された場合、制御は機能ブロック1065に進む。小さいと判定されない場合、制御は機能ブロック1070に進む。
ステップ1065で、pについてp1が選択される。
ステップ1070で、D2がpの周囲の小さな領域で閾値よりも小さいか否かが判定される。小さいと判定された場合、制御はステップ1075に進む。小さいと判定されない場合、制御はステップ1080に進む。
ステップ1075で、pについてp2が選択される。
ステップ1080で、pはホールとしてマークされる。
[実施の形態4:高周波エネルギーの使用]
この実施の形態では、ワープされた画素の品質を評価する基準として、高周波エネルギーが提案される。フォワードワーピング後の空間アクティビティにおける有意な増加は、(たとえば粗悪な奥行き情報によるような)ワーピングプロセスの間のエラーの存在を示す可能性がある。空間アクティビティが高くなると高周波におけるエネルギーが高くなるので、(たとえば、限定されるものではないがM×N画素のブロックのような)画像のパッチで計算される高周波のエネルギー情報を使用することを提案する。特定の実現では、全ての基準とするビューから、ある画素の周囲に多くのホールが存在しない場合、ある画素の周りのブロックを処理するために高周波フィルタを使用して、高周波において低いエネルギーをもつ画素を選択することが提案される。最終的に、全てが高周波で高いエネルギーを有する場合に、画素は選択されない。この実施の形態は、実施の形態3の代替又は相補となるものである。
図11は、本発明の実施の形態に係る、高周波エネルギーを利用したマージングプロセスを示す。ステップ1105で、p1,p2(pと同じ画像の位置)がプロセス1100に入力される。ステップ1110で、それぞれの合成された画像におけるp1及びp2の周囲の高周波エネルギーが計算される(すなわちhfEnergy1及びhfEnergy2を発見する)。ステップ1115で、|hfEnergy1 − hfEnergy2|> hfEnergyThresholdであるか否かが判定される。|hfEnergy1 − hfEnergy2|> hfEnergyThresholdであると判定された場合、制御はステップ1120に移る。|hfEnergy1 − hfEnergy2|> hfEnergyThresholdであると判定されない場合、制御はステップ1125に移る。
ステップ1120で、その周囲の低い高周波エネルギーを持つ画素(p1又はp2の何れか)がpについて選択される。ステップ1125で、たとえば式(6)を用いてp1及びp2は平均される。
他の実現では、合成された画像における高周波エネルギーは、ワーピングの前に、参照画像の高周波エネルギーに比較される。比較において、閾値が使用される場合があり、この閾値は、ワーピング前の参照画像の高周波エネルギーに基づいている。
[ポストプロセッシング:ホールフィリング]
これらのホールに対処する最も簡単なアプローチは、ホールに隣接する画素を調べて、それらの幾つかを使用してホールを充填することである。しかし、任意の既存のホールフィリング方法を適用することもできる。
したがって、要約すると、少なくとも1つの実現では、(1)境界レイヤの周囲の画素にのみスプラッティングを適用すること、(2)ホール分布又はZバッファリングによる後方合成エラーを使用した2つのマージングスキームを適用することが提案される。ヒューリスティックなソリューション及び実現について、多数の潜在的な変形例が存在する。
これらの変形例の幾つかは、本実施の形態で記載される様々な実施の形態に関連するもものとして以下に示される。しかし、本実施の形態で提供される本発明の教示の教示が与えられると、当業者であれば、本発明の精神を維持しつつ、本発明のこれらの変形例及び他の変形例を考えるであろうことを理解されたい。
実施の形態1の記載の間、補正されたビューの合成の例を使用する。補正されていないビューに適用されるべき同じ境界レイヤのスプラッティング方法を妨げるものではない。この場合、それぞれのワープされる画素は、その4つの隣接する目標とする画素にマッピングされる。実施の形態1によれば、非境界部分におけるそれぞれのワープされた画素について、それを1以上の最も近い目標とする画素にのみマッピングするか、又は非常に小さい重みを他の隣接する目標とする画素に与える。
実施の形態2及び3では、p1及びp2の周囲のホールの数又はp1及びp2の周囲の後方合成エラーは、それらの1つを、マージされた画像における最終的な画素pの値として選択するために使用される。この2進の重み付け方法(0又は1)は、非2進の重み付けに拡張することができる。実施の形態2の場合、画素がその周囲のより多くのホールを有する場合に、(図8におけるような0の代わりに)より少ない重みを与えることができる。同様に、実施の形態3について、画素の周囲が高い後方合成エラーを有する場合に、(図9におけるような0の代わりに)より少ない重みを与えることができる。
実施の形態2及び3では、候補となる画素p1及びp2は、十分ではない場合にpの計算のために完全に捨てられる。候補となる画素が良好であるかを判定するため、ホールの数、後方合成エラー又は要素の組み合わせのような、異なる基準を使用することができる。同じことが、2を超える基準とするビューが使用されるときに当てはまる。
実施の形態2、3及び4において、2つの基準とするビューを想定する。ホールの数、合成された画像の間の後方合成エラー又はそれぞれの基準とするビューからの高周波エネルギーを比較しているので、係る実施の形態は、任意の数の基準とするビューに対する比較を含むように容易に拡張される場合がある。この場合、非2進の重み付け方法が良好に機能する。
実施の形態2では、候補となる画素の周囲におけるホールの数は、ブレンディングプロセスにおけるその使用を判定するために使用される。ホールの数に加えて、ホールのサイズ、それらの密度等が考慮される場合がある。一般に、本発明の精神を維持しつつ、候補となる画素の周囲におけるホールに基づく基準が使用される場合がある。
実施の形態2及び3において、それぞれの候補となる画素の周囲における奥行きマップの雑音の多さを評価する基準として、ホールのカウント及び後方合成エラーが使用される。論理的根拠は、その周辺における奥行きマップの雑音が多くなると、候補となる画素の信頼性が低くなることである。一般に、本発明の精神を維持しつつ、奥行きマップの局所的な雑音性の推定を導出するために任意の基準を使用することができる。
様々な実現が記載された。これらの実現のうちの1以上は、第一のワープされた基準とするビューからの第一の候補となる画素と第二のワープされた基準とするビューからの第二の候補となる画素とを評価するものである。この評価は、第一の及び第二の候補となる画素の品質を評価する後方合成プロセス、第一及び第二の候補となる画素の周辺のホール分布、及び指定された周波数を超える第一及び第二の候補となる画素の周囲のエネルギー量の少なくとも1つに基づいている。この評価は、少なくとも第一及び第二のワープされた基準となるビューを1つの合成されたビューにマージするプロセスの一部として行われる。たとえば、ホール分布、高周波エネルギーの内容、及び/又は後方合成されたビューと入力の基準とするビューとの間のエラーに基づいて(たとえば図10のエレメント1055を参照)、品質が示される場合がある。また、2つの異なる基準とするビューの係るエラーの比較、及び/又は係るエラー(又は係るエラー間の差)の1以上の閾値への比較により、品質が示される場合がある。さらに、様々な実現は、この評価に基づいて、1つの合成されたビューにおける所与の目標とする画素の結果を判定する。係る結果は、たとえば、所与の目標とする画素について値を決定すること、又は所与の目標とする画素をホールとしてマークすることである場合がある。
上述した内容を考慮して、上述した内容は本発明の原理を単に例示するものであって、当業者であれば、本実施の形態において明示的に記載されていないが、本発明を実施する様々な代替となるアレンジメントであって、本発明の精神及び範囲にあるアレンジメントを考えることができることを理解されたい。従って、特定の特徴及び態様を有する1以上の実現が提供された。しかし、記載された実現の特徴及び態様は、他の実現について適応される場合がある。これに応じて、本実施の形態で記載される実現が特定の文脈において記載されたが、係る記載は、特徴及び概念を係る実現又はコンテキストに限定するものとして解釈されるべきではない。
本発明の「1実施の形態」、「実施の形態」、「1実現」又は「実現」といった明細書における参照は、その他の変形と同様に、実施の形態に関して記載された特定の特徴、構造、特性等が本発明の少なくとも1つの実施の形態に含まれることを意味する。従って、明細書を通して様々な位置で現れる他の変形例と同様に、記載「1実施の形態では」、「実施の形態では」、「1実現では」又は「実現では」の出現は、必ずしも同じ実施の形態を全て参照するものではない。
以下の「/」、「及び/又は」、及び「少なくとも1つ」の使用について、たとえば「A/B」、「A及び/又はB」及び「A及びBの少なくとも1つ」の場合では、最初に列挙されたオプション(A)のみの選択、第二に列挙されたオプション(B)のみの選択、又は両方のオプション(A及びB)の選択を包含することが意図されることを理解されたい。更なる例として、「A,B及び/又はC」、「A、B及びCの少なくとも1つ」の場合、係る記載は、最初に列挙されたオプション(A)のみの選択、第二に列挙されたオプション(B)のみの選択、第三に列挙されたオプション(C)のみの選択、第一及び第二のオプション(A及びB)の選択、第一及び第三のオプション(A及びC)の選択、第二及び第三のオプション(B及びC)の選択、又は第一、第二及び第三のオプション(A、B及びC)の選択を包含することが意図される。これは、多数の列挙されるアイテムについて、当業者により容易に明らかであるように拡張される場合がある。
実現は、限定されるものではないが、帯域内情報、帯域外情報、データストリームのデータ、暗黙的なシグナリング及び明示的なシグナリングを含む様々な技術を使用して情報を伝送する場合がある。帯域内の情報及び明示的なシグナリングは、様々な実現及び/標準について、スライスヘッダ、SEIメッセージ、他の高水準シンタックス、及び非高水準シンタックスを含む場合がある。本実施の形態で記載される実現は特定のコンテキストで記載される場合があるが、係る記載は、特徴及び概念を係る実現又はコンテキストに限定するものとして解釈されるべきではない。
本実施の形態で記載される実現及び特徴は、MPEG-4 AVC標準、又はMVC拡張によるMPEG-4 AVC標準、又はSVC拡張によるMPEG-4 AVC標準のコンテキストで使用される場合がある。しかし、これらの実現及び特徴は、(既存の又は将来的な)別の標準及び/又は勧告のコンテキストで使用されるか、標準及び/又は勧告を含まないコンテキストで使用される場合がある。
本実施の形態で記載された実現は、方法又はプロセス、装置、ソフトウェアプログラム、データストリーム又は信号で実現される場合がある。(たとえば、方法としてのみ記載された)実現の1つの形式のコンテキストでのみ記載されたとしても、記載された特徴の実現は、(たとえば装置又はプログラムといった)他の形式で実現される場合がある。装置は、たとえば適切なハードウェア、ソフトウェア及びファームウェアで実現される場合がある。本方法は、たとえばコンピュータ、マイクロプセッサ、集積回路、又はプログラマブルロジックデバイスを含む、一般の処理装置を示すプロセッサのような装置で実現される場合がある。また、プロセッサは、たとえばコンピュータ、携帯電話、携帯用/パーソナルデジタルアシスタント(PDA)、及びエンドユーザ間の情報の伝達を容易にする他の装置のような通信装置を含む。
本実施の形態で記載された様々なプロセス及び特徴の実現は、たとえば、データ符号化及び復号化に関連する機器又はアプリケーションといった、様々な異なる機器又はアプリケーションで実施される場合がある。係る機器の例は、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダに入力を供給するプロプロセッサ、ビデオコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA及び他の通信装置を含む。明らかであるように、機器は、移動体であり、移動車両にインストールされる場合もある。
さらに、本方法は、プロセッサにより実行される命令により実現される場合があり、係る命令(及び/又は実現により生成されるデータ)は、たとえば集積回路、ソフトウェアキャリア、又はたとえばハードディスク、コンパクトディスク、ランダムアクセスメモリ(RAM)又はリードオンリメモリ(ROM)のような他の記憶装置、のようなプロセッサが読み取り可能な媒体に記憶される場合がある。命令は、プロセッサにより読み取り可能な媒体で実施されるアプリケーションプログラムを形成する場合がある。命令は、たとえばハードウェア、ファームウェア、ソフトウェア又はその組み合わせである場合がある。命令は、たとえばオペレーティングシステム、個別のアプリケーション又は両者の組み合わせで発見される場合がある。プロセッサは、プロセスを実行するようにコンフィグされる装置及びプロセスを実行する命令を有する(記憶装置のような)プロセッサ読み取り可能な媒体を含む装置の両者として特徴付けされる場合がある。さらに、プロセッサ読み取り可能な媒体は、命令に加えて又は命令の代わりに、実現により生成されるデータ値を記憶する場合がある。
当業者にとって明らかであるように、たとえば記憶又は送信される情報を搬送するためにフォーマット化される様々な信号が実現において生成される場合がある。たとえば、情報は、方法を実行する命令、又は記載された実現のうちの1つにより生成されるデータを含む場合がある。たとえばワープされた基準とするビューをブレンド又はマージするデータ、又はワープされた基準とするビューをブレンド又はマージするアルゴリズムを搬送する信号がフォーマット化される場合がある。係る信号は、たとえば(スペクトルの無線周波部分を使用した)電磁波として、又はベースバンド信号としてフォーマット化される場合がある。フォーマット化は、たとえばデータストリームを符号化し、符号化されたデータストリームで搬送波を変調することを含む場合がある。信号が搬送する情報は、たとえばアナログ又はデジタル情報である場合がある。知られているように、様々な異なる有線又は無線リンクを通して信号が送信される。信号は、プロセッサ読み取り可能な媒体に記憶される場合がある。
多数の実現が記載された。しかし、様々な変更が行われる場合があることが理解される。たとえば、異なる実現のエレメントが結合、補充、変更、又は除去されて他の実現を生成する場合がある。さらに、当業者であれば、他の構造及び処理が開示された構造又は処理と置き換えられること、結果的に得られる実現は、少なくとも実質的に開示される実現と同じ結果を達成するため、少なくとも実質的に同じやり方で、少なくとも実質的に同じ機能を実行することを理解されるであろう。従って、これらの実現及び他の実現は、本出願により考えられ、以下の特許請求の範囲に包含されるものである。

Claims (36)

  1. 第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価するステップと、前記評価は、前記第一の移動された基準のビューと前記第二の移動された基準のビューとを1つの合成されたビューにマージする処理の一部として行われ、
    前記評価に基づいて、前記1つの合成されたビューにおける所与の目標となる画素について結果を判定するステップと、
    を含むことを特徴とする方法。
  2. 前記結果を判定するステップは、前記所与の目標となる画素の値を決定するステップを含む、
    請求項1記載の方法。
  3. 前記結果を判定するステップは、前記所与の目標となる画素がホールであることを判定するステップを含む、
    請求項1記載の方法。
  4. 前記ホールの分布は、前記第一の候補となる画素の周囲のホールの数を示す第一のホールカウントと、前記第二の候補となる画素の周囲のホールの数を示す第二のホールカウントとを含み、
    前記所与の目標となる画素の値を決定するステップは、前記所与の目標となる画素の値として、前記第一のホールカウント及び前記第二のホールカウントのなかから最小のホールカウント値を有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを選択するステップを含む、
    請求項2記載の方法。
  5. 前記所与の目標となる画素の値として、前記第一のホールカウント及び前記第二のホールカウントのなかから前記最小のホールカウント値を有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを選択するステップは、前記第一のホールカウントと前記第二のホールカウントの間の差が予め決定された差の閾値よりも大きいときにのみ実行される、
    請求項4記載の方法。
  6. 前記所与の目標となる画素の値として、前記第一のホールカウント及び前記第二のホールカウントのなかから前記最小のホールカウント値を有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを選択するステップは、前記第一のホールカウントと前記第二のホールカウントの間の差が、予め決定された差の閾値よりも大きいとき、前記第一の候補となる画素の奥行きと前記第二の候補となる画素の奥行きの間の差が予め決定された奥行きの閾値よりも大きくないときにのみ実行される、
    請求項4記載の方法。
  7. 前記所与の目標となる画素の値を決定するステップは、前記第一のホールカウントと前記第二のホールカウントの間の差が前記予め決定された差の閾値よりも大きくないとき、前記第一の候補となる画素及び前記第二の候補となる画素の値を平均するステップを含む、
    請求項4記載の方法。
  8. 前記第一の候補となる画素と前記第二の候補となる画素の値を平均するステップは、前記第一のホールカウントと前記第二のホールカウントの間の差が予め決定された差の閾値よりも大きくないときであって、前記第一の候補となる画素の奥行きと前記第二の候補となる画素の奥行きとの差が予め決定された奥行きの閾値よりも大きくないときにのみ実行される、
    請求項7記載の方法。
  9. 前記第一の候補となる画素と前記第二の候補となる画素の値を平均するステップは、前記第一の候補となる画素と前記第二の候補となる画素のそれぞれの重み付け要素を使用するステップを含む、
    請求項7記載の方法。
  10. 前記重み付け要素は、前記第一の移動された基準のビューと前記1つの合成されたビューとの間の距離及び前記第二の移動された基準のビューと前記1つの合成されたビューとの間の距離のうちの少なくとも1つに基づいて決定される、
    請求項9記載の方法。
  11. 前記重み付け要素は、前記第一のホールカウント及び前記第二のホールカウントに基づいて決定される、
    請求項8記載の方法。
  12. 前記重み付け要素は、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの位置に基づいて決定される、
    請求項8記載の方法。
  13. 前記ホール分布は、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの位置に基づいており、
    前記所与の目標となる画素の値を決定するステップは、前記所与の目標となる画素の値として、前記第一の候補となる画素又は前記第二の候補となる画素の所与の側に多く位置されるホールを有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを選択するステップ、又は、前記第一の候補となる画素及び前記第二の候補となる画素の何れかに高い重み付け要素を割り当てるステップを含む、
    請求項11記載の方法。
  14. 前記ホール分布は、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの位置を更に含み、
    前記所与の目標となる画素の値を決定するステップは、前記所与の目標となる画素の値として、前記第一の候補となる画素又は前記第二の候補となる画素の所与の側に多く位置されるホールを有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを選択するステップ、又は、前記第一の候補となる画素及び前記第二の候補となる画素の何れかに高い重み付け要素を割り当てるステップを含む、
    請求項2記載の方法。
  15. 前記第一の候補となる画素及び前記第二の候補となる画素の両者は、前記第一のホールカウントと前記第二のホールカウントの両者が予め決定されたホールカウントの閾値を超えるときに、前記所与の目標となる画素の値の決定における使用から除かれる、
    請求項4記載の方法。
  16. 前記後方合成プロセスは、
    前記第一の基準のビューと前記第二の基準のビューを再合成して、再合成された第一の移動された基準のビュー及び再合成された第二の移動された基準のビューをそれぞれ供給するステップと、
    前記再合成された第一の基準のビューと、前記第一の移動された基準のビューが取得された第一の基準のビューとの間の第一の差を計算するステップと、
    前記再合成された第二の基準のビューと、前記第二の移動された基準のビューが取得された第二の基準のビューとの間の第二の差を計算するステップと、
    前記第一の候補となる画素の周囲の領域に適用される前記第一の差に関する第一の合計を計算するステップと、
    前記第二の候補となる画素の周囲の領域に適用される前記第二の差に関する第二の合計を計算するステップと、
    当該方法は、前記第一の合計と前記第二の合計の少なくとも1つに基づいて前記所与の目標となる画素の値を決定するステップを更に含む、
    請求項2記載の方法。
  17. 前記第一の合計と前記第二の合計の少なくとも1つに基づいて前記所与の目標となる画素の値を決定するステップは、
    前記所与の目標となる画素の値として、前記第一の合計が前記第二の合計未満であって、前記第一の合計と前記第二の合計の間の差が予め決定された差の閾値よりも大きいときに前記第一の候補となる画素を選択し、前記第二の合計が前記第一の合計未満であって、前記第一の合計と前記第二の合計の間の差が予め決定された差の閾値よりも大きいときに前記第二の候補となる画素を選択し、前記第一の合計と前記第二の合計の間の差が予め決定された差の閾値よりも大きくないとき、前記第一の候補となる画素と前記第二の候補となる画素の値を平均するステップを含む、
    請求項16記載の方法。
  18. 前記第一の候補となる画素と前記第二の候補となる画素の値を平均するステップは、前記第一の候補となる画素と前記第二の候補となる画素のそれぞれについて重み付け要素を使用するステップを含む、
    請求項17記載の方法。
  19. 前記第一の合計と前記第二の合計の少なくとも1つが予め決定された合計の閾値よりも大きいとき、前記第一の候補となる画素と前記第二の候補となる画素の少なくとも1つを除くステップを更に含む、
    請求項16記載の方法。
  20. 前記第一の合計及び前記第二の合計が前記予め決定された合計の閾値よりも大きいとき、前記所与の目標となる画素をホールとして記録するステップを更に含む、
    請求項19記載の方法。
  21. 前記ホール分布は、前記第一の候補となる画素の周囲のホールの数を示す第一のホールカウントと前記第二の候補となる画素の周囲のホールの数を示す第二のホールカウントとを含み、
    前記1つの合成されたビューにおける前記所与の目標となる画素について、前記第一の候補となる画素及び前記第二の候補となる画素を選択するステップは、前記第一のホールカウントと前記第二のホールカウントが所与のホールカウントの閾値以下であるとき、エネルギー量について低い値を有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを選択するステップを含む、
    請求項2記載の方法。
  22. 所与の閾値を超えるエネルギー量を有する前記第一の候補となる画素及び前記第二の候補となる画素の何れかを除くステップを更に含む、
    請求項2記載の方法。
  23. 前記1つの合成されたビューにおける前記所与の目標となる画素の値を決定するステップは、
    前記第一の候補となる画素の周囲のエネルギー量を決定して第一の量を取得するステップと、
    前記第二の候補となる画素の周囲のエネルギー量を決定して第二の量を取得するステップと、
    前記第一の量及び前記第二の量の少なくとも1つに基づいて、前記第一の候補となる画素及び前記第二の候補となる画素のうちの1つを選択するステップ、前記第一の候補となる画素及び前記第二の候補となる画素のうちの1つを削除するステップ、又は前記第一の候補となる画素と前記第二の候補となる画素とを結合するステップと、
    を含む請求項2記載の方法。
  24. 前記ホール分布は、前記第一の候補となる画素の周囲のホールの数を示す第一のホールカウントと前記第二の候補となる画素の周囲のホールの数を示す第二のホールカウントとを含み、
    前記第一の候補となる画素及び前記第二の候補となる画素のうちの1つを選択する前記ステップ、前記第一の候補となる画素及び前記第二の候補となる画素のうちの1つを削除する前記ステップ、又は前記第一の候補となる画素と前記第二の候補となる画素とを結合する前記ステップは、前記第一のホールカウント及び前記第二のホールカウントの少なくとも1つに更に基づく、
    請求項23記載の方法。
  25. 前記ホール分布は、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの位置に基づいており、前記第一の候補となる画素及び前記第二の候補となる画素のうちの1つを選択する前記ステップ、前記第一の候補となる画素及び前記第二の候補となる画素のうちの1つを除く前記ステップ、又は前記第一の候補となる画素と前記第二の候補となる画素とを結合する前記ステップは、前記第一の候補となる画素の周囲のホールの位置及び前記第二の候補となる画素の周囲のホールの位置の少なくとも1つに更に基づく、
    請求項24記載の方法。
  26. 第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価する手段と、前記評価は、前記第一の移動された基準のビュー及び前記第二の移動された基準のビューを1つの合成されたビューにマージする処理の一部として行われ、
    前記評価に基づいて、前記1つの合成されたビューにおける所与の目標となる画素について結果を判定するステップと、
    を含むことを特徴とする方法。
  27. プロセッサに、
    第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価するステップと、前記評価は、前記第一の移動された基準のビュー及び前記第二の移動された基準のビューを1つの合成されたビューにマージする処理の一部として行われ、
    前記評価に基づいて、前記1つの合成されたビューにおける所与の目標となる画素について結果を判定するステップと、
    を実行させる命令を記憶したプロセッサ読み取り可能な記録媒体。
  28. 第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価するステップと、前記評価は、前記第一の移動された基準のビュー及び前記第二の移動された基準のビューを1つの合成されたビューにマージする処理の一部として行われ、
    前記評価に基づいて、前記1つの合成されたビューにおける所与の目標となる画素について結果を判定するステップと、
    を実行させる命令を記憶したプロセッサ読み取り可能な記録媒体。
  29. 第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価し、前記第一の移動された基準のビュー及び前記第二の移動された基準のビューを1つの合成されたビューにマージする処理の一部として前記評価を行う手段と、
    前記評価に基づいて、前記1つの合成されたビューにおける所与の目標となる画素について結果を判定する手段と、
    を有するビューマージ手段を備える装置。
  30. 当該装置は、エンコーダを含む、
    請求項29記載の装置。
  31. 前記当該装置は、デコーダを含む、
    請求項29記載の装置。
  32. 前記ビューマージ手段は、前記所与の目標となる画素をホールとして記録するホールマーカを有する、
    請求項29記載の装置。
  33. 第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価し、前記第一の移動された基準のビュー及び前記第二の移動された基準のビューを1つの合成されたビューにマージする処理の一部として前記評価を行ない、前記評価に基づいて、前記1つの合成されたビューにおける所与の目標とする画素について結果を判定するビューマージ手段と、
    前記1つの合成されたビューを含む信号を変調する変調手段と、
    を備える装置。
  34. 当該装置は、エンコーダを含む、
    請求項33記載の装置。
  35. 当該装置は、デコーダを含む、
    請求項33記載の装置。
  36. 第一の移動された基準のビューと第二の移動された基準のビューとを含む信号を復調する復調手段と、
    第一の移動された基準のビューからの第一の候補となる画素と、第二の移動された基準のビューからの第二の候補となる画素とを、前記第一の候補となる画素及び前記第二の候補となる画素の品質を評価する後方合成プロセス、前記第一の候補となる画素及び前記第二の候補となる画素の周囲のホールの分布及び指定された周波数を超える前記第一の候補となる画素及び前記第二の候補となる画素の周囲のエネルギーの量の少なくとも1つに基づいて評価し、前記第一の移動された基準のビュー及び前記第二の移動された基準のビューを1つの合成されたビューにマージする処理の一部として前記評価を行い、前記評価に基づいて、前記1つの合成されたビューにおける所与の目標とする画素について結果を判定するビューマージ手段と、
    を備える装置。
JP2011525007A 2008-08-29 2009-08-28 ヒューリスティックなビューマージングによるビュー合成 Expired - Fee Related JP5551166B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US9296708P 2008-08-29 2008-08-29
US61/092,967 2008-08-29
US19261208P 2008-09-19 2008-09-19
US61/192,612 2008-09-19
PCT/US2009/004905 WO2010024925A1 (en) 2008-08-29 2009-08-28 View synthesis with heuristic view merging

Publications (3)

Publication Number Publication Date
JP2012501580A true JP2012501580A (ja) 2012-01-19
JP2012501580A5 JP2012501580A5 (ja) 2012-09-20
JP5551166B2 JP5551166B2 (ja) 2014-07-16

Family

ID=41226021

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011525007A Expired - Fee Related JP5551166B2 (ja) 2008-08-29 2009-08-28 ヒューリスティックなビューマージングによるビュー合成
JP2011525011A Pending JP2012501494A (ja) 2008-08-29 2009-08-28 ヒューリスティックなビューブレンディングによるビュー合成

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011525011A Pending JP2012501494A (ja) 2008-08-29 2009-08-28 ヒューリスティックなビューブレンディングによるビュー合成

Country Status (8)

Country Link
US (2) US20110157229A1 (ja)
EP (2) EP2321974A1 (ja)
JP (2) JP5551166B2 (ja)
KR (2) KR20110073474A (ja)
CN (2) CN102138334A (ja)
BR (2) BRPI0916902A2 (ja)
TW (2) TW201023618A (ja)
WO (3) WO2010024925A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018519697A (ja) * 2015-04-23 2018-07-19 オステンド・テクノロジーズ・インコーポレーテッド 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2747544C (en) * 2008-12-19 2016-06-21 Saab Ab System and method for mixing a scene with a virtual scenario
JP5249114B2 (ja) * 2009-04-03 2013-07-31 Kddi株式会社 画像生成装置、方法及びプログラム
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
WO2011033668A1 (ja) * 2009-09-18 2011-03-24 株式会社 東芝 視差画像生成装置
JP2011151773A (ja) * 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
TWI434227B (zh) * 2009-12-29 2014-04-11 Ind Tech Res Inst 動畫產生系統及方法
CN101895753B (zh) * 2010-07-07 2013-01-16 清华大学 基于网络拥塞程度的视频传输方法、系统及装置
CN101895752B (zh) * 2010-07-07 2012-12-19 清华大学 基于图像视觉质量的视频传输方法、系统及装置
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
US8760517B2 (en) * 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
BR112013016890A8 (pt) 2010-12-30 2018-01-02 Michelin & Cie Sistema a base de piezoeléctrico e método para determinação de carga de pneu
US20120262542A1 (en) * 2011-04-15 2012-10-18 Qualcomm Incorporated Devices and methods for warping and hole filling during view synthesis
US8988558B2 (en) * 2011-04-26 2015-03-24 Omnivision Technologies, Inc. Image overlay in a mobile device
US9536312B2 (en) * 2011-05-16 2017-01-03 Microsoft Corporation Depth reconstruction using plural depth capture units
EP2733945A4 (en) * 2011-07-15 2014-12-17 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A 3D SERVICE
WO2013022401A2 (en) * 2011-08-10 2013-02-14 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
CN102325259A (zh) 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
WO2013049388A1 (en) * 2011-09-29 2013-04-04 Dolby Laboratories Licensing Corporation Representation and coding of multi-view images using tapestry encoding
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
JP5911166B2 (ja) * 2012-01-10 2016-04-27 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置、及び画像表示装置
US9313420B2 (en) 2012-01-18 2016-04-12 Intel Corporation Intelligent computational imaging system
TWI478095B (zh) 2012-02-07 2015-03-21 Nat Univ Chung Cheng Check the depth of mismatch and compensation depth error of the perspective synthesis method
US10447990B2 (en) * 2012-02-28 2019-10-15 Qualcomm Incorporated Network abstraction layer (NAL) unit header design for three-dimensional video coding
KR101318552B1 (ko) * 2012-03-12 2013-10-16 가톨릭대학교 산학협력단 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법
CN102663741B (zh) * 2012-03-22 2014-09-24 侯克杰 对彩色数字图像进行视觉立体感知增强的方法及系统
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
CN103716641B (zh) 2012-09-29 2018-11-09 浙江大学 预测图像生成方法和装置
US9596445B2 (en) 2012-11-30 2017-03-14 Panasonic Intellectual Property Management Co., Ltd. Different-view image generating apparatus and different-view image generating method
EP2765774A1 (en) 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image
KR102039741B1 (ko) * 2013-02-15 2019-11-01 한국전자통신연구원 영상 워핑을 위한 장치 및 방법
WO2014145722A2 (en) * 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
CN104065972B (zh) * 2013-03-21 2018-09-28 乐金电子(中国)研究开发中心有限公司 一种深度图像编码方法、装置及编码器
WO2014163468A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 시점 합성 예측을 이용하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US20140375663A1 (en) * 2013-06-24 2014-12-25 Alexander Pfaffe Interleaved tiled rendering of stereoscopic scenes
US9846961B2 (en) * 2014-04-30 2017-12-19 Intel Corporation System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space
TWI517096B (zh) * 2015-01-12 2016-01-11 國立交通大學 用於立體影像合成之逆向深度映射方法
CN104683788B (zh) * 2015-03-16 2017-01-04 四川虹微技术有限公司 基于图像重投影的空洞填充方法
KR102465969B1 (ko) * 2015-06-23 2022-11-10 삼성전자주식회사 그래픽스 파이프라인을 수행하는 방법 및 장치
US9773302B2 (en) * 2015-10-08 2017-09-26 Hewlett-Packard Development Company, L.P. Three-dimensional object model tagging
CN105488792B (zh) * 2015-11-26 2017-11-28 浙江科技学院 基于字典学习和机器学习的无参考立体图像质量评价方法
EP3496388A1 (en) 2017-12-05 2019-06-12 Thomson Licensing A method and apparatus for encoding a point cloud representing three-dimensional objects
KR102133090B1 (ko) * 2018-08-28 2020-07-13 한국과학기술원 실시간 3차원 360 영상 복원 방법 및 그 장치
US11528461B2 (en) * 2018-11-16 2022-12-13 Electronics And Telecommunications Research Institute Method and apparatus for generating virtual viewpoint image
KR102491674B1 (ko) * 2018-11-16 2023-01-26 한국전자통신연구원 가상시점 영상을 생성하는 방법 및 장치
US11393113B2 (en) 2019-02-28 2022-07-19 Dolby Laboratories Licensing Corporation Hole filling for depth image based rendering
US11670039B2 (en) 2019-03-04 2023-06-06 Dolby Laboratories Licensing Corporation Temporal hole filling for depth image based video rendering
KR102192347B1 (ko) * 2019-03-12 2020-12-17 한국과학기술원 실시간 폴리곤 기반 360 영상 복원 방법 및 그 장치
KR20230157529A (ko) 2019-04-01 2023-11-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 히스토리 기반 움직임 벡터 예측을 위한 보간 필터 사용
US10930054B2 (en) * 2019-06-18 2021-02-23 Intel Corporation Method and system of robust virtual view generation between camera views
CN112291549B (zh) * 2020-09-23 2021-07-09 广西壮族自治区地图院 一种基于dem的光栅地形图立体序列帧图像的获取方法
US11570418B2 (en) 2021-06-17 2023-01-31 Creal Sa Techniques for generating light field data by combining multiple synthesized viewpoints
KR20230103198A (ko) * 2021-12-31 2023-07-07 주식회사 쓰리아이 3차원 가상모델 생성을 위한 텍스처링 방법 및 그를 위한 컴퓨팅 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1264281A4 (en) * 2000-02-25 2007-07-11 Univ New York State Res Found ARRANGEMENT AND METHOD FOR PROCESSING AND PLAYING A VOLUME
US7079157B2 (en) * 2000-03-17 2006-07-18 Sun Microsystems, Inc. Matching the edges of multiple overlapping screen images
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
EP1542167A1 (en) * 2003-12-09 2005-06-15 Koninklijke Philips Electronics N.V. Computer graphics processor and method for rendering 3D scenes on a 3D image display screen
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US7364306B2 (en) * 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US7471292B2 (en) * 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018519697A (ja) * 2015-04-23 2018-07-19 オステンド・テクノロジーズ・インコーポレーテッド 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
JP7036599B2 (ja) 2015-04-23 2022-03-15 オステンド・テクノロジーズ・インコーポレーテッド 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法

Also Published As

Publication number Publication date
BRPI0916882A2 (pt) 2016-02-10
CN102138333B (zh) 2014-09-24
KR20110073474A (ko) 2011-06-29
WO2010024919A1 (en) 2010-03-04
BRPI0916902A2 (pt) 2015-11-24
CN102138334A (zh) 2011-07-27
EP2321974A1 (en) 2011-05-18
EP2327224A2 (en) 2011-06-01
US20110148858A1 (en) 2011-06-23
JP2012501494A (ja) 2012-01-19
JP5551166B2 (ja) 2014-07-16
CN102138333A (zh) 2011-07-27
WO2010024938A3 (en) 2010-07-15
TW201023618A (en) 2010-06-16
TWI463864B (zh) 2014-12-01
KR20110063778A (ko) 2011-06-14
US20110157229A1 (en) 2011-06-30
WO2010024938A2 (en) 2010-03-04
WO2010024925A1 (en) 2010-03-04
TW201029442A (en) 2010-08-01

Similar Documents

Publication Publication Date Title
JP5551166B2 (ja) ヒューリスティックなビューマージングによるビュー合成
EP2201784B1 (en) Method and device for processing a depth-map
US9569819B2 (en) Coding of depth maps
US8537200B2 (en) Depth map generation techniques for conversion of 2D video data to 3D video data
EP2761878B1 (en) Representation and coding of multi-view images using tapestry encoding
WO2010144074A1 (en) Joint depth estimation
US10158838B2 (en) Methods and arrangements for supporting view synthesis
US9497435B2 (en) Encoder, method in an encoder, decoder and method in a decoder for providing information concerning a spatial validity range
WO2009131703A2 (en) Coding of depth signal
JP2015521407A (ja) 3d映像を処理するための品質メトリク
WO2009091563A1 (en) Depth-image-based rendering
KR20140021766A (ko) 가상시점 영상 생성을 위한 경계 잡음 제거 및 홀 채움 방법
US20120188234A1 (en) Image processing apparatus and method
Iyer et al. Multiview video coding using depth based 3D warping
Paradiso et al. A novel interpolation method for 3D view synthesis
US20220167014A1 (en) Methods and devices for coding and decoding a multi-view video sequence
Sebai et al. Piece-wise linear function estimation for platelet-based depth maps coding using edge detection
Kim et al. 3-D video quality improvement using depth transition data
Lee et al. Technical Challenges of 3D Video Coding

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131216

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140521

R150 Certificate of patent or registration of utility model

Ref document number: 5551166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees