JP4898459B2 - 奥行きマップの生成 - Google Patents

奥行きマップの生成 Download PDF

Info

Publication number
JP4898459B2
JP4898459B2 JP2006553726A JP2006553726A JP4898459B2 JP 4898459 B2 JP4898459 B2 JP 4898459B2 JP 2006553726 A JP2006553726 A JP 2006553726A JP 2006553726 A JP2006553726 A JP 2006553726A JP 4898459 B2 JP4898459 B2 JP 4898459B2
Authority
JP
Japan
Prior art keywords
pixel
image
value
cost value
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006553726A
Other languages
English (en)
Other versions
JP2007522589A (ja
Inventor
レーデルト,ペーテル−アンドレ
エー エルンスト,ファビアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2007522589A publication Critical patent/JP2007522589A/ja
Application granted granted Critical
Publication of JP4898459B2 publication Critical patent/JP4898459B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Credit Cards Or The Like (AREA)
  • Adornments (AREA)
  • Slot Machines And Peripheral Devices (AREA)

Description

本発明は、画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する方法に関する。
本発明はさらに、画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットに関する。
本発明はさらに:
・画像に対応する信号を受け取る受領手段と、
・奥行きマップを生成するような奥行きマップ生成ユニット、
とを有する画像処理装置に関する。
本発明はさらに、画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムプロダクトに関する。
マルチビューディスプレイ装置上で3Dの印象を生成するためには、異なる仮想視点からの画像をレンダリングする必要がある。これは複数の入力ビューか、何らかの3Dもしくは奥行き情報かのどちらかが存在していることを要求する。この奥行き情報は、記録されていることもできるし、マルチビューカメラシステムから生成されるか従来式の2Dビデオ素材から生成されるかすることもできる。2Dビデオから奥行き情報を生成するためには、いくつかの種類の奥行き情報が適用できる:運動からの構造復元(structure from motion)、ピント情報、幾何学形状および動的隠蔽(dynamic occlusion)などである。そのねらいは密な奥行きマップ、すなわちピクセルごとの奥行き値を生成することである。この奥行きマップはその後、マルチビュー画像をレンダリングして観察者に奥行きの印象を与えるのに使われる。P. A. Redert, E. A. Hendriks, and J. Biemondによる論文“Synthesis of multi viewpoint images at non-intermediate positions”, Proceedings of International Conference on Acoustics, Speech, and Signal Processing, Vol. IV, ISBN0-8186-7919-0, pp.2749-2752, IEEE Computer Society, Los Alamitos, California, 1997では、入力画像および奥行きマップに基づいて奥行き情報を抽出し、マルチビュー画像をレンダリングする方法が開示されている。
本発明の一つの目的は、冒頭で述べた種類の方法であって新しい奥行き情報に基づくものを提供することである。
本発明のこの目的は、当該方法が:
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる、
ことを有することにおいて達成される。
本発明は、次のような観察に基づいている。画像化される場面中のオブジェクトは異なる大きさ、輝度および色をもち、ある空間的配置をもつ。いくつかのオブジェクトは他のオブジェクトを隠蔽する。画像中のピクセルの輝度および/または色の値の相違は主としてオブジェクトの表面の光沢的特徴の差に関係しており、場面中での光源に対するオブジェクトの空間的位置にも関係している。表面の光学的特徴は、たとえば、色や反射性を含む。よって、画像化される場面中で第一の画像セグメントが第一のオブジェクトに対応し、第二の画像セグメントが第二のオブジェクトに対応するとすると、輝度および/または色の比較的大きな遷移、すなわち隣接ピクセルのピクセル値の間の比較的大きな相違が、第一の画像セグメントと第二の画像セグメントとの間の遷移に対応する。当該画像の諸ピクセルについて各ピクセルから画像の所定の位置への経路上における輝度および/または色の遷移すなわちピクセル値の間の相違の数および程度を決定することによって、場面中のオブジェクトの空間的配置に関する個々の指標が獲得できる。こうした指標、すなわちコスト値は、実質的に奥行き値に変換される。この変換は好ましくはそのコスト値とある所定の定数との積である。代替的には、その変換は個々のコスト値を所定の奥行き値の範囲に規格化によってマッピングすることに対応する。
背景もまた一つまたは複数のオブジェクト、たとえば空や森、草原をなしていることを注意しておくべきだろう。
輝度および/または色の遷移に基づく奥行き値は、たとえば引用論文に記載されているようにマルチビューをレンダリングするための奥行き値として直接使うことができる。好ましくは、本発明に基づく奥行き値は上述したような代替的な奥行き情報に基づく他の奥行き値と組み合わされる。
本発明に基づく方法のある実施形態では、前記の差の第一のものは前記経路上に配置される隣接ピクセルのそれぞれの値の間の差に等しい。二つの隣り合うピクセルの間の差を計算することは比較的容易である。代替的には、差は3つ以上のピクセル値に基づく。さらなる代替では、いずれも前記経路上にあるが隣り合ってはいない2つのピクセルの間で差が計算される。たとえば、所定の距離以内に位置する個々のピクセルに対応するピクセル値のうちの最小および最大のピクセル値の間で差が計算される。好ましくは、前記経路上に配置されているピクセルの個々の値の間の差の絶対値が計算される。
本発明に基づく方法のある実施形態では、第一のピクセルについてのコスト値が、前記経路上に配置されているピクセルの値の間の差を累積することによって計算される。累積、すなわち差の積分、総和または加算を実装するのは比較的容易である。好ましくは、所定の閾値よりも大きい差のみが累積によって組み合わされる。閾値を適用することの利点は、奥行き値の決定の、画像内ノイズへの敏感さが減少することである。
本発明に基づく方法のもう一つの実施形態では、第一のピクセルについてのコスト値が、前記経路上に配置されているピクセルの値の間の差と前記差についての個別の重み付け因子との積を累積することによって計算される。重み付け因子を適用することによって、個々のピクセルに対応する奥行き値の計算のためのピクセル値の差の寄与を制御することが可能となる。例として、ある特定のピクセルの値とその隣接ピクセルの値との間の差に関係する重み付け因子の第一のものは、前記特定のピクセルと前記第一のピクセルとの間の距離に基づく。重み付け因子のこの第一のものは、典型的には、前記特定のピクセルと前記第一のピクセルとの間の距離が比較的大きい場合に比較的小さくなる。例として、ある特定のピクセルの値とその隣接ピクセルの値との間の差に関係する重み付け因子の第二のものは、前記特定のピクセルに対する前記隣接ピクセルの位置に基づく。たとえば、前記重み付け因子の第二のものは、前記隣接ピクセルが前記特定のピクセルの上に位置する場合に比較的大きくなり、前記隣接ピクセルが前記特定のピクセルの下に位置する場合に比較的小さくなる。あるいはまた、前記重み付け因子の第二のものは、第一のベクトルが前記特定のピクセルに対する前記隣接ピクセルの位置に対応し、第二のベクトルが前記第二のピクセルに対する前記第一のピクセルの位置に対応するとして、第一のベクトルと第二のベクトルとの間の角度に関係する。
本発明に基づくある実施形態は、さらに:
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第三のピクセルへの第二の経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
・前記コスト値および前記第二のコスト値のうちの最小値を決定し、
・前記最小値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる、
ことを有する。
本発明に基づくこの実施形態では、奥行き値の前記第一のものは、複数の経路に関係する複数の値からの特定の選択、すなわちすなわち前記第一のピクセルから前記第二のピクセルへの最適経路に基づいている。第二のピクセルおよび第三のピクセルは互いに等しい、すなわち同じであってもよいことを注意されたい。各経路に関係するコスト値の選択または組み合わせの代替的な種類が有利である。たとえば、複数の経路に関係するコスト値の平均を計算することができる。
本発明に基づく方法のもう一つの実施形態はさらに、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第二のコスト値を計算することを含む。すでに計算されたコスト値を再利用することは、計算効率のよい実装につながる。典型的には、第二のコスト値の計算は、前記第一のピクセルのコスト値を前記第三のピクセルから前記第一のピクセルへの第二の経路上に配置されているさらなるピクセルのさらなる値の間の差と組み合わせることによって実行される。
画像の各ピクセルに対応するコスト値がさらなるピクセルについて計算されたさらなるコスト値に基づいて逐次的に計算される、本発明の方法のある実施形態では、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向は、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きである。典型的には、画像の各ピクセルについて奥行き値を計算しなければならない。好ましくは、ある特定のピクセルについてある特定のコスト値を計算する際に、他のピクセルについてすでに計算されているコスト値が利用される。一連のピクセルが処理される、すなわち奥行き値が計算される順序は重要である。好ましくは、その順序は、画像の諸ピクセルが行ごとに、あるいは代替的に列ごとに処理されるような順序である。ピクセルが行ごとに処理される場合、たとえば偶数行は左から右、奇数行は右から左へ、あるいはその逆など、相続く行は逆方向に処理することが有利である。本発明人らは、このジグザグ式の処理が、すべての行が同じスキャン方向に処理される処理よりもずっと良好な結果をもたらすことを観察するに至った。このジグザグ式処理に基づいて生成される奥行きマップの品質は、各経路についてコスト値を決定する、より高価な諸方法からの結果に匹敵する。より高価とは、最適経路を決定するためにより多くの経路が評価されるということを意味する。
本発明のさらなる目的の一つは、冒頭で述べた種類の奥行きマップ生成ユニットであって新しい奥行き情報に基づくものを提供することである。
本発明のこの目的は、前記生成ユニットが:
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有することにおいて達成される。
本発明のさらなる目的の一つは、冒頭で述べた種類の奥行きマップ生成ユニットであって新しい奥行き情報に基づいて奥行きマップを生成するよう構成されたものを有する画像処理装置提供することである。
本発明のこの目的は、前記生成ユニットが:
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有することにおいて達成される。
本発明のさらなる目的の一つは、冒頭で述べた種類のコンピュータプログラムプロダクトであって新しい奥行き情報に基づいたものを提供することである。
本発明のこの目的は、当該コンピュータプログラムプロダクトが、読み込まれたのちに、前記処理手段に:
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる、
ことを実行する機能を提供することにおいて達成される。
奥行きマップ生成ユニットの修正およびその変形は、記載されている画像処理装置、方法およびコンピュータプログラムプロダクトの修正およびその変形に対応しうる。
本発明に基づく奥行きマップ生成ユニット、画像処理装置、方法およびコンピュータプログラムプロダクトについてこれらのことを含むさまざまな側面は、以下に付属の図面を参照しつつ述べる実装および実施形態に関連して明らかとなり、明快にされるであろう。
図面を通じて同じ参照符号は同様の部分を表すのに用いられる。
図1は、画像100と、本発明に基づく方法を用いて生成される対応する奥行きマップ122とを概略的に示している。図1は、第一のオブジェクト106、該第一のオブジェクト106の背後に位置する第二のオブジェクト104,および該第二のオブジェクト104の背後に位置する第三のオブジェクト102を表す画像100を示している。図1はさらに、第一のピクセル108から第二のピクセル110への経路112を示している。経路112は連結されたピクセルのグループに対応する。
一般に、画像中の一つのピクセルは8つの隣接ピクセルと連結している。すなわち、2つのピクセルが当該ピクセルに対して水平方向に位置しており、2つのピクセルが当該ピクセルに対して垂直方向に位置しており、4つのピクセルが当該ピクセルに対して斜め方向に位置している。経路112のピクセルどうしの対は、互いにこれら3つの仕方、すなわち互いに対して水平方向、垂直方向、または斜め方向のうちの一つの方向に位置している。
図1では、それぞれ参照符号114,116および118、120をもつピクセルからなる2対のピクセルが描かれている。第一のピクセル対114,116は経路112上で第一のオブジェクト106と第二のオブジェクト104との間の遷移に対応する位置に配置されている。第二のピクセル対118,120は経路112上で第二のオブジェクト104と第三のオブジェクト102との間の遷移に対応するもう一つの位置に配置されている。
図1はまた奥行きマップ122も示している。奥行きマップ122は第一のオブジェクト106に対応する奥行き値の第一のグループ128を含み、第二のオブジェクト104に対応する奥行き値の第二のグループ126を含み、第三のオブジェクト102に対応する奥行き値の第三のグループ124を含む。奥行き値の第一のグループ128の奥行き値は奥行き値の第二のグループ126の奥行き値よりも小さい。これは、第一のオブジェクト106が第二のオブジェクト104よりも画像100または該画像100に基づくマルチビュー画像の観察者により近いことを意味している。
奥行きマップ122は、本発明の方法に基づいて生成される。第一のピクセル108に対応する奥行き値130の生成のため、以下のステップが実行される:
・画像の第一のピクセル108についてのコスト値が、第一のピクセル108から画像のピクセルの所定のサブセットに属する第二のピクセル110への経路112上に配置されている連結されたピクセルの対114、116および118、120の値の間の差を組み合わせることにより計算される。
・第一のピクセル108に対応する奥行き値130が、前記第一のピクセル108についてのコスト値である定数を割ることによって計算される。
前記第二のピクセル110は画像100のピクセルの所定のサブセットに属している。この場合、所定のサブセットは画像の境界にあるピクセルを含む。代替的な実施形態では、前記サブセットは境界の一部のピクセル、たとえば画像の上側の境界または画像の下側の境界のピクセルのみを含む。さらなる代替では、サブセットは画像の中央のピクセルを含む。
上で説明したように、第一のピクセル108について割り当てられた奥行き値は該第一のピクセル108についてのコスト関数に関係している。該コスト関数は遷移に基づいている、すなわち、コスト値は、第一のピクセル108から第二のピクセル110への経路上により多くの、および/またはより大きな遷移がある場合に増大する。割り当てられる奥行き値は、次のアプローチのうちの一つに基づくことができる:
・第一のピクセルは対応するコスト値が比較的小さければ比較的小さな奥行き値を割り当てられる、
・第一のピクセルは対応するコスト値が比較的大きければ比較的大きな奥行き値を割り当てられる。
まとめると、コスト値と第二のピクセル110の位置との間には関係があり、割り当てられる奥行き値とコスト値との間にも関係がある。表1はこれらの量の間のいくつかの可能な関係を示している。表1に挙げられている場合においては、第一のピクセル108は画像の中心に位置していると想定されている。

表1 位置、コスト値および奥行き値の間の関係
Figure 0004898459
比較的小さな奥行き値は、第一のピクセルが、当該画像に基づいて生成されるマルチビュー画像の観察者に比較的近いことを意味し、比較的大きな奥行き値は、第一のピクセルが、マルチビュー画像の観察者から比較的遠くに離れていることを意味する。
好ましくは、コスト値V(x′,y′)の計算は、座標(x′,y′)をもつピクセルからの経路のうちのある特定の一つを示す添え字をiとして、第一のピクセルから第二のピクセルへの経路Pi上に位置している諸ピクセルに割り当てられるピクセル値の差の累積に基づく。
V(x′,y′)=Σ{E(x,y)|(x,y)∈Pi} (1)
ピクセル値の差E(x,y)の計算の第一の例は式(2)で与えられる。
E(x,y)=|I(x,y)−I(x−a,y−b)| (2)
ここでI(x,y)は画像の座標xおよびyをもつピクセルの輝度値であり、−1≦a≦1および−1≦b≦1である。
代替的には、ピクセル値の差E(x,y)は色の値に基づいて計算される。
E(x,y)=|C(x,y)−C(x−a,y−b)| (3)
ここでC(x,y)は画像の座標xおよびyをもつピクセルの色の値である。式(4)では、ピクセル値の差E(x,y)の計算について、3つの異なる色成分R(赤)、G(緑)、B(青)に基づくさらなる代替が与えられる。
E(x,y)=max(|R(x,y)−R(x−a,y−b)|, |G(x,y)−G(x−a,y−b)|,
|B(x,y)−B(x−a,y−b)|) (4)
任意的に、ピクセル値差信号Eはフィルタ処理をして、所定の閾値に満たないあらゆるピクセル値差をある定数、たとえば0に制限する。
前述したように、好ましくは、コスト値V(x′,y′)の計算は、第一のピクセルから第二のピクセルへの経路Pi上に位置しているピクセルに割り当てられるピクセル値差の累積に基づいている。経路の集合からこの経路Piを選択するにはいくつかのアプローチがある。
図1は、単純な戦略、すなわちピクセル108から所定の集合、つまり画像の左の境界に位置するピクセルの集合のピクセルへの最短距離に基づく経路を概略的に示している。これは、第一のピクセル108と第二のピクセル110が同じy座標をもつことを意味している。
図2は、代替的な経路216,202を示している。これらの代替経路のうち第一のもの216は第一のピクセル108から所定の集合、つまり画像の左の境界に位置するピクセルの集合の第二のピクセル214への最短経路に対応している。第二のピクセル214は最小コストで到達できる左の境界のピクセルに対応する。これらの代替経路のうち第一のもの216の経路上には、続く参照符号218〜224をもつピクセルが配置されている。
図2はまた、代替経路のうち第二のもの202も示している。これは上の境界に達し、最小コストをもつ経路に対応する。代替経路のうちの第二のもの202は不規則な形状を有していることが明確に見て取れる。代替経路のうちの第二のもの202の経路上には、続く参照符号206〜212をもつピクセルが配置されている。
単一の経路に基づいてコスト値V(x′,y′)を計算する代わりに、コスト値は経路の組み合わせに基づくこともできる。たとえば平均コスト値を計算してもよい。
コスト値V(x′,y′)を計算するためのさらなる代替は、さまざまなピクセル値差についての重み付け因子に基づく。
V(x′,y′)=Σ{W(j)E(x,y)|(x,y)∈Pi} (5)
この重み付け因子W(j)は好ましくは、ピクセル対のうちピクセル値差E(x,y)が計算されるほうのピクセルと第一のピクセルとの間の空間的な距離jに関係する。典型的には、この重み付け因子W(j)は空間的距離が大きいと小さくなる。
あるいはまた、重み付け因子W(j)は2つのベクトルの間の角度に関係している。図3は第一のピクセル108から第二のピクセル110への経路、第一のピクセル108から第二のピクセル110への第一のベクトル308および経路300上での第三のピクセル302から第四のピクセル304への第二のベクトル306を概略的に示している。典型的には、重み付け因子W(j)は第一のベクトル308と第二のベクトル306との間の角度が比較的小さければ、すなわち第四のピクセル304の第三のピクセル302に対する方向が第二のピクセル110の第一のピクセル108に対する方向と一致すれば比較的大きくなる。これは、第一のベクトル308に揃っている遷移が該第一のベクトル308にたとえば垂直な遷移よりもより重要であると考えられるということを意味する。
図4は、本発明に基づく奥行きマップ生成ユニット401を有するマルチビュー画像生成ユニット400を概略的に示している。マルチビュー画像生成ユニット400は、ビデオ画像のシーケンスに基づいてマルチビュー画像のシーケンスを生成するよう構成される。マルチビュー画像生成ユニット400は、入力コネクタ408においてビデオ画像のストリームを与えられ、出力コネクタ410および412においてそれぞれビデオ画像の二つの相関したストリームを出力する。ビデオ画像のこれら二つの相関したストリームはマルチビューディスプレイ装置に与えられるものである。マルチビューディスプレイ装置は、ビデオ画像の相関したストリームの第一のものに基づいて第一の系列のビューを視覚化し、ビデオ画像の相関したストリームの第二のものに基づいて第二の系列のビューを視覚化するよう構成されている。ユーザー、すなわち観察者が第一の系列のビューを左目で、第二の系列のビューを右目で観察すると、3D印象を知覚する。ビデオ画像の相関したストリームの第一のものが受領されたままのビデオ画像のシーケンスに対応して、ビデオ画像の相関したストリームの第二のものが受領されたままのビデオ画像の前記シーケンスに基づいてレンダリングされるというのでもよい。好ましくは、ビデオ画像の両方のストリームが受領されたままのビデオ画像のシーケンスに基づいてレンダリングされる。そのレンダリングは、たとえばP. A. Redert, E. A. Hendriks, and J. Biemondによる論文“Synthesis of multi viewpoint images at non-intermediate positions”, Proceedings of International Conference on Acoustics, Speech, and Signal Processing, Vol. IV, ISBN0-8186-7919-0, pp.2749-2752, IEEE Computer Society, Los Alamitos, California, 1997に記載されている。あるいはまた、前記レンダリングはR. P. Berretty and F. E. Ernstによる“High-quality images from 2.5D video”, Proceedings Eurographics, Granada, 2003, Short Note 124に記載されている。
マルチビュー画像生成ユニット400は:
・画像中の遷移に基づいて個別の入力画像についての奥行きマップを生成する奥行きマップ生成ユニット401、ならびに、
・前記入力画像と、前記奥行きマップ生成ユニット401によって与えられる前記個別の奥行きマップとに基づいてマルチビュー画像をレンダリングするレンダリングユニット406、
を有する。
画像の各ピクセルについて観察者への距離を表す奥行き値を有する奥行きマップを生成する前記奥行きマップ生成ユニット401は:
・図1、2および3のいずれかに関連して説明されているように、第一のピクセルから、画像のピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセルの値の間の差を組み合わせることによって画像の第一のピクセルについてのコスト値を計算するためのコスト値計算ユニット402と、
・コスト値に基づいて第一のピクセルに対応する奥行き値の第一のものを割り当てる奥行き値割り当てユニット404、
とを有する。
計算ユニット402は、時刻nでの画像の座標x′およびy′についてのコスト値信号VF=V(x′,y′,n)を与えるよう構成されている。この信号はピクセルごとのコスト値を表す。
コスト値信号VFの計算後、奥行きマップが決定される。これは式(6)で規定される:
D(x′,y′,n)=F(VF) (6)
ここで、D(x′,y′,n)は時刻nにおける画像の座標x′,y′をもつピクセルの奥行き値であり、関数F(j)はコスト値V(x′,y′,n)から奥行き値D(x′,y′,n)への線形または非線形変換である。この関数F(j)は好ましくは、コスト値V(x′,y′,n)に所定の定数をかける簡単なかけ算である:
D(x′,y′,n)=αV(x′,y′,n) (7)
ある特定のピクセルについてのコスト値の計算のために、隣接ピクセルについて計算されたコスト値が提供されることがあることを注意しておくべきだろう。換言すれば、コスト値の計算は好ましくは再帰的に実行されるのである。図6と関連した説明も参照されたい。
コスト値計算ユニット402、奥行き値割り当てユニット404およびレンダリングユニット406は一つのプロセッサを使って実装されうる。通常、これらの関数はソフトウェアプログラムプロダクトの制御のもとで実行される。実行の間、通常はソフトウェアプログラムプロダクトはRAMのようなメモリに読み込まれ、そこから実行される。プログラムはROM、ハードディスクまたは磁気的および/もしくは光学式記憶のようなバックグラウンドメモリから読み込まれてもよいし、あるいはインターネットのようなネットワークを介して読み込まれてもよい。任意的に、特定用途向けIC(application specific integrated circuit)が開示されている機能性を提供する。
図4との関連で述べたマルチビュー画像生成ユニット400はビデオ画像を扱うよう設計されているが、本発明に基づく奥行きマップ生成ユニットの代替的な諸実施形態は個別の画像、すなわちスチール映像に基づいて奥行きマップを生成するよう構成される。
図5は、本発明に基づく画像処理装置500であって:
・入力画像を表すビデオ信号を受け取る受領ユニット502と、
・図4との関連で述べた、受け取った入力信号に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニット401と、
・前記マルチビュー画像生成ユニット401によって与えられるマルチビュー画像を表示するマルチビューディスプレイ装置506、
とを有する装置の実施形態を概略的に示している。
ビデオ信号はアンテナまたはケーブルを介して受信される放送信号であってもよいが、VCR(Video Cassette Recorder[ビデオカセットレコーダー])またはデジタル多用途ディスク(DVD: Digital Versatile Disk)のような記憶装置からの信号であってもよい。信号は入力コネクタ510にて与えられる。画像処理装置500はたとえばテレビでありうる。代替的に、画像処理装置500は、任意的なディスプレイ装置は含まず、出力画像をディスプレイ装置506を有する装置に提供する。その際、画像処理装置500はたとえばセットトップボックス、衛星チューナー、VCRプレーヤー、DVDプレーヤーまたはレコーダーなどでありうる。任意的に、画像処理装置500は、ハードディスクのような記憶手段または光ディスクなどのリムーバブル媒体上の記憶のための手段を有している。画像処理装置500は映画スタジオまたは放送事業者によって利用されるシステムであってもよい。
図6は、画像100の個々のピクセル600〜614を処理するシーケンスを概略的に示している。図6では矢印616〜620によって、処理されるピクセルの順番がどうなっているかが示されている。参照符号610〜614をもつピクセルを含む画像100の第一行は左から右に処理される。参照符号604〜608をもつピクセルを含む画像100の第二行は右から左へと処理される。参照符号600〜602をもつピクセルを含む画像100の第三行は再び左から右に処理される。このように、画像100の相続くピクセル行は逆向きに処理される。
ある特定のピクセルを処理するとは:
・その特定のピクセルの特定のコスト値を、その特定のピクセルから画像のピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって計算し、
・前記の計算された特定のコスト値に基づいてその特定のピクセルに対応するある特定の奥行き値を構築中の奥行きマップに割り当てる、
ことを意味する。
前記特定のコスト値を計算することは、他のピクセルについてすでに計算されたコスト値に基づく。そのことを例解するために次の例を挙げておく。第一行および第二行のピクセル604〜614に対応する奥行き値がすでに決定されており、よってそれぞれの経路に対応するそれぞれのコスト値は分かっているとする。さらに、第三行のいくつかのピクセル602も処理がすんでいるものとする。次に、参照符号600をもつある特定のピクセルの奥行き値を決定する必要がある。好ましくは、これは候補コスト値の次の集合を評価することによってなされる:
・当該特定ピクセル600の左に位置するピクセル602のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第一の候補コスト値、
・当該特定ピクセル600の上に位置するピクセル606のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第二の候補コスト値、
・当該特定ピクセル600の左上に位置するピクセル604のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第三の候補コスト値、
・当該特定ピクセル600の右上に位置するピクセル608のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第四の候補コスト値。
上記の候補コスト値の集合から最小コスト値を決定したのちには、その特定のピクセルから始まる経路はわかっており、対応するコスト値もわかっており、対応する奥行き値を割り当てることができる。
候補コスト値の集合は典型的にはスキャン方向に依存することは明らかであろう。たとえば、右から左へのスキャン方向の場合、候補コスト値の集合は考えている特定のピクセルの右に位置するピクセルのコスト値に基づく候補コスト値を含みうる。候補コスト値の集合は追加的なコスト値を含むこともありうる。代替的に、候補コスト値の集合はより少ないコスト値を含むこともありうる。
上述した実施形態が本発明を解説するものであって限定するものではなく、当業者は付属の請求項の範囲から外れることなく代替的な実施形態を設計できるであろうことを注意しておくべきであろう。請求項においては、括弧内に置かれた参照符号があったとしてもそれは請求項を限定するものと解釈してはならない。「有する」の語は請求項に挙げられていない要素またはステップの存在を排除しない。要素の単数形の表現はそのような要素の複数の存在を排除しない。本発明は、いくつかの相異なる要素を有するハードウェアによって、および好適にプログラミングされたコンピュータによって実装できる。いくつかの手段を列挙するユニット請求項においては、これらの手段のいくつかが同一のハードウェア項目によって具現されることもできる。第一、第二、第三などの語の使用は、いかなる順序も示さない。これらの語は名辞として解釈されるものとする。
画像および本発明に基づく方法を用いて生成される対応する奥行きマップを示す概略図である。 2つの経路を示す概略図である。 第一のピクセルから第二のピクセルへの経路、第一のピクセルから第二のピクセルへの第一のベクトルおよび前記経路上で第三のピクセルから第四のピクセルへの第二のベクトルを示す概略図である。 本発明に基づく奥行きマップ生成ユニットを有するマルチビュー画像生成ユニットを示す概略図である。 本発明に基づく画像処理装置の実施形態を概略的に示す図である。 画像の各ピクセルを処理するシーケンスを示す概略図である。

Claims (18)

  1. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
    ・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置された諸ピクセルの値の差の絶対値のうち所定の閾値よりも大きいものを累積することによって計算されることを特徴とする方法。
  2. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
    ・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置されたピクセルの値の差の絶対値と、前記差についてのそれぞれの重み付け因子との積を累積することによって計算されることを特徴とする方法。
  3. 請求項記載の方法であって、ある特定のピクセルの値とその隣接ピクセルの値との間の差に関係する前記重み付け因子の第一のものが、前記特定のピクセルと前記第一のピクセルとの間の距離に基づいていることを特徴とする方法。
  4. 請求項記載の方法であって、ある特定のピクセルの値とその隣接ピクセルの値との間の差に関係する前記重み付け因子の第二のものが、前記特定のピクセルに対する前記隣接ピクセルの位置に基づいていることを特徴とする方法。
  5. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
    ・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、さらに:
    ・計算手段によって、前記第一のピクセルから、画像ピクセルの前記所定のサブセットに属する第三のピクセルへの第二の経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
    ・決定手段によって、前記コスト値および前記第二のコスト値のうちの最小値を決定し、
    ・割り当て手段によって、前記最小値に基づいて前記第一のピクセルに対応する奥行き値の前記第一のものを割り当てる、
    ことを有することを特徴とする方法。
  6. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
    ・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    計算手段によって、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
    前記第三のコスト値を計算するのを、前記第一のピクセルのコスト値を、前記第三のピクセルから前記第一のピクセルへの第三の経路上に配置されているさらなる諸ピクセルのさらなる値の間の差と組み合わせることによって行うことを含むことを特徴とする方法。
  7. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
    ・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    計算手段によって、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
    それぞれの画像ピクセルに対応するコスト値が、さらなるピクセルについて計算されているさらなるコスト値に基づいて前記計算手段によって逐次計算され、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向が、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きであることを特徴とする方法。
  8. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
    とを有し、
    前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置された諸ピクセルの値の差の絶対値のうち所定の閾値よりも大きいものを累積することによって計算されることを特徴とするユニット。
  9. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
    とを有し、
    前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置されたピクセルの値の差の絶対値と、前記差についてのそれぞれの重み付け因子との積を累積することによって計算されることを特徴とするユニット。
  10. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
    とを有し、
    計算手段が、前記第一のピクセルから、画像ピクセルの前記所定のサブセットに属する第三のピクセルへの第二の経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
    決定手段が、前記コスト値および前記第二のコスト値のうちの最小値を決定し、
    割り当て手段が、前記最小値に基づいて前記第一のピクセルに対応する奥行き値の前記第一のものを割り当てることを特徴とするユニット。
  11. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
    とを有し、
    計算手段が、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
    前記第三のコスト値を計算するのを、前記第一のピクセルのコスト値を、前記第三のピクセルから前記第一のピクセルへの第三の経路上に配置されているさらなる諸ピクセルのさらなる値の間の差と組み合わせることによって行うことを特徴とするユニット。
  12. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
    とを有し、
    計算手段が、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
    それぞれの画像ピクセルに対応するコスト値が、さらなるピクセルについて計算されているさらなるコスト値に基づいて前記計算手段によって逐次計算され、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向が、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きであることを特徴とするユニット。
  13. ・画像に対応する信号を受け取る受領手段と、
    ・請求項8から請求項12のいずれか一項に記載されているように奥行きマップを生成する奥行きマップ生成ユニット、
    とを有することを特徴とする画像処理装置。
  14. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てることを実行する機能を提供し、
    前記第一のピクセルについてのコスト値が、前記経路上に配置された諸ピクセルの値の差の絶対値のうち所定の閾値よりも大きいものを累積することによって計算されることを特徴とするコンピュータプログラム。
  15. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てることを実行する機能を提供し、
    前記第一のピクセルについてのコスト値が、前記経路上に配置されたピクセルの値の差の絶対値と、前記差についてのそれぞれの重み付け因子との積を累積することによって計算されることを特徴とするコンピュータプログラム。
  16. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    ・前記第一のピクセルから、画像ピクセルの前記所定のサブセットに属する第三のピクセルへの第二の経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
    ・前記コスト値および前記第二のコスト値のうちの最小値を決定し、
    ・前記最小値に基づいて前記第一のピクセルに対応する奥行き値の前記第一のものを割り当てる、
    ことを実行する機能を提供することを特徴とするコンピュータプログラム。
  17. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    ・前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算する、
    ことを実行する機能を提供し、
    前記第三のコスト値を計算するのを、前記第一のピクセルのコスト値を、前記第三のピクセルから前記第一のピクセルへの第三の経路上に配置されているさらなる諸ピクセルのさらなる値の間の差と組み合わせることによって行うことを含むことを特徴とするコンピュータプログラム。
  18. 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
    ・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
    ・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
    ・前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算する、
    ことを実行する機能を提供し、
    それぞれの画像ピクセルに対応するコスト値が、さらなるピクセルについて計算されているさらなるコスト値に基づいて逐次計算され、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向が、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きであることを特徴とするコンピュータプログラム。
JP2006553726A 2004-02-17 2005-02-07 奥行きマップの生成 Expired - Fee Related JP4898459B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP04100625.5 2004-02-17
EP04100625 2004-02-17
PCT/IB2005/050482 WO2005083631A2 (en) 2004-02-17 2005-02-07 Creating a depth map

Publications (2)

Publication Number Publication Date
JP2007522589A JP2007522589A (ja) 2007-08-09
JP4898459B2 true JP4898459B2 (ja) 2012-03-14

Family

ID=34896072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006553726A Expired - Fee Related JP4898459B2 (ja) 2004-02-17 2005-02-07 奥行きマップの生成

Country Status (8)

Country Link
US (1) US8036451B2 (ja)
EP (1) EP1719079B1 (ja)
JP (1) JP4898459B2 (ja)
KR (1) KR101183863B1 (ja)
CN (1) CN100568281C (ja)
AT (1) ATE382919T1 (ja)
DE (1) DE602005004125T2 (ja)
WO (2) WO2005083630A2 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
WO2008041178A2 (en) 2006-10-04 2008-04-10 Koninklijke Philips Electronics N.V. Image enhancement
US8488868B2 (en) * 2007-04-03 2013-07-16 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
EP2174293B1 (en) * 2007-07-03 2011-04-27 Koninklijke Philips Electronics N.V. Computing a depth map
KR101367282B1 (ko) * 2007-12-21 2014-03-12 삼성전자주식회사 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
EP2446636A1 (en) 2009-06-24 2012-05-02 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US8508580B2 (en) * 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
TWI398158B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 產生立體影像之影像深度的方法
US8610758B2 (en) 2009-12-15 2013-12-17 Himax Technologies Limited Depth map generation for a video conversion system
US9426441B2 (en) * 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
GB2483285A (en) 2010-09-03 2012-03-07 Marc Cardle Relief Model Generation
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
KR101700621B1 (ko) * 2010-12-15 2017-02-01 한국전자통신연구원 임의의 측정거리에 적용가능한 적응형 초고속 및 고해상도 3차원 영상복원 방법
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US20120236114A1 (en) * 2011-03-18 2012-09-20 Te-Hao Chang Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
JP5355616B2 (ja) * 2011-04-21 2013-11-27 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
JP5291755B2 (ja) * 2011-04-21 2013-09-18 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
KR101811637B1 (ko) 2011-05-02 2017-12-26 삼성전자주식회사 선택적인 픽셀 비닝 장치 및 방법
CN102903143A (zh) * 2011-07-27 2013-01-30 国际商业机器公司 用于将二维图像三维化的方法和系统
JP2014504468A (ja) * 2011-08-18 2014-02-20 ベイジン・ゴランド・テック・カンパニー・リミテッド 画像運動情報に基づく2dから3dへの変換方法
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9661307B1 (en) 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
WO2013109192A1 (en) * 2012-01-18 2013-07-25 Agency For Science, Technology And Research Method and device for image processing
US9111350B1 (en) * 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US8644596B1 (en) 2012-06-19 2014-02-04 Google Inc. Conversion of monoscopic visual content using image-depth database
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
EP2747028B1 (en) 2012-12-18 2015-08-19 Universitat Pompeu Fabra Method for recovering a relative depth map from a single image or a sequence of still images
US9299152B2 (en) * 2012-12-20 2016-03-29 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for image depth map generation
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9299188B2 (en) 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10764561B1 (en) 2016-04-04 2020-09-01 Compound Eye Inc Passive stereo depth sensing
US10134198B2 (en) 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
US10403045B2 (en) 2017-08-11 2019-09-03 Adobe Inc. Photorealistic augmented reality system
US10422648B2 (en) 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
US11393114B1 (en) 2017-11-08 2022-07-19 AI Incorporated Method and system for collaborative construction of a map
US10944957B2 (en) * 2018-03-22 2021-03-09 Microsoft Technology Licensing, Llc Active stereo matching for depth applications
WO2021108626A1 (en) * 2019-11-27 2021-06-03 Compound Eye Inc. System and method for correspondence map determination
US11069071B1 (en) 2020-01-21 2021-07-20 Compound Eye, Inc. System and method for egomotion estimation
US11270467B2 (en) 2020-01-21 2022-03-08 Compound Eye, Inc. System and method for camera calibration
DE102020108898A1 (de) 2020-03-31 2021-09-30 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben einer fahrzeugkameravorrichtung, fahrzeugkameravorrichtung und fahrzeug
US11688073B2 (en) 2020-04-14 2023-06-27 Samsung Electronics Co., Ltd. Method and system for depth map reconstruction
US11561102B1 (en) 2020-04-17 2023-01-24 AI Incorporated Discovering and plotting the boundary of an enclosure
US11508077B2 (en) * 2020-05-18 2022-11-22 Samsung Electronics Co., Ltd. Method and apparatus with moving object detection
US11615594B2 (en) * 2021-01-21 2023-03-28 Samsung Electronics Co., Ltd. Systems and methods for reconstruction of dense depth maps

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05244435A (ja) * 1992-02-28 1993-09-21 Fujitsu Ltd 画像の階層符号化方法および画像符号化装置
JPH08287253A (ja) * 1995-04-11 1996-11-01 N T T Data Tsushin Kk 物体形状の推定方法および物体形状推定装置
JP2001346066A (ja) * 2000-06-05 2001-12-14 Matsushita Electric Ind Co Ltd 映像表示装置
JP2004522382A (ja) * 2001-07-23 2004-07-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ステレオスコピック画像処理機器および方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW335466B (en) * 1995-02-28 1998-07-01 Hitachi Ltd Data processor and shade processor
JP2004520660A (ja) * 2001-05-23 2004-07-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深度マップの計算
US7024054B2 (en) * 2002-09-27 2006-04-04 Eastman Kodak Company Method and system for generating a foreground mask for a composite image
AU2003292490A1 (en) * 2003-01-17 2004-08-13 Koninklijke Philips Electronics N.V. Full depth map acquisition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05244435A (ja) * 1992-02-28 1993-09-21 Fujitsu Ltd 画像の階層符号化方法および画像符号化装置
JPH08287253A (ja) * 1995-04-11 1996-11-01 N T T Data Tsushin Kk 物体形状の推定方法および物体形状推定装置
JP2001346066A (ja) * 2000-06-05 2001-12-14 Matsushita Electric Ind Co Ltd 映像表示装置
JP2004522382A (ja) * 2001-07-23 2004-07-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ステレオスコピック画像処理機器および方法

Also Published As

Publication number Publication date
KR20060124704A (ko) 2006-12-05
US20070146232A1 (en) 2007-06-28
DE602005004125T2 (de) 2008-12-18
EP1719079B1 (en) 2008-01-02
WO2005083630A3 (en) 2006-03-09
WO2005083630A2 (en) 2005-09-09
ATE382919T1 (de) 2008-01-15
US8036451B2 (en) 2011-10-11
CN1922631A (zh) 2007-02-28
JP2007522589A (ja) 2007-08-09
WO2005083631A3 (en) 2006-02-23
WO2005083631A2 (en) 2005-09-09
DE602005004125D1 (de) 2008-02-14
EP1719079A2 (en) 2006-11-08
CN100568281C (zh) 2009-12-09
KR101183863B1 (ko) 2012-09-19

Similar Documents

Publication Publication Date Title
JP4898459B2 (ja) 奥行きマップの生成
KR101168384B1 (ko) 깊이 맵을 생성하는 방법, 깊이 맵 생성 유닛, 이미지 처리 장치, 및 컴퓨터 프로그램 제품
JP4644669B2 (ja) マルチビュー画像の生成
US8553972B2 (en) Apparatus, method and computer-readable medium generating depth map
CN101635859B (zh) 一种实现平面视频转立体视频的方法和装置
US9030469B2 (en) Method for generating depth maps from monocular images and systems using the same
JP4762994B2 (ja) 視差マップ
JP2007520822A (ja) 奥行きマップの生成
KR101377733B1 (ko) 업-스케일링
WO2006075304A2 (en) Depth perception
US20120050485A1 (en) Method and apparatus for generating a stereoscopic image
JP4862004B2 (ja) 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム
JP2021111859A (ja) 立体画像生成装置及びそのプログラム
KR101953130B1 (ko) 홀 렌더링을 사용하는 멀티-뷰 영상 처리 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110629

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111226

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees