JP2007520822A - 奥行きマップの生成 - Google Patents
奥行きマップの生成 Download PDFInfo
- Publication number
- JP2007520822A JP2007520822A JP2006551961A JP2006551961A JP2007520822A JP 2007520822 A JP2007520822 A JP 2007520822A JP 2006551961 A JP2006551961 A JP 2006551961A JP 2006551961 A JP2006551961 A JP 2006551961A JP 2007520822 A JP2007520822 A JP 2007520822A
- Authority
- JP
- Japan
- Prior art keywords
- segment
- depth
- pixels
- image
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
画像(100)の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップ(106)を生成する方法。該方法は:画像(100)を第一のセグメント(110)と第二のセグメント(108)にセグメント分割し;前記第一のセグメント(110)の第一の大きさに基づいて、前記第一のセグメント(110)のピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメント(108)の第二の大きさに基づいて、前記第二のセグメント(108)のピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、ことを含む。
Description
本発明は、画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する方法に関する。
本発明はさらに、画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットに関する。
本発明はさらに:
・画像に対応する信号を受け取る受領手段と、
・奥行きマップを生成するような奥行きマップ生成ユニット、
とを有する画像処理装置に関する。
・画像に対応する信号を受け取る受領手段と、
・奥行きマップを生成するような奥行きマップ生成ユニット、
とを有する画像処理装置に関する。
本発明はさらに、画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムプロダクトに関する。
マルチビューディスプレイ装置上で3Dの印象を生成するためには、異なる仮想視点からの画像をレンダリングする必要がある。これは複数の入力ビューか、何らかの3Dもしくは奥行き情報かのどちらかが存在していることを要求する。この奥行き情報は、記録されていることもできるし、マルチビューカメラシステムから生成されるか従来式の2Dビデオ素材から生成されるかすることもできる。2Dビデオから奥行き情報を生成するためには、いくつかの種類の奥行き情報が適用できる:運動からの構造復元(structure from motion)、ピント情報、幾何学形状および動的隠蔽(dynamic occlusion)などである。そのねらいは密な奥行きマップ、すなわちピクセルごとの奥行き値を生成することである。この奥行きマップはその後、マルチビュー画像をレンダリングして観察者に奥行きの印象を与えるのに使われる。P. A. Redert, E. A. Hendriks, and J. Biemondによる論文“Synthesis of multi viewpoint images at non-intermediate positions”, Proceedings of International Conference on Acoustics, Speech, and Signal Processing, Vol. IV, ISBN0-8186-7919-0, pp.2749-2752, IEEE Computer Society, Los Alamitos, California, 1997では、入力画像および奥行きマップに基づいて奥行き情報を抽出し、マルチビュー画像をレンダリングする方法が開示されている。
本発明の一つの目的は、冒頭で述べた種類の方法であって新しい奥行き情報に基づくものを提供することである。
本発明のこの目的は、当該方法が:
・画像を第一のセグメントと第二のセグメントにセグメント分割し、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、
ことを有することにおいて達成される。
・画像を第一のセグメントと第二のセグメントにセグメント分割し、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、
ことを有することにおいて達成される。
本発明は、次のような観察に基づいている。オブジェクトは画像中で何らかの二次元的な大きさを有する。すなわち、ある場面中の各オブジェクトに対応する画像セグメントはある大きさをもつ。二次元の意味でより大きなオブジェクトが二次元の意味でより小さなオブジェクトを隠蔽する確率は、その逆の確率よりも大きい。したがって、大きなオブジェクトの背景により小さなオブジェクトがある場合、その小さなオブジェクトは見えなくなるが、前景にあれば見える。よって、小さなオブジェクトは前景のオブジェクトである可能性がより高い。換言すれば、ある第一のオブジェクトに対応する第一のセグメントの第一の大きさがある第二のオブジェクトに対応する第二のセグメントの第二の大きさよりも小さければ、前記第一のセグメントについての奥行き値は前記第二のセグメントについての奥行き値よりも小さい。背景もまた一つまたは複数のオブジェクト、たとえば空や森、草原をなしていることを注意しておくべきだろう。
大きさに関係した奥行き情報としてはもう一つ既知のものがあることを注意しておくべきだろう。その既知の奥行き情報は、「相対大きさ情報」または「遠近法情報」と呼ばれる。しかし、その既知の奥行き情報は別の想定に基づいており、逆の奥行き値を与える。「相対大きさ情報」は、より遠くにあるオブジェクトはより小さいという事実に基づいている。これに対し、本発明による奥行き情報では、より小さなオブジェクトが観察者により近いものと想定される。「相対大きさ情報」は、たとえば二人の人物や二台の車など、同じような種類のオブジェクトを比較して奥行き値を割り当てるのにしか適用できない。「相対大きさ情報」の使用は、画像セグメントを所定の種別のオブジェクトに分類する、より高度な認知プロセスを要求する。本発明に基づく奥行き情報を使うことの利点は、この複雑な種類の分類が必要とされないことである。
本発明に基づく方法の一つのステップはセグメント分割である。セグメント分割は、ピクセル値とピクセルの座標とに基づいてピクセルを分類するプロセスである。ピクセル値は色および/または輝度を表しうる。セグメント分割は、ある画像の諸ピクセルに対して、ピクセルどうしの連結性、すなわち2つのピクセルがつながっているか否かに関する値が割り当てられることを意味する。セグメント分割についてはいくつかのアルゴリズムがある。たとえばエッジ検出に基づくもの、均質性計算に基づくものなどである。
大きさについては、一次元または二次元の幾何学的量が意味されている。たとえば、長さ、高さ、幅、面積、周長、極値径すなわちあるセグメントの輪郭線内に収まるか該セグメントを包接する円の最小または最大の直径などである。代替的には、大きさはこれらの量の二つの組み合わせに基づいている。
計算された大きさに基づく奥行き値は、マルチビュー画像をレンダリングするための奥行き値として直接使用できる。これはたとえば前記で引用された論文で記載されている。好ましくは、本発明に基づく奥行き値は、上述したような代替的な奥行き情報に基づく他の奥行き値と組み合わされる。
本発明に基づく方法のある実施形態では、前記第一の大きさは、第一のセグメントのある第一の側から該第一のセグメントのある第二の側に伸びる線上に位置する隣接ピクセルの第一の数を決定することによって計算される。第二の大きさも同様にして、すなわち一次元でピクセル数を数えることによって計算される。この計算の利点は実装が比較的簡単であることである。
本発明に基づく方法のもう一つの実施形態では、前記第一の大きさは、第一のセグメントのエッジ上に位置する輪郭線内に位置するピクセルの第二の数を数えることによって計算される。換言すれば、第一のセグメントの面積が決定されるのである。第一のセグメントに属すると想定される全ピクセルが累積される。この計算は、セグメント分割がエッジ検出に基づいている場合で、第一のセグメントと第二のセグメントとの間の明瞭なエッジが見出されるときには有利である。
残念ながら、画像によっては絶対的な確実さをもってすべてのピクセルを分類することはできない。すなわち、ある特定のピクセルが第一のセグメントに属するが、その特定のピクセルが第二のセグメントにも属する確率があるのである。第一のセグメントの大きさを決定するためにこの特定のピクセルを考慮に入れることができるが、第二のセグメントの大きさを決定するためにもこの特定のピクセルを考慮に入れることができる。そこで、本発明に基づく方法のもう一つの実施形態では、前記第一の大きさは確率値の集合を蓄積することによって計算される。確率値は個々のピクセルが第一のセグメントに属する確率を表す。代替的に、確率値は二つのピクセルが同じセグメントに属する確率を表す。さらなる代替では、確率値の第一のものは、第一のセグメントのピクセルの第一のものと第一のセグメントのエッジ上に位置する輪郭との間のさらなる距離に基づく。
確率値を考慮に入れることによる第一のセグメントの大きさの計算は、一次元または二次元のピクセルのグループに基づく。たとえば、前記確率値の集合は第一のセグメントのある第一の側から該第一のセグメントのある第二の側に伸びる直線上に位置するピクセルに対応する。
本発明のあるさらなる目的は、冒頭で述べた種類の奥行きマップ生成ユニットであって新しい奥行き情報に基づくものを提供することである。
本発明のこの目的は、当該生成ユニットが:
・画像を第一のセグメントと第二のセグメントにセグメント分割するセグメント分割手段と、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする割り当て手段、
とを有することにおいて達成される。
・画像を第一のセグメントと第二のセグメントにセグメント分割するセグメント分割手段と、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする割り当て手段、
とを有することにおいて達成される。
本発明のあるさらなる目的は、冒頭で述べた種類の奥行きマップ生成ユニットを有する画像処理装置であって新しい奥行き情報に基づく奥行きマップを生成するよう構成されているものを提供することである。
本発明のこの目的は、当該生成ユニットが:
・画像を第一のセグメントと第二のセグメントにセグメント分割するセグメント分割手段と、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする割り当て手段、
とを有することにおいて達成される。
・画像を第一のセグメントと第二のセグメントにセグメント分割するセグメント分割手段と、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする割り当て手段、
とを有することにおいて達成される。
本発明のあるさらなる目的は、冒頭で述べた種類のコンピュータプログラムプロダクトであって新しい奥行き情報に基づくものを提供することである。
本発明のこの目的は、当該コンピュータプログラムプロダクトが、読み込まれたのちに、前記処理手段に:
・画像を第一のセグメントと第二のセグメントにセグメント分割し、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、
こと実行する機能を与えることにおいて達成される。
・画像を第一のセグメントと第二のセグメントにセグメント分割し、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、
こと実行する機能を与えることにおいて達成される。
奥行きマップ生成ユニットの修正およびその変形は、記載されている画像処理装置、方法およびコンピュータプログラムプロダクトの修正およびその変形に対応しうる。
本発明に基づく奥行きマップ生成ユニット、画像処理装置、方法およびコンピュータプログラムプロダクトについてこれらのことを含むさまざまな側面は、以下に付属の図面を参照しつつ述べる実装および実施形態に関連して明らかとなり、明快にされるであろう。
図面を通じて同じ参照符号は同様の部分を表すのに用いられる。
図1は、本発明に基づく方法を概略的に示している。図1は、第一のオブジェクト110および該第一のオブジェクト110の背後に位置する第二のオブジェクト108を表す画像100を示している。本発明に基づく本方法の第一のステップAはセグメント分割である。セグメント分割の結果102は、第一のセグメント114、すなわち連結したピクセルの第一のグループを含み、第二のセグメント112、すなわち連結したピクセルの第二のグループを含む。第一のセグメント114が第一のオブジェクト110に対応し、第二のセグメント112が第二のオブジェクト108に対応することは明らかであろう。本発明に基づく本方法の第二のステップBは、第一のセグメント114および第二のセグメント112の大きさを確立することである。図1は、本発明に基づく本方法の中間結果104、すなわちセグメント114および112について計算された大きさを表す値の二次元マトリクス104を示している。二次元マトリクス104の要素の第一の集合118は大きさ値3が割り当てられている。要素のこの第一の集合118は第一のオブジェクト110に対応する。二次元マトリクス104の要素の第二の集合116は大きさ値10が割り当てられている。要素のこの第二の集合116は第二のオブジェクト108に対応する。本発明に基づく本方法の第三のステップCは、奥行き値を決定することである。図1は奥行きマップ106を示している。奥行きマップ106は、第一のオブジェクト110に対応する奥行き値の第一のグループ122と、第二のオブジェクト108に対応する奥行き値の第二のグループ120とを有している。奥行き値の第一のグループ122の奥行き値は、奥行き値の第二のグループ120の奥行き値よりも小さい。これは第一のオブジェクト110が第二のオブジェクト108よりも画像100または該画像100に基づくマルチビュー画像の観察者により近いことを意味している。
図2は、ある画像の、ある特定のセグメントに属するいくつかのピクセル200〜218を概略的に示している。この特定のセグメントの大きさを決定するにはいくつかの方法がある。第一の方法は、最小の長さの水平線上のピクセルの数を数えることに基づく。この場合、結果として得られる大きさ値は2に等しい。たとえば、参照符号200および202で、あるいは216および218で示される2つのピクセルを数えたものである。第二の方法は、最大の長さの水平線上のピクセルの数を数えることに基づく。この場合、結果として得られる大きさ値は3に等しい。たとえば、参照符号204〜208で、あるいは210〜214で示される3つのピクセルを数えたものである。第三の方法は、最小の長さの垂直線上のピクセルの数を数えることに基づく。この場合、結果として得られる大きさ値は2に等しい。すなわち、参照符号204および210で示される2つのピクセルを数えたものである。第四の方法は、最大の長さの垂直線上のピクセルの数を数えることに基づく。この場合、結果として得られる大きさ値は4に等しい。たとえば、参照符号200、206、212、216で示される4つのピクセルを数えたものである。代替的には、前記特定のセグメント114の大きさは、幅と高さの積に基づく。たとえば、3×4=12や2×4=8などとなる。さらなる代替は、参照符号200〜218で示されるピクセルの総数を数えることに基づくもので、結果として得られる大きさ値は10となる。
図3は、特定のセグメントに属する確率を表すいくつかのピクセルの確率値を概略的に示している。好ましくは、確率値はこの特定のセグメントの大きさを決定するために考慮に入れられる。この特定のセグメントの大きさを確率値を考慮に入れることによって決定する第一の方法は、第一の水平線上のピクセルに対応する確率値の積分または累計に基づく。たとえば、それぞれ参照符号204、206、208で示されるピクセルに対応する値0.5、0.9、0.7を累計することによる。図2との関連で述べたのと同様に、特定のセグメントの大きさを決定するにはいくつかの方法がある。これは、他のピクセルに対応する、確率値の他の組み合わせも使用しうることを意味している。
図4Aおよび4Bは、画像および画像中のエッジ検出に基づいて見出される輪郭を概略的に示している。エッジの検出は個別の画像の空間的な高域通過フィルタ処理などに基づいてできる。しかし、エッジは好ましくは複数の画像を相互に比較すること、特にビデオ画像のシーケンスの相続く画像のピクセル値差分を計算することに基づいて検出される。ピクセル値差分E(x,y,n)の計算の第一の例は式(1)で与えられる:
E(x,y,n)=|I(x,y,n)−I(x,y,n−1)| (1)
ここで、I(x,y,n)は時刻nにおける画像の座標x,yをもつピクセルの輝度値である。代替的には、ピクセル値差分E(x,y,n)は色値に基づいて計算される:
E(x,y,n)=|C(x,y,n)−C(x,y,n−1)| (2)
ここで、C(x,y,n)は時刻nにおける画像の座標x,yをもつピクセルの色値である。式(3)では、3つの異なる色成分R(赤)、G(緑)、B(青)に基づくピクセル値差分E(x,y,n)の計算のためのさらなる代替が与えられている。
E(x,y,n)=|I(x,y,n)−I(x,y,n−1)| (1)
ここで、I(x,y,n)は時刻nにおける画像の座標x,yをもつピクセルの輝度値である。代替的には、ピクセル値差分E(x,y,n)は色値に基づいて計算される:
E(x,y,n)=|C(x,y,n)−C(x,y,n−1)| (2)
ここで、C(x,y,n)は時刻nにおける画像の座標x,yをもつピクセルの色値である。式(3)では、3つの異なる色成分R(赤)、G(緑)、B(青)に基づくピクセル値差分E(x,y,n)の計算のためのさらなる代替が与えられている。
E(x,y,n)=max(|R(x,y,n)−R(x,y,n−1)|, |G(x,y,n)−G(x,y,n−1)|,
|B(x,y,n)−B(x,y,n−1)|) (3)
任意的に、ピクセル値差分信号Eはフィルタ処理をして、所定の閾値に満たないあらゆるピクセル値差分をある定数、たとえば0に制限する。任意的に、空間的に小さなエッジをすべて除去するために形態フィルタ(morphologic filter)操作が適用される。形態フィルタは一般的な非線形画像処理ユニットである。たとえばP. W. Verbeek, H. A. Vrooman and L. J. van Vlietによる論文“Low-level image processing by max-min filters” Signal Processing, vol. 15, no. 3. pp. 249-258, 1988を参照。
|B(x,y,n)−B(x,y,n−1)|) (3)
任意的に、ピクセル値差分信号Eはフィルタ処理をして、所定の閾値に満たないあらゆるピクセル値差分をある定数、たとえば0に制限する。任意的に、空間的に小さなエッジをすべて除去するために形態フィルタ(morphologic filter)操作が適用される。形態フィルタは一般的な非線形画像処理ユニットである。たとえばP. W. Verbeek, H. A. Vrooman and L. J. van Vlietによる論文“Low-level image processing by max-min filters” Signal Processing, vol. 15, no. 3. pp. 249-258, 1988を参照。
エッジ検出は動きベクトル場にも基づいていてもよい。これは、動きベクトル場において比較的大きな動きベクトルコントラストをもつ領域が検出されることを意味する。これらの領域は対応する画像におけるエッジと一致する。任意的に、エッジ検出ユニットはピクセル値、すなわちビデオ画像の色および/または輝度値も与えられる。動きベクトル場は、たとえばG. de Haan et al.による論文“True-Motion Estimation with 3-D Recursive Search Block Matching” IEEE Transactions on circuits and systems for video technology, vol. 3, no. 5, October 1993, pp. 368-379で規定される動き推定ユニットによって与えられる。
図4Aは、閉じた輪郭線402が描かれた画像400を示している。この輪郭線は第一のセグメントのエッジ上に、すなわち第一のセグメントと第二のセグメントとの間の境界上に位置している。閉じた輪郭線の場合、どのピクセルが第一のセグメントに属するか、どのピクセルが第一のセグメントに属さないかを決定するのは比較的簡単である。輪郭線402の内部にあるピクセルのグループ403は第一のセグメントに属している。輪郭線402の外部に位置するその他のピクセルのグループ404は第一のセグメントに属さない。閉じた輪郭線の場合、図2との関連で述べた大きさ計算の方法はストレートに適用できる。
図4Bは、開いた輪郭線408が描かれた画像406を示している。この輪郭線は第一のセグメントのエッジ上に、すなわち第一のセグメントと第二のセグメントとの間の境界上に位置している。残念ながら、第一のセグメントに属すると想定されるピクセルのグループと第一のセグメントに属さないと想定されるピクセルのもう一つのグループとの間には明確なエッジはない。よって、開いた輪郭線の場合、どのピクセルが第一のセグメントに属するか、どのピクセルが第一のセグメントに属さないかを決定するのはストレートにはいかない。この問題に対処する一つの選択肢は、開いた輪郭線の端点どうしをつなぐことによってエッジ検出に基づいて見出された輪郭線を閉じることである。図4では、これは参照符号410の線分で示されている。あるいはまた、ピクセル値のそれぞれに対して、ある特定のセグメント、たとえば第一のセグメントに属する確率を表す確率値が割り当てられる。これらの確率値に基づいて、図3との関連で説明したようにセグメントの大きさを決定することができる。
図5は、本発明に基づく奥行きマップ生成ユニット501を有するマルチビュー画像生成ユニット500を概略的に示している。マルチビュー画像生成ユニット500は、ビデオ画像のシーケンスに基づいてマルチビュー画像のシーケンスを生成するよう構成される。マルチビュー画像生成ユニット500は、入力コネクタ508においてビデオ画像のストリームを与えられ、出力コネクタ510および512においてそれぞれビデオ画像の二つの相関したストリームを出力する。ビデオ画像のこれら二つの相関したストリームはマルチビューディスプレイ装置に与えられるものである。マルチビューディスプレイ装置は、ビデオ画像の相関したストリームの第一のものに基づいて第一の系列のビューを視覚化し、ビデオ画像の相関したストリームの第二のものに基づいて第二の系列のビューを視覚化するよう構成されている。ユーザー、すなわち観察者が第一の系列のビューを左目で、第二の系列のビューを右目で観察すると、3D印象を知覚する。ビデオ画像の相関したストリームの第一のものが受領されたままのビデオ画像のシーケンスに対応して、ビデオ画像の相関したストリームの第二のものが受領されたままのビデオ画像の前記シーケンスに基づいてレンダリングされるというのでもよい。好ましくは、ビデオ画像の両方のストリームが受領されたままのビデオ画像のシーケンスに基づいてレンダリングされる。そのレンダリングは、たとえばP. A. Redert, E. A. Hendriks, and J. Biemondによる論文“Synthesis of multi viewpoint images at non-intermediate positions”, Proceedings of International Conference on Acoustics, Speech, and Signal Processing, Vol. IV, ISBN0-8186-7919-0, pp.2749-2752, IEEE Computer Society, Los Alamitos, California, 1997に記載されている。あるいはまた、前記レンダリングはR. P. Berretty and F. E. Ernstによる“High-quality images from 2.5D video”, Proceedings Eurographics, Granada, 2003, Short Note 124に記載されている。
マルチビュー画像生成ユニット500は:
・検出されたエッジに基づいて個別の入力画像についての奥行きマップを生成する奥行きマップ生成ユニット501、ならびに、
・前記入力画像と、前記奥行きマップ生成ユニットによって与えられる前記個別の奥行きマップとに基づいてマルチビュー画像をレンダリングするレンダリングユニット506、
を有する。
・検出されたエッジに基づいて個別の入力画像についての奥行きマップを生成する奥行きマップ生成ユニット501、ならびに、
・前記入力画像と、前記奥行きマップ生成ユニットによって与えられる前記個別の奥行きマップとに基づいてマルチビュー画像をレンダリングするレンダリングユニット506、
を有する。
画像の各ピクセルについて観察者への距離を表す奥行き値を有する奥行きマップを生成する前記奥行きマップ生成ユニット501は:
・図4Aとの関連で述べたようなアルゴリズムの一つに基づいてエッジを検出するよう構成されている、入力画像中のエッジを検出するエッジ検出ユニット502と、
・図2または図3との関連で述べたようなアルゴリズムの一つに基づいてセグメントの大きさを計算するよう構成されている、検出されたエッジに基づいて見出されるさまざまなセグメントの大きさを計算するセグメント大きさ計算ユニット503と、
・検出されたセグメントの大きさに基づいてピクセルに対応する奥行き値を割り当てる奥行き値割り当てユニット504、
とを有する。
・図4Aとの関連で述べたようなアルゴリズムの一つに基づいてエッジを検出するよう構成されている、入力画像中のエッジを検出するエッジ検出ユニット502と、
・図2または図3との関連で述べたようなアルゴリズムの一つに基づいてセグメントの大きさを計算するよう構成されている、検出されたエッジに基づいて見出されるさまざまなセグメントの大きさを計算するセグメント大きさ計算ユニット503と、
・検出されたセグメントの大きさに基づいてピクセルに対応する奥行き値を割り当てる奥行き値割り当てユニット504、
とを有する。
奥行き値の割り当ては、比較的小さなセグメントに属するピクセルが比較的小さな奥行き値を割り当てられるように行われる。比較的小さな奥行き値は、対応するピクセルが、マルチビュー画像生成ユニット500によって生成されるマルチビュー画像の観察者に比較的近いということを意味する。
ある特定のセグメントの諸ピクセルは、互いに等しい大きさ値を割り当てられることができる。それぞれが同じ計算されたセグメントの大きさを表すのである。代替的には、ある特定のセグメントの諸ピクセルは異なる大きさ値を有する。ある特定のピクセルについての割り当てられた大きさ値を制御するパラメータは、その特定のピクセルが当該セグメントに属する確率に関係している。たとえば、その特定のピクセルが比較的小さなセグメントに属する確率が比較的高い場合、その大きさ値は比較的小さい。ある特定のピクセルについての割り当てられた大きさ値を制御する代替的なパラメータは、その特定のピクセルと輪郭線との間の距離に関係している。たとえば、その特定のピクセルと輪郭線上に位置するピクセルとの間の平均距離が比較的大きい場合、その特定のピクセルが当該セグメントに属する確率も比較的高い。セグメントの大きさ計算ユニット503は、時刻nにおける画像の座標x,yをもつ大きさ信号SF=S(x,y,n)を提供するよう構成される。これはピクセルごとに該ピクセルが属するセグメントの大きさを表す。
大きさ信号SFの計算後、奥行きマップが決定される。これは式(4)で規定される:
D(x,y,n)=F(SF(x,y,n)) (4)
ここで、D(x,y,n)は時刻nにおける画像の座標x,yをもつピクセルの奥行き値であり、関数F(j)は大きさ値SF(x,y,n)から奥行き値D(x,y,n)への線形または非線形変換である。関数F(j)は、大きさ値SF(x,y,n)に所定の定数をかける簡単なかけ算でもよい:
D(x,y,n)=αSF(x,y,n) (5)
あるいはまた、関数F(j)は大きさ値SF(x,y,n)に重み因子W(i)をかけるかけ算に対応する。この重み因子W(i)は好ましくは、考えているピクセルと該考えているピクセルの空間的近傍にある極大値をもつある第二のピクセルとの間の空間的な距離iに関係している。前記第二のピクセルはセグメントの中心に位置していると想定される。
D(x,y,n)=F(SF(x,y,n)) (4)
ここで、D(x,y,n)は時刻nにおける画像の座標x,yをもつピクセルの奥行き値であり、関数F(j)は大きさ値SF(x,y,n)から奥行き値D(x,y,n)への線形または非線形変換である。関数F(j)は、大きさ値SF(x,y,n)に所定の定数をかける簡単なかけ算でもよい:
D(x,y,n)=αSF(x,y,n) (5)
あるいはまた、関数F(j)は大きさ値SF(x,y,n)に重み因子W(i)をかけるかけ算に対応する。この重み因子W(i)は好ましくは、考えているピクセルと該考えているピクセルの空間的近傍にある極大値をもつある第二のピクセルとの間の空間的な距離iに関係している。前記第二のピクセルはセグメントの中心に位置していると想定される。
D(x′,y′,n)=W(x′,y′,x,y)SF(x,y,n) (6)
エッジ検出ユニット502、セグメント大きさ計算ユニット503、奥行き値割り当てユニット504およびレンダリングユニット506は、一つのプロセッサを使って実装されてもよい。通常、これらの機能はソフトウェアプログラムプロダクトの制御のもとで実行される。実行の間、通常はソフトウェアプログラムプロダクトはRAMのようなメモリに読み込まれ、そこから実行される。プログラムはROM、ハードディスクまたは磁気的および/もしくは光学式記憶のようなバックグラウンドメモリから読み込まれてもよいし、あるいはインターネットのようなネットワークを介して読み込まれてもよい。任意的に、特定用途向けIC(application specific integrated circuit)が開示されている機能性を提供する。
エッジ検出ユニット502、セグメント大きさ計算ユニット503、奥行き値割り当てユニット504およびレンダリングユニット506は、一つのプロセッサを使って実装されてもよい。通常、これらの機能はソフトウェアプログラムプロダクトの制御のもとで実行される。実行の間、通常はソフトウェアプログラムプロダクトはRAMのようなメモリに読み込まれ、そこから実行される。プログラムはROM、ハードディスクまたは磁気的および/もしくは光学式記憶のようなバックグラウンドメモリから読み込まれてもよいし、あるいはインターネットのようなネットワークを介して読み込まれてもよい。任意的に、特定用途向けIC(application specific integrated circuit)が開示されている機能性を提供する。
図5との関連で述べたマルチビュー画像生成ユニット500はビデオ画像を扱うよう設計されているが、本発明に基づく奥行きマップ生成ユニットの代替的な諸実施形態は個別の画像、すなわちスチール映像に基づいて奥行きマップを生成するよう構成される。
図6は、本発明に基づく画像処理装置600であって:
・入力画像を表すビデオ信号を受け取る受領ユニット602と、
・図5との関連で述べた、受け取った入力信号に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニット501と、
・前記マルチビュー画像生成ユニット501によって与えられるマルチビュー画像を表示するマルチビューディスプレイ装置606、
とを有する装置の実施形態を概略的に示している。
・入力画像を表すビデオ信号を受け取る受領ユニット602と、
・図5との関連で述べた、受け取った入力信号に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニット501と、
・前記マルチビュー画像生成ユニット501によって与えられるマルチビュー画像を表示するマルチビューディスプレイ装置606、
とを有する装置の実施形態を概略的に示している。
ビデオ信号はアンテナまたはケーブルを介して受信される放送信号であってもよいが、VCR(Video Cassette Recorder[ビデオカセットレコーダー])またはデジタル多用途ディスク(DVD: Digital Versatile Disk)のような記憶装置からの信号であってもよい。信号は入力コネクタ610にて与えられる。画像処理装置600はたとえばテレビでありうる。代替的に、画像処理装置600は、任意的なディスプレイ装置は含まず、出力画像をディスプレイ装置606を有する装置に提供する。その際、画像処理装置600はたとえばセットトップボックス、衛星チューナー、VCRプレーヤー、DVDプレーヤーまたはレコーダーなどでありうる。任意的に、画像処理装置600は、ハードディスクのような記憶手段または光ディスクなどのリムーバブル媒体上の記憶のための手段を有している。画像処理装置600は映画スタジオまたは放送事業者によって利用されるシステムであってもよい。
上述した実施形態が本発明を解説するものであって限定するものではなく、当業者は付属の請求項の範囲から外れることなく代替的な実施形態を設計できるであろうことを注意しておくべきであろう。請求項においては、括弧内に置かれた参照符号があったとしてもそれは請求項を限定するものと解釈してはならない。「有する」の語は請求項に挙げられていない要素またはステップの存在を排除しない。要素の単数形の表現はそのような要素の複数の存在を排除しない。本発明は、いくつかの相異なる要素を有するハードウェアによって、および好適にプログラミングされたコンピュータによって実装できる。いくつかの手段を列挙するユニット請求項においては、これらの手段のいくつかが同一のハードウェア項目によって具現されることもできる。第一、第二、第三などの語の使用は、いかなる順序も示さない。これらの語は名辞として解釈されるものとする。
Claims (11)
- 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する方法であって:
・画像を第一のセグメントと第二のセグメントにセグメント分割し、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、
ことを有することを特徴とする方法。 - 前記第一の大きさが、前記第一のセグメントのある第一の側から該第一のセグメントのある第二の側に伸びる線上に位置する隣接するピクセル(204〜208)の第一の数を決定することによって計算されることを特徴とする、請求項1記載の方法。
- 前記第一の大きさが、前記第一のセグメントのエッジ上に位置する輪郭線内に位置するピクセルの第二の数を数えることによって計算されることを特徴とする、請求項1記載の方法。
- 前記第一の大きさが確率値の集合を累積することによって計算されることを特徴とする、請求項1記載の方法。
- 前記確率値が、各ピクセルが前記第一のセグメントに属する確率を表すことを特徴とする、請求項4記載の方法。
- 前記集合が、前記第一のセグメントのある第一の側から該第一のセグメントのある第二の側に伸びる線上に位置する諸ピクセルに対応することを特徴とする、請求項5記載の方法。
- 前記確率値が、当該諸ピクセルの第一のものおよび当該諸ピクセルの第三のものが前記第一のセグメントに属する確率を表すことを特徴とする、請求項4記載の方法。
- 前記確率値の第一のものが、前記第一のセグメントの諸ピクセルのある第一のものと前記第一のセグメントのエッジ上に位置する輪郭線との間のさらなる距離に基づくことを特徴とする、請求項4記載の方法。
- 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
・画像を第一のセグメントと第二のセグメントにセグメント分割するセグメント分割手段と、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする割り当て手段、
とを有することを特徴とするユニット。 - ・画像に対応する信号を受け取る受領手段と、
・請求項1に記載のような奥行きマップを生成する奥行きマップ生成ユニット、
とを有することを特徴とする画像処理装置。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
・画像を第一のセグメントと第二のセグメントにセグメント分割し、
・前記第一のセグメントの第一の大きさに基づいて、前記第一のセグメントのピクセルの第一のものに対応する奥行き値の第一のものを割り当て、前記第二のセグメントの第二の大きさに基づいて、前記第二のセグメントのピクセルの第二のものに対応する奥行き値の第二のものを割り当て、前記第一の大きさが前記第二の大きさよりも小さければ前記奥行き値の第一のものが前記奥行き値の第二のものよりも小さいようにする、
こと実行する機能を与えることを特徴とする、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04100384 | 2004-02-03 | ||
PCT/IB2005/050269 WO2005076215A1 (en) | 2004-02-03 | 2005-01-24 | Creating a depth map |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007520822A true JP2007520822A (ja) | 2007-07-26 |
Family
ID=34833719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006551961A Pending JP2007520822A (ja) | 2004-02-03 | 2005-01-24 | 奥行きマップの生成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20080260288A1 (ja) |
EP (1) | EP1714251A1 (ja) |
JP (1) | JP2007520822A (ja) |
KR (1) | KR20060129371A (ja) |
CN (1) | CN1914643A (ja) |
WO (1) | WO2005076215A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9153066B2 (en) | 2011-11-17 | 2015-10-06 | Panasonic Intellectual Property Management Co. Ltd. | Image processing device, imaging device, and image processing method |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213711B2 (en) * | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
JP2009110137A (ja) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | 画像処理装置、画像処理方法及び画像処理プログラム |
KR101497503B1 (ko) * | 2008-09-25 | 2015-03-04 | 삼성전자주식회사 | 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치 |
EP2184713A1 (en) | 2008-11-04 | 2010-05-12 | Koninklijke Philips Electronics N.V. | Method and device for generating a depth map |
EP2353298B1 (en) * | 2008-11-07 | 2019-04-03 | Telecom Italia S.p.A. | Method and system for producing multi-view 3d visual contents |
EP2275990B1 (de) * | 2009-07-06 | 2012-09-26 | Sick Ag | 3D-Sensor |
US9030469B2 (en) | 2009-11-18 | 2015-05-12 | Industrial Technology Research Institute | Method for generating depth maps from monocular images and systems using the same |
US8659597B2 (en) * | 2010-09-27 | 2014-02-25 | Intel Corporation | Multi-view ray tracing using edge detection and shader reuse |
JP5355616B2 (ja) * | 2011-04-21 | 2013-11-27 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
JP5927570B2 (ja) * | 2011-04-22 | 2016-06-01 | パナソニックIpマネジメント株式会社 | 3次元撮像装置、光透過部、画像処理装置、およびプログラム |
CN102271268B (zh) * | 2011-08-09 | 2013-04-10 | 清华大学 | 多视点立体视频的深度序列生成方法和装置 |
US10510149B2 (en) | 2015-07-17 | 2019-12-17 | ams Sensors Singapore Pte. Ltd | Generating a distance map based on captured images of a scene |
WO2017023210A1 (en) | 2015-08-06 | 2017-02-09 | Heptagon Micro Optics Pte. Ltd. | Generating a merged, fused three-dimensional point cloud based on captured images of a scene |
TWI744245B (zh) | 2015-08-19 | 2021-11-01 | 新加坡商海特根微光學公司 | 產生具有減少過度平滑之視差圖 |
CN106981079A (zh) * | 2016-10-26 | 2017-07-25 | 李应樵 | 一种基于权重自适应立体深度调整的方法 |
-
2005
- 2005-01-24 KR KR1020067015722A patent/KR20060129371A/ko not_active Application Discontinuation
- 2005-01-24 CN CNA2005800038370A patent/CN1914643A/zh active Pending
- 2005-01-24 JP JP2006551961A patent/JP2007520822A/ja active Pending
- 2005-01-24 US US10/597,564 patent/US20080260288A1/en not_active Abandoned
- 2005-01-24 WO PCT/IB2005/050269 patent/WO2005076215A1/en not_active Application Discontinuation
- 2005-01-24 EP EP05702760A patent/EP1714251A1/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9153066B2 (en) | 2011-11-17 | 2015-10-06 | Panasonic Intellectual Property Management Co. Ltd. | Image processing device, imaging device, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
CN1914643A (zh) | 2007-02-14 |
KR20060129371A (ko) | 2006-12-15 |
EP1714251A1 (en) | 2006-10-25 |
WO2005076215A1 (en) | 2005-08-18 |
US20080260288A1 (en) | 2008-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7764827B2 (en) | Multi-view image generation | |
JP2007520822A (ja) | 奥行きマップの生成 | |
US8036451B2 (en) | Creating a depth map | |
US7787658B2 (en) | Creating a depth map | |
JP5587894B2 (ja) | 深さマップを生成するための方法及び装置 | |
JP4664432B2 (ja) | ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム | |
KR101249236B1 (ko) | 깊이 인식 | |
JP4762994B2 (ja) | 視差マップ | |
WO2006003577A1 (en) | Creating a depth map |