JP2006221603A - 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム - Google Patents
3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム Download PDFInfo
- Publication number
- JP2006221603A JP2006221603A JP2005153965A JP2005153965A JP2006221603A JP 2006221603 A JP2006221603 A JP 2006221603A JP 2005153965 A JP2005153965 A JP 2005153965A JP 2005153965 A JP2005153965 A JP 2005153965A JP 2006221603 A JP2006221603 A JP 2006221603A
- Authority
- JP
- Japan
- Prior art keywords
- projection point
- parallax
- similarity
- image
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
【課題】 撮影された複数の物体の画像から、物体の形状や位置などの3次元情報を高速に復元する。
【解決手段】 画像入力部101で撮影された複数の画像を用いて探索空間計算部103で、画像間の視差候補を探索する範囲を計算する。次に、類似度計算部104aで、任意の視差候補に対して、探索空間計算部103で定まる探索範囲内で、基準画像上の投影点と別画像上の投影点との間の類似度を計算する。その際、類似度計算部104aは自身で計算した基準画像上の画素と別画像上の画素の輝度の積和をメモリ104cに記憶しておき、これを用いて別の基準画像上の投影点とそれに対応する別画像上の投影点の間の類似度を求める。次に視差検出部104bで、基準画像上の投影点ごとに類似度が最大となる視差を求め、これを用いて3次元位置計算部105で物体の3次元位置を計算する。
【選択図】 図1
【解決手段】 画像入力部101で撮影された複数の画像を用いて探索空間計算部103で、画像間の視差候補を探索する範囲を計算する。次に、類似度計算部104aで、任意の視差候補に対して、探索空間計算部103で定まる探索範囲内で、基準画像上の投影点と別画像上の投影点との間の類似度を計算する。その際、類似度計算部104aは自身で計算した基準画像上の画素と別画像上の画素の輝度の積和をメモリ104cに記憶しておき、これを用いて別の基準画像上の投影点とそれに対応する別画像上の投影点の間の類似度を求める。次に視差検出部104bで、基準画像上の投影点ごとに類似度が最大となる視差を求め、これを用いて3次元位置計算部105で物体の3次元位置を計算する。
【選択図】 図1
Description
本発明は、3次元情報復元装置および3次元情報復元方法に係り、特に複数の撮影手段により撮影された画像から、撮影された物体の各画像上における視差を求めることにより、物体の3次元形状や物体までの距離といった3次元情報を復元する3次元情報復元装置
、3次元情報復元方法および3次元情報復元プログラムに関する。
、3次元情報復元方法および3次元情報復元プログラムに関する。
従来から、自律作業ロボットや自動走行車を実現するために不可欠な技術として、物体の3次元形状や障害物の3次元位置を計測する3次元情報復元装置の技術が開発されてきた。特に、複数のTVカメラを用いて対象空間の3次元情報をステレオ視に基づいて復元する3次元情報復元装置は、取得する画像の解像度を高くできることや計測精度の点で優れていること、また比較的安価に実現できることなどから有効な方法として広く利用されている。
例えば、複数のカメラにより取得された複数の画像から選択された1枚の基準画像上の任意の投影点と、他の画像上における対応する投影点との間の視差を求めることにより3次元情報を復元する方法として、撮影された各画像に表れた基準面(例えば、道路や床など)よりも物体が上に存在することを利用して視差の探索範囲を制限し、高速に3次元情報を復元する方法が知られている(例えば、特許文献1を参照。)。
ここで、各画像間における対応点の探索を正確に行うためには、真の対応点と類似した輝度パターンを持つ投影点との間で誤った対応づけが生じることを防ぐために、類似度を計算するためのウィンドウを大きく設定する必要がある。しかし、このような場合に類似度計算を効率的に行うことにより、高速に3次元情報を復元する方法については、これまで十分な検討が行われていなかった。
また、自律作業ロボットや自動走行車への応用のためには、複数のカメラから時系列で静止画像データを受け取り、実時間で3次元情報を復元していく機能が必要となる。しかし、このような実時間処理が可能な3次元情報復元装置については、これまで十分な検討が行われていなかった。
特開2002−163639号公報(頁7、図4)
上述したように、従来の3次元情報復元装置には、基準画像上の投影点と別画像上の対応する投影点の間の類似度を効率的に計算するものは存在しなかった。
また上述したように、従来の3次元情報復元装置では、カメラから時系列で送られる静止画像データを実時間で処理して3次元情報を復元するものは存在しなかった。
本発明は、上記従来の要望に鑑みてなされたものであって、任意の視差候補に対して基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算する場合に、すでに計算した基準画像上の画素と別画像上の対応する画素との間の輝度の積和を記憶しておき、これを用いて別の基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算することにより、高速に3次元情報を復元することを可能とする3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラムを提供することを目的とする。
また、本発明は、過去に撮影された画像から復元された3次元情報に基づいて、視差探索の細かさを定めることにより、高速に3次元情報を復元することを可能とする3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラムを提供することを目的とする。
上記目的を達成するために、本発明の3次元情報復元装置は、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段によって撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元装置であって、前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算手段と、前記探索範囲計算手段で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算手段と、前記基準画像上の投影点(x,y)について、前記類似度計算手段で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出手段とを備え、前記類似度計算手段は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算することを特徴とする。
また、本発明の3次元情報復元方法は、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−yd)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元方法であって、前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算ステップと、前記探索範囲計算ステップで定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算ステップと、前記基準画像上の投影点(x,y)について、前記類似度計算ステップで算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出ステップとを有し、前記類似度計算ステップでは、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算することを特徴とする。
また、本発明の3次元情報復元プログラムは、コンピュータに、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の対応する投影点(x´,y´)との間の類似度C(x,y,d)から求めさせる3次元情報復元プログラムであって、前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算機能と、前記探索範囲計算機能で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算機能と、前記基準画像上の投影点(x,y)について、前記類似度計算機能で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出機能とを備え、前記類似度計算機能は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算することを特徴とする。
本発明によれば、任意の視差候補に対して基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算する場合に、一度計算した基準画像上の画素と別画像上の対応する画素との間の輝度の積和をメモリに記憶しておき、基準画像上の新たな投影点と別画像上の対応する新たな投影点との間の類似度を、メモリに記憶した輝度の積和を用いて計算することにより、高速に3次元情報を復元することが可能となる。
以下、本発明の実施形態について説明する。
はじめに、ステレオ視に基づく3次元情報の復元方法について、図3を用いて簡単に説明する。ここでは簡単のため、図3(a)に示すように2つのカメラを左右に配置して3次元空間を撮影し、カメラから得られた左右の画像情報から、各画像に表れた3次元空間中の物体などの存在位置(X,Y,Z)を求めるものとする。
図3(a)のように左右に配置されたカメラで3次元空間を撮影すると、3次元空間中の同一点であっても、2つのカメラから得られる左右の画像上では、図3(b)に示すように、その投影点は各画像上の異なった位置に表れる。このような3次元空間中の同一点の各画像間における表示位置のズレを視差と呼ぶ。ここで、左右の画像間に表れる視差は、その点の3次元空間中の存在位置により異なる。そこで、撮影された一方の画像を基準画像とし、基準画像上に表れた各投影点に対応する投影点を他方の画像上から探索して、その視差を求めれば、三角測量の原理に基づいて、基準画像上に表れた各投影点の3次元空間中の存在位置(X,Y,Z)を求めることが可能となる。そして、基準画像上に表れたすべての投影点について、その3次元空間中の存在位置を求めることにより、3次元空間中の物体などの存在位置を復元することが可能となる。
このように、三角測量の原理に基づいて基準画像上に表れた各投影点の3次元空間中の存在位置(X,Y,Z)を求めるためには、まず基準画像上の各投影点について、他方の画像上で対応する投影点を探索し、その視差を求める必要がある。ここで、ステレオ画像上においては、図4に示すように左側カメラからの左画像を基準画像とすると、その基準画像上の投影点Pの右側カメラからの右画像上における対応する投影点P´は、同図に示すエピポーララインと呼ばれる線上にある。そのため基準画像上の投影点Pに対して、エピポーラライン上で対応する投影点P´を探索し、投影点Pと投影点P´から視差を求めれば、基準画像上における任意の点について3次元情報を復元することが可能になる。
ここで、上述した基準画像上の投影点Pに対応する別画像上における投影点P´の探索は、基準画像上の投影点Pと右画像上のエピポーラライン上の各投影点との間で類似度を計算し、その類似度が最大となる点を求めることにより行うことができる。具体的には、図5に示すように、投影点Pを中心とする一定の範囲(ウィンドウ)内の各画素における輝度と、エピポーラライン上の各点を中心とするウィンドウ内の各画素における輝度との間で類似度を求め、この類似度が最大となる投影点P´を対応点とすればよい。
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる3次元情報復元装置を示すブロック図である。この第1の実施形態に係わる3次元情報復元装置は、画像入力部101、画像蓄積部102、探索空間計算部103、視差計算部104、3次元位置計算部105、出力部106などによって構成されている。また、視差計算部104は、類似度計算部104a、視差検出部104bおよびメモリ104cによって構成されている。
図1は、本発明の第1の実施形態に係わる3次元情報復元装置を示すブロック図である。この第1の実施形態に係わる3次元情報復元装置は、画像入力部101、画像蓄積部102、探索空間計算部103、視差計算部104、3次元位置計算部105、出力部106などによって構成されている。また、視差計算部104は、類似度計算部104a、視差検出部104bおよびメモリ104cによって構成されている。
画像入力部101は、3次元空間中に存在する物体を撮影する機能を有する複数のカメラによって構成される。ここでは簡単のため、画像入力部101は図6に示すように、左右に平行に設置された2台のカメラによって構成されているものとする。すなわち、3次元空間の座標系の原点を左右カメラの視点(レンズ中心)にとり、左右のカメラの視点を結ぶ直線をX軸、上下方向にY軸(下方向が正方向)、カメラ光軸方向にZ軸を設定すると、左右のカメラの位置はそれぞれ(−B,0,0)、(B,0,0)と表すことができるものとする。また、道路や床といった基準面は、このようにして定められた3次元座標上ではY=Y0と表されるものとする。
画像蓄積部102は、画像入力部101で撮影された画像データを記憶する機能を有し、例えば、半導体メモリ、ハードディスク、CD−R、CD−RW、DVD−R、DVD−RAM,DVD−Rなどが用いられる。
探索空間計算部103は、画像蓄積部102に記憶された複数の画像データから視差の探索範囲を計算する機能を有する。
視差計算部104は、類似度計算部104a、視差検出部104bおよびメモリ104cによって構成される。類似度計算部104aは、すべての視差候補dに対して、左(第1)カメラから得られた左画像(以下、基準画像と称する)上の投影点(x,y)と右(第2)カメラから得られた右画像(以下、別画像と称する)上の対応する投影点(x´,y´)との間の類似度を計算する機能を有する。視差検出部104bは、類似度計算部104aで計算された類似度から、基準画像上の投影点ごとに視差を検出する機能を有する。メモリ104cは、類似度計算部104aで計算された基準画像上の画素と別画像上の対応する画素の間の輝度の積和を記憶する機能を有する。
3次元位置計算部105は、視差計算部104で計算された視差に基づいて、画像上に表れた3次元空間中の物体などの存在位置を計算する機能を有する。
出力部106は、3次元位置計算部105で計算された物体などの3次元位置を表示する機能を有する。例えば、CRTディスプレイや液晶ディスプレイなどが用いられる。
次に、第1の実施形態に係る3次元情報復元装置の動作について、図1および図2を用いて説明する。図2は、第1の実施形態の動作を示すフローチャートである。
まず、画像入力部101において、2台のカメラによって3次元空間中の物体などの画像が撮影され、左右2台のカメラから得られた複数の画像は画像蓄積部102に送られる(ステップS101)。
画像入力部101から送られた複数の画像は、画像蓄積部102において記憶される(ステップS102)。
探索空間計算部103は、3次元空間中の物体が基準面よりも上方に存在することを利用して、画像蓄積部102に記憶された複数の画像データから視差の探索範囲を計算する(ステップS103)。以下、左右2台のカメラと基準面との幾何学的関係に基づいて、視差探索範囲を定める方法について説明する。
ここで本実施形態では、上述したように2台のカメラは左右に平行に設置しているため、基準画像上の任意の投影点に対する別画像上におけるエピポーララインはy=y´と仮定している。
ここで、図7(a)に示すような基準画像上の投影点(x,y)と視差候補dで構成される(x−y−d)3次元空間Vを考えると、(6)式で表される領域は、図7(a)に示す平面π:y=Y0d/2Bによって分割される2つの空間のうち、上側の空間(すなわち、カメラが存在する空間)を表す。図7(b)は、(x−y−d)3次元空間Vをy−d平面に平行な面で切ったときにできる断面を表したものである。この場合、図7(b)に斜線で示された部分が(6)式を満たす領域である。
そして、(x−y−d)3次元空間Vの中で(6)式を満たさない領域は、実空間では床や道路などの基準面よりも下側の空間、すなわち物体が存在しない空間であるので、この空間は、視差の探索空間から排除することができる。一方、(x−y−d)3次元空間Vの中で(6)式を満たす領域は、実空間では基準面よりも上側の空間となるため、この領域を視差の探索空間とすればよい。
探索空間計算部103は、このようにして定まる視差を求めるための探索空間情報を視差計算部104に送る。
視差計算部104では、まず類似度計算部104aが、すべての視差候補dに対して、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度を計算する(ステップS104)。
ここで視差候補dは、d=0(すなわち視差なし)から、あらかじめ定めた視差の最大値dMaxまでの間を、適当な間隔Δdで分割することによって定める。視差候補の間隔Δdを小さく設定すれば、視差を詳細に探索することが可能になり、例えば、Δdを1とすれば、視差を1画素単位で求めることが可能になる。
また、ここでは類似度として、正規化相互相関(例えば、浅田:「ダイナミックシーンの理解」、電子情報通信学会、pp.12−14参照)を用いるものとする。以下、正規化相互相関により、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度を計算する方法について説明する。
まず、図8に示すように、基準画像上の投影点P(x,y)と別画像上の投影点P´(x´,y´)のそれぞれを中心とする(2w+1)×(2w+1)サイズの2つのウィンドウを考える。ここで、基準画像上の投影点P(x,y)における画素の輝度をf(x,y)、別画像上の投影点P´(x´,y´)における画素の輝度をg(x´,y´)とする。このとき類似度である正規化相互相関C(x,y,d)は、d=x−x´およびy=y´であることを用いて、(7)式により求めることができる。
ここでS1およびS2は、それぞれ、各画像におけるウィンドウ内の画素の輝度fおよび輝度gの総和を表し、S11およびS22は、それぞれ、各画像におけるウィンドウ内の画素の輝度fおよび輝度gの自乗の総和を表す。これらS1、S2、S11、S22は、視差候補dによらず計算しておき、類似度計算部104aにおいて、各ウィンドウについてあらかじめ計算してメモリ104cに記憶しておけば、視差候補dを変化させた場合に再度計算する必要がなく、高速な類似度の計算が可能となる。
一方、S12は各画像のウィンドウ内の対応する画素間の輝度の積和であるため、ウィンドウ内の各画素の輝度のみならず、視差候補dにも依存する値となる。
すなわち、(11)式と(13)式から、S12(x,y,d)とS12(x−1,y,d)は、M(x−w,y,d)からM(x−1+w,y,d)の項が共通していることがわかる。これらの共通した項は、図9に示すように、投影点(x,y)と投影点(x−1,y)との間のウィンドウが重複した部分に由来するものである。
したがって、類似度計算部104aにおいてS12(x−1,y,d)を計算した際に求めた、M(x−w,y,d)からM(x−1+w,y,d)の値をメモリ104cに記憶しておけば、次にS12(x,y,d)を計算する際に、あらたにM(x+w,y,d)のみを計算して、その値と先にメモリ104cに記憶した値を(13)式に代入することによってS12(x,y,d)を求めることができ、効率的な計算が可能になる。
したがって、類似度計算部104aにおいてS12(x−1,y,d)を計算した際に、既に計算してあるM(x−1−w,y,d)とS12(x−1,y,d)をメモリ104cに記憶しておけば、次にS12(x,y,d)を計算する際に、あらたにM(x+w,y,d)のみを計算して、その値と先にメモリ104cに記憶した値を(14)式に代入することによってもS12(x,y,d)を求めることが可能である。
そして、さらにS12(x,y,d)を計算した際に求めた、S12(x,y,d)と既に計算してあるM(x−w,y,d)をメモリ104cに記憶しておけば、さらに1画素だけ隣の投影点(x+1,y)についてS12(x+1,y,d)を計算する際に、M(x+1+w,y,d)のみを計算すればよいことになる。そして、その値と先にメモリ104cに記憶した値を(10)式に代入すれば、視差候補dにおける投影点(x+1,y)の正規化相互相関C(x+1,y,d)を求めることが可能になる。
このように、類似度計算部104aにおいて、S12(x,y,d)が計算されるたびに、S12(x,y,d)およびM(x+w,y,d)をメモリ104cに記憶すれば、一度計算された画素間の輝度の積和を再度計算する必要がなくなるため、効率的に類似度の計算を行うことが可能になる。
そこで、図10に示すフローチャートを用いて、類似度計算部104aにおいて、すべての視差候補dに対して正規化相互相関C(x,y,d)を効率的に求める方法について説明する。
まず、ステップS201では、視差候補dによらず計算することができるS1、S2、S11、S22を求め、メモリ104cに記憶する。
次に、ステップS202では、視差候補dとして一定の初期値d0が設定される。初期値は、例えば、d0=0とすればよい。
ステップS203では、基準画像上の一定の投影点(x,y)=(x0,y0)が初期値として設定される。初期値は、例えば(x,y)=(0,0)とすればよい。
次に、ステップS204では、(14)式に基づいて、S12(x,y,d)が計算される。ここで、上述したように、S12(x−1,y,d)およびM(x−1−w,y,d)が、すでにメモリ104cに記憶されていれば、あらたにM(x+w,y,d)のみを計算し、これらを(14)式に代入してS12(x,y,d)を求める。
ステップS204で求められたS12(x,y,d)およびM(x+w,y,d)は、ステップ205でメモリ104cに記憶される。
次に、ステップS206では、メモリ104cに記憶されたS1、S2、S11、S22およびS12(x,y,d)を(10)式に代入して正規化相互相関C(x,y,d)が求められる。このように、すでに一度計算されたウィンドウ間の画素間の輝度の積和をメモリ104cに記憶しておき、これを用いて正規化相互相関を計算することにより、効率的に類似度を計算していくことが可能になる。
次にステップS207では、基準画像上の投影点(x,y)が1画素だけシフトされる。
次にステップS208では、投影点が1画素だけシフトした新たな基準画像上の投影点(例えば、x+1,y)が、探索空間計算部103で求められた(6)式を満たす探索空間に含まれているか否かが判定される。すなわち、視差候補がdである場合、図11に斜線で示される領域が探索空間Φとなるため、基準画像上の投影点(x+1,y)が図12(a)に示すように探索空間Φの外にあればステップS209に進み、図12(b)に示すように探索空間Φの内にあれば、ステップS204に戻る。そして、ステップS204では、1画素だけシフトした投影点間の正規化相互相関Cが計算される。このステップS204〜S208による計算は、視差候補がdである探索空間Φにおいて繰り返し実行される。
次にステップS209では、視差候補dに対して、基準画像上のすべての投影点について正規化相互相関Cが計算されたか否かが判定される。そして、視差候補dについて、すべての投影点についての計算が完了した場合にはステップS210に進み、計算が完了していなければステップS207に戻る。
次にステップS210では、すべての視差候補についての処理が完了したか否かが判定される。すなわち、視差候補dが、あらかじめ定めた視差候補の最大値dMAXに達したか否かが判定される。視差候補dがdMAXに達していない、すなわち、すべての視差候補についての処理が完了していなければステップS211へ進む。逆に、視差候補dがdMAXに達している、すなわち、すべての視差候補についての処理が完了していれば処理を終了する。
次にステップS211では、視差候補dが1画素だけシフトされ(すなわちd=d+1)、ステップS203に戻る。そして、視差候補が1画素だけシフトした時の各投影点間の正規化相互相関Cが上述した同じ手順により計算される。このステップS203〜S211による計算は、すべての視差候補に対して繰り返し実行される。
以上のようなフローチャートにしたがって、類似度計算部104aにおいて、すべての視差候補dに対して正規化相互相関Cを求めれば、基準画像上の隣り合う投影点について、ウィンドウが重複する部分で基準画像上の投影点の画素と、対応する別画像上の投影点の画素の間で輝度の積和を繰り返して計算する必要がなくなり、効率的で高速な類似度の計算を実現することが可能になる。さらに、探索空間計算部103で求まる視差探索範囲に基づいて、探索範囲外の基準画像上の投影点については類似度の計算を行わないため、高速な処理を実現することが可能になる。
視差検出部104bは、類似度計算部104aで得られた視差候補ごとの類似度を用いて、基準画像上の各投影点における視差Dを決定する(ステップS105)。基準画像上の投影点(x,y)についての視差Dは、類似度計算部104aで得られた正規化相互相関C(x,y,d)が、視差候補dについて最大となる視差とすればよい。すなわち視差Dは、正規化相互相関C(x,y,d)から、(15)式によって求めることができる。
この(15)式により得られた基準画像上の各投影点の視差Dは、次に3次元位置計算部105に送られる。
3次元位置計算部105では、視差計算部104で得られた基準画像上の各投影点の視差Dから、基準画像上に表れた物体などの3次元空間中の存在位置(X,Y,Z)を計算する(ステップS106)。3次元空間中の存在位置(X,Y,Z)は、基準画像上の投影点(x,y)および視差計算部104で得られた視差Dを用いて、(2)式によって求めることができる。
出力部106では、3次元位置計算部105で得られた画像上の各点の3次元位置が出力される(ステップS107)。出力部106としては、例えばCRTディスプレイや液晶ディスプレイを用いることができる。
このように第1の実施形態に係る3次元情報復元装置によれば、基準画像上の任意の投影点と別画像上における対応する投影点との間の類似度を計算する際に、基準画像上の点を含む一定の大きさのウィンドウと、別画像上における対応する投影点を含む同じ大きさのウィンドウとの間の対応する各画素間の輝度の積和をメモリ104cに記憶しておき、視差探索範囲における新たに基準画像上の別の投影点と、別画像上における対応する投影点との間の類似度を計算する場合に、前記メモリ104cに記憶された各画素間の輝度の積和を用いて類似度を計算することにより、高速に視差の探索を行うことが可能となる。
なお、上述した実施形態では、類似度として正規化相互相関を用いたが、類似度は(16)式に示すように、基準画像上の画素と別画像上の対応する画素の間の輝度の差の絶対値の総和Dsadであってもよく、(17)式に示すように、輝度の差の自乗の総和Dssdであってもよい。
これらの類似度を用いる場合であっても、基準画像上の任意の投影点と別画像上における対応する投影点との間の類似度を計算する際に、基準画像上の画素と別画像上の対応する画素の間の輝度の積和をメモリ104cに記憶しておき、新たに基準画像上の別の投影点と、別画像上における対応する投影点との間の類似度を計算する場合に、前記メモリ104cに記憶された各画素間の輝度の積和を用いて類似度を計算することにより、再度、各ウィンドウ内の対応する画素の輝度の積和を計算する必要がなくなり、効率的に類似度の計算をすることが可能になる。
また、上述した実施形態では、左右に平行に設置された2台のカメラを用いて左右の画像を撮影しているが、1台のカメラのみを用いてこれらの画像を撮影することも可能である。この場合、まず図6において(−B,0,0)の位置にカメラを配置して左画像(基準画像)を撮影し、次に、このカメラを(B,0,0)の位置に移動させて右画像を撮影すればよい。このようにすることで、1台のカメラをのみを用いて2台のカメラを用いた場合と同様の画像を撮影することが可能になる。
また、上述した実施形態では、基準面の方程式(Y=Y0)が既知であるとして説明したが、基準面の方程式は撮影された画像から求めることが可能であり、その求めた方程式から視差Dの探索範囲を計算することも可能である。
以下では、撮影された画像から基準面の方程式を求める方法の一例として、2台のカメラを用いて撮影された画像上において、基準面上に表れた2本の線(例えば、道路面上の白線)から基準面の方程式を算出する方法について説明する。
図13に示すように、左右の画像上に2本の線が表れており、左画像(基準画像)上の2つの線をそれぞれL1およびL2、右画像(別画像)上の2つの線をそれぞれL1´およびL2´とする。また、線L1およびL1´の各画像上における方程式を、それぞれx=a1y+b1およびx´=a1´y´+b1´とする。ここで、前述したように左右のカメラが平行に設置されている場合には、(1)式に示すようにy=y´という関係が成り立つので、線L1上の任意点は(x,y)=(a1t+b1,t)および線L1´上の対応する任意点(x´,y´)=(a1´t+b1´,t)とすることができる。ただし、tは任意のパラメータである。
(19)式と(20)式を(α,β,γ)について解けば、基準面の方程式を求めることができる。
上述した第1の実施形態によれば、基準面の方程式を撮影された画像から求めることができるため、例えば撮影している複数のカメラが外部からの振動などによって動き、基準面が時々刻々と変化する場合であっても、視差の探索範囲を正確に求めることが可能になる。
また、上述した第1の実施形態では基準面をY軸に垂直な平面としたが、基準面は平面である必要はなく、曲面であっても同様の方法によって高速に3次元情報を復元することが可能である。
なお、この3次元情報復元装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることで実現することも可能である。すなわち、探索空間計算部103、類似度計算部104a、視差検出部104bおよび3次元位置計算部105は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、3次元情報復元装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、画像蓄積部102およびメモリ104cは、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
(第2の実施形態)
第1の実施形態では、類似度計算部104aにおいて、すべての視差候補について、探索範囲内の基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算していた。しかし、撮影された画像に表れた物体の3次元位置や3次元形状を復元することを目的とする場合には、物体部分では視差を正確に探索する一方、背景部分では視差を荒く探索することで、視差の探索のために必要となる計算量を減らすことができ、より高速な3次元情報の復元が可能となる。
第1の実施形態では、類似度計算部104aにおいて、すべての視差候補について、探索範囲内の基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算していた。しかし、撮影された画像に表れた物体の3次元位置や3次元形状を復元することを目的とする場合には、物体部分では視差を正確に探索する一方、背景部分では視差を荒く探索することで、視差の探索のために必要となる計算量を減らすことができ、より高速な3次元情報の復元が可能となる。
ここで、複数のカメラから時系列で画像入力部101に静止画像データが入力され、各時刻ごとに静止画像データから3次元情報を復元する場合を考える。この場合、複数のカメラで撮影された画像に移動物体がまったく含まれていなければ、各時刻の静止画像データを用いて得られる基準画像上の投影点と別画像上の対応する投影点との間の視差は、時刻によらず一定となる。また、撮影された画像に移動物体が含まれている場合であっても、連続する静止画像データ間では、その移動物体の静止画像上の表示位置は近いと考えられるため、各時刻の静止画像データを用いて得られる基準画像上の投影点と別画像上の対応する投影点との間の視差も、連続する時刻では近いものとなる。
そこで、まずある時刻(t)の静止画像データを用いて基準画像上の投影点と別画像上の対応する投影点との間の視差を求め、次にその視差から静止画像データに表れた物体の3次元空間中の存在位置を求める。そして、次の時刻(t+1)の静止画像データから基準画像上の投影点と別画像上の対応する投影点との間の視差を求める場合に、過去の時刻の静止画像データから求められた移動物体の存在位置の周辺では視差を正確に探索し、一方、それ以外の部分では視差を荒く探索する。このようにすることで、移動物体についての視差が正確に求められ、かつ視差探索のための計算量も削減することができ、高速な3次元情報の復元が可能となる。
図14は、本発明の第2の実施形態に係わる3次元情報復元装置を示すブロック図である。
この第2の実施形態に係わる3次元情報復元装置は、画像入力部201、画像蓄積部202、探索空間計算部203、探索評価値計算部204、視差計算部205、3次元位置計算部206、出力部207などから構成されている。また、視差計算部205は、類似度計算部205a、視差検出部205bおよびメモリ205cから構成されている。
探索評価値計算部204は、過去に視差計算部205で求められた視差から物体の存在位置を求め、これに基づいて視差探索の評価値(視差探索の細かさ、視差探索の精度)を決定する機能を有する。その他の各部の構成については、第1の実施形態の対応するものと同じであるので説明を省略する。
次に、第2の実施形態に係る3次元情報復元装置の動作について図14を用いて説明する。なお、探索空間計算部203、3次元位置計算部206、出力部207の動作については、第1の実施形態と同じであるので説明を省略する。
まず、画像入力部201において、左右2台のカメラによって3次元空間中の物体などの画像が一定の時間間隔で撮影され、撮影された複数の画像は画像蓄積部202に送られる。
画像入力部201から送られた複数の画像は、時系列データとして画像蓄積部202において記憶される。
探索評価値計算部204は、過去に視差計算部205で求められた視差から物体の存在位置を求め、これに基づいて視差探索の評価値を決定する。以下、図15乃至図18を用いて、過去に求められた視差から視差探索の評価値を決定する方法について説明する。ここでは簡単のため、2台のカメラに対して図15に示すように斜め方向に歩行者が歩いている画像が撮影されているものとする。
図15に示すように、平行に設置された左右2台のカメラで3次元空間を撮影する場合、3次元座標中の2点(X,Y,Z)と(X,Y+ΔY,Z)は、図16に示すように、左右の画像上では、その視差は等しくなる。したがって、歩行者が図15に示すようにY−Z平面に対して垂直方向に立っていれば、左右2台のカメラで撮影された画像上では、歩行者に対応する基準画像上の投影点における視差はほぼ等しくなると考えられる。そのため、歩行者が含まれている撮影画像について視差を探索した場合には、撮影された画像上に歩行者が含まれていることによって、歩行者に対応する特定の視差が多く検出されることになる。そこで、ある時刻(t)の基準画像上の各投影点における視差の頻度分布を求めると、図17に示すように、歩行者に対応する視差の頻度が高くなる。したがって、この頻度分布を用いれば、頻度の高い視差に対応する位置に歩行者が存在すると知ることが可能になる。
そこで、次の時刻(t+1)の静止画像から視差を探索する場合には、前の時刻(t)の視差の頻度分布を用いて、視差の頻度の高い視差候補については詳細に視差の探索を行い、これ以外の部分については荒く視差の探索を行うことで、視差探索のための計算量を削減しながら、歩行者が存在する部分については正確に視差を求めることができる。
具体的には、前の時刻(t)の基準画像の各投影点に対する視差から、まず視差の頻度分布を求める。ここで視差dに対する頻度をP(d)とする。次に、図18に示すように、視差の頻度P(d)について適切な閾値PTHを設定し、(22)式を満たす範囲では視差探索の評価値を荒く、それ以外の部分では視差探索の評価値を細かくして計算するように制御する。
以上のようにして求めた視差探索の評価値の情報は、視差計算部205に送られる。具体的には、各視差候補dに対して(22)式を満たすか否かの判定を行い、視差候補ごとに(22)式を満たす場合には「1」、満たさない場合には「0」とする情報を視差計算部104に送る。
視差計算部205では、まず類似度計算部205aで、視差候補dに対して、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度が計算される。以下では、図19に示すフローチャートを用いて、類似度計算部205aにおいて、探索評価値計算部204で求まる視差探索の評価値Kに基づいて類似度を計算する方法を説明する。ここでは類似度として、上述した正規化相互相関Cを用いるものとする。なお、図19に示すフローチャートは、第1の実施形態における図10に示すフローチャートと、S311において、視差探索の評価値Kに基づいて視差候補dをシフトする点が異なる。そこで、以下では、図10に示すフローチャートと共通するステップ(S301〜S310)については説明を省略する。
ステップS311では、まず視差候補dの探索の評価値Kが調べられる。視差候補dに対して探索評価値計算部204から送られる探索の評価値Kが「0」、すなわち細かい評価値で探索する必要がある場合には、dを1画素だけシフトする(すなわちd=d+1)。一方、探索評価値計算部204から送られる探索の評価値Kが「1」、すなわち荒い評価値で探索する場合には、dをあらかじめ定めたN画素だけシフトする(すなわちd=d+N)。そして、視差候補が1画素又はN画素だけシフトした時の各投影点間の正規化相互相関Cが上述した同じ手順により計算される。ステップS303〜S311による計算は、探索の評価値Kに応じてすべての視差候補に対して繰り返し実行される。
このようにすることで、探索評価値計算部204において、物体の存在する可能性が高いと判定された視差候補については正確に視差が探索され、一方、それ以外の視差候補については、荒い評価値で視差が探索されることになり、視差の探索のための計算量を削減することができる。
次に視差検出部205bは、類似度計算部205aで求められた視差候補ごとの類似度を用いて、基準画像上の各投影点における視差を決定する。基準画像上の投影点(x,y)についての視差Dは、類似度計算部205aで得られた正規化相互相関C(x,y,d)が、視差候補dについて最大となる視差とすればよい。すなわち視差Dは、正規化相互相関C(x,y,d)から、(15)式によって求めることができる。なお、視差の検出は類似度計算部205aで探索された視差候補についてのみ行えばよい。
以上が視差計算部205の動作であり、視差計算部205で計算された最新の視差の情報は、3次元位置計算部206に送られるとともに、探索評価値計算部204にも送られる。
このように第2の実施形態に係る3次元情報復元装置によれば、過去の時刻の静止画像データから求められた物体の存在位置の周辺では視差を正確に探索し、一方、それ以外の部分では視差を荒く探索することで、物体についての視差が正確に求められ、かつ視差探索のための計算量も削減することができ、高速な3次元情報の復元が可能となる。
(第3の実施形態)
第1の実施形態では、類似度計算部104aにおける基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度は、基準画像上の投影点(x,y)を含むあらかじめ定めた一定の大きさのウィンドウと、別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で正規化相互相関C(x,y,d)を計算することにより求めていた。
第1の実施形態では、類似度計算部104aにおける基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度は、基準画像上の投影点(x,y)を含むあらかじめ定めた一定の大きさのウィンドウと、別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で正規化相互相関C(x,y,d)を計算することにより求めていた。
ここで、基準画像上の投影点(x,y)に対応する別画像上の投影点(x´,y´)を正確に求めるためには、より大きなウィンドウを用いたほうが、より多くの情報に基づいて投影点間の対応づけをすることが可能になるため望ましい。しかし一方で、ウィンドウ内に異なる視差を有する領域が多くなると、投影点間の対応づけを誤る場合がある。したがって、基準画像上の投影点(x,y)に対応する別画像上の投影点(x´,y´)を正確に求めるためには、投影点ごとに適切な大きさのウィンドウを設定することが望ましい。すなわち、例えば、平坦な画像領域では大きなウィンドウを設定し、凹凸の多い画像領域では小さなウィンドウを設定するとよい。
そこで第3の実施形態では、基準画像上の投影点ごとに、その投影点を含む一定の範囲内の画素の輝度変動に基づいてウィンドウの大きさを決定し、そのウィンドウを用いて投影点間の類似度を求める実施の形態について説明する。
図20は、本発明の第3の実施形態に係わる3次元情報復元装置を示すブロック図である。この第3の実施形態に係わる3次元情報復元装置は、画像入力部301、画像蓄積部302、探索空間計算部303、ウィンドウ決定部304、視差計算部305、3次元位置計算部306、出力部307などによって構成されている。また、視差計算部305は、類似度計算部305a、視差検出部305bおよびメモリ305cによって構成されている。
つまり、第1の実施形態とは、ウィンドウ決定部304を備える点が異なる。したがって、第1の実施形態に係わる3次元情報復元装置と共通の動作を行なう部分(画像入力部301、画像蓄積部302、探索空間計算部303、3次元位置計算部306および出力部307)については、説明を省略する。
次に図20および図21を用いて、本発明の第3の実施形態に係わる3次元情報復元装置の動作について説明する。なお、図21は、本発明の第3の実施形態に係わる3次元情報復元装置の動作を示すフローチャートである。
ウィンドウ決定部304は、基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の画素の輝度変動から、基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度C(x,y,d)を計算するためのウィンドウの大きさを決定する(ステップS404)。
ウィンドウ決定部304は、(23)式によって得られた基準画像上の投影点(x,y)の輝度変動σ(x,y)2に基づいて、投影点(x,y)ごとに、類似度C(x,y,d)を計算するためのウィンドウの大きさを決定する。ウィンドウの決定は、例えば、あらかじめ大きさの異なる複数のウィンドウを用意しておき、輝度変動σ(x,y)2の大きさに応じて適切なウィンドウを選択することによって行えばよい。例えば、大きさの異なる3種類のウィンドウW1、W2およびW3(W1>W2>W3)に対して、(25)式に基づいてひとつのウィンドウを選択する。
ここで、TH1およびTH2は、あらかじめ定めた輝度変動σ(x,y)2に対する閾値である。
このようにしてウィンドウ決定部304で基準画像上の投影点(x,y)ごとに得られたウィンドウは、次に、視差計算部305に送られる。
視差計算部305では、まず類似度計算部305aで、ウィンドウ決定部304から送られるウィンドウを用いて、すべての視差候補dに対して、基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度が計算され(ステップS405)、視差検出部305bで、類似度計算部305aで得られた視差候補ごとの類似度を用いて、基準画像上の各投影点における視差Dが決定される(ステップS406)。
このように第3の実施形態に係わる3次元情報復元装置によれば、基準画像上の投影点ごとに、その点を含む一定の範囲内の画素の輝度変動に基づいて適切な大きさのウィンドウを設定し、そのウィンドウを用いて基準画像上の投影点と別画像上の投影点との間の対応づけを行うことができるため、より正確な投影点間の対応づけを行うことが可能になる。
(第4の実施形態)
第3の実施形態では、ウィンドウ決定部304において、基準画像上の投影点(x,y)を含む一定の範囲内の画素の輝度変動から、その投影点における類似度C(x,y,d)を計算するためのウィンドウの大きさを決定した。
第3の実施形態では、ウィンドウ決定部304において、基準画像上の投影点(x,y)を含む一定の範囲内の画素の輝度変動から、その投影点における類似度C(x,y,d)を計算するためのウィンドウの大きさを決定した。
第4の実施形態では、さらに、視差計算部305bにおいて視差Dを求めた後に、基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の視差Dの変動に基づいて、類似度C(x,y,d)を計算するためのウィンドウの大きさを修正し、その修正後のウィンドウを用いて類似度C(x,y,d)を再計算する実施の形態について説明する。
図22は、本発明の第4の実施形態に係わる3次元情報復元装置を示すブロック図である。この第4の実施形態に係わる3次元情報復元装置は、画像入力部401、画像蓄積部402、探索空間計算部403、ウィンドウ決定部404、視差計算部405、3次元位置計算部406、出力部407などによって構成されている。また、視差計算部405は、類似度計算部405a、視差検出部405b、メモリ405cおよびウィンドウ修正部405dによって構成されている。
つまり、第3の実施形態とは、視差計算部405において、ウィンドウ修正部405dを備える点が異なる。したがって、第3の実施形態に係わる3次元情報復元装置と共通の動作を行なう部分(画像入力部401、画像蓄積部402、探索空間計算部403、ウィンドウ決定部404、3次元位置計算部406および出力部407)については、説明を省略する。
次に図22および図23を用いて、本発明の第4の実施形態に係わる3次元情報復元装置の動作について説明する。なお、図23は、本発明の第4の実施形態に係わる3次元情報復元装置の動作を示すフローチャートである。
視差検出部405bは、類似度計算部405aで得られた視差候補ごとの類似度を用いて、基準画像上の各投影点(x,y)における視差D(x,y)を決定する(ステップS506)。基準画像上の投影点(x,y)ごとの視差D(x,y)は、次に、ウィンドウ修正部405dに送られる。
ウィンドウ修正部405dは、視差検出部405bから送られた基準画像上の投影点(x,y)ごとの視差D(x,y)から、それらの投影点ごとに類似度C(x,y,d)を計算するためのウィンドウの大きさを修正する(ステップS507)。
ここで、上述したように、基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の対応づけを精度よく行うためには、平坦な画像領域、すなわち、視差変動の小さな領域では大きなウィンドウを設定し、凹凸の多い画像領域、すなわち、視差変動の大きな領域では小さなウィンドウを設定して類似度を求めればよい。そこで、ウィンドウ修正部405dは、視差検出部405bで得られた各投影点の視差D(x,y)を用いて、基準画像上の投影点(x,y)ごとに、その点の視差変動を求め、その視差変動に基づいて、ウィンドウの大きさを修正する。
ウィンドウ修正部405dは、(26)式によって得られた基準画像上の投影点(x,y)の視差変動σD(x,y)2に基づいて、投影点(x,y)ごとに、類似度C(x,y,d)を計算するためのウィンドウの大きさを決定する。ウィンドウの決定は、例えば、あらかじめ大きさの異なる複数のウィンドウを用意しておき、視差変動σD(x,y)2の大きさに応じて適切なウィンドウを選択することによって行えばよい。例えば、大きさの異なる3種類のウィンドウW1、W2およびW3(W1>W2>W3)に対して、(28)式に基づいてひとつのウィンドウを選択する。
ここで、THD1およびTHD2は、あらかじめ定めた視差変動σD(x,y)2に対する閾値である。
ウィンドウ修正部405dは、このようにして新たに得られた基準画像上の投影点ごとのウィンドウを類似度計算部405aに送る。
類似度計算部405aは、ウィンドウ修正部405dから送られる基準画像上の投影点(x,y)ごとのウィンドウを用いて、再度、すべての視差候補dに対して、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度を計算する(ステップS508)。視差候補dごとの類似度の再計算は、例えば、上述した第1の実施形態と同様に、図10に示すフローチャートにしたがって行えばよい。
視差検出部405bは、このように類似度計算部405aで再計算された視差候補dごとの類似度を用いて、再度、基準画像上の投影点ごとの視差D(x,y)を求める(ステップS509)。そして、3次元位置計算部406では、視差検出部405bで新たに求められた視差D(x,y)を用いて、基準画像上に表れた物体などの3次元空間中の存在位置(X,Y,Z)を計算する(ステップS510)。
このように第4の実施形態に係わる3次元情報復元装置によれば、まず、画素の輝度変動に基づいて適切に定められたウィンドウを用いて基準画像上の投影点と別画像上の投影点との間の対応づけを行って基準画像上の投影点ごとの視差が求められる。そして、さらに、求められた視差から、基準画像上の投影点ごとに、その点を含む一定の範囲内の視差変動が求められ、その視差変動に基づいてウィンドウが修正される。そしてその修正されたウィンドウを用いて、再度、基準画像上の投影点と別画像上の投影点との間の対応づけが行われるため、より正確な投影点間の対応づけが可能になる。
なお、上述した実施形態では、ウィンドウ修正部405dにおけるウィンドウの修正を1度だけ行うこととしていたが、ウィンドウ修正部405dにおいて修正したウィンドウを用いて新たに検出された視差に基づいて、再度ウィンドウを修正することも可能である。このように、視差の検出とウィンドウの修正を反復して行うことにより、より正確な投影点間の対応づけを行うことが可能になるため、より精度よく視差を検出することが可能になる。
また、上述した実施形態では、ウィンドウ修正部405dにおいて、ウィンドウの大きさのみを修正していたが、視差検出部405bにおいて検出された視差に基づいて、ウィンドウの形状を変更することも可能である。この場合、例えば、形状の異なる複数のウィンドウをあらかじめ用意しておき、基準画像上の各投影点(x,y)に対して、ウィンドウごとに、視差検出部405bで得られた視差に基づいて視差変動を求め、その視差変動が最も小さくなるウィンドウを選択することによって、ウィンドウの形状を変更するようにすればよい。すなわち、例えば、ウィンドウが(2w1+1)×(2w2+1)で表される場合に、基準画像上の投影点(x,y)に対して(29)式に基づいて視差変動σD(x,y)2を求め、σD(x,y)2が最も小さくなるウィンドウを新たなウィンドウとして選択すればよい。
このようにウィンドウ修正部405dにおいて、ウィンドウの大きさのみならず、ウィンドウの形状をも修正できるようにすることにより、より精度よく視差の検出を行うことが可能となる。
また、上述した実施形態では、ウィンドウ修正部405dにおいて、視差検出部405bで得られた視差D(x,y)に基づいてウィンドウの修正を行っていたが、ウィンドウ修正部405dにおいて、視差D(x,y)を(2)式のdに代入し、まず基準画像上の投影点(x,y)の3次元空間における奥行きZ(x,y)を求め、その奥行きZ(x,y)の変動に基づいてウィンドウの修正を行うことも可能である。この場合、(26)式のD(x,y)の代わりに、基準画像上の投影点(x,y)の奥行きZ(x,y)を用いて、基準画像上の投影点(x,y)の奥行きの変動を求めればよい。
また、上述した実施形態では、類似度C(x,y,d)を(10)式に基づいて計算する場合、S1およびS2を(9)式を用いて計算することとしていた。しかし、ウィンドウのサイズおよび形状を変更して反復して視差の検出を行う場合、これらのS1およびS2の再計算は簡易に行えることが望ましい。そこで、基準画像上の各投影点(x,y)について、図24に示すような、原点(0,0)と投影点(0,y)、(x,0)および(x,y)で囲まれる領域の画素の輝度f(x,y)の総和F(x,y)を(31)式によって、あらかじめ求めておく。
そして、図25に示すような、投影点(x1,y1)、(x1,y2)、(x2,y1)および(x2,y2)で囲まれる領域の画素の輝度の総和をS1として求める場合には、上記あらかじめ求められたF(x,y)を用いて(32)式にしたがって求める。
このように、基準画像上の各投影点に対して、あらかじめF(x,y)を求めて記憶しておけば、基準画像上の任意の領域について画素の輝度の総和S1を簡易に計算することが可能になるため、ウィンドウの大きさや形状を変更した場合に、類似度C(x,y,d)を計算するための計算量を削減することが可能になる。なお、S2についても同様である。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
101、201、301、401・・・画像入力部
102、202、302、402・・・画像蓄積部
103、203、303、403・・・探索空間計算部
104、205、305,405・・・視差計算部
104a、205a、305a、405a・・・類似度計算部
104b、205b、305b、405b・・・視差検出部
104c、205c、305c、405c・・・メモリ
105、206、306、406・・・3次元位置計算部
106、207、307、407・・・出力部
204・・・探索評価値計算部
304、404・・・ウィンドウ決定部
405d・・・ウィンドウ修正部
102、202、302、402・・・画像蓄積部
103、203、303、403・・・探索空間計算部
104、205、305,405・・・視差計算部
104a、205a、305a、405a・・・類似度計算部
104b、205b、305b、405b・・・視差検出部
104c、205c、305c、405c・・・メモリ
105、206、306、406・・・3次元位置計算部
106、207、307、407・・・出力部
204・・・探索評価値計算部
304、404・・・ウィンドウ決定部
405d・・・ウィンドウ修正部
Claims (17)
- 3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段によって撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元装置であって、
前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算手段と、
前記探索範囲計算手段で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算手段と、
前記基準画像上の投影点(x,y)について、前記類似度計算手段で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出手段とを備え、
前記類似度計算手段は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算する
ことを特徴とする3次元情報復元装置。 - 前記探索範囲計算手段は、前記(x−y−d)3次元空間に含まれる前記基準面を境界とする2つの空間のうち、前記物体が存在する空間を前記視差探索範囲と定めることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記探索範囲計算手段は、前記基準画像および前記別画像における前記基準面上の特徴から前記基準面の方程式を計算し、その計算した前記基準面の方程式から前記視差探索範囲を定めることを特徴とする請求項1または請求項2に記載の3次元情報復元装置。
- 前記視差検出手段は、前記基準画像上の投影点(x,y)について、前記類似度計算手段で算出した前記類似度C(x,y,d)が最大となる前記視差候補dを視差Dとして求めることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記撮影された基準画像および前記別画像のうち過去に撮影された前記基準画像および前記別画像から復元された3次元情報に基づいて、前記(x−y−d)3次元空間内における視差探索の細かさを定める探索精度計算手段をさらに備えることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記類似度C(x,y,d)が、前記基準画像上の投影点(x,y)を含む一定の大きさのウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間の、正規化相互相関であることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記類似度C(x,y,d)が、前記基準画像上の投影点(x,y)を含む一定の大きさのウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間の、対応する画素間の輝度の差の絶対値の総和であることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記類似度C(x,y,d)が、前記基準画像上の投影点(x,y)を含む一定の大きさのウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間の、対応する画素間の輝度の差の自乗の総和であることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記探索範囲計算手段で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)ごとに前記類似度C(x,y,d)を計算するためのウィンドウを定めるウィンドウ決定手段をさらに備えることを特徴とする請求項1に記載の3次元情報復元装置。
- 前記ウィンドウ決定手段は、前記基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の画素の輝度変動に基づいてウィンドウの大きさを決定することを特徴とする請求項9に記載の3次元情報復元装置。
- 前記基準画像上の投影点(x,y)ごとに前記視差検出手段で求められた視差Dに基づいて前記類似度C(x,y,d)を計算するためのウィンドウを修正するウィンドウ修正手段をさらに備え、
前記類似度計算手段は、前記修正したウィンドウを用いて前記類似度C(x,y,d)を再計算することを特徴とする請求項1に記載の3次元情報復元装置。 - 前記ウィンドウ修正手段は、前記基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の投影点の視差Dの変動に基づいて前記類似度C(x,y,d)を計算するためのウィンドウの大きさと形状のうち少なくとも一方を修正することを特徴とする請求項11に記載の3次元情報復元装置。
- 前記ウィンドウ修正手段は、前記基準画像上の投影点(x,y)ごとに前記視差検出手段で求められた視差Dから前記基準画像上の投影点(x,y)の3次元空間における奥行きを求め、前記基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の投影点の奥行きの変動に基づいて前記類似度C(x,y,d)を計算するためのウィンドウの大きさと形状のうち少なくとも一方を修正することを特徴とする請求項11に記載の3次元情報復元装置。
- 3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元方法であって、
前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算ステップと、
前記探索範囲計算ステップで定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算ステップと、
前記基準画像上の投影点(x,y)について、前記類似度計算ステップで算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出ステップとを有し、
前記類似度計算ステップでは、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算する
ことを特徴とする3次元情報復元方法。 - 前記探索範囲計算ステップで定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)ごとに前記類似度C(x,y,d)を計算するためのウィンドウを定めるウィンドウ決定ステップをさらに有することを特徴とする請求項14に記載の3次元情報復元方法。
- コンピュータに、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の対応する投影点(x´,y´)との間の類似度C(x,y,d)から求めさせる3次元情報復元プログラムであって、
前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算機能と、
前記探索範囲計算機能で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算機能と、
前記基準画像上の投影点(x,y)について、前記類似度計算機能で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出機能とを備え、
前記類似度計算機能は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算する
ことを特徴とする3次元情報復元プログラム。 - 前記探索範囲計算機能で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)ごとに前記類似度C(x,y,d)を計算するためのウィンドウを定めるウィンドウ決定機能をさらに備えることを特徴とする請求項16に記載の3次元情報復元プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005153965A JP2006221603A (ja) | 2004-08-09 | 2005-05-26 | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム |
US11/198,215 US7720277B2 (en) | 2004-08-09 | 2005-08-08 | Three-dimensional-information reconstructing apparatus, method and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004232220 | 2004-08-09 | ||
JP2005005649 | 2005-01-12 | ||
JP2005153965A JP2006221603A (ja) | 2004-08-09 | 2005-05-26 | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006221603A true JP2006221603A (ja) | 2006-08-24 |
Family
ID=35995887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005153965A Pending JP2006221603A (ja) | 2004-08-09 | 2005-05-26 | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7720277B2 (ja) |
JP (1) | JP2006221603A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5990718A (ja) * | 1982-11-15 | 1984-05-25 | Mitsubishi Electric Corp | エンジンの吸気弁制御装置 |
JP2009146217A (ja) * | 2007-12-14 | 2009-07-02 | Hitachi Ltd | ステレオカメラ装置 |
JP2009293970A (ja) * | 2008-06-03 | 2009-12-17 | Fujifilm Corp | 距離測定装置および方法並びにプログラム |
JP2009293971A (ja) * | 2008-06-03 | 2009-12-17 | Fujifilm Corp | 距離測定装置および方法並びにプログラム |
JP2010154461A (ja) * | 2008-12-26 | 2010-07-08 | Samsung Techwin Co Ltd | 投影画像変換器及びプロジェクタ装置 |
JP2011013064A (ja) * | 2009-07-01 | 2011-01-20 | Nikon Corp | 位置検出装置 |
JP2014508430A (ja) * | 2010-12-01 | 2014-04-03 | クゥアルコム・インコーポレイテッド | フィードバックベース3次元ビデオのためのゼロ視差平面 |
JP2014222429A (ja) * | 2013-05-14 | 2014-11-27 | 株式会社リコー | 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム |
WO2021245973A1 (ja) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | 演算装置、視差探索方法 |
WO2021245972A1 (ja) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | 演算装置、視差算出方法 |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006221603A (ja) * | 2004-08-09 | 2006-08-24 | Toshiba Corp | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム |
JP4426535B2 (ja) * | 2006-01-17 | 2010-03-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
CN101496387B (zh) | 2006-03-06 | 2012-09-05 | 思科技术公司 | 用于移动无线网络中的接入认证的系统和方法 |
JP4856611B2 (ja) * | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
WO2009097552A1 (en) * | 2008-02-01 | 2009-08-06 | Omnivision Cdm Optics, Inc. | Image data fusion systems and methods |
US8355041B2 (en) | 2008-02-14 | 2013-01-15 | Cisco Technology, Inc. | Telepresence system for 360 degree video conferencing |
US8797377B2 (en) | 2008-02-14 | 2014-08-05 | Cisco Technology, Inc. | Method and system for videoconference configuration |
US10229389B2 (en) * | 2008-02-25 | 2019-03-12 | International Business Machines Corporation | System and method for managing community assets |
US8319819B2 (en) | 2008-03-26 | 2012-11-27 | Cisco Technology, Inc. | Virtual round-table videoconference |
US8390667B2 (en) | 2008-04-15 | 2013-03-05 | Cisco Technology, Inc. | Pop-up PIP for people not in picture |
US8694658B2 (en) | 2008-09-19 | 2014-04-08 | Cisco Technology, Inc. | System and method for enabling communication sessions in a network environment |
US8477175B2 (en) * | 2009-03-09 | 2013-07-02 | Cisco Technology, Inc. | System and method for providing three dimensional imaging in a network environment |
US8659637B2 (en) | 2009-03-09 | 2014-02-25 | Cisco Technology, Inc. | System and method for providing three dimensional video conferencing in a network environment |
US8659639B2 (en) | 2009-05-29 | 2014-02-25 | Cisco Technology, Inc. | System and method for extending communications between participants in a conferencing environment |
US9082297B2 (en) | 2009-08-11 | 2015-07-14 | Cisco Technology, Inc. | System and method for verifying parameters in an audiovisual environment |
US8684531B2 (en) * | 2009-12-28 | 2014-04-01 | Vision3D Technologies, Llc | Stereoscopic display device projecting parallax image and adjusting amount of parallax |
US9225916B2 (en) | 2010-03-18 | 2015-12-29 | Cisco Technology, Inc. | System and method for enhancing video images in a conferencing environment |
US9313452B2 (en) | 2010-05-17 | 2016-04-12 | Cisco Technology, Inc. | System and method for providing retracting optics in a video conferencing environment |
US8823776B2 (en) | 2010-05-20 | 2014-09-02 | Cisco Technology, Inc. | Implementing selective image enhancement |
CN101852609B (zh) * | 2010-06-02 | 2011-10-19 | 北京理工大学 | 一种基于机器人双目立体视觉的地面障碍物检测方法 |
US8896655B2 (en) | 2010-08-31 | 2014-11-25 | Cisco Technology, Inc. | System and method for providing depth adaptive video conferencing |
US8599934B2 (en) | 2010-09-08 | 2013-12-03 | Cisco Technology, Inc. | System and method for skip coding during video conferencing in a network environment |
JP5450330B2 (ja) * | 2010-09-16 | 2014-03-26 | 株式会社ジャパンディスプレイ | 画像処理装置および方法、ならびに立体画像表示装置 |
JP5481337B2 (ja) * | 2010-09-24 | 2014-04-23 | 株式会社東芝 | 画像処理装置 |
US8599865B2 (en) | 2010-10-26 | 2013-12-03 | Cisco Technology, Inc. | System and method for provisioning flows in a mobile network environment |
US8699457B2 (en) | 2010-11-03 | 2014-04-15 | Cisco Technology, Inc. | System and method for managing flows in a mobile network environment |
US8902244B2 (en) | 2010-11-15 | 2014-12-02 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US9143725B2 (en) | 2010-11-15 | 2015-09-22 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US8730297B2 (en) | 2010-11-15 | 2014-05-20 | Cisco Technology, Inc. | System and method for providing camera functions in a video environment |
US9338394B2 (en) | 2010-11-15 | 2016-05-10 | Cisco Technology, Inc. | System and method for providing enhanced audio in a video environment |
US8542264B2 (en) | 2010-11-18 | 2013-09-24 | Cisco Technology, Inc. | System and method for managing optics in a video environment |
US8723914B2 (en) | 2010-11-19 | 2014-05-13 | Cisco Technology, Inc. | System and method for providing enhanced video processing in a network environment |
US9111138B2 (en) | 2010-11-30 | 2015-08-18 | Cisco Technology, Inc. | System and method for gesture interface control |
USD678320S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678307S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682293S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682294S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682854S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen for graphical user interface |
USD678308S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682864S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678894S1 (en) | 2010-12-16 | 2013-03-26 | Cisco Technology, Inc. | Display screen with graphical user interface |
US8692862B2 (en) | 2011-02-28 | 2014-04-08 | Cisco Technology, Inc. | System and method for selection of video data in a video conference environment |
US9087375B2 (en) * | 2011-03-28 | 2015-07-21 | Sony Corporation | Image processing device, image processing method, and program |
JP5158223B2 (ja) * | 2011-04-06 | 2013-03-06 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
US8670019B2 (en) | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
US8786631B1 (en) | 2011-04-30 | 2014-07-22 | Cisco Technology, Inc. | System and method for transferring transparency information in a video environment |
US8934026B2 (en) | 2011-05-12 | 2015-01-13 | Cisco Technology, Inc. | System and method for video coding in a dynamic environment |
US8729653B2 (en) | 2011-10-26 | 2014-05-20 | Omnivision Technologies, Inc. | Integrated die-level cameras and methods of manufacturing the same |
US8947493B2 (en) | 2011-11-16 | 2015-02-03 | Cisco Technology, Inc. | System and method for alerting a participant in a video conference |
US8682087B2 (en) | 2011-12-19 | 2014-03-25 | Cisco Technology, Inc. | System and method for depth-guided image filtering in a video conference environment |
JP2013143753A (ja) * | 2012-01-12 | 2013-07-22 | Olympus Corp | 撮像装置 |
JP5957359B2 (ja) * | 2012-10-19 | 2016-07-27 | 日立オートモティブシステムズ株式会社 | ステレオ画像処理装置及びステレオ画像処理方法 |
US9681154B2 (en) | 2012-12-06 | 2017-06-13 | Patent Capital Group | System and method for depth-guided filtering in a video conference environment |
US9292927B2 (en) * | 2012-12-27 | 2016-03-22 | Intel Corporation | Adaptive support windows for stereoscopic image correlation |
JP6274557B2 (ja) * | 2013-02-18 | 2018-02-07 | 株式会社リコー | 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム |
US9843621B2 (en) | 2013-05-17 | 2017-12-12 | Cisco Technology, Inc. | Calendaring activities based on communication processing |
US9756312B2 (en) | 2014-05-01 | 2017-09-05 | Ecole polytechnique fédérale de Lausanne (EPFL) | Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware |
JP2017045124A (ja) * | 2015-08-24 | 2017-03-02 | 株式会社日本自動車部品総合研究所 | 視差検出装置 |
US10823950B2 (en) * | 2016-01-07 | 2020-11-03 | Digital Surigcals PTE. LTD. | Camera system with balanced monocular cues for use in digital stereo microscopes |
US10237531B2 (en) | 2016-06-22 | 2019-03-19 | Microsoft Technology Licensing, Llc | Discontinuity-aware reprojection |
US10129523B2 (en) | 2016-06-22 | 2018-11-13 | Microsoft Technology Licensing, Llc | Depth-aware reprojection |
CN108307170B (zh) * | 2017-12-22 | 2019-09-10 | 宁波大学 | 一种立体图像重定位方法 |
CN109318890A (zh) * | 2018-06-29 | 2019-02-12 | 北京理工大学 | 一种基于动态窗口及障碍物势能场的无人车动态避障方法 |
US11782254B2 (en) * | 2020-07-24 | 2023-10-10 | United Scope LLC | Digital microscopy system and graphical user interface |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4924506A (en) * | 1986-07-22 | 1990-05-08 | Schlumberger Systems & Services, Inc. | Method for directly measuring area and volume using binocular stereo vision |
JPH08178795A (ja) | 1994-12-20 | 1996-07-12 | Nec Corp | Lcdパネル欠陥検査装置 |
US5910817A (en) * | 1995-05-18 | 1999-06-08 | Omron Corporation | Object observing method and device |
CA2184561C (en) * | 1995-09-12 | 2001-05-29 | Yasuyuki Michimoto | Object detecting apparatus in which the position of a planar object is estimated by using hough transform |
US5956418A (en) * | 1996-12-10 | 1999-09-21 | Medsim Ltd. | Method of mosaicing ultrasonic volumes for visual simulation |
US6215898B1 (en) * | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3499117B2 (ja) | 1997-11-26 | 2004-02-23 | 株式会社東芝 | 3次元情報復元装置及びその方法 |
US6201541B1 (en) * | 1997-12-11 | 2001-03-13 | Cognitens, Ltd. | System and method for “Stitching” a plurality of reconstructions of three-dimensional surface features of object(s) in a scene defined relative to respective coordinate systems to relate them to a common coordinate system |
JPH11264724A (ja) | 1998-03-18 | 1999-09-28 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
US6141440A (en) * | 1998-06-04 | 2000-10-31 | Canon Kabushiki Kaisha | Disparity measurement with variably sized interrogation regions |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
US6519358B1 (en) * | 1998-10-07 | 2003-02-11 | Sony Corporation | Parallax calculating apparatus, distance calculating apparatus, methods of the same, and information providing media |
US6658149B1 (en) * | 1999-01-07 | 2003-12-02 | Nippon Telegraph & Telephone Corporation | Scheme for identifying gray-scale image |
DE19926559A1 (de) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
US6963661B1 (en) * | 1999-09-09 | 2005-11-08 | Kabushiki Kaisha Toshiba | Obstacle detection system and method therefor |
JP2001194126A (ja) | 2000-01-14 | 2001-07-19 | Sony Corp | 三次元形状計測装置および三次元形状計測方法、並びにプログラム提供媒体 |
US7224357B2 (en) * | 2000-05-03 | 2007-05-29 | University Of Southern California | Three-dimensional modeling based on photographic images |
US6606406B1 (en) * | 2000-05-04 | 2003-08-12 | Microsoft Corporation | System and method for progressive stereo matching of digital images |
US6677941B2 (en) * | 2000-08-05 | 2004-01-13 | American Gnc Corporation | Three-dimensional relative positioning and tracking using LDRI |
JP2002163639A (ja) | 2000-11-28 | 2002-06-07 | Toshiba Corp | 3次元情報復元装置及びその方法 |
JP2002358595A (ja) | 2001-06-01 | 2002-12-13 | Mitsubishi Electric Corp | 道路交通流計測装置および道路交通流計測方法 |
JP3895238B2 (ja) | 2002-08-28 | 2007-03-22 | 株式会社東芝 | 障害物検出装置及びその方法 |
WO2004038657A2 (en) * | 2002-10-22 | 2004-05-06 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
US7103212B2 (en) * | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
JP2006221603A (ja) * | 2004-08-09 | 2006-08-24 | Toshiba Corp | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム |
US20080002878A1 (en) * | 2006-06-28 | 2008-01-03 | Somasundaram Meiyappan | Method For Fast Stereo Matching Of Images |
US7738017B2 (en) * | 2007-03-27 | 2010-06-15 | Aptina Imaging Corporation | Method and apparatus for automatic linear shift parallax correction for multi-array image systems |
-
2005
- 2005-05-26 JP JP2005153965A patent/JP2006221603A/ja active Pending
- 2005-08-08 US US11/198,215 patent/US7720277B2/en active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5990718A (ja) * | 1982-11-15 | 1984-05-25 | Mitsubishi Electric Corp | エンジンの吸気弁制御装置 |
JP2009146217A (ja) * | 2007-12-14 | 2009-07-02 | Hitachi Ltd | ステレオカメラ装置 |
JP2009293970A (ja) * | 2008-06-03 | 2009-12-17 | Fujifilm Corp | 距離測定装置および方法並びにプログラム |
JP2009293971A (ja) * | 2008-06-03 | 2009-12-17 | Fujifilm Corp | 距離測定装置および方法並びにプログラム |
JP2010154461A (ja) * | 2008-12-26 | 2010-07-08 | Samsung Techwin Co Ltd | 投影画像変換器及びプロジェクタ装置 |
JP2011013064A (ja) * | 2009-07-01 | 2011-01-20 | Nikon Corp | 位置検出装置 |
JP2014508430A (ja) * | 2010-12-01 | 2014-04-03 | クゥアルコム・インコーポレイテッド | フィードバックベース3次元ビデオのためのゼロ視差平面 |
US9049423B2 (en) | 2010-12-01 | 2015-06-02 | Qualcomm Incorporated | Zero disparity plane for feedback-based three-dimensional video |
JP2014222429A (ja) * | 2013-05-14 | 2014-11-27 | 株式会社リコー | 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム |
WO2021245973A1 (ja) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | 演算装置、視差探索方法 |
WO2021245972A1 (ja) * | 2020-06-05 | 2021-12-09 | 日立Astemo株式会社 | 演算装置、視差算出方法 |
Also Published As
Publication number | Publication date |
---|---|
US7720277B2 (en) | 2010-05-18 |
US20060050338A1 (en) | 2006-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006221603A (ja) | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム | |
JP4216824B2 (ja) | 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム | |
US10643347B2 (en) | Device for measuring position and orientation of imaging apparatus and method therefor | |
US7471809B2 (en) | Method, apparatus, and program for processing stereo image | |
US9360307B2 (en) | Structured-light based measuring method and system | |
JP2009133753A (ja) | 画像処理装置及びその方法 | |
JP2016177388A (ja) | 移動体位置姿勢計測装置 | |
JP2008090583A (ja) | 情報処理システム、プログラムおよび情報処理方法 | |
JP6668594B2 (ja) | 視差演算システム、情報処理装置、情報処理方法及びプログラム | |
JP5178538B2 (ja) | 深度マップを画像から決定する方法、深度マップを決定する装置 | |
US9872011B2 (en) | High-speed depth sensing with a hybrid camera setup | |
JP2001194126A (ja) | 三次元形状計測装置および三次元形状計測方法、並びにプログラム提供媒体 | |
JP2009530701A5 (ja) | ||
JP4102386B2 (ja) | 3次元情報復元装置 | |
JP4524514B2 (ja) | 画像処理装置、画像処理方法、および記録媒体 | |
JP2015158394A (ja) | 視差演算システム、情報処理装置、情報処理方法及びプログラム | |
JP4899151B2 (ja) | 視差補間処理方法および処理装置 | |
JP2017199285A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5446516B2 (ja) | 画像処理装置 | |
KR101804157B1 (ko) | 개선된 sgm 기반한 시차 맵 생성 방법 | |
JP2005140623A (ja) | 画像計測方法、装置、プログラム及び記録媒体 | |
JP6570321B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7243671B2 (ja) | 視差演算システム、情報処理装置、情報処理方法及びプログラム | |
CN108731644B (zh) | 基于铅直辅助线的倾斜摄影测图方法及其系统 | |
JP2004233138A (ja) | 写真測量における計測点の対応付け方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090915 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100126 |