JP2006221603A - 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム - Google Patents

3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム Download PDF

Info

Publication number
JP2006221603A
JP2006221603A JP2005153965A JP2005153965A JP2006221603A JP 2006221603 A JP2006221603 A JP 2006221603A JP 2005153965 A JP2005153965 A JP 2005153965A JP 2005153965 A JP2005153965 A JP 2005153965A JP 2006221603 A JP2006221603 A JP 2006221603A
Authority
JP
Japan
Prior art keywords
projection point
parallax
similarity
image
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005153965A
Other languages
English (en)
Inventor
Hiroshi Hattori
寛 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005153965A priority Critical patent/JP2006221603A/ja
Priority to US11/198,215 priority patent/US7720277B2/en
Publication of JP2006221603A publication Critical patent/JP2006221603A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

【課題】 撮影された複数の物体の画像から、物体の形状や位置などの3次元情報を高速に復元する。
【解決手段】 画像入力部101で撮影された複数の画像を用いて探索空間計算部103で、画像間の視差候補を探索する範囲を計算する。次に、類似度計算部104aで、任意の視差候補に対して、探索空間計算部103で定まる探索範囲内で、基準画像上の投影点と別画像上の投影点との間の類似度を計算する。その際、類似度計算部104aは自身で計算した基準画像上の画素と別画像上の画素の輝度の積和をメモリ104cに記憶しておき、これを用いて別の基準画像上の投影点とそれに対応する別画像上の投影点の間の類似度を求める。次に視差検出部104bで、基準画像上の投影点ごとに類似度が最大となる視差を求め、これを用いて3次元位置計算部105で物体の3次元位置を計算する。
【選択図】 図1

Description

本発明は、3次元情報復元装置および3次元情報復元方法に係り、特に複数の撮影手段により撮影された画像から、撮影された物体の各画像上における視差を求めることにより、物体の3次元形状や物体までの距離といった3次元情報を復元する3次元情報復元装置
、3次元情報復元方法および3次元情報復元プログラムに関する。
従来から、自律作業ロボットや自動走行車を実現するために不可欠な技術として、物体の3次元形状や障害物の3次元位置を計測する3次元情報復元装置の技術が開発されてきた。特に、複数のTVカメラを用いて対象空間の3次元情報をステレオ視に基づいて復元する3次元情報復元装置は、取得する画像の解像度を高くできることや計測精度の点で優れていること、また比較的安価に実現できることなどから有効な方法として広く利用されている。
例えば、複数のカメラにより取得された複数の画像から選択された1枚の基準画像上の任意の投影点と、他の画像上における対応する投影点との間の視差を求めることにより3次元情報を復元する方法として、撮影された各画像に表れた基準面(例えば、道路や床など)よりも物体が上に存在することを利用して視差の探索範囲を制限し、高速に3次元情報を復元する方法が知られている(例えば、特許文献1を参照。)。
ここで、各画像間における対応点の探索を正確に行うためには、真の対応点と類似した輝度パターンを持つ投影点との間で誤った対応づけが生じることを防ぐために、類似度を計算するためのウィンドウを大きく設定する必要がある。しかし、このような場合に類似度計算を効率的に行うことにより、高速に3次元情報を復元する方法については、これまで十分な検討が行われていなかった。
また、自律作業ロボットや自動走行車への応用のためには、複数のカメラから時系列で静止画像データを受け取り、実時間で3次元情報を復元していく機能が必要となる。しかし、このような実時間処理が可能な3次元情報復元装置については、これまで十分な検討が行われていなかった。
特開2002−163639号公報(頁7、図4)
上述したように、従来の3次元情報復元装置には、基準画像上の投影点と別画像上の対応する投影点の間の類似度を効率的に計算するものは存在しなかった。
また上述したように、従来の3次元情報復元装置では、カメラから時系列で送られる静止画像データを実時間で処理して3次元情報を復元するものは存在しなかった。
本発明は、上記従来の要望に鑑みてなされたものであって、任意の視差候補に対して基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算する場合に、すでに計算した基準画像上の画素と別画像上の対応する画素との間の輝度の積和を記憶しておき、これを用いて別の基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算することにより、高速に3次元情報を復元することを可能とする3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラムを提供することを目的とする。
また、本発明は、過去に撮影された画像から復元された3次元情報に基づいて、視差探索の細かさを定めることにより、高速に3次元情報を復元することを可能とする3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラムを提供することを目的とする。
上記目的を達成するために、本発明の3次元情報復元装置は、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段によって撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元装置であって、前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算手段と、前記探索範囲計算手段で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算手段と、前記基準画像上の投影点(x,y)について、前記類似度計算手段で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出手段とを備え、前記類似度計算手段は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算することを特徴とする。
また、本発明の3次元情報復元方法は、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−yd)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元方法であって、前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算ステップと、前記探索範囲計算ステップで定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算ステップと、前記基準画像上の投影点(x,y)について、前記類似度計算ステップで算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出ステップとを有し、前記類似度計算ステップでは、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算することを特徴とする。
また、本発明の3次元情報復元プログラムは、コンピュータに、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の対応する投影点(x´,y´)との間の類似度C(x,y,d)から求めさせる3次元情報復元プログラムであって、前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算機能と、前記探索範囲計算機能で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算機能と、前記基準画像上の投影点(x,y)について、前記類似度計算機能で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出機能とを備え、前記類似度計算機能は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算することを特徴とする。
本発明によれば、任意の視差候補に対して基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算する場合に、一度計算した基準画像上の画素と別画像上の対応する画素との間の輝度の積和をメモリに記憶しておき、基準画像上の新たな投影点と別画像上の対応する新たな投影点との間の類似度を、メモリに記憶した輝度の積和を用いて計算することにより、高速に3次元情報を復元することが可能となる。
以下、本発明の実施形態について説明する。
はじめに、ステレオ視に基づく3次元情報の復元方法について、図3を用いて簡単に説明する。ここでは簡単のため、図3(a)に示すように2つのカメラを左右に配置して3次元空間を撮影し、カメラから得られた左右の画像情報から、各画像に表れた3次元空間中の物体などの存在位置(X,Y,Z)を求めるものとする。
図3(a)のように左右に配置されたカメラで3次元空間を撮影すると、3次元空間中の同一点であっても、2つのカメラから得られる左右の画像上では、図3(b)に示すように、その投影点は各画像上の異なった位置に表れる。このような3次元空間中の同一点の各画像間における表示位置のズレを視差と呼ぶ。ここで、左右の画像間に表れる視差は、その点の3次元空間中の存在位置により異なる。そこで、撮影された一方の画像を基準画像とし、基準画像上に表れた各投影点に対応する投影点を他方の画像上から探索して、その視差を求めれば、三角測量の原理に基づいて、基準画像上に表れた各投影点の3次元空間中の存在位置(X,Y,Z)を求めることが可能となる。そして、基準画像上に表れたすべての投影点について、その3次元空間中の存在位置を求めることにより、3次元空間中の物体などの存在位置を復元することが可能となる。
このように、三角測量の原理に基づいて基準画像上に表れた各投影点の3次元空間中の存在位置(X,Y,Z)を求めるためには、まず基準画像上の各投影点について、他方の画像上で対応する投影点を探索し、その視差を求める必要がある。ここで、ステレオ画像上においては、図4に示すように左側カメラからの左画像を基準画像とすると、その基準画像上の投影点Pの右側カメラからの右画像上における対応する投影点P´は、同図に示すエピポーララインと呼ばれる線上にある。そのため基準画像上の投影点Pに対して、エピポーラライン上で対応する投影点P´を探索し、投影点Pと投影点P´から視差を求めれば、基準画像上における任意の点について3次元情報を復元することが可能になる。
ここで、上述した基準画像上の投影点Pに対応する別画像上における投影点P´の探索は、基準画像上の投影点Pと右画像上のエピポーラライン上の各投影点との間で類似度を計算し、その類似度が最大となる点を求めることにより行うことができる。具体的には、図5に示すように、投影点Pを中心とする一定の範囲(ウィンドウ)内の各画素における輝度と、エピポーラライン上の各点を中心とするウィンドウ内の各画素における輝度との間で類似度を求め、この類似度が最大となる投影点P´を対応点とすればよい。
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる3次元情報復元装置を示すブロック図である。この第1の実施形態に係わる3次元情報復元装置は、画像入力部101、画像蓄積部102、探索空間計算部103、視差計算部104、3次元位置計算部105、出力部106などによって構成されている。また、視差計算部104は、類似度計算部104a、視差検出部104bおよびメモリ104cによって構成されている。
画像入力部101は、3次元空間中に存在する物体を撮影する機能を有する複数のカメラによって構成される。ここでは簡単のため、画像入力部101は図6に示すように、左右に平行に設置された2台のカメラによって構成されているものとする。すなわち、3次元空間の座標系の原点を左右カメラの視点(レンズ中心)にとり、左右のカメラの視点を結ぶ直線をX軸、上下方向にY軸(下方向が正方向)、カメラ光軸方向にZ軸を設定すると、左右のカメラの位置はそれぞれ(−B,0,0)、(B,0,0)と表すことができるものとする。また、道路や床といった基準面は、このようにして定められた3次元座標上ではY=Yと表されるものとする。
画像蓄積部102は、画像入力部101で撮影された画像データを記憶する機能を有し、例えば、半導体メモリ、ハードディスク、CD−R、CD−RW、DVD−R、DVD−RAM,DVD−Rなどが用いられる。
探索空間計算部103は、画像蓄積部102に記憶された複数の画像データから視差の探索範囲を計算する機能を有する。
視差計算部104は、類似度計算部104a、視差検出部104bおよびメモリ104cによって構成される。類似度計算部104aは、すべての視差候補dに対して、左(第1)カメラから得られた左画像(以下、基準画像と称する)上の投影点(x,y)と右(第2)カメラから得られた右画像(以下、別画像と称する)上の対応する投影点(x´,y´)との間の類似度を計算する機能を有する。視差検出部104bは、類似度計算部104aで計算された類似度から、基準画像上の投影点ごとに視差を検出する機能を有する。メモリ104cは、類似度計算部104aで計算された基準画像上の画素と別画像上の対応する画素の間の輝度の積和を記憶する機能を有する。
3次元位置計算部105は、視差計算部104で計算された視差に基づいて、画像上に表れた3次元空間中の物体などの存在位置を計算する機能を有する。
出力部106は、3次元位置計算部105で計算された物体などの3次元位置を表示する機能を有する。例えば、CRTディスプレイや液晶ディスプレイなどが用いられる。
次に、第1の実施形態に係る3次元情報復元装置の動作について、図1および図2を用いて説明する。図2は、第1の実施形態の動作を示すフローチャートである。
まず、画像入力部101において、2台のカメラによって3次元空間中の物体などの画像が撮影され、左右2台のカメラから得られた複数の画像は画像蓄積部102に送られる(ステップS101)。
画像入力部101から送られた複数の画像は、画像蓄積部102において記憶される(ステップS102)。
探索空間計算部103は、3次元空間中の物体が基準面よりも上方に存在することを利用して、画像蓄積部102に記憶された複数の画像データから視差の探索範囲を計算する(ステップS103)。以下、左右2台のカメラと基準面との幾何学的関係に基づいて、視差探索範囲を定める方法について説明する。
図6に示す実空間上の存在位置(X,Y,Z)の左右画像への投影点をそれぞれ(x,y)および(x´,y´)、レンズの焦点距離をFとすると、(1)式の関係式が成り立つ。
Figure 2006221603
ここで本実施形態では、上述したように2台のカメラは左右に平行に設置しているため、基準画像上の任意の投影点に対する別画像上におけるエピポーララインはy=y´と仮定している。
これらを連立させて存在位置(X,Y,Z)について解くと、(2)式の関係が成り立つ。
Figure 2006221603
ここで、d=x−x´であり、dは左右画像上の対応する投影点の表示位置のズレ、すなわち視差候補を表す。また、3次元空間中の物体がカメラの前方にあることから、(3)式が成り立つ。
Figure 2006221603
この(3)式と(2)式より、(4)式が成り立つ。
Figure 2006221603
また、3次元空間中の物体が基準面Y=Yより上方にあることを考慮すれば、(5)式が成り立つ。
Figure 2006221603
この(5)式と(2)式より、(6)式が成り立つ。
Figure 2006221603
ここで、図7(a)に示すような基準画像上の投影点(x,y)と視差候補dで構成される(x−y−d)3次元空間Vを考えると、(6)式で表される領域は、図7(a)に示す平面π:y=Yd/2Bによって分割される2つの空間のうち、上側の空間(すなわち、カメラが存在する空間)を表す。図7(b)は、(x−y−d)3次元空間Vをy−d平面に平行な面で切ったときにできる断面を表したものである。この場合、図7(b)に斜線で示された部分が(6)式を満たす領域である。
そして、(x−y−d)3次元空間Vの中で(6)式を満たさない領域は、実空間では床や道路などの基準面よりも下側の空間、すなわち物体が存在しない空間であるので、この空間は、視差の探索空間から排除することができる。一方、(x−y−d)3次元空間Vの中で(6)式を満たす領域は、実空間では基準面よりも上側の空間となるため、この領域を視差の探索空間とすればよい。
探索空間計算部103は、このようにして定まる視差を求めるための探索空間情報を視差計算部104に送る。
視差計算部104では、まず類似度計算部104aが、すべての視差候補dに対して、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度を計算する(ステップS104)。
ここで視差候補dは、d=0(すなわち視差なし)から、あらかじめ定めた視差の最大値dMaxまでの間を、適当な間隔Δdで分割することによって定める。視差候補の間隔Δdを小さく設定すれば、視差を詳細に探索することが可能になり、例えば、Δdを1とすれば、視差を1画素単位で求めることが可能になる。
また、ここでは類似度として、正規化相互相関(例えば、浅田:「ダイナミックシーンの理解」、電子情報通信学会、pp.12−14参照)を用いるものとする。以下、正規化相互相関により、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度を計算する方法について説明する。
まず、図8に示すように、基準画像上の投影点P(x,y)と別画像上の投影点P´(x´,y´)のそれぞれを中心とする(2w+1)×(2w+1)サイズの2つのウィンドウを考える。ここで、基準画像上の投影点P(x,y)における画素の輝度をf(x,y)、別画像上の投影点P´(x´,y´)における画素の輝度をg(x´,y´)とする。このとき類似度である正規化相互相関C(x,y,d)は、d=x−x´およびy=y´であることを用いて、(7)式により求めることができる。
Figure 2006221603
ここで、Nはウィンドウ内の画素数を表し、N=(2w+1)で表される。また、σ、σは各ウィンドウ内における各画素の輝度の分散を表し、(8)式により求められる。
Figure 2006221603
ここでS、S、S11、S22、S12を(9)式にように定義すると、類似度である正規化相互相関C(x,y,d)は(10)式のように表すことができる。
Figure 2006221603
Figure 2006221603
ここでSおよびSは、それぞれ、各画像におけるウィンドウ内の画素の輝度fおよび輝度gの総和を表し、S11およびS22は、それぞれ、各画像におけるウィンドウ内の画素の輝度fおよび輝度gの自乗の総和を表す。これらS、S、S11、S22は、視差候補dによらず計算しておき、類似度計算部104aにおいて、各ウィンドウについてあらかじめ計算してメモリ104cに記憶しておけば、視差候補dを変化させた場合に再度計算する必要がなく、高速な類似度の計算が可能となる。
一方、S12は各画像のウィンドウ内の対応する画素間の輝度の積和であるため、ウィンドウ内の各画素の輝度のみならず、視差候補dにも依存する値となる。
ここで視差候補dに対する投影点(x,y)のS12をS12(x,y,d)とおくと、S12(x,y,d)は(9)式を変形して、(11)式のように表すことができる。
Figure 2006221603
ただし、M(x,y,d)は、(12)式のように定義した。すなわち、M(x,y,
d)は、各画像におけるウィンドウ内で、xを固定して、yについて対応する画素間の輝
度の積和を求めたものである。
Figure 2006221603
ここで、(12)式で定義したM(x,y,d)を用いると、投影点(x,y)の1画素隣の投影点(x−1,y)のS12(x−1,y,d)は、(13)式のようになる。
Figure 2006221603
すなわち、(11)式と(13)式から、S12(x,y,d)とS12(x−1,y,d)は、M(x−w,y,d)からM(x−1+w,y,d)の項が共通していることがわかる。これらの共通した項は、図9に示すように、投影点(x,y)と投影点(x−1,y)との間のウィンドウが重複した部分に由来するものである。
したがって、類似度計算部104aにおいてS12(x−1,y,d)を計算した際に求めた、M(x−w,y,d)からM(x−1+w,y,d)の値をメモリ104cに記憶しておけば、次にS12(x,y,d)を計算する際に、あらたにM(x+w,y,d)のみを計算して、その値と先にメモリ104cに記憶した値を(13)式に代入することによってS12(x,y,d)を求めることができ、効率的な計算が可能になる。
また、(11)式で表されるS12(x,y,d)は、S12(x−1,y,d)を用いると、(14)式のように求めることもできる。
Figure 2006221603
したがって、類似度計算部104aにおいてS12(x−1,y,d)を計算した際に、既に計算してあるM(x−1−w,y,d)とS12(x−1,y,d)をメモリ104cに記憶しておけば、次にS12(x,y,d)を計算する際に、あらたにM(x+w,y,d)のみを計算して、その値と先にメモリ104cに記憶した値を(14)式に代入することによってもS12(x,y,d)を求めることが可能である。
そして、さらにS12(x,y,d)を計算した際に求めた、S12(x,y,d)と既に計算してあるM(x−w,y,d)をメモリ104cに記憶しておけば、さらに1画素だけ隣の投影点(x+1,y)についてS12(x+1,y,d)を計算する際に、M(x+1+w,y,d)のみを計算すればよいことになる。そして、その値と先にメモリ104cに記憶した値を(10)式に代入すれば、視差候補dにおける投影点(x+1,y)の正規化相互相関C(x+1,y,d)を求めることが可能になる。
このように、類似度計算部104aにおいて、S12(x,y,d)が計算されるたびに、S12(x,y,d)およびM(x+w,y,d)をメモリ104cに記憶すれば、一度計算された画素間の輝度の積和を再度計算する必要がなくなるため、効率的に類似度の計算を行うことが可能になる。
そこで、図10に示すフローチャートを用いて、類似度計算部104aにおいて、すべての視差候補dに対して正規化相互相関C(x,y,d)を効率的に求める方法について説明する。
まず、ステップS201では、視差候補dによらず計算することができるS、S、S11、S22を求め、メモリ104cに記憶する。
次に、ステップS202では、視差候補dとして一定の初期値dが設定される。初期値は、例えば、d=0とすればよい。
ステップS203では、基準画像上の一定の投影点(x,y)=(x,y)が初期値として設定される。初期値は、例えば(x,y)=(0,0)とすればよい。
次に、ステップS204では、(14)式に基づいて、S12(x,y,d)が計算される。ここで、上述したように、S12(x−1,y,d)およびM(x−1−w,y,d)が、すでにメモリ104cに記憶されていれば、あらたにM(x+w,y,d)のみを計算し、これらを(14)式に代入してS12(x,y,d)を求める。
ステップS204で求められたS12(x,y,d)およびM(x+w,y,d)は、ステップ205でメモリ104cに記憶される。
次に、ステップS206では、メモリ104cに記憶されたS、S、S11、S22およびS12(x,y,d)を(10)式に代入して正規化相互相関C(x,y,d)が求められる。このように、すでに一度計算されたウィンドウ間の画素間の輝度の積和をメモリ104cに記憶しておき、これを用いて正規化相互相関を計算することにより、効率的に類似度を計算していくことが可能になる。
次にステップS207では、基準画像上の投影点(x,y)が1画素だけシフトされる。
次にステップS208では、投影点が1画素だけシフトした新たな基準画像上の投影点(例えば、x+1,y)が、探索空間計算部103で求められた(6)式を満たす探索空間に含まれているか否かが判定される。すなわち、視差候補がdである場合、図11に斜線で示される領域が探索空間Φとなるため、基準画像上の投影点(x+1,y)が図12(a)に示すように探索空間Φの外にあればステップS209に進み、図12(b)に示すように探索空間Φの内にあれば、ステップS204に戻る。そして、ステップS204では、1画素だけシフトした投影点間の正規化相互相関Cが計算される。このステップS204〜S208による計算は、視差候補がdである探索空間Φにおいて繰り返し実行される。
次にステップS209では、視差候補dに対して、基準画像上のすべての投影点について正規化相互相関Cが計算されたか否かが判定される。そして、視差候補dについて、すべての投影点についての計算が完了した場合にはステップS210に進み、計算が完了していなければステップS207に戻る。
次にステップS210では、すべての視差候補についての処理が完了したか否かが判定される。すなわち、視差候補dが、あらかじめ定めた視差候補の最大値dMAXに達したか否かが判定される。視差候補dがdMAXに達していない、すなわち、すべての視差候補についての処理が完了していなければステップS211へ進む。逆に、視差候補dがdMAXに達している、すなわち、すべての視差候補についての処理が完了していれば処理を終了する。
次にステップS211では、視差候補dが1画素だけシフトされ(すなわちd=d+1)、ステップS203に戻る。そして、視差候補が1画素だけシフトした時の各投影点間の正規化相互相関Cが上述した同じ手順により計算される。このステップS203〜S211による計算は、すべての視差候補に対して繰り返し実行される。
以上のようなフローチャートにしたがって、類似度計算部104aにおいて、すべての視差候補dに対して正規化相互相関Cを求めれば、基準画像上の隣り合う投影点について、ウィンドウが重複する部分で基準画像上の投影点の画素と、対応する別画像上の投影点の画素の間で輝度の積和を繰り返して計算する必要がなくなり、効率的で高速な類似度の計算を実現することが可能になる。さらに、探索空間計算部103で求まる視差探索範囲に基づいて、探索範囲外の基準画像上の投影点については類似度の計算を行わないため、高速な処理を実現することが可能になる。
視差検出部104bは、類似度計算部104aで得られた視差候補ごとの類似度を用いて、基準画像上の各投影点における視差Dを決定する(ステップS105)。基準画像上の投影点(x,y)についての視差Dは、類似度計算部104aで得られた正規化相互相関C(x,y,d)が、視差候補dについて最大となる視差とすればよい。すなわち視差Dは、正規化相互相関C(x,y,d)から、(15)式によって求めることができる。
Figure 2006221603
この(15)式により得られた基準画像上の各投影点の視差Dは、次に3次元位置計算部105に送られる。
3次元位置計算部105では、視差計算部104で得られた基準画像上の各投影点の視差Dから、基準画像上に表れた物体などの3次元空間中の存在位置(X,Y,Z)を計算する(ステップS106)。3次元空間中の存在位置(X,Y,Z)は、基準画像上の投影点(x,y)および視差計算部104で得られた視差Dを用いて、(2)式によって求めることができる。
出力部106では、3次元位置計算部105で得られた画像上の各点の3次元位置が出力される(ステップS107)。出力部106としては、例えばCRTディスプレイや液晶ディスプレイを用いることができる。
このように第1の実施形態に係る3次元情報復元装置によれば、基準画像上の任意の投影点と別画像上における対応する投影点との間の類似度を計算する際に、基準画像上の点を含む一定の大きさのウィンドウと、別画像上における対応する投影点を含む同じ大きさのウィンドウとの間の対応する各画素間の輝度の積和をメモリ104cに記憶しておき、視差探索範囲における新たに基準画像上の別の投影点と、別画像上における対応する投影点との間の類似度を計算する場合に、前記メモリ104cに記憶された各画素間の輝度の積和を用いて類似度を計算することにより、高速に視差の探索を行うことが可能となる。
なお、上述した実施形態では、類似度として正規化相互相関を用いたが、類似度は(16)式に示すように、基準画像上の画素と別画像上の対応する画素の間の輝度の差の絶対値の総和Dsadであってもよく、(17)式に示すように、輝度の差の自乗の総和Dssdであってもよい。
Figure 2006221603
Figure 2006221603
これらの類似度を用いる場合であっても、基準画像上の任意の投影点と別画像上における対応する投影点との間の類似度を計算する際に、基準画像上の画素と別画像上の対応する画素の間の輝度の積和をメモリ104cに記憶しておき、新たに基準画像上の別の投影点と、別画像上における対応する投影点との間の類似度を計算する場合に、前記メモリ104cに記憶された各画素間の輝度の積和を用いて類似度を計算することにより、再度、各ウィンドウ内の対応する画素の輝度の積和を計算する必要がなくなり、効率的に類似度の計算をすることが可能になる。
また、上述した実施形態では、左右に平行に設置された2台のカメラを用いて左右の画像を撮影しているが、1台のカメラのみを用いてこれらの画像を撮影することも可能である。この場合、まず図6において(−B,0,0)の位置にカメラを配置して左画像(基準画像)を撮影し、次に、このカメラを(B,0,0)の位置に移動させて右画像を撮影すればよい。このようにすることで、1台のカメラをのみを用いて2台のカメラを用いた場合と同様の画像を撮影することが可能になる。
また、上述した実施形態では、基準面の方程式(Y=Y)が既知であるとして説明したが、基準面の方程式は撮影された画像から求めることが可能であり、その求めた方程式から視差Dの探索範囲を計算することも可能である。
以下では、撮影された画像から基準面の方程式を求める方法の一例として、2台のカメラを用いて撮影された画像上において、基準面上に表れた2本の線(例えば、道路面上の白線)から基準面の方程式を算出する方法について説明する。
図13に示すように、左右の画像上に2本の線が表れており、左画像(基準画像)上の2つの線をそれぞれLおよびL、右画像(別画像)上の2つの線をそれぞれL´およびL´とする。また、線LおよびL´の各画像上における方程式を、それぞれx=ay+bおよびx´=a´y´+b´とする。ここで、前述したように左右のカメラが平行に設置されている場合には、(1)式に示すようにy=y´という関係が成り立つので、線L1上の任意点は(x,y)=(at+b,t)および線L1´上の対応する任意点(x´,y´)=(a´t+b´,t)とすることができる。ただし、tは任意のパラメータである。
これらの任意点と(1)式を用いれば、基準面の方程式αX+βY+γZ=1から(18)式が得られる。
Figure 2006221603
ただし、Δa=a−a´およびΔb=b−b´である。(18)式は、任意のtについて成り立つので、(19)式が得られる。
Figure 2006221603
同様に、線LとL´についての各画像上における方程式を、それぞれx=ay+bおよびx´=a´y´+b´とすれば、(20)式が得られる。
Figure 2006221603
(19)式と(20)式を(α,β,γ)について解けば、基準面の方程式を求めることができる。
ここで3次元空間中の物体は、この基準面よりも上方(すなわち、左右2台のカメラが存在する空間)に存在するので、(21)式が視差を探索する空間を示す方程式となる。
Figure 2006221603
上述した第1の実施形態によれば、基準面の方程式を撮影された画像から求めることができるため、例えば撮影している複数のカメラが外部からの振動などによって動き、基準面が時々刻々と変化する場合であっても、視差の探索範囲を正確に求めることが可能になる。
また、上述した第1の実施形態では基準面をY軸に垂直な平面としたが、基準面は平面である必要はなく、曲面であっても同様の方法によって高速に3次元情報を復元することが可能である。
なお、この3次元情報復元装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることで実現することも可能である。すなわち、探索空間計算部103、類似度計算部104a、視差検出部104bおよび3次元位置計算部105は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、3次元情報復元装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、画像蓄積部102およびメモリ104cは、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
(第2の実施形態)
第1の実施形態では、類似度計算部104aにおいて、すべての視差候補について、探索範囲内の基準画像上の投影点と別画像上の対応する投影点との間の類似度を計算していた。しかし、撮影された画像に表れた物体の3次元位置や3次元形状を復元することを目的とする場合には、物体部分では視差を正確に探索する一方、背景部分では視差を荒く探索することで、視差の探索のために必要となる計算量を減らすことができ、より高速な3次元情報の復元が可能となる。
ここで、複数のカメラから時系列で画像入力部101に静止画像データが入力され、各時刻ごとに静止画像データから3次元情報を復元する場合を考える。この場合、複数のカメラで撮影された画像に移動物体がまったく含まれていなければ、各時刻の静止画像データを用いて得られる基準画像上の投影点と別画像上の対応する投影点との間の視差は、時刻によらず一定となる。また、撮影された画像に移動物体が含まれている場合であっても、連続する静止画像データ間では、その移動物体の静止画像上の表示位置は近いと考えられるため、各時刻の静止画像データを用いて得られる基準画像上の投影点と別画像上の対応する投影点との間の視差も、連続する時刻では近いものとなる。
そこで、まずある時刻(t)の静止画像データを用いて基準画像上の投影点と別画像上の対応する投影点との間の視差を求め、次にその視差から静止画像データに表れた物体の3次元空間中の存在位置を求める。そして、次の時刻(t+1)の静止画像データから基準画像上の投影点と別画像上の対応する投影点との間の視差を求める場合に、過去の時刻の静止画像データから求められた移動物体の存在位置の周辺では視差を正確に探索し、一方、それ以外の部分では視差を荒く探索する。このようにすることで、移動物体についての視差が正確に求められ、かつ視差探索のための計算量も削減することができ、高速な3次元情報の復元が可能となる。
図14は、本発明の第2の実施形態に係わる3次元情報復元装置を示すブロック図である。
この第2の実施形態に係わる3次元情報復元装置は、画像入力部201、画像蓄積部202、探索空間計算部203、探索評価値計算部204、視差計算部205、3次元位置計算部206、出力部207などから構成されている。また、視差計算部205は、類似度計算部205a、視差検出部205bおよびメモリ205cから構成されている。
探索評価値計算部204は、過去に視差計算部205で求められた視差から物体の存在位置を求め、これに基づいて視差探索の評価値(視差探索の細かさ、視差探索の精度)を決定する機能を有する。その他の各部の構成については、第1の実施形態の対応するものと同じであるので説明を省略する。
次に、第2の実施形態に係る3次元情報復元装置の動作について図14を用いて説明する。なお、探索空間計算部203、3次元位置計算部206、出力部207の動作については、第1の実施形態と同じであるので説明を省略する。
まず、画像入力部201において、左右2台のカメラによって3次元空間中の物体などの画像が一定の時間間隔で撮影され、撮影された複数の画像は画像蓄積部202に送られる。
画像入力部201から送られた複数の画像は、時系列データとして画像蓄積部202において記憶される。
探索評価値計算部204は、過去に視差計算部205で求められた視差から物体の存在位置を求め、これに基づいて視差探索の評価値を決定する。以下、図15乃至図18を用いて、過去に求められた視差から視差探索の評価値を決定する方法について説明する。ここでは簡単のため、2台のカメラに対して図15に示すように斜め方向に歩行者が歩いている画像が撮影されているものとする。
図15に示すように、平行に設置された左右2台のカメラで3次元空間を撮影する場合、3次元座標中の2点(X,Y,Z)と(X,Y+ΔY,Z)は、図16に示すように、左右の画像上では、その視差は等しくなる。したがって、歩行者が図15に示すようにY−Z平面に対して垂直方向に立っていれば、左右2台のカメラで撮影された画像上では、歩行者に対応する基準画像上の投影点における視差はほぼ等しくなると考えられる。そのため、歩行者が含まれている撮影画像について視差を探索した場合には、撮影された画像上に歩行者が含まれていることによって、歩行者に対応する特定の視差が多く検出されることになる。そこで、ある時刻(t)の基準画像上の各投影点における視差の頻度分布を求めると、図17に示すように、歩行者に対応する視差の頻度が高くなる。したがって、この頻度分布を用いれば、頻度の高い視差に対応する位置に歩行者が存在すると知ることが可能になる。
そこで、次の時刻(t+1)の静止画像から視差を探索する場合には、前の時刻(t)の視差の頻度分布を用いて、視差の頻度の高い視差候補については詳細に視差の探索を行い、これ以外の部分については荒く視差の探索を行うことで、視差探索のための計算量を削減しながら、歩行者が存在する部分については正確に視差を求めることができる。
具体的には、前の時刻(t)の基準画像の各投影点に対する視差から、まず視差の頻度分布を求める。ここで視差dに対する頻度をP(d)とする。次に、図18に示すように、視差の頻度P(d)について適切な閾値PTHを設定し、(22)式を満たす範囲では視差探索の評価値を荒く、それ以外の部分では視差探索の評価値を細かくして計算するように制御する。
Figure 2006221603
以上のようにして求めた視差探索の評価値の情報は、視差計算部205に送られる。具体的には、各視差候補dに対して(22)式を満たすか否かの判定を行い、視差候補ごとに(22)式を満たす場合には「1」、満たさない場合には「0」とする情報を視差計算部104に送る。
視差計算部205では、まず類似度計算部205aで、視差候補dに対して、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度が計算される。以下では、図19に示すフローチャートを用いて、類似度計算部205aにおいて、探索評価値計算部204で求まる視差探索の評価値Kに基づいて類似度を計算する方法を説明する。ここでは類似度として、上述した正規化相互相関Cを用いるものとする。なお、図19に示すフローチャートは、第1の実施形態における図10に示すフローチャートと、S311において、視差探索の評価値Kに基づいて視差候補dをシフトする点が異なる。そこで、以下では、図10に示すフローチャートと共通するステップ(S301〜S310)については説明を省略する。
ステップS311では、まず視差候補dの探索の評価値Kが調べられる。視差候補dに対して探索評価値計算部204から送られる探索の評価値Kが「0」、すなわち細かい評価値で探索する必要がある場合には、dを1画素だけシフトする(すなわちd=d+1)。一方、探索評価値計算部204から送られる探索の評価値Kが「1」、すなわち荒い評価値で探索する場合には、dをあらかじめ定めたN画素だけシフトする(すなわちd=d+N)。そして、視差候補が1画素又はN画素だけシフトした時の各投影点間の正規化相互相関Cが上述した同じ手順により計算される。ステップS303〜S311による計算は、探索の評価値Kに応じてすべての視差候補に対して繰り返し実行される。
このようにすることで、探索評価値計算部204において、物体の存在する可能性が高いと判定された視差候補については正確に視差が探索され、一方、それ以外の視差候補については、荒い評価値で視差が探索されることになり、視差の探索のための計算量を削減することができる。
次に視差検出部205bは、類似度計算部205aで求められた視差候補ごとの類似度を用いて、基準画像上の各投影点における視差を決定する。基準画像上の投影点(x,y)についての視差Dは、類似度計算部205aで得られた正規化相互相関C(x,y,d)が、視差候補dについて最大となる視差とすればよい。すなわち視差Dは、正規化相互相関C(x,y,d)から、(15)式によって求めることができる。なお、視差の検出は類似度計算部205aで探索された視差候補についてのみ行えばよい。
以上が視差計算部205の動作であり、視差計算部205で計算された最新の視差の情報は、3次元位置計算部206に送られるとともに、探索評価値計算部204にも送られる。
このように第2の実施形態に係る3次元情報復元装置によれば、過去の時刻の静止画像データから求められた物体の存在位置の周辺では視差を正確に探索し、一方、それ以外の部分では視差を荒く探索することで、物体についての視差が正確に求められ、かつ視差探索のための計算量も削減することができ、高速な3次元情報の復元が可能となる。
(第3の実施形態)
第1の実施形態では、類似度計算部104aにおける基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度は、基準画像上の投影点(x,y)を含むあらかじめ定めた一定の大きさのウィンドウと、別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で正規化相互相関C(x,y,d)を計算することにより求めていた。
ここで、基準画像上の投影点(x,y)に対応する別画像上の投影点(x´,y´)を正確に求めるためには、より大きなウィンドウを用いたほうが、より多くの情報に基づいて投影点間の対応づけをすることが可能になるため望ましい。しかし一方で、ウィンドウ内に異なる視差を有する領域が多くなると、投影点間の対応づけを誤る場合がある。したがって、基準画像上の投影点(x,y)に対応する別画像上の投影点(x´,y´)を正確に求めるためには、投影点ごとに適切な大きさのウィンドウを設定することが望ましい。すなわち、例えば、平坦な画像領域では大きなウィンドウを設定し、凹凸の多い画像領域では小さなウィンドウを設定するとよい。
そこで第3の実施形態では、基準画像上の投影点ごとに、その投影点を含む一定の範囲内の画素の輝度変動に基づいてウィンドウの大きさを決定し、そのウィンドウを用いて投影点間の類似度を求める実施の形態について説明する。
図20は、本発明の第3の実施形態に係わる3次元情報復元装置を示すブロック図である。この第3の実施形態に係わる3次元情報復元装置は、画像入力部301、画像蓄積部302、探索空間計算部303、ウィンドウ決定部304、視差計算部305、3次元位置計算部306、出力部307などによって構成されている。また、視差計算部305は、類似度計算部305a、視差検出部305bおよびメモリ305cによって構成されている。
つまり、第1の実施形態とは、ウィンドウ決定部304を備える点が異なる。したがって、第1の実施形態に係わる3次元情報復元装置と共通の動作を行なう部分(画像入力部301、画像蓄積部302、探索空間計算部303、3次元位置計算部306および出力部307)については、説明を省略する。
次に図20および図21を用いて、本発明の第3の実施形態に係わる3次元情報復元装置の動作について説明する。なお、図21は、本発明の第3の実施形態に係わる3次元情報復元装置の動作を示すフローチャートである。
ウィンドウ決定部304は、基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の画素の輝度変動から、基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度C(x,y,d)を計算するためのウィンドウの大きさを決定する(ステップS404)。
基準画像上の投影点(x,y)の輝度変動は、例えば、基準画像上の投影点(x,y)を中心とする(2w+1)×(2w+1)のウィンドウ内の画素の輝度の分散として、(23)式によって求めればよい。
Figure 2006221603
ここで、Nはウィンドウ内の画素数であり、N=(2w+1)2で表される。また、S0(x,y)は、ウィンドウ内の輝度の総和であり、(24)式によって求められる。
Figure 2006221603
ウィンドウ決定部304は、(23)式によって得られた基準画像上の投影点(x,y)の輝度変動σ(x,y)に基づいて、投影点(x,y)ごとに、類似度C(x,y,d)を計算するためのウィンドウの大きさを決定する。ウィンドウの決定は、例えば、あらかじめ大きさの異なる複数のウィンドウを用意しておき、輝度変動σ(x,y)の大きさに応じて適切なウィンドウを選択することによって行えばよい。例えば、大きさの異なる3種類のウィンドウW、WおよびW(W>W>W)に対して、(25)式に基づいてひとつのウィンドウを選択する。
Figure 2006221603
ここで、THおよびTHは、あらかじめ定めた輝度変動σ(x,y)に対する閾値である。
このようにしてウィンドウ決定部304で基準画像上の投影点(x,y)ごとに得られたウィンドウは、次に、視差計算部305に送られる。
視差計算部305では、まず類似度計算部305aで、ウィンドウ決定部304から送られるウィンドウを用いて、すべての視差候補dに対して、基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の類似度が計算され(ステップS405)、視差検出部305bで、類似度計算部305aで得られた視差候補ごとの類似度を用いて、基準画像上の各投影点における視差Dが決定される(ステップS406)。
このように第3の実施形態に係わる3次元情報復元装置によれば、基準画像上の投影点ごとに、その点を含む一定の範囲内の画素の輝度変動に基づいて適切な大きさのウィンドウを設定し、そのウィンドウを用いて基準画像上の投影点と別画像上の投影点との間の対応づけを行うことができるため、より正確な投影点間の対応づけを行うことが可能になる。
(第4の実施形態)
第3の実施形態では、ウィンドウ決定部304において、基準画像上の投影点(x,y)を含む一定の範囲内の画素の輝度変動から、その投影点における類似度C(x,y,d)を計算するためのウィンドウの大きさを決定した。
第4の実施形態では、さらに、視差計算部305bにおいて視差Dを求めた後に、基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の視差Dの変動に基づいて、類似度C(x,y,d)を計算するためのウィンドウの大きさを修正し、その修正後のウィンドウを用いて類似度C(x,y,d)を再計算する実施の形態について説明する。
図22は、本発明の第4の実施形態に係わる3次元情報復元装置を示すブロック図である。この第4の実施形態に係わる3次元情報復元装置は、画像入力部401、画像蓄積部402、探索空間計算部403、ウィンドウ決定部404、視差計算部405、3次元位置計算部406、出力部407などによって構成されている。また、視差計算部405は、類似度計算部405a、視差検出部405b、メモリ405cおよびウィンドウ修正部405dによって構成されている。
つまり、第3の実施形態とは、視差計算部405において、ウィンドウ修正部405dを備える点が異なる。したがって、第3の実施形態に係わる3次元情報復元装置と共通の動作を行なう部分(画像入力部401、画像蓄積部402、探索空間計算部403、ウィンドウ決定部404、3次元位置計算部406および出力部407)については、説明を省略する。
次に図22および図23を用いて、本発明の第4の実施形態に係わる3次元情報復元装置の動作について説明する。なお、図23は、本発明の第4の実施形態に係わる3次元情報復元装置の動作を示すフローチャートである。
視差検出部405bは、類似度計算部405aで得られた視差候補ごとの類似度を用いて、基準画像上の各投影点(x,y)における視差D(x,y)を決定する(ステップS506)。基準画像上の投影点(x,y)ごとの視差D(x,y)は、次に、ウィンドウ修正部405dに送られる。
ウィンドウ修正部405dは、視差検出部405bから送られた基準画像上の投影点(x,y)ごとの視差D(x,y)から、それらの投影点ごとに類似度C(x,y,d)を計算するためのウィンドウの大きさを修正する(ステップS507)。
ここで、上述したように、基準画像上の投影点(x,y)と別画像上の投影点(x´,y´)との間の対応づけを精度よく行うためには、平坦な画像領域、すなわち、視差変動の小さな領域では大きなウィンドウを設定し、凹凸の多い画像領域、すなわち、視差変動の大きな領域では小さなウィンドウを設定して類似度を求めればよい。そこで、ウィンドウ修正部405dは、視差検出部405bで得られた各投影点の視差D(x,y)を用いて、基準画像上の投影点(x,y)ごとに、その点の視差変動を求め、その視差変動に基づいて、ウィンドウの大きさを修正する。
基準画像上の投影点(x,y)の視差変動は、例えば、基準画像上の投影点(x,y)を中心とする(2w+1)×(2w+1)のウィンドウ内の視差D(x,y)の分散として、(26)式によって求めればよい。
Figure 2006221603
ここで、Nはウィンドウ内の画素数であり、N=(2w+1)で表される。また、S(x,y)は、ウィンドウ内の視差の総和であり、(27)式によって求められる。
Figure 2006221603
ウィンドウ修正部405dは、(26)式によって得られた基準画像上の投影点(x,y)の視差変動σ(x,y)に基づいて、投影点(x,y)ごとに、類似度C(x,y,d)を計算するためのウィンドウの大きさを決定する。ウィンドウの決定は、例えば、あらかじめ大きさの異なる複数のウィンドウを用意しておき、視差変動σ(x,y)の大きさに応じて適切なウィンドウを選択することによって行えばよい。例えば、大きさの異なる3種類のウィンドウW、WおよびW(W>W>W)に対して、(28)式に基づいてひとつのウィンドウを選択する。
Figure 2006221603
ここで、THD1およびTHD2は、あらかじめ定めた視差変動σ(x,y)に対する閾値である。
ウィンドウ修正部405dは、このようにして新たに得られた基準画像上の投影点ごとのウィンドウを類似度計算部405aに送る。
類似度計算部405aは、ウィンドウ修正部405dから送られる基準画像上の投影点(x,y)ごとのウィンドウを用いて、再度、すべての視差候補dに対して、基準画像上の投影点(x,y)と別画像上の対応する投影点(x´,y´)との間の類似度を計算する(ステップS508)。視差候補dごとの類似度の再計算は、例えば、上述した第1の実施形態と同様に、図10に示すフローチャートにしたがって行えばよい。
視差検出部405bは、このように類似度計算部405aで再計算された視差候補dごとの類似度を用いて、再度、基準画像上の投影点ごとの視差D(x,y)を求める(ステップS509)。そして、3次元位置計算部406では、視差検出部405bで新たに求められた視差D(x,y)を用いて、基準画像上に表れた物体などの3次元空間中の存在位置(X,Y,Z)を計算する(ステップS510)。
このように第4の実施形態に係わる3次元情報復元装置によれば、まず、画素の輝度変動に基づいて適切に定められたウィンドウを用いて基準画像上の投影点と別画像上の投影点との間の対応づけを行って基準画像上の投影点ごとの視差が求められる。そして、さらに、求められた視差から、基準画像上の投影点ごとに、その点を含む一定の範囲内の視差変動が求められ、その視差変動に基づいてウィンドウが修正される。そしてその修正されたウィンドウを用いて、再度、基準画像上の投影点と別画像上の投影点との間の対応づけが行われるため、より正確な投影点間の対応づけが可能になる。
なお、上述した実施形態では、ウィンドウ修正部405dにおけるウィンドウの修正を1度だけ行うこととしていたが、ウィンドウ修正部405dにおいて修正したウィンドウを用いて新たに検出された視差に基づいて、再度ウィンドウを修正することも可能である。このように、視差の検出とウィンドウの修正を反復して行うことにより、より正確な投影点間の対応づけを行うことが可能になるため、より精度よく視差を検出することが可能になる。
また、上述した実施形態では、ウィンドウ修正部405dにおいて、ウィンドウの大きさのみを修正していたが、視差検出部405bにおいて検出された視差に基づいて、ウィンドウの形状を変更することも可能である。この場合、例えば、形状の異なる複数のウィンドウをあらかじめ用意しておき、基準画像上の各投影点(x,y)に対して、ウィンドウごとに、視差検出部405bで得られた視差に基づいて視差変動を求め、その視差変動が最も小さくなるウィンドウを選択することによって、ウィンドウの形状を変更するようにすればよい。すなわち、例えば、ウィンドウが(2w+1)×(2w+1)で表される場合に、基準画像上の投影点(x,y)に対して(29)式に基づいて視差変動σ(x,y)を求め、σ(x,y)が最も小さくなるウィンドウを新たなウィンドウとして選択すればよい。
Figure 2006221603
ここで、Nはウィンドウ内の画素数であり、N=(2w+1)×(2w+1)で表される。また、S(x,y)は、ウィンドウ内の視差の総和であり、(30)式によって求められる。
Figure 2006221603
このようにウィンドウ修正部405dにおいて、ウィンドウの大きさのみならず、ウィンドウの形状をも修正できるようにすることにより、より精度よく視差の検出を行うことが可能となる。
また、上述した実施形態では、ウィンドウ修正部405dにおいて、視差検出部405bで得られた視差D(x,y)に基づいてウィンドウの修正を行っていたが、ウィンドウ修正部405dにおいて、視差D(x,y)を(2)式のdに代入し、まず基準画像上の投影点(x,y)の3次元空間における奥行きZ(x,y)を求め、その奥行きZ(x,y)の変動に基づいてウィンドウの修正を行うことも可能である。この場合、(26)式のD(x,y)の代わりに、基準画像上の投影点(x,y)の奥行きZ(x,y)を用いて、基準画像上の投影点(x,y)の奥行きの変動を求めればよい。
また、上述した実施形態では、類似度C(x,y,d)を(10)式に基づいて計算する場合、SおよびSを(9)式を用いて計算することとしていた。しかし、ウィンドウのサイズおよび形状を変更して反復して視差の検出を行う場合、これらのSおよびSの再計算は簡易に行えることが望ましい。そこで、基準画像上の各投影点(x,y)について、図24に示すような、原点(0,0)と投影点(0,y)、(x,0)および(x,y)で囲まれる領域の画素の輝度f(x,y)の総和F(x,y)を(31)式によって、あらかじめ求めておく。
Figure 2006221603
そして、図25に示すような、投影点(x,y)、(x,y)、(x,y)および(x,y)で囲まれる領域の画素の輝度の総和をSとして求める場合には、上記あらかじめ求められたF(x,y)を用いて(32)式にしたがって求める。
Figure 2006221603
このように、基準画像上の各投影点に対して、あらかじめF(x,y)を求めて記憶しておけば、基準画像上の任意の領域について画素の輝度の総和Sを簡易に計算することが可能になるため、ウィンドウの大きさや形状を変更した場合に、類似度C(x,y,d)を計算するための計算量を削減することが可能になる。なお、Sについても同様である。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第1の実施形態に係わる3次元情報復元装置の構成を示すブロック図。 第1の実施形態の動作を示すフローチャート。 ステレオ視に基づく3次元情報復元方法を説明するための図。 エピポーララインと視差の関係を示す図。 投影点間の類似度を計算するためのウィンドウを示す図。 第1の実施形態に係わるステレオカメラと基準面の関係を示す図。 第1の実施形態に係わる(x−y−d)3次元空間Vと視差探索範囲を示す図。 第1の実施形態に係わる類似度を計算するためのウィンドウを示す図。 第1の実施形態に係わる類似度を計算するためのウィンドウの重複を示す図。 第1の実施形態に係わる類似度計算部の動作を示すフローチャート。 第1の実施形態に係わる視差の探索範囲の一例を示す図。 第1の実施形態に係わる投影点の位置と視差の探索範囲との関係示す図。 第1の実施形態に係わる基準面に現れた2本の線の様子を示す図。 本発明の第2の実施形態に係わる3次元情報復元装置の構成を示すブロック図。 第2の実施形態に係わるステレオカメラと歩行者の関係を示す図。 第2の実施形態に係わる視差が等しい3次元空間中の点の関係を示す図。 第2の実施形態に係わる視差の頻度分布の一例を示す図。 第2の実施形態に係わる視差の頻度分布と視差の探索評価値の関係を示す図。 第2の実施形態に係わる類似度計算部の動作を示すフローチャート。 本発明の第3の実施形態に係わる3次元情報復元装置の構成を示すブロック図。 第3の実施形態の動作を示すフローチャート。 本発明の第4の実施形態に係わる3次元情報復元装置の構成を示すブロック図。 第4の実施形態の動作を示すフローチャート。 第4の実施形態の任意の画像領域の輝度の総和を求める方法を説明する図。 第4の実施形態の任意の画像領域の輝度の総和を求める方法を説明する図。
符号の説明
101、201、301、401・・・画像入力部
102、202、302、402・・・画像蓄積部
103、203、303、403・・・探索空間計算部
104、205、305,405・・・視差計算部
104a、205a、305a、405a・・・類似度計算部
104b、205b、305b、405b・・・視差検出部
104c、205c、305c、405c・・・メモリ
105、206、306、406・・・3次元位置計算部
106、207、307、407・・・出力部
204・・・探索評価値計算部
304、404・・・ウィンドウ決定部
405d・・・ウィンドウ修正部

Claims (17)

  1. 3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段によって撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元装置であって、
    前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算手段と、
    前記探索範囲計算手段で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算手段と、
    前記基準画像上の投影点(x,y)について、前記類似度計算手段で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出手段とを備え、
    前記類似度計算手段は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算する
    ことを特徴とする3次元情報復元装置。
  2. 前記探索範囲計算手段は、前記(x−y−d)3次元空間に含まれる前記基準面を境界とする2つの空間のうち、前記物体が存在する空間を前記視差探索範囲と定めることを特徴とする請求項1に記載の3次元情報復元装置。
  3. 前記探索範囲計算手段は、前記基準画像および前記別画像における前記基準面上の特徴から前記基準面の方程式を計算し、その計算した前記基準面の方程式から前記視差探索範囲を定めることを特徴とする請求項1または請求項2に記載の3次元情報復元装置。
  4. 前記視差検出手段は、前記基準画像上の投影点(x,y)について、前記類似度計算手段で算出した前記類似度C(x,y,d)が最大となる前記視差候補dを視差Dとして求めることを特徴とする請求項1に記載の3次元情報復元装置。
  5. 前記撮影された基準画像および前記別画像のうち過去に撮影された前記基準画像および前記別画像から復元された3次元情報に基づいて、前記(x−y−d)3次元空間内における視差探索の細かさを定める探索精度計算手段をさらに備えることを特徴とする請求項1に記載の3次元情報復元装置。
  6. 前記類似度C(x,y,d)が、前記基準画像上の投影点(x,y)を含む一定の大きさのウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間の、正規化相互相関であることを特徴とする請求項1に記載の3次元情報復元装置。
  7. 前記類似度C(x,y,d)が、前記基準画像上の投影点(x,y)を含む一定の大きさのウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間の、対応する画素間の輝度の差の絶対値の総和であることを特徴とする請求項1に記載の3次元情報復元装置。
  8. 前記類似度C(x,y,d)が、前記基準画像上の投影点(x,y)を含む一定の大きさのウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間の、対応する画素間の輝度の差の自乗の総和であることを特徴とする請求項1に記載の3次元情報復元装置。
  9. 前記探索範囲計算手段で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)ごとに前記類似度C(x,y,d)を計算するためのウィンドウを定めるウィンドウ決定手段をさらに備えることを特徴とする請求項1に記載の3次元情報復元装置。
  10. 前記ウィンドウ決定手段は、前記基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の画素の輝度変動に基づいてウィンドウの大きさを決定することを特徴とする請求項9に記載の3次元情報復元装置。
  11. 前記基準画像上の投影点(x,y)ごとに前記視差検出手段で求められた視差Dに基づいて前記類似度C(x,y,d)を計算するためのウィンドウを修正するウィンドウ修正手段をさらに備え、
    前記類似度計算手段は、前記修正したウィンドウを用いて前記類似度C(x,y,d)を再計算することを特徴とする請求項1に記載の3次元情報復元装置。
  12. 前記ウィンドウ修正手段は、前記基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の投影点の視差Dの変動に基づいて前記類似度C(x,y,d)を計算するためのウィンドウの大きさと形状のうち少なくとも一方を修正することを特徴とする請求項11に記載の3次元情報復元装置。
  13. 前記ウィンドウ修正手段は、前記基準画像上の投影点(x,y)ごとに前記視差検出手段で求められた視差Dから前記基準画像上の投影点(x,y)の3次元空間における奥行きを求め、前記基準画像上の投影点(x,y)ごとに、その点を含む一定の範囲内の投影点の奥行きの変動に基づいて前記類似度C(x,y,d)を計算するためのウィンドウの大きさと形状のうち少なくとも一方を修正することを特徴とする請求項11に記載の3次元情報復元装置。
  14. 3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の類似度C(x,y,d)から求める3次元情報復元方法であって、
    前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算ステップと、
    前記探索範囲計算ステップで定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の対応する投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算ステップと、
    前記基準画像上の投影点(x,y)について、前記類似度計算ステップで算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出ステップとを有し、
    前記類似度計算ステップでは、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算する
    ことを特徴とする3次元情報復元方法。
  15. 前記探索範囲計算ステップで定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)ごとに前記類似度C(x,y,d)を計算するためのウィンドウを定めるウィンドウ決定ステップをさらに有することを特徴とする請求項14に記載の3次元情報復元方法。
  16. コンピュータに、3次元空間中の物体を撮影する撮影手段により撮影された基準画像上の任意の投影点(x,y)と前記撮影手段もしくは他の撮影手段により撮影された別画像上における対応する投影点(x´,y´)との間の視差Dを、前記基準画像上の投影点(x,y)と視差候補dの3つの変数によって構成される(x−y−d)3次元空間内で、前記基準画像上の投影点(x,y)と前記別画像上の対応する投影点(x´,y´)との間の類似度C(x,y,d)から求めさせる3次元情報復元プログラムであって、
    前記物体と3次元空間中の基準面との幾何学的関係に基づいて、前記(x−y−d)3次元空間内における視差探索範囲を定める探索範囲計算機能と、
    前記探索範囲計算機能で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)を含むウィンドウと、前記別画像上の投影点(x´,y´)を含む同じ大きさのウィンドウとの間で、それぞれ対応する画素間の輝度の積和を用いて、視差候補ごとに前記類似度C(x,y,d)を計算する類似度計算機能と、
    前記基準画像上の投影点(x,y)について、前記類似度計算機能で算出した前記類似度C(x,y,d)に基づいて視差Dを求める視差検出機能とを備え、
    前記類似度計算機能は、前記基準画像上の投影点(x,y)と前記別画像上の投影点(x´,y´)との間の前記類似度C(x,y,d)を計算する際に得られる前記基準画像上の画素と前記別画像上の対応する画素の間の輝度の積和をメモリに記憶しておき、前記基準画像上の新たな投影点と前記別画像上の対応する新たな投影点との間で前記類似度C(x,y,d)を計算する場合には、前記メモリに記憶された前記輝度の積和を用いて前記類似度C(x,y,d)を計算する
    ことを特徴とする3次元情報復元プログラム。
  17. 前記探索範囲計算機能で定めた前記視差探索範囲内で、前記基準画像上の投影点(x,y)ごとに前記類似度C(x,y,d)を計算するためのウィンドウを定めるウィンドウ決定機能をさらに備えることを特徴とする請求項16に記載の3次元情報復元プログラム。
JP2005153965A 2004-08-09 2005-05-26 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム Pending JP2006221603A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005153965A JP2006221603A (ja) 2004-08-09 2005-05-26 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
US11/198,215 US7720277B2 (en) 2004-08-09 2005-08-08 Three-dimensional-information reconstructing apparatus, method and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004232220 2004-08-09
JP2005005649 2005-01-12
JP2005153965A JP2006221603A (ja) 2004-08-09 2005-05-26 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム

Publications (1)

Publication Number Publication Date
JP2006221603A true JP2006221603A (ja) 2006-08-24

Family

ID=35995887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005153965A Pending JP2006221603A (ja) 2004-08-09 2005-05-26 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム

Country Status (2)

Country Link
US (1) US7720277B2 (ja)
JP (1) JP2006221603A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990718A (ja) * 1982-11-15 1984-05-25 Mitsubishi Electric Corp エンジンの吸気弁制御装置
JP2009146217A (ja) * 2007-12-14 2009-07-02 Hitachi Ltd ステレオカメラ装置
JP2009293970A (ja) * 2008-06-03 2009-12-17 Fujifilm Corp 距離測定装置および方法並びにプログラム
JP2009293971A (ja) * 2008-06-03 2009-12-17 Fujifilm Corp 距離測定装置および方法並びにプログラム
JP2010154461A (ja) * 2008-12-26 2010-07-08 Samsung Techwin Co Ltd 投影画像変換器及びプロジェクタ装置
JP2011013064A (ja) * 2009-07-01 2011-01-20 Nikon Corp 位置検出装置
JP2014508430A (ja) * 2010-12-01 2014-04-03 クゥアルコム・インコーポレイテッド フィードバックベース3次元ビデオのためのゼロ視差平面
JP2014222429A (ja) * 2013-05-14 2014-11-27 株式会社リコー 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム
WO2021245973A1 (ja) * 2020-06-05 2021-12-09 日立Astemo株式会社 演算装置、視差探索方法
WO2021245972A1 (ja) * 2020-06-05 2021-12-09 日立Astemo株式会社 演算装置、視差算出方法

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221603A (ja) * 2004-08-09 2006-08-24 Toshiba Corp 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
CN101496387B (zh) 2006-03-06 2012-09-05 思科技术公司 用于移动无线网络中的接入认证的系统和方法
JP4856611B2 (ja) * 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
WO2009097552A1 (en) * 2008-02-01 2009-08-06 Omnivision Cdm Optics, Inc. Image data fusion systems and methods
US8355041B2 (en) 2008-02-14 2013-01-15 Cisco Technology, Inc. Telepresence system for 360 degree video conferencing
US8797377B2 (en) 2008-02-14 2014-08-05 Cisco Technology, Inc. Method and system for videoconference configuration
US10229389B2 (en) * 2008-02-25 2019-03-12 International Business Machines Corporation System and method for managing community assets
US8319819B2 (en) 2008-03-26 2012-11-27 Cisco Technology, Inc. Virtual round-table videoconference
US8390667B2 (en) 2008-04-15 2013-03-05 Cisco Technology, Inc. Pop-up PIP for people not in picture
US8694658B2 (en) 2008-09-19 2014-04-08 Cisco Technology, Inc. System and method for enabling communication sessions in a network environment
US8477175B2 (en) * 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
US8659637B2 (en) 2009-03-09 2014-02-25 Cisco Technology, Inc. System and method for providing three dimensional video conferencing in a network environment
US8659639B2 (en) 2009-05-29 2014-02-25 Cisco Technology, Inc. System and method for extending communications between participants in a conferencing environment
US9082297B2 (en) 2009-08-11 2015-07-14 Cisco Technology, Inc. System and method for verifying parameters in an audiovisual environment
US8684531B2 (en) * 2009-12-28 2014-04-01 Vision3D Technologies, Llc Stereoscopic display device projecting parallax image and adjusting amount of parallax
US9225916B2 (en) 2010-03-18 2015-12-29 Cisco Technology, Inc. System and method for enhancing video images in a conferencing environment
US9313452B2 (en) 2010-05-17 2016-04-12 Cisco Technology, Inc. System and method for providing retracting optics in a video conferencing environment
US8823776B2 (en) 2010-05-20 2014-09-02 Cisco Technology, Inc. Implementing selective image enhancement
CN101852609B (zh) * 2010-06-02 2011-10-19 北京理工大学 一种基于机器人双目立体视觉的地面障碍物检测方法
US8896655B2 (en) 2010-08-31 2014-11-25 Cisco Technology, Inc. System and method for providing depth adaptive video conferencing
US8599934B2 (en) 2010-09-08 2013-12-03 Cisco Technology, Inc. System and method for skip coding during video conferencing in a network environment
JP5450330B2 (ja) * 2010-09-16 2014-03-26 株式会社ジャパンディスプレイ 画像処理装置および方法、ならびに立体画像表示装置
JP5481337B2 (ja) * 2010-09-24 2014-04-23 株式会社東芝 画像処理装置
US8599865B2 (en) 2010-10-26 2013-12-03 Cisco Technology, Inc. System and method for provisioning flows in a mobile network environment
US8699457B2 (en) 2010-11-03 2014-04-15 Cisco Technology, Inc. System and method for managing flows in a mobile network environment
US8902244B2 (en) 2010-11-15 2014-12-02 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US9143725B2 (en) 2010-11-15 2015-09-22 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US8730297B2 (en) 2010-11-15 2014-05-20 Cisco Technology, Inc. System and method for providing camera functions in a video environment
US9338394B2 (en) 2010-11-15 2016-05-10 Cisco Technology, Inc. System and method for providing enhanced audio in a video environment
US8542264B2 (en) 2010-11-18 2013-09-24 Cisco Technology, Inc. System and method for managing optics in a video environment
US8723914B2 (en) 2010-11-19 2014-05-13 Cisco Technology, Inc. System and method for providing enhanced video processing in a network environment
US9111138B2 (en) 2010-11-30 2015-08-18 Cisco Technology, Inc. System and method for gesture interface control
USD678320S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD678307S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD682293S1 (en) 2010-12-16 2013-05-14 Cisco Technology, Inc. Display screen with graphical user interface
USD682294S1 (en) 2010-12-16 2013-05-14 Cisco Technology, Inc. Display screen with graphical user interface
USD682854S1 (en) 2010-12-16 2013-05-21 Cisco Technology, Inc. Display screen for graphical user interface
USD678308S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD682864S1 (en) 2010-12-16 2013-05-21 Cisco Technology, Inc. Display screen with graphical user interface
USD678894S1 (en) 2010-12-16 2013-03-26 Cisco Technology, Inc. Display screen with graphical user interface
US8692862B2 (en) 2011-02-28 2014-04-08 Cisco Technology, Inc. System and method for selection of video data in a video conference environment
US9087375B2 (en) * 2011-03-28 2015-07-21 Sony Corporation Image processing device, image processing method, and program
JP5158223B2 (ja) * 2011-04-06 2013-03-06 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US8786631B1 (en) 2011-04-30 2014-07-22 Cisco Technology, Inc. System and method for transferring transparency information in a video environment
US8934026B2 (en) 2011-05-12 2015-01-13 Cisco Technology, Inc. System and method for video coding in a dynamic environment
US8729653B2 (en) 2011-10-26 2014-05-20 Omnivision Technologies, Inc. Integrated die-level cameras and methods of manufacturing the same
US8947493B2 (en) 2011-11-16 2015-02-03 Cisco Technology, Inc. System and method for alerting a participant in a video conference
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
JP2013143753A (ja) * 2012-01-12 2013-07-22 Olympus Corp 撮像装置
JP5957359B2 (ja) * 2012-10-19 2016-07-27 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
US9681154B2 (en) 2012-12-06 2017-06-13 Patent Capital Group System and method for depth-guided filtering in a video conference environment
US9292927B2 (en) * 2012-12-27 2016-03-22 Intel Corporation Adaptive support windows for stereoscopic image correlation
JP6274557B2 (ja) * 2013-02-18 2018-02-07 株式会社リコー 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
US9843621B2 (en) 2013-05-17 2017-12-12 Cisco Technology, Inc. Calendaring activities based on communication processing
US9756312B2 (en) 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware
JP2017045124A (ja) * 2015-08-24 2017-03-02 株式会社日本自動車部品総合研究所 視差検出装置
US10823950B2 (en) * 2016-01-07 2020-11-03 Digital Surigcals PTE. LTD. Camera system with balanced monocular cues for use in digital stereo microscopes
US10237531B2 (en) 2016-06-22 2019-03-19 Microsoft Technology Licensing, Llc Discontinuity-aware reprojection
US10129523B2 (en) 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
CN108307170B (zh) * 2017-12-22 2019-09-10 宁波大学 一种立体图像重定位方法
CN109318890A (zh) * 2018-06-29 2019-02-12 北京理工大学 一种基于动态窗口及障碍物势能场的无人车动态避障方法
US11782254B2 (en) * 2020-07-24 2023-10-10 United Scope LLC Digital microscopy system and graphical user interface

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924506A (en) * 1986-07-22 1990-05-08 Schlumberger Systems & Services, Inc. Method for directly measuring area and volume using binocular stereo vision
JPH08178795A (ja) 1994-12-20 1996-07-12 Nec Corp Lcdパネル欠陥検査装置
US5910817A (en) * 1995-05-18 1999-06-08 Omron Corporation Object observing method and device
CA2184561C (en) * 1995-09-12 2001-05-29 Yasuyuki Michimoto Object detecting apparatus in which the position of a planar object is estimated by using hough transform
US5956418A (en) * 1996-12-10 1999-09-21 Medsim Ltd. Method of mosaicing ultrasonic volumes for visual simulation
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3499117B2 (ja) 1997-11-26 2004-02-23 株式会社東芝 3次元情報復元装置及びその方法
US6201541B1 (en) * 1997-12-11 2001-03-13 Cognitens, Ltd. System and method for “Stitching” a plurality of reconstructions of three-dimensional surface features of object(s) in a scene defined relative to respective coordinate systems to relate them to a common coordinate system
JPH11264724A (ja) 1998-03-18 1999-09-28 Sony Corp 画像処理装置および方法、並びに提供媒体
US6141440A (en) * 1998-06-04 2000-10-31 Canon Kabushiki Kaisha Disparity measurement with variably sized interrogation regions
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6519358B1 (en) * 1998-10-07 2003-02-11 Sony Corporation Parallax calculating apparatus, distance calculating apparatus, methods of the same, and information providing media
US6658149B1 (en) * 1999-01-07 2003-12-02 Nippon Telegraph & Telephone Corporation Scheme for identifying gray-scale image
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
US6963661B1 (en) * 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
JP2001194126A (ja) 2000-01-14 2001-07-19 Sony Corp 三次元形状計測装置および三次元形状計測方法、並びにプログラム提供媒体
US7224357B2 (en) * 2000-05-03 2007-05-29 University Of Southern California Three-dimensional modeling based on photographic images
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US6677941B2 (en) * 2000-08-05 2004-01-13 American Gnc Corporation Three-dimensional relative positioning and tracking using LDRI
JP2002163639A (ja) 2000-11-28 2002-06-07 Toshiba Corp 3次元情報復元装置及びその方法
JP2002358595A (ja) 2001-06-01 2002-12-13 Mitsubishi Electric Corp 道路交通流計測装置および道路交通流計測方法
JP3895238B2 (ja) 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
WO2004038657A2 (en) * 2002-10-22 2004-05-06 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
JP2006221603A (ja) * 2004-08-09 2006-08-24 Toshiba Corp 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
US20080002878A1 (en) * 2006-06-28 2008-01-03 Somasundaram Meiyappan Method For Fast Stereo Matching Of Images
US7738017B2 (en) * 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990718A (ja) * 1982-11-15 1984-05-25 Mitsubishi Electric Corp エンジンの吸気弁制御装置
JP2009146217A (ja) * 2007-12-14 2009-07-02 Hitachi Ltd ステレオカメラ装置
JP2009293970A (ja) * 2008-06-03 2009-12-17 Fujifilm Corp 距離測定装置および方法並びにプログラム
JP2009293971A (ja) * 2008-06-03 2009-12-17 Fujifilm Corp 距離測定装置および方法並びにプログラム
JP2010154461A (ja) * 2008-12-26 2010-07-08 Samsung Techwin Co Ltd 投影画像変換器及びプロジェクタ装置
JP2011013064A (ja) * 2009-07-01 2011-01-20 Nikon Corp 位置検出装置
JP2014508430A (ja) * 2010-12-01 2014-04-03 クゥアルコム・インコーポレイテッド フィードバックベース3次元ビデオのためのゼロ視差平面
US9049423B2 (en) 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
JP2014222429A (ja) * 2013-05-14 2014-11-27 株式会社リコー 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム
WO2021245973A1 (ja) * 2020-06-05 2021-12-09 日立Astemo株式会社 演算装置、視差探索方法
WO2021245972A1 (ja) * 2020-06-05 2021-12-09 日立Astemo株式会社 演算装置、視差算出方法

Also Published As

Publication number Publication date
US7720277B2 (en) 2010-05-18
US20060050338A1 (en) 2006-03-09

Similar Documents

Publication Publication Date Title
JP2006221603A (ja) 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
JP4216824B2 (ja) 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム
US10643347B2 (en) Device for measuring position and orientation of imaging apparatus and method therefor
US7471809B2 (en) Method, apparatus, and program for processing stereo image
US9360307B2 (en) Structured-light based measuring method and system
JP2009133753A (ja) 画像処理装置及びその方法
JP2016177388A (ja) 移動体位置姿勢計測装置
JP2008090583A (ja) 情報処理システム、プログラムおよび情報処理方法
JP6668594B2 (ja) 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP5178538B2 (ja) 深度マップを画像から決定する方法、深度マップを決定する装置
US9872011B2 (en) High-speed depth sensing with a hybrid camera setup
JP2001194126A (ja) 三次元形状計測装置および三次元形状計測方法、並びにプログラム提供媒体
JP2009530701A5 (ja)
JP4102386B2 (ja) 3次元情報復元装置
JP4524514B2 (ja) 画像処理装置、画像処理方法、および記録媒体
JP2015158394A (ja) 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP4899151B2 (ja) 視差補間処理方法および処理装置
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
JP5446516B2 (ja) 画像処理装置
KR101804157B1 (ko) 개선된 sgm 기반한 시차 맵 생성 방법
JP2005140623A (ja) 画像計測方法、装置、プログラム及び記録媒体
JP6570321B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7243671B2 (ja) 視差演算システム、情報処理装置、情報処理方法及びプログラム
CN108731644B (zh) 基于铅直辅助线的倾斜摄影测图方法及其系统
JP2004233138A (ja) 写真測量における計測点の対応付け方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100126