JP5011528B2 - 3次元距離計測センサおよび3次元距離計測方法 - Google Patents

3次元距離計測センサおよび3次元距離計測方法 Download PDF

Info

Publication number
JP5011528B2
JP5011528B2 JP2006275578A JP2006275578A JP5011528B2 JP 5011528 B2 JP5011528 B2 JP 5011528B2 JP 2006275578 A JP2006275578 A JP 2006275578A JP 2006275578 A JP2006275578 A JP 2006275578A JP 5011528 B2 JP5011528 B2 JP 5011528B2
Authority
JP
Japan
Prior art keywords
distance
parameter
image
camera
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006275578A
Other languages
English (en)
Other versions
JP2008096162A (ja
Inventor
仕剛 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate University
Original Assignee
Iwate University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate University filed Critical Iwate University
Priority to JP2006275578A priority Critical patent/JP5011528B2/ja
Publication of JP2008096162A publication Critical patent/JP2008096162A/ja
Application granted granted Critical
Publication of JP5011528B2 publication Critical patent/JP5011528B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、測定点の3次元距離を計測する3次元距離計測センサおよび3次元距離計測方法に関するものである。
移動ロボットや車両等の移動体をナビゲーションするためには、移動体周囲360度(全天周)に位置する物体に対する詳細な3次元位置情報が必要となる。このような3次元位置情報の取得方法として、ステレオ視技術が知られている。
ステレオ視技術は、撮影範囲が重複するように複数の異なる視点に配置されたカメラによって撮影を行い、得られた画像間で重複範囲の対応点を検出して(マッチング処理)、対応点に対する視差からカメラと対応点との3次元距離を計測する技術である。特に、ステレオ視技術の中でも、異なる3つの視点の画像を用いたステレオ視(3眼ステレオ視)は、2眼ステレオ視に比べてより正確なマッチング処理を行う技術として、有用視されている。
このような3眼ステレオ視を用いた技術として、特許文献1には、直角に配置された平面画像面の2組のエピポーラ線に基づいて画像のエッジの深度をより正確に決定する3眼ステレオ視方式が示されている。
Y. Ohta, M. Watanabe and K. Ikeda, "Improving Depth map byrightangled Trinocular stereo", Proc. of ICPR, 1986, pp.519-521.
上記の3眼ステレオ視方式はいわゆるピンホールカメラモデルなどで取得される平面画像上によるステレオ視処理であるため、一度に取得可能な視野が狭くナビゲーションや周辺監視などに求められる広範囲な視野内の3次元距離をより早く且つ正確に取得することが困難であった。
本発明は、上記した事情に鑑みて為されたものであり、より広い範囲内の測定点の3次元距離を早く且つより正確に測定可能な3次元距離計測センサおよび3次元距離計測方法を提供することを課題とする。
本発明に係る3次元距離計測センサは、測定点までの3次元距離を計測する3次元距離計測センサであって、魚眼レンズ特性を有すると共に、第1の視点から測定点を撮像する第1のカメラ部と、魚眼レンズ特性を有すると共に、第1の視点と異なる第2の視点から測定点を撮像する第2のカメラ部と、魚眼レンズ特性を有すると共に、第1および第2の視点と異なる第3の視点から測定点を撮像する第3のカメラ部と、第1のカメラ部、第2のカメラ部および第3のカメラ部の各々によって取得され出力される第1の平面画像、第2の平面画像および第3の平面画像から第1の球面画像、第2の球面画像および第3の球面画像をそれぞれ形成する球面画像形成手段と、第1および第2の球面画像を対応付けて第1の視差を算出すると共に、第1および第3の球面画像を対応付けて第2の視差を算出する視差算出手段と、第1の視点から測定点までの3次元距離を算出する距離算出手段と、を備え、第1および第2の視点を通る直線と第1および第3の視点を通る直線とは、交差しており、距離算出手段は、第1および第2の視差の各々に基づいて第1の視点から測定点までの第1および第2の距離パラメータを算出し、第1および第2の距離パラメータを統合することによって3次元距離を算出することを特徴とする。
本発明の3次元距離計測センサによれば、魚眼レンズ特性を有する第1〜第3のカメラ部を利用しているため、第1〜第3のカメラ部で取得された第1〜第3の平面画像には、第1〜第3のカメラ部の周囲のより広い範囲内(視野内)の情景が含まれることになる。この情景内の任意の点が測定点であるため、情景は測定点の集合とみなすことができる。そして、3次元距離計測センサでは、取得された第1〜第3の平面画像から第1〜第3の球面画像が形成された後、第1の視差が、第1および第2の球面画像を対応付けて算出され、第2の視差が、第1および第3の球面画像を対応付けて算出される。そして、測定点までの3次元距離は、第1および第2の視差にもとづく第1および第2の距離パラメータを統合して算出される。よって、一度の撮影によって広範囲の測定点に対する3次元距離を算出可能である。また、例えば、測定点が第1および第2の視点を結ぶ直線上にある場合(球面画像上ではエピポール付近に測定点の対応点が位置する場合)、第1の視差がほとんど得られないおそれがあるが、第1、第2および第3の視点は同一直線上にないので、第2の視差を確実に得ることができる。したがって、第1〜第3のカメラ部の撮像範囲の測定点に対しては、第1または第2の視差をより確実に得られるので、広範囲の測定点に対する3次元距離計測を行うことができる。また、第1及び第2の視点を通る直線上付近の測定点に対して第1及び第2の球面画像からのみ3次元距離を算出しようとすると、第1の視差の計測誤差が大きくなるが、その場合、第2の視差の計測誤差が小さくなるため、第1及び第2の視差に基づく第1及び第2の距離パラメータを統合することによって、より正確な3次元距離を算出可能である。
ここで、上記の距離算出手段は、第1および第2の距離パラメータの信頼度に応じて第1および第2の距離パラメータを重み付ける第1および第2の統合パラメータを算出する統合パラメータ算出部を有することが好ましい。
上記の距離算出手段によれば、第1および第2の距離パラメータは、その計測における信頼度に応じて重み付けされて統合されるので、計測誤差を含んで信頼度の低い距離パラメータの影響を小さくすることができる。
上記の距離算出手段は、第1および第2の視差の各々に基づいて算出される第1の視点から測定点までの第1および第2の推定距離の逆数として第1および第2の距離パラメータを算出する距離パラメータ算出部を有することが好ましい。
上記の距離算出手段によれば、第1および第2の距離パラメータは、第1および第2の視差の各々に基づいて算出される第1の視点から測定点までの3次元距離の逆数であらわされるので、測定点が非常に遠方に位置する場合においても、距離パラメータがオーバーフローすることなく算出される。
上記距離算出手段としては、第1の距離パラメータをα12、第2の距離パラメータをα13、第1の視差をdS2、第2の視差をdS3、dS2によるα12の微分をα’12、dS3によるα13の微分をα’13、第1の距離パラメータの信頼度に応じて第1の距離パラメータα12を重み付ける第1の統合パラメータをw12、第2の距離パラメータの信頼度に応じて第2の距離パラメータα13を重み付ける統合パラメータw13とするとき、3次元距離ρを以下の式(1)によって算出することが好ましい。
Figure 0005011528

ただし、
Figure 0005011528

Figure 0005011528

上記の距離算出手段によれば、3次元距離ρが(1)式〜(3)式によって算出される。例えば、第1の距離パラメータの変化に対して第1の視差の変化が0に近い場合、すなわち第1の視差による計測で第1の距離パラメータが大きな誤差を含む可能性がある場合には、(2)式および(3)式における1/|α´12|が0に近くなり、第1の統合パラメータに比べて、第2の統合パラメータが大きくなる。逆に、第2の距離パラメータの変化に対して第2の視差の変化が0に近い場合、すなわち第2の推定距離が誤差を含みやすい場合には、(1)式および(2)式における1/|α´13|が0に近くなり、第2の統合パラメータに比べて、第1の統合パラメータが大きくなる。従って、第1および第2の距離パラメータに含まれる計測誤差の度合いに応じて、第1および第2の統合パラメータが増減されるので、距離パラメータに適度な重み付けがされて測定点の3次元距離が算出される。そのため、広範囲の測定点に対して適切に3次元距離を測定することが可能である。
また、本発明に係る3次元計測センサにおいて、第1〜第3のカメラ部の配置としては、第1および第2の視点を通る直線と、第1および第3の視点を通る直線とが略直交していることが好ましい。
また、本発明に係る3次元計測センサが有する第1〜第3のカメラ部としては、具体的には略360度の画角を有する全天周カメラであり、全天周カメラは、180度以上の画角を有する魚眼レンズを2つ有し、2つの魚眼レンズの入射面が互いに反対向き配置されている。この構成では、第1〜第3のカメラ部によって第1〜第3のカメラ部の周囲の情景を一度に取得することができ、結果として、全天周の第1〜第3の球面画像を形成できる。そして、第1〜第3の球面画像に基づいて、全天周に位置する測定点に対して3次元距離を測定することができるので、例えば、画角のより小さい平面画像を複数枚組み合わせて全天周内の複数の測定点に対する3次元距離を算出する場合に比べて、全天周内の複数の測定点に対する3次元距離をより早く且つより正確に算出することができる。
また、本発明に係る3次元計測センサでは、第1〜第3のカメラ部としては、180度以上の画角を有する魚眼カメラであってもよい。
また、本発明に係る3次元距離計測方法は、測定点までの3次元距離を計測する3次元距離計測方法であって、魚眼レンズ特性を有する第1のカメラ部によって第1の視点から測定点を撮像して第1の平面画像を取得し、魚眼レンズ特性を有する第2のカメラ部によって第1の視点と異なる第2の視点から測定点を撮像して第2の平面画像を取得し、魚眼レンズ特性を有する第3のカメラ部によって第1および第2の視点と異なる第3の視点から測定点を撮像して第3の平面画像を取得する平面画像取得工程と、第1の平面画像、第2の平面画像および第3の平面画像から第1の球面画像、第2の球面画像および第3の球面画像をそれぞれ形成する球面画像形成工程と、第1および第2の球面画像を対応付けて第1の視差を算出すると共に、第1および第3の球面画像を対応付けて第2の視差を算出する視差算出工程と、第1の視点から測定点までの3次元距離を算出する距離算出工程と、を備え、第1および第2の視点を通る直線と第1および第3の視点を通る直線とは交差しており、距離算出工程は、第1および第2の視差の各々に基づいて第1の視点から測定点までの第1および第2の距離パラメータを算出し、第1および第2の距離パラメータを統合することによって3次元距離を算出することを特徴とするであることを特徴とする。
本発明の3次元距離計測方法によれば、魚眼レンズ特性を有する第1〜第3のカメラ部を利用しているため、平面画像取得工程において第1〜第3のカメラ部で取得された第1〜第3の平面画像には、第1〜第3のカメラ部の周囲のより広い範囲内(視野内)の情景が含まれることになる。この情景内の任意の点が測定点であるため、情景は測定点の集合とみなすことができる。そして、上記3次元距離計測方法では、球面画像形成工程において、取得された第1〜第3の平面画像から第1〜第3の球面画像が形成された後、視差算出工程において、第1の視差が、第1および第2の球面画像を対応付けて算出され、第2の視差が、第1および第3の球面画像を対応付けて算出される。そして、測定点までの3次元距離が、距離算出工程において、第1および第2の視差にもとづく第1および第2の距離パラメータを統合して算出される。よって、一度の撮影によって広範囲の測定点に対する3次元距離を算出可能である。また、例えば、測定点が第1および第2の視点を結ぶ直線上にある場合(球面画像上ではエピポール付近に測定点の対応点が位置する場合)、第1の視差がほとんど得られないが、第1、第2および第3の視点は同一直線上にないので、第2の視差を確実に得ることができる。したがって、第1〜第3のカメラ部の撮像範囲の測定点に対しては、第1または第2の視差をより確実に得られるので、広範囲の測定点に対する3次元距離計測を行うことができる。また、第1及び第2の視点を通る直線上付近の測定点に対して第1及び第2の球面画像からのみ3次元距離を算出しようとすると、第1の視差の計測誤差が大きくなるが、その場合、第2の視差の計測誤差が小さくなるため、第1及び第2の視差に基づく第1及び第2の距離パラメータを統合することによって、より正確な3次元距離を算出可能である。
また、上記の距離算出工程は、第1および第2の距離パラメータの信頼度に応じて第1および第2の距離パラメータを重み付ける第1および第2の統合パラメータを算出することが好ましい。
上記の距離算出工程によれば、第1および第2の距離パラメータは、その計測における信頼度に応じて重み付けされて統合されるので、計測誤差を含んで信頼度の低い距離パラメータの影響を小さくすることができる。
また、上記の距離算出工程は、第1および第2の視差の各々に基づいて算出される第1の視点から測定点までの第1および第2の推定距離の逆数として第1および第2の距離パラメータを算出することが好ましい。
上記の距離算出工程によれば、第1および第2の距離パラメータは、第1および第2の視差の各々に基づいて算出される第1の視点から測定点までの3次元距離の逆数であらわされるので、測定点が非常に遠方に位置する場合においても、距離パラメータがオーバーフローすることなく算出される。
また、上記作用を好適に奏する距離算出工程は、具体的には、第1の距離パラメータをα12、第2の距離パラメータをα13、第1の視差をdS2、第2の視差をdS3、dS2によるα12の微分をα’12、dS3によるα13の微分をα’13、第1の距離パラメータの信頼度に応じて第1の距離パラメータα12を重み付ける第1の統合パラメータをw12、第2の距離パラメータの信頼度に応じて第2の距離パラメータα13を重み付ける統合パラメータw13とするとき、3次元距離ρを上記(1)式、(2)式および(3)式によって算出する。
上記の距離算出工程によれば、第1および第2の統合パラメータが(1)式〜(3)式によって算出される。例えば、第1の距離パラメータの変化に対して第1の視差の変化が0に近い場合、すなわち第1の視差による計測で第1の距離パラメータが大きな誤差を含む可能性がある場合には、(2)式および(3)式における1/|α´12|が0に近くなり、第1の統合パラメータw12に比べて、第2の統合パラメータw13が大きくなる。逆に、第2の距離パラメータの変化に対して第2の視差の変化が0に近い場合、すなわち第2の推定距離が誤差を含みやすい場合には、(1)式および(2)式における1/|α´13|が0に近くなり、第2の統合パラメータw13に比べて、第1の統合パラメータw12が大きくなる。従って、第1および第2の距離パラメータに含まれる計測誤差の度合いに応じて、第1および第2の統合パラメータが増減されるので、距離パラメータに適度な重み付けがされて測定点の3次元距離が算出される。そのため、広範囲の測定点に対して適切に3次元距離を測定することが可能である。
本発明の3次元距離計測センサおよび3次元距離計測方法によれば、より広い範囲内の測定点の3次元距離を早く且つより正確に測定可能である。
以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図示の便宜上、図面の寸法比率は説明のものと必ずしも一致しない。
本実施形態では、本発明に係る3次元距離計測センサの一実施形態を、車両や移動ロボットなどの移動体に搭載されるナビゲーションシステムに適用した場合について説明する。
まず、図1〜図11を参照して、第一実施形態にかかるナビゲーションシステムの構成について説明する。ここで、図1は本発明に係る3次元距離計測センサの一実施形態を適用したナビゲーションシステムの構成を示すブロック図、図2(a)はステレオカメラ部を示す斜視図である。図2(b)は、第1のカメラ部の構成の一例を示す模式図であり、第1のカメラ部を側方からみた場合の図に対応する。
図1を参照すると、ナビゲーションシステム1は、3次元距離計測センサ100、表示部200、および、入力部300を備えて構成されている。表示部200は、例えばディスプレイであって、3次元距離計測センサ100で抽出した被写体の3次元構造を操作者に表示する。また、入力部300は、例えば、表示部200に設けられたタッチパネルやボタンなどであって、操作者が指示コマンドを入力するためのものである。入力部300は、入力された指示を3次元距離計測センサ100に入力する。
3次元距離計測センサ100は、ステレオカメラ部10、解析装置20を有する。ステレオカメラ部10は、移動体において周囲の情景を取得できる位置(例えば、自動車等の車両ではボンネット上)に取り付けられている。3次元距離計測センサ100は、後述する第1〜第3のカメラ部としてのカメラ11l,11r,11dにより取得された平面画像に対応する球面画像を利用して、3次元距離計測センサ100から測定点Pまでの3次元距離を算出する機能を有する。3次元距離計測センサ100は、各カメラ11l,11r,11dの視点から測定点Pまでの距離ρ,ρ,ρまでをそれぞれ測定可能である。ただし、本実施形態では、カメラ11lを距離計測のための基準カメラとし、3次元距離計測センサ100から測定点Pまでの3次元距離とは、カメラ11lの視点から測定点Pまでの距離ρとする。なお、図1では距離ρ,ρ,ρを模式的に示している。
ステレオカメラ部10は、カメラ(第1のカメラ部)11l、カメラ(第2のカメラ部)11rおよびカメラ(第3のカメラ部)11dを含んで構成されている。カメラ11lの構成について図1及び図2を利用して説明する。
カメラ11lは、図2に示すように、180度以上の画角を有する2つの魚眼レンズ12l1,12l2を有し、魚眼レンズ12l1,12l2は、それらの光軸が同一直線上であって光の入射面14l1,14l2が互いに反対向きになるように配置されている。これにより、カメラ11lは、魚眼レンズ特性を有すると共に、実質的に360度の画角を有することになる。以下の説明では、一対の魚眼レンズ12l1,12l2を単に魚眼レンズ対12lとも称す。図1では、魚眼レンズ対12lを模式的に1つのレンズで示している。また、魚眼レンズ12l1,12l2の射影方式は、例えば、等距離射影方式である。魚眼レンズ12l1,12l2は必ずしも1枚のレンズでなくてもよく、魚眼レンズ特性を有する複数枚のレンズからなるレンズ系であってもよい。
図1に示すように、カメラ11lは、魚眼レンズ対12lで結像される像を撮像するための撮像手段13lを有しており、撮像手段13lは、取得した像に対応する画像データを解析装置20に入力する。このようにカメラ11lから解析装置20に入力される画像データに対応する画像を第1の平面画像2lと称し、本実施形態では、第1の平面画像2lは、各魚眼レンズ12l1,12l2で結像されて取得される一対の魚眼画像(平面画像)を含んでいる。
撮像手段13lとしては、各魚眼レンズ12l1,12l2によって結像される像を取得できれば特に限定されないが、図2に示すように、魚眼レンズ12l1,12l2の結像面にそれぞれ配置された一対のCCD撮像素子13l1,13l2が例示される。この場合、魚眼レンズ12l1とCCD撮像素子13l1は魚眼カメラ15l1を構成しており、魚眼レンズ12l2とCCD撮像素子13l2とは魚眼カメラ15l2を構成していることになる。なお、第1のカメラ部としてのカメラ11lに含まれる魚眼レンズ対12l1および撮像手段13lは一つの筐体内に収容されていてもよいし、図2(b)に示すように別々の筐体に含まれていても良い。
上記構成のカメラ11lでは、魚眼レンズ12l1,12l2を備えることで、実質的に360度の画角を有することから、カメラ11lの全周囲(全天周)を一度に撮影可能である。すなわち、カメラ11lは、全周囲を撮影可能な全天周カメラである。
カメラ部11rの構成はカメラ11lの構成と同様である。すなわち、図1及び図2に示すように、カメラ11rは、180度以上の画角を有する一対の魚眼レンズ12r1,12r2及び撮像手段13rを有している。一対の魚眼レンズ12r1,12r2の配置関係は、魚眼レンズ1211,12l2の配置関係と同じである。また、撮像手段13rの構成も撮像手段13lの構成と同様であり、魚眼レンズ12r1,12r2に対する撮像手段13rの配置関係もカメラ11lの場合と同様である。以下の説明においては、一対の魚眼レンズ12r1,12r2を魚眼レンズ対12rとも称し、図1では、魚眼レンズ対12rを1つのレンズとして模式的に示している。なお、カメラ11rにおいても、撮像手段13rが有する一対のCCD撮像素子13r1,13r2と魚眼レンズ12r1,12r2とは、それぞれ魚眼カメラ15r1,15r2を構成していることになり、その構成の模式図は、図2(b)において「l」を「r」に変えたものに対応する。
上記構成のカメラ11rでは、撮像手段13rは、魚眼レンズ対12rで結像された像を撮像しその像に対応する画像データを解析装置20に入力する。このようにカメラ11rから解析装置20に入力される画像データに対応する画像を第2の平面画像2rを称し、本実施形態では、第2の平面画像2rは、各魚眼レンズ12r1,12r2によって結像された像に対応する一対の魚眼画像(平面画像)を含んでいることになる。そして、カメラ部11rも魚眼レンズ12l1,12l2を備えることで、実質的に360度の画角を有していることから、カメラ部11rの全周囲(全天周)を一度に撮影可能な全天周カメラである。
更に、カメラ部11dの構成もカメラ11lの構成と同様である。すなわち、図1及び図2に示すように、カメラ11dは、180度以上の画角を有する一対の魚眼レンズ12d1,12d2及び撮像手段13dを有している。一対の魚眼レンズ12d1,12d2の配置関係は、魚眼レンズ1211,12l2の配置関係と同じである。また、撮像手段13dの構成も撮像手段13lの構成と同様であり、魚眼レンズ12d1,12d2に対する撮像手段13dの配置関係もカメラ11lの場合と同様である。以下の説明においては、一対の魚眼レンズ12d1,12d2を魚眼レンズ12dとも称し、図1では、魚眼レンズ対12dをレンズとして模式的に示している。なお、カメラ11dにおいても、撮像手段13dが有する一対のCCD撮像素子13d1,13d2と魚眼レンズ12rd,12rdとは、それぞれ魚眼カメラ15d1,15d2を構成していることになり、カメラ11dの模式図は、図2(b)において添え字の「l」を「d」に変えたものに対応する。
上記構成のカメラ11dでは、撮像手段13dは、魚眼レンズ対12dで結像され撮像手段13dで取得された像に対応する画像データを解析装置20に入力する。このようにカメラ11dから解析装置20に入力される画像データに対応する画像を第3の平面画像2dと称し、本実施形態では、第3の平面画像2dは、魚眼レンズ12d1,12d2で結像された像に対応する一対の魚眼画像(平面画像)を含んでいることになる。そして、カメラ11dも魚眼レンズ12d1,12d2を備えることで、実質的に360度の画角を有していることから、カメラ11dの全周囲(全天周)を一度に撮影可能な全天周カメラである。
ステレオカメラ部10では、図2に示すように、カメラ11l〜11dは、カメラ11lとカメラ11rとが水平方向に離して配置され、カメラ11lとカメラ11dとが鉛直方向に離して配置されている。この場合、カメラ11l〜11dにより3つの異なる第1〜第3の視点V1〜V3から測定点Pが撮影されることになる。換言すれば、第1〜第3の視点V1〜V3は、第1及び第2の視点V1,V2を通る直線としてのベースラインRrと、第1及び第3の視点V1,V3を通る直線としてのベースラインRdとが略直交するような位置関係を有しており、カメラ11l〜11dは、第1〜第3の視点V1〜V3から測定点Pが撮影されるように配置されていることになる。なお、本実施形態では、第1及び第2の視点V1,V2間の距離と、第1及び第3の視点V1,V3間の距離とは略一致しているものとして説明する。
図3はカメラ11l,11r,11dを利用して撮影して取得された平面画像の一例に対応する図である。図3(a)は、カメラ11lの魚眼レンズ12l1によって結像された図を示し、図3(b)は、カメラ11rの魚眼レンズ12r1によって結像された図を示し、図3(c)は、カメラ11dの魚眼レンズ12d1によって結像された図を示す。図3に示されるように、カメラ11l,11r,11dが魚眼レンズ特性を有するため、カメラ11l,11r,11dで取得される画像では、画像の視野範囲が略円形になり、ピンホールカメラに比べてカメラ周囲のより広い視野内の環境情報を一度に取得できる。
解析装置20は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを記憶するRAM、および入出力インターフェース等を備え、球面画像形成部21と、メモリ部22と、パラメータ算出部23と、視差算出手段24と、経緯度画像形成部25と、対応点探索部26と、距離算出手段27と、構造解析部28、制御部29とを有する。解析装置20の各構成要素は、ハードウエア的に個別に構成されてもよいし、あるいは、共通のハードウエア上で稼働する各ソフトウエアによって構成されてもよい。これらのソフトウェアは別々のプログラム、サブルーチン等によって構成される場合もあるが、一部またはその大部分のルーチンを共有していてもよい。
球面画像形成部21は、第1の平面画像2l、第2の平面画像2rおよび第3の平面画像2dに基づいて第1の球面画像3l、第2の球面画像3rおよび第3の球面画像3dをそれぞれ形成する機能を有する。
ここで、3次元距離計測センサ100において利用する球面画像について説明する。この球面画像とは、カメラで取得された平面画像を仮想球面に投影して得られる画像である。より具体的に図4を利用して説明する。図4は球面画像の形成を説明するための図である。ここでは、カメラは魚眼レンズを有しているものとし、その魚眼レンズの焦点距離は、魚眼レンズ12l1等と同様にfとする。図4において、O−Xはカメラ座標系、fはカメラの焦点距離、Oはカメラの焦点、O−Xは画像平面座標系、Oは画像中心、Pは測定点、R1はPに対する投影線、pは仮想球面3における測定点Pの投影点、qは平面画像における測定点Pに対する撮像点、rは画像中心Oと撮像点qとの距離、θは投影線R1の天頂角、φはX軸に対する方位角、をそれぞれ示す。
球面画像は、カメラの焦点Oを中心としてカメラの焦点距離fを半径とする仮想球面3に平面画像の撮像点qを投影することによって得られる画像である。以下、平面画像が投影された球面3を、球面画像3とも表記する。このような球面画像3では、周りの全ての視野をカバーでき全天周を持つことが可能である。なお、本明細書では、球面射影に従って得られた部分的な球面も球面画像、例えば半球視野に対応する半球画像も特に断らない限り球面画像と称す。
ここで、球面画像3における投影点pの位置ベクトルmと、平面画像における撮像点qの座標q(x,y)との関係は以下の式によって表される。
Figure 0005011528

Figure 0005011528

Figure 0005011528
次に、球面画像形成部21により、第1の平面画像2lから第1の球面画像3lを形成する方法について説明する。図5は、球面画像形成部21により形成される第1〜第3の球面画像3l,3r,3dの斜視図である。前述したように第1の平面画像2lは、魚眼レンズ12l1,12l2により結像された像に対応する一対の魚眼画像を含んでいる。よって、球面画像形成部21は、先ず、第1の平面画像2lに含まれる一対の魚眼画像に対応する球面画像をそれぞれ形成する。すなわち、各魚眼画像における全撮像点を(4)式〜(6)式を利用して射影し、球面画像を得る。この際、各魚眼画像に対応する球面画像は、魚眼カメラ15l1,15l2のカメラ座標系で表されている。各魚眼画像に対応する球面画像は、半球視野をカバーした半球面画像に対応するため、それらを所定の画像変換によって統合することによってカメラ11lの全周囲の情景が投影された第1の球面画像3lが形成されることになる。図5では、この第1の球面画像3lを表示するための座標系をカメラ11lのカメラ座標系Sと称し、O−Xで表す。そして、カメラ座標系Sの原点Oがカメラ11lの視点(第1の視点)Vとなる。
第2及び第3の球面画像3r,3dの形成方法も同様である。そして、第2の球面画像3rを表示するための座標系をカメラ11rのカメラ座標系Sと称し、O−Xで表す。また、第3の球面画像3dを表示するための座標系をカメラ11dのカメラ座標系Sと称し、O−Xで表す。また、カメラ座標系Sの原点Oがカメラ11rの視点(第2の視点)V2となり、カメラ座標系Sの原点Oがカメラ11dの視点(第3の視点)V3となる。
上記視点V1〜V3のカメラ11l,11r,11d内における位置は、カメラ11l,11r,11dにおいて同様に決定されていれば特に限定されず、第1〜第3の球面画像3l,3r,3dの各々を形成するために、2つの半球面画像を統合する際の画像変換により調整可能である。カメラ11lの場合(すなわち、第1の球面画像3lの場合)を例にして説明すると、魚眼カメラ15l1のカメラ座標系に、他方の魚眼カメラ15l2のカメラ座標系で表される半球面画像を投影することで、第1の球面画像3lを形成した場合には、魚眼レンズ12l1の焦点が視点V1に対応することになる。また、カメラ11lに含まれる2つの魚眼カメラ15l1,15l2のカメラ座標系で表される半球面画像を、カメラ11lの中心を原点として設定された所定のカメラ座標系に投影することで第1の球面画像3lを形成した場合、カメラ11lの中心が視点V1となる。カメラ11r,11dについても同様である。なお、全天周に位置する測定点Pに対する距離計測の観点からは、カメラ11l,11r,11dの中心に設定されていることが好ましい。
また、球面画像形成部21は、図2に示された各平面画像2l,2r,2dの画素位置としての点の座標と、球面画像3l,3r,3d上の点の座標とを関連付けたテーブル(第1のテーブル)を作成しメモリ部22に登録する。
メモリ部22は、各部の処理結果を格納する機能を有し、例えば、FROM(Flash Read Only Memory)やHDD(Hard Disk Drive)などの不揮発性メモリで構成される。 各部の処理結果とは、具体的には、カメラ11l,11r,11dの内部パラメータおよび外部パラメータ、各平面画像2l,2r,2dの画素位置としての点座標と、球面画像3l,3r,3d上の点座標とを関連付けた第1のテーブル等である。
パラメータ算出部23は、カメラ11l,11r,11dの内部パラメータおよび外部パラメータを算出し、メモリ部22に格納する。
カメラ11l,11r,11dの内部パラメータとは、具体的には、カメラ11l,11r,11dが有する魚眼レンズ12l1,12l2,12r1,12r2,12d1,12d2の焦点距離及び焦点が例示される。この焦点距離及び焦点の校正に伴い、特願2005−206034号明細書に示されているように、画像平面上における径方向の放射歪みや接線歪みも校正していることが好ましい。また、カメラ11l,11r,11dの外部パラメータとは、具体的には、所定の世界座標系Sに対する各カメラ座標系S,S,Sの姿勢を示す回転行列および並進ベクトルが例示される。内部パラメータおよび外部パラメータの算出には、カメラ11l,11r,11dの画角が180度を越えることから、例えば、図6(a)に示されるような、ハーフボックスが使用され、例えば、特願2005−206034号明細書に記載の手法によりパラメータが算出される。すなわち、図6(a)に示すように3面にカラーマーキング(図6(a)では格子点)が施されたハーフボックスにおける3面の接点(角部)を原点とした世界座標系を設定する。ハーフボックスをカメラ11l、11r,11dでそれぞれ撮影し、予め初期値として設定されている各種パラメータを利用して形成される球面画像3l,3r,3d上の上記格子点の位置と、世界座標系で表される格子点を球面画像3l,3r,3dに投影した際の格子点との位置関係に基づいて内部及び外部パラメータを校正することが考えられる。図6(a)は、カメラ校正のために用いるハーフボックスに対応する図であり、図6(b)は、図6(a)をカメラの魚眼レンズで撮影した画像に対応する図である。
経緯度画像形成部25は、球面画像に対応する経緯度画像を形成する機能を図7及び図8を利用して説明する。図7はカメラ11l,11rで構成される横ペアの経緯度画像に対する対応点探索を示す図である。図8はカメラ11l,11dで構成される縦ペアの経緯度画像に対する対応点探索を示す図である。
経緯度画像とは、図7および図8に示されるような、球面画像での経度および緯度が直交するように展開された画像である。ここで、6l、6r、6dはそれぞれ球面画像3l、3r、3dに対応する経緯度画像、7rは経線に沿ったエピポーラ線、7dは緯線に沿ったエピポーラ線、を示す。また、経緯度画像形成部25は、図2に示された球面画像3l,3r,3d上の点の座標と、経緯度画像上の点6l,6r,6dの座標とを関連付けたテーブル(第2のテーブル)を作成しメモリ部22に登録する。
図9は経緯度画像の一例を示す図である。なお、図9に示した経緯度画像6lは球面画像3lを展開して形成されるものである。球面画像3lにおける投影点と経緯度画像6lにおける点との関係は、以下の式によって求められる。ここで、XeYe平面は経緯度画像6lを含む平面、L(i,j)(i=0,1,・・・,m;j=0,1,・・・,n)は経緯度画像6lに含まれておりエピポーラ線7l上の点を示す。球面画像3lにおける点Lに対応する点pの座標p(u,v,s)は、それぞれ以下の式で表される。
Figure 0005011528

Figure 0005011528

Figure 0005011528

なお、(7)式〜(9)式では球面座標3lの半径fは便宜的に1としているが、fが1でない場合には、(7)式〜(9)式で表されるu、v、sをそれぞれf倍すればよい。なお、図9では、球面画像3lから形成される経緯度画像6lを示しているが、球面画像3r,3dから形成される経緯度画像は、図9において添え字「l」をそれぞれ「r」,「d」に変えたものに相当する。この際、図9に示した点Lは、経緯度画像6r,6dにおけるL(i,j)に含まれておりエピポーラ線7r,7d上の点を示すことになる。球面画像3r,3dにおける経緯度画像6r,6f上の点Lに対応する点の座標も(7)式〜(9)式と同様の関係で対応付けられる。
対応点探索部26は、経緯度画像形成部25で形成された一対の経緯度画像6l,6r,6dにおいて測定点Pに対応する対応点p,p,pを特定する機能を有する。前述したようにエピポーラ線7lとそれに対応するエピポーラ線7rとが平行になっているので、相関法を適用することによって対応点p,p,pを容易に探索することができる。
視差算出手段24は、第1の球面画像3lと第2の球面画像3rとを対応付けてそれぞれの対応点p,p間の第1の視差d1rを算出し、第1の球面画像3lと第3の球面画像3dとを対応付けてそれぞれの対応点p,p間の第2の視差d1dを算出する機能を有する。
ここで、図10および図11を参照して、第1の視差d1rおよび第2の視差d1dの算出方法について説明する。図10は一対の球面画像における視差を説明するための図である。図11は図10のエピポーラ平面の模式図である。なお、図10および図11は、第1の視差d1rの算出方法に対応しており、第2の視差d1dを算出する場合には、図10および図11に記載の添え字「r」を「d」に置き換えるものとする。第1の視差d1rは、エピポーラ平面5rにおける円弧Cと円弧Cとの差によって定義され、第2の視差d1dは、エピポーラ平面5dにおける円弧Cと円弧Cとの差によって定義される。したがって、第1の視差d1rおよび第2の視差d1dは、それぞれ以下の式で算出される。
Figure 0005011528

Figure 0005011528

ここで、θ、θおよびθは、対応点p,pの座標をp(u,v,s)、p(u,v,s)とすると、それぞれ以下の式で表される。
Figure 0005011528

Figure 0005011528

Figure 0005011528
また、視差算出手段24は、平面画像2l,2r,2dに対して(又は平面画像に対応する経緯度画像に対して)視差dをマッピングすることで視差図を作成し、視差に応じて濃淡を付けて表示部200に表示させることも好適である。表示部200で表示される画像の濃淡でカメラ10l,10rに対する被写体の配置関係が分かる。
距離算出手段27は、第1の視差d1rおよび第2の視差d1dの各々に基づいて第1の視点Vlから測定点Pまでの第1の距離パラメータα1rおよび第2の距離パラメータα1dを算出し、第1の距離パラメータα1rおよび第2の距離パラメータα1dを統合することによって3次元距離ρを算出する機能を有する。距離算出手段27は、距離パラメータ算出部27A、統合パラメータ算出部27B、距離算出部27Cによって構成されている。
距離パラメータ算出部27Aは、第1の視差d1rおよび第2の視差d1dの各々に基づいて第1の視点Vから測定点Pまでの第1および第2の推定距離を算出し、第1及び第2の推定距離の逆数として第1の距離パラメータα1rおよび第2の距離パラメータα1dを算出する機能を有する。
ここで、図11を参照して、第1の距離パラメータα1rおよび第2の距離パラメータα1dの具体的な算出方法について説明する。第1の距離パラメータα1r(α12)および第2の距離パラメータα1d(α13)は、第1の視点V1から測定点Pまでの第1および第2の推定距離をρ1r、ρ1dとすると、それぞれ以下の式で算出される。
Figure 0005011528

Figure 0005011528

ここで、bは、本実施形態では、第1の視点Vlと第2の視点V2との間の距離及び第1の視点Vlと第3の視点V3との間の距離である。
統合パラメータ算出部27Bは、第1の距離パラメータα1rおよび第2の距離パラメータα1dの信頼度に応じて第1の距離パラメータα1rおよび第2の距離パラメータα1dを重み付ける第1の統合パラメータw1r(w12)および第2の統合パラメータw1d(w13)を算出する機能を有する。
ここで、第1の統合パラメータw1rおよび第2の統合パラメータw1dの具体的な算出方法について説明する。第1の統合パラメータw1rおよび第2の統合パラメータw1dは、それぞれ以下の式で算出される。
Figure 0005011528

Figure 0005011528

ここで、α’1rはd1rによるα1rの微分、α’1dはd1dによるα1dの微分で定義され、それぞれ以下の式で表される。
Figure 0005011528

Figure 0005011528

距離算出部27Cは、第1の距離パラメータα1rおよび第2の距離パラメータα1dを統合することによって3次元距離ρを算出する機能を有する。具体的には、3次元距離ρは、以下の式で算出される。
Figure 0005011528
構造解析部28は、距離算出手段27によって算出された距離ρを利用してカメラ11l,11r,11dの周囲の情景内の三次元形状を復元する。また、カメラ11l,11r,11dで取得された平面画像2l,2r,2d(又はそれに対応する経緯度画像6l,6r,6d)を利用して各測定点Pに対応する対応点p,p,pでの色情報や領域分割、パターン認識などの画像情報と、復元された三次元形状とにより三次元構造を抽出する。構造解析部28は、抽出した三次元構造の情報を制御部29に入力する。
制御部29は、入力部300から入力された指示コマンドに基づいて撮像手段13l,13r,13dおよび解析装置20を制御する。例えば、第1〜第3の平面画像2l,2r,2dを取得する旨の指示が入力部300を通して入力されると、制御部29は、撮像手段13l,13r,13dを駆動して第1〜第3の平面画像2l〜23を球面画像形成部21に入力せしめる。また、制御部29は、第1〜第3の平面画像2l,2r,2dの取得を停止する(又はナビゲーションを停止する)旨の指示コマンドが入力されると、撮像手段13l,13r,13dから球面画像形成部21への第1〜第3の平面画像2l,2r,2dの画像データの入力を停止せしめる。
更に、制御部29は、入力部300から内部パラメータおよび外部パラメータを算出する旨の指示コマンドが入力されると、パラメータ算出部23によって内部パラメータおよび外部パラメータを算出し、メモリ部22に入力せしめる。また、制御部29は、構造解析部28で抽出した三次元構造および距離算出手段27に基づいて、カメラ11lの周囲の三次元構造までの3次元距離ρが所定の距離よりも短くなれば、ナビゲーションシステム1が搭載される車両等の移動体のブレーキなどを作動させる制御信号を移動体の制御装置(不図示)に向けて発信する。制御信号としては、前述のようにブレーキなどを作動させるものでもよいし、アラーム信号を発するものなども有効である。
次に、図12〜図14を参照して、ナビゲーションシステム1の動作を説明し、併せて本発明による3次元距離計測方法の一実施形態を説明する。ここで、図12はナビゲーションシステムの動作を示すフローチャート、図13は図12のステップS10のサブルーチンを示すフローチャート、図14は図13のステップS15のサブルーチンを示すフローチャートである。
図12を参照すると、先ず、ステップS10において、前処理としてカメラ11l,11r,11dの内部パラメータおよび外部パラメータを校正する。この内部パラメータおよび外部パラメータの校正方法を、図13を参照して詳細に説明する。
先ず、ステップS10Aにおいて、操作者は、図6(a)に示したハーフボックスをカメラ11l,11r,11dの視野内に配置する。その後、操作者によって入力部300を介して制御部29に撮影を指示する指示が入力されると、制御部29は、CCD撮像素子13l,13r,13dを制御して、被写体としての校正パターンの像(すなわち、第1〜第3の平面画像2l,2r,2d)を取得する。
ステップS10Bにおいて、パラメータ算出部23は、撮像手段13l,13r,13dからの第1〜第3の平面画像2l,2r,2dに対応する画像データを受けとり、特願2005−26034号明細書に記載の手法と同様にしてカメラ11l,11r,11dの内部パラメータ及び外部パラメータを算出する。
図12を参照すると、ステップS10での内部パラメータおよび外部パラメータの算出後、ステップS11において、カメラ11l,11r,11dにステレオカメラ部10の周囲の情景を被写体として撮影せしめる。次に、ステップS12において、経緯度画像形成部25は、メモリ部22に記録されている第2のテーブルを参照して、取得された平面画像2l,2r,2dから経緯度画像6l,6r,6dを形成する。
続いて、ステップS13において、対応点探索部26は、経緯度画像6l,6r,6dに相関法を適用することで、ステレオカメラ部10の周囲の情景内の点P(実空間上の測定点P)に対応する対応点p,p,pを特定する。次に、ステップS14において、視差算出手段24は、第1の球面画像3lと第1の球面画像3rとを対応付けてそれぞれの対応点p,p間の第1の視差d1rを算出し、第1の球面画像3lと第3の球面画像3dとを対応付けてそれぞれの対応点p,p間の第2の視差d1dを算出する。より具体的には、(10)式〜(14)式によって算出される。
ステップS15において、距離算出手段27は、第1の視差d1rおよび第2の視差d1dの各々に基づいて第1の視点V1から測定点Pまでの第1の距離パラメータα1rおよび第2の距離パラメータα1dを算出し、第1の距離パラメータα1rおよび第2の距離パラメータα1dを統合することによって3次元距離ρを算出する。この3次元距離ρ算出方法を、図14を参照して、詳細に説明する。
ステップS15Aにおいて、距離パラメータ算出部27Aは、第1の視差d1rおよび第2の視差d1dの各々に基づいて算出される第1の視点V1から測定点Pまでの第1および第2の推定距離ρ1r,ρ1dの逆数として第1の距離パラメータα1rおよび第2の距離パラメータα1dを算出する。より具体的には、(15)式および(16)式によって算出する。
ステップS15Bにおいて、統合パラメータ算出部27Bは、第1の距離パラメータα1rおよび第2の距離パラメータα1dの信頼度に応じて第1の距離パラメータα1rおよび第2の距離パラメータα1dを重み付ける第1の統合パラメータw1rおよび第2の統合パラメータw1dを算出する。より具体的には、第1の統合パラメータw1rおよび第2の統合パラメータw1dは、(17)式〜(20)式によって算出される。
ステップS15Cにおいて、距離算出部27Cは、第1の距離パラメータα1rおよび第2の距離パラメータα1dを統合することによって3次元距離ρを算出する。より具体的には、3次元距離ρを、(21)式によって算出する。
このように距離ρが算出された後、図12を参照すると、ステップS16において、構造解析部28は、原画像である平面画像2l,2r,2dと距離ρとに基づいてステレオカメラ部10の周囲の情景の3次元形状を復元し、平面画像2l,2r,2dが有する画像情報に基づいて被写体の3次元構造を抽出する。
ステップS17において、表示部200は、構造解析部28で解析された3次元構造を操作者に表示し、ステップS18において、制御部29は、構造解析部28によって抽出されたステレオカメラ部10の周囲の3次元構造および距離ρに基づいてナビゲーションシステム1が搭載されている車両などの移動体を制御する。移動体の制御の例としては、例えば、ステレオカメラ部10の周囲の3次元構造物までの距離ρが、予め設定してある所定の距離よりも短い場合には、移動体の移動を停止せしめる制御信号(例えば、ブレーキを作動させる信号)を発信する。
次に、ステップS19において、制御部29は、入力部300から撮影を停止する旨(言い換えれば、ナビゲーションを停止する旨)の指示が入力されたか否かを判断する。停止する旨の指示に対応する停止コマンドが入力されていない場合には(ステップS19で「No」)、ステップS12に戻る。また、停止コマンドが入力された場合には(ステップS19で「Yes」)、ナビゲーションを終了する。
なお、上記方法では、カメラ11l,11r,11dの内部パラメータ、外部パラメータの校正を実施しているが、これらは、例えば、3次元距離計測センサ100を組み立てた際に一度実施しておけばよく、次にステレオカメラ部10の周囲の3次元構造を抽出する場合には、ステップS12から実施すればよい。
以上のように、3次元距離計測センサ100によれば、全天周カメラであるカメラ11l,11r,11dを利用して各カメラ11l,11r,11dの全周囲を一度に撮影している。その結果、各カメラ11l,11r,11dで取得される第1〜第3の平面画像2l,2r,2dに基づいて全天周の第1〜第3の球面画像3l,3r,3dを取得することができる。そして、第1〜第3の球面画像3l,3r,3dを利用して測定点Pまでの距離ρを算出しているため全天周内の各測定点Pまでの距離ρをより早く且つより正確に計測することが可能である。
また、距離ρを算出する際に、第1及び第2の球面画像3l,3rと、第1及び第3の球面画像3l,3dとを利用してそれぞれ算出されるれ第1及び第2の視差d1r,d1dに基づいて、第1及び第2の推定距離ρ1r,ρ1dを算出し、その逆数を第1及び第2の距離パラメータα1r,α1dとし、それらを所定の重み付け、すなわち、第1及び第2の統合パラメータw1r,w1dにより重み付けして統合していることも重要である。
仮に、第1及び第2の推定距離ρ1r,ρ1dを直接統合して3次元距離ρを算出しようとすると、測定点Pが無限遠にある場合にオーバーフローが生じ易い。一方、距離計測において無限遠の点を予め排除しておくことは困難である。これに対して、第1及び第2の推定距離ρ1r,ρ1dの逆数を第1及び第2の距離パラメータα1r,α1dとして利用する場合、(15)式及び(16)式から理解されるようにオーバーフローは主にθrが0又はπのときである。よって、距離ρを算出する際に、θrが0又はπである点を予め除いておくことで容易にオーバーフローを回避でき、結果として、より早く距離ρを算出できる。また、第1及び第2の視差d1r,d1dが画像上の対応点探索の結果として算出されるため、それらには誤差が含まれることになる。このような視差の計測誤差のよる第1及び第2の距離パラメータα1r,α1dの変動幅Δα(Nは、1r又は1d)は、次の式で表される。
Figure 0005011528
この式から理解されるように、第1及び第2の距離パラメータα1r,α1dの変動幅、言い換えれば誤差の範囲は、視差d1l,d1rのみならず、対応点の位置にも依存する。すなわち、第1及び第2の球面画像3l,3rの組又は第1及び第3の球面画像3l,3dの組の何れかにおいて対応点がエピポール近傍になるにつれて、対応する変動幅Δα1r又はΔα1dが大きくなることになる。従って、仮に、一組の第1及び第2の球面画像3l,3rから算出される第1の視差d1lのみから距離ρを算出していると、エピポール近傍の対応点に対して算出される距離の誤差が大きくなる。
これに対して、3次元計測センサ1では、第1〜第3の球面画像3l,3r,3dのうちの2組の球面画像対、すなわち、第1及び第2の球面画像3l,3rの組と、第1及び第3の球面画像3l,3dの組とを利用して第1及び第2の視差d1r,d1dを算出し、それらから第1及び第2の距離パラメータを算出している。そして、第1及び第2の距離パラメータα1r,α1dを(22)式のdの係数を利用して規定されている第1及び第2の統合パラメータw1r,w1dによって重み付けて統合しているため、より正確に距離ρを算出可能である。
すなわち、第1〜第3の視点V1〜V3が同一直線上にないため、例えば第1及び第2の球面画像3l,3rの組から算出される対応点がエピポーラに近づいた場合には、第1及び第3の球面画像3l,3dの組から算出される対応点はエピポーラから離れた位置にある傾向がある。そして、(17)式及び(18)式によれば、第1及び第2の統合パラメータw1l,w1rは、一方の距離パラメータの信頼度が低い場合には、その低い方の距離パラメータの重み付けを小さくし、他方の距離パラメータの重み付けを大きくするように決定されている。従って、(21)式では、第1及び第2の距離パラメータα1r,α1dの信頼度に応じて3次元距離ρが決定されることになるので、3次元距離計測センサ100ではより正確な距離ρを算出することが可能である。
なお、上記作用・効果を奏するためには、前述したように、カメラ11l,11rが水平方向に離れ、カメラ11l,11dが鉛直方向に離れることで、第1及び第2の視点V1,V2を通る直線としてのベースラインRr、第1及び第3の視点V1,V3を通る直線としてのベースラインRdとが略直交していることが好ましい。この場合、例えば球面画像3l,3rにおいて対応点が前述したように、エピポールに近づいたとしても、他方の球面画像の組である球面画像3l,3d側での対応点はエピポールからより離れた所に位置しやすく、結果として、第1及び第2の視差d1r,d1dの何れか一方をより高い精度で算出できることになる。
図1に示したナビゲーションシステム1では、カメラ11l,11r,11dは、魚眼レンズ対12l,12r,12dを有する全天周カメラとしているため、3次元距離計測センサ100は、単に3つのカメラ11l,11r,11dで3次元距離計測センサ100の周囲の位置する測定点Pまでの3次元距離ρを容易に測定できることになる。すなわち、より少ないカメラ数で周囲の位置する測定点Pまでの3次元距離ρを容易に測定できる構成となっている。前述したように、カメラ11l,11r,11dの各々は、一対の魚眼カメラ15l1,15l2,15r1,15r2,15d1,15d2が、互いに反対方向を撮影しているともみなせる。この場合には、3次元距離計測センサ100は、6個の魚眼カメラ15l1,15l2,15r1,15r2,15d1,15d2により、3次元距離計測センサ100の周囲に位置する測定点Pまでの3次元距離ρを測定できることになる。この場合、魚眼カメラを1つのカメラの単位とした場合、より少ないカメラ数で周囲に位置する測定点Pまでの3次元距離ρを測定可能な構成となっている。
なお、カメラ11l,11r,11dは、図15に示すように、1つの魚眼レンズ12l1,12r1,12d1を有する魚眼カメラ15l1,15r1、15d1から構成されているとすることもできる。この場合には、魚眼レンズ12l1,12r1,12d1の画角に応じた半球以上の視野内の画像が投影された第1〜第3の球面画像3l,3r,3dを一度に取得できることになるため、広範囲の情景内の測定点Pに対して距離ρ1をより早く且つより高精度に算出できることになる。よって、リアルタイム性が求められるナビゲーションシステムなどに好適に利用できる。
図16〜図19を利用して3次元計測センサ100及びその3次元計測センサ100を利用した3次元距離計測方法の効果について説明する。ここでは、3眼ステレオ(本実施形態)の場合と2眼ステレオの場合に対する、3次元距離マップを元に構成された復元画像を比較しながら、より具体的に説明する。
3次元距離計測センサ100が有するステレオカメラ部10を図16に示す構成とした。すなわち、カメラ11l,11r,11dは、ソニー製のビデオカメラ(DCR−HC30)にオリンパス製の魚眼レンズ(FCON−02)を取り付けた魚眼カメラとした。魚眼レンズの画角は、約185度である。そして、カメラ11l,11r,11dは、カメラ11l,11rを水平方向に離し、カメラ11l,11dを鉛直方向に離して配置した。なお、ここでは、カメラ11l,11r,11dの内部・外部パラメータは校正されているものとして説明する。
図17(a)は、カメラ11l,11rで構成される横ペアによって作成された3次元距離マップ、図17(b)は図17(a)に基づいて復元された復元画像を示し、図18(a)はカメラ11l,11dで構成される縦ペアによって作成された3次元距離マップ、図18(b)は図18(a)に基づいて復元された復元画像を示す、図19は縦ペア、横ペアの画像を統合して復元された復元画像を示す。
上記図17(a)及び図18(a)は、第1及び第2の推定距離ρ1r,ρ1dがマッピングされて形成されたものに相当し、それを利用して復元された図17(b)及び図18(b)に示す復元画像では、どちらもエピポール付近において大きな歪みが観測されていることがわかる。
一方、図19は本実施形態で示したように、3つのカメラ11l,11r,11dで取得された画像を全て利用すると共に、(21)式を利用して第1及び第2の距離パラメータα1r,α1dが統合されて算出される距離ρに基づいて復元されたものである。図19では、図17(b)及び図18(b)に現れていた歪みが解消されていることが確認できる。
なお、上述した実施形態は本発明に係る3次元距離計測センサ及び3次元距離計測方法の一例を示すものである。本発明に係る3次元距離計測センサ及び3次元距離計測方法は、上記実施形態に限られるものではなく、本発明の要旨を変更しないように上記実施形態を変形したものであってもよい。例えば、カメラ11l,11r,11dが有する撮像手段13l,13r,13dは、それぞれ一対のCCD撮像素子を有するとしたが、これに限定されない。例えば、1つの撮像手段13lが一つのCCD撮像素子から構成されていてもよい。この場合には、一つのCCD撮像素子の撮像面を2つの領域に分けてその2つの領域でそれぞれ魚眼レンズ12l1,12l2によって結像される像を取得すればよい。撮像手段13r,13dについても同様である。
本発明に係る3次元距離計測センサおよび3次元距離計測方法は、車両や移動ロボットなどのナビゲーションシステムや周辺監視システムに利用することが可能である。
本発明に係る3次元距離計測センサの一実施形態を適用したナビゲーションシステムの構成を示すブロック図である。 図2(a)は、ステレオカメラ部を示す斜視図である。図2(b)は、第1のカメラ部の構成の一例を示す模式図であり、第1のカメラ部を側方からみた場合の図に対応する図である。 図3(a)は、第1のカメラ部を利用して撮影して取得された平面画像の一例に対応する図である。図3(b)は、第2のカメラ部を利用して撮影され取得された平面画像の一例に対応する図である。図3(c)は、第3のカメラ部を利用して撮影され取得された平面画像の一例に対応する図である。 球面画像の模式図である。 3次元距離計測センサで形成される球面画像の模式図である。 図6(a)は、カメラ校正のために用いるハーフボックスを示す図である。図6(b)は、図6(a)を魚眼レンズで撮影した画像の一例に対応する図である。 第1及び第2のカメラ部で構成される横ペアの経緯度画像に対する対応点探索を示す図である。 第1及び第3のカメラ部構成される縦ペアの経緯度画像に対する対応点探索を示す図である。 経緯度画像の形成を説明する図である。 球面ステレオにおける視差を説明するための図である。 図10のエピポーラ平面の模式図である。 ナビゲーションシステムの動作を示すフローチャートである。 図12のステップS10のサブルーチンを示すフローチャートである。 図12のステップS15のサブルーチンを示すフローチャートである。 ステレオカメラ部の他の例を模式的に示す斜視図である。 実験に用いたステレオカメラ部を示す斜視図である。 図17(a)は、第1及び第2のカメラ部で構成される横ペアによって作成された3次元距離マップである。図17(b)は、図17(a)に基づいて復元された復元画像である。 図18(a)は、第1及び第3のカメラ部で構成される横ペアによって作成された3次元距離マップである。図18(b)は、図18(a)に基づいて復元された復元画像である。 横ペアと縦ペアの画像を統合することによって復元された復元画像である。
符号の説明
1…3次元距離計測センサ、3l…球面画像(第1の球面画像)、3r…球面画像(第2の球面画像)、3d…球面画像(第3の球面画像)、5…エピポーラ平面、6l…経緯度画像、7l,7r,7d…エピポーラ線、10…ステレオカメラ部、11l…カメラ(第1のカメラ部)、11r…カメラ(第2のカメラ部)、11d…カメラ(第3のカメラ部)、21…球面画像形成部、22…メモリ部、23…パラメータ算出部、24…視差算出手段、25…経緯度画像形成部、26…対応点探索部、27…距離算出手段、27A…距離パラメータ算出部、27B…統合パラメータ算出部、27C…距離算出部、28…構造解析部、100…3次元距離計測センサ、110…距離算出装置、C…円弧、C…円弧、e1l,e2l…第1の球面画像の一対のエピポール、e1r,e2r…第2の球面画像の一対のエピポール、V1…第1の視点、V2…第2の視点、V3…第3の視点、p…測定点の第1の球面画像上の対応点、p…測定点の第2の球面画像上の対応点、p…測定点の第3の球面画像上の対応点、S…カメラ座標系、Rr…ベースライン(第1及び第2の視点を通る直線)、Rd…ベースライン(第1及び第3の視点を通る直線)。

Claims (9)

  1. 測定点までの3次元距離を計測する3次元距離計測センサであって、
    魚眼レンズ特性を有すると共に、第1の視点から前記測定点を撮像する第1のカメラ部と、
    魚眼レンズ特性を有すると共に、前記第1の視点と異なる第2の視点から前記測定点を撮像する第2のカメラ部と、
    魚眼レンズ特性を有すると共に、前記第1および第2の視点と異なる第3の視点から前記測定点を撮像する第3のカメラ部と、
    前記第1のカメラ部、前記第2のカメラ部および前記第3のカメラ部の各々によって取得され出力される第1の平面画像、第2の平面画像および第3の平面画像から第1の球面画像、第2の球面画像および第3の球面画像をそれぞれ形成する球面画像形成手段と、
    前記第1および第2の球面画像を対応付けて第1の視差を算出すると共に、前記第1および第3の球面画像を対応付けて第2の視差を算出する視差算出手段と、
    前記第1の視点から前記測定点までの3次元距離を算出する距離算出手段と、
    を備え、
    前記第1および第2の視点を通る直線と前記第1および第3の視点を通る直線とは、交差しており、前記距離算出手段は、前記第1および第2の視差の各々に基づいて前記第1の視点から前記測定点までの前記第1および第2の距離パラメータを算出し、前記第1および第2の距離パラメータを統合することによって前記3次元距離を算出し、
    前記距離算出手段は、
    前記第1の距離パラメータをα 12 、前記第2の距離パラメータをα 13 、前記第1の視差をd S2 、前記第2の視差をd S3 、d S2 によるα 12 の微分をα' 12 、d S3 によるα 13 の微分をα' 13 、第1の距離パラメータの信頼度に応じて第1の距離パラメータα 12 を重み付ける第1の統合パラメータをw 12 、第2の距離パラメータの信頼度に応じて第2の距離パラメータα 13 を重み付ける第2の統合パラメータw 13 とするとき、3次元距離ρ 1
    Figure 0005011528
    Figure 0005011528
    Figure 0005011528
    によって算出することを特徴とする3次元距離計測センサ。
  2. 前記距離算出手段は、
    前記第1および第2の距離パラメータの信頼度に応じて前記第1および第2の距離パラメータを重み付ける前記第1および第2の統合パラメータを算出し、前記第1及び第2の距離パラメータを前記第1及び第2の統合パラメータによって重み付けして統合することを特徴とする請求項1に記載の3次元距離計測センサ。
  3. 前記距離算出手段は、
    前記第1および第2の視差の各々に基づいて算出される前記第1の視点から前記測定点までの第1および第2の推定距離の逆数として前記第1および第2の距離パラメータを算出することを特徴とする請求項1または2に記載の3次元距離計測センサ。
  4. 前記第1および第2の視点を通る直線と、前記第1および第3の視点を通る直線とは略直交していることを特徴とする請求項1〜のいずれか一項に記載の3次元距離計測センサ。
  5. 前記第1〜第3のカメラ部の各々は、略360度の画角を有する全天周カメラであり、前記全天周カメラは、180度以上の画角を有する魚眼レンズを2つ有し、2つの前記魚眼レンズがそれらの入射面が互いに反対向きになるように配置されていることを特徴とする請求項1〜のいずれか一項に記載の3次元距離計測センサ。
  6. 前記第1〜第3のカメラ部の各々は、180度以上の画角を有する魚眼カメラであることを特徴とする請求項1〜のいずれか一項に記載の3次元距離計測センサ。
  7. 測定点までの3次元距離を計測する3次元距離計測方法であって、
    魚眼レンズ特性を有する第1のカメラ部によって第1の視点から前記測定点を撮像して第1の平面画像を取得し、魚眼レンズ特性を有する第2のカメラ部によって前記第1の視点と異なる第2の視点から前記測定点を撮像して第2の平面画像を取得し、魚眼レンズ特性を有する第3のカメラ部によって前記第1および第2の視点と異なる第3の視点から前記測定点を撮像して第3の平面画像を取得する平面画像取得工程と、
    前記第1の平面画像、前記第2の平面画像および前記第3の平面画像から第1の球面画像、第2の球面画像および第3の球面画像をそれぞれ形成する球面画像形成工程と、
    前記第1および第2の球面画像を対応付けて第1の視差を算出すると共に、前記第1および第3の球面画像を対応付けて第2の視差を算出する視差算出工程と、
    前記第1の視点から前記測定点までの3次元距離を算出する距離算出工程と、
    を備え、
    前記第1および第2の視点を通る直線と前記第1および第3の視点を通る直線とは交差しており、
    前記距離算出工程では、前記第1および第2の視差の各々に基づいて前記第1の視点から前記測定点までの前記第1および第2の距離パラメータを算出し、前記第1および第2の距離パラメータを統合することによって前記3次元距離を算出し、
    前記距離算出工程は、
    前記第1の距離パラメータをα 12 、前記第2の距離パラメータをα 13 、前記第1の視差をd S2 、前記第2の視差をd S3 、d S2 によるα 12 の微分をα' 12 、d S3 によるα 13 の微分をα' 13 、第1の距離パラメータの信頼度に応じて第1の距離パラメータα 12 を重み付ける第1の統合パラメータをw 12 、第2の距離パラメータの信頼度に応じて第2の距離パラメータα 13 を重み付ける第2の統合パラメータw 13 とするとき、3次元距離ρ 1
    Figure 0005011528
    Figure 0005011528
    Figure 0005011528
    によって算出することを特徴とする3次元距離計測方法。
  8. 前記距離算出工程では、
    前記第1および第2の距離パラメータの信頼度に応じて前記第1および第2の距離パラメータを重み付ける前記第1および第2の統合パラメータを算出し、前記第1および第2の距離パラメータを前記第1及び第2の統合パラメータによって重み付けして統合することによって前記3次元距離を算出することを特徴とする請求項に記載の3次元距離計測方法。
  9. 前記距離算出工程では、
    前記第1および第2の視差の各々に基づいて算出される前記第1の視点から前記測定点までの第1および第2の推定距離の逆数として前記第1および第2の距離パラメータを算出することを特徴とする請求項またはに記載の3次元距離計測方法。
JP2006275578A 2006-10-06 2006-10-06 3次元距離計測センサおよび3次元距離計測方法 Active JP5011528B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006275578A JP5011528B2 (ja) 2006-10-06 2006-10-06 3次元距離計測センサおよび3次元距離計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006275578A JP5011528B2 (ja) 2006-10-06 2006-10-06 3次元距離計測センサおよび3次元距離計測方法

Publications (2)

Publication Number Publication Date
JP2008096162A JP2008096162A (ja) 2008-04-24
JP5011528B2 true JP5011528B2 (ja) 2012-08-29

Family

ID=39379170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006275578A Active JP5011528B2 (ja) 2006-10-06 2006-10-06 3次元距離計測センサおよび3次元距離計測方法

Country Status (1)

Country Link
JP (1) JP5011528B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10992879B2 (en) 2017-03-17 2021-04-27 Ricoh Company, Ltd. Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line
US11039120B2 (en) 2017-01-31 2021-06-15 Ricoh Company, Ltd. Imaging apparatus

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5489897B2 (ja) * 2010-07-22 2014-05-14 パナソニック株式会社 ステレオ測距装置及びステレオ測距方法
JP2012103109A (ja) * 2010-11-10 2012-05-31 Panasonic Corp ステレオ画像処理装置、ステレオ画像処理方法及びプログラム
JP5483027B2 (ja) * 2011-02-04 2014-05-07 国際航業株式会社 3次元画像計測方法、及び3次元画像計測装置
JP2012247364A (ja) * 2011-05-30 2012-12-13 Panasonic Corp ステレオカメラ装置、ステレオカメラシステム、プログラム
EP3654286B1 (en) * 2013-12-13 2024-01-17 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
CN103962548A (zh) * 2014-05-12 2014-08-06 西安热工研究院有限公司 一种兼具抗磨损和空蚀损伤的涂层材料及其制备方法
US10371821B2 (en) 2015-07-16 2019-08-06 Nippon Telegraph And Telephone Corporation Satellite signal reception apparatus, satellite signal reception method and program therefor
JP6623729B2 (ja) 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
US9674504B1 (en) * 2015-12-22 2017-06-06 Aquifi, Inc. Depth perceptive trinocular camera system
JP6975929B2 (ja) * 2017-04-18 2021-12-01 パナソニックIpマネジメント株式会社 カメラ校正方法、カメラ校正プログラム及びカメラ校正装置
JP7018566B2 (ja) 2017-04-28 2022-02-14 パナソニックIpマネジメント株式会社 撮像装置、画像処理方法及びプログラム
JP7098980B2 (ja) 2018-03-16 2022-07-12 株式会社リコー 撮像装置、画像処理装置および画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0625649B2 (ja) * 1984-03-26 1994-04-06 オムロン株式会社 立体視方法
JPH0624000B2 (ja) * 1984-11-21 1994-03-30 オムロン株式会社 複合立体視装置
JP2697917B2 (ja) * 1989-09-28 1998-01-19 日本電信電話株式会社 三次元座標計測装置
JP2611173B2 (ja) * 1992-06-11 1997-05-21 運輸省船舶技術研究所長 魚眼レンズを用いた測位方法およびその装置
JP2802034B2 (ja) * 1994-02-23 1998-09-21 松下電工株式会社 三次元物体の計測方法
JPH08329222A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd 3次元位置認識装置
JP3907891B2 (ja) * 1999-11-11 2007-04-18 富士フイルム株式会社 画像撮像装置及び画像処理装置
JP2002101408A (ja) * 2000-09-22 2002-04-05 Asahi Precision Co Ltd 監視カメラシステム
JP2005275789A (ja) * 2004-03-24 2005-10-06 Japan Science & Technology Agency 三次元構造抽出方法
JP4631048B2 (ja) * 2005-02-14 2011-02-16 国立大学法人岩手大学 撮像装置及び撮像系パラメータの校正方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039120B2 (en) 2017-01-31 2021-06-15 Ricoh Company, Ltd. Imaging apparatus
US10992879B2 (en) 2017-03-17 2021-04-27 Ricoh Company, Ltd. Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line

Also Published As

Publication number Publication date
JP2008096162A (ja) 2008-04-24

Similar Documents

Publication Publication Date Title
JP5011528B2 (ja) 3次元距離計測センサおよび3次元距離計測方法
JP4825980B2 (ja) 魚眼カメラの校正方法。
CN111462213B (zh) 一种在运动过程中获取物体3d坐标及尺寸的设备及方法
JP4825971B2 (ja) 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
JP2874710B2 (ja) 三次元位置計測装置
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
JP6585006B2 (ja) 撮影装置および車両
JP5872818B2 (ja) 測位処理装置、測位処理方法、および画像処理装置
US20130155205A1 (en) Image processing device, imaging device, and image processing method and program
JP5070435B1 (ja) 3次元相対座標計測装置およびその方法
CN110419208B (zh) 成像系统、成像控制方法、图像处理设备和计算机可读介质
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
WO2016040229A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP2010288060A (ja) 周辺表示装置
JP2007033087A (ja) キャリブレーション装置及び方法
Schönbein et al. Environmental Perception for Intelligent Vehicles Using Catadioptric Stereo Vision Systems.
KR101995344B1 (ko) 사각지역이 없는 듀얼 깊이 카메라 모듈
JP5648159B2 (ja) 3次元相対座標計測装置およびその方法
US10812691B2 (en) Image capturing apparatus and image capturing method
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
Pachidis et al. Pseudo-stereo vision system: a detailed study
JP2005275789A (ja) 三次元構造抽出方法
Dolereit et al. Converting underwater imaging into imaging in air
CN111998834B (zh) 一种裂缝监测方法及系统
JP3655065B2 (ja) 位置・姿勢検出装置と位置・姿勢検出方法と3次元形状復元装置及び3次元形状復元方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150