JP4825971B2 - 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 - Google Patents

距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 Download PDF

Info

Publication number
JP4825971B2
JP4825971B2 JP2005206034A JP2005206034A JP4825971B2 JP 4825971 B2 JP4825971 B2 JP 4825971B2 JP 2005206034 A JP2005206034 A JP 2005206034A JP 2005206034 A JP2005206034 A JP 2005206034A JP 4825971 B2 JP4825971 B2 JP 4825971B2
Authority
JP
Japan
Prior art keywords
image
spherical
distance
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005206034A
Other languages
English (en)
Other versions
JP2007024647A (ja
Inventor
仕剛 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate University
Original Assignee
Iwate University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate University filed Critical Iwate University
Priority to JP2005206034A priority Critical patent/JP4825971B2/ja
Publication of JP2007024647A publication Critical patent/JP2007024647A/ja
Application granted granted Critical
Publication of JP4825971B2 publication Critical patent/JP4825971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動ロボット等に好適に利用される距離算出装置、距離算出方法、構造解析装置及び構造解析方法である。
移動ロボットや車両等の移動体をナビゲーションするためには、移動体周囲の詳細な3次元情報が必要である。この3次元情報を得るため、一対のカメラによって取得されたステレオ画像が利用されている(非特許文献1参照)。より具体的には、ピンホールカメラモデルに基づいてステレオ画像を構成する一対の画像の対応点間の視差を算出し、その視差を利用して移動体と周囲の情景内の構造物までの距離を算出する。
R. Yang and M.Pollefeys , "Multi-Resolution Real-Time Stereo on Commodity Graphics Hardware,"2003 Conference on Computer Vision and Pattern Recognition (CVPR ’03) ,Volume1, pp211-217, ,2003
ところで、近年、周囲の視覚監視には、より広い(例えば、半球以上の)視野を持つ魚眼レンズを利用した視覚センサーが用いられてきている。このような視覚センサーでは、魚眼レンズを利用して被写体像を取得しているため、半球以上の視野内の情景が一度に取得される。そして、魚眼レンズによって取得された被写体像を画像空間での球面上に投影することで球面画像を形成することができる。
しかしながら、ステレオ画像から距離を算出する従来の手法は、前述したようにピンホールカメラモデルに基づいたものであるため、一対の魚眼レンズを利用して取得された一対の球面画像を利用して距離を求めることは困難であった。
そこで、本発明は、一対の球面画像を利用して被写体までの距離を容易に算出することができる距離算出装置、距離算出方法、構造解析装置、及び構造解析方法を提供することを目的とする。
上記課題を解決するために、本発明に係る距離算出装置は、(1)魚眼レンズ特性を有する第1のカメラ部と、(2)魚眼レンズ特性を有しており第1のカメラ部とステレオカメラ部を構成する第2のカメラ部と、(3)第1のカメラ部から出力される第1の被写体像に対応する第1の球面画像内の一対のエピポールを両極として展開される平面画像としての第1の経緯度画像を第1の被写体像から形成すると共に、第2のカメラ部から出力される第2の被写体像に対応する第2の球面画像内の一対のエピポールを両極として展開される平面画像としての第2の経緯度画像を第2の被写体像から形成する経緯度画像形成部と、(3)第1及び第2のカメラ部の視野内に含まれる実空間上の点に対応する第1及び第2の経緯度画像内の対応点を特定する対応点探索部と、(4)第1の球面画像での上記対応点である第1の対応点及び第1の球面画像の中心を通る直線と第1及び第2の球面画像の中心を通る直線とのなす第1の角度、第2の球面画像での上記対応点である第2の対応点及び第2の球面画像の中心を通る直線と第1及び第2の球面画像の中心を通る直線とのなす第2の角度、及び、第1のカメラ部と第2のカメラ部との間のカメラ部間距離に基づいて前述した実空間上の点から第1及び第2のカメラ部までの距離を算出する距離算出手段と、
を備えることを特徴とする。
上記構成によれば、魚眼レンズ特性を有する第1及び第2のカメラ部はステレオカメラ部を構成しており、第1の被写体像及び第2の被写体像を一度に取得する。第1及び第2の経緯度画像形成部は上記第1及び第2の被写体像から第1及び第2の経緯度画像を形成し、対応点探索部は実空間上の点に対応する第1及び第2の経緯度画像内での対応点を探索して特定する。距離算出手段が、第1及び第2の球面画像での上記対応点に対応する第1及び第2の対応点で決まる第1及び第2の角度、第1及び第2のカメラ部間のカメラ部間距離に基づいて上記実空間上の点から第1及び第2のカメラ部までの距離を算出する。
上記構成では、第1及び第2のカメラ部が魚眼レンズ特性を有することから、ステレオカメラ部周囲のより広い領域を被写体として撮像できる。また、エピポーラ線は、各第1及び第2の経緯度画像では互いに平行な直線であるので、例えば、エピポーラ線が大円となる第1及び第2の球面画像上で対応点を探索するより容易且つ早く対応点を探索し特定できる。その結果として、被写体に含まれる実空間上の点までの距離をより早く容易に算出することが可能である。
また、本発明に係る距離算出装置が有する距離算出手段は、第1のカメラ部の焦点距離、第2のカメラ部の焦点距離、第1の角度及び第2の角度を利用して第1及び第2の対応点間の視差を算出する視差算出部と、第1の角度、第2の角度、カメラ部間距離、及び、前述した視差に基づいて上記実空間上の点から第1及び第2のカメラ部までの距離を算出する距離算出部と、を有することが好ましい。
球面画像ではエピポーラ線は大円であるため、第1及び第2の対応点間の視差は次のように表される。すなわち、視差は、第1の球面画像でのエピポーラ線における第1の対応点とエピポールとの間の円弧の長さと、第2の球面画像でのエピポーラ線上における第2の対応点とエピポール間の円弧の長さの差として表される。この円弧の長さは、円弧が含まれる第1及び第2の球面画像の半径と円弧の中心角から求められる。上記構成では、第1及び第2の球面画像の半径は第1及び第2のカメラ部の焦点距離に対応し、円弧の中心角は第1及び第2の角度から得られる。そこで、視差算出部が、第1及び第2のカメラ部の焦点距離と第1及び第2の角度とによって第1及び第2の対応点間の視差を算出する。そして、距離算出部が、算出された視差とカメラ部間距離と第1及び第2の角度とに基づいて、対応点に対する実空間上の点から第1及び第2のカメラ部までの距離を算出する。このように一度視差を算出することによって、その視差を、例えば、第1の被写体像の図にマッピングすることで視差図を形成することが可能である。
更に、本発明に係る距離算出装置では、第1の被写体像から第1の球面画像を形成すると共に、第2の被写体像から第2の球面画像を形成する球面画像形成部と、球面画像形成部で形成される第1及び第2の球面画像を校正する校正部と、を更に備え、校正部は、第1の球面画像を表示する第1のカメラ座標系と第2の球面画像を表示する第2のカメラ座標系とを、互いのZ軸が平行であり且つ互いのY軸が平行であって互いのX軸が同一直線上に位置するように変換することによって第1及び第2の球面画像を校正し、経緯度画像形成部は、校正部によって校正された第1及び第2の球面画像に対応する第1及び第2の経緯度画像を形成することが好適である。
この場合、球面画像形成部で形成された第1及び第2の球面画像を校正部によって校正することで、被写体に対する第1及び第2のカメラ座標系の姿勢が同じになる。そして、校正部によって校正された第1及び第2の球面画像に対応する第1及び第2の経緯度画像を経緯度画像形成部が形成する。これにより、第1の経緯度画像に含まれるエピポーラ線と第2の経緯度画像に含まれるエピポーラ線とが平行なるので、対応点の探索がより容易になる。
また、本発明に係る構造解析装置は、(1)前述した本発明に係る距離算出装置と、(2)その距離算出装置で算出された上記距離と、第1及び第2の被写体像とからステレオカメラ部の周囲の3次元構造を抽出する構造解析部と、を備えることを特徴とする。
この構造解析装置では、本発明に係る上記距離算出装置を備えているので、第1及び第2のカメラ部からその周囲の情景内の3次元構造物上の点までの距離を算出できる。従って、距離算出に利用した対応点の第1及び第2の被写体像上の点と算出された距離とから3次元構造を復元することが可能である。
そして、上記構造解析装置では、構造解析部で抽出されたステレオカメラ部の周囲の3次元構造を表示する表示部を更に備えることが好ましい。これにより、表示部にはステレオカメラ部周囲の3次元構造が表示されるので、例えば、それを見ながら車両の運転を実施することが可能である。
また、本発明に係る距離算出方法は、(1)ステレオカメラ部を構成しており魚眼レンズ特性を有する第1及び第2のカメラ部によって被写体像を取得する像取得工程と、(2)第1のカメラ部から出力される第1の被写体像に対応する第1の球面画像内の一対のエピポールを両極として展開される平面画像としての第1の経緯度画像を第1の被写体像から形成すると共に、第2のカメラ部から出力される第2の被写体像に対応する第2の球面画像内の一対のエピポールを両極として展開される平面画像としての第2の経緯度画像を第2の被写体像から形成する経緯度画像形成工程と、(3)第1及び第2のカメラ部の視野内に位置する実空間上の点に対応する第1及び第2の経緯度画像内の対応点を特定する対応点探索工程と、(4)第1の球面画像での対応点である第1の対応点及び第1の球面画像の中心を通る直線と第1及び第2の球面画像の中心を通る直線とのなす第1の角度をθ、第2の球面画像での対応点である第2の対応点及び第2の球面画像の中心を通る直線と第1及び第2の球面画像の中心を通る直線とのなす第2の角度をθ、第1のカメラ部と第2のカメラ部との間のカメラ部間距離をbとしたとき、前述した実空間上の点から第1のカメラ部までの距離ρ及び第2のカメラ部までの距離ρを、
Figure 0004825971

Figure 0004825971

によって算出する距離算出工程と、を備えることを特徴とする。
この場合、ステレオカメラ部を構成する第1及び第2のカメラ部で第1及び第2の被写体像を一度に取得すると、それらから第1及び第2の経緯度画像が形成される。そして、第1及び第2の経緯度画像を利用して、実空間上の点に対応する対応点が特定された後、第1の角度、第2の角度及びカメラ部間距離に基づいて対応点に対する実空間上の点から第1及び第2のカメラ部までの距離ρ,ρが算出されることになる。
上記方法では、第1及び第2のカメラ部が魚眼レンズ特性を有することから、より広い視野内の情景を一度に撮影できる。また、第1及び第2の被写体像から形成される第1及び第2の球面画像では大円となるエピポーラ線は、各第1及び第2の経緯度画像では、互いに平行な直線であるので、例えば、第1及び第2の球面画像上で探索するより容易且つ早く対応点を探索し特定可能である。その結果として、被写体に含まれる実空間上の点までの距離を早く且つ容易に算出することが可能である。
更に、本発明の距離算出方法での距離算出工程は、第1及び第2のカメラ部の焦点距離をfとしたとき、第1及び第2の対応点間の視差dを、
Figure 0004825971

によって算出し、距離ρ及び距離ρを、
Figure 0004825971

Figure 0004825971

によって算出することが好ましい。
球面画像ではエピポーラ線は大円であるため、第1の球面画像でのエピポーラ線上における第1の対応点とエピポール間の円弧の長さと、第2の球面画像でのエピポーラ線上における第2の対応点とエピポール間の円弧の長さの差として表される。この円弧の長さは、円弧が含まれる第1及び第2の球面画像の半径と円弧の中心角から求められる。そして、第1及び第2の球面画像の半径は第1及び第2のカメラ部の焦点距離に対応し、円弧の中心角は第1及び第2の角度から得られる。
そこで、上記方法では、第1及び第2のカメラ部の焦点距離、第1及び第2の角度によって第1及び第2の対応点間の視差を算出し、その算出された視差、カメラ部距離、第1の角度及び第2の角度に基づいて、対応点に対する実空間上の点から第1及び第2のカメラ部までの距離を算出する。このように一度視差を算出することによって、その視差を、例えば、第1の被写体像の図にマッピングした視差図を形成することが可能である。
更にまた、本発明に係る距離算出方法では、第1の被写体像から第1の球面画像を形成すると共に、第2の被写体像から第2の球面画像を形成する球面画像形成工程と、球面画像形成工程で形成される第1及び第2の球面画像を校正する校正工程と、を更に有し、第1の球面画像を表示する第1のカメラ座標系と第2の球面画像を表示する第2のカメラ座標系とを、互いのZ軸が平行且つ互いのY軸が平行であって互いのX軸が同一直線上になるように変換することよって第1及び第2の球面画像を校正し、経緯度画像形成工程では、校正工程によって校正された第1及び第2の球面画像に対応する第1及び第2の経緯度画像を形成することが好適である。
この場合、球面画像形成工程で形成された第1及び第2の球面画像を校正工程によって校正することで、第1及び第2のカメラ座標系の被写体に対する姿勢が同じになる。そして、校正された第1及び第2のカメラ座標系で表される第1及び第2の球面画像に対応する第1及び第2の経緯度画像が経緯度画像形成工程で形成される。これにより、第1の経緯度画像に含まれるエピポーラ線と第2の経緯度画像に含まれるエピポーラ線とが平行になるので、対応点の探索がより容易になる。
また、本発明に係る構造解析方法は、本発明に係る距離算出方法によって算出された距離ρ及び距離ρと第1及び第2の被写体像とからステレオ部周囲の3次元構造を抽出する構造解析工程を備えることを特徴とする。
この構造解析方法では、第1及び第2のカメラ部からそれらの周囲の情景を構成する3次元構造物上の点までの距離が算出できる。従って、距離算出に利用した対応点の第1及び第2の被写体像上の点と算出された距離とから3次元構造を復元することが可能である。
本発明の距離算出装置、距離算出方法によれば、一対の球面画像を利用して被写体までの距離を容易に算出することができる。また、本発明に係る構造解析装置及び構造解析方法によれば、一対の球面画像を利用して被写体までの距離を容易に算出できるので、被写体の3次元構造を抽出することが可能である。
(第1の実施形態)
図1は、本発明に係る構造解析装置の一実施形態を適用したナビゲーションシステムのの構成を示すブロック図である。ナビゲーションシステム1は、車両や移動ロボットなどの移動体に適用される。ナビゲーションシステム1は、移動体周囲の情景(シーン)を被写体として撮影し、撮影によって取得された被写体の画像を利用して被写体の3次元構造を抽出する構造解析装置100を備える。また、ナビゲーションシステム1は、構造解析装置100で抽出された被写体の3次元構造を表示する表示部200と、操作者が各種指示を入力するための入力部300とを有する。
表示部200は、例えばディスプレイであって、構造解析装置100で抽出した被写体の3次元構造を表示して操作者に示す。また、入力部300は、例えば、表示部200に設けられたタッチパネルやボタンなどであって、操作者が指示コマンドを入力するためのものである。入力部300は、入力された指示を構造解析装置100に入力する。
構造解析装置100は、車両や移動ロボット等の移動体において周囲の情景を取得できる位置(例えば、自動車等の車両ではボンネット上)に取り付けられているステレオカメラ部10を有する。ステレオカメラ部10は、カメラ(第1のカメラ部)11l及びカメラ(第2のカメラ部)11rを含んで構成されている。
カメラ11lは、魚眼レンズ(第1の魚眼レンズ)12lと、魚眼レンズ12lの結像面(画像平面)に配置されたCCDカメラ(第1の撮像部)13lとを有し、魚眼レンズ12lで結像された像をCCDカメラ13lで撮像する。カメラ11rも同様に、魚眼レンズ(第2の魚眼レンズ)12rと、CCDカメラ(第2の撮像部)13rとを有し、魚眼レンズ12rで結像された像をCCDカメラ13rで撮像する。カメラ11l,11rは、魚眼レンズ12l,12rの光軸が互いに略平行になるように配置されている。魚眼レンズ12l,12rの画角は例えば約185°であり、その射影方式は等距離射影方式である。魚眼レンズ12l,12rは必ずしも1枚のレンズを意味するものではなく、魚眼レンズ特性を有するレンズ系も含む意味である。
図2(a)は、カメラ11lで取得される被写体像(第1の被写体像)2lの一例を示す模式図であり、図2(b)は、カメラ11rで取得される被写体像(第2の被写体像)2rの一例を示す模式図である。図2に示すように、カメラ11l,11rは、魚眼レンズ特性を有するので、取得された画像の視野範囲は略円形になる。また、魚眼レンズ12l,12rを利用していることから、カメラ11l,11r周囲のより広い視野内の環境情報を一度に取得できる。
構造解析装置100は、被写体像2lに対応する球面画像(第1の球面画像)及び被写体像2rに対応する球面画像(第2の球面画像)を利用して各カメラ11l,11rから点Pまでの距離ρ,ρを算出する。点Pは、被写体のうちカメラ11l,11rの視野の重なり領域に位置する実空間上の点である。カメラ11l,11rから点Pまでの距離とは、魚眼レンズ12l,12rの焦点から点Pまでの距離の意味であり、図1では模式的に示している。
構造解析装置100において利用する球面画像について説明する。図3は、球面画像の斜視図である。
図3に示すように、空間に半径fを有する球と、球の外側に点Pがあるとする。点Pと球の中心を結ぶ直線R1と球面3との交点をpとしたとき、点pを点Pの球面3への投影点と呼ぶ。このように球の周りの点から球面3への投影によって得られる画像を球面画像とする。すなわち、球面画像とは焦点が球の中心にある球面3である。この場合、半径fは、点Pを結像するために用いられるレンズなどの結像手段の焦点距離に相当する。以下、球面3を球面画像3とも表記する。このような球面画像3は、全天周を表示することが可能である。なお、本明細書では、球面射影に従って得られた部分的な球面も球面画像とする。
図3に示すように、球の中心を原点Oとしたカメラ座標系Sをとり、点Pの球面3への投影線R1の天頂角をθとし、X軸に対する方位角をφとし、点Pのカメラ座標系Sにおける位置ベクトルMを、
Figure 0004825971

とすると、実空間上の点Pの投影点pの位置ベクトルmは、
Figure 0004825971

と表される。ここで、スケールパラメータρを、
Figure 0004825971

とし、λを(f/ρ)とすると、式(6)と式(7)とから、
Figure 0004825971

が成り立つ。これはスケールパラメータρを除けば、mとMとは等しいことを意味する。更に、f=1としたときの球面画像を正規球面画像とも称す。以下では、特に断らない限り、球面画像3は、正規球面画像で表されるものとする。
この球面画像を魚眼レンズによって結像された被写体像から形成する方法について説明する。図4(a)は、魚眼レンズの結像特性を示す図であり、図4(b)は、図4(a)に示した魚眼レンズの画像平面の平面図である。魚眼レンズの光軸をZ軸とし、魚眼レンズの焦点を通りZ軸に直交する平面をX平面とする3次元座標系をカメラ座標系Sとする。また、魚眼レンズの光軸と画像平面との交点である画像中心を原点としたxy平面を画像座標系とする。画像座標系のx軸は、―X軸方向に延びており、y軸は、―Y軸方向に延びている。
実空間上の点Pは、魚眼レンズによってxy平面上の点q(r,φ)で表される点qに投影される。この画像座標系の原点(画像中心)oからの距離rは、魚眼レンズの射影方式を等距離射影方式とすると、
Figure 0004825971

と表される。ここで、天頂角θは、魚眼レンズに入射する入射光線と魚眼レンズの光軸とのなす角度である。なお、魚眼レンズに入射する入射光線は、図1における投影線R1に相当する。
式(10)よりrが分かれば天頂角θが算出できるので、式(7)に示すように、点pの位置ベクトルmが算出されることになる。本明細書では、平面画像としての被写体像の画素位置としての点q(r,φ)を式(7)を利用して変換することを球面画像に変換すると称す。
ところで、画像平面とカメラ座標系SのX平面とは、互いに平行であって焦点距離fだけ離れている。そのため、球面画像では、画像中心を原点oとした3次元座標系としての画像座標系で表した点pの座標と、カメラ座標系Sで表した点pの座標とは一致する。よって、以下では、特に断らない限り、焦点を原点としたカメラ座標系Sで説明する。
図1に示すように、構造解析装置100は、球面画像及びステレオ法を利用して距離ρ,ρを算出する解析装置20を有する。解析装置20は、例えば、パーソナルコンピュータであり、球面画像形成部21と、メモリ部22と、パラメータ算出部23と、校正部24と、経緯度画像形成部25と、対応点探索部26と、距離算出手段27と構造解析部28とを有する。また、解析装置20は、入力部300に接続されており、入力部300によって入力された操作者からの指示に応じて球面画像形成部21、パラメータ算出部23、校正部24、経緯度画像形成部25、対応点探索部26、距離算出手段27及びCCDカメラ13l,13rを制御する制御部29を有する。メモリ部22は、例えば、不揮発性メモリである。
球面画像形成部21は、メモリ部22に記憶された第1のテーブルを参照して、被写体像2lに対応する球面画像(第1の球面画像)3l、及び、被写体像2rに対応する球面画像(第2の球面画像)3rを形成する(図8参照)。第1のテーブルには、各被写体像2l,2rの画素位置としての点qの座標と、球面画像3l,3r上の画素位置としての点pの座標との対応関係が登録されている。各球面画像3l,3rは、メモリ部22に記憶されており魚眼レンズ12l,12rの焦点を原点O,Oとし各魚眼レンズ12l,12rの光軸をZ軸、Z軸とするカメラ座標系S,Sで表示される。
メモリ部22に記録されているカメラ座標系S,Sの情報としては、カメラ11l,11rの内部パラメータの一部を構成する焦点距離f及び焦点O,O(又は各魚眼レンズの画像中心)の他、外部パラメータとして、所定の世界座標系Sに対する各カメラ座標系S,Sの姿勢を示す回転行列R,R及び並進ベクトルT,Tが例示される。カメラ11l,11rの内部パラメータ及び外部パラメータは、初期値として構造解析装置100の設計時のものが記録されているが、パラメータ算出部23によって校正される。
パラメータ算出部23は、カメラ11l,11rの内部パラメータ及び外部パラメータを算出した後にメモリ部22に入力する。これによってメモリ部22内の内部パラメータ及び外部パラメータが校正されることになる。
パラメータ算出部23は、例えば、図5に示すようなストライプを含む校正パターン4Aがカメラ11l,11rによって撮影されると、魚眼レンズ12l,12rによって結像された被写体像2l,2rに現れる消失点対の交点として魚眼レンズ12l,12rの焦点を算出し、各被写体像2l,2rに現れる一対の消失点間の距離をπで除することで魚眼レンズ12l,12rの焦点距離f,fを算出する。ここでは、校正パターン4Aを利用して内部パラメータを算出するとしたが、例えば、被写体に含まれる任意の平行線群の消失点対を利用してもよい。
また、パラメータ算出部23は、回転行列R,R及び並進ベクトルT,Tを次の方法によって算出する。カメラ座標系S,Sを「カメラ座標系S」と表し、回転行列R,R及び並進ベクトルT,Tを「回転行列R及び並進ベクトルT」、カメラ11l,11rを「カメラ11」と表して説明する。以下、カメラ11l,11rをまとめて説明するときには同様とする。
図6に示すように、空間内の一点Pに対する世界座標系Sでの位置ベクトルMを、
Figure 0004825971

とする。
点Pに対するカメラ座標系Sでの位置ベクトルMは、式(6)と同様である。
世界座標系Sは、ベクトルr,r,rを含む回転行列R=[r,r,r]と、並進ベクトルT=[t,t,t]とでカメラ座標系Sに変換できるので、
Figure 0004825971

が成り立つ。そして、式(9)より
Figure 0004825971

となる。ただし、
Figure 0004825971

である。
ここで、カメラ11が図7に示すような市松模様(又はチェスパターン)を有する校正パターン4Bを撮影すると、校正パターン4B上の格子点(コーナー点)P(X,Y)と、点Pの球面画像3上への投影点p(u,v,s)に対して、
Figure 0004825971

が成り立つ。式(15)では、校正パターン4Bを含む平面をX平面とし、校正パターン4Bに直交する方向をZ軸方向とする世界座標系(所定の世界座標系)Sを設定している。
従って、空間上の複数の点P(iは、任意の整数)に対して、
Figure 0004825971

Figure 0004825971

を得る。
そして、次の目的関数η1
Figure 0004825971

を最小化することで、外部パラメータを算出する。
パラメータ算出部23は、カメラ11l,11rによって校正パターン4Bが撮像されると、校正パターン4Bの画像に含まれる複数の格子点Pを抽出した後、式(17)によって外部パラメータの初期値を推定する。その後、式(18)を利用して微調整を行い、外部パラメータを算出する。なお、球面画像座標、すなわち、u,v,sをカメラ11l,11rの内部パラメータで表していれば、内部パラメータと外部パラメータとを同時に算出することも可能である。
構造解析装置100は、球面画像形成部21で形成された球面画像を利用して点Pに対応する各球面画像3l,3r上の対応点間の視差を算出し、更にその視差を利用して距離ρ,ρを算出する。ここで、球面画像3l,3rにおける視差について説明する。
図8に示すように、実空間上の点Pに対する球面画像3lでの対応点(第1の対応点)をpとし、点Pに対する球面画像3rでの対応点(第2の対応点)をpとする。カメラ座標系S,Sの原点O,O及び対応点p,pを含むエピポーラ平面5と、球面画像3l,3rとの交線がエピポーラ線である。そのため、球面画像3l,3rではエピポーラ線は大円となる。従って、点Pに対する視差は、エピポーラ線上におけるX軸から対応点pまでの円弧C(図中、エピポールe1lから点pまでの円弧)の長さと、エピポーラ線上におけるX軸から対応点pまでの円弧C(図中、エピポールe1rから点pまでの円弧)の長さの差と定義する。これは、点pを第2のカメラ座標系Sで表した点pと、点pとの間の円弧の長さに相当する。
図1に示すように、解析装置20は、上記視差を利用して距離ρ,ρを算出するために、校正部24と、経緯度画像形成部25と、対応点探索部26と、距離算出手段27とを有する。
校正部24は、球面画像3l,3rを校正する。球面画像3l,3rの校正とは、図8に示すように、カメラ座標系SのX軸(X軸)とカメラ座標系SのX軸(X軸)とが同一直線上であって、カメラ座標系SのZ軸とカメラ座標系SのZ軸とが平行且つカメラ座標系SのY軸とカメラ座標系SのY軸とが平行になるようにカメラ座標系S及びカメラ座標系Sを変換し、その変換されたカメラ座標系S,Sで球面画像3l,3rを表すことである。
なお、この校正部24で校正されたカメラ座標系S,Sでは、カメラ座標系SをX方向に平行移動させることでカメラ座標系Sはカメラ座標系Sに重なることになる。そこで、校正部24でのカメラ座標系S,Sの変換をカメラ座標系の平行化とも称す。
ここで、校正部24でのカメラ座標系S,Sの変換について説明する。式(13)より、カメラ座標系S,Sの焦点(原点)O,Oの世界座標系Sでの座標は、次式により算出される。
Figure 0004825971

式(13)及び式(19)より、点Pの球面画像3l,3rへの投影点p,pは、それらの位置ベクトルをm,mとすると、
Figure 0004825971

となる。
校正部24でのカメラ座標系S,Sの変換では、カメラ座標系S,Sが互いに平行であってX軸、X軸が球面画像3l,3rの中心(原点O,O)を通るように新しい回転行列Rを決定する。この回転行列Rによって校正後の空間の点Pと投影点p,pとの関係は、
Figure 0004825971

と表される。この回転行列Rは次のようにして決定される。回転行列R
Figure 0004825971

とする。校正後のX軸及びX軸は2つの原点O,Oを通る直線R2と平行であることから、次式が成り立つ。
Figure 0004825971

また、Y(Y)軸がX(X)軸と直交することから、校正前のカメラ座標系SのZ軸の単位ベクトルをkとしたとき、次式が成り立つ、
Figure 0004825971

更に、ra1〜ra3の間には次式が成り立つ。
Figure 0004825971

式(23)〜式(25)によってra1〜ra3が算出され、回転行列Rが決定される。
次に、校正前の球面画像3l(3r)上の点と、校正後の球面画像3l(3r)上の点との対応関係について説明する。
実空間の点Pに対応する校正前の球面画像3l上の対応点をploとし、校正後の球面画像3l上の対応点をplnとし、それらの位置ベクトルをmlo,mlnとすると、
Figure 0004825971

となる。また、点Pと点ploとを通る直線の方程式及び点Pと点plnを通る直線の方程式は、次のように表される。
Figure 0004825971

校正前後において原点位置及び半径は変わらないことから、λoとλnは等しい。ここでは、球面画像3lについて説明しているが、球面画像3rについても同様であり、
Figure 0004825971

が成り立つ。式(27)及び式(28)より、
Figure 0004825971

が成り立つ。
校正部24は、メモリ部22に記録されている校正前の球面画像3l,3rの点pの座標を式(29)で変換することで球面画像3l(3r)を校正する。以下の説明では、校正前後において球面画像3l(3r)を区別する場合には、校正前の球面画像3l(3r)上の点をp(u,v,s)とし、校正後の球面画像3l(3r)上の点をp(u,v,s)とも表す。
経緯度画像形成部25は、図9に示すように、メモリ部22に記録されている第2のテーブルを参照して被写体像2lに対応する経緯度画像(第1の経緯度画像)6l及び被写体像2rに対応する経緯度画像(第2の経緯度画像)6rを形成する。経緯度画像6l(6r)とは、球面画像3l(3r)を、それらに含まれるエピポールe1l(e1r)及びエピポールe2l(e2r)を両極として球面画像3l(3r)での経度及び緯度が直交するように展開した図である。経緯度画像6l(6r)では、図9に示すように、経緯度画像6l(6r)に含まれる複数のエピポーラ線7l(7r)は互いに平行になる。
メモリ部22に記録されている第2のテーブルには、被写体像2l(2r)の点qの座標と、校正された球面画像3l(3r)に対応する経緯度画像の点pの座標との対応関係が示されている。より具体的に説明する。
図9に示したように、経緯度画像6l(6r)を含む平面をx平面とし、経緯度画像6l(6r)に含まれておりエピポーラ線7l(7r)上に位置する点をL(i,j)(i=0,1,・・・M;j=0,1,・・・N)としたとき、校正された正規球面画像における点Lに対応する点p(u,v,s)の座標は、
Figure 0004825971

式(30)では、説明の便宜のため、経緯度画像6l又は経緯度画像6rに含まれる点をまとめて点Lで表している。以下では、各経緯度画像6lに含まれる点Lに対応する点pの各座標には「l」を付し、各経緯度画像6rに含まれる点Lに対応する点pの各座標には「r」を付して表す。
式(7)、式(10)、式(29)、式(30)等により、経緯度画像の点L(i,j)と、被写体像2l,2rの点q(x,y)とは、
Figure 0004825971

で対応づけられており、第2のテーブルには点qの座標と点Lの座標との対応関係が示されている。これによって、経緯度画像形成部25では、校正部24で校正された球面画像3l(3r)を展開した経緯度画像6l(6r)が形成されることになる。従って、経緯度画像6lに含まれるエピポーラ線7lと経緯度画像6rに含まれるエピポーラ線7rとが平行になっている。
なお、経緯度画像形成部25は、上記第2のテーブルを形成する機能も有し、例えば、構造解析装置20の組立時に第2のテーブルを作成しメモリ部22に記録せしめる。
対応点探索部26は、経緯度画像形成部25で形成された一対の経緯度画像6l,6rに対して相関法を適用することによって対応点p,pを特定する。前述したように、エピポーラ線7lとそれに対応するエピポーラ線7rとが平行になっていることから、対応点p,pの探索が容易である。
図1に示すように、距離算出手段27は、視差算出部27Aと距離算出部27Bとを有する。視差算出部27Aは、2つの球面画像3l,3rに含まれる対応点p,p間の視差を算出する。図10に示すように、エピポーラ平面5における円弧Cと円弧Cとの差が視差dである。点pと原点Oとを通る直線(投影線)R1と原点O,Oを通る直線R2とのなす第1の角度をθとし、点pと原点Oとを通る直線(投影線)R1と直線R2とのなす第2の角度をθとして、距離算出手段27は、
Figure 0004825971

に基づいて視差dを算出する。
式(32)におけるθ及びθは、対応点p,pの座標をp(u,v,s)、p(u,v,s)としたときに、
Figure 0004825971

である。
また、視差算出部27Aは、被写体像2l,2rに対して(又は経緯度画像6l,6rに対して)視差dをマッピングすることで視差図を作成し、視差に応じて濃淡を付けて表示部200に表示させることも好適である。表示部200で表示される画像の濃淡でカメラ11l,11rに対する被写体の配置関係が分かる。
距離算出部27Bは、カメラ11l,11rから実空間上の点Pまでの距離ρ,ρを視差算出部27Aで算出された視差dを利用して算出する。距離算出部27Bは、距離ρ,ρを、
Figure 0004825971

Figure 0004825971

に基づいて算出する。ここで、bは、カメラ部間距離であり、校正されたカメラ座標系S,Sの原点O,O間の距離である。
構造解析部28は、距離算出手段27によって算出された距離ρ,ρを利用して情景内の3次元形状を復元する。また、カメラ11l,11rで取得された被写体像2l,3r(又は球面画像3l,3r)を利用して各点Pに対応する対応点p,pでの色情報や領域分割、パターン認識などの画像情報と、復元された3次元形状とにより3次元構造を抽出する。構造解析部28は、抽出した3次元構造の情報を制御部29に入力する。
制御部29は、入力部300から入力された指示に基づいてCCDカメラ13l,13r及び解析装置20を制御する。
例えば、被写体像2l,2rを取得する旨の指示が入力部300を通して入力されると、制御部29は、CCDカメラ13l,13rを駆動して被写体像2l,2rを球面画像形成部21に入力せしめる。また、制御部29は、被写体像2l,2rの取得を停止する(又はナビゲーションを停止する)旨の指示が入力されると、CCDカメラ13l,13rから球面画像形成部21への被写体像2l,2rの画像データの入力を停止せしめる。
更に、制御部29は、内部パラメータ及び外部パラメータを算出する旨の指示が入力されると、パラメータ算出部23によって内部パラメータ及び外部パラメータを算出し、メモリ部22に入力せしめる。また、制御部29は、球面画像3l,3rを校正する旨の指示が入力されると、校正部24によって球面画像3l,3rを校正する。
また、制御部29は、構造解析部28で抽出した3次元構造及び距離算出手段27に基づいて、カメラ11l,11rの周囲の3次元構造までの距離ρ,ρが所定の距離よりも短くなれば、ナビゲーションシステム1が搭載される移動体のブレーキなどを作動させる制御信号を移動体の制御装置(不図示)に向けて発信する。制御信号としては、前述のようにブレーキなどを作動させるものでもよいし、アラーム信号を発するものなども有効である。
上述した解析装置20は、パーソナルコンピュータとしたが、CCDカメラ13l,13rから入力される画像データ等を一時記憶するRAM(Random Access Memory)、上記球面画像形成部21、パラメータ算出部23、校正部24、経緯度画像形成部25、対応点探索部26、距離算出手段27、構造解析部28及び制御部29で実施される各処理のためのプログラムやデータが格納されたROM(Read Only Memory)、このROMに格納されたプログラムを実行することにより、ROMおよびRAMに記憶されたデータに基づいて各種の演算処理を行うCPU(Central Processing Unit)などのハードウェアを備えていればよい。
次に、図11及び図12を利用して上記ナビゲーションシステムの動作について説明する。図11は、ナビゲーションシステムの動作のフローチャートを示す図である。
先ず、S10において、前処理1としてカメラ11l,11rの内部パラメータ及び外部パラメータを校正する。この内部パラメータ及び外部パラメータの校正方法を、図12を利用して具体的に説明する。図12は、内部パラメータ及び外部パラメータの校正方法のフローチャートを示す図である。
先ず、S10Aにおいて、操作者は、図5に示した校正パターン4Aをカメラ11l,11rの視野内に配置する。その後、操作者によって入力部300を介して制御部29に撮影を指示する指示が入力されると、制御部29は、CCDカメラ13l,13rを制御して、被写体としての校正パターン4Aの像(すなわち、被写体像)を取得する。
S10Bにおいて、パラメータ算出部23は、CCDカメラ13l,13rからの画像データを受けると、被写体像2l,2rに含まれる消失点対を算出後、それらの消失点から焦点位置(画像中心位置)を算出する。また、一対の消失点間の距離をπで除することによって焦点距離fを算出する。パラメータ算出部23は、算出した焦点距離f及び焦点(画像中心)をメモリ部22に入力することによって内部パラメータを校正する。
更に、S10Cにおいて操作者は、S10Aと同様にして図7に示した校正パターン4Bをカメラ11l,11rで撮影する。そして、S10Dにおいて、球面画像形成部21は、CCDカメラ13l,13rからの画像データを受けると、撮影して取得された被写体像2l,2rを球面画像3l,3rに変換する。次いで、S10Eにおいて、パラメータ算出部23は、式(16)〜式(18)によってカメラ11l,11rの外部パラメータR,R,T,Tを算出し、メモリ部22に入力することによってカメラ11l,11rの外部パラメータを校正する。
図11に示すように、S10での内部パラメータ及び外部パラメータの算出後、S11の処理を実行する。すなわち、前処理2として、カメラ11l,11rで取得された各被写体像2l,2rから形成された一対の球面画像3l,3rを校正する。より具体的には、校正部24は、式(23)〜式(25)により回転行列Rを算出し、式(29)を利用して第1のテーブルを校正する。そして、経度画像形成部25は、校正された球面画像3l,3rを経緯度画像6l,6rに展開して、第2のテーブルを作成し、メモリ部22に記録せしめる。
これにより、以降の工程において、経緯度画像形成部25が経緯度画像を形成する場合には、校正された球面画像3l,3rに対応する経緯度画像6l,6rが形成されることになる。
次に、S12において、カメラ11l,11rを駆動してステレオカメラ部10の周囲の情景を被写体として撮影せしめる。S13において、経緯度画像形成部25は、メモリ部22に記録されている第2のテーブルを参照して、取得された被写体像2l,2rから経緯度画像6l,6rを形成する。続いて、S14において、対応点探索部26は、経緯度画像6l,6rに相関法を適用することで、ステレオカメラ部10の周囲の情景内の点P(実空間上の点P)に対応する対応点p,pを特定する。S15において、距離算出手段27は、対応点p,p間の視差dを式(32)によって算出し、更に、式(34)及び式(35)によって距離ρ,ρを算出する。
このように距離ρ,ρが算出された後、S16において、構造解析部28は、原画像である被写体像2l,2rと距離ρ,ρとに基づいてステレオカメラ部10の周囲の情景の3次元形状を復元し、被写体像2l,2rが有する画像情報に基づいて被写体の3次元構造を抽出する。S17において、表示部200は、構造解析部28で解析された3次元構造を操作者に表示し、S18において、制御部29は、構造解析部28によって抽出されたステレオカメラ部10の周囲の3次元構造及び距離ρ,ρに基づいてナビゲーションシステム1が搭載されている車両などの移動体を制御する。移動体の制御の例としては、例えば、ステレオカメラ部10の周囲の3次元構造物までの距離ρ,ρが予め設定してある所定の距離よりも短い場合には、移動体の移動を停止せしめる制御信号(例えば、ブレーキを作動させる信号)を発信する。
次に、S19において、制御部29は、入力部300から撮影を停止する旨(言い換えれば、ナビゲーションを停止する旨)の指示が入力されたか否かを判断する。停止する旨の指示に対応する停止コマンドが入力されていない場合には(S19で「No」)、S12に戻る。また、停止コマンドが入力された場合には(S19で「Yes」)、ナビゲーションを終了する。
なお、上記方法では、カメラ11l,11rの内部パラメータ、外部パラメータ及び球面画像3l,3rの校正や、第2のテーブルの作成を実施しているが、これらは、例えば、構造解析装置100を組み立てた際に一度実施しておけばよく、次にステレオカメラ部10の周囲の3次元構造を抽出する場合には、S12から実施すればよい。
上記構造解析装置100を備えたナビゲーションシステム1では、被写体の撮影に画角の大きい魚眼レンズ12l,12rを利用していることから、より広い視野内の情景を一度に取得することができる。また、カメラ11l,11rで取得された被写体像2l,2rを球面画像3l,3rに変換することで、投影点を一様に表現できている。更に、球面画像3l,3rを利用していることから、従来の平面画像に対してステレオ法を適用するときのように奥行きで表現せずに、実空間上の点Pからカメラ11l,11rまでの距離ρ,ρで表現される。これにより、カメラ11l,11rと、カメラ11l,11rが取り付けられている車体や移動ロボットとの相対位置が分かれば、車両や移動ロボットからの距離を計算でき、衝突の予測などに利用できる。
更にまた、経緯度画像6l,6rを利用して対応点p,pを特定しているので、球面画像3l,3r上のエピポーラ線を利用して対応点探索を実施する場合よりも早く且つ容易に対応点p,pを特定可能である。よって、車両や移動ロボットなどの移動体に好適に適用可能である。
上記ナビゲーションシステム1は、構造解析装置100を備えるとしたが、図13に示すように、距離算出装置110を備えたナビゲーションシステム8としても良い。図13に示した距離算出装置110は、解析装置120が構造解析部を備えていない点で、構造解析装置100の構成と相違する。
この場合、制御部29は、距離算出手段27で算出された距離ρ,ρが所定の距離より短くなった場合に、例えば、車両などの移動体を停止するように制御すればよい。この距離算出装置110が有するカメラ11l,11rの内部パラメータ及び外部パラメータの算出方法は、構造解析装置100の場合と同様である。
更に、距離算出装置110を備えたナビゲーションシステム8の動作は、図11に示したS10〜S17の工程と同様の工程を実施した後に、S18において、制御部29が、距離算出手段27で算出された距離ρ,ρに基づいて移動体を制御する。次いで、S19において停止コマンドが入力されたか否かを構造解析装置100の場合と同様に判断し、停止する旨の指示コマンドである停止コマンドが入力されていない場合には(S19で「No」)、S12に戻る。また、停止コマンドが入力された場合には(S19で「Yes」)、ナビゲーションを終了する。
(第2の実施形態)
次に、パラメータ算出部23が、カメラ11l,11rが有する他のパラメータを更に校正する場合の実施形態について説明する。カメラ11lの校正方法とカメラ11rの校正方法とは同じであるので、カメラ11l,11rを区別する符合「l」、「r」は付さずに説明する。
魚眼レンズ12には、式(10)で示す射影方式の他に
Figure 0004825971

Figure 0004825971

Figure 0004825971

で示される射影方式がある。魚眼レンズ12の製造誤差などを考慮すると、式(10)、及び、式(36)〜式(38)は、
Figure 0004825971

として表されるが、パラメータ算出部23では、近似式として
Figure 0004825971

を利用する。k、k、kは、焦点距離fに依存しており、画像平面の原点である画像中心に対する結像点の径方向の歪みを表す放射歪み(radial distortion)パラメータである。
図14は、校正された画像座標系で表された画像平面の平面図である。原点Cは、画像中心を表しており、点qは、魚眼レンズ12による実空間上の点Pの結像点である。校正前の画像座標系において、点Cの座標を(x,y)とし、点qの座標を(x,y)とし、αをx方向及びy方向の単位距離あたりの画素数の比とする。この場合、校正後の画像座標系での点qのx座標及びy座標は、
Figure 0004825971

によって算出され、校正後の画像座標系での点qと原点Cとの距離r、及び、x軸からの方位角φは、
Figure 0004825971

となる。
ところで、魚眼レンズ12の光軸が画像平面(結像平面)に対して垂直になっていない場合、decentering distortionとして知られる歪みが生じる。この歪みは、点qにおける接線方向の歪みとして表れる。以下、このdecentering distortionとして知られる歪みを接線歪みと称す。
画像平面上の点qにおけるx方向及びy方向の接線歪みの成分は、
Figure 0004825971

Figure 0004825971

となる(例えば、A. Conrady, “Decenteringlens system”, Monthly Notices of the Royal Astronomical Soc. Vol. 79,pp.384-390, 1919、R. Swaminathan,et. al., “Nonmetric calibration of wide-angle lenses and polycameras”, IEEE.PAMI, vol.22, No.10, 2000参照)。式(43)及び式(44)を極座標で表示すると、
Figure 0004825971

Figure 0004825971

となる。
従って、放射歪み及び接線歪みを含めた場合、校正前の画像座標系での点qの原点からの距離r及び方位角φは、
Figure 0004825971

Figure 0004825971

であり、校正すべきカメラ11の内部パラメータは(x,y,α,k,k,k,J,J)である。
式(41)、式(42)、式(7)等を利用することで、次に示すように画像平面上の結像点q(x,y)から球面画像3上の点p(実空間上の点Pの対応点)の座標を得ることができる。
Figure 0004825971

この場合、実空間上の点Pに対応する球面画像3上の対応点pの座標は、前述したカメラ11の内部パラメータを利用して表されることになる。
パラメータ算出部23を利用して内部パラメータ及び外部パラメータを校正するときには、図15に示すような校正用部材としてのボックスパターン9を利用する。ボックスパターン9は、市松模様(又はチェスパターン)を有する3つの校正パターン9A,9B,9Cからなり、互いに直交する2つの校正パターン9A,9Bを他の1つの校正パターン9C上に設けたものである。
上記ボックスパターン9を利用してカメラ11の内部パラメータ及び外部パラメータを校正する場合、(1)内部パラメータの初期化を行ったのち、(2)カメラ11の姿勢を表す外部パラメータ(R,T)の初期推定を行う。更に(3)内部パラメータの微調整を実施してから、(4)投影誤差の最小化を図る。そして、最後に、(5)接線歪みを含んだ目的関数の最小化を実施することによって、内部パラメータ及び外部パラメータを校正する。以下、順に説明する。
先ず、前述したように、(1)内部パラメータの初期化をする。図16は、図15に示したボックスパターン9をカメラ11で撮影して取得された被写体像の図である。撮影には、ソニー製のビデオカメラ(DCR−HC30)にオリンパス製の魚眼レンズ(FCON−02)を取り付けたものをカメラ11として利用している。この被写体像の視野領域を、楕円でフィッティングする。楕円は、次式
Figure 0004825971

で表されるので、フィッティングによって得られた楕円の中心を画像中心(x,y)の初期値とし、
Figure 0004825971

で表される被写体像のアスペクト比をαの初期値とする。
また、立体射影を表す式(37)では、テイラー近似式は、
Figure 0004825971

となる。魚眼レンズ12の最大視野角をθmaxとすると、
Figure 0004825971

が成り立つ。
そこで、接線歪みを0として、式(52)及び式(53)より放射歪みの初期値を決める。すなわち、式(53)より焦点距離fを算出し、式(52)におけるθ、θ、θの各係数をk,k、kの初期値とする。
次に、(2)カメラ11の外部パラメータ(R,T)の初期推定を実施する。ここでは、世界座標系Sを、図15及び図16に示すように、ボックスパターン9の角部を原点とした3次元座標系とする。ボックスパターン9での格子点Pの位置ベクトルMと、その点Pの球面画像3上の投影点pの位置ベクトルmとの間には、式(9)が成り立っているので、
Figure 0004825971

Figure 0004825971

が得られる。1つの格子点Pから式(54)及び式(55)に示すように2つの式が得られることからN点を観測すると、2N個の方程式が得ることができる。内部パラメータを既知とすると、式(54)及び式(55)を利用してカメラ11の外部パラメータ(R,T)を算出できる。パラメータ算出部23は、6点以上の格子点Pを抽出し、式(54)及び式(55)を利用して線形推定でR,Tを算出する。
また、パラメータ算出部23は、式(54)及び式(55)より以下の目的関数η2を設定する。
Figure 0004825971

この式(56)の最後の自乗の項は、式(54)及び式(55)の2式を差し引いて得られたものである。
そして、パラメータ算出部23は、式(54)及び式(55)を利用して算出したR、Tを初期値として、式(56)を利用してカメラ11の初期姿勢を算出する。
続いて、(3)内部パラメータの微調整を実施する。ここでは、R、Tを既知として、式(56)を利用して、ボックスパターン9に含まれる全ての格子点を利用してカメラ11の内部パラメータの微調整を実施する。
更に、(4)投影誤差の最小化を行う。(3)によって算出されたカメラ11の内部パラメータ及び外部パラメータを利用することで、次に示すように、実空間におけるボックスパターン9上の格子点を結像した被写体像2における点qの座標を得ることができる。
Figure 0004825971

実際にCCDカメラ13で得られた被写体像2上の点qの位置ベクトルnと、格子点の世界座標Sの座標から算出された点qの位置ベクトルnqiとの間の二乗距離d(n,nqiの合計を最小化し、内部パラメータ及び外部パラメータを調整する。すなわち、目的関数η3として、
Figure 0004825971

を設定し、その最小化を実施することで、内部パラメータ及び外部パラメータを調整する。
最後に、(5)接線歪みを含んだ目的関数η2の最小化を実施する。ここでは、接線歪みを表すパラメータを含めた式(58)の目的関数η3を設定し、(4)までで得られた内部パラメータ及び外部パラメータを利用して、目的関数η2を再計算し、接線歪みパラメータも校正する。本実施形態では、パラメータ算出部23は、カメラ11の内部パラメータ及び外部パラメータを算出するために、ボックスパターン9が撮影されると、上述した(1)〜(5)を実行することによって、内部パラメータ及び外部パラメータを算出し、メモリ部22に入力する。
構造解析装置(又は距離算出装置)の動作は、パラメータ算出部23によるカメラ11l,11rの内部パラメータ及び外部パラメータの校正方法以外は、第1の実施形態の場合と同様である。この場合、放射歪みや接線歪みなども含めて内部パラメータ及び外部パラメータが校正されているので、カメラ11l,11rからの距離ρ,ρをより正確に算出できる。なお、接線歪みパラメータの校正(すなわち、上記(5)の処理)は、必ずしも実施しなくてもよいが、接線歪みパラメータを校正することで更に距離ρ,ρが正確になる傾向にある。
以上の説明では、魚眼レンズ12の射影方式を式(37)で表される立体射影としているが、式(10)、式(36)及び式(38)で表される各射影方式に対して本実施形態で示したカメラ11の校正方法は適用できる。例えば、式(10)で表される等距離射影方式を有する魚眼レンズに対しては、式(40)の第1項以外を0とすると、
Figure 0004825971

が成り立つ。これは立体射影を用いたときの式(53)に対応する。従って、放射歪みの初期値値を次式から決定すればよい。
Figure 0004825971
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されない。例えば、カメラ11lは、1つの魚眼レンズ12lを有するとしたが、1つのカメラ11lに対して2つの魚眼レンズ12l,12lを有することは好適である。2つの魚眼レンズ12l,12lを、光の入射面が互いに反対側を向くように配置することで、全天周の情景を一度に取得することができる。これは、カメラ11rに対しても同様である。この場合、ステレオカメラ部10の周囲の構造物までの距離をカメラ11l,11rの方向を変えずに求めることが可能であり、周辺監視装置に好適に利用できる。
更に、前述したように校正部24は、パラメータ算出部23の一部としてもよい。更にまた、上記では、距離算出手段27は、視差算出部27Aと距離算出部27Bとを有するとしたが、この場合に限られない。式(32)、式(34)及び式(35)より
Figure 0004825971

Figure 0004825971

が成り立つので、距離算出手段27は、視差dを算出せずに、第1及び第2の角度θ,θ及び距離bから式(61)及び式(62)を利用して距離ρ,ρを算出してもよい。
また、構造解析装置100及び距離算出装置110では、例えば、メモリ部22に予め校正された球面画像3l,3rに対応した第1のテーブル及び第2のテーブルが記憶されている場合等には、パラメータ算出部23、球面画像形成部21及び校正部24を必ずしも備えなくてもよい。更に、ステレオカメラ部10は、2つのカメラ11l,11rから構成されているとしたがこれに限定されない。魚眼レンズ特性を有する第1及び第2のカメラ部が1つの筐体内に収容されているものとしてもよい。
以下に、本発明に係る構造解析装置を、実施例に基づいてより具体的に説明する。なお、本発明は、以下の実施例に限定されるものではない。
図17は試作した構造解析装置100で利用したカメラ11l,11rの図である。カメラ11l,11rは、ソニー製のビデオカメラ(DCR−HC30)にオリンパス製の魚眼レンズ(FCON−02)を取り付けたものとし、三脚上に互いに平行に配置した。なお、カメラ11l,11rは、その内部パラメータが校正されているものを用いた。
カメラ11l,11rの外部パラメータを校正するために、図7に示した校正パターン4Bをカメラ11l,11rで同時に撮影した。図18(a),(b)は、校正パターン4Bをカメラ11l,11rで撮影したときの被写体像の図である。図18(a)は、カメラ11lで取得された被写体像の図を示しており、図18(b)は、カメラ11rで取得された被写体像の図を示している。図18(a),(b)に示した被写体像の図に対して、LKオペレータにより格子点Pを抽出した。図18(c)は、図18(a)の被写体像の図から格子点Pを抽出した図である。図18(c)中、白丸で囲んでいる部分が抽出した点を示している。図18(c)に示すように校正パターン4Bの格子点Pが確実に抽出されていることが分かる。
このようにコーナ点Pを抽出した後に、パラメータ算出部23によって外部パラメータを算出し、メモリ部22に入力することでカメラ11l,11rの外部パラメータを校正した。
このようにカメラ11l,11rの内部パラメータ及び外部パラメータが校正された構造解析装置100を利用して戸外で実際にカメラ11l,11r周囲の情景を撮影した。撮影対象のモデルとしてカメラ11l,11r側に頭を近づけている人物を撮影した。
図19(a),(b)は、図17に示したカメラ11l,11rを利用して戸外で撮影して取得された被写体像の図である。図19(a)は、カメラ11lで取得された被写体像の図であり、図19(b)は、カメラ11rで取得された被写体像の図である。
図20(a)は、被写体像をカメラ11lによって取得した後に、S13(図11参照)の工程によって形成された経緯度画像の図である。また、図20(b)は、被写体像をカメラ11rによって取得した後に、S13の工程によって形成された経緯度画像の図である。図20(a),(b)中に示した水平線がエピポーラ線7l,7rである。構造解析装置100では、校正された球面画像3l,3rに対応する経緯度画像6l,6rが作成されるので、図20(a),(b)に示すように、経緯度画像6lでのエピポーラ線7lに対応する経緯度画像6rのエピポーラ線7r上に同じ特徴が確かにのっている。
図20(a),(b)に示した経緯度画像6l,6rに対して更にS14(図11参照)における対応点探索を実施し、特定された対応点間の視差dを算出した。
図20(c)は、視差dを図20(a)に示した経緯度画像6lにマッピングして得られる視差図である。図20(c)において、明るい点が大きな視差を有する部分であり、図20(a),(b)に表示されていた人物の頭部の部分がより大きな視差を有していることがわかる。これにより、図20(a),(b)に表示されていた人物がカメラ11l,11r側に頭を近づけている状態が確かに表されていることが分かる。
本発明に係る距離算出装置、距離算出方法、構造解析装置及び構造解析方法は、車両や移動ロボットなどのナビゲーションシステムや周辺監視システムに利用することが可能である。
本発明に係る構造解析装置を適用したナビゲーションシステムの一実施形態の構成を示すブロック図である。 被写体像の一例を示す模式図である。 球面画像の斜視図である。 (a)は、魚眼レンズの結像特性を示す図である。(b)は、図4(a)に示したxy平面を示す図である。 内部パラメータの算出に利用する校正パターンの平面図である。 世界座標系からカメラ座標系への変換関係を示す図である。 外部パラメータの算出に利用する校正パターンの平面図である。 実空間上の点が投影された第1及び第2の球面画像を示す図である。 経緯度画像の平面図である。 第1及び第2の球面画像及びで決定されるエピポーラ平面の模式図である。 ナビゲーションシステムの動作を示すフローチャートである。 内部パラメータ及び外部パラメータの校正方法を示すフローチャートである。 本発明に係る距離算出装置の一実施形態を利用したナビゲーションシステムの構成を示すブロック図である。 校正された画像平面の平面図である。 校正用のボックスパターンの斜視図である。 図15に示したボックスパターンの被写体像の図である。 実施例としての構造解析装置が有する一対のカメラを示す図である。 図7に示した校正パターンの被写体像を示す図である。 図17に示した一対のカメラを利用して撮影して取得された被写体像の図である。 (a)は、図19(a)に示した被写体像から形成された経緯度画像の図である。(b)は、図19(b)に示した被写体像から形成された経緯度画像の図である。(c)は、視差図である。
符号の説明
3l…球面画像(第1の球面画像)、3r…球面画像(第2の球面画像)、5…エピポーラ平面、6l…経緯度画像(第1の経緯度画像)、6r…経緯度画像(第2の経緯度画像)、7l,7r…エピポーラ線、10…ステレオカメラ部、11l…カメラ(第1のカメラ部)、11r…カメラ(第2のカメラ部)、21…球面画像形成部、22…メモリ部、23…パラメータ算出部、24…校正部、25…経緯度画像形成部、26…対応点探索部、27…距離算出手段、27A…視差算出部、27B…距離算出部、28…構造解析部、100…構造解析装置、110…距離算出装置、C…円弧、C…円弧、d…視差、e1l,e2l…第1の球面画像の一対のエピポール、e1r,e2r…第2の球面画像の一対のエピポール、f…第1及び第2のカメラ部の焦点距離、O…原点(第1のカメラ座標系の原点、第1の魚眼レンズの焦点、第1の球面画像の中心)、O…原点(第2のカメラ座標系の原点、第2の魚眼レンズの焦点、第2の球面画像の中心)、p…対応点(第1の対応点)、p…対応点(第2の対応点)、S…カメラ座標系(第1のカメラ座標系)、S…カメラ座標系(第2のカメラ座標系)、S…世界座標系(所定の世界座標系)、R1…実空間上の点と第1の対応点を通る直線、R1…実空間上の点と第2の対応点を通る直線、R2…第1及び第2の球面画像の中心を通る直線。

Claims (9)

  1. 魚眼レンズ特性を有する第1のカメラ部と、
    魚眼レンズ特性を有しており前記第1のカメラ部とステレオカメラ部を構成する第2のカメラ部と、
    前記第1のカメラ部から出力される第1の被写体像に対応する第1の球面画像内の一対のエピポールを両極として展開される平面画像としての第1の経緯度画像を前記第1の被写体像から形成すると共に、前記第2のカメラ部から出力される第2の被写体像に対応する第2の球面画像内の一対のエピポールを両極として展開される平面画像としての第2の経緯度画像を前記第2の被写体像から形成する経緯度画像形成部と、
    前記第1及び第2のカメラ部の視野内に含まれる実空間上の点に対応する前記第1及び第2の経緯度画像内の対応点を特定する対応点探索部と、
    前記第1の球面画像での前記対応点である第1の対応点及び前記第1の球面画像の中心を通る直線と前記第1及び第2の球面画像の中心を通る直線とのなす第1の角度、前記第2の球面画像での前記対応点である第2の対応点及び前記第2の球面画像の中心を通る直線と前記第1及び第2の球面画像の中心を通る直線とのなす第2の角度、及び、前記第1のカメラ部と前記第2のカメラ部との間のカメラ部間距離に基づいて前記実空間上の点から前記第1及び第2のカメラ部までの距離を算出する距離算出手段と、
    を備え、
    前記第1の経緯度画像における前記一対のエピポールの間の幅をM 01 とし、当該一対のエピポールのうち前記第1の球面画像の中心からみて前記第2の球面画像と反対側に位置するエピポールから前記第1の経緯度画像内の前記対応点までの距離をi とし、前記第1の角度をθ としたとき、前記θ は、π×(M 01 −i )/M 01 であり、
    前記第2の経緯度画像における前記一対のエピポールの間の幅をM 02 とし、当該一対のエピポールのうち前記第2の球面画像の中心からみて前記第1及び第2の球面画像の間に位置するエピポールから前記第2の経緯度画像内の前記対応点までの距離をi とし、前記第2の角度をθ としたとき、前記θ は、π×i /M 02 である、
    ことを特徴とする距離算出装置。
  2. 前記距離算出手段は、
    前記第1のカメラ部の焦点距離、前記第2のカメラ部の焦点距離、前記第1の角度及び前記第2の角度を利用して前記第1及び第2の対応点間の視差を算出する視差算出部と、
    前記第1の角度、前記第2の角度、前記カメラ部間距離、及び、前記視差に基づいて前記実空間上の点から前記第1及び第2のカメラ部までの距離を算出する距離算出部と、
    を有し、
    前記視差算出部は、
    前記第1及び第2のカメラ部の焦点距離をfとしたとき、前記第1及び第2の対応点間の視差dを、d=f(π−θ −θ )によって算出し、
    前記距離算出部は、
    前記第1のカメラ部と前記第2のカメラ部との間のカメラ部間距離をb とし、前記実空間上の点から前記第1及び第2のカメラ部までの距離をそれぞれ距離ρ 及び距離ρ としたとき、
    前記距離ρ を、ρ =b ×sin(θ )/sin(d/f)によって算出し、
    前記距離ρ を、ρ =b ×sin(θ )/sin(d/f)によって算出する、
    ことを特徴とする請求項1に記載の距離算出装置。
  3. 前記第1の被写体像から前記第1の球面画像を形成すると共に、前記第2の被写体像から前記第2の球面画像を形成する球面画像形成部と、
    前記球面画像形成部で形成される第1及び第2の球面画像を校正する校正部と、
    を更に備え、
    前記校正部は、前記第1の球面画像を表示する第1のカメラ座標系と前記第2の球面画像を表示する第2のカメラ座標系とを、互いのZ軸が平行であり且つ互いのY軸が平行であって互いのX軸が同一直線上に位置するように変換することによって前記第1及び第2の球面画像を校正し、
    前記経緯度画像形成部は、前記校正部によって校正された前記第1及び第2の球面画像に対応する前記第1及び第2の経緯度画像を形成することを特徴とする請求項1又は2に記載の距離算出装置。
  4. 請求項1〜3の何れか一項に記載の距離算出装置と、
    前記距離算出装置で算出された前記距離と、前記第1及び第2の被写体像とから前記ステレオカメラ部の周囲の3次元構造を抽出する構造解析部と、
    を備える構造解析装置。
  5. 前記構造解析部で抽出された前記ステレオカメラ部の周囲の3次元構造を表示する表示部を更に備えることを特徴とする請求項4に記載の構造解析装置。
  6. ステレオカメラ部を構成しており魚眼レンズ特性を有する第1及び第2のカメラ部によって被写体像を取得する像取得工程と、
    前記第1のカメラ部から出力される第1の被写体像に対応する第1の球面画像内の一対のエピポールを両極として展開される平面画像としての第1の経緯度画像を前記第1の被写体像から形成すると共に、前記第2のカメラ部から出力される第2の被写体像に対応する第2の球面画像内の一対のエピポールを両極として展開される平面画像としての第2の経緯度画像を前記第2の被写体像から形成する経緯度画像形成工程と、
    前記第1及び第2のカメラ部の視野内に位置する実空間上の点に対応する前記第1及び第2の経緯度画像内の対応点を特定する対応点探索工程と、
    前記第1の球面画像での前記対応点である第1の対応点及び前記第1の球面画像の中心を通る直線と前記第1及び第2の球面画像の中心を通る直線とのなす第1の角度をθ、前記第2の球面画像での前記対応点である第2の対応点及び前記第2の球面画像の中心を通る直線と前記第1及び第2の球面画像の中心を通る直線とのなす第2の角度をθ、前記第1のカメラ部と前記第2のカメラ部との間のカメラ部間距離をbとしたとき、
    前記実空間上の点から前記第1のカメラ部までの距離ρ及び前記第2のカメラ部までの距離ρを、
    Figure 0004825971
    Figure 0004825971
    によって算出する距離算出工程と、
    を備え、
    前記第1の経緯度画像における前記一対のエピポールの間の幅をM 01 とし、当該一対のエピポールのうち前記第1の球面画像の中心からみて前記第2の球面画像と反対側に位置するエピポールから前記第1の経緯度画像内の対応点までの距離をi としたとき、前記θ は、π×(M 01 −i )/M 01 であり、
    前記第2の経緯度画像における前記一対のエピポールの間の幅をM 02 とし、当該一対のエピポールのうち前記第2の球面画像の中心からみて前記第1及び第2の球面画像の間に位置するエピポールから前記第2の経緯度画像内の前記対応点までの距離をi としたとき、前記θ は、π×i /M 02 である、
    ることを特徴とする距離算出方法。
  7. 前記距離算出工程は、
    前記第1及び第2のカメラ部の焦点距離をfとしたとき、前記第1及び第2の対応点間の視差dを、
    Figure 0004825971
    によって算出し、
    前記距離ρ及び前記距離ρを、
    Figure 0004825971
    Figure 0004825971
    によって算出することを特徴とする請求項6に記載の距離算出方法。
  8. 前記第1の被写体像から前記第1の球面画像を形成すると共に、前記第2の被写体像から前記第2の球面画像を形成する球面画像形成工程と、
    前記球面画像形成工程で形成される前記第1及び第2の球面画像を校正する校正工程と、
    を更に有し、
    前記校正工程では、前記第1の球面画像を表示する第1のカメラ座標系と前記第2の球面画像を表示する第2のカメラ座標系とを、互いのZ軸が平行であり且つ互いのY軸が平行であって互いのX軸が同一直線上になるように変換することよって前記第1及び第2の球面画像を校正し、
    前記経緯度画像形成工程では、前記校正工程によって校正された前記第1及び第2の球面画像に対応する前記第1及び第2の経緯度画像を形成することを特徴とする請求項6又は7に記載の距離算出方法。
  9. 請求項6〜8の何れか一項に記載の距離算出方法によって算出された前記距離ρと、前記距離ρと、前記第1及び第2の被写体像とから前記ステレオカメラ部の周囲の3次元構造を抽出する構造解析工程を備えることを特徴とする構造解析方法。
JP2005206034A 2005-07-14 2005-07-14 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 Active JP4825971B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005206034A JP4825971B2 (ja) 2005-07-14 2005-07-14 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005206034A JP4825971B2 (ja) 2005-07-14 2005-07-14 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007056228A Division JP4825980B2 (ja) 2007-03-06 2007-03-06 魚眼カメラの校正方法。

Publications (2)

Publication Number Publication Date
JP2007024647A JP2007024647A (ja) 2007-02-01
JP4825971B2 true JP4825971B2 (ja) 2011-11-30

Family

ID=37785612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005206034A Active JP4825971B2 (ja) 2005-07-14 2005-07-14 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。

Country Status (1)

Country Link
JP (1) JP4825971B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103925919A (zh) * 2014-01-10 2014-07-16 北京航天飞行控制中心 一种基于鱼眼相机的行星车探测点定位方法
US10872432B2 (en) 2018-01-05 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Disparity estimation device, disparity estimation method, and program

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300138A (ja) * 2008-06-11 2009-12-24 Meidensha Corp 画像処理によるラインセンサ焦点距離測定装置
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
KR101236475B1 (ko) 2009-04-14 2013-02-22 한국전자통신연구원 얼굴 검출 장치 및 이를 이용한 거리 측정 방법
JP5366264B2 (ja) * 2010-08-03 2013-12-11 アルプス電気株式会社 ステレオカメラシステム及び該システムを備える車両
JP5872818B2 (ja) * 2010-08-20 2016-03-01 パナソニック株式会社 測位処理装置、測位処理方法、および画像処理装置
JP2012247364A (ja) * 2011-05-30 2012-12-13 Panasonic Corp ステレオカメラ装置、ステレオカメラシステム、プログラム
WO2013154085A1 (ja) * 2012-04-09 2013-10-17 クラリオン株式会社 キャリブレーション方法および装置
EP2884460B1 (en) 2013-12-13 2020-01-01 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
WO2017199352A1 (ja) * 2016-05-17 2017-11-23 株式会社オプティム 全天球カメラ撮像画像表示システム、全天球カメラ撮像画像表示方法及びプログラム
CN107809610B (zh) 2016-09-08 2021-06-11 松下知识产权经营株式会社 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质
US10909708B2 (en) * 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
JP7038345B2 (ja) 2017-04-20 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP7016058B2 (ja) 2017-04-28 2022-02-04 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2697917B2 (ja) * 1989-09-28 1998-01-19 日本電信電話株式会社 三次元座標計測装置
US5990941A (en) * 1991-05-13 1999-11-23 Interactive Pictures Corporation Method and apparatus for the interactive display of any portion of a spherical image
JPH05300424A (ja) * 1992-04-17 1993-11-12 Canon Inc 距離情報表示手段を有した撮像装置
JP2611173B2 (ja) * 1992-06-11 1997-05-21 運輸省船舶技術研究所長 魚眼レンズを用いた測位方法およびその装置
JPH08329222A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd 3次元位置認識装置
JP3907891B2 (ja) * 1999-11-11 2007-04-18 富士フイルム株式会社 画像撮像装置及び画像処理装置
JP2002101408A (ja) * 2000-09-22 2002-04-05 Asahi Precision Co Ltd 監視カメラシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103925919A (zh) * 2014-01-10 2014-07-16 北京航天飞行控制中心 一种基于鱼眼相机的行星车探测点定位方法
US10872432B2 (en) 2018-01-05 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Disparity estimation device, disparity estimation method, and program

Also Published As

Publication number Publication date
JP2007024647A (ja) 2007-02-01

Similar Documents

Publication Publication Date Title
JP4825980B2 (ja) 魚眼カメラの校正方法。
JP4825971B2 (ja) 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
KR101666959B1 (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
JP5739584B2 (ja) 車両周辺視角化のための3次元映像合成装置およびその方法
JP5011528B2 (ja) 3次元距離計測センサおよび3次元距離計測方法
JP5872818B2 (ja) 測位処理装置、測位処理方法、および画像処理装置
US20170127045A1 (en) Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof
JP2874710B2 (ja) 三次元位置計測装置
US20090041379A1 (en) Method for providing output image in either cylindrical mode or perspective mode
CN110572630B (zh) 三维图像拍摄系统、方法、装置、设备以及存储介质
WO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
CN113841384B (zh) 校准装置,用于校准的图表和校准方法
Gao et al. Dual-fisheye omnidirectional stereo
CN109618108B (zh) 电子设备和移动平台
EP3765815B1 (en) Imaging device, image processing apparatus, and image processing method
US20200294269A1 (en) Calibrating cameras and computing point projections using non-central camera model involving axial viewpoint shift
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
CN110419208B (zh) 成像系统、成像控制方法、图像处理设备和计算机可读介质
Li et al. Spherical stereo for the construction of immersive VR environment
JP2010276433A (ja) 撮像装置、画像処理装置及び距離計測装置
Sahin Comparison and calibration of mobile phone fisheye lens and regular fisheye lens via equidistant model
JP4631048B2 (ja) 撮像装置及び撮像系パラメータの校正方法
JP2005275789A (ja) 三次元構造抽出方法
Schönbein omnidirectional Stereo Vision for autonomous Vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150