JP5775965B2 - ステレオカメラシステム及び移動体 - Google Patents
ステレオカメラシステム及び移動体 Download PDFInfo
- Publication number
- JP5775965B2 JP5775965B2 JP2014507016A JP2014507016A JP5775965B2 JP 5775965 B2 JP5775965 B2 JP 5775965B2 JP 2014507016 A JP2014507016 A JP 2014507016A JP 2014507016 A JP2014507016 A JP 2014507016A JP 5775965 B2 JP5775965 B2 JP 5775965B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- infinity
- region
- stereo camera
- camera system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004364 calculation method Methods 0.000 claims description 101
- 238000003384 imaging method Methods 0.000 claims description 87
- 230000036544 posture Effects 0.000 claims description 27
- 230000001133 acceleration Effects 0.000 claims description 25
- 239000000284 extract Substances 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 description 54
- 238000004891 communication Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 8
- 230000009466 transformation Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、2台以上のカメラで被写体を撮影することによりその被写体の3次元位置を認識するステレオカメラシステム、及びそれを搭載する移動体に関する。
2台以上のカメラで同一の被写体を撮影することによりその被写体の3次元位置を認識するシステムはステレオカメラシステムとして知られている。今後、自動車や建設機械などの車両にステレオカメラシステムを搭載することにより、車両の自動操縦機能や操作支援機能が実現可能になると期待されている。
3次元位置を正しく認識するためには、ステレオカメラシステムの内部パラメータと外部パラメータを正確に同定する必要がある。これを校正あるいはキャリブレーションと呼ぶ。内部パラメータとは個々のカメラの焦点距離、画像中心位置、レンズ歪みを指し、外部パラメータとは各カメラ間の相対位置姿勢を指す。事前に精度良くキャリブレーションする方法として、チェッカーパターンを持つ平面など幾何形状が既知の物体を撮影する方法が広く採用されている。
ただし、ステレオカメラシステムの運用中において、ステレオカメラシステムへの物理的な衝撃が影響し外部パラメータが変化することがある。そのため、運用中における外部パラメータの再校正が必要となるが、運用中に形状既知の物体を準備し撮影することは作業コストが掛かる。そのため、運用中に撮影した画像を利用して外部パラメータを自動的に校正することが要求されており、これをセルフキャリブレーションと呼ぶ。
セルフキャリブレーションの従来技術として、非特許文献1には、各カメラによって同時に撮影された画像から同一の点を表す組を対応点として複数組抽出し、それらの対応点の画像上の位置を用いて推定した基礎行列を特異値分解することで外部パラメータを求める手法が記載されている。また、特許文献1には、外部パラメータが変化しても被写体までの距離計測を可能にする手法として、未校正状態で求めた視差分布から視差の補正量を算出する手法が記載されている。
基礎行列の分解:焦点距離の直接的表現(著:金谷健一他、情報処理学会研究報告、2000−CVIM−120−7、2000年1月20日、pp.49−56)
詳解 OpenCV―コンピュータビジョンライブラリを使った画像処理・認識(著:Gary Bradski他、株式会社オライリー・ジャパン、2009年8月24日、pp.322−343、pp.409−410、pp.438−462)
ここで、被写体となる物体とステレオカメラシステムとの距離の大小によって、ステレオカメラシステムによる撮影結果と外部パラメータとの関係は異なってくる。例えば、水平画角50度で水平方向画素数1000のカメラでは5km先の物体の分解能は2.3m程度である。そのため、完全に同一方向を向いている2カメラの距離が1m程度の場合、5km以上遠方の物体を撮影してもほぼ同一の撮影結果が得られる。このように、撮影結果がカメラ間の相対位置に依存しないほどの距離に被写体がある場合、その距離は無限遠とみなすことができ、無限遠にある物体の撮影結果はカメラ間の相対姿勢のみに依存する。このことから、無限遠の物体のみでは相対位置を同定することはできない。逆に、相対姿勢を同定する際には無限遠の物体のみを用いた方が、対応点位置の認識誤差に対しロバスト性が高くなる。このように、本発明者らは、セルフキャリブレーションにおいては、無限遠の物体とそれ以外の物体とを区別して取り扱うことに着目した。
非特許文献1に記載の手法は、無限遠の物体とそれ以外の物体とを区別して取り扱っておらず、相対位置と相対姿勢を同時に求めている。そのため、対応点の画像上の位置の認識誤差に対し、ロバスト性の低い手法となっている。
また、特許文献1に記載の手法では、運用中はほぼ正しい距離計測が可能な状態を常に保っていることを想定し、校正前の状態で各被写体までの距離に関係する視差を求め、その視差に基づき無限遠の物体を識別し、無限遠の物体の視差から全被写体に共通する視差の補正値を決定する。無限遠の物体に着目した手法ではあるが、外部パラメータそのものを求めていないため精度が低い。さらに、強い衝撃などで外部パラメータが突如大きく変化する際には、無限遠物体の認識に誤りが発生し、低精度な校正結果となるなどロバスト性にも問題がある。
以上に記述したように、外部パラメータの変化に対応するための従来手法は、自動あるいは半自動システムを構築するためにはロバスト性が不十分である。そこで、本発明は、対応点位置の認識誤差に対しロバストなセルフキャリブレーションが可能なステレオカメラシステムを提供することを目的とする。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記のとおりである。
複数の撮像部と、複数の撮像部それぞれが撮影した画像を用いて複数の撮像部間の相対姿勢及び相対位置を特定する演算部と、を有するステレオカメラシステムである。演算部は、複数の撮像部それぞれが撮影した画像の組のうち少なくとも1枚から、無限遠の物体が投影されている領域を無限遠領域として抽出し、画像の組から対応する点の組を対応点として検出し、無限遠領域に含まれる対応点を無限遠対応点として検出し、無限遠領域に含まれない対応点を一般対応点として検出し、無限遠対応点を用いて複数の撮像部間の相対姿勢を特定し、一般対応点と特定された相対姿勢とを用いて、複数の撮像部間の相対位置を特定する。
本発明のステレオカメラシステムによれば、対応点位置の認識誤差に対しロバストなセルフキャリブレーションが行われる。
以下、実施例を説明する。
本実施例では、被写体の3次元位置を出力するステレオカメラシステム100aの例を説明する。
図1は、本実施例におけるステレオカメラシステム100aの構成例を表す模式図である。ステレオカメラシステム100aは、複数の撮像部101(101a、101b)、演算部102、記憶部103を備え、ユーザ10からの指令に基づき被写体の3次元位置を取得し、ユーザ10に提供する。
撮像部101は自身の視野内に存在する被写体を撮影する機器であり、モノクロームカメラ、カラーカメラ、赤外線カメラ、ハイパースペクトルカメラなどとして実装される。各撮像部101は同一の被写体を撮影できるような相対位置姿勢関係にある。なお、本実施例では撮像部が2台の例を示したが、3台以上でもよい。
演算部102は、ユーザ10からの指令の理解、撮像部101の制御、記憶部103の制御、被写体の3次元位置の算出、セルフキャリブレーションにおける演算処理、算出した被写体3次元位置のユーザ10への提供を行い、CPUとRAMの組合せとして実装される。演算部102は役割毎に分けられた複数のCPU及びRAMで構成されていても良い。また、演算部102は各撮像部101に同期を取るための信号を送る。これにより、各撮像部101は同時に同一の被写体を撮影することが可能となる。CPUは、記憶部103に記録されている各種プログラムをRAMに読み出して実行することにより、後述する各種機能を実現する。
記憶部103は外部記憶装置であり、ハードディスク、フレキシブルディスク、USBメモリなどとして実装され、演算部102からの指令に基づき、情報の読出し、変更、追加、削除を行う。
図2は、本実施例の記憶部103に格納される情報の構成例を表す模式図である。記憶部103は、共通情報104、特定無限遠物体領域抽出プログラム140、特定無限遠物体テンプレート107を格納する。
また、図3は、全実施例の記憶部103が共通して格納する共通情報104の構成例を表す模式図である。
記憶部103は、ユーザ10や撮像部101との通信プロトコル(111〜113)、撮像部101の制御プログラム(114、115)、セルフキャリブレーションにおける各要素機能を実行するためのプログラム(116〜120)、被写体3次元位置算出プログラム(121)、セルフキャリブレーションにおける各種判定基準(122〜124)、各撮像部101の内部パラメータ(125、126)、各撮像部101間の外部パラメータ127、演算部102が検出した対応点(109、110)とその検出した日時(128、129)、前回セルフキャリブレーションを実行した日時(130)を格納する。共通情報104は、実施例1における記憶部103に格納される情報のうち、無限遠領域抽出プログラム及びその判定基準以外の情報である。
ユーザ10は、被写体3次元位置を必要とする他のコンピュータであり、通信用ケーブルを介してステレオカメラシステム100と繋がっている。ユーザ10の例として、自動車や建設機械を被写体3次元位置に基づき制御するコンピュータが挙げられる。ユーザ10は、予め定められた通信プロトコルに基づき、ステレオカメラシステム100に対し被写体3次元位置取得開始及び終了の指令、セルフキャリブレーション実行の指令を与え、ステレオカメラシステム100から被写体3次元位置を受け取る。ユーザ10は、開始指令を与えてから終了指令を与えるまで、被写体3次元位置を受け取り続ける。
図4は、本実施例における演算部102の処理例を説明するフローチャートである。本フローチャートは、演算部102がユーザ10から開始指令を受けた状態から始まっている。まず、演算部102は、記憶部103に格納されている各撮像部101との通信プロトコル及び各撮像部101の制御プログラムに基づき、各撮像部101に同期信号と共に撮影命令を与え、各撮像部101が同時に撮影した画像105の組を取得する(S101)。ここで、画像105を撮影した日時を記録し、RAMに保持しておく。
図5は、実施例1における各撮像部101が同時に撮影した画像の組の例を表す模式図である。撮像部101aで撮影された画像105aと撮像部101bで撮影された画像105bには、共通の被写体が撮影されている。
続いて、演算部102は、取得した画像105の組のうち少なくともどれか1枚を対象として、無限遠の物体のみが投影されている領域を無限遠領域106として抽出する(S102)。この抽出には無限遠領域が存在するか否かの判定も含まれており、無限遠領域106が抽出されない場合があっても良い。実施例1では、ステレオカメラシステム100aが運用される地域から撮像部101が撮影可能な無限遠の物体を予め特定しておき、その特定無限遠物体を表すテンプレート107を記憶部103に予め保持させておき、演算部102は、そのテンプレート107と記憶部103に予め保存されている特定無限遠物体領域抽出プログラムに基づき、特定無限遠物体が投影されている領域を無限遠領域106として抽出する。
図6は、実施例1における特定無限遠物体のテンプレート107(107a、107b)の例を表す模式図である。図6のように、テンプレート107を複数用意しても良い。複数用意することにより、無限遠に存在する物体が投影されている領域であるにもかかわらず無限遠領域106として抽出されない、という現象を回避し易くなる。テンプレート107は、ステレオカメラシステム100aの運用前に、撮像部101で撮影した画像から特定無限遠物体が投影されている領域を切り出すことで予め準備することができる。
図7は実施例1における画像105aから特定無限遠物体領域を無限遠領域106(106a、106b)として抽出した結果の例を表す模式図である。特定無限遠物体領域抽出プログラムでは、画像105a上でテンプレート107を移動させ、テンプレート107と重なっている領域の輝度分布が一致したとき、その領域を特定無限遠物体領域として抽出する。
ここで、注目した物体が無限遠とみなすことが可能か否かを判定する際に、ステレオカメラが運用される地域の地図情報を用いても良い。地図情報は予め記憶部103に格納されている。撮像した物体とステレオカメラシステム100aが運用される地域との距離を算出し、その距離が所定値を超える場合、撮像した物体が無限遠とみなす。これにより、撮像した物体を無限遠とみなすことが可能か否かを容易に判定できる。
続いて、演算部102は、記憶部103に保存されている対応点検出プログラム116に基づき、画像105の組に共通して投影されている同一点の組を対応点108として検出する(S103)。図8は、実施例1における画像105から対応点108(108a、108b)を検出した結果の例を表す模式図である。検出方法の一例として、画像105の組のうちの1枚105aに対し、輝度値Iの2次微分の行列に基づきコーナーを抽出し、そのコーナーを含む微小領域を他の画像から検索する方法が考えられる。画像の横方向をx、縦方向をyとすると、画像上の点{u,v}における2次微分の行列は数1で表現される。
そして、演算部102は、対応点分類プログラム117に基づき、対応点108を無限遠対応点109と一般対応点110に分類する(S104)。
図9は、実施例1における対応点108を分類した結果の例を表す模式図である。検出した対応点108のうちの無限遠領域106の抽出(S102)で利用された画像105a上での点が無限遠領域106に含まれている場合、その対応点を無限遠対応点109とし、それ以外の対応点を一般対応点110とする。
ここで、これらの対応点108は画像中心位置やレンズ歪みによって歪められている。演算部102は、記憶部103に格納されている各撮像部101の内部パラメータと対応点補正プログラム118に基づき、検出した対応点108の各画像105での点を補正する(S105)。例えば、内部パラメータは、焦点距離{fx,fy}、画像中心位置{cx,cy}、歪みパラメータ{k1,k2,k3,p1,p2}で表現することができる。画像の幅をw、画像の高さをhとするとき、歪んだ画像上の点の座標{ud,vd}と補正後の画像上の点の座標{up,vp}との関係は数2で表現することができる。
対応点108を補正した後、演算部102は、それらの対応点108の記憶部103への保存と、予め記憶部103に格納してある対応点削除判定の共通基準に基づき古い対応点の削除を行う(S106)。まず、対応点108の保存の際、RAMに保持しておいた画像105の取得日時を対応点取得日時とし、対応点108と対応点取得日時を対として保存する。全ての対応点108を保存し終えたら、RAMに保持しておいた画像105の取得日時を削除する。
対応点108の削除方法の例として、対応点108の個数の上限を対応点削除判定の共通基準として予め定め、対応点108の追加によりその上限を超えた分だけ古い順に削除する方法がある。撮像部101の外部パラメータは経時変化することから、古い対応点108よりも新しい対応点108の方が現在の外部パラメータ推定に適している。この方法により、セルフキャリブレーションをロバストに行うために必要な対応点108の個数を保ちつつ、常に最新の対応点108を用いてキャリブレーションを行うことができる。
また、対応点108の削除方法の別の例として、対応点108の保存期間の上限を対応点削除判定の共通基準として予め定めておき、保存期間が過ぎている対応点108を削除する方法が考えられる。この方法により、長期間使用していなかったステレオカメラシステム100を使用する際に、過去に使用していた頃に取得した対応点108を利用せずに新規に取得した対応点108のみを用いてセルフキャリブレーションをすることが可能となる。
続いて、演算部102は、記憶部103に保存してあるキャリブレーション実行判定の共通基準に基づき、セルフキャリブレーションが必要か否か、及び、セルフキャリブレーションが可能か否かを判定する(S107)。不要あるいは不可と判定された場合は、S108〜S110の作業は省略される。
必要か否かの判定方法の例として、セルフキャリブレーションを行った際にその日時を記憶部103に記録し、キャリブレーション実行判定の共通基準としてセルフキャリブレーションを必要としない期間を予め定めておき、その期間が過ぎた場合にセルフキャリブレーションが必要と判断する方法が考えられる。この方法により、事前に測定した各撮像部101間の外部パラメータの経時変化率に基づき、経時変化が許容範囲を超える可能性のある期間毎にセルフキャリブレーションを実行させることができる。
他の判定方法の例として、ユーザ10からのセルフキャリブレーションの要求指令があった場合にセルフキャリブレーションが必要と判断する方法もある。例えば、ステレオカメラシステム100に大きな衝撃が加わった際に、その事実をユーザ10が認識できる場合において、この方法により、ユーザ10は即座にステレオカメラシステム100にセルフキャリブレーションを実行させることができるようになる。
また、可能か否かの判定方法の例として、対応点108の個数の下限をキャリブレーション実行判定の共通基準として予め定めておき、記憶部103に保存されている対応点108の個数が下限を上回っている場合にセルフキャリブレーションが可能と判断する方法がある。対応点108が少ない場合、その画像105上の位置の誤差がキャリブレーション結果に大きく影響を与え、キャリブレーション以前よりも外部パラメータの精度を悪化させることが起こり得るが、この方法により、対応点108の数が少ない場合はセルフキャリブレーションを実行せずに、この現象を回避することができるようになる。
S107にてセルフキャリブレーションが必要かつ可能と判断された場合、演算部102は、まず、記憶部103に保存されている無限遠対応点109と相対姿勢同定プログラム119に基づき、各撮像部101間の相対姿勢を同定する(S108)。例えば、記憶部103に無限遠対応点109がn個保存され、i番目の無限遠対応点109iのうち、撮像部101aが撮影した画像105aに関連付けられる点の座標が{uai,vai}、撮像部101bが撮影した画像105bに関連付けられる点の座標が{ubi,vbi}と表現されるとする。撮像部101aの焦点距離を{fxa,fya}、画像の幅をwa、画像の高さをhaとし、撮像部101bの焦点距離を{fxb,fyb}、画像の幅をwb、画像の高さをhbとするとき、無限遠対応点109iと撮像部101間の相対姿勢Rとの関係は数3で表現できる。
続いて、演算部102は、S108にて同定した相対姿勢Rと記憶部103に保存されている一般対応点110と相対位置同定プログラム120に基づき、各撮像部101間の相対位置を同定する(S109)。例えば、記憶部103に一般対応点110がm個保存され、j番目の一般対応点110jのうち、撮像部101aが撮影した画像105aに関連付けられる点の座標が{uaj,vaj}、撮像部101bが撮影した画像105bに関連付けられる点の座標が{ubj,vbj}と表現されるとする。このとき、一般対応点110iと撮像部101間の相対位置{Tx,Ty,Tz}の関係は数6で表現できる。
これらの後、演算部102は、画像105の組と記憶部103に保存されている内部パラメータ、外部パラメータ、被写体3次元位置算出プログラム121に基づき、被写体の3次元位置を算出する(S111)。算出方法の例として、各撮像部101の内部パラメータを用いた画像105の組の歪み補正と、外部パラメータが存在する状態でのBouguetのアルゴリズムによるステレオ平行化処理と、ブロックマッチングによるステレオ対応点探索を段階的に行い、得られたステレオ対応点の組の視差と撮像部101間相対位置{Tx,Ty,Tz}に基づき、そのステレオ対応点が表す被写体の3次元位置を算出する方法がある。この方法において、画像105の組の歪み補正では数2に基づき補正後の画像の組を作成し、ステレオ並行化処理では撮像部101間の相対姿勢Rと相対位置{Tx,Ty,Tz}に基づき補正後の画像の組をそれぞれ透視投影変換する。また、ステレオ対応点探索では、画像105aを変換して得られた画像上の全ての点について小さいウィンドウを切り出し、画像105bを変換して得られた画像の同じ行において先ほど切り出したウィンドウと一致する点が存在するかを探索し、一致した点をステレオ対応点として抽出する。これらの手法は非特許文献2のpp.438〜462に詳しい説明が記載されている。
演算部102は、この算出結果を、記憶部103に保存されているユーザ10との通信プロトコルに基づき、ユーザ10へ提供する(S112)。最後に、演算部102は、ユーザ10からの終了指令の有無を確認し(S113)、終了指令があった場合はフローを終了し、無ければS101からのフローを継続する。
以上のように、本実施例では、テンプレートを用いて画像から無限遠の物体のみが存在する領域を抽出し、その領域内の対応点を無限遠対応点として検出し、それ以外の対応点を一般対応点とする。無限遠対応点のみを用いて各カメラ間の相対姿勢を同定し、同定した相対姿勢と一般対応点を用いて各カメラ間の相対位置を同定することによりセルフキャリブレーションを行う。これにより、対応点位置の認識誤差に対しロバストなセルフキャリブレーションが行われ、高精度な被写体の3次元位置認識が長期間継続される。
本実施例では、予め無限遠物体を特定不可能な場合においても、無限遠領域106を抽出しロバストなセルフキャリブレーションを実現可能なステレオカメラシステム100bの例を説明する。
本実施例におけるステレオカメラシステム100bの構成例は実施例1のステレオカメラシステム100aと同一であり、その模式図は図1に示される。撮像部101、演算部102、記憶部103の基本的な機能や、ステレオカメラシステム100bとユーザ10の関係などは、実施例1のステレオカメラシステム100aと同様である。ただし、本実施例では、撮像部101から得られる複数の光波長の輝度値を用いて無限遠領域106を抽出する。そのため、本実施例の撮像部101はカラーカメラやハイパースペクトルカメラなど複数の光波長の輝度値を取得可能とする。図10は実施例2における記憶部103に格納される情報の構成例を表す模式図である。記憶部103には、共通情報104と、空・雲領域抽出プログラム131と、複数の光波長における空の輝度値の範囲132と、複数の光波長における雲の輝度値の範囲133を記録する。
本実施例における演算部102の処理例は、図4を用いて説明する。演算部102は、実施例1と同様に各撮像部101に撮影指令を与え、画像105の組を取得する(S101)。図11は、実施例2における各撮像部101が同時に撮影した画像105の組の例を表す模式図であり、画像105c、105dはそれぞれ撮像部101a、101bが撮影した画像を表している。
続いて、演算部102は、実施例1と同様に取得した画像105の組のうち少なくともどれか1枚を対象として無限遠領域106として抽出する(S102)。実施例2では、ステレオカメラシステム100bが運用される地域から撮像部101が撮影可能な無限遠の物体を予め特定することが困難な場合を想定し、複数の光波長における空及び雲の輝度値の範囲(132、133)を予め記憶部103に保持しておく。そして演算部102は、その輝度値の範囲と予め記憶部103に保存されている空・雲領域抽出プログラム131に基づき、どの地域においても無限遠の物体とみなすことが可能な空と雲が投影されている領域を、無限遠領域106として抽出する。
図12は実施例2における空・雲領域を無限遠領域106cとして画像105cから抽出した結果の例を表す模式図である。演算部102は、まず、画像105のうちのいずれか1枚について、全ての画素に対しその輝度値が空の輝度値の範囲にあるか否かを調査し、該当する画素を空の輝度値を持つ領域と見なす。
続いて、空の輝度値を持つ近接した領域同士を結合し続け、最終的に作成された領域を空領域として抽出する。また、空領域と画像の上辺、左辺、右辺に囲まれた領域で、その領域内の全ての画素の輝度値が雲の輝度値の範囲にある領域を、雲領域として抽出する。隣接する空領域と雲領域を結合して得られた空・雲領域を無限遠領域106として抽出する。
この方法により、ステレオカメラシステム100bを利用する地域から撮像部101が撮影可能でかつ事前に特定可能である無限遠物体が存在しない場合においても、無限遠領域106を抽出することが可能となる。
また、演算部102は、得られた空・雲領域の中で画像の上辺、左辺、右辺のいずれかに接しているもののみを、無限遠領域106として抽出しても良い。これにより、空や雲の輝度値を持っているが空や雲ではない物体が投影されている領域を排除することが可能になる。
続いて、演算部102は、実施例1と同様の手法により、画像105の組に共通して投影されている同一点の組を対応点108として検出する(S103)。図13は、実施例2における画像105c及び105dから対応点108(108c、108d)を検出した結果の例を表す模式図である。また、演算部102は、実施例1と同様の手法により、対応点108を無限遠対応点109と一般対応点110に分類する(S104)。図14は、実施例2における画像105c及び105dから検出した対応点108を分類した結果の例を表す模式図である。109bが無限遠対応点であり、110bが一般対応点である。
実施例2における演算部102のフローのうち、S105〜S113については、実施例1と同様である。
本実施例では、ステレオカメラの原理に基づき周囲に存在する物体の3次元位置を算出し、その結果に基づき自律的に移動する移動体として車両200aの例を説明する。
図15は、本実施例における車両200aの構成例を表す模式図である。車両200aは、実施例1あるいは実施例2で説明したステレオカメラシステム100が備える複数の撮像部101、演算部102、記憶部103に加え、駆動部201、車両位置取得部202、通信部203を備える。車両200aは、通信部203が受信したユーザ10からの指令に基づき自律的に移動する。
撮像部101は、実施例1あるいは実施例2で説明したステレオカメラシステム100に搭載される機器と同等の機能及び構成を有し、同様の動作を行う。
演算部102は、実施例1あるいは実施例2で説明したステレオカメラシステム100に搭載される機器と同等の機能及び構成を有し、ユーザ10からの指令の理解、撮像部101の制御、記憶部103の制御、被写体の3次元位置の算出、セルフキャリブレーションにおける演算処理の他、車両200aの走行経路再計画、駆動部201の制御、車両位置取得部202の制御、通信部203の制御を行う。また、演算部102は各撮像部101に同期を取るための信号を送る。
記憶部103は、実施例1あるいは実施例2で説明したステレオカメラシステム100に搭載される機器と同等の機能及び構成を有し、同様の動作を行う。図16は、本実施例の記憶部103に格納される情報の構成例を表す模式図である。
記憶部103は、実施例1あるいは実施例2で説明したステレオカメラシステム100のものと同様の情報を格納する他、駆動部201や車両位置取得部202、通信部203との通信プロトコル(134〜136)、駆動部201や車両位置取得部202、通信部203の制御プログラム(137〜139)、車両200の走行経路再計画プログラム141、車両200の移動制御のための各種判定基準(142、143)、走行経路144を格納する。
駆動部201は、車両200を移動させるための機器であり、加減速装置、操舵装置、車輪の組合せなどとして実装される。駆動部201は、役割に応じて複数の機器に分割されていても良い。駆動部201は、演算部102からの制御に基づき、車両200aを移動させる。
車両位置取得部202は、自身の地球座標系上の3次元的な位置姿勢を取得する機器であり、GPS電波受信機と、ジャイロセンサと、受信機で受信した情報やセンサで計測した結果に基づき自身の3次元的な位置姿勢を算出し出力するコンピュータとの組合せとして実装される。車両位置取得部202は、演算部102からの制御に基づき、GPS電波の受信、姿勢の計測、3次元的な位置姿勢の算出、位置姿勢の演算部102への出力を行う。
通信部203は、ユーザ10からの命令を無線で受信するための機器であり、無線LAN電波受信機と受信した命令を出力するコンピュータとの組合せとして実装される。通信部203は、演算部102が起動した直後に、演算部102からの制御に基づき、無線LAN電波の受信準備を行い、受信待機状態になる。無線LAN電波形式のユーザ10からの命令を受信した際には、即座に演算部102にその命令を出力する。
ユーザ10は、作業員が車両200に移動開始または移動停止を命令するために利用するコンピュータであり、通信部203に命令を送信するための無線LAN電波送信機を有する。ユーザ10は、予め定められた通信プロトコルに基づき、車両200に対し移動開始命令、移動停止命令、セルフキャリブレーション実施命令を送信する。移動開始命令を送信する際には、地球座標系の緯度経度の軌跡で表現される走行経路を併せて送信する。
図17は、本実施例における演算部102の処理例を説明するフローチャートである。本フローチャートは、ユーザ10が送信した移動開始命令及び走行経路を通信部203が受信し、通信部203が演算部102にそれらの情報を伝達した状態から始まっている。演算部102は、まず、受信した走行経路を記憶部103に格納する(S201)。その後、演算部102は、実施例1あるいは実施例2におけるS101〜S111の処理を実行する(S202)。ここで、演算部102は、S107の処理を実施するためにユーザ10からのセルフキャリブレーションの要求指令を確認する必要がある場合、通信部203に受信情報の有無を確認し、受信情報がある場合はその情報がセルフキャリブレーションの要求指令であるか否かを確認する。
続いて、演算部102は、記憶部103に予め格納されている車両位置取得部202との通信プロトコル135及び車両位置取得部202の制御プログラム138に基づき、車両位置取得部202から車両位置姿勢を取得する(S203)。まず、演算部102は、車両位置取得部202へ位置姿勢取得の指令を与える。すると、車両位置取得部202は、GPS電波受信機を用いてGPS電波を受信し、ジャイロセンサを用いて姿勢を計測し、受信結果と計測結果から自身の3次元的な位置姿勢を算出し、演算部102へその位置姿勢へ伝達する。演算部102は伝達された位置姿勢を車両位置姿勢としてRAMに保持する。
続いて、演算部102は、S202の処理で算出した被写体3次元位置と、S203の処理で取得した車両位置姿勢と、S201の処理で記憶部103に格納した走行経路と、予め記憶部103に格納している障害物判定基準とに基づき、今後走行する走行経路上に障害物が存在するか否かを判定する(S204)。
予め、被写体が走行経路上に存在するとみなす被写体と走行経路との距離の最大値を、障害物判定基準として記憶部103に格納しておく。まず、演算部102は、車両位置に最も近い走行経路上の点を抽出し、その点以降の走行経路を半経路とし、半径路上に障害物が存在するか否かを判定する。各被写体3次元位置に対し、半径路との距離を算出し、障害物判定基準と算出した距離に基づきその被写体が半径路上にあるか否かを判定し、半径路上にある場合は障害物とみなす。
障害物が存在する場合、演算部102は、その障害物に対応する被写体3次元位置と、記憶部103に格納されている走行経路と、S203の処理で取得した車両位置姿勢と、車両200の走行経路再計画プログラム141に基づき、走行経路を再計画し、記憶部103に対し古い走行経路を破棄し新たな走行経路を格納する(S205)。走行経路再計画プログラムは、走行経路のうち障害物が存在する地点について、障害物の大きさ分迂回するように経路を修正する。この走行経路再計画により、車両200は障害物に衝突することなく安全に経路の終端まで自律的に移動することができるようになる。
続いて、演算部102は、記憶部103に格納されている走行経路と、S203の処理で取得した車両位置姿勢と、駆動部201との通信プロトコル134と、駆動部201の制御プログラム137とに基づき、車両200が走行経路に沿って移動するように駆動部201を制御する(S206)。演算部102は、車両200が走行経路に沿って移動するように加減速量と操舵量を決定し、その加減速量と操舵量を駆動部201へ伝達する。駆動部201は、伝達された加減速量と操舵量となるように加減速装置と操舵装置を作動させ車輪を制御する。
その後、演算部102は、通信部203との通信プロトコル136と、通信部203の制御プログラムに基づき、通信部203にユーザ10からの情報の有無を問い合わせ、情報がある場合はユーザ10との通信プロトコルに基づきそれが移動停止命令か否かを確認する(S207)。通信部203は、演算部102の問い合わせを受けると、新規の無線LAN電波受信の有無を確認し、新規の受信がある場合はその情報を演算部102に伝達し、新規の受信が無い場合は無い旨を演算部102に伝達する。
移動停止命令が無い場合、演算部102は、記憶部103に格納されている走行経路と、S203の処理で取得した車両位置姿勢と、予め記憶部103に格納されている走行経路終端への到達判定基準に基づき、車両200が走行経路の終端に到達しているか否かを判定する(S208)。予め、走行経路の終端に到達しているとみなす走行経路終端と車両位置との距離の最大値を、走行経路終端への到達判定基準として記憶部103に格納しておく。演算部102は、走行経路の終端位置と現在の車両位置との距離を算出し、その距離が走行経路終端への到達判定基準よりも小さい場合に、車両200が走行経路の終端に到達したと判断する。
ユーザ10からの移動停止命令が無く、車両200が走行経路の終端に到達していない場合、演算部102は、S202から処理を繰り返す。ユーザ10からの移動停止命令が有る場合、あるいは、車両200が走行経路の終端に到達している場合、演算部102は、予め記憶部103に格納してある駆動部201との通信プロトコル及び駆動部201の制御プログラムに基づき、車両200が静止するように駆動部201を制御する(S209)。演算部102は、車両が静止するように加減速量と操舵量を決定し、その加減速量と操舵量を駆動部201へ伝達する。駆動部201は、伝達された加減速量と操舵量となるように加減速装置と操舵装置を作動させ車輪を制御する。
演算部102は、S209の処理を終えると、通信部203がユーザ10からの移動開始命令と新たな走行経路を受信するまで待機し続ける。
本実施例の車両200aは、搭載する複数の撮像部101について対応点位置の認識誤差に対しロバストなセルフキャリブレーションを行うため、ステレオカメラの原理に基づく周囲物体の3次元位置の高精度算出とその結果に基づく安全な自律移動を、長時間継続することができる。
本実施例では、複数の撮像部101を搭載し、強い振動や衝撃が加わったことを検知し、それらの撮像部101についてセルフキャリブレーションを行う車両200bの例を説明する。
図18は、本実施例における車両200bの構成例を表す模式図である。車両200bは、実施例3で説明した車両200aと同様に、複数の撮像部101、演算部102、記憶部103、駆動部201、車両位置取得部202、通信部203を備え、通信部203が受信したユーザ10からの指令に基づき自律的に移動する。また、本実施例における車両200bは、揺動検知部204を備える。
撮像部101、駆動部201、車両位置取得部202、通信部203は、実施例3で説明した車両200aに搭載される機器と同等の機能及び構成を有し、同様の動作を行う。
演算部102は、実施例3で説明したステレオカメラシステム100に搭載される機器と同等の機能及び構成を有し、ユーザ10からの指令の理解、撮像部101の制御、記憶部103の制御、駆動部201の制御、車両位置取得部202の制御、通信部203の制御、被写体の3次元位置の算出、セルフキャリブレーションにおける演算処理、車両200の移動計画の他、揺動検知部204の制御を行う。また、演算部102は各撮像部101に同期を取るための信号を送る。
記憶部103は、実施例3で説明した車両200aに搭載される機器と同等の機能及び構成を有し、同様の動作を行う。図19は、本実施例の記憶部103に格納される情報の構成例を表す模式図である。
記憶部103は、実施例3で説明した車両200aのものと同様の情報を格納する他、揺動検知部204との通信プロトコル145、揺動検知部204の制御プログラム146、キャリブレーションの要否判定のための加速度基準147、キャリブレーション要求日時148を格納する。
揺動検知部204は、加速度を取得する機器であり、加速度計と、加速度計で計測した加速度を出力するコンピュータとの組合せとして実装される。揺動検知部204は、演算部102からの制御に基づき、加速度の計測、加速度の演算部102への出力を行う。
図20は、本実施例における演算部102の処理例を説明するフローチャートである。本フローチャートは、実施例3のものと同様に、ユーザ10が送信した移動開始命令及び走行経路を通信部203が受信し、通信部203が演算部102にそれらの情報を伝達した状態から始まっている。演算部102は、実施例3で説明した処理S201を実行する(S301)。その後、演算部102は、実施例1あるいは実施例2にて説明したS101〜S105の処理を実行する(S302)。
続いて、演算部102は、揺動検知部204から加速度を取得し(S303)、取得した加速度と、予め記憶部103に格納しているキャリブレーション要否の加速度基準と、対応点削除判定の共通基準とに基づき、記憶部103に対し対応点108の追加と削除を行う(S304)。被写体3次元位置の算出に無視できない誤差を与えるほど各撮像部101間の外部パラメータが突発的に変化する加速度のうち、最小値を予め計測しておき、これをキャリブレーション要否の加速度基準として記憶部103に格納しておく。演算部102は、取得した加速度の大きさがキャリブレーション要否の加速度基準以上の場合、記憶部103に対し新たに検出した対応点108を追加せず、記憶部103に保存している全ての対応点を削除し、現在の日時をキャリブレーション要求日時として記憶部103に格納する。この処理により、車両200に大きな衝撃が加わった際には、揺動検知部204から得られる加速度に基づきその衝撃を検知し、各撮像部101間の外部パラメータが大きく変化した可能性があると判断し、衝撃以前の対応点108を用いることなくセルフキャリブレーションを行うことが可能になる。取得した加速度の大きさが基準未満の場合、演算部102は、実施例1において説明したS106の処理を行う。
続いて、演算部102は、セルフキャリブレーションの要否及び可否を判定する(S305)。演算部102は、記憶部103に格納されている前回キャリブレーション実行日時とキャリブレーション要求日時を比較し、キャリブレーション要求日時の方が新しい場合にセルフキャリブレーションが必要と判断する。それ以外の場合については、演算部102は、実施例1において説明したS107の処理を実施する。
セルフキャリブレーションが必要かつ可能と判断された場合、演算部102は、実施例1において説明したS108〜S110の処理を実行する(S306)。セルフキャリブレーションが不要あるいは不可と判定された場合は、S306の処理は省略される。
続いて、演算部102は、被写体3次元位置の算出可否を判定する(S307)。演算部102は、記憶部103に格納されている前回キャリブレーション実行日時とキャリブレーション要求日時を比較し、キャリブレーション要求日時の方が新しい場合は被写体3次元位置の算出は不可と判定する。これ以外の場合は、算出可能と判定する。被写体3次元位置の算出が不可と判定された場合は、実施例3で説明したS209の処理を実行し車両200を一時停止し(S308)、その後、S302の処理に戻り、セルフキャリブレーションを実行するまでS302〜307の処理を繰り返す。この処理により、記憶部103に保持している外部パラメータが実際のものと大きく異なる可能性がある際に、被写体3次元計測とその結果に基づく自律移動を、新たにセルフキャリブレーションを実行するまで一時停止させることが可能となる。
被写体3次元位置を算出可能な場合、演算部102は、実施例1において説明したS111の処理を実行し(S309)、その後、実施例3で説明したS203〜S208の処理を実行し、処理継続の要否を判定する(S310)。演算部102は、S208の処理の結果、車両200が走行経路終端に到達していないと判断した場合は、継続必要と判定し、それ以外の場合は継続不要と判定する。継続必要と判定した場合、演算部102はS302からの処理を継続する。継続不要と判定した場合、演算部102は実施例3において説明したS209の処理を実行し、車両200を停止させる。
演算部102は、S311の処理を終えると、通信部203がユーザ10からの移動開始命令と新たな走行経路を受信するまで待機し続ける。
本実施例の車両200bは、搭載する複数の撮像部101について、強い振動や衝撃が加わった際にはそれを検知し新たに対応点を集め直した上で、対応点位置の認識誤差に対しロバストなセルフキャリブレーションを行うため、凹凸が激しい路面上を走行中であっても、ステレオカメラの原理に基づく周囲物体の3次元位置の高精度算出とその結果に基づく安全な自律移動を長時間継続することができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではなく、種々変形実施可能であり、上述した各実施形態を適宜組み合わせることが可能であることは、当業者に理解されよう。
10 ユーザ
100 ステレオカメラシステム
101 撮像部
102 演算部
103 記憶部
104 共通情報
105 画像
106 無限遠領域
107 特定無限遠物体テンプレート
108 対応点
109 無限遠対応点
110 一般対応点
200 車両
201 駆動部
202 車両位置取得部
203 通信部
204 揺動検知部
100 ステレオカメラシステム
101 撮像部
102 演算部
103 記憶部
104 共通情報
105 画像
106 無限遠領域
107 特定無限遠物体テンプレート
108 対応点
109 無限遠対応点
110 一般対応点
200 車両
201 駆動部
202 車両位置取得部
203 通信部
204 揺動検知部
Claims (10)
- 複数の撮像部と、
前記複数の撮像部それぞれが撮影した画像を用いて前記複数の撮像部間の相対姿勢及び相対位置を特定する演算部と、を有するステレオカメラシステムであって、
前記演算部は、
前記複数の撮像部それぞれが撮影した画像の組のうち少なくとも1枚から、無限遠の物体が投影されている領域を無限遠領域として抽出し、
前記画像の組から対応する点の組を対応点として検出し、
前記無限遠領域に含まれる前記対応点を無限遠対応点として検出し、
前記無限遠領域に含まれない前記対応点を一般対応点として検出し、
前記無限遠対応点を用いて前記複数の撮像部間の相対姿勢を特定し、
前記一般対応点と前記特定された相対姿勢とを用いて、前記複数の撮像部間の相対位置を特定するステレオカメラシステム。 - 請求項1に記載のステレオカメラシステムであって、
前記撮像部が撮像可能な無限遠の物体を表すテンプレートを保持する記録部を有し、
前記演算部は、前記テンプレートに基づいて、前記画像の組のうち少なくとも1枚から前記テンプレートが表す無限遠の物体が投影されている領域を前記無限遠領域として抽出するステレオカメラシステム。 - 請求項1に記載のステレオカメラシステムであって、
前記記録部は地図情報を記録し、
前記演算部は前記撮像部が撮像した物体までの距離を前記地図情報を用いて算出し、前記距離が所定値を超える物体が投影されている領域を前記無限遠領域として抽出するステレオカメラシステム。 - 請求項1に記載のステレオカメラシステムであって、
複数の光波長における空の輝度値の範囲と雲の輝度値の範囲を記録する記録部を有し、
前記演算部は、
前記画像の各画素における複数の光波長の輝度値と、前記空の輝度値の範囲と前記雲の輝度値の範囲とを比較し、
前記画像の組のうち少なくとも1枚から雲を含む空が投影されている領域を前記無限遠領域として抽出するステレオカメラシステム。 - 請求項1に記載のステレオカメラシステムであって、
前記演算部は、前記特定された相対姿勢及び相対位置を用いて、前記複数の撮像部が撮像する被写体の3次元位置を算出するステレオカメラシステム。 - 複数の撮像部と、
前記複数の撮像部それぞれが撮影した画像を用いて前記複数の撮像部間の相対姿勢及び相対位置を特定する演算部と、
駆動部と、を有する移動体であって、
前記演算部は、
前記複数の撮像部それぞれが撮影した画像の組のうち少なくとも1枚から、無限遠の物体が投影されている領域を無限遠領域として抽出し、
前記画像の組から対応する点の組を対応点として検出し、
前記無限遠領域に含まれる前記対応点を無限遠対応点として検出し、
前記無限遠領域に含まれない前記対応点を一般対応点として検出し、
前記無限遠対応点を用いて前記複数の撮像部間の相対姿勢を特定し、
前記一般対応点と前記特定された相対姿勢とを用いて、前記複数の撮像部間の相対位置を特定し、
前記特定された相対姿勢及び相対位置を用いて、前記複数の撮像部が撮像する被写体の3次元位置を算出し、
前記被写体の3次元位置に基づき前記移動体の走行経路を算出して前記駆動部を制御し、
前記駆動部は、前記制御に基づいて前記移動体を移動させる移動体。 - 請求項6に記載の移動体であって、
前記撮像部が撮像可能な無限遠の物体を表すテンプレートを保持する記録部を有し、
前記演算部は、前記テンプレートに基づいて、前記画像の組のうち少なくとも1枚から前記テンプレートが表す無限遠の物体が投影されている領域を前記無限遠領域として抽出する移動体。 - 請求項6に記載の移動体であって、
前記記録部は地図情報を記録し、
前記演算部は前記撮像部が撮像した物体までの距離を前記地図情報を用いて算出し、前記距離が所定値を超える物体が投影されている領域を前記無限遠領域として抽出する移動体。 - 請求項6に記載の移動体であって、
複数の光波長における空の輝度値の範囲と雲の輝度値の範囲を記録する記録部を有し、
前記演算部は、
前記画像の各画素における複数の光波長の輝度値と、前記空の輝度値の範囲と前記雲の輝度値の範囲とを比較し、
前記画像の組のうち少なくとも1枚から雲を含む空が投影されている領域を前記無限遠領域として抽出する移動体。 - 請求項6に記載の移動体であって、
前記移動体の加速度を計測する揺動検知部を有し、
前記演算部は、
前記計測された加速度が所定の基準値を超えた場合に、記録部に記録されている前記無限遠対応点及び一般対応点を消去し、
前記無限遠対応点及び一般対応点を再度検出し、
前記再度検出した無限遠対応点及び一般対応点を用いて前記複数の撮像部間の相対姿勢及び相対位置を特定する移動体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/002226 WO2013145025A1 (ja) | 2012-03-30 | 2012-03-30 | ステレオカメラシステム及び移動体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013145025A1 JPWO2013145025A1 (ja) | 2015-08-03 |
JP5775965B2 true JP5775965B2 (ja) | 2015-09-09 |
Family
ID=49258397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014507016A Expired - Fee Related JP5775965B2 (ja) | 2012-03-30 | 2012-03-30 | ステレオカメラシステム及び移動体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5775965B2 (ja) |
WO (1) | WO2013145025A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6552192B2 (ja) * | 2014-12-18 | 2019-07-31 | 京セラ株式会社 | ステレオカメラ装置、移動体、制御方法及び較正装置 |
JP6453645B2 (ja) * | 2014-12-25 | 2019-01-16 | 京セラ株式会社 | ステレオカメラ装置、移動体、ステレオカメラシステム、サーバ装置及び制御方法 |
WO2016203989A1 (ja) * | 2015-06-17 | 2016-12-22 | ソニー株式会社 | 画像処理装置および画像処理方法 |
TWI557393B (zh) * | 2015-10-08 | 2016-11-11 | 微星科技股份有限公司 | 雷射測距校正方法與應用此方法的裝置 |
US10591277B2 (en) * | 2016-07-28 | 2020-03-17 | Liberty Reach Inc. | Method and system for measuring outermost dimension of a vehicle positioned at an inspection station |
JP6739367B2 (ja) * | 2017-01-27 | 2020-08-12 | 日立オートモティブシステムズ株式会社 | カメラ装置 |
JP7016058B2 (ja) * | 2017-04-28 | 2022-02-04 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置 |
JP7156896B2 (ja) * | 2018-10-09 | 2022-10-19 | 株式会社日立ビルシステム | 昇降路内計測システム |
JP2020139927A (ja) * | 2019-03-01 | 2020-09-03 | 一般財団法人電力中央研究所 | カメラパラメータの較正方法、較正装置、及び較正プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06129851A (ja) * | 1992-10-13 | 1994-05-13 | Sumitomo Electric Ind Ltd | ステレオカメラの校正方法 |
JP4511147B2 (ja) * | 2003-10-02 | 2010-07-28 | 株式会社岩根研究所 | 三次元形状生成装置 |
JP5228614B2 (ja) * | 2008-05-15 | 2013-07-03 | 株式会社豊田中央研究所 | パラメータ計算装置、パラメータ計算システムおよびプログラム |
JP5361421B2 (ja) * | 2009-01-30 | 2013-12-04 | 三菱電機株式会社 | 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム |
-
2012
- 2012-03-30 WO PCT/JP2012/002226 patent/WO2013145025A1/ja active Application Filing
- 2012-03-30 JP JP2014507016A patent/JP5775965B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPWO2013145025A1 (ja) | 2015-08-03 |
WO2013145025A1 (ja) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5775965B2 (ja) | ステレオカメラシステム及び移動体 | |
CN110148185B (zh) | 确定成像设备坐标系转换参数的方法、装置和电子设备 | |
KR102420476B1 (ko) | 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체 | |
CN112189225B (zh) | 车道线信息检测装置、方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质 | |
JP6442193B2 (ja) | 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム | |
US20220292720A1 (en) | Method and system for calibrating multiple cameras | |
WO2018142900A1 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
KR101538775B1 (ko) | 전방 영상을 이용한 위치 인식 장치 및 방법 | |
JP5157067B2 (ja) | 自動走行用マップ作成装置、及び自動走行装置。 | |
CN110503040B (zh) | 障碍物检测方法及装置 | |
CN110795984A (zh) | 信息处理方法、信息处理装置及程序记录介质 | |
JP2006252473A (ja) | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
US12033400B2 (en) | Overhead-view image generation device, overhead-view image generation system, and automatic parking device | |
KR101880185B1 (ko) | 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법 | |
JP4132068B2 (ja) | 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム | |
WO2013049597A1 (en) | Method and system for three dimensional mapping of an environment | |
US10445872B2 (en) | Machine control measurements device | |
JP2011013803A (ja) | 周囲形状検出装置、自律移動装置、移動体の操縦補助装置、周囲形状検出方法、自律移動装置の制御方法及び移動体の操縦補助方法 | |
KR20200093271A (ko) | 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체 | |
WO2018228258A1 (zh) | 一种移动电子设备以及该移动电子设备中的方法 | |
KR101612822B1 (ko) | 차선 인식 장치 및 그 방법 | |
KR101234917B1 (ko) | 가중치 적용된 임계값에 의한 영상 보정을 이용하는 3차원 공간 데이터 생성 방법 및 시스템 | |
KR101356644B1 (ko) | 위치 인식 시스템 및 그 방법 | |
JP2022002045A (ja) | 部分画像生成装置及び部分画像生成用コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150706 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5775965 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |