JP2002048513A - 位置検出装置、位置検出方法、及び位置検出プログラム - Google Patents
位置検出装置、位置検出方法、及び位置検出プログラムInfo
- Publication number
- JP2002048513A JP2002048513A JP2001124943A JP2001124943A JP2002048513A JP 2002048513 A JP2002048513 A JP 2002048513A JP 2001124943 A JP2001124943 A JP 2001124943A JP 2001124943 A JP2001124943 A JP 2001124943A JP 2002048513 A JP2002048513 A JP 2002048513A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- self
- feature
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 77
- 238000001514 detection method Methods 0.000 claims abstract description 54
- 238000006073 displacement reaction Methods 0.000 claims abstract description 36
- 239000000284 extract Substances 0.000 claims abstract description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 51
- 238000000605 extraction Methods 0.000 claims description 43
- 238000012545 processing Methods 0.000 description 41
- 239000013598 vector Substances 0.000 description 22
- 238000010586 diagram Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 2
- 229930091051 Arenine Natural products 0.000 description 1
- 102100033041 Carbonic anhydrase 13 Human genes 0.000 description 1
- 101000867860 Homo sapiens Carbonic anhydrase 13 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
移動する際の自己の位置検出を簡単に行うことができる
位置検出装置を提供することを目的とする。 【解決手段】 移動体の自己位置を検出する位置検出装
置であって、移動体の前方視野の輝度画像を取得する輝
度画像取得手段と、輝度画像取得手段と同一の視野を有
し、輝度画像取得手段が輝度画像を取得するのと同時に
距離画像を取得する距離画像取得手段と、少なくとも連
続する2フレームの輝度画像からそれぞれ特徴点を抽出
する特徴点抽出手段と、特徴点抽出手段によって抽出さ
れた特徴点の2フレーム間の位置の変位量を距離画像に
基づいて算出し、当該変位量から自己位置を算出するた
めの基準特徴点を選択する基準特徴点選択手段とを備え
たことを特徴とする。
Description
ロボットや自動車が移動した際の自己の位置を検出する
位置検出装置、位置検出方法、及び位置検出プログラム
に関する。特に、人間型の脚式移動ロボットの自己位置
検出に関する。
車両の位置検出には、GPSやビーコンから発せられた
情報を受信して、この情報を解析して自己の位置を検出
するものがある。GPSやビーコンを使用した位置検出
は、GPSやビーコンが発した電磁波を受信しなければ
ならないために、電磁波の送信装置と自己に備えられた
受信装置との間に電磁波を遮断する物体がある場合、自
己の位置検出を行えなくなるという問題がある。特に屋
内のみを移動するロボットなどは全く利用することがで
きない。このため、車両に車輪の回転数を検出する距離
センサ及び方位センサを備え、これらのセンサの出力値
に基づき、場合によっては道路地図データをマッチング
することによって、自己の位置を検出する位置検出装置
がある。例えば、特開平9−243389号公報に記載
されている技術が挙げられる。
に詳細な道路地図データを備える必要があるとともに、
距離センサや方位センサの出力値には誤差が含まれるた
めに、距離センサや方位センサの出力値のみによる位置
検出が長時間継続すると、検出誤差が累積されてしま
い、検出された車両位置が実際の車両位置から大きくず
れてしまうという問題がある。また、特に人間型の脚式
移動ロボットが屋内を自由に移動する際においては、壁
や柱との相対位置をロボット自身が得る必要があるが、
従来の位置検出装置では、周囲の環境との相対位置関係
を得ることが難しいために自律移動が困難になるという
問題がある。
たもので、人間型脚式移動ロボットや自動車が自律的に
移動する際に、周囲環境の画像を用いて自己の位置検出
を簡単に行うことができる位置検出装置、位置検出方
法、及び位置検出プログラムを提供することを目的とす
る。
は、移動体の自己位置を検出する位置検出装置であっ
て、前記位置検出装置は、前記移動体の前方視野の画像
を取得する画像取得手段と、前記画像取得手段と同一の
視野を有し、前記画像取得手段が画像を取得するのと同
時に距離画像を取得する距離画像取得手段と、少なくと
も連続する2フレームの画像からそれぞれ特徴点を抽出
する特徴点抽出手段と、前記特徴点抽出手段によって抽
出された特徴点の2フレーム間の位置の変位量を前記距
離画像に基づいて算出し、当該変位量から自己位置を算
出するための基準特徴点を選択する基準特徴点選択手段
とを備えたことを特徴とする。この発明によれば、連続
する2フレームの画像から同一の静止物体を抽出し、こ
の静止物体の変位を求め、この変位量から自己の移動量
を求めるようにしたため、精度良く自己位置の検出を行
うことができるという効果が得られる。また、静止物体
の抽出を自己で行うようにしたため、予め静止物体の位
置が定義されたマップ等を備える必要がなく、構成を簡
単にすることが可能となる。さらに、道路地図データ等
のマップを備える必要がないために、構成を簡単にする
ことができるとともに、未知の場所へ移動することが可
能となり移動体の行動範囲の制限をなくすことができる
という効果も得られる。
置を検出する位置検出装置であって、前記位置検出装置
は、前記移動体の前方視野内の画像を取得する画像取得
手段と、前記移動体の移動に当たって基準となる基準特
徴点を前記画像取得手段によって得られた画像に基づい
て決定する基準点決定手段と、自己の移動制御と前記基
準点の観測量を拡張カルマンフィルタに代入して自己の
位置を検出する位置検出手段とを備えたことを特徴とす
る。この発明によれば、自己の移動制御と前記基準点の
観測量を拡張カルマンフィルタに代入して自己の位置を
検出する位置検出手段を備えたため、より正確な自己位
置の検出が可能になるという効果が得られる。
置を検出する位置検出装置であって、前記位置検出装置
は、前記移動体の前方視野の画像を取得する画像取得手
段と、前記画像取得手段と同一の視野を有し、前記画像
取得手段が画像を取得するのと同時に距離画像を取得す
る距離画像取得手段と、得られた画像からそれぞれ特徴
点を抽出する特徴点抽出手段と、予め記憶された物体情
報と抽出された特徴点とを比較して、相関が高い特徴点
を既知と特徴点と見なして自己位置を算出するための基
準特徴点とする基準特徴点選択手段とを備えたことを特
徴とする。この発明によれば、予め記憶された物体情報
と抽出された特徴点とを比較して、相関が高い特徴点を
既知と特徴点と見なして自己位置を算出するための基準
特徴点とするようにしたため、より正確に自己の位置を
検出することができるという効果が得られる。
手段は、既知と見なされた特徴点が存在する画像中の未
知の特徴点と既知の特徴点との相対関係を求め、該未知
の特徴点を既知の特徴点として記憶することにより前記
物体情報を更新することを特徴する。この発明によれ
ば、既知と見なされた特徴点が存在する画像中の未知の
特徴点と既知の特徴点との相対関係を求め、該未知の特
徴点を既知の特徴点として記憶することにより前記物体
情報を更新するようようにしたため、物体情報の更新を
自動的に行うことができるという効果が得られる。
置を検出する位置検出装置であって、前記位置検出装置
は、前記移動体の前方視野の画像を取得する画像取得手
段と、前記画像中の特徴点群を抽出する特徴点群抽出手
段と、予め画像取得手段で得られた画像における特徴点
群と当該特徴点群を得た位置を対応させて複数記憶して
おき、新たに得られた画像の特徴点群と予め記憶された
特徴点群の相関を算出して、自己の位置を算出する自己
位置検出手段とを備えたことを特徴とする。この発明に
よれば、予め画像取得手段で得られた画像における特徴
点群と当該特徴点群を得た位置を対応させて複数記憶し
ておき、新たに得られた画像の特徴点群と予め記憶され
た特徴点群の相関を算出して、自己の位置を算出するよ
うにしたため、幾何学的にロボットの位置が得られない
場合であっても過去の位置検出結果に基づいて自己の位
置を検出することができるという効果が得られる。
置を検出する位置検出方法であって、前記位置検出方法
は、前記移動体の前方視野の画像を取得する画像取得過
程と、前記画像と同一の視野を有し、前記画像を取得す
るのと同時に距離画像を取得する距離画像取得過程と、
少なくとも連続する2フレームの画像からそれぞれ特徴
点を抽出する特徴点抽出過程と、前記特徴点抽出過程に
おいて抽出された特徴点の2フレーム間の位置の変位量
を前記距離画像に基づいて算出し、当該変位量から自己
位置を算出するための基準特徴点を選択する基準特徴点
選択過程とを有することを特徴とする。この発明によれ
ば、連続する2フレームの画像から同一の静止物体を抽
出し、この静止物体の変位を求め、この変位量から自己
の移動量を求めるようにしたため、精度良く自己位置の
検出を行うことができるという効果が得られる。また、
静止物体の抽出を自己で行うようにしたため、予め静止
物体の位置が定義されたマップ等を備える必要がなく、
構成を簡単にすることが可能となる。さらに、道路地図
データ等のマップを備える必要がないために、構成を簡
単にすることができるとともに、未知の場所へ移動する
ことが可能となり移動体の行動範囲の制限をなくすこと
ができるという効果も得られる。
置を検出する位置検出方法であって、前記位置検出方法
は、前記移動体の前方視野内の画像を取得する画像取得
過程と、前記移動体の移動に当たって基準となる基準特
徴点を前記画像に基づいて決定する基準点決定過程と、
自己の移動制御と前記基準点の観測量を拡張カルマンフ
ィルタに代入して自己の位置を検出する位置検出過程と
を有することを特徴とする。この発明によれば、自己の
移動制御と前記基準点の観測量を拡張カルマンフィルタ
に代入して自己の位置を検出する位置検出手段を備えた
ため、より正確な自己位置の検出が可能になるという効
果が得られる。
置を検出する位置検出方法であって、前記位置検出方法
は、前記移動体の前方視野の画像を取得する画像取得過
程と、前記画像と同一の視野を有し、前記画像を取得す
るのと同時に距離画像を取得する距離画像取得過程と、
得られた画像からそれぞれ特徴点を抽出する特徴点抽出
過程と、予め記憶された物体情報と抽出された特徴点と
を比較して、相関が高い特徴点を既知と特徴点と見なし
て自己位置を算出するための基準特徴点とする基準特徴
点選択過程とを有することを特徴とする。この発明によ
れば、予め記憶された物体情報と抽出された特徴点とを
比較して、相関が高い特徴点を既知と特徴点と見なして
自己位置を算出するための基準特徴点とするようにした
ため、より正確に自己の位置を検出することができると
いう効果が得られる。
過程は、既知と見なされた特徴点が存在する画像中の未
知の特徴点と既知の特徴点との相対関係を求め、該未知
の特徴点を既知の特徴点として記憶することにより前記
物体情報を更新することを特徴する。この発明によれ
ば、既知と見なされた特徴点が存在する画像中の未知の
特徴点と既知の特徴点との相対関係を求め、該未知の特
徴点を既知の特徴点として記憶することにより前記物体
情報を更新するようようにしたため、物体情報の更新を
自動的に行うことができるという効果が得られる。
位置を検出する位置検出方法であって、前記位置検出方
法は、前記移動体の前方視野の画像を取得する画像取得
過程と、前記画像中の特徴点群を抽出する特徴点群抽出
過程と、予め画像取得過程で得られた画像における特徴
点群と当該特徴点群を得た位置を対応させて複数記憶し
ておき、新たに得られた画像の特徴点群と予め記憶され
た特徴点群の相関を算出して、自己の位置を算出する自
己位置検出過程とを有することを特徴とする。この発明
によれば、予め画像取得過程で得られた画像における特
徴点群と当該特徴点群を得た位置を対応させて複数記憶
しておき、新たに得られた画像の特徴点群と予め記憶さ
れた特徴点群の相関を算出して、自己の位置を算出する
ようにしたため、幾何学的にロボットの位置が得られな
い場合であっても過去の位置検出結果に基づいて自己の
位置を検出することができるという効果が得られる。
位置を検出する位置検出プログラムであって、前記位置
検出プログラムは、前記移動体の前方視野の画像を取得
する画像取得処理と、前記画像と同一の視野を有し、前
記画像を取得するのと同時に距離画像を取得する距離画
像取得処理と、少なくとも連続する2フレームの画像か
らそれぞれ特徴点を抽出する特徴点抽出処理と、前記特
徴点抽出処理において抽出された特徴点の2フレーム間
の位置の変位量を前記距離画像に基づいて算出し、当該
変位量から自己位置を算出するための基準特徴点を選択
する基準特徴点選択処理とをコンピュータに行わせるこ
とを特徴とする。この発明によれば、連続する2フレー
ムの画像から同一の静止物体を抽出し、この静止物体の
変位を求め、この変位量から自己の移動量を求めるよう
にしたため、精度良く自己位置の検出を行うことができ
るという効果が得られる。また、静止物体の抽出を自己
で行うようにしたため、予め静止物体の位置が定義され
たマップ等を備える必要がなく、構成を簡単にすること
が可能となる。さらに、道路地図データ等のマップを備
える必要がないために、構成を簡単にすることができる
とともに、未知の場所へ移動することが可能となり移動
体の行動範囲の制限をなくすことができるという効果も
得られる。
位置を検出する位置検出プログラムであって、前記位置
検出プログラムは、前記移動体の前方視野内の画像を取
得する画像取得処理と、前記移動体の移動に当たって基
準となる基準特徴点を前記画像に基づいて決定する基準
点決定処理と、自己の移動制御と前記基準点の観測量を
拡張カルマンフィルタに代入して自己の位置を検出する
位置検出処理とをコンピュータに行わせることを特徴と
する。この発明によれば、自己の移動制御と前記基準点
の観測量を拡張カルマンフィルタに代入して自己の位置
を検出する位置検出手段を備えたため、より正確な自己
位置の検出が可能になるという効果が得られる。
位置を検出するための位置検出プログラムであって、前
記位置検出プログラムは、前記移動体の前方視野の画像
を取得する画像取得処理と、前記画像と同一の視野を有
し、前記画像を取得するのと同時に距離画像を取得する
距離画像取得処理と、得られた画像からそれぞれ特徴点
を抽出する特徴点抽出処理と、予め記憶された物体情報
と抽出された特徴点とを比較して、相関が高い特徴点を
既知と特徴点と見なして自己位置を算出するための基準
特徴点とする基準特徴点選択処理とをコンピュータに行
わせることを特徴とする。この発明によれば、予め記憶
された物体情報と抽出された特徴点とを比較して、相関
が高い特徴点を既知と特徴点と見なして自己位置を算出
するための基準特徴点とするようにしたため、より正確
に自己の位置を検出することができるという効果が得ら
れる。
択処理は、既知と見なされた特徴点が存在する画像中の
未知の特徴点と既知の特徴点との相対関係を求め、該未
知の特徴点を既知の特徴点として記憶することにより前
記物体情報を更新することを特徴する。この発明によれ
ば、既知と見なされた特徴点が存在する画像中の未知の
特徴点と既知の特徴点との相対関係を求め、該未知の特
徴点を既知の特徴点として記憶することにより前記物体
情報を更新するようようにしたため、物体情報の更新を
自動的に行うことができるという効果が得られる。
位置を検出するための位置検出プログラムであって、前
記位置検出プログラムは、前記移動体の前方視野の画像
を取得する画像取得処理と、前記画像中の特徴点群を抽
出する特徴点群抽出処理と、予め画像取得処理で得られ
た画像における特徴点群と当該特徴点群を得た位置を対
応させて複数記憶しておき、新たに得られた画像の特徴
点群と予め記憶された特徴点群の相関を算出して、自己
の位置を算出する自己位置検出処理とをコンピュータに
行わせることを特徴とする。この発明によれば、予め画
像取得処理で得られた画像における特徴点群と当該特徴
点群を得た位置を対応させて複数記憶しておき、新たに
得られた画像の特徴点群と予め記憶された特徴点群の相
関を算出して、自己の位置を算出するようにしたため、
幾何学的にロボットの位置が得られない場合であっても
過去の位置検出結果に基づいて自己の位置を検出するこ
とができるという効果が得られる。
の第一の実施形態による位置検出装置を図面を参照して
説明する。図1は同実施形態の構成を示すブロック図で
ある。ここでは、図1に示す位置検出装置は屋内を移動
する自律走行のロボットに備えられているものとして説
明する。この図において、符号1は、ロボットが移動す
る際の移動方向の視野内に存在する物体を撮像する2台
のカメラであり、所定の間隔で設置され、互いの視野角
は一致している。符号2は、カメラ1において得られた
画像の1フレーム分をそれぞれ記憶する距離画像記憶部
であり、2フレーム分の画像メモリからなる。符号3
は、画像記憶部2に記憶されている2フレームの画像か
ら距離画像を生成する距離画像生成部である。符号4
は、距離画像生成部3において生成された距離画像を記
憶する距離画像記憶部である。符号5は、画像記憶部2
または距離画像記憶部4に記憶されている画像から特徴
点を抽出する特徴点抽出部である。符号6は、特徴点抽
出部5における特徴点抽出結果に基づいて自己の位置の
検出を行う位置検出部である。符号7は、位置検出部6
による位置検出結果を参照してロボットの移動を制御す
る移動制御部である。
を定義する。ロボットが初期状態であるときの前方の距
離方向をX軸、ロボットの左右方向をY軸、鉛直方向を
Z軸とし、これらの3軸は互いに直交している。また、
以下でいう距離とは、カメラ1から各物体までの直線距
離である。したがって、距離画像データは、カメラ1の
視野における物体表面の測定点の3次元座標値の集合で
ある。
出装置の動作を説明する。図2は、特徴点抽出部5及び
位置検出部6が画像記憶部2に記憶されている輝度画像
と、距離画像記憶部4に記憶されている距離画像とか
ら、特徴点を連続時間でトラッキングし、その位置情報
を基に自己の位置検出を行う動作を示すフローチャート
である。図2のフローチャートに示す各処理は、カメラ
1によって画像を撮像する度に繰り返し実行される。
として動作し、各カメラで輝度画像を取得し、画像記憶
部2へそれぞれ格納する。続いて、画像記憶部2に輝度
画像が記憶されたのを受けて距離画像生成部3は、2つ
のカメラ1で取得した2枚の輝度画像からそれぞれの画
像の画素の対応点を求めることによって距離画像を生成
し、距離画像記憶部4へ格納する。ここでは、少ない画
素でより精度の良い距離画像を得るために画素間を補間
するいわゆるサブピクセルを用いて距離画像を作成す
る。なおここでは、一例として各画素の輝度画像及び距
離画像を256階調で表現するものとする。通常の画像
の画素は、センサの視野内における物体表面の輝度を表
現したものであるが、距離画像の画素は、センサの視野
内における物体表面までの距離を256階調で表現した
ものである。したがって、距離画像中の画素の位置によ
ってカメラ位置からの3次元空間に存在する物体表面上
の1点へのXYZ座標を特定することができる。なお、
より高精度な距離精度が必要な場合には、カメラに換え
てレーザレーダ、ミリ波レーダや超音波を用いたレーダ
を併用するなどして精度を向上させることもできる。ま
た、カメラ1は赤外線カメラでもよい。さらに、距離デ
ータを256階調で表現せずに、距離センサの出力値を
そのまま使用するようにしてもよい。カメラ1と距離画
像生成部3は、この動作を繰り返し実行する。一方、特
徴点抽出部5は、画像記憶部2に記憶されている画像を
読み出す(ステップS1)。
画像から特徴点を抽出して、この特徴点を特徴点抽出部
5内に保存する(ステップS2)。ここでいう特徴点と
は、画像処理で用いられる不変特徴量に相当し、画像中
に現れている像を特徴付ける点のことである。この特徴
点の抽出は、例えば輝度画像に対してエッジ検出処理を
施し、検出されたエッジを構成する点を選択することに
よって行う。なお、特徴点抽出部5は、距離画像記憶部
4に記憶されている距離画像を読み出し、この距離画像
から特徴点を抽出するようにしてもよい。特徴点は、連
続して取り込まれた2枚の輝度画像を用いて作成され
る。ここでは、それぞれの時刻を「t」と「(t+
1)」と表記する。また、特徴点抽出においては、左右
いずれか一方のカメラ1から得られた輝度画像を用いて
おり、時刻(t+1)の入力画像から抽出した特徴点の
集合と、入力画像の直前の時刻tの画像から抽出した特
徴点の集合の2種類の特徴点が保存される。この特徴点
は、画像上の座標値が保存される。
の対応点を求めるために、位置検出部6は、特徴点抽出
部5内に保存されている入力画像の特徴点を1つ読み出
す(ステップS3)。続いて、位置検出部6は、特徴点
抽出部5内に保存されている直前の画像の特徴点を1つ
読み出す(ステップS4)。ここで、直前の時刻tと
は、現在説明しているステップS1〜S17が前回行わ
れた時刻であり、2つの異なる時刻tと(t+1)との
対応点は、ステップS1〜S17が2回以上実行される
ことで得られる。よって初めてステップS1〜S17が
実行されるときは、例外処理としてステップS3まで実
行してステップS1へ戻ることになる。
からしさCAを算出し時刻tで保存された特徴点とパタ
ーンマッチングを行う(ステップS5)。ここで、図3
を参照して、2つの特徴点の確からしさCAを算出する
処理の詳細を説明する。まず、特徴点を抽出した入力画
像に対して、特徴点の周囲のm画素×n画素(ただし、
m、nは2以上の自然数)を選択する。そして、直前画
像の特徴点の周囲のm画素×n画素(ただし、m、nは
2以上の自然数)を選択する。このとき、2つの特徴点
の周囲の画素の選択する大きさ(m×n)は任意に決定
してよいが、2つの選択する画素数は同一でなければな
らない。
値(0〜255の整数)を有したm×n個の輝度値の集
合、すなわちg1={g11,g12,・・・,g
1mn}、g2={g21,g22,・・・,g2mn}が得
られる。そして、得られた2つの輝度値の集合のうち、
対応する画素毎の輝度値の減算を行い、その減算結果を
加算することによって、確からしさCAを算出する。す
なわち、CA=|(g11−g21)|+|(g12−g2
2)|+…+|(g1mn−g2mn)|によって算出され
る。この演算によれば、2つの輝度値集合が全く同一で
あれば確からしさCAは「0」となるはずである。した
がって、この演算によって算出されたCAが小さいほど
2つの特徴点が同一である可能性が高くなる。
さCAとしきい値TCを比較して(ステップS6)、CA
がTCより小さい場合、連続時間の特徴点移動量として
の座標値から変位ベクトルdaを算出して、位置検出部
6内に保存する(ステップS7)。一方、CAがTCより
小さい場合、ステップS8へ進む。
点の全てについて処理したか否かを判定し(ステップS
8)、処理していなければステップS4へ戻り処理を繰
り返す。一方、直前の画像の特徴点の全てについて処理
が終了した場合、位置検出部6は、入力画像の特徴点の
全てについて処理したか否かを判定し(ステップS
9)、処理していなければステップS3に戻り処理を繰
り返す。一方、入力画像の特徴点の全てについて処理が
終了した場合、ステップS10へ進む。
よって、入力画像(時刻t+1)の特徴点と直前画像
(時刻t)の特徴点との対応付けがされ、さらに、対応
付けされた特徴点の変位ベクトルdaが算出されて保存
された状態となる。ただし、変位ベクトルdaが算出さ
れるのは、2つの特徴点の確からしさが所定のしきい値
Tcを超えている場合のみであるために、算出される変
位ベクトルdaの個数は処理の度に異なる。ここでは、
直前の画像の特徴点の全てについて処理を行ったが、計
算処理の負荷を低減するために、必要とする移動量に合
わせ、求める特徴点の近傍のみを計算して求めるように
してもよい。
位ベクトルdaを読み出し、平均変位ベクトルTdを算
出する(ステップS10)。次に、位置検出部6は、保
存されている変位ベクトルdaを1つずつ読み出す(ス
テップS11)。そして、位置検出部6は、|ベクトル
Td−ベクトルda|を算出してこの値が、所定のしき
い値Aより小さいか否かを判定する(ステップS1
2)。この判定によって、算出された変位ベクトルda
の各々が平均変位ベクトルTdとどの程度の差を持って
いるかが判定される。
Td−ベクトルda|)がしきい値Aより小さい場合、
位置検出部6は、該当する変位ベクトルdaを算出する
ときに用いられた特徴点を静止物体であると判断する
(ステップS13)。一方、しきい値Aより大きい場
合、位置検出部6は、該当する変位ベクトルdaを算出
するときに用いられた特徴点を移動物体と判断する(ス
テップS14)。この処理は、算出された全ての変位ベ
クトルdaに対して行われ(ステップS15)、これに
よって、特徴点の各々について、静止物体であるか移動
物体であるかの判断が行われる。
判断された特徴点のうち、確からしさCAが上位の特徴
点を抽出する(ステップS16)。ここでいう確からし
さCAが上位とは、CAの値が小さいほど上位であること
を意味する。この抽出処理によって抽出される特徴点
は、入力画像(時刻t+1)の特徴点と対になる直前の
画像(時刻t)の特徴点であり、これらの特徴点が自己
位置算出の基準特徴点となる。
準特徴点と距離画像記憶部4に記憶された距離画像との
対応点より特徴点の距離を求め、その特徴点とロボット
の相対的位置の移動量に基づいて、直前の画像を取得し
た時点から現時点の画像(入力画像)を取得した時点ま
でにロボットが移動した量を算出する(ステップS1
7)。ステップS17の処理が終了しロボットの位置が
決定されると再びステップS1へ戻り、記憶されている
前回対応がとれた特徴量に対して同様の処理を繰り返
す。
する原理を説明する。ここでの座標系は、ロボットが初
期状態であるときに定義される座標系であり、ロボット
の前方方向をX軸、このX軸に直交する方向をY軸とす
る。図4において、a、bはそれぞれ建造物内の柱など
の任意の特徴点であり、前述した処理によって抽出され
る。ロボットが画像を取得することによって得られる情
報は、図4に示す特徴点aの相対的位置(xa,ya)及
び特徴点bの相対的位置(xb,yb)である。ここでの
φはz軸回りのロボットの回転角で反時計回りを正とす
る。
a(ax,ay)、b(bx,by)と仮定すると、abの
相対的座標値(xa,ya),(xb,yb)を用いてロボ
ットの絶対位置(xt,yt)はa,b点を中心とした半
径l1=√(xa 2+ya 2),l2=√(xb 2+yb 2)の円
の交点となる。原点(0,0)からロボット位置
(xt,yt)までのベクトルをP→(以下の説明におけ
るベクトル表現を「P→」とし、図面においては、Pの
頭に→を付ける)とし、原点からのa,bまでのベクト
ルをa→,b→、ロボットの位置(xt,yt)からa,
bそれぞれの点へのベクトルをl1→,l2→とすると、
ロボットの回転角φが0の場合、P→=(a→)−(l
1→),P→=(b→)−(l2→)の関係が成り立つ。
また、ロボットの回転角φが0でない場合は、ベクトル
l1→,l2→をそれぞれ(−φ)だけ回転させたベクト
ルが成立する。また、ロボットのZ軸方向の回転角φを
考慮すると、aに関していえば、 tan-1(ay/ax)−tan-1(ya/xa)=φ と決定される。また、bに関していえば、 tan-1(by/bx)−tan-1(yb/xb)=φ と決定される。
ットの位置(xt,yt)を求めることができる。上記の
説明においては、a,bを既知として仮定したが、ここ
では、未知の物体も扱うので、a,bの絶対位置は求め
られていないので、時刻tにおいて、ロボットの位置を
基にa,bの位置を決定し、時刻t+1において得られ
たa,bの相対位置の変化量daを基に、ロボット位置
の変化量(ロボットの移動量)を求め、既知の絶対位置
座標にこの変化量を加算することで、時刻t+1のロボ
ット位置を求めることができる。もちろんa,bが既知
である場合はa,bの相対位置を基にロボット位置を容
易に決定できる。
れ、移動制御部7においては、この位置に基づいて、ロ
ボットの移動制御が行われる。また、移動制御部7は、
位置検出をする必要がある場合に、特徴点抽出部5に対
して位置検出指示を出力するようにして、この位置検出
指示を受けて、特徴点抽出部5は図2に示す処理を開始
するようにしてもよい。このようにすることによって、
例えば、図1に示す位置検出装置を自動車に備え、トン
ネル等へ進入した時点で画像による位置検出を行うよう
にすれば、GPSによる位置検出ができなくなった場合
であっても位置検出を継続することができる。
ら同一の静止物体を連続してトラッキングすることで、
この静止物体の刻々と変化する位置の変位を求め、この
変位量から自己の移動量を刻々と求めるようにしたた
め、精度良く自己位置の検出を行うことができる。ここ
では、連続する2枚の画像でトラッキング処理を行う例
を説明したが、信頼性や精度向上のために2枚以上の画
像から特徴点の移動経歴を求め、静止物体を抽出しトラ
ッキングするようにしてもよい。このように、ターゲッ
トとなる特徴点の位置が既知の場合は、ロボットの絶対
的位置を決定でき、また、未知の場合は時刻tにおける
ターゲットの相対的位置とロボット位置(xt,yt)に
よりターゲットの位置を決定し、そのターゲット位置の
時刻t+1の位置の変化量をもとにロボット位置(x
t+1,yt+1)を求めることができる。また、連続時間K
だけ同じターゲットをトラッキングし続けた場合は、同
様にして、(xt+k,yt+k)のk時間の変化量を基に時
刻t+kの位置を検出することができる。
音波や電磁波を用いたレーダ等に置き換えてもよい。こ
のとき、レーダの計測視野を図1に示すカメラ1と同一
になるように設定する。また、レーダ等を用いて距離画
像を得る場合は、輝度画像を得るカメラ1は1台のみを
備えていればよい。
に近づくに従いフレームから特徴点が外れてしまうこと
があり、位置の検出ができなくなってしまうため、複数
の特徴点全てについて図2に示す処理を行うことによっ
て、移動量を算出する特徴点を次々に切り替えていくよ
うにする。ただし、この場合、移動体から離れるにした
がって、計測距離の誤差が移動体から近い場合に比べて
大きくなるため、フレーム内に存在する特徴点のうち距
離が短い特徴点を優先的に選択して移動量の算出を行う
ようにすれば、移動の精度が悪化することを防止するこ
とができる。また、移動体の回転(自転)によって、フ
レームから1度外れてしまった物体は位置を記憶してお
き、同じ物体が再びフレーム内に戻ってきたときに同一
物体としてトラッキングするようにしてもよい。
に詳細な地図を持たずに、最小限の地図情報に基づいて
自己の位置を検出する第2の実施形態を図5〜9を参照
して説明する。図5は、他の実施形態の構成を示すブロ
ック図である。図5に示すブロック図が図1に示すブロ
ック図と異なる点は、新たに物体情報記憶部8を設けた
点である。この物体情報記憶部8は、特徴量として予め
既知の複数の静止物体の特徴点の集合と、その静止物体
の絶対位置が対応付けられて物体の地図として記憶され
ているものであり、特徴点抽出部5、及び位置検出部6
によって参照される。ここでいう既知の静止物体とは、
部屋の中の柱や植木、ロッカーなどの家具などである。
また、どのような位置の物体を記憶しておくかは特に制
限はないが、移動体が移動する際に行動を変化させる位
置、すなわち曲がり角、ドアの前等の付近に存在する特
徴物を優先的に記憶するようにしておけば、効率良くか
つ精度良く移動体の制御が可能となる。
出装置の動作を説明する。ここで、カメラ1、画像記憶
部2、距離画像生成部3、距離画像記憶部4の動作は、
前述した実施形態における動作と同様なので説明を省略
する。図6のフローチャートに示す各処理は、カメラ1
によって画像を撮像する度に繰り返し実行される。ま
ず、特徴点抽出部5は、画像記憶部2に記憶されている
画像を読み出す(ステップS21)。そして、特徴点抽
出部5は、読み出した輝度画像から特徴点を抽出して、
この特徴点を特徴点抽出部5内に保存する(ステップS
22)。
れる不変特徴量に相当し、画像中に現れている像を特徴
付ける点のことである。また、特徴量とは、物体形状を
構成する複数の特徴点群のことである。この特徴点の抽
出は、例えば画像に対してエッジ検出処理を施し、検出
されたエッジを構成する特徴点を複数選択することによ
って行う。なお、特徴点抽出部5は、距離画像記憶部4
に記憶されている距離画像を読み出し、この距離画像か
ら特徴点を抽出するようにしてもよい。特徴点は、時刻
tの画像(直前の画像)から抽出した特徴点の集合が保
存され、この特徴点は、画像上の座標値が保存される。
ている特徴点を1つずつ読み出し、物体情報記憶部8に
記憶されている複数の物体情報の特徴点群(特徴量)と
パターンマッチングすることによって比較する(ステッ
プS23)。この比較処理は、前述した実施形態の処理
(図2に示す処理)と同様の処理によって行う。またこ
こでいう物体情報とは、予め得られた画像から静止物体
の特徴点を抽出しておき、この特徴点とこの静止物体が
存在する位置の絶対座標からなる情報である。ここで、
用いるパターンマッチング手段としては単純なテンプレ
ートマッチング法を利用してもよい。
2で得られた特徴点と一致するまたは確からしさが大き
い、すなわち相関が高い物体情報が物体情報記憶部8に
存在したか、すなわち既知の物体があったか否かを判定
する(ステップS24)。この結果、既知の物体が存在
した場合、位置検出部6は、この既知の静止物体と自己
の相対位置から自己の絶対位置を求める(ステップS2
5)。この絶対位置は、既知の物体の絶対座標と、距離
画像記憶部4に記憶された距離画像から得られる既知の
物体と自己の相対位置関係とから算出する。
体が存在しなかった場合、特徴点抽出部5は、ステップ
S22において抽出した特徴点が移動物体であるか静止
物体であるかを判定する(ステップS26)。判定の結
果得られた静止物体は直前に求められた自己の位置情報
を基に自己との相対的位置関係よりそれぞれ絶対位置を
求める(ステップS27)。この判定処理は、図2に示
すステップS4〜S13,S14の処理によって行う。
そして、この判定処理の結果得られた静止物体は直前の
処理(時刻t)においてもトラッキングできていたかを
判定する(ステップS28)。この判定は、直前に物体
情報記憶部8に記憶された特徴量と今回の特徴量をパタ
ンパターンマッチングして一致量を比較し判定する。ま
た、直前にステップS30で物体情報記憶部8に記憶さ
れた特徴量の絶対位置とステップS27で求めた位置と
を比較し、近傍であった場合トラッキングできたと判定
を加えてより精度を上げることもできる。この判定の結
果、直前の処理においてもトラッキングできた特徴点で
ある場合、位置検出部6は、静止物体と自己との相対位
置から自己の絶対位置を求める(ステップS29)。
トラッキングできておらず新規のものである場合、特徴
点抽出部5は、新規の静止物体の特徴点と直前のステッ
プS25またはS29で求められた時刻tの自己の絶対
位置を基に新規の特徴点の絶対位置を決定し物体情報記
憶部8に記憶する(ステップS30)。この移動量の算
出は、図2に示すステップS3〜S17の処理によって
行う。
て、近傍か否かに判断は距離のしきい値を定め、直前の
位置と今回の位置がこの距離内にあるか否かによって判
断する。しかし、画像によっては得られる距離にばらつ
きやノイズが大きい場合は、統計的処理を行ってもよ
い。これは、連続時間だけある特徴量がトラッキングで
きていたとすると、その特徴量の画像上の位置に対する
距離画像によって得られる自己に対する相対的位置
(x,y)のばらつきの分散値を刻々計算し、分散値が
収束した時点で、分散の範囲内にあるものを同一の物体
とし、分散外にあるものを別物体と判定するようにして
もよい。この分散値はステレオカメラの特性や物体によ
っても異なるため、予め設定された分散既定値を用いて
もよいし、物体情報記憶部8に物体毎に設定し記憶され
た既定値を用いてもよい。また、ステレオカメラの特性
として距離の2乗で精度が落ちることから分散値を距離
の2乗で変化させるなどの関数を用いてもよい。
絶対位置の算出方法を図7を参照して説明する。図7に
おいて、符号ARは、行動エリアを示しており、予めこ
の行動エリアAR内の原点Gが決定されている。符号R
は、ロボットであり、符号K4は、既知の静止物体であ
り、符号U5は、未知の物体である。図7においては、
簡単にするためにロボットRの回転角φは無視してい
る。このような状態であるときに、絶対位置が既知であ
る物体K4の絶対座標値(x1,y1)と、この既知物体
K4とロボットRに相対位置(x2、y2)に基づいて、
ロボットRの絶対位置(Rx,Ry)は、(Rx,Ry)=
(x1+x2,y1−y2)によって自己の絶対位置を求め
る。また、同様に未知の物体U5の絶対位置の座標値
(x4,y4)は、(x4,y4)=(x1+x2+x3,y1
−y2+y3)によって求める。図8に示すように、既知
の静止物体Kと未知の静止物体Uがカメラによって同時
に撮像された場合に、未知の物体Uの絶対座標を計算に
よって求めておくようにしたため、ロボットRが符号
R’の位置まで移動した場合に既知物体Kを撮像するこ
とができず未知の物体Uのみが撮像された場合でも、予
め計算しておいた絶対座標を利用することが可能とな
る。
た特徴量が複数の場合は、全てに対して行われ、ステッ
プS29においては全ての特徴量との相対位置から自己
の位置を求め、平均値によって自己の絶対位置を求める
ようにする。このように、既知の物体、未知の物体、未
知の物体のうち計算によって位置が既知になった物体の
状況に応じて、自己の絶対位置を求めるようにしたた
め、移動制御部7は精度良く移動制御を行うことが可能
となる。
作を説明する。ここでは、ロボットは、A地点からB地
点へ移動し、さらにC地点へ移動する場合の動作を例に
して説明する。まずA地点において、ステップS23の
比較処理の結果、絶対座標が既知である物体K1、K
2、K3が存在することを認識する。そして、位置検出
部6は、物体K1、K2、K3の3つの物体のうち、物
体K3は距離が長いため、物体K1、K2の絶対位置の
座標値から自己の絶対位置を求める(ステップS2
5)。このとき、位置検出部6は、未知物体U1、U2
の絶対位置の座標値を計算によって求めて、内部記憶し
ておく(ステップS30)。そして、ロボットは、絶対
位置が既知となった未知物体U1、U2の位置に基づい
て自己位置を求めながら(ステップS29)移動し、さ
らに未知物体U1、U2が撮像できない位置へ到達した
場合に、既知物体K3に基づいて自己位置を求めながら
(ステップS25)、B地点まで移動し、B地点の絶対
位置を求める。これによって、未知物体U1、U2に関
する位置情報と物体情報が更新されることになる。
向へ向く。このとき、カメラ1には、未知の物体U3、
U4が撮像される。ただし、この場合、90°向きを変
えたため、未知の物体U3、U4が撮像された画像に
は、既知の物体が撮像されない場合もある。このような
時には、未知物体U3、U4に基づいて移動量を求め、
B地点の絶対座標値に求めた移動量を加算することによ
って自己位置を求める(ステップS29)。そして、C
地点まで移動する途中で既知物体が撮像された場合、こ
の既知物体に基づいて自己の絶対位置を求め、移動量に
よって求めた絶対位置の誤差をリセットする。
て、自己の絶対位置を求める場合、距離画像から得られ
る相対位置の誤差が累積されるが、既知の物体が撮像さ
れた場合に、自己の位置をこの既知の物体から求めるよ
うにしたため、累積した誤差をリセットすることが可能
となり、精度の良い位置検出が可能となる。次に、もう
一度同じエリアにおいて移動を行う際は、地点Aに移動
した場合、前回未知物体U1、U2は地図位置情報と物
体情報が内部に記憶されているため既知物体として使わ
れる。また、未知物体U3、U4も同様である。また、
前回既知の物体が今回存在することが認識できない場合
は、その物体が移動物体である可能性があるため、物体
情報として移動物体である可能性があること記憶して検
出対象から外すなどの処理を加えてもよい。
ばらつきが大きいことがあり、上記の方法によってロボ
ットの位置を求めるのは困難である場合がある。そのた
め、ロボットの位置は、抽出した基準特徴点に基づき、
カルマンフィルタを使用して算出するようにしてもよ
い。このカルマンフィルタを用いることによって、距離
情報のばらつきなどを考慮してロボットの位置を算出す
ることができる。
ロボット位置算出の処理について説明する。ここで用い
るカルマンフィルタは拡張カルマンフィルタであり、状
態方程式を(1)式に示す。ここで、ロボットの状態を
表現する変数をx,y,φ,Tの4つで表現し、
はz軸まわりの回転角、Ttは時間ステップtから(t
+1)で移動する距離である。
の時刻tにおける移動制御変化量であり、3番目の項は
時刻tにおけるロボット制御のシステムノイズを表す。
ここで用いる座標系は図5と同様であり、また、図10
にロボット位置の状態を表す各パラメータの意味を示
す。また、(2)式は、特徴点aの観測方程式であり、
(3)式は、特徴点bの観測方程式であり、これらの式
はロボットから見た特徴点a,bの相対的計測値を示す
ものである。この計測式は、図5に示す座標系に基づい
て幾何学的に作成される。この計測量を表現する変数を
x,y,θの3つで表現し、
ノイズを表す。
ップS25、S29における処理に用いられるものであ
り、これらの式を画像が取得される度に演算を行うこと
によって、ロボットの回転角φt+1とロボットの位置
(xt+1,yt+1)を求めることができる。この拡張カル
マンフィルタを用いることによって、前述した幾何学的
に算出するのに比べ、システムノイズ及び計測ノイズが
考慮されているために精度良くロボットの位置検出を行
うことができる。また、カルマンフィルタを用いたとき
は、ステップS28の判断において特に明記していない
が、カルマンフィルタ内で収束する特徴点に対する観測
値の共分散を、その特徴点の分散値として用いることも
できる。
体の座標はx,y平面で説明したが、高さ方向(z方
向)に拡張にして自己の位置を、高さを含めて決定する
ようにしてもよい。
する環境において、オクルージョンなどの要因で特徴物
に対する相対位置を個別に決定できない場合に、複数の
特徴点群とこれらの特徴点群が得られた場所の位置の情
報を全て予め記憶しておき、この情報を参照しながら自
己の位置を決定する第3の実施形態を説明する。図11
は、第3の実施形態における位置検出装置の構成を示す
ブロック図である。この図において、符号1はカメラで
あり、符号5は特徴点抽出部である。符号8は、物体情
報記憶部である。符号9は、2つの特徴点の相関を求め
る相関処理部である。符号10は、相関処理部9の処理
結果に基づいて自己位置を決定する自己位置決定部であ
る。図11においては、得られた画像を記憶する画像記
憶部2、及び移動制御部7は省略されている。また、第
3の実施形態においては、距離画像を必要としないた
め、関係する構成要素は削除されている。
求める原理を簡単に説明する。図13は、位置Mにおい
てロボットの進行方向F→のシーンをカメラで撮影し、
得られた画像から特徴点群を選択している図である。こ
のとき、選択される特徴点群をWとすると、特徴点群W
は位置Mと関連付けられ、物体情報記憶部8に記憶され
る。ここでの特徴点群は個々にオクルージョンなどによ
り相対位置を特定できないものであるため、特徴点全体
に対し記憶した位置を関連付けることとなる。
所(M1〜M9)ある時の例であり、ロボットが通過す
るであろう位置に予め設定されるものである。予め設定
された各位置M1〜M9のそれぞれからロボットの進行
方向F→の方向に向けられたカメラで撮像された画像の
中から抽出した特徴点群をW1〜W9とすると、それぞ
れの位置(特徴点取得位置という)M1〜M9と特徴点
群W1〜W9はそれぞれ対になるように対応付けられて
物体情報記憶部8に予め記憶される。そして、ロボット
が未知の位置を通過中に、進行方向F→の方向に向けら
れたカメラで撮像された画像の中から抽出された特徴点
群と予め記憶された特徴点群W1〜W9との相関を求
め、この相関が最も高い特徴点群Wn(nは1〜9のい
ずれか)を自己が通過中の位置と判断し、この特徴点群
Wnと対になる特徴点取得位置Mn(nは1〜9のいず
れか)が自己位置となる。例えば、特徴点群W4とカメ
ラで撮像された画像から抽出された特徴点群とが最も良
く相関が取れるとき、この特徴点群W4を取得した位置
M4を自己位置と決定する。
置検出装置が自己位置を求める具体的な動作を説明す
る。まず、特徴点抽出部5は、カメラ1で撮像された画
像を読み出す(ステップS41)。そして、特徴点抽出
部5は、読み出しだ画像から全ての特徴点群を抽出し、
内部に保存する(ステップS42)。一方、相関処理部
9は、物体情報記憶部8に記憶されている特徴点群を1
つ読み出す(ステップS43)。続いて、相関処理部9
は、入力画像(カメラ1で撮像した画像)の特徴点を特
徴点抽出部5から1つ読み出す(ステップS44)。さ
らに、相関処理部9は、ステップS43で読み出した特
徴点群から1つの特徴点を選択する(ステップS4
5)。
読み出した特徴点とステップS45で選択した特徴点と
の確からしさCAを算出し(ステップS46)、予め決
められたしきい値Tcと比較する(ステップS47)。
この結果、CA>TcでなければステップS49へ進
む。一方、CA>Tcであれば、処理ループ毎に求めら
れたCAの和Sを求める(ステップS48)。ただし、
CAの和Sは、特徴点群毎に求めるため、確からしさCA
の和Sは特徴点群の数だけ得られることとなる。そし
て、相関処理部9は、ステップS43で読み出した特徴
点群を構成する特徴点の全てについて、ステップS45
〜S48の処理を繰り返す(ステップS49)。
保存された特徴点群を構成する特徴点の全てについて、
ステップS44〜S48の処理を繰り返し(ステップS
50)、さらに、ステップS42で保存された特徴点群
の全てに対してステップS43〜S48の処理を繰り返
す(ステップS51)。ステップS42〜S48におけ
る処理は、入力画像から抽出した特徴点群を構成する特
徴点と物体情報記憶部8に記憶されている特徴点とをそ
れぞれ総当たりで確からしさを求めている処理である。
なお、ステップS44〜S50の処理において、画像ピ
クセルの近いものを選択して確からしさを求めることで
処理負荷を低減するようにしてもよい。
48で求めた確からしさCAの和Sが大きい特徴点群を
選択する(ステップS52)。そして、選択した特徴点
群と対になる特徴点取得位置を物体情報記憶部8から読
み出すことによって、自己の位置を求め(ステップS5
3)、この位置を自己位置情報として出力する。
レオカメラを構成する左右の2台のカメラを利用し、各
カメラ毎に予め記憶された特徴点群Wと比較し、相関を
演算するようにしてもよい。このようにすることによっ
て、同一の特徴点群Wに対するカメラの画像の相関度の
大きさの違いによって、自己の位置を決定することがで
きる。すなわち、特徴点群Wに対応した位置Mに対して
各カメラで検出された相関値の差から位置Mの左右のオ
フセット方向を検出できる。このことにより、特徴点群
を得る位置Mのうち左右方向の数を少なくすることがで
きるため、予め画像を撮像する手間が大幅に削減でき
る。また、ステレオカメラを構成するカメラが2台以上
である場合は、左右方向に並ぶカメラを選択して利用す
ればよい。
ける特徴点群とこれらの特徴点群を取得した位置を、ロ
ボット内に予め記憶しておき、ロボットが行動を起こす
ときに得られた画像から抽出された特徴点群と相関が高
い特徴点群を記憶された中から選択し、この選択された
特徴点群が取得された位置を自己位置とするようにした
ため、ロボットが決められた屋内で行動する場合などに
おいて、容易に自己位置検出行うことが可能となる。
各位置M1〜M9における画像撮像の方向を1方向とし
て説明したが、各位置において複数の方向の画像を撮像
し、得られた画像の全てについて特徴点群を抽出して、
物体情報記憶部8に記憶しておけば、各位置におけるロ
ボットの進行方向が異なっても同様の処理によって、自
己位置を検出することが可能となる。また、ロボット
は、自己に備えられたカメラのズーム機能を用いて、拡
大・縮小させた画像から特徴点群を抽出するようにして
もよい。このようにすることによって、図14に示す位
置M2とM5の中間に位置するような場合の相関を取り
やすくすることができる。さらに、ロボットは、カメラ
が備えられた頭部を左右上下に振った状態で得られた画
像から特徴点群を抽出するようにしてもよい。このよう
にすることによって、記憶された特徴点群を取得した時
の進行方向と異なる行動をしている場合であっても特徴
点の相関を取りやすくすることが可能となる。
置検出処理を、ロボットが移動する環境に応じて適宜組
み合わせたり、必要な処理を選択するようことによって
自己位置を検出するようにしてもよい。
現するためのプログラムをコンピュータ読み取り可能な
記録媒体に記録して、この記録媒体に記録されたプログ
ラムをコンピュータシステムに読み込ませ、実行するこ
とにより位置検出処理を行ってもよい。なお、ここでい
う「コンピュータシステム」とは、OSや周辺機器等の
ハードウェアを含むものとする。また、「コンピュータ
システム」は、WWWシステムを利用している場合であ
れば、ホームページ提供環境(あるいは表示環境)も含
むものとする。また、「コンピュータ読み取り可能な記
録媒体」とは、フレキシブルディスク、光磁気ディス
ク、ROM、CD−ROM等の可搬媒体、コンピュータ
システムに内蔵されるハードディスク等の記憶装置のこ
とをいう。さらに「コンピュータ読み取り可能な記録媒
体」とは、インターネット等のネットワークや電話回線
等の通信回線を介してプログラムが送信された場合のサ
ーバやクライアントとなるコンピュータシステム内部の
揮発性メモリ(RAM)のように、一定時間プログラム
を保持しているものも含むものとする。
を記憶装置等に格納したコンピュータシステムから、伝
送媒体を介して、あるいは、伝送媒体中の伝送波により
他のコンピュータシステムに伝送されてもよい。ここ
で、プログラムを伝送する「伝送媒体」は、インターネ
ット等のネットワーク(通信網)や電話回線等の通信回
線(通信線)のように情報を伝送する機能を有する媒体
のことをいう。また、上記プログラムは、前述した機能
の一部を実現するためのものであっても良い。さらに、
前述した機能をコンピュータシステムにすでに記録され
ているプログラムとの組み合わせで実現できるもの、い
わゆる差分ファイル(差分プログラム)であっても良
い。
ば、連続する2フレームの画像から同一の静止物体を抽
出し、この静止物体の変位を求め、この変位量から自己
の移動量を求めるようにしたため、精度良く自己位置の
検出を行うことができるという効果が得られる。また、
静止物体の抽出を自己で行うようにしたため、予め静止
物体の位置が定義されたマップ等を備える必要がなく、
構成を簡単にすることが可能となる。さらに、道路地図
データ等のマップを備える必要がないために、構成を簡
単にすることができるとともに、未知の場所へ移動する
ことが可能となり移動体の行動範囲の制限をなくすこと
ができるという効果も得られので、特に人間型に脚式移
動ロボットに好適である。また、この発明によれば、自
己の移動制御と前記基準点の観測量を拡張カルマンフィ
ルタに代入して自己の位置を検出する位置検出手段を備
えたため、より正確な自己位置の検出が可能になるとい
う効果が得られる。
物体情報と抽出された特徴点とを比較して、相関が高い
特徴点を既知と特徴点と見なして自己位置を算出するた
めの基準特徴点とするようにしたため、より正確に自己
の位置を検出することができるという効果が得られる。
また、この発明によれば、既知と見なされた特徴点が存
在する画像中の未知の特徴点と既知の特徴点との相対関
係を求め、該未知の特徴点を既知の特徴点として記憶す
ることにより前記物体情報を更新するようようにしたた
め、地図情報及び物体情報の更新を自動的に行うことが
できるという効果が得られる。
ク図である。
の動作を示すフローチャートである。
理を示す説明図である。
示す説明図である。
ク図である。
の動作を示すフローチャートである。
図である。
ック図である。
ローチャートである。
理を説明する説明図である。
理を説明する説明図である。
理を説明する説明図である。
Claims (15)
- 【請求項1】 移動体の自己位置を検出する位置検出装
置であって、 前記位置検出装置は、 前記移動体の前方視野の画像を取得する画像取得手段
と、 前記画像取得手段と同一の視野を有し、前記画像取得手
段が画像を取得するのと同時に距離画像を取得する距離
画像取得手段と、 少なくとも連続する2フレームの画像からそれぞれ特徴
点を抽出する特徴点抽出手段と、 前記特徴点抽出手段によって抽出された特徴点の2フレ
ーム間の位置の変位量を前記距離画像に基づいて算出
し、当該変位量から自己位置を算出するための基準特徴
点を選択する基準特徴点選択手段と、 を備えたことを特徴とする位置検出装置。 - 【請求項2】 移動体の自己位置を検出する位置検出装
置であって、 前記位置検出装置は、 前記移動体の前方視野内の画像を取得する画像取得手段
と、 前記移動体の移動に当たって基準となる基準特徴点を前
記画像取得手段によって得られた画像に基づいて決定す
る基準点決定手段と、 自己の移動制御と前記基準点の観測量を拡張カルマンフ
ィルタに代入して自己の位置を検出する位置検出手段
と、 を備えたことを特徴とする位置検出装置。 - 【請求項3】 移動体の自己位置を検出する位置検出装
置であって、 前記位置検出装置は、 前記移動体の前方視野の画像を取得する画像取得手段
と、 前記画像取得手段と同一の視野を有し、前記画像取得手
段が画像を取得するのと同時に距離画像を取得する距離
画像取得手段と、 得られた画像からそれぞれ特徴点を抽出する特徴点抽出
手段と、 予め記憶された物体情報と抽出された特徴点とを比較し
て、相関が高い特徴点を既知と特徴点と見なして自己位
置を算出するための基準特徴点とする基準特徴点選択手
段と、 を備えたことを特徴とする位置検出装置。 - 【請求項4】 前記特徴点選択手段は、 既知と見なされた特徴点が存在する画像中の未知の特徴
点と既知の特徴点との相対関係を求め、該未知の特徴点
を既知の特徴点として記憶することにより前記物体情報
を更新することを特徴する請求項3に記載の位置検出装
置。 - 【請求項5】 移動体の自己位置を検出する位置検出装
置であって、 前記位置検出装置は、 前記移動体の前方視野の画像を取得する画像取得手段
と、 前記画像中の特徴点群を抽出する特徴点群抽出手段と、 予め画像取得手段で得られた画像における特徴点群と当
該特徴点群を得た位置を対応させて複数記憶しておき、
新たに得られた画像の特徴点群と予め記憶された特徴点
群の相関を算出して、自己の位置を算出する自己位置検
出手段と、 を備えたことを特徴とする位置検出装置。 - 【請求項6】 移動体の自己位置を検出する位置検出方
法であって、 前記位置検出方法は、 前記移動体の前方視野の画像を取得する画像取得過程
と、 前記画像と同一の視野を有し、前記画像を取得するのと
同時に距離画像を取得する距離画像取得過程と、 少なくとも連続する2フレームの画像からそれぞれ特徴
点を抽出する特徴点抽出過程と、 前記特徴点抽出過程において抽出された特徴点の2フレ
ーム間の位置の変位量を前記距離画像に基づいて算出
し、当該変位量から自己位置を算出するための基準特徴
点を選択する基準特徴点選択過程と、 を有することを特徴とする位置検出方法。 - 【請求項7】 移動体の自己位置を検出する位置検出方
法であって、 前記位置検出方法は、 前記移動体の前方視野内の画像を取得する画像取得過程
と、 前記移動体の移動に当たって基準となる基準特徴点を前
記画像に基づいて決定する基準点決定過程と、 自己の移動制御と前記基準点の観測量を拡張カルマンフ
ィルタに代入して自己の位置を検出する位置検出過程
と、 を有することを特徴とする位置検出方法。 - 【請求項8】 移動体の自己位置を検出する位置検出方
法であって、 前記位置検出方法は、 前記移動体の前方視野の画像を取得する画像取得過程
と、 前記画像と同一の視野を有し、前記画像を取得するのと
同時に距離画像を取得する距離画像取得過程と、 得られた画像からそれぞれ特徴点を抽出する特徴点抽出
過程と、 予め記憶された物体情報と抽出された特徴点とを比較し
て、相関が高い特徴点を既知と特徴点と見なして自己位
置を算出するための基準特徴点とする基準特徴点選択過
程と、 を有することを特徴とする位置検出方法。 - 【請求項9】 前記特徴点選択過程は、 既知と見なされた特徴点が存在する画像中の未知の特徴
点と既知の特徴点との相対関係を求め、該未知の特徴点
を既知の特徴点として記憶することにより前記物体情報
を更新することを特徴する請求項8に記載の位置検出方
法。 - 【請求項10】 移動体の自己位置を検出する位置検出
方法であって、 前記位置検出方法は、 前記移動体の前方視野の画像を取得する画像取得過程
と、 前記画像中の特徴点群を抽出する特徴点群抽出過程と、 予め画像取得過程で得られた画像における特徴点群と当
該特徴点群を得た位置を対応させて複数記憶しておき、
新たに得られた画像の特徴点群と予め記憶された特徴点
群の相関を算出して、自己の位置を算出する自己位置検
出過程と、 を有することを特徴とする位置検出方法。 - 【請求項11】 移動体の自己位置を検出するための位
置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野の画像を取得する画像取得処理
と、 前記画像と同一の視野を有し、前記画像を取得するのと
同時に距離画像を取得する距離画像取得処理と、 少なくとも連続する2フレームの画像からそれぞれ特徴
点を抽出する特徴点抽出処理と、 前記特徴点抽出処理において抽出された特徴点の2フレ
ーム間の位置の変位量を前記距離画像に基づいて算出
し、当該変位量から自己位置を算出するための基準特徴
点を選択する基準特徴点選択処理と、 をコンピュータに行わせることを特徴とする位置検出プ
ログラム。 - 【請求項12】 移動体の自己位置を検出するための位
置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野内の画像を取得する画像取得処理
と、 前記移動体の移動に当たって基準となる基準特徴点を前
記画像に基づいて決定する基準点決定処理と、 自己の移動制御と前記基準点の観測量を拡張カルマンフ
ィルタに代入して自己の位置を検出する位置検出処理
と、 をコンピュータに行わせることを特徴とする位置検出プ
ログラム。 - 【請求項13】 移動体の自己位置を検出するための位
置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野の画像を取得する画像取得処理
と、 前記画像と同一の視野を有し、前記画像を取得するのと
同時に距離画像を取得する距離画像取得処理と、 得られた画像からそれぞれ特徴点を抽出する特徴点抽出
処理と、 予め記憶された物体情報と抽出された特徴点とを比較し
て、相関が高い特徴点を既知と特徴点と見なして自己位
置を算出するための基準特徴点とする基準特徴点選択処
理と、 をコンピュータに行わせることを特徴とする位置検出プ
ログラム。 - 【請求項14】 前記特徴点選択処理は、 既知と見なされた特徴点が存在する画像中の未知の特徴
点と既知の特徴点との相対関係を求め、該未知の特徴点
を既知の特徴点として記憶することにより前記物体情報
を更新することを特徴する請求項13に記載の位置検出
プログラム。 - 【請求項15】 移動体の自己位置を検出するための位
置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野の画像を取得する画像取得処理
と、 前記画像中の特徴点群を抽出する特徴点群抽出処理と、 予め画像取得処理で得られた画像における特徴点群と当
該特徴点群を得た位置を対応させて複数記憶しておき、
新たに得られた画像の特徴点群と予め記憶された特徴点
群の相関を算出して、自己の位置を算出する自己位置検
出処理と、 をコンピュータに行わせることを特徴とする位置検出プ
ログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001124943A JP4672175B2 (ja) | 2000-05-26 | 2001-04-23 | 位置検出装置、位置検出方法、及び位置検出プログラム |
EP01112618.2A EP1158309B1 (en) | 2000-05-26 | 2001-05-23 | Method and Apparatus for position detection |
US09/866,151 US7239339B2 (en) | 2000-05-26 | 2001-05-26 | Position detection apparatus, position detection method and position detection program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000157299 | 2000-05-26 | ||
JP2000-157299 | 2000-05-26 | ||
JP2001124943A JP4672175B2 (ja) | 2000-05-26 | 2001-04-23 | 位置検出装置、位置検出方法、及び位置検出プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010192835A Division JP5148669B2 (ja) | 2000-05-26 | 2010-08-30 | 位置検出装置、位置検出方法、及び位置検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002048513A true JP2002048513A (ja) | 2002-02-15 |
JP4672175B2 JP4672175B2 (ja) | 2011-04-20 |
Family
ID=26592745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001124943A Expired - Fee Related JP4672175B2 (ja) | 2000-05-26 | 2001-04-23 | 位置検出装置、位置検出方法、及び位置検出プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7239339B2 (ja) |
EP (1) | EP1158309B1 (ja) |
JP (1) | JP4672175B2 (ja) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004144644A (ja) * | 2002-10-25 | 2004-05-20 | Fuji Heavy Ind Ltd | 地形認識装置、地形認識方法および移動体の移動量検出方法 |
JP2005228136A (ja) * | 2004-02-13 | 2005-08-25 | Nissan Motor Co Ltd | 道路領域検出装置 |
JP2007042095A (ja) * | 2005-07-29 | 2007-02-15 | Siemens Ag | 周囲のスキャンの比較により移動ユニットの相対位置を検出する方法、移動ユニット、コンピュータプログラムおよびコンピュータ読み出し可能なデータ担体 |
JP2007094743A (ja) * | 2005-09-28 | 2007-04-12 | Zmp:Kk | 自律移動型ロボットとそのシステム |
JP2008503757A (ja) * | 2004-06-22 | 2008-02-07 | サーノフ コーポレーション | ビジュアル・オドメトリのための方法および装置 |
WO2009081920A1 (ja) * | 2007-12-25 | 2009-07-02 | Toyota Jidosha Kabushiki Kaisha | 移動状態推定装置 |
JP2009163156A (ja) * | 2008-01-10 | 2009-07-23 | Hitachi Industrial Equipment Systems Co Ltd | 移動ロボットシステム及びその制御方法 |
KR100912874B1 (ko) | 2007-06-28 | 2009-08-19 | 삼성전자주식회사 | 이동 로봇의 리로케이션 방법 및 장치 |
JP2010223710A (ja) * | 2009-03-23 | 2010-10-07 | Univ Of Miyazaki | 管内面形状測定装置 |
KR101022785B1 (ko) * | 2008-09-17 | 2011-03-17 | 포항공과대학교 산학협력단 | 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법 |
KR101038702B1 (ko) | 2008-10-24 | 2011-06-03 | 전자부품연구원 | 로봇의 위치 검출방법 |
WO2011145239A1 (ja) * | 2010-05-19 | 2011-11-24 | 国立大学法人東京工業大学 | 位置推定装置、位置推定方法及びプログラム |
WO2012133371A1 (ja) * | 2011-03-28 | 2012-10-04 | 日本電気株式会社 | 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム |
JP2013093476A (ja) * | 2011-10-26 | 2013-05-16 | Disco Abrasive Syst Ltd | キーパターン決定方法 |
JP2013535013A (ja) * | 2010-06-25 | 2013-09-09 | トリンブル ナビゲーション リミテッド | 画像ベースの測位のための方法および装置 |
JP2014048882A (ja) * | 2012-08-31 | 2014-03-17 | Fujitsu Ltd | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2014178789A (ja) * | 2013-03-14 | 2014-09-25 | Advanced Telecommunication Research Institute International | 追跡装置、追跡プログラムおよび追跡方法 |
WO2015049717A1 (ja) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | 移動体位置推定装置および移動体位置推定方法 |
JP2016038288A (ja) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
JP2016038287A (ja) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
JPWO2014073204A1 (ja) * | 2012-11-06 | 2016-09-08 | 国立大学法人東京工業大学 | 特徴量抽出装置及び場所推定装置 |
WO2017061388A1 (ja) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム |
WO2017130590A1 (ja) * | 2016-01-29 | 2017-08-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP2017524122A (ja) * | 2015-06-26 | 2017-08-24 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォームの変位を計測する方法及び装置 |
JP2017528685A (ja) * | 2014-05-30 | 2017-09-28 | オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited | 車両位置の推定 |
JP2018105802A (ja) * | 2016-12-28 | 2018-07-05 | 日立Geニュークリア・エナジー株式会社 | 検査装置 |
WO2019021412A1 (ja) * | 2017-07-27 | 2019-01-31 | 日本電気株式会社 | 位置推定装置、位置推定方法及びプログラム記録媒体 |
KR20200043570A (ko) * | 2018-10-17 | 2020-04-28 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 그 제어방법 |
JP6704536B1 (ja) * | 2019-04-25 | 2020-06-03 | 三菱電機株式会社 | 移動量推定装置、移動量推定方法、および移動量推定プログラム |
KR20200077486A (ko) * | 2018-10-17 | 2020-06-30 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 방법 |
CN112025697A (zh) * | 2020-07-10 | 2020-12-04 | 浙江工业大学 | 一种全向移动机器人的积分模型预测控制方法 |
JP2021193634A (ja) * | 2019-06-19 | 2021-12-23 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3656910B2 (ja) * | 2002-07-22 | 2005-06-08 | 住友電気工業株式会社 | スクライブ溝の加工方法及びスクライブ装置 |
JP2004061446A (ja) * | 2002-07-31 | 2004-02-26 | Fujitsu Ten Ltd | パターンマッチング処理方法及び画像処理装置 |
EP1413974A1 (en) * | 2002-10-24 | 2004-04-28 | Hewlett-Packard Company | Hybrid sensing techniques for position determination |
EP2418458B1 (en) * | 2003-09-19 | 2017-03-15 | Omron Corporation | Multiple sensor system |
KR100540194B1 (ko) * | 2003-09-23 | 2006-01-10 | 한국전자통신연구원 | 차량을 이용한 알에프아이디 태그 설치 시스템 및 그 방법 |
US9052717B1 (en) | 2004-02-11 | 2015-06-09 | Enovation Controls, Llc | Watercraft speed control device |
US20080243321A1 (en) | 2005-02-11 | 2008-10-02 | Econtrols, Inc. | Event sensor |
JP2005249715A (ja) * | 2004-03-08 | 2005-09-15 | Topcon Corp | 測量方法及び測量機 |
KR100763234B1 (ko) * | 2004-06-11 | 2007-10-04 | 삼성전자주식회사 | 주행 상태를 감지하는 시스템 및 방법 |
JP4216772B2 (ja) * | 2004-06-17 | 2009-01-28 | 株式会社東芝 | 自己位置同定装置および自己位置同定方法 |
JP4488804B2 (ja) * | 2004-06-23 | 2010-06-23 | 株式会社トプコン | ステレオ画像の関連付け方法及び3次元データ作成装置 |
US20090196491A1 (en) * | 2004-08-30 | 2009-08-06 | Maxwell Leslie Stainlay | Method for automated 3d imaging |
US8000837B2 (en) | 2004-10-05 | 2011-08-16 | J&L Group International, Llc | Programmable load forming system, components thereof, and methods of use |
KR100569472B1 (ko) * | 2004-10-05 | 2006-04-07 | 현대자동차주식회사 | 엔진의 연료 분무 선단 속도 계측 시스템 및 방법 |
US9207675B1 (en) * | 2005-02-11 | 2015-12-08 | Enovation Controls, Llc | Event sensor |
US8306662B2 (en) | 2005-04-23 | 2012-11-06 | Lg Electronics Inc. | Position detection device for mobile robot and robot cleaner including the same |
KR100638220B1 (ko) * | 2005-04-23 | 2006-10-27 | 엘지전자 주식회사 | 주행로봇의 위치감지장치 및 그를 구비한 로봇청소기 |
JP2007114020A (ja) * | 2005-10-19 | 2007-05-10 | Aisin Aw Co Ltd | 車両の移動距離検出方法、車両の移動距離検出装置、車両の現在位置検出方法及び車両の現在位置検出装置 |
CN100419605C (zh) * | 2005-11-09 | 2008-09-17 | 沈阳新松机器人自动化股份有限公司 | 一种现场总线位置控制装置 |
JP5112666B2 (ja) * | 2006-09-11 | 2013-01-09 | 株式会社日立製作所 | 移動装置 |
CN101200065B (zh) * | 2006-12-13 | 2010-10-06 | 沈阳新松机器人自动化股份有限公司 | 现场总线位置控制装置 |
KR100884904B1 (ko) * | 2007-09-12 | 2009-02-19 | 아주대학교산학협력단 | 평행 투영 모델을 이용한 자기위치 인식 방법 |
US8264537B2 (en) * | 2007-09-28 | 2012-09-11 | The Mainz Group Llc | Photogrammetric networks for positional accuracy |
JP2009115621A (ja) * | 2007-11-06 | 2009-05-28 | Toshiba Corp | 移動体画像追尾装置 |
DE102008024308B4 (de) * | 2008-05-20 | 2010-12-09 | Eads Deutschland Gmbh | Verfahren zur Detektion nichtkooperativen Luftverkehrs an Bord eines Luftfahrzeugs |
DE102008039606A1 (de) * | 2008-08-25 | 2010-03-04 | GM Global Technology Operations, Inc., Detroit | Kraftfahrzeug mit einem Abstandssensor und einem Bilderfassungssystem |
JP5409189B2 (ja) * | 2008-08-29 | 2014-02-05 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP4816748B2 (ja) | 2009-03-06 | 2011-11-16 | ソニー株式会社 | ナビゲーション装置及びナビゲーション方法 |
JP4810582B2 (ja) * | 2009-03-26 | 2011-11-09 | 株式会社東芝 | 移動体画像追尾装置および方法 |
US8963954B2 (en) * | 2010-06-30 | 2015-02-24 | Nokia Corporation | Methods, apparatuses and computer program products for providing a constant level of information in augmented reality |
JP2012034196A (ja) * | 2010-07-30 | 2012-02-16 | Olympus Corp | 撮像端末、データ処理端末、撮像方法、及びデータ処理方法 |
JP5690539B2 (ja) | 2010-09-28 | 2015-03-25 | 株式会社トプコン | 自動離着陸システム |
JP5618840B2 (ja) | 2011-01-04 | 2014-11-05 | 株式会社トプコン | 飛行体の飛行制御システム |
JP5775354B2 (ja) | 2011-04-28 | 2015-09-09 | 株式会社トプコン | 離着陸ターゲット装置及び自動離着陸システム |
JP5787695B2 (ja) | 2011-09-28 | 2015-09-30 | 株式会社トプコン | 画像取得装置 |
JP5802279B2 (ja) | 2011-11-22 | 2015-10-28 | 株式会社日立製作所 | 自律移動システム |
JP5780142B2 (ja) * | 2011-12-07 | 2015-09-16 | 富士通株式会社 | 画像処理装置、画像処理方法 |
US20140039675A1 (en) * | 2012-08-03 | 2014-02-06 | Nimer Mohammed Ead | Instructional humanoid robot apparatus and a method thereof |
US9036865B2 (en) * | 2012-09-12 | 2015-05-19 | International Business Machines Corporation | Location determination for an object using visual data |
US9560246B2 (en) * | 2012-12-14 | 2017-01-31 | The Trustees Of Columbia University In The City Of New York | Displacement monitoring system having vibration cancellation capabilities |
US9142063B2 (en) * | 2013-02-15 | 2015-09-22 | Caterpillar Inc. | Positioning system utilizing enhanced perception-based localization |
US9081382B2 (en) | 2013-03-15 | 2015-07-14 | Fresenius Medical Care Holdings, Inc. | Autonomous vehicle comprising extracorporeal blood treatment machine |
TWI534453B (zh) * | 2014-02-18 | 2016-05-21 | 原相科技股份有限公司 | 相對位置定位系統與追蹤系統 |
JP6380523B2 (ja) * | 2014-02-26 | 2018-08-29 | 株式会社ソシオネクスト | 画像認識システムおよび半導体集積回路 |
US10310054B2 (en) * | 2014-03-21 | 2019-06-04 | The Boeing Company | Relative object localization process for local positioning system |
FR3022036B1 (fr) * | 2014-06-05 | 2016-07-15 | Aldebaran Robotics | Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif |
DE102014212781A1 (de) | 2014-07-02 | 2016-01-07 | Continental Automotive Gmbh | Verfahren zum Ermitteln und Bereitstellen einer Landmarke zur Positionsbestimmung für ein Fahrzeug |
US10339389B2 (en) * | 2014-09-03 | 2019-07-02 | Sharp Laboratories Of America, Inc. | Methods and systems for vision-based motion estimation |
JP6352133B2 (ja) * | 2014-09-26 | 2018-07-04 | 株式会社Screenホールディングス | 位置検出装置、基板処理装置、位置検出方法および基板処理方法 |
US9738399B2 (en) * | 2015-07-29 | 2017-08-22 | Hon Hai Precision Industry Co., Ltd. | Unmanned aerial vehicle control method and unmanned aerial vehicle using same |
CN116883521A (zh) * | 2015-12-14 | 2023-10-13 | 松下电器(美国)知识产权公司 | 三维数据编码方法、解码方法、编码装置、解码装置 |
JP6626410B2 (ja) | 2016-06-03 | 2019-12-25 | 株式会社Soken | 自車位置特定装置、自車位置特定方法 |
US10209081B2 (en) * | 2016-08-09 | 2019-02-19 | Nauto, Inc. | System and method for precision localization and mapping |
JP2018051728A (ja) * | 2016-09-30 | 2018-04-05 | ファナック株式会社 | 対象物の三次元位置を検出する検出方法および検出装置 |
US10440280B2 (en) * | 2017-09-21 | 2019-10-08 | Advanced Semiconductor Engineering, Inc. | Optical system and method for operating the same |
WO2019131198A1 (ja) | 2017-12-28 | 2019-07-04 | ソニー株式会社 | 制御装置、および制御方法、プログラム、並びに移動体 |
CN108900805B (zh) * | 2018-07-11 | 2021-01-12 | 长沙理工大学 | 一种基于计算机网络的艺术设计用品移动实时监控系统 |
CN109358315B (zh) * | 2018-10-12 | 2020-08-18 | 华中科技大学 | 一种辅助目标间接定位方法及系统 |
US11616914B2 (en) * | 2018-12-28 | 2023-03-28 | Intel Corporation | Tracking objects using sensor rotation |
US11347226B2 (en) * | 2019-04-25 | 2022-05-31 | Lg Electronics Inc. | Method of redefining position of robot using artificial intelligence and robot of implementing thereof |
CN113580155B (zh) * | 2019-10-31 | 2023-07-18 | 灵动科技(北京)有限公司 | 自主移动装置及仓储物流系统 |
KR102252888B1 (ko) * | 2020-01-03 | 2021-05-17 | 포테닛 주식회사 | 공간 내에서 이송로봇의 위치 검출장치 및 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63134912A (ja) * | 1986-11-27 | 1988-06-07 | Shinko Electric Co Ltd | 移動ロボツトにおける位置検出方法 |
JPH07244735A (ja) * | 1994-03-02 | 1995-09-19 | Nec Corp | 3次元形状復元方法および装置 |
JPH0843055A (ja) * | 1994-07-29 | 1996-02-16 | Canon Inc | 3次元物体形状認識方法及び装置 |
JPH0933247A (ja) * | 1995-07-19 | 1997-02-07 | Mitsubishi Electric Corp | 画像物体検出装置 |
JPH0953939A (ja) * | 1995-08-18 | 1997-02-25 | Fujitsu Ltd | 自走車の自己位置測定装置および自己位置測定方法 |
JPH10222665A (ja) * | 1997-01-31 | 1998-08-21 | Fujitsu Ten Ltd | 画像認識装置 |
JPH11149557A (ja) * | 1997-11-19 | 1999-06-02 | Fuji Heavy Ind Ltd | 自律走行車の周囲環境認識装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2116000B (en) * | 1982-03-02 | 1985-05-01 | Elliott Bros | Guidance system |
US5051906A (en) * | 1989-06-07 | 1991-09-24 | Transitions Research Corporation | Mobile robot navigation employing retroreflective ceiling features |
US5819016A (en) * | 1993-10-05 | 1998-10-06 | Kabushiki Kaisha Toshiba | Apparatus for modeling three dimensional information |
JP2501010B2 (ja) * | 1993-10-25 | 1996-05-29 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動ロボットの誘導装置 |
US5777690A (en) * | 1995-01-20 | 1998-07-07 | Kabushiki Kaisha Toshiba | Device and method for detection of moving obstacles |
NO312862B1 (no) * | 1997-07-15 | 2002-07-08 | Forsvarets Forsknings | Fremgangsmåte for å bestemme en geografisk posisjon av en mobilenhet i et radiosystem |
SE511504C2 (sv) * | 1997-10-17 | 1999-10-11 | Apogeum Ab | Sätt och anordning för associering av anonyma reflektorer till detekterade vinkellägen |
JP3850541B2 (ja) * | 1998-02-18 | 2006-11-29 | 富士重工業株式会社 | 高度計測装置 |
AUPP299498A0 (en) * | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
JP3596314B2 (ja) * | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
US6678394B1 (en) * | 1999-11-30 | 2004-01-13 | Cognex Technology And Investment Corporation | Obstacle detection system |
-
2001
- 2001-04-23 JP JP2001124943A patent/JP4672175B2/ja not_active Expired - Fee Related
- 2001-05-23 EP EP01112618.2A patent/EP1158309B1/en not_active Expired - Lifetime
- 2001-05-26 US US09/866,151 patent/US7239339B2/en not_active Expired - Lifetime
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63134912A (ja) * | 1986-11-27 | 1988-06-07 | Shinko Electric Co Ltd | 移動ロボツトにおける位置検出方法 |
JPH07244735A (ja) * | 1994-03-02 | 1995-09-19 | Nec Corp | 3次元形状復元方法および装置 |
JPH0843055A (ja) * | 1994-07-29 | 1996-02-16 | Canon Inc | 3次元物体形状認識方法及び装置 |
JPH0933247A (ja) * | 1995-07-19 | 1997-02-07 | Mitsubishi Electric Corp | 画像物体検出装置 |
JPH0953939A (ja) * | 1995-08-18 | 1997-02-25 | Fujitsu Ltd | 自走車の自己位置測定装置および自己位置測定方法 |
JPH10222665A (ja) * | 1997-01-31 | 1998-08-21 | Fujitsu Ten Ltd | 画像認識装置 |
JPH11149557A (ja) * | 1997-11-19 | 1999-06-02 | Fuji Heavy Ind Ltd | 自律走行車の周囲環境認識装置 |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004144644A (ja) * | 2002-10-25 | 2004-05-20 | Fuji Heavy Ind Ltd | 地形認識装置、地形認識方法および移動体の移動量検出方法 |
JP2005228136A (ja) * | 2004-02-13 | 2005-08-25 | Nissan Motor Co Ltd | 道路領域検出装置 |
JP2008503757A (ja) * | 2004-06-22 | 2008-02-07 | サーノフ コーポレーション | ビジュアル・オドメトリのための方法および装置 |
JP2007042095A (ja) * | 2005-07-29 | 2007-02-15 | Siemens Ag | 周囲のスキャンの比較により移動ユニットの相対位置を検出する方法、移動ユニット、コンピュータプログラムおよびコンピュータ読み出し可能なデータ担体 |
JP2007094743A (ja) * | 2005-09-28 | 2007-04-12 | Zmp:Kk | 自律移動型ロボットとそのシステム |
US9683832B2 (en) | 2005-12-15 | 2017-06-20 | Trimble Inc. | Method and apparatus for image-based positioning |
KR100912874B1 (ko) | 2007-06-28 | 2009-08-19 | 삼성전자주식회사 | 이동 로봇의 리로케이션 방법 및 장치 |
US8559674B2 (en) | 2007-12-25 | 2013-10-15 | Toyota Jidosha Kabushiki Kaisha | Moving state estimating device |
WO2009081920A1 (ja) * | 2007-12-25 | 2009-07-02 | Toyota Jidosha Kabushiki Kaisha | 移動状態推定装置 |
JP2009156611A (ja) * | 2007-12-25 | 2009-07-16 | Toyota Motor Corp | 移動状態推定装置 |
JP2009163156A (ja) * | 2008-01-10 | 2009-07-23 | Hitachi Industrial Equipment Systems Co Ltd | 移動ロボットシステム及びその制御方法 |
KR101022785B1 (ko) * | 2008-09-17 | 2011-03-17 | 포항공과대학교 산학협력단 | 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법 |
KR101038702B1 (ko) | 2008-10-24 | 2011-06-03 | 전자부품연구원 | 로봇의 위치 검출방법 |
JP2010223710A (ja) * | 2009-03-23 | 2010-10-07 | Univ Of Miyazaki | 管内面形状測定装置 |
US9098744B2 (en) | 2010-05-19 | 2015-08-04 | Tokyo Institute Of Technology | Position estimation device, position estimation method, and program |
WO2011145239A1 (ja) * | 2010-05-19 | 2011-11-24 | 国立大学法人東京工業大学 | 位置推定装置、位置推定方法及びプログラム |
JP2013535013A (ja) * | 2010-06-25 | 2013-09-09 | トリンブル ナビゲーション リミテッド | 画像ベースの測位のための方法および装置 |
WO2012133371A1 (ja) * | 2011-03-28 | 2012-10-04 | 日本電気株式会社 | 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム |
US9232128B2 (en) | 2011-03-28 | 2016-01-05 | Nec Corporation | Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program |
JP2013093476A (ja) * | 2011-10-26 | 2013-05-16 | Disco Abrasive Syst Ltd | キーパターン決定方法 |
JP2014048882A (ja) * | 2012-08-31 | 2014-03-17 | Fujitsu Ltd | 画像処理装置、画像処理方法及び画像処理プログラム |
JPWO2014073204A1 (ja) * | 2012-11-06 | 2016-09-08 | 国立大学法人東京工業大学 | 特徴量抽出装置及び場所推定装置 |
JP2014178789A (ja) * | 2013-03-14 | 2014-09-25 | Advanced Telecommunication Research Institute International | 追跡装置、追跡プログラムおよび追跡方法 |
WO2015049717A1 (ja) * | 2013-10-01 | 2015-04-09 | 株式会社日立製作所 | 移動体位置推定装置および移動体位置推定方法 |
JPWO2015049717A1 (ja) * | 2013-10-01 | 2017-03-09 | 株式会社日立製作所 | 移動体位置推定装置および移動体位置推定方法 |
JP2017528685A (ja) * | 2014-05-30 | 2017-09-28 | オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited | 車両位置の推定 |
JP2016038288A (ja) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
JP2016038287A (ja) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
US11346666B2 (en) | 2015-06-26 | 2022-05-31 | SZ DJI Technology Co., Ltd. | System and method for measuring a displacement of a mobile platform |
JP2017524122A (ja) * | 2015-06-26 | 2017-08-24 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォームの変位を計測する方法及び装置 |
US10760907B2 (en) | 2015-06-26 | 2020-09-01 | SZ DJI Technology Co., Ltd. | System and method for measuring a displacement of a mobile platform |
US10527416B2 (en) | 2015-06-26 | 2020-01-07 | SZ DJI Technology Co., Ltd. | System and method for measuring a displacement of a mobile platform |
US10507381B2 (en) | 2015-10-09 | 2019-12-17 | Sony Corporation | Information processing device, position and/or attitude estimiating method, and computer program |
WO2017061388A1 (ja) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム |
WO2017130590A1 (ja) * | 2016-01-29 | 2017-08-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP2017131556A (ja) * | 2016-01-29 | 2017-08-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP2018105802A (ja) * | 2016-12-28 | 2018-07-05 | 日立Geニュークリア・エナジー株式会社 | 検査装置 |
JPWO2019021412A1 (ja) * | 2017-07-27 | 2020-04-16 | 日本電気株式会社 | 位置推定装置、位置推定方法及びプログラム記録媒体 |
WO2019021412A1 (ja) * | 2017-07-27 | 2019-01-31 | 日本電気株式会社 | 位置推定装置、位置推定方法及びプログラム記録媒体 |
US11457158B2 (en) | 2017-07-27 | 2022-09-27 | Nec Corporation | Location estimation device, location estimation method, and program recording medium |
US11465612B2 (en) | 2018-10-17 | 2022-10-11 | Hyundai Mobis Co., Ltd. | Backward driving assist apparatus for vehicle and method of controlling same |
KR20200043570A (ko) * | 2018-10-17 | 2020-04-28 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 그 제어방법 |
CN113602260B (zh) * | 2018-10-17 | 2024-04-02 | 现代摩比斯株式会社 | 车辆向后行驶辅助装置及其控制方法 |
CN113602260A (zh) * | 2018-10-17 | 2021-11-05 | 现代摩比斯株式会社 | 车辆向后行驶辅助装置及其控制方法 |
KR102593422B1 (ko) * | 2018-10-17 | 2023-10-26 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 그 제어방법 |
US11667289B2 (en) | 2018-10-17 | 2023-06-06 | Hyundai Mobis Co., Ltd. | Backward driving assist apparatus for vehicle and method of controlling same |
KR102356469B1 (ko) * | 2018-10-17 | 2022-01-28 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 방법 |
KR20200077486A (ko) * | 2018-10-17 | 2020-06-30 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 방법 |
JP6704536B1 (ja) * | 2019-04-25 | 2020-06-03 | 三菱電機株式会社 | 移動量推定装置、移動量推定方法、および移動量推定プログラム |
WO2020217377A1 (ja) * | 2019-04-25 | 2020-10-29 | 三菱電機株式会社 | 移動量推定装置、移動量推定方法、および移動量推定プログラム |
CN113711273A (zh) * | 2019-04-25 | 2021-11-26 | 三菱电机株式会社 | 移动量估计装置、移动量估计方法及移动量估计程序 |
US12148171B2 (en) | 2019-04-25 | 2024-11-19 | Mitsubishi Electric Corporation | Movement amount estimation device, movement amount estimation method, and computer readable medium |
JP7180739B2 (ja) | 2019-06-19 | 2022-11-30 | 株式会社リコー | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
JP2021193634A (ja) * | 2019-06-19 | 2021-12-23 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
CN112025697B (zh) * | 2020-07-10 | 2022-06-17 | 浙江工业大学 | 一种全向移动机器人的积分模型预测控制方法 |
CN112025697A (zh) * | 2020-07-10 | 2020-12-04 | 浙江工业大学 | 一种全向移动机器人的积分模型预测控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US20010055063A1 (en) | 2001-12-27 |
EP1158309A3 (en) | 2005-02-09 |
EP1158309A2 (en) | 2001-11-28 |
US7239339B2 (en) | 2007-07-03 |
JP4672175B2 (ja) | 2011-04-20 |
EP1158309B1 (en) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4672175B2 (ja) | 位置検出装置、位置検出方法、及び位置検出プログラム | |
JP5148669B2 (ja) | 位置検出装置、位置検出方法、及び位置検出プログラム | |
US8401783B2 (en) | Method of building map of mobile platform in dynamic environment | |
US20230130320A1 (en) | Laser scanner with real-time, online ego-motion estimation | |
KR101948728B1 (ko) | 데이터 수집 방법 및 시스템 | |
US10268201B2 (en) | Vehicle automated parking system and method | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US8588471B2 (en) | Method and device of mapping and localization method using the same | |
US10049455B2 (en) | Physically-constrained radiomaps | |
JP3561473B2 (ja) | 物体位置の追跡・検知方法及びビークル | |
KR101077967B1 (ko) | 이동식 감시 및 추적 장치 및 방법 | |
US20150356357A1 (en) | A method of detecting structural parts of a scene | |
Nair et al. | Moving obstacle detection from a navigating robot | |
US20110169923A1 (en) | Flow Separation for Stereo Visual Odometry | |
JP2021530821A (ja) | 三次元無線モデル構築を実行するための方法、装置およびコンピュータプログラム | |
KR20150144727A (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP6782903B2 (ja) | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム | |
Wolf et al. | Using an image retrieval system for vision-based mobile robot localization | |
JP2003329448A (ja) | 現場の3次元情報生成システム | |
Alves et al. | Cost-effective indoor localization for autonomous robots using kinect and wifi sensors | |
KR20210003065A (ko) | 데이터 수집 방법 및 시스템 | |
Naikal et al. | Image augmented laser scan matching for indoor dead reckoning | |
Maidi et al. | Hybrid tracking system for robust fiducials registration in augmented reality | |
Nguyen et al. | A hybrid positioning system for indoor navigation on mobile phones using panoramic images | |
Hamza et al. | Vision-Based Indoor Positioning System for Connected Vehicles in Small-scale Testbed Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4672175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |