JP2011022157A - 位置検出装置、位置検出方法、及び位置検出プログラム - Google Patents

位置検出装置、位置検出方法、及び位置検出プログラム Download PDF

Info

Publication number
JP2011022157A
JP2011022157A JP2010192835A JP2010192835A JP2011022157A JP 2011022157 A JP2011022157 A JP 2011022157A JP 2010192835 A JP2010192835 A JP 2010192835A JP 2010192835 A JP2010192835 A JP 2010192835A JP 2011022157 A JP2011022157 A JP 2011022157A
Authority
JP
Japan
Prior art keywords
feature point
image
position detection
self
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010192835A
Other languages
English (en)
Other versions
JP5148669B2 (ja
Inventor
Takaaki Nagai
孝明 永井
Shinichi Matsunaga
慎一 松永
Yoshiaki Sakagami
義秋 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010192835A priority Critical patent/JP5148669B2/ja
Publication of JP2011022157A publication Critical patent/JP2011022157A/ja
Application granted granted Critical
Publication of JP5148669B2 publication Critical patent/JP5148669B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人間型脚式移動ロボットや自動車が自律的に移動する際の自己の位置検出を簡単に行うことができる位置検出装置を提供することを目的とする。
【解決手段】移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出手段と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択手段と、を備えたことを特徴とする。
【選択図】図1

Description

本発明は、距離画像を用いてロボットや自動車が移動した際の自己の位置を検出する位置検出装置、位置検出方法、及び位置検出プログラムに関する。特に、人間型の脚式移動ロボットの自己位置検出に関する。
従来の車両の位置検出には、GPSやビーコンから発せられた情報を受信して、この情報を解析して自己の位置を検出するものがある。GPSやビーコンを使用した位置検出は、GPSやビーコンが発した電磁波を受信しなければならないために、電磁波の送信装置と自己に備えられた受信装置との間に電磁波を遮断する物体がある場合、自己の位置検出を行えなくなるという問題がある。特に屋内のみを移動するロボットなどは全く利用することができない。このため、車両に車輪の回転数を検出する距離センサ及び方位センサを備え、これらのセンサの出力値に基づき、場合によっては道路地図データをマッチングすることによって、自己の位置を検出する位置検出装置がある。例えば、特開平9−243389号公報に記載されている技術が挙げられる。
しかしながら、この位置検出装置は、内部に詳細な道路地図データを備える必要があるとともに、距離センサや方位センサの出力値には誤差が含まれるために、距離センサや方位センサの出力値のみによる位置検出が長時間継続すると、検出誤差が累積されてしまい、検出された車両位置が実際の車両位置から大きくずれてしまうという問題がある。また、特に人間型の脚式移動ロボットが屋内を自由に移動する際においては、壁や柱との相対位置をロボット自身が得る必要があるが、従来の位置検出装置では、周囲の環境との相対位置関係を得ることが難しいために自律移動が困難になるという問題がある。
本発明は、このような事情に鑑みてなされたもので、人間型脚式移動ロボットや自動車が自律的に移動する際に、周囲環境の画像を用いて自己の位置検出を簡単に行うことができる位置検出装置、位置検出方法、及び位置検出プログラムを提供することを目的とする。
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量から自己位置を算出するための基準特徴点を選択する基準特徴点選択手段とを備えたことを特徴とする。
この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野内の画像を取得する画像取得手段と、前記移動体の移動に当たって基準となる基準特徴点を前記画像取得手段によって得られた画像に基づいて決定する基準点決定手段と、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段とを備えたことを特徴とする。
この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出手段と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択手段とを備えたことを特徴とする。
この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
本願発明の一態様は、前記特徴点選択手段は、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する。
この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、物体情報の更新を自動的に行うことができるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像中の特徴点群を抽出する特徴点群抽出手段と、予め画像取得手段で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出手段とを備えたことを特徴とする。
この発明によれば、予め画像取得手段で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出するようにしたため、幾何学的にロボットの位置が得られない場合であっても過去の位置検出結果に基づいて自己の位置を検出することができるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野の画像を取得する画像取得過程と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得過程と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出過程と、前記特徴点抽出過程において抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量から自己位置を算出するための基準特徴点を選択する基準特徴点選択過程とを有することを特徴とする。
この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野内の画像を取得する画像取得過程と、前記移動体の移動に当たって基準となる基準特徴点を前記画像に基づいて決定する基準点決定過程と、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出過程とを有することを特徴とする。
この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野の画像を取得する画像取得過程と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得過程と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出過程と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択過程とを有することを特徴とする。
この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
本願発明の一態様は、前記特徴点選択過程は、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する。
この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、物体情報の更新を自動的に行うことができるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野の画像を取得する画像取得過程と、前記画像中の特徴点群を抽出する特徴点群抽出過程と、予め画像取得過程で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出過程とを有することを特徴とする。
この発明によれば、予め画像取得過程で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出するようにしたため、幾何学的にロボットの位置が得られない場合であっても過去の位置検出結果に基づいて自己の位置を検出することができるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野の画像を取得する画像取得処理と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得処理と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出処理と、前記特徴点抽出処理において抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量から自己位置を算出するための基準特徴点を選択する基準特徴点選択処理とをコンピュータに行わせることを特徴とする。
この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られる。
本願発明の一態様は、移動体の自己位置を検出する位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野内の画像を取得する画像取得処理と、前記移動体の移動に当たって基準となる基準特徴点を前記画像に基づいて決定する基準点決定処理と、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出処理とをコンピュータに行わせることを特徴とする。
この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出するための位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野の画像を取得する画像取得処理と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得処理と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出処理と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択処理とをコンピュータに行わせることを特徴とする。
この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
本願発明の一態様は、前記特徴点選択処理は、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する。
この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、物体情報の更新を自動的に行うことができるという効果が得られる。
本願発明の一態様は、移動体の自己位置を検出するための位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野の画像を取得する画像取得処理と、前記画像中の特徴点群を抽出する特徴点群抽出処理と、予め画像取得処理で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出処理とをコンピュータに行わせることを特徴とする。
この発明によれば、予め画像取得処理で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出するようにしたため、幾何学的にロボットの位置が得られない場合であっても過去の位置検出結果に基づいて自己の位置を検出することができるという効果が得られる。
以上説明したように、この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られので、特に人間型に脚式移動ロボットに好適である。
また、この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
また、この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。 また、この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、地図情報及び物体情報の更新を自動的に行うことができるという効果が得られる。
本発明の第1の実施形態の構成を示すブロック図である。 図1に示す特徴点抽出部5及び位置検出部6の動作を示すフローチャートである。 2つの特徴点の確からしさCAを算出する処理を示す説明図である。 ロボットの自己位置を求める場合の座標系を示す説明図である。 本発明の第2の実施形態の構成を示すブロック図である。 図5に示す特徴点抽出部5及び位置検出部6の動作を示すフローチャートである。 自己位置算出方法を示す説明図である。 自己位置算出方法を示す説明図である。 自己位置算出方法を示す説明図である。 カルマンフィルタの状態モデルを示す説明図である。 本発明の第3の実施形態の構成を示すブロック図である。 図11に示す位置検出装置の動作を示すフローチャートである。 第3の実施形態における自己位置検出の原理を説明する説明図である。 第3の実施形態における自己位置検出の原理を説明する説明図である。 第3の実施形態における自己位置検出の原理を説明する説明図である。
<第1の実施形態>
以下、本発明の第一の実施形態による位置検出装置を図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。ここでは、図1に示す位置検出装置は屋内を移動する自律走行のロボットに備えられているものとして説明する。この図において、符号1は、ロボットが移動する際の移動方向の視野内に存在する物体を撮像する2台のカメラであり、所定の間隔で設置され、互いの視野角は一致している。符号2は、カメラ1において得られた画像の1フレーム分をそれぞれ記憶する距離画像記憶部であり、2フレーム分の画像メモリからなる。符号3は、画像記憶部2に記憶されている2フレームの画像から距離画像を生成する距離画像生成部である。符号4は、距離画像生成部3において生成された距離画像を記憶する距離画像記憶部である。符号5は、画像記憶部2または距離画像記憶部4に記憶されている画像から特徴点を抽出する特徴点抽出部である。符号6は、特徴点抽出部5における特徴点抽出結果に基づいて自己の位置の検出を行う位置検出部である。符号7は、位置検出部6による位置検出結果を参照してロボットの移動を制御する移動制御部である。
ここで、以下の説明において用いる座標系を定義する。ロボットが初期状態であるときの前方の距離方向をX軸、ロボットの左右方向をY軸、鉛直方向をZ軸とし、これらの3軸は互いに直交している。また、以下でいう距離とは、カメラ1から各物体までの直線距離である。したがって、距離画像データは、カメラ1の視野における物体表面の測定点の3次元座標値の集合である。
次に、図面を参照して、図1に示す位置検出装置の動作を説明する。図2は、特徴点抽出部5及び位置検出部6が画像記憶部2に記憶されている輝度画像と、距離画像記憶部4に記憶されている距離画像とから、特徴点を連続時間でトラッキングし、その位置情報を基に自己の位置検出を行う動作を示すフローチャートである。図2のフローチャートに示す各処理は、カメラ1によって画像を撮像する度に繰り返し実行される。
まず、2台のカメラ1は、ステレオカメラとして動作し、各カメラで輝度画像を取得し、画像記憶部2へそれぞれ格納する。続いて、画像記憶部2に輝度画像が記憶されたのを受けて距離画像生成部3は、2つのカメラ1で取得した2枚の輝度画像からそれぞれの画像の画素の対応点を求めることによって距離画像を生成し、距離画像記憶部4へ格納する。ここでは、少ない画素でより精度の良い距離画像を得るために画素間を補間するいわゆるサブピクセルを用いて距離画像を作成する。なおここでは、一例として各画素の輝度画像及び距離画像を256階調で表現するものとする。通常の画像の画素は、センサの視野内における物体表面の輝度を表現したものであるが、距離画像の画素は、センサの視野内における物体表面までの距離を256階調で表現したものである。したがって、距離画像中の画素の位置によってカメラ位置からの3次元空間に存在する物体表面上の1点へのXYZ座標を特定することができる。なお、より高精度な距離精度が必要な場合には、カメラに換えてレーザレーダ、ミリ波レーダや超音波を用いたレーダを併用するなどして精度を向上させることもできる。また、カメラ1は赤外線カメラでもよい。さらに、距離データを256階調で表現せずに、距離センサの出力値をそのまま使用するようにしてもよい。カメラ1と距離画像生成部3は、この動作を繰り返し実行する。一方、特徴点抽出部5は、画像記憶部2に記憶されている画像を読み出す(ステップS1)。
次に、特徴点抽出部5は、読み出した輝度画像から特徴点を抽出して、この特徴点を特徴点抽出部5内に保存する(ステップS2)。ここでいう特徴点とは、画像処理で用いられる不変特徴量に相当し、画像中に現れている像を特徴付ける点のことである。この特徴点の抽出は、例えば輝度画像に対してエッジ検出処理を施し、検出されたエッジを構成する点を選択することによって行う。なお、特徴点抽出部5は、距離画像記憶部4に記憶されている距離画像を読み出し、この距離画像から特徴点を抽出するようにしてもよい。特徴点は、連続して取り込まれた2枚の輝度画像を用いて作成される。ここでは、それぞれの時刻を「t」と「(t+1)」と表記する。また、特徴点抽出においては、左右いずれか一方のカメラ1から得られた輝度画像を用いており、時刻(t+1)の入力画像から抽出した特徴点の集合と、入力画像の直前の時刻tの画像から抽出した特徴点の集合の2種類の特徴点が保存される。この特徴点は、画像上の座標値が保存される。
次に、これらの2つの異なる時刻の特徴点の対応点を求めるために、位置検出部6は、特徴点抽出部5内に保存されている入力画像の特徴点を1つ読み出す(ステップS3)。続いて、位置検出部6は、特徴点抽出部5内に保存されている直前の画像の特徴点を1つ読み出す(ステップS4)。ここで、直前の時刻tとは、現在説明しているステップS1〜S17が前回行われた時刻であり、2つの異なる時刻tと(t+1)との対応点は、ステップS1〜S17が2回以上実行されることで得られる。よって初めてステップS1〜S17が実行されるときは、例外処理としてステップS3まで実行してステップS1へ戻ることになる。
次に、位置検出部6は、2つの特徴点の確からしさCAを算出し時刻tで保存された特徴点とパターンマッチングを行う(ステップS5)。ここで、図3を参照して、2つの特徴点の確からしさCAを算出する処理の詳細を説明する。まず、特徴点を抽出した入力画像に対して、特徴点の周囲のm画素×n画素(ただし、m、nは2以上の自然数)を選択する。そして、直前画像の特徴点の周囲のm画素×n画素(ただし、m、nは2以上の自然数)を選択する。このとき、2つの特徴点の周囲の画素の選択する大きさ(m×n)は任意に決定してよいが、2つの選択する画素数は同一でなければならない。
この選択動作によって、256階調の輝度値(0〜255の整数)を有したm×n個の輝度値の集合、すなわちg1={g11,g12,・・・,g1mn}、
g2={g21,g22,・・・,g2mn}が得られる。そして、得られた2つの輝度値の集合のうち、対応する画素毎の輝度値の減算を行い、その減算結果を加算することによって、確からしさCAを算出する。すなわち、CA=|(g11−g21)|+|(g12−g22)|+…+|(g1mn−g2mn)|によって算出される。この演算によれば、2つの輝度値集合が全く同一であれば確からしさCAは「0」となるはずである。したがって、この演算によって算出されたCAが小さいほど2つの特徴点が同一である可能性が高くなる。
次に、位置検出部6は、算出した確からしさCAとしきい値TCを比較して(ステップS6)、CAがTCより小さい場合、連続時間の特徴点移動量としての座標値から変位ベクトルdaを算出して、位置検出部6内に保存する(ステップS7)。一方、CAがTCより小さい場合、ステップS8へ進む。
次に、位置検出部6は、直前の画像の特徴点の全てについて処理したか否かを判定し(ステップS8)、処理していなければステップS4へ戻り処理を繰り返す。一方、直前の画像の特徴点の全てについて処理が終了した場合、位置検出部6は、入力画像の特徴点の全てについて処理したか否かを判定し(ステップS9)、処理していなければステップS3に戻り処理を繰り返す。一方、入力画像の特徴点の全てについて処理が終了した場合、ステップS10へ進む。
このように、ステップS3〜S9の処理によって、入力画像(時刻t+1)の特徴点と直前画像(時刻t)の特徴点との対応付けがされ、さらに、対応付けされた特徴点の変位ベクトルdaが算出されて保存された状態となる。ただし、変位ベクトルdaが算出されるのは、2つの特徴点の確からしさが所定のしきい値Tcを超えている場合のみであるために、算出される変位ベクトルdaの個数は処理の度に異なる。
ここでは、直前の画像の特徴点の全てについて処理を行ったが、計算処理の負荷を低減するために、必要とする移動量に合わせ、求める特徴点の近傍のみを計算して求めるようにしてもよい。
次に、位置検出部6は、保存されている変位ベクトルdaを読み出し、平均変位ベクトルTdを算出する(ステップS10)。
次に、位置検出部6は、保存されている変位ベクトルdaを1つずつ読み出す(ステップS11)。
そして、位置検出部6は、|ベクトルTd−ベクトルda|を算出してこの値が、所定のしきい値Aより小さいか否かを判定する(ステップS12)。この判定によって、算出された変位ベクトルdaの各々が平均変位ベクトルTdとどの程度の差を持っているかが判定される。
この判定の結果、算出した差(|ベクトルTd−ベクトルda|)がしきい値Aより小さい場合、位置検出部6は、該当する変位ベクトルdaを算出するときに用いられた特徴点を静止物体であると判断する(ステップS13)。一方、しきい値Aより大きい場合、位置検出部6は、該当する変位ベクトルdaを算出するときに用いられた特徴点を移動物体と判断する(ステップS14)。この処理は、算出された全ての変位ベクトルdaに対して行われ(ステップS15)、これによって、特徴点の各々について、静止物体であるか移動物体であるかの判断が行われる。
次に、位置検出部6は、静止物体であると判断された特徴点のうち、確からしさCAが上位の特徴点を抽出する(ステップS16)。ここでいう確からしさCAが上位とは、CAの値が小さいほど上位であることを意味する。この抽出処理によって抽出される特徴点は、入力画像(時刻t+1)の特徴点と対になる直前の画像(時刻t)の特徴点であり、これらの特徴点が自己位置算出の基準特徴点となる。
次に、位置検出部6は、抽出した各々の基準特徴点と距離画像記憶部4に記憶された距離画像との対応点より特徴点の距離を求め、その特徴点とロボットの相対的位置の移動量に基づいて、直前の画像を取得した時点から現時点の画像(入力画像)を取得した時点までにロボットが移動した量を算出する(ステップS17)。ステップS17の処理が終了しロボットの位置が決定されると再びステップS1へ戻り、記憶されている前回対応がとれた特徴量に対して同様の処理を繰り返す。
ここで、図4を参照して、自己位置を算出する原理を説明する。ここでの座標系は、ロボットが初期状態であるときに定義される座標系であり、ロボットの前方方向をX軸、このX軸に直交する方向をY軸とする。図4において、a、bはそれぞれ建造物内の柱などの任意の特徴点であり、前述した処理によって抽出される。ロボットが画像を取得することによって得られる情報は、図4に示す特徴点aの相対的位置(xa,ya)及び特徴点bの相対的位置(xb,yb)である。ここでのφはz軸回りのロボットの回転角で反時計回りを正とする。
ここで、a,bの絶対位置は既知であり、a(ax,ay)、b(bx,by)と仮定すると、abの相対的座標値(xa,ya),(xb,yb)を用いてロボットの絶対位置(xt,yt)はa,b点を中心とした半径l1=√(xa 2+ya 2),l2=√(xb 2+yb 2)の円の交点となる。原点(0,0)からロボット位置(xt,yt)までのベクトルをP→(以下の説明におけるベクトル表現を「P→」とし、図面においては、Pの頭に→を付ける)とし、原点からのa,bまでのベクトルをa→,b→、ロボットの位置(xt,yt)からa,bそれぞれの点へのベクトルをl1→,l2→とすると、ロボットの回転角φが0の場合、P→=(a→)−(l1→),P→=(b→)−(l2→)の関係が成り立つ。また、ロボットの回転角φが0でない場合は、ベクトルl1→,l2→をそれぞれ(−φ)だけ回転させたベクトルが成立する。また、ロボットのZ軸方向の回転角φを考慮すると、aに関していえば、
tan-1(ay/ax)−tan-1(ya/xa)=φ
と決定される。また、bに関していえば、
tan-1(by/bx)−tan-1(yb/xb)=φ
と決定される。
これによって、ロボットの回転角φとロボットの位置(xt,yt)を求めることができる。上記の説明においては、a,bを既知として仮定したが、ここでは、未知の物体も扱うので、a,bの絶対位置は求められていないので、時刻tにおいて、ロボットの位置を基にa,bの位置を決定し、時刻t+1において得られたa,bの相対位置の変化量daを基に、ロボット位置の変化量(ロボットの移動量)を求め、既知の絶対位置座標にこの変化量を加算することで、時刻t+1のロボット位置を求めることができる。もちろんa,bが既知である場合はa,bの相対位置を基にロボット位置を容易に決定できる。
算出された位置は、移動制御部7へ通知され、移動制御部7においては、この位置に基づいて、ロボットの移動制御が行われる。また、移動制御部7は、位置検出をする必要がある場合に、特徴点抽出部5に対して位置検出指示を出力するようにして、この位置検出指示を受けて、特徴点抽出部5は図2に示す処理を開始するようにしてもよい。このようにすることによって、例えば、図1に示す位置検出装置を自動車に備え、トンネル等へ進入した時点で画像による位置検出を行うようにすれば、GPSによる位置検出ができなくなった場合であっても位置検出を継続することができる。
このように、連続して取り込まれる画像から同一の静止物体を連続してトラッキングすることで、この静止物体の刻々と変化する位置の変位を求め、この変位量から自己の移動量を刻々と求めるようにしたため、精度良く自己位置の検出を行うことができる。ここでは、連続する2枚の画像でトラッキング処理を行う例を説明したが、信頼性や精度向上のために2枚以上の画像から特徴点の移動経歴を求め、静止物体を抽出しトラッキングするようにしてもよい。
このように、ターゲットとなる特徴点の位置が既知の場合は、ロボットの絶対的位置を決定でき、また、未知の場合は時刻tにおけるターゲットの相対的位置とロボット位置(xt,yt)によりターゲットの位置を決定し、そのターゲット位置の時刻t+1の位置の変化量をもとにロボット位置(xt+1,yt+1)を求めることができる。また、連続時間Kだけ同じターゲットをトラッキングし続けた場合は、同様にして、(xt+k,yt+k)のk時間の変化量を基に時刻t+kの位置を検出することができる。
なお、図1に示す距離画像生成部3は、超音波や電磁波を用いたレーダ等に置き換えてもよい。このとき、レーダの計測視野を図1に示すカメラ1と同一になるように設定する。また、レーダ等を用いて距離画像を得る場合は、輝度画像を得るカメラ1は1台のみを備えていればよい。
また、移動体が移動している場合、特徴点に近づくに従いフレームから特徴点が外れてしまうことがあり、位置の検出ができなくなってしまうため、複数の特徴点全てについて図2に示す処理を行うことによって、移動量を算出する特徴点を次々に切り替えていくようにする。ただし、この場合、移動体から離れるにしたがって、計測距離の誤差が移動体から近い場合に比べて大きくなるため、フレーム内に存在する特徴点のうち距離が短い特徴点を優先的に選択して移動量の算出を行うようにすれば、移動の精度が悪化することを防止することができる。また、移動体の回転(自転)によって、フレームから1度外れてしまった物体は位置を記憶しておき、同じ物体が再びフレーム内に戻ってきたときに同一物体としてトラッキングするようにしてもよい。
<第2の実施形態>
次に、従来技術のように詳細な地図を持たずに、最小限の地図情報に基づいて自己の位置を検出する第2の実施形態を図5〜9を参照して説明する。図5は、他の実施形態の構成を示すブロック図である。図5に示すブロック図が図1に示すブロック図と異なる点は、新たに物体情報記憶部8を設けた点である。この物体情報記憶部8は、特徴量として予め既知の複数の静止物体の特徴点の集合と、その静止物体の絶対位置が対応付けられて物体の地図として記憶されているものであり、特徴点抽出部5、及び位置検出部6によって参照される。ここでいう既知の静止物体とは、部屋の中の柱や植木、ロッカーなどの家具などである。また、どのような位置の物体を記憶しておくかは特に制限はないが、移動体が移動する際に行動を変化させる位置、すなわち曲がり角、ドアの前等の付近に存在する特徴物を優先的に記憶するようにしておけば、効率良くかつ精度良く移動体の制御が可能となる。
次に、図6を参照して、図5に示す位置検出装置の動作を説明する。ここで、カメラ1、画像記憶部2、距離画像生成部3、距離画像記憶部4の動作は、前述した実施形態における動作と同様なので説明を省略する。図6のフローチャートに示す各処理は、カメラ1によって画像を撮像する度に繰り返し実行される。
まず、特徴点抽出部5は、画像記憶部2に記憶されている画像を読み出す(ステップS21)。そして、特徴点抽出部5は、読み出した輝度画像から特徴点を抽出して、この特徴点を特徴点抽出部5内に保存する(ステップS22)。
ここでいう特徴点とは、画像処理で用いられる不変特徴量に相当し、画像中に現れている像を特徴付ける点のことである。また、特徴量とは、物体形状を構成する複数の特徴点群のことである。この特徴点の抽出は、例えば画像に対してエッジ検出処理を施し、検出されたエッジを構成する特徴点を複数選択することによって行う。なお、特徴点抽出部5は、距離画像記憶部4に記憶されている距離画像を読み出し、この距離画像から特徴点を抽出するようにしてもよい。特徴点は、時刻tの画像(直前の画像)から抽出した特徴点の集合が保存され、この特徴点は、画像上の座標値が保存される。
次に、特徴点抽出部5は、内部に保存されている特徴点を1つずつ読み出し、物体情報記憶部8に記憶されている複数の物体情報の特徴点群(特徴量)とパターンマッチングすることによって比較する(ステップS23)。この比較処理は、前述した実施形態の処理(図2に示す処理)と同様の処理によって行う。またここでいう物体情報とは、予め得られた画像から静止物体の特徴点を抽出しておき、この特徴点とこの静止物体が存在する位置の絶対座標からなる情報である。ここで、用いるパターンマッチング手段としては単純なテンプレートマッチング法を利用してもよい。
続いて、特徴点抽出部5は、ステップS22で得られた特徴点と一致するまたは確からしさが大きい、すなわち相関が高い物体情報が物体情報記憶部8に存在したか、すなわち既知の物体があったか否かを判定する(ステップS24)。この結果、既知の物体が存在した場合、位置検出部6は、この既知の静止物体と自己の相対位置から自己の絶対位置を求める(ステップS25)。この絶対位置は、既知の物体の絶対座標と、距離画像記憶部4に記憶された距離画像から得られる既知の物体と自己の相対位置関係とから算出する。
次に、ステップS24において、既知の物体が存在しなかった場合、特徴点抽出部5は、ステップS22において抽出した特徴点が移動物体であるか静止物体であるかを判定する(ステップS26)。判定の結果得られた静止物体は直前に求められた自己の位置情報を基に自己との相対的位置関係よりそれぞれ絶対位置を求める(ステップS27)。この判定処理は、図2に示すステップS4〜S13,S14の処理によって行う。そして、この判定処理の結果得られた静止物体は直前の処理(時刻t)においてもトラッキングできていたかを判定する(ステップS28)。この判定は、直前に物体情報記憶部8に記憶された特徴量と今回の特徴量をパタンパターンマッチングして一致量を比較し判定する。また、直前にステップS30で物体情報記憶部8に記憶された特徴量の絶対位置とステップS27で求めた位置とを比較し、近傍であった場合トラッキングできたと判定を加えてより精度を上げることもできる。この判定の結果、直前の処理においてもトラッキングできた特徴点である場合、位置検出部6は、静止物体と自己との相対位置から自己の絶対位置を求める(ステップS29)。
一方、ステップS28において、特徴点がトラッキングできておらず新規のものである場合、特徴点抽出部5は、新規の静止物体の特徴点と直前のステップS25またはS29で求められた時刻tの自己の絶対位置を基に新規の特徴点の絶対位置を決定し物体情報記憶部8に記憶する(ステップS30)。この移動量の算出は、図2に示すステップS3〜S17の処理によって行う。
前述したステップS28での判定において、近傍か否かに判断は距離のしきい値を定め、直前の位置と今回の位置がこの距離内にあるか否かによって判断する。しかし、画像によっては得られる距離にばらつきやノイズが大きい場合は、統計的処理を行ってもよい。これは、連続時間だけある特徴量がトラッキングできていたとすると、その特徴量の画像上の位置に対する距離画像によって得られる自己に対する相対的位置(x,y)のばらつきの分散値を刻々計算し、分散値が収束した時点で、分散の範囲内にあるものを同一の物体とし、分散外にあるものを別物体と判定するようにしてもよい。この分散値はステレオカメラの特性や物体によっても異なるため、予め設定された分散既定値を用いてもよいし、物体情報記憶部8に物体毎に設定し記憶された既定値を用いてもよい。また、ステレオカメラの特性として距離の2乗で精度が落ちることから分散値を距離の2乗で変化させるなどの関数を用いてもよい。
ここで、ステップS25、S29における絶対位置の算出方法を図7を参照して説明する。図7において、符号ARは、行動エリアを示しており、予めこの行動エリアAR内の原点Gが決定されている。符号Rは、ロボットであり、符号K4は、既知の静止物体であり、符号U5は、未知の物体である。図7においては、簡単にするためにロボットRの回転角φは無視している。このような状態であるときに、絶対位置が既知である物体K4の絶対座標値(x1,y1)と、この既知物体K4とロボットRに相対位置(x2、y2)に基づいて、ロボットRの絶対位置(Rx,Ry)は、(Rx,Ry)=(x1+x2,y1−y2)によって自己の絶対位置を求める。また、同様に未知の物体U5の絶対位置の座標値(x4,y4)は、(x4,y4)=(x1+x2+x3,y1−y2+y3)によって求める。図8に示すように、既知の静止物体Kと未知の静止物体Uがカメラによって同時に撮像された場合に、未知の物体Uの絶対座標を計算によって求めておくようにしたため、ロボットRが符号R’の位置まで移動した場合に既知物体Kを撮像することができず未知の物体Uのみが撮像された場合でも、予め計算しておいた絶対座標を利用することが可能となる。
なお、ステップS28の判定は、抽出された特徴量が複数の場合は、全てに対して行われ、ステップS29においては全ての特徴量との相対位置から自己の位置を求め、平均値によって自己の絶対位置を求めるようにする。
このように、既知の物体、未知の物体、未知の物体のうち計算によって位置が既知になった物体の状況に応じて、自己の絶対位置を求めるようにしたため、移動制御部7は精度良く移動制御を行うことが可能となる。
次に、図9を参照して、具体例を挙げて動作を説明する。ここでは、ロボットは、A地点からB地点へ移動し、さらにC地点へ移動する場合の動作を例にして説明する。まずA地点において、ステップS23の比較処理の結果、絶対座標が既知である物体K1、K2、K3が存在することを認識する。そして、位置検出部6は、物体K1、K2、K3の3つの物体のうち、物体K3は距離が長いため、物体K1、K2の絶対位置の座標値から自己の絶対位置を求める(ステップS25)。このとき、位置検出部6は、未知物体U1、U2の絶対位置の座標値を計算によって求めて、内部記憶しておく(ステップS30)。そして、ロボットは、絶対位置が既知となった未知物体U1、U2の位置に基づいて自己位置を求めながら(ステップS29)移動し、さらに未知物体U1、U2が撮像できない位置へ到達した場合に、既知物体K3に基づいて自己位置を求めながら(ステップS25)、B地点まで移動し、B地点の絶対位置を求める。これによって、未知物体U1、U2に関する位置情報と物体情報が更新されることになる。
次に、ロボットは、方向転換し、C地点方向へ向く。このとき、カメラ1には、未知の物体U3、U4が撮像される。ただし、この場合、90°向きを変えたため、未知の物体U3、U4が撮像された画像には、既知の物体が撮像されない場合もある。このような時には、未知物体U3、U4に基づいて移動量を求め、B地点の絶対座標値に求めた移動量を加算することによって自己位置を求める(ステップS29)。そして、C地点まで移動する途中で既知物体が撮像された場合、この既知物体に基づいて自己の絶対位置を求め、移動量によって求めた絶対位置の誤差をリセットする。
このように、未知の物体の位置に基づいて、自己の絶対位置を求める場合、距離画像から得られる相対位置の誤差が累積されるが、既知の物体が撮像された場合に、自己の位置をこの既知の物体から求めるようにしたため、累積した誤差をリセットすることが可能となり、精度の良い位置検出が可能となる。
次に、もう一度同じエリアにおいて移動を行う際は、地点Aに移動した場合、前回未知物体U1、U2は地図位置情報と物体情報が内部に記憶されているため既知物体として使われる。また、未知物体U3、U4も同様である。また、前回既知の物体が今回存在することが認識できない場合は、その物体が移動物体である可能性があるため、物体情報として移動物体である可能性があること記憶して検出対象から外すなどの処理を加えてもよい。
ところで、画像から得られる距離情報にはばらつきが大きいことがあり、上記の方法によってロボットの位置を求めるのは困難である場合がある。そのため、ロボットの位置は、抽出した基準特徴点に基づき、カルマンフィルタを使用して算出するようにしてもよい。このカルマンフィルタを用いることによって、距離情報のばらつきなどを考慮してロボットの位置を算出することができる。
ここで、カルマンフィルタを用いた場合のロボット位置算出の処理について説明する。ここで用いるカルマンフィルタは拡張カルマンフィルタであり、状態方程式を(1)式に示す。ここで、ロボットの状態を表現する変数をx,y,φ,Tの4つで表現し、
Figure 2011022157
と定義すると、xt,ytは、xy軸上のx,y値、φtはz軸まわりの回転角、Ttは時間ステップtから(t+1)で移動する距離である。
Figure 2011022157
(1)式において、右辺2番目の項は移動制御部7からの時刻tにおける移動制御変化量であり、3番目の項は時刻tにおけるロボット制御のシステムノイズを表す。ここで用いる座標系は図5と同様であり、また、図10にロボット位置の状態を表す各パラメータの意味を示す。
また、(2)式は、特徴点aの観測方程式であり、(3)式は、特徴点bの観測方程式であり、これらの式はロボットから見た特徴点a,bの相対的計測値を示すものである。この計測式は、図5に示す座標系に基づいて幾何学的に作成される。この計測量を表現する変数をx,y,θの3つで表現し、
Figure 2011022157
となる。ここで、(2)、(3)式の右辺2項目は計測ノイズを表す。
上記の(1)〜(3)式は図2に示すステップS25、S29における処理に用いられるものであり、これらの式を画像が取得される度に演算を行うことによって、ロボットの回転角φt+1とロボットの位置(xt+1,yt+1)を求めることができる。この拡張カルマンフィルタを用いることによって、前述した幾何学的に算出するのに比べ、システムノイズ及び計測ノイズが考慮されているために精度良くロボットの位置検出を行うことができる。また、カルマンフィルタを用いたときは、ステップS28の判断において特に明記していないが、カルマンフィルタ内で収束する特徴点に対する観測値の共分散を、その特徴点の分散値として用いることもできる。
なお、本実施形態においては対象となる物体の座標はx,y平面で説明したが、高さ方向(z方向)に拡張にして自己の位置を、高さを含めて決定するようにしてもよい。
<第3の実施形態>
次に、ロボットが移動する環境において、オクルージョンなどの要因で特徴物に対する相対位置を個別に決定できない場合に、複数の特徴点群とこれらの特徴点群が得られた場所の位置の情報を全て予め記憶しておき、この情報を参照しながら自己の位置を決定する第3の実施形態を説明する。図11は、第3の実施形態における位置検出装置の構成を示すブロック図である。この図において、符号1はカメラであり、符号5は特徴点抽出部である。符号8は、物体情報記憶部である。符号9は、2つの特徴点の相関を求める相関処理部である。符号10は、相関処理部9の処理結果に基づいて自己位置を決定する自己位置決定部である。図11においては、得られた画像を記憶する画像記憶部2、及び移動制御部7は省略されている。また、第3の実施形態においては、距離画像を必要としないため、関係する構成要素は削除されている。
まず、図13、14を参照して自己位置を求める原理を簡単に説明する。図13は、位置Mにおいてロボットの進行方向F→のシーンをカメラで撮影し、得られた画像から特徴点群を選択している図である。このとき、選択される特徴点群をWとすると、特徴点群Wは位置Mと関連付けられ、物体情報記憶部8に記憶される。ここでの特徴点群は個々にオクルージョンなどにより相対位置を特定できないものであるため、特徴点全体に対し記憶した位置を関連付けることとなる。
図14は、特徴点群を記憶する位置が9ヶ所(M1〜M9)ある時の例であり、ロボットが通過するであろう位置に予め設定されるものである。予め設定された各位置M1〜M9のそれぞれからロボットの進行方向F→の方向に向けられたカメラで撮像された画像の中から抽出した特徴点群をW1〜W9とすると、それぞれの位置(特徴点取得位置という)M1〜M9と特徴点群W1〜W9はそれぞれ対になるように対応付けられて物体情報記憶部8に予め記憶される。そして、ロボットが未知の位置を通過中に、進行方向F→の方向に向けられたカメラで撮像された画像の中から抽出された特徴点群と予め記憶された特徴点群W1〜W9との相関を求め、この相関が最も高い特徴点群Wn(nは1〜9のいずれか)を自己が通過中の位置と判断し、この特徴点群Wnと対になる特徴点取得位置Mn(nは1〜9のいずれか)が自己位置となる。例えば、特徴点群W4とカメラで撮像された画像から抽出された特徴点群とが最も良く相関が取れるとき、この特徴点群W4を取得した位置M4を自己位置と決定する。
次に、図12を参照して、図11に示す位置検出装置が自己位置を求める具体的な動作を説明する。
まず、特徴点抽出部5は、カメラ1で撮像された画像を読み出す(ステップS41)。そして、特徴点抽出部5は、読み出しだ画像から全ての特徴点群を抽出し、内部に保存する(ステップS42)。一方、相関処理部9は、物体情報記憶部8に記憶されている特徴点群を1つ読み出す(ステップS43)。続いて、相関処理部9は、入力画像(カメラ1で撮像した画像)の特徴点を特徴点抽出部5から1つ読み出す(ステップS44)。さらに、相関処理部9は、ステップS43で読み出した特徴点群から1つの特徴点を選択する(ステップS45)。
次に、相関処理部9は、ステップS44で読み出した特徴点とステップS45で選択した特徴点との確からしさCAを算出し(ステップS46)、予め決められたしきい値Tcと比較する(ステップS47)。この結果、CA>TcでなければステップS49へ進む。一方、CA>Tcであれば、処理ループ毎に求められたCAの和Sを求める(ステップS48)。ただし、CAの和Sは、特徴点群毎に求めるため、確からしさCAの和Sは特徴点群の数だけ得られることとなる。そして、相関処理部9は、ステップS43で読み出した特徴点群を構成する特徴点の全てについて、ステップS45〜S48の処理を繰り返す(ステップS49)。
次に、相関処理部9は、ステップS42で保存された特徴点群を構成する特徴点の全てについて、ステップS44〜S48の処理を繰り返し(ステップS50)、さらに、ステップS42で保存された特徴点群の全てに対してステップS43〜S48の処理を繰り返す(ステップS51)。ステップS42〜S48における処理は、入力画像から抽出した特徴点群を構成する特徴点と物体情報記憶部8に記憶されている特徴点とをそれぞれ総当たりで確からしさを求めている処理である。なお、ステップS44〜S50の処理において、画像ピクセルの近いものを選択して確からしさを求めることで処理負荷を低減するようにしてもよい。
次に、自己位置決定部10は、ステップS48で求めた確からしさCAの和Sが大きい特徴点群を選択する(ステップS52)。そして、選択した特徴点群と対になる特徴点取得位置を物体情報記憶部8から読み出すことによって、自己の位置を求め(ステップS53)、この位置を自己位置情報として出力する。
また、図15に示すようにロボットのステレオカメラを構成する左右の2台のカメラを利用し、各カメラ毎に予め記憶された特徴点群Wと比較し、相関を演算するようにしてもよい。このようにすることによって、同一の特徴点群Wに対するカメラの画像の相関度の大きさの違いによって、自己の位置を決定することができる。すなわち、特徴点群Wに対応した位置Mに対して各カメラで検出された相関値の差から位置Mの左右のオフセット方向を検出できる。このことにより、特徴点群を得る位置Mのうち左右方向の数を少なくすることができるため、予め画像を撮像する手間が大幅に削減できる。また、ステレオカメラを構成するカメラが2台以上である場合は、左右方向に並ぶカメラを選択して利用すればよい。
このように、ロボットの行動可能範囲における特徴点群とこれらの特徴点群を取得した位置を、ロボット内に予め記憶しておき、ロボットが行動を起こすときに得られた画像から抽出された特徴点群と相関が高い特徴点群を記憶された中から選択し、この選択された特徴点群が取得された位置を自己位置とするようにしたため、ロボットが決められた屋内で行動する場合などにおいて、容易に自己位置検出行うことが可能となる。
前述した図13、14の説明においては、各位置M1〜M9における画像撮像の方向を1方向として説明したが、各位置において複数の方向の画像を撮像し、得られた画像の全てについて特徴点群を抽出して、物体情報記憶部8に記憶しておけば、各位置におけるロボットの進行方向が異なっても同様の処理によって、自己位置を検出することが可能となる。また、ロボットは、自己に備えられたカメラのズーム機能を用いて、拡大・縮小させた画像から特徴点群を抽出するようにしてもよい。このようにすることによって、図14に示す位置M2とM5の中間に位置するような場合の相関を取りやすくすることができる。さらに、ロボットは、カメラが備えられた頭部を左右上下に振った状態で得られた画像から特徴点群を抽出するようにしてもよい。このようにすることによって、記憶された特徴点群を取得した時の進行方向と異なる行動をしている場合であっても特徴点の相関を取りやすくすることが可能となる。
また、前述した3つの実施形態における位置検出処理を、ロボットが移動する環境に応じて適宜組み合わせたり、必要な処理を選択するようことによって自己位置を検出するようにしてもよい。
また、図2、図6、図12に示す処理を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより位置検出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1・・・カメラ、 2・・・画像記憶部、 3・・・距離画像生成部、 4・・・距離画像記憶部、 5・・・特徴点抽出部、 6・・・位置検出部、 7・・・移動制御部、 8・・・物体情報記憶部

Claims (9)

  1. 移動体の自己位置を検出する位置検出装置であって、
    前記位置検出装置は、
    前記移動体の前方視野の画像を取得する画像取得手段と、
    前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、
    得られた画像からそれぞれ特徴点を抽出する特徴点抽出手段と、
    予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択手段と、
    を備えたことを特徴とする位置検出装置。
  2. 前記特徴点選択手段は、
    既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する請求項1に記載の位置検出装置。
  3. 移動体の自己位置を検出する位置検出装置であって、
    前記位置検出装置は、
    前記移動体の前方視野の画像を取得する画像取得手段と、
    前記画像中の特徴点群を抽出する特徴点群抽出手段と、
    予め画像取得手段で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出手段と、
    を備えたことを特徴とする位置検出装置。
  4. 移動体の自己位置を検出する位置検出方法であって、
    前記位置検出方法は、
    前記移動体の前方視野の画像を取得する画像取得過程と、
    前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得過程と、
    得られた画像からそれぞれ特徴点を抽出する特徴点抽出過程と、
    予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択過程と、
    を有することを特徴とする位置検出方法。
  5. 前記特徴点選択過程は、
    既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する請求項4に記載の位置検出方法。
  6. 移動体の自己位置を検出する位置検出方法であって、
    前記位置検出方法は、
    前記移動体の前方視野の画像を取得する画像取得過程と、
    前記画像中の特徴点群を抽出する特徴点群抽出過程と、
    予め画像取得過程で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出過程と、
    を有することを特徴とする位置検出方法。
  7. 移動体の自己位置を検出するための位置検出プログラムであって、
    前記位置検出プログラムは、
    前記移動体の前方視野の画像を取得する画像取得処理と、
    前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得処理と、
    得られた画像からそれぞれ特徴点を抽出する特徴点抽出処理と、
    予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択処理と、
    をコンピュータに行わせることを特徴とする位置検出プログラム。
  8. 前記特徴点選択処理は、
    既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する請求項7に記載の位置検出プログラム。
  9. 移動体の自己位置を検出するための位置検出プログラムであって、
    前記位置検出プログラムは、
    前記移動体の前方視野の画像を取得する画像取得処理と、
    前記画像中の特徴点群を抽出する特徴点群抽出処理と、
    予め画像取得処理で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出処理と、
    をコンピュータに行わせることを特徴とする位置検出プログラム。
JP2010192835A 2000-05-26 2010-08-30 位置検出装置、位置検出方法、及び位置検出プログラム Expired - Lifetime JP5148669B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010192835A JP5148669B2 (ja) 2000-05-26 2010-08-30 位置検出装置、位置検出方法、及び位置検出プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000157299 2000-05-26
JP2000157299 2000-05-26
JP2010192835A JP5148669B2 (ja) 2000-05-26 2010-08-30 位置検出装置、位置検出方法、及び位置検出プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001124943A Division JP4672175B2 (ja) 2000-05-26 2001-04-23 位置検出装置、位置検出方法、及び位置検出プログラム

Publications (2)

Publication Number Publication Date
JP2011022157A true JP2011022157A (ja) 2011-02-03
JP5148669B2 JP5148669B2 (ja) 2013-02-20

Family

ID=43632334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192835A Expired - Lifetime JP5148669B2 (ja) 2000-05-26 2010-08-30 位置検出装置、位置検出方法、及び位置検出プログラム

Country Status (1)

Country Link
JP (1) JP5148669B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013076829A1 (ja) * 2011-11-22 2013-05-30 株式会社日立製作所 自律移動システム
JP2014174070A (ja) * 2013-03-12 2014-09-22 Mitsubishi Electric Corp 誘導装置
JP2016038288A (ja) * 2014-08-07 2016-03-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2016207934A1 (ja) * 2015-06-22 2016-12-29 株式会社日立製作所 特徴点選出装置、移動状態計測装置、移動状態計測システム、作業機械、車両
JP2017027213A (ja) * 2015-07-17 2017-02-02 トヨタ自動車株式会社 自律移動体及び自律移動体の位置推定方法
US9651384B2 (en) 2012-05-02 2017-05-16 Korea Institute Of Science And Technology System and method for indoor navigation
JP2018504652A (ja) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 顕著特徴ベースの移動体測位
KR20180040209A (ko) * 2016-10-12 2018-04-20 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
JP6402266B1 (ja) * 2018-02-09 2018-10-10 ユニティガードシステム株式会社 ロボットの移動制御システム及び移動制御方法
JP2019039851A (ja) * 2017-08-28 2019-03-14 株式会社トプコン 写真測量システム及び写真測量方法
JP2019050007A (ja) * 2018-11-01 2019-03-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体の位置を判断する方法および装置、ならびにコンピュータ可読媒体
WO2019131198A1 (ja) * 2017-12-28 2019-07-04 ソニー株式会社 制御装置、および制御方法、プログラム、並びに移動体
JP2020030568A (ja) * 2018-08-22 2020-02-27 株式会社ダイヘン 移動体
JP2020099461A (ja) * 2018-12-21 2020-07-02 日立グローバルライフソリューションズ株式会社 自律走行型掃除機
KR102666963B1 (ko) * 2021-11-15 2024-05-17 국방과학연구소 비행 경로 산출 방법, 비행 경로 산출 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101849354B1 (ko) * 2013-03-19 2018-05-24 한화지상방산 주식회사 이동 로봇의 경로계획 생성 장치 및 방법
CN110660102B (zh) * 2019-06-17 2020-10-27 腾讯科技(深圳)有限公司 基于人工智能的说话人识别方法及装置、系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63134912A (ja) * 1986-11-27 1988-06-07 Shinko Electric Co Ltd 移動ロボツトにおける位置検出方法
JPH07239714A (ja) * 1994-02-25 1995-09-12 Shinichi Yuda 移動体の自己誘導装置
JPH07244735A (ja) * 1994-03-02 1995-09-19 Nec Corp 3次元形状復元方法および装置
JPH0843055A (ja) * 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
JPH0933247A (ja) * 1995-07-19 1997-02-07 Mitsubishi Electric Corp 画像物体検出装置
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JPH11149557A (ja) * 1997-11-19 1999-06-02 Fuji Heavy Ind Ltd 自律走行車の周囲環境認識装置
JPH11259659A (ja) * 1998-03-11 1999-09-24 Hokkaido Prefecture 移動ロボットの環境地図作成方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63134912A (ja) * 1986-11-27 1988-06-07 Shinko Electric Co Ltd 移動ロボツトにおける位置検出方法
JPH07239714A (ja) * 1994-02-25 1995-09-12 Shinichi Yuda 移動体の自己誘導装置
JPH07244735A (ja) * 1994-03-02 1995-09-19 Nec Corp 3次元形状復元方法および装置
JPH0843055A (ja) * 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
JPH0933247A (ja) * 1995-07-19 1997-02-07 Mitsubishi Electric Corp 画像物体検出装置
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JPH11149557A (ja) * 1997-11-19 1999-06-02 Fuji Heavy Ind Ltd 自律走行車の周囲環境認識装置
JPH11259659A (ja) * 1998-03-11 1999-09-24 Hokkaido Prefecture 移動ロボットの環境地図作成方法

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013076829A1 (ja) * 2011-11-22 2013-05-30 株式会社日立製作所 自律移動システム
JPWO2013076829A1 (ja) * 2011-11-22 2015-04-27 株式会社日立製作所 自律移動システム
US9062980B2 (en) 2011-11-22 2015-06-23 Hitachi, Ltd. Autonomous mobile system
US9651384B2 (en) 2012-05-02 2017-05-16 Korea Institute Of Science And Technology System and method for indoor navigation
JP2014174070A (ja) * 2013-03-12 2014-09-22 Mitsubishi Electric Corp 誘導装置
JP2016038288A (ja) * 2014-08-07 2016-03-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2016207934A1 (ja) * 2015-06-22 2016-12-29 株式会社日立製作所 特徴点選出装置、移動状態計測装置、移動状態計測システム、作業機械、車両
JP2017027213A (ja) * 2015-07-17 2017-02-02 トヨタ自動車株式会社 自律移動体及び自律移動体の位置推定方法
US10599149B2 (en) 2015-10-09 2020-03-24 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
JP2018504652A (ja) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 顕著特徴ベースの移動体測位
KR101851155B1 (ko) * 2016-10-12 2018-06-04 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
US10338600B2 (en) 2016-10-12 2019-07-02 Hyundai Motor Company Autonomous driving control apparatus, vehicle having the same, and method for controlling the same
KR20180040209A (ko) * 2016-10-12 2018-04-20 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
JP2019039851A (ja) * 2017-08-28 2019-03-14 株式会社トプコン 写真測量システム及び写真測量方法
JP7152137B2 (ja) 2017-08-28 2022-10-12 株式会社トプコン 写真測量システム及び写真測量方法
US20200402256A1 (en) * 2017-12-28 2020-12-24 Sony Corporation Control device and control method, program, and mobile object
US11822341B2 (en) 2017-12-28 2023-11-21 Sony Corporation Control device, control method, and mobile object to estimate the mobile object's self-position
WO2019131198A1 (ja) * 2017-12-28 2019-07-04 ソニー株式会社 制御装置、および制御方法、プログラム、並びに移動体
JPWO2019131198A1 (ja) * 2017-12-28 2020-12-24 ソニー株式会社 制御装置、および制御方法、プログラム、並びに移動体
JP6402266B1 (ja) * 2018-02-09 2018-10-10 ユニティガードシステム株式会社 ロボットの移動制御システム及び移動制御方法
JP2019139516A (ja) * 2018-02-09 2019-08-22 ユニティガードシステム株式会社 ロボットの移動制御システム及び移動制御方法
JP2020030568A (ja) * 2018-08-22 2020-02-27 株式会社ダイヘン 移動体
JP2019050007A (ja) * 2018-11-01 2019-03-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体の位置を判断する方法および装置、ならびにコンピュータ可読媒体
JP2020099461A (ja) * 2018-12-21 2020-07-02 日立グローバルライフソリューションズ株式会社 自律走行型掃除機
KR102666963B1 (ko) * 2021-11-15 2024-05-17 국방과학연구소 비행 경로 산출 방법, 비행 경로 산출 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Also Published As

Publication number Publication date
JP5148669B2 (ja) 2013-02-20

Similar Documents

Publication Publication Date Title
JP4672175B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
JP5148669B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
US10109104B2 (en) Generation of 3D models of an environment
US8401783B2 (en) Method of building map of mobile platform in dynamic environment
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8024072B2 (en) Method for self-localization of robot based on object recognition and environment information around recognized object
KR100855657B1 (ko) 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
US20150356357A1 (en) A method of detecting structural parts of a scene
JP5803367B2 (ja) 自己位置推定装置、自己位置推定方法およびプログラム
Vidal-Calleja et al. Active control for single camera SLAM
US20110169923A1 (en) Flow Separation for Stereo Visual Odometry
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
Ye et al. 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features
US8428343B2 (en) VOXEL map generator and method thereof
Ishihara et al. Deep radio-visual localization
Zhou et al. Information-efficient 3-D visual SLAM for unstructured domains
US11080884B2 (en) Point tracking using a trained network
US10977810B2 (en) Camera motion estimation
CN116051636A (zh) 位姿计算方法、装置和设备
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121128

R150 Certificate of patent or registration of utility model

Ref document number: 5148669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term