JP2002048513A - 位置検出装置、位置検出方法、及び位置検出プログラム - Google Patents

位置検出装置、位置検出方法、及び位置検出プログラム

Info

Publication number
JP2002048513A
JP2002048513A JP2001124943A JP2001124943A JP2002048513A JP 2002048513 A JP2002048513 A JP 2002048513A JP 2001124943 A JP2001124943 A JP 2001124943A JP 2001124943 A JP2001124943 A JP 2001124943A JP 2002048513 A JP2002048513 A JP 2002048513A
Authority
JP
Japan
Prior art keywords
image
feature point
self
feature
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001124943A
Other languages
English (en)
Other versions
JP4672175B2 (ja
Inventor
Takaaki Nagai
孝明 永井
Shinichi Matsunaga
慎一 松永
Yoshiaki Sakagami
義秋 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001124943A priority Critical patent/JP4672175B2/ja
Priority to EP01112618.2A priority patent/EP1158309B1/en
Priority to US09/866,151 priority patent/US7239339B2/en
Publication of JP2002048513A publication Critical patent/JP2002048513A/ja
Application granted granted Critical
Publication of JP4672175B2 publication Critical patent/JP4672175B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

(57)【要約】 【課題】 人間型脚式移動ロボットや自動車が自律的に
移動する際の自己の位置検出を簡単に行うことができる
位置検出装置を提供することを目的とする。 【解決手段】 移動体の自己位置を検出する位置検出装
置であって、移動体の前方視野の輝度画像を取得する輝
度画像取得手段と、輝度画像取得手段と同一の視野を有
し、輝度画像取得手段が輝度画像を取得するのと同時に
距離画像を取得する距離画像取得手段と、少なくとも連
続する2フレームの輝度画像からそれぞれ特徴点を抽出
する特徴点抽出手段と、特徴点抽出手段によって抽出さ
れた特徴点の2フレーム間の位置の変位量を距離画像に
基づいて算出し、当該変位量から自己位置を算出するた
めの基準特徴点を選択する基準特徴点選択手段とを備え
たことを特徴とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、距離画像を用いて
ロボットや自動車が移動した際の自己の位置を検出する
位置検出装置、位置検出方法、及び位置検出プログラム
に関する。特に、人間型の脚式移動ロボットの自己位置
検出に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】従来の
車両の位置検出には、GPSやビーコンから発せられた
情報を受信して、この情報を解析して自己の位置を検出
するものがある。GPSやビーコンを使用した位置検出
は、GPSやビーコンが発した電磁波を受信しなければ
ならないために、電磁波の送信装置と自己に備えられた
受信装置との間に電磁波を遮断する物体がある場合、自
己の位置検出を行えなくなるという問題がある。特に屋
内のみを移動するロボットなどは全く利用することがで
きない。このため、車両に車輪の回転数を検出する距離
センサ及び方位センサを備え、これらのセンサの出力値
に基づき、場合によっては道路地図データをマッチング
することによって、自己の位置を検出する位置検出装置
がある。例えば、特開平9−243389号公報に記載
されている技術が挙げられる。
【0003】しかしながら、この位置検出装置は、内部
に詳細な道路地図データを備える必要があるとともに、
距離センサや方位センサの出力値には誤差が含まれるた
めに、距離センサや方位センサの出力値のみによる位置
検出が長時間継続すると、検出誤差が累積されてしま
い、検出された車両位置が実際の車両位置から大きくず
れてしまうという問題がある。また、特に人間型の脚式
移動ロボットが屋内を自由に移動する際においては、壁
や柱との相対位置をロボット自身が得る必要があるが、
従来の位置検出装置では、周囲の環境との相対位置関係
を得ることが難しいために自律移動が困難になるという
問題がある。
【0004】本発明は、このような事情に鑑みてなされ
たもので、人間型脚式移動ロボットや自動車が自律的に
移動する際に、周囲環境の画像を用いて自己の位置検出
を簡単に行うことができる位置検出装置、位置検出方
法、及び位置検出プログラムを提供することを目的とす
る。
【0005】
【課題を解決するための手段】請求項1に記載の発明
は、移動体の自己位置を検出する位置検出装置であっ
て、前記位置検出装置は、前記移動体の前方視野の画像
を取得する画像取得手段と、前記画像取得手段と同一の
視野を有し、前記画像取得手段が画像を取得するのと同
時に距離画像を取得する距離画像取得手段と、少なくと
も連続する2フレームの画像からそれぞれ特徴点を抽出
する特徴点抽出手段と、前記特徴点抽出手段によって抽
出された特徴点の2フレーム間の位置の変位量を前記距
離画像に基づいて算出し、当該変位量から自己位置を算
出するための基準特徴点を選択する基準特徴点選択手段
とを備えたことを特徴とする。この発明によれば、連続
する2フレームの画像から同一の静止物体を抽出し、こ
の静止物体の変位を求め、この変位量から自己の移動量
を求めるようにしたため、精度良く自己位置の検出を行
うことができるという効果が得られる。また、静止物体
の抽出を自己で行うようにしたため、予め静止物体の位
置が定義されたマップ等を備える必要がなく、構成を簡
単にすることが可能となる。さらに、道路地図データ等
のマップを備える必要がないために、構成を簡単にする
ことができるとともに、未知の場所へ移動することが可
能となり移動体の行動範囲の制限をなくすことができる
という効果も得られる。
【0006】請求項2に記載の発明は、移動体の自己位
置を検出する位置検出装置であって、前記位置検出装置
は、前記移動体の前方視野内の画像を取得する画像取得
手段と、前記移動体の移動に当たって基準となる基準特
徴点を前記画像取得手段によって得られた画像に基づい
て決定する基準点決定手段と、自己の移動制御と前記基
準点の観測量を拡張カルマンフィルタに代入して自己の
位置を検出する位置検出手段とを備えたことを特徴とす
る。この発明によれば、自己の移動制御と前記基準点の
観測量を拡張カルマンフィルタに代入して自己の位置を
検出する位置検出手段を備えたため、より正確な自己位
置の検出が可能になるという効果が得られる。
【0007】請求項3に記載の発明は、移動体の自己位
置を検出する位置検出装置であって、前記位置検出装置
は、前記移動体の前方視野の画像を取得する画像取得手
段と、前記画像取得手段と同一の視野を有し、前記画像
取得手段が画像を取得するのと同時に距離画像を取得す
る距離画像取得手段と、得られた画像からそれぞれ特徴
点を抽出する特徴点抽出手段と、予め記憶された物体情
報と抽出された特徴点とを比較して、相関が高い特徴点
を既知と特徴点と見なして自己位置を算出するための基
準特徴点とする基準特徴点選択手段とを備えたことを特
徴とする。この発明によれば、予め記憶された物体情報
と抽出された特徴点とを比較して、相関が高い特徴点を
既知と特徴点と見なして自己位置を算出するための基準
特徴点とするようにしたため、より正確に自己の位置を
検出することができるという効果が得られる。
【0008】請求項4に記載の発明は、前記特徴点選択
手段は、既知と見なされた特徴点が存在する画像中の未
知の特徴点と既知の特徴点との相対関係を求め、該未知
の特徴点を既知の特徴点として記憶することにより前記
物体情報を更新することを特徴する。この発明によれ
ば、既知と見なされた特徴点が存在する画像中の未知の
特徴点と既知の特徴点との相対関係を求め、該未知の特
徴点を既知の特徴点として記憶することにより前記物体
情報を更新するようようにしたため、物体情報の更新を
自動的に行うことができるという効果が得られる。
【0009】請求項5に記載の発明は、移動体の自己位
置を検出する位置検出装置であって、前記位置検出装置
は、前記移動体の前方視野の画像を取得する画像取得手
段と、前記画像中の特徴点群を抽出する特徴点群抽出手
段と、予め画像取得手段で得られた画像における特徴点
群と当該特徴点群を得た位置を対応させて複数記憶して
おき、新たに得られた画像の特徴点群と予め記憶された
特徴点群の相関を算出して、自己の位置を算出する自己
位置検出手段とを備えたことを特徴とする。この発明に
よれば、予め画像取得手段で得られた画像における特徴
点群と当該特徴点群を得た位置を対応させて複数記憶し
ておき、新たに得られた画像の特徴点群と予め記憶され
た特徴点群の相関を算出して、自己の位置を算出するよ
うにしたため、幾何学的にロボットの位置が得られない
場合であっても過去の位置検出結果に基づいて自己の位
置を検出することができるという効果が得られる。
【0010】請求項6に記載の発明は、移動体の自己位
置を検出する位置検出方法であって、前記位置検出方法
は、前記移動体の前方視野の画像を取得する画像取得過
程と、前記画像と同一の視野を有し、前記画像を取得す
るのと同時に距離画像を取得する距離画像取得過程と、
少なくとも連続する2フレームの画像からそれぞれ特徴
点を抽出する特徴点抽出過程と、前記特徴点抽出過程に
おいて抽出された特徴点の2フレーム間の位置の変位量
を前記距離画像に基づいて算出し、当該変位量から自己
位置を算出するための基準特徴点を選択する基準特徴点
選択過程とを有することを特徴とする。この発明によれ
ば、連続する2フレームの画像から同一の静止物体を抽
出し、この静止物体の変位を求め、この変位量から自己
の移動量を求めるようにしたため、精度良く自己位置の
検出を行うことができるという効果が得られる。また、
静止物体の抽出を自己で行うようにしたため、予め静止
物体の位置が定義されたマップ等を備える必要がなく、
構成を簡単にすることが可能となる。さらに、道路地図
データ等のマップを備える必要がないために、構成を簡
単にすることができるとともに、未知の場所へ移動する
ことが可能となり移動体の行動範囲の制限をなくすこと
ができるという効果も得られる。
【0011】請求項7に記載の発明は、移動体の自己位
置を検出する位置検出方法であって、前記位置検出方法
は、前記移動体の前方視野内の画像を取得する画像取得
過程と、前記移動体の移動に当たって基準となる基準特
徴点を前記画像に基づいて決定する基準点決定過程と、
自己の移動制御と前記基準点の観測量を拡張カルマンフ
ィルタに代入して自己の位置を検出する位置検出過程と
を有することを特徴とする。この発明によれば、自己の
移動制御と前記基準点の観測量を拡張カルマンフィルタ
に代入して自己の位置を検出する位置検出手段を備えた
ため、より正確な自己位置の検出が可能になるという効
果が得られる。
【0012】請求項8に記載の発明は、移動体の自己位
置を検出する位置検出方法であって、前記位置検出方法
は、前記移動体の前方視野の画像を取得する画像取得過
程と、前記画像と同一の視野を有し、前記画像を取得す
るのと同時に距離画像を取得する距離画像取得過程と、
得られた画像からそれぞれ特徴点を抽出する特徴点抽出
過程と、予め記憶された物体情報と抽出された特徴点と
を比較して、相関が高い特徴点を既知と特徴点と見なし
て自己位置を算出するための基準特徴点とする基準特徴
点選択過程とを有することを特徴とする。この発明によ
れば、予め記憶された物体情報と抽出された特徴点とを
比較して、相関が高い特徴点を既知と特徴点と見なして
自己位置を算出するための基準特徴点とするようにした
ため、より正確に自己の位置を検出することができると
いう効果が得られる。
【0013】請求項9に記載の発明は、前記特徴点選択
過程は、既知と見なされた特徴点が存在する画像中の未
知の特徴点と既知の特徴点との相対関係を求め、該未知
の特徴点を既知の特徴点として記憶することにより前記
物体情報を更新することを特徴する。この発明によれ
ば、既知と見なされた特徴点が存在する画像中の未知の
特徴点と既知の特徴点との相対関係を求め、該未知の特
徴点を既知の特徴点として記憶することにより前記物体
情報を更新するようようにしたため、物体情報の更新を
自動的に行うことができるという効果が得られる。
【0014】請求項10に記載の発明は、移動体の自己
位置を検出する位置検出方法であって、前記位置検出方
法は、前記移動体の前方視野の画像を取得する画像取得
過程と、前記画像中の特徴点群を抽出する特徴点群抽出
過程と、予め画像取得過程で得られた画像における特徴
点群と当該特徴点群を得た位置を対応させて複数記憶し
ておき、新たに得られた画像の特徴点群と予め記憶され
た特徴点群の相関を算出して、自己の位置を算出する自
己位置検出過程とを有することを特徴とする。この発明
によれば、予め画像取得過程で得られた画像における特
徴点群と当該特徴点群を得た位置を対応させて複数記憶
しておき、新たに得られた画像の特徴点群と予め記憶さ
れた特徴点群の相関を算出して、自己の位置を算出する
ようにしたため、幾何学的にロボットの位置が得られな
い場合であっても過去の位置検出結果に基づいて自己の
位置を検出することができるという効果が得られる。
【0015】請求項11に記載の発明は、移動体の自己
位置を検出する位置検出プログラムであって、前記位置
検出プログラムは、前記移動体の前方視野の画像を取得
する画像取得処理と、前記画像と同一の視野を有し、前
記画像を取得するのと同時に距離画像を取得する距離画
像取得処理と、少なくとも連続する2フレームの画像か
らそれぞれ特徴点を抽出する特徴点抽出処理と、前記特
徴点抽出処理において抽出された特徴点の2フレーム間
の位置の変位量を前記距離画像に基づいて算出し、当該
変位量から自己位置を算出するための基準特徴点を選択
する基準特徴点選択処理とをコンピュータに行わせるこ
とを特徴とする。この発明によれば、連続する2フレー
ムの画像から同一の静止物体を抽出し、この静止物体の
変位を求め、この変位量から自己の移動量を求めるよう
にしたため、精度良く自己位置の検出を行うことができ
るという効果が得られる。また、静止物体の抽出を自己
で行うようにしたため、予め静止物体の位置が定義され
たマップ等を備える必要がなく、構成を簡単にすること
が可能となる。さらに、道路地図データ等のマップを備
える必要がないために、構成を簡単にすることができる
とともに、未知の場所へ移動することが可能となり移動
体の行動範囲の制限をなくすことができるという効果も
得られる。
【0016】請求項12に記載の発明は、移動体の自己
位置を検出する位置検出プログラムであって、前記位置
検出プログラムは、前記移動体の前方視野内の画像を取
得する画像取得処理と、前記移動体の移動に当たって基
準となる基準特徴点を前記画像に基づいて決定する基準
点決定処理と、自己の移動制御と前記基準点の観測量を
拡張カルマンフィルタに代入して自己の位置を検出する
位置検出処理とをコンピュータに行わせることを特徴と
する。この発明によれば、自己の移動制御と前記基準点
の観測量を拡張カルマンフィルタに代入して自己の位置
を検出する位置検出手段を備えたため、より正確な自己
位置の検出が可能になるという効果が得られる。
【0017】請求項13に記載の発明は、移動体の自己
位置を検出するための位置検出プログラムであって、前
記位置検出プログラムは、前記移動体の前方視野の画像
を取得する画像取得処理と、前記画像と同一の視野を有
し、前記画像を取得するのと同時に距離画像を取得する
距離画像取得処理と、得られた画像からそれぞれ特徴点
を抽出する特徴点抽出処理と、予め記憶された物体情報
と抽出された特徴点とを比較して、相関が高い特徴点を
既知と特徴点と見なして自己位置を算出するための基準
特徴点とする基準特徴点選択処理とをコンピュータに行
わせることを特徴とする。この発明によれば、予め記憶
された物体情報と抽出された特徴点とを比較して、相関
が高い特徴点を既知と特徴点と見なして自己位置を算出
するための基準特徴点とするようにしたため、より正確
に自己の位置を検出することができるという効果が得ら
れる。
【0018】請求項14に記載の発明は、前記特徴点選
択処理は、既知と見なされた特徴点が存在する画像中の
未知の特徴点と既知の特徴点との相対関係を求め、該未
知の特徴点を既知の特徴点として記憶することにより前
記物体情報を更新することを特徴する。この発明によれ
ば、既知と見なされた特徴点が存在する画像中の未知の
特徴点と既知の特徴点との相対関係を求め、該未知の特
徴点を既知の特徴点として記憶することにより前記物体
情報を更新するようようにしたため、物体情報の更新を
自動的に行うことができるという効果が得られる。
【0019】請求項15に記載の発明は、移動体の自己
位置を検出するための位置検出プログラムであって、前
記位置検出プログラムは、前記移動体の前方視野の画像
を取得する画像取得処理と、前記画像中の特徴点群を抽
出する特徴点群抽出処理と、予め画像取得処理で得られ
た画像における特徴点群と当該特徴点群を得た位置を対
応させて複数記憶しておき、新たに得られた画像の特徴
点群と予め記憶された特徴点群の相関を算出して、自己
の位置を算出する自己位置検出処理とをコンピュータに
行わせることを特徴とする。この発明によれば、予め画
像取得処理で得られた画像における特徴点群と当該特徴
点群を得た位置を対応させて複数記憶しておき、新たに
得られた画像の特徴点群と予め記憶された特徴点群の相
関を算出して、自己の位置を算出するようにしたため、
幾何学的にロボットの位置が得られない場合であっても
過去の位置検出結果に基づいて自己の位置を検出するこ
とができるという効果が得られる。
【0020】
【発明の実施の形態】<第1の実施形態>以下、本発明
の第一の実施形態による位置検出装置を図面を参照して
説明する。図1は同実施形態の構成を示すブロック図で
ある。ここでは、図1に示す位置検出装置は屋内を移動
する自律走行のロボットに備えられているものとして説
明する。この図において、符号1は、ロボットが移動す
る際の移動方向の視野内に存在する物体を撮像する2台
のカメラであり、所定の間隔で設置され、互いの視野角
は一致している。符号2は、カメラ1において得られた
画像の1フレーム分をそれぞれ記憶する距離画像記憶部
であり、2フレーム分の画像メモリからなる。符号3
は、画像記憶部2に記憶されている2フレームの画像か
ら距離画像を生成する距離画像生成部である。符号4
は、距離画像生成部3において生成された距離画像を記
憶する距離画像記憶部である。符号5は、画像記憶部2
または距離画像記憶部4に記憶されている画像から特徴
点を抽出する特徴点抽出部である。符号6は、特徴点抽
出部5における特徴点抽出結果に基づいて自己の位置の
検出を行う位置検出部である。符号7は、位置検出部6
による位置検出結果を参照してロボットの移動を制御す
る移動制御部である。
【0021】ここで、以下の説明において用いる座標系
を定義する。ロボットが初期状態であるときの前方の距
離方向をX軸、ロボットの左右方向をY軸、鉛直方向を
Z軸とし、これらの3軸は互いに直交している。また、
以下でいう距離とは、カメラ1から各物体までの直線距
離である。したがって、距離画像データは、カメラ1の
視野における物体表面の測定点の3次元座標値の集合で
ある。
【0022】次に、図面を参照して、図1に示す位置検
出装置の動作を説明する。図2は、特徴点抽出部5及び
位置検出部6が画像記憶部2に記憶されている輝度画像
と、距離画像記憶部4に記憶されている距離画像とか
ら、特徴点を連続時間でトラッキングし、その位置情報
を基に自己の位置検出を行う動作を示すフローチャート
である。図2のフローチャートに示す各処理は、カメラ
1によって画像を撮像する度に繰り返し実行される。
【0023】まず、2台のカメラ1は、ステレオカメラ
として動作し、各カメラで輝度画像を取得し、画像記憶
部2へそれぞれ格納する。続いて、画像記憶部2に輝度
画像が記憶されたのを受けて距離画像生成部3は、2つ
のカメラ1で取得した2枚の輝度画像からそれぞれの画
像の画素の対応点を求めることによって距離画像を生成
し、距離画像記憶部4へ格納する。ここでは、少ない画
素でより精度の良い距離画像を得るために画素間を補間
するいわゆるサブピクセルを用いて距離画像を作成す
る。なおここでは、一例として各画素の輝度画像及び距
離画像を256階調で表現するものとする。通常の画像
の画素は、センサの視野内における物体表面の輝度を表
現したものであるが、距離画像の画素は、センサの視野
内における物体表面までの距離を256階調で表現した
ものである。したがって、距離画像中の画素の位置によ
ってカメラ位置からの3次元空間に存在する物体表面上
の1点へのXYZ座標を特定することができる。なお、
より高精度な距離精度が必要な場合には、カメラに換え
てレーザレーダ、ミリ波レーダや超音波を用いたレーダ
を併用するなどして精度を向上させることもできる。ま
た、カメラ1は赤外線カメラでもよい。さらに、距離デ
ータを256階調で表現せずに、距離センサの出力値を
そのまま使用するようにしてもよい。カメラ1と距離画
像生成部3は、この動作を繰り返し実行する。一方、特
徴点抽出部5は、画像記憶部2に記憶されている画像を
読み出す(ステップS1)。
【0024】次に、特徴点抽出部5は、読み出した輝度
画像から特徴点を抽出して、この特徴点を特徴点抽出部
5内に保存する(ステップS2)。ここでいう特徴点と
は、画像処理で用いられる不変特徴量に相当し、画像中
に現れている像を特徴付ける点のことである。この特徴
点の抽出は、例えば輝度画像に対してエッジ検出処理を
施し、検出されたエッジを構成する点を選択することに
よって行う。なお、特徴点抽出部5は、距離画像記憶部
4に記憶されている距離画像を読み出し、この距離画像
から特徴点を抽出するようにしてもよい。特徴点は、連
続して取り込まれた2枚の輝度画像を用いて作成され
る。ここでは、それぞれの時刻を「t」と「(t+
1)」と表記する。また、特徴点抽出においては、左右
いずれか一方のカメラ1から得られた輝度画像を用いて
おり、時刻(t+1)の入力画像から抽出した特徴点の
集合と、入力画像の直前の時刻tの画像から抽出した特
徴点の集合の2種類の特徴点が保存される。この特徴点
は、画像上の座標値が保存される。
【0025】次に、これらの2つの異なる時刻の特徴点
の対応点を求めるために、位置検出部6は、特徴点抽出
部5内に保存されている入力画像の特徴点を1つ読み出
す(ステップS3)。続いて、位置検出部6は、特徴点
抽出部5内に保存されている直前の画像の特徴点を1つ
読み出す(ステップS4)。ここで、直前の時刻tと
は、現在説明しているステップS1〜S17が前回行わ
れた時刻であり、2つの異なる時刻tと(t+1)との
対応点は、ステップS1〜S17が2回以上実行される
ことで得られる。よって初めてステップS1〜S17が
実行されるときは、例外処理としてステップS3まで実
行してステップS1へ戻ることになる。
【0026】次に、位置検出部6は、2つの特徴点の確
からしさCAを算出し時刻tで保存された特徴点とパタ
ーンマッチングを行う(ステップS5)。ここで、図3
を参照して、2つの特徴点の確からしさCAを算出する
処理の詳細を説明する。まず、特徴点を抽出した入力画
像に対して、特徴点の周囲のm画素×n画素(ただし、
m、nは2以上の自然数)を選択する。そして、直前画
像の特徴点の周囲のm画素×n画素(ただし、m、nは
2以上の自然数)を選択する。このとき、2つの特徴点
の周囲の画素の選択する大きさ(m×n)は任意に決定
してよいが、2つの選択する画素数は同一でなければな
らない。
【0027】この選択動作によって、256階調の輝度
値(0〜255の整数)を有したm×n個の輝度値の集
合、すなわちg1={g11,g12,・・・,g
mn}、g2={g21,g22,・・・,g2mn}が得
られる。そして、得られた2つの輝度値の集合のうち、
対応する画素毎の輝度値の減算を行い、その減算結果を
加算することによって、確からしさCAを算出する。す
なわち、CA=|(g11−g21)|+|(g12−g2
2)|+…+|(g1mn−g2mn)|によって算出され
る。この演算によれば、2つの輝度値集合が全く同一で
あれば確からしさCAは「0」となるはずである。した
がって、この演算によって算出されたCAが小さいほど
2つの特徴点が同一である可能性が高くなる。
【0028】次に、位置検出部6は、算出した確からし
さCAとしきい値TCを比較して(ステップS6)、CA
がTCより小さい場合、連続時間の特徴点移動量として
の座標値から変位ベクトルdaを算出して、位置検出部
6内に保存する(ステップS7)。一方、CAがTCより
小さい場合、ステップS8へ進む。
【0029】次に、位置検出部6は、直前の画像の特徴
点の全てについて処理したか否かを判定し(ステップS
8)、処理していなければステップS4へ戻り処理を繰
り返す。一方、直前の画像の特徴点の全てについて処理
が終了した場合、位置検出部6は、入力画像の特徴点の
全てについて処理したか否かを判定し(ステップS
9)、処理していなければステップS3に戻り処理を繰
り返す。一方、入力画像の特徴点の全てについて処理が
終了した場合、ステップS10へ進む。
【0030】このように、ステップS3〜S9の処理に
よって、入力画像(時刻t+1)の特徴点と直前画像
(時刻t)の特徴点との対応付けがされ、さらに、対応
付けされた特徴点の変位ベクトルdaが算出されて保存
された状態となる。ただし、変位ベクトルdaが算出さ
れるのは、2つの特徴点の確からしさが所定のしきい値
Tcを超えている場合のみであるために、算出される変
位ベクトルdaの個数は処理の度に異なる。ここでは、
直前の画像の特徴点の全てについて処理を行ったが、計
算処理の負荷を低減するために、必要とする移動量に合
わせ、求める特徴点の近傍のみを計算して求めるように
してもよい。
【0031】次に、位置検出部6は、保存されている変
位ベクトルdaを読み出し、平均変位ベクトルTdを算
出する(ステップS10)。次に、位置検出部6は、保
存されている変位ベクトルdaを1つずつ読み出す(ス
テップS11)。そして、位置検出部6は、|ベクトル
Td−ベクトルda|を算出してこの値が、所定のしき
い値Aより小さいか否かを判定する(ステップS1
2)。この判定によって、算出された変位ベクトルda
の各々が平均変位ベクトルTdとどの程度の差を持って
いるかが判定される。
【0032】この判定の結果、算出した差(|ベクトル
Td−ベクトルda|)がしきい値Aより小さい場合、
位置検出部6は、該当する変位ベクトルdaを算出する
ときに用いられた特徴点を静止物体であると判断する
(ステップS13)。一方、しきい値Aより大きい場
合、位置検出部6は、該当する変位ベクトルdaを算出
するときに用いられた特徴点を移動物体と判断する(ス
テップS14)。この処理は、算出された全ての変位ベ
クトルdaに対して行われ(ステップS15)、これに
よって、特徴点の各々について、静止物体であるか移動
物体であるかの判断が行われる。
【0033】次に、位置検出部6は、静止物体であると
判断された特徴点のうち、確からしさCAが上位の特徴
点を抽出する(ステップS16)。ここでいう確からし
さCAが上位とは、CAの値が小さいほど上位であること
を意味する。この抽出処理によって抽出される特徴点
は、入力画像(時刻t+1)の特徴点と対になる直前の
画像(時刻t)の特徴点であり、これらの特徴点が自己
位置算出の基準特徴点となる。
【0034】次に、位置検出部6は、抽出した各々の基
準特徴点と距離画像記憶部4に記憶された距離画像との
対応点より特徴点の距離を求め、その特徴点とロボット
の相対的位置の移動量に基づいて、直前の画像を取得し
た時点から現時点の画像(入力画像)を取得した時点ま
でにロボットが移動した量を算出する(ステップS1
7)。ステップS17の処理が終了しロボットの位置が
決定されると再びステップS1へ戻り、記憶されている
前回対応がとれた特徴量に対して同様の処理を繰り返
す。
【0035】ここで、図4を参照して、自己位置を算出
する原理を説明する。ここでの座標系は、ロボットが初
期状態であるときに定義される座標系であり、ロボット
の前方方向をX軸、このX軸に直交する方向をY軸とす
る。図4において、a、bはそれぞれ建造物内の柱など
の任意の特徴点であり、前述した処理によって抽出され
る。ロボットが画像を取得することによって得られる情
報は、図4に示す特徴点aの相対的位置(xa,ya)及
び特徴点bの相対的位置(xb,yb)である。ここでの
φはz軸回りのロボットの回転角で反時計回りを正とす
る。
【0036】ここで、a,bの絶対位置は既知であり、
a(ax,ay)、b(bx,by)と仮定すると、abの
相対的座標値(xa,ya),(xb,yb)を用いてロボ
ットの絶対位置(xt,yt)はa,b点を中心とした半
径l1=√(xa 2+ya 2),l2=√(xb 2+yb 2)の円
の交点となる。原点(0,0)からロボット位置
(xt,yt)までのベクトルをP→(以下の説明におけ
るベクトル表現を「P→」とし、図面においては、Pの
頭に→を付ける)とし、原点からのa,bまでのベクト
ルをa→,b→、ロボットの位置(xt,yt)からa,
bそれぞれの点へのベクトルをl1→,l2→とすると、
ロボットの回転角φが0の場合、P→=(a→)−(l
1→),P→=(b→)−(l2→)の関係が成り立つ。
また、ロボットの回転角φが0でない場合は、ベクトル
1→,l2→をそれぞれ(−φ)だけ回転させたベクト
ルが成立する。また、ロボットのZ軸方向の回転角φを
考慮すると、aに関していえば、 tan-1(ay/ax)−tan-1(ya/xa)=φ と決定される。また、bに関していえば、 tan-1(by/bx)−tan-1(yb/xb)=φ と決定される。
【0037】これによって、ロボットの回転角φとロボ
ットの位置(xt,yt)を求めることができる。上記の
説明においては、a,bを既知として仮定したが、ここ
では、未知の物体も扱うので、a,bの絶対位置は求め
られていないので、時刻tにおいて、ロボットの位置を
基にa,bの位置を決定し、時刻t+1において得られ
たa,bの相対位置の変化量daを基に、ロボット位置
の変化量(ロボットの移動量)を求め、既知の絶対位置
座標にこの変化量を加算することで、時刻t+1のロボ
ット位置を求めることができる。もちろんa,bが既知
である場合はa,bの相対位置を基にロボット位置を容
易に決定できる。
【0038】算出された位置は、移動制御部7へ通知さ
れ、移動制御部7においては、この位置に基づいて、ロ
ボットの移動制御が行われる。また、移動制御部7は、
位置検出をする必要がある場合に、特徴点抽出部5に対
して位置検出指示を出力するようにして、この位置検出
指示を受けて、特徴点抽出部5は図2に示す処理を開始
するようにしてもよい。このようにすることによって、
例えば、図1に示す位置検出装置を自動車に備え、トン
ネル等へ進入した時点で画像による位置検出を行うよう
にすれば、GPSによる位置検出ができなくなった場合
であっても位置検出を継続することができる。
【0039】このように、連続して取り込まれる画像か
ら同一の静止物体を連続してトラッキングすることで、
この静止物体の刻々と変化する位置の変位を求め、この
変位量から自己の移動量を刻々と求めるようにしたた
め、精度良く自己位置の検出を行うことができる。ここ
では、連続する2枚の画像でトラッキング処理を行う例
を説明したが、信頼性や精度向上のために2枚以上の画
像から特徴点の移動経歴を求め、静止物体を抽出しトラ
ッキングするようにしてもよい。このように、ターゲッ
トとなる特徴点の位置が既知の場合は、ロボットの絶対
的位置を決定でき、また、未知の場合は時刻tにおける
ターゲットの相対的位置とロボット位置(xt,yt)に
よりターゲットの位置を決定し、そのターゲット位置の
時刻t+1の位置の変化量をもとにロボット位置(x
t+1,yt+1)を求めることができる。また、連続時間K
だけ同じターゲットをトラッキングし続けた場合は、同
様にして、(xt+k,yt+k)のk時間の変化量を基に時
刻t+kの位置を検出することができる。
【0040】なお、図1に示す距離画像生成部3は、超
音波や電磁波を用いたレーダ等に置き換えてもよい。こ
のとき、レーダの計測視野を図1に示すカメラ1と同一
になるように設定する。また、レーダ等を用いて距離画
像を得る場合は、輝度画像を得るカメラ1は1台のみを
備えていればよい。
【0041】また、移動体が移動している場合、特徴点
に近づくに従いフレームから特徴点が外れてしまうこと
があり、位置の検出ができなくなってしまうため、複数
の特徴点全てについて図2に示す処理を行うことによっ
て、移動量を算出する特徴点を次々に切り替えていくよ
うにする。ただし、この場合、移動体から離れるにした
がって、計測距離の誤差が移動体から近い場合に比べて
大きくなるため、フレーム内に存在する特徴点のうち距
離が短い特徴点を優先的に選択して移動量の算出を行う
ようにすれば、移動の精度が悪化することを防止するこ
とができる。また、移動体の回転(自転)によって、フ
レームから1度外れてしまった物体は位置を記憶してお
き、同じ物体が再びフレーム内に戻ってきたときに同一
物体としてトラッキングするようにしてもよい。
【0042】<第2の実施形態>次に、従来技術のよう
に詳細な地図を持たずに、最小限の地図情報に基づいて
自己の位置を検出する第2の実施形態を図5〜9を参照
して説明する。図5は、他の実施形態の構成を示すブロ
ック図である。図5に示すブロック図が図1に示すブロ
ック図と異なる点は、新たに物体情報記憶部8を設けた
点である。この物体情報記憶部8は、特徴量として予め
既知の複数の静止物体の特徴点の集合と、その静止物体
の絶対位置が対応付けられて物体の地図として記憶され
ているものであり、特徴点抽出部5、及び位置検出部6
によって参照される。ここでいう既知の静止物体とは、
部屋の中の柱や植木、ロッカーなどの家具などである。
また、どのような位置の物体を記憶しておくかは特に制
限はないが、移動体が移動する際に行動を変化させる位
置、すなわち曲がり角、ドアの前等の付近に存在する特
徴物を優先的に記憶するようにしておけば、効率良くか
つ精度良く移動体の制御が可能となる。
【0043】次に、図6を参照して、図5に示す位置検
出装置の動作を説明する。ここで、カメラ1、画像記憶
部2、距離画像生成部3、距離画像記憶部4の動作は、
前述した実施形態における動作と同様なので説明を省略
する。図6のフローチャートに示す各処理は、カメラ1
によって画像を撮像する度に繰り返し実行される。ま
ず、特徴点抽出部5は、画像記憶部2に記憶されている
画像を読み出す(ステップS21)。そして、特徴点抽
出部5は、読み出した輝度画像から特徴点を抽出して、
この特徴点を特徴点抽出部5内に保存する(ステップS
22)。
【0044】ここでいう特徴点とは、画像処理で用いら
れる不変特徴量に相当し、画像中に現れている像を特徴
付ける点のことである。また、特徴量とは、物体形状を
構成する複数の特徴点群のことである。この特徴点の抽
出は、例えば画像に対してエッジ検出処理を施し、検出
されたエッジを構成する特徴点を複数選択することによ
って行う。なお、特徴点抽出部5は、距離画像記憶部4
に記憶されている距離画像を読み出し、この距離画像か
ら特徴点を抽出するようにしてもよい。特徴点は、時刻
tの画像(直前の画像)から抽出した特徴点の集合が保
存され、この特徴点は、画像上の座標値が保存される。
【0045】次に、特徴点抽出部5は、内部に保存され
ている特徴点を1つずつ読み出し、物体情報記憶部8に
記憶されている複数の物体情報の特徴点群(特徴量)と
パターンマッチングすることによって比較する(ステッ
プS23)。この比較処理は、前述した実施形態の処理
(図2に示す処理)と同様の処理によって行う。またこ
こでいう物体情報とは、予め得られた画像から静止物体
の特徴点を抽出しておき、この特徴点とこの静止物体が
存在する位置の絶対座標からなる情報である。ここで、
用いるパターンマッチング手段としては単純なテンプレ
ートマッチング法を利用してもよい。
【0046】続いて、特徴点抽出部5は、ステップS2
2で得られた特徴点と一致するまたは確からしさが大き
い、すなわち相関が高い物体情報が物体情報記憶部8に
存在したか、すなわち既知の物体があったか否かを判定
する(ステップS24)。この結果、既知の物体が存在
した場合、位置検出部6は、この既知の静止物体と自己
の相対位置から自己の絶対位置を求める(ステップS2
5)。この絶対位置は、既知の物体の絶対座標と、距離
画像記憶部4に記憶された距離画像から得られる既知の
物体と自己の相対位置関係とから算出する。
【0047】次に、ステップS24において、既知の物
体が存在しなかった場合、特徴点抽出部5は、ステップ
S22において抽出した特徴点が移動物体であるか静止
物体であるかを判定する(ステップS26)。判定の結
果得られた静止物体は直前に求められた自己の位置情報
を基に自己との相対的位置関係よりそれぞれ絶対位置を
求める(ステップS27)。この判定処理は、図2に示
すステップS4〜S13,S14の処理によって行う。
そして、この判定処理の結果得られた静止物体は直前の
処理(時刻t)においてもトラッキングできていたかを
判定する(ステップS28)。この判定は、直前に物体
情報記憶部8に記憶された特徴量と今回の特徴量をパタ
ンパターンマッチングして一致量を比較し判定する。ま
た、直前にステップS30で物体情報記憶部8に記憶さ
れた特徴量の絶対位置とステップS27で求めた位置と
を比較し、近傍であった場合トラッキングできたと判定
を加えてより精度を上げることもできる。この判定の結
果、直前の処理においてもトラッキングできた特徴点で
ある場合、位置検出部6は、静止物体と自己との相対位
置から自己の絶対位置を求める(ステップS29)。
【0048】一方、ステップS28において、特徴点が
トラッキングできておらず新規のものである場合、特徴
点抽出部5は、新規の静止物体の特徴点と直前のステッ
プS25またはS29で求められた時刻tの自己の絶対
位置を基に新規の特徴点の絶対位置を決定し物体情報記
憶部8に記憶する(ステップS30)。この移動量の算
出は、図2に示すステップS3〜S17の処理によって
行う。
【0049】前述したステップS28での判定におい
て、近傍か否かに判断は距離のしきい値を定め、直前の
位置と今回の位置がこの距離内にあるか否かによって判
断する。しかし、画像によっては得られる距離にばらつ
きやノイズが大きい場合は、統計的処理を行ってもよ
い。これは、連続時間だけある特徴量がトラッキングで
きていたとすると、その特徴量の画像上の位置に対する
距離画像によって得られる自己に対する相対的位置
(x,y)のばらつきの分散値を刻々計算し、分散値が
収束した時点で、分散の範囲内にあるものを同一の物体
とし、分散外にあるものを別物体と判定するようにして
もよい。この分散値はステレオカメラの特性や物体によ
っても異なるため、予め設定された分散既定値を用いて
もよいし、物体情報記憶部8に物体毎に設定し記憶され
た既定値を用いてもよい。また、ステレオカメラの特性
として距離の2乗で精度が落ちることから分散値を距離
の2乗で変化させるなどの関数を用いてもよい。
【0050】ここで、ステップS25、S29における
絶対位置の算出方法を図7を参照して説明する。図7に
おいて、符号ARは、行動エリアを示しており、予めこ
の行動エリアAR内の原点Gが決定されている。符号R
は、ロボットであり、符号K4は、既知の静止物体であ
り、符号U5は、未知の物体である。図7においては、
簡単にするためにロボットRの回転角φは無視してい
る。このような状態であるときに、絶対位置が既知であ
る物体K4の絶対座標値(x1,y1)と、この既知物体
K4とロボットRに相対位置(x2、y2)に基づいて、
ロボットRの絶対位置(Rx,Ry)は、(Rx,Ry)=
(x1+x2,y1−y2)によって自己の絶対位置を求め
る。また、同様に未知の物体U5の絶対位置の座標値
(x4,y4)は、(x4,y4)=(x1+x2+x3,y1
−y2+y3)によって求める。図8に示すように、既知
の静止物体Kと未知の静止物体Uがカメラによって同時
に撮像された場合に、未知の物体Uの絶対座標を計算に
よって求めておくようにしたため、ロボットRが符号
R’の位置まで移動した場合に既知物体Kを撮像するこ
とができず未知の物体Uのみが撮像された場合でも、予
め計算しておいた絶対座標を利用することが可能とな
る。
【0051】なお、ステップS28の判定は、抽出され
た特徴量が複数の場合は、全てに対して行われ、ステッ
プS29においては全ての特徴量との相対位置から自己
の位置を求め、平均値によって自己の絶対位置を求める
ようにする。このように、既知の物体、未知の物体、未
知の物体のうち計算によって位置が既知になった物体の
状況に応じて、自己の絶対位置を求めるようにしたた
め、移動制御部7は精度良く移動制御を行うことが可能
となる。
【0052】次に、図9を参照して、具体例を挙げて動
作を説明する。ここでは、ロボットは、A地点からB地
点へ移動し、さらにC地点へ移動する場合の動作を例に
して説明する。まずA地点において、ステップS23の
比較処理の結果、絶対座標が既知である物体K1、K
2、K3が存在することを認識する。そして、位置検出
部6は、物体K1、K2、K3の3つの物体のうち、物
体K3は距離が長いため、物体K1、K2の絶対位置の
座標値から自己の絶対位置を求める(ステップS2
5)。このとき、位置検出部6は、未知物体U1、U2
の絶対位置の座標値を計算によって求めて、内部記憶し
ておく(ステップS30)。そして、ロボットは、絶対
位置が既知となった未知物体U1、U2の位置に基づい
て自己位置を求めながら(ステップS29)移動し、さ
らに未知物体U1、U2が撮像できない位置へ到達した
場合に、既知物体K3に基づいて自己位置を求めながら
(ステップS25)、B地点まで移動し、B地点の絶対
位置を求める。これによって、未知物体U1、U2に関
する位置情報と物体情報が更新されることになる。
【0053】次に、ロボットは、方向転換し、C地点方
向へ向く。このとき、カメラ1には、未知の物体U3、
U4が撮像される。ただし、この場合、90°向きを変
えたため、未知の物体U3、U4が撮像された画像に
は、既知の物体が撮像されない場合もある。このような
時には、未知物体U3、U4に基づいて移動量を求め、
B地点の絶対座標値に求めた移動量を加算することによ
って自己位置を求める(ステップS29)。そして、C
地点まで移動する途中で既知物体が撮像された場合、こ
の既知物体に基づいて自己の絶対位置を求め、移動量に
よって求めた絶対位置の誤差をリセットする。
【0054】このように、未知の物体の位置に基づい
て、自己の絶対位置を求める場合、距離画像から得られ
る相対位置の誤差が累積されるが、既知の物体が撮像さ
れた場合に、自己の位置をこの既知の物体から求めるよ
うにしたため、累積した誤差をリセットすることが可能
となり、精度の良い位置検出が可能となる。次に、もう
一度同じエリアにおいて移動を行う際は、地点Aに移動
した場合、前回未知物体U1、U2は地図位置情報と物
体情報が内部に記憶されているため既知物体として使わ
れる。また、未知物体U3、U4も同様である。また、
前回既知の物体が今回存在することが認識できない場合
は、その物体が移動物体である可能性があるため、物体
情報として移動物体である可能性があること記憶して検
出対象から外すなどの処理を加えてもよい。
【0055】ところで、画像から得られる距離情報には
ばらつきが大きいことがあり、上記の方法によってロボ
ットの位置を求めるのは困難である場合がある。そのた
め、ロボットの位置は、抽出した基準特徴点に基づき、
カルマンフィルタを使用して算出するようにしてもよ
い。このカルマンフィルタを用いることによって、距離
情報のばらつきなどを考慮してロボットの位置を算出す
ることができる。
【0056】ここで、カルマンフィルタを用いた場合の
ロボット位置算出の処理について説明する。ここで用い
るカルマンフィルタは拡張カルマンフィルタであり、状
態方程式を(1)式に示す。ここで、ロボットの状態を
表現する変数をx,y,φ,Tの4つで表現し、
【数1】 と定義すると、xt,ytは、xy軸上のx,y値、φt
はz軸まわりの回転角、Ttは時間ステップtから(t
+1)で移動する距離である。
【数2】 (1)式において、右辺2番目の項は移動制御部7から
の時刻tにおける移動制御変化量であり、3番目の項は
時刻tにおけるロボット制御のシステムノイズを表す。
ここで用いる座標系は図5と同様であり、また、図10
にロボット位置の状態を表す各パラメータの意味を示
す。また、(2)式は、特徴点aの観測方程式であり、
(3)式は、特徴点bの観測方程式であり、これらの式
はロボットから見た特徴点a,bの相対的計測値を示す
ものである。この計測式は、図5に示す座標系に基づい
て幾何学的に作成される。この計測量を表現する変数を
x,y,θの3つで表現し、
【数3】 となる。ここで、(2)、(3)式の右辺2項目は計測
ノイズを表す。
【0057】上記の(1)〜(3)式は図2に示すステ
ップS25、S29における処理に用いられるものであ
り、これらの式を画像が取得される度に演算を行うこと
によって、ロボットの回転角φt+1とロボットの位置
(xt+1,yt+1)を求めることができる。この拡張カル
マンフィルタを用いることによって、前述した幾何学的
に算出するのに比べ、システムノイズ及び計測ノイズが
考慮されているために精度良くロボットの位置検出を行
うことができる。また、カルマンフィルタを用いたとき
は、ステップS28の判断において特に明記していない
が、カルマンフィルタ内で収束する特徴点に対する観測
値の共分散を、その特徴点の分散値として用いることも
できる。
【0058】なお、本実施形態においては対象となる物
体の座標はx,y平面で説明したが、高さ方向(z方
向)に拡張にして自己の位置を、高さを含めて決定する
ようにしてもよい。
【0059】<第3の実施形態>次に、ロボットが移動
する環境において、オクルージョンなどの要因で特徴物
に対する相対位置を個別に決定できない場合に、複数の
特徴点群とこれらの特徴点群が得られた場所の位置の情
報を全て予め記憶しておき、この情報を参照しながら自
己の位置を決定する第3の実施形態を説明する。図11
は、第3の実施形態における位置検出装置の構成を示す
ブロック図である。この図において、符号1はカメラで
あり、符号5は特徴点抽出部である。符号8は、物体情
報記憶部である。符号9は、2つの特徴点の相関を求め
る相関処理部である。符号10は、相関処理部9の処理
結果に基づいて自己位置を決定する自己位置決定部であ
る。図11においては、得られた画像を記憶する画像記
憶部2、及び移動制御部7は省略されている。また、第
3の実施形態においては、距離画像を必要としないた
め、関係する構成要素は削除されている。
【0060】まず、図13、14を参照して自己位置を
求める原理を簡単に説明する。図13は、位置Mにおい
てロボットの進行方向F→のシーンをカメラで撮影し、
得られた画像から特徴点群を選択している図である。こ
のとき、選択される特徴点群をWとすると、特徴点群W
は位置Mと関連付けられ、物体情報記憶部8に記憶され
る。ここでの特徴点群は個々にオクルージョンなどによ
り相対位置を特定できないものであるため、特徴点全体
に対し記憶した位置を関連付けることとなる。
【0061】図14は、特徴点群を記憶する位置が9ヶ
所(M1〜M9)ある時の例であり、ロボットが通過す
るであろう位置に予め設定されるものである。予め設定
された各位置M1〜M9のそれぞれからロボットの進行
方向F→の方向に向けられたカメラで撮像された画像の
中から抽出した特徴点群をW1〜W9とすると、それぞ
れの位置(特徴点取得位置という)M1〜M9と特徴点
群W1〜W9はそれぞれ対になるように対応付けられて
物体情報記憶部8に予め記憶される。そして、ロボット
が未知の位置を通過中に、進行方向F→の方向に向けら
れたカメラで撮像された画像の中から抽出された特徴点
群と予め記憶された特徴点群W1〜W9との相関を求
め、この相関が最も高い特徴点群Wn(nは1〜9のい
ずれか)を自己が通過中の位置と判断し、この特徴点群
Wnと対になる特徴点取得位置Mn(nは1〜9のいず
れか)が自己位置となる。例えば、特徴点群W4とカメ
ラで撮像された画像から抽出された特徴点群とが最も良
く相関が取れるとき、この特徴点群W4を取得した位置
M4を自己位置と決定する。
【0062】次に、図12を参照して、図11に示す位
置検出装置が自己位置を求める具体的な動作を説明す
る。まず、特徴点抽出部5は、カメラ1で撮像された画
像を読み出す(ステップS41)。そして、特徴点抽出
部5は、読み出しだ画像から全ての特徴点群を抽出し、
内部に保存する(ステップS42)。一方、相関処理部
9は、物体情報記憶部8に記憶されている特徴点群を1
つ読み出す(ステップS43)。続いて、相関処理部9
は、入力画像(カメラ1で撮像した画像)の特徴点を特
徴点抽出部5から1つ読み出す(ステップS44)。さ
らに、相関処理部9は、ステップS43で読み出した特
徴点群から1つの特徴点を選択する(ステップS4
5)。
【0063】次に、相関処理部9は、ステップS44で
読み出した特徴点とステップS45で選択した特徴点と
の確からしさCAを算出し(ステップS46)、予め決
められたしきい値Tcと比較する(ステップS47)。
この結果、CA>TcでなければステップS49へ進
む。一方、CA>Tcであれば、処理ループ毎に求めら
れたCAの和Sを求める(ステップS48)。ただし、
CAの和Sは、特徴点群毎に求めるため、確からしさCA
の和Sは特徴点群の数だけ得られることとなる。そし
て、相関処理部9は、ステップS43で読み出した特徴
点群を構成する特徴点の全てについて、ステップS45
〜S48の処理を繰り返す(ステップS49)。
【0064】次に、相関処理部9は、ステップS42で
保存された特徴点群を構成する特徴点の全てについて、
ステップS44〜S48の処理を繰り返し(ステップS
50)、さらに、ステップS42で保存された特徴点群
の全てに対してステップS43〜S48の処理を繰り返
す(ステップS51)。ステップS42〜S48におけ
る処理は、入力画像から抽出した特徴点群を構成する特
徴点と物体情報記憶部8に記憶されている特徴点とをそ
れぞれ総当たりで確からしさを求めている処理である。
なお、ステップS44〜S50の処理において、画像ピ
クセルの近いものを選択して確からしさを求めることで
処理負荷を低減するようにしてもよい。
【0065】次に、自己位置決定部10は、ステップS
48で求めた確からしさCAの和Sが大きい特徴点群を
選択する(ステップS52)。そして、選択した特徴点
群と対になる特徴点取得位置を物体情報記憶部8から読
み出すことによって、自己の位置を求め(ステップS5
3)、この位置を自己位置情報として出力する。
【0066】また、図15に示すようにロボットのステ
レオカメラを構成する左右の2台のカメラを利用し、各
カメラ毎に予め記憶された特徴点群Wと比較し、相関を
演算するようにしてもよい。このようにすることによっ
て、同一の特徴点群Wに対するカメラの画像の相関度の
大きさの違いによって、自己の位置を決定することがで
きる。すなわち、特徴点群Wに対応した位置Mに対して
各カメラで検出された相関値の差から位置Mの左右のオ
フセット方向を検出できる。このことにより、特徴点群
を得る位置Mのうち左右方向の数を少なくすることがで
きるため、予め画像を撮像する手間が大幅に削減でき
る。また、ステレオカメラを構成するカメラが2台以上
である場合は、左右方向に並ぶカメラを選択して利用す
ればよい。
【0067】このように、ロボットの行動可能範囲にお
ける特徴点群とこれらの特徴点群を取得した位置を、ロ
ボット内に予め記憶しておき、ロボットが行動を起こす
ときに得られた画像から抽出された特徴点群と相関が高
い特徴点群を記憶された中から選択し、この選択された
特徴点群が取得された位置を自己位置とするようにした
ため、ロボットが決められた屋内で行動する場合などに
おいて、容易に自己位置検出行うことが可能となる。
【0068】前述した図13、14の説明においては、
各位置M1〜M9における画像撮像の方向を1方向とし
て説明したが、各位置において複数の方向の画像を撮像
し、得られた画像の全てについて特徴点群を抽出して、
物体情報記憶部8に記憶しておけば、各位置におけるロ
ボットの進行方向が異なっても同様の処理によって、自
己位置を検出することが可能となる。また、ロボット
は、自己に備えられたカメラのズーム機能を用いて、拡
大・縮小させた画像から特徴点群を抽出するようにして
もよい。このようにすることによって、図14に示す位
置M2とM5の中間に位置するような場合の相関を取り
やすくすることができる。さらに、ロボットは、カメラ
が備えられた頭部を左右上下に振った状態で得られた画
像から特徴点群を抽出するようにしてもよい。このよう
にすることによって、記憶された特徴点群を取得した時
の進行方向と異なる行動をしている場合であっても特徴
点の相関を取りやすくすることが可能となる。
【0069】また、前述した3つの実施形態における位
置検出処理を、ロボットが移動する環境に応じて適宜組
み合わせたり、必要な処理を選択するようことによって
自己位置を検出するようにしてもよい。
【0070】また、図2、図6、図12に示す処理を実
現するためのプログラムをコンピュータ読み取り可能な
記録媒体に記録して、この記録媒体に記録されたプログ
ラムをコンピュータシステムに読み込ませ、実行するこ
とにより位置検出処理を行ってもよい。なお、ここでい
う「コンピュータシステム」とは、OSや周辺機器等の
ハードウェアを含むものとする。また、「コンピュータ
システム」は、WWWシステムを利用している場合であ
れば、ホームページ提供環境(あるいは表示環境)も含
むものとする。また、「コンピュータ読み取り可能な記
録媒体」とは、フレキシブルディスク、光磁気ディス
ク、ROM、CD−ROM等の可搬媒体、コンピュータ
システムに内蔵されるハードディスク等の記憶装置のこ
とをいう。さらに「コンピュータ読み取り可能な記録媒
体」とは、インターネット等のネットワークや電話回線
等の通信回線を介してプログラムが送信された場合のサ
ーバやクライアントとなるコンピュータシステム内部の
揮発性メモリ(RAM)のように、一定時間プログラム
を保持しているものも含むものとする。
【0071】また、上記プログラムは、このプログラム
を記憶装置等に格納したコンピュータシステムから、伝
送媒体を介して、あるいは、伝送媒体中の伝送波により
他のコンピュータシステムに伝送されてもよい。ここ
で、プログラムを伝送する「伝送媒体」は、インターネ
ット等のネットワーク(通信網)や電話回線等の通信回
線(通信線)のように情報を伝送する機能を有する媒体
のことをいう。また、上記プログラムは、前述した機能
の一部を実現するためのものであっても良い。さらに、
前述した機能をコンピュータシステムにすでに記録され
ているプログラムとの組み合わせで実現できるもの、い
わゆる差分ファイル(差分プログラム)であっても良
い。
【0072】
【発明の効果】以上説明したように、この発明によれ
ば、連続する2フレームの画像から同一の静止物体を抽
出し、この静止物体の変位を求め、この変位量から自己
の移動量を求めるようにしたため、精度良く自己位置の
検出を行うことができるという効果が得られる。また、
静止物体の抽出を自己で行うようにしたため、予め静止
物体の位置が定義されたマップ等を備える必要がなく、
構成を簡単にすることが可能となる。さらに、道路地図
データ等のマップを備える必要がないために、構成を簡
単にすることができるとともに、未知の場所へ移動する
ことが可能となり移動体の行動範囲の制限をなくすこと
ができるという効果も得られので、特に人間型に脚式移
動ロボットに好適である。また、この発明によれば、自
己の移動制御と前記基準点の観測量を拡張カルマンフィ
ルタに代入して自己の位置を検出する位置検出手段を備
えたため、より正確な自己位置の検出が可能になるとい
う効果が得られる。
【0073】また、この発明によれば、予め記憶された
物体情報と抽出された特徴点とを比較して、相関が高い
特徴点を既知と特徴点と見なして自己位置を算出するた
めの基準特徴点とするようにしたため、より正確に自己
の位置を検出することができるという効果が得られる。
また、この発明によれば、既知と見なされた特徴点が存
在する画像中の未知の特徴点と既知の特徴点との相対関
係を求め、該未知の特徴点を既知の特徴点として記憶す
ることにより前記物体情報を更新するようようにしたた
め、地図情報及び物体情報の更新を自動的に行うことが
できるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の第1の実施形態の構成を示すブロッ
ク図である。
【図2】 図1に示す特徴点抽出部5及び位置検出部6
の動作を示すフローチャートである。
【図3】 2つの特徴点の確からしさCAを算出する処
理を示す説明図である。
【図4】 ロボットの自己位置を求める場合の座標系を
示す説明図である。
【図5】 本発明の第2の実施形態の構成を示すブロッ
ク図である。
【図6】 図5に示す特徴点抽出部5及び位置検出部6
の動作を示すフローチャートである。
【図7】 自己位置算出方法を示す説明図である。
【図8】 自己位置算出方法を示す説明図である。
【図9】 自己位置算出方法を示す説明図である。
【図10】 カルマンフィルタの状態モデルを示す説明
図である。
【図11】 本発明の第3の実施形態の構成を示すブロ
ック図である。
【図12】 図11に示す位置検出装置の動作を示すフ
ローチャートである。
【図13】 第3の実施形態における自己位置検出の原
理を説明する説明図である。
【図14】 第3の実施形態における自己位置検出の原
理を説明する説明図である。
【図15】 第3の実施形態における自己位置検出の原
理を説明する説明図である。
【符号の説明】
1・・・カメラ、 2・・・画像記憶部、 3・・・距離画像生成部、 4・・・距離画像記憶部、 5・・・特徴点抽出部、 6・・・位置検出部、 7・・・移動制御部、 8・・・物体情報記憶部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂上 義秋 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 2F065 AA04 AA11 BB15 CC00 CC11 DD00 DD07 FF01 FF05 FF09 FF61 JJ03 JJ05 JJ26 MM06 PP25 QQ00 QQ24 QQ25 QQ38 RR02 RR07 UU05 3C007 CS08 KS18 KS36 KT03 KT04 KT11 WA03 WA13 5B057 AA05 AA06 BA02 BA11 CA13 CB08 CB12 CB16 CB18 CC01 CE06 CH11 DA07 DB03 DB09 DC05 DC16 DC32 DC36 5L096 AA06 AA09 BA04 BA05 CA05 DA02 FA69 GA08 GA55 HA02

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 移動体の自己位置を検出する位置検出装
    置であって、 前記位置検出装置は、 前記移動体の前方視野の画像を取得する画像取得手段
    と、 前記画像取得手段と同一の視野を有し、前記画像取得手
    段が画像を取得するのと同時に距離画像を取得する距離
    画像取得手段と、 少なくとも連続する2フレームの画像からそれぞれ特徴
    点を抽出する特徴点抽出手段と、 前記特徴点抽出手段によって抽出された特徴点の2フレ
    ーム間の位置の変位量を前記距離画像に基づいて算出
    し、当該変位量から自己位置を算出するための基準特徴
    点を選択する基準特徴点選択手段と、 を備えたことを特徴とする位置検出装置。
  2. 【請求項2】 移動体の自己位置を検出する位置検出装
    置であって、 前記位置検出装置は、 前記移動体の前方視野内の画像を取得する画像取得手段
    と、 前記移動体の移動に当たって基準となる基準特徴点を前
    記画像取得手段によって得られた画像に基づいて決定す
    る基準点決定手段と、 自己の移動制御と前記基準点の観測量を拡張カルマンフ
    ィルタに代入して自己の位置を検出する位置検出手段
    と、 を備えたことを特徴とする位置検出装置。
  3. 【請求項3】 移動体の自己位置を検出する位置検出装
    置であって、 前記位置検出装置は、 前記移動体の前方視野の画像を取得する画像取得手段
    と、 前記画像取得手段と同一の視野を有し、前記画像取得手
    段が画像を取得するのと同時に距離画像を取得する距離
    画像取得手段と、 得られた画像からそれぞれ特徴点を抽出する特徴点抽出
    手段と、 予め記憶された物体情報と抽出された特徴点とを比較し
    て、相関が高い特徴点を既知と特徴点と見なして自己位
    置を算出するための基準特徴点とする基準特徴点選択手
    段と、 を備えたことを特徴とする位置検出装置。
  4. 【請求項4】 前記特徴点選択手段は、 既知と見なされた特徴点が存在する画像中の未知の特徴
    点と既知の特徴点との相対関係を求め、該未知の特徴点
    を既知の特徴点として記憶することにより前記物体情報
    を更新することを特徴する請求項3に記載の位置検出装
    置。
  5. 【請求項5】 移動体の自己位置を検出する位置検出装
    置であって、 前記位置検出装置は、 前記移動体の前方視野の画像を取得する画像取得手段
    と、 前記画像中の特徴点群を抽出する特徴点群抽出手段と、 予め画像取得手段で得られた画像における特徴点群と当
    該特徴点群を得た位置を対応させて複数記憶しておき、
    新たに得られた画像の特徴点群と予め記憶された特徴点
    群の相関を算出して、自己の位置を算出する自己位置検
    出手段と、 を備えたことを特徴とする位置検出装置。
  6. 【請求項6】 移動体の自己位置を検出する位置検出方
    法であって、 前記位置検出方法は、 前記移動体の前方視野の画像を取得する画像取得過程
    と、 前記画像と同一の視野を有し、前記画像を取得するのと
    同時に距離画像を取得する距離画像取得過程と、 少なくとも連続する2フレームの画像からそれぞれ特徴
    点を抽出する特徴点抽出過程と、 前記特徴点抽出過程において抽出された特徴点の2フレ
    ーム間の位置の変位量を前記距離画像に基づいて算出
    し、当該変位量から自己位置を算出するための基準特徴
    点を選択する基準特徴点選択過程と、 を有することを特徴とする位置検出方法。
  7. 【請求項7】 移動体の自己位置を検出する位置検出方
    法であって、 前記位置検出方法は、 前記移動体の前方視野内の画像を取得する画像取得過程
    と、 前記移動体の移動に当たって基準となる基準特徴点を前
    記画像に基づいて決定する基準点決定過程と、 自己の移動制御と前記基準点の観測量を拡張カルマンフ
    ィルタに代入して自己の位置を検出する位置検出過程
    と、 を有することを特徴とする位置検出方法。
  8. 【請求項8】 移動体の自己位置を検出する位置検出方
    法であって、 前記位置検出方法は、 前記移動体の前方視野の画像を取得する画像取得過程
    と、 前記画像と同一の視野を有し、前記画像を取得するのと
    同時に距離画像を取得する距離画像取得過程と、 得られた画像からそれぞれ特徴点を抽出する特徴点抽出
    過程と、 予め記憶された物体情報と抽出された特徴点とを比較し
    て、相関が高い特徴点を既知と特徴点と見なして自己位
    置を算出するための基準特徴点とする基準特徴点選択過
    程と、 を有することを特徴とする位置検出方法。
  9. 【請求項9】 前記特徴点選択過程は、 既知と見なされた特徴点が存在する画像中の未知の特徴
    点と既知の特徴点との相対関係を求め、該未知の特徴点
    を既知の特徴点として記憶することにより前記物体情報
    を更新することを特徴する請求項8に記載の位置検出方
    法。
  10. 【請求項10】 移動体の自己位置を検出する位置検出
    方法であって、 前記位置検出方法は、 前記移動体の前方視野の画像を取得する画像取得過程
    と、 前記画像中の特徴点群を抽出する特徴点群抽出過程と、 予め画像取得過程で得られた画像における特徴点群と当
    該特徴点群を得た位置を対応させて複数記憶しておき、
    新たに得られた画像の特徴点群と予め記憶された特徴点
    群の相関を算出して、自己の位置を算出する自己位置検
    出過程と、 を有することを特徴とする位置検出方法。
  11. 【請求項11】 移動体の自己位置を検出するための位
    置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野の画像を取得する画像取得処理
    と、 前記画像と同一の視野を有し、前記画像を取得するのと
    同時に距離画像を取得する距離画像取得処理と、 少なくとも連続する2フレームの画像からそれぞれ特徴
    点を抽出する特徴点抽出処理と、 前記特徴点抽出処理において抽出された特徴点の2フレ
    ーム間の位置の変位量を前記距離画像に基づいて算出
    し、当該変位量から自己位置を算出するための基準特徴
    点を選択する基準特徴点選択処理と、 をコンピュータに行わせることを特徴とする位置検出プ
    ログラム。
  12. 【請求項12】 移動体の自己位置を検出するための位
    置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野内の画像を取得する画像取得処理
    と、 前記移動体の移動に当たって基準となる基準特徴点を前
    記画像に基づいて決定する基準点決定処理と、 自己の移動制御と前記基準点の観測量を拡張カルマンフ
    ィルタに代入して自己の位置を検出する位置検出処理
    と、 をコンピュータに行わせることを特徴とする位置検出プ
    ログラム。
  13. 【請求項13】 移動体の自己位置を検出するための位
    置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野の画像を取得する画像取得処理
    と、 前記画像と同一の視野を有し、前記画像を取得するのと
    同時に距離画像を取得する距離画像取得処理と、 得られた画像からそれぞれ特徴点を抽出する特徴点抽出
    処理と、 予め記憶された物体情報と抽出された特徴点とを比較し
    て、相関が高い特徴点を既知と特徴点と見なして自己位
    置を算出するための基準特徴点とする基準特徴点選択処
    理と、 をコンピュータに行わせることを特徴とする位置検出プ
    ログラム。
  14. 【請求項14】 前記特徴点選択処理は、 既知と見なされた特徴点が存在する画像中の未知の特徴
    点と既知の特徴点との相対関係を求め、該未知の特徴点
    を既知の特徴点として記憶することにより前記物体情報
    を更新することを特徴する請求項13に記載の位置検出
    プログラム。
  15. 【請求項15】 移動体の自己位置を検出するための位
    置検出プログラムであって、 前記位置検出プログラムは、 前記移動体の前方視野の画像を取得する画像取得処理
    と、 前記画像中の特徴点群を抽出する特徴点群抽出処理と、 予め画像取得処理で得られた画像における特徴点群と当
    該特徴点群を得た位置を対応させて複数記憶しておき、
    新たに得られた画像の特徴点群と予め記憶された特徴点
    群の相関を算出して、自己の位置を算出する自己位置検
    出処理と、 をコンピュータに行わせることを特徴とする位置検出プ
    ログラム。
JP2001124943A 2000-05-26 2001-04-23 位置検出装置、位置検出方法、及び位置検出プログラム Expired - Fee Related JP4672175B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001124943A JP4672175B2 (ja) 2000-05-26 2001-04-23 位置検出装置、位置検出方法、及び位置検出プログラム
EP01112618.2A EP1158309B1 (en) 2000-05-26 2001-05-23 Method and Apparatus for position detection
US09/866,151 US7239339B2 (en) 2000-05-26 2001-05-26 Position detection apparatus, position detection method and position detection program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000157299 2000-05-26
JP2000-157299 2000-05-26
JP2001124943A JP4672175B2 (ja) 2000-05-26 2001-04-23 位置検出装置、位置検出方法、及び位置検出プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010192835A Division JP5148669B2 (ja) 2000-05-26 2010-08-30 位置検出装置、位置検出方法、及び位置検出プログラム

Publications (2)

Publication Number Publication Date
JP2002048513A true JP2002048513A (ja) 2002-02-15
JP4672175B2 JP4672175B2 (ja) 2011-04-20

Family

ID=26592745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001124943A Expired - Fee Related JP4672175B2 (ja) 2000-05-26 2001-04-23 位置検出装置、位置検出方法、及び位置検出プログラム

Country Status (3)

Country Link
US (1) US7239339B2 (ja)
EP (1) EP1158309B1 (ja)
JP (1) JP4672175B2 (ja)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144644A (ja) * 2002-10-25 2004-05-20 Fuji Heavy Ind Ltd 地形認識装置、地形認識方法および移動体の移動量検出方法
JP2005228136A (ja) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd 道路領域検出装置
JP2007042095A (ja) * 2005-07-29 2007-02-15 Siemens Ag 周囲のスキャンの比較により移動ユニットの相対位置を検出する方法、移動ユニット、コンピュータプログラムおよびコンピュータ読み出し可能なデータ担体
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
JP2008503757A (ja) * 2004-06-22 2008-02-07 サーノフ コーポレーション ビジュアル・オドメトリのための方法および装置
WO2009081920A1 (ja) * 2007-12-25 2009-07-02 Toyota Jidosha Kabushiki Kaisha 移動状態推定装置
JP2009163156A (ja) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd 移動ロボットシステム及びその制御方法
KR100912874B1 (ko) 2007-06-28 2009-08-19 삼성전자주식회사 이동 로봇의 리로케이션 방법 및 장치
JP2010223710A (ja) * 2009-03-23 2010-10-07 Univ Of Miyazaki 管内面形状測定装置
KR101022785B1 (ko) * 2008-09-17 2011-03-17 포항공과대학교 산학협력단 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법
KR101038702B1 (ko) 2008-10-24 2011-06-03 전자부품연구원 로봇의 위치 검출방법
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム
WO2012133371A1 (ja) * 2011-03-28 2012-10-04 日本電気株式会社 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム
JP2013093476A (ja) * 2011-10-26 2013-05-16 Disco Abrasive Syst Ltd キーパターン決定方法
JP2013535013A (ja) * 2010-06-25 2013-09-09 トリンブル ナビゲーション リミテッド 画像ベースの測位のための方法および装置
JP2014048882A (ja) * 2012-08-31 2014-03-17 Fujitsu Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2014178789A (ja) * 2013-03-14 2014-09-25 Advanced Telecommunication Research Institute International 追跡装置、追跡プログラムおよび追跡方法
WO2015049717A1 (ja) * 2013-10-01 2015-04-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
JP2016038287A (ja) * 2014-08-07 2016-03-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP2016038288A (ja) * 2014-08-07 2016-03-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JPWO2014073204A1 (ja) * 2012-11-06 2016-09-08 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
WO2017061388A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム
WO2017130590A1 (ja) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 電気掃除機
JP2017524122A (ja) * 2015-06-26 2017-08-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォームの変位を計測する方法及び装置
JP2017528685A (ja) * 2014-05-30 2017-09-28 オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited 車両位置の推定
JP2018105802A (ja) * 2016-12-28 2018-07-05 日立Geニュークリア・エナジー株式会社 検査装置
WO2019021412A1 (ja) * 2017-07-27 2019-01-31 日本電気株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
KR20200043570A (ko) * 2018-10-17 2020-04-28 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 그 제어방법
JP6704536B1 (ja) * 2019-04-25 2020-06-03 三菱電機株式会社 移動量推定装置、移動量推定方法、および移動量推定プログラム
KR20200077486A (ko) * 2018-10-17 2020-06-30 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 방법
CN112025697A (zh) * 2020-07-10 2020-12-04 浙江工业大学 一种全向移动机器人的积分模型预测控制方法
JP2021193634A (ja) * 2019-06-19 2021-12-23 株式会社リコー 情報処理システム、情報処理方法及び情報処理プログラム

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3656910B2 (ja) * 2002-07-22 2005-06-08 住友電気工業株式会社 スクライブ溝の加工方法及びスクライブ装置
JP2004061446A (ja) * 2002-07-31 2004-02-26 Fujitsu Ten Ltd パターンマッチング処理方法及び画像処理装置
EP1413974A1 (en) * 2002-10-24 2004-04-28 Hewlett-Packard Company Hybrid sensing techniques for position determination
EP1517115B1 (en) * 2003-09-19 2016-05-11 Omron Corporation Multiple sensor system
KR100540194B1 (ko) * 2003-09-23 2006-01-10 한국전자통신연구원 차량을 이용한 알에프아이디 태그 설치 시스템 및 그 방법
US9052717B1 (en) 2004-02-11 2015-06-09 Enovation Controls, Llc Watercraft speed control device
US20080243321A1 (en) 2005-02-11 2008-10-02 Econtrols, Inc. Event sensor
JP2005249715A (ja) 2004-03-08 2005-09-15 Topcon Corp 測量方法及び測量機
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
JP4216772B2 (ja) * 2004-06-17 2009-01-28 株式会社東芝 自己位置同定装置および自己位置同定方法
JP4488804B2 (ja) 2004-06-23 2010-06-23 株式会社トプコン ステレオ画像の関連付け方法及び3次元データ作成装置
DE602005022460D1 (de) * 2004-08-30 2010-09-02 Commw Scient Ind Res Org Verfahren zur automatischen 3D-Bildgebung
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
KR100569472B1 (ko) * 2004-10-05 2006-04-07 현대자동차주식회사 엔진의 연료 분무 선단 속도 계측 시스템 및 방법
US9207675B1 (en) * 2005-02-11 2015-12-08 Enovation Controls, Llc Event sensor
KR100638220B1 (ko) * 2005-04-23 2006-10-27 엘지전자 주식회사 주행로봇의 위치감지장치 및 그를 구비한 로봇청소기
US8306662B2 (en) 2005-04-23 2012-11-06 Lg Electronics Inc. Position detection device for mobile robot and robot cleaner including the same
JP2007114020A (ja) * 2005-10-19 2007-05-10 Aisin Aw Co Ltd 車両の移動距離検出方法、車両の移動距離検出装置、車両の現在位置検出方法及び車両の現在位置検出装置
CN100419605C (zh) * 2005-11-09 2008-09-17 沈阳新松机器人自动化股份有限公司 一种现场总线位置控制装置
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
CN101200065B (zh) * 2006-12-13 2010-10-06 沈阳新松机器人自动化股份有限公司 现场总线位置控制装置
KR100884904B1 (ko) * 2007-09-12 2009-02-19 아주대학교산학협력단 평행 투영 모델을 이용한 자기위치 인식 방법
US8264537B2 (en) * 2007-09-28 2012-09-11 The Mainz Group Llc Photogrammetric networks for positional accuracy
JP2009115621A (ja) * 2007-11-06 2009-05-28 Toshiba Corp 移動体画像追尾装置
DE102008024308B4 (de) * 2008-05-20 2010-12-09 Eads Deutschland Gmbh Verfahren zur Detektion nichtkooperativen Luftverkehrs an Bord eines Luftfahrzeugs
DE102008039606A1 (de) * 2008-08-25 2010-03-04 GM Global Technology Operations, Inc., Detroit Kraftfahrzeug mit einem Abstandssensor und einem Bilderfassungssystem
JP5409189B2 (ja) * 2008-08-29 2014-02-05 キヤノン株式会社 撮像装置及びその制御方法
JP4816748B2 (ja) 2009-03-06 2011-11-16 ソニー株式会社 ナビゲーション装置及びナビゲーション方法
JP4810582B2 (ja) * 2009-03-26 2011-11-09 株式会社東芝 移動体画像追尾装置および方法
US8963954B2 (en) * 2010-06-30 2015-02-24 Nokia Corporation Methods, apparatuses and computer program products for providing a constant level of information in augmented reality
JP2012034196A (ja) * 2010-07-30 2012-02-16 Olympus Corp 撮像端末、データ処理端末、撮像方法、及びデータ処理方法
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
JP5787695B2 (ja) 2011-09-28 2015-09-30 株式会社トプコン 画像取得装置
JP5802279B2 (ja) 2011-11-22 2015-10-28 株式会社日立製作所 自律移動システム
JP5780142B2 (ja) * 2011-12-07 2015-09-16 富士通株式会社 画像処理装置、画像処理方法
US20140039675A1 (en) * 2012-08-03 2014-02-06 Nimer Mohammed Ead Instructional humanoid robot apparatus and a method thereof
US9036865B2 (en) * 2012-09-12 2015-05-19 International Business Machines Corporation Location determination for an object using visual data
US9560246B2 (en) * 2012-12-14 2017-01-31 The Trustees Of Columbia University In The City Of New York Displacement monitoring system having vibration cancellation capabilities
US9142063B2 (en) * 2013-02-15 2015-09-22 Caterpillar Inc. Positioning system utilizing enhanced perception-based localization
US9081382B2 (en) 2013-03-15 2015-07-14 Fresenius Medical Care Holdings, Inc. Autonomous vehicle comprising extracorporeal blood treatment machine
TWI534453B (zh) * 2014-02-18 2016-05-21 原相科技股份有限公司 相對位置定位系統與追蹤系統
JP6380523B2 (ja) * 2014-02-26 2018-08-29 株式会社ソシオネクスト 画像認識システムおよび半導体集積回路
US10310054B2 (en) * 2014-03-21 2019-06-04 The Boeing Company Relative object localization process for local positioning system
FR3022036B1 (fr) * 2014-06-05 2016-07-15 Aldebaran Robotics Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif
DE102014212781A1 (de) * 2014-07-02 2016-01-07 Continental Automotive Gmbh Verfahren zum Ermitteln und Bereitstellen einer Landmarke zur Positionsbestimmung für ein Fahrzeug
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
JP6352133B2 (ja) * 2014-09-26 2018-07-04 株式会社Screenホールディングス 位置検出装置、基板処理装置、位置検出方法および基板処理方法
US9738399B2 (en) * 2015-07-29 2017-08-22 Hon Hai Precision Industry Co., Ltd. Unmanned aerial vehicle control method and unmanned aerial vehicle using same
KR20230091200A (ko) * 2015-12-14 2023-06-22 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 삼차원 데이터 부호화 방법, 삼차원 데이터 복호 방법, 삼차원 데이터 부호화 장치 및 삼차원 데이터 복호 장치
JP6626410B2 (ja) 2016-06-03 2019-12-25 株式会社Soken 自車位置特定装置、自車位置特定方法
JP2018051728A (ja) * 2016-09-30 2018-04-05 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
US10440280B2 (en) * 2017-09-21 2019-10-08 Advanced Semiconductor Engineering, Inc. Optical system and method for operating the same
US11822341B2 (en) 2017-12-28 2023-11-21 Sony Corporation Control device, control method, and mobile object to estimate the mobile object's self-position
CN108900805B (zh) * 2018-07-11 2021-01-12 长沙理工大学 一种基于计算机网络的艺术设计用品移动实时监控系统
CN109358315B (zh) * 2018-10-12 2020-08-18 华中科技大学 一种辅助目标间接定位方法及系统
WO2020133175A1 (en) * 2018-12-28 2020-07-02 Intel Corporation Tracking objects using sensor rotation
WO2020218644A1 (ko) * 2019-04-25 2020-10-29 엘지전자 주식회사 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇
CN110653837B (zh) * 2019-10-31 2021-08-13 灵动科技(北京)有限公司 自主移动装置及仓储物流系统
KR102252888B1 (ko) * 2020-01-03 2021-05-17 포테닛 주식회사 공간 내에서 이송로봇의 위치 검출장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63134912A (ja) * 1986-11-27 1988-06-07 Shinko Electric Co Ltd 移動ロボツトにおける位置検出方法
JPH07244735A (ja) * 1994-03-02 1995-09-19 Nec Corp 3次元形状復元方法および装置
JPH0843055A (ja) * 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
JPH0933247A (ja) * 1995-07-19 1997-02-07 Mitsubishi Electric Corp 画像物体検出装置
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JPH11149557A (ja) * 1997-11-19 1999-06-02 Fuji Heavy Ind Ltd 自律走行車の周囲環境認識装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2116000B (en) * 1982-03-02 1985-05-01 Elliott Bros Guidance system
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
JP2501010B2 (ja) * 1993-10-25 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動ロボットの誘導装置
US5777690A (en) * 1995-01-20 1998-07-07 Kabushiki Kaisha Toshiba Device and method for detection of moving obstacles
NO312862B1 (no) * 1997-07-15 2002-07-08 Forsvarets Forsknings Fremgangsmåte for å bestemme en geografisk posisjon av en mobilenhet i et radiosystem
SE511504C2 (sv) * 1997-10-17 1999-10-11 Apogeum Ab Sätt och anordning för associering av anonyma reflektorer till detekterade vinkellägen
JP3850541B2 (ja) * 1998-02-18 2006-11-29 富士重工業株式会社 高度計測装置
AUPP299498A0 (en) * 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6678394B1 (en) * 1999-11-30 2004-01-13 Cognex Technology And Investment Corporation Obstacle detection system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63134912A (ja) * 1986-11-27 1988-06-07 Shinko Electric Co Ltd 移動ロボツトにおける位置検出方法
JPH07244735A (ja) * 1994-03-02 1995-09-19 Nec Corp 3次元形状復元方法および装置
JPH0843055A (ja) * 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
JPH0933247A (ja) * 1995-07-19 1997-02-07 Mitsubishi Electric Corp 画像物体検出装置
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JPH11149557A (ja) * 1997-11-19 1999-06-02 Fuji Heavy Ind Ltd 自律走行車の周囲環境認識装置

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144644A (ja) * 2002-10-25 2004-05-20 Fuji Heavy Ind Ltd 地形認識装置、地形認識方法および移動体の移動量検出方法
JP2005228136A (ja) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd 道路領域検出装置
JP2008503757A (ja) * 2004-06-22 2008-02-07 サーノフ コーポレーション ビジュアル・オドメトリのための方法および装置
JP2007042095A (ja) * 2005-07-29 2007-02-15 Siemens Ag 周囲のスキャンの比較により移動ユニットの相対位置を検出する方法、移動ユニット、コンピュータプログラムおよびコンピュータ読み出し可能なデータ担体
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
US9683832B2 (en) 2005-12-15 2017-06-20 Trimble Inc. Method and apparatus for image-based positioning
KR100912874B1 (ko) 2007-06-28 2009-08-19 삼성전자주식회사 이동 로봇의 리로케이션 방법 및 장치
US8559674B2 (en) 2007-12-25 2013-10-15 Toyota Jidosha Kabushiki Kaisha Moving state estimating device
WO2009081920A1 (ja) * 2007-12-25 2009-07-02 Toyota Jidosha Kabushiki Kaisha 移動状態推定装置
JP2009156611A (ja) * 2007-12-25 2009-07-16 Toyota Motor Corp 移動状態推定装置
JP2009163156A (ja) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd 移動ロボットシステム及びその制御方法
KR101022785B1 (ko) * 2008-09-17 2011-03-17 포항공과대학교 산학협력단 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법
KR101038702B1 (ko) 2008-10-24 2011-06-03 전자부품연구원 로봇의 위치 검출방법
JP2010223710A (ja) * 2009-03-23 2010-10-07 Univ Of Miyazaki 管内面形状測定装置
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム
US9098744B2 (en) 2010-05-19 2015-08-04 Tokyo Institute Of Technology Position estimation device, position estimation method, and program
JP2013535013A (ja) * 2010-06-25 2013-09-09 トリンブル ナビゲーション リミテッド 画像ベースの測位のための方法および装置
WO2012133371A1 (ja) * 2011-03-28 2012-10-04 日本電気株式会社 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム
US9232128B2 (en) 2011-03-28 2016-01-05 Nec Corporation Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program
JP2013093476A (ja) * 2011-10-26 2013-05-16 Disco Abrasive Syst Ltd キーパターン決定方法
JP2014048882A (ja) * 2012-08-31 2014-03-17 Fujitsu Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JPWO2014073204A1 (ja) * 2012-11-06 2016-09-08 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
JP2014178789A (ja) * 2013-03-14 2014-09-25 Advanced Telecommunication Research Institute International 追跡装置、追跡プログラムおよび追跡方法
JPWO2015049717A1 (ja) * 2013-10-01 2017-03-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
WO2015049717A1 (ja) * 2013-10-01 2015-04-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
JP2017528685A (ja) * 2014-05-30 2017-09-28 オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited 車両位置の推定
JP2016038288A (ja) * 2014-08-07 2016-03-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP2016038287A (ja) * 2014-08-07 2016-03-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP2017524122A (ja) * 2015-06-26 2017-08-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォームの変位を計測する方法及び装置
US11346666B2 (en) 2015-06-26 2022-05-31 SZ DJI Technology Co., Ltd. System and method for measuring a displacement of a mobile platform
US10527416B2 (en) 2015-06-26 2020-01-07 SZ DJI Technology Co., Ltd. System and method for measuring a displacement of a mobile platform
US10760907B2 (en) 2015-06-26 2020-09-01 SZ DJI Technology Co., Ltd. System and method for measuring a displacement of a mobile platform
WO2017061388A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム
US10507381B2 (en) 2015-10-09 2019-12-17 Sony Corporation Information processing device, position and/or attitude estimiating method, and computer program
JP2017131556A (ja) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 電気掃除機
WO2017130590A1 (ja) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 電気掃除機
JP2018105802A (ja) * 2016-12-28 2018-07-05 日立Geニュークリア・エナジー株式会社 検査装置
JPWO2019021412A1 (ja) * 2017-07-27 2020-04-16 日本電気株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
US11457158B2 (en) 2017-07-27 2022-09-27 Nec Corporation Location estimation device, location estimation method, and program recording medium
WO2019021412A1 (ja) * 2017-07-27 2019-01-31 日本電気株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
KR20200043570A (ko) * 2018-10-17 2020-04-28 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 그 제어방법
KR20200077486A (ko) * 2018-10-17 2020-06-30 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 방법
CN113602260B (zh) * 2018-10-17 2024-04-02 现代摩比斯株式会社 车辆向后行驶辅助装置及其控制方法
KR102593422B1 (ko) * 2018-10-17 2023-10-26 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 그 제어방법
CN113602260A (zh) * 2018-10-17 2021-11-05 现代摩比斯株式会社 车辆向后行驶辅助装置及其控制方法
US11667289B2 (en) 2018-10-17 2023-06-06 Hyundai Mobis Co., Ltd. Backward driving assist apparatus for vehicle and method of controlling same
US11465612B2 (en) 2018-10-17 2022-10-11 Hyundai Mobis Co., Ltd. Backward driving assist apparatus for vehicle and method of controlling same
KR102356469B1 (ko) * 2018-10-17 2022-01-28 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 방법
JP6704536B1 (ja) * 2019-04-25 2020-06-03 三菱電機株式会社 移動量推定装置、移動量推定方法、および移動量推定プログラム
CN113711273A (zh) * 2019-04-25 2021-11-26 三菱电机株式会社 移动量估计装置、移动量估计方法及移动量估计程序
WO2020217377A1 (ja) * 2019-04-25 2020-10-29 三菱電機株式会社 移動量推定装置、移動量推定方法、および移動量推定プログラム
JP2021193634A (ja) * 2019-06-19 2021-12-23 株式会社リコー 情報処理システム、情報処理方法及び情報処理プログラム
JP7180739B2 (ja) 2019-06-19 2022-11-30 株式会社リコー 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
CN112025697B (zh) * 2020-07-10 2022-06-17 浙江工业大学 一种全向移动机器人的积分模型预测控制方法
CN112025697A (zh) * 2020-07-10 2020-12-04 浙江工业大学 一种全向移动机器人的积分模型预测控制方法

Also Published As

Publication number Publication date
EP1158309B1 (en) 2013-08-21
EP1158309A2 (en) 2001-11-28
JP4672175B2 (ja) 2011-04-20
US20010055063A1 (en) 2001-12-27
EP1158309A3 (en) 2005-02-09
US7239339B2 (en) 2007-07-03

Similar Documents

Publication Publication Date Title
JP4672175B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
JP5148669B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
US20230130320A1 (en) Laser scanner with real-time, online ego-motion estimation
US10268201B2 (en) Vehicle automated parking system and method
US8401783B2 (en) Method of building map of mobile platform in dynamic environment
KR101948728B1 (ko) 데이터 수집 방법 및 시스템
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9846042B2 (en) Gyroscope assisted scalable visual simultaneous localization and mapping
US10049455B2 (en) Physically-constrained radiomaps
KR101077967B1 (ko) 이동식 감시 및 추적 장치 및 방법
US20150356357A1 (en) A method of detecting structural parts of a scene
Nair et al. Moving obstacle detection from a navigating robot
US20110169923A1 (en) Flow Separation for Stereo Visual Odometry
JP2021530821A (ja) 三次元無線モデル構築を実行するための方法、装置およびコンピュータプログラム
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2003329448A (ja) 現場の3次元情報生成システム
Alves et al. Cost-effective indoor localization for autonomous robots using kinect and wifi sensors
Romero-Ramirez et al. ReSLAM: Reusable SLAM with heterogeneous cameras
Naikal et al. Image augmented laser scan matching for indoor dead reckoning
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
KR20210003065A (ko) 데이터 수집 방법 및 시스템
Maidi et al. Hybrid tracking system for robust fiducials registration in augmented reality
Nguyen et al. A hybrid positioning system for indoor navigation on mobile phones using panoramic images
CN117649619B (zh) 无人机视觉导航定位回收方法、系统、装置及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110119

R150 Certificate of patent or registration of utility model

Ref document number: 4672175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees