JPH0953939A - 自走車の自己位置測定装置および自己位置測定方法 - Google Patents
自走車の自己位置測定装置および自己位置測定方法Info
- Publication number
- JPH0953939A JPH0953939A JP7210736A JP21073695A JPH0953939A JP H0953939 A JPH0953939 A JP H0953939A JP 7210736 A JP7210736 A JP 7210736A JP 21073695 A JP21073695 A JP 21073695A JP H0953939 A JPH0953939 A JP H0953939A
- Authority
- JP
- Japan
- Prior art keywords
- self
- feature
- image
- unit
- propelled vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000000605 extraction Methods 0.000 claims description 55
- 238000004364 calculation method Methods 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 39
- 238000012545 processing Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 17
- 239000000284 extract Substances 0.000 description 15
- 230000010354 integration Effects 0.000 description 15
- 238000012795 verification Methods 0.000 description 15
- 238000005286 illumination Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 目標に向かって自動的に走行する自走車の自
己位置測定装置および測定方法に関し,特別な環境を必
要とすることなく確実に自己位置および方向を測定する
ことを目的とする。 【解決手段】 走行する環境を撮影し,走行環境の画像
により自己位置を測定して目標に向かって移動する自走
車の自己位置測定装置において,実空間での位置が既知
である複数の特徴物を画像上で検出し,それぞれの特徴
物の実空間における位置と画像面における位置とに基づ
いて自己位置パラメータを求め,複数の自己位置パラメ
ータを統合して自己位置を求める構成を持つ。
己位置測定装置および測定方法に関し,特別な環境を必
要とすることなく確実に自己位置および方向を測定する
ことを目的とする。 【解決手段】 走行する環境を撮影し,走行環境の画像
により自己位置を測定して目標に向かって移動する自走
車の自己位置測定装置において,実空間での位置が既知
である複数の特徴物を画像上で検出し,それぞれの特徴
物の実空間における位置と画像面における位置とに基づ
いて自己位置パラメータを求め,複数の自己位置パラメ
ータを統合して自己位置を求める構成を持つ。
Description
【0001】
【産業上の利用分野】本発明は,目標に向かって自動的
に走行する自走車の自己位置測定装置および自己位置測
定方法に関するものである。
に走行する自走車の自己位置測定装置および自己位置測
定方法に関するものである。
【0002】病院や介護施設などの医療福祉の分野で食
事や洗濯物などを自動的に搬送するロボット(自走車,
無人走行車,自律ロボット等)の開発が要望されてい
る。その他,オフィス,学校,工場の屋内や道路などに
おいても正確に移動できる自走車が必要とされている。
事や洗濯物などを自動的に搬送するロボット(自走車,
無人走行車,自律ロボット等)の開発が要望されてい
る。その他,オフィス,学校,工場の屋内や道路などに
おいても正確に移動できる自走車が必要とされている。
【0003】
【従来の技術】図16は従来の技術の説明図である。図
16において,200は自走車である。
16において,200は自走車である。
【0004】201は撮像装置であって,目標を撮影す
るものである。210は画像処理部であって,画像から
特徴点を抽出する等の処理を行うものである。
るものである。210は画像処理部であって,画像から
特徴点を抽出する等の処理を行うものである。
【0005】211は記憶部であって,対象物の位置
(特徴点の実空間上での位置)を記憶するものである。
212はマッチング部であって,抽出した特徴点と実空
間上の点との対応をとるものである。
(特徴点の実空間上での位置)を記憶するものである。
212はマッチング部であって,抽出した特徴点と実空
間上の点との対応をとるものである。
【0006】213は画像上の特徴点の位置と実空間上
での特徴点の位置情報とに基づく自己位置計算部であっ
て,自己位置および移動している方向を計算するもので
ある。
での特徴点の位置情報とに基づく自己位置計算部であっ
て,自己位置および移動している方向を計算するもので
ある。
【0007】214は駆動制御部であって,自己位置計
算部の求めた自己位置および方向に基づいて,自走車の
移動する方向を決め,モータ等の制御を行うものであ
る。214’はモータ等の駆動部である。
算部の求めた自己位置および方向に基づいて,自走車の
移動する方向を決め,モータ等の制御を行うものであ
る。214’はモータ等の駆動部である。
【0008】215,216は車輪である。図16の構
成の動作を説明する。 (1) 撮像装置201は,床に貼られた反射テープ,も
しくは道路の境界線等を撮影する。画像処理部210は
その画像を処理して,特徴点を抽出する。マッチング部
212は抽出した特徴点が記憶部211に記憶されてい
る実空間での特徴点との対応を付ける。自己位置計算部
213は画像上での特徴点の位置と実空間における特徴
点の位置との関係により自己の実空間上での位置および
移動方向を推定する。駆動制御部214は自己の位置お
よび移動方向から自己が移動すべき方向を求め,駆動部
214’を駆動する。
成の動作を説明する。 (1) 撮像装置201は,床に貼られた反射テープ,も
しくは道路の境界線等を撮影する。画像処理部210は
その画像を処理して,特徴点を抽出する。マッチング部
212は抽出した特徴点が記憶部211に記憶されてい
る実空間での特徴点との対応を付ける。自己位置計算部
213は画像上での特徴点の位置と実空間における特徴
点の位置との関係により自己の実空間上での位置および
移動方向を推定する。駆動制御部214は自己の位置お
よび移動方向から自己が移動すべき方向を求め,駆動部
214’を駆動する。
【0009】(2) 病院等の施設では床に白線を貼るこ
とは美観上このましくないので,自己位置を計算するた
めの目標物として天井の空気の吹き出し口,照明などの
施設内に固定されたものを画像で検出し,それを基に自
己位置および移動方向を求めて移動する方法もある。
とは美観上このましくないので,自己位置を計算するた
めの目標物として天井の空気の吹き出し口,照明などの
施設内に固定されたものを画像で検出し,それを基に自
己位置および移動方向を求めて移動する方法もある。
【0010】(3) 図16のような撮像装置により目標
を撮影しながら走行制御する方法において,車輪の回転
数から現在位置を計算し,それを基に移動しながら特定
位置で自己位置を補正する方法もある。
を撮影しながら走行制御する方法において,車輪の回転
数から現在位置を計算し,それを基に移動しながら特定
位置で自己位置を補正する方法もある。
【0011】(4) あるいは,自走車に磁気検出装置を
設け,床に磁気テープを貼って,その磁気テープに沿っ
て移動するように制御する方法もある。
設け,床に磁気テープを貼って,その磁気テープに沿っ
て移動するように制御する方法もある。
【0012】
【発明が解決しようとする課題】従来の自動走行のため
に検出する特徴物は,床に張った白線,あるいは道路の
縁石のエッジ,天井の照明等のように対象は1つであっ
た。そのため,画像計測は明るさ等の環境の変化の影響
を受けやすく,検出に失敗して自己位置計算が不能にな
ることがあった。また,対象物が1つのため計測精度も
悪いものであった。
に検出する特徴物は,床に張った白線,あるいは道路の
縁石のエッジ,天井の照明等のように対象は1つであっ
た。そのため,画像計測は明るさ等の環境の変化の影響
を受けやすく,検出に失敗して自己位置計算が不能にな
ることがあった。また,対象物が1つのため計測精度も
悪いものであった。
【0013】また,自己位置を決めるパラメータを全て
求めるためには,例えば3つの垂直エッジや4つの特徴
点を必要とするが,特徴物が1つだけであると自己位置
計算をするためのパラメータの一部しか計算できない場
合がある。そのため,全てのパラメータを求めることが
できるように環境に対する配慮を必要とする。また,そ
のようにして特徴点4つを求めるようにしても,なんら
かの環境の変化により1つの特徴点が検出できなくなる
と自己位置パラメータを計算できなくなる等,自己位置
の測定が不確実であった。
求めるためには,例えば3つの垂直エッジや4つの特徴
点を必要とするが,特徴物が1つだけであると自己位置
計算をするためのパラメータの一部しか計算できない場
合がある。そのため,全てのパラメータを求めることが
できるように環境に対する配慮を必要とする。また,そ
のようにして特徴点4つを求めるようにしても,なんら
かの環境の変化により1つの特徴点が検出できなくなる
と自己位置パラメータを計算できなくなる等,自己位置
の測定が不確実であった。
【0014】本発明は,特別な環境を必要とすることな
く確実に自己位置および方向を測定できる自走車の自己
位置測定装置および測定方法を提供することを目的とす
る。
く確実に自己位置および方向を測定できる自走車の自己
位置測定装置および測定方法を提供することを目的とす
る。
【0015】
【課題を解決するための手段】本発明は,走行する環境
を撮影し,走行環境の画像により自己位置を測定して目
標に向かって移動する自走車の自己位置測定装置におい
て,実空間での位置が既知である複数の特徴物を画像上
で検出し,それぞれの特徴物の実空間における位置と画
像面における位置とに基づいて自己位置パラメータを求
め,複数の自己位置パラメータを統合して自己位置を求
めるようにした。
を撮影し,走行環境の画像により自己位置を測定して目
標に向かって移動する自走車の自己位置測定装置におい
て,実空間での位置が既知である複数の特徴物を画像上
で検出し,それぞれの特徴物の実空間における位置と画
像面における位置とに基づいて自己位置パラメータを求
め,複数の自己位置パラメータを統合して自己位置を求
めるようにした。
【0016】図1は,本発明の基本構成を示す図であ
る。図1において,1は自走車である。
る。図1において,1は自走車である。
【0017】2は画像入力装置である。3は特徴物1の
抽出部であって,画像から特徴物1を抽出するものであ
る。4は自己位置計算部であって,特徴物1の画像から
自己位置および自己の移動方向のパラメータを求めるも
のである(以後,自己位置に自己の移動方向も含めるも
のとする)。
抽出部であって,画像から特徴物1を抽出するものであ
る。4は自己位置計算部であって,特徴物1の画像から
自己位置および自己の移動方向のパラメータを求めるも
のである(以後,自己位置に自己の移動方向も含めるも
のとする)。
【0018】5は特徴物2の抽出部であって,画像から
特徴物2を抽出するものである。6は自己位置計算部で
あって,特徴物2の画像から自己位置のパラメータ(自
己の移動方向のパラメータも含む)を求めるものであ
る。
特徴物2を抽出するものである。6は自己位置計算部で
あって,特徴物2の画像から自己位置のパラメータ(自
己の移動方向のパラメータも含む)を求めるものであ
る。
【0019】7は特徴物Nの抽出部であって,画像から
特徴物Nを抽出するものである。8は自己位置計算部で
あって,特徴物Nの画像から自己位置のパラメータを求
めるものである。
特徴物Nを抽出するものである。8は自己位置計算部で
あって,特徴物Nの画像から自己位置のパラメータを求
めるものである。
【0020】9は自己位置統合部であって,自己位置計
算部4,自己位置計算部6,自己位置計算部8の求めた
自己位置のパラメータに基づいて,自己位置を統合的に
求めるものである。
算部4,自己位置計算部6,自己位置計算部8の求めた
自己位置のパラメータに基づいて,自己位置を統合的に
求めるものである。
【0021】10は自己位置出力部であって,自己位置
統合部9の求めた自己位置を駆動制御部(図示せず)に
出力するものである。図1の本発明の基本構成の動作に
ついて図2を参照して説明する。
統合部9の求めた自己位置を駆動制御部(図示せず)に
出力するものである。図1の本発明の基本構成の動作に
ついて図2を参照して説明する。
【0022】自走車1は床等の平らな面を移動するもの
とする。自走車1には画像入力装置(撮像装置)2が固
定されている(図16参照)。画像入力装置2は走行環
境を撮影して,画像を入力する。入力された画像を画像
処理して特徴(特徴点,エッジ,形,色等)を抽出す
る。抽出された特徴を実空間上の対象物と対応づける
(マッチング)。特徴物(特徴物1,特徴物2,・・
・,特徴物N)の実空間での位置をあらかじめ記憶部
(図示せず)に記憶しておく。そして,それらの実空間
上での位置情報と各対象物の画像上での位置に基づいて
それぞれの自己位置計算部(4,6,8)は自己位置の
パラメータを計算する。求める自己位置パラメータは自
走車が平面上を移動するので,平面上の座標(X,Y)
と画像入力装置2の向きを表す回転θである。
とする。自走車1には画像入力装置(撮像装置)2が固
定されている(図16参照)。画像入力装置2は走行環
境を撮影して,画像を入力する。入力された画像を画像
処理して特徴(特徴点,エッジ,形,色等)を抽出す
る。抽出された特徴を実空間上の対象物と対応づける
(マッチング)。特徴物(特徴物1,特徴物2,・・
・,特徴物N)の実空間での位置をあらかじめ記憶部
(図示せず)に記憶しておく。そして,それらの実空間
上での位置情報と各対象物の画像上での位置に基づいて
それぞれの自己位置計算部(4,6,8)は自己位置の
パラメータを計算する。求める自己位置パラメータは自
走車が平面上を移動するので,平面上の座標(X,Y)
と画像入力装置2の向きを表す回転θである。
【0023】図2により,本発明の基本構成の自己位置
の統合方法について説明をする。図2 (a)は座標系の例
を示す。19は画像面である。
の統合方法について説明をする。図2 (a)は座標系の例
を示す。19は画像面である。
【0024】20は対象物である。21は床である。2
2は実空間座標系(x1 ,y1 ,z1 )である。
2は実空間座標系(x1 ,y1 ,z1 )である。
【0025】23はカメラ座標系(X,Y,Z)であ
る。θは画像入力装置の回転パラメータであって,高さ
(Z)一定である。図2 (b)は画像の例である。
る。θは画像入力装置の回転パラメータであって,高さ
(Z)一定である。図2 (b)は画像の例である。
【0026】21は床である。22,23は横の壁であ
る。24は奥の壁である。
る。24は奥の壁である。
【0027】25は天井である。26はエッジであっ
て,床21と横の壁22との境界である。27はエッジ
であって,床21と横の壁23との境界である。
て,床21と横の壁22との境界である。27はエッジ
であって,床21と横の壁23との境界である。
【0028】26はエッジであって,天井25と横の壁
22との境界である。26はエッジであって,天井25
と横の壁23との境界である。30は照明である。
22との境界である。26はエッジであって,天井25
と横の壁23との境界である。30は照明である。
【0029】31はドアである。自己位置の計算は,実
空間からカメラ画像への射影の逆変換をすることによ
り,画像上の特徴位置を実空間の位置(カメラに対する
位置)に変換する。そのようにして,画像の二次元情報
に基づいて実空間の3次元情報を得ることができる。つ
まり,画像上の特徴点の位置が求まれば,図2 (b)のよ
うに床上の特徴点に対するカメラからの方向が決まる。
あるいは,複数のカメラを使用して,三角測量の原理で
対象物の位置を測定しても良い。
空間からカメラ画像への射影の逆変換をすることによ
り,画像上の特徴位置を実空間の位置(カメラに対する
位置)に変換する。そのようにして,画像の二次元情報
に基づいて実空間の3次元情報を得ることができる。つ
まり,画像上の特徴点の位置が求まれば,図2 (b)のよ
うに床上の特徴点に対するカメラからの方向が決まる。
あるいは,複数のカメラを使用して,三角測量の原理で
対象物の位置を測定しても良い。
【0030】次に具体的に特徴物の種類に対応して求め
られる自己位置パラメータ(X,Y,θ)を説明する。 〔特徴の種類〕 (1) 画像空間のエッジからそのエッジに対応する実空
間上の直線に対して,直線に対する位置(直線からの距
離),姿勢(θ)が求められる。即ちXとθが求まる。
られる自己位置パラメータ(X,Y,θ)を説明する。 〔特徴の種類〕 (1) 画像空間のエッジからそのエッジに対応する実空
間上の直線に対して,直線に対する位置(直線からの距
離),姿勢(θ)が求められる。即ちXとθが求まる。
【0031】(2) 画像空間の1点からその点に対応す
る実空間上の点に対して距離と姿勢が求まる。但し,直
線方向の位置(直線に沿った位置,Y座標は決まらな
い)。即ち, X2 +Y2 =d2 (dは特徴点まで
の距離であって定数)。
る実空間上の点に対して距離と姿勢が求まる。但し,直
線方向の位置(直線に沿った位置,Y座標は決まらな
い)。即ち, X2 +Y2 =d2 (dは特徴点まで
の距離であって定数)。
【0032】 X=Asin(θ+α)(A,αは定数)。 が得られる。簡単にf(X,Y,θ)=0に表す。 (3) 画像空間の円から,その円に対応する実空間上の
円に対して,位置,姿勢が決まる。円は,画像面では楕
円となるので,その楕円の大きさと半径からの位置およ
び姿勢が求まる(X,Y,θ)が求まる。
円に対して,位置,姿勢が決まる。円は,画像面では楕
円となるので,その楕円の大きさと半径からの位置およ
び姿勢が求まる(X,Y,θ)が求まる。
【0033】(4) 画像空間の領域の面積から,その領
域に対応する実空間上の領域に対して,距離dが決ま
る。例えば,ドア,奥の壁等の面積が既知であれば画像
面上の面積から距離を求めることができる。但し,平面
では近似値となるので,近似値で計算するか補正する必
要がある。実空間の領域が球面であれば正しい距離が求
まる。
域に対応する実空間上の領域に対して,距離dが決ま
る。例えば,ドア,奥の壁等の面積が既知であれば画像
面上の面積から距離を求めることができる。但し,平面
では近似値となるので,近似値で計算するか補正する必
要がある。実空間の領域が球面であれば正しい距離が求
まる。
【0034】(5) 画像空間の複数のエッジから消失点
(無限遠の点であって,例えば平行の2本のエッジの交
わる点)が求まれば,姿勢θが求まる。次に,上記のよ
うな複数の特徴物から求められた自己位置パラメータ
(X,Y,θ)を統合して正確の自己位置を計算する方
法について説明する。
(無限遠の点であって,例えば平行の2本のエッジの交
わる点)が求まれば,姿勢θが求まる。次に,上記のよ
うな複数の特徴物から求められた自己位置パラメータ
(X,Y,θ)を統合して正確の自己位置を計算する方
法について説明する。
【0035】〔自己位置の統合方法(自己位置統合部の
処理)〕自己位置パラメータをx,y,θとする。個々
の特徴からは,x,y,θを変数とする関数が得られ
る。この3つの変数からなる空間で関数からの距離の和
が最小になるように,最小自乗法により自己位置を推定
する。例えば,上記特徴の種類(1) により(x,θ)が
求まり,種類(2) によりf(x,y,θ)が求まり,種
類(3) により(x,y,θ)が求まり,種類(4) により
dが求まり,種類(5) によりθが求まっている。そこ
で,自己位置を(x0 ,y0 ,θ0 )とする。この点は
x,y,θの空間上で,x,y,θの関数からの距離の
自乗の和が最小になる点として求める。
処理)〕自己位置パラメータをx,y,θとする。個々
の特徴からは,x,y,θを変数とする関数が得られ
る。この3つの変数からなる空間で関数からの距離の和
が最小になるように,最小自乗法により自己位置を推定
する。例えば,上記特徴の種類(1) により(x,θ)が
求まり,種類(2) によりf(x,y,θ)が求まり,種
類(3) により(x,y,θ)が求まり,種類(4) により
dが求まり,種類(5) によりθが求まっている。そこ
で,自己位置を(x0 ,y0 ,θ0 )とする。この点は
x,y,θの空間上で,x,y,θの関数からの距離の
自乗の和が最小になる点として求める。
【0036】即ち,(x0 ,y0 ,θ0 )からそれぞれ
の関数への距離の自乗を求め,その関数をg(x0 ,y
0 ,θ0 )とする。 Nは特徴数 Pが最小になるような(x0 ,y0 ,θ0 )を求める。
の関数への距離の自乗を求め,その関数をg(x0 ,y
0 ,θ0 )とする。 Nは特徴数 Pが最小になるような(x0 ,y0 ,θ0 )を求める。
【0037】即ち ∂P/∂x=0,∂P/∂y=0,
∂P/∂θ=0を解けば良い。上記のようにして,複数
の対象物(対象物1,対象物2,対象物N)に基づい得
られた自己位置パラメータを自己位置統合部は統合して
正確で自己位置を求めることができる。そして,求めた
自己位置を,駆動制御部(図示)に出力して,自走車の
移動制御を行う。
∂P/∂θ=0を解けば良い。上記のようにして,複数
の対象物(対象物1,対象物2,対象物N)に基づい得
られた自己位置パラメータを自己位置統合部は統合して
正確で自己位置を求めることができる。そして,求めた
自己位置を,駆動制御部(図示)に出力して,自走車の
移動制御を行う。
【0038】なお,最小自乗法で重み付けをする時,関
数の誤差分散を求め,その分布が他の関数から大きくは
ずれている時は誤検出の可能性があるとして,取り除く
ようにしても良い。最小自乗法では大きな誤差のデータ
が1つでもあると全体の精度に大きく影響するので,こ
のようにすることにより測定精度を向上させることがで
きる。
数の誤差分散を求め,その分布が他の関数から大きくは
ずれている時は誤検出の可能性があるとして,取り除く
ようにしても良い。最小自乗法では大きな誤差のデータ
が1つでもあると全体の精度に大きく影響するので,こ
のようにすることにより測定精度を向上させることがで
きる。
【0039】
〔実施例1〕図3は本発明の実施例1である。
【0040】図3において,50は特徴点抽出法による
演算部である。51は画像処理部であって,特徴点を抽
出するものである。
演算部である。51は画像処理部であって,特徴点を抽
出するものである。
【0041】52はマッチング部であって,抽出した特
徴点と実空間における特徴点の対応をとるものである。
53は自己位置計算部であって,記憶部54に記憶され
ている特徴点の実空間における位置情報と抽出した特徴
点の画像上の位置に基づいて自己位置のパラメータを算
出するものである。
徴点と実空間における特徴点の対応をとるものである。
53は自己位置計算部であって,記憶部54に記憶され
ている特徴点の実空間における位置情報と抽出した特徴
点の画像上の位置に基づいて自己位置のパラメータを算
出するものである。
【0042】54は記憶部であって,特徴点の実空間に
おける位置を保持するものである。60はエッジ抽出法
による演算部である。61は画像処理部であって,エッ
ジを抽出するものである。
おける位置を保持するものである。60はエッジ抽出法
による演算部である。61は画像処理部であって,エッ
ジを抽出するものである。
【0043】62はマッチング部であって,抽出したエ
ッジと実空間におけるエッジの対応をとるものである。
63は自己位置計算部であって,記憶部64に記憶され
ているエッジの実空間における位置情報と抽出したエッ
ジの画像上の位置に基づいて自己位置のパラメータを算
出するものである。
ッジと実空間におけるエッジの対応をとるものである。
63は自己位置計算部であって,記憶部64に記憶され
ているエッジの実空間における位置情報と抽出したエッ
ジの画像上の位置に基づいて自己位置のパラメータを算
出するものである。
【0044】64は記憶部であって,エッジの実空間に
おける位置を保持するものである。70は円の抽出法に
よる演算部である。71は画像処理部であって,円を抽
出するものである(例えば,円は図2 (b)の照明30で
ある) 72はマッチング部であって,抽出した円と実空間にお
ける円の対応をとるものである。
おける位置を保持するものである。70は円の抽出法に
よる演算部である。71は画像処理部であって,円を抽
出するものである(例えば,円は図2 (b)の照明30で
ある) 72はマッチング部であって,抽出した円と実空間にお
ける円の対応をとるものである。
【0045】73は自己位置計算部であって,記憶部7
4に記憶されている円の実空間における位置情報と抽出
した円の画像上の位置に基づいて自己位置のパラメータ
を算出するものである。
4に記憶されている円の実空間における位置情報と抽出
した円の画像上の位置に基づいて自己位置のパラメータ
を算出するものである。
【0046】74は記憶部であって,円の実空間におけ
る位置を保持するものである。80は領域抽出法による
演算部である。81は画像処理部であって,領域を抽出
するものである。領域は,例えば図2 (b)の場合奥の壁
24の面積である。
る位置を保持するものである。80は領域抽出法による
演算部である。81は画像処理部であって,領域を抽出
するものである。領域は,例えば図2 (b)の場合奥の壁
24の面積である。
【0047】82はマッチング部であって,抽出した領
域と実空間における領域の対応をとるものである。83
は自己位置計算部であって,記憶部84に記憶されてい
る領域の実空間における位置情報と抽出した領域の画像
上の位置に基づいて自己位置のパラメータを算出するも
のである。
域と実空間における領域の対応をとるものである。83
は自己位置計算部であって,記憶部84に記憶されてい
る領域の実空間における位置情報と抽出した領域の画像
上の位置に基づいて自己位置のパラメータを算出するも
のである。
【0048】84は記憶部であって,領域の実空間にお
ける位置を保持するものである。185は自己位置統合
部である。186は自己位置出力部である。
ける位置を保持するものである。185は自己位置統合
部である。186は自己位置出力部である。
【0049】図4の構成の動作における対象物の抽出と
マッチングについて説明する。 (1) 対象物の抽出 画像の濃淡変化等を微分演算等で抽出し,連結してエッ
ジを抽出する。また,画像上でのエッジの位置と方向を
計算する。次に,実空間の直線とマッチングする。画像
上のエッジの位置と方向から実空間上の直線を特定でき
るものがあれば(図2 (b)の壁と床の境界,壁と天井の
境界),それを対応付ける。画像上のエッジに対して,
複数の対応する直線の候補がある場合には(図2 (b)の
垂直エッジ等),現在位置を推定して検出できるエッジ
を特定するか,他の特徴との配置関係などを使って特定
する。現在位置の推定は,車輪の回転数やその他のセン
サ,直前まで更新してきた自己位置データを用いて推定
できる。
マッチングについて説明する。 (1) 対象物の抽出 画像の濃淡変化等を微分演算等で抽出し,連結してエッ
ジを抽出する。また,画像上でのエッジの位置と方向を
計算する。次に,実空間の直線とマッチングする。画像
上のエッジの位置と方向から実空間上の直線を特定でき
るものがあれば(図2 (b)の壁と床の境界,壁と天井の
境界),それを対応付ける。画像上のエッジに対して,
複数の対応する直線の候補がある場合には(図2 (b)の
垂直エッジ等),現在位置を推定して検出できるエッジ
を特定するか,他の特徴との配置関係などを使って特定
する。現在位置の推定は,車輪の回転数やその他のセン
サ,直前まで更新してきた自己位置データを用いて推定
できる。
【0050】(2) マッチング 画像を2値化して,照明などの明るい領域を検出し,そ
の重心位置を検出する。または,画像からエッジを抽出
し,その交点や端点を検出する。このようにして,特徴
点を検出し,その画像上での位置を計算する。次に実空
間とのマッチングをする。特徴に色や大きさ等の付加情
報があればマッチングのてがかりにする。
の重心位置を検出する。または,画像からエッジを抽出
し,その交点や端点を検出する。このようにして,特徴
点を検出し,その画像上での位置を計算する。次に実空
間とのマッチングをする。特徴に色や大きさ等の付加情
報があればマッチングのてがかりにする。
【0051】図4は本発明の実施例1の動作のフローチ
ャートである。図4において,51は特徴点抽出法によ
る画像処理部である。
ャートである。図4において,51は特徴点抽出法によ
る画像処理部である。
【0052】61はエッジ抽出法による画像処理部であ
る。71は円の抽出法による画像処理部である。81は
領域抽出法による画像処理部である。
る。71は円の抽出法による画像処理部である。81は
領域抽出法による画像処理部である。
【0053】S2〜S5は特徴点抽出法による自己位置
計算のフローチャートである。S12〜S15はエッジ
抽出法による自己位置計算のフローチャートである。S
22〜S25は円の抽出法による自己位置計算のフロー
チャートである。
計算のフローチャートである。S12〜S15はエッジ
抽出法による自己位置計算のフローチャートである。S
22〜S25は円の抽出法による自己位置計算のフロー
チャートである。
【0054】S32〜S35は領域の抽出法による自己
位置計算のフローチャートである。図4のステップ番号
に従って,図3の実施例1の動作を説明する。 S1 画像入力装置42は画像を入力する。
位置計算のフローチャートである。図4のステップ番号
に従って,図3の実施例1の動作を説明する。 S1 画像入力装置42は画像を入力する。
【0055】S2 特徴点抽出法による画像処理部51
は特徴点を抽出する。 S3 画像処理部51は画像上の特徴点の位置を計算す
る。 S4 マッチング部52は,実空間における特徴点と画
像面において抽出した特徴点との対応をとる。
は特徴点を抽出する。 S3 画像処理部51は画像上の特徴点の位置を計算す
る。 S4 マッチング部52は,実空間における特徴点と画
像面において抽出した特徴点との対応をとる。
【0056】S5 自己位置計算部53は記憶部54に
保持されている特徴点の実空間における位置情報とによ
り自己位置パラメータを求める(画像面から特徴点まで
の距離およびX座標が求まる)。
保持されている特徴点の実空間における位置情報とによ
り自己位置パラメータを求める(画像面から特徴点まで
の距離およびX座標が求まる)。
【0057】S12 エッジ抽出法による画像処理部6
1はエッジを抽出する。 S13 画像処理部61は画像上のエッジの位置を計算
する。 S14 マッチング部62は,実空間におけるエッジと
画像面において抽出したエッジの対応をとる。
1はエッジを抽出する。 S13 画像処理部61は画像上のエッジの位置を計算
する。 S14 マッチング部62は,実空間におけるエッジと
画像面において抽出したエッジの対応をとる。
【0058】S15 自己位置計算部63は記憶部64
に保持されているエッジの実空間における位置情報とに
より自己位置パラメータを求める(回転角度θとX座標
が求まる)。
に保持されているエッジの実空間における位置情報とに
より自己位置パラメータを求める(回転角度θとX座標
が求まる)。
【0059】S22 円の抽出法による画像処理部71
は円を抽出する。 S23 画像処理部71は画像上の円の位置および形状
を計算する。 S24 マッチング部72は,実空間における特徴点と
画像面において抽出した特徴点との対応をとる。
は円を抽出する。 S23 画像処理部71は画像上の円の位置および形状
を計算する。 S24 マッチング部72は,実空間における特徴点と
画像面において抽出した特徴点との対応をとる。
【0060】S25 自己位置計算部73は記憶部74
に保持されている円の実空間における位置情報とにより
自己位置パラメータを求める(X,Y,θが求まる)。 S32 領域の抽出法による画像処理部81は領域(例
えば,奥の壁)を抽出する。
に保持されている円の実空間における位置情報とにより
自己位置パラメータを求める(X,Y,θが求まる)。 S32 領域の抽出法による画像処理部81は領域(例
えば,奥の壁)を抽出する。
【0061】S33 画像処理部81は画像上の領域
(奥の壁)の位置および面積を計算する。 S34 マッチング部82は,実空間における奥の壁と
画像面において抽出した領域(奥の壁)との対応をと
る。
(奥の壁)の位置および面積を計算する。 S34 マッチング部82は,実空間における奥の壁と
画像面において抽出した領域(奥の壁)との対応をと
る。
【0062】S35 自己位置計算部83は記憶部84
に保持されている領域(奥の壁)の位置情報と面積情報
とにより自己位置パラメータを求める。 S36 自己位置統合部185は特徴点抽出法により求
めた自己位置パラメータ,エッジの抽出法により求めた
自己位置パラメータ,円の抽出法により求めた自己位置
パラメータ,領域の抽出法により求めた自己位置パラメ
ータにより,統合的に自己位置を計算する。自己位置出
力部186は求めた自己位置を駆動制御部(図示せず)
に出力する。
に保持されている領域(奥の壁)の位置情報と面積情報
とにより自己位置パラメータを求める。 S36 自己位置統合部185は特徴点抽出法により求
めた自己位置パラメータ,エッジの抽出法により求めた
自己位置パラメータ,円の抽出法により求めた自己位置
パラメータ,領域の抽出法により求めた自己位置パラメ
ータにより,統合的に自己位置を計算する。自己位置出
力部186は求めた自己位置を駆動制御部(図示せず)
に出力する。
【0063】図5は本発明の実施例1のエッジの抽出方
法およびエッジの交点,端点の検出方法およびエッジの
消失点のフローチャートである。図5 (a)はエッジ抽出
のフローチャートである。
法およびエッジの交点,端点の検出方法およびエッジの
消失点のフローチャートである。図5 (a)はエッジ抽出
のフローチャートである。
【0064】S1 画像入力をする。 S2 微分フィルタ,または2次微分フィルタによる画
像処理をする。 S3 微分値があるしきい値以上で,ピークになる点を
エッジとして抽出する。
像処理をする。 S3 微分値があるしきい値以上で,ピークになる点を
エッジとして抽出する。
【0065】図5 (b)はエッジの交点,端点の検出方法
のフローチャートである。 S11 画像入力をする。 S12 エッジ抽出をする。
のフローチャートである。 S11 画像入力をする。 S12 エッジ抽出をする。
【0066】S13 エッジ点の追跡,またはハフ変換
などでエッジを連結する。 S14 連結したエッジ(線分)から交点,端点を検出
する。 図5 (c)はエッジの消失点の検出方法のフローである。
などでエッジを連結する。 S14 連結したエッジ(線分)から交点,端点を検出
する。 図5 (c)はエッジの消失点の検出方法のフローである。
【0067】S21 画像入力をする。 S22 エッジ抽出,または線分抽出をする。 S23 エッジ(線分)の方向から,仮想の交点(消失
点)を計算する。
点)を計算する。
【0068】図6は本発明の実施例1の領域の抽出方法
と面積の計算方法のフローチャートである。図6 (a)は
領域の抽出方法であって,円,奥の壁等の領域を抽出す
る方法である。
と面積の計算方法のフローチャートである。図6 (a)は
領域の抽出方法であって,円,奥の壁等の領域を抽出す
る方法である。
【0069】S31 画像入力をする。 S32 温度や色が一定範囲の画素をしきい値処理によ
り抽出する。 S33 抽出された画素で隣接している画素を1つの領
域としてグループ化する。
り抽出する。 S33 抽出された画素で隣接している画素を1つの領
域としてグループ化する。
【0070】図6 (b)は面積の計算方法のフローチャー
トである。 S41 画像入力をする。 S42 領域を抽出する。
トである。 S41 画像入力をする。 S42 領域を抽出する。
【0071】S43 領域内の画素の位置の統計的な処
理により,面積,重心,周囲長などの計算をする。 図7は本発明の装置構成の実施例2および実施例3であ
る。
理により,面積,重心,周囲長などの計算をする。 図7は本発明の装置構成の実施例2および実施例3であ
る。
【0072】走行前にあらかじめ経路上の特徴物の画像
の特徴パターンとその位置を記憶部に記憶しておく。走
行中に画像を入力し,所定の特徴パターンと最も似てい
る画像パターンを検出する。この場合,特徴抽出とマッ
チングは同時に処理される。検出後は同様である。従っ
て,この方法によればマッチングの制約がなくなり,現
在位置を推定する必要もない。
の特徴パターンとその位置を記憶部に記憶しておく。走
行中に画像を入力し,所定の特徴パターンと最も似てい
る画像パターンを検出する。この場合,特徴抽出とマッ
チングは同時に処理される。検出後は同様である。従っ
て,この方法によればマッチングの制約がなくなり,現
在位置を推定する必要もない。
【0073】図7はこの画像パターンとの一致する対象
物との位置関係を推定する方法を図3の構成に付加し
て,特徴点,エッジ抽出等により求めた自己位置パラメ
ータと特徴パターン法により求めた自己位置パラメータ
を統合して自己位置を推定する構成である。
物との位置関係を推定する方法を図3の構成に付加し
て,特徴点,エッジ抽出等により求めた自己位置パラメ
ータと特徴パターン法により求めた自己位置パラメータ
を統合して自己位置を推定する構成である。
【0074】図7において,50は特徴点抽出法による
演算部である。51は画像処理部であって,特徴点を抽
出するものである。
演算部である。51は画像処理部であって,特徴点を抽
出するものである。
【0075】52はマッチング部である。53は自己位
置計算部である。54は記憶部であって,特徴点の実空
間における位置を保持するものである。
置計算部である。54は記憶部であって,特徴点の実空
間における位置を保持するものである。
【0076】60はエッジ抽出法による演算部である。
61は画像処理部であって,エッジを抽出するものであ
る。62はマッチング部である。
61は画像処理部であって,エッジを抽出するものであ
る。62はマッチング部である。
【0077】63は自己位置計算部である。64は記憶
部であって,エッジの実空間における位置を保持するも
のである。70は円の抽出法による演算部である。
部であって,エッジの実空間における位置を保持するも
のである。70は円の抽出法による演算部である。
【0078】71は画像処理部であって,円を抽出する
ものである(例えば,円は図2 (b)の照明30である) 72はマッチング部である。
ものである(例えば,円は図2 (b)の照明30である) 72はマッチング部である。
【0079】73は自己位置計算部である。74は記憶
部であって,円の実空間における位置を保持するもので
ある。80は領域抽出法による演算部である。
部であって,円の実空間における位置を保持するもので
ある。80は領域抽出法による演算部である。
【0080】81は画像処理部であって,領域を抽出す
るものである。領域は,例えば図2 (b)の場合奥の壁2
4であって,面積を計算するものである。82はマッチ
ング部である。
るものである。領域は,例えば図2 (b)の場合奥の壁2
4であって,面積を計算するものである。82はマッチ
ング部である。
【0081】83は自己位置計算部である。84は記憶
部であって,領域の実空間における位置を保持するもの
である。90は特徴パターン法による演算部である。
部であって,領域の実空間における位置を保持するもの
である。90は特徴パターン法による演算部である。
【0082】91は画像処理部であって,特徴パターン
を抽出するものである。特徴パターンは,例えば図2
(b)の画像の例の場合,ドアのノブ31’,ドア31と
エッジ26の垂直線等である。
を抽出するものである。特徴パターンは,例えば図2
(b)の画像の例の場合,ドアのノブ31’,ドア31と
エッジ26の垂直線等である。
【0083】93は自己位置計算部であって,記憶部9
4に記憶されている領域の実空間における位置情報に基
づいて抽出した特徴パターンの画像上の位置に基づいて
自己位置のパラメータを算出するものである。
4に記憶されている領域の実空間における位置情報に基
づいて抽出した特徴パターンの画像上の位置に基づいて
自己位置のパラメータを算出するものである。
【0084】94は記憶部であって,特徴パターンの実
空間における位置を保持するものである。185は自己
位置統合部である。
空間における位置を保持するものである。185は自己
位置統合部である。
【0085】186は自己位置出力部である。図8は本
発明の実施例2および実施例3のフローチャートであ
る。 〔実施例2〕図8 (a)は本発明の装置構成の実施例2の
特徴パターン法による演算部のフローチャートである。
発明の実施例2および実施例3のフローチャートであ
る。 〔実施例2〕図8 (a)は本発明の装置構成の実施例2の
特徴パターン法による演算部のフローチャートである。
【0086】91は特徴パターン法による画像処理部で
ある。110は特徴パターン検出部である。111は他
の抽出方法による自己位置計算結果である。
ある。110は特徴パターン検出部である。111は他
の抽出方法による自己位置計算結果である。
【0087】S1 画像入力をする。 S2 特徴パターン検出部110は特徴パターンを検出
する。 S3 自己位置計算をする。
する。 S3 自己位置計算をする。
【0088】S4 他の自己位置計算結果とにより自己
位置統合をする。 〔実施例3〕図8 (b)は本発明の実施例3である。実施
例3は実施例2の特徴パターン検出部110を相関演算
装置により構成したものである。
位置統合をする。 〔実施例3〕図8 (b)は本発明の実施例3である。実施
例3は実施例2の特徴パターン検出部110を相関演算
装置により構成したものである。
【0089】図7における特徴パターン検出を相関演算
により行うことで高速に特徴パターンを検出することが
できる。つまり,まず走行前にあらかじめ経路上の特徴
物の特徴パターンとその位置を記憶部に記憶しておく。
次に,走行中に画像を入力し,画像の全体または一部に
対して記憶している特徴パターンと画素単位の差分計算
を行い,その差の絶対値または2乗の和が最も小さい領
域を類似度が最も大きいとして検出する。その他の処理
は実施例2と同様である。相関演算装置は高速であるの
でパターン検出を実時間で行うことができるようにな
る。
により行うことで高速に特徴パターンを検出することが
できる。つまり,まず走行前にあらかじめ経路上の特徴
物の特徴パターンとその位置を記憶部に記憶しておく。
次に,走行中に画像を入力し,画像の全体または一部に
対して記憶している特徴パターンと画素単位の差分計算
を行い,その差の絶対値または2乗の和が最も小さい領
域を類似度が最も大きいとして検出する。その他の処理
は実施例2と同様である。相関演算装置は高速であるの
でパターン検出を実時間で行うことができるようにな
る。
【0090】図8 (b)の相関演算装置で構成した特徴パ
ターン検出部のフローチャートを説明する。 S11 画像を入力する。
ターン検出部のフローチャートを説明する。 S11 画像を入力する。
【0091】S12 相関演算装置はテンプレート画像
(記憶部に記憶した特徴パターン)と画像の全体もしく
は一部と相関演算を行う。 S13 相関度の最も高いもの(例えば距離の一番近い
もの等)を検出し,画像から特徴パターンを抽出する。
(記憶部に記憶した特徴パターン)と画像の全体もしく
は一部と相関演算を行う。 S13 相関度の最も高いもの(例えば距離の一番近い
もの等)を検出し,画像から特徴パターンを抽出する。
【0092】以後の自己位置計算,自己位置統合は実施
例2と同様である。 〔実施例4〕図7の構成では,個々の特徴のマッチング
において誤対応することが考えられる。そこで,個々の
マッチングの後で,他の特徴との配置関係を調べること
により誤検出を取り除くことができる。
例2と同様である。 〔実施例4〕図7の構成では,個々の特徴のマッチング
において誤対応することが考えられる。そこで,個々の
マッチングの後で,他の特徴との配置関係を調べること
により誤検出を取り除くことができる。
【0093】特徴は実空間での位置が決まっているの
で,画素空間上でもある範囲の配置関係をもつ。例え
ば,実空間上で1つの直線上にある複数の特徴点は画像
空間上でも1つの直線上に存在する。または,実空間上
で特徴1が特徴2の垂直方向の上側にあれば画像空間で
も,上側にある。このような関係を用いて検出したパタ
ーン(特徴点,エッジ,特徴パターン等)が誤検出であ
ることを判定し,取り除くことができる。例えば,図2
(b)の場合,壁と床の境界のエッジの上にドアの角があ
り,壁と天井の2本の境界の間に照明がある等,画像上
の特徴物の間には拘束条件がある。この関係を用いて検
出したパターンが正しいものであるかないかを判定する
ことができる。
で,画素空間上でもある範囲の配置関係をもつ。例え
ば,実空間上で1つの直線上にある複数の特徴点は画像
空間上でも1つの直線上に存在する。または,実空間上
で特徴1が特徴2の垂直方向の上側にあれば画像空間で
も,上側にある。このような関係を用いて検出したパタ
ーン(特徴点,エッジ,特徴パターン等)が誤検出であ
ることを判定し,取り除くことができる。例えば,図2
(b)の場合,壁と床の境界のエッジの上にドアの角があ
り,壁と天井の2本の境界の間に照明がある等,画像上
の特徴物の間には拘束条件がある。この関係を用いて検
出したパターンが正しいものであるかないかを判定する
ことができる。
【0094】図9はそのための装置構成の実施例であ
る。図9において,41は自走車である。
る。図9において,41は自走車である。
【0095】42は画像入力装置である。50は特徴点
抽出法による演算部である。55は検証部であって,抽
出された特徴点,エッジ,特徴パターン等のパターンに
対して互いの位置関係を確認し,正しく抽出されたもの
であるか否かを判定するものである。
抽出法による演算部である。55は検証部であって,抽
出された特徴点,エッジ,特徴パターン等のパターンに
対して互いの位置関係を確認し,正しく抽出されたもの
であるか否かを判定するものである。
【0096】60はエッジ抽出法による演算部である。
70は円の抽出法による演算部である。80は領域抽出
法による演算部である。
70は円の抽出法による演算部である。80は領域抽出
法による演算部である。
【0097】90は特徴パターン法による演算部であ
る。185は自己位置統合部である。186は自己位置
出力部である。
る。185は自己位置統合部である。186は自己位置
出力部である。
【0098】図10は本発明の装置構成の実施例4と実
施例5のフローチャートおよび実施例4の検証部の実施
例である。図10 (a)は検証部のフローチャートである
(実施例4,5に共通)。
施例5のフローチャートおよび実施例4の検証部の実施
例である。図10 (a)は検証部のフローチャートである
(実施例4,5に共通)。
【0099】S1 画像入力をする。 S2 特徴パターンを検出する(特徴パターン検出によ
る場合)。 S12 特徴点,エッジ,円,領域を検出する場合に
は,特徴抽出をする。
る場合)。 S12 特徴点,エッジ,円,領域を検出する場合に
は,特徴抽出をする。
【0100】S13 特徴点,エッジ,円,領域につい
てマッチングする。 S3 検出パターン(特徴パターン,特徴点,エッジ,
円,領域)について互いの位置関係により検証をする。
てマッチングする。 S3 検出パターン(特徴パターン,特徴点,エッジ,
円,領域)について互いの位置関係により検証をする。
【0101】S4 自己位置計算をする。 S5 自己位置統合をする。 図10 (b)は実施例4の検証部の構成である。
【0102】図10において,55は検証部である。1
21は検証処理部であって,検出パターンについて互い
の位置関係から正しく抽出されたものであるか否かを判
定するものである。
21は検証処理部であって,検出パターンについて互い
の位置関係から正しく抽出されたものであるか否かを判
定するものである。
【0103】122はパターン間の位置関係保持部であ
る。図11は本発明の実施例4の検証部のフローチャー
トである。図11 (a)は位置関係の入力と保持のフロー
チャートである。
る。図11は本発明の実施例4の検証部のフローチャー
トである。図11 (a)は位置関係の入力と保持のフロー
チャートである。
【0104】S1 各パターン間の位置関係を入力す
る。 S2 各パターン間の位置関係を保持する。 図11 (b)は検証処理部のフローチャートである。
る。 S2 各パターン間の位置関係を保持する。 図11 (b)は検証処理部のフローチャートである。
【0105】S11 画像入力する。 S12 パターン検出する(特徴パーン,特徴点,エッ
ジ,円,領域等(パターン1〜Nとする))。
ジ,円,領域等(パターン1〜Nとする))。
【0106】S13 パターンA,A=1とする(初期
設定)。 S14 パターンB,B=1とする(初期設定)。 S15 パターンAとパターンBの画像上の位置関係の
モデルを検索する。
設定)。 S14 パターンB,B=1とする(初期設定)。 S15 パターンAとパターンBの画像上の位置関係の
モデルを検索する。
【0107】S16,S17 位置関係を満たしていれ
ばパターンAを採用する。 S16,S18 位置関係を満たしていなければパター
ンAを採用しない。 S19,S20 B<Nか判定し,B<NであればBを
B+1としてS15以降の処理を繰り返す。
ばパターンAを採用する。 S16,S18 位置関係を満たしていなければパター
ンAを採用しない。 S19,S20 B<Nか判定し,B<NであればBを
B+1としてS15以降の処理を繰り返す。
【0108】S19,S21 B<Nか判定し,B<N
でなければ,S21においてA<Nか判定する。 S21,S22 A<Nであれば,S14以降の処理を
繰り返す。
でなければ,S21においてA<Nか判定する。 S21,S22 A<Nであれば,S14以降の処理を
繰り返す。
【0109】S21でA<Nでなければ検証を終了す
る。 〔実施例5〕図12は本発明の実施例5である。
る。 〔実施例5〕図12は本発明の実施例5である。
【0110】画像にはノイズがあり,それにより誤検出
をすることがある。そのような場合には継続的に検出し
て安定して検出できるパターンを選択するとノイズの影
響を削減できる。また,継続的に検出することで誤対応
した特徴を検出することができる。画像上の特徴の動き
は実空間での特徴の位置とカメラで決まるので,特徴の
動きから誤対応を検出することができる。
をすることがある。そのような場合には継続的に検出し
て安定して検出できるパターンを選択するとノイズの影
響を削減できる。また,継続的に検出することで誤対応
した特徴を検出することができる。画像上の特徴の動き
は実空間での特徴の位置とカメラで決まるので,特徴の
動きから誤対応を検出することができる。
【0111】図12 (a)は本発明の実施例5の検証部で
ある。55は検証部である。123は検証処理部であ
る。
ある。55は検証部である。123は検証処理部であ
る。
【0112】124はパターンi保持部である。パター
ンiは時系列の画像入力パターンのうち,時刻iに抽出
したパターン(特徴点,エッジ,特徴パターン等)であ
る。図12 (b)は実施例5の検証処理部のフローチャー
トである。
ンiは時系列の画像入力パターンのうち,時刻iに抽出
したパターン(特徴点,エッジ,特徴パターン等)であ
る。図12 (b)は実施例5の検証処理部のフローチャー
トである。
【0113】S1 時系列の画像のうち時刻iの画像を
入力する。 S2 パターンi(特徴点,エッジ,円,領域,特徴パ
ターン等)を検出する。
入力する。 S2 パターンi(特徴点,エッジ,円,領域,特徴パ
ターン等)を検出する。
【0114】S3 パターンiを保持する。 S4 パターンi−1とパターンiの画像上の位置の差
を計算する。 S5 自走車の移動方向から画像上のパターンの動きを
推定する。
を計算する。 S5 自走車の移動方向から画像上のパターンの動きを
推定する。
【0115】S6 S4とS5の結果を比較する。 S7,S8 S4とS5を比較することにより正しく抽
出されたパターンであると判定されれば,そのパターン
を採用する。
出されたパターンであると判定されれば,そのパターン
を採用する。
【0116】S7,S9 S4とS5を比較することに
より正しく抽出されていないパターンであると判定され
れば,そのパターンを採用しない。 S10 i=i+1としてS1以降の処理を繰り返す。
より正しく抽出されていないパターンであると判定され
れば,そのパターンを採用しない。 S10 i=i+1としてS1以降の処理を繰り返す。
【0117】図13は本発明の装置構成の実施例6およ
び実施例7である。検出範囲を絞ることで,誤検出を減
らすことができる。検出範囲を絞るには,現在位置を推
定し,特徴が現れる範囲を予測するか,他の特徴の画像
上の位置と配置関係から,特徴の検出範囲を指定するこ
とができる。
び実施例7である。検出範囲を絞ることで,誤検出を減
らすことができる。検出範囲を絞るには,現在位置を推
定し,特徴が現れる範囲を予測するか,他の特徴の画像
上の位置と配置関係から,特徴の検出範囲を指定するこ
とができる。
【0118】図13はそのための装置構成の実施例であ
る。図13において,41は自走車である。
る。図13において,41は自走車である。
【0119】42は画像入力装置である。50は特徴点
抽出法による演算部である。56は検出範囲設定部であ
って,特徴点,エッジ,特徴パターン等のパターンを抽
出する範囲を設定するものである。
抽出法による演算部である。56は検出範囲設定部であ
って,特徴点,エッジ,特徴パターン等のパターンを抽
出する範囲を設定するものである。
【0120】60はエッジ抽出法による演算部である。
70は円の抽出法による演算部である。80は領域抽出
法による演算部である。
70は円の抽出法による演算部である。80は領域抽出
法による演算部である。
【0121】90は特徴パターン法による演算部であ
る。185は自己位置統合部である。186は自己位置
出力部である。
る。185は自己位置統合部である。186は自己位置
出力部である。
【0122】〔実施例6〕図14は本発明の実施例6の
フローチャートである(図13の装置構成の動作フロ
ー)。
フローチャートである(図13の装置構成の動作フロ
ー)。
【0123】S1 画像入力をする。 S2 検出範囲設定部56は現在位置から画像上の特徴
位置を推定する。 S3 検出範囲設定部56は他の特徴の画像上の位置か
ら特徴位置を推定する。
位置を推定する。 S3 検出範囲設定部56は他の特徴の画像上の位置か
ら特徴位置を推定する。
【0124】S4 検出範囲設定部56は推定位置から
検出範囲を設定する。 S5,S6は特徴点,エッジ,円,領域を抽出する場合
の処理であり,S7は特徴パターンを抽出する場合の処
理である。
検出範囲を設定する。 S5,S6は特徴点,エッジ,円,領域を抽出する場合
の処理であり,S7は特徴パターンを抽出する場合の処
理である。
【0125】S5,S6 検出範囲から特徴抽出をし,
マッチングする。 S7 特徴パターン検出をする。 S8 自己位置計算をする。
マッチングする。 S7 特徴パターン検出をする。 S8 自己位置計算をする。
【0126】S9 自己位置統合をする。 〔実施例7〕図15は本発明の実施例7のフローチャー
トである。
トである。
【0127】床の画像パターンを記憶しておき,走行中
の画像から相関により床領域を抽出する。これにより,
自己位置の範囲が推定できる。また,他の特徴(例え
ば,壁と床の境界)の検出範囲を絞ることができる。
の画像から相関により床領域を抽出する。これにより,
自己位置の範囲が推定できる。また,他の特徴(例え
ば,壁と床の境界)の検出範囲を絞ることができる。
【0128】図15は実施例7のフローチャートであ
る。 S1 画像入力をする。 S2 床画像のパターンを検出する。
る。 S1 画像入力をする。 S2 床画像のパターンを検出する。
【0129】S3 床領域を検出する。 S4 床領域を基に特徴検出範囲を設定する。 S5,S6,S7は特徴点,エッジ,円,領域を抽出す
る場合の処理である。S8,S9は特徴パターンを検出
する場合の処理である。
る場合の処理である。S8,S9は特徴パターンを検出
する場合の処理である。
【0130】S5,S7,S8 特徴検出範囲から特徴
抽出をし,マッチングして特徴を特定し,自己位置を計
算する。 S8,S9 特徴検出範囲から特徴パターンを検出し,
自己位置を計算する。
抽出をし,マッチングして特徴を特定し,自己位置を計
算する。 S8,S9 特徴検出範囲から特徴パターンを検出し,
自己位置を計算する。
【0131】S10 画像面上の床領域の3次元位置を
求め,自己位置を計算する。 S11 自己位置統合部は床の3次元位置に基づくパラ
メータ,特徴点,エッジ,円,領域に基づくパラメー
タ,特徴パターンに基づくパラメータを統合して,正確
な自己位置を求める。
求め,自己位置を計算する。 S11 自己位置統合部は床の3次元位置に基づくパラ
メータ,特徴点,エッジ,円,領域に基づくパラメー
タ,特徴パターンに基づくパラメータを統合して,正確
な自己位置を求める。
【0132】S12 自己位置を出力する。
【0133】
【発明の効果】本発明によれば,個々の特徴(パター
ン)からは求められない自己位置パラメータを求めるこ
とができる。また,自己位置検出のための情報に冗長度
があるので,検出に失敗した特徴があっても,確実に自
己位置を求めることができる。また,検出精度も向上
し,誤検出を発見することができる。
ン)からは求められない自己位置パラメータを求めるこ
とができる。また,自己位置検出のための情報に冗長度
があるので,検出に失敗した特徴があっても,確実に自
己位置を求めることができる。また,検出精度も向上
し,誤検出を発見することができる。
【0134】そのため,本発明によれば,環境条件の悪
い場所でも確実に自走車を目標に向かって移動させるこ
とが可能になる。
い場所でも確実に自走車を目標に向かって移動させるこ
とが可能になる。
【図1】本発明の基本構成を示す図である。
【図2】本発明の座標系の画像の例を示す図である。
【図3】本発明の装置構成の実施例1を示す図である。
【図4】本発明の実施例1のフローチャートを示す図で
ある。
ある。
【図5】本発明の実施例1のエッジ抽出方法,交点,端
点の抽出方法,エッジの消失点のフローチャートを示す
図である。
点の抽出方法,エッジの消失点のフローチャートを示す
図である。
【図6】本発明の実施例1の領域の抽出方法と面積の計
算方法のフローチャートを示す図である。
算方法のフローチャートを示す図である。
【図7】本発明の装置構成の実施例2および実施例3を
示す図である。
示す図である。
【図8】本発明の実施例2のフローチャートおよび本発
明の実施例3のフローチャートを示す図である。
明の実施例3のフローチャートを示す図である。
【図9】本発明の装置構成の実施例4および実施例5を
示す図である。
示す図である。
【図10】本発明の装置構成実施例4と実施例5のフロ
ーチャートおよび実施例4の検証部の構成を示す図であ
る。
ーチャートおよび実施例4の検証部の構成を示す図であ
る。
【図11】本発明の実施例4の検証部のフローチャート
を示す図である。
を示す図である。
【図12】本発明の実施例5を示す図である。
【図13】本発明の装置構成の実施例6および実施例7
を示す図である。
を示す図である。
【図14】本発明の実施例6のフローチャートを示す図
である。
である。
【図15】本発明の実施例7のフローチャートを示す図
である。
である。
【図16】従来の技術を示す図である。
1:自走車 2:画像入力装置 3:特徴物抽出部1 4:自己位置計算部 5:特徴物抽出部2 6:自己位置計算部 7:特徴物抽出部3 8:自己位置計算部 9:自己位置統合部 10:自己位置出力部
Claims (8)
- 【請求項1】 走行する環境を撮影し,走行環境の画像
により自己位置を測定して目標に向かって移動する自走
車の自己位置測定装置において,実空間での位置が既知
である複数の特徴物を画像上で検出し,それぞれの特徴
物の実空間における位置と画像面における位置とに基づ
いて自己位置パラメータを求め,複数の自己位置パラメ
ータを統合して自己位置を求めることを特徴とする自走
車の自己位置測定装置。 - 【請求項2】 画像面の特徴物の特徴パターンと位置を
記憶しておき,移動中の画像からその特徴パターンを抽
出し,該特徴物の実空間における位置と特徴パターンの
画像面における位置とに基づいて自己位置を計算し,他
の特徴物との自己位置とを統合することにより自己位置
を求めることを特徴とする請求項1に記載の自走車の自
己位置測定装置。 - 【請求項3】 特徴パターンの検出を相関演算を用いて
行うことを特徴とする請求項2記載の自走車の自己位置
測定装置。 - 【請求項4】 複数の特徴の画像面における配置関係を
保持し,求められた特徴について配置関係を検証するこ
とにより誤検出を取り除くことを特徴とする請求項1,
2もしくは3に記載の自走車の自己位置測定装置。 - 【請求項5】 特徴物を時系列で連続的に検出し,その
時系列のパターンの関係に基づいて誤検出の特徴物を判
定し,取り除くことを特徴とする請求項1,2,3もし
くは4に記載の自走車の自己位置測定装置。 - 【請求項6】 現在の推定位置に基づいて画像上の特徴
物の検出位置を限定し,限定された検出位置の範囲の特
徴物を検出することを特徴とする請求項1,2,3,4
もしくは5に記載の自走車の自己位置測定装置。 - 【請求項7】 自走車の移動する平面を特徴パターンと
して,移動する平面の特徴パターンを検出し,該平面の
特徴パターンとの関係において特徴抽出の検出位置を限
定し,限定された検出位置の範囲で特徴抽出することを
特徴とする請求項1,2,3,4,5もしくは6に記載
の自走車の自己位置測定装置。 - 【請求項8】 走行する環境を撮影し,走行環境の画像
により自己位置を測定して目標に向かって移動する自走
車の自己位置測定方法において,実空間上の位置が既知
である複数の特徴物を画像上で検出し,それぞれの特徴
物の実空間における位置と画像面における位置とに基づ
いて自己位置パラメータを求め,複数の自己位置パラメ
ータを統合して自己位置を求めることを特徴とする自走
車の自己位置測定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7210736A JPH0953939A (ja) | 1995-08-18 | 1995-08-18 | 自走車の自己位置測定装置および自己位置測定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7210736A JPH0953939A (ja) | 1995-08-18 | 1995-08-18 | 自走車の自己位置測定装置および自己位置測定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0953939A true JPH0953939A (ja) | 1997-02-25 |
Family
ID=16594265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7210736A Withdrawn JPH0953939A (ja) | 1995-08-18 | 1995-08-18 | 自走車の自己位置測定装置および自己位置測定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0953939A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002048513A (ja) * | 2000-05-26 | 2002-02-15 | Honda Motor Co Ltd | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP2005078375A (ja) * | 2003-08-29 | 2005-03-24 | Sony Corp | 方向認識装置、方向認識方法、方向認識システム及びロボット装置 |
JP2006109385A (ja) * | 2004-10-08 | 2006-04-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2006209770A (ja) * | 2005-01-25 | 2006-08-10 | Samsung Electronics Co Ltd | 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体 |
WO2007113956A1 (ja) * | 2006-03-31 | 2007-10-11 | Murata Kikai Kabushiki Kaisha | 移動体位置の推定装置と推定方法及び推定プログラム |
EP1860515A2 (en) * | 2006-05-26 | 2007-11-28 | Fujitsu Ltd. | Mobile robot, and control method and program for the same |
JP2007535765A (ja) * | 2004-04-27 | 2007-12-06 | 本田技研工業株式会社 | 多重視野特徴記述子を用いた同時位置決め及びマッピング |
JP2008305255A (ja) * | 2007-06-08 | 2008-12-18 | Panasonic Electric Works Co Ltd | 地図情報作成装置及びそれを備えた自律移動装置 |
WO2009128223A1 (ja) * | 2008-04-17 | 2009-10-22 | パナソニック株式会社 | 撮像位置判定方法及び撮像位置判定装置 |
JP2011022157A (ja) * | 2000-05-26 | 2011-02-03 | Honda Motor Co Ltd | 位置検出装置、位置検出方法、及び位置検出プログラム |
KR101038702B1 (ko) * | 2008-10-24 | 2011-06-03 | 전자부품연구원 | 로봇의 위치 검출방법 |
WO2014065856A1 (en) * | 2012-10-25 | 2014-05-01 | Massachusetts Institute Of Technology | Vehicle localization using surface penetrating radar |
JP2014523572A (ja) * | 2011-06-24 | 2014-09-11 | ウニヴェルシテ・ダンジェ | 地図データの生成 |
JP2016067800A (ja) * | 2014-10-01 | 2016-05-09 | パナソニックIpマネジメント株式会社 | 電気機器システム |
JP2016177749A (ja) * | 2015-03-23 | 2016-10-06 | 株式会社メガチップス | 移動体制御装置、プログラムおよび集積回路 |
US9651384B2 (en) | 2012-05-02 | 2017-05-16 | Korea Institute Of Science And Technology | System and method for indoor navigation |
JP2017514124A (ja) * | 2014-04-14 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 定位面内にロボットを定位する方法 |
WO2017130590A1 (ja) * | 2016-01-29 | 2017-08-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP2019532369A (ja) * | 2016-09-14 | 2019-11-07 | アイロボット コーポレイション | エリア分類に基づくロボットの構成可能な動作のためのシステム及び方法 |
US10663579B2 (en) | 2017-01-27 | 2020-05-26 | Massachusetts Institute Of Technology | Extending footprint for localization using surface penetrating radar (SPR) |
-
1995
- 1995-08-18 JP JP7210736A patent/JPH0953939A/ja not_active Withdrawn
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002048513A (ja) * | 2000-05-26 | 2002-02-15 | Honda Motor Co Ltd | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP2011022157A (ja) * | 2000-05-26 | 2011-02-03 | Honda Motor Co Ltd | 位置検出装置、位置検出方法、及び位置検出プログラム |
US7672503B2 (en) | 2003-08-29 | 2010-03-02 | Sony Corporation | Direction-recognizing apparatus, direction-recognizing method, direction-recognizing system, and robot apparatus |
JP2005078375A (ja) * | 2003-08-29 | 2005-03-24 | Sony Corp | 方向認識装置、方向認識方法、方向認識システム及びロボット装置 |
JP4644248B2 (ja) * | 2004-04-27 | 2011-03-02 | 本田技研工業株式会社 | 多重視野特徴記述子を用いた同時位置決め及びマッピング |
JP2007535765A (ja) * | 2004-04-27 | 2007-12-06 | 本田技研工業株式会社 | 多重視野特徴記述子を用いた同時位置決め及びマッピング |
US7831094B2 (en) | 2004-04-27 | 2010-11-09 | Honda Motor Co., Ltd. | Simultaneous localization and mapping using multiple view feature descriptors |
JP4556114B2 (ja) * | 2004-10-08 | 2010-10-06 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP2006109385A (ja) * | 2004-10-08 | 2006-04-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2006209770A (ja) * | 2005-01-25 | 2006-08-10 | Samsung Electronics Co Ltd | 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体 |
KR101013392B1 (ko) * | 2006-03-31 | 2011-02-14 | 무라타 기카이 가부시키가이샤 | 이동체 위치 추정 장치와 추정 방법 및 추정 프로그램 |
WO2007113956A1 (ja) * | 2006-03-31 | 2007-10-11 | Murata Kikai Kabushiki Kaisha | 移動体位置の推定装置と推定方法及び推定プログラム |
US8204643B2 (en) | 2006-03-31 | 2012-06-19 | Murata Kikai Kabushiki Kaisha | Estimation device, estimation method and estimation program for position of mobile unit |
JP4753103B2 (ja) * | 2006-03-31 | 2011-08-24 | 村田機械株式会社 | 移動体位置の推定装置と推定方法及び推定プログラム |
EP1860515A2 (en) * | 2006-05-26 | 2007-11-28 | Fujitsu Ltd. | Mobile robot, and control method and program for the same |
EP1860515A3 (en) * | 2006-05-26 | 2011-05-11 | Fujitsu Ltd. | Mobile robot, and control method and program for the same |
JP2008305255A (ja) * | 2007-06-08 | 2008-12-18 | Panasonic Electric Works Co Ltd | 地図情報作成装置及びそれを備えた自律移動装置 |
JP2009260694A (ja) * | 2008-04-17 | 2009-11-05 | Panasonic Corp | 撮像位置判定方法及び撮像位置判定装置 |
WO2009128223A1 (ja) * | 2008-04-17 | 2009-10-22 | パナソニック株式会社 | 撮像位置判定方法及び撮像位置判定装置 |
CN102007767A (zh) * | 2008-04-17 | 2011-04-06 | 松下电器产业株式会社 | 成像位置确定方法和成像位置确定设备 |
KR101038702B1 (ko) * | 2008-10-24 | 2011-06-03 | 전자부품연구원 | 로봇의 위치 검출방법 |
JP2014523572A (ja) * | 2011-06-24 | 2014-09-11 | ウニヴェルシテ・ダンジェ | 地図データの生成 |
US9651384B2 (en) | 2012-05-02 | 2017-05-16 | Korea Institute Of Science And Technology | System and method for indoor navigation |
WO2014065856A1 (en) * | 2012-10-25 | 2014-05-01 | Massachusetts Institute Of Technology | Vehicle localization using surface penetrating radar |
US8949024B2 (en) | 2012-10-25 | 2015-02-03 | Massachusetts Institute Of Technology | Vehicle localization using surface penetrating radar |
JP2017514124A (ja) * | 2014-04-14 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 定位面内にロボットを定位する方法 |
JP2016067800A (ja) * | 2014-10-01 | 2016-05-09 | パナソニックIpマネジメント株式会社 | 電気機器システム |
JP2016177749A (ja) * | 2015-03-23 | 2016-10-06 | 株式会社メガチップス | 移動体制御装置、プログラムおよび集積回路 |
JP2017131556A (ja) * | 2016-01-29 | 2017-08-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
WO2017130590A1 (ja) * | 2016-01-29 | 2017-08-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP2019532369A (ja) * | 2016-09-14 | 2019-11-07 | アイロボット コーポレイション | エリア分類に基づくロボットの構成可能な動作のためのシステム及び方法 |
US11314260B2 (en) | 2016-09-14 | 2022-04-26 | Irobot Corporation | Systems and methods for configurable operation of a robot based on area classification |
US11740634B2 (en) | 2016-09-14 | 2023-08-29 | Irobot Corporation | Systems and methods for configurable operation of a robot based on area classification |
US10663579B2 (en) | 2017-01-27 | 2020-05-26 | Massachusetts Institute Of Technology | Extending footprint for localization using surface penetrating radar (SPR) |
US10725171B2 (en) | 2017-01-27 | 2020-07-28 | Massachusetts Institute Of Technology | Method and system for localization of a vehicle using surface penetrating radar |
US10746867B2 (en) | 2017-01-27 | 2020-08-18 | Massachusetts Institute Of Technology | Determining surface characteristics |
US11402493B2 (en) | 2017-01-27 | 2022-08-02 | Massachusetts Institute Of Technology | Determining surface characteristics |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0953939A (ja) | 自走車の自己位置測定装置および自己位置測定方法 | |
Guindel et al. | Automatic extrinsic calibration for lidar-stereo vehicle sensor setups | |
US11561549B2 (en) | Method of controlling mobile robot | |
JP4328692B2 (ja) | 物体検出装置 | |
JP4297501B2 (ja) | 移動体周辺監視装置 | |
JP5588812B2 (ja) | 画像処理装置及びそれを用いた撮像装置 | |
JP3937414B2 (ja) | 平面検出装置及び検出方法 | |
Li et al. | Springrobot: A prototype autonomous vehicle and its algorithms for lane detection | |
US11288526B2 (en) | Method of collecting road sign information using mobile mapping system | |
US5220508A (en) | Position and heading detecting device for self controlled vehicle | |
US4933864A (en) | Mobile robot navigation employing ceiling light fixtures | |
US20060293810A1 (en) | Mobile robot and a method for calculating position and posture thereof | |
US12033400B2 (en) | Overhead-view image generation device, overhead-view image generation system, and automatic parking device | |
JP2005070043A (ja) | 人工マークを利用した知能型システムの自己位置認識装置及び方法、並びにそれを利用した知能型システム | |
JP5016399B2 (ja) | 地図情報作成装置及びそれを備えた自律移動装置 | |
JP6758160B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
CN108007456A (zh) | 一种室内导航方法、装置及系统 | |
JP4042517B2 (ja) | 移動体およびその位置検出装置 | |
JP2006053754A (ja) | 平面検出装置及び検出方法 | |
JP4270386B2 (ja) | 移動体移動量算出装置 | |
Aldon et al. | Mobile robot localization using a light-stripe sensor | |
JP2838474B2 (ja) | 自律移動ロボットの誘導目標捕捉方法と誘導装置 | |
Baligh Jahromi et al. | Layout slam with model based loop closure for 3d indoor corridor reconstruction | |
Lee et al. | Self-localization of a mobile robot without camera calibration using projective invariants | |
Bloom | Use of landmarks for mobile robot navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20021105 |