JPH04216487A - 移動ロボットの位置同定方法 - Google Patents

移動ロボットの位置同定方法

Info

Publication number
JPH04216487A
JPH04216487A JP41055790A JP41055790A JPH04216487A JP H04216487 A JPH04216487 A JP H04216487A JP 41055790 A JP41055790 A JP 41055790A JP 41055790 A JP41055790 A JP 41055790A JP H04216487 A JPH04216487 A JP H04216487A
Authority
JP
Japan
Prior art keywords
map
mobile robot
line
terrain
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP41055790A
Other languages
English (en)
Other versions
JP3094306B2 (ja
Inventor
Shigeo Hirose
茂男 広瀬
Tadaaki Hasegawa
忠明 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takaoka Toko Co Ltd
Original Assignee
Takaoka Electric Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takaoka Electric Mfg Co Ltd filed Critical Takaoka Electric Mfg Co Ltd
Priority to JP02410557A priority Critical patent/JP3094306B2/ja
Publication of JPH04216487A publication Critical patent/JPH04216487A/ja
Application granted granted Critical
Publication of JP3094306B2 publication Critical patent/JP3094306B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、自動掃除機などに利用
される移動ロボットのための位置同定方法に関するもの
で、特に、視覚情報を用いた位置同定方法に関するもの
である。
【0002】
【従来の技術】移動ロボットを合理的に経路誘導するた
めには、現在その移動ロボットが地図上のどの位置にい
てどの方向を向いているかを知ること、すなわちその移
動ロボットの位置を同定することが必要である。そのよ
うな移動ロボットの位置同定方法については、これまで
にも多くの方法が提案されている。その中には、例えば
床に誘導ラインを埋め込んでおき、電磁気等を利用して
その位置を検出するようにしたものなどがある。しかし
ながら、そのようなものでは、環境に手を加えることが
必要となるので設備が大掛りとなる。
【0003】そのように環境に手を加える方法を除外す
ると、最も一般的なものは、車輪の回転計を使用して、
それまでに移動した距離及び方向からそのときの位置を
求めるデッドレコニング法である。しかしながら、この
方法では、移動とともに計測誤差が累積してしまうので
、長距離の誘導には適さない。また、移動を始める前に
必ず初期位置を教示しておかなければならないが、その
操作が著しく煩雑である。例えばオフィスなどで使用さ
れる自動掃除機に移動ロボットを適用する場合を考えて
みる。自動掃除機はポータブルであることが望ましく、
オフィスの適当な場所に置いて掃除を始めさせると、自
動的に自分の位置を検出して指令された部屋や廊下のあ
る範囲の掃除を実行してくれることが望まれる。 そのような作業をデッドレコニングに基づく位置同定方
法によって行わせようとすると、初めに掃除機を置いた
位置及びその方向を正確に入力することが必要となる。 また、掃除のためのジグザグ運動中には誤差が蓄積しや
すい。更に、什器に衝突したりすると、計測できない位
置や方向のずれが生ずることがある。したがって、デッ
ドレコニングに依存する位置同定方法は、自動掃除機の
位置制御には適さない。
【0004】そこで、移動中に周辺の景色を視覚的に計
測し、その情報を使用して位置同定を行う方法も考えら
れている。そのような視覚情報による位置同定方法は、
生物も一般的に使用している方法であり、十分な地図情
報と高速の検索システムとがありさえすれば、どのよう
な状態からでも計測を始めることができ、移動し続けて
も原理的に計測誤差が蓄積することがないという特徴を
有している。
【0005】このような視覚情報を用いた位置同定方法
として従来主に検討されてきたのは、通常のカメラによ
って得られる画像情報を使用して、それをあらかじめ記
憶させておいた地図情報と比較することにより位置を同
定しようとするものである。
【0006】
【発明が解決しようとする課題】しかしながら、そのよ
うにカメラからの画像情報を使用する方法では、3次元
物体が2次元平面に投影されるために、同じシーンであ
っても見る方向によって著しく異なる情報として検出さ
れることになる。また、採光条件などによっても強く影
響される。したがって、そのような画像情報によって位
置を同定しようとすると、極めて多くの条件下で計測し
たシーンを記憶させた膨大な地図情報が必要となり、現
在の情報処理技術では実用化することが難しい。
【0007】本発明は、このような実情に鑑みてなされ
たものであって、その目的は、環境を視覚的に計測し、
その情報を基にして、広い範囲の地図からリアルタイム
で位置同定を行うことのできる移動ロボットの位置同定
方法を得ることである。
【0008】
【課題を解決するための手段】この目的を達成するため
に、本発明では、レーザ光などを投射してその反射光か
らアクティブに環境の3次元情報を得ることのできるレ
ンジセンサを使用するようにしている。そのレンジセン
サは移動ロボットに搭載され、ロボットの移動中、その
レンジセンサによって環境の計測が行われる。そして、
得られる地形レンジ情報とあらかじめ記憶させておいた
地図情報とを比較することにより、そのときの移動ロボ
ットの位置同定が行われる。地図情報はオフライン処理
により入力され、各部の地形の特徴とその場所の存在位
置及び方向とがセットにされて、バイナリトリーの形で
整理して記憶される。ロボットの移動中には、レンジセ
ンサによって計測される部分的な地形レンジ情報からそ
の地形の特徴量がオンライン処理により誘導され、地図
情報のバイナリトリーと照合することにより、その位置
が地図上のどの部分に対応するかが判断される。
【0009】好適には、地形レンジ情報として、その地
形を水平面で切断したときに得られる輪郭線が使用され
る。その輪郭線は複数の線分の集合として表され、その
線分相互の相対位置関係から特徴量が誘導される。
【0010】
【作用】このようにレンジセンサを使用することにより
、環境の3次元情報が直接入力されるようになるので、
入力データの前処理が著しく簡単化される。また、地図
情報をあらかじめオフライン処理してバイナリトリーの
形に構成することにより、高速での検索が可能な形とす
ることができる。したがって、レンジセンサによって得
られるデータを、バイナリトリーの形で整理された地図
情報と照合すれば、そのときの位置を高速で見つけ出す
ことができる。そして、レンジセンサでは、地形の位置
と方向とが直接的に計測されるので、その地形を表す線
分に注目し、その線分相互の相対位置関係からその地形
の特徴量を抽出するようにすることにより、処理の簡素
化を図ることができる。
【0011】
【実施例】以下、図面を用いて本発明をより詳細に説明
する。
【0012】図1は、本発明による位置同定方法に用い
られる地図の一例としての廊下1の壁面2を示す水平断
面図である。このように、本発明の位置同定方法におい
ては、地形レンジ情報として、環境を一定高さの水平面
で切断した水平断面形状が用いられる。これは、その断
面形状が、環境の幾何学的な情報を線画に圧縮した形で
効率よく表現していること、移動ロボットからレーザビ
ームを水平面内で回転走査してその反射点までの距離を
レンジセンサによって計測することにより、その水平断
面形状が容易に得られること、などの特性を有している
からである。図1に示されているように、屋内の廊下1
の壁面2は、通常、直角に折れ曲がって連続する多数の
直線成分によって表される。
【0013】このような廊下1にレンジセンサを搭載し
た移動ロボット3を置き、レーザビーム4を回転走査し
てレンジセンサにより環境を計測すると、図2に示され
ているような壁面2の部分断面形状のレンジデータが得
られる。図2(A)に示されているように、その移動ロ
ボット3の位置からはレーザビーム4を投射することが
できない部位があるので、その計測データにはオクルー
ジョン等による不連続部分が生ずる。また、図2(B)
に拡大して示されているように、そのレンジデータは多
数の点の集まりである。
【0014】この図2のように計測されたレンジデータ
が図1の地図のどの部分に対応するかを高速で判断する
ことができるようにするのが本発明である。そのために
、まず、得られたデータから線分情報を抽出し、その線
分についての特徴量を誘導した後、最尤位置候補を選定
する、という順序で処理を施す。その処理はオンライン
で行う。
【0015】1)  線分情報の抽出レンジセンサの計
測データから線分情報を抽出するには、まず、図3に示
されているように、得られた4つの隣接する測定点集合
iについてパラメータli,θai,及びθbiを求め
る。そして、それらが次の条件を満足するか否かを判定
する。 li<lmax |θai|,|θbi|,|θai+θbi|<θma
xここで、lmax及びθmaxはあらかじめ定められ
た比較的小さな値である。したがって、これらの条件を
満足するときは、その測定点集合iはほぼ直線上にある
とみなすことができる。そこで、その測定点集合iの両
端の点i1とi2とを結び、線分要素kとする。その線
分要素kの位置は、その中点の座標(xk,yk)によ
って表す。
【0016】このような処理を隣接計測データに沿って
実行していき、抽出された線分要素が同一の線分とみな
される場合には、それらを次々に融合して、1本のより
長い線分を構成する。具体的には、線分要素0に対して
線分要素k−1が既に融合されて長さLk−1の線分が
構成されているとすると、その融合済み線分と線分要素
kとについて、図4(A)に示されているパラメータd
,r,及びφを求め、それらがあらかじめ定められた小
さな値dmax,rmax,及びφmaxよりも小さい
場合、すなわちd<dmax r<rmax |φ|<φmax の条件を満足する場合には、その線分要素kは融合済み
線分と同一直線上にあるとみなすことができるので、そ
の線分要素kの中点(xk,yk)と最初の線分0の中
点(x0,y0)とを結ぶことによって、その線分要素
kを新たに線分に融合する。そして、そのように融合さ
れて構成された線分を、図4(B)に示されているよう
に、点(x0,y0)と点(xk,yk)とを通り、そ
れらの点から両端にそれぞれl0/2,lk/2だけ延
出した長さLkの線分として、新たに定義し直す。上述
の条件が満足されない場合には、線分要素kから新しい
線分の生成を開始する。それによって、方向の異なる線
分が形成される。また、上述の条件を満足しても、融合
される線分要素の数をカウントし、一方向への横ずれd
が連続して現れる場合には、ある線分要素から新しい線
分の生成を開始する。それによって、湾曲した壁面が折
曲線分で近似されるようになる。
【0017】このような処理を施した後、Li<Lma
x のような短い融合済み線分は誤差として除去する。ここ
で、Lmaxはあらかじめ定められた短い長さである。
【0018】以上の処理により、図5(A)に示されて
いるような測定点の集合から図5(B)のような線分要
素の集合が形成され、更に、図5(C)に示されている
ような不連続の長い線分データが構成される。そこで、
次の処理として、オクルージョンなどによって生じる欠
損を補間した、より完全な線分を生成する。なお、その
処理の説明のために、図6に示されているように、隣接
する線分a,b相互間のパラメータΘa,Θb,Θc,
及びDを定義する。
【0019】その補間は次のようにして行う。 まず、次の条件 |Θa|<Θmax D>Dmin Θbmin<|Θb|<Θbmax が成り立つときには、線分a,bは段差のある壁面であ
ると判定し、図7の(A)から(B)のように補間する
。ここで、Θmax,Dmin,Θbmin,及びΘb
maxは、あらかじめ定められた値である。
【0020】また、次の条件 Θlow<Θa<Θhigh Θlow<|Θb|+|Θc|<ΘhighD<Dhi
gh が成り立つときには、線分a,bの交点が何らかの理由
で隠れていると判定し、図8の(A)から(B)のよう
に補間する。ここで、Θlow,Θhigh,及びDh
ighはあらかじめ定められた値である。
【0021】2)  特徴量の抽出 以上のようにして抽出された線分から特徴量を誘導する
ために、ある地点で計測されたすべての線分について、
その2本ずつの組み合わせを作る。例えばn本の線分が
検出されたときには nC2組の線分の組み合わせがで
きる。そこで、その組み合わせに含まれる2本の線分を
線分s1,s2と名付ける。その線分s1,s2は、レ
ンジセンサを右回りに回転させて計測するとき、最初に
計測されたものから順にs1,s2としたものである。 その線分s1,s2から抽出される特徴量は、図9に示
されている5つ、すなわち線分s1,s2の長さl1,
l2、線分s1の右端点と線分s2の左端点とを結ぶ線
分s0の長さl0、及び線分s1,s2が線分s0とな
す角度θ1,θ2である。なお、隣接する線分が選ばれ
たときには、特徴量のうちl0及びθ2をそれぞれゼロ
に設定する。
【0022】3)  最尤位置候補の選定位置同定の最
後の段階は、後述するようにしてオフライン処理により
作成されている地図情報のバイナリトリーに対して、計
測された複数の線分セットの特徴量を照合し、最尤位置
候補を選出することである。その手順は次のようにする
【0023】計測された複数の線分セットのすべてに対
し、まず、特徴量θ1,θ2,l0によるバイナリトリ
ーの探索を行い、葉として記憶されている探索ユニット
群を求める。そして、選択された探索ユニットについて
、更に特徴量l1,l2の比較を行い、近似度の高いも
ののみを選択する。それによって、5つの特徴量のすべ
てについて近似度の高い探索ユニットが選択される。
【0024】選択された探索ユニットには、そこに至る
までの特徴量を有する線分セットについて、その地図内
での位置と方向とが含まれている。そこで、その情報と
移動ロボットに対する線分セットの位置関係とから、移
動ロボットの地図内での位置及び方向を算出する。こう
して、移動ロボットの位置候補が求められる。
【0025】次に、移動環境を小領域に分割し、それを
メモリ上で2次元配列に対応させる。そして、計測点の
位置の算出結果が得られるたびに、それが属する小領域
に対応する配列の要素を増加させる。すなわち、その小
領域に対応するメモリ上に順次出力する。それによって
、位置算出結果の密度地図が形成される。そこで、その
密度の高い小領域、すなわち最も多く出力されたメモリ
の位置を計測点の最尤位置候補として選定する。
【0026】4)  地図の検索用バイナリトリーの作
成広い地域を示す地図によって位置同定をリアルタイム
で行うためには、照合の対象となる地図をあらかじめ検
索しやすい形式に構成しておくことが求められる。そこ
で、本発明では、地図情報をバイナリトリー構造とする
。そのようなバイナリトリー型の地図は次のようにして
作成する。
【0027】まず、地図を入力し、その地図上で計測可
能なすべての線分セット、すなわち2本の線分の組み合
わせを求める。地図の入力は、CAD情報などで与えら
れている場合以外は、ロボットを実際の環境内で移動さ
せてレンジセンサにより環境を計測し、その形状を連結
することによって行う。その場合の地図座標の誘導は、
あらかじめ環境内に正確な位置の基準点をいくつか作っ
ておき、ある基準点から次の基準点までデッドレコニン
グにより慎重に位置計測することによって行う。その際
、次の基準点で誤差が計測されれば、それまでの基準点
の間にその誤差を平均的に分散させる。このような場合
の線分セットの導出は、実際に計測される線分セットを
そのまま使用する。また、CAD情報が与えられている
場合には、まず、地図上の存在可能な地点を格子状に区
分し、各地点から計測される線分セットを計算機シミュ
レーションによって求める。そのシミュレーションは、
環境同士の隠れやレンジセンサの有効計測距離を考慮し
て行う。
【0028】次に、計測されたすべての線分セットにつ
いて、図9で導入した5つの特徴量を求め、同時にその
属性として、2本の線分の地図内での位置と方向、例え
ば線分s1の左端の位置と方向との3情報x0,y0,
a0を付加する。これが位置同定のための検索ユニット
となる。
【0029】このようにして形成した検索ユニットのう
ちの3つの特徴量θ1,l0,θ2によってバイナリト
リーを構成し、高速で検索しやすいようにする。葉とし
てはl1,l2の特徴量とx0,y0,a0の属性とを
ストアする。ここで、バイナリトリーの分割には、各パ
ラメータの値の上限と下限とをあらかじめ設定しておき
、分割数が線分セットの弁別に必要十分となるようにそ
の深さを定める。
【0030】このような位置同定方法を用いて、図1で
示される廊下1での検証実験を行った。その廊下1の長
さは50mである。この地図中に含まれている直線の数
は約160本、生成したバイナリトリーのノードの数は
全部で3760個、葉の数は3390個であった。そし
て、そのようなバイナリトリーの構成に必要とした記憶
容量は約90kBであった。また、そのバイナリトリー
をオフラインによって生成するのに要した時間は約14
秒であった。
【0031】オンラインによる位置同定の実験は次のよ
うに行った。まず、レンジセンサとしてはレーザ投射型
のレンジファインダを使用した。そのセンサの有効計測
距離は0.6〜5mであり、計測精度は0.6〜1.4
mにおいて誤差±1%以下である。そのセンサを、移動
ロボットに搭載された高さ1.2mの垂直軸まわりに回
転する電動回転台に載せて、右回りに回転する状態で環
境を測定した。その測定は0.35゜ごとに行った。そ
の結果、図2のようなデータが得られた。次に、移動ロ
ボットを廊下1に沿って移動させ、環境計測を行った。 計測地点は廊下1の中央部で、廊下1に沿って約60c
m間隔の65点である。移動ロボットの方向はほぼ廊下
1の長手方向とした。位置同定のための線分要素の抽出
条件はlmax=120mm,θmax=34゜、線分
融合処理の条件はdmax=30mm,rmax=80
0mm,φmax=22.9゜、不要な線分の除去の条
件はLmax=80mm、段差補間の条件はΘmax=
34゜,Dmin=80mm,Θbmin=26゜,Θ
bmax=94゜、線分の隠れの補間の条件はΘlow
=56゜,Θhigh=124゜,Dhigh=200
mmとした。このような条件で1か所の計測データから
位置同定を行ったところ、位置同定の平均的な正解率は
57%であった。次に、1つ置き、すなわち120cm
間隔の2か所における測定データをマージして位置同定
を行った。その位置同定の結果の正解率は79%であっ
た。対象とする廊下1の壁面2には同じような凹凸のパ
ターンが繰り返して生じている。そして、位置同定に失
敗した例はほとんどがその繰り返しパターンしか計測で
きなかった場所で発生している。したがって、デッドレ
コニング法を補助的に使用したり、高さの違う水平面の
レンジ情報を利用したり、あるいはカメラも付加して線
分の色情報やテクスチャ情報も利用したりするようにす
れば、位置同定の正解率は更に改善されると考えられる
。この処理に要した時間は次のとおりである。すなわち
、環境の測定にはかなり低速の回転台を使用したために
約7秒かかったが、直線を抽出する処理には1〜2秒、
直線のマージ処理には0.2秒、マッチング処理には0
.8〜2秒、最終的な位置推定処理にも0.4秒しかか
からなかった。すなわち、計測後、約3秒で広域での位
置同定ができ、計測時間を入れても10秒程度で済むこ
とになる。
【0032】このように、本発明によれば、レンジセン
サによって得られる視覚情報から地形の特徴量を導き出
し、バイナリトリーの形で記憶されている地図情報と比
較することにより移動ロボットの位置同定を行うように
しているので、移動ロボットが地図上のどの地点に存在
するか全く未知な広い領域にいても、その位置を高速で
同定することができる。そして、自動掃除機のように屋
内環境で使用することを前提とすると、その地形となる
壁面は通常直線成分で構成されており、その壁面を表す
直線成分をレンジデータから抽出することは比較的容易
である。したがって、線分が地形の特徴量を表す基本要
素として適したものとなる。このような線分の組み合わ
せとして特徴量を求める場合、まず第1に考えられるの
は、連続した隣接部分の組み合わせ形態である。しかし
ながら、通常の屋内の壁面にはそれほど複雑な凹凸はな
く、しかも、オクルージョンが生じやすいので隣接部分
が連続して計測されることはまれである。したがって、
そのような特徴量を使用するのは適当ではない。本発明
では、線分を線分ごとに単一に扱い、分散して計測され
た線分が相対的にどのような位置関係にあるかという点
に注目しているので、悪条件の下でも計測がしやすく、
特徴もはっきり生成することができる。また、線分の組
み合わせは多くなるが、それぞれの特徴量は5つだけで
あるので、照合の高速化を図るにも適している。
【0033】なお、上記実施例においては、線分の特徴
量の抽出のために移動ロボットの位置情報のみを利用す
るようにしているが、実際には移動ロボットの方向も情
報として利用することができる。そのようにすれば、最
尤位置候補を選定する際に、その候補位置をより限定す
ることができる。ただし、そのように方向の情報をも利
用するようにしようとすると、2次元の地図配列では不
十分で、3次元配列が必要となるので、メモリ容量を大
きくすることが必要となる。
【0034】移動ロボットの方向は、位置の情報のみか
らでも推定することができる。その最も簡単な方法は、
ある小領域内の位置候補について共通的な方向を示すデ
ータの平均値を使用するというものである。また、2か
所以上で計測して位置同定を行う場合には、それらの計
測点を結ぶ方向から移動ロボットの方向を推定すること
ができる。
【0035】
【発明の効果】以上の説明から明らかなように、本発明
によれば、レンジセンサを用いて環境を視覚的に計測す
ることにより、計測点の位置を地図上から見つけ出すよ
うにしているので、移動ロボットが地図上のどの地点に
いるか全くわからない状態からでも、その位置を同定す
ることができる。しかも、地図情報はオフラインにより
処理して高速で検索しやすいバイナリトリーの形に整理
しておき、レンジセンサによって得られる地形レンジ情
報からその地形の特徴量を誘導し、バイナリトリーと照
合するという処理をオンラインで行うようにしているの
で、その位置同定を極めて短時間で行うことができる。 また、本発明による位置同定方法は、位置同定の領域を
広げていっても、必要な記憶容量が急増するようなこと
がない。原理的に、n倍の領域を記憶するにはn倍の記
憶容量があればよい。したがって、かなり広い領域での
位置同定にも容易に適用することができる。更に、計測
開始から位置同定までに要する計算時間のうちで支配的
なのは直線の抽出処理であり、地図情報の整理にバイナ
リトリーを導入しているので、マッチング処理にはそれ
ほど時間がかからない。したがって、位置同定の領域を
広げても処理時間はそれほど増大せず、リアルタイム性
は保持することができる。こうして、自動掃除機などに
も適した位置同定方法を得ることができる。
【図面の簡単な説明】
【図1】本発明において用いられる地図の一例を示す廊
下の水平断面図である。
【図2】その廊下のある地点においてレンジセンサによ
り計測されるデータを示す説明図である。
【図3】そのデータから線分要素を生成する場合の条件
を説明するための説明図である。
【図4】その線分要素を融合する手順を説明するための
説明図である。
【図5】レンジデータから線分データが構成されていく
状態を示す説明図である。
【図6】隣接する2本の線分間のパラメータを示す説明
図である。
【図7】2本の線分間に段差がある場合の補間の様子を
説明するための説明図である。
【図8】2本の線分間の交点部分が隠れている場合の補
間の様子を説明するための説明図である。
【図9】地形の特徴量としての2本の線分間のパラメー
タを示す説明図である。
【符号の説明】
1  廊下 2  壁面(地形) 3  移動ロボット

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】  与えられた地図上の各部の地形の特徴
    とその場所の存在位置及び方向とをセットにして、バイ
    ナリトリーの形で整理するオフライン処理と、移動ロボ
    ットに搭載されたレンジセンサにより環境を計測し、得
    られた部分的な地形レンジ情報からその地形の特徴量を
    誘導して、前記オフライン処理によって作成されたバイ
    ナリトリーと照合することにより、その移動ロボットの
    位置及び姿勢を同定するオンライン処理と、からなる、
    移動ロボットの位置同定方法。
  2. 【請求項2】  前記地形のレンジ情報として、その地
    形を水平面で切断したときに得られる輪郭線を使用し、
    その輪郭線をいくつかの線分の集合として表現した後、
    それらの線分相互の相対位置関係を利用して前記特徴量
    を誘導するようにした、請求項1記載の位置同定方法。
  3. 【請求項3】  前記計測された地形の特徴量から移動
    ロボットの位置を同定するに当たり、前記バイナリトリ
    ーの探索によって得られる複数の位置候補を前記地図に
    対応するメモリ上に順次出力していき、その位置候補が
    最も多く出力されるメモリの位置を前記移動ロボットの
    位置と同定するようにした、請求項1記載の位置同定方
    法。
JP02410557A 1990-12-14 1990-12-14 移動ロボットの位置同定方法 Expired - Fee Related JP3094306B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02410557A JP3094306B2 (ja) 1990-12-14 1990-12-14 移動ロボットの位置同定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02410557A JP3094306B2 (ja) 1990-12-14 1990-12-14 移動ロボットの位置同定方法

Publications (2)

Publication Number Publication Date
JPH04216487A true JPH04216487A (ja) 1992-08-06
JP3094306B2 JP3094306B2 (ja) 2000-10-03

Family

ID=18519710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02410557A Expired - Fee Related JP3094306B2 (ja) 1990-12-14 1990-12-14 移動ロボットの位置同定方法

Country Status (1)

Country Link
JP (1) JP3094306B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164349A (ja) * 2009-01-13 2010-07-29 Equos Research Co Ltd 制御装置
JP2011145156A (ja) * 2010-01-14 2011-07-28 Ihi Aerospace Co Ltd 移動ロボットの走行領域判別装置及び走行領域判別方法
JP2021508815A (ja) * 2018-11-15 2021-03-11 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164349A (ja) * 2009-01-13 2010-07-29 Equos Research Co Ltd 制御装置
JP2011145156A (ja) * 2010-01-14 2011-07-28 Ihi Aerospace Co Ltd 移動ロボットの走行領域判別装置及び走行領域判別方法
JP2021508815A (ja) * 2018-11-15 2021-03-11 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法
US11035958B2 (en) 2018-11-15 2021-06-15 Bejing Didi Infinity Technology And Development Co., Ltd. Systems and methods for correcting a high-definition map based on detection of obstructing objects

Also Published As

Publication number Publication date
JP3094306B2 (ja) 2000-10-03

Similar Documents

Publication Publication Date Title
CN107749079B (zh) 一种面向无人机扫描重建的点云质量评价和轨迹规划方法
Zhang et al. Line segment based map building and localization using 2D laser rangefinder
CN109509210B (zh) 障碍物跟踪方法和装置
KR900003123B1 (ko) 자유표면 평가방법 및 그의 nc 시스템
US6128086A (en) Scanning arrangement and method
CN103678754B (zh) 信息处理装置及信息处理方法
Kriegel et al. Next-best-scan planning for autonomous 3d modeling
CN108416785B (zh) 面向封闭空间的拓扑分割方法及装置
CN107491070A (zh) 一种移动机器人路径规划方法及装置
Vasquez-Gomez et al. Hierarchical ray tracing for fast volumetric next-best-view planning
Dong et al. A weld line detection robot based on structure light for automatic NDT
Chan et al. A multi-sensor approach for rapid digitization and data segmentation in reverse engineering
JPH09212643A (ja) 三次元物体認識方法及びその装置
Portugal et al. Extracting Topological Information from Grid Maps for Robot Navigation.
JP2009198382A (ja) 環境地図取得装置
JP3094306B2 (ja) 移動ロボットの位置同定方法
JP7093680B2 (ja) 構造物差分抽出装置、構造物差分抽出方法およびプログラム
KR20210004411A (ko) 최적의 이동경로 생성 장치 및 방법
CN114820505A (zh) 一种动态目标的非接触测量方法
Song et al. Automatic recovery of networks of thin structures
CN113592976A (zh) 地图数据的处理方法、装置、家用电器和可读存储介质
CN113703438A (zh) 用于输水隧洞巡检的auv自主导航路径规划方法
Deng et al. Landmark selection strategies for path execution
Gemme et al. 3D reconstruction of environments for planetary exploration
JP2001014492A (ja) 三角網生成方法および三角網生成装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees