JP2004276168A - 移動ロボット用地図作成システム - Google Patents

移動ロボット用地図作成システム Download PDF

Info

Publication number
JP2004276168A
JP2004276168A JP2003070782A JP2003070782A JP2004276168A JP 2004276168 A JP2004276168 A JP 2004276168A JP 2003070782 A JP2003070782 A JP 2003070782A JP 2003070782 A JP2003070782 A JP 2003070782A JP 2004276168 A JP2004276168 A JP 2004276168A
Authority
JP
Japan
Prior art keywords
map information
map
mobile robot
robot
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003070782A
Other languages
English (en)
Other versions
JP4352148B2 (ja
Inventor
Masahiro Tomono
正裕 友納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003070782A priority Critical patent/JP4352148B2/ja
Publication of JP2004276168A publication Critical patent/JP2004276168A/ja
Application granted granted Critical
Publication of JP4352148B2 publication Critical patent/JP4352148B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】精度の高い移動ロボット用地図を作成することができる地図作成システムの提供。
【解決手段】まず、移動ロボットにより新規地図情報を作成する(S210)。次に、既存地図情報を読み込んで、既存地図のもつ相対姿勢を1つずつ取り出す(S220)。そして、同じ相対姿勢が新規地図情報にもあるかを調べる(S230)。新規地図情報にも同じ相対姿勢があれば、新規地図情報と既存地図情報が共通に持つ相対姿勢を確率的に融合する(S240)。新規地図情報に同じ相対姿勢がなければ、その相対姿勢を新規地図情報に追加する。その後、新規地図情報の相対姿勢集合の中にループを構成するものがある場合には、そのずれを解消するループ解決処理を行う(S270)。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、移動ロボットが自らの移動に利用する地図情報を作成するための地図作成システムに関する。
【0002】
【技術的背景】
移動ロボットが移動する環境の地図の構築は、移動ロボットにおいて重要な課題である。この地図は、移動ロボットが走行するために使用し、ロボットの走行可能領域を示すとともに、ロボットの自己位置推定に必要なランドマークの配置を知らせる。移動ロボットにより地図を構築するには、ロボットの自己位置がわかっていなければならず、また、自己位置を知るためには地図がなければならない。そのため、両者を同時に推定するSLAM(Simultaneous Localization and Mapping)が研究されている(例えば非特許文献1)。
従来の方法として、移動ロボットが移動するための地図を環境の測定データに基づいて作成するには、移動ロボットにセンサを搭載して環境を計測し、ロボットの移動量とセンサの測定データを組み合わせて物体の位置と方位を計算して地図を作成する方法がある。
この方法の概要を以下に記す。なお、以下では、位置と方位をまとめて姿勢と呼ぶ。
【0003】
まず、ロボットの移動量は、移動ロボットが車輪型であれば、左右の車輪の回転数を測定すれば、ロボットの進行方向の速度と回転角速度が計算でき、これを時間で積分することでロボットの姿勢を求めることができる(例えば非特許文献2)。なお、本発明では移動ロボットという表現を用いているが、車輪の回転数から移動量を測定できれば、人間が押す車両でもかまわない。また、車輪型でなく脚型の移動ロボットの場合も、関節角の変位量からロボットの姿勢を計算することができる。ロボットから見たセンサの相対姿勢はあらかじめ測定できるので、ロボットの姿勢がわかれば、センサの姿勢も計算できる。このことから、以下では、センサの姿勢とロボットの姿勢は同義とする。
【0004】
センサによる測定データは、センサの種類により様々である。たとえば、レーザ距離センサでは、センサから対象物体までの距離と方向を測ることができる。また、超音波センサもセンサから対象物体までの距離とおおまかな方向を測ることができる。カメラ画像を用いる場合は、ステレオ立体視の原理により、カメラから対象物までの距離と方向を求めることができる。以上の3つの場合は、対象物体に対するセンサデータは、一般に、点の集合となる。また、カメラ画像の場合は、物体のモデルとの照合によって、画像中の物体を認識し、カメラから見た物体の相対姿勢を求めることもできる。この場合は、どのセンサでも、センサから見た対象物体の相対姿勢を求めることができるが、得られるデータの形態や性質は一般に異なる。
【0005】
ロボットの移動量とセンサの測定データから地図を作るには、まず、ロボットの走行中に、ロボットの移動量の計測とセンサの計測を同期させてデータを記録する。次に、ロボットの移動量を累積してセンサの絶対座標系での姿勢を計算し、求めたセンサの絶対姿勢にセンサの測定データを加えて対象物体の絶対座標系での姿勢を計算する。これをセンサの全測定データについて繰り返すことで、計測した物体の配置が決まり、地図を作ることができる。
このような方法で作った地図は、ロボットの移動量やセンサの誤差のため、正しい形状が得られないことが多い。そのため、ロボットの移動量やセンサデータの誤差を確率分布で表し、センサデータをもとにロボット姿勢や物体姿勢の確率分布を推定しながら、地図全体の誤差が最小となるような配置を求めることが行われている。例えば、ロボットと物体の姿勢を絶対座標系のうえで定義し、ロボットの移動量とセンサ測定データから物体姿勢の確率分布を推定し、ロボットが同じ物体を計測した場合は、ロボットの経路のループを閉じる処理を行うことで地図の誤差を縮小する(例えば非特許文献3参照)。
【0006】
【非特許文献1】
J. J. Leonard and H. F. Durrant−Whyte: ”Simultaneous Map Building and Localization for an Autonomous Mobile Robot,” Proc. of IROS’91, pp.1442−1447, 1991.
【非特許文献2】
米田、坪内、大隅著「はじめてのロボット創造設計」、講談社、22〜25頁
【非特許文献3】
S.Thrun, W.Burgard, and D.Fox: ”A Real−Time Algorithm for Mobile Robot Mapping with Applications to Multi−Robot and 3D Mapping,” Proc. of ICRA2000, 2000.
【0007】
【発明が解決しようとする課題】
しかしながら、上述の方法では、ロボットの移動量やセンサデータの計測誤差が大きい場合には、十分な精度の地図は得られないという問題がある。確率分布の推定に基づく方法では、ロボットの移動量やセンサデータの誤差分布を仮定しているので、その誤差分布がもともと大きければ、得られる地図の誤差も当然大きくなる。たとえば、ロボットが移動する部屋の地図を作る場合に、机や棚などの家具の向きは重要な情報であるが、センサでその向きを計測するのは、一般に難しい。超音波センサやレーザ距離センサでは、このような家具を認識することは困難であり、たとえば、長方形という形状は知ることができても、どの方向が正面かを知ることはできない。また、カメラ画像から物体を認識する方法ならば、どの方向が正面かを知ることはできるが、その角度の計測値は高い精度が得られないことがある。
また、センサによって、計測できない物体が存在するという問題もある。たとえば、超音波センサやレーザ距離センサは通常、センサが置かれた高さの物体しか見えない。また、細い棒状の物体は検出しにくい。カメラ画像を用いる場合は、透明な物体、複雑な物体などは検出しにくい。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、移動量センサと計測対象の物体の姿勢を計測するセンサを搭載した移動ロボットによる移動ロボット用地図作成システムであって、前記移動ロボットは、新規に作成した地図情報を格納する地図記憶手段と、前記移動ロボットの移動を測定する移動量センサと、前記移動ロボットの近傍の物体を認識する認識手段と、前記移動量センサと前記認識手段により、物体間の相対姿勢で表される地図情報とロボットの姿勢との同時推定により、新規地図情報を確率分布として得る新規地図情報作成手段とを備えることを特徴とする移動ロボット用地図作成システムである。
また、前記地図記憶手段は、既存地図情報も記憶しており、記憶している既存地図情報を読み出して新規地図情報と比較し、同じ測定対象の物体があれば、既存地図情報と新規地図情報とを確率的に融合して前記地図情報手段に新規地図情報として記憶する既存地図情報融合手段を備えることを特徴としていてもよい。
前記既存地図情報融合手段は、新規地図情報を作成後に起動され、かつ新規地図情報がなければ既存地図情報を新規地図情報として記憶することを特徴としていてもよい。
また、新規地図情報において相対姿勢に関するループを検出した場合、ループの始点物体からループに沿って、各物体間の相対姿勢を全部足すと始点物体に戻るように、該ループを構成する相対姿勢の変位を計算するループ解決手段をさらに備えていることを特徴としていてもよい。
【0009】
【発明の実施の形態】
本発明の移動ロボットによる移動ロボット用地図作成システムでは、物体を構成単位とした地図を上述のSLAMの枠組みで構築する。具体的には、フロア平面上に物体モデルを配置した形式で地図を構成し、ロボットは環境内を移動しながら、センサによって物体を認識して、地図を構築していく。従来の地図構築研究の多くはロボットの走行可能領域を記述した地図を対象としており、環境を物体単位に構造化して地図を記述したものは少ない。しかし、例えば、物体の把持や運搬等複雑な作業を行うには、個々の物体を識別してその位置姿勢を知ることが不可欠であり、物体単位に構成された地図が必要になる。
本発明で提案する方式では、物体をノード、物体間の相対姿勢をアークとしたグラフで地図を表現する。相対姿勢アークは、誤差を表すための確率分布を持つ。ロボットは、移動量とセンサデータ(測定データ)により自己位置推定を行ないながら、物体間の相対姿勢を推定して地図を構築していく。
【0010】
また、本発明の移動ロボットによる地図作成システムは、ロボットが作成した地図(以下、新規地図という)にあらかじめ人間が作成した地図、あるいは、他のセンサで計測した地図(以下、既存地図という)を併合することで新規地図の精度を改善し、また、ロボットに搭載したセンサで検出できなかった物体を登録する。たとえば、人間が家具の向きを設定した既存地図を作って、新規地図に併合すれば、新規地図でも家具の向きは定義される。また、ロボットに搭載したセンサでは検出しにくい物体を既存地図に登録しておけば、新規地図にもその物体を登録することができる。
以下、図面を参照しながら、本発明の移動ロボット用地図作成システムの実施形態の一例を詳細に説明する。
まず、本実施形態のシステム構成を説明する。本システムは、移動量や姿勢を検出するセンサを有し、移動するロボット内等に存在するコンピュータ・システム上に構成されている。
【0011】
<地図情報の構成>
最初に、本実施形態の地図情報の構成を説明する。上述したように、本発明では、作成した地図情報を地図記憶手段に格納している。
図1(a)〜(c)の各表は、記憶する地図の情報の構成例(データ表現の例)を示す図である。
図1(a)は、地図情報の構成例を示す図である。同図に示すように、地図は物体情報の集合と相対姿勢情報の集合で構成される。
図1(b)は、相対姿勢情報の構成の一例を示す図である。図1(b)に示すように、相対姿勢情報は、その始点となる物体(始点ノード)と終点となる物体(終点ノード)、および、始点物体から見た終点物体の相対姿勢の期待値と分散で構成される。相対姿勢情報から物体を指示するには、次に述べる物体の一意名を用いる。
【0012】
図1(c)は、物体情報の構成の一例を示す図である。図1(c)に示すように、物体は、その一意名、形状情報、絶対姿勢をもつ。一意名は、各々の物体に一意に付けられた名前である。形状情報および絶対姿勢は、ディスプレイやプリンタなどに地図を出力するために用いる。形状情報は、2次元あるいは3次元の図形として定義する。これは、計算機上での汎用的な図形表示プログラムの形式にしたがったものでよい。絶対姿勢は、地図上の絶対座標系での物体の姿勢を表す。これも、地図をユーザに見やすく表示するために用いる。なお、地図を表示する必要がない場合は、形状情報および絶対姿勢は不要である。
【0013】
<本実施形態の処理の概要>
次に、本実施形態の処理の流れを、図2のフローチャートを参照しながら説明する。本発明は、ロボットが移動して行くにしたがって、計測対象の物体の相対姿勢を計測しながら、地図を作成して行く。
図2において、まず、ステップS210で、ロボットセンサの測定データから、ロボットの移動量と環境に存在する物体間の相対姿勢を推定して新規地図情報mを作成する。なお、新規地図の作成手法については後で詳しく説明する。
次に、ステップS220で、既存地図情報mを読み込んで、既存地図のもつ相対姿勢qijを1つずつ取り出す。そして、ステップS230で、新規地図情報mと比較し、qijと同じ相対姿勢が新規地図情報mにもあるかを調べる。ここで、同じ相対姿勢とは、測定対象の物体が同じであるものを指す。
2つの地図の間で物体が同じかどうかは、物体の一意名が同じかどうかで判定する。ただし、ステップS230では一意名による同一性判定だけを行い、物体が本当に同じかどうかは判定しない。このため、2つの地図の間で同じ物体は同じ一意名をもつようにしておく必要がある。本実施形態では、あらかじめ他の既存の方法で与えるか、人間が与えることとする。
【0014】
ステップS230で、もし新規地図情報mに同じ相対姿勢があれば、ステップS240に進む。新規地図情報mに同じ相対姿勢がなければ、ステップS250に進む。
ステップS240では、新規地図情報mと既存地図情報mが共通に持つ相対姿勢を確率的に融合する。なお、相対姿勢の確率的な融合については後で詳しく説明する。
ステップS250では、既存地図情報mにあって新規地図情報mにはない相対姿勢を新規地図情報mに追加する。このため、まず、該相対姿勢を新規地図情報mの相対姿勢集合に加える。次に、該相対姿勢の始点物体および終点物体が新規地図情報mにあるかどうか調べ、なければ、その物体を新規地図情報mの物体集合に加える。
【0015】
次に、ステップS260で、既存地図情報mのすべての相対姿勢を取り出したかを調べ、すべて取り出してあれば、ステップS270に移る。まだ残っていれば、ステップS220に戻る。ステップS270では、新規地図情報mの相対姿勢集合の中から、ループを構成するものを見つけて、そのずれを解消する処理を行う。なお、ループ解決は、すべての相対姿勢でなく、地図上での現在注目している部分領域に含まれる相対姿勢だけで行ってもよい。たとえば、1つの部屋の内部に限定してループ解決をする場合などはその例である。これにより、計算量を減らすことができる。
【0016】
なお、本実施形態においては、S210の処理で新規地図情報mを作成し終えた後に、S220以降の既存地図情報mとの比較・融合処理を行なっているが、新規地図情報mを作成しながら、既存地図情報mとの融合処理を行なってもよい。例えば、新規地図情報mの作成において物体間の相対姿勢を計測するごとに、既存地図情報mから対応する相対姿勢qijを選択して融合を行ってもよい。
【0017】
以降、図2の実施形態を示すフローチャートの各処理を詳しく説明する。
<新規地図の作成>
まず、新規地図の作成処理(S210)について、図3,図4を用いて説明する。
(1.相対姿勢による地図表現)
本実施形態では、地図mを、物体をノード、計測対象の物体間の相対姿勢をアークとしたグラフm=<E,Q>で表す。E={e}は計測対象の物体の集合,Q={qij}は物体の相対姿勢の集合である。各物体にはローカル座標系が付与されているとする。qij=(x,y,θ)として、qijは物体eのローカル座標系から見た物体eの相対姿勢を表す。ここで、x,yはローカル座標系であるe座標系から見たe座標系の原点の位置、θはe座標系から見たe座標系のなす角である。また、相対姿勢アークは、人間やロボットにより明示的に測定されたものだけを扱う。相対姿勢には不確実性を持つことを許し、その不確実性を確率分布で表現する。
【0018】
ロボット姿勢とセンサデータは次のように表す。
(1)ロボット姿勢の表現
ロボット姿勢は、近傍に存在する物体を基準に表現し、ロボットが移動するにしたがって、基準とする物体を切り替える。この物体を基準実体という。基準実体eの座標系でのロボット姿勢をr=(x,y,θ)と表す。
ここで、x,yはローカル座標系であるe座標系から見たロボットの位置、θはe座標系から見たロボットのなす角である。
(2)センサデータの表現
ロボットは、センサにより物体を認識し、その姿勢を推定する。物体uがロボット座標系でq=(x,y,θ)の姿勢にあることを、z=<u,q>と表す。
物体認識では物体のクラスしかわからないため、uは未同定の物体である。環境中には同じクラスの物体は複数個存在することがありうるため、uの同定が必要である。本実施形態では、この個体同定は、物体の一意名を与える際に、他の既存の方法または人間が行う。
なお、物体認識の方式は従来技術である(例えば、「友納,油田:不正確さを許すマップと物体認識による屋内ナビゲーション,第7回ロボティクスシンポジア予稿集,2002」を参照。)。
【0019】
図3(a)に物体e,e間の相対姿勢q12の一例を示す。上述したように、相対姿勢は不確実性をもつことを許し、その不確実性を確率分布で表現する。この確率分布は任意でよいが、たとえば、正規分布と仮定すれば、平均値と分散で表現できる。本実施形態は、この物体間の相対姿勢を、移動ロボットの物体に対する姿勢センサと移動量センサの測定データで推定していく。
上述したように、物体の姿勢は、ロボットの座標系でq=(x,y,θ)が姿勢センサにより得られる。図3(b)にロボット300に搭載したセンサによる、物体eの測定データの一例を示す。ここで、センサから得られる物体eの姿勢はq=(x,y,θ)で表されている。センサによってはθが不定の場合もありうる。このセンサデータには誤差が含まれるので、たとえば、正規分布で誤差を表すことができる。この誤差分散は、あらかじめ、センサの特性を調べて決めておく。また、ロボットの移動量は、従来技術と同様に、ロボットの搭載したセンサで求める。移動量も位置と方位を示す(x,y,θ)で表すことができる。移動量には誤差が含まれるので、たとえば、正規分布で誤差を表す。この誤差分散は、あらかじめ、ロボットの特性を調べて決めておく。
【0020】
(2.地図とロボット姿勢の同時推定)
(1)問題設定
次に、センサから得た物体の姿勢とロボットの移動量とから、2つの物体間の相対姿勢を推定する方法を説明する。
本実施形態では、地図情報の構築を、時点tまでにロボットが得たデータ列ZZ(t)(後述で詳しく説明する)のもとで、地図mの確率分布P(m|ZZ(t))を推定することととらえる。しかし、確率分布P(m|ZZ(t))は、全ての相対姿勢アークの同時確率なので、次元が非常に大きく、そのまま扱うのは難しい。そこで、本実施形態では、地図情報全体の確率を管理するのではなく、個々の相対姿勢アークの確率分布を求める問題として扱う。すなわち、P(qij|ZZ(t))を求めることにより地図情報を構築する。
【0021】
1つの相対姿勢アークに対応する地図情報とロボット姿勢の同時推定の模式図を、図4(a)および(b)に示す。いま、ロボット300は点Sから点Sに移動するものとする。ロボット300は、点Sにいる時点(t)から点Sにいる時点(t)までは物体eを基準実体とし、時点tで物体eを観測して基準実体をeに切り替える。点Sでのロボットの物体eからの相対姿勢をr ,点Sでのロボットの物体eからの相対姿勢をr とする。また、物体eから見た物体eの相対姿勢をq12とする。また、点Sでロボットが物体eを観測したときのロボットから見た物体eの相対姿勢の測定データをqとする。なお、環境は静的であり、相対姿勢q12は時間とともに変化しないものとする。
このような状況で、ロボットは環境を認識しながら走行し、自己位置と地図情報の確率分布を更新する。すなわち、相対姿勢r の確率分布はそれまでの計算で得られているとすると、点Sから点Sまでの移動による移動量と物体eの測定データとから、点Sでのロボットの物体eからの相対姿勢(r とする)と相対姿勢q12の確率分布を求める。
【0022】
また、点Sにおけるロボットのeからの相対姿勢r の確率分布は、前述のようにロボットの移動量から計算できる。
このとき、移動量の推定誤差により、図4(b)に示すように、相対姿勢r の確率分布420は相対姿勢r の確率分布410に比べて広がる。いま、点Sにおいて、ロボット300が物体eを観測し測定データqを得たとする。この測定データqは、独自の確率分布を有している。そこで、相対姿勢r とqの和に対する確率分布を計算することにより、物体eからの物体eの相対姿勢q 12を推定することができる。実際、q 12=r +qというベクトル和の関係があるので、q 12の確率分布は、2つの確率変数r とqの和の確率分布として、畳み込み積分で計算できる。図4(b)においては、相対姿勢q 12の確率分布を430で示している。
以降、上述の確率分布を求める処理を定式化して説明する。
【0023】
(2)地図情報とロボット姿勢の同時確率
データ列をZZ(t)=<z(0),a(0),…,z(t−1),a(t−1),z(t)>,ZM(t−1)=<z(0),a(0),…,z(t−1),a(t−1)>と表す。z(t)は時点tでのセンサデータ<u(t),q(t)>,a(t−1)は時点t−1からtまでのロボットの走行事象を表す。なお、以下では、q(t)を単にqと表す。ロボットは、基準実体をその時点で認識された物体に設定し、1つの走行事象中は変えないとする。
なお、前述したように、本実施形態において個体は一意名により同定できることを前提とする。以下では、センサデータ<u(t),q(t)>のu(t)は物体eや物体eに同定されているとして、式からは暗黙的に除いている。
【0024】
まず、相対姿勢アークq12とロボット姿勢r の同時確率P(q12,r |ZZ(t))は、ベイズの定理を用いて以下の式(1)で計算される。なお、r は点Sでのロボットの物体eからの相対姿勢である。
【数1】
Figure 2004276168
Figure 2004276168
ここで、αは正規化係数である。また、右辺第一項で、P(q|r ,q12,ZM(t−1))=P(q|r )としている。ZM(t−1)の省略は、マルコフ性の仮定による。q12の省略は、qがロボットと物体eとの相対姿勢r だけで決まるため、q12に依存しないことによる。
【0025】
また、式(1)のP(q12,r |ZM(t−1))は、ロボットがr からr にまで走行して、その後基準実体を物体eに変換したと考えると、以下の式(2)のように変形できる。
【数2】
Figure 2004276168
Figure 2004276168
ここで、P(r |r ,q12,ZM(t−1))はr ,r ,q12の関係だけで決まるため(δ関数になる)、ZM(t−1)は省略できる。
【0026】
式(2)のP(q12,r |ZM(t−1))は以下の式(3)で表される。
【数3】
Figure 2004276168
Figure 2004276168
式(3)のP(r |r ,a(t−1))は、r から走行a(t−1)を行なったときに、r に到達する確率である。各物体の近傍の底面の状態が同じで障害物もないと仮定すれば、この確率は地図情報にもそれまでのデータにも依存せず、走行a(t−1)に伴う移動量の測定結果だけから計算できる。一方、P(q12,r |a(t−1),ZZ(t−1))のa(t−1)はr からr までの走行であるから、q12,r に影響しないので省略した。また、q12とr は独立であると仮定し、P(q12,r |ZZ(t−1))を分解した。
【0027】
上記の式(1)〜(3)をまとめると、ロボットが1つの移動と物体の認識を行なう1ラウンドにおいて、以下のように分布が更新される。
【数4】
Figure 2004276168
Figure 2004276168
これより、1つ前のロボット姿勢の分布と相対姿勢アークの分布を保存しておけば、現時点でのロボット姿勢と相対姿勢アークの同時分布を計算できる。
【0028】
(3)ロボット姿勢の推定
上記の式(4)から、ロボット姿勢r の確率分布は次のように計算できる。
【数5】
Figure 2004276168
Figure 2004276168
【0029】
(4)相対姿勢アークの推定
また、確率分布P(q12|ZZ(t))は、以下のように計算できる。
【数6】
Figure 2004276168
Figure 2004276168
式(5)および式(6)において、P(q|r )はロボットの物体姿勢センサの誤差特性で決まり、また、P(r |r ,a(t−1))はロボットの移動量センサの誤差特性で決まる。P(r |r ,q12)は、ベクトル和(r +q12)がr に等しくなるとき1となり、それ以外は0である。
P(q12|ZZ(t−1))は、相対姿勢q12が既存地図に存在する場合は、その確率分布を使う。既存地図に存在しない場合は、一様分布とする。P(r |ZZ(t−1))は、前述のように、それ以前の処理で値が求められているとする。
以上の確率分布を用いて、式(5)および式(6)を計算する。
しかし、式(5)および式(6)は積分を含むため、一般に計算は困難である。そのため、従来技術であるparticle filterを用いた自己位置推定アルゴリズムを拡張して実装した。なお、この従来技術については例えば「友納,油田:”不正確さを許すマップにおける移動ロボットの自己位置推定”,日本ロボット学会誌,VOL.20, No.4, pp.75−86, 2002」を参照されたい。
【0030】
<新規地図と既存地図の併合>
次に、新規地図と既存地図の併合について、図5を用いて説明する。これは、上述の図2のS220〜S260で示した処理であり、上述で移動ロボットが作成した新規地図情報に、例えば人間が作成した既存地図情報を併合して、より精度の高い地図情報を作成することを目的としている。
【0031】
(1.相対姿勢の融合)
既存地図に物体eとe間の相対姿勢が定義されていれば、これを用いて、上述で推定される相対姿勢q12の精度を上げることができる。
人間が作成した既存地図と移動ロボットが作成した新規地図の両地図が共通の相対姿勢アークをもつ場合、その相対姿勢を確率的に融合する。これは、上述の式(6)において、P(q12|ZZ(t−1))を既存地図で与え、それに測定データを加えてP(q12|ZZ(t))を計算することで実現できる。
【0032】
図5にその様子を示す。図5(a)は、既存地図で定義された物体eから見た物体eの相対姿勢q 12の確率分布510を示す図である。この例では、物体eと物体eは直線上に同じ向きに並んでいるが、距離は不確実である。このような定義は、壁に沿って並んでいる物体をおおまかに測定して手作業で記述した場合などに現われる。
そして、図5(b)に示すように、測定データを相対姿勢q 12に融合することで、より正確な相対姿勢q 12(図5(b)では520で示している)を得ることができる。具体的には、図5(a)のq 12の確率分布510をP(q12|ZZ(t−1))の値として式(6)を計算すればよい。
【0033】
さらに、図5(c)に示すように、ロボット姿勢も更新する(図では、更新値を確率分布530で表している)。具体的には、やはり図5(a)のq 12の確率分布510をP(q12|ZZ(t−1))の値として、式(5)を計算すればよい。
なお、このようにして更新されたロボット姿勢r は、基準実体がeからeに変わっている。ロボットがeから次の物体に向かうときは、その物体に対して上記と同様の処理を繰り返す。
以上により、計測した物体間の相対姿勢を求めることができる。
一方、既存地図の相対姿勢のうち、新規地図にはないものがあった場合、相対姿勢の融合を行うことはできないので、該相対姿勢を新規地図に追加する。
【0034】
(2.ループとしての融合)
既存地図が新規地図に存在しない相対姿勢アークを持つ場合は、上述した姿勢分布の融合を直接行なうことはできない。しかし、両者のアークを合わせたことにより、ループが生じることがある。この場合、ループを通じて既存地図の相対姿勢アークが新規地図への制約条件として働き、地図情報の精度を向上させることができる。
平行あるいは垂直な位置関係にある物体や、近接した物体の間の相対姿勢は、人間が容易に定義できる上、有効な幾何制約となる。このような制約を表す相対姿勢アークを既存地図に定義しておき、新規地図と併合してループの解決を行なうことで、地図情報の精度を向上させることができる。
なお、ループの解決については、以下で説明する。
【0035】
<ループの解決>
次に、ループの解決について詳しく説明する。これは、上述の図2のS270で示した処理である。
作成された地図情報を移動ロボットが使用したり、ユーザに表示したりする際には、上述で求めた各相対姿勢アークの確率分布の期待値や最大確率点を代表値として用いて、具体的な地図を作ることになる。しかし、個々の相対姿勢アークの代表値をつなげて作った地図には、データ誤差による歪みが生じる。そこで、相対姿勢アーク間に制約を導入してこの歪みを解消することを考える。本実施形態では、このためにループ制約を用いる方法を使用する。
【0036】
(1.定式化)
物体間の相対姿勢の連鎖は一般にループを構成するが、種々の誤差のため、ループがうまく閉じないという現象が生じる。
図6に、ループの例を示す。図6(a)は相対姿勢に整合性がとれている場合の地図である。この場合、相対姿勢q〜qをたどると物体eが元の姿勢に戻り、ループが閉じている。
一方、図6(b)は相対姿勢に整合性がとれていない歪んだ場合の例である。相対姿勢q〜qをたどると同じ物体eが最初と異なる姿勢(610で示している)になり、ループが閉じない。この現象は、上述したように、相対姿勢の値に誤差があるため、その期待値を代表値として採用すると、たどる相対姿勢の列によってeの絶対座標系での姿勢が食い違うために起こる。
この相対姿勢間の不整合を解消するために、本実施形態ではループを閉じる処理を行う。
【0037】
いま、地図にn個の相対姿勢アークが含まれるとし、その各々をq=(x,y,θ,1≦i≦nと表す。マップにあらかじめ定義されたqや、ロボットが求めたqの推定値をq’、その共分散行列をRとする。
本実施形態で提案する方法では、ループ解決を、ループ制約を満たしながら推定値q’との誤差の二乗和を最小にする相対姿勢qを求める最適化問題として考える。ただし、q={q,…,q}である。この定式化を式(7)〜式(10)に示す。
【0038】
【数7】
Figure 2004276168
Figure 2004276168
【数8】
Figure 2004276168
Figure 2004276168
【数9】
Figure 2004276168
Figure 2004276168
【数10】
Figure 2004276168
Figure 2004276168
【0039】
式(8)のg(q)はj番目のループに対する制約式である。ループjはn個のアークからなり、qj1,qj2,…,qjnjの順にアークが並んでいるものとする。qj1をループの始点とする。g(q)=0は、ループの始点物体からループに沿って各物体間の相対姿勢を全部足すと始点物体に戻らなければならないという制約を表している。Lは地図に含まれる独立なループの個数である。また、M(φjk)は相対姿勢アークqjkをループの始点物体の座標系に変換する行列である。
【0040】
(2.実装)
上記の問題は非線形最小化問題となる。実装にはparticle filterを用いたが非線形最小化問題を解くための他の方法もある。ここでのparticle filterは、上述で用いたようなマルコフ過程の各時点の分布を求めるものとは違い、最小値を求めるために用いる。このときのparticle filterは、Genetic Algorithmによく似た作用をする。
なお、ここでのparticle filterについては、例えば「J.Deutshcher, A.Blake, and I.Reid: ”Articulated Body Motion Capture by Annealed Particle Filtering” Proc. of CVPR2000, 2000」に詳しい。以下に、手順を示す。各particleは、qに含まれる全変数を持つ。評価値として、E(q)=f(q)+Σ‖g(q)‖を用いる。
(1)式(6)で得られた各相対姿勢を初期値として、particleを発生させる。
(2)particleの各変数値を所定の正規分布に従ってランダムに変動させ、評価値E(q)を計算する。最小の評価値をもつparticleを保存しておく。各particleの重みをe−E(q)に比例した値にする。
(3)重みに比例した確率で、particleをリサンプルし、(2)に戻る。
(4)所定の回数だけ(2)(3)を繰り返した後、最小の評価値を得たparticleのもつ相対姿勢値を解とする。
【0041】
以上のように、新規地図に既存地図を併合することで、地図の精度を改善することができる。たとえば、人間が家具の向きを設定した既存地図を作って、新規地図に併合すれば、新規地図でも家具の向きは定義される。また、ロボットに搭載したセンサで検出しにくい物体を既存地図に登録しておけば、新規地図にもその物体を登録することができる。
なお、既存地図は、ロボットが以前に作った地図でも人間が作った地図でもよいが、人間が既存地図を作る場合は、相対姿勢を定性的に表現すると、人間の負担が小さくてすむ。たとえば、2つの机が同じ向きで平行に並んでいる場合は、その間の相対姿勢の角度成分θの期待値を0度にし、分散を小さくする。また、向きが垂直ならば、θの期待値を90度にし、分散を小さくする。このような定性的な幾何学的関係を相対姿勢の定量値に変換するユーザインタフェースを用意することで、人間の負担を大きく減らすことができる。とくに、屋内地図の場合は、物体の配置が平行、垂直、隣接などの規則正しい幾何学的関係に従うことが多いので、この方法は効果が大きい。
【0042】
上述のように、本実施形態は、物体の姿勢を相対姿勢で表した上で、地図の併合を行う点を特徴とする。仮に物体姿勢を絶対姿勢で表すと、一般に絶対座標系の原点から遠くなるほど誤差分散が大きくなり、確率分布の推定精度は悪くなる。また、人間が既存地図を作成する場合は、任意に基準とする物体を決めて、そこからの相対姿勢で他の物体の姿勢を定義する方が容易である。さらに、相対姿勢を使えば、全体地図ではなく、局所領域を示す部分地図を既存地図として利用することも容易になる。前述の従来技術の方法(非特許文献3)では、地図の併合は行われているが、物体姿勢として絶対姿勢を用いているので、上記の問題には対処していない。
【0043】
なお、本発明の地図作成システムは、上記の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることができる。例えば、上述では移動ロボット内に存在するコンピュータ・システム上に構築されるとして説明したが、他の場所にあり、移動ロボットとのデータをやり取りできるように構成したコンピュータ・システム上に構築してもよい。
【0044】
【発明の効果】
上述したように、本発明の移動ロボットによる地図作成方法によれば、ロボットの移動量とセンサの測定データに基づいて、物体の相対姿勢により地図を確率的に作成する。これにより、誤差の少ない(精度の高い)地図情報を作成することができる。
そして、作成した地図を、既存地図と併合することで修正できるため、地図の精度をさらに上げることができる。特に、既存地図として、平行、垂直、隣接といった物体間の定性的な姿勢関係で表した大まかな地図を利用できるため、既存地図を人間が作る場合でも、その負担は小さくて済む。
また、本発明では、既存地図の相対姿勢が新規地図に存在しない場合は、その相対姿勢に付随する物体も新規地図に追加される。これは、センサで計測しにくい物体を地図に登録できるという効果をもたらす。
【図面の簡単な説明】
【図1】本実施形態の地図情報のデータ表現の一例を示す図である。
【図2】本実施形態の地図作成方法の処理手順を示すフローチャートである。
【図3】物体間の相対姿勢、および、センサによる物体の姿勢測定データの一例を示す図である。
【図4】物体間の相対姿勢の推定方法の一例を示す図である。
【図5】物体間の相対姿勢の融合方法の一例を示す図である。
【図6】相対姿勢のループの一例を示す図である。

Claims (4)

  1. 移動量センサと計測対象の物体の姿勢を計測するセンサを搭載した移動ロボットによる移動ロボット用地図作成システムであって、
    新規に作成した地図情報を格納する地図記憶手段と、
    前記移動ロボットの移動を測定する移動量センサと、
    前記移動ロボットの近傍の物体を認識する認識手段と、
    前記移動量センサと前記認識手段により、物体間の相対姿勢で表される地図情報とロボットの姿勢との同時推定により、新規地図情報を確率分布として得る新規地図情報作成手段と
    を備えることを特徴とする移動ロボット用地図作成システム。
  2. 請求項1に記載の移動ロボット用地図作成システムにおいて、
    前記地図記憶手段は、既存地図情報も記憶しており、
    記憶している既存地図情報を読み出して新規地図情報と比較し、同じ測定対象の物体があれば、既存地図情報と新規地図情報とを確率的に融合して前記地図情報手段に新規地図情報として記憶する既存地図情報融合手段
    を備えることを特徴とする移動ロボット用地図作成システム。
  3. 請求項2に記載の移動ロボット用地図作成システムにおいて、
    前記既存地図情報融合手段は、新規地図情報を作成後に起動され、かつ新規地図情報がなければ既存地図情報を新規地図情報として記憶することを特徴とする移動ロボット用地図作成システム。
  4. 請求項1〜3のいずれかに記載の移動ロボット用地図作成システムにおいて、
    新規地図情報において相対姿勢に関するループを検出した場合、ループの始点物体からループに沿って、各物体間の相対姿勢を全部足すと始点物体に戻るように、該ループを構成する相対姿勢の変位を計算するループ解決手段をさらに備えていることを特徴とする移動ロボット用地図作成システム。
JP2003070782A 2003-03-14 2003-03-14 移動ロボット用地図作成システム Expired - Fee Related JP4352148B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003070782A JP4352148B2 (ja) 2003-03-14 2003-03-14 移動ロボット用地図作成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003070782A JP4352148B2 (ja) 2003-03-14 2003-03-14 移動ロボット用地図作成システム

Publications (2)

Publication Number Publication Date
JP2004276168A true JP2004276168A (ja) 2004-10-07
JP4352148B2 JP4352148B2 (ja) 2009-10-28

Family

ID=33287444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003070782A Expired - Fee Related JP4352148B2 (ja) 2003-03-14 2003-03-14 移動ロボット用地図作成システム

Country Status (1)

Country Link
JP (1) JP4352148B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209770A (ja) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体
WO2008026463A1 (fr) * 2006-08-30 2008-03-06 Nec Corporation Système, procédé, programme et robot de localisation de source sonore
JP2008126401A (ja) * 2006-11-16 2008-06-05 Samsung Electronics Co Ltd パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
KR100843085B1 (ko) 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
WO2008099652A1 (ja) * 2007-02-13 2008-08-21 Toyota Jidosha Kabushiki Kaisha 環境地図の生成方法及び移動ロボット
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101033971B (zh) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
JP2017109296A (ja) * 2015-12-18 2017-06-22 富士ゼロックス株式会社 シミュレートセンサ信号を生成する方法、システムおよびプログラム
CN107728615A (zh) * 2017-09-26 2018-02-23 上海思岚科技有限公司 一种自适应区域划分的方法及系统
KR20180058303A (ko) * 2016-11-24 2018-06-01 삼성전자주식회사 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
CN111427047A (zh) * 2020-03-30 2020-07-17 哈尔滨工程大学 一种大场景下自主移动机器人slam方法
WO2021111613A1 (ja) * 2019-12-06 2021-06-10 三菱電機株式会社 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11880209B2 (en) 2020-05-15 2024-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831872B2 (en) 2005-01-25 2014-09-09 Samsung Electronics Co., Ltd. Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus
JP2006209770A (ja) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体
KR100843085B1 (ko) 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
WO2008026463A1 (fr) * 2006-08-30 2008-03-06 Nec Corporation Système, procédé, programme et robot de localisation de source sonore
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
JP2008126401A (ja) * 2006-11-16 2008-06-05 Samsung Electronics Co Ltd パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
CN101033971B (zh) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
US7987021B2 (en) 2007-02-13 2011-07-26 Toyota Jidosha Kabushiki Kaisha Environment map generating method and mobile robot
WO2008099652A1 (ja) * 2007-02-13 2008-08-21 Toyota Jidosha Kabushiki Kaisha 環境地図の生成方法及び移動ロボット
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
JP2017109296A (ja) * 2015-12-18 2017-06-22 富士ゼロックス株式会社 シミュレートセンサ信号を生成する方法、システムおよびプログラム
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
KR20180058303A (ko) * 2016-11-24 2018-06-01 삼성전자주식회사 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법
KR102656581B1 (ko) 2016-11-24 2024-04-12 삼성전자주식회사 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법
CN107728615A (zh) * 2017-09-26 2018-02-23 上海思岚科技有限公司 一种自适应区域划分的方法及系统
WO2021111613A1 (ja) * 2019-12-06 2021-06-10 三菱電機株式会社 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
JPWO2021111613A1 (ja) * 2019-12-06 2021-12-09 三菱電機株式会社 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
CN111427047A (zh) * 2020-03-30 2020-07-17 哈尔滨工程大学 一种大场景下自主移动机器人slam方法
CN111427047B (zh) * 2020-03-30 2023-05-05 哈尔滨工程大学 一种大场景下自主移动机器人slam方法

Also Published As

Publication number Publication date
JP4352148B2 (ja) 2009-10-28

Similar Documents

Publication Publication Date Title
JP4352148B2 (ja) 移動ロボット用地図作成システム
JP7270338B2 (ja) リアルタイムのマッピングと位置確認のための方法及び装置
JP5987823B2 (ja) 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
EP2380136B1 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
Thrun Simultaneous localization and mapping
JP4650752B2 (ja) 自己位置同定方法と装置および三次元形状の計測方法と装置
JP4650750B2 (ja) 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置
JP5444952B2 (ja) センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
US8340818B2 (en) Method of accurate mapping with mobile robots
JP4650751B2 (ja) 三次元形状データの位置合わせ方法と装置
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
Valencia et al. Mapping, planning and exploration with Pose SLAM
CN112444246B (zh) 高精度的数字孪生场景中的激光融合定位方法
CN112000103B (zh) 一种agv机器人定位、建图与导航的方法及系统
Garrote et al. 3D point cloud downsampling for 2D indoor scene modelling in mobile robotics
Jesus et al. Combining monocular and stereo vision in 6D-SLAM for the localization of a tracked wheel robot
Song et al. Scale estimation with dual quadrics for monocular object SLAM
Suppa Autonomous robot work cell exploration using multisensory eye-in-hand systems
Ovechkin et al. BAFS: Bundle adjustment with feature scale constraints for enhanced estimation accuracy
Będkowski Large-Scale Simultaneous Localization and Mapping
Geva et al. Estimating camera pose using bundle adjustment and digital terrain model constraints
Steffen Visual SLAM from image sequences acquired by unmanned aerial vehicles
Taylor et al. Parameterless automatic extrinsic calibration of vehicle mounted lidar-camera systems
Arturo et al. Cooperative simultaneous localisation and mapping using independent rao–blackwellised filters
Liu et al. Using EM to learn 3d environment models with mobile robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090709

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees