JP5219467B2 - パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体 - Google Patents

パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体 Download PDF

Info

Publication number
JP5219467B2
JP5219467B2 JP2007295098A JP2007295098A JP5219467B2 JP 5219467 B2 JP5219467 B2 JP 5219467B2 JP 2007295098 A JP2007295098 A JP 2007295098A JP 2007295098 A JP2007295098 A JP 2007295098A JP 5219467 B2 JP5219467 B2 JP 5219467B2
Authority
JP
Japan
Prior art keywords
posture
particle
mobile robot
sensor
particle filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007295098A
Other languages
English (en)
Other versions
JP2008126401A (ja
Inventor
鉉 明
錫 元 方
棟 建 孔
受 珍 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2008126401A publication Critical patent/JP2008126401A/ja
Application granted granted Critical
Publication of JP5219467B2 publication Critical patent/JP5219467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は、パーティクルフィルター基盤の移動ロボットの姿勢推定方法及び装置において、さらに詳細には、パーティクルフィルターを用いた格子基盤(Grid−based)SLAM(Simultaneous Localization And Map Building)アルゴリズムにセンサーの誤差を反映し、加重値を調整して移動ロボットの姿勢を相対的に正確に推定する方法及び装置に関する。
最近、産業体で用いられる産業用ロボットだけでなく、一般家庭や事務室などで家事や事務補助用としてロボットが実用化されている。これに該当する代表的な例として掃除用ロボット、案内ロボット、防犯ロボットなどを挙げられる。
このようなロボットは、基本的に与えられた空間内で移動しつつ、ロボット自身の固有な機能を行う。ロボットが与えられた環境内で走行と機能を行うためには、周辺空間に対するマップの作成とロボットの位置及び方向角(Heading angle)についての情報を必要とする。このようなマップ作成と共に自身の位置を認識する方法としてSLAM(Simultaneous Localization And Mapping)アルゴリズムが用いられる。
SLAMアルゴリズムは、ある位置で周辺環境のマップを作成し、作成されたマップに基づいて再び動いたロボットの位置を把握する反復的な過程を通じてロボットの位置と周辺環境のマップを同時に推定しうる。
SLAMアルゴリズムでは、ロボット自身の位置を推定するためにパーティクルフィルター技法が利用されうる。パーティクルフィルター技法とは、ロボットの位置及び方向角に対する予測値を有する複数個のサンプルを抽出し、各サンプルが実際ロボットの位置及び方向角である確率を用いてロボットの最適の姿勢を推定する方法である。本発明で言及する「姿勢(pose)」は、移動ロボットの平面上の2次元座標系位置(position)及び方向角を意味する。
レンジデータ(range data)を用いた格子基盤(Grid−based)SLAMでは、特徴点(Feature points)を抽出せずとも、あらゆるレンジデータを用いてマップを作成することができる。しかし、従来には、レンジデータを得るために、正確度の優秀な距離測定器(Range finder)(以下、センサーと称する)を使用して初めて良質のマップが得られるので、センサーの正確度に大きく依存する問題があった。
一般的に商用化される掃除用ロボット、防犯ロボットのような事務用または家庭用ロボットにおいては、安価でありつつも、センサーの正確度の相対的に落ちる場合にも、マップ作成とロボットの位置とを正確に予測することが必要である。
日本公開特許第2003−326484号公報
本発明は、前記問題点を考慮して案出されたものであって、マップ一貫性(Map consistency)検査を通じてパーティクルフィルターで求めたパーティクルの加重値を調整することによって、移動ロボットの姿勢推定の正確度を高めることを目的とする。
これと共に、ロボットの方向角によるヒルクライミング(Hill−climbing)を行うことで、効率的に移動ロボットの姿勢を推定することを目的とする。
本発明の目的は、前述した目的によって制限されず、言及していないさらなる目的は、下の記載から当業者に明確に理解されうる。
前述した目的を達成するための本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定方法は、(a)移動ロボットの現在姿勢で現在パーティクルをサンプリングする段階と、(b)前記移動ロボットの姿勢変化量を感知して以前パーティクルに前記感知された姿勢変化量を適用して前記現在パーティクルの姿勢を求める段階と、(c)センサーから獲得したレンジデータとマップ情報から前記現在パーティクルの姿勢確率予測及び加重値を求める段階と、(d)前記加重値に基づいて前記現在パーティクルをリサンプリングする段階と、(e)前記センサーの誤差を考慮して前記加重値を調整する段階と、を含む。
前記目的を達成するための本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定装置は、移動ロボットの姿勢変化量を感知する走行計と、以前パーティクルに前記感知された姿勢変化量を適用して現在パーティクルの姿勢を求めるパーティクル姿勢計算部と、レンジデータを獲得するセンサーと、前記レンジデータとマップ情報から前記現在パーティクルの姿勢確率予測及び加重値を求めるパーティクルフィルター部と、前記センサーの誤差を考慮して前記加重値を調整する加重値調整部と、を備える。
前記目的を達成するための本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定方法は、(a)移動ロボットの姿勢変化量を感知して以前パーティクルに前記感知された姿勢変化量を適用して現在パーティクルの姿勢を求める段階と、(b)センサーから獲得したレンジデータとマップ情報とから前記現在パーティクルの姿勢確率予測及び加重値を求める段階と、(c)前記センサーの誤差を考慮して前記移動ロボットの姿勢を予測するために前記加重値を調整する段階と、を含む。
前記目的を達成するために前記実施例の方法を行うためのコンピュータで判読可能な命令語を保存するコンピュータ判読可能な媒体が提供される。
本発明のパーティクルフィルター基盤の移動ロボットの姿勢推定方法及び装置によれば、次のような効果が1つあるいはそれ以上ある。
第1に、比較的正確度の落ちる安価型センサーを使用しても、パーティクルフィルターを用いた格子基盤(Grid−based)SLAMアルゴリズムにより高い正確度で移動ロボットの姿勢を推定できるという長所がある。
第2に、ロボットの方向角を考慮してヒルクライミング技法を行うことによって、計算時間と位置誤差とを減少させうる長所もある。
その他の実施例の具体的な事項は詳細な説明及び図面に含まれている。本発明の利点及び特徴、そしてそれらを達成する方法は、添付される図面と共に詳細に後述される実施例を参照すれば明確になる。しかし、本発明は、以下に開示される実施例に限定されるものではなく、相異なる多様な形態に具現されることができ、単に本実施例は、本発明の開示を完全にし、本発明が属する技術分野で当業者に発明の範ちゅうを完全に知らせるために提供されるものであり、本発明は、請求項の範ちゅうにより定義されるだけである。明細書全体に亙って同じ参照符号は、同じ構成要素を示す。
以下、本発明の望ましい実施例について添付された図面を参照してさらに詳細に説明する。
図1は、本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定方法を示すフローチャートである。
本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定方法は、移動ロボットの姿勢変化量を感知し、以前パーティクルに感知された姿勢変化量を適用して、現在パーティクルの姿勢を求める段階(S100)、ヒルクライミング(hill−climbing)技法によりパーティクルの姿勢を更新する段階(S110)、センサー620から獲得したレンジデータとマップ情報とから現在パーティクルの姿勢確率予測及び加重値を求める段階(S120)、加重値に基づいて現在パーティクルをリサンプリングする段階(S130)及びセンサー620の誤差を考慮して加重値を調整する段階(S140)を含む。
本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定方法を実施するために移動ロボットが走行しつつ、マップを作成している状況を説明する。
まず、移動ロボットの出発地点の位置及び移動ロボットの進行方向である方向角が与えられる。または、移動ロボットの出発位置及び出発時の方向角を基準値に設定しうる。「姿勢」は、移動ロボットの2次元平面上での位置及び方向角を意味するので、移動ロボットの姿勢を推定するということは、移動ロボットの位置及び方向角を推定することを意味する。
与えられた出発点から移動ロボットが所定の距離を移動しうる。ロボットに装着されているロボットの移動量及び回転角を感知しうる走行計(odometry)600により移動ロボットの動きによる姿勢変化量を感知しうる。走行計600の例として、エンコーダ及びジャイロを挙げられる。例えば、エンコーダによって移動距離及び方向を積分することによって、現在移動ロボットの姿勢が分かる。もし、積分誤差がなければ、エンコーダだけでも、ロボットの姿勢推定が可能であるが、エンコーダは、短い区間では、比較的正確であるが、数字を積分し続けることによって、誤差が累積される問題がある。また、移動ロボットは、移動中に滑るか障害物に合うことがあるので、エンコーダ値によるロボットの位置と実際位置との間には、誤差が発生しうる。
したがって、ロボットの姿勢をさらに正確に推定するために、パーティクルフィルターを用いたSLAMアルゴリズムを用いる。
サンプリング部640は、最初にN個のパーティクルをランダムにサンプリングする。移動ロボットの初期位置の近傍にN個の任意の地点、すなわち、次の数学式のようにN個のパーティクルを選択する。
Figure 0005219467
ここで、x (j)及びw (j)は、特定インデックスjのパーティクルに対して移動ロボットの初期位置及び初期加重値を各々示す。前記w (j)は、インデックスjと関係なく、いずれも1/Nに同一に設定しうる。加重値は、現在パーティクルの位置が移動ロボットの位置となる確率を意味する。
ロボットが所定距離を移動した時には、所定時間が経ったので、経時的なパーティクルの姿勢を更新しうる。
パーティクル姿勢計算部610は、前述した移動ロボットに備えられた走行計600により感知された姿勢変化量をパーティクルに適用してパーティクルの姿勢を求める(S100)。
この際、パーティクル姿勢計算部610は、パーティクル確率の正確度を高めるために、ヒルクライミング方式を導入して各パーティクルの姿勢を更新しうる(S110)。
図2は、絶対座標系を基準にステップサイズの同一な従来のヒルクライミング方法(a)と、ロボットの方向角による相対座標系を基準にステップサイズの異なる修正されたヒルクライミング方法(b)との座標軸を示す図面であり、図3は、図2の(a)、(b)方法によって各パーティクルに対してヒルクライミングを行うことを示す図面である。図2(a)のように従来のヒルクライミング方式は、絶対座標軸に基づいて4方向の直線移動による変化Δx、−Δx、Δy、−Δyと2方向の回転移動による変化Δθ、−Δθを前記求めたパーティクルの姿勢に各々加えた。言い換えれば、パーティクルが有しているロボットの姿勢に、前記6個の変化を各々さらに加えて、パーティクルの姿勢を若干変化させてロボットの位置確率が増加する方向にロボットの位置を変化させる方式である。従来のヒルクライミング方式は、G. Grisetti, C. Stachniss, and W. Burgard, “Improving grid−based slam with Rao−Blackwellized particle filters by adaptive proposals and selective resampling,” In Proc. of the IEEE Int. Conf. on Robotics & Automation (ICRA), pp.2443−2448, Barcelona, Spain, 2005とD. Hahnel, D. Schulz, and W. Burgard, “Map building with mobile robots in populated environments,” In Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems(IROS), 2002に詳述されているので、詳細な説明は省略する。そして、ロボット位置の確率を計算する過程は、後述する。
本発明で新たに提案する修正されたヒルクライミング方式は、ロボットの方向角を主軸として各パーティクルの姿勢を更新しうる。したがって、図2(b)に示されたように、絶対座標系によるヒルクライミングでない、ロボットの方向角による相対座標系のx’軸とそれに垂直なy’軸を二軸としてヒルクライミングを行う。
さらに、ヒルクライミングステップサイズ(従来のΔx、Δyに該当)を定数とせず、走行計600モデルの誤差共分散楕円(Error covariance ellipse)によって適応的に変換可能にしうる。これは、ロボットの移動方向に走行計600の誤差がさらに大きく発生する可能性が高いということを反映したものであり、ヒルクライミング隨行時間とパーティクルの位置誤差を減少させうる。これは、下記数学式(2)のように定義されうる。
Figure 0005219467
ここで、(x,y)は、絶対座標系を基準とするヒルクライミング方式の軸であり、(x’,y’)は、ロボットの方向角による相対座標系を基準とするヒルクライミング方式の軸を示す。
図3の(a)と(b)は、前述した2つのヒルクライミング方法により各パーティクル210の姿勢を更新することを示す図面であるが、図3(a)では、絶対座標軸を基準にロボット200の方向角と関係なく、±Δx、±Δy、±Δθほどパーティクル210の位置を移しつつ、位置確率の増加方向に位置を移る。一方、図3(b)では、ロボット200の移動方向に該当する方向角による相対座標軸を基準に±Δx’,±Δy’,±Δθほどパーティクル210の位置を移しつつ、ヒルクライミング技法を行う。この際、ステップの間隔は、ロボット200の進行方向である±Δx’方向には、±Δy’に比べて大きいということが分かる。
したがって、x軸移動(±Δx)とy(±Δy)軸移動及び回転移動(±Δθ)(望ましくは、相対座標系によるx‘軸移動(±Δx’)とy‘(±Δy’)軸移動及び回転移動(±Δθ))の6つの場合に対してヒルクライミングを適用して各々に対して後述する数5によりスコア(score)を計算しうる。スコアは、ヒルクライミングにより算出される加重値であって、ヒルクライミングの終了後に、最もスコアの高い値が該当パーティクルの加重値となり、スコアの最も高い値の位置及び方向角が該当パーティクルの姿勢となる。
前記のヒルクライミングは、数回に亙って行われる。言い換えれば、6つの場合についてヒルクライミングを行い、最も高いスコアに該当する値を該当パーティクルの姿勢として再び同じ過程を反復して最も高いスコアの値を探す試みをする。そのように試みた場合のうち、最も高いスコアを有する値を該当パーティクルの加重値で更新し、その時のロボットの位置及び方向角が該当パーティクルの姿勢に更新する。
移動ロボットが所定距離を移動した後、センサー620により新たな観察情報のレンジデータを得て、このようなレンジデータと既存のマップ情報によりパーティクルフィルター部630は、パーティクルの姿勢確率を予測して加重値を計算しうる(S120)。
加重値は、パーティクルの姿勢が推定される移動ロボットの現在姿勢と類似しているほど大きくなり、よって、加重値が高いほど、移動ロボットが、そのような加重値を有するパーティクルの姿勢を有する可能性が高いと言える。このように、観察情報は、移動ロボットに備えられた周囲情報、特に、周辺障害物との距離を認識しうるセンサー620により得られる。このようなセンサー620は、超音波または赤外線センサー62を用いたり構造光(Structured light)モジュールを用いてロボットの周囲の障害物との距離を感知しうる。
パーティクルフィルターを用いてパーティクルの姿勢確率を予測して加重値を計算する方法について説明する。
移動ロボットの位置を確率分布として示し、このような確率分布(p)は、以前ステップ(時間t−1)と現在ステップ(時間t)とのデータを用いる次の数学式(3)により示しうる。
Figure 0005219467
ここで、xt−1は、時間t−1での姿勢であり、uは、時間t(現在)での走行計600により感知されたデータであり、xは、時間tでの姿勢である。mt−1は、時間t−1でのマップ上のデータであり、zは、時間tでのセンサー620によって得られたデータである。前記確率分布は、ロボットが動的ノイズやシステムに存在する他の不確実な因子を有したまま
Figure 0005219467
動いた時、時間tでのロボット姿勢に対する確率分布を意味する。
従来のGrid−based SLAMアルゴリズムは、式(3)を近似化させて計算した。センサー620の正確度の走行計600に比べて非常に高い場合に、例えば、図4(a)のように走行計600とセンサー620との正確度の標準偏差比が30:1である場合、観察領域
Figure 0005219467
では、センサー620によるロボットの姿勢確率値
Figure 0005219467
が急変するが、走行計600によるロボットの姿勢確率値
Figure 0005219467
は、定数(k)で近似化されうる。したがって、式(3)は、次のように数学式(4)によって近似化されうる。
Figure 0005219467
現在パーティクルの加重値は、次の数学式(5)により近似化させて計算しうる。
Figure 0005219467
前述した数学式(3)、(4)、(5)によるパーティクルの姿勢を予測して加重値を求める過程は、 G. Grisetti, C. Stachniss, and W. Burgard, “Improving grid−based slam with Rao−Blackwellized particle filters by adaptive proposals and selective resampling,” In Proc. of the IEEE Int. Conf. on Robotics & Automation (ICRA), pp.2443−2448, Barcelona, Spain, 2005に詳述されている。
パーティクルフィルター部630が前記数学式(3)、(4)、(5)によってパーティクルの姿勢確率を予測して加重値を計算した後、サンプリング部640は、加重値に基づいて現在パーティクルをリサンプリングする(S130)。初期にN個のパーティクルから出発して時間カウントtが1増加したとき、前記N個のパーティクルのうち、加重値の低いパーティクルを脱落させ、加重値の高いパーティクルを中心にサンプリングして、再びN個のパーティクルを保持させる。これをリサンプリングと称する。
次いで、マップ評価(map estimation)を通じたグリッドマップ(grid map)を更新する時、加重値調整部650では、センサー620の誤差を考慮して加重値を調整する(S140)。
本発明の一実施例では、センサー620の正確度が優秀ではないので、走行計600によるロボットの姿勢確率値
Figure 0005219467
を定数として適用せず、加重値を計算する方法を提示する。すなわち、前述した方法で求めた加重値をリサンプリングしてから後述する方法で調整を行う。
センサー620の正確度が優秀ではない場合には、走行計600による姿勢確率値を定数として近似化できない。すなわち、図4(b)のように走行計600とセンサー620との正確度の標準偏差比が10:1である場合には、観察領域
Figure 0005219467
で走行計600によるロボットの姿勢確率値
Figure 0005219467
は、定数kとして近似化されられない。
図5は、走行計600とセンサー620との正確度標準偏差が、30:1である場合(a)と、10:1である場合(b)とに数学式(3)による正確な式による姿勢確率値と数学式(4)による近似化した式による姿勢確率値を示し、正確な式と近似化した式の誤差比(r(x))を示す図面である。
30:1である場合には、走行計600によるロボットの姿勢確率値を定数としても、実際に積分を行う区間であるロボットの推定位置付近(図5(a)のA部分)では、誤差がほとんどないので、誤差比r(x)が1に近いことが分かる。一方、10:1である場合には、センサー620の正確度が相対的に高くないために、誤差が大きくなる。これは、図5(b)に分布される誤差比r(x)が、ロボット位置と推定される領域(図5(b)のA領域)で相対的に大きく変化することから分かる。
したがって、図5(b)に示される誤差比r(x)を、確率の計算に考慮することによって、走行計600によるロボットの姿勢確率値を定数とせず、変化量で計算しうる。
誤差比率r(x)を考慮すれば、次のような加重値調整式が得られる。
Figure 0005219467
加重値調整を効率的にするためにログ(log)式に変換すれば、次の式(7)のようである。
Figure 0005219467
数学式(5)をログ式に変換した後、数学式(7)と比較すれば、数学式(7)で、R(x)の大きさを差し引く点で異なる。これは、センサー620の誤差が比較的大きい場合に誤差により生じる量であって、各センサー620の誤差特性によってその形態と大きさとが異なりうる。
この際、数学式(7)のR(x)は、P(x)と格子セル占有確率(Grid cell occupancy)cとの積で示しうる。下記数学式(8)によって現れるP(x)の形態は、センサー620とセンサー620から感知された領域を連結する線であるグリッド線に沿ってほう物線形態に図6に示される。数学式(8)のP(x)を示す図6のグラフは、センサー620によってその形態と値とが多様に異なるということは言うまでもない。
Figure 0005219467
数学式(8)で、mは、センサー620の正確度によって左右される値であり、
Figure 0005219467
は、グリッドセル占有確率値であって、0と1との間の値である。また、xは、各パーティクルの姿勢上で有しているマップ上の格子点(Grid point)までの距離であり、Dは、現在移動ロボットのセンサー620により測定された格子点までの距離である。したがって、現在移動ロボットのセンサー620により測定された格子点データが正しく、各パーティクルの姿勢が現在移動ロボットの実際姿勢に近接していれば、xとDとの値にほとんど違いがなく、結果的にP(x)とR(x)との値が小さくなる。しかし、逆に、パーティクルで有している姿勢が現在移動ロボットの実際姿勢と非類似であれば、x値とD値との間に大差が発生して、P(x)とR(x)との値が大きくなる。これを、マップ一貫性検査(Map consistency check)と称する。
したがって、前述したようにあらゆるパーティクルに対してマップ一貫性検査によりR(x)を検査して、各パーティクルの加重値を調整することができる。このような各パーティクルに対する加重値調整は、グリッドマップを更新する時に、行われるので、追加的な計算時間の増加はほとんどない。
ロボットは、前述した段階を反復しつつ、移動中のロボットの姿勢を推定しうる。
図7は、本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定装置のブロック図である。
本発明の一実施例にパーティクルフィルター基盤による移動ロボットの姿勢推定装置は、走行計600、パーティクル姿勢計算部610、センサー620、パーティクルフィルター部630、加重値調整部650、サンプリング部640、マップ生成部660を備えうる。
この際、本実施例で使われる「〜部」という用語は、ソフトウェアまたはFPGAまたはASICのようなハードウェア構成要素を意味し、「〜部」は所定の役割を行う。しかし、「〜部」は、ソフトウェアまたはハードウェアに限定される意味ではない。「〜部」は、アドレッシング可能な記録媒体に位置させてもよく、1つまたはそれ以上のプロセッサーを再現させるように構成されても良い。したがって、一例として、「〜部」は、ソフトウェアの構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、及び変数を含む。構成要素と「〜部」内で提供される機能は、さらに少数の構成要素及び「〜部」で結合されるか、追加的な構成要素と「ユニット」とにさらに分離されうる。
走行計600は、移動ロボットの姿勢変化量を感知するものであって、走行計600の一例としてエンコーダまたはジャイロを挙げられる。
パーティクル姿勢計算部610は、走行計600により感知された姿勢変化量に基づいて各パーティクルの姿勢を求める。この際、従来のヒルクライミング技法またはロボットの方向角によって座標軸の方向とステップの大きさとを異ならせるヒルクライミング技法によりパーティクルの位置確率が増加する方向にパーティクルの姿勢を更新することが望ましい。
センサー620は、移動ロボットの外部に備えられて観察情報、特に、周辺障害物との距離を認識してレンジデータを獲得する。本発明においては、比較的センサー620の正確度の落ちる構造光センサーを使用しうる。
パーティクルフィルター部630は、センサー620から獲得したレンジデータとマップ情報とから現在パーティクルの姿勢確率を予測して加重値を求める。
加重値調整部650は、センサー620の誤差を考慮してパーティクルフィルター部で求めた加重値を調整する。この際、現在パーティクル位置でマップ上の距離とセンサー620から測定した距離によって、センサー620によって既定の誤差特性値で加重値を調整することができる。
サンプリング部640は、移動ロボットの最初位置に基づいてパーティクルをサンプリングし、ロボットの移動後に、パーティクルフィルター部630で求めた加重値に基づいてパーティクルをリサンプリングする。この際、リサンプリングは、加重値の低いパーティクルは、脱落させ、加重値の高いパーティクルを中心にサンプリングを行える。
マップ生成部660は、ロボットが移動しつつセンサー620から獲得したレンジデータに基づいてマップを生成して更新する。
以上、添付された図面を参照して本発明の実施例を説明したが、本発明が属する技術分野で当業者ならば、本発明がその技術的思想や必須な特徴を変更せずとも、他の具体的な形態に実施されうるということを理解できるであろう。したがって、前述した実施例は、あらゆる面で例示的なものであり、限定的なものではないという点を理解せねばならない。
本発明によれば、パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体関連の技術分野に好適に適用されうる。
本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定方法を示すフローチャートである。 絶対座標系を基準にステップサイズの同じ従来のヒルクライミング方法(a)とロボットの方向角による相対座標系を基準にステップサイズの異なる修正されたヒルクライミング方法(b)との座標軸を示す図である。 図2の(a)、(b)方法によって各パーティクルに対してヒルクライミングを行う姿を示す図である。 走行計とセンサーの正確度標準偏差が30:1である場合(a)と10:1である場合(b)とに走行計とセンサーによるロボットの姿勢確率値を示す図である。 走行計とセンサーとの正確度標準偏差が30:1である場合(a)と10:1である場合(b)とに、数学式(3)による正確な式による姿勢確率値と数学式(4)による近似化した式による姿勢確率値の一例を示し、正確な式と近似した式との誤差比(r(x))を示す図である。 本発明の一実施例によるセンサーの誤差特性によって加重値を再調整する関数を示すP(x)を示すグラフである。 本発明の一実施例によるパーティクルフィルター基盤の移動ロボットの姿勢推定装置のブロック図である。
符号の説明
600 走行計
610 パーティクル姿勢計算部
620 センサー
630 パーティクルフィルター部
640 サンプリング部
650 加重値調整部
660 マップ生成部

Claims (16)

  1. (a)移動ロボットの現在姿勢で現在パーティクルをサンプリングする段階と、
    (b)前記移動ロボットの姿勢変化量を感知して以前パーティクルに前記感知された姿勢変化量を適用して前記現在パーティクルの姿勢を求める段階と、
    (c)センサーから獲得したレンジデータ及びマップ情報から前記現在パーティクルの姿勢確率予測及び加重値を求める段階と、
    (d)前記加重値に基づいて前記現在パーティクルをリサンプリングする段階と、
    (e)前記センサーの誤差を考慮して前記加重値を調整する段階と、
    を含み、
    前記(b)段階において、ヒルクライミング方法を用いて位置確率が増加する方向に前記現在パーティクルの姿勢を更新する段階をさらに含む、
    パーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  2. 前記ヒルクライミング方法は、前記移動ロボットの方向角を主軸とする相対座標系を基準とし、ステップサイズを前記ロボットの進行方向に対して大きくなるように、前記姿勢変化量を感知する走行計モデルの誤差共分散楕円によって適応的に変える
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  3. 前記(e)段階において、前記加重値は、前記現在パーティクルの位置でマップ上の距離と前記センサーにより測定された距離とに基づいて前記センサーによって定義される誤差特性値に調整される
    請求項1に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  4. 前記姿勢変化量は、エンコーダまたはジャイロにより感知されることを含む
    請求項1に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  5. 前記姿勢は、平面上の2次元座標系の各座標値及び方向角を含む
    請求項1に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  6. 前記センサーは、構造光センサーを含む
    請求項1に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  7. 前記リサンプリングは、前記加重値の低いパーティクルは脱落させ、前記加重値の高いパーティクルを中心にサンプリングする
    請求項1に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定方法。
  8. 移動ロボットの姿勢変化量を感知する走行計と、
    以前パーティクルに前記感知された姿勢変化量を適用して現在パーティクルの姿勢を求めるパーティクル姿勢計算部と、
    レンジデータを獲得するセンサーと、
    前記レンジデータ及びマップ情報から前記現在パーティクルの姿勢確率予測及び加重値を求めるパーティクルフィルター部と、
    前記移動ロボットの最初位置に基づいて前記パーティクルをサンプリングし、前記パーティクルフィルター部で求めた加重値に基づいてパーティクルをリサンプリングするサンプリング部と、
    前記センサーの誤差を考慮して前記加重値を調整する加重値調整部と、
    を備え、
    前記パーティクル姿勢計算部は、ヒルクライミング方法を用いて位置確率が増加する方向に前記現在パーティクルの姿勢を更新する、
    パーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  9. 前記ヒルクライミング方法は、前記移動ロボットの方向角を主軸とする相対座標系を基準とし、ステップサイズを前記ロボットの進行方向に対して大きくなるように、前記姿勢変化量を感知する走行計モデルの誤差共分散楕円によって適応的に変える
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  10. 前記センサーは、構造光センサーを含む
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置
  11. 前記加重値調整部は、前記現在パーティクルの位置でマップ上の距離と前記センサーにより測定された距離に基づいて前記センサーによって定義される誤差特性値で前記加重値を調整する
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  12. 前記走行計は、エンコーダまたはジャイロを含む
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  13. 前記姿勢は、平面上の2次元座標系の各座標値及び方向角を含む
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  14. 前記レンジデータから前記マップを生成するマップ生成部をさらに含む
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  15. 前記リサンプリングは、前記加重値の低いパーティクルは脱落させ、前記加重値の高いパーティクルを中心にサンプリングする
    請求項に記載のパーティクルフィルター基盤の移動ロボットの姿勢推定装置。
  16. 請求項1に記載の方法を行うための少なくとも1つのプロセッサーを制御するコンピュータで判読可能な命令語を保存するコンピュータ判読可能媒体。
JP2007295098A 2006-11-16 2007-11-14 パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体 Active JP5219467B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2006-0113440 2006-11-16
KR1020060113440A KR100809352B1 (ko) 2006-11-16 2006-11-16 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2008126401A JP2008126401A (ja) 2008-06-05
JP5219467B2 true JP5219467B2 (ja) 2013-06-26

Family

ID=39092591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007295098A Active JP5219467B2 (ja) 2006-11-16 2007-11-14 パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体

Country Status (5)

Country Link
US (2) US8055382B2 (ja)
EP (1) EP1923763B1 (ja)
JP (1) JP5219467B2 (ja)
KR (1) KR100809352B1 (ja)
CN (1) CN101183266B (ja)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186150A (ja) * 2004-12-28 2006-07-13 Hitachi Ltd 半導体記憶装置の製造方法及び半導体設計装置
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
JP2009093308A (ja) * 2007-10-05 2009-04-30 Hitachi Industrial Equipment Systems Co Ltd ロボットシステム
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
KR101409987B1 (ko) * 2007-12-11 2014-06-23 삼성전자주식회사 이동 로봇의 자세 보정 방법 및 장치
KR101415879B1 (ko) * 2008-01-04 2014-07-07 삼성전자 주식회사 이동 로봇을 도킹시키는 방법 및 장치
JP5141507B2 (ja) * 2008-08-25 2013-02-13 村田機械株式会社 自律移動装置
KR101553653B1 (ko) * 2009-01-07 2015-09-16 삼성전자 주식회사 로봇의 슬립 감지 장치 및 방법
CN101509781B (zh) * 2009-03-20 2011-09-14 同济大学 基于单目摄像头的步行机器人定位系统
JP5444952B2 (ja) * 2009-08-28 2014-03-19 富士通株式会社 センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
CN104699099B (zh) * 2009-08-31 2018-03-23 Neato机器人技术公司 移动机器人环境的同时定位和地图绘制的方法和设备
CN101907460B (zh) * 2010-02-10 2012-06-06 南京航空航天大学 一种用于光纤陀螺寻北的粒子滤波方法
US8219352B2 (en) * 2010-03-31 2012-07-10 Mitsubishi Electric Research Laboratories, Inc. Localization in industrial robotics using rao-blackwellized particle filtering
US8510078B2 (en) * 2010-03-31 2013-08-13 Mitsubishi Electric Research Laboratories, Inc. Method and system for registering an object with a probe using entropy-based motion selection and Rao-Blackwellized particle filtering
KR101081927B1 (ko) * 2010-05-15 2011-11-09 주식회사 일심글로발 유리창 청소 장치 및 그의 이동 제어 방법
KR101289240B1 (ko) * 2010-05-15 2013-07-26 한국로봇융합연구원 유리창 청소 장치 및 그의 이동 제어 방법
CN101982732B (zh) * 2010-09-14 2012-02-01 北京航空航天大学 一种基于esoqpf和ukf主从滤波的微小卫星姿态确定方法
CN102059703A (zh) * 2010-11-22 2011-05-18 北京理工大学 基于自适应粒子滤波的机器人视觉伺服控制方法
DE102011000250A1 (de) * 2011-01-21 2012-07-26 Vorwerk & Co. Interholding Gmbh Verfahren zur Bestimmung der Position eines selbsttätig verfahrbaren Geräts
KR101165335B1 (ko) 2011-04-19 2012-07-18 전남대학교산학협력단 지수함수 기반의 입자 리샘플링 방법 및 그 방법을 이용한 영상객체 추적방법
KR101231378B1 (ko) * 2011-08-12 2013-02-15 숭실대학교산학협력단 파티클 필터 기반의 사용자 위치 추적 장치 및 기록매체
JP5748174B2 (ja) * 2011-09-15 2015-07-15 株式会社Ihi 移動体の相対姿勢計測方法と装置
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
KR101406176B1 (ko) * 2011-10-31 2014-06-13 조선대학교산학협력단 수중로봇의 위치 추정 장치 및 그 방법
CN102402225B (zh) * 2011-11-23 2013-09-04 中国科学院自动化研究所 一种实现移动机器人同时定位与地图构建的方法
CN103177269B (zh) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 用于估计对象姿态的设备和方法
KR101264306B1 (ko) 2012-01-10 2013-05-22 숭실대학교산학협력단 이동 모델 학습을 통한 실내 위치 추적 장치 및 이를 위한 기록매체
KR101268564B1 (ko) 2012-01-26 2013-05-28 숭실대학교산학협력단 파티클 필터 기반의 단말의 위치 측정 장치 및 방법과 이를 기록한 기록 매체
JP5867176B2 (ja) * 2012-03-06 2016-02-24 日産自動車株式会社 移動物体位置姿勢推定装置及び方法
CN103901774B (zh) * 2012-12-28 2017-02-08 联想(北京)有限公司 高效鲁棒的基于多传感器的slam协调方法及系统
CN103903253B (zh) * 2012-12-28 2017-06-27 联想(北京)有限公司 一种可移动终端定位方法及系统
JP6233706B2 (ja) 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
CN103412565B (zh) * 2013-05-17 2016-01-27 浙江中控研究院有限公司 一种具有全局位置快速估计能力的机器人定位方法
CN103644903B (zh) * 2013-09-17 2016-06-08 北京工业大学 基于分布式边缘无味粒子滤波的同步定位与地图构建方法
GB2520751A (en) * 2013-11-29 2015-06-03 Cambridge Consultants Location finding apparatus and associated methods
KR102016551B1 (ko) * 2014-01-24 2019-09-02 한화디펜스 주식회사 위치 추정 장치 및 방법
DE102014002821A1 (de) 2014-02-26 2015-08-27 Audi Ag Verfahren und ein System zum Lokalisieren einer mobilen Einrichtung
US9427867B2 (en) * 2014-04-02 2016-08-30 The Boeing Company Localization within an environment using sensor fusion
KR101560629B1 (ko) 2014-05-15 2015-10-15 국방과학연구소 파티클 필터를 이용하여 위성신호 추적 및 빔포밍을 동시에 수행하는 위성 신호 처리 방법 및 장치
CN104597900A (zh) * 2014-12-02 2015-05-06 华东交通大学 一种基于类电磁机制优化的FastSLAM方法
JP6651295B2 (ja) 2015-03-23 2020-02-19 株式会社メガチップス 移動体制御装置、プログラムおよび集積回路
JP6594008B2 (ja) 2015-03-23 2019-10-23 株式会社メガチップス 移動体制御装置、ランドマーク、および、プログラム
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
CN104807465B (zh) * 2015-04-27 2018-03-13 安徽工程大学 机器人同步定位与地图创建方法及装置
KR102388448B1 (ko) * 2015-06-09 2022-04-21 삼성전자주식회사 이동 로봇 및 그 제어 방법
CA3002308A1 (en) 2015-11-02 2017-05-11 Starship Technologies Ou Device and method for autonomous localisation
CN105426820B (zh) * 2015-11-03 2018-09-21 中原智慧城市设计研究院有限公司 基于安防监控视频数据的多人异常行为检测方法
CN105333879B (zh) * 2015-12-14 2017-11-07 重庆邮电大学 同步定位与地图构建方法
CN105865449B (zh) * 2016-04-01 2020-05-05 深圳市杉川机器人有限公司 基于激光和视觉的移动机器人的混合定位方法
JP2019520953A (ja) 2016-04-08 2019-07-25 エーアンドケー ロボティクス インコーポレイテッド 手動運転と自律運転とを切り替え可能な自動床洗浄機
JP6642319B2 (ja) * 2016-07-19 2020-02-05 株式会社豊田自動織機 自律移動体制御装置
CN106568432B (zh) * 2016-10-20 2019-07-09 上海物景智能科技有限公司 一种移动机器人初始位姿获取方法和系统
KR101864948B1 (ko) * 2016-10-31 2018-07-04 고려대학교 산학협력단 이동 로봇의 엘리베이터 승하차 제어 방법
CN106597435A (zh) * 2016-12-08 2017-04-26 北京康力优蓝机器人科技有限公司 实现基于粒子滤波slam算法的方法及系统
JP6924066B2 (ja) 2017-04-27 2021-08-25 株式会社デンソーテン レーダ装置および物標検出方法
US10386851B2 (en) * 2017-09-22 2019-08-20 Locus Robotics Corp. Multi-resolution scan matching with exclusion zones
CN108646710A (zh) * 2018-05-10 2018-10-12 中国民航大学 一种基于改进容积粒子滤波的电液联合舵机状态估计方法
KR102136111B1 (ko) * 2018-05-23 2020-07-22 한국과학기술원 파티클 필터를 위한 파티클 재추출 방법
CN108972553B (zh) * 2018-08-06 2021-08-13 北京邮电大学 一种基于粒子滤波算法的空间机械臂故障检测方法
CN112639502B (zh) * 2018-09-07 2024-07-30 华为技术有限公司 机器人位姿估计
CN109325474A (zh) * 2018-11-14 2019-02-12 郭道宁 一种对需特别看护人员的异常状态检测方法
US11331801B2 (en) * 2018-11-28 2022-05-17 Mitsubishi Electric Research Laboratories, Inc. System and method for probabilistic multi-robot positioning
KR102103651B1 (ko) 2018-11-28 2020-04-22 한국교통대학교산학협력단 지도의 차로 개수를 활용한 파티클 필터링 퇴화 경감 방법 및 시스템
CN109696908B (zh) * 2019-01-18 2022-06-21 南方科技大学 机器人及其航迹设置方法和系统
CN111486842B (zh) * 2019-01-29 2022-04-15 深圳市优必选科技有限公司 重定位方法及装置、机器人
CN109917332B (zh) * 2019-02-01 2022-12-16 广东工业大学 一种基于改进粒子滤波的室内机器人定位方法
CN110082776B (zh) * 2019-03-08 2023-04-07 贵州电网有限责任公司 一种基于2d激光数据的机器人实时定位方法
KR102212825B1 (ko) * 2019-04-08 2021-02-08 네이버랩스 주식회사 이미지를 기반으로 포즈 계산을 위한 지도의 최신성을 유지하는 방법 및 시스템
EP3734388B1 (en) * 2019-04-29 2023-03-15 Commissariat à l'Energie Atomique et aux Energies Alternatives Method and apparatus for performing simultaneous localization and mapping
CN110333513B (zh) * 2019-07-10 2023-01-10 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
US11347238B2 (en) * 2019-10-02 2022-05-31 Mitsubishi Electric Research Laboratories, Inc. System and method for probabilistic multi-robot SLAM
CN111090281B (zh) * 2019-11-27 2023-07-28 温州大学 基于改进粒子滤波算法估算机器人方位的方法和装置
CN111061287B (zh) * 2019-12-31 2022-05-27 芜湖哈特机器人产业技术研究院有限公司 基于粒子自收敛的移动机器人重定位方法
KR102156511B1 (ko) * 2020-03-26 2020-09-15 주식회사 제타뱅크 이동 로봇 및 그 제어방법
CN111474928B (zh) * 2020-04-02 2023-08-01 上海高仙自动化科技发展有限公司 机器人控制方法、机器人、电子设备和可读存储介质
CN111754566A (zh) * 2020-05-12 2020-10-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 机器人场景定位方法和施工操作方法
CN111427370B (zh) * 2020-06-09 2020-09-04 北京建筑大学 一种基于稀疏位姿调整的移动机器人的Gmapping建图方法
CN112068174B (zh) * 2020-08-18 2021-11-23 三一专用汽车有限责任公司 定位方法、定位装置和计算机可读存储介质
JP2022042630A (ja) 2020-09-03 2022-03-15 本田技研工業株式会社 自己位置推定方法
CN112306058A (zh) * 2020-10-15 2021-02-02 华南农业大学 清粪机器人智能导航方法、装置、系统、介质和设备
CN112612862B (zh) * 2020-12-24 2022-06-24 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于点云配准的栅格地图定位方法
KR102463725B1 (ko) * 2021-02-23 2022-11-07 현대자동차주식회사 위치 추정 장치, 그를 포함한 로봇 시스템 및 그에 관한 방법
CN113375658B (zh) * 2021-06-15 2023-05-09 电子科技大学中山学院 移动机器人故障下同时fdd和slam的方法及系统
CN114021376B (zh) * 2021-11-17 2024-04-09 中国北方车辆研究所 一种四足机器人地形坡度估计方法
CN114355415B (zh) * 2022-01-06 2024-09-06 上海安亭地平线智能交通技术有限公司 位姿信息的确定方法和装置、电子设备和存储介质
CN115388906B (zh) * 2022-08-24 2024-08-30 上海安亭地平线智能交通技术有限公司 位姿的确定方法、装置、电子设备和存储介质
CN116972831B (zh) * 2023-09-25 2024-02-02 山东亚历山大智能科技有限公司 一种基于显著特征的动态场景移动机器人定位方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645348A (en) * 1983-09-01 1987-02-24 Perceptron, Inc. Sensor-illumination system for use in three-dimensional measurement of objects and assemblies of objects
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
JPH0866879A (ja) * 1994-08-24 1996-03-12 Meidensha Corp ロボットの制御方法
DE19704853C1 (de) 1997-02-10 1998-06-18 Leica Ag Verfahren zum Bestimmen von Korrekturparametern
US6667592B2 (en) * 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
JP3646169B2 (ja) 2002-05-07 2005-05-11 独立行政法人産業技術総合研究所 脚式ロボットの歩行制御装置
KR100478452B1 (ko) 2002-06-12 2005-03-23 삼성전자주식회사 이동 로봇의 위치 및 방향 인식 장치 및 방법
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
JP4352148B2 (ja) * 2003-03-14 2009-10-28 独立行政法人科学技術振興機構 移動ロボット用地図作成システム
JP4251545B2 (ja) * 2003-07-11 2009-04-08 独立行政法人科学技術振興機構 移動ロボット用経路計画システム
CN1244435C (zh) * 2003-09-26 2006-03-08 西安交通大学 一种与位置机构运动解耦的机器人姿态调节手腕机构
KR100506097B1 (ko) * 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
KR100601946B1 (ko) 2004-03-26 2006-07-14 삼성전자주식회사 로봇의 전역 위치 추정 방법
US7908040B2 (en) * 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements
KR100601960B1 (ko) * 2004-08-05 2006-07-14 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Also Published As

Publication number Publication date
US8630735B2 (en) 2014-01-14
US20120029698A1 (en) 2012-02-02
KR100809352B1 (ko) 2008-03-05
US8055382B2 (en) 2011-11-08
CN101183266A (zh) 2008-05-21
EP1923763B1 (en) 2014-05-07
JP2008126401A (ja) 2008-06-05
CN101183266B (zh) 2010-12-15
US20080119961A1 (en) 2008-05-22
EP1923763A1 (en) 2008-05-21

Similar Documents

Publication Publication Date Title
JP5219467B2 (ja) パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
CN106444769B (zh) 一种室内移动机器人增量式环境信息采样的最优路径规划方法
KR100877072B1 (ko) 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
CN109597864B (zh) 椭球边界卡尔曼滤波的即时定位与地图构建方法及系统
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
CN112179353B (zh) 自移动机器人的定位方法、装置、机器人及可读存储介质
KR20170004556A (ko) 실내 환경에서 이동 로봇의 리로케이션 방법 및 장치
JP2013534616A (ja) 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
TWI772743B (zh) 資訊處理裝置以及移動機器人
KR101167627B1 (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
US11874666B2 (en) Self-location estimation method
CN116448111A (zh) 一种基于多源信息融合的行人室内导航方法、装置及介质
CN111474560B (zh) 一种障碍物定位方法、装置及设备
Zeghmi et al. A Kalman-particle hybrid filter for improved localization of AGV in indoor environment
CN115597595B (zh) 多线激光定位方法及定位装置、计算机设备、存储介质
JP2016224680A (ja) 自己位置推定装置及び自己位置推定装置を備えた移動体
Naveed et al. Analysis of indoor robot localization using ultrasonic sensors
Thallas et al. Particle filter—Scan matching SLAM recovery under kinematic model failures
Mitriakov et al. Learning-based modelling of physical interaction for assistive robots
Ji et al. Outdoor mobile robot localization using Hausdorff distance-based matching between COAG features of elevation maps and laser range data
KR101615618B1 (ko) 벽면 구조 추출 방법
CN113865588A (zh) 一种机器人定位方法和装置
Bais et al. Comparison of self-localization methods for soccer robots
Al-Mutib et al. Mobile robot floor navigation using RGB+ D and stereo cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5219467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250