JP2008071352A - 移動ロボットの姿勢推定装置および方法 - Google Patents

移動ロボットの姿勢推定装置および方法 Download PDF

Info

Publication number
JP2008071352A
JP2008071352A JP2007238157A JP2007238157A JP2008071352A JP 2008071352 A JP2008071352 A JP 2008071352A JP 2007238157 A JP2007238157 A JP 2007238157A JP 2007238157 A JP2007238157 A JP 2007238157A JP 2008071352 A JP2008071352 A JP 2008071352A
Authority
JP
Japan
Prior art keywords
posture
weight value
sample
samples
particles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007238157A
Other languages
English (en)
Other versions
JP5001101B2 (ja
Inventor
Bing-Rong Hong
ホン,ビン−ロン
Rong-Hua Luo
ルオ,ロン−ホア
Mao-Hai Li
リ,マオ−ハイ
Seok-Won Bang
錫 元 方
Yeon-Ho Kim
▲よん▼ ▲ほ▼ 金
Hyeon Myeong
鉉 明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Samsung Electronics Co Ltd
Original Assignee
Harbin Institute of Technology
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology, Samsung Electronics Co Ltd filed Critical Harbin Institute of Technology
Publication of JP2008071352A publication Critical patent/JP2008071352A/ja
Application granted granted Critical
Publication of JP5001101B2 publication Critical patent/JP5001101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 移動ロボットに適用されるSLAMアルゴリズムの演算複雑性を減少させる方法および装置を提供する。
【解決手段】 移動ロボットの姿勢変化量を感知するセンサと、以前パーティクルに前記感知された姿勢変化量を適用して、現在パーティクルの姿勢および加重値を求めるパーティクルフィルタ部と、前記求めた姿勢および加重値に進化アルゴリズムを適用して、前記現在パーティクルの姿勢および加重値を更新する進化適用部とを含む複数のパーティクルを用いるパーティクルフィルタ基盤の移動ロボットの姿勢推定装置。
【選択図】 図1

Description

本発明は、移動ロボットに関し、より詳しくは、移動ロボットに適用されるSLAM(Simultaneous Localization And Mapping)アルゴリズムの演算複雑性(computational complexity)を減少させる方法および装置に関するものである。
一般的に移動ロボットは、産業用として開発されて工場自動化の一環として用いられたり、人間が耐えられない極限の環境で人間の代わりに作業を行う時に用いられたりしてきた。このような移動ロボット工学分野は、近来に入って最先端の宇宙開発産業に使われながら発展を繰り返して、最近人間親和的な家庭用移動ロボットの開発にまで至った。加えて、移動ロボットは医療用機器に代えて人間生体内に投入されることによって、既存の医療用機器では治療が不可能であった微細な人間生体組織の治療にまで用いられる。このような目覚ましい移動ロボット工学の発展は、インターネットによる情報革命と、これに引き続く生命工学分野とに代えて、新しく登場する最先端分野として注目を集めている。特に、最近では掃除用移動ロボットなどの家庭用移動ロボットのように人間の生活環境周辺で容易に接することができる形態の移動ロボットが大衆化している。
移動ロボットの移動において必須といえるローカライゼーション技術は、移動ロボットが周辺環境を基準にして自身の位置を決定する過程である。例えば、従来のローカライゼーションシステムで、移動ロボットはその周辺環境のマップを受ける。このような従来のローカライゼーションシステムは、手動でマップを生成することが相対的に難しく、専門的な作業を要するという側面で不利な点がある。さらに、一般的に多様な環境というものは固定的ではない。例えば、部屋で家具を移動させる時は既存のマップが役に立たない。結局、従来のローカライゼーションシステムで、正確な周辺環境を示すために、マップは相対的に頻繁に、また、高い費用で更新されなければならない。
したがって、移動ロボットが周辺の空間的情報が全くない地域で自身の相対的位置移動値と周辺環境の特徴点とを用いて、自身の空間上の絶対位置を予測して移動経路を計画して動的にマップを作成する技術が要求される。
このように、移動ロボットが相手位置値と周辺環境とを用いて自身の空間上の絶対位置を予測するために用いられる最も代表的な方法として、SLAMアルゴリズムが知られている。これによれば、移動ロボットは、周辺の空間的情報、すなわちマップ情報を事前に知っていなくても、周辺情報を超音波、レーザーなどを用いて得た距離情報やカメラを用いて得た映像情報を活用して、特徴点を抽出してマップ情報を構成する。そして、移動ロボットは、前記マップ情報を用いて自身の位置を同時に知ることができる。
ロボットの現在位置で特徴点を用いて自身の位置を予測するために、一般的にカルマンフィルタ(Kalman Filter)が多く用いられる。しかし、カルマンフィルタを用いる方法は、予想位置誤差の分布がガウス分布に従う場合にだけ有効であるという短所がある。これを克服するために、誤差の分布がガウス分布に従わない場合、位置予測値のサンプルを抽出して各サンプルの値が真である確率を用いて最適位置を予測する方法、すなわちパーティクルフィルタ技法も知られている。
パーティクルフィルタ技法と関連した従来技術としてエボリューション・ロボティックス(Evolution Robotics)社の特許文献1がある。前記特許文献1は、映像情報を用いたSLAM技術による移動体の位置を連続的に計算するシステムおよび方法に関するものである。特に、前記特許文献1は、パーティクルフィルタを用いたSLAM方式であって、2つのパーティクルセットを用いて複数のセンサ(オドメトリ(odometry)とカメラ)を接合(fusion)する技術を開示する。
しかし、一般的にパーティクルフィルタを用いたSLAM技法は、一般的に多くのサンプルが要求されるため演算量が増加して、移動ロボットが移動中にリアルタイムで自身の位置を予測することが難しくなる。したがって、パーティクルフィルタを用いたSLAMアルゴリズムで、リアルタイムでロボット自身の位置を予測できるように演算量を減少させられる技術が要求される。
米国特許第7015831号公報 米国公開第2006−12493号公報
本発明が達成しようとする技術的課題は、パーティクルフィルタに基づいたSLAM技法を用いる移動ロボットにおいて、演算複雑性を低くすることによってリアルタイムローカライゼーションおよびマップ作成を可能にする方法および装置を提供することにある。
本発明の技術的課題は、以上で言及した技術的課題に制限されず、言及しないまた他の技術的課題は下記記載によって当業者に明確に理解できるものである。
本発明の一態様に係わる姿勢推定装置は、複数のパーティクルを用いるパーティクルフィルタ基盤の移動ロボットの姿勢推定装置であって、移動ロボットの姿勢変化量を感知するセンサと、以前パーティクルに前記感知された姿勢変化量を適用して、現在パーティクルの姿勢および加重値を求めるパーティクルフィルタ部と、前記求めた姿勢および加重値に進化アルゴリズムを適用して、前記現在パーティクルの姿勢および加重値を更新する進化適用部とを含む。
本発明の他の態様に係わる姿勢推定方法は、複数のパーティクルを用いるパーティクルフィルタ基盤の移動ロボットの姿勢推定方法であって、移動ロボットの姿勢変化量を感知するステップと、以前パーティクルに前記感知された姿勢変化量を適用して、現在パーティクルの姿勢および加重値を求めるステップと、前記求めた姿勢および加重値に進化アルゴリズムを適用して、前記現在パーティクルの姿勢および加重値を更新するステップとを含む。
前記本発明によれば、移動ロボットの姿勢を推定するためのパーティクルフィルタ技法に進化アルゴリズムを適用することによって、要求されるパーティクルの数を減少させられる。
これによって、SLAM実行のための演算速度が向上して必要なメモリの大きさが減少する効果がある。
以下、添付した図面を参照して、本発明の一実施形態を詳細に説明する。
本発明は、既存のカルマンフィルタ基盤のSLAM技法から発生する様々な問題、例えば、非ガウス分布に対処することができない問題、多重仮説(Multiple hypothesis)による問題などを解決するために基本的にはパーティクルフィルタアルゴリズムを採択する。前記多重仮説による問題とは、いくつかの特徴点マッチング仮説が発生する時、一度誤った仮説を採用すれば再びこの問題を解決できなくなることを意味する。
また、本発明は、前記パーティクルフィルタで少ない数のパーティクルを用いて予測された特徴点の位置と観測された特徴点とのマッチングによって移動ロボットの最適の姿勢を推定するが、前記最適推定のために遺伝的アルゴリズム(Genetic Algorithm)のような進化アルゴリズム(Evolutionary Algorithm)が用いられる。前記推定された最適位置および特徴点マッチングによって特徴点の最近の最適位置が計算される。
上述したように、本発明の目的は、既存のパーティクルフィルタ技法にてより少ない数のパーティクルを用いて演算複雑性を減少させながらも、既存と同一であるか、またはより優れた性能を出すことにある。ここで、優れた性能とは、位置誤差の減少を意味する。パーティクルフィルタに前記遺伝的アルゴリズムを追加して適用することに伴って演算複雑性が多少増加するようになるが、パーティクルの数の減少に伴う演算複雑性の減少の大きさがより大きいならば、全体的な演算複雑性は減少できる。
図1は、本発明の一実施形態に係る移動ロボット100および姿勢推定部200の構成を示すブロック図である。移動ロボット100は、ロボット制御部110、走行部120、エンコーダ130、カメラ140、および姿勢推定部200を含む。
走行部120は、移動ロボット100が移動することができるように動力を提供する。走行部120は、一般的に複数のホイールと方向制御装置などを含むが、移動ロボット100の移動ができる限り、他の公知の走行手段で成されても構わない。
エンコーダ130は、走行部120に含まれる走行輪の回転速度を感知する。これによって、移動ロボット100の以前位置と現在位置との間の位置変化および方向変化を測定する。エンコーダ130は、一般的にロボットの位置移動または方向変化の指令を下し、ロボットが指令に追従して動く時、その動きを制御する目的で設けられる。エンコーダ130を利用すれば動いた距離および方向を積分して現在移動ロボットの位置が分かる。積分誤差がなければ、エンコーダ130だけでもロボットのローカライゼーションが可能であるが、エンコーダは短い期間には比較的正確であるがサンプリングするごとに誤差が累積する短所がある。移動ロボット100の動きを感知(sensing)するセンサとしては、前記エンコーダ130の代わりにジャイロ(Gyroscope)などの慣性センサが用いられても構わない。
カメラ140は、外部のイメージを捉えてこれをデジタル信号に変換する装置である。一般的にカメラ140は、CCDモジュールやCMOSモジュールを含んで構成される。
ロボット制御部110は、移動ロボット100の走行部120、カメラ140などの機能を制御する。すなわち、ロボット制御部110は、移動ロボット100がユーザの命令した位置に移動するように制御したり、カメラ140の映像捕捉動作を制御したりすることができる。
姿勢推定部200は、パーティクルフィルタに進化アルゴリズムを適用して、移動ロボット100の位置推定を行う装置である。併せて、姿勢推定部200は、前記位置推定と共にマップ作成動作を行うこともできる。
姿勢推定部200は、パーティクルフィルタ部210、特徴点処理部220、進化適用部230、およびメモリ240を含んで構成することができる。
特徴点処理部220は、カメラ140に捉えられた映像を処理して特徴点を抽出し、抽出された特徴点に基づいてメモリ240に既に格納された特徴点を更新(変更または追加)する。
パーティクルフィルタ部210はパーティクルフィルタを適用する。すなわち、複数のパーティクルを選択して移動ロボット100の各移動段階毎に前記選択されたパーティクルの加重値を変化させ、前記変化した加重値に基づいて前記選択されたパーティクルを再サンプリングする。
進化適用部230は、前記選択された各々のパーティクルに対して進化アルゴリズムを適用して進化したパーティクルおよび前記進化したパーティクルに対する加重値(進化した加重値)を求める。
メモリ240は、現在まで捉えられた複数の特徴点を格納しており、このような特徴点を利用して1つの完成されたマップを構成することができる。
図2は、姿勢推定部200の詳細構成を示すブロック図である。
先ず、特徴点処理部220は、特徴点抽出部221、特徴点変換部222、および特徴点マッチング部223を含んで構成することができる。
特徴点抽出部221は、カメラ140によって捉えられたイメージからスケールが不変(scale−invariant)し、かつ回転が不変(rotation−invariant)する特徴点を抽出する。SLAMの過程で、このような特徴点はマップ生成の基礎になるが、いわゆるランドマークとも呼ばれる。ロボットが移動する時、特徴点は大きくなったり小さくなったりもし、既存の特徴点に対して回転したりもする。このような種類の変化が発生した後に特徴点を抽出するためには、スケールおよび回転に不変する特徴点を選んでランドマークとしなければならない。特徴点を抽出する過程は、次の(a)〜(e)ステップの細部段階で行われる。
(a)原イメージを得るステップ
原イメージはCCDカメラからサンプリングされた映像からデジタル化された映像を意味する。
(b)ガウスぼかし(Gaussian blurred)イメージを計算するステップ
N回のガウスぼかしを原イメージに適用してNガウスぼかしイメージを得る。このようなぼかし過程によって互いに異なるスケールのイメージを得ることができる。より一層ぼかすことは観測が遠ざかるということを意味する。これは遠い観察距離はより一層ぼかした場面に対応するという知覚的特性に基づくことである。
(c)ガウスイメージの差を計算するステップ
隣接したガウスぼかしイメージ間の差(DoG)を計算する。2つのぼかしイメージIおよびIがあると仮定すれば、これらの距離Dは次の一般式(1)により求められる。ここで、x、yはイメージのx座標成分およびy座標成分を各々意味する。
したがって、N個のガウスぼかしイメージからはN−1個のDoGが計算される。
(d)DoGイメージの極点(extrema)を感知するステップ
前記極点とは、そのグレイ値が周辺の全てのグレイ値より大きいか小さいピクセルを意味する。前記ピクセルは、ぼかしてから鮮明に変化するピクセルである。このようなピクセルは、スケールまたは回転変化後にも非常に安定的(stable)である。
(e)特徴点を得るために極点を選択するステップ
DoGにある極点は候補キーポイントとも呼ばれる。このステップは、特徴点の安定性を向上させるためにエッジに沿って誤って選択された点などを除去しなければならないため必要である。
特徴点変換部222は、現在推定された位置から抽出された特徴点に対して正確な位置と方向および明るさの変化率の方向を求める。このために特徴点変換部222は、前記キーポイントの周辺にローカルイメージをサンプリングし、全ての特徴点の位置および方向を計算して、グレイ階調(gray gradient)の観点で特徴点を記述するベクトルを計算する。特徴点変換部222は、細部的に次の2つのステップ((a)および(b))を行う。
(a)特徴点の正確な位置および方向を計算するステップ
特徴点変換部222は、キーポイントの現在位置がピクセル単位で表現される。精密度向上のために、前記ピクセル座標は補間される必要がある。特徴点変換部222は、キーポイント周辺の64×64ピクセルイメージ領域のグレイ階調によって、各々のキーポイントに固定された方向を付与することによって回転−不変性を得る。
(b)特徴点のグレイ階調ベクトルを計算するステップ
図3を参照すれば、特徴点変換部222は各々の特徴点に対して4個の副領域を付与する。各々の副領域は8個のグレイ階調ベクトルに対応する。結局、図3に示すように、各々の特徴点に対して32個のグレイ階調ベクトルが存在する。図3で各々の矢印はその方向へのグレイ階調ベクトルの大きさを示す。すなわち、矢印がさらに長いほどグレイ階調もより大きくなるということを意味する。
特徴点マッチング部223は、現在瞬間で感知された特徴点(現在特徴点)のグレイ階調のベクトルをマップメモリ240に格納された特徴点のグレイ階調ベクトルと比較して、互いに類似する特徴点を探す。2つの特徴点のベクトルの差が閾値より小さければ前記2つの特徴点は互いにマッチすることと見なされる。現在特徴点とマッチングされる特徴点がメモリ240に複数存在すれば、現在特徴点と最も近い特徴点がマッチすることと選択される。メモリ240内にマッチする特徴点がなければ現在特徴点は新しい特徴点としてメモリ240に格納される。
再び図2を参照すれば、パーティクルフィルタ部210は、サンプリング部211、姿勢予測部212、および加重値計算部213を含んで構成することができる。パーティクルフィルタ部210は、特徴点処理部220から提供された特徴点の特性を用いて推定可能なロボットの位置および方向、すなわち姿勢の標本値の加重値を計算し、これらから最適の姿勢を推定する。前記加重値は真である確率を意味する。
姿勢予測部212は、移動ロボット100の移動により移動する移動ロボット100の位置を確率分布で示す。前記確率分布は、条件付き確率p(x|xt−1、ut−1)で示すことができる。ここで、xt−1は時間t−1での姿勢であり、ut−1はエンコーダで測定されたデータであり、xは時間t(現在)での姿勢である。前記姿勢は、2次元直交座標系における2つの座標値および移動ロボット100の向かう方向角を含み、3つの成分からなる。前記確率分布は、ロボットが動的雑音やシステムに存在する他の不確実な因子を有したまま、xt−1からxまで動いた時、時間tにおけるロボット姿勢に対する確率分布を意味する。
図4は、開始点Sから最終点Eまで各々の中間段階で移動ロボット100の姿勢に対する確率分布を示す。ここで、開始点から遠ざかるほどパーティクルがより多く分散することが分かる。これはエンコーダのエラーがロボットの開始点から経路の距離に応じて大きくなるためである。
パーティクルフィルタにおけるパーティクル数をNと仮定すれば、全てのパーティクルは(x (i)、w (i))として表現される。ここで、iは1〜Nまでの整数インデックスであり、x (i)は時間tでの適した(feasible)姿勢であり、w (i)は姿勢がx (i)になる確率または加重値(weight)である。本姿勢予測部212は、パーティクルごとに確率モデルp(x|xt−1、ut−1)によってx (i)を計算する。
サンプリング部211は、最初N個のパーティクルをランダムサンプリングする。そして、時間カウントtが1増加する時、前記N個のパーティクルのうち一部のパーティクル(加重値が低いパーティクル)を脱落させ、一部のパーティクル(加重値が高いパーティクル)を重複サンプリングして再びN個のパーティクルを維持する。これを再サンプリングという。すなわち、サンプリング部211は、最初1回のサンプリング過程とその以後繰り返される複数の再サンプリング過程を行う。
最初ランダムサンプリングは、移動ロボット100の最初位置近くにN個の任意の地点、すなわちN個のパーティクルを選択する過程である。前記過程は次の一般式(2)のように表示される。
前記x (j)およびw (j)は、特定インデックスjのパーティクルに対して、移動ロボット100の最初位置および最初加重値を各々示す。前記w (j)は、インデックスjに係わらず全て1/Nで同一に設定される。
一方、サンプリング部211は、時間カウントが増加する時、既存のパーティクルセット
からN個のランダムサンプルを再サンプリングする。これによって、新しいサンプルセットを加重値wt−1 (j)に基づいて求める。
加重値計算部213は、時間カウントtが増加する度に、各々のパーティクルに対する加重値w (j)を計算して前記計算された値で該当加重値を更新する。
時間tでのパーティクル情報(x (j)、w (j))のうち加重値w (j)はロボットの姿勢がx (j)である確率を示す。
移動ロボット100が新しい観察情報を得る時、加重値計算部213は前記新しい情報に基づいてパーティクルの加重値を再び計算する。ここで、加重値の計算とは確率を修正してロボットを再びローカライゼーションすることを意味する。エンコーダ130は、累積誤差が発生するため、特徴点マッチング部223での特徴点マッチング後にパーティクルの加重値を再計算することは大変重要である。
新しく更新される加重値w (j)は次の一般式(3)により計算される。
ここで、yは時間tで実際観測された移動ロボット100の位置を意味する。一般式(3)によれば、結局w (j)は各々のパーティクルの予測された位置x (j)が実際観測された値と一致する確率を意味するものである。前記観測された値は、特徴点マッチング部223でのマッチングされた特徴点を基準にして計算される値である。
例えば、w (j)は、図5のように、N個のパーティクルの予測値があるとした時、各々の予測値と観測値との間の距離(d、d、…、d)の逆数に比例する値で計算される。すなわち、観測値との距離が近いほど高い加重値が付与される。
再び図2を参照すれば、進化適用部230は、初期化部231、交配適用部232、および突然変異適用部233を含む。進化適用部230は、進化アルゴリズムを用いて、状態パラメータx (j)およびw (j)を最適化する。前記x (j)は、姿勢予測部212で計算される現在各パーティクルの予測位置を意味し、w (j)は加重値計算部213で計算されて更新された加重値を意味する。
前記予測および加重値の計算後には、N個の可能な姿勢およびこれらの確率を得ることができるが、実際ロボットの姿勢はN個の可能な姿勢のうち1つに該当しない場合が多い。より一層正確な姿勢を得るためには、パーティクルフィルタのための多くのパーティクルが必要であるが、パーティクル数の増加は演算量および要求メモリの量を急激に増大させる。したがって、進化適用部230は、ロボットの姿勢が実際姿勢に近接するように最適化するのに用いられる。このような最適化の結果として、ロボットローカライゼーションのために非常に少ないパーティクルが所要できるようにする。
進化適用部230に適用される進化アルゴリズムとしては、交配(crossover)、突然変異(mutation)その他知らされた進化多様なアルゴリズムまたはこれらの組合せが適用される。ただし、本発明ではその内で効果が良いと予測される交配および/または突然変異アルゴリズムを例に挙げて説明する。
初期化部231は、進化アルゴリズムに適用される進化レベルGおよび進化サンプル数Mを決定する。前記進化レベルおよび進化サンプル数は、ユーザから入力された値であり得、姿勢推定部200に予め設定されたデフォルト値であり得る。前記進化レベルを多く進行するほど正確度が向上できるが、演算量が多少増加され得るため、前記進化レベルとして適切な値が選択される必要がある。姿勢推定部200のコンピュータパワによって変われるが、進化レベルは大概3〜5程度で決定することが適当である。
前記進化サンプル数Mも多いほど正確度が向上できるが、演算量が増加するため適切な数(例えば、10個内外)が選択されなければならない。前記進化サンプル数は、パーティクル毎に選択されることもでき、全てのパーティクルに対して同じ数を使用することもできる。
交配適用部232は、1つのパーティクルに対して選択されたM個の進化サンプルのうち、ランダムに選択された2つのサンプルx (A)、x (B)を抽出して交配アルゴリズムを適用する。交配アルゴリズムは、次の一般式(4)のように表現される。すなわち、子サンプルx (Ac)、x (Bc)は親サンプルx (A)、x (B)の加重和として表現される。ここで、ξは0と1との間のランダムユニフォーム分布から選択される任意の実数である。そして、wt(Ac)およびwt(Bc)は前記子サンプルに対する加重値である。前記子サンプルに対する加重値は、該当サンプルの値が観測値と一致する確率を意味する。
交配適用部232は、図6に示すように、2つの親サンプルおよび2つの子サンプル、すなわち
のうち最も大きい加重値を有する2つのサンプルを選択して、
を前記選択された値に更新する。このような交配過程は前記M個の進化サンプルのうち任意の2つに対して適用される。
突然変異適用部233は、前記交配適用部232によって交配アルゴリズムが適用されたM個の進化サンプルのうち1つのサンプルx (A)を抽出して、突然変異アルゴリズムを適用する。但し、前記サンプルx (A)の加重値wt(A)が所定の閾値以上の場合に限って、突然変異アルゴリズムを適用する。加重値が低いサンプルに対して突然変異を適用すれば誤差がさらに大きくなり得るためである。
突然変異アルゴリズムは、次の一般式(5)のように表現される。ここでτは、ランダムノイズであって、ガウス分布N(0、σ)に従う3次元ベクトルである。前記σは、前記ガウス分布の標準偏差である。前記x (A)は親サンプルであり、x (Am)はこれより突然変異された子サンプルである。そして、w (Am)は前記子サンプルに対する加重値である。
突然変異適用部233は、図7に示すように、1つの親サンプルおよび1つの子サンプル、すなわちx (A)およびx (Am)のうち大きい加重値を有するサンプルを選択して、x (A)を前記選択された値に更新する。
M個の進化サンプルに対して1回の交配および突然変異を適用すれば進化レベルは1つ上昇する。このような過程は、進化レベルが初期化部231で定めた進化レベルGと同一になるまで繰り返される。
以上では交配アルゴリズムを適用した後、突然変異アルゴリズムを適用することを例に挙げた。しかし、以上の交配アルゴリズムおよび突然変異アルゴリズムは逆順に行うこともでき、これらアルゴリズムのうち1つだけ適用できることは当業者であれば十分に理解できるものである。
前記進化適用部230によって最適化されたパーティクルに対する加重値は、次の一般式(6)によって正規化される。この場合、全体パーティクルの加重値の合計は1になる。
以上の過程を経て、最適化されたパラメータセット
は再びサンプリング部211に提供される。以後、時間カウントが1増加すれば、サンプリング部211は前記パラメータセットを有するN個のパーティクルに基づいて再サンプリングし、姿勢予測部212および加重値計算部213は前記再サンプリングN個のパーティクルに対して前述したように、位置予測および加重値計算を実行し、進化適用部230は進化アルゴリズムを適用する。このような過程は前記時間カウントが終了地点(図4のE)になるまで繰り返される。
進化適用部230で最適化されたパーティクルのうち加重値が最も高いパーティクルの姿勢を移動ロボット100の現在姿勢と推定される。前記推定された姿勢はロボット制御部110に提供されるが、ロボット制御部110はこの姿勢情報を用いて移動ロボット100を移動させて掃除などの作業を実行できる。
今まで図1および図2の各構成要素はメモリ上の所定領域で行われるタスク、クラス、サブルーチン、プロセス、オブジェクト、実行スレッド、プログラムのようなソフトウェアや、FPGA(フィールドプログラマブルゲートアレイ)やASIC(application−specific integrated circuit)のようなハードウェアによって具現でき、また、前記ソフトウェアおよびハードウェアの組合せで成されることもできる。前記構成要素は、コンピュータで読取可能な格納媒体に含まれていることもでき、複数のコンピュータにその一部が分散して分布することもできる。
図8Aおよび図8Bは、従来技術と本発明の結果を比較するための図面である。図8Aは従来のパーティクルフィルタ技法にともなうローカライゼーションおよびマップ生成(特徴点表示)結果を、図8Bは本発明に係るローカライゼーションおよびマップ生成結果を示す。図8Aで用いられたパーティクルの数は100個であり、図8Bで用いられたパーティクルの数は50個(進化レベルは5)である。図8Aおよび8Bを比較すると、本発明は、既存のパーティクルフィルタ技法に比べて、さらに小さいパーティクルの数でもより良いマップを生成することができることが分かる。
この場合、SLAM実行時間(演算に必要とされる時間)を比較すると、図8Aの場合474.7msが所要されたが、図8Bの場合443.5msが所要された。すなわち、同等またはその以下の演算時間で非常に良い結果を示すことが分かる。これは言い換えれば、同一の結果を示すのに用いられる演算時間が非常に減少する可能性があることを意味する。
以上、添付した図面を参照して本発明の実施形態を説明したが、本発明が属する技術分野で通常の知識を有する者であれば、本発明がその技術的思想や必須の特徴を変更せず、他の具体的な形態によって実施することができるということを理解できる。したがって、以上で記述した実施形態はすべての面で例示的なものであり、限定的なものではないことを理解しなければならない。
本発明の一実施形態に係る移動ロボットおよび姿勢推定部の構成を示すブロック図である。 姿勢推定部200の詳細構成を示すブロック図である。 特徴点のグレイ階調ベクトルを計算する過程を示す図である。 開始点Sから最終点Eまで各々の中間段階で移動ロボットの姿勢に対する確率分布を示す図である。 観測値と複数の予測値との間の距離を示す図である。 交配アルゴリズムの概念を示す図である。 突然変異アルゴリズムの概念を示す図である。 従来のパーティクルフィルタ技法にともなうローカライゼーションおよびマップ生成結果を示す図である。 本発明に係るローカライゼーションおよびマップ生成結果を示す図である。
符号の説明
100 移動ロボット
110 ロボット制御部
120 走行部
130 エンコーダ
140 カメラ
200 姿勢推定部
210 パーティクルフィルタ部
211 サンプリング部
212 姿勢予測部
213 加重値計算部
220 特徴点処理部
221 特徴点抽出部
222 特徴点変換部
223 特徴点マッチング部
230 進化適用部
231 初期化部
232 交配適用部
233 突然変異適用部
240 メモリ

Claims (22)

  1. 複数のパーティクルを用いるパーティクルフィルタ基盤の移動ロボットの姿勢推定装置であって、
    移動ロボットの姿勢変化量を感知するセンサと、
    以前パーティクルに前記感知された姿勢変化量を適用して、現在パーティクルの姿勢および加重値を求めるパーティクルフィルタ部と、
    前記求めた姿勢および加重値に進化アルゴリズムを適用して、前記現在パーティクルの姿勢および加重値を更新する進化適用部とを含む姿勢推定装置。
  2. 外部イメージを捉えるカメラと、
    前記捉えられたイメージから特徴点を抽出し、前記抽出された特徴点を加工してマップを生成する特徴点処理部とをさらに含む請求項1に記載の姿勢推定装置。
  3. 前記センサは、
    エンコーダおよびジャイロのうち少なくとも1つを含む請求項1に記載の姿勢推定装置。
  4. 前記姿勢は、
    平面上の2次元座標系の各座標値および方向角を含む請求項1に記載の姿勢推定装置。
  5. 前記パーティクルフィルタ部は、
    前記パーティクルに前記感知された姿勢変化量を適用して、前記現在パーティクルの姿勢を求める姿勢予測部と、
    前記抽出された特徴点に基づいて観測された値と前記求めた姿勢とを比較して、類似するパーティクルにさらに高い加重値を付与する加重値計算部とを含む請求項2に記載の姿勢推定装置。
  6. 前記パーティクルフィルタ部は、
    前記複数のパーティクルを前記移動ロボットの最初の位置に基づいてサンプリングし、前記更新された加重値に基づいて前記複数のパーティクルを再サンプリングするサンプリング部をさらに含む請求項5に記載の姿勢推定装置。
  7. 前記進化適用部は、
    前記パーティクルのうち1つのパーティクルからランダムサンプリングされる複数の進化サンプルのうち2つ以上の親サンプルを選択して、これらの加重和を計算し、前記加重和から生成される1つ以上の子サンプルと前記親サンプルとのうち一部のサンプルを選択する交配適用部を含む請求項2に記載の姿勢推定装置。
  8. 前記一部のサンプルは、
    前記子サンプルと前記親サンプルとのうち加重値が大きいサンプルである請求項7に記載の姿勢推定装置。
  9. 前記進化適用部は、
    前記パーティクルのうち1つのパーティクルからランダムサンプリングされる複数の進化サンプルのうち1つの親サンプルを選択して、これにランダムノイズを加えて子サンプルを生成し、前記親サンプルおよび子サンプルのうち加重値が大きいサンプルを選択する突然変異適用部を含む請求項2に記載の姿勢推定装置。
  10. 前記親サンプルは、
    前記複数の進化サンプルのうちその加重値が所定の閾値を超えるサンプルの中から選択される請求項9に記載の姿勢推定装置。
  11. 前記ランダムノイズは、
    ガウス分布に従う請求項9に記載の姿勢推定装置。
  12. 複数のパーティクルを用いるパーティクルフィルタ基盤の移動ロボットの姿勢推定方法であって、
    移動ロボットの姿勢変化量を感知するステップと、
    以前パーティクルに前記感知された姿勢変化量を適用して、現在パーティクルの姿勢および加重値を求めるステップと、
    前記求めた姿勢および加重値に進化アルゴリズムを適用して、前記現在パーティクルの姿勢および加重値を更新するステップとを含む姿勢推定方法。
  13. 外部イメージを捉えるステップと、
    前記捉えられたイメージから特徴点を抽出し、前記抽出された特徴点を加工してマップを生成するステップとをさらに含む請求項12に記載の姿勢推定方法。
  14. 前記感知するステップは、
    エンコーダおよびジャイロのうち少なくとも1つを用いて行われる請求項12に記載の姿勢推定方法。
  15. 前記姿勢は、
    平面上の2次元座標系の各座標値および方向角を含む請求項12に記載の姿勢推定方法。
  16. 前記姿勢および加重値を求めるステップは、
    前記パーティクルに前記感知された姿勢変化量を適用して、前記現在パーティクルの姿勢を求めるステップと、
    前記抽出された特徴点に基づいて観測された値と前記求めた姿勢とを比較して、類似するパーティクルにさらに高い加重値を付与するステップとを含む請求項13に記載の姿勢推定方法。
  17. 前記姿勢および加重値を求めるステップは、
    前記複数のパーティクルを前記移動ロボットの最初の位置に基づいてサンプリングするステップと、
    前記更新された加重値に基づいて前記複数のパーティクルを再サンプリングするステップとをさらに含む請求項16に記載の姿勢推定方法。
  18. 前記姿勢および加重値を更新するステップは、
    前記パーティクルのうち1つのパーティクルからランダムサンプリングされる複数の進化サンプルのうち2つ以上の親サンプルを選択するステップと、
    前記親サンプルの加重和を計算するステップと、
    前記加重和から生成される1つ以上の子サンプルと前記親サンプルとのうち一部のサンプルを選択するステップとを含む請求項13に記載の姿勢推定方法。
  19. 前記一部のサンプルは、
    前記子サンプルと前記親サンプルとのうち加重値が大きいサンプルである請求項18に記載の姿勢推定方法。
  20. 前記姿勢および加重値を更新するステップは、
    前記パーティクルのうち1つのパーティクルからランダムサンプリングされる複数の進化サンプルのうち1つの親サンプルを選択するステップと、
    前記親サンプルにランダムノイズを加えて子サンプルを生成するステップと、
    前記親サンプルおよび子サンプルのうち加重値が大きいサンプルを選択するステップとを含む請求項13に記載の姿勢推定方法。
  21. 前記親サンプルは、
    前記複数の進化サンプルのうちその加重値が所定の閾値を超えるサンプルの中から選択される請求項20に記載の姿勢推定方法。
  22. 前記ランダムノイズは、
    ガウス分布に従う請求項20に記載の姿勢推定方法。
JP2007238157A 2006-09-13 2007-09-13 移動ロボットの姿勢推定装置および方法 Active JP5001101B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020060088726A KR100855469B1 (ko) 2006-09-13 2006-09-13 이동 로봇의 자세 추정 장치 및 방법
KR10-2006-0088726 2006-09-13

Publications (2)

Publication Number Publication Date
JP2008071352A true JP2008071352A (ja) 2008-03-27
JP5001101B2 JP5001101B2 (ja) 2012-08-15

Family

ID=38891785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007238157A Active JP5001101B2 (ja) 2006-09-13 2007-09-13 移動ロボットの姿勢推定装置および方法

Country Status (4)

Country Link
US (1) US8543241B2 (ja)
EP (1) EP1901152B1 (ja)
JP (1) JP5001101B2 (ja)
KR (1) KR100855469B1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048706A (ja) * 2009-08-28 2011-03-10 Fujitsu Ltd センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
JP2012155716A (ja) * 2011-01-21 2012-08-16 Vorwerk & Co Interholding Gmbh 自走式装置の位置の決定方法
KR20130072614A (ko) * 2011-12-22 2013-07-02 한국전자통신연구원 이동체의 위치 인식 장치 및 방법
CN106292288A (zh) * 2016-09-22 2017-01-04 同济大学 基于策略梯度学习法的模型参数修正方法及其应用
JP2017162457A (ja) * 2016-03-11 2017-09-14 株式会社東芝 画像分析システムおよび方法
JP2017167601A (ja) * 2016-03-14 2017-09-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
JP2020161142A (ja) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド 移動ロボットの制御方法
JP7197550B2 (ja) 2019-11-12 2022-12-27 ネイバーラボス コーポレーション ビジュアルローカリゼーションとオドメトリに基づく経路追跡方法およびシステム

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250081B2 (en) 2005-03-25 2016-02-02 Irobot Corporation Management of resources for SLAM in large environments
KR20090069595A (ko) * 2007-12-26 2009-07-01 삼성전자주식회사 이동 로봇의 이동 오류 검출 장치 및 방법
KR101538775B1 (ko) * 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
KR101619365B1 (ko) * 2008-10-09 2016-05-11 삼성전자주식회사 로봇의 slam 장치 및 방법
KR101553653B1 (ko) * 2009-01-07 2015-09-16 삼성전자 주식회사 로봇의 슬립 감지 장치 및 방법
KR101513639B1 (ko) 2009-04-30 2015-04-20 엘지전자 주식회사 이동 로봇, 로봇 청소기 및 이동 로봇의 각도 검출 방법
DE102009020216A1 (de) 2009-05-07 2010-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Konzept zum Bestimmen eines Schätzwerts einer Lage eines Empfangselements
CN102596517B (zh) * 2009-07-28 2015-06-17 悠进机器人股份公司 移动机器人定位和导航控制方法及使用该方法的移动机器人
CN102666032B (zh) * 2009-10-30 2015-01-07 悠进机器人股份公司 用于移动机器人的滑动检测装置和方法
KR101107735B1 (ko) 2010-02-26 2012-01-20 서울대학교산학협력단 카메라 포즈 결정 방법
KR101677634B1 (ko) * 2010-07-12 2016-11-18 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
EP2619742B1 (en) * 2010-09-24 2018-02-28 iRobot Corporation Systems and methods for vslam optimization
US20120101679A1 (en) * 2010-10-26 2012-04-26 Noel Wayne Anderson Method and system for enhancing operating performance of an autonomic mobile robotic device
KR20120044768A (ko) * 2010-10-28 2012-05-08 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US8447443B1 (en) 2011-06-21 2013-05-21 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Systems and methods for peak-seeking control
CN102547776B (zh) * 2012-01-10 2015-10-07 南京邮电大学 基于模型驱动和进化算法的无线传感器网络模型转换方法
CN103323002B (zh) * 2012-03-19 2016-04-27 联想(北京)有限公司 即时定位与地图构建方法和装置
CN102866706B (zh) * 2012-09-13 2015-03-25 深圳市银星智能科技股份有限公司 一种采用智能手机导航的清扫机器人及其导航清扫方法
US9020637B2 (en) * 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
ES2476565B2 (es) * 2012-12-14 2015-01-30 Universidad De Alicante Método de localización y mapeo simultáneo para dispositivos robóticos
KR102058918B1 (ko) 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
US20140341465A1 (en) * 2013-05-16 2014-11-20 The Regents Of The University Of California Real-time pose estimation system using inertial and feature measurements
CN103412565B (zh) * 2013-05-17 2016-01-27 浙江中控研究院有限公司 一种具有全局位置快速估计能力的机器人定位方法
US20150092048A1 (en) * 2013-09-27 2015-04-02 Qualcomm Incorporated Off-Target Tracking Using Feature Aiding in the Context of Inertial Navigation
US9558408B2 (en) * 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
KR101483549B1 (ko) * 2013-12-03 2015-01-16 전자부품연구원 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템
DE102014002821A1 (de) 2014-02-26 2015-08-27 Audi Ag Verfahren und ein System zum Lokalisieren einer mobilen Einrichtung
US9348337B2 (en) * 2014-05-14 2016-05-24 Swissray Asia Healthcare Co., Ltd. Environment recognition guide system for movable medical equipment and method
KR102431994B1 (ko) * 2014-09-24 2022-08-16 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
KR102388448B1 (ko) * 2015-06-09 2022-04-21 삼성전자주식회사 이동 로봇 및 그 제어 방법
CN105333879B (zh) * 2015-12-14 2017-11-07 重庆邮电大学 同步定位与地图构建方法
EP3279769B1 (en) 2016-08-01 2020-04-29 Samsung Electronics Co., Ltd Method for processing event signal and event-based sensor performing the same
KR101895314B1 (ko) * 2017-09-11 2018-10-24 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101943359B1 (ko) * 2018-02-06 2019-01-29 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
CN109190762B (zh) * 2018-07-26 2022-06-07 北京工业大学 一种移动端信息采集系统
KR102147210B1 (ko) * 2018-10-22 2020-08-24 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
US11331801B2 (en) * 2018-11-28 2022-05-17 Mitsubishi Electric Research Laboratories, Inc. System and method for probabilistic multi-robot positioning
US10955245B2 (en) 2019-04-30 2021-03-23 Samsung Electronics Co., Ltd. System and method for low latency, high performance pose fusion
CN114253511A (zh) * 2020-09-21 2022-03-29 成都睿芯行科技有限公司 基于激光雷达的slam硬件加速器及其实现方法
CN112729289B (zh) * 2020-12-23 2024-02-27 联通物联网有限责任公司 应用于自动导引车的定位方法、装置、设备和存储介质
KR102463725B1 (ko) * 2021-02-23 2022-11-07 현대자동차주식회사 위치 추정 장치, 그를 포함한 로봇 시스템 및 그에 관한 방법
CN114355415A (zh) * 2022-01-06 2022-04-15 上海安亭地平线智能交通技术有限公司 位姿信息的确定方法和装置、电子设备和存储介质
KR102473924B1 (ko) * 2022-06-28 2022-12-06 주식회사 트위니 전역 위치와 방향의 자체 추정이 가능한 이동 로봇 및 이동 로봇의 전역 위치와 방향의 추정 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032196A (ja) * 2003-07-11 2005-02-03 Japan Science & Technology Agency 移動ロボット用経路計画システム
JP2007052652A (ja) * 2005-08-18 2007-03-01 Okinawa Institute Of Science & Technology 状態ベクトル推定方法および自律型移動体
JP2008014742A (ja) * 2006-07-05 2008-01-24 Japan Advanced Institute Of Science & Technology Hokuriku 移動体位置推定システム、及び、移動体位置推定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980059962A (ko) 1996-12-31 1998-10-07 구자홍 단안시를 사용한 물체의 3차원 위치 측정방법 및 이를 이용한 측정장치
US7177737B2 (en) 2002-12-17 2007-02-13 Evolution Robotics, Inc. Systems and methods for correction of drift via global localization with a visual landmark
US7908040B2 (en) * 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032196A (ja) * 2003-07-11 2005-02-03 Japan Science & Technology Agency 移動ロボット用経路計画システム
JP2007052652A (ja) * 2005-08-18 2007-03-01 Okinawa Institute Of Science & Technology 状態ベクトル推定方法および自律型移動体
JP2008014742A (ja) * 2006-07-05 2008-01-24 Japan Advanced Institute Of Science & Technology Hokuriku 移動体位置推定システム、及び、移動体位置推定方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048706A (ja) * 2009-08-28 2011-03-10 Fujitsu Ltd センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
JP2012155716A (ja) * 2011-01-21 2012-08-16 Vorwerk & Co Interholding Gmbh 自走式装置の位置の決定方法
KR20130072614A (ko) * 2011-12-22 2013-07-02 한국전자통신연구원 이동체의 위치 인식 장치 및 방법
KR101881415B1 (ko) * 2011-12-22 2018-08-27 한국전자통신연구원 이동체의 위치 인식 장치 및 방법
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
JP2017162457A (ja) * 2016-03-11 2017-09-14 株式会社東芝 画像分析システムおよび方法
CN107194970A (zh) * 2016-03-14 2017-09-22 卡西欧计算机株式会社 自主移动装置、自主移动方法以及程序存储介质
JP2017167601A (ja) * 2016-03-14 2017-09-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
CN106292288B (zh) * 2016-09-22 2017-10-24 同济大学 基于策略梯度学习法的模型参数修正方法及修正器
CN106292288A (zh) * 2016-09-22 2017-01-04 同济大学 基于策略梯度学习法的模型参数修正方法及其应用
JP2020161142A (ja) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド 移動ロボットの制御方法
US11348276B2 (en) 2019-03-27 2022-05-31 Lg Electronics Inc. Mobile robot control method
JP7197550B2 (ja) 2019-11-12 2022-12-27 ネイバーラボス コーポレーション ビジュアルローカリゼーションとオドメトリに基づく経路追跡方法およびシステム
US11620755B2 (en) 2019-11-12 2023-04-04 Naver Labs Corporation Method and system for tracking trajectory based on visual localization and odometry

Also Published As

Publication number Publication date
EP1901152B1 (en) 2011-12-28
EP1901152A2 (en) 2008-03-19
US8543241B2 (en) 2013-09-24
KR100855469B1 (ko) 2008-09-01
JP5001101B2 (ja) 2012-08-15
US20080065267A1 (en) 2008-03-13
EP1901152A3 (en) 2011-01-05
KR20080024407A (ko) 2008-03-18

Similar Documents

Publication Publication Date Title
JP5001101B2 (ja) 移動ロボットの姿勢推定装置および方法
EP3679549B1 (en) Visual-inertial odometry with an event camera
CN106780608B (zh) 位姿信息估计方法、装置和可移动设备
JP6546618B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
KR102192791B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
JP6534664B2 (ja) カメラ動き予測及び修正のための方法
EP3552147A1 (en) System and method for semantic simultaneous localization and mapping of static and dynamic objects
US20100094460A1 (en) Method and apparatus for simultaneous localization and mapping of robot
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
KR20150088636A (ko) 위치 추정 장치 및 방법
JP2008126401A (ja) パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
US20170261985A1 (en) Autonomous movement device, autonomous movement method, and non-transitory recording medium
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
Babu et al. An autonomous path finding robot using Q-learning
CN115338856A (zh) 用于控制机器人装置的方法
Zhou et al. Information-efficient 3-D visual SLAM for unstructured domains
KR101619365B1 (ko) 로봇의 slam 장치 및 방법
CN110631586A (zh) 基于视觉slam的地图构建的方法、导航系统及装置
Chi et al. A vision-based mobile robot localization method
Saeedi et al. 3D localization and tracking in unknown environments
CN111971149A (zh) 记录介质、信息处理设备和信息处理方法
WO2022172831A1 (ja) 情報処理装置
JP6899986B1 (ja) オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120517

R150 Certificate of patent or registration of utility model

Ref document number: 5001101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250