JP6849330B2 - 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット - Google Patents

地図生成方法、自己位置推定方法、ロボットシステム、およびロボット Download PDF

Info

Publication number
JP6849330B2
JP6849330B2 JP2016134284A JP2016134284A JP6849330B2 JP 6849330 B2 JP6849330 B2 JP 6849330B2 JP 2016134284 A JP2016134284 A JP 2016134284A JP 2016134284 A JP2016134284 A JP 2016134284A JP 6849330 B2 JP6849330 B2 JP 6849330B2
Authority
JP
Japan
Prior art keywords
information
map information
map
mobile robot
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016134284A
Other languages
English (en)
Other versions
JP2017045447A (ja
Inventor
洋平 中田
洋平 中田
一真 竹内
一真 竹内
齊藤 雅彦
雅彦 齊藤
原田 尚幸
尚幸 原田
修平 松井
修平 松井
健介 若杉
健介 若杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to EP16841053.8A priority Critical patent/EP3343307B1/en
Priority to PCT/JP2016/003634 priority patent/WO2017038012A1/ja
Priority to CN201680003184.4A priority patent/CN106796434B/zh
Publication of JP2017045447A publication Critical patent/JP2017045447A/ja
Priority to US15/825,159 priority patent/US10549430B2/en
Application granted granted Critical
Publication of JP6849330B2 publication Critical patent/JP6849330B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本開示は、移動ロボットの自己位置推定・環境地図作成を行う技術に関し、特に環境に設置された環境センサと該環境センサと連携する移動ロボットのシステムに関する。
人間やその他の機械が存在する環境空間を移動ロボットが自律的に移動するために、移動ロボット自身が自己の位置・姿勢、周辺環境を正しく認識を行うことが必要となる。従来、このような認識を行うための手法として、環境の地図を作成しながら同時に自己位置の推定を行うSLAM(Simultaneous Localization And Mapping)技術が知られている。
SLAM技術における移動ロボットは、移動ロボットの内部の状態を知るためのセンサである内界センサと、外界の状態を知るためのセンサである外界センサを備えている。
SLAM技術では、まず内界センサの情報から現在の位置・姿勢を推定する。次に、推定した位置・姿勢において既に保持している周辺環境の地図情報から、移動ロボットの(i)位置(ii)姿勢(iii)位置の不確実性(iv)姿勢の不確実性、の予測を行う。次に、外界センサによって得られた観測情報と、内界センサの情報から予測した情報を比較する。次に、比較によって算出された、それぞれの情報の尤もらしさから、内界センサと外界センサの情報の重みを決定する。そして、内界センサと外界センサのデータの重みの情報を用いて、現在の位置・姿勢と地図情報を更新する処理を行う。
特許文献1には複数の異なるセンサの出力に基づいて自己位置推定を行う複数の推定器の信頼度を評価し、信頼度に応じて複数の推定器による自己位置推定情報を統合する、ロボットシステムが開示されている。
特許文献2には環境センサと連携して、人の行動を邪魔することなく、人や障害物との衝突を回避しながら移動を行う移動ロボットが開示されている。環境センサは環境内に存在する全ての人の位置を検出するように複数配置される。
特開2012−248032号公報 特許5617562号公報
特許文献1や特許文献2などの従来の方法では、環境変化が大きい空間においても、高精度かつロバストに、地図生成と自己位置推定とを行うことについては検討されていなかった。
本開示の一態様によれば、
少なくとも1つ以上の環境センサノードを用いて地図生成を行う移動ロボットの地図生成方法であって、
前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を取得し、
前記移動ロボットに搭載された外界センサによって前記移動ロボット周辺の情報を含む第2の地図情報を取得し、
前記環境センサノードから前記移動ロボット周辺の情報を含む第3の地図情報を受け取り、
(i)前記第3の地図情報に時間的変化量が所定の閾値以上の場所の情報が存在する場合、
前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
(ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
(iii)マッチング結果に基づいて生成された地図情報に、前記第1の地図情報を更新する、地図生成方法が提供される。
また、本開示の別態様によれば、
少なくとも1つのセンサノードを用いて自己位置推定を行う移動ロボットの自己位置推定方法であって、
前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を取得し、
前記移動ロボットに搭載された外界センサによって前記移動ロボット周辺の情報を含む第2の地図情報を取得し、
環境センサノードから前記移動ロボット周辺の情報を含む第3の地図情報を受け取り、
(i)前記第3の地図情報に時間的変化量が所定の閾値以上の場所の情報が存在する場合、
前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
(ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
(iii)マッチング結果に基づいて生成された地図情報に、前記第1の地図情報を更新し、
(iv)更新済みの第1の地図情報と、前記移動ロボットの位置および姿勢の少なくとも一方を検出する内界センサの検出結果とに基づいて、前記更新済みの第1の地図情報上での前記ロボットの自己位置を推定する、自己位置推定方法が提供される。
さらに、本開示の異なる態様によれば、
少なくとも1つの環境センサノードと移動ロボットとを含むロボットシステムであって、
前記環境センサノードが、前記移動ロボット周辺の情報を含む第3の地図情報を取得し、
前記移動ロボットが、
前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を記録しているデータベースと、
前記移動ロボット周辺の情報を含む第2の地図情報を取得する外界センサと、
前記環境センサノードと通信して前記第3の地図情報を取得する通信部と、
(i)前記第3の地図情報に時間的変化量が所定の閾値以上の場所の情報が存在する場合、
前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
(ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
(iii)マッチング結果に基づいて生成された地図情報に、前記予め記録していた第1の地図情報を更新する情報処理部と、を備える、ロボットシステムが提供される。
さらにまた、本開示のさらに異なる態様によれば、
移動ロボットであって、
前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を記録しているデータベースと、
前記移動ロボット周辺の情報を含む第2の地図情報を取得する外界センサと、
前記移動ロボットの外部にあって且つ前記移動ロボット周辺の情報を含む第3の地図情報を取得する少なくとも1つの環境センサノードと通信して前記第3の地図情報を取得する通信部と、
(i)前記第3の地図情報に時間的変化量が所定の閾値以上の場所の情報が存在する場合、
前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
(ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
(iii)マッチング結果に基づいて生成された地図情報に、前記予め記録していた第1の地図情報を更新する情報処理部と、を備える、移動ロボットが提供される。
本開示によれば、環境変化が大きい空間においても、高精度かつロバストに、地図生成と自己位置推定とを行うことができる。
本開示の実施の形態1にかかるロボットシステムの全体構成ブロック図 環境センサノードおよびロボットが存在する一例の環境を示す概略図 ロボットシステムの処理フロー図 動体移動・環境変化情報統合部の処理フロー図 時刻Tにおける移動ロボットを含む環境の一例を示す図解図 時刻T+αにおける図4Aの環境を示す図解図 時刻Tにおけるセンサデータの一例を示す図解図 時刻T+αにおけるセンサデータの一例を示す図解図 地図生成・自己位置推定処理時のデータマッチングの一例を示す図解図 マッチング結果例を示す図解図 マッチング評価値例を示す図解図 データの除去処理の一例を示す図解図 除去処理後のデータのマッチング結果例を示す図解図 除去処理後のデータのマッチング評価値例を示す図解図 データの分散増加処理の一例を示す図解図 分散増加処理後のデータのマッチング結果例を示す図解図 分散増加処理後のデータのマッチング評価値例を示す図解図 分散増加処理を説明するための図解図 分散増加処理を説明するための別の図解図 分散増加処理の結果を示す図解図 実施の形態2に係るロボットシステムの処理フロー図
(本発明の基礎となった知見)
SLAM技術では、地図生成または自己位置推定の際に該移動ロボットの外界センサの検知範囲内の場所に環境変化があった場合、地図生成・自己位置推定に誤りが生じ、正しく推定を行うことができなくなるという課題がある。オフィスや家庭内などの人やその他の動体による環境変化が大きい空間や、駅やショッピングモールなどの多くの人が行き交う空間では大きな外乱すなわち大きな環境変化が頻繁に発生するためSLAM技術によって地図生成を行うことが困難であり、結果としてSLAM技術によって人や障害物を回避する経路を計画することが難しくなる。
さらに、上で述べたように環境変化が大きい空間では、地図生成・自己位置推定の処理において外界センサによって得られた情報と予測した情報とを比較する処理部分の最小二乗法による推定値の収束性が悪化し、計算量が増加する。
本開示では、環境変化が大きい空間においても、高精度かつロバストに、地図生成と自己位置推定とを行うことを目的とする。また、そのために必要な計算量の増加を抑制することも目的とする。
以下で説明する実施の形態は、いずれも本開示の一例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
以下、実施の形態について図面を参照しながら説明する。
(実施の形態1)
図1には、本実施の形態1におけるロボットシステムの構成を示す。本ロボットシステムは、移動ロボット100と、環境センサノード120とを含む。
移動ロボット100は、外界センサ101と、内界センサ102と、情報処理部(動体・環境変化情報統合部103、地図生成・自己位置推定部104、地図情報データベース105、および経路計画部106)と、制御部107と、アクチュエータ108と、通信部109とを含む。
また、移動ロボット100は、移動ロボット100を移動させる手段として、例えば、2つもしくは4つの車輪、もしくは、2脚以上の脚を含んでいる。それら車輪または脚はアクチュエータ108からの動力により動作し、それにより移動ロボット100を移動させることが可能である。前述した移動ロボット100の脚は、1つ以上の関節を備えることが望ましい。さらに、移動ロボット100を移動させる手段として、センサもしくは任意の物体を装着または把持するための1つ以上の腕が含まれることが望ましい。前述した移動ロボット100の腕は、1つ以上の関節を備えることが望ましい。
また、移動ロボット100は、1つ以上のCPU、1つ以上の主記憶、1つ以上の補助記憶を備える(図示せず)。
前述した移動ロボット100のCPUは、以下に説明する、動体・環境変化情報統合部103、地図生成・自己位置推定部104、経路計画部106、制御部107などが行う、様々な演算処理を行う。
前述した移動ロボット100の主記憶は、前述したCPUが直接アクセスすることのできる記憶装置であり、DRAM、SRAM、フラッシュメモリ、ReRAM、FeRAM、MRAM、STT−RAM、PCRAM、等のメモリによって構成され得る。
前述した移動ロボット100の補助記憶は、前述した主記憶の内容を長期保存、コピーもしくはバックアップを行う記憶装置であり、HDD、フラッシュメモリ、光ディスク、磁気ディスク、等によって構成され得る。
外界センサ101は、移動ロボット100の周辺環境についての情報を検出するセンサであり、周辺環境の2次元の形状もしくは3次元の形状および色・材質を検出する。外界センサ101は、例えばLRF(Laser Range Finder)、LIDAR(Laser Imaging Detection and Ranging)、カメラ、深度カメラ、ステレオカメラ、ソナー、RADARなどのセンサもしくはそれぞれの全ての組合せによって構成され得る。ここで、外界センサ101の取得する周辺環境の情報には、座標に関する情報(座標情報)が含まれる。
内界センサ102は、移動ロボット100の位置・姿勢を検出するセンサである。内界センサ102は移動ロボット100の移動距離、速度、加速度、角速度、姿勢それぞれの3方向成分(例えば、X−Y−Z直交座標系のX軸方向成分、Y軸方向成分、Z軸方向成分)の絶対値の少なくとも1つを検出することが可能である。また、移動ロボット100の脚、腕の各関節について、速度、加速度、角速度、姿勢、トルクの絶対値を検出することが可能であってもよい。内界センサ102は、例えば加速度センサ、角速度センサ、エンコーダ、地磁気センサ、気圧・水圧センサ、トルクセンサなどのセンサもしくはそれぞれの組合せによって構成され得る。
動体・環境変化情報統合部103は、移動ロボット100に搭載される外界センサ101が検出した情報(第2の地図情報)を取得する。また、環境センサノード120において抽出された動体移動・環境変化情報(第3の地図情報)を、通信部109を介して取得する。また、環境センサノード120によって抽出された動体移動・環境変化情報を用いて、外界センサ101が検出した情報における時系列で動的に変化する場所についての情報を除去する処理(除去処理)、あるいはその場所についての情報の信用度を下げる処理(分散増加処理)を行う。除去処理と分散増加処理の具体的な内容に関しては後述する。
地図生成・自己位置推定部104は、内界センサ102より得られた移動ロボット100の移動距離、速度、加速度、角速度、姿勢のそれぞれの3方向成分の絶対値の少なくとも1つを取得する。また、地図生成・自己位置推定部104は、動体・環境変化情報統合部103によって処理された(除去処理済みまたは分散増加処理済みの)外界センサ101による移動ロボット100の周辺環境についての情報を取得する。そして地図生成・自己位置推定部104は、取得した情報から移動ロボット100の自己位置の推定と地図情報の生成を、フィルタリング処理によって同時に行う。なお、自己位置の推定と地図情報の生成は同時に行わなくてもよい。フィルタリング処理は、カルマンフィルタ、拡張カルマンフィルタ、Unsentedカルマンフィルタ、パーティクルフィルタ、Rao−Blackwellizedパーティクルフィルタの各手法によって構成され得る。また、地図生成・自己位置推定部104は生成した地図を、地図情報データベース105へ保存する。既に該当する環境の地図が存在する場合は、地図情報データベース105に保存されている地図情報を合わせて用いて、地図情報の更新を行い、地図情報データベース105への保存を行う。
地図情報データベース105は、地図生成・自己位置推定部104によって生成・更新された地図情報(第1の地図情報)を保存する。保存されている地図情報は地図生成・自己位置推定部104、経路計画部106によってそれぞれ使用される。地図情報データベース105は移動ロボット100の主記憶または二次記憶に配置される。
経路計画部106は、地図情報データベース105に保存されている地図情報と、地図生成・自己位置推定部104によって推定された移動ロボット100の自己位置の情報を用いて、現在の自己位置から地図上を移動する経路を計画する。計画する経路は、経路のコストを最小化する経路である。経路のコストは、総移動時間、総移動距離、移動に使われる総エネルギ、経路の混雑度の総和もしくはそれぞれの全ての組合せによって表現され得る。
制御部107は、実際に移動ロボットが動作する環境において、経路計画部106によって計画された経路について、移動ロボット100の移動動作を実行するための制御を行う。
アクチュエータ108は、制御部107からの制御命令に基づいて、例えば車輪などを駆動し、それにより実際に移動ロボット100を移動させる。
通信部109は、有線もしくは無線によって、1対多型、多対多型の通信を行う機能を備える。通信部109は、環境センサノード120に対して、指定した場所の動体移動・環境変化情報が存在するか否かを問い合わせる。
環境センサノード120は、環境センサ121と、動体移動・環境変化情報抽出部122と、環境センサ情報時系列データベース123と、動体移動・環境変化情報データベース124と、通信部125と、を含む。
環境センサ121は、環境センサノード120の周辺環境についての情報を検出するセンサである。周辺環境の情報には、周辺環境の2次元の形状もしくは3次元の形状及び色・材質に関する情報が含まれる。
図2は、環境センサノード120、環境センサノード120と同様の複数の環境センサノード312〜319、および移動ロボット100が存在する環境の一例を概略的に示す図である。
なお、図1と図2に示す構成で符号が異なるが名称が同一であれば同一の構成であるものとする。
環境センサノード120、312〜319はそれぞれ環境センサ121、322〜329を備える。環境センサノード120、312の検出範囲はそれぞれ331、332である。環境センサノード313〜319の検出範囲は図の簡略化のため図示しないが、各環境センサノードによって、移動ロボットの移動可能な空間を全て検出可能とするように環境センサノードおよび環境センサを設置している。
また、環境センサノード120、312〜319の環境センサ121、322〜329は、例えばLRF(Laser Range Finder)、LIDAR(Laser Imaging Detection and Ranging)、カメラ、深度カメラ、ステレオカメラ、ソナー、RADAR、焦電型赤外線センサ、赤外線ToF(Time of Flight)センサなどのセンサもしくはそれぞれの全ての組合せによって構成され得る。
図2に示すように、移動ロボット100は外界センサ101を備え、移動方向303に移動している。
図2に示すタイミングにおいて、外界センサ101の検出範囲は304である。
また、図2には、人/動体の現在の位置341、人/動体の過去の位置342、人/動体の現在の移動方向343を示している。人/動体が位置342から位置341へ移動したことによる時系列の環境変化は、環境センサノード120、312,313,314によって、詳細は後述するが、動体移動・環境変化情報として抽出される。
この環境センサ121の取得する周辺環境の情報には、座標に関する情報(座標情報)が含まれる。
動体移動・環境変化情報抽出部122は、環境センサ121が検出した時系列の周辺環境の情報を、検出情報と検出タイミングの組の形で環境センサ情報時系列データベース123へ保存する。例えば、検出タイミングは、時刻で表される。動体移動・環境変化情報抽出部122はまた、環境センサ情報時系列データベース123に保存されている時系列に沿った検出タイミングと検出情報の複数の組に基づいて、周辺環境の変化場所、変化形状、変化の大きさ及び変化にかかった時間を算出する。そして動体移動・環境変化情報抽出部122は、周辺環境の変化場所、その変化形状、その変化の大きさ、その変化にかかった時間を動体移動・環境変化情報として動体移動・環境変化情報データベース124に保存する。なお動体移動・環境変化情報は、周辺環境の変化場所、変化形状、変化の大きさ、変化にかかった時間、を全て含まなくてもよい。これらの情報のうち一部の情報のみを含んでいてもよいし、他の情報を含んでもよい。
環境センサ情報時系列データベース123は、動体移動・環境変化情報抽出部122によって取得した、環境センサ121が検出した時系列の周辺環境の情報を、検出情報と検出タイミングの組で保存している。保存された情報は、動体移動・環境変化情報抽出部122によって、動体移動・環境変化情報を抽出するために使用される。
動体移動・環境変化情報データベース124は、動体移動・環境変化情報抽出部122が算出した動体移動・環境変化情報を保存する。保存されている動体移動・環境変化情報は、移動ロボット100の通信部109からの問い合わせを受けた通信部125によって、移動ロボット100に対して送信される。
通信部125は、移動ロボット100の通信部109からの動体移動・環境変化情報が存在するか否かの問い合わせを受けて、動体移動・環境変化情報データベース124内の検索を行い、動体移動・環境変化情報の移動ロボット100への送信を無線または有線通信によって行う。
次に、図2、図3A、および図3Bを参照しながら、本ロボットシステムの処理の流れについて説明する。T201は移動ロボット100の処理フロー、T221A、T221Bは環境センサノード120の処理フローを表す。
まず、図3AにおけるステップS201において、内界センサ102は、情報を取得する。ここで、取得する情報は移動ロボット100の移動距離、速度、加速度、角速度、姿勢それぞれの3方向成分の絶対値である。
次に、ステップS202において、外界センサ101は移動ロボット100の周辺環境についての情報を取得する。図2に示すタイミングにおける周辺環境の情報は検出範囲304について外界センサ101によって検出される情報である。ここで、取得する情報には、周辺環境の、2次元もしくは3次元の形状および色・材質に関する情報が含まれる。
次に、ステップS203において、移動ロボット100は通信部109を介して環境センサノード120、312〜319に対して、指定した2次元もしくは3次元の任意の大きさを持つ場所内に、指定した時間帯に動体移動・環境変化情報が存在するか否かの問合せを行い、その問い合わせに対する返答を所定の時間待つ。ここで、場所や時間は、予め移動ロボット100を管理するユーザによって任意の(固定の)大きさの場所や、任意の長さの時間に指定されていてもよい。また移動ロボットが状態に応じて、場所の大きさや時間の長さを変更し、指定してもよい。
また、移動ロボット100からの問合せは、通信可能な他の移動ロボット、他の環境センサノード全てに対して行われてもよい。移動ロボット100は全ての移動ロボット、環境センサノードからの、返答および動体移動・環境変化情報を受信することができる。また、移動ロボット100からの問い合わせは、複数の環境センサノード(複数の他の移動ロボット)に対して、同時に行ってもよいし、順番に行ってもよい。
次に、ステップS204において、通信部109は、ステップS203での問合せに対して、環境センサノード120、312〜319からの返答があるか否かを判定する。一つ以上の返答があった場合はステップS205へ進む、返答がなかった場合はステップS208へ進む。
次に、ステップS205において、通信部109は環境センサノード120、312〜319および、その他の全ての環境センサノードと、その他の全ての移動ロボット、から動体移動・環境変化情報を受信する。なお、環境センサノード120、312〜319の中、ある特定の環境センサノードのみから動体移動・環境変化情報を受信してもよい。ステップS203で指定した場所に関して、環境変化情報を有する環境センサノードのみから情報を取得してもよい。
ステップS206において、動体・環境変化情報統合部103は、次のステップS207にて用いる、ステップS205で受信した動体移動・環境変化情報が存在する場所に対応する場所の情報を含む地図情報(第1の地図情報)を地図情報データベース105から取得する。
ここで、図3Bを参照しながら、ステップS207の具体的な内容、すなわちその詳細であるステップS20701からステップS20706について説明する。
ステップS207において、動体・環境変化情報統合部103は、ステップS202で外界センサ101が取得した情報と、ステップS206で取得した地図情報に対して、環境センサノード120、312〜319において抽出された一つ以上の動体移動・環境変化情報を統合する処理を行う。
まず、ステップS20701において、動体・環境変化情報統合部103は、ステップS202で外界センサ101が取得した周辺環境の情報の座標系と、環境センサノード120、312〜319から送信された動体移動・環境変化情報の座標系を、ステップS206で取得した地図情報の座標系に変換する座標変換を行う。それぞれの座標系を、共通の座標系にする。
次に、ステップS20702において、動体・環境変化情報統合部103は、動体移動・環境変化情報の形状に関する異なるタイミング間での時間的変化量の大きさが、閾値Th_chより大きい場所が存在するか否かの判定を行う。
本実施の形態の場合、「時間的変化量」は、例えば、2次元空間上もしくは3次元空間上における各点に物体が存在する確率である各点の存在確率(Exiatence Probability)に関する。具体的には、各点について第1のタイミングでの存在確率と第1のタイミングより時間的に後である第2のタイミングでの存在確率との間の差分の絶対値を求め、その各点それぞれの差分の絶対値を合計した値(Sum of Absolute Difference)である。すなわち、第1のタイミングと第2のタイミングとの間の時間に変化した存在確率の変化量である。また、第1のタイミングおよび第2のタイミングは時刻であってもよいし、ロボットシステムが稼動し始めてからの経過時間であってもよい。
また、形状に関する時間的変化量は、例えば、各点に対するSSD(Sum of Squared Difference)、SATD(Sum of Absolute Transformed Difference)、MAD(Mean Absolute Difference)、MSD(Mean Squared Difference)、もしくは画像特徴量であるSIFT、SURF、HoG等の特徴ベクトルの差分であってもよい。また形状に関する時間的変化量は例えば、それらの特徴ベクトルを用いて生成したBoF(Bag of Feature)特徴ベクトルの差分であってもよい。
閾値Th_chの具体的な値の設定は、用いる変化量の基準や状況によって異なる。一例としては、10m×10m×10mの空間において、100mm×100mm×100mmの物体が20mm移動した際の変化量を閾値Th_ch、として設定することが考えられる。ただし、閾値Th_chの具体値の設定は上記例に限定されるものではない。
異なるタイミング間の時間的変化量の大きさが閾値Th_chより大きい場所が存在する場合はステップS20703に進む。そうでない場合はステップS20707へ進む。
次に、ステップS20703において、動体・環境変化情報統合部103は、動体移動・環境変化情報の形状に関する時間的変化量が閾値Th_chより大きいタイミング間の時間差が閾値Th_tu(第1の時間)より大きいか否かの判定を行う。閾値Th_tuより大きい場合は、ステップS20707へ進む。これは、時間差が所定の閾値Th_tuより大きい場合は、当該の動体移動・環境変化情報は外乱による一時的な環境変化ではなく、静物体の移動等による半永続的又は永続的な環境の変化であるとみなし、環境の変化した部分を新たな地図として扱うことを意味する。例えば、室内で家具などを動かした際のレイアウト変更がそれに該当し、レイアウト変更のような時間差の大きい変化は新たな地図として扱う。時間差が閾値Th_tuより小さいもしくは等しい場合は、ステップS20704に進む。
次に、ステップS20704において、動体・環境変化情報統合部103は、動体移動・環境変化情報の形状に関する時間的変化量が閾値Th_chより大きいタイミング間の時間差が閾値Th_tb(第2の時間)より小さいか否かの判定を行う。
閾値Th_tbより小さい場合、ステップS20705において、動体・環境変化情報統合部103は、動体移動・環境変化情報(第3の地図情報)における時間的変化量が閾値Th_chより大きい場所に対応する、移動ロボット100の外界センサ101が取得した周辺環境の情報(第2の地図情報)における場所の情報とステップS206で取得した地図情報(第1の地図情報)における場所の情報を除去する除去処理を実行する。その情報の除去処理についての詳細は後述する。
一方、閾値Th_tbより大きいもしくは等しい場合、ステップS20706において、動体・環境変化情報統合部103は、動体移動・環境変化情報(第3の地図情報)における時間的変化量が閾値Th_chより大きい場所に対応する、移動ロボット100の外界センサ101が取得した周辺環境の情報(第2の地図情報)における場所の情報とステップS206で取得した地図情報(第1の地図情報)における場所の情報それぞれの分散を増加変更する分散増加処理を実行する。なお、閾値Th_tbは、閾値Th_tuよりも大きい値である。例えば、分散の増加変更は分散Vに対して、1より大きい定数aを乗じる形(a×V)で計算される。
ここで言う「情報の分散」とは情報のばらつき・不確からしさを表す指標を言う。周辺環境の情報に関して言えば、分散が小さい場合には周辺環境の空間上において期待値周辺に検出対象が存在する確率が高いことを意味する。一方、分散が大きい場合には期待値周辺に検出対象が存在する確率が低いことを意味し、検出対象の存在しうる確率の分布が空間上に大きく広がる。
また、情報の「分散増加処理」は、情報のばらつき・不確からしさを増加させることを言い、すなわち情報の信用度を下げることを言う。この情報の分散増加処理についての詳細は後述する。
なお、ステップS20704で、動体移動・環境変化情報の形状に関する時間的変化量が閾値Th_chより大きいタイミング間の時間差が閾値Th_tbより小さいか否かを判定したがこれに限られない。例えば、動体移動・環境変化情報の形状に関する時間的変化量の大きさが、閾値Th_chとは異なる新たな閾値より大きいか否かを判定してもよい。すなわち動体移動・環境変化情報の形状に関する時間的変化量の大きさが、新たな閾値より大きい場合(Yes)ステップS20705に進み、そうでない場合(No)ステップS20706に進む。ここで新たな閾値は閾値Th_chより高い値である。すなわちステップS20704でYesの場合はそうでない場合(No)よりも変化量が大きい場合なので、動体移動・環境変化情報を外界センサ情報・地図情報から除去する処理が有効となる。
次に、ステップS20707において、動体・環境変化情報統合部103は、受信した一つ以上の場所に関する動体移動・環境変化情報について、動体・環境変化情報統合部が処理していない、すなわち未処理の動体移動・環境変化情報が存在するか否かを判定する。未処理の動体移動・環境変化情報が存在する場合はステップS20701に戻り、未処理の動体移動・環境変化情報がなくなるまで、処理を継続する。未処理の動体移動・環境変化情報が存在しない場合は、ステップS208に進む。
図3Aに戻り、ステップS208において、地図情報の生成と移動ロボット100の自己位置の推定(マッチング処理を含む)を行う。ステップS204で環境センサノード120からの返答があった場合は、ステップS207で動体移動・環境変化情報が統合された外界センサ101が取得した情報と、内界センサ102がステップS201で取得した情報とを用いて、地図生成・自己位置推定部104が、地図情報の生成と移動ロボット100の自己位置の推定を行う。ここで、自己位置の推定の際には、地図情報と、外界センサが取得したセンサデータとを照らし合わせて(マッチング処理)、類似度の高い変換を探索し、最も類似度の高い変換をもって移動ロボット100の移動距離および移動方向、すなわち現在の自己位置を推定する。ステップS204において環境センサノード120からの返答がなかった場合は、外界センサ101がステップS202にて取得した情報と、内界センサ102がステップS201にて取得した情報とを用いて、地図生成・自己位置推定部104は、地図情報の生成と移動ロボット100の自己位置の推定を行う。地図情報の生成と自己位置の推定は地図生成・自己位置推定部104におけるフィルタリング処理によって同時に行われる。
次に、ステップS209において、経路計画部106は、地図情報データベース105に保存されている、ステップS208で生成された地図情報を用いて、現在の自己位置から移動する経路を計画する。経路計画の方法については上述の通りである。
次に、ステップS210において、制御部107は、ステップS209において計画された経路について、移動ロボット100の移動動作を行うための制御命令を生成する。
次に、ステップS211において、アクチュエータ108は、ステップS210にて生成された制御命令を受けて実際に移動ロボット100を動かす。
ここからは、環境センサノード120における処理である、ステップS221からS227について説明する。
処理フローT221AのステップS221において、環境センサノード120の通信部125は移動ロボット100からの問合せを受け付ける。
ステップS223において、移動ロボット100からの問合せ内容である、指定した場所、指定した時間帯という条件に当てはまる動体移動・環境変化情報が存在するか否か、動体移動・環境変化情報データベース124を用いて確認する。確認の結果、条件に当てはまる動体移動・環境変化情報が存在した場合は、ステップS225の処理に進む。条件に当てはまる動体移動・環境変化情報が存在しない場合は、ステップS221に戻る。
次に、ステップS225において、通信部125は移動ロボット100に対して、ステップS203での指定した場所、時間帯に動体移動・環境変化情報が存在するか否かの問合せに対する返答(指定した場所の動体移動・環境変化情報が存在するか否かの情報)を送信する。
次に、ステップS226において、通信部125は、ステップS221で受け付けた問合せを行った移動ロボット100に対して、動体移動・環境変化情報を送信する。送信を行った後はステップS221に戻る。
処理フロー221BのステップS222において、動体移動・環境変化情報抽出部122は、環境センサ121が検出した環境センサノード120の周辺の情報を取得し、環境センサ情報時系列データベース123に、検出時間と検出情報の組の形で時系列順に保存する。
ステップS224において、動体移動・環境変化情報抽出部122は、環境センサ情報時系列データベース123に保存されている、環境センサノード120の周辺に関する検出時間と検出情報の複数の組を時系列に沿って参照し、環境センサノード120の周辺の環境が変化しているか否かを判定する。
ステップS227にて、動体移動・環境変化情報抽出部122は、動体移動・環境変化情報抽出部122は、環境センサ情報時系列データベース123に保存されている検出時間と検出情報の時系列に沿った複数の組に基づいて、周辺環境の変化場所、変化形状、変化の大きさ及び変化にかかった時間を算出する。前記の変化場所、変化の大きさ、変化にかかった時間を動体移動・環境変化情報として動体移動・環境変化情報データベース124に保存する。
抽出された動体移動・環境変化情報は、図2に示すように、環境センサノードに搭載される通信手段351と移動ロボット100に搭載される通信手段352によって通信経路353を通って環境センサノードから移動ロボットに送られる。移動ロボットに送られた動体移動・環境変化情報は、動体移動・環境変化情報統合部によって、人/動体による環境変化情報が存在する場所に対応する、移動ロボット100の外界センサ101が検出した情報(第2の地図情報)における場所の情報を除去するために使用される。これにより、外乱である動的な環境変化を移動ロボット100の外界センサ101が検出した情報から除去することが可能となる。
図4Aは、例えば、任意の時刻Tにおいて移動ロボット100が環境400に存在していることを示す。図4Cに、時刻Tにおいて移動ロボット100の外界センサ101が取得した情報(センサデータ)430を示す。図4Bに、時刻Tから任意の時間間隔αが経過した時刻T+αにおいて移動ロボット100が環境400に存在していることを示す。図4Dに、時刻Tから任意の時間間隔αが経過した時刻T+αにおける移動ロボット100の外界センサ101が取得した情報(センサデータ)431を示す。
図4Aに示すように、環境400には、移動ロボット100と、位置401に存在する静物体Aと、位置402に存在する動体Hと、環境センサノード120が存在している。移動ロボット100は、進行方向405に向かって移動している。動体Hは、進行方向404に向かって位置402から移動している。
図4Bに示すように、環境400には、移動ロボット100と、位置401に存在する静物体Aと、位置403に存在する動体Hと、環境センサノード120が存在している。
図4Aと図4Bを比較すると、移動ロボット100の位置が変化している。また、動体Hの位置も、位置402から位置403に変化している。
移動ロボット100に搭載される外界センサ101は、環境400における移動ロボット100の周辺の情報を取得する。
時刻Tにおいて、環境400に対して、外界センサ101が取得したセンサデータ430(太実線)を、図4Cは示している。センサデータ430には、環境400における、位置401に存在する静物体Aと、位置402に存在する動体Hと、壁Wそれぞれの形状および外界センサ101からの距離が含まれている。
時刻Tから任意の時間間隔αが経過した時刻T+αにおいて、環境400に対して、外界センサ101が取得したセンサデータ431(太破線)を、図4Dは示している。センサデータ431には、環境400における、位置401に存在する静物体Aと、位置403に存在する動体Hと、壁Wそれぞれの形状および外界センサ101からの距離が含まれている。
センサデータ430とセンサデータ431は、2次元の距離データ、3次元の距離データ、2次元の形状データ、3次元の形状データ、画像特徴点、などのデータ形式もしくはそれぞれの全ての組合せを含み得る。すなわち、外界センサ101が取得する情報には座標情報が含まれる。環境センサノード120は、環境センサ121によって、動体Hが時刻Tから時刻T+αの間に、位置402から位置403に移動したことによる環境変化を動体移動・環境変化情報として抽出する。図5A〜図5Cに、時刻Tにおける地図データと時刻T+αにおけるセンサデータとのマッチング処理と、その結果例を示す。
センサデータのマッチング処理は、上述したステップS208にて、地図生成・自己位置推定部104によって実行される。マッチング処理は、地図情報(データ)と、外界センサが取得したセンサデータとを照らし合わせて、類似度の高い変換を探索し、最も類似度の高い変換をもって、移動ロボット100の、移動距離および移動方向、すなわち現在の自己位置を推定する。
一例として、センサデータ430をもとに作られた時刻Tにおける地図データ501(すなわち地図情報データベース105内の地図情報)と、時刻T+αにおいて移動ロボット100の外界センサ101によって取得されたセンサデータ431とのマッチング処理について説明する。
マッチング処理は、複数のデータを照らし合わせて、相違度が低い、すなわち類似度が高い複数のデータ間の変換を探索する処理である。マッチング処理は、相違度の勾配を計算し、相違度が極小となる変換を探索する。
しかし、探索する対象の形状が変形している場合または、データに外乱によるノイズが入っている場合に、あらかじめ定められた相違度の閾値を下回らず、探索が収束しないという問題が発生する。さらに、そのような場合に、本来の正解であるデータ間の対応とは違う誤った対応を最適な対応と判定し、変換の探索の精度が低下する問題が発生する。
マッチング処理による、地図データ501とセンサデータ431のマッチング結果は、図5Bに示す結果例503、結果例504のようになり得る。
結果例504は、地図データ501とセンサデータ431の対応としての正解(Ground truth)に非常に近い例を示している。
結果例504は、位置401から移動しない静物体Aと壁の形状によるデータの部分(左側部分)が高い精度で対応しており、正解と高い精度で対応している。一方、動体Hが位置402から位置403へ移動したことによるセンサデータの形状が変化した部分(右側部分)の対応がうまくとれておらず、その結果として、センサデータ全体の類似度が低下している。
そのため、探索方法や閾値によっては、正解である結果例504へ収束するまでに、マッチング演算の繰り返し回数が増加するという問題が発生する。
図5Cに、マッチングにおける評価値例505を示す。評価値例505として、横軸にマッチングを行う2つのデータ501、431間のX軸方向の距離、縦軸に評価値をとりプロットした例を示す。評価値は、データ間の相違度を表し、データの形状が一致しているほど低い値となる。
ここで、理解を容易にするために、評価値例505は、地図データ501に対してセンサデータ431をX軸方向のみに並進させた場合の例を示している。なお、実際には、変換を探索するために、各軸に対するデータの並進、回転が行われる。並進とは、一方向に平行移動する運動を示す。
図5Cに示すように、マッチングにおける評価値例505には、結果例504に対するマッチング演算の評価値507が示されている。評価値507の付近では、評価値の変化がなだらかであり、勾配法等の手法を用いて結果を求める場合、結果へ収束するまでにマッチング演算の繰り返し回数が多数必要となる。
また、図5Bに示す結果例503は、地図データ501とセンサデータ431の対応としての正解(Ground truth)との対応度が低い例を示している。図5Cに示すように、マッチングにおける評価値例505には、結果例503に対するマッチング演算の評価値506が示されている。評価値506は、評価値例505において、極小値となっている。そのため、勾配法等の手法を用いて結果を求める場合、評価値506に結果が収束し、正解との対応度が低い対応である結果例503を誤って最適な結果と判定する。このように結果例503に収束し、正解との対応度が低い対応を最適と誤って判定する問題も発生し得る。
それにより、データ間の変換の探索精度が低下し、結果として、地図の生成精度とその地図に基づく移動ロボット100の自己位置の推定精度とが低下する。
このように、動体の移動によるセンサデータの形状の変化が生じると、マッチング演算の繰り返し回数が増加し、正解との対応度が低い対応を最適と誤判断することによって地図の生成精度と移動ロボット100の自己位置の推定精度が低下する問題が発生する。以下、この問題に対処する2つの処理について、図6A−図6C、図7A−図7Cを参照しながら説明する。
図6Aには、1つ目の処理によって、すなわち動体Hの移動を原因として動体・環境変化情報が存在する場所(領域C)のデータを除去する処理によって、対象の場所のデータを除去する処理が行われた後の時刻Tの地図データ601と時刻T+αのセンサデータ602とが示されている。
なお、図6Aに示す処理は、ステップS20705と同一の処理である。すなわち、図6Aに示す領域Cは、時間的変化量が閾値Th_chより大きい場所に対応する。
図6Bと図6Cは、地図データ601とセンサデータ602のマッチング結果例とマッチング評価値例を示す。ここでは、理解を容易にするために、マッチング評価値例は、地図データ601に対してセンサデータ602をX軸方向のみに並進させた場合の例を示している。すなわち図6Cのグラフにおいて、横軸は2つのデータ601、602間のX軸方向の距離を示し、縦軸は評価値(2つのデータ601、602の相違度)を示している。
図6Cに示されるように、図6Aに示す除去処理によれば、動体の移動を原因とするセンサデータの形状の変化による影響が除去されているので、評価値の変化が険しくなる。よって勾配法等の手法を用いて結果を求める場合、図5Cに示す評価値例505と比較して、図6Cに示す評価値例では、評価値506の点に対応する極小値が存在しない。すなわち、図6Cに示す評価値例では、評価値607の点に対応する最小値のみが極小値と存在する。この評価値例によれば、誤判断を回避し、正解への高精度な対応が可能である。さらに、評価値607の周辺の評価値の変化が、図5Cに示す評価値507と比較して急峻となっており、それによりマッチング演算の繰り返し回数が図5Cに示す評価値例505を用いる場合に比べて削減される。
以上により、地図生成・自己位置推定におけるデータ間のマッチング処理において、マッチング対象の2つのデータそれぞれにおける動体が存在する領域(図6Aに示す領域C)の情報をマッチング処理実行前に除去することにより、マッチング処理の高精度化・演算量の低減が図れる。
次に、2つ目の処理について説明する。図7Aには、動体Hの移動を原因として動体・環境変化情報が存在する場所(領域C)のデータの分散を増加させる処理によって、対象の場所のデータの分散を増加させる処理が行われた後の時刻Tの地図データ603と、時刻T+αのセンサデータ604とが示されている。
ここで、情報の分散の増加について、図8−図10を参照しながら補足する。
図8は、時刻Tにおける地図データ501を示している。図8に示すように、地図データ501には、移動ロボット100の外界センサ101によって実測された実測点(実測座標)が含まれている。
その地図データ501の情報の分散は、実測点の分散とみなすことができ、その実測点の不確からしさ(その座標情報の信用度)を表している。図9に示すように、実測点の分散は、具体的には実測点をピークとする存在確率の分布の幅で定義することができる。したがって、情報の分散の増加は、実測点をピークとする存在確率の分布の幅の増加を意味する。
一例として、図10には、地図データ501の一部分(右側部分)において、情報の分散の増加が実行された、すなわち実測点の存在確率の分布の幅が増加した様子が示されている。
なお、図7Aに示す処理は、ステップS20706と同一の処理である。すなわち、図7Aに示す領域Cは、時間的変化量が閾値Th_chより大きい場所に対応する。
図7Bと図7Cに、地図データ603とセンサデータ604のマッチング結果例とマッチング評価値例を示す。ここでは、理解を容易にするために、マッチング評価値例は、地図データ603に対してセンサデータ604をX軸方向のみに並進させた場合の例を示している。
図7Cに示されるように、図7Aに示す分散増加処理によれば、動体の移動を原因とするセンサデータの形状の変化による影響を緩和しているので評価値の変化が険しくなる。よって勾配法等の手法を用いて結果を求める場合、図5Cに示す評価値例505の評価値506の点に対応する極小値が評価値608の点に比べて充分に大きい値であるため、図5Cの評価値例505と比較して、評価値608へ収束しやすい。この評価例によれば、誤判断を回避しやすくなり、正解への高精度な対応が可能である。さらに、評価値608の周辺の評価値の変化が、図5Cに示す評価値507と比較して急峻となっており、それによりマッチング演算の繰り返し回数が図5Cに示す評価値例505を用いる場合に比べて削減される。
以上により、地図生成・自己位置推定におけるデータ間のマッチング処理において、マッチング対象の2つのデータそれぞれにおける動体が存在する領域(例えば図7Aに示す領域C)の情報をマッチング処理実行前に分散増加することにより、マッチング処理の高精度化・演算量の低減が図れる。
図6Aに示す情報の除去処理と図7Aに示す情報の分散増加処理は、図3Bに示すように、条件に応じて使い分けられる。具体的には、第1のタイミングと第2のタイミングとの間の時間的変化量が閾値Th_chより大きい場所が存在する場合(そのような動体移動・環境変化情報が存在する場所がある場合)、且つ、その第1のタイミングと第2のタイミングとの間の時間差が閾値Th_tb(第2の時間)より小さい場合、すなわち動体の移動・環境の変化による影響が相対的に大きいと判断される場合に、ステップS20705にて除去処理が実行される。一方、第1のタイミングと第2のタイミングとの間の時間差が閾値Th_tbより大きい場合、すなわち動体の移動・環境の変化による影響が相対的に小さいと判断される場合に、ステップS20706にて分散増加処理が実行される。
除去処理は、分散増加処理に比べて、動体の移動・環境の変化による影響をより小さくなるように抑制する処理である。このように、本実施の形態では、動体の移動・環境の変化による影響の程度によって除去処理と分散増加処理とを使い分け、それにより最適な手法を用いたデータ間のマッチング処理を実現している。
本実施の形態1によれば、環境変化が大きい空間においても、高精度かつロバストに、地図生成とその地図を用いて移動する移動ロボットの自己位置推定とを行うことができる。
(実施の形態2)
上述の実施の形態1に係るロボットシステムは、1つの移動ロボットと、少なくとも1つの環境センサノードとを含んでいる。これに対して、本実施の形態2に係るロボットシステムは、複数の移動ロボットと、少なくとも1つの環境センサノードとを含んでいる。そして、その複数の移動ロボットそれぞれが、上述の実施の形態1における環境センサノードと同様の機能を備える。すなわち、地図生成や自己位置推定を行う1つの移動ロボットに対して、残りの移動ロボットが環境センサノードとして機能することができる。
具体的には、本実施の形態2の移動ロボットそれぞれは、環境センサを用いて最終的に動体移動・環境変化情報を取得する上述の実施の形態1の環境センサノードと同様に、外界センサを用いて最終的に動体移動・環境変化情報を取得するように構成されている。また、移動ロボットは、図1に示す環境センサノードの動体移動・環境変化情報抽出部、環境センサ情報時系列データベース、および動体移動・環境変化情報データベースと実質的に同一の構成要素を含んでいる。
図11に、本実施の形態2に係るロボットシステムにおける、複数の移動ロボットの処理フローを示す。
図11に示すように、本実施の形態2に係る移動ロボットは、メイン処理フローT701と、サブ処理フローT702A、T702Bとにしたがって動作するように構成されている。また、図11は、メイン処理フローを実行するロボット(上述の実施の形態1の移動ロボット100に対応)とサブ処理フローT702A、T702Bを実行する少なくとも1つの別の移動ロボット(上述の実施の形態1の環境センサノード120として機能するロボット)との情報のやりとりが示されている。
図11に示す処理フローを行う本実施の形態2に係るロボットシステムと図3A、図3Bに示す上述の実施の形態1に係るロボットシステムとの違いは、動体移動・環境変化情報が、処理フローT702A、T702Bを実行して環境センサノードの役割をする移動ロボットによって抽出され、そのロボットから、メイン処理フローを実行して地図生成および自己位置推定を行う移動ロボットに対して送信されること、環境センサノードの役割をする移動ロボットが外界センサを用いてその周辺の情報を取得すること、である。
本実施の形態2によれば、上述の実施の形態1と同様に、環境変化が大きい空間においても、高精度かつロバストに、地図生成とその地図を用いて移動する移動ロボットの自己位置推定とを行うことができる。また、移動可能な移動ロボットが環境センサノードの役割をすることで、動体移動・環境変化を検出することができるエリアが拡大し、それにともなって動体移動・環境変化情報の情報量が増加する(固定の環境センサノードのロボットシステムに比べて)。その結果として、地図生成・自己位置推定の処理における推定値の精度劣化の抑制と、外乱による計算量の増加の抑制とがより図られる。
なお、本実施の形態2の場合、複数の移動ロボットのいずれかが環境センサノードの役割を果たすので、少なくとも1つの環境センサノード自体をロボットシステムから除外することも可能である。すなわち、この場合、ロボットシステムは、環境センサノードを含まず、環境センサノードの役割を果たすことができる少なくとも2つの移動ロボットを含んでいる。
なお、上記態様において説明された技術は、例えば、以下のロボットシステムの類型において実現されうる。しかし、上記態様において説明された技術が実現されるロボットシステムの類型はこれらに限られるものでない。
以上、実施の形態にて本開示の処理について説明したが、各処理が実施される主体や装置に関しては特に限定しない。ローカルに配置された特定の装置内に組み込まれたプロセッサーなど(以下に説明)によって処理されてもよい。またローカルの装置と異なる場所に配置されているクラウドサーバなどによって処理されてもよい。また、ローカルの装置とクラウドサーバ間で情報の連携を行うことで、本開示にて説明した各処理を分担してもよい。以下本開示の実施態様を説明する。
(1)上記の装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
(5)また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(6)上記実施の形態及びその変形例をそれぞれ組み合わせるとしてもよい。
最後に、移動ロボットおよび環境センサノードは、様々な形態が可能である。例えば、図2に示す移動ロボット100や環境センサノード120(312−319)は屋内で使用されるが、これに限らない。例えば、移動ロボットが屋外の道路などを自動走行する車両の形態であってもよい。この場合、環境センサノードは、道路標識のように道路に沿って配置される、または、道路近傍の建物に設けられる。
100 移動ロボット
101 外界センサ
102 内界センサ
103 動体・環境変化情報統合部
104 地図生成・自己位置推定部
105 地図情報データベース
106 経路計画部
107 制御部
108 アクチュエータ
109 通信部
120 環境センサノード
121 環境センサ
122 動体移動・環境変化情報抽出部
123 環境センサ情報時系列データベース
124 動体移動・環境変化情報データベース
125 通信部

Claims (11)

  1. 少なくとも1つ以上の環境センサノードを用いて地図生成を行う移動ロボットの地図生成方法であって、
    前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を取得し、
    前記移動ロボットに搭載された外界センサによって前記移動ロボット周辺の情報を含む第2の地図情報を取得し、
    前記環境センサノードから前記移動ロボット周辺の情報を含む第3の地図情報を受け取り、
    (i)前記第3の地図情報に第1のタイミングと第2のタイミングとの間の時間における物体の存在確率の変化量、又は物体の特徴ベクトルの変化量である時間的変化量が所定の閾値以上の場所の情報が存在する場合、
    前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
    前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
    (ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
    (iii)マッチング結果に基づいて生成された地図情報に、前記第1の地図情報を更新する、地図生成方法。
  2. 前記第3の地図情報に第1のタイミングと第2のタイミングとの間で前記時間的変化量が前記所定の閾値以上である場所の情報が存在する場合において、
    前記第1のタイミングと前記第2のタイミングとの間の時間差が第1の時間と前記第1の時間に比べて長い第2の時間との間の範囲内である場合には、前記除去処理を行い、
    前記第1のタイミングと前記第2のタイミングとの間の時間差が前記第2の時間以上である場合には、前記分散増加処理を行う、請求項1に記載の地図生成方法。
  3. 前記第3の地図情報に前記第1のタイミングと前記第2のタイミングとの間で前記時間的変化量が前記所定の閾値以上である場所の情報が存在する場合において、
    前記第1のタイミングと前記第2のタイミングとの間の時間差が前記第1の時間以下である場合には、前記除去処理および前記分散増加処理を行わずに、前記第1の地図情報と前記第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成する、請求項2に記載の地図生成方法。
  4. 前記第3の地図情報に前記時間的変化量が前記所定の閾値以上である場所の情報が存在しない場合、前記第1の地図情報と前記第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成する、請求項1から3のいずれか一項に記載の地図生成方法。
  5. 前記分散増加処理が、前記第1の地図情報の対応場所と前記第2の地図情報の対応場所それぞれの情報の不確からしさを増加させる処理である、請求項1から4のいずれか一項に記載の地図生成方法。
  6. 前記第3の地図情報が、前記環境センサノード周辺の物体の存在確率の情報を含み、
    前記時間的変化量が、前記存在確率の変化量である、請求項1から5のいずれか一項に記載の地図生成方法。
  7. 前記第1の地図情報、前記第2の地図情報、および前記第3の地図情報が、二次元座標系における座標情報または三次元座標系における座標情報であって、
    前記マッチングを行う前に、前記第1の地図情報、前記第2の地図情報、および前記第3の地図情報それぞれの座標系を、共通の座標系に変換する座標変換処理を行う、請求項1から6のいずれか一項に記載の地図生成方法。
  8. 少なくとも1つのセンサノードを用いて自己位置推定を行う移動ロボットの自己位置推定方法であって、
    前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を取得し、
    前記移動ロボットに搭載された外界センサによって前記移動ロボット周辺の情報を含む第2の地図情報を取得し、
    環境センサノードから前記移動ロボット周辺の情報を含む第3の地図情報を受け取り、
    (i)前記第3の地図情報に第1のタイミングと第2のタイミングとの間の時間における物体の存在確率の変化量、又は物体の特徴ベクトルの変化量である時間的変化量が所定の閾値以上の場所の情報が存在する場合、
    前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
    前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
    (ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
    (iii)マッチング結果に基づいて生成された地図情報に、前記第1の地図情報を更新し、
    (iv)更新済みの第1の地図情報と、前記移動ロボットの位置および姿勢の少なくとも一方を検出する内界センサの検出結果とに基づいて、前記更新済みの第1の地図情報上での前記移動ロボットの自己位置を推定する、自己位置推定方法。
  9. 前記更新済みの第1の地図情報と推定された自己位置とに基づいて移動経路を算出し、
    前記移動経路に沿って前記移動ロボットを移動させる、請求項8に記載の自己位置推定方法。
  10. 少なくとも1つの環境センサノードと移動ロボットとを含むロボットシステムであって、
    前記環境センサノードが、前記移動ロボット周辺の情報を含む第3の地図情報を取得し、
    前記移動ロボットが、
    前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を記録しているデータベースと、
    前記移動ロボット周辺の情報を含む第2の地図情報を取得する外界センサと、
    前記環境センサノードと通信して前記第3の地図情報を取得する通信部と、
    (i)前記第3の地図情報に第1のタイミングと第2のタイミングとの間の時間における物体の存在確率の変化量、又は物体の特徴ベクトルの変化量である時間的変化量が所定の閾値以上の場所の情報が存在する場合、
    前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
    前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
    (ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
    (iii)マッチング結果に基づいて生成された地図情報に、前記予め記録していた第1の地図情報を更新する情報処理部と、を備える、ロボットシステム。
  11. 移動ロボットであって、
    前記移動ロボット周辺の情報を含む予め作成された第1の地図情報を記録しているデータベースと、
    前記移動ロボット周辺の情報を含む第2の地図情報を取得する外界センサと、
    前記移動ロボットの外部にあって且つ前記移動ロボット周辺の情報を含む第3の地図情報を取得する少なくとも1つの環境センサノードと通信して前記第3の地図情報を取得する通信部と、
    (i)前記第3の地図情報に第1のタイミングと第2のタイミングとの間の時間における物体の存在確率の変化量、又は物体の特徴ベクトルの変化量である時間的変化量が所定の閾値以上の場所の情報が存在する場合、
    前記第3の地図情報における時間的変化量が前記所定の閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報とを除去する除去処理を行う、または、
    前記第3の地図情報における時間的変化量が前記所定閾値以上の場所に対応する、前記第1の地図情報における場所の情報と前記第2の地図情報における場所の情報それぞれの分散を増加する分散増加処理を行い、
    (ii)前記除去処理または前記分散増加処理が行われた後の第1の地図情報と第2の地図情報とをマッチングし、そのマッチング結果に基づいて地図情報を生成し、
    (iii)マッチング結果に基づいて生成された地図情報に、前記予め記録していた第1の地図情報を更新する情報処理部と、を備える、移動ロボット。
JP2016134284A 2015-08-28 2016-07-06 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット Active JP6849330B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16841053.8A EP3343307B1 (en) 2015-08-28 2016-08-08 Mapping method, localization method, robot system, and robot
PCT/JP2016/003634 WO2017038012A1 (ja) 2015-08-28 2016-08-08 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
CN201680003184.4A CN106796434B (zh) 2015-08-28 2016-08-08 地图生成方法、自身位置推定方法、机器人系统和机器人
US15/825,159 US10549430B2 (en) 2015-08-28 2017-11-29 Mapping method, localization method, robot system, and robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015169412 2015-08-28
JP2015169412 2015-08-28

Publications (2)

Publication Number Publication Date
JP2017045447A JP2017045447A (ja) 2017-03-02
JP6849330B2 true JP6849330B2 (ja) 2021-03-24

Family

ID=58210356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016134284A Active JP6849330B2 (ja) 2015-08-28 2016-07-06 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット

Country Status (4)

Country Link
US (1) US10549430B2 (ja)
EP (1) EP3343307B1 (ja)
JP (1) JP6849330B2 (ja)
CN (1) CN106796434B (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017152390A1 (zh) * 2016-03-09 2017-09-14 广州艾若博机器人科技有限公司 地图构建方法、纠正方法及装置
JP6705270B2 (ja) * 2016-04-20 2020-06-03 トヨタ自動車株式会社 移動体の自動運転制御システム
JP6705271B2 (ja) * 2016-04-20 2020-06-03 トヨタ自動車株式会社 移動体の自動運転制御システム
JP6508114B2 (ja) * 2016-04-20 2019-05-08 トヨタ自動車株式会社 移動体の自動運転制御システム
US10120386B2 (en) * 2016-11-18 2018-11-06 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
WO2018123970A1 (ja) * 2016-12-27 2018-07-05 株式会社村田製作所 位置推定システム及び位置推定方法
JP7032062B2 (ja) * 2017-06-02 2022-03-08 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
CN107727104B (zh) * 2017-08-16 2019-04-30 北京极智嘉科技有限公司 结合标识的同时定位和地图创建导航方法、装置及系统
EP3460406B1 (en) * 2017-08-28 2024-04-03 Panasonic Intellectual Property Corporation of America Information processing apparatus, vehicle, information processing method, running control method, and map updating method
CN110998473A (zh) * 2017-09-04 2020-04-10 日本电产株式会社 位置推断系统和具有该位置推断系统的移动体
WO2019054209A1 (ja) * 2017-09-13 2019-03-21 日本電産シンポ株式会社 地図作成システムおよび地図作成装置
CN107632285B (zh) * 2017-09-19 2021-05-04 北京小米移动软件有限公司 地图创建及修改方法与装置
JP6581162B2 (ja) * 2017-09-29 2019-09-25 ファナック株式会社 加工システム及び加工機の制御方法
SG10201708171QA (en) * 2017-10-04 2019-05-30 Arche Information Inc A comprehensive multi-agent robotics management system
US10802485B2 (en) * 2017-10-09 2020-10-13 Here Global B.V. Apparatus, method and computer program product for facilitating navigation of a vehicle based upon a quality index of the map data
JP7151725B2 (ja) * 2017-12-28 2022-10-12 ソニーグループ株式会社 制御装置、および制御方法、プログラム、並びに移動体
JP7353747B2 (ja) * 2018-01-12 2023-10-02 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
EP4250255A3 (en) * 2018-02-02 2024-03-13 Panasonic Intellectual Property Corporation of America Information transmitting method, and client device
CN111971633B (zh) * 2018-04-02 2023-10-20 日本电产株式会社 位置推断系统、具有该位置推断系统的移动体以及记录介质
CN108469826B (zh) * 2018-04-23 2021-06-08 宁波Gqy视讯股份有限公司 一种基于机器人的地图生成方法及系统
IL259260A (en) * 2018-05-09 2018-06-28 Indoor Robotics Ltd A map generator robot
WO2019245320A1 (ko) * 2018-06-22 2019-12-26 삼성전자주식회사 이미지 센서와 복수의 지자기 센서를 융합하여 위치 보정하는 이동 로봇 장치 및 제어 방법
KR102601141B1 (ko) 2018-06-22 2023-11-13 삼성전자주식회사 이미지 센서와 복수의 지자기 센서를 융합하여 위치 보정하는 이동 로봇 장치 및 제어 방법
JP7281707B2 (ja) * 2018-07-06 2023-05-26 パナソニックIpマネジメント株式会社 移動ロボット、及び、制御方法
WO2020014832A1 (zh) * 2018-07-16 2020-01-23 深圳前海达闼云端智能科技有限公司 一种地图加载的方法、装置、电子设备和可读存储介质
DE102018121365A1 (de) * 2018-08-31 2020-04-23 RobArt GmbH Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
EP3627250B1 (en) * 2018-09-21 2023-12-06 Tata Consultancy Services Limited Method and system for free space detection in a cluttered environment
DE102018219602A1 (de) 2018-11-15 2020-05-20 Robert Bosch Gmbh Verfahren zum Erkennen von Kartenfehlern
US11105927B2 (en) * 2018-11-29 2021-08-31 Waymo Llc Localization initialization for autonomous vehicles
JP7220591B2 (ja) 2019-03-07 2023-02-10 三菱重工業株式会社 自己位置推定装置、自己位置推定方法及びプログラム
JP7133251B2 (ja) * 2019-03-13 2022-09-08 学校法人千葉工業大学 情報処理装置および移動ロボット
CN110222205A (zh) * 2019-04-30 2019-09-10 北京云迹科技有限公司 机器人的图像数据处理方法及装置
US20220282987A1 (en) * 2019-08-08 2022-09-08 Sony Group Corporation Information processing system, information processing device, and information processing method
KR20190101326A (ko) * 2019-08-12 2019-08-30 엘지전자 주식회사 이동공간 분할 방법 및 분할된 이동공간을 이동하는 이동로봇
CN112578779A (zh) * 2019-09-29 2021-03-30 苏州宝时得电动工具有限公司 地图建立方法、自移动设备、自动工作系统
JP2021086547A (ja) * 2019-11-29 2021-06-03 株式会社豊田自動織機 走行制御装置
EP4071740A4 (en) * 2019-12-04 2023-12-06 Pioneer Corporation INFORMATION PROCESSING DEVICE, CONTROL METHOD, PROGRAM AND STORAGE MEDIUM
JP7283665B2 (ja) * 2019-12-19 2023-05-30 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
CN111192341A (zh) * 2019-12-31 2020-05-22 北京三快在线科技有限公司 生成高精地图的方法、装置、自动驾驶设备及存储介质
WO2021256322A1 (ja) * 2020-06-16 2021-12-23 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2022013117A (ja) * 2020-07-03 2022-01-18 オムロン株式会社 経路策定システム、移動ロボット、経路策定プログラムおよび移動ロボットの制御プログラム
WO2023189721A1 (ja) * 2022-03-30 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836701B2 (en) * 2002-05-10 2004-12-28 Royal Appliance Mfg. Co. Autonomous multi-platform robotic system
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
CN101033971B (zh) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
CA2772636A1 (en) * 2009-08-31 2011-03-03 Neato Robotics, Inc. Method and apparatus for simultaneous localization and mapping of mobile robot environment
US8849036B2 (en) * 2009-10-30 2014-09-30 Yujin Robot Co., Ltd. Map generating and updating method for mobile robot position recognition
JP5617562B2 (ja) 2010-11-26 2014-11-05 株式会社国際電気通信基礎技術研究所 移動ロボット
JP5776332B2 (ja) 2011-05-27 2015-09-09 富士通株式会社 地図処理方法及びプログラム、並びにロボットシステム
WO2013002067A1 (ja) * 2011-06-29 2013-01-03 株式会社日立産機システム 移動ロボット、及び移動体に搭載される自己位置姿勢推定システム
KR20130068249A (ko) * 2011-12-15 2013-06-26 한국전자통신연구원 이동체의 위치 추정 장치 및 방법
CN103228040A (zh) * 2012-01-31 2013-07-31 国际商业机器公司 室内电子地图生成方法与系统及室内目标定位方法与系统
CN103914068A (zh) * 2013-01-07 2014-07-09 中国人民解放军第二炮兵工程大学 一种基于栅格地图的服务机器人自主导航方法
US9377310B2 (en) * 2013-05-02 2016-06-28 The Johns Hopkins University Mapping and positioning system
US10022867B2 (en) * 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action

Also Published As

Publication number Publication date
US20180079085A1 (en) 2018-03-22
EP3343307A4 (en) 2018-10-17
CN106796434A (zh) 2017-05-31
JP2017045447A (ja) 2017-03-02
US10549430B2 (en) 2020-02-04
EP3343307A1 (en) 2018-07-04
EP3343307B1 (en) 2019-05-01
CN106796434B (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
JP6849330B2 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
WO2017038012A1 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JP6762148B2 (ja) 地図生成方法、移動ロボット及び地図生成システム
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9058521B2 (en) Mobile robot and simultaneous localization and map building method thereof
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101572851B1 (ko) 동적 환경에서 모바일 플랫폼의 지도 작성방법
KR101503903B1 (ko) 이동 로봇의 지도 구성 장치 및 방법
JP2020077372A (ja) データ収集方法及びそのシステム
JP5892663B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、及び移動体
JP2019500693A (ja) 自律視覚ナビゲーション
TW202013251A (zh) 在機器人設備上使用光流感測器進行vslam比例估計的系統和方法
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
JP2015055974A (ja) 三次元物体認識装置、三次元物体認識方法、及び移動体
JP6640779B2 (ja) 自律移動装置及び移動制御システム
KR20140003987A (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
KR20220129218A (ko) 장애물에 관한 비행 상황을 인지하여 무인 이동체의 속도 제어 방법 및 무인 이동체
KR101167627B1 (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
KR102105105B1 (ko) 실내 측위 방법 및 이를 수행하는 장치들
US11967157B2 (en) Robot and method for controlling thereof
McGill et al. Virtual reconstruction using an autonomous robot
Herath et al. A two-tier map representation for compact-stereo-vision-based SLAM
CN114440882B (zh) 一种多智能家居移动设备及其协作寻路防撞方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6849330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150