JP2017021791A - 地図生成方法、移動ロボット及び地図生成システム - Google Patents
地図生成方法、移動ロボット及び地図生成システム Download PDFInfo
- Publication number
- JP2017021791A JP2017021791A JP2016123721A JP2016123721A JP2017021791A JP 2017021791 A JP2017021791 A JP 2017021791A JP 2016123721 A JP2016123721 A JP 2016123721A JP 2016123721 A JP2016123721 A JP 2016123721A JP 2017021791 A JP2017021791 A JP 2017021791A
- Authority
- JP
- Japan
- Prior art keywords
- information
- area
- sensor
- mobile robot
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000001514 detection method Methods 0.000 claims abstract description 103
- 230000008859 change Effects 0.000 claims description 61
- 238000004891 communication Methods 0.000 claims description 19
- 230000001131 transforming effect Effects 0.000 claims 4
- 230000007613 environmental effect Effects 0.000 description 72
- 230000008569 process Effects 0.000 description 30
- 238000006243 chemical reaction Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000015654 memory Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
- Manipulator (AREA)
Abstract
Description
SLAM技術では、一度信頼度の高い地図情報が作成されると、地図情報が作成された領域では専ら外界センサの情報と作成済みの地図情報に基づいて、移動ロボットの自己位置及び姿勢を推定するようになる。
[システム構成]
図1は、実施の形態1に係る地図生成システムの概略構成図を示す。図1に示すように、地図生成システム100は、ネットワーク110と、移動ロボット200と、環境センサ301、302、303とを備える。
次に、移動ロボット200について説明する。
移動ロボット200は、一般的な自走式ロボットと同等の構成を有する。具体的には、移動制御情報に応じて移動する駆動装置を備える。また、移動ロボット200は、自己の位置及び姿勢の推定、環境センサとの通信、及び地図情報の生成を行うことが可能な構成を有する。
ロボット側通信部210は、環境センサ301、302、303と通信を行う通信装置である。ロボット側通信部210は、ネットワーク110を介して、環境センサ301、302、303と通信し、環境センサ301、302、303の検出領域311、312、313内の環境情報を取得する。ロボット側通信部210は、無線通信によりネットワーク110にアクセスしている。ロボット側通信部210で取得した環境センサ301、302、303の環境情報は、座標変換部240に送られる。
内界センサ220は、移動ロボット200の内界情報を取得する。内界情報とは、移動ロボット200の現在の自己位置及び姿勢を予測するための情報であり、例えば、移動ロボット200の移動量等に関する情報(第1情報)である。内界センサ220としては、加速度センサや角速度センサ、車輪の回転量を測定するロータリーエンコーダ等を利用することができる。内界センサ220によって取得された内界情報は、自己位置及び姿勢推定部250に送られる。内界センサ220は、第1センサと称してもよい。
外界センサ230は、移動ロボット200の外界情報を取得する。外界情報とは、外界センサ230の観測領域にある実際の周辺環境の情報であり、例えば、周辺環境に配置された対象物(物体)と移動ロボット200との間の距離等の情報(第2情報)である。外界センサ230としては、カメラ、又はTOF(Time Of Flight)方式で距離を測定する光学式測距センサ等を利用することができる。外界センサ230で取得された外界情報は、尤度計算部260に送られる。外界センサ230は、第2センサと称してもよい。
座標変換部240は、ロボット側通信部210から環境情報を受け取る。座標変換部240は、環境情報の座標を、移動ロボット200の地図情報の座標に合わせるように変換する。環境情報の座標を移動ロボット200の地図情報の座標に合わせる変換は、環境センサ301、302、303の設置位置の座標を予め座標変換部240に与えることで行っている。座標変換部240で座標変換された環境情報は、地図情報更新部270に送られる。
自己位置及び姿勢推定部250は、内界センサ220によって取得された内界情報に基づいて、移動ロボット200の現在の自己位置及び姿勢を予測する。具体的には、自己位置及び姿勢推定部250は、内界センサ220によって得られた移動量に関する情報を用いて、地図情報記録部280に記録された移動ロボット200の過去の位置及び姿勢の情報から現在の予測される自己位置及び姿勢を計算する。計算された自己位置及び姿勢の情報は、尤度計算部260に送られ、自己位置及び姿勢推定部250で予測された自己位置及び姿勢から得られる見込みの予測外界情報を計算するのに用いられる。また、自己位置及び姿勢推定部250は、尤度計算部260から尤度情報を受け取る。自己位置及び姿勢推定部250は、尤度情報と予測した自己位置及び姿勢の情報に基づいて自己位置及び姿勢のズレを計算し、移動ロボット200の現在の自己位置及び姿勢を推定する。自己位置及び姿勢推定部250で推定された自己位置及び姿勢の情報は、地図情報記録部280に送られる。
尤度計算部260は、外界センサ230で得られた外界情報と、自己位置及び姿勢推定部250で予測された自己位置及び姿勢から計算された予測外界情報との対応度を計算し、尤度を計算する。尤度計算部260は、画像特徴量を用いて計算を行う方法や、点群としてICP(ITERATIVE CLOSEST POINT)法を用いて尤度の計算を行っている。尤度計算部260で計算された尤度の情報は、自己位置及び姿勢推定部250と地図情報記録部280とに送られる。
地図情報更新部270は、環境センサ301、302、303の検出領域311、312、313と、外界センサ230の検出領域201とが重なる領域があるか否かを判断している。重なる領域があると判断した場合、地図情報更新部270は、環境センサ301、302、303で取得した環境情報に基づいて、重なる領域の地図情報の信頼度を更新する。具体的には、地図情報更新部270は、重なる領域の分散の値を小さくすることにより、重なる領域に関する地図情報の信頼度を上げている。
図3は、分散の定義を説明する図である。図3に示すように、移動ロボット200に搭載された外界センサ230から対象物(物体)400までの距離を測定した場合、測定した距離には、センサの分解能による精度の問題やノイズの問題によって誤差が生じる。本明細書において「分散」とは、この誤差の大きさを意味する。本明細書において、分散の値が大きいとは、誤差が大きく、地図情報の信頼度が低いことを示し、分散の値が小さいとは、誤差が小さく、地図情報の信頼度が高いことを示す。
地図情報更新部270で更新された地図情報は、地図情報記録部280に送られる。
地図情報記録部280は、自己位置及び姿勢推定部250で推定された自己位置及び姿勢の情報と、尤度計算部260で算出された尤度情報と、地図情報更新部270で更新された地図情報を記録する。また、地図情報記録部280は、尤度情報と、外界センサ230で取得した外界情報と、自己位置及び姿勢推定部250によって推定された自己位置及び姿勢の情報に基づいて、地図情報の生成を行い、生成された地図情報を記録する。
次に、環境センサ301、302、303について説明する。
図4は、環境センサ301の構成を示すブロック図である。図4に示すように、環境センサ301は、環境情報取得部321と、環境センサ通信部331とを備える。環境センサ302、303については、環境センサ301と同様の構成を有するので説明を省略する。環境センサ301、302、303は、第3センサと称してもよい。
環境情報取得部321は、検出領域311内の環境情報(第3情報)を取得する。環境情報取得部321で得られた環境情報は、環境センサ通信部331に送られる。環境情報取得部321としては、例えば、光学式測距カメラを用いている。環境情報は、例えば、カメラによる映像情報及び深度等の情報である。
環境センサ通信部331は、移動ロボット200と通信を行い、環境情報取得部321で得られた環境情報を移動ロボット200に送る。具体的には、環境センサ通信部331は、環境情報取得部321で得られた環境情報を、ネットワーク110を介して、移動ロボット200のロボット側通信部210に送る。
実施の形態1の移動ロボット200を用いて地図を生成する方法について説明する。
まず、地図情報を高精度化する処理について図5及び図6を用いて説明する。
図5は、移動ロボット200の地図情報を高精度化する動作の一例を上から見た図を示す。図5においては、壁面500に環境センサ301が配置されており、環境センサ301は、壁面500の内側領域(第1領域)の環境情報(第3情報)を取得している。この環境情報に基づいて、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)を取得している。移動ロボット200は、壁面500の内側領域を移動し、外界センサ230によって外界情報を取得している。
次に、周辺環境において、移動ロボット200の外界センサ230の検出領域201外で外乱により環境の変化が生じた場合における地図情報の更新処理について図7A、図7B、及び図8を用いて説明する。
実施の形態1に係る地図生成方法は、一度生成された地図情報において、移動ロボット200の外界センサ230が、所定の時間、外界情報の取得を行っていない領域に関する地図情報の分散の値を大きくする。地図情報を生成した後、所定の時間、外界情報の取得していない領域においては、環境の変化が生じている可能性がある。そのため、実施の形態1に係る地図生成方法では、一度生成した地図情報について、所定の時間、外界センサ230によって外界情報を取得していない場合に、その領域に関する地図情報の分散の値を大きくし、地図情報の信頼度を下げている。なお、所定の時間とは、地図情報を生成する領域の大きさ、移動ロボット200の移動速度等の条件によって任意に決定することができる。
実施の形態1に係る地図生成方法及び移動ロボット200によれば、以下の効果を奏することができる。
110 ネットワーク
200 移動ロボット
201 検出領域
210 ロボット側通信部
220 内界センサ
230 外界センサ
240 座標変換部
250 自己位置及び姿勢推定部
260 尤度計算部
270 地図情報更新部
280 地図情報記録部
301、302、303 環境センサ
311、312、313 検出領域
321 環境情報取得部
331 環境センサ通信部
400 対象物
401 領域
500 壁面
Claims (19)
- 第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、
前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、
前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、
前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、
前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、
前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、
前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、
前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する、
地図生成方法。 - さらに、
前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、
前記第4情報は、前記第6情報に基づいて計算される、
請求項1に記載の地図生成方法。 - 前記第1物体の位置を示す第1位置情報の信頼度を更新することで、前記第1領域の地図情報が更新される、
請求項1に記載の地図生成方法。 - 前記第1位置情報の第1分散値を、前記第1分散値より小さい第2分散値に更新することで、前記第1位置情報の信頼度が更新される、
請求項3に記載の地図生成方法。 - 前記第3センサは、前記第1領域に配置されており、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項1に記載の地図生成方法。 - 前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項1に記載の地図生成方法。 - 第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、
前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、
前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、
前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、
前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、
前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、
前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、
前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する、
地図生成方法。 - さらに、
前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、
前記第4情報は、前記第6情報に基づいて計算される、
請求項7に記載の地図生成方法。 - 前記第2物体の位置を示す第1位置情報の信頼度を更新することで、前記第4領域の地図情報が更新される、
請求項7に記載の地図生成方法。 - 前記第1位置情報の第1分散値を、前記第1分散値より大きい第2分散値に更新することで、前記第1位置情報の信頼度が更新される、
請求項9に記載の地図生成方法。 - 前記第1位置から前記第2位置の変化量に応じて、前記第2分散値は前記第1分散値より大きくされる、
請求項10に記載の地図生成方法。 - 前記第1移動ロボットの現在位置が前記第3領域に存在せず、前記第2領域と前記第3領域とが重ならない場合に、前記第4領域について、前記第1領域の地図情報が更新される、
請求項8に記載の地図生成方法。 - 前記第3センサは、前記第1領域に配置されており、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項7に記載の地図生成方法。 - 前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項7に記載の地図生成方法。 - さらに、
前記第2センサから、所定時間前記第2情報の取得を行っていない第5領域について、前記地図情報について前記第5領域の第3分散値を前記第3分散値より大きい第4分散値に更新する、
請求項10に記載の地図生成方法。 - 第1領域を移動する移動ロボットであって、
前記移動ロボットの移動量を示す第1情報を取得する第1センサと、
前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、
(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、
を備える、移動ロボット。 - 第1領域を移動する移動ロボットであって、
前記移動ロボットの移動量を示す第1情報を取得する第1センサと、
前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、
(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部と、
を備える、移動ロボット。 - 第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、
前記第1領域に設置された第3センサと、
前記移動ロボット及び前記第3センサと通信するサーバと、
を備え、
前記サーバは、
(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、
を有する、地図生成システム。 - 第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、
前記第1領域に設置された第3センサと、
前記移動ロボット及び前記第3センサと通信するサーバと、
を備え、
前記サーバは、
(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部、
を有する、地図生成システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015137931 | 2015-07-09 | ||
JP2015137931 | 2015-07-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017021791A true JP2017021791A (ja) | 2017-01-26 |
JP6762148B2 JP6762148B2 (ja) | 2020-09-30 |
Family
ID=56853443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016123721A Active JP6762148B2 (ja) | 2015-07-09 | 2016-06-22 | 地図生成方法、移動ロボット及び地図生成システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10006772B2 (ja) |
EP (1) | EP3118705B1 (ja) |
JP (1) | JP6762148B2 (ja) |
CN (1) | CN106339001B (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6402266B1 (ja) * | 2018-02-09 | 2018-10-10 | ユニティガードシステム株式会社 | ロボットの移動制御システム及び移動制御方法 |
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
WO2019044499A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
JP2022059815A (ja) * | 2020-10-02 | 2022-04-14 | 本田技研工業株式会社 | 移動体制御装置、移動体、移動体制御方法、およびプログラム |
WO2022259621A1 (ja) * | 2021-06-11 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、コンピュータプログラム |
WO2024154351A1 (ja) * | 2023-01-20 | 2024-07-25 | 日本電気株式会社 | 信頼度決定システム、信頼度決定方法、及び信頼度決定装置 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016101552A1 (de) * | 2016-01-28 | 2017-08-03 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät |
US10180689B2 (en) * | 2016-08-19 | 2019-01-15 | Omega Patents, L.L.C. | Vehicle system including security unit providing degradation commands via a vehicle data bus and related methods |
KR102012550B1 (ko) * | 2017-02-20 | 2019-08-20 | 엘지전자 주식회사 | 돌발 장애물을 식별하는 방법 및 이를 구현하는 로봇 |
JP6825712B2 (ja) * | 2017-09-04 | 2021-02-03 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
JP6740988B2 (ja) * | 2017-09-26 | 2020-08-19 | カシオ計算機株式会社 | 地図情報提供装置、携帯型地図送信装置、地図情報提供システム、地図情報提供方法及びプログラム |
JP7051045B2 (ja) * | 2017-11-08 | 2022-04-11 | オムロン株式会社 | 移動式マニピュレータ、移動式マニピュレータの制御方法及びプログラム |
CN108469826B (zh) * | 2018-04-23 | 2021-06-08 | 宁波Gqy视讯股份有限公司 | 一种基于机器人的地图生成方法及系统 |
JP7075822B2 (ja) * | 2018-06-04 | 2022-05-26 | パナソニックホールディングス株式会社 | マップ情報更新システム |
US11309947B2 (en) * | 2018-11-19 | 2022-04-19 | Facebook Technologies, Llc | Systems and methods for maintaining directional wireless links of motile devices |
KR102198187B1 (ko) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | 이동 로봇 |
DE102019111315A1 (de) * | 2019-05-02 | 2020-11-05 | Horsch Leeb Application Systems Gmbh | Autonome landwirtschaftliche Arbeitsmaschine und Verfahren zu deren Betrieb |
US11478936B2 (en) * | 2019-10-09 | 2022-10-25 | Canon Kabushiki Kaisha | Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor |
CN112988767A (zh) * | 2019-12-16 | 2021-06-18 | 上海航空电器有限公司 | 一种基于飞行位置的机载地形数据的动态调度处理方法 |
CN111240322B (zh) * | 2020-01-09 | 2020-12-29 | 珠海市一微半导体有限公司 | 机器人移动限制框的工作起点确定方法及运动控制方法 |
JP2021128207A (ja) * | 2020-02-12 | 2021-09-02 | 本田技研工業株式会社 | 地図作成装置、地図作成システム、地図作成方法、およびプログラム |
CN113449054B (zh) * | 2020-03-27 | 2023-08-04 | 杭州海康机器人股份有限公司 | 一种地图切换的方法和移动机器人 |
DE102020210515A1 (de) * | 2020-08-19 | 2022-03-24 | Volkswagen Aktiengesellschaft | Verfahren zur Überprüfung von detektierten Veränderungen für ein Umfeldmodell einer digitalen Umgebungskarte |
EP3958086A1 (en) * | 2020-08-19 | 2022-02-23 | Carnegie Robotics, LLC | A method and a system of improving a map for a robot |
CN113783945B (zh) * | 2021-08-25 | 2024-09-06 | 深圳拓邦股份有限公司 | 移动机器人的地图同步方法、装置以及移动机器人 |
CN113907645A (zh) * | 2021-09-23 | 2022-01-11 | 追觅创新科技(苏州)有限公司 | 移动机器人的定位方法及装置、存储介质及电子装置 |
CN116594408B (zh) * | 2023-07-17 | 2023-10-13 | 深圳墨影科技有限公司 | 一种移动协作机器人路径规划系统及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109325A (ja) * | 2011-11-22 | 2013-06-06 | Korea Electronics Telecommun | 群集の知能ロボットを用いた地図構築方法及びその装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US9534899B2 (en) * | 2005-03-25 | 2017-01-03 | Irobot Corporation | Re-localization of a robot for slam |
AU2006284577B2 (en) * | 2005-09-02 | 2012-09-13 | Neato Robotics, Inc. | Multi-function robotic device |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
US8965578B2 (en) * | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
CN101033971B (zh) * | 2007-02-09 | 2011-02-16 | 中国科学院合肥物质科学研究院 | 一种移动机器人地图创建系统及地图创建方法 |
WO2009038772A2 (en) * | 2007-09-20 | 2009-03-26 | Evolution Robotics | Transferable intelligent control device |
KR100955483B1 (ko) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법 |
KR101202695B1 (ko) * | 2008-10-01 | 2012-11-19 | 무라다기카이가부시끼가이샤 | 자율 이동 장치 |
RU2012122469A (ru) * | 2009-11-06 | 2013-12-20 | Эволюшн Роботикс, Инк. | Способы и системы для полного охвата поверхности автономным роботом |
JP5393413B2 (ja) | 2009-11-19 | 2014-01-22 | 三菱重工業株式会社 | 自律走行車および自律走行方法 |
KR101906329B1 (ko) * | 2010-12-15 | 2018-12-07 | 한국전자통신연구원 | 카메라 기반의 실내 위치 인식 장치 및 방법 |
US9056754B2 (en) * | 2011-09-07 | 2015-06-16 | Crown Equipment Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
KR101380852B1 (ko) * | 2012-05-30 | 2014-04-10 | 서울대학교산학협력단 | 사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 slam 시스템 및 방법 |
CN102831446A (zh) * | 2012-08-20 | 2012-12-19 | 南京邮电大学 | 单目视觉slam中基于图像外观的闭环检测方法 |
US9953618B2 (en) * | 2012-11-02 | 2018-04-24 | Qualcomm Incorporated | Using a plurality of sensors for mapping and localization |
CN103885443B (zh) * | 2012-12-20 | 2017-02-08 | 联想(北京)有限公司 | 用于即时定位与地图构建单元的设备、系统和方法 |
CN103901884B (zh) * | 2012-12-25 | 2017-09-29 | 联想(北京)有限公司 | 信息处理方法和信息处理设备 |
JP6233706B2 (ja) * | 2013-04-02 | 2017-11-22 | パナソニックIpマネジメント株式会社 | 自律移動装置及び自律移動装置の自己位置推定方法 |
KR101448786B1 (ko) * | 2013-05-22 | 2014-10-13 | 현대자동차 주식회사 | 주차 보조 시스템 및 주차 정렬 제어 방법 |
CN103901891A (zh) * | 2014-04-12 | 2014-07-02 | 复旦大学 | 一种基于层次结构的动态粒子树slam算法 |
CN103955221B (zh) * | 2014-05-05 | 2017-01-11 | 北京理工大学 | 带任务时效性的多平台协作路径规划系统和方法 |
-
2016
- 2016-06-22 JP JP2016123721A patent/JP6762148B2/ja active Active
- 2016-06-27 US US15/193,930 patent/US10006772B2/en active Active
- 2016-06-27 EP EP16176389.1A patent/EP3118705B1/en active Active
- 2016-06-28 CN CN201610488378.XA patent/CN106339001B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109325A (ja) * | 2011-11-22 | 2013-06-06 | Korea Electronics Telecommun | 群集の知能ロボットを用いた地図構築方法及びその装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
WO2019044499A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
JPWO2019044499A1 (ja) * | 2017-09-04 | 2020-08-20 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
JP7111424B2 (ja) | 2017-09-04 | 2022-08-02 | 日本電産シンポ株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
US11537140B2 (en) | 2017-09-04 | 2022-12-27 | Nidec-Shimpo Corporation | Mobile body, location estimation device, and computer program |
JP6402266B1 (ja) * | 2018-02-09 | 2018-10-10 | ユニティガードシステム株式会社 | ロボットの移動制御システム及び移動制御方法 |
JP2019139516A (ja) * | 2018-02-09 | 2019-08-22 | ユニティガードシステム株式会社 | ロボットの移動制御システム及び移動制御方法 |
JP2022059815A (ja) * | 2020-10-02 | 2022-04-14 | 本田技研工業株式会社 | 移動体制御装置、移動体、移動体制御方法、およびプログラム |
WO2022259621A1 (ja) * | 2021-06-11 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、コンピュータプログラム |
WO2024154351A1 (ja) * | 2023-01-20 | 2024-07-25 | 日本電気株式会社 | 信頼度決定システム、信頼度決定方法、及び信頼度決定装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106339001B (zh) | 2021-01-08 |
EP3118705A3 (en) | 2017-02-08 |
JP6762148B2 (ja) | 2020-09-30 |
CN106339001A (zh) | 2017-01-18 |
EP3118705A2 (en) | 2017-01-18 |
EP3118705B1 (en) | 2020-04-08 |
US10006772B2 (en) | 2018-06-26 |
US20170010100A1 (en) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6762148B2 (ja) | 地図生成方法、移動ロボット及び地図生成システム | |
JP6849330B2 (ja) | 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット | |
US6453223B1 (en) | Infrastructure independent position determining system | |
CN103472823B (zh) | 一种智能机器人用的栅格地图创建方法 | |
JP2009193240A (ja) | 移動ロボット及び環境地図の生成方法 | |
JP6456405B2 (ja) | 3次元情報算出装置、3次元情報算出方法、および自律移動装置 | |
JP6032163B2 (ja) | 三次元物体認識装置、三次元物体認識方法、及び移動体 | |
CN105486311A (zh) | 室内机器人定位导航方法及装置 | |
KR20170088228A (ko) | 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법 | |
RU2013154046A (ru) | Способ и система для совместного использования информации карт, связанной с автоматическими промышленными транспортными средствами | |
JP6998281B2 (ja) | 自律移動装置、サーバ装置、プログラム、および情報処理方法 | |
KR20140003987A (ko) | 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 | |
KR101341204B1 (ko) | 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법 | |
JP2016080460A (ja) | 移動体 | |
CN112652001B (zh) | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 | |
CN112041634A (zh) | 移动机器人的定位方法、构建地图的方法及移动机器人 | |
WO2019124343A1 (ja) | 移動体 | |
JP6801269B2 (ja) | 自律移動装置 | |
JP7121489B2 (ja) | 移動体 | |
KR101502071B1 (ko) | 랜드마크 기반 비전항법시스템을 위한 카메라 데이터 생성기와 그것을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체 | |
KR102481615B1 (ko) | 데이터 수집 방법 및 시스템 | |
JP2021047744A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
CN108115685B (zh) | 多机器人围捕方法 | |
KR20200043329A (ko) | 데이터 수집 방법 및 시스템 | |
Oh et al. | Graph-based SLAM approach for environments with laser scan ambiguity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6762148 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |