JP6762148B2 - Map generation method, mobile robot and map generation system - Google Patents
Map generation method, mobile robot and map generation system Download PDFInfo
- Publication number
- JP6762148B2 JP6762148B2 JP2016123721A JP2016123721A JP6762148B2 JP 6762148 B2 JP6762148 B2 JP 6762148B2 JP 2016123721 A JP2016123721 A JP 2016123721A JP 2016123721 A JP2016123721 A JP 2016123721A JP 6762148 B2 JP6762148 B2 JP 6762148B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- region
- sensor
- mobile robot
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000001514 detection method Methods 0.000 claims description 102
- 239000006185 dispersion Substances 0.000 claims description 14
- 230000007613 environmental effect Effects 0.000 description 74
- 238000006243 chemical reaction Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Description
本開示は、地図生成方法、移動ロボット及び地図生成システムに関する。 The present disclosure relates to a map generation method, a mobile robot and a map generation system.
ロボット技術は、人の立ち入れない環境での探査や、人の代替作業を行う自動化を目的に発展してきた。近年では、家庭内を移動しながら掃除を行う移動ロボット等が販売されており、人間生活の身近な領域に移動ロボットが投入されるようになってきている。このような移動ロボットでは、移動経路を決めるために、移動ロボット自身が自己の位置及び姿勢、周辺環境を正しく認識する必要がある。 Robot technology has been developed for the purpose of exploration in an environment that is out of the reach of people and automation of performing human substitution work. In recent years, mobile robots and the like that perform cleaning while moving in the home have been sold, and mobile robots have been introduced into familiar areas of human life. In such a mobile robot, in order to determine the movement route, the mobile robot itself needs to correctly recognize its own position and posture and the surrounding environment.
自己位置の推定及び地図を作成する技術としては、SLAM(Simultaneous Location And Mapping)技術が知られている。SLAM技術では、移動ロボットが備えるセンサであって位置及び姿勢の変化量を検出する内界センサと、移動ロボットが備えるセンサであって周辺環境に対する相対情報を捉える外界センサを用いている。SLAM技術では、これらのセンサを用いることによって、移動ロボットに予め地図情報を与えなくても、自己の位置及び姿勢の推定と合わせて、周辺の地図を作成することができる。 SLAM (Simultaneus Location And Mapping) technology is known as a technology for estimating a self-position and creating a map. In SLAM technology, a sensor provided in a mobile robot, which is an internal sensor for detecting the amount of change in position and posture, and a sensor provided in the mobile robot, which is an external sensor for capturing relative information with respect to the surrounding environment, are used. In SLAM technology, by using these sensors, it is possible to create a map of the surrounding area together with the estimation of its own position and posture without giving map information to the mobile robot in advance.
SLAM技術は、主に2つの処理を繰り返し行っている。第1の処理は、内界センサによって取得した情報から移動ロボットの現在の位置及び姿勢を予測し、予測した位置及び姿勢と過去に作成した地図情報とに基づいて、移動ロボットの周辺環境に対する相対情報を予測する。第2の処理は、第1の処理で予測した相対情報と、外界センサで得られた実際の周辺環境に対する相対情報とに基づいて尤度を計算する。計算した尤度から内界センサと外界センサの信頼度の重みを決定し、移動ロボットの現在の自己位置及び姿勢と地図情報を更新する。 The SLAM technology mainly repeats two processes. The first process predicts the current position and posture of the mobile robot from the information acquired by the internal sensor, and is relative to the surrounding environment of the mobile robot based on the predicted position and posture and the map information created in the past. Predict information. In the second process, the likelihood is calculated based on the relative information predicted by the first process and the relative information with respect to the actual surrounding environment obtained by the external sensor. The weights of the reliability of the inner world sensor and the outer world sensor are determined from the calculated likelihood, and the current self-position and posture of the mobile robot and the map information are updated.
また、地図変化がある環境での自律移動を実現する方法として特許文献1が開示されている。特許文献1に開示された自律走行車は、レーザビーム又はカメラ等のセンサを用いて対象物に対しての自己位置及び姿勢を推定することによって、自律走行車自身の走行可否を算出している。そして、特許文献1に開示された自律走行車は、算出した自律走行車自身の走行可否と飛行体により取得した走行可否とに基づいて、自律走行車の走行可否の判断を行っている。 Further, Patent Document 1 is disclosed as a method for realizing autonomous movement in an environment where there is a map change. The autonomous driving vehicle disclosed in Patent Document 1 calculates whether or not the autonomous driving vehicle itself can travel by estimating its own position and posture with respect to an object using a sensor such as a laser beam or a camera. .. Then, the autonomous driving vehicle disclosed in Patent Document 1 determines whether or not the autonomous driving vehicle can travel based on the calculated travelability of the autonomous driving vehicle itself and the travelability acquired by the flying object.
探査や人の代替作業を行う移動ロボットにおいては、走行可否判断に加えて、より精度の高い地図の生成が求められている。しかしながら、特許文献1に開示された自律走行車では、より精度の高い地図を生成するという点に関しては検討されていない。 Mobile robots that perform exploration and human substitution work are required to generate more accurate maps in addition to determining whether or not they can travel. However, in the autonomous driving vehicle disclosed in Patent Document 1, the point of generating a map with higher accuracy has not been studied.
本開示は、より精度の高い地図を生成することができる地図生成方法、移動ロボット及び地図生成システムを提供する。 The present disclosure provides a map generation method, a mobile robot, and a map generation system capable of generating a map with higher accuracy.
本開示に係る第1態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する。 The map generation method of the first aspect according to the present disclosure is a map generation method performed by a first mobile robot that moves in a first region and includes a first sensor and a second sensor, and the first information from the first sensor. The first information includes information indicating the amount of movement of the first mobile robot, the second information is acquired from the second sensor, and the second information exists in the observation area of the first mobile robot. The third information is acquired from the third sensor installed in the first area, including the information indicating the distance from the first object to the first mobile robot, and the third information is the observation area of the third sensor. The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, including the video information in the above, is acquired, and based on the third information. The calculated fifth information indicating the third region, which is the detection region of the third sensor, is acquired, and the second region and the third region overlap each other based on the fourth information and the fifth information. It is determined whether or not the fourth region, which is a region, exists, and when it is determined that the fourth region exists, the fifth region including the first object in the fourth region is subjected to the first mobile robot. The map information of the first area stored in advance is updated.
本開示に係る第2態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する。 The map generation method of the second aspect according to the present disclosure is a map generation method performed by a first mobile robot that moves in a first region and includes a first sensor and a second sensor, and the first information from the first sensor. The first information includes information indicating the amount of movement of the first mobile robot, the second information is acquired from the second sensor, and the second information exists in the observation area of the first mobile robot. The third information is acquired from the third sensor installed in the first area, including the information indicating the distance from the first object to the first mobile robot, and the third information is the observation area of the third sensor. The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, including the video information in the above, is acquired, and the calculation is performed based on the three information. The fifth information indicating the third region, which is the detection region of the third sensor, is acquired, and the fourth information, the fifth information, and the map information of the first region stored in advance in the first mobile robot are obtained. Based on the above, it is determined whether or not the second object outside the second region and existing in the fourth region included in the third region has changed from the first position to the second position, and the second object is When it is determined that the position has changed from the first position to the second position, the map information of the first area is updated for the fourth area.
本開示によれば、より精度の高い地図を生成することができる。 According to the present disclosure, it is possible to generate a map with higher accuracy.
(1)本開示に係る第1の態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する。 (1) The map generation method of the first aspect according to the present disclosure is a map generation method performed by a first mobile robot that moves in a first region and includes a first sensor and a second sensor, and the first sensor. The first information is acquired from, the first information includes information indicating the movement amount of the first mobile robot, the second information is acquired from the second sensor, and the second information is of the first mobile robot. The third information includes information indicating the distance from the first object existing in the observation area to the first mobile robot, and the third information is acquired from the third sensor installed in the first area, and the third information is the third. The third information including the video information in the observation area of the sensor and indicating the second area which is the detection area of the second sensor calculated based on the first information and the second information is acquired. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the information is acquired, and the second region and the third region are obtained based on the fourth information and the fifth information. It is determined whether or not there is a fourth region that overlaps with the region, and if it is determined that the fourth region exists, the fifth region including the first object in the fourth region is said to have the fourth region. 1 The map information of the first area stored in advance in the mobile robot is updated.
このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域において、移動ロボットの地図情報を更新することができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, the map information of the mobile robot can be updated in the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.
(2)上記態様において、さらに、前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、前記第4情報は、前記第6情報に基づいて計算されてもよい。 (2) In the above aspect, further, based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the fourth information is the sixth. It may be calculated informed.
このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域に関する地図情報の信頼度を上げることができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, it is possible to increase the reliability of the map information regarding the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.
(3)上記態様において、前記第1物体の位置を示す第1位置情報の信頼度を更新することで、前記第1領域の地図情報が更新されてもよい。 (3) In the above aspect, the map information of the first region may be updated by updating the reliability of the first position information indicating the position of the first object.
このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域に関する地図情報の信頼度を上げることができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, it is possible to increase the reliability of the map information regarding the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.
(4)上記態様において、前記第1位置情報の第1分散値を、前記第1分散値より小さい第2分散値に更新することで、前記第1位置情報の信頼度が更新されてもよい。 (4) In the above aspect, the reliability of the first position information may be updated by updating the first variance value of the first position information to a second variance value smaller than the first variance value. ..
このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域に関する地図情報の信頼度を上げることができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, it is possible to increase the reliability of the map information regarding the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.
(5)上記態様において、前記第3センサは、前記第1領域に配置されており、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換してもよい。 (5) In the above aspect, the third sensor is arranged in the first region, the map information of the first region is represented by the first coordinate system, and the fifth information is the second coordinate system. In addition, the second coordinate system may be converted into the first coordinate system.
このような構成により、第1領域に配置された第3センサの検出領域の座標を、第1領域を移動する移動ロボットの地図情報の座標に合わせることができるため、更に精度の高い地図を生成することができる。 With such a configuration, the coordinates of the detection area of the third sensor arranged in the first area can be matched with the coordinates of the map information of the mobile robot moving in the first area, so that a more accurate map can be generated. can do.
(6)上記態様において、前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換してもよい。 (6) In the above aspect, the third sensor is provided in a second mobile robot different from the first mobile robot, and the map information of the first region is represented by the first coordinate system, and the fifth. The information is represented by the second coordinate system of the second mobile robot, and the second coordinate system may be further converted into the first coordinate system.
このような構成により、第2移動ロボットの第3センサを使用して地図情報を生成することができるため、短時間で精度の高い地図を生成することができる。 With such a configuration, since the map information can be generated by using the third sensor of the second mobile robot, it is possible to generate a highly accurate map in a short time.
(7)本開示に係る第2の態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する。 (7) The map generation method of the second aspect according to the present disclosure is a map generation method performed by a first mobile robot provided with a first sensor and a second sensor by moving in a first region, and the first sensor. The first information is acquired from, the first information includes information indicating the movement amount of the first mobile robot, the second information is acquired from the second sensor, and the second information is of the first mobile robot. The third information includes information indicating the distance from the first object existing in the observation area to the first mobile robot, and the third information is acquired from the third sensor installed in the first area, and the third information is the third. The fourth information indicating the second region, which is the detection region of the second sensor, which includes the video information in the observation region of the sensor and is calculated based on the first information and the second information, is acquired, and the third information is obtained. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the above, is acquired, and the fourth information, the fifth information, and the first stored in advance in the first mobile robot are obtained. Based on the map information of the area, it is determined whether or not the second object outside the second area and existing in the fourth area included in the third area has changed from the first position to the second position. When it is determined that the second object has changed from the first position to the second position, the map information of the first area is updated for the fourth area.
このような構成により、第3センサにより取得した映像情報に基づいて、第2センサの検出領域外の環境の変化を検出することができる。そのため、移動ロボットは、環境の変化を検出した領域に関する地図情報を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, changes in the environment outside the detection region of the second sensor can be detected based on the video information acquired by the third sensor. Therefore, the mobile robot can update the map information about the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.
(8)上記態様において、さらに、前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、前記第4情報は、前記第6情報に基づいて計算されてもよい。 (8) In the above aspect, further, based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the fourth information is the sixth. It may be calculated informed.
このような構成により、移動ロボットが自己位置及び姿勢をロバストに推定することができ、より精度の高い地図を生成することができる。 With such a configuration, the mobile robot can robustly estimate its own position and posture, and can generate a map with higher accuracy.
(9)上記態様において、前記第2物体の位置を示す第1位置情報の信頼度を更新することで、前記第4領域の地図情報が更新されてもよい。 (9) In the above aspect, the map information of the fourth region may be updated by updating the reliability of the first position information indicating the position of the second object.
このような構成により、移動ロボットは、環境の変化を検出した領域に関する地図情報の信頼度を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, the mobile robot can update the reliability of the map information regarding the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.
(10)上記態様において、前記第1位置情報の第1分散値を、前記第1分散値より大きい第2分散値に更新することで、前記第1位置情報の信頼度が更新されてもよい。 (10) In the above aspect, the reliability of the first position information may be updated by updating the first variance value of the first position information to a second variance value larger than the first variance value. ..
このような構成により、環境の変化を検出した領域に関する地図情報の信頼度を下げることができる。これによって、移動ロボットは、信頼度の低い部分の地図情報に頼らずに信頼度の高い部分の地図情報に基づいて、自己位置及び姿勢を推定することができる。その結果、より精度の高い地図を生成することができる。 With such a configuration, it is possible to reduce the reliability of the map information regarding the area where the change in the environment is detected. As a result, the mobile robot can estimate its own position and posture based on the map information of the high-reliability portion without relying on the map information of the low-reliability portion. As a result, a map with higher accuracy can be generated.
(11)上記態様において、前記第1位置から前記第2位置の変化量に応じて、前記第2分散値は前記第1分散値より大きくされてもよい。 (11) In the above aspect, the second dispersion value may be made larger than the first dispersion value according to the amount of change from the first position to the second position.
このような構成により、環境の変化の量に対応させて分散の値を大きくすることで、移動ロボットの自己位置及び姿勢を更に正確に推定することができる。これによって、更に精度の高い地図情報を生成することができる。 With such a configuration, the self-position and posture of the mobile robot can be estimated more accurately by increasing the value of the variance in accordance with the amount of change in the environment. This makes it possible to generate more accurate map information.
(12)上記態様において、前記第1移動ロボットの現在位置が前記第3領域に存在せず、前記第2領域と前記第3領域とが重ならない場合に、前記第4領域について、前記第1領域の地図情報が更新されてもよい。 (12) In the above embodiment, when the current position of the first mobile robot does not exist in the third region and the second region and the third region do not overlap, the first region is the first. The map information of the area may be updated.
このような構成により、移動ロボットの死角で環境の変化が生じた場合でも、第3センサにより取得した情報を用いて、環境の変化を検出した領域に関する地図情報の信頼度を更新することができる。このため、移動ロボットの死角で環境の変化が生じた場合でも、変化が生じた領域の地図情報を短時間で修正し、精度の高い地図を生成することができる。 With such a configuration, even if the environment changes due to the blind spot of the mobile robot, the reliability of the map information regarding the area where the change in the environment is detected can be updated by using the information acquired by the third sensor. .. Therefore, even when the environment changes due to the blind spot of the mobile robot, the map information of the changed area can be corrected in a short time, and a highly accurate map can be generated.
(13)上記態様において、前記第3センサは、前記第1領域に配置されており、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換されてもよい。 (13) In the above aspect, the third sensor is arranged in the first region, the map information of the first region is represented by the first coordinate system, and the fifth information is the second coordinate system. In addition, the second coordinate system may be converted into the first coordinate system.
このような構成により、第1領域に配置された第3センサの検出領域の座標を、移動ロボットの地図情報の座標に合わせることができるため、更に精度の高い地図を生成することができる。 With such a configuration, the coordinates of the detection area of the third sensor arranged in the first area can be matched with the coordinates of the map information of the mobile robot, so that a map with higher accuracy can be generated.
(14)上記態様において、前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換されてもよい。 (14) In the above aspect, the third sensor is provided in a second mobile robot different from the first mobile robot, and the map information of the first region is represented by the first coordinate system, and the fifth. The information is represented by the second coordinate system of the second mobile robot, and the second coordinate system may be further converted into the first coordinate system.
このような構成により、第2移動ロボットの第3センサを使用して地図情報を生成することができるため、短時間で精度の高い地図を生成することができる。 With such a configuration, since the map information can be generated by using the third sensor of the second mobile robot, it is possible to generate a highly accurate map in a short time.
(15)上記態様において、さらに、前記第2センサから、所定時間前記第2情報の取得を行っていない第5領域について、前記地図情報について前記第5領域の第3分散値を前記第3分散値より大きい第4分散値に更新されてもよい。 (15) In the above aspect, further, with respect to the fifth region in which the second information has not been acquired from the second sensor for a predetermined time, the third dispersion value of the fifth region is obtained with respect to the map information. It may be updated to a fourth variance value greater than the value.
このような構成により、所定の時間、第2センサにより第2情報の取得を行っていない領域に関する地図情報の信頼度を下げることができる。これによって、信頼度の低い部分の地図情報に頼らずに信頼度の高い部分の地図情報に基づいて、自己位置及び姿勢を推定することができる。その結果、より精度の高い地図を生成することができる。 With such a configuration, it is possible to reduce the reliability of the map information relating to the area where the second information is not acquired by the second sensor for a predetermined time. As a result, the self-position and posture can be estimated based on the map information of the high-reliability portion without relying on the map information of the low-reliability portion. As a result, a map with higher accuracy can be generated.
(16)本開示に係る第3の態様の移動ロボットは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサと、前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、を備える。 (16) The mobile robot according to the third aspect according to the present disclosure is a mobile robot that moves in a first region, and includes a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the mobile robot. The second sensor that acquires the second information indicating the distance from the first object existing in the observation area to the mobile robot, and (i) the first information and the second sensor calculated based on the second information. The above, which is calculated based on the fourth information indicating the second region which is the detection region of the two sensors and (ii) the third information including the video information in the observation region of the third sensor installed in the first region. Based on the fifth information indicating the third region, which is the detection region of the third sensor, it is determined whether or not there is a fourth region, which is a region where the second region and the third region overlap. When it is determined that the fourth region exists, the map information update for updating the map information of the first region stored in advance in the mobile robot for the fifth region including the first object in the fourth region. It has a part and.
このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域において、移動ロボットの地図情報を、第3センサにより取得された情報を用いて更新することができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, in the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap, the map information of the mobile robot can be updated by using the information acquired by the third sensor. it can. Therefore, a map with higher accuracy can be generated.
(17)本開示に係る第4の態様の移動ロボットは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサと、前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部と、を備える。 (17) The mobile robot according to the fourth aspect according to the present disclosure is a mobile robot that moves in a first region, and includes a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the mobile robot. The second sensor that acquires the second information indicating the distance from the first object existing in the observation area to the mobile robot, and (i) the second sensor calculated based on the first information and the second information. The third information calculated based on the fourth information indicating the second region which is the detection region of the sensor and (ii) the third information including the video information in the observation region of the third sensor installed in the first region. Based on the fifth information indicating the third region, which is the detection region of the sensor, and (iii) the map information of the first region stored in advance in the mobile robot, the second region outside the second region. It is determined whether or not the second object existing in the fourth region included in the three regions has changed from the first position to the second position, and the second object has changed from the first position to the second position. When it is determined, the fourth area is provided with a map information updating unit that updates the map information of the first area.
このような構成により、第3センサにより取得した第3情報に基づいて、第2センサの検出領域外の環境の変化を検出することができる。そのため、移動ロボットは、環境の変化を検出した領域に関する地図情報を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, changes in the environment outside the detection region of the second sensor can be detected based on the third information acquired by the third sensor. Therefore, the mobile robot can update the map information about the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.
(18)本開示に係る第5の態様の地図生成システムは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、前記第1領域に設置された第3センサと、前記移動ロボット及び前記第3センサと通信するサーバと、を備え、前記サーバは、(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、を有する。 (18) The map generation system of the fifth aspect according to the present disclosure is a mobile robot that moves in a first region, and is a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the movement. A mobile robot having a second sensor that acquires a second information indicating a distance from a first object existing in the observation area of the robot to the mobile robot, a third sensor installed in the first area, and the mobile robot. And a server that communicates with the third sensor, the server includes (i) a second region, which is a detection region of the second sensor, calculated based on the first information and the second information. A third region, which is a detection region of the third sensor, calculated based on the fourth information shown and (ii) third information including video information in the observation region of the third sensor installed in the first region. When it is determined whether or not there is a fourth region which is a region where the second region and the third region overlap based on the fifth information indicating the above, and it is determined that the fourth region exists. The fifth region including the first object in the fourth region has a map information updating unit that updates the map information of the first region stored in advance in the mobile robot.
このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域における地図情報を、第3センサにより取得された情報を用いて更新することができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, the map information in the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap can be updated by using the information acquired by the third sensor. Therefore, a map with higher accuracy can be generated.
(19)本開示に係る第6態様の地図生成システムは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、前記第1領域に設置された第3センサと、前記移動ロボット及び前記第3センサと通信するサーバと、を備え、前記サーバは、(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部、を有する。 (19) The map generation system of the sixth aspect according to the present disclosure is a mobile robot that moves in a first region, and is a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the mobile robot. A mobile robot having a second sensor that acquires a second information indicating the distance from the first object existing in the observation area to the mobile robot, a third sensor installed in the first area, the mobile robot, and the mobile robot. It includes a server that communicates with the third sensor, and the server indicates (i) a second region that is a detection region of the second sensor calculated based on the first information and the second information. A third region indicating a third region, which is a detection region of the third sensor, calculated based on the fourth information and (ii) third information including video information in the observation region of the third sensor installed in the first region. Based on the 5 information and (iii) the map information of the 1st region stored in advance in the mobile robot, a third region outside the 2nd region and existing in the 4th region included in the 3rd region. 2 When it is determined whether or not the object has changed from the first position to the second position and it is determined that the second object has changed from the first position to the second position, the fourth region is described. It has a map information updating unit that updates the map information of the first area.
このような構成により、第3センサにより取得した第3情報に基づいて、第2センサの検出領域外の環境の変化を検出することができる。そのため、サーバは、環境の変化を検出した領域に関する地図情報を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, changes in the environment outside the detection region of the second sensor can be detected based on the third information acquired by the third sensor. Therefore, the server can update the map information about the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.
(本開示に係る一形態を得るに至った経緯)
SLAM技術では、一度信頼度の高い地図情報が作成されると、地図情報が作成された領域では専ら外界センサの情報と作成済みの地図情報に基づいて、移動ロボットの自己位置及び姿勢を推定するようになる。
(Background to obtain one form related to this disclosure)
In SLAM technology, once highly reliable map information is created, the self-position and posture of the mobile robot are estimated in the area where the map information is created, based exclusively on the information from the external sensor and the created map information. Will be.
特許文献1に開示された自律走行車においては、飛行体と自律走行車自身とで地図情報を生成した後、生成された地図情報と自律走行車のセンサで得られた情報に基づき、対象物に対しての自身の位置及び姿勢を推定している。 In the autonomous driving vehicle disclosed in Patent Document 1, after the map information is generated by the vehicle and the autonomous driving vehicle itself, the object is based on the generated map information and the information obtained by the sensor of the autonomous driving vehicle. It estimates its own position and attitude with respect to.
特許文献1では、自律走行車にて取得した情報と、飛行体からの情報とを用いて、自律走行車の走行可否を算出することが記載されている。しかしながら、特許文献1に開示された自律走行車においては、環境センサなどの外部のセンサ情報を用いて、地図生成の精度向上を行う点については検討されていない。 Patent Document 1 describes that the travelability of an autonomous vehicle is calculated by using the information acquired by the autonomous vehicle and the information from the vehicle. However, in the autonomous driving vehicle disclosed in Patent Document 1, the point of improving the accuracy of map generation by using external sensor information such as an environmental sensor has not been studied.
また、特許文献1に開示された自律走行車においては、外乱により周辺環境が変化した場合、実際の地図と自律走行車の地図情報とが対応しなくなり、自律走行車の地図情報とセンサの情報に基づいて自己位置及び姿勢を推定することができなくなる。更に、特許文献1に開示された自律走行車においては、環境の変化が生じた領域に関する地図情報を、実際の地図に対応させるように更新するのに時間がかかる。これらは、発明者らによって新たに見出された課題である。 Further, in the autonomous driving vehicle disclosed in Patent Document 1, when the surrounding environment changes due to a disturbance, the actual map and the map information of the autonomous driving vehicle do not correspond to each other, and the map information of the autonomous driving vehicle and the sensor information. It becomes impossible to estimate the self-position and the posture based on. Further, in the autonomous driving vehicle disclosed in Patent Document 1, it takes time to update the map information regarding the area where the environment has changed so as to correspond to the actual map. These are the issues newly discovered by the inventors.
そこで、発明者らは、鋭意研究したところ、環境センサで取得された環境情報に基づいて、移動ロボットの地図情報の信頼度を更新することによって、精度の高い地図情報を生成することができることを見出した。 Therefore, as a result of diligent research, the inventors have found that highly accurate map information can be generated by updating the reliability of the map information of the mobile robot based on the environmental information acquired by the environmental sensor. I found it.
以下、本開示の実施形態について、添付の図面を参照しながら説明する。また、各図においては、説明を容易なものとするため、各要素を誇張して示している。 Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. Further, in each figure, each element is exaggerated for the sake of easy explanation.
(実施の形態1)
[システム構成]
図1は、実施の形態1に係る地図生成システムの概略構成図を示す。図1に示すように、地図生成システム100は、ネットワーク110と、移動ロボット200と、環境センサ301、302、303とを備える。
(Embodiment 1)
[System configuration]
FIG. 1 shows a schematic configuration diagram of a map generation system according to the first embodiment. As shown in FIG. 1, the
地図生成システム100において、移動ロボット200は、ネットワーク110を介して、複数の環境センサ301、302、303に接続されている。環境センサ301、302、303は、予め周辺環境に所定の間隔で配置されている。環境センサ301、302、303は、移動ロボット200の上方からそれぞれ検出領域311、312、313内の環境情報を取得している。検出領域311、312、313は、それぞれの環境センサ301、302、303が周辺環境を観測可能な領域を示している。移動ロボット200は、後述する外界センサによって、検出領域201内の外界情報を取得している。
In the
[移動ロボット]
次に、移動ロボット200について説明する。
移動ロボット200は、一般的な自走式ロボットと同等の構成を有する。具体的には、移動制御情報に応じて移動する駆動装置を備える。また、移動ロボット200は、自己の位置及び姿勢の推定、環境センサとの通信、及び地図情報の生成を行うことが可能な構成を有する。
[Mobile robot]
Next, the
The
本明細書において、「位置」とは、地図情報における場所を意味する。また、「姿勢」とは、移動ロボット200の向きを意味しており、例えば所定の基準方向に対する回転角で表現する。向きには、水平方向の向きのみならず3次元方向の向きも含まれる。
As used herein, the term "location" means a location in map information. Further, the "posture" means the direction of the
図2は、移動ロボット200の構成を示すブロック図である。図2に示すように、移動ロボット200は、ロボット側通信部210、内界センサ220、外界センサ230、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、及び地図情報記録部280を備える。また、移動ロボット200は、これらの要素を制御する制御部を備えるが、図2においては説明を簡略化するために省略している。
FIG. 2 is a block diagram showing the configuration of the
<ロボット側通信部>
ロボット側通信部210は、環境センサ301、302、303と通信を行う通信装置である。ロボット側通信部210は、ネットワーク110を介して、環境センサ301、302、303と通信し、環境センサ301、302、303の検出領域311、312、313内の環境情報を取得する。ロボット側通信部210は、無線通信によりネットワーク110にアクセスしている。ロボット側通信部210で取得した環境センサ301、302、303の環境情報は、座標変換部240に送られる。
<Robot side communication unit>
The robot-
<内界センサ>
内界センサ220は、移動ロボット200の内界情報を取得する。内界情報とは、移動ロボット200の現在の自己位置及び姿勢を予測するための情報であり、例えば、移動ロボット200の移動量等に関する情報(第1情報)である。内界センサ220としては、加速度センサや角速度センサ、車輪の回転量を測定するロータリーエンコーダ等を利用することができる。内界センサ220によって取得された内界情報は、自己位置及び姿勢推定部250に送られる。内界センサ220は、第1センサと称してもよい。
<Internal sensor>
The
<外界センサ>
外界センサ230は、移動ロボット200の外界情報を取得する。外界情報とは、外界センサ230の観測領域にある実際の周辺環境の情報であり、例えば、周辺環境に配置された対象物(物体)と移動ロボット200との間の距離等の情報(第2情報)である。外界センサ230としては、カメラ、又はTOF(Time Of Flight)方式で距離を測定する光学式測距センサ等を利用することができる。外界センサ230で取得された外界情報は、尤度計算部260に送られる。外界センサ230は、第2センサと称してもよい。
<External sensor>
The
<座標変換部>
座標変換部240は、ロボット側通信部210から環境情報を受け取る。座標変換部240は、環境情報の座標を、移動ロボット200の地図情報の座標に合わせるように変換する。環境情報の座標を移動ロボット200の地図情報の座標に合わせる変換は、環境センサ301、302、303の設置位置の座標を予め座標変換部240に与えることで行っている。座標変換部240で座標変換された環境情報は、地図情報更新部270に送られる。
<Coordinate conversion unit>
The coordinate
<自己位置及び姿勢推定部>
自己位置及び姿勢推定部250は、内界センサ220によって取得された内界情報に基づいて、移動ロボット200の現在の自己位置及び姿勢を予測する。具体的には、自己位置及び姿勢推定部250は、内界センサ220によって得られた移動量に関する情報を用いて、地図情報記録部280に記録された移動ロボット200の過去の位置及び姿勢の情報から現在の予測される自己位置及び姿勢を計算する。計算された自己位置及び姿勢の情報は、尤度計算部260に送られ、自己位置及び姿勢推定部250で予測された自己位置及び姿勢から得られる見込みの予測外界情報を計算するのに用いられる。また、自己位置及び姿勢推定部250は、尤度計算部260から尤度情報を受け取る。自己位置及び姿勢推定部250は、尤度情報と予測した自己位置及び姿勢の情報に基づいて自己位置及び姿勢のズレを計算し、移動ロボット200の現在の自己位置及び姿勢を推定する。自己位置及び姿勢推定部250で推定された自己位置及び姿勢の情報は、地図情報記録部280に送られる。
<Self position and posture estimation unit>
The self-position and posture
<尤度計算部>
尤度計算部260は、外界センサ230で得られた外界情報と、自己位置及び姿勢推定部250で予測された自己位置及び姿勢から計算された予測外界情報との対応度を計算し、尤度を計算する。尤度計算部260は、画像特徴量を用いて計算を行う方法や、点群としてICP(ITERATIVE CLOSEST POINT)法を用いて尤度の計算を行っている。尤度計算部260で計算された尤度の情報は、自己位置及び姿勢推定部250と地図情報記録部280とに送られる。
<Likelihood calculation unit>
The
<地図情報更新部>
地図情報更新部270は、環境センサ301、302、303の検出領域311、312、313と、外界センサ230の検出領域201とが重なる領域があるか否かを判断している。重なる領域があると判断した場合、地図情報更新部270は、環境センサ301、302、303で取得した環境情報に基づいて、重なる領域の地図情報の信頼度を更新する。具体的には、地図情報更新部270は、重なる領域の分散の値を小さくすることにより、重なる領域に関する地図情報の信頼度を上げている。
<Map information update department>
The map
「分散」について、図3を用いて説明する。
図3は、分散の定義を説明する図である。図3に示すように、移動ロボット200に搭載された外界センサ230から対象物(物体)400までの距離を測定した場合、測定した距離には、センサの分解能による精度の問題やノイズの問題によって誤差が生じる。本明細書において「分散」とは、この誤差の大きさを意味する。本明細書において、分散の値が大きいとは、誤差が大きく、地図情報の信頼度が低いことを示し、分散の値が小さいとは、誤差が小さく、地図情報の信頼度が高いことを示す。
"Dispersion" will be described with reference to FIG.
FIG. 3 is a diagram illustrating the definition of variance. As shown in FIG. 3, when the distance from the
また、地図情報更新部270は、座標変換部240から座標変換された環境情報を受け取り、受け取った環境情報に基づいて外界センサ230の検出領域201の外側の領域における環境の変化を検出する変化検出部を備える。変化検出部において、環境の変化を検出した場合、地図情報更新部270は、環境の変化を検出した領域に関する地図情報の信頼度を更新する。具体的には、地図情報更新部270は、移動ロボット200の地図情報に環境センサ301、302、303の環境情報を追加して、環境の変化を検出した領域に関する分散の値を大きくしている。これにより、地図情報更新部270は、環境の変化を検出した領域に関する地図情報の信頼度を下げている。
Further, the map
地図情報更新部270は、外界センサ230から得られた外界情報に基づき、外界センサ230の検出領域201を計算している。また、地図情報更新部270は、環境センサ301、302、303から得られた環境情報に基づき、環境センサ301、302、303の検出領域311、312、313を計算している。
地図情報更新部270で更新された地図情報は、地図情報記録部280に送られる。
The map
The map information updated by the map
<地図情報記録部>
地図情報記録部280は、自己位置及び姿勢推定部250で推定された自己位置及び姿勢の情報と、尤度計算部260で算出された尤度情報と、地図情報更新部270で更新された地図情報を記録する。また、地図情報記録部280は、尤度情報と、外界センサ230で取得した外界情報と、自己位置及び姿勢推定部250によって推定された自己位置及び姿勢の情報に基づいて、地図情報の生成を行い、生成された地図情報を記録する。
<Map information recording department>
The map
また、移動ロボット200は、1つ以上のCPU、1つ以上の主記憶、1つ以上の補助記憶を備える(図示せず)。
Further, the
前述した移動ロボット200のCPUは、以下に説明する、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、地図情報記録部280などが行う、様々な演算処理を行う。
The CPU of the
前述した移動ロボット200の主記憶は、前述したCPUが直接アクセスすることのできる記憶装置であり、DRAM、SRAM、フラッシュメモリ、ReRAM、FeRAM、MRAM、STT−RAM、PCRAM、等のメモリによって構成され得る。
The main memory of the
前述した移動ロボット200の補助記憶は、前述した主記憶の内容を長期保存、コピーもしくはバックアップを行う記憶装置であり、HDD、フラッシュメモリ、光ディスク、磁気ディスク、等によって構成され得る。
The auxiliary storage of the
実施の形態1において、制御部は、メモリと、CPUなどのプロセッサに対応する処理回路とを備え、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、地図情報記録部280は、例えば、メモリに記憶されたこれらの要素を機能させるプログラムをプロセッサが実行することでこれらの要素を機能させてもよい。あるいは、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、地図情報記録部280は、これらの要素を機能させる集積回路を用いて構成してもよい。
In the first embodiment, the control unit includes a memory and a processing circuit corresponding to a processor such as a CPU, and includes a coordinate
[環境センサ]
次に、環境センサ301、302、303について説明する。
図4は、環境センサ301の構成を示すブロック図である。図4に示すように、環境センサ301は、環境情報取得部321と、環境センサ通信部331とを備える。環境センサ302、303については、環境センサ301と同様の構成を有するので説明を省略する。環境センサ301、302、303は、第3センサと称してもよい。
[Environmental sensor]
Next, the
FIG. 4 is a block diagram showing the configuration of the
<環境情報取得部>
環境情報取得部321は、検出領域311内の環境情報(第3情報)を取得する。環境情報取得部321で得られた環境情報は、環境センサ通信部331に送られる。環境情報取得部321としては、例えば、光学式測距カメラを用いている。環境情報は、例えば、カメラによる映像情報及び深度等の情報である。
<Environmental information acquisition department>
The environmental
<環境センサ通信部>
環境センサ通信部331は、移動ロボット200と通信を行い、環境情報取得部321で得られた環境情報を移動ロボット200に送る。具体的には、環境センサ通信部331は、環境情報取得部321で得られた環境情報を、ネットワーク110を介して、移動ロボット200のロボット側通信部210に送る。
<Environmental sensor communication unit>
The environment
[地図情報生成方法]
実施の形態1の移動ロボット200を用いて地図を生成する方法について説明する。
[Map information generation method]
A method of generating a map using the
<地図情報の高精度化処理>
まず、地図情報を高精度化する処理について図5及び図6を用いて説明する。
図5は、移動ロボット200の地図情報を高精度化する動作の一例を上から見た図を示す。図5においては、壁面500に環境センサ301が配置されており、環境センサ301は、壁面500の内側領域(第1領域)の環境情報(第3情報)を取得している。この環境情報に基づいて、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)を取得している。移動ロボット200は、壁面500の内側領域を移動し、外界センサ230によって外界情報を取得している。
<High-precision processing of map information>
First, the process of improving the accuracy of the map information will be described with reference to FIGS. 5 and 6.
FIG. 5 shows an example of an operation for improving the accuracy of the map information of the
図5に示すように、移動ロボット200の外界センサ230の検出領域201と、環境センサ301の検出領域311とが重なる領域においては、2つのセンサにより同一の領域を検出していることになる。実施の形態1においては、地図情報を高精度化するために、重なる領域に関する地図情報の信頼度を、外界センサ230で得られた情報と環境センサ301で得られた情報に基づいて更新している。具体的には、移動ロボット200の外界センサ230によって取得した外界情報から生成した地図情報に、環境センサ301の情報を追加することによって、重なる領域に関する地図情報の信頼度を上げている。
As shown in FIG. 5, in the region where the
図6は、地図情報を高精度化する処理を示すフローチャートである。以下、図6を用いて、地図情報を高精度化する処理を説明する。なお、実施の形態1の処理においては、移動ロボット200の自己位置及び姿勢の推定、地図作成にEKF(Extended Kalman Filter)を用いている。また、信頼度として、地図情報の座標に該当する領域のランドマークが持つ共分散値の逆数を利用している。
FIG. 6 is a flowchart showing a process for improving the accuracy of map information. Hereinafter, the process of improving the accuracy of the map information will be described with reference to FIG. In the process of the first embodiment, EKF (Exted Kalman Filter) is used for estimating the self-position and posture of the
図6に示すように、ステップST101においては、内界センサ220によって得られた移動量に関する情報(第1情報)を用いて、移動ロボット200の自己位置及び姿勢を予測する。具体的には、自己位置及び姿勢推定部250が、移動量に関する情報と、地図情報記録部280に記録された過去の自己位置及び姿勢とから現在の自己位置及び姿勢を計算する。
As shown in FIG. 6, in step ST101, the self-position and posture of the
ステップST102においては、自己位置及び姿勢推定部250で予測された自己位置及び姿勢の情報から得られた予測外界情報と、外界センサ230から得られた外界情報(第2情報)とに基づいて尤度を計算する。具体的には、尤度計算部260が、ステップST101で予測された自己位置及び姿勢で得られる見込みの予測外界情報を計算する。そして、尤度計算部260は、予測外界情報と、実際に外界センサ230から得られた外界情報との対応度を計算することによって、尤度を計算する。
In step ST102, the likelihood is based on the predicted outside world information obtained from the self-position and posture information predicted by the self-position and posture
ステップST103においては、ステップST102で得られた尤度の情報と、ステップST101で予測された自己位置及び姿勢の情報に基づいて、移動ロボット200の現在の自己位置及び姿勢を推定する。具体的には、自己位置及び姿勢推定部250が、尤度の情報とステップST101で予測した自己位置及び姿勢の情報に基づいて自己位置及び姿勢のズレを計算し、現在の自己位置及び姿勢を推定する。
In step ST103, the current self-position and posture of the
ステップST104においては、ステップST103で得られた移動ロボット200の現在の自己位置及び姿勢の情報と、外界情報とから地図情報を生成する。生成された地図情報は、地図情報記録部280に記録される。
In step ST104, map information is generated from the current self-position and posture information of the
ステップST105においては、ステップST103で得られた移動ロボット200の現在の自己位置及び姿勢の情報(第6情報)から、移動ロボット200の外界センサ230の検出領域(第2領域)201を計算する。これにより、移動ロボットの外界センサ230の検出領域201を示す情報(第4情報)を取得する。
In step ST105, the detection region (second region) 201 of the
ステップST106においては、ステップST105で得られた外界センサ230の検出領域201の情報(第4情報)と、環境センサ301の検出領域311の情報(第5情報)とに基づいて、検出領域(第2領域)201と検出領域(第3領域)311との間に重なる領域(第4領域)があるか否かを判断する。ステップST106では、座標変換部240で、環境センサ301で得られた環境情報の座標(第2座標系)を、移動ロボット200の地図情報の座標(第1座標系)に合わすように変換される。そして、座標変換された環境情報から環境センサ301の検出領域311が計算される。
In step ST106, the detection area (third information) is based on the information of the
ステップST106において、重なる領域(第4領域)があると判断された場合、処理がステップST107に移行する。ステップST106において、重なる領域がないと判断された場合、処理が終了する。 If it is determined in step ST106 that there is an overlapping region (fourth region), the process shifts to step ST107. If it is determined in step ST106 that there is no overlapping area, the process ends.
ステップST107においては、環境センサ301の情報を用いて、移動ロボット200の地図情報の信頼度を更新する。具体的には、地図情報更新部270が、環境センサ301の環境情報を追加することによって、重なる領域のうち物体を含む領域(第5領域)に関する地図情報の分散の値を小さくし、地図情報の信頼度を上げる。例えば、地図情報更新部270は、重なる領域内の物体の位置を示す位置情報の信頼度を更新することによって、壁面500の内側領域の地図情報を更新する。更新された地図情報は、地図情報記録部280に記録される。
In step ST107, the reliability of the map information of the
実施の形態1に係る地図生成方法においては、上記の処理を行うことで地図情報の高精度化を実現している。なお、上記の説明は、1つの環境センサ301の検出領域311と、移動ロボット200の外界センサ230の検出領域201とが重なる場合について説明している。複数の環境センサの検出領域と、移動ロボット200の外界センサ230の検出領域201とが重なる場合は、重なる検出領域があると判断されたすべての環境センサについて、ステップST107が実行される。
In the map generation method according to the first embodiment, the map information is highly accurate by performing the above processing. The above description describes a case where the
[外乱が発生した場合の地図情報の更新処理]
次に、周辺環境において、移動ロボット200の外界センサ230の検出領域201外で外乱により環境の変化が生じた場合における地図情報の更新処理について図7A、図7B、及び図8を用いて説明する。
[Map information update processing when a disturbance occurs]
Next, in the surrounding environment, the update process of the map information when the environment changes due to the disturbance outside the
図7A及び図7Bは、環境の変化が生じた場合に移動ロボット200の地図情報を更新する動作の一例を上から見た図を示す。図7A及び図7Bにおいては、壁面500に環境センサ301が配置されており、環境センサ301は、壁面500の内側領域(第1領域)の環境情報(第3情報)を取得している。この環境情報に基づいて、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)を取得している。移動ロボット200は、壁面500の内側領域を移動し、外界センサ230により外界情報を取得している。
7A and 7B show an example of the operation of updating the map information of the
図7Aに示すように、移動ロボット200の外界センサ230の検出領域(第2領域)201外で対象物(物体)400が白矢印の方向に移動した場合、地図情報更新部270の変化検出部が、対象物400の移動した領域を環境の変化が生じた領域401として検出する。検出された領域401では、移動ロボット200に記録されている地図情報が実際の地図と異なるものとなり、対応しなくなる。そのため、移動ロボット200が、自身の記録している地図情報と外界センサ230で得られた情報に基づいて自己位置及び姿勢を推定しようとしても、自己位置及び姿勢を正しく推定することができなくなる。そこで、実施の形態1においては、環境の変化を検出した領域401に関する地図情報の分散の値を大きくし、地図情報の信頼度を下げる処理を行っている。
As shown in FIG. 7A, when the object (object) 400 moves in the direction of the white arrow outside the detection area (second area) 201 of the
図7Bに示すように、移動ロボット200の外界センサ230が環境の変化を検出した領域401の外界情報を取得するとき、領域401の地図情報の信頼度が下げられている。そのため、移動ロボット200は、環境の変化が検出された領域401以外の信頼度の高い部分の地図情報に基づいて、自己位置及び姿勢を推定する。また、環境の変化が検出された領域401については、上述した地図情報の高精度化処理によって信頼度の高い地図情報に更新することができる。
As shown in FIG. 7B, when the
図8は、外乱により環境の変化が生じた場合の地図情報の更新処理を示すフローチャートである。以下、図8を用いて、移動ロボット200の外界センサ230の検出領域201外で外乱により環境の変化が生じた場合における地図情報の更新処理を説明する。
FIG. 8 is a flowchart showing a map information update process when the environment changes due to a disturbance. Hereinafter, using FIG. 8, the map information update process will be described when the environment changes due to disturbance outside the
図8に示すように、ステップST201においては、移動ロボット200の現在の自己位置及び姿勢を読み出す。具体的には、地図情報記録部280に記録された移動ロボット200の現在の自己位置及び姿勢の情報を読み出す。ステップST201においての移動ロボット200の現在の自己位置及び姿勢とは、前述の図6に示すステップST103で推定された自己位置及び姿勢である。なお、ステップST201は、前述の図6のステップST101〜ST104に置き換えてもよい。
As shown in FIG. 8, in step ST201, the current self-position and posture of the
ステップST202においては、ステップST201で読み出した移動ロボット200の現在の自己位置及び姿勢の情報(第6情報)から、移動ロボット200の外界センサ230の検出領域(第2領域)201を計算する。これにより、移動ロボットの外界センサ230の検出領域201を示す情報(第4情報)を取得する。
In step ST202, the detection area (second area) 201 of the
ステップST203においては、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)に基づいて、地図情報更新部270の変化検出部が環境の変化を検出する。具体的には、変化検出部が、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)と過去の地図情報に基づいて、環境センサ301の検出領域311内で対象物400が移動する等の外乱により周辺環境が変化したか否かを検出する。また、ステップST203においては、環境の変化を検出した領域401を検出する。ステップST203では、環境の変化を検出した場合、処理がステップST204に移行し、環境の変化を検出しなかった場合、処理が終了する。
In step ST203, the change detection unit of the map
ステップST204においては、環境センサ301の検出領域311内に移動ロボット200が存在するか否かを検出する。具体的には、移動ロボット200の現在の自己位置の情報を地図情報記録部280から読み出し、環境センサ301の検出領域311内に移動ロボット200が位置するか否かを判断する。ステップST204では、環境センサ301の検出領域311内に移動ロボット200が存在しない場合、処理がステップST205に移行する。環境センサ301の検出領域311内に移動ロボット200が存在する場合、処理が終了する。
In step ST204, it is detected whether or not the
ステップST205においては、ステップST202で得られた外界センサ230の検出領域201の情報(第4情報)と、環境センサ301の検出領域311の情報(第5情報)とに基づいて、検出領域(第2領域)201と検出領域(第3領域)311との間に重なる領域(第4領域)があるか否かを判断する。ステップST205では、重なる領域がないと判断された場合、処理がステップST206に移行し、重なる領域があると判断された場合、処理が終了する。
In step ST205, the detection area (third information) is based on the information of the
ステップST206においては、環境の変化を検出した領域401に関する地図情報が存在するか否かを判断する。具体的には、地図情報記録部280に環境の変化を検出した領域401に関する地図情報が記録されているか否かを判断する。ステップST206では、環境の変化を検出した領域401に関する地図情報が存在する場合、処理がステップST207に移行する。環境の変化を検出した領域401に関する地図情報が存在しない場合、処理が終了する。
In step ST206, it is determined whether or not there is map information regarding the
ステップST207においては、環境の変化を検出した領域401に関する地図情報の信頼度を、環境センサ301の情報を用いて更新する。具体的には、地図情報更新部270が、環境の変化を検出した領域401に関する地図情報の分散の値を大きくし、環境の変化を検出した領域401に関する地図情報の信頼度を下げる。例えば、地図情報更新部270は、重なる領域内の物体が第1位置から第2位置へ変化したと判断した場合、重なる領域の地図情報の信頼度を更新することによって、壁面500の内側領域の地図情報を更新する。地図情報更新部270は、環境センサ301が検出した環境の変化の量に応じて、分散の値を大きくしている。
In step ST207, the reliability of the map information regarding the
実施の形態1に係る地図生成方法においては、上記の処理を行うことで移動ロボット200の外界センサ230で直接観測できない領域で発生した外乱による環境の変化についても、地図情報へ反映することが可能となる。
In the map generation method according to the first embodiment, by performing the above processing, it is possible to reflect the change in the environment due to the disturbance generated in the area that cannot be directly observed by the
[その他の地図更新処理]
実施の形態1に係る地図生成方法は、一度生成された地図情報において、移動ロボット200の外界センサ230が、所定の時間、外界情報の取得を行っていない領域に関する地図情報の分散の値を大きくする。地図情報を生成した後、所定の時間、外界情報の取得していない領域においては、環境の変化が生じている可能性がある。そのため、実施の形態1に係る地図生成方法では、一度生成した地図情報について、所定の時間、外界センサ230によって外界情報を取得していない場合に、その領域に関する地図情報の分散の値を大きくし、地図情報の信頼度を下げている。なお、所定の時間とは、地図情報を生成する領域の大きさ、移動ロボット200の移動速度等の条件によって任意に決定することができる。
[Other map update processing]
In the map generation method according to the first embodiment, in the map information once generated, the value of the dispersion of the map information regarding the area where the
[効果]
実施の形態1に係る地図生成方法及び移動ロボット200によれば、以下の効果を奏することができる。
[effect]
According to the map generation method and the
実施の形態1に係る地図生成方法及び移動ロボット200は、移動ロボット200の外界センサ230の検出領域201と環境センサ301の検出領域311とが重なる領域に関する地図情報の分散の値を小さくすることによって、地図情報の信頼度を上げている。このように、実施の形態1では、移動ロボット200の外界センサ230で取得した情報と環境センサ301で取得した情報とを合わせて地図情報を作成することによって、地図情報を精度高く生成することができる。
The map generation method and the
実施の形態1によれば、移動ロボット200の外界センサ230の検出領域201外において、環境の変化を検出した領域401に関する地図情報の分散の値を下げることによって、領域401に関する地図情報の信頼度を下げている。このため、移動ロボット200は、環境の変化が生じた信頼度の低い部分の地図情報を使用せず、信頼度の高い部分の地図情報を使用して、自己位置及び姿勢を推定することができる。このように、実施の形態1の地図生成方法及び移動ロボット200は、外乱による環境の変化があった場合においても、移動ロボット200の自己位置及び姿勢をロバストに推定することができる。そのため、実施の形態1の地図生成方法及び移動ロボット200は、外乱により環境の変化が生じても、環境の変化が生じた領域の地図情報を修正し、地図情報を精度高く生成することができる。また、環境の変化を検出した領域401においては、移動ロボット200の外界センサ230と環境センサ301によって、高精度な地図情報を短時間で再構築することができる。
According to the first embodiment, the reliability of the map information regarding the
また、環境の変化の量に応じて、環境の変化を検出した領域401に関する地図情報の分散の値を大きくすることによって、移動ロボット200の自己位置及び姿勢をより正確に推定することができる。
Further, the self-position and posture of the
実施の形態1によれば、環境の変化を検出したときに、移動ロボット200の外界センサ230の検出領域201と、環境センサ301の検出領域311とが、重ならない場合に、環境の変化を検出した領域401に関する地図情報の信頼度を更新している。このため、移動ロボット200の死角で生じた環境の変化を検出し、環境の変化が生じた領域を、移動ロボット200の地図情報に反映することができる
According to the first embodiment, when the change in the environment is detected, the change in the environment is detected when the
実施の形態1によれば、一度地図情報を生成した後、所定の時間、外界センサ230により外界情報の取得を行っていない領域については、環境の変化が生じている可能性を考慮して、分散の値を大きくし、その領域に関する地図情報の信頼度を下げている。そのため、実施の形態1の地図生成方法及び移動ロボット200では、更に移動ロボット200の自己位置及び姿勢をロバストに推定することができる。
According to the first embodiment, in the area where the outside world information is not acquired by the
なお、実施の形態1では、移動ロボット200と環境センサ301、302、303がネットワーク110を介して通信する構成について説明したが、これに限定されない。例えば、ネットワーク110を介して移動ロボット200と環境センサ301、302、303と通信するサーバを備えたシステムの構成であってもよい。このようなシステムの構成において、図6及び図8に示す各ステップの処理は、サーバ側で実行されてもよい。即ち、サーバが自己位置及び姿勢推定部250と地図情報更新部270を備えてもよい。例えば、サーバは、環境センサ301、302、303から得られた環境情報と、移動ロボット200から取得した外界情報及び内界情報を、ネットワークを介して取得する。そして、サーバは、取得した情報に基づいて、地図情報の高精度化処理又は外乱が発生した場合の地図情報の更新処理を行ってもよい。
In the first embodiment, the configuration in which the
実施の形態1では、環境センサ301の環境情報に基づいて、地図情報更新部270の変化検出部が環境の変化を検出する例について説明したが、これに限定されない。例えば、環境の変化の検出については、環境センサ301、302、303で行ってもよい。
In the first embodiment, an example in which the change detection unit of the map
実施の形態1では、環境センサ301、302、303から得られた環境情報に基づいて、地図情報の精度向上を実施したが、これに限定されない。例えば、測距センサを環境センサ301、302、303として利用する場合、自己位置及び姿勢の情報に対して尤度計算の処理を行うことで、移動ロボット200の自己位置及び姿勢情報の精度を高めることができる。
In the first embodiment, the accuracy of the map information is improved based on the environmental information obtained from the
実施の形態1では、座標変換部240は、環境センサ301、302、303の設置位置を予め取得しておくことで環境情報の座標を移動ロボット200の地図情報の座標へと変換しているが、これに限定されない。例えば、環境センサ301、302、303において、移動ロボット200を捉え、その際、自己位置及び姿勢推定部250が推定した位置情報と環境センサ301、302、303において捉えた座標に基づいて変換パラメータを推定してもよい。例えば、2次元平面を移動する移動ロボット200の場合、座標変換部240は、環境情報を射影変換することで移動ロボット200の地図情報の座標へと変換することができる。
In the first embodiment, the coordinate
実施の形態1では、環境センサ301、302、303は、周辺環境に所定の間隔で固定して配置される例について説明したが、これに限定されない。例えば、環境センサは、時間に応じて設置角度を変更する首振り式のセンサ等のように、検出領域を変更可能なセンサであってもよい。検出領域を変更可能な環境センサは、より広い範囲の環境情報を取得することができる。また、首つり式のセンサの場合、環境情報取得時の設置角度を座標変換部240に通知することで、環境情報の座標を、移動ロボット200の地図情報の座標に変換可能である。
In the first embodiment, an example in which the
実施の形態1では、内界センサ220及び外界センサ230は、それぞれ1つを備える構成について説明したが、これに限定されない。内界センサ220及び外界センサ230は、それぞれ少なくとも1つ以上備えていればよい。複数の内界センサ220及び複数の外界センサ230を用いることによって、より多くの内界情報及び外界情報を取得することができるため、移動ロボット200の自己位置及び姿勢をより精度高く推定することができる。
In the first embodiment, the configuration in which the
実施の形態1では、内界センサ220として加速度センサ、角速度センサを説明したが、これに限定されない。内界センサ220としては、例えば、磁場センサ、カメラを用いたVisual Odmetory等であってもよい。
In the first embodiment, the acceleration sensor and the angular velocity sensor have been described as the
実施の形態1では、3つの環境センサ301、302、303を用いた構成について説明したが、環境センサは、少なくとも1つ以上備えていればよい。環境センサの数は、地図情報を生成する領域や、周辺環境の複雑さなど様々な条件によって決定してもよい。複数の環境センサを用いることによって、より多くの環境情報を取得することができるため、より高精度な地図情報を生成することができる。
In the first embodiment, the configuration using the three
実施の形態1において、生成される地図情報は、2次元の地図情報であってもよいし、3次元の地図情報であってもよい。地図情報は、障害物位置の座標と各軸方向の分散量を併せ持つ情報を意味している。地図情報は、例えば、グリッドマップ、線図、点図等で視覚的に表すことができる。 In the first embodiment, the generated map information may be two-dimensional map information or three-dimensional map information. The map information means information having both the coordinates of the obstacle position and the amount of dispersion in each axial direction. The map information can be visually represented by, for example, a grid map, a line diagram, a point diagram, or the like.
実施の形態1では、1つの移動ロボット200で地図を生成する例について説明したが、移動ロボットは、少なくとも1つ以上備えていればよい。複数の移動ロボットを使用する場合、短時間で高精度な地図情報を生成することができる。
In the first embodiment, an example in which one
また、複数の移動ロボットを使用する場合、それぞれの移動ロボットに搭載された外界センサ230を環境センサとして使用することもできる。したがって、それぞれの移動ロボットの外界センサ230によって取得された外界情報は、自己位置及び姿勢を推定するために使用すると共に、周辺環境の環境情報として使用することができる。このような構成によって、更に短時間で高精度な地図情報を生成することができる。
Further, when a plurality of mobile robots are used, the
複数のロボットによって地図情報を共有し処理することは、広範囲の地図を高頻度で更新することが可能になる。そのため、複数のロボットを使用する場合では、例えば、監視業務などに有用である。また、位置が固定された環境センサで観測できない領域に対して、図6に示す地図情報の高精度化処理及び図8に示す外乱が発生した場合の地図情報の更新処理を行うことができる。そのため、複数のロボットを使用する場合では、環境センサの死角領域での地図情報の高精度化を図ることができる。 Sharing and processing map information by multiple robots makes it possible to update a wide range of maps with high frequency. Therefore, when a plurality of robots are used, it is useful for, for example, monitoring work. Further, it is possible to perform high-precision processing of the map information shown in FIG. 6 and update processing of the map information when a disturbance shown in FIG. 8 occurs in a region that cannot be observed by the environmental sensor whose position is fixed. Therefore, when a plurality of robots are used, it is possible to improve the accuracy of the map information in the blind spot area of the environmental sensor.
なお、実施の形態1の地図生成方法は、移動ロボット200に予め地図情報を与えない処理について説明したが、これに限定されない。例えば、移動ロボット200に予め地図情報を与えておき、地図情報を更新していく処理であってもよい。
The map generation method of the first embodiment has described the process of not giving the map information to the
実施の形態1において、図6及び図8に示される各処理を詳細に説明したが、本開示は、これらの処理に限定されるものではない。図6及び図8に示す処理は、一例であって、いくつかの処理を省略してもよいし、公知の処理を追加してもよい。 Although each process shown in FIGS. 6 and 8 has been described in detail in the first embodiment, the present disclosure is not limited to these processes. The processes shown in FIGS. 6 and 8 are examples, and some processes may be omitted or known processes may be added.
実施の形態1において、ステップST205において、重なる領域があると判断された場合、処理が終了する例について説明したが、これに限定されない。例えば、ステップST205においては、重なる領域について、上述した地図情報の高精度化処理を行ってもよい。 In the first embodiment, an example in which the processing is terminated when it is determined in step ST205 that there is an overlapping region has been described, but the present invention is not limited to this. For example, in step ST205, the above-mentioned high-precision map information processing may be performed on the overlapping regions.
本開示は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した特許請求の範囲による本開示の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。例えば、移動ロボットは、車両であってもよく、環境センサは、監視カメラであってもよい。また、外界センサおよび環境センサは、LRF(Laser Range Finder)、LIDAR(Laser Imaging Detection and Ranging)、カメラ、深度カメラ、ステレオカメラ、RADAR、TOF(Time of Flight)であってもよい。 Although the present disclosure has been fully described in connection with preferred embodiments with reference to the accompanying drawings, various modifications and modifications are obvious to those skilled in the art. It should be understood that such modifications and amendments are included within the scope of the present disclosure by the appended claims. For example, the mobile robot may be a vehicle, and the environmental sensor may be a surveillance camera. Further, the external world sensor and the environment sensor may be LRF (Laser Range Finder), LIDAR (Laser Imaging Detection and Ranger), a camera, a depth camera, a stereo camera, RADAR, and TOF (Time of Flight).
本開示は、外乱の多い環境において自律移動するロボットの位置認識として有用である。また、本開示は、障害物の多い環境を移動するインフラ検査、海洋探査むけロボットに適用し、位置認識と同時に地図を作成する場合にも有用である。 The present disclosure is useful as position recognition of an autonomously moving robot in an environment with a lot of disturbance. The present disclosure is also useful when applied to infrastructure inspections and robots for ocean exploration that move in an environment with many obstacles, and to create a map at the same time as position recognition.
100 地図生成システム
110 ネットワーク
200 移動ロボット
201 検出領域
210 ロボット側通信部
220 内界センサ
230 外界センサ
240 座標変換部
250 自己位置及び姿勢推定部
260 尤度計算部
270 地図情報更新部
280 地図情報記録部
301、302、303 環境センサ
311、312、313 検出領域
321 環境情報取得部
331 環境センサ通信部
400 対象物
401 領域
500 壁面
100
Claims (19)
前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、
前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、
前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、
前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、
前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、
前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、
前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する、
地図生成方法。 A map generation method performed by a first mobile robot equipped with a first sensor and a second sensor that moves in a first area.
The first information is acquired from the first sensor, and the first information includes information indicating the amount of movement of the first mobile robot.
The second information is acquired from the second sensor, and the second information includes information indicating the distance from the first object existing in the observation area of the first mobile robot to the first mobile robot.
The third information is acquired from the third sensor installed in the first region, and the third information includes the video information in the observation region of the third sensor.
The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, is acquired.
Acquiring the fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information,
Based on the 4th information and the 5th information, it is determined whether or not there is a 4th region which is a region where the 2nd region and the 3rd region overlap.
When it is determined that the fourth region exists, the map information of the first region stored in advance in the first mobile robot is updated for the fifth region including the first object in the fourth region.
Map generation method.
前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、
前記第4情報は、前記第6情報に基づいて計算される、
請求項1に記載の地図生成方法。 further,
Based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the sixth information is estimated.
The fourth information is calculated based on the sixth information.
The map generation method according to claim 1.
請求項1に記載の地図生成方法。 By updating the reliability of the first position information indicating the position of the first object, the map information of the first area is updated.
The map generation method according to claim 1.
請求項3に記載の地図生成方法。 By updating the first variance value of the first position information to a second variance value smaller than the first variance value, the reliability of the first position information is updated.
The map generation method according to claim 3.
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項1に記載の地図生成方法。 The third sensor is arranged in the first region.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 1.
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項1に記載の地図生成方法。 The third sensor is provided in a second mobile robot different from the first mobile robot.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system of the second mobile robot.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 1.
前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、
前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、
前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、
前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、
前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、
前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、
前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する、
地図生成方法。 A map generation method performed by a first mobile robot equipped with a first sensor and a second sensor that moves in a first area.
The first information is acquired from the first sensor, and the first information includes information indicating the amount of movement of the first mobile robot.
The second information is acquired from the second sensor, and the second information includes information indicating the distance from the first object existing in the observation area of the first mobile robot to the first mobile robot.
The third information is acquired from the third sensor installed in the first region, and the third information includes the video information in the observation region of the third sensor.
The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, is acquired.
The fifth information indicating the third region which is the detection region of the third sensor calculated based on the three information is acquired, and the fifth information is acquired.
Based on the fourth information, the fifth information, and the map information of the first region stored in advance in the first mobile robot, the fourth region outside the second region and included in the third region Judging whether the existing second object has changed from the first position to the second position,
When it is determined that the second object has changed from the first position to the second position, the map information of the first area is updated for the fourth area.
Map generation method.
前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、
前記第4情報は、前記第6情報に基づいて計算される、
請求項7に記載の地図生成方法。 further,
Based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the sixth information is estimated.
The fourth information is calculated based on the sixth information.
The map generation method according to claim 7.
請求項7に記載の地図生成方法。 By updating the reliability of the first position information indicating the position of the second object, the map information of the fourth area is updated.
The map generation method according to claim 7.
請求項9に記載の地図生成方法。 By updating the first variance value of the first position information to a second variance value larger than the first variance value, the reliability of the first position information is updated.
The map generation method according to claim 9.
請求項10に記載の地図生成方法。 The second dispersion value is made larger than the first dispersion value according to the amount of change from the first position to the second position.
The map generation method according to claim 10.
請求項8に記載の地図生成方法。 When the current position of the first mobile robot does not exist in the third region and the second region and the third region do not overlap, the map information of the first region is updated for the fourth region. ,
The map generation method according to claim 8.
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項7に記載の地図生成方法。 The third sensor is arranged in the first region.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 7.
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項7に記載の地図生成方法。 The third sensor is provided in a second mobile robot different from the first mobile robot.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system of the second mobile robot.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 7.
前記第2センサから、所定時間前記第2情報の取得を行っていない第5領域について、前記地図情報について前記第5領域の第3分散値を前記第3分散値より大きい第4分散値に更新する、
請求項10に記載の地図生成方法。 further,
Regarding the fifth region in which the second information has not been acquired from the second sensor for a predetermined time, the third variance value of the fifth region is updated to a fourth variance value larger than the third variance value for the map information. To do,
The map generation method according to claim 10.
前記移動ロボットの移動量を示す第1情報を取得する第1センサと、
前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、
(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、
を備える、移動ロボット。 A mobile robot that moves in the first area
A first sensor that acquires first information indicating the amount of movement of the mobile robot, and
A second sensor that acquires second information indicating the distance from the first object existing in the observation area of the mobile robot to the mobile robot, and
(I) The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, and (ii) the second information installed in the first region. The second region and the second region are calculated based on the fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the three sensors. It is determined whether or not there is a fourth region that overlaps with the three regions, and if it is determined that the fourth region exists, the fifth region including the first object in the fourth region A map information update unit that updates the map information of the first area stored in advance in the mobile robot, and a map information update unit.
A mobile robot equipped with.
前記移動ロボットの移動量を示す第1情報を取得する第1センサと、
前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、
(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部と、
を備える、移動ロボット。 A mobile robot that moves in the first area
A first sensor that acquires first information indicating the amount of movement of the mobile robot, and
A second sensor that acquires second information indicating the distance from the first object existing in the observation area of the mobile robot to the mobile robot, and
(I) The first information, the fourth information indicating the second region which is the detection region of the second sensor calculated based on the first information, and (ii) the third information installed in the first region. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the sensor, and (iii) the third information stored in advance in the mobile robot. Based on the map information of one region, whether or not the second object outside the second region and existing in the fourth region included in the third region has changed from the first position to the second position. When it is determined that the second object has changed from the first position to the second position, the map information updating unit that updates the map information of the first area for the fourth area
A mobile robot equipped with.
前記第1領域に設置された第3センサと、
前記移動ロボット及び前記第3センサと通信するサーバと、
を備え、
前記サーバは、
(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、
を有する、地図生成システム。 A mobile robot that moves in a first region, a first sensor that acquires first information indicating the amount of movement of the mobile robot, and a distance from a first object existing in the observation region of the mobile robot to the mobile robot. A mobile robot having a second sensor that acquires the second information indicating
With the third sensor installed in the first area,
A server that communicates with the mobile robot and the third sensor,
With
The server
(I) The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, and (ii) the second information installed in the first region. The second region and the second region are calculated based on the fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the three sensors. It is determined whether or not there is a fourth region that overlaps with the three regions, and if it is determined that the fourth region exists, the fifth region including the first object in the fourth region A map information update unit that updates the map information of the first area stored in advance in the mobile robot, and a map information update unit.
Has a map generation system.
前記第1領域に設置された第3センサと、
前記移動ロボット及び前記第3センサと通信するサーバと、
を備え、
前記サーバは、
(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部、
を有する、地図生成システム。 A mobile robot that moves in a first region, a first sensor that acquires first information indicating the amount of movement of the mobile robot, and a distance from a first object existing in the observation region of the mobile robot to the mobile robot. A mobile robot having a second sensor that acquires the second information indicating
With the third sensor installed in the first area,
A server that communicates with the mobile robot and the third sensor,
With
The server
(I) The first information, the fourth information indicating the second region which is the detection region of the second sensor calculated based on the first information, and (ii) the third information installed in the first region. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the sensor, and (iii) the third information stored in advance in the mobile robot. Based on the map information of one region, whether or not the second object outside the second region and existing in the fourth region included in the third region has changed from the first position to the second position. When it is determined that the second object has changed from the first position to the second position, the map information update unit that updates the map information of the first area for the fourth area,
Has a map generation system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015137931 | 2015-07-09 | ||
JP2015137931 | 2015-07-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017021791A JP2017021791A (en) | 2017-01-26 |
JP6762148B2 true JP6762148B2 (en) | 2020-09-30 |
Family
ID=56853443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016123721A Active JP6762148B2 (en) | 2015-07-09 | 2016-06-22 | Map generation method, mobile robot and map generation system |
Country Status (4)
Country | Link |
---|---|
US (1) | US10006772B2 (en) |
EP (1) | EP3118705B1 (en) |
JP (1) | JP6762148B2 (en) |
CN (1) | CN106339001B (en) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016101552A1 (en) * | 2016-01-28 | 2017-08-03 | Vorwerk & Co. Interholding Gmbh | Method for creating an environment map for a self-moving processing device |
US10180689B2 (en) * | 2016-08-19 | 2019-01-15 | Omega Patents, L.L.C. | Vehicle system including security unit providing degradation commands via a vehicle data bus and related methods |
KR102012550B1 (en) * | 2017-02-20 | 2019-08-20 | 엘지전자 주식회사 | Method of identifying unexpected obstacle and robot implementing thereof |
WO2019039733A1 (en) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | Moving object and combined sensor using camera and lidar |
JP6825712B2 (en) * | 2017-09-04 | 2021-02-03 | 日本電産株式会社 | Mobiles, position estimators, and computer programs |
WO2019044499A1 (en) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | Mobile body, location estimation device, and computer program |
JP6740988B2 (en) * | 2017-09-26 | 2020-08-19 | カシオ計算機株式会社 | Map information providing device, portable map transmitting device, map information providing system, map information providing method and program |
JP7051045B2 (en) * | 2017-11-08 | 2022-04-11 | オムロン株式会社 | Mobile manipulators, control methods and programs for mobile manipulators |
JP6402266B1 (en) * | 2018-02-09 | 2018-10-10 | ユニティガードシステム株式会社 | Robot movement control system and movement control method |
CN108469826B (en) * | 2018-04-23 | 2021-06-08 | 宁波Gqy视讯股份有限公司 | Robot-based map generation method and system |
JP7075822B2 (en) * | 2018-06-04 | 2022-05-26 | パナソニックホールディングス株式会社 | Map information update system |
US11309947B2 (en) * | 2018-11-19 | 2022-04-19 | Facebook Technologies, Llc | Systems and methods for maintaining directional wireless links of motile devices |
KR102198187B1 (en) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | Moving robot |
DE102019111315A1 (en) * | 2019-05-02 | 2020-11-05 | Horsch Leeb Application Systems Gmbh | Autonomous agricultural work machine and method of operating it |
CN111240322B (en) * | 2020-01-09 | 2020-12-29 | 珠海市一微半导体有限公司 | Method for determining working starting point of robot movement limiting frame and motion control method |
JP2021128207A (en) * | 2020-02-12 | 2021-09-02 | 本田技研工業株式会社 | Map creation device, map creation system, map creation method, and program |
CN113449054B (en) * | 2020-03-27 | 2023-08-04 | 杭州海康机器人股份有限公司 | Map switching method and mobile robot |
EP3958086A1 (en) * | 2020-08-19 | 2022-02-23 | Carnegie Robotics, LLC | A method and a system of improving a map for a robot |
JP7366373B2 (en) * | 2020-10-02 | 2023-10-23 | 本田技研工業株式会社 | Mobile object control device, mobile object, mobile object control method, and program |
JP2022189605A (en) * | 2021-06-11 | 2022-12-22 | ソニーグループ株式会社 | Information processor, information processing method, and computer program |
CN113783945A (en) * | 2021-08-25 | 2021-12-10 | 深圳拓邦股份有限公司 | Map synchronization method and device for mobile robot and mobile robot |
CN113907645A (en) * | 2021-09-23 | 2022-01-11 | 追觅创新科技(苏州)有限公司 | Mobile robot positioning method and device, storage medium and electronic device |
CN116594408B (en) * | 2023-07-17 | 2023-10-13 | 深圳墨影科技有限公司 | Mobile collaborative robot path planning system and method |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US8483881B2 (en) * | 2005-09-02 | 2013-07-09 | Neato Robotics, Inc. | Localization and mapping system and method for a robotic device |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
US8965578B2 (en) * | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
CN101033971B (en) * | 2007-02-09 | 2011-02-16 | 中国科学院合肥物质科学研究院 | Mobile robot map building system and map building method thereof |
US20090082879A1 (en) * | 2007-09-20 | 2009-03-26 | Evolution Robotics | Transferable intelligent control device |
KR100955483B1 (en) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | Method of building 3d grid map and method of controlling auto travelling apparatus using the same |
WO2010038353A1 (en) * | 2008-10-01 | 2010-04-08 | 村田機械株式会社 | Autonomous movement device |
CN104970741B (en) * | 2009-11-06 | 2017-08-29 | 艾罗伯特公司 | Method and system for surface to be completely covered by autonomous humanoid robot |
JP5393413B2 (en) | 2009-11-19 | 2014-01-22 | 三菱重工業株式会社 | Autonomous traveling vehicle and autonomous traveling method |
KR101906329B1 (en) * | 2010-12-15 | 2018-12-07 | 한국전자통신연구원 | Apparatus and method for indoor localization based on camera |
US9056754B2 (en) * | 2011-09-07 | 2015-06-16 | Crown Equipment Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
KR20130056586A (en) * | 2011-11-22 | 2013-05-30 | 한국전자통신연구원 | Method and apparatus for building map by using collective intelligent robots |
KR101380852B1 (en) * | 2012-05-30 | 2014-04-10 | 서울대학교산학협력단 | Slam system and method for mobile robots with environment picture input from user |
CN102831446A (en) * | 2012-08-20 | 2012-12-19 | 南京邮电大学 | Image appearance based loop closure detecting method in monocular vision SLAM (simultaneous localization and mapping) |
US9953618B2 (en) * | 2012-11-02 | 2018-04-24 | Qualcomm Incorporated | Using a plurality of sensors for mapping and localization |
CN103885443B (en) * | 2012-12-20 | 2017-02-08 | 联想(北京)有限公司 | Device, system and method for simultaneous localization and mapping unit |
CN103901884B (en) * | 2012-12-25 | 2017-09-29 | 联想(北京)有限公司 | Information processing method and message processing device |
JP6233706B2 (en) * | 2013-04-02 | 2017-11-22 | パナソニックIpマネジメント株式会社 | Autonomous mobile device and self-position estimation method of autonomous mobile device |
KR101448786B1 (en) * | 2013-05-22 | 2014-10-13 | 현대자동차 주식회사 | Smart parking assistant system and parking balance method |
CN103901891A (en) * | 2014-04-12 | 2014-07-02 | 复旦大学 | Dynamic particle tree SLAM algorithm based on hierarchical structure |
CN103955221B (en) * | 2014-05-05 | 2017-01-11 | 北京理工大学 | Multiplatform cooperative path planning system and method with task timeliness |
-
2016
- 2016-06-22 JP JP2016123721A patent/JP6762148B2/en active Active
- 2016-06-27 EP EP16176389.1A patent/EP3118705B1/en active Active
- 2016-06-27 US US15/193,930 patent/US10006772B2/en active Active
- 2016-06-28 CN CN201610488378.XA patent/CN106339001B/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN106339001A (en) | 2017-01-18 |
US10006772B2 (en) | 2018-06-26 |
EP3118705B1 (en) | 2020-04-08 |
EP3118705A2 (en) | 2017-01-18 |
CN106339001B (en) | 2021-01-08 |
US20170010100A1 (en) | 2017-01-12 |
EP3118705A3 (en) | 2017-02-08 |
JP2017021791A (en) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6762148B2 (en) | Map generation method, mobile robot and map generation system | |
JP6849330B2 (en) | Map generation method, self-position estimation method, robot system, and robot | |
JP6842519B2 (en) | Data collection method and its system | |
WO2021135645A1 (en) | Map updating method and device | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
KR101956447B1 (en) | Method and apparatus for position estimation of unmanned vehicle based on graph structure | |
JP6032163B2 (en) | 3D object recognition apparatus, 3D object recognition method, and moving body | |
JP2009193240A (en) | Mobile robot and method for generating environment map | |
KR101439921B1 (en) | Slam system for mobile robot based on vision sensor data and motion sensor data fusion | |
KR20170088228A (en) | Map building system and its method based on multi-robot localization | |
JP5276931B2 (en) | Method for recovering from moving object and position estimation error state of moving object | |
JP2008275606A (en) | Object recognition apparatus for recognizing autonomous mobile object | |
JP2008059218A (en) | Method for restoring self-position of autonomously traveling robot | |
JP2016080460A (en) | Moving body | |
JP2009217333A (en) | Mobile robot and operation control method thereof | |
WO2019124343A1 (en) | Moving body | |
RU2740229C1 (en) | Method of localizing and constructing navigation maps of mobile service robot | |
CN112041634A (en) | Mobile robot positioning method, map building method and mobile robot | |
JPWO2019202806A1 (en) | Self-position estimation method | |
JP5287050B2 (en) | Route planning method, route planning device, and autonomous mobile device | |
KR102481615B1 (en) | Method and system for collecting data | |
KR101255024B1 (en) | Relative localization system and method using ultrasonic sensor | |
JP7121489B2 (en) | moving body | |
KR101502071B1 (en) | Camera Data Generator for Landmark-based Vision Navigation System and Computer-readable Media Recording Program for Executing the Same | |
Oh et al. | Graph-based SLAM approach for environments with laser scan ambiguity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6762148 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |