JP6762148B2 - Map generation method, mobile robot and map generation system - Google Patents

Map generation method, mobile robot and map generation system Download PDF

Info

Publication number
JP6762148B2
JP6762148B2 JP2016123721A JP2016123721A JP6762148B2 JP 6762148 B2 JP6762148 B2 JP 6762148B2 JP 2016123721 A JP2016123721 A JP 2016123721A JP 2016123721 A JP2016123721 A JP 2016123721A JP 6762148 B2 JP6762148 B2 JP 6762148B2
Authority
JP
Japan
Prior art keywords
information
region
sensor
mobile robot
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016123721A
Other languages
Japanese (ja)
Other versions
JP2017021791A (en
Inventor
一真 竹内
一真 竹内
洋平 中田
洋平 中田
齊藤 雅彦
雅彦 齊藤
原田 尚幸
尚幸 原田
修平 松井
修平 松井
健介 若杉
健介 若杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JP2017021791A publication Critical patent/JP2017021791A/en
Application granted granted Critical
Publication of JP6762148B2 publication Critical patent/JP6762148B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0808Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Description

本開示は、地図生成方法、移動ロボット及び地図生成システムに関する。 The present disclosure relates to a map generation method, a mobile robot and a map generation system.

ロボット技術は、人の立ち入れない環境での探査や、人の代替作業を行う自動化を目的に発展してきた。近年では、家庭内を移動しながら掃除を行う移動ロボット等が販売されており、人間生活の身近な領域に移動ロボットが投入されるようになってきている。このような移動ロボットでは、移動経路を決めるために、移動ロボット自身が自己の位置及び姿勢、周辺環境を正しく認識する必要がある。 Robot technology has been developed for the purpose of exploration in an environment that is out of the reach of people and automation of performing human substitution work. In recent years, mobile robots and the like that perform cleaning while moving in the home have been sold, and mobile robots have been introduced into familiar areas of human life. In such a mobile robot, in order to determine the movement route, the mobile robot itself needs to correctly recognize its own position and posture and the surrounding environment.

自己位置の推定及び地図を作成する技術としては、SLAM(Simultaneous Location And Mapping)技術が知られている。SLAM技術では、移動ロボットが備えるセンサであって位置及び姿勢の変化量を検出する内界センサと、移動ロボットが備えるセンサであって周辺環境に対する相対情報を捉える外界センサを用いている。SLAM技術では、これらのセンサを用いることによって、移動ロボットに予め地図情報を与えなくても、自己の位置及び姿勢の推定と合わせて、周辺の地図を作成することができる。 SLAM (Simultaneus Location And Mapping) technology is known as a technology for estimating a self-position and creating a map. In SLAM technology, a sensor provided in a mobile robot, which is an internal sensor for detecting the amount of change in position and posture, and a sensor provided in the mobile robot, which is an external sensor for capturing relative information with respect to the surrounding environment, are used. In SLAM technology, by using these sensors, it is possible to create a map of the surrounding area together with the estimation of its own position and posture without giving map information to the mobile robot in advance.

SLAM技術は、主に2つの処理を繰り返し行っている。第1の処理は、内界センサによって取得した情報から移動ロボットの現在の位置及び姿勢を予測し、予測した位置及び姿勢と過去に作成した地図情報とに基づいて、移動ロボットの周辺環境に対する相対情報を予測する。第2の処理は、第1の処理で予測した相対情報と、外界センサで得られた実際の周辺環境に対する相対情報とに基づいて尤度を計算する。計算した尤度から内界センサと外界センサの信頼度の重みを決定し、移動ロボットの現在の自己位置及び姿勢と地図情報を更新する。 The SLAM technology mainly repeats two processes. The first process predicts the current position and posture of the mobile robot from the information acquired by the internal sensor, and is relative to the surrounding environment of the mobile robot based on the predicted position and posture and the map information created in the past. Predict information. In the second process, the likelihood is calculated based on the relative information predicted by the first process and the relative information with respect to the actual surrounding environment obtained by the external sensor. The weights of the reliability of the inner world sensor and the outer world sensor are determined from the calculated likelihood, and the current self-position and posture of the mobile robot and the map information are updated.

また、地図変化がある環境での自律移動を実現する方法として特許文献1が開示されている。特許文献1に開示された自律走行車は、レーザビーム又はカメラ等のセンサを用いて対象物に対しての自己位置及び姿勢を推定することによって、自律走行車自身の走行可否を算出している。そして、特許文献1に開示された自律走行車は、算出した自律走行車自身の走行可否と飛行体により取得した走行可否とに基づいて、自律走行車の走行可否の判断を行っている。 Further, Patent Document 1 is disclosed as a method for realizing autonomous movement in an environment where there is a map change. The autonomous driving vehicle disclosed in Patent Document 1 calculates whether or not the autonomous driving vehicle itself can travel by estimating its own position and posture with respect to an object using a sensor such as a laser beam or a camera. .. Then, the autonomous driving vehicle disclosed in Patent Document 1 determines whether or not the autonomous driving vehicle can travel based on the calculated travelability of the autonomous driving vehicle itself and the travelability acquired by the flying object.

特開2011−108084号公報Japanese Unexamined Patent Publication No. 2011-108084

探査や人の代替作業を行う移動ロボットにおいては、走行可否判断に加えて、より精度の高い地図の生成が求められている。しかしながら、特許文献1に開示された自律走行車では、より精度の高い地図を生成するという点に関しては検討されていない。 Mobile robots that perform exploration and human substitution work are required to generate more accurate maps in addition to determining whether or not they can travel. However, in the autonomous driving vehicle disclosed in Patent Document 1, the point of generating a map with higher accuracy has not been studied.

本開示は、より精度の高い地図を生成することができる地図生成方法、移動ロボット及び地図生成システムを提供する。 The present disclosure provides a map generation method, a mobile robot, and a map generation system capable of generating a map with higher accuracy.

本開示に係る第1態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する。 The map generation method of the first aspect according to the present disclosure is a map generation method performed by a first mobile robot that moves in a first region and includes a first sensor and a second sensor, and the first information from the first sensor. The first information includes information indicating the amount of movement of the first mobile robot, the second information is acquired from the second sensor, and the second information exists in the observation area of the first mobile robot. The third information is acquired from the third sensor installed in the first area, including the information indicating the distance from the first object to the first mobile robot, and the third information is the observation area of the third sensor. The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, including the video information in the above, is acquired, and based on the third information. The calculated fifth information indicating the third region, which is the detection region of the third sensor, is acquired, and the second region and the third region overlap each other based on the fourth information and the fifth information. It is determined whether or not the fourth region, which is a region, exists, and when it is determined that the fourth region exists, the fifth region including the first object in the fourth region is subjected to the first mobile robot. The map information of the first area stored in advance is updated.

本開示に係る第2態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する。 The map generation method of the second aspect according to the present disclosure is a map generation method performed by a first mobile robot that moves in a first region and includes a first sensor and a second sensor, and the first information from the first sensor. The first information includes information indicating the amount of movement of the first mobile robot, the second information is acquired from the second sensor, and the second information exists in the observation area of the first mobile robot. The third information is acquired from the third sensor installed in the first area, including the information indicating the distance from the first object to the first mobile robot, and the third information is the observation area of the third sensor. The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, including the video information in the above, is acquired, and the calculation is performed based on the three information. The fifth information indicating the third region, which is the detection region of the third sensor, is acquired, and the fourth information, the fifth information, and the map information of the first region stored in advance in the first mobile robot are obtained. Based on the above, it is determined whether or not the second object outside the second region and existing in the fourth region included in the third region has changed from the first position to the second position, and the second object is When it is determined that the position has changed from the first position to the second position, the map information of the first area is updated for the fourth area.

本開示によれば、より精度の高い地図を生成することができる。 According to the present disclosure, it is possible to generate a map with higher accuracy.

図1は、本開示の実施の形態1に係る地図生成システムの概略構成図である。FIG. 1 is a schematic configuration diagram of a map generation system according to the first embodiment of the present disclosure. 図2は、本開示の実施の形態1に係る移動ロボットの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a mobile robot according to the first embodiment of the present disclosure. 図3は、分散の定義の説明図である。FIG. 3 is an explanatory diagram of the definition of variance. 図4は、本開示の実施の形態1における環境センサの構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of an environmental sensor according to the first embodiment of the present disclosure. 図5は、本開示の実施の形態1に係る移動ロボット及び環境センサの動作の一例を示す図である。FIG. 5 is a diagram showing an example of the operation of the mobile robot and the environmental sensor according to the first embodiment of the present disclosure. 図6は、本開示の実施の形態1に係る地図生成方法を示すフローチャートである。FIG. 6 is a flowchart showing a map generation method according to the first embodiment of the present disclosure. 図7Aは、本開示の実施の形態1に係る移動ロボット及び環境センサの動作の一例を示す図である。FIG. 7A is a diagram showing an example of the operation of the mobile robot and the environmental sensor according to the first embodiment of the present disclosure. 図7Bは、本開示の実施の形態1に係る移動ロボット及び環境センサの動作の一例を示す図である。FIG. 7B is a diagram showing an example of the operation of the mobile robot and the environmental sensor according to the first embodiment of the present disclosure. 図8は、本開示の実施の形態1に係る別の地図生成方法を示すフローチャートである。FIG. 8 is a flowchart showing another map generation method according to the first embodiment of the present disclosure.

(1)本開示に係る第1の態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する。 (1) The map generation method of the first aspect according to the present disclosure is a map generation method performed by a first mobile robot that moves in a first region and includes a first sensor and a second sensor, and the first sensor. The first information is acquired from, the first information includes information indicating the movement amount of the first mobile robot, the second information is acquired from the second sensor, and the second information is of the first mobile robot. The third information includes information indicating the distance from the first object existing in the observation area to the first mobile robot, and the third information is acquired from the third sensor installed in the first area, and the third information is the third. The third information including the video information in the observation area of the sensor and indicating the second area which is the detection area of the second sensor calculated based on the first information and the second information is acquired. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the information is acquired, and the second region and the third region are obtained based on the fourth information and the fifth information. It is determined whether or not there is a fourth region that overlaps with the region, and if it is determined that the fourth region exists, the fifth region including the first object in the fourth region is said to have the fourth region. 1 The map information of the first area stored in advance in the mobile robot is updated.

このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域において、移動ロボットの地図情報を更新することができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, the map information of the mobile robot can be updated in the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.

(2)上記態様において、さらに、前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、前記第4情報は、前記第6情報に基づいて計算されてもよい。 (2) In the above aspect, further, based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the fourth information is the sixth. It may be calculated informed.

このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域に関する地図情報の信頼度を上げることができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, it is possible to increase the reliability of the map information regarding the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.

(3)上記態様において、前記第1物体の位置を示す第1位置情報の信頼度を更新することで、前記第1領域の地図情報が更新されてもよい。 (3) In the above aspect, the map information of the first region may be updated by updating the reliability of the first position information indicating the position of the first object.

このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域に関する地図情報の信頼度を上げることができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, it is possible to increase the reliability of the map information regarding the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.

(4)上記態様において、前記第1位置情報の第1分散値を、前記第1分散値より小さい第2分散値に更新することで、前記第1位置情報の信頼度が更新されてもよい。 (4) In the above aspect, the reliability of the first position information may be updated by updating the first variance value of the first position information to a second variance value smaller than the first variance value. ..

このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域に関する地図情報の信頼度を上げることができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, it is possible to increase the reliability of the map information regarding the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap. Therefore, a map with higher accuracy can be generated.

(5)上記態様において、前記第3センサは、前記第1領域に配置されており、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換してもよい。 (5) In the above aspect, the third sensor is arranged in the first region, the map information of the first region is represented by the first coordinate system, and the fifth information is the second coordinate system. In addition, the second coordinate system may be converted into the first coordinate system.

このような構成により、第1領域に配置された第3センサの検出領域の座標を、第1領域を移動する移動ロボットの地図情報の座標に合わせることができるため、更に精度の高い地図を生成することができる。 With such a configuration, the coordinates of the detection area of the third sensor arranged in the first area can be matched with the coordinates of the map information of the mobile robot moving in the first area, so that a more accurate map can be generated. can do.

(6)上記態様において、前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換してもよい。 (6) In the above aspect, the third sensor is provided in a second mobile robot different from the first mobile robot, and the map information of the first region is represented by the first coordinate system, and the fifth. The information is represented by the second coordinate system of the second mobile robot, and the second coordinate system may be further converted into the first coordinate system.

このような構成により、第2移動ロボットの第3センサを使用して地図情報を生成することができるため、短時間で精度の高い地図を生成することができる。 With such a configuration, since the map information can be generated by using the third sensor of the second mobile robot, it is possible to generate a highly accurate map in a short time.

(7)本開示に係る第2の態様の地図生成方法は、第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する。 (7) The map generation method of the second aspect according to the present disclosure is a map generation method performed by a first mobile robot provided with a first sensor and a second sensor by moving in a first region, and the first sensor. The first information is acquired from, the first information includes information indicating the movement amount of the first mobile robot, the second information is acquired from the second sensor, and the second information is of the first mobile robot. The third information includes information indicating the distance from the first object existing in the observation area to the first mobile robot, and the third information is acquired from the third sensor installed in the first area, and the third information is the third. The fourth information indicating the second region, which is the detection region of the second sensor, which includes the video information in the observation region of the sensor and is calculated based on the first information and the second information, is acquired, and the third information is obtained. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the above, is acquired, and the fourth information, the fifth information, and the first stored in advance in the first mobile robot are obtained. Based on the map information of the area, it is determined whether or not the second object outside the second area and existing in the fourth area included in the third area has changed from the first position to the second position. When it is determined that the second object has changed from the first position to the second position, the map information of the first area is updated for the fourth area.

このような構成により、第3センサにより取得した映像情報に基づいて、第2センサの検出領域外の環境の変化を検出することができる。そのため、移動ロボットは、環境の変化を検出した領域に関する地図情報を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, changes in the environment outside the detection region of the second sensor can be detected based on the video information acquired by the third sensor. Therefore, the mobile robot can update the map information about the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.

(8)上記態様において、さらに、前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、前記第4情報は、前記第6情報に基づいて計算されてもよい。 (8) In the above aspect, further, based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the fourth information is the sixth. It may be calculated informed.

このような構成により、移動ロボットが自己位置及び姿勢をロバストに推定することができ、より精度の高い地図を生成することができる。 With such a configuration, the mobile robot can robustly estimate its own position and posture, and can generate a map with higher accuracy.

(9)上記態様において、前記第2物体の位置を示す第1位置情報の信頼度を更新することで、前記第4領域の地図情報が更新されてもよい。 (9) In the above aspect, the map information of the fourth region may be updated by updating the reliability of the first position information indicating the position of the second object.

このような構成により、移動ロボットは、環境の変化を検出した領域に関する地図情報の信頼度を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, the mobile robot can update the reliability of the map information regarding the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.

(10)上記態様において、前記第1位置情報の第1分散値を、前記第1分散値より大きい第2分散値に更新することで、前記第1位置情報の信頼度が更新されてもよい。 (10) In the above aspect, the reliability of the first position information may be updated by updating the first variance value of the first position information to a second variance value larger than the first variance value. ..

このような構成により、環境の変化を検出した領域に関する地図情報の信頼度を下げることができる。これによって、移動ロボットは、信頼度の低い部分の地図情報に頼らずに信頼度の高い部分の地図情報に基づいて、自己位置及び姿勢を推定することができる。その結果、より精度の高い地図を生成することができる。 With such a configuration, it is possible to reduce the reliability of the map information regarding the area where the change in the environment is detected. As a result, the mobile robot can estimate its own position and posture based on the map information of the high-reliability portion without relying on the map information of the low-reliability portion. As a result, a map with higher accuracy can be generated.

(11)上記態様において、前記第1位置から前記第2位置の変化量に応じて、前記第2分散値は前記第1分散値より大きくされてもよい。 (11) In the above aspect, the second dispersion value may be made larger than the first dispersion value according to the amount of change from the first position to the second position.

このような構成により、環境の変化の量に対応させて分散の値を大きくすることで、移動ロボットの自己位置及び姿勢を更に正確に推定することができる。これによって、更に精度の高い地図情報を生成することができる。 With such a configuration, the self-position and posture of the mobile robot can be estimated more accurately by increasing the value of the variance in accordance with the amount of change in the environment. This makes it possible to generate more accurate map information.

(12)上記態様において、前記第1移動ロボットの現在位置が前記第3領域に存在せず、前記第2領域と前記第3領域とが重ならない場合に、前記第4領域について、前記第1領域の地図情報が更新されてもよい。 (12) In the above embodiment, when the current position of the first mobile robot does not exist in the third region and the second region and the third region do not overlap, the first region is the first. The map information of the area may be updated.

このような構成により、移動ロボットの死角で環境の変化が生じた場合でも、第3センサにより取得した情報を用いて、環境の変化を検出した領域に関する地図情報の信頼度を更新することができる。このため、移動ロボットの死角で環境の変化が生じた場合でも、変化が生じた領域の地図情報を短時間で修正し、精度の高い地図を生成することができる。 With such a configuration, even if the environment changes due to the blind spot of the mobile robot, the reliability of the map information regarding the area where the change in the environment is detected can be updated by using the information acquired by the third sensor. .. Therefore, even when the environment changes due to the blind spot of the mobile robot, the map information of the changed area can be corrected in a short time, and a highly accurate map can be generated.

(13)上記態様において、前記第3センサは、前記第1領域に配置されており、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換されてもよい。 (13) In the above aspect, the third sensor is arranged in the first region, the map information of the first region is represented by the first coordinate system, and the fifth information is the second coordinate system. In addition, the second coordinate system may be converted into the first coordinate system.

このような構成により、第1領域に配置された第3センサの検出領域の座標を、移動ロボットの地図情報の座標に合わせることができるため、更に精度の高い地図を生成することができる。 With such a configuration, the coordinates of the detection area of the third sensor arranged in the first area can be matched with the coordinates of the map information of the mobile robot, so that a map with higher accuracy can be generated.

(14)上記態様において、前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、前記第1領域の地図情報は第1座標系によって表現されており、前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、さらに、前記第2座標系を前記第1座標系に変換されてもよい。 (14) In the above aspect, the third sensor is provided in a second mobile robot different from the first mobile robot, and the map information of the first region is represented by the first coordinate system, and the fifth. The information is represented by the second coordinate system of the second mobile robot, and the second coordinate system may be further converted into the first coordinate system.

このような構成により、第2移動ロボットの第3センサを使用して地図情報を生成することができるため、短時間で精度の高い地図を生成することができる。 With such a configuration, since the map information can be generated by using the third sensor of the second mobile robot, it is possible to generate a highly accurate map in a short time.

(15)上記態様において、さらに、前記第2センサから、所定時間前記第2情報の取得を行っていない第5領域について、前記地図情報について前記第5領域の第3分散値を前記第3分散値より大きい第4分散値に更新されてもよい。 (15) In the above aspect, further, with respect to the fifth region in which the second information has not been acquired from the second sensor for a predetermined time, the third dispersion value of the fifth region is obtained with respect to the map information. It may be updated to a fourth variance value greater than the value.

このような構成により、所定の時間、第2センサにより第2情報の取得を行っていない領域に関する地図情報の信頼度を下げることができる。これによって、信頼度の低い部分の地図情報に頼らずに信頼度の高い部分の地図情報に基づいて、自己位置及び姿勢を推定することができる。その結果、より精度の高い地図を生成することができる。 With such a configuration, it is possible to reduce the reliability of the map information relating to the area where the second information is not acquired by the second sensor for a predetermined time. As a result, the self-position and posture can be estimated based on the map information of the high-reliability portion without relying on the map information of the low-reliability portion. As a result, a map with higher accuracy can be generated.

(16)本開示に係る第3の態様の移動ロボットは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサと、前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、を備える。 (16) The mobile robot according to the third aspect according to the present disclosure is a mobile robot that moves in a first region, and includes a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the mobile robot. The second sensor that acquires the second information indicating the distance from the first object existing in the observation area to the mobile robot, and (i) the first information and the second sensor calculated based on the second information. The above, which is calculated based on the fourth information indicating the second region which is the detection region of the two sensors and (ii) the third information including the video information in the observation region of the third sensor installed in the first region. Based on the fifth information indicating the third region, which is the detection region of the third sensor, it is determined whether or not there is a fourth region, which is a region where the second region and the third region overlap. When it is determined that the fourth region exists, the map information update for updating the map information of the first region stored in advance in the mobile robot for the fifth region including the first object in the fourth region. It has a part and.

このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域において、移動ロボットの地図情報を、第3センサにより取得された情報を用いて更新することができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, in the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap, the map information of the mobile robot can be updated by using the information acquired by the third sensor. it can. Therefore, a map with higher accuracy can be generated.

(17)本開示に係る第4の態様の移動ロボットは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサと、前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部と、を備える。 (17) The mobile robot according to the fourth aspect according to the present disclosure is a mobile robot that moves in a first region, and includes a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the mobile robot. The second sensor that acquires the second information indicating the distance from the first object existing in the observation area to the mobile robot, and (i) the second sensor calculated based on the first information and the second information. The third information calculated based on the fourth information indicating the second region which is the detection region of the sensor and (ii) the third information including the video information in the observation region of the third sensor installed in the first region. Based on the fifth information indicating the third region, which is the detection region of the sensor, and (iii) the map information of the first region stored in advance in the mobile robot, the second region outside the second region. It is determined whether or not the second object existing in the fourth region included in the three regions has changed from the first position to the second position, and the second object has changed from the first position to the second position. When it is determined, the fourth area is provided with a map information updating unit that updates the map information of the first area.

このような構成により、第3センサにより取得した第3情報に基づいて、第2センサの検出領域外の環境の変化を検出することができる。そのため、移動ロボットは、環境の変化を検出した領域に関する地図情報を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, changes in the environment outside the detection region of the second sensor can be detected based on the third information acquired by the third sensor. Therefore, the mobile robot can update the map information about the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.

(18)本開示に係る第5の態様の地図生成システムは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、前記第1領域に設置された第3センサと、前記移動ロボット及び前記第3センサと通信するサーバと、を備え、前記サーバは、(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、を有する。 (18) The map generation system of the fifth aspect according to the present disclosure is a mobile robot that moves in a first region, and is a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the movement. A mobile robot having a second sensor that acquires a second information indicating a distance from a first object existing in the observation area of the robot to the mobile robot, a third sensor installed in the first area, and the mobile robot. And a server that communicates with the third sensor, the server includes (i) a second region, which is a detection region of the second sensor, calculated based on the first information and the second information. A third region, which is a detection region of the third sensor, calculated based on the fourth information shown and (ii) third information including video information in the observation region of the third sensor installed in the first region. When it is determined whether or not there is a fourth region which is a region where the second region and the third region overlap based on the fifth information indicating the above, and it is determined that the fourth region exists. The fifth region including the first object in the fourth region has a map information updating unit that updates the map information of the first region stored in advance in the mobile robot.

このような構成により、移動ロボットの第2センサの検出領域と第3センサの検出領域とが重なる領域における地図情報を、第3センサにより取得された情報を用いて更新することができる。そのため、より精度の高い地図を生成することができる。 With such a configuration, the map information in the area where the detection area of the second sensor of the mobile robot and the detection area of the third sensor overlap can be updated by using the information acquired by the third sensor. Therefore, a map with higher accuracy can be generated.

(19)本開示に係る第6態様の地図生成システムは、第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、前記第1領域に設置された第3センサと、前記移動ロボット及び前記第3センサと通信するサーバと、を備え、前記サーバは、(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部、を有する。 (19) The map generation system of the sixth aspect according to the present disclosure is a mobile robot that moves in a first region, and is a first sensor that acquires first information indicating the amount of movement of the mobile robot, and the mobile robot. A mobile robot having a second sensor that acquires a second information indicating the distance from the first object existing in the observation area to the mobile robot, a third sensor installed in the first area, the mobile robot, and the mobile robot. It includes a server that communicates with the third sensor, and the server indicates (i) a second region that is a detection region of the second sensor calculated based on the first information and the second information. A third region indicating a third region, which is a detection region of the third sensor, calculated based on the fourth information and (ii) third information including video information in the observation region of the third sensor installed in the first region. Based on the 5 information and (iii) the map information of the 1st region stored in advance in the mobile robot, a third region outside the 2nd region and existing in the 4th region included in the 3rd region. 2 When it is determined whether or not the object has changed from the first position to the second position and it is determined that the second object has changed from the first position to the second position, the fourth region is described. It has a map information updating unit that updates the map information of the first area.

このような構成により、第3センサにより取得した第3情報に基づいて、第2センサの検出領域外の環境の変化を検出することができる。そのため、サーバは、環境の変化を検出した領域に関する地図情報を、第3センサの情報を使用して更新することができる。その結果、環境の変化が生じた場合でも、より精度の高い地図を生成することができる。 With such a configuration, changes in the environment outside the detection region of the second sensor can be detected based on the third information acquired by the third sensor. Therefore, the server can update the map information about the area where the change in the environment is detected by using the information of the third sensor. As a result, a map with higher accuracy can be generated even when the environment changes.

(本開示に係る一形態を得るに至った経緯)
SLAM技術では、一度信頼度の高い地図情報が作成されると、地図情報が作成された領域では専ら外界センサの情報と作成済みの地図情報に基づいて、移動ロボットの自己位置及び姿勢を推定するようになる。
(Background to obtain one form related to this disclosure)
In SLAM technology, once highly reliable map information is created, the self-position and posture of the mobile robot are estimated in the area where the map information is created, based exclusively on the information from the external sensor and the created map information. Will be.

特許文献1に開示された自律走行車においては、飛行体と自律走行車自身とで地図情報を生成した後、生成された地図情報と自律走行車のセンサで得られた情報に基づき、対象物に対しての自身の位置及び姿勢を推定している。 In the autonomous driving vehicle disclosed in Patent Document 1, after the map information is generated by the vehicle and the autonomous driving vehicle itself, the object is based on the generated map information and the information obtained by the sensor of the autonomous driving vehicle. It estimates its own position and attitude with respect to.

特許文献1では、自律走行車にて取得した情報と、飛行体からの情報とを用いて、自律走行車の走行可否を算出することが記載されている。しかしながら、特許文献1に開示された自律走行車においては、環境センサなどの外部のセンサ情報を用いて、地図生成の精度向上を行う点については検討されていない。 Patent Document 1 describes that the travelability of an autonomous vehicle is calculated by using the information acquired by the autonomous vehicle and the information from the vehicle. However, in the autonomous driving vehicle disclosed in Patent Document 1, the point of improving the accuracy of map generation by using external sensor information such as an environmental sensor has not been studied.

また、特許文献1に開示された自律走行車においては、外乱により周辺環境が変化した場合、実際の地図と自律走行車の地図情報とが対応しなくなり、自律走行車の地図情報とセンサの情報に基づいて自己位置及び姿勢を推定することができなくなる。更に、特許文献1に開示された自律走行車においては、環境の変化が生じた領域に関する地図情報を、実際の地図に対応させるように更新するのに時間がかかる。これらは、発明者らによって新たに見出された課題である。 Further, in the autonomous driving vehicle disclosed in Patent Document 1, when the surrounding environment changes due to a disturbance, the actual map and the map information of the autonomous driving vehicle do not correspond to each other, and the map information of the autonomous driving vehicle and the sensor information. It becomes impossible to estimate the self-position and the posture based on. Further, in the autonomous driving vehicle disclosed in Patent Document 1, it takes time to update the map information regarding the area where the environment has changed so as to correspond to the actual map. These are the issues newly discovered by the inventors.

そこで、発明者らは、鋭意研究したところ、環境センサで取得された環境情報に基づいて、移動ロボットの地図情報の信頼度を更新することによって、精度の高い地図情報を生成することができることを見出した。 Therefore, as a result of diligent research, the inventors have found that highly accurate map information can be generated by updating the reliability of the map information of the mobile robot based on the environmental information acquired by the environmental sensor. I found it.

以下、本開示の実施形態について、添付の図面を参照しながら説明する。また、各図においては、説明を容易なものとするため、各要素を誇張して示している。 Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. Further, in each figure, each element is exaggerated for the sake of easy explanation.

(実施の形態1)
[システム構成]
図1は、実施の形態1に係る地図生成システムの概略構成図を示す。図1に示すように、地図生成システム100は、ネットワーク110と、移動ロボット200と、環境センサ301、302、303とを備える。
(Embodiment 1)
[System configuration]
FIG. 1 shows a schematic configuration diagram of a map generation system according to the first embodiment. As shown in FIG. 1, the map generation system 100 includes a network 110, a mobile robot 200, and environmental sensors 301, 302, and 303.

地図生成システム100において、移動ロボット200は、ネットワーク110を介して、複数の環境センサ301、302、303に接続されている。環境センサ301、302、303は、予め周辺環境に所定の間隔で配置されている。環境センサ301、302、303は、移動ロボット200の上方からそれぞれ検出領域311、312、313内の環境情報を取得している。検出領域311、312、313は、それぞれの環境センサ301、302、303が周辺環境を観測可能な領域を示している。移動ロボット200は、後述する外界センサによって、検出領域201内の外界情報を取得している。 In the map generation system 100, the mobile robot 200 is connected to a plurality of environment sensors 301, 302, and 303 via the network 110. The environment sensors 301, 302, and 303 are arranged in advance in the surrounding environment at predetermined intervals. The environmental sensors 301, 302, and 303 acquire the environmental information in the detection areas 311, 312, and 313 from above the mobile robot 200, respectively. The detection areas 311, 312, and 313 indicate areas in which the surrounding environment can be observed by the environmental sensors 301, 302, and 303, respectively. The mobile robot 200 acquires the outside world information in the detection area 201 by the outside world sensor described later.

[移動ロボット]
次に、移動ロボット200について説明する。
移動ロボット200は、一般的な自走式ロボットと同等の構成を有する。具体的には、移動制御情報に応じて移動する駆動装置を備える。また、移動ロボット200は、自己の位置及び姿勢の推定、環境センサとの通信、及び地図情報の生成を行うことが可能な構成を有する。
[Mobile robot]
Next, the mobile robot 200 will be described.
The mobile robot 200 has a configuration equivalent to that of a general self-propelled robot. Specifically, it includes a drive device that moves according to movement control information. In addition, the mobile robot 200 has a configuration capable of estimating its own position and posture, communicating with an environmental sensor, and generating map information.

本明細書において、「位置」とは、地図情報における場所を意味する。また、「姿勢」とは、移動ロボット200の向きを意味しており、例えば所定の基準方向に対する回転角で表現する。向きには、水平方向の向きのみならず3次元方向の向きも含まれる。 As used herein, the term "location" means a location in map information. Further, the "posture" means the direction of the mobile robot 200, and is expressed by, for example, a rotation angle with respect to a predetermined reference direction. The orientation includes not only the horizontal orientation but also the three-dimensional orientation.

図2は、移動ロボット200の構成を示すブロック図である。図2に示すように、移動ロボット200は、ロボット側通信部210、内界センサ220、外界センサ230、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、及び地図情報記録部280を備える。また、移動ロボット200は、これらの要素を制御する制御部を備えるが、図2においては説明を簡略化するために省略している。 FIG. 2 is a block diagram showing the configuration of the mobile robot 200. As shown in FIG. 2, the mobile robot 200 includes a robot-side communication unit 210, an internal world sensor 220, an external world sensor 230, a coordinate conversion unit 240, a self-position and posture estimation unit 250, a likelihood calculation unit 260, and a map information update unit. It includes 270 and a map information recording unit 280. Further, although the mobile robot 200 includes a control unit that controls these elements, it is omitted in FIG. 2 for the sake of brevity.

<ロボット側通信部>
ロボット側通信部210は、環境センサ301、302、303と通信を行う通信装置である。ロボット側通信部210は、ネットワーク110を介して、環境センサ301、302、303と通信し、環境センサ301、302、303の検出領域311、312、313内の環境情報を取得する。ロボット側通信部210は、無線通信によりネットワーク110にアクセスしている。ロボット側通信部210で取得した環境センサ301、302、303の環境情報は、座標変換部240に送られる。
<Robot side communication unit>
The robot-side communication unit 210 is a communication device that communicates with the environment sensors 301, 302, and 303. The robot-side communication unit 210 communicates with the environment sensors 301, 302, and 303 via the network 110, and acquires the environment information in the detection areas 311, 312, and 313 of the environment sensors 301, 302, and 303. The robot-side communication unit 210 is accessing the network 110 by wireless communication. The environmental information of the environmental sensors 301, 302, and 303 acquired by the robot-side communication unit 210 is sent to the coordinate conversion unit 240.

<内界センサ>
内界センサ220は、移動ロボット200の内界情報を取得する。内界情報とは、移動ロボット200の現在の自己位置及び姿勢を予測するための情報であり、例えば、移動ロボット200の移動量等に関する情報(第1情報)である。内界センサ220としては、加速度センサや角速度センサ、車輪の回転量を測定するロータリーエンコーダ等を利用することができる。内界センサ220によって取得された内界情報は、自己位置及び姿勢推定部250に送られる。内界センサ220は、第1センサと称してもよい。
<Internal sensor>
The inner world sensor 220 acquires the inner world information of the mobile robot 200. The inside world information is information for predicting the current self-position and posture of the mobile robot 200, and is, for example, information (first information) regarding the amount of movement of the mobile robot 200 and the like. As the internal sensor 220, an acceleration sensor, an angular velocity sensor, a rotary encoder that measures the amount of rotation of the wheel, or the like can be used. The inner world information acquired by the inner world sensor 220 is sent to the self-position and attitude estimation unit 250. The internal sensor 220 may be referred to as a first sensor.

<外界センサ>
外界センサ230は、移動ロボット200の外界情報を取得する。外界情報とは、外界センサ230の観測領域にある実際の周辺環境の情報であり、例えば、周辺環境に配置された対象物(物体)と移動ロボット200との間の距離等の情報(第2情報)である。外界センサ230としては、カメラ、又はTOF(Time Of Flight)方式で距離を測定する光学式測距センサ等を利用することができる。外界センサ230で取得された外界情報は、尤度計算部260に送られる。外界センサ230は、第2センサと称してもよい。
<External sensor>
The outside world sensor 230 acquires the outside world information of the mobile robot 200. The outside world information is information on the actual surrounding environment in the observation area of the outside world sensor 230, for example, information such as the distance between an object (object) arranged in the surrounding environment and the mobile robot 200 (second). Information). As the outside world sensor 230, a camera, an optical distance measuring sensor that measures a distance by a TOF (Time Of Flight) method, or the like can be used. The outside world information acquired by the outside world sensor 230 is sent to the likelihood calculation unit 260. The external sensor 230 may be referred to as a second sensor.

<座標変換部>
座標変換部240は、ロボット側通信部210から環境情報を受け取る。座標変換部240は、環境情報の座標を、移動ロボット200の地図情報の座標に合わせるように変換する。環境情報の座標を移動ロボット200の地図情報の座標に合わせる変換は、環境センサ301、302、303の設置位置の座標を予め座標変換部240に与えることで行っている。座標変換部240で座標変換された環境情報は、地図情報更新部270に送られる。
<Coordinate conversion unit>
The coordinate conversion unit 240 receives environmental information from the robot-side communication unit 210. The coordinate conversion unit 240 converts the coordinates of the environmental information so as to match the coordinates of the map information of the mobile robot 200. The conversion to match the coordinates of the environmental information with the coordinates of the map information of the mobile robot 200 is performed by giving the coordinates of the installation positions of the environmental sensors 301, 302, and 303 to the coordinate conversion unit 240 in advance. The environment information whose coordinates have been converted by the coordinate conversion unit 240 is sent to the map information update unit 270.

<自己位置及び姿勢推定部>
自己位置及び姿勢推定部250は、内界センサ220によって取得された内界情報に基づいて、移動ロボット200の現在の自己位置及び姿勢を予測する。具体的には、自己位置及び姿勢推定部250は、内界センサ220によって得られた移動量に関する情報を用いて、地図情報記録部280に記録された移動ロボット200の過去の位置及び姿勢の情報から現在の予測される自己位置及び姿勢を計算する。計算された自己位置及び姿勢の情報は、尤度計算部260に送られ、自己位置及び姿勢推定部250で予測された自己位置及び姿勢から得られる見込みの予測外界情報を計算するのに用いられる。また、自己位置及び姿勢推定部250は、尤度計算部260から尤度情報を受け取る。自己位置及び姿勢推定部250は、尤度情報と予測した自己位置及び姿勢の情報に基づいて自己位置及び姿勢のズレを計算し、移動ロボット200の現在の自己位置及び姿勢を推定する。自己位置及び姿勢推定部250で推定された自己位置及び姿勢の情報は、地図情報記録部280に送られる。
<Self position and posture estimation unit>
The self-position and posture estimation unit 250 predicts the current self-position and posture of the mobile robot 200 based on the inside world information acquired by the inside world sensor 220. Specifically, the self-position and posture estimation unit 250 uses the information on the movement amount obtained by the internal sensor 220 to provide information on the past position and posture of the mobile robot 200 recorded in the map information recording unit 280. Calculate the current predicted self-position and attitude from. The calculated self-position and attitude information is sent to the likelihood calculation unit 260 and used to calculate the expected outside world information obtained from the self-position and attitude predicted by the self-position and attitude estimation unit 250. .. Further, the self-position and attitude estimation unit 250 receives the likelihood information from the likelihood calculation unit 260. The self-position and posture estimation unit 250 calculates the deviation of the self-position and posture based on the likelihood information and the predicted self-position and posture information, and estimates the current self-position and posture of the mobile robot 200. Information on the self-position and posture estimated by the self-position and posture estimation unit 250 is sent to the map information recording unit 280.

<尤度計算部>
尤度計算部260は、外界センサ230で得られた外界情報と、自己位置及び姿勢推定部250で予測された自己位置及び姿勢から計算された予測外界情報との対応度を計算し、尤度を計算する。尤度計算部260は、画像特徴量を用いて計算を行う方法や、点群としてICP(ITERATIVE CLOSEST POINT)法を用いて尤度の計算を行っている。尤度計算部260で計算された尤度の情報は、自己位置及び姿勢推定部250と地図情報記録部280とに送られる。
<Likelihood calculation unit>
The likelihood calculation unit 260 calculates the degree of correspondence between the external world information obtained by the external world sensor 230 and the predicted external world information calculated from the self-position and posture predicted by the self-position and posture estimation unit 250, and the likelihood is calculated. To calculate. The likelihood calculation unit 260 calculates the likelihood by using a method of performing a calculation using an image feature amount or an ICP (ITERATION CLOCKEST POINT) method as a point cloud. The likelihood information calculated by the likelihood calculation unit 260 is sent to the self-position and attitude estimation unit 250 and the map information recording unit 280.

<地図情報更新部>
地図情報更新部270は、環境センサ301、302、303の検出領域311、312、313と、外界センサ230の検出領域201とが重なる領域があるか否かを判断している。重なる領域があると判断した場合、地図情報更新部270は、環境センサ301、302、303で取得した環境情報に基づいて、重なる領域の地図情報の信頼度を更新する。具体的には、地図情報更新部270は、重なる領域の分散の値を小さくすることにより、重なる領域に関する地図情報の信頼度を上げている。
<Map information update department>
The map information updating unit 270 determines whether or not there is an area where the detection areas 311, 312, 313 of the environment sensors 301, 302, and 303 overlap with the detection area 201 of the outside world sensor 230. When it is determined that there is an overlapping area, the map information updating unit 270 updates the reliability of the map information of the overlapping area based on the environmental information acquired by the environmental sensors 301, 302, and 303. Specifically, the map information updating unit 270 increases the reliability of the map information regarding the overlapping areas by reducing the value of the variance of the overlapping areas.

「分散」について、図3を用いて説明する。
図3は、分散の定義を説明する図である。図3に示すように、移動ロボット200に搭載された外界センサ230から対象物(物体)400までの距離を測定した場合、測定した距離には、センサの分解能による精度の問題やノイズの問題によって誤差が生じる。本明細書において「分散」とは、この誤差の大きさを意味する。本明細書において、分散の値が大きいとは、誤差が大きく、地図情報の信頼度が低いことを示し、分散の値が小さいとは、誤差が小さく、地図情報の信頼度が高いことを示す。
"Dispersion" will be described with reference to FIG.
FIG. 3 is a diagram illustrating the definition of variance. As shown in FIG. 3, when the distance from the external sensor 230 mounted on the mobile robot 200 to the object (object) 400 is measured, the measured distance is due to the problem of accuracy due to the resolution of the sensor and the problem of noise. There will be an error. As used herein, the term "variance" means the magnitude of this error. In the present specification, a large variance value indicates a large error and low reliability of map information, and a small variance value indicates a small error and high reliability of map information. ..

また、地図情報更新部270は、座標変換部240から座標変換された環境情報を受け取り、受け取った環境情報に基づいて外界センサ230の検出領域201の外側の領域における環境の変化を検出する変化検出部を備える。変化検出部において、環境の変化を検出した場合、地図情報更新部270は、環境の変化を検出した領域に関する地図情報の信頼度を更新する。具体的には、地図情報更新部270は、移動ロボット200の地図情報に環境センサ301、302、303の環境情報を追加して、環境の変化を検出した領域に関する分散の値を大きくしている。これにより、地図情報更新部270は、環境の変化を検出した領域に関する地図情報の信頼度を下げている。 Further, the map information updating unit 270 receives coordinate-converted environmental information from the coordinate conversion unit 240, and detects changes in the environment in an area outside the detection area 201 of the external world sensor 230 based on the received environmental information. It has a part. When the change detection unit detects a change in the environment, the map information update unit 270 updates the reliability of the map information regarding the area where the change in the environment is detected. Specifically, the map information updating unit 270 adds the environmental information of the environmental sensors 301, 302, and 303 to the map information of the mobile robot 200 to increase the value of the variance regarding the region where the change in the environment is detected. .. As a result, the map information update unit 270 lowers the reliability of the map information regarding the area where the change in the environment is detected.

地図情報更新部270は、外界センサ230から得られた外界情報に基づき、外界センサ230の検出領域201を計算している。また、地図情報更新部270は、環境センサ301、302、303から得られた環境情報に基づき、環境センサ301、302、303の検出領域311、312、313を計算している。
地図情報更新部270で更新された地図情報は、地図情報記録部280に送られる。
The map information updating unit 270 calculates the detection area 201 of the outside world sensor 230 based on the outside world information obtained from the outside world sensor 230. Further, the map information updating unit 270 calculates the detection areas 311, 312, and 313 of the environmental sensors 301, 302, and 303 based on the environmental information obtained from the environmental sensors 301, 302, and 303.
The map information updated by the map information updating unit 270 is sent to the map information recording unit 280.

<地図情報記録部>
地図情報記録部280は、自己位置及び姿勢推定部250で推定された自己位置及び姿勢の情報と、尤度計算部260で算出された尤度情報と、地図情報更新部270で更新された地図情報を記録する。また、地図情報記録部280は、尤度情報と、外界センサ230で取得した外界情報と、自己位置及び姿勢推定部250によって推定された自己位置及び姿勢の情報に基づいて、地図情報の生成を行い、生成された地図情報を記録する。
<Map information recording department>
The map information recording unit 280 includes self-position and attitude information estimated by the self-position and attitude estimation unit 250, likelihood information calculated by the likelihood calculation unit 260, and a map updated by the map information update unit 270. Record the information. Further, the map information recording unit 280 generates map information based on the likelihood information, the outside world information acquired by the outside world sensor 230, and the self-position and attitude information estimated by the self-position and attitude estimation unit 250. And record the generated map information.

また、移動ロボット200は、1つ以上のCPU、1つ以上の主記憶、1つ以上の補助記憶を備える(図示せず)。 Further, the mobile robot 200 includes one or more CPUs, one or more main memories, and one or more auxiliary memories (not shown).

前述した移動ロボット200のCPUは、以下に説明する、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、地図情報記録部280などが行う、様々な演算処理を行う。 The CPU of the mobile robot 200 described above is variously performed by the coordinate conversion unit 240, the self-position and posture estimation unit 250, the likelihood calculation unit 260, the map information update unit 270, the map information recording unit 280, and the like, which will be described below. Perform arithmetic processing.

前述した移動ロボット200の主記憶は、前述したCPUが直接アクセスすることのできる記憶装置であり、DRAM、SRAM、フラッシュメモリ、ReRAM、FeRAM、MRAM、STT−RAM、PCRAM、等のメモリによって構成され得る。 The main memory of the mobile robot 200 described above is a storage device that can be directly accessed by the CPU described above, and may be composed of memories such as DRAM, SRAM, flash memory, ReRAM, FeRAM, MRAM, STT-RAM, and PCRAM. ..

前述した移動ロボット200の補助記憶は、前述した主記憶の内容を長期保存、コピーもしくはバックアップを行う記憶装置であり、HDD、フラッシュメモリ、光ディスク、磁気ディスク、等によって構成され得る。 The auxiliary storage of the mobile robot 200 described above is a storage device that stores, copies, or backs up the contents of the main storage described above for a long period of time, and may be composed of an HDD, a flash memory, an optical disk, a magnetic disk, or the like.

実施の形態1において、制御部は、メモリと、CPUなどのプロセッサに対応する処理回路とを備え、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、地図情報記録部280は、例えば、メモリに記憶されたこれらの要素を機能させるプログラムをプロセッサが実行することでこれらの要素を機能させてもよい。あるいは、座標変換部240、自己位置及び姿勢推定部250、尤度計算部260、地図情報更新部270、地図情報記録部280は、これらの要素を機能させる集積回路を用いて構成してもよい。 In the first embodiment, the control unit includes a memory and a processing circuit corresponding to a processor such as a CPU, and includes a coordinate conversion unit 240, a self-position and orientation estimation unit 250, a likelihood calculation unit 260, and a map information update unit 270. The map information recording unit 280 may function these elements by, for example, executing a program stored in the memory to function these elements by the processor. Alternatively, the coordinate conversion unit 240, the self-position and attitude estimation unit 250, the likelihood calculation unit 260, the map information update unit 270, and the map information recording unit 280 may be configured by using an integrated circuit that functions these elements. ..

[環境センサ]
次に、環境センサ301、302、303について説明する。
図4は、環境センサ301の構成を示すブロック図である。図4に示すように、環境センサ301は、環境情報取得部321と、環境センサ通信部331とを備える。環境センサ302、303については、環境センサ301と同様の構成を有するので説明を省略する。環境センサ301、302、303は、第3センサと称してもよい。
[Environmental sensor]
Next, the environment sensors 301, 302, and 303 will be described.
FIG. 4 is a block diagram showing the configuration of the environment sensor 301. As shown in FIG. 4, the environment sensor 301 includes an environment information acquisition unit 321 and an environment sensor communication unit 331. Since the environment sensors 302 and 303 have the same configuration as the environment sensor 301, the description thereof will be omitted. The environmental sensors 301, 302, and 303 may be referred to as a third sensor.

<環境情報取得部>
環境情報取得部321は、検出領域311内の環境情報(第3情報)を取得する。環境情報取得部321で得られた環境情報は、環境センサ通信部331に送られる。環境情報取得部321としては、例えば、光学式測距カメラを用いている。環境情報は、例えば、カメラによる映像情報及び深度等の情報である。
<Environmental information acquisition department>
The environmental information acquisition unit 321 acquires the environmental information (third information) in the detection area 311. The environmental information obtained by the environmental information acquisition unit 321 is sent to the environmental sensor communication unit 331. As the environmental information acquisition unit 321, for example, an optical ranging camera is used. The environmental information is, for example, information such as video information by a camera and depth.

<環境センサ通信部>
環境センサ通信部331は、移動ロボット200と通信を行い、環境情報取得部321で得られた環境情報を移動ロボット200に送る。具体的には、環境センサ通信部331は、環境情報取得部321で得られた環境情報を、ネットワーク110を介して、移動ロボット200のロボット側通信部210に送る。
<Environmental sensor communication unit>
The environment sensor communication unit 331 communicates with the mobile robot 200, and sends the environment information obtained by the environment information acquisition unit 321 to the mobile robot 200. Specifically, the environment sensor communication unit 331 sends the environment information obtained by the environment information acquisition unit 321 to the robot side communication unit 210 of the mobile robot 200 via the network 110.

[地図情報生成方法]
実施の形態1の移動ロボット200を用いて地図を生成する方法について説明する。
[Map information generation method]
A method of generating a map using the mobile robot 200 of the first embodiment will be described.

<地図情報の高精度化処理>
まず、地図情報を高精度化する処理について図5及び図6を用いて説明する。
図5は、移動ロボット200の地図情報を高精度化する動作の一例を上から見た図を示す。図5においては、壁面500に環境センサ301が配置されており、環境センサ301は、壁面500の内側領域(第1領域)の環境情報(第3情報)を取得している。この環境情報に基づいて、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)を取得している。移動ロボット200は、壁面500の内側領域を移動し、外界センサ230によって外界情報を取得している。
<High-precision processing of map information>
First, the process of improving the accuracy of the map information will be described with reference to FIGS. 5 and 6.
FIG. 5 shows an example of an operation for improving the accuracy of the map information of the mobile robot 200 as viewed from above. In FIG. 5, the environment sensor 301 is arranged on the wall surface 500, and the environment sensor 301 acquires the environment information (third information) of the inner region (first region) of the wall surface 500. Based on this environmental information, information (fifth information) indicating the detection area (third area) 311 of the environmental sensor 301 is acquired. The mobile robot 200 moves in the inner region of the wall surface 500 and acquires the outside world information by the outside world sensor 230.

図5に示すように、移動ロボット200の外界センサ230の検出領域201と、環境センサ301の検出領域311とが重なる領域においては、2つのセンサにより同一の領域を検出していることになる。実施の形態1においては、地図情報を高精度化するために、重なる領域に関する地図情報の信頼度を、外界センサ230で得られた情報と環境センサ301で得られた情報に基づいて更新している。具体的には、移動ロボット200の外界センサ230によって取得した外界情報から生成した地図情報に、環境センサ301の情報を追加することによって、重なる領域に関する地図情報の信頼度を上げている。 As shown in FIG. 5, in the region where the detection region 201 of the external sensor 230 of the mobile robot 200 and the detection region 311 of the environment sensor 301 overlap, the same region is detected by the two sensors. In the first embodiment, in order to improve the accuracy of the map information, the reliability of the map information regarding the overlapping area is updated based on the information obtained by the external world sensor 230 and the information obtained by the environmental sensor 301. There is. Specifically, by adding the information of the environment sensor 301 to the map information generated from the outside world information acquired by the outside world sensor 230 of the mobile robot 200, the reliability of the map information regarding the overlapping area is increased.

図6は、地図情報を高精度化する処理を示すフローチャートである。以下、図6を用いて、地図情報を高精度化する処理を説明する。なお、実施の形態1の処理においては、移動ロボット200の自己位置及び姿勢の推定、地図作成にEKF(Extended Kalman Filter)を用いている。また、信頼度として、地図情報の座標に該当する領域のランドマークが持つ共分散値の逆数を利用している。 FIG. 6 is a flowchart showing a process for improving the accuracy of map information. Hereinafter, the process of improving the accuracy of the map information will be described with reference to FIG. In the process of the first embodiment, EKF (Exted Kalman Filter) is used for estimating the self-position and posture of the mobile robot 200 and creating a map. Also, as the reliability, the reciprocal of the covariance value of the landmark in the area corresponding to the coordinates of the map information is used.

図6に示すように、ステップST101においては、内界センサ220によって得られた移動量に関する情報(第1情報)を用いて、移動ロボット200の自己位置及び姿勢を予測する。具体的には、自己位置及び姿勢推定部250が、移動量に関する情報と、地図情報記録部280に記録された過去の自己位置及び姿勢とから現在の自己位置及び姿勢を計算する。 As shown in FIG. 6, in step ST101, the self-position and posture of the mobile robot 200 are predicted by using the information (first information) regarding the movement amount obtained by the internal sensor 220. Specifically, the self-position and posture estimation unit 250 calculates the current self-position and posture from the information on the movement amount and the past self-position and posture recorded in the map information recording unit 280.

ステップST102においては、自己位置及び姿勢推定部250で予測された自己位置及び姿勢の情報から得られた予測外界情報と、外界センサ230から得られた外界情報(第2情報)とに基づいて尤度を計算する。具体的には、尤度計算部260が、ステップST101で予測された自己位置及び姿勢で得られる見込みの予測外界情報を計算する。そして、尤度計算部260は、予測外界情報と、実際に外界センサ230から得られた外界情報との対応度を計算することによって、尤度を計算する。 In step ST102, the likelihood is based on the predicted outside world information obtained from the self-position and posture information predicted by the self-position and posture estimation unit 250 and the outside world information (second information) obtained from the outside world sensor 230. Calculate the degree. Specifically, the likelihood calculation unit 260 calculates the expected outside world information obtained by the self-position and posture predicted in step ST101. Then, the likelihood calculation unit 260 calculates the likelihood by calculating the degree of correspondence between the predicted outside world information and the outside world information actually obtained from the outside world sensor 230.

ステップST103においては、ステップST102で得られた尤度の情報と、ステップST101で予測された自己位置及び姿勢の情報に基づいて、移動ロボット200の現在の自己位置及び姿勢を推定する。具体的には、自己位置及び姿勢推定部250が、尤度の情報とステップST101で予測した自己位置及び姿勢の情報に基づいて自己位置及び姿勢のズレを計算し、現在の自己位置及び姿勢を推定する。 In step ST103, the current self-position and posture of the mobile robot 200 are estimated based on the likelihood information obtained in step ST102 and the self-position and posture information predicted in step ST101. Specifically, the self-position and posture estimation unit 250 calculates the deviation of the self-position and posture based on the likelihood information and the self-position and posture information predicted in step ST101, and calculates the current self-position and posture. presume.

ステップST104においては、ステップST103で得られた移動ロボット200の現在の自己位置及び姿勢の情報と、外界情報とから地図情報を生成する。生成された地図情報は、地図情報記録部280に記録される。 In step ST104, map information is generated from the current self-position and posture information of the mobile robot 200 obtained in step ST103 and the outside world information. The generated map information is recorded in the map information recording unit 280.

ステップST105においては、ステップST103で得られた移動ロボット200の現在の自己位置及び姿勢の情報(第6情報)から、移動ロボット200の外界センサ230の検出領域(第2領域)201を計算する。これにより、移動ロボットの外界センサ230の検出領域201を示す情報(第4情報)を取得する。 In step ST105, the detection region (second region) 201 of the external world sensor 230 of the mobile robot 200 is calculated from the current self-position and posture information (sixth information) of the mobile robot 200 obtained in step ST103. As a result, information (fourth information) indicating the detection area 201 of the external world sensor 230 of the mobile robot is acquired.

ステップST106においては、ステップST105で得られた外界センサ230の検出領域201の情報(第4情報)と、環境センサ301の検出領域311の情報(第5情報)とに基づいて、検出領域(第2領域)201と検出領域(第3領域)311との間に重なる領域(第4領域)があるか否かを判断する。ステップST106では、座標変換部240で、環境センサ301で得られた環境情報の座標(第2座標系)を、移動ロボット200の地図情報の座標(第1座標系)に合わすように変換される。そして、座標変換された環境情報から環境センサ301の検出領域311が計算される。 In step ST106, the detection area (third information) is based on the information of the detection area 201 of the external sensor 230 (fourth information) obtained in step ST105 and the information of the detection area 311 of the environment sensor 301 (fifth information). It is determined whether or not there is an overlapping region (fourth region) between the two regions) 201 and the detection region (third region) 311. In step ST106, the coordinate conversion unit 240 converts the coordinates of the environment information (second coordinate system) obtained by the environment sensor 301 so as to match the coordinates of the map information of the mobile robot 200 (first coordinate system). .. Then, the detection area 311 of the environment sensor 301 is calculated from the coordinate-converted environment information.

ステップST106において、重なる領域(第4領域)があると判断された場合、処理がステップST107に移行する。ステップST106において、重なる領域がないと判断された場合、処理が終了する。 If it is determined in step ST106 that there is an overlapping region (fourth region), the process shifts to step ST107. If it is determined in step ST106 that there is no overlapping area, the process ends.

ステップST107においては、環境センサ301の情報を用いて、移動ロボット200の地図情報の信頼度を更新する。具体的には、地図情報更新部270が、環境センサ301の環境情報を追加することによって、重なる領域のうち物体を含む領域(第5領域)に関する地図情報の分散の値を小さくし、地図情報の信頼度を上げる。例えば、地図情報更新部270は、重なる領域内の物体の位置を示す位置情報の信頼度を更新することによって、壁面500の内側領域の地図情報を更新する。更新された地図情報は、地図情報記録部280に記録される。 In step ST107, the reliability of the map information of the mobile robot 200 is updated by using the information of the environment sensor 301. Specifically, the map information update unit 270 adds the environmental information of the environmental sensor 301 to reduce the value of the dispersion of the map information regarding the area including the object (fifth area) among the overlapping areas, and the map information. Increase the reliability of. For example, the map information updating unit 270 updates the map information of the inner region of the wall surface 500 by updating the reliability of the position information indicating the position of the object in the overlapping region. The updated map information is recorded in the map information recording unit 280.

実施の形態1に係る地図生成方法においては、上記の処理を行うことで地図情報の高精度化を実現している。なお、上記の説明は、1つの環境センサ301の検出領域311と、移動ロボット200の外界センサ230の検出領域201とが重なる場合について説明している。複数の環境センサの検出領域と、移動ロボット200の外界センサ230の検出領域201とが重なる場合は、重なる検出領域があると判断されたすべての環境センサについて、ステップST107が実行される。 In the map generation method according to the first embodiment, the map information is highly accurate by performing the above processing. The above description describes a case where the detection area 311 of one environment sensor 301 and the detection area 201 of the outside world sensor 230 of the mobile robot 200 overlap. When the detection areas of the plurality of environmental sensors and the detection areas 201 of the external sensor 230 of the mobile robot 200 overlap, step ST107 is executed for all the environmental sensors determined to have overlapping detection areas.

[外乱が発生した場合の地図情報の更新処理]
次に、周辺環境において、移動ロボット200の外界センサ230の検出領域201外で外乱により環境の変化が生じた場合における地図情報の更新処理について図7A、図7B、及び図8を用いて説明する。
[Map information update processing when a disturbance occurs]
Next, in the surrounding environment, the update process of the map information when the environment changes due to the disturbance outside the detection area 201 of the external sensor 230 of the mobile robot 200 will be described with reference to FIGS. 7A, 7B, and 8. ..

図7A及び図7Bは、環境の変化が生じた場合に移動ロボット200の地図情報を更新する動作の一例を上から見た図を示す。図7A及び図7Bにおいては、壁面500に環境センサ301が配置されており、環境センサ301は、壁面500の内側領域(第1領域)の環境情報(第3情報)を取得している。この環境情報に基づいて、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)を取得している。移動ロボット200は、壁面500の内側領域を移動し、外界センサ230により外界情報を取得している。 7A and 7B show an example of the operation of updating the map information of the mobile robot 200 when the environment changes, as viewed from above. In FIGS. 7A and 7B, the environment sensor 301 is arranged on the wall surface 500, and the environment sensor 301 acquires the environment information (third information) of the inner region (first region) of the wall surface 500. Based on this environmental information, information (fifth information) indicating the detection area (third area) 311 of the environmental sensor 301 is acquired. The mobile robot 200 moves in the inner region of the wall surface 500 and acquires the outside world information by the outside world sensor 230.

図7Aに示すように、移動ロボット200の外界センサ230の検出領域(第2領域)201外で対象物(物体)400が白矢印の方向に移動した場合、地図情報更新部270の変化検出部が、対象物400の移動した領域を環境の変化が生じた領域401として検出する。検出された領域401では、移動ロボット200に記録されている地図情報が実際の地図と異なるものとなり、対応しなくなる。そのため、移動ロボット200が、自身の記録している地図情報と外界センサ230で得られた情報に基づいて自己位置及び姿勢を推定しようとしても、自己位置及び姿勢を正しく推定することができなくなる。そこで、実施の形態1においては、環境の変化を検出した領域401に関する地図情報の分散の値を大きくし、地図情報の信頼度を下げる処理を行っている。 As shown in FIG. 7A, when the object (object) 400 moves in the direction of the white arrow outside the detection area (second area) 201 of the external sensor 230 of the mobile robot 200, the change detection unit of the map information update unit 270. However, the moved region of the object 400 is detected as the region 401 in which the environment has changed. In the detected area 401, the map information recorded in the mobile robot 200 will be different from the actual map and will not correspond. Therefore, even if the mobile robot 200 tries to estimate the self-position and the posture based on the map information recorded by itself and the information obtained by the external world sensor 230, the self-position and the posture cannot be estimated correctly. Therefore, in the first embodiment, a process is performed in which the value of the dispersion of the map information regarding the region 401 in which the change in the environment is detected is increased and the reliability of the map information is lowered.

図7Bに示すように、移動ロボット200の外界センサ230が環境の変化を検出した領域401の外界情報を取得するとき、領域401の地図情報の信頼度が下げられている。そのため、移動ロボット200は、環境の変化が検出された領域401以外の信頼度の高い部分の地図情報に基づいて、自己位置及び姿勢を推定する。また、環境の変化が検出された領域401については、上述した地図情報の高精度化処理によって信頼度の高い地図情報に更新することができる。 As shown in FIG. 7B, when the outside world sensor 230 of the mobile robot 200 acquires the outside world information of the area 401 that has detected the change in the environment, the reliability of the map information of the area 401 is lowered. Therefore, the mobile robot 200 estimates its own position and posture based on the map information of the highly reliable portion other than the region 401 in which the change in the environment is detected. Further, the area 401 in which the change in the environment is detected can be updated to highly reliable map information by the above-mentioned high-precision processing of the map information.

図8は、外乱により環境の変化が生じた場合の地図情報の更新処理を示すフローチャートである。以下、図8を用いて、移動ロボット200の外界センサ230の検出領域201外で外乱により環境の変化が生じた場合における地図情報の更新処理を説明する。 FIG. 8 is a flowchart showing a map information update process when the environment changes due to a disturbance. Hereinafter, using FIG. 8, the map information update process will be described when the environment changes due to disturbance outside the detection area 201 of the external sensor 230 of the mobile robot 200.

図8に示すように、ステップST201においては、移動ロボット200の現在の自己位置及び姿勢を読み出す。具体的には、地図情報記録部280に記録された移動ロボット200の現在の自己位置及び姿勢の情報を読み出す。ステップST201においての移動ロボット200の現在の自己位置及び姿勢とは、前述の図6に示すステップST103で推定された自己位置及び姿勢である。なお、ステップST201は、前述の図6のステップST101〜ST104に置き換えてもよい。 As shown in FIG. 8, in step ST201, the current self-position and posture of the mobile robot 200 are read out. Specifically, the information on the current self-position and posture of the mobile robot 200 recorded in the map information recording unit 280 is read out. The current self-position and posture of the mobile robot 200 in step ST201 are the self-position and posture estimated in step ST103 shown in FIG. 6 above. Note that step ST201 may be replaced with steps ST101 to ST104 of FIG. 6 described above.

ステップST202においては、ステップST201で読み出した移動ロボット200の現在の自己位置及び姿勢の情報(第6情報)から、移動ロボット200の外界センサ230の検出領域(第2領域)201を計算する。これにより、移動ロボットの外界センサ230の検出領域201を示す情報(第4情報)を取得する。 In step ST202, the detection area (second area) 201 of the external world sensor 230 of the mobile robot 200 is calculated from the current self-position and posture information (sixth information) of the mobile robot 200 read in step ST201. As a result, information (fourth information) indicating the detection area 201 of the external world sensor 230 of the mobile robot is acquired.

ステップST203においては、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)に基づいて、地図情報更新部270の変化検出部が環境の変化を検出する。具体的には、変化検出部が、環境センサ301の検出領域(第3領域)311を示す情報(第5情報)と過去の地図情報に基づいて、環境センサ301の検出領域311内で対象物400が移動する等の外乱により周辺環境が変化したか否かを検出する。また、ステップST203においては、環境の変化を検出した領域401を検出する。ステップST203では、環境の変化を検出した場合、処理がステップST204に移行し、環境の変化を検出しなかった場合、処理が終了する。 In step ST203, the change detection unit of the map information update unit 270 detects a change in the environment based on the information (fifth information) indicating the detection area (third area) 311 of the environment sensor 301. Specifically, the change detection unit makes an object in the detection area 311 of the environment sensor 301 based on the information (fifth information) indicating the detection area (third area) 311 of the environment sensor 301 and the past map information. It detects whether or not the surrounding environment has changed due to a disturbance such as the movement of the 400. Further, in step ST203, the region 401 in which the change in the environment is detected is detected. In step ST203, when a change in the environment is detected, the process proceeds to step ST204, and when no change in the environment is detected, the process ends.

ステップST204においては、環境センサ301の検出領域311内に移動ロボット200が存在するか否かを検出する。具体的には、移動ロボット200の現在の自己位置の情報を地図情報記録部280から読み出し、環境センサ301の検出領域311内に移動ロボット200が位置するか否かを判断する。ステップST204では、環境センサ301の検出領域311内に移動ロボット200が存在しない場合、処理がステップST205に移行する。環境センサ301の検出領域311内に移動ロボット200が存在する場合、処理が終了する。 In step ST204, it is detected whether or not the mobile robot 200 exists in the detection area 311 of the environment sensor 301. Specifically, the information on the current self-position of the mobile robot 200 is read from the map information recording unit 280, and it is determined whether or not the mobile robot 200 is located in the detection area 311 of the environment sensor 301. In step ST204, if the mobile robot 200 does not exist in the detection area 311 of the environment sensor 301, the process shifts to step ST205. When the mobile robot 200 exists in the detection area 311 of the environment sensor 301, the process ends.

ステップST205においては、ステップST202で得られた外界センサ230の検出領域201の情報(第4情報)と、環境センサ301の検出領域311の情報(第5情報)とに基づいて、検出領域(第2領域)201と検出領域(第3領域)311との間に重なる領域(第4領域)があるか否かを判断する。ステップST205では、重なる領域がないと判断された場合、処理がステップST206に移行し、重なる領域があると判断された場合、処理が終了する。 In step ST205, the detection area (third information) is based on the information of the detection area 201 of the external sensor 230 (fourth information) obtained in step ST202 and the information of the detection area 311 of the environment sensor 301 (fifth information). It is determined whether or not there is an overlapping region (fourth region) between the two regions) 201 and the detection region (third region) 311. In step ST205, if it is determined that there is no overlapping area, the process proceeds to step ST206, and if it is determined that there is an overlapping area, the process ends.

ステップST206においては、環境の変化を検出した領域401に関する地図情報が存在するか否かを判断する。具体的には、地図情報記録部280に環境の変化を検出した領域401に関する地図情報が記録されているか否かを判断する。ステップST206では、環境の変化を検出した領域401に関する地図情報が存在する場合、処理がステップST207に移行する。環境の変化を検出した領域401に関する地図情報が存在しない場合、処理が終了する。 In step ST206, it is determined whether or not there is map information regarding the area 401 in which the change in the environment is detected. Specifically, it is determined whether or not the map information recording unit 280 has recorded the map information regarding the area 401 in which the change in the environment is detected. In step ST206, if there is map information about the area 401 in which the change in the environment is detected, the process shifts to step ST207. If there is no map information about the area 401 that detected the change in the environment, the process ends.

ステップST207においては、環境の変化を検出した領域401に関する地図情報の信頼度を、環境センサ301の情報を用いて更新する。具体的には、地図情報更新部270が、環境の変化を検出した領域401に関する地図情報の分散の値を大きくし、環境の変化を検出した領域401に関する地図情報の信頼度を下げる。例えば、地図情報更新部270は、重なる領域内の物体が第1位置から第2位置へ変化したと判断した場合、重なる領域の地図情報の信頼度を更新することによって、壁面500の内側領域の地図情報を更新する。地図情報更新部270は、環境センサ301が検出した環境の変化の量に応じて、分散の値を大きくしている。 In step ST207, the reliability of the map information regarding the region 401 in which the change in the environment is detected is updated by using the information of the environment sensor 301. Specifically, the map information updating unit 270 increases the value of the dispersion of the map information regarding the area 401 that has detected the change in the environment, and lowers the reliability of the map information regarding the area 401 that has detected the change in the environment. For example, when the map information updating unit 270 determines that the object in the overlapping area has changed from the first position to the second position, the map information updating unit 270 updates the reliability of the map information in the overlapping area to update the reliability of the map information in the overlapping area, thereby forming the inner area of the wall surface 500. Update map information. The map information update unit 270 increases the value of the variance according to the amount of change in the environment detected by the environment sensor 301.

実施の形態1に係る地図生成方法においては、上記の処理を行うことで移動ロボット200の外界センサ230で直接観測できない領域で発生した外乱による環境の変化についても、地図情報へ反映することが可能となる。 In the map generation method according to the first embodiment, by performing the above processing, it is possible to reflect the change in the environment due to the disturbance generated in the area that cannot be directly observed by the external sensor 230 of the mobile robot 200 in the map information. It becomes.

[その他の地図更新処理]
実施の形態1に係る地図生成方法は、一度生成された地図情報において、移動ロボット200の外界センサ230が、所定の時間、外界情報の取得を行っていない領域に関する地図情報の分散の値を大きくする。地図情報を生成した後、所定の時間、外界情報の取得していない領域においては、環境の変化が生じている可能性がある。そのため、実施の形態1に係る地図生成方法では、一度生成した地図情報について、所定の時間、外界センサ230によって外界情報を取得していない場合に、その領域に関する地図情報の分散の値を大きくし、地図情報の信頼度を下げている。なお、所定の時間とは、地図情報を生成する領域の大きさ、移動ロボット200の移動速度等の条件によって任意に決定することができる。
[Other map update processing]
In the map generation method according to the first embodiment, in the map information once generated, the value of the dispersion of the map information regarding the area where the outside world sensor 230 of the mobile robot 200 has not acquired the outside world information for a predetermined time is increased. To do. After the map information is generated, there is a possibility that the environment has changed in the area where the outside world information has not been acquired for a predetermined time. Therefore, in the map generation method according to the first embodiment, when the outside world information is not acquired by the outside world sensor 230 for a predetermined time for the once generated map information, the value of the dispersion of the map information regarding the area is increased. , The reliability of map information is lowered. The predetermined time can be arbitrarily determined depending on conditions such as the size of the area for generating the map information and the moving speed of the mobile robot 200.

[効果]
実施の形態1に係る地図生成方法及び移動ロボット200によれば、以下の効果を奏することができる。
[effect]
According to the map generation method and the mobile robot 200 according to the first embodiment, the following effects can be obtained.

実施の形態1に係る地図生成方法及び移動ロボット200は、移動ロボット200の外界センサ230の検出領域201と環境センサ301の検出領域311とが重なる領域に関する地図情報の分散の値を小さくすることによって、地図情報の信頼度を上げている。このように、実施の形態1では、移動ロボット200の外界センサ230で取得した情報と環境センサ301で取得した情報とを合わせて地図情報を作成することによって、地図情報を精度高く生成することができる。 The map generation method and the mobile robot 200 according to the first embodiment reduce the value of the distribution of the map information regarding the area where the detection area 201 of the external sensor 230 of the mobile robot 200 and the detection area 311 of the environment sensor 301 overlap. , The reliability of map information is increasing. As described above, in the first embodiment, the map information can be generated with high accuracy by creating the map information by combining the information acquired by the external sensor 230 of the mobile robot 200 and the information acquired by the environment sensor 301. it can.

実施の形態1によれば、移動ロボット200の外界センサ230の検出領域201外において、環境の変化を検出した領域401に関する地図情報の分散の値を下げることによって、領域401に関する地図情報の信頼度を下げている。このため、移動ロボット200は、環境の変化が生じた信頼度の低い部分の地図情報を使用せず、信頼度の高い部分の地図情報を使用して、自己位置及び姿勢を推定することができる。このように、実施の形態1の地図生成方法及び移動ロボット200は、外乱による環境の変化があった場合においても、移動ロボット200の自己位置及び姿勢をロバストに推定することができる。そのため、実施の形態1の地図生成方法及び移動ロボット200は、外乱により環境の変化が生じても、環境の変化が生じた領域の地図情報を修正し、地図情報を精度高く生成することができる。また、環境の変化を検出した領域401においては、移動ロボット200の外界センサ230と環境センサ301によって、高精度な地図情報を短時間で再構築することができる。 According to the first embodiment, the reliability of the map information regarding the area 401 is reduced by lowering the value of the dispersion of the map information about the area 401 where the change in the environment is detected outside the detection area 201 of the external sensor 230 of the mobile robot 200. Is lowered. Therefore, the mobile robot 200 can estimate its own position and posture by using the map information of the highly reliable portion without using the map information of the unreliable portion where the environment has changed. .. As described above, the map generation method and the mobile robot 200 of the first embodiment can robustly estimate the self-position and the posture of the mobile robot 200 even when the environment is changed due to the disturbance. Therefore, even if the environment changes due to the disturbance, the map generation method and the mobile robot 200 of the first embodiment can correct the map information of the area where the environment change has occurred and generate the map information with high accuracy. .. Further, in the area 401 where the change in the environment is detected, the highly accurate map information can be reconstructed in a short time by the outside world sensor 230 and the environment sensor 301 of the mobile robot 200.

また、環境の変化の量に応じて、環境の変化を検出した領域401に関する地図情報の分散の値を大きくすることによって、移動ロボット200の自己位置及び姿勢をより正確に推定することができる。 Further, the self-position and posture of the mobile robot 200 can be estimated more accurately by increasing the value of the dispersion of the map information regarding the region 401 in which the change in the environment is detected according to the amount of the change in the environment.

実施の形態1によれば、環境の変化を検出したときに、移動ロボット200の外界センサ230の検出領域201と、環境センサ301の検出領域311とが、重ならない場合に、環境の変化を検出した領域401に関する地図情報の信頼度を更新している。このため、移動ロボット200の死角で生じた環境の変化を検出し、環境の変化が生じた領域を、移動ロボット200の地図情報に反映することができる According to the first embodiment, when the change in the environment is detected, the change in the environment is detected when the detection area 201 of the external sensor 230 of the mobile robot 200 and the detection area 311 of the environment sensor 301 do not overlap. The reliability of the map information related to the created area 401 is updated. Therefore, the change in the environment caused by the blind spot of the mobile robot 200 can be detected, and the area where the change in the environment has occurred can be reflected in the map information of the mobile robot 200.

実施の形態1によれば、一度地図情報を生成した後、所定の時間、外界センサ230により外界情報の取得を行っていない領域については、環境の変化が生じている可能性を考慮して、分散の値を大きくし、その領域に関する地図情報の信頼度を下げている。そのため、実施の形態1の地図生成方法及び移動ロボット200では、更に移動ロボット200の自己位置及び姿勢をロバストに推定することができる。 According to the first embodiment, in the area where the outside world information is not acquired by the outside world sensor 230 for a predetermined time after the map information is generated once, in consideration of the possibility that the environment has changed, the environment may be changed. The value of the variance is increased and the reliability of the map information about the area is decreased. Therefore, in the map generation method and the mobile robot 200 of the first embodiment, the self-position and the posture of the mobile robot 200 can be robustly estimated.

なお、実施の形態1では、移動ロボット200と環境センサ301、302、303がネットワーク110を介して通信する構成について説明したが、これに限定されない。例えば、ネットワーク110を介して移動ロボット200と環境センサ301、302、303と通信するサーバを備えたシステムの構成であってもよい。このようなシステムの構成において、図6及び図8に示す各ステップの処理は、サーバ側で実行されてもよい。即ち、サーバが自己位置及び姿勢推定部250と地図情報更新部270を備えてもよい。例えば、サーバは、環境センサ301、302、303から得られた環境情報と、移動ロボット200から取得した外界情報及び内界情報を、ネットワークを介して取得する。そして、サーバは、取得した情報に基づいて、地図情報の高精度化処理又は外乱が発生した場合の地図情報の更新処理を行ってもよい。 In the first embodiment, the configuration in which the mobile robot 200 and the environmental sensors 301, 302, and 303 communicate with each other via the network 110 has been described, but the present invention is not limited to this. For example, the system may be configured to include a server that communicates with the mobile robot 200 and the environmental sensors 301, 302, and 303 via the network 110. In such a system configuration, the processing of each step shown in FIGS. 6 and 8 may be executed on the server side. That is, the server may include a self-position and attitude estimation unit 250 and a map information update unit 270. For example, the server acquires the environmental information obtained from the environmental sensors 301, 302, and 303, and the external world information and the internal world information acquired from the mobile robot 200 via the network. Then, the server may perform high-precision processing of the map information or update processing of the map information when a disturbance occurs, based on the acquired information.

実施の形態1では、環境センサ301の環境情報に基づいて、地図情報更新部270の変化検出部が環境の変化を検出する例について説明したが、これに限定されない。例えば、環境の変化の検出については、環境センサ301、302、303で行ってもよい。 In the first embodiment, an example in which the change detection unit of the map information update unit 270 detects a change in the environment based on the environmental information of the environment sensor 301 has been described, but the present invention is not limited to this. For example, environmental sensors 301, 302, and 303 may be used to detect changes in the environment.

実施の形態1では、環境センサ301、302、303から得られた環境情報に基づいて、地図情報の精度向上を実施したが、これに限定されない。例えば、測距センサを環境センサ301、302、303として利用する場合、自己位置及び姿勢の情報に対して尤度計算の処理を行うことで、移動ロボット200の自己位置及び姿勢情報の精度を高めることができる。 In the first embodiment, the accuracy of the map information is improved based on the environmental information obtained from the environmental sensors 301, 302, and 303, but the accuracy is not limited to this. For example, when the distance measuring sensor is used as the environment sensors 301, 302, 303, the accuracy of the self-position and posture information of the mobile robot 200 is improved by performing the likelihood calculation process on the self-position and posture information. be able to.

実施の形態1では、座標変換部240は、環境センサ301、302、303の設置位置を予め取得しておくことで環境情報の座標を移動ロボット200の地図情報の座標へと変換しているが、これに限定されない。例えば、環境センサ301、302、303において、移動ロボット200を捉え、その際、自己位置及び姿勢推定部250が推定した位置情報と環境センサ301、302、303において捉えた座標に基づいて変換パラメータを推定してもよい。例えば、2次元平面を移動する移動ロボット200の場合、座標変換部240は、環境情報を射影変換することで移動ロボット200の地図情報の座標へと変換することができる。 In the first embodiment, the coordinate conversion unit 240 converts the coordinates of the environmental information into the coordinates of the map information of the mobile robot 200 by acquiring the installation positions of the environmental sensors 301, 302, and 303 in advance. , Not limited to this. For example, the environment sensors 301, 302, and 303 capture the mobile robot 200, and at that time, the conversion parameters are set based on the position information estimated by the self-position and posture estimation unit 250 and the coordinates captured by the environment sensors 301, 302, 303. You may estimate. For example, in the case of the mobile robot 200 that moves in a two-dimensional plane, the coordinate conversion unit 240 can convert the environment information into the coordinates of the map information of the mobile robot 200 by projective conversion.

実施の形態1では、環境センサ301、302、303は、周辺環境に所定の間隔で固定して配置される例について説明したが、これに限定されない。例えば、環境センサは、時間に応じて設置角度を変更する首振り式のセンサ等のように、検出領域を変更可能なセンサであってもよい。検出領域を変更可能な環境センサは、より広い範囲の環境情報を取得することができる。また、首つり式のセンサの場合、環境情報取得時の設置角度を座標変換部240に通知することで、環境情報の座標を、移動ロボット200の地図情報の座標に変換可能である。 In the first embodiment, an example in which the environment sensors 301, 302, and 303 are fixedly arranged in the surrounding environment at predetermined intervals has been described, but the present invention is not limited thereto. For example, the environmental sensor may be a sensor whose detection area can be changed, such as a swing-type sensor that changes the installation angle according to time. An environmental sensor whose detection area can be changed can acquire a wider range of environmental information. Further, in the case of the hanging type sensor, the coordinates of the environmental information can be converted into the coordinates of the map information of the mobile robot 200 by notifying the coordinate conversion unit 240 of the installation angle at the time of acquiring the environmental information.

実施の形態1では、内界センサ220及び外界センサ230は、それぞれ1つを備える構成について説明したが、これに限定されない。内界センサ220及び外界センサ230は、それぞれ少なくとも1つ以上備えていればよい。複数の内界センサ220及び複数の外界センサ230を用いることによって、より多くの内界情報及び外界情報を取得することができるため、移動ロボット200の自己位置及び姿勢をより精度高く推定することができる。 In the first embodiment, the configuration in which the inner world sensor 220 and the outer world sensor 230 each include one is described, but the present invention is not limited thereto. The inner world sensor 220 and the outer world sensor 230 may be provided with at least one or more of each. By using the plurality of internal world sensors 220 and the plurality of external world sensors 230, more internal world information and external world information can be acquired, so that the self-position and posture of the mobile robot 200 can be estimated with higher accuracy. it can.

実施の形態1では、内界センサ220として加速度センサ、角速度センサを説明したが、これに限定されない。内界センサ220としては、例えば、磁場センサ、カメラを用いたVisual Odmetory等であってもよい。 In the first embodiment, the acceleration sensor and the angular velocity sensor have been described as the internal sensor 220, but the present invention is not limited to this. The internal sensor 220 may be, for example, a magnetic field sensor, a visual odometry using a camera, or the like.

実施の形態1では、3つの環境センサ301、302、303を用いた構成について説明したが、環境センサは、少なくとも1つ以上備えていればよい。環境センサの数は、地図情報を生成する領域や、周辺環境の複雑さなど様々な条件によって決定してもよい。複数の環境センサを用いることによって、より多くの環境情報を取得することができるため、より高精度な地図情報を生成することができる。 In the first embodiment, the configuration using the three environmental sensors 301, 302, and 303 has been described, but at least one environmental sensor may be provided. The number of environmental sensors may be determined by various conditions such as an area for generating map information and the complexity of the surrounding environment. By using a plurality of environmental sensors, more environmental information can be acquired, so that more accurate map information can be generated.

実施の形態1において、生成される地図情報は、2次元の地図情報であってもよいし、3次元の地図情報であってもよい。地図情報は、障害物位置の座標と各軸方向の分散量を併せ持つ情報を意味している。地図情報は、例えば、グリッドマップ、線図、点図等で視覚的に表すことができる。 In the first embodiment, the generated map information may be two-dimensional map information or three-dimensional map information. The map information means information having both the coordinates of the obstacle position and the amount of dispersion in each axial direction. The map information can be visually represented by, for example, a grid map, a line diagram, a point diagram, or the like.

実施の形態1では、1つの移動ロボット200で地図を生成する例について説明したが、移動ロボットは、少なくとも1つ以上備えていればよい。複数の移動ロボットを使用する場合、短時間で高精度な地図情報を生成することができる。 In the first embodiment, an example in which one mobile robot 200 generates a map has been described, but at least one mobile robot may be provided. When a plurality of mobile robots are used, highly accurate map information can be generated in a short time.

また、複数の移動ロボットを使用する場合、それぞれの移動ロボットに搭載された外界センサ230を環境センサとして使用することもできる。したがって、それぞれの移動ロボットの外界センサ230によって取得された外界情報は、自己位置及び姿勢を推定するために使用すると共に、周辺環境の環境情報として使用することができる。このような構成によって、更に短時間で高精度な地図情報を生成することができる。 Further, when a plurality of mobile robots are used, the external world sensor 230 mounted on each mobile robot can also be used as an environmental sensor. Therefore, the outside world information acquired by the outside world sensor 230 of each mobile robot can be used for estimating the self-position and the posture, and can also be used as the environment information of the surrounding environment. With such a configuration, highly accurate map information can be generated in a shorter time.

複数のロボットによって地図情報を共有し処理することは、広範囲の地図を高頻度で更新することが可能になる。そのため、複数のロボットを使用する場合では、例えば、監視業務などに有用である。また、位置が固定された環境センサで観測できない領域に対して、図6に示す地図情報の高精度化処理及び図8に示す外乱が発生した場合の地図情報の更新処理を行うことができる。そのため、複数のロボットを使用する場合では、環境センサの死角領域での地図情報の高精度化を図ることができる。 Sharing and processing map information by multiple robots makes it possible to update a wide range of maps with high frequency. Therefore, when a plurality of robots are used, it is useful for, for example, monitoring work. Further, it is possible to perform high-precision processing of the map information shown in FIG. 6 and update processing of the map information when a disturbance shown in FIG. 8 occurs in a region that cannot be observed by the environmental sensor whose position is fixed. Therefore, when a plurality of robots are used, it is possible to improve the accuracy of the map information in the blind spot area of the environmental sensor.

なお、実施の形態1の地図生成方法は、移動ロボット200に予め地図情報を与えない処理について説明したが、これに限定されない。例えば、移動ロボット200に予め地図情報を与えておき、地図情報を更新していく処理であってもよい。 The map generation method of the first embodiment has described the process of not giving the map information to the mobile robot 200 in advance, but the method is not limited to this. For example, the process may be a process in which map information is given to the mobile robot 200 in advance and the map information is updated.

実施の形態1において、図6及び図8に示される各処理を詳細に説明したが、本開示は、これらの処理に限定されるものではない。図6及び図8に示す処理は、一例であって、いくつかの処理を省略してもよいし、公知の処理を追加してもよい。 Although each process shown in FIGS. 6 and 8 has been described in detail in the first embodiment, the present disclosure is not limited to these processes. The processes shown in FIGS. 6 and 8 are examples, and some processes may be omitted or known processes may be added.

実施の形態1において、ステップST205において、重なる領域があると判断された場合、処理が終了する例について説明したが、これに限定されない。例えば、ステップST205においては、重なる領域について、上述した地図情報の高精度化処理を行ってもよい。 In the first embodiment, an example in which the processing is terminated when it is determined in step ST205 that there is an overlapping region has been described, but the present invention is not limited to this. For example, in step ST205, the above-mentioned high-precision map information processing may be performed on the overlapping regions.

本開示は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した特許請求の範囲による本開示の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。例えば、移動ロボットは、車両であってもよく、環境センサは、監視カメラであってもよい。また、外界センサおよび環境センサは、LRF(Laser Range Finder)、LIDAR(Laser Imaging Detection and Ranging)、カメラ、深度カメラ、ステレオカメラ、RADAR、TOF(Time of Flight)であってもよい。 Although the present disclosure has been fully described in connection with preferred embodiments with reference to the accompanying drawings, various modifications and modifications are obvious to those skilled in the art. It should be understood that such modifications and amendments are included within the scope of the present disclosure by the appended claims. For example, the mobile robot may be a vehicle, and the environmental sensor may be a surveillance camera. Further, the external world sensor and the environment sensor may be LRF (Laser Range Finder), LIDAR (Laser Imaging Detection and Ranger), a camera, a depth camera, a stereo camera, RADAR, and TOF (Time of Flight).

本開示は、外乱の多い環境において自律移動するロボットの位置認識として有用である。また、本開示は、障害物の多い環境を移動するインフラ検査、海洋探査むけロボットに適用し、位置認識と同時に地図を作成する場合にも有用である。 The present disclosure is useful as position recognition of an autonomously moving robot in an environment with a lot of disturbance. The present disclosure is also useful when applied to infrastructure inspections and robots for ocean exploration that move in an environment with many obstacles, and to create a map at the same time as position recognition.

100 地図生成システム
110 ネットワーク
200 移動ロボット
201 検出領域
210 ロボット側通信部
220 内界センサ
230 外界センサ
240 座標変換部
250 自己位置及び姿勢推定部
260 尤度計算部
270 地図情報更新部
280 地図情報記録部
301、302、303 環境センサ
311、312、313 検出領域
321 環境情報取得部
331 環境センサ通信部
400 対象物
401 領域
500 壁面
100 Map generation system 110 Network 200 Mobile robot 201 Detection area 210 Robot side communication unit 220 Internal sensor 230 External sensor 240 Coordinate conversion unit 250 Self-position and posture estimation unit 260 Probability calculation unit 270 Map information update unit 280 Map information recording unit 301, 302, 303 Environmental sensor 311, 312, 313 Detection area 321 Environmental information acquisition unit 331 Environmental sensor communication unit 400 Object 401 Area 500 Wall surface

Claims (19)

第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、
前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、
前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、
前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、
前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、
前記第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報を取得し、
前記第4情報と前記第5情報に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否か判断し、
前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記第1移動ロボットに予め格納された前記第1領域の地図情報を更新する、
地図生成方法。
A map generation method performed by a first mobile robot equipped with a first sensor and a second sensor that moves in a first area.
The first information is acquired from the first sensor, and the first information includes information indicating the amount of movement of the first mobile robot.
The second information is acquired from the second sensor, and the second information includes information indicating the distance from the first object existing in the observation area of the first mobile robot to the first mobile robot.
The third information is acquired from the third sensor installed in the first region, and the third information includes the video information in the observation region of the third sensor.
The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, is acquired.
Acquiring the fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information,
Based on the 4th information and the 5th information, it is determined whether or not there is a 4th region which is a region where the 2nd region and the 3rd region overlap.
When it is determined that the fourth region exists, the map information of the first region stored in advance in the first mobile robot is updated for the fifth region including the first object in the fourth region.
Map generation method.
さらに、
前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、
前記第4情報は、前記第6情報に基づいて計算される、
請求項1に記載の地図生成方法。
further,
Based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the sixth information is estimated.
The fourth information is calculated based on the sixth information.
The map generation method according to claim 1.
前記第1物体の位置を示す第1位置情報の信頼度を更新することで、前記第1領域の地図情報が更新される、
請求項1に記載の地図生成方法。
By updating the reliability of the first position information indicating the position of the first object, the map information of the first area is updated.
The map generation method according to claim 1.
前記第1位置情報の第1分散値を、前記第1分散値より小さい第2分散値に更新することで、前記第1位置情報の信頼度が更新される、
請求項3に記載の地図生成方法。
By updating the first variance value of the first position information to a second variance value smaller than the first variance value, the reliability of the first position information is updated.
The map generation method according to claim 3.
前記第3センサは、前記第1領域に配置されており、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項1に記載の地図生成方法。
The third sensor is arranged in the first region.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 1.
前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項1に記載の地図生成方法。
The third sensor is provided in a second mobile robot different from the first mobile robot.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system of the second mobile robot.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 1.
第1領域を移動し、第1センサおよび第2センサを備える第1移動ロボットが行う地図生成方法であって、
前記第1センサから第1情報を取得し、前記第1情報は前記第1移動ロボットの移動量を示す情報を含み、
前記第2センサから第2情報を取得し、前記第2情報は前記第1移動ロボットの観測領域に存在する第1物体から前記第1移動ロボットまでの距離を示す情報を含み、
前記第1領域に設置された第3センサから第3情報を取得し、前記第3情報は前記第3センサの観測領域における映像情報を含み、
前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報を取得し、
前記3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報を取得し、
前記第4情報と前記第5情報と前記第1移動ロボットに予め格納された前記第1領域の地図情報に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否か判断し、
前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合は、前記第4領域について、前記第1領域の地図情報を更新する、
地図生成方法。
A map generation method performed by a first mobile robot equipped with a first sensor and a second sensor that moves in a first area.
The first information is acquired from the first sensor, and the first information includes information indicating the amount of movement of the first mobile robot.
The second information is acquired from the second sensor, and the second information includes information indicating the distance from the first object existing in the observation area of the first mobile robot to the first mobile robot.
The third information is acquired from the third sensor installed in the first region, and the third information includes the video information in the observation region of the third sensor.
The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, is acquired.
The fifth information indicating the third region which is the detection region of the third sensor calculated based on the three information is acquired, and the fifth information is acquired.
Based on the fourth information, the fifth information, and the map information of the first region stored in advance in the first mobile robot, the fourth region outside the second region and included in the third region Judging whether the existing second object has changed from the first position to the second position,
When it is determined that the second object has changed from the first position to the second position, the map information of the first area is updated for the fourth area.
Map generation method.
さらに、
前記第1情報と前記第2情報に基づいて、前記第1移動ロボットの現在位置と姿勢を示す第6情報を推定し、
前記第4情報は、前記第6情報に基づいて計算される、
請求項7に記載の地図生成方法。
further,
Based on the first information and the second information, the sixth information indicating the current position and posture of the first mobile robot is estimated, and the sixth information is estimated.
The fourth information is calculated based on the sixth information.
The map generation method according to claim 7.
前記第2物体の位置を示す第1位置情報の信頼度を更新することで、前記第4領域の地図情報が更新される、
請求項7に記載の地図生成方法。
By updating the reliability of the first position information indicating the position of the second object, the map information of the fourth area is updated.
The map generation method according to claim 7.
前記第1位置情報の第1分散値を、前記第1分散値より大きい第2分散値に更新することで、前記第1位置情報の信頼度が更新される、
請求項9に記載の地図生成方法。
By updating the first variance value of the first position information to a second variance value larger than the first variance value, the reliability of the first position information is updated.
The map generation method according to claim 9.
前記第1位置から前記第2位置の変化量に応じて、前記第2分散値は前記第1分散値より大きくされる、
請求項10に記載の地図生成方法。
The second dispersion value is made larger than the first dispersion value according to the amount of change from the first position to the second position.
The map generation method according to claim 10.
前記第1移動ロボットの現在位置が前記第3領域に存在せず、前記第2領域と前記第3領域とが重ならない場合に、前記第4領域について、前記第1領域の地図情報が更新される、
請求項8に記載の地図生成方法。
When the current position of the first mobile robot does not exist in the third region and the second region and the third region do not overlap, the map information of the first region is updated for the fourth region. ,
The map generation method according to claim 8.
前記第3センサは、前記第1領域に配置されており、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項7に記載の地図生成方法。
The third sensor is arranged in the first region.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 7.
前記第3センサは、前記第1移動ロボットとは異なる第2移動ロボットに備えられ、
前記第1領域の地図情報は第1座標系によって表現されており、
前記第5情報は前記第2移動ロボットの第2座標系によって表現されており、
さらに、
前記第2座標系を前記第1座標系に変換する、
請求項7に記載の地図生成方法。
The third sensor is provided in a second mobile robot different from the first mobile robot.
The map information of the first region is represented by the first coordinate system.
The fifth information is represented by the second coordinate system of the second mobile robot.
further,
Converting the second coordinate system to the first coordinate system,
The map generation method according to claim 7.
さらに、
前記第2センサから、所定時間前記第2情報の取得を行っていない第5領域について、前記地図情報について前記第5領域の第3分散値を前記第3分散値より大きい第4分散値に更新する、
請求項10に記載の地図生成方法。
further,
Regarding the fifth region in which the second information has not been acquired from the second sensor for a predetermined time, the third variance value of the fifth region is updated to a fourth variance value larger than the third variance value for the map information. To do,
The map generation method according to claim 10.
第1領域を移動する移動ロボットであって、
前記移動ロボットの移動量を示す第1情報を取得する第1センサと、
前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、
(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、
を備える、移動ロボット。
A mobile robot that moves in the first area
A first sensor that acquires first information indicating the amount of movement of the mobile robot, and
A second sensor that acquires second information indicating the distance from the first object existing in the observation area of the mobile robot to the mobile robot, and
(I) The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, and (ii) the second information installed in the first region. The second region and the second region are calculated based on the fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the three sensors. It is determined whether or not there is a fourth region that overlaps with the three regions, and if it is determined that the fourth region exists, the fifth region including the first object in the fourth region A map information update unit that updates the map information of the first area stored in advance in the mobile robot, and a map information update unit.
A mobile robot equipped with.
第1領域を移動する移動ロボットであって、
前記移動ロボットの移動量を示す第1情報を取得する第1センサと、
前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサと、
(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部と、
を備える、移動ロボット。
A mobile robot that moves in the first area
A first sensor that acquires first information indicating the amount of movement of the mobile robot, and
A second sensor that acquires second information indicating the distance from the first object existing in the observation area of the mobile robot to the mobile robot, and
(I) The first information, the fourth information indicating the second region which is the detection region of the second sensor calculated based on the first information, and (ii) the third information installed in the first region. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the sensor, and (iii) the third information stored in advance in the mobile robot. Based on the map information of one region, whether or not the second object outside the second region and existing in the fourth region included in the third region has changed from the first position to the second position. When it is determined that the second object has changed from the first position to the second position, the map information updating unit that updates the map information of the first area for the fourth area
A mobile robot equipped with.
第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、
前記第1領域に設置された第3センサと、
前記移動ロボット及び前記第3センサと通信するサーバと、
を備え、
前記サーバは、
(i)前記第1情報と前記第2情報に基づいて計算された、前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された、前記第3センサの検出領域である第3領域を示す第5情報と、に基づいて、前記第2領域と前記第3領域とが重なる領域である第4領域が存在するか否かを判断し、前記第4領域が存在すると判断された場合、前記第4領域のうち前記第1物体を含む第5領域について、前記移動ロボットに予め格納された前記第1領域の地図情報を更新する地図情報更新部と、
を有する、地図生成システム。
A mobile robot that moves in a first region, a first sensor that acquires first information indicating the amount of movement of the mobile robot, and a distance from a first object existing in the observation region of the mobile robot to the mobile robot. A mobile robot having a second sensor that acquires the second information indicating
With the third sensor installed in the first area,
A server that communicates with the mobile robot and the third sensor,
With
The server
(I) The fourth information indicating the second region, which is the detection region of the second sensor, calculated based on the first information and the second information, and (ii) the second information installed in the first region. The second region and the second region are calculated based on the fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the three sensors. It is determined whether or not there is a fourth region that overlaps with the three regions, and if it is determined that the fourth region exists, the fifth region including the first object in the fourth region A map information update unit that updates the map information of the first area stored in advance in the mobile robot, and a map information update unit.
Has a map generation system.
第1領域を移動する移動ロボットであって、前記移動ロボットの移動量を示す第1情報を取得する第1センサ、及び前記移動ロボットの観測領域に存在する第1物体から前記移動ロボットまでの距離を示す第2情報を取得する第2センサを有する移動ロボットと、
前記第1領域に設置された第3センサと、
前記移動ロボット及び前記第3センサと通信するサーバと、
を備え、
前記サーバは、
(i)前記第1情報と前記第2情報に基づいて計算された前記第2センサの検出領域である第2領域を示す第4情報と、(ii)前記第1領域に設置された第3センサの観測領域における映像情報を含む第3情報に基づいて計算された前記第3センサの検出領域である第3領域を示す第5情報と、(iii)前記移動ロボットに予め格納された前記第1領域の地図情報と、に基づいて、前記第2領域外であって前記第3領域に含まれる第4領域に存在する第2物体が第1位置から第2位置に変化したか否かを判断し、前記第2物体が前記第1位置から前記第2位置に変化したと判断された場合、前記第4領域について、前記第1領域の地図情報を更新する地図情報更新部、
を有する、地図生成システム。
A mobile robot that moves in a first region, a first sensor that acquires first information indicating the amount of movement of the mobile robot, and a distance from a first object existing in the observation region of the mobile robot to the mobile robot. A mobile robot having a second sensor that acquires the second information indicating
With the third sensor installed in the first area,
A server that communicates with the mobile robot and the third sensor,
With
The server
(I) The first information, the fourth information indicating the second region which is the detection region of the second sensor calculated based on the first information, and (ii) the third information installed in the first region. The fifth information indicating the third region, which is the detection region of the third sensor, calculated based on the third information including the video information in the observation region of the sensor, and (iii) the third information stored in advance in the mobile robot. Based on the map information of one region, whether or not the second object outside the second region and existing in the fourth region included in the third region has changed from the first position to the second position. When it is determined that the second object has changed from the first position to the second position, the map information update unit that updates the map information of the first area for the fourth area,
Has a map generation system.
JP2016123721A 2015-07-09 2016-06-22 Map generation method, mobile robot and map generation system Active JP6762148B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015137931 2015-07-09
JP2015137931 2015-07-09

Publications (2)

Publication Number Publication Date
JP2017021791A JP2017021791A (en) 2017-01-26
JP6762148B2 true JP6762148B2 (en) 2020-09-30

Family

ID=56853443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016123721A Active JP6762148B2 (en) 2015-07-09 2016-06-22 Map generation method, mobile robot and map generation system

Country Status (4)

Country Link
US (1) US10006772B2 (en)
EP (1) EP3118705B1 (en)
JP (1) JP6762148B2 (en)
CN (1) CN106339001B (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016101552A1 (en) * 2016-01-28 2017-08-03 Vorwerk & Co. Interholding Gmbh Method for creating an environment map for a self-moving processing device
US10180689B2 (en) * 2016-08-19 2019-01-15 Omega Patents, L.L.C. Vehicle system including security unit providing degradation commands via a vehicle data bus and related methods
KR102012550B1 (en) * 2017-02-20 2019-08-20 엘지전자 주식회사 Method of identifying unexpected obstacle and robot implementing thereof
WO2019039733A1 (en) * 2017-08-21 2019-02-28 (주)유진로봇 Moving object and combined sensor using camera and lidar
JP6825712B2 (en) * 2017-09-04 2021-02-03 日本電産株式会社 Mobiles, position estimators, and computer programs
WO2019044499A1 (en) * 2017-09-04 2019-03-07 日本電産株式会社 Mobile body, location estimation device, and computer program
JP6740988B2 (en) * 2017-09-26 2020-08-19 カシオ計算機株式会社 Map information providing device, portable map transmitting device, map information providing system, map information providing method and program
JP7051045B2 (en) * 2017-11-08 2022-04-11 オムロン株式会社 Mobile manipulators, control methods and programs for mobile manipulators
JP6402266B1 (en) * 2018-02-09 2018-10-10 ユニティガードシステム株式会社 Robot movement control system and movement control method
CN108469826B (en) * 2018-04-23 2021-06-08 宁波Gqy视讯股份有限公司 Robot-based map generation method and system
JP7075822B2 (en) * 2018-06-04 2022-05-26 パナソニックホールディングス株式会社 Map information update system
US11309947B2 (en) * 2018-11-19 2022-04-19 Facebook Technologies, Llc Systems and methods for maintaining directional wireless links of motile devices
KR102198187B1 (en) * 2018-12-28 2021-01-04 엘지전자 주식회사 Moving robot
DE102019111315A1 (en) * 2019-05-02 2020-11-05 Horsch Leeb Application Systems Gmbh Autonomous agricultural work machine and method of operating it
CN111240322B (en) * 2020-01-09 2020-12-29 珠海市一微半导体有限公司 Method for determining working starting point of robot movement limiting frame and motion control method
JP2021128207A (en) * 2020-02-12 2021-09-02 本田技研工業株式会社 Map creation device, map creation system, map creation method, and program
CN113449054B (en) * 2020-03-27 2023-08-04 杭州海康机器人股份有限公司 Map switching method and mobile robot
EP3958086A1 (en) * 2020-08-19 2022-02-23 Carnegie Robotics, LLC A method and a system of improving a map for a robot
JP7366373B2 (en) * 2020-10-02 2023-10-23 本田技研工業株式会社 Mobile object control device, mobile object, mobile object control method, and program
JP2022189605A (en) * 2021-06-11 2022-12-22 ソニーグループ株式会社 Information processor, information processing method, and computer program
CN113783945A (en) * 2021-08-25 2021-12-10 深圳拓邦股份有限公司 Map synchronization method and device for mobile robot and mobile robot
CN113907645A (en) * 2021-09-23 2022-01-11 追觅创新科技(苏州)有限公司 Mobile robot positioning method and device, storage medium and electronic device
CN116594408B (en) * 2023-07-17 2023-10-13 深圳墨影科技有限公司 Mobile collaborative robot path planning system and method

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US8483881B2 (en) * 2005-09-02 2013-07-09 Neato Robotics, Inc. Localization and mapping system and method for a robotic device
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface
US8965578B2 (en) * 2006-07-05 2015-02-24 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
CN101033971B (en) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 Mobile robot map building system and map building method thereof
US20090082879A1 (en) * 2007-09-20 2009-03-26 Evolution Robotics Transferable intelligent control device
KR100955483B1 (en) * 2008-08-12 2010-04-30 삼성전자주식회사 Method of building 3d grid map and method of controlling auto travelling apparatus using the same
WO2010038353A1 (en) * 2008-10-01 2010-04-08 村田機械株式会社 Autonomous movement device
CN104970741B (en) * 2009-11-06 2017-08-29 艾罗伯特公司 Method and system for surface to be completely covered by autonomous humanoid robot
JP5393413B2 (en) 2009-11-19 2014-01-22 三菱重工業株式会社 Autonomous traveling vehicle and autonomous traveling method
KR101906329B1 (en) * 2010-12-15 2018-12-07 한국전자통신연구원 Apparatus and method for indoor localization based on camera
US9056754B2 (en) * 2011-09-07 2015-06-16 Crown Equipment Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
WO2013071190A1 (en) * 2011-11-11 2013-05-16 Evolution Robotics, Inc. Scaling vector field slam to large environments
KR20130056586A (en) * 2011-11-22 2013-05-30 한국전자통신연구원 Method and apparatus for building map by using collective intelligent robots
KR101380852B1 (en) * 2012-05-30 2014-04-10 서울대학교산학협력단 Slam system and method for mobile robots with environment picture input from user
CN102831446A (en) * 2012-08-20 2012-12-19 南京邮电大学 Image appearance based loop closure detecting method in monocular vision SLAM (simultaneous localization and mapping)
US9953618B2 (en) * 2012-11-02 2018-04-24 Qualcomm Incorporated Using a plurality of sensors for mapping and localization
CN103885443B (en) * 2012-12-20 2017-02-08 联想(北京)有限公司 Device, system and method for simultaneous localization and mapping unit
CN103901884B (en) * 2012-12-25 2017-09-29 联想(北京)有限公司 Information processing method and message processing device
JP6233706B2 (en) * 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 Autonomous mobile device and self-position estimation method of autonomous mobile device
KR101448786B1 (en) * 2013-05-22 2014-10-13 현대자동차 주식회사 Smart parking assistant system and parking balance method
CN103901891A (en) * 2014-04-12 2014-07-02 复旦大学 Dynamic particle tree SLAM algorithm based on hierarchical structure
CN103955221B (en) * 2014-05-05 2017-01-11 北京理工大学 Multiplatform cooperative path planning system and method with task timeliness

Also Published As

Publication number Publication date
CN106339001A (en) 2017-01-18
US10006772B2 (en) 2018-06-26
EP3118705B1 (en) 2020-04-08
EP3118705A2 (en) 2017-01-18
CN106339001B (en) 2021-01-08
US20170010100A1 (en) 2017-01-12
EP3118705A3 (en) 2017-02-08
JP2017021791A (en) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6762148B2 (en) Map generation method, mobile robot and map generation system
JP6849330B2 (en) Map generation method, self-position estimation method, robot system, and robot
JP6842519B2 (en) Data collection method and its system
WO2021135645A1 (en) Map updating method and device
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
KR101956447B1 (en) Method and apparatus for position estimation of unmanned vehicle based on graph structure
JP6032163B2 (en) 3D object recognition apparatus, 3D object recognition method, and moving body
JP2009193240A (en) Mobile robot and method for generating environment map
KR101439921B1 (en) Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR20170088228A (en) Map building system and its method based on multi-robot localization
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
JP2008275606A (en) Object recognition apparatus for recognizing autonomous mobile object
JP2008059218A (en) Method for restoring self-position of autonomously traveling robot
JP2016080460A (en) Moving body
JP2009217333A (en) Mobile robot and operation control method thereof
WO2019124343A1 (en) Moving body
RU2740229C1 (en) Method of localizing and constructing navigation maps of mobile service robot
CN112041634A (en) Mobile robot positioning method, map building method and mobile robot
JPWO2019202806A1 (en) Self-position estimation method
JP5287050B2 (en) Route planning method, route planning device, and autonomous mobile device
KR102481615B1 (en) Method and system for collecting data
KR101255024B1 (en) Relative localization system and method using ultrasonic sensor
JP7121489B2 (en) moving body
KR101502071B1 (en) Camera Data Generator for Landmark-based Vision Navigation System and Computer-readable Media Recording Program for Executing the Same
Oh et al. Graph-based SLAM approach for environments with laser scan ambiguity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200908

R150 Certificate of patent or registration of utility model

Ref document number: 6762148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150