WO2020183659A1 - 情報処理装置および移動ロボット - Google Patents

情報処理装置および移動ロボット Download PDF

Info

Publication number
WO2020183659A1
WO2020183659A1 PCT/JP2019/010328 JP2019010328W WO2020183659A1 WO 2020183659 A1 WO2020183659 A1 WO 2020183659A1 JP 2019010328 W JP2019010328 W JP 2019010328W WO 2020183659 A1 WO2020183659 A1 WO 2020183659A1
Authority
WO
WIPO (PCT)
Prior art keywords
self
map
unit
reliability
information processing
Prior art date
Application number
PCT/JP2019/010328
Other languages
English (en)
French (fr)
Inventor
正裕 友納
Original Assignee
学校法人 千葉工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 学校法人 千葉工業大学 filed Critical 学校法人 千葉工業大学
Priority to PCT/JP2019/010328 priority Critical patent/WO2020183659A1/ja
Priority to JP2021504716A priority patent/JP7133251B2/ja
Priority to US17/435,250 priority patent/US20220137638A1/en
Priority to CN201980092682.4A priority patent/CN113454487B/zh
Priority to EP19919202.2A priority patent/EP3940422A4/en
Priority to TW109104044A priority patent/TWI772743B/zh
Publication of WO2020183659A1 publication Critical patent/WO2020183659A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to an information processing device and a mobile robot.
  • SLAM Simultaneous Localization and Mapping
  • a technology called SLAM (Simultaneous Localization and Mapping) for self-position estimation and environment map creation has been used as a technology for autonomously traveling a moving body such as a mobile robot or an autonomous driving vehicle.
  • an occupied grid map or a point group map created based on the presence or absence of an object in the moving range of the moving object may be used.
  • the occupied grid map the plane or space of the moving range is divided into a plurality of sections (cells) and stored, and cell values are assigned to each of the divided sections according to the presence or absence of an object.
  • the point cloud map represents an object existing in a plane or space of a moving range as points (coordinates) discreteized for each minute area, and the point cloud data which is a set of the points is used as a map.
  • the movement route from the current location to the destination is obtained, and the moving body travels to the destination along the movement route.
  • the movement route is calculated using the map (existing map) created in advance, and the moving body travels while confirming (estimating) its own position on the existing map. Is done.
  • Such self-position estimation on an existing map is an indispensable technique for autonomous driving of a moving body.
  • a technique for estimating the self-position of a moving body there is a method of estimating the self-position by aligning the moving body with respect to an environment map prepared in advance using the distance data (detection information) obtained from the output of the distance sensor. It is common.
  • a method of aligning a moving object for example, there is a method called ICP (Iterative Closest Point). In this method, based on the geometrical features of a set of points extracted from point cloud data, the feature parts of an environmental map are used. The position of the moving body is determined by collation (see, for example, Patent Document 1).
  • the self-position estimation method described in Patent Document 1 acquires a plurality of three-dimensional points indicating the surface of an object by observing the surroundings with a distance sensor, and based on the observation results, feature quantities of the plurality of three-dimensional points. Is calculated, and a plurality of 3D points whose feature amount is equal to or larger than the feature amount threshold are extracted from both short distance and long distance, and the extracted 3D points and the plurality of 3D points indicated by the environmental map are obtained. Estimate the self-position by matching.
  • An object of the present invention is to provide an information processing device and a mobile robot capable of ensuring the estimation accuracy of the self-position even with changes in the environment and maintaining the consistency of the self-position on the map.
  • the information processing device of the present invention is an information processing device for estimating the self-position of a moving body based on a map of the environment in which the moving body moves, and detects the distance and direction to an object around the moving body.
  • a detection means for detecting as information and a control means for controlling the detection means are provided, and the control means includes a storage unit for storing a time series and a map of detection information detected by the detection means, and the storage. Based on the map creation unit that creates a map around the moving body and stores it in the storage unit based on the detection information stored in the unit, and the existing map stored in the storage unit in the past.
  • the current self-position of the moving body is estimated based on the existing map self-position estimation unit that estimates the current self-position of the moving body and the current map currently being created stored in the storage unit.
  • the self-position updating unit is estimated by the existing map self-position estimation unit and the current map self-position estimation unit based on the reliability of each self-position evaluated by the reliability evaluation unit. Since any of the self-positions made is updated, the consistency of each self-position estimated by the existing map self-position estimation unit and the current map self-position estimation unit can be obtained. Therefore, even if the environment of repeated movement changes, the accuracy of self-position estimation with respect to changes in the environment can be improved by evaluating the reliability of the self-position based on both the existing map and the current map. Can be done.
  • the self-position updating unit calculates the movement amount of each self-position estimated by the existing map self-position estimation unit and the current map self-position estimation unit, and based on the calculated movement amount, It is preferable to update any of the self-positions.
  • the self-position update unit calculates the movement amount of each self-position estimated by the existing map self-position estimation unit and the current map self-position estimation unit, and based on the calculated movement amount. Since any of the self-positions is updated, the consistency of each self-position can be obtained even when the shapes of the existing map and the current map are different. That is, even in the same place, the traveling path of the mobile robot is different each time, and the sensor noise is also different, so that the shapes of the existing map and the current map often do not match. If the shape of the map is different, even if the self-position on one map is used as it is for the other map, it is not always consistent with the map. On the other hand, by calculating the amount of movement of the self-position on the existing map and the current map, and then updating each self-position based on the amount of movement, the self-position is estimated while reducing the error. The accuracy can be improved.
  • the self-position updating unit updates the self-position of the map with low reliability of each self-position evaluated by the reliability evaluation unit based on the self-position of the high map.
  • the self-position update unit updates the self-position of the map with low reliability of each self-position evaluated by the reliability evaluation unit based on the self-position of the high map, and therefore each self.
  • the accuracy of position estimation can be improved.
  • the reliability evaluation unit sets the weight indicating the reliability of each self-position to be larger as the reliability of each self-position is higher, and is set to be smaller as the reliability of each self-position is lower. It is preferable that the update unit updates at least one of the self-positions based on the weight set by the reliability evaluation unit.
  • the self-position update unit can be used in the existing map self-position estimation unit and the current map self-position estimation unit based on the weight indicating the reliability of each self-position set in the reliability evaluation unit. Since at least one of the estimated self-positions is updated, the reliability of each self-position can be evaluated step by step, and the consistency of each self-position can be efficiently obtained.
  • the mobile robot of the present invention is characterized by including the information processing device and a moving means for moving the moving body.
  • the mobile robot includes an information processing device and a moving means
  • the self-position updating unit possessed by the control means of the information processing device is a self-position of each self-position evaluated by the reliability evaluation unit. Since either of the existing map self-position estimation unit and the current map self-position estimation unit estimates each self-position is updated based on the reliability, the existing map self-position estimation unit and the current map self-position estimation unit update. It is possible to take the consistency of each estimated self-position.
  • Block diagram of a mobile robot according to an embodiment of the present invention Conceptual diagram showing the operation of cartography and self-position estimation of the mobile robot
  • Conceptual diagram showing the state of self-position estimation of the mobile robot Flow chart showing the operation of the mobile robot
  • FIG. 1 is a block diagram of a mobile robot 1 according to an embodiment of the present invention.
  • the mobile robot 1 which is a moving body of the present embodiment includes a control means 2, a detection means 3, and a movement means 4, and the information processing device is provided by the control means 2 and the detection means 3. It is configured.
  • the detection means 3 has a laser scanner that detects the presence or absence of an object by radiating a beam around the mobile robot 1, and acquires detection information for each irradiated beam.
  • the mobile robot 1 estimates its own position by SLAM technology and odometry.
  • the moving means 4 has a driving unit such as a motor and wheels that are rotationally driven by the driving unit, autonomously travels the mobile robot 1, and acquires a moving amount (detection information) using the rotation angle of the wheels. Then, the self-position is estimated by odometry.
  • a driving unit such as a motor and wheels that are rotationally driven by the driving unit, autonomously travels the mobile robot 1, and acquires a moving amount (detection information) using the rotation angle of the wheels. Then, the self-position is estimated by odometry.
  • the control means 2 is provided with arithmetic means such as a CPU and storage means such as ROM and RAM to control the operation of the mobile robot 1, and includes a movement control unit 21 for controlling the moving means 4 and a detecting means 3.
  • a detection control unit 22 for controlling is provided.
  • the control means 2 includes a map creation unit 23 that creates a map around the mobile robot 1, an existing map self-position estimation unit 24 that estimates the self-position of the mobile robot 1, and a current map self-position estimation unit 24, as will be described later. 25 and.
  • the control means 2 includes a reliability evaluation unit 26 that evaluates the reliability of each self-position estimated by the existing map self-position estimation unit 24 and the current map self-position estimation unit 25, and a reliability evaluation unit 26.
  • the self-position update unit 27 that updates any of the self-positions based on the evaluated reliability, the detection information acquired by the detection means 3, the map created by the map creation unit 23, various data, and the like are stored.
  • a storage unit 28 and a storage unit 28 are provided.
  • the map created by the map creation unit 23 any map such as an occupied grid map or a point group map can be used, but the case of creating a point group map will be described below.
  • the detection means 3 includes, for example, a laser scanner (LIDAR (Light Detection and Ranging)) that irradiates the surroundings with a laser beam such as an infrared laser to measure the distance to an object.
  • This laser scanner uses the sensor center and azimuth, which are its own positions, as the reference position (x, y, ⁇ ) T, and determines the presence or absence of an object based on the distance from the sensor center and the angle (direction) around the sensor center. Detect the position.
  • this object detection hereinafter, may be simply referred to as scanning
  • a laser irradiated at a predetermined resolution for example, 1 °
  • the detection for one cycle for example, one rotation and 360 °
  • the detection value for one cycle is set as one unit (one scan), and the detection value of this one scan is stored in the storage unit 28 in chronological order as scan information (detection information).
  • the moving means 4 acquires the moving amount of the moving robot 1 by detecting the rotation angle of the wheel rotationally driven by the driving unit, and the moving amount is stored in the storage unit 28 as odometry information (detection information). ..
  • the self-position is estimated while sequentially creating the current map by the SLAM technology, and the self-position is estimated in the past and repeatedly updated by the method described later.
  • the self-position is estimated by collating the existing map (reference map) stored in the storage unit 28 with the detection information.
  • SLAM self-position estimation by SLAM technology
  • LOC localization
  • FIG. 2 is a conceptual diagram showing the operations of map creation and self-position estimation of the mobile robot 1.
  • the mobile robot 1 acquires the scan information from the detecting means 3 and the odometry information from the moving means 4, the mobile robot 1 estimates its own position by SLAM and LOC.
  • SLAM creates a current map and estimates its own position based on the created current map
  • LOC estimates its own position by collating it with a reference map (existing map).
  • the reliability of each self-position is evaluated and updated.
  • the mobile robot 1 of the present embodiment performs self-position estimation on the current map and the reference map by SLAM and LOC in parallel.
  • FIGS. 3 and 4 are conceptual diagrams showing the state of self-position estimation of the mobile robot 1.
  • (A) is a point cloud indicating an object on the current map or a reference map
  • (B) is a point cloud of scan information detected by the detection means 3
  • (C) is a point cloud.
  • the state where the point clouds of (A) and (B) are overlapped is shown.
  • scan matching by ICP is used as the alignment method
  • based on the shape of the point cloud on the current map or the reference map and the shape of the point cloud of the scan information for example, alignment by ICP is performed. It is assumed that the self-position of the mobile robot 1 is determined by performing the above.
  • Scan matching includes the current map (or reference map created in the past) created at the first position, the scan information scanned at the second position, and the scan information scanned at the second position when the mobile robot 1 moves from the first position to the second position.
  • the self-position (movement amount) of the mobile robot 1 is estimated so that the degree of overlap of the robots 1 is optimized.
  • the current map is repeatedly updated while estimating the self-position by collating the current map sequentially created with the scan information.
  • LOC the self-position on the reference map is estimated by collating the reference map created in the past with the scan information.
  • FIG. 3 shows the state of scan matching by SLAM, and the point group on the map and the point group of the scan information currently overlap well, showing a good matching state.
  • FIG. 4 shows a state of scan matching by LOC, in which the point group on the reference map and the point group of the scan information are partially deviated, and a state of poor matching is shown. That is, the scan information of the portions shown by the positions A1 and A2 in FIG. 4B is deviated from the reference map of FIG. 4A, which means that the object existing on the reference map created in the past and the object existing on the reference map of FIG. It indicates the possibility that the position and shape have changed with the current object.
  • the score of matching the scan information with respect to the reference map is calculated by the following equation (1).
  • the matching score G (x) becomes smaller as the matching is in a good state as shown in FIG. 3, and becomes larger as the matching is in a poor state as shown in FIG.
  • x Robot position at time t (x, y, ⁇ ) T R
  • t rotation matrix x
  • p i is represented by the following formula (2): time t i-th point q ji in the scan: scan time t-1 corresponding to p i
  • the point inside. j is the number of the point corresponding to i.
  • the reliability of each self-position estimated by SLAM and LOC is evaluated, and the evaluated reliability is obtained. Update one of each self-position based on. The method of evaluating the reliability of each self-position and updating the self-position by SLAM and LOC will be described later.
  • the current map is created by SLAM and the self-position is estimated
  • the LOC estimates the self-position while referring to the reference map
  • the one with the better self-position estimated by each is adopted.
  • SLAM on the current map and self-position estimation on the reference map are performed in parallel, so that the effects of complementing each other can be obtained. That is, even if either SLAM or LOC fails in self-position estimation, it can be restored if the other succeeds, so that robustness is improved.
  • the reference map can be used as a reference, so that if the scan information is normalized, the possibility that the correct self-position can be estimated can be increased. Furthermore, if the mobile robot 1 goes out of the range of the reference map, scan matching cannot be performed because there is no map, and the LOC estimates its own position using only the odometry information, but the position error is based only on the odometry information.
  • the position of the mobile robot 1 can be continuously estimated. Therefore, if the LOC incorporates the self-position estimated by SLAM, the self-position with higher accuracy than the case of only the odometry information can be obtained. You can also get the effect that it will be easier to return when you return to the range of the reference map.
  • FIG. 5 is a flowchart showing the operation of the mobile robot 1.
  • the description of the operation related to the traveling of the mobile robot 1 will be omitted, and the description will be focused on the self-position estimation accompanying the traveling and the procedure for creating the current map.
  • Step ST11 When the movement control unit 21 of the control means 2 drives and controls the movement means and the mobile robot 1 starts running, the detection control unit 22 drives and controls the detection means 3 to start detecting surrounding objects (detection).
  • the detection control unit 22 acquires scan information (detection information) in which a surrounding object is detected by the detection means 3, and stores the acquired scan information in the storage unit 28. Further, the detection control unit 22 acquires the odometry information (detection information) in which the movement amount is detected from the rotation angle of the wheel of the moving means 4, and stores the acquired odometry information in the storage unit 28.
  • the control means 2 estimates the self-position of the mobile robot 1 based on the scan information and odometry information stored in the storage unit 28, the created current map, and the reference map (existing map) stored in the storage unit 28.
  • Self-position estimation step step ST12
  • steps ST21 to ST23 which are self-position estimation procedures by SLAM
  • steps ST31 to ST33 which are self-position estimation procedures by LOC
  • the control means 2 transfers the current self of the mobile robot 1 to the current map self-position estimation unit 25 based on the current map, scan information, and odometry information created so far. Let the position be estimated. Further, the control means 2 causes the map creation unit 23 to create a current map, and stores the created current map in the storage unit 28 (current map creation and self-position estimation step based on the current map: step ST21). Next, the current map self-position estimation unit 25 calculates the amount of movement between the calculated self-position and the self-position one time ago (movement amount calculation step: step ST22).
  • the control means 2 causes the reliability evaluation unit 26 to evaluate the reliability of the self-position (reliability evaluation step: step ST23).
  • the reliability evaluation unit 26 calculates the reliability of the self-position based on the result of the scan matching described above. For example, the reliability may be determined from the matching score, or the reliability may be determined from the number of matched points. In the former case, the smaller the matching score, the higher the reliability, and in the latter case, the higher the score, the higher the reliability. Further, when the reliability is smaller than a predetermined threshold value, the reliability may be set to 0.
  • the control means 2 transfers the mobile robot 1 to the existing map self-position estimation unit 24 based on the reference map stored in the storage unit 28, the scan information, and the odometry information.
  • the self-position is estimated (self-position estimation step based on the reference map: step ST31).
  • the existing map self-position estimation unit 24 calculates the amount of movement between the calculated self-position and the self-position one time ago (movement amount calculation step: step ST32).
  • the control means 2 causes the reliability evaluation unit 26 to evaluate the reliability of the self-position (reliability evaluation step: step ST33).
  • the reliability evaluation unit 26 calculates the reliability of the self-position based on the result of the scan matching described above. For example, the reliability may be determined from the matching score, or the reliability may be determined from the number of matched points. In the former case, the smaller the matching score, the higher the reliability, and in the latter case, the higher the score, the higher the reliability. Further, when the reliability is smaller than a predetermined threshold value, the reliability may be set to 0.
  • the control means 2 updates at least one of the self-positions to the self-position update unit 27 based on the weights of the self-positions of SLAM and LOC (self-position update step: step ST14).
  • the self-position updating unit 27 is based on the movement amount of each self-position calculated in the movement amount calculation steps (steps ST23 and ST32) and the weight of each self-position set in the weighting step (step ST13). Update your position.
  • the self-position update step (step ST14) the self-position with low reliability may be updated (rewritten) by the self-position with high reliability, not based on the weight of each self-position. This corresponds to the case where the reliability smaller than the above-mentioned threshold value is set to 0.
  • the self-position estimated by each may be used as it is. However, if the reliability of one self-position becomes smaller than the threshold value, the other self-position is rewritten.
  • control means 2 determines in step ST15 whether or not to continue the running of the mobile robot 1.
  • the process returns to the detection information acquisition step (step ST11) and the above-described steps are repeated.
  • the control means 2 stops the traveling of the mobile robot 1 and stops the operation of each part.
  • the self-position updating unit 27 has one of the self-positions based on the reliability of each self-position estimated by SLAM and LOC evaluated by the reliability evaluation unit 26 of the control means 2. Is updated, so that the consistency of each self-position estimated by the existing map self-position estimation unit 24 and the current map self-position estimation unit 25 can be obtained. Therefore, the mobile robot 1 estimates the self-position with respect to the change in the environment by evaluating the reliability of the self-position based on both the reference map and the current map even when the environment in which the mobile robot moves repeatedly changes. The accuracy can be improved.
  • the self-position updating unit 27 of the control means 2 calculates the movement amount of each self-position estimated by SLAM and LOC, and updates any of the self-positions based on the calculated movement amount. Even if the shapes of the reference map and the current map are different, the consistency of each self-position can be obtained, and the estimation accuracy of the self-position can be improved while reducing the error.
  • the self-position update unit 27 updates at least one of the self-positions estimated by SLAM and LOC based on the weight indicating the reliability of each self-position set by the reliability evaluation unit 26. Therefore, the reliability of each self-position can be evaluated step by step, and the consistency of each self-position can be efficiently obtained.
  • the self-position updating unit 27 may rewrite the self-position with low reliability by the self-position with high reliability without being based on the weight of each self-position, and according to this, the calculation cost can be suppressed. ..
  • the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention.
  • a specific mobile robot 1 is not illustrated, but the mobile robot (moving body) is a mobile robot such as a service robot or a home robot, and more specifically, Examples include cleaning robots, security robots, transport robots, and guidance robots.
  • the moving body may be an autonomous driving vehicle, a work vehicle, or the like.
  • the moving range of the moving body is not limited to the two-dimensional plane space, but may be a three-dimensional space, and in that case, the moving body may be a flying object such as a drone. That is, in the above-described embodiment, an example using 2D-SLAM as the SLAM technology is shown, but the information processing apparatus of the present invention can also be applied to 3D-SLAM targeting a three-dimensional space.
  • the mobile robot 1 is provided with the control means 2, and the control means 2 is provided with the map creation unit 23, the self-position estimation units 24, 25, and the like.
  • the control means 2 may be provided in another device capable of communicating with the mobile robot 1 and configured so that the mobile robot 1 autonomously travels based on a map created by the other device.
  • the moving body may not be provided with a moving means, and may be configured such that the user manually moves a trolley or the like on which the detecting means is installed to detect the surroundings.
  • the point group map is used as the reference map (existing map) and the current map, but each map is not limited to the point group map, and may be an occupied grid map or another map.
  • a laser scanner is exemplified as the detection means, but the detection means is not limited to this, and any detection means such as various distance sensors and an imaging device can be used.
  • the odometry information is acquired based on the rotation angle of the wheels of the moving means, but the odometry information is not limited to this, and the moving amount measured by the optical means, the gyroscope or the IMJ (Inertial Measurement Unit) is used. The measured rotation angle may be used for odometry information.
  • the self-position updating unit 27 calculates the movement amount of each self-position estimated by SLAM and LOC, and updates any of the self-positions based on the calculated movement amount.
  • the self-positions may be updated by superimposing the estimated self-positions on the reference map or the current map. That is, in the above embodiment, the map shapes of the reference map and the current map are different, and it is difficult to overlap each self-position on the map. Therefore, the movement amount is calculated from each self-position and then the self-position is calculated.
  • it was decided to update if the map coordinate system of the reference map and the current map can be converted appropriately, it will be possible to directly superimpose the self-position (coordinate value) between those maps, and the movement amount will be calculated.
  • the self-positions estimated by SLAM and LOC are combined with a map by combining pose graphs, but the map combining method is not limited to the one using the pose graph, and other combining methods are used. May be adopted.
  • the present invention can be suitably used for information processing devices and mobile robots that can secure the estimation accuracy of the self-position even when the environment changes and maintain the consistency of the self-position on the map.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • General Factory Administration (AREA)

Abstract

【課題】環境の変化に対しても自己位置の推定精度を確保し、地図における自己位置の整合性を維持することができる情報処理装置および移動ロボットを提供。 【解決手段】移動ロボット(1)の情報処理装置は、制御手段(2)と、周囲の物体までの距離と方向を検出情報として検出する検出手段(3)と、を備える。制御手段(2)は、記憶部(28)と、周囲の地図を作成する地図作成部(23)と、既存地図に基づいて現在の自己位置を推定する既存地図自己位置推定部(24)と、現在地図に基づいて現在の自己位置を推定する現在地図自己位置推定部(25)と、推定された各自己位置の信頼度を評価する信頼度評価部(26)と、信頼度に基づいて各自己位置のいずれかを更新する自己位置更新部(27)と、を備える。

Description

情報処理装置および移動ロボット
 本発明は、情報処理装置および移動ロボットに関する。
 従来、移動ロボットや自動運転車等の自律走行可能な移動体が自律走行するための技術として、SLAM(Simultaneous Localization and Mapping) と称される自己位置推定と環境地図作成の技術が用いられている。環境地図としては、移動体の移動範囲における物体の有無に基づいて作成された占有格子地図や点群地図が用いられることがある。占有格子地図は、移動範囲の平面や空間を複数の区画(セル)に分割して記憶するとともに、分割した各区画に対して物体の有無に応じたセル値が付与されている。点群地図は、移動範囲の平面や空間に存在する物体を微小領域ごとに離散化した点(座標)として表し、その集合である点群データが地図として利用される。
 移動体が目的地まで自律走行する場合、現在地から目的地までの移動経路を求め、その移動経路に沿って目的地まで走行する。この際、効率よく移動するために、あらかじめ作成しておいた地図(既存地図)を用いて移動経路を算出し、その既存地図上で移動体が自己位置を確認(推定)しながら走行することが行われる。このような既存地図上での自己位置推定は、移動体の自律走行にとって不可欠の技術である。
 移動体の自己位置推定の技術として、距離センサの出力で得られる距離データ(検出情報)を用いて、予め準備した環境地図に対して移動体の位置合わせを行って自己位置を推定する方法が一般的である。移動体の位置合わせの方法として、例えば、ICP(Iterative Closest Point)といわれる方法があり、この方法では、点群データから抽出した点の集合の幾何学的特徴に基づき、環境地図の特徴部位と照合することにより移動体の位置を判別する(例えば、特許文献1参照)。特許文献1に記載の自己位置推定方法は、距離センサによって周辺を観測することで、物体表面を示す複数の三次元点を取得し、その観測結果に基づいて、複数の三次元点の特徴量を算出し、特徴量が特徴量閾値以上である複数の三次元点を近距離および遠距離の両方から抽出し、抽出した複数の三次元点と、環境地図が示す複数の三次元点とをマッチングすることで自己位置を推定する。
 一方、移動体の自己位置推定の技術として、車輪の回転角を用いて移動量(検出情報)を算出し、これにより自己位置を推定するオドメトリといわれる方法もあり、この方法では、移動量に基づく自己位置情報を環境地図と照合することにより移動体の位置を判別する。しかし、オドメトリに基づく自己位置推定方法では、車両が旋回した場合や車輪が空転した場合にオドメトリの誤差が発生することから、自己位置の推定精度が低下してしまう。このため、オドメトリに基づく自己位置推定と、前述したような距離センサを用いたICPに基づく位置合わせの方法と、を併用することによって、自己位置の推定精度を向上させようとする技術が提案されている(例えば、特許文献2参照)。
特開2017-083230号公報 特開2018-084492号公報
 しかしながら、特許文献1、2に記載されたような従来の技術は、いずれも検出情報を予め準備した環境地図にマッチングさせることで移動体の自己位置を推定するものであるため、環境が変化した場合には、環境地図とのマッチングが困難になったり、マッチングの精度が低下したりすることから、自己位置の推定精度が大幅に低下してしまうことがある。
 本発明の目的は、環境の変化に対しても自己位置の推定精度を確保し、地図における自己位置の整合性を維持することができる情報処理装置および移動ロボットを提供することである。
 本発明の情報処理装置は、移動体が移動する環境の地図に基づいて移動体の自己位置を推定するための情報処理装置であって、前記移動体の周囲の物体までの距離と方向を検出情報として検出する検出手段と、前記検出手段を制御する制御手段と、を備え、前記制御手段は、前記検出手段にて検出された検出情報の時系列と地図を記憶する記憶部と、前記記憶部に記憶された検出情報に基づいて、前記移動体の周囲の地図を作成して前記記憶部に記憶させる地図作成部と、前記記憶部に記憶されている過去に作成された既存地図に基づいて、前記移動体の現在の自己位置を推定する既存地図自己位置推定部と、前記記憶部に記憶されている現在作成中の現在地図に基づいて、前記移動体の現在の自己位置を推定する現在地図自己位置推定部と、前記既存地図自己位置推定部および前記現在地図自己位置推定部にて推定された各自己位置の信頼度を評価する信頼度評価部と、前記信頼度評価部にて評価された信頼度に基づいて、前記各自己位置のいずれかを更新する自己位置更新部と、を備えることを特徴とする。
 このような本発明によれば、自己位置更新部は、信頼度評価部にて評価された各自己位置の信頼度に基づいて、既存地図自己位置推定部および現在地図自己位置推定部にて推定された各自己位置のいずれかを更新するので、既存地図自己位置推定部および現在地図自己位置推定部にて推定された各自己位置の整合性をとることができる。したがって、繰り返し移動する環境が変化した場合であっても、既存地図および現在地図の両方に基づいて自己位置の信頼性を評価することで、環境の変化に対する自己位置の推定の精度を向上させることができる。
 本発明では、前記自己位置更新部は、前記既存地図自己位置推定部および前記現在地図自己位置推定部にて推定された各自己位置の移動量を算出し、算出された移動量に基づいて、前記各自己位置のいずれかを更新することが好ましい。
 このような構成によれば、自己位置更新部は、既存地図自己位置推定部および現在地図自己位置推定部にて推定された各自己位置の移動量を算出し、算出された移動量に基づいて、各自己位置のいずれかを更新するので、既存地図および現在地図の形状が異なる場合であっても各自己位置の整合性をとることができる。すなわち、同じ場所であっても、移動ロボットの走行経路は毎回異なり、センサノイズも異なるため、既存地図と現在地図の形状は一致しないことが多い。地図の形状が異なると、一方の地図での自己位置を他方の地図にそのまま流用しても、その地図と整合性がとれるとは限らない。これに対して、既存地図および現在地図における自己位置の移動量を算出してから、その移動量に基づいて、各自己位置を更新するようにすることで、誤差を低減しつつ自己位置の推定精度を高めることができる。
 本発明では、前記自己位置更新部は、前記信頼度評価部にて評価された前記各自己位置の信頼度の低い地図の自己位置を高い地図の自己位置に基づいて更新することが好ましい。
 このような構成によれば、自己位置更新部は、信頼度評価部にて評価された各自己位置の信頼度の低い地図の自己位置を高い地図の自己位置に基づいて更新するので、各自己位置の推定精度を向上させることができる。
 本発明では、前記信頼度評価部は、前記各自己位置の信頼度を示す重みを、前記各自己位置の信頼度が高くなるにしたがって大きく設定し、低くなるにしたがって小さく設定し、前記自己位置更新部は、前記信頼度評価部にて設定された重みに基づいて、前記各自己位置の少なくともいずれか一方を更新することが好ましい。
 このような構成によれば、自己位置更新部は、信頼度評価部にて設定された各自己位置の信頼度を示す重みに基づいて、既存地図自己位置推定部および現在地図自己位置推定部にて推定された各自己位置の少なくともいずれか一方を更新するので、各自己位置の信頼度を段階的に評価することができ、効率よく各自己位置の整合性をとることができる。
 本発明の移動ロボットは、前記情報処理装置と、前記移動体を移動させる移動手段と、備えたことを特徴とする。
 このような本発明によれば、移動ロボットは、情報処理装置と移動手段とを備え、情報処理装置の制御手段が有する自己位置更新部は、信頼度評価部にて評価された各自己位置の信頼度に基づいて、既存地図自己位置推定部および現在地図自己位置推定部にて推定された各自己位置のいずれかを更新するので、既存地図自己位置推定部および現在地図自己位置推定部にて推定された各自己位置の整合性をとることができる。
本発明の一実施形態に係る移動ロボットのブロック図 前記移動ロボットの地図作成および自己位置推定の動作を示す概念図 前記移動ロボットの自己位置推定の様子を示す概念図 前記移動ロボットの自己位置推定の様子を示す概念図 前記移動ロボットの動作を示すフローチャート
 以下、本発明の一実施形態を図1~図5に基づいて説明する。
 図1は、本発明の一実施形態に係る移動ロボット1のブロック図である。
 本実施形態の移動体である移動ロボット1は、図1に示すように、制御手段2と、検出手段3と、移動手段4と、を備え、制御手段2および検出手段3によって情報処理装置が構成されている。検出手段3は、移動ロボット1の周囲にビームを放射することで物体の有無を検出するレーザースキャナを有し、照射したビームごとに検出情報を取得する。移動ロボット1は、SLAM技術およびオドメトリによって自己位置を推定する。移動手段4は、モータ等の駆動部と、駆動部によって回転駆動される車輪と、を有し、移動ロボット1を自律走行させるとともに、車輪の回転角を用いて移動量(検出情報)を取得し、オドメトリにより自己位置を推定する。
 制御手段2は、CPU等の演算手段やROM、RAM等の記憶手段を備えて移動ロボット1の動作を制御するものであって、移動手段4を制御する移動制御部21と、検出手段3を制御する検出制御部22と、を備える。また、制御手段2は、後述するように移動ロボット1の周囲の地図を作成する地図作成部23と、移動ロボット1の自己位置を推定する既存地図自己位置推定部24および現在地図自己位置推定部25と、を備える。さらに、制御手段2は、既存地図自己位置推定部24および現在地図自己位置推定部25にて推定された各自己位置の信頼度を評価する信頼度評価部26と、信頼度評価部26にて評価された信頼度に基づいて、各自己位置のいずれかを更新する自己位置更新部27と、検出手段3が取得した検出情報や、地図作成部23が作成した地図、各種のデータ等を記憶する記憶部28と、を備えて構成されている。地図作成部23が作成する地図としては、占有格子地図や点群地図など任意の地図が利用可能であるが、以降では点群地図を作成する場合について説明する。
 検出手段3は、例えば、赤外線レーザー等のレーザー光を周囲に照射して物体までの距離を測定するレーザースキャナ(LIDAR(Light Detection and Ranging))を備える。このレーザースキャナは、自己位置であるセンサ中心と方位を基準位置(x,y,θ)とし、センサ中心からの距離と、センサ中心回りの角度(方向)と、に基づいて物体の有無や位置を検出する。この物体検出(以下では、単にスキャンと称することがある)では、レーザースキャナの1周期(例えば、1回転、360°)分の検出において、所定の解像度(例えば、1°)で照射されるレーザービームに基づき、1周期分の検出値を1単位(1スキャン)とし、この1スキャンの検出値がスキャン情報(検出情報)として時系列で記憶部28に記憶される。
 移動手段4は、駆動部によって回転駆動される車輪の回転角を検出することで、移動ロボット1の移動量を取得し、この移動量がオドメトリ情報(検出情報)として記憶部28に記憶される。本実施形態の移動ロボット1では、検出情報としてのスキャン情報およびオドメトリ情報に基づき、SLAM技術によって順次現在地図を作成しつつ自己位置を推定するとともに、過去に作成されて後述の方法により繰り返し更新され記憶部28に記憶された既存地図(参照地図)と検出情報とを照合することにより自己位置を推定する。以下では、SLAM技術による自己位置推定を単に「SLAM」と称し、参照地図との照合による自己位置推定を単に「LOC」(ローカライゼーション:Localization)と称することがある。このようなSLAMとLOCを併用した自己位置推定および地図作成の手法について図2~図5を参照して説明する。
 なお、既存地図は、過去に作成されて後述の方法により繰り返し更新され記憶部28に記憶されたものでなくてもよく、例えば、移動ロボット1の外部から転送されたものなどであってもよい。要するに、既存地図は、記憶部28に記憶されている過去に作成されたものであればよい。
 図2は、移動ロボット1の地図作成および自己位置推定の動作を示す概念図である。図2に示すように、移動ロボット1は、検出手段3からのスキャン情報と移動手段4からのオドメトリ情報とを取得すると、SLAMおよびLOCにより自己位置推定を行う。SLAMでは、現在地図を作成するとともに作成した現在地図に基づいて自己位置推定を行い、LOCでは、参照地図(既存地図)との照合による自己位置推定を行う。SLAMおよびLOCにより自己位置推定を行ったら、各自己位置の信頼度を評価して更新する。以上のように、本実施形態の移動ロボット1は、SLAMおよびLOCによる現在地図および参照地図の上での自己位置推定を並行して行う。
 図3、4は、移動ロボット1の自己位置推定の様子を示す概念図である。図3および図4のそれぞれにおいて、(A)は現在地図または参照地図上の物体を示す点群であり、(B)は検出手段3で検出したスキャン情報の点群であり、(C)は(A)および(B)の点群を重ねた状態を示す。ここでは、位置合わせの方法としてICPによるスキャンマッチングを用いた場合を例示し、現在地図または参照地図上の点群の形状と、スキャン情報の点群の形状とに基づき、例えば、ICPによる位置合わせを行うことにより移動ロボット1の自己位置を判別するものとする。スキャンマッチングは、移動ロボット1が第1位置から第2位置に移動した際に、第1位置で作成した現在地図(または過去に作成した参照地図)と、第2位置でスキャンしたスキャン情報と、の重なり度合が最適になるように移動ロボット1の自己位置(移動量)を推定する。SLAMでは、順次作成した現在地図とスキャン情報とを照合することで、自己位置を推定しつつ現在地図の更新を繰り返す。一方、LOCでは、過去に作成した参照地図とスキャン情報とを照合することで、参照地図上の自己位置を推定する。
 図3は、SLAMによるスキャンマッチングの様子を示すものであり、現在地図上の点群とスキャン情報の点群とがよく重なっており、マッチングが良好な状態が示されている。図4は、LOCによるスキャンマッチングの様子を示すものであり、参照地図上の点群とスキャン情報の点群とが部分的にずれており、マッチングが不良な状態が示されている。すなわち、図4(A)の参照地図に対して、図4(B)の位置A1,A2で示す部分のスキャン情報がずれており、これは過去に作成した参照地図上に存在した物体と、現在の物体とで位置や形状が変化した可能性を示している。しかし、このような物体位置などの環境変化に対して、参照地図に基づくLOCでは自己位置を正しく推定することができない可能性がある。そこで、例えば、前述したICPによるスキャンマッチングでは、参照地図に対するスキャン情報のマッチングのスコアを次の式(1)で算出する。このマッチングスコアG(x)は、図3のようにマッチングが良好な状態であるほど小さくなり、図4のようにマッチングが不良な状態になれば大きくなる。
Figure JPOXMLDOC01-appb-M000001
   …(1)
 式(1)において、
 x: 時刻tでのロボット位置(x,y,θ)
 R,t:xの回転行列、並進成分であり、次式(2)で表される
 p:時刻tのスキャン内のi番目の点
 qji:pに対応する時刻t-1のスキャン内の点。jiはiに対応する点の番号。
Figure JPOXMLDOC01-appb-M000002
   …(2)
 以上のように、推定した自己位置についてマッチングスコアを算出し、マッチングスコアに基づいて信頼度を設定することで、SLAMおよびLOCで推定した各自己位置の信頼度を評価し、評価した信頼度に基づいて、各自己位置のいずれかを更新する。このようなSLAMおよびLOCによる各自己位置の信頼度評価および自己位置更新の方法については後述する。
 本実施形態の移動ロボット1では、SLAMによって現在地図を作成するとともに自己位置を推定し、LOCが参照地図を参照しつつ自己位置を推定し、それぞれが推定した自己位置の良い方を採用する。このような自己位置推定方法によれば、現在地図上でのSLAMと参照地図上での自己位置推定を並行して行うため、互いに補い合う効果が得られる。すなわち、SLAMおよびLOCのいずれか一方が自己位置推定を失敗したとしても、他方が成功すれば復帰できるので、ロバスト性が向上する。
 また、計測データであるスキャン情報やオドメトリ情報の状態がよくないと、SLAMで推定する自己位置に大きな誤差が生じることから、作成する現在地図が崩れてしまうことがあり、その場合には、スキャン情報が正常になっても正しい位置に復帰するのが難しい。そこで、LOCを併用することで、参照地図を基準にできるため、スキャン情報が正常化すれば正しい自己位置を推定できる可能性を高くすることができる。さらに、移動ロボット1が参照地図の範囲外に出てしまうと、地図がないためにスキャンマッチングが行えず、LOCはオドメトリ情報だけで自己位置を推定することになるが、オドメトリ情報だけでは位置誤差が累積して、自己位置を見失う可能性がある。そこで、SLAMを併用することで、移動ロボット1の位置を推定し続けられるので、SLAMで推定した自己位置をLOCが取り入れることで、オドメトリ情報だけの場合よりも精度の高い自己位置が得られるため、参照地図の範囲に戻った時に復帰しやすくなるという効果も得られる。
 次に、図5も参照して移動ロボット1の動作について詳しく説明する。図5は、移動ロボット1の動作を示すフローチャートである。なお、ここでは、移動ロボット1の走行に係る動作については説明を省略し、走行に伴う自己位置推定、現在地図の作成手順に着目して説明する。
 制御手段2の移動制御部21によって移動手段が駆動制御され移動ロボット1の走行が開始されると、検出制御部22によって検出手段3が駆動制御されて周囲の物体の検出が開始される(検出情報取得工程:ステップST11)。検出情報取得工程(ステップST11)において、検出制御部22は、検出手段3によって周囲の物体を検出したスキャン情報(検出情報)を取得するとともに、取得したスキャン情報を記憶部28に記憶させる。さらに、検出制御部22は、移動手段4の車輪の回転角から移動量を検出したオドメトリ情報(検出情報)を取得するとともに、取得したオドメトリ情報を記憶部28に記憶させる。
 制御手段2は、記憶部28に記憶されたスキャン情報およびオドメトリ情報と作成した現在地図、および記憶部28に記憶された参照地図(既存地図)に基づいて、移動ロボット1の自己位置を推定する(自己位置推定工程:ステップST12)。自己位置推定工程(ステップST12)は、SLAMによる自己位置の推定手順であるステップST21~ST23と、LOCによる自己位置の推定手順であるステップST31~ST33と、を並行して実行する。
 SLAMによる自己位置の推定手順として、制御手段2は、それまでに作成された現在地図と、スキャン情報およびオドメトリ情報と、に基づいて、現在地図自己位置推定部25に移動ロボット1の現在の自己位置を推定させる。さらに、制御手段2は、地図作成部23に現在地図を作成させ、作成した現在地図を記憶部28に記憶させる(現在地図作成および現在地図に基づく自己位置推定工程:ステップST21)。次に、現在地図自己位置推定部25は、算出した自己位置と一時刻前の自己位置とに基づいて、その間の移動量を算出する(移動量算出工程:ステップST22)。このようにしてSLAMによる現在の自己位置が推定されたら、制御手段2は、信頼度評価部26に自己位置の信頼度を評価させる(信頼度評価工程:ステップST23)。信頼度評価工程(ステップST23)において、信頼度評価部26は、前述したスキャンマッチングの結果に基づいて、自己位置の信頼度を算出する。例えば、マッチングスコアから信頼度を決めてもよいし、マッチした点の個数から信頼度を決めてもよい。前者ではマッチングスコアが小さいほど信頼度が大きく、後者では点数が多いほど信頼度は大きくなるように適当な変換を施す。また、信頼度が所定の閾値より小さい場合は、信頼度を0にしてもよい。
 LOCによる自己位置の推定手順として、制御手段2は、記憶部28に記憶された参照地図と、スキャン情報およびオドメトリ情報と、に基づいて、既存地図自己位置推定部24に移動ロボット1の現在の自己位置を推定させる(参照地図に基づく自己位置推定工程:ステップST31)。次に、既存地図自己位置推定部24は、算出した自己位置と一時刻前の自己位置とに基づいて、その間の移動量を算出する(移動量算出工程:ステップST32)。このようにしてLOCによる現在の自己位置が推定されたら、制御手段2は、信頼度評価部26に自己位置の信頼度を評価させる(信頼度評価工程:ステップST33)。信頼度評価工程(ステップST33)において、信頼度評価部26は、前述したスキャンマッチングの結果に基づいて、自己位置の信頼度を算出する。例えば、マッチングスコアから信頼度を決めてもよいし、マッチした点の個数から信頼度を決めてもよい。前者ではマッチングスコアが小さいほど信頼度が大きく、後者では点数が多いほど信頼度は大きくなるように適当な変換を施す。また、信頼度が所定の閾値より小さい場合は、信頼度を0にしてもよい。
 以上のように、SLAMおよびLOCによってそれぞれの自己位置が推定され、各自己位置の信頼度を評価したら、制御手段2は、信頼度評価部26にSLAMおよびLOCの各自己位置の信頼度に基づいて、信頼度が高いほど高い重みを各自己位置に設定する(重み付け工程:ステップST13)。すなわち、例えば、SLAMによる自己位置の信頼度が80%であり、LOCによる自己位置の信頼度が60%であれば、SLAMによる自己位置の重みを0.57(=80/(80+60))とし、LOCによる自己位置の重みを0.43(=60/(80+60))と設定する。
 次に、制御手段2は、自己位置更新部27にSLAMおよびLOCの各自己位置の重みに基づいて、各自己位置の少なくともいずれか一方を更新する(自己位置更新工程:ステップST14)。自己位置更新部27は、前記移動量算出工程(ステップST23,ST32)で算出した各自己位置の移動量と、重み付け工程(ステップST13)で設定した各自己位置の重みと、に基づいて、各自己位置を更新する。なお、自己位置更新工程(ステップST14)では、各自己位置の重みに基づかず、信頼度の高い自己位置によって信頼度の低い自己位置を更新(書き換え)してもよい。これは前述の閾値より小さい信頼度を0にした場合に相当する。また、SLAMおよびLOCの自己位置の信頼度がそれぞれ閾値より大きい場合は、それぞれで推定した自己位置をそのまま用いてもよい。ただし、一方の自己位置の信頼度が閾値より小さくなった場合は、他方の自己位置で書き換える。
 次に、制御手段2は、ステップST15にて移動ロボット1の走行を継続するか否かを判断する。ステップST15で走行を継続する場合、再び検出情報取得工程(ステップST11)に戻り、上述した各工程を繰り返す。ステップST15で走行を継続しない場合、制御手段2は、移動ロボット1の走行を停止させるとともに、各部の動作を停止させる。
 このような本実施形態によれば、以下の作用・効果を奏することができる。
(1)移動ロボット1は、制御手段2の信頼度評価部26にて評価されたSLAMおよびLOCで推定した各自己位置の信頼度に基づいて、自己位置更新部27が各自己位置のいずれかを更新するので、既存地図自己位置推定部24および現在地図自己位置推定部25にて推定された各自己位置の整合性をとることができる。したがって、移動ロボット1は、繰り返し移動する環境が変化した場合であっても、参照地図および現在地図の両方に基づいて自己位置の信頼性を評価することで、環境の変化に対する自己位置の推定の精度を向上させることができる。
(2)制御手段2の自己位置更新部27は、SLAMおよびLOCで推定した各自己位置の移動量を算出し、算出された移動量に基づいて、各自己位置のいずれかを更新するので、参照地図および現在地図の形状が異なる場合であっても各自己位置の整合性をとることができ、誤差を低減しつつ自己位置の推定精度を高めることができる。
(3)自己位置更新部27は、信頼度評価部26にて設定された各自己位置の信頼度を示す重みに基づいて、SLAMおよびLOCで推定した各自己位置の少なくともいずれか一方を更新するので、各自己位置の信頼度を段階的に評価することができ、効率よく各自己位置の整合性をとることができる。一方、自己位置更新部27は、各自己位置の重みに基づかず、信頼度の高い自己位置によって信頼度の低い自己位置を書き換えてもよく、これによれば、計算コストを抑制することができる。
〔実施形態の変形〕
 なお、本発明は、前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 例えば、前記実施形態では、移動ロボット1として具体的なものを例示しなかったが、移動ロボット(移動体)としては、サービスロボット、ホームロボットなどの移動ロボットであって、より具体的には、掃除ロボットや警備ロボット、運搬ロボット、案内ロボットなどが例示できる。さらに、移動体としては、自動運転自動車や作業車などであってもよい。さらに、移動体の移動範囲は、二次元平面空間に限らず、三次元空間であってもよく、その場合には移動体がドローンなどの飛行体であってもよい。すなわち、前記実施形態では、SLAM技術として、2D-SLAMを用いた例を示したが、本発明の情報処理装置は、三次元空間を対象にした3D-SLAMにも応用可能である。
 前記実施形態では、移動ロボット1が制御手段2を備え、この制御手段2に地図作成部23や自己位置推定部24,25等が設けられていたが、情報処理装置としては、移動ロボット1ではなく、移動ロボット1と通信可能な他の機器に設けられ、他の機器によって作成された地図に基づいて移動ロボット1が自律走行するように構成されていてもよい。また、移動体としては、移動手段を備えていなくてもよく、検出手段が設置された台車等を使用者が手動で移動させつつ周囲を検出するような構成であってもよい。
 前記実施形態では、参照地図(既存地図)および現在地図として点群地図を用いたが、各地図は点群地図に限らず、占有格子地図でもよいし、他の地図であってもよい。また、前記実施形態では、検出手段としてレーザースキャナを有したものを例示したが、これに限らず、検出手段は、各種の距離センサや撮像装置など任意のものが利用可能である。また、前記実施形態では、移動手段の車輪の回転角に基づいてオドメトリ情報を取得したが、これに限らず、光学的な手段で計測した移動量や、ジャイロスコープやIMJ(Inertial Measurement Unit)で計測した回転角をオドメトリ情報に利用してもよい。
 前記実施形態では、自己位置更新部27は、SLAMおよびLOCで推定した各自己位置の移動量を算出し、算出された移動量に基づいて、各自己位置のいずれかを更新したが、移動量によらずに、推定した各自己位置同士を参照地図上または現在地図上で重ねて、自己位置を更新してもよい。すなわち、前記実施形態では、参照地図および現在地図の地図形状が異なり、その地図上で各自己位置同士を重ねるのは困難であることから、各自己位置から移動量を算出してから自己位置を更新するものとしたが、参照地図および現在地図の地図座標系を適切に相互変換できれば、それらの地図間で自己位置(座標値)を直接的に重ね合わせることが可能となり、移動量を算出しなくても自己位置を更新することができる。また、前記実施形態では、SLAMおよびLOCで推定した自己位置に対し、ポーズグラフの結合によって地図結合を行ったが、地図の結合方法は、ポーズグラフを利用したものに限らず、他の結合方法を採用してもよい。
 以上のように、本発明は、環境の変化に対しても自己位置の推定精度を確保し、地図における自己位置の整合性を維持することができる情報処理装置および移動ロボットに好適に利用できる。
  1   移動ロボット
  2   制御手段
  3   検出手段
  4   移動手段
 23   地図作成部
 24   既存地図自己位置推定部
 25   現在地図自己位置推定部
 26   信頼度評価部
 27   自己位置更新部
 28   記憶部

Claims (5)

  1.  移動体が移動する環境の地図に基づいて移動体の自己位置を推定するための情報処理装置であって、
     前記移動体の周囲の物体までの距離と方向を検出情報として検出する検出手段と、
     前記検出手段を制御する制御手段と、を備え、
     前記制御手段は、
     前記検出手段にて検出された検出情報の時系列と地図を記憶する記憶部と、
     前記記憶部に記憶された検出情報に基づいて、前記移動体の周囲の地図を作成して前記記憶部に記憶させる地図作成部と、
     前記憶部に記憶されている過去に作成された既存地図に基づいて、前記移動体の現在の自己位置を推定する既存地図自己位置推定部と、
     前記記憶部に記憶されている現在作成中の現在地図に基づいて、前記移動体の現在の自己位置を推定する現在地図自己位置推定部と、
     前記既存地図自己位置推定部および前記現在地図自己位置推定部にて推定された各自己位置の信頼度を評価する信頼度評価部と、
     前記信頼度評価部にて評価された信頼度に基づいて、前記各自己位置のいずれかを更新する自己位置更新部と、
    を備えることを特徴とする情報処理装置。
  2.  請求項1に記載された情報処理装置において、
     前記自己位置更新部は、前記既存地図自己位置推定部および前記現在地図自己位置推定部にて推定された各自己位置の移動量を算出し、算出された移動量に基づいて、前記各自己位置のいずれかを更新する
    ことを特徴とする情報処理装置。
  3.  請求項1または請求項2に記載された情報処理装置において、
     前記自己位置更新部は、前記信頼度評価部にて評価された前記各自己位置の信頼度の低い地図の自己位置を高い地図の自己位置に基づいて更新する
    ことを特徴とする情報処理装置。
  4.  請求項1から請求項3のいずれかに記載された情報処理装置において、
     前記信頼度評価部は、前記各自己位置の信頼度を示す重みを、前記各自己位置の信頼度が高くなるにしたがって大きく設定し、低くなるにしたがって小さく設定し、
     前記自己位置更新部は、前記信頼度評価部にて設定された重みに基づいて、前記各自己位置の少なくともいずれか一方を更新する
    ことを特徴とする情報処理装置。
  5.  請求項1から請求項4のいずれかに記載された情報処理装置と、
     前記移動体を移動させる移動手段と、
    を備えたことを特徴とする移動ロボット。
PCT/JP2019/010328 2019-03-13 2019-03-13 情報処理装置および移動ロボット WO2020183659A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2019/010328 WO2020183659A1 (ja) 2019-03-13 2019-03-13 情報処理装置および移動ロボット
JP2021504716A JP7133251B2 (ja) 2019-03-13 2019-03-13 情報処理装置および移動ロボット
US17/435,250 US20220137638A1 (en) 2019-03-13 2019-03-13 Information processing device and mobile robot
CN201980092682.4A CN113454487B (zh) 2019-03-13 信息处理装置以及移动机器人
EP19919202.2A EP3940422A4 (en) 2019-03-13 2019-03-13 INFORMATION PROCESSING DEVICE AND MOBILE ROBOT
TW109104044A TWI772743B (zh) 2019-03-13 2020-02-10 資訊處理裝置以及移動機器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010328 WO2020183659A1 (ja) 2019-03-13 2019-03-13 情報処理装置および移動ロボット

Publications (1)

Publication Number Publication Date
WO2020183659A1 true WO2020183659A1 (ja) 2020-09-17

Family

ID=72426087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010328 WO2020183659A1 (ja) 2019-03-13 2019-03-13 情報処理装置および移動ロボット

Country Status (5)

Country Link
US (1) US20220137638A1 (ja)
EP (1) EP3940422A4 (ja)
JP (1) JP7133251B2 (ja)
TW (1) TWI772743B (ja)
WO (1) WO2020183659A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021112177A1 (ja) * 2019-12-04 2021-06-10
JP7424438B1 (ja) 2022-09-22 2024-01-30 いすゞ自動車株式会社 車両位置推定装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102246236B1 (ko) * 2019-06-14 2021-04-28 엘지전자 주식회사 퓨전 슬램에서 맵을 업데이트하는 방법 및 이를 구현하는 로봇
TWI801829B (zh) * 2021-03-26 2023-05-11 大陸商信泰光學(深圳)有限公司 移動裝置及其移動方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508163A (ja) * 2012-02-10 2015-03-16 アイシス イノベーション リミテッド センサの位置を推定する方法及び関連装置
JP2017045447A (ja) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JP2018128314A (ja) * 2017-02-07 2018-08-16 富士通株式会社 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法
US20180364717A1 (en) * 2017-06-14 2018-12-20 Zoox, Inc. Voxel Based Ground Plane Estimation and Object Segmentation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
GB2463481A (en) * 2008-09-12 2010-03-17 Geotate Bv Means for estimating the location of an event using a satellite positioning system
US9215560B1 (en) * 2012-07-12 2015-12-15 two forty four a.m. LLC System and method for device-centric location detection and geofencing
JP6136543B2 (ja) * 2013-05-01 2017-05-31 村田機械株式会社 自律移動体
EP3845426A1 (en) * 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
WO2016194206A1 (ja) * 2015-06-04 2016-12-08 三菱電機株式会社 移動支援装置、移動支援用サーバおよび移動支援システム
CN105953798B (zh) * 2016-04-19 2018-09-18 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
TWI622783B (zh) * 2016-05-24 2018-05-01 曦恩體感科技股份有限公司 混合定位方法及其電子裝置
CN106896391A (zh) * 2017-03-14 2017-06-27 北京京东尚科信息技术有限公司 无人机的定位方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508163A (ja) * 2012-02-10 2015-03-16 アイシス イノベーション リミテッド センサの位置を推定する方法及び関連装置
JP2017045447A (ja) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JP2018128314A (ja) * 2017-02-07 2018-08-16 富士通株式会社 移動体位置推定システム、移動体位置推定端末装置、情報格納装置、及び移動体位置推定方法
US20180364717A1 (en) * 2017-06-14 2018-12-20 Zoox, Inc. Voxel Based Ground Plane Estimation and Object Segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3940422A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021112177A1 (ja) * 2019-12-04 2021-06-10
WO2021112177A1 (ja) * 2019-12-04 2021-06-10 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
JP7424438B1 (ja) 2022-09-22 2024-01-30 いすゞ自動車株式会社 車両位置推定装置

Also Published As

Publication number Publication date
CN113454487A (zh) 2021-09-28
US20220137638A1 (en) 2022-05-05
JPWO2020183659A1 (ja) 2021-11-25
JP7133251B2 (ja) 2022-09-08
EP3940422A1 (en) 2022-01-19
TW202036030A (zh) 2020-10-01
TWI772743B (zh) 2022-08-01
EP3940422A4 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
WO2020183659A1 (ja) 情報処理装置および移動ロボット
KR101739996B1 (ko) 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
Nieto et al. Recursive scan-matching SLAM
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
Sadat et al. Feature-rich path planning for robust navigation of MAVs with mono-SLAM
EP2821876A2 (en) Route planning method, route planning unit, and autonomous mobile device
WO2014178272A1 (ja) 自律移動体
JP5016399B2 (ja) 地図情報作成装置及びそれを備えた自律移動装置
JP5298741B2 (ja) 自律移動装置
JP2008250906A (ja) 移動ロボット、自己位置補正方法および自己位置補正プログラム
Yamauchi Mobile robot localization in dynamic environments using dead reckoning and evidence grids
JP2012242967A (ja) 地図処理方法及びプログラム、並びにロボットシステム
JP2008250905A (ja) 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP2014203144A (ja) 自律移動装置
Stachniss et al. How to learn accurate grid maps with a humanoid
McGarey et al. The line leading the blind: Towards nonvisual localization and mapping for tethered mobile robots
Huang et al. A real-time fast incremental SLAM method for indoor navigation
AU2021273605B2 (en) Multi-agent map generation
CN113048978B (zh) 移动机器人重定位方法及移动机器人
JP2019215773A (ja) 無人搬送車の走行制御装置及び走行制御方法
CN113454487B (zh) 信息处理装置以及移动机器人
Tungadi et al. Loop exploration for SLAM with fusion of advanced sonar features and laser polar scan matching
JP7434943B2 (ja) 自己位置制御システムおよび自己位置制御方法
Torres-Torriti et al. Scan-to-map matching using the Hausdorff distance for robust mobile robot localization
WO2024034335A1 (ja) 自己位置推定システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19919202

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021504716

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019919202

Country of ref document: EP

Effective date: 20211013