WO2009107430A1 - 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 - Google Patents

自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 Download PDF

Info

Publication number
WO2009107430A1
WO2009107430A1 PCT/JP2009/051200 JP2009051200W WO2009107430A1 WO 2009107430 A1 WO2009107430 A1 WO 2009107430A1 JP 2009051200 W JP2009051200 W JP 2009051200W WO 2009107430 A1 WO2009107430 A1 WO 2009107430A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
measurement
map data
environment
distance
Prior art date
Application number
PCT/JP2009/051200
Other languages
English (en)
French (fr)
Inventor
佳昭 朝原
一博 美馬
英典 藪下
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41015836&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2009107430(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to US12/919,354 priority Critical patent/US9239580B2/en
Priority to EP09713949.7A priority patent/EP2256574B1/en
Publication of WO2009107430A1 publication Critical patent/WO2009107430A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Definitions

  • the present invention relates to an autonomous mobile robot, and more particularly to a self-position estimation technique and an environment map generation technique for an autonomous mobile robot.
  • an environment map that describes the mobile environment of the mobile robot may be used (see Patent Documents 1 to 3).
  • the environment map is used for estimating the position of a mobile robot in a mobile environment, planning a movement route, and the like.
  • the environment map is created, for example, as a grid map that divides a two-dimensional moving environment in which the mobile robot moves into a grid and indicates whether each grid cell surrounded by the grid is movable. .
  • the creation of the environment map is performed, for example, by measuring the moving environment using a distance sensor capable of acquiring external distance information such as a laser range finder and a stereo camera (see Patent Documents 1, 3 and 4).
  • the environmental map may be created while the mobile robot itself equipped with the distance sensor moves in the moving space, in addition to supplying the prepared map to the mobile robot.
  • SLAM SimultaneousaneLocalization and Mapping
  • the mobile robot disclosed in Patent Document 1 includes a plurality of distance sensors having different sensing principles, for example, an ultrasonic sensor and an infrared sensor, and a floor on which the mobile robot is located using the plurality of distance sensors. Measure multiple spaces with different heights from the surface.
  • the mobile robot disclosed in Patent Document 1 creates a plurality of two-dimensional environment maps based on distance data acquired by a plurality of distance sensors, and superimposes and integrates the plurality of two-dimensional environment maps. A two-dimensional environmental map is generated.
  • the mobile robot disclosed in Patent Literature 1 refers to an integrated two-dimensional environment map, searches for an optimal movement route that avoids an obstacle, and moves while avoiding the obstacle.
  • Patent Document 2 divides a two-dimensional movement space into unit areas, and when the environment map is an xy plane, the distance to the obstacle in the x direction and the obstacle in the y direction when viewed from each unit area.
  • An environment map for a mobile robot in which the distance to an object is recorded as information of each unit area is disclosed.
  • the mobile robot disclosed in Patent Document 2 estimates the self-position in the mobile environment by comparing the obstacle distance measured by the range finder with the obstacle distance recorded in the environment map.
  • Patent Documents 3 and 4 disclose techniques for creating an environment map for a mobile robot in which the position of an obstacle is specified as a two-dimensional grid map. More specifically, the mobile robots disclosed in Patent Documents 3 and 4 measure a moving environment by a distance sensor mounted on the mobile robot, and calculate obstacle positions calculated using the measured distance information. Project onto a dimensional grid map. An environment map in which the position of the obstacle is specified is created by determining a cell in which the number of times the obstacle has been projected exceeds a predetermined value as an “obstacle cell” where the obstacle exists. JP 2005-310043 A JP-A-62-58311 JP 2006-252346 A JP 2001-242934 A
  • the environmental maps disclosed in Patent Documents 1, 3, and 4 described above are created using measurement results obtained by distance sensors such as a laser range finder, an ultrasonic sensor, and an infrared sensor mounted on a mobile robot.
  • the environmental maps disclosed in Patent Documents 1, 3 and 4 and Patent Document 2 have information on the measurement direction indicating from which direction the measurement is performed by irradiating laser, light rays, sound waves, or the like. Absent. For this reason, there exists a problem that self-position estimation of a mobile robot cannot be performed correctly.
  • FIG. 13A a mobile robot 80 equipped with a laser range finder obtains measurement point groups 81 by irradiating a laser, and self-positions are obtained by matching these measurement point groups 81 and the environment map.
  • FIG. 13B is an example of an environment map 800 held by the mobile robot 80.
  • the environment map 800 is created as a two-dimensional grid map.
  • Each grid cell constituting the environment map 800 holds at least information indicating whether or not the mobile robot 80 is movable.
  • a cell to which the mobile robot 80 can move is called a “movable cell”, and a cell that cannot move is called a “wall cell”.
  • the white cells in FIG. 13B indicate “movable cells”, and the hatched cells indicate “wall cells”.
  • the measurement point group 81 can correspond to either the wall 801 or the wall 802 in the environment map 800. For this reason, since point A and point B in FIG. 13B can be candidates for the self-position of the mobile robot 80, the mobile robot 80 may not be able to accurately perform self-position estimation.
  • Patent Documents 3 and 4 an environment map is created by integrating a plurality of results obtained by measuring the same place in a moving environment from different robot positions.
  • Patent Documents 3 and 4 only count the number of times determined as an obstacle by a plurality of measurements. That is, when the place is measured, the information on the “measurement direction” indicating from which direction the measurement is performed by irradiating laser, light beam, sound wave or the like is not reflected on the environment map.
  • Patent Document 1 a plurality of environmental maps relating to regions having different heights are created by a plurality of distance sensors, but these are then integrated to create a single two-dimensional environmental map. Therefore, the environment map used for the self-position estimation of the mobile robot does not have information indicating which measurement result of the plurality of sensors was used, and from which direction the laser, light beam, sound wave, etc. are irradiated. Therefore, it does not have information on “measurement direction” as to whether or not the measurement was performed.
  • the first aspect of the present invention is a mobile robot that moves in a mobile environment.
  • the mobile robot includes a distance sensor, an environmental map storage unit, and a self-position estimation unit.
  • the distance sensor measures a distance to an object in the moving environment.
  • the environment map storage unit stores an environment map including a plurality of map data corresponding to each measurement direction when a point in the mobile environment is viewed from a plurality of measurement directions.
  • the self-position estimation unit selects map data corresponding to the measurement direction when the object is measured by the distance sensor from the plurality of map data, and obtains the selected map data and the distance sensor.
  • the self-position of the mobile robot is estimated based on the distance information of the target object.
  • a second aspect of the present invention is a self-position estimation method for a mobile robot that moves in a mobile environment, and includes the following steps (a) to (d). Measuring a distance to an object in the mobile environment (a), (B) referring to an environment map including a plurality of map data corresponding to each measurement direction when the point in the mobile environment is viewed from a plurality of measurement directions; A step (c) of selecting map data corresponding to the measurement direction when the distance of the object is measured from the plurality of map data, and the movement based on the selected map data and the distance information of the object; Step (d) of estimating the self-position of the robot;
  • a third aspect of the present invention is a method for generating an environment map relating to a moving environment of a mobile robot.
  • the method includes the following steps (e) to (g). Measuring a point in the mobile environment from a plurality of measurement directions (e), A step (f) of generating a plurality of map data for each of the plurality of measurement directions concerning the point based on the measurement results for the plurality of measurement directions; A step (g) of storing the coordinate information for specifying the position of the point in association with the plurality of map data.
  • a fourth aspect of the present invention is an environment map generating device related to the moving environment of a mobile robot.
  • the generation apparatus includes (1) a means for inputting measurement results obtained by measuring points in the mobile environment from a plurality of measurement directions, and (2) the points related to the points based on the measurement results for the plurality of measurement directions. Means for generating a plurality of map data for each of a plurality of measurement directions; and (3) a means for storing the coordinate information for specifying the position of the point and the plurality of map data in association with each other.
  • the fifth aspect of the present invention is an environmental map data structure.
  • the data structure includes coordinate information for specifying a position of the mobile robot in a moving environment, map data when the point specified by the coordinate information is viewed from a first measurement direction, and the point as the first point. Map data when viewed from a second measurement direction different from the measurement direction.
  • the above-described first to fifth aspects of the present invention include an environment map including a plurality of map data corresponding to each measurement direction when a point in the mobile environment is viewed from a plurality of measurement directions.
  • the mobile robot performs self-position estimation, it is preferable to use different map data depending on the measurement direction when measurement is performed by the distance sensor.
  • self-position estimation can be performed using appropriate map data corresponding to the appearance of the surroundings from the location where the mobile robot is located. For this reason, it is possible to prevent an error in self-position estimation caused by matching the measurement result of the distance sensor with a wall that cannot be seen from the position of the mobile robot, and improve the self-position estimation accuracy.
  • FIG. 1 shows the configuration of a control system related to autonomous movement of a mobile robot 1 (hereinafter simply referred to as robot 1) according to the present embodiment.
  • the distance sensor 11 measures the distance to an object existing in the moving environment of the robot 1.
  • distance data may be acquired by an active distance sensor such as a laser range finder or an ultrasonic sensor.
  • the distance sensor 11 may be a sensor that acquires a parallax image with a stereo camera and performs distance measurement. In the following description of the present embodiment, the distance sensor 11 is described as a laser range finder.
  • the map generation unit 12 uses the distance data acquired by the distance sensor 11 to generate an environment map relating to a moving space in which the robot 1 moves.
  • the environment map generated by the map generation unit 12 is stored in the environment map storage unit 13.
  • the environment map is created as a grid map obtained by dividing the movement space into a two-dimensional grid.
  • Each grid cell constituting the environmental map holds at least information indicating whether or not the robot 1 is movable.
  • a cell to which the robot 1 can move is called a “movable cell”, and a cell that cannot move is called a “wall cell”.
  • cells that cannot be moved may be further classified. For example, cells that are located on the other side through an obstacle as viewed from the position where the robot 1 is located and that cannot be moved because they have not been observed. The “unobserved cell” may be classified as an observed “wall cell”.
  • the environment map of the present embodiment has a plurality of grid cells on a grid map in view of the fact that an object present in the moving environment is different depending on the location where the robot 1 is located.
  • a plurality of map data corresponding to the measurement direction is held.
  • a specific example of the environment map and its generation procedure will be described later.
  • the self-position estimation unit 14 estimates the absolute position of the robot 1 in the moving environment using the distance data acquired by the distance sensor 11, odometry information, and the environment map. A specific example of the self-position estimation procedure by the self-position estimation unit 14 will be described later.
  • the autonomous mobile unit 15 refers to the environmental map stored in the environmental map storage unit 13 and executes autonomous mobile control.
  • FIG. 2 is a block diagram illustrating an example of the autonomous moving unit 15 when the robot 1 is a wheel traveling type. Needless to say, the robot 1 may be a mobile robot other than a wheeled type such as a leg-walking type.
  • the motion planning unit 150 determines the operation content of the robot 1 based on the environment map, the self-position information of the robot 1 determined by the self-position estimation unit 14, and the like. More specifically, the motion planning unit 150 generates a movement path, a target movement speed, a target acceleration of the robot 1, a target angle trajectory of a joint (not shown) included in the robot 1, and the like.
  • the motion control unit 151 performs feedback control by inputting the control target value such as the target moving speed or target acceleration determined by the motion planning unit 150 and the rotation amount of the wheel 153 measured by the encoder 154, and executes the feedback control.
  • a torque control value for rotationally driving is calculated.
  • the drive unit 152 drives the wheel 153 according to the torque control value calculated by the operation control unit 151, so that the robot 1 is moved.
  • FIG. 3 is a flowchart showing a procedure for generating an environmental map by the map generator 12.
  • the map generation unit 12 inputs the distance data acquired by the distance sensor 11.
  • the map generation unit 12 inputs odometry information acquired by the encoder 154.
  • step S13 the map generation unit 12 calculates the robot position and orientation based on odometry.
  • the robot position and posture may be corrected using a known method such as a distance data scan matching and a probability estimation method.
  • step S14 the map generation unit 12 classifies the plurality of measurement points in the distance data for each laser irradiation direction of the distance sensor 11. That is, the laser irradiation direction of the distance sensor 11 corresponds to the measurement direction when the distance sensor 11 measures the object in the moving environment. And the measurement result for every classified laser irradiation direction is totaled, and an occupation rate map is created.
  • the occupation rate map is a grid map created in the process of generating the environmental map.
  • Each grid cell of the occupancy map has the number of times that the laser light emitted from the distance sensor 11 has passed (hereinafter referred to as the number of times of laser passage) and the number of times that the object has been detected by the distance sensor 11 (hereinafter referred to as a wall). The number of times of detection is classified and held for each laser irradiation direction.
  • Fig. 4 shows an example of the occupation rate map.
  • the laser light irradiation direction that is, the measurement direction by the distance sensor 11 is divided into four equal parts every 90 degrees. Specifically, from the top of the map downward (hereinafter referred to as -y direction), from the bottom of the map upward (hereinafter referred to as + y direction), from the right of the map to the left (hereinafter referred to as -x direction), and The map is divided into four directions from left to right (hereinafter referred to as + x direction).
  • FIG. 5 is a conceptual diagram for explaining a procedure for creating the occupation rate map 100.
  • the robot 1 depicted in FIG. 5 represents the position and posture of the robot 1 specified based on odometry.
  • the measurement point 101 drawn in FIG. 5 represents one of the measurement points by the distance sensor 11 specified based on odometry.
  • the grid cell 102 including the measurement point 101 the + y direction laser passage count is counted up by one, and the + y direction wall detection count is also counted up by one.
  • the grid cell on the laser passing path including the grid cell 103 only the + y direction laser passing count is counted up by one.
  • step S15 it is determined whether or not the processing has been completed for all of the acquired distance data, and if not completed, steps S11 to S14 are repeatedly executed.
  • a wall map for each laser irradiation direction is generated based on the occupation rate map.
  • the wall map is a grid map in which information indicating whether each grid cell is “movable cell”, “wall cell”, or “unobserved cell” is held as a value of each grid cell. is there. Whether each grid cell is a “movable cell”, “wall cell”, or “unobserved cell” may be identified by a 2-bit value, for example.
  • FIG. 6 shows an example of a wall map.
  • the wall map 200 of FIG. 6 is any one of “movable cell”, “wall cell”, and “unobserved cell” for each of four measurement directions of + y direction, ⁇ y direction, ⁇ x direction, and + x direction.
  • the determination value for each measurement direction is determined based on the total result of the corresponding measurement direction in the occupation ratio map 100. Specifically, the evaluation value P shown below may be calculated using the counting results for each measurement direction of the occupation ratio map 100.
  • a grid cell in which the magnitude of the evaluation value P exceeds a predetermined threshold value is a “wall cell”, a cell having a predetermined threshold value or less is a “movable cell”, and a cell whose number of laser passes is “unobserved cell” do it.
  • FIG. 7 shows a specific example of the mobile environment.
  • the robot 1 measures the distance by irradiating a laser beam from the distance sensor 11 to a range of 180 degrees on the front side of the robot 1 while moving from the start point to the goal point of the moving environment 300 in FIG. Consider the case of creating.
  • the upper surface 301U on the map of the pillar 301 is observed mainly by the laser beam irradiated in the -y direction. Further, since the robot 1 moves in the right direction on the map from the start point, the upper surface 301U is also observed by the laser beam irradiated in the + x direction. Further, the right surface 301R on the map of the column 301 is observed mainly by the laser beam irradiated in the ⁇ x direction, and is also observed by the laser beam in the ⁇ y direction. Further, the lower surface 301D on the map of the column 301 is observed mainly by the laser light irradiated in the + y direction, and is also observed by the laser light in the ⁇ x direction. Further, the left surface 301L on the map of the column 301 is observed mainly by the laser light irradiated in the + x direction, and is also observed by the laser light in the + y direction.
  • FIGS. 8A to 8D Specific examples of wall maps generated by such observation are shown in FIGS. 8A to 8D.
  • the four wall maps in FIGS. 8A to 8D show the wall maps 200U, 200R, 200D, and 200L in the ⁇ y direction, the ⁇ x direction, the + y direction, and the + x direction, respectively.
  • white grid cells 201 indicate “movable cells”.
  • the grid cell 202 hatched with a slanting slanting line indicates a “wall cell”.
  • the grid cell 203 hatched with a diagonal line rising to the right indicates an “unobserved cell”.
  • the specific data structure of the environmental map having map data corresponding to a plurality of measurement directions is not particularly limited.
  • coordinate information for specifying the position of the grid cell and The environment map may be generated as a combination of four wall maps associated with one map data.
  • the environment map may have a data structure in which four map data corresponding to four measurement directions are stored in association with coordinate information for specifying the position of one grid cell. Good.
  • a distance map for each laser irradiation direction is generated based on the wall map generated in step S16.
  • the distance map is a grid map in which distance information from the nearest wall cell is held as a value of each grid cell.
  • FIG. 9A shows an environment map created as a wall map.
  • white cells including the cell 410 indicate “movable cells”
  • hatched cells including the cell 411 indicate “wall cells”.
  • FIG. 9B shows an example in which the wall map 41 of FIG. 9A is converted into a distance map.
  • the distance map 42 in FIG. 9B holds the distance from the nearest wall cell as the value of each grid cell.
  • the grid cell hatched with diagonal lines in FIG. 9B corresponds to the wall cell including the cell 411, the distance from the nearest wall cell is zero. Therefore, the hold value of the wall cell is zero. Further, the holding value of the grid cell adjacent to any one of the upper, lower, left and right of these wall cells is 1.
  • other cells hold a numerical value representing the distance from the center of each grid cell to the center of the nearest wall cell, with the cell pitch (length of one side of the cell) as a unit distance.
  • the distance map can be created, for example, according to the following procedure.
  • a method for creating a distance map in which the distance to the nearest wall cell and the nearest wall cell coordinates are held in each grid cell will be described.
  • the initial value of the distance map is set.
  • the wall cell of the environment map created as a wall map its own coordinates are set as the nearest wall cell coordinates, and the wall distance is set to zero.
  • the coordinates of sufficiently far away are set to the initial values of the wall cell coordinates, and the value of the wall distance is also set to a predetermined maximum value. set.
  • one cell is scanned rightward from the grid cell 501 excluding the outermost grid cell of the environmental map created as a wall map.
  • the distance from the coordinates of the cell to be scanned to the nearest wall cell is determined using the nearest wall cell coordinates (x w , y w ) held in the adjacent eight grid cells. calculate.
  • the grid cells C1 to C8 surrounded by the quadrangle 503 are targeted.
  • the minimum distance and the wall cell coordinates that give the minimum value are stored in association with the scanning target cell.
  • Such grid cell scanning is sequentially performed from the upper left to the lower right, and then, scanning is performed in reverse order from the lower right grid cell 502 to the upper left grid cell 501.
  • a distance map can be generated based on an environmental map created as a wall map.
  • FIG. 11 is a flowchart showing a self-position estimation procedure by the self-position estimation unit 14.
  • step S21 the distance data acquired by the distance sensor 11 is input.
  • step S22 odometry information acquired by the encoder 154 is input.
  • step S23 the movement amount of the robot 1 is calculated using the odometry information.
  • step S24 a plurality of robot candidate positions and candidate postures (X C , Y C , ⁇ C ) are set at and near the point where the movement amount obtained in step S23 is added to the previously obtained self position.
  • each of the plurality of robot candidate positions and candidate postures is sequentially matched with the environment map to calculate a reliability parameter. Specifically, in step S25, map data corresponding to the laser irradiation direction is selected and matched for each measurement point in the distance data.
  • map data selection in step S25 will be described with reference to FIGS.
  • the measurement point group 601 obtained by the laser beam emitted leftward from the robot 1 is matched with the map data in the ⁇ x direction.
  • the measurement point group 602 obtained by the laser beam emitted in front of the robot 1 is matched with map data in the + y direction.
  • the measurement point group 603 obtained by the laser beam emitted from the robot 1 in the right direction is matched with the map data in the + x direction.
  • the map data collated with the measurement points changes. That is, the measurement point group 601 obtained by the laser beam emitted leftward from the robot 1 is matched with the map data in the + y direction. In addition, the measurement point group 602 obtained by the laser beam emitted in front of the robot 1 is matched with map data in the + x direction. The measurement point group 603 obtained by the laser beam emitted from the robot 1 in the right direction is matched with the map data in the -y direction.
  • the reliability parameter calculated in step S26 of FIG. 11 is obtained by using “distances from the nearest wall cell” held in the grid cell in the distance map corresponding to the position of the measurement point by the distance sensor 11 as a plurality of measurement points. What is necessary is just to set it as the total value totaled over. In this case, the smaller the total distance from the nearest wall cell, the higher the degree of coincidence between the distance data and the environment map, and the higher the reliability.
  • step S27 it is determined whether the calculation of the reliability parameter has been completed for all of the plurality of candidate positions and candidate orientations. If not completed, steps S25 and S26 described above are repeated.
  • step S28 the reliability with the highest reliability among the plurality of candidate positions and candidate orientations, in other words, the candidate position and orientation with the smallest “total distance from the nearest wall cell” as the reliability parameter is assigned to the robot. 1 self-position and posture (X S , Y S , ⁇ S ).
  • the robot 1 uses an environmental map in which a plurality of map data for each measurement direction is held in association with each point in the moving environment when performing self-position estimation.
  • the robot 1 uses map data used for matching with distance data acquired by the distance sensor 11 according to the measurement direction when the distance sensor 11 performs measurement. Thereby, self-position estimation can be performed using appropriate map data corresponding to the appearance of the surroundings from the place where the robot 1 is located.
  • the environmental map generation process by the map generation unit 12 described above may be realized using a semiconductor processing device such as an ASIC or DSP.
  • the map generation process may be realized by causing a computer such as a microprocessor to execute a map generation program in which the processing procedure shown in FIG. 3 is described.
  • self-position estimation by the self-position estimation unit 14 may also be realized using a semiconductor processing device such as an ASIC or DSP.
  • the self-position estimation may be realized by causing a computer such as a microprocessor to execute a self-position estimation program in which the processing procedure shown in FIG. 11 is described.
  • the map generation program and the self-position estimation program can be stored in various types of storage media, and can be transmitted via a communication medium.
  • the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a RAM memory cartridge with battery backup, a flash memory cartridge, a nonvolatile RAM cartridge, and the like.
  • the communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.
  • the robot 1 itself generates an environment map.
  • the robot 1 may store an environmental map supplied from the outside in the environmental map storage unit 13 and perform self-position estimation using this.
  • the division unit in the measurement direction of the map data held in the environment map is not limited to 90 degrees.
  • the division unit of the map data in the measurement direction may be set coarser than the resolution of the measurement angle when the distance sensor 11 performs horizontal scanning. Thereby, it can avoid that the data size of an environmental map becomes large too much.
  • the environment map is created by collecting the distance measurement results by the distance sensor 11, many measurement points are included in the angle range of each measurement direction. Can be generated with high accuracy.
  • Embodiment 1 of the invention an example in which a distance map is used as an environmental map has been shown.
  • the robot 1 may perform self-position estimation using a wall map including distance information from a point in the moving environment to the nearest obstacle without using the distance map.
  • the environment map used by the robot 1 may be other maps such as a map in which the height from the floor of each point in the moving environment is stored in addition to the above-described wall map and distance map.
  • the environment map is described as a two-dimensional grid map.
  • the environment map may be a three-dimensional grid map, for example.
  • the present invention can be applied to an autonomous mobile robot, in particular, a self-position estimation technique and an environment map generation technique for an autonomous mobile robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

 移動ロボットの自己位置推定の精度を向上させる。ロボット1は、距離センサ11を用いて移動環境内の対象物までの距離を計測する。環境地図記憶部13には、移動環境内の地点を複数の向きから見た場合の各向きに対応する複数の地図データが含まれる環境地図が格納されている。自己位置推定部14は、距離センサ11によって対象物の距離計測が行われたときの計測向きに対応する地図データを複数の地図データの中から選択する。そして、自己位置推定部14は、選択された地図データ及び距離センサ11によって得た距離データに基づいて、ロボット1の自己位置を推定する。

Description

自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
 本発明は、自律移動ロボットに関し、特に自律移動ロボットの自己位置推定技術及び環境地図の生成技術に関する。
 自律移動ロボット(以下、単に移動ロボットと呼ぶ)の自律移動のために、移動ロボットの移動環境を記述した環境地図が使用される場合がある(特許文献1~3を参照)。環境地図は、移動環境内における移動ロボットの自己位置推定、移動経路の計画などに利用される。環境地図は、例えば、移動ロボットが移動を行う2次元の移動環境を格子状に分割し、格子に囲まれた各々のグリッドセルが移動可能であるか否かを表したグリッド地図として作成される。
 環境地図の作成は、例えば、レーザレンジファインダ、ステレオカメラ等の外界の距離情報を取得可能な距離センサを用いて移動環境を計測することにより行なわれる(特許文献1、3及び4を参照)。環境地図は、予め作成されたものを移動ロボットに供給する場合のほか、距離センサを搭載した移動ロボット自身が移動空間を移動しながら作成する場合もある。後者の移動ロボットの自己位置推定と環境地図の構築を同時に行なう技術は、SLAM(Simultaneous Localization and Mapping)と呼ばれる。
 例えば、特許文献1に開示された移動ロボットは、センシング原理の異なる複数の距離センサ、例えば超音波センサと赤外線センサを搭載しており、これら複数の距離センサを用いて、移動ロボットが位置する床面からの高さが異なる複数の空間を計測する。そして、特許文献1に開示された移動ロボットは、複数の距離センサによって取得した距離データを元に複数の2次元環境地図を作成し、これら複数の2次元環境地図を重ね合わせて統合した1つの2次元環境地図を生成する。特許文献1に開示された移動ロボットは、統合された2次元環境地図を参照して、障害物を回避する最適な移動経路を探索し、障害物を回避しながら移動を行う。
 また、特許文献2には、2次元の移動空間を単位領域に分割するとともに、環境地図をxy面としたときに、各単位領域から見てx方向の障害物までの距離及びy方向の障害物までの距離が各単位領域の情報として記録された移動ロボット用の環境地図が開示されている。特許文献2に開示された移動ロボットは、レンジファインダによって計測した障害物距離を、当該環境地図に記録された障害物距離と照合することによって、移動環境内での自己位置を推定する。
 また、特許文献3及び4には、障害物の位置が特定された移動ロボット用の環境地図を2次元グリッド地図として作成する技術が開示されている。具体的に述べると、特許文献3及び4に開示された移動ロボットは、移動ロボットに搭載された距離センサによって移動環境を計測し、計測された距離情報を用いて算出される障害物位置を2次元グリッド地図に投影する。障害物が投影された回数が所定値以上となったセルを障害物が存在する「障害物セル」と判定することによって、障害物位置が特定された環境地図を作成する。
特開2005-310043号公報 特開昭62-58311号公報 特開2006-252346号公報 特開2001-242934号公報
 上述した特許文献1、3及び4に開示された環境地図は、移動ロボットに搭載されたレーザレンジファインダ、超音波センサ、赤外線センサ等の距離センサによる計測結果を用いて作成される。しかしながら、これら特許文献1、3及び4並びに特許文献2に開示された環境地図は、どのような方向からレーザ、光線、音波等を照射して計測を行なったかという計測方向に関する情報を有していない。このため、移動ロボットの自己位置推定を正確に行うことができないという問題がある。
 一例として、図13Aに示すように、レーザレンジファインダを搭載した移動ロボット80が、レーザを照射することによって計測点群81を取得し、これらの計測点群81と環境地図とのマッチングによって自己位置推定を行う場合を考える。図13Bは、移動ロボット80が保持する環境地図800の一例である。環境地図800は、2次元グリッド地図として作成されている。環境地図800を構成する各グリッドセルは、少なくとも移動ロボット80が移動可能であるか否かを示す情報を保持する。以下では、移動ロボット80が移動可能なセルを「移動可能セル」と呼び、移動不可能なセルを「壁セル」と呼ぶ。図13Bの白抜きのセルが「移動可能セル」を示し、斜線でハッチングされたセルが「壁セル」を示している。
 移動ロボット80が、図13Aの計測点群81と図13Bの環境地図800とをマッチングした場合、計測点群81は、環境地図800中の壁801及び壁802のいずれとも対応しうる。このため、図13B中のA点及びB点の2つが、移動ロボット80の自己位置の候補となり得るため、移動ロボット80は自己位置推定を正確に行えないおそれがある。
 なお、特許文献3及び4は、移動環境内の同じ場所を異なるロボット位置から計測した複数の結果を統合して環境地図を作成するものである。しかしながら、特許文献3及び4は、複数回の計測によって障害物と判断された回数をカウントするのみである。つまり、その場所を計測したときに、どの向きからレーザ、光線、音波等を照射して計測を行なったかという「計測向き」に関する情報を環境地図に反映するものではない。
 また、特許文献1は、複数の距離センサによって高さの異なる領域に関する複数の環境地図を作成しているが、その後これらを統合して1つの2次元環境地図を作成するものである。したがって、移動ロボットの自己位置推定に利用される環境地図は、複数のセンサのいずれの計測結果を用いて作成されたかを示す情報を有していないし、どの向きからレーザ、光線、音波等を照射して計測を行なったかという「計測向き」に関する情報も有していない。
 本発明の第1の態様は、移動環境内を移動する移動ロボットである。当該移動ロボットは、距離センサ、環境地図記憶部及び自己位置推定部を備える。前記距離センサは、前記移動環境内の対象物までの距離を計測する。前記環境地図記憶部は、前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を記憶する。前記自己位置推定部は、前記距離センサによって前記対象物の計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択するとともに、選択された地図データ及び前記距離センサにより得られる前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定する。
 本発明の第2の態様は、移動環境内を移動する移動ロボットの自己位置推定方法であり、以下のステップ(a)~(d)を含む。
 前記移動環境内の対象物までの距離を計測するステップ(a)、
 前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を参照するステップ(b)、
 前記対象物の距離計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択するステップ(c)、及び
 選択された地図データ及び前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定するステップ(d)。
 本発明の第3の態様は、移動ロボットの移動環境に関する環境地図の生成方法である。当該方法は、以下のステップ(e)~(g)を含む。
 前記移動環境内の地点を複数の計測向きから計測するステップ(e)、
 前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成するステップ(f)、
 前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶するステップ(g)。
 本発明の第4の態様は、移動ロボットの移動環境に関する環境地図の生成装置である。当該生成装置は、(1)前記移動環境内の地点を複数の計測向きから計測した計測結果を入力する手段と、(2)前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成する手段と、(3)前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶する手段とを備える。
 本発明の第5の態様は、環境地図のデータ構造である。当該データ構造は、移動ロボットの移動環境内における位置を特定するための座標情報と、前記座標情報により特定される地点を第1の計測向きから見た場合の地図データ及び前記地点を前記第1の計測向きとは異なる第2の計測向きから見た場合の地図データとを備える。
 上述した本発明の第1~第5の態様は、移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を含む。移動ロボットが自己位置推定を行う際には、距離センサによる計測を行ったときの計測向きに応じて、地図データを使い分けるとよい。これにより、移動ロボットの位置する場所からの周囲の見え方に対応した適切な地図データを用いて自己位置推定を行うことができる。このため、距離センサによる計測結果を移動ロボットの位置からは見えない壁とマッチングしてしまうことに起因する自己位置推定の誤りを防止し、自己位置推定の精度を向上させることができる。
本発明の実施の形態1にかかる移動ロボットの制御系を示すブロック図である。 自律移動部のブロック図である。 環境地図の生成手順の一例を示すフローチャートである。 占有率地図の一例を示す図である。 占有率地図の生成方法を説明するための概念図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 移動環境の一例を示す図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 距離地図の一例を示す図である。 距離地図の一例を示す図である。 距離地図の生成手順を説明するための概念図である。 自己位置推定手順の一例を示すフローチャートである。 自己位置推定手順を説明するための概念図である。 自己位置推定手順を説明するための概念図である。 従来の環境地図が有する課題を説明するための図である。 従来の環境地図が有する課題を説明するための図である。
符号の説明
1 移動ロボット
11 距離センサ
12 地図生成部
13 環境地図記憶部
14 自己位置推定部
15 自律移動部
 以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<発明の実施の形態1>
 本実施の形態にかかる移動ロボット1(以下、単にロボット1と呼ぶ)の自律移動に関する制御系の構成を図1に示す。図1において、距離センサ11は、ロボット1の移動環境内に存在する対象物までの距離を計測する。具体的には、レーザレンジファインダ、超音波センサ等のアクティブ距離センサによって距離データを取得すればよい。また、距離センサ11は、ステレオカメラにより視差画像を取得して距離計測を行うセンサでもよい。なお、以下の本実施の形態の説明では、距離センサ11がレーザレンジファインダであるとして説明を行う。
 地図生成部12は、距離センサ11により取得された距離データを用いて、ロボット1が移動を行なう移動空間に関する環境地図を生成する。地図生成部12により生成された環境地図は、環境地図記憶部13に格納される。本実施の形態では、環境地図は、移動空間を2次元格子状に分割したグリッド地図として作成される。環境地図を構成する各グリッドセルは、少なくともロボット1が移動可能であるか否かを示す情報を保持する。以下では、ロボット1が移動可能なセルを「移動可能セル」と呼び、移動不可能なセルを「壁セル」と呼ぶ。なお、移動不可能なセルをさらに分類してもよく、例えば、ロボット1が位置する場所から見て障害物を介して向こう側に位置し、未観測であるために移動不可能であるセルを「未観測セル」として、観測済みの「壁セル」と分類してもよい。
 また、本実施の形態の環境地図は、ロボット1が位置している場所によって移動環境内に存在する対象物の見え方が異なることに鑑みて、グリッド地図上の1つのグリッドセルに関して、複数の計測向きに対応した複数の地図データを保持している。環境地図及びその生成手順の具体例については後述する。
 自己位置推定部14は、距離センサ11により取得された距離データ、並びにオドメトリ情報及び環境地図を利用して、移動環境内におけるロボット1の絶対位置を推定する。自己位置推定部14による自己位置推定手順の具体例は後述する。
 自律移動部15は、環境地図記憶部13に格納された環境地図を参照し、自律移動制御を実行する。図2は、ロボット1を車輪走行型とした場合の自律移動部15の一例を示すブロック図である。なお、ロボット1が脚歩行型などの車輪走行型以外の移動ロボットであってもよいことは勿論である。
 図2において、動作計画部150は、環境地図、自己位置推定部14により決定されたロボット1の自己位置情報などに基づいて、ロボット1の動作内容を決定する。より具体的に述べると、動作計画部150は、ロボット1の移動経路、目標移動速度、目標加速度、及びロボット1が備える関節(不図示)の目標角度軌道等を生成する。
 動作制御部151は、動作計画部150により決定された目標移動速度又は目標加速度などの制御目標値と、エンコーダ154によって計測される車輪153の回転量を入力してフィードバック制御を実行し、車輪153を回転駆動するためのトルク制御値を算出する。動作制御部151によって算出されたトルク制御値に従って駆動部152が車輪153を駆動することにより、ロボット1の移動が行なわれる。
 続いて以下では、環境地図の生成手順及び環境地図の具体例について、図3~10を参照して詳しく説明する。図3は、地図生成部12による環境地図の生成手順を示すフローチャートである。ステップS11では、地図生成部12が、距離センサ11により取得された距離データを入力する。ステップS12では、地図生成部12が、エンコーダ154により取得されるオドメトリ情報を入力する。
 ステップS13では、地図生成部12が、オドメトリに基づいてロボット位置及び姿勢を算出する。なお、このとき、オドメトリの誤差を補正するために、距離データのスキャンマッチング及び確率推定手法等の公知の手法を用いて、ロボット位置及び姿勢を補正してもよい。
 ステップS14では、地図生成部12が、距離データ中の複数の計測点を、距離センサ11のレーザ照射向き毎に分類する。つまり、距離センサ11のレーザ照射向きは、距離センサ11によって移動環境内の対象物を計測する際の計測向きに相当する。そして、分類されたレーザ照射向き毎の計測結果を集計して、占有率地図を作成する。ここで、占有率地図は、環境地図の生成過程で作られるグリッド地図である。占有率地図の各グリッドセルは、距離センサ11から照射されるレーザ光が通過した回数(以下では、レーザ通過回数と呼ぶ)、及び距離センサ11によって対象物が検出された回数(以下では、壁検出回数と呼ぶ)を、レーザ照射方向毎に分類して保持する。
 図4に占有率地図の一例を示す。図4の占有率地図100では、レーザ光の照射向き、つまり距離センサ11による計測向きが90度毎に4等分されている。具体的には、地図の上から下向き(以下、-y向きと呼ぶ)、地図の下から上向き(以下、+y向きと呼ぶ)、地図の右から左向き(以下、-x向きと呼ぶ)、及び地図の左から右向き(以下、+x向きと呼ぶ)の4つの向きに分割されている。
 図5は、占有率地図100の作成手順を説明するための概念図である。図5に描画されたロボット1は、オドメトリに基づいて特定されたロボット1の位置及び姿勢を表している。また、図5に描画された計測点101は、オドメトリに基づいて特定された距離センサ11による計測点の1つを表している。この場合、計測点101が含まれるグリッドセル102では、+y向きレーザ通過回数が1つカウントアップされ、+y向き壁検出回数も1つカウントアップされる。一方、グリッドセル103を含むレーザ通過経路上のグリッドセルでは、+y向きレーザ通過回数のみが1つカウントアップされる。
 図3に戻り説明を続ける。ステップS15では、取得された距離データの全てについて処理が終了したかを判定し、終了していなければ、ステップS11~S14を繰り返し実行する。
 ステップS16では、占有率地図を元に、レーザ照射向き毎の壁地図を生成する。ここで、壁地図とは、各グリッドセルが「移動可能セル」、「壁セル」又は「未観測セル」のいずれであるかを示す情報が、各グリッドセルの値として保持されたグリッド地図である。各グリッドセルが、「移動可能セル」、「壁セル」又は「未観測セル」のいずれであるかは、例えば、2ビットの値により識別すればよい。
 図6に壁地図の一例を示す。図6の壁地図200は、+y向き、-y向き、-x向き、及び+x向きの4つの計測向きごとに、「移動可能セル」、「壁セル」又は「未観測セル」のいずれであるかを示す判定値が保持されている。各計測向きの判定値は、占有率地図100における対応する計測向きの集計結果に基づいて決定する。具体的には、占有率地図100の各計測向きの集計結果を用いて、以下に示す評価値Pを算出すればよい。
  P=壁検出回数/(壁検出回数+レーザ通過回数)
 そして、評価値Pの大きさが所定の閾値を超えたグリッドセルを「壁セル」、所定の閾値以下のセルを「移動可能セル」、レーザ通過回数がゼロのセルを「未観測セル」とすればよい。
 ここで、移動環境とこれに対応する壁地図の具体例を説明する。図7は、移動環境の具体例を示している。図7に示す移動環境300の中央部分には、ロボット1が移動不可能である柱301が配置されている。ロボット1が、図7の移動環境300のスタート地点からゴール地点まで移動しながら、ロボット1の前方側180度の範囲に距離センサ11によるレーザ光を照射して距離計測を行うことによって、壁地図を作成する場合を考える。
 この場合、柱301の地図上での上側の面301Uは、主として-y向きに照射されたレーザ光によって観測される。また、ロボット1がスタート地点から地図上の右方向に向けて移動するために、上側の面301Uは、+x向きに照射されたレーザ光によっても観測される。また、柱301の地図上での右側の面301Rは、主として-x向きに照射されたレーザ光によって観測され、-y向きのレーザ光によっても観測される。また、柱301の地図上での下側の面301Dは、主として+y向きに照射されたレーザ光によって観測され、-x向きのレーザ光によっても観測される。また、柱301の地図上での左側の面301Lは、主として+x向きに照射されたレーザ光によって観測され、+y向きのレーザ光によっても観測される。
 このような観測によって生成される壁地図の具体例を図8A~Dに示す。図8A~Dの4枚の壁地図は、-y向き、-x向き、+y向き、及び+x向きの壁地図200U、200R、200D、及び200Lをそれぞれ示している。図8A~Dにおいて、白抜きのグリッドセル201は、「移動可能セル」を示している。また、右肩下がりの斜線でハッチングされたグリッドセル202は、「壁セル」を示している。また、右肩上がりの斜線でハッチングされたグリッドセル203は、「未観測セル」を示している。
 なお、複数の計測向きに対応した地図データを有する環境地図の具体的なデータ構造は特に限定されない。例えば、1つのグリッドセルに関連付けて、4つの計測向きに対応した4つの地図データを保持する場合には、図8A~Dに示したように、グリッドセルの位置を特定するための座標情報と1つの地図データとが関連付けられた壁地図4枚の組み合わせとして環境地図を生成してもよい。また、環境地図は、図6に示したように、1のグリッドセルの位置を特定するための座標情報に対して4つの計測向きに対応した4つの地図データを関連付けて記憶したデータ構造としてもよい。
 図3に戻り説明を続ける。図3の最後のステップS17では、ステップS16で生成された壁地図を元に、レーザ照射向き毎の距離地図を生成する。ここで、距離地図とは、各グリッドセルの値として最寄りの壁セルからの距離情報が保持されたグリッド地図である。
 ここで、距離地図の具体例について図9A及びBを用いて説明する。図9Aは、壁地図として作成された環境地図を示している。図9Aにおいて、セル410を含む白抜きのセルは、「移動可能セル」を示し、セル411を含む斜線でハッチングされたセルは、「壁セル」を示している。
 一方、図9Bは、図9Aの壁地図41を距離地図に変換した例を示している。図9Bの距離地図42は、各グリッドセルの値として最寄りの壁セルからの距離を保持している。例えば、図9Bの斜線でハッチングされたグリッドセルは、セル411を含む壁セルに対応しているため、最寄りの壁セルからの距離はゼロである。したがって、壁セルの保持値はゼロである。また、これら壁セルの上下左右のいずれかに隣接するグリッドセルの保持値は1である。その他のセルも同様に、セルピッチ(セルの一辺の長さ)を単位距離として、各グリッドセルの中心から最寄りの壁セルの中心までの距離を表した数値を保持している。
 図9Bに示したような距離地図を予め作成しておくことによって、後述する自己位置推定を行う際に、最寄りの壁セルまでの距離を繰り返し求める演算を効率よく実行できる。環境地図の保持値を読み出すことによって所望の距離値が得られるため、距離の解析的な計算を都度行う必要が無く計算量を削減することができるためである。
 距離地図の作成は、例えば、以下に示す手順で行なうことができる。ここでは、最寄りの壁セルまでの距離及び最寄りの壁セル座標が各グリッドセルに保持される距離地図の作成方法について説明する。まず、始めに、距離地図の初期値を設定する。具体的には、壁地図として作成された環境地図の壁セルについて、自身の座標を最寄りの壁セル座標としてセットし、壁距離をゼロにセットする。壁セル以外のセル、例えば、「移動可能セル」及び「未観測セル」等については、十分遠方の座標を壁セル座標の初期値にセットし、壁距離の値も予め定められた最大値にセットする。
 次に、図10に示すように、壁地図として作成された環境地図の最外周のグリッドセルを除くグリッドセル501から右方向に1セルずつ走査する。順次走査される各グリッドセルでは、隣接する8個のグリッドセルに保持されている最寄りの壁セル座標(x、y)を用いて走査対象セルの座標から最寄りの壁セルまでの距離を計算する。例えば、グリッドセル501の場合、四角形503で囲まれたグリッドセルC1~C8が対象となる。8つの隣接セルの保持値を用いて最寄りの壁セルまでの距離を計算した結果、最小となった距離及び最小値を与える壁セル座標を、走査対象セルに関連付けて保存する。このようなグリッドセルの走査を、左上から右下まで順次行い、次に、右下のグリッドセル502から左上のグリッドセル501まで逆順序で走査する。このような手順により、壁地図として作成された環境地図をもとに、距離地図を生成することができる。
 続いて以下では、計測向き毎の地図データを有する環境地図を利用した自己位置推定の具体的手順について詳しく説明する。図11は、自己位置推定部14による自己位置推定手順を示すフローチャートである。
 ステップS21では、距離センサ11により取得された距離データを入力する。ステップS22では、エンコーダ154により取得されるオドメトリ情報を入力する。ステップS23では、オドメトリ情報を用いてロボット1の移動量を算出する。ステップS24では、ステップS23で得た移動量を前回求めた自己位置に加えた地点及びその近傍に複数のロボット候補位置及び候補姿勢(X、Y,θ)を設定する。
 ステップS25及びS26では、複数のロボット候補位置及び候補姿勢の各々について順に環境地図とのマッチングを行い、信頼度パラメータを算出する。具体的には、ステップS25において、距離データ中の計測点毎に、レーザ照射方向に応じた地図データを選択してマッチングを行う。
 ステップS25における地図データ選択の具体例について図12A及びBを参照して説明する。ロボット1が、図12Aに示すように移動環境600内に位置している場合、ロボット1から左向きに照射されたレーザ光により得られる計測点群601は、-x向きの地図データとマッチングされる。また、ロボット1の前方に照射されたレーザ光により得られる計測点群602は、+y向きの地図データとマッチングされる。また、ロボット1から右向きに照射されたレーザ光により得られる計測点群603は、+x向きの地図データとマッチングされる。
 一方、ロボット1が、図12Bに示すように、図12Aと比べて右に約90度回転した姿勢で移動環境600内に位置する場合、計測点と照合される地図データが変化する。すなわち、ロボット1から左向きに照射されたレーザ光により得られる計測点群601は、+y向きの地図データとマッチングされる。また、ロボット1の前方に照射されたレーザ光により得られる計測点群602は、+x向きの地図データとマッチングされる。また、ロボット1から右向きに照射されたレーザ光により得られる計測点群603は、-y向きの地図データとマッチングされる。
 図11のステップS26で算出される信頼度パラメータは、距離センサ11による計測点の位置に対応する距離地図内のグリッドセルに保持された"最寄りの壁セルからの距離"を複数の計測点に亘って集計した合計値とすればよい。この場合、最寄りの壁セルからの距離の合計値が小さいほど、距離データと環境地図の一致度が高く、信頼度が高いことを意味する。
 ステップS27では、複数の候補位置及び候補姿勢の全てについて信頼度パラメータの算出が終了したかを判定し、終了していなければ、上述したステップS25及びS26を繰り返す。
 ステップS28では、複数の候補位置及び候補姿勢の中で最も信頼度が高い、言い換えると、信頼度パラメータとしての"最寄りの壁セルからの距離の合計値"が最も小さい候補位置及び姿勢を、ロボット1の自己位置及び姿勢(X、Y,θ)に決定する。
 上述したように、本実施の形態にかかるロボット1は、自己位置推定を行う際に、移動環境内の各地点に関連付けて計測向き毎の複数の地図データが保持された環境地図を用いる。そして、ロボット1は、距離センサ11による計測を行ったときの計測向きに応じて、距離センサ11により取得された距離データとのマッチングに使用する地図データを使い分ける。これにより、ロボット1の位置する場所からの周囲の見え方に対応した適切な地図データを用いて自己位置推定を行うことができる。
 上述した地図生成部12による環境地図の生成処理は、ASIC、DSP等の半導体処理装置を用いて実現してもよい。地図生成処理は、図3に示した処理手順が記述された地図生成プログラムをマイクロプロセッサ等のコンピュータに実行させることによって実現してもよい。同様に、自己位置推定部14による自己位置推定についても、ASIC、DSP等の半導体処理装置を用いて実現してもよい。自己位置推定は、図11に示した処理手順が記述された自己位置推定プログラムをマイクロプロセッサ等のコンピュータに実行させることによって実現してもよい。
 地図生成プログラム及び自己位置推定プログラムは、様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達されることが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD-ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等が含まれる。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれ、インターネットも含まれる。
<その他の実施の形態>
 発明の実施の形態1では、ロボット1自身が環境地図の生成を行うものとして説明した。しかしながら、ロボット1は、外部から供給される環境地図を環境地図記憶部13に格納しておき、これを用いて自己位置推定を行ってもよい。
 また、発明の実施の形態1では、距離センサ11による計測向きを90度毎に4等分し、4つの計測向きに対応した4つの地図データを有する環境地図を生成する具体例を示した。しかしながら、環境地図に保持される地図データの計測向きの分割単位が90度に限られないことは勿論である。具体的には、地図データの計測向きの分割単位は、距離センサ11が水平走査を行なう際の計測角度の分解能に比べて粗く設定しておけばよい。これにより、環境地図のデータサイズが過度に大きくなることを避けることができる。また、上述したように、距離センサ11による距離計測結果を集計して環境地図を作成する場合には、各計測向きの角度範囲内に多くの計測点が含まれることになるため、計測向き毎の地図データを精度良く生成するこができる。
 また、発明の実施の形態1では、環境地図として距離地図を使用する例を示した。しかしながら、ロボット1は、距離地図を使用せずに、移動環境内の地点から最寄りの障害物までの距離情報を含む壁地図を用いて自己位置推定を行ってもよい。また、ロボット1が使用する環境地図は、上述した壁地図及び距離地図のほか、移動環境内の各地点の床面からの高さが記憶された地図等の他の地図でもよい。また、発明の実施の形態1では、環境地図が2次元のグリッド地図であるとして説明を行なった。しかしながら、環境地図は、例えば、3次元のグリッド地図でもよい。
 さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
 本発明は、自律移動ロボット、特に自律移動ロボットの自己位置推定技術及び環境地図の生成技術に適用することができる。

Claims (10)

  1.  移動環境内の対象物までの距離を計測する距離センサと、
     前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を記憶する環境地図記憶部と、
     前記距離センサによって前記対象物の計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択するとともに、選択された地図データ及び前記距離センサにより得られる前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定する自己位置推定部と、
    を備える移動ロボット。
  2.  前記地図データを分類する前記複数の計測向きの分割単位は、前記距離センサの計測角度の分解能に比べて荒く設定されている、請求項1に記載の移動ロボット。
  3.  前記距離センサは、レーザ光を走査して複数の計測点の距離情報を取得するレーザレンジファインダであって、
     前記自己位置推定部は、前記レーザ光の照射方向と、オドメトリを用いて算出した自己位置候補とに基づいて、前記複数の計測点を前記複数の計測向きのいずれかに分類し、前記複数の計測点の各々の前記距離情報を分類された計測向きの前記地図データと照合することで前記自己位置を推定する、請求項1又は2に記載の移動ロボット。
  4.  前記地図データは、前記地点を前記移動ロボットが移動可能であるか否かを示す情報、前記地点から最寄りの障害物までの距離を示す情報、及び前記地点の高さを示す情報のうち少なくとも1つを含む、請求項1乃至3のいずれか1項に記載の環境地図の移動ロボット。
  5.  移動環境内を移動する移動ロボットの自己位置推定方法であって、
     前記移動環境内の対象物までの距離を計測し、
     前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を参照し、
     前記対象物の距離計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択し、
     選択された地図データ及び前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定する、
    自己位置推定方法。
  6.  前記地図データを分類する前記複数の計測向きの分割単位は、前記距離センサの計測角度の分解能に比べて荒く設定されている、請求項5に記載の自己位置推定方法。
  7.  移動ロボットの移動環境に関する環境地図の生成方法であって、
     前記移動環境内の地点を複数の計測向きから計測し、
     前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成し、
     前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶する、
    環境地図の生成方法。
  8.  移動ロボットの移動環境に関する環境地図の生成装置であって、
     前記移動環境内の地点を複数の計測向きから計測した計測結果を入力する手段と、
     前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成する手段と、
     前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶する手段と、
    を備える環境地図の生成装置。
  9.  移動ロボットの移動環境内における位置を特定するための座標情報と、
     前記座標情報により特定される地点を第1の計測向きから見た場合の地図データ及び前記地点を前記第1の計測向きとは異なる第2の計測向きから見た場合の地図データと、
    を備える環境地図のデータ構造。
  10.  前記地図データは、前記地点が移動可能であるか否かを示す情報、前記地点から最寄りの障害物までの距離を示す情報、及び前記地点の高さを示す情報のうち少なくとも1つを含む、請求項9に記載の環境地図のデータ構造。
PCT/JP2009/051200 2008-02-26 2009-01-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 WO2009107430A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/919,354 US9239580B2 (en) 2008-02-26 2009-01-26 Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map
EP09713949.7A EP2256574B1 (en) 2008-02-26 2009-01-26 Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map generating computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008044058A JP4788722B2 (ja) 2008-02-26 2008-02-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP2008-044058 2008-02-26

Publications (1)

Publication Number Publication Date
WO2009107430A1 true WO2009107430A1 (ja) 2009-09-03

Family

ID=41015836

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/051200 WO2009107430A1 (ja) 2008-02-26 2009-01-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造

Country Status (4)

Country Link
US (1) US9239580B2 (ja)
EP (1) EP2256574B1 (ja)
JP (1) JP4788722B2 (ja)
WO (1) WO2009107430A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014046213A1 (ja) * 2012-09-21 2014-03-27 株式会社タダノ 作業車の周囲情報取得装置
CN107037806A (zh) * 2016-02-04 2017-08-11 科沃斯机器人股份有限公司 自移动机器人重新定位方法及采用该方法的自移动机器人
JP2018194417A (ja) * 2017-05-17 2018-12-06 株式会社Soken 位置推定装置、移動装置
CN112965076A (zh) * 2021-01-28 2021-06-15 上海思岚科技有限公司 一种用于机器人的多雷达定位系统及方法
US20210270633A1 (en) * 2018-07-30 2021-09-02 Chiba Institute Of Technology Map generation system and mobile object
US20220009109A1 (en) * 2020-07-09 2022-01-13 Lg Electronics Inc. Moving robot and control method thereof

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8626443B2 (en) * 2009-09-18 2014-01-07 Deutsches Zentrum für Luft—und Raumfahrt e.V. Method for creating a map relating to location-related data on the probability of future movement of a person
KR101641237B1 (ko) * 2009-11-20 2016-07-21 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US8265870B1 (en) * 2010-01-20 2012-09-11 Sandia Corporation Real-time method for establishing a detection map for a network of sensors
JP5560794B2 (ja) * 2010-03-16 2014-07-30 ソニー株式会社 制御装置、制御方法およびプログラム
KR101202108B1 (ko) 2010-06-03 2012-11-15 고려대학교 산학협력단 이동 로봇의 위치 추정 방법
KR20120043446A (ko) * 2010-10-26 2012-05-04 한국전자통신연구원 차량 및 장애물의 위치 검출 장치 및 그 방법
DE112011104645T5 (de) * 2010-12-30 2013-10-10 Irobot Corp. Mobiler Mensch-Schnittstellen-Roboter
KR101232584B1 (ko) 2011-02-11 2013-02-12 고려대학교 산학협력단 이동 로봇의 제어 장치 및 그 방법
JP5720292B2 (ja) * 2011-02-17 2015-05-20 富士通株式会社 推定位置評価システム及びプログラム
JP2012194860A (ja) * 2011-03-17 2012-10-11 Murata Mach Ltd 走行車
WO2012160630A1 (ja) * 2011-05-20 2012-11-29 株式会社日立製作所 軌跡補正方法、軌跡補正装置および移動体装置
EP2715286B1 (en) * 2011-05-31 2020-11-25 John Bean Technologies Corporation Deep lane navigation system for automatic guided vehicles
US20130060461A1 (en) * 2011-09-07 2013-03-07 INRO Technologies Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
JP5765163B2 (ja) * 2011-09-26 2015-08-19 トヨタ自動車株式会社 自己位置推定装置、方法、及びプログラム
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
DE102012201870A1 (de) * 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
CN102681542A (zh) * 2012-03-07 2012-09-19 陶重犇 一种室内多用途移动机器人实验平台
US9448062B2 (en) 2012-04-11 2016-09-20 Balyo S. A. Apparatus and method for determining reference elements of an environment
US9150119B2 (en) 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
US20140108027A1 (en) 2012-10-12 2014-04-17 Mckesson Automation Inc. Apparatuses, systems, and methods for delivering medications from a central pharmacy to a patient in a healthcare facility
TWM451103U (zh) * 2012-10-30 2013-04-21 Agait Technology Corp 行走裝置
KR102096398B1 (ko) * 2013-07-03 2020-04-03 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法
JP6191484B2 (ja) * 2014-02-03 2017-09-06 トヨタ自動車株式会社 移動ロボットの自己位置推定方法
US9886036B2 (en) 2014-02-10 2018-02-06 John Bean Technologies Corporation Routing of automated guided vehicles
JP2015215651A (ja) * 2014-05-08 2015-12-03 株式会社日立製作所 ロボットおよび自己位置推定方法
US9418446B2 (en) * 2014-08-27 2016-08-16 Nokia Technologies Oy Method and apparatus for determining a building location based on a building image
FR3025325B1 (fr) * 2014-09-01 2016-12-30 Valeo Schalter & Sensoren Gmbh Dispositif et procede de localisation et de cartographie
DE102014116882B4 (de) * 2014-11-18 2018-05-24 B. Strautmann & Söhne GmbH u. Co. KG Verfahren zur Entnahme von Futtermitteln aus Fahrsilos
US10822208B2 (en) 2014-12-23 2020-11-03 Manitowoc Crane Companies, Llc Crane 3D workspace spatial techniques for crane operation in proximity of obstacles
US9850109B2 (en) * 2014-12-23 2017-12-26 Manitowoc Crane Companies, Llc Crane 3D workspace spatial techniques for crane operation in proximity of obstacles
CN104615138B (zh) * 2015-01-14 2017-09-08 上海物景智能科技有限公司 一种划分移动机器人室内区域动态覆盖方法及其装置
CN104571113B (zh) * 2015-01-20 2017-07-11 新智认知数据服务有限公司 移动机器人的路径规划方法
EP3249419A4 (en) * 2015-01-22 2018-02-28 Guangzhou Airob Robot Technology Co., Ltd. Color block tag-based localization and mapping method and device thereof
JP6411917B2 (ja) * 2015-02-27 2018-10-24 株式会社日立製作所 自己位置推定装置および移動体
US9864371B2 (en) 2015-03-10 2018-01-09 John Bean Technologies Corporation Automated guided vehicle system
JP6594008B2 (ja) * 2015-03-23 2019-10-23 株式会社メガチップス 移動体制御装置、ランドマーク、および、プログラム
WO2017017705A1 (ja) * 2015-07-24 2017-02-02 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
CN105137998B (zh) * 2015-10-13 2017-12-08 徐金平 一种基于激光扫描仪的自主导航方法
JP6649743B2 (ja) * 2015-10-28 2020-02-19 シャープ株式会社 一致性評価装置および一致性評価方法
JP6428569B2 (ja) * 2015-11-02 2018-11-28 トヨタ自動車株式会社 環境地図の更新方法
WO2017152390A1 (zh) * 2016-03-09 2017-09-14 广州艾若博机器人科技有限公司 地图构建方法、纠正方法及装置
AU2017285019B2 (en) 2016-06-15 2022-11-10 Irobot Corporation Systems and methods to control an autonomous mobile robot
US9919748B2 (en) * 2016-06-22 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicles with aerodynamic spoiler and retractable sensing systems
US10739142B2 (en) * 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
JP6812271B2 (ja) * 2017-02-27 2021-01-13 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6640779B2 (ja) * 2017-03-21 2020-02-05 株式会社東芝 自律移動装置及び移動制御システム
KR101912361B1 (ko) * 2017-03-27 2018-10-26 (주)엔스퀘어 물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법
WO2018192683A1 (de) * 2017-04-21 2018-10-25 Sew-Eurodrive Gmbh & Co. Kg Verfahren zum detektieren beweglicher objekte in einer anlage und/oder zur kollisionsvermeidung in einer anlage und anlage zur durchführung eines solchen verfahrens
JP6828579B2 (ja) * 2017-04-27 2021-02-10 トヨタ自動車株式会社 環境整備ロボットおよびその制御プログラム
JP7032062B2 (ja) * 2017-06-02 2022-03-08 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
CN109426248A (zh) * 2017-08-25 2019-03-05 科沃斯机器人股份有限公司 自移动机器人及其行走方法、显示障碍物分布的方法
CN109425352A (zh) * 2017-08-25 2019-03-05 科沃斯机器人股份有限公司 自移动机器人路径规划方法
JP7074438B2 (ja) 2017-09-05 2022-05-24 トヨタ自動車株式会社 自車位置推定装置
JP7109174B2 (ja) * 2017-10-03 2022-07-29 株式会社トプコン 経路選定装置、無人航空機、データ処理装置、経路選定処理方法および経路選定処理用プログラム
CN109959935B (zh) * 2017-12-14 2020-10-23 北京欣奕华科技有限公司 一种地图建立方法、地图建立装置及机器人
US10612934B2 (en) 2018-01-12 2020-04-07 General Electric Company System and methods for robotic autonomous motion planning and navigation
JP7275518B2 (ja) * 2018-10-02 2023-05-18 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
WO2020073168A1 (zh) * 2018-10-08 2020-04-16 苏州金瑞麒智能科技有限公司 一种轮椅控制方法及系统
CN109739255B (zh) * 2018-11-29 2020-11-24 北京航空航天大学 无人机的航行轨迹规划方法、装置及系统
US11399685B2 (en) * 2019-03-28 2022-08-02 Lg Electronics Inc. Artificial intelligence cleaner and method of operating the same
KR102353320B1 (ko) * 2019-04-16 2022-01-19 한국전자기술연구원 지도 생성 장치 및 방법, 이를 이용한 이동 로봇
US20220276655A1 (en) * 2019-08-21 2022-09-01 Sony Group Corporation Information processing device, information processing method, and program
US11320528B1 (en) 2019-11-20 2022-05-03 Telephonics Corporation Monopulse secondary surveillance radar system
CN113777615B (zh) * 2021-07-19 2024-03-29 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、系统及清洁机器人

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6258311A (ja) 1985-09-09 1987-03-14 Toshiba Corp 自律的移動体
JP2001125640A (ja) * 1999-10-26 2001-05-11 Matsushita Electric Works Ltd 自律移動台車及びその自己位置推定方法
JP2001242934A (ja) 2000-02-28 2001-09-07 Honda Motor Co Ltd 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
JP2005310043A (ja) 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP2006252346A (ja) 2005-03-11 2006-09-21 Secom Co Ltd 移動ロボット
JP2007078476A (ja) * 2005-09-13 2007-03-29 Toshiba Corp 物体位置検出装置、地図作成装置、自律移動装置、物体位置検出方法および物体位置検出プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5006988A (en) * 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
DE4408328C2 (de) 1994-03-11 2002-09-26 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
DE4408982C1 (de) 1994-03-16 1995-05-18 Deutsche Forsch Luft Raumfahrt Autonomes Navigationssystem für einen mobilen Roboter oder Manipulator
US6205380B1 (en) 1996-07-02 2001-03-20 Siemens Aktiengesellschaft Process for preparing an area plan having a cellular structure and comprising a unit moving automatically and positioned in said area using sensors based on wave reflection
KR100561863B1 (ko) * 2004-02-19 2006-03-16 삼성전자주식회사 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
WO2005098476A1 (en) * 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
US20060058921A1 (en) 2004-09-13 2006-03-16 Tamao Okamoto Mobile robot
JP2008276754A (ja) * 2007-03-30 2008-11-13 Topy Ind Ltd ロボット位置検出システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6258311A (ja) 1985-09-09 1987-03-14 Toshiba Corp 自律的移動体
JP2001125640A (ja) * 1999-10-26 2001-05-11 Matsushita Electric Works Ltd 自律移動台車及びその自己位置推定方法
JP2001242934A (ja) 2000-02-28 2001-09-07 Honda Motor Co Ltd 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
JP2005310043A (ja) 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP2006252346A (ja) 2005-03-11 2006-09-21 Secom Co Ltd 移動ロボット
JP2007078476A (ja) * 2005-09-13 2007-03-29 Toshiba Corp 物体位置検出装置、地図作成装置、自律移動装置、物体位置検出方法および物体位置検出プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2256574A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014046213A1 (ja) * 2012-09-21 2014-03-27 株式会社タダノ 作業車の周囲情報取得装置
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
CN107037806A (zh) * 2016-02-04 2017-08-11 科沃斯机器人股份有限公司 自移动机器人重新定位方法及采用该方法的自移动机器人
JP2018194417A (ja) * 2017-05-17 2018-12-06 株式会社Soken 位置推定装置、移動装置
US20210270633A1 (en) * 2018-07-30 2021-09-02 Chiba Institute Of Technology Map generation system and mobile object
US11802779B2 (en) * 2018-07-30 2023-10-31 Chiba Institute Of Technology Map generation system and mobile object
US20220009109A1 (en) * 2020-07-09 2022-01-13 Lg Electronics Inc. Moving robot and control method thereof
US11669106B2 (en) * 2020-07-09 2023-06-06 Lg Electronics Inc. Moving robot and control method thereof
CN112965076A (zh) * 2021-01-28 2021-06-15 上海思岚科技有限公司 一种用于机器人的多雷达定位系统及方法
CN112965076B (zh) * 2021-01-28 2024-05-24 上海思岚科技有限公司 一种用于机器人的多雷达定位系统及方法

Also Published As

Publication number Publication date
EP2256574A4 (en) 2011-12-07
EP2256574A1 (en) 2010-12-01
JP2009205226A (ja) 2009-09-10
US9239580B2 (en) 2016-01-19
US20110010033A1 (en) 2011-01-13
EP2256574B1 (en) 2015-06-17
JP4788722B2 (ja) 2011-10-05

Similar Documents

Publication Publication Date Title
JP4788722B2 (ja) 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
US10962376B2 (en) Adaptive mapping with spatial summaries of sensor data
US9939529B2 (en) Robot positioning system
US8195331B2 (en) Method, medium, and apparatus for performing path planning of mobile robot
JP5278283B2 (ja) 自律移動装置及びその制御方法
JP5817611B2 (ja) 移動ロボット
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
JP2005326944A (ja) レーザー計測により地図画像を生成する装置及び方法
JP5016399B2 (ja) 地図情報作成装置及びそれを備えた自律移動装置
JP2009217333A (ja) 移動ロボット及びその動作制御方法
JP5147129B2 (ja) 自律型移動体
JP4660387B2 (ja) 移動体の位置情報補正装置及び方法、その装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体
JP2008076252A (ja) 自己位置認識システム
JP2011209845A (ja) 自律移動体、自己位置推定方法、地図情報作成システム
JP2018206004A (ja) 自律走行台車の走行制御装置、自律走行台車
RU2740229C1 (ru) Способ локализации и построения навигационных карт мобильного сервисного робота
JP2009237851A (ja) 移動体制御システム
JP7133251B2 (ja) 情報処理装置および移動ロボット
JP2020064011A (ja) レーザスキャナのキャリブレーション方法、運搬機械
JP5212939B2 (ja) 自律移動装置
JP2009223757A (ja) 自律移動体、その制御システム、自己位置推定方法
JP2009301401A (ja) 自律移動装置
JP2020024618A (ja) 移動経路取得方法、及び、移動経路取得装置
KR102203284B1 (ko) 이동 로봇의 주행 평가 방법
JP2018084995A (ja) 経路データ生成装置、それを備える移動体及び経路データ生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09713949

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12919354

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2009713949

Country of ref document: EP