WO2011074165A1 - 自律移動装置 - Google Patents

自律移動装置 Download PDF

Info

Publication number
WO2011074165A1
WO2011074165A1 PCT/JP2010/006265 JP2010006265W WO2011074165A1 WO 2011074165 A1 WO2011074165 A1 WO 2011074165A1 JP 2010006265 W JP2010006265 W JP 2010006265W WO 2011074165 A1 WO2011074165 A1 WO 2011074165A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
map
mobile device
area
autonomous mobile
Prior art date
Application number
PCT/JP2010/006265
Other languages
English (en)
French (fr)
Inventor
中野剛
田中昌司
Original Assignee
村田機械株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 村田機械株式会社 filed Critical 村田機械株式会社
Priority to KR1020127007777A priority Critical patent/KR101420201B1/ko
Priority to EP10837203.8A priority patent/EP2498158A4/en
Priority to US13/514,004 priority patent/US8897947B2/en
Publication of WO2011074165A1 publication Critical patent/WO2011074165A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Definitions

  • the present invention relates to an autonomous mobile device that autonomously moves to a destination.
  • the area where the autonomous mobile device should avoid entering may not be limited to the area where the obstacle exists.
  • areas where the autonomous mobile device should avoid entry include areas with steps such as stairs where the autonomous mobile apparatus cannot move, areas that are dangerous if moved such as a patient's treatment room, and the like. In this case, it is necessary to perform control so as to avoid the entry of the autonomous mobile device even in an area where no obstacle exists.
  • the autonomous mobile device described in Patent Document 1 cannot detect the area where the approach should be avoided if there is no obstacle. For this reason, although there is no obstacle, it is not possible to move while avoiding autonomously the area where entry should be avoided.
  • the present invention has been made to solve the above-described problems, and provides an autonomous mobile device capable of autonomously avoiding an area where entry should be avoided even if no obstacle exists, and moving.
  • the purpose is to do.
  • An autonomous mobile device includes an obstacle sensor that acquires surrounding obstacle information, an environmental map that indicates an obstacle area where an obstacle exists, and an entry prohibited area map that indicates an entry prohibited area where entry is prohibited.
  • Storage means for storing, estimation means for estimating the self-position using the obstacle information acquired by the obstacle sensor and the environment map, the self-position estimated by the estimation means, the environment map, and the entry prohibition area map And a control means for controlling the autonomous movement based on the above.
  • the entry prohibition area map indicating the entry prohibition area prohibiting the entry of the autonomous mobile device is stored by the storage unit.
  • the self-position on the environment map is estimated by the estimation means.
  • the autonomous movement is controlled by the control means based on the estimated self-location, the environment map, and the entry prohibition area map. Accordingly, it is possible to move while avoiding the obstacle area and the entry prohibition area while estimating the self position. In other words, even if there are no obstacles, it is possible to move while avoiding autonomously the area where entry should be avoided.
  • the autonomous mobile device includes a reception unit that receives an operation for setting an entry prohibition region, and the storage unit stores an entry prohibition region map set based on the operation received by the reception unit. Is preferred. In this case, the user can arbitrarily set the entry prohibition area.
  • the autonomous mobile device further includes a combining unit that generates a combined map obtained by combining the environmental map and the entry prohibition area map.
  • the composition means reflects both the obstacle area indicated by the environmental map and the entry prohibited area indicated by the entry prohibited area map for each pixel corresponding to the environment map and the entry prohibited area map. It is preferable to generate a composite map.
  • the autonomous mobile device further includes a calculation unit that calculates avoidance information based on the obstacle region and the entry prohibition region using the self-position estimated by the estimation unit and the composite map generated by the synthesis unit.
  • the control means preferably performs control for avoiding the obstacle using the avoidance information calculated by the calculation means and the obstacle information acquired by the obstacle sensor.
  • the avoidance information based on the obstacle area and the avoidance information based on the entry prohibition area in the composite map are calculated based on the self position. Thereby, even if it is a case where obstacle information cannot be acquired with an obstacle sensor, the avoidance information based on an obstacle area
  • the calculation means generates virtual sensor output by calculating avoidance information that is compatible with an obstacle information output format by the obstacle sensor.
  • the avoidance information obtained by the calculation means can be processed using the same algorithm as the obstacle information obtained by the obstacle sensor.
  • the autonomous mobile device further includes an integration unit that integrates the obstacle information by the obstacle sensor and the avoidance information by the calculation unit, and the control unit uses the obstacle information and the avoidance information integrated by the integration unit. It is preferable to perform control to avoid obstacles. In this case, even when the number of obstacle sensors is changed, integrated obstacle information is input to the control means, so that software changes in the control means can be minimized.
  • the obstacle sensor is preferably a laser range finder.
  • FIG. 1 is a diagram for explaining a configuration of an autonomous mobile device 1 according to the present embodiment.
  • the autonomous mobile device 1 is a device that autonomously moves to a destination while avoiding obstacles such as people and objects and set entry prohibition areas.
  • the autonomous mobile device 1 includes a hollow cylindrical main body 10 made of metal, four omni wheels 11 provided on the lower side of the main body 10, and four electric motors 12 that drive the omni wheel 11. Yes.
  • the autonomous mobile device 1 can move in any direction on the moving surface by individually adjusting the rotation direction and rotation speed of each of the four omni wheels 11 by each electric motor 12.
  • the autonomous mobile device 1 includes a laser range finder 13, a stereo camera 14, a touch screen 15, and an electronic control device 20.
  • the laser range finder 13 is a sensor that acquires obstacle information around the own machine, and functions as an obstacle sensor described in the claims.
  • the laser range finder 13 is attached to the front surface of the main body 10 and emits a laser in a fan shape and in a horizontal direction, and measures a propagation time of a reflected wave reflected by an obstacle at each emission angle. The distance calculated from the emission angle and the propagation time of the reflected wave is the obstacle information output from the laser range finder 13.
  • the stereo camera 14 calculates the distance and angle from its own device to the obstacle based on the principle of triangulation using stereo images. This distance and angle are obstacle information output from the stereo camera 14.
  • the touch screen 15 is an input device that includes a liquid crystal display and a touch panel. When the user performs a touch operation on information displayed on the liquid crystal display, the touch panel detects the touch operation and the user's operation is accepted.
  • the electronic control unit 20 inputs obstacle information output from the laser range finder 13 and the stereo camera 14 and controls autonomous movement. For this reason, the electronic control unit 20 includes a microprocessor that performs calculations, a ROM that stores programs for causing the microprocessor to execute each process, a RAM that temporarily stores various data such as calculation results, and the storage thereof. It is composed of a backup RAM, a hard disk, etc. for holding the contents.
  • FIG. 2 is a block diagram showing a functional configuration of the electronic control unit 20.
  • the electronic control device 20 includes a storage unit 21, a setting unit 22, a synthesis unit 23, a route planning unit 24, a self-position estimation unit 25, a map sensor 26, a sensor data integration unit 27, and a movement control unit 28.
  • the storage unit 21 is configured by a backup RAM or the like, and stores an environmental map 211 and an entry prohibition area map 212. That is, the storage unit 21 functions as a storage unit described in the claims.
  • the environment map 211 and the entry prohibition area map 212 are stored in different layers, and are stored so that one change does not affect the other.
  • the environment map 211 is a map showing an obstacle area 31 where an obstacle exists.
  • a white area indicates an obstacle area 31 where an obstacle exists
  • a gray area indicates an area 32 where no obstacle exists.
  • the obstacle area 31 shown in the environment map 211 is an area where a static obstacle that does not move exists, for example, an area occupied by a wall or furniture.
  • the obstacle region 31 is detected in advance by the laser range finder 13 and / or the stereo camera 14.
  • the obstacle region 31 can also be created by adding data such as walls and furniture to the CAD data of the building to which the autonomous mobile device 1 moves.
  • the entry prohibition area map 212 is a map showing the entry prohibition area 33.
  • the light gray area indicates the entry prohibition area 33
  • the dark gray area indicates the area 34 other than the entry prohibition area.
  • the entry prohibition area 33 is an area set to prohibit entry of the autonomous mobile device 1. Even if the laser range finder 13 and the stereo camera 14 can detect an obstacle in the entry prohibition area 33, the laser range finder 13 and the stereo camera 14 cannot detect the entry prohibition area 33 itself.
  • the entry prohibition area 33 can be arbitrarily set by the user.
  • the entry prohibition area 33 is set in front of a staircase or a step where the autonomous mobile device 1 cannot move, thereby preventing the autonomous mobile device 1 from entering the staircase or the step.
  • a dangerous area or the like when the autonomous mobile device 1 moves such as a hospital treatment room, can be set as the entry prohibition area 33.
  • An area where an obstacle exists but cannot be detected by the laser range finder 13 or the stereo camera 14 or an area that is difficult to detect may be set as the entry prohibition area 33.
  • the entry prohibition area 33 can be arbitrarily set by the user via the touch screen 15. Specifically, when the user specifies an entry prohibition area by a touch operation on the environment map 211 displayed on the touch screen 15, the touch screen 15 receives the user's touch operation. That is, the touch screen 15 functions as a receiving unit described in the claims. The touch screen 15 outputs the received touch operation information to the setting unit 22.
  • the setting unit 22 Based on the touch operation output from the touch screen 15, the setting unit 22 sets the designated entry prohibited area on the entry prohibited area map 212, and stores the information of the entry prohibited area map 212 after setting to the storage unit 21. Output. Thereby, the entry prohibition area arbitrarily set by the user is reflected in the entry prohibition area map 212 in the storage unit 21.
  • the synthesizing unit 23 synthesizes the environment map 211 and the entry prohibited area map 212 to generate a synthesized map 213. That is, the synthesizing unit 23 functions as synthesizing means described in the claims.
  • the composite map 213 is indicated by the obstacle region 31 and the entry prohibition region map 212 indicated by the environment map 211 for each pixel corresponding to the environment map 211 and the entry prohibition region map 212. Both of the entry prohibition areas 33 are reflected.
  • a pixel refers to each rectangular area divided by a grid in FIGS. 3A to 3C.
  • the white area 35 in FIG. 3C reflects the obstacle area 31 of the environmental map 211.
  • the light gray area 36 reflects the entry prohibition area 33 of the entry prohibition area map 212.
  • the dark gray area 37 is an area other than the obstacle area 31 and the entry prohibition area 33.
  • the route plan unit 24 plans a route to the destination using the composite map 213 generated by the composition unit 23. That is, the route planning unit 24 functions as a planning unit described in the claims.
  • the route planning unit 24 uses the composite map 213 to route so as to avoid both the obstacle region 31 included in the environment map 211 and the entry prohibited region 33 included in the entry prohibited region map 212. To plan.
  • the self-position estimation unit 25 estimates the self-position using the obstacle information output from the laser range finder 13 and the environment map 211. That is, the self-position estimation unit 25 functions as an estimation unit described in the claims.
  • a method for estimating the self-position will be described with reference to FIGS. 4A and 4B.
  • 4A and 4B are diagrams for explaining a method of estimating the self position by the self position estimation unit 25.
  • FIG. 4A and 4B are diagrams for explaining a method of estimating the self position by the self position estimation unit 25.
  • the five arrows in FIG. 4A correspond to the five obstacle information 41 output from the laser range finder 13.
  • An arrow indicating the obstacle information 41 indicates an emission angle and a distance included in the obstacle information 41.
  • the self-position estimation unit 25 searches the environment map 211 for coordinates having a high degree of coincidence between the obstacle region 31 and the obstacle information 41 output from the laser range finder 13, and finds the coordinate having the highest degree of coincidence. Estimated position.
  • the self-position estimating unit 25 estimates the direction of the own device in the environment map 211. For example, the self-position estimating unit 25 estimates the direction of the own aircraft from the rotation amount of the omni wheel 11 and information on each injection angle included in the obstacle information 41.
  • the environment map 211 is used instead of the composite map 213. If the self-location is estimated using the composite map 213, the obstacle region 31 that can be detected by the laser range finder 13 and the entry prohibition region 33 that cannot be detected by the laser range finder 13 cannot be identified. This is because the possibility of mistakes increases.
  • the autonomous mobile device 1 uses the environment map 211 when estimating its own position.
  • a composite map 213 obtained by combining the environment map 211 and the entry prohibition map 212 is used. Therefore, in the autonomous mobile device 1, the storage unit 21 stores the environment map 211 and the entry prohibited area map 212 in different layers, and the composition unit 23 combines the environment map 211 and the entry prohibited area map 212. A map 213 is generated.
  • the map sensor 26 calculates virtual obstacle information corresponding to the obstacle area 31 and the entry prohibition area 33 using the estimated self-location and the composite map 213.
  • the virtual obstacle information is avoidance information that is generated based on the obstacle area 31 and the entry prohibition area 33 in the composite map 213 and is used for avoidance control. That is, the map sensor 26 functions as calculation means described in the claims.
  • the map sensor 26 will be described with reference to FIG.
  • the arrows shown in FIG. 5 indicate virtual obstacle information 43 calculated by the map sensor 26.
  • the map sensor 26 projects the estimated self-position 50 on the composite map 213 and calculates a virtual sensor output as the obstacle information 43.
  • the virtual sensor output is obtained when the area 35 corresponding to the obstacle area 31 and the area 36 corresponding to the entry prohibition area 33 are virtually regarded as areas where obstacles exist, Output obtained by a simple sensor. That is, the obstacle information 43 is not the information of the obstacle detected by the presence of the actual obstacle, but the virtual obstacle information generated by the calculation.
  • the virtual obstacle information 43 has the same data format as the actual obstacle information output from the laser range finder 13 and the stereo camera 14.
  • FIG. 6 is a table showing the data format of the virtual obstacle information 43.
  • the virtual obstacle information 43 includes information indicating an angle number (for example, 100) and a distance from the own device to the obstacle (for example, 2525 mm). The angle number corresponds to the emission angle of the obstacle information output from the laser range finder 13.
  • the sensor data integration unit 27 integrates the actual obstacle information acquired by the laser range finder 13 and the stereo camera 14 and the virtual obstacle information 43 calculated by the map sensor 26. That is, the sensor data integration unit 27 functions as an integration unit described in the claims.
  • the distance at which the detection of the obstacle is guaranteed for the laser range finder 13 may be 5 m, and the distance for the stereo camera 14 may be 10 m.
  • the sensor data integration unit 27 integrates the actual obstacle information that is input into information within a distance of 5 m, for example, by deleting information with a distance greater than 5 m.
  • FIG. 7A shows actual obstacle information 42 acquired by the laser range finder 13 at a certain time.
  • a rectangular area 39 indicated by a broken line is an area within the obstacle area 31 but not detected by the laser range finder 13. This is because the laser range finder 13 may not be able to detect the reflected wave depending on the color or material of the obstacle or the reflection angle of the laser. For this reason, a so-called flicker may occur that is detected at a certain moment by the laser range finder 13 and not detected at the next moment.
  • the virtual obstacle information 43 by the map sensor 26 is calculated based on an area 35 corresponding to the obstacle area 31 stored in advance. For this reason, virtual obstacle information 43 corresponding to the region 39 that could not be detected by the laser range finder 13 is included.
  • the obstacle information that could not be acquired by the laser range finder 13 or the stereo camera 14. Can be complemented. Thereby, what is called flickering can be prevented and obstacle information can be obtained stably.
  • the movement control unit 28 controls the motor 12 to move along the route planned by the route planning unit 24 based on the self-position estimated by the self-position estimating unit 25.
  • the movement control unit 28 includes an obstacle avoiding unit 29.
  • the obstacle avoiding unit 29 detects an obstacle on the way to the destination along the route planned by the route planning unit 24, the obstacle avoiding unit 29 uses the obstacle information output from the sensor data integration unit 27, Controls avoiding obstacles by calculating interference between the aircraft and obstacles.
  • the control for avoiding the obstacle includes control for stopping so as not to contact the obstacle, control for detouring, and the like.
  • FIG. 8 is a flowchart showing a processing procedure for obstacle avoidance control by the autonomous mobile device 1. This obstacle avoidance control is executed by the electronic control device 20 when the autonomous mobile device 1 autonomously moves to the destination along the planned route.
  • step S101 actual obstacle information acquired by the laser range finder 13 and the stereo camera 14 is read.
  • step S ⁇ b> 102 the self position is estimated by the self position estimation unit 25 based on the environment map 211 and the actual obstacle information by the laser range finder 13. Since the self-position estimation method is as described above, detailed description is omitted here.
  • step S103 the virtual obstacle information 43, which is a virtual sensor output based on the self-location, is obtained using the composite map 213 in which the environment map 211 and the entry prohibition area map 212 are combined. Calculated by the sensor 26. That is, when the area 35 corresponding to the obstacle area 31 and the area 36 corresponding to the entry prohibition area 33 are virtually regarded as areas where obstacles exist, the virtual sensor located at the self-position 50 is obtained. A sensor output is generated.
  • step S104 the actual obstacle information read in step S101 and the virtual obstacle information 43 calculated in step S103 are integrated by the sensor data integration unit 27. That is, the obstacle information acquired by the laser range finder 13 and the stereo camera 14 and the virtual obstacle information 43 corresponding to the obstacle area 31 and the entry prohibition area 33 by the map sensor 26 are integrated.
  • step S105 the movement control unit 28 performs control for avoiding the obstacle based on the obstacle information integrated in step S104.
  • the autonomous mobile device 1 detects the obstacle area 31 on the environment map 211, the entry prohibition area 212 on the entry prohibition area 212, and the dynamic range detected by the laser range finder 13 and the stereo camera 14 during movement. You can move around obstacles.
  • the process shown in FIG. 8 is repeated for each control period of the autonomous mobile device 1.
  • the storage unit 21 stores an entry prohibition area map 212 indicating the entry prohibition area 33 in addition to the environment map 211 indicating the obstacle area 31. Based on the actual obstacle information and the obstacle area 31, the self-position is estimated. Therefore, errors in self-position estimation can be suppressed.
  • autonomous movement is controlled based on the estimated self-location and the composite map 213 in which the environment map 211 and the entry prohibition area map 212 are combined. Thereby, it is possible to move while avoiding the obstacle area 31 and the entry prohibition area 33. In other words, even if there are no obstacles, it is possible to move while avoiding autonomously the area where entry should be avoided.
  • an operation for setting the entry prohibition area 33 is accepted by the touch screen 15, and the set entry prohibition area 33 is reflected in the entry prohibition area map 212. For this reason, the user can arbitrarily set the entry prohibition area 33 according to the situation.
  • the route can be planned so as to avoid both the obstacle region 31 and the entry prohibition region 33. .
  • the virtual obstacle information 43 corresponding to the obstacle area 31 and the virtual obstacle information 43 corresponding to the entry prohibition area 33 in the composite map 213 are based on the self position. Is calculated. Thereby, even when the actual obstacle information cannot be acquired by the laser range finder 13, the virtual obstacle information 43 of the obstacle region 31 can be acquired. Therefore, so-called flicker can be prevented. Further, the virtual obstacle information 43 of the entry prohibition area 33 can be acquired by regarding the entry prohibition area 33 as an area to be avoided in the same manner as the obstacle area 31. As a result, control for avoiding the obstacle can be performed more reliably, and control for avoiding the entry prohibition area 33 can be performed.
  • the virtual obstacle information 43 having the same data format as the actual obstacle information obtained by the laser range finder 13 and the stereo camera 14 is calculated by the map sensor 26, thereby providing a virtual A sensor output is generated.
  • the process which integrates the actual obstacle information by the laser range finder 13 and the stereo camera 14, and the virtual obstacle information by the map sensor 26 can be easily performed.
  • the map sensor 26 is added later to the autonomous mobile device including the laser range finder 13 and the stereo camera 14, the software for integrating the virtual obstacle information 43 output from the map sensor 26 is changed. Can be minimized.
  • the movement control unit 28 performs control to avoid the obstacle using the integrated obstacle information. Therefore, even when the number of sensors for detecting the obstacle is changed, the integrated obstacle information is input to the movement control unit 28, so that the software change in the movement control unit 28 is minimized. Can do. Therefore, it is possible to flexibly cope with specification changes.
  • the present invention is not limited to the above-described embodiments, and various modifications can be made.
  • the laser range finder 13 and the stereo camera 14 are used as means for acquiring surrounding obstacle information, but the present invention is not limited to this. Either one of the laser range finder 13 and the stereo camera 14 may be used, or an ultrasonic sensor or the like may be combined.
  • the obstacle information obtained by the laser range finder 13 is used for self-position estimation.
  • the self-position may be estimated using obstacle information obtained by another stereo camera or an ultrasonic sensor.
  • the map sensor 26 calculates the virtual obstacle information 43 having the same format as the data format of the actual obstacle information by the laser range finder 13, but the present invention is not limited to this.
  • the map sensor 26 may calculate virtual obstacle information having a data format compatible with the actual obstacle information obtained by the laser range finder 13.
  • the sensor data integration unit 27 performs processing for unifying the data format.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

 障害物が存在しなくても進入を回避すべき領域を自律的に回避して移動することが可能な自律移動装置を提供する。 自律移動装置(1)は、周囲の障害物情報を取得するレーザレンジファインダ(13)と、障害物が存在する障害物領域(31)を示す環境地図(211)、及び、進入を禁止する進入禁止領域(33)を示す進入禁止領域地図(212)を記憶する記憶部(21)と、レーザレンジファインダ(13)によって取得された障害物情報と環境地図(211)とを用いて自己位置を推定する自己位置推定部(25)と、推定された自己位置、環境地図(211)、及び進入禁止領域地図(212)に基づいて、障害物領域(31)及び進入禁止領域(33)を回避して目的地まで自律移動するように制御する移動制御部(28)とを備える。

Description

自律移動装置
 本発明は、目的地まで自律的に移動する自律移動装置に関する。
 従来から、壁等の障害物の形状を示す地図情報と、距離センサによって測定した自機から障害物までの水平距離とを用いて、障害物を回避しながら目的地まで自律的に移動する自律移動装置が知られている(例えば、特許文献1参照)。
特開2005-157625号公報
 ところで、自律移動装置が進入を回避すべき領域は、障害物が存在する領域だけに限られない場合がある。例えば、病院等の環境においては、自律移動装置が進入を回避すべき領域として、自律移動装置が移動できない階段などの段差がある領域、患者の処置室など移動すると危険な領域等がある。この場合、障害物が存在しない領域であっても、自律移動装置の進入を回避するように制御する必要がある。しかしながら、特許文献1に記載の自律移動装置では、障害物がなければ、上記の進入を回避すべき領域を検出することができない。このため、障害物は存在しないが進入を回避すべき領域を自律的に回避して移動することができない。
 本発明は、上記問題点を解消する為になされたものであり、障害物が存在しなくても進入を回避すべき領域を自律的に回避して移動することが可能な自律移動装置を提供することを目的とする。
 本発明に係る自律移動装置は、周囲の障害物情報を取得する障害物センサと、障害物が存在する障害物領域を示す環境地図、及び、進入を禁止する進入禁止領域を示す進入禁止領域地図を記憶する記憶手段と、障害物センサによって取得された障害物情報と環境地図とを用いて自己位置を推定する推定手段と、推定手段によって推定された自己位置、環境地図、及び進入禁止領域地図に基づいて、自律移動を制御する制御手段と、を備えることを特徴とする。
 本発明に係る自律移動装置によれば、障害物領域を示す環境地図に加えて、自律移動装置の進入を禁止する進入禁止領域を示す進入禁止領域地図が記憶手段によって記憶される。そして、環境地図と取得した障害物情報とに基づいて、環境地図上の自己位置が推定手段によって推定される。これにより、障害物センサによって取得された障害物情報と環境地図とに基づいて、進入禁止領域の影響を受けることなく、環境地図上の自己位置を推定することができる。従って、自己位置推定の誤りを抑制することができる。また、推定された自己位置、環境地図、及び進入禁止領域地図に基づいて、自律移動が制御手段によって制御される。これにより、自己位置を推定しながら、障害物領域及び進入禁止領域を回避して移動することができる。すなわち、障害物が存在しなくても進入を回避すべき領域を自律的に回避して移動することが可能となる。
 本発明に係る自律移動装置では、進入禁止領域を設定するための操作を受け付ける受付手段を備え、記憶手段は、受付手段によって受け付けられた操作に基づいて設定された進入禁止領域地図を記憶することが好ましい。この場合、進入禁止領域をユーザが任意に設定することができる。
 本発明に係る自律移動装置では、環境地図と進入禁止領域地図とを合成した合成地図を生成する合成手段を更に備えることが好ましい。また、この合成手段は、環境地図と進入禁止領域地図との相互に対応するピクセル毎に、環境地図によって示される障害物領域と進入禁止領域地図によって示される進入禁止領域との双方が反映された合成地図を生成することが好ましい。また、合成手段によって生成された合成地図を用いて、目的地までの経路を計画する計画手段を更に備え、制御手段は、計画手段によって計画された経路に基づいて自律移動を制御することが好ましい。この場合、計画手段は、合成地図に基づいて経路を計画するので、障害物領域と進入禁止領域との双方の領域を回避するように経路を計画することができる。
 本発明に係る自律移動装置では、推定手段によって推定された自己位置と、合成手段によって生成された合成地図とを用いて、障害物領域及び進入禁止領域に基づく回避情報を算出する算出手段を更に備え、制御手段は、算出手段によって算出された回避情報と、障害物センサによって取得された障害物情報とを用いて障害物を回避する制御を行うことが好ましい。
 この場合、合成地図における障害物領域に基づく回避情報と進入禁止領域に基づく回避情報とが、自己位置を基準にして算出される。これにより、障害物センサによって障害物情報を取得できない場合であっても、障害物領域に基づく回避情報を取得することができる。これにより、障害物を回避する制御をより確実に行うことができる。また、進入禁止領域の回避情報が算出され、算出された回避情報を用いて障害物を回避する制御が行われる。これにより、障害物領域と同じように、進入禁止領域を回避すべき領域とみなして、進入禁止領域を回避する制御を行うことができる。
 本発明に係る自律移動装置では、算出手段が、障害物センサによる障害物情報の出力形式と互換性のある回避情報を算出することにより、仮想的なセンサ出力を生成することが好ましい。この場合、算出手段による回避情報を障害物センサによる障害物情報と同じアルゴリズムを用いて情報処理することができる。
 本発明に係る自律移動装置では、障害物センサによる障害物情報と算出手段による回避情報とを統合する統合手段を更に備え、制御手段は、統合手段によって統合された障害物情報及び回避情報を用いて障害物を回避する制御を行うことが好ましい。この場合、障害物センサの数が変更される場合でも、統合された障害物情報が制御手段に入力されるので、制御手段におけるソフトウエアの変更を最小限に抑えることができる。
 本発明に係る自律移動装置では、障害物センサが、レーザレンジファインダであることが好ましい。
 本発明によれば、障害物が存在しなくても進入を回避すべき領域を自律的に回避して移動することが可能となる。
本実施形態に係る自律移動装置の構成を説明するための図である。 自律移動装置が備える電子制御装置の機能的な構成を示すブロック図である。 自律移動装置が用いる環境地図の一例を示す図である。 自律移動装置が用いる進入禁止領域地図の一例を示す図である。 自律移動装置が用いる合成地図の一例を示す図である。 自律移動装置が備える自己位置推定部によって自己位置を推定する方法について説明するための図である。 自律移動装置が備える自己位置推定部によって自己位置を推定する方法について説明するための図である。 自律移動装置が備える地図センサについて説明するための図である。 自律移動装置が用いる障害物情報の例を示す表である。 自律移動装置が備えるレーザレンジファインダによる実際の障害物情報と地図センサによる仮想的な障害物情報とについて説明するための図である。 自律移動装置が備えるレーザレンジファインダによる実際の障害物情報と地図センサによる仮想的な障害物情報とについて説明するための図である。 自律移動装置による障害物回避制御の処理手順を示すフローチャートである。
 以下、図面を参照して本発明の好適な実施形態について詳細に説明する。
 まず、図1を参照して、本実施形態に係る自律移動装置1の構成について説明する。図1は、本実施形態に係る自律移動装置1の構成を説明するための図である。自律移動装置1は、人及び物等の障害物及び設定された進入禁止領域を回避して、目的地まで自律的に移動する装置である。
 この自律移動装置1は、金属で形成された中空円柱状の本体10と、本体10の下側に設けられた4つのオムニホイール11と、オムニホイール11を駆動する4つの電動モータ12を備えている。自律移動装置1は、4つのオムニホイール11それぞれの回転方向及び回転速度を各電動モータ12によって個別に調節することより、移動面における任意の方向に移動することができる。また、自律移動装置1は、レーザレンジファインダ13、ステレオカメラ14、タッチスクリーン15、及び電子制御装置20を備えている。
 レーザレンジファインダ13は、自機周囲の障害物情報を取得するセンサであり、特許請求の範囲に記載の障害物センサとして機能する。レーザレンジファインダ13は、本体10の正面に取り付けられ、扇状且つ水平方向にレーザを射出し、各射出角度について、障害物により反射した反射波の伝播時間を計測する。射出角度、及び反射波の伝播時間から算出される距離が、レーザレンジファインダ13から出力される障害物情報である。
 ステレオカメラ14は、ステレオ画像を用いた三角測量の原理に基づいて、自機から障害物までの距離及び角度を算出する。この距離及び角度が、ステレオカメラ14から出力される障害物情報である。タッチスクリーン15は、液晶ディスプレイ、及び、タッチパネルから構成される入力装置である。ユーザが、液晶ディスプレイに表示された情報に対してタッチ操作を行うと、タッチパネルがタッチ操作を検出し、ユーザの操作が受け付けられる。
 電子制御装置20は、レーザレンジファインダ13及びステレオカメラ14から出力される障害物情報を入力し、自律移動の制御を行う。このため、電子制御装置20は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを一時的に記憶するRAM、及び、その記憶内容が保持されるバックアップRAMやハードディスク等から構成されている。
 図2を参照して、上述したハードウエアとソフトウエアの組み合わせにより実現される電子制御装置20の機能的な構成要素について説明する。図2は、電子制御装置20の機能的な構成を示すブロック図である。電子制御装置20は、記憶部21、設定部22、合成部23、経路計画部24、自己位置推定部25、地図センサ26、センサデータ統合部27、及び移動制御部28を備える。
 記憶部21は、バックアップRAM等によって構成され、環境地図211及び進入禁止領域地図212を記憶している。すなわち、記憶部21は、特許請求の範囲に記載の記憶手段として機能する。環境地図211と進入禁止領域地図212とは、異なるレイヤに記憶され、一方の変更が他方に影響を与えないように記憶されている。
 図3Aに示すように、環境地図211は、障害物が存在する障害物領域31を示す地図である。図3Aにおいて、白色の領域は障害物が存在する障害物領域31を示し、灰色の領域は障害物が存在しない領域32を示している。環境地図211に示される障害物領域31は、動かない静的な障害物が存在する領域であり、例えば壁や家具等が占める領域である。この障害物領域31は、レーザレンジファインダ13及び/又はステレオカメラ14によって予め検出されたものである。なお、障害物領域31は、自律移動装置1の移動する建物のCADデータなどに壁や家具などのデータを付加することでも作成することができる。
 図3Bに示すように、進入禁止領域地図212は、進入禁止領域33を示す地図である。図3Bにおいて、薄い灰色の領域が進入禁止領域33を示し、濃い灰色の領域は、進入禁止領域以外の領域34を示している。進入禁止領域33は、自律移動装置1の進入を禁止するために設定される領域である。レーザレンジファインダ13及びステレオカメラ14は、進入禁止領域33内の障害物を検知できても、進入禁止領域33そのものを検知することはできない。
 進入禁止領域33は、ユーザが任意に設定することができる。例えば、自律移動装置1が移動できない階段又は段差等の手前に進入禁止領域33が設定されることにより、自律移動装置1が階段や段差には進入しないようにすることができる。また、例えば病院の処置室等、自律移動装置1が移動すると危険な領域等を進入禁止領域33に設定することができる。なお、障害物が存在するが、レーザレンジファインダ13又はステレオカメラ14によって検知できない領域、検知し難い領域が、進入禁止領域33として設定されてもよい。
 この進入禁止領域33は、ユーザがタッチスクリーン15を介して任意に設定することができる。具体的には、ユーザが、タッチスクリーン15により表示された環境地図211上において、タッチ操作により進入禁止領域を指定すると、タッチスクリーン15は、ユーザのタッチ操作を受け付ける。すなわち、タッチスクリーン15は、特許請求の範囲に記載の受付手段として機能する。タッチスクリーン15は、受け付けたタッチ操作の情報を設定部22へ出力する。
 設定部22は、タッチスクリーン15から出力されたタッチ操作に基づいて、指定された進入禁止領域を進入禁止領域地図212上に設定し、設定後の進入禁止領域地図212の情報を記憶部21へ出力する。これにより、ユーザによって任意に設定された進入禁止領域が、記憶部21内の進入禁止領域地図212に反映される。
 合成部23は、環境地図211と進入禁止領域地図212とを合成して合成地図213を生成する。すなわち、合成部23は、特許請求の範囲に記載の合成手段として機能する。図3Cに示すように、合成地図213には、環境地図211と進入禁止領域地図212との相互に対応するピクセル毎に、環境地図211によって示される障害物領域31と進入禁止領域地図212によって示される進入禁止領域33との双方が反映されている。本実施形態において、ピクセルとは、図3A~図3Cにおける、グリッドによって分割された矩形の各領域のことをいう。
 図3Cにおける白色の領域35は、環境地図211の障害物領域31が反映されている。薄い灰色の領域36は、進入禁止領域地図212の進入禁止領域33が反映されている。濃い灰色の領域37は、障害物領域31及び進入禁止領域33以外の領域である。
 経路計画部24は、合成部23によって生成された合成地図213を用いて、目的地までの経路を計画する。すなわち、経路計画部24は、特許請求の範囲に記載の計画手段として機能する。経路計画部24は、合成地図213を用いることにより、環境地図211に含まれる障害物領域31と、進入禁止領域地図212に含まれる進入禁止領域33との双方を回避して移動するように経路を計画する。
 自己位置推定部25は、レーザレンジファインダ13から出力された障害物情報と、環境地図211とを用いて自己位置を推定する。すなわち、自己位置推定部25は、特許請求の範囲に記載の推定手段として機能する。ここで、図4A,図4Bを参照して、自己位置を推定する方法について説明する。なお、図4A,図4Bは、自己位置推定部25によって自己位置を推定する方法について説明するための図である。
 図4Aにおける5本の矢印が、レーザレンジファインダ13から出力される5つの障害物情報41に相当する。障害物情報41を示す矢印は、障害物情報41に含まれる射出角度及び距離を示している。自己位置推定部25は、環境地図211上で、障害物領域31と、レーザレンジファインダ13から出力された障害物情報41との一致度が高い座標を探索し、最も一致度が高い座標を自己位置と推定する。
 図4Bに示すように、自己位置候補(1)と自己位置候補(2)とを比較すると、障害物領域31と障害物情報41との一致度は自己位置候補(2)の方が高い。この場合、自己位置候補(2)が自己位置と推定される。また、自己位置推定部25は、環境地図211における自機の向きを推定する。自己位置推定部25は、例えば、オムニホイール11の回転量、障害物情報41に含まれる各射出角度の情報等から自機の向きを推定する。
 なお、自己位置を推定する際には、合成地図213を用いずに、環境地図211を用いる。合成地図213を用いて自己位置を推定すると、レーザレンジファインダ13で検知可能な障害物領域31とレーザレンジファインダ13で検知不可能な進入禁止領域33との識別ができないので、自己位置の推定を誤る可能性が高くなるためである。
 上述したように、自律移動装置1では、自己位置を推定する際に、環境地図211が用いられる。一方、目的地までの経路を計画する際には、環境地図211と進入禁止地図212とを合成した合成地図213が用いられる。このため、自律移動装置1では、記憶部21が、環境地図211と進入禁止領域地図212とを異なるレイヤで記憶し、合成部23が、環境地図211と進入禁止領域地図212とを合成した合成地図213を生成する。
 地図センサ26は、推定された自己位置と合成地図213とを用いて、障害物領域31及び進入禁止領域33に対応する仮想的な障害物情報を算出する。仮想的な障害物情報とは、合成地図213における障害物領域31と進入禁止領域33とに基づいて生成され、回避制御に用いられる回避情報である。すなわち、地図センサ26は、特許請求の範囲に記載の算出手段として機能する。ここで、図5を参照して地図センサ26について説明する。図5に示される矢印が、地図センサ26によって算出される仮想的な障害物情報43を示す。
 地図センサ26は、推定された自己位置50を合成地図213上に投影し、仮想的なセンサ出力を障害物情報43として算出する。仮想的なセンサ出力は、障害物領域31に相当する領域35及び進入禁止領域33に相当する領域36を仮想的に障害物が存在する領域とみなした場合に、自己位置50に位置する仮想的なセンサによって得られる出力である。すなわち、障害物情報43は、実際の障害物の存在により検出された障害物の情報ではなく、演算により生成された仮想的な障害物情報である。
 この仮想的な障害物情報43は、レーザレンジファインダ13及びステレオカメラ14から出力される実際の障害物情報と同じデータフォーマットを有している。図6は、仮想的な障害物情報43のデータフォーマットを示す表である。図6に示されるように、仮想的な障害物情報43は、角度番号(例えば100)と自機から障害物までの距離(例えば2525mm)とを示す情報を含む。なお、角度番号が、レーザレンジファインダ13から出力される障害物情報の射出角度に相当する。
 センサデータ統合部27は、レーザレンジファインダ13及びステレオカメラ14により取得された実際の障害物情報と、地図センサ26により算出された仮想的な障害物情報43とを統合する。すなわち、センサデータ統合部27は、特許請求の範囲に記載の統合手段として機能する。
 例えば、レーザレンジファインダ13について障害物の検出が保証された距離が5mであり、ステレオカメラ14についてはその距離が10mである場合がある。この場合、センサデータ統合部27は、入力される実際の障害物情報について、距離が5mより大きいものは削除する等して、距離5m以内の情報に統合する。
 実際の障害物情報及び仮想的な障害物情報43が統合されることにより、レーザレンジファインダ13又はステレオカメラ14によって、エラー等の要因で取得できなかった障害物情報を、地図センサ26による仮想的な障害物情報43によって補完することができる。この点について図7A,図7Bを参照して説明する。図7Aは、ある時刻に、レーザレンジファインダ13によって取得された実際の障害物情報42を示す。
 破線で示す矩形の領域39は、障害物領域31内であるが、レーザレンジファインダ13によって検出できなかった領域である。これは、障害物の色や材質又はレーザの反射角度によっては、レーザレンジファインダ13が反射波を検出できない場合がある為である。このため、レーザレンジファインダ13によってある瞬間には検知され、次の瞬間には検知されないといった、いわゆるちらつきが発生することがある。
 一方、図7Bに示されるように、地図センサ26による仮想的な障害物情報43は、予め記憶された障害物領域31に相当する領域35に基づいて算出される。このため、レーザレンジファインダ13によって検知できなかった領域39に相当する仮想的な障害物情報43が含まれている。この地図センサ26による仮想的な障害物情報43とレーザレンジファインダ13及びステレオカメラ14による実際の障害物情報とを統合することにより、レーザレンジファインダ13又はステレオカメラ14によって取得できなかった障害物情報を補完することができる。これにより、いわゆるちらつきを防止して、安定して障害物情報を得ることができる。
 移動制御部28は、自己位置推定部25によって推定された自己位置に基づいて、経路計画部24によって計画された経路に沿って移動するようにモータ12の制御を行う。移動制御部28は、障害物回避部29を備える。障害物回避部29は、経路計画部24によって計画された経路に沿って目的地へ移動する途中で障害物を検知した場合に、センサデータ統合部27から出力された障害物情報を用いて、自機と障害物との干渉計算等を行い、障害物を回避する制御を行う。障害物を回避する制御には、障害物と接触しないように停止する制御、迂回する制御等が含まれる。
 次に、図8を用いて自律移動装置1による障害物回避制御の処理手順について説明する。図8は、自律移動装置1による障害物回避制御の処理手順を示すフローチャートである。この障害物回避制御は、自律移動装置1が、計画した経路に沿って目的地まで自律的に移動する際に、電子制御装置20によって実行される。
 まず、ステップS101において、レーザレンジファインダ13及びステレオカメラ14によって取得された実際の障害物情報が読み込まれる。次に、ステップS102において、自己位置が、環境地図211とレーザレンジファインダ13による実際の障害物情報とに基づいて、自己位置推定部25によって推定される。なお、自己位置の推定方法は上述した通りであるので、ここでは詳細な説明を省略する。
 そして、ステップS103において、環境地図211と進入禁止領域地図212とが合成された合成地図213を用いて、自己位置を基準とした仮想的なセンサ出力である仮想的な障害物情報43が、地図センサ26によって算出される。すなわち、障害物領域31に相当する領域35及び進入禁止領域33に相当する領域36を仮想的に障害物が存在する領域とみなした場合に、自己位置50に位置する仮想的なセンサによって得られるセンサ出力が生成される。
 続いて、ステップS104において、ステップS101で読み込まれた実際の障害物情報と、ステップS103で算出された仮想的な障害物情報43とが、センサデータ統合部27によって統合される。すなわち、レーザレンジファインダ13及びステレオカメラ14によって取得された障害物情報と、地図センサ26による障害物領域31及び進入禁止領域33に対応する仮想的な障害物情報43とが統合される。
 そして、ステップS105において、ステップS104で統合された障害物情報に基づいて、障害物を回避する制御が、移動制御部28によって行われる。これにより、自律移動装置1は、環境地図211上の障害物領域31と、進入禁止領域212上の進入禁止領域212と、移動中にレーザレンジファインダ13及びステレオカメラ14によって検出された動的な障害物とを回避して移動することができる。以上の図8に示される処理が、自律移動装置1の制御周期毎に繰り返して実行される。
 以上説明した本実施形態に係る自律移動装置1では、障害物領域31を示す環境地図211に加えて、進入禁止領域33を示す進入禁止領域地図212が記憶部21によって記憶される。そして、実際の障害物情報と障害物領域31とに基づいて、自己位置が推定される。従って、自己位置推定の誤りを抑制することができる。一方、推定された自己位置と、環境地図211及び進入禁止領域地図212が合成された合成地図213とに基づいて、自律移動が制御される。これにより、障害物領域31及び進入禁止領域33を回避して移動することができる。すなわち、障害物が存在しなくても進入を回避すべき領域を自律的に回避して移動することが可能となる。
 また、本実施形態によれば、進入禁止領域33を設定するための操作がタッチスクリーン15によって受け付けられ、設定された進入禁止領域33が、進入禁止領域地図212に反映される。このため、進入禁止領域33をユーザが状況に合わせて任意に設定することができる。
 本実施形態によれば、合成地図213に基づいて目的地までの経路が計画されるので、障害物領域31と進入禁止領域33との双方の領域を回避するように経路を計画することができる。
 また、本実施形態によれば、合成地図213における障害物領域31に対応する仮想的な障害物情報43と進入禁止領域33に対応する仮想的な障害物情報43とが、自己位置を基準にして算出される。これにより、レーザレンジファインダ13によって実際の障害物情報を取得できない場合であっても、障害物領域31の仮想的な障害物情報43を取得することができる。従って、いわゆるちらつきを防止することができる。また、進入禁止領域33を障害物領域31と同じように回避すべき領域とみなして、進入禁止領域33の仮想的な障害物情報43を取得することができる。これにより、障害物を回避する制御をより確実に行うことができると共に、進入禁止領域33を回避する制御を行うことができる。
 更に、本実施形態によれば、レーザレンジファインダ13及びステレオカメラ14による実際の障害物情報と同じデータフォーマットの仮想的な障害物情報43が、地図センサ26によって算出されることにより、仮想的なセンサ出力が生成される。これにより、レーザレンジファインダ13及びステレオカメラ14による実際の障害物情報と地図センサ26による仮想的な障害物情報とを統合する処理を容易に行うことができる。また、レーザレンジファインダ13及びステレオカメラ14を備える自律移動装置に地図センサ26を後から増設した場合、地図センサ26から出力される仮想的な障害物情報43を統合するためのソフトウエアの変更を最小限に抑えることができる。
 本実施形態によれば、統合された障害物情報を用いて、障害物を回避する制御が移動制御部28によって行われる。これにより、障害物を検知するセンサの数が変更される場合でも、統合された障害物情報が移動制御部28に入力されるので、移動制御部28におけるソフトウエアの変更を最小限に抑えることができる。よって、仕様変更に柔軟に対応することができる。
 以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、上記実施形態では、周囲の障害物情報を取得する手段としてレーザレンジファインダ13とステレオカメラ14を用いたが、これに限られない。レーザレンジファインダ13とステレオカメラ14のいずれか一方でもよいし、超音波センサなどを組み合わせてもよい。また、上記実施形態では、レーザレンジファインダ13による障害物情報を自己位置推定に用いたが、他のステレオカメラや超音波センサによる障害物情報を用いて自己位置を推定してもよい。
 また、上記実施形態では、地図センサ26が、レーザレンジファインダ13による実際の障害物情報のデータフォーマットと同じフォーマットの仮想的な障害物情報43を算出することとしたが、これに限られない。地図センサ26は、レーザレンジファインダ13による実際の障害物情報と互換性のあるデータフォーマットを有する仮想的な障害物情報を算出してもよい。この場合、例えば、センサデータ統合部27において、データフォーマットを統一する処理を行う。
 1 自律移動装置
 13 レーザレンジファインダ
 14 ステレオカメラ
 15 タッチスクリーン
 20 電子制御装置
 21 記憶部
 211 環境地図
 212 進入禁止領域地図
 213 合成地図
 22 設定部
 23 合成部
 24 経路計画部
 25 自己位置推定部
 26 地図センサ
 27 センサデータ統合部
 28 移動制御部
 29 障害物回避部
 

Claims (13)

  1.  周囲の障害物情報を取得する障害物センサと、
     障害物が存在する障害物領域を示す環境地図、及び、進入を禁止する進入禁止領域を示す進入禁止領域地図を記憶する記憶手段と、
     前記障害物センサによって取得された障害物情報と前記環境地図とを用いて自己位置を推定する推定手段と、
     前記推定手段によって推定された自己位置、前記環境地図、及び前記進入禁止領域地図に基づいて、自律移動を制御する制御手段と、
     を備えることを特徴とする自律移動装置。
  2.  前記進入禁止領域を設定するための操作を受け付ける受付手段を備え、
     前記記憶手段は、前記受付手段によって受け付けられた操作に基づいて設定された前記進入禁止領域地図を記憶することを特徴とする請求項1に記載の自律移動装置。
  3.  前記環境地図と前記進入禁止領域地図とを合成した合成地図を生成する合成手段を更に備えることを特徴とする請求項1に記載の自律移動装置。
  4.  前記合成手段は、前記環境地図と前記進入禁止領域地図との相互に対応するピクセル毎に、前記環境地図によって示される障害物領域と前記進入禁止領域地図によって示される進入禁止領域との双方が反映された前記合成地図を生成することを特徴とする請求項3に記載の自律移動装置。
  5.  前記合成手段によって生成された合成地図を用いて、目的地までの経路を計画する計画手段を更に備え、
     前記制御手段は、前記計画手段によって計画された経路に基づいて自律移動を制御することを特徴とする請求項3に記載の自律移動装置。
  6.  前記推定手段によって推定された自己位置と、前記合成手段によって生成された合成地図とを用いて、前記障害物領域及び前記進入禁止領域に基づく回避情報を算出する算出手段を更に備え、
     前記制御手段は、前記算出手段によって算出された回避情報と、前記障害物センサによって取得された障害物情報とを用いて障害物を回避する制御を行うことを特徴とする請求項3に記載の自律移動装置。
  7.  前記算出手段は、前記障害物センサによる障害物情報の出力形式と互換性のある前記回避情報を算出することにより、仮想的なセンサ出力を生成することを特徴とする請求項6に記載の自律移動装置。
  8.  前記障害物センサによる障害物情報と前記算出手段による回避情報とを統合する統合手段を更に備え、
     前記制御手段は、前記統合手段によって統合された前記障害物情報及び前記回避情報を用いて障害物を回避する制御を行うことを特徴とする請求項7に記載の自律移動装置。
  9.  前記障害物センサは、レーザレンジファインダであることを特徴とする請求項1に記載の自律移動装置。
  10.  前記環境地図と前記進入禁止領域地図とを合成した合成地図を生成する合成手段を更に備えることを特徴とする請求項2に記載の自律移動装置。
  11.  前記合成手段によって生成された合成地図を用いて、目的地までの経路を計画する計画手段を更に備え、
     前記制御手段は、前記計画手段によって計画された経路に基づいて自律移動を制御することを特徴とする請求項4に記載の自律移動装置。
  12.  前記推定手段によって推定された自己位置と、前記合成手段によって生成された合成地図とを用いて、前記障害物領域及び前記進入禁止領域に基づく回避情報を算出する算出手段を更に備え、
     前記制御手段は、前記算出手段によって算出された回避情報と、前記障害物センサによって取得された障害物情報とを用いて障害物を回避する制御を行うことを特徴とする請求項4に記載の自律移動装置。
  13.  前記推定手段によって推定された自己位置と、前記合成手段によって生成された合成地図とを用いて、前記障害物領域及び前記進入禁止領域に基づく回避情報を算出する算出手段を更に備え、
     前記制御手段は、前記算出手段によって算出された回避情報と、前記障害物センサによって取得された障害物情報とを用いて障害物を回避する制御を行うことを特徴とする請求項5に記載の自律移動装置。
     
PCT/JP2010/006265 2009-12-17 2010-10-22 自律移動装置 WO2011074165A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020127007777A KR101420201B1 (ko) 2009-12-17 2010-10-22 자율 이동 장치
EP10837203.8A EP2498158A4 (en) 2009-12-17 2010-10-22 AUTONOMOUS MOBILE DEVICE
US13/514,004 US8897947B2 (en) 2009-12-17 2010-10-22 Autonomous mobile device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009286846A JP2011128899A (ja) 2009-12-17 2009-12-17 自律移動装置
JP2009-286846 2009-12-17

Publications (1)

Publication Number Publication Date
WO2011074165A1 true WO2011074165A1 (ja) 2011-06-23

Family

ID=44166940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/006265 WO2011074165A1 (ja) 2009-12-17 2010-10-22 自律移動装置

Country Status (5)

Country Link
US (1) US8897947B2 (ja)
EP (1) EP2498158A4 (ja)
JP (1) JP2011128899A (ja)
KR (1) KR101420201B1 (ja)
WO (1) WO2011074165A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105136155A (zh) * 2015-09-24 2015-12-09 联想(北京)有限公司 一种导航方法及电子设备
JP2020509500A (ja) * 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH 自律移動ロボットの制御方法
JP2021500688A (ja) * 2017-10-30 2021-01-07 珠海市一微半導体有限公司Amicro Semiconductor Co., Ltd. ロボットの走行予測及び制御方法
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AP2011006008A0 (en) * 2009-05-01 2011-12-31 Univ Sydney Integrated automation system with picture compilation system.
JP5460413B2 (ja) * 2010-03-26 2014-04-02 ダイハツ工業株式会社 自車位置認識装置
WO2012166970A1 (en) * 2011-05-31 2012-12-06 John Bean Technologies Corporation Deep lane navigation system for automatic guided vehicles
US9098087B2 (en) * 2013-02-04 2015-08-04 Caterpillar Inc. System and method for adjusting the operation of a machine
US9141107B2 (en) 2013-04-10 2015-09-22 Google Inc. Mapping active and inactive construction zones for autonomous driving
JP5714129B1 (ja) * 2013-07-30 2015-05-07 株式会社小松製作所 鉱山機械の管理システム及び管理方法
US9886036B2 (en) * 2014-02-10 2018-02-06 John Bean Technologies Corporation Routing of automated guided vehicles
US9535421B1 (en) * 2014-02-28 2017-01-03 Savioke, Inc. Mobile delivery robot with interior cargo space
US9605415B2 (en) 2014-09-12 2017-03-28 Caterpillar Inc. System and method for monitoring a machine
JP5902275B1 (ja) * 2014-10-28 2016-04-13 シャープ株式会社 自律移動装置
US20200409382A1 (en) * 2014-11-10 2020-12-31 Carnegie Mellon University Intelligent cleaning robot
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US9801517B2 (en) 2015-03-06 2017-10-31 Wal-Mart Stores, Inc. Shopping facility assistance object detection systems, devices and methods
US9864371B2 (en) 2015-03-10 2018-01-09 John Bean Technologies Corporation Automated guided vehicle system
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
GB2543133B (en) * 2015-08-07 2018-05-02 Wal Mart Stores Inc Shopping space mapping systems, devices and methods
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DK3167342T3 (en) * 2015-09-22 2018-05-22 Bluebotics Sa Procedure for virtually following a line and for retrofitting to autonomous vehicles
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
JP6696273B2 (ja) * 2016-04-08 2020-05-20 株式会社デンソー 地図データ提供装置
JP6745175B2 (ja) * 2016-09-12 2020-08-26 株式会社ダイヘン 移動属性設定装置
KR101868374B1 (ko) * 2016-10-20 2018-06-18 엘지전자 주식회사 이동 로봇의 제어방법
US11238726B2 (en) * 2016-12-02 2022-02-01 International Business Machines Corporation Control of driverless vehicles in construction zones
JP6809913B2 (ja) * 2017-01-26 2021-01-06 パナソニック株式会社 ロボット、ロボットの制御方法、および地図の生成方法
CN107791251A (zh) * 2017-11-22 2018-03-13 深圳市沃特沃德股份有限公司 机器人移动控制方法和机器人
WO2019167203A1 (ja) * 2018-02-28 2019-09-06 本田技研工業株式会社 制御装置、作業機械及びプログラム
JP7063131B2 (ja) * 2018-06-11 2022-05-09 株式会社豊田自動織機 自律走行台車
DE102018114892B4 (de) * 2018-06-20 2023-11-09 RobArt GmbH Autonomer mobiler Roboter und Verfahren zum Steuern eines autonomen mobilen Roboters
EP3812865A4 (en) 2018-06-21 2022-07-13 Beijing Geekplus Technology Co., Ltd. ROBOT PLANNING AND ROBOT PATH CONTROL METHODS, SERVER AND STORAGE MEDIA
US11613041B1 (en) 2018-11-08 2023-03-28 Scepaniak IP Holdings, LLC Coping nailer
US11214967B1 (en) 2018-11-08 2022-01-04 Scepaniak IP Holdings, LLC Roof rock spreader
CN111413960A (zh) * 2018-12-19 2020-07-14 深圳市优必选科技有限公司 一种基于虚拟轨道的巡航方法、装置及终端设备
JP2020107116A (ja) * 2018-12-27 2020-07-09 株式会社豊田自動織機 自律移動体
WO2020144849A1 (ja) * 2019-01-11 2020-07-16 三菱電機株式会社 移動体測位装置および移動体管理装置
JP7340350B2 (ja) * 2019-05-07 2023-09-07 東芝テック株式会社 情報処理装置及び情報処理方法
US11294385B2 (en) * 2019-06-28 2022-04-05 Robert Bosch Gmbh System and method for generating a representation of an environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0330003A (ja) * 1989-06-28 1991-02-08 Shinko Electric Co Ltd 移動ロボットの走行制御方法
JP2000222563A (ja) * 1999-02-04 2000-08-11 Nec Corp 障害物検出装置および障害物検出装置を搭載した移動体
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP2005050105A (ja) * 2003-07-28 2005-02-24 Matsushita Electric Works Ltd 自律移動のための経路生成装置及び該装置を用いた自律移動装置
JP2007249632A (ja) * 2006-03-16 2007-09-27 Fujitsu Ltd 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366522B2 (en) * 2000-02-28 2008-04-29 Thomas C Douglass Method and system for location tracking
US7571511B2 (en) * 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US7663333B2 (en) * 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) * 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US7135992B2 (en) * 2002-12-17 2006-11-14 Evolution Robotics, Inc. Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system
US7010425B2 (en) * 2003-03-31 2006-03-07 Deere & Company Path planner and a method for planning a path of a work vehicle
JP4246041B2 (ja) 2003-11-25 2009-04-02 パナソニック電工株式会社 自律移動装置
US20100013615A1 (en) * 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
JP4464893B2 (ja) * 2004-09-13 2010-05-19 パナソニック株式会社 移動ロボット
US7620476B2 (en) * 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US7389156B2 (en) * 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
JP3931907B2 (ja) 2005-03-14 2007-06-20 松下電工株式会社 自律移動装置
US7353034B2 (en) * 2005-04-04 2008-04-01 X One, Inc. Location sharing and tracking using mobile phones or other wireless devices
US20070028574A1 (en) * 2005-08-02 2007-02-08 Jason Yan Dust collector for autonomous floor-cleaning device
WO2008013568A2 (en) * 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
KR100988736B1 (ko) * 2006-03-15 2010-10-20 삼성전자주식회사 자율주행 이동로봇의 최단 경로 이동을 위한 홈 네트워크시스템 및 그 방법
US8139109B2 (en) * 2006-06-19 2012-03-20 Oshkosh Corporation Vision system for an autonomous vehicle
US8180486B2 (en) * 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
AU2008229615B2 (en) 2007-03-21 2012-05-17 Commonwealth Scientific And Industrial Research Organisation Method for planning and executing obstacle-free paths for rotating excavation machinery
KR100809749B1 (ko) * 2007-03-28 2008-03-04 엘지전자 주식회사 냉장고의 아이스메이커 어셈블리
JP2009025898A (ja) * 2007-07-17 2009-02-05 Toyota Motor Corp 経路計画装置、経路計画方法及び移動体
WO2009132317A1 (en) * 2008-04-24 2009-10-29 Evolution Robotics Application of localization, positioning & navigation systems for robotic enabled mobile products
US8155811B2 (en) * 2008-12-29 2012-04-10 General Electric Company System and method for optimizing a path for a marine vessel through a waterway
KR101581415B1 (ko) * 2009-02-23 2015-12-30 삼성전자주식회사 맵 빌딩 장치 및 방법
EP2402926A1 (en) * 2009-02-26 2012-01-04 Mitsubishi Electric Corporation Mobile object imaging system, mobile object, ground-based station device, and method for imaging mobile object
WO2011013862A1 (ko) * 2009-07-28 2011-02-03 주식회사 유진로봇 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
US9164512B2 (en) * 2009-11-27 2015-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous moving body and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0330003A (ja) * 1989-06-28 1991-02-08 Shinko Electric Co Ltd 移動ロボットの走行制御方法
JP2000222563A (ja) * 1999-02-04 2000-08-11 Nec Corp 障害物検出装置および障害物検出装置を搭載した移動体
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP2005050105A (ja) * 2003-07-28 2005-02-24 Matsushita Electric Works Ltd 自律移動のための経路生成装置及び該装置を用いた自律移動装置
JP2007249632A (ja) * 2006-03-16 2007-09-27 Fujitsu Ltd 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105136155A (zh) * 2015-09-24 2015-12-09 联想(北京)有限公司 一种导航方法及电子设备
CN105136155B (zh) * 2015-09-24 2018-12-14 联想(北京)有限公司 一种导航方法及电子设备
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
JP2020509500A (ja) * 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH 自律移動ロボットの制御方法
JP2021500688A (ja) * 2017-10-30 2021-01-07 珠海市一微半導体有限公司Amicro Semiconductor Co., Ltd. ロボットの走行予測及び制御方法
JP7075994B2 (ja) 2017-10-30 2022-05-26 珠海一微半導体股▲ふん▼有限公司 ロボットの走行予測及び制御方法
US11526170B2 (en) 2017-10-30 2022-12-13 Amicro Semiconductor Co., Ltd. Method for detecting skidding of robot, mapping method and chip

Also Published As

Publication number Publication date
EP2498158A1 (en) 2012-09-12
KR101420201B1 (ko) 2014-07-17
US20120283905A1 (en) 2012-11-08
EP2498158A4 (en) 2013-08-28
KR20120049927A (ko) 2012-05-17
JP2011128899A (ja) 2011-06-30
US8897947B2 (en) 2014-11-25

Similar Documents

Publication Publication Date Title
WO2011074165A1 (ja) 自律移動装置
US8679260B2 (en) Methods and systems for movement of an automatic cleaning device using video signal
US8306684B2 (en) Autonomous moving apparatus
US8423225B2 (en) Methods and systems for movement of robotic device using video signal
US20120182155A1 (en) Danger presentation device, danger presentation system, danger presentation method and program
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
JP6481347B2 (ja) 移動量推定装置、自律移動体、及び移動量の推定方法
JP5278283B2 (ja) 自律移動装置及びその制御方法
JP6052045B2 (ja) 自律移動体
JP2014219723A (ja) 自律移動体
JP2010072762A (ja) 環境地図修正装置及び自律移動装置
JP2011209845A (ja) 自律移動体、自己位置推定方法、地図情報作成システム
JP2011175393A (ja) 経路計画装置、自律移動ロボット、及び移動経路の計画方法
US20140297066A1 (en) Remote control system
JP6074205B2 (ja) 自律移動体
JP2018206004A (ja) 自律走行台車の走行制御装置、自律走行台車
JP2016206876A (ja) 自律移動体の走行経路教示システムおよび走行経路教示方法
JP2010026727A (ja) 自律移動装置
JP2010061483A (ja) 自走移動体及び自走移動体の目的位置設定方法
JP2008276731A (ja) 自律移動体の経路設定装置
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
JP5427662B2 (ja) ロボットシステム
JP2022075500A (ja) 情報処理装置、情報処理方法およびプログラム
KR20130047278A (ko) 로봇의 이동 방법 및 장치
JP2021136009A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10837203

Country of ref document: EP

Kind code of ref document: A1

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10837203

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20127007777

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010837203

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13514004

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE