WO2008099652A1 - 環境地図の生成方法及び移動ロボット - Google Patents

環境地図の生成方法及び移動ロボット Download PDF

Info

Publication number
WO2008099652A1
WO2008099652A1 PCT/JP2008/051029 JP2008051029W WO2008099652A1 WO 2008099652 A1 WO2008099652 A1 WO 2008099652A1 JP 2008051029 W JP2008051029 W JP 2008051029W WO 2008099652 A1 WO2008099652 A1 WO 2008099652A1
Authority
WO
WIPO (PCT)
Prior art keywords
environment map
plane detection
position data
area
dimensional position
Prior art date
Application number
PCT/JP2008/051029
Other languages
English (en)
French (fr)
Inventor
Yutaka Takaoka
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Jidosha Kabushiki Kaisha filed Critical Toyota Jidosha Kabushiki Kaisha
Priority to EP08703856.8A priority Critical patent/EP2124122B1/en
Priority to US12/526,279 priority patent/US7987021B2/en
Publication of WO2008099652A1 publication Critical patent/WO2008099652A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Definitions

  • the present invention sequentially generates map information (hereinafter referred to as an environment map) relating to the environment in which the mobile robot moves according to the movement of the mobile robot.
  • map information hereinafter referred to as an environment map
  • a mobile robot that autonomously determines the travel route and moves the environment map using measurement data obtained by visual sensors such as stereo cameras and range sensors, unless an environment map is given in advance. It is necessary to generate. Furthermore, since the surrounding environment of the mobile robot changes every moment according to the movement of the mobile robot, the mobile port needs to repeatedly execute the process of generating an environment map as it moves. .
  • walking with a legged mobile robot is realized by determining the area where the foot can land by referring to the environmental map and planning the foot landing position sequentially. Therefore, the legged mobile robot needs to generate an environmental map that can distinguish between the area belonging to the floor where the foot can land and the other obstacle area.
  • Specific examples of such environmental maps include parallax images obtained by visual sensors such as stereo cameras and range sensors, and distance information from the measurement target. This is an environmental map obtained by detecting a plane group from a group of 3D position data calculated based on measurement information.
  • a plane parameter is calculated from a three-dimensional position data group to detect a plurality of planes including the floor surface with which the foot of the legged moving mouth pot is in contact, and the detection result of these plurality of planes
  • a technique for generating an environmental map in which an obstacle area and a movable area are specified using a computer is disclosed.
  • Patent Document 1 Japanese Patent Laid-Open No. 2 0 0 5 — 9 2 8 2 0
  • Patent Document 2 Japanese Patent Laid-Open No. 2-2 4 9 8 6 Disclosure of Invention
  • a plane detection method using Hough transform and a plane detection method using random sampling are known.
  • any of the conventionally known plane detection methods requires a large amount of computation to execute the algorithm for estimating the plane parameters.
  • the conventional mobile robot performs plane detection using the entire area of the 3D position data group, that is, the position information of all measurement points in the 3D position data group.
  • To generate an environmental map there are problems such as a long calculation time required for generating the environment map and the waiting time for generating the environment map being a restriction on high-speed movement of the moving robot.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an environment map generation method and a mobile robot that can reduce the calculation time required for generating an environment map. Means for solving the problem
  • the environment map generation method includes an obstacle area where an obstacle exists and a movable area where the movement robot is estimated to be movable with respect to an environment in which the movement robot moves.
  • the method according to this aspect includes (1) a process of generating a three-dimensional position data group indicating a position of a measurement target existing in the environment using measurement information obtained by a visual sensor, Based on the old environment map that is the environmental map and the movement amount of the mobile robot, at least one of the 3D position data included in the 3D position data group has a fault in the old environment map.
  • Planar inspection A process of generating a new environment map, which is a new environment map, by integrating the movable area and obstacle area recognized using the output result and the area that was made the movable area in the old environment map. Including.
  • plane detection target data is selected from the three-dimensional position data group using the result of plane detection performed in the past, specifically, the old environment map reflecting this.
  • the method according to the second aspect of the present invention is the method according to the first aspect of the present invention, wherein the selection of the plane detection target data is performed based on the coordinates of the old environment map according to the movement amount of the movement robot. This is performed by converting the system into the coordinate system of the three-dimensional position data group and determining the overlap between the coordinate-converted old environment map and the three-dimensional position data group. As a result, it is possible to quickly determine the data that is the target of plane detection when generating the old environment map from the newly generated 3D position data group.
  • the region that is the obstacle region in the old environment map is selected.
  • the three-dimensional position data located in the vicinity is included in the plane detection target data.
  • the recognition accuracy of the obstacle area can be improved by performing the plane detection including the surrounding data of the obstacle area in the old environment map.
  • the moving port pot according to the fourth aspect of the present invention uses an environmental map in which an obstacle area where an obstacle exists and a movable area estimated to be movable without an obstacle are specified.
  • This is a mobile robot that moves in an environment where obstacles exist.
  • the mobile robot uses a visual sensor that visually recognizes the environment and measurement information obtained by the visual sensor to generate a three-dimensional position data group that indicates the position of the measurement target existing in the environment.
  • Generate 3D position data generator Plane detection target data to be subjected to plane detection from the three-dimensional position data group of the environment based on the old environment map which is the environment map generated in the past and the movement amount of the movement robot.
  • a new environment is created by integrating an area recognition unit that recognizes an obstacle area, a movable area and an obstacle area recognized by the area recognition unit, and an area that has been identified as an obstacle area in a previously generated environment map.
  • an environment map update generation unit that generates a new environment map as a map.
  • the mobile robot according to the fourth aspect of the present invention uses the result of plane detection performed in the past, specifically, an old environment map that reflects this, and uses a plane from the 3D position data group. Select the data to be detected. For this reason, it is not necessary to repeatedly perform plane detection on the 3D position data belonging to the same area where plane detection has been performed previously. Therefore, the amount of computation required for plane detection can be greatly reduced, and the time required to generate a new environment map can be shortened, so the waiting time for generating an environment map becomes a restriction on the high-speed movement of a mobile robot. Can be relaxed.
  • the moving robot according to the fifth aspect of the present invention is the moving robot according to the fourth aspect of the present invention, wherein the plane detection target data selection unit is included in the three-dimensional position data group.
  • the plane detection target data selection unit is included in the three-dimensional position data group.
  • the three-dimensional position data at least the three-dimensional position data belonging to the area defined as the obstacle area in the old environment map and the three-dimensional position data belonging to the unobserved area not included in the old environment map. Is selected as the plane detection target data.
  • the moving port robot according to the sixth aspect of the present invention is the moving robot according to the fourth or fifth aspect of the present invention, wherein the plane detection target data selection unit sets the amount of movement of the moving robot. Accordingly, the coordinate system of the old environment map is converted into the coordinate system of the three-dimensional position data group, and the plane detection target is determined by determining the overlap between the coordinated and converted old environment map and the three-dimensional position data group. Select data. As a result, among the newly generated 3D position data group, it is possible to quickly determine the data that is the target of plane detection when generating the old environment map.
  • the mobile robot according to the seventh aspect of the present invention is the mobile robot according to any of the fourth to sixth aspects of the present invention, wherein the plane detection target data selection unit is The three-dimensional position data located in the vicinity of the area designated as the obstacle area is configured to be included in the plane detection target data. Obstacle area recognition accuracy can be improved by performing plane detection including the surrounding data of the obstacle area in the old environment map.
  • the movement robot according to the eighth aspect of the present invention is the movement robot according to any one of the fourth to seventh aspects of the present invention, wherein the visual sensor includes a pixel value of each pixel in the two-dimensional image.
  • the visual sensor includes a pixel value of each pixel in the two-dimensional image.
  • a range image having a distance value as the measurement information or a stereo camera in which a parallax image is obtained as the measurement information is configured.
  • FIG. 1 is a model diagram of a legged mobile robot according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a control system of the legged mobile robot according to the embodiment of the present invention.
  • FIG. 3A is a diagram showing an example of an environment in which a legged mobile robot according to an embodiment of the present invention moves.
  • FIG. 3B is a diagram showing an example of an environment map of an environment in which the legged mobile robot according to the embodiment of the present invention moves.
  • FIG. 4 is a flowchart showing the processing contents of the environment map generation device according to the embodiment of the present invention.
  • FIG. 5A is a diagram for explaining an environment map generation method according to an embodiment of the present invention.
  • FIG. 5B is a diagram for explaining the environmental map generation method according to the embodiment of the present invention.
  • FIG. 6A is a diagram for explaining an environment map generation method according to the embodiment of the present invention.
  • FIG. 6B is a diagram for explaining the environmental map generation method according to the embodiment of the present invention.
  • FIG. 6C is a diagram for explaining an environmental map generation method according to the embodiment of the present invention.
  • FIG. 6D is a diagram for explaining the environmental map generation method according to the embodiment of the present invention.
  • the robot 100 is a legged mobile robot having two leg links.
  • the robot 100 has an environment map generation device 1.
  • the environmental map generator 1 can input the distance image obtained by the range sensor 10 as a visual sensor, and the obstacle area where the obstacle exists and the robot 100 without the obstacle can move. It is a device that generates an environmental map in which the estimated movable area is identified.
  • the robot 100 refers to the environment map generated by the environment map generator 1 to determine the landing position of the foot provided at the tip of each of the two leg links of the robot 100. decide. Further, the robot 100 generates motion data for realizing the determined foot landing position, and drives the joint group of the robot 100 with the actuator based on the generated motion data. To walk.
  • Fig. 1 shows a robot connecting a joint between joints.
  • the robot 100 includes a head 100 1, two leg links LR and LL, two arm links AR and AL, and a trunk BD to which these are connected.
  • a range sensor 10 for acquiring distance image data of the external environment is provided on the head 10 0 1 of the robot 100.
  • the distance image data is two-dimensional data having the distance value to the measurement target existing in the environment as the pixel value of each pixel.
  • the neck joint that supports the head 10 1 has a joint 10 2 in the roll direction, a joint 10 3 in the pitch direction, and a joint 10 3 in the lateral direction.
  • the right arm link AR is a joint in the shoulder pitch direction 1 0 5, a shoulder joint in the shoulder direction 1 0 6, a joint in the upper arm 1 0 7, a joint in the elbow pitch direction 1 0 8, It has a joint 10 9 in the direction of the head, and a hand portion 14 1 R is provided at the end of the right arm link AR.
  • the mechanism of the hand 14 1 R may be determined depending on the shape, type, etc. of the object to be held.For example, it may be a multi-joint structure having a plurality of fingers and a large degree of freedom. Good.
  • the left arm link A L has the same structure as the right arm link AR. Specifically, the left arm link A L has five joints 110 to 114 and a hand portion 14 1 L at its end.
  • Right leg link LR consists of hip joint 1 1 8, hip pitch joint 1 1 9, hip roll joint 1 2 0, knee pitch joint 1 2 1, ankle joint It has joints 1 2 2 in the pitch direction and 1 2 3 in the roll direction of the ankle.
  • the lower part of the ankle joint 1 2 3 is the walking surface Foot 1 3 1 R that is in contact with is provided.
  • the left leg link L L has the same structure as the right leg link L R. Specifically, the left leg link L L has six joints 1 24 to 1 29 and a foot 1 3 1 L at its end.
  • the trunk portion 1 4 3 has a joint 1 1 5 in the directional direction, a joint 1 1 6 in the roll direction, and a joint 1 1 7 in the pitch direction.
  • FIG. 2 shows the configuration of the control system for robot 100.
  • the range sensor 10 acquires the distance image data of the external environment of the robot 100 as described above.
  • a stereo camera may be used as a visual sensor instead of the range sensor 10.
  • image sensors such as CCD (Charge Coupled Device) image sensors or CMOS (Complementary Metal Oxide Semiconductor) image sensors, and uses the parallax of images taken by these cameras.
  • Distance image data may be generated. More specifically, the corresponding points are detected from image data captured by a plurality of cameras, and the three-dimensional positions of the corresponding points are restored by stereo vision.
  • the search for corresponding points in a plurality of captured images may be performed by applying a known method such as a gradient method or a correlation method using a constraint equation of spatiotemporal differentiation for a plurality of captured images.
  • the environment map generation device 1 includes a three-dimensional position data generation unit 11, a data selection unit 12, a plane detection unit 13, a region recognition unit 14, and an environment map update generation unit 15.
  • 3D position data generator 1 1 Perform coordinate transformation of data to generate 3D position data group.
  • the 3D position data group is a set of data that represents the position vectors of many measurement points included in the distance image data in a 3D Cartesian coordinate system.
  • the data selection unit 12 refers to the old environment map generated in the past, and uses the data (planar detection target data) used in the plane detection processing by the plane detection unit 13 described later from the 3D position data group. ) Is selected. More specifically, by superimposing the old environment map on the 3D position data group, 3D position data belonging to the area that was considered as an obstacle area in the old environment map and unobserved that is not included in the old environment map 3D position data belonging to the area is selected as the plane detection target data.
  • the superposition of the old environment map onto the 3D position data group is based on the amount of movement of the robot 1 0 0 from the generation of the old environment map to the acquisition of the distance image that is the basis of the 3D position data group. Depending on the situation, coordinate conversion to move the old environment map may be performed.
  • the plane detection unit 13 detects a plane from the 3D position data group selected by the data selection unit 12.
  • the Hough transform method and the random sampling method are conventionally used to detect three parameters (plane parameters) representing the plane equation from a large number of measurement points (three-dimensional position data group).
  • these conventionally known techniques may be applied.
  • the area recognition unit 14 recognizes the floor area as a movable area where the robot 100 can walk based on the plane detection result by the plane detection unit 13, and is a plane different from the floor surface. Is recognized as an obstacle area, I understand.
  • the floor means the plane where the foot 1 3 1 R and L of robot 100 are in contact.
  • area recognition is an example. For example, even if it is a flat surface or slope with a different height from the floor surface, it is possible to land the foot 1 3 1 R and L if the height difference from the floor surface is smaller than a predetermined value. If so, these planes may be recognized as movable areas. Furthermore, it may be determined whether to recognize the plane as a movable region based on the result of comparing the area of the detected plane with the areas of the feet 1 3 1 R and L.
  • the environmental map update generation unit 15 integrates the movable area and obstacle area recognized by the area recognition unit 14 and the movable area included in the old environmental map, which is an environmental map generated in the past. Create a new environment map, which is a simple environment map.
  • the plane P 1 corresponding to the floor and the plane P 2 corresponding to the upper surface of the obstacle 16 1 are the plane detector 1. Detected by 3. Further, the area recognition unit 14 recognizes the plane P 1 as a movable area, and recognizes the plane P 2 as an obstacle area.
  • the environment map generated by the environment map update generation unit 15 is as shown in FIG. 3B.
  • the environment map 200 in FIG. 3B holds information indicating the area type as data of each grid, that is, identification information indicating whether the area is a movable area or an obstacle area.
  • the area R 1 1 corresponding to the floor surface P 1 1 is a movable area
  • the area R 1 2 corresponding to the obstacle 1 6 1 is the obstacle area. It is.
  • the walking planning unit 16 determines the target position by referring to the environmental map generated by the environmental map generating device 1. Calculate the landing position of foot 1 3 1 R and L to reach the determined target position.
  • the motion generation unit 17 generates motion data for realizing the landing positions of the foot 1 3 1 R and L generated by the walking plan unit 16.
  • the motion data includes the ZMP position of the robot 100, the center position, the positions and postures of the feet 1 3 1 R and L, and the position and posture of the trunk BD.
  • the control unit 18 receives the motion data generated by the motion generation unit 17 and calculates the target joint angle of each joint by inverse kinematic calculation. Further, the control unit 18 calculates a torque control value for driving each joint based on the calculated target joint angle and the current joint angle measured by the encoder 20. The robot 100 walks by operating the actuator 19 for driving each joint according to the torque control value calculated by the control unit 18.
  • Fig. 4 is a flowchart showing the procedure for generating an environmental map by the environmental map generator 1.
  • the 3D position data generation unit 11 generates a 3D position data group using the distance image data acquired by the range sensor 10.
  • the data selection unit 1 2 executes coordinate conversion for superimposing the old environment map on the 3D position data group according to the movement amount of the robot 1 0 0.
  • step S 1 0 3 the data selection unit 1 2 superimposes the old environment map after the coordinate conversion on the 3D position data group, so that the data to be subjected to plane detection to be executed later is converted into the 3D position data group. Select from. Specifically, data included in the obstacle area of the old environment map and data of the unobserved area not included in the old environment map are selected as the plane detection target data. Note that the 3D position data included in the movable area of the old environmental map (that is, the area corresponding to the floor surface where the foot 1 3 1 R and L are in contact) is directly received by the data selection unit 1 2. It is classified as a movable area.
  • step S 1 0 4 the plane detection unit 13 detects a plane from the 3D position data selected as the plane detection target data.
  • step S 1 0 5 the area recognition unit 14 determines that the floor area is defined as a movable area in which the mouth bot 1 100 can walk based on the plane detection result by the plane detection unit 13. And recognizes an area containing a plane different from the floor as an obstacle area.
  • step S 1 0 6 the environment map update generation unit 1 5 forces the newly recognized movable area and obstacle area and the movable area included in the old environmental map are integrated to create a new environmental map. Generate.
  • the processing executed by the above-described 3D position data generation unit 1 1, data selection unit 1 2, plane detection unit 1 3, region recognition unit 1 4, and environment map update generation unit 1 5 is a typical computer system. This can be realized using. Specifically, in response to a timer interrupt that occurs at regular time intervals, the computer system can execute a program for causing the computer system to perform the processing shown in the flowchart of FIG. Note that a program for causing the computer system to execute the processing shown in the flowchart of Figure 4 A ram does not have to be a single program, but may consist of multiple program modules divided according to processing content.
  • FIGS. 5A and 5B show an example of a 3D map data group generated by the robot 100.
  • the image in Fig. 5A is a group of 3D position data used to generate the old environmental map, it is called the previous frame (i-1 frame) here.
  • the image in Fig. 5B is a group of 3D position data generated after the previous frame (i-1 frame), so here it is called the current frame (i frame).
  • the 3D position data group changes between the previous frame and the current frame.
  • a region surrounded by a broken line represents an obstacle 16 1 that is a convex step as viewed from the floor surface P 11.
  • FIGS. 6A to 6D show the same 3D position data P i for the previous frame and 3D position data P i for the current frame as in Figures 5A and B.
  • Fig. 6C shows the environmental map M i generated based on the three-dimensional position data P; _ i in Fig. 6A.
  • the area R 2 1 is a movable area corresponding to the floor surface P 1 1. is there.
  • Region R 2 2 is an obstacle region corresponding to obstacle 1 61.
  • Figure 6D shows how plane detection target data is selected by superimposing F (M i _!), which has been transformed from the environment map 1 ⁇ 1 _ 1 , on the 3D position data P i of the current frame. It is a conceptual diagram.
  • the coordinate transformation F (M i _! Of the environmental map M ii is generally expressed by the following equation (1).
  • R is a rotation matrix and t is a parallel translation vector.
  • the rotation matrix R and the translation vector t are determined by reflecting the movement amount and posture change of the robot 100 obtained from measurement information such as the encoder 20.
  • the dashed area in Fig. 6D shows the environmental map F (M j _!) That has been transformed.
  • areas R 3 1 and R 3 2 surrounded by a solid line in FIG. 6D indicate areas to be plane detection target data.
  • the region R 3 1 is an unobserved region that is not included in the environmental map M i.
  • the region R 3 2 is a region selected to include the obstacle region R 2 2 in the environment map M i i.
  • the area R 3 2 performs plane detection including the surrounding data of the obstacle area R 2 2 of the previous frame, the data amount of the plane detection target data increases, but the obstacle area is recognized. There is an advantage that accuracy can be improved.
  • the robot 100 uses the old environment map that reflects the result of plane detection performed in the past to detect the plane from the group of 3D position data. Select the target data.
  • it is not necessary to repeatedly perform plane detection on 3D position data belonging to the same area as that previously subjected to plane detection, so that the amount of computation required for plane detection can be greatly reduced. Therefore, since the time required for generating the environmental map can be shortened, the waiting time for generating the environmental map can be mitigated from the restriction of high speed movement of the robot 100.
  • the robot 100 generates an environment map as shown in FIG. 3B.
  • the environment map 200 in FIG. 3B holds, as the data of each grid, identification information indicating an area type, that is, a movable area or an obstacle area.
  • the configuration of such an environmental map is only an example.
  • the height in the z-axis direction can be maintained as the data for each grid.
  • a plane ID that can uniquely identify the plane to which each grid belongs may be held, or the normal vector (na of the plane to which each grid belongs) (na , Nb, nc) may be retained.
  • the movable area is defined as a movable area in the same plane as the floor with which the feet 1 3 1 R and L are in contact, or in a plane within which the height difference from the floor is within a specified range.
  • the movable area and the obstacle area can be specified.
  • the 3D position data belonging to the obstacle area of the old environment map or the unobserved area not included in the old environment map is set as the plane detection target data.
  • the three-dimensional position data belonging to the unobserved area may be the plane detection target data.
  • the data amount of the plane detection target data can be further reduced.
  • Embodiment 1 of the invention shows an example in which the present invention is applied to a legged moving port bot, the present invention can also be applied to a mobile robot having other moving means such as wheels. It is.
  • the present invention can be applied to a method of sequentially generating map information (hereinafter referred to as an environment map) relating to the environment in which the mobile robot moves according to the movement of the mobile robot.
  • map information hereinafter referred to as an environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

移動ロボットにおける環境地図の生成に要する演算時間を短縮するため、移動ロボット(100)は、レンジセンサ(10)により得られた計測情報を用いて外部環境の3次元位置データ群を生成し、過去に生成された旧環境地図及びロボット(100)の移動量に基づいて、3次元位置データ群に含まれる3次元位置データのうち、少なくとも、旧環境地図において障害物領域とされた領域に属する3次元位置データ、及び、旧環境地図に含まれていない未観測領域に属する3次元位置データを平面検出対象データに選択し、平面検出対象データを用いて平面検出を実行し、平面検出の結果を用いて、平面検出対象データに含まれる移動可能領域及び障害物領域を認識し、最後に、平面検出の結果を用いて認識された移動可能領域及び障害物領域と、旧環境地図において移動可能領域とされた領域を統合して新たな環境地図を生成する。

Description

環境地図の生成方法及び移動ロボッ ト
技術分野
[ 0 0 0 1 ] 明
本発明は、移動ロボッ トが移動する環境に関する地図情報 (以 下、環境地図と呼ぶ) を移動ロボッ トの移動に応じて逐次生成す 書
る方法に関する。 背景技術
[ 0 0 0 2 ]
自律的に移動経路を判断して移動する移動ロボッ トは、環境地 図が予め与えられている場合を除き、ステレオカメ ラやレンジセ ンサ等の視覚センサによって得られる計測データを用いて環境 地図を生成することが必要である。 さらに、移動ロボッ トの移動 に応じて移動ロボッ トの周囲環境は刻々と変化するため、移動口 ポッ トは、 自身の移動に伴って、環境地図を生成する処理を繰り 返し実行する必要がある。
[ 0 0 0 3 ]
例えば、脚式移動ロボッ トの歩行は、環境地図を参照すること によって足平を着地可能な領域を判断し、足平の着地位置を順次 計画することで実現される。 したがって、 脚式移動ロボッ トは、 足平を着地可能な床面に属する領域とそれ以外の障害物領域と を区別することが可能な環境地図を生成する必要がある。このよ うな環境地図の具体例は、ステレオカメラやレンジセンサ等の視 覚センサによつて得られた視差画像、計測対象との距離情報等の 計測情報をもとに算出された 3次元位置データ群から平面群を 検出することで得られる環境地図である。例えば特許文献 1には、 3次元位置データ群から平面パラメータを算出することで、脚式 移動口ポッ トの足平が接している床面を含む複数平面を検出し、 これら複数平面の検出結果を用いて障害物領域と移動可能領域 とが特定された環境地図を生成する技術が開示されている。
[特許文献 1 ] 特開 2 0 0 5 — 9 2 8 2 0号公報
[特許文献 2 ] 特開平 2 — 2 2 4 9 8 6号公報 発明の開示
発明が解決しょ う とする課題
[ 0 0 0 4 ]
3次元位置データ群から平面を検出する手法と してハフ変換 を用いた平面検出手法やランダムサンプリ ングによる平面検出 手法などが知られている。 しかしながら、従来知られているいず れの平面検出手法によっても、平面パラメータを推定するための アルゴリズムの実行に要する計算量は大きなものである。従来の 移動ロボッ トは、 3次元位置データ群が得られるたびに、 3次元 位置データ群の全体領域、つま り 3次元位置データ群の全ての計 測点の位置情報を用いて平面検出を実行することで環境地図を 生成している。 このため、環境地図の生成に要する演算時間が長 く、環境地図の生成待ち時間が移動ロボッ トの高速移動の制約に なる等の問題がある。
[ 0 0 0 5 ]
本発明は、 上述した事情を考慮してなされたものであり、 環境 地図の生成に要する演算時間を短縮させることが可能な環境地 図の生成方法及び移動ロボッ トの提供を目的とする。 課題を解決するための手段
[ 0 0 0 6 ]
本発明の第 1の態様にかかる環境地図の生成方法は、移動ロボ ッ トが移動を行う環境に関して、障害物が存在する障害物領域と 前記移動ロポッ トが移動可能と推定される移動可能領域とが特 定された環境地図を生成する方法ある。 本態様にかかる方法は、 ( 1 ) 視覚センサにより得られた計測情報を用いて、前記環境に 存在する計測対象の位置を示す 3次元位置データ群を生成する 処理と、 ( 2 ) 過去に生成された前記環境地図である旧環境地図 及ぴ前記移動ロボッ トの移動量に基づいて、前記 3次元位置デー タ群に含まれる 3次元位置データのうち、少なく とも、前記旧環 境地図において障害物領域とされた領域に属する 3次元位置デ ータ、及び、前記旧環境地図に含まれていない未観測領域に属す る 3次元位置データを平面検出対象データに選択する処理と、 ( 3 )前記平面検出対象データを用いて平面検出を実行する処理 と、 (4 ) 前記平面検出の結果を用いて、 前記平面検出対象デー タに含まれる移動可能領域及び障害物領域を認識する処理と、 ( 5 )前記平面検出の結果を用いて認識された移動可能領域及び 障害物領域と、前記旧環境地図において移動可能領域とされた領 域を統合して新たな環境地図である新環境地図を生成する処理 とを含む。
[ 0 0 0 7 ]
このよ う に、 過去に行われた平面検出結果、 具体的にはこれが 反映された旧環境地図を利用して、 3次元位置データ群の中から 平面検出対象データを選択する。 これによつて、前に平面検出を 行ったのと同じ領域に属する 3次元位置データに対して繰り返 し平面検出を行わなくて済む。 したがって、 平面検出に要する演 算量を大きく削減することができ、新環境地図の生成に要する時 間を短縮することができるため、環境地図の生成待ち時間が移動 ロボッ トの高速移動の制約となることを緩和させることができ る。
[ 0 0 0 8 ]
本発明の第 2の態様にかかる方法は、前記本発明の第 1 の態様 にかかる方法において、前記平面検出対象データの選択を、前記 移動ロボッ トの移動量に応じて前記旧環境地図の座標系を前記 3次元位置データ群の座標系に変換し、座標変換された前記旧環 境地図と前記 3次元位置データ群との重なり を判定することに より行う ものである。 これにより、新たに生成された 3次元位置 データ群のうち、旧環境地図の生成に際して平面検出の対象とさ れているデータを速やかに判定することができる。
[ 0 0 0 9 ]
本発明の第 3の態様にかかる方法は、前記本発明の第 1又は第 2の態様にかかる方法における平面検出対象データの選択にお いて、前記旧環境地図において障害物領域とされた領域の近傍に 位置する 3次元位置データを前記平面検出対象データに含める ものである。旧環境地図のおける障害物領域の周辺データまで含 めて平面検出を行う ことで、障害物領域の認識精度を向上させる ことができる。
[ 0 0 1 0 ]
本発明の第 4の態様にかかる移動口ポッ トは、障害物が存在す る障害物領域と障害物がなく移動可能と推定される移動可能領 域とが特定された環境地図を利用することで障害物が存在する 環境内を移動する移動ロボッ トである。 当該移動ロボッ トは、 前 記環境を視覚的に認識する視覚センサと、前記視覚センサによ り 得られる計測情報を用いて、前記環境に存在する計測対象の位置 を示す 3次元位置データ群を生成する 3次元位置データ生成部 と、過去に生成された前記環境地図である旧環境地図及ぴ前記移 動ロボッ トの移動量に基づいて、前記環境の 3次元位置データ群 の中から平面検出の対象とする平面検出対象データを選択する 平面検出対象データ選択部と、前記平面検出対象データを用いて 平面検出を行う平面検出部と、 前記平面検出の結果を用いて、 前 記平面検出対象データに含まれる移動可能領域及び障害物領域 を認識する領域認識部と、前記領域認識部により認識された移動 可能領域及び障害物領域と、過去に生成された環境地図において 障害物領域と された領域を統合して新たな環境地図である新環 境地図を生成する環境地図更新生成部とを有する。
[ 0 0 1 1 ]
つまり、本発明の第 4の態様にかかる移動ロボッ トは、過去に 行われた平面検出結果、具体的にはこれが反映された旧環境地図 を利用して、 3次元位置データ群の中から平面検出対象データを 選択する。 このため、 前に平面検出を行ったのと同じ領域に属す る 3次元位置データに対して繰り返し平面検出を行わなく て済 む。 したがって、 平面検出に要する演算量を大きく削減すること ができ、新環境地図の生成に要する時間を短縮することができる ため、環境地図の生成待ち時間が移動ロボッ トの高速移動の制約 となることを緩和させることができる。
[ 0 0 1 2 ]
本発明の第 5の態様にかかる移動ロボッ トは、前記本発明の第 4の態様にかかる移動口ボッ トにおいて、前記平面検出対象デー タ選択部が、前記 3次元位置データ群に含まれる 3次元位置デー タのうち、少なく とも、 前記旧環境地図において前記障害物領域 とされた領域に属する 3次元位置データ、及び、 前記旧環境地図 に含まれていない未観測領域に属する 3次元位置データを前記 平面検出対象データに選択するものである。 これにより、 平面検 出対象データのデータ量を削減しつつ、 かつ、 障害物領域の認識 精度を向上させることができる。
[ 0 0 1 3 ]
本発明の第 6の態様にかかる移動口ボッ トは、前記本発明の第 4又は第 5の態様にかかる移動ロボッ トにおいて、前記平面検出 対象データ選択部が、前記移動ロボッ トの移動量に応じて前記旧 環境地図の座標系を前記 3次元位置データ群の座標系に変換し、 座標変換された前記旧環境地図と前記 3次元位置データ群との 重なり を判定することで前記平面検出対象データの選択を行う ものである。 これにより、新たに生成された 3次元位置データ群 のうち、旧環境地図の生成に際して平面検出の対象とされている データを速やかに判定することができる。
[ 0 0 1 4 ]
本発明の第 7の態様にかかる移動ロボッ トは、前記本発明の第 4乃至第 6の態様のいずれかにかかる移動ロボッ トにおいて、前 記平面検出対象データ選択部が、前記旧環境地図において障害物 領域と された領域の近傍に位置する 3次元位置データを前記平 面検出対象データに含めるよ う構成されたものである。旧環境地 図のおける障害物領域の周辺データまで含めて平面検出を行う ことで、 障害物領域の認識精度を向上させることができる。
[ 0 0 1 5 ]
本発明の第 8の態様にかかる移動ロボッ トは、前記本発明の第 4乃至第 7の態様のいずれかにかかる移動ロボッ トにおいて、前 記視覚センサが、 2次元画像における各画素の画素値と して距離 値を有する距離画像が前記計測情報と して得られるレンジセン サ、又は、視差画像が前記計測情報と して得られるステレオカメ ラと して構成されたものである。 発明の効果
[ 0 0 1 6 ]
本発明により、環境地図の生成に要する演算時間を短縮させる ことが可能な環境地図の生成方法及び移動口ポッ トを提供でき る。 図面の簡単な説明
[ 0 0 1 7 ]
[図 1 ]本発明の実施の形態にかかる脚式移動ロボッ トのモ デル図である。
[図 2 ]本発明の実施の形態にかかる脚式移動ロボッ トが有 する制御系のプロック構成図である。
[図 3 A]本発明の実施の形態にかかる脚式移動ロボッ トが 移動する環境の一例を示す図である。
[図 3 B ]本発明の実施の形態にかかる脚式移動ロボッ トが 移動する環境の環境地図の一例を示す図である。
[図 4 ]本発明の実施の形態にかかる環境地図生成装置の処 理内容を示すフローチヤ一トである。
[図 5 A]本発明の実施の形態にかかる環境地図生成方法を 説明するための図である。
[図 5 B ]本発明の実施の形態にかかる環境地図生成方法を 説明するための図である。
[図 6 A]本発明の実施の形態にかかる環境地図生成方法を 説明するための図である。
[図 6 B ]本発明の実施の形態にかかる環境地図生成方法を 説明するための図である。
[図 6 C]本発明の実施の形態にかかる環境地図生成方法を 説明するための図である。 [図 6 D]本発明の実施の形態にかかる環境地図生成方法を 説明するための図である。
符号の説明
[ 0 0 1 8 ]
1 環境地図生成装置
1 0 レンジセンサ
1 1 3次元位置データ生
1 2 データ選択部
1 3 平面検出部
1 4 領域認識部
1 5 環境地図更新生成部
1 6 歩行計画部
1 7 動作生成部
1 8 制御部
1 9 ァクチユエータ
2 0 ェン: π—ダ
1 0 0 脚式移動口ボッ ト
1 0 1 頭部
1 0 2〜 1 2 9 関節
1 3 1 R、 1 3 1 L 足平
1 4 1 R、 1 4 1 L 手部
1 6 0 環境
1 6 1 障害物
P 1 1 床面
2 0 0 環境地図
L R 右脚リ ンク
L L 左脚リ ンク A R 右腕リ ンク
A L 左腕リ ンク
B D 体幹部 発明を実施するための最良の形態
[ 0 0 1 9 ]
以下では、本発明を適用した具体的な実施の形態について、 図 面を参照しながら詳細に説明する。 各図面 こおいて、 同一要素に は同一の符号が付されており、説明の明確化のため、必要に応じ て重複説明は省略される。
[ 0 0 2 0 ]
発明の実施の形態 1 .
本実施の形態にかかるロボッ ト 1 0 0は、 2つの脚リ ンクを有 する脚式移動ロボッ トである。 さらに、 ロポッ ト 1 0 0は環境地 図生成装置 1 を有する。 環境地図生成装置 1 は、視覚センサと し てのレンジセンサ 1 0により得られる距離画像を入力して、障害 物が存在する障害物領域と、障害物がなく ロボッ ト 1 0 0の移動 が可能と推定される移動可能領域とが特定された環境地図を生 成する装置である。 ロボッ ト 1 0 0は、環境地図生成装置 1 によ つて生成された環境地図を参照することにより、ロボッ ト 1 0 0 の 2つの脚リ ンクそれぞれの先端に設けられた足平の着地位置 を決定する。 さらに、 ロボッ ト 1 0 0は、 決定された足平着地位 置を実現するための動作データを生成し、生成された動作データ をもとにロボッ ト 1 0 0の関節群をァクチユエータによって駆 動することで歩行する。
[ 0 0 2 1 ]
まず始めに図 1 を参照してロボッ ト 1 0 0 の関節自由度につ いて説明する。 図 1は、 ロボッ ト 1 0 0を関節と関節間を繋ぐリ ンクによって示したモデル図である。 ロボッ ト 1 0 0は、頭部 1 0 1 、 2本の脚リ ンク L R及び L L、 2本の腕リンク AR及び A L、並びに、 これらが連結される体幹部 B Dによ り構成されてい る。
[ 0 0 2 2 ]
ロボッ ト 1 0 0の頭部 1 0 1 には、外部環境の距離画像データ を取得するレンジセンサ 1 0が設けられている。 なお、距離画像 データとは、環境に存在する計測対象までの距離値を各画素の画 素値と して有する 2次元データである。
[ 0 0 2 3 ]
頭部 1 0 1 を支持する首関節は、 ロール方向の関節 1 0 2、 ピ ツチ方向の関節 1 0 3及びョ ー方向の関節 1 0 3を有する。右腕 リ ンク A Rは、 肩のピッチ方向の関節 1 0 5、 肩のロ ーノレ方向の 関節 1 0 6、 上腕のョー方向の関節 1 0 7、肘のピッチ方向の関 節 1 0 8、 手首のョ ー方向の関節 1 0 9を有し、右腕リンク A R の末端には手部 1 4 1 Rが設けられている。 なお、 手部 1 4 1 R の機構は、保持する物体の形状、種別等によっては決定すればよ く、例えば、複数本の指を有する多関節かつ多き由度を有する構 造と してもよい。
[ 0 0 2 4 ]
左腕リ ンク A Lは、右腕リンク ARと同様の構造を有する。 具 体的には、左腕リ ンク A Lは、 5つの関節 1 1 0乃至 1 1 4を有 し、 その末端に手部 1 4 1 Lを有する。
[ 0 0 2 5 ]
右脚リ ンク L Rは、腰のョー方向の関節 1 1 8、腰のピッチ方 向の関節 1 1 9、 腰のロール方向の関節 1 2 0、膝のピッチ方向 の関節 1 2 1、 足首のピッチ方向の関節 1 2 2、 足首のロール方 向の関節 1 2 3を有する。 足首の関節 1 2 3の下部には、 歩行面 と接する足平 1 3 1 Rが設けられている。
[ 0 0 2 6 ]
左脚リ ンク L Lは、 右脚リ ンク L Rと同様の構造を有する。 具 体的には、左脚リ ンク L Lは、 6個の関節 1 2 4乃至 1 2 9を有 し、 その末端に足平 1 3 1 Lを有する。
[ 0 0 2 7 ]
体幹部 1 4 3は、 ョー方向の関節 1 1 5、 ロール方向の関節 1 1 6及びピッチ方向の関節 1 1 7を有する。
[ 0 0 2 8 ]
続いて以下では、ロボッ ト 1 0 0を歩行させるための制御系に ついて説明する。 ロボッ ト 1 0 0の制御系の構成を図 2に示す。 図 2において、 レンジセンサ 1 0は、 上述したように、 ロボッ ト 1 0 0の外部環境の距離画像データを取得する。 なお、 レンジセ ンサ 1 0に代えてステレオカメ ラを視覚センサと して用いても よレヽ。 つまり、 C C D ( Charge Coupled Device) イメージセン サ又は C M O S ( Complementary Metal Oxide Semiconductor) ィメージセンサ等の撮像素子を備えた複数のカメ ラを備え、これ ら複数のカメラによって撮影された画像の視差を利用して距離 画像データを生成してもよい。 より具体的には、複数のカメラに よって撮影した画像データから対応点を検出し、ステレオ視によ つて対応点の 3次元位置を復元する。 ここで、複数の撮影画像に おける対応点の探索は、複数の撮影画像に対する時空間微分の拘 束式を用いた勾配法や相関法等の公知の手法を適用して行えば よい。
[ 0 0 2 9 ]
環境地図生成装置 1 は、 3次元位置データ生成部 1 1、 データ 選択部 1 2、平面検出部 1 3、 領域認識部 1 4及び環境地図更新 生成部 1 5を有する。 3次元位置データ生成部 1 1 は、距離画像 データの座標変換を行って 3次元位置データ群を生成する。なお、 3次元位置データ群とは、距離画像データに含まれる多数の計測 点の位置べク トルを 3次元直交座標系で表したデータの集合で ある。
[ 0 0 3 0 ]
データ選択部 1 2は、過去に生成された旧環境地図を参照する ことによって、 3次元位置データ群のなかから後述する平面検出 部 1 3による平面検出処理に使用するデータ(平面検出対象デー タ) を選択する。 さらに具体的に述べると、 旧環境地図を 3次元 位置データ群に重ねることで、旧環境地図において障害物領域と された領域に属する 3次元位置データと、旧環境地図に含まれて いない未観測領域に属する 3次元位置データ とを平面検出対象 データに選択する。 なお、 旧環境地図の 3次元位置データ群への 重ね合わせは、旧環境地図が生成されてから 3次元位置データ群 の基礎となる距離画像が取得されるまでのロボッ ト 1 0 0の移 動量に応じて、旧環境地図を移動させるための座標変換を行えば よい。
[ 0 0 3 1 ]
平面検出部 1 3は、データ選択部 1 2により選択された 3次元 位置データ群よ り平面を検出する。 なお、 多数の計測点 ( 3次元 位置データ群) から平面の方程式を表す 3つのパラメータ (平面 パラメータ) を検出するために、ハフ変換法やランダムサンプリ ング法が従来から用いられている。本実施の形態における平面検 出には、 従来から知られているこれらの手法を適用すればよい。
[ 0 0 3 2 ]
領域認識部 1 4は、平面検出部 1 3による平面検出結果をもと に、床面領域をロボッ ト 1 0 0が歩行可能な移動可能領域と して 認識し、床面とは別の平面が含まれる領域を障害物領域と して認、 識する。 なお、 床面とは、 ロボッ ト 1 0 0の足平 1 3 1 R及び L が接している平面を意味する。 ただし、 このよ うな領域認識は一 例である。例えば、床面とは高さが異なる平面や斜面であっても、 床面との高さの差が所定の値より小さい場合に足平 1 3 1 R及 び Lを着地させることが可能であれば、これらの平面を移動可能 領域と して認識してもよい。 またさらに、検出された平面の面積 と足平 1 3 1 R及び Lの面積とを比較した結果によって、その平 面を移動可能領域と して認識するかを決定してもよい。
[ 0 0 3 3 ]
環境地図更新生成部 1 5は、領域認識部 1 4によって認識され た移動可能領域及び障害物領域と、過去に生成された環境地図で ある旧環境地図に含まれる移動可能領域を統合して新たな環境 地図である新環境地図を生成する。
[ 0 0 3 4 ]
例えば、図 3 Aに示す環境 1 6 0をロボッ ト 1 0 0が歩行する 場合、床面に相当する平面 P 1及び障害物 1 6 1 の上面に相当す る平面 P 2が平面検出部 1 3により検出される。 また、領域認識 部 1 4によって、 平面 P 1が移動可能領域と して認識され、 平面 P 2が障害物領域と して認識される。 このとき、環境地図更新生 成部 1 5によって生成される環境地図は、図 3 Bに示すよ うにな る。 図 3 Bの環境地図 2 0 0は、各グリ ッ ドのデータと して領域 種別を示す情報、つまり移動可能領域であるか障害物領域である かを示す識別情報が保持される。 図 3 Bの例では、床面 P 1 1 に 対応する領域 R 1 1が移動可能領域であり、障害物 1 6 1 に対応 する領域 R 1 2 (図 3 Bの斜線領域) が障害物領域である。
[ 0 0 3 5 ]
図 2に戻り説明を続ける。 歩行計画部 1 6は、環境地図生成装 置 1 によって生成された環境地図を参照して目標位置を決定し、 決定した目標位置に到達するための足平 1 3 1 R及び Lの着地 位置を算出する。
[ 0 0 3 6 ]
動作生成部 1 7は、歩行計画部 1 6によつて生成された足平 1 3 1 R及ぴ Lの着地位置を実現するための動作データを生成す る。 ここで、 動作データとは、 ロボッ ト 1 0 0の Z M P位置、 重 心位置、 足平 1 3 1 R及び Lの位置及び姿勢、 並びに、 体幹部 B Dの位置及び姿勢を含む。
[ 0 0 3 7 ]
制御部 1 8は、動作生成部 1 7によって生成された動作データ を入力し、逆運動学演算によって各関節の目標関節角度を算出す る。 さらに、 制御部 1 8は、 算出した目標関節角度とエンコーダ 2 0によって計測した現在の関節角度をもとに各関節を駆動す るための トルク制御値を算出する。制御部 1 8によって算出され た トルク制御値に従って各関節を駆動するためのァクチユエ一 タ 1 9を動作させることにより、ロボッ ト 1 0 0の歩行が行われ る。
[ 0 0 3 8 ]
続いて以下では、環境地図生成装置 1 による環境地図の生成手 順の詳細を図 4乃至 6 Dを用いて説明する。 図 4は、 環境地図生 成装置 1 による環境地図の生成手順を示すフローチャー トであ る。 始めに、 ステップ S 1 0 1では、 3次元位置データ生成部 1 1が、レンジセンサ 1 0によって取得された距離画像データを用 いて 3次元位置データ群を生成する。 ステップ S 1 0 2では、 デ ータ選択部 1 2が、 ロボッ ト 1 0 0の移動量に応じて、 旧環境地 図を 3次元位置データ群に重ね合わせるための座標変換を実行 する。
[ 0 0 3 9 ] ステップ S 1 0 3では、 データ選択部 1 2が、座標変換後の旧 環境地図を 3次元位置データ群に重ねることで、後に実行される 平面検出の対象とすべきデータを 3次元位置データ群の中から 選択する。 具体的には、 旧環境地図の障害物領域に含まれるデー タ及び旧環境地図に含まれない未観測領域のデータが平面検出 対象データと して選択される。 なお、 旧環境地図の移動可能領域 (つま り、 足平 1 3 1 R及び Lが接している床面に相当する領 域)に含まれる 3次元位置データは、データ選択部 1 2によって、 そのまま移動可能領域に分類される。
[ 0 0 4 0 ]
ステップ S 1 0 4では、 平面検出部 1 3が、 平面検出対象デー タと して選択された 3次元位置データから平面を検出する。ステ ップ S 1 0 5では、領域認識部 1 4が、 平面検出部 1 3による平 面検出結果をもとに、床面領域を口ボッ ト 1 0 0が歩行可能な移 動可能領域と して認識し、床面とは別の平面が含まれる領域を障 害物領域と して認識する。 最後に、 ステップ S 1 0 6では、 環境 地図更新生成部 1 5力 新たに認識された移動可能領域及び障害 物領域と、旧環境地図に含まれる移動可能領域を統合して新たな 環境地図を生成する。
[ 0 0 4 1 ]
なお、上述した 3次元位置データ生成部 1 1、データ選択部 1 2、 平面検出部 1 3、領域認識部 1 4及び環境地図更新生成部 1 5により実行される処理は、典型的なコンピュータシステムを用 いて実現可能である。 具体的には、 一定の時間間隔で発生するタ イマ割り込みに応じて、図 4のフローチャートに示した処理をコ ンピュータシステムに行わせるためのプロ グラムをコンピュー タシステムに実行させればよレ、。 なお、 図 4のフローチャー トに 示した処理をコンピュータシステムに実行させるためのプロ グ ラムは、 1のプログラムである必要はなく、処理内容により分割 された複数のプログラムモジュールによって構成されてもよレ、。
[ 0 0 4 2 ]
次に、図 5 A乃至図 6 Dを用いて本発明の実施の形態にかかる 環境地図生成方法によつて達成される環境地図の生成に要する 演算時間の短縮効果について説明する。 図 5 A及び Bは、 ロボッ ト 1 0 0によ り生成される 3次元地図データ群の一例を示して いる。 なお、 図 5 A及び Bは、 床面に平行な X y平面に 3次元位 置データ群がプロッ トされたものであり、プロッ トされた各点に ついて高さ情報 ( z軸方向の位置情報) が存在する。
[ 0 0 4 3 ]
図 5 Aの画像は、旧環境地図の生成に使用される 3次元位置デ ータ群であるため、 ここでは、 前フ レーム ( i — 1 フ レーム) と 呼ぶ。 一方、 図 5 Bの画像は、 前フ レーム ( i — 1 フ レーム) よ り後に生成される 3次元位置データ群であるため、 ここでは、 現 フレーム ( i フレーム) と呼ぶ。 図 5 Aに記載したロボッ ト 1 0 0が前方 (矢印 5 0の方向) に移動するこ とで、 前フ レーム と現 フレームとでは 3次元位置データ群が変化する。 なお、 図 5 A及 び Bにおいて破線で囲まれた領域は、床面 P 1 1から見て凸段差 である障害物 1 6 1 を表している。
[ 0 0 4 4 ]
次に、 図 5 Bの 3次元位置データ P iから平面検出対象データ がどのよ うに選択されるかについて図 6 A乃至 Dを用いて説明 する。 図 6 A及び Bは、 図 5 A及び Bと同一の前フ レームの 3次 元位置データ P i 及び現フ レームの 3次元位置データ P iを 示している。 図 6 Cは、 図 6 Aの 3次元位置データ P ; _ iをも とに生成された環境地図 M i を示している。 環境地図 M i において、領域 R 2 1 は、床面 P 1 1 に対応する移動可能領域で ある。 また、 領域 R 2 2は、 障害物 1 6 1に対応する障害物領域 である。
[ 0 0 4 5 ]
図 6 Dは、 環境地図 1^ 1 _ 1を座標変換した F (M i _! ) を現 フレームの 3次元位置データ P iに重ねることによって、 平面検 出対象データが選択される様子を示す概念図である。環境地図 M i iの座標変換 F (M i _! ) は、 以下の ( 1 ) 式によ り一般的 に表される。 ( 1 ) 式において Rは回転行列であり、 tは平行移 動べク トルである。 回転行列 R及び平行移動べク トル tは、 ェン コーダ 2 0等の計測情報よ り得られるロボッ ト 1 0 0の移動量 及び姿勢変化を反映して決定される。
F{Mi_l) = RMi_l +t ( 1 )
[ 0 0 4 6 ]
図 6 Dの破線領域は座標変換された環境地図 F (M j _! ) を 示している。 また、 図 6 Dの実線で囲まれた領域 R 3 1及び R 3 2は、 平面検出対象データとされる領域を示している。 ここで、 領域 R 3 1 は、 環境地図 M i に含まれていない未観測領域で ある。 一方、 領域 R 3 2は、 環境地図 M i iにおける障害物領 域 R 2 2を含むよう選択された領域である。 なお、領域 R 3 2の ように、前フ レームの障害物領域 R 2 2の周辺データまで含めて 平面検出を行う ことで、平面検出対象データのデータ量は大きく なるもの、障害物領域の認識精度を向上させることができる利点 がある。
[ 0 0 4 7 ]
図 6 Dに示すように、前フ レームの平面検出結果、 具体的には これが反映された環境地図 M i iにおける移動可能領域 (領域 R 2 1 )の大部分を新たな平面検出の対象から除外することによ り、 平面検出に要する演算量を大きく削減することができる。
[ 0 0 4 8 ]
以上に述べたように、本実施の形態にかかるロボッ ト 1 0 0は、 過去に行われた平面検出結果が反映された旧環境地図を利用し て、 3次元位置データ群の中から平面検出対象データを選択する。 これによ り、前に平面検出を行ったのと同じ領域に属する 3次元 位置データに対して繰り返し平面検出を行わなくて済むため、平 面検出に要する演算量を大きく削減することができる。したがつ て、 環境地図の生成に要する時間を短縮することができるため、 環境地図の生成待ち時間がロボッ ト 1 0 0の高速移動の制約と なることを緩和することができる。
[ 0 0 4 9 ]
その他の実施の形態.
発明の実施の形態 1では、 ロボッ ト 1 0 0が、図 3 Bに示すよ うな環境地図を生成することと した。 つまり、 図 3 Bの環境地図 2 0 0は、 各グリ ッ ドのデータと して領域種別、つまり移動可能 領域であるか障害物領域であるかを示す識別情報が保持する。し かしながら、 このような環境地図の構成は一例に過ぎない。 例え ば、 図 3 Bと同様の 2次元の環境地図において、各グリ ッ ドのデ ータとして、 z軸方向の高さを保持してもよレ、。 また、 各ダリ ッ ドのデータと して、各グリ ッ ドが属する平面を一意に識別可能な 平面 I Dを保持してもよいし、各ダリ ッ ドが属する平面の法線べ ク トル ( n a, n b , n c ) の値を保持してもよい。 このような 環境地図によっても、足平 1 3 1 R及び Lが接している床面と同 じ平面又は床面との高さの差が所定範囲内である平面を移動可 能領域と し、 それ以外の平面を障害物領域と判定することで、移 動可能領域及び障害物領域を特定可能である。
[ 0 0 5 0 ] また、発明の実施の形態 1では、 旧環境地図の障害物領域又は 旧環境地図に含まれていない未観測領域に属する 3次元位置デ ータを平面検出対象データと した。 しかしながら、 例えば、 未観 測領域に属する 3次元位置データのみを平面検出対象データと してもよい。 これによ り、 平面検出対象データのデータ量をより いっそう削減できる。
[ 0 0 5 1 ]
また、発明の実施の形態 1は、脚式移動口ボッ トに本発明を適 用した一例を示したが、車輪等のその他の移動手段を有する移動 ロボッ トに対しても本発明を適用可能である。
[ 0 0 5 2 ]
さらに、本発明は上述した実施の形態のみに限定されるもので はなく、既に述べた本発明の要旨を逸脱しない範囲において種々 の変更が可能であることは勿論である。 産業上の利用可能性
[ 0 0 5 3 ]
本発明は、移動ロボッ トが移動する環境に関する地図情報 (以 下、 環境地図と呼ぶ) を移動ロボッ トの移動に応じて逐次生成す る方法に適用することができる。

Claims

請 求 の 範 囲
1. 移動ロボッ トが移動を行う環境に関して、障害物が存在する 障害物領域と前記移動ロボッ トが移動可能と推定される移動可 能領域とが特定された環境地図を生成するための環境地図の生 成方法あって、
視覚センサにより得られた計測情報を用いて、前記環境に存在 する計測対象の位置を示す 3次元位置データ群を生成し、
過去に生成された前記環境地図である旧環境地図及び前記移 動ロボッ トの移動量に基づいて、前記 3次元位置データ群に含ま れる 3次元位置データのうち、 少なく とも、前記旧環境地図にお いて障害物領域とされた領域に属する 3次元位置データ、 及び、 前記旧環境地図に含まれていない未観測領域に属する 3次元位 置データを平面検出対象データに選択し、
前記平面検出対象データを用いて平面検出を実行し、
前記平面検出の結果を用いて、前記平面検出対象データに含ま れる移動可能領域及び障害物領域を認識し、
前記平面検出の結果を用いて認識された移動可能領域及び障 害物領域と、前記旧環境地図において移動可能領域とされた領域 を統合して新たな環境地図である新環境地図を生成する、環境地 図の生成方法。
2. 前記平面検出対象データの選択は、前記移動ロボッ トの移動 量に応じて前記旧環境地図の座標系を前記 3次元位置データ群 の座標系に変換し、座標変換された前記旧環境地図と前記 3次元 位置データ群との重なり を判定することによ り行われる請求項 1 に記載の環境地図の生成方法。
3. 前記平面検出対象データの選択において、前記旧環境地図に おいて障害物領域と された領域の近傍に位置する 3次元位置デ 21 ータを前記平面検出対象データに含めることを特徴とする請求 項 1又は 2に記載の環境地図の生成方法。
4. 障害物が存在する障害物領域と障害物がなく移動可能と推 定される移動可能領域とが特定された環境地図を利用すること で障害物が存在する環境内を移動する移動ロボッ トであって、 前記環境を視覚的に認識する視覚センサと、
前記視覚センサにより得られる計測情報を用いて、前記環境に 存在する計測対象の位置を示す 3次元位置データ群を生成する 3次元位置データ生成部と、
過去に生成された前記環境地図である旧環境地図及び前記移 動ロボッ トの移動量に基づいて、前記環境の 3次元位置データ群 の中から平面検出の対象とする平面検出対象データを選択する 平面検出対象データ選択部と、
前記平面検出対象データを用いて平面検出を行う平面検出部 と、
前記平面検出の結果を用いて、前記平面検出対象データに含ま れる移動可能領域及び障害物領域を認識する領域認識部と、 前記領域認識部によ り認識された移動可能領域及び障害物領 域と、過去に生成された環境地図において障害物領域とされた領 域を統合して新たな環境地図である新環境地図を生成する環境 地図更新生成部と、
を備える移動ロボッ ト。
5. 前記平面検出対象データ選択部は、前記 3次元位置データ群 に含まれる 3次元位置データのうち、少なく とも、 前記旧環境地 図において前記障害物領域とされた領域に属する 3次元位置デ ータ、 及び、 前記旧環境地図に含まれていない未観測領域に属す る 3次元位置データを前記平面検出対象データに選択する請求 項 4に記載の移動ロボッ ト。
6. 前記平面検出対象データ選択部.は、前記移動ロボッ トの移動 量に応じて前記旧環境地図の座標系を前記 3次元位置データ群 の座標系に変換し、座標変換された前記旧環境地図と前記 3次元 位置データ群との重なり を判定するこ とで前記平面検出対象デ ータの選択を行う請求項 4又は 5に記載の移動口ボッ ト。
7. 前記平面検出対象データ選択部は、前記旧環境地図において 障害物領域と された領域の近傍に位置する 3次元位置データを 前記平面検出対象データに含めることを特徴とする請求項 4乃 至 6のいずれか 1項に記載の移動ロボッ ト。
8. 前記視覚センサは、 2次元画像における各画素の画素値と し て距離値を有する距離画像が前記計測情報と して得られるレン ジセンサ、 又は、視差画像が前記計測情報と して得られるステレ ォカメ ラである請求項 4乃至 7のいずれか 1項に記載の移動口 ボッ ト。
PCT/JP2008/051029 2007-02-13 2008-01-18 環境地図の生成方法及び移動ロボット WO2008099652A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP08703856.8A EP2124122B1 (en) 2007-02-13 2008-01-18 Environment map drawing method and mobile robot
US12/526,279 US7987021B2 (en) 2007-02-13 2008-01-18 Environment map generating method and mobile robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007031877A JP4645601B2 (ja) 2007-02-13 2007-02-13 環境地図の生成方法及び移動ロボット
JP2007-031877 2007-02-13

Publications (1)

Publication Number Publication Date
WO2008099652A1 true WO2008099652A1 (ja) 2008-08-21

Family

ID=39689898

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/051029 WO2008099652A1 (ja) 2007-02-13 2008-01-18 環境地図の生成方法及び移動ロボット

Country Status (4)

Country Link
US (1) US7987021B2 (ja)
EP (1) EP2124122B1 (ja)
JP (1) JP4645601B2 (ja)
WO (1) WO2008099652A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106382916A (zh) * 2016-09-10 2017-02-08 上海大学 自建参考系的双六足机器人复杂地形三维立体测绘系统与方法
CN111142514A (zh) * 2019-12-11 2020-05-12 深圳市优必选科技股份有限公司 一种机器人及其避障方法和装置
CN114029953A (zh) * 2021-11-18 2022-02-11 上海擎朗智能科技有限公司 基于深度传感器确定地平面的方法、机器人及机器人系统
CN114911221A (zh) * 2021-02-09 2022-08-16 北京小米移动软件有限公司 机器人的控制方法、装置及机器人

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101581936B (zh) * 2008-05-16 2012-01-25 深圳富泰宏精密工业有限公司 利用手机控制两足式机器人的系统及方法
US8250143B2 (en) 2008-12-10 2012-08-21 International Business Machines Corporation Network driven actuator mapping agent and bus and method of use
JP2010170288A (ja) * 2009-01-22 2010-08-05 Hitachi Ltd 3次元モデリング装置
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
ES2498193T3 (es) * 2010-02-05 2014-09-24 Kuka Laboratories Gmbh Procedimiento y dispositivo para la supervisión de un espacio de un manipulador
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
JP5959899B2 (ja) * 2012-03-30 2016-08-02 本田技研工業株式会社 接触状態推定装置
CN102662399B (zh) * 2012-05-09 2014-10-22 江苏科技大学 一种面向多目标的水果采摘机器人的路径优化方法
KR101965739B1 (ko) * 2012-05-25 2019-04-05 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
KR101441187B1 (ko) * 2012-07-19 2014-09-18 고려대학교 산학협력단 자율 보행 로봇 경로 계획 방법
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
JP6393991B2 (ja) 2014-01-24 2018-09-26 トヨタ自動車株式会社 ロボット、及びその制御方法
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
CN103926930A (zh) * 2014-05-07 2014-07-16 重庆邮电大学 一种基于Hilbert曲线探测的多机器人协作地图构建方法
US9427872B1 (en) * 2014-12-21 2016-08-30 Google Inc. Devices and methods for encoder calibration
US10201901B2 (en) * 2015-01-29 2019-02-12 Canon Kabushiki Kaisha Robot apparatus, method for controlling robot, program, and recording medium
JP2018530441A (ja) * 2015-09-09 2018-10-18 カーボン ロボティクス, インコーポレイテッドCarbon Robotics, Inc. ロボットアームシステム及び物体回避方法
KR102415062B1 (ko) * 2015-12-07 2022-07-01 한화테크윈 주식회사 감시 방법
JP6782903B2 (ja) * 2015-12-25 2020-11-11 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
CA2945926C (en) * 2016-02-29 2018-09-25 Komatsu Ltd. Control system for work machine, work machine, and management system for work machine
FR3048517B1 (fr) 2016-03-07 2022-07-22 Effidence Robot autonome motorise avec anticipation d'obstacle
US10196104B1 (en) 2016-05-04 2019-02-05 Schaft Inc. Terrain Evaluation for robot locomotion
JP6786264B2 (ja) * 2016-05-27 2020-11-18 株式会社東芝 情報処理装置、情報処理方法、および車両
KR101798132B1 (ko) 2016-12-26 2017-11-16 한국생산기술연구원 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법
EP3581348A4 (en) * 2017-02-13 2020-05-13 Panasonic Intellectual Property Management Co., Ltd. ROBOT CONTROL METHOD AND ROBOT
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
US10482619B2 (en) * 2017-07-27 2019-11-19 AI Incorporated Method and apparatus for combining data to construct a floor plan
JP6987566B2 (ja) * 2017-08-07 2022-01-05 三菱重工業株式会社 作業システム及び作業システムの作業方法
JP7101350B2 (ja) * 2017-09-13 2022-07-15 株式会社アルファメディア 画像処理装置および移動支援装置
KR101974073B1 (ko) * 2017-12-19 2019-04-30 (주)이공감 혼합현실을 위한 바닥면 재구성 방법
KR102095120B1 (ko) * 2018-09-10 2020-03-30 한국과학기술원 지능형 실내 공간 서비스를 위한 공간의 기능 및 의미를 포함한 실내 공간 모델링 방법 및 장치
JP7351079B2 (ja) 2018-11-30 2023-09-27 ソニーグループ株式会社 制御装置、制御方法及びプログラム
CN111414786A (zh) * 2019-03-22 2020-07-14 科沃斯机器人股份有限公司 一种用于与工作机器人信息交互的方法及装置
KR102143349B1 (ko) * 2019-03-27 2020-08-11 엘지전자 주식회사 이동 로봇의 제어 방법
CN110275540A (zh) * 2019-07-01 2019-09-24 湖南海森格诺信息技术有限公司 用于扫地机器人的语义导航方法及其系统
JP6995090B2 (ja) 2019-07-11 2022-01-14 日本電子株式会社 自動分析装置および自動分析装置の制御方法
CN113494916B (zh) * 2020-04-01 2024-07-02 杭州萤石软件有限公司 地图构建方法及多足式机器人
CN113538671B (zh) * 2020-04-21 2024-02-13 广东博智林机器人有限公司 地图生成方法、装置、存储介质及处理器
CN111982127A (zh) * 2020-08-31 2020-11-24 华通科技有限公司 LightWeight-3D避障方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224986A (ja) 1989-02-22 1990-09-06 Toshiba Corp 多脚移動機構
JPH05143156A (ja) * 1991-11-21 1993-06-11 Mazda Motor Corp 環境認識装置
JP2004276168A (ja) * 2003-03-14 2004-10-07 Japan Science & Technology Agency 移動ロボット用地図作成システム
JP2005092820A (ja) 2003-09-19 2005-04-07 Sony Corp 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04291405A (ja) * 1991-03-20 1992-10-15 Nec Corp 走行路構造認識方法及びその装置
JPH07271978A (ja) 1994-03-29 1995-10-20 Toshiba Corp 画像処理装置
US5978504A (en) * 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
JP4429461B2 (ja) * 2000-03-17 2010-03-10 本田技研工業株式会社 画像処理装置、平面検出方法、及び平面検出プログラムを記録した記録媒体
JP4409035B2 (ja) * 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
JP4121720B2 (ja) * 2001-07-13 2008-07-23 株式会社前川製作所 2次元マップ作成方法及びその装置
JP4288028B2 (ja) 2001-11-28 2009-07-01 富士通株式会社 平面領域特定方法、及び、画像計測装置
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP2003266349A (ja) * 2002-03-18 2003-09-24 Sony Corp 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2003266345A (ja) * 2002-03-18 2003-09-24 Sony Corp 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
US20060064202A1 (en) * 2002-08-26 2006-03-23 Sony Corporation Environment identification device, environment identification method, and robot device
US7127326B2 (en) * 2002-11-15 2006-10-24 Iguana Robotics, Inc. Certain principles of biomorphic robots including foot placement selection using non-geometric visual properties
JP4142567B2 (ja) * 2003-12-19 2008-09-03 松下電器産業株式会社 経路誘導装置
JP4479372B2 (ja) 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
JP4241673B2 (ja) * 2005-06-17 2009-03-18 本田技研工業株式会社 移動体の経路生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224986A (ja) 1989-02-22 1990-09-06 Toshiba Corp 多脚移動機構
JPH05143156A (ja) * 1991-11-21 1993-06-11 Mazda Motor Corp 環境認識装置
JP2004276168A (ja) * 2003-03-14 2004-10-07 Japan Science & Technology Agency 移動ロボット用地図作成システム
JP2005092820A (ja) 2003-09-19 2005-04-07 Sony Corp 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2124122A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106382916A (zh) * 2016-09-10 2017-02-08 上海大学 自建参考系的双六足机器人复杂地形三维立体测绘系统与方法
CN106382916B (zh) * 2016-09-10 2019-06-04 上海大学 自建参考系的双六足机器人复杂地形三维立体测绘系统与方法
CN111142514A (zh) * 2019-12-11 2020-05-12 深圳市优必选科技股份有限公司 一种机器人及其避障方法和装置
CN111142514B (zh) * 2019-12-11 2024-02-13 深圳市优必选科技股份有限公司 一种机器人及其避障方法和装置
CN114911221A (zh) * 2021-02-09 2022-08-16 北京小米移动软件有限公司 机器人的控制方法、装置及机器人
CN114911221B (zh) * 2021-02-09 2023-11-28 北京小米机器人技术有限公司 机器人的控制方法、装置及机器人
CN114029953A (zh) * 2021-11-18 2022-02-11 上海擎朗智能科技有限公司 基于深度传感器确定地平面的方法、机器人及机器人系统
CN114029953B (zh) * 2021-11-18 2022-12-20 上海擎朗智能科技有限公司 基于深度传感器确定地平面的方法、机器人及机器人系统

Also Published As

Publication number Publication date
US7987021B2 (en) 2011-07-26
EP2124122A1 (en) 2009-11-25
EP2124122A4 (en) 2015-05-06
US20100324769A1 (en) 2010-12-23
JP4645601B2 (ja) 2011-03-09
JP2008197884A (ja) 2008-08-28
EP2124122B1 (en) 2016-03-09

Similar Documents

Publication Publication Date Title
WO2008099652A1 (ja) 環境地図の生成方法及び移動ロボット
KR101913332B1 (ko) 이동 장치 및 이동 장치의 위치 인식 방법
US8873831B2 (en) Walking robot and simultaneous localization and mapping method thereof
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
CN113696186B (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
JP3994950B2 (ja) 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US8019145B2 (en) Legged locomotion robot
JP4506685B2 (ja) 移動型ロボット
US8761925B2 (en) Robot and method of building map therefor
EP2590042B1 (en) Walking robot performing position recognition using several local filters and a fusion filter
EP1975878B1 (en) Projective transformation convergence calculation method
Melchiorre et al. Collison avoidance using point cloud data fusion from multiple depth sensors: a practical approach
JP5480799B2 (ja) 移動装置およびロボットならびにこれらの制御システム
JP4849178B2 (ja) 移動型ロボット
KR20170138977A (ko) 보행 로봇 및 그의 위치 인식과 지도 작성을 동시에 수행하는 방법
JP2009258779A (ja) 移動ロボット及び足跡計画方法
JP2018513496A (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
JP4678007B2 (ja) 環境地図生成方法、及び移動ロボット
JP2008126333A (ja) 脚式移動ロボット及びその歩行計画方法
JP2008264946A (ja) 移動ロボット、及び床面形状データの補正方法
Tan et al. Mobile Robot Docking With Obstacle Avoidance and Visual Servoing
Hornung et al. A model-based approach for visual guided grasping with uncalibrated system components
Opaso et al. VISUAL SERVOING USING CAMARA IN EFFECTOR

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08703856

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12526279

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2008703856

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE