WO2013002067A1 - 移動ロボット、及び移動体に搭載される自己位置姿勢推定システム - Google Patents

移動ロボット、及び移動体に搭載される自己位置姿勢推定システム Download PDF

Info

Publication number
WO2013002067A1
WO2013002067A1 PCT/JP2012/065626 JP2012065626W WO2013002067A1 WO 2013002067 A1 WO2013002067 A1 WO 2013002067A1 JP 2012065626 W JP2012065626 W JP 2012065626W WO 2013002067 A1 WO2013002067 A1 WO 2013002067A1
Authority
WO
WIPO (PCT)
Prior art keywords
orientation
estimation
mobile robot
evaluation value
posture
Prior art date
Application number
PCT/JP2012/065626
Other languages
English (en)
French (fr)
Inventor
修一 槙
高斉 松本
正木 良三
Original Assignee
株式会社日立産機システム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立産機システム filed Critical 株式会社日立産機システム
Priority to JP2013522770A priority Critical patent/JP5909486B2/ja
Publication of WO2013002067A1 publication Critical patent/WO2013002067A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Definitions

  • the present invention relates to an autonomous mobile robot, and more particularly to a mobile robot having a function of estimating a self-position / posture.
  • the present invention also relates to a self-position / posture estimation system mounted on a mobile body and having a function of estimating a self-position / posture.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2005-242409 discloses an autonomous mobile robot that moves to a destination while preventing a danger that causes an unsafe situation and avoiding a dangerous place.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2011-43405
  • Patent Document 3 Japanese Patent Laid-Open No. 2011-65308 discloses a device that autonomously moves while estimating its own position based on measurement data of the measurement device.
  • Patent Document 1 a sign provided in a moving environment, for example, a mark or pattern, an ultrasonic generator, a laser light emitting device, or the like is used.
  • a detection means an image sensor such as a CCD or CMOS sensor corresponding to each sign .
  • ultrasonic receivers and laser light receiving elements the position direction is indicated by the detection results, an error in self-position estimation can be detected, and danger avoidance is described.
  • this method has problems such as increased work costs such as installation and registration of signs.
  • Patent Document 2 proposes a method using the degree of coincidence as a position / orientation estimation evaluation value, but it cannot be correctly evaluated when the same scenery such as a long corridor continues.
  • Patent Document 3 proposes a method of operating while evaluating the reliability of position and orientation estimation using an error variance map, but assumes that the characteristics of the sensor with respect to the landmark are known, It is difficult to build a safe system in an unknown environment.
  • the present invention performs position and orientation estimation using a particle filter in a mobile robot, obtains a position and orientation estimation threshold based on particle dispersion as an amount for determining the position and orientation estimation state, and moves The purpose is to decelerate and stop the robot.
  • the present invention performs position and orientation estimation using a particle filter in a self-position and orientation estimation system mounted on a moving body such as a mobile robot, and determines the position and orientation estimation state.
  • the position and orientation estimation threshold value is obtained as a quantity based on particle dispersion, and when the position and orientation estimation is not operating normally, information and signals indicating that the position and orientation estimation is not operating normally can be output. Objective.
  • the present invention is a mobile robot including a distance sensor for estimating its own position and orientation, and the position and orientation of the robot are determined by collating the measurement data of the distance sensor with map data.
  • a position / orientation estimation unit for estimation and a position / orientation estimation evaluation value calculation unit for calculating reliability of the result of the position / orientation estimation unit are provided.
  • a mobile robot including a distance sensor for estimating its own position and orientation, and an encoder for measuring the number of rotations of a wheel, a movement amount estimation unit for estimating a movement amount from measurement data of the encoder, and a distance sensor
  • a position and orientation estimation unit that estimates the position and orientation of the mobile robot by comparing the measurement data with a map, and a fusion position and orientation estimation unit that fuses the movement amount estimation result and the position and orientation estimation result.
  • a position / orientation estimation evaluation value calculation unit for calculating the reliability of the image is provided.
  • a mobile robot including a distance sensor for estimating its own position and orientation, a position and orientation estimation unit that estimates the position and orientation of the mobile robot by collating the measurement data of the distance sensor with map data, A position / orientation estimation evaluation value calculation unit for calculating reliability of the position / orientation result is provided, and deceleration and stop are performed according to the evaluation value.
  • a mobile robot including a distance sensor for estimating its own position and orientation, a position and orientation estimation unit that estimates the position and orientation of the mobile robot by collating the measurement data of the distance sensor with map data, A position / orientation estimation / evaluation value calculation unit that calculates the reliability of the position / orientation results is provided, and the average, mode, and worst values of the position / orientation estimation / evaluation values during travel after map creation are used as threshold values for deceleration and stop It is characterized by.
  • a mobile robot including a distance sensor for estimating its own position and orientation, a position and orientation estimation unit that estimates the position and orientation of the mobile robot by collating the measurement data of the distance sensor with map data, A position / orientation estimation / evaluation value calculation unit for calculating reliability of the position / orientation result is provided, and the worst value of the position / orientation estimation / evaluation value at the time of travel after map creation is used as a threshold for travel and stop.
  • a mobile robot system including a robot having a distance sensor for estimating its own position and orientation and means for communicating with the outside, wherein the position of the mobile robot can be determined by collating the distance sensor measurement data with map data.
  • a position / orientation estimation unit that estimates the posture, a position / orientation estimation evaluation value calculation unit that calculates the reliability of the position / orientation result, and a communication unit that transmits the position / orientation result and the position / orientation estimation evaluation value are provided in real time. It is characterized by being observable.
  • the present invention is a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body, and includes measurement data and a map from a distance sensor provided on the mobile body
  • a position and orientation estimation unit that estimates the position and orientation of the moving body by collating data, and a position and orientation estimation evaluation value calculation unit that calculates the reliability of the position and orientation estimation result are provided.
  • a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body, a movement amount estimation unit that estimates the movement amount from measurement data from an encoder that measures the movement amount of the mobile body;
  • a position / orientation estimation unit that estimates the position and orientation of the moving object by collating measurement data from a distance sensor provided on the moving object and map data, and a fusion position that fuses the movement amount estimation result and the position / orientation estimation result
  • the apparatus includes a posture estimation unit and a position / orientation estimation evaluation value calculation unit that calculates the reliability of the position / orientation fusion result.
  • a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body, wherein the position of the mobile body is verified by collating measurement data from a distance sensor provided on the mobile body with map data.
  • a position / orientation estimation evaluation value calculation unit for calculating a reliability of the position / orientation estimation result, and output evaluation information corresponding to the evaluation value to the mobile body .
  • a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body when the mobile body is traveling after the evaluation information is output to the mobile body The body is decelerated and stopped.
  • a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body, wherein the position of the mobile body is verified by collating measurement data from a distance sensor provided on the mobile body with map data.
  • a position / orientation estimation evaluation value calculation unit that calculates the reliability of the position / orientation estimation result, and is output from the position / orientation estimation / evaluation value calculation unit during travel after map creation It is evaluation information, and the evaluation information is evaluation information corresponding to an average value, a mode value, and a worst value of the evaluation values calculated by the position and orientation estimation evaluation value calculation unit.
  • a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body, wherein the position of the mobile body is verified by collating measurement data from a distance sensor provided on the mobile body with map data.
  • a position / orientation estimation evaluation value calculation unit that calculates the reliability of the position / orientation estimation result, and is output from the position / orientation estimation / evaluation value calculation unit during travel after map creation It is evaluation information, and the evaluation information is evaluation information corresponding to the worst value of the evaluation values calculated by the position and orientation estimation evaluation value calculation unit.
  • the robot it is determined whether or not the position / orientation estimation of the mobile robot is performed normally. If the position / orientation estimation is not normal, the robot can be decelerated or stopped urgently. it can. Further, according to the present invention, it is determined whether or not the position / orientation estimation of the moving body is performed normally. If not, information or a signal indicating that the position / orientation estimation is not performed normally is output to the moving body. It is possible to do.
  • the system block diagram of the autonomous mobile robot of this invention is shown.
  • the map with obstacles and the route and measurement status of the mobile robot are shown.
  • the measurement state when the mobile robot is traveling is shown.
  • the measurement state when the mobile robot is traveling is shown.
  • the figure explaining a particle filter is shown.
  • the figure explaining the content of the operation mode determination part of a mobile robot is shown.
  • the figure explaining the content of the operation mode determination part of a mobile robot is shown.
  • the figure explaining the content of the operation mode determination part of a mobile robot when an obstruction moves is shown.
  • the processing flowchart of the deceleration or stop based on a position and orientation estimation evaluation value is shown.
  • the flowchart which performs map change when there exists environmental change is shown. It is a figure which shows the driving
  • running route of a mobile robot. 7 is a flowchart for determining a threshold value of a position / orientation estimation evaluation value when a mobile robot is tried.
  • Self-position / posture estimation means to estimate the position (x, y) and posture ⁇ of a mobile robot or a mobile object equipped with a self-position / posture estimation system. Including the case where no. In academic societies, in many cases, “posture” is omitted, and simply “self-position estimation” is written, and this name is also synonymous with “self-position / posture estimation” described in the following specification. is there. The name in English will also be described below.
  • the English name is translated as “position and orientation estimation”. “Position” corresponds to the position (x, y), and “orientation” corresponds to the posture ⁇ . In academic societies and the like, “orientation” may be omitted and simply referred to as “position estimation”, which is synonymous with “position and orientation estimation” and is described in the following specification. Similarly, the names “pose estimation”, “position and posture estimation”, and “configuration estimation” are synonymous and are described in the following specification.
  • a mobile robot will be described as an example of the mobile body.
  • the self-position / posture estimation system mounted on the mobile body will be described as a system including a position / posture estimation unit mounted on the mobile robot.
  • FIG. 1 is a system block diagram of an autonomous mobile robot according to an embodiment of the present invention.
  • 1 is an autonomous mobile robot
  • 9 is a position and orientation estimation unit
  • 2 is a position and orientation estimation evaluation value calculation unit for evaluating the result of the position and orientation estimation unit
  • 3 is an operation mode determination unit that determines an operation mode
  • 5 is a laser distance sensor that measures distance
  • 6 is a map storage unit that stores a map that describes the characteristics of an obstacle
  • 7 is a position and orientation control unit that controls the position and orientation of the mobile robot
  • 8a and 8b are wheel positions. It is an encoder that measures the number of rotations.
  • Reference numeral 50 denotes an image display for displaying a map, the position and orientation of the robot on the map, the measurement data of the laser distance sensor, and the like.
  • the autonomous mobile robot 1 includes a laser distance sensor 5 for measuring the distance d to the obstacle, a map describing the characteristics of the obstacle stored in the map storage unit 6, an encoder 8a for calculating the number of rotations of the wheels, 8b, a position / orientation estimation unit 9 for estimating the position / orientation of the robot 1 based on the distance d22, the map 6, and the number of rotations; an evaluation value calculation unit 2 for evaluating the position / orientation estimation result;
  • the operation mode determination unit 3 determines the operation mode based on the value, and the position / orientation control unit 7 controls the position / orientation of the mobile robot 1 based on the operation mode and the position / orientation estimation result.
  • the position of the mobile robot 1 with respect to the reference coordinate system is (x, y)
  • the posture of the mobile robot 1 with respect to the x-axis is ⁇
  • collectively x, y, ⁇
  • 1 is a mobile robot
  • 61 is a wall
  • 14 is a work table which is an obstacle
  • 22 is distance data from the laser distance sensor 5 of the mobile robot to the obstacle
  • 23 is a robot after movement
  • 24 is its This represents the movement amount u.
  • This measurement data is called distance data d22.
  • This data measures the shape of the measurement object around the mobile robot 1.
  • the position and orientation of the mobile robot 1 can be estimated by collating the distance data d22 with the map information.
  • 10 is a map representing an area where the mobile robot travels, and 11, 12, 13, 14 and 16 represent obstacles.
  • Reference numerals 17 and 18 denote loading and unloading places, and reference numerals 32 and 33 denote workers.
  • the path between the unloading places 17 and 18 includes a path 19 on the lower path and a path on the right side, a path 20 on the path between the obstacles 11 and 13 and the obstacles 12 and 14, In addition, a path 21 from the left passage to the upper passage is shown.
  • 25 indicates the position of the mobile robot before movement.
  • Reference numeral 27 denotes a state in which the movement amount ue26 has been moved.
  • 28 is a particle before the mobile robot moves
  • 30 is a particle moved in this area by a movement amount ue29
  • 31 is a particle with a large weight of dispersed particles.
  • the particle filter can probabilistically merge the position and orientation estimation results from a plurality of sensors and reduce the estimation error.
  • the particle filter is executed in two steps: a prediction step and an update step.
  • the prediction step the post-movement position of the mobile robot 1 is estimated using odometry calculated from the encoders 8a and 8b.
  • the update step the position and orientation of the robot predicted based on the position estimation result using the laser distance sensor and the map are updated.
  • the predicted value 27 is (x0 + ue_x, y0 + ue_y, ⁇ 0 + ue_ ⁇ ) with respect to the position and orientation (x, y, ⁇ ) after movement.
  • this movement amount (ue_x, ue_y, ue_ ⁇ ) includes errors such as wheel slip
  • a plurality of predicted values are generated in the prediction step using position and orientation candidates according to the error distribution of the encoders 8a and 8b.
  • the degree of coincidence between the distance data d22 and the maps 10 and 14 is calculated for the predicted particles (xp, yp, ⁇ p); Specifically, assuming that the distance data d22 is measured by the position and orientation (xp, yp, ⁇ p), the number of points where the maps 10, 14 and the distance data d22 overlap is calculated. This value is called the matching degree R.
  • the coincidence degree R is a high value if the true position / posture (x, y, ⁇ ) and the predicted particle (xp, yp, ⁇ p) are close to each other, and a low value if the coincidence is greatly deviated.
  • FIG. 4 shows an example in which the degree of coincidence is calculated by fitting the distance data d22 from the laser distance sensor 5 of FIG. Since the amount of movement ue26 includes an error, it can be seen that the maps 10 and 14 are deviated if applied as they are.
  • the position and orientation of the robot are expressed by a plurality of particles.
  • the degree of coincidence is calculated for it. Among them, the one with the highest degree of coincidence is adopted as the estimated position and orientation of the robot.
  • the initial particle (x0i, y0i, ⁇ 0i) is updated by selecting the M point from the MN points according to the degree of coincidence.
  • the particle filter algorithm In the update step, the one with the highest degree of coincidence calculated for (xp, yp, ⁇ p) was adopted as the estimation result. However, it should be noted here that there are cases where there are two particles having a matching degree that is the maximum value. In this situation, if the distance between the two points having the highest degree of coincidence is close, it does not matter whether either one is selected, but the problem is when the distance between the two points is far. In this case, which particle should be selected cannot be distinguished by the degree of coincidence. In some cases, the degree of coincidence is the same value at a plurality of points instead of two points, and becomes the maximum value.
  • the mobile robot 1 can select or estimate the position / orientation estimated value or decelerate / stop, and the mobile robot 1 can perform safer autonomous movement.
  • the degree of coincidence of a plurality of particles is maximized, and when the distance between particles having the maximum coincidence becomes wide, the state is considered to be a state in which the dispersion value of the particles 31 is large.
  • the variance ⁇ around the average value of the particles is applied as the position / orientation estimation evaluation value E.
  • the distance data d22 and the maps 10 and 14 do not coincide with each other when there is a change in the environment around the mobile robot 1 (the movement of the measurement object described on the map, workers, etc.). May be widely distributed. Further, even when the distance data d22 and the maps 10 and 14 are in good agreement, particles are distributed over a wide range in the longitudinal direction of the corridor in a long corridor. In such a situation, it is possible to evaluate the reliability of the position / orientation estimation result by using particle dispersion.
  • the position / orientation estimation evaluation value calculation unit 2 calculates the dispersion of particles. In this embodiment, the following evaluation formula is used.
  • E ⁇ E ⁇ x ⁇ ⁇ x + ⁇ y ⁇ ⁇ y + ⁇ ⁇ ⁇ ⁇ ⁇ (Equation 1)
  • is a normalization constant, and is set to a value that equals the average value of the position variance and the attitude variance. In this way, if the sum of variances is taken as the value of E, it can be made one-dimensional, and the evaluation is simplified.
  • FIG. 6 shows the particles 31 when the workers 32 and 33 are standing in front of the mobile robot.
  • FIG. 7 shows the particles 31 when the workers 32 and 33 are standing in front of the mobile robot.
  • FIG. 8 shows a case where the handicapped person moved by an earthquake or a person hit.
  • FIG. 8A shows a state in which the distance of the mobile robot is being measured, and
  • FIG. 8B shows the particle 31 at that time.
  • FIG. 8 shows a state in which a plurality of maximum matching degrees appear.
  • FIG. 8A shows a situation in which the mobile robot 1 performs measurement by the laser distance sensor in a situation where the work table 14 has moved unintentionally due to contact of the workers 32 and 33 after the map is created. Yes. Since the map describes the arrangement of the work table 62 before movement, there is no position and orientation (x, y, ⁇ ) where the distance data d22 and the maps 10 and 14 completely coincide.
  • FIG. 8B shows the result of position and orientation estimation performed by the particle filter in this state. A place with a high degree of coincidence is formed on the left side with respect to the moving direction of the mobile robot separately from the original position and this position.
  • FIGS. 6 and 7 show a case where workers 32 and 33 at the site are present in front of the moving mobile robot 1.
  • FIG. 6 about half of the distance data in front of the mobile robot 1 is hidden by the workers 32 and 33.
  • the number of measurement points in the front-rear direction is reduced compared to the state of FIG. Therefore, since the particles selected in the update step are distributed more widely than usual in the front-rear direction of the mobile robot 1, the position / orientation estimation evaluation value E increases, so that the mobile robot 1 performs deceleration control, thereby enabling safer movement. It becomes possible.
  • FIG. 7 shows that the workers 32 and 33 are completely hiding in front of the mobile robot 1 and the front-rear direction coordinates of the mobile robot 1 cannot be estimated.
  • the value of the position / orientation estimation evaluation value E is further deteriorated from the state of FIG. 6, so that the operation mode determination unit stops the mobile robot 1 safely based on this value.
  • an object detection area having a size proportional to the moving speed of the robot is provided in the robot travel method within the measurement range of the laser distance sensor, and the measurement object is detected in that area. Some of them are considered dangerous and stop.
  • this method when this method is used, there is a problem that a wall is unnecessarily detected when the robot turns and noise is detected, which causes a reduction in work efficiency.
  • the present invention is essentially a necessary stop process based on the reliability of the position estimation result, and it is a feature of the present invention that no noise is detected to cause an unnecessary stop process.
  • the mobile robot 1 since the mobile robot 1 has once exceeded the stop threshold value, it cannot be restored until it is identified whether the cause is an operator blockage or an environmental change. At this time, it is also a feature that it is automatically switched to the manual mode on the assumption that the worker confirms and operates the state of the mobile robot 1.
  • FIG. 9 is a flowchart of processing for decelerating and stopping the mobile robot 1 based on the position / orientation estimation evaluation value E.
  • the mobile robot 1 loads the luggage loading / unloading location 17 or 18 and autonomously moves toward the destination (step 201). While moving, the mobile robot 1 performs sensing and estimates position and orientation (step 202).
  • the position / orientation estimation evaluation value E is calculated for the position / orientation estimation result (step 203).
  • the mobile robot 1 determines whether the destination has been reached from the position / orientation estimation result (step 204).
  • the operation is terminated, and if not, the operation mode is changed based on the position / orientation estimation evaluation value E, and the position / orientation estimation evaluation value E is compared with the threshold E1 (step 205).
  • the position / orientation estimation evaluation value E is larger than the threshold value E1
  • the mobile robot 1 shifts from the normal travel mode to the deceleration mode (step 206).
  • the evaluation value E is smaller than the threshold value E1
  • the process returns to step 201 for autonomous movement.
  • the deceleration mode step 206
  • the position / orientation estimation evaluation value E and the threshold value E2 are compared, and if the evaluation value E is large, that is, if the stop threshold value is exceeded, autonomous movement is virtually impossible. Therefore, the process shifts to the manual mode (step 208).
  • the operation mode is the deceleration mode and the autonomous movement is continued (return to step 201).
  • the manual mode is switched (step 208)
  • the operator is notified of the switching (step 209), and the mobile robot 1 stops.
  • the deceleration threshold value is provided in only one stage, but it is also possible to provide deceleration in multiple stages for deceleration.
  • FIG. 10 is a flowchart showing a return procedure of the mobile robot 1 when the stop threshold is exceeded.
  • the mobile robot 1 performs position and orientation estimation (step 301).
  • an evaluation value for the position / orientation estimation result in step 301 is calculated (step 302).
  • the mobile robot 1 notifies the worker / manager that it is currently stopped (step 303).
  • the worker who has received the notification confirms the image display 50 attached to the mobile robot 1 and confirms that the position / orientation estimation evaluation value E is smaller than the stop threshold E2 and that the distance data d and the maps 10 and 14 are the same. It confirms that it has done (step 304).
  • the distance data is color-coded according to the points that overlap the map and the points that do not overlap, and is characterized by the fact that the point where the environment changes is clear.
  • step 308 After confirming the current state in step 304, if the cause of exceeding the threshold is the worker, the manual mode is canceled and the mobile robot 1 is returned to work (step 308).
  • the worker / administrator views the map around the mobile robot 1 stopped.
  • Update step 306.
  • the mobile robot 1 switched to the manual mode may be operated to collect the distance data d, or an instrument dedicated to map creation may be used.
  • the update of the map may be performed on the robot while confirming the display of the mobile robot 1, or only the distance data d can be taken home and the map can be created on another PC. Thereafter, the mobile robot 1 reads the updated map and returns to work.
  • FIG. 11 shows the work site environment of the robot 1.
  • the robot 1 In order for the robot 1 to move autonomously in this environment, it is first necessary to create a map of the site. Next, the robot 1 performs a trial run on the site to confirm whether the mapping is correctly performed.
  • a threshold E is set based on the measurement data in this trial run. Although the threshold value should be determined from the sensor characteristics, the sensor characteristics depend on the material and color of the measurement object, so it is difficult to grasp all combinations. Therefore, by actually measuring, a threshold suitable for the site can be set, so that safer autonomous movement is possible.
  • FIG. 12 shows a flowchart of the threshold determination process.
  • the mobile robot 1 creates an environmental map (step 101).
  • the mobile robot 1 performs autonomous movement along the route on which the robot is actually operated, using the map created in step 101 (step 102).
  • the mobile robot 1 actually estimates the position and orientation, and moves while saving the result in the map storage unit 6.
  • data processing for threshold determination is performed using the position / orientation estimation evaluation value stored in the storage unit 6 (step 103).
  • the vehicle is operated in actual driving (step 104).
  • the threshold value is set by using an E statistic such as the maximum value Emax of the position / orientation estimation evaluation value E calculated during the travel.
  • E statistic such as the maximum value Emax of the position / orientation estimation evaluation value E calculated during the travel.
  • Emax the maximum value of the position / orientation estimation evaluation value E calculated during the travel.
  • E2 2Emax is used as a stop threshold.
  • the reason why such a value is used as the threshold value is that the value up to Emax is a value generated in the trial run immediately after the map creation, and it is guaranteed that the vehicle can normally run within this range. This is the preparation stage in the actual operation of the mobile robot 1.
  • the particle filter estimation result is the particle having the highest degree of coincidence, but the average value of the particles may be used as the position and orientation estimation result.
  • the dispersion of particles is used as the position / orientation estimation evaluation value.
  • a statistic indicating the spread of particles for example, the rectangle including all particles, the area of an ellipse, and the like can be directly applied to the present invention. is there.
  • the degree of coincidence R can be used as the evaluation value.
  • the degree of coincidence represents the degree of environmental change as it is, and is an important value that gives information on the surrounding environment of the mobile robot 1.
  • the evaluation is performed including the variance.
  • the results of individually evaluating the degree of coincidence R and the variance may be integrated, or when multidimensional evaluation is troublesome, an evaluation function that can be evaluated one-dimensionally may be created.
  • the evaluation function the following equation is used.
  • ⁇ max represents the maximum value of the standard deviation determined by the trial run in FIG. This formula is such that when the variance value is a good value, the evaluation is performed with the degree of coincidence, and when the coincidence degree is good, the evaluation is performed with the variance value.
  • the position / orientation estimation evaluation value is described by applying the particle filter as the position / orientation estimation method, but the Kalman filter is used as the estimation method and the estimation / error estimation covariance matrix is used as the position / orientation estimation evaluation value. May be used. Further, even in a state where there is no odometry, that is, a state where prediction is not possible at all, the moving amount u can be regarded as an error, and a particle filter and a Kalman filter can be applied.
  • a search region (x0 ⁇ Lx, y ⁇ Ly, ⁇ 0 ⁇ L ⁇ ) centered on the initial position and orientation (x0, y0, ⁇ 0) is provided, and the inside of the search region is (x0 ⁇ k1 ⁇ x, y0 ⁇ k2 ⁇ y, ⁇ 0).
  • k1, k2, and k3 are integers
  • the degree of coincidence is calculated on the lattice points expressed in a discrete manner
  • the position / orientation estimation evaluation value similar to that of the particle filter can be defined.
  • the principal component analysis in the image processing is performed in the search region using the degree of coincidence as a weight, and the principal component value may be used. This will be described in detail below.
  • FIG. 13 is a configuration diagram of a position and orientation estimation system in a state where there is no odometry. Unlike FIG. 1, the input of odometry is not input to the position and orientation processing unit. At this time, since it is impossible to predict the position and orientation of the robot after movement, the calculation cost increases, and it is necessary to use a high-performance CPU. However, it is possible to use wheels without an encoder, and there is an advantage that the position and orientation estimation system can be easily used. As an example of the position / orientation estimation method in this case, a method for calculating a position / orientation estimation evaluation value will be described using matching processing as an example.
  • the degree of coincidence is not calculated for a randomly selected position and orientation as in a particle filter, but a limited area centered on the initial position and orientation (x0, y0, ⁇ 0) is used as a lattice point.
  • This is a method of detecting the point with the highest degree of coincidence by calculating the degree of coincidence with respect to the position and orientation selected in a shape and setting it as the estimated position and orientation.
  • the initial position and orientation (x0, y0, ⁇ 0) the previous position and orientation estimation result is used.
  • Lx, Ly, and L ⁇ are positive real numbers, and are set to a size that considers the moving speed of the robot.
  • k1, k2, and k3 are integers
  • ⁇ x, ⁇ y, and ⁇ represent grid point widths.
  • the degree of coincidence at each point is represented by R (X, Y, ⁇ ), and the highest value (X, Y, ⁇ ) is taken as the position and orientation estimation result.
  • the above is the outline of the matching process.
  • Equation 4 The v 1 represents the direction in which the degree of coincidence is dispersed a 3-dimensional eigenvector (row vector). ⁇ 1 ⁇ ⁇ 2 ⁇ ⁇ 3 are eigenvalues, and each ⁇ 1 represents how much the degree of coincidence is dispersed in the direction of v 1 .
  • Such a method is also called principal component analysis, where ⁇ 1 is called a first principal component, ⁇ 2 is called a second principal component, and so on.
  • ⁇ 1 is called a first principal component
  • ⁇ 2 is called a second principal component, and so on.
  • the threshold for evaluation is determined in the same manner as for the particle filter.

Abstract

 自律移動ロボットにおいて、パーティクルフィルタを用いて位置姿勢推定を行い、その位置姿勢推定の状態を判定する量としてパーティクルの分散により位置姿勢推定表の値を求め、移動ロボットの減速、停止を行うことを目的とする。 自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、距離センサの計測データと地図データを照合することで前記ロボットの位置と姿勢を推定する位置姿勢推定部と、位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、この位置姿勢推定評価値を用いることで減速、停止や、環境変化が起こった部分の地図更新を行うことが可能となり、安全な自律移動が可能となる。

Description

移動ロボット、及び移動体に搭載される自己位置姿勢推定システム
 本発明は、自律移動ロボットに関し、特に、自己位置姿勢を推定する機能を有する移動ロボットに関する。
また、本発明は、移動体に搭載され、自己位置姿勢を推定する機能を有する自己位置姿勢推定システムに関する。
 所定の領域内で自律移動ロボットを物品の搬送などの作業を行う作業システムを組み込んだ自律移動ロボットシステムがある。
 このようなシステムにおいて、自律移動ロボットは、自律移動に不可欠な位置姿勢の推定が正常に行われているか否かの判定機能の実現が非常に重要になっている。位置姿勢推定が正常に動作していないと直ちにこれを検出し、動作モードを通常走行から速度制限や緊急停止などのモードに切り換え、トラブルに対処することができる。
 また、不安全状況を引き起こす危険を未然に防止し、危険な場所を回避しながら目的地に移動する自律移動ロボットに関することが特許文献1(特開2005-242409号公報)に開示されている。
 また、特許文献2(特開2011-43405号公報)には、自己位置推定を高精度に行うために、検出領域内の物体との距離情報を検出する距離センサを備え、距離センサにより検出された物体との距離情報に基づいて、自己位置を推定することが開示されている。また、特許文献3(特開2011-65308号公報)には、測定装置の測定データに基づいて自己位置を推定しながら自律移動する装置について開示されている。
特開2005-242409号公報 特開2011-43405号公報 特開2011-65308号公報
 特許文献1には、移動環境に設けられた標識、例えば、マークやパターン、超音波発生器、レーザ発光装置などを用い、検出手段として、それぞれの標識に対応したCCD又はCMOSセンサなどの画像センサ、超音波受信器、レーザ光受光素子があり、これらの検出結果により位置方向を示し、自己位置推定の誤りを検知でき、危険回避を行うことができると記載してある。しかし、この方式は、標識の設置や登録等の作業コストが大きくなるなどの課題がある。
 また、特許文献2は、位置姿勢推定評価値として、一致度を用いる手法が提案されているが、長い廊下など同じ風景が連続する場合に正しく評価することができない。さらに、特許文献3は、誤差分散地図を用いて、位置姿勢推定の信頼度を評価しながら運用する手法が提案されているが、ランドマークに対するセンサの特性が既知であることを前提としており、未知の環境で安全なシステムを構築することが難しい。
 本発明は、上記課題を解消するため、移動ロボットにおいて、パーティクルフィルタを用いて位置姿勢推定を行い、その位置姿勢推定の状態を判定する量としてパーティクルの分散により位置姿勢推定の閾値を求め、移動ロボットの減速、停止を行うことを目的とする。
また、本発明は、上記課題を解消するため、移動ロボットなどの移動体に搭載される自己位置姿勢推定システムにおいて、パーティクルフィルタを用いて位置姿勢推定を行い、その位置姿勢推定の状態を判定する量としてパーティクルの分散により位置姿勢推定の閾値を求め、位置姿勢推定が正常に動作していない場合に、位置姿勢推定が正常に動作していないことを示す情報、信号を出力可能とすることを目的とする。
 本発明は、上記課題を解決するため、自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、距離センサの計測データと地図データを照合することで前記ロボットの位置と姿勢を推定する位置姿勢推定部と、該位置姿勢推定部の結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする。
 また、自己の位置姿勢を推定するための距離センサと、車輪の回転数を計測するエンコーダを備える移動ロボットであって、該エンコーダの計測データから移動量を推定する移動量推定部と、距離センサの計測データと地図を照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、移動量推定結果と位置姿勢推定結果を融合する融合位置姿勢推定部を備え、位置姿勢融合結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする。
 また、自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部を備え、該評価値によって、減速、停止をすることを特徴とする。
 また、自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部を備え、地図作成後の走行時の位置姿勢推定評価値の平均値、最頻値、最悪値を減速、停止の閾値とすることを特徴とする。
 また、自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部を備え、地図作成後の走行時の位置姿勢推定評価値の最悪値を走行、停止の閾値とすることを特徴とする。
 また、自己の位置姿勢を推定するための距離センサを備えるロボットと外部と通信する手段を備える移動ロボットシステムであって、距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部と、位置姿勢結果と位置姿勢推定評価値を送信する通信部を備え、評価結果をリアルタイムに観測可能とすることを特徴とする。
 さらに、本発明は、上記課題を解決するため、移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする。
 また、移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、移動体の移動量を計測するエンコーダからの計測データによって移動量を推定する移動量推定部と、移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、移動量推定結果と位置姿勢推定結果を融合する融合位置姿勢推定部を備え、位置姿勢融合結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする。
 また、移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、評価値に対応する評価情報を前記移動体に出力することを特徴とする。
 また、移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、前記評価情報が前記移動体に出力された後に、前記移動体が走行中である場合に前記移動体が減速、停止させられることを特徴とする。
 また、移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、地図作成後の走行時の該位置姿勢推定評価値算出部から出力される評価情報であり、該評価情報は、前記位置姿勢推定評価値算出部で算出される評価値の平均値、最頻値、最悪値に対応する評価情報であることを特徴とする。
 また、移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、地図作成後の走行時の該位置姿勢推定評価値算出部から出力される評価情報であり、該評価情報は、前記位置姿勢推定評価値算出部で算出される評価値の最悪値に対応する評価情報であることを特徴とする。
 本発明によれば、移動ロボットの位置姿勢推定が正常に行われているか否かを判定し、正常でない場合はロボットを減速させたりあるいは緊急停止させたりできるため、衝突事故を未然に防ぐことができる。
また、本発明によれば、移動体の位置姿勢推定が正常に行なわれているか否かを判定し、正常でない場合は、正常に行なわれていないことを示す情報、または信号を移動体に出力することを可能とする。
本発明の自律移動ロボットのシステムブロック図を示す。 障害物のある地図と移動ロボットの経路及び計測状態を示す。 移動ロボットの走行時の計測状態を示す。 移動ロボットの走行時の計測状態を示す。 パーティクルフィルタを説明する図を示す。 移動ロボットの動作モード判定部の内容を説明する図を示す。 移動ロボットの動作モード判定部の内容を説明する図を示す。 障害物が動いた場合の移動ロボットの動作モード判定部の内容を説明する図を示す。 位置姿勢推定評価値に基づく減速又は停止の処理フローチャートを示す。 環境変化があった場合の地図変更を行うフローチャートを示す。 移動ロボットの走行経路を示す図である。 移動ロボットの試行時に位置姿勢推定評価値の閾値を決めるフローチャートを示す。 本発明の自律移動ロボットにおけるオドメトリなしの場合のシステムブロック図を示す。
 以下、本発明の実施の形態を図面を用いて説明する。
以下の明細書では、移動ロボット、及び移動体に搭載される自己位置姿勢推定システムについて説明している。ここで、前記「自己位置姿勢推定」を示す名称について、以下に確認的に説明をする。
 「自己位置姿勢推定」は、移動ロボットもしくは自己位置姿勢推定システムが搭載されている移動体の自己の位置(x、y)と姿勢θを推定することを意味し、位置のみ、姿勢のみしか推定を行わない場合も含む。
 学会等では、多くの場合、「姿勢」を省略し、単に「自己位置推定」と表記されており、この名称も、以下の明細書にて説明している「自己位置姿勢推定」と同義である。
 なお、英語での名称についても、以下に説明する。
英語の名称としては、”position and orientation estimation”と訳される。
”position”は位置(x、y)、”orientation”は姿勢θに相当する。
 学会等では、”orientation”を省略し、単に”position estimation”と表記されることがあり、”position and orientation estimation”と同義であり、以下の明細書にて説明されている。
 同様に”pose estimation”、”position and posture estimation”、”configuration estimation”、との名称としても同義であり、以下の明細書にて説明がされているものである。
なお、以下の実施の形態の説明では、移動体として、移動ロボットを例にして説明する。
また、移動体に搭載される自己位置姿勢推定システムは、前記移動ロボットに搭載されている位置姿勢推定部を含み構成されるシステムにて説明するものとする。
(実施例1)
 図1は、本発明の実施例の自律移動ロボットのシステムブロック図である。
図1において、1は自律移動ロボット、9は位置姿勢推定部、2は位置姿勢推定部の結果を評価するための位置姿勢推定評価値計算部、3は動作モードを判定する動作モード判定部、5は距離を計測するレーザ距離センサ、6は、障害物の特徴を記載した地図を記憶した地図記憶部、7は移動ロボットの位置姿勢を制御する位置姿勢制御部で、8a、8bは車輪の回転数を計測するエンコーダである。また、50は地図と地図上におけるロボットの位置姿勢とレーザ距離センサの計測データなどを表示する画像表示器である。
 自律移動ロボット1は、障害物との距離dを計測するためのレーザ距離センサ5と、地図記憶部6に記憶した障害物の特徴を記載した地図と、車輪の回転数を計算するエンコーダ8a、8bを備え、距離d22と地図6と回転数をもとにロボット1の位置姿勢を推定する位置姿勢推定部9と、位置姿勢推定結果を評価するための評価値計算部2と計算された評価値をもとに動作モードを判定する動作モード判定部3と動作モードと位置姿勢推定結果をもとに移動ロボット1の位置姿勢を制御する位置姿勢制御部7から構成される。
 ここで、基準となる座標系(世界座標系)に対する移動ロボット1の位置を(x,y)、x軸を基準とした移動ロボット1の姿勢をθとし、まとめて(x,y,θ)で表すことにする。
 次に、図3を用いて本実施例で使用されているレーザ距離センサ5について説明する。
図3において、1は移動ロボット、61は壁、14は障害物である作業台、22は移動ロボットのレーザ距離センサ5から障害物までの距離データ、23は移動後のロボットで、24はその移動量uを表している。
 移動ロボット1に搭載したレーザ距離センサ5は、±W(deg)の範囲を分解能Δθで、移動ロボット1の周囲にある物体との距離を計測する(例えばW=90、θ=0.5)。この計測データを距離データd22と呼ぶ。このデータは、移動ロボット1の周囲にある計測物の形状を計測していることになる。そして、この距離データd22と地図の情報を照合することで、移動ロボット1の位置姿勢を推定することができる。
 次に、図2乃至図5を用いて位置姿勢推定部9に実装されているパーティクルフィルタの説明を行う。
図2において、10は移動ロボットが走行する領域を表す地図で、11,12,13,14及び16は障害物を表している。17,18は、搬送用荷物の積み下ろし場所で、32,33は作業員を示している。
また、図2に示す地図で、積み下ろし場所17、18間の経路は、下側の通路と右側の通路の経路19、障害物11,13と障害物12,14の間の通路の経路20、及び左側の通路から上側の通路の通る経路21を示している。
 図4において、25は移動前の移動ロボットの位置を示している。27は移動量ue26だけ移動した状態を表している。
さらに図5において、28は移動ロボットが移動する前のパーティクルで、30は移動量ue29だけ移動し、この領域でのパーティクルを表し、31は分散したパーティクルの重み付けが大きいパーティクルを表したものである。
 パーティクルフィルタは、複数のセンサからの位置姿勢推定結果を確率的に融合し、推定誤差を軽減することが可能である。移動ロボット1の位置姿勢候補はパーティクルと呼ばれる複数の候補(xi,yi,θi);i=1,・・・,Mによって表現される。レーザ距離センサによる位置姿勢推定結果として複数の解を持つ場合にも有効な手段である。
 パーティクルフィルタは、予測ステップ、更新ステップの2ステップで実行される。予測ステップでは、エンコーダ8a,8bから算出されるオドメトリを用いて移動ロボット1の移動後の位置を推定する。更新ステップでは、レーザ距離センサと地図による位置推定結果に基づいて予測されたロボットの位置姿勢を更新する。
 以下、予測ステップと更新ステップについて詳しく述べる。
1)予測ステップ
 予測ステップについて図3乃至図5を用いて説明する。ここでは説明の簡単のためM=1とする。
 図3は移動ロボット1が初期位置姿勢(x0,y0,θ0)から移動量uだけ移動し、23の位置姿勢(x,y,θ)でレーザ距離センサ5によって計測物61、62との距離を計測した状態を表している。ここで、移動ロボット1の初めの位置姿勢(x0,y0,θ0)は既知であるとする。図4は初期位置姿勢(x0,y0,θ0)25からエンコーダ8a,8bの値を用いて移動量ue=(ue_x,ue_y,ue_θ)26を計算し、この値から移動後の位置姿勢を予測した状態を表す。このとき移動後の位置姿勢(x,y,θ)に対して予測値27は(x0+ue_x,y0+ue_y,θ0+ue_θ)となる。この移動量(ue_x,ue_y,ue_θ)の値には車輪のスリップ等誤差が含まれているため、予測ステップではエンコーダ8a,8bの誤差分布に従う位置姿勢候補を用いて予測値を複数個生成する。この複数個の位置姿勢候補を、予測パーティクル(xp,yp,θp);p=1,・・・,Nで表し、擬似乱数などを利用して作成する。
図5は初期パーティクル28(M=5)から移動量ueに基づいて生成された予測パーティクル30(xp,yp,θp);p=1,・・・,MNを示している。予測パーティクル30はエンコーダ8a、8bの誤差の分だけ初期パーティクル28より広い面積に分布していることが分かる。
2)更新ステップ
 次に、更新ステップについて図3乃至図5で説明する。
更新ステップでは、まず予測パーティクル(xp,yp,θp);p=1,・・・,Nに対して、距離データd22と地図10、14との一致具合を計算する。具体的には、位置姿勢(xp,yp,θp)で距離データd22を計測したと仮定し、地図10、14と距離データd22の重なっている点数を計算する。この値を一致度Rと呼ぶ。一致度Rは、真の位置姿勢(x,y,θ)と予測パーティクル(xp,yp,θp)が近い距離にあれば高い値となり、大幅にずれていると低い値となる。図4はパーティクル27に対して、図3のレーザ距離センサ5による距離データd22を当てはめ、一致度を計算した例である。移動量ue26に誤差が含まれるため、そのままあてはめると地図10、14とずれていることがわかる。
 次に、すべての予測パーティクル(xp,yp,θp);p=1,・・・,Nに対してこの一致度Rを計算することで、もっとも一致の高い位置姿勢(xe,ye,θe)を見つける。この位置姿勢(xe,ye,θe)がレーザ距離センサ5で観測した位置姿勢(x,y,θ)に近いであろうから、この点をロボットの位置姿勢推定結果とし、次のステップの(x0,y0,θ0)とする。
 図5に示すように、初期位置が正確にわからない場合は、ロボットの位置姿勢は複数のパーティクルによって表現される。このときはM点の初期パーティクル(x0i,y0i,θ0i)それぞれに対して、予測ステップを適用し、生成された予測パーティクル(xp,yp,θp);p=1,・・・,MN、に対して一致度を計算する。そのなかで一致度がもっとも高いものをロボットの推定位置姿勢として採用する。その後、一致度に従ってMN点の中からM点を選定することで、初期パーティクル(x0i,y0i,θ0i)を更新する。
 以上がパーティクルフィルタのアルゴリズムである。上記更新ステップでは(xp,yp,θp)に対して計算された一致度のもっとも高いものを推定結果として採用した。しかしながら、ここで注意しなければならないのは、最大値となる一致度を持つパーティクルが2点存在する場合があることである。この状況において、一致度最大である2点間の距離が近い場合はどちらを選んでも本質的な問題とはならないが、問題となるのは2点間の距離が離れている場合である。この場合、どちらのパーティクルを選ぶべきか、一致度で区別することができない。また、2点ではなく複数点でも一致度が同じ値で最大値となってしまう場合がある。このような状況では、推定結果のばらつきが大きくなるため、移動ロボットがこの値をそのまま制御に用いるのは性能面、安全面において好ましくない。よって、推定結果の信頼性の評価を行うため、位置姿勢推定評価値Eを定義する必要がある。この値Eを用いれば、移動ロボット1が位置姿勢推定値を取捨選択する、もしくは、減速・停止することが可能であり、移動ロボット1はより安全な自律移動を行うことができる。
 ここで、複数個のパーティクルの一致度が最大となり、この最大一致度であるパーティクル間の距離が広くなると状態は、パーティクル31の分散値が大きい状態であると考えられるため、本実施例では、このような位置姿勢推定評価値Eとしてパーティクルの平均値周りの分散σを適用する。
分散が大きくなってしまう例としては、移動ロボット1周辺に環境変化(地図に記載された計測物の移動、作業員等)がある場合に距離データd22と地図10,14が一致せず、パーティクルが広範囲に分布することがある。また、距離データd22と地図10,14が良く一致する場合でも、長い廊下などでは廊下の長手方向にパーティクルが広範囲に分布してしまう。このような状況において、パーティクルの分散を用いることで位置姿勢推定結果の信頼性を評価することが可能となる。
 位置姿勢推定評価値計算部2では、パーティクルの分散を計算するが、本実施例では次のような評価式を用いる。
  E×E=σx×σx+σy×σy+α×σθ×σθ     (数1)
 x,y,θの標準偏差σx,σy,σθに対して、それぞれの和をとったものである。αは正規化定数であり、位置の分散と姿勢の分散の平均値をそろえる値に設定する。
このように、Eの値として分散の和をとれば1次元化することができ、評価が簡単になる効果がある。この他に共分散行列の固有値や、x、y、θの分散を個別に評価する方法があり、評価方法が複雑化するがより細やかな評価が可能となる。
 次に、動作モード判定部3について、図6、図7、図8を用いて詳しく説明する。
図6は、移動ロボットの前に作業員32,33が重なった状態で立っている場合のパーティクル31を示している。また、図7は、移動ロボットの前に作業員32,33が並んだ状態で立っている場合のパーティクル31を示している。
図8は、障害者が地震や人がぶつかって動いた場合を示している。図8(a)は移動ロボットの距離を計測している状態を示し、図8(b)はその時のパーティクル31を示す。
 図8は、最大一致度が複数点表れる状態を示している。図8(a)では地図作成後に、作業員32,33の接触等により作業台14が意図せずに移動してしまった状況で移動ロボット1がレーザ距離センサによる計測を行った状況を示している。地図は移動前の作業台62の配置が記載されているため、距離データd22と地図10、14が完全に一致する位置姿勢(x,y,θ)は存在しない。この状態でパーティクルフィルタによって位置姿勢推定を行った結果を図8(b)に示す。一致度が高い場所としては本来の位置と、この位置とは別に移動ロボット進行方向に対して左側にもできている。これは作業台14が移動してしまったために、通路幅が狭くなり、通路の両側の壁に対して距離データd22が一致するものが出現してしまうためである。この状況では大きく分けて、40、41が一致しているものと、40,42が一致しているものの2パターンが更新ステップ後にも残り、パーティクルが広く分布するため、位置姿勢推定評価値Eの値が増加し、位置姿勢推定状態として不安定になりつつあるということを評価することが可能となる。
 図6、7は、移動中の移動ロボット1の前方に現場の作業員32、33が存在する場合を表している。図6は作業員32、33によって移動ロボット1前方の距離データが半分ほど隠されている。このとき、図5の状態に比べて前後方向の計測点数が減少したことにより、移動ロボット1の前後方向に対して相対的に一致度の高いパーティクルが増加する。よって、更新ステップによって選ばれるパーティクルが移動ロボット1の前後方向に通常より広く分布するため位置姿勢推定評価値Eの値は大きくなるため、移動ロボット1は減速の制御を行い、より安全な移動が可能となる。
 図7は、移動ロボット1の前方を作業員32、33が完全に隠しており、移動ロボット1の前後方向の座標を推定することがほぼできない状態にある。このとき位置姿勢推定評価値Eの値は図6の状態からさらに悪化するため、この値に基づいて動作モード判定部は移動ロボット1を安全に停止させる。
 移動ロボット1を安全に停止させる方法として、レーザ距離センサの計測範囲の中で、ロボットの進行方法にロボットの移動速度に比例する大きさの物体検出エリアを設け、そのエリアに計測物が検出された場合に危険とみなして停止するものがある。しかしながら、この手法を用いるとロボット旋回時に不要に壁を検出し、ノイズを検出してしまうなどの問題があり、作業効率を下げる原因となってしまう。本発明は位置推定結果の信頼性に基づいた、本質的に必要な停止処理であり、ノイズを検出して不要に停止するといったことは起こらないことが本発明の特徴である。
 また、移動ロボット1は一旦停止閾値を越えてしまったため、その原因が作業員の遮りであるか、環境変化であるかなどを特定するまで復帰することはできない。このときには、作業員が移動ロボット1の状態を確認、操作することを想定し、自動的に手動モードに切り替わることも特徴である。
 図9は、位置姿勢推定評価値Eに基づいて、移動ロボット1の減速・停止を行う処理のフローチャートである。
先ず、移動ロボット1は、荷物の積み下ろし場所17または18に荷積みを行い、目的地に向かって自律移動をする(ステップ201)。そして、移動している間、移動ロボット1は、センシングを行い、位置姿勢推定を行う(ステップ202)。次に、位置姿勢推定結果に対して、位置姿勢推定評価値Eの計算処理を実施する(ステップ203)。
移動ロボット1は、位置姿勢推定結果から目的地に到達したかを判定する(ステップ204)。到達していれば動作を終了し、到達していなければ位置姿勢推定評価値Eに基づき、動作モードの変更を行い、位置姿勢推定評価値Eと閾値E1との比較を行う(ステップ205)。ここで、位置姿勢推定評価値Eが閾値E1より大きければ、移動ロボット1は通常走行モードから減速モードに移行する(ステップ206)。
評価値Eが閾値E1より小さければ、自律移動のステップ201へ戻る。
減速モード(ステップ206)になると、次に位置姿勢推定評価値Eと閾値E2とを比較し、評価値Eが大きければ、すなわち停止の閾値を超えてしまった場合、自律移動は事実上不可能の状態であるため、手動モードへ移行する(ステップ208)。
 評価値Eが閾値E2より小さければ、動作モードは減速モードの状態で、自律移動を継続する(ステップ201に戻る)。
手動モードに切り替わったら(ステップ208)、切り替わったことを作業者に通知し(ステップ209)、移動ロボット1は停止する。
本実施例では、減速の閾値は1段階のみ設けているが、多段階に閾値を設けて減速することも可能である。
 図10は、停止閾値を越えてしまった場合の移動ロボット1の復帰手順を示すフローチャートを示す。
 まず移動ロボット1は位置姿勢推定を行っている(ステップ301)。次にステップ301の位置姿勢推定結果に対する評価値を計算する(ステップ302)。次に移動ロボット1は現在停止中であることを作業員/管理者に通知を行う(ステップ303)。通知を受けた作業員は移動ロボット1に取り付けられた画像表示器50を確認し、位置姿勢推定評価値Eが停止閾値E2より小であることと、距離データdと地図10、14が良く一致していることを確認する(ステップ304)。このとき、画像表示器には地図6と移動ロボット1の位置と、距離データdと評価値E、一致度Rなどが表示されている。距離データは地図と重なっている点と重なっていない点で色分けされており、環境変化がある点について一目瞭然な状態となっていることが特徴である。
 ステップ304で作業員が現状を確認後、閾値を超えた原因が作業員である場合に、手動モードを解除し、移動ロボット1を作業に復帰させる(ステップ308)。距離データdと地図10、14が一致しておらず、その原因が作業台など、計測物の移動であると認められた場合、作業者/管理者は移動ロボット1が停止した周辺の地図を更新する(ステップ306)。地図の更新には、手動モードに切り替えられた移動ロボット1を操作し、距離データdを収集しても良いし、地図作成専用の器具を用いても良い。また、このとき地図の更新は移動ロボット1の表示で確認しながらロボット上で行っても良いし、距離データdのみを持ち帰り、別のPCで地図作成を行うことも可能である。その後、移動ロボット1は更新された地図を読み込み、作業に復帰する。
 図11は、ロボット1の作業現場環境を示している。作業現場には荷の積み下ろし場所17、18が存在し、それを結ぶ移動経路19、20、21が設定されている。ロボット1がこの環境において自律移動を行うためには、まず現場の地図を作成する必要がある。次に地図作成が正しく行われているかの確認のため、ロボット1は現場で試走を行う。
この試走における計測データに基づいて閾値Eを設定する。閾値の値はセンサの特性から決定されるべきものであるが、センサの特性は計測物の材質や色に依存するため、すべての組み合わせを把握することは難しい。よって、実際に計測を行うことで、現場に適した閾値を設定することができるため、より安全な自律移動が可能となる。
 図12は、この閾値決めの処理のフローチャートを示す。
先ず、移動ロボット1は環境地図の作成を行う(ステップ101)。次に、移動ロボット1は、ステップ101で作成された地図を用いて、ロボットが実際に運用される経路にそって自律移動を行う(ステップ102)。このとき移動ロボット1は実際に位置姿勢推定を行い、この結果を地図記憶部6に保存しながら移動を行う。このとき、移動ロボット1が問題なく移動経路を走破した場合、記憶部6に保存された位置姿勢推定評価値を用いて、閾値決めのためのデータ処理を行う(ステップ103)。閾値が決まったら実際の走行で運用する(ステップ104)。
 具体的には、移動ロボット1が問題なく試走を終えた場合において、走行中に計算された位置姿勢推定評価値Eの最大値EmaxなどEの統計量を利用して閾値の設定を行う。減速の閾値として2Emax>E1>Emaxの値を利用し、停止の閾値としてはE2=2Emaxを用いる。閾値としてこのような値を用いるのは、Emaxまでの値は地図作成直後の試走で発生した値であり、この範囲であれば通常走行可能であることが保証されているためである。ここまでが移動ロボット1の実運用における準備段階である。
 本実施例において、パーティクルフィルタの推定結果を一致度最大のパーティクルとしたが、パーティクルの平均値をもって位置姿勢推定結果としても良い。
本実施例において、位置姿勢推定評価値として、パーティクルの分散を用いたが、パーティクルの広がりを表す統計量、たとえば、パーティクルすべてを含む長方形、楕円の面積などそのまま本発明に適用することが可能である。
 また、評価値として一致度Rを用いることもできる。一致度は環境変化の程度をそのまま表すものであり、移動ロボット1の周囲環境の情報を与える重要な値である。
ただし、本実施例で述べたとおり一致度のみでは位置推定結果の信頼性を評価することができないため、分散を含めた形で評価を行う。評価方法としては、一致度Rと分散を個別に評価した結果を統合しても良いし、多次元評価がわずらわしい場合には、一次元的に評価できる評価関数を作成しても良い。具体的な評価関数の例としては次式のようなものを用いる。
   E=R/(1+σ/2σmax)          (数2)
 この式において、σmaxは図11の試走行で決定される標準偏差の最大値を表す。この式は分散値が良い値であるときは、一致度で評価を行い、一致度が良いときは分散値で評価を行うといった形となっている。標準偏差σは0の時が最良であるが、このときはE=Rとなる。このときE=0.5は計測物50%であることを表す。また、Rは1が最良であり、このとき、評価値はE=1/(1+σ/2σmax)となり、σ=2σmaxのとき、E=0.5となる。よって、停止閾値を0.5とすれば一致度を含めた、より良い評価が可能となる。
 本実施例において、位置姿勢推定方法としてパーティクルフィルタを適用して位置姿勢推定評価値の説明を行ったが、推定方法としてカルマンフィルタを利用し、位置姿勢推定評価値としては、推定誤差の共分散行列を用いてもよい。また、オドメトリがない状態、つまり、予測が全くできない状態でも、移動量uをも誤差とみなし、パーティクルフィルタ、カルマンフィルタを適用することもできる。
 さらにまた、初期位置姿勢(x0,y0,θ0)を中心とした探索領域(x0±Lx,y±Ly,θ0±Lθ)を設け、その探索領域内を(x0±k1Δx、y0±k2Δy、θ0±k3Δθ);(ただし、k1,k2,k3は整数。)とし、とびとびに表現される格子点上で一致度を計算すれば、パーティクルフィルタと同様の位置姿勢推定評価値を定義することができる。具体的には、一致度を重みとして探索領域内で画像処理における主成分分析を行い、その主成分値を用いればよい。以下これを詳しく述べる。
 図13はオドメトリがない状態の位置姿勢推定システムの構成図である。図1と異なりオドメトリの入力が位置姿勢処理部に入力されていない。このとき、移動後のロボット位置姿勢予測ができないために計算コストが増加するため、高性能のCPUを利用する必要がある。
 しかしながら、エンコーダなしの車輪を用いることが可能となり、位置姿勢推定システムを手軽に活用できるメリットもある。
 この場合における位置姿勢推定方式としてマッチング処理を例として、位置姿勢推定評価値の算出方法について述べる。
 マッチング処理においては、パーティクルフィルタのようにランダムに選んだ位置姿勢に対して一致度を計算するのではなく、初期位置姿勢(x0,y0,θ0)を中心とした限られた領域を、格子点状に選んだ位置姿勢に対して一致度を計算することで最も一致度の高い点を検出し、推定位置姿勢とする方式である。初期位置姿勢(x0,y0,θ0)としては前回の位置姿勢推定結果を用いる。
 具体的な処理方法としては以下のように行う。
 まず、初期位置姿勢(x0,y0,θ0)を中心とした探索領域(x0±Lx,y±Ly, θ0±Lθ)を設け、その領域内のとびとびの点(X,Y,Θ)=(x0±k1Δx, y0±k2Δy, θ0±k3Δθ)で表現される格子点上で一致度を計算する。
 ここで、Lx、Ly、Lθは正の実数であり、ロボットの移動速度を考慮した大きさに設定する。前記のとおり、k1,k2,k3は整数であり、Δx、Δy、Δθは格子点の幅を表す。このとき、この各点における一致度をR(X,Y,Θ)で表し、この値が最も高い(X,Y,Θ)を位置姿勢推定結果とする。以上がマッチング処理の概略である。
 次に位置姿勢評価値の計算方法について述べる。図7の状態でマッチング処理を行った場合、ロボット前方の作業員がレーザ光を遮っている。このため、ロボット両側にある壁としか一致せず、R(X,Y,Θ)のなかで壁に沿った位置姿勢に対する一致度が相対的に高くなる。
 逆に、R(X,Y,Θ)の計算結果として、一致度の高い値が広く分布する方向には推定結果が不定となることを表しているため、このR(X,Y,Θ)における一致度の分散度を計算することでパーティクルフィルタと同様の位置姿勢評価値を定義することができる。この一致度が強く分散する方向を検出するために、まずRの共分散行列B(3×3行列)を計算する。
B=ΣR(X,Y,Θ)(X-μ,Y-μ,Θ-μθ)(X-μ,Y-μ,Θ-μθ)          (数3)
(上付きのTはベクトルの転置を表す。μ、μy、μθはX,Y,ΘのR (X,Y,Θ)で重み付けした平均値を表す。Σは探索領域内の格子点(X,Y,Θ)に対する総和を表す。)
 次に、Bを固有値分解すれば、次式のように表現される。
      B = λ  + λ  + λ 3        (数4)
 このvは3次元の固有ベクトル(行ベクトル)であり一致度が分散する方向を表す。λ1≧λ≧λ3は固有値であり、それぞれλ1はvの方向に一致度がどの程度分散しているのを表している。このような手法は主成分分析とも呼ばれ、λ1は第一主成分、λ2は第二主成分などと呼ばれる。
 この主成分値λを用いることによって、パーティクルフィルタと同様に、位置姿勢推定ができない状態を検出することが可能となる。
評価を行う際の閾値はパーティクルフィルタと同様に決定する。
1‥自律移動ロボット
2‥位置姿勢推定評価値計算部  3‥動作モード判定部
5‥レーザ距離センサ   6‥地図記憶部      7‥位置姿勢制御部
8a、8b‥エンコーダ  9‥位置姿勢推定部   10‥地図
14‥作業台      19,20,21‥移動経路
22‥距離データd    24‥移動量u
31‥パーティクル    32、33‥作業員
50‥画像表示器

Claims (12)

  1.  自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、
     距離センサの計測データと地図データを照合することで前記ロボットの位置と姿勢を推定する位置姿勢推定部と、
     該位置姿勢推定部の結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする移動ロボット。
  2.  自己の位置姿勢を推定するための距離センサと、
     車輪の回転数を計測するエンコーダを備える移動ロボットであって、
     該エンコーダの計測データから移動量を推定する移動量推定部と、
     距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、
     移動量推定結果と位置姿勢推定結果を融合する融合位置姿勢推定部を備え、
     位置姿勢融合結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする移動ロボット。
  3.  自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、
     距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部を備え、
     該評価値によって、減速、停止をすることを特徴とする移動ロボット。
  4.  自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、
     距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部を備え、
     地図作成後の走行時の位置姿勢推定評価値の平均値、最頻値、最悪値を減速、停止の閾値とすることを特徴とする移動ロボット。
  5.  自己の位置姿勢を推定するための距離センサを備える移動ロボットであって、
     距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部を備え、
     地図作成後の走行時の位置姿勢推定評価値の最悪値を走行、停止の閾値とすることを特徴とする移動ロボット。
  6.  自己の位置姿勢を推定するための距離センサを備えるロボットと、外部と通信する手段を備える移動ロボットシステムであって、
     距離センサの計測データと地図データを照合することで前記移動ロボットの位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢結果の信頼度を算出する位置姿勢推定評価値算出部と、
     位置姿勢結果と位置姿勢推定評価値を送信する通信部を備え、
     評価結果をリアルタイムに観測可能とすることを特徴とする移動ロボットシステム。
  7.  移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、
     移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする自己位置姿勢推定システム。
  8.  移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、
     移動体の移動量を計測するエンコーダからの計測データによって移動量を推定する移動量推定部と、
     移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、
     移動量推定結果と位置姿勢推定結果を融合する融合位置姿勢推定部を備え、
     位置姿勢融合結果の信頼度を算出する位置姿勢推定評価値算出部を備えたことを特徴とする自己位置姿勢推定システム。
  9.  移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、
     移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、
     評価値に対応する評価情報を前記移動体に出力することを特徴とする自己位置姿勢推定システム。
  10.  請求項9記載の自己位置姿勢推定システムであって、
     前記評価情報が前記移動体に出力された後に、前記移動体が走行中である場合に、前記移動体が減速、停止させられることを特徴とする自己位置姿勢推定システム。
  11.  移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、
     移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、
     地図作成後の走行時の該位置姿勢推定評価値算出部から出力される評価情報であり、
     該評価情報は、前記位置姿勢推定評価値算出部で算出される評価値の平均値、最頻値、最悪値に対応する評価情報であることを特徴とする自己位置姿勢推定システム。
  12.  移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、
     移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、
     位置姿勢推定結果の信頼度を算出する位置姿勢推定評価値算出部を備え、
     地図作成後の走行時の該位置姿勢推定評価値算出部から出力される評価情報であり、
     該評価情報は、前記位置姿勢推定評価値算出部で算出される評価値の最悪値に対応する評価情報であることを特徴とする自己位置姿勢推定システム。
PCT/JP2012/065626 2011-06-29 2012-06-19 移動ロボット、及び移動体に搭載される自己位置姿勢推定システム WO2013002067A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013522770A JP5909486B2 (ja) 2011-06-29 2012-06-19 自己位置姿勢推定システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-143921 2011-06-29
JP2011143921 2011-06-29

Publications (1)

Publication Number Publication Date
WO2013002067A1 true WO2013002067A1 (ja) 2013-01-03

Family

ID=47423965

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/065626 WO2013002067A1 (ja) 2011-06-29 2012-06-19 移動ロボット、及び移動体に搭載される自己位置姿勢推定システム

Country Status (2)

Country Link
JP (1) JP5909486B2 (ja)
WO (1) WO2013002067A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137226A (ja) * 2013-01-15 2014-07-28 Advanced Telecommunication Research Institute International 移動体、音響源マップ作成システムおよび音響源マップ作成方法
JP2014211862A (ja) * 2013-04-02 2014-11-13 パナソニック株式会社 自律移動装置及び自律移動装置の自己位置推定方法
WO2015015939A1 (ja) * 2013-08-01 2015-02-05 日産自動車株式会社 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
JP2015036840A (ja) * 2013-08-12 2015-02-23 ヤマハ発動機株式会社 自律走行車両、自律走行車両の制御システム及び自律走行車両の制御方法
CN104898658A (zh) * 2014-03-06 2015-09-09 丰田自动车株式会社 自主移动机器人及其控制方法
US9150119B2 (en) 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
JP2016024766A (ja) * 2014-07-24 2016-02-08 日本精工株式会社 案内用ロボット
US9511945B2 (en) 2012-10-12 2016-12-06 Aesynt Incorporated Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
JP2017045447A (ja) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
WO2017038012A1 (ja) * 2015-08-28 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JPWO2015141445A1 (ja) * 2014-03-19 2017-05-25 株式会社日立産機システム 移動体
JP2017130006A (ja) * 2016-01-20 2017-07-27 株式会社豊田自動織機 自律移動体制御装置
CN107589749A (zh) * 2017-09-19 2018-01-16 浙江大学 水下机器人自主定位与节点地图构建方法
CN107741745A (zh) * 2017-09-19 2018-02-27 浙江大学 一种实现移动机器人自主定位与地图构建的方法
WO2019202806A1 (ja) * 2018-04-20 2019-10-24 本田技研工業株式会社 自己位置推定方法
CN112824994A (zh) * 2019-11-15 2021-05-21 株式会社东芝 位置推定装置、位置推定方法及程序
CN114326740A (zh) * 2021-12-30 2022-04-12 杭州海康机器人技术有限公司 协同搬运处理方法、装置、电子设备及系统
EP4043989A1 (en) * 2021-02-16 2022-08-17 Mitsubishi Logisnext Co., Ltd. Control method for mobile object, mobile object, and computer readable storage medium
WO2023037539A1 (ja) * 2021-09-13 2023-03-16 日本電気株式会社 制御システム、情報処理装置、制御方法、及び制御値生成方法
JP7458003B2 (ja) 2020-08-25 2024-03-29 パナソニックIpマネジメント株式会社 自己位置推定精度評価方法および自己位置推定精度評価装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201826993A (zh) * 2016-12-09 2018-08-01 美商泰華施股份有限公司 具有基於環境之操作速度變化的機器人清潔裝置
JP7459733B2 (ja) 2020-09-08 2024-04-02 株式会社豊田自動織機 自己位置推定装置
KR20240027473A (ko) * 2022-08-23 2024-03-04 삼성전자주식회사 신뢰도 값을 이용하여 이동 경로를 식별하는 로봇 장치 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217333A (ja) * 2008-03-07 2009-09-24 Toyota Motor Corp 移動ロボット及びその動作制御方法
JP2010176283A (ja) * 2009-01-28 2010-08-12 Panasonic Electric Works Co Ltd 自律移動装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217333A (ja) * 2008-03-07 2009-09-24 Toyota Motor Corp 移動ロボット及びその動作制御方法
JP2010176283A (ja) * 2009-01-28 2010-08-12 Panasonic Electric Works Co Ltd 自律移動装置

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10029856B2 (en) 2012-10-12 2018-07-24 Aesynt Incorporated Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
US11694782B2 (en) 2012-10-12 2023-07-04 Omnicell, Inc. Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
US10518981B2 (en) 2012-10-12 2019-12-31 Aesynt Incorporated Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
US10850926B2 (en) 2012-10-12 2020-12-01 Omnicell, Inc. Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
US9511945B2 (en) 2012-10-12 2016-12-06 Aesynt Incorporated Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
US10315851B2 (en) 2012-10-12 2019-06-11 Aesynt Incorporated Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility
JP2014137226A (ja) * 2013-01-15 2014-07-28 Advanced Telecommunication Research Institute International 移動体、音響源マップ作成システムおよび音響源マップ作成方法
US9150119B2 (en) 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
JP2014211862A (ja) * 2013-04-02 2014-11-13 パナソニック株式会社 自律移動装置及び自律移動装置の自己位置推定方法
US10363940B2 (en) 2013-08-01 2019-07-30 Nissan Motor Co., Ltd. Vehicle position attitude-angle estimation device and vehicle position attitude-angle estimation method
WO2015015939A1 (ja) * 2013-08-01 2015-02-05 日産自動車株式会社 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
JP2015036840A (ja) * 2013-08-12 2015-02-23 ヤマハ発動機株式会社 自律走行車両、自律走行車両の制御システム及び自律走行車両の制御方法
JP2015170127A (ja) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
CN104898658A (zh) * 2014-03-06 2015-09-09 丰田自动车株式会社 自主移动机器人及其控制方法
JPWO2015141445A1 (ja) * 2014-03-19 2017-05-25 株式会社日立産機システム 移動体
JP2016024766A (ja) * 2014-07-24 2016-02-08 日本精工株式会社 案内用ロボット
JP2017045447A (ja) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
WO2017038012A1 (ja) * 2015-08-28 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
CN106796434A (zh) * 2015-08-28 2017-05-31 松下电器(美国)知识产权公司 地图生成方法、自身位置推定方法、机器人系统和机器人
CN106796434B (zh) * 2015-08-28 2020-12-25 松下电器(美国)知识产权公司 地图生成方法、自身位置推定方法、机器人系统和机器人
JP2017130006A (ja) * 2016-01-20 2017-07-27 株式会社豊田自動織機 自律移動体制御装置
CN107741745A (zh) * 2017-09-19 2018-02-27 浙江大学 一种实现移动机器人自主定位与地图构建的方法
CN107589749A (zh) * 2017-09-19 2018-01-16 浙江大学 水下机器人自主定位与节点地图构建方法
JP7034264B2 (ja) 2018-04-20 2022-03-11 本田技研工業株式会社 自己位置推定方法
JPWO2019202806A1 (ja) * 2018-04-20 2021-02-12 本田技研工業株式会社 自己位置推定方法
WO2019202806A1 (ja) * 2018-04-20 2019-10-24 本田技研工業株式会社 自己位置推定方法
US11874666B2 (en) 2018-04-20 2024-01-16 Honda Motor Co., Ltd. Self-location estimation method
CN112824994A (zh) * 2019-11-15 2021-05-21 株式会社东芝 位置推定装置、位置推定方法及程序
JP7458003B2 (ja) 2020-08-25 2024-03-29 パナソニックIpマネジメント株式会社 自己位置推定精度評価方法および自己位置推定精度評価装置
EP4043989A1 (en) * 2021-02-16 2022-08-17 Mitsubishi Logisnext Co., Ltd. Control method for mobile object, mobile object, and computer readable storage medium
WO2023037539A1 (ja) * 2021-09-13 2023-03-16 日本電気株式会社 制御システム、情報処理装置、制御方法、及び制御値生成方法
CN114326740A (zh) * 2021-12-30 2022-04-12 杭州海康机器人技术有限公司 协同搬运处理方法、装置、电子设备及系统
CN114326740B (zh) * 2021-12-30 2023-06-27 杭州海康机器人股份有限公司 协同搬运处理方法、装置、电子设备及系统

Also Published As

Publication number Publication date
JPWO2013002067A1 (ja) 2015-02-23
JP5909486B2 (ja) 2016-04-26

Similar Documents

Publication Publication Date Title
JP5909486B2 (ja) 自己位置姿勢推定システム
EP3168705B1 (en) Domestic robotic system
US9229450B2 (en) Autonomous movement system
JP4852753B2 (ja) 学習機能をもつ自律移動ロボット
KR101503418B1 (ko) 반자동 주차 기계
KR100811886B1 (ko) 장애물 회피 진행이 가능한 자율이동로봇 및 그 방법
US20060276958A1 (en) Inertial navigational guidance system for a driverless vehicle utilizing laser obstacle sensors
WO2013027803A1 (ja) 車両用自律走行制御システム
JP2014194729A (ja) 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
WO2018110568A1 (ja) 障害物の回避動作を行う移動体およびそのコンピュータプログラム
JP5247494B2 (ja) 自律移動装置
CN104554272A (zh) 存在目标车辆和周围物体时的避让转向操作的路径规划
JPWO2019026761A1 (ja) 移動体およびコンピュータプログラム
US20200363212A1 (en) Mobile body, location estimation device, and computer program
WO2019187816A1 (ja) 移動体および移動体システム
JP2019148870A (ja) 移動体管理システム
Park et al. An intelligent localization algorithm using read time of RFID system
WO2019054209A1 (ja) 地図作成システムおよび地図作成装置
JP2019053391A (ja) 移動体
CN111065981A (zh) 移动体和移动体系统
JP2021163455A (ja) 位置推定システム
JP6187499B2 (ja) 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
WO2019194079A1 (ja) 位置推定システム、当該位置推定システムを備える移動体、およびコンピュータプログラム
JP2019175137A (ja) 移動体および移動体システム
KR102564663B1 (ko) 무인 반송 차량의 위치 인식 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12804968

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2013522770

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 12804968

Country of ref document: EP

Kind code of ref document: A1