WO2013161033A1 - 自律移動装置、自律移動システムおよび自律移動方法 - Google Patents
自律移動装置、自律移動システムおよび自律移動方法 Download PDFInfo
- Publication number
- WO2013161033A1 WO2013161033A1 PCT/JP2012/061211 JP2012061211W WO2013161033A1 WO 2013161033 A1 WO2013161033 A1 WO 2013161033A1 JP 2012061211 W JP2012061211 W JP 2012061211W WO 2013161033 A1 WO2013161033 A1 WO 2013161033A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- obstacle
- moving
- autonomous mobile
- autonomous
- mobile device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 40
- 230000010365 information processing Effects 0.000 claims 2
- 239000000725 suspension Substances 0.000 description 41
- 238000004458 analytical method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241001166076 Diapheromera femorata Species 0.000 description 1
- 208000034819 Mobility Limitation Diseases 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
- Y10S901/40—Vacuum or mangetic
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
Definitions
- the present invention relates to an autonomous mobile device with an obstacle avoidance capability, an autonomous mobile system, and an autonomous mobile method.
- Patent Document 1 is disclosed as a technology related to an autonomous mobile device having an obstacle avoidance capability.
- the technology described in Patent Document 1 sets an area where the autonomous mobile device can not intrude (an invading area) into the movable range of the obstacle. Then, the autonomous mobile device moves so as to avoid the invading area.
- Patent Document 2 is disclosed.
- the autonomous mobile device when the autonomous mobile device detects an obstacle, it determines by an infrared sensor whether the obstacle is a person or not. Then, when the obstacle is a person, the autonomous mobile device stops and stands by for a predetermined time. In addition, the autonomous mobile device moves to the avoidance operation when an obstacle still exists after a predetermined time has elapsed, and resumes traveling when no obstacle exists.
- the autonomous mobile device is moving on the same course, facing a mobile obstacle such as a person moving autonomously.
- a mobile obstacle such as a person moving autonomously.
- matchmaking When the autonomous mobile device takes an evasive action to prevent a collision with the mobile obstacle, the two avoid the other in the same direction, and again stop facing each other in a mutually corresponding state (hereinafter, It may be called matchmaking).
- matchmaking often occurs in crowded situations such as hospitals and stations. Therefore, in such a place, there is a problem that the arrival at the destination takes a long time since the danger of collision increases and the movement of the autonomous mobile device is significantly impeded. Therefore, there is a new problem of wanting to move efficiently by suppressing such a match.
- Patent Document 1 there is a technique described in Patent Document 1 in which all movable areas of a moving obstacle are set as non-invasive areas that can not be invaded by an autonomous mobile device.
- the inaccessible area is set widely without predicting the evasive action of the other party, so in an crowded environment or a canyon, the destination of the autonomous mobile device is blocked in the inaccessible area, making it difficult to pass. That is, according to the technology of Patent Document 1, in a crowded environment, the passage is covered in the inaccessible region around the moving obstacle, and the autonomous moving device can not move.
- the present invention has been made in view of such a background, and an object of the present invention is to reduce the number of matches.
- the present invention determines whether or not to avoid the moving obstacle according to the movement state with respect to the autonomous moving apparatus in the moving obstacle other than the autonomous moving apparatus. It is characterized by including: an avoidance pattern determination unit that determines a traveling pattern of itself; and a traveling control unit that causes the autonomous mobile device to travel according to the traveling pattern determined by the avoidance pattern determination unit.
- the number of matches can be reduced.
- FIG. 1 is a schematic view of an autonomous mobile system according to a first embodiment. It is a flowchart which shows the process sequence of the autonomous mobile device which concerns on 1st Embodiment. It is a figure which shows the example of an avoidance pattern. It is a figure which shows the detailed method of a collision and budget out. It is a functional block diagram of the autonomous mobile system concerning a 2nd embodiment. It is the schematic of the autonomous mobile system which concerns on 2nd Embodiment. It is a flowchart which shows the process sequence of the autonomous mobile device which concerns on 2nd Embodiment. It is a figure which shows the detailed method of congestion degree calculation which concerns on 2nd Embodiment. It is a figure which shows the detail of the acquisition method of the position of the moving obstacle and speed which concern on 2nd Embodiment.
- FIG. 1 is a functional block diagram of an autonomous mobile system according to the first embodiment.
- the autonomous mobile system Z includes a control device 100, an information input device 2, an environment recognition device 20, and a traveling device 30. Among these devices, the environment recognition device 20 and the traveling device 30 will be described later with reference to FIG.
- the control device 100 includes a memory 110 and a CPU (Central Processing Unit) 120.
- CPU Central Processing Unit
- respective programs of the control unit 111, the self information estimation unit 112, the obstacle information estimation unit 113, the collision suspension processing unit 114, the avoidance pattern determination unit 115, and the traveling control unit 116 are expanded.
- a program is being executed by the CPU 120.
- the memory 110 stores map information and a target position, its own position, its own travel parameters, obstacle information, and the like.
- the control unit 111 controls the units 112 to 116. Further, the control unit 111 controls the traveling device 30 based on information from the information input device 2, the environment recognition device 20, and the traveling device 30.
- the self information estimation unit 112 estimates its own position and its own velocity. Specifically, the self-information estimation unit 112 determines the current state of the autonomous mobile device 1 based on the time history of the rotational speed of the motor 31 stored in the memory 110 from the encoder 32 (FIG. 2) via the control device 100. Coordinates, direction, forward speed and turning speed are calculated and stored in the memory 110.
- the obstacle information estimation unit 113 estimates the speed of the moving obstacle by a method described in, for example, Japanese Patent Application Laid-Open No. 2008-65755. In this method, the obstacle information estimation unit 113 first detects an abrupt change point with respect to an angle at a certain distance value obtained from the laser scanner 21 at a certain time t, and divides the data sequence into groups of consecutive points. Are stored in the memory 110 as segments. That is, the obstacle information estimation unit 113 groups the shape point sequence as the same object based on the point at which the distance value changes rapidly. A grouped shape point sequence is a segment.
- the obstacle information estimation unit 113 can recognize the representative position such as the center of gravity of each segment at time t and the feature amount such as the shape. Next, the obstacle information estimation unit 113 similarly calculates at time t + ⁇ t, and obtains the feature amount of each segment at time t + ⁇ t. Then, the obstacle information estimation unit 113 compares the feature amount of the segment obtained at time t with the feature amount of the segment obtained at time t + ⁇ t, and it is determined that the segments having similar feature amounts are the same obstacle. recognize. Then, the obstacle information estimation unit 113 estimates the speed of the obstacle from the amount of change of the representative position in each segment recognized as the same obstacle.
- the obstacle information estimation unit 113 regards an obstacle whose moving speed of the obstacle is substantially “0” as a stationary obstacle, and other obstacles as a moving obstacle. Then, the obstacle information estimation unit 113 calculates and adds the velocity vck (vector) to the distance data point Ok in the same segment, and stores the calculated velocity in the memory 110.
- the collision suspension processing unit 114 calculates collision suspension of the autonomous mobile device 1 itself and the obstacle based on the information on itself and the information on the mobile obstacle stored in the memory 110. In addition, the collision suspension processing unit 114 quantitatively determines suspension of the collision with the moving obstacle based on the calculated collision suspension. Further, the collision suspension processing unit 114 determines the traveling state, such as whether to maintain the current traveling state or to avoid the emergency, based on the collision suspension. Although calculation of suspension of collision will be described later with reference to FIG. 5, the period of suspension of collision is specifically, for example, a time until the autonomous mobile device 1 collides with a moving obstacle.
- the avoidance pattern determination unit 115 determines a method for coping with an obstacle (avoidance pattern) based on its own speed, the speed of the moving obstacle, and the like.
- the traveling control unit 116 calculates a traveling state determined by the collision suspension processing unit 114 and the avoidance pattern determining unit 115 and a control signal for executing the avoidance pattern, and transmits the control signal to the traveling device 30.
- the memory 110 When the autonomous mobile device 1 is in operation, the memory 110 always receives input information from the information input device 2, environment information from the environment recognition device 20, travel information from the travel device 30, and each portion 112 of the control device 100 The calculation results of 116 are input and kept recorded / updated.
- the information input device 2 is a device for inputting map information and a target point from the outside.
- the traveling device 30 is a device for moving the autonomous mobile device 1, and the details will be described later with reference to FIG.
- FIG. 2 is a schematic view of the autonomous mobile system according to the first embodiment.
- 2A shows a front view of the autonomous mobile device and the information input device 2, and
- FIG. 2B shows only a side view of the autonomous mobile device.
- the autonomous mobile system Z includes an autonomous mobile device 1 performing autonomous mobile, and an information input device 2 for inputting information to the autonomous mobile device 1 via wireless LAN (Local Area Network) communication or the like.
- LAN Local Area Network
- the autonomous mobile device 1 includes an environment recognition device 20, a control device 100, a motor 31, an encoder 32, a drive wheel 33, a free caster 34, and a battery 40.
- the control device 100 is described in detail in FIG.
- the environment recognition device 20 is a device that recognizes other objects and terrain, and is a laser scanner 21 in the first embodiment.
- the laser scanner 21 acquires a data point Ok of the distance to the obstacle measured at a predetermined angular interval as environmental information, and stores it in the memory 110 as a time history every predetermined seconds.
- the height of the scanning surface of the laser scanner 21 is desirably, for example, about 0.8 m from the ground to pass near the pelvis of a person, but is not limited to this height.
- the motor 31 is provided on the bottom of the autonomous mobile device 1 independently of each other.
- the encoder 32 measures the rotational speed of each of the left and right motors 31.
- the drive wheel 33 is driven by the motor 31 to move the autonomous mobile device 1 forward or backward.
- the free caster 34 is capable of rolling in all directions, and supports the movement of the autonomous mobile device 1 such as turning.
- the control device 100 advances and turns the autonomous mobile device 1 by controlling the rotational speeds of the left and right drive wheels 33 independently.
- the motor rotation speed from the encoder 32 always transmits the latest value to the control device 100 during operation, and the control device 100 stores the time history of the motor rotation speed for the past several seconds in the memory 110.
- the battery 40 supplies power to the environment recognition device 20 (laser scanner 21), the control device 100, the respective units 31 to 34, and the like.
- FIG. 3 is a flowchart showing the processing procedure of the autonomous mobile device according to the first embodiment.
- absolute coordinates or relative coordinates of the final destination point are input to the autonomous mobile device 1 through the information input device 2.
- the self information estimation unit 112 calculates its own position pr, its own speed vr, the position of the distance data point (position of the moving obstacle) po, and the speed vc of the moving obstacle (S101 ).
- the collision mitigation processing unit 114 acquires the position pr of itself, the speed vc of itself, the position of the distance data point (position of moving obstacle) po, and the speed vc of moving obstacle from the memory 110 (S101).
- vc and vr are vectors.
- speeds other than vc and vr are also vectors.
- the collision suspension processing unit 114 calculates the collision suspension Mc (S102), and compares the calculated Mc with the respective threshold values Mmax and Mmin (Mmax>Mc> Mmin) (S103).
- step S103 if Mc ⁇ Mmax (S103 ⁇ Mc ⁇ Mmax), the collision suspension processing unit 114 determines that there is sufficient suspension until the autonomous mobile device 1 collides with the moving obstacle, and the present Is maintained (S104), and the process proceeds to step S111.
- Mc ⁇ Mmin S103 ⁇ Mc ⁇ Mmin
- the collision suspension processing unit 114 has no suspension until the collision of the autonomous mobile device 1 with the moving obstacle, that is, the suspension of one hour until the collision is also It is determined that there is not. Therefore, the collision suspension processing unit 114 causes the traveling control unit 116 to perform emergency avoidance (S105), and the process proceeds to step S111.
- the emergency avoidance is stop, sudden turning, etc., and what kind of avoidance is performed is set in advance.
- step S103 if Mmin ⁇ Mc ⁇ Mmax (S103 ⁇ Mmin ⁇ Mc ⁇ Mmax), the avoidance pattern determination unit 115 determines that the collision suspension Mc is the velocity of the moving obstacle
- is the norm of the vector. Further, in the following comparison, the relationship between the determination threshold values ⁇ and ⁇ is ⁇ ⁇ 0 ⁇ .
- step S106 when it is
- the avoidance pattern A will be described later with reference to FIG.
- step S106 when
- the avoidance pattern B will be described later with reference to FIG.
- step S106 when ⁇ ⁇
- the traveling control unit 116 causes the avoidance pattern C to be executed (S110), and the control unit 111 advances the process to step S111.
- the avoidance pattern C will be described later with reference to FIG.
- the traveling control unit 116 causes the autonomous mobile device 1 to travel according to the determined avoidance pattern (S111). Then, the traveling control unit 116 determines whether the traveling is completed (S112). That is, the traveling control unit 116 determines whether the autonomous mobile device 1 has reached the final destination point. As a result of step S112, when the traveling is not completed (S112 ⁇ No), the control unit 111 returns the process to step S101. As a result of step S112, when the traveling is completed (S112 ⁇ Yes), the control unit 111 ends the process.
- FIG. 4 is a diagram showing an example of an avoidance pattern according to the present embodiment. Such an avoidance pattern is based on the tendency found by the inventor that a fast moving object is likely to avoid when two moving objects are present. This is based on the assumption that slow moving objects may be old people, disabled people, and so on.
- vc is the speed of the moving obstacle
- vr is the own speed of the autonomous mobile device 1 as described above.
- Reference numeral 51 denotes a moving obstacle
- reference numeral 52 denotes a stationary obstacle.
- FIG. 4A shows an example of the avoidance pattern A in the case of
- > ⁇ means that
- the avoidance pattern determination unit 115 estimates that the movement ability of the moving obstacle is high.
- the avoidance pattern determination unit 115 determines that the moving obstacle 51 is highly likely to change course for avoidance first. That is, when the autonomous mobile device 1 changes the course, the avoidance pattern determination unit 115 determines that there is a possibility that the moving obstacle 51 and the course overlap again and match each other. Therefore, as shown in FIG. 4A, the avoidance pattern determination unit 115 causes the traveling control unit 116 to perform “maintenance of current motion direction and speed” as the avoidance pattern A.
- the avoidance pattern determination unit 115 determines that the collision allowance Mc is equal to or less than Mmin. Continue to maintain the current motion state (speed, motion direction). In the meantime, if the moving obstacle 51 changes its course, a collision can be avoided. By doing this, the autonomous mobile device 1 and the mobile obstacle 51 can pass each other quickly.
- FIG. 4B is a diagram showing an example of the avoidance pattern B in the case of
- ⁇ means that
- the avoidance pattern determination unit 115 estimates that the movement ability of the opposing moving obstacle 51 is low.
- the avoidance pattern determination unit 115 determines that the collision can be avoided as the autonomous mobile device 1 changes the course promptly. Therefore, as shown in FIG. 5B, the avoidance pattern determination unit 115 causes the traveling control unit 116 to “turn in a direction in which the collision allowance Mc recalculated in step S109 is larger” as the avoidance pattern B.
- the avoidance pattern determination unit 115 estimates a passing area Ai (i is a natural number, an area in which the autonomous mobile device 1 is estimated to pass until it collides with the moving obstacle 51 when maintaining a certain motion direction and speed). i is a number attached to the angle). As the estimated passage area Ai is longer in the traveling direction of the autonomous mobile device 1, the recalculation of the collision allowance Mc is larger. Therefore, the avoidance pattern determination unit 115 sets the estimated passing area for the current velocity to A0. Then, with reference to the A0, the avoidance pattern determination unit 115 searches for the collision postponement Mc in the left turn direction and the right turn direction in the ascending order of the turning angle in fixed angle steps. Then, the avoidance pattern determination unit 115 causes the traveling control unit 116 to turn the autonomous mobile device 1 in the turning direction ⁇ i of the estimated passing area Ax in which the collision allowance Mc is equal to or more than a predetermined value. To avoid.
- FIG. 4C is a diagram showing an example of the avoidance pattern C in the case of ⁇ ⁇
- ⁇ ⁇ means the difference between
- the avoidance pattern determination unit 115 estimates that the movement ability of the opposing moving obstacle 51 is comparable to that of the autonomous mobile device 1. Therefore, the avoidance pattern determination unit 115 causes the traveling control unit 116 to perform "deceleration until ⁇ vc ⁇ > as shown in FIG. 5C. That is, the avoidance pattern determination unit 115 decelerates the autonomous mobile device 1 so that the speed of the moving obstacle 51 becomes relatively fast.
- the avoidance pattern determination unit 115 faces the moving obstacle 51 (having the same speed as itself) satisfying ⁇ ⁇
- the autonomous mobile device 1 can transmit to the moving obstacle 51 that there is no intention to change the course, and can urge the avoidance by the course change of the moving obstacle 51. If collision is avoided by the moving obstacle 51 changing its course before the collision suspension Mc becomes equal to or less than Mmin, the autonomous mobile device 1 can proceed faster than when it is completely stopped.
- the movement ability of the moving obstacle 51 is judged by the moving speed with respect to itself, and it is judged whether the person should avoid the other as necessary, and both occur in the same direction, avoiding the other. It is possible to realize the autonomous mobile device 1 capable of efficiently moving while suppressing the occurrence of a match and a collision.
- FIG. 5 is a diagram showing a detailed method of collision and budgeting.
- the collision suspension processing unit 114 (FIG. 1) stores its own position pr and velocity vr stored in the memory 110 (FIG. 1), and position pok and velocity vck of the distance data point Ok in the moving obstacle (both in FIG. 5 (a)).
- the collision suspension M is calculated based on the time until the collision when both continue the current movement.
- the collision suspension processing unit 114 quantitatively determines, based on the collision suspension, whether or not there is a suspension in the collision with the moving obstacle.
- “k” is the number of the shape point sequence observed by the laser scanner 21 as described above.
- M (M1, M2, ..., Mk, ).
- the collision postponement processing unit 114 first uses the equation (1) to determine the relative velocity vork and vork of the autonomous mobile device 1 with respect to the relative position prok and vck of the distance data point Ok with respect to pr shown in FIG. Calculate normal vector nork of.
- the collision suspension processing unit 114 sets the time until the collision as tk, and calculates tk and sok using Expression (2).
- the collision suspension processing unit 114 calculates the collision suspension Mk as shown in equation (3) from tk and sok calculated above.
- Tmin and tmax are preset so as to be suitable according to the exercise performance of the autonomous mobile device 1, the surrounding environment, and the like. For example, tmin is set as the time until the autonomous mobile device 1 stops from the current speed vr. Then, tmax is set as a time until the autonomous mobile device 1 reaches the maximum measurable distance of the laser scanner 21 at the current own velocity vr.
- the collision suspension processing unit 114 calculates the collision suspension Mk with all the distance data points Ok measured by the laser scanner 21, and the minimum value of Mk with the current final collision suspension Mc. Do.
- the avoidance pattern determination unit 115 performs the above-described processing based on the calculated collision suspension Mc, the velocity vc (a velocity in the direction of Mc among vck), and the velocity vr of the autonomous mobile device 1, and sets a plurality of avoidances set in advance. An optimal pattern is selected from the patterns (avoided patterns A to C).
- the traveling control unit 116 sends a drive voltage to the motor 31 according to the specification of the motor 31 so as to follow the avoidance pattern stored in the memory 110. In the present embodiment, although time is suspended for collision, the distance may be suspended for collision.
- the avoidance pattern can be changed in accordance with the speed of the other party (moving obstacle) with respect to itself, appropriate avoidance can be performed.
- the opponent is at a higher speed than the self, it is possible to prevent the extension of the traveling time to the destination by maintaining the exercise state of the self and having the opponent avoid the self.
- the autonomous mobile system Za in the second embodiment changes the parameters (thresholds ⁇ and ⁇ ) for determining the avoidance pattern according to the degree of congestion.
- FIG. 6 is a functional block diagram of the autonomous mobile system according to the second embodiment.
- the autonomous mobile system Za includes a control device 100a, an information input device 2a, an environment recognition device 20, and a traveling device 30.
- the difference from the autonomous mobile system Z of the first embodiment in the second embodiment will be described as follows.
- (A1) Information of the environment recognition device 20 is input to the information input device 2a.
- (A2) The programs of the control unit 211, the movement environment analysis unit 212, and the obstacle information estimation unit 213 are expanded in the memory 210 of the information input device 2a, and the respective programs are executed by the CPU 220. Processing results by the moving environment analysis unit 212 and the obstacle information estimation unit 213 of the information input device 2a are input to the control device 100a.
- the obstacle information estimation unit 213 included in the control device 100 is included in the information input device 2a.
- the congestion degree processing unit 117 that performs processing related to the congestion degree is executed on the memory 110 a of the control device 100 a.
- the control unit 111, the self information estimation unit 112, the collision postponement processing unit 114, the avoidance pattern determination unit 115, the traveling control unit 116, and the traveling device 30 in the control device 100a are the same as in the first embodiment, and thus the description thereof is omitted. Do.
- the programs of the control unit 211, the moving environment analysis unit 212, and the obstacle information estimation unit 213 are expanded in the memory 210 of the information input device 2a, and these programs are executed by the CPU 220.
- the memory 210 also stores the time history of environmental information for the past several seconds input from the environment recognition device 20.
- the movement environment analysis unit 212 calculates the degree of congestion by calculating the proportion of the obstacle in the captured image based on the information in the memory 210.
- the obstacle information estimation unit 213 divides an obstacle into a stationary obstacle and a moving obstacle by the above-described method, calculates the moving speed of each obstacle, and stores the movement speed in the memory 110 a of the control device 100 a.
- the moving environment analysis unit 212 and the obstacle information estimation unit 213 are included in the information input device 2a, but may be included in the control device 100a. Then, the information of the environment recognition device 20 may be directly input to the control device 100a. That is, in the control device 100a, calculation of the congestion degree, calculation of the moving speed of the obstacle, or the like may be performed.
- the congestion degree processing unit 117 determines a threshold (described later) for determining an avoidance pattern according to the calculated congestion degree.
- FIG. 7 is a schematic view of an autonomous mobile system according to a second embodiment.
- FIG. 7A shows a front view of the autonomous mobile device and the information input device 2a
- FIG. 7B shows only a side view of the autonomous mobile device.
- the environment recognition device 20 is not provided in the autonomous mobile device 1a, and is installed in the environment as a ceiling camera 21a. An image captured by the ceiling camera 21a is input to the information input device 2a as environmental information.
- the autonomous mobile device 1a includes the position indicator 50.
- the motor 31, the encoder 32, the drive wheel 33, the free caster 34, and the battery 40 are the same as those in the first embodiment, and thus the description thereof is omitted.
- the information input device 2a has already been described in FIG. Further, since the control device 100a has already been described in FIG. 6, the description thereof is omitted here.
- the ceiling camera 21a as the environment recognition device 20 is a camera installed on the ceiling in the environment. Further, when the movement range is wide, a plurality of ceiling cameras 21a may be provided for each fixed distance.
- the ceiling camera 21a may be installed at a position where the inside of the environment can be viewed from above, and may be suspended by, for example, a suspension unit.
- the ceiling camera 21a is assumed to be fixed, the present invention is not limited to this, and the ceiling camera 21a may be movable by being suspended by a movable suspension unit.
- the video (image) taken by the ceiling camera 21a is transmitted to the information input device 2a by wired or wireless communication.
- the information input device 2a analyzes the traveling environment by the method described later in FIG. 8 from the video (image) input from the ceiling camera 21a (the environment recognition device 20), and analyzes the analysis result via the wireless LAN or the like to the control device 100a. Send to
- the position indicator 50 is a device to make it easy to identify its position from the surroundings.
- the height of the position indicator 50 is preferably, for example, about 1.0 m with a height about the height of the child as a guide, but is not limited to this height.
- FIG. 8 is a flowchart showing the processing procedure of the autonomous mobile device according to the second embodiment.
- the same processes as those in FIG. 3 will be assigned the same step numbers and descriptions thereof will be omitted, and only different processes will be described.
- the movement environment analysis unit 212 calculates the congestion degree D (S201), and transmits the calculated congestion degree D to the control device 100a.
- the self information estimation unit 112 calculates its own position pr, its own speed vr, the position of the distance data point (position of the moving obstacle) po, and the speed vc of the moving obstacle (S101).
- the congestion degree processing unit 117 determines the thresholds ⁇ and ⁇ based on the calculated congestion degree D (S202) ). For example, when the congestion degree D is smaller than the reference value Dmin (a reference value for determining that the moving environment is sufficiently open), the congestion degree processing unit 117 hardly generates a match, so ⁇ , ⁇ Set both sides large. This makes the above-mentioned avoidance pattern B easy to occur.
- Dmin a reference value for determining that the moving environment is sufficiently open
- the congestion degree processing unit 117 causes the autonomous moving device 1a to turn at another moving obstacle In order to significantly inhibit the flow of ⁇ , set ⁇ small. By doing this, the above-described avoidance patterns A and C are likely to occur.
- the avoidance pattern determination unit 115 performs the same processing as steps S107 to S112 in FIG. 3 using the determined threshold values ⁇ and ⁇ .
- the autonomous mobile device 1a that determines the avoidance pattern in accordance with the selection criteria set in accordance with the degree of congestion of the moving environment.
- FIG. 9 is a diagram showing a detailed method of congestion degree calculation according to the second embodiment.
- a captured image including a large number of floors is selected from images captured by a plurality of ceiling cameras 21a (FIG. 6). The selection is made, for example, manually by the user.
- the moving environment analysis unit 212 generates a histogram of RGB (red Green Blue) intensity as shown in FIG. 9B from the selected captured image. The color in the vicinity of each peak Rm, Gm, Bm of RGB is assumed to be the color of the floor. Therefore, the moving environment analysis unit 212 sets the RGB intensity that satisfies Equation (4) as the floor color Qf based on the generated histogram.
- RGB red Green Blue
- Qf may be extracted in advance and stored in the memory 210 of the information input device 2a or the memory 110a of the autonomous mobile device 1a.
- the movement environment analysis unit 212 extracts a portion of a color other than the color Qf of the floor from the predetermined captured image captured by the ceiling camera 21a. By doing this, the moving environment analysis unit 212 extracts an object other than the floor (that is, an obstacle) in the area of colors other than Qf in the captured image as shown in FIG. 9C.
- the obstacles extracted at this time include both stationary obstacles and mobile obstacles.
- the movement environment analysis unit 212 quantitatively calculates the degree of congestion D of the movement environment by calculating the proportion of an object (obstacle) other than the floor occupying the area in the captured image.
- FIG. 10 is a diagram showing details of the method of acquiring the position and velocity of the moving obstacle according to the second embodiment.
- the technology described in the first embodiment calculates the position and velocity of a moving obstacle for a shape point sequence by the laser scanner 21.
- the technique described in the second embodiment uses the ceiling camera 21a, so it is necessary to calculate again the equivalent of the shape point sequence of the laser scanner 21. Therefore, in the second embodiment, the moving environment analysis unit 212 classifies the pixels in the captured image at a certain time t into other than the floor and the floor using the method illustrated in FIG. After that, the floor and the image classified into other than the floor are transmitted to the control device 100a.
- the obstacle information estimation unit 213 determines that adjacent pixels in pixels classified as other than the floor (that is, pixels of the obstacle) are pixels of the same obstacle, as shown in FIG. 10A. Divide the pixels into segments. That is, the obstacle information estimation unit 213 performs grouping of pixels to generate a segment.
- the obstacle information estimation unit 213 extracts feature amounts such as a representative position, a color, and a size from the divided segments.
- the obstacle information estimation unit 213 stores the extracted feature quantities as a list in the memory 110a. Thereafter, the obstacle information estimation unit 213 performs the same process on the captured image after the micro time ⁇ t seconds, and those having similar feature quantities are determined to be the same object, and the velocity vc of the object is determined from the change amount of the representative position.
- the representative position is, for example, the center po of the segment.
- the obstacle information estimation unit 213 assigns the area occupied by the obstacle to a grid whose roughness is large enough to ignore the size, and the speed vck and the position pok are given to each grid. Is stored in the memory 110a.
- the velocity vck and the position pok are generally, for example, the velocity and the position of the center of the grid as shown in FIG. 10 (b), but it is not limited thereto.
- the velocity vck and the position pok here correspond to vck and pok in FIG. From this, the collision suspension processing unit 114 can calculate the collision suspension by the method described in FIG. 5.
- the collision suspension processing unit 114 can calculate collision suspension and the like by the same method as that of the first embodiment. That is, the obstacle information estimation unit 213 can use the same method as that in FIG. 5 by providing the grid with the speed information, the position information, and the like as illustrated in FIG. 10B.
- the roughness of the grid may be suitably set by the user according to the size and the movement performance of the autonomous mobile device 1a.
- the avoidance pattern can be selected according to the environment.
- the autonomous mobile devices 1 and 1a in the first embodiment and the second embodiment determine the avoidance pattern based on the actual velocity of the mobile obstacle, the mobile object based on the image captured by the camera The type of may be determined. Then, the control unit 111 of the autonomous mobile device 1 or 1a may estimate the speed (exercise ability) of the opponent with respect to itself based on the determined type of the moving object. The control unit 111 classifies, for example, an elderly person with an opponent's moving obstacle with a walking stick, an injured person, a person pushing a cart, a person looking away, etc., as the moving obstacle type. Then, the control unit 111 determines that the athletic ability of these persons is lower than itself.
- control unit 111 determines that the speed of these persons is slower than itself.
- control unit 111 determines that, for example, a healthy adult male or a person running is high in exercise capacity. That is, the control unit 111 determines that the speed of these persons is faster than itself.
- the autonomous mobile devices 1 and 1a can distinguish between a person who is healthy but walking slowly, and who has potential avoidance ability and who has potentially low avoidance ability. it can.
- the autonomous mobile devices 1 and 1a which concern on this embodiment change the avoidance pattern of self according to the movement state of a moving obstacle
- the technique of patent document 1 is the movement which is not related to itself. The avoidance is performed based on the state, which is different from the technology described in the present embodiment.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
図1~図5を参照することによって、本発明に係る第1実施形態を説明する。
[機能ブロック図]
図1は、第1実施形態に係る自律移動システムの機能ブロック図である。
自律移動システムZは、制御装置100と、情報入力装置2と、環境認識装置20と、走行装置30とを有する。これらの装置のうち、環境認識装置20と、走行装置30については図2を参照して後記する。
制御装置100は、メモリ110とCPU(Central Processing Unit)120とを有している。メモリ110には、制御部111、自己情報推定部112、障害物情報推定部113、衝突猶予処理部114、回避パターン決定部115、走行制御部116の各プログラムが展開されており、これらの各プログラムがCPU120によって実行されている。また、メモリ110には、地図情報と目標位置、自身の位置、自身の走行パラメータ、障害物の情報などが格納されている。
制御部111は、各部112~116を制御する。また、制御部111は、情報入力装置2や、環境認識装置20や、走行装置30からの情報を基に走行装置30を制御する
障害物情報推定部113は、移動障害物の位置や速度を推定する。具体的には、障害物情報推定部113は、環境認識装置20からメモリ110に格納された障害物までの距離データ点Ok(k=1,2,3,・・・,n:nは1回のレーザスキャンで得られる形状点列の個数)の時刻歴を基に障害物の位置と速度を計算する。障害物情報推定部113は、例えば特開2008-65755号公報に記載されている方法で移動障害物の速度を推定する。この方法において、障害物情報推定部113は、まず、ある時刻tにレーザスキャナ21から得られた距離値において、角度に対する急激な変化点を検出し、連続する点のまとまりごとにデータ列を分割してセグメントとしてメモリ110に保存する。つまり、障害物情報推定部113は距離値が急激に変化する点を基に、形状点列を同一の物体としてグルーピングする。グルーピングされた形状点列がセグメントとなる。
回避パターン決定部115は、自身の速度と、移動障害物の速度などを基に、障害物への対処方法(回避パターン)を決定する。
走行制御部116は、衝突猶予処理部114や、回避パターン決定部115が決定した走行状態や、回避パターンを実行するための制御信号を計算し、走行装置30へ送信する。
走行装置30は、自律移動装置1を移動するための装置であり、詳細は図2を参照して後記する。
図2は、第1実施形態に係る自律移動システムの概略図である。図2(a)は自律移動装置の正面図と、情報入力装置2を示しており、図2(b)では自律移動装置の側面図のみを示している。なお、図2において図1と同様の構成要素については、同一の符号を付して説明を省略する。
自律移動システムZは、自律移動を行う自律移動装置1と、無線LAN(Local Area Network)通信などを介して自律移動装置1に情報を入力する情報入力装置2を有する。ここで、情報入力装置2は、図1で説明済みなので、図2では説明を省略する。
環境認識装置20は、他の物体や地形を認識する装置であり、第1実施形態ではレーザスキャナ21である。レーザスキャナ21は、所定の角度間隔で測定した障害物までの距離のデータ点Okを環境情報として取得し、所定秒毎に時刻歴としてメモリ110へ格納する。なお、本実施形態では単に「障害物」と記載したときは静止障害物、移動障害物を含んでおり、移動している障害物のみを記載する場合は、「移動障害物」と記載することとする。レーザスキャナ21の走査面の高さは、例えば人の骨盤付近を通るよう地面から0.8m程度にすることが望ましいが、この高さに限らない。
エンコーダ32は、左右それぞれのモータ31の回転速度を計測する。
駆動輪33は、モータ31により駆動し、自律移動装置1を前方あるいは後方へ移動させる。
自在式キャスタ34は、全方位へ転がることが可能であり、自律移動装置1の旋回などの動きを助ける。
制御装置100は、左右の駆動輪33の回転数を独立に制御することによって、自律移動装置1の前進・旋回を行う。エンコーダ32からのモータ回転速度は動作中常に最新の値を制御装置100へ送信され、制御装置100は、過去数秒分のモータ回転速度の時刻歴をメモリ110へ保存する。
バッテリ40は、環境認識装置20(レーザスキャナ21)、制御装置100、各部31~34などへ電力を供給するものである。
図3は、第1実施形態に係る自律移動装置の処理手順を示すフローチャートである。
まず、情報入力装置2を介して、自律移動装置1に最終目的地点の絶対座標あるいは相対座標が入力される。そして、任意のタイミングで、情報入力装置2を介して、自律移動装置1の動作の開始が指示されると、以下の処理が開始される。
処理が開始されると、自己情報推定部112が自身の位置prと、自身の速度vrと、距離データ点の位置(移動障害物の位置)poおよび移動障害物の速度vcを算出する(S101)。そして、衝突猶予処理部114がメモリ110から自身の位置prと、自身の速度vcと、距離データ点の位置(移動障害物の位置)poおよび移動障害物の速度vcを取得する(S101)。ここで、vc,vrはベクトルである。以下、vc,vr以外の速度もベクトルとする。
続いて、衝突猶予処理部114が衝突猶予Mcを算出し(S102)、算出したMcと各閾値Mmax,Mmin(Mmax>Mc>Mmin)とを比較する(S103)。
ステップS103の結果、Mc≦Mminである場合(S103→Mc≦Mmin)、衝突猶予処理部114は、自律移動装置1が移動障害物との衝突まで猶予がない、つまり、衝突まで一刻の猶予もないと判定する。そこで、衝突猶予処理部114は、走行制御部116に緊急回避を行わせ(S105)、ステップS111へ処理を進める。緊急回避は、停止や、急旋回などであり、どのような回避を行うかは予め設定されている。
そして、走行制御部116は、走行が完了したか否かを判定する(S112)。つまり、走行制御部116は、自律移動装置1が最終目的地点に到達したか否かを判定する。
ステップS112の結果、走行が完了していない場合(S112→No)、制御部111はステップS101へ処理を戻す。
ステップS112の結果、走行が完了している場合(S112→Yes)、制御部111は処理を終了する。
図4は、本実施形態に係る回避パターンの例を示す図である。このような回避パターンは、2つの移動物が存在するとき、速度の速い移動物が回避を行う可能性が高いという、発明者が見出した傾向に基づくものである。これは、速度の遅い移動物が、老人や、障害者などである可能性があるという推定に基づくものである。
図4において、前記したようにvcは移動障害物の速度であり、vrは自律移動装置1の自身の速度である。また、符号51は移動障害物を示し、符号52は静止障害物を示す。
図4(a)は、||vc||-||vr||>αの場合における回避パターンAの例を示す図である。つまり、図4(a)は図3のステップS107で実行される回避パターンAの例を示す図である。
ここで、||vc||-||vr||>αであるということは、||vc||が||vr||より大きく、その差が高速判定閾値αより大きいということである。このような場合、回避パターン決定部115は、移動障害物の運動能力が高いと推定する。
そのため、回避パターン決定部115は移動障害物51が先に回避のための進路変更を行う可能性が高いと判定する。つまり、回避パターン決定部115は、自律移動装置1が進路変更を行うと、移動障害物51と再び進路が重なってお見合いする可能性があると判定する。そこで、回避パターン決定部115は回避パターンAとして、図4(a)に示すように、「現在の運動方向および速度の維持」を走行制御部116に行わせる。
図4(b)は、||vc||-||vr||<β(<0)の場合における回避パターンBの例を示す図である。つまり、図4(b)は図3のステップS109で実行される回避パターンBの例を示す図である。
ここで、||vc||-||vr||<βであるということは、||vc||が||vr||より小さく、その差が低速判定閾値βより大きいということである。このような場合、回避パターン決定部115は相対する移動障害物51の運動能力が低いと推定する
そのため、回避パターン決定部115は。直ちに移動障害物51が回避のための進路変更を行う可能性は低いと判定する。つまり、回避パターン決定部115は自律移動装置1がすみやかに進路変更を行うことにより、衝突を回避できると判定する。そこで、回避パターン決定部115は回避パターンBとして、図5(b)に示すように「ステップS109で再算出した衝突猶予Mcが大きい方向へ旋回」を走行制御部116に行わせる。
図4(c)は、β≦||vc||-||vr||≦αの場合における回避パターンCの例を示す図である。つまり、図4(c)は図3のステップS110で実行される回避パターンCの例を示す図である。
ここで、β≦||vc||-||vr||≦αであるということは、||vc||と||vr||の差である||vc||-||vr||が、低速判定閾値βより大きく、高速判定閾値αより小さいということである。このような場合、回避パターン決定部115は、相対する移動障害物51の運動能力が自律移動装置1と同程度であると推定する。
そのため、回避パターン決定部115は走行制御部116に、図5(c)に示すように「||vc||-||vr||>αとなるまで減速」を行わせる。つまり、回避パターン決定部115は、移動障害物51の速度が相対的に早くなるよう、自律移動装置1を減速させる。
このようにすることにより、自律移動装置1は進路変更する意思のないことが移動障害物51に伝わり、移動障害物51の進路変更による回避を促すことができる。衝突猶予McがMmin以下となる前に、移動障害物51が進路変更することより衝突を回避すれば、自律移動装置1が完全停止するよりも速く進むことができる。
図5は、衝突猶予算出の詳細な手法を示す図である。
衝突猶予処理部114(図1)は、メモリ110(図1)に保存した自身の位置prと速度vr、移動障害物における距離データ点Okの位置pokと速度vck(いずれも図5(a))を基に、衝突猶予Mを算出する。本実施形態では、衝突猶予Mとは、両者が現在の運動を続けた場合に衝突するまでの時間を基に算出されている。そして、衝突猶予処理部114は、衝突猶予を基に、移動障害物との衝突に猶予があるか否かを定量的に判定している。ここで、「k」は、前記したようにレーザスキャナ21で観測される形状点列の番号である。例えば、M=(M1,M2,・・・,Mk,・・・)である。
走行制御部116は、メモリ110に保存した回避パターンに従うようモータ31の仕様に応じた駆動電圧をモータ31へ送る。
なお、本実施形態は、時間を衝突猶予としているが、距離を衝突猶予としてもよい。
次に、図6~図10を参照することによって、本発明に係る第2実施形態を説明する。
第2実施形態における自律移動システムZaは、回避パターンを決定するパラメータ(閾値α,β)を混雑度によって変更するものである。
図6は、第2実施形態に係る自律移動システムの機能ブロック図である。
自律移動システムZaは、制御装置100aと、情報入力装置2aと、環境認識装置20と、走行装置30とを有する。
ここで、第2実施形態における第1実施形態の自律移動システムZとの差異を説明すると以下のようになる。
(a1)環境認識装置20の情報は、情報入力装置2aに入力される。
(a2)情報入力装置2aのメモリ210には制御部211、移動環境解析部212、障害物情報推定部213のプログラムが展開されており、CPU220によって各プログラムが実行されている。情報入力装置2aの移動環境解析部212、障害物情報推定部213による処理結果は、制御装置100aへ入力される。
(a3)第1実施形態では、制御装置100に備えられていた障害物情報推定部213が、情報入力装置2aに備えられている。
(a4)混雑度に関する処理を行う混雑度処理部117が制御装置100aのメモリ110a上で実行されている。
情報入力装置2aのメモリ210には、前記したように制御部211、移動環境解析部212、障害物情報推定部213のプログラムが展開され、CPU220によってこれらの各プログラム実行されている。また、メモリ210に、環境認識装置20から入力された過去数秒分の環境情報の時刻歴が格納されている。
移動環境解析部212は、メモリ210内の情報を基に、撮像画像内において障害物が占める割合を算出することで混雑度を算出する。
障害物情報推定部213は、前記した手法によって障害物を静止障害物と、移動障害物とに分け、各障害物の移動速度などを算出し、制御装置100aのメモリ110aに格納する。
なお、図6では、移動環境解析部212と障害物情報推定部213が、情報入力装置2aに備えられているが、制御装置100aに備えられていてもよい。そして、環境認識装置20の情報は、直接制御装置100aに入力されてもよい。つまり、制御装置100aにおいて、混雑度の算出や、障害物の移動速度の算出などが行われてもよい。
ここで、図7における自律移動システムZaと、図3の自律移動システムZとの差異を説明すると以下のようになる。
(b1)環境認識装置20が、自律移動装置1aに備えられておらず、天井カメラ21aとして環境内に設置されている。天井カメラ21aで撮影された画像は環境情報として情報入力装置2aに入力される。
(b1)自律移動装置1aが位置表示器50を備えている。
環境認識装置20としての天井カメラ21aは、環境内において天井に設置されているカメラである。また、移動範囲が広範な場合は一定距離ごとに複数の天井カメラ21aが設けられてもよい。なお、天井カメラ21aは、環境内を上から見渡せる位置に設置されていればよく、例えば、吊下手段などで吊り下げられている形状でもよい。また、天井カメラ21aは固定されていることを想定されているが、これに限らず、移動可能な吊下手段に吊下げられることで移動可能であってもよい。
天井カメラ21aで撮像された映像(画像)は、有線あるいは無線通信によって情報入力装置2aへ送信される。情報入力装置2aは、天井カメラ21a(環境認識装置20)から入力された映像(画像)から、図8で後記する手法によって走行環境を解析し、この解析結果を無線LAN経由などで制御装置100aへ送信する。
まず、処理が開始されると、移動環境解析部212が混雑度Dを算出し(S201)、算出した混雑度Dを制御装置100aへ送信する。その後、自己情報推定部112が自身の位置prと、自身の速度vrと、距離データ点の位置(移動障害物の位置)poおよび移動障害物の速度vcを算出する(S101)。
そして、ステップS103の結果、Mmin<Mc<Mmaxである場合(S104→Mmin<Mc<Mmax)、混雑度処理部117は、算出した混雑度Dを基に、閾値α,βを決定する(S202)。
例えば、混雑度Dが基準値Dmin(十分に移動環境が空いていると判断するための基準値)よりも小さい場合、混雑度処理部117は、お見合いが発生しにくいことから、α、β双方を大きく設定する。こうすることにより、前記した回避パターンBが起こりやすくする。
図9は、第2実施形態に係る混雑度算出の詳細な手法を示す図である。
まず、複数の天井カメラ21a(図6)による撮像画像から、図9(a)のように床を多く含む撮像画像が選択される。選択は、例えば、ユーザによる手動などで行われる。移動環境解析部212は、選択された撮像画像から図9(b)のようなRGB(red Green Blue)インテンシティのヒストグラムを生成する。RGBそれぞれのピークRm、Gm、Bm近傍の色は床の色と推測される。そこで、移動環境解析部212は、生成されたヒストグラムを基に、式(4)を満たすRGBインテンシティを床の色Qfとする。
次に、移動環境解析部212は、天井カメラ21aで撮像された所定の撮像画像から、床の色Qf以外の色の部分を抽出する。このようにすることで、移動環境解析部212は、図9(c)のように撮像画像内でQf以外の色の領域を床以外の物体(つまり、障害物)を抽出する。なお、このとき抽出される障害物は、静止障害物、移動障害物の双方を含んでいる。移動環境解析部212は、床以外の物体(障害物)が撮像画像内の領域を占めている割合を算出することで、移動環境の混雑度Dを定量的に算出する。
図10は、第2実施形態に係る移動障害物の位置および速度の取得手法の詳細を示す図である。
第1実施形態に記載の技術は、レーザスキャナ21による形状点列を対象として、移動障害物の位置や、速度を算出している。第2実施形態に記載の技術は、天井カメラ21aを用いているため、レーザスキャナ21の形状点列に相当するものを改めて算出する必要がある。
そこで、第2実施形態において、移動環境解析部212は、図9に示した手法を用いて、ある時刻tでの撮像画像内の画素を床と床以外に分類する。その後、床と床以外に分類された画像は、制御装置100aへ送信される。そして、障害物情報推定部213は、床以外と分類された画素(すなわち、障害物の画素)で隣り合っている画素同士は同一障害物の画素と判断し、図10(a)に示すように画素をセグメントに分ける。つまり、障害物情報推定部213は画素のグルーピングを行って、セグメントを生成する。
第1実施形態、第2実施形態における自律移動装置1,1aは、移動障害物の実際の速度を基に回避パターンを決定しているが、カメラで撮像された画像を基に、移動対象物の種別を判別するようにしてもよい。そして、自律移動装置1,1aの制御部111は、判別された移動対象物の種別を基に、自身に対する相手の速度(運動能力)を推定してもよい。制御部111は、移動障害物の種別として、例えば、相手移動障害物が杖をついた老人、けが人、台車を押している人物、よそ見をしている人物などを種別する。そして、制御部111は、これらの人物の運動能力が自身より低いと判定する。つまり、制御部111は、これらの人物の速度は自身より遅いと判定する。他方、制御部111は、例えば、健常な成人男性や、走っている人物は運動能力が高いと判定する。つまり、制御部111は、これらの人物の速度は自身より速いと判定する。
このようにすることで、例えば、自律移動装置1,1aは、健常でありながらゆっくり歩いており、潜在的に回避能力がある人と、潜在的に回避能力が低い人とを区別することができる。
2,2a 情報入力装置
20 環境認識装置
21 レーザスキャナ
21a 天井カメラ
30 走行装置
31 モータ
32 エンコーダ
33 駆動輪
34 自在式キャスタ
40 バッテリ
100,100a 制御装置
110,110a メモリ(制御装置)
111 制御部(制御装置)
112 自己情報推定部
113 障害物情報推定部
114 衝突猶予処理部
115 回避パターン決定部(回避パターン決定部)
116 走行制御部
117 混雑度処理部
210 メモリ(情報入力装置)
211 制御部(情報入力装置)
212 移動環境解析部
213 障害物情報推定部
Z,Za 自律移動システム
Claims (12)
- 自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定する回避パターン決定部と、
前記回避パターン決定部が決定した走行パターンに従って前記自律移動装置を走行させる走行制御部と、
を有することを特徴とする自律移動装置。 - 前記回避パターン決定部は、
前記移動障害物の速度から、前記自律移動装置自身の速度を減算した値が、第1の値以上である場合、前記移動障害物自身の運動方向を維持する走行パターンを決定する
ことを特徴とする請求の範囲第1項に記載の自律移動装置。 - 複数の移動障害物の混雑度に応じて、前記第1の値を決定する
ことを特徴とする請求の範囲第2項に記載の自律移動装置。 - 前記回避パターン決定部は、
前記移動障害物の速度から、前記自律移動装置自身の速度を減算した値が、第2の値より大きい場合、前記移動障害物自身の速度を維持する走行パターンを決定する
ことを特徴とする請求の範囲第2項に記載の自律移動装置。 - 複数の移動障害物の混雑度に応じて、前記第2の値を決定する
ことを特徴とする請求の範囲第4項に記載の自律移動装置。 - 前記回避パターン決定部は、
前記移動障害物の速度から前記移動障害物自身の速度を減算した値が、予め設定してある所定の範囲に収まる場合、前記移動障害物自身の速度を減速する走行パターンを決定する
ことを特徴とする請求の範囲第2項に記載の自律移動装置。 - 前記回避パターン決定部は、
前記移動障害物の速度から前記移動障害物自身の速度を減算した値が、第1の値未満である場合、前記移動障害物を回避する走行パターンを決定する
ことを特徴とする請求の範囲第1項に記載の自律移動装置。 - 複数の移動障害物の混雑度に応じて、前記第1の値を決定する
ことを特徴とする請求の範囲第7項に記載の自律移動装置。 - 前方を撮像するカメラを、さらに備えており、
前記回避パターン決定部は、
前記カメラによって撮像された画像における移動障害物の種別によって、前記移動障害物の運動状態を推定する
ことを特徴とする請求の範囲第1項に記載の自律移動装置。 - 自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定し、前記決定した走行パターンに従って前記自律移動装置を走行させる自律移動装置
を有することを特徴とする自律移動システム。 - 複数の移動障害物の混雑度を算出する情報処理装置を、さらに有し、
前記自律移動装置は、
前記情報処理装置が算出した前記混雑度に応じて、前記走行パターンを決定するための前記運動状態の基準を変更し、
前記変更した基準を基に、前記走行パターンを決定する
ことを特徴とする請求の範囲第10項に記載の自律移動システム。 - 自律移動を行う自律移動装置による自律移動方法であって、
自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定し、前記決定した走行パターンに従って前記自律移動装置を走行させる
を有することを特徴とする自律移動方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/061211 WO2013161033A1 (ja) | 2012-04-26 | 2012-04-26 | 自律移動装置、自律移動システムおよび自律移動方法 |
US14/396,887 US9475194B2 (en) | 2012-04-26 | 2012-04-26 | Autonomous mobile device, autonomous movement system, and autonomous movement method |
JP2014512234A JP5901749B2 (ja) | 2012-04-26 | 2012-04-26 | 自律移動装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/061211 WO2013161033A1 (ja) | 2012-04-26 | 2012-04-26 | 自律移動装置、自律移動システムおよび自律移動方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013161033A1 true WO2013161033A1 (ja) | 2013-10-31 |
Family
ID=49482402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/061211 WO2013161033A1 (ja) | 2012-04-26 | 2012-04-26 | 自律移動装置、自律移動システムおよび自律移動方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9475194B2 (ja) |
JP (1) | JP5901749B2 (ja) |
WO (1) | WO2013161033A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015166891A (ja) * | 2014-03-03 | 2015-09-24 | 学校法人千葉工業大学 | 搭乗型移動ロボット |
WO2019116765A1 (ja) * | 2017-12-11 | 2019-06-20 | 株式会社日立製作所 | 移動体システム及び移動体システムの制御方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552503B2 (en) * | 2012-05-01 | 2017-01-24 | 5D Robotics, Inc. | Distributed positioning and collaborative behavior determination |
JP6717697B2 (ja) * | 2016-07-27 | 2020-07-01 | シャープ株式会社 | 自律走行装置 |
CN106338285A (zh) * | 2016-08-11 | 2017-01-18 | 深圳乐行天下科技有限公司 | 一种行进辅助方法、系统及机器人 |
CN114167857B (zh) * | 2021-11-08 | 2023-12-22 | 北京三快在线科技有限公司 | 一种无人驾驶设备的控制方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05297944A (ja) * | 1992-04-24 | 1993-11-12 | Fujitsu Ltd | 移動ロボットの障害物回避方式 |
JP2005288657A (ja) * | 2004-04-05 | 2005-10-20 | Matsushita Electric Ind Co Ltd | ロボット |
JP2008200770A (ja) * | 2007-02-16 | 2008-09-04 | Toshiba Corp | ロボットおよびその制御方法 |
JP2010134855A (ja) * | 2008-12-08 | 2010-06-17 | Toshiba Corp | 移動台車 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185412A (ja) | 1995-12-28 | 1997-07-15 | Yaskawa Electric Corp | 自律移動装置 |
JP2008128938A (ja) * | 2006-11-24 | 2008-06-05 | Matsushita Electric Ind Co Ltd | 経路調整装置 |
JP2009157615A (ja) | 2007-12-26 | 2009-07-16 | Toyota Motor Corp | 移動体 |
US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
-
2012
- 2012-04-26 WO PCT/JP2012/061211 patent/WO2013161033A1/ja active Application Filing
- 2012-04-26 JP JP2014512234A patent/JP5901749B2/ja active Active
- 2012-04-26 US US14/396,887 patent/US9475194B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05297944A (ja) * | 1992-04-24 | 1993-11-12 | Fujitsu Ltd | 移動ロボットの障害物回避方式 |
JP2005288657A (ja) * | 2004-04-05 | 2005-10-20 | Matsushita Electric Ind Co Ltd | ロボット |
JP2008200770A (ja) * | 2007-02-16 | 2008-09-04 | Toshiba Corp | ロボットおよびその制御方法 |
JP2010134855A (ja) * | 2008-12-08 | 2010-06-17 | Toshiba Corp | 移動台車 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015166891A (ja) * | 2014-03-03 | 2015-09-24 | 学校法人千葉工業大学 | 搭乗型移動ロボット |
WO2019116765A1 (ja) * | 2017-12-11 | 2019-06-20 | 株式会社日立製作所 | 移動体システム及び移動体システムの制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US9475194B2 (en) | 2016-10-25 |
JP5901749B2 (ja) | 2016-04-13 |
JPWO2013161033A1 (ja) | 2015-12-21 |
US20150105906A1 (en) | 2015-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013161033A1 (ja) | 自律移動装置、自律移動システムおよび自律移動方法 | |
US10688662B2 (en) | Robot navigation in context of obstacle traffic including movement of groups | |
CN106548660B (zh) | 确定车辆的理论轨迹 | |
US9079307B2 (en) | Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus | |
US9086700B2 (en) | Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus | |
US9020682B2 (en) | Autonomous mobile body | |
US8924068B2 (en) | Autonomous mobile body | |
JP4576445B2 (ja) | 自律移動型装置および自律移動型装置用プログラム | |
JP4143103B2 (ja) | 移動装置、ならびにその制御システム、制御プログラムおよび監督システム | |
CN109334661B (zh) | 基于速度障碍模型和碰撞概率密度模型的避障预判方法 | |
JP2019125354A (ja) | 情報処理装置、システム、方法、およびプログラム | |
US11693424B2 (en) | Robot, system and method detecting and/or responding to transitions in height | |
WO2013011543A1 (ja) | 自律移動装置およびその制御方法 | |
JP4171510B2 (ja) | 移動装置、ならびにその制御システム、制御プログラムおよび監督システム | |
JP7166712B2 (ja) | パーソナルモビリティ | |
WO2016084910A1 (ja) | 移動体 | |
JP2011054082A (ja) | 自律移動装置 | |
WO2020100595A1 (en) | Information processing apparatus, information processing method, and program | |
Raja et al. | SPAS: Smart pothole-avoidance strategy for autonomous vehicles | |
JPWO2016104265A1 (ja) | 移動体 | |
WO2013171905A1 (ja) | 自律移動装置、制御装置および自律移動方法 | |
Pierson et al. | Dynamic risk density for autonomous navigation in cluttered environments without object detection | |
Seng et al. | Distributed formation control of networked mobile robots in environments with obstacles | |
Zhang et al. | A control system of driver assistance and human following for smart wheelchair | |
JP6299957B2 (ja) | 移動体制御装置、移動体制御プログラムおよび移動体制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12875701 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014512234 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14396887 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 12875701 Country of ref document: EP Kind code of ref document: A1 |