WO2013161033A1 - 自律移動装置、自律移動システムおよび自律移動方法 - Google Patents

自律移動装置、自律移動システムおよび自律移動方法 Download PDF

Info

Publication number
WO2013161033A1
WO2013161033A1 PCT/JP2012/061211 JP2012061211W WO2013161033A1 WO 2013161033 A1 WO2013161033 A1 WO 2013161033A1 JP 2012061211 W JP2012061211 W JP 2012061211W WO 2013161033 A1 WO2013161033 A1 WO 2013161033A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
moving
autonomous mobile
autonomous
mobile device
Prior art date
Application number
PCT/JP2012/061211
Other languages
English (en)
French (fr)
Inventor
泰士 上田
亮介 中村
梓 網野
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2012/061211 priority Critical patent/WO2013161033A1/ja
Priority to US14/396,887 priority patent/US9475194B2/en
Priority to JP2014512234A priority patent/JP5901749B2/ja
Publication of WO2013161033A1 publication Critical patent/WO2013161033A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/40Vacuum or mangetic
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Definitions

  • the present invention relates to an autonomous mobile device with an obstacle avoidance capability, an autonomous mobile system, and an autonomous mobile method.
  • Patent Document 1 is disclosed as a technology related to an autonomous mobile device having an obstacle avoidance capability.
  • the technology described in Patent Document 1 sets an area where the autonomous mobile device can not intrude (an invading area) into the movable range of the obstacle. Then, the autonomous mobile device moves so as to avoid the invading area.
  • Patent Document 2 is disclosed.
  • the autonomous mobile device when the autonomous mobile device detects an obstacle, it determines by an infrared sensor whether the obstacle is a person or not. Then, when the obstacle is a person, the autonomous mobile device stops and stands by for a predetermined time. In addition, the autonomous mobile device moves to the avoidance operation when an obstacle still exists after a predetermined time has elapsed, and resumes traveling when no obstacle exists.
  • the autonomous mobile device is moving on the same course, facing a mobile obstacle such as a person moving autonomously.
  • a mobile obstacle such as a person moving autonomously.
  • matchmaking When the autonomous mobile device takes an evasive action to prevent a collision with the mobile obstacle, the two avoid the other in the same direction, and again stop facing each other in a mutually corresponding state (hereinafter, It may be called matchmaking).
  • matchmaking often occurs in crowded situations such as hospitals and stations. Therefore, in such a place, there is a problem that the arrival at the destination takes a long time since the danger of collision increases and the movement of the autonomous mobile device is significantly impeded. Therefore, there is a new problem of wanting to move efficiently by suppressing such a match.
  • Patent Document 1 there is a technique described in Patent Document 1 in which all movable areas of a moving obstacle are set as non-invasive areas that can not be invaded by an autonomous mobile device.
  • the inaccessible area is set widely without predicting the evasive action of the other party, so in an crowded environment or a canyon, the destination of the autonomous mobile device is blocked in the inaccessible area, making it difficult to pass. That is, according to the technology of Patent Document 1, in a crowded environment, the passage is covered in the inaccessible region around the moving obstacle, and the autonomous moving device can not move.
  • the present invention has been made in view of such a background, and an object of the present invention is to reduce the number of matches.
  • the present invention determines whether or not to avoid the moving obstacle according to the movement state with respect to the autonomous moving apparatus in the moving obstacle other than the autonomous moving apparatus. It is characterized by including: an avoidance pattern determination unit that determines a traveling pattern of itself; and a traveling control unit that causes the autonomous mobile device to travel according to the traveling pattern determined by the avoidance pattern determination unit.
  • the number of matches can be reduced.
  • FIG. 1 is a schematic view of an autonomous mobile system according to a first embodiment. It is a flowchart which shows the process sequence of the autonomous mobile device which concerns on 1st Embodiment. It is a figure which shows the example of an avoidance pattern. It is a figure which shows the detailed method of a collision and budget out. It is a functional block diagram of the autonomous mobile system concerning a 2nd embodiment. It is the schematic of the autonomous mobile system which concerns on 2nd Embodiment. It is a flowchart which shows the process sequence of the autonomous mobile device which concerns on 2nd Embodiment. It is a figure which shows the detailed method of congestion degree calculation which concerns on 2nd Embodiment. It is a figure which shows the detail of the acquisition method of the position of the moving obstacle and speed which concern on 2nd Embodiment.
  • FIG. 1 is a functional block diagram of an autonomous mobile system according to the first embodiment.
  • the autonomous mobile system Z includes a control device 100, an information input device 2, an environment recognition device 20, and a traveling device 30. Among these devices, the environment recognition device 20 and the traveling device 30 will be described later with reference to FIG.
  • the control device 100 includes a memory 110 and a CPU (Central Processing Unit) 120.
  • CPU Central Processing Unit
  • respective programs of the control unit 111, the self information estimation unit 112, the obstacle information estimation unit 113, the collision suspension processing unit 114, the avoidance pattern determination unit 115, and the traveling control unit 116 are expanded.
  • a program is being executed by the CPU 120.
  • the memory 110 stores map information and a target position, its own position, its own travel parameters, obstacle information, and the like.
  • the control unit 111 controls the units 112 to 116. Further, the control unit 111 controls the traveling device 30 based on information from the information input device 2, the environment recognition device 20, and the traveling device 30.
  • the self information estimation unit 112 estimates its own position and its own velocity. Specifically, the self-information estimation unit 112 determines the current state of the autonomous mobile device 1 based on the time history of the rotational speed of the motor 31 stored in the memory 110 from the encoder 32 (FIG. 2) via the control device 100. Coordinates, direction, forward speed and turning speed are calculated and stored in the memory 110.
  • the obstacle information estimation unit 113 estimates the speed of the moving obstacle by a method described in, for example, Japanese Patent Application Laid-Open No. 2008-65755. In this method, the obstacle information estimation unit 113 first detects an abrupt change point with respect to an angle at a certain distance value obtained from the laser scanner 21 at a certain time t, and divides the data sequence into groups of consecutive points. Are stored in the memory 110 as segments. That is, the obstacle information estimation unit 113 groups the shape point sequence as the same object based on the point at which the distance value changes rapidly. A grouped shape point sequence is a segment.
  • the obstacle information estimation unit 113 can recognize the representative position such as the center of gravity of each segment at time t and the feature amount such as the shape. Next, the obstacle information estimation unit 113 similarly calculates at time t + ⁇ t, and obtains the feature amount of each segment at time t + ⁇ t. Then, the obstacle information estimation unit 113 compares the feature amount of the segment obtained at time t with the feature amount of the segment obtained at time t + ⁇ t, and it is determined that the segments having similar feature amounts are the same obstacle. recognize. Then, the obstacle information estimation unit 113 estimates the speed of the obstacle from the amount of change of the representative position in each segment recognized as the same obstacle.
  • the obstacle information estimation unit 113 regards an obstacle whose moving speed of the obstacle is substantially “0” as a stationary obstacle, and other obstacles as a moving obstacle. Then, the obstacle information estimation unit 113 calculates and adds the velocity vck (vector) to the distance data point Ok in the same segment, and stores the calculated velocity in the memory 110.
  • the collision suspension processing unit 114 calculates collision suspension of the autonomous mobile device 1 itself and the obstacle based on the information on itself and the information on the mobile obstacle stored in the memory 110. In addition, the collision suspension processing unit 114 quantitatively determines suspension of the collision with the moving obstacle based on the calculated collision suspension. Further, the collision suspension processing unit 114 determines the traveling state, such as whether to maintain the current traveling state or to avoid the emergency, based on the collision suspension. Although calculation of suspension of collision will be described later with reference to FIG. 5, the period of suspension of collision is specifically, for example, a time until the autonomous mobile device 1 collides with a moving obstacle.
  • the avoidance pattern determination unit 115 determines a method for coping with an obstacle (avoidance pattern) based on its own speed, the speed of the moving obstacle, and the like.
  • the traveling control unit 116 calculates a traveling state determined by the collision suspension processing unit 114 and the avoidance pattern determining unit 115 and a control signal for executing the avoidance pattern, and transmits the control signal to the traveling device 30.
  • the memory 110 When the autonomous mobile device 1 is in operation, the memory 110 always receives input information from the information input device 2, environment information from the environment recognition device 20, travel information from the travel device 30, and each portion 112 of the control device 100 The calculation results of 116 are input and kept recorded / updated.
  • the information input device 2 is a device for inputting map information and a target point from the outside.
  • the traveling device 30 is a device for moving the autonomous mobile device 1, and the details will be described later with reference to FIG.
  • FIG. 2 is a schematic view of the autonomous mobile system according to the first embodiment.
  • 2A shows a front view of the autonomous mobile device and the information input device 2, and
  • FIG. 2B shows only a side view of the autonomous mobile device.
  • the autonomous mobile system Z includes an autonomous mobile device 1 performing autonomous mobile, and an information input device 2 for inputting information to the autonomous mobile device 1 via wireless LAN (Local Area Network) communication or the like.
  • LAN Local Area Network
  • the autonomous mobile device 1 includes an environment recognition device 20, a control device 100, a motor 31, an encoder 32, a drive wheel 33, a free caster 34, and a battery 40.
  • the control device 100 is described in detail in FIG.
  • the environment recognition device 20 is a device that recognizes other objects and terrain, and is a laser scanner 21 in the first embodiment.
  • the laser scanner 21 acquires a data point Ok of the distance to the obstacle measured at a predetermined angular interval as environmental information, and stores it in the memory 110 as a time history every predetermined seconds.
  • the height of the scanning surface of the laser scanner 21 is desirably, for example, about 0.8 m from the ground to pass near the pelvis of a person, but is not limited to this height.
  • the motor 31 is provided on the bottom of the autonomous mobile device 1 independently of each other.
  • the encoder 32 measures the rotational speed of each of the left and right motors 31.
  • the drive wheel 33 is driven by the motor 31 to move the autonomous mobile device 1 forward or backward.
  • the free caster 34 is capable of rolling in all directions, and supports the movement of the autonomous mobile device 1 such as turning.
  • the control device 100 advances and turns the autonomous mobile device 1 by controlling the rotational speeds of the left and right drive wheels 33 independently.
  • the motor rotation speed from the encoder 32 always transmits the latest value to the control device 100 during operation, and the control device 100 stores the time history of the motor rotation speed for the past several seconds in the memory 110.
  • the battery 40 supplies power to the environment recognition device 20 (laser scanner 21), the control device 100, the respective units 31 to 34, and the like.
  • FIG. 3 is a flowchart showing the processing procedure of the autonomous mobile device according to the first embodiment.
  • absolute coordinates or relative coordinates of the final destination point are input to the autonomous mobile device 1 through the information input device 2.
  • the self information estimation unit 112 calculates its own position pr, its own speed vr, the position of the distance data point (position of the moving obstacle) po, and the speed vc of the moving obstacle (S101 ).
  • the collision mitigation processing unit 114 acquires the position pr of itself, the speed vc of itself, the position of the distance data point (position of moving obstacle) po, and the speed vc of moving obstacle from the memory 110 (S101).
  • vc and vr are vectors.
  • speeds other than vc and vr are also vectors.
  • the collision suspension processing unit 114 calculates the collision suspension Mc (S102), and compares the calculated Mc with the respective threshold values Mmax and Mmin (Mmax>Mc> Mmin) (S103).
  • step S103 if Mc ⁇ Mmax (S103 ⁇ Mc ⁇ Mmax), the collision suspension processing unit 114 determines that there is sufficient suspension until the autonomous mobile device 1 collides with the moving obstacle, and the present Is maintained (S104), and the process proceeds to step S111.
  • Mc ⁇ Mmin S103 ⁇ Mc ⁇ Mmin
  • the collision suspension processing unit 114 has no suspension until the collision of the autonomous mobile device 1 with the moving obstacle, that is, the suspension of one hour until the collision is also It is determined that there is not. Therefore, the collision suspension processing unit 114 causes the traveling control unit 116 to perform emergency avoidance (S105), and the process proceeds to step S111.
  • the emergency avoidance is stop, sudden turning, etc., and what kind of avoidance is performed is set in advance.
  • step S103 if Mmin ⁇ Mc ⁇ Mmax (S103 ⁇ Mmin ⁇ Mc ⁇ Mmax), the avoidance pattern determination unit 115 determines that the collision suspension Mc is the velocity of the moving obstacle
  • is the norm of the vector. Further, in the following comparison, the relationship between the determination threshold values ⁇ and ⁇ is ⁇ ⁇ 0 ⁇ .
  • step S106 when it is
  • the avoidance pattern A will be described later with reference to FIG.
  • step S106 when
  • the avoidance pattern B will be described later with reference to FIG.
  • step S106 when ⁇ ⁇
  • the traveling control unit 116 causes the avoidance pattern C to be executed (S110), and the control unit 111 advances the process to step S111.
  • the avoidance pattern C will be described later with reference to FIG.
  • the traveling control unit 116 causes the autonomous mobile device 1 to travel according to the determined avoidance pattern (S111). Then, the traveling control unit 116 determines whether the traveling is completed (S112). That is, the traveling control unit 116 determines whether the autonomous mobile device 1 has reached the final destination point. As a result of step S112, when the traveling is not completed (S112 ⁇ No), the control unit 111 returns the process to step S101. As a result of step S112, when the traveling is completed (S112 ⁇ Yes), the control unit 111 ends the process.
  • FIG. 4 is a diagram showing an example of an avoidance pattern according to the present embodiment. Such an avoidance pattern is based on the tendency found by the inventor that a fast moving object is likely to avoid when two moving objects are present. This is based on the assumption that slow moving objects may be old people, disabled people, and so on.
  • vc is the speed of the moving obstacle
  • vr is the own speed of the autonomous mobile device 1 as described above.
  • Reference numeral 51 denotes a moving obstacle
  • reference numeral 52 denotes a stationary obstacle.
  • FIG. 4A shows an example of the avoidance pattern A in the case of
  • > ⁇ means that
  • the avoidance pattern determination unit 115 estimates that the movement ability of the moving obstacle is high.
  • the avoidance pattern determination unit 115 determines that the moving obstacle 51 is highly likely to change course for avoidance first. That is, when the autonomous mobile device 1 changes the course, the avoidance pattern determination unit 115 determines that there is a possibility that the moving obstacle 51 and the course overlap again and match each other. Therefore, as shown in FIG. 4A, the avoidance pattern determination unit 115 causes the traveling control unit 116 to perform “maintenance of current motion direction and speed” as the avoidance pattern A.
  • the avoidance pattern determination unit 115 determines that the collision allowance Mc is equal to or less than Mmin. Continue to maintain the current motion state (speed, motion direction). In the meantime, if the moving obstacle 51 changes its course, a collision can be avoided. By doing this, the autonomous mobile device 1 and the mobile obstacle 51 can pass each other quickly.
  • FIG. 4B is a diagram showing an example of the avoidance pattern B in the case of
  • means that
  • the avoidance pattern determination unit 115 estimates that the movement ability of the opposing moving obstacle 51 is low.
  • the avoidance pattern determination unit 115 determines that the collision can be avoided as the autonomous mobile device 1 changes the course promptly. Therefore, as shown in FIG. 5B, the avoidance pattern determination unit 115 causes the traveling control unit 116 to “turn in a direction in which the collision allowance Mc recalculated in step S109 is larger” as the avoidance pattern B.
  • the avoidance pattern determination unit 115 estimates a passing area Ai (i is a natural number, an area in which the autonomous mobile device 1 is estimated to pass until it collides with the moving obstacle 51 when maintaining a certain motion direction and speed). i is a number attached to the angle). As the estimated passage area Ai is longer in the traveling direction of the autonomous mobile device 1, the recalculation of the collision allowance Mc is larger. Therefore, the avoidance pattern determination unit 115 sets the estimated passing area for the current velocity to A0. Then, with reference to the A0, the avoidance pattern determination unit 115 searches for the collision postponement Mc in the left turn direction and the right turn direction in the ascending order of the turning angle in fixed angle steps. Then, the avoidance pattern determination unit 115 causes the traveling control unit 116 to turn the autonomous mobile device 1 in the turning direction ⁇ i of the estimated passing area Ax in which the collision allowance Mc is equal to or more than a predetermined value. To avoid.
  • FIG. 4C is a diagram showing an example of the avoidance pattern C in the case of ⁇ ⁇
  • ⁇ ⁇ means the difference between
  • the avoidance pattern determination unit 115 estimates that the movement ability of the opposing moving obstacle 51 is comparable to that of the autonomous mobile device 1. Therefore, the avoidance pattern determination unit 115 causes the traveling control unit 116 to perform "deceleration until ⁇ vc ⁇ > as shown in FIG. 5C. That is, the avoidance pattern determination unit 115 decelerates the autonomous mobile device 1 so that the speed of the moving obstacle 51 becomes relatively fast.
  • the avoidance pattern determination unit 115 faces the moving obstacle 51 (having the same speed as itself) satisfying ⁇ ⁇
  • the autonomous mobile device 1 can transmit to the moving obstacle 51 that there is no intention to change the course, and can urge the avoidance by the course change of the moving obstacle 51. If collision is avoided by the moving obstacle 51 changing its course before the collision suspension Mc becomes equal to or less than Mmin, the autonomous mobile device 1 can proceed faster than when it is completely stopped.
  • the movement ability of the moving obstacle 51 is judged by the moving speed with respect to itself, and it is judged whether the person should avoid the other as necessary, and both occur in the same direction, avoiding the other. It is possible to realize the autonomous mobile device 1 capable of efficiently moving while suppressing the occurrence of a match and a collision.
  • FIG. 5 is a diagram showing a detailed method of collision and budgeting.
  • the collision suspension processing unit 114 (FIG. 1) stores its own position pr and velocity vr stored in the memory 110 (FIG. 1), and position pok and velocity vck of the distance data point Ok in the moving obstacle (both in FIG. 5 (a)).
  • the collision suspension M is calculated based on the time until the collision when both continue the current movement.
  • the collision suspension processing unit 114 quantitatively determines, based on the collision suspension, whether or not there is a suspension in the collision with the moving obstacle.
  • “k” is the number of the shape point sequence observed by the laser scanner 21 as described above.
  • M (M1, M2, ..., Mk, ).
  • the collision postponement processing unit 114 first uses the equation (1) to determine the relative velocity vork and vork of the autonomous mobile device 1 with respect to the relative position prok and vck of the distance data point Ok with respect to pr shown in FIG. Calculate normal vector nork of.
  • the collision suspension processing unit 114 sets the time until the collision as tk, and calculates tk and sok using Expression (2).
  • the collision suspension processing unit 114 calculates the collision suspension Mk as shown in equation (3) from tk and sok calculated above.
  • Tmin and tmax are preset so as to be suitable according to the exercise performance of the autonomous mobile device 1, the surrounding environment, and the like. For example, tmin is set as the time until the autonomous mobile device 1 stops from the current speed vr. Then, tmax is set as a time until the autonomous mobile device 1 reaches the maximum measurable distance of the laser scanner 21 at the current own velocity vr.
  • the collision suspension processing unit 114 calculates the collision suspension Mk with all the distance data points Ok measured by the laser scanner 21, and the minimum value of Mk with the current final collision suspension Mc. Do.
  • the avoidance pattern determination unit 115 performs the above-described processing based on the calculated collision suspension Mc, the velocity vc (a velocity in the direction of Mc among vck), and the velocity vr of the autonomous mobile device 1, and sets a plurality of avoidances set in advance. An optimal pattern is selected from the patterns (avoided patterns A to C).
  • the traveling control unit 116 sends a drive voltage to the motor 31 according to the specification of the motor 31 so as to follow the avoidance pattern stored in the memory 110. In the present embodiment, although time is suspended for collision, the distance may be suspended for collision.
  • the avoidance pattern can be changed in accordance with the speed of the other party (moving obstacle) with respect to itself, appropriate avoidance can be performed.
  • the opponent is at a higher speed than the self, it is possible to prevent the extension of the traveling time to the destination by maintaining the exercise state of the self and having the opponent avoid the self.
  • the autonomous mobile system Za in the second embodiment changes the parameters (thresholds ⁇ and ⁇ ) for determining the avoidance pattern according to the degree of congestion.
  • FIG. 6 is a functional block diagram of the autonomous mobile system according to the second embodiment.
  • the autonomous mobile system Za includes a control device 100a, an information input device 2a, an environment recognition device 20, and a traveling device 30.
  • the difference from the autonomous mobile system Z of the first embodiment in the second embodiment will be described as follows.
  • (A1) Information of the environment recognition device 20 is input to the information input device 2a.
  • (A2) The programs of the control unit 211, the movement environment analysis unit 212, and the obstacle information estimation unit 213 are expanded in the memory 210 of the information input device 2a, and the respective programs are executed by the CPU 220. Processing results by the moving environment analysis unit 212 and the obstacle information estimation unit 213 of the information input device 2a are input to the control device 100a.
  • the obstacle information estimation unit 213 included in the control device 100 is included in the information input device 2a.
  • the congestion degree processing unit 117 that performs processing related to the congestion degree is executed on the memory 110 a of the control device 100 a.
  • the control unit 111, the self information estimation unit 112, the collision postponement processing unit 114, the avoidance pattern determination unit 115, the traveling control unit 116, and the traveling device 30 in the control device 100a are the same as in the first embodiment, and thus the description thereof is omitted. Do.
  • the programs of the control unit 211, the moving environment analysis unit 212, and the obstacle information estimation unit 213 are expanded in the memory 210 of the information input device 2a, and these programs are executed by the CPU 220.
  • the memory 210 also stores the time history of environmental information for the past several seconds input from the environment recognition device 20.
  • the movement environment analysis unit 212 calculates the degree of congestion by calculating the proportion of the obstacle in the captured image based on the information in the memory 210.
  • the obstacle information estimation unit 213 divides an obstacle into a stationary obstacle and a moving obstacle by the above-described method, calculates the moving speed of each obstacle, and stores the movement speed in the memory 110 a of the control device 100 a.
  • the moving environment analysis unit 212 and the obstacle information estimation unit 213 are included in the information input device 2a, but may be included in the control device 100a. Then, the information of the environment recognition device 20 may be directly input to the control device 100a. That is, in the control device 100a, calculation of the congestion degree, calculation of the moving speed of the obstacle, or the like may be performed.
  • the congestion degree processing unit 117 determines a threshold (described later) for determining an avoidance pattern according to the calculated congestion degree.
  • FIG. 7 is a schematic view of an autonomous mobile system according to a second embodiment.
  • FIG. 7A shows a front view of the autonomous mobile device and the information input device 2a
  • FIG. 7B shows only a side view of the autonomous mobile device.
  • the environment recognition device 20 is not provided in the autonomous mobile device 1a, and is installed in the environment as a ceiling camera 21a. An image captured by the ceiling camera 21a is input to the information input device 2a as environmental information.
  • the autonomous mobile device 1a includes the position indicator 50.
  • the motor 31, the encoder 32, the drive wheel 33, the free caster 34, and the battery 40 are the same as those in the first embodiment, and thus the description thereof is omitted.
  • the information input device 2a has already been described in FIG. Further, since the control device 100a has already been described in FIG. 6, the description thereof is omitted here.
  • the ceiling camera 21a as the environment recognition device 20 is a camera installed on the ceiling in the environment. Further, when the movement range is wide, a plurality of ceiling cameras 21a may be provided for each fixed distance.
  • the ceiling camera 21a may be installed at a position where the inside of the environment can be viewed from above, and may be suspended by, for example, a suspension unit.
  • the ceiling camera 21a is assumed to be fixed, the present invention is not limited to this, and the ceiling camera 21a may be movable by being suspended by a movable suspension unit.
  • the video (image) taken by the ceiling camera 21a is transmitted to the information input device 2a by wired or wireless communication.
  • the information input device 2a analyzes the traveling environment by the method described later in FIG. 8 from the video (image) input from the ceiling camera 21a (the environment recognition device 20), and analyzes the analysis result via the wireless LAN or the like to the control device 100a. Send to
  • the position indicator 50 is a device to make it easy to identify its position from the surroundings.
  • the height of the position indicator 50 is preferably, for example, about 1.0 m with a height about the height of the child as a guide, but is not limited to this height.
  • FIG. 8 is a flowchart showing the processing procedure of the autonomous mobile device according to the second embodiment.
  • the same processes as those in FIG. 3 will be assigned the same step numbers and descriptions thereof will be omitted, and only different processes will be described.
  • the movement environment analysis unit 212 calculates the congestion degree D (S201), and transmits the calculated congestion degree D to the control device 100a.
  • the self information estimation unit 112 calculates its own position pr, its own speed vr, the position of the distance data point (position of the moving obstacle) po, and the speed vc of the moving obstacle (S101).
  • the congestion degree processing unit 117 determines the thresholds ⁇ and ⁇ based on the calculated congestion degree D (S202) ). For example, when the congestion degree D is smaller than the reference value Dmin (a reference value for determining that the moving environment is sufficiently open), the congestion degree processing unit 117 hardly generates a match, so ⁇ , ⁇ Set both sides large. This makes the above-mentioned avoidance pattern B easy to occur.
  • Dmin a reference value for determining that the moving environment is sufficiently open
  • the congestion degree processing unit 117 causes the autonomous moving device 1a to turn at another moving obstacle In order to significantly inhibit the flow of ⁇ , set ⁇ small. By doing this, the above-described avoidance patterns A and C are likely to occur.
  • the avoidance pattern determination unit 115 performs the same processing as steps S107 to S112 in FIG. 3 using the determined threshold values ⁇ and ⁇ .
  • the autonomous mobile device 1a that determines the avoidance pattern in accordance with the selection criteria set in accordance with the degree of congestion of the moving environment.
  • FIG. 9 is a diagram showing a detailed method of congestion degree calculation according to the second embodiment.
  • a captured image including a large number of floors is selected from images captured by a plurality of ceiling cameras 21a (FIG. 6). The selection is made, for example, manually by the user.
  • the moving environment analysis unit 212 generates a histogram of RGB (red Green Blue) intensity as shown in FIG. 9B from the selected captured image. The color in the vicinity of each peak Rm, Gm, Bm of RGB is assumed to be the color of the floor. Therefore, the moving environment analysis unit 212 sets the RGB intensity that satisfies Equation (4) as the floor color Qf based on the generated histogram.
  • RGB red Green Blue
  • Qf may be extracted in advance and stored in the memory 210 of the information input device 2a or the memory 110a of the autonomous mobile device 1a.
  • the movement environment analysis unit 212 extracts a portion of a color other than the color Qf of the floor from the predetermined captured image captured by the ceiling camera 21a. By doing this, the moving environment analysis unit 212 extracts an object other than the floor (that is, an obstacle) in the area of colors other than Qf in the captured image as shown in FIG. 9C.
  • the obstacles extracted at this time include both stationary obstacles and mobile obstacles.
  • the movement environment analysis unit 212 quantitatively calculates the degree of congestion D of the movement environment by calculating the proportion of an object (obstacle) other than the floor occupying the area in the captured image.
  • FIG. 10 is a diagram showing details of the method of acquiring the position and velocity of the moving obstacle according to the second embodiment.
  • the technology described in the first embodiment calculates the position and velocity of a moving obstacle for a shape point sequence by the laser scanner 21.
  • the technique described in the second embodiment uses the ceiling camera 21a, so it is necessary to calculate again the equivalent of the shape point sequence of the laser scanner 21. Therefore, in the second embodiment, the moving environment analysis unit 212 classifies the pixels in the captured image at a certain time t into other than the floor and the floor using the method illustrated in FIG. After that, the floor and the image classified into other than the floor are transmitted to the control device 100a.
  • the obstacle information estimation unit 213 determines that adjacent pixels in pixels classified as other than the floor (that is, pixels of the obstacle) are pixels of the same obstacle, as shown in FIG. 10A. Divide the pixels into segments. That is, the obstacle information estimation unit 213 performs grouping of pixels to generate a segment.
  • the obstacle information estimation unit 213 extracts feature amounts such as a representative position, a color, and a size from the divided segments.
  • the obstacle information estimation unit 213 stores the extracted feature quantities as a list in the memory 110a. Thereafter, the obstacle information estimation unit 213 performs the same process on the captured image after the micro time ⁇ t seconds, and those having similar feature quantities are determined to be the same object, and the velocity vc of the object is determined from the change amount of the representative position.
  • the representative position is, for example, the center po of the segment.
  • the obstacle information estimation unit 213 assigns the area occupied by the obstacle to a grid whose roughness is large enough to ignore the size, and the speed vck and the position pok are given to each grid. Is stored in the memory 110a.
  • the velocity vck and the position pok are generally, for example, the velocity and the position of the center of the grid as shown in FIG. 10 (b), but it is not limited thereto.
  • the velocity vck and the position pok here correspond to vck and pok in FIG. From this, the collision suspension processing unit 114 can calculate the collision suspension by the method described in FIG. 5.
  • the collision suspension processing unit 114 can calculate collision suspension and the like by the same method as that of the first embodiment. That is, the obstacle information estimation unit 213 can use the same method as that in FIG. 5 by providing the grid with the speed information, the position information, and the like as illustrated in FIG. 10B.
  • the roughness of the grid may be suitably set by the user according to the size and the movement performance of the autonomous mobile device 1a.
  • the avoidance pattern can be selected according to the environment.
  • the autonomous mobile devices 1 and 1a in the first embodiment and the second embodiment determine the avoidance pattern based on the actual velocity of the mobile obstacle, the mobile object based on the image captured by the camera The type of may be determined. Then, the control unit 111 of the autonomous mobile device 1 or 1a may estimate the speed (exercise ability) of the opponent with respect to itself based on the determined type of the moving object. The control unit 111 classifies, for example, an elderly person with an opponent's moving obstacle with a walking stick, an injured person, a person pushing a cart, a person looking away, etc., as the moving obstacle type. Then, the control unit 111 determines that the athletic ability of these persons is lower than itself.
  • control unit 111 determines that the speed of these persons is slower than itself.
  • control unit 111 determines that, for example, a healthy adult male or a person running is high in exercise capacity. That is, the control unit 111 determines that the speed of these persons is faster than itself.
  • the autonomous mobile devices 1 and 1a can distinguish between a person who is healthy but walking slowly, and who has potential avoidance ability and who has potentially low avoidance ability. it can.
  • the autonomous mobile devices 1 and 1a which concern on this embodiment change the avoidance pattern of self according to the movement state of a moving obstacle
  • the technique of patent document 1 is the movement which is not related to itself. The avoidance is performed based on the state, which is different from the technology described in the present embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

 スムーズな自律移動を実現することを課題とする。 自律移動装置とは別の移動障害物における、自律移動装置に対する運動状態に応じて、自身の走行パターンを決定する回避パターン決定部(115)と、回避パターン決定部(115)が決定した走行パターンに従って自律移動装置(1)を走行させる走行制御部(116)と、を有することを特徴とする。ここで、移動障害物が自身より十分に速ければ、自律移動装置は自身の速度と走行方向を維持する。また、移動障害物が自身より十分に遅ければ、自律移動装置は移動障害物を回避する。そして、移動障害物が自身と同程度の速度であれば、自律移動装置は走行方向を維持したまま、自身の速度を低下させる。

Description

自律移動装置、自律移動システムおよび自律移動方法
 本発明は、障害物回避能力を備えた自律移動装置、自律移動システムおよび自律移動方法の技術に関する。
 障害物回避能力を備えた自律移動装置に関する技術として特許文献1が開示されている。特許文献1に記載の技術は、障害物の移動し得る範囲に、自律移動装置が侵入できない領域(侵入不可領域)を設定するものである。そして、自律移動装置は侵入不可領域を避けるように移動する。
 さらに、特許文献2が開示されている。特許文献2に記載の技術において、自律移動装置は障害物を検出したとき、赤外線センサにより、その障害物が人であるか否かを判断するものである。そして、自律移動装置は、障害物が人である場合は停止して一定時間待機する。また、自律移動装置は、一定時間経過後もなお障害物が存在する場合には回避動作に移り、障害物が存在しなくなった場合には走行を再開する。
特開2009-157615号公報 特開平9-185412号公報
 自律移動装置が、人など自律的に移動する移動障害物と向かい合って同じ進路上を移動しているとする。このようなときに、自律移動装置が、移動障害物との衝突を防ぐために回避行動をとる際に、両者が同じ方向へ相手を避けて再び相対し、互いに見合う状態で一時停止する(以後、お見合いと称する)ことがある。このようなお見合いは、病院や駅など混雑している状況下で頻発する。従って、このような場所では、衝突の危険が高まるとともに自律移動装置の移動が著しく妨げられるので目的地到着に時間がかかるといった問題がある。そのため、このようなお見合いを抑制して効率的に移動したいという新たな課題がある。
 例えば、前記したように、移動障害物の移動可能性のある領域をすべて自律移動装置が侵入できない侵入不可領域として設定する特許文献1に記載の技術がある。しかしながら、この技術は相手の回避行動を予測せずに侵入不可領域が広く設定されるため、人混み環境や峡路では、侵入不可領域で自律移動装置の移動先がふさがれ、通行困難となる。つまり、特許文献1の技術では、混雑している環境下において、移動障害物の周囲の侵入不可領域で通路が覆われてしまい、自律移動装置が移動できなくなってしまう。
 従って、人混み環境や狭路では、相手に応じて必要な時だけ回避手段を講じるのが望ましい。必要な時だけ回避を行う方法として、例えば、前記した特許文献2のように、障害物が自律的に移動する移動障害物である場合は相手が存在しなくなるまで一定時間待機する技術がある。しかしながら、相手が自律移動装置よりも機敏に動ける運動能力の高い移動障害物であれば、自律移動装置が相手を避けるよりも、相手が道を空けるまで待機した方が効率的であることを発明者は確認した。一方、相手が歩行困難者など運動能力の乏しい移動障害物であった場合、相手が道を空けるまで待機すると時間がかかり非効率的となってしまう。特に、病院や駅などの人混み環境では相手が道を空けるまでの待機が頻発し、結局のところ、自律移動装置が目的地に到着するまでに時間を要することになってしまう。従って、回避が必要かどうかの判断には、相手の運動能力を考慮することが望ましい。
 このような背景に鑑みて本発明がなされたのであり、本発明は、お見合いの回数を減少させることを課題とする。
 前記課題を解決するため、本発明は、自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定する回避パターン決定部と、前記回避パターン決定部が決定した走行パターンに従って前記自律移動装置を走行させる走行制御部と、を有することを特徴とする。
 本発明によれば、お見合いの回数を減少させることができる。
第1実施形態に係る自律移動システムの機能ブロック図である。 第1実施形態に係る自律移動システムの概略図である。 第1実施形態に係る自律移動装置の処理手順を示すフローチャートである。 回避パターンの例を示す図である。 衝突猶予算出の詳細な手法を示す図である。 第2実施形態に係る自律移動システムの機能ブロック図である。 第2実施形態に係る自律移動システムの概略図である。 第2実施形態に係る自律移動装置の処理手順を示すフローチャートである。 第2実施形態に係る混雑度算出の詳細な手法を示す図である。 第2実施形態に係る移動障害物の位置および速度の取得手法の詳細を示す図である。
 次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。なお、各図面において、同様の構成要素については、同一の符号を付して説明を省略する。
《第1実施形態》
 図1~図5を参照することによって、本発明に係る第1実施形態を説明する。
[機能ブロック図]
 図1は、第1実施形態に係る自律移動システムの機能ブロック図である。
 自律移動システムZは、制御装置100と、情報入力装置2と、環境認識装置20と、走行装置30とを有する。これらの装置のうち、環境認識装置20と、走行装置30については図2を参照して後記する。
 制御装置100は、メモリ110とCPU(Central Processing Unit)120とを有している。メモリ110には、制御部111、自己情報推定部112、障害物情報推定部113、衝突猶予処理部114、回避パターン決定部115、走行制御部116の各プログラムが展開されており、これらの各プログラムがCPU120によって実行されている。また、メモリ110には、地図情報と目標位置、自身の位置、自身の走行パラメータ、障害物の情報などが格納されている。
 制御部111は、各部112~116を制御する。また、制御部111は、情報入力装置2や、環境認識装置20や、走行装置30からの情報を基に走行装置30を制御する
 自己情報推定部112は、自身の位置や自身の速度を推定する。具体的には、自己情報推定部112は、エンコーダ32(図2)から制御装置100を介してメモリ110に格納されたモータ31の回転速度の時刻歴を基に、自律移動装置1の現在の座標や向きや、前進速度や旋回速度を算出し、メモリ110へ格納する。
 障害物情報推定部113は、移動障害物の位置や速度を推定する。具体的には、障害物情報推定部113は、環境認識装置20からメモリ110に格納された障害物までの距離データ点Ok(k=1,2,3,・・・,n:nは1回のレーザスキャンで得られる形状点列の個数)の時刻歴を基に障害物の位置と速度を計算する。障害物情報推定部113は、例えば特開2008-65755号公報に記載されている方法で移動障害物の速度を推定する。この方法において、障害物情報推定部113は、まず、ある時刻tにレーザスキャナ21から得られた距離値において、角度に対する急激な変化点を検出し、連続する点のまとまりごとにデータ列を分割してセグメントとしてメモリ110に保存する。つまり、障害物情報推定部113は距離値が急激に変化する点を基に、形状点列を同一の物体としてグルーピングする。グルーピングされた形状点列がセグメントとなる。
 これによって、障害物情報推定部113は時刻tにおける各セグメントの重心などの代表位置、形状などの特徴量を認識することができる。次に、障害物情報推定部113は、時刻t+Δtで同様に計算し、時刻t+Δtにおける各セグメントの特徴量を得る。そして、障害物情報推定部113は、時刻tで得られたセグメントの特徴量と、時刻t+Δtで得られたセグメントの特徴量を比較し、特徴量の近いセグメント同士は同一の障害物であると認識する。そして、障害物情報推定部113は、同一の障害物として認識した各セグメントにおける代表位置の変化量から、障害物の速度を推定する。障害物情報推定部113は障害物の移動速度が略「0」である障害物は静止障害物とみなし、それ以外の障害物は移動障害物とみなす。そして、障害物情報推定部113は同一セグメント内の距離データ点Okには速度vck(ベクトル)を算出・付加し、算出した速度をメモリ110に格納する。
 衝突猶予処理部114は、メモリ110に格納されている自身に関する情報と移動障害物の情報を基に、自律移動装置1自身と障害物との衝突猶予を算出する。また、衝突猶予処理部114は、算出した衝突猶予を基に、移動障害物との衝突に対する猶予を定量的に判定する。また、衝突猶予処理部114は、衝突猶予を基に、現状の走行状態を維持するか、緊急回避するかなどの走行状態を決定する。衝突猶予の算出は、図5を参照して後記するが、衝突猶予は、具体的には、例えば自律移動装置1が移動障害物に衝突するまでの時間である。
 回避パターン決定部115は、自身の速度と、移動障害物の速度などを基に、障害物への対処方法(回避パターン)を決定する。
 走行制御部116は、衝突猶予処理部114や、回避パターン決定部115が決定した走行状態や、回避パターンを実行するための制御信号を計算し、走行装置30へ送信する。
 自律移動装置1が動作中であるとき、メモリ110には常に情報入力装置2からの入力情報、環境認識装置20からの環境情報、走行装置30からの走行情報、および制御装置100における各部112~116の計算結果が入力され、記録・更新され続ける。
 情報入力装置2は、外部から地図情報や目標地点を入力するための装置である。
 走行装置30は、自律移動装置1を移動するための装置であり、詳細は図2を参照して後記する。
[概略図]
 図2は、第1実施形態に係る自律移動システムの概略図である。図2(a)は自律移動装置の正面図と、情報入力装置2を示しており、図2(b)では自律移動装置の側面図のみを示している。なお、図2において図1と同様の構成要素については、同一の符号を付して説明を省略する。
 自律移動システムZは、自律移動を行う自律移動装置1と、無線LAN(Local Area Network)通信などを介して自律移動装置1に情報を入力する情報入力装置2を有する。ここで、情報入力装置2は、図1で説明済みなので、図2では説明を省略する。
 図2に示すように、自律移動装置1は、環境認識装置20、制御装置100、モータ31、エンコーダ32、駆動輪33、自在式キャスタ34、バッテリ40を有している。これらの装置のうち、制御装置100は図1にて詳細に説明しているので説明を省略する。
 環境認識装置20は、他の物体や地形を認識する装置であり、第1実施形態ではレーザスキャナ21である。レーザスキャナ21は、所定の角度間隔で測定した障害物までの距離のデータ点Okを環境情報として取得し、所定秒毎に時刻歴としてメモリ110へ格納する。なお、本実施形態では単に「障害物」と記載したときは静止障害物、移動障害物を含んでおり、移動している障害物のみを記載する場合は、「移動障害物」と記載することとする。レーザスキャナ21の走査面の高さは、例えば人の骨盤付近を通るよう地面から0.8m程度にすることが望ましいが、この高さに限らない。
 モータ31は、自律移動装置1の機体底部に左右独立して備えられている。
 エンコーダ32は、左右それぞれのモータ31の回転速度を計測する。
 駆動輪33は、モータ31により駆動し、自律移動装置1を前方あるいは後方へ移動させる。
 自在式キャスタ34は、全方位へ転がることが可能であり、自律移動装置1の旋回などの動きを助ける。
 制御装置100は、左右の駆動輪33の回転数を独立に制御することによって、自律移動装置1の前進・旋回を行う。エンコーダ32からのモータ回転速度は動作中常に最新の値を制御装置100へ送信され、制御装置100は、過去数秒分のモータ回転速度の時刻歴をメモリ110へ保存する。
 バッテリ40は、環境認識装置20(レーザスキャナ21)、制御装置100、各部31~34などへ電力を供給するものである。
[フローチャート]
 図3は、第1実施形態に係る自律移動装置の処理手順を示すフローチャートである。
 まず、情報入力装置2を介して、自律移動装置1に最終目的地点の絶対座標あるいは相対座標が入力される。そして、任意のタイミングで、情報入力装置2を介して、自律移動装置1の動作の開始が指示されると、以下の処理が開始される。
 処理が開始されると、自己情報推定部112が自身の位置prと、自身の速度vrと、距離データ点の位置(移動障害物の位置)poおよび移動障害物の速度vcを算出する(S101)。そして、衝突猶予処理部114がメモリ110から自身の位置prと、自身の速度vcと、距離データ点の位置(移動障害物の位置)poおよび移動障害物の速度vcを取得する(S101)。ここで、vc,vrはベクトルである。以下、vc,vr以外の速度もベクトルとする。
 続いて、衝突猶予処理部114が衝突猶予Mcを算出し(S102)、算出したMcと各閾値Mmax,Mmin(Mmax>Mc>Mmin)とを比較する(S103)。
 ステップS103の結果、Mc≧Mmaxであるである場合(S103→Mc≧Mmax)、衝突猶予処理部114は、自律移動装置1が移動障害物に衝突するまで十分猶予があると判定して、現在の走行状態を維持して(S104)、ステップS111へ処理を進める。
 ステップS103の結果、Mc≦Mminである場合(S103→Mc≦Mmin)、衝突猶予処理部114は、自律移動装置1が移動障害物との衝突まで猶予がない、つまり、衝突まで一刻の猶予もないと判定する。そこで、衝突猶予処理部114は、走行制御部116に緊急回避を行わせ(S105)、ステップS111へ処理を進める。緊急回避は、停止や、急旋回などであり、どのような回避を行うかは予め設定されている。
 ステップS103の結果、Mmin<Mc<Mmaxである場合(S103→Mmin<Mc<Mmax)、回避パターン決定部115は衝突猶予Mcを、移動障害物の速度||vc||と、自律移動装置1の速度||vr||とを比較する(S106)。ここで、||・||はベクトルのノルムである。また、以下の比較において、判定閾値α,βの関係はβ<0<αである。
 ステップS106の結果、||vc||-||vr||>αである場合(S106→||vc||-||vr||>α)、回避パターン決定部115は、走行制御部116に回避パターンAを実行させ(S107)、制御部111はステップS111へ処理を進める。回避パターンAについては、図4で後記する。
 ステップS106の結果、||vc||-||vr||<βである場合(S106→||vc||-||vr||<β)、回避パターン決定部115は、衝突猶予Mcを再算出する(S108)。そして、回避パターン決定部115は、再算出した衝突猶予Mを基に、走行制御部116に回避パターンBを実行させ(S109)、制御部111はステップS111へ処理を進める。回避パターンBについては、図4で後記する。
 ステップS106の結果、β≦||vc||-||vr||≦αである場合(S106→β≦||vc||-||vr||≦α)、回避パターン決定部115は、走行制御部116に回避パターンCを実行させ(S110)、制御部111はステップS111へ処理を進める。回避パターンCについては、図4で後記する。
 ステップS104、S105,S107,S109,S110の後、走行制御部116は決定された回避パターンに従って自律移動装置1を走行させる(S111)。
 そして、走行制御部116は、走行が完了したか否かを判定する(S112)。つまり、走行制御部116は、自律移動装置1が最終目的地点に到達したか否かを判定する。
 ステップS112の結果、走行が完了していない場合(S112→No)、制御部111はステップS101へ処理を戻す。
 ステップS112の結果、走行が完了している場合(S112→Yes)、制御部111は処理を終了する。
[回避パターン]
 図4は、本実施形態に係る回避パターンの例を示す図である。このような回避パターンは、2つの移動物が存在するとき、速度の速い移動物が回避を行う可能性が高いという、発明者が見出した傾向に基づくものである。これは、速度の遅い移動物が、老人や、障害者などである可能性があるという推定に基づくものである。
 図4において、前記したようにvcは移動障害物の速度であり、vrは自律移動装置1の自身の速度である。また、符号51は移動障害物を示し、符号52は静止障害物を示す。
(||vc||-||vr||>α:回避パターンA)
 図4(a)は、||vc||-||vr||>αの場合における回避パターンAの例を示す図である。つまり、図4(a)は図3のステップS107で実行される回避パターンAの例を示す図である。
 ここで、||vc||-||vr||>αであるということは、||vc||が||vr||より大きく、その差が高速判定閾値αより大きいということである。このような場合、回避パターン決定部115は、移動障害物の運動能力が高いと推定する。
 そのため、回避パターン決定部115は移動障害物51が先に回避のための進路変更を行う可能性が高いと判定する。つまり、回避パターン決定部115は、自律移動装置1が進路変更を行うと、移動障害物51と再び進路が重なってお見合いする可能性があると判定する。そこで、回避パターン決定部115は回避パターンAとして、図4(a)に示すように、「現在の運動方向および速度の維持」を走行制御部116に行わせる。
 要するに、||vc||―||vr||>αを満たす(つまり自身より十分高速である)移動障害物51と対面した際、回避パターン決定部115は、衝突猶予McがMmin以下になるまで現在の運動状態(速度、運動方向)を維持し続ける。その間に、移動障害物51が進路変更を行えば、衝突を回避することができる。このようにすることで、自律移動装置1と移動障害物51は、すみやかにすれ違うことができる。
(||vc||-||vr||<β:回避パターンB)
 図4(b)は、||vc||-||vr||<β(<0)の場合における回避パターンBの例を示す図である。つまり、図4(b)は図3のステップS109で実行される回避パターンBの例を示す図である。
 ここで、||vc||-||vr||<βであるということは、||vc||が||vr||より小さく、その差が低速判定閾値βより大きいということである。このような場合、回避パターン決定部115は相対する移動障害物51の運動能力が低いと推定する
 そのため、回避パターン決定部115は。直ちに移動障害物51が回避のための進路変更を行う可能性は低いと判定する。つまり、回避パターン決定部115は自律移動装置1がすみやかに進路変更を行うことにより、衝突を回避できると判定する。そこで、回避パターン決定部115は回避パターンBとして、図5(b)に示すように「ステップS109で再算出した衝突猶予Mcが大きい方向へ旋回」を走行制御部116に行わせる。
 ここで、回避パターン決定部115は、ある運動方向および速度を維持した場合に、移動障害物51と衝突するまで自律移動装置1が通過すると推定した領域を、推定通過領域Ai(iは自然数、iは角度に対して付される番号)とする。推定通過領域Aiが自律移動装置1の進行方向に長いほど、再算出した衝突猶予Mcが大きくなる。そこで、回避パターン決定部115は、現在の速度に対する推定通過領域をA0とする。そして、回避パターン決定部115は、このA0を基準として、左旋回方向、右旋回方向へ、旋回角度が小さい順に一定角度刻みで衝突猶予Mcを探索する。そして、回避パターン決定部115は、走行制御部116に衝突猶予Mcが予め設定した一定値以上となった推定通過領域Axの旋回方向θiへ自律移動装置1を旋回させることで、物体との衝突を回避する。
(β≦||vc||-||vr||≦α:回避パターンC)
 図4(c)は、β≦||vc||-||vr||≦αの場合における回避パターンCの例を示す図である。つまり、図4(c)は図3のステップS110で実行される回避パターンCの例を示す図である。
 ここで、β≦||vc||-||vr||≦αであるということは、||vc||と||vr||の差である||vc||-||vr||が、低速判定閾値βより大きく、高速判定閾値αより小さいということである。このような場合、回避パターン決定部115は、相対する移動障害物51の運動能力が自律移動装置1と同程度であると推定する。
 そのため、回避パターン決定部115は走行制御部116に、図5(c)に示すように「||vc||-||vr||>αとなるまで減速」を行わせる。つまり、回避パターン決定部115は、移動障害物51の速度が相対的に早くなるよう、自律移動装置1を減速させる。
 要するに、回避パターン決定部115は、β≦||vc||-||vr||≦αを満たす(自身と同程度の速度を有する)移動障害物51と対面した際、自身の速度を||vc||-||vra||>αとなる速度vraまで減速させる。これは、移動障害物51の速度を相対的に速くさせ、回避パターンAの状態を強制的に発生させるためである。
 このようにすることにより、自律移動装置1は進路変更する意思のないことが移動障害物51に伝わり、移動障害物51の進路変更による回避を促すことができる。衝突猶予McがMmin以下となる前に、移動障害物51が進路変更することより衝突を回避すれば、自律移動装置1が完全停止するよりも速く進むことができる。
 以上のように、移動障害物51の運動能力を自身に対する移動速度で判断し、必要に応じて自身が相手を回避するべきかを判断して、双方ともに同じ方向へ相手を避けて発生するお見合いや衝突を抑制しつつ、効率的に移動可能な自律移動装置1を実現できる。
[衝突猶予算出の詳細]
 図5は、衝突猶予算出の詳細な手法を示す図である。
 衝突猶予処理部114(図1)は、メモリ110(図1)に保存した自身の位置prと速度vr、移動障害物における距離データ点Okの位置pokと速度vck(いずれも図5(a))を基に、衝突猶予Mを算出する。本実施形態では、衝突猶予Mとは、両者が現在の運動を続けた場合に衝突するまでの時間を基に算出されている。そして、衝突猶予処理部114は、衝突猶予を基に、移動障害物との衝突に猶予があるか否かを定量的に判定している。ここで、「k」は、前記したようにレーザスキャナ21で観測される形状点列の番号である。例えば、M=(M1,M2,・・・,Mk,・・・)である。
 図5(a)のように、自律移動装置1の横幅がwr、位置がpr、速度がvrのとき、位置pok、速度vckである距離データ点Ok(移動障害物の形状点列の1つ)があるとする。このような場合、衝突猶予処理部114は、まず、式(1)を用いて図4(b)示すprに対する距離データ点Okの相対位置prok,vckに対する自律移動装置1の相対速度vorkおよびvorkの法線ベクトルnorkを算出する。
Figure JPOXMLDOC01-appb-M000001
 
 ここで、vorkにおける距離データ点Okとの法線方向距離sokがwr以下の場合、自律移動装置1が距離データ点Okと衝突する可能性がある。ただし図4では、安全性を考慮してwrが自律移動装置1の幅より大きくなるよう設定している。そして、衝突猶予処理部114は、衝突するまでの時間をtkとし、tkとsokを式(2)で計算する。
Figure JPOXMLDOC01-appb-M000002
 
 さらに、衝突猶予処理部114は、以上より計算したtkとsokから、衝突猶予Mkを式(3)のように計算する。
Figure JPOXMLDOC01-appb-M000003
 
 tminとtmaxは自律移動装置1の運動性能、周囲環境などに応じて好適となるよう予め設定されている。例えば、tminは、自律移動装置1が現在速度vrから停止するまでの時間として設定される。そして、tmaxは自律移動装置1が現在における自身の速度vrでレーザスキャナ21の最大測定可能距離へ到達するまでの時間として設定される。
 このようにして、衝突猶予処理部114は、レーザスキャナ21で測定されたすべての距離データ点Okとの衝突猶予Mkを計算し、Mkのうち、最小値を現在の最終的な衝突猶予Mcとする。
 回避パターン決定部115は、算出された衝突猶予Mc、速度vc(vckのうち、Mcの方向の速度)、自律移動装置1の速度vrを基に前記した処理を行い、予め設定した複数の回避パターン(回避パターンA~C)から最適なものを選択する。
 走行制御部116は、メモリ110に保存した回避パターンに従うようモータ31の仕様に応じた駆動電圧をモータ31へ送る。
 なお、本実施形態は、時間を衝突猶予としているが、距離を衝突猶予としてもよい。
 第1実施形態によれば、自身に対する相手(移動障害物)の速度に応じて回避パターンを変更できるので、適切な回避を行うことができる。特に、相手が自身より早い速度である場合には、自身の運動状態を維持して、相手に自身を回避してもらうことで、目的地までの移動時間の延長を防止することができる。
《第2実施形態》
 次に、図6~図10を参照することによって、本発明に係る第2実施形態を説明する。
 第2実施形態における自律移動システムZaは、回避パターンを決定するパラメータ(閾値α,β)を混雑度によって変更するものである。
[機能ブロック図]
 図6は、第2実施形態に係る自律移動システムの機能ブロック図である。
 自律移動システムZaは、制御装置100aと、情報入力装置2aと、環境認識装置20と、走行装置30とを有する。
 ここで、第2実施形態における第1実施形態の自律移動システムZとの差異を説明すると以下のようになる。
(a1)環境認識装置20の情報は、情報入力装置2aに入力される。
(a2)情報入力装置2aのメモリ210には制御部211、移動環境解析部212、障害物情報推定部213のプログラムが展開されており、CPU220によって各プログラムが実行されている。情報入力装置2aの移動環境解析部212、障害物情報推定部213による処理結果は、制御装置100aへ入力される。
(a3)第1実施形態では、制御装置100に備えられていた障害物情報推定部213が、情報入力装置2aに備えられている。
(a4)混雑度に関する処理を行う混雑度処理部117が制御装置100aのメモリ110a上で実行されている。
 以下、情報入力装置2aおよび混雑度処理部117を説明する。なお、制御装置100aにおける制御部111、自己情報推定部112、衝突猶予処理部114、回避パターン決定部115、走行制御部116、走行装置30は、第1実施形態と同様であるので説明を省略する。
 情報入力装置2aのメモリ210には、前記したように制御部211、移動環境解析部212、障害物情報推定部213のプログラムが展開され、CPU220によってこれらの各プログラム実行されている。また、メモリ210に、環境認識装置20から入力された過去数秒分の環境情報の時刻歴が格納されている。
 移動環境解析部212は、メモリ210内の情報を基に、撮像画像内において障害物が占める割合を算出することで混雑度を算出する。
 障害物情報推定部213は、前記した手法によって障害物を静止障害物と、移動障害物とに分け、各障害物の移動速度などを算出し、制御装置100aのメモリ110aに格納する。
 なお、図6では、移動環境解析部212と障害物情報推定部213が、情報入力装置2aに備えられているが、制御装置100aに備えられていてもよい。そして、環境認識装置20の情報は、直接制御装置100aに入力されてもよい。つまり、制御装置100aにおいて、混雑度の算出や、障害物の移動速度の算出などが行われてもよい。
 混雑度処理部117は、算出した混雑度に応じて回避パターンを決定するための閾値(後記)を決定する。
 図7は、第2実施形態に係る自律移動システムの概略図である。図7(a)は自律移動装置の正面図と、情報入力装置2aを示しており、図7(b)では自律移動装置の側面図のみを示している。
 ここで、図7における自律移動システムZaと、図3の自律移動システムZとの差異を説明すると以下のようになる。
(b1)環境認識装置20が、自律移動装置1aに備えられておらず、天井カメラ21aとして環境内に設置されている。天井カメラ21aで撮影された画像は環境情報として情報入力装置2aに入力される。
(b1)自律移動装置1aが位置表示器50を備えている。
 なお、モータ31、エンコーダ32、駆動輪33、自在式キャスタ34、バッテリ40については、第1実施形態と同様であるため、説明を省略する。そして、情報入力装置2aは、図6において説明済みであるので、説明を省略する。また、制御装置100aは図6で説明済みであるので、ここでの説明を省略する。
 環境認識装置20としての天井カメラ21aは、環境内において天井に設置されているカメラである。また、移動範囲が広範な場合は一定距離ごとに複数の天井カメラ21aが設けられてもよい。なお、天井カメラ21aは、環境内を上から見渡せる位置に設置されていればよく、例えば、吊下手段などで吊り下げられている形状でもよい。また、天井カメラ21aは固定されていることを想定されているが、これに限らず、移動可能な吊下手段に吊下げられることで移動可能であってもよい。
 天井カメラ21aで撮像された映像(画像)は、有線あるいは無線通信によって情報入力装置2aへ送信される。情報入力装置2aは、天井カメラ21a(環境認識装置20)から入力された映像(画像)から、図8で後記する手法によって走行環境を解析し、この解析結果を無線LAN経由などで制御装置100aへ送信する。
 位置表示器50は、周囲から自身の位置を分かりやすくするため装置である。位置表示器50の高さは、例えば、子どもの背丈くらいの高さを目安に1.0m程度にすることが望ましいが、この高さに限らない。
 図8は、第2実施形態に係る自律移動装置の処理手順を示すフローチャートである。なお、図8では、図3と同様の処理については、同一のステップ番号を付して説明を省略し、異なる処理についてのみ説明する。
 まず、処理が開始されると、移動環境解析部212が混雑度Dを算出し(S201)、算出した混雑度Dを制御装置100aへ送信する。その後、自己情報推定部112が自身の位置prと、自身の速度vrと、距離データ点の位置(移動障害物の位置)poおよび移動障害物の速度vcを算出する(S101)。
 そして、ステップS103の結果、Mmin<Mc<Mmaxである場合(S104→Mmin<Mc<Mmax)、混雑度処理部117は、算出した混雑度Dを基に、閾値α,βを決定する(S202)。
 例えば、混雑度Dが基準値Dmin(十分に移動環境が空いていると判断するための基準値)よりも小さい場合、混雑度処理部117は、お見合いが発生しにくいことから、α、β双方を大きく設定する。こうすることにより、前記した回避パターンBが起こりやすくする。
 また、混雑度Dが基準値Dmax(移動環境が極端に混雑していると判断するための基準値)より大きい場合、混雑度処理部117は、自律移動装置1aの旋回が他の移動障害物の流れを著しく阻害するため、βを小さく設定する。こうすることにより、前記した回避パターンA,Cが起こりやすくなる。
 ステップS202の後、回避パターン決定部115は決定した閾値α,βを用いて図3のステップS107~S112と同様の処理を行う。
 このようにして、移動する環境の混雑度に応じて設定した選択基準に従って回避パターンを決定する自律移動装置1aを実現できる。
[混雑度の算出]
 図9は、第2実施形態に係る混雑度算出の詳細な手法を示す図である。
 まず、複数の天井カメラ21a(図6)による撮像画像から、図9(a)のように床を多く含む撮像画像が選択される。選択は、例えば、ユーザによる手動などで行われる。移動環境解析部212は、選択された撮像画像から図9(b)のようなRGB(red Green Blue)インテンシティのヒストグラムを生成する。RGBそれぞれのピークRm、Gm、Bm近傍の色は床の色と推測される。そこで、移動環境解析部212は、生成されたヒストグラムを基に、式(4)を満たすRGBインテンシティを床の色Qfとする。
Figure JPOXMLDOC01-appb-M000004
 
 なお、Qfが常に一定の環境であれば、Qfをあらかじめ抽出し、情報入力装置2aのメモリ210や、自律移動装置1aのメモリ110aに格納しておいてもよい。
 次に、移動環境解析部212は、天井カメラ21aで撮像された所定の撮像画像から、床の色Qf以外の色の部分を抽出する。このようにすることで、移動環境解析部212は、図9(c)のように撮像画像内でQf以外の色の領域を床以外の物体(つまり、障害物)を抽出する。なお、このとき抽出される障害物は、静止障害物、移動障害物の双方を含んでいる。移動環境解析部212は、床以外の物体(障害物)が撮像画像内の領域を占めている割合を算出することで、移動環境の混雑度Dを定量的に算出する。
[位置、速度の取得手法]
 図10は、第2実施形態に係る移動障害物の位置および速度の取得手法の詳細を示す図である。
 第1実施形態に記載の技術は、レーザスキャナ21による形状点列を対象として、移動障害物の位置や、速度を算出している。第2実施形態に記載の技術は、天井カメラ21aを用いているため、レーザスキャナ21の形状点列に相当するものを改めて算出する必要がある。
 そこで、第2実施形態において、移動環境解析部212は、図9に示した手法を用いて、ある時刻tでの撮像画像内の画素を床と床以外に分類する。その後、床と床以外に分類された画像は、制御装置100aへ送信される。そして、障害物情報推定部213は、床以外と分類された画素(すなわち、障害物の画素)で隣り合っている画素同士は同一障害物の画素と判断し、図10(a)に示すように画素をセグメントに分ける。つまり、障害物情報推定部213は画素のグルーピングを行って、セグメントを生成する。
 そして、障害物情報推定部213は、分けたセグメントから、代表位置、色、大きさなどの特徴量を抽出する。障害物情報推定部213は、抽出した特徴量をリストとしてメモリ110aに保存する。その後、障害物情報推定部213は、微小時間Δt秒後の撮像画像について同様の処理を施し、互いに特徴量の似た者同士は同一物体と判断して代表位置の変化量から物体の速度vcを得る。ここで、代表位置は、図10(a)に示すように、セグメントの中心poなどとする。
 また、図10(b)に示すように、障害物情報推定部213は、障害物が占める領域を、大きさを無視できる程度の荒さのグリッドに割りつけ、それぞれのグリッドに速度vck、位置pokを付与してメモリ110aへ保存する。速度vck、位置pokは、例えば、図10(b)に示すようにグリッドの中心の速度、位置とすることが一般的であるが、これに限らない。ここでの速度vck、位置pokは、図5におけるvck、pokに相当するものである。これより、衝突猶予処理部114は、図5で説明した手法により衝突猶予の算出を行うことができる。
 こうすることで、衝突猶予処理部114は、第1実施形態と同様の方法で衝突猶予などを算出することができる。つまり、障害物情報推定部213は、図10(b)のようにグリッドに速度情報、位置情報などを付与することにより、図5と同様の手法を用いることができる。なお、グリッドの荒さは、自律移動装置1aの大きさや移動性能に応じて、ユーザが好適に設定すればよい。
 第2実施形態によれば、混雑度に応じて、回避パターンの閾値を変更するので、環境に応じた回避パターンを選択することができる。
《その他》
 第1実施形態、第2実施形態における自律移動装置1,1aは、移動障害物の実際の速度を基に回避パターンを決定しているが、カメラで撮像された画像を基に、移動対象物の種別を判別するようにしてもよい。そして、自律移動装置1,1aの制御部111は、判別された移動対象物の種別を基に、自身に対する相手の速度(運動能力)を推定してもよい。制御部111は、移動障害物の種別として、例えば、相手移動障害物が杖をついた老人、けが人、台車を押している人物、よそ見をしている人物などを種別する。そして、制御部111は、これらの人物の運動能力が自身より低いと判定する。つまり、制御部111は、これらの人物の速度は自身より遅いと判定する。他方、制御部111は、例えば、健常な成人男性や、走っている人物は運動能力が高いと判定する。つまり、制御部111は、これらの人物の速度は自身より速いと判定する。
 このようにすることで、例えば、自律移動装置1,1aは、健常でありながらゆっくり歩いており、潜在的に回避能力がある人と、潜在的に回避能力が低い人とを区別することができる。
 なお、本実施形態に係る自律移動装置1,1aは、移動障害物の運動状態に応じて自身の回避パターンを変えているが、特許文献1に記載の技術は、自身とは関係のない運動状態を基に回避を行っているものであり、本実施形態に記載の技術とは異なるものである。
 1,1a 自律移動装置
 2,2a 情報入力装置
 20  環境認識装置
 21  レーザスキャナ
 21a 天井カメラ
 30  走行装置
 31  モータ
 32  エンコーダ
 33  駆動輪
 34  自在式キャスタ
 40  バッテリ
 100,100a 制御装置
 110,110a メモリ(制御装置)
 111 制御部(制御装置)
 112 自己情報推定部
 113 障害物情報推定部
 114 衝突猶予処理部
 115 回避パターン決定部(回避パターン決定部)
 116 走行制御部
 117 混雑度処理部
 210 メモリ(情報入力装置)
 211 制御部(情報入力装置)
 212 移動環境解析部
 213 障害物情報推定部
 Z,Za 自律移動システム

Claims (12)

  1.  自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定する回避パターン決定部と、
     前記回避パターン決定部が決定した走行パターンに従って前記自律移動装置を走行させる走行制御部と、
     を有することを特徴とする自律移動装置。
  2.  前記回避パターン決定部は、
     前記移動障害物の速度から、前記自律移動装置自身の速度を減算した値が、第1の値以上である場合、前記移動障害物自身の運動方向を維持する走行パターンを決定する
     ことを特徴とする請求の範囲第1項に記載の自律移動装置。
  3.  複数の移動障害物の混雑度に応じて、前記第1の値を決定する
     ことを特徴とする請求の範囲第2項に記載の自律移動装置。
  4.  前記回避パターン決定部は、
     前記移動障害物の速度から、前記自律移動装置自身の速度を減算した値が、第2の値より大きい場合、前記移動障害物自身の速度を維持する走行パターンを決定する
     ことを特徴とする請求の範囲第2項に記載の自律移動装置。
  5.  複数の移動障害物の混雑度に応じて、前記第2の値を決定する
     ことを特徴とする請求の範囲第4項に記載の自律移動装置。
  6.  前記回避パターン決定部は、
     前記移動障害物の速度から前記移動障害物自身の速度を減算した値が、予め設定してある所定の範囲に収まる場合、前記移動障害物自身の速度を減速する走行パターンを決定する
     ことを特徴とする請求の範囲第2項に記載の自律移動装置。
  7.  前記回避パターン決定部は、
     前記移動障害物の速度から前記移動障害物自身の速度を減算した値が、第1の値未満である場合、前記移動障害物を回避する走行パターンを決定する
     ことを特徴とする請求の範囲第1項に記載の自律移動装置。
  8.  複数の移動障害物の混雑度に応じて、前記第1の値を決定する
     ことを特徴とする請求の範囲第7項に記載の自律移動装置。
  9.  前方を撮像するカメラを、さらに備えており、
     前記回避パターン決定部は、
     前記カメラによって撮像された画像における移動障害物の種別によって、前記移動障害物の運動状態を推定する
     ことを特徴とする請求の範囲第1項に記載の自律移動装置。
  10.  自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定し、前記決定した走行パターンに従って前記自律移動装置を走行させる自律移動装置
     を有することを特徴とする自律移動システム。
  11.  複数の移動障害物の混雑度を算出する情報処理装置を、さらに有し、
     前記自律移動装置は、
     前記情報処理装置が算出した前記混雑度に応じて、前記走行パターンを決定するための前記運動状態の基準を変更し、
     前記変更した基準を基に、前記走行パターンを決定する
     ことを特徴とする請求の範囲第10項に記載の自律移動システム。
  12.  自律移動を行う自律移動装置による自律移動方法であって、
     自律移動装置とは別の移動障害物における、前記自律移動装置に対する運動状態に応じて、自身が前記移動障害物を避けるか否かを判定して、自身の走行パターンを決定し、前記決定した走行パターンに従って前記自律移動装置を走行させる
     を有することを特徴とする自律移動方法。
PCT/JP2012/061211 2012-04-26 2012-04-26 自律移動装置、自律移動システムおよび自律移動方法 WO2013161033A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2012/061211 WO2013161033A1 (ja) 2012-04-26 2012-04-26 自律移動装置、自律移動システムおよび自律移動方法
US14/396,887 US9475194B2 (en) 2012-04-26 2012-04-26 Autonomous mobile device, autonomous movement system, and autonomous movement method
JP2014512234A JP5901749B2 (ja) 2012-04-26 2012-04-26 自律移動装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/061211 WO2013161033A1 (ja) 2012-04-26 2012-04-26 自律移動装置、自律移動システムおよび自律移動方法

Publications (1)

Publication Number Publication Date
WO2013161033A1 true WO2013161033A1 (ja) 2013-10-31

Family

ID=49482402

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/061211 WO2013161033A1 (ja) 2012-04-26 2012-04-26 自律移動装置、自律移動システムおよび自律移動方法

Country Status (3)

Country Link
US (1) US9475194B2 (ja)
JP (1) JP5901749B2 (ja)
WO (1) WO2013161033A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015166891A (ja) * 2014-03-03 2015-09-24 学校法人千葉工業大学 搭乗型移動ロボット
WO2019116765A1 (ja) * 2017-12-11 2019-06-20 株式会社日立製作所 移動体システム及び移動体システムの制御方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552503B2 (en) * 2012-05-01 2017-01-24 5D Robotics, Inc. Distributed positioning and collaborative behavior determination
JP6717697B2 (ja) * 2016-07-27 2020-07-01 シャープ株式会社 自律走行装置
CN106338285A (zh) * 2016-08-11 2017-01-18 深圳乐行天下科技有限公司 一种行进辅助方法、系统及机器人
CN114167857B (zh) * 2021-11-08 2023-12-22 北京三快在线科技有限公司 一种无人驾驶设备的控制方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297944A (ja) * 1992-04-24 1993-11-12 Fujitsu Ltd 移動ロボットの障害物回避方式
JP2005288657A (ja) * 2004-04-05 2005-10-20 Matsushita Electric Ind Co Ltd ロボット
JP2008200770A (ja) * 2007-02-16 2008-09-04 Toshiba Corp ロボットおよびその制御方法
JP2010134855A (ja) * 2008-12-08 2010-06-17 Toshiba Corp 移動台車

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185412A (ja) 1995-12-28 1997-07-15 Yaskawa Electric Corp 自律移動装置
JP2008128938A (ja) * 2006-11-24 2008-06-05 Matsushita Electric Ind Co Ltd 経路調整装置
JP2009157615A (ja) 2007-12-26 2009-07-16 Toyota Motor Corp 移動体
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297944A (ja) * 1992-04-24 1993-11-12 Fujitsu Ltd 移動ロボットの障害物回避方式
JP2005288657A (ja) * 2004-04-05 2005-10-20 Matsushita Electric Ind Co Ltd ロボット
JP2008200770A (ja) * 2007-02-16 2008-09-04 Toshiba Corp ロボットおよびその制御方法
JP2010134855A (ja) * 2008-12-08 2010-06-17 Toshiba Corp 移動台車

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015166891A (ja) * 2014-03-03 2015-09-24 学校法人千葉工業大学 搭乗型移動ロボット
WO2019116765A1 (ja) * 2017-12-11 2019-06-20 株式会社日立製作所 移動体システム及び移動体システムの制御方法

Also Published As

Publication number Publication date
US9475194B2 (en) 2016-10-25
JP5901749B2 (ja) 2016-04-13
JPWO2013161033A1 (ja) 2015-12-21
US20150105906A1 (en) 2015-04-16

Similar Documents

Publication Publication Date Title
WO2013161033A1 (ja) 自律移動装置、自律移動システムおよび自律移動方法
US10688662B2 (en) Robot navigation in context of obstacle traffic including movement of groups
CN106548660B (zh) 确定车辆的理论轨迹
US9079307B2 (en) Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus
US9086700B2 (en) Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus
US9020682B2 (en) Autonomous mobile body
US8924068B2 (en) Autonomous mobile body
JP4576445B2 (ja) 自律移動型装置および自律移動型装置用プログラム
JP4143103B2 (ja) 移動装置、ならびにその制御システム、制御プログラムおよび監督システム
CN109334661B (zh) 基于速度障碍模型和碰撞概率密度模型的避障预判方法
JP2019125354A (ja) 情報処理装置、システム、方法、およびプログラム
US11693424B2 (en) Robot, system and method detecting and/or responding to transitions in height
WO2013011543A1 (ja) 自律移動装置およびその制御方法
JP4171510B2 (ja) 移動装置、ならびにその制御システム、制御プログラムおよび監督システム
JP7166712B2 (ja) パーソナルモビリティ
WO2016084910A1 (ja) 移動体
JP2011054082A (ja) 自律移動装置
WO2020100595A1 (en) Information processing apparatus, information processing method, and program
Raja et al. SPAS: Smart pothole-avoidance strategy for autonomous vehicles
JPWO2016104265A1 (ja) 移動体
WO2013171905A1 (ja) 自律移動装置、制御装置および自律移動方法
Pierson et al. Dynamic risk density for autonomous navigation in cluttered environments without object detection
Seng et al. Distributed formation control of networked mobile robots in environments with obstacles
Zhang et al. A control system of driver assistance and human following for smart wheelchair
JP6299957B2 (ja) 移動体制御装置、移動体制御プログラムおよび移動体制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12875701

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014512234

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14396887

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12875701

Country of ref document: EP

Kind code of ref document: A1