WO2019031168A1 - 移動体および移動体の制御方法 - Google Patents

移動体および移動体の制御方法 Download PDF

Info

Publication number
WO2019031168A1
WO2019031168A1 PCT/JP2018/026836 JP2018026836W WO2019031168A1 WO 2019031168 A1 WO2019031168 A1 WO 2019031168A1 JP 2018026836 W JP2018026836 W JP 2018026836W WO 2019031168 A1 WO2019031168 A1 WO 2019031168A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
unit
followed
traveling route
mobile
Prior art date
Application number
PCT/JP2018/026836
Other languages
English (en)
French (fr)
Inventor
ジュイヒン グエン
弘幸 上松
健 安藤
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP18833819.8A priority Critical patent/EP3667450B1/en
Priority to US16/320,147 priority patent/US11366481B2/en
Priority to JP2018562383A priority patent/JP6771588B2/ja
Priority to CN201880002941.5A priority patent/CN109643128B/zh
Publication of WO2019031168A1 publication Critical patent/WO2019031168A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0293Convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Definitions

  • the present invention relates to a mobile body and a control method of the mobile body. More specifically, the present invention relates to a moving object that performs formation traveling when a plurality of moving objects travel on the same track, and a control method of these moving objects.
  • a range measuring sensor provided on the front of the mobile robot is used to detect an object (person, mobile robot, etc.) to be followed and travel while following the object Mobile robot technology is generally known.
  • the mobile robot and the person to be followed are erroneously recognized. Then, a mobile robot to be followed may be missed halfway, and a human may be recognized as a target to be followed from halfway.
  • each moving body forming the formation autonomously moves on a predesignated orbit while accurately recognizing its own current position. .
  • FIG. 16 is a view showing an image when a plurality of moving bodies travel in formation on the same trajectory in Patent Document 1.
  • the mobile robot 20 to be followed and the mobile robot 50 to be followed are each provided with a range measuring sensor 40.
  • These mobile robots 20 and 50 store an environmental map and travel in a known environment.
  • the mobile robot 20 to be followed autonomously travels at a designated speed while recognizing its own position using a range measurement sensor 40.
  • the mobile robot 50 to follow also autonomously moves a pre-designated route at a designated speed while recognizing its own position using the range-finding sensor 40.
  • both the mobile robots 20 and 50 travel at the same speed, if the mobile robot 50 to follow after securing a fixed distance starts to operate, these mobile robots 20 and 50 set a fixed distance. While securing, it can travel in formation on the same track.
  • the present invention solves such a problem, and a moving body capable of forming a formation and traveling by a plurality of mobile robots on the same track even when an obstacle is present on the traveling path of the mobile robot It aims at providing a control method of a mobile.
  • a mobile unit includes: a map unit that stores traveling route information; and an intelligence unit that recognizes whether or not an object present in the surroundings is to be followed.
  • the intelligent unit is a moving object to be followed by the object, and the position to which the moving object to be followed is projected on the traveling route when the moving object to be followed is not present on the traveling route indicated by the traveling route information Set as a temporary destination.
  • the method of controlling a moving object comprises the steps of: recognizing whether or not an object present in the surroundings is a moving object to be followed; And setting a position where the moving object to be followed is projected on the traveling route as a temporary destination, if the moving object to be followed is not present on the traveling route indicated by the traveling route information.
  • the present invention when a plurality of mobile robots are caused to travel in formation on the same trajectory by using an autonomous movement technology, even if the mobile robot to be followed is decelerated due to some influence, the grid is broken. Formation can be continued.
  • a perspective view showing an example of a mobile robot Block diagram showing an example of a control unit of the mobile robot according to the first embodiment A diagram showing an example of a map indicated by map information stored in the map unit
  • the flowchart which shows one example of the autonomous movement control processing which the control section executes Diagram showing an example of autonomous movement of a mobile robot Figure showing an image of a mobile robot traveling in formation Flow chart showing an example of local destination calculation processing of the mobile robot according to the first embodiment
  • a diagram showing an image of setting the intersection of the traveling route of the mobile robot as the parent machine and the traveling route of the mobile robot as the child machine as the local destination The figure which shows an example which sets the point which projected the mobile robot which is a parent machine on the traveling path of the mobile robot which is a child machine as a local destination
  • a diagram showing an image for calculating a local destination in step S27 Figure showing an image of a mobile robot traveling in formation A diagram showing an image when a plurality of moving bodies travel in formation on the same route in Patent Document 1
  • Block diagram showing an example of a control unit of a mobile robot according to Embodiment 2 Flow chart showing an example of local destination calculation processing of the mobile robot according to the second embodiment
  • a diagram showing an image of setting the intersection of the traveling route of the mobile robot as the parent machine and the traveling route of the mobile robot as the child machine as the local destination The figure which shows an example which sets the point which projected the mobile robot which is a parent machine on the traveling path of the mobile robot which is a child machine as a local destination
  • FIG. 1 is a perspective view showing an example of a mobile robot 100.
  • the mobile robot 100 includes a mobile robot body 3, a pair of drive wheels 1 provided behind the lower part of the mobile robot body 3, one semi-wheel 2 provided forward of the lower part of the mobile robot body 3, and the mobile robot body
  • a range measuring sensor 4 provided in front of the upper portion 3 and a control unit 5 provided inside the mobile robot body 3 are provided.
  • a recognition marker unique to each mobile robot 100 is attached to the back of the mobile robot main body 3.
  • the recognition marker is recognized by the range sensor 4 of another mobile robot 100 traveling following the mobile robot 100.
  • the recognition marker is provided at the same height as the range sensor 4.
  • the pair of drive wheels 1 is a member that supports the mobile robot main body 3 together with the quasi-wheel 2. As shown in FIG. 1, the pair of drive wheels 1 travels the mobile robot 100 in the direction of arrow b (advancing direction) by rotating in the direction of arrow a. In addition, the pair of drive wheels 1 can be rotationally driven separately in the direction of arrow a and in the direction opposite to arrow a. By rotating the pair of drive wheels 1 in the directions different from each other, the mobile robot 100 can perform the corner turn operation.
  • the quasi-wheel 2 is a member for supporting the mobile robot main body 3 together with the pair of drive wheels 1 as described above.
  • the semi-wheel 2 is rotatably mounted on the lower front of the mobile robot body 3 about an axis perpendicular to the traveling surface.
  • the ranging sensor 4 is a sensor that detects an object within the scan range of the ranging sensor 4. That is, the range measuring sensor 4 detects an object present in the surroundings. Further, the range measurement sensor 4 detects a recognition marker attached to the back of the mobile robot body 3.
  • the ranging sensor 4 is, for example, a ranging sensor 4 using a laser. The range measuring sensor 4 is attached to the foremost part in the traveling direction of the mobile robot body 3.
  • FIG. 2 is a block diagram showing an example of the control unit 5 of the mobile robot 100 according to the first embodiment of the present invention.
  • the control unit 5 includes a map unit 6, a destination setting unit 7, a sensor data acquisition unit 8, a self position estimation unit 9, an intelligence unit 10, and a drive wheel control unit 11.
  • the map unit 6 is a storage unit that stores map information of a space in which the mobile robot 100 moves.
  • FIG. 3 is a view showing an example of a map indicated by map information stored in the map unit 6.
  • the map information may be two-dimensional space information or three-dimensional space information.
  • a travel route 16 connecting several destinations 15 and the destinations 15 is set in advance. That is, the map unit 6 stores traveling route information of the mobile robot 100.
  • Each destination 15 set in the map information is given an individual destination number.
  • the destination setting unit 7 is a processing unit that registers a specific position in the map information stored in the map unit 6 as a movement destination of the mobile robot 100.
  • the setting of the destination 15 is performed by setting the stored destination number corresponding to each destination 15.
  • the sensor data acquisition unit 8 is an input unit that inputs measurement data measured by the range measurement sensor 4.
  • the measurement data acquired by the sensor data acquisition unit 8 is transmitted to the self position estimation unit 9.
  • the self position estimation unit 9 is a processing unit that calculates coordinate information of the current position of the mobile robot 100 based on the map information stored in the map unit 6 and the measurement data acquired by the sensor data acquisition unit 8.
  • the intelligence unit 10 includes map information stored in the map unit 6, measurement data measured by the range measurement sensor 4, a destination number set by the destination setting unit 7, and a current position calculated by the self position estimation unit 9. Receive coordinate information etc.
  • the intelligence unit 10 is a processing unit that performs obstacle recognition, identification of each mobile robot 100, and generation of path information of a path along which the mobile robot 100 travels, based on the received information.
  • the driving wheel control unit 11 controls the driving wheel 1 based on the route information generated by the intelligence unit 10.
  • the driving wheel control unit 11 includes, for example, a servomotor, and drives the driving wheel 1 by the servomotor.
  • FIG. 4 is a flowchart illustrating an example of the autonomous movement control process performed by the control unit 5.
  • the destination setting unit 7 sets the destination 15 (step S1).
  • the destination setting unit 7 transmits the destination number of the destination 15 to the intelligence unit 10.
  • the intelligence unit 10 also acquires map information from the map unit 6. Thereby, the intelligence unit 10 grasps the coordinates of the destination 15 to which the mobile robot 100 is going and the traveling route 16 to the destination 15.
  • a path following process is performed.
  • the mobile robot 100 can move along the path grasped by the intelligence unit 10.
  • the route following process includes a local destination calculating process (step S2), a destination arrival determining process (step S3), and a local route following process (step S4).
  • step S2 the intelligence unit 10 performs calculation and setting of the local destination.
  • a local destination is the latest temporary destination to be aimed at at present. The specific calculation method will be described later.
  • step S3 the intelligence unit 10 determines whether the mobile robot 100 has arrived at the destination 15.
  • the intelligence unit 10 determines whether or not the local destination coincides with the destination 15, and when they coincide, the current position of the mobile robot 100 calculated by the self position estimation unit 9 That is, the distance between the self position and the destination 15 set by the destination setting unit 7 is calculated.
  • the intelligent unit 10 determines that the mobile robot 100 has arrived at the destination 15 when the distance is equal to or less than a predetermined fixed distance N. On the other hand, if the local destination does not match the destination 15 or if the distance is greater than the distance N, it is determined that the mobile robot 100 has not arrived at the destination 15.
  • the intelligence unit 10 receives the current position information from the self position estimation unit 9. It receives information on its own position and calculates the shortest path from the current self position to the local destination.
  • the intelligence unit 10 outputs a command to the drive wheel control unit 11 so that the mobile robot 100 travels along the calculated shortest route.
  • the driving wheel control unit 11 controls the driving wheel 1 based on the command received from the intelligence unit 10.
  • an A * (Aester) algorithm can be used to calculate the shortest path. This algorithm can calculate the shortest path avoiding an obstacle even when the obstacle exists.
  • the intelligence unit 10 determines that the distance of the shortest path from the current self position to the local destination is less than a predetermined distance M. It is determined whether or not it is.
  • the intelligence unit 10 determines that the mobile robot 100 should pause. Then, the intelligence unit 10 causes the drive wheel control unit 11 to stop the drive of the drive wheel 1. Thereby, the mobile robot 100 stops.
  • the intelligence unit 10 determines that the mobile robot 100 should stop temporarily, the distance between the self position of the mobile robot 100 and the local destination becomes equal to or more than the distance M again, the intelligence unit 10 Determine that the move should resume. In this case, the intelligence unit 10 causes the drive wheel control unit 11 to resume the drive of the drive wheel 1. Thereby, the movement of the mobile robot 100 is resumed.
  • step S3 the local destination calculation process (step S2), the destination arrival determination process (step S3), the local path tracking process until it is determined that the mobile robot 100 has arrived at the destination 15 (Step S4) is repeatedly executed. Thereby, the mobile robot 100 gradually approaches the destination 15.
  • step S3 When it is determined in step S3 that the mobile robot 100 has arrived at the destination 15 (in the case of Yes in step S3), the intelligence unit 10 causes the drive wheel control unit 11 to stop the drive of the drive wheel 1. Thereby, the movement of the mobile robot 100 is stopped (step S5).
  • FIG. 5 is an image diagram showing an example of autonomous movement of the mobile robot 100 according to Embodiment 1 of the present invention.
  • the destination 15 and the travel route 16 have already been set in step S1 of the autonomous movement control process shown in FIG.
  • the intelligence unit 10 performs the local destination calculation process (step S2) and the destination arrival determination process (step S3) described with reference to FIG. And the local path tracking process (step S4) is repeatedly executed.
  • the intelligence unit 10 determines whether the distance between the current position of the mobile robot 100 calculated by the position estimation unit 9 and the destination 15 set by the destination setting unit 7 is equal to or less than the distance N It is determined whether or not the mobile robot 100 has arrived at the destination 15 by determining whether it is not.
  • FIG. 6 is a view showing an image when the mobile robot 100 according to the embodiment of the present invention travels in formation.
  • a case where two mobile robots 101 and 102 travel in formation will be described as an example.
  • the mobile robot 101 is a master to be followed, and the mobile robot 102 is a slave to be followed.
  • the local destination calculation process (step S2) described in FIG. 4 will be described in more detail.
  • FIG. 7 is a flowchart showing the local destination calculation process.
  • the intelligence unit 10 determines whether the mobile robot 101 which is a parent machine is present in the scan range of the range measurement sensor 4 (step S21).
  • Whether or not the mobile robot 101 as a parent machine is present in the scan range is determined based on whether or not the range measurement sensor 4 has detected the recognition marker 12 attached to the back of the mobile robot 101 within the scan range. Ru.
  • FIG. 8 shows an image in which the range sensor 4 detects the recognition marker 12 within its scan range 70.
  • the recognition marker 12 attached to the mobile robot 101 as the parent machine is present in the scan range 70 of the range measuring sensor 4 provided to the mobile robot 102 as the child machine, the recognition marker 12 of the parent machine 101 is It is detected by the range measuring sensor 4 of the mobile robot 102 which is a machine.
  • the intelligence unit 10 travels the traveling route of the mobile robot 102 which is a child machine. It is determined whether it exists on 16 (step S22).
  • the intelligence unit 10 moves with the mobile robot 101 as a master and a slave
  • the intersection with the traveling route 16 of the robot 102 is calculated, and the intersection is set as the local destination 17 (step S23), and the local destination calculation processing is ended.
  • the intelligence unit 10 executes the above-mentioned traveling route 16 A point projected upward is calculated, and the point is set as the local destination 17 (step S24), and the local destination calculation process is ended.
  • the intelligence unit 10 includes the recognition marker 12 in the scan range 70 of the range detection sensor 4 It is determined whether there is an obstacle other than the obstacle (step S25).
  • FIG. 9 shows an image in which the range measuring sensor 4 detects the obstacle 19 within its scan range 70.
  • the obstacle 19 exists in the scan range 70 of the range detection sensor 4, the obstacle 19 is detected by the range detection sensor 4 of the mobile robot 102 which is a slave unit.
  • the intelligence unit 10 determines that the obstacle 19 is a slave. It is determined whether it exists on the traveling route 16 of the mobile robot 102 (step S26).
  • the intelligence unit 10 calculates the intersection of the obstacle 19 and the traveling route 16 Then, the intersection is set as the local destination 17 (step S27), and the local destination calculation process is ended.
  • the reason for setting the local destination 17 at the intersection of the obstacle 19 and the traveling route 16 is that, when the obstacle 19 is detected on the traveling route 16, the obstacle 19 may be a moving object such as a human. It is because sex is high. For example, it is assumed that a person who walks across the traveling route 16 is detected on the traveling route 16 during formation traveling. In this case, if the mobile robot 101 as the parent machine and the mobile robot 102 as the child machine try to travel around the walking person, the formation of the mobile robots 101 and 102 may be broken. Therefore, when the obstacle 19 is detected on the travel route 16, the intelligence unit 10 temporarily sets the local destination 17 on the travel route 16. In this case, when a human moves from the traveling route 16 to the outside of the scan range 70, the mobile robots 101 and 102 resume movement.
  • the intelligence unit 10 is ahead of the traveling route 16 by a certain distance.
  • the position is calculated, and the position is set to the local destination 17 (step S28), and the local destination calculation process is ended.
  • the intelligence unit 10 similarly The destination 17 is set to a position ahead of the travel route 16 by a predetermined distance (step S28). However, if the intelligent unit 10 determines that the mobile robot 102, which is a slave unit, collides with the obstacle 19 before reaching a position ahead of the mobile robot 102 by a predetermined distance on the traveling path 16, then the mobile robot 102 is first moved by a predetermined distance. The vehicle travels around the obstacle 19 up to the set local destination 17.
  • FIG. 10 is a view showing an image in which the intelligence unit 10 sets the intersection of the traveling path 16 of the mobile robot 101 as a parent machine and the mobile robot 102 as a child machine as the local destination 17.
  • step S23 as shown in FIG. 10, the location where the traveling route 16 of the mobile robot 102 which is a slave unit and the recognition marker 12 intersect is set as the local destination 17.
  • FIGS. 11 to 13 are diagrams showing an image in which the intelligence unit 10 sets a point obtained by projecting the mobile robot 101 as the parent machine onto the traveling route 16 of the mobile robot 102 as the child machine as the local destination 17. is there.
  • step S24 as shown in FIG. 11, the position of the mobile robot 101 (for example, the middle point of the recognition marker 12) that is the parent machine and the position of the mobile robot 102 (for example, the center of the range sensor 4) The distance to the position) is calculated, and the arc is drawn around the center position of the range measurement sensor 4 with the distance as a radius. Then, an intersection point of this arc and the traveling route 16 of the mobile robot 102 which is a slave unit is set as the local destination 17.
  • intersection of a straight line extending perpendicularly to the traveling direction of the mobile robot 100 from the position of the mobile robot 100 and the traveling path 16 may be set as the local destination 17.
  • a straight line connecting the leftmost point and the rightmost point of the recognition marker 12 is drawn when viewed from the mobile robot 102 which is a slave, and the straight line and the traveling route of the mobile robot 102 which is a slave It is conceivable to make the intersection with 16 a local destination 17.
  • a vertical line may be drawn from the middle point of the recognition marker 12 to the traveling route 16 of the mobile robot 102 which is a slave unit, and the intersection of the perpendicular and the traveling route 16 may be used as the local destination 17. .
  • FIG. 14 is a view showing an image for calculating the local destination 17 in step S27.
  • step S27 as shown in FIG. 14, the intersection of the obstacle 19 and the traveling route 16 of the mobile robot 102, which is a slave, is set as the local destination 17.
  • step S28 as described above, the local destination 17 is set to a position which is advanced on the traveling route 16 by the fixed distance L from the current position of the mobile robot 102 which is a slave unit.
  • FIG. 15 is a view showing an image when the formation of the mobile robot 100 in the embodiment of the present invention is traveling.
  • FIG. 15A shows a state in which no obstacle 19 exists on the traveling path 16 of the mobile robot 101.
  • FIG. The mobile robot 101 which is the parent machine, performs the autonomous movement by calculating the local destination 17 by the processing in step S28 because the obstacle 19 is not present on the traveling route 16.
  • the mobile robot 102 as the slave detects the recognition marker 12 of the mobile robot 101 as the parent on the traveling route 16
  • the local destination 17 is calculated by the processing in step S23, and the autonomous movement is made. It is carried out.
  • FIG. 15B shows a state where there is an obstacle 19 in the vicinity of the traveling route 16 and the mobile robot 101 as the parent machine once deviates from the traveling route 16.
  • the mobile robot 101 which is the parent machine, is calculated by the processing in step S28 so as to locate the local destination 17 on the traveling route 16, since there is no obstacle 19 on the traveling route 16, and moves autonomously. It is carried out.
  • the intelligence unit 10 determines that the vehicle travels on the traveling route 16 as it collides with the obstacle 19, the shortest path 18 to the local destination 17 takes the obstacle 19 in order to avoid the collision with the obstacle 19. It becomes a route to bypass. That is, the intelligence unit 10 of the mobile robot 101, which is the parent machine, determines that the avoidance operation of the obstacle 19 is performed.
  • the mobile robot 102 since the mobile robot 102, which is a slave unit, detects the recognition marker 12 within the scan range 70 of the range measurement sensor 4, the local destination 17 is calculated in the process of step S24 to perform autonomous movement. There is. That is, the mobile robot 102, which is a slave unit, sets a point obtained by projecting the mobile robot 101, which is a master unit, onto the traveling route 16 as a local destination 17, and performs autonomous movement. Therefore, the mobile robot 102, which is a slave unit, does not travel ahead of the position where the mobile robot 101, which is a master unit, is projected onto the traveling path 16. That is, the mobile robot 102 as a slave does not overtake the mobile robot 101 as a master.
  • the intelligence unit 10 of the mobile robot 102 as the slave machine is the obstacle 19 It is determined to collide with In this case, as with the mobile robot 101 as the parent machine, the mobile robot 102 as the child machine sets the shortest path 18 for avoiding a collision with the obstacle 19.
  • the mobile robot 102 as a slave unit travels on the traveling route 16 and the range measuring sensor 4 detects the obstacle 19, the shortest route 18 to the local destination 17 is obtained similarly to the mobile robot 101 as a parent machine. Is a route for bypassing the obstacle 19. That is, it is determined that the intelligence unit 10 of the mobile robot 102 which is a slave unit also performs the avoidance operation of the obstacle 19.
  • FIG. 15C shows a state where an obstacle 19 is present on the traveling route 16. Since the obstacle 19 is present on the traveling route 16, the mobile robot 101, which is the parent machine, calculates the local destination 17 by the processing in step S27, and performs autonomous movement.
  • the mobile robot 101 pauses.
  • the mobile robot 102 which is a slave unit, detects the recognition marker 12 of the master unit on the traveling route 16, the local destination 17 is calculated by the processing in step S24, and autonomous movement is performed.
  • the mobile robot 101 as the parent machine is temporarily stopped, and the distance between the current position of the mobile robot 102 as the child machine and the local destination 17 is less than a predetermined distance M. Also pause.
  • the mobile robot 101 which is the parent machine resumes the autonomous movement.
  • the distance between the local destination 17 and the position of the mobile robot 102 as a slave becomes equal to or greater than a predetermined distance M when the mobile robot 101 as a slave also resumes the autonomous movement. In order to resume autonomous movement.
  • the range measuring sensor 4 detects the recognition marker 12 and the intelligence unit 10 recognizes the mobile robot 100 as a configuration for identifying each mobile robot 100. It is not limited to For example, the range measurement sensor 4 may detect the outer shape of the mobile robot 100 to acquire shape data, and recognize the mobile robot 100.
  • the position information of the detection object detected by the range measurement sensor 4 and the information of the self position of each mobile robot 101 102 shared by each mobile robot 101 102 are used. Then, it is determined whether or not the mobile robot 101 exists in the scan range 70 of the range measurement sensor 4.
  • the self position is, for example, the center position in the left and right direction on the back surface of each of the mobile robots 101 and 102 when the traveling direction of the mobile robots 101 and 102 is the front.
  • FIG. 17 is a block diagram showing an example of the control unit 5 according to Embodiment 2 of the present invention.
  • the control unit 5 includes a map unit 6, a destination setting unit 7, a sensor data acquisition unit 8, a self position estimation unit 9, an intelligence unit 10, a drive wheel control unit 11, and a communication unit 21.
  • the map unit 6, the destination setting unit 7, the sensor data acquisition unit 8, the self position estimation unit 9, the intelligence unit 10 and the drive wheel control unit 11 are the same as in the first embodiment.
  • the communication unit 21 is a communication device for causing the mobile robots 101 and 102 to exchange information when a plurality of mobile robots 101 and 102 travel in formation.
  • the communication unit 21 exchanges information on its own position, for example.
  • the mobile robot 101 is a master to be followed, and the mobile robot 102 is a slave to be followed. Between the mobile robot 101 as the parent machine and the mobile robot 102 as the child machine, information on the self position estimated by the self position estimation unit 9 is exchanged through the communication unit 21, and the mobile robots 101 and 102 , Share each other's self-location information.
  • FIG. 18 is a flowchart showing the local destination calculation process.
  • the intelligence unit 10 determines whether the mobile robot 101 which is a parent machine is present in the scan range 70 of the range measurement sensor 4 (step S31).
  • the intelligence unit 10 calculates the distance between the own position of the mobile robot 101 and the own position of the mobile robot 102 shared between the mobile robots 101 and 102. This distance is called an estimated distance for convenience.
  • the intelligence unit 10 moves the detection object based on the distance between the detection object detected closest to the measurement area sensor 4 within the scan range 30 of the measurement area sensor 4 and the measurement area sensor 4.
  • the distance to the position of the robot 102 is calculated. This distance is called a detection distance for convenience.
  • the position of the mobile robot 102 is, for example, the center position in the left-right direction on the back surface of the mobile robot 102 when the traveling direction of the mobile robot 102 is the forward direction.
  • the intelligence unit 10 determines whether the difference between the estimated distance and the detected distance is equal to or less than a predetermined threshold. If the difference between the value indicating the estimated distance and the value indicating the detected distance is less than or equal to a predetermined threshold value, that is, if the difference between the value indicating the estimated distance and the value indicating the detected distance is small or zero. It is determined that the mobile robot 101, which is a parent machine, is present in the scan range 70.
  • the intelligence unit 10 recognizes the mobile robot 101 as a master based on the self position of the mobile robot 101 shared by the mobile robots 101 and 102 and the self position of the mobile robot 102. May be
  • FIG. 19 shows that the distance between the self position 111 of the mobile robot 101 and the self position 112 of the mobile robot 102, that is, the estimated distance, is the detected object detected closest to the range sensor 4 within the scan range 70 An image in which the distance between the robot 102 and the detection distance is matched is shown.
  • the mobile robot 101 as a parent machine is present in the scan range 70 of the range measurement sensor 4 provided in the mobile robot 102 as a slave machine, and the self positions 111 and 112 estimated by the self position estimation unit 9 are If there is no deviation from the actual positions of the mobile robots 101 and 102, the distance between the position of the detected mobile robot 101 and the position of the mobile robot 102 and the self of the mobile robot 101 The distance between the position 111 and the self position 112 of the mobile robot 102 matches.
  • the intelligence unit 10 is a mobile robot whose self position 111 of the mobile robot 101 is a child machine. It is determined whether it exists on the traveling route 16 of 102 (step S32).
  • the intelligence unit 10 When it is determined that the self position 111 of the mobile robot 101 is present on the traveling path 16 of the mobile robot 102 which is a slave (in the case of Yes in step S32), the intelligence unit 10 The intersection with the traveling route 16 of the mobile robot 102, which is an aircraft, is calculated, and the intersection is set as the local destination 17 (step S33), and the local destination calculation processing is ended.
  • the intelligence unit 10 sets the mobile robot 101 which is a master.
  • the point projected onto the travel route 16 is calculated, and the point is set as the local destination 17 (step S34), and the local destination calculation processing is ended.
  • the intelligence unit 10 detects an obstacle other than the parent machine in the scan range 70 of the range sensor 4 It is determined whether 19 exists (step S35).
  • the intelligence unit 10 determines that the obstacle 19 is a slave. It is determined whether it exists on the traveling route 16 of the mobile robot 102 (step S36).
  • the intelligence unit 10 calculates the intersection of the obstacle 19 and the traveling route 16 Then, the intersection is set as the local destination 17 (step S37), and the local destination calculation processing is ended.
  • the intelligence unit 10 is ahead of the traveling route 16 by a predetermined distance.
  • the position is calculated, and the position is set to the local destination 17 (step S38), and the local destination calculation process is ended.
  • the intelligence unit 10 locally The destination 17 is set to a position ahead of the travel route 16 by a predetermined distance (step S38).
  • the intelligent unit 10 determines that the mobile robot 102, which is a slave unit, collides with the obstacle 19 before reaching a position ahead of the mobile robot 102 by a predetermined distance on the traveling path 16, then the mobile robot 102 is first moved by a predetermined distance. The vehicle travels around the obstacle 19 up to the set local destination 17.
  • FIG. 20 is a view showing an image in which the intelligence unit 10 sets the intersection of the traveling route 16 of the mobile robot 101 as a parent machine and the mobile robot 102 as a child machine as the local destination 17.
  • step S33 as shown in FIG. 20, the location where the traveling path 16 of the mobile robot 102 which is a slave unit and the self position 111 of the mobile robot 101 intersect is set as the local destination 17.
  • FIG. 21 to 23 show images in which the intelligence unit 10 sets, as the local destination 17, a point where the self position 111 of the mobile robot 101 as the parent machine is projected onto the traveling route 16 of the mobile robot 102 as the child machine.
  • FIG. 21 to 23 show images in which the intelligence unit 10 sets, as the local destination 17, a point where the self position 111 of the mobile robot 101 as the parent machine is projected onto the traveling route 16 of the mobile robot 102 as the child machine.
  • step S34 as shown in FIG. 21, the distance between the self position 111 of the mobile robot 101 as the master and the center position of the mobile robot 102 as the slave, for example, is calculated. With the distance as the radius, an arc centered at the center position of the range measurement sensor 4 is drawn. Then, an intersection point of this arc and the traveling route 16 of the mobile robot 102 which is a slave unit is set as the local destination 17.
  • intersection of a straight line extending perpendicularly to the traveling direction of the mobile robot 100 from the position of the mobile robot 100 and the traveling path 16 may be set as the local destination 17.
  • a straight line is drawn along the back of the mobile robot 101, passing through the self position 111 of the mobile robot 101 as viewed from the mobile robot 102 as a slave, and the straight line and the slave It is conceivable to set the intersection with the traveling path 16 of the mobile robot 102 as the local destination 17.
  • a vertical line is drawn from the self position 111 of the mobile robot 101 to the traveling route 16 of the mobile robot 102 which is a slave unit, and the intersection of the perpendicular and the traveling route 16 is taken as the local destination 17. good.
  • the position information of the detection object detected by the range measurement sensor 4 and the self positions 111 and 112 shared by the mobile robots 101 and 102 are used. It is determined whether the parent device 101 exists in the scan range 70 based on the information in the above. As a result, as in the first embodiment, even when the obstacle 19 is present on the traveling path 16 of the mobile robot 100, a plurality of mobile robots 100 can travel in formation on the same track.
  • the present invention can be widely used in the field of autonomous mobile robots and autonomous driving.

Abstract

移動ロボットの走行経路上に障害物が存在する場合でも、複数台の移動ロボットが同一軌道において、編隊走行することが可能な移動体および移動体。この移動体(100)は、走行経路情報を記憶する地図部(6)と、周囲に存在する物体が追従すべき移動体(101)であるか否かを認識する知能部(10)と、を有し、知能部(10)は、物体が追従すべき移動体(101)であり、かつ、追従すべき移動体(101)が走行経路情報の示す走行経路(16)上に存在しない場合、追従すべき移動体(101)を走行経路(16)に射影した位置を一時的な目的地(17)に設定する。

Description

移動体および移動体の制御方法
 本発明は、移動体および移動体の制御方法に関するものである。具体的には、同一の軌道上を複数台の移動体が走行する際に、編隊走行を行う移動体およびこれらの移動体の制御方法に関するものである。
 従来、移動ロボットの編隊走行の技術として、移動ロボットの前部に備え付けられた測域センサを用いて、追従するべき対象(人、移動ロボット等)を検出し、その対象に追従しながら走行する移動ロボットの技術が一般的に知られている。
 しかし、この技術では、追従するべき対象以外の、別の対象が移動ロボットの周辺環境に存在する場合、移動ロボットは、追従するべき対象とこれとは別の対象とを区別することが困難である。
 例えば、追従すべき移動ロボットの周辺に複数の人間が存在する場合、追従すべき移動ロボットと人間とを誤って認識してしまう。そして、追従すべき移動ロボットを途中で見失い、途中から人間を追従するべき対象として認識してしまう場合がある。
 このような問題に対処する技術として、各移動体に予め走行経路を記憶させ、それぞれの移動体が同速度で自律移動することで、各移動体に同一軌道を編隊走行させる制御手法も知られている(例えば、特許文献1参照)。
 上記同一軌道上を編隊走行するためには、編隊を構成している各移動体が、自身の現在の位置を正確に認識しながら、予め指定された軌道上を自律的に移動する必要がある。
 自律移動ロボットの自己位置認識技術として、事前に記憶した地図上のランドマークの位置と、測域センサから得られたランドマークの位置を照合する方法が知られている。
 図16は特許文献1において複数の移動体が同一軌道上を編隊走行する場合のイメージを示す図である。追従される移動ロボット20と、追従する移動ロボット50は、それぞれ測域センサ40を備える。
 これらの移動ロボット20,50は環境地図を記憶しており、既知の環境を走行している。追従される移動ロボット20は予め指定された経路を、測域センサ40を用いて自己位置を認識しながら、指定された速度で自律移動する。追従する移動ロボット50も、予め指定された経路を、測域センサ40を用いて自己位置を認識しながら、指定された速度で自律移動する。
 この時、両移動ロボット20,50は同じ速度で走行するため、一定の距離を確保してから追従する移動ロボット50が動作を開始すれば、これらの移動ロボット20,50は、一定の距離を確保しつつ、同一軌道上を編隊走行することができる。
特開2011-169055号公報
 しかしながら従来の技術では、追従される移動ロボット20が走行経路上に存在する障害物の回避動作を行ったり、さらに減速したりした場合、追従される移動ロボット20が追従する移動ロボット50に追い抜かれたりして、編隊を崩してしまうという課題がある。
 本発明は、このような課題を解決するものであり、移動ロボットの走行経路上に障害物が存在する場合でも、複数台の移動ロボットが同一軌道において、編隊走行することが可能な移動体および移動体の制御方法を提供することを目的とする。
 上記目的を達成するために、本発明に係る移動体は、走行経路情報を記憶する地図部と、周囲に存在する物体が追従すべき移動体であるか否かを認識する知能部と、を有し、知能部は、物体が追従すべき移動体であり、かつ、追従すべき移動体が走行経路情報の示す走行経路上に存在しない場合、追従すべき移動体を走行経路に射影した位置を一時的な目的地に設定する。
 また、上記目的を達成するために本発明に係る移動体の制御方法は、周囲に存在する物体が追従すべき移動体であるか否かを認識するステップと、物体が追従すべき移動体であり、かつ、追従すべき移動体が走行経路情報の示す走行経路上に存在しない場合、追従すべき移動体を走行経路に射影した位置を一時的な目的地に設定するステップと、を含む。
 本発明によれば、自律移動技術を用いて複数の移動ロボットに同一軌道上を編隊走行させた際に、追従される移動ロボットが何らかの影響を受けて減速してしまった場合でも、編列を崩すことなく、編隊走行を継続することができる。
移動ロボットの一例を示す斜視図 実施の形態1に係る移動ロボットの制御部の一例を示すブロック図 地図部に記憶される地図情報が示す地図の一例を示す図 制御部が実行する自律移動制御処理の一例を示すフローチャート 移動ロボットの自律移動の一例を示す図 移動ロボットが編隊走行する際のイメージを示す図 実施の形態1に係る移動ロボットの局所的目的地算出処理の一例を示すフローチャート 測域センサがスキャン範囲内において認識マークを検出するイメージを示す図 測域センサがスキャン範囲内において障害物を検出するイメージを示す図 親機である移動ロボットと子機である移動ロボットの走行経路の交点を局所的目的地に設定するイメージを示す図 親機である移動ロボットを子機である移動ロボットの走行経路上に射影した点を局所的目的地に設定する一例を示す図 親機である移動ロボットを子機である移動ロボットの走行経路上に射影した点を局所的目的地に設定する別の例を示す図 親機である移動ロボットを子機である移動ロボットの走行経路上に射影した点を局所的目的地に設定するさらに別の例を示す図 ステップS27にて局所的目的地を算出するイメージを示す図 移動ロボットの編隊走行時のイメージを示す図 特許文献1において複数の移動体が同一の経路上を編隊走行する場合のイメージを示す図 実施の形態2に係る移動ロボットの制御部の一例を示すブロック図 実施の形態2に係る移動ロボットの局所的目的地算出処理の一例を示すフローチャート 測域センサがスキャン範囲内において移動ロボットを検出するイメージを示す図 親機である移動ロボットと子機である移動ロボットの走行経路の交点を局所的目的地に設定するイメージを示す図 親機である移動ロボットを子機である移動ロボットの走行経路上に射影した点を局所的目的地に設定する一例を示す図 親機である移動ロボットを子機である移動ロボットの走行経路上に射影した点を局所的目的地に設定する別の例を示す図 親機である移動ロボットを子機である移動ロボットの走行経路上に射影した点を局所的目的地に設定するさらに別の例を示す図
 以下、本発明の実施の形態1について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、図面は、理解しやすくするためにそれぞれの構成要素を模式的に示している。
 まず、本発明の実施の形態1に係る移動ロボットの構成について説明する。図1は、移動ロボット100の一例を示す斜視図である。移動ロボット100は、移動ロボット本体3と、移動ロボット本体3の下部後方に設けられた一対の駆動輪1と、移動ロボット本体3の下部前方に設けられた1つの準輪2と、移動ロボット本体3の上部前方に設けられた測域センサ4と、移動ロボット本体3の内部に設けられた制御部5を有している。
 また、移動ロボット本体3の背面には、各移動ロボット100に固有の認識マーカーが取り付けられている。認識マーカーは、当該移動ロボット100に追従して走行する他の移動ロボット100の測域センサ4によって認識される。認識マーカーは、測域センサ4と同じ高さに設けられる。
 一対の駆動輪1は、準輪2とともに移動ロボット本体3を支持する部材である。一対の駆動輪1は、図1に示すように、矢印aの方向に回転することによって、移動ロボット100を矢印bの方向(進行方向)に走行させる。また、一対の駆動輪1はそれぞれ、矢印aの方向及び矢印aとは逆方向に個別に回転駆動できる。一対の駆動輪1が互いに異なる方向に回転することで、移動ロボット100は、超信地旋回動作を行うことができる。
 準輪2は、上述したように、一対の駆動輪1とともに移動ロボット本体3を支持する部材である。準輪2は、移動ロボット本体3の下部前方において走行面に垂直な軸を中心に回転自在に取り付けられている。
 測域センサ4は、測域センサ4のスキャン範囲内にある物体を検出するセンサである。すなわち、測域センサ4は、周囲に存在する物体を検知する。また、測域センサ4は、移動ロボット本体3の背面に取り付けられた認識マーカーを検知する。測域センサ4は、例えば、レーザを利用した測域センサ4である。測域センサ4は、移動ロボット本体3の進行方向最前部に取りつけられている。
 図2は、本発明の実施の形態1に係る移動ロボット100の制御部5の一例を示すブロック図である。制御部5は、地図部6と、目的地設定部7と、センサデータ取得部8と、自己位置推定部9と、知能部10と、駆動輪制御部11と、を備える。
 地図部6は、移動ロボット100が移動する空間の地図情報を記憶する記憶部である。図3は、地図部6に記憶される地図情報が示す地図の一例を示す図である。地図情報は、2次元空間情報であってもよいし、3次元空間情報であってもよい。地図部6に記憶される地図情報には、図3に示すように予めいくつかの目的地15と、その目的地15を結ぶ走行経路16が設定されている。すなわち、地図部6は、移動ロボット100の走行経路情報を記憶する。地図情報に設定された目的地15には、それぞれ、個別の目的地番号が付与されている。
 目的地設定部7は、地図部6に記憶される地図情報の中の特定の位置を移動ロボット100の移動目的先として登録する処理部である。目的地15の設定は、各目的地15に対応して記憶された目的地番号を設定することにより行われる。
 センサデータ取得部8は、測域センサ4で計測された計測データを入力する入力部である。センサデータ取得部8で取得された計測データは、自己位置推定部9に送信される。
 自己位置推定部9は、地図部6に記憶された地図情報及びセンサデータ取得部8で取得した計測データに基づいて移動ロボット100の現在位置の座標情報を算出する処理部である。
 知能部10は、地図部6に記憶された地図情報、測域センサ4で計測された計測データ、目的地設定部7で設定された目的地番号、自己位置推定部9で算出された現在位置座標情報などを受信する。知能部10は、受信したこれらの情報に基づいて、障害物認識や各移動ロボット100の識別、移動ロボット100が走行する経路の経路情報の生成などを行う処理部である。
 駆動輪制御部11は、知能部10が生成した経路情報に基づいて駆動輪1を制御する。駆動輪制御部11は、例えば、サーボモータを含み、サーボモータによって駆動輪1を駆動する。
 次に、移動ロボット100の自律移動動作について説明する。図4は、制御部5が実行する自律移動制御処理の一例を示すフローチャートである。
 この自律移動制御処理において、まず、目的地設定部7は、目的地15の設定を行う(ステップS1)。
 この場合、目的地設定部7は、知能部10に目的地15の目的地番号を送信する。また、知能部10は地図部6から地図情報を取得する。これにより、知能部10は、移動ロボット100がこれから向かう目的地15の座標と目的地15までの走行経路16を把握する。
 次に、経路追従処理が実行される。この経路追従処理により、知能部10が把握した経路に沿って移動ロボット100は移動することができる。
 経路追従処理には、局所的目的地算出処理(ステップS2)、目的地到着判定処理(ステップS3)、局所的経路追従処理(ステップS4)が含まれる。
 局所的目的地算出処理(ステップS2)において、知能部10は、局所的目的地の算出および設定を行う。局所的目的地とは、現在目指すべき直近の一時的な目的地である。具体的な算出方法については後述する。
 次に、目的地判定処理(ステップS3)において、知能部10は、移動ロボット100が目的地15に到着したか否かを判定する。
 具体的には、知能部10は、局所的目的地が目的地15と一致するか否かを判定し、それらが一致する場合に、自己位置推定部9で算出された移動ロボット100の現在位置、すなわち、自己位置と目的地設定部7で設定された目的地15との間の距離を計算する。
 そして、知能部10は、その距離が予め定められた一定の距離N以下である場合、移動ロボット100が目的地15に到着したと判定する。一方、局所的目的地が目的地15と一致しない場合、または、上記距離が距離Nより大きい場合、移動ロボット100が目的地15に到着していないと判定する。
 移動ロボット100が目的地15に到着していないと判定された場合(ステップS3においてNoの場合)、局所的経路追従処理(ステップS4)において、知能部10は、自己位置推定部9から現在の自己位置の情報を受信し、現在の自己位置から局所的目的地までの最短経路を算出する。
 そして、知能部10は、算出した最短経路を移動ロボット100が走行するように駆動輪制御部11に対して指令を出力する。駆動輪制御部11は、知能部10から受信した指令に基づいて駆動輪1を制御する。
 最短経路の算出には、例えば、A*(エースター)アルゴリズムを用いることができる。このアルゴリズムは、障害物が存在した場合でも、障害物を避けた最短経路を算出することができる。
 また、現在の自己位置から局所的目的地までの最短経路を算出する際、知能部10は、現在の自己位置から局所的目的地までの最短経路の距離が予め定められた距離M未満になったか否かを判定する。
 最短経路の距離が距離M未満になった場合、知能部10は、移動ロボット100が一時停止すべきと判断する。そして、知能部10は、駆動輪制御部11に、駆動輪1の駆動を停止させる。これにより、移動ロボット100は停止する。
 知能部10が、移動ロボット100が一時停止すべきと判断した後、移動ロボット100の自己位置と局所的目的地との間の距離が再び距離M以上になった場合は、知能部10は、移動を再開すべきと判断する。この場合、知能部10は、駆動輪制御部11に、駆動輪1の駆動を再開させる。これにより、移動ロボット100の移動が再開する。
 このように、ステップS3において、移動ロボット100が目的地15に到着したと判定されるまで、局所的目的地算出処理(ステップS2)、目的地到着判定処理(ステップS3)、局所的経路追従処理(ステップS4)が繰り返し実行される。これにより、移動ロボット100は徐々に目的地15に近づく。
 ステップS3において、移動ロボット100が目的地15に到着したと判定された場合(ステップS3においてYesの場合)、知能部10は、駆動輪制御部11に、駆動輪1の駆動を停止させる。これにより、移動ロボット100の移動は停止する(ステップS5)。
 次に、自律移動制御処理によって制御される移動ロボット100の挙動について説明する。図5は、本発明の実施の形態1に係る移動ロボット100の自律移動の一例を示すイメージ図である。図5に示す例では、図4に示した自律移動制御処理のステップS1において、目的地15および走行経路16が既に設定されているものとする。
 図5の上段は、時刻T=t1において、移動ロボット100が、目的地15につながる走行経路16上に設定された局所的目的地17に向かって、最短経路18を走行している状態を示している。また、図5の中段は、時刻T1よりも後の時刻T=t2において、移動ロボット100が、走行経路16上に設定された局所的目的地17に向かって、最短経路18を走行している状態を示している。
 移動ロボット100が局所的目的地17に向かって走行している間、知能部10は、図4を用いて説明した局所的目的地算出処理(ステップS2)、目的地到着判定処理(ステップS3)、および、局所的経路追従処理(ステップS4)を繰り返し実行する。
 一方、図5の下段は、時刻T2よりもあとの時刻T=t3において、移動ロボット100が、目的地15と一致する局所的目的地17に向かって、最短経路18を走行している状態を示している。
 この場合、知能部10は、自己位置推定部9で算出された移動ロボット100の現在の自己位置と目的地設定部7で設定された目的地15との間の距離が距離N以下であるか否かを判定することにより、移動ロボット100が目的地15に到着したか否かを判定する。
 次に、移動ロボット100を複数台用いた編隊走行について説明する。図6は、本発明の実施形態に係る移動ロボット100が編隊走行する際のイメージを示す図である。ここでは、2台の移動ロボット101,102が編隊走行する場合を例にして説明する。
 移動ロボット101は追従される親機であり、移動ロボット102は追従する子機である。まず、図4で説明した局所的目的地算出処理(ステップS2)についてさらに詳細に説明する。図7は、局所的目的地算出処理を示すフローチャートである。
 局所的目的地算出処理では、まず、知能部10は、測域センサ4のスキャン範囲内に親機である移動ロボット101が存在するか否かを判断する(ステップS21)。
 スキャン範囲内に親機である移動ロボット101が存在するか否かは、測域センサ4がそのスキャン範囲内で移動ロボット101の背面に付設された認識マーカー12を検出したか否かで判断される。
 図8は、測域センサ4がそのスキャン範囲70内において認識マーカー12を検出するイメージを示している。親機である移動ロボット101に付設された認識マーカー12が子機である移動ロボット102に設けられた測域センサ4のスキャン範囲70内に存在する場合、親機101の認識マーカー12は、子機である移動ロボット102の測域センサ4によって検出される。
 測域センサ4のスキャン範囲70内に親機である移動ロボット101が存在する場合(ステップS21においてYesの場合)、知能部10は、認識マーカー12が、子機である移動ロボット102の走行経路16上に存在するか否かを判定する(ステップS22)。
 認識マーカー12が子機である移動ロボット102の走行経路16上に存在すると判定された場合(ステップS22においてYesの場合)、知能部10は、親機である移動ロボット101と子機である移動ロボット102の走行経路16との交点を算出し、その交点を局所的目的地17に設定して(ステップS23)、局所的目的地算出処理を終了する。
 認識マーカー12が子機である移動ロボット102の走行経路16上に存在しないと判定された場合(ステップS22においてNoの場合)、知能部10は、親機である移動ロボット101を上記走行経路16上に射影した点を算出し、その点を局所的目的地17に設定し(ステップS24)、局所的目的地算出処理を終了する。
 測域センサ4のスキャン範囲70内に認識マーカー12が検出されなかった場合(ステップS21においてNoの場合)、知能部10は、測域センサ4のスキャン範囲70内に認識マーカー12を備える親機以外の障害物が存在するか否かを判定する(ステップS25)。
 図9に、測域センサ4がそのスキャン範囲70内において障害物19を検出するイメージを示す。障害物19が測域センサ4のスキャン範囲70内に存在する場合、障害物19は、子機である移動ロボット102の測域センサ4によって検出される。
 子機である移動ロボット102に設けられた測域センサ4のスキャン範囲70内に障害物19が存在すると判定された場合(ステップS25においてYesの場合)、知能部10は、障害物19が子機である移動ロボット102の走行経路16上に存在するか否かを判定する(ステップS26)。
 障害物19が子機である移動ロボット102の走行経路16上に存在すると判定された場合(ステップS26においてYesの場合)、知能部10は、障害物19と上記走行経路16の交点を算出し、その交点を局所的目的地17に設定して(ステップS27)、局所的目的地算出処理を終了する。
 局所的目的地17を障害物19と走行経路16との交点に設定する理由は、走行経路16上において障害物19が検知された場合、当該障害物19が人間などの移動する物体である可能性が高いからである。例えば、編隊走行時に、走行経路16を横切るように歩行する人間が走行経路16上において検知された場合を想定する。この場合、親機である移動ロボット101と、子機である移動ロボット102がそれぞれ、歩行する人間を迂回して走行しようとすると、各移動ロボット101,102の編隊が崩れてしまう恐れがある。そのため、走行経路16上に障害物19が検知された場合、知能部10は、走行経路16上に局所的目的地17を一旦設定する。この場合、人間が、走行経路16上からスキャン範囲70外に移動すると、各移動ロボット101,102は移動を再開する。
 子機である移動ロボット102の測域センサ4のスキャン範囲70内に障害物19が存在しない場合(ステップS25においてNoの場合)、知能部10は、上記走行経路16上の一定距離だけ先の位置を算出し、その位置を局所的目的地17に設定して(ステップS28)、局所的目的地算出処理を終了する。
 また、測域センサ4によって検出された障害物19が、子機である移動ロボット102の走行経路16上に存在しない場合(ステップS26においてNoの場合)も同様に、知能部10は、局所的目的地17を、上記走行経路16上の一定距離だけ先の位置に設定する(ステップS28)。ただし、子機である移動ロボット102が走行経路16上の一定距離だけ先の位置に到達するまでに障害物19に衝突すると知能部10が判定した場合、移動ロボット102は、一定距離だけ先に設定された局所的目的地17まで障害物19を回避して走行する。
 次に、図7に示したステップS23,S24,S27及びS28の処理における局所的目的地17の算出方法について説明する。
 図10は、知能部10が、親機である移動ロボット101と子機である移動ロボット102の走行経路16の交点を局所的目的地17に設定するイメージを示す図である。
 ステップS23では、図10に示すように子機である移動ロボット102の走行経路16と認識マーカー12の交わる箇所を局所的目的地17に設定する。
 図11~図13は、知能部10が、親機である移動ロボット101を子機である移動ロボット102の走行経路16上に射影した点を局所的目的地17に設定するイメージを示す図である。
 ステップS24では、図11に示すように、親機である移動ロボット101の位置(例えば、認識マーカー12の中点)と、子機である移動ロボット102の位置(例えば、測域センサ4の中心位置)との距離を算出し、その距離を半径として、測域センサ4の中心位置を中心とする円弧を描く。そして、この円弧と子機である移動ロボット102の走行経路16との交点を局所的目的地17に設定する。
 また、移動ロボット100の位置から移動ロボット100の進行方向に対して垂直に延びる直線と走行経路16との交点を局所的目的地17としてもよい。例えば、図12に示すように、子機である移動ロボット102から見て、認識マーカー12の最左点と最右点を結ぶ直線を描き、その直線と子機である移動ロボット102の走行経路16との交点を局所的目的地17とすることが考えられる。
 また、図13に示すように、認識マーカー12の中点から子機である移動ロボット102の走行経路16に垂線を描き、その垂線と上記走行経路16の交点を局所的目的地17としても良い。
 図14は、ステップS27にて局所的目的地17を算出するイメージを示す図である。ステップS27では、図14に示すように、障害物19と子機である移動ロボット102の走行経路16との交点を局所的目的地17に設定する。
 ステップS28では、前述のように、子機である移動ロボット102の現在位置より、上記走行経路16上を一定の距離Lだけ進んだ位置を局所的目的地17に設定する。
 次に、具体的な編体走行の様子について説明する。図15は、本発明の実施形態における移動ロボット100の編隊走行時のイメージを示す図である。
 図15(a)は移動ロボット101の走行経路16上に障害物19が存在していない時の様子を示している。親機である移動ロボット101は、走行経路16上に障害物19が存在していないため、局所的目的地17をステップS28における処理で算出し、自律移動を行っている。
 一方、子機である移動ロボット102は、走行経路16上に親機である移動ロボット101の認識マーカー12を検出しているため、局所的目的地17をステップS23における処理で算出し、自律移動を行っている。
 図15(b)は、走行経路16付近に障害物19があり、親機である移動ロボット101が、一旦、走行経路16から逸れる場合の様子を示している。
 親機である移動ロボット101は、走行経路16上に障害物19が存在していないため、局所的目的地17を走行経路16上に位置するように、ステップS28における処理で算出し、自律移動を行っている。
 しかし、走行経路16上をそのまま進むと障害物19に衝突すると知能部10が判定した場合は、障害物19との衝突を避けるため、局所的目的地17までの最短経路18は障害物19を迂回する経路となる。すなわち、親機である移動ロボット101の知能部10は、障害物19の回避動作を行うと判定する。
 一方、子機である移動ロボット102は、測域センサ4のスキャン範囲70内に認識マーカー12を検出しているため、局所的目的地17をステップS24における処理で算出し、自律移動を行っている。つまり、子機である移動ロボット102は、親機である移動ロボット101を走行経路16上に射影した点を局所的目的地17として設定し、自律移動を行う。このため、子機である移動ロボット102は、親機である移動ロボット101を走行経路16上に射影した位置よりも前を走行しない。すなわち、子機である移動ロボット102は、親機である移動ロボット101を追い越すことは無い。
 親機である移動ロボット101が最短経路18を進み、子機である移動ロボット102が走行経路16をさらに進むと、子機である移動ロボット102の知能部10は、移動ロボット102が障害物19に衝突すると判定する。この場合、親機である移動ロボット101と同様、子機である移動ロボット102は、障害物19との衝突を避ける最短経路18が設定される。
 なお、子機である移動ロボット102が走行経路16上を進み、測域センサ4が障害物19を検知すると、親機である移動ロボット101と同様に、局所的目的地17までの最短経路18は障害物19を迂回する経路となる。すなわち、子機である移動ロボット102の知能部10も、障害物19の回避動作を行うと判定する。
 図15(c)は、走行経路16上に障害物19が存在している時の様子を示している。親機である移動ロボット101は、走行経路16上に障害物19が存在しているため、局所的目的地17をステップS27における処理で算出し、自律移動を行っている。
 この時、親機である移動ロボット101の現在位置と局所的目的地17の距離は一定距離M未満になるため、移動ロボット101は一時停止する。
 一方、子機である移動ロボット102は、走行経路16上に親機の認識マーカー12を検出しているため、局所的目的地17をステップS24における処理で算出し、自律移動を行っている。
 この時、親機である移動ロボット101が一時停止しており、子機である移動ロボット102の現在位置と局所的目的地17との間の距離は一定距離M未満になるため、移動ロボット102も一時停止する。
 その後、この障害物19が走行経路16から移動した場合、図15(a)に示すように走行経路16上に障害物19が存在していない状態になるため、親機である移動ロボット101は、局所的目的地17をステップS28の処理で算出する。
 この時、局所的目的地17と親機である移動ロボット101の現在位置との間の距離が一定距離M以上になるため、親機である移動ロボット101は自律移動を再開する。
 一方、子機である移動ロボット102も親機である移動ロボット101が自律移動を再開することによって、局所的目的地17と子機である移動ロボット102の位置の距離が一定距離M以上になるため、自律移動を再開する。
 以上の処理を行うことにより、例えば、エアーターミナル等の移動障害物が周囲に存在する環境でも、複数台の移動ロボット100を同一軌道上において編隊走行させる際の複数台の移動ロボット100の追従制御が可能となる。
 なお、本発明の実施の形態1では、各移動ロボット100を識別する構成として、測域センサ4が認識マーカー12を検知して知能部10が移動ロボット100を認識するものとして説明したが、これに限られるものではない。例えば、測域センサ4が、移動ロボット100の外形形状を検知して形状データを取得し、移動ロボット100を認識するようにしてもよい。
 次に、本発明の実施の形態2について説明する。実施の形態2における局所的目的地算出処理では、測域センサ4によって検知される検知物の位置情報および各移動ロボット101、102が互いに共有する各移動ロボット101,102の自己位置の情報に基づいて、測域センサ4のスキャン範囲70内に移動ロボット101が存在するか否かが判定される。ここで、自己位置とは、例えば、移動ロボット101,102の進行方向を前方とした場合、各移動ロボット101,102の背面における左右方向の中心位置である。
 図17は、本発明の実施の形態2に係る制御部5の一例を示すブロック図である。制御部5は、地図部6と、目的地設定部7と、センサデータ取得部8と、自己位置推定部9と、知能部10と、駆動輪制御部11と、通信部21とを備える。
 地図部6、目的地設定部7、センサデータ取得部8、自己位置推定部9、知能部10および駆動輪制御部11は、実施の形態1と同様のものである。
 通信部21は、複数台の移動ロボット101,102が編隊走行を行う際に、各移動ロボット101,102同士が情報をやり取りするための通信装置である。通信部21は、例えば、互いに自己位置の情報をやり取りする。
 次に、実施の形態2に係る移動ロボット101,102が、編隊走行を行う際の局所的目的地17の算出方法について説明する。ここでは、図6に示すように、2台の移動ロボット101,102が編隊走行する場合を例にして説明する。
 移動ロボット101は追従される親機であり、移動ロボット102は追従する子機である。親機である移動ロボット101と子機である移動ロボット102との間では、通信部21を通して、自己位置推定部9で推定された自己位置の情報のやり取りが行われ、移動ロボット101,102は、互いの自己位置の情報を共有している。図18は、局所的目的地算出処理を示すフローチャートである。
 局所的目的地算出処理では、まず、知能部10は、測域センサ4のスキャン範囲70内に親機である移動ロボット101が存在するか否かを判断する(ステップS31)。
 スキャン範囲70内に親機である移動ロボット101が存在するか否かは、次のように判定される。まず、知能部10は各移動ロボット101,102の間で共有されている移動ロボット101の自己位置と移動ロボット102の自己位置との間の距離を算出する。この距離を便宜上、推定距離という。
 次に、知能部10は、測域センサ4のスキャン範囲30内において測域センサ4の最も近くで検知された検知物と測域センサ4との間の距離に基づいて、当該検知物と移動ロボット102の位置との間の距離を算出する。この距離を便宜上、検知距離という。ここで、移動ロボット102の位置とは、例えば、移動ロボット102の進行方向を前方向とした場合、移動ロボット102の背面における左右方向の中心位置である。
 最後に、知能部10は、推定距離と検知距離の差分が所定のしきい値以下であるか否かが判定する。推定距離を示す値と検知距離を示す値の差分が所定のしきい値以下である場合、すなわち、推定距離を示す値と検知距離を示す値の差分が小さい場合、または、零である場合、スキャン範囲70内に親機である移動ロボット101が存在すると判定される。
 このような処理を行うことより、測域センサ4のスキャン範囲70内に親機である移動ロボット101が存在するか否かが判定される。
 なお、知能部10は、各移動ロボット101,102の間で共有されている移動ロボット101の自己位置と移動ロボット102の自己位置とに基づいて、親機である移動ロボット101を認識するようにしてもよい。
 図19は、移動ロボット101の自己位置111と移動ロボット102の自己位置112との間の距離、すなわち推定距離が、スキャン範囲70内において測域センサ4の最も近くで検知された検知物と移動ロボット102との間の距離、すなわち検知距離が一致しているイメージを示している。親機である移動ロボット101が子機である移動ロボット102に設けられた測域センサ4のスキャン範囲70内に存在し、かつ、自己位置推定部9で推定される自己位置111,112が、実際の各移動ロボット101,102の位置とずれていない場合、検知された親機である移動ロボット101の位置と子機である移動ロボット102の位置との間の距離と、移動ロボット101の自己位置111と移動ロボット102の自己位置112との間の距離とが一致する。
 ここで、図18の説明に戻る。測域センサ4のスキャン範囲70内に親機である移動ロボット101が存在する場合(ステップS31においてYesの場合)、知能部10は、移動ロボット101の自己位置111が、子機である移動ロボット102の走行経路16上に存在するか否かを判定する(ステップS32)。
移動ロボット101の自己位置111が子機である移動ロボット102の走行経路16上に存在すると判定された場合(ステップS32においてYesの場合)、知能部10は、親機である移動ロボット101と子機である移動ロボット102の走行経路16との交点を算出し、その交点を局所的目的地17に設定して(ステップS33)、局所的目的地算出処理を終了する。
 移動ロボット101の自己位置111が子機である移動ロボット102の走行経路16上に存在しないと判定された場合(ステップS32においてNoの場合)、知能部10は、親機である移動ロボット101を上記走行経路16上に射影した点を算出し、その点を局所的目的地17に設定し(ステップS34)、局所的目的地算出処理を終了する。
 親機である移動ロボット101がスキャン範囲70内に存在しないと判定された場合(ステップS31においてNoの場合)、知能部10は、測域センサ4のスキャン範囲70内に親機以外の障害物19が存在するか否かを判定する(ステップS35)。
 子機である移動ロボット102に設けられた測域センサ4のスキャン範囲70内に障害物19が存在すると判定された場合(ステップS35においてYesの場合)、知能部10は、障害物19が子機である移動ロボット102の走行経路16上に存在するか否かを判定する(ステップS36)。
 障害物19が子機である移動ロボット102の走行経路16上に存在すると判定された場合(ステップS36においてYesの場合)、知能部10は、障害物19と上記走行経路16の交点を算出し、その交点を局所的目的地17に設定して(ステップS37)、局所的目的地算出処理を終了する。
 子機である移動ロボット102の測域センサ4のスキャン範囲70内に障害物19が存在しない場合(ステップS35においてNoの場合)、知能部10は、上記走行経路16上の一定距離だけ先の位置を算出し、その位置を局所的目的地17に設定して(ステップS38)、局所的目的地算出処理を終了する。
 また、測域センサ4によって検出された障害物19が、子機である移動ロボット102の走行経路16上に存在しない場合(ステップS36においてNoの場合)も同様に、知能部10は、局所的目的地17を、上記走行経路16上の一定距離だけ先の位置に設定する(ステップS38)。ただし、子機である移動ロボット102が走行経路16上の一定距離だけ先の位置に到達するまでに障害物19に衝突すると知能部10が判定した場合、移動ロボット102は、一定距離だけ先に設定された局所的目的地17まで障害物19を回避して走行する。
 次に、図18に示したステップS33,S34,S37及びS38の処理における局所的目的地17の算出方法について説明する。
 図20は、知能部10が、親機である移動ロボット101と子機である移動ロボット102の走行経路16の交点を局所的目的地17に設定するイメージを示す図である。
 ステップS33では、図20に示すように子機である移動ロボット102の走行経路16と移動ロボット101の自己位置111の交わる箇所を局所的目的地17に設定する。
 図21~図23は、知能部10が、親機である移動ロボット101の自己位置111を子機である移動ロボット102の走行経路16上に射影した点を局所的目的地17に設定するイメージを示す図である。
 ステップS34では、図21に示すように、親機である移動ロボット101の自己位置111と、子機である移動ロボット102の、例えば、測域センサ4の中心位置との距離を算出し、その距離を半径として、測域センサ4の中心位置を中心とする円弧を描く。そして、この円弧と子機である移動ロボット102の走行経路16との交点を局所的目的地17に設定する。
 また、移動ロボット100の位置から移動ロボット100の進行方向に対して垂直に延びる直線と走行経路16との交点を局所的目的地17としてもよい。例えば、図22に示すように、子機である移動ロボット102から見て、移動ロボット101の自己位置111を通り、移動ロボット101の背面に沿うような直線を描き、その直線と子機である移動ロボット102の走行経路16との交点を局所的目的地17とすることが考えられる。
 また、図23に示すように、移動ロボット101の自己位置111から子機である移動ロボット102の走行経路16に垂線を描き、その垂線と上記走行経路16の交点を局所的目的地17としても良い。
 以上説明したように、実施の形態2における局所的目的地算出処理では、測域センサ4によって検知される検知物の位置情報および各移動ロボット101,102が互いに共有している自己位置111,112の情報に基づいて、親機101がスキャン範囲70内に存在するか否かを判定している。これにより、実施の形態1と同様、移動ロボット100の走行経路16上に障害物19が存在する場合でも、複数台の移動ロボット100が同一軌道において、編隊走行することが可能となる。
 2017年8月7日出願の特願2017-152523の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明は自律移動ロボットや、自動運転の分野において広く利用可能である。
 1 駆動輪
 2 準輪
 3 移動ロボット本体
 4 測域センサ
 5 制御部
 6 地図部
 7 目的地設定部
 8 センサデータ取得部
 9 自己位置推定部
 10 知能部
 11 駆動輪制御部
 12 認識マーカー
 15 目的地
 16 走行経路
 17 局所的目的地
 18 最短経路
 19 障害物
 20 追従される移動ロボット
 21 通信部
 40 測域センサ
 50 追従する移動ロボット
 70 スキャン範囲
 100 移動ロボット
 101 編隊走行時の移動ロボット(親機)
 102 編隊走行時の移動ロボット(子機)
 111 自己位置
 112 自己位置

Claims (11)

  1.  走行経路情報を記憶する地図部と、
     周囲に存在する物体が追従すべき移動体であるか否かを認識する知能部と、を有し、
     前記知能部は、前記物体が前記追従すべき移動体であり、かつ、前記追従すべき移動体が前記走行経路情報の示す走行経路上に存在しない場合、前記追従すべき移動体を前記走行経路に射影した位置を一時的な目的地に設定することを特徴とする移動体。
  2.  前記知能部は、前記物体が障害物であり、前記走行経路情報が示す前記走行経路上に前記障害物が存在すると判定した場合、前記障害物と前記走行経路の交点を前記一時的な目的地に設定することを特徴とする請求項1に記載の移動体。
  3.  前記知能部は、前記物体が障害物であり、かつ、前記走行経路情報が示す走行経路上に前記障害物が存在しないと判定した場合、前記知能部は前記障害物の回避動作を行うと判定することを特徴とする、請求項1に記載の移動体。
  4.  前記知能部は、前記追従すべき移動体の位置から前記走行経路に引いた垂線と、前記走行経路との交点を前記一時的な目的地に設定することを特徴とする、請求項1に記載の移動体。
  5.  前記知能部は、前記追従すべき移動体の位置から前記追従すべき移動体の進行方向に対して垂直に延びる直線と前記走行経路との交点を前記一時的な目的地に設定することを特徴とする、請求項1に記載の移動体。
  6.  前記知能部は、前記移動体の所定の位置と前記追従すべき移動体との間の距離を半径とし、前記所定の位置を中心とした円弧と前記走行経路の交点を前記一時的な目的地に設定することを特徴とする、請求項1に記載の移動体。
  7.  前記物体を検知するセンサをさらに備えることを特徴とする請求項1~6の何れか1項に記載の移動体。
  8.  前記センサは、前記追従すべき移動体の背面に備えられた認識マーカーを検知し、
     前記知能部は、前記センサが検知した前記認識マーカーに基づいて前記追従すべき移動体を認識することを特徴とする、請求項7に記載の移動体。
  9.  前記センサは、前記物体の形状を検知し、
     前記知能部は、前記センサが検知した前記物体の形状に基づいて前記追従すべき移動体を認識する請求項7に記載の移動体。
  10.  前記追従すべき移動体の自己位置の情報を受信する通信部をさらに有し、
     前記知能部は、前記通信部が受信した前記自己位置の情報に基づいて前記追従すべき移動体を認識する請求項1~7の何れか1項に記載の移動体。
  11.  周囲に存在する物体が追従すべき移動体であるか否かを認識するステップと、
     前記物体が前記追従すべき移動体であり、かつ、前記追従すべき移動体が走行経路情報の示す走行経路上に存在しない場合、前記追従すべき移動体を前記走行経路に射影した位置を一時的な目的地に設定するステップと、を含む移動体の制御方法。
PCT/JP2018/026836 2017-08-07 2018-07-18 移動体および移動体の制御方法 WO2019031168A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18833819.8A EP3667450B1 (en) 2017-08-07 2018-07-18 Mobile body and method for control of mobile body
US16/320,147 US11366481B2 (en) 2017-08-07 2018-07-18 Mobile body and method of controlling mobile body
JP2018562383A JP6771588B2 (ja) 2017-08-07 2018-07-18 移動体および移動体の制御方法
CN201880002941.5A CN109643128B (zh) 2017-08-07 2018-07-18 移动体及移动体的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-152523 2017-08-07
JP2017152523 2017-08-07

Publications (1)

Publication Number Publication Date
WO2019031168A1 true WO2019031168A1 (ja) 2019-02-14

Family

ID=65271247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026836 WO2019031168A1 (ja) 2017-08-07 2018-07-18 移動体および移動体の制御方法

Country Status (5)

Country Link
US (1) US11366481B2 (ja)
EP (1) EP3667450B1 (ja)
JP (1) JP6771588B2 (ja)
CN (1) CN109643128B (ja)
WO (1) WO2019031168A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047476A1 (ja) * 2021-09-22 2023-03-30 株式会社Fuji 移動体およびその制御方法
EP4041041A4 (en) * 2019-10-07 2023-10-18 Lg Electronics Inc. CLEANING ROBOT AND METHOD FOR CONTROLLING THE SAME

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7310889B2 (ja) * 2019-07-17 2023-07-19 村田機械株式会社 走行車、走行車システム及び走行車検出方法
CN110645992B (zh) * 2019-11-07 2021-08-20 北京云迹科技有限公司 一种导航方法及装置
JP7085576B2 (ja) * 2020-02-27 2022-06-16 三菱ロジスネクスト株式会社 移動制御システム、移動体、制御方法及びプログラム
JP2022155100A (ja) * 2021-03-30 2022-10-13 本田技研工業株式会社 作業機
DE102022103404A1 (de) * 2022-02-14 2023-08-17 DroidDrive GmbH Transportfahrzeug und computerimplementiertes Verfahren zur Steuerung eines Transportfahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188893A (ja) * 2009-02-19 2010-09-02 Japan Aerospace Exploration Agency 移動体の三次元群制御方法
JP2011169055A (ja) 2010-02-19 2011-09-01 Nagoya Electrical Educational Foundation 道路補修自走作業車
JP2017016359A (ja) * 2015-06-30 2017-01-19 セコム株式会社 自律移動ロボット
JP2017152523A (ja) 2016-02-24 2017-08-31 株式会社日立製作所 パワー半導体素子およびそれを用いるパワー半導体モジュール

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835880A (en) * 1995-07-19 1998-11-10 Vi & T Group, Inc. Apparatus and method for vehicle following with dynamic feature recognition
GB0111979D0 (en) * 2001-05-17 2001-07-04 Lucas Industries Ltd Sensing apparatus for vehicles
JP2006011594A (ja) * 2004-06-23 2006-01-12 Matsushita Electric Ind Co Ltd 自律走行監視装置およびプログラム
US20060225329A1 (en) * 2005-03-19 2006-10-12 Morrow Lisa A Vehicle convoy indicator
US20090062974A1 (en) * 2007-09-03 2009-03-05 Junichi Tamamoto Autonomous Mobile Robot System
US8676466B2 (en) * 2009-04-06 2014-03-18 GM Global Technology Operations LLC Fail-safe speed profiles for cooperative autonomous vehicles
US9165470B2 (en) * 2011-07-25 2015-10-20 GM Global Technology Operations LLC Autonomous convoying technique for vehicles
CN103455033B (zh) * 2013-09-06 2016-01-20 重庆大学 一种面向多移动机器人系统的模糊编队及避障控制方法
CN103713640B (zh) * 2013-12-31 2016-03-02 北京理工大学 一种移动无线传感器网络节点运动行为控制方法
JP6163453B2 (ja) * 2014-05-19 2017-07-12 本田技研工業株式会社 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
CN105159291B (zh) * 2015-07-10 2018-04-20 北京印刷学院 一种基于信息物理网的车队智能避障装置及避障方法
US9618347B2 (en) * 2015-08-03 2017-04-11 Nissan North America, Inc. Projecting vehicle transportation network information representing an intersection
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
CN105573316B (zh) * 2015-12-01 2019-05-03 武汉科技大学 一种自主编队移动群体机器人
US10007271B2 (en) * 2015-12-11 2018-06-26 Avishtech, Llc Autonomous vehicle towing system and method
CN105955274B (zh) * 2016-05-25 2018-07-03 重庆大学 基于分布式圆心和半径估计的多机器人圆形编队控制方法
JP6620693B2 (ja) * 2016-07-15 2019-12-18 株式会社デンソー 連携走行システム
US10629079B2 (en) * 2016-12-05 2020-04-21 Ford Global Technologies, Llc Vehicle collision avoidance
KR20180087798A (ko) * 2017-01-25 2018-08-02 엘지전자 주식회사 이동 로봇 및 그 제어방법
SE542763C2 (en) * 2017-03-14 2020-07-07 Scania Cv Ab Target arrangement, method, and control unit for following a tar-get vehicle
CN106919173B (zh) * 2017-04-06 2020-05-05 吉林大学 一种基于重型车辆编队的制动集成控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188893A (ja) * 2009-02-19 2010-09-02 Japan Aerospace Exploration Agency 移動体の三次元群制御方法
JP2011169055A (ja) 2010-02-19 2011-09-01 Nagoya Electrical Educational Foundation 道路補修自走作業車
JP2017016359A (ja) * 2015-06-30 2017-01-19 セコム株式会社 自律移動ロボット
JP2017152523A (ja) 2016-02-24 2017-08-31 株式会社日立製作所 パワー半導体素子およびそれを用いるパワー半導体モジュール

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3667450A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4041041A4 (en) * 2019-10-07 2023-10-18 Lg Electronics Inc. CLEANING ROBOT AND METHOD FOR CONTROLLING THE SAME
WO2023047476A1 (ja) * 2021-09-22 2023-03-30 株式会社Fuji 移動体およびその制御方法

Also Published As

Publication number Publication date
EP3667450A4 (en) 2020-10-14
US20220011780A1 (en) 2022-01-13
EP3667450A1 (en) 2020-06-17
EP3667450B1 (en) 2021-10-13
JP6771588B2 (ja) 2020-10-21
JPWO2019031168A1 (ja) 2019-11-07
US11366481B2 (en) 2022-06-21
CN109643128A (zh) 2019-04-16
CN109643128B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
JP6771588B2 (ja) 移動体および移動体の制御方法
CN108475059B (zh) 自主视觉导航
JP4682973B2 (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
KR20170061373A (ko) 이동 로봇 및 그 제어 방법
KR101049906B1 (ko) 자율 이동 장치 및 이의 충돌 회피 방법
JP2001515237A (ja) 誘導ビームを使用した自律型運動ユニットのドッキング方法
US20200257311A1 (en) Cart having leading and following function
JP2006134221A (ja) 追従移動装置
KR20160054862A (ko) 모바일 로봇의 장애물 회피 시스템 및 방법
JP2015121928A (ja) 自律移動ロボットの制御方法
CN112631269A (zh) 自主移动机器人及自主移动机器人的控制程序
JP2009080527A (ja) 自律移動装置
JP7369626B2 (ja) ビークルの制御システム、ビークルの制御方法及びプログラム
TWI732906B (zh) 移動機器人及控制方法
JPWO2019069626A1 (ja) 移動車両
JP2014016858A (ja) 無人移動体システム
JP2010152833A (ja) 無人移動体システム
JP5314788B2 (ja) 自律移動装置
KR101440565B1 (ko) 무인운반차 및 이동로봇의 무선유도 제어방법
JP6406894B2 (ja) 環境地図生成制御装置、移動体、及び環境地図生成方法
WO2021246170A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
JP4975693B2 (ja) 移動ロボット装置及び移動ロボットの制御方法
JP7243141B2 (ja) 移動経路生成装置、移動経路生成方法、および、コンピュータプログラム
JP5214539B2 (ja) 自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018562383

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18833819

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018833819

Country of ref document: EP

Effective date: 20200309