WO2013069195A1 - 自律移動装置、自律移動方法、及び自律移動装置用のプログラム - Google Patents

自律移動装置、自律移動方法、及び自律移動装置用のプログラム Download PDF

Info

Publication number
WO2013069195A1
WO2013069195A1 PCT/JP2012/006300 JP2012006300W WO2013069195A1 WO 2013069195 A1 WO2013069195 A1 WO 2013069195A1 JP 2012006300 W JP2012006300 W JP 2012006300W WO 2013069195 A1 WO2013069195 A1 WO 2013069195A1
Authority
WO
WIPO (PCT)
Prior art keywords
route
person
mobile device
autonomous mobile
human
Prior art date
Application number
PCT/JP2012/006300
Other languages
English (en)
French (fr)
Inventor
ジェッフリー ボナル フェルナンド
山上 勝義
栄一 内藤
谷川 徹
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013534522A priority Critical patent/JP5394597B2/ja
Publication of WO2013069195A1 publication Critical patent/WO2013069195A1/ja
Priority to US14/046,266 priority patent/US9086700B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Definitions

  • the present invention relates to an autonomous mobile device whose movement is controlled by a control device, an autonomous mobile method, and a program for the autonomous mobile device.
  • Non-Patent Document 1 there is a technique for generating a trajectory of a robot for avoiding a moving body represented by a person.
  • a person's movement path is determined based on the idea based on the potential method in which a person receives a virtual repulsive force from a robot and moves in a direction pushed by the repulsive force.
  • This is a method of generating a trajectory that predicts and avoids a plurality of people based on the prediction.
  • FIG. 34A and 34B show an overview of the prior art.
  • FIG. 34A shows initial positions of the robot R and the two moving bodies (people) O1 and O2, and shows a state in which the traveling directions of the robot R and the two moving bodies (people) O1 and O2 intersect. Yes.
  • FIG. 34B shows a case where the robot R turns to the left while traveling. Since the moving body O2 moves while avoiding the robot R approaching its own direction, the direction is changed.
  • the prior art is a method based on the premise that a moving body (that is, a person) can move uniformly in all directions.
  • a moving body that is, a person
  • the avoidance trajectory generated by the conventional technique may cause the person to make an unreasonable movement or a movement with a load.
  • the ease of movement When moving, such as turning around, the ease of movement varies depending on the restrictions of the person being avoided.
  • the ease of movement during movement is defined as the movement ability of the avoidance target person.
  • the conventional technique has a disadvantage that there is a possibility of generating an avoidance trajectory that forces a wheelchair user or a crutch user to make a large change of direction depending on the movement ability of the avoidance target person.
  • FIG. 36A shows a case where it is applied to a person 5 who is a healthy person 5a.
  • the healthy person 5a can immediately move in the direction indicated by the composite vector.
  • the wheelchair user 5b who is the person 5 who uses the wheelchair 5ba shown in FIG. 36B
  • the movement with a large angle of direction change in the direction indicated by the composite vector is performed (see FIG. 36B). Therefore, a load is applied to the wheelchair user 5b.
  • the crutch user 5c who is the person 5 who uses the crutch 5ca shown in FIG. 36C (see FIG. 36C).
  • Patent Document 1 describes that an automatic traveling wheelchair in an apartment house for the elderly or a nursing home performs an avoidance operation according to the type of obstacle.
  • the type of obstacle is only distinguished from an automatic door, an automatic elevator door, or an unspecified obstacle, and the moving ability of the obstacle is not considered.
  • the avoidance method is described only by calculating the shape and size of the obstacle from the image information, the distance to the obstacle, etc., and acquiring a predetermined detour route, depending on the type of moving obstacle
  • the generation route of the automatic traveling wheelchair that facilitates the movement of objects is not considered.
  • an object of the present invention is to provide an autonomous mobile device, an autonomous mobile method, and a program for an autonomous mobile device that can guide a person to an easily avoidable route that is suitable for the person's moving ability when passing by a person. Is to provide.
  • the present invention is configured as follows.
  • An autonomous mobile device information acquisition unit for acquiring the position and speed of the autonomous mobile device; Detecting a person around the autonomous mobile device, and obtaining a position, speed, and traveling direction of the person; A human movement attribute acquisition unit that acquires an attribute based on a movement ability that represents the ease of movement of each person in the traveling direction detected by the human detection unit; Based on the position and speed of the autonomous mobile device acquired by the autonomous mobile device information acquisition unit and the position, speed, and traveling direction of the person acquired by the human detection unit, A human route candidate creation unit that creates a plurality of route candidates to be moved, Based on the information from the human route candidate creation unit and the information from the human movement attribute acquisition unit, the movement distance of the person among the attributes based on the movement ability of the person acquired by the human movement attribute acquisition unit It is an evaluation formula based on the load and the load of the person's direction change, and for each route candidate created by the human route candidate creation unit, it moves according to the
  • a human route load evaluation unit that evaluates the movement load representing the time, and Based on the movement load obtained by the human route load evaluation unit, a human route determination unit that determines a route to be moved by the person from among the route candidates created by the human route candidate creation unit;
  • the route of the autonomous mobile device for guiding the person to the route determined by the human route determination unit based on the information from the autonomous mobile device information acquisition unit and the information from the human route determination unit
  • a guide route planning section for planning Based on the information from the autonomous mobile device information acquisition unit and the information from the guidance route planning unit, so that the autonomous mobile device travels along the guidance route planned by the guidance route planning unit,
  • a movement control unit for controlling the autonomous mobile device;
  • An autonomous mobile device comprising:
  • the autonomous mobile device when the autonomous mobile device and the person pass each other, a plurality of route candidates to be moved by the person are created.
  • a candidate route that is most easily avoided by the person is selected from among them based on the attribute based on the movement ability of the person, and the person can be guided to the easily avoidable route.
  • a movement load indicating the time required for movement according to the ease of movement of each person in the traveling direction (for example, including a load due to movement distance and a load due to ease of changing the direction of the person) (Moving load) is evaluated according to the attribute based on the person's ability to move, and therefore the route candidate with the smallest moving load can be selected as the route that is most easily avoided by the person. Since the autonomous mobile device guides the person along the route, the person can pass the autonomous mobile device with a small movement load.
  • FIG. 1A is a front view of the autonomous mobile device in the first embodiment of the present invention
  • FIG. 1B is a side view of the autonomous mobile device in the first embodiment of the present invention
  • FIG. 2A is a diagram illustrating a scene in which an autonomous mobile device and a wheelchair user pass each other.
  • FIG. 2B is a diagram illustrating a scene in which an autonomous mobile device and a wheelchair user pass each other.
  • FIG. 3A is a diagram showing a person's most avoidable route
  • FIG. 3B is a diagram illustrating a person's most avoidable route
  • FIG. 3A is a diagram showing a person's most avoidable route
  • FIG. 3B is a diagram illustrating a person's most avoidable route
  • FIG. 4 is a diagram showing ⁇ Experiment 1: Experiment in the case where a direction angle with respect to a wheelchair user's passage is large when a wheelchair user is detected>
  • FIG. 5 is a diagram showing, in a tabular form, travel times of the wheelchair user's L1 route and L2 route in Experiment 1.
  • FIG. 6 is a diagram showing ⁇ Experiment 2: Experiment when the direction angle with respect to a wheelchair user's passage is small when a wheelchair user is detected>
  • FIG. 7 is a diagram showing, in tabular form, the travel times of the wheelchair user's L1 route and L2 route in Experiment 2 in Experiment 2, FIG.
  • FIG. 8A is a diagram showing ⁇ Experiment 3: Experiment when wheelchair user travels on various curvature paths>
  • FIG. 8B is a diagram showing a graph plotting the results of ⁇ Experiment 3: Experiment when wheelchair user travels on various curvature paths>
  • FIG. 9 is a diagram showing the travel time of each wheelchair user's route in Experiment 3 in tabular form
  • FIG. 10 is a diagram showing ⁇ Experiment 4: Experiment in the case where the direction angle with respect to the passage of the crutch user is large when the crutch user is detected>
  • FIG. 11 is a diagram showing, in a tabular form, the running times of the crutch user's L1 route and L2 route in Experiment 4.
  • FIG. 11 is a diagram showing, in a tabular form, the running times of the crutch user's L1 route and L2 route in Experiment 4.
  • FIG. 12 is a diagram showing ⁇ Experiment 5: Experiment in the case where the direction angle of the crutch user with respect to the passage when the crutch user is detected> is small;
  • FIG. 13 is a diagram showing the travel time of the crutch user on the L1 route and L2 route in Experiment 5 in a tabular form.
  • FIG. 14A is a diagram showing ⁇ Experiment 6: Experiment when crutch user travels on various curvature paths>
  • FIG. 14B is a diagram showing a graph plotting the results of ⁇ Experiment 6: Experiment when crutch user travels on various curvature paths> FIG.
  • FIG. 15 is a diagram showing a travel time of each crutch user's route in Experiment 6 in a tabular format
  • FIG. 16 is a diagram illustrating ⁇ Experiment 7: Experiment in the case where the direction angle with respect to the passage of the healthy user is large when the healthy person is detected>
  • FIG. 17 is a diagram showing, in a tabular form, the running time on the route L1 and the route L2 of a healthy person in Experiment 7.
  • FIG. 18A is a block diagram showing a configuration of the autonomous mobile device in the first embodiment of the present invention
  • FIG. 18B is a block diagram showing a configuration of the autonomous mobile device in a modification of the first embodiment of the present invention
  • FIG. 19A is a flowchart showing an operation procedure of the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 19B is a flowchart showing an operation procedure of the autonomous mobile device according to the modification of the first embodiment of the present invention.
  • FIG. 20A is an explanatory diagram illustrating a state in which the LRF sensor measures a traveling environment and an obstacle in the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 20B is an explanatory diagram illustrating data acquired by the LRF sensor in the autonomous mobile device according to the first embodiment of the present invention;
  • FIG. 21A is a diagram showing an environment map in the autonomous mobile device of the first embodiment of the present invention, FIG.
  • FIG. 21B is a diagram showing the contents of the database in the environment map in the autonomous mobile device of the first embodiment of the present invention
  • FIG. 22 is a diagram illustrating an example of a determination result of the human movement attribute acquisition unit in the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 23 is a diagram showing a wheelchair user detection method using a stereo camera
  • FIG. 24 is a diagram illustrating a positional relationship between an autonomous mobile device and a person when a person is detected in the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 25 is a diagram illustrating an avoidance operation of the autonomous mobile device when the autonomous mobile device and a person immediately collide with each other in the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 26 is a diagram illustrating a region avoided by a person in the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 27 is a diagram illustrating a destination setting method in a route candidate to be moved by a person in the autonomous mobile device according to the first embodiment of the present invention.
  • FIG. 28A is a diagram showing an effective candidate route extraction method in the autonomous mobile device of the first embodiment of the present invention;
  • FIG. 28B is a diagram showing candidate routes extracted in the autonomous mobile device of the first embodiment of the present invention,
  • FIG. 29A is a diagram illustrating a method for calculating a movement load on a candidate route in the autonomous mobile device according to the first embodiment of the present invention;
  • FIG. 29B is a diagram illustrating a method for calculating a movement load on a candidate route in the autonomous mobile device according to the first embodiment of the present invention
  • FIG. 30 is a diagram illustrating an example of the weight w forward in the load due to the movement distance for each movement attribute in the autonomous mobile device according to the first embodiment of the present invention and the weight w direction in the load due to the ease of changing the direction of a person
  • FIG. 31A is a diagram illustrating an example of a mobile load evaluation when the direction angle with respect to the wheelchair user's passage is large in the autonomous mobile device of the first embodiment of the present invention
  • FIG. 31B is a diagram illustrating a calculation result of the movement load when the direction angle with respect to the wheelchair user's passage is large in the autonomous mobile device of the first embodiment of the present invention
  • FIG. 32A is a diagram illustrating an example of a mobile load evaluation when the direction angle with respect to the wheelchair user's passage is small in the autonomous mobile device of the first embodiment of the present invention
  • FIG. 32B is a diagram showing a calculation result of the movement load when the direction angle with respect to the wheelchair user's passage is small in the autonomous mobile device of the first embodiment of the present invention
  • FIG. 33A is a diagram illustrating a method for determining a route for guiding a person in the autonomous mobile device according to the first embodiment of the present invention
  • FIG. 33B is a diagram illustrating a method for determining a route for guiding a person in the autonomous mobile device according to the first embodiment of the present invention
  • FIG. 34A is a diagram showing an overview of a conventional approach
  • FIG. 34B is a diagram showing an outline of the conventional approach
  • FIG. 35 is a diagram showing human path prediction based on the potential method in the conventional approach.
  • FIG. 36A is a diagram showing an example of applying a human action principle in a conventional approach to a healthy person
  • FIG. 36B is a diagram illustrating an example when the human behavior principle in the conventional approach is applied to a wheelchair user; It is a figure which shows the example at the time of applying the human action principle in a conventional approach to a crutch user.
  • An autonomous mobile device information acquisition unit for acquiring the position and speed of the autonomous mobile device; Detecting a person around the autonomous mobile device, and obtaining a position, speed, and traveling direction of the person; A human movement attribute acquisition unit that acquires an attribute based on a movement ability that represents the ease of movement of each person in the traveling direction detected by the human detection unit; Based on the position and speed of the autonomous mobile device acquired by the autonomous mobile device information acquisition unit and the position, speed, and traveling direction of the person acquired by the human detection unit, A human route candidate creation unit that creates a plurality of route candidates to be moved, Based on the information from the human route candidate creation unit and the information from the human movement attribute acquisition unit, the movement distance of the person among the attributes based on the movement ability of the person acquired by the human movement attribute acquisition unit It is an evaluation formula based on the load and the load of the person's direction change, and for each route candidate created by the human route candidate creation unit, it is an evaluation formula based on the load and the load of the person's direction change, and for each route candidate
  • a human route load evaluation unit that evaluates the movement load representing the time, and Based on the movement load obtained by the human route load evaluation unit, a human route determination unit that determines a route to be moved by the person from among the route candidates created by the human route candidate creation unit;
  • the route of the autonomous mobile device for guiding the person to the route determined by the human route determination unit based on the information from the autonomous mobile device information acquisition unit and the information from the human route determination unit
  • a guide route planning section for planning Based on the information from the autonomous mobile device information acquisition unit and the information from the guidance route planning unit, so that the autonomous mobile device travels along the guidance route planned by the guidance route planning unit,
  • a movement control unit for controlling the autonomous mobile device;
  • An autonomous mobile device comprising:
  • the autonomous mobile device when an autonomous mobile device and a person pass each other, a plurality of route candidates to be moved by the person are created, and the attribute based on the ability of the person to move is created. Accordingly, a candidate route that is most easily avoided by the person is selected, and the person can be guided to the easily avoidable route.
  • a movement load indicating the time required for movement according to the ease of movement of each person in the traveling direction (for example, including a load due to movement distance and a load due to ease of changing the direction of the person) (Moving load) is evaluated according to the attribute based on the person's ability to move, and therefore the route candidate with the smallest moving load can be selected as the route that is most easily avoided by the person. Since the autonomous mobile device guides the person along the route, the person can pass the autonomous mobile device with a small movement load. In evaluating the moving load representing the time required for moving, not only the load due to the moving distance but also the moving load including the load due to the ease of changing the direction of a person can be considered.
  • the human movement attribute acquisition unit provides the autonomous mobile device according to the first aspect, which acquires information relating to the direction change of the person as a human movement attribute.
  • the autonomous mobile device it is possible to acquire which movement attribute the person belongs to. If the movement attribute to which the person belongs is known, the person's ease of direction change can be understood.
  • the person and the autonomous mobile device detected by the human detection unit based on information from the autonomous mobile device information acquisition unit and information from the human detection unit.
  • a collision determination unit that determines whether or not there is a possibility of collision
  • the human route candidate creation unit creates a route candidate to be moved by the person when the collision determination unit may cause the person and the autonomous mobile device to collide with each other.
  • the described autonomous mobile device is provided.
  • the possibility of collision between the autonomous mobile device and the person is determined based on the information of the autonomous mobile device and the information of the person. Only when there is a route candidate can the user be moved. That is, when there is no possibility of collision, the normal route of the autonomous mobile device can be maintained.
  • the human route candidate creation unit determines a destination of the candidate route based on a predicted time until the autonomous mobile device and the person collide and the speed of the person.
  • An autonomous mobile device according to a third aspect is provided. According to the autonomous mobile device according to the aspect of the present invention, if the current information of the autonomous mobile device and the information of the person are maintained, an area where the autonomous mobile device and the person can collide can be predicted. The destination of the candidate route can be set around the area where the collision can occur.
  • the human route determination unit moves to the person based on an environment map in which the autonomous mobile device travels and the movement load obtained by the human route load evaluation unit.
  • An autonomous mobile device according to any one of the first to fourth aspects for determining a route to be received is provided.
  • the autonomous mobile device of the aspect of the present invention it is possible to determine a route to be moved by the person in consideration of an environment map on which the autonomous mobile device travels and the movement load on each candidate route. it can. For example, if there is a known fixed obstacle (such as a trash can) beyond a certain candidate route, the candidate route is not selected. It is assumed that the known fixed obstacle is in the environment map.
  • the human route determination unit selects the autonomous mobile device according to any one of the first to fifth aspects that selects a candidate route that minimizes the movement load of the person that is easy to avoid. provide.
  • a candidate route with the smallest movement load is selected from the plurality of candidate routes, and the candidate route is the route that is most easily avoided by the person, that is, the person moves. It can be determined that the route requires the least travel time.
  • the human movement attribute acquisition unit acquires an attribute based on the movement ability representing the ease of movement of each person in the traveling direction detected by the human detection unit, Based on the position and speed of the autonomous mobile device acquired by the autonomous mobile device information acquisition unit and the position, speed, and traveling direction of the person acquired by the human detection unit, Create multiple route candidates to be moved by the human route candidate creation unit, Based on the information from the human route candidate creation unit and the information from the human movement attribute acquisition unit, the movement distance of the person among the attributes based on the movement ability of the person acquired by the human movement attribute acquisition unit It is an evaluation formula based on the load and the load of the person's direction change, and for each route candidate created by the human route candidate creation unit, it moves according
  • the human route load evaluation unit evaluates the moving load representing the time, Based on the movement load obtained by the human route load evaluation unit, from among the route candidates created by the human route candidate creation unit, determine the route to be moved by the person in the human route determination unit, The route of the autonomous mobile device for guiding the person to the route determined by the human route determination unit based on the information from the autonomous mobile device information acquisition unit and the information from the human route determination unit Is planned by the guide route planning department, Based on the information from the autonomous mobile device information acquisition unit and the information from the guidance route planning unit, so that the autonomous mobile device travels along the guidance route planned by the guidance route planning unit, Provided is an autonomous movement method in which the autonomous mobile device is controlled by a movement control unit.
  • the autonomous movement method when an autonomous mobile device and a person pass each other, a plurality of route candidates to be moved by the person are created, and an attribute based on the movement ability of the person is generated from the candidates. Accordingly, a candidate route that is most easily avoided by the person is selected, and the person can be guided to the easily avoidable route.
  • a movement load indicating the time required for movement according to the ease of movement of each person in the traveling direction (for example, including a load due to movement distance and a load due to ease of changing the direction of the person) (Moving load) is evaluated according to the attribute based on the person's ability to move, and therefore the route candidate with the smallest moving load can be selected as the route that is most easily avoided by the person. Since the autonomous mobile device guides the person along the route, the person can pass the autonomous mobile device with a small movement load. In evaluating the moving load representing the time required for moving, not only the load due to the moving distance but also the moving load including the load due to the ease of changing the direction of a person can be considered. For this reason, even if there is a difference in ease of turning depending on the person's ability to move, it is possible to plan the most avoidable route suitable for the person's ability to move and to guide the person to that route.
  • a program for autonomously determining a moving route and controlling an autonomous mobile device that moves includes: An autonomous mobile device information acquisition unit for acquiring the position and speed of the autonomous mobile device; Attribute based on the ability to detect the person around the autonomous mobile device and represent the person's position, velocity, and direction of movement detected by the person detection unit for acquiring the direction of movement.
  • a person movement attribute acquisition unit for acquiring Based on the position and speed of the autonomous mobile device acquired by the autonomous mobile device information acquisition unit and the position, speed, and traveling direction of the person acquired by the human detection unit, A human route candidate creation unit that creates a plurality of route candidates to be moved, Based on the information from the human route candidate creation unit and the information from the human movement attribute acquisition unit, the movement distance of the person among the attributes based on the movement ability of the person acquired by the human movement attribute acquisition unit It is an evaluation formula based on the load and the load of the person's direction change, and for each route candidate created by the human route candidate creation unit, it moves according to the ease of movement of each person in the traveling direction.
  • a human route load evaluation unit that evaluates the movement load representing the time, and Based on the movement load obtained by the human route load evaluation unit, a human route determination unit that determines a route to be moved by the person from among the route candidates created by the human route candidate creation unit;
  • the route of the autonomous mobile device for guiding the person to the route determined by the human route determination unit based on the information from the autonomous mobile device information acquisition unit and the information from the human route determination unit
  • a guide route planning section for planning Based on the information from the autonomous mobile device information acquisition unit and the information from the guidance route planning unit, so that the autonomous mobile device travels along the guidance route planned by the guidance route planning unit,
  • An autonomous mobile device program for functioning as a movement control unit for controlling the autonomous mobile device is provided.
  • an autonomous mobile device when an autonomous mobile device and a person pass each other, a plurality of route candidates to be moved by the person are created, and the mobility capability of the person is determined from among them.
  • a candidate route that is most easily avoided by the person is selected according to the attribute based on the attribute, and the person can be guided to the easily avoidable route.
  • a movement load indicating the time required for movement according to the ease of movement of each person in the traveling direction (for example, including a load due to movement distance and a load due to ease of changing the direction of the person) (Moving load) is evaluated according to the attribute based on the person's ability to move, and therefore the route candidate with the smallest moving load can be selected as the route that is most easily avoided by the person. Since the autonomous mobile device guides the person along the route, the person can pass the autonomous mobile device with a small movement load. In evaluating the moving load representing the time required for moving, not only the load due to the moving distance but also the moving load including the load due to the ease of changing the direction of a person can be considered. For this reason, even if there is a difference in ease of turning depending on the person's ability to move, it is possible to plan the most avoidable route suitable for the person's ability to move and to guide the person to that route.
  • the autonomous mobile device 1 has a left wheel 2a and a right wheel 2b at the lower part of a cylindrical autonomous mobile device body (moving body) 1a. Each is independently arranged to be able to rotate forward and reverse, and is composed of a mobile body that can move autonomously. Attention is paid to the passing in the passage 6 between the autonomous mobile device 1 and the wheelchair user 5b.
  • 2A and 2B show a scene in which the autonomous mobile device 1 and the wheelchair user 5b pass each other in the passage 6.
  • the width of the passage 6 sandwiched between the left wall 6a and the right wall 6b is set such that the autonomous mobile device 1 and the wheelchair user 5b can just pass each other.
  • the autonomous mobile device 1 since the wheelchair user 5b is on the right side of the autonomous mobile device 1, it is assumed that the autonomous mobile device 1 first moves toward the left wall 6a as indicated by an arrow 7a. In response to the movement of the arrow 7a of the autonomous mobile device 1, the wheelchair user 5b moves while approaching the right wall 6b as shown by the arrow 8a (see the diagram on the right side of FIG. 2A). However, depending on the first movement direction of the wheelchair user 5b along the arrow 7a, the wheelchair user 5b has to change direction so that the wheelchair user 5b approaches the right wall 6b as indicated by the arrow 8a. , Shows a large part of the direction change in the path taken by person 5.) Therefore, the operation of the autonomous mobile device 1 makes the wheelchair user 5b move with a load. The lightning-shaped figure in the right side of FIG. 2A indicates that the wheelchair user 5b is loaded and is a difficult operation.
  • FIG. 2B it is assumed that the autonomous mobile device 1 first moves toward the right wall 6b as indicated by an arrow 7b.
  • the wheelchair user 5b moves toward the left wall 6a as indicated by the arrow 8b with respect to the movement of the arrow 7b of the autonomous mobile device 1.
  • the wheelchair user 5b can move quickly.
  • the autonomous mobile device 1 it is necessary for the autonomous mobile device 1 to first consider an easily avoidable route according to the moving ability of the person 5 (in this case, ease of direction change).
  • the route 9 (9a, 9b) that the person 5 can most easily avoid may change depending on the initial direction (FIGS. 3A and 3B). See).
  • the route 9a is easy to avoid the wheelchair user 5b moving while approaching the left wall 6a.
  • FIG. 3A since the wheelchair user 5b faces the left wall 6a as the first direction, the route 9a is easy to avoid the wheelchair user 5b moving while approaching the left wall 6a.
  • the wheelchair user 5b since the wheelchair user 5b faces the autonomous mobile device 1 straight as the first direction and is located on the right wall 6b side from the center, the wheelchair user 5b Is a path 9b that is easy to avoid while moving toward the right wall 6b.
  • the autonomous mobile device 1 needs to operate so as to guide the person to that route.
  • FIG. 4 is a diagram illustrating the situation of Experiment 1.
  • reference numeral 7 is a path taken by the autonomous mobile device 1 in passing
  • reference numeral 8 is a path taken by the person 5 for the operation of the autonomous mobile device 1.
  • the wheelchair user 5b who is the person 5 who uses the wheelchair 5ba, starts moving from the start position of the START toward the intersection 6Ac of the T-junction, and the autonomous mobile device 1 is kept on standby at first.
  • the wheelchair user 5b turns left at the intersection 6Ac of the T-junction.
  • the wheelchair user 5b appears from the intersection 6Ac of the T-junction, the wheelchair user 5b is detected by the autonomous mobile device 1, and the autonomous mobile device 1 is L1 'route (route closer to the left wall 6a) or L2'. It moves so that it may take the path (path near the right wall 6b).
  • the wheelchair user 5b takes the route L1 (route closer to the right wall 6b) so as to pass each other.
  • the wheelchair user 5b takes the L2 route (route closer to the left wall 6a) so as to pass each other. Further, the traveling time of the wheelchair user 5b on the L1 route and the L2 route from the START start position to the FINISH end position is measured.
  • FIG. 5 shows the traveling time of the wheelchair user 5b in the L1 route and the L2 route in Experiment 1.
  • the average time when taking the route of L1 and the route of L2 is 6.525 [s] (standard deviation 0.507 [s]) and 5.608 [s] (standard deviation 0.329 [s]), respectively.
  • the travel time of the route L2 is shorter than the route L1. That is, when the direction angle ⁇ of the wheelchair user 5b with respect to the longitudinal direction of the passage 6A is large, the route L2 is easier to avoid for the wheelchair user 5b than the route L1.
  • the L2 route has a smaller direction change angle ⁇ even though the travel distance of the L1 route is shorter, and therefore, the L2 route is easier to avoid for the wheelchair user 5b. It turns out that it becomes a route. Therefore, in such a case, the autonomous mobile device 1 takes the route L2 ′, so that the wheelchair user 5b takes a route L2 that is easy to avoid.
  • FIG. 6 is a diagram illustrating the situation of Experiment 2.
  • the wheelchair user 5b starts moving from the start position of the START toward the intersection 6Bc of the crossroad, and the autonomous mobile device 1 is kept on standby at first. It is assumed that the wheelchair user 5b goes straight through the crossroad intersection 6Bc. At the intersection 6Bc of the cross road, the width of the passage 6B is slightly narrowed, so that the wheelchair user 5b changes direction by a small angle ⁇ with respect to the passage 6B.
  • the wheelchair user 5b passes the intersection 6Bc of the crossroad, the wheelchair user 5b is detected by the autonomous mobile device 1, and the autonomous mobile device 1 is the route L1 ′ (route closer to the left wall 6a) or the route L2 ′.
  • the wheelchair user 5b takes the route L1 (route closer to the right wall 6b) so as to pass each other.
  • the autonomous mobile device 1 takes the L2 ′ route
  • the wheelchair user 5b takes the L2 route (route closer to the left wall 6a) so as to pass each other. Further, the traveling time of the wheelchair user 5b on the L1 route and the L2 route from the START start position to the FINISH end position is measured.
  • FIG. 7 shows the traveling time of the wheelchair user 5b in the route L1 and the route L2 in Experiment 2.
  • the average time when taking the route of L1 and the route of L2 is 4.761 [s] (standard deviation 0.114 [s]) and 5.713 [s] (standard deviation 0.262 [s]), respectively.
  • the travel time of the route L1 is shorter than the route L2. That is, when the direction angle ⁇ of the wheelchair user 5b with respect to the longitudinal direction of the passage 6B is small, the route L1 is easier to avoid for the wheelchair user 5b than the route L2.
  • the wheelchair user 5b since the moving distance of the route L1 is shorter, and the route L1 has a smaller direction change angle ⁇ than the route L2, the wheelchair user 5b has L1 than the route L2. It can be seen that the route is easier to avoid. Therefore, in such a case, the autonomous mobile device 1 takes the route L1 ', so that the wheelchair user 5b takes the route L1 that is easy to avoid.
  • FIG. 8A is a diagram illustrating the situation of Experiment 3.
  • the wheelchair user 5b starts moving from the start position of START, and first moves straight to the point A to the left. Next, at point A, the wheelchair user 5b turns leftward and heads to the destination at the end of FINISH. At this time, in order to generate paths with various curvatures from the point A toward the end position (destination) of FINISH, the position of the destination is shifted laterally in FIG. 8A at predetermined intervals. The traveling time of the wheelchair user 5b from the start position of START to the end position of FINISH which is each destination is measured.
  • FIG. 9 shows the traveling time of each wheelchair user 5b in Experiment 3.
  • the travel time on each route against the destination location is plotted and shown in FIG. 8B.
  • the route from point A to the destination at the right end of -1.0 m is the route with the largest turning angle.
  • FIG. 8A when the destination is shifted to the left from the rightmost destination of ⁇ 0.1 m to the destination of 1.5 m, the turning angle becomes smaller and the traveling time becomes shorter.
  • the travel distance increases, so the travel time increases again. Travel time is minimized at a 1.5 m destination. That is, it can be seen from this experiment 3 that when planning the route that is most easy for the person 5 to avoid, it is necessary to consider the ease of direction change and the movement distance based on the movement attribute of the wheelchair user 5b.
  • FIG. 10 is a diagram illustrating the situation of Experiment 4. In FIG.
  • the crutch user 5c who uses the crutch 5ca starts to move from the start position of the START toward the intersection 6Cc of the T-junction, and initially, the autonomous mobile device 1 remains on standby.
  • the crutch user 5c turns left at the intersection 6Cc of the T-junction.
  • the crutch user 5c appears from the intersection 6Cc of the T-junction, the crutch user 5c is detected by the autonomous mobile device 1, and the autonomous mobile device 1 is the route L1 ′ (route closer to the left wall 6a) or L2 ′. It moves so that it may take the path (path near the right wall 6b).
  • the crutch user 5c takes the route L1 (route closer to the right wall 6b) so as to pass each other.
  • the crutch user 5c takes the L2 route (route closer to the left wall 6a) so as to pass each other. Furthermore, the travel time of the crutch user 5c on the L1 route and the L2 route from the START start position to the FINISH end position is measured.
  • FIG. 11 shows the travel time of the crutch user 5c in the experiment 4 on the route L1 and the route L2.
  • the average time when taking the route of L1 and the route of L2 is 5.027 [s] (standard deviation 0.376 [s]) and 4.484 [s] (standard deviation 0.204 [s]), respectively.
  • the travel time of the route L2 is shorter than the route L1. That is, when the direction angle ⁇ with respect to the longitudinal direction of the passage 6C of the crutch user 5c is large, the L2 route is easier to avoid than the L1 route for the crutch user 5c.
  • the L2 route has a smaller direction change angle ⁇ , so that the crutch user 5c can easily avoid the L2 route. It turns out that it becomes a route. Therefore, in such a case, the autonomous mobile device 1 takes the route L2 ′, so that the crutch user 5c takes a route that is easy to avoid.
  • FIG. 12 is a diagram illustrating the situation of Experiment 5.
  • FIG. 12 is a diagram illustrating the situation of Experiment 5.
  • the crutch user 5c starts moving from the start position of the START toward the intersection 6Dc of the crossroad, and the autonomous mobile device 1 is kept on standby at first. Assume that the crutch user 5c goes straight through the intersection 6Dc of the crossroads. At the intersection 6Dc of the cross road, the width of the passage 6D is slightly narrowed, so that the crutch user 5c changes the direction by a small angle ⁇ with respect to the passage 6D.
  • the crutch user 5c passes the crossing intersection 6Dc, the crutch user 5c is detected by the autonomous mobile device 1, and the autonomous mobile device 1 is the route L1 ′ (route closer to the left wall 6a) or the route L2 ′.
  • the crutch user 5c takes the route L1 (route closer to the right wall 6b) so as to pass each other.
  • the crutch user 5c takes the L2 route (route closer to the left wall 6a) so as to pass each other.
  • the travel time of the crutch user 5c on the L1 route and the L2 route from the START start position to the FINISH end position is measured.
  • FIG. 13 shows the travel time of the crutch user 5c in the experiment 5 on the route L1 and the route L2.
  • the average time for taking the L1 route and the L2 route is 4.354 [s] (standard deviation 0.178 [s]) and 4.815 [s] (standard deviation 0.184 [s]), respectively.
  • the travel time of the route L1 is shorter than the route L2. That is, when the direction angle of the crutch user 5c with respect to the longitudinal direction of the passage 6D is small, the L1 route is easier to avoid for the crutch user 5c than the L2 route.
  • the crutch user 5c avoids the route L1 than the route L2. It turns out that it becomes an easy route. Therefore, in such a case, the autonomous mobile device 1 takes the route L1 ', so that the crutch user 5c takes a route that is easy to avoid.
  • FIG. 14A is a diagram illustrating the situation of Experiment 6.
  • the crutch user 5c starts moving from the start position of START, and first goes straight to the point A to the left. Next, at point A, the crutch user 5c turns to the left and heads to the destination at the end of FINISH. At this time, in order to generate paths with various curvatures from the point A toward the end position (destination) of FINISH, the position of the destination is shifted in the horizontal direction in FIG. 14A at predetermined intervals. The travel time of the crutch user 5c from the start position of START to the end position of FINISH which is each destination is measured.
  • FIG. 15 shows the running time of each crutch user 5c in Experiment 6.
  • the travel time on each route against the destination location is plotted and shown in FIG. 14B.
  • the route from point A to the destination at the right end of -1.5 m is the route with the largest turning angle.
  • FIG. 14A when the destination is shifted to the left from the rightmost destination of ⁇ 1.5 m to the destination of 1.0 m, the turning angle becomes smaller and the traveling time becomes shorter.
  • the travel distance increases, so the travel time increases again. Traveling time is minimized at a 1.0 m destination. That is, it can be seen from this experiment 5 that when planning the route that is most easy for the person 5 to avoid, it is necessary to consider the ease of direction change and the movement distance based on the movement attribute of the crutch user 5c.
  • FIG. 16 is a diagram illustrating the situation of Experiment 7. In FIG.
  • the healthy person 5a starts moving from the start position of the START toward the T-junction intersection 6Ec, and the autonomous mobile device 1 is kept on standby at first.
  • the healthy person 5a turns left at the intersection 6Ec of the T-junction.
  • the healthy person 5a appears from the intersection 6Ec of the T-junction, the healthy person 5a is detected by the autonomous mobile device 1, and the autonomous mobile device 1 is the route L1 ′ (route closer to the left wall 6a) or the route L2 ′. It moves so as to take a (path closer to the right wall 6b).
  • the autonomous mobile device 1 takes the L1 'route
  • the healthy person 5a takes the L1 route (route closer to the right wall 6b) so as to pass each other.
  • the healthy person 5a takes the L2 route (route closer to the left wall 6a) so as to pass each other. Furthermore, the running time of the healthy person 5a on the L1 route and the L2 route from the START start position to the FINISH end position is measured.
  • FIG. 17 shows the running time of the healthy person 5a on the route L1 and the route L2 in Experiment 7.
  • the average time when taking the L1 route and the L2 route is 3.250 [s] (standard deviation 0.140 [s]) and 3.692 [s] (standard deviation 0.130 [s]), respectively.
  • the travel time of the route L1 is shorter. That is, even when the direction angle of the healthy person 5a with respect to the longitudinal direction of the passage 6E is large, the route L2 is easier to avoid for the healthy person 5a than the route L1.
  • the autonomous mobile device 1 takes the route L1 ', so that the healthy person 5a takes a route that is easy to avoid.
  • (First embodiment) 1A and 1B show the appearance of the autonomous mobile device 1 according to the first embodiment of the present invention.
  • the autonomous mobile device 1 is fixed to an autonomous mobile device main body (moving body) 1a in which a left wheel 2a and a right wheel 2b are independently rotated in the forward and reverse directions and a front portion of the upper surface of the main body 1a.
  • an environmental observation means environment observation section
  • An RFID (Radio Frequency IDentification) tag reader 4 and a control unit 90 arranged in the main body 1a are provided to autonomously determine a movement route and move.
  • the left wheel 2a and the right wheel 2b are connected to the left and right motors 2aM and 2bM, respectively, and are independently driven in forward and reverse rotations so that the autonomous mobile device 1 travels forward and backward.
  • the autonomous mobile device 1 By changing the rotational speed of the left wheel 2a and the right wheel 2b, the autonomous mobile device 1 can be bent in the left-right direction with respect to the front-rear direction. Details of the LRF sensor 3 and the RFID tag reader 4 will be described later.
  • FIG. 18A shows a block diagram of the autonomous mobile device 1 in the present embodiment.
  • the autonomous mobile device 1 includes, as the control unit 90, a human information acquisition unit (human information acquisition unit, human detection unit, or human detection unit) 101, an autonomous mobile device information acquisition unit (autonomous mobile device information acquisition unit) 109, , Human movement attribute acquisition means (human movement attribute acquisition section) 108, collision determination means (collision determination section) 102, human path candidate generation means (human path candidate generation section) 103, human path load evaluation means (human path) Load evaluation unit) 104, human route determination unit (human route determination unit) 105, guidance route planning unit (guidance route planning unit) 106, mobile body movement control unit (mobile body movement control unit, movement control unit, movement) Control unit) 107.
  • the autonomous mobile device 1 includes an environment map database 51.
  • the information stored in the environment map database 51 is input and output to the environment information acquisition means (environment information acquisition unit) 51G. You may make it acquire from the database outside the autonomous mobile apparatus 1 via a line
  • the environment map database 51 stores an environment map 51A of the environment in which the autonomous mobile device 1 travels.
  • the environment map 51A stores a path through which the autonomous mobile device 1 travels and obstacles that exist in the environment in which the autonomous mobile device 1 travels. That is, the environment map database 51 stores in advance an environment map 51A where the autonomous mobile device 1 and the person 5 coexist and the autonomous mobile device 1 moves, and provides the environment information acquisition means 51G with the data of the environment map 51A.
  • the obstacles in the environment map 51A can be classified into two types: moving obstacles (for example, the person 5) and fixed obstacles (for example, the wall 51w), but the coordinates of the wall 51w that is a fixed obstacle and forms the passage 6 are used. Is included in the environment map 51A.
  • the autonomous mobile device information acquisition means 109 includes self-position estimation information of the autonomous mobile device 1 from the human detection means 101 described below, an environment map 51A stored in the environment map database 51, the left wheel 2a, and the right wheel 2b. Based on the information from the encoders 2aE and 2bE of the left and right motors 2aM and 2bM, the position of the autonomous mobile device 1 and the speed of the autonomous mobile device 1 in the environment in which the autonomous mobile device 1 is traveling are acquired.
  • odometry information possessed by the autonomous mobile device 1 is used. That is, in the autonomous mobile device information acquisition means 109, based on information from the encoders 2aE and 2bE of the left and right motors 2aM and 2bM of the left wheel 2a and the right wheel 2b, the rotation angles of the left wheel 2a and the right wheel 2b The movement distance and direction are obtained by integrating the rotation angular velocity.
  • the environment observation means observes the environment information around the autonomous mobile device 1 at predetermined time intervals based on the information from the timer 101T and records it in the environment information database 101D (see step S202 in FIG. 19A described later).
  • environment information observed by one LRF sensor 3 as an example of environment observation means is acquired.
  • the environmental information includes information about the person 5 around the autonomous mobile device 1.
  • only one sensor may be used as the environment observation means, and two or more sensors may be used as sensor fusion in order to improve measurement accuracy.
  • Examples of the environment observation means are not limited to the LRF sensor 3, and sensors such as a millimeter wave sensor, an ultrasonic sensor, or a stereo camera may be used.
  • the human detection means 101 in order to acquire the position of the autonomous mobile device 1 in the environment where the autonomous mobile device 1 is traveling, in the first embodiment, information from the LRF sensor 3 of FIGS. 1A and 1B is used. .
  • the information of the LRF sensor 3 is collated with the information of the environment map 51A in the environment map DB 51 by the person detection means 101, and the position of the autonomous phase device 1 in the absolute coordinate system 54 in the environment map is obtained by the person detection means 101. Details are described below.
  • FIG. 20A when the autonomous mobile device 1 is traveling, a plurality of LRF sensors 3 are provided around the autonomous mobile device 1 at predetermined time intervals when the autonomous mobile device 1 is traveling.
  • the laser beam 11 is irradiated, and the distance to surrounding obstacles is measured.
  • the LRF sensor 3 has a measurable range of 270 degrees as an example, and the laser beam 11 is irradiated at an interval of 0.25 degrees as an example.
  • the laser line 11 at each angle measures the distance to the obstacle at that angle. That is, reference numeral 80 in FIGS. 20A and 20B indicates a spot where the laser line 11 hits a known obstacle (in this example, the wall 51w), and reference numeral 81 indicates an unknown obstacle where the laser line 11 is not in the environment map 51A. A spot that hits an object (person 5 in this example) is shown.
  • the distance from the irradiation port of the laser beam 11 to these spots is measured by the LRF sensor 3 as the distance from the surrounding obstacle. This measurement result is the environmental information.
  • FIG. 20B shows data acquired by the LRF sensor 3.
  • the human detection unit 101 can acquire the shape of the environment around the current location of the autonomous mobile device 1 from the data acquired by the LRF sensor 3.
  • the environment shape acquired by the LRF sensor 3 is collated by the human detection means 101 with the environment map 51A recorded in advance in the environment map database 51 as the shape of the environment in which the autonomous mobile device 1 operates.
  • FIG. 21A shows an example of environment map information 51A.
  • the wall 51w of the passage 51B specifically, a place like a corner 51f such as the walls 51a, 51b, 51c, 51d, 51e, 51g, etc. Find the position coordinates.
  • the corner 51f is indicated by points P1, P2, P3, and P4.
  • the walls 51a, 51b, 51c, 51d, 51e, 51g and the like are represented by a line connecting two points, for example, the point P2 and the point P3.
  • the wall 51g is indicated by a line connecting the points P2 and P3.
  • FIG. 21B An example of the database 51 in the environment map 51A is shown in FIG. 21B.
  • FIG. 21B information on the xy coordinates of the points P1, P2, P3, and P4 and the line connecting the points P2 and P3 are recorded.
  • the human detection unit 101 repeats parallel movement and rotation of the environment map 51A with respect to the shape of the environment acquired by the LRF sensor 3, and the person detection unit 101 determines the most matching place on the environment map 51A. look for.
  • the most matching place is a position in the traveling environment of the autonomous mobile device 1.
  • the person detection means 101 detects the person 5 from the periphery of the autonomous mobile device 1 based on the information from the LRF sensor 3, and acquires the position, speed, and traveling direction of the person 5.
  • the LRF sensor 3 of FIG. 1A is used as an example of the environment observation unit as the information source input to the human detection unit 101.
  • an environment observation means as an information source for the human detection means 101, only one sensor may be used, or two or more sensors may be used as sensor fusion in order to improve measurement accuracy.
  • this environment observation means can also use sensors such as a millimeter wave sensor, an ultrasonic sensor, or a stereo camera.
  • the position of the autonomous mobile device 1 in the environment where the autonomous mobile device 1 is traveling is estimated by the human detection means 101 as described above.
  • This estimated information is output from the human detection means 101 to the autonomous mobile device information acquisition means 109.
  • distance data that does not partially match the obstacle (such as the wall 51w) of the environment map 51A is generated from the plurality of laser lines 11.
  • the human detection means 101 determines whether or not the point group 81 of the unknown obstacle is always at the same position in the absolute coordinate system 54.
  • the human detection means 101 determines that the point block 81 of the unknown obstacle is a moving obstacle. Judgment is made by means 101. After determining that the obstacle is a moving obstacle, the human detection means 101 determines whether the moving obstacle is the person 5 by considering the width of the moving obstacle. From the distance data of the LRF sensor 3, the width of the moving obstacle is estimated by the human detection means 101. If the width of the wheelchair user 5b seen from the front is about 80 cm and the width of the healthy person 5a seen from the side is about 30 cm, the detected moving obstacle has a width of 30 to 80 cm. Is detected by the human detection means 101. That is, in the human detection unit 101, information on the width of the wheelchair user 5b viewed from the front, the width of the healthy person 5a viewed from the side, and the like are stored in the internal storage unit in advance.
  • the position, speed, and traveling direction of the person 5 can be acquired by the person detection means 101 as information on the person 5. From the position of the autonomous mobile device 1 and the distance from the person 5 measured by the LRF sensor 3, the position of the person 5 is estimated by the person detection means 101.
  • the person detection means 101 obtains the speed of the person 5 as a time derivative of the position of the person 5.
  • the vector at the speed of the person 5 is acquired by the person detection means 101 as the traveling direction of the person 5.
  • the person movement attribute acquisition unit 108 determines the movement ability of the person 5 (ease of movement when the person 5 moves) based on the information such as the position of the person 5 from the person detection unit 101 and the information from the tag reader 4. Determine attribute based.
  • the attribute (person movement attribute) based on the movement ability is an attribute (information regarding the direction change of the person 5) due to the difference in ease of movement for each movement direction (traveling direction) of the person 5. For example, there are a healthy person 5a who can move immediately in all directions, a wheelchair user 5b which is difficult to change direction and takes time, and a crutch user 5c.
  • the movement attribute of the person 5 includes, for example, a person walking with an infusion device, a user using a walking assist device, and an operator walking while moving a hand-held cart.
  • FIG. 22 shows an example of attributes based on the movement ability of the person 5.
  • the RFID tag reader 4 is used as an example of the human movement attribute reading unit of the human movement attribute acquisition unit 108.
  • a wheelchair-specific ID is registered in advance in the internal storage unit of the RFID tag, and the RFID tag is attached to the wheelchair.
  • the RFID tag reader 4 reads the wheelchair-specific ID in the RFID tag and acquires the person movement attribute as the wheelchair user 5b by the person movement attribute acquisition means 108. Can do. Other attributes are acquired in the same way.
  • Patent Document 2 shows a wheelchair user detection method using a stereo camera. As shown in FIG. 23, whether or not the three-dimensional shape is likely to be a wheelchair user by dividing the human three-dimensional information obtained by the stereo camera into several slices and performing image processing by an image processing unit (not shown). The person movement attribute can be acquired.
  • the person movement attribute acquisition means 108 Based on the information on the person movement attribute acquired by the person movement attribute acquisition means 108, the person movement attribute acquisition means 108 refers to the evaluation parameter database 53 and determines the weight in the load depending on the movement distance and the ease of changing the direction of the person. Each weight in the load is determined and output to the human route load evaluation means 104.
  • the collision determination unit 102 determines whether or not the person 5 detected by the human detection unit 101 and the autonomous mobile device 1 may collide based on information from the autonomous mobile device information acquisition unit 109 and the human detection unit 101. It is judged and it is judged whether the person 5 and the autonomous mobile apparatus 1 collide immediately (within predetermined time).
  • the target person 5 is determined by the collision determination unit 102 using the following equation (1). .
  • x r (0) and x p (0) are the position of the autonomous mobile device 1 and the position of the person 5 when the person 5 is detected, respectively.
  • Relative distance d (0) is directed to a human 5 as a predetermined distance d1 th following the autonomous mobile equipment 1 and the human 5 when detecting human 5.
  • the predetermined distance d1 th is 10 m.
  • FIG. 24 shows the positional relationship between the autonomous mobile device 1 and the person 5 when the person 5 is detected.
  • d (t) is a relative distance between the autonomous mobile device 1 and the person 5 at time t.
  • x r (t) and x p (t) are the position of the autonomous mobile device 1 and the position of the person 5 at time t, respectively.
  • the collision determination means 102 differentiates the time function d (t) of the relative distance to obtain the time t when the differential value becomes zero.
  • the time is T min .
  • the relative distance d min at time T min is obtained by the collision determination means 102 by the following formula (4), and represents the distance that the autonomous mobile device 1 and the person 6 are closest to each other.
  • the collision determination unit 102 determines that there is a possibility that the autonomous mobile device 1 and the person 5 collide. Conversely, if the closest distance d min is greater than the predetermined distance d2 th , the collision determination unit 102 determines that there is no possibility of the autonomous mobile device 1 and the person 5 colliding.
  • d2 th be a distance obtained by adding the distance for passing safely to the sum of the radius of the autonomous mobile device 1 and the radius of the person 5.
  • 20 cm which is half the distance of one step the person 5 walks, is set as a distance for passing safely.
  • the distance d2 th is set to 90 cm.
  • the collision determination unit 102 determines that there is a possibility of a collision, the collision determination unit 102 sets the time T min at that time as the collision prediction time. As shown in the following formula (6), if the collision prediction time T min is equal to or shorter than the predetermined time T th , the collision determination unit 102 determines that a collision occurs immediately. If the predicted collision time Tmin is longer than the predetermined time Tth , the collision determination unit 102 determines that no collision will occur immediately.
  • the predetermined time T th is 1 s.
  • the predetermined distances d1 th , the predetermined distance d2 th , and the predetermined time T th that are threshold values are respectively stored in the threshold value database 52 and are referred to by the collision determination unit 102 as necessary. These thresholds are determined by prior experiments.
  • the moving body movement control unit 107 causes the autonomous mobile device 1 to immediately perform an avoidance operation and move autonomously to a place where the person 5 is not present.
  • the device 1 operates to move. For example, as shown in FIG. 25, if the person 5 is on the right side of the autonomous mobile device 1 as viewed from the coordinate system of the autonomous mobile device 1, the mobile device 1 is moved to the left by the moving body movement control means 107. Move to get closer.
  • the human route candidate creation unit 103 Based on the information from the autonomous mobile device information acquisition unit 109 and the information from the collision determination unit 102 (at least information from the human detection unit 101), the human route candidate creation unit 103 If there is a possibility of collision and does not collide immediately, a plurality of route candidates to be moved by the person 5 are created. Specifically, the human route candidate creation unit 103 determines the destination of the candidate route based on the predicted time T min until the autonomous mobile device 1 and the human 5 collide and the speed of the human 5.
  • an area having an angle ⁇ with respect to the current traveling direction of the person 5 Define.
  • the angle ⁇ is 90 degrees.
  • the human route candidate creation means 103 further divides the area that the person 5 avoids, and lists the route candidates that the person 5 wants to move.
  • the area that the person 5 avoids is divided in increments of 2.5 degrees.
  • the arrow shown in FIG. 26 represents the direction 12 that the person 5 avoids (the direction of the candidate route that the person wants to move) 12.
  • the human route candidate creation means 103 sets the destination 13 in the route candidate to be moved by the person 5 in each direction 12.
  • the destination 13 is set to the colliding y coordinate.
  • the y-coordinate serving as the destination is indicated by a line 14 (a line for determining a destination in a route candidate to be moved by a person).
  • the position of the line 14 is a distance L from the current position of the person 5 in the vertical direction.
  • the distance L is determined by the human route candidate creation means 103 by the following formula (7).
  • v py is the y component of the speed of the person 5, and b is the width of the person 5 viewed from the side.
  • the diameter of a healthy person 5a represented by a planar schematic diagram is 60 cm
  • the width b of the healthy person 5a viewed from the side represented by the planar schematic diagram is 60 cm
  • the diameter of the wheelchair user 5b represented by the planar schematic diagram is 80 cm
  • the width b of the wheelchair user 5b viewed from the side represented by the planar schematic diagram is 80 cm.
  • the time T min is a value obtained by the equation (3).
  • the width b is stored in the threshold value database 52.
  • the destination 13 of the candidate route may be generated by the human route candidate creation unit 103 by dividing by the above.
  • FIG. 28A shows the extraction method. Since the person 5 cannot move to the destination of the candidate route outside the passage 6, the candidate route 15 that the person 5 cannot move is omitted by the human route candidate creation unit 103 due to environmental constraints. Due to the relationship between the width of the passage 6, the width of the autonomous mobile device 1, and the width of the person 5, when the person 5 moves to the destination of the candidate route at the center of the passage 6, a space for the autonomous mobile device 1 to pass is secured. If not, the candidate route 16 where the person 5 cannot move is omitted by the human route candidate creation means 103 due to the passing condition. The remaining candidate routes are set as effective candidate routes in the human route candidate creation unit 103. FIG. 28B shows the six destinations 17 of valid candidate routes remaining in this way. The information about the effective candidate route and the destination extracted by the human route candidate creation unit 103 in this way is output from the human route candidate creation unit 103 to the human route load evaluation unit 104.
  • the human route load evaluation unit 104 is created by the human route candidate creation unit 103 based on the information from the human route candidate creation unit 103, the movement attribute of the person 5 determined by the person movement attribute acquisition unit 108, and its weight. For each of the candidate routes, the movement load indicating the ease of movement of the person 5 is evaluated.
  • the human route load evaluation means 104 comprehensively evaluates the movement load based on the movement distance (load of the movement distance) and the load caused by the ease of changing the direction of the person (the load of changing the direction of the person).
  • a specific evaluation formula in the human route load evaluation means 104 is defined by the following formula (8).
  • E is a moving load.
  • the first item and the second item are a load due to the moving distance and a load due to the ease of changing the direction of the person, respectively.
  • w forward and w direction are the weight in the load due to the moving distance and the weight in the load due to the ease of changing the direction of the person, respectively.
  • L AB is the length of the candidate path, and ⁇ r is the direction change angle.
  • the direction change angle is obtained by the human route load evaluation means 104 by the difference in angle between the direction of the person 5 at the current position 18 and the direction toward the effective destination 17 (see FIGS. 29A and 29B).
  • the weight w forward in the load due to the movement distance and the weight w direction in the load due to the ease of changing the direction of the person 5 are used. It is determined by the evaluation means 104.
  • the human route load evaluation means 104 in the case of the wheelchair user 5b, it is difficult to change the direction and it takes time, so the weight w direction is increased.
  • the human route load evaluation means 104 in the case of the healthy person 5a, since there is no difficulty in changing the direction, the weight w direction is reduced. That is, in the human route load evaluation means 104, in the case of the healthy person 5a, it is only necessary to consider the load due to the moving distance.
  • FIG. 30 shows an example of the weight w forward and the weight w direction for each movement attribute. The weight w forward and the weight w direction are stored in the evaluation parameter database 53 in advance.
  • FIG. 31A and FIG. 32A show an example of the evaluation of the movement load in the wheelchair user 5b.
  • the line 14 having the distance L is divided at intervals of 5 cm to generate the destinations 13 of a plurality of candidate routes.
  • Point A is the current position of the wheelchair user 5b, and points B1 to B6 are destinations 17 of valid candidate routes.
  • the person movement attribute acquisition unit 108 uses the weight w forward and the weight w direction of the wheelchair user 5b shown in FIG. 30 stored in the evaluation parameter database 53 when evaluating.
  • FIG. 31A shows a case where the direction angle ⁇ with respect to the longitudinal direction of the passage 6A of the wheelchair user 5b is large.
  • the direction angle ⁇ with respect to the longitudinal direction of the passage 6A is set to 68.53 degrees as an example.
  • FIG. 31B shows calculation of the movement load on each candidate route.
  • FIG. 32A shows a case where the direction angle of the wheelchair user 5b with respect to the longitudinal direction of the passage 6B is small.
  • the direction angle ⁇ with respect to the longitudinal direction of the passage 6B is set to 15.20 degrees as an example.
  • FIG. 32B shows calculation of movement load on each candidate route.
  • the human route determination unit 105 determines a route to be moved by the person 5 based on the movement load obtained by the human route load evaluation unit 104.
  • the human route determination unit 105 selects a candidate route that minimizes the movement load as the route that the person 5 can most easily avoid.
  • the human route determination unit 105 sets the selected route as the route 21 that the person 5 moves.
  • FIG. 31B shows the calculation result of the movement load when the direction angle ⁇ with respect to the passage 6A of the wheelchair user 5b is large, and shows that the movement load on the candidate route to the point B1 is the smallest. That is, the route to avoid to the left wall 6a of the passage 6A is the easiest route for the wheelchair user 5b.
  • FIG. 32B shows the calculation result of the movement load when the direction angle ⁇ with respect to the passage 6B of the wheelchair user 5b is small, and shows that the movement load on the candidate route to the point B6 is the smallest. That is, the route avoided to the right wall 6b of the passage 6B is the easiest route for the wheelchair user 5b. This agrees with the result of ⁇ Experiment 2> shown in FIG.
  • the human route determination means 105 outputs the selected route to the guidance route planning means 106.
  • the guide route planning means 106 is based on the information from the autonomous mobile device information acquisition means 109 and the human route determination means 105 so as to guide the person 5 to the route 21 to be moved by the person 5. Plan one route. That is, the guidance route planning unit 106 determines the route 23 that guides the person 5 to the route 21 that the person 5 moves to, which is determined by the person route determination unit 105.
  • 33A and 33B show a method for determining the route 23 for guiding the person 5 in the guidance route planning means 106, respectively.
  • the position of the destination 24 in the route for guiding the person 5 is determined.
  • the position in the vertical direction in FIG. 33A is determined from the current location of the autonomous mobile device 1 based on the information from the autonomous mobile device information acquisition unit 109 (the center position or the center of gravity position of the autonomous mobile device 1).
  • a destination 24 on the route for guiding the person 5 is set at a distance hy in the direction.
  • the distance hy is determined by the guide route planning means 106 using the following equation (9).
  • L is the vertical distance of the route 21 that the person 5 moves in FIG. 33A, and is the value obtained by the above equation (7).
  • the distance h x is determined by the guide route planning means 106 using the following equation (10).
  • R p and R r are the radius of the person 5 and the radius of the autonomous mobile device 1, respectively.
  • the radius R p of the person 5 is 30 cm for the healthy person 5a and 40 cm for the wheelchair user 5b.
  • the radius R r of the autonomous mobile device 1 is 30 cm.
  • s is a distance for the person 5 and the autonomous mobile device 1 to pass each other safely, and in the first embodiment, as an example, it is 20 cm, which is half the distance of one step the person 5 walks.
  • the guidance route planning means 106 generates a route 23 that guides the person 5 by approximating the route with a curve in order to smoothly travel from the current location of the autonomous mobile device 1 to the destination 24.
  • the curve approximation uses a spline curve.
  • the guide route planning unit 106 outputs the generated information on the route 23 that guides the person 5 to the moving body movement control unit 107.
  • the mobile body movement control means 107 is autonomously moved so that the autonomous mobile apparatus 1 travels on the route 23 for guiding the person 5 based on the information from the autonomous mobile apparatus information acquisition means 109 and the guidance route planning means 106.
  • the left and right motors 2aM and 2bM of the left wheel 2a and the right wheel 2b of the device 1 are driven and controlled.
  • FIG. 19A shows a processing flow of the operation of the autonomous mobile device 1 of the first embodiment.
  • the information on the position and speed of the autonomous mobile device 1 is acquired by the autonomous mobile device information acquisition means 109 (step S201).
  • the person 5 around the autonomous mobile device 1 is detected by the LRF sensor 3 and the person detection means 101 (step S202).
  • step S203 it is judged by the person detecting means 101 whether or not there is a person 5 (step S203). If the human detection means 101 determines that there is no person 5, the process proceeds to step S211 so that the autonomous mobile device 1 travels on the route for guiding the person 5 planned by the guidance route planning means 106 last time. The autonomous mobile device 1 is controlled by the moving body movement control means 107. If there is no route for guiding the person 5 planned by the guide route planning means 106, the autonomous mobile device 1 moves along the route determined when the autonomous mobile device 1 starts moving. The autonomous mobile device 1 is controlled by the moving body movement control means 107.
  • the person detection means 101 determines that there is a person 5
  • the person 5 detected by the person detection means 101 and the autonomous mobile apparatus 1 based on the information of the person detection means 101 and the autonomous mobile apparatus information acquisition means 109.
  • the collision determination unit 102 determines the possibility of collision (step S205).
  • the process proceeds to step S211 and the autonomous mobile device 1 travels on the route for guiding the person 5 previously planned by the guidance route planning unit 106.
  • the autonomous mobile device 1 is controlled by the moving body movement control means 107. If there is no route for guiding the person 5 planned by the guide route planning means 106, the autonomous mobile device 1 moves along the route determined when the autonomous mobile device 1 starts moving.
  • the autonomous mobile device 1 is controlled by the moving body movement control means 107.
  • a candidate for a route to be moved by the person 5 is generated by the human route candidate generation unit 103 (step S206).
  • the movement attribute (attribute relating to movement ability) of the person 5 detected by the tag reader 4 is determined by the person movement attribute acquisition means 108 (step S207).
  • the ease of movement of the person 5 is expressed for each candidate route created by the human route candidate creation unit 103.
  • the movement load is evaluated by the human route load evaluation means 104 (step S208).
  • the route that minimizes the moving load is selected by the human route determining means 105 as the most easy route for the person 5 to avoid.
  • the route to be moved to 5 is determined by the human route determination means 105 (step S209).
  • the route of the autonomous mobile device 1 is planned by the guidance route planning means 106 so as to guide the route determined by the person route determination means 105 to the person 5 to be moved (step S210).
  • the autonomous mobile device 1 is controlled by the moving body movement control means 107 so that the autonomous mobile device 1 travels on the route for guiding the person 5 planned by the guide route planning means 106 (step S211).
  • the autonomous mobile device 1 operates.
  • the collision determination means 102 may be omitted as shown in FIG. 18B.
  • the collision determination unit 102 determines the possibility of a collision by assuming that the person 5 and the autonomous mobile device 1 move with a constant linear motion. However, the possibility of a collision is likely to change due to the speed change of the person 5. Therefore, if the collision determination unit 102 is configured to be omitted, the autonomous mobile device 1 operates immediately when it detects the person 5 without being affected by the fluctuation of the possibility of collision. The person 5 can be guided to an easily avoidable route.
  • step S203 to step 205 it is assumed that the person 5 and the autonomous mobile device 1 move with a uniform linear motion, and the possibility of a collision is determined. However, the possibility of a collision is likely to change due to the speed change of the person 5. For this reason, by omitting steps S203 to S205, the autonomous mobile device 1 operates immediately when it detects the person 5 without being affected by the fluctuation of the possibility of collision. The person 5 can be guided to an easy route.
  • each of the control units 90 or any part of them can be configured by software. Therefore, for example, as a computer program having steps constituting the control operation of each embodiment of the present specification, it is stored in a recording medium such as a storage device (hard disk or the like) so as to be readable, and the computer program is temporarily stored in the computer. Each step described above can be executed by reading it into a device (semiconductor memory or the like) and executing it using a CPU.
  • a part or all of the other parts of the autonomous mobile device other than the human detection unit is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit. Each unit achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • achieves a part or all of the element which comprises the other part except the person detection part of the autonomous mobile device in the said embodiment or modification is the following programs.
  • this program is a program for autonomously determining a movement route and controlling an autonomous mobile device that moves, Computer
  • An autonomous mobile device information acquisition unit for acquiring the position and speed of the autonomous mobile device; Attribute based on the ability to detect the person around the autonomous mobile device and represent the person's position, velocity, and direction of movement detected by the person detection unit for acquiring the direction of movement.
  • a person movement attribute acquisition unit for acquiring A plurality of route candidates to be moved by the person, a route candidate creation unit for creating a plurality, Based on the attribute based on the person's ability to move acquired by the person movement attribute acquisition unit, for each route candidate created by the person route candidate creation unit, the ease of movement of each person in the traveling direction
  • a human route load evaluating unit that evaluates a moving load representing a time required for movement according to the length, Based on the movement load obtained by the human route load evaluation unit, a human route determination unit that determines a route to be moved by the person from among the route candidates created by the human route candidate creation unit;
  • a guidance route planning unit for planning a route of the autonomous mobile device for guiding the person to the route determined by the human route determination unit;
  • a program for an autonomous mobile device for causing the autonomous mobile device to function as a movement control unit that controls the autonomous mobile device so that the autonomous mobile device travels along the guide route planned by the guide route planning unit.
  • the program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory) is read out. May be executed.
  • a predetermined recording medium for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory
  • the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed. In addition, it can be made to show the effect which each has by combining arbitrary embodiment or modification of the said various embodiment or modification suitably.
  • the autonomous mobile device, the autonomous mobile method, and the program for the autonomous mobile device according to the present invention have a function of guiding a person to an easily avoidable route based on the movement attribute of the person, and are useful as a transport robot, a cleaning robot, and the like in a hospital. It is.
  • the present invention can also be applied to a guidance robot, a security robot, a mobile robot on which a person rides, etc. outside a hospital.

Abstract

 人移動属性取得部(108)で、人の移動能力に関する属性を判断する。人経路候補作成部(103)で、検知された人の情報及び衝突予測時間に基づいて、人に移動してもらう経路の候補を作成する。人経路負荷評価部(104)で、人の移動属性に基づいて、ぞれぞれの候補経路における移動負荷を評価する。人経路決定部(105)で、移動負荷が最小となる経路、即ち人の移動能力に適した最も避け易い経路を選択する。誘導経路計画部(106)で、選択された経路へ人を誘導するように、自律移動装置の経路を計画する。移動体移動制御部(107)で、誘導経路上に走行するように、自律移動装置を制御する。

Description

自律移動装置、自律移動方法、及び自律移動装置用のプログラム
 本発明は、制御装置によって移動が制御される自律移動装置、自律移動方法、及び自律移動装置用のプログラムに関するものである。
 近年、人が存在する空間で動作するサービスロボットの研究開発が行われている。例えば、人の代わりに物品を運ぶ物品搬送ロボット、又は、施設内を巡回し警備するロボット、又は、清掃を行うロボットなどがある。このような移動しながら作業を行うロボットは、移動中に人と遭遇するシーンがある。このとき、ロボットが人と安全にすれ違う必要がある。
 従来技術として、人に代表される移動体を回避するためのロボットの軌道生成を行う技術がある(非特許文献1)。この従来技術では、人は接近するロボットに対して、ロボットから仮想的な斥力を受けて、その斥力に押される方向へ方向を変えながら移動するというポテンシャル法に基づく考え方により、人の移動経路を予測し、その予測に基づいて複数の人を回避する軌道を生成する方式である。
 従来技術を具体的に説明する。図34Aと図34Bは、従来技術の概要を示す。図34Aは、ロボットRと2つの移動体(人)O1、O2とにおける初期位置を示し、ロボットRと2つの移動体(人)O1、O2とのそれぞれの進行方向が交差する状態を示している。図34Bは、ロボットRが進行しながら、左へ旋回する場合を示す。移動体O2は自分の方向に近づくロボットRを避けながら進行するため、方向を変えることになる。
 このとき、移動体(人)O1,O2が取る移動経路を予測するために、ロボットRがポテンシャルを持っていると仮定し、移動体(人)O1,O2に斥力を与える。図35で示すように、移動体O1,O2の目的地からの引力FniとロボットRから斥力Frijとの合成ベクトルFにおける方向を、移動体O1,O2の経路と予測する。この予測に基づいて、ロボットRが自分の動作を決定する(非特許文献1参照)。
特開2004-313587号広報 特開2007-272474号広報
井上晃、井上健司、大川善邦 「複数移動障害物の行動予測に基づく自律移動ロボットのオンライン回避行動計画」、日本ロボット学会誌 15(2)、 249-260、 1997-03-15
 従来技術は、移動体(即ち人)が全方向に一様に移動可能であるという前提の方式である。しかしながら、人は、移動する方向によっては動き易さに違いが生じる可能性があり、従来技術で生成された回避軌道では、人に無理な動き又は負荷のかかる動きをさせるおそれがあるという課題を有する。
 例えば、病院などの施設で動作する移動型のサービスロボットを考えた場合に、回避の対象とする人が、通常に歩行できる健常者だけでなく、車椅子利用者、松葉杖利用者、あるいは、点滴の器具などの医療器具を伴って歩行する人、又は、手押し型のカートを動かしながら歩く作業者などを考慮する必要がある。これら、移動の方向に関して決して一様な動きを期待できない、回避対象の人に対して、従来技術では適切な回避経路を生成できない不都合を有する。
 具体的には、車椅子利用者は、2輪の車椅子を操作して移動するという制約がある。車椅子は、回転しながら移動する際の回転半径が小さく、回転角度が大きい場合、車椅子利用者にとってやり難く、時間がかかってしまう動作となる。松葉杖利用者も、2本の松葉杖で動きが制限される。方向転換を行う際に、松葉杖利用者は健常者ほど迅速にできない。
 方向転換などの移動を行う際に、回避対象者の移動時の制約によって、動き易さが異なる。ここでは、移動時における動き易さを、回避対象者の移動能力とする。
 従来技術では、このような、回避対象者の移動能力によって、車椅子利用者又は松葉杖利用者などに対して大きい方向転換を強いるような回避軌道を生成する可能性があるという不都合を有する。
 従来例における不都合を具体的に図36Aと、図36Bと、図36Cとを用いて説明する。図36Aは、健常者5aである人5に適用する場合を示す。健常者5aは、合成ベクトルで示した方向にすぐに移動できる。しかしながら、図36Bに示す車椅子5baを利用する人5である車椅子利用者5bの場合、合成ベクトルで示した方向への方向転換の角度が大きい移動をさせることになる(図36Bを参照)。そのため、車椅子利用者5bには負荷が掛かってしまう。図36Cに示す松葉杖5caを利用する人5である松葉杖利用者5cの場合も同様である(図36Cを参照)。
 特許文献1では、高齢者向け共同住宅又は老人ホームなどでの自動走行車椅子が、障害物の種類に応じて回避動作を行うと記載されている。しかしながら、障害物の種類は、自動扉か、自動昇降機扉か、不特定障害物か、としか区別せず、障害物における移動能力が考慮されていない。回避方法について、画像情報から障害物の形状、サイズ、及び、障害物までの距離などを算出し、予め定められた迂回ルートを取得するとしか記載されず、移動障害物の種類に応じて、障害物が移動し易くなるような自動走行車椅子の生成経路が考慮されていない。
 従って、本発明の目的は、人とすれ違う際に人の移動能力に適した、避け易い経路へ人を誘導することを可能とする自律移動装置、自律移動方法、及び自律移動装置用のプログラムを提供することである。
 前記目的を達成するために、本発明は以下のように構成する。
 本発明の1つの態様によれば、移動経路を自律的に決定し、移動する自律移動装置において、
 前記自律移動装置の位置及び速度を取得する自律移動装置情報取得部と、
 前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を取得する人検知部と、
 前記人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を取得する人移動属性取得部と、
 前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、作成する人経路候補作成部と、
 前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を評価する人経路負荷評価部と、
 前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を決定する人経路決定部と、
 前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を計画する誘導経路計画部と、
 前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を制御する移動制御部と、
を備える自律移動装置を提供する。
 これらの概括的かつ特定の態様は、システム、方法、コンピュータプログラム並びにシステム、方法及びコンピュータプログラムの任意の組み合わせにより実現してもよい。
 本発明の前記態様にかかる自律移動装置、自律移動方法、及び自律移動装置用のプログラムによれば、自律移動装置と人とがすれ違うとき、人に移動してもらう経路の候補を複数個作成し、その中から人の移動能力に基づく属性に応じて、人が最も避け易い候補経路が選択され、その避け易い経路へ人を誘導することができる。複数の経路の候補から選択する際に、人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷(例えば、移動距離による負荷と人の方向転換し易さによる負荷を含む移動負荷)を、人の移動能力に基づく属性に応じて評価するため、移動負荷が最も小さい経路の候補を人の最も避け易い経路として選択することができる。自律移動装置が人をその経路に誘導するため、人が小さい移動負荷で自律移動装置とすれ違うことができる。
 本発明のこれらと他の目的と特徴は、添付された図面についての実施形態に関連した次の記述から明らかになる。この図面においては、
図1Aは、本発明の第1実施形態における自律移動装置の正面図であり、 図1Bは、本発明の第1実施形態における自律移動装置の側面図であり、 図2Aは、自律移動装置と車椅子利用者がすれ違うシーンを示す図であり、 図2Bは、自律移動装置と車椅子利用者がすれ違うシーンを示す図であり、 図3Aは、人の最も避け易い経路を示す図であり、 図3Bは、人の最も避け易い経路を示す図であり、 図4は、<実験1:車椅子利用者を検知した際に車椅子利用者の通路に対する方向角度が大きい場合の実験>を示す図であり、 図5は、実験1における車椅子利用者のL1の経路及びL2の経路での走行時間を表形式で示す図であり、 図6は、<実験2:車椅子利用者を検知した際に車椅子利用者の通路に対する方向角度が小さい場合の実験>を示す図であり、 図7は、実験2における実験2における車椅子利用者のL1の経路及びL2の経路での走行時間を表形式で示す図であり、 図8Aは、<実験3:車椅子利用者が様々な曲率の経路上に走行する場合の実験>を示す図であり、 図8Bは、<実験3:車椅子利用者が様々な曲率の経路上に走行する場合の実験>の結果をプロットしたグラフを示す図であり、 図9は、実験3における車椅子利用者のそれぞれの経路での走行時間を表形式で示す図であり、 図10は、<実験4:松葉杖利用者を検知した際に松葉杖利用者の通路に対する方向角度が大きい場合の実験>を示す図であり、 図11は、実験4における松葉杖利用者のL1の経路及びL2の経路での走行時間を表形式で示す図 図12は、<実験5:松葉杖利用者を検知した際に松葉杖利用者の通路に対する方向角度が小さい場合の実験>を示す図であり、 図13は、実験5における松葉杖利用者のL1の経路及びL2の経路での走行時間を表形式で示す図であり、 図14Aは、<実験6:松葉杖利用者が様々な曲率の経路上に走行する場合の実験>を示す図であり、 図14Bは、<実験6:松葉杖利用者が様々な曲率の経路上に走行する場合の実験>の結果をプロットしたグラフを示す図であり、 図15は、実験6における松葉杖利用者のそれぞれの経路での走行時間を表形式で示す図であり、 図16は、<実験7:健常者を検知した際に健常者利用者の通路に対する方向角度が大きい場合の実験>を示す図であり、 図17は、実験7における健常者のL1の経路及びL2の経路での走行時間を表形式で示す図であり、 図18Aは、本発明の第1実施形態における自律移動装置における構成を示すブロック図であり、 図18Bは、本発明の第1実施形態の変形例における自律移動装置における構成を示すブロック図であり、 図19Aは、本発明の第1実施形態における自律移動装置の動作の手順を示すフローチャートであり、 図19Bは、本発明の第1実施形態の変形例にかかる自律移動装置の動作の手順を示すフローチャートであり、 図20Aは、本発明の第1実施形態の自律移動装置においてLRFセンサーが走行環境及び障害物を計測した様子を示す説明図であり、 図20Bは、本発明の第1実施形態の自律移動装置においてLRFセンサーが取得したデータを示す説明図であり、 図21Aは、本発明の第1実施形態の自律移動装置において環境マップを示す図であり、 図21Bは、本発明の第1実施形態の自律移動装置において環境マップにおけるデータベースの内容を示す図であり、 図22は、本発明の第1実施形態の自律移動装置において人移動属性取得手段の判断結果の例を示す図であり、 図23は、ステレオカメラを用いた車椅子利用者検出方法を示す図であり、 図24は、本発明の第1実施形態の自律移動装置において人を検知した際の自律移動装置と人との位置関係を示す図であり、 図25は、本発明の第1実施形態の自律移動装置において自律移動装置と人がすぐに衝突する場合の自律移動装置の回避動作を示す図であり、 図26は、本発明の第1実施形態の自律移動装置において人が避ける領域を示す図であり、 図27は、本発明の第1実施形態の自律移動装置において人に移動してもらう経路の候補における目的地の設定方法を示す図であり、 図28Aは、本発明の第1実施形態の自律移動装置において有効な候補経路の抽出方法を示す図であり、 図28Bは、本発明の第1実施形態の自律移動装置において抽出された候補経路を示す図であり、 図29Aは、本発明の第1実施形態の自律移動装置において候補経路における移動負荷を計算する方法を示す図であり、 図29Bは、本発明の第1実施形態の自律移動装置において候補経路における移動負荷を計算する方法を示す図であり、 図30は、本発明の第1実施形態の自律移動装置において移動属性ごとの移動距離による負荷における重みwforwardと人の方向転換し易さによる負荷における重みwdirectionの例を示す図であり、 図31Aは、本発明の第1実施形態の自律移動装置において車椅子利用者の通路に対する方向角度が大きい場合における移動負荷評価の例を示す図であり、 図31Bは、本発明の第1実施形態の自律移動装置において車椅子利用者の通路に対する方向角度が大きい場合における移動負荷の計算結果を示す図であり、 図32Aは、本発明の第1実施形態の自律移動装置において車椅子利用者の通路に対する方向角度が小さい場合における移動負荷評価の例を示す図であり、 図32Bは、本発明の第1実施形態の自律移動装置において車椅子利用者の通路に対する方向角度が小さい場合における移動負荷の計算結果を示す図であり、 図33Aは、本発明の第1実施形態の自律移動装置において人を誘導する経路を決定する方法を示す図であり、 図33Bは、本発明の第1実施形態の自律移動装置において人を誘導する経路を決定する方法を示す図であり、 図34Aは、従来アプローチの概要を示す図であり、 図34Bは、従来アプローチの概要を示す図であり、 図35は、従来アプローチにおけるポテンシャル方に基づく人の経路予測を示す図であり、 図36Aは、従来アプローチにおける人の行動原理を健常者に適用した際の例を示す図であり、 図36Bは、従来アプローチにおける人の行動原理を車椅子利用者に適用した際の例を示す図であり、 従来アプローチにおける人の行動原理を松葉杖利用者に適用した際の例を示す図である。
 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
 以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
 本発明の第1態様によれば、移動経路を自律的に決定し、移動する自律移動装置において、
 前記自律移動装置の位置及び速度を取得する自律移動装置情報取得部と、
 前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を取得する人検知部と、
 前記人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を取得する人移動属性取得部と、
 前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、作成する人経路候補作成部と、
 前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を評価する人経路負荷評価部と、
 前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を決定する人経路決定部と、
 前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を計画する誘導経路計画部と、
 前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を制御する移動制御部と、
を備える自律移動装置を提供する。
 本発明の前記態様にかかる自律移動装置によれば、自律移動装置と人とがすれ違うとき、人に移動してもらう経路の候補を複数個作成し、その中から人の移動能力に基づく属性に応じて、人が最も避け易い候補経路が選択され、その避け易い経路へ人を誘導することができる。複数の経路の候補から選択する際に、人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷(例えば、移動距離による負荷と人の方向転換し易さによる負荷を含む移動負荷)を、人の移動能力に基づく属性に応じて評価するため、移動負荷が最も小さい経路の候補を人の最も避け易い経路として選択することができる。自律移動装置が人をその経路に誘導するため、人が小さい移動負荷で自律移動装置とすれ違うことができる。
 移動にかかる時間を表す移動負荷を評価するにあたって、移動距離による負荷だけではなく、人の方向転換し易さによる負荷を含む移動負荷も考慮することができる。そのため、人の移動能力によって方向転換し易さに差異があっても、人の移動能力に適した人の最も避け易い経路を計画でき、人をその経路に誘導できる。
 本発明の第2態様によれば、前記人移動属性取得部は、前記人の方向転換に関する情報を人移動属性として取得する第1の態様に記載の自律移動装置を提供する。
 本発明の前記態様にかかる自律移動装置によれば、前記人がどの移動属性に属するかを取得することができる。前記人がどの移動属性に属するかを分かれば、前記人の方向転換し易さが分かる。
 本発明の第3態様によれば、前記自律移動装置情報取得部とからの情報と前記人検知部とからの情報とを基に、前記人検知部によって検知された前記人と前記自律移動装置とが衝突する可能性の有無を判断する衝突判断部をさらに備え、
 前記人経路候補作成部は、前記衝突判断部によって前記人と前記自律移動装置とが衝突する可能性が有る場合、前記人に移動してもらう経路の候補を作成する第1又は2の態様に記載の自律移動装置を提供する。
 本発明の前記態様にかかる自律移動装置によれば、前記自律移動装置の情報と前記人の情報とに基づいて、前記自律移動装置と前記人との衝突可能性を判断し、衝突可能性が有る場合のみ、前記人に移動してもらう経路の候補を作成できる。即ち、衝突可能性が無い場合、自律移動装置の通常の経路を維持できる。
 本発明の第4態様によれば、前記人経路候補作成部は、前記自律移動装置と前記人が衝突するまでの予測時間及び前記人の速度に基づいて、前記候補経路の目的地を決定する第3の態様に記載の自律移動装置を提供する。
 本発明の前記態様にかかる自律移動装置によれば、現在の前記自律移動装置の情報と前記人の情報とを維持すれば、前記自律移動装置と前記人が衝突し得る領域を予測でき、その衝突し得る領域の周辺に前記候補経路の目的地を設定できる。
 本発明の第5態様によれば、前記人経路決定部は、前記自律移動装置が走行する環境マップと、前記人経路負荷評価部によって求められた前記移動負荷とに基づいて、前記人に移動してもらう経路を決定する第1~4のいずれか1つの態様に記載の自律移動装置を提供する。
 本発明の前記態様にかかる自律移動装置によれば、前記自律移動装置が走行する環境マップと各前記候補経路における前記移動負荷とを考慮し、前記人に移動してもらう経路を決定することができる。例えば、ある候補経路の先において既知の固定障害物(ゴミ箱、など)が存在する場合、その候補経路を選択しない。尚、その既知の固定障害物が環境マップにあるとする。
 本発明の第6態様によれば、前記人経路決定部は、避け易い前記人の移動負荷が最小となる候補経路を選択する第1~5のいずれか1つの態様に記載の自律移動装置を提供する。
 本発明の前記態様にかかる自律移動装置によれば、複数の前記候補経路の中から、移動負荷の最も小さい候補経路を選択し、その候補経路を前記人の最も避け易い経路、即ち人が移動するには最も移動時間がかからない経路、と決定することができる。
 本発明の第7態様によれば、移動経路を自律的に決定し、移動する自律移動装置の自律移動方法において、
 前記自律移動装置の位置及び速度を自律移動装置情報取得部で取得し、
 前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を人検知部で取得し、
 前記人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を人移動属性取得部で取得し、
 前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、人経路候補作成部で作成し、
 前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を人経路負荷評価部で評価し、
 前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を人経路決定部で決定し、
 前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を誘導経路計画部で計画し、
 前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を移動制御部で制御する、自律移動方法を提供する。
 本発明の前記態様にかかる自律移動方法によれば、自律移動装置と人とがすれ違うとき、人に移動してもらう経路の候補を複数個作成し、その中から人の移動能力に基づく属性に応じて、人が最も避け易い候補経路が選択され、その避け易い経路へ人を誘導することができる。複数の経路の候補から選択する際に、人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷(例えば、移動距離による負荷と人の方向転換し易さによる負荷を含む移動負荷)を、人の移動能力に基づく属性に応じて評価するため、移動負荷が最も小さい経路の候補を人の最も避け易い経路として選択することができる。自律移動装置が人をその経路に誘導するため、人が小さい移動負荷で自律移動装置とすれ違うことができる。
 移動にかかる時間を表す移動負荷を評価するにあたって、移動距離による負荷だけではなく、人の方向転換し易さによる負荷を含む移動負荷も考慮することができる。そのため、人の移動能力によって方向転換し易さに差異があっても、人の移動能力に適した人の最も避け易い経路を計画でき、人をその経路に誘導できる。
 本発明の第8態様によれば、移動経路を自律的に決定し、移動する自律移動装置を制御ためのプログラムであって、
 コンピュータを、
 前記自律移動装置の位置及び速度を取得する自律移動装置情報取得部と、
 前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を取得する人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を取得する人移動属性取得部と、
 前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、作成する人経路候補作成部と、
 前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を評価する人経路負荷評価部と、
 前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を決定する人経路決定部と、
 前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を計画する誘導経路計画部と、
 前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を制御する移動制御部と、として機能させるための自律移動装置用プログラムを提供する。
 本発明の前記態様にかかる自律移動装置用のプログラムによれば、自律移動装置と人とがすれ違うとき、人に移動してもらう経路の候補を複数個作成し、その中から人の移動能力に基づく属性に応じて、人が最も避け易い候補経路が選択され、その避け易い経路へ人を誘導することができる。複数の経路の候補から選択する際に、人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷(例えば、移動距離による負荷と人の方向転換し易さによる負荷を含む移動負荷)を、人の移動能力に基づく属性に応じて評価するため、移動負荷が最も小さい経路の候補を人の最も避け易い経路として選択することができる。自律移動装置が人をその経路に誘導するため、人が小さい移動負荷で自律移動装置とすれ違うことができる。
 移動にかかる時間を表す移動負荷を評価するにあたって、移動距離による負荷だけではなく、人の方向転換し易さによる負荷を含む移動負荷も考慮することができる。そのため、人の移動能力によって方向転換し易さに差異があっても、人の移動能力に適した人の最も避け易い経路を計画でき、人をその経路に誘導できる。
 以下、図面を参照して本発明における第1実施形態を詳細に説明する。
 まず、本発明の第1実施形態における自律移動装置1は、図1A及び図1Bに示すように、円筒状の自律移動装置本体(移動体)1aの下部に左車輪2aと右車輪2bとがそれぞれ独立して正逆回転可能に配置されて、自律移動可能な移動体で構成されている。このような自律移動装置1と車椅子利用者5bとの通路6でのすれ違いに着目する。図2A及び図2Bは、自律移動装置1と車椅子利用者5bとが、通路6ですれ違うシーンを示す。自律移動装置1の座標系から見れば、車椅子利用者5bが自律移動装置1の右側にある。車椅子利用者5bが通路6の長手方向に対して大きく傾いている(θ参照)とする。左壁6aと右壁6bとで挟まれた通路6の幅は、自律移動装置1と車椅子利用者5bとがちょうどすれ違えるような寸法とする。
 図2Aの左側の図では、車椅子利用者5bが自律移動装置1の右側にあるため、矢印7aのように自律移動装置1が先に左壁6aに寄せながら動くとする。自律移動装置1の矢印7aの動きに対して、矢印8aのように車椅子利用者5bが右壁6bに寄せながら動く(図2Aの右側の図参照)。しかし、車椅子利用者5bの矢印7aに沿った移動のうちの最初の移動方向によって、矢印8aのように車椅子利用者5bが右壁6bに寄るように大きく方向転換しなければならない(符号10は、人5が取る経路における方向転換大きい部分を示す。)。そのため、自律移動装置1の動作が、車椅子利用者5bに負荷のある動きをさせることになる。図2Aの右側の図における、稲妻形状の図形は、車椅子利用者5bに負荷がかかり、困難な動作であることを示している。
 一方、図2Bでは、矢印7bのように自律移動装置1が先に右壁6bに寄せながら動くとする。自律移動装置1の矢印7bの動きに対して、矢印8bのように車椅子利用者5bが左壁6aに寄せながら動く。この場合、車椅子利用者5bの方向転換の角度が小さいため、車椅子利用者5bが素早く動くことができる。
 そのため、自律移動装置1が最初に人5の移動能力(この場合、方向転換のし易さ)に応じた避け易い経路を考慮する必要がある。車椅子利用者5bの場合、自律移動装置1が同じ位置にあっても、最初の方向に応じて、人5の最も避け易い経路9(9a,9b)が変わる場合がある(図3A、図3Bを参照)。例えば、図3Aのときは、最初の方向として車椅子利用者5bが左壁6a側を向いているので、車椅子利用者5bが左壁6aに寄せながら動くのが避け易い経路9aである。これに対して、図3Bのときは、最初の方向として車椅子利用者5bが真っ直ぐ自律移動装置1を向いており、かつ、中央よりも右壁6b側に位置しているため、車椅子利用者5bが右壁6bに寄せながら動くのが避け易い経路9bである。このように、人の最も避け易い経路が分かれば、自律移動装置1が人をその経路に誘導するように動作する必要がある。
 前記の説明の根拠及び本発明の前記実施形態の構成による課題解決の有効性を示すための実験について以下に述べる。ここでは、代表例として7種類の実験を行い、それぞれの実験を説明する。<実験1>~<実験3>、<実験4>~<実験6>、<実験7>は、それぞれ車椅子利用者、松葉杖利用者、健常者における実験である。
 <実験1:自律移動装置1が車椅子利用者5bを検知した際に車椅子利用者5bの通路6Aの長手方向に対する方向角度θが大きい場合の実験>
 図4は、実験1の状況を示す図である。図4などにおいて、参照符号7は、すれ違いでの自律移動装置1が取る経路であり、参照符号8は、自律移動装置1の動作に対する人5が取る経路である。
 通路6A内で、車椅子5baを利用している人5である車椅子利用者5bがSTARTの開始位置からT字路の交差点6Acに向けて動き出し、最初、自律移動装置1は待機したままとする。車椅子利用者5bはT字路の交差点6Acで左折する。車椅子利用者5bがT字路の交差点6Acから現れた際に、自律移動装置1によって車椅子利用者5bが検知され、自律移動装置1がL1’の経路(左壁6a寄りの経路)又はL2’の経路(右壁6b寄りの経路)を取るように動く。自律移動装置1がL1’の経路を取ったら、互いにすれ違えるように、車椅子利用者5bがL1の経路(右壁6b寄りの経路)を取る。一方、自律移動装置1がL2‘の経路を取ったら、互いにすれ違えるように、車椅子利用者5bがL2の経路(左壁6a寄りの経路)を取る。さらに、STARTの開始位置からFINISHの終了位置までのL1の経路及びL2の経路での車椅子利用者5bの走行時間をそれぞれ計測する。
 このような実験1を20回繰り返し、これらの実験1において、自律移動装置1がランダムにL1’又はL2’の経路を取るようにする。
 図5は、実験1における車椅子利用者5bのL1の経路及びL2の経路での走行時間を示す。L1の経路とL2の経路を取る際の平均時間がそれぞれ6.525[s](標準偏差0.507[s])、5.608[s](標準偏差0.329[s])であり、L1の経路よりもL2の経路の走行時間の方が短い。即ち、車椅子利用者5bの通路6Aの長手方向に対する方向角度θが大きい場合、車椅子利用者5bには、L1の経路よりもL2の経路の方が避け易い経路となる。
 この実験1より、L1の経路の移動距離の方が短いにも関わらず、L2の経路の方が方向転換の角度θが小さいため、車椅子利用者5bには、L2の経路の方が避け易い経路となることがわかる。よって、このような場合では、自律移動装置1がL2‘の経路を取ることで、車椅子利用者5bが避け易い経路L2を取るようになる。
 <実験2:車椅子利用者5bを検知した際に車椅子利用者5bの通路6Bの長手方向に対する方向角度θが小さい場合の実験>
 図6は、実験2の状況を示す図である。
 通路6B内で、車椅子利用者5bがSTARTの開始位置から十字路の交差点6Bcに向けて動き出し、最初、自律移動装置1は待機したままとする。車椅子利用者5bは十字路の交差点6Bcを通過して直進するとする。この十字路の交差点6Bcにおいて、通路6Bの幅が少し狭くなるため、車椅子利用者5bが通路6Bに対して小さい角度θだけ方向を変えることになる。車椅子利用者5bが十字路の交差点6Bcを通過する際に、自律移動装置1によって車椅子利用者5bが検知され、自律移動装置1がL1’の経路(左壁6a寄りの経路)又はL2’の経路(右壁6b寄りの経路)を取るように動く。自律移動装置1がL1’の経路を取ったら、互いにすれ違えるように、車椅子利用者5bがL1の経路(右壁6b寄りの経路)を取る。一方、自律移動装置1がL2‘の経路を取ったら、互いにすれ違えるように、車椅子利用者5bがL2の経路(左壁6a寄りの経路)を取る。さらに、STARTの開始位置からFINISHの終了位置までのL1の経路及びL2の経路での車椅子利用者5bの走行時間をそれぞれ計測する。
 このような実験2を20回繰り返し、これらの実験2において、自律移動装置1がランダムにL1’又はL2’の経路を取るようにする。
 図7は、実験2における車椅子利用者5bのL1の経路及びL2の経路での走行時間を示す。L1の経路とL2の経路を取る際の平均時間がそれぞれ4.761[s](標準偏差0.114[s])、5.713[s](標準偏差0.262[s])であり、L2の経路よりもL1の経路の走行時間の方が短い。即ち、車椅子利用者5bの通路6Bの長手方向に対する方向角度θが小さい場合、車椅子利用者5bには、L2の経路よりもL1の経路の方が避け易い経路となる。
 この実験2より、L1の経路の移動距離の方が短く、かつ、L2の経路よりもL1の経路の方が方向転換の角度θが小さいため、車椅子利用者5bには、L2の経路よりL1の経路の方が避け易い経路となることがわかる。よって、このような場合では、自律移動装置1がL1’の経路を取ることで、車椅子利用者5bが避け易い経路L1を取るようになる。
 <実験3:車椅子利用者5bが様々な曲率の経路6上に走行する場合の実験>
 図8Aは、実験3の状況を示す図である。
 車椅子利用者5bは、STARTの開始位置から動き出し、まず、点Aに直線的に左に向かう。次いで、点Aにおいて、車椅子利用者5bが左向きに方向転換を行い、FINISHの終了位置にある目的地へ向かう。このとき、点AからFINISHの終了位置(目的地)に向けて様々な曲率の経路を生成するために、所定間隔ごとに目的地の位置を図8Aにおいて横方向にずらす。STARTの開始位置から、それぞれの目的地であるFINISHの終了位置までの車椅子利用者5bの走行時間をそれぞれ計測する。
 図9は、実験3における車椅子利用者5bのそれぞれの経路での走行時間を示す。
目的地の位置対するそれぞれの経路での走行時間をプロットし、図8Bに示す。点Aから右端の-1.0mの目的地へ向かう経路が、最も方向転換の角度が大きい経路である。図8Aにおいて目的地を右端の-0.1mの目的地から1.5mの目的地まで左にずらすと、方向転換の角度が小さくなり、走行時間が小さくなる。しかし、1.5mの目的地を過ぎたのち、さらに、目的地を段々左にずらすと、移動距離が大きくなるため、走行時間が再び上がる。1.5mの目的地において、走行時間が最小となる。即ち、この実験3より、人5の最も避け易い経路を計画する際に、車椅子利用者5bの移動属性に基づく、方向転換のし易さと移動距離とを考慮する必要があることがわかる。
 <実験4:松葉杖利用者5cを検知した際に松葉杖利用者5cの通路6Cの長手方向に対する方向角度θが大きい場合の実験>
 図10は、実験4の状況を示す図である。
 通路6C内で、松葉杖5caを利用している松葉杖利用者5cがSTARTの開始位置からT字路の交差点6Ccに向けて動き出し、最初、自律移動装置1は待機したままとする。松葉杖利用者5cはT字路の交差点6Ccで左折する。松葉杖利用者5cがT字路の交差点6Ccから現れた際に、自律移動装置1によって松葉杖利用者5cが検知され、自律移動装置1がL1’の経路(左壁6a寄りの経路)又はL2’の経路(右壁6b寄りの経路)を取るように動く。自律移動装置1がL1’の経路を取ったら、互いにすれ違えるように、松葉杖利用者5cがL1の経路(右壁6b寄りの経路)を取る。一方、自律移動装置1がL2‘の経路を取ったら、互いにすれ違えるように、松葉杖利用者5cがL2の経路(左壁6a寄りの経路)を取る。さらに、STARTの開始位置からFINISHの終了位置までのL1の経路及びL2の経路での松葉杖利用者5cの走行時間をそれぞれ計測する。
 このような実験4を20回繰り返し、これらの実験4において、自律移動装置1がランダムにL1’又はL2’の経路を取るようにする。
 図11は、実験4における松葉杖利用者5cのL1の経路及びL2の経路での走行時間を示す。L1の経路とL2の経路を取る際の平均時間がそれぞれ5.027[s](標準偏差0.376[s])、4.484[s](標準偏差0.204[s])であり、L1の経路よりもL2の経路の走行時間の方が短い。即ち、松葉杖利用者5cの通路6Cの長手方向に対する方向角度θが大きい場合、松葉杖利用者5cには、L1の経路よりもL2の経路の方が避け易い経路となる。
 この実験4より、L1の経路の移動距離の方が短いにも関わらず、L2の経路の方が方向転換の角度θが小さいため、松葉杖利用者5cには、L2の経路の方が避け易い経路となることがわかる。よって、このような場合では、自律移動装置1がL2‘の経路を取ることで、松葉杖利用者5cが避け易い経路を取るようになる。
 <実験5:松葉杖利用者5cを検知した際に松葉杖利用者5cの通路6Dの長手方向に対する方向角度θが小さい場合の実験>
 図12は、実験5の状況を示す図である。
 通路6D内で、松葉杖利用者5cがSTARTの開始位置から十字路の交差点6Dcに向けて動き出し、最初、自律移動装置1は待機したままとする。松葉杖利用者5cは十字路の交差点6Dcを通過して直進するとする。この十字路の交差点6Dcにおいて、通路6Dの幅が少し狭くなるため、松葉杖利用者5cが通路6Dに対して小さい角度θだけ方向を変えることになる。松葉杖利用者5cが十字路の交差点6Dcを通過する際に、自律移動装置1によって松葉杖利用者5cが検知され、自律移動装置1がL1’の経路(左壁6a寄りの経路)又はL2’の経路(右壁6b寄りの経路)を取るように動く。自律移動装置1がL1’の経路を取ったら、互いにすれ違えるように、松葉杖利用者5cがL1の経路(右壁6b寄りの経路)を取る。一方、自律移動装置1がL2‘の経路を取ったら、互いにすれ違えるように、松葉杖利用者5cがL2の経路(左壁6a寄りの経路)を取る。さらに、STARTの開始位置からFINISHの終了位置までのL1の経路及びL2の経路での松葉杖利用者5cの走行時間をそれぞれ計測する。
 このような実験5を20回繰り返し、これらの実験5において、自律移動装置1がランダムにL1’又はL2’の経路を取るようにする。
 図13は、実験5における松葉杖利用者5cのL1の経路及びL2の経路での走行時間を示す。L1の経路とL2の経路を取る際の平均時間がそれぞれ4.354[s](標準偏差0.178[s])、4.815[s](標準偏差0.184[s])であり、L2の経路よりもL1の経路の走行時間の方が短い。即ち、松葉杖利用者5cの通路6Dの長手方向に対する方向角度が小さい場合、松葉杖利用者5cには、L2の経路よりもL1の経路の方が避け易い経路となる。
 この実験5より、L1の経路の移動距離の方が短く、かつ、L2の経路よりも方向転換の角度θが小さいため、松葉杖利用者5cには、L2の経路よりL1の経路の方が避け易い経路となることがわかる。よって、このような場合では、自律移動装置1がL1’の経路を取ることで、松葉杖利用者5cが避け易い経路を取るようになる。
 <実験6:松葉杖利用者5cが様々な曲率の経路上に走行する場合の実験>
 図14Aは、実験6の状況を示す図である。
 松葉杖利用者5cは、STARTの開始位置から動き出し、まず、点Aに直線的に左に向かう。次いで、点Aにおいて、松葉杖利用者5cが左向きに方向転換を行い、FINISHの終了位置にある目的地へ向かう。このとき、点AからFINISHの終了位置(目的地)に向けて様々な曲率の経路を生成するために、所定間隔ごとに目的地の位置を図14Aにおいて横方向にずらす。STARTの開始位置から、それぞれの目的地であるFINISHの終了位置までの松葉杖利用者5cの走行時間をそれぞれ計測する。
 図15は実験6における松葉杖利用者5cのそれぞれの経路での走行時間を示す。
目的地の位置対するそれぞれの経路での走行時間をプロットし、図14Bに示す。点Aから右端の-1.5mの目的地へ向かう経路が、最も方向転換の角度が大きい経路である。
図14Aにおいて目的地を右端の-1.5mの目的地から1.0mの目的地まで左にずらすと、方向転換の角度が小さくなり、走行時間が小さくなる。しかし、1.0mの目的地を過ぎたのち、さらに、目的地を段々左にずらすと、移動距離が大きくなるため、走行時間が再び上がる。1.0mの目的地において、走行時間が最小となる。即ち、この実験5より、人5の最も避け易い経路を計画する際に、松葉杖利用者5cの移動属性に基づく、方向転換のし易さと移動距離とを考慮する必要があることがわかる。
 <実験7:健常者5aを検知した際に健常者5aの通路6Eの長手方向に対する方向角度が大きい場合の実験>
 図16は、実験7の状況を示す図である。
 通路6E内で、健常者5aがSTARTの開始位置からT字路の交差点6Ecに向けて動き出し、最初、自律移動装置1は待機したままとする。健常者5aはT字路の交差点6Ecで左折する。健常者5aがT字路の交差点6Ecから現れた際に、自律移動装置1によって健常者5aが検知され、自律移動装置1がL1’の経路(左壁6a寄りの経路)又はL2’の経路(右壁6b寄りの経路)を取るように動く。自律移動装置1がL1’の経路を取ったら、互いにすれ違えるように、健常者5aがL1の経路(右壁6b寄りの経路)を取る。一方、自律移動装置1がL2‘の経路を取ったら、互いにすれ違えるように、健常者5aがL2の経路(左壁6a寄りの経路)を取る。さらに、STARTの開始位置からFINISHの終了位置までのL1の経路及びL2の経路での健常者5aの走行時間をそれぞれ計測する。
 このような実験7を20回繰り返し、これらの実験7において、自律移動装置1がランダムにL1’又はL2’の経路を取るようにする。
 図17は、実験7における健常者5aのL1の経路及びL2の経路での走行時間を示す。L1の経路とL2の経路を取る際の平均時間がそれぞれ3.250[s](標準偏差0.140[s])、3.692[s](標準偏差0.130[s])であり、L1の経路の走行時間の方が短い。即ち、健常者5aの通路6Eの長手方向に対する方向角度が大きい場合でも、健常者5aには、L1の経路よりもL2の経路の方が避け易い経路となる。
 健常者5aの場合、方向転換のやり難さがない。そのため、この実験7より、L1の経路の方向転換の角度θがL2の経路より大きくても、L2の経路よりもL1の経路の移動距離の方が短いため、健常者5aには、L2の経路よりもL1の経路の方が避け易い経路となることがわかる。よって、このような場合では、自律移動装置1がL1’の経路を取ることで、健常者5aが避け易い経路を取るようになる。
 <実験1>~<実験7>の結果を踏まえて想到した本発明を実施形態と共に、以下に説明する。
 以下、本発明の実施の形態について、図面を参照しながら説明する。
 (第1実施形態)
 図1A及び図1Bは、本発明の第1実施形態における自律移動装置1の外観を示す。自律移動装置1は、左車輪2aと右車輪2bとがそれぞれ独立して正逆回転可能に下部に配置された自律移動装置本体(移動体)1aと、本体1aの上面の前部に固定された環境観測手段(環境観測部)の一例としてのLRF(Laser Range Finder)センサー3と、本体1aの上面の前部に固定された人移動属性読取手段(人移動属性読取部)の一例としてのRFID(Radio Frequency IDentification)タグリーダー4と、本体1a内に配置された制御部90とを備えて、移動経路を自律的に決定して移動するものである。
 左車輪2aと右車輪2bとは、それぞれ左右のモータ2aM,2bMに連結されて、独立して正逆回転駆動されて、自律移動装置1を前後に走行させる。左車輪2aと右車輪2bとの回転速度を変化させることにより、自律移動装置1を、前後方向に対する左右方向に曲がることも可能である。LRFセンサー3とRFIDタグリーダー4との詳細は後述する。
 図18Aは、本実施形態における自律移動装置1のブロック図を示す。
 自律移動装置1は、制御部90として、人情報取得手段(人情報取得部、人検知手段、又は、人検知部)101と、自律移動装置情報取得手段(自律移動装置情報取得部)109と、人移動属性取得手段(人移動属性取得部)108と、衝突判断手段(衝突判断部)102と、人経路候補作成手段(人経路候補作成部)103と、人経路負荷評価手段(人経路負荷評価部)104と、人経路決定手段(人経路決定部)105と、誘導経路計画手段(誘導経路計画部)106と、移動体移動制御手段(移動体移動制御部、移動制御手段、移動制御部)107とを備える。自律移動装置1は、これ以外に、環境マップデータベース51を備えているが、環境マップデータベース51に格納されている情報を、環境情報取得手段(環境情報取得部)51Gで、入出力インターフェース及び通信回線を介して自律移動装置1の外部のデータベースから取得するようにしてもよい。
 環境マップデータベース51には、自律移動装置1が走行する環境の環境マップ51Aが記憶されている。この環境マップ51Aには、自律移動装置1が走行する通路と、自律移動装置1が走行する環境内に存在する障害物とが記憶されている。すなわち、環境マップデータベース51は、自律移動装置1と人5とが共存しかつ自律移動装置1が移動する場所の環境マップ51Aを予め格納し、環境情報取得手段51Gに環境マップ51Aのデータを提供する。環境マップ51A内の障害物としては、移動障害物(例えば人5)と固定障害物(例えば壁51w)の2種類に分類できるが、固定障害物でありかつ通路6を形成する壁51wの座標が環境マップ51Aに含まれている。
 自律移動装置情報取得手段109は、下記する人検知手段101からの自律移動装置1の自己位置推定情報と、環境マップデータベース51に記憶された環境マップ51Aと、左車輪2aと右車輪2bとの左右のモータ2aM,2bMのエンコーダ2aE,2bEからの情報とを基に、自律移動装置1が走行している環境における自律移動装置1の位置及び自律移動装置1の速度を取得する。
 自律移動装置情報取得手段109において、自律移動装置1の速度を取得するために、自律移動装置1が持っているオドメトリ情報を用いる。すなわち、自律移動装置情報取得手段109において、左車輪2aと右車輪2bとの左右のモータ2aM,2bMのエンコーダ2aE,2bEからの情報を基に、左車輪2aと右車輪2bとの回転角と回転角速度とを積算することで、移動距離と方向を求める。
 環境観測手段は、タイマ101Tからの情報を基に、自律移動装置1の周辺の環境情報を所定時間毎に観測して、環境情報データベース101Dに記録する(後述する図19AのステップS202参照)。第1実施形態では、環境観測手段の一例としての、1つのLRFセンサー3で観測した環境情報を取得する。環境情報とは、自律移動装置1の周辺における、人5の情報を含む。尚、環境観測手段としては、1つのセンサーだけでもよく、また、計測精度を向上させるために、センサーフュージョンとして2つ以上のセンサーを用いても良い。環境観測手段の例としては、LRFセンサー3に限定されるものではなく、ミリ波センサー、超音波センサー、又は、ステレオカメラ、などのセンサーを使用することもできる。
 人検知手段101においては、自律移動装置1が走行している環境における自律移動装置1の位置を取得するために、第1実施形態では、図1A及び図1BのLRFセンサー3からの情報を用いる。LRFセンサー3の情報を環境マップDB51内の環境マップ51Aの情報と人検知手段101で照合して、環境マップにおける絶対座標系54における自律位相装置1の位置を人検知手段101で求める。詳細を下記で説明する。図20Aで示すように、自律移動装置1が走行している際に、LRFセンサー3は、自律移動装置1が走行している際に、所定の時間間隔毎に自律移動装置1の周辺に複数のレーザ線11を照射し、周囲の障害物との距離を計測する。第1実施形態では、LRFセンサー3が一例として270度の計測可能な範囲を持っており、一例として0.25度の間隔でレーザ線11を照射するとする。各角度におけるレーザ線11は、それぞれその角度にある障害物への距離を計測する。すなわち、図20A及び図20Bの参照符号80はレーザ線11が既知障害物(この例では、壁51w)に当たったスポットを示し、参照符号81はレーザ線11が環境マップ51Aには無い未知障害物(この例では人5)に当たったスポットを示す。レーザ線11の照射口からこれらのスポットまでの距離を周囲の障害物との距離としてLRFセンサー3で計測する。この計測結果が環境情報である。図20BはLRFセンサー3が取得したデータを示す。
 人検知手段101は、LRFセンサー3が取得したデータから、自律移動装置1の現在地の周辺における、環境の形状を取得できる。LRFセンサー3で取得した環境の形状を、自律移動装置1が動作する環境の形状として、環境マップデータベース51に予め記録した環境マップ51Aと人検知手段101で照合する。
 図21Aは、環境マップの情報51Aの一例を示す。環境マップにおける情報51Aを環境マップデータベース51に格納するために、通路51Bの壁51w、具体的には、壁51a,51b,51c,51d,51e,51gなどのコーナー51fのような目印となる所の位置座標を求める。例えば、図21Aでは、コーナー51fを点P1、P2、P3、P4で示す。壁51a,51b,51c,51d,51e,51gなどを2つの点例えば点P2と点P3などで結ぶ線で表す。例えば、図21Aでは、点P2と点P3を結ぶ線で壁51gを示す。環境マップ51Aにおけるデータベース51の例を図21Bで示す。図21Bには、点P1、P2、P3、P4のxy座標と、点P2と点P3とを結ぶ線の情報が記録されている。
 LRFセンサー3が取得した環境の形状に対して、環境マップ51Aを平行移動及び回転を人検知手段101で繰り返して行い、環境マップ51A上で最もマッチングしているとなる所を人検知手段101で探す。最もマッチングしているとなる所は、自律移動装置1の走行環境における位置となる。
 さらに、人検知手段101は、LRFセンサー3からの情報を基に、自律移動装置1の周辺から人5を検知し、人5の位置、速度、及び進行方向を取得する。第1実施形態では、人検知手段101に入力される情報源として、環境観測手段の一例として図1AのLRFセンサー3を用いる。尚、人検知手段101に対する情報源としての環境観測手段としては、1つのセンサーだけでもよく、また、計測精度を向上させるためにセンサーフュージョンとして2つ以上のセンサーを用いても良い。尚、この環境観測手段は、他に、ミリ波センサー、超音波センサー、又は、ステレオカメラ、などのセンサーを用いることも可能である。
 図1AのLRFセンサー3を用いた人検知手段101による人5の検知方法を説明する。
 LRFセンサー3で取得した情報を基に、自律移動装置1が走行している環境における自律移動装置1の位置を人検知手段101で前記したように推定する。この推定情報は、人検知手段101から自律移動装置情報取得手段109に出力される。人検知手段101で自律移動装置1の位置を推定した後でも、複数のレーザ線11から、一部が環境マップ51Aの障害物(壁51wなど)と合わない距離データが発生する。図20Bで示すように、人5に当たったレーザ線11があり、環境マップ51Aには無い未知障害物の点群81として現れる。自律移動装置1の走行に伴って、その未知障害物の点群81が、絶対座標系54において常に同じ位置にある否かを人検知手段101で判断する。
 未知障害物の点群81が常に同じ位置にある場合には固定障害物であると人検知手段101で判断し、そうでなければ未知障害物の点群81が移動障害物であると人検知手段101で判断する。移動障害物と判断したのち、その移動障害物が人5か否かを人検知手段101で判断するには、移動障害物の幅を考慮する。LRFセンサー3の距離データから、移動障害物の幅を人検知手段101で推定する。正面から見た車椅子利用者5bの幅が約80cmであり、側面から見た健常者5aの幅が約30cmであるとすると、検知された移動障害物において、30~80cmの幅を持ったものを人5であると人検知手段101で推定する。すなわち、人検知手段101には、内部記憶部に、正面から見た車椅子利用者5bの幅、側面から見た健常者5aの幅の情報などが予め記憶されている。
 人5が人検知手段101で検知されたら、人5の位置、速度、進行方向を人5の情報として人検知手段101で取得できる。自律移動装置1の自己位置及びLRFセンサー3で計測された人5との距離から、人5の位置が人検知手段101で推定される。人5の位置を時間微分したものを人5の速度として人検知手段101で求める。人5の速度におけるベクトルを人5の進行方向として人検知手段101で取得する。
 人移動属性取得手段108は、人検知手段101からの人5の位置などの情報とタグリーダー4からの情報とを基に、人5の移動能力(人5の移動時における動き易さ)に基づく属性を判断する。移動能力に基づく属性(人移動属性)は、人5の移動方向(進行方向)ごとの動き易さの違いによる属性(人5の方向転換に関する情報)である。例えば、全方向にすぐに移動可能な健常者5a、方向転換がやり難く時間がかかる車椅子利用者5b、及び、松葉杖利用者5cなどがある。他に、人5の移動属性としては、例えば、点滴器具を伴って歩行する人、歩行補助器具利用者、手押し型のカートを動かしながら歩く作業者、などがある。図22は、人5の移動能力に基づく属性の例を示す。
 第1実施形態では、人移動属性取得手段108の人移動属性読取手段一例としてRFIDタグリーダー4を用いる。例えば、車椅子専用のIDをRFIDタグの内部記憶部に予め登録し、そのRFIDタグを車椅子に貼っておく。自律移動装置1が車椅子利用者5bとすれ違う場合、RFIDタグリーダー4がそのRFIDタグ内の車椅子専用のIDを読み取り、車椅子利用者5bとしての人移動属性を人移動属性取得手段108で取得することができる。他の属性に関しても、同様な方法で取得する。
 尚、人移動属性取得手段108は、他に、ステレオカメラを用いることも可能である。特許文献2は、ステレオカメラを用いた車椅子利用者検出方法を示す。図23で示すように、ステレオカメラで得られた人の3次元情報を幾つかの断層に分割し、図示しない画像処理部で画像処理を行って、3次元形状が車椅子利用者らしいか否かを判断して、人移動属性を取得可能とする。
 人移動属性取得手段108で取得した人移動属性の情報を基に、人移動属性取得手段108は、評価パラメータデータベース53を参照して、移動距離による負荷における重みと人の方向転換し易さによる負荷における重みとをそれぞれ決定して、人経路負荷評価手段104に出力する。
 衝突判断手段102は、自律移動装置情報取得手段109と人検知手段101とからの情報を基に、人検知手段101によって検知された人5と自律移動装置1とが衝突する可能性の有無を判断し、人5と自律移動装置1とが、すぐに(所定時間以内に)衝突するか否かを判断する。
 検知された人5と自律移動装置1とが衝突する可能性の有無を衝突判断手段102で判断するために、まず、対象となる人5を下記式(1)で衝突判断手段102により決定する。
Figure JPOXMLDOC01-appb-M000001
       .......(1)
 x(0)とx(0)とは、それぞれ人5を検知した際の自律移動装置1の位置と人5の位置である。人5を検知した際の自律移動装置1と人5との相対距離d(0)が所定距離d1th以下となる人5を対象とする。第1実施形態において、所定距離d1thを10mとする。
 次に、人5を検知した際の自律移動装置1の位置x(0)と速度vと人5の位置x(0)と速度vとに基づいて、自律移動装置1と人5との相対距離の時間関数を下記式(2)で衝突判断手段102により算出する。人5を検知した際の自律移動装置1と人5との位置関係を図24で示す。
Figure JPOXMLDOC01-appb-M000002
       .......(2)
 この関数では、自律移動装置1と人5とが、人5を検知した際の速度をそれぞれ維持したままで進行すると仮定する。ここで、d(t)は、時刻tにおける自律移動装置1と人5との相対距離である。x(t)とx(t)は、それぞれ時刻tにおける自律移動装置1の位置と人5の位置である。
 下記式(3)で示すように、衝突判断手段102において、相対距離の時間関数d(t)を微分し、微分値が0となる時刻tを求める。その時刻をTminとする。
Figure JPOXMLDOC01-appb-M000003
       .......(3)
 時刻Tminにおける相対距離dminを下記式(4)で衝突判断手段102により求め、自律移動装置1と人6が最も接近する距離を表す。
Figure JPOXMLDOC01-appb-M000004
       .......(4)
 下記式(5)で示すように、最接近距離dminが所定距離d2th以下ならば、自律移動装置1と人5が衝突する可能性が有りと衝突判断手段102により判断する。逆に、最接近距離dminが所定距離d2thより大きいならば、自律移動装置1と人5が衝突する可能性が無いと衝突判断手段102により判断する。
Figure JPOXMLDOC01-appb-M000005
       .......(5)
 d2thを、自律移動装置1の半径と人5の半径とを足し合わせたものに、更に、安全にすれ違うための距離を付け加えた距離とする。第1実施形態において、人5が歩く一歩の距離の半分である20cmを、安全にすれ違うための距離とする。第1実施形態において、一例として、自律移動装置1の半径が30cmであり、移動属性の中で半径が最も大きい車椅子利用者5bの半径が40cmのため、距離d2thを90cmとする。
 衝突する可能性が有りと衝突判断手段102により判断されたら、衝突判断手段102において、その際の時刻Tminを衝突予測時間とする。下記式(6)で示すように、衝突予測時間Tminが所定時間Tth以下ならば、すぐに衝突すると衝突判断手段102により判断する。衝突予測時間Tminが所定時間Tthより大きいならば、すぐに衝突しないと衝突判断手段102により判断する。
Figure JPOXMLDOC01-appb-M000006
       .......(6)
 第1実施形態の一例としては、所定時間Tthを1sとする。
 尚、閾値である、所定距離d1th、所定距離d2th、所定時間Tthが閾値データベース52にそれぞれ格納されており、必要に応じて、衝突判断手段102により参照される。これらの閾値は事前実験により決定される。
 自律移動装置1と人5とがすぐに衝突すると衝突判断手段102により判断されたら、移動体移動制御手段107により、自律移動装置1がすぐに回避動作を行い、人5がいない所に自律移動装置1が動くように動作する。例えば、図25で示すように、自律移動装置1の座標系から見て、人5が自律移動装置1の右側にいるとすれば、移動体移動制御手段107により、自律移動装置1が左側へ寄せるように移動する。
 人経路候補作成手段103は、自律移動装置情報取得手段109からの情報と衝突判断手段102からの情報(少なくとも、人検知手段101からの情報)とを基に、人5と自律移動装置1とが衝突する可能性が有り、かつ、すぐ衝突しない場合、人5に移動してもらう経路の候補を、複数個、作成する。具体的には、人経路候補作成手段103は、前記自律移動装置1と前記人5が衝突するまでの予測時間Tmin及び人5の速度に基づいて、候補経路の目的地を決定する。
 図26で示すように、人経路候補作成手段103においては、人5の移動属性を問わずに、人5の現在の進行方向に対して角度αとなる領域は、人5が避ける領域と予め定義する。第1実施形態において、一例として、角度αを90度とする。人経路候補作成手段103においては、人5が避ける領域を更に分割し、人5に移動してもらう経路の候補を羅列する。第1実施形態において、一例として、2.5度刻みで人5が避ける領域を分割する。図26で示した矢印は、人5が避ける方向(人に移動してもらう経路の候補の方向)12を表す。
 次に、人経路候補作成手段103において、それぞれの方向12において、人5に移動してもらう経路の候補における目的地13を設定する。人経路候補作成手段103において、自律移動装置1の座標系から見て、自律移動装置1と人5とがそれぞれ速度を維持して進行すると仮定する際の、衝突するy座標に目的地13を設定する。図27では、目的地となるy座標を線(人に移動してもらう経路の候補における目的地を決定するための線)14で示す。線14の位置は、現在の人5の位置から垂直方向に距離Lとなる所である。距離Lを、下記式(7)で人経路候補作成手段103により決定する。
Figure JPOXMLDOC01-appb-M000007
       .......(7)
 ここで、vpyは人5の速度のy成分、bは側面から見た人5の幅である。一例として、第1実施形態において、平面的な模式図で表す健常者5aの直径が60cmと仮定し、平面的な模式図で表す側面から見た健常者5aの幅bは60cmとする。平面的な模式図で表す車椅子利用者5bの直径が80cmと仮定し、平面的な模式図で表す側面から見た車椅子利用者5bの幅bは80cmとする。時刻Tminは前記式(3)で求めた値である。尚、幅bは閾値データベース52に格納されている。
 距離Lとなる線14と人5が避ける方向12との交点を、候補経路の目的地13とする。
 尚、候補経路の目的地13を人経路候補作成手段103により生成する際に、角度αとなる領域は人5が避ける領域を等角度で分割せずに、距離Lとなる線14を等間隔で分割して候補経路の目的地13を人経路候補作成手段103により生成しても良い。
 次に、候補経路の目的地13の中から、人5が移動不可能な目的地があるため、有効な(人5が移動可能な)候補経路のみを人経路候補作成手段103により抽出する必要がある。環境などの制約条件に基づいて、有効な候補経路のみを人経路候補作成手段103により抽出する。
 図28Aはその抽出方法を示す。人5が、通路6の外にある候補経路の目的地へ移動不可能なため、環境の制約条件により、人5が移動不可能な候補経路15を人経路候補作成手段103により省く。通路6の幅と自律移動装置1の幅と人5の幅との関係によって、人5が通路6の中心にある候補経路の目的地に移動すると、自律移動装置1がすれ違えるスペースが確保されていない場合、すれ違い条件により、人5が移動不可能な候補経路16を人経路候補作成手段103により省く。残った候補経路は、人経路候補作成手段103において、有効な候補経路とする。図28Bは、このようにして残った有効な候補経路の6個の目的地17を示す。このようにして人経路候補作成手段103において抽出された有効な候補経路と目的地との情報を、人経路候補作成手段103から人経路負荷評価手段104に出力する。
 人経路負荷評価手段104は、人経路候補作成手段103からの情報と、人移動属性取得手段108によって判断された人5の移動属性とその重みとに基づいて、人経路候補作成手段103によって作成されたぞれぞれの候補経路に対して、人5の移動し易さを表す移動負荷を評価する。移動負荷を、移動距離による負荷(移動距離の負荷)と、人の方向転換し易さによる負荷(人の方向転換の負荷)とを、人経路負荷評価手段104では総合的に評価する。人経路負荷評価手段104における、具体的な評価式を下記式(8)で定義する。
Figure JPOXMLDOC01-appb-M000008
       .......(8)
 ここで、Eは移動負荷である。第1項目と第2項目は、それぞれ移動距離による負荷と人の方向転換のし易さによる負荷である。wforwardとwdirectionは、それぞれ移動距離による負荷における重みと人の方向転換し易さによる負荷における重みである。LABは候補経路の長さであり、θは方向転換の角度である。方向転換の角度を、人5の現在位置18における方向と有効な目的地17への方向との角度の差で、人経路負荷評価手段104により、求める(図29Aと図29Bを参照)。
 移動距離による負荷における重みwforwardと人5の方向転換し易さによる負荷における重みwdirectionとを、人移動属性取得手段108によって判断された人5の移動属性の情報に基づいて、人経路負荷評価手段104で決定する。人経路負荷評価手段104においては、車椅子利用者5bの場合、方向転換がやり難く、時間がかかるため、重みwdirectionを大きくする。一方、人経路負荷評価手段104においては、健常者5aの場合、方向転換によるやり難さがないため、重みwdirectionを小さくする。即ち、人経路負荷評価手段104においては、健常者5aの場合、移動距離による負荷のみを考えれば良い。図30は移動属性ごとの重みwforwardと重みwdirectionとの例を示す。尚、重みwforwardと重みwdirectionとが、評価パラメータデータベース53に予め格納されている。
 図31Aと図32Aとは、車椅子利用者5bにおける移動負荷の評価の例を示す。ここでは、距離Lとなる線14を5cmの間隔で分割して、複数の候補経路の目的地13を生成するとする。点Aは車椅子利用者5bの現在位置であり、点B1~B6は有効な候補経路の目的地17である。人移動属性取得手段108は、評価する際に、評価パラメータデータベース53に格納されている、図30で示された車椅子利用者5bの重みwforwardと重みwdirectionとを用いる。
 図31Aは、車椅子利用者5bの通路6Aの長手方向に対する方向角度θが大きい場合である。ここで、通路6Aの長手方向に対する方向角度θを一例として68.53度とする。図31Bは、それぞれの候補経路における移動負荷の計算を示す。
 図32Aは、車椅子利用者5bの通路6Bの長手方向に対する方向角度が小さい場合である。ここで、通路6Bの長手方向に対する方向角度θを一例として15.20度とする。図32Bは、それぞれの候補経路における移動負荷の計算を示す。
 人経路決定手段105は、人経路負荷評価手段104によって求められた移動負荷に基づいて、人5に移動してもらう経路を決定する。人経路決定手段105は、人5の最も避け易い経路として、移動負荷が最小となる候補経路を選択する。人経路決定手段105は、選択された経路を人5に移動してもらう経路21とする。
 図31Bは、車椅子利用者5bの通路6Aに対する方向角度θが大きい場合における移動負荷の計算結果を示し、点B1への候補経路における移動負荷が最も小さいことを示す。即ち、通路6Aの左壁6aへ避ける経路は、車椅子利用者5bにとって最も避け易い経路である。これは、図4で示された<実験1>の結果と一致する。
 図32Bは、車椅子利用者5bの通路6Bに対する方向角度θが小さい場合における移動負荷の計算結果を示し、点B6への候補経路における移動負荷が最も小さいことを示す。即ち、通路6Bの右壁6bへ避ける経路は、車椅子利用者5bにとって最も避け易い経路である。これは、図6で示された<実験2>の結果と一致する。
 人経路決定手段105は、選択された経路を誘導経路計画手段106に出力する。
 誘導経路計画手段106は、自律移動装置情報取得手段109と人経路決定手段105とからの情報を基に、人5を、人5に移動してもらう経路21へ誘導するように、自律移動装置1の経路を計画する。すなわち、誘導経路計画手段106は、人経路決定手段105によって決定された、人5に移動してもらう経路21に人5を誘導する経路23を決定する。
 図33Aと図33Bとは、それぞれ、誘導経路計画手段106において、人5を誘導する経路23を決定する方法を示す。誘導経路計画手段106において、人5を誘導する経路23を決定するために、まず、人5を誘導する経路における目的地24の位置を決定する。
 誘導経路計画手段106において、図33Aの縦方向の位置について、自律移動装置情報取得手段109からの情報に基づく自律移動装置1の現在地(自律移動装置1の中心位置又は重心位置)から、前方の方向に距離hだけ離れた所に、人5を誘導する経路における目的地24を設定する。距離hを下記式(9)で誘導経路計画手段106により決定する。
Figure JPOXMLDOC01-appb-M000009
       .......(9)
 ここで、Lは、図33Aにおいて、人5に移動してもらう経路21の縦方向の距離であり、前記式(7)で求めた値である。
 誘導経路計画手段106において、図33Aの横方向の位置について、人5に移動してもらう経路における目的地22から、距離hだけ離れた移動可能な所に、人5を誘導する経路23における目的地24を設定する。距離hを下記式(10)で誘導経路計画手段106により決定する。
Figure JPOXMLDOC01-appb-M000010
       .......(10)
 ここで、RとRは、それぞれ、人5の半径と自律移動装置1の半径である。第1実施形態において、一例として、人5の半径Rは、健常者5aの場合30cmであり、車椅子利用者5bの場合40cmである。自律移動装置1の半径Rは、一例として、30cmである。sは、人5と自律移動装置1とが安全にすれ違うための距離であり、第1実施形態においては、一例として、人5が歩く一歩の距離の半分である20cmとする。
 誘導経路計画手段106においては、自律移動装置1の現在地からスムーズに目的地24に向かうために、経路を曲線で近似し、人5を誘導する経路23を生成する。曲線近似はスプライン曲線を用いる。誘導経路計画手段106は、生成した人5を誘導する経路23の情報を移動体移動制御手段107に出力する。
 移動体移動制御手段107は、自律移動装置情報取得手段109と誘導経路計画手段106とからの情報を基に、人5を誘導する経路23上を自律移動装置1が走行するように、自律移動装置1の左車輪2aと右車輪2bとの左右のモータ2aM,2bMを駆動制御する。
 図19Aは、第1実施形態の自律移動装置1の動作の処理フローを示す。
 まず、LRFセンサー3及び人検知手段101と、左車輪2aと右車輪2bとの左右のモータ2aM,2bMのエンコーダ2aE,2bEとからの情報を基に、自律移動装置1が走行している環境における自律移動装置1の位置と速度との情報を自律移動装置情報取得手段109で取得する(ステップS201)。
 次いで、LRFセンサー3及び人検知手段101により、自律移動装置1の周辺の人5を検知する(ステップS202)。
 次いで、人5がいるか否かを人検知手段101で判断する(ステップS203)。人5がいないと人検知手段101で判断された場合には、ステップS211に進み、前回、誘導経路計画手段106で計画された人5を誘導する経路上を自律移動装置1が走行するように、移動体移動制御手段107により自律移動装置1を制御する。もし、誘導経路計画手段106で計画された人5を誘導する経路が無い場合には、自律移動装置1を移動開始するときに決められた経路に沿って自律移動装置1が移動するように、移動体移動制御手段107により自律移動装置1を制御する。
 人5がいると人検知手段101で判断された場合には、人検知手段101と自律移動装置情報取得手段109との情報に基づき、人検知手段101で検知された人5と自律移動装置1とが衝突する可能性を衝突判断手段102で判断する(ステップS205)。人5と衝突する可能性が無いと衝突判断手段102で判断した場合、ステップS211に進み、前回、誘導経路計画手段106で計画された人5を誘導する経路上を自律移動装置1が走行するように、移動体移動制御手段107により自律移動装置1を制御する。もし、誘導経路計画手段106で計画された人5を誘導する経路が無い場合には、自律移動装置1を移動開始するときに決められた経路に沿って自律移動装置1が移動するように、移動体移動制御手段107により自律移動装置1を制御する。
 人5と衝突する可能性が有ると衝突判断手段102で判断した場合、人5に移動してもらう経路の候補を人経路候補作成手段103で作成する(ステップS206)。
 次いで、タグリーダー4で検知された人5の移動属性(移動能力に関する属性)を人移動属性取得手段108で判断する(ステップS207)。
 次いで、人移動属性取得手段108で判断された人の移動属性に基づいて、人経路候補作成手段103で作成されたぞれぞれの候補経路に対して、人5の移動しやすさを表す移動負荷を人経路負荷評価手段104で評価する(ステップS208)。
 次いで、人経路負荷評価手段104で評価されたそれぞれの候補経路における移動負荷に基づいて、人5の最も避け易い経路として、移動負荷が最小となる経路を人経路決定手段105で選択し、人5に移動してもらう経路を人経路決定手段105で決定する(ステップS209)。
 次いで、人経路決定手段105で決定された、人5を人に移動してもらう経路へ誘導するように、自律移動装置1の経路を誘導経路計画手段106で計画する(ステップS210)。
 次いで、誘導経路計画手段106で計画された人5を誘導する経路上を自律移動装置1が走行するように、移動体移動制御手段107により自律移動装置1を制御する(ステップS211)。
 このようにして、自律移動装置1は動作を行う。
 なお、本発明は前記実施形態に限定されるものではなく、その他種々の態様で実施できる。例えば、図18Aにおいて、図18Bに示すように、衝突判断手段102を省略するようにしてもよい。先の実施形態では、衝突判断手段102は、人5と自律移動装置1がお互いに等速直線運動で移動すると仮定し、衝突の可能性を判断している。しかしながら、人5の速度変化によって、衝突の可能性が変わりやすくなる。そのため、衝突判断手段102を省略するように構成すれば、衝突可能性の変動に影響されることなく、自律移動装置1が人5を検知したら、直ちに動作するため、より確実に、人5が避け易い経路に人5を誘導することができる。
 また、図19Aの自律移動装置1の動作において、図19Bに示すように、ステップS203~ステップS205の動作を省略するようにしてもよい。先の実施形態では、ステップS203~ステップ205において、人5と自律移動装置1がお互いに等速直線運動で移動すると仮定し、衝突の可能性を判断している。しかしながら、人5の速度変化によって、衝突の可能性が変わりやすくなる。このため、ステップS203~ステップ205を省略することで、衝突可能性の変動に影響されることなく、自律移動装置1が人5を検知したら、直ちに動作するため、より確実に、人5が避け易い経路に人5を誘導することができる。
 なお、前記実施形態において、制御部90のそれぞれ、又は、そのうちの任意の一部は、それ自体がソフトウェアで構成することができる。よって、例えば、本願明細書のそれぞれの実施形態の制御動作を構成するステップを有するコンピュータプログラムとして、記憶装置(ハードディスク等)などの記録媒体に読み取り可能に記憶させ、そのコンピュータプログラムをコンピュータの一時記憶装置(半導体メモリ等)に読み込んでCPUを用いて実行することにより、前記した各ステップを実行することができる。
 なお、本発明を第1実施形態及び変形例に基づいて説明してきたが、本発明は、前記の第1実施形態及び変形例に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 前記自律移動装置の人検知部を除く他の部分の一部又は全部は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM又はハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各部は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 例えば、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。なお、前記実施形態又は変形例における自律移動装置の人検知部を除く他の部分を構成する要素の一部又は全部を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、移動経路を自律的に決定し、移動する自律移動装置を制御ためのプログラムであって、
 コンピュータを、
 前記自律移動装置の位置及び速度を取得する自律移動装置情報取得部と、
 前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を取得する人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を取得する人移動属性取得部と、
 前記人に移動してもらう経路の候補を、複数個、作成する人経路候補作成部と、
 前記人移動属性取得部によって取得された前記人の移動能力に基づく属性に基づいて、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を評価する人経路負荷評価部と、
 前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を決定する人経路決定部と、
 前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を計画する誘導経路計画部と、
 前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を制御する移動制御部と、として機能させるための自律移動装置用プログラムである。
 また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスク、磁気ディスク、又は、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
 また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 なお、前記様々な実施形態又は変形例のうちの任意の実施形態又は変形例を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
 本発明にかかる自律移動装置、自律移動方法、及び自律移動装置用のプログラムは、人の移動属性基づく避け易い経路へ人を誘導する機能を有し、病院における搬送ロボット、掃除ロボット、などとして有用である。病院以外における案内ロボット、警備ロボット、人が乗る移動ロボット、などにも適用できる。

 本発明は、添付図面を参照しながら実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形又は修正は明白である。そのような変形又は修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。

Claims (8)

  1.  移動経路を自律的に決定し、移動する自律移動装置において、
     前記自律移動装置の位置及び速度を取得する自律移動装置情報取得部と、
     前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を取得する人検知部と、
     前記人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を取得する人移動属性取得部と、
     前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、作成する人経路候補作成部と、
     前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を評価する人経路負荷評価部と、
     前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を決定する人経路決定部と、
     前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を計画する誘導経路計画部と、
     前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を制御する移動制御部と、
    を備える自律移動装置。
  2.  前記人移動属性取得部は、前記人の方向転換に関する情報を人移動属性として取得する請求項1に記載の自律移動装置。
  3.  前記自律移動装置情報取得部とからの情報と前記人検知部とからの情報とを基に、前記人検知部によって検知された前記人と前記自律移動装置とが衝突する可能性の有無を判断する衝突判断部をさらに備え、
     前記人経路候補作成部は、前記衝突判断部によって前記人と前記自律移動装置とが衝突する可能性が有る場合、前記衝突判断部からの情報を基に、前記人に移動してもらう経路の候補を作成する請求項1又は2に記載の自律移動装置。
  4.  前記人経路候補作成部は、前記自律移動装置と前記人が衝突するまでの予測時間及び前記人の速度に基づいて、前記候補経路の目的地を決定する請求項3に記載の自律移動装置。
  5.  前記人経路決定部は、前記自律移動装置が走行する環境マップと、前記人経路負荷評価部によって求められた前記移動負荷とに基づいて、前記人に移動してもらう経路を決定する請求項1又は2に記載の自律移動装置。
  6.  前記人経路決定部は、避け易い前記人の移動負荷が最小となる候補経路を選択する請求項1又は2に記載の自律移動装置。
  7.  移動経路を自律的に決定し、移動する自律移動装置の自律移動方法において、
     前記自律移動装置の位置及び速度を自律移動装置情報取得部で取得し、
     前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を人検知部で取得し、
     前記人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を人移動属性取得部で取得し、
     前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、人経路候補作成部で作成し、
     前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を人経路負荷評価部で評価し、
     前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を人経路決定部で決定し、
     前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を誘導経路計画部で計画し、
     前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を移動制御部で制御する
    、自律移動方法。
  8.  移動経路を自律的に決定し、移動する自律移動装置を制御ためのプログラムであって、
     コンピュータを、
     前記自律移動装置の位置及び速度を取得する自律移動装置情報取得手段と、
     前記自律移動装置の周辺の人を検知し、前記人の位置、速度、及び、進行方向を取得する人検知部によって検知された前記人の進行方向ごとの動き易さを表す移動能力に基づく属性を取得する人移動属性取得部と、
     前記自律移動装置情報取得部で取得された前記自律移動装置の前記位置及び前記速度と前記人検知部で取得した前記人の前記位置、前記速度、及び、前記進行方向とに基づき、前記人に移動してもらう経路の候補を、複数個、作成する人経路候補作成部と、
     前記人経路候補作成部からの情報と前記人移動属性取得部からの情報とに基づき、前記人移動属性取得部によって取得された前記人の移動能力に基づく属性のうちの前記人の移動距離の負荷と前記人の方向転換の負荷とに基づく評価式で、前記人経路候補作成部によって作成されたそれぞれの経路の候補に対して、前記人の進行方向ごとの動き易さに応じて移動にかかる時間を表す移動負荷を評価する人経路負荷評価部と、
     前記人経路負荷評価部によって求められた移動負荷に基づいて、前記人経路候補作成部によって作成された経路の候補の中から、前記人に移動してもらう経路を決定する人経路決定部と、
     前記自律移動装置情報取得部からの情報と前記人経路決定部からの情報とに基づいて、前記人経路決定部によって決定された前記経路へ前記人を誘導するための、前記自律移動装置の経路を計画する誘導経路計画部と、
     前記自律移動装置情報取得部からの情報と前記誘導経路計画部からの情報とに基づいて、前記誘導経路計画部によって計画された前記誘導経路上に沿って前記自律移動装置が走行するように、前記自律移動装置を制御する移動制御部と、として機能させるための自律移動装置用プログラム。
PCT/JP2012/006300 2011-11-09 2012-10-02 自律移動装置、自律移動方法、及び自律移動装置用のプログラム WO2013069195A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013534522A JP5394597B2 (ja) 2011-11-09 2012-10-02 自律移動装置、自律移動方法、及び自律移動装置用のプログラム
US14/046,266 US9086700B2 (en) 2011-11-09 2013-10-04 Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011245693 2011-11-09
JP2011-245693 2011-11-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/046,266 Continuation US9086700B2 (en) 2011-11-09 2013-10-04 Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus

Publications (1)

Publication Number Publication Date
WO2013069195A1 true WO2013069195A1 (ja) 2013-05-16

Family

ID=48288993

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/006300 WO2013069195A1 (ja) 2011-11-09 2012-10-02 自律移動装置、自律移動方法、及び自律移動装置用のプログラム

Country Status (3)

Country Link
US (1) US9086700B2 (ja)
JP (1) JP5394597B2 (ja)
WO (1) WO2013069195A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014068975A1 (ja) * 2012-11-05 2014-05-08 パナソニック株式会社 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
JP2015017833A (ja) * 2013-07-09 2015-01-29 株式会社 ミックウェア 情報処理装置、情報処理方法、およびプログラム
JP2016062587A (ja) * 2014-09-12 2016-04-25 トヨタ自動車株式会社 ロボットの経路決定方法
GB2545066A (en) * 2015-10-20 2017-06-07 Bosch Gmbh Robert Method and device for operating at least one partially or highly automated vehicle
JP2020055490A (ja) * 2018-10-04 2020-04-09 関西電力株式会社 走行制御装置及び走行制御方法、並びに自動走行車
CN113176779A (zh) * 2021-04-28 2021-07-27 上海布鲁可积木科技有限公司 用于运动装置的控制方法、系统、存储介质及运动装置
JP7309093B1 (ja) 2022-08-19 2023-07-14 三菱電機株式会社 人流制御評価装置、人流制御評価方法、および人流制御評価プログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013211622A1 (de) * 2013-06-20 2014-12-24 Robert Bosch Gmbh Kollisionsvermeidung für ein Kraftfahrzeug
US9707942B2 (en) * 2013-12-06 2017-07-18 Elwha Llc Systems and methods for determining a robotic status of a driving vehicle
US10168699B1 (en) * 2015-01-30 2019-01-01 Vecna Technologies, Inc. Interactions between a vehicle and a being encountered by the vehicle
US10031522B2 (en) 2015-05-27 2018-07-24 Dov Moran Alerting predicted accidents between driverless cars
EP3304520B1 (en) 2015-05-27 2023-09-20 Dov Moran Alerting predicted accidents between driverless cars
US10556630B1 (en) * 2016-06-29 2020-02-11 X Development Llc Friction drive system and methods for use
US10285882B2 (en) * 2017-01-16 2019-05-14 Kwok Tung Chun Wirelessly controlled wheelchair assembly with toilet accessibility
WO2018187944A1 (zh) * 2017-04-11 2018-10-18 珠海市一微半导体有限公司 基于地图预测的机器人运动控制方法
DE102017112839A1 (de) * 2017-06-12 2018-12-13 Vorwerk & Co. Interholding Gmbh System aus einem sich selbsttätig innerhalb einer Umgebung fortbewegenden Fahrzeug und einer in der Umgebung befindlichen Tür
US10898999B1 (en) * 2017-09-18 2021-01-26 X Development Llc Selective human-robot interaction
CH714190B1 (de) * 2017-09-25 2021-07-30 Kyburz Switzerland Ag Verfahren zum Steuern eines autonomen Fahrzeugs und autonomes Fahrzeug.
EP3466858A1 (en) * 2017-10-04 2019-04-10 thyssenkrupp Stairlifts B.V. Method of planning platform lift
KR102139590B1 (ko) * 2018-02-27 2020-07-30 주식회사 만도 교차로에서의 차량 자동 긴급 제동 시스템 및 방법
SE543484C2 (en) * 2018-03-06 2021-03-02 Cargotec Patenter Ab Cargo handling vehicle for navigation in narrow aisles and method therefore
EP3660617A4 (en) * 2018-08-14 2021-04-14 Chiba Institute of Technology MOBILE ROBOT
JP7274970B2 (ja) * 2019-08-01 2023-05-17 本田技研工業株式会社 追従対象特定システム及び追従対象特定方法
JP7221839B2 (ja) * 2019-10-08 2023-02-14 国立大学法人静岡大学 自律移動ロボットおよび自律移動ロボットの制御プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110644A (ja) * 2009-11-26 2011-06-09 Fujitsu Ltd 自律移動ロボット

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4361202A (en) * 1979-06-15 1982-11-30 Michael Minovitch Automated road transportation system
US5390118A (en) * 1990-10-03 1995-02-14 Aisin Seiki Kabushiki Kaisha Automatic lateral guidance control system
JP3909300B2 (ja) 2003-04-18 2007-04-25 有限会社ミキシィ 自動走行車椅子、車椅子自動走行システム、及び車椅子の自動走行方法
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP4811651B2 (ja) 2006-03-30 2011-11-09 独立行政法人産業技術総合研究所 ステレオカメラを用いた車椅子使用者検出システム
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
US8346391B1 (en) * 2006-12-28 2013-01-01 Science Applications International Corporation Methods and systems for an autonomous robotic platform
JP5080333B2 (ja) * 2007-04-06 2012-11-21 本田技研工業株式会社 自律移動体のための物体認識装置
JP2009223632A (ja) 2008-03-17 2009-10-01 Hitachi Ltd 自律移動装置、及び、自律移動装置システム
ES2544458T3 (es) * 2009-05-28 2015-08-31 Anki, Inc. Sistema distribuido de vehículos de juguete controlados de forma autónoma
US20110117903A1 (en) * 2009-11-19 2011-05-19 James Roy Bradley Device and method for disabling mobile devices
JP2011204181A (ja) 2010-03-26 2011-10-13 Nec Soft Ltd 経路設定装置、経路設定方法、及びプログラム
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US9956687B2 (en) * 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110644A (ja) * 2009-11-26 2011-06-09 Fujitsu Ltd 自律移動ロボット

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014068975A1 (ja) * 2012-11-05 2014-05-08 パナソニック株式会社 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
JP5597322B1 (ja) * 2012-11-05 2014-10-01 パナソニック株式会社 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
US9235216B2 (en) 2012-11-05 2016-01-12 Panasonic Intellectual Property Management Co., Ltd. Running information generating apparatus of autonomous running apparatus, running information generating method, running information generating program, and autonomous running apparatus
JP2015017833A (ja) * 2013-07-09 2015-01-29 株式会社 ミックウェア 情報処理装置、情報処理方法、およびプログラム
JP2016062587A (ja) * 2014-09-12 2016-04-25 トヨタ自動車株式会社 ロボットの経路決定方法
GB2545066A (en) * 2015-10-20 2017-06-07 Bosch Gmbh Robert Method and device for operating at least one partially or highly automated vehicle
US10012994B2 (en) 2015-10-20 2018-07-03 Robert Bosch Gmbh Method and apparatus for operating at least one partly or highly automated vehicle
JP2020055490A (ja) * 2018-10-04 2020-04-09 関西電力株式会社 走行制御装置及び走行制御方法、並びに自動走行車
CN113176779A (zh) * 2021-04-28 2021-07-27 上海布鲁可积木科技有限公司 用于运动装置的控制方法、系统、存储介质及运动装置
JP7309093B1 (ja) 2022-08-19 2023-07-14 三菱電機株式会社 人流制御評価装置、人流制御評価方法、および人流制御評価プログラム
WO2024038601A1 (ja) * 2022-08-19 2024-02-22 三菱電機株式会社 人流制御評価装置、人流制御評価方法、および人流制御評価プログラム

Also Published As

Publication number Publication date
US9086700B2 (en) 2015-07-21
US20140039676A1 (en) 2014-02-06
JP5394597B2 (ja) 2014-01-22
JPWO2013069195A1 (ja) 2015-04-02

Similar Documents

Publication Publication Date Title
JP5394597B2 (ja) 自律移動装置、自律移動方法、及び自律移動装置用のプログラム
JP5597322B1 (ja) 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
JP5539596B2 (ja) 自律移動装置、自律移動方法、及び、自律移動装置用のプログラム
KR102504729B1 (ko) 웨이포인트 매칭을 이용한 자율적 맵 주행
Wachaja et al. Navigating blind people with walking impairments using a smart walker
Li et al. ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind
Kidono et al. Autonomous visual navigation of a mobile robot using a human-guided experience
Jung et al. Development of a laser-range-finder-based human tracking and control algorithm for a marathoner service robot
JP4699426B2 (ja) 障害物回避方法と障害物回避移動装置
Apostolopoulos et al. Integrated online localization and navigation for people with visual impairments using smart phones
Gutmann et al. Real-time path planning for humanoid robot navigation
JP2013225253A (ja) 自律移動装置、自律移動方法及び自律移動装置用のプログラム
Baglietto et al. Human navigation and mapping with a 6DOF IMU and a laser scanner
Wachaja et al. Navigating blind people with a smart walker
JP2011054082A (ja) 自律移動装置
JP6094279B2 (ja) 追跡装置、追跡プログラムおよび追跡方法
Lu et al. Assistive navigation using deep reinforcement learning guiding robot with UWB/voice beacons and semantic feedbacks for blind and visually impaired people
Joseph et al. Visual semantic parameterization-To enhance blind user perception for indoor navigation
Thai et al. Obstacle Avoidance Algorithm for Autonomous Mobile Robots in the Indoor Environment
Wei et al. Semantic mapping for smart wheelchairs using rgb-d camera
Ghandour et al. Interactive collision avoidance system for indoor mobile robots based on human-robot interaction
Kangutkar et al. ROS navigation stack for smart indoor agents
Amano et al. Autonomous mobile robot navigation by reinforcement learning considering pedestrian movement tendencies
Ayalew et al. Solving Optimal Path Planning Problem of an Intelligent Mobile Robot in Dynamic Environment Using Bidirectional Rapidly-exploring Random Tree Star-Dynamic Window Approach (BRRT*-DWA) with Adaptive Monte Carlo Localization (AMCL)
Ishikawa et al. Path Planning Using a Flow of Pedestrian Traffic in an Unknown Environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12848114

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013534522

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12848114

Country of ref document: EP

Kind code of ref document: A1