WO2021220678A1 - 移動ロボット、移動ロボットの制御方法、及び制御プログラム - Google Patents

移動ロボット、移動ロボットの制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2021220678A1
WO2021220678A1 PCT/JP2021/012348 JP2021012348W WO2021220678A1 WO 2021220678 A1 WO2021220678 A1 WO 2021220678A1 JP 2021012348 W JP2021012348 W JP 2021012348W WO 2021220678 A1 WO2021220678 A1 WO 2021220678A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
head
person
movement
moving
Prior art date
Application number
PCT/JP2021/012348
Other languages
English (en)
French (fr)
Inventor
義弘 坂本
史朗 佐久間
雄希 松尾
Original Assignee
東京ロボティクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東京ロボティクス株式会社 filed Critical 東京ロボティクス株式会社
Publication of WO2021220678A1 publication Critical patent/WO2021220678A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Definitions

  • the present invention relates to, for example, a mobile robot or the like.
  • Patent Document 1 discloses a human-cooperative mobile robot that autonomously travels in a work area shared with humans in a factory.
  • a human-cooperative mobile robot may adopt an omnidirectional mobile trolley that enables movement in all directions as a movement mechanism. many. However, since it is difficult to predict the moving direction of the omnidirectional moving trolley, it may warn people nearby about the movement of the robot.
  • the present invention has been made to solve the above-mentioned technical problems, and an object of the present invention is to provide a feeling of security in a mobile robot equipped with an omnidirectional mobile trolley without alerting nearby people. Is to give.
  • the mobile robot according to the present invention is a mobile robot that moves by an omnidirectional mobile carriage unit, and controls a head having a front surface as a face, a driving means for driving the head, and the driving means.
  • the head control unit includes a head control unit, and the head control unit controls the driving means to direct the face portion in the movement direction when the mobile robot starts moving or a predetermined time before the movement starts. , Has the function.
  • the mobile robot may move to a nearby person and notify the moving direction by turning the face in the moving direction at the time of starting the movement or a predetermined time before the start of the movement. Therefore, it is possible to avoid a collision with a person due to the movement without notice, and to give a sense of security to the person without being alert to the movement without notice.
  • the head control unit may be one that directs the face portion to the changed moving direction when changing the moving direction or before a predetermined time for changing the moving direction while the mobile robot is moving.
  • the mobile robot when the mobile robot changes the moving direction (changes the course) or turns the face in the changed moving direction before a predetermined time for changing the course, it may occur due to the change of the course without notice. It is possible to avoid collisions with people and give people a sense of security without being wary of changing course without notice.
  • the predetermined time may be changed according to the moving speed of the mobile robot.
  • a predetermined time that can be changed can be provided between the timing of driving the head and the start timing of movement or course change from the time of stop, so that, for example, it is natural according to the movement speed.
  • the movement of the head can be adjusted, and the movement of the head can be realized without any discomfort.
  • the driving means may include a rotating shaft in the vertical direction for rotationally driving the head in the left-right direction.
  • a movement route setting unit that sets a movement route, a detection unit that detects the position of a person's head, and a case where the mobile robot moves the movement route in the movement direction from the current location within a predetermined distance from the mobile robot.
  • a collision determination unit for determining whether or not to collide with the person is further provided, and when the collision determination unit determines that the collision with the person, the head control unit puts the face portion on the person's head. It may be something to point at.
  • the face can be directed to the head of a person who is predicted to collide when the mobile robot moves, so that the person is not only notified of the moving direction but also to avoid the collision. Evacuation behavior can be encouraged.
  • the driving means may further include a horizontal rotation axis that drives the head in the vertical direction.
  • An image sensor may be further provided, and the detection unit may detect the position of the person's head based on the image data detected by the image sensor.
  • the position of the human head can be easily detected by using various algorithms (software) for analyzing the image data.
  • the collision determination unit further includes a person identification unit that identifies the person who is predicted to collide first when it is determined that the collision determination unit collides with the plurality of persons, and the collision determination unit determines that the collision determination unit collides with the plurality of persons.
  • the head control unit may direct the face portion to the head of the person specified by the person identification unit.
  • a movement control unit that controls the movement of the mobile robot is further provided, and when an obstacle including the person is detected on the movement path during the movement of the robot, the movement control unit decelerates or decelerates the mobile robot. It may be something to stop.
  • a speaker and a notification control unit that outputs a predetermined sound using the speaker are further provided, and the notification control unit is provided for a certain period of time after the head control unit directs the face portion toward the person's head. If it is determined that the collision determination unit collides with the person even after the lapse of time, a predetermined sound may be output.
  • It may further include one or more arms having a manipulator mechanism.
  • the present invention can also be thought of as a method. That is, the method for controlling a mobile robot according to the present invention is a method for controlling a mobile robot that includes a head having a front face as a face and a driving means for driving the head, and is moved by an omnidirectional mobile trolley.
  • the head control step includes a head control step for controlling the drive means, and the head control step controls the drive means when the mobile robot starts moving or before a predetermined time before the movement starts.
  • the face is turned in the direction of movement.
  • the control program for a mobile robot is a control program for a mobile robot that includes a head having a front face as a face and a driving means for driving the head, and is moved by an omnidirectional mobile trolley.
  • the head control step includes a head control step for controlling the drive means, and the head control step controls the drive means when the mobile robot starts moving or before a predetermined time before the movement starts.
  • the face is turned in the direction of movement.
  • FIG. 1 is a schematic configuration diagram of a mobile robot according to the first embodiment.
  • FIG. 2 shows the appearance of the mobile robot of the first embodiment, but is a schematic configuration diagram.
  • FIG. 3 is a diagram illustrating a head of a mobile robot.
  • FIG. 4 is a flowchart illustrating the head drive control of the first embodiment.
  • FIG. 5 is a diagram illustrating an operation related to the head drive process.
  • FIG. 6 is a schematic configuration diagram of the mobile robot of the second embodiment.
  • FIG. 7 is a flowchart illustrating the head drive control of the second embodiment.
  • FIG. 8 is a diagram illustrating a method of collision determination processing.
  • FIG. 9 is a diagram illustrating an operation related to a human-compatible head drive process.
  • FIG. 10 is a diagram illustrating a situation in which a human-compatible head drive process is executed.
  • FIG. 11 is a diagram illustrating a situation in which the human-compatible head drive process is not executed.
  • FIG. 12 is a flowchart illustrating the details of the movement process of the second embodiment.
  • FIG. 13 is a diagram illustrating a collision determination process executed during movement.
  • FIG. 14 is a diagram illustrating a specific process performed by the person identification unit.
  • the mobile robot 100 of the present embodiment is a robot that is supposed to move in a work area shared with a person, and is, for example, a mobile manipulator having a function of picking parts and transporting them to a predetermined place in a factory or the like. Or, it may be applied to a service robot or the like that guides a customer such as a traveler at a facility such as an airport.
  • a service robot or the like that guides a customer such as a traveler at a facility such as an airport.
  • FIG. 2 an example in which the mobile robot 100 is applied to a roughly humanoid mobile manipulator including a head 30 and an arm portion 40 having a manipulator mechanism as shown in FIG. 2 will be described.
  • the mobile robot 100 of the present embodiment includes a controller 1 that functions as a control device for controlling the operation of the mobile robot 100, a moving mechanism driving means 2, and a head driving means 3. NS.
  • the controller 1 of the present embodiment has functional units such as a movement route setting unit 11, a movement control unit 12, and a head direction control unit 13.
  • a central processing unit (CPU) as a processor
  • ROM read-only memory
  • RAM random access memory
  • I / O interface input / output interface
  • the ROM included in the controller 1 stores a program (control program) for executing each function of each of the above-mentioned functional units.
  • the controller 1 realizes the functions of each functional unit such as the movement route setting unit 11, the movement control unit 12, and the head direction control unit 13 by executing various programs stored in the storage medium. It is composed.
  • the above-mentioned configurations as the processor and the storage medium constituting the controller 1 are examples, and in addition to or in place of these, a GPU, a flash memory, a hard disk, a storage, and the like may be included.
  • the functions of the above-mentioned functional units do not necessarily have to be realized only by the controller 1, and are configured to be realized by a plurality of controllers appropriately selected for each functional unit or by coordinating with each other. May be good. The functions of each functional unit of the controller 1 will be described below.
  • the movement route setting unit 11 sets the route (movement route) that the mobile robot 100 intends to move. Specifically, the movement route setting unit 11 plans the route from a predetermined position to the destination based on the map information (map data) of the work area.
  • the movement route of the mobile robot 100 is a route generated by so-called path planning. Set as.
  • the predetermined position here may be a predetermined predetermined position or may be the current position of the mobile robot 100.
  • the specific method for the mobile robot 100 to generate a movement path from a predetermined position to the destination is not particularly limited, and a known method used for a mobile robot such as an existing mobile manipulator may be appropriately adopted.
  • the set movement route does not necessarily have to be generated by the controller 1.
  • the movement route setting unit 11 may set the route to the destination acquired via wireless communication or the like as the movement route of the mobile robot 100.
  • the movement control unit 12 controls the movement mechanism driving means 2 in order to move the mobile robot 100 along the movement path set by the movement route setting unit 11.
  • the moving mechanism driving means 2 will be described later with reference to FIG.
  • the head direction control unit 13 controls the head driving means 3 in order to drive the head 30 (see FIG. 2) provided in the mobile robot 100. Specifically, the head direction control unit 13 controls the front facing direction of the head 30 via the head driving means 3. The details of the head driving means 3 will be described later with reference to FIG.
  • FIG. 2 is a diagram for explaining the configuration of the mobile robot 100, and mainly shows an example of the appearance of the mobile robot 100.
  • the mobile robot 100 of the present embodiment has a substantially humanoid shape, and is located on the robot main body 10, the mobile trolley 20 that supports the robot main body 10, and the upper end of the robot main body 10. It is composed of a head portion 30 provided and an arm portion 40 extending from the front surface of the robot main body portion 10.
  • the mobile trolley 20 that supports the robot body 10 is an omnidirectional mobile trolley that has a function of moving on a surface (floor surface) on which the mobile robot 100 is placed.
  • the omnidirectional moving trolley is a trolley provided with, for example, a plurality of omni wheels as driving wheels and configured to be able to move in all directions.
  • the omnidirectional moving trolley may be referred to as an omnidirectional trolley, an omnidirectional moving trolley, or an omnidirectional trolley.
  • the omnidirectional moving trolley has the feature that it can move 360 degrees in all directions and can move freely even in a narrow passage, etc., while the moving direction is changed from the direction in which the drive wheels face like a general trolley. Since it is difficult to judge, it is difficult to predict the direction of movement.
  • the moving carriage 20 of the present embodiment has three driving wheels 22 and a moving mechanism driving means 2 for driving the driving wheels 22 via a belt or the like inside the skirt 21 represented in the appearance. It may be composed of and.
  • the moving mechanism driving means 2 of the present embodiment is composed of one or a plurality of motors, and hereinafter, the moving mechanism driving means 2 is also referred to as a motor 2.
  • the head 30 may be provided at the upper end of the robot main body 10 as a configuration corresponding to a human head (a portion above the neck) in the substantially humanoid mobile robot 100. It is desirable that the head 30 is configured so that the front surface of the head 30 can be recognized as a face when viewed by a person.
  • the head 30 is configured to be able to control the direction in which the front faces.
  • the mobile robot 100 of the present embodiment includes one or a plurality of head driving means 3 (actuators 3), and controls the direction of the front surface thereof by moving the head via the head driving means 3. It is configured so that it can be done.
  • the front surface of the head 30 will be referred to as a face portion 31.
  • the mobile robot 100 of the present embodiment has a vertical rotation axis that rotates the head 30 in the horizontal direction (horizontal direction) with respect to the floor surface, and enables the head 30 to be rotationally driven in the left-right direction. It has a unit driving means 3 (servo motor 3a). As a result, the mobile robot 100 can rotate and drive only the head 30 to the left and right with respect to the vertical direction.
  • the arrangement of the servomotor 3a is not limited to the arrangement shown in the drawing, and may be appropriately changed as long as the direction of the face portion 31 can be moved in the left-right direction.
  • the servomotor 3a may be provided so as to rotationally drive the robot main body 10 to the left and right with respect to the moving carriage 20. In this case, the servomotor 3a can change the direction of the face portion 31 by rotationally driving the head portion 30 together with the robot main body portion 10 to the left and right with respect to the vertical direction.
  • the mobile robot 100 has a head driving means 3 (servomotor) which has a horizontal rotation axis for driving the head 30 in the vertical direction with respect to the floor surface and enables an operation of looking up and down of the head 30. 3b) may be provided. As a result, the mobile robot 100 can also move the direction of the face portion 31 in the vertical direction.
  • a head driving means 3 (servomotor) which has a horizontal rotation axis for driving the head 30 in the vertical direction with respect to the floor surface and enables an operation of looking up and down of the head 30. 3b) may be provided.
  • the mobile robot 100 can also move the direction of the face portion 31 in the vertical direction.
  • FIG. 3 is a diagram for more specifically explaining a configuration example of the head 30 of the present embodiment.
  • the shape of the head 30 is not particularly limited as long as the front surface can be recognized as the face portion 31.
  • the face portion 31 has a structural feature that can be visually recognized only on the front portion of the head portion 30 so that the front surface can be easily recognized as the face portion 31.
  • FIG. 3A by providing a configuration corresponding to two eyes imitating a human face only on the front surface of the head 30, the front surface can be easily recognized as the face portion 31. .. Further, as shown in FIG.
  • a characteristic portion (a portion indicated by a thick arrow) configured by using a transparent member or the like is provided on the front surface of the head 30, so that the front surface is used as the face portion 31. It can be easily recognized. Further, although not shown, for example, in the head 30 having a substantially long spherical shape, only the front surface may be made flat.
  • the head 30 may be provided on the robot main body 10 via a configuration (neck) corresponding to a human neck, or may be provided directly on the upper end of the robot main body 10. good. That is, the servomotors 3a and 3b may be provided on the neck or the head 30.
  • an external environment recognition means detection means
  • the external environment recognition means may be configured as a configuration for the mobile robot 100 to autonomously travel, or as a detection means 4 described later in the second embodiment.
  • the mobile robot 100 includes an arm portion 40 on the front surface of the robot main body portion 10.
  • the arm portion 40 is provided with a manipulator mechanism, and a gripping mechanism 41 for gripping an article or the like to be transported is provided at a tip corresponding to a free end.
  • the shape, number, and arrangement of the arm portions 40 are not limited to the illustrated modes and may be appropriately changed according to the purpose.
  • the mobile robot 100 may be configured as a dual-arm robot having arm portions 40 on both side surfaces of the robot main body portion 10.
  • the above is a configuration example of the mobile robot 100 of this embodiment.
  • the mobile robot 100 is omitted in FIG. 2, the mobile robot 100 has other configurations required for controlling the operation of the mobile robot 100, for example, other actuators for driving the arm 40 and the like, and a power source.
  • a battery or the like may be provided.
  • FIG. 4 is a flowchart illustrating the head drive control performed by the mobile robot 100 of the present embodiment.
  • the storage medium included in the controller 1 stores a control program that executes the processes described below with reference to the illustrated flowchart.
  • step S11 the controller 1 executes the task acquisition process.
  • the task acquisition process is a process for the mobile robot 100 to acquire information necessary for generating a movement route set by the movement route setting process (S12) described later.
  • the controller 1 acquires, for example, identification information (part ID) of the part to be picked, position information of the destination (for example, position coordinates), and the like.
  • the acquisition method is not limited, and the acquisition may be performed using a known wireless communication technique, or may be configured to be acquired via an information input means (for example, a touch panel or the like) (not shown).
  • step S12 the controller 1 (movement route setting unit 11) sets the route generated according to the information acquired by the task acquisition process as the movement route of the mobile robot 100. For example, when the component ID is acquired by the task acquisition process, the movement route setting unit 11 moves from the current location generated with the location where the component specified by the component ID is placed to the destination. Set the route as a movement route. When the movement route to the destination is set, the head drive process is subsequently executed (S13).
  • step S13 the controller 1 (head direction control unit 13) executes a head drive process that controls the direction in which the face portion 31 faces.
  • the head drive process in this step is executed at the same time as the mobile robot 100 starts moving or before a predetermined time from starting the movement.
  • the predetermined time here may be set as appropriate, for example, immediately before the start of movement (for example, within 1 second), or a relatively long time (for example, 3 seconds or more) may be set.
  • the head direction control unit 13 controls the servomotor 3a so that the face portion 31 faces the moving direction. Then, the movement process (S14) is executed at the same time when the face portion 31 starts the operation of facing the moving direction, or when the above-mentioned predetermined time has elapsed from the start of the operation.
  • FIG. 5 is a diagram illustrating the operation of the mobile robot 100 when executing the head drive process.
  • the operation of the mobile robot 100 which functions as a mobile manipulator, after picking a part and immediately before starting the movement is shown.
  • FIG. 5A shows a mobile robot 100 that performs a work of picking parts and a person (worker) who is working next to the mobile robot 100.
  • FIG. 5B shows a state in which the mobile robot 100 has finished picking parts and has stopped.
  • the mobile robot 100 may execute the movement route setting process (S12) to set the movement route.
  • the illustrated arrow is a part of the set movement path and indicates the latest movement direction (movement direction from the current location) of the mobile robot 100.
  • the mobile robot 100 of the present embodiment is configured to eliminate such a fear by executing a head drive process for notifying a nearby person of the next operation.
  • FIG. 5C shows a state in which the mobile robot 100 executes the head drive process and directs the face portion 31 in the moving direction.
  • the mobile robot 100 can indicate the direction of movement to a nearby person and foretell the subsequent movement operation.
  • the mobile robot 100 can urge a person to evacuate from the movement path, so that a collision with the person can be avoided.
  • the mobile robot 100 since it is known to workers and the like that the mobile robot 100 turns the face 31 in the moving direction at the start of the movement or before the movement starts, the caution against sudden movement in the direction in which the mobile robot 100 is located is warned. You can give a sense of security to people in a shared work area without having to worry about it.
  • the mobile robot 100 may start the movement without executing the head drive process.
  • the direction of the face portion 31 may be moved once in any of the up, down, left, and right directions, and then turned in the moving direction. By doing so, the mobile robot 100 notifies a nearby person that the movement of the head 30 will move from now on even if the direction of the face portion 31 in the stopped state and the movement direction match. can do.
  • the above is the details of the operation related to the head drive process (S13). Returning to the flowchart of FIG. 4, the following description will be continued.
  • step S14 the controller 1 (movement control unit 12) executes a movement process for moving the mobile robot 100 to the destination.
  • the movement control unit 12 controls the motor 2 to move the automatic robot 100 to the destination along the set movement path.
  • the specific method for moving the mobile robot 100 to the destination is not particularly limited, and various known methods may be appropriately adopted.
  • the mobile robot 100 controls the motor 2 while performing known self-position estimation such as odometry and scan matching based on the route planned by path planning and the map data stored in advance, and the destination. It may be configured to realize autonomous movement (autonomous driving) up to.
  • the mobile robot 100 may be configured to execute the head drive process even during the movement (during the movement process). That is, the controller 1 (head direction control unit 13) directs the face portion 31 to the changed moving direction when changing the moving direction or before a predetermined time for changing the moving direction while the mobile robot 100 is moving.
  • the head drive process may be executed.
  • the predetermined time may be set as appropriate, and may be changed according to, for example, the current moving speed of the mobile robot 100. For example, the faster the moving speed, the shorter the predetermined time may be set. In this case, the movement speed is zero, that is, the head drive process is executed during the movement and then the course is changed rather than the predetermined time required from the execution of the head drive process to the start of the movement when the vehicle is stopped.
  • the predetermined time required to start is set shorter. By making it possible to change the predetermined time according to the moving speed of the mobile robot 100 in this way, the movement of the head 30 according to the moving speed of the mobile robot 100 can be adjusted, so that people around the user can rest assured. It is possible to realize the natural movement of the head 30 without any discomfort while giving a feeling.
  • the mobile robot 100 changes the moving direction and changes the moving direction after the change, not only at the start of the movement from the stopped state but also during the movement, depending on the direction in which the face portion 31 faces. You can give notice to people.
  • the mobile robot 100 reaches the destination, the movement process ends.
  • the above is the details of the head drive control performed by the mobile robot 100 of the first embodiment. It should be noted that the flowchart shown in FIG. 4 is an example for explaining the head drive control of the present embodiment, and does not limit the execution as shown in the drawing. For example, the task acquisition process and the movement route setting process do not have to be executed before the head drive process.
  • the mobile robot 100 since the mobile robot 100 directs the face portion 31 in the moving direction, it is possible to give a notice of the moving direction to a nearby person. As a result, the mobile robot 100 can give a sense of security to people who share the same space without being alert to the movement of the mobile robot 100.
  • the mobile robot 200 of the second embodiment will be described.
  • the mobile robot 200 is mainly different from the first embodiment in that the position of a person existing in the vicinity, particularly the position of the head of the person, can be detected.
  • the differences from the mobile robot 100 will be mainly described with reference to FIGS. 6 to 14. The description of the same configuration as that of the mobile robot 100 will be omitted.
  • FIG. 6 is a diagram illustrating the configuration of the mobile robot 200.
  • the mobile robot 200 of the present embodiment includes a detection means 4, a human detection unit 21 and a collision prediction unit 22 as functional units of the controller 1. Further prepare.
  • the detection means 4 detects an obstacle existing in the surrounding environment of the mobile robot 200.
  • the obstacles here are mainly people.
  • the detection means 4 includes, for example, at least one of a sensor (image sensor, lidar, laser scanner, etc.), a stereo camera, and the like.
  • the detection means 4 of the present embodiment is composed of an image sensor, and the detection means 4 is also referred to as a sensor 4 below.
  • the image sensor is a sensor having an image sensor that converts light detected through an optical system into an electric signal, and the type thereof is not particularly limited.
  • the sensor 4 is configured to be able to detect an obstacle existing in the surrounding environment including at least the front, and is provided, for example, in a portion corresponding to the human eye, which is configured in the face portion 31 shown in FIG. 3A. good.
  • a sensor 4 capable of detecting all directions which is a so-called 360-degree camera, may be provided on the crown of the head 30, for example.
  • the sensor 4 of the present embodiment detects image data capable of recognizing the position and posture of a person existing in the vicinity including at least the front of the mobile robot 100, and transmits the detected data (image data) to the controller 1.
  • the person detection unit 21 detects the position and posture of a person based on the image data acquired by the sensor 4.
  • the posture to be detected here is not necessarily the posture of the whole body, but at least the position of the human head may be discriminated.
  • Various known methods can be adopted as a method for detecting the position and posture of a person based on the image data, but in the present embodiment, the human skeleton (bone) is detected from the image data to determine the position of the person.
  • a method of detecting the posture is adopted. This method is also referred to as a bone model, bone detection, or the like. By adopting such a method, the human detection unit 21 can easily detect the position of the head of a person in the vicinity of the mobile robot 200.
  • the collision prediction unit 22 predicts whether or not the mobile robot 200 collides with a person when the mobile robot 200 moves along the set movement path.
  • a method for predicting a collision between the mobile robot 200 and a person various known methods may be appropriately adopted. A specific example of the collision prediction adopted in this embodiment will be described later with reference to FIG.
  • FIG. 7 is a flowchart illustrating the head drive control performed by the mobile robot 200 of the second embodiment.
  • the storage medium included in the controller 1 stores a control program that executes the processes described below with reference to the illustrated flowchart.
  • Steps S21 to S23 are executed when the mobile robot 200 starts moving along the set movement path, or when it is in a stopped state before starting the movement.
  • step S21 the controller 1 (collision prediction unit 22) executes a collision determination process for predicting whether or not the mobile robot 200 collides with a person.
  • the details of the collision determination process will be described with reference to FIG.
  • FIG. 8 is a diagram illustrating a collision determination process performed by the collision prediction unit 22 of the present embodiment.
  • the mobile robot 200 and the person 300 detected by the person detection unit 21 are shown.
  • the dotted arrow extending from the mobile robot 200 indicates a set movement path.
  • the solid line arrow extending from the mobile robot 200 indicates the latest moving direction of the mobile robot 200.
  • the latest movement direction indicates the movement direction from the current location on the set movement route, and is indicated by a straight line starting from the current location in principle. In other words, the most recent movement direction is the direction from the current location to the first turning point (first waypoint) on the movement route.
  • the collision determination process of the present embodiment is performed by regarding the mobile robot 200 and the person 300 as simple two-dimensional figures projected from above onto the floor surface, and determining whether or not the two-dimensional figures interfere with each other. ..
  • the mobile robot 200 is represented by, for example, a series of circles projected corresponding to each link of the mobile carriage 20 and the arm 40.
  • the person 300 is represented by a circle considering a region that expands in the horizontal direction when the arm is extended in the horizontal direction.
  • the outer edge of the projected two-dimensional figure that is, the diameter of the circle, is the maximum value of the horizontal width of the mobile robot 200 seen from above, and the maximum horizontal width when the person 300 spreads both arms in the horizontal direction.
  • the values do not necessarily have to match.
  • the projected two-dimensional figure may be appropriately adjusted by making it slightly wider to allow a margin or narrowing it in consideration of a realistic movable range.
  • the circle corresponding to the mobile robot 200 is generated along the movement path while the mobile robot 200 moves for a predetermined distance or a predetermined time.
  • circles corresponding to the mobile robot 200 that moves the movement path within the predetermined distance indicated by the dotted line circle in the latest movement direction are shown in chronological order.
  • the predetermined distance of the present embodiment may be set to a distance equal to or less than the moving distance in the latest moving direction (distance from the current location to the first waypoint).
  • the current circle corresponding to the mobile robot 200 is shown as (t), and the circles generated in time series along the moving path are shown as (t + 1) and (t + 2).
  • the collision prediction unit 22 calculates whether or not the circle corresponding to the mobile robot 200 and the circle corresponding to the person 300 come into contact (interference) within a predetermined distance from the mobile robot 200. Whether or not they touch each other can be easily calculated based on, for example, the distance between the centers of the circles and the radius of each circle. As a result, the collision prediction unit 22 can predict that the mobile robot 200 can collide with the person 300 at (t + 2), for example, as shown in the figure.
  • the predetermined distance indicated by the dotted line circle in the figure that is, the distance range of the collision prediction based on the current location may be appropriately adjusted according to the moving speed of the mobile robot 200 and the like.
  • the generation interval of the two-dimensional figures shown by (t + 1) and (t + 2) in the figure is the moving speed of at least one of the mobile robot 200 and the person 300, the sampling frequency when the detection unit 21 detects the person 300, and the like. May be adjusted as appropriate in consideration of.
  • the collision determination method for generating the above-mentioned two-dimensional figure as the collision verification figure is an example, and is not limited to this.
  • the collision prediction unit 22 may adopt another known collision determination method that generates a three-dimensional figure as a collision verification figure. In this case, each link of the mobile robot 200 and the person 300 may be represented by a three-dimensional sphere or polygon mesh as a collision verification figure.
  • step S22 for performing the head drive process is executed.
  • the head drive process according to this step is the same as the head drive process described above in the first embodiment (see S13, FIG. 5 (c)).
  • the process proceeds to the subsequent move process (S24) in order to move along the set movement path.
  • the human-compatible head drive process in step S23 is executed.
  • step S23 the controller 1 (head direction control unit 13) executes the human-compatible head drive process.
  • the human-compatible head drive process is a process executed for a person who is determined to collide when the mobile robot 200 moves in the movement direction (most recent movement direction) from the current location within a predetermined distance from the current location of the mobile robot 200. Is.
  • FIG. 9 is a diagram illustrating a human-compatible head drive process (S23) that is executed when the movement is started from the stopped state.
  • the head direction control unit 13 controls the head drive means 3 and directs the face 31 to the head of a person determined to collide. ..
  • the head direction control unit 13 may control the drive of the servomotor 3b.
  • each situation when the face portion 31 is directed toward the human head and when the face portion 31 is not directed is organized with reference to FIGS. 10 and 11.
  • FIG. 10 is a diagram illustrating a situation when the face portion 31 is directed toward a person's head.
  • FIG. 10A when a person is within a predetermined distance and is in the latest movement direction on the movement path, it is naturally predicted that the person will collide with the face 31. To the person's head.
  • FIG. 10B even when the person is at a position deviated from the latest movement direction on the movement path, the mobile robot 200 moves in the latest movement direction within a predetermined distance.
  • the mobile robot 200 turns the face 31 toward the human head.
  • the mobile robot 200 can announce the movement operation to the person who is predicted to collide, and can urge the person to evacuate from the movement path.
  • FIG. 11 is a diagram illustrating a situation in which the face portion 31 is not directed toward the human head.
  • the mobile robot 200 since the person is not within the predetermined range and is not predicted to collide with the mobile robot 200, the mobile robot 200 has a face 31 regardless of whether or not it is in the latest moving direction. Do not point at the person's head.
  • FIGS. 11 (c) and 11 (d) although the person is within the predetermined range, it is unlikely that the mobile robot 200 will approach the person even if the mobile robot 200 moves in the latest moving direction. Since it is predicted that the robot will not collide, the mobile robot 200 does not turn the face 31 toward the human head.
  • the human-compatible head drive process (S23) When the human-compatible head drive process (S23) is executed, until there are no people predicted to collide, that is, the person determined to collide by the collision determination process (S21) performed in the previous stage is from the movement path.
  • the processes of steps S21 to S23 are repeatedly executed until eviction or the like.
  • the mobile robot 200 can continue to urge evacuation from the latest moving direction by maintaining the state in which the face portion 31 is directed toward the human head and continuing to apply silent pressure.
  • steps S21 to S23 are repeated, it is not always necessary to keep the face 31 facing the human head.
  • a conspicuous action such as shaking the head 30 to the left or right is performed so that the person who is predicted to collide notices earlier by the advance notice action of the mobile robot 200.
  • the mobile robot 200 may be provided with a notification means (not shown), and may be configured to more directly appeal to a person who is predicted to collide with evacuation from the movement path by using the notification means.
  • the mobile robot 200 may further include a speaker as a notification means and a functional unit (notification means control unit) of the controller 1 that controls the notification means. Then, if the mobile robot 200 continues to be determined to collide with the person even after a certain period of time has passed after the face 31 is directed toward the person's head by the human-compatible head drive process (S23), the speaker It may be configured to output a predetermined sound from.
  • the predetermined sound here may be, for example, a warning sound consisting of a buzzer sound, or a voice such as "I'm sorry, I'm moving" or "passing". As a result, the mobile robot 200 can give a clearer and stronger notice of movement to a person who is predicted to collide.
  • FIG. 12 is a flowchart illustrating a movement process performed by the mobile robot 200 of the second embodiment.
  • the movement process described in this flowchart is always executed while the mobile robot 200 is moving to the destination along the set movement route.
  • the storage medium included in the controller 1 stores a control program that executes the processes described below with reference to the illustrated flowchart.
  • step S221 the controller 1 (collision prediction unit 22) executes the collision determination process.
  • the collision determination process may be the same as the method described above in the first embodiment (see FIG. 8). However, the collision determination process executed in this step may be executed as follows in consideration of being performed while the mobile robot 200 is moving.
  • FIG. 13 is a diagram for explaining a collision determination process executed especially while the mobile robot 200 is moving.
  • the mobile robot 200 the movement path indicated by the dotted arrow extending from the mobile robot 200, the latest movement direction indicated by the solid arrow extending from the mobile robot 200, and the predetermined distance from the mobile robot 200 indicated by the dotted circle.
  • the deceleration start area indicated by the alternate long and short dash line circle and the person are shown.
  • the movement control unit 12 at the time of movement may execute a process (deceleration process) of decelerating or stopping the movement of the mobile robot 200 when the person detection unit 21 detects a person on the movement path.
  • the alternate long and short dash line circle shown in FIG. 13A is a circle exemplifying a deceleration start area (deceleration start distance) set to execute deceleration processing when a person is detected.
  • the head direction control unit 13 sets the head direction control unit 13.
  • the human-compatible head drive process (S23) is executed. As a result, even if a person is encountered while moving, it is possible to safely urge evacuation from the moving path before the collision.
  • the size of the deceleration start area and the degree of deceleration including the stop may be appropriately adjusted in consideration of the moving speed of the mobile robot 200 and the person. Further, the deceleration process may be executed not only when a person is detected in the deceleration area but also when some obstacle that may hinder the movement of the mobile robot 200 is detected.
  • step S221 determines whether the vehicle does not collide with a person. If it is determined in step S221 that the vehicle does not collide with a person (NO determination), the processes of steps S221 to S222 are repeatedly executed until the destination is reached. If it is determined that the vehicle collides with a person (YES determination), the process of step S223 is executed.
  • step S223 the controller 1 determines whether or not there are a plurality of people who are determined to collide by the collision determination process. If there is only one person instead of a plurality (NO determination), the human-compatible head drive process (S225) is executed in order to direct the face 31 to the head of the person who is predicted to collide. On the other hand, if there are a plurality of persons (YES determination), the person identification process (S224) is executed in order to identify the person to whom the face portion 31 is directed.
  • FIG. 14 is a diagram illustrating a person identification process.
  • the mobile robot 200 the movement path indicated by the dotted arrow extending from the mobile robot 200, the latest movement direction indicated by the solid arrow extending from the mobile robot 200, the predetermined distance from the mobile robot 200 indicated by the dotted circle, and the predetermined distance from the mobile robot 200.
  • Person A and person B shown in FIG. 14 are both persons who are expected to collide.
  • the head 30 puts the face 31 on the head of the person who is predicted to collide first. Controlled to point. That is, in the person identification process, the controller 1 identifies the person who is predicted to collide first when the mobile robot 200 moves. Specifically, the person (person A) closest to the mobile robot 200 is identified as the person who is predicted to collide first. However, when identifying a person who is expected to collide for the first time, the moving speed and moving direction of the person may be taken into consideration.
  • step S225 is executed.
  • step S225 the controller 1 (head direction control unit 13) executes a human-compatible head drive process in order to direct the face 31 to the human head.
  • the human-friendly head drive process here is the same as the process described in step S23 of FIG. 7 (see FIG. 9 and the like). Then, when no one is predicted to collide (S221, NO determination), the processes of steps S221 to S222 are repeatedly executed until the destination is reached.
  • the controller 1 moves the movement of the mobile robot 200, and the movement process ends.
  • the mobile robot 200 can directly move by pointing the face 31 toward the person's head. Since it is possible to appeal to the person concerned, it is possible to more strongly urge the person to evacuate from the movement route.
  • FIGS. 7 and 12 are examples for explaining the head drive control and the movement process of the present embodiment, and do not necessarily limit the execution as shown in the drawings.
  • the head drive control of the present embodiment as described above, it is determined at least whether or not the vehicle collides with a person while stopped or moving, and when it is determined that the vehicle collides with a person, a human-compatible head drive process is performed. It may be changed as appropriate.
  • the head drive process (S22) shown in FIG. 7 may be executed before the collision determination process (S21).
  • the moving direction is before the collision determination process (S21) is executed.
  • the head drive process (S24) for directing the face portion 31 to the face is executed.
  • the series of flow of the person identification process (S223, S224) shown in FIG. 12 may be executed after the YES determination in step S21 of FIG.
  • the mobile robot 200 since the mobile robot 200 directs the face 31 to the head of a person who is predicted to collide when moving, the mobile robot 200 not only informs a nearby person of the moving direction but also retreats to avoid the collision. Can be encouraged. As a result, the mobile robot 200 can give a sense of security by eliminating the alertness that a person sharing the same space may have with respect to the movement of the mobile robot 200.
  • the configurations of the mobile robots 100 and 200 shown in FIG. 2 may be appropriately changed as long as they include at least a head 30 and are configured to be movable by the omnidirectional mobile trolley unit (moving trolley 20).
  • the mobile robots 100 and 200 do not have to include the robot main body 10.
  • the head 30 may be configured to be provided directly on the moving carriage 20.
  • the present invention can be used at least in an industry that manufactures mobile robots and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えること。 【解決手段】全方位移動台車部により移動する移動ロボットであって、前記ロボット本体部に設けられ、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、前記駆動手段を制御する頭部制御部と、を備え、前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットが提供される。

Description

移動ロボット、移動ロボットの制御方法、及び制御プログラム
 本発明は、例えば、移動ロボット等に関する。
 近年、工場や倉庫のみならず、商業ビルや空港、介護施設等、様々な場所にロボットが適用されている。例えば特許文献1では、工場で人と共有の作業領域を自律走行するような人協働型の移動ロボットが開示されている。
特許第6412179号公報
 ところで、人協働型の移動ロボットは、狭い通路での移動や人とのすれ違い移動等にも対応するため、移動機構として全方位への移動を可能にする全方位移動台車が採用されることが多い。しかしながら、全方位移動台車は移動方向を予測することが難しいため、ロボットの移動に対して近くにいる人に警戒心をいだかせる場合がある。
 本発明は、上述の技術的課題を解決するためになされたものであり、その目的とするところは、全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えることにある。
 上述の技術的課題は、以下の構成を有する移動ロボット等により解決することができる。
 すなわち、本発明に係る移動ロボットは、全方位移動台車部により移動する移動ロボットであって、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、前記駆動手段を制御する頭部制御部と、を備え、前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、機能を備えている。
 このような構成によれば、移動ロボットが、移動を開始する時または移動を開始する所定時間前に顔部を移動方向に向けることで、近くの人に移動すること、および移動する方向を予告するので、予告なしの移動による人との衝突を回避できると共に人に予告なしの移動に対する警戒心をいだかせずに安心感を与えることができる。
 前記頭部制御部は、前記移動ロボットの移動中において、移動方向を変更する時または移動方向を変更する所定時間前に前記顔部を変更後の移動方向に向ける、ものであってよい。
 このような構成によれば、移動ロボットが、移動方向を変更(進路変更)する時または進路変更する所定時間前に顔部を変更後の移動方向に向けるので、予告なしの進路変更により起こり得る人との衝突を回避できると共に人に予告なしの進路変更に対する警戒心をいだかせずに安心感を与えることができる。
 前記所定時間は、前記移動ロボットの移動速度に応じて変更される、ものであってよい。
 このような構成によれば、頭部を駆動するタイミングと、停止時からの移動または進路変更の開始タイミングとの間に変更可能な所定時間を設けることができるので、例えば移動速度に応じた自然な頭部の動きを調整でき、違和感のない頭部の動きを実現することができる。
 前記駆動手段は、前記頭部を左右方向に回転駆動させる鉛直方向の回転軸を備える、ものであってよい。
 このような構成によれば、鉛直方向の回転軸の回転を制御することで、頭部の左右方向への回転駆動を実現することができる。
 移動経路を設定する移動経路設定部と、人の頭の位置を検出する検出部と、前記移動ロボットから所定距離内において、前記移動ロボットが前記移動経路を現在地からの移動方向に移動した場合に前記人と衝突するか否かを判定する衝突判定部と、をさらに備え、前記衝突判定部が前記人と衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人の頭に向ける、ものであってよい。
 このような構成によれば、移動ロボットが移動する際に衝突すると予測される人の頭に顔部を向けることができるので、人に移動方向を予告するだけでなく、衝突を回避するための退避行動を促すことができる。
 前記駆動手段は、前記頭部を上下方向に駆動させる水平方向の回転軸をさらに備える、ものであってよい。
 このような構成によれば、水平方向の回転軸の回転を制御することで、上下を仰ぎ見るような頭部の動作を実現することができるので、移動ロボットの頭部よりも高い位置又は低い位置にある人の頭に顔部を向けることができる。
 イメージセンサをさらに備え、前記検出部は、前記イメージセンサが検出した画像データに基づいて前記人の頭の位置を検出する、ものであってよい。
 このような構成によれば、画像データを解析する種々のアルゴリズム(ソフトウェア)を用いて、人の頭の位置を容易に検出することができる。
 前記衝突判定部が複数の前記人に衝突すると判定した場合に最初に衝突すると予測される人を特定する人特定部をさらに備え、前記衝突判定部が複数の前記人に衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人特定部が特定した前記人の頭に向ける、ものであってよい。
 このような構成によれば、移動ロボットが移動すると衝突すると予測される人が複数いる場合であっても、人の行動原理と同様の順番で特定された人に対して、順次、違和感なく退避を促すことができる。
 前記移動ロボットの移動を制御する移動制御部をさらに備え、前記ロボットの移動中に前記移動経路上に前記人を含む障害物が検出された場合は、前記移動制御部は前記移動ロボットを減速又は停止させる、ものであってよい。
 このような構成によれば、移動中の移動ロボットが人と遭遇した場合であっても、余裕をもって、安全に退避を促すことができる。
 スピーカと、前記スピーカを用いて所定の音を出力する報知制御部と、をさらに備え、前記報知制御部は、前記頭部制御部が前記顔部を前記人の頭に向けた後、一定時間経過しても前記衝突判定部が当該人と衝突すると判定する場合は、所定の音を出力する、ものであってよい。
 このような構成によれば、スピーカを用いて人の聴覚に訴えることができるので、より強く、より明確に退避を促すことができる。
 マニピュレータ機構を有する一又は複数の腕部をさらに備える、ものであってよい。
 このような構成によれば、移動を予告する機能、または、それに加えて退避を促す機能を備える移動マニピュレータを実現することができる。
 本発明は、方法として観念することもできる。すなわち、本発明にかかる移動ロボットの制御方法は、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御方法であって、前記駆動手段を制御する頭部制御ステップ、を含み、前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける。
 本発明は、コンピュータプログラムとして観念することもできる。すなわち、本発明に係る移動ロボットの制御プログラムは、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御プログラムであって、前記駆動手段を制御する頭部制御ステップ、を含み、前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける。
 本発明によれば、全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えることができる。
図1は、第1実施形態の移動ロボットの概略構成図である。 図2は、第1実施形態の移動ロボットの外観を示すが概略構成図である。 図3は、移動ロボットの頭部を説明する図である。 図4は、第1実施形態の頭部駆動制御を説明するフローチャートである。 図5は、頭部駆動処理に係る動作を説明する図である。 図6は、第2実施形態の移動ロボットの概略構成図である。 図7は、第2実施形態の頭部駆動制御を説明するフローチャートである。 図8は、衝突判定処理の手法を説明する図である。 図9は、人対応頭部駆動処理に係る動作を説明する図である。 図10は、人対応頭部駆動処理が実行される状況を説明する図である。 図11は、人対応頭部駆動処理が実行されない状況を説明する図である。 図12は、第2実施形態の移動処理の詳細を説明するフローチャートである。 図13は、移動中に実行される衝突判定処理を説明する図である。 図14は、人特定部が行う特定処理を説明する図である。
 <第1実施形態>
 図1から図3は、本発明の第1実施形態に係る移動ロボット100の構成例を説明する図である。本実施形態の移動ロボット100は、人と共有の作業領域内を移動することが想定されるロボットであって、例えば、工場等で部品をピックして所定場所に運搬する機能等を有する移動マニピュレータや、空港等の施設で旅行者等の客を案内するサービスロボット等に適用されてよい。本実施形態では、移動ロボット100が、図2に示すような頭部30とマニピュレータ機構を有する腕部40とを備える略人型の移動マニピュレータに適用された例について説明する。
 図1に示すとおり、本実施形態の移動ロボット100は、移動ロボット100の動作を制御する制御装置として機能するコントローラ1と、移動機構駆動手段2と、頭部駆動手段3とを含んで構成される。
 本実施形態のコントローラ1は、移動経路設定部11、移動制御部12、および頭部方向制御部13等の機能部を有する。コントローラ1は、例えば、プロセッサとしての中央演算装置(CPU)、記憶媒体としての読み出し専用メモリ(ROM)およびランダムアクセスメモリ(RAM)、入出力インタフェース(I/Oインタフェース)等がバスを介して接続されて構成される情報処理装置である。また、コントローラ1が備えるROMには、前述の各機能部がそれぞれに有する各機能を実行するためのプログラム(制御プログラム)が格納されている。すなわち、コントローラ1は、記憶媒体に格納された各種プログラムを実行することによって、移動経路設定部11、移動制御部12、および頭部方向制御部13等の各機能部の機能を実現するように構成される。なお、コントローラ1を構成するプロセッサおよび記憶媒体として上述した構成は例示であって、これらに加えて、或いは代えて、GPU、フラッシュメモリ、ハードディスク、ストレージ等を含んでもよい。また、上述の各機能部の機能は、必ずしもコントローラ1のみによって実現される必要はなく、機能部毎に適宜選択された複数のコントローラがそれぞれ、或いは協調することによって実現されるように構成されてもよい。コントローラ1の各機能部の機能について以下説明する。
 移動経路設定部11は、移動ロボット100が移動しようとする経路(移動経路)を設定する。具体的には、移動経路設定部11は、作業領域の地図情報(マップデータ)に基づいて所定位置から目的地までの経路を計画するいわゆるパスプランニングにより生成された経路を移動ロボット100の移動経路として設定する。ここでの所定位置は、予め定められた所定の位置であってもよいし、移動ロボット100の現在位置であってもよい。移動ロボット100が所定位置から目的地までの移動経路を生成する具体的な手法は特に限定されず、既存の移動マニピュレータ等の移動ロボットに用いられている公知の手法が適宜採用されてよい。ただし、設定される移動経路は必ずしもコントローラ1が生成する必要はない。移動経路設定部11は、例えば無線通信等を介して取得した目的地までの経路を移動ロボット100の移動経路として設定してもよい。
 移動制御部12は、移動経路設定部11が設定した移動経路に沿って移動ロボット100を移動させるために、移動機構駆動手段2を制御する。移動機構駆動手段2については図2を参照して後述する。
 頭部方向制御部13は、移動ロボット100に備わる頭部30(図2参照)を駆動するために、頭部駆動手段3を制御する。具体的には、頭部方向制御部13は、頭部駆動手段3を介して頭部30の正面の向く方向を制御する。頭部駆動手段3の詳細については図2を参照して後述する。
 図2は、移動ロボット100の構成を説明する図であって、主に移動ロボット100の外観例を示す。
 図示するように、本実施形態の移動ロボット100は、略人型の形状を有しており、ロボット本体部10と、ロボット本体部10を支持する移動台車20と、ロボット本体部10の上端に設けられた頭部30と、ロボット本体部10の前面から延びる腕部40とから構成されている。
 ロボット本体部10を支持する移動台車20は、移動ロボット100が置かれた面(床面)の上を移動する機能を有する全方位移動台車である。全方位移動台車とは、駆動輪として例えば複数のオムニホイールを備え、全方向に移動することができるように構成された台車である。全方位移動台車は、全方位台車、全方向移動台車、または全方向台車と称されてもよい。また、全方位移動台車は、360度の全方向への移動が可能であり狭い通路等でも自在に移動できる特徴がある一方で、一般的な台車のように駆動輪の向く方向から移動方向を判断しずらいので、移動方向を予測するのが難しいという側面がある。本実施形態の移動台車20は、図示するように、外観に表されるスカート21の内側に、三つの駆動輪22と、駆動輪22をベルト等を介して駆動するための移動機構駆動手段2とから構成されてよい。本実施形態の移動機構駆動手段2は一または複数のモータから構成されるものとし、以下では、移動機構駆動手段2をモータ2とも称する。
 頭部30は、略人型の移動ロボット100において、人の頭(首より上の部分)に相当する構成としてロボット本体部10の上端に設けられてよい。頭部30は、人が見た際にその正面を顔として認識できるように構成されるのが望ましい。頭部30は、正面が向く方向を制御可能に構成される。具体的には、本実施形態の移動ロボット100は、一又は複数の頭部駆動手段3(アクチュエータ3)を備え、頭部駆動手段3を介して頭部を動かすことによりその正面の向きを制御できるように構成される。なお、以下では、頭部30の正面を顔部31と称する。
 本実施形態の移動ロボット100は、頭部30を床面に対して水平方向(左右方向)に回転させる鉛直方向の回転軸を有し頭部30の左右方向への回転駆動を可能とする頭部駆動手段3(サーボモータ3a)を有する。これにより、移動ロボット100は、頭部30のみを鉛直方向に対して左右へ回転駆動させることができる。ただし、サーボモータ3aの配置は、図示する配置に制限されず、顔部31の向きを左右方向に動かすことができる限り適宜変更されてよい。例えば、サーボモータ3aは、ロボット本体部10を移動台車20に対して左右へ回転駆動させるように設けられてもよい。この場合、サーボモータ3aは、頭部30をロボット本体部10とともに垂直方向に対して左右へ回転駆動させることにより顔部31の向きを変えることができる。
 また、移動ロボット100は、頭部30を床面に対して上下方向に駆動させる水平方向の回転軸を有し頭部30の上下を仰ぎ見る動作を可能とする頭部駆動手段3(サーボモータ3b)を有してもよい。これにより、移動ロボット100は、顔部31の向きを上下方向にも動かすことができる。
 図3は、本実施形態の頭部30の構成例をより具体的に説明する図である。頭部30の形状は、正面を顔部31として認識できる限り特に制限されない。例えば、顔部31は、正面を顔部31として容易に認識されるように、頭部30の正面部分にのみ視認される構造的な特徴を有していることが望ましい。例えば、図3(a)のように、人の顔を模した二つの目に相当する構成を頭部30の正面にのみ設けることにより、正面を顔部31として容易に認識されることができる。また、図3(b)に示すように、例えば透過部材等を用いて構成された特徴的な部分(太矢印で示す部分)が頭部30の正面に設けられることでも正面を顔部31として容易に認識されることができる。また、図示しないが、例えば略長球形等の頭部30において、正面のみを平面にする等してもよい。
 また、頭部30は、図示するように、人間の首に相当する構成(頸部)を介してロボット本体部10に設けられてもよいし、ロボット本体部10の上端に直接設けられてもよい。すなわち、サーボモータ3a、3bは、頸部に設けられてもよいし、頭部30に設けられてもよい。なお、頭部30の正面部分、例えば、図3(a)に示す目に相当する部分や図3(b)に示す透過部材からなる部分に、移動ロボット100の周辺環境を認識するためのセンサ或いはカメラ等の外部環境認識手段(検出手段)が設けられてもよい。外部環境認識手段は、移動ロボット100が自律走行するための構成として、および又は、第2実施形態で後述する検出手段4として構成されてよい。
 図2に示すとおり、移動ロボット100はロボット本体部10の前面に腕部40を備える。腕部40は、マニピュレータ機構を備え、運搬する物品等を把持するための把持機構41が自由端に相当する先端に設けられている。ただし、腕部40の形状、数、および配置は図示する態様に制限されず目的に応じて適宜変更されてよい。例えば、移動ロボット100は、ロボット本体部10の両側面に腕部40を備える双腕ロボットとして構成されてもよい。
 以上が、本実施形態の移動ロボット100の構成例である。なお、移動ロボット100は、図2では省略されているが、移動ロボット100の動作を制御するのに必要となる他の構成、例えば、腕部40等を駆動する他のアクチュエータや、電力源となるバッテリ等を備えてもよい。
 次に、図4および図5を参照して、移動ロボット100の動作について説明する。
 図4は、本実施形態の移動ロボット100が行う頭部駆動制御を説明するフローチャートである。コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。
 ステップS11では、コントローラ1はタスク取得処理を実行する。タスク取得処理は、移動ロボット100が後述の移動経路設定処理(S12)によって設定される移動経路を生成するために必要な情報を取得するための処理である。タスク取得処理では、コントローラ1は例えば、ピックする部品の識別情報(部品ID)や、目的地の位置情報(例えば位置座標)等を取得する。取得方法に制限はなく、公知の無線通信技術を利用して取得してもよいし、不図示の情報入力手段(例えばタッチパネル等)を介して取得するように構成されてもよい。
 ステップS12では、コントローラ1(移動経路設定部11)は、タスク取得処理によって取得した情報に応じて生成された経路を移動ロボット100の移動経路として設定する。例えば、タスク取得処理によって部品IDを取得した場合には、移動経路設定部11は、当該部品IDにより特定される部品が置かれている場所を目的地として生成された現在地から当該目的地までの経路を移動経路として設定する。目的地までの移動経路が設定されると、続いて頭部駆動処理が実行される(S13)。
 ステップS13では、コントローラ1(頭部方向制御部13)は顔部31の向く方向を制御する頭部駆動処理を実行する。本ステップにおける頭部駆動処理は、移動ロボット100が移動を開始すると同時に、または移動を開始する所定時間前に実行される。ここでの所定時間は適宜設定されてよく、例えば移動を開始する直前(例えば1秒以内)でもよいし、比較的長めの時間(例えば3秒以上)が設定されてもよい。
 頭部駆動処理(S13)では、頭部方向制御部13が、顔部31が移動方向を向くようにサーボモータ3aを制御する。そして、顔部31が移動方向を向く動作を開始するのと同時に、もしくは当該動作を開始してから上述の所定時間を経過した時に、移動処理(S14)が実行される。
 ここで、頭部駆動処理を実行する際の移動ロボット100の動作について図5を参照して説明する。
 図5は、頭部駆動処理を実行する際の移動ロボット100の動作を説明する図である。本図では、移動マニピュレータとして機能する移動ロボット100が部品をピックした後、移動を開始する直前までの動作が表されている。図5(a)は、部品をピックする作業を行う移動ロボット100と、移動ロボット100の隣で作業をしている人(作業者)とを示す。図5(b)は、移動ロボット100が部品をピックする作業を終えて停止している状態を示す。この時、移動ロボット100は、移動経路設定処理(S12)を実行して移動経路を設定してよい。図示する矢印は、設定した移動経路の一部であって、移動ロボット100の直近の移動方向(現在地からの移動方向)を示している。
 ここで、移動ロボット100が頭部駆動処理を行わずに移動を開始すると、移動方向にいる作業者は、自分に向かって突然動き出す移動ロボット100を避けきれずに衝突されるおそれがある。また、衝突を避けられたとしても、自分に向かって突然動き出す可能性のある移動ロボット100が近くにいる状況下では、移動ロボット100の次の動作を警戒し、その心理的な負担により作業効率が低下するおそれがある。本実施形態の移動ロボット100は、近くにいる人に次の動作を予告するための頭部駆動処理を実行することで、このようなおそれを解消することができるように構成される。
 図5(c)は、移動ロボット100が頭部駆動処理を実行して、顔部31を移動方向に向けている状態を示す。頭部駆動処理が実行されることで、移動ロボット100は、近くの人に対して移動する方向を示すとともに、続く移動動作を予告することができる。これにより、移動ロボット100は、人に移動経路からの退避行動を促すことができるので、人との衝突を回避することができる。また、移動ロボット100が移動開始時または移動を開始する前に移動方向に顔部31を向けることが作業者等に周知されることにより、自分のいる方向に突然移動してくることに対する警戒心をいだかせずに、共有の作業領域にいる人に安心感を与えることができる。
 なお、移動開始前の停止状態における顔部31の方向と移動方向とが一致している場合には、移動ロボット100は、頭部駆動処理を実行せずに移動を開始してもよいが、顔部31の向きを、例えば上下左右のいずれかの方向に一旦動かして、その後に移動方向に向けるようにしてもよい。こうすることで、移動ロボット100は、停止状態における顔部31の方向と移動方向とが一致している場合であっても、頭部30の動きでこれから移動することを近くにいる人に予告することができる。以上が頭部駆動処理(S13)に係る動作の詳細である。図4のフローチャートに戻って以下説明を続ける。
 ステップS14では、コントローラ1(移動制御部12)は、移動ロボット100を目的地まで移動させる移動処理を実行する。移動処理では、移動制御部12がモータ2を制御して、自動ロボット100を設定された移動経路に沿って目的地まで移動させる。移動ロボット100を目的地まで移動させる具体的な手法は特に制限されず、公知の種々の手法が適宜採用されてよい。例えば、移動ロボット100は、パスプランニングにより計画された経路と、予め記憶されたマップデータとに基づいて、オドメトリ、スキャンマッチング等の公知の自己位置推定を行いながらモータ2を制御して、目的地までの自律的な移動(自律走行)を実現するように構成されてよい。
 なお、移動ロボット100は、移動中(移動処理中)においても頭部駆動処理を実行するように構成されてよい。すなわち、コントローラ1(頭部方向制御部13)は、移動ロボット100の移動中において、移動方向を変更する時または移動方向を変更する所定時間前に顔部31を変更後の移動方向に向けるように頭部駆動処理を実行してもよい。所定時間は、適宜設定されてよく、例えば移動ロボット100の現在の移動速度に応じて変更されてよい。例えば、移動速度が速ければ速いほど、所定時間を短く設定してもよい。この場合には、移動速度がゼロ、すなわち停止状態時に頭部駆動処理を実行してから移動を開始するまでにかかる所定時間よりも、移動中に頭部駆動処理を実行してから進路変更を開始するまでにかかる所定時間の方が短く設定される。このように、所定時間を移動ロボット100の移動速度に応じて変更可能とすることにより、移動ロボット100の移動速度に応じた頭部30の動きを調整することができるので、周囲の人に安心感を与えつつ違和感のない頭部30の自然な動きを実現することができる。
 このようにして、移動ロボット100は、顔部31の向く方向によって、停止状態からの移動開始時だけでなく、移動中においても、移動方向を変更すること及びその変更後の移動方向を近くの人に予告することができる。移動ロボット100が目的地に到達すると移動処理が終了する。
 以上が、第1実施形態の移動ロボット100が行う頭部駆動制御の詳細である。なお、図4で示すフローチャートは本実施形態の頭部駆動制御を説明するための例示であって、図示するとおりに必ず実行されることを制限するものではない。例えば、タスク取得処理及び移動経路設定処理は、頭部駆動処理の前に実行されなくてもよい。
 以上が第1実施形態の移動ロボット100の詳細である。以上説明したように、移動ロボット100は、移動方向に顔部31を向けるので、近くにいる人に移動方向を予告することができる。その結果、移動ロボット100は、同じ空間を共有する人に対して、移動ロボット100の移動に対する警戒心をいだかせず、安心感を与えることができる。
 <第2実施形態>
 以下、第2実施形態の移動ロボット200について説明する。移動ロボット200は、周囲に存在する人の位置、特に人の頭の位置を検出可能に構成される点が第1実施形態と主に相違する。以下、図6~図14を参照しながら移動ロボット100との相違点を中心に説明する。なお、移動ロボット100と同様の構成については説明を割愛する。
 図6は、移動ロボット200の構成を説明する図である。図示するように、本実施形態の移動ロボット200は、第1実施形態の移動ロボット100に加えて、検出手段4と、コントローラ1の機能部としての人検出部21および衝突予測部22と、をさらに備える。
 検出手段4は、移動ロボット200の周囲環境に存在する障害物を検出する。ここでの障害物は主に人である。検出手段4は、例えば、センサ(イメージセンサ、ライダ、レーザスキャナ等)、ステレオカメラ等の少なくとも一つを含む。本実施形態の検出手段4は、イメージセンサから構成されるものとし、検出手段4を以下ではセンサ4とも称する。なお、イメージセンサは、光学系を通して検出した光を電気信号に変換する撮像素子を有するセンサであってその種類については特に制限されない。センサ4は、少なくとも前方を含む周囲環境に存在する障害物を検出可能に構成され、例えば、図3(a)で示す顔部31に構成された人の目に相当する部分等に設けられてよい。また、いわゆる360度カメラと言われるような全方位を検出できるセンサ4が例えば頭部30の頭頂部に設けられてもよい。本実施形態のセンサ4は、移動ロボット100の少なくとも前方を含む周辺に存在する人の位置と姿勢を認識可能な画像データを検出して、検出データ(画像データ)をコントローラ1に送信する。
 人検出部21は、センサ4が取得した画像データに基づいて、人の位置と姿勢とを検出する。ここで検出する姿勢は、必ずしも体全体の構えではなく、少なくとも人の頭の位置を判別可能であればよい。画像データに基づいて人の位置と姿勢とを検出する手法として、公知の種々の手法を採用し得るが、本実施形態では、画像データから人の骨格(ボーン)を検出して人の位置と姿勢とを検出する手法が採用される。当該手法は、ボーンモデル、ボーン検出等とも称される。このような手法を採用することにより、人検出部21は、移動ロボット200の周辺にいる人の頭の位置を容易に検出することができる。
 衝突予測部22は、移動ロボット200が設定された移動経路に沿って移動した場合に、移動ロボット200と人とが衝突するか否かを予測する。移動ロボット200と人との衝突を予測する手法としては、公知の種々の手法が適宜採用されてよい。本実施形態で採用される衝突予測の具体例については図8を参照して後述する。
 以上が移動ロボット200の主な構成である。以下、図7から図14を参照して、移動ロボット200の動作について説明する。
 図7は、第2実施形態の移動ロボット200が行う頭部駆動制御を説明するフローチャートである。コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。
 ステップS21~ステップS23は、移動ロボット200が設定された移動経路に沿って移動を開始する時、又は移動を開始する前の停止状態時に実行される。
 ステップS21では、コントローラ1(衝突予測部22)は、移動ロボット200と人とが衝突するか否かを予測する衝突判定処理を実行する。衝突判定処理の詳細について図8を参照して説明する。
 図8は、本実施形態の衝突予測部22が行う衝突判定処理を説明する図である。図8では、移動ロボット200と人検出部21により検出された人300とが示されている。移動ロボット200から延びる点線矢印は、設定された移動経路を示す。また、移動ロボット200から延びる実線矢印は、移動ロボット200の直近の移動方向を示す。直近の移動方向とは、設定された移動経路上における現在地からの移動方向を示すものであり、原則として現在地を起点とする直線で示される。換言すれば、直近の移動方向とは、現在地から、移動経路上において最初に方向転換する地点(第1経由点)に向かう方向である。
 本実施形態の衝突判定処理は、移動ロボット200および人300を、上方から床面に投射された単純な二次元図形とみなし、当該二次元図形同士が干渉する否かを判定することにより行われる。図8で例示されるように、移動ロボット200は、例えば、移動台車20や腕部40の各リンクに対応して投射された円の連なりで表現される。また、人300は、腕を水平方向に伸ばした場合に水平方向に広がる領域を考慮した円で表現されている。なお、投射された二次元図形の外縁すなわち円の直径は、上方から見た移動ロボット200の水平方向幅の最大値、および人300が両腕を水平方向に広げた場合の水平方向幅の最大値にそれぞれ一致する必要は必ずしもない。投射された二次元図形は、若干広くして余裕を持たせたり、現実的な可動範囲を考慮して狭めたりするなど適宜調整されてよい。
 また、移動ロボット200に対応する円は、移動ロボット200が所定距離または所定時間移動する間の移動経路に沿って生成される。図8では、点線円で示す所定距離内における移動経路を直近の移動方向に移動する移動ロボット200に対応する円が時系列に示されている。図示するように、本実施形態の上記所定距離は、直近の移動方向への移動距離(現在地から第1経由点までの距離)以下の距離に設定されてよい。本図では、移動ロボット200に対応する現在の円を(t)とし、移動経路に沿って時系列に生成された円を(t+1)、(t+2)として示している。そして、衝突予測部22は、移動ロボット200から所定距離内において、移動ロボット200に対応する円と人300に対応する円とが接触(干渉)するか否かを計算する。接触するか否かは、例えば円と円との中心間距離と、各円のそれぞれの半径とに基づいて容易に計算することができる。これにより、衝突予測部22は、例えば図示のように、移動ロボット200が(t+2)において人300と衝突し得ることを予測することができる。
 なお、図中の点線円で示す所定距離、すなわち現在地を基準とする衝突予測の距離的範囲は移動ロボット200の移動速度等に応じて適宜調整されてよい。また、図示の(t+1)、(t+2)で示す二次元図形の生成間隔は、移動ロボット200および人300の少なくともいずれか一方の移動速度、検出部21により人300を検出する際のサンプリング周波数等を考慮して適宜調整されてよい。なお、衝突検証用図形として上述のような二次元図形を生成する衝突判定手法は一例であって、これに限られない。衝突予測部22は、衝突検証用図形として三次元図形を生成する公知の他の衝突判定手法を採用してもよい。この場合には、移動ロボット200および人300の各リンクは、衝突検証用図形として3次元の球体またはポリゴンメッシュで表されてもよい。
 以上が衝突予測部22が行う衝突判定処理(S21)の詳細である。以下、図7のフローチャートに戻って説明を続ける。
 衝突判定処理によって人と衝突しないと判定されると(S21、NO判定)、頭部駆動処理を行うステップS22の処理が実行される。本ステップに係る頭部駆動処理は、第1実施形態において上述した頭部駆動処理と同様である(S13、図5(c)参照)。頭部駆動処理が実行されると、設定された移動経路に沿って移動するために続く移動処理(S24)に進む。他方、人と衝突すると判定されると(YES判定)、ステップS23の人対応頭部駆動処理が実行される。
 ステップS23では、コントローラ1(頭部方向制御部13)は、人対応頭部駆動処理を実行する。人対応頭部駆動処理は、移動ロボット200の現在地から所定距離内において、移動ロボット200が現在地からの移動方向(直近の移動方向)に移動すると衝突すると判定された人に対して実行される処理である。
 図9は、停止状態から移動を開始する際に実行される人対応頭部駆動処理(S23)を説明する図である。図9で示すように、人対応頭部駆動処理(S23)では、頭部方向制御部13は、頭部駆動手段3を制御して、顔部31を衝突すると判定された人の頭に向ける。図示するように顔部31を上方に向けるためには、頭部方向制御部13がサーボモータ3bの駆動を制御すればよい。
 ここで、停止状態の移動ロボット200が移動を開始するにあたって、顔部31を人の頭に向ける場合と向けない場合の各状況を図10および図11を用いて整理する。図10および図11では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、人とが示されている。
 図10は、顔部31を人の頭に向ける場合の状況を説明する図である。図10(a)で示すように、人が、所定距離内であって、且つ移動経路上における直近の移動方向にいる場合には、当然衝突すると予測されるので、移動ロボット200は顔部31を人の頭に向ける。また、図10(b)で示すように、人が、移動経路上における直近の移動方向からずれた位置にいる場合でも、所定距離内であって、且つ移動ロボット200が直近の移動方向に移動した場合に衝突すると予測される位置にいる場合には、移動ロボット200は顔部31を人の頭に向ける。これにより、移動ロボット200は、衝突すると予測される人に対して移動動作を予告することができるとともに、移動経路からの退避を促すことができる。
 他方、図11は、顔部31を人の頭に向けない場合の状況を説明する図である。図11(a)および図11(b)では、人が所定範囲内におらず、移動ロボット200と衝突すると予測されないので、直近の移動方向にいるいないに関わらず、移動ロボット200は顔部31を人の頭に向けない。また、図11(c)および図11(d)では、人が所定範囲内にいるものの、移動ロボット200が直近の移動方向に移動しても当該人に近づく可能性が低いことなどを理由に、衝突しないと予測されるので、移動ロボット200は顔部31を人の頭に向けない。
 人対応頭部駆動処理(S23)が実行されると、衝突すると予測される人がいなくなるまで、すなわち、前段で行われた衝突判定処理(S21)によって衝突すると判定された人が移動経路上から立ち退く等するまで、ステップS21からステップS23の処理が繰り返し実行される。この間、移動ロボット200は、顔部31を人の頭に向けた状態を維持し、無言の圧力を与え続けることにより、直近の移動方向からの退避を促し続けることができる。
 ただし、ステップS21からステップS23の処理を繰り返す間、必ずしも、顔部31を人の頭に向けた状態が維持され続ける必要はない。例えば、衝突が予測される人が一定時間立ち退かない場合には、衝突が予測される人が移動ロボット200の予告動作により早く気付くように、頭部30を左右に振るなどの目立つ動作を行ってもよい。また、移動ロボット200は、不図示の報知手段を備え、当該報知手段を用いて、衝突が予測される人に対して移動経路からの退避をより直接的に訴えるように構成されてよい。
 例えば、移動ロボット200は、報知手段としてのスピーカと、報知手段を制御するコントローラ1の機能部(報知手段制御部)と、をさらに備えてもよい。そして、移動ロボット200は、人対応頭部駆動処理(S23)によって顔部31を人の頭に向けた後、一定時間経過してもなお当該人と衝突すると判定され続けた場合には、スピーカから所定の音を出力するように構成されてよい。ここでの所定の音は、例えばブザー音からなる警告音でもよいし、「すみません、移動します」、「通ります」といった音声でもよい。これにより、移動ロボット200は、衝突が予測される人に対してより明確でより強い移動予告を行うことができる。
 衝突すると予測される人がいなくなると(S21、NO判定)、顔部31を移動方向に向けて(S22)、移動経路に沿って移動するための移動処理が実行される(S24)。
 以上、第2実施形態の人対応頭部駆動制御について説明した。続いて、図7に示すステップS24の移動処理の詳細について、図12を参照して説明する。
 図12は、第2実施形態の移動ロボット200が行う移動処理を説明するフローチャートである。本フローチャートで説明する移動処理は、移動ロボット200が設定された移動経路に沿って目的地まで移動している間常時実行される。なお、コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。
 ステップS221では、コントローラ1(衝突予測部22)は衝突判定処理を実行する。衝突判定処理は、第1実施形態において上述した手法と同様であってよい(図8参照)。ただし、本ステップで実行される衝突判定処理は、移動ロボット200の移動中に行われることを考慮して次のように実行されてもよい。
 図13は、特に移動ロボット200の移動中に実行される衝突判定処理を説明する図である。図13では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、一点鎖線円で示す減速開始エリアと、人とが示されている。
 移動時における移動制御部12は、人検出部21が移動経路上に人を検出した場合に、移動ロボット200の移動を減速または停止させる処理(減速処理)を実行してもよい。図13(a)に示す一点鎖線円は、人が検出された場合に減速処理を実行するように設定された減速開始エリア(減速開始距離)を例示する円である。
 そして、減速処理が行われた後、所定範囲内における移動経路上であって且つ直近の移動方向に人が検出された場合に(図13(b)参照)、頭部方向制御部13は、人対応頭部駆動処理(S23)を実行する。これにより、移動中に人と遭遇した場合であっても、移動経路からの退避を衝突する前に安全に促すことができる。なお、減速開始エリアの大きさ、および停止を含む減速の度合いは、移動ロボット200および人の移動速度等を考慮して適宜調整されてよい。また、減速処理は、減速エリア内において人が検出された場合だけでなく、移動ロボット200の移動を妨げうる何らかの障害物が検出された場合にも実行されてよい。
 図12のステップS221に戻って説明を続ける。ステップS221において人と衝突しないと判定された場合には(NO判定)、目的地に到達するまで、ステップS221からステップS222の処理が繰り返し実行される。人と衝突すると判定された場合には(YES判定)、ステップS223の処理が実行される。
 ステップS223では、コントローラ1は、衝突判定処理によって衝突すると判定された人が複数か否かを判定する。複数ではなく一人であれば(NO判定)、衝突が予測される人の頭に顔部31を向けるために人対応頭部駆動処理(S225)を実行する。他方、複数人であれば(YES判定)、顔部31を向ける人を特定するために人特定処理(S224)を実行する。
 図14は、人特定処理を説明する図である。図14では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、人Aおよび人Bを含む複数の人と、が示されている。
 図14に示す人Aおよび人Bは、両者とも衝突が予測される人である。このように、移動ロボット200が直近の移動方向に移動した場合に衝突すると予測される人が複数いる場合には、頭部30は、最初に衝突が予測される人の頭に顔部31を向けるように制御される。すなわち、人特定処理では、コントローラ1は、移動ロボット200が移動した際に最初に衝突すると予測される人を特定する。具体的には、移動ロボット200に一番近い人(人A)が、最初に衝突が予測される人と特定される。ただし、最初に衝突が予測される人を特定する際に、人の移動速度や移動方向が考慮されてもよい。この場合、例えば、人Aが移動ロボット200からゆっくりと遠ざかる一方で、人Bが移動ロボット200に速やかに近づいている場合には、人Bが最初に衝突が予測される人として特定される場合があってよい。人特定処理により顔部31を向ける人が特定されると、ステップS225の処理が実行される。
 ステップS225では、コントローラ1(頭部方向制御部13)は、人の頭に顔部31を向けるために人対応頭部駆動処理を実行する。ここでの人対応頭部駆動処理は、図7のステップS23で説明した処理と同様である(図9等参照)。そして、衝突が予測される人がいなくなると(S221、NO判定)、目的地に到着するまで、ステップS221からステップS222の処理が繰り返し実行される。
 そして、移動ロボット200が目的地に到着すると、コントローラ1(移動制御部12)は、移動ロボット200の移動を停止し、移動処理は終了する。これにより、移動ロボット200は、直近の移動方向に移動すると人と衝突すると予測される場合には、当該人の頭に対して顔部31を向けることで、移動ロボット200が移動することを直接的に訴えかけることができるので、当該人に対して移動経路からの退避をより強く促すことができる。
 以上が、第2実施形態の移動ロボット200が行う頭部駆動制御および移動処理の詳細である。なお、図7および図12で示すフローチャートは本実施形態の頭部駆動制御および移動処理を説明するための例示であって、必ずしも図示するとおりに実行されることを制限するものではない。本実施形態の頭部駆動制御では、上述したように、少なくとも停止中又は移動中に人と衝突するか否かを判定し、人と衝突すると判定された場合に人対応頭部駆動処理が行わればよく適宜変更されてよい。
 例えば、図7に示す頭部駆動処理(S22)は、衝突判定処理(S21)の前に実行されてよい。特に、例えばセンサ4が顔部31に設けられ、頭部30の前方にいる人のみを検出するように構成されている場合には、衝突判定処理(S21)が実行される前に、移動方向に顔部31を向ける頭部駆動処理(S24)が実行されるのが望ましい。また、例えば、図12に示す人特定処理の一連の流れ(S223、S224)は、図7のステップS21のYES判定後に実行されてもよい。
 以上が第2実施形態の移動ロボット200の詳細である。以上説明したように、移動ロボット200は、移動すると衝突すると予測される人の頭に顔部31を向けるので、近くにいる人に移動方向を予告するだけでなく、衝突を回避するための退避を促すことができる。その結果、移動ロボット200は、同じ空間を共有する人が移動ロボット200の移動に対していだき得る警戒心を解消し、安心感を与えることができる。
 以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。また、上記の実施形態は、矛盾が生じない範囲で適宜組み合わせ可能である。
 例えば、図2で示す移動ロボット100、200の構成は、少なくとも頭部30を備え、全方位移動台車部(移動台車20)により移動可能に構成される限り適宜変更されてよい。例えば、移動ロボット100、200は、ロボット本体部10を備えなくてもよい。この場合、頭部30は、移動台車20に直接設けられるように構成されてよい。
 本発明は、少なくとも移動ロボット等を製造する産業において利用可能である。
 1 コントローラ
 2 移動機構駆動手段
 3 頭部駆動手段
 4 検出手段
 10 ロボット本体部
 11 移動経路設定部
 12 移動制御部
 13 頭部方向制御部(頭部制御部)
 20 移動台車(全方位移動台車部)
 21 人検出部(検出部)
 22 衝突予測部
 30 頭部
 40 腕部
 100 移動ロボット(第1実施形態)
 200 移動ロボット(第2実施形態)
 300 人

Claims (13)

  1.  全方位移動台車部により移動する移動ロボットであって、
     正面を顔部とする頭部と、
     前記頭部を駆動する駆動手段と、
     前記駆動手段を制御する頭部制御部と、を備え、
     前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボット。
  2.  前記頭部制御部は、前記移動ロボットの移動中において、移動方向を変更する時または移動方向を変更する所定時間前に前記顔部を変更後の移動方向に向ける、請求項1に記載の移動ロボット。
  3.  前記所定時間は、前記移動ロボットの移動速度に応じて変更される、請求項1又は2に記載の移動ロボット。
  4.  前記駆動手段は、前記頭部を左右方向に回転駆動させる鉛直方向の回転軸を備える、請求項1から3のいずれか一項に記載の移動ロボット。
  5.  移動経路を設定する移動経路設定部と、
     人の頭の位置を検出する検出部と、
     前記移動ロボットから所定距離内において、前記移動ロボットが前記移動経路を現在地からの移動方向に移動した場合に前記人と衝突するか否かを判定する衝突判定部と、をさらに備え、
     前記衝突判定部が前記人と衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人の頭に向ける、請求項1から4のいずれか一項に記載の移動ロボット。
  6.  前記駆動手段は、前記頭部を上下方向に駆動させる水平方向の回転軸をさらに備える、請求項5に記載の移動ロボット。
  7.  イメージセンサをさらに備え、
     前記検出部は、前記イメージセンサが検出した画像データに基づいて前記人の頭の位置を検出する、請求項5又は6に記載の移動ロボット。
  8.  前記衝突判定部が複数の前記人に衝突すると判定した場合に最初に衝突すると予測される人を特定する特定部をさらに備え、
     前記衝突判定部が複数の前記人に衝突すると判定した場合は、前記頭部制御部は前記顔部を前記特定部が特定した前記人の頭に向ける、請求項5から7のいずれか一項に記載の移動ロボット。
  9.  前記移動ロボットの移動を制御する移動制御部をさらに備え、
     前記ロボットの移動中に前記移動経路上に前記人を含む障害物が検出された場合は、前記移動制御部は前記移動ロボットを減速又は停止させる、請求項5から8のいずれか一項に記載の移動ロボット。
  10.  スピーカと、
     前記スピーカを用いて所定の音を出力する報知制御部と、さらに備え、
     前記報知制御部は、前記頭部制御部が前記顔部を前記人の頭に向けた後、一定時間経過しても前記衝突判定部が当該人と衝突すると判定する場合は、所定の音を出力する、請求項5から9のいずれか一項に記載の移動ロボット。
  11.  マニピュレータ機構を有する一又は複数の腕部をさらに備える、請求項1から10のいずれか一項に記載の移動ロボット。
  12.  正面を顔部とする頭部と、
     前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御方法であって、
     前記駆動手段を制御する頭部制御ステップ、を含み、
     前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットの制御方法。
  13.  正面を顔部とする頭部と、
     前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御プログラムであって、
     前記駆動手段を制御する頭部制御ステップ、を含み、
     前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットの制御プログラム。
PCT/JP2021/012348 2020-04-30 2021-03-24 移動ロボット、移動ロボットの制御方法、及び制御プログラム WO2021220678A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020080556A JP2021171904A (ja) 2020-04-30 2020-04-30 移動ロボット、移動ロボットの制御方法、及び制御プログラム
JP2020-080556 2020-04-30

Publications (1)

Publication Number Publication Date
WO2021220678A1 true WO2021220678A1 (ja) 2021-11-04

Family

ID=78281160

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/012348 WO2021220678A1 (ja) 2020-04-30 2021-03-24 移動ロボット、移動ロボットの制御方法、及び制御プログラム

Country Status (2)

Country Link
JP (1) JP2021171904A (ja)
WO (1) WO2021220678A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07119178A (ja) * 1993-10-25 1995-05-09 Mitsubishi Heavy Ind Ltd 履帯式車両の走行制御装置
JP2011204145A (ja) * 2010-03-26 2011-10-13 Sony Corp 移動装置、移動方法およびプログラム
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2016081403A (ja) * 2014-10-21 2016-05-16 株式会社Ihiエアロスペース 無人移動体とその経路生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07119178A (ja) * 1993-10-25 1995-05-09 Mitsubishi Heavy Ind Ltd 履帯式車両の走行制御装置
JP2011204145A (ja) * 2010-03-26 2011-10-13 Sony Corp 移動装置、移動方法およびプログラム
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2016081403A (ja) * 2014-10-21 2016-05-16 株式会社Ihiエアロスペース 無人移動体とその経路生成方法

Also Published As

Publication number Publication date
JP2021171904A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
WO2021220679A1 (ja) ロボット制御装置、方法、及びプログラム
JP6436604B2 (ja) 演算システムによって実施される方法及びシステム
JP6936081B2 (ja) ロボット
US10293484B2 (en) Robot device and method of controlling the robot device
US9079307B2 (en) Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus
KR101986919B1 (ko) 충돌 회피 및 궤도 복원 기능을 가진 휴머노이드 로봇
JP6854722B2 (ja) ロボット
JP5768273B2 (ja) 歩行者の軌跡を予測して自己の回避行動を決定するロボット
JP2009113190A (ja) 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
KR20090032130A (ko) 이동 장치
JP4940698B2 (ja) 自律移動型ロボット
JP2009288930A (ja) 自律移動体及びその移動制御方法
JP7036399B2 (ja) 自律移動ロボット、並びに、その制御装置及び動作制御プログラム
JP2003140747A (ja) 自律移動装置及び自律移動装置運用システム
JP2011224679A (ja) 応対ロボット、応対制御方法、及び応対制御プログラム
JP2013188815A (ja) 制御装置及び制御方法、並びにコンピューター・プログラム
WO2021220678A1 (ja) 移動ロボット、移動ロボットの制御方法、及び制御プログラム
JP5552710B2 (ja) ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
JP7317436B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
JP2005222560A (ja) 自律移動装置及び自律移動装置運用システム
JP2009151382A (ja) 移動体
JP7258438B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
JP7360792B2 (ja) 移動体、学習器、及び学習器製造方法
Kim et al. Suggestion on the practical human robot interaction design for the autonomous driving disinfection robot
JP2007229855A (ja) 自律移動型ロボット

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21797044

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21797044

Country of ref document: EP

Kind code of ref document: A1