WO2024075461A1 - 自律移動ロボット - Google Patents

自律移動ロボット Download PDF

Info

Publication number
WO2024075461A1
WO2024075461A1 PCT/JP2023/032384 JP2023032384W WO2024075461A1 WO 2024075461 A1 WO2024075461 A1 WO 2024075461A1 JP 2023032384 W JP2023032384 W JP 2023032384W WO 2024075461 A1 WO2024075461 A1 WO 2024075461A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
handle
autonomous mobile
robot body
mobile robot
Prior art date
Application number
PCT/JP2023/032384
Other languages
English (en)
French (fr)
Inventor
駿介 木村
拡也 内藤
伶奈 山本
Original Assignee
清水建設株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022162163A external-priority patent/JP2024055331A/ja
Priority claimed from JP2022162162A external-priority patent/JP2024055330A/ja
Application filed by 清水建設株式会社 filed Critical 清水建設株式会社
Publication of WO2024075461A1 publication Critical patent/WO2024075461A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions

Definitions

  • the present invention relates to an autonomous mobile robot, and more specifically, to an autonomous mobile robot that assists the user in moving around.
  • Patent Document 1 discloses a mobile robot system that includes a guide robot and a remote control provided separately from the guide robot.
  • the autonomous mobile robot is an autonomous mobile robot that assists a user in moving, and is equipped with a robot body configured to be capable of traveling in an autonomous traveling mode in which the robot travels autonomously toward a destination, and in a manual traveling mode in which the traveling state can be manually controlled, and a handle attached to the robot body.
  • the handle has a first operation unit for traveling the robot body, and a second operation unit for switching the mode of the robot body.
  • the first operation unit is provided in a first region of the handle, and the second operation unit is provided in a second region of the handle that faces in a different direction from the first region.
  • An autonomous mobile robot which is another aspect of the present invention, comprises a robot body having an autonomous travel function, a handle attached to the robot body and extending in the height direction of the robot body, a sensor that detects the magnitude and direction of the force applied to the handle, and a control device that controls the operation of the robot body based on the information detected by the sensor, and is characterized in that the sensor is provided at the base of the handle.
  • the autonomous mobile robot according to the present invention can improve operability while suppressing operational errors, thereby improving usability.
  • FIG. 1 is a perspective view of an autonomous mobile robot according to an embodiment; 1 is a block diagram showing a schematic configuration of an autonomous mobile robot; FIG. 2 is a view of the tip of the handle of the autonomous mobile robot viewed obliquely from above. FIG. 2 is a view of the tip of the handle of the autonomous mobile robot as seen from diagonally below. FIG. 2 is a perspective view showing an entire handle of the autonomous mobile robot.
  • FIG. 1 is a diagram for explaining a method of using the autonomous mobile robot.
  • 13 is a flowchart showing an example of a control procedure for an autonomous mobile robot.
  • FIG. 1 is a perspective view of an autonomous mobile robot 1, which is an example of an embodiment of the present invention.
  • the autonomous mobile robot 1 comprises a robot body 10 and a handle 20 attached to the robot body 10.
  • the autonomous mobile robot 1 is a robot that assists the user's movement, and is capable of recognizing the surrounding environment using on-board sensors and the like and moving to the destination without the need for inductive devices such as magnetic tapes along the route to the destination.
  • the robot body 10 has an autonomous driving function, and is configured to be capable of driving in an autonomous driving mode in which it drives autonomously towards the destination, and in a manual driving mode in which the driving state can be manually controlled.
  • the autonomous mobile robot 1 further includes a force sensor 30 (see FIG. 2, etc., described below) that detects the magnitude and direction of force applied to the handle 20.
  • the force sensor 30 is provided at the base of the handle 20, as will be described in more detail below.
  • the autonomous mobile robot 1 also includes a control device 15 (see FIG. 2, described below) that controls the operation of the robot main body 10 based on the detection information of the force sensor 30.
  • the function of the force sensor 30 provided at the base of the handle 20 makes it possible to realize intuitive robot operation based on the user's natural movements.
  • the autonomous mobile robot 1 is a mobility support robot that guides the user to a specified destination, and is not a robot that moves autonomously on its own. For this reason, the autonomous mobile robot 1 is equipped with a handle 20 that is held by the user. However, the autonomous mobile robot 1 only needs to have a navigation function that guides the user to the destination, and may be capable of moving autonomously on its own. For example, the autonomous mobile robot 1 may move autonomously on its own to the location where the robot is used or stored.
  • the autonomous mobile robot 1 is suitable as a mobility support robot that guides visually impaired people to their destination.
  • the autonomous mobile robot 1 is configured so that it is easy to operate even for visually impaired people.
  • users of the autonomous mobile robot 1 are not limited to visually impaired people. For example, even people without visual impairments, such as those who do not know where their destination is, can become users of the autonomous mobile robot 1, that is, people who are guided to their destination by the autonomous mobile robot 1.
  • the autonomous mobile robot 1 is used within a specific building.
  • specific buildings include commercial facilities such as stores and shopping malls, public facilities such as hospitals, airports, stations, government offices, libraries, art museums and schools, and business establishments such as offices, laboratories and factories.
  • the location where the autonomous mobile robot 1 is used is not limited to within a specific building, and it may be an outdoor facility such as a park, zoo or theme park.
  • the autonomous mobile robot 1 may be owned privately by a visually impaired person, for example, and may be usable in any location.
  • autonomous mobile robots By using the autonomous mobile robot 1, even visually impaired people can easily arrive at a set destination. On the other hand, there may be cases where a user wishes to stop at a location off the target route on the way to the destination, or where the user wishes to change the direction of the robot. For this reason, autonomous mobile robots equipped with a manual driving mode that allows the user to manually control the robot's driving state have been proposed. However, frequent erroneous switching of operating modes, such as unintentional switching of driving modes due to user erroneous operation, reduces usability. In other words, while intentional mode switching is easy, erroneous operation must be sufficiently suppressed.
  • the autonomous mobile robot 1 can suppress erroneous operation while ensuring good operability.
  • an operation unit for switching operation modes is provided on the handle 20, so that, for example, switching between driving modes is easy.
  • this operation unit is located in an area of the handle 20 that faces in a different direction from the operation unit for driving, which is generally used more frequently, so unintended mode switching due to erroneous operation is less likely to occur.
  • a typical usage pattern for the autonomous mobile robot 1 is for the user to grasp the handle 20 and move with the robot, but in this case, there is a need to intuitively operate the robot based on the user's natural movements. In other words, there is a need to accurately detect the user's movements relative to the robot and utilize this detection information in controlling the robot.
  • a sensor that detects the force applied to the handle 20 is provided at the base of the handle 20, so that the force acting on the handle 20 due to the user's operation of the handle can be accurately detected. Then, by controlling the robot using this detection information, it becomes possible to operate the robot more intuitively compared to operating the robot using, for example, buttons, switches, or joysticks.
  • this specification uses terms indicating the forward/backward direction X, left/right direction Y, and height direction Z shown in FIG. 1.
  • These directions refer to the directions in which the autonomous mobile robot 1 is normally used.
  • the front of the autonomous mobile robot 1 and each component of the robot refers to the direction in which the robot moves when autonomously.
  • the rear of the robot is the direction opposite to the front, and the left/right direction Y is a direction perpendicular to the forward/backward direction X and height direction Z.
  • the height direction Z refers to the direction perpendicular to the surface on which the robot is placed, and coincides with the vertical direction when the surface is a horizontal plane.
  • the autonomous mobile robot 1 can move backwards.
  • the forward/backward direction X is the direction in which the robot moves.
  • the robot body 10 is an equipment unit equipped with various devices for realizing an autonomous driving function, and has a housing 11 and wheels 12.
  • the housing 11 is a case that houses the various devices and forms the external appearance of the robot body 10. Inside the robot body 10, i.e., inside the housing 11, a battery 14, a control device 15 (see FIG. 2 described below), etc. are provided.
  • the robot body 10 may also have output devices such as speakers, cameras, sensors, etc. that are installed on the outside of the housing 11.
  • the robot body 10 has a drive unit 13 (see FIG. 2 described later), and moves by driving the drive wheels of the wheels 12 under the control of the control unit 15.
  • four wheels 12 are provided on the lower part of the housing 11.
  • the housing 11 has a rectangular parallelepiped shape that satisfies the relationship of length in the height direction Z > length in the front-back direction X > length in the left-right direction Y, but the shape and size of the housing 11 are not limited to this.
  • An example of the height (length in the height direction Z) of the robot body 10 is 50 cm or more and 90 cm or less.
  • the number, size, etc. of the wheels 12 are not particularly limited.
  • the means for moving the robot body 10 may be something other than wheels, but wheels are preferable from the viewpoint of the running stability of the robot body 10, etc.
  • the handle 20 is attached to the robot body 10 and extends in the height direction Z.
  • the handle 20 extends from the top end of the robot body 10 in the height direction Z.
  • the handle 20 is attached to the center in the front-to-rear direction at the right end of the robot body 10 in the direction of travel.
  • the user stands to the right of the robot body 10, grasps the handle 20 with the left hand to operate the autonomous mobile robot 1, and moves to the destination together with the autonomous mobile robot 1 while grasping the handle 20.
  • the handle 20 may be provided at the left end of the robot body 10 when the user operates the autonomous mobile robot 1 with the right hand and moves together with the autonomous mobile robot 1 while grasping the handle 20. At least a part of the handle 20 may be detachable from the robot body 10.
  • the handle 20 has a first operation button 24, which is a first operation part for driving the robot body 10, and a second operation button 25, which is a second operation part for switching the mode of the robot body 10 (see FIG. 2, etc. described later).
  • the first operation button 24 is provided in a first area of the handle 20
  • the second operation button 25 is provided in a second area of the handle 20 facing in a different direction from the first area.
  • the handle 20 has a grip 22 that extends in the forward/rearward direction X, and each operation button is provided on the grip 22.
  • the grip 22 is a grip that is held by the user.
  • the autonomous mobile robot 1 is a robot that guides the user to the destination, but it is also conceivable that the user may want to stop at a location off the target route on the way to the destination, or may want to change the direction of the robot. For this reason, the autonomous mobile robot 1 is equipped with a manual driving mode that allows the driving state to be manually controlled.
  • the manual driving mode can be used when meeting and chatting with an acquaintance on the way to the destination, when shopping, when sitting on a bench to rest, or when making a free detour.
  • the autonomous mobile robot 1 has a destination setting mode for setting a destination for autonomous driving. After a destination is set by the user in the destination setting mode, the autonomous mobile robot 1 starts autonomous driving towards that destination by pressing the first operation button 24. Note that there may be cases where the destination needs to be changed after autonomous driving has begun. For this reason, when the autonomous mobile robot 1 stops from an autonomous driving state, the robot's operation mode transitions to the destination setting mode. The user can change the destination by setting a new destination in the destination setting mode. When the autonomous mobile robot 1 stops from an autonomous driving state, the robot mode may be transitioned to the destination setting mode on the condition that the force sensor 30 detects a force in the left-right direction Y.
  • the handle 20 further has a support part 21 extending from the robot body 10.
  • the support part 21 includes an arm 21A extending in the height direction Z.
  • two arms 21A are arranged at a distance in the front-rear direction X.
  • Each of the two arms 21A is a long, thin rod-shaped member and has the same shape and length.
  • the grip part 22 is provided across the pair of arms 21A at the tip side (upper part) of the pair of arms 21A.
  • the grip part 22 is a rod-shaped member shorter in length than the arms 21A, and both longitudinal ends are fixed to the upper ends of the two arms 21A, respectively.
  • the autonomous mobile robot 1 is a suitcase-type mobility support robot that has a shape similar to a suitcase overall. This allows the user to handle the autonomous mobile robot 1 in the same way as if they were pushing a suitcase.
  • the autonomous mobile robot of the present invention is not limited to suitcase-type robots.
  • FIG. 2 is a block diagram showing the general configuration of the autonomous mobile robot 1.
  • the autonomous mobile robot 1 is configured to be able to control the operation of the robot main body 10 based on the operation of a first operation button 24 and a second operation button 25 provided on the handle 20, and based on detection information from a force sensor 30.
  • the autonomous mobile robot 1 is equipped with a control device 15 that controls the operation of the robot main body 10 based on the operation signals of each operation button and the detection information of the force sensor 30.
  • Each operation button, the force sensor 30, and various sensors described below are connected to the control device 15, and operation signals and detection signals are transmitted thereto.
  • the control device 15 when the first operation button 24 is operated in the autonomous driving mode, the control device 15 causes the robot body 10 to autonomously drive towards a set destination. Furthermore, when the second operation button 25 is operated while the robot body 10 is stopped, the control device 15 transitions the driving mode of the robot body 10 to the manual driving mode. Furthermore, when the force caused by the user's handle operation is detected by the force sensor 30, the control device 15 controls the operation of the robot body 10 based on the detection information (detection signal). Note that in the description of the robot's driving state, “robot body 10" can be read as “autonomous mobile robot 1". For example, "stopped state of the robot body 10" and “stopped state of the autonomous mobile robot 1" are synonymous.
  • the robot body 10 has a drive unit 13 that drives the wheels 12, and a battery 14 that supplies power to a load that requires power.
  • the drive unit 13 includes, for example, a motor that receives power from the battery 14 and drives the wheels 12.
  • the drive unit 13, battery 14, and control device 15 are fixed, for example, to a frame 19 (see FIG. 5 described below) that forms the skeleton of the robot body 10.
  • the robot body 10 may further include an acceleration sensor 16A, a distance sensor 16B, a camera 17, a communication device 18, etc.
  • the acceleration sensor 16A detects, for example, the acceleration, running speed, inclination, etc. of the autonomous mobile robot 1.
  • the distance sensor 16B may be, for example, an optical, ultrasonic, or radio wave distance sensor (range sensor).
  • the distance sensor 16B, camera 17, etc. may be provided on the outside of the housing 11.
  • the control device 15 simultaneously estimates its own position and creates an environmental map using detection information from various sensors, such as the distance sensor 16B and the camera 17, to realize autonomous driving of the robot body 10.
  • the conventionally known SLAM (Simultaneous Localization and Mapping) technology can be applied to the autonomous driving of the robot body 10.
  • the control device 15 implements a control law that simultaneously satisfies, for example, a state constraint that ensures that the distance to an obstacle measured by the distance sensor 16B does not fall below a certain distance in order to avoid collision with the obstacle, and an acceleration constraint to improve usability.
  • the control device 15 is composed of a computer equipped with a memory unit that stores information such as the destination of autonomous driving, maximum driving speed, operating mode, control programs, etc., and a calculation unit that controls the operation of the robot main body 10 by reading and executing the control programs, etc.
  • a calculation unit includes a processor such as a CPU (Central Processing Unit).
  • the configuration of the computer that constitutes the control device 15 is not particularly limited as long as it is capable of controlling the operation of the robot body 10.
  • the control device 15 may receive information such as GNSS (Global Navigation Satellite System) signals using the functions of the communication device 18, and use the information to control the autonomous driving of the robot body 10.
  • GNSS Global Navigation Satellite System
  • the autonomous mobile robot 1 is equipped with a force sensor 30 that detects the magnitude and direction of force applied to the handle 20.
  • the control device 15 controls the operation of the robot body 10 based on the detection information of the force sensor 30.
  • the control device 15 controls the running state of the robot body 10 in manual running mode based on the detection information of the force sensor 30.
  • the function of the force sensor 30 allows the user to intuitively operate the robot.
  • the force sensor 30 may also be used to set the destination of the autonomous running, etc.
  • Figures 3 and 4 show an enlarged view of the tip of the handle 20.
  • Figure 5 shows the entire handle 20 with the housing 11 covering the base of the handle 20 removed.
  • the handle 20 is composed of a support part 21 including arms 21A, and a grip part 22 provided on the tip side of the arms 21A.
  • the support part 21 includes a pair of arms 21A and a mounting plate 21B to which the bases of the pair of arms 21A are fixed.
  • the pair of arms 21A extend in the height direction Z and are arranged side by side in the front-rear direction X with a gap therebetween.
  • the grip part 22 is arranged along the front-rear direction X so as to connect the two arms 21A.
  • the handle 20 is formed into an inverted U shape by the two arms 21A and the grip part 22.
  • the arms 21A and the grip part 22 may be integrally formed.
  • the arm 21A has a length such that the height of the gripping portion 22 is approximately the height between the user's waist and elbow.
  • a pair of arms 21A extend from the upper end of the robot body 10 and extend straight and parallel to each other along the height direction Z.
  • the arm 21A has a rectangular column shape with a groove formed along the height direction Z, but the shape is not particularly limited.
  • the arm 21A may also have a structure that is flexible and extendable, and the length that it extends from the upper end of the robot body 10 may be adjustable. In this case, the length of the arm 21A can be changed according to the user's preference so that the gripping portion 22 is at a height that is easy to operate.
  • An example of the width of the arm 21A (length in the front-rear direction X) is 2 cm or more and 5 cm or less.
  • the gripping portion 22 extends straight along the front-rear direction X and has a length that allows the gripping portion 22 to be grasped without interfering with the arm 21A. In other words, the distance between the arms 21A is set so that the hand does not interfere with the arm 21A when grasping the gripping portion 22.
  • An example of a suitable length of the gripping portion 22 is 12 cm or more and 20 cm or less.
  • the cross-sectional shape of the gripping portion 22 in a direction perpendicular to the length direction may be a perfect circle, an ellipse, a semicircle, etc., but in this embodiment it is a rectangle. The corners of the rectangle are rounded to take gripping ease into consideration.
  • the gripper 22 includes an upper surface 22A facing upward in the height direction Z, a lower surface 22B facing downward in the height direction Z, and side surfaces 22C and 22D.
  • the upper surface 22A of the gripper 22 faces vertically upward.
  • the side surfaces 22C and 22D are surfaces facing horizontally, with the side surface 22C facing to the left in the direction of travel and the side surface 22D facing to the right in the direction of travel.
  • the gripper 22 further includes a side surface facing forward (front surface) and a side surface facing backward (rear surface) of the robot body 10.
  • the grip portion 22 may have a vibration rotor 23.
  • the vibration rotor 23 is an output device that can notify the user of information from the robot by vibration. Using the vibration rotor 23, various information is notified to the user, such as, for example, that a destination has been set, that a destination has been reached, and the presence of an obstacle.
  • the handle 20 is provided with the vibration rotor 23 on the underside 22B of the grip portion 22. Multiple vibration rotors 23 may be provided, but in this embodiment, there is only one.
  • the robot body 10 or the handle 20 may be provided with other output devices, such as a speaker that outputs sound.
  • the autonomous mobile robot 1 may be provided with an output device separate from the robot body 10 and the handle 20. Examples of separate output devices include earphones and bone conduction speakers. It is also possible to use a terminal device such as a smartphone owned by the user as an output device.
  • the first operation button 24 and the second operation button 25 are provided on the grip portion 22 as described above. In this case, better operability can be obtained compared to when the operation portion is provided on the support portion 21, the robot main body 10, or a separate remote control. On the other hand, if the operation buttons are arranged in an inappropriate manner, it becomes easier for erroneous operation such as pressing the wrong button to occur. Therefore, in the handle 20, the first operation button 24 is arranged in a first area of the grip portion 22, and the second operation button 25 is arranged in a second area of the grip portion 22 that faces in a different direction from the first area. This makes it possible to effectively suppress erroneous operation while ensuring good operability.
  • the first operation button 24 may be located on the bottom surface 22B or the side surface of the grip portion 22, but is preferably located on the top surface 22A.
  • the first operation button 24 is an operation part used when moving the robot body 10, and is used more frequently and for a longer period of time than the second operation button 25, so it is preferably located on the top surface 22A where it is easiest to operate.
  • the second operation button 25 is preferably located on the side surface 22C or 22D, and is located on the side surface 22D in this embodiment. That is, in this embodiment, the first area of the handle 20 is the top surface 22A of the grip portion 22, the second area is the side surface 22D of the grip portion 22, and the orientation of the operation surface of each operation button differs by 90°.
  • the first operation button 24 and the second operation button 25 may be conventionally known push buttons (touch buttons). In the following, the first operation button 24 and the second operation button 25 are described as being push buttons. For this reason, the state in which the first operation button 24 and the second operation button 25 are operated is the state in which the first operation button 24 and the second operation button 25 are pressed, and the state in which the first operation button 24 and the second operation button 25 are not operated is the state in which the first operation button 24 and the second operation button 25 are not pressed.
  • Each operation button may be a non-contact button that uses a proximity sensor or the like.
  • the first operation button 24 is located on the upper surface 22A of the gripping portion 22, forward of the handle 20 from the longitudinal center position.
  • the first operation button 24 is preferably located closer to the front end position of the gripping portion 22 than the longitudinal center position of the upper surface 22A. In this case, it becomes easier for the user to operate the first operation button 24 with their thumb while holding the gripping portion 22.
  • the first operation button 24 is located, for example, such that a portion of the button overlaps with the front arm 21A in the height direction Z when viewed from the side of the autonomous mobile robot 1 (robot body 10).
  • the second operation button 25 is arranged on the side surface 22D of the grip portion 22, in the same manner as the first operation button 24, in front of the handle 20 from the center position in the longitudinal direction of the side surface 22D.
  • the second operation button 25 may be arranged at the rear of the handle 20, but by arranging it close to the first operation button 24, even a visually impaired person can easily find the second operation button 25 with the finger (thumb) that operates the first operation button 24, improving operability. If two operation buttons are arranged close to each other, there is a concern that erroneous operation may occur, but in this embodiment, the second operation button 25 is arranged on the side surface 22D, and erroneous operation is sufficiently suppressed.
  • the second operation button 25 is positioned closer to the front end of the grip portion 22 than the first operation button 24. In this case, compared to when the second operation button 25 is positioned rearward of the first operation button 24, the second operation button 25 is less likely to be pressed accidentally when gripping the grip portion 22, and erroneous operation can be prevented.
  • the second operation button 25 is positioned, for example, between the front end of the handle 20 and the front end of the first operation button 24 in the front-rear direction X. In other words, the second operation button 25 may be provided in a position that does not overlap with the first operation button 24 in the height direction Z when viewed from the side of the autonomous mobile robot 1.
  • the second operation button 25 is further provided at a position overlapping the front arm 21A in the height direction Z in a side view of the autonomous mobile robot 1.
  • the second operation button 25 is provided on an extension of the front arm 21A in a side view of the autonomous mobile robot 1.
  • the entire second operation button 25 overlaps the arm 21A in the height direction Z.
  • the hand of a user holding the grip portion 22 is usually positioned between the pair of arms 21A. In other words, because the arm 21A interferes with the hand, it is difficult for the hand to reach the portion of the side surface 22D that is located further forward of the handle 20 than the rear end of the arm 21A. Therefore, this arrangement of the second operation button 25 makes it possible to more effectively prevent erroneous operation of the second operation button 25.
  • the second operation button 25 is preferably smaller than the first operation button 24. In this case, erroneous operation of the second operation button 25 can be more effectively prevented. More specifically, the area of the operation surface touched by the user's finger is preferably smaller for the second operation button 25 than for the first operation button 24. When the operation surface of each operation button is a perfect circle, the diameter of the second operation button 25 is preferably 50% or less of the diameter of the first operation button 24, for example, 20% or more and 40% or less of the diameter of the first operation button 24. By arranging and sizing the second operation button 25 as described above, it is made more difficult to operate than the first operation button 24.
  • the handle 20 is provided with only a first operation button 24 and a second operation button 25 as operation parts operated by the user. It is possible to provide a third and fourth operation part on the handle, but providing many operation parts on the handle makes operation cumbersome and raises concerns about an increase in operational errors.
  • the handle 20 of this embodiment has only two operation parts on the grip part 22, so that even visually impaired people can easily operate it, and it has excellent usability.
  • the handle 20 has, for example, a simple and stylish design, which can improve the commercial value of the autonomous mobile robot 1 from a design perspective as well.
  • the force sensor 30 is provided at the base of the support part 21 of the handle 20.
  • the force sensor 30 By providing the force sensor 30 at the base of the support part 21 away from the grip part 22, it becomes easier to detect the force applied to the handle 20, making it possible to intuitively operate the robot based on the user's natural movements.
  • the function of the force sensor 30 allows the user to freely change the direction of travel of the robot by applying force to the handle 20 in the left/right direction Y, for example, in manual driving mode, and allows the user to handle the robot with the same sensation as when pushing a suitcase.
  • the force sensor 30 may be a one-axis force sensor (generally called a load sensor or load cell) capable of detecting forces in one direction, but preferably a two-axis force sensor capable of detecting forces in at least the front-rear direction X and the left-right direction Y is used. By using a two-axis force sensor, it is possible to detect forces such as those twisting the handle 20. Note that a three-axis force sensor or a six-axis force sensor may also be used for the force sensor 30. There are no particular limitations on the detection method of the force sensor 30, and it may be any of a strain gauge type, a piezoelectric type, an optical type, or a capacitance type.
  • the force sensor 30 is fixed to the frame 19 of the robot body 10, for example, inside the housing 11.
  • the support part 21 penetrates the housing 11, and the base of the support part 21 and the force sensor 30 are covered by the housing 11. In this case, the force sensor 30 is protected by the housing 11, and only the force applied to the handle 20 is input to the force sensor 30.
  • the support part 21 is composed of a pair of arms 21A and a mounting plate 21B. The force applied to the handle 20 is transmitted from the grip part 22 to the force sensor 30 via the arm 21A and the mounting plate 21B.
  • the force sensor 30 is disposed directly below the mounting plate 21B.
  • directly below the mounting plate 21B means a position directly below the mounting plate 21B and close to the force sensor 30.
  • the mounting plate 21B may be fixed directly onto the force sensor 30, or a thin member that does not substantially attenuate the force input to the force sensor 30 may be interposed between the mounting plate 21B and the force sensor 30.
  • the arm 21A and the mounting plate 21B are disposed so as not to come into contact with the housing 11 and the frame 19, so that the force applied to the handle 20 can be accurately detected by the force sensor 30.
  • the control device 15 controls the robot body 10 based on the detection information of the force sensor 30.
  • the control device 15 controls the direction of travel of the robot body 10 and also the speed of the robot body 10 based on the magnitude and direction of the force applied to the handle 20 detected by the force sensor 30.
  • the control device 15 further makes it possible to set information necessary for the robot body 10 to travel, based on the direction of force detected by the force sensor 30.
  • Information necessary for the robot body 10 to travel includes the destination of autonomous travel and the travel speed of the robot body 10. By making it possible to set the destination, etc., based on the information detected by the force sensor 30, i.e., the operation of the handle 20 itself, it is possible to reduce the number of operating parts installed on the handle 20, enabling easier operation.
  • Table 1 shows the operation items of the autonomous mobile robot 1 using the first operation button 24, the second operation button 25, and the force sensor 30.
  • the autonomous mobile robot 1 has an independent driving mode, a destination setting mode, and a manual driving mode.
  • the operation items using each operation button and the force sensor 30 differ depending on the operation mode of the robot.
  • the autonomous mobile robot 1 drives only while the first operation button 24 is being operated, and stops when the first operation button 24 is not being operated.
  • the operation mode of the robot transitions to a destination setting mode in which the destination can be changed.
  • the mode may transition to the destination setting mode under conditions such as the second operation button 25 being operated or a force in the left-right direction Y being detected by the force sensor 30.
  • the control device 15 transitions the driving mode of the robot body 10 to the manual driving mode. Furthermore, when the second operation button 25 is operated while the autonomous mobile robot 1 is stopped in the manual driving mode, i.e., while the first operation button 24 is not being operated, the control device 15 transitions from the manual driving mode to the destination setting mode. In other words, when the second operation button 25 is operated while the autonomous mobile robot 1 is stopped, the operation mode of the robot is switched between the destination setting mode and the manual driving mode. Note that while the autonomous mobile robot 1 is traveling, operation of the second operation button 25 is invalid.
  • a destination is selected from the candidate destinations stored in the memory unit of the control device 15, which are classified into a destination list for each building, floor of a building, or facility type, based on the output of the force sensor 30 capable of detecting the force applied to the handle 20.
  • the force sensor 30 detects a force in the forward/backward direction X
  • an arbitrary destination list is selected from a plurality of destination lists
  • an arbitrary destination is selected from the candidate destinations in the selected destination list.
  • the force sensor 30 detects a force in the backward direction
  • the next destination list in the selected destination list is selected
  • the previous destination list in the selected destination list is selected.
  • an arbitrary destination list is selected
  • the force sensor 30 detects a force in the left direction
  • the next item in this destination list is selected
  • the force sensor 30 detects a force in the right direction
  • the previous item in this destination list is selected. That is, a specific destination is extracted based on the detection information of the force sensor 30, and is presented to the user as the selected destination.
  • the selected destination list and destination are notified to the user, for example, through an output device such as a speaker.
  • the first operation button 24 can be used to determine the destination.
  • the selected destination is set as the new destination.
  • the condition for starting autonomous driving may be a second button operation, i.e., removing the finger from the first operation button 24 and operating it again, i.e., pressing it, as a condition.
  • a destination has not been selected, for example, if the autonomous mobile robot 1 has simply stopped from an autonomous driving state but has not been operated to change the destination (operating the handle 20 in the left/right direction Y), the robot will resume autonomous driving when the first operation button 24 is operated.
  • the handle 20 When the handle 20 is operated in the left-right direction Y while the autonomous mobile robot 1 is traveling in manual driving mode, it turns in the direction in which the force is applied. In addition, the maximum forward speed of the robot body 10 can be increased or decreased by applying a force to the handle 20 in the forward-backward direction X while traveling. In manual driving mode, the robot can be made to move backwards by applying a backward force exceeding a predetermined threshold to the handle 20 while the robot is stopped and not operated with the first operation button 24. These actions based on the operation of the handle 20 can be realized by the function of the force sensor 30.
  • the autonomous driving mode as in the manual driving mode, when the first operation button 24 is operated, that is, while driving, the maximum forward speed can be increased or decreased by applying a force in the forward/backward direction X to the handle 20.
  • the robot in the autonomous driving mode, the robot cannot be turned even if a force is applied in the left/right direction Y to the handle 20 while driving. In other words, operations based on a force in the left/right direction Y detected by the force sensor 30 while driving are invalid.
  • the autonomous driving mode when the autonomous mobile robot 1 is stopped, that is, when the first operation button 24 is not operated, and a force is applied to the handle 20 in the left/right direction Y, the mode transitions to the destination setting mode.
  • the control device 15 may prompt the user to set the next destination using an output device such as a speaker.
  • FIG. 6 is a diagram showing how a user moves together with the autonomous mobile robot 1.
  • the autonomous mobile robot 1 moves autonomously towards a destination and guides the user there when the user grasps the grip portion 22 of the handle 20 and operates the first operation button 24 provided on the top surface 22A.
  • the grip portion 22 extends in the same direction as the autonomous mobile robot 1's traveling direction, the user will naturally be lined up beside the robot or diagonally to the rear right while the robot is traveling. In this case, it is easier for the user to recognize the direction in which the robot is traveling compared to walking behind the robot, and it is less likely that the user will kick the robot while it is moving.
  • the autonomous mobile robot 1 only travels when the first operation button 24 is operated, so the user can operate the robot to travel and stop at any time.
  • the first operation button 24 is operated, for example, with the thumb of the left hand.
  • the first operation button 24 is located in front of the handle 20 on the upper surface 22A of the gripping portion 22, providing good operability. At least one of the index finger, middle finger, ring finger, and little finger of the left hand gripping the gripping portion 22 is in contact with the vibration rotor 23.
  • information such as a change in direction after a few meters and a change in the floor material may be communicated to the user by the vibration rotor 23 or by voice.
  • the autonomous mobile robot 1 can be operated in the same way as pushing a suitcase.
  • the force sensor 30 attached to the base of the handle 20 detects the magnitude and direction of the force, allowing the robot's direction of travel to be easily changed.
  • the handle 20 has a simple structure with only two operating buttons, so even visually impaired people can easily operate it.
  • FIG. 7 is a flowchart showing an example of a control procedure for the autonomous mobile robot 1 based on user operation.
  • FIG. 7 shows an example of a control procedure in which the autonomous mobile robot 1 stops from an autonomous driving state, transitions to a destination setting mode, and then resumes autonomous driving until it arrives at the destination. If a destination for autonomous driving has already been set, the autonomous mobile robot 1 starts autonomous driving when the user operates the first operation button 24 (step S10).
  • the control device 15 receives an operation signal from the first operation button 24, it causes the drive device 13 to drive the drive wheels of the wheels 12 to carry out autonomous driving of the robot.
  • step S11 When the operation of the first operation button 24 is stopped while the autonomous mobile robot 1 is traveling autonomously (Yes in step S11), the robot stops, interrupts autonomous traveling, and the operation mode transitions to destination setting mode (step S12).
  • the control device 15 no longer receives the operation signal of the first operation button 24, it stops the robot and transitions the operation mode of the robot to destination setting mode.
  • the autonomous traveling mode may be transitioned to destination setting mode on the condition that the handle 20 is operated in the left/right direction Y and the force is detected by the force sensor 30. Meanwhile, autonomous traveling continues while the operation signal of the first operation button 24 is being received (No in step S11, S10).
  • a candidate destination is selected from the destination list at any time and presented to the user (step S14).
  • the control device 15 extracts destination information pre-registered in the memory unit based on the detection information and notifies the user of the selected destination using an output device such as a speaker. At this time, when the first operation button 24 is operated, the selected destination is set as a new destination.
  • the user wishes to change the destination, they can operate the handle 20 left or right in the Y direction to select a new destination, and operate the first operation button 24 to set the selected destination as the new destination.
  • the destination is not changed and the mode is not switched to manual driving mode (No in steps S13, No in S15)
  • the current destination is maintained, and automatic driving of the robot is resumed by operating the first operation button 24 (Yes in steps S22, S23). Note that if a predetermined time has elapsed while a new destination has been selected, the selection may be canceled.
  • step S15 If the second operation button 25 is operated in the destination setting mode (Yes in step S15), the driving mode of the robot body 10 transitions to the manual driving mode (step S16).
  • the control device 15 receives an operation signal of the second operation button 25 in the destination setting mode, it switches the driving mode to transition to the manual driving mode.
  • the first operation button 24 is operated without operating the second operation button 25, autonomous driving toward the destination is resumed as described above. Note that if neither operation button is operated, the destination setting mode continues.
  • the autonomous mobile robot 1 starts manual driving in accordance with the user's handle operation (step S18).
  • the control device 15 receives an operation signal from the first operation button 24 in the manual driving mode, it moves the robot forward and controls the direction of travel of the robot using the detection information from the force sensor 30.
  • the force sensor 30 detects a force to the right
  • the control device 15 turns the robot body 10 to the right
  • the force sensor 30 detects a force to the left
  • the control device 15 turns the robot body 10 to the left.
  • FIG. 7 shows a flow in which the robot does not again perform manual driving when proceeding to step S20, but the manual driving mode continues until the second operation button 25 is operated. That is, in the manual driving mode, the control device 15 executes manual driving each time the first operation button 24 is operated.
  • the first operation button 24 is located on the top surface 22A of the grip portion 22 of the handle 20, and the second operation button 25 is located on the side surface 22D, so that erroneous operation can be effectively suppressed while ensuring good operability.
  • the second operation button 25 by providing the second operation button 25 on the grip portion 22, it becomes easy to switch to the manual driving mode, while the second operation button 25 is provided on the side surface 22D of the grip portion 22, making it difficult to operate the second operation button 25 by mistake.
  • the operation surfaces of the two operation buttons are arranged close to each other, but face in different directions by 90 degrees. For this reason, it is difficult to cause a problem such as accidentally operating the second operation button 25 when trying to operate the first operation button 24. While intentionally switching the driving mode is easy, unintentional switching of the driving mode is effectively suppressed.
  • the user can switch from the autonomous driving mode to the manual driving mode, allowing the user to freely stop at locations off the target route.
  • the manual driving mode improves usability by, for example, allowing the user to meet and chat with acquaintances on the way to the destination, go shopping, or sit on a bench to rest.
  • the function of the force sensor 30 provided at the base of the handle 20 greatly improves the operability of the robot in the manual driving mode.
  • the autonomous mobile robot 1 uses detection information from the force sensor 30 to control the robot, allowing for more intuitive robot operation compared to robot operation using buttons, switches, joysticks, or the like. Furthermore, by using the force sensor 30 to set information necessary for the robot's operation, such as setting a destination, the only operation section provided on the handle 20 is the two operation buttons mentioned above. This allows even visually impaired people to easily operate it. In other words, no particular visual information is required to operate the autonomous mobile robot 1, providing excellent accessibility for visually impaired people.
  • the configuration of the autonomous mobile robot 1 can be modified as appropriate without impairing the purpose of the present invention.
  • control device 15 including a memory unit is described as being provided in the robot body 10, but for example, a memory unit storing user data such as destination information for autonomous driving may be provided in the handle 20.
  • the handle 20 may be detachable from the robot body 10, and may be carried by each user. In this case, the user can easily set up the robot to suit each user by attaching their own handle 20 to the robot body 10 and transmitting user data from the memory unit of the handle 20 to the robot body 10.
  • the configuration disclosed in JP 2022-76648 A can be incorporated into the handle of the autonomous mobile robot according to the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

自律移動ロボット(1)は、ユーザーの移動を支援するロボットであって、目的地に向かって自律走行する自律走行モード、および走行状態を手動で制御可能な手動走行モードで走行可能に構成されたロボット本体(10)と、ロボット本体(10)に取り付けられたハンドル(20)とを備える。

Description

自律移動ロボット
 本発明は、自律移動ロボットに関し、より詳しくは、ユーザーの移動を支援する自律移動ロボットに関する。
 近年、ロボットに搭載されたセンサ等により周囲の環境を認識し、またロボット自身の位置情報を取得して、目的とする場所まで移動することが可能な自律移動ロボットが知られている。自律移動ロボットの一例として、視覚障害者等のユーザーを目的地まで誘導(案内)してユーザーの移動を支援するロボットも提案されている。例えば、特許文献1には、案内用ロボットと、案内用ロボットと別体に設けられたリモコンとを備える移動ロボットシステムが開示されている。
 特許文献1の案内用ロボットは、ユーザーにより把持されるグリップを含む操作入力部と、目的地を設定するためのタッチパネルとを有し、設定された目的地まで自律走行するように構成されている。特許文献1のシステムによれば、ユーザーのリモコン操作により、目的地に向かう目標経路の途中に予め登録されたトイレ等の経由地を設定でき、案内用ロボットを経由地に立ち寄らせることが可能である。また、特許文献2には、ユーザーの移動を支援するロボットであって、ロボット本体と、ロボット本体から延びるハンドルとを備えたスーツケース型の自律移動ロボットが開示されている。
特開2017-97538号公報 特開2022-76648号公報
 上記のように、自律移動ロボットを使用すれば、視覚障害者であっても設定された目的地に容易に到着することができる。一方、誤操作を抑制しつつ操作性を改善し、ユーザビリティを向上させることは重要な課題である。特許文献1,2に開示された技術を含む従来の技術は、このような観点について未だ改良の余地が大きい。
 本発明の一態様である自律移動ロボットは、ユーザーの移動を支援する自律移動ロボットであって、目的地に向かって自律走行する自律走行モード、および走行状態を手動で制御可能な手動走行モードで走行可能に構成されたロボット本体と、ロボット本体に取り付けられたハンドルとを備える。ハンドルは、ロボット本体を走行させるための第1操作部と、ロボット本体のモードを切り替えるための第2操作部とを有する。第1操作部は、ハンドルの第1の領域に設けられ、第2操作部は、当該第1の領域と異なる方向を向いたハンドルの第2の領域に設けられている。
 本発明の他の一態様である自律移動ロボットは、自律走行機能を有するロボット本体と、ロボット本体に取り付けられ、ロボット本体の高さ方向に延びたハンドルと、ハンドルに加わる力の大きさと方向を検出するセンサと、センサの検出情報に基づいて、ロボット本体の動作を制御する制御装置とを備え、センサがハンドルの付け根に設けられていることを特徴とする。
 本発明に係る自律移動ロボットによれば、誤操作を抑制しつつ操作性を改善でき、ユーザビリティが向上する。
実施形態の一例である自律移動ロボットの斜視図である。 自律移動ロボットの概略構成を示すブロック図である。 自律移動ロボットのハンドルの先端部分を斜め上方から見た図である。 自律移動ロボットのハンドルの先端部分を斜め下方から見た図である。 自律移動ロボットのハンドルの全体を示す斜視図である。 自律移動ロボットの使用方法を説明するための図である。 自律移動ロボットの制御手順の一例を示すフローチャートである。
 以下、図面を参照しながら、本発明に係る自律移動ロボットの実施形態について詳細に説明する。以下で説明する実施形態はあくまでも一例であって、本発明は以下の実施形態に限定されない。また、以下で説明する複数の実施形態および変形例の各構成要素を選択的に組み合わせてなる構成は本発明に含まれている。
 図1は、本発明の実施形態の一例である自律移動ロボット1の斜視図である。図1に示すように、自律移動ロボット1は、ロボット本体10と、ロボット本体10に取り付けられたハンドル20とを備える。自律移動ロボット1は、ユーザーの移動を支援するロボットであって、目的地までの経路に沿って磁気テープ等の誘導体を配置しなくても、搭載されたセンサ等により周囲の環境を認識して目的地まで移動することが可能である。ロボット本体10は、自律走行機能を有し、目的地に向かって自律走行する自律走行モード、および走行状態を手動で制御可能な手動走行モードで走行可能に構成されている。
 自律移動ロボット1は、さらに、ハンドル20に加わる力の大きさと方向を検出するセンサとして力覚センサ30(後述の図2等参照)を備える。詳しくは後述するが、力覚センサ30は、ハンドル20の付け根に設けられている。また、自律移動ロボット1は、力覚センサ30の検出情報に基づいて、ロボット本体10の動作を制御する制御装置15(後述の図2参照)を備える。ハンドル20の付け根に設けられた力覚センサ30の機能により、ユーザーの自然な動作に基づく直感的なロボット操作を実現できる。
 自律移動ロボット1は、ユーザーを所定の目的地まで誘導する移動支援ロボットであって、ロボットが単体で自律走行するものではない。このため、自律移動ロボット1は、ユーザーにより把持されるハンドル20を備える。但し、自律移動ロボット1は、ユーザーを目的地まで誘導するナビゲーション機能を有していればよく、ロボット単体での自律走行が可能であってもよい。例えば、自律移動ロボット1は、ロボットの使用場所又は保管場所まで単体で自律走行してもよい。
 自律移動ロボット1は、視覚障害者を目的地まで誘導する移動支援ロボットとして好適である。自律移動ロボット1は、視覚障害者であっても操作し易いように構成されている。但し、自律移動ロボット1のユーザーは、視覚障害者に限定されない。例えば、目的地の場所が分からない人など、視覚障害の無い人であっても、自律移動ロボット1のユーザー、即ち自律移動ロボット1により目的地まで誘導される被誘導者となり得る。
 自律移動ロボット1は、特定の建物内で使用される。特定の建物の例としては、店舗、ショッピングモール等の商業施設、病院、空港、駅、役所、図書館、美術館、学校等の公共施設、オフィス、研究所、工場等の事業所などが挙げられる。なお、自律移動ロボット1の使用場所は、特定の建物内に限定されず、公園、動物園、テーマパーク等の屋外施設であってもよい。また、自律移動ロボット1は、例えば、視覚障害者が個人で所有していてもよく、任意の場所で使用可能であってもよい。
 自律移動ロボット1を使用すれば、視覚障害者であっても設定された目的地に容易に到着することができる。一方、目的地に向かう途中に目標経路から外れた場所に立ち寄りたい場合や、ロボットの向きを変更したい場合も想定される。このため、ロボットの走行状態を手動で制御可能な手動走行モードを備えた自律移動ロボットも提案されているが、ユーザーの誤操作により意図しない走行モードの切り替えなど、誤った動作モードの切り替えが頻繁に発生すると、ユーザビリティが損なわれる。即ち、意図的なモードの切り替えは容易である一方、誤操作については十分に抑制する必要がある。
 自律移動ロボット1によれば、良好な操作性を確保しつつ、誤操作を抑制できる。自律移動ロボット1では、動作モードの切り替え用の操作部がハンドル20に設けられているため、例えば、走行モードの切り替えが容易である。また、この操作部は、ハンドル20において、一般的に使用頻度が高い走行用の操作部と異なる方向を向いた領域に配置されるため、誤操作による意図しないモードの切り替えが発生し難い。
 自律移動ロボット1の一般的な使用形態としては、ユーザーがハンドル20を掴んでロボットと共に移動する形態が挙げられるが、その際、ユーザーの自然な動作に基づいて直感的にロボットを操作したいというニーズがある。即ち、ロボットに対するユーザーの動きを的確に検出し、当該検出情報をロボットの制御に活用することが求められる。自律移動ロボット1では、ハンドル20に加わる力を検出するセンサがハンドル20の付け根に設けられているため、ユーザーのハンドル操作によりハンドル20に作用する力を的確に検出できる。そして、当該検出情報を用いてロボットを制御することにより、例えば、ボタン、スイッチ、或いはジョイスティックなどを用いたロボット操作と比べて、より直感的なロボット操作が可能となる。
 なお、本明細書では、説明の便宜上、図1に示す前後方向X、左右方向Y、および高さ方向Zの方向を示す用語を使用する。これらの方向は、自律移動ロボット1の通常の使用状態における方向を意味する。具体的に、自律移動ロボット1およびロボットの各構成要素(ロボット本体10、ハンドル20等)の前方とは、ロボットが自律走行するときの進行方向を意味する。ロボットの後方は前方と反対の方向であり、左右方向Yは前後方向Xおよび高さ方向Zに対して直交する方向である。高さ方向Zとは、ロボットの載置面に対して垂直な方向を意味し、載置面が水平面である場合は鉛直方向と一致する。自律移動ロボット1は、後退可能である。即ち、前後方向Xがロボットの移動方向である。
 ロボット本体10は、自律走行機能を実現するための各種装置を備えた装置ユニットであって、ハウジング11と、車輪12とを有する。ハウジング11は、当該各種装置を収容し、ロボット本体10の外観を形成するケースである。ロボット本体10の内部、即ちハウジング11の内側には、バッテリ14、制御装置15(後述の図2参照)等が設けられている。ロボット本体10は、ハウジング11の外側に設置される、スピーカ等の出力装置、カメラ、センサなどを有していてもよい。
 ロボット本体10は、駆動装置13(後述の図2参照)を有し、制御装置15による制御の下、駆動装置13が車輪12のうち、駆動輪を駆動させることにより走行する。本実施形態では、ハウジング11の下部に4つの車輪12が設けられている。ハウジング11は、高さ方向Zの長さ>前後方向Xの長さ>左右方向Yの長さの関係を満たす直方体形状を有するが、ハウジング11の形状およびサイズはこれに限定されない。ロボット本体10の高さ(高さ方向Zの長さ)の一例は、50cm以上90cm以下である。また、車輪12の数、大きさ等は特に限定されない。ロボット本体10を移動させるための手段は、車輪以外であってもよいが、ロボット本体10の走行安定性等の観点から車輪が好ましい。
 ハンドル20は、ロボット本体10に取り付けられ、高さ方向Zに延びている。ハンドル20は、例えば、ロボット本体10の上端から高さ方向Zに延びる。また、ハンドル20は、ロボット本体10の進行方向に向かって右側の端部において、前後方向中央部に取り付けられている。この場合、ユーザーは、ロボット本体10の右側に立ち、左手でハンドル20を掴んで自律移動ロボット1を操作し、ハンドル20を掴んだ状態で自律移動ロボット1と共に目的地まで移動する。なお、ハンドル20は、ユーザーが右手で自律移動ロボット1を操作し、ハンドル20を掴んだ状態で自律移動ロボット1と共に移動する場合にあっては、ロボット本体10の左側端部に設けられていてもよい。また、ハンドル20の少なくとも一部が、ロボット本体10に対して着脱自在であってもよい。
 ハンドル20は、ロボット本体10を走行させるための第1操作部である第1操作ボタン24と、ロボット本体10のモードを切り替えるための第2操作部である第2操作ボタン25(後述の図2等参照)とを有する。詳しくは後述するが、第1操作ボタン24は、ハンドル20の第1の領域に設けられ、第2操作ボタン25は、当該第1の領域と異なる方向に向いたハンドル20の第2の領域に設けられている。ハンドル20は前後方向Xに延びた把持部22を有し、各操作ボタンは把持部22に設けられている。把持部22は、ユーザーにより掴まれるグリップである。
 自律移動ロボット1はユーザーを目的地まで誘導するロボットであるが、ユーザーが目的地に向かう途中で目標経路から外れた場所に立ち寄りたい場合や、ロボットの向きを変更したい場合も想定される。このため、自律移動ロボット1には、走行状態を手動で制御可能な手動走行モードが実装されている。例えば、目的地に向かう途中で知人と出会って会話する場合、ショッピングをする場合、ベンチに座って休憩する場合、或いは自由に寄り道をする場合において、手動走行モードを活用できる。
 自律移動ロボット1は、自律走行の目的地を設定するための目的地設定モードを備える。自律移動ロボット1は、目的地設定モードにおいてユーザーにより目的地が設定された後、第1操作ボタン24を押すことで当該目的地に向かって自律走行を開始する。なお、自律走行の開始後において目的地を変更したい場合も考えられる。このため、自律移動ロボット1が自律走行状態から停止した場合、ロボットの動作モードは目的地設定モードに遷移する。ユーザーは目的地設定モードにおいて新たな目的地を設定することで、目的地を変更できる。自律移動ロボット1が自律走行状態から停止した場合に、力覚センサ30が左右方向Yの力を検知することを条件として、ロボットのモードを目的地設定モードに遷移させてもよい。
 ハンドル20は、さらに、ロボット本体10から延びる支持部21を有する。支持部21は、高さ方向Zに延びるアーム21Aを含む。本実施形態において、アーム21Aは、前後方向Xに間隔をあけて2本配置されている。2本のアーム21Aの各々は、細長い棒状部材であって、互いに同じ形状、同じ長さを有する。把持部22は、一対のアーム21Aの先端側(上部)において、一対のアーム21Aにわたって設けられている。把持部22は、アーム21Aよりも長さが短い棒状部材であって、長さ方向両端部が2本のアーム21Aの上端にそれぞれ固定されている。
 自律移動ロボット1は、全体として、スーツケースに類似した形状を有するスーツケース型の移動支援ロボットである。このため、ユーザーは、スーツケースを押し歩く場合と同様の感覚で自律移動ロボット1を扱うことができる。但し、本発明の自律移動ロボットは、スーツケース型のロボットに限定されるものではない。
 図2は、自律移動ロボット1の概略構成を示すブロック図である。図2に示すように、自律移動ロボット1は、ハンドル20に設けられた第1操作ボタン24および第2操作ボタン25の操作に基づいて、また力覚センサ30の検出情報に基づいて、ロボット本体10の動作を制御可能に構成されている。自律移動ロボット1は、各操作ボタンの操作信号および力覚センサ30の検出情報に基づいて、ロボット本体10の動作を制御する制御装置15を備える。制御装置15には、各操作ボタン、力覚センサ30、および後述の各種センサが接続され、操作信号および検出信号が送信される。
 詳しくは後述するが、制御装置15は、自律走行モードにおいて第1操作ボタン24が操作されると、設定された目的地に向かってロボット本体10を自律走行させる。また、制御装置15は、ロボット本体10の停止状態で第2操作ボタン25が操作されると、ロボット本体10の走行モードを手動走行モードに遷移させる。また、制御装置15は、ユーザーのハンドル操作による力が力覚センサ30により検出されると、当該検出情報(検出信号)に基づいてロボット本体10の動作を制御する。なお、ロボットの走行状態の説明において「ロボット本体10」は「自律移動ロボット1」に読み替えることができる。例えば、「ロボット本体10の停止状態」と「自律移動ロボット1の停止状態」は同義である。
 ロボット本体10は、車輪12を駆動させる駆動装置13と、電力を必要とする負荷に電力を供給するバッテリ14とを有する。駆動装置13は、例えば、バッテリ14から電力の供給を受けて車輪12を駆動させるモータを含む。駆動装置13、バッテリ14、および制御装置15は、例えば、ロボット本体10の骨格を形成するフレーム19(後述の図5参照)に固定されている。
 ロボット本体10は、さらに、加速度センサ16A、距離センサ16B、カメラ17、通信装置18等を有していてもよい。加速度センサ16Aは、例えば、自律移動ロボット1の加速度、走行速度、傾き等を検出する。距離センサ16Bには、例えば、光学式、超音波式、又は電波式の距離センサ(測域センサ)を用いることができる。なお、距離センサ16B、カメラ17等は、ハウジング11の外側に設けられていてもよい。
 制御装置15は、例えば、距離センサ16B、カメラ17等の各種センサの検出情報を用いて自己位置推定と環境地図作成を同時に行い、ロボット本体10の自律走行を実現する。なお、ロボット本体10の自律走行には、従来公知のSLAM技術(Simultaneous Localization and Mapping)を適用できる。制御装置15は、例えば、障害物との衝突回避のために、距離センサ16Bにより計測される障害物との距離が一定距離以下とならないような状態制約と、使用感向上のための加速度制約とを同時に満たす制御則を実装している。
 制御装置15は、自律走行の目的地、最大走行速度、動作モード等の情報、制御プログラムなどを記憶する記憶部と、制御プログラムなどを読み出して実行することによりロボット本体10の動作を制御する演算部とを備えたコンピュータで構成されている。目的地の候補は、記憶部に予め登録されていてもよく、ユーザーにより記憶部に登録可能であってもよい。演算部には、CPU(Central Processing Unit)等のプロセッサが含まれる。
 なお、制御装置15を構成するコンピュータの構成は、ロボット本体10の動作を制御可能なものであればよく、特に限定されない。制御装置15は、通信装置18の機能によりGNSS(Global Navigation Satellite System)信号等の情報を受信し、当該情報をロボット本体10の自律走行の制御に使用してもよい。
 自律移動ロボット1は、上記の通り、ハンドル20に加わる力の大きさと方向を検出する力覚センサ30を備える。制御装置15は、力覚センサ30の検出情報に基づいて、ロボット本体10の動作を制御する。制御装置15は、例えば、力覚センサ30の検出情報に基づいて、手動走行モードにおけるロボット本体10の走行状態が制御される。力覚センサ30の機能により、ユーザーは直感的にロボットを操作することが可能となる。また、力覚センサ30を利用して、自律走行の目的地等の設定が実行されてもよい。
 図3~図5を参照しながら、ハンドル20および力覚センサ30について、さらに詳説する。図3および図4は、ハンドル20の先端部分を拡大して示す。図5は、ハンドル20の全体を示し、ハンドル20の付け根を覆うハウジング11を取り外した状態を示す。
 図3~図5に示すように、ハンドル20は、アーム21Aを含む支持部21と、アーム21Aの先端側に設けられた把持部22とで構成されている。本実施形態において、支持部21は、一対のアーム21Aと、一対のアーム21Aの付け根がそれぞれ固定された取り付け板21Bとを含む。上記のように、一対のアーム21Aは高さ方向Zに延び、前後方向Xに間隔をあけて前後方向Xに並んで配置されている。また、把持部22は、2本のアーム21Aを連結するように前後方向Xに沿って配置されている。ハンドル20は、2本のアーム21Aと、把持部22とにより、逆U字状に形成されている。なお、アーム21Aと把持部22は一体成形されていてもよい。
 アーム21Aは、例えば、把持部22の高さが、概ねユーザーの腰から肘の高さとなるような長さを有する。本実施形態では、一対のアーム21Aがロボット本体10の上端から延出し、高さ方向Zに沿って互いに平行に真っ直ぐに延びている。アーム21Aは、高さ方向Zに沿って溝が形成された角柱形状を有するが、その形状は特に限定されない。また、アーム21Aは、伸縮自在な構造を有していてもよく、ロボット本体10の上端から延びる長さを調整可能であってもよい。この場合、把持部22が操作し易い高さとなるように、ユーザーの好みに応じてアーム21Aの長さを変更できる。なお、アーム21Aの幅(前後方向Xの長さ)の一例は、2cm以上5cm以下である。
 把持部22は、前後方向Xに沿って真っ直ぐに延び、アーム21Aと干渉することなく把持部22を掴むことが可能な長さを有することが好ましい。換言すると、把持部22を掴んだときに手がアーム21Aと干渉しないようにアーム21A同士の間隔が設定される。把持部22の好適な長さの一例は、12cm以上20cm以下である。把持部22は、長さ方向に直交する方向の断面形状が、真円形状、楕円形状、又は半円形状等であってもよいが、本実施形態では四角形状を有する。四角形の角は、把持性を考慮して丸みを帯びている。
 把持部22は、高さ方向Zの上側を向いた上面22A、高さ方向Zの下側を向いた下面22B、および側面22C,22Dを含む。なお、自律移動ロボット1の載置面が水平面である場合、把持部22の上面22Aは鉛直上方を向く。側面22C,22Dは、水平方向を向いた面であって、側面22Cが進行方向左側を向き、側面22Dが進行方向右側を向く。把持部22は、さらに、ロボット本体10の前方を向いた側面(前面)および後方を向いた側面(後面)を含む。
 把持部22は、振動ロータ23を有していてもよい。振動ロータ23は、振動によりユーザーにロボットから情報を報知可能な出力装置である。振動ロータ23を用いて、例えば、目的地が設定されたこと、目的地に到着したこと、障害物の存在など、種々の情報がユーザーに報知される。ハンドル20には、把持部22の下面22Bに振動ロータ23が設けられている。振動ロータ23は、複数設けられていてもよいが、本実施形態では1つである。
 ロボット本体10又はハンドル20には、音声を出力するスピーカ等の他の出力装置が設けられていてもよい。或いは、自律移動ロボット1は、ロボット本体10およびハンドル20と別体の出力装置を備えていてもよい。別体の出力装置の例としては、イヤホン、骨伝導スピーカなどが挙げられる。また、ユーザーが所持するスマートフォン等の端末装置を出力装置として使用することも可能である。
 第1操作ボタン24および第2操作ボタン25は、上記の通り、把持部22に設けられている。この場合、操作部が支持部21、ロボット本体10、或いは別体のリモコン等に設けられる場合と比べて、良好な操作性が得られる。一方、各操作ボタンが適当に配置されていると、ボタンの押し間違え等の誤操作が発生し易くなる。そこで、ハンドル20では、第1操作ボタン24が把持部22の第1の領域に配置され、第2操作ボタン25が第1の領域と異なる方向を向いた把持部22の第2の領域に配置されている。これにより、良好な操作性を確保しつつ、誤操作を効果的に抑制できる。
 第1操作ボタン24は、把持部22の下面22B又は側面に配置されてもよいが、好ましくは上面22Aに配置される。第1操作ボタン24は、ロボット本体10を走行させる際に使用される操作部であって、第2操作ボタン25と比較して使用頻度および使用時間が長いため、最も操作し易い上面22Aに配置されることが好ましい。他方、第2操作ボタン25は、側面22C又は側面22Dに配置されることが好ましく、本実施形態では側面22Dに配置されている。即ち、本実施形態では、ハンドル20の上記第1の領域が把持部22の上面22Aであり、上記第2の領域が把持部22の側面22Dであり、各操作ボタンの操作面の向きが90°異なっている。
 第1操作ボタン24および第2操作ボタン25には、従来公知の押しボタン(タッチボタン)を適用できる。以下、第1操作ボタン24および第2操作ボタン25は、押しボタンであるものとして説明する。このため、第1操作ボタン24および第2操作ボタン25を操作した状態とは、第1操作ボタン24および第2操作ボタン25を押している状態であり、第1操作ボタン24および第2操作ボタン25を操作しない状態とは、第1操作ボタン24および第2操作ボタン25を押していない状態である。各操作ボタンは、ユーザーが簡単に操作でき誤作動が発生し難い操作部であればよく、その構造は特に限定されない。各操作ボタンは、近接センサ等を用いた非接触式のボタンであってもよい。また、各操作ボタンの形状は特に限定されない。各操作ボタンには、図3に例示するような操作面が円形状のボタンを適用できる。
 第1操作ボタン24は、把持部22の上面22Aにおいて、長さ方向の中央位置よりもハンドル20の前方に配置されている。第1操作ボタン24は、上面22Aの長さ方向の中央位置よりも把持部22の前端位置の近くに配置されることが好ましい。この場合、ユーザーが把持部22を掴んだ状態で第1操作ボタン24を親指で操作することが容易になる。第1操作ボタン24は、例えば、自律移動ロボット1(ロボット本体10)の側面視において、ボタンの一部が前方側のアーム21Aと高さ方向Zに重なるように配置されている。
 第2操作ボタン25は、把持部22の側面22Dにおいて、第1操作ボタン24と同様に、側面22Dの長さ方向の中央位置よりもハンドル20の前方に配置されている。第2操作ボタン25は、ハンドル20の後方に配置されてもよいが、第1操作ボタン24の近くに配置することで、視覚障害者であっても第1操作ボタン24を操作する指(親指)で第2操作ボタン25を探すことが容易になり操作性が向上する。2つの操作ボタンが近くに配置されると、誤操作の発生が懸念されるが、本実施形態では、第2操作ボタン25が側面22Dに配置されるため、誤操作が十分に抑制される。
 第2操作ボタン25は、第1操作ボタン24よりも把持部22の前端側に配置されている。この場合、第2操作ボタン25が第1操作ボタン24よりも後方に配置される場合と比べて、把持部22を握った際に第2操作ボタン25を誤って押してしまうことが抑制され、誤操作を防止することができる。第2操作ボタン25は、例えば、前後方向Xにおいて、ハンドル20の前端と第1操作ボタン24の前端との間に配置されている。つまり、第2操作ボタン25は、自律移動ロボット1の側面視において、第1操作ボタン24と高さ方向Zに重ならない位置に設けられてもよい。
 第2操作ボタン25は、さらに、自律移動ロボット1の側面視において、前方側のアーム21Aと高さ方向Zに重なる位置に設けられている。換言すると、第2操作ボタン25は、自律移動ロボット1の側面視において、前方側のアーム21Aの延長線上に設けられている。本実施形態では、第2操作ボタン25の全体が、アーム21Aと高さ方向Zに重なっている。把持部22を掴んだユーザーの手は、通常、一対のアーム21Aの間に位置する。即ち、アーム21Aが手に干渉するため、側面22Dのうち、アーム21Aの後端よりもハンドル20の前方に位置する部分には手が触れ難くなる。このため、第2操作ボタン25の当該配置によれば、第2操作ボタン25の誤操作をより効果的に抑制できる。
 第2操作ボタン25は、第1操作ボタン24より小さいことが好ましい。この場合、第2操作ボタン25の誤操作をより効果的に抑制できる。より詳しくは、ユーザーの指が触れる操作面の面積が、第1操作ボタン24と比べて第2操作ボタン25の方が小さいことが好ましい。各操作ボタンの操作面が真円形状である場合、第2操作ボタン25の直径は、第1操作ボタン24の直径の50%以下であることが好ましく、例えば、第1操作ボタン24の直径の20%以上40%以下である。第2操作ボタン25は、その配置と大きさを上記のようにすることで、第1操作ボタン24と比べて操作し難くなっている。
 ハンドル20には、ユーザーにより操作される操作部として、第1操作ボタン24と第2操作ボタン25のみが設けられている。ハンドルには第3、第4の操作部を設けることも可能であるが、ハンドルに多くの操作部を設けた場合、操作が煩雑になると共に、誤操作の増加も懸念される。本実施形態のハンドル20は、把持部22に設けられた操作部が2つだけであるため、視覚障害者であっても簡単に操作でき、ユーザビリティに優れる。また、ハンドル20は、例えば、シンプルでスタイリッシュなデザインとなり、デザイン面からも自律移動ロボット1の商品価値を向上させることができる。
 図5に示すように、力覚センサ30は、ハンドル20の支持部21の付け根に設けられている。把持部22から離れた支持部21の付け根に力覚センサ30を設けることで、ハンドル20に加わる力を検出することが容易になり、ユーザーの自然な動作に基づきロボットを直感的に操作することが可能となる。力覚センサ30の機能により、ユーザーは、例えば、手動走行モードにおいてハンドル20に左右方向Yの力を加えることでロボットの進行方向を自由に変更でき、スーツケースを押し歩く場合と同様の感覚でロボットを扱うことができる。
 力覚センサ30には、一方向の力を検出可能な1軸力覚センサ(一般的に、荷重センサ又はロードセルとも呼ばれる)が用いられてもよいが、好ましくは、少なくとも前後方向Xおよび左右方向Yの力を検出可能な2軸力覚センサが用いられる。2軸力覚センサを用いることで、ハンドル20を捻るような力も検出できる。なお、力覚センサ30には、3軸力覚センサ又は6軸力覚センサが用いられてもよい。力覚センサ30の検出方式は特に限定されず、歪みゲージ式、圧電式、光学式、又は静電容量式のいずれであってもよい。
 力覚センサ30は、例えば、ハウジング11の内側において、ロボット本体10のフレーム19に固定されている。支持部21はハウジング11を貫通し、支持部21の付け根および力覚センサ30はハウジング11に覆われている。この場合、力覚センサ30はハウジング11によって保護され、力覚センサ30にはハンドル20に加わる力のみが入力される。支持部21は、上記のように、一対のアーム21Aと取り付け板21Bとで構成されている。ハンドル20に加わる力は、把持部22からアーム21Aおよび取り付け板21Bを介して力覚センサ30に伝達される。
 本実施形態において、力覚センサ30は、取り付け板21Bの直下に配置されている。ここで、取り付け板21Bの直下とは、取り付け板21Bの真下であって、力覚センサ30に近接する位置を意味する。取り付け板21Bは力覚センサ30上に直接固定されていてもよく、力覚センサ30に入力する力を実質的に減衰させない程度の薄肉部材が、取り付け板21Bと力覚センサ30の間に介在していてもよい。力覚センサ30によりハンドル20に加わる力が的確に検出されるように、アーム21Aおよび取り付け板21Bは、ハウジング11およびフレーム19と接触しないように配置されている。
 制御装置15は、上記のように、力覚センサ30の検出情報に基づいてロボット本体10の制御を実行する。制御装置15は、例えば、ロボット本体10の走行モードが手動走行モードである場合に、力覚センサ30により検出されたハンドル20に加わる力の大きさと方向に基づき、ロボット本体10の進行方向を制御し、またロボット本体10の速度を制御する。ハンドル20の付け根に設けられた力覚センサ30の検出情報に基づいてロボット本体10の動作を制御することにより、ユーザーはロボットを直感的に操作することができる。
 制御装置15は、さらに、力覚センサ30により検出される力の方向に基づいて、ロボット本体10の走行に必要な情報の設定を可能としている。ロボット本体10の走行に必要な情報としては、自律走行の目的地やロボット本体10の走行速度などが挙げられる。力覚センサ30の検出情報、即ちハンドル20自体の操作に基づいて目的地設定等を可能とすることで、ハンドル20に設置する操作部を減らすことができ、より簡便な操作を実現できる。
 表1に、第1操作ボタン24、第2操作ボタン25、および力覚センサ30による自律移動ロボット1の操作項目を示す。自律移動ロボット1は、自立走行モードと、目的地設定モードと、手動走行モードとを備える。各操作ボタンおよび力覚センサ30による操作項目は、ロボットの動作モードによって異なる。
Figure JPOXMLDOC01-appb-T000001
 表1に示すように、自律移動ロボット1は、自律走行モードおよび手動走行モードにおいて、第1操作ボタン24が操作されている間だけ走行し、第1操作ボタン24が操作されていないときには停止する。自律移動ロボット1が自律走行状態から目的地に到着して停止すると、ロボットの動作モードは目的地を変更可能な目的地設定モードに遷移する。ロボットが目的地に到着して自律走行状態から停止した場合に、目的地設定モードに自動的に遷移するのではなく、第2操作ボタン25が操作されたこと、又は力覚センサ30により左右方向Yの力が検出されたこと等を条件として、目的地設定モードに遷移するようにしてもよい。
 制御装置15は、自律移動ロボット1が停止し、目的地設定モードに設定された状態で第2操作ボタン25が操作された場合、ロボット本体10の走行モードを手動走行モードに遷移させる。また、制御装置15は、手動走行モードにおいて、自律移動ロボット1が停止した状態、即ち第1操作ボタン24が操作されていない状態で第2操作ボタン25が操作された場合、手動走行モードから目的地設定モードに遷移させる。即ち、自律移動ロボット1が停止した状態で第2操作ボタン25が操作されると、目的地設定モードと手動走行モードとの間でロボットの動作モードが切り替えられる。なお、自律移動ロボット1の走行中において、第2操作ボタン25の操作は無効とされる。
 目的地設定モードでは、例えば、目的地を建物や建物のフロア、又は施設のジャンル毎に目的地リストとされた、制御装置15の記憶部に記憶された目的地の候補からハンドル20に対して加えられた力を検知可能な力覚センサ30の出力に基づき、選択するものとした。具体的には、力覚センサ30で前後方向Xの力を検出した場合、複数の目的地リストから任意の目的地リストを選択し、力覚センサ30で左右方向Yの力を検出した場合、選択されている目的地リストの目的地の候補から任意の目的地を選択するものとした。例えば、力覚センサ30が後方向の力を検出すると、選択している目的地リストの次の目的地リストを選択し、力覚センサ30が前方向の力を検出すると、選択している目的地リストの前の目的地リストを選択する。そして、任意の目的地リストが選択された状態で、力覚センサ30が左方向の力を検出すると、この目的地リストの次の項目(次の目的地)を選択し、力覚センサ30が右方向の力を検出すると、この目的地リストの前の項目(前の目的地)を選択する。即ち、力覚センサ30の検出情報に基づいて特定の目的地を抽出し、選択中の目的地としてユーザーに提示する。選択中の目的地リストや目的地は、例えば、スピーカ等の出力装置によりユーザーに報知される。
 目的地の決定には、第1操作ボタン24を使用できる。目的地設定モードにおいて、第1操作ボタン24が操作された場合、選択中の目的地が新規目的地として設定される。この場合、目的地の設定と同時にロボットが自律走行を開始しないように、例えば、再度のボタン操作、即ち第1操作ボタン24から指を離して再度操作、つまり押下することを自律走行開始の条件としてもよい。一方、目的地が選択されていない場合、例えば、自律移動ロボット1が自律走行状態から一旦停止しただけで目的地の変更操作(ハンドル20の左右方向Yの操作)がなされていない場合に、第1操作ボタン24が操作されると、ロボットは自律走行を再開する。
 自律移動ロボット1は、手動走行モードで走行中にハンドル20が左右方向Yに操作されると、その力が作用する方向に旋回する。また、ロボット本体10の最大前進速度は、走行中にハンドル20に対して前後方向Xに力を加えることで増減できる。手動走行モードでは、第1操作ボタン24が操作されていない停止状態でハンドル20に対して所定の閾値を超える後向きの力を加えると、ロボットを後退させることができる。ハンドル20の操作に基づくこれらの動作は、力覚センサ30の機能により実現できる。
 自律走行モードでは、手動走行モードの場合と同様に、第1操作ボタン24が操作された状態、つまり走行中に、ハンドル20に対して前後方向Xに力を加えることで最大前進速度を増減できる。一方、自律走行モードでは、走行中にハンドル20に対して左右方向Yに力を加えてもロボットを旋回させることはできない。即ち、走行中における力覚センサ30により検出される左右方向Yの力に基づく操作は無効とされている。一方、自律走行モードでは、自律移動ロボット1が停止した状態、即ち第1操作ボタン24が操作されていない状態において、ハンドル20に対して左右方向Yに力を加えると、目的地設定モードに遷移する。これにより、目的地の変更の他、さらに手動走行モードへの切り替えが可能となる。自律移動ロボット1が目的地に到着すると、目的地設定モードに遷移する。このとき、制御装置15は、ユーザーに対し、スピーカ等の出力装置を用いて次の目的地を設定するように促してもよい。
 以下、図6および図7を参照しながら、上記構成を備えた自律移動ロボット1の使用形態の一例について詳説する。
 図6は、自律移動ロボット1と共にユーザーが移動する様子を示す図である。図6に示すように、自律移動ロボット1は、ユーザーがハンドル20の把持部22を掴み、上面22Aに設けられた第1操作ボタン24を操作することにより、目的地に向かって自律走行し、ユーザーを目的地まで誘導する。把持部22は自律移動ロボット1の進行方向と同じ方向に延びているため、ロボットの走行中は自然とユーザーがロボットの真横や斜め右後方に並んだ状態となる。この場合、ロボットの後ろを歩く場合と比較して、ユーザーはロボットの進行方向を認識し易く、移動中にロボットを蹴るようなことも起こり難い。
 自律移動ロボット1は、第1操作ボタン24が操作されているときだけ走行するため、ユーザーは任意のタイミングでロボットの走行および停止を操作できる。第1操作ボタン24は、例えば、左手の親指で操作される。第1操作ボタン24は、把持部22の上面22Aにおいてハンドル20の前方に配置されているため、操作性が良好である。把持部22を掴む左手の人差し指、中指、薬指、および小指の少なくともいずれかは、振動ロータ23に触れた状態となる。自律走行モードでは、数メートル後に方向転換すること、床材の変化などの情報が、振動ロータ23又は音声によりユーザーに伝達されてもよい。
 自律移動ロボット1は、スーツケースを押し歩く場合と同様の感覚で扱うことができる。特に手動走行モードでは、ハンドル20に左右方向Yの力を加えることで、ハンドル20の付け根に設けられた力覚センサ30によりその力の大きさと方向が検出され、ロボットの進行方向を容易に変更できる。また、ハンドル20は、操作ボタンが2つだけというシンプルな構造であるため、視覚障害者であっても簡単に操作できる。
 図7は、ユーザーの操作に基づく自律移動ロボット1の制御手順の一例を示すフローチャートである。図7では、自律移動ロボット1が自律走行状態から一旦停止して目的地設定モードに遷移した後、再び自律走行を行い目的地に到着するまでの制御手順の一例を示す。自律走行の目的地が既に設定されている場合、ユーザーにより第1操作ボタン24が操作されると、自律移動ロボット1は自律走行を開始する(ステップS10)。制御装置15は、第1操作ボタン24の操作信号を受信すると、駆動装置13により車輪12の駆動輪を駆動させてロボットの自律走行を実行する。
 自律移動ロボット1の自律走行中に第1操作ボタン24の操作が停止されると(ステップS11のYes)、ロボットは停止して自律走行を中断し、動作モードが目的地設定モードに遷移する(ステップS12)。制御装置15は、第1操作ボタン24の操作信号が受信されなくなると、ロボットを停止させると共に、ロボットの動作モードを目的地設定モードに遷移させる。このとき、ハンドル20が左右方向Yに操作され、力覚センサ30により当該力が検出されたことを条件として、自律走行モードから目的地設定モードに遷移させてもよい。一方、第1操作ボタン24の操作信号を受信している間は自律走行を継続する(ステップS11のNo,S10)。
 目的地設定モードにおいて、ハンドル20が左右方向Yに操作され、力覚センサ30により当該力が検出されると(ステップS13のYes)、例えば、目的地リストから目的地の候補が随時選択されてユーザーに提示される(ステップS14)。制御装置15は、目的地設定モードにおいて、力覚センサ30により左右方向Yの力が検出されると、当該検出情報に基づいて記憶部に予め登録された目的地の情報を抽出し、スピーカ等の出力装置を用いて選択中の目的地をユーザーに知らせる。このとき、第1操作ボタン24が操作されると、選択中の目的地が新規目的地として設定される。
 ユーザーは、目的地を変更したい場合、ハンドル20を左右方向Yに操作して新規目的地を選択し、第1操作ボタン24の操作で選択中の目的地を新規目的地に設定できる。一方、目的地の変更および手動走行モードへの切り替えを行わない場合(ステップS13のNo,S15のNo)は、現在の目的地が維持され、第1操作ボタン24の操作によりロボットの自動走行が再開される(ステップS22のYes,S23)。なお、新規目的地が選択された状態で所定時間が経過した場合は、その選択がキャンセルされてもよい。
 目的地設定モードにおいて、第2操作ボタン25が操作された場合(ステップS15のYes)、ロボット本体10の走行モードが手動走行モードに遷移する(ステップS16)。制御装置15は、目的地設定モードにおいて第2操作ボタン25の操作信号を受信すると、走行モードを切り替えて手動走行モードに遷移させる。一方、第2操作ボタン25が操作されることなく、第1操作ボタン24が操作された場合は、上記のように、目的地に向かって自律走行を再開する。なお、いずれの操作ボタンも操作されない場合は、目的地設定モードが継続される。
 ロボット本体10の走行モードが手動走行モードに遷移した場合、第1操作ボタン24が操作されると(ステップS17のYes)、自律移動ロボット1はユーザーのハンドル操作に従った手動走行を開始する(ステップS18)。制御装置15は、手動走行モードにおいて第1操作ボタン24の操作信号を受信すると、ロボットを前進させると共に、力覚センサ30の検出情報を用いてロボットの進行方向等を制御する。制御装置15は、力覚センサ30により右方向の力が検出されるとロボット本体10を右に旋回させ、力覚センサ30により左方向の力が検出されるとロボット本体10を左に旋回させる。
 手動走行モードにおいて、自律移動ロボット1が停止した状態で第2操作ボタン25が操作された場合(ステップS20のYes)、動作モードは目的地設定モードに遷移する(ステップS21)。そして、第1操作ボタン24の操作により、ロボットの自律走行が再開される(ステップS22のYes,S23)。図7では、説明の便宜上、ステップS20に進んだ場合にロボットは再度手動走行しないフローとなっているが、手動走行モードは第2操作ボタン25が操作されるまで継続される。即ち、制御装置15は、手動走行モードにおいて、第1操作ボタン24が操作される度に手動走行を実行する。
 以上のように、上記構成を備えた自律移動ロボット1によれば、ハンドル20の把持部22において、第1操作ボタン24が上面22Aに配置され、第2操作ボタン25が側面22Dに配置されるため、良好な操作性を確保しつつ、誤操作を効果的に抑制できる。
 つまり、第2操作ボタン25が把持部22に設けられることで、手動走行モードへの切り替えが容易になる一方、第2操作ボタン25は把持部22の側面22Dに設けられるため、第2操作ボタン25の誤操作が発生し難い。2つの操作ボタンの操作面は、互いに近接配置されているが、90°異なる方向を向いている。このため、第1操作ボタン24を操作しようとする際に誤って第2操作ボタン25が操作されるような不具合が生じ難い。意図的な走行モードの切り替えは容易である一方、意図しない走行モードの切り替えについては効果的に抑制される。
 ユーザーは、自律移動ロボット1に誘導されて目的地に向かう途中で、自律走行モードから手動走行モードに切り替えることにより、目標経路から外れた場所に自由に立ち寄ることができる。手動走行モードは、例えば、目的地に向かう途中で知人と出会って会話すること、ショッピングをすること、ベンチに座って休憩することなどを可能とし、ユーザビリティを向上させる。また、ハンドル20の付け根に設けられた力覚センサ30の機能により、手動走行モードにおけるロボットの操作性が大きく向上する。
 自律移動ロボット1では、力覚センサ30の検出情報を用いてロボットを制御することにより、ボタン、スイッチ、或いはジョイスティックなどを用いたロボット操作と比べて、より直感的なロボット操作が可能である。さらに、力覚センサ30を利用して目的地設定等のロボットの走行に必要な情報を設定可能とすることにより、ハンドル20に設けられた操作部は上記2つの操作ボタンのみとなる。このため、視覚障害者であっても簡単に操作できる。つまり、自律移動ロボット1の操作には視覚情報が特に必要なく、視覚障害者のアクセシビリティに優れる。
 なお、自律移動ロボット1の構成は、上記の変形例以外にも、本発明の目的を損なわない範囲で適宜設計変更できる。
 上記実施形態では、記憶部を含む制御装置15がロボット本体10に設けられているものとして説明したが、例えば、自律走行の目的地情報等のユーザーデータが記憶された記憶部がハンドル20に設けられていてもよい。また、ハンドル20は、上記のように、ロボット本体10に対して着脱自在であってもよく、ユーザー各自が所持するものであってもよい。この場合、ユーザーは、各自のハンドル20をロボット本体10に取り付け、ハンドル20の記憶部からユーザーデータをロボット本体10に送信することにより、各ユーザーに適したロボットの設定を簡単に行うことができる。本発明に係る自律移動ロボットのハンドルには、例えば、特開2022-76648号公報に開示された構成を組み込むことが可能である。
 1 自律移動ロボット、10 ロボット本体、11 ハウジング、12 車輪、13 駆動装置、14 バッテリ、15 制御装置、16A 加速度センサ、16B 距離センサ、17 カメラ、18 通信装置、19 フレーム、20 ハンドル、21 支持部、21A アーム、21B 取り付け板、22 把持部、22A 上面、22B 下面、22C,22D 側面、23 振動ロータ、24 第1操作ボタン、25 第2操作ボタン、30 力覚センサ
 

Claims (14)

  1.  ユーザーの移動を支援する自律移動ロボットであって、
     目的地に向かって自律走行する自律走行モード、および走行状態を手動で制御可能な手動走行モードで走行可能に構成されたロボット本体と、
     前記ロボット本体に取り付けられたハンドルと、
     を備え、
     前記ハンドルは、前記ロボット本体を走行させるための第1操作部と、前記ロボット本体のモードを切り替えるための第2操作部とを有し、
     前記第1操作部は、前記ハンドルの第1の領域に設けられ、
     前記第2操作部は、前記第1の領域と異なる方向を向いた前記ハンドルの第2の領域に設けられている、自律移動ロボット。
  2.  前記ハンドルは、前記ロボット本体の移動方向に延びた把持部を有し、
     前記第1操作部および前記第2操作部は、前記把持部に設けられている、請求項1に記載の自律移動ロボット。
  3.  前記ハンドルの前記第1の領域は、前記ロボット本体の高さ方向上側を向いた前記把持部の上面である、請求項2に記載の自律移動ロボット。
  4.  前記ハンドルの前記第2の領域は、前記把持部の側面である、請求項3に記載の自律移動ロボット。
  5.  前記ハンドルは、前記ロボット本体の高さ方向に延びたアームを有し、
     前記把持部は、前記アームの先端側に設けられ、
     前記第2操作部は、前記ロボット本体の側面視において、前記アームと前記高さ方向に重なる位置に設けられている、請求項4に記載の自律移動ロボット。
  6.  前記第2操作部は、前記第1操作部より小さい、請求項1~5のいずれか一項に記載の自律移動ロボット。
  7.  前記第1操作部および前記第2操作部の操作信号に基づいて、前記ロボット本体の動作を制御する制御装置をさらに備え、
     前記制御装置は、前記ロボット本体の停止状態で前記第2操作部が操作された場合に、前記ロボット本体のモードを前記手動走行モードに遷移させる、請求項1~5のいずれか一項に記載の自律移動ロボット。
  8.  前記ハンドルに加わる力の大きさと方向を検出するセンサをさらに備え、
     前記制御装置は、前記センサの検出情報に基づいて、前記ロボット本体の走行に必要な情報を設定する、請求項7に記載の自律移動ロボット。
  9.  ユーザーの移動を支援する自律移動ロボットであって、
     自律走行機能を有するロボット本体と、
     前記ロボット本体に取り付けられ、前記ロボット本体の高さ方向に延びたハンドルと、
     前記ハンドルに加わる力の大きさと方向を検出するセンサと、
     前記センサの検出情報に基づいて、前記ロボット本体の動作を制御する制御装置と、
     を備え、
     前記センサは、前記ハンドルの付け根に設けられている、自律移動ロボット。
  10.  前記ハンドルは、前記ロボット本体の高さ方向に延びるアームと、前記アームの付け根が固定された取り付け板と、前記アームの先端側に設けられた把持部とを有し、
     前記センサは、前記取り付け板の直下に配置されている、請求項9に記載の自律移動ロボット。
  11.  前記アームは、前記ロボット本体の前後方向に間隔をあけて2本配置され、
     前記把持部は、2本の前記アームにわたって設けられている、請求項10に記載の自律移動ロボット。
  12.  前記制御装置は、前記センサの検出情報に基づいて、前記ロボット本体の走行に必要な情報を設定する、請求項9~11のいずれか一項に記載の自律移動ロボット。
  13.  前記ロボット本体の走行に必要な情報は、自律走行の目的地および前記ロボット本体の走行速度から選択される少なくとも1つである、請求項11に記載の自律移動ロボット。
  14.  前記センサは、少なくとも前記ロボット本体の前後方向および左右方向の力を検出可能に構成されている、請求項8~13のいずれか一項に記載の自律移動ロボット。
     
PCT/JP2023/032384 2022-10-07 2023-09-05 自律移動ロボット WO2024075461A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022162163A JP2024055331A (ja) 2022-10-07 2022-10-07 自律移動ロボット
JP2022-162163 2022-10-07
JP2022162162A JP2024055330A (ja) 2022-10-07 2022-10-07 自律移動ロボット
JP2022-162162 2022-10-07

Publications (1)

Publication Number Publication Date
WO2024075461A1 true WO2024075461A1 (ja) 2024-04-11

Family

ID=90607813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/032384 WO2024075461A1 (ja) 2022-10-07 2023-09-05 自律移動ロボット

Country Status (1)

Country Link
WO (1) WO2024075461A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249719A (ja) * 2000-03-07 2001-09-14 Atex Co Ltd 作業車の走行制御装置
JP2002036152A (ja) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd 自律移動ロボット
JP2018000383A (ja) * 2016-06-29 2018-01-11 パナソニックIpマネジメント株式会社 歩行支援ロボット及び歩行支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249719A (ja) * 2000-03-07 2001-09-14 Atex Co Ltd 作業車の走行制御装置
JP2002036152A (ja) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd 自律移動ロボット
JP2018000383A (ja) * 2016-06-29 2018-01-11 パナソニックIpマネジメント株式会社 歩行支援ロボット及び歩行支援方法

Similar Documents

Publication Publication Date Title
JP7360427B2 (ja) ゲームコントローラ用アタッチメント
US8471722B2 (en) Direction indicator system, and electric wheelchair, walking stick, and game controller utilizing said direction indicator system
EP2954883B1 (en) Movement assistance robot
EP1585015B1 (en) User interface device
JPWO2011036849A1 (ja) ベッドおよび合体方法
US20100171464A1 (en) System and Method For Charging A Mobile Device
KR20210073032A (ko) 충전 장치
JP2009131914A (ja) ロボット制御システム
WO2024075461A1 (ja) 自律移動ロボット
US20050052416A1 (en) Pointing device
JP2024055331A (ja) 自律移動ロボット
JP2024055330A (ja) 自律移動ロボット
US8957850B2 (en) Hand-held communication devices with finger navigation user interface
KR101838889B1 (ko) 조이스틱 기반의 전동 휠체어 제어 시스템 및 방법
JP6306769B2 (ja) 移動補助ロボット
JP6230747B1 (ja) ゲームコントローラ用アタッチメント
JP6151468B1 (ja) 付属装置
US20110199179A1 (en) Proportional joystick with integral switch
Evans III et al. Control solutions for robots using Android and iOS devices
KR20170045847A (ko) 전동 휠체어 기반의 제어 시스템 및 방법
WO2017013473A1 (es) Dispositivo de detección espacial
Kamiuchi et al. A novel human interface of an omni-directional wheelchair
Nakanishi et al. Design and Development of Shimizu Version AI suitcase: Navigation Assistive Robot for Visually Impaired People
KR101111285B1 (ko) 본체가 분리되는 장애인용 마우스
CN210466329U (zh) 输入系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23874590

Country of ref document: EP

Kind code of ref document: A1