WO2024071166A1 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
WO2024071166A1
WO2024071166A1 PCT/JP2023/035069 JP2023035069W WO2024071166A1 WO 2024071166 A1 WO2024071166 A1 WO 2024071166A1 JP 2023035069 W JP2023035069 W JP 2023035069W WO 2024071166 A1 WO2024071166 A1 WO 2024071166A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
user
control unit
breathing
expansion
Prior art date
Application number
PCT/JP2023/035069
Other languages
English (en)
French (fr)
Inventor
理人 福島
健吾 山内
啓太 清島
裕介 清水
Original Assignee
日東電工株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日東電工株式会社 filed Critical 日東電工株式会社
Publication of WO2024071166A1 publication Critical patent/WO2024071166A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls

Definitions

  • the present invention relates to a robot.
  • Robots that provide comfort to users by interacting with them have been known for some time now (see, for example, Patent Document 1).
  • Patent Document 2 discloses a device that has a breathing sensor that is disposed on a huggable main body and detects the breathing rate of the user hugging the main body, an expansion/contraction mechanism that is built into the main body and expands/contracts the side of the main body that comes into contact with the hugged user, and an expansion/contraction control unit that drives and controls the expansion/contraction mechanism.
  • a robot that provides healing to the user is required to naturally guide the user's breathing in order to relax the user.
  • the aim of the present invention is to provide a robot that can naturally guide the user's breathing.
  • the robot according to one aspect of the present invention is a robot capable of guiding a user's breathing, and includes an exterior member, a first detection unit that acquires information related to the user's breathing, and a control unit that controls the operation of the robot so as to induce the user's breathing to a predetermined state based on the information acquired by the first detection unit.
  • the present invention provides a robot that can naturally guide the user's breathing.
  • FIG. 1 is a perspective view illustrating a robot according to an embodiment.
  • FIG. 2 is a side view of the robot of FIG. 1 .
  • 3 is a cross-sectional view taken along line III-III in FIG. 2.
  • FIG. 1 is a diagram illustrating a configuration of a camera according to an embodiment.
  • FIG. 2 is a diagram illustrating a configuration of a vital sensor according to an embodiment.
  • 1A and 1B are diagrams illustrating a configuration of an expansion/contraction mechanism according to an embodiment.
  • 4 is a block diagram illustrating a hardware configuration of a control unit according to the embodiment.
  • FIG. 3 is a block diagram illustrating a functional configuration of a control unit according to the first embodiment.
  • FIGS. 4A to 4C are diagrams illustrating an example of respiration guidance by the robot according to the first embodiment.
  • 6 is a flowchart illustrating a process by a control unit according to the first embodiment.
  • FIG. 11 is a block diagram illustrating a functional configuration of a control unit according to a second embodiment.
  • 10 is a flowchart illustrating a process by a control unit according to a second embodiment.
  • 13A and 13B are diagrams illustrating an example of the arrangement of an expansion/contraction mechanism in a robot according to a third embodiment.
  • 13 is a diagram illustrating an example of the configuration of an expansion/contraction mechanism in a robot according to a third embodiment.
  • Fig. 1 is a perspective view illustrating the robot 100 according to the embodiment.
  • Fig. 2 is a side view of the robot 100.
  • Fig. 3 is a cross-sectional view taken along the line III-III in Fig. 2.
  • the robot 100 has an exterior member 10 and is operable by power supplied to it.
  • the robot 100 exemplified in this specification is a doll-type communication robot modeled after a baby bear.
  • the robot 100 is manufactured to a size and weight suitable for a user to embrace.
  • the user refers to the user of the robot 100.
  • Representative examples of users include working people living alone, seniors whose children have become independent, and frail elderly people who are the recipients of home medical care.
  • the user may include not only the user of the robot 100, but also a person who simply comes into contact with the robot 100, such as the manager of the robot 100.
  • the term "embracing” may be replaced with the term "holding”.
  • the robot 100 can induce the breathing of the user.
  • the user corresponds to a "person" who breathes. Breathing is the only autonomic nerve function of a "person” that can be consciously changed from the outside.
  • the robot 100 can induce and synchronize the user's breathing rhythm with the slow breathing rhythm by making the user feel the rhythm of the slow breathing.
  • breathing characteristics that the robot 100 can induce include breathing speed, breathing frequency, number of breaths, breathing depth, breathing amplitude, etc.
  • the robot 100 can activate the user's parasympathetic nerves and relax the user.
  • the exterior member 10 may be flexible.
  • the exterior member 10 includes, for example, a soft material that is comfortable to the touch when the user of the robot 100 touches the robot 100.
  • the exterior member 10 may be flexible by including at least one of an elastic body and a porous body.
  • the material of the exterior member 10 may include an organic material such as urethane foam, rubber, resin, or fiber.
  • the exterior member 10 is preferably composed of an exterior such as a urethane foam material having thermal insulation properties and a soft cloth material covering the outer surface of the exterior.
  • the exterior member 10 has flexibility by including, for example, at least one of an elastic body and a porous body, so that the user can feel the softness of the robot 100. This reduces the sense of restraint and resistance, and promotes communication between the user and the robot 100.
  • the robot 100 has, as an example, a torso 1, a head 2, arms 3, and legs 4.
  • the head 2 has a right eye 2a, a left eye 2b, a mouth 2c, a right cheek 2d, and a left cheek 2e.
  • the arms 3 include a right arm 3a and a left arm 3b, and the legs 4 include a right leg 4a and a left leg 4b.
  • the torso 1 corresponds to the robot body.
  • the part of the torso 1 of the robot 100 on the side where the nose 5 of the robot 100 is located is the abdomen 191 of the robot 100.
  • the part of the torso 1 of the robot 100 opposite the side where the nose 5 of the robot 100 is located is the back 192 of the robot 100.
  • the head 2, arms 3 and legs 4 correspond to a driving body that is connected to the robot body so as to be displaceable relative to the robot body.
  • the driving body includes the arms 3 that are connected to the robot body of the robot 100 so as to be displaceable relative to the robot body.
  • the robot 100 can induce breathing in the user by controlling at least one of the following actions: wrapping the arms 3 around a part of the user's body, applying pressure to the user's skin with the arms 3, and stroking a part of the user's body with the arms 3.
  • the arms 3 are configured to be displaceable relative to the torso 1.
  • the right arm 3a and the left arm 3b are displaced and come into contact with the user's neck, torso, etc. as if hugging the user.
  • This action makes the user feel a sense of closeness to the robot 100, promoting interaction between the user and the robot 100.
  • interaction with the user refers to actions in which the user and the robot 100 come into contact with each other (actions of contact), such as stroking, tapping (touching), and hugging (embracing each other).
  • the torso 1, head 2, arms 3, and legs 4 are all covered with exterior members 10.
  • the exterior members on the torso 1 and the arms 3 are integrated, and the exterior members on the head 2 and legs 4 are separate from the exterior members on the torso 1 and arms 3.
  • this is not limited to the above configuration, and for example, only the parts of the robot 100 that are likely to be touched by the user may be covered with the exterior members 10.
  • at least one of the exterior members 10 on each of the torso 1, head 2, arms 3, and legs 4 may be separate from the other exterior members.
  • the parts of the head 2, arms 3, and legs 4 that do not displace may not include components such as sensors inside, and may be composed only of the exterior members 10.
  • the robot 100 has a camera 11, a tactile sensor 12, a control unit 13, a vital sensor 14, a battery 15, an expansion/contraction mechanism 18, a first capacitance sensor 21, and a second capacitance sensor 31 inside the exterior member 10.
  • the robot 100 also has a tactile sensor 12, a control unit 13, a vital sensor 14, a battery 15, and an expansion/contraction mechanism 18 inside the exterior member 10 in the torso 1.
  • the robot 100 also has a camera 11 and a first capacitance sensor 21 inside the exterior member 10 in the head 2, and a second capacitance sensor 31 inside the exterior member 10 in the arm 3.
  • the robot 100 also has a display 24, a speaker 25, and a light 26 inside the exterior member 10 in the head 2.
  • the robot 100 also has a display 24 inside the exterior member 10 in the right eye 2a and left eye 2b.
  • the robot 100 has a speaker 25 inside the exterior member 10 in the mouth 2c, and a light 26 inside the exterior member 10 in the right cheek 2d and left cheek 2e.
  • the robot 100 has a torso frame 16 and a torso mounting base 17 on the inside of the exterior member 10 in the torso 1.
  • the robot 100 also has a head frame 22 and a head mounting base 23 on the inside of the exterior member 10 in the head 2.
  • the robot 100 further has a right arm frame 32a and a right arm mounting base 33 on the inside of the exterior member 10 in the right arm 3a, and a left arm frame 32b on the inside of the exterior member 10 in the left arm 3b.
  • the robot 100 has a right leg frame 42a on the inside of the exterior member 10 in the right leg 4a, and a left leg frame 42b on the inside of the exterior member 10 in the left leg 4b.
  • the torso frame 16, head frame 22, right arm frame 32a, left arm frame 32b, right leg frame 42a, and left leg frame 42b are each structures formed by combining multiple columnar members.
  • the torso support platform 17, head support platform 23, and right arm support platform 33 are plate-like members having a support surface.
  • the torso support platform 17 is fixed to the torso frame 16, the head support platform 23 is fixed to the head frame 22, and the right arm support platform 33 is fixed to the right arm frame 32a.
  • the torso frame 16, head frame 22, right arm frame 32a, left arm frame 32b, right leg frame 42a, and left leg frame 42b may be formed in a box shape including multiple plate-like members.
  • the right arm frame 32a is connected to the torso frame 16 via a right arm connecting mechanism 34a, and is driven by a right arm servo motor 35a, so that it can be displaced relative to the torso frame 16. As the right arm frame 32a is displaced, the right arm 3a is displaced relative to the torso 1.
  • the right arm connecting mechanism 34a preferably has, for example, a reducer that increases the output torque of the right arm servo motor 35a.
  • the right arm frame 32a is composed of a multi-joint robot arm including multiple frame members and multiple connecting mechanisms.
  • the right arm frame 32a has a right shoulder frame F1a, a right right arm frame F2a, a right elbow frame F3a, and a right forearm frame F4a.
  • the torso frame 16, right shoulder frame F1a, right right arm frame F2a, right elbow frame F3a, and right forearm frame F4a are each connected to each other via a connecting mechanism.
  • Right arm servo motor 35a is a general term for multiple servo motors.
  • right arm servo motor 35a has a right shoulder servo motor M1a, a right right arm servo motor M2a, a right elbow servo motor M3a, and a right forearm servo motor M4a.
  • the right shoulder servo motor M1a rotates the right shoulder frame F1a around a rotation axis perpendicular to the torso frame 16.
  • the right right arm servo motor M2a rotates the right right arm frame F2a around a rotation axis perpendicular to the rotation axis of the right shoulder frame F1a.
  • the right elbow servo motor M3a rotates the right elbow frame F3a around a rotation axis perpendicular to the rotation axis of the right right arm frame F2a.
  • the right forearm servo motor M4a rotates the right forearm frame F4a around a rotation axis perpendicular to the rotation axis of the right elbow frame F3a.
  • the left arm frame 32b is connected to the torso frame 16 via a left arm connecting mechanism 34b, and is driven by a left arm servo motor 35b, so that it can be displaced relative to the torso frame 16. As the left arm frame 32b is displaced, the left arm 3b is displaced relative to the torso 1.
  • the left arm connecting mechanism 34b preferably has, for example, a reducer that increases the output torque of the left arm servo motor 35b.
  • the left arm frame 32b is composed of a multi-joint robot arm including multiple frame members and multiple connecting mechanisms.
  • the left arm frame 32b has a left shoulder frame F1b, a left upper arm frame F2b, a left elbow frame F3b, and a left forearm frame F4b.
  • the torso frame 16, the left shoulder frame F1b, the left upper arm frame F2b, the left elbow frame F3b, and the left forearm frame F4b are each connected to one another via a connecting mechanism.
  • Left arm servo motor 35b is a general term for multiple servo motors.
  • left arm servo motor 35b has a left shoulder servo motor M1b, a left upper arm servo motor M2b, a left elbow servo motor M3b, and a left forearm servo motor M4b.
  • the left shoulder servo motor M1b rotates the left shoulder frame F1b around a rotation axis perpendicular to the torso frame 16.
  • the left upper arm servo motor M2b rotates the left upper arm frame F2b around a rotation axis perpendicular to the rotation axis of the left shoulder frame F1b.
  • the left elbow servo motor M3b rotates the left elbow frame F3b around a rotation axis perpendicular to the rotation axis of the left upper arm frame F2b.
  • the left forearm servo motor M4b rotates the left forearm frame F4b around a rotation axis perpendicular to the rotation axis of the left elbow frame F3b.
  • the arm 3 has four-axis joints, allowing the robot 100 to achieve highly realistic movements. Highly realistic movements are natural movements of animals, including humans. In this embodiment, highly realistic movements correspond to natural movements of the robot 100 as a baby bear.
  • the head frame 22 is connected to the torso frame 16 via a head connection mechanism 27, and is driven by a head servomotor 35c, allowing it to be displaced relative to the torso frame 16. As the head frame 22 is displaced, the head 2 is displaced relative to the torso 1.
  • the head connection mechanism 27 preferably has, for example, a reducer that increases the output torque of the head servomotor 35c.
  • the head frame 22 has a neck frame F1c and a face frame F2c.
  • the torso frame 16, the neck frame F1c, and the face frame F2c are each connected to each other via a connecting mechanism.
  • Head servo motor 35c is a general term for multiple servo motors.
  • the head servo motor 35c has a neck servo motor M1c and a face servo motor M2c.
  • the neck servo motor M1c rotates the neck frame F1c around a rotation axis perpendicular to the torso frame 16.
  • the face servo motor M2c rotates the face frame F2c around a rotation axis perpendicular to the rotation axis of the neck frame F1c.
  • the robot 100 can achieve more realistic movements.
  • the right leg frame 42a is connected to the torso frame 16 via a right leg connecting mechanism 44a, and has a right leg wheel 41a on the bottom side.
  • the robot 100 has two right leg wheels 41a in the front-to-rear direction of the right leg frame 42a.
  • the right leg wheel 41a is driven by the right leg servo motor 35d and can rotate around an axis of rotation perpendicular to the front-to-rear direction of the right leg frame 42a.
  • the rotation of the right leg wheel 41a enables the robot 100 to run.
  • the right leg connecting mechanism 44a preferably has a reducer that increases the output torque of the right leg servo motor 35d, for example.
  • the left leg frame 42b is connected to the torso frame 16 via a left leg connecting mechanism 44b, and has a left leg wheel 41b on the bottom side.
  • the robot 100 has two left leg wheels 41b in the front-to-rear direction of the left leg frame 42b.
  • the left leg wheel 41b is driven by the left leg servo motor 35e and can rotate around an axis of rotation perpendicular to the front-to-rear direction of the left leg frame 42b.
  • the rotation of the left leg wheel 41b enables the robot 100 to run.
  • the left leg connecting mechanism 44b preferably has a reducer that increases the output torque of the left leg servo motor 35e, for example.
  • the robot 100 moves forward or backward by simultaneously rolling the right leg wheel 41a and the left leg wheel 41b forward or backward.
  • the robot 100 turns right or left by braking either the right leg wheel 41a or the left leg wheel 41b and rolling the other forward or backward. In this way, the legs 4 allow the robot 100 to achieve more realistic movements.
  • the tactile sensor 12, the control unit 13, the vital sensor 14, and the battery 15 are fixed to the torso mounting base 17.
  • the control unit 13 and the battery 15 are fixed to the side of the torso mounting base 17 opposite to the side to which the tactile sensor 12 and the vital sensor 14 are fixed.
  • the arrangement of the control unit 13 and the battery 15 here is based on the available space on the torso mounting base 17, and is not necessarily limited to the above.
  • the center of gravity of the robot 100 will be lowered because the battery 15 is heavier than the other components.
  • a low center of gravity of the robot 100 is preferable because at least one of the position and posture of the robot 100 is stabilized, and at least one of charging and replacing the battery 15 is easier to perform.
  • the first capacitance sensor 21 is fixed to the head rest 23, and the second capacitance sensor 31 is fixed to the right arm rest 33.
  • the display 24 has a right eye display 24a and a left eye display 24b.
  • the right eye display 24a, the left eye display 24b and the speaker 25 are fixed to the head frame 22.
  • the light 26 has a right cheek light 26a and a left cheek light 26b.
  • the right cheek light 26a and the left cheek light 26b are fixed to the head frame 22.
  • the tactile sensor 12, the control unit 13, the vital sensor 14, the battery 15, the first capacitance sensor 21, the second capacitance sensor 31, etc. can be fixed with screws or adhesive members, etc.
  • the right eye display 24a, the left eye display 24b, the speaker 25, the right cheek light 26a, the left cheek light 26b, etc. can also be fixed with screws or adhesive members, etc.
  • the materials used for the torso frame 16, torso mounting platform 17, head frame 22, head mounting platform 23, right arm frame 32a, right arm mounting platform 33, and left arm frame 32b and resin or metal materials can be used.
  • a metal material such as aluminum for the torso frame 16, right arm frame 32a, and left arm frame 32b.
  • a resin material for these parts in order to reduce the weight of the robot 100.
  • the control unit 13 controls the overall operation of the robot 100.
  • the control unit 13 can control the operation of the robot 100 so as to guide the user's breathing to a predetermined state based on the output from the camera 11.
  • the control unit 13 is communicatively connected to the camera 11, the tactile sensor 12, the vital sensor 14, the first capacitance sensor 21, the second capacitance sensor 31, the right arm servo motor 35a, and the left arm servo motor 35b, either by wire or wirelessly.
  • the control unit 13 is also communicatively connected to the head servo motor 35c, the right leg servo motor 35d, and the left leg servo motor 35e, either by wire or wirelessly.
  • the control unit 13 is also communicatively connected to the right eye display 24a, the left eye display 24b, the speaker 25, the right cheek light 26a, and the left cheek light 26b, either by wire or wirelessly.
  • the camera 11 is an image sensor that outputs captured images of the periphery of the robot 100 to the control unit 13.
  • the camera 11 is an example of an image capture unit that captures an image of the user.
  • the camera 11 is also an example of a first detection unit that acquires information related to the user's breathing.
  • the camera 11 is also an example of an image sensor that acquires information related to the user's breathing based on the captured image of the user.
  • the camera 11 is disposed at a position corresponding to the bear cub's nose 5 on the inside of the exterior member 10.
  • the camera 11 can be fixed with an adhesive material or the like. The configuration of the camera 11 will be described in detail separately with reference to FIG. 4.
  • the tactile sensor 12 is a sensor element that acquires information sensed by the sense of touch in the human hand, etc., converts it into a tactile signal, which is an electrical signal, and outputs it to the control unit 13.
  • the tactile sensor 12 converts information about pressure or vibration caused by a user touching the robot 100 into a tactile signal using a piezoelectric element, and outputs it to the control unit 13.
  • the tactile signal output from the tactile sensor 12 is used to detect the user's contact with or proximity to the robot 100.
  • the vital sensor 14 is an example of a first detection unit that acquires information related to the user's breathing.
  • the vital sensor 14 is also an example of an electromagnetic wave sensor that acquires information related to the user's breathing using electromagnetic waves.
  • the vital sensor 14 is also an example of a second detection unit that acquires information related to at least one of the user's pulse, heart rate, blood pressure, and pulse pressure.
  • the vital sensor 14 may be disposed inside the exterior member 10 of the robot 100. The configuration of the vital sensor 14 will be described in detail separately with reference to FIG. 5.
  • the expansion/contraction mechanism 18 is a mechanism that can expand and contract the torso 1 of the robot 100. In this embodiment, the expansion/contraction mechanism 18 is used to guide the user's breathing. The configuration of the expansion/contraction mechanism 18 will be described in detail later with reference to FIG. 6.
  • the first capacitance sensor 21 and the second capacitance sensor 31 are sensor elements that detect when the user has come into contact with or proximity to the robot 100 based on a change in capacitance and output a capacitance signal to the control unit 13.
  • the first capacitance sensor 21 is preferably a rigid sensor that does not have flexibility in terms of stabilizing the exterior member 10. Since the arm 3 is a part that the user can easily touch, the second capacitance sensor 31 is preferably a flexible sensor that includes conductive thread or the like in terms of improving the feel.
  • the capacitance signals output from the first capacitance sensor 21 and the second capacitance sensor 31 are used to detect when the user has come into contact with or proximity to the robot 100.
  • the right eye display 24a and the left eye display 24b are display modules that display character strings or images such as letters, numbers, and symbols in response to commands from the control unit 13.
  • the right eye display 24a and the left eye display 24b are, for example, configured with liquid crystal display modules.
  • the character strings or images displayed on the right eye display 24a and the left eye display 24b may be used to express emotions of the robot 100.
  • the robot 100 can implicitly induce interaction with a user by displaying a "laughing" image on the right eye display 24a and the left eye display 24b to a user who is sitting with happy emotions, thereby empathizing with the happiness.
  • the speaker 25 is a speaker unit that amplifies the audio signal from the control unit 13 and outputs sound.
  • the sound output from the speaker 25 is the words or cries of the robot 100, and may be used to express the emotions of the robot 100, etc.
  • the right cheek light 26a and the left cheek light 26b are examples of light-emitting units provided on the head 2 of the robot 100.
  • the right cheek light 26a and the left cheek light 26b are light modules that change at least one of the blinking speed, the brightness of the light, and the color of the light.
  • the right cheek light 26a and the left cheek light 26b are configured, for example, with an LED (Light Emitting Diode) light module.
  • the robot 100 can induce breathing for the user by changing at least one of the blinking speed, the brightness of the light, and the color of the light of the right cheek light 26a and the left cheek light 26b.
  • the battery 15 is a power source that supplies power to the camera 11, tactile sensor 12, control unit 13, vital sensor 14, first capacitance sensor 21, second capacitance sensor 31, right arm servo motor 35a, and left arm servo motor 35b.
  • the battery 15 also supplies power to the head servo motor 35c, right leg servo motor 35d, and left leg servo motor 35e.
  • the battery 15 also supplies power to the right eye display 24a, left eye display 24b, speaker 25, right cheek light 26a, and left cheek light 26b.
  • Various types of secondary batteries such as lithium ion batteries and lithium polymer batteries can be used for the battery 15.
  • the installation positions of the various sensors such as the tactile sensor 12, the first capacitance sensor 21, the second capacitance sensor 31, etc. in the robot 100 can be changed as appropriate.
  • the various sensors such as the tactile sensor 12, the first capacitance sensor 21, the second capacitance sensor 31, etc. may be placed outside the robot 100 and transmit necessary information to the robot 100 or an external device via wireless communication.
  • the robot 100 does not necessarily have to have the control unit 13 inside the exterior member 10, and the control unit 13 can also wirelessly communicate with each device from outside the exterior member 10.
  • the battery 15 can also supply power to each component from outside the exterior member 10.
  • a configuration in which the head 2, arms 3, and legs 4 are displaceable is exemplified, but this is not limited to the above, and at least one of the head 2, arms 3, and legs 4 may be displaceable.
  • the arms 3 are configured as a four-axis articulated robot arm, but may also be configured as a six-axis articulated robot arm. It is preferable that an end effector such as a hand can be connected to the arms 3.
  • the legs 4 are configured as wheels, but may also be configured as crawlers, legs, or the like.
  • the configuration and shape of the robot 100 are not limited to those exemplified in this embodiment, and can be modified as appropriate according to the user's preferences and the manner in which the robot 100 is used.
  • the robot 100 may have a form other than that of a baby bear, or a humanoid form such as a humanoid.
  • the robot 100 may also have the form of a mobile device such as a drone or vehicle that has at least one of an arm, a display, a speaker, and a light.
  • ⁇ Configuration example of camera 11> 4 is a diagram showing an example of the configuration of the camera 11.
  • the camera 11 has a photographing light source 201, a wavelength filter 202, a lens 203, and an image sensor 204.
  • the camera 11 is camouflaged so as to be difficult to see from outside the robot 100, and is placed near the surface of the robot 100.
  • the light source 201 for photography irradiates the user 200 with irradiation light L of a predetermined peak wavelength.
  • the predetermined peak wavelength is non-visible light such as near-infrared light.
  • the wavelength filter 202 is an optical element that transmits light of a wavelength near the peak wavelength in the irradiation light L from the light source 201 for photography.
  • the lens 203 forms an image of the user 200, etc. on the imaging surface of the imaging element 204 using the reflected light R of the irradiation light L from the light source 201 for photography by the user 200, etc.
  • the imaging element 204 outputs a photographed image Im that captures the image formed by the lens 203 to the control unit 13.
  • the control unit 13 can acquire respiratory characteristic information of the user 200 based on the photographed image Im.
  • the respiratory characteristic information includes information indicating the respiratory characteristic, information related to the respiratory characteristic, etc. From the viewpoint of being able to acquire respiratory characteristic information from the photographed image Im, the photographed image Im output from the imaging element 204 corresponds to information regarding the user's breathing.
  • the imaging element can be a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor).
  • the captured image can be either a still image or a video.
  • the wavelength filter 202 is arranged to camouflage the lens 203 and the image sensor 204 so that they are difficult to see from the outside of the robot 100.
  • the camera 11 photographs the user 200 using light from the photographing light source 201 that is reflected by the user 200 and transmitted through the wavelength filter 202.
  • the nose 5 is a part that the user 200 has less chance of touching compared to the torso 1, head 2, arms 3, etc. Therefore, by arranging the camera 11 in the nose 5, the user 200 is less likely to touch the camera 11. This can reduce the discomfort of the touch caused by the surface of the camera 11 being harder than the surface of the exterior member 10 when the user 200 touches the robot 100. Even if the user 200 touches the nose 5, the touch of the nose 5 is not very unnatural even if it feels different from the torso 1, head 2, arms 3, etc., so that the discomfort of the touch can be reduced.
  • the position where the camera 11 is placed is not limited to the nose part 5, but may be other parts such as the mouth or eyes, as long as the same effect as the above-mentioned placement on the nose part 5 is obtained.
  • the camera 11 is not limited to being placed inside the exterior member 10, but may be placed outside the exterior member 10. When the camera 11 is placed outside the exterior member 10, it is not necessarily required to camouflage the camera 11 so that it is difficult to see, and therefore the camera 11 does not need to have a wavelength filter 202 for camouflage.
  • the image Im captured by the camera 11 is used to acquire breathing characteristic information, and may also be used for other purposes, such as personal authentication of the user 200.
  • Multiple cameras may be provided at multiple locations on the robot 100 for different purposes.
  • the first detection unit is not limited to the camera 11, but may be an electromagnetic wave sensor such as a Doppler sensor that uses electromagnetic waves such as microwaves and millimeter waves.
  • the first detection unit may include at least one of an electromagnetic wave sensor that uses electromagnetic waves to obtain information about the user's breathing, and an image sensor that obtains information about the user's breathing based on a captured image of the user.
  • a microwave Doppler sensor as an electromagnetic wave sensor can detect vibrations on the body surface of the user 200 caused by breathing, and output information related to the breathing of the user 200 by signal processing based on the detected vibrations.
  • the vibration period output from the microwave Doppler sensor corresponds to the breathing rate, frequency, etc.
  • the vibration frequency output from the microwave Doppler sensor corresponds to the breathing frequency.
  • the vibration amplitude output from the microwave Doppler sensor corresponds to the breathing depth, etc.
  • the vital sensor 14 described below with reference to FIG. 5 can be applied to the microwave Doppler sensor. Since the electromagnetic wave sensor does not use a captured image, it is easier to arrange it inside the exterior member 10 than the camera 11. By arranging the first detection unit inside the exterior member 10, the user cannot see the first detection unit. As a result, the robot 100 reduces the user's resistance to having information related to his or her breathing obtained, and makes it possible to smoothly obtain information related to the user's breathing.
  • the camera 11 may be used as a second detector that acquires information regarding at least one of the user's pulse, heart rate, blood pressure, and pulse pressure.
  • the emitted light L and the reflected light R correspond to electromagnetic waves used to acquire biometric information.
  • ⁇ Configuration example of vital sensor 14> 5 is a diagram illustrating an example of the configuration of the vital sensor 14.
  • the vital sensor 14 is a microwave Doppler sensor including a microwave emitting unit 141 and a microwave receiving unit 142.
  • Microwaves are an example of electromagnetic waves.
  • the vital sensor 14 emits a microwave emitted wave Ms from the inside of the exterior member 10 toward the user 200 using the microwave emitter 141.
  • the vital sensor 14 also receives a reflected wave Mr, which is the emitted wave Ms reflected by the user 200, using the microwave receiver 142.
  • the vital sensor 14 uses the Doppler effect to non-contact detect minute displacements occurring on the body surface of the user 200 due to factors such as the beating of the heart of the user 200 from the difference in frequency between the emitted wave Ms and the reflected wave Mr.
  • the vital sensor 14 can obtain information on the user 200's biometric information, such as heart rate, breathing, pulse waves, blood pressure, and pulse pressure, from the detected minute displacements, and output this information to the control unit 13.
  • Breathing information includes breathing rate, rhythm, breathing depth, etc.
  • the pulse wave includes pulse, pulse interval R-R, pulse wave waveform, pulse wave propagation velocity, etc.
  • the vital sensor 14 is not limited to a microwave Doppler sensor, but may be one that detects minute displacements occurring on the body surface by utilizing changes in the coupling between the human body and an antenna, or may be one that utilizes electromagnetic waves other than microwaves, such as near-infrared light.
  • the vital sensor 14 may also be a millimeter wave radar, microwave radar, etc.
  • the vital sensor 14 also has a non-contact thermometer that detects infrared rays, etc. emitted by the user 200.
  • the vital sensor 14 detects the biometric information of the user 200, including information on at least one of the heart rate (pulse), breathing, blood pressure, and body temperature.
  • the vital sensor 14 may also include multiple vital sensors that can acquire multiple types of biometric information, such as heart rate, breathing, pulse wave, blood pressure, and pulse pressure, for each type, and acquire multiple types of biometric information.
  • the vital sensor 14 is provided inside the exterior member 10, the user 200 cannot see the vital sensor 14. This reduces the user's 200 resistance to having their biometric information acquired, making it possible to acquire the biometric information smoothly.
  • the vital sensor 14 can acquire biometric information without contact, it can acquire biometric information even if the user 200 moves to a certain extent, unlike a contact-type sensor that requires the user 200 to be in contact with the same place for a certain period of time.
  • the robot 100 can acquire biometric information while being held by the user 200 and in contact with or close to the user 200. This allows the robot 100 to acquire highly reliable biometric information with reduced noise.
  • ⁇ Configuration example of expansion/contraction mechanism 18> 6 is a diagram illustrating an example of the configuration of the expansion/contraction mechanism 18.
  • the expansion/contraction mechanism 18 has a support portion 181, a pressing drive portion 182, a rotating portion 183, and a pressing portion 184.
  • the support portion 181 is fixed to the body frame 16 by a screw member, an adhesive member, or the like.
  • the support portion 181 supports the pressing drive portion 182.
  • the expansion/contraction mechanism 18 rotates the rotating part 183 around its rotation axis (in the direction of arrow 180) using the pressure drive part 182, thereby causing the pressing part 184 to swing back and forth around the rotation axis of the rotating part 183.
  • the expansion/contraction mechanism 18 can press or not press the exterior member 10 of the abdomen 191 by the swinging of the pressing part 184.
  • the pressing part 184 presses the exterior member 10 of the abdomen 191 from the inside to the outside. In this state, the exterior member 10 expands in the direction pressed by the pressing part 184, and the abdomen 191 is in an expanded state.
  • the pressing part 184 does not come into contact with the exterior member 10 of the abdomen 191, and is not pressing the exterior member 10. In this state, the exterior member 10 contracts due to its own elasticity, and the abdomen 191 enters a contracted state.
  • the expansion/contraction mechanism 18 can expand/contract the abdomen 191 at a predetermined expansion/contraction frequency and a predetermined expansion/contraction amplitude in response to an expansion/contraction control signal from the control unit 13.
  • the expansion/contraction mechanism 18 can expand/contract the torso 1 at a predetermined expansion/contraction frequency and a predetermined expansion/contraction amplitude in response to an expansion/contraction control signal from the control unit 13.
  • the exterior member 10 at the portion where the pressing portion 184 comes into contact may be formed with a cut or may be configured as an independent portion separated from the surroundings. In that case, if it is desired to give the robot 100 a "lifelike" appearance, it is preferable to provide a covering material on the surface that hides the cut.
  • the contact portion between the pressing portion 184 and the exterior member 10 may be bonded.
  • a bag-shaped container may be placed inside the exterior member 10, and pressure may be applied to the filled fluid, such as hydraulic pressure, air pressure, or other pressure to prevent contraction.
  • a material that deforms/expands/contracts when an electric current is applied such as a soft actuator, may be placed inside the exterior member 10 to expand/contract the abdomen of the robot 100.
  • control unit 13 is a block diagram showing an example of a hardware configuration of the control unit 13.
  • the control unit 13 is constructed by a computer, and has a central processing unit (CPU) 131, a read only memory (ROM) 132, and a random access memory (RAM) 133.
  • the control unit 13 also has a hard disk drive/solid state drive (HDD/SSD) 134, a device connection interface (I/F) 135, and a communication I/F 136. These are connected to each other via a system bus A so as to be able to communicate with each other.
  • HDD/SSD hard disk drive/solid state drive
  • I/F device connection interface
  • communication I/F 136 communication I/F
  • the CPU 131 executes control processing including various types of calculation processing.
  • the ROM 132 stores programs used to drive the CPU 131, such as the IPL (Initial Program Loader).
  • the RAM 133 is used as a work area for the CPU 131.
  • the HDD/SSD 134 stores various information such as programs, captured images acquired by the camera 11, biological information acquired by the vital sensor 14, and detection information from various sensors such as tactile signals acquired by the tactile sensor 12.
  • the device connection I/F 135 is an interface for connecting the control unit 13 to various external devices.
  • the external devices here include the camera 11, the tactile sensor 12, the vital sensor 14, the first capacitance sensor 21, the second capacitance sensor 31, the servo motor 35, the battery 15, the expansion/contraction mechanism 18, the light 26, etc.
  • the external devices also include the display 24 and the speaker 25 shown in FIG. 1.
  • servo motor 35 is a collective term for right arm servo motor 35a, left arm servo motor 35b, head servo motor 35c, right leg servo motor 35d, and left leg servo motor 35e.
  • Display 24 is a collective term for right eye display 24a and left eye display 24b.
  • Light 26 is a collective term for right cheek light 26a and left cheek light 26b.
  • the communication I/F 136 is an interface for communicating with an external device via a communication network or the like.
  • the control unit 13 connects to the Internet via the communication I/F 136 and communicates with an external device via the Internet.
  • CPU 131 may be realized by electric or electronic circuits.
  • Example of functional configuration 8 is a block diagram showing an example of the functional configuration of the control unit 13.
  • the control unit 13 has an acquisition unit 101, a communication control unit 102, a storage unit 103, an authentication unit 104, a registration unit 105, a start control unit 106, a motor control unit 107, a detection unit 108, and an output unit 109.
  • the control unit 13 further has a respiratory characteristic information acquisition unit 110, an expansion/contraction control unit 111, and a light emission control unit 112. Note that the control unit 13 may further have functional configuration units other than those described above.
  • the control unit 13 can realize the functions of the acquisition unit 101 and output unit 109 by the device connection I/F 135, etc., and can realize the function of the communication control unit 102 by the communication I/F 136, etc.
  • the control unit 13 can also realize the functions of the storage unit 103 and registration unit 105 by a non-volatile memory such as the HDD/SSD 134.
  • the control unit 13 can realize the functions of the authentication unit 104, start control unit 106, motor control unit 107, and detection unit 108 by a processor such as the CPU 131 executing processing defined in a program stored in a non-volatile memory such as the ROM 132, etc.
  • the control unit 13 can realize each function of the respiratory characteristic information acquisition unit 110, the expansion/contraction control unit 111, and the light emission control unit 112 by a processor such as the CPU 131 executing processing defined in a program stored in a non-volatile memory such as the ROM 132. Some of the above functions of the control unit 13 may be realized by an external device such as a PC or a server, or may be realized by distributed processing between the control unit 13 and the external device.
  • the acquisition unit 101 acquires a captured image Im of the user 200 from the camera 11 by controlling communication between the control unit 13 and the camera 11.
  • the acquisition unit 101 also acquires a tactile signal S from the tactile sensor 12 by controlling communication between the control unit 13 and the tactile sensor 12.
  • the acquisition unit 101 also acquires biometric information B of the user 200 from the vital sensor 14 by controlling communication between the control unit 13 and the vital sensor 14.
  • the acquisition unit 101 also acquires a first capacitance signal C1 from the first capacitance sensor 21 by controlling communication between the control unit 13 and the first capacitance sensor 21.
  • the acquisition unit 101 also acquires a second capacitance signal C2 from the second capacitance sensor 31 by controlling communication between the control unit 13 and the second capacitance sensor 31.
  • the communication control unit 102 controls communication with an external device via a communication network or the like.
  • the communication control unit 102 can transmit the captured image Im acquired by the camera 11, the biometric information B acquired by the vital sensor 14, the tactile signal S acquired by the tactile sensor 12, etc., to the external device via the communication network.
  • the storage unit 103 stores the biometric information B acquired by the vital sensor 14.
  • the storage unit 103 continuously stores the acquired biometric information B while the acquisition unit 101 is acquiring the biometric information B from the vital sensor 14.
  • the storage unit 103 can also store information obtained from the captured image Im by the camera 11, the tactile signal S from the tactile sensor 12, the first capacitance signal C1 from the first capacitance sensor 21, and the second capacitance signal C2 from the second capacitance sensor 31.
  • the storage unit 103 may also store predetermined correspondence relationship information regarding the correspondence between the respiratory characteristic information acquired based on the captured image Im and at least one of the operation of the expansion/contraction mechanism 18, the operation of the light 26, and the servo motor 35.
  • the authentication unit 104 performs personal authentication of the user 200 based on the image Im of the user 200 captured by the camera 11. For example, the authentication unit 104 performs face authentication by referring to the registration information 150 of the face image pre-registered in the registration unit 105 based on the captured image Im including the face of the user 200 captured by the camera 11. This makes it possible to associate the user 200 currently in contact with or in close proximity to the robot 100 with pre-registered personal information, and to associate the biometric information B acquired by the vital sensor 14 with the personal information. Furthermore, the control unit 13 can also control the vital sensor 14 to stop starting acquisition of biometric information if the face image included in the captured image Im is not registered in the registration unit 105.
  • the start control unit 106 causes the vital sensor 14 to start acquiring biometric information B.
  • the start control unit 106 turns on a switch or the like that supplies power from the battery 15 to the vital sensor 14. This causes the start control unit 106 to cause the vital sensor 14 to start acquiring biometric information B.
  • the detection unit 108 detects the contact or proximity of the user 200 to the robot 100 based on the image Im captured by the camera 11, etc.
  • the detection unit 108 may detect the distance from the robot 100 to the user 200 based on the image Im captured by the camera 11.
  • the detection unit 108 may also detect the contact or proximity of the user 200 to the robot 100 based on the first capacitance signal C1 or the second capacitance signal C2.
  • the detection unit 108 may also detect the contact or proximity of the user 200 to the robot 100 based on the tactile signal S from the tactile sensor 12.
  • the respiratory characteristic information acquisition unit 110 acquires the respiratory characteristic information M1 of the user 200 (see FIG. 4) contained in the captured image Im based on the captured image Im acquired via the acquisition unit 101. For example, the respiratory characteristic information acquisition unit 110 detects the vibration of the chest of the user 200 caused by breathing from a plurality of captured images Im acquired continuously via the acquisition unit 101. The respiratory characteristic information acquisition unit 110 acquires the respiratory characteristic information M1 such as the respiratory rate, frequency, number of breaths, and depth of breath from the vibration. The respiratory characteristic information acquisition unit 110 may acquire the respiratory characteristic information M1 by rPPG (remote photoplethysmography) based on the captured image Im. rPPG is a technology that estimates the heart rate and breathing by analyzing changes in skin color due to blood flow. The respiratory characteristic information acquisition unit 110 may acquire the respiratory characteristic information M1 based on the biological information B acquired using the vital sensor 14. The respiratory characteristic information acquisition unit 110 outputs the respiratory characteristic information M1 to the expansion/contraction control unit 111.
  • rPPG remote photoplethy
  • the expansion/contraction control unit 111 controls the operation of the expansion/contraction mechanism 18 so as to induce the breathing of the user 200 to a predetermined state according to the breathing characteristic information M1 from the breathing characteristic information acquisition unit 110.
  • the expansion/contraction control unit 111 acquires operation information N1 of the expansion/contraction mechanism 18 by referring to the correspondence information 130 stored in the storage unit 103 based on the breathing characteristic information M1.
  • the expansion/contraction control unit 111 can control the operation of the expansion/contraction mechanism 18 by outputting the operation information N1 to the expansion/contraction mechanism 18 via the output unit 109.
  • the operation information N1 corresponds to an expansion/contraction control signal.
  • Table 1 below shows an example of the correspondence information 130.
  • the correspondence information 130 includes breathing rates V1 to V4 and breathing depths D1 to D4 as breathing characteristic information M1.
  • the correspondence information 130 also includes expansion/contraction frequencies f1 to f4 that are paired with the breathing rates V1 to V4, and expansion/contraction amplitudes Am1 to Am4 that are paired with the breathing depths D1 to D4.
  • the expansion/contraction frequency in the operation information N1 is preset to a frequency that is shifted by a predetermined frequency from the frequency corresponding to the breathing rate in the breathing characteristic information M1.
  • the expansion/contraction control unit 111 refers to the correspondence information 130 to obtain information on the expansion/contraction frequency that is shifted by a predetermined frequency from the frequency corresponding to the breathing rate in the breathing characteristic information M1.
  • the expansion/contraction control unit 111 expands/contracts the expansion/contraction mechanism 18 at this expansion/contraction frequency.
  • the user 200 breathes in accordance with the expansion/contraction of the expansion/contraction mechanism 18. This allows the robot 100 to induce the breathing of the user 200 so that, for example, the breathing rate gradually slows.
  • Each state of the gradually slowing breathing rate for each time series corresponds to a "predetermined state" of breathing.
  • the expansion/contraction amplitude in the operation information N1 is preset to an amplitude that is shifted by a predetermined amplitude from the amplitude corresponding to the depth of breathing in the breathing characteristic information M1.
  • the expansion/contraction control unit 111 refers to the correspondence information 130 to acquire information on the expansion/contraction amplitude that is shifted by a predetermined amplitude from the amplitude corresponding to the depth of breathing in the breathing characteristic information M1.
  • the expansion/contraction control unit 111 expands/contracts the expansion/contraction mechanism 18 with this expansion/contraction amplitude.
  • the user 200 breathes in accordance with the expansion/contraction of the expansion/contraction mechanism 18.
  • the robot 100 can guide the breathing of the user 200, for example, by increasing the expansion/contraction amplitude so that the depth of breathing gradually becomes deeper.
  • Each state of the gradually deepening depth of breathing for each time series corresponds to a "predetermined state" of breathing.
  • the operation of the expansion/contraction mechanism 18 is the expansion/contraction operation of the torso 1 of the robot 100, and corresponds to the operation of the robot 100. Therefore, when the user 200 is holding the robot 100 and touching the robot 100, and communicating with the robot 100, the robot 100 can induce breathing in the user 200 by the operation of the robot 100 controlled by the expansion/contraction control unit 111.
  • the correspondence information 130 shown in Table 1 is an example and is not limited to this.
  • the method of inducing breathing by the expansion/contraction control unit 111 is also an example and is not limited to this.
  • the robot 100 may estimate the operation of the expansion/contraction mechanism 18 for appropriate breathing induction based on the breathing characteristic information M1 using a deep neural network (DNN) or the like, and control the operation of the expansion/contraction mechanism 18 according to the estimation result.
  • DNN deep neural network
  • the respiratory characteristic information acquisition unit 110 may output the respiratory characteristic information M1 to the light emission control unit 112.
  • the light emission control unit 112 may control the operation of the light 26 so as to induce the breathing of the user 200 to a predetermined state according to the respiratory characteristic information M1 from the respiratory characteristic information acquisition unit 110.
  • the light emission control unit 112 may control at least one of the blinking speed of the light 26, the brightness of the light from the light 26, and the color of the light from the light 26.
  • the light emission control unit 112 acquires the operation information N2 of the light 26 by referring to the correspondence information stored in the storage unit 103 based on the respiratory characteristic information M1.
  • the operation information N2 of the light 26 is information for controlling at least one of the blinking speed of the light 26, the brightness of the light from the light 26, and the color of the light from the light 26.
  • the light emission control unit 112 can control the operation of the light 26 by outputting the operation information N2 of the light 26 to the light 26 via the output unit 109.
  • the user 200 while holding the robot 100 and interacting with it, and communicating with the robot 100, breathes in accordance with the blinking rate of the light 26 while viewing the light 26. This allows the robot 100 to guide the breathing of the user 200.
  • the respiratory characteristic information acquisition unit 110 may output the respiratory characteristic information M1 to the motor control unit 107.
  • the motor control unit 107 may control the operation of the servo motor 35 so as to induce the breathing of the user 200 to a predetermined state according to the respiratory characteristic information M1 from the respiratory characteristic information acquisition unit 110.
  • the motor control unit 107 can control the driving body including the arm 3 connected to the robot body in the robot 100 so as to be displaceable relative to the robot body by controlling the operation of the servo motor 35.
  • the motor control unit 107 may control at least one of the following actions: wrapping the arm 3 around a part of the body of the user 200, applying pressure to the skin of the user 200 with the arm 3, and stroking a part of the body of the user 200 with the arm 3.
  • the motor control unit 107 acquires the operation information N3 of the servo motor 35 based on the respiratory characteristic information M1 by referring to the correspondence information stored in the storage unit 103.
  • the motor control unit 107 can control the operation of the servo motor 35 by outputting the operation information N3 of the servo motor 35 to the servo motor 35 via the output unit 109.
  • the user 200 breathes in time with the movement of the arm 3 while embracing the robot 100 and interacting with the robot 100 and communicating with the robot 100. This allows the robot 100 to guide the breathing of the user 200.
  • Fig. 9 is a diagram illustrating breathing induction by the robot 100.
  • the user 200 is holding the robot 100 and touching the robot 100, thereby communicating with the robot 100.
  • the robot 100 inflates and deflates the abdomen 191 by the inflation/deflation control unit 111 shown in Fig. 8.
  • the robot 100 makes the user 200, who is holding the robot 100, feel the inflation and contraction of his/her own abdomen 191.
  • the user 200 breathes in accordance with the inflation and contraction of the abdomen 191. In this way, the robot 100 can induce breathing of the user 200.
  • the robot 100 controls, by the motor control unit 107 shown in FIG. 9, at least one of the following actions: wrapping the arm 3 around a part of the body of the user 200, applying pressure to the skin of the user 200 with the arm 3, and stroking a part of the body of the user 200 with the arm 3.
  • the robot 100 can induce breathing of the user 200 in accordance with the movement of the arm 3 by making the user 200, who is holding the robot 100, feel the movement of the arm 3.
  • the robot 100 may induce breathing of the user 200 by controlling at least one of the blinking speed of the light 26, the brightness of the light from the light 26, and the color of the light from the light 26 with the light emission control unit 112 shown in FIG. 9.
  • FIG. 10 is a flow chart illustrating an example of processing by the control unit 13.
  • FIG. 10 shows an example of processing by the control unit 13 for guiding breathing of the user 200.
  • the control unit 13 starts the processing of FIG. 10 when the detection unit 108 detects that the user 200 has come into contact with or approached the robot 100.
  • the following description will be given with appropriate reference to the functional configuration diagram of FIG. 8.
  • step S101 the control unit 13 acquires, by the respiratory characteristic information acquisition unit 110, respiratory characteristic information M1 of the user 200 contained in the captured image Im based on the captured image Im acquired via the acquisition unit 101.
  • the respiratory characteristic information acquisition unit 110 outputs the respiratory characteristic information M1 to the expansion/contraction control unit 111.
  • step S102 the control unit 13 controls the operation of the expansion/contraction mechanism 18 via the expansion/contraction control unit 111 so as to induce the breathing of the user 200 to a predetermined state in accordance with the breathing characteristic information M1 from the breathing characteristic information acquisition unit 110.
  • step S103 the control unit 13 determines whether or not to end the processing. For example, the control unit 13 can determine to end the processing when a predetermined time has elapsed, and determine not to end the processing when the predetermined time has not elapsed. Alternatively, the control unit 13 can determine to end the processing when it is detected that the user 200 is not in contact with or in close proximity to the robot 100, and determine not to end the processing when it is detected that the user 200 is in contact with or in close proximity to the robot 100. However, other determination methods may be used.
  • step S103 If it is determined in step S103 that the process should not be terminated (step S103, NO), the control unit 13 repeats the process from step S101 onwards. On the other hand, if it is determined in step S103 that the process should be terminated (step S103, YES), the control unit 13 terminates the process.
  • control unit 13 can execute processing to cause the robot 100 to induce breathing of the user 200.
  • the processing for controlling the operation of the expansion/contraction mechanism 18 has been exemplified here, the flowchart of FIG. 10 can also be applied to processing for controlling the operation of the servo motor 35 or the light 26 by replacing the processing by the expansion/contraction control unit 111 with processing by the motor control unit 107 or the light emission control unit 112.
  • the robot 100 includes the exterior member 10, at least one of the camera 11 and the vital sensor 14 (first detection unit) that acquires information about the user's breathing, and the control unit 13 that controls the operation of the robot 100 so as to induce the user's breathing to a predetermined state based on the information acquired by the first detection unit.
  • the control unit 13 controls the operation of at least one of the driving bodies including the expansion/contraction mechanism 18, the light 26 (light-emitting unit), and the arm unit 3, thereby guiding the user's breathing to a predetermined state.
  • the robot 100 while the robot 100 and the user 200 are communicating with each other, the robot 100 induces breathing in the user 200, so that the robot 100 can naturally induce the breathing of the user 200.
  • a robot that can naturally induce the breathing of the user can be provided.
  • the camera 11 does not come into contact with the user 200 and the robot 100 acquires the breathing characteristic information M1 of the user 200 in an unconstrained and natural state.
  • the robot 100 controls its own movement based on this breathing characteristic information M1. Therefore, the robot 100 can naturally guide the breathing of the user 200 without giving the user 200 a feeling of constraint.
  • the robot 100 grasps the state of the user 200 using the first detection unit and guides breathing according to the state of the user 200, thereby realizing appropriate breathing guidance.
  • breathing is induced by the movements of the robot 100, which makes it easier to create many opportunities for interaction between the user 200 and the robot 100. This allows the robot 100 to induce the user 200's breathing during many opportunities for interaction.
  • a robot according to a second embodiment will now be described.
  • This embodiment differs from the first embodiment in that the robot's operation is controlled so as to induce the user's breathing into a predetermined state based on information regarding at least one of the user's pulse, heart rate, blood pressure, and pulse pressure acquired by a second detection unit such as a vital sensor.
  • a second detection unit such as a vital sensor.
  • control unit 13a is a block diagram illustrating a functional configuration of a control unit 13a of a robot 100a according to the second embodiment.
  • the control unit 13a includes a psychological state information acquisition unit 113, an expansion/contraction control unit 111a, a motor control unit 107a, and a light emission control unit 112a.
  • the control unit 13a can realize each function of the psychological state information acquisition unit 113, the expansion/contraction control unit 111a, the motor control unit 107a, and the light emission control unit 112a by a processor such as the CPU 131 shown in FIG. 7 executing processing defined in a program stored in a non-volatile memory such as the ROM 132. Some of the above functions of the control unit 13a may be realized by an external device such as a PC or a server, or may be realized by distributed processing between the control unit 13 and the external device.
  • the psychological state information acquisition unit 113 acquires psychological state information M2 based on information on at least one of the user's pulse, heart rate, blood pressure, and pulse pressure output from the vital sensor 14.
  • the psychological state information M2 is information on the psychological state of the user 200.
  • the psychological state information M2 includes information indicating the degree of relaxation of the user 200, information related to the degree of relaxation of the user 200, information indicating the degree of stress of the user 200, information related to the degree of stress of the user 200, information indicating the emotions of the user 200, information related to the emotions of the user 200, and the like. For example, the more relaxed the user 200 is, the lower the pulse rate, heart rate, and the like of the user 200 will be, and the lower the blood pressure, pulse pressure, and the like will be. Therefore, the psychological state information acquisition unit 113 can acquire psychological state information M2 and the like indicating the degree of relaxation of the user 200 from the output of the vital sensor 14.
  • the psychological state information acquisition unit 113 outputs the acquired psychological state information M2 to the expansion/contraction control unit 111a.
  • the expansion/contraction control unit 111a controls the operation of the expansion/contraction mechanism 18 so as to induce the breathing of the user 200 to a predetermined state based on the breathing characteristic information M1 and the psychological state information M2.
  • the psychological state information acquisition unit 113 may output the psychological state information M2 to at least one of the expansion/contraction control unit 111a, the light emission control unit 112a, and the motor control unit 107a.
  • the light emission control unit 112a can control the operation of the light 26 so as to guide the breathing of the user 200 to a predetermined state based on the breathing characteristic information M1 and the psychological state information M2.
  • the motor control unit 107a can control the operation of the servo motor 35 so as to guide the breathing of the user 200 to a predetermined state based on the breathing characteristic information M1 and the psychological state information M2.
  • Fig. 12 is a flow chart illustrating a process by the control unit 13a.
  • Fig. 12 shows a process by the control unit 13a for guiding breathing of the user 200.
  • the control unit 13a starts the process of Fig. 12 when the detection unit 108 detects that the user 200 has come into contact with or approached the robot 100a.
  • the following description will be given with appropriate reference to the functional configuration diagram of Fig. 11.
  • the process of steps S121 to S122 in Fig. 12 is the same as the process of steps S101 to S102 in Fig. 10, and therefore a duplicated description will be omitted here.
  • step S123 the control unit 13a acquires heart rate information as psychological state information M2 of the user 200, using the psychological state information acquisition unit 113, based on information about the user 200's heart rate output from the vital sensor 14.
  • the psychological state information acquisition unit 113 outputs the acquired heart rate information to the expansion/contraction control unit 111a.
  • step S124 the expansion/contraction control unit 111a determines whether the heart rate in the heart rate information acquired from the psychological state information acquisition unit 113 is equal to or lower than a threshold.
  • the heart rate threshold is determined in advance and stored in the storage unit 103.
  • the expansion/contraction control unit 111a can acquire the heart rate threshold information by referring to the storage unit 103.
  • step S124 determines that the user 200 is not relaxed, and repeats the processing from step S121 onwards. On the other hand, if it is determined in step S124 that the heart rate is below the threshold (step S124, YES), the control unit 13a determines that the user 200 is relaxed, and ends the processing.
  • the control unit 13a can execute processing for guiding the user 200 to breathe, based on the breathing characteristic information M1 of the user 200 and the heart rate information of the user 200.
  • heart rate information has been exemplified as the psychological state information M2 here
  • the psychological state information M2 may be information regarding at least one of the user's pulse, blood pressure, and pulse pressure.
  • the processing for controlling the operation of the expansion/contraction mechanism 18 has been exemplified here, the flowchart of FIG. 12 can also be applied to processing for controlling the operation of the servo motor 35 or the light 26 by replacing the processing by the expansion/contraction control unit 111a with processing by the motor control unit 107a or the light emission control unit 112a.
  • the control unit 13a controls the operation of the robot 100a so as to guide the user's breathing to a predetermined state based on information on the user's breathing acquired by either the camera 11 or the vital sensor 14 (first detection unit) and information on at least one of the user's pulse, heart rate, blood pressure, and pulse pressure acquired by the vital sensor 14 (second detection unit).
  • the control unit 13a controls the operation of the robot 100a so as to guide the user's breathing to a predetermined state in accordance with information on the user's psychological state obtained based on the output from the vital sensor 14.
  • the user's psychological state such as a relaxed state
  • the user's psychological state can be understood from information regarding at least one of the user's pulse, heart rate, blood pressure, and pulse pressure, and breathing can be induced to improve the psychological state.
  • the robot 100a determines whether the user 200 is in a relaxed state, and if not, further performs breathing induction on the user 200, leading the user 200 to a relaxed state.
  • Other effects and advantages are the same as those of the first embodiment.
  • a robot according to a third embodiment will be described. This embodiment differs from the first embodiment in that at least one of an abdominal expansion/contraction mechanism and a back expansion/contraction mechanism included in the expansion/contraction mechanism is expanded and contracted based on information regarding the state of the robot being held by a user.
  • FIG. 13 and 14 are diagrams illustrating an expansion/contraction mechanism 18A in a robot 100b according to the third embodiment.
  • Fig. 13 is a diagram showing an example of the arrangement of the expansion/contraction mechanism 18A in the robot 100b.
  • Fig. 14 is a diagram showing an example of the configuration of a back expansion/contraction mechanism 18b in the expansion/contraction mechanism 18A.
  • the expansion/contraction mechanism 18A includes an abdominal expansion/contraction mechanism 18a arranged in the abdominal portion 191 of the robot 100b, and a back expansion/contraction mechanism 18b arranged in the back portion 192 of the robot 100b.
  • the abdominal expansion/contraction mechanism 18a is arranged so as to be able to press the exterior member 10 of the abdominal portion 191.
  • the configuration and function of the abdominal expansion/contraction mechanism 18a are the same as those of the expansion/contraction mechanism 18 described above, and therefore a duplicated explanation will be omitted here.
  • the back expansion/contraction mechanism 18b is positioned so that it can press the exterior member 10 of the back 192.
  • the back expansion/contraction mechanism 18b has a support portion 181b, a pressure drive portion 182b, a rotating portion 183b, and a pressure portion 184b.
  • the support portion 181b is fixed to the side of the torso frame 16 opposite to the side to which the support portion 181 is fixed, by a screw member, an adhesive member, or the like. That is, the support portion 181 of the abdominal expansion/contraction mechanism 18a is fixed to the abdominal 191 side of the torso frame 16, and the support portion 181b of the back expansion/contraction mechanism 18b is fixed to the back 192 side of the torso frame 16.
  • the support portion 181b supports the pressure drive portion 182b.
  • the back expansion/contraction mechanism 18b rotates the rotating part 183b around its rotation axis (in the direction of arrow 180b) using the pressure drive part 182b, thereby causing the pressing part 184b to swing back and forth around the rotation axis of the rotating part 183b.
  • the back expansion/contraction mechanism 18b can press or not press the exterior member 10 of the back part 192 by the swinging of the pressing part 184b.
  • the pressing part 184b presses the exterior member 10 of the back part 192 from the inside to the outside.
  • the exterior member 10 expands in the direction pushed by the pressing part 184b, and the back part 192 becomes inflated.
  • the rotating part 183b rotates clockwise around its rotation axis
  • the pressing part 184b does not contact the exterior member 10 of the back part 192 and is not pressing the exterior member 10.
  • the exterior member 10 contracts due to its own elasticity, and the back part 192 is in a contracted state.
  • the back part expansion/contraction mechanism 18b can expand/contract the back part 192 at a predetermined expansion/contraction frequency and a predetermined expansion/contraction amplitude in response to a back part expansion/contraction control signal from the control part 13b.
  • control unit 13b includes a holding state information acquisition unit 114 and an expansion/contraction control unit 111b.
  • the control unit 13b can realize the functions of the holding state information acquisition unit 114 and the expansion/contraction control unit 111b by a processor such as the CPU 131 shown in FIG. 7 executing processing defined in a program stored in a non-volatile memory such as the ROM 132. Note that some of the above functions of the control unit 13b may be realized by an external device such as a PC or a server, or may be realized by distributed processing between the control unit 13b and the external device.
  • the holding state information acquisition unit 114 acquires holding state information M3, which is information regarding the holding state of the robot 100b by the user 200. For example, when the user 200 is holding the robot 100b so that the abdomen 191 of the robot 100b is in contact with the user 200, the holding state information acquisition unit 114 acquires holding state information M3 indicating that the abdomen 191 is in contact with the user 200. On the other hand, when the user 200 is holding the robot 100b so that the back 192 of the robot 100b is in contact with the user 200, the holding state information acquisition unit 114 acquires holding state information M3 indicating that the back 192 is in contact with the user 200. The holding state information acquisition unit 114 can detect whether the abdomen 191 or the back 192 of the robot 100b is in contact with the user 200 by, for example, processing the image Im captured by the camera 11, and acquire the holding state information M3.
  • the holding state information acquisition unit 114 outputs the acquired holding state information M3 to the expansion/contraction control unit 111b.
  • the expansion/contraction control unit 111b controls the operation of the expansion/contraction mechanism 18A so as to guide the breathing of the user 200 to a predetermined state.
  • the expansion/contraction control unit 111b inflates and contracts at least one of the abdominal expansion/contraction mechanism 18a and the back expansion/contraction mechanism 18b.
  • the expansion/contraction control unit 111b controls the operation of the abdominal expansion/contraction mechanism 18a by outputting operation information N1a via the output unit 109. Furthermore, when the user 200 is holding the robot 100b so that the back 192 is in contact with the user 200 based on the holding state information M3, the expansion/contraction control unit 111b controls the operation of the back expansion/contraction mechanism 18b by outputting operation information N2a via the output unit 109.
  • Fig. 16 is a flow chart illustrating a process by the control unit 13b.
  • Fig. 16 shows a process by the control unit 13b for guiding breathing of the user 200.
  • the control unit 13b starts the process of Fig. 16 when the detection unit 108 detects that the user 200 has come into contact with or approached the robot 100b.
  • the process of step S161 in Fig. 16 is the same as the process of step S101 in Fig. 10, and therefore a duplicated description will be omitted here.
  • step S162 the control unit 13b acquires holding state information M3, which is information about the holding state of the robot 100b by the user 200, through the holding state information acquisition unit 114.
  • the holding state information acquisition unit 114 outputs the acquired holding state information M3 to the expansion/contraction control unit 111b.
  • step S163 the control unit 13b controls the operation of the expansion/contraction mechanism 18A via the expansion/contraction control unit 111b based on the breathing characteristic information M1 and the holding state information M3 so as to induce the breathing of the user 200 to a predetermined state.
  • step S164 the control unit 13b determines whether or not to end the process. For example, the control unit 13b can determine to end the process when a predetermined time has elapsed, and not to end the process when a predetermined time has not elapsed. Alternatively, the control unit 13b can determine to end the process when it is detected that the user 200 is not in contact with or in close proximity to the robot 100b, and can determine not to end the process when it is detected that the user 200 is in contact with or in close proximity to the robot 100b.
  • step S164 If it is determined in step S164 that the process should not be terminated (step S164, NO), the control unit 13b repeats the process from step S161 onwards. On the other hand, if it is determined in step S164 that the process should be terminated (step S164, YES), the control unit 13b terminates the process.
  • control unit 13b can execute processing to cause the robot 100b to induce breathing in the user 200.
  • the expansion/contraction mechanism 18A includes the abdomen expansion/contraction mechanism 18a arranged in the abdomen 191 of the robot 100b, and the back expansion/contraction mechanism 18b arranged in the back 192 of the robot 100b.
  • the control unit 13b inflates and contracts at least one of the abdomen expansion/contraction mechanism 18a and the back expansion/contraction mechanism 18b based on the holding state information M3.
  • the robot 100b cannot induce breathing for the user 200 even if the abdomen 191 is inflated and deflated.
  • the robot 100b inflates and deflates at least one of the abdomen expansion/contraction mechanism 18a and the back expansion/contraction mechanism 18b according to the holding state information M3 obtained by detecting whether the abdomen 191 or the back 192 of the robot 100b is in contact with the user 200. This allows the robot 100b to reliably induce breathing for the user 200 regardless of the holding state of the robot 100b by the user 200.
  • control unit 13b may inflate and deflate both the abdomen expansion/contraction mechanism 18a and the back expansion/contraction mechanism 18b. Effects other than those described above are the same as those of the first embodiment.
  • the robot according to this embodiment is particularly suitable for use in promoting oxytocin secretion and providing healing (a sense of security or self-affirmation) to working people living alone, seniors whose children have become independent, frail elderly people receiving home medical care, etc.
  • the robot is not limited to this use and can be used for providing healing to a variety of users.
  • a robot capable of guiding a user's breathing the robot having an exterior member, a first detection unit that acquires information related to the user's breathing, and a control unit that controls an operation of the robot so as to guide the user's breathing to a predetermined state based on the information acquired by the first detection unit.
  • the first detection unit includes at least one of an electromagnetic wave sensor that utilizes electromagnetic waves to obtain information regarding the user's breathing, and an image sensor that obtains information regarding the user's breathing based on a captured image of the user.
  • ⁇ 3> The robot described in ⁇ 1> or ⁇ 2>, further including a second detection unit that outputs information regarding at least one of the user's pulse, heart rate, blood pressure, and pulse pressure, and the control unit controls the operation of the robot so as to guide the user's breathing to the predetermined state based on the information acquired by the second detection unit.
  • the control unit controls an operation of the robot so as to guide the user's breathing to the predetermined state in accordance with information on the user's psychological state obtained based on information acquired by the second detection unit.
  • ⁇ 5> The robot according to any one of ⁇ 1> to ⁇ 4>, wherein the control unit controls the operation of at least one of an expansion/contraction mechanism capable of expanding and contracting a torso of the robot, a light-emitting unit provided on a face of the robot, and a driving body including an arm connected to the robot body in a manner capable of being displaced relatively to the robot body.
  • the expansion/contraction mechanism includes an abdominal expansion/contraction mechanism arranged in the abdomen of the robot and a back expansion/contraction mechanism arranged in the back of the robot, and the control unit inflates and contracts at least one of the abdominal expansion/contraction mechanism and the back expansion/contraction mechanism based on information regarding the state of the robot being held by the user.
  • the control unit controls at least one of a blinking speed of the light-emitting unit, a brightness of the light from the light-emitting unit, and a color of the light from the light-emitting unit.
  • ⁇ 8> The robot according to ⁇ 5>, wherein the control unit controls at least one of an action of wrapping the arm around a part of the user's body, an action of applying pressure to the skin of the user with the arm, and an action of stroking a part of the user's body with the arm.
  • the exterior member includes at least one of an elastic body and a porous body.

Landscapes

  • Manipulator (AREA)

Abstract

ユーザの呼吸を自然に誘導可能なロボットを提供する。本発明の一態様に係るロボットは、ユーザの呼吸を誘導可能なロボットであって、外装部材と、前記ユーザの呼吸に関する情報を取得する第1検出部と、前記第1検出部が取得した情報に基づき、前記ユーザの呼吸を所定状態に誘導するように、前記ロボットの動作を制御する制御部と、を有する。

Description

ロボット
 本発明は、ロボットに関する。
 従来から、ユーザと触れ合うことにより、ユーザに癒しを与えるロボットが知られている(例えば、特許文献1参照)。
 一方、ユーザをリラックスさせるために、ユーザの呼吸を所定状態に誘導することにより、ユーザの副交感神経を活性化させる呼吸誘導装置が知られている。例えば特許文献2には、抱き可能形態の本体に配置され、本体を抱くユーザの呼吸数を検出する呼吸センサと、本体に内蔵され、本体における抱くユーザとの接触側を膨縮させる膨縮機構部と、膨縮機構部を駆動制御する膨縮制御部と、を有するものが開示されている。
国際公開第2017/169826号 特開2013-022302号公報
 ユーザに癒しを与えるロボットでは、ユーザをリラックスさせるために、ユーザの呼吸を自然に誘導することが求められる。
 本発明は、ユーザの呼吸を自然に誘導可能なロボットを提供することを目的とする。
 本発明の一態様に係るロボットは、ユーザの呼吸を誘導可能なロボットであって、外装部材と、前記ユーザの呼吸に関する情報を取得する第1検出部と、前記第1検出部が取得した情報に基づき、前記ユーザの呼吸を所定状態に誘導するように、前記ロボットの動作を制御する制御部と、を有する。
 本発明によれば、ユーザの呼吸を自然に誘導可能なロボットを提供することができる。
実施形態に係るロボットを例示する斜視図である。 図1のロボットの側面図である。 図2におけるIII-III切断線に沿う断面図である。 実施形態に係るカメラの構成を例示する図である。 実施形態に係るバイタルセンサの構成を例示する図である。 実施形態に係る膨縮機構の構成を例示する図である。 実施形態に係る制御部のハードウェア構成を例示するブロック図である。 第1実施形態に係る制御部の機能構成を例示するブロック図である。 第1実施形態に係るロボットによる呼吸誘導の様子を例示する図である。 第1実施形態に係る制御部による処理を例示するフローチャートである。 第2実施形態に係る制御部の機能構成を例示するブロック図である。 第2実施形態に係る制御部による処理を例示するフローチャートである。 第3実施形態に係るロボットにおける膨縮機構の配置例を示す図である。 第3実施形態に係るロボットにおける膨縮機構の構成例を示す図である。 第3実施形態に係る制御部の機能構成を例示するブロック図である。 第3実施形態に係る制御部による処理を例示するフローチャートである。
 以下、図面を参照して本開示の実施形態について詳細に説明する。各図面において、同一構成要素には同一符号を付与し、重複した説明を適宜省略する。
 以下に示す実施形態は、本開示の技術思想を具体化するためのロボットを例示するものであって、本開示を以下に示す実施形態に限定するものではない。以下に記載されている構成部品の寸法、材質、形状、その相対的配置等は、特定的な記載がない限り、本開示の範囲をそれのみに限定する趣旨ではなく、例示することを意図したものである。また図面が示す部材の大きさや位置関係等は、説明を明確にするため、誇張している場合がある。
 <ロボット100の全体構成例>
 図1から図3を参照して、実施形態に係るロボット100の構成について説明する。図1は、実施形態に係るロボット100を例示する斜視図である。図2は、ロボット100の側面図である。図3は、図2におけるIII-III切断線に沿う断面図である。
 ロボット100は、外装部材10を有し、供給される電力により駆動可能なロボットである。本明細書で例示するロボット100は、子熊を模した人形型のコミュニケーションロボットである。ロボット100は、ユーザが抱きかかえることに適した大きさおよび重量により製作されている。ここで、ユーザはロボット100のユーザ(使用者)を意味する。ユーザの代表的な一例には、一人暮らしの社会人、子供が独り立ちしたシニア、在宅医療の対象となるフレイル高齢者等が挙げられる。なお、ユーザには、ロボット100の使用者の他、ロボット100の管理者等の、単にロボット100に接触する接触者が含まれてもよい。また、本明細書において、「抱きかかえる」という用語は「保持する」という用語に言い換えられてもよい。
 本実施形態では、ロボット100は、ユーザの呼吸を誘導可能である。ユーザは、呼吸を行う「人」に対応する。呼吸は、「人」の自律神経のうち、外部から意識的に変化させることができる唯一のものである。例えば、ロボット100は、ゆっくりとした呼吸のリズムをユーザに感じさせることにより、このリズムにユーザの呼吸のリズムを誘導し、同調させることができる。ロボット100が誘導可能な呼吸特性には、呼吸の速度、呼吸の周波数、呼吸の回数、呼吸の深さ、呼吸の振幅等が挙げられる。ロボット100は、所定の呼吸特性にユーザの呼吸を誘導することにより、ユーザの副交感神経を活性化し、ユーザをリラックスさせることができる。
 外装部材10は柔軟性を有してもよい。外装部材10は、例えばロボット100のユーザがロボット100に触れた際に触り心地のよい軟質な素材を含んでいる。外装部材10は、弾性体および多孔体の少なくとも1つを含むことにより、柔軟性を有してもよい。具体的には、外装部材10の素材には、ウレタンフォーム、ゴム、樹脂、繊維等の有機材料を含むものを使用できる。外装部材10は、断熱性を有するウレタンフォーム材等の外装と、外装の外側表面を覆う柔らかい布材と、により構成されることが好ましい。外装部材10が、例えば弾性体および多孔体の少なくとも1つを含む等して柔軟性を有することにより、ロボット100の柔らかさをユーザに感じさせることができる。これにより、拘束感や抵抗感を低減して、ユーザとロボット100とのコミュニケーションを促進することができる。
 ロボット100は、一例として、胴部1と、頭部2と、腕部3と、脚部4と、を有する。頭部2は、右眼部2aと、左眼部2bと、口部2cと、右頬部2dと、左頬部2eと、を有する。腕部3は、右腕部3aと、左腕部3bと、を含み、脚部4は、右脚部4aと、左脚部4bと、を含む。ここで、胴部1はロボット本体に対応する。図2に示すように、ロボット100の胴部1のうち、ロボット100の鼻部5が配置されている側の部分は、ロボット100の腹部191である。また、ロボット100の胴部1のうち、ロボット100の鼻部5が配置されている側とは反対側の部分は、ロボット100の背中部192である。
 図1から図3に示すように、頭部2、腕部3および脚部4は、ロボット本体に対して相対的に変位可能に連結される駆動体に対応する。本実施形態における駆動体は、ロボット100におけるロボット本体に対して相対的に変位可能に連結された腕部3を含む。ロボット100は、ユーザの身体の一部に腕部3を巻き付ける動作、腕部3によりユーザの皮膚に加圧する動作、および、ユーザの身体の一部を腕部3により撫でる動作、の少なくとも1つを制御することにより、ユーザを呼吸誘導することができる。
 本実施形態では、腕部3は、胴部1に対して変位可能に構成されている。例えば、ロボット100は、ユーザにより抱きかかえられた際に、右腕部3aおよび左腕部3bを変位させ、ユーザを抱擁するようにユーザの首や胴等に接触させる。この動作により、ユーザはロボット100に対して親近感を感じるため、ユーザとロボット100との触れ合いが促進される。なお、ユーザとの触れ合いとは、さする、タッピングする(触れる)およびハグする(抱きつく)等のようにユーザとロボット100が互いに触れ合う行為(接触する行為)を意味する。
 胴部1、頭部2、腕部3および脚部4は、いずれも外装部材10により覆われている。胴部1における外装部材と、腕部3における外装部材と、は一体化しており、頭部2および脚部4における外装部材は、胴部1および腕部3における外装部材に対して分離している。但し、これらの構成に限定されるものではなく、例えばユーザに接触されやすいロボット100の部位のみが外装部材10により覆われていてもよい。また胴部1、頭部2、腕部3および脚部4それぞれにおける外装部材10の少なくとも1つが他の外装部材と分離されていてもよい。また頭部2、腕部3および脚部4のうちの変位しない部位が、その内側にセンサ等の構成部を含まず、外装部材10のみにより構成されてもよい。
 ロボット100は、外装部材10の内側に、カメラ11と、触覚センサ12と、制御部13と、バイタルセンサ14と、バッテリ15と、膨縮機構18と、第1静電容量センサ21と、第2静電容量センサ31と、を有する。また、ロボット100は、胴部1における外装部材10の内側に、触覚センサ12、制御部13、バイタルセンサ14、バッテリ15および膨縮機構18を有する。さらにロボット100は、頭部2における外装部材10の内側に、カメラ11および第1静電容量センサ21を有し、腕部3における外装部材10の内側に、第2静電容量センサ31を有する。
 またロボット100は、頭部2における外装部材10の内側に、ディスプレイ24と、スピーカ25と、ライト26と、を有する。さらにロボット100は、右眼部2aおよび左眼部2bにおける外装部材10の内側に、ディスプレイ24を有する。加えてロボット100は、口部2cにおける外装部材10の内側にスピーカ25を有し、右頬部2dおよび左頬部2eにおける外装部材10の内側にライト26を有する。
 より詳しくは、図3に示すように、ロボット100は、胴部1における外装部材10の内側に、胴部フレーム16と、胴部載置台17と、を有する。またロボット100は、頭部2における外装部材10の内側に、頭部フレーム22と、頭部載置台23と、を有する。さらにロボット100は、右腕部3aにおける外装部材10の内側に、右腕部フレーム32aと、右腕部載置台33と、を有し、左腕部3bにおける外装部材10の内側に、左腕部フレーム32bを有する。加えてロボット100は、右脚部4aにおける外装部材10の内側に、右脚部フレーム42aを有し、左脚部4bにおける外装部材10の内側に、左脚部フレーム42bを有する。
 胴部フレーム16、頭部フレーム22、右腕部フレーム32a、左腕部フレーム32b、右脚部フレーム42aおよび左脚部フレーム42bは、それぞれ複数の柱状部材を組合せて形成された構造体である。胴部載置台17、頭部載置台23、および右腕部載置台33は、載置面を有する板状部材である。胴部載置台17は胴部フレーム16に固定され、頭部載置台23は頭部フレーム22に固定され、右腕部載置台33は右腕部フレーム32aに固定されている。なお、胴部フレーム16、頭部フレーム22、右腕部フレーム32a、左腕部フレーム32b、右脚部フレーム42aおよび左脚部フレーム42bは、複数の板状部材を含む箱状に形成されてもよい。
 右腕部フレーム32aは、右腕部連結機構34aを介して胴部フレーム16に連結しており、右腕部サーボモータ35aによって駆動されることにより、胴部フレーム16に対して相対的に変位可能である。右腕部フレーム32aが変位することにより、右腕部3aは胴部1に対して相対的に変位する。右腕部連結機構34aは、例えば右腕部サーボモータ35aの出力トルクを増加させる減速機を有することが好ましい。
 本実施形態では、右腕部フレーム32aは、複数のフレーム部材と、複数の連結機構と、を含む多関節ロボットアームにより構成される。例えば右腕部フレーム32aは、右肩部フレームF1aと、右上腕部フレームF2aと、右肘部フレームF3aと、右前腕部フレームF4aと、を有している。胴部フレーム16、右肩部フレームF1a、右上腕部フレームF2a、右肘部フレームF3aおよび右前腕部フレームF4aは、それぞれ連結機構を介して互いに連結している。
 右腕部サーボモータ35aは、複数のサーボモータの総称表記である。例えば右腕部サーボモータ35aは、右肩部サーボモータM1aと、右上腕部サーボモータM2aと、右肘部サーボモータM3aと、右前腕部サーボモータM4aと、を有している。右肩部サーボモータM1aは、胴部フレーム16に対して垂直な回転軸回りに右肩部フレームF1aを回動させる。右上腕部サーボモータM2aは、右肩部フレームF1aの回転軸に対して垂直な回転軸回りに右上腕部フレームF2aを回動させる。右肘部サーボモータM3aは、右上腕部フレームF2aの回転軸に対して垂直な回転軸回りに右肘部フレームF3aを回動させる。右前腕部サーボモータM4aは、右肘部フレームF3aの回転軸に対して垂直な回転軸回りに右前腕部フレームF4aを回動させる。
 左腕部フレーム32bは、左腕部連結機構34bを介して胴部フレーム16に連結しており、左腕部サーボモータ35bによって駆動されることにより、胴部フレーム16に対して相対的に変位可能である。左腕部フレーム32bが変位することにより、左腕部3bは胴部1に対して相対的に変位する。左腕部連結機構34bは、例えば左腕部サーボモータ35bの出力トルクを増加させる減速機を有することが好ましい。
 本実施形態では、左腕部フレーム32bは、複数のフレーム部材と、複数の連結機構と、を含む多関節ロボットアームにより構成される。例えば左腕部フレーム32bは、左肩部フレームF1bと、左上腕部フレームF2bと、左肘部フレームF3bと、左前腕部フレームF4bと、を有している。胴部フレーム16、左肩部フレームF1b、左上腕部フレームF2b、左肘部フレームF3bおよび左前腕部フレームF4bは、それぞれ連結機構を介して互いに連結している。
 左腕部サーボモータ35bは、複数のサーボモータの総称表記である。例えば左腕部サーボモータ35bは、左肩部サーボモータM1bと、左上腕部サーボモータM2bと、左肘部サーボモータM3bと、左前腕部サーボモータM4bと、を有している。左肩部サーボモータM1bは、胴部フレーム16に対して垂直な回転軸回りに左肩部フレームF1bを回動させる。左上腕部サーボモータM2bは、左肩部フレームF1bの回転軸に対して垂直な回転軸回りに左上腕部フレームF2bを回動させる。左肘部サーボモータM3bは、左上腕部フレームF2bの回転軸に対して垂直な回転軸回りに左肘部フレームF3bを回動させる。左前腕部サーボモータM4bは、左肘部フレームF3bの回転軸に対して垂直な回転軸回りに左前腕部フレームF4bを回動させる。このように腕部3が4軸の関節部を有することにより、ロボット100は、リアリティが高い動作を実現できる。リアリティが高い動作とは、人間を含む動物の動作として自然な動作をいう。本実施形態では、リアリティが高い動作は、ロボット100が子熊として自然な動作に対応する。
 頭部フレーム22は、頭部連結機構27を介して胴部フレーム16に連結しており、頭部サーボモータ35cによって駆動されることにより、胴部フレーム16に対して相対的に変位可能である。頭部フレーム22が変位することにより、頭部2は胴部1に対して相対的に変位する。頭部連結機構27は、例えば頭部サーボモータ35cの出力トルクを増加させる減速機を有することが好ましい。
 本実施形態では、頭部フレーム22は、頸部フレームF1cと、顔部フレームF2cと、を有している。胴部フレーム16、頸部フレームF1cおよび顔部フレームF2cは、それぞれ連結機構を介して互いに連結している。
 頭部サーボモータ35cは、複数のサーボモータの総称表記である。例えば頭部サーボモータ35cは、頸部サーボモータM1cと、顔部サーボモータM2cと、を有している。頸部サーボモータM1cは、胴部フレーム16に対して垂直な回転軸回りに頸部フレームF1cを回動させる。顔部サーボモータM2cは、頸部フレームF1cの回転軸に対して垂直な回転軸回りに顔部フレームF2cを回動させる。このように頭部2が2軸の関節部を有することにより、ロボット100は、よりリアリティが高い動作を実現できる。
 右脚部フレーム42aは、右脚部連結機構44aを介して胴部フレーム16に連結しており、底面側に右脚部車輪41aを有している。ロボット100の姿勢を安定させるため、ロボット100は右脚部フレーム42aの前後方向に2個の右脚部車輪41aを有することが好ましい。右脚部車輪41aは、右脚部サーボモータ35dによって駆動されることにより、右脚部フレーム42aの前後方向に対して垂直な回転軸回りに回転可能である。右脚部車輪41aが回転することにより、ロボット100は走行が可能になる。右脚部連結機構44aは、例えば右脚部サーボモータ35dの出力トルクを増加させる減速機を有することが好ましい。
 左脚部フレーム42bは、左脚部連結機構44bを介して胴部フレーム16に連結しており、底面側に左脚部車輪41bを有している。ロボット100の姿勢を安定させるため、ロボット100は左脚部フレーム42bの前後方向に2個の左脚部車輪41bを有することが好ましい。左脚部車輪41bは、左脚部サーボモータ35eによって駆動されることにより、左脚部フレーム42bの前後方向に対して垂直な回転軸回りに回転可能である。左脚部車輪41bが回転することにより、ロボット100は走行が可能になる。左脚部連結機構44bは、例えば左脚部サーボモータ35eの出力トルクを増加させる減速機を有することが好ましい。
 本実施形態では、右脚部車輪41aおよび左脚部車輪41bを同時に前転または後転させることにより、ロボット100は前進または後進する。右脚部車輪41aと左脚部車輪41bのいずれか一方をブレーキにより制動させ、他方を前転または後転させることにより、ロボット100は右旋回または左旋回する。このように脚部4により、ロボット100は、よりリアリティが高い動作を実現できる。
 触覚センサ12、制御部13、バイタルセンサ14およびバッテリ15は、胴部載置台17に固定されている。制御部13およびバッテリ15は、胴部載置台17における触覚センサ12およびバイタルセンサ14が固定された側とは反対側に固定されている。なお、ここでの制御部13およびバッテリ15の配置は、胴部載置台17上に配置可能なスペースの都合であって、必ずしも上記に限定されない。但し、胴部載置台17における触覚センサ12およびバイタルセンサ14が固定された側とは反対側にバッテリ15を固定すると、バッテリ15は他の構成部と比較して重いため、ロボット100の重心が低くなる。ロボット100の重心が低いと、ロボット100の位置および姿勢の少なくとも1つが安定し、かつバッテリ15の充電および交換の少なくとも1つが行いやすくなるため好ましい。
 第1静電容量センサ21は、頭部載置台23に固定され、第2静電容量センサ31は右腕部載置台33に固定されている。ディスプレイ24は、右眼ディスプレイ24aと、左眼ディスプレイ24bと、を有している。右眼ディスプレイ24a、左眼ディスプレイ24bおよびスピーカ25は、頭部フレーム22に固定されている。ライト26は、右頬ライト26aと、左頬ライト26bと、を有している。右頬ライト26aおよび左頬ライト26bは、頭部フレーム22に固定されている。
 なお、触覚センサ12、制御部13、バイタルセンサ14、バッテリ15、第1静電容量センサ21、第2静電容量センサ31等の固定は、ネジ部材または接着部材等により行うことができる。また右眼ディスプレイ24a、左眼ディスプレイ24b、スピーカ25、右頬ライト26a、左頬ライト26b等の固定も、ネジ部材または接着部材等により行うことができる。
 胴部フレーム16、胴部載置台17、頭部フレーム22、頭部載置台23、右腕部フレーム32a、右腕部載置台33および左腕部フレーム32bの各材質に特段の制限はなく、樹脂材料または金属材料等を使用できる。但し、駆動時における強度を確保する観点では、胴部フレーム16、右腕部フレーム32aおよび左腕部フレーム32bには、アルミニウム等の金属材料を用いることが好ましい。一方、強度を確保可能であれば、ロボット100を軽量化するために、これら各部の材料には樹脂材料を用いることが好ましい。胴部載置台17、頭部フレーム22、頭部載置台23、右腕部載置台33および左腕部フレーム32bの各材質にも特段の制限はなく、樹脂材料または金属材料を使用できるが、ロボット100を軽量化する観点では、樹脂材料を用いることが好ましい。
 制御部13は、ロボット100全体の動作を制御する。本実施形態では特に、制御部13は、カメラ11からの出力に基づき、ユーザの呼吸を所定状態に誘導するように、ロボット100の動作を制御できる。制御部13は、カメラ11、触覚センサ12、バイタルセンサ14、第1静電容量センサ21、第2静電容量センサ31、右腕部サーボモータ35aおよび左腕部サーボモータ35bのそれぞれと、有線または無線により通信可能に接続している。また制御部13は、頭部サーボモータ35c、右脚部サーボモータ35dおよび左脚部サーボモータ35eのそれぞれにも、有線または無線により通信可能に接続している。さらに制御部13は、右眼ディスプレイ24a、左眼ディスプレイ24b、スピーカ25、右頬ライト26aおよび左頬ライト26bのそれぞれにも、有線または無線により通信可能に接続している。
 カメラ11は、ロボット100周辺の撮影画像を制御部13に出力するイメージセンサである。カメラ11は、ユーザを撮影する撮影部の一例である。またカメラ11は、ユーザの呼吸に関する情報を取得する第1検出部の一例である。さらにカメラ11は、ユーザの撮影画像に基づき、ユーザの呼吸に関する情報を取得する画像センサの一例である。カメラ11は、外装部材10の内側における子熊の鼻部5に対応する位置に配置されている。カメラ11の固定は、接着部材等により行うことができる。なお、カメラ11の構成については、別途、図4を参照して詳述する。
 触覚センサ12は、人間の手等に備わっている触覚が感じとる情報を取得し、電気信号である触覚信号に変換して制御部13に出力するセンサ素子である。例えば触覚センサ12は、ユーザがロボット100に接触することにより生じた圧力や振動の情報を圧電素子によって触覚信号に変換して制御部13に出力する。触覚センサ12から出力された触覚信号は、ロボット100に対するユーザの接触または近接の検出に用いられる。
 バイタルセンサ14は、ユーザの呼吸に関する情報を取得する第1検出部の一例である。またバイタルセンサ14は、電磁波を利用してユーザの呼吸に関する情報を取得する電磁波センサの一例である。またバイタルセンサ14は、ユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報を取得する第2検出部の一例である。バイタルセンサ14は、ロボット100における外装部材10の内側に配置されてもよい。なお、バイタルセンサ14の構成については、別途、図5を参照して詳述する。
 膨縮機構18は、ロボット100の胴部1を膨張および収縮可能な機構部である。本実施形態では、膨縮機構18は、ユーザの呼吸誘導に用いられる。なお、膨縮機構18の構成については、別途、図6を参照して詳述する。
 第1静電容量センサ21および第2静電容量センサ31は、ユーザがロボット100に接触または近接したことを静電容量の変化に基づき検出した静電容量信号を制御部13に出力するセンサ素子である。第1静電容量センサ21は、外装部材10の安定化の観点で可撓性を有さないリジッドセンサであることが好ましい。腕部3はユーザが触れやすい部位であるため、第2静電容量センサ31は、触り心地を良好にする観点において、導電糸等を含む可撓性を有するセンサであることが好ましい。第1静電容量センサ21および第2静電容量センサ31から出力された静電容量信号は、ロボット100に対するユーザの接触または近接の検出のために用いられる。
 右眼ディスプレイ24aおよび左眼ディスプレイ24bは、制御部13からの指令に応じて、文字、数字および記号等の文字列または画像を表示するディスプレイモジュールである。右眼ディスプレイ24aおよび左眼ディスプレイ24bは、例えば液晶ディスプレイモジュールにより構成される。右眼ディスプレイ24aおよび左眼ディスプレイ24bに表示される文字列または画像は、ロボット100の感情表現等に用いられてもよい。例えばロボット100は、幸福な感情を抱いて座っているユーザに対して右眼ディスプレイ24aおよび左眼ディスプレイ24bに「笑う」画像を表示して幸福を共感することにより、ユーザとの触れ合いを暗示的に誘発することが可能になる。
 スピーカ25は、制御部13からの音声信号を増幅して音声を出力するスピーカユニットである。スピーカ25から出力される音声は、ロボット100の言葉または鳴き声であり、ロボット100の感情表現等に用いられてもよい。
 右頬ライト26aおよび左頬ライト26bは、ロボット100の頭部2に設けられた発光部の一例である。右頬ライト26aおよび左頬ライト26bは、明滅速度、光の輝度、および光の色の、少なくとも1つを変更するライトモジュールである。右頬ライト26aおよび左頬ライト26bは、例えばLED(Light Emitting Diode)ライトモジュールにより構成される。ロボット100は、右頬ライト26aおよび左頬ライト26bの明滅速度、光の輝度、および光の色の、少なくとも1つを変更することにより、ユーザを呼吸誘導することができる。
 バッテリ15は、カメラ11、触覚センサ12、制御部13、バイタルセンサ14、第1静電容量センサ21、第2静電容量センサ31、右腕部サーボモータ35aおよび左腕部サーボモータ35bそれぞれに電力を供給する電源である。またバッテリ15は、頭部サーボモータ35c、右脚部サーボモータ35dおよび左脚部サーボモータ35eのそれぞれにも電力を供給する。さらにバッテリ15は、右眼ディスプレイ24a、左眼ディスプレイ24b、スピーカ25、右頬ライト26aおよび左頬ライト26bのそれぞれにも電力を供給する。バッテリ15には、リチウムイオン電池、リチウムポリマー電池等の各種二次電池を使用できる。
 なお、ロボット100における触覚センサ12、第1静電容量センサ21、第2静電容量センサ31等の各種センサの設置位置は適宜変更可能である。また、触覚センサ12、第1静電容量センサ21、第2静電容量センサ31等の各種センサは、ロボット100の外側に配置され、無線を介してロボット100または外部装置に必要な情報を送信してもよい。
 また、ロボット100は、制御部13を必ずしも外装部材10の内側に有さなくてもよく、制御部13は外装部材10の外側から無線を介して各機器と通信することもできる。バッテリ15は、外装部材10の外側から各構成部に電力供給することもできる。
 本実施形態では、頭部2、腕部3および脚部4が変位可能である構成を例示しているが、これに限定されるものではなく、頭部2、腕部3および脚部4の少なくとも1つが変位可能であってもよい。また腕部3は、4軸の多関節ロボットアームにより構成されているが、6軸の多関節ロボットアームにより構成されてもよい。さらに腕部3は、ハンド等のエンドエフェクタを連結可能であることが好ましい。また脚部4は、車輪方式により構成されているが、クローラ方式または脚方式等により構成可能である。
 ロボット100の構成および形状も、本実施形態で例示するものに限定されず、ユーザの嗜好やロボット100の使用形態等に応じて適宜変更可能である。例えばロボット100は、子熊を模した形態ではなく、他の生物の形態や、ヒューマノイド等の人型の形態等であってもよい。またロボット100は、アーム、ディスプレイ、スピーカおよびライト等の少なくとも一つを有するドローンまたは車両等の移動装置の形態でもよい。
 <カメラ11の構成例>
 図4は、カメラ11の構成の一例を示す図である。カメラ11は、撮影用光源201と、波長フィルタ202と、レンズ203と、撮像素子204と、を有する。カメラ11は、ロボット100の外部からは視認されにくいようにカモフラージュされつつ、ロボット100の表面近傍に配置される。
 撮影用光源201は、所定のピーク波長の照射光Lをユーザ200に向けて照射する。所定のピーク波長に特段の制限はないが、照射光を視認されにくくする観点では、所定のピーク波長は、近赤外光等の非可視光のものであることが好ましい。波長フィルタ202は、撮影用光源201からの照射光Lにおけるピーク波長近傍の波長の光を透過させる光学素子である。レンズ203は、撮影用光源201からの照射光Lのユーザ200等による反射光Rを用いてユーザ200等の像を撮像素子204の撮像面上に形成する。撮像素子204は、レンズ203により形成された像を撮像した撮影画像Imを制御部13に出力する。制御部13は、撮影画像Imに基づき、ユーザ200の呼吸特性情報を取得できる。呼吸特性情報は呼吸特性を示す情報、呼吸特性に関連する情報等を含む。撮影画像Imから呼吸特性情報を取得できる観点において、撮像素子204から出力される撮影画像Imは、ユーザの呼吸に関する情報に対応する。撮像素子にはCCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)等を使用できる。撮影画像は、静止画または動画のいずれであってもよい。
 カメラ11では、波長フィルタ202が配置されることにより、レンズ203や撮像素子204がロボット100の外部からは視認されにくいようにカモフラージュされる。カメラ11は、撮影用光源201からの光のうち、ユーザ200により反射され、波長フィルタ202を透過した光を用いてユーザ200を撮影する。また、鼻部5は、胴部1、頭部2、腕部3等と比較して、ユーザ200が触れる機会が少ない部位である。従って、カメラ11が鼻部5に配置されることにより、ユーザ200はカメラ11に接触しにくくなる。これにより、ユーザ200がロボット100に接触した際に、カメラ11の表面が外装部材10の表面よりも硬いことによって生じる触り心地の違和感を低減できる。仮にユーザ200が鼻部5に接触した際にも、鼻部5は胴部1、頭部2、腕部3等と比較して触感が異なったとしてもさほどの不自然はないため、触り心地の違和感を低減可能である。
 カメラ11が配置される位置は、上述した鼻部5への配置と同様の作用が得られれば、鼻部5に限らず、口、目等の他の部位であってもよい。また、カメラ11は、外装部材10の内側に配置されることに限定されず、外装部材10の外側に配置されてもよい。カメラ11が外装部材10の外側に配置される場合には、必ずしもカメラ11が視認されにくいようにカモフラージュする必要はないため、カメラ11はカモフラージュのための波長フィルタ202を有さなくてもよい。
 本実施形態では、カメラ11による撮影画像Imは、呼吸特性情報を取得するために用いられる他、ユーザ200を個人認証する等の他の用途にも用いられてもよい。用途ごとに複数のカメラがロボット100の複数の部位に設けられてもよい。
 第1検出部は、カメラ11に限定されるものではなく、マイクロ波、ミリ波等の電磁波を利用したドップラーセンサ等の電磁波センサであってもよい。つまり、本実施形態では、第1検出部は、電磁波を利用してユーザの呼吸に関する情報を取得する電磁波センサ、および、ユーザの撮影画像に基づき、ユーザの呼吸に関する情報を取得する画像センサ、の少なくとも1つを含んでもよい。
 例えば、電磁波センサとしてのマイクロ波ドップラーセンサは、呼吸に伴うユーザ200の体表面の振動を検出し、検出した振動に基づく信号処理により、ユーザ200の呼吸に関する情報を出力できる。マイクロ波ドップラーセンサから出力される振動周期は、呼吸の速度、周波数等に対応する。マイクロ波ドップラーセンサから出力される振動回数は、呼吸回数に対応する。マイクロ波ドップラーセンサから出力される振動振幅は、呼吸の深さ等に対応する。マイクロ波ドップラーセンサには、図5を参照して次述するバイタルセンサ14等を適用できる。電磁波センサは、撮影画像を用いないため、カメラ11と比較して外装部材10の内側に配置しやすい。第1検出部を外装部材10の内側に配置することにより、ユーザは第1検出部を視認できない。この結果、ロボット100は、自身の呼吸に関する情報を取得されることに対するユーザの抵抗感を低減し、ユーザの呼吸に関する情報の円滑な取得が可能になる。
 カメラ11は、ユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報を取得する第2検出部として使用されてもよい。この場合には、照射光Lおよび反射光Rは、生体情報を取得するために使用される電磁波に対応する。
 <バイタルセンサ14の構成例>
 図5は、バイタルセンサ14の構成を例示する図である。バイタルセンサ14は、マイクロ波発射部141と、マイクロ波受信部142と、有するマイクロ波ドップラーセンサである。マイクロ波は電磁波の一例である。
 バイタルセンサ14は、外装部材10の内側から、マイクロ波発射部141によって、ユーザ200に向けてマイクロ波である発射波Msを発射する。またバイタルセンサ14は、発射波Msがユーザ200により反射された反射波Mrを、マイクロ波受信部142により受信する。
 バイタルセンサ14は、発射波Msの周波数と反射波Mrの周波数との差から、ドップラー効果を利用して、ユーザ200の心臓の拍動等により体表面に生じる微小変位を非接触で検出する。バイタルセンサ14は、検出した微小変位からユーザ200の生体情報としての心拍、呼吸、脈波、血圧、脈圧等の情報を取得し、これらを制御部13に出力できる。呼吸の情報には、呼吸数、リズム、呼吸の深さ等が含まれる。脈波には、脈拍、脈拍間隔R-R、脈波波形、脈波伝搬速度等が含まれる。
 バイタルセンサ14は、マイクロ波ドップラーセンサに限定されるものではなく、人体とアンテナの結合の変化を利用して体表面に生じる微小な変位を検出するものであってもよいし、近赤外光等のマイクロ波以外の電磁波を利用するものであってもよい。またバイタルセンサ14は、ミリ波レーダー、マイクロ波レーダー等であってもよい。さらにバイタルセンサ14は、ドップラーセンサに加え、ユーザ200から発する赤外線等を検知する非接触体温計を兼ね備えていることが好ましい。この場合、バイタルセンサ14は、心拍(脈拍)、呼吸、血圧および体温のうちの少なくとも一つに関する情報を含んだユーザ200の生体情報を検知する。また、バイタルセンサ14は、心拍、呼吸、脈波、血圧、脈圧等の複数種類の生体情報を種類ごとに取得可能な複数のバイタルセンサを含み、複数種類の生体情報を取得してもよい。
 バイタルセンサ14は外装部材10の内側に設けられているため、ユーザ200はバイタルセンサ14を視認することはできない。これにより、生体情報を取得されることに対するユーザ200の抵抗感が低減され、生体情報の円滑な取得が可能になる。また、バイタルセンサ14は非接触で生体情報を取得できるため、ユーザ200が同じ場所に一定期間接触することが求められる接触式のセンサとは異なり、ユーザ200がある程度動いたとしても生体情報を取得できる。
 また、ロボット100の抱擁動作等によって、ユーザ200とロボット100との触れ合いを促進することにより、ロボット100は、ユーザ200に抱きかかえられ、ユーザ200に接触または近接した状態で生体情報を取得できる。これにより、ロボット100は、ノイズが低減された信頼性が高い生体情報を取得できる。
 <膨縮機構18の構成例>
 図6は、膨縮機構18の構成を例示する図である。膨縮機構18は、支持部181と、押圧駆動部182と、回動部183と、押圧部184と、を有する。支持部181は、ネジ部材、接着部材等によって胴部フレーム16に固定される。支持部181は、押圧駆動部182を支持する。
 膨縮機構18は、押圧駆動部182により回動部183をその回動軸回り(矢印180の方向)に回動させることによって、回動部183の回動軸回りに押圧部184を往復揺動させる。膨縮機構18は、押圧部184の揺動により、腹部191の外装部材10を押したり、押さなかったりすることができる。膨縮機構18では、回動部183がその回動軸回りに時計回りに回動すると、内側から外側に向けて押圧部184が腹部191の外装部材10を押す状態になる。この状態では、外装部材10は、押圧部184により押された方向に膨れ、腹部191は膨張した状態になる。一方、回動部183がその回動軸回りに反時計回りに回動すると、押圧部184は腹部191の外装部材10に接触せず、外装部材10を押していない状態になる。この状態では、外装部材10は、自身の弾性によって縮み、腹部191は収縮した状態になる。膨縮機構18は、制御部13からの膨縮制御信号に応じて、所定の膨縮周波数および所定の膨縮振幅で腹部191を膨縮させることができる。腹部191は、胴部1の一部であるため、換言すると、膨縮機構18は、制御部13からの膨縮制御信号に応じて、所定の膨縮周波数および所定の膨縮振幅で胴部1を膨縮させることができる。
 <膨縮機構18の変形例>
 膨縮動作に必要な消費エネルギーを低減するために、押圧部184と当接する箇所の外装部材10は、切込みを形成したり、あるいは周囲から切り離された独立部分として構成されたりしてもよい。その際、ロボット100に「生物らしさ」を付与したい場合は、切込みを隠す被覆部材を表面に設けることが好ましい。また、押圧部184と外装部材10の当接部は接着されていてもよい。また、膨縮機構として、袋状の容器を外装部材10の内側に配置し、油圧や空気圧、その他充填された流体に圧力を印加することで防縮するようにしてもいい。また、その他の膨縮機構として、ソフトアクチュエータのような電流の印加で変形/膨縮する素材を外装部材10の内側に配置し、ロボット100の腹部を膨縮するようにしてもよい。
 <制御部13の構成例>
 (ハードウェア構成例)
 図7は、制御部13のハードウェア構成の一例を示すブロック図である。制御部13は、コンピュータによって構築されており、CPU(Central Processing Unit)131と、ROM(Read Only Memory)132と、RAM(Random Access Memory)133と、を有する。また制御部13は、HDD/SSD(Hard Disk Drive/Solid State Drive)134と、機器接続I/F(Interface)135と、通信I/F136と、を有する。これらは、システムバスAを介して相互に通信可能に接続している。
 CPU131は、各種の演算処理を含む制御処理を実行する。ROM132は、IPL(Initial Program Loader)等のCPU131の駆動に用いられるプログラムを記憶する。RAM133は、CPU131のワークエリアとして使用される。HDD/SSD134は、プログラム等の各種情報、カメラ11により取得された撮像画像、バイタルセンサ14により取得された生体情報、触覚センサ12により取得された触覚信号等の各種センサによる検出情報等を記憶する。
 機器接続I/F135は、制御部13を各種の外部機器と接続するためのインターフェースである。ここでの外部機器は、カメラ11、触覚センサ12、バイタルセンサ14、第1静電容量センサ21、第2静電容量センサ31、サーボモータ35、バッテリ15、膨縮機構18、ライト26等である。また外部機器には、図1に示したディスプレイ24、スピーカ25等も含まれる。
 ここでサーボモータ35は、右腕部サーボモータ35a、左腕部サーボモータ35b、頭部サーボモータ35c、右脚部サーボモータ35dおよび左脚部サーボモータ35eの総称表記である。またディスプレイ24は、右眼ディスプレイ24aおよび左眼ディスプレイ24bの総称表記である。さらにライト26は、右頬ライト26aおよび左頬ライト26bの総称表記である。
 通信I/F136は、通信ネットワーク等を介して、外部装置との間で通信するためのインターフェースである。例えば、制御部13は、通信I/F136を介してインターネットに接続し、インターネットを介して外部装置との間で通信する。
 なお、CPU131により実現される機能の少なくとも一部は、電気回路または電子回路により実現されてもよい。
 (機能構成例)
 図8は、制御部13の機能構成の一例を示すブロック図である。制御部13は、取得部101と、通信制御部102と、格納部103と、認証部104と、登録部105と、開始制御部106と、モータ制御部107と、検出部108と、出力部109と、を有する。さらに制御部13は、呼吸特性情報取得部110と、膨縮制御部111と、発光制御部112と、を有する。なお、制御部13は、上記以外の機能構成部をさらに有してもよい。
 制御部13は、取得部101および出力部109の各機能を機器接続I/F135等により実現し、通信制御部102の機能を通信I/F136等により実現できる。また、制御部13は、格納部103および登録部105の各機能をHDD/SSD134等の不揮発性メモリにより実現できる。さらに制御部13は、認証部104、開始制御部106、モータ制御部107および検出部108の各機能を、CPU131等のプロセッサがROM132等の不揮発性メモリに格納されたプログラムに規定された処理を実行すること等により実現できる。
 また制御部13は、呼吸特性情報取得部110、膨縮制御部111および発光制御部112の各機能を、CPU131等のプロセッサがROM132等の不揮発性メモリに格納されたプログラムに規定された処理を実行すること等により実現できる。なお、制御部13が有する上記機能の一部は、PCまたはサーバ等の外部装置により実現されてもよいし、制御部13と外部装置との分散処理により実現されてもよい。
 取得部101は、制御部13とカメラ11との間での通信を制御することにより、カメラ11からユーザ200を写した撮影画像Imを取得する。また取得部101は、制御部13と触覚センサ12との間での通信を制御することにより、触覚センサ12から触覚信号Sを取得する。さらに取得部101は、制御部13とバイタルセンサ14との間での通信を制御することにより、バイタルセンサ14からユーザ200の生体情報Bを取得する。
 また取得部101は、制御部13と第1静電容量センサ21との間での通信を制御することにより、第1静電容量センサ21から第1静電容量信号C1を取得する。また取得部101は、制御部13と第2静電容量センサ31との間での通信を制御することにより、第2静電容量センサ31から第2静電容量信号C2を取得する。
 通信制御部102は、通信ネットワーク等を介して外部装置との間で通信を制御する。例えば通信制御部102は、カメラ11により取得された撮影画像Im、バイタルセンサ14により取得された生体情報B、触覚センサ12により取得された触覚信号S等を、通信ネットワークを介して外部装置に送信できる。
 格納部103は、バイタルセンサ14により取得された生体情報Bを格納する。格納部103は、取得部101がバイタルセンサ14から生体情報Bを取得している間、取得される生体情報Bを連続して格納する。また格納部103は、カメラ11による撮影画像Im、触覚センサ12からの触覚信号S、第1静電容量センサ21からの第1静電容量信号C1、および第2静電容量センサ31からの第2静電容量信号C2から得られる情報も格納できる。また、格納部103は、撮影画像Imに基づいて取得される呼吸特性情報と、膨縮機構18の動作、ライト26の動作およびサーボモータ35の少なくとも1つと、の対応関係について、予め定められた対応関係情報を格納してもよい。
 認証部104は、カメラ11によるユーザ200の撮影画像Imに基づいてユーザ200を個人認証する。例えば認証部104は、カメラ11により撮影されたユーザ200の顔を含む撮影画像Imに基づき、登録部105に予め登録された顔画像の登録情報150を参照して顔認証する。これにより、現在、ロボット100に接触または近接しているユーザ200と、予め登録された個人情報と、を対応付け、バイタルセンサ14により取得される生体情報Bと、該個人情報と、を対応付けることができる。また、制御部13は、撮影画像Imに含まれる顔画像が登録部105に登録されていない場合には、バイタルセンサ14による生体情報の取得開始を中止するように制御することもできる。
 開始制御部106は、バイタルセンサ14に生体情報Bの取得を開始させる。例えば、開始制御部106は、検出部108により、ロボット100に対するユーザ200の接触または近接が検出された場合に、バッテリ15からバイタルセンサ14へ電力供給するスイッチ等をオンする。これにより開始制御部106は、バイタルセンサ14に生体情報Bの取得を開始させる。
 検出部108は、カメラ11による撮影画像Im等に基づき、ロボット100へのユーザ200の接触または近接を検出する。検出部108は、カメラ11による撮影画像Imに基づき、ロボット100からユーザ200までの距離を検出してもよい。また検出部108は、第1静電容量信号C1または第2静電容量信号C2に基づき、ロボット100へのユーザ200の接触または近接を検出してもよい。さらに検出部108は、触覚センサ12からの触覚信号Sに基づき、ロボット100へのユーザ200の接触または近接を検出してもよい。
 呼吸特性情報取得部110は、取得部101を介して取得される撮影画像Imに基づき、撮影画像Imに含まれているユーザ200(図4参照)の呼吸特性情報M1を取得する。例えば、呼吸特性情報取得部110は、取得部101を介して連続的に取得される複数の撮影画像Imから呼吸に伴うユーザ200の胸部の振動を検出する。呼吸特性情報取得部110は、この振動から呼吸の速度、周波数、呼吸回数、呼吸の深さ等の呼吸特性情報M1を取得する。呼吸特性情報取得部110は、撮影画像Imに基づくrPPG(remote photoplethysmography)により呼吸特性情報M1を取得してもよい。rPPGとは、血流による肌の色の変化を解析することで、心拍数や呼吸を推定する技術をいう。呼吸特性情報取得部110は、バイタルセンサ14を用いて取得される生体情報Bに基づき、呼吸特性情報M1を取得してもよい。呼吸特性情報取得部110は、呼吸特性情報M1を膨縮制御部111に出力する。
 膨縮制御部111は、呼吸特性情報取得部110からの呼吸特性情報M1に応じて、ユーザ200の呼吸を所定状態に誘導するように膨縮機構18の動作を制御する。例えば、膨縮制御部111は、呼吸特性情報M1に基づき、格納部103に格納された対応関係情報130を参照して膨縮機構18の動作情報N1を取得する。膨縮制御部111は、出力部109を介して膨縮機構18に動作情報N1を出力することにより、膨縮機構18の動作を制御できる。動作情報N1は、膨縮制御信号に対応する。
 以下の表1は、対応関係情報130の一例を示したものである。表1において、対応関係情報130は、呼吸特性情報M1として呼吸速度V1~V4と、呼吸の深さD1~D4と、を含む。また、対応関係情報130は、呼吸速度V1~V4に対をなす膨縮周波数f1~f4と、呼吸の深さD1~D4に対をなす膨縮振幅Am1~Am4と、を含む。
Figure JPOXMLDOC01-appb-T000001
 例えば、動作情報N1における膨縮周波数は、呼吸特性情報M1における呼吸速度に対応する周波数よりも所定周波数分ずれた周波数が予め定められている。膨縮制御部111は、対応関係情報130を参照して呼吸特性情報M1における呼吸速度に対応する周波数よりも所定周波数分ずれた膨縮周波数の情報を取得する。膨縮制御部111は、この膨縮周波数で膨縮機構18を膨縮させる。ユーザ200は、膨縮機構18の膨縮に合わせて呼吸を行う。これにより、ロボット100は、例えば呼吸速度が徐々に遅くなるようにユーザ200の呼吸を誘導することができる。徐々に遅くなる時系列ごとの呼吸速度の状態のそれぞれは、呼吸の「所定状態」に対応する。
 また、例えば動作情報N1における膨縮振幅は、呼吸特性情報M1における呼吸の深さに対応する振幅よりも所定振幅分ずれた振幅が予め定められている。膨縮制御部111は、対応関係情報130を参照して呼吸特性情報M1における呼吸の深さに対応する振幅よりも所定振幅分ずれた膨縮振幅の情報を取得する。膨縮制御部111は、この膨縮振幅で膨縮機構18を膨縮させる。ユーザ200は、膨縮機構18の膨縮に合わせて呼吸を行う。これにより、ロボット100は、例えば呼吸の深さが徐々に深くなるように膨縮振幅を大きくすることで、ユーザ200の呼吸を誘導することができる。徐々に深くなる時系列ごとの呼吸の深さの状態のそれぞれは、呼吸の「所定状態」に対応する。
 膨縮機構18の動作は、ロボット100における胴部1の膨縮動作であり、ロボット100の動作に対応する。従って、ユーザ200がロボット100を抱きかかえてロボット100に触れ合い、ロボット100とコミュニケーションしている状態で、ロボット100は、膨縮制御部111により制御されるロボット100の動作により、ユーザ200を呼吸誘導できる。なお、表1に示した対応関係情報130は一例であり、これに限定されるものではない。また、膨縮制御部111による呼吸誘導方法も一例であり、これに限定されるものではない。例えばロボット100は、呼吸特性情報M1に基づき、適正に呼吸誘導するための膨縮機構18の動作をディープニューラルネットワーク(DNN:Deep Neural Network)等を用いて推定し、この推定結果に応じて膨縮機構18の動作を制御してもよい。
 呼吸特性情報取得部110は、呼吸特性情報M1を発光制御部112に出力してもよい。発光制御部112は、呼吸特性情報取得部110からの呼吸特性情報M1に応じて、ユーザ200の呼吸を所定状態に誘導するようにライト26の動作を制御してもよい。発光制御部112は、ライト26の明滅速度、ライト26からの光の輝度、および、ライト26からの光の色、の少なくとも1つを制御してもよい。例えば、発光制御部112は、呼吸特性情報M1に基づき、格納部103に格納された対応関係情報を参照してライト26の動作情報N2を取得する。ライト26の動作情報N2は、ライト26の明滅速度、ライト26からの光の輝度、および、ライト26からの光の色、の少なくとも1つを制御するための情報である。発光制御部112は、出力部109を介してライト26にライト26の動作情報N2を出力することにより、ライト26の動作を制御できる。ユーザ200は、ロボット100を抱きかかえてロボット100に触れ合い、ロボット100とコミュニケーションしている状態において、ライト26を視認しながら、ライト26の明滅速度等に合わせて呼吸を行う。これにより、ロボット100は、ユーザ200を呼吸誘導できる。
 呼吸特性情報取得部110は、呼吸特性情報M1をモータ制御部107に出力してもよい。モータ制御部107は、呼吸特性情報取得部110からの呼吸特性情報M1に応じて、ユーザ200の呼吸を所定状態に誘導するようにサーボモータ35の動作を制御してもよい。モータ制御部107は、サーボモータ35の動作を制御することにより、ロボット100におけるロボット本体に対して相対的に変位可能に連結された腕部3を含む駆動体を制御できる。モータ制御部107は、ユーザ200の身体の一部に腕部3を巻き付ける動作、腕部3によりユーザ200の皮膚に加圧する動作、および、ユーザ200の身体の一部を腕部3により撫でる動作、の少なくとも1つを制御してもよい。例えば、モータ制御部107は、呼吸特性情報M1に基づき、格納部103に格納された対応関係情報を参照してサーボモータ35の動作情報N3を取得する。モータ制御部107は、出力部109を介してサーボモータ35にサーボモータ35の動作情報N3を出力することにより、サーボモータ35の動作を制御できる。ユーザ200は、ロボット100を抱きかかえてロボット100に触れ合い、ロボット100とコミュニケーションしている状態において、腕部3の動作に合わせて呼吸を行う。これにより、ロボット100は、ユーザ200を呼吸誘導できる。
 <ロボット100の動作例>
 図9は、ロボット100による呼吸誘導の様子を例示する図である。図9において、ユーザ200は、ロボット100を抱きかかえてロボット100に触れ合い、ロボット100とコミュニケーションしている。この状態において、ロボット100は、図8に示した膨縮制御部111により腹部191を膨縮させる。ロボット100は、ロボット100を抱きかかえるユーザ200に対し、自身の腹部191の膨縮を感じさせる。ユーザ200は腹部191の膨縮に合わせて呼吸を行う。このように、ロボット100は、ユーザ200を呼吸誘導できる。
 あるいは、図9の状態において、ロボット100は、図9に示したモータ制御部107により、ユーザ200の身体の一部に腕部3を巻き付ける動作、腕部3によりユーザ200の皮膚に加圧する動作、および、ユーザ200の身体の一部を腕部3により撫でる動作、の少なくとも1つを制御する。これにより、ロボット100は、ロボット100を抱きかかえるユーザ200に腕部3の動作を感じさせることにより、腕部3の動作に合わせてユーザ200を呼吸誘導できる。上記の他、ロボット100は、図9に示した発光制御部112によりライト26の明滅速度、ライト26からの光の輝度、および、ライト26からの光の色、の少なくとも1つを制御することによって、ユーザ200を呼吸誘導してもよい。
 図10は、制御部13による処理を例示するフローチャートである。図10は、ユーザ200を呼吸誘導するための制御部13による処理の一例を示している。制御部13は、検出部108によって、ロボット100へのユーザ200の接触または近接が検出された際に、図10の処理を開始する。以下、図8の機能構成図も適宜参照しながら説明する。
 まず、ステップS101において、制御部13は、呼吸特性情報取得部110により、取得部101を介して取得される撮影画像Imに基づき、撮影画像Imに含まれているユーザ200の呼吸特性情報M1を取得する。呼吸特性情報取得部110は、呼吸特性情報M1を膨縮制御部111に出力する。
 続いて、ステップS102において、制御部13は、膨縮制御部111により、呼吸特性情報取得部110からの呼吸特性情報M1に応じて、ユーザ200の呼吸を所定状態に誘導するように膨縮機構18の動作を制御する。
 続いて、ステップS103において、制御部13は、処理を終了するか否かを判定する。例えば、制御部13は、予め定められた時間が経過した場合に処理を終了すると判定し、経過していない場合に処理を終了しないと判定できる。あるいは、制御部13は、ユーザ200がロボット100に接触も近接もしていないことが検出された場合に処理を終了すると判定し、ユーザ200がロボット100に接触または近接していることが検出された場合に処理を終了しないと判定できる。但し、これら以外の判定方法であってもよい。
 ステップS103において、処理を終了しないと判定された場合には(ステップS103、NO)、制御部13は、ステップS101以降の処理を再度行う。一方、ステップS103において、処理を終了すると判定された場合には(ステップS103、YES)、制御部13は、処理を終了する。
 以上のようにして、制御部13は、ロボット100にユーザ200の呼吸を誘導させるための処理を実行することができる。なお、ここでは、膨縮機構18の動作を制御する処理を例示したが、サーボモータ35またはライト26の動作を制御する処理にも、膨縮制御部111による処理をモータ制御部107または発光制御部112による処理に置き換えて、図10のフローチャートを適用可能である。
 <ロボット100の主な作用効果>
 以上説明したように、ロボット100は、外装部材10と、ユーザの呼吸に関する情報を取得するカメラ11およびバイタルセンサ14の少なくとも一方(第1検出部)と、第1検出部が取得した情報に基づき、ユーザの呼吸を所定状態に誘導するようにロボット100の動作を制御する制御部13と、を有する。例えば、制御部13は、膨縮機構18、ライト26(発光部)、および腕部3を含む駆動体の少なくとも1つの動作を制御することにより、ユーザの呼吸を所定状態に誘導する。
 本実施形態では、ロボット100とユーザ200がコミュニケーションしている状態において、ロボット100がユーザ200に対して呼吸誘導するため、ロボット100は、ユーザ200の呼吸を自然に誘導することができる。換言すると、本実施形態では、ユーザの呼吸を自然に誘導可能なロボットを提供することができる。
 また、本実施形態では、ロボット100は、ロボット100とユーザ200とが触れ合う期間に、カメラ11がユーザ200に接触することなく非拘束な自然な状態でユーザ200の呼吸特性情報M1を取得する。ロボット100は、この呼吸特性情報M1に基づき、自身の動作を制御する。このため、ロボット100は、ユーザ200に拘束感を与えることなく、ユーザ200の呼吸を自然に誘導することができる。
 また、ロボット100は、第1検出部によりユーザ200の状態を把握し、ユーザ200の状態に応じて呼吸誘導するため、適切な呼吸誘導を実現できる。
 また、本実施形態では、ロボット100の動作により呼吸誘導するため、ユーザ200とロボット100との触れ合いの機会を多く作りやすい。これにより、ロボット100は、多くの触れ合いの機会の中で、ユーザ200の呼吸を誘導することができる。
 [第2実施形態]
 第2実施形態に係るロボットについて説明する。本実施形態では、バイタルセンサ等の第2検出部が取得したユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報と、にさらに基づいて、ユーザの呼吸を所定状態に誘導するように、ロボットの動作を制御する点が第1実施形態とは異なる。なお、第1実施形態と同一の名称および符号は、同一もしくは同質の部材を示しており、詳細説明を適宜省略する。この点は、以降で説明する実施形態においても同様とする。
 <制御部13aの機能構成例>
 図11は、第2実施形態に係るロボット100aが有する制御部13aの機能構成を例示するブロック図である。制御部13aは、心理状態情報取得部113と、膨縮制御部111aと、モータ制御部107aと、発光制御部112aと、を有する。
 制御部13aは、心理状態情報取得部113、膨縮制御部111a、モータ制御部107aおよび発光制御部112aの各機能を、図7に示したCPU131等のプロセッサがROM132等の不揮発性メモリに格納されたプログラムに規定された処理を実行すること等により実現できる。なお、制御部13aが有する上記機能の一部は、PCまたはサーバ等の外部装置により実現されてもよいし、制御部13と外部装置との分散処理により実現されてもよい。
 心理状態情報取得部113は、バイタルセンサ14から出力されるユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報に基づいて、心理状態情報M2を取得する。心理状態情報M2は、ユーザ200の心理状態に関する情報である。心理状態情報M2は、ユーザ200のリラックス度合いを示す情報、ユーザ200のリラックス度合いに関連する情報、ユーザ200のストレス度合いを示す情報、ユーザ200のストレス度合いに関連する情報、ユーザ200の感情を示す情報、ユーザ200の感情に関連する情報等を含む。例えば、ユーザ200がリラックスしているほど、ユーザ200の脈拍数、心拍数等が少なくなったり、血圧、脈圧等が低くなったりする。このため、心理状態情報取得部113は、バイタルセンサ14の出力から、ユーザ200がリラックス度合いを示す心理状態情報M2等を取得できる。
 心理状態情報取得部113は、取得した心理状態情報M2を膨縮制御部111aに出力する。膨縮制御部111aは、呼吸特性情報M1と、心理状態情報M2と、に基づき、ユーザ200の呼吸を所定状態に誘導するように膨縮機構18の動作を制御する。
 心理状態情報取得部113は、膨縮制御部111a、発光制御部112aおよびモータ制御部107aの少なくとも1つに、心理状態情報M2を出力してもよい。発光制御部112aは、呼吸特性情報M1と、心理状態情報M2と、に基づき、ユーザ200の呼吸を所定状態に誘導するようにライト26の動作を制御できる。モータ制御部107aは、呼吸特性情報M1と、心理状態情報M2と、に基づき、ユーザ200の呼吸を所定状態に誘導するようにサーボモータ35の動作を制御できる。
 <制御部13aによる処理例>
 図12は、制御部13aによる処理を例示するフローチャートである。図12は、ユーザ200を呼吸誘導するための、制御部13aによる処理を示している。制御部13aは、検出部108によって、ロボット100aへのユーザ200の接触または近接が検出された際に、図12の処理を開始する。以下、図11の機能構成図も適宜参照して説明する。また、図12におけるステップS121~S122の処理は、図10におけるステップS101~S102の処理と同じであるため、ここでは重複する説明を省略する。
 ステップS123において、制御部13aは、心理状態情報取得部113により、バイタルセンサ14から出力されるユーザ200の心拍に関する情報に基づいて、ユーザ200の心理状態情報M2として心拍数情報を取得する。心理状態情報取得部113は、取得した心拍数情報を膨縮制御部111aに出力する。
 続いて、ステップS124において、膨縮制御部111aは、心理状態情報取得部113から取得した心拍数情報における心拍数は閾値以下であるか否かを判定する。例えば、心拍数の閾値は予め定められ、格納部103に格納されている。膨縮制御部111aは、格納部103を参照して心拍数の閾値情報を取得できる。
 ステップS124において、心拍数は閾値以下でないと判定された場合には(ステップS124、NO)、制御部13aは、ユーザ200はリラックスできていないと判断し、ステップS121以降の処理を再度行う。一方、ステップS124において、心拍数は閾値以下であると判定された場合には(ステップS124、YES)、制御部13aは、ユーザ200はリラックスできていると判断し、処理を終了する。
 以上のようにして、制御部13aは、ユーザ200の呼吸特性情報M1と、ユーザ200の心拍数情報と、に基づき、ユーザ200を呼吸誘導するための処理を実行できる。なお、ここでは、心理状態情報M2として心拍数情報を例示したが、心理状態情報M2は、ユーザの脈拍、血圧および脈圧の少なくとも1つに関する情報であってもよい。また、ここでは、膨縮機構18の動作を制御する処理を例示したが、サーボモータ35またはライト26の動作を制御する処理にも、膨縮制御部111aによる処理をモータ制御部107aまたは発光制御部112aによる処理に置き換えて、図12のフローチャートを適用可能である。
 <ロボット100aの主な作用効果>
 以上説明したように、本実施形態では、制御部13aは、カメラ11またはバイタルセンサ14のどちらか一方(第1検出部)が取得したユーザの呼吸に関する情報と、バイタルセンサ14(第2検出部)が取得したユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報と、に基づき、ユーザの呼吸を所定状態に誘導するように、ロボット100aの動作を制御する。例えば、制御部13aは、バイタルセンサ14からの出力に基づいて得られるユーザの心理状態に関する情報に応じて、ユーザの呼吸を所定状態に誘導するように、ロボット100aの動作を制御する。
 本実施形態では、ユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報から、ユーザのリラックス状態等の心理状態を把握できるため、心理状態が良好になるように呼吸誘導することができる。例えば、ロボット100aは、呼吸誘導を行った後に、リラックス状態になっているか否かを判定し、なっていなければユーザ200に対してさらに呼吸誘導を行い、ユーザ200をリラックス状態に導くことができる。なお、これ以外の作用効果は、第1実施形態と同じである。
 [第3実施形態]
 第3実施形態に係るロボットについて説明する。本実施形態では、ユーザによるロボットの保持状態に関する情報に基づき、膨縮機構に含まれる腹部膨縮機構および背中部膨縮機構の少なくとも一方を膨張および収縮させる点が第1実施形態とは異なる。
 <ロボット100bの構成例>
 図13および図14は、第3実施形態に係るロボット100bにおける膨縮機構18Aを説明する図である。図13は、ロボット100bにおける膨縮機構18Aの配置の一例を示す図である。図14は、膨縮機構18Aにおける背中部膨縮機構18bの構成の一例を示す図である。
 図13に示すように、膨縮機構18Aは、ロボット100bの腹部191に配置される腹部膨縮機構18aと、ロボット100bの背中部192に配置される背中部膨縮機構18bと、を含む。腹部膨縮機構18aは、腹部191の外装部材10を押すことができるように配置される。腹部膨縮機構18aの構成および機能は、上述した膨縮機構18の構成および機能と同じであるため、ここでは重複する説明を省略する。
 背中部膨縮機構18bは、背中部192の外装部材10を押すことができるように配置される。図14に示すように、背中部膨縮機構18bは、支持部181bと、押圧駆動部182bと、回動部183bと、押圧部184bと、を有する。支持部181bは、ネジ部材、接着部材等によって、胴部フレーム16における支持部181が固定された側とは反対側に固定される。すなわち、腹部膨縮機構18aにおける支持部181は、胴部フレーム16における腹部191側に固定され、背中部膨縮機構18bにおける支持部181bは、胴部フレーム16における背中部192側に固定される。支持部181bは、押圧駆動部182bを支持する。
 背中部膨縮機構18bは、押圧駆動部182bにより回動部183bをその回動軸回り(矢印180bの方向)に回動させることによって、回動部183bの回動軸回りに押圧部184bを往復揺動させる。背中部膨縮機構18bは、押圧部184bの揺動により、背中部192の外装部材10を押したり、押さなかったりすることができる。背中部膨縮機構18bでは、回動部183bがその回動軸回りに反時計回りに回動すると、内側から外側に向けて押圧部184bが背中部192の外装部材10を押す状態になる。この状態では、外装部材10は、押圧部184bにより押された方向に膨れ、背中部192は膨張した状態になる。一方、回動部183bがその回動軸回りに時計回りに回動すると、押圧部184bは背中部192の外装部材10に接触せず、外装部材10を押していない状態になる。この状態では、外装部材10は、自身の弾性によって縮み、背中部192は収縮した状態になる。背中部膨縮機構18bは、制御部13bからの背中部膨縮制御信号に応じて、所定の膨縮周波数および所定の膨縮振幅で背中部192を膨縮させることができる。
 <制御部13bの機能構成例>
 図15は、ロボット100bが有する制御部13bの機能構成を例示するブロック図である。制御部13bは、保持状態情報取得部114と、膨縮制御部111bと、を有する。
 制御部13bは、保持状態情報取得部114および膨縮制御部111bの各機能を、図7に示したCPU131等のプロセッサがROM132等の不揮発性メモリに格納されたプログラムに規定された処理を実行すること等により実現できる。なお、制御部13bが有する上記機能の一部は、PCまたはサーバ等の外部装置により実現されてもよいし、制御部13bと外部装置との分散処理により実現されてもよい。
 保持状態情報取得部114は、ユーザ200によるロボット100bの保持状態に関する情報である保持状態情報M3を取得する。例えば、ロボット100bの腹部191がユーザ200に接触するように、ユーザ200がロボット100bを抱きかかえている場合には、保持状態情報取得部114は、腹部191がユーザ200に接触することを示す保持状態情報M3を取得する。一方、ロボット100bの背中部192がユーザ200に接触するように、ユーザ200がロボット100bを抱きかかえている場合には、保持状態情報取得部114は、背中部192がユーザ200に接触することを示す保持状態情報M3を取得する。保持状態情報取得部114は、例えばカメラ11による撮影画像Imを画像処理することにより、ロボット100bの腹部191または背中部192のどちらがユーザ200に接触しているかを検知し、保持状態情報M3を取得できる。
 保持状態情報取得部114は、取得した保持状態情報M3を膨縮制御部111bに出力する。膨縮制御部111bは、呼吸特性情報M1と、保持状態情報M3と、に基づき、ユーザ200の呼吸を所定状態に誘導するように膨縮機構18Aの動作を制御する。換言すると、膨縮制御部111bは、保持状態情報M3に基づき、腹部膨縮機構18aおよび背中部膨縮機構18bの少なくとも一方を膨張および収縮させる。具体的には、膨縮制御部111bは、保持状態情報M3に基づき、腹部191がユーザ200に接触するように、ユーザ200がロボット100bを抱きかかえている場合には、出力部109を介して動作情報N1aを出力することにより、腹部膨縮機構18aの動作を制御する。また、膨縮制御部111bは、保持状態情報M3に基づき、背中部192がユーザ200に接触するように、ユーザ200がロボット100bを抱きかかえている場合には、出力部109を介して動作情報N2aを出力することにより、背中部膨縮機構18bの動作を制御する。
 <制御部13bによる処理例>
 図16は、制御部13bによる処理を例示するフローチャートである。図16は、ユーザ200を呼吸誘導するための制御部13bによる処理を示している。制御部13bは、検出部108によって、ロボット100bへのユーザ200の接触または近接が検出された際に、図16の処理を開始する。以下、図15の機能構成図も適宜参照して説明する。また、図16におけるステップS161の処理は、図10におけるステップS101の処理と同じであるため、ここでは重複する説明を省略する。
 ステップS162において、制御部13bは、保持状態情報取得部114により、ユーザ200によるロボット100bの保持状態に関する情報である保持状態情報M3を取得する。保持状態情報取得部114は、取得した保持状態情報M3を膨縮制御部111bに出力する。
 続いて、ステップS163において、制御部13bは、膨縮制御部111bにより、呼吸特性情報M1と、保持状態情報M3と、に基づき、ユーザ200の呼吸を所定状態に誘導するように膨縮機構18Aの動作を制御する。
 続いて、ステップS164において、制御部13bは、処理を終了するか否かを判定する。例えば、制御部13bは、予め定められた時間が経過した場合に処理を終了し、経過していない場合に処理を終了しないと判定できる。あるいは、制御部13bは、ユーザ200がロボット100bに接触も近接もしていないことが検出された場合に終了すると判定し、ユーザ200がロボット100bに接触または近接していることが検出された場合に終了しないと判定できる。
 ステップS164において、処理を終了しないと判定された場合には(ステップS164、NO)、制御部13bは、ステップS161以降の処理を再度行う。一方、ステップS164において、処理を終了すると判定された場合には(ステップS164、YES)、制御部13bは、処理を終了する。
 以上のようにして、制御部13bは、ロボット100bにユーザ200の呼吸を誘導させるための処理を実行することができる。
 <ロボット100bの主な作用効果>
 以上説明したように、本実施形態では、膨縮機構18Aは、ロボット100bの腹部191に配置される腹部膨縮機構18aと、ロボット100bの背中部192に配置される背中部膨縮機構18bと、を含む。制御部13bは、保持状態情報M3に基づき、腹部膨縮機構18aおよび背中部膨縮機構18bの少なくとも一方を膨張および収縮させる。
 例えば、ユーザ200が、ロボット100bの背中部192と接触するように、ロボット100bを抱きかかえていると、ロボット100bは、腹部191を膨縮させてもユーザ200に対して呼吸誘導を行うことができない。ロボット100bは、ロボット100bの腹部191または背中部192のどちらがユーザ200に接触しているかを検知することにより得られる保持状態情報M3に応じて、腹部膨縮機構18aおよび背中部膨縮機構18bの少なくとも一方を膨張および収縮させる。これにより、ロボット100bは、ユーザ200によるロボット100bの保持状態によらず、ユーザ200に対して確実に呼吸誘導を行うことができる。なお、ロボット100bの側面部分がユーザ200に接触するように、ユーザ200がロボット100bを保持している場合には、制御部13bは、腹部膨縮機構18aおよび背中部膨縮機構18bの両方を膨張および収縮させてもよい。また、上記以外の効果は、第1実施形態と同じである。
 以上、好ましい実施の形態について詳説したが、上述した実施の形態に制限されることはなく、特許請求の範囲に記載された範囲を逸脱することなく、上述した実施の形態に種々の変形および置換を加えることができる。
 また、上述した実施形態の説明で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。
 本実施形態に係るロボットは、一人暮らしの社会人、子供が独り立ちしたシニア、在宅医療の対象となるフレイル高齢者等のオキシトシン分泌を促進して癒し(安心感または自己肯定感)を提供する用途に特に好適である。但し、この用途に限定されるものではなく、様々なユーザに癒しを提供する用途に使用できる。
 本開示の態様は、例えば以下の通りである。
<1> ユーザの呼吸を誘導可能なロボットであって、外装部材と、前記ユーザの呼吸に関する情報を取得する第1検出部と、前記第1検出部が取得した情報に基づき、前記ユーザの呼吸を所定状態に誘導するように、前記ロボットの動作を制御する制御部と、を有する、ロボットである。
<2> 前記第1検出部は、電磁波を利用して前記ユーザの呼吸に関する情報を取得する電磁波センサ、および、前記ユーザの撮影画像に基づき、前記ユーザの呼吸に関する情報を取得する画像センサ、の少なくとも1つを含む、前記<1>に記載のロボットである。
<3> 前記ユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報を出力する第2検出部をさらに有し、前記制御部は、前記第2検出部が取得した情報にさらに基づき、前記ユーザの呼吸を前記所定状態に誘導するように、前記ロボットの動作を制御する前記<1>または前記<2>に記載のロボットである。
<4> 前記制御部は、前記第2検出部が取得した情報に基づいて得られるユーザの心理状態に関する情報に応じて、前記ユーザの呼吸を前記所定状態に誘導するように、前記ロボットの動作を制御する前記<3>に記載のロボットである。
<5> 前記制御部は、前記ロボットの胴部を膨張および収縮可能な膨縮機構、前記ロボットの顔部に設けられた発光部、および、前記ロボットにおけるロボット本体に対して相対的に変位可能に連結された腕部を含む駆動体、の少なくとも1つの動作を制御する、前記<1>から前記<4>のいずれか1つに記載のロボットである。
<6> 前記膨縮機構は、前記ロボットの腹部に配置される腹部膨縮機構と、前記ロボットの背中部に配置される背中部膨縮機構と、を含み、前記制御部は、前記ユーザによるロボットの保持状態に関する情報に基づき、前記腹部膨縮機構および前記背中部膨縮機構の少なくとも一方を膨張および収縮させる、前記<5>に記載のロボットである。
<7> 前記制御部は、前記発光部の明滅速度、前記発光部からの光の輝度、および、前記発光部からの光の色、の少なくとも1つを制御する、前記<5>に記載のロボットである。
<8> 前記制御部は、前記ユーザの身体の一部に前記腕部を巻き付ける動作、前記腕部により前記ユーザの皮膚に加圧する動作、および、前記ユーザの身体の一部を前記腕部により撫でる動作、の少なくとも1つを制御する前記<5>に記載のロボットである。
<9> 前記外装部材は、弾性体および多孔体の少なくとも1つを含む、前記<1>から前記<8>のいずれか1つに記載のロボットである。
 この出願は、2022年9月29日に日本国特許庁に出願された日本国特許出願第2022-156760号に基づいて、その優先権を主張するものであり、この日本国特許出願の全内容を含む。
1   胴部
2   頭部
2a  右眼部
2b  左眼部
2c  口部
2d  右頬部
2e  左頬部
3   腕部
3a  右腕部
3b  左腕部
4   脚部
4a  右脚部
4b  左脚部
5   鼻部
10  外装部材
11  カメラ(第1検出部の一例、画像センサの一例)
12  触覚センサ
13、13a、13b 制御部
14  バイタルセンサ(電磁波センサの一例、第1検出部の一例、第2検出部の一例)
141 マイクロ波発射部
142 マイクロ波受信部
15  バッテリ
16  胴部フレーム
17  胴部載置台
18、18A 膨縮機構
18a 腹部膨縮機構
18b 背中部膨縮機構
21  第1静電容量センサ
22  頭部フレーム
23  頭部載置台
24  ディスプレイ
24a 右眼ディスプレイ
24b 左眼ディスプレイ
25  スピーカ
26  ライト(発光部の一例)
26a 右頬ライト
26b 左頬ライト
27  頭部連結機構
31  第2静電容量センサ
32a 右腕部フレーム
32b 左腕部フレーム
33  右腕部載置台
34a 右腕部連結機構
34b 左腕部連結機構
35  サーボモータ
35a 右腕部サーボモータ
35b 左腕部サーボモータ
35c 頭部サーボモータ
35d 右脚部サーボモータ
35e 左脚部サーボモータ
41a 右脚部車輪
41b 左脚部車輪
42a 右脚部フレーム
42b 左脚部フレーム
44a 右脚部連結機構
44b 左脚部連結機構
100、100a、100b ロボット
101 取得部
102 通信制御部
103 格納部
104 認証部
105 登録部
106 開始制御部
107、107a モータ制御部
108 検出部
109 出力部
110 呼吸特性情報取得部
111、111a、111b 膨縮制御部
112、112a 発光制御部
113 心理状態情報取得部
114 保持状態情報取得部
130 対応関係情報
131 CPU
132 ROM
133 RAM
134 HDD/SSD
135 機器接続I/F
136 通信I/F
181 支持部
182 押圧駆動部
183 回動部
184 押圧部
191 腹部
192 背中部
200 ユーザ
201 撮影用光源
202 波長フィルタ
203 レンズ
204 撮像素子
A   システムバス
B   生体情報
C1  第1静電容量信号
C2  第2静電容量信号
F1a 右肩部フレーム
F2a 右上腕部フレーム
F3a 右肘部フレーム
F4a 右前腕部フレーム
F1b 左肩部フレーム
F2b 左上腕部フレーム
F3b 左肘部フレーム
F4b 左前腕部フレーム
F1c 頸部フレーム
F2c 顔部フレーム
Im  撮影画像
L   照射光
Ms  発射波
Mr  反射波
M1  呼吸特性情報
M2  心理状態情報
M3  保持状態情報
M1a 右肩部サーボモータ
M2a 右上腕部サーボモータ
M3a 右肘部サーボモータ
M4a 右前腕部サーボモータ
M1b 左肩部サーボモータ
M2b 左上腕部サーボモータ
M3b 左肘部サーボモータ
M4b 左前腕部サーボモータ
M1c 頸部サーボモータ
M2c 顔部サーボモータ
N1、N1a、N2a、N2、N3 動作情報
R   反射光
S   触覚信号

Claims (10)

  1.  ユーザの呼吸を誘導可能なロボットであって、
     外装部材と、
     前記ユーザの呼吸に関する情報を取得する第1検出部と、
     前記第1検出部が取得した前記情報に基づき、前記ユーザの呼吸を所定状態に誘導するように、前記ロボットの動作を制御する制御部と、を有する、ロボット。
  2.  前記第1検出部は、電磁波を利用して前記ユーザの呼吸に関する情報を取得する電磁波センサ、および、前記ユーザの撮影画像に基づき、前記ユーザの呼吸に関する情報を取得する画像センサ、の少なくとも1つを含む、請求項1に記載のロボット。
  3.  前記ユーザの脈拍、心拍、血圧および脈圧の少なくとも1つに関する情報を取得する第2検出部をさらに有し、
     前記制御部は、前記第2検出部が取得した前記情報にさらに基づき、前記ユーザの呼吸を前記所定状態に誘導するように、前記ロボットの動作を制御する請求項1または請求項2に記載のロボット。
  4.  前記制御部は、前記第2検出部が取得した前記情報に基づいて得られる前記ユーザの心理状態に関する情報に応じて、前記ユーザの呼吸を前記所定状態に誘導するように、前記ロボットの動作を制御する請求項3に記載のロボット。
  5.  前記制御部は、前記ロボットの胴部を膨張および収縮可能な膨縮機構、前記ロボットの頭部に設けられた発光部、および、前記ロボットにおけるロボット本体に対して相対的に変位可能に連結された腕部を含む駆動体、の少なくとも1つの動作を制御する、請求項1または請求項2に記載のロボット。
  6.  前記膨縮機構は、前記ロボットの腹部に配置される腹部膨縮機構と、前記ロボットの背中部に配置される背中部膨縮機構と、を含み、
     前記制御部は、前記ユーザによるロボットの保持状態に関する情報に基づき、前記腹部膨縮機構および前記背中部膨縮機構の少なくとも一方を膨張および収縮させる、請求項5に記載のロボット。
  7.  前記膨縮機構は、支持部と、押圧駆動部と、回動部と、押圧部と、をさらに有し、
     前記回動部は、前記胴部の前記外装部材を膨縮させるように前記押圧部を往復揺動させる回動軸を備える、請求項5に記載のロボット。
  8.  前記制御部は、前記発光部の明滅速度、前記発光部からの光の輝度、および、前記発光部からの光の色、の少なくとも1つを制御する、請求項5に記載のロボット。
  9.  前記制御部は、前記ユーザの身体の一部に前記腕部を巻き付ける動作、前記腕部により前記ユーザの皮膚に加圧する動作、および、前記ユーザの身体の一部を前記腕部により撫でる動作、の少なくとも1つを制御する請求項5に記載のロボット。
  10.  前記外装部材は、弾性体および多孔体の少なくとも1つを含む、請求項1または請求項2に記載のロボット。
PCT/JP2023/035069 2022-09-29 2023-09-27 ロボット WO2024071166A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022156760 2022-09-29
JP2022-156760 2022-09-29

Publications (1)

Publication Number Publication Date
WO2024071166A1 true WO2024071166A1 (ja) 2024-04-04

Family

ID=90477801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/035069 WO2024071166A1 (ja) 2022-09-29 2023-09-27 ロボット

Country Status (1)

Country Link
WO (1) WO2024071166A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002254376A (ja) * 2001-02-28 2002-09-10 Sanyo Electric Co Ltd ロボット及びロボットシステム
JP2013022302A (ja) * 2011-07-22 2013-02-04 Ikuo Honma 抱き可能形態の呼吸誘導体
JP2017127616A (ja) * 2015-07-22 2017-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 覚醒度予測方法および覚醒度予測装置
WO2018012219A1 (ja) * 2016-07-11 2018-01-18 Groove X株式会社 自律行動型ロボット
US20200009739A1 (en) * 2019-08-08 2020-01-09 Lg Electronics Inc. Robot and method of recognizing mood using the same
JP2021019966A (ja) * 2019-07-30 2021-02-18 株式会社リビングロボット パーソナルアシスタント制御システム
WO2021117441A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理装置、その制御方法及びプログラム
JP2022063926A (ja) * 2020-10-13 2022-04-25 ヘルスセンシング株式会社 睡眠状態推定システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002254376A (ja) * 2001-02-28 2002-09-10 Sanyo Electric Co Ltd ロボット及びロボットシステム
JP2013022302A (ja) * 2011-07-22 2013-02-04 Ikuo Honma 抱き可能形態の呼吸誘導体
JP2017127616A (ja) * 2015-07-22 2017-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 覚醒度予測方法および覚醒度予測装置
WO2018012219A1 (ja) * 2016-07-11 2018-01-18 Groove X株式会社 自律行動型ロボット
JP2021019966A (ja) * 2019-07-30 2021-02-18 株式会社リビングロボット パーソナルアシスタント制御システム
US20200009739A1 (en) * 2019-08-08 2020-01-09 Lg Electronics Inc. Robot and method of recognizing mood using the same
WO2021117441A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理装置、その制御方法及びプログラム
JP2022063926A (ja) * 2020-10-13 2022-04-25 ヘルスセンシング株式会社 睡眠状態推定システム

Similar Documents

Publication Publication Date Title
US20220183557A1 (en) Remote examination through augmented reality
KR101485591B1 (ko) 초음파를 이용한 비침습적 뇌 자극을 통한 촉감 생성 장치, 방법 그리고 이를 이용한 컴퓨터 판독 가능한 기록 매체
Zhou et al. Human motion tracking for rehabilitation—A survey
TWI756191B (zh) 用於身體手勢介面及投影顯示器之系統及方法
ES2751899T3 (es) Equipo para rehabilitación motora de miembros superiores e inferiores
JP5140760B2 (ja) 上肢リハビリテーションのための携帯装置
US20180168759A1 (en) Hyperdexterous surgical system user interface devices
US9707147B2 (en) “Teach and repeat” method and apparatus for physiotherapeutic applications
US20190258239A1 (en) Jacket for embodied interaction with virtual or distal robotic device
Dementyev et al. Epidermal robots: Wearable sensors that climb on the skin
CN106618544A (zh) 一种智能穿戴设备
TWI661820B (zh) 下肢復健系統
KR20180077400A (ko) 햅틱 기반 스마트 마사지 장치 및 그 방법
Dragusanu et al. Design, development, and control of a tendon-actuated exoskeleton for wrist rehabilitation and training
WO2024071166A1 (ja) ロボット
Guo et al. Flexible electronics with dynamic interfaces for biomedical monitoring, stimulation, and characterization
Chen et al. Personalized biomedical devices & systems for healthcare applications
WO2024071167A1 (ja) ロボット
TW202421391A (zh) 機器人
Kontogiannopoulos et al. A “Biomechatronic EPP” Upper-Limb Prosthesis Control Configuration and its performance comparison to other control configurations
TW202421384A (zh) 機器人
Ahmed et al. Robotic glove for rehabilitation purpose
Pan et al. Interactive balance rehabilitation tool with wearable skin stretch device
WO2024071168A1 (ja) ロボット
TW202421383A (zh) 機器人

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872388

Country of ref document: EP

Kind code of ref document: A1