WO2022153977A1 - 制御方法、プログラム、及びロボット - Google Patents

制御方法、プログラム、及びロボット Download PDF

Info

Publication number
WO2022153977A1
WO2022153977A1 PCT/JP2022/000566 JP2022000566W WO2022153977A1 WO 2022153977 A1 WO2022153977 A1 WO 2022153977A1 JP 2022000566 W JP2022000566 W JP 2022000566W WO 2022153977 A1 WO2022153977 A1 WO 2022153977A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
robot
information
fatigue
company
Prior art date
Application number
PCT/JP2022/000566
Other languages
English (en)
French (fr)
Inventor
洋 矢羽田
孝啓 西
正真 遠間
敏康 杉尾
バーナデット エリオット ボウマン
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2022153977A1 publication Critical patent/WO2022153977A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Definitions

  • This disclosure relates to a technique for providing the ability of a robot to the outside.
  • Patent Document 1 is capable of moving along with a specific person for the purpose of suppressing a crime against the specific person, and notifies that the specific person is being monitored through a display and a speaker, or an abnormality occurs. Disclose the robot, which sometimes issues an alarm.
  • Patent Document 1 further improvement is required.
  • the control method in one aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, and moves by driving an actuator connected to at least a pair of legs or wheels of the robot.
  • the robot is moved at the first speed along with the user, the moving speed of the user is acquired via at least one optical sensor mounted on the robot, and the biometric information of the user is monitored.
  • the first measured value of the biometric information that fluctuates in correlation with the degree of fatigue caused by the walking or running of the user is acquired through the biosensor, and the first measured value of the biometric information of the user is the first.
  • the actuator is controlled to reduce the moving speed of the robot from the first speed to the second speed, and the second speed is slower than the moving speed of the user.
  • robots movable devices
  • robots that assemble and adjust parts in factories, robots that perform accurate and quick sorting at distribution bases, and robots that can perform specific tasks in consideration of the surrounding conditions.
  • robots that collaborate with humans and perform specific tasks as a substitute for humans.
  • a smartphone which is an information processing device capable of performing various information processing
  • a robot which is a movable device capable of performing various movements and tasks of handling an object, cooperate with each other to be healthy.
  • Patent Document 1 in order to enhance the effect of suppressing crime at night, the robot illuminates the surroundings of the user with a backlit light source, or the robot detects an abnormality of the user and monitors the surroundings with a display or a speaker. It is disclosed that something is said or done.
  • Patent Document 1 focuses on ensuring the safety of the user, and does not consider making the user walk or jogging with an appropriate degree of fatigue, so further improvement is necessary.
  • This disclosure is made to solve such a problem, and provides a technique for causing a robot to accompany a user so that the user exercises with an appropriate degree of fatigue.
  • the control method in one aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, and drives an actuator connected to at least a pair of legs or wheels of the robot.
  • the robot is moved at the first speed along with the moving user, and the moving speed of the user is acquired via at least one optical sensor mounted on the robot to obtain the moving speed of the user.
  • the biosensor that monitors the information Through the biosensor that monitors the information, the first measured value of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to the walking or running is acquired, and the first measured value of the biometric information of the user is obtained.
  • the robot is controlled to reduce the moving speed of the robot from the first speed to the second speed, and the second speed is slower than the moving speed of the user.
  • the actuator when the first measured value of the user's biometric information exceeds the first threshold value, the actuator is controlled to reduce the moving speed of the robot from the first speed to the second speed slower than the moving speed of the user. Is done.
  • the degree of fatigue of the user when the degree of fatigue of the user becomes excessive, the degree of fatigue of the user can be reduced by making the moving speed of the robot accompanying the user slower than the moving speed of the user.
  • the robot can be made to accompany the user so that the user moves with an appropriate degree of fatigue.
  • the robot when the moving speed of the robot is the first speed, the robot may be preceded by the user.
  • the robot since the robot accompanies the user in front of the user, the user can be made to exercise based on the moving speed of the robot.
  • the actuator may be controlled to maintain the moving speed of the robot at the second speed.
  • the user can be made to exercise so that the measured value of the user's biological information is maintained within an appropriate range.
  • the first threshold value and the second threshold value correspond to the upper limit value and the lower limit value of the recommended range of exercise intensity of the user, respectively, and the recommended range of exercise intensity is Borg scale. It may be a modified Borg scale or a range using METs.
  • the recommended range is defined by using the Borg scale, the modified Borg scale, or the METs, and it is possible to accurately determine whether or not the measured value of the user's biological information is within the recommended range.
  • the exercise target information indicating the exercise target to be achieved by the user by walking or running is acquired from the computer that manages the execution status of the exercise of the user, and the first threshold value, the said.
  • the first velocity and at least one of the second velocities may be determined based on the exercise target.
  • At least one of the first threshold value, the first speed, and the second speed can be set to a value according to the user's exercise goal, and the user can be exercised with an appropriate degree of fatigue according to the user's exercise goal. can.
  • the second threshold value may be determined based on the exercise goal.
  • the second threshold value can be set to a value according to the user's exercise goal, and the user can be exercised with an appropriate degree of fatigue according to the user's exercise goal.
  • the attribute information indicating the attribute of the user is acquired from the computer that manages the attribute information of the user, and the attribute information is the age, sex, weight, body fat ratio, and muscle of the user.
  • the amount and at least one of the medical history may be included, and at least one of the first threshold, the first rate, and the second rate may be determined based on the attribute information.
  • the attribute information consisting of at least one of the user's age, gender, weight, body fat percentage, muscle mass, and medical history is taken into consideration, and the first threshold, the first speed, and the second speed are taken into consideration. At least one can be determined.
  • the second threshold value may be determined based on the attribute information.
  • the second threshold value can be determined in consideration of the attribute information consisting of at least one of the user's age, gender, weight, body fat percentage, muscle mass, and medical history.
  • the moving speed of the robot is controlled by controlling the actuator. May be maintained at the first speed, and the user may be notified of a message indicating that the moving speed of the user is the recommended speed via a lighting device or a speaker mounted on the robot.
  • the user when the measured value of the user's biometric information is within an appropriate range, the user can be notified that the moving speed is the recommended speed, and the current moving speed is an appropriate speed. It can be recognized by the user.
  • the biological sensor is mounted on the robot, and the biological information includes the user's heart rate, pulse rate, blood pressure value, body temperature, respiratory rate, respiratory sound, and blood oxygen concentration. , Blood lactic acid concentration, body water content, sweating amount, activity amount, and at least one of posture may be included.
  • the user's biometric information quantified using at least one of the postures can be obtained.
  • the biosensor is included in the wearable device worn by the user, and the first measurement value of the biometric information is acquired from the wearable device via a network.
  • the biological information includes the user's heart rate, pulse rate, blood pressure value, body temperature, respiratory rate, respiratory sound, blood oxygen concentration, blood lactic acid concentration, body water content, sweating amount, activity amount, and posture. May contain at least one of.
  • the heart rate, pulse rate, blood pressure value, body temperature, respiratory rate, respiratory sound, blood oxygen concentration, blood lactic acid concentration, body water content, sweating amount, and activity amount are used by the wearable device worn by the user.
  • the user's biometric information including at least one of the postures can be accurately acquired.
  • the program in another aspect of the present disclosure causes a processor mounted on the robot to execute the control method according to any one of (1) to (11).
  • the robot in another aspect of the present disclosure includes a main body, the at least a pair of legs or wheels, an actuator for driving the at least a pair of legs or wheels, the at least one optical sensor, a processor, and the like. It includes a memory in which a program for causing the processor to execute the control method according to any one of (1) to (11) is stored.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, and an actuator connected to at least a pair of legs or wheels of the robot.
  • the robot is driven to move at the first speed along with the moving user, and the movement speed of the user is acquired via at least one optical sensor mounted on the robot, and the user
  • At least one first measurement value of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to the walking or running is acquired through a biosensor that monitors the biometric information of the robot, and at least the said at least of the biometric information.
  • the first fatigue degree of the user is calculated based on one first measured value, and when the calculated first fatigue degree exceeds the first fatigue tolerance, the actuator is controlled to control the robot.
  • the moving speed is reduced from the first speed to the second speed, and the second speed is slower than the moving speed of the user.
  • the moving speed of the robot is reduced from the first speed to the second speed slower than the moving speed of the user. This lowers the user's fatigue level, thereby exercising the user with an appropriate fatigue level.
  • the actuator may be controlled to maintain the moving speed of the robot at the second speed.
  • the user can be made to exercise so that the degree of fatigue calculated from the user's biological information is maintained within an appropriate range.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, via at least one optical sensor mounted on the robot.
  • Position information indicating the position of the user with respect to the robot is acquired, an actuator connected to at least a pair of legs or wheels of the robot is driven, and the distance between the user and the robot is based on the position information.
  • the robot is moved while maintaining the first interval, and the biometric information varies in correlation with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user.
  • the actuator is controlled to extend the interval from the first interval to the second interval.
  • the actuator is controlled to increase the distance between the robot and the user from the first distance to the second distance.
  • the actuator is controlled to increase the distance between the robot and the user from the first distance to the second distance.
  • the robot when the interval is the second interval, the robot may precede the user.
  • the robot when the distance between the user and the robot is widened to the second distance, the robot accompanies the user in advance, so that the user's fatigue level can be raised to an appropriate fatigue level with the robot as a guide.
  • the actuator may be controlled to maintain the interval at the second interval.
  • the user can be made to exercise so that the measured value of the user's biological information is maintained within an appropriate range.
  • the first threshold value and the second threshold value correspond to the lower limit value and the upper limit value of the recommended range of exercise intensity of the user, respectively, and the recommended range of exercise intensity is Borg scale. It may be a modified Borg scale or a range using METs.
  • the user can be made to exercise so that the measured value of the user's biological information is maintained within an appropriate range.
  • the exercise target information indicating the exercise target to be achieved by the user by walking or running is acquired from the computer that manages the execution status of the exercise of the user, and the first threshold value, the said.
  • the first interval, and at least one of the second intervals, may be determined based on the exercise goal.
  • At least one of the first threshold value, the first interval, and the second interval can be set to a value according to the user's exercise goal, and the user is exercised with an appropriate degree of fatigue according to the user's exercise goal. Can be done.
  • the second threshold value may be determined based on the exercise goal.
  • the second threshold value can be set to a value according to the user's exercise goal, and the user can be exercised with an appropriate degree of fatigue according to the user's exercise goal.
  • the attribute information indicating the attribute of the user is acquired from the computer that manages the attribute information of the user, and the attribute information is the age, sex, weight, body fat ratio, and muscle of the user.
  • the amount and at least one of the medical history may be included, and at least one of the first threshold, the first interval, and the second interval may be determined based on the attribute information.
  • the first threshold, the first interval and the second interval take into account the attribute information consisting of at least one of the user's age, gender, weight, body fat percentage, muscle mass, and medical history. At least one can be determined.
  • the second threshold value may be determined based on the attribute information.
  • the second threshold value can be determined in consideration of the attribute information consisting of at least one of the user's age, gender, weight, body fat percentage, muscle mass, and medical history.
  • the biological sensor is mounted on the robot, and the biological information includes the user's heart rate, pulse rate, blood pressure value, body temperature, respiratory rate, respiratory sound, and blood oxygen concentration. , Blood lactic acid concentration, body water content, sweating amount, activity amount, and at least one of posture may be included.
  • the user's biometric information quantified using at least one of the postures can be obtained.
  • the biosensor is included in the wearable device worn by the user, and the first measurement value of the biometric information is acquired from the wearable device via a network.
  • the biological information includes the user's heart rate, pulse rate, blood pressure value, body temperature, respiratory rate, respiratory sound, blood oxygen concentration, blood lactic acid concentration, body water content, sweating amount, activity amount, and posture. May contain at least one of.
  • the heart rate, pulse rate, blood pressure value, body temperature, respiratory rate, respiratory sound, blood oxygen concentration, blood lactic acid concentration, body water content, sweating amount, and activity amount are used by the wearable device worn by the user.
  • the user's biometric information including at least one of the postures can be accurately acquired.
  • the program in another aspect of the present disclosure causes a processor mounted on the robot to execute the control method according to any one of (16) to (25).
  • the robot in another aspect of the present disclosure includes a main body, the at least pair of legs or wheels, an actuator for driving the at least pair of legs or wheels, the at least one optical sensor, a processor, and the like. It includes a memory in which a program for causing the processor to execute the control method according to any one of (16) to (25) is stored.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, via at least one optical sensor mounted on the robot.
  • Position information indicating the position of the user with respect to the robot is acquired, an actuator connected to at least a pair of legs or wheels of the robot is driven, and the distance between the user and the robot is based on the position information.
  • At least of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user by moving the robot while maintaining the first interval.
  • One first measurement value is acquired, the first measurement value of the user is calculated based on the at least one first measurement value of the biometric information, and the calculated first fatigue degree is the first fatigue tolerance. If it is lower than the degree, the actuator is controlled to extend the interval from the first interval to the second interval.
  • the user's fatigue when the first fatigue degree calculated from the user's biological information is lower than the first fatigue tolerance, the user's fatigue is increased by increasing the distance between the user and the robot from the first interval to the second interval. It increases the degree and thereby exercises the user with an appropriate degree of fatigue.
  • the robot when the interval is the second interval, the robot may precede the user.
  • the robot when the distance between the user and the robot is widened to the second distance, the robot accompanies the user in advance, so that the user's fatigue level can be raised to an appropriate fatigue level with the robot as a guide.
  • the actuator may be controlled to maintain the interval at the second interval.
  • the user can be made to exercise so that the degree of fatigue calculated from the user's biological information is maintained within an appropriate range.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, and an actuator connected to at least a pair of legs or wheels of the robot.
  • the robot is driven to move at the first speed along with the moving user, and the movement speed of the user is acquired via at least one optical sensor mounted on the robot, and the user
  • the first measurement value of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running is acquired through the biosensor that monitors the biometric information of the user, and the first measurement value of the biometric information of the user is obtained.
  • the actuator is controlled to increase the moving speed of the robot from the first speed to the second speed, and the second speed is faster than the moving speed of the user.
  • the actuator is controlled to increase the moving speed of the robot from the first speed to the second speed faster than the moving speed of the user. Be done.
  • the degree of fatigue of the user becomes too small, the degree of fatigue of the user can be increased by increasing the moving speed of the robot accompanying the user to be higher than the moving speed of the user.
  • the robot can be accompanied so that the user moves with an appropriate degree of fatigue.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, and an actuator connected to at least a pair of legs or wheels of the robot.
  • the robot is driven to move at the first speed along with the moving user, and the movement speed of the user is acquired via at least one optical sensor mounted on the robot, and the user
  • At least one first measurement value of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running is acquired through a biosensor that monitors the biometric information of the robot, and at least one of the biometric information is obtained.
  • the first fatigue degree of the user is calculated based on the first measured value, and when the calculated first fatigue degree falls below the first fatigue tolerance, the actuator is controlled to move the robot.
  • the speed is increased from the first speed to the second speed, and the second speed is faster than the moving speed of the user.
  • the moving speed of the robot is increased from the first speed to the second speed faster than the moving speed of the user. This increases the degree of fatigue of the user, thereby exercising the user with an appropriate degree of fatigue.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, via at least one optical sensor mounted on the robot.
  • Position information indicating the position of the user with respect to the robot is acquired, an actuator connected to at least a pair of legs or wheels of the robot is driven, and the distance between the user and the robot is based on the position information.
  • the first of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user by moving the robot while maintaining the first interval.
  • the actuator is controlled to narrow the interval from the first interval to the second interval.
  • the actuator when the first measured value of the user's biological information exceeds the first threshold value, the actuator is controlled to narrow the interval between the robot and the user from the first interval to the second interval.
  • the user's fatigue level becomes excessive, the user's fatigue level can be reduced.
  • the robot can be made to accompany the user so that the user moves with an appropriate degree of fatigue.
  • the control method in another aspect of the present disclosure is a control method for a robot that accompanies a user who is moving by walking or running, via at least one optical sensor mounted on the robot. Position information indicating the position of the user with respect to the robot is acquired, an actuator connected to at least a pair of legs or wheels of the robot is driven, and the distance between the user and the robot is based on the position information. At least one of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user by moving the robot while maintaining the first interval.
  • the first measurement value is acquired, the first measurement value of the user is calculated based on the at least one first measurement value of the biometric information, and the calculated first fatigue degree is the first fatigue tolerance.
  • the actuator is controlled to narrow the interval from the first interval to the second interval.
  • the user's fatigue level when the first fatigue level calculated from the user's biological information exceeds the first fatigue tolerance, the user's fatigue level is narrowed from the first interval to the second interval between the user and the robot. It lowers, thereby exercising the user with an appropriate degree of fatigue.
  • the control method in another aspect of the present disclosure is a control method of the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least a pair of legs of the robot or A first command for driving an actuator connected to a wheel to move the robot at a first speed with the moving user is transmitted to the robot, and at least one optical device mounted on the robot.
  • the first of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via the biosensor that acquires the moving speed of the user through the sensor and monitors the biometric information of the user.
  • the actuator When the measured value is acquired and the first measured value of the biometric information of the user exceeds the first threshold value, the actuator is controlled to reduce the moving speed of the robot from the first speed to the second speed. A second command is transmitted to the robot, and the second speed is slower than the moving speed of the user.
  • the movement speed of the robot accompanying the user is made slower than the movement speed of the user, thereby reducing the degree of fatigue of the user. Is what it does.
  • the control method in another aspect of the present disclosure is a control method of the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least a pair of legs of the robot or A first command for driving an actuator connected to a wheel to move the robot at a first speed with the moving user is transmitted to the robot, and at least one optical device mounted on the robot. At least one of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via the biosensor that acquires the moving speed of the user via the sensor and monitors the biometric information of the user.
  • the first measurement value is acquired, the first measurement value of the user is calculated based on the at least one first measurement value of the biometric information, and the calculated first fatigue degree is the first fatigue tolerance.
  • a second command for controlling the actuator to reduce the moving speed of the robot from the first speed to the second speed is transmitted to the robot, and the second speed is the moving speed of the user. Slower than.
  • the server when the user's first fatigue level exceeds the first fatigue tolerance, the server performs a process of lowering the user's fatigue level by lowering the moving speed of the robot accompanying the user than the moving speed of the user. Is what you do.
  • the control method in another aspect of the present disclosure is a control method for the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least one mounted on the robot.
  • Position information indicating the position of the user with respect to the robot is acquired via one optical sensor, and an actuator connected to at least one pair of legs or wheels of the robot is driven to reduce the distance between the user and the robot.
  • a first command for moving the robot while maintaining the first interval is transmitted to the robot and correlates with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user.
  • the actuator is controlled to set the interval from the first interval.
  • a second command to expand to the second interval is transmitted to the robot.
  • the server when the first measured value of the user's biological information is lower than the first threshold value, the server performs a process of expanding the distance between the user and the robot from the first interval to the second interval.
  • the "second command that controls the actuator to expand the interval from the first interval to the second interval” is not limited to a command that directly specifies the interval between the user and the robot, for example.
  • the command may result in increasing the distance between the user and the robot by specifying the movement speed of the robot, or may be a command for specifying both the distance and the movement speed.
  • the control method in another aspect of the present disclosure is a control method for the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least one mounted on the robot.
  • Position information indicating the position of the user with respect to the robot is acquired via one optical sensor, and an actuator connected to at least one pair of legs or wheels of the robot is driven to reduce the distance between the user and the robot.
  • a first command for moving the robot while maintaining the first interval is transmitted to the robot and correlates with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user.
  • the first measurement value of the user is calculated based on the at least one first measurement value of the biometric information, and the first measurement value of the user is calculated. 1
  • a second command for controlling the actuator to expand the interval from the first interval to the second interval is transmitted to the robot.
  • the server when the user's first fatigue degree is lower than the first allowable fatigue degree, the server performs a process of expanding the distance between the user and the robot from the first interval to the second interval.
  • the control method in another aspect of the present disclosure is a control method of the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least a pair of legs of the robot or At least one optical device mounted on the robot by transmitting a first command to the robot to move the robot at a first speed with the user who is moving by driving an actuator connected to a wheel.
  • the first of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via the biosensor that acquires the moving speed of the user through the sensor and monitors the biometric information of the user.
  • the actuator When the measured value is acquired and the first measured value of the biometric information of the user falls below the first threshold value, the actuator is controlled to increase the moving speed of the robot from the first speed to the second speed. A second command is sent to the robot, and the second speed is faster than the moving speed of the user.
  • the server when the first measured value of the user's biometric information falls below the first threshold value, the server performs a process of increasing the user's fatigue level by increasing the moving speed of the robot accompanying the user to be higher than the moving speed of the user. Is what it does.
  • the control method in another aspect of the present disclosure is a control method for the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least a pair of legs of the robot or A first command for driving an actuator connected to a wheel to move the robot at a first speed with the moving user is transmitted to the robot, and at least one optical device mounted on the robot. At least one of the biometric information that fluctuates in correlation with the degree of fatigue of the user due to walking or running via the biosensor that acquires the moving speed of the user via the sensor and monitors the biometric information of the user.
  • the first measurement value is acquired, the first measurement value of the user is calculated based on the at least one first measurement value of the biometric information, and the calculated first fatigue degree is the first fatigue tolerance.
  • a second command for controlling the actuator to increase the moving speed of the robot from the first speed to the second speed is transmitted to the robot, and the second speed is the moving speed of the user. Faster than.
  • the server when the user's first fatigue level falls below the first fatigue tolerance, the server performs a process of increasing the user's fatigue level by increasing the moving speed of the robot accompanying the user to be higher than the moving speed of the user. It is something to do.
  • the control method in another aspect of the present disclosure is a control method for the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least one mounted on the robot. Position information indicating the position of the user with respect to the robot is acquired via one optical sensor, and an actuator connected to at least one pair of legs or wheels of the robot is driven to reduce the distance between the user and the robot. A first command for moving the robot while maintaining the first interval is transmitted to the robot and correlates with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user.
  • the actuator When the first measurement value of the biometric information fluctuates is acquired and the first measurement value of the biometric information of the user exceeds the first threshold value, the actuator is controlled to change the interval from the first interval to the first. A second command for narrowing the interval to two is transmitted to the robot.
  • the server when the first measured value of the user's biological information exceeds the first threshold value, the server performs a process of reducing the degree of fatigue of the user.
  • the "second command that controls the actuator to narrow the interval from the first interval to the second interval" is not limited to a command that directly specifies the interval between the user and the robot, for example.
  • the command may result in narrowing the distance between the user and the robot by specifying the movement speed of the robot, or may be a command for specifying both the distance and the movement speed.
  • the control method in another aspect of the present disclosure is a control method of the robot in a server that communicates with a robot that accompanies a user who is moving by walking or running, and is at least one mounted on the robot.
  • Position information indicating the position of the user with respect to the robot is acquired via one optical sensor, and an actuator connected to at least one pair of legs or wheels of the robot is driven to reduce the distance between the user and the robot.
  • a first command for moving the robot while maintaining the first interval is transmitted to the robot and correlates with the degree of fatigue of the user due to walking or running via a biosensor that monitors the biometric information of the user.
  • the first measurement value of the user is calculated based on the at least one first measurement value of the biometric information, and the first measurement value of the user is calculated.
  • a second command for controlling the actuator to narrow the interval from the first interval to the second interval is transmitted to the robot.
  • the server when the user's first fatigue level exceeds the first allowable fatigue level, the server performs a process of narrowing the distance between the user and the robot from the first interval to the second interval.
  • the control method in another aspect of the present disclosure is a control method of a robot that supports a moving user, and is around the robot via at least one optical sensor mounted on the robot.
  • the surrounding information includes at least one of the state of the user who is exercising and the environment around the user, and the surrounding information is via a biosensor that monitors the biometric information of the user.
  • the biometric information of the user that fluctuates in correlation with the degree of fatigue of the user due to the exercise is acquired, and the attribute information indicating the attribute of the user is acquired from the computer that manages the attribute information of the user, and the surroundings.
  • the fatigue level of the user is calculated based on at least one of the information, the biological information, and the attribute information, and when the fatigue level exceeds the first fatigue tolerance, the exercise amount or exercise load of the user is calculated.
  • the robot is made to perform the first operation for lowering.
  • the robot executes the first action for reducing the user's momentum or exercise load.
  • the user's fatigue level becomes excessive, the user's fatigue level can be reduced by the first operation executed by the robot.
  • the robot can be made to accompany the user so that the user moves with an appropriate degree of fatigue.
  • the present disclosure can also be realized as a program for causing a computer to execute each characteristic configuration included in the control method used here, or as a system operated by this program.
  • a computer program can be distributed via a computer-readable non-temporary recording medium such as a CD-ROM or a communication network such as the Internet.
  • the highly information-oriented society is an information infrastructure that highly integrates the real space (physical space), which is the material world surrounding individuals, and the virtual space (cyberspace), in which computers cooperate with each other to perform various processes related to the physical space. It is a society where economic development and solution of social issues are expected by (cyber physical system).
  • FIG. 1 is a block diagram showing an example of the overall configuration of the information system according to the embodiment of the present disclosure.
  • the upper half shows cyberspace and the lower half shows physical space.
  • resources related to company A which is a non-robot provider
  • cyberspace there is company A server 101, and in physical space, there is an application of company A that runs on the smartphone 100.
  • the company A server 101 operates as a pair with the company A application.
  • resources related to company B which is a robot provider
  • In cyberspace there is a server 111 for company B, in physical space there is a movable device (robot 110), and an application for company B that runs on the smartphone 100. be.
  • the company B server 111 operates as a pair with the robot 110 and / or the company B application. In the middle of the physical space, there are users who handle the company A application, the company B application, and the robot 110 installed on the smartphone 100.
  • the smartphone 100, the robot 110, the server 101 of the company A, and the server 111 of the company B are connected to each other so as to be able to communicate with each other by a wide area communication network such as the Internet.
  • companies A and B have contact points with users through their respective apps and robots 110.
  • Company A has only contacts via apps on the smartphone 100, which is a form of customer contact that is often seen today.
  • Company B in this figure has not only contacts via the application on the smartphone 100 but also contacts via the robot 110.
  • Companies that have contact with users (general consumers) via the robot 110, which is an autonomous movable device, are unprecedented except for some toy makers, and are expected to emerge in the future.
  • the robot 110 is a dog-shaped robot here, the robot 110 may be in a form based on other organisms including humans, or in an inorganic and abiotic form. As long as there is autonomous motor ability (posture change ability, movement ability, etc.) and / or action ability (ability to move other objects such as pressing buttons, lifting objects, etc.) in physical space.
  • the form is not limited.
  • the information system according to the embodiment of the present disclosure is owned by others, with the application, the robot 110, and the home appliances and housing equipment operated by the robot 110, which are the contact points of each customer, more highly linked than ever before. It can be said that it is an information system that provides higher value to users by expanding the range of improvement in the quality of its own services while utilizing the information and capabilities it provides.
  • the cognitive and motor abilities of robots are evolving day by day, and if such a versatile robot is realized, it is necessary to build a mechanism that allows other companies to access the unique abilities of the robot. Doing so will be the basis for creating a wide variety of value collaborations for users, non-robot companies that provide services, and robot companies that provide robots.
  • the degree of fatigue is called the degree of fatigue.
  • Fatigue is calculated using various methods.
  • the degree of fatigue may be calculated by directly using the user's biological activity information, or may be expressed by using an index indicating exercise intensity such as the Borg scale obtained by converting the biological activity information. Is also good.
  • the biological activity information is an example of biological information that fluctuates in correlation with the degree of fatigue caused by walking or running of the user.
  • the degree of fatigue may be determined by converting the type and intensity of the exercise performed by the user detected by the sensor of the robot 110, the wearable device, or the like into METs.
  • the Mets is a unit that expresses exercise intensity, and indicates how many times the energy consumption corresponds to the energy consumption at rest.
  • the degree of fatigue may be determined using the user's surrounding information, or may be calculated by combining the surrounding information with the user's biological activity information.
  • the degree of fatigue includes one or more of biological activity information that changes dynamically due to exercise, information around the user, and attribute information (age, gender, weight, body) of the user that does not change dynamically due to exercise. It may be calculated in combination with (including any one or more of fat percentage, muscle mass, and medical history).
  • the degree of fatigue in the present disclosure is calculated directly or indirectly by using one or more of biological activity information dynamically changing by exercise, user's surrounding information, and user's attribute information. It is used as an index showing the degree of physical fatigue felt during exercise. A specific method for calculating the subjective exercise intensity based on the heart rate will be described later.
  • Company A a non-robot company, is a health support company that manufactures and / or sells wearable devices worn by users.
  • Company A which is a health support company, installs the healthcare application provided by company A (hereinafter, company A application) on the smartphone 100, and causes the user to make various settings for the health care service of company A.
  • the wearable device is provided with a sensor for measuring the biological activity of the user, and may be in any form as long as it is a device that the user can wear.
  • a sensor for measuring the biological activity of the user may be in any form as long as it is a device that the user can wear.
  • wristwatch-type smart watches glasses-type smart glasses, underwear-type smart innerwear, shoe-type smart shoes, shoe insoles-type smart insoles, smart nails that can be attached to hands and toes, etc.
  • It may be a contact lens type smart contact lens, a smart earphone shaped to be attached to an ear, a smart necklace shaped to be worn around the neck like a necklace, a smart implant to be embedded in the body, or the like.
  • the wearable device will be described as a smart watch 140 for convenience.
  • the wearable device is attached to the user's body in various forms, continuously collects the user's biological activity information and / or the user's surrounding information, and smartly collects the biological activity information and / or the surrounding information.
  • it is periodically uploaded to the smartphone 100 and / or the server 101 of company A (“(a1) biological activity information” in the figure).
  • Biological activity information is biological information that changes dynamically with exercise, and is the user's heart rate, pulse rate, blood pressure, body temperature, respiratory rate, respiratory sound, blood oxygen concentration, blood lactic acid concentration, body water content, and sweating. Includes any one or more of amount, activity (calories burned), intake (calories burned), number of steps, posture, and type of exercise being performed.
  • Posture includes, for example, the swing width of the hand or foot, the movement cycle of the swing width, the angle of joints such as elbows or knees, and the posture information of the whole body such as the back of a cat.
  • the user's surrounding information includes, for example, the user's position information, the relative positional relationship information between the user and the robot 110 (for example, the interval), the relative movement speed between the user and the robot 110, the user's motion performance, terrain information, and geological information. Includes any one or more of temperature, humidity, illuminance, wind velocity, identified object information around the user, and spatial shape.
  • Exercise performance is a physical quantity that indicates the amount of exercise, such as the speed of jogging or walking, or the number of push-ups or squats per unit time.
  • the terrain information is, for example, the inclination angle of the road surface in the moving direction of the user.
  • the geological information is, for example, the type of the ground surface such as concrete, soil, sandbox, gravel, or the hardness of the ground surface.
  • the smartwatch 140 When wirelessly communicating with the smartphone 100, the smartwatch 140 uses, for example, a short-range wireless communication technique (for example, Bluetooth®) that performs wireless communication between devices in a short distance.
  • a short-range wireless communication technique for example, Bluetooth®
  • the smart watch 140 communicates with the smartphone 100 by short-range wireless communication as shown by a broken line.
  • a wireless communication technique for example, a fifth generation mobile communication system used for a mobile phone is used.
  • the smartphone 100 receives the user's biological activity information from the smart watch 140.
  • the data received from the smart watch 140 by the company A application is stored in the memory provided in the smartphone 100.
  • the company A application shapes the user's biological activity information received from the smart watch 140 into a predetermined format and periodically transmits it to the company A server 101.
  • the company A application adds the user's biological activity information received from the smart watch 140 and additional information (for example, the position information of the smartphone) received by the sensor and / or the communication unit of the smartphone. It may be periodically transmitted to the server 101 (“(a2) biological activity information”).
  • the robot 110 is also near the user, continuously collects the user's biological activity information and / or the user's surrounding information, and collects the collected biological activity information and / or the surrounding information in the memory of the robot 110. At the same time as recording in, it is periodically uploaded to the server 111 of company B (a3).
  • the information held by the robot 110 and / or the server 111 of the company B is not limited to the robot 110, but may be information collected by the smartphone 100 owned by the user, or may be worn by the user. It may be information collected by the smart watch 140 and / or information collected by a sensor (not shown) installed in the user's home or living area.
  • Company B server 111 continuously receives and stores the sensed data regarding the user's state and / or the user's surroundings from the robot 110. Further, the company B server 111 updates the data after shaping the data so that another computer having the access right (for example, the server 101 of the company A) can acquire the data (“(b) Update the data””. ).
  • the company A server 101 and the company B server 111 are authenticated based on the user's confirmation, and the company A server 101 has the access right to acquire the latest data held by the company B server 111. And.
  • the server 101 of company A acquires the biological activity information of the user acquired from the smart watch 140 and / or the smartphone 100. Further, the company A server 101 continuously acquires the latest data regarding the user on the server 111 of the company B by the access right. The server 101 of company A analyzes the acquired latest information about these users and estimates the degree of fatigue of the user in real time (“(c) Estimate the degree of fatigue”).
  • the server 101 of company A exercises the user so that the user can continue exercising when the user is exercising (walking, etc.) and determines that the degree of fatigue of the user is equal to or higher than a predetermined value. Select an action to encourage. Then, the server 101 of company A transmits request information to the server 111 of company B so that the robot 110 executes the action. ("(D) Select and request an action").
  • the actions include an action in which the company A increases the exercise intensity of the user through the robot 110 of the company B, an action in which the exercise intensity is maintained, and an action intended for a plurality of cheers set in the robot 110 so as not to stop the exercise.
  • the action is, for example, the action of the robot 110 controlled by a program.
  • the action intended to support is an action that is completed in a relatively short time (for example, within 10 seconds), and is an action with the intention of continuing the action that makes the user feel tired (for example, exercise).
  • the action does not include the action that the robot 110 performs without the intention of cheering for the action that the user feels tired (for example, just walking around with Urouro, just being by the side, etc.).
  • the action is an action involving an action performed by the robot 110 to motivate and / or continue the action of improving the health condition of the user.
  • the server 101 of company A it is possible for the server 101 of company A to display a cheering message on the screen of the smartphone 100 or the smart watch 140 or to play the voice of the cheering message at the timing when the user feels tired during exercise.
  • a user exercises he / she does not always carry a smartphone 100 or a smart watch 140.
  • it is difficult for a tired user to operate the smartphone 100 or the smart watch 140 to display or play a cheering message.
  • Company A has only a daily contact with the user through the Company A application, and there is a limit to what can be done in a physical space as a health support company for the user. It is longer for the user to work (exercise) with fatigue when the autonomous robot 110 near the user sees the situation and supports the user as appropriate, rather than an application that cannot directly exert a physical action on the real world. Can continue to endure. Therefore, Company A causes the robot 110 of Company B to take an action to support the user who is exercising in order to provide a highly effective health support service via the robot 110 owned by the user. be.
  • the company B server 111 that has received the request information from the company A server 101 confirms whether the necessary access right to the action requested from the company A server 101 to the robot 110 is effectively registered in the company A server 101. ..
  • the access right can be set for each sensor, athletic ability, and action type of the robot 110. It is preset with the consent of the user that the robot 110 executes the request for each action of the company A.
  • the company B server 111 matches the unique ID of the company A application registered in the company A server 101 with the pair information of the unique ID of the company B application. By checking, the access right of company A is confirmed. When it is confirmed that the user has the access right, the server 111 of the company B instructs the robot 110 to execute an action that encourages the user's movement (“(e) Instruct the action”). If the access right is not available or insufficient, the company B server 111 rejects the request from the company A server 101.
  • the robot 110 which has received an action instruction to encourage exercise from the server 111 of company B, executes an action according to the instruction (“(f) Perform action” in the figure). According to the content of the instruction, the robot 110 emits words and calls to support the user, plays a music to support the user, and lowers the exercise intensity in order to reduce the degree of fatigue of the user. The form of each action will be described later.
  • the robot 110 transmits the execution result of the action to the server 111 of company B (a3).
  • the execution result of the action includes the data sensed within a predetermined time after the execution of the action.
  • Company B server 111 discloses the execution result of the received action to company A server 101 as the latest information of the user who periodically updates it.
  • the company A server 101 has the latest user information acquired from the server 111 of the company B, the bioactivity information of the user acquired from the smart watch 140 (“(a1) bioactivity information”), and the bioactivity information of the user acquired from the smartphone 100.
  • the effect of the action executed using any one or more of (“(a2) biological activity information”) is calculated and recorded in the memory of the server 101 of company A (“(g) Measure the effect of the action”. ").
  • Company A determines the degree of fatigue during exercise of the user at any time based on the user's biological activity information or the user's surrounding information via the robot 110 close to the user instead of the company A application, and is more appropriate. Support users at the right time. As a result, Company A can exercise the user appropriately, and can maintain and improve the health of the user.
  • FIG. 2 is a block diagram showing an example of the configuration of the information system according to the embodiment of the present disclosure.
  • the smartphone 100 includes a communication unit 100a, a calculation unit 100b, a sensor 100c, a memory 100d, an operation unit 100e, and a video / audio output unit 100f.
  • the communication unit 100a is a communication circuit that performs information communication with other computers on the network.
  • the arithmetic unit 100b is, for example, a processor such as a CPU, and performs information processing such as voice recognition, voice synthesis, information retrieval, and information drawing.
  • the sensor 100c acquires video information, audio information, and / or ambient information.
  • the sensor 100c is, for example, a camera, a microphone, an acceleration sensor, an angular velocity sensor, a GPS sensor, or the like.
  • the memory 100d is, for example, a flash memory and holds various data.
  • the operation unit 100e is, for example, a touch panel, and receives button operations and touch operations from the user.
  • the video / audio output unit 100f is, for example, a display, a speaker, or the like.
  • the memory 100d records the program and necessary data, and the calculation unit 100b executes the program.
  • the company A server 101 is a computer that cooperates with the company A application installed on the smartphone 100.
  • the server 101 of company A includes a communication unit 101a, a calculation unit 101b, and a memory 101c.
  • the communication unit 101a is a communication circuit that performs information communication with other computers on the network.
  • the arithmetic unit 101b is a processor such as a CPU, and processes data transmitted from other computers on the network.
  • the memory 101c is, for example, a solid state drive or a hard disk drive, and records information about the company A application and the user.
  • the company B server 111 is a computer that cooperates with the company B application installed on the smartphone 100.
  • the server 111 of company B includes a communication unit 111a, a calculation unit 111b, and a memory 111c.
  • the communication unit 111a is a communication circuit that performs information communication with other computers on the network.
  • the memory 111c is, for example, a solid state drive or a hard disk drive, and records information about the company B application, information about the robot 110, and information about the user.
  • the arithmetic unit 111b processes various data transmitted from other computers.
  • the robot 110 includes a communication unit 110a, a calculation unit 110b, a sensor 110c, a memory 110d, a movable unit 110e, a video / audio output unit 110f, and a lighting unit 110g.
  • the communication unit 110a is a communication circuit that performs information communication with other computers on the network.
  • the arithmetic unit 110b is a processor such as a CPU, for example.
  • the calculation unit 110b performs a process of controlling the movable unit 110e to control the movement and operation of the robot 110, and a process of the robot 110 performing a mechanical action on another object. Further, the calculation unit 110b performs a process of generating various information output from the video / audio output unit 110f.
  • the sensor 110c acquires video information, audio information, and surrounding information.
  • the sensor 110c includes, for example, RGB cameras 21, 31 (an example of an optical sensor), distance measuring sensors 22, 32 (an example of an optical sensor), infrared cameras 23, 33 (an example of an optical sensor), and microphones 11 to 14.
  • the memory 110d is, for example, a semiconductor memory such as a flash memory, and holds various data.
  • the movable portion 110e is, for example, an actuator that moves the legs 17 and the legs 17 (FIG. 5).
  • An example of an actuator is a motor.
  • the actuator is a motor that rotates the wheels.
  • the movable portion 110e moves, moves, and mechanically acts on other objects of the robot 110.
  • the video / audio output unit 110f includes, for example, the speakers 25 and 35 and the displays 18, 24 and 34 shown in FIG. 5, and outputs video and audio.
  • the lighting unit 110g includes the lighting units 15 and 16 shown in FIG.
  • the illumination unit 110g may include one or more laser diodes and a microarray or a micromirror array. Further, the illumination unit 110g may include an LCD panel and a polarizing plate. Further, the robot 110 may include an operation unit (not shown) that accepts button operations, touch operations, and the like from the user.
  • the wide area communication network to which the server 101 of company A, the smartphone 100, the robot 110, and the server 111 of company B are connected is a mobile communication network, a satellite communication network, an internet communication network, a dedicated communication network, an optical fiber network, and a short-range wireless network. It may be one or a combination of one or more communications.
  • FIG. 3 is a flowchart showing an example of processing when Company A cooperates with the robot 110.
  • the access right is appropriately set in advance. ..
  • FIG. 3 shows an example of a process for setting the access right in advance.
  • the user uses the company B application installed on the smartphone 100 to set the company B application to cooperate with the company A application.
  • the company B application acquires the unique ID of the company A application used by the user based on the input of the user (step # 1).
  • the company B application transmits a registration request for registering the acquired unique ID of the company A application together with the unique ID of the company B application on the server 111 of the company B (step # 2).
  • the company B server 111 that has received the registration request registers the pair information of the company A application and the company B application.
  • the access right indicating which unique ability of the robot 110 and how much usage right is granted to the company A is also registered (step # 3). The details of the access right will be described later with reference to FIG.
  • the pair information including the robot ID of the robot 110 and the unique ID of the B company application is registered in advance in the B company server 111. This registration is performed, for example, by the user inputting the unique ID of the robot 110 on the initial setting screen of the company B application.
  • the B company server 111 that has received the registration of the A company application notifies the A company server 101 of the setting information of the access right that the A company application is permitted (step # 4). Specifically, the company B server 111 notifies the company A server 101 of the access right setting information in addition to the pair information of the unique ID of the company A application and the unique ID of the company B application.
  • the company A server 101 registers the pair information of the unique ID of the company A application and the unique ID of the company B application and the setting information of the access right in the memory 101c (step # 5).
  • the company A application or the company A server 101 uses the unique ability of the robot 110 provided by the company B, the information can identify the target robot 110 and can use the unique ability. It is used to determine whether or not.
  • FIG. 4 is a table showing an example of the relationship between the type of access right to the robot 110 and the permission level.
  • the robot 110 is equipped with various sensors 110c and kinetic ability (movable portion 110e).
  • the access right from the other company to the sensor 110c and the athletic ability is registered not only in the server 111 of the company B but also in the server 101 of the company A which is the user side.
  • the types of access rights and their permission levels will be described from the sensor 110c.
  • the "camera image” is an access right to an image sensor (for example, an RGB image sensor) included in the robot 110. This may be an image sensor provided in a place that is visually recognized by the robot 110.
  • the access right to the "camera image” is set stepwise from “0" without the access right to "3" with no restriction as follows. For example, in response to an access request from the company A server 101 whose permission level is "2", the company B server 111 controls the robot 110 and / or the server 111 of the company B so as to return a low-quality moving image.
  • the “rangefinder sensor” is an access right to a sensor (for example, TOF sensor, LiDAR, etc.) that can measure the distance to an object provided by the robot 110.
  • the access right to the "rangefinder sensor” is set by selecting "0" without the access right or "1" with the access right as follows. For example, in response to an access request from the server 101 of company A whose permission level is "1", the server 111 of company B controls the robot 110 so as to return the data (for example, depth image) acquired by the rangefinder sensor. do.
  • the "infrared sensor” is an access right to the sensor that the robot 110 has that can measure infrared rays.
  • the near-infrared region measured by the infrared sensor is used for subject recognition in the dark, and the far-infrared region is used for subject temperature distribution.
  • the access right to the "infrared sensor” is set as follows, either "0" without the access right or "1" with the access right.
  • the server 111 of the company B controls the robot 110 so as to return the data (for example, a thermography image) acquired by the infrared sensor. do.
  • “Microphone voice” is an access right to the microphone provided by the robot 110.
  • the access right to the “microphone voice” is set as follows, with two choices: “0" without the access right and "1" with the access right.
  • the company B server 111 controls the robot 110 so as to return the voice data acquired by the microphone.
  • the "tactile sensor” is an access right to a sensor (for example, a MEMS silicon hair device sensor) that can measure the tactile sensation on the surface of the robot provided by the robot 110.
  • the access right to the "tactile sensor” is set stepwise from “0" without the access right to "2" where the access right is granted without restriction as follows.
  • the server 111 of company B is a part of the robot 110 (for example, the pressure distribution image) in the data acquired by the tactile sensor (for example, the pressure distribution image).
  • the robot 110 is controlled to return only the data of the head).
  • the "temperature / humidity / barometric pressure sensor” is the access right to the temperature / humidity / barometric pressure sensor provided by the robot 110.
  • the access right to the "temperature / humidity / barometric pressure sensor” can be set by selecting "0" without the access right or "1" with the access right as follows. For example, in response to an access request from the company A server 101 whose permission level is "1", the company B server 111 controls the robot 110 to return the data acquired by the temperature, humidity, and barometric pressure sensors.
  • the “position sensor” is an access right to the sensor that the robot 110 has to measure the current position of the robot.
  • the access right to the "position sensor” is set as follows, with two choices: “0" without the access right and "1" with the access right.
  • the company B server 111 controls the robot 110 so as to return data indicating the current position information of the robot acquired by the position sensor. do.
  • the "facial expression changing ability” is an access right to the ability to change the appearance characteristics of the facial expression displayed by the video / audio output unit 110f of the robot 110. This may be the ability of the robot 110 to move the part or change the color of the part when the robot 110 has a part that can be visually recognized as a face.
  • the access right to the "facial expression changing ability” is set as follows, with two choices: “0" without the access right and "1" with the access right. For example, in response to an access request from the company A server 101 whose permission level is "1", the company B server 111 controls the robot 110 to change the facial expression in response to the request to change the facial expression.
  • “Voice ability” is an access right to the audio output capability of the video / audio output unit 110f of the robot 110. This may be the ability of the robot 110 to move a part that can be visually recognized as a mouth and to output sound from a peripheral portion of the mouth.
  • the access right to the "speaking ability” is set as follows, with two choices: “0" without the access right and "1" with the access right.
  • the company B server 111 controls the robot 110 so as to output voice according to the voice information to be uttered.
  • the "posture change ability” is an access right to the ability to change the posture of the movable part 110e of the robot 110. This may be the ability to change the angles of a plurality of joint mechanism portions on the movable portion 110e of the robot 110. However, the ability to change the position of the robot 110 itself is not intended.
  • the access right to the "posture change ability” is set stepwise from “0" without the access right to "2" where the access right is granted without restriction as follows. For example, in response to an access request from the company A server 101 whose permission level is "1", the company B server 111 controls the robot 110 so that only the head is moved in response to the request.
  • “Movement ability” is an access right to the ability to move possessed by the movable part 110e of the robot 110. This may be the ability to change the angles of a plurality of joint mechanism portions on the movable portion 110e of the robot 110. This ability is the ability to change the position of the robot 110 itself.
  • the access right to the "movement ability” is set stepwise from “0" without the access right to "4" where the access right is granted without restriction as follows. For example, in response to an access request from the A company server 101 whose permission level is "1", the B company server 111 is allowed to move at a low speed only in the area permitted by the user in the user's house. Controls the robot 110.
  • the company B server 111 permits high-speed movement only in the in-house and out-of-house areas permitted by the user.
  • the robot 110 is controlled so as to do so.
  • the area allowed by the user here is one of the conditions set in advance by the user.
  • the robot 110 can be set in advance so as not to approach an area (such as a bath) that may invade the privacy of the user.
  • FIG. 5 is an external view of the robot 110 according to the present embodiment.
  • the longitudinal direction of the robot 110 is referred to as a front-rear direction
  • the direction orthogonal to the walking surface of the robot 110 is referred to as a vertical direction
  • the directions orthogonal to the front-rear direction and the vertical direction are referred to as a left-right direction.
  • FIG. 5 shows a robot that moves with four legs 17 as an implementation example of the robot 110.
  • the robot 110 includes a body 10 and four legs 17.
  • the lighting unit 15 is arranged in front of the lower surface of the body 10, and the lighting unit 16 is arranged behind the lower surface of the body 10.
  • the front and rear of the robot 110 can be illuminated with a sufficient amount of light.
  • Each of the lighting units 15 and 16 can adjust the lighting form (light shape, color, blinking pattern) of the dangerous object so that the user can easily recognize the dangerous object.
  • the lighting units 15 and 16 have a projection mapping function of projecting an arbitrary image on a dangerous object or a surrounding object such as a road, instead of a light capable of emitting light in a single color. ..
  • the display 24 is arranged in the center of the front surface of the body 10.
  • the display 24 is, for example, a liquid crystal panel or an organic EL panel.
  • the display 24 is mainly used by the robot 110 to communicate with the user.
  • the display 24 may display an image expressing the facial expression of the robot 110.
  • the display 18 is arranged in the center of the upper surface of the body 10, and the display 34 is arranged in the center of the rear surface of the body 10.
  • the displays 18 and 34 are, for example, a liquid crystal panel or an organic EL panel.
  • the displays 18 and 34 are mainly used to display a message and a status from the robot 110.
  • displays 18 and 34 may be used to display warning information to others.
  • the displays 18 and 34 may display the logo mark of the security company A that provides the security service to the user via the robot 110.
  • the speaker 25 is arranged at the lower part of the front surface of the body 10, and the speaker 35 is arranged at the lower part of the rear surface of the body 10.
  • the speaker 25 is used for the robot 110 to face and communicate with the user in front of it.
  • the speaker 35 is used to communicate with a person approaching from behind.
  • An RGB camera 21, a range finder 22, and an infrared camera 23 are arranged on the front surface of the body 10.
  • An RGB camera 31, a range finder 32, and an infrared camera 33 are arranged on the rear surface of the body 10.
  • the RGB cameras 21 and 31 are used for spatial recognition and object identification.
  • the rangefinders 22 and 32 are used to detect topographical information such as the shape of a dangerous object and unevenness of the road surface, and the shape of an object.
  • the infrared cameras 23 and 33 are used to detect the temperature distribution of a person or the surroundings in a low-light environment.
  • the robot 110 can specify the sound source position.
  • the leg 17 includes joints 17a and 17b, an upper leg 17c, and a lower leg 17d.
  • the joint 17a connects the upper leg 17c to the side surface of the body 10 so as to be rotatable in the left-right direction.
  • the joint 17b attaches the upper leg 17c and the lower leg 17d so as to be rotatable in the left-right direction.
  • FIG. 6 is a sequence diagram showing the processing of the first example of the present embodiment.
  • the main body for determining the degree of fatigue is the server 101 of company A.
  • Company A is a health support company that provides services to support the health of users, and manufactures and sells the company A application and / or smart watch (140) installed on the smartphone 100.
  • Steps S1 and S2 are initial setting processes, and steps S3 and subsequent steps are processes during exercise.
  • the smartphone 100 accepts input of exercise intensity information and action information by the user.
  • the action information includes the types of actions that the robot 110 causes the robot 110 to execute when the user is cheering. As the type of action, for example, those listed in FIG. 7 can be adopted.
  • the exercise intensity information includes a target value of the user's exercise intensity during exercise.
  • the target values of exercise intensity are, for example, “target value of exercise intensity 65%” and “movement speed of 8 km / h” shown in FIG.
  • Step S2 The smartphone 100 transmits the received exercise intensity information and action information to the server 101 of company A.
  • the server 101 of company A registers the exercise intensity information and the action information in the memory 101c in association with the user ID.
  • Step S3 The company A application and / or smart watch 140 installed on the smartphone 100 periodically measures the user's biological activity information and surrounding information.
  • Step S4 The company A application and / or the smart watch 140 periodically transmits the measured biological activity information and surrounding information to the company A server 101. As a result, Company A continuously monitors the user's biological activity information and surrounding information using the Company A application and / or smart watch 140.
  • Step S5 The robot 110 periodically acquires the user's biological activity information and surrounding information by using the sensor 110c.
  • Step S6 The robot 110 periodically transmits the acquired biological activity information and surrounding information to the server 111 of company B. In this way, Company B continuously monitors the user's biological activity information and surrounding information using the robot 110.
  • the company B server 111 stores the biological activity information and surrounding information acquired from the robot 110 in the memory 111c in a state in which an external computer having access right can acquire them.
  • Step S7 The company A server 101 having the access right periodically acquires the latest biological activity information and surrounding information from the company B server 111.
  • the access right setting is as described above.
  • the server 101 of the company A can periodically acquire the biological activity information and the surrounding information measured by the robot 110. That is, Company A can periodically acquire the latest user's biological activity information and surrounding information acquired not only by its own device (Company A application and smart watch 140) but also by another company's device (robot 110).
  • Step S8 The server 101 of company A estimates the current fatigue level of the user in real time based on the acquired biological activity information and surrounding information of the user. The details of estimating the degree of fatigue will be described later.
  • Step S9 The server 101 of company A selects an action that is expected to have an effect on the current user based on the degree of fatigue. Details of action selection will be described later.
  • Step S10 The server 101 of company A transmits request information (an example of a command) for causing the robot 110 to execute the selected action to the server 111 of company B.
  • the request information includes information for identifying the request (request ID) and information indicating the type of the selected action.
  • the request information may include, for example, a command that specifies the moving speed of the robot 110, a command that specifies the distance between the user and the robot 110, or both. You may.
  • Step S11 The company B server 111 that has received the request information confirms whether or not the company A server 101 has an access right to the request information.
  • the server 111 of company B transmits an instruction (an example of a command) to cause the robot 110 to execute the action indicated by the request information if the server 101 of company A has an access right. If the company A server 101 does not have the access right, the company A server 101 rejects the request information and transmits the information indicating the refusal to the company A server 101.
  • Step S12 The robot 110 that receives the action instruction executes the action based on the instruction.
  • the action may have different identification information (action ID) for each classification. The details of the action will be described later.
  • Step S13 After executing the action, the robot 110 transmits the execution result of the action to the server 111 of the company B.
  • the execution result of the action may be information as to whether or not the instructed action has been executed.
  • the execution result of the action is the biological activity information and surrounding information of the user within a predetermined time after the action is executed.
  • the execution result of the action may be transmitted together with the biological activity information and the surrounding information periodically transmitted by the robot 110 to the server 111 of the company B.
  • the company B server 111 and / or the company A server 101 can periodically acquire the execution result of the action.
  • Steps S14, S15 The company B server 111 transmits the execution result of the action to the server 101 of the company A together with the request ID included in the corresponding request information.
  • the server 101 of company A measures the effect of the action executed by the robot 110 using the execution result of the received action, and registers the effect in the memory 111c.
  • the server 101 of company A correctly determines the degree of fatigue during exercise of the user by acquiring the biological activity information and surrounding information of the user in real time, and takes various actions at appropriate timings based on the determination result. It can be executed by the robot 110. Since this action is personalized for each user, the robot 110 can provide effective support to the user. As a result, the user can obtain the motivation to continue the exercise by the support of the robot 110 while feeling tired from the exercise. As a result, Company A can improve the quality and effectiveness of the user's health support service, and can help maintain the user's health.
  • FIG. 7 is a diagram showing an example of the action table T1 for registering the action information.
  • the action table T1 includes columns of "action type”, “action ID”, “access right”, and “specific action example”.
  • Action type is a label indicating the classification of actions.
  • the “action ID” is the identification information of the action.
  • access right column, the presence or absence of the access right set for each action is registered.
  • Examples of specific actions show the detailed contents of actions.
  • “Rebuke”, which is classified as a type of "support (challenging)”, is an action in which the robot 110 utters words that encourage the user to squeeze. For example, words such as “faster” and “still to come” are uttered. When this action is specified by the action ID, the robot 110 outputs a scolding cheer.
  • the action table T1 is stored in advance in the robot 110 and / or the server 111 of the company B. Variations of words that differ for each action ID are selected from the action table T1.
  • “Cheering”, which is classified into the type of "cheering”, is an action in which the robot 110 utters words that encourage the user. For example, words such as "do your best" or the user's name are spoken.
  • the user's name is the name used by the robot 110 when calling the user.
  • the robot 110 calls out cheering cheers.
  • End which is classified into the type of "support (challenging)" is an action in which the robot utters words that encourage and inspire the user. For example, words such as “do your best” or the user's name are uttered with more force than in the previous "cheering".
  • this action is specified by the action ID, the robot 110 calls for encouragement.
  • “Arbitrary”, which is classified into the type of "support (challenging)”, is an action in which the robot 110 utters the voice specified in the request information.
  • the server 101 of company A determines from the user's biological activity information and surrounding information that the user's posture during exercise is not good, the word “breasting” is uttered.
  • the server 101 of company A determines that the pace of the user is slowing down, the word “faster” is uttered.
  • voice information indicating the corresponding word is included in the request information.
  • the voice information may be a voice signal sampled at regular intervals such as LPCM (Linear Pulse Code Modulation), a voice signal obtained by compressing and encoding LPCM, or a text including character string information. It may be data.
  • LPCM Linear Pulse Code Modulation
  • Rebuke which is classified into the type of "support (squeal)" is an action in which the robot 110 utters a squeal that is intended to encourage the user to squeeze. When this action is specified by the action ID, the robot 110 makes a scolding cheer.
  • Other actions classified into the type of “cheering (screaming)” include “cheering”, “encouragement”, and “praise” as well as shouts.
  • “Preset”, which is classified into the type of “song playback”, is an action to play a song that is often used when cheering or increasing motivation.
  • “Song playback” includes songs used in specific movies, dramas, and sporting events.
  • the robot 110 plays a well-known cheering song.
  • the cheering song selected when this action ID is specified may be registered in advance in the robot 110 and / or the server 111 of the company B.
  • a song suitable for the user's current situation may be selected from the music subscription service. This automatically selects a highly relevant playlist (list of songs to play) from the user's biological activity information and surrounding information, such as songs that suit well for a walk or songs that suit well when running along a river in the summer. You may.
  • “User song selection”, which is classified into the type of "song playback”, is an action of determining a cheering song to be played from a plurality of cheering songs selected in advance by the user.
  • the robot 110 plays the cheering song of the user's preference.
  • the cheering song selected when this action ID is specified may be registered in advance in the robot 110 and / or the server 111 of the company B.
  • the music recorded on the smartphone 100 or the music recorded on the cloud storage used by the user may be played back via the robot 110.
  • the song may be played from a playlist selected by the user in the subscription service.
  • “Small jump” classified into the type of "behavior” is an action in which the robot 110 jumps small.
  • the "small jump” is used by the robot 110 to notify the achievement or to express the joy achieved when the user achieves the target number of steps during a walk.
  • this action is specified by the action ID, a small jump is executed on the robot 110.
  • one variation may be selected from the small jump variations registered in advance for each action ID in the robot 110 and / or the server 111 of the company B. This also applies to "medium jump” and "large jump”.
  • “Medium jump”, which is classified as a type of "behavior”, is an action in which the robot (110) jumps moderately.
  • the “medium jump” is used, for example, for the robot 110 to notify the achievement or to express the joy when the user achieves the target number of steps during a walk.
  • this action is specified by the action ID, the robot 110 performs a moderate jump.
  • “Large jump” classified into the type of "behavior” is an action in which the robot 110 makes a large jump.
  • the “big jump” is used, for example, to notify the robot 110 of its achievement or to express its joy when the user breaks a self-record in a certain exercise.
  • this action is specified by the action ID, a large jump is executed on the robot 110.
  • Backward inverted rotation jump and “backward somersault”, which are classified into the types of "behavior”, are actions in which the robot 110 performs a backward inverted rotation jump or a backward somersault in gymnastics, respectively.
  • the robot 110 executes a backward inverted rotation jump or a backward somersault.
  • the robot 110 may execute this action after standing up on two legs.
  • “Bipedal walking”, which is classified into the type of "behavior”, is an action in which the robot 110 walks using only specific two legs. By designating this action by the action ID, the robot 110 executes bipedal walking. For example, when the robot 110 is a robot that walks on N (N is an integer of 3 or more) legs, the robot 110 walks using only two specific legs.
  • Adjustment of exercise intensity classified into the type of “adjustment of exercise intensity” is an action in which the robot 110 sets (or changes) a target value of the exercise intensity of the user's exercise.
  • “adjustment of exercise intensity” allows the user to perform an exercise with an exercise intensity target value of 55% (equivalent to 10 on the Borg scale) to an exercise with an exercise intensity target value of 65% (equivalent to 12 on the Borg scale). It is used when the robot 110 executes an action.
  • “adjustment of exercise intensity” is used when changing the movement speed of the robot 110 accompanied by a user who walks or jogging to a movement speed corresponding to a new target value of exercise intensity.
  • the moving speed of the user who walks or jogging is indirectly changed, and the exercise intensity of the user is adjusted so as to easily obtain the exercise effect.
  • adjustment of exercise intensity not only the target value of exercise intensity but also the target range (for example, the range of the upper limit value and the lower limit value of exercise intensity) may be specified.
  • “Performance adjustment”, which is classified into the type of "exercise intensity adjustment”, is an action in which the robot 110 sets (or changes) a target value of the user's exercise performance.
  • “performance adjustment” is used when the robot 110 is made to execute an action of changing the target value of a user who moves at the target value "4 Km / h" to "8 Km / h".
  • this action changes the moving speed of the robot 110 that accompanies the user.
  • the moving speed of the user's walk or jogging is indirectly changed, and the exercise intensity of the user is adjusted.
  • the target range for example, the range of the upper limit value and the lower limit value of the moving speed
  • the server 101 of the company A can specify what kind of action is to be executed by the robot 110 by the action ID. Further, more detailed information can be notified by the additional information given for each action ID.
  • one or more actions having similar intentions for one action ID are grouped together, but one action is associated with one action ID on a one-to-one basis. May be good.
  • FIG. 8 is a diagram showing an example of the table T2 for registering the relationship between the subjective exercise intensity and the effect of the action.
  • Table T2 is stored in the memory 101c of the server 101 of company A.
  • Table T2 has columns for "exercise intensity”, “borg scale”, “how to feel exercise”, and "action ID”.
  • “Exercise intensity” is an index showing subjective exercise intensity.
  • “exercise intensity” is defined by Carbonen's formula, which is calculated from the heart rate. In Carbonen's formula, exercise intensity is defined as follows.
  • Exercise intensity (%) (exercise heart rate-resting heart rate) / (maximum heart rate-resting heart rate) * 100
  • the user's movement speed for achieving a specific exercise intensity can be estimated.
  • the moving speed of the accompanying robot 110 can be calculated using this correlation data.
  • the exercise heart rate that makes the exercise intensity of this user 65% is calculated by the following formula.
  • the movement speed corresponding to the heart rate "133.5 beats / minute" is "13 km / h".
  • the heart rate may be increased to 133.5 beats / minute.
  • the robot 110 may guide the user to jog at a moving speed of 13 km / h. Therefore, the server 101 of company A may transmit the request information of the action to accompany the robot 110 so that the user jogs at a moving speed of 13 km / h to the server 111 of company B.
  • the "Borg scale” is often used as an index of the degree of fatigue felt by an exercising user.
  • the Borg scale represents subjective exercise intensity as a number from 6 to 20.
  • Aerobic exercise which consumes oxygen for muscle contraction
  • Aerobic exercise is a relatively safe exercise because the exercise intensity is lower than anaerobic exercise, which does not consume oxygen for muscle contraction.
  • the exercise intensity in the range of switching from aerobic exercise to anaerobic exercise is called the AT point. It is known that the AT points on the Borg scale correspond to "11" (easy) to "13" (slightly tight).
  • Treatment guidelines in several academic societies recommend exercise therapy as one of the treatments for diabetes, hypertension, and dyslipidemia. Although the expressions may differ slightly depending on the academic society, the guidelines state that it is desirable to carry out medium-intensity aerobic exercise for about 30 to 60 minutes a day for at least 3 days a week for the treatment or improvement of each disease. ing.
  • the company A server 101 or the company A application which handles the health support service, may encourage the user to perform intense exercise around the AT point for 30 minutes or more at a time, as much as possible every day.
  • the server 101 of company A transmits request information indicating an action to the server 111 of company B so that the user who has started exercising can continue exercising with exercise intensity around the AT point for about 30 to 60 minutes. You may support the user's exercise.
  • the left half column contrasts the exercise intensity and how to feel the exercise intensity.
  • the number of times it is determined that a significant effect was obtained when the action indicated by the action ID was executed and the number of times the action was executed are registered for each exercise intensity. A significant effect is that the user has continued to exercise.
  • the table T2 records the number of times the action is performed and the number of times the action is significantly effective, corresponding to the exercise intensity and the action ID, for each user. As a result, it is possible to determine which action is effective for the user for each exercise intensity from the past actual data.
  • Table T2 exists for each user and is updated each time an action is executed. Therefore, as the number of times the action is executed increases, the data of the past user is accumulated in the table T2, and the action for which an effective effect can be obtained can be more effectively determined for each exercise intensity.
  • the server 101 of company A may determine that the action has a significant effect when the user can continue the exercise for a predetermined time or more and the exercise intensity at the time of executing the action or more after the action is executed. That is, the server 101 of company A determines that there is a significant effect when the user can continue the exercise, and determines that there is no significant effect when the user cannot continue the exercise. For example, an action with the intention of supporting the exercise is performed for a user who is exercising "11" (easy) on the Borg scale, and "11" on the Borg scale is performed for 3 minutes or more after the action is performed. If the user can continue the above exercise, it is determined that the action has a significant effect. On the contrary, if the exercise of "11" or more is not continued on the Borg scale, it is determined that there is no significant effect.
  • the effect of the action may be determined by measuring whether or not the time from the execution of the action to the inability to maintain the exercise intensity or higher is a predetermined time or longer. For example, for a user who is exercising "11" (easy) on the Borg scale, an action with the intention of supporting the exercise is executed, and within 30 seconds after the action is executed, "11" (comfort) is performed on the Borg scale. If the exercise intensity drops below 10 ”, it may be determined that this action had no significant effect. On the contrary, if the exercise intensity does not decrease for 30 seconds or more after the action is executed, it may be determined that this action has a significant effect. In any case, the method for determining the effect of the action is not limited to this, and other methods may be used, such as having the user immediately after the exercise evaluate the effect of the action.
  • FIG. 9 is a flowchart showing the details of the process of FIG.
  • Step S201 The robot 110 transmits the biological activity information and the surrounding information acquired by using the sensor 110c to the server 111 of the company B.
  • Step S202 The server 111 of company B receives biological activity information and surrounding information from the robot 110.
  • the server 111 of company B registers the received biological activity information and surrounding information in the memory 111c.
  • the company B server 111 makes the biological activity information and the surrounding information accessible to or transmits the access right to the company A server 101.
  • Step S203 The company A server 101 acquires or receives the biological activity information and the surrounding information from the server 111 of the company B.
  • Step S204 The company A server 101 acquires the user's biological activity information and surrounding information using the smart watch 140 and / or the company A application.
  • Step S205 The server 101 of company A calculates the degree of fatigue of the user based on the biological activity information and the surrounding information acquired in steps S203 and S204. Details of the calculation of the degree of fatigue will be described later.
  • Step S206 When the degree of fatigue of the user is less than a predetermined value (NO in step S206), the server 101 of company A ends the process without transmitting the request information for causing the robot 110 to execute the action. On the other hand, when the degree of fatigue of the user is equal to or higher than a predetermined value (YES in step S206), the server 101 of company A determines one or more actions that can be expected to have the effect of continuing the exercise to the current user.
  • Step S207 The server 101 of company A uses the action table T1 to select one or more actions that can be expected to have an effect on the exercise intensity of the current user. For example, the server 101 of company A may select the action that gives the most significant effect on the exercise intensity of the current user.
  • one or more actions are selected because there are combinations of actions that can be executed at the same time. For example, an action classified as “cheering” of “cheering” and an action classified as “bipedal walking” of "behavior” can be executed at the same time.
  • the server 101 of company A outputs from the video / audio output unit 110f an action in which the quadrupedal walking robot 110 controls the movable portion 110e to become a bipedal walking, and a cheering cheer for the user saying "Do your best”. You can select the action.
  • Step S208 The company A server 101 transmits the request information for causing the robot 110 to execute the determined action to the server 111 of the company B.
  • This request information includes "request ID”, "access right information”, “target robot information”, “action ID”, and "signature information”.
  • the "request ID" is information for identifying the request.
  • the request ID is also used when the server 111 of company B responds to this request information.
  • Access right information is information for the server of company B to confirm whether or not the server 101 of company A has the access right to the request.
  • the "access right information” is, for example, pair information of the unique ID of the company A application and the unique ID of the company B application.
  • Target robot information is a unique ID of the robot that is the target of the request.
  • target robot information when the B company application and the robot have a one-to-one relationship, the unique ID of the B company application may be adopted. Further, when the unique ID of the company B application is adopted, the target robot information does not have to be included in the request information.
  • Action ID is the identification information of the requested action.
  • the “action ID” may be, for example, action type information (action ID) or information that specifies a unique action.
  • the "signature information” is information for the server 111 of company B to confirm whether or not the request information is forged.
  • the "signature information” may be, for example, an authentication character string output when the request information is input to the signature program that the server 111 of the company B lends to the server 101 of the company A in advance.
  • Step S209 The company B server 111 collates whether the company A server 101 (or the company A application) has the access right for the action of the received request information with the access right information recorded in the memory 111c of the company B server 111. Confirm. If the access right is insufficient or absent, the company B server 111 returns a reply rejecting this request information to the company A server 101, and ends the process. Since this detail has been described above, it will be omitted.
  • the company B server 111 determines that the company A server 101 (or the company A app) has an appropriate access right for the action of this request information, it transmits an instruction to execute this action on the target robot 110.
  • Step S210 Upon receiving this instruction, the robot 110 executes the instructed action.
  • Step S211 The robot 110 transmits the execution result of the action to the server 111 of the company B.
  • the execution result of the action is information based on the user's biological activity information and surrounding information within a predetermined time after the action is executed.
  • Step S212 The company B server 111 transmits the execution result of the action received from the robot 110 to the company A server 101.
  • Step S213 The server 101 of company A measures the effect of the action executed by the robot 110 using the execution result of the action.
  • the server 101 of the company A associates the effect of the measured action with the degree of fatigue of the user, stores it in the memory 101c, and ends the process.
  • the table T2 the number of times the action is executed and the effect of the action are recorded in the cells of the corresponding fatigue level (exercise intensity) and the corresponding action.
  • the table T2 is updated and used as a reference material when selecting the next action.
  • the degree of fatigue of the user may be expressed by 6 to 20 on the Borg scale described above.
  • An example of the predetermined value shown in step S206 of FIG. 9 is “13” on the Borg scale.
  • the degree of fatigue of the user may be expressed by the exercise intensity defined by the Carbonen's formula.
  • an example of the predetermined value shown in step S206 of FIG. 9 is 70%.
  • the server 101 of company A which keeps track of the user's condition, determines the degree of fatigue of the user during exercise in real time, and if the degree of fatigue is equal to or higher than a predetermined value, the effect of past actions is also taken into consideration.
  • the action intended to be supported is selected, and the request information for causing the robot 110 to execute the action is transmitted to the server 111 of the company B.
  • the user can be motivated to continue the exercise and can continue the painful exercise.
  • the health of the user is improved, and the company A can increase the customer value of the health support service through the robot 110 of the company B.
  • FIG. 10 is a flowchart relating to a modified example of the flowchart of FIG. In this flowchart, the same processes as those in FIG. 9 are designated by the same reference numerals and the description thereof will be omitted.
  • Step S220 The server 101 of company A calculates the degree of fatigue of the user based on the biological activity information and the surrounding information acquired in steps S203 and S204. The calculation of the degree of fatigue will be described later.
  • Step S221) The server 101 of company A determines whether the fatigue level corresponds to "high", “medium”, or “low”.
  • An example of "high” fatigue is 14 or more and 20 or less on the Borg scale.
  • An example of "medium” fatigue is 11 or more and 13 or less on the Bols scale.
  • An example of "low” fatigue is 6 or more and 10 or less on the Borg scale.
  • the degree of fatigue may be expressed by the exercise intensity specified by Carbonen's formula.
  • an example with a "high” fatigue level has an exercise intensity of 70% or more
  • an example with a “medium” fatigue level has an exercise intensity of 60% or more and less than 70%
  • the fatigue level is "low”.
  • One example is exercise intensity less than 60%.
  • the degree of fatigue may be the respiratory rate of the user. Respiratory rate is very sensitive to changes in subjective exercise intensity and is known to respond faster than heart rate. Therefore, by measuring the user's respiratory rate rather than the user's heart rate, it becomes possible to detect the user's fatigue level or a change in the fatigue level earlier.
  • the degree of fatigue by the respiratory rate it is necessary to consider that the periodic movement of the whole body and the breathing are easily synchronized. For example, the number of steps and the number of breaths when jogging are easily synchronized, and it is difficult to measure the degree of fatigue only by the number of breaths. Therefore, when estimating the degree of fatigue from the respiratory rate, the mode in which the respiratory rate is used for exercises in which the periodic movement of the whole body is not large (such as walking instead of jogging), or biological activity information other than the respiratory rate such as the respiratory rate and breathing. A mode in which a number is used in combination can be adopted.
  • a value obtained by averaging the user's heart rate over a predetermined period for example, 1 minute
  • a value obtained by averaging the user's respiratory rate over a predetermined period for example, 15 seconds
  • a short-term increase / decrease in the change in the user's respiratory rate may be used.
  • a change in the user's respiratory rate can be detected immediately after a sudden climb from a much flat promenade to an uphill slope, or immediately after a sudden start of climbing stairs.
  • the server 101 of company A can detect that the degree of fatigue (or exercise intensity) has risen sharply, and can transmit request information to the server 111 of company B at the detected timing.
  • the degree of fatigue of the user may be estimated from other biological activity information of the user. For example, it is known that the stronger the blink, the higher the degree of fatigue. Therefore, the server 101 of the company A may detect the change in the blink of the user from the face image of the user taken by the camera provided by the robot 110 by image recognition, and estimate the degree of fatigue based on the detection result. The server 101 of the company A may detect a change in the facial expression of the user from the face image taken by the camera included in the robot 110 by image recognition, and estimate the degree of fatigue based on the detection result.
  • the server 101 of company A recognizes changes in the usage of the user's hands or feet (swing width, movement cycle, bending angle of elbows and knees, etc.) from the whole body image of the user taken by the camera provided by the robot 110 by image recognition. It may be detected and the degree of fatigue may be estimated based on the detection result.
  • the server 101 of company A may detect a change in the moving speed of the user by image recognition from an image taken by a position sensor or a camera provided by the robot 110, and estimate the degree of fatigue based on the detection result.
  • the company A server 101 collects the breath sounds or voice sounds emitted by the user by the microphone (voice sensor) provided in the robot 110, analyzes the user's emotions from the collected changes in the respiratory rate or the voice sounds, and analyzes the analysis results.
  • the degree of fatigue may be estimated based on.
  • the server 101 of company A adds external environmental influences such as temperature, humidity, daily illuminance, or heat index (Wet-bulb Globe Temperature), which are the user's surrounding information, to the above-mentioned user's biological activity information, and the degree of fatigue. You may guess.
  • Step S222 When the server 101 of company A determines that the degree of fatigue of the user is "high”, it selects an action for lowering the exercise intensity (or exercise performance) so that the user can continue exercising for a longer period of time.
  • the action of lowering the exercise intensity is, for example, an action of lowering the moving speed of the robot 110 accompanying the user so as to lower the pace of the user's walk.
  • the action of lowering the exercise intensity is included in "exercise intensity adjustment" in the type of action, and is an action that specifies a target value lower than the current target value of the exercise intensity.
  • the action of lowering the exercise intensity is not limited to specifying a new exercise intensity target value, but even if it is an action of specifying a difference value between the current exercise intensity target value and the new exercise intensity target value. good.
  • Step S223 When the server 101 of company A determines that the degree of fatigue of the user is "low”, it selects an action for increasing the exercise intensity (exercise performance) in order to exercise the user with the target exercise intensity.
  • the action of increasing the exercise intensity is, for example, an action of increasing the moving speed of the robot 110 accompanying the user so as to increase the moving speed of the user's walk.
  • An action that increases exercise intensity is included in "exercise intensity adjustment" as a type of action, and is an action that specifies a target value higher than the current exercise intensity.
  • Step S224 When the server 101 of company A determines that the degree of fatigue of the user is "medium”, the server 101 selects a cheering action that is expected to have the effect of continuing the exercise so that the user can continue the exercise (or exercise intensity) for a longer period of time. do.
  • the cheering action is, for example, an action of playing a song suitable for a walk.
  • the server 101 of company A may refer to the table T2 and select the action for which the most significant effect has been confirmed in the past from a plurality of actions. Further, the server 101 of company A may select two or more actions that the robot 110 can execute at the same time.
  • the server 101 of company A which keeps track of the user's condition, determines the degree of fatigue of the user during exercise in real time, and if the degree of fatigue is "high”, the exercise intensity is lowered, and if the degree of fatigue is "low”, the exercise intensity is lowered. If there is, the exercise intensity is increased, and if it is "medium”, the action intended to be supported is selected in consideration of the effect of the past action, and the request information for causing the robot 110 to execute it is transmitted to the server 111 of company B. As a result, the user can be motivated to continue the exercise and can continue the painful exercise. As a result, the health of the user is improved, and the company A can increase the customer value of the health support service through the robot 110 of the company B.
  • FIG. 11 is a flowchart showing a first example of determining the degree of fatigue.
  • Step S301 The server 101 of company A determines the degree of fatigue using at least one of the user's attribute information, biological activity information, and surrounding information.
  • the attribute information is registered in advance in the memory 101c of the server 101 of company A by initial setting.
  • Attribute information includes at least one of age, gender, exercise intensity target, body weight, body fat percentage, muscle mass, and medical history. Attribute information is used only when necessary in the criteria for determining the degree of fatigue described later.
  • the biological activity information is acquired by the biological sensor of the smart watch 140, the sensor 100c of the smartphone 100, and / or the sensor 110c of the robot 110.
  • the biological activity information is used as necessary in the criteria for determining the degree of fatigue described later.
  • the smart watch 140 can acquire the pulse rate, but the robot 110 can also acquire the biological activity information by using, for example, an RGB camera (sensor 110c). Hemoglobin is known to have the property of absorbing green light. Therefore, for example, the calculation unit 110b of the robot 110 can detect the change in the brightness of the green component on the face surface from the user's face image taken by the RGB camera, and can acquire the pulse rate based on the detection result.
  • an RGB camera sensor 110c
  • Hemoglobin is known to have the property of absorbing green light. Therefore, for example, the calculation unit 110b of the robot 110 can detect the change in the brightness of the green component on the face surface from the user's face image taken by the RGB camera, and can acquire the pulse rate based on the detection result.
  • Surrounding information is acquired from the smart watch 140 and / or the sensor 110c of the robot 110.
  • the surrounding information is used as necessary in the criteria for determining the degree of fatigue, which will be described later.
  • the robot 110 acquires surrounding information of the robot 110 by using a sensor 110c such as an RGB camera, a range finder, and a microphone.
  • the surrounding information includes the current position of the user, the relative positional relationship between the user and the robot 110 (for example, the distance), the relative movement speed between the user and the robot 110, and the inclination angle of the road surface in the movement direction of the user. Temperature, humidity, etc.
  • the server 101 of company A periodically determines the degree of fatigue of the current user according to the following determination criteria using at least one of the attribute information, biological activity information, and surrounding information of these users.
  • the degree of fatigue of the user is determined in three stages of high, medium and low, but may be determined in two stages or four or more stages. Further, the determination result of the degree of fatigue may be an index that continuously changes.
  • the condition (H1) is a case where at least one of the above-mentioned biological activity information shows exercise fatigue higher than the upper limit value of the recommended range (an example of fatigue tolerance or threshold value).
  • the condition (H1) is that the pulse rate is higher than the upper limit of the recommended range of the pulse rate, the respiratory rate is higher than the upper limit of the recommended range of the respiratory rate, and the activity amount (calories burned) is the upper limit of the recommended range of the activity amount.
  • the step index is higher than the upper limit of the recommended range of the step index, and so on.
  • the step count index has a smaller value as the number of steps within a predetermined time increases.
  • the recommended range of pulse rate is the range of pulse rate corresponding to the target range of exercise intensity.
  • the recommended range of respiratory rate is the range of respiratory rate corresponding to the target range of exercise intensity.
  • the recommended range of activity is the range of activity (calories burned) corresponding to the target range of exercise intensity.
  • the recommended range of the pedometer is the range of the pedometer corresponding to the target range of exercise intensity.
  • the target range of exercise intensity is a certain range based on the target value of exercise intensity.
  • the condition (H2) is that the index of exercise intensity calculated from at least one of the above-mentioned biological activity information shows exercise fatigue higher than the upper limit of the recommended range of exercise intensity.
  • the index of exercise intensity is an index obtained by using the Carbonen formula, a Borg scale indicating subjective exercise intensity, a modified Borg scale modified from the Borg scale, METs, or an index defined independently.
  • the condition (H3) is that the user's exercise performance calculated from at least one of the above-mentioned surrounding information shows exercise fatigue higher than the recommended range of the exercise performance.
  • the recommended range of exercise performance is the range of exercise performance corresponding to the target range of exercise intensity.
  • the exercise performance includes, for example, the movement speed of the user, the movement distance of the user within a predetermined time, the distance between the robot 110 in front of the user and the user, and the like.
  • the condition (H3) is that the moving speed of the user is lower than the lower limit of the recommended range of the moving speed, the moving distance within the predetermined time of the user is lower than the lower limit of the recommended range of the moving distance, and the user is ahead of the moving direction.
  • the interval from the robot 110 to the user exceeds the upper limit of the recommended interval range, and so on.
  • the lower limit of the recommended range of moving speed is, for example, 8 km / h.
  • the condition (H4) is a combination of any one or more of the conditions (H1) to (H3).
  • the condition (H4) is a case where the pulse rate is higher than the upper limit of the recommended range of the pulse rate and the distance between the robot 110 in front of the moving direction and the user exceeds the upper limit of the recommended range of the interval. ..
  • the condition (H4) is when the exercise intensity obtained by using Carbonen's equation is higher than the upper limit of the recommended range of exercise intensity and the movement speed of the user is lower than the lower limit of the recommended range of movement speed.
  • the condition (H5) is a combination of any one or more of the conditions (H1) to (H3) and one or more of the attribute information.
  • condition (H5) is that the pulse rate is higher than the upper limit of the recommended range of the pulse rate, and the age is higher than the reference age.
  • the condition (L1) is that at least one of the above-mentioned biological activity information shows exercise fatigue lower than the lower limit of the recommended range (an example of fatigue tolerance or threshold value).
  • the condition (L1) is that the pulse rate is lower than the lower limit of the recommended range of the pulse rate, the respiratory rate is lower than the lower limit of the recommended range of the respiratory rate, and the activity amount (calorie consumption) is the lower limit of the recommended range of the activity amount. It is lower than the value, the step index is lower than the lower limit of the recommended range of the step index, and so on.
  • the condition (L2) is that the above-mentioned exercise intensity index in (H2) indicates exercise fatigue lower than the lower limit of the recommended range of exercise intensity.
  • Condition (L3) is a case where the above-mentioned exercise performance in (H3) shows exercise fatigue lower than the recommended range of exercise performance.
  • the condition (L3) is that the moving speed of the user is higher than the upper limit of the recommended range of the moving speed, the moving distance within the predetermined time of the user is higher than the upper limit of the recommended range of the moving distance, and the user is behind in the moving direction.
  • the distance between the robot 110 and the user exceeds the upper limit of the recommended range of the distance, and so on.
  • the condition (L4) is a combination of any one or more of the conditions (L1) to (L3).
  • the condition (L4) is that the pulse rate is lower than the lower limit of the recommended range of the pulse rate, and the distance between the robot 110 and the user behind in the moving direction exceeds the upper limit of the recommended range of the interval.
  • the exercise intensity obtained by using the above equation is lower than the lower limit of the recommended range of exercise intensity and the movement speed of the user is higher than the upper limit of the recommended range of movement speed.
  • the condition (L5) is a combination of any one or more of the conditions (L1) to (L3) and one or more of the attribute information.
  • condition (L5) is when the pulse rate is lower than the lower limit of the recommended range of the pulse rate and the age is lower than the reference age.
  • the condition (M1) is when the exercise intensity of the user is within the target range.
  • the condition (M2) is when the judgment of the degree of fatigue is neither "high” nor "low".
  • FIG. 12 is a flowchart showing a second example of determining the degree of fatigue.
  • Step S401 The server 101 of company A inputs the exercise heart rate of the user during exercise, the preset age of the user, and the resting heart rate obtained from the robot 110 into the Carbonen's formula, thereby exercising intensity (%). ) Is calculated.
  • Step S402 The server 101 of company A determines the degree of fatigue of the user during exercise by comparing the calculated exercise intensity (%) with the initially set target value (%) of exercise intensity or the set range of exercise intensity. ..
  • the server 101 of company A determines the degree of fatigue depending on whether the current exercise intensity of the user is higher or lower than the target value of the exercise intensity.
  • the server 101 of company A compares the user's current exercise intensity with the target range of exercise intensity, and when the exercise intensity is higher than the target range, the fatigue level is “high” and the exercise intensity is within the target range. In the case of, the degree of fatigue is determined to be “medium”, and when the exercise intensity is lower than the target range, the degree of fatigue is determined to be “low”.
  • the target value of exercise intensity is a value in the range of 60% or more and less than 70% in the exercise intensity (%) corresponding to the AT point, which is said to be effective for maintaining health, and a value in the range of 11 to 13 on the Borg scale. There may be.
  • the target range of exercise intensity may be a range of 60% or more and less than 70% in exercise intensity (%) corresponding to an AT point, which is said to be effective for maintaining health, and a range of 11 to 13 on the Borg scale.
  • the target value of exercise intensity is the value initially set by the user
  • the user's past exercise amount results such as the average amount of exercise in the last month, and 4.0 METs (METs) corresponding to a relatively light amount of exercise are adopted. good.
  • the action to be taken by the robot 110 is determined using the determination result of the degree of fatigue determined in this way.
  • Carbonen formula was used as an index of exercise intensity, the present disclosure is not limited to this, and a Borg scale, a modified Borg scale, METs, or an original index may be adopted.
  • FIG. 13 is a flowchart showing an example of processing after the start of accompanying running.
  • the processing subject of FIG. 13 will be described as being the robot 110, but this is an example, and the processing subject may be the server 101 of company A or the server 111 of company B.
  • the robot 110 accompanies the user on the other side of the user.
  • the robot 110 identifies a user's moving direction by tracking a user behind him using a camera. Then, the robot 110 accompanies the user at a predetermined moving speed in the moving direction, or accompanies the user so that the distance from the user becomes a constant interval in the moving direction.
  • the predetermined moving speed of the robot 110 is, for example, the moving speed of the user.
  • the robot 110 acquires the moving speed of the user.
  • the robot 110 calculates and calculates the relative movement speed of the user (an example of surrounding information) with respect to the robot 110 by tracking the position of the user from a moving image of the user taken by an RGB camera (an example of an optical sensor).
  • the moving speed of the user may be calculated by adding the moving speed of the robot 110 to the relative moving speed.
  • the moving speed of the robot 110 may be the speed detected by the speed sensor included in the robot 110, or may be the command speed instructed by the server 111 of the company B.
  • Step S502 The robot 110 acquires the user's biological activity information, surrounding information, and attribute information. Details of the acquisition of biological activity information, surrounding information, and attribute information have been described above.
  • the robot 110 may acquire the user's biological activity information and surrounding information from the user's image taken by the RGB camera.
  • the robot 110 may acquire user attribute information from the server 101 of company A.
  • Step S503 The robot 110 calculates the degree of fatigue of the user using biological activity information, surrounding information, and attribute information. Details of the calculation of the degree of fatigue have been described with reference to FIGS. 11 and 12.
  • Step S504 The robot 110 determines whether or not the fatigue level is "high” according to the above-mentioned determination criteria. If the degree of fatigue is "high” (YES in step S504), the process proceeds to step S506. If the degree of fatigue is not "high” (NO in step S504), the process proceeds to step S505. The details of this determination are the same as in step S221.
  • Step S505 The robot 110 determines whether or not the fatigue level is "low” according to the above-mentioned determination criteria. If the degree of fatigue is "low” (YES in step S505), the process proceeds to step S507. If the fatigue level is not “low” (NO in step S505), that is, if the fatigue level is "medium”, the process proceeds to step S508.
  • the robot 110 reduces the movement speed of the robot 110 or reduces the movement speed of the robot 110 to narrow the distance between the robot 110 and the user.
  • the robot 110 may control the movable portion 110e to accompany the robot 110 at a moving speed lower than the user's moving speed by a predetermined speed.
  • the robot 110 may control the movable portion 110e to accompany the user so that the changed interval is maintained. As a result, the robot 110 can reduce the degree of fatigue of the user.
  • Step S507 The robot 110 increases the distance between the robot 110 and the user by increasing its own movement speed or increasing its own movement speed.
  • the robot 110 may accompany the robot 110 at a moving speed higher than the moving speed of the user by a predetermined speed.
  • the robot 110 may accompany the user so that the changed interval is maintained. As a result, the robot 110 can increase the degree of fatigue of the user.
  • Step S508 The robot 110 maintains the current speed of movement or maintains the distance between the current robot 110 and the user. As a result, the robot 110 can maintain the degree of fatigue of the user within an appropriate range.
  • Step S509 The robot 110 determines whether or not the accompanying run has been completed.
  • the process is completed, and when the accompaniment is not completed (NO in step S509), the process returns to step S501.
  • the robot 110 may determine that the accompanying run has been completed.
  • the end condition is, for example, when a certain time or more has passed since the movement speed of the user became 0, or when the position information of the user indicates that the user is in the home of the user.
  • FIG. 14 is a diagram showing an example of how the robot 110 is accompanied by a user who is taking a walk.
  • the robot 110 is located ahead of the user with respect to the moving direction D1.
  • the robot 110 uses the lighting unit 110g to illuminate the lighting area 125 at the user's feet while leading the user's walk.
  • the illumination area 125 has a shape extending from the user's feet toward the user's moving direction D1.
  • the illumination area 125 is located on the road surface between the user position 130 and the robot position 131.
  • the robot 110 illuminates the illumination area 125 by projection mapping.
  • the illuminated area 125 contains a message (good tone) indicating that the user's walk is at a good pace.
  • the characters are arranged so that the user position 130 is on the lower side of the character string.
  • the robot 110 uses the video / audio output unit 110f to output a shout "good tone” indicating that the user's walk is proceeding smoothly.
  • a shout "good tone” indicating that the user's walk is proceeding smoothly.
  • the user can know that the walk is at a good pace by the words displayed on the road surface by the robot and / or the shouts uttered by the robot 110, and can be confident that the walk can be taken firmly.
  • the effect of continuing exercise and making it a habit can be expected.
  • FIG. 15 is a diagram showing another example in which the robot 110 is accompanied by a user's walk.
  • the robot 110 is located next to the user and is accompanied by a walking user.
  • the robot 110 normally walks on four legs, but in this example, the robot 110 is accompanied only by its hind legs. This is an example of the action described in "Bipedalism" in “Behavior”. Further, the robot 110 is steadily advancing the user's walk at a good pace, and outputs a shout "OK, shining" praising the user's efforts from the speaker. This is an example of the action explained in "praise" of "cheering".
  • the user can heal the mood by watching the acrobatics of the robot 110, and / or know that he / she is exercising well by the shouts uttered by the robot 110, and can have a positive feeling.
  • FIG. 16 is a diagram showing how the robot 110 takes an action to increase the exercise intensity of the user.
  • the robot 110 is located ahead of the user's moving direction D1 and guides the user's jogging route and pace. Since the user's fatigue level has become “low", the robot 110 executes an action to increase the exercise intensity.
  • the robot 110 has begun to move at a moving speed faster than the moving speed so far. At the same time, the robot 110 outputs a shout "fast” from the speaker to encourage the user to increase the pace.
  • Increasing the moving speed of the robot 110 is an example of the action described in "Adjustment of exercise intensity" or "Adjustment of performance" of "Adjustment of exercise intensity”.
  • the robot's shout is an example of the action explained in “Rebuke” of "Cheer (chall)".
  • the user can know that the exercise intensity will be increased from now on by increasing the moving speed of the accompanying robot 110 and / or by the shouts uttered by the robot 110.
  • FIG. 17 is a diagram showing how the robot 110 takes an action to reduce the degree of fatigue of the user.
  • the robot 110 is located ahead of the user's moving direction D1 and guides the user's jogging route and pace. Since the user's fatigue level has become "high", the robot 110 executes an action of lowering the exercise intensity. The robot 110 has begun to move at a moving speed slower than the conventional moving speeds. At the same time, the robot 110 outputs a bark "one" intended to slow down the user from the speaker.
  • the slowing down of the pace by the robot 110 is an example of the action described in "Adjustment of exercise intensity" or “Adjustment of performance" of "Adjustment of exercise intensity”.
  • the robot's shout is an example of the action explained in “Cheer” of "Cheer (scream)".
  • the user can know that the robot 110 slows down the pace of the accompanying run and / or the bark uttered by the robot 110 will reduce the exercise intensity from now on.
  • the cheering may not be a shout using a human language, but a bark that imitates the bark of an animal.
  • the user presets the bark corresponding to "screaming", “cheering”, “encouragement”, and “praise” using the company A application.
  • "Woo, One” can be set for scolding, "One” for cheering, “One, One” for encouragement, and “Wowon” for praise. This may be a bark that imitates a real creature, or it may be a bark of a fictitious creature.
  • FIG. 18 is a diagram showing how the robot 110 accompanied by the walking user changes the moving speed.
  • the robot 110 is accompanied by a user at a moving speed of "16 km / h".
  • the user's heart rate "153 bpm" is measured by the smart watch 140. From this heart rate, the degree of fatigue is determined to be "high”. Therefore, as shown in the middle figure, the robot 110 performs cheering (screaming) action (screaming "one!) And exercise intensity (exercise performance). Take the action to lower and.
  • the robot 110 executes an action of reducing the moving speed from 16 Km / h to -4 Km / h.
  • the robot 110 controls the movable portion 110e and accompanies the user at a moving speed of "12 km / h".
  • the user's heart rate is measured as "142 bpm", and the user's fatigue level is reduced. This can be expected to have the effect of allowing the user to continue exercising at an appropriate degree of fatigue “medium” or exercise intensity without giving up before the exercise intensity (METs) reaches the target value.
  • FIG. 19 is a diagram showing another example in which the robot 110 is accompanied by a user who is taking a walk.
  • the robot 110 is located next to the user and guides the user's walking route and pace.
  • the user's current fatigue level is "medium", which is the ideal exercise intensity. Therefore, the robot 110 is performing an action to maintain this exercise intensity for a longer period of time.
  • the robot 110 plays a song or playlist that fits the walk so that the user is motivated for the walk. Playing a song by the robot 110 is an example of the action described in "Preset” or "User song selection" of "Music play".
  • the user can withstand the fatigue caused by exercise for a long time by playing a song that enhances the motivation of the walk while the robot 110 is accompanied, and as a result, the amount of exercise can be increased.
  • FIG. 20 is a diagram showing another example in which the robot 110 is accompanied by a user who is taking a walk.
  • the robot 110 is located next to the user and guides the user's walking route and pace.
  • the robot 110 detects the user's current skeleton from the user's biological activity information or surrounding information such as camera images, analyzes the user's motion form from the detected skeleton, and differs between the analyzed motion form and the correct motion form. To evaluate. For example, it is assumed that the robot 110 determines that the posture of the upper body of the user is bad and the chest should be stretched. In this case, the robot 110 outputs information pointing out a bad point of the exercise form in order to correct the exercise form of the user.
  • the robot 110 detects that the user is walking with his back curled up, and as a result, calls the user for the correct exercise form, saying, "Tighten your chest.” This is an example of the action explained in "Arbitrary" of "Cheering (challenging)".
  • the user will be able to exercise with the correct exercise form by pointing out the bad points with his exercise form while the robot accompanies him. As a result, the user can reduce the risk of causing unexpected injuries and accidents during exercise.
  • the robot 110, the server 111 of the company B, and / or the server 101 of the company A analyze the posture of the user from the camera image of the robot 110 to determine whether these checkpoints are properly performed, and based on the analysis result. Then, the walking form of the user may be analyzed, and the result may be notified to the user.
  • FIG. 21 is a sequence diagram showing the processing of the second example of the present embodiment.
  • the main body for determining the degree of fatigue is the server 111 of company B.
  • the same processing as in FIG. 6 is designated by the same reference numerals, and the description thereof will be omitted.
  • Steps S1, S2, and S601 include initial setting processing, and steps S3 and subsequent steps are processing during user exercise.
  • Step S601 The company A server 101 transmits the exercise intensity information and the action information acquired in step S2 to the company B server 111.
  • Step S602 The server 101 of company A transmits the biological activity information and surrounding information acquired from the smartphone 100 and / or the smart watch 140 in step S4 to the server 111 of company B.
  • Step S603 The server 111 of the company B estimates the current fatigue level of the user in real time based on the acquired biological activity information and surrounding information of the user. The details of estimating the degree of fatigue are as described above.
  • Step S604 The server 111 of company B selects an action that is expected to have an effect on the current user based on the degree of fatigue. The details of action selection are as described above.
  • Step S605 The server 111 of company B outputs an instruction to cause the robot 110 to execute the selected action.
  • the server 111 of company B since the determination subject is the server 111 of company B, the server 111 of company B differs from step S11 in that it outputs an instruction without determining whether or not the server 101 of company A has an access right.
  • Step S606 The server 111 of the company B measures the effect of the action executed by the robot 110 using the execution result of the action acquired in step S13, and registers the effect in the memory 111c. The details of measuring the effect of the action are as described above.
  • Step S607 The B company server 111 transmits the effect of the action to the A company server 101.
  • Step S608 The server 101 of company A registers the effect of the action in the memory 101c.
  • FIG. 22 is a sequence diagram showing the processing of the third example of the present embodiment.
  • the robot 110 is the main body for determining the degree of fatigue.
  • steps S1 and S701 are initial setting processes, and steps S3 and subsequent steps are processes during exercise.
  • steps S3 and subsequent steps are processes during exercise.
  • the same processing as in FIG. 6 is assigned the same number, and the description thereof will be omitted.
  • Step S701 The smartphone 100 and / or the smart watch 140 transmits the exercise intensity information and the action information acquired in step S2 to the server 101 of the company A and the robot 110, respectively.
  • Step S702 The smartphone 100 and / or the smart watch 140 transmits the biological activity information and surrounding information acquired in step S3 to the robot 110.
  • Step S703 The robot 110 estimates the current fatigue level of the user in real time based on the acquired biological activity information and surrounding information of the user. The details of estimating the degree of fatigue are as described above.
  • Step S704 The robot 110 selects an action that is expected to have an effect on the current user based on the degree of fatigue.
  • the details of action selection are as described above.
  • Step S705 The robot 110 executes an action in step S12, measures the effect of the action, and registers the effect in the memory 110d. The details of measuring the effect of the action are as described above.
  • Step S706 The robot 110 transmits the effect of the action to the smartphone 100 and / or the smart watch 140.
  • Step S707 The smartphone 100 and / or the smart watch 140 registers the effect of the action in the memory.
  • FIG. 23 is a sequence diagram showing the processing of the fourth example of the present embodiment.
  • the robot 110 is the main body for determining the degree of fatigue.
  • the application of company B is installed on the smartphone 100 in addition to the application of company A.
  • steps S1 and S801 are initial setting processes, and steps S3 and subsequent steps are processes during exercise.
  • the same processing as in FIG. 6 is assigned the same number, and the description thereof will be omitted.
  • Step S801 The company A application and / or the smartwatch 140 shares the exercise intensity information and the action information set by the user in step S1 with the company B application, and the company B application sets the exercise intensity information and the action information to the robot 110. Send.
  • Step S802 The company A application and / or the smartwatch 140 shares the biological activity information and surrounding information acquired in step S3 with the company B application, and the company B application transmits the biological activity information and surrounding information to the robot 110.
  • step S703 Since the processing after step S703 is the same as that in FIG. 22, the description thereof will be omitted.
  • the moving speed of the robot accompanying the user is adjusted so that the fatigue level of the user is within the permissible range.
  • the robot 110 can accompany the user so that an appropriate degree of fatigue is maintained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Tools (AREA)
  • Manipulator (AREA)

Abstract

ロボットは、少なくとも1つの光学センサーを介して、ユーザの移動速度を取得し、ユーザの生体情報をモニタする生体センサーを介して、ユーザの歩行または走行による疲労度と相関して変動する生体情報の第1測定値を取得し、ユーザの生体情報の第1測定値が第1閾値を超えた場合に、アクチュエータを制御してロボットの移動速度を第1速度からユーザの移動速度よりも遅い第2速度に落とす。

Description

制御方法、プログラム、及びロボット
 本開示は、ロボットの能力を外部に提供する技術に関するものである。
 特許文献1は、特定人物に対する犯罪を抑制することを目的として、特定人物に伴走して移動可能であり、ディスプレイ及びスピーカーを通して、特定人物を監視していることを報知したり、異変が発生したときには警報を発したりする、ロボットを開示する。
 しかしながら、特許文献1では、さらなる改善の必要がある。
特開2007-264950号公報
 本開示の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とし、前記第2速度は前記ユーザの移動速度よりも遅い。
本開示の実施の形態に係る情報システムの全体構成の一例を示すブロック図である。 本開示の実施の形態に係る情報システムの構成の一例を示すブロック図である。 A社がロボットと連携する際の処理の一例を示すフローチャートである。 ロボットへのアクセス権の種類と許可レベルとの関係の一例を示す表である。 本実施の形態におけるロボットの外観図である。 本実施の形態の第1例の処理を示すシーケンス図である。 アクション情報を登録するアクションテーブルの一例を示す図である。 主観的運動強度とアクションの効果との関係を登録するテーブルの一例を示す図である。 図6の処理の詳細を示すフローチャート図である。 図6のフローチャートの変形例に係るフローチャートである。 疲労度の判定の第1例を示すフローチャートである。 疲労度の判定の第2例を示すフローチャートである。 伴走開始後の処理の一例を示すフローチャートである。 ロボットが散歩するユーザの伴走をしている様子の一例を示す図である。 ロボットがユーザの散歩を伴走している様子の他の一例を示す図である。 ロボットがユーザの運動強度を高めるアクションをする様子を示す図である。 ロボットがユーザの疲労度を下げるアクションをする様子を示す図である。 散歩するユーザを伴走するロボットが移動速度を変動させる様子を示す図である。 ロボットが散歩するユーザの伴走をしている様子の他の一例を示す図である。 ロボットが散歩するユーザの伴走をしている様子の他の一例を示す図である。 本実施の形態の第2例の処理を示すシーケンス図である。 本実施の形態の第3例の処理を示すシーケンス図である。 本実施の形態の第4例の処理を示すシーケンス図である。
(本開示に至る経緯)
 我々の日常生活はますますデジタル化されてきている。例えば、多くの人が個人専用の情報通信端末であるスマートフォンを持つ。ユーザは、そのスマートフォンにユーザの健康管理を行うアプリケーション(以下、アプリケーションをアプリと呼ぶ)、家計の管理を支援するアプリ、知人とのリアルタイムなコミュニケーションを支援するソーシャルコミュニケーションアプリ、世の中のニュースを個人の興味に合わせてキュレーションしてくれるニュースアプリなど様々なアプリをインストールして利用するようになった。
 一方で、徐々にだが、自律的に種々の動作や作業を行うことができる可動装置(以下、ロボットと呼ぶ)も実用化されてきた。工場において部品の組み立てや調整を行うロボット、物流拠点において正確かつ迅速な仕分けを行うロボット、特定のタスクを周囲の状況を鑑みながら遂行することができるロボットなどがある。これらのロボットの中には、人との共同作業や、人の代替として特定の作業を行ってくれるロボットも含まれている。
 本開示は、多様な情報処理を行うことができる情報処理装置であるスマートフォンと、多様な動作や物体を扱う作業を行うことができる可動装置であるロボットとが連携動作することによって、健康な、幸福な、快適な、安心な、安全な、愉しい、かつ/または清潔な生活をできるようにユーザを支援するための技術を開示していく。
 このような、スマートフォンとロボットとが連携動作する技術として、例えば、宅外で散歩またはジョギングをするユーザをロボットに伴走させる技術が検討されている。
 例えば、特許文献1では、夜間等において犯罪の抑制効果を高めるために、ロボットがバックライト光源でユーザの周囲を照らしたり、ロボットがユーザの異変を検知してディスプレイやスピーカーにより周囲に監視中であることを発したり、することが開示されている。
 しかしながら、特許文献1では、ユーザの安全を確保することを主眼としており、ユーザを適切な疲労度で散歩またはジョギングさせることは何ら考慮されていないので、さらなる改善の必要がある。
 本開示は、このような課題を解決するためになされたものであり、ユーザが適切な疲労度で運動するようにロボットにユーザの伴走を行わせる技術を提供する。
 (1)本開示の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とし、前記第2速度は前記ユーザの移動速度よりも遅い。
 本態様によれば、ユーザの生体情報の第1測定値が第1閾値を超えた場合に、アクチュエータを制御してロボットの移動速度が第1速度からユーザの移動速度より遅い第2速度に落とされる。これにより、ユーザの疲労度が過大になると、ユーザを伴走するロボットの移動速度をユーザの移動速度よりも落とすことによって、ユーザの疲労度を下げることができる。その結果、適切な疲労度でユーザが運動するようにロボットにユーザの伴走を行わせることができる。
 (2)上記制御方法において、前記ロボットの移動速度が前記第1速度であるとき、前記ロボットを前記ユーザに対して先行させてもよい。
 本態様によれば、ロボットはユーザの前方で伴走するので、ロボットの移動速度を目安にユーザに運動を行わせることができる。
 (3)上記制御方法において、前記ロボットの移動速度が前記第2速度になった後、前記生体センサーを介して、前記ユーザの前記生体情報の第2測定値を取得し、前記ユーザの前記生体情報の前記第2測定値が前記第1閾値以下、第2閾値以上の範囲内になった場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第2速度に維持させてもよい。
 本態様により、ユーザの生体情報の測定値が適切な範囲内を維持するようにユーザに運動を行わせることができる。
 (4)上記制御方法において、前記第1閾値および前記第2閾値は、前記ユーザの運動強度の推奨範囲の上限値および下限値に、それぞれ対応し、前記運動強度の推奨範囲は、ボルグスケール、修正ボルグスケール、または、METsを用いた範囲であってもよい。
 本態様により、推奨範囲がボルグスケール、修正ボルグスケール、または、METsを用いて規定され、ユーザの生体情報の測定値が推奨範囲に入っているか否かを正確に判定できる。
 (5)上記制御方法において、前記ユーザの運動の実施状況を管理するコンピュータから、前記ユーザが前記歩行または前記走行によって達成すべき運動目標を示す運動目標情報を取得し、前記第1閾値、前記第1速度、及び前記第2速度の少なくとも1つは、前記運動目標に基づいて決定されてもよい。
 本態様により、第1閾値、第1速度及び第2速度の少なくとも1つをユーザの運動目標に応じた値に設定でき、ユーザの運動目標に即した適切な疲労度でユーザを運動させることができる。
 (6)上記制御方法において、前記第2閾値は、前記運動目標に基づいて決定されてもよい。
 本態様により、第2閾値をユーザの運動目標に応じた値に設定でき、ユーザの運動目標に即した適切な疲労度でユーザを運動させることができる。
 (7)上記制御方法において、前記ユーザの属性情報を管理するコンピュータから、前記ユーザの属性を示す属性情報を取得し、前記属性情報は、前記ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つを含み、前記第1閾値、前記第1速度、及び前記第2速度の少なくとも1つは、前記属性情報に基づいて決定されてもよい。
 本態様により、ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つからなる属性情報を考慮に入れて、第1閾値、第1速度及び第2速度の少なくとも1つを決定できる。
 (8)上記制御方法において、前記第2閾値は、前記属性情報に基づいて決定されてもよい。
 本態様により、ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つからなる属性情報を考慮に入れて、第2閾値を決定できる。
 (9)上記制御方法において、前記ユーザの前記生体情報の前記第1測定値が前記第1閾値以下、第2閾値以上の範囲内にある場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度に維持し、前記ロボットに搭載された照明装置またはスピーカーを介して、前記ユーザに対して、前記ユーザの移動速度が推奨速度であることを示すメッセージを通知してもよい。
 本態様により、ユーザの生体情報の測定値が適切な範囲内にある場合に、移動速度が推奨速度であることをユーザに通知することができ、現在の移動速度が適切な速度であることをユーザに認識させることができる。
 (10)上記制御方法において、前記生体センサーは、前記ロボットに搭載されており、前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含んでもよい。
 本態様により、ユーザに生体センサーを装着させることなく、心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを用いて定量化されたユーザの生体情報を取得できる。
 (11)上記制御方法において、前記生体センサーは、前記ユーザが装着しているウェアラブルデバイスに含まれており、前記生体情報の前記第1測定値は、前記ウェアラブルデバイスからネットワークを介して取得され、前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含んでもよい。
 本態様により、ユーザが装着するウェアラブルデバイスを用いて、心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含むユーザの生体情報を正確に取得できる。
 (12)本開示の別の一態様におけるプログラムは、(1)から(11)のいずれかに記載の制御方法を前記ロボットに搭載されたプロセッサに実行させる。
 本態様により、適切な疲労度でユーザが運動するようにロボットを伴走させるプログラムを提供できる。
 (13)本開示の別の一態様におけるロボットは、本体と、前記少なくとも一対の脚または車輪と、前記少なくとも一対の脚または車輪を駆動するアクチュエータと、前記少なくとも1つの光学センサーと、プロセッサと、(1)から(11)のいずれかに記載の制御方法を前記プロセッサに実行させるためのプログラムが格納されたメモリとを備える。
 本態様により、適切な疲労度でユーザが運動するようにユーザを伴走するロボットを提供できる。
 (14)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とし、前記第2速度は前記ユーザの移動速度よりも遅い。
 本態様は、ユーザの生体情報から算出される第1疲労度が第1疲労許容度を超えた場合に、ロボットの移動速度を第1速度からユーザの移動速度よりも遅い第2速度に落とすことによって、ユーザの疲労度を下げ、それによって、適切な疲労度でユーザを運動させるものである。
 (15)上記制御方法において、前記ロボットの移動速度が前記第2速度になった後、前記生体センサーを介して、前記ユーザの前記生体情報の少なくとも1つの第2測定値を取得し、前記生体情報の前記少なくとも1つの第2測定値に基づいて、前記ユーザの第2疲労度を算出し、算出された前記第2疲労度が前記第1疲労許容度以下、第2疲労許容度以上の範囲内になった場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第2速度に維持させてもよい。
 本態様により、ユーザの生体情報から算出された疲労度が適切な範囲内を維持するようにユーザに運動を行わせることができる。
 (16)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、前記位置情報に基づいて、前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させ、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値よりも低い場合に、前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に拡げる。
 本態様によれば、ユーザの生体情報の第1測定値が第1閾値よりも低い場合に、アクチュエータを制御して、ロボットとユーザとの間隔が第1間隔から第2間隔に拡げられる。これにより、ユーザの疲労度が過小になると、ユーザの疲労度を上げることができる。その結果、適切な疲労度でユーザが運動するようにロボットにユーザの伴走を行わせることができる。
 (17)上記制御方法において、前記間隔が前記第2間隔である場合に、前記ロボットを前記ユーザに対して先行させてもよい。
 本態様により、ユーザとロボットとの間隔が第2間隔に拡がった場合、ロボットがユーザに先行して伴走するので、ロボットを目安にしてユーザの疲労度を適切な疲労度に上げることができる。
 (18)上記制御方法において、前記間隔が前記第2間隔になった後、前記生体センサーを介して、前記ユーザの前記生体情報の第2測定値を取得し、前記ユーザの前記生体情報の前記第2測定値が前記第1閾値以上、第2閾値以下の範囲内になった場合に、前記アクチュエータを制御して前記間隔を前記第2間隔に維持させてもよい。
 本態様により、ユーザの生体情報の測定値が適切な範囲内を維持するようにユーザに運動を行わせることができる。
 (19)上記制御方法において、前記第1閾値および前記第2閾値は、前記ユーザの運動強度の推奨範囲の下限値および上限値に、それぞれ対応し、前記運動強度の推奨範囲は、ボルグスケール、修正ボルグスケール、または、METsを用いた範囲であってもよい。
 本態様により、ユーザの生体情報の測定値が適切な範囲内を維持するようにユーザに運動を行わせることができる。
 (20)上記制御方法において、前記ユーザの運動の実施状況を管理するコンピュータから、前記ユーザが前記歩行または前記走行によって達成すべき運動目標を示す運動目標情報を取得し、前記第1閾値、前記第1間隔、及び前記第2間隔の少なくとも1つは、前記運動目標に基づいて決定されてもよい。
 本態様により、第1閾値、第1間隔、及び第2間隔の少なくとも1つをユーザの運動目標に応じた値に設定でき、ユーザの運動目標に即した適切な疲労度でユーザを運動させることができる。
 (21)上記制御方法において、前記第2閾値は、前記運動目標に基づいて決定されてもよい。
 本態様により、第2閾値をユーザの運動目標に応じた値に設定でき、ユーザの運動目標に即した適切な疲労度でユーザを運動させることができる。
 (22)上記制御方法において、前記ユーザの属性情報を管理するコンピュータから、前記ユーザの属性を示す属性情報を取得し、前記属性情報は、前記ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つを含み、前記第1閾値、前記第1間隔、及び前記第2間隔の少なくとも1つは、前記属性情報に基づいて決定されてもよい。
 本態様により、ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つからなる属性情報を考慮に入れて、第1閾値、第1間隔及び第2間隔の少なくとも1つを決定できる。
 (23)上記制御方法において、前記第2閾値は、前記属性情報に基づいて決定されてもよい。
 本態様により、ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つからなる属性情報を考慮に入れて、第2閾値を決定できる。
 (24)上記制御方法において、前記生体センサーは、前記ロボットに搭載されており、前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含んでもよい。
 本態様により、ユーザに生体センサーを装着させることなく、心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを用いて定量化されたユーザの生体情報を取得できる。
 (25)上記制御方法において、前記生体センサーは、前記ユーザが装着しているウェアラブルデバイスに含まれており、前記生体情報の前記第1測定値は、前記ウェアラブルデバイスからネットワークを介して取得され、前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含んでもよい。
 本態様により、ユーザが装着するウェアラブルデバイスを用いて、心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含むユーザの生体情報を正確に取得できる。
 (26)本開示の別の一態様におけるプログラムは、(16)から(25)のいずれかに記載の制御方法を前記ロボットに搭載されたプロセッサに実行させる。
 本態様により、適切な疲労度でユーザが運動するようにロボットにユーザの伴走を行わせるプログラムを提供できる。
 (27)本開示の別の一態様におけるロボットは、本体と、前記少なくとも一対の脚または車輪と、前記少なくとも一対の脚または車輪を駆動するアクチュエータと、前記少なくとも1つの光学センサーと、プロセッサと、(16)から(25)のいずれかに記載の制御方法を前記プロセッサに実行させるためのプログラムが格納されたメモリとを備える。
 本態様により、適切な疲労度でユーザを運動するようにユーザを伴走するロボットを提供できる。
 (28)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、前記位置情報に基づいて、前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させ、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度よりも低い場合に、前記アクチュエータを制御して、前記間隔を前記第1間隔から第2間隔に拡げる。
 本態様は、ユーザの生体情報から算出される第1疲労度が第1疲労許容度よりも低い場合に、ユーザとロボットとの間隔を第1間隔から第2間隔に拡げることによって、ユーザの疲労度を上げ、それによって、適切な疲労度でユーザを運動させるものである。
 (29)上記制御方法において、前記間隔が前記第2間隔である場合に、前記ロボットを前記ユーザに対して先行させてもよい。
 本態様により、ユーザとロボットとの間隔が第2間隔に拡がった場合、ロボットがユーザに先行して伴走するので、ロボットを目安にしてユーザの疲労度を適切な疲労度に上げることができる。
 (30)上記制御方法において、前記間隔が前記第2間隔になった後、前記生体センサーを介して、前記ユーザの前記生体情報の少なくとも1つの第2測定値を取得し、前記生体情報の前記少なくとも1つの第2測定値に基づいて、前記ユーザの第2疲労度を算出し、算出された前記第2疲労度が前記第1疲労許容度以上、第2疲労許容度以下の範囲内になった場合に、前記アクチュエータを制御して前記間隔を前記第2間隔に維持させてもよい。
 本態様により、ユーザの生体情報から算出された疲労度が適切な範囲内を維持するようにユーザに運動を行わせることができる。
 (31)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の前記第1測定値が第1閾値を下回った場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に上げて、前記第2速度は前記ユーザの移動速度よりも速い。
 本態様によれば、ユーザの生体情報の第1測定値が第1閾値を下回った場合に、アクチュエータを制御してロボットの移動速度が第1速度からユーザの移動速度より速い第2速度に上げられる。これにより、ユーザの疲労度が過小になると、ユーザを伴走するロボットの移動速度をユーザの移動速度よりも上げることによって、ユーザの疲労度を上げることができる。その結果、適切な疲労度でユーザが運動するようにロボットを伴走させることができる。
 (32)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度を下回った場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に上げて、前記第2速度は前記ユーザの移動速度よりも速い。
 本態様は、ユーザの生体情報から算出される第1疲労度が第1疲労許容度を下回った場合に、ロボットの移動速度を第1速度からユーザの移動速度よりも速い第2速度に上げることによって、ユーザの疲労度を上げ、それによって、適切な疲労度でユーザを運動させるものである。
 (33)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、前記位置情報に基づいて、前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させ、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値を超える場合に、前記アクチュエータを制御して、前記間隔を前記第1間隔から第2間隔に狭める。
 本態様によれば、ユーザの生体情報の第1測定値が第1閾値を超える場合に、アクチュエータを制御して、ロボットとユーザとの間隔が第1間隔から第2間隔に狭められる。これにより、ユーザの疲労度が過大になると、ユーザの疲労度を下げることができる。その結果、適切な疲労度でユーザが運動するようにロボットにユーザの伴走を行わせることができる。
 (34)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、前記位置情報に基づいて、前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させ、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度を超える場合に、前記アクチュエータを制御して、前記間隔を前記第1間隔から第2間隔に狭める。
 本態様は、ユーザの生体情報から算出される第1疲労度が第1疲労許容度を超える場合に、ユーザとロボットとの間隔を第1間隔から第2間隔に狭めることによって、ユーザの疲労度を下げ、それによって、適切な疲労度でユーザを運動させるものである。
 (35)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記移動しているユーザに同伴して前記ロボットを第1速度で移動させる第1コマンドを、前記ロボットに送信し、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とさせる第2コマンドを、前記ロボットに送信し、前記第2速度は前記ユーザの移動速度よりも遅い。
 本態様は、ユーザの生体情報の第1測定値が第1閾値を超えた場合、ユーザを伴走するロボットの移動速度をユーザの移動速度よりも落とすことによって、ユーザの疲労度を下げる処理をサーバが行うものである。
 (36)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記移動しているユーザに同伴して前記ロボットを第1速度で移動させる第1コマンドを、前記ロボットに送信し、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とさせる第2コマンドを、前記ロボットに送信し、前記第2速度は前記ユーザの移動速度よりも遅い。
 本態様は、ユーザの第1疲労度が第1疲労許容度を超えた場合に、ユーザを伴走するロボットの移動速度をユーザの移動速度よりも落とすことによって、ユーザの疲労度を下げる処理をサーバが行うものである。
 (37)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させる第1コマンドを、前記ロボットに送信し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値よりも低い場合に、前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に拡げさせる第2コマンドを、前記ロボットに送信する。
 本態様は、ユーザの生体情報の第1測定値が第1閾値を低い場合、ユーザとロボットとの間隔を第1間隔から第2間隔に拡げる処理をサーバが行うものである。
 なお、「前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に拡げさせる第2コマンド」は、ユーザとロボットとの間の間隔を直接的に指定するコマンドに限定されず、例えば、ロボットの移動速度を指定することによって結果的にユーザとロボットとの間の間隔を拡げさせるコマンドであってもよいし、間隔と移動速度の両方を指定するコマンドであってもよい。
 (38)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させる第1コマンドを、前記ロボットに送信し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度よりも低い場合に、前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に拡げさせる第2コマンドを、前記ロボットに送信する。
 本態様は、ユーザの第1疲労度が第1許容疲労度よりも低い場合、ユーザとロボットとの間隔を第1間隔から第2間隔に拡げる処理をサーバが行うものである。
 (39)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して移動している前記ユーザに同伴して前記ロボットを第1速度で移動させる第1コマンドを、前記ロボットに送信し、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の前記第1測定値が第1閾値を下回った場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に上げさせる第2コマンドを、前記ロボットに送信し、前記第2速度は前記ユーザの移動速度よりも速い。
 本態様は、ユーザの生体情報の第1測定値が第1閾値を下回った場合、ユーザを伴走するロボットの移動速度をユーザの移動速度よりも上げることによって、ユーザの疲労度を上げる処理をサーバが行うものである。
 (40)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記移動しているユーザに同伴して前記ロボットを第1速度で移動させる第1コマンドを、前記ロボットに送信し、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度を下回った場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に上げさせる第2コマンドを、前記ロボットに送信し、前記第2速度は前記ユーザの移動速度よりも速い。
 本態様は、ユーザの第1疲労度が第1疲労許容度を下回った場合、ユーザを伴走するロボットの移動速度をユーザの移動速度よりも上げることによって、ユーザの疲労度を上げる処理をサーバが行うものである。
 (41)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させる第1コマンドを、前記ロボットに送信し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、前記ユーザの前記生体情報の第1測定値が第1閾値を超える場合に、前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に狭めさせる第2コマンドを、前記ロボットに送信する。
 本態様は、ユーザの生体情報の第1測定値が第1閾値を超える場合、ユーザの疲労度を下げる処理をサーバが行うものである。
 なお、「前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に狭めさせる第2コマンド」は、ユーザとロボットとの間の間隔を直接的に指定するコマンドに限定されず、例えば、ロボットの移動速度を指定することによって結果的にユーザとロボットとの間の間隔を狭めさせるコマンドであってもよいし、間隔と移動速度の両方を指定するコマンドであってもよい。
 (42)本開示の別の一態様における制御方法は、歩行または走行によって移動しているユーザに伴走するロボットと通信するサーバにおける前記ロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させる第1コマンドを、前記ロボットに送信し、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、算出された前記第1疲労度が第1疲労許容度を超える場合に、前記アクチュエータを制御して前記間隔を前記第1間隔から第2間隔に狭めさせる第2コマンドを、前記ロボットに送信する。
 本態様は、ユーザの第1疲労度が第1許容疲労度を超える場合、ユーザとロボットとの間隔を第1間隔から第2間隔に狭める処理をサーバが行うものである。
 (43)本開示の別の一態様における制御方法は、運動しているユーザを支援するロボットの制御方法であって、前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットの周囲の状況を示す周囲情報を取得し、前記周囲情報は、運動している前記ユーザの状態と前記ユーザの周囲の環境との少なくとも一方を含み、前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記運動による疲労度と相関して変動する前記ユーザの前記生体情報を取得し、前記ユーザの属性情報を管理するコンピュータから、前記ユーザの属性を示す属性情報を取得し、前記周囲情報と前記生体情報と前記属性情報とのうちの少なくとも1つに基づいて前記ユーザの疲労度を算出し、前記疲労度が第1疲労許容度を超える場合に、前記ユーザの運動量または運動負荷を下げさせるための第1動作を前記ロボットに実行させる。
 本態様によれば、ユーザの疲労度が第1疲労許容度を超えた場合に、ユーザの運動量または運動負荷を下げさせるための第1動作がロボットに実行される。これにより、ユーザの疲労度が過大になると、ロボットが実行する第1動作によってユーザの疲労度を下げることができる。その結果、適切な疲労度でユーザが運動するようにロボットにユーザの伴走を行わせることができる。
 なお、本開示は、ここで用いられる制御方法に含まれる特徴的な各構成をコンピュータに実行させるプログラム、或いはこのプログラムによって動作するシステムとして実現することもできる。また、このようなコンピュータプログラムを、CD-ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
 なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定するものではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
 (実施の形態)
 我々の社会は、今後もさらにインターネットが普及し、各種センサーが身近になることが予想される。これにより、我々の社会は、個人の内部状態及び活動等に関する情報から建造物及び交通網等を含む街全体の情報までもが、デジタル化されてコンピューターシステムで利用できる状態になっていくと予想される。デジタル化された個人に関するデータ(個人情報)は、通信ネットワークを介してビッグデータとして情報銀行などのクラウドサーバに安全に管理され、個人や社会のために様々な用途に利用されていく。
 このような高度情報化社会は、日本ではSociety5.0と呼ばれる。高度情報化社会は、個人を取り囲む物質世界である現実空間(フィジカル空間)とコンピュータ同士が連携してフィジカル空間に関する各種処理がなされる仮想空間(サイバー空間)とを高度に融合させた情報基盤(サイバーフィジカルシステム)により、経済発展と社会的課題の解決とが期待される社会である。
 そうした高度情報化社会では、個人が行う日常の様々なシーンでのコミュニケーション(情報の取得、提供、およびその表現方法を含む)や行動を分析し、蓄積した個人情報を含むビッグデータを分析することで、そのシーンに応じた、その個人にとって最適と思われるコミュニケーションの方法にて、その個人に必要な情報やサービスを提供することが可能になる。
 以降では、そのようなサイバーフィジカルシステムが稼働する高度情報化社会を前提として、個人であるユーザに寄り添った日常生活の支援をテーマとして、ユーザの健康や幸福を高める具体的な様態について説明していく。
 図1は、本開示の実施の形態に係る情報システムの全体構成の一例を示すブロック図である。図1は、上半分はサイバー空間、下半分はフィジカル空間を示している。左側は非ロボット提供会社であるA社関連のリソースが並んでおり、サイバー空間にはA社サーバ101、フィジカル空間にはスマートフォン100の上で動作するA社アプリがある。A社サーバ101はA社アプリとペアとなって動作する。右側はロボット提供会社であるB社関連のリソースが並んでおり、サイバー空間にはB社サーバ111、フィジカル空間には可動装置(ロボット110)と、スマートフォン100の上で動作するB社アプリとがある。B社サーバ111はロボット110かつ/またはB社アプリとペアになって動作する。フィジカル空間の真ん中にはスマートフォン100にインストールされたA社アプリ、B社アプリ、さらにロボット110を扱うユーザがいる。スマートフォン100、ロボット110、A社サーバ101、B社サーバ111はインターネットのような広域通信網により相互通信が可能に接続されている。
 この図に示すようにA社、B社はそれぞれのアプリやロボット110を通じて、ユーザとの接点を持っている。A社が持つのはスマートフォン100上のアプリを介した接点だけであり、これは今日、多く見られる顧客接点の一形態である。一方で、この図のB社が持つのはスマートフォン100上のアプリを介した接点だけでなく、ロボット110を介した接点も保有している。自律的な可動装置であるロボット110を介してユーザ(一般消費者)と接点を持つ会社は、一部の玩具メーカーを除くとまだ例がなく、これから出現してくるものと期待される。
 なお、ここではロボット110は犬型ロボットであるが、ロボット110はこれ以外の人間を含む生物に基づく形態でも、無機質で非生物的な形態であってもよい。フィジカル空間において自律的な運動能力(姿勢変更能力や、移動能力など)、かつ/または、作用能力(ボタンを押したり、物を持ち上げたり、するなど他の物体を動かす能力)がある限りは、その形態を限らない。
 本開示の実施の形態である情報システムは、夫々の顧客接点であるアプリ、ロボット110、さらにはロボット110に操作される家電や住宅設備などがこれまで以上に高度に連携して、他が保有する情報や能力を活用しながら、自らのサービスの品質の上げ幅を広げ、ユーザへより高い価値提供を行う情報システムであるとも言える。ロボットが持つ認知能力や運動能力は日々進化を続けており、このような万能なロボットが実現すれば、そのロボットが保有する固有の能力に他社がアクセスできる仕組みを構築しておくべきである。そうすることが、ユーザにとっても、サービスを提供する非ロボット会社にとっても、ロボットを提供するロボット会社にとっても、多種多様な価値の連携を生む土台になると思われる。
 ここからは、ユーザの運動時に感じる身体的な苦痛または疲労(以下、単に疲労と呼ぶ)を身近にあるロボットを用いて、より効果的に軽減させ、運動を持続させる一実施の形態について説明していく。疲労の度合いを疲労度と呼ぶ。
 疲労度は様々な方法を用いて計算される。例えば、疲労度は、ユーザの生体活動情報を直接的に用いて計算されても良いし、生体活動情報を変換することで得られるボルグスケールのような運動強度を示す指標を用いて表現されても良い。生体活動情報は、ユーザの歩行または走行による疲労度と相関して変動する生体情報の一例である。疲労度は、ロボット110のセンサーまたはウェアラブルデバイスなどにより検知されたユーザが行っている運動の種別および強度をメッツ(METs)に換算することで判定されても良い。メッツは、運動強度を表す単位であり、エネルギー消費量が安静時のエネルギー消費量の何倍に該当するかを示す。
 または、疲労度は、ユーザの周囲情報を用いて判定されても良いし、周囲情報をユーザの生体活動情報と組み合わせて算出されても良い。さらには、疲労度は、運動により動的に変化する生体活動情報と、ユーザの周囲情報の何れか1つ以上と、運動により動的に変化しないユーザの属性情報(年齢、性別、体重、体脂肪率、筋肉量、病歴の何れか1つ以上を含む)とを組み合わせて算出されても良い。何れの場合においても、本開示において疲労度とは、運動により動的に変化する生体活動情報、ユーザの周囲情報、ユーザの属性情報との1つ以上を用いて直接的、または間接的に算出されるものであり、運動時に感じる身体的な疲労の度合いを表す指標とする。具体的な心拍数による主観的運動強度の算出方法などについては後述する。
 非ロボット会社であるA社はユーザが装着するウェアラブルデバイスを製造かつ/または販売している健康支援会社である。健康支援会社であるA社は、スマートフォン100にA社が提供するヘルスケアアプリ(以下、A社アプリ)をインストールさせ、A社のヘルスケアサービスに対する各種設定をユーザに行わせる。
 ここで、ウェアラブルデバイスは、ユーザの生体活動を計測するセンサーを具備し、ユーザが身に着けるデバイスであればどのような形態でも構わない。例えば、腕時計型であるスマートウォッチ、メガネ型であるスマートグラス、下着型であるスマートインナー、靴型であるスマートシューズ、靴の中敷き型であるスマートインソール、手や足の爪に張り付けるスマートネイル、コンタクトレンズ型であるスマートコンタクトレンズ、耳に付ける形状であるスマートイヤホン、ネックレスのように首にかける形状であるスマートネックレス、体内に埋め込むスマートインプラント、などであって良い。計測する生体活動情報や扱いの利便性に応じて様々なウェアラブルデバイスの形態が有り得る。ここでは便宜的にウェアラブルデバイスをスマートウォッチ140として説明する。
 ウェアラブルデバイスは上記の通り様々な形態でユーザの体に装着され、ユーザの生体活動情報、かつ/または、ユーザの周囲情報を継続して収集し、その生体活動情報、かつ/または周囲情報をスマートウォッチ140のメモリに記録すると同時に、スマートフォン100、かつ/または、A社サーバ101へ定期的にアップロードする(図中「(a1)生体活動情報」)。
 生体活動情報は、運動により動的に変化する生体情報であり、ユーザの心拍数、脈拍数、血圧、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量(消費カロリー)、摂取量(摂取カロリー)、歩数、姿勢、実施している運動種別の何れか1つ以上を含む。姿勢は、例えば、手または足のふり幅、ふり幅の運動周期、肘または膝などの関節の角度、猫背などの全身の姿勢情報を含む。ユーザの周囲情報は、例えば、ユーザの位置情報、ユーザとロボット110との相対位置関係情報(例えば、間隔)、ユーザとロボット110との相対移動速度、ユーザの運動パフォーマンス、地形情報、地質情報、気温、湿度、照度、風速、識別したユーザ周辺の物体情報、空間形状の何れか1つ以上を含む。運動パフォーマンスは、例えばジョギングもしくは徒歩での移動速度、または、腕立て伏せもしくはスクワットの単位時間当たりの回数などの運動量を示す物理量である。地形情報は、例えば、ユーザの移動方向における路面の傾斜角度である。地質情報は、例えば、コンクリート、土、砂場、砂利などの地表面の種別、または地表面の硬さである。
 スマートウォッチ140はスマートフォン100と無線通信を行う場合には、例えば、近距離にあるデバイス間の無線通信を行う近距離無線通信技術(例えば、Bluetooth(登録商標))を用いる。この図ではスマートウォッチ140は、破線で示すように、スマートフォン100と近距離無線通信にて通信する。一方、スマートウォッチ140がA社サーバ101とスマートフォン100を介さずに直接通信を行う場合には、携帯電話に用いられる無線通信技術(例えば、第5世代移動通信システム)が用いられる。
 スマートフォン100は、スマートウォッチ140からユーザの生体活動情報を受信する。具体的には、A社アプリがスマートウォッチ140から受信したデータをスマートフォン100が具備するメモリに保存する。さらに、A社アプリはスマートウォッチ140から受信したユーザの生体活動情報を所定のフォーマットに成形し、A社サーバ101へ定期的に送信する。この時、A社アプリは、スマートウォッチ140から受信したユーザの生体活動情報に加えて、スマートフォンが具備するセンサーかつ/または通信部が受信した付加情報(例えば、スマートフォンの位置情報)を、A社サーバ101へ定期的に送信しても良い(「(a2)生体活動情報」)。
 一方、ロボット110もユーザの近くに居て、ユーザの生体活動情報、かつ/または、ユーザの周囲情報を継続して収集し、収集した生体活動情報、かつ/または周囲情報を、ロボット110のメモリに記録すると同時に、B社サーバ111へ定期的にアップロードする(a3)。
 尚、ロボット110かつ/またはB社サーバ111が保有するこれらの情報は、ロボット110だけに限らず、ユーザが保有するスマートフォン100によって収集された情報であっても良いし、ユーザが装着しているスマートウォッチ140によって収集された情報であっても良いし、かつ/または、ユーザの自宅や居住区域に設置されているセンサー(図示せず)によって収集された情報であっても良い。
 B社サーバ111は、ロボット110から継続的にユーザの状態、かつ/またはユーザの周囲状況に関するセンシングされたデータを受け取り、保管する。さらに、B社サーバ111は、アクセス権を持つ他のコンピュータ(例えばA社サーバ101)がそのデータを取得できるようにデータを成形した上で、データを更新する(「(b)データを更新」)。ここでは、A社サーバ101とB社サーバ111とはユーザの確認のもと認証設定がなされており、A社サーバ101はB社サーバ111が保有する最新のデータを取得するアクセス権があるものとする。
 A社サーバ101は、スマートウォッチ140かつ/またはスマートフォン100から取得したユーザの生体活動情報を取得する。さらに、A社サーバ101は、そのアクセス権によりB社サーバ111にある最新のユーザに関するデータを継続的に取得する。A社サーバ101は取得したこれらユーザに関する最新情報を分析し、リアルタイムにユーザの疲労度を推定する(「(c)疲労度を推定」)。
 A社サーバ101は、ユーザが運動(散歩など)を行っていて、ユーザの疲労度が所定値以上であると判断した場合には、ユーザが運動を継続し続けることができるようユーザの運動を励ますアクションを選定する。そして、A社サーバ101は、そのアクションをロボット110に実行させるようB社サーバ111に対してリクエスト情報を送信する。(「(d)アクションを選定、要請」)。
 アクションは、A社がB社のロボット110を介してユーザの運動強度を高める行動、運動強度を維持させる行動、および運動を止めないようにロボット110に設定された複数の応援を意図した行動を含む。行動は、例えば、プログラムによって制御されるロボット110の行動である。応援を意図する行動は、比較的短時間(例えば10秒以内)で完結する行動であり、ユーザにとって疲労を感じる行為(例えば運動)を継続させる意図を伴った行動である。
 アクションには、ユーザが疲労を感じる行為に対してロボット110が応援の意図を持たずに行う行動(例えば、ウロウロと歩き回るだけ、そばにいるだけなど)は含まれない。言い換えれば、アクションとは、ユーザの健康状態を向上させる行為を動機づける、かつ/または、継続させるためにロボット110が行う動作を伴う行動である。
 ユーザが運動中に疲労を感じているタイミングで、A社サーバ101が、スマートフォン100またはスマートウォッチ140の画面に応援メッセージを表示したり、応援メッセージの音声を再生したりすることは可能である。しかしながら、このような応援メッセージの表示または再生によってユーザが疲労を伴う運動を継続し続けるのは現実的には困難である。例えば、ユーザが運動を行う場合に必ずスマートフォン100またはスマートウォッチ140を携帯するとは限らない。さらに疲労を感じているユーザがスマートフォン100またはスマートウォッチ140を操作して、応援メッセージを表示または再生させることも難しい。
 つまり、A社は、ユーザとの日常的な接点がA社アプリでしかなく、ユーザに対して健康支援会社としてフィジカル空間できることには限界がある。現実世界に直接物理的作用を及ぼせないアプリより、ユーザの身近にいる自律的なロボット110が状況を見て適宜ユーザを応援する方が、疲労を伴う作業(運動)に対してより長くユーザは耐え続けることができる。そのため、A社は、ユーザが保有するロボット110を介した実効性の高い健康支援サービスを行うために、B社のロボット110に対して運動中のユーザを応援する行動(アクション)を取らせるのである。
 これまでの情報化社会(Society4.0社会とも呼ばれる)では、ある一定の健康支援サービスについては実現できている。しかしながら、運動するユーザが疲労を感じたタイミングで、ユーザの意志とは無関係にロボット110にユーザを応援させるサービスは存在しなかった。このようなサービスは、運動に対するユーザのモチベーションを高め、それによってユーザの健康を支援することができる。本実施の形態は、ユーザの身近にいるロボット110が保有する自律的運動能力を用いて、ユーザの疲労度に応じた適切な支援をユーザに行うものである。
 A社サーバ101からリクエスト情報を受け取ったB社サーバ111は、A社サーバ101からロボット110に対して要求されたアクションに対する必要なアクセス権がA社サーバ101に有効に登録されているかを確認する。ここでは、アクセス権はロボット110のセンサー、運動能力、及びアクション種別ごとに設定できる。A社の個々のアクションに対するリクエストをロボット110が実行することは、ユーザの同意のもとに事前に設定されている。
 B社サーバ111はA社サーバ101から所定のアクションがリクエストされた際に、A社サーバ101に登録されているA社アプリの固有IDと、B社アプリの固有IDのペア情報との合致を調べることにより、A社のアクセス権を確認する。アクセス権があることが確認できた場合、B社サーバ111はユーザの運動を励ますアクションを実行するようにロボット110に指示する(「(e)アクションを指示」)。アクセス権が無いまたは不足する場合は、B社サーバ111はA社サーバ101からのリクエストを拒否する。
 B社サーバ111から運動を励ますアクションの指示を受けたロボット110は、その指示に従ったアクションを実施する(図中「(f)アクションを実施」)。ロボット110は指示の内容に従い、ユーザを応援する言葉や鳴き声を発したり、ユーザを応援する楽曲を再生したり、ユーザの疲労度を下げるために運動強度を下げたりする。各アクションの形態については後述する。
 ロボット110は、アクションの実行結果をB社サーバ111へ送信する(a3)。アクションの実行結果は、アクション実行後の所定時間内にセンシングされたデータを含む。
 B社サーバ111は、受信したアクションの実行結果を、定期的に更新するユーザの最新情報としてA社サーバ101に開示する。A社サーバ101は、B社サーバ111から取得したユーザの最新情報、スマートウォッチ140から取得したユーザの生体活動情報(「(a1)生体活動情報」)、スマートフォン100から取得したユーザの生体活動情報(「(a2)生体活動情報」)のいずれか1つ以上を用いて実行されたアクションの効果を算出し、これをA社サーバ101のメモリに記録する(「(g)アクションの効果を測定」)。
 ユーザの運動に対するモチベーションを運動中に高めることは、A社が持つ顧客接点であるスマートフォン100上の映像情報または音声情報などのメッセージだけでは難しい。A社は、A社アプリではなく、ユーザの身近にいるロボット110を介して、ユーザの生体活動情報またはユーザの周囲情報に基づいて、ユーザの運動中の疲労度を随時判定し、より適切なタイミングでユーザを応援する。これにより、A社は、ユーザを適切に運動させることができ、ひいてはユーザの健康維持および健康改善を行うことができる。
 図2は、本開示の実施の形態に係る情報システムの構成の一例を示すブロック図である。スマートフォン100は、通信部100a、演算部100b、センサー100c、メモリ100d、操作部100e、および映像音声出力部100fを含む。
 通信部100aは、ネットワーク上の他のコンピュータと情報通信を行う通信回路である。演算部100bは、例えばCPUなどのプロセッサであり、音声認識、音声合成、情報検索、および情報描画などの情報処理を行う。センサー100cは、映像情報、音声情報、かつ/または周囲情報を取得する。センサー100cは、例えばカメラ、マイク、加速度センサー、角速度センサー、およびGPSセンサー等である。メモリ100dは、例えばフラッシュメモリであり、種々のデータを保持する。操作部100eは、例えばタッチパネルであり、ユーザからのボタン操作およびタッチ操作などを受け付ける。映像音声出力部100fは、例えばディスプレイ、スピーカーなどである。
 A社アプリおよびB社アプリは、インストールされると、メモリ100dにプログラムおよび必要なデータを記録させ、演算部100bにそのプログラムを実行させる。
 A社サーバ101は、スマートフォン100にインストールされたA社アプリと協調動作するコンピュータである。A社サーバ101は、通信部101a、演算部101b、およびメモリ101cを含む。通信部101aは、ネットワーク上の他のコンピュータと情報通信を行う通信回路である。演算部101bは、例えばCPU等のプロセッサであり、ネットワーク上の他のコンピュータから送信されるデータを処理する。メモリ101cは、例えばソリッドステートドライブまたはハードディスクドライブなどであり、A社アプリおよびユーザに関する情報を記録する。
 B社サーバ111は、スマートフォン100にインストールされたB社アプリと協調動作するコンピュータである。B社サーバ111は、通信部111a、演算部111b、およびメモリ111cを含む。通信部111aは、ネットワーク上の他のコンピュータと情報通信を行う通信回路である。メモリ111cは、例えばソリッドステートドライブまたはハードディスクドライブなどであり、B社アプリに関する情報、ロボット110に関する情報、およびユーザに関する情報を記録する。演算部111bは、他のコンピュータから送信される種々のデータを処理する。
 ロボット110は、通信部110a、演算部110b、センサー110c、メモリ110d、可動部110e、映像音声出力部110f、および照明部110gを含む。
 通信部110aは、ネットワーク上の他のコンピュータと情報通信を行う通信回路である。演算部110bは、例えばCPUなどのプロセッサである。演算部110bは、可動部110eを制御してロボット110の移動及び動作を制御する処理、ロボット110が他物体へ力学的作用を行う処理を行う。さらに、演算部110bは、映像音声出力部110fから出力する種々の情報を生成する処理を行う。
 センサー110cは、映像情報、音声情報、および周囲情報を取得する。センサー110cは、例えばRGBカメラ21、31(光学センサーの一例)、測距センサー22、32(光学センサーの一例)、赤外線カメラ23、33(光学センサーの一例)、およびマイク11~14を含む。
 メモリ110dは、例えば、フラッシュメモリなどの半導体メモリであり、種々のデータを保持する。
 可動部110eは、例えば、脚17および脚17(図5)を可動させるアクチュエータなどである。アクチュエータの一例はモータである。ロボット110が、脚17に代えて車輪で構成される場合、アクチュエータは車輪を回転させるモータである。可動部110eは、ロボット110の移動、動作、および他物体への力学的作用を行う。
 映像音声出力部110fは、例えば、図5に示す、スピーカー25、35、およびディスプレイ18、24、34などを含み、映像および音声を出力する。
 照明部110gは、図5に示す照明部15、16を含む。照明部110gは、1以上のレーザダイオードと、マイクロアレイ又はマイクロミラーアレイと、を含んでもよい。さらに、照明部110gは、LCDパネルと偏光板とを含んでもよい。さらに、ロボット110は、ユーザからのボタン操作およびタッチ操作などを受け付ける操作部(図示せず)を備えてもよい。
 なお、A社サーバ101、スマートフォン100、ロボット110、およびB社サーバ111が接続される広域通信網は、移動体通信網、衛星通信網、インターネット通信網、専用通信網、光ファイバー網、近距離無線通信の1つ、または1つ以上の組み合わせであってもよい。
 図3は、A社がロボット110と連携する際の処理の一例を示すフローチャートである。図1で説明したようなA社アプリまたはA社サーバ101が、B社が運用するロボット110が持つ情報および能力にアクセスできるようにするために、事前にそのアクセス権を適切に設定しておく。図3はそのアクセス権を予め設定しておくための処理の一例を示している。
 ユーザはスマートフォン100にインストールされたB社アプリを使って、B社アプリがA社アプリとの連携するように設定する。具体的には、B社アプリは、ユーザの入力に基づいて、ユーザの利用するA社アプリの固有IDを取得する(ステップ#1)。B社アプリは、取得したA社アプリの固有IDをB社アプリの固有IDと共に、B社サーバ111に登録するための登録依頼を送信する(ステップ#2)。登録依頼を受信したB社サーバ111は、A社アプリとB社アプリとのペア情報を登録する。この登録処理では、同時にロボット110のどの固有能力に対してどこまでの利用権利をA社に許諾するかを示すアクセス権の登録も行われる(ステップ#3)。アクセス権の詳細については図4を用いて後述する。ロボット110のロボットIDとB社アプリの固有IDとを含むペア情報は予めB社サーバ111に登録されている。この登録は、例えばユーザがB社アプリの初期設定画面において、ロボット110の固有IDを入力することによって行われる。
 A社アプリの登録を受け取ったB社サーバ111は、A社サーバ101に対してA社アプリが許可されるアクセス権の設定情報を通知する(ステップ#4)。具体的には、B社サーバ111は、A社アプリの固有IDとB社アプリの固有IDとのペア情報に加えて、そのアクセス権の設定情報をA社サーバ101に通知する。
 A社サーバ101は、A社アプリの固有IDとB社アプリの固有IDとのペア情報、およびそのアクセス権の設定情報をメモリ101cに登録する(ステップ#5)。これらの情報は、A社アプリまたはA社サーバ101がB社の提供するロボット110に対してその固有能力を利用する際に、対象のロボット110を特定すると共に、その固有能力の利用が可能か否かを判定するために用いられる。
 ここでは、A社アプリまたはA社サーバ101に対して、B社が提供するロボット110へのアクセス権を正しく設定できれば良く、上記はその一例に過ぎない。上記とは異なる登録方法が用いられてもよい。
 図4は、ロボット110へのアクセス権の種類と許可レベルとの関係の一例を示す表である。ロボット110は様々なセンサー110cおよび運動能力(可動部110e)を具備する。センサー110cおよび運動能力に対する他社からのアクセス権は、B社サーバ111だけでなく、利用する側であるA社サーバ101にも登録される。以下、アクセス権の種類とその許可レベルについて、センサー110cから説明する。
 「カメラ映像」は、ロボット110が具備するイメージセンサー(例えば、RGBイメージセンサー)へのアクセス権である。これは、ロボット110の目と外見上認知される個所に具備されているイメージセンサーであってもよい。「カメラ映像」へのアクセス権は以下の通り、アクセス権のない「0」から制約なくアクセス権が付与される「3」まで段階的に設定される。例えば、この許可レベルが「2」のA社サーバ101からのアクセス要求に対し、B社サーバ111は低品質動画を返すように、ロボット110かつ/またはB社サーバ111を制御する。
 0:不許可
 1:静止画のみ許可
 2:低品質動画まで許可
 3:すべて許可
 「測距センサー」は、ロボット110が具備する対象物までの距離が測定できるセンサー(例えば、TOFセンサー、LiDARなど)へのアクセス権である。「測距センサー」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定される。例えば、この許可レベルが「1」のA社サーバ101からのアクセス要求に対しては、B社サーバ111は測距センサーが取得したデータ(例えば、デプスイメージ)を返すように、ロボット110を制御する。
 0:不許可
 1:許可
 「赤外線センサー」は、ロボット110が具備する赤外線が測定できるセンサーへのアクセス権である。赤外線センサーにより測定される近赤外線領域は暗闇での被写体認識、遠赤外線領域は被写体温度分布などに使われる。「赤外線センサー」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は、赤外線センサーが取得したデータ(例えば、サーモグラフィー映像)を返すようにロボット110を制御する。
 0:不許可
 1:許可
 「マイク音声」は、ロボット110が具備するマイクへのアクセス権である。「マイク音声」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111はマイクが取得した音声データを返すようにロボット110を制御する。
 0:不許可
 1:許可
 「触覚センサー」は、ロボット110が具備するロボット表面での触覚感覚が測定できるセンサー(例えば、MEMSシリコン毛デバイスセンサー)へのアクセス権である。「触覚センサー」へのアクセス権は以下の通り、アクセス権のない「0」か、制約なくアクセス権が付与される「2」まで段階的に設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は触覚センサーが取得したデータ(例えば、圧力分布映像)の内、ロボット110の一部分(例えば、頭部)のデータのみを返すようにロボット110を制御する。
 0:不許可
 1:一部分のみ許可
 2:すべて許可
 「気温・湿度・気圧センサー」は、ロボット110が具備する気温、湿度、気圧センサーへのアクセス権である。「気温・湿度・気圧センサー」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定することができる。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は気温、湿度、および気圧センサーが取得したデータを返すようにロボット110を制御する。
 0:不許可
 1:許可
 「位置センサー」は、ロボット110が具備するロボットの現在位置を測定するセンサーへのアクセス権である。「位置センサー」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は位置センサーが取得したロボットの現在位置情報を示すデータを返すようにロボット110を制御する。
 0:不許可
 1:許可
 ここまでがロボット110に具備されたセンサー110cへのアクセス権に対する説明である。続いて、ロボット110が具備する「運動能力」へのアクセス権について説明する。
 「表情変更能力」は、ロボット110の映像音声出力部110fで表示される顔表情の外見的特徴を変更する能力へのアクセス権である。これは、ロボット110が、外見上、顔と認識できるパーツを有する場合に、そのパーツを動かしたり、そのパーツの色を変更したり、する能力であってもよい。「表情変更能力」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は顔表情の変更要求に応じて顔表情を変更するようにロボット110を制御する。
 0:不許可
 1:許可
 「発声能力」は、ロボット110の映像音声出力部110fが具備する音声出力能力へのアクセス権である。これは、ロボット110に、外見上、口と認識できるパーツがある場合に、そのパーツを動かしたり、その口の周辺部から音声を出力したり、する能力であってもよい。「発声能力」へのアクセス権は以下の通り、アクセス権のない「0」か、アクセス権がある「1」の2択で設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は発声する音声情報に応じて音声を出力するようにロボット110を制御する。
 0:不許可
 1:許可
 「姿勢変更能力」は、ロボット110の可動部110eが具備する姿勢を変更する能力へのアクセス権である。これは、ロボット110の可動部110eにある複数の関節機構部の角度を変更する能力であってもよい。ただし、ロボット110自体の位置を変える能力は意図しない。「姿勢変更能力」へのアクセス権は以下の通り、アクセス権のない「0」から制約なくアクセス権が付与される「2」まで段階的に設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111は頭部のみを要求に応じて動かすようにロボット110を制御する。
 0:不許可
 1:頭部のみ許可
 2:すべて許可
 「移動能力」は、ロボット110の可動部110eが具備する移動する能力へのアクセス権である。これは、ロボット110の可動部110eにある複数の関節機構部の角度を変更する能力であってもよい。この能力は、ロボット110自体の位置を変える能力である。「移動能力」へのアクセス権は以下の通り、アクセス権のない「0」から制約なくアクセス権が付与される「4」まで段階的に設定される。例えば、この許可レベルが「1」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111はユーザ宅の中でユーザが許可したエリアのみを低速で移動することを許可するようにロボット110を制御する。また、例えば、この許可レベルが「3」であるA社サーバ101からのアクセス要求に対しては、B社サーバ111はユーザが許可した宅内、宅外のエリアのみを高速で移動することを許可するようにロボット110を制御する。ここでユーザが許可したエリアは、ユーザがあらかじめ設定しておく条件の1つである。例えば、ユーザのプライバシーを侵害してしまう恐れのあるエリア(お風呂など)にはロボット110が近寄れないよう予め設定しておくことができる。
 0:不許可
 1:許可済み宅内のみ、低速での移動を許可
 2:許可済み宅内/宅外まで、低速での移動を許可
 3:許可済み宅内/宅外まで、高速での移動を許可
 4:すべて許可
 図5は、本実施の形態におけるロボット110の外観図である。図5において、ロボット110の長手方向を前後方向と呼び、ロボット110の歩行面に対して直交する方向を上下方向と呼び、前後方向および上下方向と直交する方向を左右方向と呼ぶ。
 図5では、ロボット110の実装例として、4本の脚17で移動するロボットが示されている。ロボット110は、ボディ10と、4本の脚17とを含む。ボディ10の下面の前方には、照明部15が配置され、ボディ10の下面の後方には照明部16が配置されている。照明部15および照明部16を設けることで、ロボット110の前方及び後方を十分な光量で照らすことができる。照明部15、16は、それぞれ、危険物に対してユーザが認知し易いように危険物への照明形態(照明の形状、色、点滅パターン)が調整可能である。このような機能を実現するために、照明部15、16は、単色で発光できるライトではなく、危険物又は道路等の周囲の物体に任意の映像を投影するプロジェクションマッピングの機能を有している。
 ボディ10の前面の中央には、ディスプレイ24が配置されている。ディスプレイ24は、例えば液晶パネル又は有機ELパネルである。ディスプレイ24は、主に、ロボット110がユーザとコミュニケーションをとるために使用される。ディスプレイ24は、ロボット110の顔表情を表現する画像を表示しても良い。
 ボディ10の上面の中央にはディスプレイ18が配置され、ボディ10の後面の中央にはディスプレイ34が配置されている。ディスプレイ18、34は、例えば液晶パネル又は有機ELパネルである。ディスプレイ18、34は、主に、ロボット110からのメッセージおよび状態を表示するために使用される。例えば、ディスプレイ18、34は、他人に対して警告情報を表示するために用いられても良い。この場合、ディスプレイ18、34は、ロボット110を介して警備サービスをユーザに提供している警備会社A社のロゴマークを表示しても良い。
 ボディ10の前面の下部にはスピーカー25が配置され、ボディ10の後面の下部にはスピーカー35が配置されている。スピーカー25は、ロボット110が前方のユーザと対面してコミュニケーションをとるため使用される。スピーカー35は、後方から近づいてくる人物とコミュニケーションをとるために使用される。
 ボディ10の前面には、RGBカメラ21、測距センサー22、および赤外線カメラ23が配置されている。ボディ10の後面には、RGBカメラ31、測距センサー32、および赤外線カメラ33が配置されている。RGBカメラ21、31は、空間認識および物体識別をするために用いられる。測距センサー22、32は、危険物の形状、路面の凹凸といった地形情報および物体の形状を検知するために用いられる。赤外線カメラ23、33は、低照度環境下で人物や周囲の温度分布を検知するために用いられる。RGBカメラ21、31、測距センサー22、32、および赤外線カメラ23、33を組み合わせることで、ロボット110は周辺状況を精度よく検知することができる。
 ボディ10の上面には、4つのマイク11、12、13、14が配置されている。マイクを4つ設けることで、ロボット110は、音源位置を特定できる。
 脚17は、関節17a、17b、上脚17c、下脚17dを含む。関節17aは、ボディ10の側面に、上脚17cを左右方向回りに回動可能に接続する。関節17bは、上脚17cおよび下脚17dを左右方向回りに回転可能に取り付ける。
 図6は、本実施の形態の第1例の処理を示すシーケンス図である。第1例では、疲労度の判定主体がA社サーバ101である。A社は、ユーザの健康を支援するサービスを行う健康支援会社であり、スマートフォン100にインストールされたA社アプリ、かつ/またはスマートウォッチ(140)の製造、販売を行う。ステップS1、S2は初期設定の処理であり、ステップS3以降は運動中の処理である。
 (ステップS1)
 スマートフォン100は、ユーザによる運動強度情報及びアクション情報の入力を受け付ける。アクション情報には、ロボット110がユーザの応援時におけるロボット110に実行させるアクションの種類が含まれる。アクションの種類は、例えば図7に列挙されたものが採用できる。運動強度情報は、運動時におけるユーザの運動強度の目標値を含む。運動強度の目標値は、例えば図7に示す「運動強度の目標値65%」、「移動の速さを8km/h」などである。
 (ステップS2)
 スマートフォン100は、受け付けた運動強度情報及びアクション情報をA社サーバ101に送信する。A社サーバ101は、運動強度情報及びアクション情報をユーザIDと対応付けてメモリ101cに登録する。
 (ステップS3)
 スマートフォン100にインストールされたA社アプリ、かつ/またはスマートウォッチ140は、ユーザの生体活動情報および周囲情報を定期的に測定する。
 (ステップS4)
 A社アプリ、かつ/またはスマートウォッチ140は、測定した生体活動情報および周囲情報を定期的にA社サーバ101に送信する。これにより、A社は、A社アプリかつ/またはスマートウォッチ140を用いてユーザの生体活動情報および周囲情報を継続的にモニタリングする。
 (ステップS5)
 ロボット110は、センサー110cを用いてユーザの生体活動情報および周囲情報を定期的に取得する。
 (ステップS6)
 ロボット110は、取得した生体活動情報および周囲情報をB社サーバ111に定期的に送信する。このようにして、B社は、ロボット110を用いてユーザの生体活動情報および周囲情報を継続的にモニタリングする。
 B社サーバ111は、ロボット110から取得した生体活動情報および周囲情報をアクセス権のある外部コンピュータが取得可能な状態でメモリ111cに記憶する。
 (ステップS7)
 アクセス権を持つA社サーバ101はB社サーバ111から最新の生体活動情報および周囲情報を定期的に取得する。アクセス権の設定については前述の通りである。これにより、A社サーバ101は、ロボット110が計測した生体活動情報および周囲情報を定期的に取得できる。つまり、A社は、自社のデバイス(A社アプリおよびスマートウォッチ140)だけでなく、他社のデバイス(ロボット110)が取得した、最新のユーザの生体活動情報および周囲情報を定期的に取得できる。
 (ステップS8)
 A社サーバ101は取得したユーザの生体活動情報および周囲情報に基づいて、ユーザの現在の疲労度をリアルタイムに推定する。疲労度の推定の詳細は後述する。
 (ステップS9)
 A社サーバ101は、疲労度に基づいて、現在のユーザへの効果が期待されるアクションを選定する。アクションの選定の詳細は後述する。
 (ステップS10)
 A社サーバ101は、選定したアクションをロボット110に実行させるリクエスト情報(コマンドの一例)を、B社サーバ111に送信する。リクエスト情報は、リクエストを識別するための情報(リクエストID)および選定されたアクションの種類を示す情報を含む。リクエスト情報は、例えば、ロボット110の移動速度を指定するコマンドを含んでいてもよく、ユーザとロボット110との間の間隔を指定するコマンドを含んでいてもよく、または、それらの両方を含んでいてもよい。
 (ステップS11)
 リクエスト情報を受信したB社サーバ111は、A社サーバ101がリクエスト情報に対してアクセス権があるか否かを確認する。B社サーバ111は、A社サーバ101にアクセス権があればリクエスト情報が示すアクションをロボット110に実行させる指示(コマンドの一例)を送信する。A社サーバ101は、A社サーバ101にアクセス権がない場合、リクエスト情報を拒否し、拒否したことを示す情報をA社サーバ101へ送信する。
 (ステップS12)
 アクションの指示を受けたロボット110は、その指示に基づきそのアクションを実行する。アクションはその分類ごとに異なる識別情報(アクションID)を持つようにしても良い。アクションの詳細については後述する。
 (ステップS13)
 ロボット110は、アクションの実行後、アクションの実行結果をB社サーバ111に送信する。アクションの実行結果は、指示されたアクションが実行されたか否かの情報であっても良い。または、アクションの実行結果は、アクションが実行されてから所定時間内のユーザの生体活動情報および周囲情報などである。アクションの実行結果は、ロボット110によりB社サーバ111に定期的送信される生体活動情報および周囲情報と合わせて送信されてもよい。これにより、B社サーバ111かつ/またはA社サーバ101は、アクションの実行結果を定期的に取得できる。
 (ステップS14、S15)
 B社サーバ111は、アクションの実行結果を、対応するリクエスト情報に含まれるリクエストIDと共に、A社サーバ101へ送信する。A社サーバ101は、受信したアクションの実行結果を用いて、ロボット110が実行したアクションの効果を測定し、その効果をメモリ111cに登録する。
 このように、A社サーバ101はユーザの生体活動情報および周囲情報をリアルタイムに取得することで、ユーザの運動中の疲労度を正しく判定し、判定結果に基づき、適切なタイミングで種々のアクションをロボット110に実行させることができる。このアクションはユーザごとにパーソナライズされているため、ロボット110は、ユーザにとって実効的な応援を行うことができる。これにより、ユーザは運動に疲労を感じつつも、ロボット110の応援により、運動を継続するモチベーションを得ることができる。その結果、A社はユーザの健康支援サービスの品質、効果を高めることができ、ユーザの健康維持に役立つことができる。
 図7は、アクション情報を登録するアクションテーブルT1の一例を示す図である。アクションテーブルT1は、「アクションの種類」、「アクションID」、「アクセス権」、及び「具体的なアクションの事例」の列を含む。「アクションの種類」はアクションの分類を示すラベルである。「アクションID」はアクションの識別情報である。「アクセス権」の列は、アクションごとに設定されたアクセス権の有無を登録する。「具体的なアクションの事例」は、アクションの詳細な内容を示す。
 「応援(掛け声)」の種類に分類される「叱咤」は、しかりつけるようにユーザを励ます言葉をロボット110が発声するアクションである。例えば、「もっと速く」、「まだまだこれからだぞ」といった言葉が発声される。アクションIDによりこのアクションが指定されると、ロボット110は、叱咤するような応援の掛け声を出力する。アクションテーブルT1は、ロボット110、かつ/またはB社サーバ111に予め記憶されている。アクションIDごとに異なる言葉のバリエーションは、アクションテーブルT1から選択される。
 「応援(掛け声)」の種類に分類される「声援」は、ユーザを励ます言葉をロボット110が発声するアクションである。例えば、「頑張れー」またはユーザの呼び名といった言葉が発声される。ユーザの呼び名は、ロボット110がユーザを呼ぶ時に使う名前である。アクションIDによりこのアクションが指定されると、ロボット110は、声援するような応援の掛け声をかける。
 「応援(掛け声)」の種類に分類される「激励」は、ユーザを励まして奮い立たせる言葉をロボットが発声するアクションである。例えば、「頑張れー」またはユーザの呼び名といった言葉が先程の「声援」の時よりも力を込めて発声される。アクションIDによりこのアクションが指定されると、ロボット110は激励するような応援の掛け声をかける。
 「応援(掛け声)」の種類に分類される「称賛」は、ユーザを褒め称える言葉をロボットが発声するアクションである。例えば、「いい調子」、「輝いているよー」といった言葉が発声される。アクションIDによりこのアクションが指定されると、ロボット110は称賛するような応援の掛け声をかけさせる。
 「応援(掛け声)」の種類に分類される「任意」は、リクエスト情報において指定された音声をロボット110が発声するアクションである。例えば、A社サーバ101がユーザの生体活動情報および周囲情報からユーザの運動時の姿勢が良くないと判定した際に「胸を張って」といった言葉が発声される。或いは、A社サーバ101がユーザのペースが落ちてきていると判定した際に「もっと速くー」といった言葉が発声される。アクションIDによりこのアクションが指定されると、該当の言葉を示す音声情報がリクエスト情報に含められる。これにより、A社サーバ101は、指定した言葉の掛け声をロボット110にかけさせることができる。音声情報は、LPCM(Linear Pulse Code Modulation)のように一定間隔でサンプリングされた音声信号であっても良いし、LPCMを圧縮符号化した音声信号であっても良いし、文字列情報を含むテキストデータであっても良い。
 「応援(鳴き声)」の種類に分類される「叱咤」は、しかりつけるようにユーザを励ますことを意図した鳴き声をロボット110が発声するアクションである。アクションIDによりこのアクションが指定されると、ロボット110は叱咤するような応援の鳴き声をかける。「応援(鳴き声)」の種類に分類されるアクションは他に「声援」「激励」「称賛」などが掛け声と同様に用意されている。
 「曲再生」の種類に分類される「プリセット」は、応援する時またはモチベーションを高める時によく利用される曲を再生するアクションである。「曲再生」には、特定の映画やドラマ、スポーツイベントで使われる曲などが含まれる。アクションIDによりこのアクションが指定されると、ロボット110はよく知られた応援曲を再生する。このアクションIDを指定された際に選択される応援曲は、予めロボット110かつ/またはB社サーバ111に登録されていても良い。または、ロボット110を介して聞き放題のストリーミングによる音楽サブスクリプションサービスが利用できる場合は、その中からユーザの今の状況に合う曲が選択されても良い。これは例えば、散歩に良く合う曲または夏に川沿いを走る時によく合う曲など、ユーザの生体活動情報および周囲情報から関連性の高いプレイリスト(再生する曲のリスト)が自動的に選択されても良い。
 「曲再生」の種類に分類される「ユーザ選曲」は、ユーザが予め選択した複数の応援曲の中から再生する応援曲を決定するアクションである。アクションIDによりこのアクションが指定されると、ロボット110は、ユーザ好みの応援曲を再生する。このアクションIDを指定された際に選択される応援曲は、予めロボット110かつ/またはB社サーバ111に予め登録されていても良い。または、ロボット110を介してスマートフォン100に記録された曲、またはユーザが利用するクラウドストレージに記録された曲が再生されても良い。または、ロボット110を介して聞き放題のストリーミングによる音楽サブスクリプションサービスが利用できる場合は、サブスクリプションサービスにおいてユーザが選択したプレイリストから曲が再生されても良い。
 「挙動」の種類に分類される「小ジャンプ」は、ロボット110が小さくジャンプするアクションである。例えば、「小ジャンプ」は、ユーザが散歩中に目標歩数を達成した時に、ロボット110が、その達成を通知するため、または達成した喜びを表すために使用される。アクションIDによりこのアクションが指定されると、ロボット110に小さいジャンプを実行する。小さくジャンプするアクションに複数のバリエーションが用意されている場合、ロボット110かつ/またはB社サーバ111にアクションIDごとに予め登録された小ジャンプのバリエーションの中から1つのバリエーションが選択されてもよい。これは「中ジャンプ」「大ジャンプ」に関しても同様である。
 「挙動」の種類に分類される「中ジャンプ」は、ロボット(110)が中程度にジャンプするアクションである。「中ジャンプ」は、例えば、ユーザが散歩中に目標歩数を達成した時に、ロボット110が、その達成を通知するため、またはその喜びを表すために使用される。アクションIDによりこのアクションが指定されると、ロボット110は中程度のジャンプを実行する。
 「挙動」の種類に分類される「大ジャンプ」は、ロボット110が大きくジャンプするアクションである。「大ジャンプ」は、例えば、ユーザがある運動での自己記録を更新した時に、ロボット110がその達成を通知する、またはその喜びを表すために使用される。アクションIDによりこのアクションが指定されると、ロボット110に大きなジャンプを実行する。
 「挙動」の種類に分類される「後方倒立回転跳び」、「後方宙返り」は、それぞれロボット110が体操競技にある後方倒立回転跳び、または後方宙返りを行うアクションである。アクションIDによりこれらのアクションが指定されると、ロボット110は後方倒立回転跳び、または後方宙返りを実行する。例えば、ロボット110が4足歩行のロボットの場合、ロボット110は、2足で起立した後にこのアクションを実行しても良い。
 「挙動」の種類に分類される「2足歩行」は、ロボット110が特定の2足だけを使って歩行するアクションである。アクションIDによりこのアクションを指定することで、ロボット110は2足歩行を実行する。例えば、ロボット110がN(Nは3以上の整数)足歩行のロボットの場合、ロボット110は、特定の2足だけを使って歩行する。
 「運動強度調節」の種類に分類される「運動強度の調節」は、ロボット110がユーザの運動の運動強度の目標値を設定(または変更)するアクションである。例えば、「運動強度の調節」は、運動強度の目標値が55%(ボルグスケールで10相当)の運動から運動強度の目標値が65%(ボルグスケールで12相当)の運動をユーザに行わせるアクションをロボット110に実行させる際に使用される。例えば「運動強度の調節」は、散歩またはジョギングをするユーザを伴走するロボット110の移動速度を新たな運動強度の目標値に相当する移動速度に変更する際に使用される。これにより、散歩またはジョギングをするユーザの移動速度が間接的に変更され、ユーザの運動強度が運動効果を得やすいように調節される。「運動強度の調節」では、運動強度の目標値だけでなく、目標範囲(例えば、運動強度の上限値と下限値の範囲)を指定できるようにしても良い。
 「運動強度調節」の種類に分類される「パフォーマンスの調節」は、ロボット110がユーザの運動パフォーマンスの目標値を設定(または変更)するアクションである。例えば、「パフォーマンスの調節」は、目標値「4Km/h」で移動するユーザの目標値を「8Km/h」に変更するアクションをロボット110に実行させる際などに使用される。散歩またはジョギングの場合であれば、ユーザを伴走するロボット110の移動速度がこのアクションによって変更される。これにより、ユーザの散歩またはジョギングの移動速度が間接的に変更され、ユーザの運動強度が調節される。「パフォーマンスの調整」では、運動パフォーマンスの目標値だけでなく、目標範囲(例えば、移動の速さを上限値と下限値の範囲)を指定できるようにしても良い。
 このようにアクションには様々な種類が予め規定されている。A社サーバ101はリクエスト情報を送信する際に、アクションIDによってどのようなアクションをロボット110に実行させるかを指定することができる。さらに、アクションIDごとに付与される付加情報によって、より詳細な情報を通知することができる。
 尚、アクションテーブルT1は、1つのアクションIDに対して類似の意図を持つ1つ以上の行動が纏められているが、1つのアクションIDに対して1つの行動が1対1で対応付けられてもよい。
 図8は、主観的運動強度とアクションの効果との関係を登録するテーブルT2の一例を示す図である。テーブルT2はA社サーバ101のメモリ101cに記憶されている。
 テーブルT2は、「運動強度」、「ボルグスケール」、「運動の感じ方」、および「アクションID」の列を備える。
 「運動強度」は主観的な運動強度を示す指標である。ここでは、「運動強度」は、心拍数から求められるカルボーネンの式によって規定される。カルボーネンの式において、運動強度は以下のように規定される。
 運動強度(%)=(運動時心拍数-安静時心拍数)/(最大心拍数-安静時心拍数)*100
 ここで、最大心拍数は、最大心拍数=220-年齢によって規定される。したがって、運動強度は、ユーザの年齢と、継続的に測定することで取得される安静時の心拍数(例えば過去24時間の最低心拍数)と、運動中のユーザの現在の心拍数とを用いて計算される。
 散歩またはジョギング時におけるユーザの移動速度と心拍数との相関データがあれば、特定の運動強度(心拍数)にするためのユーザの移動速度が推測できる。伴走するロボット110の移動速度はこの相関データを用いて計算可能である。
 例えば、あるユーザの年齢が48歳、安静時心拍数が62拍/分であった場合、このユーザの運動強度を65%にする運動時心拍数は、下記の式で算出される。
 65=(運動時心拍数-62)/((220-48)-62)*100
 この場合の運動時心拍数は、133.5拍/分である。
 このユーザの過去のジョギング時の移動速度と心拍数との相関データにおいて、心拍数「133.5拍/分」に対応する移動速度が「13Km/h」であったとする。この場合、このユーザの運動強度を65%にするには、心拍数を133.5拍/分まで高めれば良い。そのためには、ロボット110は、13Km/hの移動速度でユーザがジョギングするようにユーザを誘導すれば良い。従って、A社サーバ101は、13Km/hの移動速度でユーザがジョギングするようにロボット110を伴走させるアクションのリクエスト情報をB社サーバ111に送信すれば良い。
 「ボルグスケール」は、運動するユーザが感じている疲労度の指標としてよく用いられている。ボルグスケールは主観的な運動強度を6~20の数値で表す。
 「運動強度の感じ方」の列には、いくつかの運動強度に対するユーザの主観的な感覚が登録されている。例えば、運動強度「80%」について、ボルグスケールは「15」であり、その運動強度は「きつい」と感じられる。
 筋収縮に酸素が消費される有酸素運動は、筋収縮に酸素が消費されない無酸素運動と比べて運動強度が低いので、比較的安全な運動である。有酸素運動から無酸素運動に切り替わる範囲の運動強度はATポイントと呼ばれている。ボルグスケールにおけるATポイントは、「11」(楽)から「13」(ややきつい)までに相当することが知られている。
 いくつかの学会における治療ガイドラインでは、糖尿病、高血圧症、および脂質異常症の治療の1つとして運動療法が推奨されている。学会ごとに表現が若干異なる所はあるが、ガイドラインでは、概ね1日に30~60分程度、中強度の有酸素運動を週3日以上実施することが各疾患の治療または改善に望ましいとされている。健康支援サービスを手掛けるA社サーバ101またはA社アプリは、ATポイント辺りの強度の運動を1回30分以上、できるだけ毎日行うようにユーザに働きかけても良い。A社サーバ101は、運動を始めたユーザがATポイント辺りの運動強度の運動を30分~60分ほど維持し続けることができるようにアクションを示すリクエスト情報をB社サーバ111に送信して、ユーザの運動を応援しても良い。
 テーブルT2において、左半分の列は運動強度とその運動強度の感じ方とが対比されている。一方、テーブルT2の右半分の列には、各運動強度について、アクションIDが示すアクションを実行した際に有意な効果があったと判定された回数と、アクションの実行回数とが登録されている。有意な効果とは、ユーザが運動を継続して行ったことである。
 例えば、この例では、ボルグスケール「13」(ややきつい)において、アクションID=0001(「もっと速く」など叱咤の掛け声)のセルには、「0/1」が登録されている。これは、このアクションの実行回数が1回であり、その内、有意な効果があると判定された回数は0回であることを示している。同じ運動強度において、アクションID=0002(「頑張れー」など声援の掛け声)のセルには、1/2が登録されている。これは、このアクションの実行回数が2回であり、その内、有意な効果がある判定された回数は1回であることを示している。
 さらに運動強度が一段下のボルグスケール「12」(ややきつい~楽の間)において、アクションID=0001のアクションの実行回数は2回であり、その内、有意な効果があると判定された回数は0回である。同じ運動強度において、アクションID=0002のアクションの実行回数は3回であり、その内、有意な効果があると判定された回数は3回である。
 このように、テーブルT2は、各ユーザについて、運動強度とアクションIDとに対応する、アクションの実施回数と有意な効果があった回数とを記録する。これにより、各運動強度について、どのアクションがユーザにとって有効であるかを過去の実績データから判定できる。テーブルT2は、ユーザ別に存在し、アクションが実行される都度更新される。そのため、アクションの実行回数が多くなるにつれて、テーブルT2には過去のユーザのデータが蓄積され、運動強度ごとに有効な効果が得られるアクションをより効果的に決定することができる。
 A社サーバ101は、アクションの実行後、所定時間以上、アクションの実行時の運動強度以上の運動をユーザが継続できた場合、アクションに有意な効果があったと判定すれば良い。つまり、A社サーバ101は、当該運動をユーザが継続できた場合は有意な効果があると判定し、当該運動をユーザが継続できなかった場合、有意な効果はなかったと判定する。例えば、ボルグスケールで「11」(楽)の運動をしているユーザに対して、運動を応援する意図を持つアクションが実施され、そのアクションを実施してから3分間以上、ボルグスケールで「11」以上の運動をユーザが継続できた場合、そのアクションは有意な効果があったと判定される。逆に、ボルグスケールで「11」以上の運動が継続されなかった場合、有意な効果はなかったと判定される。
 また、上記とは逆に、アクションが実行されてからその運動強度以上を維持できなくなるまでの時間が所定時間以上かを測定することでアクションの効果が判定されても良い。例えば、ボルグスケールで「11」(楽)の運動をしているユーザに対して、運動を応援する意図を持つアクションが実行され、そのアクションが実行されてから30秒以内に、ボルグスケールで「10」以下に運動強度が下がってしまった場合、このアクションに有意な効果はなかったと判定されても良い。逆にアクションが実行されてから30秒以上、運動強度が下がらなかった場合、このアクションに有意な効果があったと判定されても良い。いずれにせよ、アクションの効果の判定方法はこれに限られず、運動直後のユーザにアクションの効果を評価してもらうなど、他の方法で代用しても良い。
 図9は、図6の処理の詳細を示すフローチャート図である。
 (ステップS201)
 ロボット110は、センサー110cを用いて取得した生体活動情報および周囲情報をB社サーバ111に送信する。
 (ステップS202)
 B社サーバ111は、ロボット110から生体活動情報および周囲情報を受信する。B社サーバ111は、受信した生体活動情報および周囲情報をメモリ111cに登録する。B社サーバ111は、生体活動情報および周囲情報を、アクセス権を有するA社サーバ101にアクセス可能にする、又は送信する。
 (ステップS203)
 A社サーバ101は、B社サーバ111から生体活動情報および周囲情報を取得する、又は受信する。
 (ステップS204)
 A社サーバ101は、スマートウォッチ140かつ/またはA社アプリを用いてユーザの生体活動情報および周囲情報を取得する。
 (ステップS205)
 A社サーバ101は、ステップS203、S204で取得した生体活動情報および周囲情報に基づいて、ユーザの疲労度を算出する。疲労度の算出の詳細は後述する。
 (ステップS206)
 ユーザの疲労度が所定値未満であった場合(ステップS206でNO)、A社サーバ101はアクションをロボット110に実行させるリクエスト情報を送信せずに処理を終了する。一方、ユーザの疲労度が所定値以上の場合(ステップS206でYES)、A社サーバ101は、現在のユーザに運動を継続させる効果が期待できる1つ以上のアクションを決定する。
 (ステップS207)
 A社サーバ101は、アクションテーブルT1を用いて、現在のユーザの運動強度において効果が期待できるアクションを1つ以上選択する。例えば、A社サーバ101は、現在のユーザの運動強度において、最も有意な効果が得られるアクションを選択してもよい。
 ここで、1つ以上のアクションを選択するとしたのは同時に実行できるアクションの組み合わせがあるからである。例えば、「応援(掛け声)」の「声援」に分類されるアクションと、「挙動」の「2足歩行」に分類されるアクションとは同時に実行が可能である。この場合、A社サーバ101は、4足歩行のロボット110が可動部110eを制御して2足歩行になるアクションと、「頑張れー」とユーザに対する応援の声援を映像音声出力部110fから出力するアクションとを選択すればよい。
 (ステップS208)
 A社サーバ101は、B社サーバ111に対して決定したアクションをロボット110に実行させるリクエスト情報を送信する。このリクエスト情報には、「リクエストID」、「アクセス権情報」、及び「対象ロボット情報」、「アクションID」、及び「署名情報」が含まれる。
 「リクエストID」は、リクエストを識別するための情報である。リクエストIDは、B社サーバ111がこのリクエスト情報に応答する際にも用いられる。
 「アクセス権情報」はA社サーバ101がリクエストに対してアクセス権を有しているか否かをB社サーバが確認するための情報である。「アクセス権情報」は、例えばA社アプリの固有IDとB社アプリの固有IDとのペア情報である。
 「対象ロボット情報」はリクエストの対象となるロボットの固有IDである。「対象ロボット情報」は、B社アプリとロボットとが1対1の関係にある場合、B社アプリの固有IDが採用されても良い。また、B社アプリの固有IDが採用される場合には、対象ロボット情報はリクエスト情報に含めなくても良い。
 「アクションID」はリクエストするアクションの識別情報である。「アクションID」は、例えば、アクションの種類情報(アクションID)であっても良いし、固有のアクションを指定する情報であっても良い。
 「署名情報」は、リクエスト情報の偽造の有無をB社サーバ111が確認するための情報である。「署名情報」は、例えば、B社サーバ111が事前にA社サーバ101に貸与する署名プログラムに、このリクエスト情報を入力した際に出力される認証用文字列であっても良い。
 (ステップS209)
 B社サーバ111は、受信したリクエスト情報のアクションについてのアクセス権をA社サーバ101(またはA社アプリ)が持つのかを、B社サーバ111のメモリ111cに記録されたアクセス権情報と照合して確認する。アクセス権が不足する、または無い場合、B社サーバ111は、このリクエスト情報を拒絶する返信をA社サーバ101へ返信し、処理を終了する。この詳細は前述したので省略する。
 B社サーバ111は、このリクエスト情報のアクションについて、適切なアクセス権をA社サーバ101(またはA社アアプリ)が持つと判定すると、このアクションを対象のロボット110に実行させる指示を送信する。
 (ステップS210)
 この指示を受信したロボット110は、指示されたアクションを実行する。
 (ステップS211)
 ロボット110は、アクションの実行結果をB社サーバ111に送信する。アクションの実行結果は、前述の通り、アクションが実行されてから所定時間内のユーザの生体活動情報および周囲情報に基づく情報である。
 (ステップS212)
 B社サーバ111はロボット110から受信したアクションの実行結果をA社サーバ101に送信する。
 (ステップS213)
 A社サーバ101は、アクションの実行結果を用いてロボット110が実行したアクションの効果を測定する。A社サーバ101は、測定したアクションの効果とユーザの疲労度とを対応付けてメモリ101cに記憶し、処理を終了する。具体的には、テーブルT2において、該当する疲労度(運動強度)と該当するアクションとのセルにアクションの実行回数と、アクションの効果とが記録される。これにより、テーブルT2が更新され、次回のアクションを選定する際の参考材料とされる。
 ここで、ユーザの疲労度は前述したボルグスケールで6~20で表現されるようにしても良い。図9のステップS206に示す所定値の一例は、ボルグスケールで「13」である。
 また、ユーザの疲労度はカルボーネンの式によって規定される運動強度で表現されても良い。この場合、図9のステップS206に示す所定値の一例は70%である。
 このように、ユーザの状態を把握し続けているA社サーバ101が、運動中のユーザの疲労度をリアルタイムに判定し、疲労度が所定値以上であれば、過去のアクションの効果も考慮して応援を意図したアクションを選定し、それをロボット110に実行させるリクエスト情報をB社サーバ111へ送信する。これにより、ユーザは運動を継続するモチベーションを得て苦しい運動を継続できる。その結果、ユーザの健康が改善され、A社は健康支援サービスの顧客価値をB社のロボット110を介して高めることができる。
 図10は、図6のフローチャートの変形例に係るフローチャートである。本フローチャートにおいて、図9と同一の処理には同一の符号を付して説明を省く。
 (ステップS220)
 A社サーバ101は、ステップS203、S204で取得した生体活動情報および周囲情報に基づいて、ユーザの疲労度を算出する。疲労度の算出は後述する。
 (ステップS221)
 A社サーバ101は、疲労度が「高」、「中」、「低」のいずれに該当するかを判定する。疲労度が「高」の一例はボルグスケールで14以上20以下である。疲労度が「中」の一例はボルススケールで11以上13以下である。疲労度が「低」の一例はボルグスケールで6以上10以下である。
 疲労度はカルボーネンの式によって規定される運動強度で表現されても良い。この場合、疲労度が「高」の一例は、運動強度が70%以上であり、疲労度が「中」の一例は運動強度が60%以上70%未満であり、疲労度が「低」の一例は運動強度が60%未満である。
 疲労度はユーザの呼吸数であっても良い。呼吸数は主観的運動強度の変化に対して非常に敏感で、心拍数よりも早く反応することが知られている。そのため、ユーザの心拍数よりもユーザの呼吸数を測定することで、ユーザの疲労度、または疲労度の変化をより早く検出することが可能になる。
 一方、呼吸数で疲労度を計測する際には、全身の周期的動作と呼吸が同期しやすいことを考慮しておく必要がある。例えばジョギングする際の歩数と呼吸数は同期し易く、呼吸数だけで疲労度を測ることが難しくなる。そのため、呼吸数で疲労度を推測する場合、全身の周期的動作が大きくない運動(ジョギングではなく散歩など)に呼吸数を使用する態様、または、心拍数など呼吸数以外の生体活動情報と呼吸数とを併用する態様が採用できる。
 疲労度の計算には、ユーザの心拍数を所定期間(例えば1分間)で平均した値が採用されてもよいし、ユーザの呼吸数を所定期間(例えば15秒間)で平均した値が採用されても良いし、ユーザの呼吸数の変化の短期的増減量(ユーザの呼吸数の時間の微分値)が用いられても良い。呼吸数を疲労度の推測に用いるまたは加えることで、ユーザの疲労度の増減を他の心拍数などの生体活動情報よりも即座に検出することができる。その結果、疲労度が増加し始めた、ユーザが苦しさを感じているタイミングで、アクションを実施することができる。例えば、ずっと平らだった散歩道から急に登りの坂道に差し掛かった直後、または急に階段を登り始めた直後などに、ユーザの呼吸数の変化を検出することができる。これにより、A社サーバ101は、急激に疲労度(または運動強度)が上がっていることを検出することができ、検出したタイミングにおいて、B社サーバ111にリクエスト情報を送信できる。
 また、ユーザの疲労度はユーザの他の生体活動情報により推測されても良い。例えば、瞬きが強いと疲労度が高いことが知られている。そこで、A社サーバ101は、ロボット110が具備したカメラが撮影したユーザの顔画像からユーザの瞬きの変化を、画像認識により検出し、検出結果に基づいて疲労度を推測しても良い。A社サーバ101は、ロボット110が具備するカメラで撮影された顔画像から、ユーザの顔表情の変化を、画像認識により検出し、検出結果に基づいて、疲労度を推測しても良い。A社サーバ101は、ロボット110が具備するカメラで撮影されたユーザの全身画像から、ユーザの手または足の使い方(ふり幅、運動周期、肘や膝の曲げ角度など)の変化を画像認識により検出し、検出結果に基づいて、疲労度を推測しても良い。A社サーバ101は、ロボット110が具備した位置センサーまたはカメラが撮影した画像から、画像認識によりユーザの移動速度の変化を検知して、検知結果に基づいて疲労度を推測しても良い。A社サーバ101は、ロボット110が具備したマイク(音声センサー)によりユーザが発する呼吸音または発声音を収集し、収集した呼吸数の変化または発声音の変化からユーザの感情を分析し、分析結果に基づいて、疲労度を推測しても良い。A社サーバ101は、ユーザの周囲情報である気温、湿度、日照度合、または暑さ指数(Wet Bulb Globe Temperature)といった外的環境影響を、上記のユーザの生体活動情報に加味して、疲労度を推測しても良い。
 (ステップS222)
 A社サーバ101は、ユーザの疲労度が「高」であると判定すると、ユーザがより長く運動を継続できるように、運動強度(または運動パフォーマンス)を下げるアクションを選択する。運動強度を下げるアクションは、例えば、ユーザの散歩のペースを下げるように、ユーザに伴走するロボット110の移動速度を下げるアクションである。運動強度を下げるアクションは、アクションの種類で「運動強度調節」に含まれ、現在の運動強度の目標値よりも低い目標値を指定するアクションである。運動強度を下げるアクションは、新たな運動強度の目標値を指定することに限らず、現在の運動強度の目標値との新たな運動強度の目標値との差分値を指定するアクションであっても良い。
 (ステップS223)
 A社サーバ101はユーザの疲労度が「低」と判定すると、ユーザを目標の運動強度で運動させるために、運動強度(運動パフォーマンス)を上げるアクションを選択する。運動強度を上げるアクションは、例えば、ユーザの散歩の移動速度を上げるように、ユーザに伴走するロボット110の移動速度を上げるアクションである。運動強度を上げるアクションは、アクションの種類で「運動強度調節」に含まれ、現在の運動強度よりも高い目標値を指定するアクションである。
 (ステップS224)
 A社サーバ101はユーザの疲労度が「中」と判定すると、ユーザがより長くその運動(または運動強度)を継続できるように、ユーザが運動を継続する効果が期待される応援のアクションを選択する。応援のアクションは、例えば散歩に合う曲を再生するアクションである。
 ここで、A社サーバ101は、テーブルT2を参照して、複数のアクションから過去に最も有意な効果が確認できたアクションを選択すれば良い。また、A社サーバ101は、ロボット110が同時に実行できる2つ以上のアクションを選択してもよい。
 このように、ユーザの状態を把握し続けているA社サーバ101が、運動中のユーザの疲労度をリアルタイムに判定し、疲労度が「高」であれば運動強度を下げ、「低」であれば運動強度を上げ、「中」であれば過去のアクションの効果も考慮して応援を意図したアクションを選択し、それをロボット110に実行させるリクエスト情報をB社サーバ111へ送信する。これにより、ユーザは運動を継続するモチベーションを得て苦しい運動を継続できる。その結果、ユーザの健康が改善され、A社は健康支援サービスの顧客価値をB社のロボット110を介して高めることができる。
 次に、疲労度の判定の詳細について説明する。図11は、疲労度の判定の第1例を示すフローチャートである。
 (ステップS301)
 A社サーバ101は、ユーザの属性情報、生体活動情報、および周囲情報の少なくとも1つを使って疲労度を判定する。
 属性情報は、初期設定によりA社サーバ101のメモリ101cに予め登録されている。属性情報は、年齢、性別、運動強度の目標値、体重、体脂肪率、筋肉量、及び病歴のうちの少なくとも1つを含む。属性情報は後述する疲労度の判定基準において必要な場合のみ使用される。
 生体活動情報は、スマートウォッチ140が有する生体センサー、スマートフォン100が有するセンサー100c、かつ/またはロボット110のセンサー110cにより取得される。生体活動情報は後述する疲労度の判定基準において必要に応じて使用される。
 スマートウォッチ140が脈拍数を取得できることは周知であるが、ロボット110も例えばRGBカメラ(センサー110c)を用いることによって生体活動情報を取得できる。ヘモグロビンは緑色の光を吸収する特性を有していることが知られている。そこで、例えば、ロボット110の演算部110bは、RGBカメラで撮影したユーザの顔画像から、顔表面の緑色成分の輝度変化を検出し、検出結果に基づいて脈拍数を取得することができる。
 周囲情報は、スマートウォッチ140、かつ/またはロボット110のセンサー110cから取得される。周囲情報は後述する疲労度の判定基準において必要に応じて使用される。
 ロボット110は、RGBカメラ、測距センサー、およびマイクなどのセンサー110cを用いてロボット110の周囲情報を取得する。周囲情報は、上述したように、ユーザの現在位置、ユーザとロボット110との相対的な位置関係(例えば間隔)、ユーザとロボット110との相対移動速度、ユーザの移動方向における路面の傾斜角度、気温、及び湿度などである。
 A社サーバ101は、これらのユーザの属性情報、生体活動情報、および周囲情報のうち少なくとも1つを使って、下記の判定基準により、現在のユーザの疲労度を周期的に判定する。以下の説明では、ユーザの疲労度は、高中低の3段階で判定されるが、2段階または4段階以上で判定されてもよい。また、疲労度の判定結果は、連続的に変化する指標であってもよい。
 疲労度の判定が「高」となる条件は以下の通りである。
 条件(H1)は、上述した生体活動情報のうち少なくとも1つの生体活動情報が、推奨範囲の上限値(疲労許容度または閾値の一例)よりも高い運動疲労を示す場合である。
 例えば、条件(H1)は、脈拍数が脈拍数の推奨範囲の上限値より高い、呼吸数が呼吸数の推奨範囲の上限値より高い、活動量(消費カロリー)が活動量の推奨範囲の上限値より高い、歩数指標が歩数指標の推奨範囲の上限値より高い、などである。歩数指標は、所定時間内の歩数が多いほど小さい値を有する。
 脈拍数の推奨範囲は、運動強度の目標範囲に相当する脈拍数の範囲である。呼吸数の推奨範囲は、運動強度の目標範囲に相当する呼吸数の範囲である。活動量の推奨範囲は、運動強度の目標範囲に相当する活動量(消費カロリー)の範囲である。歩数指標の推奨範囲は、運動強度の目標範囲に相当する歩数指標の範囲である。運動強度の目標範囲は、運動強度の目標値を基準とする一定の範囲である。
 条件(H2)は、上述した生体活動情報のうち少なくとも1つの生体活動情報から算出される運動強度の指標が、運動強度の推奨範囲の上限値よりも高い運動疲労を示すことである。
 運動強度の指標は、カルボーネンの式を用いて求められる指標、主観的運動強度を示すボルグスケール、ボルグスケールを修正した修正ボルグスケール、METs、または、独自に規定された指標である。
 条件(H3)は、上述した少なくとも1つの周囲情報から算出されるユーザの運動パフォーマンスが、運動パフォーマンスの推奨範囲よりも高い運動疲労を示すことである。運動パフォーマンスの推奨範囲は、運動強度の目標範囲に相当する運動パフォーマンスの範囲である。運動パフォーマンスは、例えば、ユーザの移動速度、所定時間内のユーザの移動距離、ユーザの前方にいるロボット110とユーザとの間隔、などである。
 例えば、条件(H3)は、ユーザの移動速度が移動速度の推奨範囲の下限値より低い、ユーザの所定時間内の移動距離が移動距離の推奨範囲の下限値より低い、移動方向の前方にいるロボット110からユーザまでの間隔が間隔の推奨範囲の上限値を超える、などである。移動速度の推奨範囲の下限値は、例えば8Km/hなどである。
 条件(H4)は、条件(H1)~(H3)の何れか1つ以上の組み合わせである。
 例えば、条件(H4)は、脈拍数が脈拍数の推奨範囲の上限値より高く、かつ、移動方向の前方にいるロボット110とユーザとの間隔が間隔の推奨範囲の上限値を超える場合である。例えば、条件(H4)は、カルボーネンの式を用いて求められる運動強度が運動強度の推奨範囲の上限値よりも高く、かつ、ユーザの移動速度が移動速度の推奨範囲の下限値より低い場合である。
 条件(H5)は、条件(H1)~(H3)の何れか1つ以上と、属性情報の1つ以上との組み合わせである。
 例えば、条件(H5)は、脈拍数が脈拍数の推奨範囲の上限値より高く、かつ、年齢が基準年齢より高い、などである。
 次に、疲労度の判定が「低」となる条件は以下の通りである。
 条件(L1)は、上述した生体活動情報のうち少なくとも1つの生体活動情報が、推奨範囲の下限値(疲労許容度または閾値の一例)よりも低い運動疲労を示すことである。
 例えば、条件(L1)は、脈拍数が脈拍数の推奨範囲の下限値より低い、呼吸数が呼吸数の推奨範囲の下限値より低い、活動量(消費カロリー)が活動量の推奨範囲の下限値より低い、歩数指標が歩数指標の推奨範囲の下限値よりも低い、などである。
 条件(L2)は、(H2)で上述した運動強度の指標が、運動強度の推奨範囲の下限値よりも低い運動疲労を示すことである。
 条件(L3)は、(H3)で上述した運動パフォーマンスが、運動パフォーマンスの推奨範囲よりも低い運動疲労を示す場合である。
 例えば、条件(L3)は、ユーザの移動速度が移動速度の推奨範囲の上限値より高い、ユーザの所定時間内の移動距離が移動距離の推奨範囲の上限値より高い、移動方向で後方にいるロボット110とユーザとの間隔が間隔の推奨範囲の上限値を超える、などである。
 条件(L4)は、条件(L1)~(L3)の何れか1つ以上の組み合わせである。
 例えば、条件(L4)は、脈拍数が脈拍数の推奨範囲の下限値より低く、かつ、移動方向で後方にいるロボット110とユーザとの間隔が間隔の推奨範囲の上限値を超える場合、カルボーネンの式を用いて求められる運動強度が運動強度の推奨範囲の下限値よりも低く、かつ、ユーザの移動速度が移動速度の推奨範囲の上限値より高い場合、などである。
 条件(L5)は、条件(L1)~(L3)の何れか1つ以上と、属性情報の1つ以上との組み合わせである。
 例えば、条件(L5)は、脈拍数が脈拍数の推奨範囲の下限値より低く、かつ年齢が基準年齢より低い場合、などである。
 疲労度の判定が「中」となる条件は以下の通りである。
 条件(M1)は、ユーザの運動強度が目標範囲内である場合である。
 条件(M2)は、疲労度の判定が「高」でも「低」でもない場合である。
 図12は、疲労度の判定の第2例を示すフローチャートである。
 (ステップS401)
 A社サーバ101は、ロボット110から取得した、運動中のユーザの運動時心拍数と、初期設定されたユーザの年齢および安静時心拍数とを、カルボーネンの式に入力することで運動強度(%)を計算する。
 (ステップS402)
 A社サーバ101は、計算した運動強度(%)と、初期設定された運動強度の目標値(%)または運動強度の設定範囲とを比較することで、運動中のユーザの疲労度を判定する。
 図9の例では、A社サーバ101は、ユーザの現在の運動強度が、運動強度の目標値より高いか、低いかによって疲労度を判定する。
 図10の例では、A社サーバ101は、ユーザの現在の運動強度を、運動強度の目標範囲と比較し、運動強度が目標範囲より高い場合は疲労度「高」、運動強度が目標範囲内の場合、疲労度「中」、運動強度が目標範囲より低い場合は疲労度「低」と判定する。
 運動強度の目標値は、健康維持に効果的と言われるATポイントに相当する運動強度(%)で60%以上70%未満の範囲内の値、ボルグスケールで11~13の範囲内の値であってもよい。運動強度の目標範囲は、健康維持に効果的と言われるATポイントに相当する運動強度(%)で60%以上70%未満の範囲、ボルグスケールで11~13の範囲であってもよい。
 運動強度の目標値は、ユーザが初期設定した値、直近1カ月間の平均運動量などのユーザの過去の運動量実績、比較的軽度な運動量に相当する4.0メッツ(METs)が採用されてもよい。
 このようにして判定された疲労度の判定結果を用いて、ロボット110がとるべきアクションが決定される。
 尚、運動強度の指標として、カルボーネンの式が用いられたが、本開示はこれに限らず、ボルグスケール、修正ボルグスケール、メッツ(METs)、または独自の指標が採用されても良い。
 図13は、伴走開始後の処理の一例を示すフローチャートである。図13の処理主体はロボット110であるものとして説明するが、これは一例であり、処理主体はA社サーバ101であってもよいし、B社サーバ111であってもよい。なお、この処理の開始時にロボット110はユーザの先方においてユーザの伴走を行っている。例えば、ロボット110は、カメラを用いて後方にいるユーザをトラッキングすることで、ユーザの移動方向を特定する。そして、ロボット110は、その移動方向に所定の移動速度でユーザを伴走する、または、その移動方向においてユーザとの間隔が一定の間隔となるようにユーザを伴走する。ロボット110の所定の移動速度は例えばユーザの移動速度である。
 (ステップS501)
 ロボット110は、ユーザの移動速度を取得する。例えば、ロボット110は、RGBカメラ(光学センサの一例)が撮影したユーザの動画像からユーザの位置をトラッキングすることで、ロボット110に対するユーザの相対移動速度(周囲情報の一例)を算出し、算出した相対移動速度に、ロボット110の移動速度を加算することでユーザの移動速度を算出すればよい。ロボット110の移動速度は、ロボット110が具備する速度センサーにより検出された速度であってもよいし、B社サーバ111から指示された指令速度であってもよい。
 (ステップS502)
 ロボット110は、ユーザの生体活動情報、周囲情報、および属性情報を取得する。生体活動情報、周囲情報、および属性情報の取得の詳細は上述した。例えば、ロボット110は、RGBカメラが撮影したユーザの画像からユーザの生体活動情報および周囲情報を取得すればよい。例えば、ロボット110は、A社サーバ101からユーザの属性情報を取得すればよい。
 (ステップS503)
 ロボット110は、生体活動情報、周囲情報、および属性情報を用いてユーザの疲労度を算出する。疲労度の算出の詳細は、図11、図12で説明した。
 (ステップS504)
 ロボット110は、上記の判定基準にしたがって疲労度が「高」であるか否かを判定する。疲労度が「高」の場合(ステップS504でYES)、処理はステップS506に進む。疲労度が「高」でない場合(ステップS504でNO)、処理はステップS505に進む。この判定の詳細は、ステップS221と同じである。
 (ステップS505)
 ロボット110は、上記の判定基準にしたがって疲労度が「低」であるか否かを判定する。疲労度が「低」の場合(ステップS505でYES)、処理はステップS507に進む。疲労度が「低」でない場合(ステップS505でNO)、すなわち、疲労度が「中」の場合、処理はステップS508に進む。
 (ステップS506)
 ロボット110は、自身の移動速度を下げる、または、自身の移動速度を下げることによってロボット110とユーザとの間隔を狭める。この場合、ロボット110は、可動部110eを制御して、ユーザの移動速度よりも所定速度だけ低い移動速度で伴走すればよい。或いは、ロボット110は、可動部110eを制御して、変更後の間隔が維持されるようにユーザの伴走を行えばよい。これにより、ロボット110は、ユーザの疲労度を下げることができる。
 (ステップS507)
 ロボット110は、自身の移動速度を上げる、または、自身の移動速度を上げることによって、ロボット110とユーザとの間隔を拡げる。この場合、ロボット110は、ユーザの移動速度よりも所定速度だけ高い移動速度で伴走すればよい。或いは、ロボット110は、変更後の間隔が維持されるようにユーザの伴走を行えばよい。これにより、ロボット110は、ユーザの疲労度を上げることができる。
 (ステップS508)
 ロボット110は、現在の移動速度を維持する、または、現在のロボット110とユーザとの間隔を維持する。これにより、ロボット110は、ユーザの疲労度を適正範囲に維持できる。
 (ステップS509)
 ロボット110は、伴走が終了したか否かを判定する。伴走が終了した場合(ステップS509でYES)、処理は終了し、伴走が終了していない場合(ステップS509でNO)、処理はステップS501に戻る。ここで、ロボット110は、所定の終了条件を満たす場合、伴走が終了したと判定すればよい。終了条件は、例えば、ユーザの移動速度が0になっていから一定時間以上経過した場合、または、ユーザの位置情報がユーザの自宅内にいることを示す場合、などである。
 図14は、ロボット110が散歩するユーザの伴走をしている様子の一例を示す図である。ロボット110は、移動方向D1に対してユーザの先方に位置している。ロボット110は、ユーザの散歩をリードしながら、照明部110gを使って、ユーザの足元の照明領域125を照らしている。照明領域125はユーザの足元からユーザの移動方向D1に向かって伸びた形状を有する。ここでは照明領域125はユーザ位置130とロボット位置131との間の路面に位置する。ロボット110は、プロジェクションマッピングにより照明領域125を照射する。この例では、照明領域125には、ユーザの散歩が順調なペースであることを示すメッセージ(いい調子)が含まれる。このメッセージは、ユーザ位置130が文字列の下側となるように文字が配列されている。
 ロボット110は、照明領域125の照射と同時に、映像音声出力部110fを用いて、ユーザの散歩が順調に進んでいることを示す掛け声「いい調子」を出力している。これは「応援(掛け声)」の「称賛」で説明したアクションの一例である。ユーザはロボットが路面に表示した言葉、かつ/またはロボット110が発声した掛け声により、散歩が良いペースであることを知り、しっかりと散歩できている自信を持つことができる。このような自己肯定感や運動ができるという自覚をユーザに与えることで、運動を継続し、習慣化させる効果が期待できる。
 図15は、ロボット110がユーザの散歩を伴走している様子の他の一例を示す図である。ロボット110は、ユーザの隣に位置し、散歩するユーザを伴走している。ロボット110は、通常は4足歩行であるが、この例では、後ろ足だけで伴走している。これは、「挙動」の「2足歩行」で説明したアクションの一例である。さらに、ロボット110は、ユーザの散歩が順調に良いペースで進んでおり、ユーザの努力を称賛する掛け声「いいよー、輝いているよー」をスピーカーから出力している。これは「応援(掛け声)」の「称賛」で説明したアクションの一例である。ユーザはロボット110の曲芸を見て気分を癒し、かつ/またはロボット110が発声した掛け声により、自分が良く運動できていることを知り、前向きな気持ちを持つことができる。
 図16は、ロボット110がユーザの運動強度を高めるアクションをする様子を示す図である。ロボット110はユーザの移動方向D1の先方に位置し、ユーザのジョギングのルートおよびペースを誘導している。ロボット110は、ユーザの疲労度が「低」になったので、運動強度を上げるアクションを実行する。ロボット110は、これまでの移動速度よりも速い移動速度で進み始めている。同時に、ロボット110は、ユーザにペースアップを促す掛け声「速くー」をスピーカーから出力している。ロボット110が移動速度を上げることは「運動強度調節」の「運動強度の調節」または「パフォーマンスの調節」で説明したアクションの一例である。ロボットの掛け声は「応援(掛け声)」の「叱咤」で説明したアクションの一例である。ユーザは伴走するロボット110の移動速度の上昇、かつ/またはロボット110が発声した掛け声により、これから運動強度を上げていくことを知ることができる。
 図17は、ロボット110がユーザの疲労度を下げるアクションをする様子を示す図である。ロボット110は、ユーザの移動方向D1の先方に位置し、ユーザのジョギングのルートおよびペースを誘導している。ロボット110は、ユーザの疲労度が「高」になったので、運動強度を下げるアクションを実行する。ロボット110はこれまでの移動速度よりも遅い移動速度で進み始めている。同時に、ロボット110は、ユーザにペースダウンすることを意図した鳴き声「ワン」をスピーカーから出力している。ロボット110がペースを下げることは「運動強度調節」の「運動強度の調節」または「パフォーマンスの調節」で説明したアクションの一例である。ロボットの掛け声は「応援(鳴き声)」の「声援」で説明したアクションの一例である。ユーザはロボット110が伴走のペースを遅くし、かつ/またはロボット110が発声した鳴き声により、これから運動強度を下げていくことを知ることができる。
 尚、応援は人の言語を使った掛け声でなく、動物の鳴き声を模写した鳴き声であってもよい。この場合、ユーザは、A社アプリを使って「叱咤」「声援」「激励」「称賛」に対応する鳴き声を予め設定する。例えば、叱咤であれば「ウゥー、ワン」、声援であれば「ワン」、激励であれば「ワン、ワン」、称賛であれば「ワオーン」などが設定可能である。これは実在する生物を模写した鳴き声でも良いし、架空の生物の鳴き声であっても良い。
 図18は、散歩するユーザを伴走するロボット110が移動速度を変動させる様子を示す図である。左図では、ロボット110は移動速度「16Km/h」でユーザを伴走している。スマートウォッチ140によりユーザの心拍数「153bpm」が測定されている。この心拍数から疲労度が「高」と判定される、そのため、中図に示すように、ロボット110は、応援(鳴き声)アクション(「ワン!」と鳴く)と、運動強度(運動パフォーマンス)を下げるアクションと、を実行する。ここでは、ロボット110は、移動速度を16Km/hから-4Km/h下げるアクションを実行する。これにより、右図に示すように、ロボット110は、可動部110eを制御して、「12Km/h」の移動速度でユーザを伴走する。その結果、ユーザの心拍数が「142bpm」と計測され、ユーザの疲労度が下がる。これによって、運動強度(METs)が目標値に到達する前に諦めることなく、ユーザに運動を適切な疲労度「中」又は運動強度にて、継続させる効果が期待できる。
 図19は、ロボット110が散歩するユーザの伴走をしている様子の他の一例を示す図である。ロボット110はユーザの隣に位置し、ユーザの散歩のルートとペースを誘導している。ここでは、ユーザの現在の疲労度が「中」であり、理想的な運動強度である。そのため、ロボット110は、この運動強度をより長く維持するためのアクションを実行している。例えば、ロボット110は、ユーザが散歩に対してモチベーションを持てるように散歩に合う曲またはプレイリストを再生する。ロボット110が曲を再生することは「曲再生」の「プリセット」または「ユーザ選曲」で説明したアクションの一例である。ユーザはロボット110が伴走しながら散歩のモチベーションを高めるような曲を再生してくれることで、運動による疲労に長く耐えることができ、結果として運動量を増やすことができる。
 図20は、ロボット110が散歩するユーザの伴走をしている様子の他の一例を示す図である。ロボット110は、ユーザの隣に位置し、ユーザの散歩のルートとペースを誘導している。ロボット110は、ユーザの生体活動情報またはカメラ映像などの周囲情報から、ユーザの現在の骨格を検出し、検出した骨格からユーザの運動フォームを解析し、解析した運動フォームと正しい運動フォームとの差異を評価する。例えば、ロボット110は、ユーザの上半身の姿勢が悪く、胸を張るべきだと判定したとする。この場合、ロボット110はユーザの運動フォームを修正するために、運動フォームの悪い点を指摘する情報を出力する。この例では、ロボット110は、ユーザが背中を丸めて歩行していることを検知した結果、「胸張ってー」と正しい運動フォームをユーザに呼び掛けている。これは、「応援(掛け声)」の「任意」で説明したアクションの一例である。ユーザはロボットが伴走しながら自分の運動フォームで悪い所を指摘してくれることで、正しい運動フォームで運動ができるようになる。その結果、ユーザは運動中の思わぬ傷害や事故を引き起こすリスクを抑えることができる。
 例えば、正しい歩き方で散歩をしないと、期待する健康改善の効果を得られない可能性がある。正しい歩き方には、目線を歩く方向に向ける、背筋を伸ばす、足は踵から地面につける、軸足の膝をしっかり伸ばす、といったチェックポイントがある。よって、ロボット110、B社サーバ111、かつ/またはA社サーバ101は、これらのチェックポイントが適切にできているかを、ロボット110のカメラ画像から、ユーザの姿勢を解析し、その解析結果に基づいて、ユーザの歩行フォームを解析し、その結果をユーザに通知すればよい。
 図21は、本実施の形態の第2例の処理を示すシーケンス図である。第2例では、疲労度の判定主体がB社サーバ111である。図21において、図6と同じ処理には同じ符号を付し、説明を省略する。ステップS1、S2、S601は初期設定の処理あり、ステップS3以降は、ユーザの運動中の処理である。
 (ステップS601)
 A社サーバ101は、ステップS2で取得した運動強度情報およびアクション情報をB社サーバ111に送信する。
 (ステップS602)
 A社サーバ101は、ステップS4でスマートフォン100、かつ/または、スマートウォッチ140から取得した生体活動情報および周囲情報をB社サーバ111に送信する。
 (ステップS603)
 B社サーバ111は、取得したユーザの生体活動情報および周囲情報に基づいて、ユーザの現在の疲労度をリアルタイムに推定する。疲労度の推定の詳細は上述の通りである。
 (ステップS604)
 B社サーバ111は、疲労度に基づいて、現在のユーザへの効果が期待されるアクションを選定する。アクションの選定の詳細は前述の通りである。
 (ステップS605)
 B社サーバ111は、ロボット110に選定したアクションを実行させる指示を出力する。第2例では判定主体がB社サーバ111なので、B社サーバ111は、A社サーバ101がアクセス権を有するか否かの判定をすることなく、指示を出力する点がステップS11と相違する。
 (ステップS606)
 B社サーバ111は、ステップS13で取得したアクションの実行結果を用いてロボット110が実行したアクションの効果を測定し、その効果をメモリ111cに登録する。アクションの効果の測定の詳細は前述のとおりである。
 (ステップS607)
 B社サーバ111は、アクションの効果をA社サーバ101に送信する。
 (ステップS608)
 A社サーバ101は、アクションの効果をメモリ101cに登録する。
 図22は、本実施の形態の第3例の処理を示すシーケンス図である。第3例では、疲労度の判定主体がロボット110である。図22において、ステップS1、S701は初期設定の処理であり、ステップS3以降は運動中の処理である。なお、図22において、図6と同じ処理には同じ番号を付し、説明を省略する。
 (ステップS701)
 スマートフォン100、かつ/または、スマートウォッチ140は、ステップS2で取得した運動強度情報およびアクション情報をA社サーバ101およびロボット110のそれぞれに送信する。
 (ステップS702)
 スマートフォン100、かつ/または、スマートウォッチ140は、ステップS3で取得した生体活動情報および周囲情報をロボット110に送信する。
 (ステップS703)
 ロボット110は、取得したユーザの生体活動情報および周囲情報に基づいて、ユーザの現在の疲労度をリアルタイムに推定する。疲労度の推定の詳細は上述の通りである。
 (ステップS704)
 ロボット110は、疲労度に基づいて、現在のユーザへの効果が期待されるアクションを選定する。アクションの選定の詳細は前述の通りである。
 (ステップS705)
 ロボット110は、ステップS12でアクションを実行し、そのアクションの効果を測定し、その効果をメモリ110dに登録する。アクションの効果の測定の詳細は前述のとおりである。
 (ステップS706)
 ロボット110は、アクションの効果をスマートフォン100、かつ/または、スマートウォッチ140に送信する。
 (ステップS707)
 スマートフォン100、かつ/または、スマートウォッチ140は、アクションの効果をメモリに登録する。
 図23は、本実施の形態の第4例の処理を示すシーケンス図である。第4例では、疲労度の判定主体がロボット110である。また、第4例では、スマートフォン100にはA社アプリに加えてB社アプリもインストールされている。図23において、ステップS1、S801は初期設定の処理であり、ステップS3以降は運動中の処理である。なお、図23において、図6と同じ処理には同じ番号を付し、説明を省略する。
 (ステップS801)
 A社アプリ、かつ/または、スマートウォッチ140は、ステップS1でユーザが設定した運動強度情報およびアクション情報をB社アプリと共有し、B社アプリは運動強度情報およびアクション情報の設定をロボット110に送信する。
 (ステップS802)
 A社アプリ、かつ/または、スマートウォッチ140は、ステップS3で取得した生体活動情報および周囲情報をB社アプリと共有し、B社アプリは生体活動情報および周囲情報をロボット110に送信する。
 ステップS703以降の処理は図22と同じであるので、説明を省略する。
 このように、本実施の形態によれば、ユーザの疲労度が許容範囲外になると、ユーザの疲労度が許容範囲内になるように、ユーザを伴走するロボットの移動速度が調整されるので、適切な疲労度が維持されるように、ロボット110はユーザを伴走できる。

Claims (26)

  1.  歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、
     前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、
     前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、
     前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、
     前記ユーザの前記生体情報の第1測定値が第1閾値を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とし、前記第2速度は前記ユーザの移動速度よりも遅い、
     制御方法。
  2.  前記ロボットの移動速度が前記第1速度であるとき、前記ロボットを前記ユーザに対して先行させる、
     請求項1に記載の制御方法。
  3.  前記ロボットの移動速度が前記第2速度になった後、前記生体センサーを介して、前記ユーザの前記生体情報の第2測定値を取得し、
     前記ユーザの前記生体情報の前記第2測定値が前記第1閾値以下、第2閾値以上の範囲内になった場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第2速度に維持させる、
     請求項1に記載の制御方法。
  4.  前記第1閾値および前記第2閾値は、前記ユーザの運動強度の推奨範囲の上限値および下限値に、それぞれ対応し、
     前記運動強度の推奨範囲は、ボルグスケール、修正ボルグスケール、または、METsを用いた範囲である、
     請求項3に記載の制御方法。
  5.  前記ユーザの運動の実施状況を管理するコンピュータから、前記ユーザが前記歩行または前記走行によって達成すべき運動目標を示す運動目標情報を取得し、
     前記第1閾値、前記第1速度、及び前記第2速度の少なくとも1つは、前記運動目標に基づいて決定される、
     請求項1から4のいずれか1項に記載の制御方法。
  6.  前記ユーザの属性情報を管理するコンピュータから、前記ユーザの属性を示す属性情報を取得し、前記属性情報は、前記ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つを含み、
     前記第1閾値、前記第1速度、及び前記第2速度の少なくとも1つは、前記属性情報に基づいて決定される、
     請求項1から5のいずれか1項に記載の制御方法。
  7.  前記ユーザの前記生体情報の前記第1測定値が前記第1閾値以下、第2閾値以上の範囲内にある場合に、
      前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度に維持し、
      前記ロボットに搭載された照明装置またはスピーカーを介して、前記ユーザに対して、前記ユーザの移動速度が推奨速度であることを示すメッセージを通知する、
     請求項1から6のいずれか1項に記載の制御方法。
  8.  前記生体センサーは、前記ロボットに搭載されており、
     前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含む、
     請求項1から7のいずれか1項に記載の制御方法。
  9.  前記生体センサーは、前記ユーザが装着しているウェアラブルデバイスに含まれており、
     前記生体情報の前記第1測定値は、前記ウェアラブルデバイスからネットワークを介して取得され、
     前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含む、
     請求項1から7のいずれか1項に記載の制御方法。
  10.  請求項1から9のいずれか1項に記載の制御方法を前記ロボットに搭載されたプロセッサに実行させる、
     プログラム。
  11.  本体と、
     前記少なくとも一対の脚または車輪と、
     前記少なくとも一対の脚または車輪を駆動するアクチュエータと、
     前記少なくとも1つの光学センサーと、
     プロセッサと、
     請求項1から9のいずれか1項に記載の制御方法を前記プロセッサに実行させるためのプログラムが格納されたメモリとを備える、
     ロボット。
  12.  歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、
     前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、移動している前記ユーザに同伴して前記ロボットを第1速度で移動させ、
     前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ユーザの移動速度を取得し、
     前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、
     前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、
     算出された前記第1疲労度が第1疲労許容度を超えた場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第1速度から第2速度に落とし、前記第2速度は前記ユーザの移動速度よりも遅い、
     制御方法。
  13.  前記ロボットの移動速度が前記第2速度になった後、前記生体センサーを介して、前記ユーザの前記生体情報の少なくとも1つの第2測定値を取得し、
     前記生体情報の前記少なくとも1つの第2測定値に基づいて、前記ユーザの第2疲労度を算出し、
     算出された前記第2疲労度が前記第1疲労許容度以下、第2疲労許容度以上の範囲内になった場合に、前記アクチュエータを制御して前記ロボットの移動速度を前記第2速度に維持させる、
     請求項12に記載の制御方法。
  14.  歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、
     前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、
     前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、前記位置情報に基づいて、前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させ、
     前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の第1測定値を取得し、
     前記ユーザの前記生体情報の第1測定値が第1閾値よりも低い場合に、前記アクチュエータを制御して、前記間隔を前記第1間隔から第2間隔に拡げる、
     制御方法。
  15.  前記間隔が前記第2間隔である場合に、前記ロボットを前記ユーザに対して先行させる、
     請求項14に記載の制御方法。
  16.  前記間隔が前記第2間隔になった後、前記生体センサーを介して、前記ユーザの前記生体情報の第2測定値を取得し、
     前記ユーザの前記生体情報の前記第2測定値が前記第1閾値以上、第2閾値以下の範囲内になった場合に、前記アクチュエータを制御して前記間隔を前記第2間隔に維持させる、
     請求項14に記載の制御方法。
  17.  前記第1閾値および前記第2閾値は、前記ユーザの運動強度の推奨範囲の下限値および上限値に、それぞれ対応し、
     前記運動強度の推奨範囲は、ボルグスケール、修正ボルグスケール、または、METsを用いた範囲である、
     請求項16に記載の制御方法。
  18.  前記ユーザの運動の実施状況を管理するコンピュータから、前記ユーザが前記歩行または前記走行によって達成すべき運動目標を示す運動目標情報を取得し、
     前記第1閾値、前記第1間隔、及び前記第2間隔の少なくとも1つは、前記運動目標に基づいて決定される、
     請求項14または17に記載の制御方法。
  19.  前記ユーザの属性情報を管理するコンピュータから、前記ユーザの属性を示す属性情報を取得し、前記属性情報は、前記ユーザの年齢、性別、体重、体脂肪率、筋肉量、及び、病歴のうちの少なくとも1つを含み、
     前記第1閾値、前記第1間隔、及び前記第2間隔の少なくとも1つは、前記属性情報に基づいて決定される、
     請求項14から18のいずれか1項に記載の制御方法。
  20.  前記生体センサーは、前記ロボットに搭載されており、
     前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含む、
     請求項14から19のいずれか1項に記載の制御方法。
  21.  前記生体センサーは、前記ユーザが装着しているウェアラブルデバイスに含まれており、
     前記生体情報の前記第1測定値は、前記ウェアラブルデバイスからネットワークを介して取得され、
     前記生体情報は、前記ユーザの心拍数、脈拍数、血圧値、体温、呼吸数、呼吸音、血中酸素濃度、血中乳酸濃度、体水分量、発汗量、活動量、及び、姿勢のうちの少なくとも1つを含む、
     請求項14から19のいずれか1項に記載の制御方法。
  22.  請求項14から21のいずれか1項に記載の制御方法を前記ロボットに搭載されたプロセッサに実行させる、
     プログラム。
  23.  本体と、
     前記少なくとも一対の脚または車輪と、
     前記少なくとも一対の脚または車輪を駆動するアクチュエータと、
     前記少なくとも1つの光学センサーと、
     プロセッサと、
     請求項14から21のいずれか1項に記載の制御方法を前記プロセッサに実行させるためのプログラムが格納されたメモリとを備える、
     ロボット。
  24.  歩行または走行によって移動しているユーザに伴走するロボットの制御方法であって、
     前記ロボットに搭載された少なくとも1つの光学センサーを介して、前記ロボットに対する前記ユーザの位置を示す位置情報を取得し、
     前記ロボットの少なくとも一対の脚または車輪に接続されたアクチュエータを駆動して、前記位置情報に基づいて、前記ユーザと前記ロボットの間の間隔を第1間隔に維持しながら前記ロボットを移動させ、
     前記ユーザの生体情報をモニタする生体センサーを介して、前記ユーザの前記歩行または前記走行による疲労度と相関して変動する前記生体情報の少なくとも1つの第1測定値を取得し、
     前記生体情報の前記少なくとも1つの第1測定値に基づいて、前記ユーザの第1疲労度を算出し、
     算出された前記第1疲労度が第1疲労許容度よりも低い場合に、前記アクチュエータを制御して、前記間隔を前記第1間隔から第2間隔に拡げる、
     制御方法。
  25.  前記間隔が前記第2間隔である場合に、前記ロボットを前記ユーザに対して先行させる、
     請求項24に記載の制御方法。
  26.  前記間隔が前記第2間隔になった後、前記生体センサーを介して、前記ユーザの前記生体情報の少なくとも1つの第2測定値を取得し、
     前記生体情報の前記少なくとも1つの第2測定値に基づいて、前記ユーザの第2疲労度を算出し、
     算出された前記第2疲労度が前記第1疲労許容度以上、第2疲労許容度以下の範囲内になった場合に、前記アクチュエータを制御して前記間隔を前記第2間隔に維持させる、
     請求項24に記載の制御方法。
PCT/JP2022/000566 2021-01-12 2022-01-11 制御方法、プログラム、及びロボット WO2022153977A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-003131 2021-01-12
JP2021003131 2021-01-12

Publications (1)

Publication Number Publication Date
WO2022153977A1 true WO2022153977A1 (ja) 2022-07-21

Family

ID=82448438

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000566 WO2022153977A1 (ja) 2021-01-12 2022-01-11 制御方法、プログラム、及びロボット

Country Status (1)

Country Link
WO (1) WO2022153977A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307658A (ja) * 2007-06-15 2008-12-25 Toyota Motor Corp 自律移動装置
JP2010246676A (ja) * 2009-04-14 2010-11-04 Nec Corp 運動支援システム、運動支援方法およびプログラム
JP2018051138A (ja) * 2016-09-30 2018-04-05 オムロン株式会社 運動インストラクション装置、システム、方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307658A (ja) * 2007-06-15 2008-12-25 Toyota Motor Corp 自律移動装置
JP2010246676A (ja) * 2009-04-14 2010-11-04 Nec Corp 運動支援システム、運動支援方法およびプログラム
JP2018051138A (ja) * 2016-09-30 2018-04-05 オムロン株式会社 運動インストラクション装置、システム、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATSUMOTO, AKIHIRO; LEE, KIM FOON: "1P1-R05 Design and Development of Pace Making Robot for Long-Distance Runners. 1st Report: Design Considerations", PROCEEDINGS OF THE 2014 JSME CONFERENCE ON ROBOTICS AND MECHATRONICS; TOYAMA, JAPAN; MAY 25-29, 2014, 24 May 2014 (2014-05-24) - 29 May 2014 (2014-05-29), pages 1P1 - 1P1-R05(2), XP009538352, DOI: 10.1299/jsmermd.2014._1p1-r05_1 *

Similar Documents

Publication Publication Date Title
US20210005224A1 (en) System and Method for Determining a State of a User
US11287848B2 (en) System and method for enhanced training using a virtual reality environment and bio-signal data
US11382383B2 (en) Smart footwear with wireless charging
US9330239B2 (en) Cloud-based initiation of customized exercise routine
Carrington et al. " But, I don't take steps" Examining the Inaccessibility of Fitness Trackers for Wheelchair Athletes
US8612363B2 (en) Avatar individualized by physical characteristic
US20140085077A1 (en) Sedentary activity management method and apparatus using data from a data-capable band for managing health and wellness
CN104460981A (zh) 基于生物统计参数给出音频
CN108348813A (zh) 用于使用可穿戴活动监测器进行跑步跟踪的系统和方法
KR20150100488A (ko) 미디어 콘텐츠의 자동 일시정지 기능을 갖는 운동 모니터링 시스템
US20220314078A1 (en) Virtual environment workout controls
US20140129008A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
AU2016200450A1 (en) General health and wellness management method and apparatus for a wellness application using data from a data-capable band
Andres et al. Integrated exertion—understanding the design of human–computer integration in an exertion context
Ley-Flores et al. Altering body perception and emotion in physically inactive people through movement sonification
WO2022153977A1 (ja) 制御方法、プログラム、及びロボット
CN204072067U (zh) 使用传感器数据的空间和时间矢量分析的装置
Bashir et al. Comparing a friction-based uni-directional treadmill and a slip-style omni-directional treadmill on first-time HMD-VR user task performance, cybersickness, postural sway, posture angle, ease of use, enjoyment, and effort
Balasubramaniam et al. Drone-Driven Running: Exploring the Opportunities for Drones to Support Running Well-being through a Review of Running and Drone Interaction Technologies
Dietz et al. VRsneaky: Stepping into an audible virtual world with gait-aware auditory feedback
US11942216B2 (en) Method for controlling robot, robot, and non-transitory computer-readable recording medium storing program
US20230241450A1 (en) Workout mat
JP7449463B1 (ja) 歩行補助ウェアラブルデバイス、制御方法、及びプログラム
WO2023204035A1 (ja) エクササイズメニュー管理装置、エクササイズ管理方法およびコンピュータプログラム
Moens D-jogger: An interactive music system for gait synchronisation with applications for sports and rehabilitation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22739384

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22739384

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP