WO2023162159A1 - 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体 - Google Patents

動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023162159A1
WO2023162159A1 PCT/JP2022/007973 JP2022007973W WO2023162159A1 WO 2023162159 A1 WO2023162159 A1 WO 2023162159A1 JP 2022007973 W JP2022007973 W JP 2022007973W WO 2023162159 A1 WO2023162159 A1 WO 2023162159A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
user
data
model
action
Prior art date
Application number
PCT/JP2022/007973
Other languages
English (en)
French (fr)
Inventor
智宏 三輪
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/007973 priority Critical patent/WO2023162159A1/ja
Publication of WO2023162159A1 publication Critical patent/WO2023162159A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities

Definitions

  • the present disclosure relates to a motion generation device, a motion generation system, a motion generation method, and a non-transitory computer-readable medium.
  • Patent Literature 1 discloses a body movement evaluation device that provides evaluation functions for choreography and interludes to users, including singers, in environments such as karaoke.
  • the device identifies the degree of matching of the body motions to the model data from the degree of matching between the model data of the body motions in tune with the music and each of the plurality of body motions acquired at predetermined music playback time intervals. do.
  • the device calculates an evaluation value of the user's body motion using the specified degree of matching corresponding to each of the plurality of model data.
  • a case is assumed in which a predetermined exercise program is provided to users in nursing care facilities, fitness gyms, etc., using the technology disclosed in Patent Document 1. If the user is not able to perform the presented exercise correctly, a trainer such as a trainer guides the user so that the user can perform a motion close to the model motion, and corrects the motion. At this time, if there is a large discrepancy between the presented model motion and the user's own motion, the user's motivation will decrease, making it difficult for the user to continue exercising.
  • an object of the present disclosure is to provide a motion generation device, a motion generation system, a motion generation method, and a non-transitory computer-readable medium capable of presenting an appropriate model motion to a user. to do.
  • a motion generation device includes: Acquisition means for acquiring user motion data indicating a motion of a user performing a predetermined exercise; evaluation means for evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; and generating means for generating data.
  • a motion generation system includes: a motion generator; a terminal device;
  • the motion generator Acquisition means for acquiring user motion data indicating a motion of a user performing a predetermined exercise; evaluation means for evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; generating means for generating data and outputting it to the terminal device;
  • the terminal device It receives the generated data from the motion generator and outputs the model motion corresponding to the generated data.
  • a motion generation method includes: acquiring user motion data indicating a motion of a user performing a predetermined exercise; evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; Generate data.
  • a non-transitory computer-readable medium storing a motion generation program is Acquisition processing for acquiring user motion data indicating a motion of a user performing a predetermined exercise; an evaluation process for evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; a generation process that generates data; run on the computer.
  • a motion generation device capable of presenting an appropriate model motion to the user.
  • FIG. 1 is a block diagram showing the configuration of a motion generation device according to a first embodiment
  • FIG. 2 is a schematic diagram of a motion generation system according to a second embodiment
  • FIG. FIG. 11 is a block diagram showing the configuration of a motion generation system according to a second embodiment
  • FIG. FIG. 10 is a diagram showing an example of data registered in a user information DB according to the second embodiment
  • FIG. 10 is a diagram showing an example of data registered in a model motion DB according to the second embodiment
  • FIG. FIG. 10 is a diagram showing an example of data registered in a user action DB according to the second embodiment
  • FIG. FIG. 10 is a diagram showing an example of data registered in an evaluation result DB according to the second embodiment
  • FIG. 9 is a flowchart showing motion generation processing performed by the motion generation device according to the second embodiment
  • 3 is a block diagram illustrating a hardware configuration
  • FIG. 1 is a block diagram showing the configuration of a motion generator 10 according to this embodiment.
  • the motion generation device 10 includes an acquisition unit 11 , an evaluation unit 12 and a generation unit 13 .
  • the acquisition unit 11 acquires user motion data indicating the motion of the user performing a predetermined exercise.
  • the evaluation unit 12 uses the user action data acquired by the acquisition unit 11 to evaluate the user's actions.
  • the generation unit 13 generates a model motion that serves as a model exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data. Generate generation data that indicates
  • the generation unit 13 generates generated data using a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to these user motion data. to generate As a result, the motion generating device 10 can generate generated data more suitable for the state of the user than, for example, a predetermined model motion registered in advance. Therefore, according to the motion generation device 10 of the present embodiment, it is possible to present an appropriate model motion to the user.
  • Embodiment 2 is a specific example of Embodiment 1 described above. First, with reference to FIG. 2, an overview of a motion generation system 1000 according to this embodiment will be described.
  • FIG. 2 is a schematic diagram of a motion generation system 1000 according to this embodiment.
  • the motion generation system 1000 includes a terminal device 50, a sensor device 60, and a motion generation device 100.
  • the terminal device 50, the sensor device 60, and the motion generating device 100 are connected via a network N, respectively.
  • the network N is a wired or wireless communication line.
  • the motion generation system 1000 is an information processing system that can be used when a user performs a predetermined exercise while viewing a model motion output to the terminal device 50 as a model.
  • Model actions are represented using information such as text, images, or sounds, for example.
  • the motion generation device 100 outputs model motion data for presenting model motions to the terminal device 50 by performing predetermined motion generation processing. For example, the motion generation device 100 outputs model motion data registered in advance to the terminal device 50 when the user exercises for the first time. Further, when there is an evaluation result for the user's past exercise, the motion generation device 100 generates generated data representing a new model motion using the evaluation result, and outputs the generated data to the terminal device 50 .
  • the terminal device 50 receives model motion data or generated data from the motion generation device 100 and outputs model motions corresponding to these data.
  • the terminal device 50 presents the user with a model motion that serves as a model by, for example, outputting video including moving images and audio.
  • the terminal device 50 may present a model action using, for example, a 3D model.
  • the motion generation system 1000 an example in which a user of a nursing care facility executes a predetermined exercise program while viewing model motions output to the terminal device 50 will be used.
  • the predetermined exercise program performed by the user may be simply referred to as "exercise”.
  • the motion generation system 1000 can be applied not only to nursing care facilities, but also to various situations in which users move their bodies while watching a model motion.
  • Motion generation system 1000 may be used, for example, in medical facilities, schools, sports facilities, or residences.
  • the exercise may include dancing and the like, and may include exercise using tools such as sporting goods.
  • the exercise performed by the user includes a plurality of movements, and the sensor device 60 worn by the user detects data related to the movement.
  • the motion generation device 100 receives the detection result from the sensor device 60 , performs predetermined processing, newly generates generation data indicating a model motion suitable for the state of the user, and outputs the generated data to the terminal device 50 .
  • the motion generation system 1000 can present appropriate model motions to the user.
  • FIG. 3 is a block diagram showing the configuration of the action generation system 1000.
  • the motion generation system 1000 includes the terminal device 50 , the sensor device 60 and the motion generation device 100 .
  • the action generation system 1000 also includes a user information DB (DataBase) 70, a model action DB 80, and a user action DB 90.
  • FIG. Although the user information DB 70, the model action DB 80, and the user action DB 90 are shown outside the action generator 100 in FIG. 3, they may be provided in the action generator 100.
  • FIG. 1 is a block diagram showing the configuration of the action generation system 1000.
  • the motion generation system 1000 includes the terminal device 50 , the sensor device 60 and the motion generation device 100 .
  • the illustration of the network N is omitted in FIG.
  • the action generation system 1000 also includes a user information DB (DataBase) 70, a model action DB 80, and a user action DB 90.
  • FIG. Although the user information DB 70, the model action DB 80, and the user action
  • the terminal device 50 is an information terminal used by the user of the motion generation system 1000 .
  • the terminal device 50 may be used by an instructor who instructs the user instead of the user.
  • the terminal device 50 is, for example, a smart phone, a mobile phone terminal, a tablet terminal, or a PC (Personal Computer).
  • the terminal device 50 has an input section 52 and an output section 51 .
  • the input unit 52 is an input device that receives a user's operation.
  • the input unit 52 is, for example, a keyboard or a mouse.
  • the input unit 52 receives input of user information about the user from the user or the like, and stores the received information in the user information DB 70 .
  • the user registers user information in the user information DB 70 via the terminal device 50 before exercising.
  • the user information DB 70 receives and stores the input user information.
  • the user information is, for example, information in which physical information of the user, information on exercise performed by the user, and the like are associated with each other. Physical information may include, for example, the user's height, weight, or gender.
  • FIG. 4 is a diagram showing an example of data registered in the user information DB 70.
  • the user information DB 70 stores information in which a user ID 71, user name 72, gender 73, height 74, weight 75, and exercise ID 76 are associated with each other.
  • the user ID 71 is information that identifies the user.
  • User name 72, gender 73, height 74, and weight 75 are information indicating the user's name, sex, height, and weight, respectively.
  • the exercise ID 76 is information for identifying exercise performed by the user.
  • the exercise ID 76 corresponds to an exercise ID 81 and an exercise ID 93 which will be described later.
  • the exercise ID 76 may be information indicating exercise according to the current situation of the user.
  • the exercise ID 76 may be, for example, information identifying an exercise to be performed by the user, or information identifying an exercise performed last.
  • the input unit 52 receives input of model motion data indicating a model motion that serves as a model for exercise, and stores the received information in the model motion DB 80 .
  • the model motion DB 80 receives information input by the input unit 52 and stores model motion data.
  • a model motion is a motion that can serve as a model for a user's exercise.
  • a model motion may indicate a reference motion in evaluating each motion in the motion generation device 100 .
  • the model motion is used, for example, when the user uses the motion generation system 1000 for the first time, to grasp the user's exercise level.
  • FIG. 5 is a diagram showing an example of data registered in the model motion DB 80.
  • the model motion DB 80 stores information in which motion IDs 81, motion names 82, model motion data 83, and correction values 84 are associated with each other.
  • the exercise ID 81 is information that identifies exercise.
  • the exercise name 82 is information indicating the name of exercise.
  • the model motion data 83 is data relating to motions included in each motion.
  • the model motion data 83 may be information indicated using data detected using the sensor device 60, for example.
  • the model motion data 83 may be, for example, three-dimensional position data and acceleration data of multiple body parts such as the head, shoulders and elbows. Although the head, right shoulder, and left shoulder are shown in FIG. 5 as an example, data related to body parts other than these may be included.
  • Model motion data 83 may include time series data for each body part.
  • the model motion data 83 is, for example, information in which position data and acceleration data of each body part are associated with time-series data. By doing so, the motion generation device 100 can evaluate whether or not the position and acceleration of each body part of the user are changing at an appropriate timing, and evaluate the motion.
  • the correction value 84 is information indicating the correction value for each body part, which is used when the evaluation unit 120 evaluates the user's motion. Details of the correction value 84 will be described later.
  • the model motion DB 80 stores a plurality of model motion data of various exercises.
  • the model motion DB 80 stores model motion data representing, for example, the difficulty level of the exercise and a plurality of exercises mainly involving different parts to be moved. As a result, the user can perform exercise suitable for the individual from a plurality of model motion data according to the state of the body.
  • the model motion DB 80 may store data in various forms such as moving images and 3D models as the model motion data 83 .
  • the output unit 51 is an output device that outputs the model motion data or the model motion corresponding to the generated data output from the motion generation device 100 .
  • the output unit 51 is, for example, a display device such as a display device that displays model motions.
  • the output unit 51 is configured to be capable of outputting data in various forms such as moving images and 3D models.
  • the output unit 51 may include a speaker or the like that outputs audio information.
  • the motion generation device 100 acquires model motion data from the model motion DB 80 and outputs it to the terminal device 50 .
  • the output unit 51 outputs a motion corresponding to the model motion data received from the motion generation device 100 .
  • the user can exercise while viewing the model motion output to the output unit 51 .
  • output unit 51 and the input unit 52 may be configured integrally using a touch panel or the like that can be operated by being touched by the user's finger or the like.
  • the sensor device 60 is a device that detects user action data that indicates user actions.
  • the sensor device 60 detects user motion data corresponding to motions of a plurality of body parts of the user who is exercising.
  • the sensor device 60 is, for example, an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, or a pressure sensor.
  • the sensor device 60 is not limited to these, and may be another sensor.
  • User action data is, for example, information such as acceleration, angular velocity, geomagnetism, or pressure detected by the sensor device 60 .
  • the user action data is not limited to these, and may include various data detected by the sensor device 60 .
  • the sensor device 60 may be a sensor having two or more functions among the sensors described above.
  • the sensor device 60 may be a motion sensor including an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • the sensor device 60 is worn on the user's body.
  • a case where a plurality of sensor devices 60 are attached to each of a plurality of body parts such as the user's head and shoulders will be described.
  • the sensor device 60 detects user motion data corresponding to each body part.
  • the sensor device 60 stores the detection result in the user action DB 90 together with date and time information.
  • the sensor device 60 stores time-series data such as three-dimensional position data and acceleration data of multiple body parts such as the head, shoulders, and elbows in the user motion DB 90 as user motion data.
  • FIG. 6 is a diagram showing an example of data registered in the user action DB 90.
  • the user action DB 90 can include action data ID 91 , user ID 92 , exercise ID 93 , registration date/time 94 , and user action data 95 .
  • the action data ID 91 is information for identifying user action data.
  • the motion data ID 91 corresponds to the motion data ID 151 described later.
  • the user ID 92 is information identifying the user who performed the action.
  • the exercise ID 93 is information identifying the exercise performed by the user.
  • the registration date and time 94 is information indicating the registration date and time of the user action data.
  • the user action data 95 is information indicating user action data relating to user actions.
  • the user action data 95 may be information indicated using data detected using the sensor device 60, for example.
  • the user motion data 95 is, for example, information in which three-dimensional position data and acceleration data of a plurality of body parts such as the head, shoulders, and elbows are associated with time-series data.
  • FIG. 6 shows the head, right shoulder, and left shoulder as an example, the present invention is not limited to these.
  • the motion generator 100 includes an acquisition unit 110, an evaluation unit 120, a generation unit 130, and an evaluation result DB 150.
  • FIG. 1 the motion generator 100 includes an acquisition unit 110, an evaluation unit 120, a generation unit 130, and an evaluation result DB 150.
  • the acquisition unit 110 is an example of the acquisition unit 11 described above. Acquisition unit 110 acquires user motion data indicating a motion of a user performing a predetermined exercise. The user action data is stored in the user action DB 90 as user action data 95 corresponding to actions of a plurality of body parts of the user. The acquisition unit 110 acquires user action data stored in the user action DB 90 and outputs the data to the evaluation unit 120 .
  • the evaluation unit 120 is an example of the evaluation unit 12 described above.
  • the evaluation unit 120 uses the user action data acquired by the acquisition unit 110 to evaluate the user's actions. For example, the evaluation unit 120 evaluates the user's action using user action data and model action data performed by the user.
  • the terminal device 50 receives from the motion generation device 100 one of the plurality of model motion data stored in the model motion DB 80, and outputs the corresponding model motion.
  • the user exercises while watching the output model motion.
  • the evaluation unit 120 evaluates the user's action by comparing the user's action data and the model action data.
  • the terminal device 50 transmits generated data newly generated based on the evaluation result to the motion generation device 100. receive from The terminal device 50 outputs the model behavior corresponding to the received generated data. The user exercises while watching the output model motion.
  • the evaluation unit 120 evaluates the user's action by comparing the user's action data with the generated data. Note that the evaluation unit 120 may perform evaluation using the user action data and the model action data from which the generated data is based.
  • the acquisition unit 110 acquires user action data for each body part of the user from the user action DB 90 .
  • the evaluation unit 120 can evaluate the motion using the user motion data for each body part acquired by the acquisition unit 110 .
  • the user inputs identification information for identifying the user to the motion generation device 100 via the terminal device 50 .
  • the action generator 100 accepts this and identifies the user.
  • the user may, for example, input the user ID via the input unit 52, or use the motion generation device 100 by having the user ID on which the user ID is written be read using a reader or the like. You may enter the person ID.
  • the motion generation device 100 may, for example, authenticate the user from a photographed image of the user using face authentication or the like, and specify the user in response to successful authentication.
  • the motion generation device 100 identifies model motions to be presented to the user. For example, the motion generation device 100 may specify a predetermined model motion for a user who is exercising for the first time, or accept an input from the terminal device 50 and specify a desired model motion of the user or the like. may Also, the motion generating device 100 may specify a model motion to be presented to the user from information in the user information DB 70 associated with the user. The motion generation device 100 acquires model motion data corresponding to the specified model motion from the model motion DB 80 and outputs the model motion data to the terminal device 50 .
  • the user wears the sensor device 60 and exercises while watching the model motion output to the terminal device 50 .
  • the sensor device 60 detects user motion data corresponding to each of a plurality of body parts of the user as time-series data.
  • the sensor device 60 measures data corresponding to the motion from the start to the end of the exercise, and registers the user motion data in the user motion DB 90 .
  • the acquisition unit 110 acquires it and outputs it to the evaluation unit 120 .
  • the evaluation unit 120 evaluates the user's motion using the registered user's motion data and the model motion data of the exercise performed by the user. Specifically, first, the evaluation unit 120 refers to the user information DB 70 and acquires the physical information of the user. Based on the acquired physical information, the evaluation unit 120 appropriately corrects the user motion data so that it can be compared with the model motion data. For example, the evaluation unit 120 corrects the position data and acceleration data of each body part included in the model motion data according to the height and weight of the user. Thereby, the evaluation unit 120 can perform evaluation according to the user's physique and the like.
  • the evaluation unit 120 obtains the difference of the time-series data for each body part, and calculates the integral value.
  • the evaluation unit 120 sums the integrated values of each body part to calculate the total value.
  • the total value represents the difference between the user motion data and the model motion data in the exercise performed by the user. Therefore, the evaluation unit 120 can express the evaluation result of the user's motion based on the magnitude of the total value. As the total value is smaller, it can be said that the user performed a motion closer to the model motion, and thus the user's motion is highly evaluated. Also, the larger the total value, the lower the evaluation of the user's motion because it can be said that the user performed a motion different from the model motion.
  • the evaluation unit 120 calculates an integral value from the difference of each body part and evaluates the user's motion using the total value, but the method is not limited to this.
  • the evaluator 120 may evaluate the motion using other methods.
  • the evaluation unit 120 registers the evaluation result in the evaluation result DB 150 with the calculated total value as the final evaluation of the user's action.
  • the evaluation result DB 150 receives evaluation results from the evaluation unit 120 and stores the evaluation results in association with user IDs and the like.
  • the evaluation result can be used when the generating unit 130 generates generated data for the user's subsequent exercise. Also, the evaluation unit 120 may output the evaluation result to the terminal device 50 . As a result, the user can grasp the evaluation result of the exercise, which leads to improvement of motivation.
  • FIG. 7 is a diagram showing an example of data registered in the evaluation result DB 150.
  • the evaluation result DB 150 stores information in which action data ID 151, evaluation result data 152, and total value 153 are associated with each other.
  • the action data ID 151 is information for identifying user action data.
  • the evaluation result data 152 is obtained by obtaining the difference between the user action data and the model action data and calculating the integral value thereof.
  • Assessment result data 152 may be determined for each of a plurality of body parts as shown.
  • the total value 153 is information indicating the total of the evaluation result data 152 . As described above, the total value 153 indicates the evaluation result of the user's actions.
  • the evaluation result DB 150 stores evaluation result data 152 obtained from the difference between the user's motion and the model motion for each of a plurality of body parts, and the total value 153 obtained by summing them, in association with the motion data ID 151. .
  • the action data ID151 corresponds to the action data ID91.
  • the evaluation unit 120 can register the evaluation result of the action of each user in the evaluation result DB 150 via the action data ID 151 .
  • the evaluation unit 120 may evaluate the user's motion taking into consideration the amount of motion of the body part assumed in the exercise. Specifically, the evaluation unit 120 corrects the integral value by multiplying the integral value of each body part by a predetermined correction value. The evaluation unit 120 sums the corrected integrated values to calculate the total value described above. The evaluation unit 120 can use the correction value 84 shown in FIG. 5 as the correction value. The correction value 84 is set so as to correspond to each of the model motion data 83 of a plurality of body parts according to the type of exercise to be evaluated.
  • the evaluation unit 120 can perform evaluation with higher validity.
  • the correction value of the "head correction value” indicated by the correction value 84 is set to "0.0". Therefore, when performing “Exercise C”, even if the motion of the user's head and the motion of the model do not match, it does not affect the evaluation result in the evaluation unit 120 .
  • the evaluation unit 120 can weight the evaluation of the motion of a predetermined part according to the type of exercise.
  • the processing performed by the evaluation unit 120 has been described by taking as an example the case where the user is exercising for the first time. If the user has exercised in the past and exercised while viewing the generated data generated by the generation unit 130, the evaluation unit 120 uses the generated data instead of the above-described model motion data for evaluation. I do. Alternatively, the evaluation unit 120 may perform evaluation using model motion data that is the source of generated data.
  • the number of motion data to be evaluated by the evaluation unit 120 is not limited to one.
  • the evaluation unit 120 may perform evaluation using the plurality of pieces of user action data and model action data.
  • the evaluation unit 120 may perform evaluation using user motion data of the previous time, the time before last, . This allows the user to grasp changes in evaluation according to the number of times of exercise.
  • the data used by the evaluation unit 120 for evaluation is not limited to user action data and model action data.
  • the evaluation unit 120 may perform evaluation using the user action data of the same user or the action data of a plurality of other users as long as the user action data is acquired when the same exercise is performed. good.
  • the evaluation unit 120 may perform evaluation using the user action data of the current exercise and the user action data of the previous exercise.
  • the evaluation unit 120 may give a high evaluation when the user's motion becomes large even when the difference from the model motion data becomes large. This can improve the user's motivation. Similar effects can also be obtained by having the evaluation unit 120 perform evaluation using motion data of other users.
  • the generator 130 is an example of the generator 13 described above.
  • the generation unit 130 automatically generates a new model motion based on the evaluation result output from the evaluation unit 120 .
  • the generation unit 130 generates a model motion that serves as a model exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to the plurality of user motion data.
  • Generate new generation data indicating
  • the generation unit 130 identifies corresponding image frames in two pieces of motion data and generates a frame interpolating between the identified image frames to generate one piece of motion data from a plurality of pieces of motion data. For example, the generation unit 130 newly generates motion data that interpolates between the user motion data of a user who exercises and the user motion data of another user. Thereby, the generation unit 130 can newly generate generation data indicating the model behavior.
  • the generation unit 130 identifies the exercise that the user intends to do by, for example, having the user input the type of exercise and the exercise ID.
  • the generator 130 identifies the exercise to be performed using the exercise ID.
  • the generation unit 130 refers to the evaluation result DB 150 and determines whether or not there is a past evaluation result for the exercise to be performed.
  • the evaluation result DB 150 does not contain the user's past evaluation results.
  • the generating unit 130 refers to the model motion DB 80 to obtain model motion data that serves as a model for the user's exercise.
  • the generation unit 130 acquires the evaluation results of the user. If there are multiple past evaluation results, the generation unit 130 acquires the most recent evaluation result. In addition, below, the exercise
  • the generation unit 130 acquires a plurality of user action data acquired from a plurality of users who have exercised, and a plurality of evaluation results corresponding to the plurality of user action data.
  • the generation unit 130 acquires information from the user action DB 90 and the evaluation result DB 150 based on the specified exercise ID.
  • the generation unit 130 automatically generates generation data based on the obtained plurality of user action data and the plurality of evaluation results corresponding to the plurality of user action data.
  • the generation unit 130 classifies the users into a plurality of groups based on these multiple evaluation results, and generates generation data according to the group to which the user who intends to exercise belongs. For example, the generating unit 130 generates generated data using motion data of other users belonging to a group with a higher motion evaluation.
  • the generation unit 130 creates a ranking representing the level of evaluation based on the evaluation results of multiple users.
  • the generation unit 130 may create the ranking by adding user information such as gender in addition to the evaluation results.
  • the generation unit 130 divides the created ranking into a plurality of groups in order from the top.
  • the generation unit 130 divides the created ranking into groups of 10% from the top.
  • the generation unit 130 can classify the users into a plurality of groups according to the evaluation results.
  • the generation unit 130 identifies a group one level higher than the group to which the evaluation result of the user's previous action belongs. For example, if the user belongs to the top 30-40% group, the generation unit 130 identifies the top 20-30% group.
  • the generation unit 130 extracts arbitrary user action data belonging to the top 20% to 30% group from the user action DB 90 .
  • generation unit 130 extracts a plurality of pieces of user action data, but may extract one piece of user action data.
  • the generation unit 130 averages the time-series data of each body part in a plurality of user motion data, and newly generates generated data representing a model motion. By averaging a plurality of pieces of user action data in this manner, the generating unit 130 can generate generated data that suppresses the influence of specific actions included for each user.
  • the generation unit 130 outputs the generated data to the terminal device 50 .
  • the terminal device 50 can present the user with an exercise that matches the state of the user using a moving image, a 3D model, or the like.
  • the terminal device 50 displays the model behavior corresponding to the generated data on, for example, a display. The user can exercise while watching the displayed model motion.
  • the generation unit 130 has identified a group one rank higher, but it may also identify a group with two or more different ranks. Also, here, the generation unit 130 identifies a group with a higher evaluation than the group to which the user belongs, but it may also identify a group with the same rank, or select a group with a lower rank according to the state of the user. may be specified. For example, the generation unit 130 may identify a group lower than the group to which the user belongs, according to the type of exercise the user is going to do, the physical condition of the user, or the site of injury. Moreover, the generation unit 130 may receive input from the user or the instructor and identify the group selected by the user or the instructor.
  • the generating unit 130 extracts the motion data of an arbitrary user and generates the generated data using the average of the extracted data, but the present invention is not limited to this.
  • the generation unit 130 may extract the user's motion data selected by the user or the like. Further, the generation unit 130 may generate generated data further using a model motion registered in advance in the model motion DB 80 .
  • the generation unit 130 may extract users from the same group as the user and from groups different from the user, and extract a plurality of pieces of user action data.
  • the generator 130 may extract user action data using a plurality of conditions.
  • the generation unit 130 may extract user action data by adding user information in addition to the action evaluation result.
  • the generation unit 130 may refer to the user information DB 70 and extract user action data of users having similar user information.
  • the generation unit 130 may extract user motion data by taking into consideration conditions such as the type of exercise, motions that use a lot of specific parts, motions that the user is not good at, and motions that the user is good at. good. In this way, by extracting motion data under a plurality of conditions and generating a plurality of pieces of generated data, the generating unit 130 can generate generated data more suited to the state of the user.
  • the generator 130 may generate a plurality of pieces of generated data.
  • the generation unit 130 may refer to the user information DB 70 , generate a plurality of pieces of generation data in descending order of similarity of user information, and output the generated data to the terminal device 50 .
  • the generation unit 130 may extract a plurality of motion data from a plurality of groups, or may extract a plurality of motion data of users belonging to the same group.
  • the generation unit 130 may extract user action data using a method other than ranking or grouping. Further, the generation unit 130 may register newly generated generation data in the model action DB 80 as model action data.
  • the generation unit 130 generated the generated data using the evaluation result of the previous exercise, but it is not limited to this. If there is motion data of the user before last, the generation unit 130 may use this to generate generation data. The generator 130 may generate generated data using previous motion data.
  • Data may be generated using only motion data of only the user who intends to exercise.
  • the action generation system 1000 may be configured using a device or the like in which multiple configurations are aggregated. For example, some or all of the functions of the terminal device 50, the sensor device 60, the user information DB 70, the model motion DB 80, the user motion DB 90, and the motion generating device 100 may be integrated into the same device.
  • each functional unit in the motion generation system 1000 may be processed in a distributed manner using a plurality of devices.
  • the acquisition unit 110, the evaluation unit 120, the generation unit 130, and the evaluation result DB 150 in the action generation device 100 may be configured using a plurality of devices.
  • FIG. 3 shows the evaluation result DB 150 inside the motion generation device 100
  • the evaluation result DB 150 may be provided outside the motion generation device 100 .
  • FIG. 8 is a flowchart showing a motion generation process performed by the motion generation device 100.
  • the user or the instructor has previously registered information such as the user information DB 70 in the predetermined database described above.
  • the motion generation device 100 accepts the user's intention to start exercising via the terminal device 50 .
  • the motion generation device 100 displays a message such as "Do you want to start exercising?" Accept to start.
  • the motion generation device 100 receives input such as a user ID and identifies a user who exercises.
  • the motion generation device 100 may authenticate the user using face authentication or the like, and identify the user in response to successful authentication.
  • the generation unit 130 determines whether or not the evaluation result of the user's motion data registered in the past exists in the evaluation result DB 150 (S2). If there is no evaluation result of past action data in the evaluation result DB 150 (NO in S2), the generation unit 130 acquires model action data registered in advance in the model action DB 80, and outputs it to the terminal device 50 (S3 ). Thereby, the terminal device 50 presents the model motion to the user by outputting the registered model motion to the output unit 51 .
  • the generation unit 130 automatically generates generation data representing a new model motion based on the evaluation results, and the terminal device 50 (S4).
  • the generation unit 130 may generate generation data using the evaluation result of the user himself/herself, or extract arbitrary user movement data from the user movement DB 90 and automatically generate a new model movement using them. You may
  • the generating unit 130 generates generated data using the evaluation results of multiple users. For example, the generation unit 130 creates a ranking indicating the level of evaluation results based on the evaluation results of a plurality of users.
  • the generation unit 130 classifies users into a plurality of groups in descending order of ranking.
  • the generation unit 130 identifies a group one level higher than the group to which the user who started exercising belongs, and extracts arbitrary user action data belonging to the group from the user action DB 90 .
  • the generation unit 130 averages the time-series data of each body part in a plurality of pieces of user motion data, generates new generated data, and outputs the generated data to the terminal device 50 .
  • the user performs the exercise of the model motion output to the terminal device 50 (S5).
  • the sensor device 60 detects the motion of each body part of the user and stores time-series data for each body part in the user motion DB 90 .
  • the acquisition unit 110 acquires user action data stored in the user action DB 90 (S6).
  • the evaluation unit 120 evaluates the action using the acquired user action data (S7).
  • the evaluation unit 120 evaluates the motion using motion data for each body part.
  • the evaluation unit 120 obtains a difference in time-series data for each body part, and calculates an integral value thereof.
  • the evaluation unit 120 sums up the integral values to calculate a total value.
  • the total value indicates the evaluation result.
  • the evaluation unit 120 may evaluate the motion in consideration of the motion amount of the body part assumed in the motion.
  • the evaluation unit 120 corrects the integral value by multiplying the integral value of each body part by a predetermined correction value.
  • the evaluation unit 120 calculates the total value using the corrected integrated value.
  • the evaluation unit 120 registers the evaluation result in the evaluation result DB 150 (S8).
  • the evaluation result can be used for processing in the generation unit 130 during subsequent exercise.
  • the evaluation result can also be used when other users exercise.
  • the motion generation device 100 determines whether the user will exercise again (S9). For example, the motion generation device 100 causes the output unit 51 to display a message such as “Would you like to exercise again?” judge.
  • the motion generation device 100 When it is determined that the user will exercise again (YES in S9), the motion generation device 100 returns to the process of step S1 and repeats the subsequent processes. If it is determined that the user will not exercise again (NO in S9), the motion generation device 100 ends the process.
  • the acquisition unit 110 acquires motion data representing the motion of the user performing a predetermined exercise for each body part.
  • the evaluation unit 120 evaluates the user's motion using the motion data for each body part.
  • the evaluation unit 120 can evaluate the motion taking into consideration the motion amount of the body part assumed in the motion.
  • the generation unit 130 generates data representing a model motion that serves as a model exercise based on a plurality of motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of motion data. to generate For example, the generation unit 130 creates a ranking based on the evaluation results of a plurality of users, and identifies the group to which the user who exercises belongs. The generating unit 130 generates generated data using motion data of users belonging to groups with higher motion evaluations.
  • the action generation system 1000 uses the evaluation result of the user's previous action data and the action data of a plurality of other users to determine the degree of difficulty that the user can perform. New model behavior can be presented. Since the motion generation system 1000 can present a new model motion with an appropriate level of difficulty for the user, the user can easily continue exercising. As a result, in fitness at home or the like, even if the instructor is not there, it is possible to automatically provide exercise that matches the condition of the user.
  • the motion generation system 1000 can automatically generate a plurality of model motions with different degrees of difficulty from a plurality of user motion data for one model motion. As a result, even when a plurality of users are exercising in a nursing facility or the like, it is possible to present model motions suitable for each individual user.
  • a new model motion can be generated from motions of a plurality of users, and a motion with a higher evaluation can be presented as a model, so that the user's motivation for exercising can be improved.
  • Each functional configuration unit in the motion generation device 100 and the like may be implemented by hardware (eg, hardwired electronic circuit, etc.) that implements each functional configuration unit, or may be implemented by a combination of hardware and software (eg, : a combination of an electronic circuit and a program that controls it, etc.).
  • hardware e.g, hardwired electronic circuit, etc.
  • software e.g, : a combination of an electronic circuit and a program that controls it, etc.
  • FIG. 9 is a block diagram illustrating the hardware configuration of a computer 900 that implements the motion generator 100 and the like.
  • the computer 900 may be a dedicated computer designed to implement the motion generator 100 or the like, or may be a general-purpose computer.
  • the computer 900 may be a portable computer such as a smart phone or a tablet terminal.
  • the computer 900 implements each function of the motion generator 100 and the like.
  • the application is configured by a program for realizing the functional components of the motion generator 100 and the like.
  • Computer 900 has bus 902 , processor 904 , memory 906 , storage device 908 , input/output interface 910 and network interface 912 .
  • a bus 902 is a data transmission path for the processor 904, memory 906, storage device 908, input/output interface 910, and network interface 912 to transmit and receive data to and from each other.
  • the method of connecting the processors 904 and the like to each other is not limited to bus connection.
  • the processor 904 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 906 is a main memory implemented using a RAM (Random Access Memory) or the like.
  • the storage device 908 is an auxiliary storage device implemented using a hard disk, SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the input/output interface 910 is an interface for connecting the computer 900 and input/output devices.
  • the input/output interface 910 is connected to an input device such as a keyboard and an output device such as a display device.
  • a network interface 912 is an interface for connecting the computer 900 to a network.
  • This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the storage device 908 stores a program (a program for realizing the above-described application) that implements each functional component of the motion generator 100 and the like.
  • the processor 904 reads this program into the memory 906 and executes it, thereby implementing each functional component of the motion generator 100 and the like.
  • Each of the processors executes one or more programs containing instructions for causing the computer to execute the algorithms described using the drawings.
  • This program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored on various types of non-transitory computer readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs - ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted over various types of transitory computer readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • the motion generation system 1000 may be configured, for example, to photograph a user during exercise with a camera or the like and acquire user motion data from the photographed image.
  • (Appendix 1) Acquisition means for acquiring user motion data indicating a motion of a user performing a predetermined exercise; evaluation means for evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; a generating means for generating data; and an action generator.
  • the acquiring means acquires the user motion data corresponding to each of motions of a plurality of body parts of the user, The action generation device according to appendix 1, wherein the evaluation means evaluates the action using the user action data corresponding to each of the plurality of body parts.
  • (Appendix 6) a motion generator; a terminal device;
  • the motion generator Acquisition means for acquiring user motion data indicating a motion of a user performing a predetermined exercise; evaluation means for evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; generating means for generating data and outputting it to the terminal device;
  • the terminal device A motion generation system that receives the generated data from the motion generator and outputs the model motion corresponding to the generated data.
  • the acquiring means acquires the user motion data corresponding to each of motions of a plurality of body parts of the user, 7.
  • the action generation system according to appendix 6, wherein the evaluation means evaluates the action using the user action data corresponding to each of the plurality of body parts.
  • (Appendix 8) acquiring user motion data indicating a motion of a user performing a predetermined exercise; evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; Generating Data Behavior generation method.
  • Acquiring the user action data includes acquiring the user action data corresponding to each of the actions of a plurality of body parts of the user; 9. The motion generation method according to appendix 8, wherein in the motion evaluation, the motion is evaluated using the user motion data corresponding to each of the plurality of body parts.
  • (Appendix 10) Acquisition processing for acquiring user motion data indicating a motion of a user performing a predetermined exercise; an evaluation process for evaluating the action using the user action data; generating a model motion that serves as a model for the exercise based on a plurality of user motion data acquired from a plurality of users and a plurality of evaluation results corresponding to each of the plurality of user motion data; a generation process that generates data;
  • the acquisition process the user motion data corresponding to motions of a plurality of body parts of the user are acquired, 11.
  • the computer-readable medium of Claim 10 wherein in the evaluation process, the action is evaluated using the user action data corresponding to each of the plurality of body parts.
  • Motion generation device 11 Acquisition unit 12 Evaluation unit 13 Generation unit 50 Terminal device 51 Output unit 52 Input unit 60 Sensor device 70 User information DB 71 User ID 72 User name 73 Gender 74 Height 75 Weight 76 Exercise ID 80 Model operation DB 81 Exercise ID 82 Exercise name 83 Model movement data 84 Correction value 90 User movement DB 91 Operation data ID 92 User ID 93 Exercise ID 94 Registration date and time 95 User action data 100 Action generation device 110 Acquisition unit 120 Evaluation unit 130 Generation unit 150 Evaluation result DB 151 motion data ID 152 evaluation result data 153 total value 900 computer 902 bus 904 processor 906 memory 908 storage device 910 input/output interface 912 network interface 1000 motion generating system N network

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

利用者に対して適切なモデル動作を提示することが可能な動作生成装置を提供することを目的とする。本開示にかかる動作生成装置(10)は、所定の運動を行う利用者の動作を示す利用者動作データを取得する取得部(11)と、利用者動作データを用いて動作を評価する評価部(12)と、複数の利用者から取得された複数の利用者動作データと、複数の利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて運動の手本となるモデル動作を示す生成データを生成する生成部(13)と、を備える。

Description

動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体
 本開示は、動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体に関する。
 近年、介護やヘルスケアなどの分野において、運動の手本となるモデル動作をディスプレイなどに提示し、利用者にそのモデル動作のまねをさせることで、利用者の運動の実施を支援するサービスが知られている。
 関連する技術として、例えば、特許文献1は、カラオケなどの環境において、歌唱者を含めたユーザに対して、振付及び合いの手などに対する評価機能を提供する身体動作評価装置を開示する。当該装置は、楽曲に合わせた身体の動作の手本データと、所定の楽曲再生時間間隔において取得された複数の身体動作の各々との一致度から、手本データに対する身体動作の一致度を特定する。また、当該装置は、複数の手本データの各々に対応する特定された一致度を用いて、ユーザの身体動作の評価値を算出する。
特開2014-217627号公報
 特許文献1が開示するような技術を用いて、介護施設やフィットネスジムなどにおいて、利用者に対して所定の運動プログラムを提供する場合を想定する。利用者が提示された運動を正しく実施できていない場合、トレーナーなどの指導者は、モデル動作に近い動作ができるよう利用者を指導し、動作を修正する。このとき、提示されたモデル動作と利用者自身が行う動作とが大きく乖離していた場合、利用者のモチベーションが低下してしまい、運動を継続することが難しくなる。
 本開示の目的は、上述した課題を鑑み、利用者に対して適切なモデル動作を提示することが可能な動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体を提供することにある。
 本開示にかかる動作生成装置は、
 所定の運動を行う利用者の動作を示す利用者動作データを取得する取得手段と、
 前記利用者動作データを用いて前記動作を評価する評価手段と、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する生成手段と、を備える。
 本開示にかかる動作生成システムは、
 動作生成装置と、
 端末装置と、を備え、
 前記動作生成装置は、
 所定の運動を行う利用者の動作を示す利用者動作データを取得する取得手段と、
 前記利用者動作データを用いて前記動作を評価する評価手段と、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成して前記端末装置に出力する生成手段と、を有し、
 前記端末装置は、
 前記動作生成装置から前記生成データを受け取り、前記生成データに対応する前記モデル動作を出力する。
 本開示にかかる動作生成方法は、
 所定の運動を行う利用者の動作を示す利用者動作データを取得し、
 前記利用者動作データを用いて前記動作を評価し、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する。
 本開示にかかる動作生成プログラムが格納された非一時的なコンピュータ可読媒体は、
 所定の運動を行う利用者の動作を示す利用者動作データを取得する取得処理と、
 前記利用者動作データを用いて前記動作を評価する評価処理と、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する生成処理と、
 をコンピュータに実行させる。
 本開示により、利用者に対して適切なモデル動作を提示することが可能な動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体を提供することができる。
実施形態1にかかる動作生成装置の構成を示すブロック図である。 実施形態2にかかる動作生成システムの概要図である。 実施形態2にかかる動作生成システムの構成を示すブロック図である。 実施形態2にかかる利用者情報DBに登録されるデータの一例を示す図である。 実施形態2にかかるモデル動作DBに登録されるデータの一例を示す図である。 実施形態2にかかる利用者動作DBに登録されるデータの一例を示す図である。 実施形態2にかかる評価結果DBに登録されるデータの一例を示す図である。 実施形態2にかかる動作生成装置が行う動作生成処理を示すフローチャートである。 ハードウエア構成を例示するブロック図である。
<実施形態1>
 以下、図面を参照して本開示の実施形態について説明する。まず、図1を参照して実施形態1にかかる動作生成装置10の構成について説明する。図1は、本実施形態にかかる動作生成装置10の構成を示すブロック図である。動作生成装置10は、取得部11、評価部12、及び生成部13を備えている。
 取得部11は、所定の運動を行う利用者の動作を示す利用者動作データを取得する。評価部12は、取得部11で取得された利用者動作データを用いて、利用者の動作を評価する。生成部13は、複数の利用者から取得された複数の利用者動作データと、複数の利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて、運動の手本となるモデル動作を示す生成データを生成する。
 このように、動作生成装置10では、生成部13において、複数の利用者から取得された複数の利用者動作データと、これらの利用者動作データに対応する複数の評価結果とを用いて生成データを生成する。これにより、動作生成装置10は、例えば、予め登録された所定のモデル動作と比べて、利用者の状態により適した生成データを生成することができる。したがって、本実施形態にかかる動作生成装置10によれば、利用者に対して適切なモデル動作を提示することができる。
<実施形態2>
 実施形態2は、上述した実施形態1の具体例である。まず、図2を参照して、本実施形態にかかる動作生成システム1000の概要を説明する。図2は、本実施形態にかかる動作生成システム1000の概要図である。
 図2に示されるように、動作生成システム1000は、端末装置50、センサ装置60、及び動作生成装置100を備えている。端末装置50、センサ装置60、及び動作生成装置100のそれぞれは、ネットワークNを介して接続されている。ここで、ネットワークNは、有線又は無線の通信回線である。
 動作生成システム1000は、端末装置50に出力された手本となるモデル動作を見ながら、利用者が所定の運動を行う場合に用いられ得る情報処理システムである。モデル動作は、例えば、文字、画像、又は音声などの情報を用いて表される。
 動作生成装置100は、所定の動作生成処理を行うことで、モデル動作を提示するためのモデル動作データを端末装置50に出力する。例えば、動作生成装置100は、利用者が初めて運動を行う場合、予め登録されたモデル動作データを端末装置50に出力する。また、動作生成装置100は、利用者の過去の運動に対する評価結果が存在する場合、当該評価結果を用いて新たなモデル動作を示す生成データを生成し、端末装置50に出力する。
 端末装置50は、動作生成装置100からモデル動作データ又は生成データを受け取り、これらのデータに対応するモデル動作を出力する。端末装置50は、例えば、動画像及び音声を含む映像を出力することで、手本となるモデル動作を利用者に提示する。端末装置50は、例えば、3Dモデルなどを用いてモデル動作を提示してもよい。
 本実施形態では、動作生成システム1000の一例として、介護施設において、施設の利用者が端末装置50に出力されたモデル動作を見ながら、所定の運動プログラムを行う例を用いて説明を行う。なお、以下の説明では、利用者が行う所定の運動プログラムを単に「運動」と称して説明する場合がある。
 動作生成システム1000は、介護施設に限らず、手本となる動作を見て、利用者が体を動かす種々の場面において適用され得る。動作生成システム1000は、例えば、医療施設、学校、スポーツ施設、又は住居などで用いられてもよい。運動には、踊りなどが含まれてもよいし、スポーツ用品などの道具を用いた運動が含まれてもよい。
 利用者が行う運動は、複数の動作を含み、利用者に装着されたセンサ装置60が動作に関するデータを検出する。動作生成装置100は、センサ装置60から検出結果を受け取り、所定の処理を行い、利用者の状態に適したモデル動作を示す生成データを新たに生成し、端末装置50に出力する。このような構成により、動作生成システム1000は、利用者に対して適切なモデル動作を提示することができる。
 続いて、図3を参照して動作生成システム1000の構成について詳細に説明する。図3は、動作生成システム1000の構成を示すブロック図である。上述したように、動作生成システム1000は、端末装置50、センサ装置60、及び動作生成装置100を備えている。なお、図3では、ネットワークNの図示を省略している。また、動作生成システム1000は、利用者情報DB(DataBase)70、モデル動作DB80、及び利用者動作DB90を備えている。なお、図3では、利用者情報DB70、モデル動作DB80、及び利用者動作DB90を動作生成装置100の外部に示しているが、これらは動作生成装置100に設けられてもよい。
 初めに、端末装置50について説明する。端末装置50は、動作生成システム1000の利用者が使用する情報端末である。なお、利用者に代わり、利用者に対して指導を行う指導者が端末装置50を使用してもよい。端末装置50は、例えば、スマートフォン、携帯電話端末、タブレット端末、又はPC(Personal Computer)等である。
 端末装置50は、入力部52及び出力部51を備えている。入力部52は、利用者の操作を受け付ける入力装置である。入力部52は、例えば、キーボードやマウスなどである。入力部52は、例えば、利用者に関する利用者情報の入力を利用者等から受け付けて、受け付けた情報を利用者情報DB70に格納する。
 本実施形態において、利用者は、運動を実施する前に、端末装置50を介して利用者情報を利用者情報DB70に登録する。利用者情報DB70は、入力された利用者情報を受け付けて格納する。利用者情報は、例えば利用者の身体情報や、利用者が行う運動の情報などを対応付けた情報である。身体情報は、例えば、利用者の身長、体重、又は性別などを含み得る。
 ここで、図4を参照して、利用者情報DB70について説明する。図4は、利用者情報DB70に登録されるデータの一例を示す図である。利用者情報DB70は、利用者ID71、利用者名72、性別73、身長74、体重75、及び運動ID76を対応付けた情報を格納する。
 利用者ID71は、利用者を識別する情報である。利用者名72、性別73、身長74、及び体重75は、それぞれ利用者の氏名、性別、身長、及び体重を示す情報である。運動ID76は、利用者が行う運動を識別する情報である。運動ID76は、後述する運動ID81及び運動ID93と対応している。例えば、運動ID76は、現在時点の利用者の状況に応じた運動を示す情報であってよい。運動ID76は、例えば、利用者がこれから行う運動を識別する情報であってもよいし、最後に行った運動を識別する情報であってもよい。
 図3に戻り、引き続き入力部52について説明を続ける。入力部52は、運動の手本となるモデル動作を示すモデル動作データの入力を受け付けて、受け付けた情報をモデル動作DB80に格納する。モデル動作DB80は、入力部52で入力された情報を受け付けてモデル動作データを格納する。モデル動作は、利用者の運動の手本となり得る動作である。モデル動作は、動作生成装置100における各運動の評価において、基準となる動作を示すものであってよい。モデル動作は、例えば、利用者が初めて動作生成システム1000を利用する場合などにおいて、利用者の運動に関するレベルを把握するために用いられる。
 ここで、図5を参照してモデル動作DB80について説明する。図5は、モデル動作DB80に登録されるデータの一例を示す図である。例えば、モデル動作DB80は、運動ID81、運動名82、モデル動作データ83、及び補正値84を対応付けた情報を格納する。
 運動ID81は、運動を識別する情報である。運動名82は、運動の名称を示す情報である。モデル動作データ83は、それぞれの運動に含まれる動作に関するデータである。
 モデル動作データ83は、例えば、センサ装置60を用いて検出されるデータを用いて示される情報であってよい。モデル動作データ83は、例えば、頭、肩、肘などの複数の身体部位の3次元位置データや加速度データなどであってよい。図5では一例として、頭、右肩、及び左肩を示しているが、これら以外の身体部位に関するデータが含まれてもよい。モデル動作データ83は、各身体部位の時系列データを含み得る。モデル動作データ83は、例えば、各身体部位の位置データ及び加速度データを時系列データと対応付けた情報である。このようにすることで、動作生成装置100において、利用者の各身体部位の位置及び加速度が適切なタイミングで変化しているか否かを評価し、動作の評価を行うことができる。
 補正値84は、評価部120において利用者の動作を評価する際に用いられる、各身体部位の補正値を示す情報である。補正値84の詳細については後述する。
 図5に示されるように、モデル動作DB80は、様々な運動のモデル動作データを複数格納する。モデル動作DB80は、例えば、運動の難易度や、主に動かす部位が異なる複数の運動を示すモデル動作データを格納する。これにより、利用者は、身体の状態などに応じて、複数のモデル動作データから個人に適した運動を行うことができる。モデル動作DB80は、動画像や3Dモデルなど様々な形態のデータをモデル動作データ83として格納してよい。
 図3に戻り説明を続ける。出力部51は、動作生成装置100から出力されるモデル動作データ又は生成データに対応するモデル動作を出力する出力装置である。出力部51は、例えば、モデル動作を表示するディスプレイ装置などの表示装置である。出力部51は、例えば、動画像や3Dモデルなどの様々な形態のデータを出力可能に構成されている。出力部51は、音声情報を出力するスピーカなどを含んでもよい。
 例えば、利用者が動作生成システム1000を初めて利用する場合、動作生成装置100は、モデル動作DB80からモデル動作データを取得して端末装置50に出力する。出力部51は、動作生成装置100から受け取ったモデル動作データに対応する動作を出力する。これにより、利用者は出力部51に出力されたモデル動作を見て運動を実施することができる。
 なお、出力部51及び入力部52は、利用者が指などでタッチすることで操作が可能なタッチパネルなどを用いて一体として構成されていてもよい。
 センサ装置60は、利用者の動作を示す利用者動作データを検出する装置である。センサ装置60は、運動を実施する利用者の複数の身体部位における動作のそれぞれに対応する利用者動作データを検出する。センサ装置60は、例えば、加速度センサ、角速度センサ、地磁気センサ、又は圧力センサなどである。これらに限らず、センサ装置60は他のセンサであってもよい。利用者動作データは、例えば、センサ装置60において検出される加速度、角速度、地磁気、又は圧力などの情報である。これらに限らず、利用者動作データは、センサ装置60で検出される種々のデータを含み得る。
 なお、センサ装置60は、上述したセンサのうち2つ以上の機能を有するセンサであってもよい。例えば、センサ装置60は、加速度センサ、ジャイロセンサ、及び地磁気センサを備えるモーションセンサなどであってもよい。
 センサ装置60は、利用者の身体に装着されている。ここでは、複数のセンサ装置60が、利用者の頭や肩などの複数の身体部位のそれぞれに装着されている場合を用いて説明する。利用者が運動を実施すると、センサ装置60は、各身体部位のそれぞれに対応する利用者動作データを検出する。センサ装置60は、検出結果を、日時情報などと共に利用者動作DB90に格納する。例えば、センサ装置60は、頭、肩、及び肘などの複数の身体部位の3次元位置データや加速度データなどの時系列データを利用者動作データとして利用者動作DB90に格納する。
 ここで、図6を参照して、利用者動作DB90について説明する。図6は、利用者動作DB90に登録されるデータの一例を示す図である。例えば、利用者動作DB90は、動作データID91、利用者ID92、運動ID93、登録日時94、及び利用者動作データ95を含み得る。
 動作データID91は、利用者動作データを識別する情報である。動作データID91は、後述する動作データID151と対応するものである。利用者ID92は、動作を行った利用者を識別する情報である。運動ID93は、利用者が実施した運動を識別する情報である。登録日時94は、利用者動作データの登録日時を示す情報である。利用者動作データ95は、利用者の動作に関する利用者動作データを示す情報である。
 利用者動作データ95は、例えば、センサ装置60を用いて検出されるデータを用いて示される情報であってよい。利用者動作データ95は、例えば、頭、肩、肘などの複数の身体部位の3次元位置データ及び加速度データを時系列データと対応付けた情報である。図6では、一例として頭、右肩、及び左肩を示しているが、これらに限られない。
 続いて、図3に戻り、動作生成装置100について説明する。図3に示されるように、動作生成装置100は、取得部110、評価部120、生成部130、及び評価結果DB150を備えている。
 取得部110は、上述した取得部11の一例である。取得部110は、所定の運動を行う利用者の動作を示す利用者動作データを取得する。利用者動作データは、利用者動作DB90において、利用者の複数の身体部位の動作に対応する利用者動作データ95として格納されている。取得部110は、利用者動作DB90に格納された利用者動作データを取得し、評価部120に出力する。
 評価部120は、上述した評価部12の一例である。評価部120は、取得部110で取得された利用者動作データを用いて、利用者の動作を評価する。例えば、評価部120は、利用者動作データと、利用者が実施したモデル動作データと、を用いて、利用者の動作を評価する。
 利用者が初めて運動を行う場合、端末装置50は、モデル動作DB80に格納された複数のモデル動作データのいずれかを動作生成装置100から受け取り、これに対応するモデル動作を出力する。利用者は、出力されたモデル動作を見ながら運動を実施する。この場合、評価部120は、利用者動作データと、モデル動作データとを比較することで、利用者の動作を評価する。
 また、利用者が過去に運動を行っており、後述する評価結果DB150に評価結果が登録されている場合、端末装置50は、評価結果に基づいて新たに生成された生成データを動作生成装置100から受け取る。端末装置50は、受け取った生成データに対応するモデル動作を出力する。利用者は、出力されたモデル動作を見ながら運動を実施する。この場合、評価部120は、利用者動作データと、生成データとを比較することで、利用者の動作を評価する。なお、評価部120は、利用者動作データと、生成データの元となったモデル動作データを用いて評価を行ってもよい。
 本実施形態では、取得部110は、利用者の身体部位ごとの利用者動作データを利用者動作DB90から取得する。評価部120は、取得部110で取得された身体部位ごとの利用者動作データを用いて、動作を評価することができる。
 ここで、利用者が初めて運動を行う場合を例に、評価部120が行う利用者動作の評価の方法の一例を説明する。まず利用者は、運動を開始する際に、端末装置50を介して、利用者を識別するための識別情報を動作生成装置100に入力する。動作生成装置100は、これを受け付けて利用者を特定する。利用者は、例えば、入力部52を介して利用者IDを入力してもよいし、利用者IDが記載された利用者証を、リーダなどを用いて読み取らせることで動作生成装置100に利用者IDを入力してもよい。これに限らず、動作生成装置100は、例えば、利用者を撮影した撮影画像から顔認証などを用いて利用者を認証し、認証成功に応じて利用者を特定してもよい。
 動作生成装置100は、利用者に提示するモデル動作を特定する。例えば、動作生成装置100は、初めて運動を行う利用者に対して所定のモデル動作を特定してもよいし、端末装置50からの入力を受け付けて、利用者等の所望のモデル動作を特定してもよい。また動作生成装置100は、利用者に対応付けられた利用者情報DB70の情報などから、利用者に提示するモデル動作を特定してもよい。動作生成装置100は、特定したモデル動作に対応するモデル動作データをモデル動作DB80から取得し、端末装置50に出力する。
 利用者は、センサ装置60を装着し、端末装置50に出力されたモデル動作を見ながら運動を実施する。センサ装置60は、利用者の複数の身体部位のそれぞれに対応する利用者動作データを時系列データとして検出する。センサ装置60は、運動の開始から終了までの動作に対応するデータを測定し、利用者動作DB90に利用者動作データを登録する。利用者動作DB90に利用者動作データが登録されると、取得部110は、これを取得して評価部120に出力する。
 評価部120は、登録された利用者動作データと、当該利用者が実施した運動のモデル動作データと、を用いて利用者動作の評価を行う。具体的には、まず、評価部120は、利用者情報DB70を参照し、利用者の身体情報を取得する。評価部120は、取得した身体情報を元に、利用者動作データをモデル動作データと比較ができるように適宜補正する。例えば、評価部120は、利用者の身長や体重などに応じて、モデル動作データに含まれる各身体部位の位置データや加速度データを補正する。これにより、評価部120は、利用者の体格などに応じて評価を行うことができる。
 次に、評価部120は、身体部位ごとに時系列データの差分を求め、その積分値を算出する。評価部120は、各身体部位の積分値を合計し、合計値を算出する。合計値は、利用者が実施した運動における利用者動作データとモデル動作データとの差分を表している。よって、評価部120は、合計値の大きさにより利用者の動作の評価結果を表すことができる。合計値が小さいほど、利用者はモデル動作に近い動作を行ったといえるので、利用者の動作は高い評価となる。また、合計値が大きいほど、利用者はモデル動作と異なる動作を行ったといえるので、利用者の動作は低い評価となる。
 なお、ここでは、評価部120が各身体部位の差分から積分値を算出し、その合計値を用いて利用者の動作を評価する方法を説明したが、これに限られない。評価部120は、他の方法を用いて動作を評価してもよい。
 評価部120は、算出された合計値を最終的な利用者動作の評価として、評価結果を評価結果DB150に登録する。評価結果DB150は、評価部120から評価結果を受け取り、利用者IDなどと対応付けて評価結果を格納する。評価結果は、利用者の次回以降の運動において、生成部130における生成データの生成の際に利用され得る。また、評価部120は、評価結果を端末装置50に出力してもよい。これにより、利用者は運動に対する評価結果を把握することができるので、モチベーションの向上につなげることができる。
 図7は、評価結果DB150に登録されるデータの一例を示す図である。例えば、評価結果DB150は、動作データID151、評価結果データ152、及び合計値153を対応付けた情報を格納する。
 動作データID151は、利用者動作データを識別する情報である。評価結果データ152は、利用者動作データとモデル動作データとの差分を求め、その積分値を算出したものである。評価結果データ152は、図に示されるように複数の身体部位のそれぞれで求められてよい。合計値153は、評価結果データ152の合計を示す情報である。上述したように、合計値153は、利用者の動作の評価結果を示すものである
 評価結果DB150は、複数の身体部位のそれぞれにおいて、利用者動作とモデル動作との差分から求められる評価結果データ152と、これらを合計した合計値153と、を動作データID151と対応付けて格納する。図6を用いて説明したように、動作データID151は、動作データID91に対応するものである。利用者動作DB90において、動作データID91と利用者ID92とは対応付けられている。よって、評価部120は、動作データID151を介して、利用者ごとの動作の評価結果を評価結果DB150に登録することができる。
 また、評価部120は、運動で想定される身体部位の動作量を加味して、利用者の動作を評価してもよい。具体的には、評価部120は、各身体部位の積分値に、所定の補正値を乗算することで積分値を補正する。評価部120は、補正後の積分値を合計して、上述した合計値を算出する。評価部120は、図5に示される補正値84を補正値として用いることができる。補正値84は、評価する運動の種類に応じて、複数の身体部位のモデル動作データ83のそれぞれに対応するように設定されている。
 例えば、肩を回す運動の場合、利用者は、肘や手首を大きく動かすのに対し、腰や膝といった下半身はほとんど動かさない。したがって、この場合、肘や手首の値に対する補正値を大きく設定し、腰や膝に対する補正値を小さく設定する。このようにすることで、評価部120は、より妥当性の高い評価を行うことができる。
 例えば、図5において、運動名「運動C」に示される運動の場合、補正値84に示される「頭補正値」の補正値は「0.0」に設定されている。したがって、「運動C」を実施する場合、利用者の頭部の動作とモデル動作とがずれていた場合であっても、評価部120における評価結果には影響しない。このように、身体部位ごとに補正値を設定することで、評価部120は、運動の種類に応じて、所定の部位の動作における評価の重み付けを行うことができる。
 上述の説明では、利用者が初めて運動を実施する場合を例として、評価部120が行う処理を説明した。利用者が過去に運動を行っており、生成部130で生成された生成データを見ながら運動を行った場合、評価部120は、上述したモデル動作データに代えて、当該生成データを用いて評価を行う。または、評価部120は、生成データの元となるモデル動作データを用いて評価を行ってもよい。
 また、評価部120が評価の対象とする動作データは1つに限定されない。例えば、利用者が、過去に同じ運動を実施した際の利用者動作データが複数登録されているとする。この場合、評価部120は、これらの複数の利用者動作データと、モデル動作データとを用いて評価を行ってもよい。例えば、評価部120は、同一の運動に対する前回、前々回、・・・の利用者動作データと、今回の運動で手本としたモデル動作データとを用いて評価を行ってもよい。これにより、利用者は、運動の回数に応じた評価の変化を把握することができる。
 また、評価部120が評価に用いるデータは、利用者動作データとモデル動作データとに限定されない。評価部120は、同じ運動を実施した場合に取得された利用者動作データであれば、同一利用者の利用者動作データや、他の複数の利用者の動作データを用いて評価を行ってもよい。例えば、評価部120は、今回の運動の利用者動作データと、前回の利用者動作データと、を用いて評価を行ってもよい。例えば、評価部120は、モデル動作データとの差分が大きくなった場合でも、利用者の動作が大きくなった場合などは高く評価するようにしてもよい。これにより、利用者のモチベーションを向上させることができる。また、評価部120が他の利用者の動作データを用いて評価を行うことでも同様の効果を得ることができる。
 図3に戻り説明を続ける。生成部130は、上述した生成部13の一例である。生成部130は、評価部120から出力された評価結果に基づいて、新たなモデル動作を自動で生成する。例えば、生成部130は、複数の利用者から取得された複数の利用者動作データと、複数の利用者動作データに対応する複数の評価結果と、に基づいて、運動の手本となるモデル動作を示す生成データを新たに生成する。
 生成部130は、例えば、2つの動作データにおいて対応する画像フレームを特定し、特定された画像フレームの間を補間するフレームを生成することで、複数の動作データから1つの動作データを生成する。生成部130は、例えば、運動を実施する利用者の利用者動作データと、他の利用者の利用者動作データと、の間を補間する動作データを新たに生成する。これにより、生成部130は、モデル動作を示す生成データを新たに生成することができる。
 利用者が運動を開始する場合、生成部130は、運動の種類や運動IDを利用者に入力させるなどして、利用者が実施しようとする運動を特定する。ここでは、生成部130は、運動IDを用いて実施しようとする運動を特定する。生成部130は、評価結果DB150を参照し、実施しようとする運動について、過去の評価結果が存在するか否かを判定する。
 利用者が初めて動作生成システム1000を利用して運動を行う場合、評価結果DB150には、当該利用者の過去の評価結果が存在しない。この場合、生成部130は、モデル動作DB80を参照して、利用者が行う運動の手本となるモデル動作データを取得する。
 実施する運動に対する過去の評価結果が評価結果DB150に存在する場合、生成部130は、当該利用者の評価結果を取得する。過去の評価結果が複数存在する場合、生成部130は、直近の評価結果を取得する。なお、以下では、直近の評価結果に対応する運動を「前回の運動」のように表して説明する場合がある。また、これに対し、利用者がこれから実施しようとする運動を「今回の運動」のように表して説明する場合がある。
 生成部130は、当該運動を行った複数の利用者から取得された複数の利用者動作データと、当該複数の利用者動作データに対応する複数の評価結果と、を取得する。生成部130は、特定した運動IDに基づいて、利用者動作DB90及び評価結果DB150からそれぞれの情報を取得する。生成部130は、取得した複数の利用者動作データと、当該複数の利用者動作データに対応する複数の評価結果と、に基づいて生成データを自動で生成する。
 例えば、実施する運動に対して、複数の利用者の評価結果が登録されているとする。生成部130は、これらの複数の評価結果に基づいて、複数の利用者を複数のグループに分類し、運動を実施しようとする利用者が属するグループに応じて生成データを生成する。例えば、生成部130は、動作の評価がより高いグループに属する、他の利用者の動作データを用いて生成データを生成する。
 具体的には、まず、生成部130は、複数の利用者の評価結果に基づいて、評価の高さを表すランキングを作成する。生成部130は、評価結果に加えて、性別などの利用者情報を加味してランキングを作成してもよい。
 生成部130は、作成したランキングを、上位から順に複数のグループに分割する。ここでは、生成部130は、作成したランキングの上位から10%ずつのグループに分割するものとする。これにより、生成部130は、評価結果に応じて利用者を複数のグループに分類することができる。
 生成部130は、当該利用者の前回の動作に対する評価結果が属するグループより、1つ上位のグループを特定する。例えば、当該利用者が上位30~40%のグループに属している場合、生成部130は、上位20~30%のグループを特定する。生成部130は、上位20~30%のグループに属する任意の利用者動作データを利用者動作DB90から抽出する。ここでは、生成部130は、複数の利用者動作データを抽出するが、1つの利用者動作データを抽出してもよい。
 生成部130は、複数の利用者動作データにおける各身体部位の時系列データを平均化し、モデル動作を示す生成データを新たに生成する。このように、複数の利用者動作データを平均化することで、生成部130は、利用者ごとに含まれる固有の動作の影響を抑えた生成データを生成することができる。
 生成部130は、生成した生成データを端末装置50に出力する。これにより、端末装置50は、当該利用者の状態に合わせた運動を、動画像や3Dモデルなどを用いて利用者に提示することができる。端末装置50は、例えばディスプレイ上に、生成データに対応するモデル動作を表示する。利用者は、表示されたモデル動作を見て、運動を行うことができる。
 なお、ここでは、生成部130は、1つ上位のグループを特定したが、ランクが2つ以上異なるグループを特定してもよい。また、ここでは、生成部130は、利用者が属するグループより評価が高いグループを特定したが、同じランクのグループを特定してもよいし、利用者の状態などに応じて低いランクのグループを特定してもよい。例えば、生成部130は、利用者が実施しようとする運動の種類、利用者の体調、又は怪我の部位などに応じて、利用者が属するグループより低いグループを特定してもよい。また、生成部130は、利用者や指導者からの入力を受け付けて、利用者又は指導者が選択したグループを特定してもよい。
 また、ここでは、生成部130は、任意の利用者の動作データを抽出し、抽出したデータの平均を用いて生成データを生成したが、これに限られない。生成部130は、利用者等が選択した利用者の動作データを抽出してもよい。また生成部130は、モデル動作DB80に予め登録されたモデル動作をさらに用いて生成データを生成してもよい。
 また、生成部130は、利用者と同じグループ及び異なるグループから利用者を抽出し、複数の利用者動作データを抽出してもよい。生成部130は、複数の条件を用いて利用者動作データを抽出してもよい。例えば、生成部130は、動作の評価結果以外に、利用者情報を加味して利用者動作データを抽出してもよい。例えば、生成部130は、利用者情報DB70を参照し、利用者情報が類似する利用者の利用者動作データを抽出するようにしてもよい。
 これに限らず、生成部130は、運動の種類、特定の部位を多く使う動作、利用者の苦手な動作、得意な動作、などの条件を加味して、利用者動作データを抽出してもよい。このように、複数の条件で動作データの抽出を行い、複数の生成データを生成することで、生成部130は、より利用者の状態に合わせた生成データを生成することができる。
 また、生成部130が生成する生成データは、1つに限定されない。生成部130は、複数の生成データを生成してもよい。例えば、生成部130は、利用者情報DB70を参照し、利用者情報の類似度が高い順に生成データを複数生成し、端末装置50に出力してもよい。例えば、生成部130は、複数のグループから動作データを複数抽出してもよいし、同じグループに属する利用者の動作データを複数抽出してもよい。
 なお、生成部130は、ランキングやグループ分け以外の方法を用いて、利用者動作データを抽出してもよい。また、生成部130は、新たに生成した生成データを、モデル動作データとして、モデル動作DB80に登録してもよい。
 なお、ここでは、生成部130は、前回の運動に対する評価結果を用いて生成データを生成したが、これに限られない。生成部130は、当該利用者の前々回の動作データが存在している場合、これを用いて生成データを生成してもよい。生成部130は、さらに前の動作データを用いて生成データを生成してもよい。
 また、ここでは複数の利用者から取得された複数の利用者動作データを用いて説明を行ったが、これに限られない、生成部130は、他の利用者の動作データを加味せず、運動を実施しようとする利用者本人のみの動作データのみを用いてデータを生成してもよい。
 なお、図2及び図3に示される動作生成システム1000の構成は一例に過ぎない。動作生成システム1000は、複数の構成が集約された装置などを用いて構成されてもよい。例えば、端末装置50、センサ装置60、利用者情報DB70、モデル動作DB80、及び利用者動作DB90、及び動作生成装置100の機能の一部又は全部が同一の装置に集約されていてもよい。
 また、動作生成システム1000における各機能部は、複数の装置などを用いて分散処理されてもよい。例えば、動作生成装置100における取得部110、評価部120、生成部130、及び評価結果DB150は、複数の装置を用いて構成されてもよい。例えば、図3では、評価結果DB150を動作生成装置100の内部に示しているが、評価結果DB150が動作生成装置100の外部に設けられてもよい。
 続いて、図8を参照して、動作生成装置100が行う処理を説明する。図8は、動作生成装置100が行う動作生成処理を示すフローチャートである。なお、ここでは利用者又は指導者が、利用者情報DB70などの情報を、上述した所定のデータベースに予め登録しているものとする。
 まず、利用者は運動を開始する(S1)。動作生成装置100は、端末装置50を介して利用者が運動を開始する旨を受け付ける。例えば、動作生成装置100は、所定のアプリケーションなどを介して、出力部51に「運動を開始しますか?」などのメッセージを表示し、利用者からの入力に応じて、利用者が運動を開始する旨を受け付ける。また、動作生成装置100は、利用者IDなどの入力を受け付けて、運動を実施する利用者を特定する。動作生成装置100は、顔認証などを用いて利用者を認証し、認証成功に応じて利用者を特定してもよい。
 続いて、生成部130は、過去に登録された当該利用者の動作データの評価結果が評価結果DB150に存在するか否かを判定する(S2)。評価結果DB150に過去の動作データの評価結果が存在しない場合(S2のNO)、生成部130は、モデル動作DB80に予め登録されているモデル動作データを取得し、端末装置50に出力する(S3)。これにより、端末装置50は、登録されているモデル動作を出力部51に出力することでモデル動作を利用者に提示する。
 評価結果DB150に過去の動作データの評価結果が存在する場合(S2のYES)、生成部130は、当該評価結果に基づいて、新たなモデル動作を示す生成データを自動で生成し、端末装置50に出力する(S4)。生成部130は、利用者本人の評価結果を用いて生成データを生成してもよいし、利用者動作DB90から任意の利用者動作データを抽出し、それらを用いて新しいモデル動作を自動で生成してもよい。
 ここでは、生成部130は、複数の利用者の評価結果を用いて生成データを生成する。例えば、生成部130は、複数の利用者の評価結果に基づいて、評価結果の高さを表すランキングを作成する。生成部130は、ランキングの上位から、利用者を複数のグループに分類する。生成部130は、運動を開始した利用者が属するグループよりも、1つ上位のグループを特定し、当該グループに属する任意の利用者動作データを利用者動作DB90から抽出する。生成部130は、複数の利用者動作データにおける各身体部位の時系列データを平均化し、新たに生成データを生成して端末装置50に出力する。
 利用者は、端末装置50に出力されたモデル動作の運動を実施する(S5)。センサ装置60は、利用者の各身体部位の動作を検出し、身体部位ごとの時系列データを利用者動作DB90に格納する。
 取得部110は、利用者動作DB90に格納された利用者動作データを取得する(S6)。評価部120は、取得された利用者動作データを用いて動作を評価する(S7)。ここでは、評価部120は、身体部位ごとの動作データを用いて動作を評価する。例えば、評価部120は、身体部位ごとに時系列データの差分を求め、その積分値を算出する。評価部120は、積分値を合計して合計値を算出する。合計値は評価結果を示すものである。評価部120は、運動で想定される身体部位の動作量を加味して動作を評価してもよい。例えば、評価部120は、各身体部位の積分値に、所定の補正値を乗算することで積分値を補正する。評価部120は、補正後の積分値を用いて合計値を算出する。
 評価部120は、評価結果を評価結果DB150に登録する(S8)。評価結果は、次回以降の運動の際に、生成部130における処理に用いられ得る。また、評価結果は、他の利用者の運動の際においても用いられ得る。
 利用者が運動を実施した後、動作生成装置100は、利用者が再度運動を実施するか否かを判定する(S9)。例えば、動作生成装置100は、出力部51に「もう一度運動を実施しますか?」などのメッセージを表示させ、利用者からの入力に応じて、利用者が運動を再度実施するか否かを判定する。
 利用者が再度運動を実施すると判定された場合(S9のYES)、動作生成装置100は、ステップS1の処理に戻り、以降の処理を繰り返す。利用者が再度運動を実施しないと判定された場合(S9のNO)、動作生成装置100は処理を終了する。
 以上説明したように、本実施形態にかかる動作生成システム1000では、取得部110は、所定の運動を行う利用者の動作を示す動作データを身体部位ごとに取得する。評価部120は、身体部位ごとの動作データを用いて、利用者の動作を評価する。また評価部120は、運動で想定される身体部位の動作量を加味して動作を評価することができる。
 生成部130は、複数の利用者から取得された複数の動作データと、複数の動作データのそれぞれに対応する複数の評価結果と、に基づいて、運動の手本となるモデル動作を示す生成データを生成する。例えば、生成部130は、複数の利用者の評価結果に基づいてランキングを作成し、運動を実施する利用者が属するグループを特定する。生成部130は、動作の評価がより高いグループに属する利用者の動作データを用いて生成データを生成する。
 このようにすることで、動作生成システム1000は、当該利用者の前回の動作データに対する評価結果と、他の複数の利用者の動作データを用いて、当該利用者が実施可能な難易度の、新しいモデル動作を提示することができる。動作生成システム1000は、利用者にとって適切な難易度の新たなモデル動作を提示することができるので、利用者は、継続的に運動に取り組むことが容易になる。これにより、自宅等でのフィットネスにおいて、指導者がその場にいない場合であっても、利用者の状態に合わせた運動を自動で提供することができる。
 また、動作生成システム1000では、1つのモデル動作に対して、複数の利用者動作データから、難易度の異なる複数のモデル動作を自動で生成することができる。これにより、介護施設などで複数の利用者が運動を実施する場合であっても、利用者個人に合わせて適切なモデル動作を提示することができる。
 そして、動作生成システム1000では、複数の利用者の動作から新しいモデル動作を生成し、より評価の高い動作を手本として提示できるので、利用者の運動に対するモチベーションを向上させることができる。
<ハードウエアの構成例>
 動作生成装置100等における各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、動作生成装置100等の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図9は、動作生成装置100等を実現するコンピュータ900のハードウエア構成を例示するブロック図である。コンピュータ900は、動作生成装置100等を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。コンピュータ900は、スマートフォンやタブレット端末などといった可搬型のコンピュータであってもよい。
 例えば、コンピュータ900に対して所定のアプリケーションをインストールすることにより、コンピュータ900で、動作生成装置100等の各機能が実現される。上記アプリケーションは、動作生成装置100等の機能構成部を実現するためのプログラムで構成される。
 コンピュータ900は、バス902、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912を有する。バス902は、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ904などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ904は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ906は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス908は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース910は、コンピュータ900と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース910には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
 ネットワークインタフェース912は、コンピュータ900をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
 ストレージデバイス908は、動作生成装置100等の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ904は、このプログラムをメモリ906に読み出して実行することで、動作生成装置100等の各機能構成部を実現する。
 プロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又はそれ以上のプログラムを実行する。このプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)又は実体のある記憶媒体(tangible storage medium)に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 なお、本開示は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の説明では、センサ装置60を利用者の身体に装着する例を用いて説明したが、これに限られない。動作生成システム1000は、例えば、運動中の利用者をカメラなどで撮影し、撮影画像から利用者動作データを取得するように構成されてもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 所定の運動を行う利用者の動作を示す利用者動作データを取得する取得手段と、
 前記利用者動作データを用いて前記動作を評価する評価手段と、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する生成手段と、を備える
 動作生成装置。
 (付記2)
 前記取得手段は、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データを取得し、
 前記評価手段は、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作を評価する
 付記1に記載の動作生成装置。
 (付記3)
 前記評価手段は、前記運動で想定される前記身体部位の動作量を加味して前記動作を評価する
 付記2に記載の動作生成装置。
 (付記4)
 前記生成手段は、複数の前記評価結果に基づいて、複数の前記利用者を複数のグループに分類し、前記利用者が属するグループに応じて前記生成データを生成する
 付記1~3のいずれか1項に記載の動作生成装置。
 (付記5)
 前記生成手段は、前記動作の評価がより高いグループに属する利用者の前記利用者動作データを用いて前記生成データを生成する
 付記4に記載の動作生成装置。
 (付記6)
 動作生成装置と、
 端末装置と、を備え、
 前記動作生成装置は、
 所定の運動を行う利用者の動作を示す利用者動作データを取得する取得手段と、
 前記利用者動作データを用いて前記動作を評価する評価手段と、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成して前記端末装置に出力する生成手段と、を有し、
 前記端末装置は、
 前記動作生成装置から前記生成データを受け取り、前記生成データに対応する前記モデル動作を出力する
 動作生成システム。
 (付記7)
 前記取得手段は、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データを取得し、
 前記評価手段は、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作を評価する
 付記6に記載の動作生成システム。
 (付記8)
 所定の運動を行う利用者の動作を示す利用者動作データを取得し、
 前記利用者動作データを用いて前記動作を評価し、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する
 動作生成方法。
 (付記9)
 前記利用者動作データの取得では、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データが取得され、
 前記動作の評価では、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作が評価される
 付記8に記載の動作生成方法。
 (付記10)
 所定の運動を行う利用者の動作を示す利用者動作データを取得する取得処理と、
 前記利用者動作データを用いて前記動作を評価する評価処理と、
 複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する生成処理と、
 をコンピュータに実行させる動作生成プログラムが格納された非一時的なコンピュータ可読媒体。
 (付記11)
 前記取得処理では、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データが取得され、
 前記評価処理では、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作が評価される
 付記10に記載のコンピュータ可読媒体。
10 動作生成装置
11 取得部
12 評価部
13 生成部
50 端末装置
51 出力部
52 入力部
60 センサ装置
70 利用者情報DB
71 利用者ID
72 利用者名
73 性別
74 身長
75 体重
76 運動ID
80 モデル動作DB
81 運動ID
82 運動名
83 モデル動作データ
84 補正値
90 利用者動作DB
91 動作データID
92 利用者ID
93 運動ID
94 登録日時
95 利用者動作データ
100 動作生成装置
110 取得部
120 評価部
130 生成部
150 評価結果DB
151 動作データID
152 評価結果データ
153 合計値
900 コンピュータ
902 バス
904 プロセッサ
906 メモリ
908 ストレージデバイス
910 入出力インタフェース
912 ネットワークインタフェース
1000 動作生成システム
N ネットワーク

Claims (11)

  1.  所定の運動を行う利用者の動作を示す利用者動作データを取得する取得手段と、
     前記利用者動作データを用いて前記動作を評価する評価手段と、
     複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する生成手段と、を備える
     動作生成装置。
  2.  前記取得手段は、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データを取得し、
     前記評価手段は、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作を評価する
     請求項1に記載の動作生成装置。
  3.  前記評価手段は、前記運動で想定される前記身体部位の動作量を加味して前記動作を評価する
     請求項2に記載の動作生成装置。
  4.  前記生成手段は、複数の前記評価結果に基づいて、複数の前記利用者を複数のグループに分類し、前記利用者が属するグループに応じて前記生成データを生成する
     請求項1~3のいずれか1項に記載の動作生成装置。
  5.  前記生成手段は、前記動作の評価がより高いグループに属する利用者の前記利用者動作データを用いて前記生成データを生成する
     請求項4に記載の動作生成装置。
  6.  動作生成装置と、
     端末装置と、を備え、
     前記動作生成装置は、
     所定の運動を行う利用者の動作を示す利用者動作データを取得する取得手段と、
     前記利用者動作データを用いて前記動作を評価する評価手段と、
     複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成して前記端末装置に出力する生成手段と、を有し、
     前記端末装置は、
     前記動作生成装置から前記生成データを受け取り、前記生成データに対応する前記モデル動作を出力する
     動作生成システム。
  7.  前記取得手段は、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データを取得し、
     前記評価手段は、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作を評価する
     請求項6に記載の動作生成システム。
  8.  所定の運動を行う利用者の動作を示す利用者動作データを取得し、
     前記利用者動作データを用いて前記動作を評価し、
     複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する
     動作生成方法。
  9.  前記利用者動作データの取得では、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データが取得され、
     前記動作の評価では、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作が評価される
     請求項8に記載の動作生成方法。
  10.  所定の運動を行う利用者の動作を示す利用者動作データを取得する取得処理と、
     前記利用者動作データを用いて前記動作を評価する評価処理と、
     複数の利用者から取得された複数の前記利用者動作データと、複数の前記利用者動作データのそれぞれに対応する複数の評価結果と、に基づいて前記運動の手本となるモデル動作を示す生成データを生成する生成処理と、
     をコンピュータに実行させる動作生成プログラムが格納された非一時的なコンピュータ可読媒体。
  11.  前記取得処理では、前記利用者の複数の身体部位における動作のそれぞれに対応する前記利用者動作データが取得され、
     前記評価処理では、複数の前記身体部位のそれぞれに対応する前記利用者動作データを用いて前記動作が評価される
     請求項10に記載のコンピュータ可読媒体。
PCT/JP2022/007973 2022-02-25 2022-02-25 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体 WO2023162159A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/007973 WO2023162159A1 (ja) 2022-02-25 2022-02-25 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/007973 WO2023162159A1 (ja) 2022-02-25 2022-02-25 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023162159A1 true WO2023162159A1 (ja) 2023-08-31

Family

ID=87765061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/007973 WO2023162159A1 (ja) 2022-02-25 2022-02-25 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023162159A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297240A (ja) * 2008-06-12 2009-12-24 Panasonic Corp 学習支援装置および学習支援方法
JP2011062352A (ja) * 2009-09-17 2011-03-31 Koki Hashimoto 運動モーション教示装置および遊戯施設
JP2013027629A (ja) * 2011-07-29 2013-02-07 Seiko Epson Corp 運動指導装置、運動指導プログラム及び記録媒体
US20140234814A1 (en) * 2013-02-17 2014-08-21 Ronald C. Krosky Instruction production
WO2016056449A1 (ja) * 2014-10-10 2016-04-14 富士通株式会社 スキル判定プログラム、スキル判定方法、スキル判定装置およびサーバ
JP2017063948A (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019024550A (ja) * 2017-07-25 2019-02-21 株式会社クオンタム 検出装置、検出システム、処理装置、検出方法、及び検出プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297240A (ja) * 2008-06-12 2009-12-24 Panasonic Corp 学習支援装置および学習支援方法
JP2011062352A (ja) * 2009-09-17 2011-03-31 Koki Hashimoto 運動モーション教示装置および遊戯施設
JP2013027629A (ja) * 2011-07-29 2013-02-07 Seiko Epson Corp 運動指導装置、運動指導プログラム及び記録媒体
US20140234814A1 (en) * 2013-02-17 2014-08-21 Ronald C. Krosky Instruction production
WO2016056449A1 (ja) * 2014-10-10 2016-04-14 富士通株式会社 スキル判定プログラム、スキル判定方法、スキル判定装置およびサーバ
JP2017063948A (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019024550A (ja) * 2017-07-25 2019-02-21 株式会社クオンタム 検出装置、検出システム、処理装置、検出方法、及び検出プログラム

Similar Documents

Publication Publication Date Title
CN111477297B (zh) 个人计算设备
Velloso et al. Qualitative activity recognition of weight lifting exercises
US20220219046A1 (en) Smart Gym
US20160042652A1 (en) Body-motion assessment device, dance assessment device, karaoke device, and game device
TWI464696B (zh) 動作比對方法與動作比對系統
CN110782482A (zh) 运动评估方法、装置、计算机设备及存储介质
JP6757010B1 (ja) 動作評価装置、動作評価方法、動作評価システム
CN113241148B (zh) 健身方案生成方法、装置、终端设备和存储介质
CN113409651B (zh) 直播健身方法、系统、电子设备、存储介质
JP2020174910A (ja) 運動支援システム
CN112007255B (zh) 基于混合现实的心理治疗方法、装置、系统及服务器
WO2023040449A1 (zh) 利用健身动作触发客户端操作指令
JP5160830B2 (ja) 動画生成システム、動画生成方法、およびコンピュータプログラム
WO2022174544A1 (zh) 动作比对方法、装置、电子设备、存储介质、计算机程序产品及计算机程序
TWI693090B (zh) 結合於運動器材之資訊傳輸收集裝置與運動器材
TWI679557B (zh) 適應性運動姿態感測系統與方法
CN114639461A (zh) 健身方案信息的生成方法、装置和系统
WO2023162159A1 (ja) 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体
CN111353345B (zh) 提供训练反馈的方法、装置、系统、电子设备、存储介质
Cai et al. PoseBuddy: Pose estimation workout mobile application
US20140073383A1 (en) Method and system for motion comparison
JP2019036151A (ja) 評価装置、評価方法および評価プログラム
JP7390640B2 (ja) 運動教育システム、サーバ装置、運動教育支援サービス提供方法及びプログラム
CN113842622B (zh) 一种运动教学方法、装置、系统、电子设备及存储介质
US20230001266A1 (en) Exercise menu evaluation apparatus, method, and computer readable medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22928686

Country of ref document: EP

Kind code of ref document: A1