WO2023026784A1 - Program, information processing device, and information processing method - Google Patents

Program, information processing device, and information processing method Download PDF

Info

Publication number
WO2023026784A1
WO2023026784A1 PCT/JP2022/029578 JP2022029578W WO2023026784A1 WO 2023026784 A1 WO2023026784 A1 WO 2023026784A1 JP 2022029578 W JP2022029578 W JP 2022029578W WO 2023026784 A1 WO2023026784 A1 WO 2023026784A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
data
exercise
exercise tolerance
program according
Prior art date
Application number
PCT/JP2022/029578
Other languages
French (fr)
Japanese (ja)
Inventor
一裕 寺嶋
Original Assignee
株式会社CaTe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社CaTe filed Critical 株式会社CaTe
Priority to JP2023509555A priority Critical patent/JP7333537B2/en
Publication of WO2023026784A1 publication Critical patent/WO2023026784A1/en
Priority to JP2023125910A priority patent/JP2023133487A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising

Definitions

  • the present disclosure relates to a program, an information processing device, and an information processing method.
  • Cardiac rehabilitation is a comprehensive activity program that includes exercise therapy to help patients with heart disease regain strength and self-confidence, return to a comfortable home and social life, and prevent recurrence or readmission of heart disease. It aims to.
  • the core of exercise therapy is aerobic exercise such as walking, jogging, cycling, and aerobics. In order to perform aerobic exercise more safely and effectively, it is preferable for the patient to exercise at an intensity near his/her own anaerobic threshold (AT).
  • AT anaerobic threshold
  • the anaerobic metabolic threshold is an example of an exercise tolerance evaluation index, and corresponds to the change point of the cardiopulmonary function status, that is, the exercise intensity near the boundary between aerobic and anaerobic exercise.
  • the anaerobic metabolic threshold is generally determined by a CPX test (cardiopulmonary exercise test) in which exhaled gas is collected and analyzed while the test subject is gradually given an exercise load (see Non-Patent Document 1). .
  • the CPX test uses results measured by exhaled gas analysis (e.g., oxygen uptake, carbon dioxide output, tidal volume, respiratory rate, minute ventilation, or a combination thereof) to determine the anaerobic metabolic threshold. is determined.
  • the CPX test can also determine the maximal oxygen uptake, which corresponds to an exercise intensity near the maximum exercise tolerance.
  • the CPX examination has problems such as the fact that it imposes a large physical burden on the person to be examined, that the examination equipment is expensive, and the facilities that can carry out the examination are limited. In addition, it is not comfortable for the test subject to wear an exhalation mask, which is required for exhaled gas analysis, which is essential for the CPX examination.
  • Forcing the wearer to wear a special device, such as an expiratory mask, during exercise can be uncomfortable, inconvenient, or cumbersome to test subjects, and can affect exercise tolerance endpoints (e.g., anaerobic threshold, or maximal oxygen uptake). (quantity)).
  • exercise tolerance endpoints e.g., anaerobic threshold, or maximal oxygen uptake. (quantity)
  • the purpose of the present disclosure is to evaluate the user's exercise tolerance without imposing a burden on the user.
  • a program causes a computer to function as means for acquiring a user moving image showing a user exercising and means for estimating the user's exercise tolerance based on the user moving image.
  • FIG. 1 is a block diagram showing the configuration of an information processing system according to an embodiment
  • FIG. It is a block diagram showing the configuration of the client device of the present embodiment. It is a block diagram which shows the structure of the server of this embodiment. It is a block diagram showing the configuration of the wearable device of the present embodiment.
  • FIG. 1 is an explanatory diagram of the outline of this embodiment; It is a figure which shows the data structure of the teacher data set of this embodiment. 4 is a flowchart of information processing according to the embodiment; It is a figure which shows the example of a screen displayed in the information processing of this embodiment. It is a figure which shows the example of a screen displayed in the information processing of this embodiment. It is a figure which shows the example of a screen displayed in the information processing of this embodiment. It is a figure which shows the example of a screen displayed in the information processing of this embodiment.
  • FIG. 10 is a diagram showing the data structure of a teacher data set of modification 1;
  • FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.
  • the information processing system 1 includes a client device 10, a server 30, and a wearable device 50.
  • FIG. The client device 10 and server 30 are connected via a network (for example, the Internet or an intranet) NW.
  • the client device 10 and the wearable device 50 are connected via a wireless channel using Bluetooth (registered trademark) technology, for example.
  • the client device 10 is an example of an information processing device that transmits requests to the server 30 .
  • the client device 10 is, for example, a smart phone, a tablet terminal, or a personal computer.
  • the server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request sent from the client device 10 .
  • the server 30 is, for example, a web server.
  • the wearable device 50 is an example of an information processing device that can be worn on a user's body (for example, an arm).
  • FIG. 2 is a block diagram showing the configuration of the client device of this embodiment.
  • the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, and a communication interface .
  • Client device 10 is connected to display 15 , camera 16 and depth sensor 17 .
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (eg, flash memory or hard disk).
  • Programs include, for example, the following programs. ⁇ Program of OS (Operating System) ⁇ Program of application that executes information processing (for example, web browser, rehabilitation application, or fitness application)
  • the data includes, for example, the following data. ⁇ Databases referenced in information processing ⁇ Data obtained by executing information processing (that is, execution results of information processing)
  • the processor 12 is a computer that implements the functions of the client device 10 by activating programs stored in the storage device 11 .
  • Processor 12 is, for example, at least one of the following: ⁇ CPU (Central Processing Unit) ⁇ GPU (Graphic Processing Unit) ⁇ ASIC (Application Specific Integrated Circuit) ⁇ FPGA (Field Programmable Gate Array)
  • the input/output interface 13 acquires information (e.g., user instructions, images, sounds) from input devices connected to the client device 10, and outputs information (e.g., images, sounds) to output devices connected to the client device 10. command).
  • the input device is, for example, camera 16, depth sensor 17, microphone, keyboard, pointing device, touch panel, sensor, or a combination thereof.
  • Output devices are, for example, display 15, speakers, or a combination thereof.
  • Communication interface 14 is configured to control communication between client device 10 and external devices (eg, server 30 and wearable device 50).
  • communication interface 14 may include a module for communication with server 30 (eg, a WiFi module, a mobile communication module, or a combination thereof).
  • Communication interface 14 may include a module (eg, a Bluetooth module) for communication with wearable device 50 .
  • the display 15 is configured to display images (still images or moving images).
  • the display 15 is, for example, a liquid crystal display or an organic EL display.
  • the camera 16 is configured to take pictures and generate image signals.
  • the depth sensor 17 is, for example, LIDAR (Light Detection And Ranging).
  • the depth sensor 17 is configured to measure the distance (depth) from the depth sensor 17 to surrounding objects (eg, a user).
  • FIG. 3 is a block diagram showing the configuration of the server of this embodiment.
  • the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface .
  • the storage device 31 is configured to store programs and data.
  • Storage device 31 is, for example, a combination of ROM, RAM, and storage.
  • Programs include, for example, the following programs. ⁇ OS program ⁇ Application program that executes information processing
  • the data includes, for example, the following data. ⁇ Databases referenced in information processing ⁇ Execution results of information processing
  • the processor 32 is a computer that implements the functions of the server 30 by activating programs stored in the storage device 31 .
  • Processor 32 is, for example, at least one of the following: ⁇ CPU ⁇ GPU ⁇ ASICs ⁇ FPGA
  • the input/output interface 33 is configured to obtain information (eg, user instructions) from input devices connected to the server 30 and output information to output devices connected to the server 30 .
  • Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
  • An output device is, for example, a display.
  • the communication interface 34 is configured to control communication between the server 30 and an external device (eg, client device 10).
  • an external device eg, client device 10
  • FIG. 4 is a block diagram showing the configuration of the wearable device of this embodiment.
  • the wearable device 50 includes a storage device 51, a processor 52, an input/output interface 53, and a communication interface . Wearable device 50 is connected to display 55 and heart rate sensor 56 .
  • the storage device 51 is configured to store programs and data.
  • Storage device 51 is, for example, a combination of ROM, RAM, and storage.
  • Programs include, for example, the following programs. ⁇ Program of OS ⁇ Program of application (for example, rehabilitation application or fitness application) that executes information processing
  • the data includes, for example, the following data. ⁇ Databases referenced in information processing ⁇ Execution results of information processing
  • the processor 52 is a computer that implements the functions of the wearable device 50 by activating programs stored in the storage device 51 .
  • Processor 52 is, for example, at least one of the following: ⁇ CPU ⁇ GPU ⁇ ASICs ⁇ FPGA
  • the input/output interface 53 acquires information (e.g., user instructions, sensing results) from input devices connected to the wearable device 50, and outputs information (e.g., images, commands) to output devices connected to the wearable device 50. ).
  • the input device is, for example, heart rate sensor 56, keyboard, pointing device, touch panel, or a combination thereof.
  • Output devices are, for example, display 55, speakers, or a combination thereof.
  • Communication interface 54 is configured to control communication between wearable device 50 and an external device (eg, client device 10).
  • communication interface 54 may include a module (eg, a Bluetooth module) for communication with client device 10 .
  • the display 55 is configured to display images (still images or moving images).
  • the display 55 is, for example, a liquid crystal display or an organic EL display.
  • the heartbeat sensor 56 is configured to measure heartbeats and generate sensing signals.
  • heart rate sensor 56 measures heart rate using optical measurement techniques.
  • FIG. 5 is an explanatory diagram of the outline of this embodiment.
  • the camera 16 of the client device 10 captures the appearance (for example, the whole body) of the user US1 during exercise.
  • the example of FIG. 5 shows an example in which the user US1 exercises by bicycle, the user US1 can perform any exercise (aerobic exercise or anaerobic exercise).
  • the camera 16 captures the appearance of the user US1 from the front or obliquely in front.
  • the depth sensor 17 measures the distance (depth) from the depth sensor 17 to each part of the user US1. Note that it is also possible to generate three-dimensional video data by combining, for example, moving image data (two-dimensional) generated by the camera 16 and depth data generated by, for example, the depth sensor 17 .
  • the heartbeat sensor 56 of the wearable device 50 measures the heartbeat of the user US1 and transmits the measurement result to the client device 10.
  • the client device 10 at least refers to the video data acquired from the camera 16 and analyzes the user's physical condition during exercise.
  • the client device 10 may further refer to depth data acquired from the depth sensor 17 in order to analyze the user's physical condition during exercise.
  • the client device 10 provides data related to the physical condition of the user US1 during exercise (hereinafter referred to as , “user data”) to the server 30 .
  • the server 30 estimates the exercise tolerance of the user US1 by applying the learned model LM1 (an example of an "estimation model") to the acquired user data.
  • the server 30 transmits the estimation result (for example, the numerical value indicating the anaerobic threshold, the maximum oxygen uptake, or the real-time cardiopulmonary exercise load of the user US1) to the client device 10 .
  • the information processing system 1 estimates the exercise tolerance of the user US1 based on the moving image (or moving image and depth) of the user US1 during exercise and the heart rate. Therefore, according to the information processing system 1, it is possible to evaluate the exercise tolerance of the user without imposing a burden on the user such as wearing special equipment.
  • FIG. 6 is a diagram showing the data structure of the teacher data set of this embodiment.
  • the teacher data set includes multiple teacher data.
  • Teacher data is used to train or evaluate a target model.
  • Teacher data includes a sample ID, input data, and correct answer data.
  • a sample ID is information that identifies teacher data.
  • Input data is the data that is input to the target model during training or evaluation.
  • the input data correspond to the examples used when training or evaluating the target model.
  • the input data is data regarding the subject's physical condition during exercise. At least part of the data regarding the subject's physical condition is obtained by analyzing the subject's physical condition with reference to subject moving image data (or subject moving image data and subject depth data).
  • Subject video data is data related to subject videos showing subjects in motion.
  • the subject video data is, for example, a camera (for example, a camera mounted on a smartphone) from the front or obliquely forward (for example, 45 degrees forward) of the subject's appearance (for example, the whole body) during a test on expired gas (for example, a CPX test) ) can be obtained by shooting with
  • Subject depth data is data related to the distance (depth) from the depth sensor to each part of the subject during exercise.
  • the subject depth data can be obtained by operating the depth sensor when capturing the subject moving image.
  • the subject may be the same person as the user whose exercise tolerance is estimated during operation of the information processing system 1, or may be a different person.
  • the target model may learn the user's individuality and the estimation accuracy may be improved.
  • allowing the subject to be a different person from the user has the advantage of facilitating enrichment of the teacher data set.
  • the subjects may be composed of multiple people including the user or multiple people not including the user.
  • the input data includes skeletal data, facial expression data, skin color data, respiration data, and heart rate data.
  • Skeletal data is data (for example, feature values) related to the subject's skeleton during exercise.
  • Skeletal data includes, for example, data on velocity or acceleration of each part of the subject (which may include data on changes in muscle parts used by the subject or data on bodily sensation of the subject).
  • Skeletal data can be obtained by analyzing the skeleton of a exercising subject with reference to subject moving image data (or subject moving image data and subject depth data).
  • subject moving image data or subject moving image data and subject depth data.
  • the iOS ® 14 SDK, Vision, or other skeleton detection algorithms are available for skeleton analysis.
  • skeletal data for the teacher data set can be obtained, for example, by having the subject perform exercise while wearing motion sensors on each part of the subject.
  • Facial expression data is data (for example, feature values) related to the subject's facial expression during exercise. Facial expression data can be analyzed by applying algorithms or trained models to subject video data. Alternatively, the facial expression data for the teacher data set can be obtained by labeling by a person who has watched the subject moving image, for example.
  • the skin color data is data (for example, feature values) related to the subject's skin color during exercise.
  • Skin color data can be analyzed by applying algorithms or trained models to subject video data.
  • the skin color data for the training data set can be obtained by labeling by a person who has watched the subject video, for example.
  • Breathing data is data (for example, feature quantity) relating to breathing of a subject during exercise.
  • Respiration data relates, for example, to the number of breaths per unit time or the breathing pattern.
  • Breathing modalities can include at least one of the following. ⁇ Ventilation frequency ⁇ Ventilation volume ⁇ Ventilation rate (that is, ventilation volume per unit time, or ventilation rate) ⁇ Ventilation acceleration (that is, the time derivative of the ventilation rate) ⁇ Carbon dioxide emission concentration ⁇ Carbon dioxide emission (VCO2) ⁇ Oxygen uptake concentration ⁇ Oxygen uptake (VO2)
  • Respiration data can be obtained, for example, by analyzing the skeleton data.
  • the following items can be analyzed from skeleton data. Movement (spreading) of the shoulders, chest (which may include the lateral chest), abdomen, or a combination thereof ⁇ Inspiratory time ⁇ Expiratory time ⁇ Use of accessory muscles
  • Respiratory data for the teacher data set can be obtained, for example, from the results of breath gas tests performed on subjects during exercise. Details of a breath gas test that can be performed on an exercising subject are described below.
  • ventilation rate, ventilation volume, ventilation rate, or ventilation acceleration among the respiratory data for the teacher dataset may be obtained from, for example, a respiratory function test (e.g., pulmonary function test, or spirometry test) performed on the subject during exercise. ) can also be obtained from the results of In this case, the respiratory function test is not limited to medical equipment, and commercially available test equipment may be used.
  • Heart rate data is data (for example, feature values) related to the subject's heart rate during exercise.
  • Heart rate data can be acquired by analyzing, for example, subject moving image data or its analysis results (for example, skin color data).
  • the heart rate data for the training data set may be obtained from the results of a test for exhaled gas, for example together with the respiration data described below.
  • Subject heart rate data for the training data set can also be obtained by having the subject perform the above exercise while wearing a heart rate sensor or electrodes for an electrocardiogram monitor.
  • Correct data is data corresponding to the correct answer for the corresponding input data (example).
  • the target model is trained (supervised learning) to produce an output that is closer to the correct data for the input data.
  • the correct data is at least an exercise tolerance evaluation index, an index showing the relationship between the evaluation index and the amount of exercise load, or an index that is a material for determining the exercise tolerance evaluation index. including one.
  • Anaerobic threshold (AT) and maximum oxygen uptake (Peak VO2) are examples of exercise tolerance evaluation indices.
  • the cardiopulmonary exercise load is an example of an index that indicates the relationship between the exercise tolerance evaluation index and the exercise load.
  • the cardiopulmonary exercise load can be calculated as a ratio of the (real-time) exercise load to the maximum oxygen uptake.
  • Correct data can be obtained, for example, from the results of breath gas tests conducted on subjects who are exercising.
  • a first example of a breath gas test is a test (typically a CPX test) performed while a subject wearing a breath gas analyzer is performing progressive resistance exercise (eg, ergometer).
  • a second example of an expired gas test is performed while a subject wearing an expired gas analyzer is exercising with a constant or variable load (e.g., body weight exercise, gymnastics, strength training). It is an inspection that is used.
  • correct data can also be obtained from the results of tests other than breath gas performed on exercising subjects.
  • correct data can also be obtained from the results of a cardiopulmonary exercise load prediction test based on the measurement of lactate concentration in sweat or blood of a subject during exercise.
  • a wearable lactate sensor may be utilized to measure a subject's lactate concentration.
  • the exercise load is an index for quantitatively evaluating the exercise load.
  • Exercise load can be expressed numerically using at least one of the following: ⁇ Energy (calorie) consumption ⁇ Oxygen consumption ⁇ Heart rate
  • the estimation model used by the server 30 corresponds to a trained model created by supervised learning using the teacher data set (FIG. 6), or a derived model or distilled model of the trained model.
  • FIG. 7 is a flow chart of information processing in this embodiment.
  • FIG. 8 is a diagram showing an example of a screen displayed during information processing according to this embodiment.
  • FIG. 9 is a diagram showing an example of a screen displayed during information processing according to this embodiment.
  • FIG. 10 is a diagram showing an example of a screen displayed during information processing according to this embodiment.
  • Information processing is started, for example, when one of the following start conditions is met. ⁇ The information processing was called by another process. - The user performed an operation to call up information processing. - The client device 10 has entered a predetermined state (for example, a predetermined application has been activated). ⁇ The specified date and time has arrived. - A predetermined time has passed since a predetermined event.
  • the client device 10 performs sensing (S110). Specifically, the client device 10 enables the operation of the camera 16 to start shooting a video of the user exercising (hereinafter referred to as “user video”). In addition, by enabling the operation of the depth sensor 17, the client device 10 starts measuring the distance from the depth sensor 17 to each part of the user during exercise (hereinafter referred to as “user depth”). Further, the client device 10 causes the wearable device 50 to start measuring the heart rate (hereinafter referred to as “user heart rate”) by the heart rate sensor 56 .
  • user heart rate the heart rate sensor 56 .
  • the client device 10 executes data acquisition (S111). Specifically, the client device 10 acquires sensing results generated by various sensors enabled in step S110. For example, the client device 10 acquires user video data from the camera 16 , user depth data from the depth sensor 17 , and user heart rate data from the wearable device 50 .
  • the client device 10 executes the request (S112). Specifically, the client device 10 refers to the data acquired in step S111 and generates a request. The client device 10 transmits the generated request to the server 30 .
  • the request can include, for example, at least one of the following.
  • - Data acquired in step S111 for example, user video data, user depth data, or user heart rate data
  • User data for example, skeleton data, facial expression data, skin color
  • the server 30 performs exercise tolerance estimation (S130). Specifically, the server 30 acquires the input data of the estimation model based on the request acquired from the client device 10 .
  • the input data includes user data (skeletal data, facial expression data, skin color data, respiration data, heart rate data, or a combination thereof) as well as teacher data.
  • the server 30 estimates exercise tolerance by applying an estimation model to the input data. As an example, the server 30 estimates at least one of the following. ⁇ Evaluation index of exercise tolerance (e.g., anaerobic threshold, or maximal oxygen uptake) - The relationship between the user's (real-time) exercise load and the estimated evaluation index (for example, magnitude relationship, difference, ratio (that is, cardiopulmonary exercise load), or a combination thereof)
  • ⁇ Evaluation index of exercise tolerance e.g., anaerobic threshold, or maximal oxygen uptake
  • the server 30 executes a response (S131). Specifically, the server 30 generates a response based on the estimation result in step S130.
  • the server 30 transmits the generated response to the client device 10 .
  • the response can include at least one of the following. ⁇ Data corresponding to the result of estimation regarding exercise tolerance ⁇ Data obtained by processing the result of estimation regarding exercise tolerance (for example, screen data to be displayed on the display 15 of the client device 10, or data for generating the screen) referenced data)
  • the client device 10 executes information presentation (S113) after step S131. Specifically, the client device 10 causes the display 15 to display information based on the response acquired from the server 30 (that is, the result of estimation regarding the user's exercise tolerance). However, the information may be presented to the user's mentor (eg, medical personnel or trainer) on the terminal used by the trainer instead of, or in addition to, the user.
  • the user's mentor eg, medical personnel or trainer
  • the client device 10 causes the display 15 to display a screen P10 (FIG. 8).
  • the screen P10 includes display objects A10a to A10b.
  • the display object A10a displays information indicating the user's exercise tolerance evaluation index.
  • the display object A10a displays the result of converting the user's anaerobic threshold into METS.
  • the display object A10b displays information on recommended activities for the user.
  • the activity recommended to the user is an activity different from the exercise performed by the user and having a load corresponding to the user's exercise tolerance evaluation index.
  • the load amount according to the exercise tolerance evaluation index of the user is, for example, the same load amount as the exercise tolerance evaluation index, or a load amount slightly above/below the exercise tolerance evaluation index.
  • Activities recommended for the user may be selected based on user attributes (eg, preferences). In the example of FIG. 8, the display object A10b displays three selected from the activities with loads corresponding to the user's anaerobic threshold.
  • the client device 10 causes the display 15 to display a screen P11 (FIG. 9).
  • the screen P11 includes display objects A11a to A11b.
  • the display object A11a displays information indicating the user's exercise tolerance evaluation index.
  • the display object A11a displays the result of converting the user's maximum oxygen uptake into METS and the change in the result from the previous time.
  • the display object A11b displays changes over time in the result of converting the user's exercise tolerance evaluation index into METS.
  • the display object A11b displays a graph showing changes over time in the results of converting the user's maximum oxygen uptake into METS.
  • the client device 10 causes the display 15 to display screens P12a to P12c (FIG. 10).
  • the client device 10 displays the screens P12a to P12c on the display 15 while the user is exercising.
  • Screens P12a-P12c include display objects A12a-A12e.
  • the display object A12a is an object that displays the remaining time of exercise or the duration of exercise.
  • the length of exercise time may be fixed or variable.
  • the length of exercise time may be set by the user, may be set by the user's instructor, or may be set by the operator of the application executed by the client device 10 .
  • the display object A12a displays a timer indicating the remaining time of exercise.
  • the display object A12b displays a score that evaluates the quality of the user's exercise.
  • the score is an accumulated value of points given so that the smaller the difference between the user's exercise load and the exercise tolerance evaluation index, the higher the score.
  • the display object A12c displays information about the relationship between the user's exercise load and the evaluation index of the user's exercise tolerance. In the example of FIG. 10, the display object A12c displays whether the user's exercise load exceeds the anaerobic metabolism threshold or falls below the anaerobic metabolism threshold by animation production of the state of the balance.
  • the display object A12d displays information about the relationship between the user's exercise load and the evaluation index of the user's exercise tolerance. In the example of FIG.
  • the display object A12d indicates whether the user's exercise load exceeds the anaerobic metabolism threshold or falls below the anaerobic metabolism threshold by the expression of the icon.
  • the display object A12e displays information about the user's exercise load amount adjustment guideline. In the example of FIG. 10, the display object A12e displays a comment telling whether the exercise load amount of the user should be increased, maintained, or decreased.
  • the client device 10 After step S113, the client device 10 ends the information processing (FIG. 7). However, if the user's exercise tolerance is estimated in real time while the user is exercising, the client device 10 may return to data acquisition (S111) after step S113.
  • the information processing system 1 of the embodiment estimates the user's exercise tolerance based on the user's moving image (or moving image and depth) during exercise and heart rate. . This makes it possible to evaluate the user's exercise tolerance without placing a burden on the user, such as wearing a special device.
  • the information processing system 1 may estimate the user's exercise tolerance by applying an estimation model to input data based on the user's moving image (or moving image and depth) during exercise and heart rate. .
  • This allows a statistical estimation of the exercise tolerance of the user to be made in a short period of time.
  • the estimated model may correspond to a trained model created by supervised learning using the aforementioned teacher data set (FIG. 6), or a derived or distilled model of the trained model. Thereby, an estimation model can be constructed efficiently.
  • the input data to which the estimation model is applied may include user data regarding the user's physical state during exercise. This makes it possible to improve the accuracy of the estimation model.
  • the user data may include data regarding at least one of the user's anatomy, facial expression, skin tone, respiration, or heart rate during exercise. This makes it possible to improve the accuracy of the estimation model. Furthermore, the subject may be the same person as the user. As a result, highly accurate estimation can be performed using a model that has learned the user's individuality.
  • the information processing system 1 may estimate at least one of the user's anaerobic threshold, maximum oxygen uptake, or real-time cardiopulmonary exercise load. This makes it possible to appropriately evaluate the user's exercise tolerance or the user's real-time exercise load.
  • the information processing system 1 may present information based on the results of estimation regarding the user's exercise tolerance. Thereby, it is possible to give advice to the user or the instructor according to the user's exercise tolerance.
  • the information processing system 1 may present an evaluation index of the user's exercise tolerance. This allows the recipient of the information to grasp the user's current exercise tolerance.
  • the information processing system 1 may present information regarding an activity different from the exercise performed by the user, having a load amount according to the user's exercise tolerance evaluation index. As a result, the degree of freedom of the user's activities can be increased, and the motivation for continuing rehabilitation or fitness can be improved.
  • the information processing system 1 may present information about changes over time in the user's exercise tolerance evaluation index.
  • the information processing system 1 may present information regarding an adjustment guideline for the user's exercise load amount based on the result of estimation regarding exercise tolerance. This allows the user to optimize load by following instructions presented during exercise.
  • information about the relationship between the user's exercise load and the estimation result of the user's exercise tolerance evaluation index may be presented. This allows the user to self-adjust and optimize the load during exercise.
  • Modification 1 will be described. Modification 1 is an example of modifying the input data for the estimation model.
  • Modification 1 An overview of Modification 1 will be explained. In this embodiment, an example in which an estimation model is applied to input data based on user moving images has been described. In Modification 1, by applying an estimation model to input data based on both the user's video and the user's health condition, it is also possible to estimate the user's exercise tolerance.
  • Health conditions include at least one of the following: ⁇ Age, gender, height, weight, body fat percentage, muscle mass, bone density, history of current illness, medical history, oral medication history, surgery history, lifestyle history (e.g., smoking history, drinking history, activities of daily living (ADL), frailty) score, etc.) ⁇ Family history ⁇ Respiratory function test results ⁇ Test results other than respiratory function tests (e.g., blood test, urine test, electrocardiogram (including Holter electrocardiogram), echocardiography, X-ray, CT scan (cardiac morphology) including CT and coronary artery CT), MRI examination, nuclear medicine examination, PET examination, etc.) ⁇ Data acquired during cardiac rehabilitation (including Borg index)
  • FIG. 11 is a diagram showing the data structure of the teacher data set of Modification 1. As shown in FIG.
  • the teacher data set of Modification 1 includes a plurality of teacher data.
  • Teacher data is used to train or evaluate a target model.
  • Teacher data includes a sample ID, input data, and correct answer data.
  • the sample ID and correct answer data are as described in this embodiment.
  • Input data is the data that is input to the target model during training or evaluation.
  • the input data correspond to the examples used when training or evaluating the target model.
  • the input data are data regarding the subject's physical condition during exercise (ie, relatively dynamic data) and data regarding the subject's health state (ie, relatively static data).
  • the data regarding the subject's physical condition are as described in this embodiment.
  • Data on the health status of subjects can be obtained in various ways.
  • the data regarding the health condition of the subject may be obtained before, during, or after the subject's exercise.
  • Data on the subject's health condition may be obtained based on a report from the subject or the attending physician, or may be obtained by extracting information linked to the subject in the medical information system. , may be obtained via the subject's app (eg, health care app).
  • the estimation model used by the server 30 is a trained model created by supervised learning using a teacher data set (FIG. 11), or a derived model of the trained model. Or it corresponds to the distillation model.
  • the client device 10 performs sensing (S110) in the same manner as in FIG.
  • the client device 10 executes data acquisition (S111). Specifically, the client device 10 acquires sensing results generated by various sensors enabled in step S110. For example, the client device 10 acquires user video data from the camera 16 , user depth data from the depth sensor 17 , and user heart rate data from the wearable device 50 .
  • the client device 10 acquires data regarding the user's health condition (hereinafter referred to as "user health condition data").
  • user health condition data data regarding the user's health condition
  • the client device 10 may acquire user health condition data based on an operation (report) by the user or the doctor in charge, or extract information linked to the user in the medical information system.
  • User health data may be acquired, or user health data may be acquired via a user's app (for example, a healthcare app).
  • the client device 10 may acquire user health condition data at a timing different from step S111 (for example, before step S110, at the same timing as step S110, or after step S111).
  • the client device 10 executes the request (S112). Specifically, the client device 10 refers to the data acquired in step S111 and generates a request. The client device 10 transmits the generated request to the server 30 .
  • the request can include, for example, at least one of the following.
  • - Data acquired in step S111 for example, user video data, user depth data, user heart rate data, or user health condition data
  • ⁇ Data obtained by processing the data acquired in step S111
  • User data for example, skeleton data, facial expression data, skin color
  • the server 30 performs exercise tolerance estimation (S130). Specifically, the server 30 acquires the input data of the estimation model based on the request acquired from the client device 10 .
  • Input data includes user data (skeletal structure data, facial expression data, skin color data, respiration data, heart rate data, or a combination thereof, and health condition data) as well as teacher data.
  • the server 30 estimates exercise tolerance by applying an estimation model to the input data. As an example, the server 30 estimates at least one of the following.
  • ⁇ Evaluation index of exercise tolerance e.g., anaerobic threshold, or maximal oxygen uptake
  • the relationship between the user's (real-time) exercise load and the estimated evaluation index for example, magnitude relationship, difference, ratio (that is, cardiopulmonary exercise load), or a combination thereof)
  • step S130 the server 30 executes a response (S131) as in FIG.
  • step S131 the client device 10 executes information presentation (S113) in the same manner as in FIG.
  • the information processing system 1 of Modification 1 applies an estimation model to the input data based on both the user's video and the user's health condition, thereby determining the exercise tolerance of the user. make inferences about ability. This makes it possible to perform highly accurate estimation by further considering the health condition of the user. For example, even if there is a difference between the user's health condition and the subject's health condition from which the training data is based, a reasonable estimation can be made.
  • the storage device 11 may be connected to the client device 10 via the network NW.
  • the display 15 may be built into the client device 10 .
  • Storage device 31 may be connected to server 30 via network NW.
  • the information processing system of the embodiment and modification 1 can also be implemented by a stand-alone computer.
  • the client device 10 alone may use the estimation model to estimate exercise tolerance.
  • Each step of the above information processing can be executed by either the client device 10 or the server 30.
  • the server 30 may acquire at least part of the user data by analyzing the user moving image (or the user moving image and the user depth).
  • a screen based on the response from server 30 may be displayed on display 55 of wearable device 50 .
  • an example of shooting a user video using the camera 16 of the client device 10 has been shown.
  • the user moving image may be shot using a camera other than camera 16 .
  • An example of measuring the user depth using the depth sensor 17 of the client device 10 has been shown.
  • the user depth may be measured using a depth sensor other than depth sensor 17 .
  • the heart rate can be obtained by analyzing (eg, rPPG (Remote Photo-plethysmography) analysis) video data or its analysis results (eg, skin color data).
  • Heart rate analysis may be performed by a trained model built using machine learning techniques.
  • the electrocardiogram monitor may measure the heart rate of the user by exercising while wearing the electrodes for the electrocardiogram monitor. In these variations, the wearable device 50 need not be worn by the user.
  • Wearable device 50 may include a sensor for measuring at least one of the following items instead of heartbeat sensor 56 or in addition to heartbeat sensor 56 .
  • Acceleration/Blood Sugar Level/Oxygen Saturation Measurement results obtained by each sensor can be appropriately used in generating input data, estimating exercise tolerance, presenting information based on the results of estimation, or in other situations.
  • the measurement result of blood glucose level can be referred to, for example, to evaluate energy consumption or exercise load converted into oxygen consumption.
  • the acceleration measurement result can be used, for example, to determine the score of the user's exercise (eg gymnastics).
  • acceleration data may be used as part of the input data for the estimation model.
  • the user's skeleton may be analyzed with reference to acceleration data.
  • Acceleration data may be obtained by, for example, having the user carry the client device 10 having an acceleration sensor when shooting a user moving image.
  • oxygen saturation data may be obtained, for example, by having the user wear a pulse oximeter when shooting a user moving image.
  • oxygen saturation data may be estimated, for example, by performing rPPG analysis on user video data.
  • the information processing system 1 of the present embodiment and Modification 1 can also be applied to a video game in which the progress of the game is controlled according to the body movements of the player.
  • the information processing system 1 may estimate the user's exercise tolerance during game play, and determine any one of the following according to the result of the estimation. As a result, it is possible to enhance the effect of the video game on promoting the user's health.
  • Quality e.g., difficulty
  • quantity of video game-related tasks e.g., stages, missions, quests
  • Video game-related benefits e.g., in-game currency, items, bonuses
  • quality e.g. type
  • game parameters related to video game progression e.g. score, damage
  • a microphone mounted on the client device 10 or a microphone connected to the client device 10 receives sound waves emitted by a user who is exercising (for example, sounds caused by breathing or vocalization) and generates sound data. good too. Sound data, together with user data, may constitute input data for the estimation model.
  • the CPX test was exemplified as a test related to exhaled gas.
  • an exercise load is gradually applied to the examinee.
  • the real-time cardiopulmonary exercise load can be estimated even when the user is given a constant or variable exercise load.
  • the exercise performed by the user may be body weight exercise, gymnastics, or strength training.
  • Modified Example 1 an example of applying an estimation model to input data based on health conditions was shown. However, it is also possible to build multiple estimation models based on (at least in part) the subject's health status. In this case, (at least part of) the user's health may be referenced to select the estimation model. In this further variation, the input data for the estimation model may be data not based on the user's health, or data based on the user's health and user videos.
  • information processing system 10 client device 11: storage device 12: processor 13: input/output interface 14: communication interface 15: display 16: camera 17: depth sensor 30: server 31: storage device 32: processor 33: input/output interface 34: communication interface 50: wearable device 51: storage device 52: processor 53: input/output interface 54: communication interface 55: display 56: heart rate sensor

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

A program according to one aspect of the present disclosure causes a computer to function as: a means for acquiring a user video captured of the user exercising; and a means for estimating the user's exercise tolerance on the basis of the user video.

Description

プログラム、情報処理装置、および情報処理方法Program, information processing device, and information processing method
 本開示は、プログラム、情報処理装置、および情報処理方法に関する。 The present disclosure relates to a program, an information processing device, and an information processing method.
 心臓リハビリテーションは、運動療法を含む総合的活動プログラムを通じて、心臓病の患者が、体力および自信を回復し、快適な家庭生活および社会生活に復帰するとともに、心臓病の再発または再入院を防止することを目指す。運動療法の中心は、ウォーキング、ジョギング、サイクリング、エアロビクス、などの有酸素運動である。有酸素運動をより安全かつ効果的に行うためには、患者が、自己の嫌気性代謝閾値(AT(Anaerobic Threshold))付近の強度で運動を行うことが好ましい。 Cardiac rehabilitation is a comprehensive activity program that includes exercise therapy to help patients with heart disease regain strength and self-confidence, return to a comfortable home and social life, and prevent recurrence or readmission of heart disease. It aims to. The core of exercise therapy is aerobic exercise such as walking, jogging, cycling, and aerobics. In order to perform aerobic exercise more safely and effectively, it is preferable for the patient to exercise at an intensity near his/her own anaerobic threshold (AT).
 嫌気性代謝閾値は、運動耐容能の評価指標の一例であって、心肺機能状態の変化点、つまり、有酸素運動と無酸素運動との境界付近の運動強度に相当する。嫌気性代謝閾値は、一般的に、検査対象者に漸増的に運動負荷を与えながら呼気ガスを収集して分析を行うCPX検査(心肺運動負荷検査)により決定される(非特許文献1参照)。CPX検査では、呼気ガス分析により測定された結果(例えば、酸素摂取量、二酸化炭素排出量、1回換気量、呼吸数、分時換気量、またはそれらの組み合わせ)に基づいて、嫌気性代謝閾値が決定される。CPX検査によれば、嫌気性代謝閾値のほか、最大運動耐容能付近の運動強度に相当する最大酸素摂取量を決定することもできる。 The anaerobic metabolic threshold is an example of an exercise tolerance evaluation index, and corresponds to the change point of the cardiopulmonary function status, that is, the exercise intensity near the boundary between aerobic and anaerobic exercise. The anaerobic metabolic threshold is generally determined by a CPX test (cardiopulmonary exercise test) in which exhaled gas is collected and analyzed while the test subject is gradually given an exercise load (see Non-Patent Document 1). . The CPX test uses results measured by exhaled gas analysis (e.g., oxygen uptake, carbon dioxide output, tidal volume, respiratory rate, minute ventilation, or a combination thereof) to determine the anaerobic metabolic threshold. is determined. Besides the anaerobic metabolic threshold, the CPX test can also determine the maximal oxygen uptake, which corresponds to an exercise intensity near the maximum exercise tolerance.
 CPX検査には、検査対象者に大きな身体的負担がかかる、検査装置が高額で実施可能な施設が限られる、などの問題がある。
 また、CPX検査に必須の呼気ガス分析で必要な呼気マスクの装着は検査対象者にとって快適ではない。
The CPX examination has problems such as the fact that it imposes a large physical burden on the person to be examined, that the examination equipment is expensive, and the facilities that can carry out the examination are limited.
In addition, it is not comfortable for the test subject to wear an exhalation mask, which is required for exhaled gas analysis, which is essential for the CPX examination.
 運動中に呼気マスクのような特殊な器具の装着を強いることは、検査対象者に不快、不便、または面倒と感じさせ、運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)に関する評価の実施を躊躇させるおそれがある。 Forcing the wearer to wear a special device, such as an expiratory mask, during exercise can be uncomfortable, inconvenient, or cumbersome to test subjects, and can affect exercise tolerance endpoints (e.g., anaerobic threshold, or maximal oxygen uptake). (quantity)).
 本開示の目的は、ユーザに負担をかけることなく当該ユーザの運動耐容能に関する評価を行うことである。 The purpose of the present disclosure is to evaluate the user's exercise tolerance without imposing a burden on the user.
 本開示の一態様のプログラムは、コンピュータを、運動中のユーザの写ったユーザ動画を取得する手段、ユーザ動画に基づいて、ユーザの運動耐容能に関する推定を行う手段として機能させる。 A program according to one aspect of the present disclosure causes a computer to function as means for acquiring a user moving image showing a user exercising and means for estimating the user's exercise tolerance based on the user moving image.
 本開示によれば、ユーザに負担をかけることなく当該ユーザの運動耐容能に関する評価を行うことができる。 According to the present disclosure, it is possible to evaluate the user's exercise tolerance without imposing a burden on the user.
本実施形態の情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to an embodiment; FIG. 本実施形態のクライアント装置の構成を示すブロック図である。It is a block diagram showing the configuration of the client device of the present embodiment. 本実施形態のサーバの構成を示すブロック図である。It is a block diagram which shows the structure of the server of this embodiment. 本実施形態のウェアラブルデバイスの構成を示すブロック図である。It is a block diagram showing the configuration of the wearable device of the present embodiment. 本実施形態の概要の説明図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of the outline of this embodiment; 本実施形態の教師データセットのデータ構造を示す図である。It is a figure which shows the data structure of the teacher data set of this embodiment. 本実施形態の情報処理のフローチャートである。4 is a flowchart of information processing according to the embodiment; 本実施形態の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of this embodiment. 本実施形態の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of this embodiment. 本実施形態の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of this embodiment. 変形例1の教師データセットのデータ構造を示す図である。FIG. 10 is a diagram showing the data structure of a teacher data set of modification 1;
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail based on the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.
(1)情報処理システムの構成
 情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.
 図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、ウェアラブルデバイス50とを備える。
 クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
 クライアント装置10及びウェアラブルデバイス50は、例えばBluetooth(登録商標)技術を用いて、無線チャネルを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10, a server 30, and a wearable device 50. FIG.
The client device 10 and server 30 are connected via a network (for example, the Internet or an intranet) NW.
The client device 10 and the wearable device 50 are connected via a wireless channel using Bluetooth (registered trademark) technology, for example.
 クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits requests to the server 30 . The client device 10 is, for example, a smart phone, a tablet terminal, or a personal computer.
 サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、Webサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request sent from the client device 10 . The server 30 is, for example, a web server.
 ウェアラブルデバイス50は、ユーザの身体(例えば腕)に装着可能な情報処理装置の一例である。 The wearable device 50 is an example of an information processing device that can be worn on a user's body (for example, an arm).
(1-1)クライアント装置の構成
 クライアント装置の構成について説明する。図2は、本実施形態のクライアント装置の構成を示すブロック図である。
(1-1) Configuration of Client Apparatus The configuration of the client apparatus will be described. FIG. 2 is a block diagram showing the configuration of the client device of this embodiment.
 図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。クライアント装置10は、ディスプレイ15と、カメラ16と、深度センサ17とに接続される。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, and a communication interface . Client device 10 is connected to display 15 , camera 16 and depth sensor 17 .
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (eg, flash memory or hard disk).
 プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ、リハビリアプリ、またはフィットネスアプリ)のプログラム
Programs include, for example, the following programs.
・Program of OS (Operating System) ・Program of application that executes information processing (for example, web browser, rehabilitation application, or fitness application)
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するコンピュータである。プロセッサ12は、例えば、以下の少なくとも1つである。
 ・CPU(Central Processing Unit)
 ・GPU(Graphic Processing Unit)
 ・ASIC(Application Specific Integrated Circuit)
 ・FPGA(Field Programmable Gate Array)
The processor 12 is a computer that implements the functions of the client device 10 by activating programs stored in the storage device 11 . Processor 12 is, for example, at least one of the following:
・CPU (Central Processing Unit)
・GPU (Graphic Processing Unit)
・ASIC (Application Specific Integrated Circuit)
・FPGA (Field Programmable Gate Array)
 入出力インタフェース13は、クライアント装置10に接続される入力デバイスから情報(例えば、ユーザの指示、画像、音)を取得し、かつ、クライアント装置10に接続される出力デバイスに情報(例えば、画像、コマンド)を出力するように構成される。
 入力デバイスは、例えば、カメラ16、深度センサ17、マイクロホン、キーボード、ポインティングデバイス、タッチパネル、センサ、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイ15、スピーカ、又は、それらの組合せである。
The input/output interface 13 acquires information (e.g., user instructions, images, sounds) from input devices connected to the client device 10, and outputs information (e.g., images, sounds) to output devices connected to the client device 10. command).
The input device is, for example, camera 16, depth sensor 17, microphone, keyboard, pointing device, touch panel, sensor, or a combination thereof.
Output devices are, for example, display 15, speakers, or a combination thereof.
 通信インタフェース14は、クライアント装置10と外部装置(例えば、サーバ30、およびウェアラブルデバイス50)との間の通信を制御するように構成される。
 具体的には、通信インタフェース14は、サーバ30との通信のためのモジュール(例えば、WiFiモジュール、移動通信モジュール、またはそれらの組み合わせ)を含むことができる。通信インタフェース14は、ウェアラブルデバイス50との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
Communication interface 14 is configured to control communication between client device 10 and external devices (eg, server 30 and wearable device 50).
Specifically, communication interface 14 may include a module for communication with server 30 (eg, a WiFi module, a mobile communication module, or a combination thereof). Communication interface 14 may include a module (eg, a Bluetooth module) for communication with wearable device 50 .
 ディスプレイ15は、画像(静止画、または動画)を表示するように構成される。ディスプレイ15は、例えば、液晶ディスプレイ、または有機ELディスプレイである。 The display 15 is configured to display images (still images or moving images). The display 15 is, for example, a liquid crystal display or an organic EL display.
 カメラ16は、撮影を行い、画像信号を生成するように構成される。 The camera 16 is configured to take pictures and generate image signals.
 深度センサ17は、例えばLIDAR(Light Detection And Ranging)である。深度センサ17は、当該深度センサ17から周囲の物体(例えば、ユーザ)までの距離(深度)を測定するように構成される。 The depth sensor 17 is, for example, LIDAR (Light Detection And Ranging). The depth sensor 17 is configured to measure the distance (depth) from the depth sensor 17 to surrounding objects (eg, a user).
(1-2)サーバの構成
 サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
(1-2) Server Configuration The server configuration will be described. FIG. 3 is a block diagram showing the configuration of the server of this embodiment.
 図3に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 3, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface .
 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージの組合せである。 The storage device 31 is configured to store programs and data. Storage device 31 is, for example, a combination of ROM, RAM, and storage.
 プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
・OS program ・Application program that executes information processing
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing
 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するコンピュータである。プロセッサ32は、例えば、以下の少なくとも1つである。
 ・CPU
 ・GPU
 ・ASIC
 ・FPGA
The processor 32 is a computer that implements the functions of the server 30 by activating programs stored in the storage device 31 . Processor 32 is, for example, at least one of the following:
・CPU
・GPU
・ASICs
・FPGA
 入出力インタフェース33は、サーバ30に接続される入力デバイスから情報(例えば、ユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 is configured to obtain information (eg, user instructions) from input devices connected to the server 30 and output information to output devices connected to the server 30 .
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.
 通信インタフェース34は、サーバ30と外部装置(例えば、クライアント装置10)との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and an external device (eg, client device 10).
(1-3)ウェアラブルデバイスの構成
 ウェアラブルデバイスの構成について説明する。図4は、本実施形態のウェアラブルデバイスの構成を示すブロック図である。
(1-3) Configuration of Wearable Device The configuration of the wearable device will be described. FIG. 4 is a block diagram showing the configuration of the wearable device of this embodiment.
 図4に示すように、ウェアラブルデバイス50は、記憶装置51と、プロセッサ52と、入出力インタフェース53と、通信インタフェース54とを備える。ウェアラブルデバイス50は、ディスプレイ55と、心拍センサ56とに接続される。 As shown in FIG. 4, the wearable device 50 includes a storage device 51, a processor 52, an input/output interface 53, and a communication interface . Wearable device 50 is connected to display 55 and heart rate sensor 56 .
 記憶装置51は、プログラム及びデータを記憶するように構成される。記憶装置51は、例えば、ROM、RAM、及び、ストレージの組合せである。 The storage device 51 is configured to store programs and data. Storage device 51 is, for example, a combination of ROM, RAM, and storage.
 プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、リハビリアプリ、またはフィットネスアプリ)のプログラム
Programs include, for example, the following programs.
・Program of OS ・Program of application (for example, rehabilitation application or fitness application) that executes information processing
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing
 プロセッサ52は、記憶装置51に記憶されたプログラムを起動することによって、ウェアラブルデバイス50の機能を実現するコンピュータである。プロセッサ52は、例えば、以下の少なくとも1つである。
 ・CPU
 ・GPU
 ・ASIC
 ・FPGA
The processor 52 is a computer that implements the functions of the wearable device 50 by activating programs stored in the storage device 51 . Processor 52 is, for example, at least one of the following:
・CPU
・GPU
・ASICs
・FPGA
 入出力インタフェース53は、ウェアラブルデバイス50に接続される入力デバイスから情報(例えば、ユーザの指示、センシング結果)を取得し、かつ、ウェアラブルデバイス50に接続される出力デバイスに情報(例えば、画像、コマンド)を出力するように構成される。
 入力デバイスは、例えば、心拍センサ56、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイ55、スピーカ、又は、それらの組合せである。
The input/output interface 53 acquires information (e.g., user instructions, sensing results) from input devices connected to the wearable device 50, and outputs information (e.g., images, commands) to output devices connected to the wearable device 50. ).
The input device is, for example, heart rate sensor 56, keyboard, pointing device, touch panel, or a combination thereof.
Output devices are, for example, display 55, speakers, or a combination thereof.
 通信インタフェース54は、ウェアラブルデバイス50と外部装置(例えば、クライアント装置10)との間の通信を制御するように構成される。
 具体的には、通信インタフェース54は、クライアント装置10との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
Communication interface 54 is configured to control communication between wearable device 50 and an external device (eg, client device 10).
Specifically, communication interface 54 may include a module (eg, a Bluetooth module) for communication with client device 10 .
 ディスプレイ55は、画像(静止画、または動画)を表示するように構成される。ディスプレイ55は、例えば、液晶ディスプレイ、または有機ELディスプレイである。 The display 55 is configured to display images (still images or moving images). The display 55 is, for example, a liquid crystal display or an organic EL display.
 心拍センサ56は、心拍の計測を行い、センシング信号を生成するように構成される。一例として、心拍センサ56は、光学式の計測技法により心拍を計測する。 The heartbeat sensor 56 is configured to measure heartbeats and generate sensing signals. As an example, heart rate sensor 56 measures heart rate using optical measurement techniques.
(2)実施形態の概要
 本実施形態の概要について説明する。図5は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of the present embodiment will be described. FIG. 5 is an explanatory diagram of the outline of this embodiment.
 図5に示すように、クライアント装置10のカメラ16は、運動中のユーザUS1の外観(例えば全身)を撮影する。図5の例では、ユーザUS1が自転車の運動を行う例を示しているが、ユーザUS1は任意の運動(有酸素運動、または無酸素運動)を行うことができる。 As shown in FIG. 5, the camera 16 of the client device 10 captures the appearance (for example, the whole body) of the user US1 during exercise. Although the example of FIG. 5 shows an example in which the user US1 exercises by bicycle, the user US1 can perform any exercise (aerobic exercise or anaerobic exercise).
 一例として、カメラ16は、ユーザUS1の外観を、正面または斜め前から撮影する。深度センサ17は、当該深度センサ17からユーザUS1の各部位までの距離(深度)を測定する。なお、例えばカメラ16によって生成される動画データ(2次元)と、例えば深度センサ17によって生成される深度データとを組み合わせることで、3次元動画データを生成することも可能である。 As an example, the camera 16 captures the appearance of the user US1 from the front or obliquely in front. The depth sensor 17 measures the distance (depth) from the depth sensor 17 to each part of the user US1. Note that it is also possible to generate three-dimensional video data by combining, for example, moving image data (two-dimensional) generated by the camera 16 and depth data generated by, for example, the depth sensor 17 .
 ウェアラブルデバイス50の心拍センサ56は、ユーザUS1の心拍を計測し、計測結果をクライアント装置10へ送信する。 The heartbeat sensor 56 of the wearable device 50 measures the heartbeat of the user US1 and transmits the measurement result to the client device 10.
 クライアント装置10は、少なくとも、カメラ16から取得した動画データを参照し、運動中のユーザの身体状態を解析する。クライアント装置10は、運動中のユーザの身体状態を解析するために、深度センサ17から取得した深度データをさらに参照してもよい。クライアント装置10は、動画データ(或いは、動画データおよび深度データ)の解析結果と、ウェアラブルデバイス50から取得したユーザUS1の心拍の計測結果とに基づく、運動中のユーザUS1の身体状態に関するデータ(以下、「ユーザデータ」という)をサーバ30へ送信する。 The client device 10 at least refers to the video data acquired from the camera 16 and analyzes the user's physical condition during exercise. The client device 10 may further refer to depth data acquired from the depth sensor 17 in order to analyze the user's physical condition during exercise. The client device 10 provides data related to the physical condition of the user US1 during exercise (hereinafter referred to as , “user data”) to the server 30 .
 サーバ30は、取得したユーザデータに、学習済みモデルLM1(「推定モデル」の一例)を適用することで、ユーザUS1の運動耐容能に関する推定を行う。サーバ30は、推定結果(例えば、嫌気性代謝閾値、最大酸素摂取量、またはユーザUS1のリアルタイム心肺運動負荷量を示す数値)をクライアント装置10へ送信する。 The server 30 estimates the exercise tolerance of the user US1 by applying the learned model LM1 (an example of an "estimation model") to the acquired user data. The server 30 transmits the estimation result (for example, the numerical value indicating the anaerobic threshold, the maximum oxygen uptake, or the real-time cardiopulmonary exercise load of the user US1) to the client device 10 .
 このように、情報処理システム1は、運動中のユーザUS1の動画(或いは、動画および深度)、および心拍数に基づいて、当該ユーザUS1の運動耐容能に関する推定を行う。故に、この情報処理システム1によれば、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能に関する評価を行うことができる。 In this way, the information processing system 1 estimates the exercise tolerance of the user US1 based on the moving image (or moving image and depth) of the user US1 during exercise and the heart rate. Therefore, according to the information processing system 1, it is possible to evaluate the exercise tolerance of the user without imposing a burden on the user such as wearing special equipment.
(3)教師データセット
 本実施形態の教師データセットについて説明する。図6は、本実施形態の教師データセットのデータ構造を示す図である。
(3) Teacher data set The teacher data set of this embodiment will be described. FIG. 6 is a diagram showing the data structure of the teacher data set of this embodiment.
 図6に示すように、教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。 As shown in FIG. 6, the teacher data set includes multiple teacher data. Teacher data is used to train or evaluate a target model. Teacher data includes a sample ID, input data, and correct answer data.
 サンプルIDは、教師データを識別する情報である。 A sample ID is information that identifies teacher data.
 入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、運動中の被験者の身体状態に関するデータである。被験者の身体状態に関するデータの少なくとも一部は、被験者動画データ(或いは、被験者動画データおよび被験者深度データ)を参照して当該被験者の身体状態を解析することで取得される。 Input data is the data that is input to the target model during training or evaluation. The input data correspond to the examples used when training or evaluating the target model. As an example, the input data is data regarding the subject's physical condition during exercise. At least part of the data regarding the subject's physical condition is obtained by analyzing the subject's physical condition with reference to subject moving image data (or subject moving image data and subject depth data).
 被験者動画データは、運動中の被験者の写った被験者動画に関するデータである。被験者動画データは、例えば、呼気ガスに関する検査(一例としてCPX検査)中の被験者の外観(例えば全身)を正面または斜め前(例えば、45度前方)からカメラ(一例として、スマートフォンに搭載されたカメラ)で撮影することで取得可能である。  Subject video data is data related to subject videos showing subjects in motion. The subject video data is, for example, a camera (for example, a camera mounted on a smartphone) from the front or obliquely forward (for example, 45 degrees forward) of the subject's appearance (for example, the whole body) during a test on expired gas (for example, a CPX test) ) can be obtained by shooting with
 被験者深度データは、深度センサから運動中の被験者の各部位までの距離(深度)に関するデータである。被験者深度データは、被験者動画の撮影時に、深度センサを動作させることで取得可能である。 Subject depth data is data related to the distance (depth) from the depth sensor to each part of the subject during exercise. The subject depth data can be obtained by operating the depth sensor when capturing the subject moving image.
 被験者は、情報処理システム1の運用時に運動耐容能に関する推定が行われるユーザと同一人物であってもよいし、異なる人物であってもよい。被験者およびユーザを同一人物とすることで、対象モデルがユーザの個性を学習し、推定精度が向上する可能性がある。他方、被験者がユーザと異なる人物であることを許容することは、教師データセットの豊富化が容易となる利点がある。また、被験者は、ユーザを含む複数人、またはユーザを含まない複数人により構成されてもよい。 The subject may be the same person as the user whose exercise tolerance is estimated during operation of the information processing system 1, or may be a different person. By setting the subject and the user to be the same person, the target model may learn the user's individuality and the estimation accuracy may be improved. On the other hand, allowing the subject to be a different person from the user has the advantage of facilitating enrichment of the teacher data set. Also, the subjects may be composed of multiple people including the user or multiple people not including the user.
 図6の例では、入力データは、骨格データ、表情データ、肌色データ、呼吸データ、および心拍数データを含む。 In the example of FIG. 6, the input data includes skeletal data, facial expression data, skin color data, respiration data, and heart rate data.
 骨格データは、運動中の被験者の骨格に関するデータ(例えば特徴量)である。骨格データは、例えば、被験者の各部位の速度、または加速度に関するデータ(被験者が使用する筋肉の部位の変化、または被験者の体感のぶれに関するデータを含み得る)を含む。骨格データは、被験者動画データ(或いは、被験者動画データおよび被験者深度データ)を参照して運動中の被験者の骨格を解析することで取得可能である。一例として、iOS(登録商標) 14のSDKであるVision、または他の骨格検知アルゴリズムが骨格の解析に利用可能である。或いは、教師データセット向けの骨格データは、例えば、被験者の各部位に動きセンサを装着した状態で運動を行わせることで取得可能である。 Skeletal data is data (for example, feature values) related to the subject's skeleton during exercise. Skeletal data includes, for example, data on velocity or acceleration of each part of the subject (which may include data on changes in muscle parts used by the subject or data on bodily sensation of the subject). Skeletal data can be obtained by analyzing the skeleton of a exercising subject with reference to subject moving image data (or subject moving image data and subject depth data). As an example, the iOS ® 14 SDK, Vision, or other skeleton detection algorithms are available for skeleton analysis. Alternatively, skeletal data for the teacher data set can be obtained, for example, by having the subject perform exercise while wearing motion sensors on each part of the subject.
 表情データは、運動中の被験者の表情に関するデータ(例えば特徴量)である。表情データは、アルゴリズム、または学習済みモデルを被験者動画データに適用することで解析可能である。或いは、教師データセット向けの表情データは、例えば被験者動画を視聴した人間がラベリングすることで取得可能である。 Facial expression data is data (for example, feature values) related to the subject's facial expression during exercise. Facial expression data can be analyzed by applying algorithms or trained models to subject video data. Alternatively, the facial expression data for the teacher data set can be obtained by labeling by a person who has watched the subject moving image, for example.
 肌色データは、運動中の被験者の肌色に関するデータ(例えば特徴量)である。肌色データは、アルゴリズム、または学習済みモデルを被験者動画データに適用することで解析可能である。或いは、教師データセット向けの肌色データは、例えば被験者動画を視聴した人間がラベリングすることで取得可能である。 The skin color data is data (for example, feature values) related to the subject's skin color during exercise. Skin color data can be analyzed by applying algorithms or trained models to subject video data. Alternatively, the skin color data for the training data set can be obtained by labeling by a person who has watched the subject video, for example.
 呼吸データは、運動中の被験者の呼吸に関するデータ(例えば特徴量)である。呼吸データは、例えば、単位時間あたりの呼吸数または呼吸様式に関する。呼吸様式は、以下の少なくとも1つを含むことができる。
・換気回数
・換気量
・換気速度(つまり、単位時間あたりの換気量、または換気回数)
・換気加速度(つまり、換気速度の時間微分)
・二酸化炭素排出濃度
・二酸化炭素排出量(VCO2)
・酸素摂取濃度
・酸素摂取量(VO2)
 呼吸様式に関するデータは、ガス交換比R(=VCO2/VO2)のように上記したデータの組み合わせに基づいて算出可能なデータを含んでもよい。
Breathing data is data (for example, feature quantity) relating to breathing of a subject during exercise. Respiration data relates, for example, to the number of breaths per unit time or the breathing pattern. Breathing modalities can include at least one of the following.
・Ventilation frequency ・Ventilation volume ・Ventilation rate (that is, ventilation volume per unit time, or ventilation rate)
・Ventilation acceleration (that is, the time derivative of the ventilation rate)
・Carbon dioxide emission concentration ・Carbon dioxide emission (VCO2)
・Oxygen uptake concentration ・Oxygen uptake (VO2)
Data relating to breathing patterns may include data that can be calculated based on a combination of the above data, such as the gas exchange ratio R (=VCO2/VO2).
 呼吸データは、例えば、上記骨格データを解析することで取得可能である。一例として、骨格データから以下の項目を解析可能である。
・肩、胸(側胸部を含み得る)、腹部、またはそれらの組み合わせの動き(広がり)
・吸気時間
・呼気時間
・呼吸補助筋の使用程度
Respiration data can be obtained, for example, by analyzing the skeleton data. As an example, the following items can be analyzed from skeleton data.
Movement (spreading) of the shoulders, chest (which may include the lateral chest), abdomen, or a combination thereof
・Inspiratory time ・Expiratory time ・Use of accessory muscles
 教師データセット向けの呼吸データは、例えば、運動中の被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。運動中の被験者に対して実施可能な呼気ガス検査の詳細は後述する。或いは、教師データセット向けの呼吸データのうち換気回数、換気量、換気速度、または換気加速度は、例えば、運動中に被験者に対して実施された呼吸機能検査(例えば、肺機能検査、または肺活量検査)の結果から取得することもできる。この場合に、呼吸機能検査には、医療機器に限られず市販の検査器具を用いても構わない。 Respiratory data for the teacher data set can be obtained, for example, from the results of breath gas tests performed on subjects during exercise. Details of a breath gas test that can be performed on an exercising subject are described below. Alternatively, ventilation rate, ventilation volume, ventilation rate, or ventilation acceleration among the respiratory data for the teacher dataset may be obtained from, for example, a respiratory function test (e.g., pulmonary function test, or spirometry test) performed on the subject during exercise. ) can also be obtained from the results of In this case, the respiratory function test is not limited to medical equipment, and commercially available test equipment may be used.
 心拍数データは、運動中の被験者の心拍数に関するデータ(例えば、特徴量)である。心拍数データは、例えば、被験者動画データ、またはその解析結果(例えば、肌色データ)を解析することで取得可能である。或いは、教師データセット向けの心拍数データは、例えば、後述する呼吸データとともに、呼気ガスに関する検査の結果から取得されてもよい。教師データセット向けの被験者心拍数データは、被験者に心拍センサ、または心電図モニタ用の電極を装着した状態で上記運動を行わせることでも取得可能である。 Heart rate data is data (for example, feature values) related to the subject's heart rate during exercise. Heart rate data can be acquired by analyzing, for example, subject moving image data or its analysis results (for example, skin color data). Alternatively, the heart rate data for the training data set may be obtained from the results of a test for exhaled gas, for example together with the respiration data described below. Subject heart rate data for the training data set can also be obtained by having the subject perform the above exercise while wearing a heart rate sensor or electrodes for an electrocardiogram monitor.
 正解データは、対応する入力データ(例題)に対する正解に相当するデータである。対象モデルは、入力データに対して正解データにより近い出力を行うように訓練(教師あり学習)される。一例として、正解データは、運動耐容能の評価指標、または当該評価指標と運動負荷量との間の関係を示す指標、または運動耐容能の評価指標を決定するための材料となる指標、の少なくとも1つを含む。嫌気性代謝閾値(AT)、および最大酸素摂取量(Peak VO2)は、運動耐容能の評価指標の一例である。心肺運動負荷量は、運動耐容能の評価指標と運動負荷量との間の関係を示す指標の一例である。例えば、心肺運動負荷量は、(リアルタイムの)運動負荷量の最大酸素摂取量に対する割合で算出可能である。 Correct data is data corresponding to the correct answer for the corresponding input data (example). The target model is trained (supervised learning) to produce an output that is closer to the correct data for the input data. As an example, the correct data is at least an exercise tolerance evaluation index, an index showing the relationship between the evaluation index and the amount of exercise load, or an index that is a material for determining the exercise tolerance evaluation index. including one. Anaerobic threshold (AT) and maximum oxygen uptake (Peak VO2) are examples of exercise tolerance evaluation indices. The cardiopulmonary exercise load is an example of an index that indicates the relationship between the exercise tolerance evaluation index and the exercise load. For example, the cardiopulmonary exercise load can be calculated as a ratio of the (real-time) exercise load to the maximum oxygen uptake.
 正解データは、例えば、運動中の被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。呼気ガスに関する検査の第1例は、呼気ガス分析装置を装着した被験者が、負荷漸増式の運動(例えばエルゴメータ)を実施している間に行われる検査(典型的にはCPX検査)である。呼気ガスに関する検査の第2例は、呼気ガス分析装置を装着した被験者が、一定、または随時変更可能な負荷量の運動(例えば、自重運動、体操、筋力トレーニング)を実施している間に行われる検査である。 Correct data can be obtained, for example, from the results of breath gas tests conducted on subjects who are exercising. A first example of a breath gas test is a test (typically a CPX test) performed while a subject wearing a breath gas analyzer is performing progressive resistance exercise (eg, ergometer). A second example of an expired gas test is performed while a subject wearing an expired gas analyzer is exercising with a constant or variable load (e.g., body weight exercise, gymnastics, strength training). It is an inspection that is used.
 或いは、正解データは、運動中の被験者に対して実施された呼気ガス以外の検査の結果からも取得可能である。具体的には、運動中の被験者の汗中、または血中の乳酸濃度測定に基づく心肺運動負荷量予測検査の結果からも正解データを取得可能である。被験者の乳酸濃度測定のために、ウェアラブル乳酸センサを利用してもよい。 Alternatively, the correct data can also be obtained from the results of tests other than breath gas performed on exercising subjects. Specifically, correct data can also be obtained from the results of a cardiopulmonary exercise load prediction test based on the measurement of lactate concentration in sweat or blood of a subject during exercise. A wearable lactate sensor may be utilized to measure a subject's lactate concentration.
 運動負荷量は、運動の負荷を定量的に評価するための指標である。運動負荷は、以下の少なくとも1つを用いて数値により表すことができる。
・エネルギー(カロリー)消費量
・酸素消費量
・心拍数
The exercise load is an index for quantitatively evaluating the exercise load. Exercise load can be expressed numerically using at least one of the following:
・Energy (calorie) consumption ・Oxygen consumption ・Heart rate
(4)推定モデル
 サーバ30によって用いられる推定モデルは、教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(4) Estimation model The estimation model used by the server 30 corresponds to a trained model created by supervised learning using the teacher data set (FIG. 6), or a derived model or distilled model of the trained model.
(5)情報処理
 本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のフローチャートである。図8は、本実施形態の情報処理において表示される画面例を示す図である。図9は、本実施形態の情報処理において表示される画面例を示す図である。図10は、本実施形態の情報処理において表示される画面例を示す図である。
(5) Information processing Information processing according to the present embodiment will be described. FIG. 7 is a flow chart of information processing in this embodiment. FIG. 8 is a diagram showing an example of a screen displayed during information processing according to this embodiment. FIG. 9 is a diagram showing an example of a screen displayed during information processing according to this embodiment. FIG. 10 is a diagram showing an example of a screen displayed during information processing according to this embodiment.
 情報処理は、例えば以下の開始条件のいずれかの成立に応じて開始する。
・他の処理によって情報処理が呼び出された。
・ユーザが情報処理を呼び出すための操作を行った。
・クライアント装置10が所定の状態(例えば、所定のアプリの起動)になった。
・所定の日時が到来した。
・所定のイベントから所定の時間が経過した。
Information processing is started, for example, when one of the following start conditions is met.
・The information processing was called by another process.
- The user performed an operation to call up information processing.
- The client device 10 has entered a predetermined state (for example, a predetermined application has been activated).
・The specified date and time has arrived.
- A predetermined time has passed since a predetermined event.
 図7に示すように、クライアント装置10は、センシング(S110)を実行する。
 具体的には、クライアント装置10は、カメラ16の動作を有効にすることで、運動中のユーザの動画(以下、「ユーザ動画」という)の撮影を開始する。また、クライアント装置10は、深度センサ17の動作を有効にすることで、当該深度センサ17から運動中のユーザの各部位までの距離(以下、「ユーザ深度」という)の計測を開始する。さらに、クライアント装置10は、ウェアラブルデバイス50に、心拍センサ56による心拍数(以下、「ユーザ心拍数」という)の計測を開始させる。
As shown in FIG. 7, the client device 10 performs sensing (S110).
Specifically, the client device 10 enables the operation of the camera 16 to start shooting a video of the user exercising (hereinafter referred to as “user video”). In addition, by enabling the operation of the depth sensor 17, the client device 10 starts measuring the distance from the depth sensor 17 to each part of the user during exercise (hereinafter referred to as "user depth"). Further, the client device 10 causes the wearable device 50 to start measuring the heart rate (hereinafter referred to as “user heart rate”) by the heart rate sensor 56 .
 ステップS110の後に、クライアント装置10は、データの取得(S111)を実行する。
 具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
After step S110, the client device 10 executes data acquisition (S111).
Specifically, the client device 10 acquires sensing results generated by various sensors enabled in step S110. For example, the client device 10 acquires user video data from the camera 16 , user depth data from the depth sensor 17 , and user heart rate data from the wearable device 50 .
 ステップS111の後に、クライアント装置10は、リクエスト(S112)を実行する。
 具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、またはユーザ心拍数データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
After step S111, the client device 10 executes the request (S112).
Specifically, the client device 10 refers to the data acquired in step S111 and generates a request. The client device 10 transmits the generated request to the server 30 . The request can include, for example, at least one of the following.
- Data acquired in step S111 (for example, user video data, user depth data, or user heart rate data)
・Data obtained by processing the data acquired in step S111 ・User data (for example, skeleton data, facial expression data, skin color) acquired by analyzing the user video data (or user video data and user depth data) acquired in step S111 data, respiratory data, or a combination thereof)
 ステップS112の後に、サーバ30は、運動耐容能に関する推定(S130)を実行する。
 具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ)を含む。サーバ30は、入力データに推定モデルを適用することで、運動耐容能に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)
・ユーザの(リアルタイム)運動負荷量と推定した評価指標との関係(例えば、大小関係、差、割合(つまり、心肺運動負荷量)、またはそれらの組み合わせ)
After step S112, the server 30 performs exercise tolerance estimation (S130).
Specifically, the server 30 acquires the input data of the estimation model based on the request acquired from the client device 10 . The input data includes user data (skeletal data, facial expression data, skin color data, respiration data, heart rate data, or a combination thereof) as well as teacher data. The server 30 estimates exercise tolerance by applying an estimation model to the input data. As an example, the server 30 estimates at least one of the following.
・Evaluation index of exercise tolerance (e.g., anaerobic threshold, or maximal oxygen uptake)
- The relationship between the user's (real-time) exercise load and the estimated evaluation index (for example, magnitude relationship, difference, ratio (that is, cardiopulmonary exercise load), or a combination thereof)
 ステップS130の後に、サーバ30は、レスポンス(S131)を実行する。
 具体的には、サーバ30は、ステップS130における推定の結果に基づくレスポンスを生成する。サーバ30は、生成したレスポンスをクライアント装置10へ送信する。一例として、レスポンスは以下の少なくとも1つを含むことができる。
・運動耐容能に関する推定の結果に相当するデータ
・運動耐容能に関する推定の結果を加工したデータ(例えば、クライアント装置10のディスプレイ15に表示されるべき画面のデータ、または当該画面を生成するために参照されるデータ)
After step S130, the server 30 executes a response (S131).
Specifically, the server 30 generates a response based on the estimation result in step S130. The server 30 transmits the generated response to the client device 10 . As an example, the response can include at least one of the following.
・Data corresponding to the result of estimation regarding exercise tolerance ・Data obtained by processing the result of estimation regarding exercise tolerance (for example, screen data to be displayed on the display 15 of the client device 10, or data for generating the screen) referenced data)
 クライアント装置10は、ステップS131の後に、情報提示(S113)を実行する。
 具体的には、クライアント装置10は、サーバ30から取得したレスポンス(つまり、ユーザの運動耐容能に関する推定の結果)に基づく情報をディスプレイ15に表示させる。
 ただし、情報は、ユーザの代わりに、またはユーザに加えて、ユーザの指導者(例えば、医療関係者、またはトレーナー)向けに当該指導者の使用する端末に提示されてもよい。
The client device 10 executes information presentation (S113) after step S131.
Specifically, the client device 10 causes the display 15 to display information based on the response acquired from the server 30 (that is, the result of estimation regarding the user's exercise tolerance).
However, the information may be presented to the user's mentor (eg, medical personnel or trainer) on the terminal used by the trainer instead of, or in addition to, the user.
 情報提示(S113)の第1例では、クライアント装置10は、画面P10(図8)をディスプレイ15に表示させる。画面P10は、表示オブジェクトA10a~A10bを含む。
 表示オブジェクトA10aは、ユーザの運動耐容能の評価指標を示す情報を表示する。図8の例では、表示オブジェクトA10aは、ユーザの嫌気性代謝閾値をMETSに換算した結果を表示する。
 表示オブジェクトA10bは、ユーザに対して推奨する活動に関する情報を表示する。ユーザに対して推奨する活動は、ユーザが行った運動とは異なる活動であって、かつユーザの運動耐容能の評価指標に応じた負荷量を備えた活動である。ユーザの運動耐容能の評価指標に応じた負荷量は、例えば、当該運動耐容能の評価指標と同一の負荷量、または当該運動耐容能の評価指標を少し上回る/下回る負荷量である。ユーザに対して推奨する活動は、ユーザの属性(例えば嗜好)に基づいて選定されてもよい。図8の例では、表示オブジェクトA10bは、ユーザの嫌気性代謝閾値に相当する負荷量を備える活動から選定された3つを表示する。
In a first example of information presentation (S113), the client device 10 causes the display 15 to display a screen P10 (FIG. 8). The screen P10 includes display objects A10a to A10b.
The display object A10a displays information indicating the user's exercise tolerance evaluation index. In the example of FIG. 8, the display object A10a displays the result of converting the user's anaerobic threshold into METS.
The display object A10b displays information on recommended activities for the user. The activity recommended to the user is an activity different from the exercise performed by the user and having a load corresponding to the user's exercise tolerance evaluation index. The load amount according to the exercise tolerance evaluation index of the user is, for example, the same load amount as the exercise tolerance evaluation index, or a load amount slightly above/below the exercise tolerance evaluation index. Activities recommended for the user may be selected based on user attributes (eg, preferences). In the example of FIG. 8, the display object A10b displays three selected from the activities with loads corresponding to the user's anaerobic threshold.
 情報提示(S113)の第2例では、クライアント装置10は、画面P11(図9)をディスプレイ15に表示させる。画面P11は、表示オブジェクトA11a~A11bを含む。
 表示オブジェクトA11aは、ユーザの運動耐容能の評価指標を示す情報を表示する。図9の例では、表示オブジェクトA11aは、ユーザの最大酸素摂取量をMETSに換算した結果と、当該結果の前回分からの変化とを表示する。
 表示オブジェクトA11bは、ユーザの運動耐容能の評価指標をMETSに換算した結果の経時的変化を表示する。図9の例では、表示オブジェクトA11bは、ユーザの最大酸素摂取量をMETSに換算した結果の経時的変化を示すグラフを表示する。
In a second example of information presentation (S113), the client device 10 causes the display 15 to display a screen P11 (FIG. 9). The screen P11 includes display objects A11a to A11b.
The display object A11a displays information indicating the user's exercise tolerance evaluation index. In the example of FIG. 9, the display object A11a displays the result of converting the user's maximum oxygen uptake into METS and the change in the result from the previous time.
The display object A11b displays changes over time in the result of converting the user's exercise tolerance evaluation index into METS. In the example of FIG. 9, the display object A11b displays a graph showing changes over time in the results of converting the user's maximum oxygen uptake into METS.
 情報提示(S113)の第3例では、クライアント装置10は、画面P12a~P12c(図10)をディスプレイ15に表示させる。クライアント装置10は、画面P12a~P12cをユーザの運動中にディスプレイ15に表示させる。
 画面P12a~P12cは、表示オブジェクトA12a~A12eを含む。
 表示オブジェクトA12aは、運動の残り時間、または運動の継続時間を表示するオブジェクトである。運動時間の長さは、固定であってもよいし、可変であってもよい。運動時間の長さは、ユーザによって設定されてもよいし、ユーザの指導者により設定されてもよいし、クライアント装置10によって実行されるアプリの運営者により設定されてもよい。図10の例では、表示オブジェクトA12aは、運動の残り時間を示すタイマーを表示する。
 表示オブジェクトA12bは、ユーザの運動の質を評価したスコアを表示する。一例として、スコアは、ユーザの運動負荷量と運動耐容能の評価指標との差が小さいほど高くなるように付与されるポイントの累積値である。
 表示オブジェクトA12cは、ユーザの運動負荷量とユーザの運動耐容能の評価指標との関係に関する情報を表示する。図10の例では、表示オブジェクトA12cは、ユーザの運動負荷量が嫌気性代謝閾値を上回るか、嫌気性代謝閾値を下回るかを天秤の状態のアニメーション演出により表示する。
 表示オブジェクトA12dは、ユーザの運動負荷量とユーザの運動耐容能の評価指標との関係に関する情報を表示する。図10の例では、表示オブジェクトA12dは、ユーザの運動負荷量が嫌気性代謝閾値を上回るか、嫌気性代謝閾値を下回るかをアイコンの表情により表示する。
 表示オブジェクトA12eは、ユーザの運動負荷量の調整指針に関する情報を表示する。図10の例では、表示オブジェクトA12eは、ユーザの運動負荷量を、増加すべきか、維持すべきか、減少すべきかを伝えるコメントを表示する。
In a third example of information presentation (S113), the client device 10 causes the display 15 to display screens P12a to P12c (FIG. 10). The client device 10 displays the screens P12a to P12c on the display 15 while the user is exercising.
Screens P12a-P12c include display objects A12a-A12e.
The display object A12a is an object that displays the remaining time of exercise or the duration of exercise. The length of exercise time may be fixed or variable. The length of exercise time may be set by the user, may be set by the user's instructor, or may be set by the operator of the application executed by the client device 10 . In the example of FIG. 10, the display object A12a displays a timer indicating the remaining time of exercise.
The display object A12b displays a score that evaluates the quality of the user's exercise. As an example, the score is an accumulated value of points given so that the smaller the difference between the user's exercise load and the exercise tolerance evaluation index, the higher the score.
The display object A12c displays information about the relationship between the user's exercise load and the evaluation index of the user's exercise tolerance. In the example of FIG. 10, the display object A12c displays whether the user's exercise load exceeds the anaerobic metabolism threshold or falls below the anaerobic metabolism threshold by animation production of the state of the balance.
The display object A12d displays information about the relationship between the user's exercise load and the evaluation index of the user's exercise tolerance. In the example of FIG. 10, the display object A12d indicates whether the user's exercise load exceeds the anaerobic metabolism threshold or falls below the anaerobic metabolism threshold by the expression of the icon.
The display object A12e displays information about the user's exercise load amount adjustment guideline. In the example of FIG. 10, the display object A12e displays a comment telling whether the exercise load amount of the user should be increased, maintained, or decreased.
 ステップS113の後に、クライアント装置10は、情報処理(図7)を終了する。ただし、ユーザの運動耐容能に関する推定を当該ユーザの運動中にリアルタイムに実施する場合に、クライアント装置10は、ステップS113の後にデータの取得(S111)に戻ってもよい。 After step S113, the client device 10 ends the information processing (FIG. 7). However, if the user's exercise tolerance is estimated in real time while the user is exercising, the client device 10 may return to data acquisition (S111) after step S113.
(6)小括
 以上説明したように、実施形態の情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づいて当該ユーザの運動耐容能に関する推定を行う。これにより、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能に関する評価を行うことができる。
(6) Summary As described above, the information processing system 1 of the embodiment estimates the user's exercise tolerance based on the user's moving image (or moving image and depth) during exercise and heart rate. . This makes it possible to evaluate the user's exercise tolerance without placing a burden on the user, such as wearing a special device.
 情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づく入力データに、推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行ってもよい。これにより、ユーザの運動耐容能に関する統計的な推定を短時間で行うことができる。さらに、推定モデルは、前述の教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当してもよい。これにより、推定モデルを効率的に構築することができる。さらに、推定モデルを適用される入力データは、運動中のユーザの身体状態に関するユーザデータを含んでもよい。これにより、推定モデルの精度を向上させることができる。ユーザデータは、運動中のユーザの骨格、表情、肌色、呼吸、または心拍数の少なくとも1つに関するデータを含んでもよい。これにより、推定モデルの精度を向上させることができる。さらに、被験者は、ユーザと同一人物であってもよい。これにより、ユーザの個性を学習したモデルを利用して、高精度な推定を行うことができる。 The information processing system 1 may estimate the user's exercise tolerance by applying an estimation model to input data based on the user's moving image (or moving image and depth) during exercise and heart rate. . This allows a statistical estimation of the exercise tolerance of the user to be made in a short period of time. Furthermore, the estimated model may correspond to a trained model created by supervised learning using the aforementioned teacher data set (FIG. 6), or a derived or distilled model of the trained model. Thereby, an estimation model can be constructed efficiently. Additionally, the input data to which the estimation model is applied may include user data regarding the user's physical state during exercise. This makes it possible to improve the accuracy of the estimation model. The user data may include data regarding at least one of the user's anatomy, facial expression, skin tone, respiration, or heart rate during exercise. This makes it possible to improve the accuracy of the estimation model. Furthermore, the subject may be the same person as the user. As a result, highly accurate estimation can be performed using a model that has learned the user's individuality.
 情報処理システム1は、ユーザの嫌気性代謝閾値、最大酸素摂取量、またはリアルタイムの心肺運動負荷量の少なくとも1つを推定してもよい。これにより、ユーザの運動耐容能、またはユーザのリアルタイムの運動負荷量を適切に評価することができる。 The information processing system 1 may estimate at least one of the user's anaerobic threshold, maximum oxygen uptake, or real-time cardiopulmonary exercise load. This makes it possible to appropriately evaluate the user's exercise tolerance or the user's real-time exercise load.
 情報処理システム1は、ユーザの運動耐容能に関する推定の結果に基づく情報を提示してもよい。これにより、ユーザ、またはその指導者に、ユーザの運動耐容能に応じた助言を行うことができる。第1例として、情報処理システム1は、ユーザの運動耐容能の評価指標を提示してもよい。これにより、情報の受け手が、ユーザの現在の運動耐容能を把握することができる。第2例として、情報処理システム1は、ユーザの運動耐容能の評価指標に応じた負荷量を備え、かつ当該ユーザが行った運動とは異なる活動に関する情報を提示してもよい。これにより、ユーザの活動の自由度を高め、リハビリテーション、またはフィットネスを継続するためのモチベーションを向上させることができる。第3例として、情報処理システム1は、ユーザの運動耐容能の評価指標の経時的変化に関する情報を提示してもよい。これにより、ユーザに自らの運動耐容能の成長、または衰えを感じさせ、リハビリテーション、またはフィットネスを継続するためのモチベーションを向上させることができる。第4例として、情報処理システム1は、運動耐容能に関する推定の結果に基づいて、ユーザの運動負荷量の調整指針に関する情報を提示してもよい。これにより、ユーザは、運動中に提示される指示に従うことで、負荷量を最適化することができる。第5例として、ユーザの運動負荷量とユーザの運動耐容能の評価指標の推定結果との関係に関する情報を提示してもよい。これにより、ユーザは、運動中に負荷量を自ら調整して最適化することができる。 The information processing system 1 may present information based on the results of estimation regarding the user's exercise tolerance. Thereby, it is possible to give advice to the user or the instructor according to the user's exercise tolerance. As a first example, the information processing system 1 may present an evaluation index of the user's exercise tolerance. This allows the recipient of the information to grasp the user's current exercise tolerance. As a second example, the information processing system 1 may present information regarding an activity different from the exercise performed by the user, having a load amount according to the user's exercise tolerance evaluation index. As a result, the degree of freedom of the user's activities can be increased, and the motivation for continuing rehabilitation or fitness can be improved. As a third example, the information processing system 1 may present information about changes over time in the user's exercise tolerance evaluation index. This allows the user to feel the growth or decline of his or her own exercise tolerance, and improves motivation to continue rehabilitation or fitness. As a fourth example, the information processing system 1 may present information regarding an adjustment guideline for the user's exercise load amount based on the result of estimation regarding exercise tolerance. This allows the user to optimize load by following instructions presented during exercise. As a fifth example, information about the relationship between the user's exercise load and the estimation result of the user's exercise tolerance evaluation index may be presented. This allows the user to self-adjust and optimize the load during exercise.
(7)変形例1
 変形例1について説明する。変形例1は、推定モデルに対する入力データを変形する例である。
(7) Modification 1
Modification 1 will be described. Modification 1 is an example of modifying the input data for the estimation model.
(7-1)変形例1の概要 (7-1) Outline of modification 1
 変形例1の概要について説明する。本実施形態では、ユーザ動画に基づく入力データに推定モデルを適用する例を示した。変形例1では、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行うこともできる。 An overview of Modification 1 will be explained. In this embodiment, an example in which an estimation model is applied to input data based on user moving images has been described. In Modification 1, by applying an estimation model to input data based on both the user's video and the user's health condition, it is also possible to estimate the user's exercise tolerance.
 健康状態は、以下の少なくとも1つを含む。
・年齢
・性別
・身長
・体重
・体脂肪率
・筋肉量
・骨密度
・現病歴
・既往歴
・内服歴
・手術歴
・生活歴(例えば、喫煙歴、飲酒歴、日常生活動作(ADL)、フレイルスコア、など)
・家族歴
・呼吸機能検査の結果
・呼吸機能検査以外の検査結果(例えば、血液検査、尿検査、心電図検査(ホルター心電図検査を含む)、心臓超音波検査、X線検査、CT検査(心臓形態CT・冠動脈CT含む)、MRI検査、核医学検査、PET検査、などの結果)
・心臓リハビリテーション施行中に取得されたデータ(Borg指数含む)
Health conditions include at least one of the following:
・Age, gender, height, weight, body fat percentage, muscle mass, bone density, history of current illness, medical history, oral medication history, surgery history, lifestyle history (e.g., smoking history, drinking history, activities of daily living (ADL), frailty) score, etc.)
・Family history ・Respiratory function test results ・Test results other than respiratory function tests (e.g., blood test, urine test, electrocardiogram (including Holter electrocardiogram), echocardiography, X-ray, CT scan (cardiac morphology) including CT and coronary artery CT), MRI examination, nuclear medicine examination, PET examination, etc.)
・Data acquired during cardiac rehabilitation (including Borg index)
(7-2)教師データセット
 変形例1の教師データセットについて説明する。図11は、変形例1の教師データセットのデータ構造を示す図である。
(7-2) Teacher data set The teacher data set of Modification 1 will be described. FIG. 11 is a diagram showing the data structure of the teacher data set of Modification 1. As shown in FIG.
 図11に示すように、変形例1の教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。 As shown in FIG. 11, the teacher data set of Modification 1 includes a plurality of teacher data. Teacher data is used to train or evaluate a target model. Teacher data includes a sample ID, input data, and correct answer data.
 サンプルIDおよび正解データは、本実施形態において説明したとおりである。 The sample ID and correct answer data are as described in this embodiment.
 入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、運動中の被験者の身体状態に関するデータ(つまり、相対的に動的なデータ)、および被験者の健康状態に関するデータ(つまり、相対的に静的なデータ)である。被験者の身体状態に関するデータは、本実施形態において説明したとおりである。 Input data is the data that is input to the target model during training or evaluation. The input data correspond to the examples used when training or evaluating the target model. By way of example, the input data are data regarding the subject's physical condition during exercise (ie, relatively dynamic data) and data regarding the subject's health state (ie, relatively static data). The data regarding the subject's physical condition are as described in this embodiment.
 被験者の健康状態に関するデータは、様々な方法で取得可能である。被験者の健康状態に関するデータは、被験者の運動前、運動中、または運動後のいずれのタイミングで取得されてもよい。被験者の健康状態に関するデータは、被験者、またはその担当医からの申告に基づいて取得されてもよいし、医療情報システムにおいて被験者に紐づけられている情報を抽出することで取得されてもよいし、被験者のアプリ(例えばヘルスケアアプリ)経由で取得されてもよい。 Data on the health status of subjects can be obtained in various ways. The data regarding the health condition of the subject may be obtained before, during, or after the subject's exercise. Data on the subject's health condition may be obtained based on a report from the subject or the attending physician, or may be obtained by extracting information linked to the subject in the medical information system. , may be obtained via the subject's app (eg, health care app).
(7-3)推定モデル
 変形例1において、サーバ30によって用いられる推定モデルは、教師データセット(図11)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(7-3) Estimation Model In Modification 1, the estimation model used by the server 30 is a trained model created by supervised learning using a teacher data set (FIG. 11), or a derived model of the trained model. Or it corresponds to the distillation model.
(7-4)情報処理
 変形例1の情報処理について図7を用いて説明する。
(7-4) Information Processing The information processing of Modification 1 will be described with reference to FIG.
 変形例1において、クライアント装置10は図7と同様に、センシング(S110)を実行する。 In Modification 1, the client device 10 performs sensing (S110) in the same manner as in FIG.
 ステップS110の後に、クライアント装置10は、データの取得(S111)を実行する。
 具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
After step S110, the client device 10 executes data acquisition (S111).
Specifically, the client device 10 acquires sensing results generated by various sensors enabled in step S110. For example, the client device 10 acquires user video data from the camera 16 , user depth data from the depth sensor 17 , and user heart rate data from the wearable device 50 .
 さらに、クライアント装置10は、ユーザの健康状態に関するデータ(以下、「ユーザ健康状態データ」という)を取得する。例えば、クライアント装置10は、ユーザ、またはその担当医による操作(申告)に基づいてユーザ健康状態データを取得してもよいし、医療情報システムにおいてユーザに紐づけられている情報を抽出することでユーザ健康状態データを取得してもよいし、ユーザのアプリ(例えばヘルスケアアプリ)経由でユーザ健康状態データを取得してもよい。ただし、クライアント装置10は、ステップS111とは異なるタイミング(例えば、ステップS110よりも前、ステップS110と同じタイミング、ステップS111よりも後のタイミング)で、ユーザ健康状態データを取得してもよい。 Furthermore, the client device 10 acquires data regarding the user's health condition (hereinafter referred to as "user health condition data"). For example, the client device 10 may acquire user health condition data based on an operation (report) by the user or the doctor in charge, or extract information linked to the user in the medical information system. User health data may be acquired, or user health data may be acquired via a user's app (for example, a healthcare app). However, the client device 10 may acquire user health condition data at a timing different from step S111 (for example, before step S110, at the same timing as step S110, or after step S111).
 ステップS111の後に、クライアント装置10は、リクエスト(S112)を実行する。
 具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、ユーザ心拍数データ、またはユーザ健康状態データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
After step S111, the client device 10 executes the request (S112).
Specifically, the client device 10 refers to the data acquired in step S111 and generates a request. The client device 10 transmits the generated request to the server 30 . The request can include, for example, at least one of the following.
- Data acquired in step S111 (for example, user video data, user depth data, user heart rate data, or user health condition data)
・Data obtained by processing the data acquired in step S111 ・User data (for example, skeleton data, facial expression data, skin color) acquired by analyzing the user video data (or user video data and user depth data) acquired in step S111 data, respiratory data, or a combination thereof)
 ステップS112の後に、サーバ30は、運動耐容能に関する推定(S130)を実行する。
 具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ、および健康状態データ)を含む。サーバ30は、入力データに推定モデルを適用することで、運動耐容能に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)
・ユーザの(リアルタイム)運動負荷量と推定した評価指標との関係(例えば、大小関係、差、割合(つまり、心肺運動負荷量)、またはそれらの組み合わせ)
After step S112, the server 30 performs exercise tolerance estimation (S130).
Specifically, the server 30 acquires the input data of the estimation model based on the request acquired from the client device 10 . Input data includes user data (skeletal structure data, facial expression data, skin color data, respiration data, heart rate data, or a combination thereof, and health condition data) as well as teacher data. The server 30 estimates exercise tolerance by applying an estimation model to the input data. As an example, the server 30 estimates at least one of the following.
・Evaluation index of exercise tolerance (e.g., anaerobic threshold, or maximal oxygen uptake)
- The relationship between the user's (real-time) exercise load and the estimated evaluation index (for example, magnitude relationship, difference, ratio (that is, cardiopulmonary exercise load), or a combination thereof)
 ステップS130の後に、サーバ30は図7と同様に、レスポンス(S131)を実行する。 After step S130, the server 30 executes a response (S131) as in FIG.
 ステップS131の後に、クライアント装置10は図7と同様に、情報提示(S113)を実行する。 After step S131, the client device 10 executes information presentation (S113) in the same manner as in FIG.
(7-5)小括
 以上説明したように、変形例1の情報処理システム1は、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行う。これにより、ユーザの健康状態をさらに考慮して、高精度な推定を行うことができる。例えば、ユーザの健康状態と、教師データの元となった被験者の健康状態との間に差異がある場合であっても、妥当な推定を行うことができる。
(7-5) Summary As described above, the information processing system 1 of Modification 1 applies an estimation model to the input data based on both the user's video and the user's health condition, thereby determining the exercise tolerance of the user. make inferences about ability. This makes it possible to perform highly accurate estimation by further considering the health condition of the user. For example, even if there is a difference between the user's health condition and the subject's health condition from which the training data is based, a reasonable estimation can be made.
(8)その他の変形例
 記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。ディスプレイ15は、クライアント装置10に内蔵されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
(8) Other Modifications The storage device 11 may be connected to the client device 10 via the network NW. The display 15 may be built into the client device 10 . Storage device 31 may be connected to server 30 via network NW.
 実施形態および変形例1の情報処理システムを、クライアント/サーバ型のシステムによって実装する例を示した。しかしながら、実施形態および変形例1の情報処理システムは、スタンドアロン型のコンピュータによって実装することもできる。一例として、クライアント装置10が単独で、推定モデルを用いて、運動耐容能に関する推定を行ってもよい。 An example of implementing the information processing system of the embodiment and modification 1 by a client/server system has been shown. However, the information processing system of the embodiment and modification 1 can also be implemented by a stand-alone computer. As an example, the client device 10 alone may use the estimation model to estimate exercise tolerance.
 上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。一例として、クライアント装置10の代わりにサーバ30が、ユーザ動画(或いは、ユーザ動画およびユーザ深度)を解析することでユーザデータの少なくとも一部を取得してもよい。 Each step of the above information processing can be executed by either the client device 10 or the server 30. As an example, instead of the client device 10, the server 30 may acquire at least part of the user data by analyzing the user moving image (or the user moving image and the user depth).
 上記説明では、運動耐容能の評価指標として嫌気性代謝閾値または最大酸素摂取量に関する推定を行ったり、当該推定の結果に関する情報を提示したりする例を示した。しかしながら、これらの評価指標の代わりに、またはこれらの評価指標に加えて、他種の運動耐容能の評価指標に関する推定を行ったり、当該推定の結果に関する情報を提示したりしてもよい。 In the above explanation, an example of estimating the anaerobic threshold or maximal oxygen uptake as an exercise tolerance evaluation index and presenting information on the results of the estimation was shown. However, instead of or in addition to these evaluation indices, it is also possible to make estimations about evaluation indices of other types of exercise tolerance, or to present information about the results of the estimations.
 上記説明では、サーバ30からのレスポンスに基づく画面をクライアント装置10のディスプレイ15に表示する例を示した。サーバ30からのレスポンスに基づく画面は、ウェアラブルデバイス50のディスプレイ55に表示されてもよい。 In the above description, an example of displaying a screen based on the response from the server 30 on the display 15 of the client device 10 was shown. A screen based on the response from server 30 may be displayed on display 55 of wearable device 50 .
 上記説明では、クライアント装置10のカメラ16を用いてユーザ動画を撮影する例を示した。しかしながら、ユーザ動画は、カメラ16とは別のカメラを用いて撮影されてもよい。クライアント装置10の深度センサ17を用いてユーザ深度を計測する例を示した。しかしながら、ユーザ深度は、深度センサ17とは別の深度センサを用いて計測されてもよい。 In the above description, an example of shooting a user video using the camera 16 of the client device 10 has been shown. However, the user moving image may be shot using a camera other than camera 16 . An example of measuring the user depth using the depth sensor 17 of the client device 10 has been shown. However, the user depth may be measured using a depth sensor other than depth sensor 17 .
 上記説明では、ユーザの心拍数をウェアラブルデバイス50により計測する例を示した。しかしながら、心拍数は、動画データ、またはその解析結果(例えば、肌色データ)を解析(例えば、rPPG(Remote Photo-plethysmography)解析)することで取得可能である。心拍数の解析は、機械学習技術を利用して構築された学習済みモデルによって行われてよい。或いは、ユーザに心電図モニタ用の電極を装着した状態で運動を行わせることで、心電図モニタがユーザの心拍数を計測できるようにしてもよい。これらの変形例では、ユーザは、ウェアラブルデバイス50を装着する必要はない。 In the above description, an example of measuring the user's heart rate with the wearable device 50 was shown. However, the heart rate can be obtained by analyzing (eg, rPPG (Remote Photo-plethysmography) analysis) video data or its analysis results (eg, skin color data). Heart rate analysis may be performed by a trained model built using machine learning techniques. Alternatively, the electrocardiogram monitor may measure the heart rate of the user by exercising while wearing the electrodes for the electrocardiogram monitor. In these variations, the wearable device 50 need not be worn by the user.
 ウェアラブルデバイス50は、心拍センサ56の代わりに、または心拍センサ56に加えて以下の少なくとも1つの項目を計測するためのセンサを備えることができる。
・加速度
・血糖値
・酸素飽和度
 各センサによる計測結果は、入力データの生成、運動耐容能に関する推定、推定の結果に基づく情報の提示、またはその他の場面において適宜利用され得る。一例として、血糖値の計測結果は、例えばエネルギー消費量、または酸素消費量に換算された運動負荷量を評価するために参照され得る。別の例として、加速度の計測結果は、例えば、ユーザの運動(例えば体操)のスコア判定に用いることができる。
Wearable device 50 may include a sensor for measuring at least one of the following items instead of heartbeat sensor 56 or in addition to heartbeat sensor 56 .
Acceleration/Blood Sugar Level/Oxygen Saturation Measurement results obtained by each sensor can be appropriately used in generating input data, estimating exercise tolerance, presenting information based on the results of estimation, or in other situations. As an example, the measurement result of blood glucose level can be referred to, for example, to evaluate energy consumption or exercise load converted into oxygen consumption. As another example, the acceleration measurement result can be used, for example, to determine the score of the user's exercise (eg gymnastics).
 推定モデルに対する入力データの一部として加速度データを用いることも可能である。或いは、加速度データを参照してユーザの骨格を解析してもよい。加速度データは、例えば、ユーザ動画の撮影時にユーザに加速度センサを備えたクライアント装置10をユーザに携行させることで取得してもよい。 It is also possible to use acceleration data as part of the input data for the estimation model. Alternatively, the user's skeleton may be analyzed with reference to acceleration data. Acceleration data may be obtained by, for example, having the user carry the client device 10 having an acceleration sensor when shooting a user moving image.
 推定モデルに対する入力データの一部として酸素飽和度データを用いることも可能である。酸素飽和度データは、例えばユーザ動画の撮影時にユーザにパルスオキシメータを装着させることで取得してもよい。或いは、酸素飽和度データは、例えばユーザ動画データに対してrPPG解析を行うことで推定されてもよい。 It is also possible to use oxygen saturation data as part of the input data for the estimation model. The oxygen saturation data may be obtained, for example, by having the user wear a pulse oximeter when shooting a user moving image. Alternatively, oxygen saturation data may be estimated, for example, by performing rPPG analysis on user video data.
 上記説明では、ユーザに対して推奨する活動に関する情報を提示する例を示した。しかしながら、かかる情報の代わりに、またはかかる情報に加えて、ユーザに対して推奨する運動負荷量に関する情報を提示してもよい。一例として、ユーザが行った運動と同一の活動について、当該ユーザの運動耐容能の評価指標に応じた負荷量を示す情報(例えば、目標速度、目標回転数、など)を提示してもよい。 In the above explanation, an example of presenting information on recommended activities to the user was shown. However, instead of or in addition to such information, information regarding the amount of exercise load recommended to the user may be presented. As an example, for the same activity as the exercise performed by the user, information indicating the load amount according to the user's exercise tolerance evaluation index (for example, target speed, target rotation speed, etc.) may be presented.
 本実施形態および変形例1の情報処理システム1は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームにも適用可能である。一例として、情報処理システム1は、ゲームプレイ中に、ユーザの運動耐容能に関する推定を行い、当該推定の結果に応じて、以下のいずれか1つを決定してもよい。これにより、ビデオゲームがユーザの健康増進に与える効果を高めることができる。
・ユーザに与えられる、ビデオゲームに関する課題(例えば、ステージ、ミッション、クエスト)の質(例えば難易度)、または量
・ユーザに与えられる、ビデオゲームに関する特典(例えば、ゲーム内通貨、アイテム、ボーナス)の質(例えば種類)、または量
・ビデオゲームの進行に関するゲームパラメータ(例えば、スコア、ダメージ)
The information processing system 1 of the present embodiment and Modification 1 can also be applied to a video game in which the progress of the game is controlled according to the body movements of the player. As an example, the information processing system 1 may estimate the user's exercise tolerance during game play, and determine any one of the following according to the result of the estimation. As a result, it is possible to enhance the effect of the video game on promoting the user's health.
- Quality (e.g., difficulty) or quantity of video game-related tasks (e.g., stages, missions, quests) given to users - Video game-related benefits (e.g., in-game currency, items, bonuses) given to users quality (e.g. type) or quantity of game parameters related to video game progression (e.g. score, damage)
 クライアント装置10に搭載されたマイクロホン、またはクライアント装置10に接続されたマイクロホンが、運動中のユーザが発する音波(例えば、呼吸、または発声に伴って生じる音)を受信し、音データを生成してもよい。音データは、ユーザデータとともに推定モデルに対する入力データを構成し得る。 A microphone mounted on the client device 10 or a microphone connected to the client device 10 receives sound waves emitted by a user who is exercising (for example, sounds caused by breathing or vocalization) and generates sound data. good too. Sound data, together with user data, may constitute input data for the estimation model.
 上記説明では、呼気ガスに関する検査として、CPX検査を例示した。CPX検査では、検査対象者に対して漸増的に運動負荷が与えられる。しかしながら、ユーザ動画の撮影時にユーザに与える運動負荷を漸増させる必要はない。具体的には、リアルタイムの心肺運動負荷量は、ユーザに一定、または随時変更可能な運動負荷を与えた状態でも推定可能である。例えば、ユーザが行う運動は、自重運動、体操、筋力トレーニングであってもよい。 In the above explanation, the CPX test was exemplified as a test related to exhaled gas. In the CPX examination, an exercise load is gradually applied to the examinee. However, it is not necessary to gradually increase the exercise load given to the user when shooting the user moving image. Specifically, the real-time cardiopulmonary exercise load can be estimated even when the user is given a constant or variable exercise load. For example, the exercise performed by the user may be body weight exercise, gymnastics, or strength training.
 変形例1では、健康状態に基づく入力データに推定モデルを適用する例を示した。しかしながら、被験者の健康状態(の少なくとも一部)に基づいて、複数の推定モデルを構築することも可能である。この場合に、ユーザの健康状態(の少なくとも一部)が、推定モデルを選択するために参照されてもよい。このさらなる変形例において、推定モデルの入力データは、ユーザの健康状態に基づかないデータであってもよいし、ユーザの健康状態およびユーザ動画に基づくデータであってもよい。 In Modified Example 1, an example of applying an estimation model to input data based on health conditions was shown. However, it is also possible to build multiple estimation models based on (at least in part) the subject's health status. In this case, (at least part of) the user's health may be referenced to select the estimation model. In this further variation, the input data for the estimation model may be data not based on the user's health, or data based on the user's health and user videos.
 以上、本発明の実施形態および変形例について詳細に説明したが、本発明の範囲は上記の実施形態および変形例に限定されない。また、上記の実施形態および変形例は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments and modifications of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments and modifications. Also, the above embodiments and modifications can be modified and modified in various ways without departing from the scope of the present invention. Also, the above embodiments and modifications can be combined.
1    :情報処理システム
10   :クライアント装置
11   :記憶装置
12   :プロセッサ
13   :入出力インタフェース
14   :通信インタフェース
15   :ディスプレイ
16   :カメラ
17   :深度センサ
30   :サーバ
31   :記憶装置
32   :プロセッサ
33   :入出力インタフェース
34   :通信インタフェース
50   :ウェアラブルデバイス
51   :記憶装置
52   :プロセッサ
53   :入出力インタフェース
54   :通信インタフェース
55   :ディスプレイ
56   :心拍センサ
1: information processing system 10: client device 11: storage device 12: processor 13: input/output interface 14: communication interface 15: display 16: camera 17: depth sensor 30: server 31: storage device 32: processor 33: input/output interface 34: communication interface 50: wearable device 51: storage device 52: processor 53: input/output interface 54: communication interface 55: display 56: heart rate sensor

Claims (16)

  1.  コンピュータを、
     運動中のユーザの写ったユーザ動画を取得する手段、
     前記ユーザ動画に基づいて、前記ユーザの運動耐容能に関する推定を行う手段
     として機能させるプログラム。
    the computer,
    a means for acquiring a user video showing a user exercising;
    A program that functions as means for estimating exercise tolerance of the user based on the user moving image.
  2.  前記運動耐容能に関する推定を行う手段は、前記ユーザ動画に基づく入力データに、推定モデルを適用することで、前記ユーザの運動耐容能に関する推定を行う、
     請求項1に記載のプログラム。
    The means for estimating the exercise tolerance estimates the user's exercise tolerance by applying an estimation model to the input data based on the user moving image.
    A program according to claim 1.
  3.  前記推定モデルは、運動中の被験者の写った被験者動画に関するデータを含む入力データと、当該入力データの各々に関連付けられた正解データとを含む教師データセットを用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する、
     請求項2に記載のプログラム。
    The estimation model is learning created by supervised learning using a supervised learning using a teacher data set including input data including data related to a subject video in which the subject is exercising and correct data associated with each of the input data. a pre-trained model, or equivalent to a derived or distilled model of such pre-trained model;
    3. A program according to claim 2.
  4.  前記被験者は、前記ユーザと同一人物である、
     請求項3に記載のプログラム。
    The subject is the same person as the user,
    4. A program according to claim 3.
  5.  前記入力データは、前記運動中のユーザの身体状態に関するユーザデータを含む、
     請求項2または請求項3に記載のプログラム。
    the input data includes user data relating to the user's physical condition during the exercise;
    4. The program according to claim 2 or 3.
  6.  前記ユーザデータは、前記運動中のユーザの骨格、表情、肌色、呼吸、または心拍数の少なくとも1つに関するデータを含む、
     請求項5に記載のプログラム。
    the user data includes data relating to at least one of the user's anatomy, facial expression, skin tone, respiration, or heart rate during the exercise;
    6. A program according to claim 5.
  7.  前記推定を行う手段は、前記ユーザの嫌気性代謝閾値、最大酸素摂取量、またはリアルタイムの心肺運動負荷量の少なくとも1つに関する推定を行う、
     請求項1乃至請求項6のいずれかに記載のプログラム。
    the means for making an estimate makes an estimate regarding at least one of the user's anaerobic threshold, maximal oxygen uptake, or real-time cardiopulmonary exercise load;
    A program according to any one of claims 1 to 6.
  8.  前記コンピュータを、前記ユーザの運動耐容能に関する推定の結果に基づく情報を提示する手段としてさらに機能させる、
     請求項1乃至請求項7のいずれかに記載のプログラム。
    further causing the computer to serve as a means for presenting information based on the results of the estimation regarding exercise tolerance of the user;
    A program according to any one of claims 1 to 7.
  9.  前記提示する手段は、前記ユーザの運動耐容能の評価指標を提示する、
     請求項8に記載のプログラム。
    the means for presenting presents an evaluation index of exercise tolerance of the user;
    9. A program according to claim 8.
  10.  前記提示する手段は、前記ユーザの運動耐容能の評価指標に応じた負荷量を備え、かつ当該ユーザが行った運動とは異なる活動に関する情報を提示する、
     請求項8または請求項9に記載のプログラム。
    The means for presenting comprises a load amount according to an evaluation index of the user's exercise tolerance, and presents information on an activity different from the exercise performed by the user.
    10. The program according to claim 8 or 9.
  11.  前記提示する手段は、前記ユーザの運動耐容能の評価指標の経時的変化に関する情報を提示する、
     請求項8乃至請求項10のいずれかに記載のプログラム。
    the means for presenting presents information on changes over time in the user's exercise tolerance evaluation index;
    11. The program according to any one of claims 8 to 10.
  12.  前記提示する手段は、前記ユーザの運動耐容能に関する推定の結果に基づいて、前記ユーザの運動負荷量の調整指針に関する情報を提示する、
     請求項8乃至請求項11のいずれかに記載のプログラム。
    The means for presenting presents information regarding an adjustment guideline for the user's exercise load amount based on the result of the estimation of the exercise tolerance of the user.
    A program according to any one of claims 8 to 11.
  13.  前記提示する手段は、前記ユーザの運動負荷量と前記ユーザの運動耐容能の評価指標との関係に関する情報を提示する、
     請求項8乃至請求項12のいずれかに記載のプログラム。
    The means for presenting presents information about the relationship between the exercise load amount of the user and the evaluation index of the exercise tolerance of the user.
    A program according to any one of claims 8 to 12.
  14.  前記取得する手段は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームをプレイ中のユーザの写ったユーザ動画を取得し、
     前記推定を行う手段は、前記ビデオゲームのプレイ中に、前記ユーザの運動耐容能に関する推定を行い、
     前記コンピュータを、前記ユーザの運動耐容能に関する推定の結果に応じて、当該ユーザに与えられる、前記ビデオゲームに関する課題または特典の少なくとも1つを決定する手段としてさらに機能させる、
     請求項1乃至請求項13のいずれかに記載のプログラム。
    The acquiring means acquires a user moving image showing a user playing a video game in which the progress of the game is controlled according to the movement of the player's body,
    the means for estimating estimates the user's exercise tolerance during play of the video game;
    further causing the computer to act as a means for determining at least one of a challenge or reward associated with the video game to be presented to the user as a function of the results of the exercise tolerance estimation of the user;
    14. The program according to any one of claims 1 to 13.
  15.  運動中のユーザの写ったユーザ動画を取得する手段と、
     前記ユーザ動画に基づいて、前記ユーザの運動耐容能に関する推定を行う手段と
     を具備する、情報処理装置。
    a means for acquiring a user video showing a user exercising;
    and means for estimating exercise tolerance of the user based on the user moving image.
  16.  コンピュータが、
     運動中のユーザの写ったユーザ動画を取得することと、
     前記ユーザ動画に基づいて、前記ユーザの運動耐容能に関する推定を行うことと
     を具備する、方法。
    the computer
    Acquiring a user video in which the user is exercising;
    making an estimate regarding the user's exercise tolerance based on the user animation.
PCT/JP2022/029578 2021-08-26 2022-08-02 Program, information processing device, and information processing method WO2023026784A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023509555A JP7333537B2 (en) 2021-08-26 2022-08-02 Program, information processing device, and information processing method
JP2023125910A JP2023133487A (en) 2021-08-26 2023-08-02 Program, information processing device, and method for processing information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-137934 2021-08-26
JP2021137934 2021-08-26

Publications (1)

Publication Number Publication Date
WO2023026784A1 true WO2023026784A1 (en) 2023-03-02

Family

ID=85323083

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/029578 WO2023026784A1 (en) 2021-08-26 2022-08-02 Program, information processing device, and information processing method

Country Status (2)

Country Link
JP (2) JP7333537B2 (en)
WO (1) WO2023026784A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021114021A (en) * 2020-01-16 2021-08-05 コニカミノルタ株式会社 Method of providing information supporting rehabilitation and rehabilitation supporting system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373788B2 (en) 2019-09-20 2023-11-06 パナソニックIpマネジメント株式会社 Rehabilitation support device, rehabilitation support system, and rehabilitation support method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021114021A (en) * 2020-01-16 2021-08-05 コニカミノルタ株式会社 Method of providing information supporting rehabilitation and rehabilitation supporting system

Also Published As

Publication number Publication date
JP7333537B2 (en) 2023-08-25
JP2023133487A (en) 2023-09-22
JPWO2023026784A1 (en) 2023-03-02

Similar Documents

Publication Publication Date Title
Al Osman et al. Ubiquitous biofeedback serious game for stress management
KR100466665B1 (en) method of automatically evaluating physical health state using a game
Miller NSCA's Guide to Tests and Assessments
US9465893B2 (en) Biofeedback for program guidance in pulmonary rehabilitation
Kuys et al. Gaming console exercise and cycle or treadmill exercise provide similar cardiovascular demand in adults with cystic fibrosis: a randomised cross-over trial
US20070027369A1 (en) Apparatus and methods for assessing human physical performance
US20070219059A1 (en) Method and system for continuous monitoring and training of exercise
US20130184540A1 (en) Portable device for monitoring and reporting of medical information for the evidence -based management of patients with chronic respiratory disease
KR101680972B1 (en) Indoor exercise system using virtual reality
Muñoz et al. Closing the loop in exergaming-health benefits of biocybernetic adaptation in senior adults
CN111883227A (en) Management method and system for executing exercise prescription
Cardona et al. Modulation of physiological responses and activity levels during exergame experiences
KR20160138682A (en) Active Spinning Training System using Complex Physiological Signals
Montes Validation and reliability of the Hexoskin and Fitbit Flex wearable BIO collection devices
JP7333537B2 (en) Program, information processing device, and information processing method
WO2023026785A1 (en) Program, information processing device, and information processing method
JP7303595B1 (en) Program, information processing device, and information processing method
WO2023027046A1 (en) Program, information processing device, and information processing method
KR20220098064A (en) User customized exercise method and system
Jillich Acquisition, analysis and visualization of data from physiological sensors for biofeedback applications
Wert et al. The test-retest reliability of indirect calorimetry measures of energy expenditure during overground walking in older adults with mobility limitations
Fan et al. Aerobics player’s energy level monitoring using IoT
Pattarapongsatit et al. A Study of the Physical Fitness Changes Using a Novel Mixed Reality-based Cardiovascular Endurance Exercise System in Young Healthy Adults
Kavitha et al. Detection and Security in Falls with IoT Server
Arcidiacono Predicting cardiovascular fitness in ethnic minority youth: A comparison of demographic, body composition, and physical activity variables

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2023509555

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22861075

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE