JP2023133487A - プログラム、情報処理装置、および情報処理方法 - Google Patents
プログラム、情報処理装置、および情報処理方法 Download PDFInfo
- Publication number
- JP2023133487A JP2023133487A JP2023125910A JP2023125910A JP2023133487A JP 2023133487 A JP2023133487 A JP 2023133487A JP 2023125910 A JP2023125910 A JP 2023125910A JP 2023125910 A JP2023125910 A JP 2023125910A JP 2023133487 A JP2023133487 A JP 2023133487A
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- exercise
- video
- exercise tolerance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 56
- 238000012545 processing Methods 0.000 title description 5
- 238000000034 method Methods 0.000 title description 2
- 238000011156 evaluation Methods 0.000 claims abstract description 38
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 19
- 229910052760 oxygen Inorganic materials 0.000 claims description 19
- 239000001301 oxygen Substances 0.000 claims description 19
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 16
- 230000000694 effects Effects 0.000 claims description 14
- 230000002503 metabolic effect Effects 0.000 claims description 13
- 230000002612 cardiopulmonary effect Effects 0.000 claims description 11
- 230000008921 facial expression Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 230000008901 benefit Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 19
- 238000012986 modification Methods 0.000 description 19
- 230000036541 health Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 239000007789 gas Substances 0.000 description 13
- 238000012549 training Methods 0.000 description 12
- 238000009423 ventilation Methods 0.000 description 12
- 230000004044 response Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 9
- 238000002564 cardiac stress test Methods 0.000 description 8
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 6
- 230000003862 health status Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000004060 metabolic process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000000241 respiratory effect Effects 0.000 description 4
- 230000004202 respiratory function Effects 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 3
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 239000001569 carbon dioxide Substances 0.000 description 3
- 229910002092 carbon dioxide Inorganic materials 0.000 description 3
- 238000002554 cardiac rehabilitation Methods 0.000 description 3
- 238000004821 distillation Methods 0.000 description 3
- JVTAAEKCZFNVCJ-UHFFFAOYSA-M Lactate Chemical compound CC(O)C([O-])=O JVTAAEKCZFNVCJ-UHFFFAOYSA-M 0.000 description 2
- 230000037396 body weight Effects 0.000 description 2
- 230000000747 cardiac effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009207 exercise therapy Methods 0.000 description 2
- 238000004868 gas analysis Methods 0.000 description 2
- 208000019622 heart disease Diseases 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- JVTAAEKCZFNVCJ-UHFFFAOYSA-N lactic acid Chemical compound CC(O)C(O)=O JVTAAEKCZFNVCJ-UHFFFAOYSA-N 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000036284 oxygen consumption Effects 0.000 description 2
- 206010000364 Accessory muscle Diseases 0.000 description 1
- 208000036119 Frailty Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 206010003549 asthenia Diseases 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 230000037182 bone density Effects 0.000 description 1
- 238000009535 clinical urine test Methods 0.000 description 1
- 210000004351 coronary vessel Anatomy 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003434 inspiratory effect Effects 0.000 description 1
- 239000004310 lactic acid Substances 0.000 description 1
- 235000014655 lactic acid Nutrition 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229940126701 oral medication Drugs 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009613 pulmonary function test Methods 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 238000013125 spirometry Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Dentistry (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Physical Education & Sports Medicine (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】ユーザに負担をかけることなく当該ユーザの運動耐容能に関する評価を行う。【解決手段】本開示の一態様のプログラムは、コンピュータを、運動中のユーザの写ったユーザ動画を取得する手段、ユーザ動画に基づいて、ユーザの運動耐容能に関する推定を行う手段として機能させる。【選択図】図7
Description
本開示は、プログラム、情報処理装置、および情報処理方法に関する。
心臓リハビリテーションは、運動療法を含む総合的活動プログラムを通じて、心臓病の患者が、体力および自信を回復し、快適な家庭生活および社会生活に復帰するとともに、心臓病の再発または再入院を防止することを目指す。運動療法の中心は、ウォーキング、ジョギング、サイクリング、エアロビクス、などの有酸素運動である。有酸素運動をより安全かつ効果的に行うためには、患者が、自己の嫌気性代謝閾値(AT(Anaerobic Threshold))付近の強度で運動を行うことが好ましい。
嫌気性代謝閾値は、運動耐容能の評価指標の一例であって、心肺機能状態の変化点、つまり、有酸素運動と無酸素運動との境界付近の運動強度に相当する。嫌気性代謝閾値は、一般的に、検査対象者に漸増的に運動負荷を与えながら呼気ガスを収集して分析を行うCPX検査(心肺運動負荷検査)により決定される(非特許文献1参照)。CPX検査では、呼気ガス分析により測定された結果(例えば、酸素摂取量、二酸化炭素排出量、1回換気量、呼吸数、分時換気量、またはそれらの組み合わせ)に基づいて、嫌気性代謝閾値が決定される。CPX検査によれば、嫌気性代謝閾値のほか、最大運動耐容能付近の運動強度に相当する最大酸素摂取量を決定することもできる。
齋藤 宗靖,心臓リハビリテーションについて,理学療法学,1997年24巻8号p.414-418
CPX検査には、検査対象者に大きな身体的負担がかかる、検査装置が高額で実施可能な施設が限られる、などの問題がある。
また、CPX検査に必須の呼気ガス分析で必要な呼気マスクの装着は検査対象者にとって快適ではない。
また、CPX検査に必須の呼気ガス分析で必要な呼気マスクの装着は検査対象者にとって快適ではない。
運動中に呼気マスクのような特殊な器具の装着を強いることは、検査対象者に不快、不便、または面倒と感じさせ、運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)に関する評価の実施を躊躇させるおそれがある。
本開示の目的は、ユーザに負担をかけることなく当該ユーザの運動耐容能に関する評価を行うことである。
本開示の一態様のプログラムは、コンピュータを、運動中のユーザの写ったユーザ動画を取得する手段、ユーザ動画に基づいて、ユーザの運動耐容能に関する推定を行う手段として機能させる。
本開示によれば、ユーザに負担をかけることなく当該ユーザの運動耐容能に関する評価を行うことができる。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、ウェアラブルデバイス50とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10及びウェアラブルデバイス50は、例えばBluetooth(登録商標)技術を用いて、無線チャネルを介して接続される。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10及びウェアラブルデバイス50は、例えばBluetooth(登録商標)技術を用いて、無線チャネルを介して接続される。
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、Webサーバである。
ウェアラブルデバイス50は、ユーザの身体(例えば腕)に装着可能な情報処理装置の一例である。
(1-1)クライアント装置の構成
クライアント装置の構成について説明する。図2は、本実施形態のクライアント装置の構成を示すブロック図である。
クライアント装置の構成について説明する。図2は、本実施形態のクライアント装置の構成を示すブロック図である。
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。クライアント装置10は、ディスプレイ15と、カメラ16と、深度センサ17とに接続される。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ、リハビリアプリ、またはフィットネスアプリ)のプログラム
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ、リハビリアプリ、またはフィットネスアプリ)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するコンピュータである。プロセッサ12は、例えば、以下の少なくとも1つである。
・CPU(Central Processing Unit)
・GPU(Graphic Processing Unit)
・ASIC(Application Specific Integrated Circuit)
・FPGA(Field Programmable Gate Array)
・CPU(Central Processing Unit)
・GPU(Graphic Processing Unit)
・ASIC(Application Specific Integrated Circuit)
・FPGA(Field Programmable Gate Array)
入出力インタフェース13は、クライアント装置10に接続される入力デバイスから情報(例えば、ユーザの指示、画像、音)を取得し、かつ、クライアント装置10に接続される出力デバイスに情報(例えば、画像、コマンド)を出力するように構成される。
入力デバイスは、例えば、カメラ16、深度センサ17、マイクロホン、キーボード、ポインティングデバイス、タッチパネル、センサ、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ15、スピーカ、又は、それらの組合せである。
入力デバイスは、例えば、カメラ16、深度センサ17、マイクロホン、キーボード、ポインティングデバイス、タッチパネル、センサ、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ15、スピーカ、又は、それらの組合せである。
通信インタフェース14は、クライアント装置10と外部装置(例えば、サーバ30、およびウェアラブルデバイス50)との間の通信を制御するように構成される。
具体的には、通信インタフェース14は、サーバ30との通信のためのモジュール(例えば、WiFiモジュール、移動通信モジュール、またはそれらの組み合わせ)を含むことができる。通信インタフェース14は、ウェアラブルデバイス50との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
具体的には、通信インタフェース14は、サーバ30との通信のためのモジュール(例えば、WiFiモジュール、移動通信モジュール、またはそれらの組み合わせ)を含むことができる。通信インタフェース14は、ウェアラブルデバイス50との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
ディスプレイ15は、画像(静止画、または動画)を表示するように構成される。ディスプレイ15は、例えば、液晶ディスプレイ、または有機ELディスプレイである。
カメラ16は、撮影を行い、画像信号を生成するように構成される。
深度センサ17は、例えばLIDAR(Light Detection And Ranging)である。深度センサ17は、当該深度センサ17から周囲の物体(例えば、ユーザ)までの距離(深度)を測定するように構成される。
(1-2)サーバの構成
サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
図3に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージの組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するコンピュータである。プロセッサ32は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
・CPU
・GPU
・ASIC
・FPGA
入出力インタフェース33は、サーバ30に接続される入力デバイスから情報(例えば、ユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30と外部装置(例えば、クライアント装置10)との間の通信を制御するように構成される。
(1-3)ウェアラブルデバイスの構成
ウェアラブルデバイスの構成について説明する。図4は、本実施形態のウェアラブルデバイスの構成を示すブロック図である。
ウェアラブルデバイスの構成について説明する。図4は、本実施形態のウェアラブルデバイスの構成を示すブロック図である。
図4に示すように、ウェアラブルデバイス50は、記憶装置51と、プロセッサ52と、入出力インタフェース53と、通信インタフェース54とを備える。ウェアラブルデバイス50は、ディスプレイ55と、心拍センサ56とに接続される。
記憶装置51は、プログラム及びデータを記憶するように構成される。記憶装置51は、例えば、ROM、RAM、及び、ストレージの組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、リハビリアプリ、またはフィットネスアプリ)のプログラム
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、リハビリアプリ、またはフィットネスアプリ)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ52は、記憶装置51に記憶されたプログラムを起動することによって、ウェアラブルデバイス50の機能を実現するコンピュータである。プロセッサ52は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
・CPU
・GPU
・ASIC
・FPGA
入出力インタフェース53は、ウェアラブルデバイス50に接続される入力デバイスから情報(例えば、ユーザの指示、センシング結果)を取得し、かつ、ウェアラブルデバイス50に接続される出力デバイスに情報(例えば、画像、コマンド)を出力するように構成される。
入力デバイスは、例えば、心拍センサ56、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ55、スピーカ、又は、それらの組合せである。
入力デバイスは、例えば、心拍センサ56、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ55、スピーカ、又は、それらの組合せである。
通信インタフェース54は、ウェアラブルデバイス50と外部装置(例えば、クライアント装置10)との間の通信を制御するように構成される。
具体的には、通信インタフェース54は、クライアント装置10との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
具体的には、通信インタフェース54は、クライアント装置10との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
ディスプレイ55は、画像(静止画、または動画)を表示するように構成される。ディスプレイ55は、例えば、液晶ディスプレイ、または有機ELディスプレイである。
心拍センサ56は、心拍の計測を行い、センシング信号を生成するように構成される。一例として、心拍センサ56は、光学式の計測技法により心拍を計測する。
(2)実施形態の概要
本実施形態の概要について説明する。図5は、本実施形態の概要の説明図である。
本実施形態の概要について説明する。図5は、本実施形態の概要の説明図である。
図5に示すように、クライアント装置10のカメラ16は、運動中のユーザUS1の外観(例えば全身)を撮影する。図5の例では、ユーザUS1が自転車の運動を行う例を示しているが、ユーザUS1は任意の運動(有酸素運動、または無酸素運動)を行うことができる。
一例として、カメラ16は、ユーザUS1の外観を、正面または斜め前から撮影する。深度センサ17は、当該深度センサ17からユーザUS1の各部位までの距離(深度)を測定する。なお、例えばカメラ16によって生成される動画データ(2次元)と、例えば深度センサ17によって生成される深度データとを組み合わせることで、3次元動画データを生成することも可能である。
ウェアラブルデバイス50の心拍センサ56は、ユーザUS1の心拍を計測し、計測結果をクライアント装置10へ送信する。
クライアント装置10は、少なくとも、カメラ16から取得した動画データを参照し、運動中のユーザの身体状態を解析する。クライアント装置10は、運動中のユーザの身体状態を解析するために、深度センサ17から取得した深度データをさらに参照してもよい。クライアント装置10は、動画データ(或いは、動画データおよび深度データ)の解析結果と、ウェアラブルデバイス50から取得したユーザUS1の心拍の計測結果とに基づく、運動中のユーザUS1の身体状態に関するデータ(以下、「ユーザデータ」という)をサーバ30へ送信する。
サーバ30は、取得したユーザデータに、学習済みモデルLM1(「推定モデル」の一例)を適用することで、ユーザUS1の運動耐容能に関する推定を行う。サーバ30は、推定結果(例えば、嫌気性代謝閾値、最大酸素摂取量、またはユーザUS1のリアルタイム心肺運動負荷量を示す数値)をクライアント装置10へ送信する。
このように、情報処理システム1は、運動中のユーザUS1の動画(或いは、動画および深度)、および心拍数に基づいて、当該ユーザUS1の運動耐容能に関する推定を行う。故に、この情報処理システム1によれば、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能に関する評価を行うことができる。
(3)教師データセット
本実施形態の教師データセットについて説明する。図6は、本実施形態の教師データセットのデータ構造を示す図である。
本実施形態の教師データセットについて説明する。図6は、本実施形態の教師データセットのデータ構造を示す図である。
図6に示すように、教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。
サンプルIDは、教師データを識別する情報である。
入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、運動中の被験者の身体状態に関するデータである。被験者の身体状態に関するデータの少なくとも一部は、被験者動画データ(或いは、被験者動画データおよび被験者深度データ)を参照して当該被験者の身体状態を解析することで取得される。
被験者動画データは、運動中の被験者の写った被験者動画に関するデータである。被験者動画データは、例えば、呼気ガスに関する検査(一例としてCPX検査)中の被験者の外観(例えば全身)を正面または斜め前(例えば、45度前方)からカメラ(一例として、スマートフォンに搭載されたカメラ)で撮影することで取得可能である。
被験者深度データは、深度センサから運動中の被験者の各部位までの距離(深度)に関するデータである。被験者深度データは、被験者動画の撮影時に、深度センサを動作させることで取得可能である。
被験者は、情報処理システム1の運用時に運動耐容能に関する推定が行われるユーザと同一人物であってもよいし、異なる人物であってもよい。被験者およびユーザを同一人物とすることで、対象モデルがユーザの個性を学習し、推定精度が向上する可能性がある。他方、被験者がユーザと異なる人物であることを許容することは、教師データセットの豊富化が容易となる利点がある。また、被験者は、ユーザを含む複数人、またはユーザを含まない複数人により構成されてもよい。
図6の例では、入力データは、骨格データ、表情データ、肌色データ、呼吸データ、および心拍数データを含む。
骨格データは、運動中の被験者の骨格に関するデータ(例えば特徴量)である。骨格データは、例えば、被験者の各部位の速度、または加速度に関するデータ(被験者が使用する筋肉の部位の変化、または被験者の体感のぶれに関するデータを含み得る)を含む。骨格データは、被験者動画データ(或いは、被験者動画データおよび被験者深度データ)を参照して運動中の被験者の骨格を解析することで取得可能である。一例として、iOS(登録商標) 14のSDKであるVision、または他の骨格検知アルゴリズムが骨格の解析に利用可能である。或いは、教師データセット向けの骨格データは、例えば、被験者の各部位に動きセンサを装着した状態で運動を行わせることで取得可能である。
表情データは、運動中の被験者の表情に関するデータ(例えば特徴量)である。表情データは、アルゴリズム、または学習済みモデルを被験者動画データに適用することで解析可能である。或いは、教師データセット向けの表情データは、例えば被験者動画を視聴した人間がラベリングすることで取得可能である。
肌色データは、運動中の被験者の肌色に関するデータ(例えば特徴量)である。肌色データは、アルゴリズム、または学習済みモデルを被験者動画データに適用することで解析可能である。或いは、教師データセット向けの肌色データは、例えば被験者動画を視聴した人間がラベリングすることで取得可能である。
呼吸データは、運動中の被験者の呼吸に関するデータ(例えば特徴量)である。呼吸データは、例えば、単位時間あたりの呼吸数または呼吸様式に関する。呼吸様式は、以下の少なくとも1つを含むことができる。
・換気回数
・換気量
・換気速度(つまり、単位時間あたりの換気量、または換気回数)
・換気加速度(つまり、換気速度の時間微分)
・二酸化炭素排出濃度
・二酸化炭素排出量(VCO2)
・酸素摂取濃度
・酸素摂取量(VO2)
呼吸様式に関するデータは、ガス交換比R(=VCO2/VO2)のように上記したデータの組み合わせに基づいて算出可能なデータを含んでもよい。
・換気回数
・換気量
・換気速度(つまり、単位時間あたりの換気量、または換気回数)
・換気加速度(つまり、換気速度の時間微分)
・二酸化炭素排出濃度
・二酸化炭素排出量(VCO2)
・酸素摂取濃度
・酸素摂取量(VO2)
呼吸様式に関するデータは、ガス交換比R(=VCO2/VO2)のように上記したデータの組み合わせに基づいて算出可能なデータを含んでもよい。
呼吸データは、例えば、上記骨格データを解析することで取得可能である。一例として、骨格データから以下の項目を解析可能である。
・肩、胸(側胸部を含み得る)、腹部、またはそれらの組み合わせの動き(広がり)
・吸気時間
・呼気時間
・呼吸補助筋の使用程度
・肩、胸(側胸部を含み得る)、腹部、またはそれらの組み合わせの動き(広がり)
・吸気時間
・呼気時間
・呼吸補助筋の使用程度
教師データセット向けの呼吸データは、例えば、運動中の被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。運動中の被験者に対して実施可能な呼気ガス検査の詳細は後述する。或いは、教師データセット向けの呼吸データのうち換気回数、換気量、換気速度、または換気加速度は、例えば、運動中に被験者に対して実施された呼吸機能検査(例えば、肺機能検査、または肺活量検査)の結果から取得することもできる。この場合に、呼吸機能検査には、医療機器に限られず市販の検査器具を用いても構わない。
心拍数データは、運動中の被験者の心拍数に関するデータ(例えば、特徴量)である。心拍数データは、例えば、被験者動画データ、またはその解析結果(例えば、肌色データ)を解析することで取得可能である。或いは、教師データセット向けの心拍数データは、例えば、後述する呼吸データとともに、呼気ガスに関する検査の結果から取得されてもよい。教師データセット向けの被験者心拍数データは、被験者に心拍センサ、または心電図モニタ用の電極を装着した状態で上記運動を行わせることでも取得可能である。
正解データは、対応する入力データ(例題)に対する正解に相当するデータである。対象モデルは、入力データに対して正解データにより近い出力を行うように訓練(教師あり学習)される。一例として、正解データは、運動耐容能の評価指標、または当該評価指標と運動負荷量との間の関係を示す指標、または運動耐容能の評価指標を決定するための材料となる指標、の少なくとも1つを含む。嫌気性代謝閾値(AT)、および最大酸素摂取量(Peak VO2)は、運動耐容能の評価指標の一例である。心肺運動負荷量は、運動耐容能の評価指標と運動負荷量との間の関係を示す指標の一例である。例えば、心肺運動負荷量は、(リアルタイムの)運動負荷量の最大酸素摂取量に対する割合で算出可能である。
正解データは、例えば、運動中の被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。呼気ガスに関する検査の第1例は、呼気ガス分析装置を装着した被験者が、負荷漸増式の運動(例えばエルゴメータ)を実施している間に行われる検査(典型的にはCPX検査)である。呼気ガスに関する検査の第2例は、呼気ガス分析装置を装着した被験者が、一定、または随時変更可能な負荷量の運動(例えば、自重運動、体操、筋力トレーニング)を実施している間に行われる検査である。
或いは、正解データは、運動中の被験者に対して実施された呼気ガス以外の検査の結果からも取得可能である。具体的には、運動中の被験者の汗中、または血中の乳酸濃度測定に基づく心肺運動負荷量予測検査の結果からも正解データを取得可能である。被験者の乳酸濃度測定のために、ウェアラブル乳酸センサを利用してもよい。
運動負荷量は、運動の負荷を定量的に評価するための指標である。運動負荷は、以下の少なくとも1つを用いて数値により表すことができる。
・エネルギー(カロリー)消費量
・酸素消費量
・心拍数
・エネルギー(カロリー)消費量
・酸素消費量
・心拍数
(4)推定モデル
サーバ30によって用いられる推定モデルは、教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
サーバ30によって用いられる推定モデルは、教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(5)情報処理
本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のフローチャートである。図8は、本実施形態の情報処理において表示される画面例を示す図である。図9は、本実施形態の情報処理において表示される画面例を示す図である。図10は、本実施形態の情報処理において表示される画面例を示す図である。
本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のフローチャートである。図8は、本実施形態の情報処理において表示される画面例を示す図である。図9は、本実施形態の情報処理において表示される画面例を示す図である。図10は、本実施形態の情報処理において表示される画面例を示す図である。
情報処理は、例えば以下の開始条件のいずれかの成立に応じて開始する。
・他の処理によって情報処理が呼び出された。
・ユーザが情報処理を呼び出すための操作を行った。
・クライアント装置10が所定の状態(例えば、所定のアプリの起動)になった。
・所定の日時が到来した。
・所定のイベントから所定の時間が経過した。
・他の処理によって情報処理が呼び出された。
・ユーザが情報処理を呼び出すための操作を行った。
・クライアント装置10が所定の状態(例えば、所定のアプリの起動)になった。
・所定の日時が到来した。
・所定のイベントから所定の時間が経過した。
図7に示すように、クライアント装置10は、センシング(S110)を実行する。
具体的には、クライアント装置10は、カメラ16の動作を有効にすることで、運動中のユーザの動画(以下、「ユーザ動画」という)の撮影を開始する。また、クライアント装置10は、深度センサ17の動作を有効にすることで、当該深度センサ17から運動中のユーザの各部位までの距離(以下、「ユーザ深度」という)の計測を開始する。さらに、クライアント装置10は、ウェアラブルデバイス50に、心拍センサ56による心拍数(以下、「ユーザ心拍数」という)の計測を開始させる。
具体的には、クライアント装置10は、カメラ16の動作を有効にすることで、運動中のユーザの動画(以下、「ユーザ動画」という)の撮影を開始する。また、クライアント装置10は、深度センサ17の動作を有効にすることで、当該深度センサ17から運動中のユーザの各部位までの距離(以下、「ユーザ深度」という)の計測を開始する。さらに、クライアント装置10は、ウェアラブルデバイス50に、心拍センサ56による心拍数(以下、「ユーザ心拍数」という)の計測を開始させる。
ステップS110の後に、クライアント装置10は、データの取得(S111)を実行する。
具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
ステップS111の後に、クライアント装置10は、リクエスト(S112)を実行する。
具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、またはユーザ心拍数データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、またはユーザ心拍数データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
ステップS112の後に、サーバ30は、運動耐容能に関する推定(S130)を実行する。
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ)を含む。サーバ30は、入力データに推定モデルを適用することで、運動耐容能に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)
・ユーザの(リアルタイム)運動負荷量と推定した評価指標との関係(例えば、大小関係、差、割合(つまり、心肺運動負荷量)、またはそれらの組み合わせ)
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ)を含む。サーバ30は、入力データに推定モデルを適用することで、運動耐容能に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)
・ユーザの(リアルタイム)運動負荷量と推定した評価指標との関係(例えば、大小関係、差、割合(つまり、心肺運動負荷量)、またはそれらの組み合わせ)
ステップS130の後に、サーバ30は、レスポンス(S131)を実行する。
具体的には、サーバ30は、ステップS130における推定の結果に基づくレスポンスを生成する。サーバ30は、生成したレスポンスをクライアント装置10へ送信する。一例として、レスポンスは以下の少なくとも1つを含むことができる。
・運動耐容能に関する推定の結果に相当するデータ
・運動耐容能に関する推定の結果を加工したデータ(例えば、クライアント装置10のディスプレイ15に表示されるべき画面のデータ、または当該画面を生成するために参照されるデータ)
具体的には、サーバ30は、ステップS130における推定の結果に基づくレスポンスを生成する。サーバ30は、生成したレスポンスをクライアント装置10へ送信する。一例として、レスポンスは以下の少なくとも1つを含むことができる。
・運動耐容能に関する推定の結果に相当するデータ
・運動耐容能に関する推定の結果を加工したデータ(例えば、クライアント装置10のディスプレイ15に表示されるべき画面のデータ、または当該画面を生成するために参照されるデータ)
クライアント装置10は、ステップS131の後に、情報提示(S113)を実行する。
具体的には、クライアント装置10は、サーバ30から取得したレスポンス(つまり、ユーザの運動耐容能に関する推定の結果)に基づく情報をディスプレイ15に表示させる。
ただし、情報は、ユーザの代わりに、またはユーザに加えて、ユーザの指導者(例えば、医療関係者、またはトレーナー)向けに当該指導者の使用する端末に提示されてもよい。
具体的には、クライアント装置10は、サーバ30から取得したレスポンス(つまり、ユーザの運動耐容能に関する推定の結果)に基づく情報をディスプレイ15に表示させる。
ただし、情報は、ユーザの代わりに、またはユーザに加えて、ユーザの指導者(例えば、医療関係者、またはトレーナー)向けに当該指導者の使用する端末に提示されてもよい。
情報提示(S113)の第1例では、クライアント装置10は、画面P10(図8)をディスプレイ15に表示させる。画面P10は、表示オブジェクトA10a~A10bを含む。
表示オブジェクトA10aは、ユーザの運動耐容能の評価指標を示す情報を表示する。図8の例では、表示オブジェクトA10aは、ユーザの嫌気性代謝閾値をMETSに換算した結果を表示する。
表示オブジェクトA10bは、ユーザに対して推奨する活動に関する情報を表示する。ユーザに対して推奨する活動は、ユーザが行った運動とは異なる活動であって、かつユーザの運動耐容能の評価指標に応じた負荷量を備えた活動である。ユーザの運動耐容能の評価指標に応じた負荷量は、例えば、当該運動耐容能の評価指標と同一の負荷量、または当該運動耐容能の評価指標を少し上回る/下回る負荷量である。ユーザに対して推奨する活動は、ユーザの属性(例えば嗜好)に基づいて選定されてもよい。図8の例では、表示オブジェクトA10bは、ユーザの嫌気性代謝閾値に相当する負荷量を備える活動から選定された3つを表示する。
表示オブジェクトA10aは、ユーザの運動耐容能の評価指標を示す情報を表示する。図8の例では、表示オブジェクトA10aは、ユーザの嫌気性代謝閾値をMETSに換算した結果を表示する。
表示オブジェクトA10bは、ユーザに対して推奨する活動に関する情報を表示する。ユーザに対して推奨する活動は、ユーザが行った運動とは異なる活動であって、かつユーザの運動耐容能の評価指標に応じた負荷量を備えた活動である。ユーザの運動耐容能の評価指標に応じた負荷量は、例えば、当該運動耐容能の評価指標と同一の負荷量、または当該運動耐容能の評価指標を少し上回る/下回る負荷量である。ユーザに対して推奨する活動は、ユーザの属性(例えば嗜好)に基づいて選定されてもよい。図8の例では、表示オブジェクトA10bは、ユーザの嫌気性代謝閾値に相当する負荷量を備える活動から選定された3つを表示する。
情報提示(S113)の第2例では、クライアント装置10は、画面P11(図9)をディスプレイ15に表示させる。画面P11は、表示オブジェクトA11a~A11bを含む。
表示オブジェクトA11aは、ユーザの運動耐容能の評価指標を示す情報を表示する。図9の例では、表示オブジェクトA11aは、ユーザの最大酸素摂取量をMETSに換算した結果と、当該結果の前回分からの変化とを表示する。
表示オブジェクトA11bは、ユーザの運動耐容能の評価指標をMETSに換算した結果の経時的変化を表示する。図9の例では、表示オブジェクトA11bは、ユーザの最大酸素摂取量をMETSに換算した結果の経時的変化を示すグラフを表示する。
表示オブジェクトA11aは、ユーザの運動耐容能の評価指標を示す情報を表示する。図9の例では、表示オブジェクトA11aは、ユーザの最大酸素摂取量をMETSに換算した結果と、当該結果の前回分からの変化とを表示する。
表示オブジェクトA11bは、ユーザの運動耐容能の評価指標をMETSに換算した結果の経時的変化を表示する。図9の例では、表示オブジェクトA11bは、ユーザの最大酸素摂取量をMETSに換算した結果の経時的変化を示すグラフを表示する。
情報提示(S113)の第3例では、クライアント装置10は、画面P12a~P12c(図10)をディスプレイ15に表示させる。クライアント装置10は、画面P12a~P12cをユーザの運動中にディスプレイ15に表示させる。
画面P12a~P12cは、表示オブジェクトA12a~A12eを含む。
表示オブジェクトA12aは、運動の残り時間、または運動の継続時間を表示するオブジェクトである。運動時間の長さは、固定であってもよいし、可変であってもよい。運動時間の長さは、ユーザによって設定されてもよいし、ユーザの指導者により設定されてもよいし、クライアント装置10によって実行されるアプリの運営者により設定されてもよい。図10の例では、表示オブジェクトA12aは、運動の残り時間を示すタイマーを表示する。
表示オブジェクトA12bは、ユーザの運動の質を評価したスコアを表示する。一例として、スコアは、ユーザの運動負荷量と運動耐容能の評価指標との差が小さいほど高くなるように付与されるポイントの累積値である。
表示オブジェクトA12cは、ユーザの運動負荷量とユーザの運動耐容能の評価指標との関係に関する情報を表示する。図10の例では、表示オブジェクトA12cは、ユーザの運動負荷量が嫌気性代謝閾値を上回るか、嫌気性代謝閾値を下回るかを天秤の状態のアニメーション演出により表示する。
表示オブジェクトA12dは、ユーザの運動負荷量とユーザの運動耐容能の評価指標との関係に関する情報を表示する。図10の例では、表示オブジェクトA12dは、ユーザの運動負荷量が嫌気性代謝閾値を上回るか、嫌気性代謝閾値を下回るかをアイコンの表情により表示する。
表示オブジェクトA12eは、ユーザの運動負荷量の調整指針に関する情報を表示する。図10の例では、表示オブジェクトA12eは、ユーザの運動負荷量を、増加すべきか、維持すべきか、減少すべきかを伝えるコメントを表示する。
画面P12a~P12cは、表示オブジェクトA12a~A12eを含む。
表示オブジェクトA12aは、運動の残り時間、または運動の継続時間を表示するオブジェクトである。運動時間の長さは、固定であってもよいし、可変であってもよい。運動時間の長さは、ユーザによって設定されてもよいし、ユーザの指導者により設定されてもよいし、クライアント装置10によって実行されるアプリの運営者により設定されてもよい。図10の例では、表示オブジェクトA12aは、運動の残り時間を示すタイマーを表示する。
表示オブジェクトA12bは、ユーザの運動の質を評価したスコアを表示する。一例として、スコアは、ユーザの運動負荷量と運動耐容能の評価指標との差が小さいほど高くなるように付与されるポイントの累積値である。
表示オブジェクトA12cは、ユーザの運動負荷量とユーザの運動耐容能の評価指標との関係に関する情報を表示する。図10の例では、表示オブジェクトA12cは、ユーザの運動負荷量が嫌気性代謝閾値を上回るか、嫌気性代謝閾値を下回るかを天秤の状態のアニメーション演出により表示する。
表示オブジェクトA12dは、ユーザの運動負荷量とユーザの運動耐容能の評価指標との関係に関する情報を表示する。図10の例では、表示オブジェクトA12dは、ユーザの運動負荷量が嫌気性代謝閾値を上回るか、嫌気性代謝閾値を下回るかをアイコンの表情により表示する。
表示オブジェクトA12eは、ユーザの運動負荷量の調整指針に関する情報を表示する。図10の例では、表示オブジェクトA12eは、ユーザの運動負荷量を、増加すべきか、維持すべきか、減少すべきかを伝えるコメントを表示する。
ステップS113の後に、クライアント装置10は、情報処理(図7)を終了する。ただし、ユーザの運動耐容能に関する推定を当該ユーザの運動中にリアルタイムに実施する場合に、クライアント装置10は、ステップS113の後にデータの取得(S111)に戻ってもよい。
(6)小括
以上説明したように、実施形態の情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づいて当該ユーザの運動耐容能に関する推定を行う。これにより、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能に関する評価を行うことができる。
以上説明したように、実施形態の情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づいて当該ユーザの運動耐容能に関する推定を行う。これにより、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能に関する評価を行うことができる。
情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づく入力データに、推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行ってもよい。これにより、ユーザの運動耐容能に関する統計的な推定を短時間で行うことができる。さらに、推定モデルは、前述の教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当してもよい。これにより、推定モデルを効率的に構築することができる。さらに、推定モデルを適用される入力データは、運動中のユーザの身体状態に関するユーザデータを含んでもよい。これにより、推定モデルの精度を向上させることができる。ユーザデータは、運動中のユーザの骨格、表情、肌色、呼吸、または心拍数の少なくとも1つに関するデータを含んでもよい。これにより、推定モデルの精度を向上させることができる。さらに、被験者は、ユーザと同一人物であってもよい。これにより、ユーザの個性を学習したモデルを利用して、高精度な推定を行うことができる。
情報処理システム1は、ユーザの嫌気性代謝閾値、最大酸素摂取量、またはリアルタイムの心肺運動負荷量の少なくとも1つを推定してもよい。これにより、ユーザの運動耐容能、またはユーザのリアルタイムの運動負荷量を適切に評価することができる。
情報処理システム1は、ユーザの運動耐容能に関する推定の結果に基づく情報を提示してもよい。これにより、ユーザ、またはその指導者に、ユーザの運動耐容能に応じた助言を行うことができる。第1例として、情報処理システム1は、ユーザの運動耐容能の評価指標を提示してもよい。これにより、情報の受け手が、ユーザの現在の運動耐容能を把握することができる。第2例として、情報処理システム1は、ユーザの運動耐容能の評価指標に応じた負荷量を備え、かつ当該ユーザが行った運動とは異なる活動に関する情報を提示してもよい。これにより、ユーザの活動の自由度を高め、リハビリテーション、またはフィットネスを継続するためのモチベーションを向上させることができる。第3例として、情報処理システム1は、ユーザの運動耐容能の評価指標の経時的変化に関する情報を提示してもよい。これにより、ユーザに自らの運動耐容能の成長、または衰えを感じさせ、リハビリテーション、またはフィットネスを継続するためのモチベーションを向上させることができる。第4例として、情報処理システム1は、運動耐容能に関する推定の結果に基づいて、ユーザの運動負荷量の調整指針に関する情報を提示してもよい。これにより、ユーザは、運動中に提示される指示に従うことで、負荷量を最適化することができる。第5例として、ユーザの運動負荷量とユーザの運動耐容能の評価指標の推定結果との関係に関する情報を提示してもよい。これにより、ユーザは、運動中に負荷量を自ら調整して最適化することができる。
(7)変形例1
変形例1について説明する。変形例1は、推定モデルに対する入力データを変形する例である。
変形例1について説明する。変形例1は、推定モデルに対する入力データを変形する例である。
(7-1)変形例1の概要
変形例1の概要について説明する。本実施形態では、ユーザ動画に基づく入力データに推定モデルを適用する例を示した。変形例1では、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行うこともできる。
健康状態は、以下の少なくとも1つを含む。
・年齢
・性別
・身長
・体重
・体脂肪率
・筋肉量
・骨密度
・現病歴
・既往歴
・内服歴
・手術歴
・生活歴(例えば、喫煙歴、飲酒歴、日常生活動作(ADL)、フレイルスコア、など)
・家族歴
・呼吸機能検査の結果
・呼吸機能検査以外の検査結果(例えば、血液検査、尿検査、心電図検査(ホルター心電図検査を含む)、心臓超音波検査、X線検査、CT検査(心臓形態CT・冠動脈CT含む)、MRI検査、核医学検査、PET検査、などの結果)
・心臓リハビリテーション施行中に取得されたデータ(Borg指数含む)
・年齢
・性別
・身長
・体重
・体脂肪率
・筋肉量
・骨密度
・現病歴
・既往歴
・内服歴
・手術歴
・生活歴(例えば、喫煙歴、飲酒歴、日常生活動作(ADL)、フレイルスコア、など)
・家族歴
・呼吸機能検査の結果
・呼吸機能検査以外の検査結果(例えば、血液検査、尿検査、心電図検査(ホルター心電図検査を含む)、心臓超音波検査、X線検査、CT検査(心臓形態CT・冠動脈CT含む)、MRI検査、核医学検査、PET検査、などの結果)
・心臓リハビリテーション施行中に取得されたデータ(Borg指数含む)
(7-2)教師データセット
変形例1の教師データセットについて説明する。図11は、変形例1の教師データセットのデータ構造を示す図である。
変形例1の教師データセットについて説明する。図11は、変形例1の教師データセットのデータ構造を示す図である。
図11に示すように、変形例1の教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。
サンプルIDおよび正解データは、本実施形態において説明したとおりである。
入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、運動中の被験者の身体状態に関するデータ(つまり、相対的に動的なデータ)、および被験者の健康状態に関するデータ(つまり、相対的に静的なデータ)である。被験者の身体状態に関するデータは、本実施形態において説明したとおりである。
被験者の健康状態に関するデータは、様々な方法で取得可能である。被験者の健康状態に関するデータは、被験者の運動前、運動中、または運動後のいずれのタイミングで取得されてもよい。被験者の健康状態に関するデータは、被験者、またはその担当医からの申告に基づいて取得されてもよいし、医療情報システムにおいて被験者に紐づけられている情報を抽出することで取得されてもよいし、被験者のアプリ(例えばヘルスケアアプリ)経由で取得されてもよい。
(7-3)推定モデル
変形例1において、サーバ30によって用いられる推定モデルは、教師データセット(図11)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
変形例1において、サーバ30によって用いられる推定モデルは、教師データセット(図11)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(7-4)情報処理
変形例1の情報処理について図7を用いて説明する。
変形例1の情報処理について図7を用いて説明する。
変形例1において、クライアント装置10は図7と同様に、センシング(S110)を実行する。
ステップS110の後に、クライアント装置10は、データの取得(S111)を実行する。
具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
さらに、クライアント装置10は、ユーザの健康状態に関するデータ(以下、「ユーザ健康状態データ」という)を取得する。例えば、クライアント装置10は、ユーザ、またはその担当医による操作(申告)に基づいてユーザ健康状態データを取得してもよいし、医療情報システムにおいてユーザに紐づけられている情報を抽出することでユーザ健康状態データを取得してもよいし、ユーザのアプリ(例えばヘルスケアアプリ)経由でユーザ健康状態データを取得してもよい。ただし、クライアント装置10は、ステップS111とは異なるタイミング(例えば、ステップS110よりも前、ステップS110と同じタイミング、ステップS111よりも後のタイミング)で、ユーザ健康状態データを取得してもよい。
ステップS111の後に、クライアント装置10は、リクエスト(S112)を実行する。
具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、ユーザ心拍数データ、またはユーザ健康状態データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、ユーザ心拍数データ、またはユーザ健康状態データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
ステップS112の後に、サーバ30は、運動耐容能に関する推定(S130)を実行する。
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ、および健康状態データ)を含む。サーバ30は、入力データに推定モデルを適用することで、運動耐容能に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)
・ユーザの(リアルタイム)運動負荷量と推定した評価指標との関係(例えば、大小関係、差、割合(つまり、心肺運動負荷量)、またはそれらの組み合わせ)
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ、および健康状態データ)を含む。サーバ30は、入力データに推定モデルを適用することで、運動耐容能に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)
・ユーザの(リアルタイム)運動負荷量と推定した評価指標との関係(例えば、大小関係、差、割合(つまり、心肺運動負荷量)、またはそれらの組み合わせ)
ステップS130の後に、サーバ30は図7と同様に、レスポンス(S131)を実行する。
ステップS131の後に、クライアント装置10は図7と同様に、情報提示(S113)を実行する。
(7-5)小括
以上説明したように、変形例1の情報処理システム1は、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行う。これにより、ユーザの健康状態をさらに考慮して、高精度な推定を行うことができる。例えば、ユーザの健康状態と、教師データの元となった被験者の健康状態との間に差異がある場合であっても、妥当な推定を行うことができる。
以上説明したように、変形例1の情報処理システム1は、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能に関する推定を行う。これにより、ユーザの健康状態をさらに考慮して、高精度な推定を行うことができる。例えば、ユーザの健康状態と、教師データの元となった被験者の健康状態との間に差異がある場合であっても、妥当な推定を行うことができる。
(8)その他の変形例
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。ディスプレイ15は、クライアント装置10に内蔵されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。ディスプレイ15は、クライアント装置10に内蔵されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
実施形態および変形例1の情報処理システムを、クライアント/サーバ型のシステムによって実装する例を示した。しかしながら、実施形態および変形例1の情報処理システムは、スタンドアロン型のコンピュータによって実装することもできる。一例として、クライアント装置10が単独で、推定モデルを用いて、運動耐容能に関する推定を行ってもよい。
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。一例として、クライアント装置10の代わりにサーバ30が、ユーザ動画(或いは、ユーザ動画およびユーザ深度)を解析することでユーザデータの少なくとも一部を取得してもよい。
上記説明では、運動耐容能の評価指標として嫌気性代謝閾値または最大酸素摂取量に関する推定を行ったり、当該推定の結果に関する情報を提示したりする例を示した。しかしながら、これらの評価指標の代わりに、またはこれらの評価指標に加えて、他種の運動耐容能の評価指標に関する推定を行ったり、当該推定の結果に関する情報を提示したりしてもよい。
上記説明では、サーバ30からのレスポンスに基づく画面をクライアント装置10のディスプレイ15に表示する例を示した。サーバ30からのレスポンスに基づく画面は、ウェアラブルデバイス50のディスプレイ55に表示されてもよい。
上記説明では、クライアント装置10のカメラ16を用いてユーザ動画を撮影する例を示した。しかしながら、ユーザ動画は、カメラ16とは別のカメラを用いて撮影されてもよい。クライアント装置10の深度センサ17を用いてユーザ深度を計測する例を示した。しかしながら、ユーザ深度は、深度センサ17とは別の深度センサを用いて計測されてもよい。
上記説明では、ユーザの心拍数をウェアラブルデバイス50により計測する例を示した。しかしながら、心拍数は、動画データ、またはその解析結果(例えば、肌色データ)を解析(例えば、rPPG(Remote Photo-plethysmography)解析)することで取得可能である。心拍数の解析は、機械学習技術を利用して構築された学習済みモデルによって行われてよい。或いは、ユーザに心電図モニタ用の電極を装着した状態で運動を行わせることで、心電図モニタがユーザの心拍数を計測できるようにしてもよい。これらの変形例では、ユーザは、ウェアラブルデバイス50を装着する必要はない。
ウェアラブルデバイス50は、心拍センサ56の代わりに、または心拍センサ56に加えて以下の少なくとも1つの項目を計測するためのセンサを備えることができる。
・加速度
・血糖値
・酸素飽和度
各センサによる計測結果は、入力データの生成、運動耐容能に関する推定、推定の結果に基づく情報の提示、またはその他の場面において適宜利用され得る。一例として、血糖値の計測結果は、例えばエネルギー消費量、または酸素消費量に換算された運動負荷量を評価するために参照され得る。別の例として、加速度の計測結果は、例えば、ユーザの運動(例えば体操)のスコア判定に用いることができる。
・加速度
・血糖値
・酸素飽和度
各センサによる計測結果は、入力データの生成、運動耐容能に関する推定、推定の結果に基づく情報の提示、またはその他の場面において適宜利用され得る。一例として、血糖値の計測結果は、例えばエネルギー消費量、または酸素消費量に換算された運動負荷量を評価するために参照され得る。別の例として、加速度の計測結果は、例えば、ユーザの運動(例えば体操)のスコア判定に用いることができる。
推定モデルに対する入力データの一部として加速度データを用いることも可能である。或いは、加速度データを参照してユーザの骨格を解析してもよい。加速度データは、例えば、ユーザ動画の撮影時にユーザに加速度センサを備えたクライアント装置10をユーザに携行させることで取得してもよい。
推定モデルに対する入力データの一部として酸素飽和度データを用いることも可能である。酸素飽和度データは、例えばユーザ動画の撮影時にユーザにパルスオキシメータを装着させることで取得してもよい。或いは、酸素飽和度データは、例えばユーザ動画データに対してrPPG解析を行うことで推定されてもよい。
上記説明では、ユーザに対して推奨する活動に関する情報を提示する例を示した。しかしながら、かかる情報の代わりに、またはかかる情報に加えて、ユーザに対して推奨する運動負荷量に関する情報を提示してもよい。一例として、ユーザが行った運動と同一の活動について、当該ユーザの運動耐容能の評価指標に応じた負荷量を示す情報(例えば、目標速度、目標回転数、など)を提示してもよい。
本実施形態および変形例1の情報処理システム1は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームにも適用可能である。一例として、情報処理システム1は、ゲームプレイ中に、ユーザの運動耐容能に関する推定を行い、当該推定の結果に応じて、以下のいずれか1つを決定してもよい。これにより、ビデオゲームがユーザの健康増進に与える効果を高めることができる。
・ユーザに与えられる、ビデオゲームに関する課題(例えば、ステージ、ミッション、クエスト)の質(例えば難易度)、または量
・ユーザに与えられる、ビデオゲームに関する特典(例えば、ゲーム内通貨、アイテム、ボーナス)の質(例えば種類)、または量
・ビデオゲームの進行に関するゲームパラメータ(例えば、スコア、ダメージ)
・ユーザに与えられる、ビデオゲームに関する課題(例えば、ステージ、ミッション、クエスト)の質(例えば難易度)、または量
・ユーザに与えられる、ビデオゲームに関する特典(例えば、ゲーム内通貨、アイテム、ボーナス)の質(例えば種類)、または量
・ビデオゲームの進行に関するゲームパラメータ(例えば、スコア、ダメージ)
クライアント装置10に搭載されたマイクロホン、またはクライアント装置10に接続されたマイクロホンが、運動中のユーザが発する音波(例えば、呼吸、または発声に伴って生じる音)を受信し、音データを生成してもよい。音データは、ユーザデータとともに推定モデルに対する入力データを構成し得る。
上記説明では、呼気ガスに関する検査として、CPX検査を例示した。CPX検査では、検査対象者に対して漸増的に運動負荷が与えられる。しかしながら、ユーザ動画の撮影時にユーザに与える運動負荷を漸増させる必要はない。具体的には、リアルタイムの心肺運動負荷量は、ユーザに一定、または随時変更可能な運動負荷を与えた状態でも推定可能である。例えば、ユーザが行う運動は、自重運動、体操、筋力トレーニングであってもよい。
変形例1では、健康状態に基づく入力データに推定モデルを適用する例を示した。しかしながら、被験者の健康状態(の少なくとも一部)に基づいて、複数の推定モデルを構築することも可能である。この場合に、ユーザの健康状態(の少なくとも一部)が、推定モデルを選択するために参照されてもよい。このさらなる変形例において、推定モデルの入力データは、ユーザの健康状態に基づかないデータであってもよいし、ユーザの健康状態およびユーザ動画に基づくデータであってもよい。
以上、本発明の実施形態および変形例について詳細に説明したが、本発明の範囲は上記の実施形態および変形例に限定されない。また、上記の実施形態および変形例は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :深度センサ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :ウェアラブルデバイス
51 :記憶装置
52 :プロセッサ
53 :入出力インタフェース
54 :通信インタフェース
55 :ディスプレイ
56 :心拍センサ
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :深度センサ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :ウェアラブルデバイス
51 :記憶装置
52 :プロセッサ
53 :入出力インタフェース
54 :通信インタフェース
55 :ディスプレイ
56 :心拍センサ
Claims (16)
- コンピュータを、
運動中のユーザの写ったユーザ動画を取得する手段、
前記ユーザ動画に基づいて、前記ユーザの運動耐容能に関する推定を行う手段
として機能させるプログラム。 - 前記運動耐容能に関する推定を行う手段は、前記ユーザ動画に基づく入力データに、推定モデルを適用することで、前記ユーザの運動耐容能に関する推定を行う、
請求項1に記載のプログラム。 - 前記推定モデルは、運動中の被験者の写った被験者動画に関するデータを含む入力データと、当該入力データの各々に関連付けられた正解データとを含む教師データセットを用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する、
請求項2に記載のプログラム。 - 前記被験者は、前記ユーザと同一人物である、
請求項3に記載のプログラム。 - 前記入力データは、前記運動中のユーザの身体状態に関するユーザデータを含む、
請求項2または請求項3に記載のプログラム。 - 前記ユーザデータは、前記運動中のユーザの骨格、表情、肌色、呼吸、または心拍数の少なくとも1つに関するデータを含む、
請求項5に記載のプログラム。 - 前記推定を行う手段は、前記ユーザの嫌気性代謝閾値、最大酸素摂取量、またはリアルタイムの心肺運動負荷量の少なくとも1つに関する推定を行う、
請求項1乃至請求項6のいずれかに記載のプログラム。 - 前記コンピュータを、前記ユーザの運動耐容能に関する推定の結果に基づく情報を提示する手段としてさらに機能させる、
請求項1乃至請求項7のいずれかに記載のプログラム。 - 前記提示する手段は、前記ユーザの運動耐容能の評価指標を提示する、
請求項8に記載のプログラム。 - 前記提示する手段は、前記ユーザの運動耐容能の評価指標に応じた負荷量を備え、かつ当該ユーザが行った運動とは異なる活動に関する情報を提示する、
請求項8または請求項9に記載のプログラム。 - 前記提示する手段は、前記ユーザの運動耐容能の評価指標の経時的変化に関する情報を提示する、
請求項8乃至請求項10のいずれかに記載のプログラム。 - 前記提示する手段は、前記ユーザの運動耐容能に関する推定の結果に基づいて、前記ユーザの運動負荷量の調整指針に関する情報を提示する、
請求項8乃至請求項11のいずれかに記載のプログラム。 - 前記提示する手段は、前記ユーザの運動負荷量と前記ユーザの運動耐容能の評価指標との関係に関する情報を提示する、
請求項8乃至請求項12のいずれかに記載のプログラム。 - 前記取得する手段は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームをプレイ中のユーザの写ったユーザ動画を取得し、
前記推定を行う手段は、前記ビデオゲームのプレイ中に、前記ユーザの運動耐容能に関する推定を行い、
前記コンピュータを、前記ユーザの運動耐容能に関する推定の結果に応じて、当該ユーザに与えられる、前記ビデオゲームに関する課題または特典の少なくとも1つを決定する手段としてさらに機能させる、
請求項1乃至請求項13のいずれかに記載のプログラム。 - 運動中のユーザの写ったユーザ動画を取得する手段と、
前記ユーザ動画に基づいて、前記ユーザの運動耐容能に関する推定を行う手段と
を具備する、情報処理装置。 - コンピュータが、
運動中のユーザの写ったユーザ動画を取得することと、
前記ユーザ動画に基づいて、前記ユーザの運動耐容能に関する推定を行うことと
を具備する、方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021137934 | 2021-08-26 | ||
JP2021137934 | 2021-08-26 | ||
JP2023509555A JP7333537B2 (ja) | 2021-08-26 | 2022-08-02 | プログラム、情報処理装置、および情報処理方法 |
PCT/JP2022/029578 WO2023026784A1 (ja) | 2021-08-26 | 2022-08-02 | プログラム、情報処理装置、および情報処理方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023509555A Division JP7333537B2 (ja) | 2021-08-26 | 2022-08-02 | プログラム、情報処理装置、および情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023133487A true JP2023133487A (ja) | 2023-09-22 |
Family
ID=85323083
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023509555A Active JP7333537B2 (ja) | 2021-08-26 | 2022-08-02 | プログラム、情報処理装置、および情報処理方法 |
JP2023125910A Pending JP2023133487A (ja) | 2021-08-26 | 2023-08-02 | プログラム、情報処理装置、および情報処理方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023509555A Active JP7333537B2 (ja) | 2021-08-26 | 2022-08-02 | プログラム、情報処理装置、および情報処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7333537B2 (ja) |
WO (1) | WO2023026784A1 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7373788B2 (ja) * | 2019-09-20 | 2023-11-06 | パナソニックIpマネジメント株式会社 | リハビリ支援装置、リハビリ支援システム及びリハビリ支援方法 |
JP7388200B2 (ja) * | 2020-01-16 | 2023-11-29 | コニカミノルタ株式会社 | リハビリテーションを支援する情報の提供の方法およびリハビリテーション支援システム |
-
2022
- 2022-08-02 WO PCT/JP2022/029578 patent/WO2023026784A1/ja active Application Filing
- 2022-08-02 JP JP2023509555A patent/JP7333537B2/ja active Active
-
2023
- 2023-08-02 JP JP2023125910A patent/JP2023133487A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JPWO2023026784A1 (ja) | 2023-03-02 |
JP7333537B2 (ja) | 2023-08-25 |
WO2023026784A1 (ja) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Al Osman et al. | Ubiquitous biofeedback serious game for stress management | |
US9465893B2 (en) | Biofeedback for program guidance in pulmonary rehabilitation | |
US6852069B2 (en) | Method and system for automatically evaluating physical health state using a game | |
AU2017386412A1 (en) | Systems and methods for real-time data quantification, acquisition, analysis, and feedback | |
US20070027369A1 (en) | Apparatus and methods for assessing human physical performance | |
US20070219059A1 (en) | Method and system for continuous monitoring and training of exercise | |
KR101911179B1 (ko) | 가상현실과 근전도 피드백 기반 재활훈련시스템 | |
KR101680972B1 (ko) | 가상현실을 이용한 실내 운동 시스템 | |
US20130184540A1 (en) | Portable device for monitoring and reporting of medical information for the evidence -based management of patients with chronic respiratory disease | |
CN111013104B (zh) | 一种运动状态下呼吸肌训练系统及其使用方法 | |
CN111883227A (zh) | 执行运动处方的管理方法及其系统 | |
KR20160138682A (ko) | 복합 생체신호를 이용한 능동형 스피닝 트레이닝 시스템 | |
KR20220098064A (ko) | 사용자 맞춤형 운동 훈련 방법 및 시스템 | |
WO2016110895A1 (ja) | 生体情報分析装置、生体情報分析システム、拍動情報計測システム及び生体情報分析プログラム | |
Montes | Validation and reliability of the Hexoskin and Fitbit Flex wearable BIO collection devices | |
JP7333537B2 (ja) | プログラム、情報処理装置、および情報処理方法 | |
JP7356666B2 (ja) | プログラム、情報処理装置、および情報処理方法 | |
WO2024166585A1 (ja) | 情報処理装置、方法、プログラム、およびシステム | |
JP7303595B1 (ja) | プログラム、情報処理装置、および情報処理方法 | |
JP7411945B2 (ja) | プログラム、情報処理装置、および情報処理方法 | |
US20240355141A1 (en) | Program, information processing device, and information processing method | |
JP2016123816A (ja) | 生体情報分析装置、生体情報分析システム及び生体情報分析プログラム | |
Dalangin | FIXTRATE: AN IOT-BASED POSTURE DETECTION AND CORRECTION SYSTEM | |
Fan et al. | Aerobics player’s energy level monitoring using IoT | |
Arcidiacono | Predicting cardiovascular fitness in ethnic minority youth: A comparison of demographic, body composition, and physical activity variables |