JP7303595B1 - プログラム、情報処理装置、および情報処理方法 - Google Patents

プログラム、情報処理装置、および情報処理方法 Download PDF

Info

Publication number
JP7303595B1
JP7303595B1 JP2022568438A JP2022568438A JP7303595B1 JP 7303595 B1 JP7303595 B1 JP 7303595B1 JP 2022568438 A JP2022568438 A JP 2022568438A JP 2022568438 A JP2022568438 A JP 2022568438A JP 7303595 B1 JP7303595 B1 JP 7303595B1
Authority
JP
Japan
Prior art keywords
user
exercise
data
exercise load
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022568438A
Other languages
English (en)
Other versions
JPWO2023095581A1 (ja
Inventor
一裕 寺嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2023095581A1 publication Critical patent/JPWO2023095581A1/ja
Priority to JP2023099046A priority Critical patent/JP2023108025A/ja
Application granted granted Critical
Publication of JP7303595B1 publication Critical patent/JP7303595B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本開示の一態様のプログラムは、コンピュータを、運動中のユーザの写ったユーザ動画を取得する手段、ユーザ動画に基づいて、ユーザの運動耐容能を基準としたユーザの運動負荷量に関する推定を行う手段、ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段、として機能させる。

Description

本開示は、プログラム、情報処理装置、および情報処理方法に関する。
心臓リハビリテーションは、運動療法を含む総合的活動プログラムを通じて、心臓病の患者が、体力および自信を回復し、快適な家庭生活および社会生活に復帰するとともに、心臓病の再発または再入院を防止することを目指す。運動療法の中心は、ウォーキング、ジョギング、サイクリング、エアロビクス、などの有酸素運動である。有酸素運動をより安全かつ効果的に行うためには、患者が、自己の嫌気性代謝閾値(AT(Anaerobic Threshold))付近の強度で運動を行うことが好ましい。
嫌気性代謝閾値は、運動耐容能の評価指標の一例であって、心肺機能状態の変化点、つまり、有酸素運動と無酸素運動との境界付近の運動強度に相当する。嫌気性代謝閾値は、一般的に、検査対象者に漸増的に運動負荷を与えながら呼気ガスを収集して分析を行うCPX検査(心肺運動負荷検査)により決定される(非特許文献1参照)。CPX検査では、呼気ガス分析により測定された結果(例えば、酸素摂取量、二酸化炭素排出量、1回換気量、呼吸数、分時換気量、またはそれらの組み合わせ)に基づいて、嫌気性代謝閾値が決定される。CPX検査によれば、嫌気性代謝閾値のほか、最大運動耐容能付近の運動強度に相当する最大酸素摂取量を決定することもできる。
特許文献1には、被験者の呼気ガスに含まれる二酸化炭素を検出し、被験者の嫌気性代謝閾値に応じた運動強度の度合いを判断することが記載されている。
特開2020-120910号公報
齋藤 宗靖,心臓リハビリテーションについて,理学療法学,1997年24巻8号p.414-418
特許文献1の技術では、被験者の呼気ガスに含まれる二酸化炭素を検出するために、被験者にガスセンサに接続されたマウスピースを装着する必要がある。運動中にこのような特殊な器具の装着を強いることは、被験者に不快、不便、または面倒と感じさせ、運動強度に関する評価の実施を躊躇させるおそれがある。
本開示の目的は、ユーザに負担をかけることなく当該ユーザの運動耐容能を基準とした運動負荷量に関する評価を行うことである。
本開示の一態様のプログラムは、コンピュータを、運動中のユーザの写ったユーザ動画を取得する手段、ユーザ動画に基づいて、ユーザの運動耐容能を基準としたユーザの運動負荷量に関する推定を行う手段、ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段、として機能させる。
本開示によれば、ユーザに負担をかけることなく当該ユーザの運動耐容能を基準とした運動負荷量に関する評価を行うことができる。
本実施形態の情報処理システムの構成を示すブロック図である。 本実施形態のクライアント装置の構成を示すブロック図である。 本実施形態のサーバの構成を示すブロック図である。 本実施形態のウェアラブルデバイスの構成を示すブロック図である。 本実施形態の概要の説明図である。 本実施形態の教師データセットのデータ構造を示す図である。 本実施形態の情報処理のフローチャートである。 本実施形態の情報処理において表示される画面例を示す図である。 変形例1の教師データセットのデータ構造を示す図である。 変形例2の情報処理において表示される画面例を示す図である。 変形例3の情報処理において表示される画面例を示す図である。 変形例4の情報処理において表示される画面例を示す図である。 変形例5の概要の説明図である。 変形例5の教師データセットのデータ構造を示す図である。 変形例5の情報処理のフローチャートである。 変形例5の情報処理において表示される画面例を示す図である。 変形例6の概要の説明図である。 変形例6の教師データセットのデータ構造を示す図である。 変形例6の情報処理のフローチャートである。 変形例6の情報処理において表示される画面例を示す図である。 変形例7の概要の説明図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
以降、複数の同様の要素が存在する場合に、各要素に共通の事項は共通の符号を用いて説明し、個別の要素に関する事項は共通の符号に枝番号を付けて行うこととする。
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
図1に示すように、情報処理システム1は、クライアント装置10-1,10-2と、サーバ30と、ウェアラブルデバイス50-1,50-2と、指導者端末70とを備える。
ここで、クライアント装置10、およびウェアラブルデバイス50の数は、例えばユーザ数によって変動する。また、指導者端末70の数も、例えば指導者数によって変動する。従って、クライアント装置10、およびウェアラブルデバイス50の数はそれぞれ、1個であってもよいし、3個以上であってもよい。同様に、指導者端末70の数は、2個以上であってもよい。
クライアント装置10、サーバ30、および指導者端末70は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10及びウェアラブルデバイス50は、例えばBluetooth(登録商標)技術を用いて、無線チャネルを介して接続される。
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスを指導者端末70に提供する情報処理装置の一例である。サーバ30は、例えば、Webサーバである。
ウェアラブルデバイス50は、ユーザの身体(例えば腕)に装着可能な情報処理装置の一例である。
指導者端末70は、情報処理装置の一例である。指導者端末70は、クライアント装置10と同様の構成を備えることができる。
(1-1)クライアント装置の構成
クライアント装置の構成について説明する。図2は、本実施形態のクライアント装置の構成を示すブロック図である。
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。クライアント装置10は、ディスプレイ15と、カメラ16と、深度センサ17と、マイクロホン18と、加速度センサ19とに接続される。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ、治療用アプリ、リハビリアプリ、またはフィットネスアプリ)のプログラム
ここで、治療用アプリ、またはリハビリアプリの対象となる疾患は、例えば、心疾患、生活習慣病(高血圧症、糖尿病、脂質異常症、高脂血症)、肥満などの運動が症状の改善に寄与する可能性がある疾病である。
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するコンピュータである。プロセッサ12は、例えば、以下の少なくとも1つである。
・CPU(Central Processing Unit)
・GPU(Graphic Processing Unit)
・ASIC(Application Specific Integrated Circuit)
・FPGA(Field Programmable Gate Array)
入出力インタフェース13は、クライアント装置10に接続される入力デバイスから情報(例えば、ユーザの指示、画像、音)を取得し、かつ、クライアント装置10に接続される出力デバイスに情報(例えば、画像、コマンド)を出力するように構成される。
入力デバイスは、例えば、カメラ16、深度センサ17、マイクロホン18、加速度センサ19、キーボード、ポインティングデバイス、タッチパネル、センサ、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ15、スピーカ、又は、それらの組合せである。
通信インタフェース14は、クライアント装置10と外部装置(例えば、別のクライアント装置10、サーバ30、ウェアラブルデバイス50、および指導者端末70)との間の通信を制御するように構成される。
具体的には、通信インタフェース14は、サーバ30との通信のためのモジュール(例えば、WiFiモジュール、移動通信モジュール、またはそれらの組み合わせ)を含むことができる。通信インタフェース14は、ウェアラブルデバイス50との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
ディスプレイ15は、画像(静止画、または動画)を表示するように構成される。ディスプレイ15は、例えば、液晶ディスプレイ、または有機ELディスプレイである。
カメラ16は、撮影を行い、画像信号を生成するように構成される。
深度センサ17は、例えばLIDAR(Light Detection And Ranging)である。深度センサ17は、当該深度センサ17から周囲の物体(例えば、ユーザ)までの距離(深度)を測定するように構成される。
マイクロホン18は、音波を受信し、音声信号を生成するように構成される。
加速度センサ19は、加速度を検出するように構成される。
(1-2)サーバの構成
サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
図3に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージの組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するコンピュータである。プロセッサ32は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
入出力インタフェース33は、サーバ30に接続される入力デバイスから情報(例えば、ユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30と外部装置(例えば、クライアント装置10、および指導者端末70)との間の通信を制御するように構成される。
(1-3)ウェアラブルデバイスの構成
ウェアラブルデバイスの構成について説明する。図4は、本実施形態のウェアラブルデバイスの構成を示すブロック図である。
図4に示すように、ウェアラブルデバイス50は、記憶装置51と、プロセッサ52と、入出力インタフェース53と、通信インタフェース54とを備える。ウェアラブルデバイス50は、ディスプレイ55と、心拍センサ56と、加速度センサ57とに接続される。
記憶装置51は、プログラム及びデータを記憶するように構成される。記憶装置51は、例えば、ROM、RAM、及び、ストレージの組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、治療用アプリ、リハビリアプリ、またはフィットネスアプリ)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ52は、記憶装置51に記憶されたプログラムを起動することによって、ウェアラブルデバイス50の機能を実現するコンピュータである。プロセッサ52は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
入出力インタフェース53は、ウェアラブルデバイス50に接続される入力デバイスから情報(例えば、ユーザの指示、センシング結果)を取得し、かつ、ウェアラブルデバイス50に接続される出力デバイスに情報(例えば、画像、コマンド)を出力するように構成される。
入力デバイスは、例えば、心拍センサ56、加速度センサ57、マイクロホン、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ55、スピーカ、又は、それらの組合せである。
通信インタフェース54は、ウェアラブルデバイス50と外部装置(例えば、クライアント装置10)との間の通信を制御するように構成される。
具体的には、通信インタフェース54は、クライアント装置10との通信のためのモジュール(例えば、Bluetoothモジュール)を含むことができる。
ディスプレイ55は、画像(静止画、または動画)を表示するように構成される。ディスプレイ55は、例えば、液晶ディスプレイ、または有機ELディスプレイである。
心拍センサ56は、心拍の計測を行い、センシング信号を生成するように構成される。一例として、心拍センサ56は、光学式の計測技法により心拍を計測する。
加速度センサ57は、加速度を検出するように構成される。
(2)実施形態の概要
本実施形態の概要について説明する。図5は、本実施形態の概要の説明図である。
図5に示すように、クライアント装置10-1のカメラ16-1は、運動中のユーザUS1の外観(例えば全身)を例えば2m程度の距離で撮影する。同様に、クライアント装置10-2のカメラ16-2は、運動中のユーザUS2の外観(例えば全身)を例えば2m程度の距離で撮影する。クライアント装置10-1、およびクライアント装置10-2は、三脚またはその他の高さ調整手段により、適切な高さに設置されてよい。ユーザUS1、およびユーザUS2は、いずれも共通の(心臓)リハビリテーションプログラム、または運動指導プログラムの参加者である。図5の例では、ユーザUS1,US2が体操の運動を行う例を示しているが、ユーザUS1,US2は任意の運動(有酸素運動、または無酸素運動)を行うことができる。また、ユーザUS1,US2は、異なる種目の運動を行ってもよい。
一例として、カメラ16-1は、ユーザUS1の外観を、正面または斜め前から撮影する。同様に、カメラ16-2は、ユーザUS2の外観を、正面または斜め前から撮影する。深度センサ17-1は、当該深度センサ17-1からユーザUS1の各部位までの距離(深度)を測定する。同様に、深度センサ17-2は、当該深度センサ17-2からユーザUS2の各部位までの距離(深度)を測定する。なお、例えばカメラ16-1によって生成される動画データ(2次元)と、例えば深度センサ17-1によって生成される深度データとを組み合わせることで、3次元動画データを生成することも可能である。同様に、例えばカメラ16-2によって生成される動画データ(2次元)と、例えば深度センサ17-2によって生成される深度データとを組み合わせることで、3次元動画データを生成することも可能である。
ウェアラブルデバイス50-1の心拍センサ56-1は、ユーザUS1の心拍を計測し、計測結果をクライアント装置10-1へ送信する。同様に、ウェアラブルデバイス50-2の心拍センサ56-2は、ユーザUS2の心拍を計測し、計測結果をクライアント装置10-2へ送信する。
クライアント装置10-1は、少なくとも、カメラ16-1から取得した動画データを参照し、運動中のユーザの身体状態を解析する。クライアント装置10-1は、運動中のユーザの身体状態を解析するために、深度センサ17-1から取得した深度データをさらに参照してもよい。クライアント装置10-1は、動画データ(或いは、動画データおよび深度データ)の解析結果と、ウェアラブルデバイス50-1から取得したユーザUS1の心拍の計測結果とに基づく、運動中のユーザUS1の身体状態に関するデータ(以下、「ユーザデータ」という)をサーバ30へ送信する。
同様に、クライアント装置10-2は、少なくとも、カメラ16-2から取得した動画データを参照し、運動中のユーザの身体状態を解析する。クライアント装置10-2は、運動中のユーザの身体状態を解析するために、深度センサ17-2から取得した深度データをさらに参照してもよい。クライアント装置10-2は、動画データ(或いは、動画データおよび深度データ)の解析結果と、ウェアラブルデバイス50-2から取得したユーザUS2の心拍の計測結果とに基づく、運動中のユーザUS2の身体状態に関するユーザデータをサーバ30へ送信する。
サーバ30は、クライアント装置10-1から取得したユーザデータに、学習済みモデルLM1(「推定モデル」の一例)を適用することで、ユーザUS1の運動耐容能を基準としたユーザUS1の(心肺)運動負荷量に関する推定を行う。同様に、サーバ30は、クライアント装置10-2から取得したユーザデータに、学習済みモデルLM2(「推定モデル」の一例)を適用することで、ユーザUS2の運動耐容能を基準としたユーザUS2の運動負荷量に関する推定を行う。サーバ30は、推定結果(例えば、ユーザUS1,US2の運動負荷量を示す数値)を指導者端末70へ送信する。なお、学習済みモデルLM1および学習済みモデルLM2は、同一であってもよい。つまり、異なるユーザの運動負荷量に関する推定を共通の推定モデルを用いて行うこともできる。
指導者端末70は、ユーザUS1,US2の運動負荷量に関する推定の結果に基づく情報を指導者CO1に提示する。指導者CO1は、ユーザUS1、およびユーザUS2が参加しているリハビリテーションプログラム、または運動指導プログラムの指導者である。指導者CO1は、例えば、ユーザの運動に関する指導を行う者である。指導者CO1は、例えば、医療関係者(例えば、医師、看護師、薬剤師、理学療法士、作業療法士、臨床検査技師)、栄養士、またはトレーナーである。
リハビリテーションプログラム、または運動指導プログラムの間、クライアント装置10-1,10-2と、指導者端末70とは、ビデオ通話状態にあってもよい。これにより、ユーザUS1,US2は、指導者CO1による運動の実演を視聴しながら運動を行ったり、指導者CO1に質問や要望などを伝えたりすることができる。他方、指導者CO1は、ユーザUS1,US2の動きや様子を確認しながら、指導(例えば、個別のユーザにまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)をすることができる。指導者CO1は、さらに、ユーザUS1,US2の運動負荷量に関する推定の結果に基づく情報を考慮することで、指導の質を高めることができる。
このように、情報処理システム1は、運動中のユーザUS1,US2の動画(或いは、動画および深度)、および心拍数に基づいて、ユーザ毎に、当該ユーザの運動耐容能を基準とした当該ユーザの運動負荷量に関する推定を行う。故に、この情報処理システム1によれば、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能を基準とした運動負荷量に関する評価を行い、指導者CO1による指導に有用な情報を提示することができる。
(3)教師データセット
本実施形態の教師データセットについて説明する。図6は、本実施形態の教師データセットのデータ構造を示す図である。
図6に示すように、教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。
サンプルIDは、教師データを識別する情報である。
入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、運動中の被験者の身体状態に関するデータである。被験者の身体状態に関するデータの少なくとも一部は、被験者動画データ(或いは、被験者動画データおよび被験者深度データ)を参照して当該被験者の身体状態を解析することで取得される。
被験者動画データは、運動中の被験者の写った被験者動画に関するデータである。被験者動画データは、例えば、呼気ガスに関する検査(一例としてCPX検査)中の被験者の外観(例えば全身)を正面または斜め前(例えば、45度前方)からカメラ(一例として、スマートフォンに搭載されたカメラ)で撮影することで取得可能である。
被験者深度データは、深度センサから運動中の被験者の各部位までの距離(深度)に関するデータである。被験者深度データは、被験者動画の撮影時に、深度センサを動作させることで取得可能である。
被験者は、情報処理システム1の運用時に運動耐容能を基準とした運動負荷量に関する推定が行われるユーザと同一人物であってもよいし、異なる人物であってもよい。被験者およびユーザを同一人物とすることで、対象モデルがユーザの個性を学習し、推定精度が向上する可能性がある。他方、被験者がユーザと異なる人物であることを許容することは、教師データセットの豊富化が容易となる利点がある。また、被験者は、ユーザを含む複数人、またはユーザを含まない複数人により構成されてもよい。
図6の例では、入力データは、骨格データ、表情データ、肌色データ、呼吸データ、および心拍数データを含む。
骨格データは、運動中の被験者の骨格に関するデータ(例えば特徴量)である。骨格データは、例えば、被験者の各部位の速度、または加速度に関するデータ(被験者が使用する筋肉の部位の変化、または被験者の体感のぶれに関するデータを含み得る)を含む。骨格データは、被験者動画データ(或いは、被験者動画データおよび被験者深度データ)を参照して運動中の被験者の骨格を解析することで取得可能である。一例として、iOS(登録商標) 14のSDKであるVision、または他の骨格検知アルゴリズム(例えば、OpenPose、PoseNet、MediaPipe Pose)が骨格の解析に利用可能である。或いは、教師データセット向けの骨格データは、例えば、被験者の各部位に動きセンサを装着した状態で運動を行わせることで取得可能である。
骨格検知の結果は、運動の定量評価、定性評価、またはこれらの組み合わせに用いることができる。第1例として、骨格検知の結果は、レップ数のカウントに用いることもできる。第2例として、骨格検知の結果は、運動のフォーム、または運動によってかかる負荷の適切性の評価に用いることができる。例えば運動種目がスクワットである場合に、骨格検知の結果は、膝が前に出すぎて危険なフォームになっていないか、しっかり深く腰を下げて十分な負荷がかかっているか、などの評価に用いることができる。
表情データは、運動中の被験者の表情に関するデータ(例えば特徴量)である。表情データは、アルゴリズム、または学習済みモデルを被験者動画データに適用することで解析可能である。或いは、教師データセット向けの表情データは、例えば被験者動画を視聴した人間がラベリングすることで取得可能である。
肌色データは、運動中の被験者の肌色に関するデータ(例えば特徴量)である。肌色データは、アルゴリズム、または学習済みモデルを被験者動画データに適用することで解析可能である。或いは、教師データセット向けの肌色データは、例えば被験者動画を視聴した人間がラベリングすることで取得可能である。
呼吸データは、運動中の被験者の呼吸に関するデータ(例えば特徴量)である。呼吸データは、例えば、単位時間あたりの呼吸数または呼吸様式に関する。呼吸様式は、以下の少なくとも1つを含むことができる。
・換気回数
・換気量
・換気速度(つまり、単位時間あたりの換気量、または換気回数)
・換気加速度(つまり、換気速度の時間微分)
・二酸化炭素排出濃度
・二酸化炭素排出量(VCO2)
・酸素摂取濃度
・酸素摂取量(VO2)
呼吸様式に関するデータは、ガス交換比R(=VCO2/VO2)のように上記したデータの組み合わせに基づいて算出可能なデータを含んでもよい。
呼吸データは、例えば、上記骨格データを解析することで取得可能である。一例として、骨格データから以下の項目を解析可能である。
・肩、胸(側胸部を含み得る)、腹部、またはそれらの組み合わせの動き(広がり)
・吸気時間
・呼気時間
・呼吸補助筋の使用程度
教師データセット向けの呼吸データは、例えば、運動中の被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。運動中の被験者に対して実施可能な呼気ガス検査の詳細は後述する。或いは、教師データセット向けの呼吸データのうち換気回数、換気量、換気速度、または換気加速度は、例えば、運動中に被験者に対して実施された呼吸機能検査(例えば、肺機能検査、または肺活量検査)の結果から取得することもできる。この場合に、呼吸機能検査には、医療機器に限られず市販の検査器具を用いても構わない。
心拍数データは、運動中の被験者の心拍数に関するデータ(例えば、特徴量)である。心拍数データは、例えば、被験者動画データ、またはその解析結果(例えば、肌色データ)を解析することで取得可能である。或いは、教師データセット向けの心拍数データは、例えば、後述する呼吸データとともに、呼気ガスに関する検査の結果から取得されてもよい。教師データセット向けの被験者心拍数データは、被験者に心拍センサ、または心電図モニタ用の電極を装着した状態で上記運動を行わせることでも取得可能である。
正解データは、対応する入力データ(例題)に対する正解に相当するデータである。対象モデルは、入力データに対して正解データにより近い出力を行うように訓練(教師あり学習)される。一例として、正解データは、運動耐容能の評価指標を基準とした運動負荷量を示す指標、または当該指標を決定するための材料となる指標(例えば運動負荷量の絶対的な大きさ)、の少なくとも1つを含む。嫌気性代謝閾値(AT)、および最大酸素摂取量(Peak VO2)は、運動耐容能の評価指標の一例である。運動負荷量は、例えば(リアルタイムの)運動負荷量の最大酸素摂取量に対する割合で算出可能である。
運動負荷量は、運動の負荷を定量的に評価するための指標である。運動負荷は、以下の少なくとも1つを用いて数値により表すことができる。
・エネルギー(カロリー)消費量
・酸素消費量
・心拍数
正解データは、例えば、運動中の被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。呼気ガスに関する検査の第1例は、呼気ガス分析装置を装着した被験者が、負荷漸増式の運動(例えばエルゴメータ)を実施している間に行われる検査(典型的にはCPX検査)である。呼気ガスに関する検査の第2例は、呼気ガス分析装置を装着した被験者が、一定、または随時変更可能な負荷量の運動(例えば、自重運動、体操、筋力トレーニング)を実施している間に行われる検査である。
或いは、正解データは、運動中の被験者に対して実施された呼気ガス以外の検査の結果からも取得可能である。具体的には、運動中の被験者の汗中、または血中の乳酸濃度測定に基づく心肺運動負荷量予測検査の結果からも正解データを取得可能である。被験者の乳酸濃度測定のために、ウェアラブル乳酸センサを利用してもよい。
(4)推定モデル
サーバ30によって用いられる推定モデルは、教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(5)情報処理
本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のフローチャートである。図8は、本実施形態の情報処理において表示される画面例を示す図である。
情報処理は、例えば以下の開始条件のいずれかの成立に応じて開始する。
・他の処理によって情報処理が呼び出された。
・ユーザ、または指導者が情報処理を呼び出すための操作を行った。
・クライアント装置10、または指導者端末70が所定の状態(例えば、所定のアプリの起動)になった。
・所定の日時が到来した。
・所定のイベントから所定の時間が経過した。
図7に示すように、クライアント装置10は、センシング(S110)を実行する。
具体的には、クライアント装置10は、カメラ16の動作を有効にすることで、運動中のユーザの動画(以下、「ユーザ動画」という)の撮影を開始する。また、クライアント装置10は、深度センサ17の動作を有効にすることで、当該深度センサ17から運動中のユーザの各部位までの距離(以下、「ユーザ深度」という)の計測を開始する。さらに、クライアント装置10は、ウェアラブルデバイス50に、心拍センサ56による心拍数(以下、「ユーザ心拍数」という)の計測を開始させる。さらに、クライアント装置10は、当該クライアント装置10、またはウェアラブルデバイス50の任意のセンサを有効にしてもよい。
ステップS110の後に、クライアント装置10は、データの取得(S111)を実行する。
具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
ステップS111の後に、クライアント装置10は、リクエスト(S112)を実行する。
具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、またはユーザ心拍数データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
ステップS112の後に、サーバ30は、運動負荷量に関する推定(S130)を実行する。
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ)を含む。サーバ30は、入力データに推定モデルを適用することで、ユーザの運動耐容能を基準とした運動負荷量に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)を基準とした運動負荷量を示す指標(例えば、エネルギー消費量、酸素消費量、心拍数、またはそれらの組み合わせ)
・上記運動負荷量を示す指標を決定するための材料となる指標(例えば、運動耐容能の評価指標、または運動負荷量の絶対的な大きさを示す指標)
・ユーザの運動負荷量の絶対的な大きさとユーザの運動耐容能の評価指標との関係(例えば、大小関係、差、またはそれらの組み合わせ)
ステップS130の後に、サーバ30は、レスポンス(S131)を実行する。
具体的には、サーバ30は、ステップS130における推定の結果に基づくレスポンスを生成する。サーバ30は、生成したレスポンスを指導者端末70へ送信する。一例として、レスポンスは以下の少なくとも1つを含むことができる。
・ユーザの運動耐容能を基準とした運動負荷量に関する推定の結果に相当するデータ
・ユーザの運動耐容能を基準とした運動負荷量に関する推定の結果を加工したデータ(例えば、指導者端末70のディスプレイ(指導者端末70が備える、または当該指導者端末70に接続されたディスプレイ)に表示されるべき画面のデータ、または当該画面を生成するために参照されるデータ)
指導者端末70は、ステップS131の後に、情報提示(S170)を実行する。
具体的には、指導者端末70は、サーバ30から取得したレスポンス(つまり、ユーザの運動耐容能を基準とした運動負荷量に関する推定の結果)に基づく情報を当該指導者端末70のディスプレイに表示させる。
ただし、情報は、指導者に加えて、ユーザ向けにクライアント装置10、またはウェアラブルデバイス50に提示されてもよい。
一例として、指導者端末70は、画面P10(図8)をディスプレイに表示させる。画面P10は、表示オブジェクトA10a~A10b、および操作オブジェクトB10a~B10bを含む。
表示オブジェクトA10aは、各ユーザの外観に関する情報(例えば、運動動画、サムネイル、写真、アバター、またはアイコン)を表示する。
表示オブジェクトA10Bは、各ユーザの運動耐容能を基準とした運動負荷量に関する情報を表示する。図8の例では、表示オブジェクトA10Bは、かかる情報として、例えば、ユーザの運動耐容能によって決まる基準値(例えば嫌気性代謝閾値)に比べて当該ユーザの運動負荷量が高いか、適正(同程度)であるか、低いかを示すことができる。表示オブジェクトA10bは、運動耐容能の評価指標を基準とした運動負荷量を示す数値(例えば、比率、または差)を表示してもよいし、運動負荷量の絶対的な大きさを示す数値と運動耐容能を示す数値とを並べて表示してもよい。
操作オブジェクトB11aは、各ユーザと通話(ビデオ通話、または音声通話)を開始するための操作を受け付ける。
操作オブジェクトB11bは、各ユーザに定型メッセージを送信するための操作を受け付ける。例えば、運動耐容能を基準とした運動負荷量が低いユーザについて、指導者が操作オブジェクトB11bを選択すると、運動負荷を上げることを促すメッセージが当該ユーザのクライアント装置10へ送信される。また、運動耐容能を基準とした運動負荷量が高いユーザについて、指導者が操作オブジェクトB11bを選択すると、運動負荷を下げることを促すメッセージが当該ユーザのクライアント装置10へ送信される。さらに、運動耐容能を基準とした運動負荷量が適正であるユーザについて、指導者が操作オブジェクトB11bを選択すると、運動負荷を維持することを促すメッセージが当該ユーザのクライアント装置10へ送信される。
各ユーザに関する一連のオブジェクトの表示位置は、動的に変更されてよい。一例として、運動耐容能によって決まる基準値と運動負荷量との乖離が大きいユーザから順に一連のオブジェクトが表示されてもよい。或いは、全ユーザの情報を常時提示する代わりに、運動負荷量に関する推定の結果が所定の条件を満たすユーザの情報を提示(例えばオブジェクトを表示)するようにしてもよい。所定の条件は、例えば、運動耐容能を基準とした運動負荷量が低い、または運動耐容能を基準とした運動負荷量が高い、であってよい。
ステップS112の後に、クライアント装置10は、情報処理(図7)を終了することができる。ただし、ユーザの運動耐容能を基準とした運動負荷量に関する推定を当該ユーザの運動中にリアルタイムに実施する場合に、クライアント装置10は、ステップS112の後にデータの取得(S111)に戻ってもよい。
(6)小括
以上説明したように、実施形態の情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づいて当該ユーザの運動耐容能を基準とした運動負荷量に関する推定を行い、推定の結果に基づく情報を提示する。これにより、ユーザに特殊な器具の装着などの負担をかけることなく、当該ユーザの運動耐容能を基準とした運動負荷量に関する評価を行うことができる。
情報処理システム1は、運動中のユーザの動画(或いは、動画および深度)、および心拍数に基づく入力データに、推定モデルを適用することで、当該ユーザの運動耐容能を基準とした運動負荷量に関する推定を行ってもよい。これにより、ユーザの運動負荷量に関する統計的な推定を短時間で行うことができる。さらに、推定モデルは、前述の教師データセット(図6)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当してもよい。これにより、推定モデルを効率的に構築することができる。さらに、推定モデルを適用される入力データは、運動中のユーザの身体状態に関するユーザデータを含んでもよい。これにより、推定モデルの精度を向上させることができる。ユーザデータは、運動中のユーザの骨格、表情、肌色、呼吸、または心拍数の少なくとも1つに関するデータを含んでもよい。これにより、推定モデルの精度を向上させることができる。さらに、被験者は、ユーザと同一人物であってもよい。これにより、ユーザの個性を学習したモデルを利用して、高精度な推定を行うことができる。
前述のようにユーザの数は任意であるが、複数のユーザが存在する場合に、実施形態の情報処理システム1は、各ユーザの運動耐容能を基準とした運動負荷量に関する推定を行い、当該推定の結果に基づく情報を当該複数のユーザの指導者に提示してもよい。これにより、指導者は、多数のユーザを同時に指導する場合であっても、各ユーザの運動負荷量を把握して適切な介入を行うことができる。或いは、複数のユーザが存在する場合に、実施形態の情報処理システム1は、各ユーザの運動耐容能を基準とした運動負荷量に関する推定を行い、当該推定の結果が所定の条件を満たすユーザに関する情報を指導者に提示してもよい。これにより、指導者は、多数のユーザを同時に指導する場合であっても、個別にケアが必要なユーザを容易に特定し、適切な介入を行うことができる。
(7)変形例
本実施形態の変形例について説明する。
(7-1)変形例1
変形例1について説明する。変形例1は、推定モデルに対する入力データを変形する例である。
(7-1-1)変形例1の概要
変形例1の概要について説明する。本実施形態では、ユーザ動画に基づく入力データに推定モデルを適用する例を示した。変形例1では、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能を基準とした運動負荷量に関する推定を行うこともできる。
健康状態は、以下の少なくとも1つを含む。
・年齢
・性別
・身長
・体重
・体脂肪率
・筋肉量
・骨密度
・現病歴
・既往歴
・内服歴
・手術歴
・生活歴(例えば、喫煙歴、飲酒歴、日常生活動作(ADL)、フレイルスコア、など)
・家族歴
・呼吸機能検査の結果
・呼吸機能検査以外の検査結果(例えば、血液検査、尿検査、心電図検査(ホルター心電図検査を含む)、心臓超音波検査、X線検査、CT検査(心臓形態CT・冠動脈CT含む)、MRI検査、核医学検査、PET検査、などの結果)
・心臓リハビリテーション施行中に取得されたデータ(Borg指数含む)
(7-1-2)教師データセット
変形例1の教師データセットについて説明する。図9は、変形例1の教師データセットのデータ構造を示す図である。
図9に示すように、変形例1の教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。
サンプルIDおよび正解データは、本実施形態において説明したとおりである。
入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、運動中の被験者の身体状態に関するデータ(つまり、相対的に動的なデータ)、および被験者の健康状態に関するデータ(つまり、相対的に静的なデータ)である。被験者の身体状態に関するデータは、本実施形態において説明したとおりである。
被験者の健康状態に関するデータは、様々な方法で取得可能である。被験者の健康状態に関するデータは、被験者の運動前、運動中、または運動後のいずれのタイミングで取得されてもよい。被験者の健康状態に関するデータは、被験者、またはその担当医からの申告に基づいて取得されてもよいし、医療情報システムにおいて被験者に紐づけられている情報を抽出することで取得されてもよいし、被験者のアプリ(例えばヘルスケアアプリ)経由で取得されてもよい。
(7-1-3)推定モデル
変形例1において、サーバ30によって用いられる推定モデルは、教師データセット(図9)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(7-1-4)情報処理
変形例1の情報処理について図7を用いて説明する。
変形例1において、クライアント装置10は図7と同様に、センシング(S110)を実行する。
ステップS110の後に、クライアント装置10は、データの取得(S111)を実行する。
具体的には、クライアント装置10は、ステップS110において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得し、ウェアラブルデバイス50からユーザ心拍数データを取得する。
さらに、クライアント装置10は、ユーザの健康状態に関するデータ(以下、「ユーザ健康状態データ」という)を取得する。例えば、クライアント装置10は、ユーザ、またはその担当医による操作(申告)に基づいてユーザ健康状態データを取得してもよいし、医療情報システムにおいてユーザに紐づけられている情報を抽出することでユーザ健康状態データを取得してもよいし、ユーザのアプリ(例えばヘルスケアアプリ)経由でユーザ健康状態データを取得してもよい。ただし、クライアント装置10は、ステップS111とは異なるタイミング(例えば、ステップS110よりも前、ステップS110と同じタイミング、ステップS111よりも後のタイミング)で、ユーザ健康状態データを取得してもよい。
ステップS111の後に、クライアント装置10は、リクエスト(S112)を実行する。
具体的には、クライアント装置10は、ステップS111において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS111において取得したデータ(例えば、ユーザ動画データ、ユーザ深度データ、ユーザ心拍数データ、またはユーザ健康状態データ)
・ステップS111において取得したデータを加工したデータ
・ステップS111において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザデータ(例えば、骨格データ、表情データ、肌色データ、呼吸データ、またはそれらの組み合わせ)
ステップS112の後に、サーバ30は、運動負荷量に関する推定(S130)を実行する。
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザデータ(骨格データ、表情データ、肌色データ、呼吸データ、心拍数データ、またはそれらの組み合わせ、および健康状態データ)を含む。サーバ30は、入力データに推定モデルを適用することで、ユーザの運動耐容能を基準とした運動負荷量に関する推定を行う。一例として、サーバ30は、以下の少なくとも1つを推定する。
・運動耐容能の評価指標(例えば、嫌気性代謝閾値、または最大酸素摂取量)を基準とした運動負荷量を示す指標(例えば、エネルギー消費量、酸素消費量、心拍数、またはそれらの組み合わせ)
・上記運動負荷量を示す指標を決定するための材料となる指標(例えば、運動耐容能の評価指標、または運動負荷量の絶対的な大きさを示す指標)
・ユーザの運動負荷量の絶対的な大きさとユーザの運動耐容能の評価指標との関係(例えば、大小関係、差、またはそれらの組み合わせ)
ステップS130の後に、サーバ30は図7と同様に、レスポンス(S131)を実行する。
ステップS131の後に、指導者端末70は図7と同様に、情報提示(S170)を実行する。
(7-1-5)小括
以上説明したように、変形例1の情報処理システム1は、ユーザ動画およびユーザの健康状態の双方に基づく入力データに推定モデルを適用することで、当該ユーザの運動耐容能を基準とした運動負荷量に関する推定を行う。これにより、ユーザの健康状態をさらに考慮して、高精度な推定を行うことができる。例えば、ユーザの健康状態と、教師データの元となった被験者の健康状態との間に差異がある場合であっても、妥当な推定を行うことができる。
(7-2)変形例2
変形例2について説明する。変形例2は、ユーザの運動負荷量およびユーザの心肺の状態の関係を分析し、分析の結果に基づく情報を提示する例である。
変形例2では、各ユーザのクライアント装置10は、当該ユーザの心肺の状態に関するデータをサーバ30へ送信する。心肺の状態に関するデータは、リクエストに含められてもよい。この処理は、例えば図7のステップS112、または他のタイミングで実行され得る。心肺の状態を示すデータは、例えば、心拍数データ、呼吸データ(例えば、酸素消費量)、またはそれらの組み合わせである。サーバ30は、ユーザ毎に、本実施形態または変形例1の技法により推定した運動負荷量と、クライアント装置10から取得したユーザの心肺の状態を示すデータとを関連付けて蓄積する。
サーバ30は、ユーザの運動負荷量と心肺の状態との関係を分析する。この処理は、例えば図7のステップS130、または他のタイミングで実行され得る。
具体的には、サーバ30は、ユーザについて推定された運動負荷量(以下、「推定運動負荷量」という)に対して心肺の状態が適正であるか否かを当該ユーザについて過去に蓄積されたデータ(以下、「心肺履歴データ」という)を参照して判定する。一例として、サーバ30は、ユーザの心肺履歴データにおける過去のユーザの運動負荷量および心肺の状態を参照し、推定運動負荷量に対応する心肺の状態(以下、「予測心肺状態」という)を予測する。ユーザについて測定された心肺の状態が、予測心肺状態から乖離している場合に、当該ユーザの心肺の状態が適正でないと判定する。一例として、あるユーザの心拍数の実測値が、予測された心拍数(例えば現在と同程度の心拍運動負荷量の下で過去に得られた心拍数)を上回る場合に、サーバ30は、当該ユーザは普段より息が上がっていると判定する。
推定運動負荷量に対応する心肺の状態の予測は、学習済みモデルを用いて行われてもよい。機械学習では、心肺履歴データを教師データとして利用可能である。
サーバ30は、ユーザの運動負荷量と心肺の状態との関係の分析の結果に基づく情報(例えば、心肺の状態が適正でないと判定されたユーザを示す情報、当該ユーザについて予想される心肺の状態(例えば息が上がっている)を示す情報、またはそれらの組み合わせ)を指導者端末70へ送信する。この処理は、例えば、図7のステップS131、または他のタイミングで実行され得る。かかる情報は、レスポンスに含められてもよい。
指導者端末70は、ユーザの運動負荷量と心肺の状態との関係の分析の結果に基づく情報を提示する。この処理は、例えば図7のステップS170、または他のタイミングで実行され得る。
具体的には、指導者端末70は、情報を当該指導者端末70のディスプレイに表示させる。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
ただし、情報は、指導者に加えて、ユーザ向けにクライアント装置10、またはウェアラブルデバイス50に提示されてもよい。
図10は、変形例2の情報処理において表示される画面例を示す図である。
一例として、指導者端末70は、画面P11(図10)をディスプレイに表示させる。画面P11は、表示オブジェクトA11、および操作オブジェクトB11a~B11bを含む。
表示オブジェクトA11は、ユーザの運動負荷量と心肺の状態との関係の分析の結果に基づく情報を表示する。図10の例では、表示オブジェクトA11は、心肺の状態が適正でないと判定されたユーザと、当該ユーザについて予想される心肺の状態とを示す情報を表示する。一例として、表示オブジェクトA11は、いずれかのユーザの心肺の状態が適正でないと判定されたことに応答して、ポップアップ表示される。
操作オブジェクトB11aは、表示オブジェクトA11により表示された情報の対象者となるユーザ(以下、「対象ユーザ」という)と通話(ビデオ通話、または音声通話)を開始するための操作を受け付ける。
操作オブジェクトB11bは、対象ユーザに定型メッセージを送信するための操作を受け付ける。一例として、指導者が操作オブジェクトB11bを選択すると、運動負荷を下げる、運動を中止する、または受診もしくはその予約を促すメッセージが対象ユーザのクライアント装置10へ送信される。
以上説明したように、変形例2の情報処理システム1は、ユーザの運動負荷量とユーザの心肺の状態との関係を当該ユーザの心肺履歴データに基づいて分析し、分析の結果に基づく情報を提示する。これにより、ユーザが普段よりも息が上がっているなどの異常の兆候を早期に発見し、当該ユーザの安全に配慮した指導(例えば、運動負荷量の適正化、または受診の促し)を行うことができる。
(7-3)変形例3
変形例3について説明する。変形例3は、ユーザ動画、またはユーザ音声に基づいて、当該ユーザの心不全の兆候に関する推定を行う例である。
変形例3では、サーバ30は、ユーザ動画、またはユーザ音声に基づいて、ユーザの心不全の兆候に関する推定を行う。この処理は、例えば図7のステップS130、または他のタイミングで実行され得る。ユーザ音声は、例えば図7のステップS111またはその他のタイミングで、クライアント装置10が例えばマイクロホン18を用いて運動中のユーザの声を記録することで取得される。
具体的には、サーバ30は、ユーザ動画データ、またはその解析結果(例えば、肌色データなどのユーザデータ)を解析することで、ユーザに心不全の兆候(例えば、顔面浮腫)があるか否かを判定する。或いは、サーバ30は、ユーザ音声データ、またはその解析結果を解析することで、ユーザに心不全の兆候(例えば、声音振盪)があるか否かを判定する。かかる判定は、アルゴリズム、または学習済みモデルを、ユーザ動画データ、もしくはその解析結果、またはユーザ音声データ、もしくはその解析結果の少なくとも1つ(以下、「入力データ」という)に適用することで実現される。学習済みモデルは、入力データと、当該被験者の心不全の兆候の有無との関係について機械学習を行うことで構築可能である。
サーバ30は、ユーザの心不全の兆候に関する推定の結果に基づく情報(例えば、心不全の兆候があると判定されたユーザを示す情報、当該ユーザについて予想される心不全の兆候(例えば、顔面浮腫、または声音振盪)を示す情報、またはそれらの組み合わせ)を指導者端末70へ送信する。この処理は、例えば、図7のステップS131、または他のタイミングで実行され得る。かかる情報は、レスポンスに含められてもよい。
指導者端末70は、ユーザの心不全の兆候に関する推定の結果に基づく情報を提示する。この処理は、例えば図7のステップS170、または他のタイミングで実行され得る。
具体的には、指導者端末70は、情報を当該指導者端末70のディスプレイに表示させる。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
ただし、情報は、指導者に加えて、ユーザ向けにクライアント装置10、またはウェアラブルデバイス50に提示されてもよい。
図11は、変形例3の情報処理において表示される画面例を示す図である。
一例として、指導者端末70は、画面P12(図11)をディスプレイに表示させる。画面P12は、表示オブジェクトA12、および操作オブジェクトB12a~B12bを含む。
表示オブジェクトA12は、ユーザの心不全の兆候に関する推定の結果に基づく情報を表示する。図11の例では、表示オブジェクトA12は、心不全の徴候があると判定されたユーザと、当該ユーザについて予想される心不全の兆候とを示す情報を表示する。一例として、表示オブジェクトA12は、いずれかのユーザに心不全の徴候があると判定されたことに応答して、ポップアップ表示される。
操作オブジェクトB12aは、表示オブジェクトA12により表示された情報の対象者となるユーザ(以下、「対象ユーザ」という)と通話(ビデオ通話、または音声通話)を開始するための操作を受け付ける。
操作オブジェクトB12bは、対象ユーザに定型メッセージを送信するための操作を受け付ける。一例として、指導者が操作オブジェクトB12bを選択すると、運動負荷を下げる、運動を中止する、または受診もしくはその予約を促すメッセージが対象ユーザのクライアント装置10へ送信される。
以上説明したように、変形例3の情報処理システム1は、ユーザの心不全の兆候についてユーザ動画、またはユーザ音声に基づいて推定し、推定の結果に基づく情報を提示する。これにより、ユーザに心不全の兆候があるなどの異常の兆候を早期に発見し、当該ユーザの安全に配慮した指導(例えば、運動負荷量の適正化、または受診の促し)を行うことができる。
上記説明では、変形例3を、本実施形態、変形例1、または変形例2の少なくとも1つと組み合わせることを前提に述べた。しかしながら、変形例3は、これら本実施形態または変形例のいずれとも独立に実施することができる。つまり、ユーザの運動耐容能を基準としたユーザの運動負荷量に関する推定を行うことなく、ユーザの心不全の兆候に関する推定を行うことも可能である。
(7-4)変形例4
変形例4について説明する。変形例4は、ユーザ動画、またはユーザ音声に基づいて、当該ユーザの精神の状態に関する推定を行う例である。
変形例4では、サーバ30は、ユーザ動画、またはユーザ音声に基づいて、ユーザの精神の状態に関する推定を行う。この処理は、例えば図7のステップS130、または他のタイミングで実行され得る。ユーザ音声は、例えば図7のステップS111またはその他のタイミングで、クライアント装置10が例えばマイクロホン18を用いて運動中のユーザの声を記録することで取得される。
具体的には、サーバ30は、ユーザ動画データ、もしくはその解析結果(例えば、表情データなどのユーザデータ)、またはユーザ音声データ、もしくはその解析結果の少なくとも1つ(以下、「入力データ」という)を解析することで、ユーザに精神の状態に関する推定(例えば、精神の状態が良好であるか否かの判定)を行う。かかる判定は、アルゴリズム、または学習済みモデルを、入力データに適用することで実現される。学習済みモデルは、被験者動画、または被験者音声に基づく入力データ(例えば、表情、または声の大きさ、高さ、長さ、抑揚、もしくはこれらの変化量の少なくとも1つ)と、当該被験者の精神の状態(例えば、うつ病、または抑うつ状態の兆候の有無など)との関係について機械学習を行うことで構築可能である。
サーバ30は、ユーザの精神の状態に関する推定の結果に基づく情報(例えば、精神の状態が良好でないと判定されたユーザを示す情報、当該ユーザについて予想される精神の状態(例えば、うつ病、または抑うつ状態の兆候)を示す情報、またはそれらの組み合わせ)を指導者端末70へ送信する。この処理は、例えば、図7のステップS131、または他のタイミングで実行され得る。かかる情報は、レスポンスに含められてもよい。
指導者端末70は、ユーザの精神の状態に関する推定の結果に基づく情報を提示する。この処理は、例えば図7のステップS170、または他のタイミングで実行され得る。
具体的には、指導者端末70は、情報を当該指導者端末70のディスプレイに表示させる。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
ただし、情報は、指導者に加えて、ユーザ向けにクライアント装置10、またはウェアラブルデバイス50に提示されてもよい。
図12は、変形例4の情報処理において表示される画面例を示す図である。
一例として、指導者端末70は、画面P13(図12)をディスプレイに表示させる。画面P13は、表示オブジェクトA13、および操作オブジェクトB13a~B13bを含む。
表示オブジェクトA13は、ユーザの精神の状態に関する推定の結果に基づく情報を表示する。図12の例では、表示オブジェクトA13は、精神の状態が良好でないと判定されたユーザと、当該ユーザについて予想される精神の状態(例えば、気持ちが落ち込んでいる、などのうつ病、または抑うつ状態の徴候)とを示す情報を表示する。一例として、表示オブジェクトA13は、いずれかのユーザの精神の状態が良好でないと判定されたことに応答して、ポップアップ表示される。
操作オブジェクトB13aは、表示オブジェクトA13により表示された情報の対象者となるユーザ(以下、「対象ユーザ」という)と通話(ビデオ通話、または音声通話)を開始するための操作を受け付ける。
操作オブジェクトB13bは、対象ユーザに定型メッセージを送信するための操作を受け付ける。一例として、指導者が操作オブジェクトB13bを選択すると、運動負荷を下げる、運動を中止する、カウンセリングの申し込み、受診もしくはその予約を促すメッセージが対象ユーザのクライアント装置10へ送信される。
以上説明したように、変形例4の情報処理システム1は、ユーザの精神の状態についてユーザ動画、またはユーザ音声に基づいて推定し、推定の結果に基づく情報を提示する。これにより、ユーザに精神の状態が良好でないことを早期に発見し、当該ユーザの安全に配慮した指導(例えば、運動負荷量の適正化、カウンセリング、または受診の促し)を行うことができる。
上記説明では、変形例4を、本実施形態、または変形例1乃至変形例3の少なくとも1つと組み合わせることを前提に述べた。しかしながら、変形例4は、これら本実施形態または変形例のいずれとも独立に実施することができる。つまり、ユーザの運動耐容能を基準としたユーザの運動負荷量に関する推定を行うことなく、ユーザの精神の状態に関する推定を行うことも可能である。
(7-5)変形例5
変形例5について説明する。変形例5は、ユーザの外観の写ったユーザ動画に基づく入力データを推定モデルに適用することで、当該ユーザの呼吸運動に伴う換気指標に関する推定を行う例である。
本変形例において、本実施形態と一部の用語の定義が異なる場合があるが、本変形例の説明では本変形例における定義が優先される。
(7-5-1)変形例5の概要
変形例5の概要について説明する。図13は、変形例5の概要の説明図である。
図13に示すように、クライアント装置10のカメラ16は、ユーザUS3の外観(例えば全身)を撮影する。図13の例では、ユーザUS3が自転車の運動を行う例を示しているが、ユーザUS3は任意の運動(有酸素運動、または無酸素運動)を行うことができる。或いは、カメラ16は、運動前、または運動後(安静時を含む)のユーザUS3を撮影してもよい。また、ユーザの数は複数であってもよい。
一例として、カメラ16は、ユーザUS3の外観を、正面または斜め前から撮影する。深度センサ17は、当該深度センサ17からユーザUS3の各部位までの距離(深度)を測定する。なお、例えばカメラ16によって生成される動画データ(2次元)と、例えば深度センサ17によって生成される深度データとを組み合わせることで、3次元動画データを生成することも可能である。
クライアント装置10は、少なくとも、カメラ16から取得した動画データを参照し、ユーザの骨格を解析する。クライアント装置10は、ユーザの骨格をより適切に解析するために、深度センサ17から取得した深度データをさらに参照してもよい。クライアント装置10は、動画データ(或いは、動画データおよび深度データ)の解析結果に基づく、ユーザUS3の骨格に関するデータ(以下、「ユーザ骨格データ」という)をサーバ30へ送信する。
サーバ30は、取得したユーザ骨格データに、学習済みモデルLM3(「推定モデル」の一例)を適用することで、ユーザUS3の呼吸運動に伴う換気指標に関する推定を行う。サーバ30は、推定結果(例えば、ユーザUS3のリアルタイムの換気指標を示す数値)を指導者端末70へ送信する。或いは、サーバ30は、推定結果に基づいて呼吸データを決定し、実施形態において説明したようにユーザUS3の運動耐容能を基準としたユーザUS3の運動負荷量に関する推定を行ってもよい。
指導者端末70は、ユーザUS3の換気指標に関する推定の結果に基づく情報を指導者CO1に提示する。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
このように、情報処理システム1は、ユーザUS3の外観の写った動画(或いは、動画および深度)に基づく入力データに学習済みモデルLM3を適用することで、当該ユーザUS3の換気指標に関する推定を行う。故に、この情報処理システム1によれば、ユーザに接触することなく、当該ユーザの呼吸運動に伴う換気指標に関する推定を行うことができる。また、推定の結果に基づいて指導者CO1による指導に有用な情報を提示することができる。
(7-5-2)教師データセット
変形例5の教師データセットについて説明する。図14は、変形例5の教師データセットのデータ構造を示す図である。
図14に示すように、教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。
サンプルIDは、教師データを識別する情報である。
入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、被験者の骨格データを含む。被験者の骨格データは、被験者動画の撮影時における被験者の骨格に関するデータ(例えば特徴量)である。被験者の骨格データとして、実施形態において説明した骨格データを用いることもできる。
被験者動画データは、被験者の外観の写った被験者動画に関するデータである。被験者動画は、典型的には、少なくとも被験者の上半身(具体的には、被験者の肩、胸、腹部の少なくとも1つ)が撮影範囲に含まれるように、当該被験者を撮影した動画である。被験者動画データは、例えば、被験者の外観(例えば全身)を正面または斜め前(例えば、45度前方)からカメラ(一例として、スマートフォンに搭載されたカメラ)で撮影することで取得可能である。
カメラは、被験者動画データを取得するために、運動中、または運動前もしくは運動後(安静時を含む)の被験者の外観を撮影可能である。正解データと入力データとを正確に関連付ける観点から、呼気ガスに関する検査(一例としてCPX検査)中の被験者を撮影することで被験者動画データを取得してもよい。
被験者深度データは、深度センサから被験者の各部位(典型的には肩、胸、腹部の少なくとも1つ)までの距離(深度)に関するデータである。被験者深度データは、被験者動画の撮影時に、深度センサを動作させることで取得可能である。
被験者は、情報処理システム1の運用時に、呼吸運動に伴う換気指標に関する推定が行われるユーザと同一人物であってもよいし、異なる人物であってもよい。被験者およびユーザを同一人物とすることで、対象モデルがユーザの個性を学習し、推定精度が向上する可能性がある。他方、被験者がユーザと異なる人物であることを許容することは、教師データセットの豊富化が容易となる利点がある。また、被験者は、ユーザを含む複数人、またはユーザを含まない複数人により構成されてもよい。
骨格データは、具体的には、被験者の各部位の速度、または加速度に関するデータ(被験者が使用する筋肉の部位の変化、または被験者の体感のぶれに関するデータを含み得る)を含む。骨格データは、本実施形態と同様に取得可能である。
また、骨格データは、上述の被験者の各部位の速度、または加速度に関するデータについて、以下の少なくとも1つの項目を解析することで得られるデータを含むこともできる。
・肩、胸(側胸部を含み得る)、腹部、またはそれらの組み合わせの動き(広がり)
・吸気時間
・呼気時間
・呼吸補助筋の使用程度
正解データは、対応する入力データ(例題)に対する正解に相当するデータである。対象モデルは、入力データに対して正解データにより近い出力を行うように訓練(教師あり学習)される。一例として、正解データは、換気指標、または換気指標を決定するための材料となる指標、の少なくとも1つを含む。一例として換気指標は、以下の少なくとも1つを含むことができる。
・換気回数
・換気量
・換気速度(つまり、単位時間あたりの換気量、または換気回数)
・換気加速度(つまり、換気速度の時間微分)
ただし、換気指標は、呼吸運動を定量的に把握するための任意の指標であってよく、ここに例示した指標に限定されない。
正解データは、例えば、被験者動画の撮影時に被験者に対して実施された呼気ガスに関する検査の結果から取得可能である。呼気ガスに関する検査の第1例は、呼気ガス分析装置を装着した被験者が、負荷漸増式の運動(例えばエルゴメータ)を実施している間に行われる検査(典型的にはCPX検査)である。呼気ガスに関する検査の第2例は、呼気ガス分析装置を装着した被験者が、一定、または随時変更可能な負荷量の運動(例えば、自重運動、体操、筋力トレーニング)を実施している間に行われる検査である。呼気ガスに関する検査の第3例は、呼気ガス分析装置を装着した被験者が、任意の活動を実施している間に行われる検査である。呼気ガスに関する検査の第4例は、呼気ガス分析装置を装着した被験者が、安静状態である間に行われる検査である。
或いは、正解データは、例えば、被験者動画の撮影時に被験者に対して実施された呼吸機能検査(例えば、肺機能検査、または肺活量検査)の結果から取得することもできる。この場合に、呼吸機能検査には、医療機器に限られず市販の検査器具を用いても構わない。
(7-5-3)推定モデル
サーバ30によって用いられる推定モデルは、教師データセット(図14)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(7-5-4)情報処理
変形例5の情報処理について説明する。図15は、変形例5の情報処理のフローチャートである。図16は、変形例5の情報処理において表示される画面例を示す図である。
情報処理は、例えば以下の開始条件のいずれかの成立に応じて開始する。
・他の処理(例えば、図7の情報処理)によって図15の情報処理が呼び出された。
・ユーザが情報処理を呼び出すための操作を行った。
・クライアント装置10、または指導者端末70が所定の状態(例えば、所定のアプリの起動)になった。
・所定の日時が到来した。
・所定のイベントから所定の時間が経過した。
図15に示すように、クライアント装置10は、センシング(S210)を実行する。
具体的には、クライアント装置10は、カメラ16の動作を有効にすることで、ユーザの外観についての動画(以下、「ユーザ動画」という)の撮影を開始する。ユーザ動画は、典型的には、少なくともユーザの上半身(具体的には、ユーザの肩、胸、腹部の少なくとも1つ)が撮影範囲に含まれるように、当該ユーザを撮影した動画である。
また、クライアント装置10は、深度センサ17の動作を有効にすることで、ユーザ動画の撮影時にユーザ深度の計測を開始する。さらに、クライアント装置10は、当該クライアント装置10、またはウェアラブルデバイス50の任意のセンサを有効にしてもよい。
ステップS210は、ステップS110と統合されてもよいし、独立に実施されてもよい。
ステップS210の後に、クライアント装置10は、データの取得(S211)を実行する。
具体的には、クライアント装置10は、ステップS210において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得する。
ステップS211は、ステップS111と統合されてもよいし、独立に実施されてもよい。
ステップS211の後に、クライアント装置10は、リクエスト(S212)を実行する。
具体的には、クライアント装置10は、ステップS211において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS211において取得したデータ(例えば、ユーザ動画データ、またはユーザ深度データ)
・ステップS211において取得したデータを加工したデータ
・ステップS211において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザ骨格データ
ステップS212は、ステップS112と統合されてもよいし、独立に実施されてもよい。
ステップS212の後に、サーバ30は、換気指標に関する推定(S230)を実行する。
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザ骨格データを含む。サーバ30は、入力データに推定モデルを適用することで、ユーザの呼吸運動に伴う換気指標に関する推定を行う。一例として、サーバ30は、換気指標の少なくとも1つを推定する。
ステップS230は、ステップS130と独立に実施されてもよいし、ステップS130の一部として位置づけられてもよい。例えば、ステップS230における推定の結果は、ステップS130における入力データの一部(例えば呼吸データ)として利用されてよい。ステップS230がステップS130の一部として位置づけられる場合に、後続のステップS231、およびステップS270は省略可能である。
ステップS230の後に、サーバ30は、レスポンス(S231)を実行する。
具体的には、サーバ30は、ステップS230における推定の結果に基づくレスポンスを生成する。サーバ30は、生成したレスポンスを指導者端末70へ送信する。一例として、レスポンスは以下の少なくとも1つを含むことができる。
・換気指標に関する推定の結果に相当するデータ
・換気指標に関する推定の結果を加工したデータ(例えば、指導者端末70のディスプレイに表示されるべき画面のデータ、または当該画面を生成するために参照されるデータ)
ステップS231は、ステップS131と統合されてもよいし、独立に実施されてもよい。
指導者端末70は、ステップS231の後に、情報提示(S270)を実行する。
具体的には、指導者端末70は、サーバ30から取得したレスポンス(つまり、ユーザの換気指標に関する推定の結果)に基づく情報を当該指導者端末70のディスプレイに表示させる。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
ただし、情報は、指導者端末70に加えて、または指導者端末70の代わりに、ユーザ向けにクライアント装置10、またはウェアラブルデバイス50に提示されてもよい。或いは、情報は、換気指標を元にユーザの運動耐容能、または運動負荷量を評価するアルゴリズム、または推定モデルを利用可能なコンピュータに提供されてもよい。このコンピュータは、情報処理システム1の内部にあってもよいし、情報処理システム1の外部にあってもよい。
ステップS270は、ステップS170と統合されてもよいし、独立に実施されてもよい。
一例として、指導者端末70は、画面P20(図16)をディスプレイに表示させる。画面P20は、表示オブジェクトA20、および操作オブジェクトB20を含む。
操作オブジェクトB20は、表示オブジェクトA20に表示させる換気指標を指定する操作を受け付ける。図16の例では、操作オブジェクトB20は、チェックボックスに相当する。
表示オブジェクトA20は、ユーザの換気指標を推定した結果の経時的変化を表示する。図16の例では、表示オブジェクトA20は、操作オブジェクトB20において指定されている換気指標である換気速度を1分毎に推定した結果(つまり、分時換気量の推定結果)の経時的変化を示すグラフを表示する。
操作オブジェクトB20において複数の換気指標が指定されている場合に、表示オブジェクトA20には、複数の換気指標を推定した結果の経時的変化を示すグラフを重畳して表示してもよいし、これらのグラフを個別に表示してもよい。
ステップS212の後に、クライアント装置10は、情報処理(図15)を終了する。ただし、ユーザの換気指標に関する推定を当該ユーザ動画の撮影中にリアルタイムに実施する場合に、クライアント装置10は、ステップS212の後にデータの取得(S211)に戻ってもよい。
(7-5-5)小括
以上説明したように、変形例5の情報処理システム1は、ユーザの外観の写ったユーザ動画に基づく入力データを推定モデルに適用することで、当該ユーザの呼吸運動に伴う換気指標に関する推定を行う。これにより、ユーザの呼吸運動に伴う換気指標に関する推定を非接触に行うことができる。
上記説明では、変形例5を、本実施形態、または変形例1乃至変形例4の少なくとも1つと組み合わせることを前提に述べた。しかしながら、変形例5は、これら本実施形態または変形例のいずれとも独立に実施することができる。つまり、ユーザの運動耐容能を基準としたユーザの運動負荷量に関する推定を行うことなく、ユーザの換気指標に関する推定を行うことも可能である。
(7-6)変形例6
変形例6について説明する。変形例6は、運動中のユーザの動画に基づいて当該ユーザの脚の回転数に関する推定を行う例である。
本変形例において、本実施形態と一部の用語の定義が異なる場合があるが、本変形例の説明では本変形例における定義が優先される。
(7-6-1)変形例6の概要
変形例6の概要について説明する。図17は、変形例6の概要の説明図である。
図17に示すように、クライアント装置10のカメラ16は、運動中のユーザUS4の外観(例えば全身)を撮影する。図17の例では、ユーザUS4がペダルを漕ぐ運動(例えば、フィットネスバイク、エルゴメータ、自転車)を行う例を示しているが、ユーザUS4は脚の回転(つまり、周期的な動き)を伴う任意の運動(有酸素運動、または無酸素運動)を行うことができる。また、ユーザの数は複数であってもよい。
一例として、カメラ16は、ユーザUS4の外観を、正面または斜め前から撮影する。深度センサ17は、当該深度センサ17からユーザUS4の各部位までの距離(深度)を測定する。なお、例えばカメラ16によって生成される動画データ(2次元)と、例えば深度センサ17によって生成される深度データとを組み合わせることで、3次元動画データを生成することも可能である。
クライアント装置10は、少なくとも、カメラ16から取得した動画データを参照し、運動中のユーザの骨格を解析する。クライアント装置10は、運動中のユーザの骨格をより適切に解析するために、深度センサ17から取得した深度データをさらに参照してもよい。クライアント装置10は、動画データ(或いは、動画データおよび深度データ)の解析結果に基づく、運動中のユーザUS4の骨格に関するユーザ骨格データをサーバ30へ送信する。
サーバ30は、取得したユーザ骨格データに、学習済みモデルLM4(「推定モデル」の一例)を適用することで、ユーザUS4の脚の回転数に関する推定を行う。サーバ30は、推定結果(例えば、単位時間あたりのユーザUS4の脚の回転数を示す数値)を指導者端末70へ送信する。或いは、サーバ30は、推定結果に基づいてユーザUS4の運動負荷量の絶対的な大きさに関する推定を行ってもよい。
指導者端末70は、ユーザUS4の脚の回転数に関する推定の結果に基づく情報を指導者CO1に提示する。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
このように、情報処理システム1は、運動中のユーザUS4の動画(或いは、動画および深度)に基づいて、当該ユーザUS4の脚の回転数に関する推定を行う。故に、この情報処理システム1によれば、脚の回転数を検知する手段、または検知結果を出力する手段を備えていないトレーニング機器を用いてユーザUS4が運動を行った場合であっても、当該ユーザの脚の回転数を推定することができる。つまり、多様な状況下で人間の脚の回転数に関する推定を行うことができる。また、推定の結果に基づいて指導者CO1による指導に有用な情報を提示することができる。
(7-6-2)教師データセット
変形例6の教師データセットについて説明する。図18は、変形例6の教師データセットのデータ構造を示す図である。
図18に示すように、教師データセットは、複数の教師データを含む。教師データは、対象モデルの訓練または評価に用いられる。教師データは、サンプルIDと、入力データと、正解データとを含む。
サンプルIDは、教師データを識別する情報である。
入力データは、訓練時または評価時に対象モデルに入力されるデータである。入力データは、対象モデルの訓練時または評価時に用いられる例題に相当する。一例として、入力データは、被験者の骨格データを含む。被験者の骨格データは、運動中の被験者の骨格に関するデータ(例えば特徴量)である。
被験者は、情報処理システム1の運用時に脚の回転数に関する推定が行われるユーザと同一人物であってもよいし、異なる人物であってもよい。被験者およびユーザを同一人物とすることで、対象モデルがユーザの個性を学習し、推定精度が向上する可能性がある。他方、被験者がユーザと異なる人物であることを許容することは、教師データセットの豊富化が容易となる利点がある。また、被験者は、ユーザを含む複数人、またはユーザを含まない複数人により構成されてもよい。
変形例6の骨格データは、本実施形態または変形例5において説明したとおりである。
被験者動画データは、運動中の被験者の写った被験者動画に関するデータである。被験者動画は、典型的には、少なくとも被験者の下半身(具体的には、被験者の脚)が撮影範囲に含まれるように、当該被験者を撮影した動画である。被験者動画データは、例えば、運動中の被験者の外観(例えば全身)を正面または斜め前(例えば、45度前方)からカメラ(一例として、スマートフォンに搭載されたカメラ)で撮影することで取得可能である。
被験者深度データは、深度センサから運動中の被験者の各部位(典型的には脚)までの距離(深度)に関するデータである。被験者深度データは、被験者動画の撮影時に、深度センサを動作させることで取得可能である。
正解データは、対応する入力データ(例題)に対する正解に相当するデータである。対象モデルは、入力データに対して正解データにより近い出力を行うように訓練(教師あり学習)される。一例として、正解データは、脚の回転数の評価指標、または当該評価指標を決定するための材料となる指標、の少なくとも1つを含む。一例として脚の回転数の評価指標は、以下の少なくとも1つを含むことができる。
・累積回転数
・単位時間あたりの回転数(つまり回転速度)
・回転速度の時間微分(つまり回転加速度)
ただし、脚の回転数の指標は、脚の回転(つまり、周期的な動き)を定量的に把握するための任意の指標であってよく、ここに例示した指標に限定されない。脚の回転数の指標は、走行距離(累積回転数(ケイデンス)とペダル1回転あたりの走行距離との積)、運動負荷量のように上記指標に基づいて算出可能な指標を含んでもよい。
正解データは、例えば、被験者動画撮影時の被験者の脚の回転数を適切なセンサ(例えばケイデンスセンサ)により実測することで取得可能である。或いは、正解データは、脚、または他の部位に動きセンサ(例えば加速度センサ)を装着した状態で被験者に運動させ、動きセンサによるセンシング結果に基づき所定のアルゴリズム、または学習済みモデルにより被験者の脚の回転数に関する推定を行うことによっても取得可能である。或いは、被験者動画を視聴した人間が被験者の脚の回転数を計測することで正解データを付与してもよい。
(7-6-3)推定モデル
サーバ30によって用いられる推定モデルは、教師データセット(図18)を用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する。
(7-6-4)情報処理
変形例6の情報処理について説明する。図19は、変形例6の情報処理のフローチャートである。図20は、変形例6の情報処理において表示される画面例を示す図である。
情報処理は、例えば以下の開始条件のいずれかの成立に応じて開始する。
・他の処理(例えば、図7、または図15の情報処理)によって図19の情報処理が呼び出された。
・ユーザが情報処理を呼び出すための操作を行った。
・クライアント装置10、または指導者端末70が所定の状態(例えば、所定のアプリの起動)になった。
・所定の日時が到来した。
・所定のイベントから所定の時間が経過した。
図19に示すように、クライアント装置10は、センシング(S310)を実行する。
具体的には、クライアント装置10は、カメラ16の動作を有効にすることで、運動中のユーザの動画(以下、「ユーザ動画」という)の撮影を開始する。ユーザ動画は、典型的には、少なくともユーザの下半身(具体的には、ユーザの脚)が撮影範囲に含まれるように、当該ユーザを撮影した動画である。
また、クライアント装置10は、深度センサ17の動作を有効にすることで、ユーザ深度の計測を開始する。さらに、クライアント装置10は、当該クライアント装置10、またはウェアラブルデバイス50の任意のセンサを有効にしてもよい。
ステップS310は、ステップS110、またはステップS210と統合されてもよいし、独立に実施されてもよい。
ステップS310の後に、クライアント装置10は、データの取得(S311)を実行する。
具体的には、クライアント装置10は、ステップS310において有効とした各種センサによって生成されたセンシング結果を取得する。例えば、クライアント装置10は、カメラ16からユーザ動画データを取得し、深度センサ17からユーザ深度データを取得する。
ステップS311は、ステップS111、またはステップS211と統合されてもよいし、独立に実施されてもよい。
ステップS311の後に、クライアント装置10は、リクエスト(S312)を実行する。
具体的には、クライアント装置10は、ステップS311において取得したデータを参照し、リクエストを生成する。クライアント装置10は、生成したリクエストをサーバ30へ送信する。リクエストは、例えば、以下の少なくとも1つを含むことができる。
・ステップS311において取得したデータ(例えば、ユーザ動画データ、またはユーザ深度データ)
・ステップS311において取得したデータを加工したデータ
・ステップS311において取得したユーザ動画データ(或いは、ユーザ動画データおよびユーザ深度データ)を解析することで取得したユーザ骨格データ
ステップS312は、ステップS112、またはステップS212と統合されてもよいし、独立に実施されてもよい。
ステップS312の後に、サーバ30は、脚の回転数に関する推定(S330)を実行する。
具体的には、サーバ30は、クライアント装置10から取得したリクエストに基づいて、推定モデルの入力データを取得する。入力データは、教師データと同様に、ユーザ骨格データを含む。サーバ30は、入力データに推定モデルを適用することで、ユーザの脚の回転数に関する推定を行う。一例として、サーバ30は、ユーザの脚の回転数に関する評価指標の少なくとも1つを推定する。
ステップS330は、ステップS130、またはステップS230と独立に実施されてもよいし、ステップS130の一部として位置づけられてもよい。例えば、ステップS330における推定の結果は、ステップS130における入力データの一部として、または推定された運動負荷量の絶対的な大きさの補正に利用されてよい。ステップS330がステップS130の一部として位置づけられる場合に、後続のステップS331、およびステップS370は省略可能である。
ステップS330の後に、サーバ30は、レスポンス(S331)を実行する。
具体的には、サーバ30は、ステップS330における推定の結果に基づくレスポンスを生成する。サーバ30は、生成したレスポンスを指導者端末70へ送信する。一例として、レスポンスは以下の少なくとも1つを含むことができる。
・脚の回転数に関する推定の結果に相当するデータ
・脚の回転数に関する推定の結果を加工したデータ(例えば、指導者端末70のディスプレイに表示されるべき画面のデータ、または当該画面を生成するために参照されるデータ)
ステップS331は、ステップS131、またはステップS231と統合されてもよいし、独立に実施されてもよい。
指導者端末70は、ステップS331の後に、情報提示(S370)を実行する。
具体的には、指導者端末70は、サーバ30から取得したレスポンス(つまり、ユーザの脚の回転数に関する推定の結果)に基づく情報をディスプレイに表示させる。指導者は、表示された情報を考慮した指導(例えば、個別のユーザまたはユーザ全体に対するフィードバック、または指導する運動の種類、強度、または量の調整)を行ってもよい。
ただし、情報は、指導者端末70に加えて、または指導者端末70の代わりに、ユーザ向けにクライアント装置10、またはウェアラブルデバイス50に提示されてもよい。或いは、情報として、ユーザの運動体験を演出するコンテンツ(例えば、脚の回転数に関する推定の結果に応じて制御される風景またはビデオゲームの映像)が提示されてもよい。かかるコンテンツは、ディスプレイ15の代わりに、HMDなどの外部装置のディスプレイ、または他の出力装置を介して提示されてもよい。
ステップS370は、ステップS170、またはステップS270と統合されてもよいし、独立に実施されてもよい。
一例として、指導者端末70は、画面P30(図20)をディスプレイに表示させる。画面P30は、表示オブジェクトA30、および操作オブジェクトB30を含む。
操作オブジェクトB30は、表示オブジェクトA30に表示させる脚の回転数に関する評価指標を指定する操作を受け付ける。図20の例では、操作オブジェクトB30は、チェックボックスに相当する。
表示オブジェクトA30は、上記評価指標を推定した結果の経時的変化を表示する。図20の例では、表示オブジェクトA30は、操作オブジェクトB30において指定されている評価指標である回転速度(rpm)を5秒毎に推定した結果の経時的変化を示すグラフを表示する。
操作オブジェクトB30において複数の評価指標が指定されている場合に、表示オブジェクトA30には、複数の評価指標を推定した結果の経時的変化を示すグラフを重畳して表示してもよいし、これらのグラフを個別に表示してもよい。
ステップS312の後に、クライアント装置10は、情報処理(図19)を終了する。ただし、ユーザの脚の回転数に関する推定を当該ユーザの運動中にリアルタイムに実施する場合に、クライアント装置10は、ステップS312の後にデータの取得(S311)に戻ってもよい。
(7-6-5)小括
以上説明したように、変形例6の情報処理システム1は、運動中のユーザの動画に基づいて当該ユーザの脚の回転数に関する推定を行う。これにより、脚の回転数を検知する手段、または検知結果を出力する手段を備えていないトレーニング機器を用いてユーザが運動を行った場合であっても、当該ユーザの脚の回転数を推定することができる。つまり、多様な状況下で人間の脚の回転数に関する推定を行うことができる。
上記説明では、変形例6を、本実施形態、または変形例1乃至変形例5の少なくとも1つと組み合わせることを前提に述べた。しかしながら、変形例6は、これら本実施形態または変形例のいずれとも独立に実施することができる。つまり、ユーザの運動耐容能を基準としたユーザの運動負荷量に関する推定を行うことなく、ユーザの脚の回転数に関する推定を行うことも可能である。
(7-7)変形例7
変形例7について説明する。変形例7は、ユーザの行動変容を効果的に促す例である。
(7-7-1)変形例7の概要
変形例7の概要について説明する。図21は、変形例7の概要の説明図である。
図21に示すように、サーバ30は、ユーザUS5のパーソナルデータを収集し、記憶装置31に蓄積する。パーソナルデータは、例えば以下の少なくとも1つを含むことができる。
・アンケートへの回答
・コミュニケーション履歴
・行動履歴
・バイタルデータ
アンケートへの回答は、例えば人間の性格、気質、または人格を判定するためのアンケートに対するユーザUS5の回答である。アンケートは、例えば(心臓)リハビリテーションプログラム、または運動指導プログラムの初回に1度だけ実施されてもよいし、期間を隔てて繰り返し実施されてもよい。
コミュニケーション履歴は、ユーザUS5と指導者CO1との間で行われるコミュニケーション、ユーザUS5と他のユーザ(プログラム参加者)との間で行われるコミュニケーション、またはユーザUS5と情報処理システム1との間で行われるコミュニケーションに関する履歴である。コミュニケーション手段は、特に限定されず、チャット、メール、音声通話、ビデオ通話、または直接対話などであってよい。コミュニケーション履歴は、以下の少なくとも1つを含むことができる。
・コミュニケーションの内容(例えば、意味、またはキーワード)
・コミュニケーションが実施された頻度、時間帯、または回数
・コミュニケーションの量(例えば、文字数、または持続時間)
・コミュニケーションが最後に実施された日時
行動履歴は、ユーザUS5の行動に関する履歴である。行動は、ユーザUS5が参加するプログラム内の運動であってもよいし、プログラム外の行動(例えば、ユーザUS5の自主的な運動、日常生活動作、睡眠、飲食)であってもよい。行動履歴は、以下の少なくとも1つを含むことができる。
・行動の内容(例えば、運動種目、または行動内容(一例として食事内容))
・行動が実施された頻度、時間帯、または回数
・行動の量(例えば、行動の持続時間、または上記実施形態または変形例により推定された運動負荷量の累積値)
・行動が最後に実施された日時
バイタルデータは、ユーザUS5の生理的情報である。バイタルデータは、ウェアラブルデバイス50により計測されてもよい。バイタルデータは、例えば、心拍数、血糖値、酸素飽和度、血圧、または体重データを含むことができる。
サーバ30は、記憶装置31に蓄積されたユーザUS5のパーソナルデータを参照して、当該ユーザUS5向けにカスタマイズされたメッセージを生成する。具体的には、サーバ30は、ユーザUS5のパーソナルデータに基づき、所定のアルゴリズム、または学習済みモデルにより、当該ユーザUS5向けにカスタマイズされたメッセージを生成する。サーバ30は、生成したメッセージを指導者端末70へ送信する。さらに、サーバ30は、ユーザUS5向けに生成したメッセージを送信するタイミングを、所定のアルゴリズム、または学習済みモデルにより、当該ユーザUSのパーソナルデータに基づき決定してもよい。かかるメッセージは、例えばユーザUS5の飲食、運動、または睡眠の少なくとも1つについて、ユーザUS5の行動変容を効果的に促す内容を含む。
一例として、メッセージは、以下の少なくとも1つの内容を含むことができる。
・ユーザUS5の飲食、運動、または睡眠の内容の変容(例えば、推奨する食品、料理、運動種目、または睡眠環境の提示)
・ユーザUS5の飲食、運動、または睡眠の頻度、または時間帯の変容(例えば、朝食を摂ることの推奨、または深夜の飲食を控えることの推奨)
・ユーザUS5の飲食、運動、または睡眠の量の変容(例えば、塩分摂取量を控えることの推奨)
・ユーザUS5による飲食、運動、または睡眠の実施の促し(例えば、飲食、運動、または睡眠に適した時間の到来を通知、または前回の運動実施から所定時間経過後に運動の再実施を推奨)
指導者端末70は、サーバ30から取得したメッセージに基づく情報を指導者CO1に提示する。指導者端末70は、提示された情報を参考に、ユーザUS5に対して例えばチャット、メール、音声通話、ビデオ通話、または直接対話によるコミュニケーションを行う。
このように、情報処理システム1は、ユーザUS5のパーソナルデータに基づいて、当該ユーザUS5向けにカスタマイズされたメッセージを生成し、指導者CO1に提示する。故に、この情報処理システム1によれば、指導者CO1は、詳細な検討を行わずとも、当該ユーザUS5の性格または行動パターンに適したコミュニケーションを行うことができる。つまり、コミュニケーションコストを抑えながらもユーザUS5の行動変容を効果的に促し、当該ユーザUS5が参加するプログラムの効果を高めることができる。
変形例7では、サーバ30が、生成したメッセージを指導者端末70へ送信する例を説明した。しかしながら、サーバ30は、メッセージをクライアント装置10へ送信してもよい。これにより、ユーザUS5は、指導者がいない状態でも、サーバ30から取得したメッセージにより行動変容が効果的に促される。
変形例7では、サーバ30が、パーソナルデータを収集する例を示した。パーソナルデータは、指導者端末70へ送信されてもよい。これにより、指導者は、例えばユーザのバイタルデータ、または行動履歴の推移を考慮した指導(例えば、健康、運動、生活、睡眠、または食事に関する指導)を行うことができる。
(8)応用例
本実施形態または各変形例において説明した技術は、例えば以下に説明する心疾患治療用アプリに好適である。
心疾患治療用アプリを活用することで、ユーザ(例えば、心疾患の患者)は、例えば、医療機関への移動を最小限にして、かつ自宅に高価でかさばるエルゴメータを設置することなく、自宅で運動療法および生活指導を受けることができる。つまり、ユーザが運動療法および生活習慣の改善を継続するための負担を軽減し、当該ユーザの心疾患の症状を改善することができる。また、前述の変形例7で説明した行動変容技術を利用することで、ユーザが運動療法および生活習慣の改善を継続する負担をいっそう軽減することができる。
心疾患治療用アプリでは、心臓リハビリメニューとして、例えば、15分間の準備体操、30分間の有酸素運動、および15分間の整理体操をこの順で提供する。
準備体操、または整理体操の間、クライアント装置10のディスプレイ15には、体操用画面が表示される。体操用画面は、例えば、以下のオブジェクトを含むことができる。
・体操のお手本動画を表示する表示オブジェクト
・クライアント装置10のインカメラによって撮影されたユーザの映像、または当該映像に基づく骨格検知の結果の少なくとも1つを表示するオブジェクト
・ウェアラブルデバイス50の心拍センサ56によって計測されたユーザの心拍数を表示するオブジェクト
・本実施形態または各変形例により推定された、(1)運動耐容能、(2)運動耐容能を基準としたユーザの運動負荷量、(3)心不全の兆候、(4)精神の状態、(5)換気指標、または(6)脚の回転数の少なくとも1つに基づく情報を表示するオブジェクト
ここで、体操のお手本動画は、例えば事前に収録された動画であってもよいし、指導者による実演の生放送動画であってもよい。
有酸素運動の間、クライアント装置10のディスプレイ15には、有酸素運動の種目に応じた画面が表示される。
具体的には、有酸素運動として体操(エアロビクス、自重運動、または筋力トレーニングを含み得る)を行う場合に、画面は、例えば以下のオブジェクトを含むことができる。
・体操のお手本動画を表示する表示オブジェクト
・クライアント装置10のインカメラによって撮影されたユーザの映像、または当該映像に基づく骨格検知の結果の少なくとも1つを表示するオブジェクト
・ウェアラブルデバイス50の心拍センサ56によって計測されたユーザの心拍数を表示するオブジェクト
・本実施形態または各変形例により推定された、(1)運動耐容能、(2)運動耐容能を基準としたユーザの運動負荷量、(3)心不全の兆候、(4)精神の状態、(5)換気指標、または(6)脚の回転数の少なくとも1つに基づく情報を表示するオブジェクト
ここで、体操のお手本動画は、例えば事前に収録された動画であってもよいし、指導者による実演の生放送動画であってもよい。また、お手本動画の内容は、ユーザの運動耐容能(例えば嫌気性代謝閾値)または運動負荷量に応じて自動的に選択されてもよい。具体的には、嫌気性代謝閾値が高い(例えば5METs以上)ユーザには高負荷の脚上げ(例えば、高い脚上げ10回/30秒に加えて間にスクワット)が選択され、嫌気性代謝閾値が中程度(例えば3~5METs)のユーザには中負荷の脚上げ(例えば、高い脚上げ8回/30秒)が選択され、嫌気性代謝閾値が低い(例えば3METs未満)ユーザには低負荷の脚上げ(例えば、低い脚上げ6回/30秒)が選択され得る。これにより、心疾患治療の効果をいっそう高めることができる。
或いは、有酸素運動として体操以外(例えば、ウォーキング、フィットネスバイク、自転車、トレッドミル、ジョギング、など)を行う場合に、画面は、例えば、以下のオブジェクトを含むことができる。
・有酸素運動の残り時間を表示する表示オブジェクト
・上記残り時間を計測するタイマーの停止/再開を操作するための操作オブジェクト
・ユーザの運動量(例えば、クライアント装置10、またはウェアラブルデバイス50によって計測されたユーザの歩数、移動距離)を表示する表示オブジェクト
・上記ユーザの運動量に応じて変化する画像(例えば、自然または人工の風景画像)を表示するオブジェクト
・ウェアラブルデバイス50の心拍センサ56によって計測されたユーザの心拍数を表示するオブジェクト
・本実施形態または各変形例により推定された、(1)運動耐容能、(2)運動耐容能を基準としたユーザの運動負荷量、(3)心不全の兆候、(4)精神の状態、(5)換気指標、または(6)脚の回転数の少なくとも1つに基づく情報を表示するオブジェクト
心疾患治療用アプリでは、ユーザ毎に以下の情報を管理し、異常検知または指導の最適化(例えば、行動変容)のために活用することができる。
・ユーザ属性情報
・生活習慣情報
・アウトカム指標
・アプリ利用情報
・医療専門職の支援内容情報
ユーザ属性情報は、ユーザの属性に関する情報である。ユーザ属性情報は、例えば、ユーザの年齢、性別、服薬、仕事、保険者情報、診療情報提供書、今までの健康診断結果歴、家族歴、同居家族、性格特性、などに関する情報を含むことができる。性格特性に関する情報は、例えば、性格分析アンケートの結果に基づいて決定される。
生活習慣情報は、ユーザの生活習慣に関する情報である。生活習慣情報は、例えば、ユーザの勤務形態、身体活動量、睡眠時間、食事写真、食塩摂取量、体重、家族血圧、飲酒習慣、喫煙習慣、などに関する情報を含むことができる。
アウトカム指標は、ユーザのアウトカムに関する情報である。アウトカム指標は、例えば、ユーザの体重、血圧、血液検査結果(コレステロール3種、血糖・HbA1c)、生活習慣(身体活動量、食習慣、飲酒習慣、喫煙習慣)、などに関する情報を含むことができる。
アプリ利用情報は、ユーザのアプリ利用に関する情報である。アプリ利用情報は、例えば、ユーザの利用デバイス、利用頻度、データ入力頻度、教材の閲覧記録、チャット回数、チャット内容、などに関する情報を含むことができる。チャット内容は、例えばチャットにおける頻出単語の分析結果であってもよい。
医療専門職の支援内容情報は、ユーザに対する医療専門職による支援内容に関する情報である。医療専門職の支援内容情報は、例えば、電話面談の録音記録、チャット支援内容、設定した目標行動内容、などに関する情報を含むことができる。
具体的には、性格特性、アプリの利用時間、内容、時間帯、またはチャット内容に基づいて、ユーザを複数のタイプに分類し、タイプごとに最適な指導を行うことができる。
第1例として、ユーザのタイプ別に、指導に人間(つまり指導者)を介在させる割合を変更してもよい。例えば、性格特性として勤勉性が低いタイプのユーザには、指導に人間を介在させる割合を高く設定して個別介入を積極的に行うことで、治療を継続するモチベーションを効果的に維持することができる。
第2例として、ユーザのタイプ別に、適した行動、食事、運動、または睡眠のプログラムを提供して、治療を継続するモチベーションを効果的に維持することができる。
第3例として、ユーザのタイプ別に、パーソナライズされたメッセージの通知頻度を変更してもよい。例えば、孤独感を感じやすいタイプのユーザには、通知頻度を高くして、治療を継続するモチベーションを効果的に維持することができる。
また、上記心疾患治療用アプリは、例えばオンライン心臓リハビリアプリにも転用可能である。転用にあたって一部の機能が変形(例えば、追加、変更、または削除)可能である。
オンライン心臓リハビリアプリを活用することで、ユーザ(例えば、心疾患の患者、心臓治療後の患者、など)は、例えば、医療機関、またはリハビリ施設への移動を最小限にして、かつ自宅に高価でかさばるエルゴメータを設置することなく、自宅で心臓リハビリテーションプログラムに参加できる。つまり、ユーザが心臓リハビリを継続するための負担を軽減し、当該ユーザの心疾患の再発や入院リスクを減少させることができる。具体的には、心臓リハビリテーションは、日米欧のガイドラインにおいて、虚血性心疾患や心不全患者に対する治療として最高の推奨クラス分類を与えられている。
また、上記心疾患治療用アプリは、例えば高血圧、もしくはその他の生活習慣病、または肥満(以下、「生活習慣病等」という)の治療用アプリにも転用可能である。転用にあたって一部の機能が変形(例えば、追加、変更、または削除)可能である。
生活習慣病等治療用アプリを活用することで、ユーザ(例えば、生活習慣病等の患者)は、例えば、医療機関への移動を最小限にして、かつ自宅に高価でかさばるエルゴメータを設置することなく、自宅で運動療法および生活指導を受けることができる。つまり、ユーザが運動療法および生活習慣の改善を継続するための負担を軽減し、当該ユーザの生活習慣病等の症状を改善することができる。また、前述の変形例7で説明した行動変容技術を利用することで、ユーザが運動療法をおよび生活習慣の改善を継続する負担をいっそう軽減することができる。
また、上記心疾患治療用アプリは、例えばフィットネスアプリにも転用可能である。転用にあたって一部の機能が変形(例えば、追加、変更、または削除)可能である。
フィットネスアプリを活用することで、ユーザは、例えば、トレーニングジムへの移動を最小限にして、かつ自宅に高価でかさばるエルゴメータを設置することなく、自宅でフィットネスおよび生活の指導を受けることができる。つまり、ユーザがフィットネスおよび生活習慣の改善を継続するための負担を軽減し、当該ユーザの健康を増進することができる。また、前述の変形例7で説明した行動変容技術を利用することで、ユーザがフィットネスおよび生活習慣の改善を継続する負担をいっそう軽減することができる。
(9)その他の変形例
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。ディスプレイ15は、クライアント装置10に内蔵されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
実施形態および変形例1の情報処理システムを、クライアント/サーバ型のシステムによって実装する例を示した。しかしながら、実施形態および変形例1の情報処理システムは、ピア・ツー・ピア型のシステム、またはスタンドアロンのコンピュータによって実装することもできる。一例として、クライアント装置10、または指導者端末70が、推定モデルを用いて、ユーザの運動耐容能を基準とした運動負荷量に関する推定を行ってもよい。
上記の情報処理の各ステップは、クライアント装置10、サーバ30、および指導者端末70の何れでも実行可能である。一例として、クライアント装置10の代わりにサーバ30が、ユーザ動画(或いは、ユーザ動画およびユーザ深度)を解析することでユーザデータの少なくとも一部、またはユーザ骨格データを取得してもよい。
上記説明では、サーバ30からのレスポンスに基づく画面を指導者端末70のディスプレイに表示する例を示した。しかしながら、指導者および指導者端末70が存在しない場合にも本実施形態、または各変形例は適用可能である。つまり、サーバ30からのレスポンスに基づく画面は、クライアント装置10のディスプレイ15、またはウェアラブルデバイス50のディスプレイ55に表示されてもよい。また、指導者が操作オブジェクトB10b,B11b,B12b,B13bを選択することで送信された定型メッセージと同一または類似の内容の通知がクライアント装置10へレスポンスとして送信されてもよい。これにより、ユーザは、指導者がいない状態でも、システムにより適切な指導を受けながら運動をすることができる。
上記説明では、推定モデルが、運動耐容能の評価指標を基準とした運動負荷量を示す指標を推定する例を示した。しかしながら、運動耐容能の評価指標は、実測により求められた値を使用してもよい。この場合に、推定モデルは、例えば運動負荷量の絶対的な大きさを示す指標を推定してもよい。この推定の結果と、実測により求められた運動耐容能の評価指標とに基づいて、運動耐容能の評価指標を基準とした運動負荷量を示す指標を算出することができる。
上記説明では、クライアント装置10のカメラ16を用いてユーザ動画を撮影する例を示した。しかしながら、ユーザ動画は、カメラ16とは別のカメラを用いて撮影されてもよい。クライアント装置10の深度センサ17を用いてユーザ深度を計測する例を示した。しかしながら、ユーザ深度は、深度センサ17とは別の深度センサを用いて計測されてもよい。
上記説明では、ユーザの心拍数をウェアラブルデバイス50により計測する例を示した。しかしながら、心拍数は、動画データ、またはその解析結果(例えば、肌色データ)を解析(例えば、rPPG(Remote Photo-plethysmography)解析)することで取得可能である。心拍数の解析は、機械学習技術を利用して構築された学習済みモデルによって行われてよい。或いは、ユーザに心電図モニタ用の電極を装着した状態で運動を行わせることで、心電図モニタがユーザの心拍数を計測できるようにしてもよい。これらの変形例では、ユーザは、心拍数の計測のためにウェアラブルデバイス50を装着する必要はない。
ウェアラブルデバイス50は、心拍センサ56、および加速度センサ57の代わりに、または心拍センサ56、および加速度センサ57に加えて以下の少なくとも1つの項目を計測するためのセンサを備えることができる。
・血糖値
・酸素飽和度
各センサによる計測結果は、入力データの生成、運動負荷量または換気指標に関する推定、推定の結果に基づく情報の提示、またはその他の場面において適宜利用され得る。一例として、血糖値の計測結果は、例えばエネルギー消費量、または酸素消費量に換算された運動負荷量を評価するために参照され得る。別の例として、加速度の計測結果は、例えば、ユーザの運動(例えば体操)のスコア判定に用いることができる。
本実施形態、または変形例において説明した推定モデルに対する入力データの一部として加速度データを用いることも可能である。或いは、加速度データを参照してユーザの骨格を解析してもよい。加速度データは、例えば、ユーザ動画の撮影時に加速度センサ19、または加速度センサ57によって取得されてもよい。
本実施形態、または変形例において説明した推定モデルに対する入力データの一部として酸素飽和度データを用いることも可能である。酸素飽和度データは、例えば、ユーザ動画の撮影時に血中酸素濃度を測定可能なセンサ(例えば光学センサ)を備えたウェアラブルデバイス、またはパルスオキシメータをユーザに装着させることで取得可能である。酸素飽和度データは、例えばユーザ動画データに対してrPPG解析を行うことで推定されてもよい。
上記説明では、ユーザの運動耐容能を基準とした運動負荷量に関する推定の結果に基づく情報を提示する例を示した。情報処理システム1は、ユーザの運動耐容能を基準とした運動負荷量、またはユーザの運動負荷量の絶対的な大きさの経時的変化を分析し、当該分析の結果に基づく情報を提示してもよい。一例として、情報処理システム1は、ユーザの運動耐容能を基準とした運動負荷量、またはユーザの運動負荷量の絶対的な大きさが、前回、または普段の運動時に比べて、高いか、同程度(適正)か、低いか、を分析してもよい。これにより、ユーザの運動負荷量の経時的変化を把握することが可能となる。
本実施形態および各変形例の情報処理システム1は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームにも適用可能である。ビデオゲームは、前述の治療用アプリ、リハビリアプリ、またはフィットネスアプリの実行中にプレイ可能なミニゲームであってもよい。一例として、情報処理システム1は、ゲームプレイ中に、ユーザの運動耐容能を基準とした運動負荷量に関する推定を行い、当該推定の結果(例えば、ユーザの運動耐容能を基準とした運動負荷量を示す数値)に応じて、以下のいずれか1つを決定してもよい。これにより、ビデオゲームがユーザの健康増進に与える効果を高めることができる。
・ユーザに与えられる、ビデオゲームに関する課題(例えば、ステージ、ミッション、クエスト)の質(例えば難易度)、または量
・ユーザに与えられる、ビデオゲームに関する特典(例えば、ゲーム内通貨、アイテム、ボーナス)の質(例えば種類)、または量
・ビデオゲームの進行に関するゲームパラメータ(例えば、スコア、ダメージ)
本実施形態および各変形例の情報処理システム1は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームにも適用可能である。ビデオゲームは、前述の治療用アプリ、リハビリアプリ、またはフィットネスアプリの実行中にプレイ可能なミニゲームであってもよい。一例として、情報処理システム1は、ゲームプレイ中に、ユーザ動画に基づいて、ユーザの骨格に関する推定を行う。ユーザの骨格に関する推定は、ユーザ動画に加えて、ユーザ深度、またはユーザ加速度の少なくとも1つにさらに基づいて行われてもよい。情報処理システム1は、ユーザの骨格に関する推定の結果に基づいて、ユーザの運動(例えば体操)中の姿勢が理想的な姿勢(お手本)に対してどの程度適合するかを評価する。情報処理システム1は、この評価の結果(例えば、理想的な姿勢に対するユーザの姿勢の適合度を示す数値)に応じて、以下のいずれか1つを決定してもよい。これにより、ビデオゲームがユーザの健康増進に与える効果を高めることができる。
・ユーザに与えられる、ビデオゲームに関する課題(例えば、ステージ、ミッション、クエスト)の質(例えば難易度)、または量
・ユーザに与えられる、ビデオゲームに関する特典(例えば、ゲーム内通貨、アイテム、ボーナス)の質(例えば種類)、または量
・ビデオゲームの進行に関するゲームパラメータ(例えば、スコア、ダメージ)
マイクロホン18、またはウェアラブルデバイス50のマイクロホン(ウェアラブルデバイス50が備える、またはウェアラブルデバイス50に接続されたマイクロホン)が、ユーザ動画の撮影時にユーザが発する音波を受信し、音データを生成してもよい。音データは、本実施形態、または変形例において説明した推定モデルに対する入力データを構成し得る。ユーザが発する音は、例えば以下の少なくとも1つである。
・ユーザの脚の回転により発する音波(例えば、ペダル、またはペダルに接続された駆動部から生じる音)
・ユーザの呼吸、または発声に伴って生じる音
上記説明では、呼気ガスに関する検査として、CPX検査を例示した。CPX検査では、検査対象者に対して漸増的に運動負荷が与えられる。しかしながら、ユーザ動画の撮影時にユーザに与える運動負荷を漸増させる必要はない。具体的には、リアルタイムの運動負荷量は、ユーザに一定、または随時変更可能な運動負荷を与えた状態でも推定可能である。例えば、ユーザが行う運動は、自重運動、体操、筋力トレーニングであってもよい。
変形例6では、脚の回転数に関する推定を行う例を示した。しかしながら、ユーザが使用するフィットネスバイク、または自転車のペダルにケイデンスセンサを取り付け、当該ケイデンスセンサによって脚の回転数を実測することも可能である。脚の回転数の実測値に基づく情報を提示することで、指導者、またはユーザが、当該ユーザの脚の回転数を把握できる。
変形例6では、ペダル漕ぎによる足の回転を例示した。しかしながら、脚の回転は、ペダル漕ぎのような円運動に限らず、足踏みのような周期的運動全般を含み得る。要するに、脚の回転数は、足踏み、または歩数として適宜読み替えることもできる。
変形例1では、健康状態に基づく入力データに、運動負荷量の推定のための推定モデルを適用する例を示した。しかしながら、被験者の健康状態(の少なくとも一部)に基づいて、複数の推定モデルを構築することも可能である。この場合に、ユーザの健康状態(の少なくとも一部)が、推定モデルを選択するために参照されてもよい。このさらなる変形例において、推定モデルの入力データは、ユーザの健康状態に基づかないデータであってもよいし、ユーザの健康状態およびユーザ動画に基づくデータであってもよい。
さらに、変形例1は、変形例5または変形例6における推定モデルの入力データの変形にも応用可能である。つまり、変形例5または変形例6における推定モデルの入力データが、変形例1において説明した健康状態データを含むように変形されてもよい。
以上、本発明の実施形態および変形例について詳細に説明したが、本発明の範囲は上記の実施形態および変形例に限定されない。また、上記の実施形態および変形例は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :深度センサ
18 :マイクロホン
19 :加速度センサ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :ウェアラブルデバイス
51 :記憶装置
52 :プロセッサ
53 :入出力インタフェース
54 :通信インタフェース
55 :ディスプレイ
56 :心拍センサ
57 :加速度センサ
70 :指導者端末

Claims (14)

  1. コンピュータを、
    運動中のユーザの写ったユーザ動画を取得する手段、
    前記ユーザ動画に基づいて、前記ユーザの運動耐容能を基準とした前記ユーザの運動負荷量に関する推定を行う手段、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段、
    として機能させ、
    前記ユーザの運動負荷量は、前記運動中のユーザの酸素消費量またはエネルギー消費量の少なくとも1つを用いて表され、
    前記ユーザの運動負荷量に関する推定を行う手段は、前記ユーザ動画に基づく入力データに、推定モデルを適用することで、前記ユーザの運動負荷量に関する推定を行い、
    前記入力データは、前記運動中のユーザの身体状態に関するユーザデータを含む、
    プログラム。
  2. 前記推定モデルは、運動中の被験者の写った被験者動画に関するデータを含む入力データと、当該入力データの各々に関連付けられた正解データとを含む教師データセットを用いた教師あり学習により作成された学習済みモデル、または当該学習済みモデルの派生モデルもしくは蒸留モデルに相当する、
    請求項1に記載のプログラム。
  3. 前記被験者は、前記ユーザと同一人物である、
    請求項2に記載のプログラム。
  4. 前記ユーザデータは、前記運動中のユーザの骨格、表情、肌色、呼吸、または心拍数の少なくとも1つに関するデータを含む、
    請求項1に記載のプログラム。
  5. 前記コンピュータを、
    前記ユーザの心肺の状態に関するデータを取得する手段、
    前記ユーザの運動負荷量および前記ユーザの心肺の状態の関係を分析する手段、
    としてさらに機能させ、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段は、前記関係の分析の結果に基づく情報を提示する、
    請求項1乃至請求項4のいずれかに記載のプログラム。
  6. 前記コンピュータを、前記ユーザの運動負荷量の経時的変化を分析する手段としてさらに機能させ、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段は、前記ユーザの運動負荷量の経時的変化を分析の結果に基づく情報を提示する、
    請求項1乃至請求項5のいずれかに記載のプログラム。
  7. 前記コンピュータを、
    前記ユーザ動画、または運動中の前記ユーザの声を記録したユーザ音声の少なくとも1つに基づいて、前記ユーザの心不全の兆候に関する推定を行う手段、
    前記ユーザの心不全の兆候に関する推定の結果に基づく情報を提示する手段、
    としてさらに機能させる、
    請求項1乃至請求項6のいずれかに記載のプログラム。
  8. 前記コンピュータを、
    前記ユーザ動画、または運動中の前記ユーザの声を記録したユーザ音声の少なくとも1つに基づいて、前記ユーザの精神の状態に関する推定を行う手段、
    前記ユーザの精神の状態に関する推定の結果に基づく情報を提示する手段、
    としてさらに機能させる、
    請求項1乃至請求項7のいずれかに記載のプログラム。
  9. 前記ユーザの運動負荷量に関する推定を行う手段は、運動中の複数のユーザのそれぞれについて運動負荷量に関する推定を行い、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段は、前記複数のユーザの運動負荷量に関する推定の結果に基づく情報を前記複数のユーザの指導者に提示する、
    請求項1乃至請求項8のいずれかに記載のプログラム。
  10. 前記ユーザの運動負荷量に関する推定を行う手段は、運動中の複数のユーザのそれぞれについて運動負荷量に関する推定を行い、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段は、前記複数のユーザのうち運動負荷量に関する推定の結果が所定の条件を満たすユーザに関する情報を前記ユーザの指導者に提示する、
    請求項1乃至請求項8のいずれかに記載のプログラム。
  11. 前記取得する手段は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームをプレイ中のユーザの写ったユーザ動画を取得し、
    前記ユーザの運動負荷量に関する推定を行う手段は、前記ビデオゲームのプレイ中に、前記ユーザの運動負荷量に関する推定を行い、
    前記コンピュータを、前記ユーザの運動負荷量に関する推定の結果に応じて、当該ユーザに与えられる前記ビデオゲームに関する課題、もしくは特典、または前記ビデオゲームの進行に関するゲームパラメータの少なくとも1つを決定する手段としてさらに機能させる、
    請求項1乃至請求項10のいずれかに記載のプログラム。
  12. 前記取得する手段は、プレイヤーの身体の動きに応じてゲーム進行が制御されるビデオゲームをプレイ中のユーザの写ったユーザ動画を取得し、
    前記コンピュータを、
    前記ユーザ動画に基づいて、前記ユーザの骨格に関する推定を行う手段、
    前記ユーザの骨格に関する推定の結果に応じて、当該ユーザに与えられる前記ビデオゲームに関する課題、もしくは特典、または前記ビデオゲームの進行に関するゲームパラメータの少なくとも1つを決定する手段としてさらに機能させる、
    請求項1乃至請求項11のいずれかに記載のプログラム。
  13. 運動中のユーザの写ったユーザ動画を取得する手段と、
    前記ユーザ動画に基づいて、前記ユーザの運動耐容能を基準とした前記ユーザの運動負荷量に関する推定を行う手段と、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示する手段と、
    を具備し、
    前記ユーザの運動負荷量は、前記運動中のユーザの酸素消費量またはエネルギー消費量の少なくとも1つを用いて表され、
    前記ユーザの運動負荷量に関する推定を行う手段は、前記ユーザ動画に基づく入力データに、推定モデルを適用することで、前記ユーザの運動負荷量に関する推定を行い、
    前記入力データは、前記運動中のユーザの身体状態に関するユーザデータを含む、
    情報処理装置。
  14. コンピュータが、
    運動中のユーザの写ったユーザ動画を取得するステップと、
    前記ユーザ動画に基づいて、前記ユーザの運動耐容能を基準とした前記ユーザの運動負荷量に関する推定を行うステップと、
    前記ユーザの運動負荷量に関する推定の結果に基づく情報を提示するステップと
    を実行し、
    前記ユーザの運動負荷量は、前記運動中のユーザの酸素消費量またはエネルギー消費量の少なくとも1つを用いて表され、
    前記ユーザの運動負荷量に関する推定を行うステップでは、前記ユーザ動画に基づく入力データに、推定モデルを適用することで、前記ユーザの運動負荷量に関する推定を行い、
    前記入力データは、前記運動中のユーザの身体状態に関するユーザデータを含む、
    方法。
JP2022568438A 2021-11-25 2022-11-02 プログラム、情報処理装置、および情報処理方法 Active JP7303595B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023099046A JP2023108025A (ja) 2021-11-25 2023-06-16 プログラム、情報処理装置、および情報処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021190692 2021-11-25
JP2021190692 2021-11-25
PCT/JP2022/040988 WO2023095581A1 (ja) 2021-11-25 2022-11-02 プログラム、情報処理装置、および情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023099046A Division JP2023108025A (ja) 2021-11-25 2023-06-16 プログラム、情報処理装置、および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2023095581A1 JPWO2023095581A1 (ja) 2023-06-01
JP7303595B1 true JP7303595B1 (ja) 2023-07-05

Family

ID=86539325

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022568438A Active JP7303595B1 (ja) 2021-11-25 2022-11-02 プログラム、情報処理装置、および情報処理方法
JP2023099046A Pending JP2023108025A (ja) 2021-11-25 2023-06-16 プログラム、情報処理装置、および情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023099046A Pending JP2023108025A (ja) 2021-11-25 2023-06-16 プログラム、情報処理装置、および情報処理方法

Country Status (2)

Country Link
JP (2) JP7303595B1 (ja)
WO (1) WO2023095581A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2018110013A (ja) * 2018-02-16 2018-07-12 株式会社東芝 健康情報サービスシステム
JP2021051400A (ja) * 2019-09-20 2021-04-01 パナソニックIpマネジメント株式会社 リハビリ支援装置、リハビリ支援システム及びリハビリ支援方法
JP2021097990A (ja) * 2019-12-20 2021-07-01 株式会社Sportip トレーニング機器の制御方法
JP2022129532A (ja) * 2021-02-25 2022-09-06 パナソニックIpマネジメント株式会社 運動支援プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7181801B2 (ja) 2019-01-30 2022-12-01 Cyberdyne株式会社 心臓リハビリテーション支援装置及びその制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2018110013A (ja) * 2018-02-16 2018-07-12 株式会社東芝 健康情報サービスシステム
JP2021051400A (ja) * 2019-09-20 2021-04-01 パナソニックIpマネジメント株式会社 リハビリ支援装置、リハビリ支援システム及びリハビリ支援方法
JP2021097990A (ja) * 2019-12-20 2021-07-01 株式会社Sportip トレーニング機器の制御方法
JP2022129532A (ja) * 2021-02-25 2022-09-06 パナソニックIpマネジメント株式会社 運動支援プログラム

Also Published As

Publication number Publication date
JP2023108025A (ja) 2023-08-03
JPWO2023095581A1 (ja) 2023-06-01
WO2023095581A1 (ja) 2023-06-01

Similar Documents

Publication Publication Date Title
US11990233B2 (en) Personalized avatar responsive to user physical state and context
US11433276B2 (en) Method and system for using artificial intelligence to independently adjust resistance of pedals based on leg strength
US20230038213A1 (en) Personalized avatar responsive to user physical state and context
US10390769B2 (en) Personalized avatar responsive to user physical state and context
US9364714B2 (en) Fuzzy logic-based evaluation and feedback of exercise performance
US9292935B2 (en) Sensor-based evaluation and feedback of exercise performance
JP2019508191A (ja) バランス試験及び訓練システム並びに方法
US20220016484A1 (en) Method and System for Using Artificial Intelligence to Interact with a User of an Exercise Device During an Exercise Session
US20070117081A1 (en) System and Method for Delivering Information to Optimize Information Retention
Karkar et al. KinFit: A factual aerobic sport game with stimulation support
JP7303595B1 (ja) プログラム、情報処理装置、および情報処理方法
JP7333537B2 (ja) プログラム、情報処理装置、および情報処理方法
WO2023026785A1 (ja) プログラム、情報処理装置、および情報処理方法
CN118266040A (en) Program, information processing apparatus, and information processing method
WO2023027046A1 (ja) プログラム、情報処理装置、および情報処理方法
Κουκουβές Live data streaming and alert service for advanced athletes
WO2023014452A1 (en) Method and system for using artificial intelligence to independently adjust resistance of pedals based on leg strength

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221109

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230616

R150 Certificate of patent or registration of utility model

Ref document number: 7303595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150