JP7459658B2 - Physical ability presentation method and physical ability presentation device - Google Patents
Physical ability presentation method and physical ability presentation device Download PDFInfo
- Publication number
- JP7459658B2 JP7459658B2 JP2020091411A JP2020091411A JP7459658B2 JP 7459658 B2 JP7459658 B2 JP 7459658B2 JP 2020091411 A JP2020091411 A JP 2020091411A JP 2020091411 A JP2020091411 A JP 2020091411A JP 7459658 B2 JP7459658 B2 JP 7459658B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- posture
- information
- physical ability
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000011156 evaluation Methods 0.000 claims description 94
- 230000033001 locomotion Effects 0.000 claims description 59
- 210000001097 facial muscle Anatomy 0.000 claims description 25
- 230000036544 posture Effects 0.000 description 57
- 210000000323 shoulder joint Anatomy 0.000 description 45
- 230000008921 facial expression Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 29
- 238000005259 measurement Methods 0.000 description 23
- 230000000875 corresponding effect Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 12
- 210000001503 joint Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000036541 health Effects 0.000 description 9
- 238000005452 bending Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- CVOFKRWYWCSDMA-UHFFFAOYSA-N 2-chloro-n-(2,6-diethylphenyl)-n-(methoxymethyl)acetamide;2,6-dinitro-n,n-dipropyl-4-(trifluoromethyl)aniline Chemical compound CCC1=CC=CC(CC)=C1N(COC)C(=O)CCl.CCCN(CCC)C1=C([N+]([O-])=O)C=C(C(F)(F)F)C=C1[N+]([O-])=O CVOFKRWYWCSDMA-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Description
本開示は、身体能力提示方法および身体能力提示装置に関する。 This disclosure relates to a physical ability presentation method and a physical ability presentation device.
近年、人の姿勢を推定する技術の開発が進んでいる。非特許文献1には、ラジオ体操をする人の関節の角度をモーションセンサデバイスで計算し、計算した角度と理想の角度との差分を、リハビリテーションシステムでのトレーニング前後で比較することが開示されている。
In recent years, there has been progress in the development of technology to estimate human posture. Non-Patent
非特許文献1に記載された技術によれば、トレーニング後の対象者の身体能力を評価することができる。しかし、例えば、対象者が良い評価を得ようとして無理をし過ぎることは、対象者の体に良くない。また、対象者が無理をして取得した評価をベースに立てた新たな目標は、対象者にとって必要以上にハードルの高い目標になる。このため、対象者が無理をして取得した評価は、対象者の身体能力に対する適切な評価であるといえない。一方、対象者が無理なく出し切ることのできる力を発揮せずに取得した評価も、対象者の身体能力に対する適切な評価であるといえない。
According to the technique described in
本開示の目的は、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる情報を提示することである。 The purpose of this disclosure is to present information that allows for an appropriate assessment of a subject's physical ability while taking into account the burden placed on the subject.
本開示のある局面に従う身体能力提示方法は、対象者を含む画像から対象者の姿勢情報を生成するステップと、対象者の生体情報を取得するステップと、姿勢情報に基づいて対象者の姿勢を特定するステップと、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定するステップと、姿勢情報に基づいて特定された対象者の姿勢と、生体情報に基づいて特定された対象者の姿勢に対する対象者の負荷と、を組み合わせて、対象者の身体能力に関する特定情報を提示するステップとを備える。 A physical ability presentation method according to an aspect of the present disclosure includes the steps of generating posture information of a subject from an image including the subject, acquiring biological information of the subject, and determining the posture of the subject based on the posture information. a step of identifying the target person's load on the target person's posture based on the biological information; a step of identifying the target person's load on the target person's posture based on the posture information; and a step of presenting specific information regarding the physical ability of the subject by combining the subject's load on the posture.
本開示の他の局面に従う身体能力提示装置は、対象者を含む画像から対象者の姿勢情報を生成する生成部と、対象者の生体情報を取得する取得部と、姿勢情報に基づいて対象者の姿勢を特定する姿勢特定部と、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定する負荷特定部と、姿勢特定部により特定された姿勢と、負荷特定部により特定された負荷と、を組み合わせて、対象者の身体能力に関する特定情報を提示する提示部とを備える。 A physical ability presentation device according to another aspect of the present disclosure includes a generation unit that generates posture information of a subject from an image including the subject, an acquisition unit that acquires biometric information of the subject, a posture identification unit that identifies the posture of the subject based on the posture information, a load identification unit that identifies the load on the subject relative to the posture of the subject based on the biometric information, and a presentation unit that combines the posture identified by the posture identification unit and the load identified by the load identification unit to present specific information regarding the physical ability of the subject.
本開示によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる情報を提示可能である。 According to the present disclosure, it is possible to present information that allows for an appropriate assessment of the subject's physical ability while taking into account the burden on the subject.
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
[実施の形態1]
<システム構成>
図1は、実施の形態1に係るシステム全体の構成を示す図である。制御装置100は、身体能力が評価される対象の者(以下、これを対象者と称する。)20の身体能力に関する情報を収集する。制御装置100は、対象者20から収集した情報に基づいて、対象者20の身体能力を評価する。
Embodiments of the present disclosure will be described in detail below with reference to the drawings. In addition, the same reference numerals are attached to the same or corresponding parts in the drawings, and the description thereof will not be repeated.
[Embodiment 1]
<System configuration>
FIG. 1 is a diagram showing the configuration of the entire system according to the first embodiment. The
制御装置100は、インターネット30などの通信網を介して、対象者20の家10に設置された通信装置12と接続されている。通信装置12は、対象者20を撮影するためのカメラ13と接続されている。対象者20には、対象者20の表情を検出するための複数の表情筋センサ14が取り付けられている。表情筋センサ14は、対象者20の顔の筋肉から発せられる電位信号を検出する。表情筋センサ14は、通信装置12と無線接続されている。複数の表情筋センサ14の検出値によって特定される表情は、対象者20の生体情報の一例である。
The
カメラ13は、対象者20を撮影するために最適な場所に設置されている。たとえば、対象者20の肩の関節の動きを評価の対象とする場合、対象者20の肩の動きを撮影し易い位置にカメラ13を設置することが望ましい。たとえば、その位置がキッチンである場合には、図1に示すようにカメラ13をキッチンに設置する。カメラ13の撮影方向は、対象者20の肩付近とする。対象者20がキッチン内を移動したときに、対象者20の肩付近に撮影方向を自動的に切り替える機能をカメラ13に設けてもよい。
The
以下、第1実施の形態では、対象者20の身体能力の評価の一例として、対象者20の肩の動きを評価することを採り上げて説明することとする。
In the following, in the first embodiment, we will explain the evaluation of the shoulder movement of
カメラ13は、撮影した動画を通信装置12へ送信する。表情筋センサ14は対象者20の表情筋の検出値を通信装置12へ送信する。通信装置12は、カメラ13によって撮影された動画、および表情筋センサ14の検出値をインターネット30などの通信網を介して制御装置100へ送信する。
The
制御装置100は、プロセッサ101と、メモリ102と、通信部103とを有する。これらの各部は互いに通信可能に接続される。
The
プロセッサ101は、典型的には、CPU(Central Processing Unit)またはMPU(Multi Processing Unit)などの演算処理部である。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することで、制御装置100の処理を実現する。なお、図1の例では、プロセッサが単数である構成を例示しているが、制御装置100は複数のプロセッサを有する構成としてもよい。
The
メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)およびフラッシュメモリなどの不揮発性メモリによって実現される。メモリ102は、プロセッサ101によって実行されるプログラム、またはプロセッサ101によって用いられるデータなどを記憶する。
The
なお、メモリ102は、コンピュータの一種である制御装置100が可読可能な形式で非一時的にプログラムを記録することができれば、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリーカード、FD(Flexible Disk)、ハードディスク、SSD(Solid State Drive)、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリーカードを除く)、光カード、マスクROM、またはEPROMであってもよい。
Note that the
通信部103は、インターネット30に接続されるとともに、表示部200に接続される。通信部103は、対象者20の家10に設置された通信装置12および表示部200と通信するためのインターフェイスである。
The
表示部200は、液晶表示パネルなどによって構成される。表示部200は、たとえば、プロセッサ101が実行した演算結果などを表示する。典型的には、表示部200は、対象者20の身体能力に関する評価などが表示される。
The
制御装置100は、対象者20を撮影した動画と表情筋センサ14の検出値とを通信装置12から受信する。対象者20を撮影した動画は、複数のフレーム画像で構成されている。制御装置100は、フレーム画像とそのフレーム画像を受信したタイミングで受信した表情筋センサ14の検出値とを対応付けてメモリ102に格納する。
The
制御装置100は、メモリ102に格納したフレーム画像に基づいて対象者20の姿勢を推定する。制御装置100は、位置推定用学習済モデルを用いて対象者20の姿勢を推定する。位置推定用学習済モデルは、フレーム画像に含まれる特徴量を入力することで、人体の関節の位置を推定結果として出力するニューラルネットワークモデルである。位置推定用学習済モデルとして、たとえば、CMU(Carnegie Mellon University)が開発したOpenPose、Microsoft社が開発したHuman-pose-estimation、またはgoogle社が開発したposeNetなどを用いることが考えられる。
The
姿勢推定と併せて、制御装置100は、表情筋センサ14の検出値をメモリ102から読み出す。読み出される検出値は、姿勢推定に用いたフレーム画像と対応付けてメモリ102に格納されている検出値である。制御装置100は、読み出した検出値に基づいて、対象者20の表情を推定する。対象者20の表情は、表情推定のための各種のAI(Artificial Intelligence)技術を用いて推定することができる。表情推定のための各種のAIは、入力として表情筋センサ14の検出値あるいはカメラで撮影した対象者の顔、あるいは目や口の位置、形状などの顔の特徴点などを入力とし、出力を表情の種類とする。表情の種類は、例えば笑っている、苦しんでいる、といった有限個の分類とする。入力と出力のペアであるデータセットを用いて、表情推定のためのAIを学習させることができる。学習させたAIに、表情筋センサ14の検出値あるいはカメラで撮影した対象者の顔を入力することで、出力として指定した表情の分類を推論結果として得ることができる。
In addition to posture estimation, the
制御装置100は、姿勢推定の結果から対象者20の関節の角度を算出する。たとえば、評価すべき箇所が対象者20の肩の動きであれば、制御装置100は、対象者20の肩の関節角度を算出する。併せて、制御装置100は、表情推定の結果を、段階的に定めた複数の基準値と比較する、もしくは、苦しい顔をしていたら負荷が高いなど、表情の分類ごとに負荷の度合いを定義することによって、肩を動かしたときに対象者20が感じる負荷(辛さ)の度合いを特定する。以下、“負荷の度合い”を“強度”と称する。
The
制御装置100は、関節の角度と強度とから、対象者20の身体能力を評価する。さらに、制御装置100は、それらの評価の結果を表示部200に表示するとともに、通信部103からインターネット30を介して対象者20の家10に設置された通信装置12へ送信する。通信装置12は、対象者20のパーソナルコンピュータ16と接続されている。対象者20は、パーソナルコンピュータ16を用いて自身の評価を確認することができる。
The
制御装置100には、対象者20別に異なる評価基準が記憶されている。たとえば、対象者20が肩のリハビリ中であれば、リハビリの目標値に応じた基準値を制御装置100に設定することが考えられる。
<肩の関節角度の算出>
図2は、対象者20の特徴点の位置と肩の関節角度の関係を示す図である。対象者20を撮影した動画は複数のフレーム画像から構成される。図2は、複数のフレーム画像のうちの1つである。図2に示す符号20a~20kは、対象者20の画像から推定された特徴点を示す。制御装置100は、OpenPoseなどの姿勢推定技術を用いることによって、これらの特徴点20a~20kをフレーム画像から推定する。なお、観察すべき部分が対象者20の指である場合には、指の関節部分の特徴点を推定するものとしてもよい。
The
<Calculating the shoulder joint angle>
FIG. 2 is a diagram showing the relationship between the positions of feature points of the subject 20 and the shoulder joint angle. A video of the subject 20 is composed of a plurality of frame images. FIG. 2 shows one of the plurality of frame images.
図2に示すように、対象者20の右肩の関節角度は、特徴点20a~20kのうち、右肘関節に対応する特徴点20b、右肩関節に対応する特徴点20c、および右股関節に対応する特徴点20dの各々の座標から求められる。具体的には、肩-肘ベクトルをaとし、肩-股関節ベクトルをbとした場合、右肩の関節角度は、以下の式(1)を用いて算出することができる。
As shown in FIG. 2, the right shoulder joint angle of subject 20 is found from the coordinates of
対象者20を撮影した動画には、対象者20の様々な動きが含まれる。たとえば、対象者20の右肩の関節角度に注目する場合には、次のような手法で対象者20の肩の関節角度を決定することが考えられる。まず、姿勢推定技術によって特徴点が抽出された複数のフレーム画像のうちから、図2に示すような特徴点20b、20c、および20dを含むフレーム画像を選択する。次に、選択したフレーム画像のそれぞれに基づいて、対象者20の肩の関節角度を算出する。算出された関節角度のうち、最大の関節角度を対象者20の肩の関節角度として決定する。なお、この手法は一例に過ぎず、他の手法を採用して対象者20の肩の関節角度を決定してもよい。
A video of the subject 20 includes various movements of the subject 20. For example, when focusing on the joint angle of the right shoulder of the subject 20, the following method can be used to determine the shoulder joint angle of the subject 20. First, from among a plurality of frame images in which feature points have been extracted by the posture estimation technology, frame images including
対象者20が日常生活でどの程度の範囲で肩を動かしているのかを特定したい場合には、動画を構成するそれぞれのフレーム画像に基づいて算出された肩の関節角度を用いてヒストグラムを作成するとよい。あるいは、一日の対象者20の肩の関節角度の変化を知りたい場合には、フレーム画像に基づいて算出された肩の関節角度とフレーム画像が撮影された時刻とを対応付けたグラフを作成するとよい。これらのヒストグラムおよびグラフは、制御装置100によって作成され、必要に応じて表示部200に表示される。以下、図3および図4を用いてそれぞれを説明する。
<対象者による肩の関節角度の違い>
図3は、ある対象者Aおよびある対象者Bの肩の関節角度の度合いを示すヒストグラムである。図3において、縦軸は肩の関節角度の階級を示し、横軸は階級に対する度数を示す。LAおよびLBは、階級と度数との関係を線形化して得られた曲線を示す。LAは、対象者Aに対応する曲線を示す。LBは、対象者20Bに対応する曲線を示す。図3に示すように、肩の動き具合は対象者20によって異なる。対象者Aは、20度未満から160度を超える角度までの広い範囲で肩関節を動かしている。一方、対象者20Bは、肩の可動範囲が対象者Aよりも狭く、120度を超えて肩関節を動かすことはほとんどない。このように、肩の可動域は人によって異なる。また、肩の可動域は、一般には、高齢になるほど狭くなることが多い。
<肩の関節角度の時間的変化>
図4は、ある対象者20の肩の関節角度の変化を示すグラフである。縦軸は肩の関節角度を示し、横軸は時刻を示す。図4に示すように、肩の関節角度は時刻によって大きく変化する。その変化の様子は、観察時刻に対象者20がどのような作業をしていたかによって大きく異なる。
If it is desired to identify the range of shoulder movement of the subject 20 in daily life, it is advisable to create a histogram using the shoulder joint angle calculated based on each frame image constituting the video. Alternatively, if it is desired to know the change in the shoulder joint angle of the subject 20 throughout the day, it is advisable to create a graph in which the shoulder joint angle calculated based on the frame images corresponds to the time when the frame images were captured. These histograms and graphs are created by the
<Differences in shoulder joint angle depending on the subject>
FIG. 3 is a histogram showing the degree of shoulder joint angle of a certain subject A and a certain subject B. In FIG. 3, the vertical axis shows the class of the shoulder joint angle, and the horizontal axis shows the degree for the class. LA and LB show curves obtained by linearizing the relationship between the class and the degree. LA shows the curve corresponding to the subject A. LB shows the curve corresponding to the subject 20B. As shown in FIG. 3, the degree of shoulder movement differs depending on the subject 20. The subject A moves his shoulder joint in a wide range from an angle of less than 20 degrees to an angle of more than 160 degrees. On the other hand, the subject 20B has a narrower range of shoulder movement than the subject A, and rarely moves his shoulder joint beyond 120 degrees. In this way, the range of shoulder movement differs depending on the person. In addition, the range of shoulder movement generally tends to become narrower as the person gets older.
<Changes in shoulder joint angle over time>
Fig. 4 is a graph showing changes in the shoulder joint angle of a
図4に示される関節位置の時系列データから、関節の速度情報を算出することができる。グラフの傾斜と関節速度とは相関関係にある。動画から取得した関節の角度に変えて、動画から取得した関節の速度情報を評価の対象としてもよい。肩の関節の速度情報は、対象者がスムーズに肩を動かすことができているかどうかを判断するための指標となる。また、肩の関節の速度情報に変えて、腕の関節の速度情報を評価の対象としてもよい。腕の関節の速度情報を利用することによって、対象者20が腕をゆっくり上げているかどうかを判断できる。また、脚の関節の速度情報を利用することによって、対象者20の歩行速度を推定することができる。脚の関節の速度情報に対する基準速度は、介護を必要する高齢者の歩行速度に基づいて定めてもよい。 The joint velocity information can be calculated from the time series data of the joint positions shown in FIG. 4. The slope of the graph and the joint velocity are correlated. Instead of the joint angle obtained from the video, the joint velocity information obtained from the video may be used as the subject of evaluation. The shoulder joint velocity information is an index for determining whether the subject can move his/her shoulder smoothly. Also, instead of the shoulder joint velocity information, the arm joint velocity information may be used as the subject of evaluation. By using the arm joint velocity information, it can be determined whether the subject 20 is raising his/her arm slowly. Also, by using the leg joint velocity information, the walking speed of the subject 20 can be estimated. The reference speed for the leg joint velocity information may be determined based on the walking speed of an elderly person who requires care.
図3または図4を参照することによって、対象者20の肩関節の動きの度合いを把握することができる。しかし、図3および図4が示す情報のみでは、対象者20が余裕を持って肩関節を動かしたのか、無理をして肩関節を動かしたのか、という点までは理解できない。そこで、本実施の形態では、対象者20の肩関節の動きと併せて対象者20の表情に着目して、動作が対象者20に与える負荷の度合い(強度)を算出する。 By referring to FIG. 3 or 4, the degree of movement of the shoulder joint of the subject 20 can be grasped. However, with only the information shown in FIGS. 3 and 4, it is not possible to understand whether the subject 20 moved the shoulder joint with sufficient margin or whether he moved the shoulder joint by force. Therefore, in the present embodiment, the degree (intensity) of the load that the movement imparts to the subject 20 is calculated by focusing on the facial expression of the subject 20 in addition to the movement of the shoulder joint of the subject 20.
図5は、強度の段階と評価の段階とを示す図である。本実施の形態では、対象者20に与える負荷の度合いを1つ刻みで-5から+5までの11段階で評価する。中央値の0は、辛くもなく、楽でもない、普通の感じ方に対応する。0から数値が高くなるほど、強度、すなわち、対象者20の辛さの程度は高くなる。一方、0から数値が小さくなるほど、対象者20が楽に感じる程度は高くなる。評価の段階としては、図5に示すように、AからGの7段階が設定されている。Aが最も高い評価を示し、Gが最も低い評価を示す。なお、図示する強度の段階と評価の段階とは一例であり、段階の数をさらに増やしても、逆に段階の数を減らしてもよい。
<対象者の身体能力の評価>
図6は、ある対象者Aの肩の関節角度および強度と、目標角度αおよび目標強度βとの関係、およびそれらに基づく評価を示す表である。図7は、図6の表に基づいて作成されたグラフである。これらの表およびグラフは、制御装置100によって作成される。作成された表およびグラフは、メモリ102に格納される。さらに、制御装置100は、メモリ102に格納された表およびグラフを読み出して表示部200に表示するとともに、インターネット30を介して対象者Aが所有するパーソナルコンピュータ16などへ配信する。
FIG. 5 is a diagram showing the intensity levels and the evaluation levels. In this embodiment, the degree of the load given to the subject 20 is evaluated in 11 levels from -5 to +5 in increments of 1. The
<Evaluation of the subject's physical ability>
Fig. 6 is a table showing the relationship between the shoulder joint angle and strength of a certain subject A and the target angle α and target strength β, and an evaluation based thereon. Fig. 7 is a graph created based on the table of Fig. 6. These tables and graphs are created by the
図6を参照して、表には、対象者Aの肩の関節角度が測定された日時と、目標角度αと、対象者Aの角度αaと、目標強度βと、対象者Aの強度βaと、対象者Aに対して与えられた評価Eとが示されている。「目標角度α」は、対象者Aの身体状況に合わせて予め目標として設定された肩の関節角度を示す。「目標強度β」は、目標角度αに対する強度の目標値を示す。 Referring to FIG. 6, the table shows the date and time when the shoulder joint angle of subject A was measured, the target angle α, subject A's angle αa, target strength β, subject A's strength βa, and the evaluation E given to subject A. "Target angle α" indicates the shoulder joint angle that was set in advance as a target in accordance with subject A's physical condition. "Target strength β" indicates the target value of strength for the target angle α.
「対象者Aの角度」は、算出された対象者Aの肩の関節角度を示す。「対象者Aの強度」は、「対象者Aの角度」に対応して算出された対象者Aの強度を示す。「評価」は、算出された対象者Aの肩の関節角度と算出された対象者Aの強度とに基づいて、図5に示した7段階の中から決定される。図6に示す表には、対象者Aの肩の関節角度αaと対象者Aの強度βaとに基づいて決定されたEという評価が示されている。制御装置100は、対象者Aの肩の関節角度を算出する毎に、図6に示す表のデータを追加する。以下、「目標角度α」と「目標強度β」との関係を(α,β)と表し、「対象者Aの角度αa」と「対象者Aの強度βa」との関係を(αa,βa)と表す。また、(αa,βa)を対象者Aの測定結果などと称する。
"Angle of subject A" indicates the calculated shoulder joint angle of subject A. “Intensity of subject A” indicates the intensity of subject A calculated corresponding to “angle of subject A”. The "evaluation" is determined from among the seven levels shown in FIG. 5 based on the calculated joint angle of the shoulder of the subject A and the calculated strength of the subject A. The table shown in FIG. 6 shows an evaluation E determined based on the shoulder joint angle αa of the subject A and the strength βa of the subject A. The
制御装置100は、図6に示すデータに基づいて、図7に示すグラフを作成する。グラフの横軸は角度を示し、縦軸は強度を示す。縦軸の強度は、横軸と縦軸とが交わるポイントの数値を0として、上がプラスの数値を、下がマイナスの数値を、それぞれ示す。強度は、値が大きくなるほど、対象者20にとっての辛さ(負荷)が増すことを意味する。強度=0は、対象者20が辛いと感じることも楽と感じることもない、普通の強度を示す。したがって、マイナスの数値の強度は、対象者20が楽に感じる度合いを示す。
The
図7のグラフには、基準ラインLsが示される。基準ラインLsは、対象者Aの測定結果(αa、βa)を評価するために用いるラインである。基準ラインLsは、たとえば、人間の標準的な身体的能力に基づいて定めたラインである。なお、基準ラインLsは、対象者毎の身体的能力を考慮して、対象者毎に設定してもよく、性別、年齢を考慮して定めることも考えられる。制御装置100のメモリ102には、複数種類の基準ラインLsのデータが記憶されている。
The graph in FIG. 7 shows a reference line Ls. The reference line Ls is a line used to evaluate the measurement results (αa, βa) of subject A. The reference line Ls is a line determined, for example, based on the standard physical ability of humans. Note that the reference line Ls may be set for each subject, taking into account the physical ability of each subject, and may also be determined taking into account gender and age. Data for multiple types of reference lines Ls is stored in the
図7のグラフには、対象者Aの目標角度と目標強度とに対応する(α,β)が示される。(α,β)は、基準ラインLs上にあり、目標強度βは0に設定される。さらに、グラフには、対象者Aの測定結果に対応する(αa,βa)が示される。 The graph of FIG. 7 shows (α, β) corresponding to the target angle and target intensity of the subject A. (α, β) is on the reference line Ls, and the target intensity β is set to zero. Furthermore, (αa, βa) corresponding to the measurement result of subject A is shown in the graph.
図7に示すグラフによれば、対象者Aの肩の関節角度αaは、目標角度αに対して角度dlx不足することがわかる。また、グラフの基準ラインLsによれば、肩の関節角度αaに対する標準的な強度はβsであることがわかる。標準的な強度βsは、対象者Aの強度βaよりも小さい。強度βsと強度βaとの差はdlyである。このことから、関節角度αaで肩を動かした対象者Aは、標準よりもdly分の強い負荷を肩に感じていたことになる。 The graph in Figure 7 shows that subject A's shoulder joint angle αa is short of the target angle α by an angle dlx. Furthermore, the reference line Ls on the graph shows that the standard strength for shoulder joint angle αa is βs. The standard strength βs is smaller than subject A's strength βa. The difference between strength βs and strength βa is dly. This means that subject A, who moved his shoulder at joint angle αa, felt a load on his shoulder that was dly heavier than the standard.
制御装置100は、(α,β)を通過する基準ラインLsと、対象者Aのデータ(αa、βa)とに基づいて、対象者Aの身体能力を評価する。たとえば、対象者Aのデータ(αa、βa)が(α,β)の周辺に位置する場合には、7段階の評価のうちの中央に位置するDの評価を対象者Aに与える。
The
図7には、対象者Aの他のデータの例として、(αa1、βa1)、(αa2、βa2)、(αa3、βa3)、および(αa4、βa4)が示されている。(αa1、βa1)は、関節角度が目標値αに近いが、強度が目標値をβを超える例である。このデータ例を見た者は、対象者Aが身体的に無理をして肩を動かしているものと推測できる。制御装置100は、対象者Aの測定結果が(αa1、βa1)であった場合、対象者Aの測定結果が(α,β)であった場合よりも、対象者に与える評価を下げる。
Figure 7 shows other data examples for subject A, including (αa1, βa1), (αa2, βa2), (αa3, βa3), and (αa4, βa4). (αa1, βa1) is an example where the joint angle is close to the target value α, but the strength exceeds the target value β. Anyone looking at this data example can infer that subject A is physically straining himself when moving his shoulder. When subject A's measurement result is (αa1, βa1), the
(αa2、βa2)は、関節角度が目標値αに近いが、強度が目標値をβを下回る例である。このデータ例を見た者は、対象者Aが目標レベルの強度よりも低い強度で目標の関節角度を達成しているものと推測できる。制御装置100は、対象者Aの測定結果が(αa2、βa2)であった場合、対象者Aの測定結果が(α,β)であった場合よりも、対象者に与える評価を上げる。
(αa2, βa2) is an example where the joint angle is close to the target value α, but the intensity is below the target value β. Someone looking at this data example can infer that subject A achieved the target joint angle with an intensity lower than the target level of intensity. When subject A's measurement result is (αa2, βa2), the
(αa3、βa3)は、関節角度が目標値αを大幅に上回り、強度が基準値βssを大幅に上回る例である。また、(αa4、βa4)は、関節角度が目標値αを大幅に上回るが、強度が基準値βssを大幅に下回る例である。これらのデータを見た者は、基準ラインLsと、関節角度および強度との関係を考慮して、対象者Aの身体能力を評価できる。また、制御装置100は、対象者Aのそれぞれの測定結果と、基準ラインLsとの距離に基づいて、対象者Aの身体能力を評価する。
(αa3, βa3) is an example in which the joint angle significantly exceeds the target value α and the strength significantly exceeds the reference value βss. Further, (αa4, βa4) is an example in which the joint angle significantly exceeds the target value α, but the strength is significantly lower than the reference value βss. A person viewing these data can evaluate the physical ability of the subject A by considering the relationship between the reference line Ls, the joint angle, and the strength. Furthermore, the
なお、図7に示すグラフには、制御装置100による評価のランクを表示するようにしてもよい。たとえば、図7に示すグラフの(αa1、βa1)の隣に「評価ランク=E」と表示することが考えられる。ただし、このような評価のランクを表示しなくても、グラフを見た者は、対象者Aの身体能力を関節角度と強度との2つの側面から評価することが可能である。
<対象者の過去の測定結果に基づいた評価>
図8は、対象者Aの過去の測定結果と現在の測定結果とを示す表である。図9は、対象者Aの過去の測定結果を基準とした場合の、対象者Aの肩の関節角度および強度と、目標角度および目標強度との関係を示すグラフである。図8および図9を参照して、対象者Aの過去の測定結果に基づいて対象者の現在の身体能力を評価する方法を説明する。
Note that the graph shown in FIG. 7 may display the rank of evaluation by the
<Evaluation based on the subject's past measurement results>
FIG. 8 is a table showing past measurement results and current measurement results of subject A. FIG. 9 is a graph showing the relationship between the shoulder joint angle and strength of the subject A and the target angle and target strength, based on the past measurement results of the subject A. A method for evaluating the current physical ability of a subject A based on past measurement results of the subject A will be described with reference to FIGS. 8 and 9.
図8には、対象者Aの過去のデータを示す表T1と、対象者Aの現在のデータを示す表T2とが示されている。図8の表T1には、2015年の対象者Aの多数の測定結果の一部が示されている。図8の表T2には、2020年の対象者Aの測定結果が示されている。表T2に示される対象者Aの測定結果(αa1、βa1)は、図6に示した対象者Aの測定結果と同じである。しかし、図8の表T2と図6とでは、目標角度、目標強度、および評価が異なっている。これは、評価の基準が両者で異なるためである。 Figure 8 shows table T1 showing past data of subject A, and table T2 showing current data of subject A. Table T1 in Figure 8 shows some of the many measurement results of subject A in 2015. Table T2 in Figure 8 shows the measurement results of subject A in 2020. The measurement results of subject A shown in table T2 (αa1, βa1) are the same as the measurement results of subject A shown in Figure 6. However, the target angle, target intensity, and evaluation are different between table T2 in Figure 8 and Figure 6. This is because the evaluation criteria are different between the two.
図9のPaは、2015年に記録された対象者Aのデータ(図9に示す△)の集合を示している。集合Paを用いることによって、2015年当時の対象者Aの平均的な肩の関節角度α’および強度β’を算出できる。ここでは、算出されたα’を目標角度とし、算出されたβ’を目標強度とする。図9に示す(α’、β’)は、その座標位置を示す。 Pa in FIG. 9 indicates a set of data of subject A recorded in 2015 (Δ in FIG. 9). By using the set Pa, the average shoulder joint angle α' and strength β' of the subject A in 2015 can be calculated. Here, the calculated α' is taken as the target angle, and the calculated β' is taken as the target intensity. (α', β') shown in FIG. 9 indicates the coordinate position.
さらに、集合Paに基づけば2015年当時の対象者Aの測定結果に基づいた基準ラインLs’を算出することができる。図9には、図8に示す基準ラインLsを集合Paに基づいて右方向にスライドさせて成る基準ラインLs’が示されている。 Furthermore, based on set Pa, it is possible to calculate a reference line Ls' based on the measurement results of subject A in 2015. Figure 9 shows a reference line Ls' obtained by sliding the reference line Ls shown in Figure 8 to the right based on set Pa.
対象者Aの過去の測定結果に基づいて定めた目標角度および目標強度は(α’,β’)である。図9に示すグラフによれば、対象者Aの肩の関節角度αaは、目標角度α’に対して角度dlx’不足することがわかる。また、基準ラインLs’によれば、肩の関節角度αaに対する標準的な強度はβs’であることがわかる。強度βs’と強度βaとの差はdly’である。図7に示すグラフと図9に示すグラフとを比較すると、「dlx<dlx’」であり、かつ、「dly<dly’」である。基準ラインLs’は、基準ラインLsよりも基準が高い。このため、表T2での評価は、図6に示す評価よりも悪いFとされている。 The target angle and target strength determined based on the past measurement results of subject A are (α', β'). From the graph shown in FIG. 9, it can be seen that subject A's shoulder joint angle αa is insufficient by an angle dlx' with respect to the target angle α'. Furthermore, from the reference line Ls', it can be seen that the standard strength for shoulder joint angle αa is βs'. The difference between strength βs' and strength βa is dly'. Comparing the graph shown in FIG. 7 with the graph shown in FIG. 9, "dlx<dlx'" and "dly<dly'". Reference line Ls' has a higher standard than reference line Ls. For this reason, the evaluation in table T2 is F, which is worse than the evaluation shown in FIG. 6.
このように、対象者Aの身体能力は、(1)人間の標準的な身体的能力に基づいて評価してもよく、(2)過去の対象者Aの身体能力に基づいて評価してもよい。制御装置100には、(1)(2)のいずれの評価基準を記憶させておいてもよく、いずれか一方のみを記憶させておいてもよい。
<身体能力を評価するための制御の内容>
図10は、対象者20の身体能力を評価するための制御の内容を示すフローチャートである。このフローチャートに対応するプログラムは、制御装置100のメモリ102に記憶されている。制御装置100のプロセッサ101は、メモリ102に記憶されたプログラムに基づいて、以下のフローチャートに示す処理を実行する。
In this way, the physical ability of subject A may be evaluated (1) based on the standard physical ability of a human, or (2) based on the past physical abilities of subject A. The
<Contents of control for evaluating physical ability>
10 is a flowchart showing the contents of control for evaluating the physical ability of the subject 20. A program corresponding to this flowchart is stored in the
はじめに、制御装置100は、メモリ102に記憶されている対象者の動画から対象者の画像(フレーム画像)を読み込む(ステップS1)。次に、制御装置100は、ステップS1で読み込んだ画像から位置推定用学習済モデルを用いて対象者20の姿勢情報を生成する(ステップS2)。これにより、たとえば、図2に示したように、対象者20の関節位置が特定される。次に、制御装置100は、ステップS1で読み込んだ対象者の画像と対応する生体情報をメモリ102に格納されているデータから取得する(ステップS3)。生体情報は、たとえば、表情筋センサ14の検出値である。
First, the
次に、制御装置100は、ステップS2で生成した姿勢情報から姿勢を解析する(ステップS4)。たとえば、制御装置100は、ステップS4において、対象者20の肩の関節角度を算出する。次に、制御装置100は、ステップS3で読み込んだ表情筋センサ14の検出値から表情推定のための各種のAI技術を用いて対象者20の表情を解析する(ステップS5)。たとえば、制御装置100は、ステップS4において、対象者20の表情から強度(辛さの度合い)を算出する。
Next, the
次に、制御装置100は、解析した表情および解析した姿勢を基準ラインと比較する(ステップS6)。たとえば、図7に示した基準ラインLsと、対象者20の測定結果(αa,βa)との距離を算出する。次に、制御装置100は、ステップS6の結果に基づいた評価を算出する(ステップS7)。次に、制御装置100は、算出した評価を保存する(ステップS8)。次に、制御装置100は、対象者20向けの評価シートを作成する(ステップS9)。評価表は、たとえば、図6または図8に示した表および図7または図9に示すグラフを含む。次に、制御装置100は、作成した評価シートを対象者20の元へ配信する(ステップS10)。たとえば、制御装置100は、インターネット30を通じて対象者20の家の通信装置12へ評価シートを送信する。
Next, the
以上、説明した第1実施の形態では、対象者の肩の関節角度に基づいて、対象者の身体能力を評価する例を説明した。しかし、肩の関節角度は評価対象の一例に過ぎない。たとえば、対象者の膝の関節角度などを評価対象としてもよい。 In the first embodiment described above, an example has been described in which the physical ability of the subject is evaluated based on the joint angle of the subject's shoulder. However, the joint angle of the shoulder is only one example of what is to be evaluated. For example, the evaluation target may be the joint angle of the subject's knee.
また、関節角度に変えて、図4のグラフに基づいて算出される関節速度を評価の対象としてもよい。この場合、制御装置100は、図10のステップS4において、対象者の肩の関節速度またはその他の部位の関節速度を算出する。さらに、制御装置100は、図10のステップS6において、関節速度を対象として設定した基準ラインと対象者の関節速度および対象者の強度とを比較し、対象者の身体能力を評価する。
In addition, instead of the joint angle, the joint velocity calculated based on the graph in FIG. 4 may be used as the subject of evaluation. In this case, in step S4 in FIG. 10, the
第1実施の形態によれば、対象者の肩の上がり具合などの日常動作を姿勢推定や表情推定によりチェックし、対象者の体の衰えや異変を早期に発見することができる。関節角度が小さくなってきた場合や、関節速度が低下してきた場合、対象者に身体の衰えなどの異変が起きていると考えられる。また、特定の動作中に対象者が苦しい表情をしている場合、関節部分に痛みや異変を伴っている可能性がある。これらの異変が認められた場合、対象者本人や家族、医師等にその旨を通知することで異変の早期発見およびリハビリなどの早期介入が可能となる。
[実施の形態2]
<健康スコアの算出>
次に、実施の形態2を説明する。実施の形態1は、対象者の関節角度あるいは関節速度といった、静的あるいは部分的な動きに着目して対象者の身体能力を評価する形態である。実施の形態2は、たとえば、ラジオ体操のような連続的な動きに基づいて対象者の身体能力を評価する形態である。
According to the first embodiment, daily movements such as the degree of shoulder lift of a subject can be checked by estimating posture and facial expression, and deterioration or abnormality of the subject's body can be detected early. When the joint angle becomes smaller or the joint speed decreases, it is considered that the subject is experiencing abnormalities such as deterioration of the body. In addition, when the subject has a painful facial expression during a specific movement, there is a possibility that the subject is experiencing pain or abnormality in the joint. When such abnormalities are detected, the subject, his/her family, a doctor, etc. can be notified of the abnormality, enabling early detection of abnormalities and early intervention such as rehabilitation.
[Embodiment 2]
<Calculating Health Score>
Next, a second embodiment will be described. The first embodiment is a form in which the physical ability of a subject is evaluated by focusing on static or partial movements such as the joint angles or joint velocities of the subject. The second embodiment is a form in which the physical ability of a subject is evaluated based on continuous movements such as radio calisthenics.
はじめに、実施の形態2に係るシステム全体の構成を、図1に示した実施の形態1に係るシステム全体の構成と対比して説明する。対象者20には、表情筋センサ14に変えて、図11に示す心拍計15を取り付ける。心拍計15が計測する心拍数は、生体情報の一例である。心拍計15が計測する心拍数は、図1に示す通信装置12に送信される。通信装置12は心拍数をインターネット30などの通信網を介して制御装置100へ送信する。
First, the overall system configuration of the second embodiment will be described in comparison with the overall system configuration of the first embodiment shown in FIG. 1. Instead of the
対象者20は、たとえば、家10でラジオ体操の動画をお手本にしながらラジオ体操をする。対象者20の動きはカメラ13で撮影される。カメラ13は撮影した動画を通信装置12に送信する。通信装置12は、カメラ13から受信した動画をインターネット30などの通信網を介して制御装置100へ送信する。制御装置100は、通信装置12から受信した対象者20の心拍数と動画とをメモリ102に格納する。制御装置100のメモリ102には、ラジオ体操の動画のデータが予め格納されている。ラジオ体操の動画には、お手本となる体操講師がラジオ体操をする動作が含まれている。
For example, the subject 20 performs radio calisthenics at
制御装置100は、対象者20の動画と、対象者20の心拍数と、ラジオ体操の動画とに基づいて対象者20の身体能力を評価し、評価の結果を通信装置12に送信する。評価の結果は、パーソナルコンピュータ16の画面に表示される。対象者20は、パーソナルコンピュータ16を用いて評価の結果を確認する。
<一致度の評価>
図11は、一致度の評価画面の一例を示す図である。制御装置100は、対象者20の動画とラジオ体操の動画とに基づいて、対象者20の動作とお手本となる体操講師の動作との一致度を評価し、評価の結果を対象者20の家10の通信装置12に送信する。たとえば、対象者20のパーソナルコンピュータ16には、図11に示す画面が表示される。画面の左には「対象者20の映像」が表示され、画面の右には「目標映像」が表示される。「対象者20の映像」は、ラジオ体操をする対象者20の動画の1シーンの映像である。「目標映像」は、ラジオ体操の動画のうち、「対象者20の映像」と対応する映像である。「目標映像」には、お手本となる体操講師の動きが映し出されている。「対象者20の映像」と「目標映像」との間には、「対象者20の映像」に含まれる対象者20と、「目標映像」に含まれる体操講師とを重畳させた画像が表示されている。対象者20の画像と体操講師の画像とを重畳させることによって、対象者20の動作がどの程度、体操講師の動作に一致しているのかを把握し易くなる。
The
<Evaluation of degree of match>
FIG. 11 is a diagram showing an example of a matching degree evaluation screen. The
対象者20とお手本の体操講師との体つきが完全に一致することは考えにくい。また、対象者20を撮影する距離や角度によっても、画像における対象者20の大きさは変化する。このため、単純に対象者20の画像と体操講師の画像とを重畳させるのみでは、両者の動作の一致度を把握できない。そこで、制御装置100は、対象者20の画像と体操講師の画像とを重畳させる前に、体操講師の画像の縦横のサイズと対象者20の画像の縦横のサイズとを補正している。たとえば、制御装置100は、体操講師の体の長さと幅とに合うように、対象者20の画像を補正する。その結果、対象者20の画像と体操講師の画像とを重畳させたときに、対象者20の動作がどの程度、体操講師の動作に一致しているのかをより把握し易くなる。
It is difficult to imagine that the physiques of
図11に示すように、対象者20と体操講師とを重畳させた画像の下には、一致度を示す一致度スコアが表示されている。さらに、一致度スコアの下には、コメントが表示される。対象者20は、コメントを参考にして、一致度を上げる努力をすることができる。 As shown in FIG. 11, a matching score indicating the degree of matching is displayed below the image in which the subject 20 and the gymnastics instructor are superimposed. Furthermore, comments are displayed below the matching score. The subject 20 can refer to the comments and make an effort to improve the degree of matching.
「対象者20の映像」の下には、「心拍数」の表示領域が設けられている。この表示領域には、対象者20が「対象者20の映像」に示す動作をしているときの心拍数が表示される。「目標映像」の下には、「目標心拍数」の表示領域が設けられている。この表示領域には、対象者20が目標とすべき心拍数が表示される。目標心拍数は、様々な基準で定めることができる。たとえば、人間の標準的な身体的能力に基づいて目標心拍数を決定してもよく、対象者20の年齢や性別を考慮して、対象者20別に決定してもよい。目標心拍数は、ラジオ体操を開始してから終了するまでの間で、体操の種類に応じて変動させることが望ましい。制御装置100のメモリ102には、ラジオ体操を開始してから終了するまでの間の複数のタイミング毎に、目標心拍数が記憶されている。
Below the "image of subject 20", a display area for "heart rate" is provided. This display area displays the heart rate of subject 20 when performing the action shown in the "image of subject 20". Below the "target image", a display area for "target heart rate" is provided. This display area displays the target heart rate of
対象者20は、図11に示す評価の画面を見ることによって、一致度のみならず、目標心拍数と対比した自身の心拍数をも把握できる。このため、対象者20は、無理をしない範囲で、ラジオ体操が上手くできているかどうかを評価できる。あるいは、対象者20を指導するトレーナーが存在する場合には、同じ画面をトレーナーが見ることによって、対象者20に無理をさせない範囲で好ましいラジオ体操の姿勢を指導することができる。
<対称性の評価>
図12は、対称性の評価画面の一例を示す図である。制御装置100は、対象者20の動画に基づいて、対象者20の動作の左右の対称性を評価する。ラジオ体操には、左右対称の動作が含まれる。左右対称の体操に応答して、対象者20の左側の動作と右側の動作とが一致することが望ましい。たとえば、図12に示すような、体を横に曲げる運動の場合には、体が曲がる角度が右側と左側とで同じであることが望ましい。しかし、体の歪み、その他の要因によって左側の動作と右側の動作とが一致しない場合がある。
By viewing the evaluation screen shown in FIG. 11, the subject 20 can grasp not only the degree of matching but also his or her own heart rate in comparison with the target heart rate. Therefore, the subject 20 can evaluate whether or not he/she is able to perform radio calisthenics well without straining himself/herself. Alternatively, if there is a trainer who instructs the subject 20, by viewing the same screen, the trainer can instruct the subject 20 in a preferred posture for radio calisthenics without straining the subject 20.
<Evaluation of symmetry>
FIG. 12 is a diagram showing an example of a symmetry evaluation screen. The
そこで、制御装置100は、図12に示す対称性の評価画面を対象者20に提供する。対称性の評価画面には、対象者20が体を左側に曲げている動作の画像と、対象者20が体を右側に曲げている動作の画像とが表示されている。また、対称性の評価画面には、対称性スコアが表示されている。対称性スコアは、左右の動きの対称性がどの程度あるかを示す評価スコアである。さらに、対称性の評価画面には、目標心拍数を表示する表示領域と、対象者20の心拍数を表示する表示領域とが設けられている。
Therefore, the
対象者20は、図12に示す評価の画面を見ることによって、ラジオ体操の左右対称性のみならず、目標心拍数と対比した自身の心拍数をも把握できる。このため、対象者20は、無理をしない範囲で、ラジオ体操が上手くできているかどうかを評価できる。あるいは、対象者20を指導するトレーナーが存在する場合には、同じ画面をトレーナーが見ることによって、対象者20に無理をさせない範囲で好ましいラジオ体操の姿勢を指導することができる。 By looking at the evaluation screen shown in FIG. 12, the subject 20 can grasp not only the left-right symmetry of the radio calisthenics, but also his own heart rate in comparison with the target heart rate. Therefore, the subject 20 can evaluate whether or not he/she is able to perform radio calisthenics well without straining himself/herself. Alternatively, if there is a trainer who instructs the subject 20, by viewing the same screen, the trainer can instruct the subject 20 in a preferred posture for radio calisthenics without straining the subject 20.
なお、図12に示す評価の画面において、対象者20が体を左側に曲げている動作の画像に対して、対象者20が体を右側に曲げている動作の画像を重畳させ、対象者20が体を右側に曲げている動作の画像に対して、対象者20が体を左側に曲げている動作の画像を重畳させてもよい。また、対象者20が体を左右に曲げている動作の画像2つのうち、どちらか一方の画像を左右反転させた後に重畳させてもよい。これにより、左右での曲がり具合の違いを、画面を見る者が視覚的に理解し易くなる。 In the evaluation screen shown in FIG. 12, an image of the subject 20 bending his/her body to the right may be superimposed on an image of the subject 20 bending his/her body to the left, and an image of the subject 20 bending his/her body to the left may be superimposed on an image of the subject 20 bending his/her body to the right. Also, one of the two images of the subject 20 bending his/her body to the left and right may be superimposed after being flipped left to right. This makes it easier for the person viewing the screen to visually understand the difference in the degree of bending between the left and right.
対称性スコアの算出方法を説明する。制御装置100は、対象者20の動画の中から左右対称性が要求されるラジオ体操のシーンを抽出する。抽出したラジオ体操のシーンには、ペアとなる2つの画像が含まれる。ペアとなる2つの画像は、たとえば、図12に示すような、対象者20が左側に体を曲げている画像と、対象者20が右側に体を曲げている画像とである。制御装置100は、ペアとなる2つの画像のうちの第1画像に基づいて、対象者20の特徴点(関節)を推定する。さらに、制御装置100は、ペアとなる2つの画像のうちの第2画像を左右反転させた画像を生成し、生成した反転画像に基づいて、対象者20の特徴点(関節)を推定する。制御装置100は、第1画像に基づいた推定結果と、反転画像に基づいた推定結果とを対比することによって、両者の一致度を算出する。制御装置100は、算出した一致度に基づいて対称性スコアを決定する。
<時系列の変化>
図13は、対象者20の身体能力を示す第1評価シートである。第1評価シートには、対象者20の動きと目標映像の動きと対象者20の心拍数との関係が示されている。第1評価シートは、制御装置100によって対象者20に提供されるデータのひとつである。第1評価シートの横軸はラジオ体操の進行状況を示す。実線の波形は、対象者20の動きの大きさを示す。破線の波形は、目標映像の体操講師の動きの大きさを示す。棒線は、対象者20の心拍数を示す。なお、対象者20の動きを測定する体の部分は、いずれの部分であってもよい。たとえば、肩関節の動きに基づいて対象者20の動きを測定することが考えられる。
The method for calculating the symmetry score will be explained. The
<Time series changes>
FIG. 13 is a first evaluation sheet showing the physical ability of the subject 20. The first evaluation sheet shows the relationship between the movement of the subject 20, the movement of the target image, and the heart rate of the subject 20. The first evaluation sheet is one of the data provided to the subject 20 by the
図13に示す第1評価シートは、ラジオ体操の開始から終了に至るまでの動画で提供される。図13は、ラジオ体操が終了した時点の動画の状態を示している。第1評価シートには、対象者20の心拍数と対象者20の平均心拍数とが表示される。第1評価シートに表示される心拍数の値は、ラジオ体操の進行とともに変化する。 The first evaluation sheet shown in FIG. 13 is provided as a video of the radio exercises from start to finish. FIG. 13 shows the state of the video at the time when the radio exercises end. The first evaluation sheet displays the heart rate of the subject 20 and the average heart rate of the subject 20. The heart rate value displayed on the first evaluation sheet changes as the radio exercises progress.
対象者20または対象者20を指導するトレーナーは、第1評価シートを見ることによって、対象者20がどの程度、体操講師の動きに追従しているのかをラジオ体操の進行との関係において把握できる。また、第1評価シートには、心拍数と平均心拍数とが表示されるため、対象者20が無理をしない範囲で、ラジオ体操をしているのかどうかを評価できる。なお、第1評価シートには、対象者20に対して設定された目標心拍数を併せて表示してもよい。 By looking at the first evaluation sheet, the subject 20 or the trainer instructing the subject 20 can understand to what extent the subject 20 is following the movements of the exercise instructor in relation to the progress of the radio exercises. In addition, the first evaluation sheet displays the heart rate and average heart rate, so it is possible to evaluate whether the subject 20 is performing the radio exercises without overexerting himself/herself. The first evaluation sheet may also display the target heart rate set for the subject 20.
図14は、対象者20の身体能力を示す第2評価シートである。第2評価シートは、制御装置100によって対象者20に提供されるデータのひとつである。実線はラジオ対応sの動きの基準を示す線である。破線は、基準線に対する対象者の動きのずれの大きさを示す。第2評価シートが対象としている動きは、第1評価シートが対象としている動きと同じである。しかし、第2評価シートは、対象者の動きのずれを基準の直線との関係で示しているので、第1評価シートよりも、対象者の動きと目標映像の動きとのずれの大きさを把握し易い。第2評価シートは、第1評価シートと同様に動画で提供される。さらに、第2評価シートには、心拍数と、平均心拍数と、一致度スコアと、対称性スコアと、運動強度スコアと、健康スコアとが表示される。
Figure 14 is a second evaluation sheet showing the physical ability of the subject 20. The second evaluation sheet is one of the data provided to the subject 20 by the
運動強度スコアは、対象者20の心拍数から算出する。たとえば、ラジオ体操中に計測された対象者20の心拍数と、対象者20の平常時心拍数と、対象者20の年齢とから運動強度を計算することが可能である。健康スコアは、一致度スコアと、対称性スコアと、運動強度スコアとから総合的に算出したスコアである。したがって、健康スコアが高い対象者20ほど、体操講師に近い動きで、左右対称性を保ちつつ、負荷を感じることなくラジオ体操をしていたことになる。 The exercise intensity score is calculated from the heart rate of the subject 20. For example, it is possible to calculate the exercise intensity from the heart rate of the subject 20 measured during radio exercise, the normal heart rate of the subject 20, and the age of the subject 20. The health score is a score comprehensively calculated from the concordance score, symmetry score, and exercise intensity score. Therefore, the higher the health score of subject 20, the more he performed radio calisthenics with movements similar to those of a gymnastics instructor, while maintaining left-right symmetry and without feeling any stress.
対象者20または対象者20を指導するトレーナーは、図14に示す第2評価シートを見ることによって、対象者20と体操講師の動きとのずれをより明確に把握できる。また、第2評価シートには、一致度スコアと、対称性スコアと、運動強度スコアとから総合的に算出したスコアである健康スコアが表示されるため、対象者20の身体能力を総合的に評価できる。 By looking at the second evaluation sheet shown in FIG. 14, the subject 20 or the trainer who instructs the subject 20 can more clearly grasp the discrepancy between the movements of the subject 20 and the exercise instructor. In addition, the second evaluation sheet displays a health score, which is a comprehensive score calculated from the agreement score, symmetry score, and exercise intensity score, so that the physical ability of the subject 20 can be comprehensively evaluated.
<制御フロー>
図15および図16は、対象者20の身体能力を評価するための制御の内容を示すフローチャートである。このフローチャートに対応するプログラムは、制御装置100のメモリ102に記憶されている。制御装置100のプロセッサ101は、メモリ102に記憶されたプログラムに基づいて、以下のフローチャートに示す処理を実行する。
<Control flow>
15 and 16 are flowcharts showing the details of control for evaluating the physical ability of the subject 20. A program corresponding to this flowchart is stored in the
はじめに、制御装置100は、対象者20の動画から対象者20の画像(フレーム画像)を読み込む(ステップS101)。次に、制御装置100は、ステップS101で読み込んだ画像から位置推定用学習済モデルを用いて対象者20の姿勢情報を生成する(ステップS102)。これにより、たとえば、図2に示したように、対象者20の関節位置が特定される。
First, the
次に、制御装置100は、ステップS101で読み込んだ対象者20の画像と対応する生体情報を取得する(ステップS103)。生体情報は、たとえば、心拍数である。心拍数は、たとえば、心拍計15の計測値に基づいて特定される。あるいは、接触バイタルセンシング技術を用いて、画像から心拍数を特定してもよい。
Next, the
この場合、ステップS101で読み込んだフレーム画像と、当該フレーム画像に対して時間的に前後する複数のフレーム画像とを用いて対象者20の心拍数を特定する。心拍数に関連するのは、脈波である。脈波は血管の収縮に連動して変化し、血管の収縮は血流に関連する。血液は、光を吸収する性質を有する。このため、対象者20の肌の光反射率の変化を対象者20の画像に基づいて検出することによって、間接的に対象者20の心拍数を特定することができる。 In this case, the heart rate of the subject 20 is determined using the frame image read in step S101 and multiple frame images that precede and follow the frame image in time. The pulse wave is related to the heart rate. The pulse wave changes in conjunction with the contraction of blood vessels, and the contraction of blood vessels is related to blood flow. Blood has the property of absorbing light. Therefore, the heart rate of the subject 20 can be indirectly determined by detecting changes in the light reflectance of the subject's 20 skin based on the image of the subject 20.
次に、制御装置100は、ステップS102で生成した姿勢情報から姿勢を解析する(ステップS104)。たとえば、制御装置100は、ステップS104において、対象者20の運動の姿勢を解析する。次に、制御装置100は、目標映像を解析し(ステップS105)、続いて、対象者20の姿勢を補正する(ステップS106)。ステップS105およびS106は、目標映像に写る体操講師のサイズと、対象者20のサイズとを一致させる処理である。
Next, the
次に、制御装置100は、評価条件を設定する(ステップS107)。評価条件は、たとえば、一致度スコア、対称性スコア、および運動強度スコアを算出するときの基準を定める条件である。評価条件の設定次第で各スコアの基準を高くすることも低くすることもできる。
Next, the
たとえば、対象者の年齢に応じて、一致度スコア、対称性スコア、および運動強度スコアを算出するときの基準を変更することが考えられる。これによって、対象者が高齢者の場合には、対象者が中高年の場合に比べて、それぞれのスコアの基準を甘くすることもできる。また、対象者が過去に取得した一致度スコア、対称性スコア、および運動強度スコアを考慮して、それぞれのスコアを新たに算出するときの基準を定めてもよい。 For example, it is conceivable to change the criteria for calculating the matching score, symmetry score, and exercise intensity score depending on the age of the subject. As a result, when the subject is an elderly person, the criteria for each score can be set more leniently than when the subject is middle-aged or elderly. Further, criteria for newly calculating each score may be determined by taking into account the matching score, symmetry score, and exercise intensity score that the subject has acquired in the past.
次に、制御装置100は、対象者20の画像とお手本の体操講師の画像とに基づいて、一致度を算出する(ステップS108)。次に、制御装置100は、ステップS102で読み込んだ心拍数に基づいて運動強度を算出し(ステップS109)、算出結果をメモリ102に保存する(ステップS110)。次に、制御装置100は、算出した運動強度を表示部200に表示する(ステップS111)。
Next, the
次に、制御装置100は、ラジオ体操の動画は終了したか否かを判断する(ステップS112)。ラジオ体操の動画が終了していない場合、制御装置100は、ステップS101に処理を戻す。ラジオ体操の動画が終了している場合、制御装置100は、一致度スコアを算出し(ステップS113)、続いて、運動強度スコアを算出する(ステップS114)。
Next, the
補正した対象者20の姿勢情報と正解となる体操講師の姿勢情報との類似度を評価することで、体操講師の動作に対する対象者20の動作の一致度を計算できる。一致度スコアは、2つの姿勢の各部位の差分値の和をD、しきい値をD0とした場合、以下の式(2)を用いて算出することができる。 By evaluating the similarity between the corrected posture information of the subject 20 and the correct posture information of the gymnastics instructor, the degree of match between the movements of the subject 20 and the movements of the gymnastics instructor can be calculated. The match score can be calculated using the following formula (2), where D is the sum of the difference values of each part of the two postures and D0 is the threshold value.
なお、OpenPoseで姿勢情報とともに算出される確信度を用いて、確信度が低い情報については一致度スコアに影響しないような処理を加えることなども考えられる。 Note that it is also possible to use the confidence calculated together with posture information in OpenPose and add processing to information with low confidence that does not affect the matching score.
続いて、制御装置100は、対称性スコアを算出するために、ペアとなる2つの画像を抽出する(ステップS115)。次に、制御装置100は、抽出した2つの画像に基づいて対称性スコアを算出する(ステップS116)。次に、制御装置100は、一致度スコアと、対称性スコアと、運動強度スコアとから健康スコアを算出する(ステップS117)。次に、制御装置100は、評価シートを作成し(ステップS118)、作成した評価シートを対象者20の通信装置12に送信し(ステップS119)、処理を終える。
Next, the
健康スコアは、一致度スコアと、対称性スコアと、運動強度スコアとを用いた様々な演算手法によって算出することができる。たとえば、一致度スコアと、対称性スコアと、運動強度スコアとのそれぞれを足し合わせることで、健康スコアを算出してもよい。あるいは、それぞれを足し合わせる前に、それぞれに所定の重みづけを施してもよい。
[変形例]
第1実施の形態においては、表情筋センサ14の検出値に基づいて、対象者の表情を解析するものとした。しかしながら、対象者の表情は、対象者を含む画像から解析してもよい。この場合、図10のフローチャートのステップS1で読み込んだ画像を利用して、ステップS4において対象者の表情を解析することが考えられる。画像から表情を解析する際には、画像に基づいて表情を推定する各種のAI技術を採用すればよい。画像に基づいて表情を解析できれば、ステップS2において表情筋センサ14の検出値を取得しなくてもよい。なお、画像と表情筋センサ14の検出値とを用いて表情を解析してもよい。
The health score can be calculated by various calculation methods using the coincidence score, the symmetry score, and the exercise intensity score. For example, the health score may be calculated by adding up the coincidence score, the symmetry score, and the exercise intensity score. Alternatively, a predetermined weighting may be applied to each of the scores before adding them up.
[Variations]
In the first embodiment, the facial expression of the subject is analyzed based on the detection value of the
第2実施の形態では、対象者20の心拍数に基づいて運動強度を算出した。しかし、第2実施の形態において、対象者20の心拍数と表情とを組合せて運動強度を算出してもよい。対象者20の表情は、表情筋センサ14の検出値に基づいて推定してもよく、フレーム画像から対象者20の表情を推定してもよい。また、表情に基づいて運動強度を算出してもよい。たとえば、対象者20が辛い表情を見せた回数に基づいて運動強度を算出することが考えられる。対象者20が辛い表情を見せた回数と心拍数とに基づいて運動強度を算出してもよい。
In the second embodiment, the exercise intensity was calculated based on the heart rate of the subject 20. However, in the second embodiment, the exercise intensity may be calculated by combining the heart rate and facial expression of the subject 20. The facial expression of the subject 20 may be estimated based on the detected value of the
以上、各実施の形態および変形例に係る身体能力提示方法および身体能力提示装置によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる情報を提示可能である。 As described above, according to the physical ability presentation method and the physical ability presentation device according to each embodiment and modification, it is possible to present information that can appropriately evaluate the physical ability of the target person while taking into account the load on the target person. .
[態様]
上記した実施の形態およびその変形例は、以下の態様の具体例であることが当業者により理解される。
[Aspects]
It will be understood by those skilled in the art that the above-described embodiment and its modifications are specific examples of the following aspects.
(第1項)一態様に係る身体能力提示方法は、対象者の身体能力に関する情報を提示する身体能力提示方法であって、対象者を含む画像から対象者の姿勢情報を生成するステップ(ステップS2)と、対象者の生体情報を取得するステップ(ステップS3)と、姿勢情報に基づいて対象者の姿勢を特定するステップ(ステップS4)と、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定するステップ(ステップS5)と、姿勢情報に基づいて特定された対象者の姿勢と、生体情報に基づいて特定された対象者の姿勢に対する対象者の負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示するステップ(ステップS10)とを備える。 (Section 1) A physical ability presentation method according to one aspect is a physical ability presentation method for presenting information regarding the physical ability of a target person, and includes a step (step) of generating posture information of the target person from an image including the target person. S2), a step of acquiring biological information of the subject (step S3), a step of identifying the posture of the subject based on the posture information (step S4), and a step of identifying the subject's posture based on the biometric information. The step of specifying the load of the subject (step S5), the posture of the subject specified based on the posture information, and the load of the subject corresponding to the posture of the subject specified based on the biological information are combined. and a step of presenting specific information regarding the physical ability of the subject (step S10).
第1項に記載の身体能力提示方法によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる。
According to the physical ability presentation method described in
(第2項)第1項に記載の身体能力提示方法において、特定情報は、対象者の身体能力を評価するための基準情報(基準ラインLs)を含む。 (2) In the physical ability presentation method described in 1, the specific information includes reference information (reference line Ls) for evaluating the subject's physical ability.
第2項に記載の身体能力提示方法によれば、基準情報に基づいて対象者の身体能力を評価することができる。
The physical ability presentation method described in
(第3項)第2項に記載の身体能力提示方法において、特定情報は、対象者の評価スコア(評価、一致度スコア、対称性スコア、運動強度スコア、健康スコア)を含む。
(Section 3) In the physical ability presentation method described in
第3項に記載の身体能力提示方法によれば、評価スコアに基づいて対象者の身体能力を評価することができる。
According to the physical ability presentation method described in
(第4項)第1項から第3項のいずれか1項に記載の身体能力提示方法において、姿勢情報を取得するステップは、対象者の動作(関節角度、関節速度、ラジオ体操)から姿勢情報を取得するステップを含む。
(Paragraph 4) In the physical ability presentation method according to any one of
第4項に記載の身体能力提示方法によれば、対象者の動作に関して、対象者の身体能力を評価することができる。
According to the physical ability presentation method described in
(第5項)第1項から第4項のいずれか1項に記載の身体能力提示方法において、生体情報は、対象者の表情(辛さ)に関する情報である。
(5) In the physical ability presentation method described in any one of
第5項に記載の身体能力提示方法によれば、対象者の表情から対象者の負荷を特定することができる。
According to the physical ability presentation method described in
(第6項)第5項に記載の身体能力提示方法において、生体情報を取得するステップは、対象者の顔に取り付けた表情筋センサ(表情筋センサ14)の検出値に基づいて、または、画像に基づいて、対象者の表情に関する情報を取得するステップを含む(ステップS5)。
(Section 6) In the physical ability presentation method described in
第6項に記載の身体能力提示方法によれば、対象者の表情に関する情報を適切に取得することができる。 The physical ability presentation method described in paragraph 6 makes it possible to appropriately obtain information regarding the subject's facial expressions.
(第7項)第1項から第4項のいずれかに記載の身体能力提示方法において、生体情報は、対象者の心拍に関する情報(心拍数)である。
(Section 7) In the physical ability presentation method according to any one of
第7項に記載の身体能力提示方法によれば、対象者の心拍からに対象者の負荷を特定することができる。 According to the physical ability presenting method described in item 7, the load on the subject can be identified from the subject's heartbeat.
(第8項)第7項に記載の身体能力提示方法において、生体情報を取得するステップは、対象者に取り付けた心拍計(心拍計15)の計測値に基づいて、または、画像に基づいて、対象者の心拍に関する情報を取得するステップを含む(ステップS103)。 (Section 8) In the physical ability presentation method described in Section 7, the step of acquiring biological information is based on a measured value of a heart rate monitor (heart rate monitor 15) attached to the subject or based on an image. , including the step of acquiring information regarding the subject's heartbeat (step S103).
第8項に記載の身体能力提示方法によれば、対象者の心拍を適切に取得することができる。 According to the physical ability presentation method described in Section 8, the subject's heartbeat can be appropriately acquired.
(第9項)第1項から第8項のいずれか1項に記載の身体能力提示方法において、特定情報は、対象者の過去の複数の姿勢情報および生体情報を含む(図8)。
(Clause 9) In the physical ability presentation method described in any one of
第9項に記載の身体能力提示方法によれば、対象者の過去の複数の姿勢情報および生体情報を特定できる。 The physical ability presentation method described in paragraph 9 makes it possible to identify multiple past posture information and biometric information of the subject.
(第10項)第1項から第6項のいずれか1項に記載の身体能力提示方法において、姿勢情報は、対象者の関節の角度に関する情報(図2、図3)を含む。
(10) In the physical ability presentation method described in any one of
第10項に記載の身体能力提示方法によれば、対象者の関節の角度に関する身体能力を評価することができる。
According to the physical ability presenting method described in
(第11項)第1項から第6項のいずれか1項に記載の身体能力提示方法において、姿勢情報は、対象者の関節の速度に関する情報(図4)を含む。
(Section 11) In the physical ability presentation method according to any one of
第11項に記載の身体能力提示方法によれば、対象者の関節の速度に関する身体能力を評価することができる。 According to the physical ability presentation method described in Section 11, it is possible to evaluate the physical ability of a subject regarding joint speed.
(第12項)第1項から第3項のいずれか1項に記載の身体能力提示方法において、姿勢情報は、対象者に対して左右対称の動作を行わせたときに対象者から得られた姿勢情報(図12:対称性)を含む。
(Paragraph 12) In the physical ability presentation method according to any one of
第12項に記載の身体能力提示方法によれば、対象者の左右対称の動作に関する身体能力を評価することができる。
The physical ability presentation method described in
(第13項)他の態様に係る身体能力提示装置は、対象者の身体能力に関する情報を提示する身体能力提示装置(制御装置100)であって、対象者を含む画像から対象者の姿勢情報を生成する生成部(ステップS2)と、対象者の生体情報を取得する取得部(ステップS3)と、姿勢情報に基づいて対象者の姿勢を特定する姿勢特定部(ステップS4)と、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定する負荷特定部(ステップS5)と、姿勢特定部により特定された姿勢と、負荷特定部により特定された負荷と、を組み合わせて、対象者の身体能力に関する特定情報を提示する提示部(ステップS10)とを備える。 (Section 13) A physical ability presentation device according to another aspect is a physical ability presentation device (control device 100) that presents information regarding the physical ability of a subject, and the posture information of the subject is obtained from an image including the subject. a generation unit that generates (step S2), an acquisition unit that acquires biological information of the subject (step S3), a posture identification unit that specifies the posture of the subject based on posture information (step S4), A load identification unit (step S5) that identifies the load on the subject with respect to the subject's posture based on and a presentation unit (step S10) that presents specific information regarding the physical ability of the user.
第13項に記載の身体能力提示装置によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる。
According to the physical ability presenting device described in
今回開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and it is intended that all changes within the meaning and range equivalent to the claims are included.
10 家、12 通信装置、13 カメラ、14 表情筋センサ、15 心拍計、16 パーソナルコンピュータ、20 対象者、30 インターネット、100 制御装置、101 プロセッサ、102 メモリ、103 通信部、200 表示部。 10 House, 12 Communication device, 13 Camera, 14 Facial muscle sensor, 15 Heart rate monitor, 16 Personal computer, 20 Subject, 30 Internet, 100 Control device, 101 Processor, 102 Memory, 103 Communication unit, 200 Display unit.
Claims (10)
対象者を含む画像から前記対象者の姿勢情報を生成するステップと、
前記対象者の生体情報を取得するステップと、
前記姿勢情報に基づいて対象者の姿勢を特定するステップと、
前記生体情報に基づいて前記対象者の姿勢に対する前記対象者の負荷を特定するステップと、
前記姿勢情報に基づいて特定された前記対象者の姿勢と、前記生体情報に基づいて特定された前記対象者の姿勢に対する前記対象者の負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示するステップとを備え、
前記生体情報は、前記対象者の顔に取り付けた表情筋センサまたは前記対象者に取り付けた心拍計の計測値により取得される、身体能力提示方法。 A physical ability presentation method for presenting information regarding a target person's physical ability, the method comprising:
generating posture information of the subject from an image including the subject;
acquiring biometric information of the subject;
identifying the posture of the subject based on the posture information;
identifying a load on the subject relative to the subject's posture based on the biological information ;
A combination of the posture of the subject specified based on the posture information and the load of the subject with respect to the posture of the subject specified based on the biological information is used to identify the physical ability of the subject. presenting the information ;
The biological information is acquired by a facial muscle sensor attached to the subject's face or a measured value of a heart rate monitor attached to the subject .
対象者を含む画像から前記対象者の姿勢情報を生成する生成部と、
前記対象者の生体情報を取得する取得部と、
前記姿勢情報に基づいて対象者の姿勢を特定する姿勢特定部と、
前記生体情報に基づいて前記対象者の姿勢に対する前記対象者の負荷を特定する負荷特定部と、
前記姿勢特定部により特定された姿勢と、前記負荷特定部により特定された負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示する提示部とを備え、
前記生体情報は、前記対象者の顔に取り付けた表情筋センサまたは前記対象者に取り付けた心拍計の計測値により取得される、身体能力提示装置。 A physical ability presentation device that presents information regarding a subject's physical ability,
a generation unit that generates posture information of the target person from an image including the target person;
an acquisition unit that acquires biological information of the subject;
a posture identification unit that identifies the posture of the subject based on the posture information;
a load identifying unit that identifies a load on the subject relative to the subject's posture based on the biological information ;
a presenting unit that presents specific information regarding the physical ability of the subject by combining the posture specified by the posture specifying unit and the load specified by the load specifying unit ;
The biological information is acquired by a facial muscle sensor attached to the subject's face or a measured value of a heart rate monitor attached to the subject .
対象者を含む画像から前記対象者の姿勢情報を生成するステップと、
前記対象者の生体情報を取得するステップと、
前記姿勢情報に基づいて対象者の姿勢を特定するステップと、
前記生体情報に基づいて前記対象者の姿勢に対する前記対象者の負荷を特定するステップと、
前記姿勢情報に基づいて特定された前記対象者の姿勢と、前記生体情報に基づいて特定された前記対象者の姿勢に対する前記対象者の負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示するステップとを備え、
前記特定情報は、前記対象者の身体能力を評価するための基準情報を含み、
前記基準情報は、前記対象者の姿勢と、前記対象者の姿勢に対する前記対象者の負荷との関係を示す情報である、身体能力提示方法。 A physical ability presentation method for presenting information regarding a target person's physical ability, the method comprising:
generating posture information of the subject from an image including the subject;
acquiring biometric information of the subject;
identifying the posture of the subject based on the posture information;
identifying a load on the subject relative to the subject's posture based on the biological information;
A combination of the posture of the subject specified based on the posture information and the load of the subject with respect to the posture of the subject specified based on the biological information is used to identify the physical ability of the subject. presenting the information;
The specific information includes reference information for evaluating the physical ability of the subject,
The reference information is information indicating a relationship between a posture of the subject and a load of the subject with respect to the posture of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020091411A JP7459658B2 (en) | 2020-05-26 | 2020-05-26 | Physical ability presentation method and physical ability presentation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020091411A JP7459658B2 (en) | 2020-05-26 | 2020-05-26 | Physical ability presentation method and physical ability presentation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021185999A JP2021185999A (en) | 2021-12-13 |
JP7459658B2 true JP7459658B2 (en) | 2024-04-02 |
Family
ID=78850071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020091411A Active JP7459658B2 (en) | 2020-05-26 | 2020-05-26 | Physical ability presentation method and physical ability presentation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7459658B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023171356A1 (en) * | 2022-03-07 | 2023-09-14 | ソニーグループ株式会社 | Patient monitoring system, patient monitoring method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307927A1 (en) | 2012-08-23 | 2014-10-16 | Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, | Tracking program and method |
JP2016522049A (en) | 2013-05-31 | 2016-07-28 | ナイキ イノベイト シーブイ | Dynamic sampling |
JP2019063091A (en) | 2017-09-29 | 2019-04-25 | 株式会社生命科学インスティテュート | Maintenance system, maintenance method, and maintenance program |
JP2019200673A (en) | 2018-05-17 | 2019-11-21 | 株式会社ニューロスペース | Presentation device, method for presentation, and program |
JP2020048827A (en) | 2018-09-26 | 2020-04-02 | Kddi株式会社 | Information processing device, support method, and support system |
-
2020
- 2020-05-26 JP JP2020091411A patent/JP7459658B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307927A1 (en) | 2012-08-23 | 2014-10-16 | Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, | Tracking program and method |
JP2016522049A (en) | 2013-05-31 | 2016-07-28 | ナイキ イノベイト シーブイ | Dynamic sampling |
JP2019063091A (en) | 2017-09-29 | 2019-04-25 | 株式会社生命科学インスティテュート | Maintenance system, maintenance method, and maintenance program |
JP2019200673A (en) | 2018-05-17 | 2019-11-21 | 株式会社ニューロスペース | Presentation device, method for presentation, and program |
JP2020048827A (en) | 2018-09-26 | 2020-04-02 | Kddi株式会社 | Information processing device, support method, and support system |
Also Published As
Publication number | Publication date |
---|---|
JP2021185999A (en) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Leightley et al. | Automated analysis and quantification of human mobility using a depth sensor | |
US20170243354A1 (en) | Automatic frontal-view gait segmentation for abnormal gait quantification | |
Moniri et al. | Real-time forecasting of sEMG features for trunk muscle fatigue using machine learning | |
US9510789B2 (en) | Motion analysis method | |
Houmanfar et al. | Movement analysis of rehabilitation exercises: Distance metrics for measuring patient progress | |
JP7057589B2 (en) | Medical information processing system, gait state quantification method and program | |
US9826923B2 (en) | Motion analysis method | |
CN113647939B (en) | Artificial intelligence rehabilitation evaluation and training system for spinal degenerative diseases | |
CN111937078A (en) | Body function autonomous assistance device and method thereof | |
Malik et al. | An intelligent recovery progress evaluation system for ACL reconstructed subjects using integrated 3-D kinematics and EMG features | |
CN114999646B (en) | Newborn exercise development assessment system, method, device and storage medium | |
JP2022008806A (en) | Blood pressure estimation system, blood pressure estimation method, learning device, learning method, and program | |
Dutta et al. | Poststroke grasp ability assessment using an intelligent data glove based on action research arm test: development, algorithms, and experiments | |
Esfahlani et al. | Machine Learning role in clinical decision-making: Neuro-rehabilitation video game | |
JP7459658B2 (en) | Physical ability presentation method and physical ability presentation device | |
Leitner et al. | A human-centered machine-learning approach for muscle-tendon junction tracking in ultrasound images | |
Pashley et al. | Assessment of upper limb abnormalities using the Kinect: reliability, validity and detection accuracy in people living with acquired brain injury | |
Amor et al. | A framework for interpretable full-body kinematic description using geometric and functional analysis | |
JP7455991B2 (en) | Information processing device and information processing method | |
Albert et al. | A computer vision approach to continuously monitor fatigue during resistance training | |
Nahavandi et al. | A low cost anthropometric body scanning system using depth cameras | |
Sukhadia et al. | IMU-Based Approach to Detect Spastic Cerebral Palsy in Infants at Early Stages | |
US20240130636A1 (en) | Apparatus and method for motion capture | |
US20240225483A9 (en) | Apparatus and method for motion capture | |
JP7357872B2 (en) | Computer system, method, and program for estimating the state of a subject |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459658 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |