JP7459658B2 - Physical ability presentation method and physical ability presentation device - Google Patents

Physical ability presentation method and physical ability presentation device Download PDF

Info

Publication number
JP7459658B2
JP7459658B2 JP2020091411A JP2020091411A JP7459658B2 JP 7459658 B2 JP7459658 B2 JP 7459658B2 JP 2020091411 A JP2020091411 A JP 2020091411A JP 2020091411 A JP2020091411 A JP 2020091411A JP 7459658 B2 JP7459658 B2 JP 7459658B2
Authority
JP
Japan
Prior art keywords
subject
posture
information
physical ability
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020091411A
Other languages
Japanese (ja)
Other versions
JP2021185999A (en
Inventor
秋絵 外口
裕介 中井
義典 大野
薫 小川
諭史 松岡
洋平 山田
剛士 大野
雄介 玉井
慎司 今井
哲哉 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2020091411A priority Critical patent/JP7459658B2/en
Publication of JP2021185999A publication Critical patent/JP2021185999A/en
Application granted granted Critical
Publication of JP7459658B2 publication Critical patent/JP7459658B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

本開示は、身体能力提示方法および身体能力提示装置に関する。 This disclosure relates to a physical ability presentation method and a physical ability presentation device.

近年、人の姿勢を推定する技術の開発が進んでいる。非特許文献1には、ラジオ体操をする人の関節の角度をモーションセンサデバイスで計算し、計算した角度と理想の角度との差分を、リハビリテーションシステムでのトレーニング前後で比較することが開示されている。 In recent years, there has been progress in the development of technology to estimate human posture. Non-Patent Document 1 discloses that the angles of the joints of a person doing radio calisthenics are calculated using a motion sensor device, and the difference between the calculated angles and the ideal angles is compared before and after training in a rehabilitation system.

大野翔平,外4名,“Kinectを用いたフィジカルトレーニング効果の分析手法の提案”,第3分冊,第367頁~368頁[online],平成30年,FIT2018(第17回情報科学技術フォーラム),[令和2年3月26日検索],インターネット30<URL:https://www.ieice.org/publications/conference-FIT-DVDs/FIT2018/data/pdf/K-027.pdf>Shohei Ohno and 4 others, “Proposal of analysis method of physical training effect using Kinect”, Volume 3, pp. 367-368 [online], 2018, FIT2018 (17th Information Science and Technology Forum) , [Retrieved March 26, 2020], Internet 30 <URL: https://www.ieice.org/publications/conference-FIT-DVDs/FIT2018/data/pdf/K-027.pdf>

非特許文献1に記載された技術によれば、トレーニング後の対象者の身体能力を評価することができる。しかし、例えば、対象者が良い評価を得ようとして無理をし過ぎることは、対象者の体に良くない。また、対象者が無理をして取得した評価をベースに立てた新たな目標は、対象者にとって必要以上にハードルの高い目標になる。このため、対象者が無理をして取得した評価は、対象者の身体能力に対する適切な評価であるといえない。一方、対象者が無理なく出し切ることのできる力を発揮せずに取得した評価も、対象者の身体能力に対する適切な評価であるといえない。 According to the technique described in Non-Patent Document 1, it is possible to evaluate the physical ability of a subject after training. However, for example, it is not good for the subject's body to push himself too hard in order to get a good evaluation. Furthermore, new goals that are set based on evaluations that the target person has acquired through effort will become goals that are more difficult for the target person than necessary. For this reason, an evaluation obtained by forcing the subject to obtain it cannot be said to be an appropriate evaluation of the subject's physical ability. On the other hand, an evaluation obtained without the subject exerting his/her ability to the best of his/her ability cannot be said to be an appropriate evaluation of the subject's physical ability.

本開示の目的は、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる情報を提示することである。 The purpose of this disclosure is to present information that allows for an appropriate assessment of a subject's physical ability while taking into account the burden placed on the subject.

本開示のある局面に従う身体能力提示方法は、対象者を含む画像から対象者の姿勢情報を生成するステップと、対象者の生体情報を取得するステップと、姿勢情報に基づいて対象者の姿勢を特定するステップと、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定するステップと、姿勢情報に基づいて特定された対象者の姿勢と、生体情報に基づいて特定された対象者の姿勢に対する対象者の負荷と、を組み合わせて、対象者の身体能力に関する特定情報を提示するステップとを備える。 A physical ability presentation method according to an aspect of the present disclosure includes the steps of generating posture information of a subject from an image including the subject, acquiring biological information of the subject, and determining the posture of the subject based on the posture information. a step of identifying the target person's load on the target person's posture based on the biological information; a step of identifying the target person's load on the target person's posture based on the posture information; and a step of presenting specific information regarding the physical ability of the subject by combining the subject's load on the posture.

本開示の他の局面に従う身体能力提示装置は、対象者を含む画像から対象者の姿勢情報を生成する生成部と、対象者の生体情報を取得する取得部と、姿勢情報に基づいて対象者の姿勢を特定する姿勢特定部と、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定する負荷特定部と、姿勢特定部により特定された姿勢と、負荷特定部により特定された負荷と、を組み合わせて、対象者の身体能力に関する特定情報を提示する提示部とを備える。 A physical ability presentation device according to another aspect of the present disclosure includes a generation unit that generates posture information of a subject from an image including the subject, an acquisition unit that acquires biometric information of the subject, a posture identification unit that identifies the posture of the subject based on the posture information, a load identification unit that identifies the load on the subject relative to the posture of the subject based on the biometric information, and a presentation unit that combines the posture identified by the posture identification unit and the load identified by the load identification unit to present specific information regarding the physical ability of the subject.

本開示によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる情報を提示可能である。 According to the present disclosure, it is possible to present information that allows for an appropriate assessment of the subject's physical ability while taking into account the burden on the subject.

本実施の形態に係るシステム全体の構成を示す図である。1 is a diagram showing the overall configuration of a system according to an embodiment of the present invention; 対象者の特徴点の位置と右肩の関節角度の関係を示す図である。FIG. 13 is a diagram showing the relationship between the positions of feature points of a subject and the joint angle of the right shoulder. 対象者の肩の動き具合を示すヒストグラムである。This is a histogram showing the degree of shoulder movement of the subject. 対象者の肩の関節角度の変化を示すグラフである。1 is a graph showing changes in the subject's shoulder joint angle. 強度の段階と評価の段階とを示す図である。It is a figure showing the stage of strength and the stage of evaluation. 対象者の肩の関節角度および強度と、目標角度および目標強度との関係を示す表である。1 is a table showing the relationship between the subject's shoulder joint angle and strength and the target angle and target strength. 対象者の肩の関節角度および強度と、目標角度および目標強度との関係を示すグラフである。1 is a graph showing the relationship between a subject's shoulder joint angle and strength and a target angle and target strength. 対象者の過去の測定結果と現在の測定結果とを示す表である。It is a table showing past measurement results and current measurement results of the subject. 対象者の過去の測定結果を基準とした場合の、対象者の肩の関節角度および強度と、目標角度および目標強度との関係を示すグラフである。It is a graph showing the relationship between the joint angle and strength of the subject's shoulder, and the target angle and target strength, based on the subject's past measurement results. 対象者の身体能力を評価するための制御の内容を示すフローチャートである。It is a flowchart which shows the content of control for evaluating a subject's physical ability. 一致度の評価画面の一例を示す図である。FIG. 3 is a diagram showing an example of a matching degree evaluation screen. 対称性の評価画面の一例を示す図である。FIG. 13 is a diagram showing an example of a symmetry evaluation screen. 対象者の身体能力を示す第1評価シートである。This is a first evaluation sheet showing the physical ability of the subject. 対象者の身体能力を示す第2評価シートである。This is a second evaluation sheet showing the physical ability of the subject. 対象者の身体能力を評価するための制御の内容を示すフローチャートである。It is a flowchart which shows the content of control for evaluating a subject's physical ability. 対象者の身体能力を評価するための制御の内容を示すフローチャートである。It is a flowchart which shows the content of control for evaluating a subject's physical ability.

以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
[実施の形態1]
<システム構成>
図1は、実施の形態1に係るシステム全体の構成を示す図である。制御装置100は、身体能力が評価される対象の者(以下、これを対象者と称する。)20の身体能力に関する情報を収集する。制御装置100は、対象者20から収集した情報に基づいて、対象者20の身体能力を評価する。
Embodiments of the present disclosure will be described in detail below with reference to the drawings. In addition, the same reference numerals are attached to the same or corresponding parts in the drawings, and the description thereof will not be repeated.
[Embodiment 1]
<System configuration>
FIG. 1 is a diagram showing the configuration of the entire system according to the first embodiment. The control device 100 collects information regarding the physical ability of a person 20 whose physical ability is to be evaluated (hereinafter referred to as a target person). The control device 100 evaluates the physical ability of the subject 20 based on the information collected from the subject 20.

制御装置100は、インターネット30などの通信網を介して、対象者20の家10に設置された通信装置12と接続されている。通信装置12は、対象者20を撮影するためのカメラ13と接続されている。対象者20には、対象者20の表情を検出するための複数の表情筋センサ14が取り付けられている。表情筋センサ14は、対象者20の顔の筋肉から発せられる電位信号を検出する。表情筋センサ14は、通信装置12と無線接続されている。複数の表情筋センサ14の検出値によって特定される表情は、対象者20の生体情報の一例である。 The control device 100 is connected to a communication device 12 installed in the house 10 of the subject 20 via a communication network such as the Internet 30. The communication device 12 is connected to a camera 13 for photographing the subject 20. A plurality of facial muscle sensors 14 are attached to the subject 20 for detecting the facial expressions of the subject 20. The facial muscle sensor 14 detects potential signals emitted from the facial muscles of the subject 20. The facial muscle sensor 14 is wirelessly connected to the communication device 12. The facial expression specified by the detection values of the plurality of facial muscle sensors 14 is an example of the subject's 20 biological information.

カメラ13は、対象者20を撮影するために最適な場所に設置されている。たとえば、対象者20の肩の関節の動きを評価の対象とする場合、対象者20の肩の動きを撮影し易い位置にカメラ13を設置することが望ましい。たとえば、その位置がキッチンである場合には、図1に示すようにカメラ13をキッチンに設置する。カメラ13の撮影方向は、対象者20の肩付近とする。対象者20がキッチン内を移動したときに、対象者20の肩付近に撮影方向を自動的に切り替える機能をカメラ13に設けてもよい。 The camera 13 is installed in an optimal location for photographing the subject 20. For example, if the movement of the shoulder joint of the subject 20 is to be evaluated, it is desirable to install the camera 13 in a location where it is easy to photograph the shoulder movement of the subject 20. For example, if the location is a kitchen, the camera 13 is installed in the kitchen as shown in FIG. 1. The shooting direction of the camera 13 is near the shoulder of the subject 20. The camera 13 may be provided with a function that automatically switches the shooting direction to near the shoulder of the subject 20 when the subject 20 moves around the kitchen.

以下、第1実施の形態では、対象者20の身体能力の評価の一例として、対象者20の肩の動きを評価することを採り上げて説明することとする。 In the following, in the first embodiment, we will explain the evaluation of the shoulder movement of subject 20 as an example of evaluating the physical ability of subject 20.

カメラ13は、撮影した動画を通信装置12へ送信する。表情筋センサ14は対象者20の表情筋の検出値を通信装置12へ送信する。通信装置12は、カメラ13によって撮影された動画、および表情筋センサ14の検出値をインターネット30などの通信網を介して制御装置100へ送信する。 The camera 13 transmits the captured video to the communication device 12. The facial muscle sensor 14 transmits the detection values of the facial muscles of the subject 20 to the communication device 12. The communication device 12 transmits the video captured by the camera 13 and the detection values of the facial muscle sensor 14 to the control device 100 via a communication network such as the Internet 30.

制御装置100は、プロセッサ101と、メモリ102と、通信部103とを有する。これらの各部は互いに通信可能に接続される。 The control device 100 has a processor 101, a memory 102, and a communication unit 103. These units are connected to each other so that they can communicate with each other.

プロセッサ101は、典型的には、CPU(Central Processing Unit)またはMPU(Multi Processing Unit)などの演算処理部である。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することで、制御装置100の処理を実現する。なお、図1の例では、プロセッサが単数である構成を例示しているが、制御装置100は複数のプロセッサを有する構成としてもよい。 The processor 101 is typically an arithmetic processing unit such as a CPU (Central Processing Unit) or an MPU (Multi Processing Unit). The processor 101 realizes the processing of the control device 100 by reading and executing a program stored in the memory 102. Note that while the example in FIG. 1 illustrates a configuration with a single processor, the control device 100 may also be configured with multiple processors.

メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)およびフラッシュメモリなどの不揮発性メモリによって実現される。メモリ102は、プロセッサ101によって実行されるプログラム、またはプロセッサ101によって用いられるデータなどを記憶する。 The memory 102 is realized by nonvolatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory. The memory 102 stores programs executed by the processor 101, data used by the processor 101, and the like.

なお、メモリ102は、コンピュータの一種である制御装置100が可読可能な形式で非一時的にプログラムを記録することができれば、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリーカード、FD(Flexible Disk)、ハードディスク、SSD(Solid State Drive)、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリーカードを除く)、光カード、マスクROM、またはEPROMであってもよい。 Note that the memory 102 may be a CD-ROM (Compact Disc - Read Only Memory), a DVD-ROM (Digital Versatile Disk - Read Only Memory), a USB (Universal Serial Bus) memory, a memory card, a FD (Flexible Disk), a hard disk, an SSD (Solid State Drive), a magnetic tape, a cassette tape, an MO (Magnetic Optical Disc), an MD (Mini Disc), an IC (Integrated Circuit) card (excluding memory cards), an optical card, a mask ROM, or an EPROM, as long as it can non-temporarily record a program in a format that can be read by the control device 100, which is a type of computer.

通信部103は、インターネット30に接続されるとともに、表示部200に接続される。通信部103は、対象者20の家10に設置された通信装置12および表示部200と通信するためのインターフェイスである。 The communication unit 103 is connected to the Internet 30 and to the display unit 200. The communication unit 103 is an interface for communicating with the communication device 12 and the display unit 200 installed in the home 10 of the subject 20.

表示部200は、液晶表示パネルなどによって構成される。表示部200は、たとえば、プロセッサ101が実行した演算結果などを表示する。典型的には、表示部200は、対象者20の身体能力に関する評価などが表示される。 The display unit 200 is composed of a liquid crystal display panel or the like. The display unit 200 displays, for example, the results of calculations executed by the processor 101. Typically, the display unit 200 displays an evaluation regarding the physical ability of the subject 20.

制御装置100は、対象者20を撮影した動画と表情筋センサ14の検出値とを通信装置12から受信する。対象者20を撮影した動画は、複数のフレーム画像で構成されている。制御装置100は、フレーム画像とそのフレーム画像を受信したタイミングで受信した表情筋センサ14の検出値とを対応付けてメモリ102に格納する。 The control device 100 receives a video of the subject 20 and the detection values of the facial muscle sensor 14 from the communication device 12. The video of the subject 20 is composed of a number of frame images. The control device 100 associates the frame images with the detection values of the facial muscle sensor 14 received at the time the frame images were received, and stores them in the memory 102.

制御装置100は、メモリ102に格納したフレーム画像に基づいて対象者20の姿勢を推定する。制御装置100は、位置推定用学習済モデルを用いて対象者20の姿勢を推定する。位置推定用学習済モデルは、フレーム画像に含まれる特徴量を入力することで、人体の関節の位置を推定結果として出力するニューラルネットワークモデルである。位置推定用学習済モデルとして、たとえば、CMU(Carnegie Mellon University)が開発したOpenPose、Microsoft社が開発したHuman-pose-estimation、またはgoogle社が開発したposeNetなどを用いることが考えられる。 The control device 100 estimates the posture of the subject 20 based on the frame images stored in the memory 102. The control device 100 estimates the posture of the subject 20 using a trained model for position estimation. The trained model for position estimation is a neural network model that inputs features contained in the frame images and outputs the positions of the joints of the human body as an estimation result. As the trained model for position estimation, for example, OpenPose developed by CMU (Carnegie Mellon University), Human-pose-estimation developed by Microsoft, or PoseNet developed by Google can be used.

姿勢推定と併せて、制御装置100は、表情筋センサ14の検出値をメモリ102から読み出す。読み出される検出値は、姿勢推定に用いたフレーム画像と対応付けてメモリ102に格納されている検出値である。制御装置100は、読み出した検出値に基づいて、対象者20の表情を推定する。対象者20の表情は、表情推定のための各種のAI(Artificial Intelligence)技術を用いて推定することができる。表情推定のための各種のAIは、入力として表情筋センサ14の検出値あるいはカメラで撮影した対象者の顔、あるいは目や口の位置、形状などの顔の特徴点などを入力とし、出力を表情の種類とする。表情の種類は、例えば笑っている、苦しんでいる、といった有限個の分類とする。入力と出力のペアであるデータセットを用いて、表情推定のためのAIを学習させることができる。学習させたAIに、表情筋センサ14の検出値あるいはカメラで撮影した対象者の顔を入力することで、出力として指定した表情の分類を推論結果として得ることができる。 In addition to posture estimation, the control device 100 reads out the detected values of the facial muscle sensor 14 from the memory 102. The detected value to be read is the detected value stored in the memory 102 in association with the frame image used for posture estimation. The control device 100 estimates the facial expression of the subject 20 based on the read detection value. The facial expression of the subject 20 can be estimated using various AI (Artificial Intelligence) techniques for facial expression estimation. Various AIs for facial expression estimation take as input values detected by the facial muscle sensor 14, the subject's face photographed by a camera, or feature points of the face such as the position and shape of the eyes and mouth, and output the output. It is a type of facial expression. The types of facial expressions are classified into a finite number of categories, such as smiling and suffering, for example. AI for facial expression estimation can be trained using a dataset of input and output pairs. By inputting the detected values of the facial muscle sensor 14 or the subject's face photographed by a camera to the trained AI, it is possible to obtain the classification of the specified facial expression as an output as an inference result.

制御装置100は、姿勢推定の結果から対象者20の関節の角度を算出する。たとえば、評価すべき箇所が対象者20の肩の動きであれば、制御装置100は、対象者20の肩の関節角度を算出する。併せて、制御装置100は、表情推定の結果を、段階的に定めた複数の基準値と比較する、もしくは、苦しい顔をしていたら負荷が高いなど、表情の分類ごとに負荷の度合いを定義することによって、肩を動かしたときに対象者20が感じる負荷(辛さ)の度合いを特定する。以下、“負荷の度合い”を“強度”と称する。 The control device 100 calculates the angles of the joints of the subject 20 from the posture estimation results. For example, if the location to be evaluated is the movement of the shoulder of the subject 20, the control device 100 calculates the joint angle of the shoulder of the subject 20. In addition, the control device 100 compares the results of facial expression estimation with a plurality of step-by-step reference values, or defines the degree of load for each facial expression classification, such as if the face has a painful look, the load is high. By doing so, the degree of load (severity) that the subject 20 feels when moving the shoulder is specified. Hereinafter, the "degree of load" will be referred to as "intensity".

制御装置100は、関節の角度と強度とから、対象者20の身体能力を評価する。さらに、制御装置100は、それらの評価の結果を表示部200に表示するとともに、通信部103からインターネット30を介して対象者20の家10に設置された通信装置12へ送信する。通信装置12は、対象者20のパーソナルコンピュータ16と接続されている。対象者20は、パーソナルコンピュータ16を用いて自身の評価を確認することができる。 The control device 100 evaluates the physical ability of the subject 20 based on the angle and strength of the joint. Furthermore, the control device 100 displays the results of those evaluations on the display section 200 and transmits them from the communication section 103 via the Internet 30 to the communication device 12 installed in the house 10 of the subject 20. The communication device 12 is connected to the personal computer 16 of the subject 20. The subject 20 can check his or her own evaluation using the personal computer 16.

制御装置100には、対象者20別に異なる評価基準が記憶されている。たとえば、対象者20が肩のリハビリ中であれば、リハビリの目標値に応じた基準値を制御装置100に設定することが考えられる。
<肩の関節角度の算出>
図2は、対象者20の特徴点の位置と肩の関節角度の関係を示す図である。対象者20を撮影した動画は複数のフレーム画像から構成される。図2は、複数のフレーム画像のうちの1つである。図2に示す符号20a~20kは、対象者20の画像から推定された特徴点を示す。制御装置100は、OpenPoseなどの姿勢推定技術を用いることによって、これらの特徴点20a~20kをフレーム画像から推定する。なお、観察すべき部分が対象者20の指である場合には、指の関節部分の特徴点を推定するものとしてもよい。
The control device 100 stores different evaluation criteria for each subject 20. For example, if the subject 20 is undergoing shoulder rehabilitation, it is conceivable to set in the control device 100 a reference value corresponding to the goal value of the rehabilitation.
<Calculating the shoulder joint angle>
FIG. 2 is a diagram showing the relationship between the positions of feature points of the subject 20 and the shoulder joint angle. A video of the subject 20 is composed of a plurality of frame images. FIG. 2 shows one of the plurality of frame images. Reference numerals 20a to 20k shown in FIG. 2 indicate feature points estimated from the image of the subject 20. The control device 100 estimates these feature points 20a to 20k from the frame images by using a pose estimation technique such as OpenPose. Note that when the part to be observed is the finger of the subject 20, the feature points of the finger joints may be estimated.

図2に示すように、対象者20の右肩の関節角度は、特徴点20a~20kのうち、右肘関節に対応する特徴点20b、右肩関節に対応する特徴点20c、および右股関節に対応する特徴点20dの各々の座標から求められる。具体的には、肩-肘ベクトルをaとし、肩-股関節ベクトルをbとした場合、右肩の関節角度は、以下の式(1)を用いて算出することができる。 As shown in FIG. 2, the right shoulder joint angle of subject 20 is found from the coordinates of feature point 20b corresponding to the right elbow joint, feature point 20c corresponding to the right shoulder joint, and feature point 20d corresponding to the right hip joint, among feature points 20a to 20k. Specifically, when the shoulder-elbow vector is a and the shoulder-hip joint vector is b, the right shoulder joint angle can be calculated using the following formula (1).

Figure 0007459658000001
Figure 0007459658000001

対象者20を撮影した動画には、対象者20の様々な動きが含まれる。たとえば、対象者20の右肩の関節角度に注目する場合には、次のような手法で対象者20の肩の関節角度を決定することが考えられる。まず、姿勢推定技術によって特徴点が抽出された複数のフレーム画像のうちから、図2に示すような特徴点20b、20c、および20dを含むフレーム画像を選択する。次に、選択したフレーム画像のそれぞれに基づいて、対象者20の肩の関節角度を算出する。算出された関節角度のうち、最大の関節角度を対象者20の肩の関節角度として決定する。なお、この手法は一例に過ぎず、他の手法を採用して対象者20の肩の関節角度を決定してもよい。 A video of the subject 20 includes various movements of the subject 20. For example, when focusing on the joint angle of the right shoulder of the subject 20, the following method can be used to determine the shoulder joint angle of the subject 20. First, from among a plurality of frame images in which feature points have been extracted by the posture estimation technology, frame images including feature points 20b, 20c, and 20d as shown in FIG. 2 are selected. Next, the shoulder joint angle of the subject 20 is calculated based on each of the selected frame images. The maximum joint angle of the calculated joint angles is determined as the shoulder joint angle of the subject 20. Note that this method is merely one example, and other methods may be adopted to determine the shoulder joint angle of the subject 20.

対象者20が日常生活でどの程度の範囲で肩を動かしているのかを特定したい場合には、動画を構成するそれぞれのフレーム画像に基づいて算出された肩の関節角度を用いてヒストグラムを作成するとよい。あるいは、一日の対象者20の肩の関節角度の変化を知りたい場合には、フレーム画像に基づいて算出された肩の関節角度とフレーム画像が撮影された時刻とを対応付けたグラフを作成するとよい。これらのヒストグラムおよびグラフは、制御装置100によって作成され、必要に応じて表示部200に表示される。以下、図3および図4を用いてそれぞれを説明する。
<対象者による肩の関節角度の違い>
図3は、ある対象者Aおよびある対象者Bの肩の関節角度の度合いを示すヒストグラムである。図3において、縦軸は肩の関節角度の階級を示し、横軸は階級に対する度数を示す。LAおよびLBは、階級と度数との関係を線形化して得られた曲線を示す。LAは、対象者Aに対応する曲線を示す。LBは、対象者20Bに対応する曲線を示す。図3に示すように、肩の動き具合は対象者20によって異なる。対象者Aは、20度未満から160度を超える角度までの広い範囲で肩関節を動かしている。一方、対象者20Bは、肩の可動範囲が対象者Aよりも狭く、120度を超えて肩関節を動かすことはほとんどない。このように、肩の可動域は人によって異なる。また、肩の可動域は、一般には、高齢になるほど狭くなることが多い。
<肩の関節角度の時間的変化>
図4は、ある対象者20の肩の関節角度の変化を示すグラフである。縦軸は肩の関節角度を示し、横軸は時刻を示す。図4に示すように、肩の関節角度は時刻によって大きく変化する。その変化の様子は、観察時刻に対象者20がどのような作業をしていたかによって大きく異なる。
If it is desired to identify the range of shoulder movement of the subject 20 in daily life, it is advisable to create a histogram using the shoulder joint angle calculated based on each frame image constituting the video. Alternatively, if it is desired to know the change in the shoulder joint angle of the subject 20 throughout the day, it is advisable to create a graph in which the shoulder joint angle calculated based on the frame images corresponds to the time when the frame images were captured. These histograms and graphs are created by the control device 100 and displayed on the display unit 200 as necessary. Each will be described below with reference to Figs. 3 and 4.
<Differences in shoulder joint angle depending on the subject>
FIG. 3 is a histogram showing the degree of shoulder joint angle of a certain subject A and a certain subject B. In FIG. 3, the vertical axis shows the class of the shoulder joint angle, and the horizontal axis shows the degree for the class. LA and LB show curves obtained by linearizing the relationship between the class and the degree. LA shows the curve corresponding to the subject A. LB shows the curve corresponding to the subject 20B. As shown in FIG. 3, the degree of shoulder movement differs depending on the subject 20. The subject A moves his shoulder joint in a wide range from an angle of less than 20 degrees to an angle of more than 160 degrees. On the other hand, the subject 20B has a narrower range of shoulder movement than the subject A, and rarely moves his shoulder joint beyond 120 degrees. In this way, the range of shoulder movement differs depending on the person. In addition, the range of shoulder movement generally tends to become narrower as the person gets older.
<Changes in shoulder joint angle over time>
Fig. 4 is a graph showing changes in the shoulder joint angle of a certain subject 20. The vertical axis shows the shoulder joint angle, and the horizontal axis shows time. As shown in Fig. 4, the shoulder joint angle changes significantly depending on the time. The manner in which this change occurs differs significantly depending on the type of work the subject 20 was doing at the time of observation.

図4に示される関節位置の時系列データから、関節の速度情報を算出することができる。グラフの傾斜と関節速度とは相関関係にある。動画から取得した関節の角度に変えて、動画から取得した関節の速度情報を評価の対象としてもよい。肩の関節の速度情報は、対象者がスムーズに肩を動かすことができているかどうかを判断するための指標となる。また、肩の関節の速度情報に変えて、腕の関節の速度情報を評価の対象としてもよい。腕の関節の速度情報を利用することによって、対象者20が腕をゆっくり上げているかどうかを判断できる。また、脚の関節の速度情報を利用することによって、対象者20の歩行速度を推定することができる。脚の関節の速度情報に対する基準速度は、介護を必要する高齢者の歩行速度に基づいて定めてもよい。 The joint velocity information can be calculated from the time series data of the joint positions shown in FIG. 4. The slope of the graph and the joint velocity are correlated. Instead of the joint angle obtained from the video, the joint velocity information obtained from the video may be used as the subject of evaluation. The shoulder joint velocity information is an index for determining whether the subject can move his/her shoulder smoothly. Also, instead of the shoulder joint velocity information, the arm joint velocity information may be used as the subject of evaluation. By using the arm joint velocity information, it can be determined whether the subject 20 is raising his/her arm slowly. Also, by using the leg joint velocity information, the walking speed of the subject 20 can be estimated. The reference speed for the leg joint velocity information may be determined based on the walking speed of an elderly person who requires care.

図3または図4を参照することによって、対象者20の肩関節の動きの度合いを把握することができる。しかし、図3および図4が示す情報のみでは、対象者20が余裕を持って肩関節を動かしたのか、無理をして肩関節を動かしたのか、という点までは理解できない。そこで、本実施の形態では、対象者20の肩関節の動きと併せて対象者20の表情に着目して、動作が対象者20に与える負荷の度合い(強度)を算出する。 By referring to FIG. 3 or 4, the degree of movement of the shoulder joint of the subject 20 can be grasped. However, with only the information shown in FIGS. 3 and 4, it is not possible to understand whether the subject 20 moved the shoulder joint with sufficient margin or whether he moved the shoulder joint by force. Therefore, in the present embodiment, the degree (intensity) of the load that the movement imparts to the subject 20 is calculated by focusing on the facial expression of the subject 20 in addition to the movement of the shoulder joint of the subject 20.

図5は、強度の段階と評価の段階とを示す図である。本実施の形態では、対象者20に与える負荷の度合いを1つ刻みで-5から+5までの11段階で評価する。中央値の0は、辛くもなく、楽でもない、普通の感じ方に対応する。0から数値が高くなるほど、強度、すなわち、対象者20の辛さの程度は高くなる。一方、0から数値が小さくなるほど、対象者20が楽に感じる程度は高くなる。評価の段階としては、図5に示すように、AからGの7段階が設定されている。Aが最も高い評価を示し、Gが最も低い評価を示す。なお、図示する強度の段階と評価の段階とは一例であり、段階の数をさらに増やしても、逆に段階の数を減らしてもよい。
<対象者の身体能力の評価>
図6は、ある対象者Aの肩の関節角度および強度と、目標角度αおよび目標強度βとの関係、およびそれらに基づく評価を示す表である。図7は、図6の表に基づいて作成されたグラフである。これらの表およびグラフは、制御装置100によって作成される。作成された表およびグラフは、メモリ102に格納される。さらに、制御装置100は、メモリ102に格納された表およびグラフを読み出して表示部200に表示するとともに、インターネット30を介して対象者Aが所有するパーソナルコンピュータ16などへ配信する。
FIG. 5 is a diagram showing the intensity levels and the evaluation levels. In this embodiment, the degree of the load given to the subject 20 is evaluated in 11 levels from -5 to +5 in increments of 1. The median value 0 corresponds to a normal feeling, neither painful nor comfortable. The higher the value from 0, the higher the intensity, i.e., the degree of discomfort felt by the subject 20. On the other hand, the lower the value from 0, the higher the degree of comfort felt by the subject 20. As shown in FIG. 5, seven levels from A to G are set as the evaluation levels. A indicates the highest evaluation, and G indicates the lowest evaluation. Note that the illustrated intensity levels and evaluation levels are merely examples, and the number of levels may be further increased or, conversely, reduced.
<Evaluation of the subject's physical ability>
Fig. 6 is a table showing the relationship between the shoulder joint angle and strength of a certain subject A and the target angle α and target strength β, and an evaluation based thereon. Fig. 7 is a graph created based on the table of Fig. 6. These tables and graphs are created by the control device 100. The created tables and graphs are stored in the memory 102. Furthermore, the control device 100 reads out the tables and graphs stored in the memory 102 and displays them on the display unit 200, and distributes them via the Internet 30 to the personal computer 16 owned by the subject A, etc.

図6を参照して、表には、対象者Aの肩の関節角度が測定された日時と、目標角度αと、対象者Aの角度αaと、目標強度βと、対象者Aの強度βaと、対象者Aに対して与えられた評価Eとが示されている。「目標角度α」は、対象者Aの身体状況に合わせて予め目標として設定された肩の関節角度を示す。「目標強度β」は、目標角度αに対する強度の目標値を示す。 Referring to FIG. 6, the table shows the date and time when the shoulder joint angle of subject A was measured, the target angle α, subject A's angle αa, target strength β, subject A's strength βa, and the evaluation E given to subject A. "Target angle α" indicates the shoulder joint angle that was set in advance as a target in accordance with subject A's physical condition. "Target strength β" indicates the target value of strength for the target angle α.

「対象者Aの角度」は、算出された対象者Aの肩の関節角度を示す。「対象者Aの強度」は、「対象者Aの角度」に対応して算出された対象者Aの強度を示す。「評価」は、算出された対象者Aの肩の関節角度と算出された対象者Aの強度とに基づいて、図5に示した7段階の中から決定される。図6に示す表には、対象者Aの肩の関節角度αaと対象者Aの強度βaとに基づいて決定されたEという評価が示されている。制御装置100は、対象者Aの肩の関節角度を算出する毎に、図6に示す表のデータを追加する。以下、「目標角度α」と「目標強度β」との関係を(α,β)と表し、「対象者Aの角度αa」と「対象者Aの強度βa」との関係を(αa,βa)と表す。また、(αa,βa)を対象者Aの測定結果などと称する。 "Angle of subject A" indicates the calculated shoulder joint angle of subject A. “Intensity of subject A” indicates the intensity of subject A calculated corresponding to “angle of subject A”. The "evaluation" is determined from among the seven levels shown in FIG. 5 based on the calculated joint angle of the shoulder of the subject A and the calculated strength of the subject A. The table shown in FIG. 6 shows an evaluation E determined based on the shoulder joint angle αa of the subject A and the strength βa of the subject A. The control device 100 adds data in the table shown in FIG. 6 every time the shoulder joint angle of the subject A is calculated. Hereinafter, the relationship between "target angle α" and "target intensity β" will be expressed as (α, β), and the relationship between "target person A's angle αa" and "target person A's intensity βa" will be expressed as (αa, βa ). Further, (αa, βa) is referred to as the measurement result of subject A.

制御装置100は、図6に示すデータに基づいて、図7に示すグラフを作成する。グラフの横軸は角度を示し、縦軸は強度を示す。縦軸の強度は、横軸と縦軸とが交わるポイントの数値を0として、上がプラスの数値を、下がマイナスの数値を、それぞれ示す。強度は、値が大きくなるほど、対象者20にとっての辛さ(負荷)が増すことを意味する。強度=0は、対象者20が辛いと感じることも楽と感じることもない、普通の強度を示す。したがって、マイナスの数値の強度は、対象者20が楽に感じる度合いを示す。 The control device 100 creates the graph shown in FIG. 7 based on the data shown in FIG. The horizontal axis of the graph shows the angle, and the vertical axis shows the intensity. For the intensity on the vertical axis, the value at the point where the horizontal and vertical axes intersect is set to 0, and the upper value represents a positive value and the lower value represents a negative value. The intensity means that the larger the value, the more difficult (load) it is for the subject 20. Intensity = 0 indicates a normal intensity that the subject 20 does not find difficult or easy. Therefore, the strength of the negative value indicates the degree to which the subject 20 feels comfortable.

図7のグラフには、基準ラインLsが示される。基準ラインLsは、対象者Aの測定結果(αa、βa)を評価するために用いるラインである。基準ラインLsは、たとえば、人間の標準的な身体的能力に基づいて定めたラインである。なお、基準ラインLsは、対象者毎の身体的能力を考慮して、対象者毎に設定してもよく、性別、年齢を考慮して定めることも考えられる。制御装置100のメモリ102には、複数種類の基準ラインLsのデータが記憶されている。 The graph in FIG. 7 shows a reference line Ls. The reference line Ls is a line used to evaluate the measurement results (αa, βa) of subject A. The reference line Ls is a line determined, for example, based on the standard physical ability of humans. Note that the reference line Ls may be set for each subject, taking into account the physical ability of each subject, and may also be determined taking into account gender and age. Data for multiple types of reference lines Ls is stored in the memory 102 of the control device 100.

図7のグラフには、対象者Aの目標角度と目標強度とに対応する(α,β)が示される。(α,β)は、基準ラインLs上にあり、目標強度βは0に設定される。さらに、グラフには、対象者Aの測定結果に対応する(αa,βa)が示される。 The graph of FIG. 7 shows (α, β) corresponding to the target angle and target intensity of the subject A. (α, β) is on the reference line Ls, and the target intensity β is set to zero. Furthermore, (αa, βa) corresponding to the measurement result of subject A is shown in the graph.

図7に示すグラフによれば、対象者Aの肩の関節角度αaは、目標角度αに対して角度dlx不足することがわかる。また、グラフの基準ラインLsによれば、肩の関節角度αaに対する標準的な強度はβsであることがわかる。標準的な強度βsは、対象者Aの強度βaよりも小さい。強度βsと強度βaとの差はdlyである。このことから、関節角度αaで肩を動かした対象者Aは、標準よりもdly分の強い負荷を肩に感じていたことになる。 The graph in Figure 7 shows that subject A's shoulder joint angle αa is short of the target angle α by an angle dlx. Furthermore, the reference line Ls on the graph shows that the standard strength for shoulder joint angle αa is βs. The standard strength βs is smaller than subject A's strength βa. The difference between strength βs and strength βa is dly. This means that subject A, who moved his shoulder at joint angle αa, felt a load on his shoulder that was dly heavier than the standard.

制御装置100は、(α,β)を通過する基準ラインLsと、対象者Aのデータ(αa、βa)とに基づいて、対象者Aの身体能力を評価する。たとえば、対象者Aのデータ(αa、βa)が(α,β)の周辺に位置する場合には、7段階の評価のうちの中央に位置するDの評価を対象者Aに与える。 The control device 100 evaluates the physical ability of the subject A based on the reference line Ls passing through (α, β) and the data of the subject A (αa, βa). For example, if subject A's data (αa, βa) is located around (α, β), subject A is given a rating of D, which is located in the middle of the seven-level evaluation.

図7には、対象者Aの他のデータの例として、(αa1、βa1)、(αa2、βa2)、(αa3、βa3)、および(αa4、βa4)が示されている。(αa1、βa1)は、関節角度が目標値αに近いが、強度が目標値をβを超える例である。このデータ例を見た者は、対象者Aが身体的に無理をして肩を動かしているものと推測できる。制御装置100は、対象者Aの測定結果が(αa1、βa1)であった場合、対象者Aの測定結果が(α,β)であった場合よりも、対象者に与える評価を下げる。 Figure 7 shows other data examples for subject A, including (αa1, βa1), (αa2, βa2), (αa3, βa3), and (αa4, βa4). (αa1, βa1) is an example where the joint angle is close to the target value α, but the strength exceeds the target value β. Anyone looking at this data example can infer that subject A is physically straining himself when moving his shoulder. When subject A's measurement result is (αa1, βa1), the control device 100 gives the subject a lower evaluation than when subject A's measurement result is (α, β).

(αa2、βa2)は、関節角度が目標値αに近いが、強度が目標値をβを下回る例である。このデータ例を見た者は、対象者Aが目標レベルの強度よりも低い強度で目標の関節角度を達成しているものと推測できる。制御装置100は、対象者Aの測定結果が(αa2、βa2)であった場合、対象者Aの測定結果が(α,β)であった場合よりも、対象者に与える評価を上げる。 (αa2, βa2) is an example where the joint angle is close to the target value α, but the intensity is below the target value β. Someone looking at this data example can infer that subject A achieved the target joint angle with an intensity lower than the target level of intensity. When subject A's measurement result is (αa2, βa2), the control device 100 gives the subject a higher evaluation than when subject A's measurement result is (α, β).

(αa3、βa3)は、関節角度が目標値αを大幅に上回り、強度が基準値βssを大幅に上回る例である。また、(αa4、βa4)は、関節角度が目標値αを大幅に上回るが、強度が基準値βssを大幅に下回る例である。これらのデータを見た者は、基準ラインLsと、関節角度および強度との関係を考慮して、対象者Aの身体能力を評価できる。また、制御装置100は、対象者Aのそれぞれの測定結果と、基準ラインLsとの距離に基づいて、対象者Aの身体能力を評価する。 (αa3, βa3) is an example in which the joint angle significantly exceeds the target value α and the strength significantly exceeds the reference value βss. Further, (αa4, βa4) is an example in which the joint angle significantly exceeds the target value α, but the strength is significantly lower than the reference value βss. A person viewing these data can evaluate the physical ability of the subject A by considering the relationship between the reference line Ls, the joint angle, and the strength. Furthermore, the control device 100 evaluates the physical ability of the subject A based on the distance between each measurement result of the subject A and the reference line Ls.

なお、図7に示すグラフには、制御装置100による評価のランクを表示するようにしてもよい。たとえば、図7に示すグラフの(αa1、βa1)の隣に「評価ランク=E」と表示することが考えられる。ただし、このような評価のランクを表示しなくても、グラフを見た者は、対象者Aの身体能力を関節角度と強度との2つの側面から評価することが可能である。
<対象者の過去の測定結果に基づいた評価>
図8は、対象者Aの過去の測定結果と現在の測定結果とを示す表である。図9は、対象者Aの過去の測定結果を基準とした場合の、対象者Aの肩の関節角度および強度と、目標角度および目標強度との関係を示すグラフである。図8および図9を参照して、対象者Aの過去の測定結果に基づいて対象者の現在の身体能力を評価する方法を説明する。
Note that the graph shown in FIG. 7 may display the rank of evaluation by the control device 100. For example, it is conceivable to display "evaluation rank=E" next to (αa1, βa1) in the graph shown in FIG. However, even if such evaluation ranks are not displayed, those who view the graph can evaluate the physical ability of subject A from two aspects: joint angle and strength.
<Evaluation based on the subject's past measurement results>
FIG. 8 is a table showing past measurement results and current measurement results of subject A. FIG. 9 is a graph showing the relationship between the shoulder joint angle and strength of the subject A and the target angle and target strength, based on the past measurement results of the subject A. A method for evaluating the current physical ability of a subject A based on past measurement results of the subject A will be described with reference to FIGS. 8 and 9.

図8には、対象者Aの過去のデータを示す表T1と、対象者Aの現在のデータを示す表T2とが示されている。図8の表T1には、2015年の対象者Aの多数の測定結果の一部が示されている。図8の表T2には、2020年の対象者Aの測定結果が示されている。表T2に示される対象者Aの測定結果(αa1、βa1)は、図6に示した対象者Aの測定結果と同じである。しかし、図8の表T2と図6とでは、目標角度、目標強度、および評価が異なっている。これは、評価の基準が両者で異なるためである。 Figure 8 shows table T1 showing past data of subject A, and table T2 showing current data of subject A. Table T1 in Figure 8 shows some of the many measurement results of subject A in 2015. Table T2 in Figure 8 shows the measurement results of subject A in 2020. The measurement results of subject A shown in table T2 (αa1, βa1) are the same as the measurement results of subject A shown in Figure 6. However, the target angle, target intensity, and evaluation are different between table T2 in Figure 8 and Figure 6. This is because the evaluation criteria are different between the two.

図9のPaは、2015年に記録された対象者Aのデータ(図9に示す△)の集合を示している。集合Paを用いることによって、2015年当時の対象者Aの平均的な肩の関節角度α’および強度β’を算出できる。ここでは、算出されたα’を目標角度とし、算出されたβ’を目標強度とする。図9に示す(α’、β’)は、その座標位置を示す。 Pa in FIG. 9 indicates a set of data of subject A recorded in 2015 (Δ in FIG. 9). By using the set Pa, the average shoulder joint angle α' and strength β' of the subject A in 2015 can be calculated. Here, the calculated α' is taken as the target angle, and the calculated β' is taken as the target intensity. (α', β') shown in FIG. 9 indicates the coordinate position.

さらに、集合Paに基づけば2015年当時の対象者Aの測定結果に基づいた基準ラインLs’を算出することができる。図9には、図8に示す基準ラインLsを集合Paに基づいて右方向にスライドさせて成る基準ラインLs’が示されている。 Furthermore, based on set Pa, it is possible to calculate a reference line Ls' based on the measurement results of subject A in 2015. Figure 9 shows a reference line Ls' obtained by sliding the reference line Ls shown in Figure 8 to the right based on set Pa.

対象者Aの過去の測定結果に基づいて定めた目標角度および目標強度は(α’,β’)である。図9に示すグラフによれば、対象者Aの肩の関節角度αaは、目標角度α’に対して角度dlx’不足することがわかる。また、基準ラインLs’によれば、肩の関節角度αaに対する標準的な強度はβs’であることがわかる。強度βs’と強度βaとの差はdly’である。図7に示すグラフと図9に示すグラフとを比較すると、「dlx<dlx’」であり、かつ、「dly<dly’」である。基準ラインLs’は、基準ラインLsよりも基準が高い。このため、表T2での評価は、図6に示す評価よりも悪いFとされている。 The target angle and target strength determined based on the past measurement results of subject A are (α', β'). From the graph shown in FIG. 9, it can be seen that subject A's shoulder joint angle αa is insufficient by an angle dlx' with respect to the target angle α'. Furthermore, from the reference line Ls', it can be seen that the standard strength for shoulder joint angle αa is βs'. The difference between strength βs' and strength βa is dly'. Comparing the graph shown in FIG. 7 with the graph shown in FIG. 9, "dlx<dlx'" and "dly<dly'". Reference line Ls' has a higher standard than reference line Ls. For this reason, the evaluation in table T2 is F, which is worse than the evaluation shown in FIG. 6.

このように、対象者Aの身体能力は、(1)人間の標準的な身体的能力に基づいて評価してもよく、(2)過去の対象者Aの身体能力に基づいて評価してもよい。制御装置100には、(1)(2)のいずれの評価基準を記憶させておいてもよく、いずれか一方のみを記憶させておいてもよい。
<身体能力を評価するための制御の内容>
図10は、対象者20の身体能力を評価するための制御の内容を示すフローチャートである。このフローチャートに対応するプログラムは、制御装置100のメモリ102に記憶されている。制御装置100のプロセッサ101は、メモリ102に記憶されたプログラムに基づいて、以下のフローチャートに示す処理を実行する。
In this way, the physical ability of subject A may be evaluated (1) based on the standard physical ability of a human, or (2) based on the past physical abilities of subject A. The control device 100 may store either evaluation criterion (1) or (2), or may store only one of them.
<Contents of control for evaluating physical ability>
10 is a flowchart showing the contents of control for evaluating the physical ability of the subject 20. A program corresponding to this flowchart is stored in the memory 102 of the control device 100. The processor 101 of the control device 100 executes the processing shown in the following flowchart based on the program stored in the memory 102.

はじめに、制御装置100は、メモリ102に記憶されている対象者の動画から対象者の画像(フレーム画像)を読み込む(ステップS1)。次に、制御装置100は、ステップS1で読み込んだ画像から位置推定用学習済モデルを用いて対象者20の姿勢情報を生成する(ステップS2)。これにより、たとえば、図2に示したように、対象者20の関節位置が特定される。次に、制御装置100は、ステップS1で読み込んだ対象者の画像と対応する生体情報をメモリ102に格納されているデータから取得する(ステップS3)。生体情報は、たとえば、表情筋センサ14の検出値である。 First, the control device 100 reads an image (frame image) of the subject from a moving image of the subject stored in the memory 102 (step S1). Next, the control device 100 generates posture information of the subject 20 from the image read in step S1 using the trained model for position estimation (step S2). Thereby, for example, as shown in FIG. 2, the joint positions of the subject 20 are specified. Next, the control device 100 acquires biometric information corresponding to the image of the subject read in step S1 from the data stored in the memory 102 (step S3). The biological information is, for example, a detection value of the facial muscle sensor 14.

次に、制御装置100は、ステップS2で生成した姿勢情報から姿勢を解析する(ステップS4)。たとえば、制御装置100は、ステップS4において、対象者20の肩の関節角度を算出する。次に、制御装置100は、ステップS3で読み込んだ表情筋センサ14の検出値から表情推定のための各種のAI技術を用いて対象者20の表情を解析する(ステップS5)。たとえば、制御装置100は、ステップS4において、対象者20の表情から強度(辛さの度合い)を算出する。 Next, the control device 100 analyzes the posture from the posture information generated in step S2 (step S4). For example, the control device 100 calculates the shoulder joint angle of the subject 20 in step S4. Next, the control device 100 analyzes the facial expression of the subject 20 using various AI techniques for facial expression estimation from the detected values of the facial muscle sensor 14 read in step S3 (step S5). For example, the control device 100 calculates the intensity (degree of harshness) from the facial expression of the subject 20 in step S4.

次に、制御装置100は、解析した表情および解析した姿勢を基準ラインと比較する(ステップS6)。たとえば、図7に示した基準ラインLsと、対象者20の測定結果(αa,βa)との距離を算出する。次に、制御装置100は、ステップS6の結果に基づいた評価を算出する(ステップS7)。次に、制御装置100は、算出した評価を保存する(ステップS8)。次に、制御装置100は、対象者20向けの評価シートを作成する(ステップS9)。評価表は、たとえば、図6または図8に示した表および図7または図9に示すグラフを含む。次に、制御装置100は、作成した評価シートを対象者20の元へ配信する(ステップS10)。たとえば、制御装置100は、インターネット30を通じて対象者20の家の通信装置12へ評価シートを送信する。 Next, the control device 100 compares the analyzed facial expression and the analyzed posture with a reference line (step S6). For example, the distance between the reference line Ls shown in FIG. 7 and the measurement results (αa, βa) of the subject 20 is calculated. Next, the control device 100 calculates an evaluation based on the result of step S6 (step S7). Next, the control device 100 stores the calculated evaluation (step S8). Next, the control device 100 creates an evaluation sheet for the subject 20 (step S9). The evaluation table includes, for example, the table shown in FIG. 6 or 8 and the graph shown in FIG. 7 or 9. Next, the control device 100 distributes the created evaluation sheet to the subject 20 (step S10). For example, the control device 100 transmits the evaluation sheet to the communication device 12 in the home of the subject 20 via the Internet 30.

以上、説明した第1実施の形態では、対象者の肩の関節角度に基づいて、対象者の身体能力を評価する例を説明した。しかし、肩の関節角度は評価対象の一例に過ぎない。たとえば、対象者の膝の関節角度などを評価対象としてもよい。 In the first embodiment described above, an example has been described in which the physical ability of the subject is evaluated based on the joint angle of the subject's shoulder. However, the joint angle of the shoulder is only one example of what is to be evaluated. For example, the evaluation target may be the joint angle of the subject's knee.

また、関節角度に変えて、図4のグラフに基づいて算出される関節速度を評価の対象としてもよい。この場合、制御装置100は、図10のステップS4において、対象者の肩の関節速度またはその他の部位の関節速度を算出する。さらに、制御装置100は、図10のステップS6において、関節速度を対象として設定した基準ラインと対象者の関節速度および対象者の強度とを比較し、対象者の身体能力を評価する。 In addition, instead of the joint angle, the joint velocity calculated based on the graph in FIG. 4 may be used as the subject of evaluation. In this case, in step S4 in FIG. 10, the control device 100 calculates the joint velocity of the subject's shoulder or the joint velocity of another part. Furthermore, in step S6 in FIG. 10, the control device 100 compares the joint velocity of the subject and the subject's strength with a reference line set for the joint velocity, to evaluate the physical ability of the subject.

第1実施の形態によれば、対象者の肩の上がり具合などの日常動作を姿勢推定や表情推定によりチェックし、対象者の体の衰えや異変を早期に発見することができる。関節角度が小さくなってきた場合や、関節速度が低下してきた場合、対象者に身体の衰えなどの異変が起きていると考えられる。また、特定の動作中に対象者が苦しい表情をしている場合、関節部分に痛みや異変を伴っている可能性がある。これらの異変が認められた場合、対象者本人や家族、医師等にその旨を通知することで異変の早期発見およびリハビリなどの早期介入が可能となる。
[実施の形態2]
<健康スコアの算出>
次に、実施の形態2を説明する。実施の形態1は、対象者の関節角度あるいは関節速度といった、静的あるいは部分的な動きに着目して対象者の身体能力を評価する形態である。実施の形態2は、たとえば、ラジオ体操のような連続的な動きに基づいて対象者の身体能力を評価する形態である。
According to the first embodiment, daily movements such as the degree of shoulder lift of a subject can be checked by estimating posture and facial expression, and deterioration or abnormality of the subject's body can be detected early. When the joint angle becomes smaller or the joint speed decreases, it is considered that the subject is experiencing abnormalities such as deterioration of the body. In addition, when the subject has a painful facial expression during a specific movement, there is a possibility that the subject is experiencing pain or abnormality in the joint. When such abnormalities are detected, the subject, his/her family, a doctor, etc. can be notified of the abnormality, enabling early detection of abnormalities and early intervention such as rehabilitation.
[Embodiment 2]
<Calculating Health Score>
Next, a second embodiment will be described. The first embodiment is a form in which the physical ability of a subject is evaluated by focusing on static or partial movements such as the joint angles or joint velocities of the subject. The second embodiment is a form in which the physical ability of a subject is evaluated based on continuous movements such as radio calisthenics.

はじめに、実施の形態2に係るシステム全体の構成を、図1に示した実施の形態1に係るシステム全体の構成と対比して説明する。対象者20には、表情筋センサ14に変えて、図11に示す心拍計15を取り付ける。心拍計15が計測する心拍数は、生体情報の一例である。心拍計15が計測する心拍数は、図1に示す通信装置12に送信される。通信装置12は心拍数をインターネット30などの通信網を介して制御装置100へ送信する。 First, the overall system configuration of the second embodiment will be described in comparison with the overall system configuration of the first embodiment shown in FIG. 1. Instead of the facial muscle sensor 14, a heart rate monitor 15 shown in FIG. 11 is attached to the subject 20. The heart rate measured by the heart rate monitor 15 is an example of biometric information. The heart rate measured by the heart rate monitor 15 is transmitted to the communication device 12 shown in FIG. 1. The communication device 12 transmits the heart rate to the control device 100 via a communication network such as the Internet 30.

対象者20は、たとえば、家10でラジオ体操の動画をお手本にしながらラジオ体操をする。対象者20の動きはカメラ13で撮影される。カメラ13は撮影した動画を通信装置12に送信する。通信装置12は、カメラ13から受信した動画をインターネット30などの通信網を介して制御装置100へ送信する。制御装置100は、通信装置12から受信した対象者20の心拍数と動画とをメモリ102に格納する。制御装置100のメモリ102には、ラジオ体操の動画のデータが予め格納されている。ラジオ体操の動画には、お手本となる体操講師がラジオ体操をする動作が含まれている。 For example, the subject 20 performs radio calisthenics at home 10 while following a video of the exercises. The movements of the subject 20 are captured by the camera 13. The camera 13 transmits the captured video to the communication device 12. The communication device 12 transmits the video received from the camera 13 to the control device 100 via a communication network such as the Internet 30. The control device 100 stores the heart rate and video of the subject 20 received from the communication device 12 in the memory 102. The memory 102 of the control device 100 stores data of the video of the radio calisthenics in advance. The video of the radio calisthenics includes the movements of a model exercise instructor performing the radio calisthenics.

制御装置100は、対象者20の動画と、対象者20の心拍数と、ラジオ体操の動画とに基づいて対象者20の身体能力を評価し、評価の結果を通信装置12に送信する。評価の結果は、パーソナルコンピュータ16の画面に表示される。対象者20は、パーソナルコンピュータ16を用いて評価の結果を確認する。
<一致度の評価>
図11は、一致度の評価画面の一例を示す図である。制御装置100は、対象者20の動画とラジオ体操の動画とに基づいて、対象者20の動作とお手本となる体操講師の動作との一致度を評価し、評価の結果を対象者20の家10の通信装置12に送信する。たとえば、対象者20のパーソナルコンピュータ16には、図11に示す画面が表示される。画面の左には「対象者20の映像」が表示され、画面の右には「目標映像」が表示される。「対象者20の映像」は、ラジオ体操をする対象者20の動画の1シーンの映像である。「目標映像」は、ラジオ体操の動画のうち、「対象者20の映像」と対応する映像である。「目標映像」には、お手本となる体操講師の動きが映し出されている。「対象者20の映像」と「目標映像」との間には、「対象者20の映像」に含まれる対象者20と、「目標映像」に含まれる体操講師とを重畳させた画像が表示されている。対象者20の画像と体操講師の画像とを重畳させることによって、対象者20の動作がどの程度、体操講師の動作に一致しているのかを把握し易くなる。
The control device 100 evaluates the physical ability of the subject 20 based on the video of the subject 20, the heart rate of the subject 20, and the video of radio gymnastics, and transmits the evaluation result to the communication device 12. The results of the evaluation are displayed on the screen of the personal computer 16. The subject 20 uses the personal computer 16 to confirm the evaluation results.
<Evaluation of degree of match>
FIG. 11 is a diagram showing an example of a matching degree evaluation screen. The control device 100 evaluates the degree of agreement between the motions of the target person 20 and the motions of the gymnastics instructor serving as a model based on the video of the target person 20 and the radio gymnastics video, and transmits the evaluation results to the home of the target person 20. 10 communication devices 12. For example, the screen shown in FIG. 11 is displayed on the personal computer 16 of the subject 20. "Video of subject 20" is displayed on the left side of the screen, and "target video" is displayed on the right side of the screen. “Video of subject 20” is a video of one scene of a video of subject 20 doing radio gymnastics. The "target video" is a video corresponding to the "video of target person 20" among the videos of radio exercise. The ``target video'' shows the movements of a gymnastics instructor who serves as a role model. Between the "video of target person 20" and the "target video", an image in which the target person 20 included in the "video of target person 20" and the gymnastics instructor included in the "target video" are superimposed is displayed. has been done. By superimposing the image of the subject 20 and the image of the gymnastics instructor, it becomes easier to understand to what extent the movements of the subject 20 match those of the gymnastics instructor.

対象者20とお手本の体操講師との体つきが完全に一致することは考えにくい。また、対象者20を撮影する距離や角度によっても、画像における対象者20の大きさは変化する。このため、単純に対象者20の画像と体操講師の画像とを重畳させるのみでは、両者の動作の一致度を把握できない。そこで、制御装置100は、対象者20の画像と体操講師の画像とを重畳させる前に、体操講師の画像の縦横のサイズと対象者20の画像の縦横のサイズとを補正している。たとえば、制御装置100は、体操講師の体の長さと幅とに合うように、対象者20の画像を補正する。その結果、対象者20の画像と体操講師の画像とを重畳させたときに、対象者20の動作がどの程度、体操講師の動作に一致しているのかをより把握し易くなる。 It is difficult to imagine that the physiques of Subject 20 and the model gymnastics instructor are completely identical. The size of the subject 20 in the image also changes depending on the distance and angle at which the subject 20 is photographed. For this reason, simply by superimposing the image of the subject 20 and the image of the gymnastics instructor, it is not possible to grasp the degree of coincidence between the movements of the two. Therefore, before superimposing the image of the subject 20 and the image of the gymnastics instructor, the control device 100 corrects the vertical and horizontal sizes of the image of the gymnastics instructor and the vertical and horizontal sizes of the image of the subject 20. For example, the control device 100 corrects the image of the subject 20 to match the length and width of the gymnastics instructor's body. As a result, when the image of the subject 20 and the image of the gymnastics instructor are superimposed, it becomes easier to understand to what extent the movements of the subject 20 match those of the gymnastics instructor.

図11に示すように、対象者20と体操講師とを重畳させた画像の下には、一致度を示す一致度スコアが表示されている。さらに、一致度スコアの下には、コメントが表示される。対象者20は、コメントを参考にして、一致度を上げる努力をすることができる。 As shown in FIG. 11, a matching score indicating the degree of matching is displayed below the image in which the subject 20 and the gymnastics instructor are superimposed. Furthermore, comments are displayed below the matching score. The subject 20 can refer to the comments and make an effort to improve the degree of matching.

「対象者20の映像」の下には、「心拍数」の表示領域が設けられている。この表示領域には、対象者20が「対象者20の映像」に示す動作をしているときの心拍数が表示される。「目標映像」の下には、「目標心拍数」の表示領域が設けられている。この表示領域には、対象者20が目標とすべき心拍数が表示される。目標心拍数は、様々な基準で定めることができる。たとえば、人間の標準的な身体的能力に基づいて目標心拍数を決定してもよく、対象者20の年齢や性別を考慮して、対象者20別に決定してもよい。目標心拍数は、ラジオ体操を開始してから終了するまでの間で、体操の種類に応じて変動させることが望ましい。制御装置100のメモリ102には、ラジオ体操を開始してから終了するまでの間の複数のタイミング毎に、目標心拍数が記憶されている。 Below the "image of subject 20", a display area for "heart rate" is provided. This display area displays the heart rate of subject 20 when performing the action shown in the "image of subject 20". Below the "target image", a display area for "target heart rate" is provided. This display area displays the target heart rate of subject 20. The target heart rate can be determined based on various criteria. For example, the target heart rate may be determined based on the standard physical ability of humans, or may be determined for each subject 20, taking into account the age and gender of subject 20. It is desirable to vary the target heart rate depending on the type of exercise from the start to the end of radio calisthenics. The memory 102 of the control device 100 stores the target heart rate for each of multiple timings from the start to the end of radio calisthenics.

対象者20は、図11に示す評価の画面を見ることによって、一致度のみならず、目標心拍数と対比した自身の心拍数をも把握できる。このため、対象者20は、無理をしない範囲で、ラジオ体操が上手くできているかどうかを評価できる。あるいは、対象者20を指導するトレーナーが存在する場合には、同じ画面をトレーナーが見ることによって、対象者20に無理をさせない範囲で好ましいラジオ体操の姿勢を指導することができる。
<対称性の評価>
図12は、対称性の評価画面の一例を示す図である。制御装置100は、対象者20の動画に基づいて、対象者20の動作の左右の対称性を評価する。ラジオ体操には、左右対称の動作が含まれる。左右対称の体操に応答して、対象者20の左側の動作と右側の動作とが一致することが望ましい。たとえば、図12に示すような、体を横に曲げる運動の場合には、体が曲がる角度が右側と左側とで同じであることが望ましい。しかし、体の歪み、その他の要因によって左側の動作と右側の動作とが一致しない場合がある。
By viewing the evaluation screen shown in FIG. 11, the subject 20 can grasp not only the degree of matching but also his or her own heart rate in comparison with the target heart rate. Therefore, the subject 20 can evaluate whether or not he/she is able to perform radio calisthenics well without straining himself/herself. Alternatively, if there is a trainer who instructs the subject 20, by viewing the same screen, the trainer can instruct the subject 20 in a preferred posture for radio calisthenics without straining the subject 20.
<Evaluation of symmetry>
FIG. 12 is a diagram showing an example of a symmetry evaluation screen. The control device 100 evaluates the left-right symmetry of the movement of the subject 20 based on the moving image of the subject 20. Radio calisthenics involves symmetrical movements. In response to bilaterally symmetrical gymnastics, it is desirable that the movements on the left and right sides of the subject 20 match. For example, in the case of a movement in which the body is bent laterally as shown in FIG. 12, it is desirable that the angle at which the body bends is the same on the right and left sides. However, the movements on the left side and the movements on the right side may not match due to body distortion or other factors.

そこで、制御装置100は、図12に示す対称性の評価画面を対象者20に提供する。対称性の評価画面には、対象者20が体を左側に曲げている動作の画像と、対象者20が体を右側に曲げている動作の画像とが表示されている。また、対称性の評価画面には、対称性スコアが表示されている。対称性スコアは、左右の動きの対称性がどの程度あるかを示す評価スコアである。さらに、対称性の評価画面には、目標心拍数を表示する表示領域と、対象者20の心拍数を表示する表示領域とが設けられている。 Therefore, the control device 100 provides the subject 20 with a symmetry evaluation screen shown in FIG. The symmetry evaluation screen displays an image of the subject 20 bending his body to the left and an image of the subject 20 bending his body to the right. Furthermore, the symmetry score is displayed on the symmetry evaluation screen. The symmetry score is an evaluation score that indicates how symmetrical the left and right movements are. Further, the symmetry evaluation screen is provided with a display area for displaying the target heart rate and a display area for displaying the heart rate of the subject 20.

対象者20は、図12に示す評価の画面を見ることによって、ラジオ体操の左右対称性のみならず、目標心拍数と対比した自身の心拍数をも把握できる。このため、対象者20は、無理をしない範囲で、ラジオ体操が上手くできているかどうかを評価できる。あるいは、対象者20を指導するトレーナーが存在する場合には、同じ画面をトレーナーが見ることによって、対象者20に無理をさせない範囲で好ましいラジオ体操の姿勢を指導することができる。 By looking at the evaluation screen shown in FIG. 12, the subject 20 can grasp not only the left-right symmetry of the radio calisthenics, but also his own heart rate in comparison with the target heart rate. Therefore, the subject 20 can evaluate whether or not he/she is able to perform radio calisthenics well without straining himself/herself. Alternatively, if there is a trainer who instructs the subject 20, by viewing the same screen, the trainer can instruct the subject 20 in a preferred posture for radio calisthenics without straining the subject 20.

なお、図12に示す評価の画面において、対象者20が体を左側に曲げている動作の画像に対して、対象者20が体を右側に曲げている動作の画像を重畳させ、対象者20が体を右側に曲げている動作の画像に対して、対象者20が体を左側に曲げている動作の画像を重畳させてもよい。また、対象者20が体を左右に曲げている動作の画像2つのうち、どちらか一方の画像を左右反転させた後に重畳させてもよい。これにより、左右での曲がり具合の違いを、画面を見る者が視覚的に理解し易くなる。 In the evaluation screen shown in FIG. 12, an image of the subject 20 bending his/her body to the right may be superimposed on an image of the subject 20 bending his/her body to the left, and an image of the subject 20 bending his/her body to the left may be superimposed on an image of the subject 20 bending his/her body to the right. Also, one of the two images of the subject 20 bending his/her body to the left and right may be superimposed after being flipped left to right. This makes it easier for the person viewing the screen to visually understand the difference in the degree of bending between the left and right.

対称性スコアの算出方法を説明する。制御装置100は、対象者20の動画の中から左右対称性が要求されるラジオ体操のシーンを抽出する。抽出したラジオ体操のシーンには、ペアとなる2つの画像が含まれる。ペアとなる2つの画像は、たとえば、図12に示すような、対象者20が左側に体を曲げている画像と、対象者20が右側に体を曲げている画像とである。制御装置100は、ペアとなる2つの画像のうちの第1画像に基づいて、対象者20の特徴点(関節)を推定する。さらに、制御装置100は、ペアとなる2つの画像のうちの第2画像を左右反転させた画像を生成し、生成した反転画像に基づいて、対象者20の特徴点(関節)を推定する。制御装置100は、第1画像に基づいた推定結果と、反転画像に基づいた推定結果とを対比することによって、両者の一致度を算出する。制御装置100は、算出した一致度に基づいて対称性スコアを決定する。
<時系列の変化>
図13は、対象者20の身体能力を示す第1評価シートである。第1評価シートには、対象者20の動きと目標映像の動きと対象者20の心拍数との関係が示されている。第1評価シートは、制御装置100によって対象者20に提供されるデータのひとつである。第1評価シートの横軸はラジオ体操の進行状況を示す。実線の波形は、対象者20の動きの大きさを示す。破線の波形は、目標映像の体操講師の動きの大きさを示す。棒線は、対象者20の心拍数を示す。なお、対象者20の動きを測定する体の部分は、いずれの部分であってもよい。たとえば、肩関節の動きに基づいて対象者20の動きを測定することが考えられる。
The method for calculating the symmetry score will be explained. The control device 100 extracts a radio gymnastics scene that requires bilateral symmetry from the video of the subject 20. The extracted radio gymnastics scene includes two paired images. The two images that form a pair are, for example, as shown in FIG. 12, an image in which the subject 20 is bent to the left and an image in which the subject 20 is bent to the right. The control device 100 estimates feature points (joints) of the subject 20 based on the first image of the two paired images. Further, the control device 100 generates an image obtained by horizontally inverting the second image of the two paired images, and estimates feature points (joints) of the subject 20 based on the generated inverted image. The control device 100 calculates the degree of coincidence between the estimation result based on the first image and the estimation result based on the inverted image by comparing them. Control device 100 determines a symmetry score based on the calculated degree of matching.
<Time series changes>
FIG. 13 is a first evaluation sheet showing the physical ability of the subject 20. The first evaluation sheet shows the relationship between the movement of the subject 20, the movement of the target image, and the heart rate of the subject 20. The first evaluation sheet is one of the data provided to the subject 20 by the control device 100. The horizontal axis of the first evaluation sheet shows the progress of radio gymnastics. The solid line waveform indicates the magnitude of the movement of the subject 20. The broken line waveform indicates the magnitude of the movement of the gymnastics instructor in the target video. The bar line indicates the heart rate of the subject 20. Note that the movement of the subject 20 may be measured at any part of the body. For example, it is possible to measure the movement of the subject 20 based on the movement of the shoulder joint.

図13に示す第1評価シートは、ラジオ体操の開始から終了に至るまでの動画で提供される。図13は、ラジオ体操が終了した時点の動画の状態を示している。第1評価シートには、対象者20の心拍数と対象者20の平均心拍数とが表示される。第1評価シートに表示される心拍数の値は、ラジオ体操の進行とともに変化する。 The first evaluation sheet shown in FIG. 13 is provided as a video of the radio exercises from start to finish. FIG. 13 shows the state of the video at the time when the radio exercises end. The first evaluation sheet displays the heart rate of the subject 20 and the average heart rate of the subject 20. The heart rate value displayed on the first evaluation sheet changes as the radio exercises progress.

対象者20または対象者20を指導するトレーナーは、第1評価シートを見ることによって、対象者20がどの程度、体操講師の動きに追従しているのかをラジオ体操の進行との関係において把握できる。また、第1評価シートには、心拍数と平均心拍数とが表示されるため、対象者20が無理をしない範囲で、ラジオ体操をしているのかどうかを評価できる。なお、第1評価シートには、対象者20に対して設定された目標心拍数を併せて表示してもよい。 By looking at the first evaluation sheet, the subject 20 or the trainer instructing the subject 20 can understand to what extent the subject 20 is following the movements of the exercise instructor in relation to the progress of the radio exercises. In addition, the first evaluation sheet displays the heart rate and average heart rate, so it is possible to evaluate whether the subject 20 is performing the radio exercises without overexerting himself/herself. The first evaluation sheet may also display the target heart rate set for the subject 20.

図14は、対象者20の身体能力を示す第2評価シートである。第2評価シートは、制御装置100によって対象者20に提供されるデータのひとつである。実線はラジオ対応sの動きの基準を示す線である。破線は、基準線に対する対象者の動きのずれの大きさを示す。第2評価シートが対象としている動きは、第1評価シートが対象としている動きと同じである。しかし、第2評価シートは、対象者の動きのずれを基準の直線との関係で示しているので、第1評価シートよりも、対象者の動きと目標映像の動きとのずれの大きさを把握し易い。第2評価シートは、第1評価シートと同様に動画で提供される。さらに、第2評価シートには、心拍数と、平均心拍数と、一致度スコアと、対称性スコアと、運動強度スコアと、健康スコアとが表示される。 Figure 14 is a second evaluation sheet showing the physical ability of the subject 20. The second evaluation sheet is one of the data provided to the subject 20 by the control device 100. The solid line is a line showing the reference of the radio-compatible s movement. The dashed line shows the magnitude of deviation of the subject's movement from the reference line. The movement targeted by the second evaluation sheet is the same as the movement targeted by the first evaluation sheet. However, since the second evaluation sheet shows the deviation of the subject's movement in relation to the reference line, it is easier to grasp the magnitude of deviation between the subject's movement and the movement of the target image than the first evaluation sheet. The second evaluation sheet is provided as a video, like the first evaluation sheet. Furthermore, the second evaluation sheet displays the heart rate, average heart rate, consistency score, symmetry score, exercise intensity score, and health score.

運動強度スコアは、対象者20の心拍数から算出する。たとえば、ラジオ体操中に計測された対象者20の心拍数と、対象者20の平常時心拍数と、対象者20の年齢とから運動強度を計算することが可能である。健康スコアは、一致度スコアと、対称性スコアと、運動強度スコアとから総合的に算出したスコアである。したがって、健康スコアが高い対象者20ほど、体操講師に近い動きで、左右対称性を保ちつつ、負荷を感じることなくラジオ体操をしていたことになる。 The exercise intensity score is calculated from the heart rate of the subject 20. For example, it is possible to calculate the exercise intensity from the heart rate of the subject 20 measured during radio exercise, the normal heart rate of the subject 20, and the age of the subject 20. The health score is a score comprehensively calculated from the concordance score, symmetry score, and exercise intensity score. Therefore, the higher the health score of subject 20, the more he performed radio calisthenics with movements similar to those of a gymnastics instructor, while maintaining left-right symmetry and without feeling any stress.

対象者20または対象者20を指導するトレーナーは、図14に示す第2評価シートを見ることによって、対象者20と体操講師の動きとのずれをより明確に把握できる。また、第2評価シートには、一致度スコアと、対称性スコアと、運動強度スコアとから総合的に算出したスコアである健康スコアが表示されるため、対象者20の身体能力を総合的に評価できる。 By looking at the second evaluation sheet shown in FIG. 14, the subject 20 or the trainer who instructs the subject 20 can more clearly grasp the discrepancy between the movements of the subject 20 and the exercise instructor. In addition, the second evaluation sheet displays a health score, which is a comprehensive score calculated from the agreement score, symmetry score, and exercise intensity score, so that the physical ability of the subject 20 can be comprehensively evaluated.

<制御フロー>
図15および図16は、対象者20の身体能力を評価するための制御の内容を示すフローチャートである。このフローチャートに対応するプログラムは、制御装置100のメモリ102に記憶されている。制御装置100のプロセッサ101は、メモリ102に記憶されたプログラムに基づいて、以下のフローチャートに示す処理を実行する。
<Control flow>
15 and 16 are flowcharts showing the details of control for evaluating the physical ability of the subject 20. A program corresponding to this flowchart is stored in the memory 102 of the control device 100. The processor 101 of the control device 100 executes the processing shown in the flowchart below based on the program stored in the memory 102.

はじめに、制御装置100は、対象者20の動画から対象者20の画像(フレーム画像)を読み込む(ステップS101)。次に、制御装置100は、ステップS101で読み込んだ画像から位置推定用学習済モデルを用いて対象者20の姿勢情報を生成する(ステップS102)。これにより、たとえば、図2に示したように、対象者20の関節位置が特定される。 First, the control device 100 reads an image (frame image) of the subject 20 from a video of the subject 20 (step S101). Next, the control device 100 generates posture information of the subject 20 from the image read in step S101 using a trained model for position estimation (step S102). This allows the joint positions of the subject 20 to be identified, for example, as shown in FIG. 2.

次に、制御装置100は、ステップS101で読み込んだ対象者20の画像と対応する生体情報を取得する(ステップS103)。生体情報は、たとえば、心拍数である。心拍数は、たとえば、心拍計15の計測値に基づいて特定される。あるいは、接触バイタルセンシング技術を用いて、画像から心拍数を特定してもよい。 Next, the control device 100 acquires biometric information corresponding to the image of the subject 20 read in step S101 (step S103). The biological information is, for example, heart rate. The heart rate is specified based on the measured value of the heart rate meter 15, for example. Alternatively, heart rate may be determined from the image using tactile vital sensing technology.

この場合、ステップS101で読み込んだフレーム画像と、当該フレーム画像に対して時間的に前後する複数のフレーム画像とを用いて対象者20の心拍数を特定する。心拍数に関連するのは、脈波である。脈波は血管の収縮に連動して変化し、血管の収縮は血流に関連する。血液は、光を吸収する性質を有する。このため、対象者20の肌の光反射率の変化を対象者20の画像に基づいて検出することによって、間接的に対象者20の心拍数を特定することができる。 In this case, the heart rate of the subject 20 is determined using the frame image read in step S101 and multiple frame images that precede and follow the frame image in time. The pulse wave is related to the heart rate. The pulse wave changes in conjunction with the contraction of blood vessels, and the contraction of blood vessels is related to blood flow. Blood has the property of absorbing light. Therefore, the heart rate of the subject 20 can be indirectly determined by detecting changes in the light reflectance of the subject's 20 skin based on the image of the subject 20.

次に、制御装置100は、ステップS102で生成した姿勢情報から姿勢を解析する(ステップS104)。たとえば、制御装置100は、ステップS104において、対象者20の運動の姿勢を解析する。次に、制御装置100は、目標映像を解析し(ステップS105)、続いて、対象者20の姿勢を補正する(ステップS106)。ステップS105およびS106は、目標映像に写る体操講師のサイズと、対象者20のサイズとを一致させる処理である。 Next, the control device 100 analyzes the posture from the posture information generated in step S102 (step S104). For example, the control device 100 analyzes the exercise posture of the subject 20 in step S104. Next, the control device 100 analyzes the target image (step S105), and then corrects the posture of the subject 20 (step S106). Steps S105 and S106 are processes for matching the size of the gymnastics instructor in the target video with the size of the subject 20.

次に、制御装置100は、評価条件を設定する(ステップS107)。評価条件は、たとえば、一致度スコア、対称性スコア、および運動強度スコアを算出するときの基準を定める条件である。評価条件の設定次第で各スコアの基準を高くすることも低くすることもできる。 Next, the control device 100 sets the evaluation conditions (step S107). The evaluation conditions are, for example, conditions that determine the standards for calculating the matching score, the symmetry score, and the exercise intensity score. Depending on the setting of the evaluation conditions, the standards for each score can be made higher or lower.

たとえば、対象者の年齢に応じて、一致度スコア、対称性スコア、および運動強度スコアを算出するときの基準を変更することが考えられる。これによって、対象者が高齢者の場合には、対象者が中高年の場合に比べて、それぞれのスコアの基準を甘くすることもできる。また、対象者が過去に取得した一致度スコア、対称性スコア、および運動強度スコアを考慮して、それぞれのスコアを新たに算出するときの基準を定めてもよい。 For example, it is conceivable to change the criteria for calculating the matching score, symmetry score, and exercise intensity score depending on the age of the subject. As a result, when the subject is an elderly person, the criteria for each score can be set more leniently than when the subject is middle-aged or elderly. Further, criteria for newly calculating each score may be determined by taking into account the matching score, symmetry score, and exercise intensity score that the subject has acquired in the past.

次に、制御装置100は、対象者20の画像とお手本の体操講師の画像とに基づいて、一致度を算出する(ステップS108)。次に、制御装置100は、ステップS102で読み込んだ心拍数に基づいて運動強度を算出し(ステップS109)、算出結果をメモリ102に保存する(ステップS110)。次に、制御装置100は、算出した運動強度を表示部200に表示する(ステップS111)。 Next, the control device 100 calculates the degree of matching based on the image of the subject 20 and the image of the model gymnastics instructor (step S108). Next, the control device 100 calculates the exercise intensity based on the heart rate read in step S102 (step S109), and stores the calculation result in the memory 102 (step S110). Next, the control device 100 displays the calculated exercise intensity on the display unit 200 (step S111).

次に、制御装置100は、ラジオ体操の動画は終了したか否かを判断する(ステップS112)。ラジオ体操の動画が終了していない場合、制御装置100は、ステップS101に処理を戻す。ラジオ体操の動画が終了している場合、制御装置100は、一致度スコアを算出し(ステップS113)、続いて、運動強度スコアを算出する(ステップS114)。 Next, the control device 100 determines whether the radio calisthenics video has ended (step S112). If the radio calisthenics video has not ended, the control device 100 returns the process to step S101. If the radio calisthenics video has ended, the control device 100 calculates a similarity score (step S113), and then calculates an exercise intensity score (step S114).

補正した対象者20の姿勢情報と正解となる体操講師の姿勢情報との類似度を評価することで、体操講師の動作に対する対象者20の動作の一致度を計算できる。一致度スコアは、2つの姿勢の各部位の差分値の和をD、しきい値をD0とした場合、以下の式(2)を用いて算出することができる。 By evaluating the similarity between the corrected posture information of the subject 20 and the correct posture information of the gymnastics instructor, the degree of match between the movements of the subject 20 and the movements of the gymnastics instructor can be calculated. The match score can be calculated using the following formula (2), where D is the sum of the difference values of each part of the two postures and D0 is the threshold value.

Figure 0007459658000002
Figure 0007459658000002

なお、OpenPoseで姿勢情報とともに算出される確信度を用いて、確信度が低い情報については一致度スコアに影響しないような処理を加えることなども考えられる。 Note that it is also possible to use the confidence calculated together with posture information in OpenPose and add processing to information with low confidence that does not affect the matching score.

続いて、制御装置100は、対称性スコアを算出するために、ペアとなる2つの画像を抽出する(ステップS115)。次に、制御装置100は、抽出した2つの画像に基づいて対称性スコアを算出する(ステップS116)。次に、制御装置100は、一致度スコアと、対称性スコアと、運動強度スコアとから健康スコアを算出する(ステップS117)。次に、制御装置100は、評価シートを作成し(ステップS118)、作成した評価シートを対象者20の通信装置12に送信し(ステップS119)、処理を終える。 Next, the control device 100 extracts two paired images in order to calculate the symmetry score (step S115). Next, the control device 100 calculates a symmetry score based on the two extracted images (step S116). Next, the control device 100 calculates a health score from the matching score, symmetry score, and exercise intensity score (step S117). Next, the control device 100 creates an evaluation sheet (step S118), transmits the created evaluation sheet to the communication device 12 of the subject 20 (step S119), and ends the process.

健康スコアは、一致度スコアと、対称性スコアと、運動強度スコアとを用いた様々な演算手法によって算出することができる。たとえば、一致度スコアと、対称性スコアと、運動強度スコアとのそれぞれを足し合わせることで、健康スコアを算出してもよい。あるいは、それぞれを足し合わせる前に、それぞれに所定の重みづけを施してもよい。
[変形例]
第1実施の形態においては、表情筋センサ14の検出値に基づいて、対象者の表情を解析するものとした。しかしながら、対象者の表情は、対象者を含む画像から解析してもよい。この場合、図10のフローチャートのステップS1で読み込んだ画像を利用して、ステップS4において対象者の表情を解析することが考えられる。画像から表情を解析する際には、画像に基づいて表情を推定する各種のAI技術を採用すればよい。画像に基づいて表情を解析できれば、ステップS2において表情筋センサ14の検出値を取得しなくてもよい。なお、画像と表情筋センサ14の検出値とを用いて表情を解析してもよい。
The health score can be calculated by various calculation methods using the coincidence score, the symmetry score, and the exercise intensity score. For example, the health score may be calculated by adding up the coincidence score, the symmetry score, and the exercise intensity score. Alternatively, a predetermined weighting may be applied to each of the scores before adding them up.
[Variations]
In the first embodiment, the facial expression of the subject is analyzed based on the detection value of the facial muscle sensor 14. However, the facial expression of the subject may be analyzed from an image including the subject. In this case, it is possible to analyze the facial expression of the subject in step S4 using the image read in step S1 of the flowchart in FIG. 10. When analyzing the facial expression from an image, various AI technologies that estimate the facial expression based on the image may be adopted. If the facial expression can be analyzed based on the image, it is not necessary to obtain the detection value of the facial muscle sensor 14 in step S2. Note that the facial expression may be analyzed using the image and the detection value of the facial muscle sensor 14.

第2実施の形態では、対象者20の心拍数に基づいて運動強度を算出した。しかし、第2実施の形態において、対象者20の心拍数と表情とを組合せて運動強度を算出してもよい。対象者20の表情は、表情筋センサ14の検出値に基づいて推定してもよく、フレーム画像から対象者20の表情を推定してもよい。また、表情に基づいて運動強度を算出してもよい。たとえば、対象者20が辛い表情を見せた回数に基づいて運動強度を算出することが考えられる。対象者20が辛い表情を見せた回数と心拍数とに基づいて運動強度を算出してもよい。 In the second embodiment, the exercise intensity was calculated based on the heart rate of the subject 20. However, in the second embodiment, the exercise intensity may be calculated by combining the heart rate and facial expression of the subject 20. The facial expression of the subject 20 may be estimated based on the detected value of the facial muscle sensor 14, or the facial expression of the subject 20 may be estimated from the frame image. Alternatively, the exercise intensity may be calculated based on the facial expression. For example, it is possible to calculate the exercise intensity based on the number of times the subject 20 shows a painful expression. The exercise intensity may be calculated based on the number of times the subject 20 shows a painful expression and the heart rate.

以上、各実施の形態および変形例に係る身体能力提示方法および身体能力提示装置によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる情報を提示可能である。 As described above, according to the physical ability presentation method and the physical ability presentation device according to each embodiment and modification, it is possible to present information that can appropriately evaluate the physical ability of the target person while taking into account the load on the target person. .

[態様]
上記した実施の形態およびその変形例は、以下の態様の具体例であることが当業者により理解される。
[Aspects]
It will be understood by those skilled in the art that the above-described embodiment and its modifications are specific examples of the following aspects.

(第1項)一態様に係る身体能力提示方法は、対象者の身体能力に関する情報を提示する身体能力提示方法であって、対象者を含む画像から対象者の姿勢情報を生成するステップ(ステップS2)と、対象者の生体情報を取得するステップ(ステップS3)と、姿勢情報に基づいて対象者の姿勢を特定するステップ(ステップS4)と、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定するステップ(ステップS5)と、姿勢情報に基づいて特定された対象者の姿勢と、生体情報に基づいて特定された対象者の姿勢に対する対象者の負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示するステップ(ステップS10)とを備える。 (Section 1) A physical ability presentation method according to one aspect is a physical ability presentation method for presenting information regarding the physical ability of a target person, and includes a step (step) of generating posture information of the target person from an image including the target person. S2), a step of acquiring biological information of the subject (step S3), a step of identifying the posture of the subject based on the posture information (step S4), and a step of identifying the subject's posture based on the biometric information. The step of specifying the load of the subject (step S5), the posture of the subject specified based on the posture information, and the load of the subject corresponding to the posture of the subject specified based on the biological information are combined. and a step of presenting specific information regarding the physical ability of the subject (step S10).

第1項に記載の身体能力提示方法によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる。 According to the physical ability presentation method described in item 1, the physical ability of the subject can be appropriately evaluated while taking into account the load on the subject.

(第2項)第1項に記載の身体能力提示方法において、特定情報は、対象者の身体能力を評価するための基準情報(基準ラインLs)を含む。 (2) In the physical ability presentation method described in 1, the specific information includes reference information (reference line Ls) for evaluating the subject's physical ability.

第2項に記載の身体能力提示方法によれば、基準情報に基づいて対象者の身体能力を評価することができる。 The physical ability presentation method described in paragraph 2 makes it possible to evaluate the subject's physical ability based on the reference information.

(第3項)第2項に記載の身体能力提示方法において、特定情報は、対象者の評価スコア(評価、一致度スコア、対称性スコア、運動強度スコア、健康スコア)を含む。 (Section 3) In the physical ability presentation method described in Section 2, the specific information includes an evaluation score (evaluation, matching score, symmetry score, exercise intensity score, health score) of the subject.

第3項に記載の身体能力提示方法によれば、評価スコアに基づいて対象者の身体能力を評価することができる。 According to the physical ability presentation method described in Section 3, the physical ability of the subject can be evaluated based on the evaluation score.

(第4項)第1項から第3項のいずれか1項に記載の身体能力提示方法において、姿勢情報を取得するステップは、対象者の動作(関節角度、関節速度、ラジオ体操)から姿勢情報を取得するステップを含む。 (Paragraph 4) In the physical ability presentation method according to any one of Paragraphs 1 to 3, the step of acquiring posture information includes the posture based on the subject's movements (joint angles, joint speeds, radio gymnastics). including the step of obtaining information.

第4項に記載の身体能力提示方法によれば、対象者の動作に関して、対象者の身体能力を評価することができる。 According to the physical ability presentation method described in item 4, it is possible to evaluate the physical ability of the target person regarding the target person's movements.

(第5項)第1項から第4項のいずれか1項に記載の身体能力提示方法において、生体情報は、対象者の表情(辛さ)に関する情報である。 (5) In the physical ability presentation method described in any one of paragraphs 1 to 4, the biometric information is information about the subject's facial expression (stress).

第5項に記載の身体能力提示方法によれば、対象者の表情から対象者の負荷を特定することができる。 According to the physical ability presentation method described in Section 5, it is possible to identify the load of the subject based on the subject's facial expression.

(第6項)第5項に記載の身体能力提示方法において、生体情報を取得するステップは、対象者の顔に取り付けた表情筋センサ(表情筋センサ14)の検出値に基づいて、または、画像に基づいて、対象者の表情に関する情報を取得するステップを含む(ステップS5)。 (Section 6) In the physical ability presentation method described in Section 5, the step of acquiring biometric information includes a step of acquiring information about the subject's facial expression based on the detection value of a facial muscle sensor (facial muscle sensor 14) attached to the subject's face or based on an image (Step S5).

第6項に記載の身体能力提示方法によれば、対象者の表情に関する情報を適切に取得することができる。 The physical ability presentation method described in paragraph 6 makes it possible to appropriately obtain information regarding the subject's facial expressions.

(第7項)第1項から第4項のいずれかに記載の身体能力提示方法において、生体情報は、対象者の心拍に関する情報(心拍数)である。 (Section 7) In the physical ability presentation method according to any one of Items 1 to 4, the biological information is information regarding the subject's heartbeat (heart rate).

第7項に記載の身体能力提示方法によれば、対象者の心拍からに対象者の負荷を特定することができる。 According to the physical ability presenting method described in item 7, the load on the subject can be identified from the subject's heartbeat.

(第8項)第7項に記載の身体能力提示方法において、生体情報を取得するステップは、対象者に取り付けた心拍計(心拍計15)の計測値に基づいて、または、画像に基づいて、対象者の心拍に関する情報を取得するステップを含む(ステップS103)。 (Section 8) In the physical ability presentation method described in Section 7, the step of acquiring biological information is based on a measured value of a heart rate monitor (heart rate monitor 15) attached to the subject or based on an image. , including the step of acquiring information regarding the subject's heartbeat (step S103).

第8項に記載の身体能力提示方法によれば、対象者の心拍を適切に取得することができる。 According to the physical ability presentation method described in Section 8, the subject's heartbeat can be appropriately acquired.

(第9項)第1項から第8項のいずれか1項に記載の身体能力提示方法において、特定情報は、対象者の過去の複数の姿勢情報および生体情報を含む(図8)。 (Clause 9) In the physical ability presentation method described in any one of clauses 1 to 8, the specific information includes multiple past posture information and biometric information of the subject (Figure 8).

第9項に記載の身体能力提示方法によれば、対象者の過去の複数の姿勢情報および生体情報を特定できる。 The physical ability presentation method described in paragraph 9 makes it possible to identify multiple past posture information and biometric information of the subject.

(第10項)第1項から第6項のいずれか1項に記載の身体能力提示方法において、姿勢情報は、対象者の関節の角度に関する情報(図2、図3)を含む。 (10) In the physical ability presentation method described in any one of paragraphs 1 to 6, the posture information includes information on the angles of the subject's joints (Figures 2 and 3).

第10項に記載の身体能力提示方法によれば、対象者の関節の角度に関する身体能力を評価することができる。 According to the physical ability presenting method described in item 10, it is possible to evaluate the physical ability of the subject regarding the angle of the joints.

(第11項)第1項から第6項のいずれか1項に記載の身体能力提示方法において、姿勢情報は、対象者の関節の速度に関する情報(図4)を含む。 (Section 11) In the physical ability presentation method according to any one of Items 1 to 6, the posture information includes information (FIG. 4) regarding the velocity of the subject's joints.

第11項に記載の身体能力提示方法によれば、対象者の関節の速度に関する身体能力を評価することができる。 According to the physical ability presentation method described in Section 11, it is possible to evaluate the physical ability of a subject regarding joint speed.

(第12項)第1項から第3項のいずれか1項に記載の身体能力提示方法において、姿勢情報は、対象者に対して左右対称の動作を行わせたときに対象者から得られた姿勢情報(図12:対称性)を含む。 (Paragraph 12) In the physical ability presentation method according to any one of Paragraphs 1 to 3, the posture information is obtained from the subject when the subject performs a bilaterally symmetrical movement. It includes posture information (Fig. 12: symmetry).

第12項に記載の身体能力提示方法によれば、対象者の左右対称の動作に関する身体能力を評価することができる。 The physical ability presentation method described in paragraph 12 makes it possible to evaluate the subject's physical ability in terms of bilaterally symmetrical movements.

(第13項)他の態様に係る身体能力提示装置は、対象者の身体能力に関する情報を提示する身体能力提示装置(制御装置100)であって、対象者を含む画像から対象者の姿勢情報を生成する生成部(ステップS2)と、対象者の生体情報を取得する取得部(ステップS3)と、姿勢情報に基づいて対象者の姿勢を特定する姿勢特定部(ステップS4)と、生体情報に基づいて対象者の姿勢に対する対象者の負荷を特定する負荷特定部(ステップS5)と、姿勢特定部により特定された姿勢と、負荷特定部により特定された負荷と、を組み合わせて、対象者の身体能力に関する特定情報を提示する提示部(ステップS10)とを備える。 (Section 13) A physical ability presentation device according to another aspect is a physical ability presentation device (control device 100) that presents information regarding the physical ability of a subject, and the posture information of the subject is obtained from an image including the subject. a generation unit that generates (step S2), an acquisition unit that acquires biological information of the subject (step S3), a posture identification unit that specifies the posture of the subject based on posture information (step S4), A load identification unit (step S5) that identifies the load on the subject with respect to the subject's posture based on and a presentation unit (step S10) that presents specific information regarding the physical ability of the user.

第13項に記載の身体能力提示装置によれば、対象者への負荷を考慮しつつ、対象者の身体能力を適切に評価できる。 According to the physical ability presenting device described in item 13, the physical ability of the subject can be appropriately evaluated while taking into account the load on the subject.

今回開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and it is intended that all changes within the meaning and range equivalent to the claims are included.

10 家、12 通信装置、13 カメラ、14 表情筋センサ、15 心拍計、16 パーソナルコンピュータ、20 対象者、30 インターネット、100 制御装置、101 プロセッサ、102 メモリ、103 通信部、200 表示部。 10 House, 12 Communication device, 13 Camera, 14 Facial muscle sensor, 15 Heart rate monitor, 16 Personal computer, 20 Subject, 30 Internet, 100 Control device, 101 Processor, 102 Memory, 103 Communication unit, 200 Display unit.

Claims (10)

対象者の身体能力に関する情報を提示する身体能力提示方法であって、
対象者を含む画像から前記対象者の姿勢情報を生成するステップと、
前記対象者の生体情報を取得するステップと、
前記姿勢情報に基づいて対象者の姿勢を特定するステップと、
前記生体情報に基づいて前記対象者の姿勢に対する前記対象者の負荷を特定するステップと、
前記姿勢情報に基づいて特定された前記対象者の姿勢と、前記生体情報に基づいて特定された前記対象者の姿勢に対する前記対象者の負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示するステップとを備え、
前記生体情報は、前記対象者の顔に取り付けた表情筋センサまたは前記対象者に取り付けた心拍計の計測値により取得される、身体能力提示方法。
A physical ability presentation method for presenting information regarding a target person's physical ability, the method comprising:
generating posture information of the subject from an image including the subject;
acquiring biometric information of the subject;
identifying the posture of the subject based on the posture information;
identifying a load on the subject relative to the subject's posture based on the biological information ;
A combination of the posture of the subject specified based on the posture information and the load of the subject with respect to the posture of the subject specified based on the biological information is used to identify the physical ability of the subject. presenting the information ;
The biological information is acquired by a facial muscle sensor attached to the subject's face or a measured value of a heart rate monitor attached to the subject .
前記特定情報は、前記対象者の身体能力を評価するための基準情報を含む、請求項1に記載の身体能力提示方法。 The physical ability presentation method according to claim 1, wherein the specific information includes reference information for evaluating the subject's physical ability. 前記特定情報は、前記対象者の評価スコアを含む、請求項2に記載の身体能力提示方法。 The physical ability presentation method according to claim 2, wherein the specific information includes an evaluation score of the subject. 前記姿勢情報を取得するステップは、前記対象者の動作から前記姿勢情報を取得するステップを含む、請求項1から請求項3のいずれか1項に記載の身体能力提示方法。 The physical ability presentation method according to any one of claims 1 to 3, wherein the step of acquiring the posture information includes the step of acquiring the posture information from the movement of the subject. 前記特定情報は、前記対象者の過去の複数の前記姿勢情報および前記生体情報を含む、請求項1から請求項4のいずれか1項に記載の身体能力提示方法。 The physical ability presentation method according to claim 1 , wherein the specific information includes a plurality of pieces of posture information and a plurality of pieces of biometric information of the subject in the past. 前記姿勢情報は、前記対象者の関節の角度に関する情報を含む、請求項1から請求項5のいずれか1項に記載の身体能力提示方法。 The physical ability presenting method according to any one of claims 1 to 5, wherein the posture information includes information regarding angles of joints of the subject. 前記姿勢情報は、前記対象者の関節の速度に関する情報を含む、請求項1から請求項5のいずれか1項に記載の身体能力提示方法。 The physical ability presentation method according to claim 1 , wherein the posture information includes information regarding velocities of the subject's joints. 前記姿勢情報は、前記対象者に対して左右対称の動作を行わせたときに対象者から得られた姿勢情報を含む、請求項1から請求項3のいずれか1項に記載の身体能力提示方法。 The physical ability presentation method according to any one of claims 1 to 3, wherein the posture information includes posture information obtained from the subject when the subject is made to perform symmetrical movements. 対象者の身体能力に関する情報を提示する身体能力提示装置であって、
対象者を含む画像から前記対象者の姿勢情報を生成する生成部と、
前記対象者の生体情報を取得する取得部と、
前記姿勢情報に基づいて対象者の姿勢を特定する姿勢特定部と、
前記生体情報に基づいて前記対象者の姿勢に対する前記対象者の負荷を特定する負荷特定部と、
前記姿勢特定部により特定された姿勢と、前記負荷特定部により特定された負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示する提示部とを備え、
前記生体情報は、前記対象者の顔に取り付けた表情筋センサまたは前記対象者に取り付けた心拍計の計測値により取得される、身体能力提示装置。
A physical ability presentation device that presents information regarding a subject's physical ability,
a generation unit that generates posture information of the target person from an image including the target person;
an acquisition unit that acquires biological information of the subject;
a posture identification unit that identifies the posture of the subject based on the posture information;
a load identifying unit that identifies a load on the subject relative to the subject's posture based on the biological information ;
a presenting unit that presents specific information regarding the physical ability of the subject by combining the posture specified by the posture specifying unit and the load specified by the load specifying unit ;
The biological information is acquired by a facial muscle sensor attached to the subject's face or a measured value of a heart rate monitor attached to the subject .
対象者の身体能力に関する情報を提示する身体能力提示方法であって、
対象者を含む画像から前記対象者の姿勢情報を生成するステップと、
前記対象者の生体情報を取得するステップと、
前記姿勢情報に基づいて対象者の姿勢を特定するステップと、
前記生体情報に基づいて前記対象者の姿勢に対する前記対象者の負荷を特定するステップと、
前記姿勢情報に基づいて特定された前記対象者の姿勢と、前記生体情報に基づいて特定された前記対象者の姿勢に対する前記対象者の負荷と、を組み合わせて、前記対象者の身体能力に関する特定情報を提示するステップとを備え、
前記特定情報は、前記対象者の身体能力を評価するための基準情報を含み、
前記基準情報は、前記対象者の姿勢と、前記対象者の姿勢に対する前記対象者の負荷との関係を示す情報である、身体能力提示方法。
A physical ability presentation method for presenting information regarding a target person's physical ability, the method comprising:
generating posture information of the subject from an image including the subject;
acquiring biometric information of the subject;
identifying the posture of the subject based on the posture information;
identifying a load on the subject relative to the subject's posture based on the biological information;
A combination of the posture of the subject specified based on the posture information and the load of the subject with respect to the posture of the subject specified based on the biological information is used to identify the physical ability of the subject. presenting the information;
The specific information includes reference information for evaluating the physical ability of the subject,
The reference information is information indicating a relationship between a posture of the subject and a load of the subject with respect to the posture of the subject.
JP2020091411A 2020-05-26 2020-05-26 Physical ability presentation method and physical ability presentation device Active JP7459658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020091411A JP7459658B2 (en) 2020-05-26 2020-05-26 Physical ability presentation method and physical ability presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020091411A JP7459658B2 (en) 2020-05-26 2020-05-26 Physical ability presentation method and physical ability presentation device

Publications (2)

Publication Number Publication Date
JP2021185999A JP2021185999A (en) 2021-12-13
JP7459658B2 true JP7459658B2 (en) 2024-04-02

Family

ID=78850071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020091411A Active JP7459658B2 (en) 2020-05-26 2020-05-26 Physical ability presentation method and physical ability presentation device

Country Status (1)

Country Link
JP (1) JP7459658B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171356A1 (en) * 2022-03-07 2023-09-14 ソニーグループ株式会社 Patient monitoring system, patient monitoring method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140307927A1 (en) 2012-08-23 2014-10-16 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Tracking program and method
JP2016522049A (en) 2013-05-31 2016-07-28 ナイキ イノベイト シーブイ Dynamic sampling
JP2019063091A (en) 2017-09-29 2019-04-25 株式会社生命科学インスティテュート Maintenance system, maintenance method, and maintenance program
JP2019200673A (en) 2018-05-17 2019-11-21 株式会社ニューロスペース Presentation device, method for presentation, and program
JP2020048827A (en) 2018-09-26 2020-04-02 Kddi株式会社 Information processing device, support method, and support system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140307927A1 (en) 2012-08-23 2014-10-16 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Tracking program and method
JP2016522049A (en) 2013-05-31 2016-07-28 ナイキ イノベイト シーブイ Dynamic sampling
JP2019063091A (en) 2017-09-29 2019-04-25 株式会社生命科学インスティテュート Maintenance system, maintenance method, and maintenance program
JP2019200673A (en) 2018-05-17 2019-11-21 株式会社ニューロスペース Presentation device, method for presentation, and program
JP2020048827A (en) 2018-09-26 2020-04-02 Kddi株式会社 Information processing device, support method, and support system

Also Published As

Publication number Publication date
JP2021185999A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
Leightley et al. Automated analysis and quantification of human mobility using a depth sensor
US20170243354A1 (en) Automatic frontal-view gait segmentation for abnormal gait quantification
Moniri et al. Real-time forecasting of sEMG features for trunk muscle fatigue using machine learning
US9510789B2 (en) Motion analysis method
Houmanfar et al. Movement analysis of rehabilitation exercises: Distance metrics for measuring patient progress
JP7057589B2 (en) Medical information processing system, gait state quantification method and program
US9826923B2 (en) Motion analysis method
CN113647939B (en) Artificial intelligence rehabilitation evaluation and training system for spinal degenerative diseases
CN111937078A (en) Body function autonomous assistance device and method thereof
Malik et al. An intelligent recovery progress evaluation system for ACL reconstructed subjects using integrated 3-D kinematics and EMG features
CN114999646B (en) Newborn exercise development assessment system, method, device and storage medium
JP2022008806A (en) Blood pressure estimation system, blood pressure estimation method, learning device, learning method, and program
Dutta et al. Poststroke grasp ability assessment using an intelligent data glove based on action research arm test: development, algorithms, and experiments
Esfahlani et al. Machine Learning role in clinical decision-making: Neuro-rehabilitation video game
JP7459658B2 (en) Physical ability presentation method and physical ability presentation device
Leitner et al. A human-centered machine-learning approach for muscle-tendon junction tracking in ultrasound images
Pashley et al. Assessment of upper limb abnormalities using the Kinect: reliability, validity and detection accuracy in people living with acquired brain injury
Amor et al. A framework for interpretable full-body kinematic description using geometric and functional analysis
JP7455991B2 (en) Information processing device and information processing method
Albert et al. A computer vision approach to continuously monitor fatigue during resistance training
Nahavandi et al. A low cost anthropometric body scanning system using depth cameras
Sukhadia et al. IMU-Based Approach to Detect Spastic Cerebral Palsy in Infants at Early Stages
US20240130636A1 (en) Apparatus and method for motion capture
US20240225483A9 (en) Apparatus and method for motion capture
JP7357872B2 (en) Computer system, method, and program for estimating the state of a subject

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150