JP2023095114A - Health state evaluation device - Google Patents

Health state evaluation device Download PDF

Info

Publication number
JP2023095114A
JP2023095114A JP2021210811A JP2021210811A JP2023095114A JP 2023095114 A JP2023095114 A JP 2023095114A JP 2021210811 A JP2021210811 A JP 2021210811A JP 2021210811 A JP2021210811 A JP 2021210811A JP 2023095114 A JP2023095114 A JP 2023095114A
Authority
JP
Japan
Prior art keywords
score
state
health condition
image data
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021210811A
Other languages
Japanese (ja)
Inventor
千章 土井
Chiaki Doi
継泰 豊岡
Tsugiyasu Toyooka
聡 檜山
Satoshi Hiyama
啓一 佐々木
Keiichi Sasaki
隆太 川島
Ryuta Kawashima
類 野内
Rui Nouchi
徹 小川
Toru Ogawa
信裕 依田
Nobuhiro Yoda
成 白石
Naru Shiraishi
大貴 日原
Daiki Hihara
真澄 阿部
Masumi Abe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
NTT Docomo Inc
Original Assignee
Tohoku University NUC
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, NTT Docomo Inc filed Critical Tohoku University NUC
Priority to JP2021210811A priority Critical patent/JP2023095114A/en
Publication of JP2023095114A publication Critical patent/JP2023095114A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To evaluate the health state of a target site more accurately.SOLUTION: A health state evaluation device 10 includes: a video data acquisition unit 11 for acquiring plural pieces of video data about different actions related to a target site of a subject whose health state is to be evaluated; a state score calculation unit 13 for calculating at least one state score showing the state of the action from each video data; and a site-specific score calculation unit 14 for calculating a site-specific score related to the health state of the target site on the basis of the state score.SELECTED DRAWING: Figure 1

Description

本開示は、健康状態評価装置に関する。 The present disclosure relates to a health condition assessment device.

高齢者の増加に伴って、身体機能の改善を支援する手法が種々検討されている。例えば、特許文献1では、カメラにより対象ユーザの所定の機能に関する画像データを取得し、この画像データから所定の機能に関連する特徴量を抽出し、この特徴量に基づいた運動プログラムを決定する技術が記載されている。 With the increase in the number of elderly people, various techniques for assisting improvement of physical functions are being studied. For example, Patent Literature 1 discloses a technique of acquiring image data related to a predetermined function of a target user using a camera, extracting feature amounts related to the predetermined function from the image data, and determining an exercise program based on the feature amounts. is described.

特開2021-26650号公報Japanese Patent Application Laid-Open No. 2021-26650

しかしながら、特許文献1に記載の方法では、対象部位の所定の機能に関する評価は行われているが、対象部位の健康状態をより広い観点で評価することについては検討されていない。 However, in the method described in Patent Literature 1, although the predetermined function of the target site is evaluated, evaluation of the health condition of the target site from a broader perspective is not considered.

本開示は、対象部位の健康状態をより正確に評価することが可能な技術を提供することを目的とする。 An object of the present disclosure is to provide a technique capable of more accurately evaluating the health condition of a target site.

本開示の一形態に係る健康状態評価装置は、健康状態の評価の対象となる対象者の、対象部位に係る互いに異なる動作を撮像した複数の動画データを取得する動画データ取得部と、前記複数の動画データのそれぞれから動作の状態を示す1以上の状態スコアを算出する状態スコア算出部と、前記状態スコアに基づいて、前記対象部位の健康状態に係る部位別スコアを算出する部位別スコア算出部と、を有する。 A health condition evaluation apparatus according to an embodiment of the present disclosure includes a moving image data acquisition unit that acquires a plurality of moving image data obtained by capturing mutually different motions related to a target part of a subject whose health condition is to be evaluated; a state score calculation unit that calculates one or more state scores indicating the state of motion from each of the moving image data; and

上記の健康状態評価装置によれば、互いに異なる動作を撮像した複数の動画データのそれぞれから、動作の状態を示す1以上の状態スコアを算出し、これらの状態スコアに基づいて、対象部位の健康状態に係る部位別スコアが算出される。このように、互いに異なる動作を撮像した複数の動画データから部位別の健康状態を示す部位別スコアが算出されるため、当該部位の特定の動作に着目する場合と比較して、対象部位の健康状態をより多面的に且つ正確に評価することができる。 According to the above-described health condition evaluation device, one or more condition scores indicating the condition of a motion are calculated from each of a plurality of video data obtained by imaging different motions, and based on these condition scores, the health condition of the target part is evaluated. A site-specific score relating to the state is calculated. In this way, since the site-specific score indicating the health condition of each site is calculated from a plurality of video data obtained by capturing different motions, the health of the target site can be improved compared to the case of focusing on the specific motion of the site. The condition can be evaluated more multilaterally and accurately.

本発明によれば、対象部位の健康状態をより正確に評価することが可能な技術が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can evaluate the health condition of a target site|part more correctly is provided.

図1は、健康状態評価装置を含む健康状態評価システムの概略構成の一例を説明する図である。FIG. 1 is a diagram illustrating an example of a schematic configuration of a health condition evaluation system including a health condition evaluation device. 図2は、対象者が行う動作と状態検出部で検出する状態との対応関係の一例を示す図である。FIG. 2 is a diagram showing an example of a correspondence relationship between an action performed by a subject and a state detected by a state detection unit. 図3(a)、(b)は、状態スコアの算出方法の例を説明する図である。FIGS. 3A and 3B are diagrams for explaining an example of a state score calculation method. 図4は、部位別スコアの算出方法の例を説明する図である。FIG. 4 is a diagram illustrating an example of a method for calculating a site-specific score. 図5は、健康状態評価装置のハードウェア構成の例を説明する図である。FIG. 5 is a diagram illustrating an example of the hardware configuration of the health condition evaluation device. 図6は、健康状態評価方法の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of a health condition evaluation method. 図7は、健康状態評価プログラムの構成の一例を示す図である。FIG. 7 is a diagram showing an example of the configuration of a health condition evaluation program.

以下、添付図面を参照して、本開示の実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted.

[健康状態評価システム及び健康状態評価装置]
図1は、一実施形態に係る健康状態評価装置10を含む健康状態評価システム1の概略構成図である。健康状態評価システム1は、対象者Xの動作に係る動画像を撮影し、この動画データに基づいて対象者Xの対象部位の健康状態を評価するシステムである。本実施形態では、対象者Xの対象部位として、「顎口腔系」の健康状態の評価を行う場合について説明する。なお、顎口腔系は、舌、口唇、顎、頬の4つの対象部位を包括したものである。健康状態評価システム1では、上記の4つの部位それぞれについて、健康状態を示すスコアとして、部位別スコアDを算出すると共に、全部位、すなわち顎口腔系についての健康状態を示すスコアも算出する。
[Health condition evaluation system and health condition evaluation device]
FIG. 1 is a schematic configuration diagram of a health condition evaluation system 1 including a health condition evaluation device 10 according to one embodiment. The health condition evaluation system 1 is a system that captures a moving image of the motion of the subject X and evaluates the health condition of the target part of the subject X based on this moving image data. In the present embodiment, a case of evaluating the health condition of the "stomatognathic system" as a target part of the subject X will be described. The stomatognathic system encompasses four target parts of the tongue, lips, jaw, and cheeks. The health condition evaluation system 1 calculates the score D for each part as a score indicating the state of health for each of the above four parts, and also calculates the score indicating the health condition for all parts, that is, the stomatognathic system.

健康状態評価システム1は、健康状態評価装置10及び撮像装置20を含んで構成される。撮像装置20は、対象者Xの対象部位の動作に係る動画像を撮像する機能を有する。撮像装置20としては、動画の撮影機能を有している装置であれば限定されず、カメラ、タブレット端末、スマートフォン等の装置を用いることができる。 The health condition evaluation system 1 includes a health condition evaluation device 10 and an imaging device 20 . The imaging device 20 has a function of capturing a moving image related to the motion of the subject X's target part. The imaging device 20 is not limited as long as it has a moving image shooting function, and devices such as cameras, tablet terminals, and smartphones can be used.

健康状態評価装置10は、動画データ取得部11、状態検出部12、状態スコア算出部13、部位別スコア算出部14、結果出力部15、及び、関連情報保持部16を含んで構成される。 The health condition evaluation device 10 includes a video data acquisition unit 11 , a condition detection unit 12 , a condition score calculation unit 13 , a site-specific score calculation unit 14 , a result output unit 15 , and a related information storage unit 16 .

動画データ取得部11は、対象者Xの動作を撮像した複数種類の動画データを撮像装置20から取得する機能を有する。対象者Xの動画データとは、予め対象部位のスコアを算出するために指定された動作を対象者Xが行ったものを撮像したデータである。例えば、顎口腔系の健康状態を評価する際に使用する動作としては、例えば、単音の発音を所定期間繰り返し行う発音動作、指定された何種類かの表情を真似る表情動作、舌を指定された向きへ向ける舌運動動作が挙げられる。これらの動作を対象者Xに行わせ、その動画を撮像装置20によって取得する。このとき、撮像装置20によって音声データを含む動画データを取得し、このデータを健康状態評価装置10へ送信する。動画データ取得部11が撮像装置20から取得した動画データを用いて後段の解析が行われる。 The moving image data acquisition unit 11 has a function of acquiring a plurality of types of moving image data obtained by imaging the motion of the subject X from the imaging device 20 . The moving image data of the subject X is data obtained by capturing images of the subject X performing an action designated in advance for calculating the score of the target part. For example, the actions used to evaluate the health condition of the stomatognathic system include, for example, a pronunciation action of repeatedly pronouncing a single syllable for a predetermined period of time, a facial expression action of imitating a specified number of facial expressions, and a specified tongue movement. Orienting tongue movements are included. The target person X is caused to perform these actions, and the moving images thereof are acquired by the imaging device 20 . At this time, the imaging device 20 acquires moving image data including audio data, and transmits this data to the health condition evaluation device 10 . Using the moving image data acquired from the imaging device 20 by the moving image data acquiring unit 11, the subsequent analysis is performed.

状態検出部12は、動画データ取得部11において取得された動画データを用いて対象者Xの状態を検出する。図2は、動作と状態との関係の一例を示す図である。検出対象となる「状態」とは、指定された動作がどの程度実行できているかを示す指標であり、1つの動作に対応して1又は複数の「状態」が設定され、それぞれについて数値化される。例えば、発音動作については、音声データを解析することによって発音回数、発音のクリアさを指標として用いることができる。音声データの解析方法としては種々の手法を用いることができるが、一例として、機械学習を利用した解析方法が挙げられる。例えば、音声データをスペクトル分析することにより、スペクトログラムを作成し、スペクトログラムについてCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)を用いて特徴量を抽出してもよい。さらに、この特徴量について、LSTM(Long Short-Term Memory)またはRNN(Recurrent Neural Network:再帰型ニューラルネットワーク)等を用いたモデルを利用して、各状態の発生確率を求めることによって、発音した音、発音回数、発音のクリアさ等に係る情報を得る事ができる。これらの手法は、音声認識の方法で用いられているものであり、これらを適用することで、音声データから発音に係る情報を得ることができる。 The state detection unit 12 detects the state of the subject X using the video data acquired by the video data acquisition unit 11 . FIG. 2 is a diagram illustrating an example of the relationship between actions and states. The "state" to be detected is an index indicating how well the specified action is executed. One or more "states" are set for each action, and each of them is quantified. be. For example, with regard to the pronunciation operation, the number of pronunciations and the clearness of the pronunciation can be used as indicators by analyzing the voice data. Various techniques can be used as a method for analyzing voice data, and one example is an analysis method using machine learning. For example, a spectrogram may be created by spectrally analyzing speech data, and a feature amount may be extracted from the spectrogram using a CNN (Convolutional Neural Network). Furthermore, for this feature quantity, using a model using LSTM (Long Short-Term Memory) or RNN (Recurrent Neural Network), etc., the probability of occurrence of each state is obtained, and the pronounced sound , the number of pronunciations, the clarity of pronunciation, etc. can be obtained. These techniques are used in speech recognition methods, and by applying them, information on pronunciation can be obtained from speech data.

一方、発音動作の動画データから画像解析を行うことで、顎の動きがどの程度大きいかを数値化し「状態」を示す数値として用いることができる。このような解析の一例として、画像データを用いた状態検出モデルを適用することが挙げられる。例えば、事前にResNet(Residual Neural Network)を用いて状態が既知のデータを学習させることによって構築した顎の動きを判定する判定系モデルと、口の開き度合いや傾きを計測する計測系モデルとを準備しておき、画像データをこれらのモデルに当てはめることによって、顎の動きを数値化することができる。なお、判定系モデル及び計測モデルを作成する方法は、上述のResNetに限定されず、公知の機械学習手法を用いることができる。 On the other hand, by performing image analysis on the moving image data of the sounding action, it is possible to quantify how large the jaw movement is and use it as a numerical value indicating the "state". An example of such analysis is the application of a state detection model using image data. For example, a judgment system model that determines jaw movements constructed by learning data with known conditions using ResNet (Residual Neural Network) in advance, and a measurement system model that measures the degree of opening and tilt of the mouth. By preparing and fitting the image data to these models, the movement of the jaw can be quantified. Note that the method of creating the determination system model and the measurement model is not limited to the ResNet described above, and a known machine learning technique can be used.

同様に、表情動作については、例えば、一の表情を指定された際の運動量と、表情の維持時間とを、画像解析を行うことで状態を示す数値として用いることができる。また、舌運動については、例えば、運動量、指定された向きへ舌を出した状態の維持時間、静止時の口の開き具合などを、動作の状態を示す数値として用いることができる。 Similarly, with respect to facial expression actions, for example, the amount of exercise when one facial expression is designated and the duration of the facial expression can be used as numerical values indicating the state by performing image analysis. As for the tongue movement, for example, the amount of movement, the duration of the tongue sticking out in a specified direction, the openness of the mouth at rest, and the like can be used as numerical values indicating the state of the movement.

状態検出部12では、上記のように、各動作に係る動画データに含まれる各種情報を利用して、動作の状態を示す指標毎に数値化を行う。なお、どのような状態の数値化を行うかは予め定められていてもよく、この情報は関連情報保持部16において保持されていてもよい。 As described above, the state detection unit 12 quantifies each index indicating the state of the action by using various information included in the moving image data related to each action. It should be noted that the type of state to be digitized may be determined in advance, and this information may be held in the related information holding unit 16 .

状態スコア算出部13は、状態検出部12で検出された指標の数値からスコアを算出する機能を有する。図3は、指標の数値とスコアとの対応例を示している。図3(a)では、発音動作において、所定の音の発音回数に応じて状態スコアを算出する例として、例えば、発音回数が1~10回の場合にはスコアを1点とし、発音回数11~30回の場合にはスコアを5点とし、発音回数31回以上の場合にはスコアを10点とする例を示している。このように、状態スコア算出部13は、指標毎の数値をスコアに変換する。 The state score calculator 13 has a function of calculating a score from the numerical value of the index detected by the state detector 12 . FIG. 3 shows an example of the correspondence between index values and scores. FIG. 3(a) shows an example of calculating the state score according to the number of pronunciations of a predetermined sound in the pronunciation operation. An example is shown in which the score is set to 5 points when the number of pronunciations is up to 30 times, and the score is set to 10 points when the number of pronunciations is 31 times or more. In this way, the state score calculator 13 converts the numerical value for each index into a score.

図3(b)では、指標(ここでは発音回数)とスコアとの関係が動的に変更する例として、指標の数値分布に応じてスコアの割り当てを変更する例を示している。この例では、対象者の指標の分布に応じて、上位の所定割合(例えば、25%)の対象者をスコア10点とすると共に下位の所定割合(例えば、25%)の対象者をスコア1点とし、その間の対象者のスコアを5点とするというように基準を決め、この割合にスコアが割り振られるように、発音回数の数値とスコアとの関係を調整するというものである。この結果、図3(b)に示す例では、発音回数が1~7回の場合にはスコアを1点とし、発音回数8~15回の場合にはスコアを5点とし、発音回数16回以上の場合にはスコアを10点としている。このように、状態スコア算出部13においてスコアを算出する場合には、他者との相対的な数値の差がスコアに現われやすいように、指標の数値とスコアとの関係を調整してもよい。なお、スコアの調整方法としては、上記のように多数の対象者の状態に係る数値のバラつきを考慮した調整を行ってもよい。 FIG. 3B shows an example of dynamically changing the relationship between the index (here, the number of pronunciations) and the score, in which the score assignment is changed according to the numerical distribution of the index. In this example, according to the distribution of the index of the subjects, a predetermined percentage (eg, 25%) of the subjects is given a score of 10 points, and a predetermined percentage (eg, 25%) of the subjects is given a score of 1. In this method, a standard is determined such that a target person's score is 5 points, and the relationship between the numerical value of the number of pronunciations and the score is adjusted so that the score is assigned to this ratio. As a result, in the example shown in FIG. 3(b), when the number of pronunciations is 1 to 7, the score is 1 point, when the number of pronunciations is 8 to 15, the score is 5 points, and the number of pronunciations is 16 times. In the above cases, the score is 10 points. In this way, when the score is calculated by the state score calculation unit 13, the relationship between the numerical value of the index and the score may be adjusted so that the difference in the numerical value relative to the other person is likely to appear in the score. . As for the score adjustment method, adjustment may be performed in consideration of variations in numerical values relating to the states of a large number of subjects as described above.

部位別スコア算出部14は、上記の各動作において得られた状態スコアから対象部位毎の状態スコアを算出する機能を有する。上記で算出したスコアは、各動作における特定の指標に対するスコアであるが、各指標は、舌、口唇、顎、頬のうちの少なくとも1つに関連し得る。例えば、発音動作における発音回数は、舌、口唇及び顎の健康状態と関係すると推定することができる。また、発音動作における発音のクリアさは、舌及び口唇の健康状態と関係すると推定される。さらに、表情動作の運動量は、口唇、顎及び頬の健康状態と関係すると推定される。このように、上述の各動作から算出された状態スコアのうち、対象部位と関係するスコアを組み合わせて、対象部位のスコアを算出する。 The part-by-part score calculation unit 14 has a function of calculating a condition score for each target part from the condition scores obtained in each of the above actions. The scores calculated above are for specific indicators in each movement, but each indicator can be associated with at least one of tongue, lips, jaw, and cheeks. For example, it can be estimated that the number of pronunciations in a pronunciation action is related to the health of the tongue, lips and jaws. In addition, it is presumed that the clarity of pronunciation in the pronunciation operation is related to the health condition of the tongue and lips. In addition, the amount of movement of facial expressions is presumed to be related to the health of lips, jaws and cheeks. In this way, among the state scores calculated from the respective motions described above, scores related to the target part are combined to calculate the score of the target part.

図4では、部位別スコアの算出例を示している。ここでは、スコアは100点満点として算出するように設定をしている。例えば、舌に関係する状態スコアとして、発音回数、発音のクリアさ、舌運動量、舌運動維持時間が挙げられているので、対象者におけるこれらの状態スコアを合算し、全ての状態スコアが満点である条件を100点満点とした際に、どのような点数となるかを、下記の数式(1)を用いて算出している。
(状態スコア合計値/(状態スコア数×10))×100…(1)
ここでは、各状態スコアがそれぞれ10点満点で設定されているとして、状態スコアが満点である条件を、状態スコア数(状態スコアの種類)×10としている。ただし、部位別の状態スコアの算出時には、例えば、重み付け等を行うことで、所定の状態スコアについては20点満点というように設定してもよい。この場合、上記数式(1)の(状態スコア数×10)という部分が適宜変更される。
FIG. 4 shows an example of calculating the site-specific score. Here, the score is set to be calculated out of 100 points. For example, state scores related to the tongue include the number of pronunciations, clearness of pronunciation, amount of tongue movement, and tongue movement maintenance time. When a certain condition is out of 100 points, the score is calculated using the following formula (1).
(Total status score/(number of status scores x 10)) x 100 (1)
Here, it is assumed that each state score is set to a maximum of 10 points, and the condition for a state score to be a perfect score is the number of state scores (types of state scores)×10. However, when calculating the state score for each part, for example, weighting may be performed to set the predetermined state score to a maximum of 20 points. In this case, the part of (the number of state scores×10) in the above formula (1) is appropriately changed.

なお、図4に示す口唇についても舌と同様の方法で状態スコアが算出されている。なお、口唇については、発音動作に係る状態スコアのうち、発音回数・発音のクリアさについて、発音した音の種類によって異なるスコアが設定されている。このように、動作をより細分化して状態スコアを設定してもよい。 In addition, the state score is calculated for the lips shown in FIG. 4 in the same manner as for the tongue. Regarding the lips, among the state scores related to the sounding action, different scores are set for the number of soundings and clarity of sounding according to the type of sound that is sounded. In this way, the state score may be set by subdividing the action.

さらに、図4では、合計のスコアも算出している。ここでは、舌、口唇、顎及び頬の部位別スコアの平均値を全部位(顎口腔系)の状態スコアとして算出している。平均値を用いるのは一例であって、部位毎に重み付けを変えることにしてもよい。 Furthermore, in FIG. 4, the total score is also calculated. Here, the average value of the scores for each region of the tongue, lips, chin, and cheeks is calculated as the condition score for all regions (the stomatognathic system). Using the average value is an example, and weighting may be changed for each part.

このように、部位別スコア算出部14では、試験用の動作から得られた状態スコアを組み合わせることで、対象部位毎に部位別スコアを算出する。なお、部位別スコアを算出する際に、どの動作のどの状態スコアを使用するかは、予め定められている。また、これらの情報は、関連情報保持部16において保持されていてもよい。 In this manner, the site-specific score calculation unit 14 calculates the site-specific score for each target site by combining the state scores obtained from the test motions. It should be noted that which state score of which motion is to be used when calculating the site-specific score is determined in advance. Also, these pieces of information may be held in the related information holding unit 16 .

結果出力部15は、部位別スコア算出部14で算出された部位別スコアを出力する機能を有する。出力先及び出力方法は特に限定されないが、例えば外部装置に対してデータとして出力してもよいし、モニタ等に表示することとしてもよい。 The result output unit 15 has a function of outputting the site-specific score calculated by the site-specific score calculation unit 14 . The output destination and output method are not particularly limited. For example, the data may be output as data to an external device, or may be displayed on a monitor or the like.

関連情報保持部16は、上記の部位別スコアの算出に使用する各種情報を保持する機能を有する。関連情報保持部16で保持される情報としては、上述の状態に係る数値の算出方法(例えば画像の解析方法)、状態に係る数値とスコアとの対応関係に係る情報、部位別スコアの算出方法等が挙げられるが、このほかにも健康状態評価装置10における各処理に使用される情報が保持されていてもよい。 The related information holding unit 16 has a function of holding various kinds of information used for calculating the site-specific score. The information held in the related information holding unit 16 includes the calculation method of the numerical value related to the above-mentioned state (for example, the image analysis method), the information related to the correspondence relationship between the numerical value related to the state and the score, and the method of calculating the score for each part. etc., but in addition to this, information used for each process in the health condition evaluation device 10 may be held.

[ハードウェア構成]
例えば、上記の健康状態評価装置10は、コンピュータとして機能してもよい。図5は、本実施形態に係る健康状態評価装置10のハードウェア構成の一例を示す図である。健康状態評価装置10は、物理的には、プロセッサC1、メモリC2、ストレージC3、通信装置C4、入力装置C5、出力装置C6、バスC7などを含むコンピュータ装置として構成されてもよい。
[Hardware configuration]
For example, the health condition evaluation device 10 described above may function as a computer. FIG. 5 is a diagram showing an example of the hardware configuration of the health condition evaluation device 10 according to this embodiment. Physically, the health evaluation device 10 may be configured as a computer device including a processor C1, a memory C2, a storage C3, a communication device C4, an input device C5, an output device C6, a bus C7, and the like.

なお、以下の説明で、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。健康状態評価装置10のハードウェア構成は、図5に示した各装置を1つ又は複数含むように構成されてもよい。また、一部の装置を含まずに構成されてもよい。 In the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the health condition evaluation device 10 may be configured to include one or more of each device shown in FIG. Moreover, it may be configured without including some of the devices.

健康状態評価装置10における各機能は、プロセッサC1、メモリC2などのハードウェア上に所定のソフトウェアを読み込ませることにより、プロセッサC1が演算を行い、通信装置C4による通信、メモリC2、及びストレージC3におけるデータの読み出し及び/又は書き込みを制御することにより実現される。 Each function in the health condition evaluation device 10 is performed by the processor C1 by loading predetermined software on hardware such as the processor C1 and the memory C2, and the communication by the communication device C4, the memory C2, and the storage C3 It is realized by controlling reading and/or writing of data.

プロセッサC1は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサC1は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサC1は、GPU(Graphics Processing Unit)を含んで構成されてもよい。例えば、健康状態評価装置10の各機能部などは、プロセッサC1により実現されてもよい。 The processor C1, for example, operates an operating system to control the entire computer. The processor C1 may be configured with a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. Moreover, the processor C1 may be configured including a GPU (Graphics Processing Unit). For example, each functional unit of the health condition evaluation device 10 may be realized by the processor C1.

また、プロセッサC1は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージC3及び/又は通信装置C4からメモリC2に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、健康状態評価装置10の各機能部は、メモリC2に格納され、プロセッサC1で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサC1で実行される旨を説明してきたが、2以上のプロセッサC1により同時又は逐次に実行されてもよい。プロセッサC1は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor C1 also reads programs (program codes), software modules and data from the storage C3 and/or the communication device C4 to the memory C2, and executes various processes according to these. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, each functional unit of the health condition evaluation device 10 may be implemented by a control program stored in the memory C2 and operated by the processor C1. Although it has been explained that the various processes described above are executed by one processor C1, they may be executed simultaneously or sequentially by two or more processors C1. Processor C1 may be implemented with one or more chips. Note that the program may be transmitted from a network via an electric communication line.

メモリC2は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Progra mmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリC2は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリC2は、本発明の一実施の形態に係る健康状態評価方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory C2 is a computer-readable recording medium, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), etc. may be configured. The memory C2 may also be called a register, cache, main memory (main storage device), or the like. The memory C2 can store executable programs (program codes), software modules, etc. for implementing the health condition evaluation method according to one embodiment of the present invention.

ストレージC3は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Comp act Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージC3は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリC2及び/又はストレージC3を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage C3 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu-ray ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage C3 may be called an auxiliary storage device. The aforementioned storage medium may be, for example, a database, server or other suitable medium including memory C2 and/or storage C3.

通信装置C4は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device C4 is hardware (transmitting/receiving device) for communicating between computers via a wired and/or wireless network, and is also called a network device, network controller, network card, communication module, or the like.

入力装置C5は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置C6は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置C5及び出力装置C6は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device C5 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside. The output device C6 is an output device (for example, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device C5 and the output device C6 may be integrated (for example, a touch panel).

また、プロセッサC1やメモリC2などの各装置は、情報を通信するためのバスC7で接続される。バスC7は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Devices such as the processor C1 and the memory C2 are connected by a bus C7 for communicating information. The bus C7 may be composed of a single bus, or may be composed of different buses between devices.

[健康状態評価方法]
図6を参照しながら、健康状態評価装置10による健康状態評価方法について説明する。
[Health condition evaluation method]
A health condition evaluation method by the health condition evaluation device 10 will be described with reference to FIG.

まず、健康状態評価装置10は、ステップS01を実行する。ステップS01では、動画データ取得部11が撮像装置20から動画データを取得する。 First, the health condition evaluation device 10 executes step S01. In step S<b>01 , the moving image data acquisition unit 11 acquires moving image data from the imaging device 20 .

次に、健康状態評価装置10は、ステップS02を実行する。ステップS02では、状態検出部12が、動画データから予め設定された状態に係る検出を行う。この結果、特定の状態の指標となる数値が得られる。上述したように、1つの動画データからは1または複数の状態が検出される。さらに、動画データが複数ある場合、各動画データについて同様の処理が行われる。 Next, the health condition evaluation device 10 executes step S02. In step S02, the state detection unit 12 detects a preset state from the moving image data. The result is a numerical value that is indicative of a particular condition. As described above, one or more states are detected from one moving image data. Furthermore, when there is a plurality of moving image data, similar processing is performed for each moving image data.

次に、健康状態評価装置10は、ステップS03を実行する。ステップS03では、状態スコア算出部13が、状態検出部12において検出された状態に係る数値を状態スコアに変換する。この処理は、各状態に関して得られた数値毎に行われる。 Next, the health condition evaluation device 10 executes step S03. In step S03, the state score calculation unit 13 converts the numerical value related to the state detected by the state detection unit 12 into a state score. This processing is performed for each numerical value obtained for each state.

なお、ステップS02(状態の検出)とステップS03(状態スコアの算出)とは、並行して行われてもよい。例えば、1つの動画データに係る状態を検出した後に当該状態を状態スコアに変換しつつ(S03)、他の動画データについて状態を検出する(S02)処理を並行して行ってもよい。 Note that step S02 (state detection) and step S03 (state score calculation) may be performed in parallel. For example, after detecting the state of one video data, converting the state into a state score (S03), the processing of detecting the state of other video data (S02) may be performed in parallel.

次に、健康状態評価装置10は、ステップS04を実行する。ステップS04では、部位別スコア算出部14が、状態スコア算出部13で算出された状態スコアを組み合わせて集計することによって部位別スコアを算出する。これにより、部位別の健康状態を示す部位別スコアDが得られる。なお、この段階で対象となる複数種類の部位全体(上記実施形態の場合には顎口腔系全体)の状態スコアを算出してもよい。 Next, the health condition evaluation device 10 executes step S04. In step S<b>04 , part-specific score calculation section 14 calculates a part-specific score by combining and aggregating the state scores calculated by state score calculation section 13 . As a result, a site-specific score D indicating the health condition of each site is obtained. At this stage, the condition score of the entire multiple types of target regions (in the case of the above embodiment, the entire stomatognathic system) may be calculated.

最後に、健康状態評価装置10は、ステップS05を実行する。ステップS05では、結果出力部15によって、部位別スコア算出部14において算出された部位別スコアDが出力される。これにより、健康状態評価装置10の操作者及び対象者X等が、結果を確認することができる。 Finally, the health condition evaluation device 10 executes step S05. In step S<b>05 , the result output unit 15 outputs the site-specific score D calculated by the site-specific score calculation unit 14 . Accordingly, the operator of the health condition evaluation device 10, the subject X, and the like can confirm the result.

[健康状態評価プログラム]
図7に示されるように、健康状態評価プログラムP1は、健康状態評価装置10におけるスコア算出に係る処理を統括的に制御するメインモジュールm10、動画データ取得モジュールm11、状態検出モジュールm12、状態スコア算出モジュールm13、部位別スコア算出モジュールm14、及び、結果出力モジュールm15を備えて構成される。そして、各モジュールm11~m15により、動画データ取得部11、状態検出部12、状態スコア算出部13、部位別スコア算出部14、及び結果出力部15のための各機能が実現される。
[Health condition assessment program]
As shown in FIG. 7, the health condition evaluation program P1 includes a main module m10 for overall control of processing related to score calculation in the health condition evaluation device 10, a moving image data acquisition module m11, a condition detection module m12, and a condition score calculation module. It comprises a module m13, a region-specific score calculation module m14, and a result output module m15. Each of the modules m11 to m15 implements the respective functions of the moving image data acquisition unit 11, the condition detection unit 12, the condition score calculation unit 13, the part-specific score calculation unit 14, and the result output unit 15.

なお、健康状態評価プログラムP1は、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図7に示されるように、記録媒体M1に記憶される態様であってもよい。 The health condition evaluation program P1 may be transmitted via a transmission medium such as a communication line, or may be stored in a recording medium M1 as shown in FIG. .

[作用]
上記の健康状態評価装置10では、互いに異なる動作を撮像した複数の動画データのそれぞれから、動作の状態を示す1以上の状態スコアを算出し、これらの状態スコアに基づいて、対象部位の健康状態に係る部位別スコアが算出される。このように、健康状態評価装置10では、互いに異なる動作を撮像した複数の動画データから部位別の健康状態を示す部位別スコアが算出されるため、当該部位の特定の動作に着目する場合と比較して、対象部位の健康状態をより多面的に評価することができる。
[Action]
The above-described health condition evaluation apparatus 10 calculates one or more condition scores indicating the condition of the motion from each of a plurality of video data obtained by imaging different motions, and based on these condition scores, determines the health condition of the target part. is calculated. In this way, in the health condition evaluation apparatus 10, since a region-specific score indicating the health condition of each region is calculated from a plurality of moving image data obtained by capturing mutually different actions, compared with the case of focusing on a specific action of the region. By doing so, the health condition of the target part can be evaluated in a more multifaceted manner.

従来から、健康状態を評価する方法として、特定の動作ができているか等に基づく評価を行うことが行われていた。また、動作を撮像した動画データに基づいて上記の行うことも検討されていた。しかしながら、特定の動作を行っただけでは、対象者Xの対象部位の健康状態をより正確に把握することが難しい場合もある。これに対して、上記の健康状態評価装置10では、複数の動作に係る動作データから状態スコアを算出し、これらを組み合わせて部位別スコアを算出するため、対象部位の状態をより正確に評価することができる。 Conventionally, as a method of evaluating the state of health, an evaluation based on whether or not a specific action can be performed has been performed. In addition, it has been considered to perform the above based on moving image data obtained by imaging the action. However, it may be difficult to accurately grasp the health condition of the target part of the subject X only by performing a specific action. On the other hand, the above-described health condition evaluation apparatus 10 calculates condition scores from motion data relating to a plurality of motions and combines them to calculate a score for each part, so that the condition of the target part can be evaluated more accurately. be able to.

健康状態評価装置10の状態スコア算出部13は、複数の動画データのそれぞれから、複数種類の状態スコアを算出してもよい。また、部位別スコア算出部14は、複数の動画データのそれぞれから得られた複数種類の状態スコアに基づいて、部位別スコアを算出してもよい。このような構成とした場合、1つの動作を撮像した動画データから複数の状態スコアが得られることから、1つの動作についてもより多くの状態スコアを用いて評価することができる。したがって、対象部位の健康状態をより正確に評価することができる。 The condition score calculation unit 13 of the health condition evaluation device 10 may calculate multiple types of condition scores from each of the plurality of moving image data. Further, the region-specific score calculation unit 14 may calculate the region-specific score based on a plurality of types of state scores obtained from each of a plurality of moving image data. With such a configuration, a plurality of state scores can be obtained from video data obtained by imaging one action, so that one action can be evaluated using more state scores. Therefore, the health condition of the target part can be evaluated more accurately.

また、上記実施形態で説明したように、動画データは、複数の対象部位に係る動作を撮像したデータであってもよい。また、部位別スコア算出部14は、対象部位毎に、状態スコアのうち当該対象部位に関連する一部の状態スコアに基づいて、部位別スコアを算出してもよい。上記の構成とすることで、対象者の複数の対象部位に関して部位別スコアを算出することができる。また、これらの対象部位は同一の動作に係る部位であることから互いの関連も強いため、対象者の複数の対象部位の付近の状態をより俯瞰して把握することができると共に、対象部位同士の部位別スコアの差異等を考慮してより詳細な評価も可能となる。 Further, as described in the above embodiment, the moving image data may be data obtained by imaging motions related to a plurality of target parts. Further, the site-specific score calculation unit 14 may calculate the site-specific score for each target site based on a part of the state scores related to the target site. With the above configuration, it is possible to calculate the site-specific score for a plurality of target sites of the subject. In addition, since these target parts are parts related to the same motion, they are strongly related to each other. It is also possible to make a more detailed evaluation considering the difference in the score for each part of the body.

部位別スコア算出部14は、複数の対象部位に係る部位別スコアから、全体スコアを算出してもよい。このような構成とすることで、対象者の複数の対象部位が含まれる身体部分の健康状態をより俯瞰した情報を得ることができ、特定部位に限らない健康状態の傾向を把握することができる。 The part-specific score calculation unit 14 may calculate the overall score from the part-specific scores of a plurality of target parts. By adopting such a configuration, it is possible to obtain more comprehensive information on the health condition of the subject's body part including a plurality of target parts, and it is possible to grasp the trend of the health condition not limited to a specific part. .

また、上記実施形態における発音運動を撮像したデータのように、動画データは、発声動作を撮像した動画データを含んでいてもよい。このとき、状態スコア算出部13は、動画データに含まれる音声情報から得られる第1状態スコア(上記実施形態では、発音回数、発音のクリアさ等)と、画像情報から得られる第2状態スコア(上記実施形態では、顎の動き等)と、を算出してもよい。このような構成とすることで、動画データから音声情報と画像情報とを用いて2つの状態スコアを得ることができ、発声動作に基づく動画データについてより詳細な情報を得ることができる。なお、上記実施形態で説明したように、3つ以上の状態スコアを得る構成としてもよい。また、複数の動画データ全てが音声データを含む動画データである必要はなく、少なくとも1つの動画データが音声データを含んでいる場合、画像解析以外の情報に基づいて状態スコアが算出され、これに基づいて部位別スコアが算出されることから、上述のように、対象部位に係るより詳細な評価を行うことが可能となる。 In addition, like the data obtained by imaging the pronunciation movement in the above embodiment, the moving image data may include the moving image data obtained by imaging the vocalization movement. At this time, the state score calculation unit 13 calculates a first state score (in the above embodiment, the number of pronunciations, clarity of pronunciation, etc.) obtained from the audio information included in the video data, and a second state score obtained from the image information. (in the above-described embodiment, movement of the jaw, etc.) may be calculated. By adopting such a configuration, it is possible to obtain two state scores from the moving image data using the audio information and the image information, and it is possible to obtain more detailed information about the moving image data based on the utterance action. In addition, as described in the above embodiment, the configuration may be such that three or more state scores are obtained. In addition, all of the plurality of video data does not have to be video data containing audio data, and if at least one video data contains audio data, the condition score is calculated based on information other than image analysis, and this Since the site-specific score is calculated based on the above, it is possible to perform a more detailed evaluation of the target site as described above.

なお、上記実施形態では、顎口腔系を想定して健康状態を評価する場合について説明したが、動画データを用いた健康状態評価装置10は、顎口腔系以外にも適用が可能である。例えば、顎口腔系と同様に発声に関係する部位として、発声に関係する体内組織が挙げられる。例えば、輪状甲状筋は、声帯をコントロールする筋肉であるため、発音した音声の音質や音程から状態スコアを算出することができる。また、横隔膜は、発声と同時にも行われる呼吸をコントロールする機能を有しているため、発音の回数や横隔膜付近や肩の上がり下がりより状態スコアを算出することができる。さらに、腹筋・背筋等も発声に寄与するため、発音のクリアさや音程、腹部・背中の動きから状態スコアを算出することができる。このように顎口腔系に限らず、発声に関与する部位の評価を行う場合、上記の健康状態評価装置10と同様に、複数の動画データに基づいた部位別スコアを算出することができる。また、この場合には、動画データの撮像範囲は、口周辺に限らず、例えば、上半身とされる。このように、対象部位に応じて撮像範囲は適宜変更される。 In the above embodiment, the case of evaluating the health condition assuming the stomatognathic system has been described, but the health condition evaluation device 10 using moving image data can be applied to other than the stomatognathic system. For example, body tissues related to vocalization can be cited as sites related to vocalization as well as the stomatognathic system. For example, since the cricothyroid muscle is a muscle that controls the vocal cords, the condition score can be calculated from the sound quality and pitch of the vocal cords. In addition, since the diaphragm has a function to control breathing that is performed at the same time as vocalization, the state score can be calculated from the number of vocalizations and the rise and fall of the vicinity of the diaphragm and shoulders. Furthermore, since abdominal muscles, back muscles, etc. also contribute to vocalization, the state score can be calculated from the clearness of pronunciation, the pitch, and the movements of the abdomen and back. In this way, when evaluating not only the stomatognathic system but also the part involved in vocalization, the score for each part can be calculated based on a plurality of moving image data, similarly to the health condition evaluation device 10 described above. Also, in this case, the imaging range of the moving image data is not limited to the vicinity of the mouth, but is, for example, the upper half of the body. In this manner, the imaging range is appropriately changed according to the target site.

[その他]
上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。また、本実施形態で説明した「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。
[others]
The block diagrams used in the description of the above embodiments show blocks for each function. These functional blocks (components) are implemented by any combination of at least one of hardware and software. Also, the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices. Also, the term "apparatus" described in this embodiment can be read as a circuit, a device, a unit, or the like.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, examining, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to access websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used in this disclosure, the terms "system" and "network" are used interchangeably.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determination" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiry (eg, lookup in a table, database, or other data structure); Also, “judgment” and “determination” are used to refer to receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (Accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" refer to resolving, selecting, choosing, establishing, comparing, etc. as "judgment" and "decision". can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected," "coupled," or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in this disclosure, two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms, like the term "comprising," are inclusive. is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.

本開示において、例えば、英語でのa,an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles are added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."

[付記]
一形態に係る健康状態評価装置は、健康状態の評価の対象となる対象者の、対象部位に係る互いに異なる動作を撮像した複数の動画データを取得する動画データ取得部と、前記複数の動画データのそれぞれから動作の状態を示す1以上の状態スコアを算出する状態スコア算出部と、前記状態スコアに基づいて、前記対象部位の健康状態に係る部位別スコアを算出する部位別スコア算出部と、を有する。
[Appendix]
A health condition evaluation apparatus according to one aspect includes a moving image data acquisition unit that acquires a plurality of moving image data obtained by capturing different motions related to a target part of a subject whose health condition is to be evaluated, and the plurality of moving image data. a state score calculation unit that calculates one or more state scores indicating the state of motion from each of the above, a region-specific score calculation unit that calculates a region-specific score related to the health state of the target region based on the state score, have

上記の健康状態評価装置によれば、互いに異なる動作を撮像した複数の動画データのそれぞれから、動作の状態を示す1以上の状態スコアを算出し、これらの状態スコアに基づいて、対象部位の健康状態に係る部位別スコアが算出される。このように、互いに異なる動作を撮像した複数の動画データから部位別の健康状態を示す部位別スコアが算出されるため、当該部位の特定の動作に着目する場合と比較して、対象部位の健康状態をより多面的に評価することができる。 According to the above-described health condition evaluation device, one or more condition scores indicating the condition of a motion are calculated from each of a plurality of video data obtained by imaging different motions, and based on these condition scores, the health condition of the target part is evaluated. A site-specific score relating to the state is calculated. In this way, since the site-specific score indicating the health condition of each site is calculated from a plurality of video data obtained by capturing different motions, the health of the target site can be improved compared to the case of focusing on the specific motion of the site. The condition can be evaluated in a more multifaceted manner.

前記状態スコア算出部は、前記複数の動画データのそれぞれから、複数種類の状態スコアを算出し、前記部位別スコア算出部は、前記複数の動画データのそれぞれから得られた複数種類の状態スコアに基づいて、前記部位別スコアを算出する態様であってもよい。 The condition score calculation unit calculates a plurality of types of condition scores from each of the plurality of video data, and the site-specific score calculation unit calculates the plurality of types of condition scores obtained from each of the plurality of video data. Based on this, the site-specific score may be calculated.

上記の構成とすることで、1つの動作を撮像した動画データから複数の状態スコアが得られることから、1つの動作についてもより多くの状態スコアを用いて評価することができる。したがって、対象部位の健康状態をより正確に評価することができる。 With the above configuration, a plurality of state scores can be obtained from video data obtained by imaging one action, so that one action can be evaluated using more state scores. Therefore, the health condition of the target part can be evaluated more accurately.

前記動画データは、複数の対象部位に係る動作を撮像したデータであり、前記部位別スコア算出部は、前記対象部位毎に、前記状態スコアのうち当該対象部位に関連する一部の状態スコアに基づいて、前記部位別スコアを算出する態様であってもよい。 The moving image data is data in which motions related to a plurality of target parts are imaged, and the part-specific score calculation unit calculates, for each target part, part of the condition scores related to the target part. Based on this, the site-specific score may be calculated.

上記の構成とすることで、対象者の複数の対象部位に関して部位別スコアを算出することができる。また、これらの対象部位は同一の動作に係る部位であることから互いの関連も強いため、対象者の複数の対象部位の付近の状態をより俯瞰して把握することができると共に、対象部位同士の部位別スコアの差異等を考慮してより詳細な評価も可能となる。 With the above configuration, it is possible to calculate the site-specific score for a plurality of target sites of the subject. In addition, since these target parts are parts related to the same motion, they are strongly related to each other. It is also possible to make a more detailed evaluation considering the difference in the score for each part of the body.

前記部位別スコア算出部は、前記複数の対象部位に係る前記部位別スコアから、全体スコアを算出する態様であってもよい。 The site-specific score calculation unit may calculate an overall score from the site-specific scores relating to the plurality of target sites.

上記の構成とすることで、対象者の複数の対象部位が含まれる身体部分の健康状態をより俯瞰した情報を得ることができ、特定部位に限らない健康状態の傾向を把握することができる。 With the above configuration, it is possible to obtain more comprehensive information on the health condition of a body part including a plurality of target parts of the subject, and to grasp the tendency of the health condition not limited to a specific part.

前記動画データは、発声動作を撮像した動画データを含み、前記状態スコア算出部は、前記動画データに含まれる音声情報から得られる第1状態スコアと、画像情報から得られる第2状態スコアと、を算出する態様であってもよい。 The moving image data includes moving image data obtained by capturing an utterance action, and the state score calculating unit calculates a first state score obtained from voice information included in the moving image data, a second state score obtained from image information, may be calculated.

上記の構成とすることで、動画データから音声情報と画像情報とを用いて2つの状態スコアを得ることができ、発声動作に基づく動画データについてより詳細な情報を得ることができる。 With the above configuration, two state scores can be obtained from the moving image data using the audio information and the image information, and more detailed information can be obtained for the moving image data based on the utterance action.

1…健康状態評価システム、10…健康状態評価装置、11…動画データ取得部、12…状態検出部、13…状態スコア算出部、14…部位別スコア算出部、15…結果出力部、16…関連情報保持部。 DESCRIPTION OF SYMBOLS 1... Health condition evaluation system 10... Health condition evaluation apparatus 11... Video data acquisition part 12... Condition detection part 13... Condition score calculation part 14... Part-specific score calculation part 15... Result output part 16... Related information holding part.

Claims (5)

健康状態の評価の対象となる対象者の、対象部位に係る互いに異なる動作を撮像した複数の動画データを取得する動画データ取得部と、
前記複数の動画データのそれぞれから動作の状態を示す1以上の状態スコアを算出する状態スコア算出部と、
前記状態スコアに基づいて、前記対象部位の健康状態に係る部位別スコアを算出する部位別スコア算出部と、
を有する、健康状態評価装置。
a moving image data acquisition unit that acquires a plurality of moving image data obtained by capturing different motions related to a target part of a subject whose health condition is to be evaluated;
a state score calculation unit that calculates one or more state scores indicating a state of motion from each of the plurality of moving image data;
a region-specific score calculation unit that calculates a region-specific score related to the health condition of the target region based on the state score;
A health condition evaluation device.
前記状態スコア算出部は、前記複数の動画データのそれぞれから、複数種類の状態スコアを算出し、
前記部位別スコア算出部は、前記複数の動画データのそれぞれから得られた複数種類の状態スコアに基づいて、前記部位別スコアを算出する、請求項1に記載の健康状態評価装置。
The state score calculation unit calculates a plurality of types of state scores from each of the plurality of moving image data,
2. The health condition evaluation device according to claim 1, wherein said site-specific score calculation unit calculates said site-specific score based on a plurality of types of condition scores obtained from each of said plurality of moving image data.
前記動画データは、複数の対象部位に係る動作を撮像したデータであり、
前記部位別スコア算出部は、前記対象部位毎に、前記状態スコアのうち当該対象部位に関連する一部の状態スコアに基づいて、前記部位別スコアを算出する、請求項1または2に記載の健康状態評価装置。
The moving image data is data obtained by capturing motions related to a plurality of target parts,
3. The part-specific score calculation unit according to claim 1, wherein the part-specific score calculation unit calculates the part-specific score for each target part based on a part of the condition scores related to the target part. Health condition assessment device.
前記部位別スコア算出部は、前記複数の対象部位に係る前記部位別スコアから、全体スコアを算出する、請求項3に記載の健康状態評価装置。 4. The health condition evaluation device according to claim 3, wherein the part-specific score calculation unit calculates an overall score from the part-specific scores of the plurality of target parts. 前記動画データは、発声動作に係る動画データを含み、
前記状態スコア算出部は、前記動画データに含まれる音声情報から得られる第1状態スコアと、画像情報から得られる第2状態スコアと、を算出する、請求項1~4のいずれか一項に記載の健康状態評価装置。
The moving image data includes moving image data related to vocalization,
The state score calculator according to any one of claims 1 to 4, wherein the state score calculation unit calculates a first state score obtained from audio information included in the moving image data and a second state score obtained from image information. The health condition assessment device described.
JP2021210811A 2021-12-24 2021-12-24 Health state evaluation device Pending JP2023095114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021210811A JP2023095114A (en) 2021-12-24 2021-12-24 Health state evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021210811A JP2023095114A (en) 2021-12-24 2021-12-24 Health state evaluation device

Publications (1)

Publication Number Publication Date
JP2023095114A true JP2023095114A (en) 2023-07-06

Family

ID=87002100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021210811A Pending JP2023095114A (en) 2021-12-24 2021-12-24 Health state evaluation device

Country Status (1)

Country Link
JP (1) JP2023095114A (en)

Similar Documents

Publication Publication Date Title
EP3477589B1 (en) Method of processing medical image, and medical image processing apparatus performing the method
WO2020060290A1 (en) System and method for pulmonary condition monitoring and analysis
US20210186370A1 (en) Automated and objective symptom severity score
CN110613417A (en) Method, equipment and storage medium for outputting upper digestion endoscope operation information
JP2009267621A (en) Communication apparatus
WO2020054604A1 (en) Information processing device, control method, and program
CN114822774A (en) Working memory training method and terminal equipment
CN114343577A (en) Cognitive function evaluation method, terminal device, and computer-readable storage medium
CN109998487A (en) Monitoring of respiration method, apparatus, equipment and medium for image scan
CN111402213B (en) Bone age evaluation method and device, electronic equipment and computer readable storage medium
CN113569671A (en) Abnormal behavior alarm method and device
JP2023095114A (en) Health state evaluation device
WO2020071086A1 (en) Information processing device, control method, and program
JP7456663B2 (en) Information processing device, method and program
KR20230050208A (en) Respiratory disease prognosis prediction system and method through time-series cough sound, breathing sound, reading sound or vocal sound measurement
KR20210100832A (en) System and method for providing sign language translation service based on artificial intelligence that judges emotional stats of the user
KR20210067718A (en) Apparatus and method for providing feedback on golf swing motion
CN115662447B (en) Lie detection analysis method and device based on multi-feature fusion
WO2022035282A1 (en) Movement code-based emotional behavior analysis system
WO2022085104A1 (en) Endoscope operation assistance device, control method, computer readable medium, and program
KR102388735B1 (en) Method of detecting cheating for exams in meatverse environment based on image data processing
US20240016546A1 (en) Endoscope operation support apparatus, control method, computer readable medium, and program
KR20220021419A (en) System for Emotion and Behavior Analysis based on Standard Movement Code
TW202326709A (en) Method and system for detecting a target lies
KR20230073681A (en) Electronic device and method for motion readiness check based on joint angle change

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20220602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220602