JP2015097565A - Posture classification method, information processing apparatus, and program - Google Patents

Posture classification method, information processing apparatus, and program Download PDF

Info

Publication number
JP2015097565A
JP2015097565A JP2013237810A JP2013237810A JP2015097565A JP 2015097565 A JP2015097565 A JP 2015097565A JP 2013237810 A JP2013237810 A JP 2013237810A JP 2013237810 A JP2013237810 A JP 2013237810A JP 2015097565 A JP2015097565 A JP 2015097565A
Authority
JP
Japan
Prior art keywords
posture
classification
measurement value
parameter
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013237810A
Other languages
Japanese (ja)
Other versions
JP6337447B2 (en
Inventor
史歩 鷲澤
Shiho Washizawa
史歩 鷲澤
明大 猪又
Akita Inomata
明大 猪又
中田 康之
Yasuyuki Nakada
康之 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013237810A priority Critical patent/JP6337447B2/en
Publication of JP2015097565A publication Critical patent/JP2015097565A/en
Application granted granted Critical
Publication of JP6337447B2 publication Critical patent/JP6337447B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To classify postures of human bodies with high accuracy.SOLUTION: Postures of human bodies are classified into a plurality of posture types. When a plurality of first measurement values 31, which measure the inclination of a subject 11 in a plurality of directions, are obtained for each posture type, a parameter calculation unit 3 calculates, for each posture type, parameters 21 for generation of a probability model 22 of measurement values that follows a multi-dimensional normal distribution on the basis of the plurality of first measurement values 31 for each posture type, and stores the parameters 21 in a storage unit 5. When second measurement values 32, which measure the inclination of the subject 11 in the plurality of directions each same as for the first measurement values 31, are also obtained, a classification processing unit 4 classifies the posture of the subject 11 into any of the plurality of posture types on the basis of the probability model 22 for each posture type generated based respectively on the second measurement values 32 and the parameters 21 stored in the storage device 5.

Description

本発明は、姿勢分類方法、情報処理装置およびプログラムに関する。   The present invention relates to a posture classification method, an information processing apparatus, and a program.

人体の姿勢は、職業性疾病の6割を占めている腰痛と関係することが知られている。そこで、勤務時などにおける人物の姿勢がどのようになっているかを計測して、腰痛を発症する可能性のある人物に警告や指導を与えることが考えられている。   It is known that the posture of the human body is related to low back pain, which accounts for 60% of occupational diseases. Therefore, it is considered to give a warning or guidance to a person who may develop low back pain by measuring the posture of the person at work.

姿勢を計測する方法としては、例えば、カメラと足圧センサとを用いた方法があるが、この方法では特定の場所以外では計測を行うことができず、日常的に姿勢をモニタリングすることができない。そこで、近年、ウェアラブルセンサを用いた姿勢の計測法が考えられている。例えば、人体に装着した3軸の加速度センサによる測定値を基に、スペクトル解析を用いてパラメータを求め、パラメータを所定の閾値と比較することで、計測対象の人物の姿勢をあらかじめ決められた複数の分類項目の1つに分類する方法がある。   As a method for measuring the posture, for example, there is a method using a camera and a foot pressure sensor. However, this method cannot perform measurement outside a specific place and cannot monitor the posture on a daily basis. . Therefore, in recent years, a posture measuring method using a wearable sensor has been considered. For example, a plurality of parameters in which the posture of a person to be measured is determined in advance by obtaining a parameter using spectrum analysis based on a measurement value obtained by a triaxial acceleration sensor attached to a human body and comparing the parameter with a predetermined threshold value. There is a method of classifying into one of the classification items.

また、姿勢の推定に関する技術の例としては、人体の撮像画像に基づいて姿勢を認識し、その姿勢に対応する姿勢情報を、顔画像の大きさに基づく拘束条件に基づいて補正するものがある。   Further, as an example of a technique related to posture estimation, there is one that recognizes a posture based on a captured image of a human body and corrects posture information corresponding to the posture based on a constraint condition based on the size of a face image. .

さらに、人間の手など、先端部と関節とによって形状が定まるモデル対象物の形状モデルを生成する装置において、あらかじめ定められた関節の自由度および回転角度に関する拘束条件と、先端部の位置情報とに基づいて、先端部とリンクした関節の角度を算出するようにしたものがある。   Further, in an apparatus for generating a shape model of a model object whose shape is determined by a tip and a joint, such as a human hand, a constraint condition relating to a predetermined degree of freedom and rotation angle of the joint, position information of the tip, The angle of the joint linked to the tip is calculated based on the above.

特開2010―125239号公報JP 2010-125239 A 特開2011―253292号公報JP 2011-253292 A 特開2002−92589号公報JP 2002-92589 A

上記のように、加速度センサによる測定値に基づくパラメータを所定の閾値と比較する方法では、姿勢を高精度に分類できないという問題があった。
1つの側面では、本発明は、人体の姿勢を高精度に分類可能な姿勢分類方法、情報処理装置およびプログラムを提供することを目的とする。
As described above, the method of comparing the parameter based on the measurement value by the acceleration sensor with a predetermined threshold has a problem that the posture cannot be classified with high accuracy.
In one aspect, an object of the present invention is to provide a posture classification method, an information processing apparatus, and a program capable of classifying a posture of a human body with high accuracy.

1つの案では、次のような処理が実行される姿勢分類方法が提供される。この姿勢分類方法は、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得し、姿勢種類ごとの複数の第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを姿勢種類ごとに算出して、記憶装置に格納し、第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得し、第2の測定値と、記憶装置に格納されたパラメータを基にそれぞれ生成される姿勢種類ごとの確率モデルとに基づいて、第2の測定値の測定対象の人体の姿勢を、複数種類の姿勢種類のいずれかに分類する、処理を含む。   In one proposal, a posture classification method is provided in which the following processing is performed. In this posture classification method, a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions are acquired for each posture type in which the postures of the human body are classified into a plurality of types, and a plurality of first measurements for each posture type are obtained. Based on the value, a parameter for generating a probabilistic model of the measured value is calculated for each posture type, stored in the storage device, and the second measured by the human body tilt with respect to the same multiple directions as the first measured value. Based on the second measurement value and the probability model for each posture type generated based on the parameters stored in the storage device, the measurement target human body of the second measurement value is obtained. The processing includes classifying the posture into one of a plurality of types of posture.

また、1つの案では、情報処理装置が提供される。この情報処理装置は、測定値取得部と、パラメータ算出部とを有する。測定値取得部は、複数方向に対する人体の傾きを測定した測定値を取得する。パラメータ算出部は、測定値取得部が、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得すると、姿勢種類ごとの複数の第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを姿勢種類ごとに算出して、記憶装置に格納する。   In one scheme, an information processing apparatus is provided. This information processing apparatus includes a measurement value acquisition unit and a parameter calculation unit. The measurement value acquisition unit acquires a measurement value obtained by measuring the inclination of the human body with respect to a plurality of directions. The parameter calculation unit obtains a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions for each posture type obtained by classifying the postures of the human body into a plurality of types. Based on the first measurement value, a parameter for generating a probability model of the measurement value is calculated for each posture type and stored in the storage device.

さらに、1つの案では、上記の情報処理装置と同様の処理をコンピュータに実行させるプログラムが提供される。   Furthermore, in one proposal, a program for causing a computer to execute the same processing as that of the information processing apparatus is provided.

1態様によれば、人体の姿勢を高精度に分類できる。   According to one aspect, the posture of the human body can be classified with high accuracy.

第1の実施の形態に係る情報処理装置の構成例および処理例を示す図である。It is a figure which shows the structural example and processing example of the information processing apparatus which concern on 1st Embodiment. 第2の実施の形態に係る姿勢計測システムの構成例を示す図である。It is a figure which shows the structural example of the attitude | position measurement system which concerns on 2nd Embodiment. 第2の実施の形態に係る姿勢分類装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the attitude | position classification apparatus which concerns on 2nd Embodiment. センサデバイスによる測定値について示す図である。It is a figure shown about the measured value by a sensor device. 姿勢の分類項目の例を示す図である。It is a figure which shows the example of the classification | category item of an attitude | position. 姿勢分類装置が備える機能の例を示すブロック図である。It is a block diagram which shows the example of the function with which an attitude | position classification apparatus is provided. 姿勢分類装置による処理全体の手順の例を示すフローチャートである。It is a flowchart which shows the example of the procedure of the whole process by an attitude | position classification apparatus. 学習処理における特徴量算出の処理手順の例を示すフローチャートである。It is a flowchart which shows the example of the process sequence of the feature-value calculation in a learning process. 姿勢パラメータ算出の処理手順の例を示すフローチャートである。It is a flowchart which shows the example of the process sequence of attitude | position parameter calculation. 本処理における特徴量算出の処理手順の例を示すフローチャートである。It is a flowchart which shows the example of the process sequence of the feature-value calculation in this process. 姿勢分類の処理手順の例を示すフローチャートである。It is a flowchart which shows the example of the process sequence of attitude | position classification. 姿勢分類のための計算について説明するための図である。It is a figure for demonstrating the calculation for attitude | position classification. 測定により得られた変数と、矩形の判定領域との比較によって姿勢分類を行う場合の参考図である。It is a reference figure in the case of performing posture classification by comparing a variable obtained by measurement with a rectangular determination region. センサデバイスの装着位置を示す図である。It is a figure which shows the mounting position of a sensor device. センサデバイスの位置に応じた正解率の算出例を示すグラフである。It is a graph which shows the example of calculation of the correct answer rate according to the position of a sensor device. 第3の実施の形態に係る姿勢計測システムの構成例を示す図である。It is a figure which shows the structural example of the attitude | position measurement system which concerns on 3rd Embodiment. 第3の実施の形態に係る姿勢分類装置が備える機能の構成例を示すブロック図である。It is a block diagram which shows the structural example of the function with which the attitude | position classification apparatus which concerns on 3rd Embodiment is provided. 処理例1での正解率の算出例を示すグラフである。It is a graph which shows the example of calculation of the correct answer rate in processing example 1. 背中を前後方向に傾けた場合の姿勢の例を示す図である。It is a figure which shows the example of the attitude | position at the time of inclining a back in the front-back direction. 処理例2における姿勢パラメータ算出の処理手順の例を示すフローチャートである。12 is a flowchart illustrating an example of a processing procedure for posture parameter calculation in Processing Example 2; 処理例2での正解率の算出例を示すグラフである。It is a graph which shows the example of calculation of the correct answer rate in processing example 2. 背中が斜めに傾いた場合の姿勢の例を示す図である。It is a figure which shows the example of the attitude | position when a back inclines diagonally. 姿勢の変化が前後方向に限定される場合の姿勢角度の分布例を示す図である。It is a figure which shows the example of distribution of a posture angle in case the change of a posture is limited to the front-back direction. 姿勢が斜め方向にも変化する場合の姿勢角度の分布例を示す図である。It is a figure which shows the example of distribution of an attitude | position angle in case an attitude | position changes also in the diagonal direction. 処理例3における姿勢パラメータ算出の処理手順の例を示すフローチャートである。12 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 3; 処理例3での正解率の算出例を示すグラフである。10 is a graph illustrating an example of calculating a correct answer rate in Processing Example 3; 分類項目ごとの正解率の算出例を示すグラフである。It is a graph which shows the example of calculation of the correct answer rate for every classification item. 処理例4における姿勢パラメータ算出の処理手順の例を示すフローチャートである。14 is a flowchart illustrating an example of a procedure for calculating posture parameters in a processing example 4; 第4の実施の形態に係る端末装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the terminal device which concerns on 4th Embodiment.

以下、本発明の実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る情報処理装置の構成例および処理例を示す図である。図1に示す情報処理装置1は、測定値取得部2、パラメータ算出部3、分類処理部4および記憶装置5を有する。測定値取得部2、パラメータ算出部3、分類処理部4の処理は、例えば、情報処理装置1が備えるプロセッサが所定のプログラムを実行することにより実現される。記憶装置5は、例えば、HDD(Hard Disk Drive)などの不揮発性記憶装置によって実現される。なお、記憶装置5は、情報処理装置1の外部に設けられていてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example and a processing example of the information processing apparatus according to the first embodiment. An information processing apparatus 1 illustrated in FIG. 1 includes a measurement value acquisition unit 2, a parameter calculation unit 3, a classification processing unit 4, and a storage device 5. The processes of the measurement value acquisition unit 2, the parameter calculation unit 3, and the classification processing unit 4 are realized by, for example, a processor included in the information processing apparatus 1 executing a predetermined program. The storage device 5 is realized by a nonvolatile storage device such as an HDD (Hard Disk Drive). The storage device 5 may be provided outside the information processing device 1.

測定値取得部2は、複数方向に対する人体(被験者11)の傾きを測定した測定値を取得する。取得される測定値は、被験者11に装着されたセンサ12から出力される測定値に基づくものである。   The measurement value acquisition unit 2 acquires measurement values obtained by measuring the inclination of the human body (subject 11) with respect to a plurality of directions. The acquired measurement value is based on the measurement value output from the sensor 12 attached to the subject 11.

ここで、測定値取得部2が取得する測定値とは、センサ12から出力される測定値そのものであってもよいし、あるいは、センサ12から出力される測定値を基に計算によって得られたものであってもよい。例えば、センサ12が3軸加速度センサである場合、測定値取得部2は、センサ12から出力された加速度の測定値を基に、複数方向に対する被験者11の傾きを示す測定値を計算によって求める。   Here, the measurement value acquired by the measurement value acquisition unit 2 may be the measurement value itself output from the sensor 12 or may be obtained by calculation based on the measurement value output from the sensor 12. It may be a thing. For example, when the sensor 12 is a three-axis acceleration sensor, the measurement value acquisition unit 2 calculates a measurement value indicating the inclination of the subject 11 with respect to a plurality of directions based on the acceleration measurement value output from the sensor 12.

なお、センサ12は、例えば、被験者11の背中に装着される。
パラメータ算出部3は、分類処理部4での姿勢の分類処理で使用されるパラメータ21を算出して、記憶装置5に格納する。分類処理部4は、記憶装置5に格納されたパラメータ21を使用して、被験者11の姿勢の分類処理を行う。ここで、パラメータ算出部3は、分類処理部4での姿勢の分類処理より前の「学習工程」で動作する。
For example, the sensor 12 is attached to the back of the subject 11.
The parameter calculation unit 3 calculates the parameter 21 used in the posture classification process in the classification processing unit 4 and stores it in the storage device 5. The classification processing unit 4 uses the parameter 21 stored in the storage device 5 to perform classification processing of the posture of the subject 11. Here, the parameter calculation unit 3 operates in a “learning step” before the posture classification processing in the classification processing unit 4.

学習工程では、測定値取得部2は、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値31を複数個取得する。すなわち、第1の測定値31は、姿勢種類ごとに複数個取得される。   In the learning step, the measurement value acquisition unit 2 acquires a plurality of first measurement values 31 obtained by measuring the inclination of the human body with respect to a plurality of directions for each posture type classified into a plurality of types of human body postures. That is, a plurality of first measurement values 31 are acquired for each posture type.

姿勢種類とは、姿勢の状態を分類するものであり、例えば、背中が直立している、背中が前傾している、背中が後傾している、といった状態別に分類することができる。また、学習工程では、ある姿勢種類に対応する第1の測定値31を取得する場合に、被験者11にその姿勢種類に該当するような姿勢をとらせ、その状態でセンサ12による測定が行われる。   The posture types are for classifying posture states, and can be classified by states such as the back standing upright, the back leaning forward, and the back leaning backward. Further, in the learning step, when the first measurement value 31 corresponding to a certain posture type is acquired, the subject 11 takes a posture corresponding to the posture type, and measurement by the sensor 12 is performed in that state. .

パラメータ算出部3は、測定値取得部2により取得された第1の測定値31を基に、パラメータ21を算出する。具体的には、パラメータ算出部3は、ある姿勢種類に対応する複数個の第1の測定値31を基に、測定値の確率モデル22を生成するためのパラメータ21を算出する。確率モデル22は、例えば、多次元正規分布に従う測定値の確率モデルである。このような算出処理が姿勢種類ごとに実行されることで、それぞれ個別の姿勢種類に対応する複数のパラメータ21が算出されて、記憶装置5に格納される。   The parameter calculation unit 3 calculates the parameter 21 based on the first measurement value 31 acquired by the measurement value acquisition unit 2. Specifically, the parameter calculation unit 3 calculates a parameter 21 for generating a probability model 22 of measurement values based on a plurality of first measurement values 31 corresponding to a certain posture type. The probability model 22 is a probability model of measurement values according to a multidimensional normal distribution, for example. By executing such calculation processing for each posture type, a plurality of parameters 21 corresponding to the individual posture types are calculated and stored in the storage device 5.

学習工程が終了した後、姿勢分類のための工程が行われる。姿勢分類のための工程では、被験者11が任意の姿勢をとった状態で、センサ12による測定があらためて行われ、測定値取得部2は、複数方向に対する被験者11の傾きを測定した第2の測定値32を取得する。このとき、第2の測定値32が複数個取得されてもよい。   After the learning process is completed, a process for posture classification is performed. In the posture classification process, the measurement by the sensor 12 is performed again with the subject 11 in an arbitrary posture, and the measurement value acquisition unit 2 performs the second measurement in which the inclination of the subject 11 with respect to a plurality of directions is measured. Get the value 32. At this time, a plurality of second measurement values 32 may be acquired.

分類処理部4は、取得された第2の測定値32と、記憶装置5に格納されたパラメータ21を基にそれぞれ生成される姿勢種類ごとの確率モデル22とに基づいて、測定対象の被験者11の姿勢を、複数の姿勢種類のいずれかに分類する。すなわち、分類処理部4は、ある姿勢種類に対応するパラメータ21を基に、その姿勢種類に対応する確率モデル22を生成する。このようにして、姿勢種類ごとに確率モデル22が生成される。そして、分類処理部は、姿勢種類ごとに生成された確率モデル22と、第2の測定値32とに基づいて、測定対象の被験者11の姿勢を、複数の姿勢種類のいずれかに分類する。   Based on the acquired second measurement value 32 and the probability model 22 for each posture type generated based on the parameter 21 stored in the storage device 5, the classification processing unit 4 measures the subject 11 to be measured. Are classified into one of a plurality of posture types. That is, the classification processing unit 4 generates a probability model 22 corresponding to the posture type based on the parameter 21 corresponding to a certain posture type. In this way, the probability model 22 is generated for each posture type. The classification processing unit classifies the posture of the subject 11 to be measured into one of a plurality of posture types based on the probability model 22 generated for each posture type and the second measurement value 32.

確率モデル22は、例えば、第2の測定値32が、対応する姿勢種類に分類される確率を計算するための計算式として表される。この場合、分類処理部4は、姿勢種類ごとに確率の計算を行い、算出された確率が最も高い姿勢分類に、被験者11の姿勢を分類する。   The probability model 22 is represented, for example, as a calculation formula for calculating the probability that the second measurement value 32 is classified into the corresponding posture type. In this case, the classification processing unit 4 calculates the probability for each posture type, and classifies the posture of the subject 11 into the posture classification having the highest calculated probability.

以上の情報処理装置1によれば、姿勢種類ごとに、複数方向に対する被験者11の傾きを測定した複数個の第1の測定値31に基づいて、測定値の確率モデル22を生成するためのパラメータ21が、姿勢種類ごとに算出される。そして、第2の測定値32が取得されると、第2の測定値32と、算出されたパラメータ21を基にそれぞれ生成される確率モデル22とに基づいて、被験者11の姿勢がいずれかの姿勢種類に分類される。これにより、人体の姿勢を高精度に分類できるようになる。   According to the information processing apparatus 1 described above, parameters for generating a probability model 22 of measurement values based on a plurality of first measurement values 31 obtained by measuring the inclination of the subject 11 with respect to a plurality of directions for each posture type. 21 is calculated for each posture type. Then, when the second measurement value 32 is acquired, the posture of the subject 11 is any one based on the second measurement value 32 and the probability model 22 generated based on the calculated parameter 21. Classified into posture types. Thereby, the posture of the human body can be classified with high accuracy.

なお、以上の第1の実施の形態では、学習工程と、その後の姿勢分類のための工程とで、被験者11が同一とされたが、各工程の被験者が別人であってもよい。また、例えば、学習工程において姿勢種類ごとに取得される複数個の第1の測定値31は、複数の被験者から得られたものであってもよい。   In the above first embodiment, the subject 11 is the same in the learning step and the subsequent posture classification step, but the subject in each step may be a different person. Further, for example, the plurality of first measurement values 31 acquired for each posture type in the learning process may be obtained from a plurality of subjects.

〔第2の実施の形態〕
図2は、第2の実施の形態に係る姿勢計測システムの構成例を示す図である。姿勢計測システム100は、センサデバイス110、端末装置120および姿勢分類装置200を含む。端末装置120と姿勢分類装置200とは、ネットワーク130を介して接続されている。
[Second Embodiment]
FIG. 2 is a diagram illustrating a configuration example of an attitude measurement system according to the second embodiment. The posture measurement system 100 includes a sensor device 110, a terminal device 120, and a posture classification device 200. The terminal device 120 and the posture classification device 200 are connected via a network 130.

センサデバイス110は、人体に取り付けられて使用される、いわゆる“ウェアラブルセンサ”である。具体的には、センサデバイス110は、人体の背中に取り付けられる。また、センサデバイス110は、重力方向を基準とした3軸方向の加速度を検出する3軸加速度センサを備える。なお、3軸方向がどのように規定されるかについては後述する。   The sensor device 110 is a so-called “wearable sensor” used by being attached to a human body. Specifically, the sensor device 110 is attached to the back of a human body. In addition, the sensor device 110 includes a triaxial acceleration sensor that detects triaxial acceleration based on the direction of gravity. Note that how the three-axis directions are defined will be described later.

端末装置120は、例えばユーザによる操作に応じて、センサデバイス110に加速度の測定を実行させる。端末装置120は、センサデバイス110から出力された測定値を、ネットワーク130を通じて姿勢分類装置200に送信する。   The terminal device 120 causes the sensor device 110 to perform acceleration measurement in accordance with, for example, an operation by the user. The terminal device 120 transmits the measurement value output from the sensor device 110 to the posture classification device 200 through the network 130.

姿勢分類装置200は、端末装置120から送信された、センサデバイス110による測定値を基に、測定対象の人体の姿勢を推定する。具体的には、姿勢分類装置200は、センサデバイス110による測定値を基に、測定対象の人体の姿勢をあらかじめ決められた複数の姿勢分類項目のうちの1つに分類する。また、姿勢分類装置200は、姿勢の分類処理時に使用される制御パラメータを算出する処理も実行可能である。   The posture classification apparatus 200 estimates the posture of the human body to be measured based on the measurement value transmitted from the terminal device 120 by the sensor device 110. Specifically, posture classification apparatus 200 classifies the posture of the human body to be measured into one of a plurality of predetermined posture classification items based on the measurement value by sensor device 110. In addition, posture classification apparatus 200 can also execute processing for calculating control parameters used during posture classification processing.

図3は、第2の実施の形態に係る姿勢分類装置のハードウェア構成例を示す図である。姿勢分類装置200は、例えば、図3のようなコンピュータとして実現される。
姿勢分類装置200は、プロセッサ201によって装置全体が制御されている。プロセッサ201は、マルチプロセッサであってもよい。プロセッサ201は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ201は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
FIG. 3 is a diagram illustrating a hardware configuration example of the posture classification apparatus according to the second embodiment. The posture classification apparatus 200 is realized as a computer as shown in FIG. 3, for example.
The posture classification apparatus 200 is controlled by the processor 201 as a whole. The processor 201 may be a multiprocessor. The processor 201 is, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), an application specific integrated circuit (ASIC), or a programmable logic device (PLD). The processor 201 may be a combination of two or more elements among CPU, MPU, DSP, ASIC, and PLD.

プロセッサ201には、バス208を介して、RAM(Random Access Memory)202と複数の周辺機器が接続されている。
RAM202は、姿勢分類装置200の主記憶装置として使用される。RAM202には、プロセッサ201に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM202には、プロセッサ201による処理に必要な各種データが格納される。
A RAM (Random Access Memory) 202 and a plurality of peripheral devices are connected to the processor 201 via a bus 208.
The RAM 202 is used as a main storage device of the posture classification device 200. The RAM 202 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the processor 201. The RAM 202 stores various data necessary for processing by the processor 201.

バス208に接続されている周辺機器としては、HDD203、グラフィック処理装置204、入力インタフェース205、読み取り装置206および通信インタフェース207がある。   Peripheral devices connected to the bus 208 include an HDD 203, a graphic processing device 204, an input interface 205, a reading device 206, and a communication interface 207.

HDD203は、姿勢分類装置200の補助記憶装置として使用される。HDD203には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、SSD(Solid State Drive)などの他の種類の不揮発性記憶装置を使用することもできる。   The HDD 203 is used as an auxiliary storage device of the posture classification device 200. The HDD 203 stores an OS program, application programs, and various data. As the auxiliary storage device, other types of nonvolatile storage devices such as SSD (Solid State Drive) can be used.

グラフィック処理装置204には、表示装置204aが接続されている。グラフィック処理装置204は、プロセッサ201からの命令に従って、画像を表示装置204aの画面に表示させる。表示装置としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。   A display device 204 a is connected to the graphic processing device 204. The graphic processing device 204 displays an image on the screen of the display device 204a in accordance with an instruction from the processor 201. Examples of the display device include a display device using a CRT (Cathode Ray Tube) and a liquid crystal display device.

入力インタフェース205には、入力装置205aが接続されている。入力インタフェース205は、入力装置205aから出力される信号をプロセッサ201に送信する。入力装置205aとしては、キーボードやポインティングデバイスなどがある。ポインティングデバイスとしては、マウス、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。   An input device 205 a is connected to the input interface 205. The input interface 205 transmits a signal output from the input device 205a to the processor 201. Examples of the input device 205a include a keyboard and a pointing device. Examples of pointing devices include a mouse, a touch panel, a tablet, a touch pad, and a trackball.

読み取り装置206には、可搬型記録媒体206aが脱着される。読み取り装置206は、可搬型記録媒体206aに記録されたデータを読み取ってプロセッサ201に送信する。可搬型記録媒体206aとしては、光ディスク、光磁気ディスク、半導体メモリなどがある。   A portable recording medium 206a is attached to and detached from the reading device 206. The reading device 206 reads data recorded on the portable recording medium 206 a and transmits it to the processor 201. Examples of the portable recording medium 206a include an optical disk, a magneto-optical disk, and a semiconductor memory.

通信インタフェース207は、ネットワーク130を介して、端末装置120などの他の装置との間でデータの送受信を行う。
以上のようなハードウェア構成によって、姿勢分類装置200の処理機能を実現することができる。
The communication interface 207 transmits / receives data to / from other devices such as the terminal device 120 via the network 130.
With the hardware configuration described above, the processing function of the posture classification apparatus 200 can be realized.

なお、端末装置120についても、図3と同様のハードウェア構成を有するコンピュータとして実現可能である。また、端末装置120は、例えば、ノート型パーソナルコンピュータ、タブレット型情報端末などの可搬型の情報処理装置であってもよい。この場合、センサデバイス110の機能が端末装置120に組み込まれていてもよい。   Note that the terminal device 120 can also be realized as a computer having the same hardware configuration as in FIG. The terminal device 120 may be a portable information processing device such as a notebook personal computer or a tablet information terminal. In this case, the function of the sensor device 110 may be incorporated in the terminal device 120.

図4は、センサデバイスによる測定値について示す図である。
図4の右側に示すように、センサデバイス110は、被験者140の背中に装着される。そして、センサデバイス110は、被験者140の上半身の姿勢を推定するための測定値を出力する。後述するように、姿勢分類装置200は、センサデバイス110による測定値を基に、被験者140の背中の傾きおよび湾曲状態を分類する。なお、被験者140の背中の傾きおよび湾曲状態を分類可能であれば、センサデバイス110の搭載位置は背中に限らず、例えば、肩や首であってもよい。
FIG. 4 is a diagram illustrating measurement values obtained by the sensor device.
As shown on the right side of FIG. 4, the sensor device 110 is attached to the back of the subject 140. Then, the sensor device 110 outputs a measurement value for estimating the posture of the upper body of the subject 140. As will be described later, the posture classification apparatus 200 classifies the back tilt and the curved state of the subject 140 based on the measurement values obtained by the sensor device 110. Note that the mounting position of the sensor device 110 is not limited to the back, and may be, for example, the shoulder or the neck, as long as the tilt and the curved state of the back of the subject 140 can be classified.

図4の左側に示すように、センサデバイス110は、x方向、y方向、z方向のそれぞれに対する加速度を測定する。x方向、y方向、z方向は、重力gの方向に対する相対的な方向として検知される。   As shown on the left side of FIG. 4, the sensor device 110 measures acceleration in each of the x direction, the y direction, and the z direction. The x direction, the y direction, and the z direction are detected as directions relative to the direction of gravity g.

x方向は、被験者140の背中に対して前後方向に直交する方向を示し、y方向は、被験者140の背中に対して左右方向に直交する方向を示す。本実施の形態では、図4に示すように、x方向については被験者140の後側方向を正の方向とし、y方向については被験者140の右側方向を正の方向とする。   The x direction indicates a direction orthogonal to the front-rear direction with respect to the back of the subject 140, and the y direction indicates a direction orthogonal to the left-right direction with respect to the back of the subject 140. In the present embodiment, as shown in FIG. 4, the rear direction of the subject 140 is the positive direction for the x direction, and the right direction of the subject 140 is the positive direction for the y direction.

z方向は、被験者140の背中に沿った方向を示す。本実施の形態では、被験者140の上半身が起きている状態で測定を行うものとするので、z方向は、地面に対して鉛直またはそれに近い方向となる。また、本実施の形態では、図4に示すように、z方向については上方向を正の方向とする。   The z direction indicates a direction along the back of the subject 140. In the present embodiment, since the measurement is performed with the upper body of the subject 140 standing, the z direction is perpendicular to or close to the ground. Further, in the present embodiment, as shown in FIG. 4, the upward direction is the positive direction with respect to the z direction.

図5は、姿勢の分類項目の例を示す図である。姿勢分類装置200は、被験者の姿勢が図5に示す13種類の分類項目のどれに属するかを判定するものとする。また、これらの分類項目は、5種類の大分類と3種類の小分類とに分けられる。   FIG. 5 is a diagram illustrating an example of posture classification items. The posture classification apparatus 200 determines which of the 13 types of classification items shown in FIG. These classification items are classified into five major classifications and three minor classifications.

大分類は、被験者の背中の傾きを分類するものであり、「直立」、「前傾」、「後傾」、「右傾」および「左傾」の5種類に分類される。「直立」は、被験者の背中が直立状態であり、前後方向にも左右方向にも傾いていないことを示す。「前傾」は、被験者の背中が前側に傾いていることを示す。「後傾」は、被験者の背中が後側に傾いていることを示す。「右傾」は、被験者の背中が右側に傾いていることを示す。「左傾」は、被験者の背中が左側に傾いていることを示す。   The major classification classifies the inclination of the back of the subject, and is classified into five types: “upright”, “forward tilt”, “back tilt”, “right tilt”, and “left tilt”. “Upright” indicates that the subject's back is in an upright state and is not inclined in the front-rear direction or the left-right direction. “Forward tilt” indicates that the subject's back is tilted forward. “Backward tilt” indicates that the subject's back is tilted rearward. “Tilt right” indicates that the subject's back is tilted to the right. “Left tilt” indicates that the subject's back is tilted to the left.

小分類は、被験者の背中の湾曲状態を分類するものであり、「真っ直ぐ」、「反り」および「猫背」の3種類に分類される。「真っ直ぐ」は、被験者の背中が直線状であり、湾曲していないことを示す。「反り」は、被験者の背中が凹むように(すなわち、背骨の後側が凹むように)湾曲していることを示す。「猫背」は、被験者の背中が突出するように(すなわち、背骨の後側が突出するように)湾曲していることを示す。   The small classification is for classifying the curved state of the subject's back, and is classified into three types: “straight”, “warping”, and “back of the back”. “Straight” indicates that the subject's back is straight and not curved. “Warpage” indicates that the subject's back is curved (ie, the back side of the spine is recessed). “Stoopback” indicates that the subject's back is curved (ie, the back side of the spine protrudes).

全体の分類項目としては、「直立」、「前傾」および「後傾」のそれぞれについては、さらに「真っ直ぐ」、「反り」および「猫背」の3種類に分類される。また、「右傾」および「左傾」のそれぞれについては、さらに「真っ直ぐ」と「猫背」の2種類にのみ分類されるものとする。これにより、被験者の姿勢は合計13種類の分類項目に分類される。   As an overall classification item, each of “upright”, “forward tilt”, and “backward tilt” is further classified into three types of “straight”, “warp”, and “stoop”. Each of “right tilt” and “left tilt” is further classified into only two types, “straight” and “stoop”. As a result, the posture of the subject is classified into a total of 13 types of classification items.

図6は、姿勢分類装置が備える機能の例を示すブロック図である。
姿勢分類装置200は、データ取得部211、特徴量算出部212、姿勢パラメータ算出部213、姿勢パラメータ記憶部214、姿勢分類処理部215および正解率算出部216を有する。データ取得部211、特徴量算出部212、姿勢パラメータ算出部213、姿勢分類処理部215および正解率算出部216の各処理は、例えば、姿勢分類装置200が備えるプロセッサ201が所定のプログラムを実行することで実現される。また、姿勢パラメータ記憶部214は、例えば、姿勢分類装置200が備えるHDD203の記憶領域として実現される。
FIG. 6 is a block diagram illustrating an example of functions provided in the posture classification apparatus.
The posture classification apparatus 200 includes a data acquisition unit 211, a feature amount calculation unit 212, a posture parameter calculation unit 213, a posture parameter storage unit 214, a posture classification processing unit 215, and a correct answer rate calculation unit 216. For each processing of the data acquisition unit 211, the feature amount calculation unit 212, the posture parameter calculation unit 213, the posture classification processing unit 215, and the correct answer rate calculation unit 216, for example, the processor 201 included in the posture classification device 200 executes a predetermined program. This is realized. The posture parameter storage unit 214 is realized as a storage area of the HDD 203 provided in the posture classification apparatus 200, for example.

データ取得部211は、センサデバイス110による測定値を端末装置120から取得する。取得される測定値は、x方向、y方向、z方向のそれぞれについての加速度である。   The data acquisition unit 211 acquires a measurement value obtained by the sensor device 110 from the terminal device 120. The acquired measurement value is the acceleration in each of the x direction, the y direction, and the z direction.

特徴量算出部212は、取得された測定値に基づいて、姿勢に関する特徴量を算出する。特徴量としては、背中の左右方向および前後方向のそれぞれの傾斜角度を示す「姿勢角度」が算出される。   The feature amount calculation unit 212 calculates a feature amount related to the posture based on the acquired measurement value. As the feature amount, a “posture angle” indicating each inclination angle in the left-right direction and the front-rear direction of the back is calculated.

姿勢パラメータ算出部213は、算出された特徴量に基づいて、姿勢の分類処理で使用される「姿勢パラメータ」を算出して、姿勢パラメータ記憶部214に格納する。姿勢パラメータとしては、姿勢角度に基づく平均ベクトルおよび共分散行列が算出される。また、姿勢パラメータは、前述した13種類の分類項目のそれぞれについて算出される。   The posture parameter calculation unit 213 calculates a “posture parameter” used in the posture classification process based on the calculated feature amount, and stores it in the posture parameter storage unit 214. As the posture parameter, an average vector and a covariance matrix based on the posture angle are calculated. In addition, the posture parameter is calculated for each of the 13 types of classification items described above.

姿勢分類処理部215は、姿勢パラメータ記憶部214に格納された姿勢パラメータを参照して、特徴量算出部212によって算出された特徴量に基づき、被験者の姿勢が上記の分類項目のどれに分類されるかを判定する。具体的には、姿勢分類処理部215は、算出された特徴量と、13種類の分類項目のそれぞれに対応する姿勢パラメータとの演算を行うことで、被験者の姿勢がそれぞれの分類項目に属する確率を求める。そして、姿勢分類処理部215は、求められた確率が最も高い分類項目を、被験者の姿勢を示す分類項目として出力する。   The posture classification processing unit 215 refers to the posture parameters stored in the posture parameter storage unit 214, and based on the feature amount calculated by the feature amount calculation unit 212, the posture of the subject is classified into any of the above classification items. Judge whether or not. Specifically, the posture classification processing unit 215 calculates the probability that the posture of the subject belongs to each classification item by calculating the calculated feature value and the posture parameter corresponding to each of the 13 types of classification items. Ask for. Then, the posture classification processing unit 215 outputs the classification item having the highest obtained probability as the classification item indicating the posture of the subject.

なお、姿勢パラメータ算出部213は、実際に被験者の姿勢を分類する処理より前に実行される、姿勢パラメータ算出のための前処理でのみ使用される。一方、姿勢分類処理部215は、実際に被験者の姿勢を分類する際に使用される。従って、姿勢パラメータ算出部213が特徴量算出部212から取得する特徴量と、姿勢分類処理部215が特徴量算出部212から取得する特徴量は、それぞれ異なるタイミングで測定された測定値に基づくものである。   Note that the posture parameter calculation unit 213 is used only in preprocessing for posture parameter calculation, which is executed before processing for actually classifying the posture of the subject. On the other hand, the posture classification processing unit 215 is used when actually classifying the posture of the subject. Therefore, the feature amount acquired by the posture parameter calculation unit 213 from the feature amount calculation unit 212 and the feature amount acquired by the posture classification processing unit 215 from the feature amount calculation unit 212 are based on measured values measured at different timings. It is.

正解率算出部216は、姿勢分類処理部215による分類結果の正解率を算出する。なお、正解率算出部216は、姿勢分類処理の精度を検証するために設けられた処理機能である。従って、例えば、姿勢分類装置200が製品として出荷される際には、その姿勢分類装置200には正解率算出部216が含まれていなくてもよい。   The correct answer rate calculation unit 216 calculates the correct answer rate of the classification result obtained by the posture classification processing unit 215. The correct rate calculation unit 216 is a processing function provided to verify the accuracy of the posture classification process. Therefore, for example, when the posture classification device 200 is shipped as a product, the posture classification device 200 may not include the correct answer rate calculation unit 216.

図7は、姿勢分類装置による処理全体の手順の例を示すフローチャートである。姿勢分類装置200による処理は、「学習処理」と「本処理」とに大別される。本処理とは、姿勢パラメータに基づいて、実際に被験者の姿勢を分類する処理である。一方、学習処理は、本処理に先立って、本処理で使用される姿勢パラメータを算出するために実行される処理である。前述のように、姿勢パラメータは、13種類の分類項目のそれぞれについて算出される。   FIG. 7 is a flowchart illustrating an example of a procedure of the entire process performed by the posture classification apparatus. Processing by the posture classification apparatus 200 is roughly divided into “learning processing” and “main processing”. This process is a process of actually classifying the posture of the subject based on the posture parameter. On the other hand, the learning process is a process executed to calculate the posture parameters used in the present process prior to the present process. As described above, the posture parameter is calculated for each of the 13 types of classification items.

学習処理は、次のような手順で実行される。なお、以下の説明において、“j”は1以上の整数であり、分類項目の数を示す。本実施の形態では例として、j=13である。
[ステップS11]被験者に、ある1つの分類項目に属するような姿勢をとらせ、その状態でセンサデバイス110による測定が行われる。また、このような測定がN回行われる(ただし、Nは1以上の整数)。
The learning process is executed in the following procedure. In the following description, “j” is an integer of 1 or more, and indicates the number of classification items. In this embodiment, as an example, j = 13.
[Step S11] The subject is assumed to belong to a certain classification item, and measurement by the sensor device 110 is performed in that state. Further, such measurement is performed N times (where N is an integer of 1 or more).

なお、N回の測定のそれぞれは、基本的に、すべて同一の被験者に対して行われるものとする。ただし、N回の測定におけるそれぞれの測定が、2人以上の被験者を用いて行われてもよい。   Note that each of the N measurements is basically performed on the same subject. However, each measurement in N measurements may be performed using two or more subjects.

データ取得部211は、センサデバイス110によるN回分の測定結果を取得する。特徴量算出部212は、取得された測定結果を基に、特徴量、すなわち、背中の左右方向および前後方向のそれぞれの傾斜角度を示す姿勢角度を算出する。   The data acquisition unit 211 acquires the measurement results for N times by the sensor device 110. The feature amount calculation unit 212 calculates a feature amount, that is, a posture angle indicating each inclination angle in the left-right direction and the front-rear direction of the back, based on the acquired measurement result.

[ステップS12]姿勢パラメータ算出部213は、算出された特徴量に基づいて、1つの姿勢分類項目に対応する姿勢パラメータを算出し、姿勢パラメータ記憶部214に格納する。前述のように、姿勢パラメータには、姿勢角度に基づく平均ベクトルおよび共分散行列が含まれる。   [Step S12] The posture parameter calculation unit 213 calculates a posture parameter corresponding to one posture classification item based on the calculated feature amount, and stores the posture parameter in the posture parameter storage unit 214. As described above, the posture parameter includes an average vector and a covariance matrix based on the posture angle.

[ステップS13]j種類の姿勢分類項目のすべてについてステップS11,S12の処理が実行されたかが判定される。処理済みでない姿勢分類項目がある場合には、ステップS11に戻り、処理済みでない別の姿勢分類項目についてステップS11,S12の処理が実行される。一方、すべての姿勢分類項目について処理済みである場合には、学習処理が終了される。   [Step S13] It is determined whether or not the processing of steps S11 and S12 has been executed for all of the j types of posture classification items. If there is a posture classification item that has not been processed, the process returns to step S11, and the processing of steps S11 and S12 is executed for another posture classification item that has not been processed. On the other hand, if all the posture classification items have been processed, the learning process is terminated.

以上の処理により、j(=13)種類の分類項目ごとに姿勢パラメータが算出され、算出された姿勢パラメータが姿勢パラメータ記憶部214に格納される。
次に、本処理は、次のような手順が実行される。
Through the above processing, posture parameters are calculated for each of j (= 13) types of classification items, and the calculated posture parameters are stored in the posture parameter storage unit 214.
Next, in this process, the following procedure is executed.

[ステップS21]被験者に装着されたセンサデバイス110から、測定結果が出力される。なお、基本的に、本処理の際の被験者は、学習処理における被験者と同じであるものとするが、学習処理での被験者と本処理での被験者とを別人とすることもできる。   [Step S21] A measurement result is output from the sensor device 110 attached to the subject. Basically, the subject in this process is the same as the subject in the learning process, but the subject in the learning process and the subject in this process can be different.

データ取得部211は、センサデバイス110によるN回分の測定結果を取得する。特徴量算出部212は、取得された測定結果を基に、特徴量、すなわち、背中の左右方向および前後方向のそれぞれの傾斜角度を示す姿勢角度を算出する。   The data acquisition unit 211 acquires the measurement results for N times by the sensor device 110. The feature amount calculation unit 212 calculates a feature amount, that is, a posture angle indicating each inclination angle in the left-right direction and the front-rear direction of the back, based on the acquired measurement result.

[ステップS22]姿勢分類処理部215は、姿勢パラメータ記憶部214に格納された姿勢パラメータを参照して、特徴量算出部212によって算出された特徴量に基づき、被験者の姿勢がj種類の分類項目のどれに分類されるかを判定する。   [Step S22] The posture classification processing unit 215 refers to the posture parameters stored in the posture parameter storage unit 214, and based on the feature amount calculated by the feature amount calculation unit 212, the subject's posture is j types of classification items. It is determined to be classified into.

次に、図7の処理の詳細について説明する。
まず、図8は、学習処理における特徴量算出の処理手順の例を示すフローチャートである。この図8の処理は、図7のステップS11の処理に対応する。
Next, details of the processing of FIG. 7 will be described.
First, FIG. 8 is a flowchart illustrating an example of a processing procedure for calculating a feature amount in the learning process. The processing in FIG. 8 corresponds to the processing in step S11 in FIG.

[ステップS101]被験者に、ある1つの分類項目に属するような姿勢をとらせ、その状態でセンサデバイス110による測定が行われる。ここでは例として、被験者に、ある1つの分類項目に属するような姿勢でt秒間(ただし、t>0)静止させる。そして、t秒の静止期間において1秒間隔でセンサデバイス110に測定を実行させ、t個の測定結果を出力させる。tは、例えば“15”(すなわち、静止期間は15秒)である。   [Step S101] The subject is allowed to take a posture that belongs to a certain classification item, and measurement by the sensor device 110 is performed in that state. Here, as an example, the subject is kept stationary for t seconds (where t> 0) in a posture that belongs to a certain classification item. Then, the sensor device 110 is caused to perform measurement at intervals of 1 second in a stationary period of t seconds, and t measurement results are output. For example, t is “15” (that is, the stationary period is 15 seconds).

測定結果は、次の式(1−1)〜(1−3)のように表される。式(1−1)〜(1−3)において、XjN,YjN,ZjNは、それぞれj番目の分類項目に対応するN回目のx方向、y方向、z方向の測定値を示す。
jN={XjN(1),XjN(2),・・・,XjN(t)} ・・・(1−1)
jN={YjN(1),YjN(2),・・・,YjN(t)} ・・・(1−2)
jN={ZjN(1),ZjN(2),・・・,ZjN(t)} ・・・(1−3)
データ取得部211は、端末装置120を介して、上記の測定値XjN,YjN,ZjNを取得する。
The measurement results are expressed as the following formulas (1-1) to (1-3). In Expressions (1-1) to (1-3), X jN , Y jN , and Z jN indicate the measured values in the Nth x-direction, y-direction, and z-direction corresponding to the j-th classification item, respectively.
X jN = {X jN (1), X jN (2),..., X jN (t)} (1-1)
Y jN = {Y jN (1), Y jN (2),..., Y jN (t)} (1-2)
Z jN = {Z jN (1), Z jN (2),..., Z jN (t)} (1-3)
The data acquisition unit 211 acquires the measurement values X jN , Y jN , and Z jN via the terminal device 120.

[ステップS102]特徴量算出部212は、t秒の測定期間における測定値XjN,YjN,ZjNの平均値を算出する。測定値XjN,YjN,ZjNのそれぞれの平均値Ave(XjN),Ave(YjN),Ave(ZjN)は、次の式(2−1)〜(2−3)に従って算出される。 [Step S102] The feature amount calculation unit 212 calculates an average value of the measurement values X jN , Y jN , and Z jN in the measurement period of t seconds. The average values Ave (X jN ), Ave (Y jN ), and Ave (Z jN ) of the measured values X jN , Y jN , and Z jN are calculated according to the following equations (2-1) to (2-3). Is done.

Figure 2015097565
Figure 2015097565

[ステップS103]特徴量算出部212は、平均値Ave(XjN),Ave(YjN),Ave(ZjN)を基に、背中の左右方向および前後方向のそれぞれの傾斜角度を算出する。ここで算出される傾斜角度は、重力の方向を基準とした角度として表される。左右方向の傾斜角度φjN1,前後方向の傾斜角度φjN2は、それぞれ次の式(3−1),(3−2)に従って算出される。 [Step S103] The feature amount calculation unit 212 calculates the respective inclination angles of the back in the left-right direction and the front-rear direction based on the average values Ave (X jN ), Ave (Y jN ), and Ave (Z jN ). The tilt angle calculated here is expressed as an angle based on the direction of gravity. Lateral direction of the inclination angle phi JN1, longitudinal inclination angle phi JN2, the following formula, respectively (3-1) is calculated according to (3-2).

Figure 2015097565
Figure 2015097565

[ステップS104]特徴量算出部212は、ステップS103で算出した傾斜角度φjN1,φjN2を補正することで、姿勢角度を算出する。この補正は、センサデバイス110が被験者に傾いた状態で装着されたことによる誤差を低減するためのものである。ここでは、センサデバイス110のy方向が傾いた場合、すなわち、被験者の後側から見たときにセンサデバイス110が左右方向に傾いた状態で装着された場合を想定して、左右方向の傾斜角度φjN1を補正する。 [Step S104] The feature amount calculation unit 212 calculates the posture angle by correcting the tilt angles φ jN1 and φ jN2 calculated in step S103. This correction is for reducing an error due to the sensor device 110 being attached to the subject in a tilted state. Here, assuming that the y direction of the sensor device 110 is tilted, that is, when the sensor device 110 is mounted in a tilted state when viewed from the rear side of the subject, the tilt angle in the left and right direction is assumed. Correct φ jN1 .

基準姿勢(すなわち、理想的な状態でセンサデバイス110が装着された場合)でセンサデバイス110の左右方向の傾斜角度をφjN01と表すと、左右方向、前後方向の各姿勢角度θjN1,θjN2は、次の式(4)に従って算出される。
(θjN1,θjN2)=(φjN1−φjN01,φjN2) ・・・(4)
[ステップS105]測定回数、すなわちステップS101〜S104の実行回数が、N回に達したかが判定される。測定回数がN回未満の場合には、ステップS101に戻って測定が継続される。測定回数がN回に達した場合には、図7のステップS12の処理に進む。以上のステップS101〜S105の処理により、1つの分類項目に対応する姿勢角度θjN1,θjN2が算出される。
When the tilt angle in the left-right direction of the sensor device 110 is expressed as φ jN01 in the reference posture (that is, when the sensor device 110 is mounted in an ideal state), the posture angles θ jN1 , θ jN2 in the left-right direction and the front-back direction are given. Is calculated according to the following equation (4).
jN1 , θ jN2 ) = (φ jN1 −φ jN01 , φ jN2 ) (4)
[Step S105] It is determined whether the number of measurements, that is, the number of executions of steps S101 to S104, has reached N times. If the number of measurements is less than N, the process returns to step S101 and the measurement is continued. If the number of measurements reaches N, the process proceeds to step S12 in FIG. Through the processes in steps S101 to S105 , the posture angles θ jN1 and θ jN2 corresponding to one classification item are calculated.

次に、図9は、姿勢パラメータ算出の処理手順の例を示すフローチャートである。この図9の処理は、図7のステップS12の処理に対応する。なお、以下の説明では、姿勢角度(θjN1,θjN2)を、(θj1(N),θj2(N))と表すものとする。 Next, FIG. 9 is a flowchart illustrating an example of a processing procedure for calculating posture parameters. The process of FIG. 9 corresponds to the process of step S12 of FIG. In the following description, the posture angle (θ jN1 , θ jN2 ) is represented as (θ j1 (N), θ j2 (N)).

[ステップS111]姿勢パラメータ算出部213は、姿勢角度を基に、平均ベクトルを算出する。
ここで、j番目の分類項目について算出された姿勢角度Θjは、次の式(5)のように表される。また、N回の測定における左右方向、前後方向の姿勢角度の平均値Ave(θj1),Ave(θj2)は、それぞれ式(6−1),(6−2)によって表される。なお、添字Tは転置行列を示す。
[Step S111] The posture parameter calculation unit 213 calculates an average vector based on the posture angle.
Here, the posture angle Θ j calculated for the j-th classification item is expressed as the following equation (5). Further, average values Ave (θ j1 ) and Ave (θ j2 ) of the posture angles in the left-right direction and the front-rear direction in the N measurements are expressed by equations (6-1) and (6-2), respectively. The subscript T indicates a transposed matrix.

Figure 2015097565
Figure 2015097565

そして、j番目の分類項目に対応する平均ベクトルAve(Θj)は、次の式(7)に従って算出される。
Ave(Θj)=(Ave(θj1),Ave(θj2))T ・・・(7)
[ステップS112]姿勢パラメータ算出部213は、姿勢角度および平均ベクトルに基づき、共分散行列を算出する。ここで、Bj=Θj−Ave(Θj)とすると、j番目の分類項目に対応する共分散行列Ajは、次の式(8)に従って算出される。
j=Bjj T ・・・(8)
なお、平均ベクトルAve(Θj)は2次元のベクトルであり、共分散行列Ajは2行2列の行列である。以上の処理により、j番目の分類項目に対応する姿勢パラメータが算出される。姿勢パラメータ算出部213は、算出した姿勢パラメータ、すなわち平均ベクトルAve(Θj)および共分散行列Ajを、姿勢パラメータ記憶部214に格納する。
Then, the average vector Ave (Θ j ) corresponding to the jth classification item is calculated according to the following equation (7).
Ave (Θ j ) = (Ave (θ j1 ), Ave (θ j2 )) T (7)
[Step S112] The attitude parameter calculation unit 213 calculates a covariance matrix based on the attitude angle and the average vector. Here, assuming that Bj = Θ j −Ave (Θ j ), the covariance matrix A j corresponding to the j-th classification item is calculated according to the following equation (8).
A j = B j B j T (8)
The average vector Ave (Θ j ) is a two-dimensional vector, and the covariance matrix A j is a 2 × 2 matrix. Through the above processing, the posture parameter corresponding to the jth classification item is calculated. The posture parameter calculation unit 213 stores the calculated posture parameters, that is, the average vector Ave (Θ j ) and the covariance matrix A j in the posture parameter storage unit 214.

次に、図10は、本処理における特徴量算出の処理手順の例を示すフローチャートである。この図10の処理は、図7のステップS21の処理に対応する。
図10に示すステップS201,S202,S203,S204の処理手順は、それぞれ図8のステップS101,S102,S103,S104と同じである。すなわち、本処理における特徴量の算出処理は、図8の処理を、測定回数N=1としてセンサデバイス110によるt秒間の測定処理を1回だけ実行するように変形したものである。ただし、本処理の被験者は、学習処理の被験者とは異なる。なお、本処理における特徴量の算出処理でも、t秒間の測定処理を複数実行するようにしてもよい。
Next, FIG. 10 is a flowchart illustrating an example of a processing procedure for calculating a feature amount in this processing. The processing in FIG. 10 corresponds to the processing in step S21 in FIG.
The processing procedures of steps S201, S202, S203, and S204 shown in FIG. 10 are the same as steps S101, S102, S103, and S104 of FIG. That is, the feature amount calculation process in this process is a modification of the process in FIG. 8 so that the measurement process for t seconds by the sensor device 110 is executed only once with the number of times of measurement N = 1. However, the subject in this process is different from the subject in the learning process. Note that a plurality of measurement processes for t seconds may be executed in the feature amount calculation process in this process.

データ取得部211および特徴量算出部212による図10の処理により、左右方向、前後方向の各姿勢角度θjN1,θjN2が算出される。以下、本処理において算出された姿勢角度θjN1,θjN2を、それぞれθ1,θ2として説明する。 The posture angles θ jN1 and θ jN2 in the left-right direction and the front-rear direction are calculated by the processing of FIG. 10 by the data acquisition unit 211 and the feature amount calculation unit 212. Hereinafter, the posture angles θ jN1 and θ jN2 calculated in this process will be described as θ 1 and θ 2 , respectively.

図11は、姿勢分類の処理手順の例を示すフローチャートである。この図11の処理は、図7のステップS22の処理に対応する。
[ステップS211]姿勢分類処理部215は、j種類の分類項目の中から1つを選択し、選択した分類項目に対応する姿勢パラメータ(平均ベクトルおよび共分散行列)を、姿勢パラメータ記憶部214から取得する。以下、取得されたj番目の分類項目に対応する平均ベクトルおよび共分散行列を、それぞれAve(Θj),Ajとする。
FIG. 11 is a flowchart illustrating an example of a processing procedure for posture classification. The process of FIG. 11 corresponds to the process of step S22 of FIG.
[Step S211] The posture classification processing unit 215 selects one of the j types of classification items, and acquires the posture parameters (average vector and covariance matrix) corresponding to the selected classification item from the posture parameter storage unit 214. get. Hereinafter, the average vector and the covariance matrix corresponding to the acquired j-th classification item are Ave (Θ j ) and A j , respectively.

[ステップS212]姿勢分類処理部215は、姿勢パラメータ記憶部214から取得した平均ベクトルAve(Θj)および共分散行列Ajと、特徴量算出部212によって算出された姿勢角度θ=(θ1,θ2)とに基づいて、次の式(9)に従って確率Pj(θ)を算出する。 [Step S212] The posture classification processing unit 215 receives the average vector Ave (Θ j ) and covariance matrix A j acquired from the posture parameter storage unit 214, and the posture angle θ = (θ 1) calculated by the feature amount calculation unit 212. , Θ 2 ), the probability P j (θ) is calculated according to the following equation (9).

Figure 2015097565
Figure 2015097565

なお、式(9)において、dは次元の数を示す。このdは、姿勢角度θのパラメータ数に一致し、本実施の形態ではd=2である。
上記の式(9)は、被験者の姿勢を示す姿勢角度θが、ステップS211で選択された分類項目に属する確率を示す。
In equation (9), d represents the number of dimensions. This d coincides with the number of parameters of the posture angle θ, and d = 2 in the present embodiment.
Equation (9) above indicates the probability that the posture angle θ indicating the posture of the subject belongs to the classification item selected in step S211.

[ステップS213]姿勢分類処理部215は、j種類の分類項目のすべてをステップS211で選択したかを判定する。未選択の分類項目がある場合には、ステップS211の処理が実行される。この場合、未選択の分類項目についてステップS211,S212の処理が実行される。すなわち、ステップS211,S212が繰り返されることで、被験者の姿勢を示す姿勢角度θが、n種類の分類項目にそれぞれ属する確率が計算される。一方、すべての分類項目が選択済みである場合には、ステップS214の処理が実行される。   [Step S213] The posture classification processing unit 215 determines whether all of the j types of classification items have been selected in Step S211. If there is an unselected classification item, the process of step S211 is executed. In this case, the processes of steps S211 and S212 are executed for the unselected classification item. That is, by repeating steps S211 and S212, the probability that the posture angle θ representing the posture of the subject belongs to each of n types of classification items is calculated. On the other hand, if all the classification items have been selected, the process of step S214 is executed.

[ステップS214]姿勢分類処理部215は、算出されたn個の確率のうち、最も高い値を持つ確率に対応する分類項目を、被験者の姿勢が属する分類項目と判定して出力する。   [Step S214] The posture classification processing unit 215 determines that the classification item corresponding to the probability having the highest value among the calculated n probabilities is the classification item to which the posture of the subject belongs and outputs the classification item.

ここで、図12は、姿勢分類のための計算について説明するための図である。図12のグラフは、2つの変数、すなわち、左右方向の姿勢角度(θjN1に対応)および前後方向の姿勢角度(θjN2に対応)による2次元正規分布を平面上に示したものである。 Here, FIG. 12 is a diagram for explaining calculation for posture classification. The graph of FIG. 12 shows a two-dimensional normal distribution on a plane by two variables, that is, a posture angle in the left-right direction (corresponding to θ jN1 ) and a posture angle in the front-rear direction (corresponding to θ jN2 ).

また、図12中の楕円領域301,302,303は、それぞれ異なる分類項目#1,#2,#3にそれぞれ対応する。楕円領域301は、分類項目#1に属する姿勢とされた被験者から得られる2つの変数が、ある一定の割合で含まれるような領域である。楕円領域302も同様に、分類項目#2に属する姿勢とされた被験者から得られる2つの変数が、ある一定の割合で含まれるような領域である。楕円領域303も同様に、分類項目#3に属する姿勢とされた被験者から得られる2つの変数が、ある一定の割合で含まれるような領域である。このような楕円領域301〜303は、確率楕円体、ある割合の信頼楕円または確率偏差楕円などと呼ばれる。   In addition, elliptical areas 301, 302, and 303 in FIG. 12 correspond to different classification items # 1, # 2, and # 3, respectively. The ellipse area 301 is an area in which two variables obtained from a subject whose posture belongs to the classification item # 1 are included at a certain ratio. Similarly, the elliptical region 302 is a region in which two variables obtained from the subject who is in the posture belonging to the classification item # 2 are included at a certain ratio. Similarly, the elliptical region 303 is a region in which two variables obtained from the subject who is in the posture belonging to the classification item # 3 are included at a certain ratio. Such ellipse regions 301-303 are called probability ellipsoids, a certain percentage of confidence ellipses, or probability deviation ellipses.

また、図12中の点311,312は、それぞれ本処理にて任意の姿勢の被験者から得られた2つの変数をグラフ上にプロットした位置を示す。ここで、前述した式(9)は、多次元正規分布(本実施の形態では2次元正規分布)の確率密度関数を示す。この式(9)は、本処理にて任意の姿勢の被験者から得られた2つの変数を図12のグラフ上にプロットした点と、楕円領域301〜303の各中心点との距離を計算することと等価である。そして、姿勢分類処理部215は、グラフ上にプロットされた点と中心点との距離が最も近い楕円領域を判別し、判別した楕円領域に対応する分類項目を、被験者の姿勢が属するものと判定する。   In addition, points 311 and 312 in FIG. 12 indicate positions where two variables obtained from a subject having an arbitrary posture in this processing are plotted on the graph. Here, the above-described equation (9) represents a probability density function of a multidimensional normal distribution (a two-dimensional normal distribution in the present embodiment). This equation (9) calculates the distance between the points plotted on the graph of FIG. 12 and the center points of the elliptical regions 301 to 303 from the two variables obtained from the subject in any posture in this process. Is equivalent to Then, the posture classification processing unit 215 determines an elliptical region having the closest distance between the point plotted on the graph and the center point, and determines that the classification item corresponding to the determined elliptical region belongs to the subject's posture. To do.

例えば、点311は、楕円領域301〜303の各中心点のうち、楕円領域301の中心点に最も近い。このため、点311が得られた被験者の姿勢は、分類項目#1に属すると判定される。また、点312は、楕円領域301〜303の各中心点のうち、楕円領域302の中心点に最も近い。このため、点312が得られた被験者の姿勢は、分類項目#2に属すると判定される。   For example, the point 311 is closest to the central point of the elliptical region 301 among the central points of the elliptical regions 301 to 303. For this reason, it is determined that the posture of the subject from which the point 311 is obtained belongs to the classification item # 1. Further, the point 312 is closest to the center point of the elliptical region 302 among the central points of the elliptical regions 301 to 303. For this reason, it is determined that the posture of the subject from which the point 312 is obtained belongs to the classification item # 2.

図13は、測定により得られた変数と、矩形の判定領域との比較によって姿勢分類を行う場合の参考図である。以下、この図13に示す姿勢分類の方法と、図12に示した姿勢分類の方法とを対比する。   FIG. 13 is a reference diagram when posture classification is performed by comparing a variable obtained by measurement with a rectangular determination region. The posture classification method shown in FIG. 13 is compared with the posture classification method shown in FIG.

図13のグラフは、2つの変数を軸とした平面上に、2つの変数それぞれの上限および下限の閾値を示す矩形領域321〜323が設定したものである。矩形領域321,322,323は、それぞれ分類項目#1,#2,#3に属することを判定するための領域である。   In the graph of FIG. 13, rectangular areas 321 to 323 indicating upper and lower thresholds of two variables are set on a plane with two variables as axes. The rectangular areas 321, 322, and 323 are areas for determining that they belong to the classification items # 1, # 2, and # 3, respectively.

また、図13中の点331,332は、それぞれ本処理にて任意の姿勢の被験者から得られた2つの変数をグラフ上にプロットした位置を示す。この図13の方法では、それぞれの点がどの矩形領域に含まれるかによって、それぞれの点が得られた被験者の姿勢が分類される。しかしながら、図13の例では、点331は矩形領域321〜323のいずれにも含まれておらず、また、点332も矩形領域321〜323のいずれにも含まれていない。この場合、点331,332がそれぞれ得られた被験者の姿勢が、どの分類項目に属するかを判定できない。   Further, points 331 and 332 in FIG. 13 indicate positions where two variables obtained from a subject in an arbitrary posture in this processing are plotted on the graph. In the method of FIG. 13, the posture of the subject from which each point is obtained is classified according to which rectangular area each point is included in. However, in the example of FIG. 13, the point 331 is not included in any of the rectangular areas 321 to 323, and the point 332 is not included in any of the rectangular areas 321 to 323. In this case, it cannot be determined to which classification item the posture of the subject from which the points 331 and 332 are obtained belongs.

これに対して、図12に示した方法によれば、グラフ上にプロットされた点と中心点との距離が最も近い楕円領域が判別され、判別された楕円領域に対応する分類項目が、被験者の姿勢が属するものと判定される。これにより、プロットされた点が得られた被験者の姿勢がどの分類項目に属するかを、確実に判定することができる。また、分類項目を多くした場合でも、被験者の姿勢がどの分類項目に属するかを判定することができる。   On the other hand, according to the method shown in FIG. 12, the ellipse area where the distance between the point plotted on the graph and the center point is the closest is determined, and the classification item corresponding to the determined ellipse area is the subject. It is determined that the posture belongs. This makes it possible to reliably determine to which classification item the posture of the subject from whom the plotted points are obtained belongs. Even when the number of classification items is increased, it is possible to determine which classification item the subject's posture belongs to.

次に、正解率算出部216を用いた姿勢の分類精度の検証について示す。本願の発明者らは、10−fold交差検定を用いた次のような方法で、姿勢の分類精度を検証した。
まず、被験者にある1つの分類項目に属するような姿勢をとらせ、その状態でセンサデバイス110によるt(=15)秒間の測定を行う。このようにして得られた測定値を基に、特徴量、すなわち姿勢角度を得る。また、このような測定を10回行って、それぞれ姿勢角度を得る。すなわち、1つの分類項目について10個の姿勢角度が得られる。さらに、各分類項目について上記の処理を繰り返し、分類項目ごとに10個の姿勢角度を得る。
Next, verification of posture classification accuracy using the accuracy rate calculation unit 216 will be described. The inventors of the present application verified posture classification accuracy by the following method using 10-fold cross-validation.
First, the subject is assumed to belong to one classification item, and measurement is performed for t (= 15) seconds by the sensor device 110 in that state. Based on the measurement values obtained in this way, the feature amount, that is, the posture angle is obtained. Moreover, such a measurement is performed 10 times to obtain the posture angle. That is, ten posture angles are obtained for one classification item. Further, the above processing is repeated for each classification item, and 10 posture angles are obtained for each classification item.

次に、すべての分類項目についての姿勢角度を1つずつ含むデータ群を10組作成して、姿勢角度を分類する。そして、10組のデータ群のうち、9組のデータ群を用いて学習処理を行って、各分類項目についての姿勢パラメータを算出し、残りの1組のデータ群に含まれる姿勢角度を用いて本処理、すなわちどの分類項目に属するかの判定を行う。この場合、N=9として学習処理が行われ、残りのデータ群に含まれる10個の姿勢角度のそれぞれについて、どの分類項目に属するかが判定される。   Next, 10 sets of data groups each including one posture angle for all classification items are created, and the posture angles are classified. Then, learning processing is performed using nine data groups out of the ten data groups, posture parameters for each classification item are calculated, and posture angles included in the remaining one data group are used. This process, that is, which classification item is determined is determined. In this case, learning processing is performed with N = 9, and it is determined to which classification item each of the ten posture angles included in the remaining data group belongs.

さらに、このような学習処理および本処理を、本処理に用いるデータ群を変更しながら繰り返す。これにより、合計100回の姿勢分類の判定が行われる。正解率算出部216は、姿勢分類の判定結果が得られるごとに、その判定結果が正しいかを判定して、正解率を算出する。   Further, the learning process and the main process are repeated while changing the data group used for the main process. As a result, the posture classification is determined 100 times in total. The accuracy rate calculation unit 216 determines whether the determination result is correct each time the determination result of posture classification is obtained, and calculates the accuracy rate.

ただし、以下に示す正解率の算出例では、「直立−真っ直ぐ」の分類項目についてのみ、10回ではなく60回の測定を行った。そして、各データ群には、「直立−真っ直ぐ」の分類項目に対応する姿勢角度が6個ずつ含まれるようにした。   However, in the calculation example of the accuracy rate shown below, only for the classification item “upright-straight”, measurement was performed 60 times instead of 10 times. Each data group includes six posture angles corresponding to the classification item “upright-straight”.

さらに、次の図14に示すようにセンサデバイス110の装着位置を変えながら処理を行った。図14は、センサデバイスの装着位置を示す図である。
図14に示すように、発明者らは、センサデバイス110を、被験者140の背中に沿って上下方向に3箇所ずれた位置に装着して、姿勢分類の検証を行った。以下、各位置に装着されたセンサデバイス110は、上側から順に“センサ#1”、“センサ#2”、“センサ#3”と表記する。センサ#1は、被験者140の肩甲骨付近に装着したものとする。センサ#2は、被験者140の背中の中心付近に装着したものとする。センサ#3は、被験者140が身につけている腰のベルトの下付近に装着したものとする。
Further, as shown in FIG. 14, the processing was performed while changing the mounting position of the sensor device 110. FIG. 14 is a diagram illustrating a mounting position of the sensor device.
As shown in FIG. 14, the inventors attached the sensor device 110 to a position shifted in the vertical direction along the back of the subject 140 and verified posture classification. Hereinafter, the sensor devices 110 attached to the respective positions will be referred to as “sensor # 1”, “sensor # 2”, and “sensor # 3” in order from the top. Sensor # 1 is assumed to be worn near the scapula of subject 140. Sensor # 2 is assumed to be worn near the center of the back of subject 140. It is assumed that sensor # 3 is attached near the lower belt of the subject 140.

図15は、センサデバイスの位置に応じた正解率の算出例を示すグラフである。センサ#1を用いた場合の正解率は約0.73、センサ#2を用いた場合の正解率は約0.65、センサ#3を用いた場合の正解率は0.89となり、センサデバイス110の装着位置がどの位置の場合でも60%以上の正解率が得られた。特に、センサ#3を用いた場合には80%以上という高い正解率が得られた。なお、分類項目ごとの正解率については後述する。   FIG. 15 is a graph illustrating an example of calculating the correct answer rate according to the position of the sensor device. When the sensor # 1 is used, the accuracy rate is about 0.73, when the sensor # 2 is used, the accuracy rate is about 0.65, and when the sensor # 3 is used, the accuracy rate is 0.89. A correct answer rate of 60% or more was obtained at any position where 110 was attached. In particular, when sensor # 3 was used, a high accuracy rate of 80% or more was obtained. The correct answer rate for each classification item will be described later.

〔第3の実施の形態〕
ところで、上記の第2の実施の形態では、図15に示したように、センサデバイス110の装着位置によって正解率にバラツキが見られる。これに対して、それぞれ別の位置に装着した複数のセンサデバイス110からの測定値を用いて学習処理および本処理を行うことで、姿勢分類の精度を高めることができると考えられる。
[Third Embodiment]
By the way, in said 2nd Embodiment, as shown in FIG. 15, the variation in a correct answer rate is seen by the mounting position of the sensor device 110. As shown in FIG. On the other hand, it is considered that the accuracy of posture classification can be improved by performing learning processing and main processing using measurement values from a plurality of sensor devices 110 mounted at different positions.

そこで、以下の第3の実施の形態では、第2の実施の形態の姿勢分類装置200を、複数のセンサデバイス110の測定値を基に処理を行うように変形する。さらに、第3の実施の形態では、姿勢分類精度のさらなる向上効果を得るために、複数のセンサデバイス110の測定値を用いて算出された姿勢パラメータを補正する手段についても開示する。   Therefore, in the following third embodiment, the posture classification apparatus 200 according to the second embodiment is modified so as to perform processing based on the measurement values of the plurality of sensor devices 110. Furthermore, the third embodiment also discloses means for correcting posture parameters calculated using measured values of a plurality of sensor devices 110 in order to obtain a further improvement effect of posture classification accuracy.

なお、以下の第3の実施の形態についての説明では、第2の実施の形態と同じ処理が行われる構成要素や処理ステップには同じ符号を付して示し、それらの説明を省略する。
図16は、第3の実施の形態に係る姿勢計測システムの構成例を示す図である。図16に示す姿勢計測システム100aは、複数のセンサデバイス110と、端末装置120aと、姿勢分類装置200aとを含む。端末装置120aと姿勢分類装置200aとは、ネットワーク130を介して接続されている。
In the following description of the third embodiment, the same reference numerals are given to components and processing steps in which the same processing as in the second embodiment is performed, and description thereof is omitted.
FIG. 16 is a diagram illustrating a configuration example of an attitude measurement system according to the third embodiment. The posture measurement system 100a illustrated in FIG. 16 includes a plurality of sensor devices 110, a terminal device 120a, and a posture classification device 200a. The terminal device 120a and the attitude classification device 200a are connected via the network 130.

端末装置120aは、複数のセンサデバイス110と接続し、それぞれのセンサデバイス110からの計測値を姿勢分類装置200aに送信する点で、図2に示した端末装置120とは異なる。なお、図16の例では、端末装置120aに対して2つのセンサデバイス110が接続されているが、3つ以上のセンサデバイス110が接続されていてもよい。   The terminal device 120a is different from the terminal device 120 illustrated in FIG. 2 in that the terminal device 120a is connected to a plurality of sensor devices 110 and transmits measurement values from the respective sensor devices 110 to the posture classification device 200a. In the example of FIG. 16, two sensor devices 110 are connected to the terminal device 120a, but three or more sensor devices 110 may be connected.

複数のセンサデバイス110は、同じ被験者に装着される。また、複数のセンサデバイス110は、被験者の背中あるいはその周辺において、上下方向、すなわち背骨に沿った方向に対してそれぞれ異なる位置に装着されることが望ましい。例えば、2つのセンサデバイス110が使用される場合、これらのセンサデバイス110は、図14に示したセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のいずれかの組み合わせに対応するようにしてもよい。   The plurality of sensor devices 110 are worn by the same subject. In addition, it is desirable that the plurality of sensor devices 110 be mounted at different positions in the vertical direction, that is, the direction along the spine, on the subject's back or in the vicinity thereof. For example, when two sensor devices 110 are used, these sensor devices 110 may be any of sensor # 1 and sensor # 2, sensor # 1 and sensor # 3, sensor # 2 and sensor # 3 shown in FIG. You may make it respond | correspond to these combinations.

なお、複数のセンサデバイス110の各機能は、例えば、端末装置120aに組み込まれていてもよい。
姿勢分類装置200aは、複数のセンサデバイス110のそれぞれから受信した測定値を用いて、姿勢パラメータの算出、および姿勢の分類処理を行う。
Note that the functions of the plurality of sensor devices 110 may be incorporated in the terminal device 120a, for example.
The posture classification apparatus 200a performs posture parameter calculation and posture classification processing using the measurement values received from each of the plurality of sensor devices 110.

図17は、第3の実施の形態に係る姿勢分類装置が備える機能の構成例を示すブロック図である。図17に示す姿勢分類装置200aは、データ取得部211a、特徴量算出部212a、姿勢パラメータ算出部213a、姿勢パラメータ記憶部214a、姿勢分類処理部215a、正解率算出部216、拘束条件算出部221および姿勢パラメータ補正部222を有する。なお、姿勢分類装置200aのハードウェア構成は、図3に示した姿勢分類装置200と同様の構成とすることができる。   FIG. 17 is a block diagram illustrating a configuration example of functions included in the posture classification apparatus according to the third embodiment. The posture classification apparatus 200a illustrated in FIG. 17 includes a data acquisition unit 211a, a feature amount calculation unit 212a, a posture parameter calculation unit 213a, a posture parameter storage unit 214a, a posture classification processing unit 215a, a correct answer rate calculation unit 216, and a constraint condition calculation unit 221. And a posture parameter correction unit 222. Note that the hardware configuration of the posture classification apparatus 200a can be the same as that of the posture classification apparatus 200 shown in FIG.

データ取得部211a、特徴量算出部212a、姿勢パラメータ算出部213a、姿勢分類処理部215a、正解率算出部216、拘束条件算出部221および姿勢パラメータ補正部222の各処理は、例えば、姿勢分類装置200aが備えるプロセッサ201が所定のプログラムを実行することで実現される。また、姿勢パラメータ記憶部214aは、例えば、姿勢分類装置200aが備えるHDD203の記憶領域として実現される。   Each process of the data acquisition unit 211a, the feature amount calculation unit 212a, the posture parameter calculation unit 213a, the posture classification processing unit 215a, the accuracy rate calculation unit 216, the constraint condition calculation unit 221 and the posture parameter correction unit 222 is performed by, for example, a posture classification device. This is realized by the processor 201 included in the 200a executing a predetermined program. In addition, the posture parameter storage unit 214a is realized as a storage area of the HDD 203 provided in the posture classification apparatus 200a, for example.

データ取得部211a、特徴量算出部212a、姿勢パラメータ算出部213aおよび姿勢分類処理部215aの基本的な処理は、それぞれ図6に示したデータ取得部211、特徴量算出部212、姿勢パラメータ算出部213および姿勢分類処理部215と同様である。以下、これらの処理機能について、図6における対応する処理機能とは異なる点についてのみ説明する。   The basic processes of the data acquisition unit 211a, the feature amount calculation unit 212a, the posture parameter calculation unit 213a, and the posture classification processing unit 215a are the data acquisition unit 211, the feature amount calculation unit 212, and the posture parameter calculation unit illustrated in FIG. 213 and the posture classification processing unit 215 are the same. In the following, these processing functions will be described only with respect to differences from the corresponding processing functions in FIG.

データ取得部211aは、2つのセンサデバイス110のそれぞれから、x方向、y方向、z方向のそれぞれについての加速度の測定値を取得する点で、データ取得部211とは異なる。   The data acquisition unit 211a is different from the data acquisition unit 211 in that it acquires acceleration measurement values for each of the x direction, the y direction, and the z direction from each of the two sensor devices 110.

特徴量算出部212aは、2つのセンサデバイス110のそれぞれから取得した測定値を用いて、センサデバイス110ごとに姿勢角度を算出する点で、特徴量算出部212とは異なる。   The feature amount calculation unit 212a is different from the feature amount calculation unit 212 in that a posture angle is calculated for each sensor device 110 using measurement values acquired from the two sensor devices 110, respectively.

姿勢パラメータ算出部213aは、センサデバイス110ごとに算出された姿勢角度を基に1組の平均ベクトルおよび共分散行列を算出する点で、姿勢パラメータ算出部213とは異なる。また、姿勢パラメータ算出部213aは、拘束条件算出部221によって、姿勢分類に対する寄与が小さいパラメータがあると判定された場合には、寄与が小さいパラメータ、すなわち、左右方向または前後方向のいずれかの姿勢角度を除外して、姿勢パラメータの算出を行う。   The posture parameter calculation unit 213a is different from the posture parameter calculation unit 213 in that a set of average vector and covariance matrix is calculated based on the posture angle calculated for each sensor device 110. In addition, when the constraint condition calculation unit 221 determines that there is a parameter with a small contribution to the posture classification, the posture parameter calculation unit 213a has a parameter with a small contribution, that is, one of the postures in the left-right direction and the front-rear direction. The attitude parameter is calculated excluding the angle.

姿勢分類処理部215aは、センサデバイス110の個数をnとしたとき、姿勢分類の計算式における次元dが2nとなる点で、姿勢分類処理部215とは異なる。また、拘束条件算出部221の処理結果によっては、次元dが2nより小さくなる場合もある。   The posture classification processing unit 215a is different from the posture classification processing unit 215 in that the dimension d in the posture classification calculation formula is 2n, where n is the number of sensor devices 110. In addition, depending on the processing result of the constraint condition calculation unit 221, the dimension d may be smaller than 2n.

拘束条件算出部221および姿勢パラメータ補正部222は、2つのセンサデバイス110の測定値を基に算出される姿勢パラメータを最適化するために付加された処理機能である。   The constraint condition calculation unit 221 and the posture parameter correction unit 222 are processing functions added to optimize posture parameters calculated based on the measurement values of the two sensor devices 110.

拘束条件算出部221は、人体の背骨の動きに関する拘束条件を考慮して、姿勢分類処理に対する寄与が小さいパラメータを判別する。判別の方法としては、次の2種類の方法がある。   The constraint condition calculation unit 221 determines a parameter having a small contribution to the posture classification process in consideration of the constraint condition related to the movement of the spine of the human body. There are the following two types of determination methods.

拘束条件算出部221は、第1の判別方法として、特徴量算出部212aによって算出された特徴量に基づいて、姿勢分類処理に対する寄与が小さい背中の傾斜の方向を判別する。この場合、姿勢パラメータ算出部213aは、判別された方向に対応する特徴量、すなわち姿勢角度を使用せずに、姿勢パラメータの算出を行う。   As a first determination method, the constraint condition calculation unit 221 determines the direction of the back inclination with a small contribution to the posture classification process based on the feature amount calculated by the feature amount calculation unit 212a. In this case, the posture parameter calculation unit 213a calculates the posture parameter without using the feature amount corresponding to the determined direction, that is, the posture angle.

また、拘束条件算出部221は、第2の判別方法として、姿勢パラメータ算出部213aによって算出された姿勢パラメータに基づいて、姿勢分類処理に対する寄与が小さいパラメータを判別する。この場合、拘束条件算出部221は、姿勢パラメータ算出部213aによって算出された姿勢パラメータを、姿勢分類処理に対する寄与が小さいパラメータが除外されるように変換して、姿勢パラメータ補正部222に渡す。   Further, as a second determination method, the constraint condition calculation unit 221 determines a parameter that has a small contribution to the posture classification process based on the posture parameter calculated by the posture parameter calculation unit 213a. In this case, the constraint condition calculation unit 221 converts the posture parameter calculated by the posture parameter calculation unit 213a so as to exclude a parameter having a small contribution to the posture classification process, and passes the posture parameter to the posture parameter correction unit 222.

姿勢パラメータ補正部222は、拘束条件算出部221によって上記の第2の判別方法による判別が行われた場合に、拘束条件算出部221によって変換されたパラメータを用いて、姿勢パラメータを再計算する。姿勢パラメータ補正部222は、再計算された姿勢パラメータを姿勢パラメータ記憶部214aに格納する。   The posture parameter correction unit 222 recalculates the posture parameter using the parameter converted by the constraint condition calculation unit 221 when the constraint condition calculation unit 221 performs the determination by the second determination method. The posture parameter correction unit 222 stores the recalculated posture parameter in the posture parameter storage unit 214a.

以下、姿勢分類装置200aの処理を、処理例1〜4の4パターンの処理例として説明する。
<処理例1>
処理例1は、第2の実施の形態の姿勢分類装置200の処理を、複数のセンサデバイス110の測定値を用いて行うように変形したものである。この処理例1では、拘束条件算出部221および姿勢パラメータ補正部222は使用されない。
Hereinafter, the processing of the posture classification apparatus 200a will be described as processing examples of four patterns of processing examples 1 to 4.
<Processing Example 1>
The processing example 1 is a modification in which the processing of the posture classification apparatus 200 according to the second embodiment is performed using the measurement values of the plurality of sensor devices 110. In the processing example 1, the constraint condition calculation unit 221 and the posture parameter correction unit 222 are not used.

処理例1での基本的な処理の流れは、図7と同様であり、学習処理と本処理とを含む。まず、学習処理における特徴量の算出処理(図7のステップS11および図8に対応)は、次のように変形される。   The basic processing flow in Processing Example 1 is the same as that in FIG. 7 and includes a learning process and a main process. First, the feature amount calculation process (corresponding to step S11 in FIG. 7 and FIG. 8) in the learning process is modified as follows.

データ取得部211aは、複数のセンサデバイス110による測定値を、端末装置120を通じて取得する。センサデバイス110の数をnとすると、データ取得部211aは、前述の式(1−1)〜(1−3)で表される測定値XjN,YjN,ZjNを、n組取得する。この処理は、図8のステップS101に対応する。特徴量算出部212aは、図8のステップS102〜S104と同様の手順で、取得されたn組の測定値のそれぞれを基に、n組の姿勢角度θjN1,θjN2を算出する。 The data acquisition unit 211 a acquires measurement values obtained by the plurality of sensor devices 110 through the terminal device 120. Assuming that the number of sensor devices 110 is n, the data acquisition unit 211a acquires n sets of measurement values X jN , Y jN , and Z jN represented by the above formulas (1-1) to (1-3). . This process corresponds to step S101 in FIG. The feature quantity calculation unit 212a calculates n sets of posture angles θ jN1 and θ jN2 based on each of the acquired n sets of measurement values in the same procedure as steps S102 to S104 in FIG.

さらに、以上のようなn組の姿勢角度θjN1,θjN2の算出処理がN回行われる。これにより、1つの分類項目に対応する特徴量として、N回分の姿勢角度θjN1,θjN2を含むデータ群がn群算出される。 Further, the above n sets of posture angles θ jN1 and θ jN2 are calculated N times. As a result, n groups of data including N posture angles θ jN1 and θ jN2 are calculated as feature amounts corresponding to one classification item.

次に、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。
姿勢パラメータ算出部213aは、センサデバイス110ごとに算出された姿勢角度を基に、1組の平均ベクトルおよび共分散行列を算出する。この処理は、図9のステップS111に対応する。
Next, the posture parameter calculation process (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows.
The posture parameter calculation unit 213a calculates a set of average vector and covariance matrix based on the posture angle calculated for each sensor device 110. This process corresponds to step S111 in FIG.

ここで、n組目の姿勢角度、すなわち、n番目のセンサデバイス110の測定値を基に算出された姿勢角度をθj1_n(N),θj2_n(N)とすると、j番目の分類項目について算出された姿勢角度Θjは、下記の式(5’)のように表される。また、n番目のセンサデバイス110を用いたN回の測定における左右方向、前後方向の姿勢角度の平均値Ave(θj1_n),Ave(θj2_n)は、それぞれ下記の式(6’−1),(6’−2)によって表される。そして、すべてのセンサデバイス110の測定値を加味した左右方向、前後方向の姿勢角度の平均値Ave(θj1),Ave(θj2)は、それぞれ下記の式(6’−3),(6’−4)によって表される。 Here, assuming that the posture angle calculated based on the n-th posture angle, that is, the measured value of the nth sensor device 110, is θ j1 — n (N), θ j2 — n (N), the j th The posture angle Θ j calculated for the classification item is expressed as the following equation (5 ′). In addition, average values Ave (θ j1 — n ) and Ave (θ j2 — n ) of posture angles in the left-right direction and the front-rear direction in N measurements using the n-th sensor device 110 are expressed by the following formulas (6 '-1) and (6'-2). The average values Ave (θ j1 ) and Ave (θ j2 ) of the posture angles in the left-right direction and the front-rear direction in consideration of the measured values of all the sensor devices 110 are expressed by the following equations (6′-3) and (6 Represented by '-4).

Figure 2015097565
Figure 2015097565

従って、j番目の分類項目に対応する平均ベクトルAve(Θj)は、前述した式(7)に、式(6’−3),(6’−4)で表される姿勢角度の平均値Ave(θj1),Ave(θj2)を代入することによって算出される。 Therefore, the average vector Ave (Θ j ) corresponding to the j-th classification item is obtained by adding the average value of the posture angles represented by the equations (6′-3) and (6′-4) to the equation (7) described above. It is calculated by substituting Ave (θ j1 ) and Ave (θ j2 ).

また、共分散行列Ajは、式(5’)によって算出された姿勢角度Θjと、この姿勢角度Θjを用いて上記手順で算出された平均ベクトルAve(Θj)とを、前述の式(8)に代入することによって算出される。この処理は、図9のステップS112に対応する。 Further, the covariance matrix A j includes the attitude angle Θ j calculated by the equation (5 ′) and the average vector Ave (Θ j ) calculated by the above procedure using the attitude angle Θ j . It is calculated by substituting into equation (8). This process corresponds to step S112 in FIG.

なお、第2の実施の形態では、平均ベクトルAve(Θj)は2次元のベクトルであり、共分散行列Ajは2行2列の行列であった。これに対して、第3の実施の形態の処理例1では、平均ベクトルAve(Θj)は2n次元のベクトルとなり、共分散行列Ajは2n行2n列の行列となる。 In the second embodiment, the average vector Ave (Θ j ) is a two-dimensional vector, and the covariance matrix A j is a matrix with 2 rows and 2 columns. On the other hand, in the processing example 1 of the third embodiment, the average vector Ave (Θ j ) is a 2n-dimensional vector, and the covariance matrix A j is a matrix of 2n rows and 2n columns.

以上のように図7のステップS11,S12を変形した処理が、j種類の分類項目のそれぞれについて実行される。
次に、本処理における特徴量の算出処理(図7のステップS21および図10に対応)は、次のように変形される。
As described above, the process obtained by modifying steps S11 and S12 in FIG. 7 is executed for each of the j types of classification items.
Next, the feature amount calculation process (corresponding to step S21 in FIG. 7 and FIG. 10) in this process is modified as follows.

データ取得部211は、複数のセンサデバイス110による測定値を、端末装置120を通じて取得する。すなわち、データ取得部211は、前述の式(1−1)〜(1−3)で表される測定値XjN,YjN,ZjNを、n組取得する。この処理は、図10のステップS201に対応する。特徴量算出部212aは、図10のステップS202〜S204と同様の手順で、取得されたn組の測定値のそれぞれを基に、n組の姿勢角度θjN1,θjN2を算出する。 The data acquisition unit 211 acquires measurement values obtained by the plurality of sensor devices 110 through the terminal device 120. That is, the data acquisition unit 211 acquires n sets of measurement values X jN , Y jN , and Z jN represented by the above formulas (1-1) to (1-3). This process corresponds to step S201 in FIG. The feature amount calculation unit 212a calculates n sets of posture angles θ jN1 and θ jN2 based on each of the acquired n sets of measurement values in the same procedure as steps S202 to S204 in FIG.

次に、姿勢分類処理(図7のステップS22および図11に対応)は、次のように変形される。
姿勢分類処理部215aによる姿勢分類処理は、姿勢分類処理部215による図11の処理のうち、ステップS212の処理が次のように変形されたものと等価である。前述のように、特徴量算出部212aは、n組の姿勢角度θjN1,θjN2を算出する。ここで、n番目のセンサデバイス110の測定値を基に算出された姿勢角度θjN1,θjN2をそれぞれθ1_n,θ2_nとすると、算出された姿勢角度θは、次の式(10)のように表される。
Next, the posture classification process (corresponding to step S22 in FIG. 7 and FIG. 11) is modified as follows.
The posture classification processing by the posture classification processing unit 215a is equivalent to the processing in FIG. 11 performed by the posture classification processing unit 215 in which the processing in step S212 is modified as follows. As described above, the feature amount calculation unit 212a calculates n sets of posture angles θ jN1 and θ jN2 . Here, n th sensor device 110 measurements attitude angle is calculated based on θ jN1, θ jN2 respectively θ 1 _ n, when the θ 2 _ n, is calculated attitude angle theta, the following formula It is expressed as (10).

Figure 2015097565
Figure 2015097565

姿勢分類処理部215aは、式(10)で表される姿勢角度θを前述の式(9)に代入することによって、確率Pj(θ)を算出する。なお、式(9)における次元dは、2nとなる。 The posture classification processing unit 215a calculates the probability P j (θ) by substituting the posture angle θ represented by the equation (10) into the above-described equation (9). Note that the dimension d in equation (9) is 2n.

姿勢分類処理部215aは、以上のような確率Pj(θ)の演算を、n種類の分類項目のそれぞれについて実行する。そして、姿勢分類処理部215aは、算出されたn個の確率のうち、最も高い値を持つ確率に対応する分類項目を、被験者の姿勢が属する分類項目と判定して出力する。 The posture classification processing unit 215a executes the calculation of the probability P j (θ) as described above for each of the n types of classification items. Then, the posture classification processing unit 215a determines and outputs the classification item corresponding to the probability having the highest value among the calculated n probabilities as the classification item to which the posture of the subject belongs.

ここで、図18は、処理例1での正解率の算出例を示すグラフである。この図18では、例として、n=2として処理を行った場合に、正解率算出部216によって算出された正解率の例を示す。また、図18には、2つのセンサデバイス110の搭載位置の組み合わせとして、図14に示すセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のそれぞれの組み合わせで処理を行った場合の正解率を示している。さらに、図18では、参考のために、センサ#1,#2,#3をそれぞれ単独で用いて第2の実施の形態の姿勢分類装置200によって処理された場合の正解率(図15に示した正解率)も示している。   Here, FIG. 18 is a graph showing an example of calculating the correct answer rate in Processing Example 1. FIG. 18 shows an example of the correct answer rate calculated by the correct answer rate calculation unit 216 when processing is performed with n = 2. FIG. 18 also shows combinations of mounting positions of the two sensor devices 110, that is, combinations of sensor # 1 and sensor # 2, sensor # 1 and sensor # 3, and sensor # 2 and sensor # 3 shown in FIG. The correct answer rate is shown when processing is performed. Further, in FIG. 18, for reference, the accuracy rate when processed by the posture classification apparatus 200 of the second embodiment using the sensors # 1, # 2, and # 3 alone (shown in FIG. 15). (Accuracy rate).

図18に示すように、複数のセンサデバイス110を組み合わせて処理を行うと、センサデバイス110を単独で用いて処理を行った場合より、姿勢分類の精度が低下する場合があることが判明した。このことの原因について、発明者らは次のように推察した。   As shown in FIG. 18, it has been found that when processing is performed by combining a plurality of sensor devices 110, the accuracy of posture classification may be lower than when processing is performed using the sensor device 110 alone. The inventors inferred the cause of this as follows.

物理的な観点からすると、装着するセンサデバイス110が例えば2個の場合、姿勢を表現する姿勢パラメータの次元は“4”となる。その一方、人体の背骨を構成している骨の動きには、何らかの拘束条件がある。このため、姿勢の分類に寄与する姿勢パラメータの次元は、“4”より少ない場合があり得る。この場合、姿勢の分類に寄与しない次元のパラメータを含めて分類処理を行うと、分類精度が悪化することが考えられる。   From a physical point of view, when there are two sensor devices 110 to be mounted, for example, the orientation parameter dimension expressing the orientation is “4”. On the other hand, there are some constraints on the movement of the bones that make up the spine of the human body. For this reason, the dimension of the posture parameter contributing to the posture classification may be less than “4”. In this case, it is conceivable that the classification accuracy deteriorates when the classification process is performed including a dimension parameter that does not contribute to the posture classification.

また、数値計算的な観点からすると、共分散行列の固有値の中に、最大固有値と比較して極端に小さい固有値が存在することによって、逆行列を用いた算出精度が劣化したことも考えられる。このような精度の劣化も、骨の動きの拘束条件に起因する可能性がある。   From a numerical point of view, it is also conceivable that the calculation accuracy using the inverse matrix has deteriorated due to the presence of extremely small eigenvalues in the eigenvalues of the covariance matrix compared to the maximum eigenvalue. Such deterioration in accuracy may also be attributed to the constraint of bone movement.

以下に示す処理例2,3は、このような原因の推察に基づき、姿勢分類で使用される姿勢パラメータが最適化されるように上記の処理例1を変形したものである。
<処理例2>
図19は、背中を前後方向に傾けた場合の姿勢の例を示す図である。図19の左側は、被験者140が背中を前方向に傾けた場合の姿勢の例を示し、図19の右側は、被験者140が背中を後ろ方向に傾けた場合の姿勢の例を示す。
The following processing examples 2 and 3 are modifications of the above processing example 1 so that posture parameters used in posture classification are optimized based on such a cause inference.
<Processing example 2>
FIG. 19 is a diagram illustrating an example of a posture when the back is tilted in the front-rear direction. The left side of FIG. 19 shows an example of the posture when the subject 140 tilts his back forward, and the right side of FIG. 19 shows an example of the posture when the subject 140 tilts his back backward.

この図19の例のように、被験者140が背中を前後方向に傾ける動作を行う際に、背中は左右方向にはほとんど傾かない可能性がある。この場合、被験者140が背中を前方向に傾けたときと、後ろ方向に傾けたときと、その中間のときとで、左右方向の傾斜角度を示すパラメータの値はほとんど変化しない。このため、例えば、前述の分類項目のうち、「直立」、「前傾」、「後傾」のように、背中の前後方向の傾きが異なる姿勢を分類するために、左右方向の傾斜角度を示すパラメータが寄与する可能性は低い。   As in the example of FIG. 19, when the subject 140 performs an operation of tilting the back in the front-rear direction, the back may hardly tilt in the left-right direction. In this case, the value of the parameter indicating the tilt angle in the left-right direction hardly changes depending on whether the subject 140 tilts the back in the forward direction, tilts in the rear direction, or in the middle. Therefore, for example, in order to classify postures with different back-and-forth back-and-forth orientations, such as “upright”, “forward tilt”, and “backward tilt” among the classification items described above, the tilt angle in the left-right direction is The parameters shown are unlikely to contribute.

このように、姿勢パラメータの中に、姿勢の分類のために寄与しない方向に関するパラメータが含まれていると、そのパラメータが姿勢の分類処理に悪影響を与える可能性がある。そこで、処理例2では、拘束条件算出部221が、姿勢パラメータが示す傾斜角度の方向(すなわち、左右方向または前後方向)のうち、姿勢の分類処理に寄与しない方向の有無を判定する。そして、姿勢の分類処理に寄与しない方向がある場合には、その方向に関するパラメータを捨てて、姿勢の分類処理に使用しないようにする。   As described above, if a posture parameter includes a parameter related to a direction that does not contribute to posture classification, the parameter may adversely affect posture classification processing. Therefore, in the processing example 2, the constraint condition calculation unit 221 determines whether there is a direction that does not contribute to the posture classification process among the directions of the inclination angle indicated by the posture parameter (that is, the left-right direction or the front-back direction). If there is a direction that does not contribute to the posture classification process, the parameter relating to the direction is discarded and is not used for the posture classification process.

図20は、処理例2における姿勢パラメータ算出の処理手順の例を示すフローチャートである。処理例2では、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。   FIG. 20 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 2. In the processing example 2, the posture parameter calculation processing (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows.

[ステップS151]拘束条件算出部221は、特徴量算出部212aによって算出された姿勢角度を基に、姿勢の分類処理に寄与しない方向に対応するパラメータがあるかを判定する。   [Step S151] The constraint condition calculation unit 221 determines whether there is a parameter corresponding to a direction that does not contribute to the posture classification process based on the posture angle calculated by the feature amount calculation unit 212a.

具体的には、拘束条件算出部221は、同じ方向への傾斜角度を示す姿勢角度の合計を算出する。この計算では、各センサデバイス110からの測定値に基づく、同じ方向に対応する姿勢角度が合計される。n番目のセンサデバイス110によるN回の測定値を基に算出された姿勢角度をθj1_n(N),θj2_n(N)とすると、左右方向に対する姿勢角度の合計値Γj1_n、前後方向に対する姿勢角度の合計値Γj2_nは、それぞれ次の式(11−1),(11−2)で表される。 Specifically, the constraint condition calculation unit 221 calculates the total posture angle indicating the tilt angle in the same direction. In this calculation, the posture angles corresponding to the same direction based on the measurement values from the sensor devices 110 are summed. Assuming that the posture angles calculated based on the N measurement values by the n-th sensor device 110 are θ j1 — n (N) and θ j2 — n (N), the total posture angle Γ j1 — n and the total value Γ j2 — n of posture angles with respect to the front-rear direction are expressed by the following equations (11-1) and (11-2), respectively.

Figure 2015097565
Figure 2015097565

拘束条件算出部221は、同じセンサデバイス110の測定値に基づく、異なる方向の姿勢角度の合計値の比を計算する。ここで、一方の方向についての合計値が相対的に極端に小さい場合には、その方向に対する背中の傾きの変化が少ない、すなわち、その方向に対する背中の動きが制限されているという拘束条件があることを示す。このため、拘束条件算出部221は、一方の方向についての合計値が相対的に極端に小さい場合に、その方向についてのパラメータが姿勢の分類処理に寄与しないと判定する。   The constraint condition calculation unit 221 calculates the ratio of the total values of posture angles in different directions based on the measurement values of the same sensor device 110. Here, when the total value for one direction is relatively extremely small, there is a constraint that the change in the inclination of the back with respect to that direction is small, that is, the movement of the back with respect to that direction is restricted. It shows that. For this reason, when the total value for one direction is relatively extremely small, the constraint condition calculation unit 221 determines that the parameter for that direction does not contribute to the posture classification process.

具体的には、拘束条件算出部221は、対応するセンサデバイス110ごとに、比率(Γj1_n/Γj2_n)および比率(Γj2_n/Γj1_n)を算出する。すべてのセンサデバイス110について、比率(Γj1_n/Γj2_n)が所定の閾値以下である場合、拘束条件算出部221は、左右方向に対応する姿勢角度が姿勢の分類処理に寄与しないと判定する。また、すべてのセンサデバイス110について、比率(Γj2_n/Γj1_n)が上記と同じ閾値以下である場合、拘束条件算出部221は、前後方向に対応する姿勢角度が姿勢の分類処理に寄与しないと判定する。なお、閾値は、0以上1未満の範囲で任意に設定可能であり、例えば“0.01”といった値が設定される。 Specifically, the constraint condition calculation unit 221 calculates a ratio (Γ j1 — n / Γ j2 — n ) and a ratio (Γ j2 — n / Γ j1 — n ) for each corresponding sensor device 110. When the ratio (Γ j1 — n / Γ j2 — n ) is less than or equal to a predetermined threshold value for all the sensor devices 110, the constraint condition calculation unit 221 does not contribute to the posture classification process by the posture angle corresponding to the left-right direction. Is determined. When the ratio (Γ j2 — n / Γ j1 — n ) is equal to or less than the same threshold value as described above for all the sensor devices 110, the constraint condition calculation unit 221 determines that the posture angle corresponding to the front-rear direction is the posture classification process. It is determined that it does not contribute. The threshold value can be arbitrarily set in the range of 0 to less than 1, and for example, a value such as “0.01” is set.

なお、判定条件は、次のように変形されてもよい。拘束条件算出部221は、例えば、ある方向に対応する姿勢角度を基に算出された比率のうち、所定数以上のセンサデバイス110に対応する比率が閾値以下である場合に、その方向に対応する姿勢角度が姿勢の分類処理に寄与しないと判定してもよい。また、他の方法として、拘束条件算出部221は、ある方向についての式(11−1)および式(11−2)に基づく姿勢角度の合計値をすべてのセンサデバイス110についてさらに合計し、算出された合計値同士の比率を閾値を比較することで判定を行ってもよい。   Note that the determination condition may be modified as follows. For example, when the ratio corresponding to a predetermined number or more of sensor devices 110 is equal to or less than a threshold among the ratios calculated based on the posture angle corresponding to a certain direction, the constraint condition calculation unit 221 corresponds to that direction. It may be determined that the posture angle does not contribute to the posture classification process. As another method, the constraint condition calculation unit 221 further adds the total values of the posture angles based on the expressions (11-1) and (11-2) for a certain direction for all the sensor devices 110 and calculates them. The determination may be made by comparing the ratio of the total values that have been made with thresholds.

以上の処理により、姿勢の分類処理に寄与しない方向に対応するパラメータがあると判定された場合、ステップS152の処理が実行される。一方、姿勢の分類処理に寄与しない方向に対応するパラメータがないと判定された場合には、ステップS111aの処理が実行される。なお、後者の場合に実行されるステップS111a,S112aの処理は、前述の処理例1での姿勢パラメータの算出処理と同様の処理である。   If it is determined that there is a parameter corresponding to a direction that does not contribute to the posture classification process, the process of step S152 is executed. On the other hand, if it is determined that there is no parameter corresponding to a direction that does not contribute to the posture classification process, the process of step S111a is executed. Note that the processing in steps S111a and S112a executed in the latter case is the same processing as the posture parameter calculation processing in Processing Example 1 described above.

[ステップS111a]拘束条件算出部221は、ステップS151で姿勢分類に寄与しない方向に対応するパラメータがないと判定した場合、特徴量算出部212aによって算出されたすべての姿勢角度θj1_n(N),θj2_n(N)を姿勢パラメータ算出部213aに渡す。姿勢パラメータ算出部213aは、これらの姿勢角度θj1_n(N),θj2_n(N)を基に、次のような手順で1組の平均ベクトルを算出する。 [Step S111a] If the constraint condition calculation unit 221 determines in step S151 that there is no parameter corresponding to a direction that does not contribute to posture classification, all the posture angles θ j1 — n (N calculated by the feature amount calculation unit 212a are determined. ), Θ j2 — n (N) is passed to the attitude parameter calculation unit 213a. The attitude parameter calculation unit 213a calculates a set of average vectors in the following procedure based on these attitude angles θ j1 — n (N) and θ j2 — n (N).

j番目の分類項目について算出された姿勢角度Θjは、前述の式(5’)のように表される。また、n番目のセンサデバイス110を用いたN回の測定における左右方向、前後方向の姿勢角度の平均値Ave(θj1_n),Ave(θj2_n)は、それぞれ前述の式(6’−1),(6’−2)によって表される。そして、すべてのセンサデバイス110の測定値を加味した左右方向、前後方向の姿勢角度の平均値Ave(θj1),Ave(θj2)は、それぞれ前述の式(6’−3),(6’−4)によって表される。従って、j番目の分類項目に対応する平均ベクトルAve(Θj)は、前述の式(7)に、式(6’−3),(6’−4)で表される姿勢角度の平均値Ave(θj1),Ave(θj2)を代入することによって算出される。 The posture angle Θ j calculated for the j-th classification item is expressed as the above-described equation (5 ′). In addition, the average values Ave (θ j1 — n ) and Ave (θ j2 — n ) of the posture angles in the left-right direction and the front-rear direction in N measurements using the n-th sensor device 110 are the above-described equations (6), respectively. '-1) and (6'-2). Then, the average values Ave (θ j1 ) and Ave (θ j2 ) of the posture angles in the left-right direction and the front-rear direction in consideration of the measured values of all the sensor devices 110 are the expressions (6′-3) and (6 Represented by '-4). Therefore, the average vector Ave (Θ j ) corresponding to the jth classification item is the average value of the posture angles represented by the equations (6′-3) and (6′-4) in the above equation (7). It is calculated by substituting Ave (θ j1 ) and Ave (θ j2 ).

[ステップS112a]姿勢パラメータ算出部213aは、姿勢角度θj1_n(N),θj2_n(N)を基に、1つの共分散行列Ajを算出する。共分散行列Ajは、ステップS111aで式(5’)によって算出された姿勢角度Θjと、この姿勢角度Θjを用いてステップS111aで算出された平均ベクトルAve(Θj)とを、前述の式(8)に代入することによって算出される。 [Step S112a] The posture parameter calculation unit 213a calculates one covariance matrix A j based on the posture angles θ j1 — n (N) and θ j2 — n (N). The covariance matrix A j includes the posture angle Θ j calculated by the equation (5 ′) in step S111a and the average vector Ave (Θ j ) calculated in step S111a using the posture angle Θ j. It is calculated by substituting in the equation (8).

[ステップS152]拘束条件算出部221aは、ステップS152において姿勢の分類処理に寄与しないと判定された方向についてのパラメータを破棄する。
具体的には、左右方向に対応する姿勢角度θj1_n(N)が姿勢の分類処理に寄与しないと判定された場合、拘束条件算出部221aは、左右方向に対応するすべての姿勢角度θj1_n(N)を破棄して、前後方向に対応する姿勢角度θj2_n(N)だけを姿勢パラメータ算出部213aに渡す。また、前後方向に対応する姿勢角度θj2_n(N)が姿勢の分類処理に寄与しないと判定された場合、拘束条件算出部221aは、前後方向に対応するすべての姿勢角度θj2_n(N)を破棄して、左右方向に対応する姿勢角度θj1_n(N)だけを姿勢パラメータ算出部213aに渡す。
[Step S152] The constraint condition calculation unit 221a discards the parameter for the direction determined not to contribute to the posture classification process in Step S152.
Specifically, when it is determined that the posture angle θ j1 — n (N) corresponding to the left-right direction does not contribute to the posture classification process, the constraint condition calculation unit 221a performs all posture angles θ corresponding to the left-right direction. j1 _ discards n a (n), and passes only the posture parameter calculating unit 213a attitude angle θ j2 _ n (n) corresponding to the front-rear direction. When it is determined that the posture angle θ j2 — n (N) corresponding to the front-rear direction does not contribute to the posture classification process, the constraint condition calculation unit 221 a determines all posture angles θ j2 — n corresponding to the front-rear direction. (N) is discarded and only the posture angle θ j1 — n (N) corresponding to the left-right direction is passed to the posture parameter calculation unit 213a.

[ステップS111b]姿勢パラメータ算出部213aは、拘束条件算出部221から引き渡された姿勢角度のみを用いて、1組の平均ベクトルを算出する。
j番目の分類項目について算出された姿勢角度Θjは、前述の式(5’)において、ステップS152で破棄された姿勢角度を含まない行列として表される。ステップS111aで算出される姿勢角度Θjは、2n行2n列の行列となるのに対し、ステップS111bで算出される姿勢角度Θjは、n行n列の行列となる。
[Step S <b> 111 b] The posture parameter calculation unit 213 a calculates a set of average vectors using only the posture angle delivered from the constraint condition calculation unit 221.
The posture angle Θ j calculated for the j-th classification item is represented as a matrix that does not include the posture angle discarded in step S152 in the above-described equation (5 ′). The posture angle Θ j calculated in step S111a is a matrix of 2n rows and 2n columns, whereas the posture angle Θ j calculated in step S111b is a matrix of n rows and n columns.

ステップS151で左右方向に対応する姿勢角度θj1_n(N)が姿勢の分類処理に寄与しないと判定された場合、姿勢パラメータ算出部213aは、式(6’−2)および式(6’−4)に従って、前後方向に対応する平均値Ave(θj2)を算出する。そして、姿勢パラメータ算出部213aは、前後方向に対応する平均値Ave(θj2)だけを前述の式(7)に代入することで、平均ベクトルAve(Θj)を算出する。 When it is determined in step S151 that the posture angle θ j1 — n (N) corresponding to the left-right direction does not contribute to the posture classification process, the posture parameter calculation unit 213a performs the equations (6′-2) and (6 ′). -4), the average value Ave (θ j2 ) corresponding to the front-rear direction is calculated. Then, the posture parameter calculation unit 213a calculates the average vector Ave (Θ j ) by substituting only the average value Ave (θ j2 ) corresponding to the front-rear direction into the above equation (7).

一方、ステップS151で前後方向に対応する姿勢角度θj2_n(N)が姿勢の分類処理に寄与しないと判定された場合、姿勢パラメータ算出部213aは、式(6’−1)および式(6’−3)に従って、左右方向に対応する平均値Ave(θj1)を算出する。そして、姿勢パラメータ算出部213aは、左右方向に対応する平均値Ave(θj1)だけを前述の式(7)に代入することで、平均ベクトルAve(Θj)を算出する。 On the other hand, when it is determined in step S151 that the posture angle θ j2 — n (N) corresponding to the front-rear direction does not contribute to the posture classification process, the posture parameter calculation unit 213a performs the equations (6′-1) and ( According to 6′-3), an average value Ave (θ j1 ) corresponding to the left-right direction is calculated. Then, the posture parameter calculation unit 213a calculates the average vector Ave (Θ j ) by substituting only the average value Ave (θ j1 ) corresponding to the left and right direction into the above equation (7).

ステップS111aで算出される平均ベクトルAve(Θj)は、2n次元のベクトルとなるのに対し、ステップS111bで算出される平均ベクトルAve(Θj)は、n次元のベクトルとなる。 The average vector Ave (Θ j ) calculated in step S111a is a 2n-dimensional vector, whereas the average vector Ave (Θ j ) calculated in step S111b is an n-dimensional vector.

[ステップS112b]姿勢パラメータ算出部213aは、拘束条件算出部221から引き渡された姿勢角度のみを用いて、1組の共分散行列Ajを算出する。共分散行列Ajは、ステップS111bで式(5’)によって算出された姿勢角度Θjと、この姿勢角度Θjを用いてステップS111bで算出された平均ベクトルAve(Θj)とを、前述の式(8)に代入することによって算出される。ステップS112aで算出される共分散行列Ajは、2n行2n列の行列となるのに対し、ステップS112bで算出される共分散行列Ajは、n行n列の行列となる。 [Step S112b] The posture parameter calculation unit 213a calculates a set of covariance matrices A j using only the posture angle delivered from the constraint condition calculation unit 221. The covariance matrix A j includes the posture angle Θ j calculated by the equation (5 ′) in step S111b and the average vector Ave (Θ j ) calculated in step S111b using the posture angle Θ j. It is calculated by substituting in the equation (8). The covariance matrix A j calculated in step S112a is a 2n × 2n column matrix, while the covariance matrix A j calculated in step S112b is an n × n matrix.

以上の手順で、1つの分類項目に対応する平均ベクトルAve(Θj)および共分散行列Ajが算出され、それらが姿勢パラメータ記憶部214aに格納される。
次に、処理例2における本処理は、処理例1と同様に実行される。すなわち、特徴量算出部212aは、n組の姿勢角度θjN1,θjN2を算出して、姿勢分類処理部215aに出力する。姿勢分類処理部215aは、前述の式(10)で表される姿勢角度θを前述の式(9)に代入することによって、確率Pj(θ)を算出する。
With the above procedure, the average vector Ave (Θ j ) and the covariance matrix A j corresponding to one classification item are calculated and stored in the posture parameter storage unit 214a.
Next, this process in Process Example 2 is executed in the same manner as in Process Example 1. That is, the feature quantity calculation unit 212a calculates n sets of posture angles θ jN1 and θ jN2 and outputs them to the posture classification processing unit 215a. The posture classification processing unit 215a calculates the probability P j (θ) by substituting the posture angle θ represented by the above equation (10) into the above equation (9).

ある分類項目に対応する平均ベクトルAve(Θj)および共分散行列Ajが図20のステップS111a,S112aの処理により算出されていた場合、被験者の姿勢がその分類項目に属するかの判定処理は、処理例1と同様の計算により行われる。この場合、式(9)における次元dは2nとなる。 When the average vector Ave (Θ j ) and the covariance matrix A j corresponding to a certain classification item have been calculated by the processing in steps S111a and S112a in FIG. 20, the determination processing as to whether the subject's posture belongs to the classification item is This is performed by the same calculation as in Processing Example 1. In this case, the dimension d in Equation (9) is 2n.

一方、ある分類項目に対応する平均ベクトルAve(Θj)および共分散行列Ajが図20のステップS111b,S112bの処理により算出されていた場合、被験者の姿勢がその分類項目に属するかの判定処理は、特徴量算出部212aから入力された姿勢角度のうち、一方の方向についての姿勢角度だけを用いて行われる。この場合、式(9)における次元dはnとなる。 On the other hand, if the average vector Ave (Θ j ) and the covariance matrix A j corresponding to a certain category item have been calculated by the processing in steps S111b and S112b in FIG. 20, it is determined whether the subject's posture belongs to that category item. The processing is performed using only the posture angle in one direction among the posture angles input from the feature amount calculation unit 212a. In this case, the dimension d in equation (9) is n.

図21は、処理例2での正解率の算出例を示すグラフである。この図21では、例として、n=2として処理を行った場合に、正解率算出部216によって算出された正解率の例を示す。また、図21には、2つのセンサデバイス110の搭載位置の組み合わせとして、図14に示すセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のそれぞれの組み合わせで処理を行った場合の正解率を示している。さらに、図21では、参考のために、センサ#1,#2,#3をそれぞれ単独で用いて第2の実施の形態の姿勢分類装置200によって処理された場合の正解率(図15に示した正解率)も示している。   FIG. 21 is a graph showing an example of calculating the correct answer rate in Processing Example 2. FIG. 21 shows an example of the correct answer rate calculated by the correct answer rate calculating unit 216 when processing is performed with n = 2. FIG. 21 also shows combinations of mounting positions of two sensor devices 110, that is, combinations of sensor # 1 and sensor # 2, sensor # 1 and sensor # 3, and sensor # 2 and sensor # 3 shown in FIG. The correct answer rate is shown when processing is performed. Furthermore, in FIG. 21, for reference, the accuracy rate when processed by the posture classification apparatus 200 of the second embodiment using the sensors # 1, # 2, and # 3 alone (shown in FIG. 15). (Accuracy rate).

図21に示すように、処理例2によれば、特に、センサ#1とセンサ#2とを組み合わせた場合と、センサ#2とセンサ#3とを組み合わせた場合に、対応するセンサデバイス110を単独で用いた場合より高い正解率が得られた。また、図18に示した処理例1との比較では、どのセンサデバイス110の組み合わせでも処理例1より高い正解率が得られた。   As shown in FIG. 21, according to the processing example 2, when the sensor # 1 and the sensor # 2 are combined, and when the sensor # 2 and the sensor # 3 are combined, the corresponding sensor device 110 is displayed. A higher accuracy rate was obtained than when used alone. In comparison with Processing Example 1 shown in FIG. 18, a higher accuracy rate than Processing Example 1 was obtained for any combination of sensor devices 110.

<処理例3>
図22は、背中が斜めに傾いた場合の姿勢の例を示す図である。
上記の処理例2では、背中が前後方向または左右方向に傾いたときに、その傾き方向と直交する方向に対する背中の位置変動がごく小さくなるケースを想定した。しかし、実際にはこのようなケースは少ない。
<Processing example 3>
FIG. 22 is a diagram illustrating an example of the posture when the back is inclined obliquely.
In the above processing example 2, when the back is tilted in the front-rear direction or the left-right direction, a case is assumed in which the position variation of the back with respect to the direction orthogonal to the tilt direction is extremely small. However, there are few such cases in practice.

例えば、被験者が背中を前後方向に傾けようとした場合でも、実際には背中が前後方向以外の他の方向にも傾いてしまう場合が多い。図22はこのようなケースの例を示しており、例えば、図22の左側に示すように、被験者140の背中が右斜め前方向に傾く場合や、図22の右側に示すように、被験者140の背中が左斜め前に傾く場合もある。また、同様に、被験者が背中を左右方向に傾けようとした場合でも、実際には背中が左右方向以外の他の方向にも傾いてしまう場合が多い。   For example, even when the subject tries to tilt his / her back in the front-rear direction, the back is often tilted in other directions besides the front-rear direction. FIG. 22 shows an example of such a case. For example, as shown on the left side of FIG. 22, when the back of the subject 140 is inclined diagonally right frontward, or as shown on the right side of FIG. In some cases, the back of the person leans forward diagonally to the left. Similarly, even when the subject tries to tilt his / her back in the left / right direction, the back is often tilted in other directions besides the left / right direction.

このように、背中が前後方向または左右方向に真っ直ぐに傾いていない状況でも、前後方向または左右方向以外の方向の中に、骨の動きの拘束条件に起因する、変動量の少ない方向が存在する可能性はある。このような変動量の少ない方向に対する背中の傾きを示すパラメータは、姿勢の分類処理に寄与しないパラメータと考えられる。このため、このような方向に対する傾きを示すパラメータを、姿勢パラメータから除外することで、姿勢の分類精度を高められると考えられる。しかしながら、このような方向は被験者によっても異なり、処理例1で想定したケースのように一意に決めることは難しい。   As described above, even in a situation where the back is not tilted straight in the front-rear direction or the left-right direction, there is a direction with a small amount of fluctuation due to the constraint condition of the bone motion in the direction other than the front-rear direction or the left-right direction. it's possible. Such a parameter indicating the inclination of the back relative to the direction with a small amount of variation is considered to be a parameter that does not contribute to the posture classification process. For this reason, it is considered that the accuracy of posture classification can be improved by excluding the parameter indicating the inclination with respect to the direction from the posture parameter. However, such a direction differs depending on the subject, and it is difficult to uniquely determine as in the case assumed in Processing Example 1.

以下で説明する処理例3では、拘束条件算出部221が、姿勢の分類処理に寄与しないパラメータを計算により推定し、姿勢パラメータ補正部222が、その推定結果に基づいて、姿勢パラメータ算出部213aにより算出された姿勢パラメータを補正する。具体的には、拘束条件算出部221は、姿勢パラメータ算出部213aによって算出された共分散行列を、固有値および固有ベクトルに分解し、姿勢の分類処理に寄与しないと推定される方向に対応する固有値および固有ベクトルを判別する。姿勢パラメータ補正部222は、共分散行列の固有値および固有ベクトルのうち、判別された固有値および固有ベクトルを除いた残りの固有値および固有ベクトルを用いて、共分散行列を算出し直す。   In Processing Example 3 described below, the constraint condition calculation unit 221 estimates parameters that do not contribute to the posture classification processing by calculation, and the posture parameter correction unit 222 uses the posture parameter calculation unit 213a based on the estimation result. The calculated posture parameter is corrected. Specifically, the constraint condition calculation unit 221 decomposes the covariance matrix calculated by the posture parameter calculation unit 213a into eigenvalues and eigenvectors, and the eigenvalues corresponding to directions estimated not to contribute to the posture classification process and Determine the eigenvectors. The attitude parameter correction unit 222 recalculates the covariance matrix using the remaining eigenvalues and eigenvectors excluding the determined eigenvalues and eigenvectors among the eigenvalues and eigenvectors of the covariance matrix.

ここで、例として、被験者が「前傾−真っ直ぐ」の分類項目に該当する姿勢をとった場合の姿勢角度の分布例を図23および図24に示して、姿勢角度の分布と固有値との関係について説明する。   Here, as an example, FIG. 23 and FIG. 24 show examples of posture angle distributions when the subject takes a posture corresponding to the classification item of “forward tilt-straight”, and the relationship between the posture angle distribution and the eigenvalues. Will be described.

図23は、姿勢の変化が前後方向に限定される場合の姿勢角度の分布例を示す図である。また、図24は、姿勢が斜め方向にも変化する場合の姿勢角度の分布例を示す図である。   FIG. 23 is a diagram illustrating a distribution example of posture angles when a change in posture is limited to the front-rear direction. FIG. 24 is a diagram illustrating a distribution example of posture angles when the posture also changes in an oblique direction.

図23に示す楕円領域351は、被験者の姿勢の変化がほぼ前後方向に限定される場合に、姿勢角度がある一定の割合で分布する領域のイメージを示す。この場合、楕円領域351に属する姿勢角度を基に算出された共分散行列の固有値のうち、最大の固有値に対する固有ベクトルの方向D1は、前後方向、すなわち図23の左右方向となる。一方、このケースでは、背中の左右方向に対する変動量がごく小さいことから、上記の共分散行列の固有値のうち、極端に小さい固有値に対する固有ベクトルの方向D2は、左右方向、すなわち図23の上下方向となる。   An elliptical region 351 shown in FIG. 23 shows an image of a region in which the posture angle is distributed at a certain ratio when the change in the posture of the subject is substantially limited to the front-rear direction. In this case, among the eigenvalues of the covariance matrix calculated based on the attitude angle belonging to the elliptical region 351, the eigenvector direction D1 with respect to the maximum eigenvalue is the front-rear direction, that is, the left-right direction in FIG. On the other hand, in this case, since the amount of fluctuation in the horizontal direction of the back is very small, the eigenvector direction D2 for the extremely small eigenvalue among the eigenvalues of the covariance matrix is the horizontal direction, that is, the vertical direction in FIG. Become.

これに対して、図24に示す楕円領域352は、被験者の姿勢が前後方向だけでなく、斜め方向にも変動する場合に、姿勢角度がある一定の割合で分布する領域のイメージを示す。この場合、楕円領域352に属する姿勢角度を基に算出された共分散行列の固有値のうち、最大の固有値に対する固有ベクトルの方向D3は、前後方向、すなわち図24の左右方向とはならない可能性が高い。そして、この共分散行列の固有値のうち、極端に小さい固有値に対する固有ベクトルの方向D4も、図23の例のように左右方向、すなわち図24の上下方向とはならない可能性が高い。   On the other hand, an elliptical region 352 shown in FIG. 24 shows an image of a region in which the posture angle is distributed at a certain ratio when the posture of the subject fluctuates not only in the front-rear direction but also in the oblique direction. In this case, among the eigenvalues of the covariance matrix calculated based on the attitude angle belonging to the elliptical region 352, the eigenvector direction D3 with respect to the maximum eigenvalue is likely not to be the front-rear direction, that is, the left-right direction in FIG. . Then, the eigenvector direction D4 for an extremely small eigenvalue among the eigenvalues of the covariance matrix is likely not to be in the horizontal direction, that is, the vertical direction in FIG. 24 as in the example of FIG.

処理例3では、拘束条件算出部221は、共分散行列の固有値の累積寄与率を計算することで、共分散行列の固有値から、姿勢の分類処理に寄与しない、極端に小さい固有値を排除する。   In the processing example 3, the constraint condition calculation unit 221 calculates the cumulative contribution rate of the eigenvalues of the covariance matrix, thereby eliminating extremely small eigenvalues that do not contribute to the posture classification process from the eigenvalues of the covariance matrix.

図25は、処理例3における姿勢パラメータ算出の処理手順の例を示すフローチャートである。処理例3では、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。   FIG. 25 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 3. In Processing Example 3, the posture parameter calculation process (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows.

[ステップS111a]姿勢パラメータ算出部213aには、特徴量算出部212aによって算出されたすべての姿勢角度θj1_n(N),θj2_n(N)が入力される。姿勢パラメータ算出部213aは、図20のステップS111aと同様の手順(処理例1と同様の手順)で、j番目の分類項目に対応する平均ベクトルAve(Θj)を算出する。算出される平均ベクトルAve(Θj)は、2n次元のベクトルとなる。 [Step S111a] All posture angles θ j1 — n (N) and θ j2 — n (N) calculated by the feature amount calculation unit 212a are input to the posture parameter calculation unit 213a. The posture parameter calculation unit 213a calculates the average vector Ave (Θ j ) corresponding to the j-th classification item in the same procedure as in step S111a in FIG. 20 (the same procedure as in processing example 1). The calculated average vector Ave (Θ j ) is a 2n-dimensional vector.

[ステップS112a]姿勢パラメータ算出部213aは、図20のステップS112aと同様の手順(処理例1と同様の手順)で、j番目の分類項目に対応する1つの共分散行列Ajを算出する。算出される共分散行列Ajは、2n行2n列の行列となる。 [Step S112a] The posture parameter calculation unit 213a calculates one covariance matrix A j corresponding to the j-th classification item in the same procedure as in step S112a in FIG. 20 (the same procedure as in Processing Example 1). The calculated covariance matrix A j is a matrix of 2n rows and 2n columns.

[ステップS161]拘束条件算出部221は、算出された共分散行列Ajに対する固有値分解を行い、固有値Λjと、この固有値Λjに対する固有ベクトルQjとを算出する。
ここで、n番目の分類項目に対応する共分散行列Ajは、Aj=QjΛjj Tと表すことができる。また、固有値ΛjをΛj=diag(λ1,・・・,λd)と表し、固有ベクトルQjをQj=(q1,・・・,qd)と表す。ただし、λ1,・・・,λdは降順とする。
[Step S161] constraint condition calculating section 221 performs eigenvalue decomposition for covariance matrix A j calculated, and eigenvalue lambda j, calculates the eigenvectors Q j for the eigenvalues lambda j.
Here, the covariance matrix A j corresponding to the nth classification item can be expressed as A j = Q j Λ j Q j T. Further, the eigenvalue Λ j is expressed as Λ j = diag (λ 1 ,..., Λ d ), and the eigenvector Q j is expressed as Q j = (q 1 ,..., Q d ). Λ 1 ,..., Λ d are in descending order.

[ステップS162]拘束条件算出部221は、変数bを“1”とする。
[ステップS163]拘束条件算出部221は、次の式(13)に従って累積寄与率ξ(b)を算出する。
[Step S162] The constraint condition calculation unit 221 sets the variable b to “1”.
[Step S163] The constraint condition calculation unit 221 calculates the cumulative contribution rate ξ (b) according to the following equation (13).

Figure 2015097565
Figure 2015097565

[ステップS164]拘束条件算出部221は、算出された累積寄与率ξ(b)が、閾値ξc以上であるかを判定する。閾値ξcは、経験的に決定される値であり、0<ξc<1の条件を満たす範囲でできるだけ大きな値(例えば、0.999)とされることが望ましい。 [Step S164] constraint condition calculating section 221, the cumulative contribution rate calculated xi] (b) it is determined whether there are more threshold xi] c. The threshold value ξ c is a value determined empirically, and is desirably as large as possible (for example, 0.999) within a range that satisfies the condition of 0 <ξ c <1.

累積寄与率ξ(b)が閾値ξc未満である場合には、ステップS165の処理が実行される。累積寄与率ξ(b)が閾値ξc以上である場合には、ステップS166の処理が実行される。 If the cumulative contribution rate ξ (b) is less than the threshold value ξ c , the process of step S165 is executed. If the cumulative contribution rate ξ (b) is greater than or equal to the threshold value ξ c , the process of step S166 is executed.

[ステップS165]拘束条件算出部221は、変数bを“1”だけインクリメントする。その後、インクリメントされた変数bを用いてステップS163の計算が再度行われる。   [Step S165] The constraint condition calculation unit 221 increments the variable b by “1”. Thereafter, the calculation in step S163 is performed again using the incremented variable b.

[ステップS166]ステップS164で累積寄与率ξ(b)が閾値ξc以上であると判定されたときの変数bを、b_cとする。拘束条件算出部221は、共分散行列の再計算に用いる固有値および固有ベクトルを、それぞれ次の式(14),(15)のように決定する。
Λ’j=(λ1,・・・,λb_c) ・・・(14)
Q’j=(q1,・・・,qb_c) ・・・(15)
姿勢パラメータ補正部222は、式(14),(15)に基づき、共分散行列A’jを次の式(8’)に従って再計算する。
A’j=Q’jΛ’jQ’j T ・・・(8’)
姿勢パラメータ補正部222は、n番目の分類項目に対応する姿勢パラメータとして、ステップS111aで算出された平均ベクトルAve(Θj)と、ステップS166で再計算された共分散行列A’jとを、姿勢パラメータ記憶部214aに格納する。
The variable b when the cumulative contribution ratio xi] (b) is determined to be equal to or greater than the threshold value xi] c at Step S166] Step S164, the B_c. The constraint condition calculation unit 221 determines eigenvalues and eigenvectors used for recalculation of the covariance matrix as shown in the following equations (14) and (15), respectively.
Λ ′ j = (λ 1 ,..., Λ b — c ) (14)
Q ′ j = (q 1 ,..., Q b — c ) (15)
The attitude parameter correction unit 222 recalculates the covariance matrix A ′ j according to the following equation (8 ′) based on the equations (14) and (15).
A ′ j = Q ′ j Λ ′ j Q ′ j T (8 ′)
The posture parameter correction unit 222 uses the average vector Ave (Θ j ) calculated in step S111a and the covariance matrix A ′ j recalculated in step S166 as posture parameters corresponding to the nth classification item. Stored in the posture parameter storage unit 214a.

次に、処理例2における本処理は、処理例1と同様に実行される。すなわち、特徴量算出部212aは、n組の姿勢角度θjN1,θjN2を算出して、姿勢分類処理部215aに出力する。姿勢分類処理部215aは、姿勢パラメータ記憶部214aに格納された姿勢パラメータを参照しながら、前述の式(10)で表される姿勢角度θを前述の式(9)に代入することによって、確率Pj(θ)を算出する。そして、姿勢分類処理部215aは、算出されたn個の確率のうち、最も高い値を持つ確率に対応する分類項目を、被験者の姿勢が属する分類項目と判定して出力する。 Next, this process in Process Example 2 is executed in the same manner as in Process Example 1. That is, the feature quantity calculation unit 212a calculates n sets of posture angles θ jN1 and θ jN2 and outputs them to the posture classification processing unit 215a. The posture classification processing unit 215a refers to the posture parameter stored in the posture parameter storage unit 214a, and substitutes the posture angle θ expressed by the above-described equation (10) into the above-described equation (9), thereby generating a probability. P j (θ) is calculated. Then, the posture classification processing unit 215a determines and outputs the classification item corresponding to the probability having the highest value among the calculated n probabilities as the classification item to which the posture of the subject belongs.

式(9)の次元dは、最大で2nとなる。ただし、図25の処理において、共分散行列Ajの固有値λ1,・・・,λdのうち、ステップS166の計算で使用されなかった固有値の個数分だけ(すなわち、2n−b_cだけ)次元dは少なくなる。 The dimension d of Equation (9) is 2n at the maximum. However, in the process of FIG. 25, among the eigenvalues λ 1 ,..., Λ d of the covariance matrix A j , the dimensions are equal to the number of eigenvalues that are not used in the calculation of step S166 (ie, 2n−b_c). d decreases.

ここで、上記のステップS162〜S164の処理では、累積寄与率ξ(b)が閾値ξcを超えないような変数bの最小値(=b_c)が算出される。そして、式(14)により、固有値(λ1,・・・,λd)のうち、先頭からb_c番目までの固有値が抽出され、それ以外の固有値、すなわち、姿勢の分類処理に寄与しない、極端に小さい固有値が、ステップS166での共分散行列の計算の対象から除外される。 Here, in the process at the step S162~S164 the minimum value of the variable b as the cumulative contribution ratio xi] (b) does not exceed the threshold ξ c (= b_c) is calculated. Then, from the eigenvalues (λ 1 ,..., Λ d ), the eigenvalues from the head to the b_c-th eigenvalue are extracted, and the other eigenvalues, that is, the extreme values that do not contribute to the posture classification process are extracted. Eigenvalues that are too small are excluded from the target of the covariance matrix calculation in step S166.

換言すると、姿勢の分類処理に使用されるパラメータの1つである、共分散行列Ajの固有値および固有ベクトルの中から、骨の動きの拘束条件に起因する、背中の傾き方がごく小さい方向に対応する固有値および固有ベクトルが判別される。そして、判別された固有値および固有ベクトルを除外したパラメータを用いて、共分散行列が再計算される。 In other words, from among the eigenvalues and eigenvectors of the covariance matrix A j , which is one of the parameters used for the posture classification process, the direction of the back tilt caused by the constraint condition of the bone motion is extremely small. Corresponding eigenvalues and eigenvectors are determined. Then, the covariance matrix is recalculated using the parameters excluding the determined eigenvalues and eigenvectors.

これにより、背中の傾き方が小さい方向が予測できない場合でも、姿勢の分類精度を向上させることができる。
図26は、処理例3での正解率の算出例を示すグラフである。この図26では、例として、n=2として処理を行った場合に、正解率算出部216によって算出された正解率の例を示す。また、図26には、2つのセンサデバイス110の搭載位置の組み合わせとして、図14に示すセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のそれぞれの組み合わせで処理を行った場合の正解率を示している。さらに、図26では、参考のために、センサ#1,#2,#3をそれぞれ単独で用いて第2の実施の形態の姿勢分類装置200によって処理された場合の正解率(図15に示した正解率)も示している。
Thereby, even when a direction in which the back tilt is small cannot be predicted, the posture classification accuracy can be improved.
FIG. 26 is a graph illustrating an example of calculating the correct answer rate in Processing Example 3. FIG. 26 shows an example of the correct answer rate calculated by the correct answer rate calculation unit 216 when the process is performed with n = 2. In FIG. 26, as combinations of mounting positions of the two sensor devices 110, combinations of sensor # 1 and sensor # 2, sensor # 1 and sensor # 3, and sensor # 2 and sensor # 3 shown in FIG. The correct answer rate is shown when processing is performed. Further, in FIG. 26, for reference, the accuracy rate when the sensors # 1, # 2, and # 3 are used alone and processed by the posture classification apparatus 200 of the second embodiment (shown in FIG. 15). (Accuracy rate).

図26に示すように、処理例3によれば、どのセンサデバイス110の組み合わせでも、対応するセンサデバイス110を単独で用いた場合より高い正解率が得られた。また、図18に示した処理例1、および、図21に示した処理例2と比較した場合でも、どのセンサデバイス110の組み合わせでも高い正解率が得られた。   As shown in FIG. 26, according to Processing Example 3, a higher accuracy rate was obtained with any combination of sensor devices 110 than when the corresponding sensor device 110 was used alone. Moreover, even when compared with the processing example 1 shown in FIG. 18 and the processing example 2 shown in FIG. 21, a high accuracy rate was obtained with any combination of the sensor devices 110.

図27は、分類項目ごとの正解率の算出例を示すグラフである。図27に示す正解率一覧表400では、第2の実施の形態、および、第3の実施の形態のうちの処理例1、処理例2、処理例3のそれぞれについて、分類項目ごとに算出された正解率を示している。なお、分類項目を、図5に示した識別番号によって表している。また、平均値の項目に示した数値は、図15、図18、図21および図26のグラフに示したものである。   FIG. 27 is a graph illustrating an example of calculating the correct answer rate for each classification item. In the accuracy rate list 400 shown in FIG. 27, each of the processing example 1, the processing example 2, and the processing example 3 in the second embodiment and the third embodiment is calculated for each classification item. The correct answer rate is shown. The classification items are represented by the identification numbers shown in FIG. In addition, the numerical values shown in the item of average value are those shown in the graphs of FIGS.

図27に示すように、第2の実施の形態の処理によれば、特にセンサ#1を用いた場合に、13種類すべての分類項目についてある程度、分類処理に成功している。また、処理例1,2,3の順に、全体として13種類の分類項目の分類精度が向上することがわかる。特に、処理例2のセンサ#1,#2の組み合わせ、処理例2のセンサ#2,#3の組み合わせ、および処理例3のすべてのセンサデバイス110の組み合わせで、13種類すべての分類項目について60%以上の正解率が得られた。さらに、処理例3のセンサ#1,#3の組み合わせと、処理例3のセンサ#2,#3の組み合わせは、13種類すべての分類項目について80%以上の正解率が得られた。このように、上記各実施の形態によれば、背中の前後方向や左右方向の傾きだけでなく、背中の湾曲状態に応じた姿勢の分類も行うことが可能になる。   As shown in FIG. 27, according to the processing of the second embodiment, particularly when sensor # 1 is used, the classification processing has succeeded to some extent for all 13 types of classification items. Moreover, it turns out that the classification accuracy of 13 types of classification items improves as a whole in order of processing examples 1, 2, and 3. In particular, the combination of sensors # 1 and # 2 in process example 2, the combination of sensors # 2 and # 3 in process example 2, and the combination of all sensor devices 110 in process example 3 are 60 for all 13 types of classification items. % Accuracy rate was obtained. Further, the combination of sensors # 1 and # 3 in Processing Example 3 and the combination of sensors # 2 and # 3 in Processing Example 3 gave an accuracy rate of 80% or more for all 13 types of classification items. As described above, according to each of the above-described embodiments, it is possible to classify postures not only according to the back-and-forth and left-right inclinations but also according to the curved state of the back.

<処理例4>
処理例4は、処理例2の処理と処理例3との処理を組み合わせたものである。
図28は、処理例4における姿勢パラメータ算出の処理手順の例を示すフローチャートである。処理例4では、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。なお、図28では、図20および図25と同じ処理が行われる処理ステップには同じ符号を付して示し、その説明を省略する。
<Processing example 4>
The process example 4 is a combination of the process of the process example 2 and the process of the process example 3.
FIG. 28 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 4. In the process example 4, the posture parameter calculation process (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows. In FIG. 28, processing steps in which the same processing as in FIGS. 20 and 25 is performed are denoted by the same reference numerals, and description thereof is omitted.

まず、拘束条件算出部221は、処理例2の場合と同様に、特徴量算出部212aによって算出された姿勢角度を基に、姿勢の分類処理に寄与しない方向に対応するパラメータがあるかを判定する(ステップS151)。姿勢の分類処理に寄与しない方向に対応するパラメータがある場合、その方向に対応するパラメータ(姿勢角度)が破棄され、姿勢パラメータ算出部213aは、残りの方向に対応するパラメータ(姿勢角度)のみを用いて平均ベクトルおよび共分散行列を算出する(ステップS152,S111b,S111b)。   First, the constraint condition calculation unit 221 determines whether there is a parameter corresponding to a direction that does not contribute to the posture classification process based on the posture angle calculated by the feature amount calculation unit 212a, as in the case of the processing example 2. (Step S151). When there is a parameter corresponding to a direction that does not contribute to the posture classification process, the parameter (posture angle) corresponding to the direction is discarded, and the posture parameter calculation unit 213a only sets the parameter (posture angle) corresponding to the remaining direction. The average vector and the covariance matrix are calculated using them (steps S152, S111b, S111b).

一方、ステップS151で姿勢の分類処理に寄与しない方向のパラメータがあると判定されなかった場合には、処理例3と同様の処理が実行される。すなわち、姿勢パラメータ算出部213aによって処理例1と同様の手順で平均ベクトルおよび共分散行列が算出される(ステップS111a,S112a)。拘束条件算出部221は、共分散行列の固有値の中から、累積寄与率の計算に基づいて、姿勢の分類処理に寄与しない固有値を除外する。そして、姿勢パラメータ補正部222は、除外された固有値以外の残りの固有値と、これらの固有値に対する固有ベクトルとを用いて、共分散行列を再計算する(ステップS161〜S166)。   On the other hand, if it is not determined in step S151 that there is a parameter in a direction that does not contribute to the posture classification process, the same process as in process example 3 is executed. That is, the mean vector and the covariance matrix are calculated by the posture parameter calculation unit 213a in the same procedure as in the processing example 1 (steps S111a and S112a). The constraint condition calculation unit 221 excludes eigenvalues that do not contribute to the attitude classification process from the eigenvalues of the covariance matrix based on the calculation of the cumulative contribution rate. Then, posture parameter correction section 222 recalculates the covariance matrix using the remaining eigenvalues other than the excluded eigenvalues and eigenvectors for these eigenvalues (steps S161 to S166).

〔第4の実施の形態〕
上記の第2の実施の形態および第3の実施の形態では、センサデバイス110によって測定された測定値が、端末装置120,120aを介して姿勢分類装置200,200aへ送信され、姿勢分類装置200,200aにおいて姿勢パラメータの算出や姿勢分類処理が行われる構成とした。これに対して、第4の実施の形態では、端末装置において、姿勢パラメータの算出や姿勢分類処理が行われる構成とする。
[Fourth Embodiment]
In the second embodiment and the third embodiment described above, the measurement value measured by the sensor device 110 is transmitted to the posture classification devices 200 and 200a via the terminal devices 120 and 120a, and the posture classification device 200. , 200a, posture parameter calculation and posture classification processing are performed. In contrast, in the fourth embodiment, the terminal device is configured to perform posture parameter calculation and posture classification processing.

図29は、第4の実施の形態に係る端末装置の構成例を示すブロック図である。図29に示す端末装置120bには、複数のセンサデバイス110が接続されている。また、端末装置120bは、図17に示した姿勢分類装置200aと同様の処理機能を有する。ただし、データ取得部211aは、センサデバイス110によって測定された測定値を、センサデバイス110から直接取得する。   FIG. 29 is a block diagram illustrating a configuration example of a terminal device according to the fourth embodiment. A plurality of sensor devices 110 are connected to the terminal device 120b shown in FIG. Further, the terminal device 120b has a processing function similar to that of the posture classification device 200a illustrated in FIG. However, the data acquisition unit 211a directly acquires the measurement value measured by the sensor device 110 from the sensor device 110.

なお、図29では、第3の実施の形態における姿勢分類装置200aの処理機能を端末装置120bに設けたが、第2の実施の形態における姿勢分類装置200の処理機能を端末装置120bに設けてもよい。   In FIG. 29, the processing function of the posture classification device 200a in the third embodiment is provided in the terminal device 120b. However, the processing function of the posture classification device 200 in the second embodiment is provided in the terminal device 120b. Also good.

また、上記の第2〜第4の実施の形態では、学習処理と本処理とを1つの装置で行う構成としたが、これらの処理はそれぞれ別の装置で行われてもよい。この場合、学習処理が行われた装置で算出された姿勢パラメータが、可搬型の記録媒体あるいはネットワークなどを介して、本処理が行われる装置に入力される。   In the second to fourth embodiments, the learning process and the main process are performed by one apparatus. However, these processes may be performed by different apparatuses. In this case, the posture parameter calculated by the device on which the learning process has been performed is input to the device on which this process is performed via a portable recording medium or a network.

また、上記の各実施の形態に示した装置(情報処理装置1、姿勢分類装置200,200b、端末装置120,120a,120b)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc-Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。   In addition, the processing functions of the devices (the information processing device 1, the posture classification devices 200 and 200b, and the terminal devices 120, 120a, and 120b) described in the above embodiments can be realized by a computer. In that case, a program describing the processing contents of the functions that each device should have is provided, and the processing functions are realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical disks include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

1 情報処理装置
2 測定値取得部
3 パラメータ算出部
4 分類処理部
5 記憶装置
11 被験者
12 センサ
21 パラメータ
22 確率モデル
31 第1の測定値
32 第2の測定値
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Measurement value acquisition part 3 Parameter calculation part 4 Classification processing part 5 Memory | storage device 11 Test subject 12 Sensor 21 Parameter 22 Probability model 31 1st measurement value 32 2nd measurement value

Claims (12)

人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得し、
前記姿勢種類ごとの複数の前記第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを前記姿勢種類ごとに算出して、記憶装置に格納し、
前記第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得し、
前記第2の測定値と、前記記憶装置に格納されたパラメータを基にそれぞれ生成される前記姿勢種類ごとの確率モデルとに基づいて、前記第2の測定値の測定対象の人体の姿勢を、複数種類の前記姿勢種類のいずれかに分類する、
ことを特徴とする姿勢分類方法。
For each posture type that classifies the posture of the human body into a plurality of types, obtain a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions,
Based on the plurality of first measurement values for each posture type, a parameter for generating a probability model of measurement values is calculated for each posture type, and stored in a storage device;
Obtaining a second measured value obtained by measuring the inclination of the human body with respect to the same plurality of directions as the first measured value,
Based on the second measurement value and the probability model for each posture type respectively generated based on the parameters stored in the storage device, the posture of the human body to be measured by the second measurement value is determined. Classify into one of a plurality of types of postures,
A posture classification method characterized by that.
前記姿勢種類ごとの確率モデルは、多次元正規分布に従う測定値の確率モデルであることを特徴とする請求項1記載の姿勢分類方法。   2. The posture classification method according to claim 1, wherein the probability model for each posture type is a probability model of measurement values according to a multidimensional normal distribution. 前記姿勢種類ごとに算出されるパラメータは、測定される傾きの方向ごとの前記第1の測定値に基づく平均ベクトルおよび共分散行列であり、
前記姿勢を分類する処理では、前記第2の測定値と、前記姿勢種類ごとの平均ベクトルおよび共分散行列とに基づいて、前記姿勢種類ごとに確率を算出し、測定対象の人体の姿勢を、算出された確率が最も高い前記姿勢種類に分類する、
ことを特徴とする請求項2記載の姿勢分類方法。
The parameters calculated for each posture type are an average vector and a covariance matrix based on the first measurement value for each measured tilt direction,
In the process of classifying the posture, the probability is calculated for each posture type based on the second measurement value, the average vector and the covariance matrix for each posture type, and the posture of the human body to be measured is calculated as follows: Classify into the posture types with the highest calculated probability,
The posture classification method according to claim 2, wherein:
前記第1の測定値の取得では、それぞれ複数方向に対する人体の傾きを測定する複数のセンサによって測定された測定値を取得し、
前記第2の測定値の取得では、それぞれ複数方向に対する人体の傾きを測定する、前記第1の測定値の測定の際と同数のセンサによって測定された測定値を取得する、
ことを特徴とする請求項1記載の姿勢分類方法。
In the acquisition of the first measurement value, the measurement value measured by a plurality of sensors each measuring the inclination of the human body with respect to a plurality of directions is acquired,
In the acquisition of the second measurement value, the inclination of the human body with respect to a plurality of directions is measured, and the measurement values measured by the same number of sensors as in the measurement of the first measurement value are acquired.
The posture classification method according to claim 1.
前記姿勢種類ごとの複数の前記第1の測定値に基づいて、前記第1の測定値が示す複数方向のうち、測定対象の人体の傾きが制限される制限方向を前記姿勢種類ごとに判別する、
処理をさらに含み、
前記姿勢種類ごとのパラメータの算出では、複数種類の前記姿勢種類のうち一の姿勢種類について前記制限方向が判別された場合には、前記一の姿勢種類に対応する前記第1の測定値のうち、前記制限方向に対する傾きを示す前記第1の測定値を除いた残りの前記第1の測定値を用いて、前記一の姿勢種類に対応するパラメータを算出して前記記憶装置に格納する、
ことを特徴とする請求項4記載の姿勢分類方法。
Based on the plurality of first measurement values for each posture type, a restriction direction in which the inclination of the human body to be measured is limited among the plurality of directions indicated by the first measurement value is determined for each posture type. ,
Further comprising processing,
In the calculation of the parameter for each posture type, when the restriction direction is determined for one posture type among the plurality of posture types, the first measurement value corresponding to the one posture type is calculated. , Using the remaining first measurement values excluding the first measurement value indicating the inclination with respect to the restriction direction, a parameter corresponding to the one posture type is calculated and stored in the storage device.
The posture classification method according to claim 4.
前記姿勢種類ごとに算出されたパラメータに基づいて、測定対象の人体の傾きが制限される制限方向を前記姿勢種類ごとに判別し、
複数種類の前記姿勢種類のうち一の姿勢種類について前記制限方向が判別された場合には、判別された前記制限方向に対する傾きを示すパラメータが除外されるように、前記一の姿勢種類に対応するパラメータを再計算して前記記憶装置に格納する、
処理をさらに含むことを特徴とする請求項4記載の姿勢分類方法。
Based on the parameters calculated for each posture type, for each posture type, determining a restriction direction in which the inclination of the human body to be measured is limited,
When the restriction direction is determined for one of the plurality of posture types, the parameter indicating the inclination with respect to the determined restriction direction is excluded so that the parameter corresponding to the one posture type is excluded. Recalculate the parameters and store them in the storage device;
The posture classification method according to claim 4, further comprising a process.
前記姿勢種類ごとの確率モデルは、多次元正規分布に従う測定値の確率モデルであり、
前記姿勢種類ごとに算出されるパラメータは、測定される傾きの方向ごとの前記第1の測定値に基づく平均ベクトルおよび共分散行列であり、
前記制限方向の判別では、前記姿勢種類ごとに算出された共分散行列の固有値の累積寄与率に基づいて、共分散行列の固有値の中から処理対象の固有値を前記姿勢種類ごとに選択し、
前記パラメータの再計算では、前記一の姿勢種類について処理対象の固有値が選択された場合に、当該選択された固有値と、当該固有値に対する固有ベクトルとを用いて、前記一の姿勢種類に対応する共分散行列を再計算する、
ことを特徴とする請求項6記載の姿勢分類方法。
The probability model for each posture type is a probability model of a measurement value according to a multidimensional normal distribution,
The parameters calculated for each posture type are an average vector and a covariance matrix based on the first measurement value for each measured tilt direction,
In the determination of the restriction direction, based on the cumulative contribution ratio of the eigenvalues of the covariance matrix calculated for each posture type, the eigenvalue to be processed is selected for each posture type from among the eigenvalues of the covariance matrix,
In the recalculation of the parameter, when an eigenvalue to be processed is selected for the one posture type, a covariance corresponding to the one posture type is used by using the selected eigenvalue and an eigenvector for the eigenvalue. Recalculate the matrix,
The posture classification method according to claim 6.
複数個の前記第1の測定値、および、複数個の前記第2の測定値をそれぞれ測定する複数のセンサは、人体の背中において、背骨に沿った方向に対して互いに異なる位置に装着されることを特徴とする請求項1〜7のいずれか1項に記載の姿勢分類方法。   The plurality of sensors for measuring the plurality of first measurement values and the plurality of the second measurement values are respectively mounted on the back of the human body at different positions with respect to the direction along the spine. The posture classification method according to claim 1, wherein: 複数方向に対する人体の傾きを測定した測定値を取得する測定値取得部と、
前記測定値取得部が、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得すると、前記姿勢種類ごとの複数の前記第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを前記姿勢種類ごとに算出して、記憶装置に格納するパラメータ算出部と、
を有することを特徴とする情報処理装置。
A measurement value acquisition unit for acquiring a measurement value obtained by measuring the inclination of the human body with respect to a plurality of directions;
When the measurement value acquisition unit acquires a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions for each posture type obtained by classifying the postures of the human body into a plurality of types, a plurality of the first measurement values for each posture type are obtained. A parameter calculation unit for calculating a parameter for generating a probability model of the measurement value for each posture type based on the measurement value of 1 and storing the parameter in the storage device;
An information processing apparatus comprising:
前記測定値取得部が、前記第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得すると、前記第2の測定値と、前記記憶装置に格納されたパラメータを基にそれぞれ生成される前記姿勢種類ごとの確率モデルとに基づいて、前記第2の測定値の測定対象の人体の姿勢を、複数種類の前記姿勢種類のいずれかに分類する分類処理部をさらに有することを特徴とする請求項9記載の情報処理装置。   When the measurement value acquisition unit acquires a second measurement value obtained by measuring the inclination of the human body with respect to the same plurality of directions as the first measurement value, the second measurement value and a parameter stored in the storage device A classification processing unit that classifies the posture of the human body to be measured by the second measurement value into one of a plurality of types of postures based on the probability model for each posture type generated based on The information processing apparatus according to claim 9, further comprising: コンピュータに、
人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得し、
前記姿勢種類ごとの複数の前記第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを前記姿勢種類ごとに算出して、記憶装置に格納する、
処理を実行させることを特徴とするプログラム。
On the computer,
For each posture type that classifies the posture of the human body into a plurality of types, obtain a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions,
Based on the plurality of first measurement values for each posture type, a parameter for generating a probability model of the measurement value is calculated for each posture type and stored in a storage device.
A program characterized by causing processing to be executed.
前記コンピュータに、
前記第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得し、
前記第2の測定値と、前記記憶装置に格納されたパラメータを基にそれぞれ生成される前記姿勢種類ごとの確率モデルとに基づいて、前記第2の測定値の測定対象の人体の姿勢を、複数種類の前記姿勢種類のいずれかに分類する、
処理をさらに実行させることを特徴とする請求項11記載のプログラム。
In the computer,
Obtaining a second measured value obtained by measuring the inclination of the human body with respect to the same plurality of directions as the first measured value,
Based on the second measurement value and the probability model for each posture type respectively generated based on the parameters stored in the storage device, the posture of the human body to be measured by the second measurement value is determined. Classify into one of a plurality of types of postures,
The program according to claim 11, further executing a process.
JP2013237810A 2013-11-18 2013-11-18 Posture classification method, information processing apparatus, and program Active JP6337447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013237810A JP6337447B2 (en) 2013-11-18 2013-11-18 Posture classification method, information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013237810A JP6337447B2 (en) 2013-11-18 2013-11-18 Posture classification method, information processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2015097565A true JP2015097565A (en) 2015-05-28
JP6337447B2 JP6337447B2 (en) 2018-06-06

Family

ID=53374631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013237810A Active JP6337447B2 (en) 2013-11-18 2013-11-18 Posture classification method, information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP6337447B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210557B2 (en) 2017-04-10 2021-12-28 Fujitsu Limited Recognition apparatus, recognition method, and recording medium
KR102559451B1 (en) * 2022-06-27 2023-07-24 영산대학교산학협력단 Method and system for measuring spine curvature using integrated sensor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328134A (en) * 2001-04-27 2002-11-15 Nec Tokin Corp Detector for posture condition and azimuth
JP2004157614A (en) * 2002-11-01 2004-06-03 Advanced Telecommunication Research Institute International Behavior analysis system
JP2005152255A (en) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd Human body posture measuring apparatus
JP2009039466A (en) * 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International Action identification device, action identification system, and action identification method
US20100069795A1 (en) * 2008-09-17 2010-03-18 Industrial Technology Research Institute Method and system for contour fitting and posture identification, and method for contour model adaptation
JP2010207488A (en) * 2009-03-12 2010-09-24 Gifu Univ Behavior analyzing device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328134A (en) * 2001-04-27 2002-11-15 Nec Tokin Corp Detector for posture condition and azimuth
JP2004157614A (en) * 2002-11-01 2004-06-03 Advanced Telecommunication Research Institute International Behavior analysis system
JP2005152255A (en) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd Human body posture measuring apparatus
JP2009039466A (en) * 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International Action identification device, action identification system, and action identification method
US20100069795A1 (en) * 2008-09-17 2010-03-18 Industrial Technology Research Institute Method and system for contour fitting and posture identification, and method for contour model adaptation
JP2010069282A (en) * 2008-09-17 2010-04-02 Ind Technol Res Inst Method and system for detecting posture of fitting contour model and method for posture adaptation
JP2010207488A (en) * 2009-03-12 2010-09-24 Gifu Univ Behavior analyzing device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210557B2 (en) 2017-04-10 2021-12-28 Fujitsu Limited Recognition apparatus, recognition method, and recording medium
KR102559451B1 (en) * 2022-06-27 2023-07-24 영산대학교산학협력단 Method and system for measuring spine curvature using integrated sensor

Also Published As

Publication number Publication date
JP6337447B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
Angelikopoulos et al. X-TMCMC: Adaptive kriging for Bayesian inverse modeling
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
Gijsberts et al. Real-time model learning using incremental sparse spectrum gaussian process regression
Bi et al. Support vector classification with input data uncertainty
US11763603B2 (en) Physical activity quantification and monitoring
US8504500B2 (en) Systems, methods, and apparatus for reconstruction of 3-D object morphology, position, orientation and texture using an array of tactile sensors
Leightley et al. Human activity recognition for physical rehabilitation
US20130022277A1 (en) Facial feature point position correcting device, facial feature point position correcting method, and facial feature point position correcting program
US9092737B2 (en) Systems, methods, and apparatus for 3-D surface mapping, compliance mapping, and spatial registration with an array of cantilevered tactile hair or whisker sensors
US20200074161A1 (en) Object recognition method, device, system, and program
US10856850B2 (en) Information processing apparatus, method, and program for matching target object position between the prone and supine positions obtained by MRI and ultrasound
McKee et al. Direct estimation of the parameters of a delayed, intermittent activation feedback model of postural sway during quiet standing
JP6337447B2 (en) Posture classification method, information processing apparatus, and program
Zhou et al. Learn fine-grained adaptive loss for multiple anatomical landmark detection in medical images
Mascret et al. A wearable sensor network with embedded machine learning for real-time motion analysis and complex posture detection
JP6573272B2 (en) Generating apparatus, generating method, and program
AU2019404197B2 (en) Methods for sensing and analyzing impacts and performing an assessment
CN108292437B (en) Image processing apparatus and method
Segura et al. Analysis of recoverable falls via Microsoft Kinect: Identification of third-order ankle dynamics
US20220262013A1 (en) Method for improving markerless motion analysis
US10325367B2 (en) Information processing apparatus, information processing method, and storage medium
US11769349B2 (en) Information processing system, data accumulation apparatus, data generation apparatus, information processing method, data accumulation method, data generation method, recording medium and database
Călin et al. Improving Movement analysis in physical therapy systems based on kinect interaction
Chong et al. Informative sensor selection and learning for prediction of lower limb kinematics using generative stochastic neural networks
Patterson et al. Online change detection for timely solicitation of user interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6337447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150