JP2015097565A - Posture classification method, information processing apparatus, and program - Google Patents
Posture classification method, information processing apparatus, and program Download PDFInfo
- Publication number
- JP2015097565A JP2015097565A JP2013237810A JP2013237810A JP2015097565A JP 2015097565 A JP2015097565 A JP 2015097565A JP 2013237810 A JP2013237810 A JP 2013237810A JP 2013237810 A JP2013237810 A JP 2013237810A JP 2015097565 A JP2015097565 A JP 2015097565A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- classification
- measurement value
- parameter
- calculated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、姿勢分類方法、情報処理装置およびプログラムに関する。 The present invention relates to a posture classification method, an information processing apparatus, and a program.
人体の姿勢は、職業性疾病の6割を占めている腰痛と関係することが知られている。そこで、勤務時などにおける人物の姿勢がどのようになっているかを計測して、腰痛を発症する可能性のある人物に警告や指導を与えることが考えられている。 It is known that the posture of the human body is related to low back pain, which accounts for 60% of occupational diseases. Therefore, it is considered to give a warning or guidance to a person who may develop low back pain by measuring the posture of the person at work.
姿勢を計測する方法としては、例えば、カメラと足圧センサとを用いた方法があるが、この方法では特定の場所以外では計測を行うことができず、日常的に姿勢をモニタリングすることができない。そこで、近年、ウェアラブルセンサを用いた姿勢の計測法が考えられている。例えば、人体に装着した3軸の加速度センサによる測定値を基に、スペクトル解析を用いてパラメータを求め、パラメータを所定の閾値と比較することで、計測対象の人物の姿勢をあらかじめ決められた複数の分類項目の1つに分類する方法がある。 As a method for measuring the posture, for example, there is a method using a camera and a foot pressure sensor. However, this method cannot perform measurement outside a specific place and cannot monitor the posture on a daily basis. . Therefore, in recent years, a posture measuring method using a wearable sensor has been considered. For example, a plurality of parameters in which the posture of a person to be measured is determined in advance by obtaining a parameter using spectrum analysis based on a measurement value obtained by a triaxial acceleration sensor attached to a human body and comparing the parameter with a predetermined threshold value. There is a method of classifying into one of the classification items.
また、姿勢の推定に関する技術の例としては、人体の撮像画像に基づいて姿勢を認識し、その姿勢に対応する姿勢情報を、顔画像の大きさに基づく拘束条件に基づいて補正するものがある。 Further, as an example of a technique related to posture estimation, there is one that recognizes a posture based on a captured image of a human body and corrects posture information corresponding to the posture based on a constraint condition based on the size of a face image. .
さらに、人間の手など、先端部と関節とによって形状が定まるモデル対象物の形状モデルを生成する装置において、あらかじめ定められた関節の自由度および回転角度に関する拘束条件と、先端部の位置情報とに基づいて、先端部とリンクした関節の角度を算出するようにしたものがある。 Further, in an apparatus for generating a shape model of a model object whose shape is determined by a tip and a joint, such as a human hand, a constraint condition relating to a predetermined degree of freedom and rotation angle of the joint, position information of the tip, The angle of the joint linked to the tip is calculated based on the above.
上記のように、加速度センサによる測定値に基づくパラメータを所定の閾値と比較する方法では、姿勢を高精度に分類できないという問題があった。
1つの側面では、本発明は、人体の姿勢を高精度に分類可能な姿勢分類方法、情報処理装置およびプログラムを提供することを目的とする。
As described above, the method of comparing the parameter based on the measurement value by the acceleration sensor with a predetermined threshold has a problem that the posture cannot be classified with high accuracy.
In one aspect, an object of the present invention is to provide a posture classification method, an information processing apparatus, and a program capable of classifying a posture of a human body with high accuracy.
1つの案では、次のような処理が実行される姿勢分類方法が提供される。この姿勢分類方法は、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得し、姿勢種類ごとの複数の第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを姿勢種類ごとに算出して、記憶装置に格納し、第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得し、第2の測定値と、記憶装置に格納されたパラメータを基にそれぞれ生成される姿勢種類ごとの確率モデルとに基づいて、第2の測定値の測定対象の人体の姿勢を、複数種類の姿勢種類のいずれかに分類する、処理を含む。 In one proposal, a posture classification method is provided in which the following processing is performed. In this posture classification method, a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions are acquired for each posture type in which the postures of the human body are classified into a plurality of types, and a plurality of first measurements for each posture type are obtained. Based on the value, a parameter for generating a probabilistic model of the measured value is calculated for each posture type, stored in the storage device, and the second measured by the human body tilt with respect to the same multiple directions as the first measured value. Based on the second measurement value and the probability model for each posture type generated based on the parameters stored in the storage device, the measurement target human body of the second measurement value is obtained. The processing includes classifying the posture into one of a plurality of types of posture.
また、1つの案では、情報処理装置が提供される。この情報処理装置は、測定値取得部と、パラメータ算出部とを有する。測定値取得部は、複数方向に対する人体の傾きを測定した測定値を取得する。パラメータ算出部は、測定値取得部が、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得すると、姿勢種類ごとの複数の第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを姿勢種類ごとに算出して、記憶装置に格納する。 In one scheme, an information processing apparatus is provided. This information processing apparatus includes a measurement value acquisition unit and a parameter calculation unit. The measurement value acquisition unit acquires a measurement value obtained by measuring the inclination of the human body with respect to a plurality of directions. The parameter calculation unit obtains a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions for each posture type obtained by classifying the postures of the human body into a plurality of types. Based on the first measurement value, a parameter for generating a probability model of the measurement value is calculated for each posture type and stored in the storage device.
さらに、1つの案では、上記の情報処理装置と同様の処理をコンピュータに実行させるプログラムが提供される。 Furthermore, in one proposal, a program for causing a computer to execute the same processing as that of the information processing apparatus is provided.
1態様によれば、人体の姿勢を高精度に分類できる。 According to one aspect, the posture of the human body can be classified with high accuracy.
以下、本発明の実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る情報処理装置の構成例および処理例を示す図である。図1に示す情報処理装置1は、測定値取得部2、パラメータ算出部3、分類処理部4および記憶装置5を有する。測定値取得部2、パラメータ算出部3、分類処理部4の処理は、例えば、情報処理装置1が備えるプロセッサが所定のプログラムを実行することにより実現される。記憶装置5は、例えば、HDD(Hard Disk Drive)などの不揮発性記憶装置によって実現される。なお、記憶装置5は、情報処理装置1の外部に設けられていてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example and a processing example of the information processing apparatus according to the first embodiment. An
測定値取得部2は、複数方向に対する人体(被験者11)の傾きを測定した測定値を取得する。取得される測定値は、被験者11に装着されたセンサ12から出力される測定値に基づくものである。
The measurement
ここで、測定値取得部2が取得する測定値とは、センサ12から出力される測定値そのものであってもよいし、あるいは、センサ12から出力される測定値を基に計算によって得られたものであってもよい。例えば、センサ12が3軸加速度センサである場合、測定値取得部2は、センサ12から出力された加速度の測定値を基に、複数方向に対する被験者11の傾きを示す測定値を計算によって求める。
Here, the measurement value acquired by the measurement
なお、センサ12は、例えば、被験者11の背中に装着される。
パラメータ算出部3は、分類処理部4での姿勢の分類処理で使用されるパラメータ21を算出して、記憶装置5に格納する。分類処理部4は、記憶装置5に格納されたパラメータ21を使用して、被験者11の姿勢の分類処理を行う。ここで、パラメータ算出部3は、分類処理部4での姿勢の分類処理より前の「学習工程」で動作する。
For example, the
The
学習工程では、測定値取得部2は、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値31を複数個取得する。すなわち、第1の測定値31は、姿勢種類ごとに複数個取得される。
In the learning step, the measurement
姿勢種類とは、姿勢の状態を分類するものであり、例えば、背中が直立している、背中が前傾している、背中が後傾している、といった状態別に分類することができる。また、学習工程では、ある姿勢種類に対応する第1の測定値31を取得する場合に、被験者11にその姿勢種類に該当するような姿勢をとらせ、その状態でセンサ12による測定が行われる。
The posture types are for classifying posture states, and can be classified by states such as the back standing upright, the back leaning forward, and the back leaning backward. Further, in the learning step, when the
パラメータ算出部3は、測定値取得部2により取得された第1の測定値31を基に、パラメータ21を算出する。具体的には、パラメータ算出部3は、ある姿勢種類に対応する複数個の第1の測定値31を基に、測定値の確率モデル22を生成するためのパラメータ21を算出する。確率モデル22は、例えば、多次元正規分布に従う測定値の確率モデルである。このような算出処理が姿勢種類ごとに実行されることで、それぞれ個別の姿勢種類に対応する複数のパラメータ21が算出されて、記憶装置5に格納される。
The
学習工程が終了した後、姿勢分類のための工程が行われる。姿勢分類のための工程では、被験者11が任意の姿勢をとった状態で、センサ12による測定があらためて行われ、測定値取得部2は、複数方向に対する被験者11の傾きを測定した第2の測定値32を取得する。このとき、第2の測定値32が複数個取得されてもよい。
After the learning process is completed, a process for posture classification is performed. In the posture classification process, the measurement by the
分類処理部4は、取得された第2の測定値32と、記憶装置5に格納されたパラメータ21を基にそれぞれ生成される姿勢種類ごとの確率モデル22とに基づいて、測定対象の被験者11の姿勢を、複数の姿勢種類のいずれかに分類する。すなわち、分類処理部4は、ある姿勢種類に対応するパラメータ21を基に、その姿勢種類に対応する確率モデル22を生成する。このようにして、姿勢種類ごとに確率モデル22が生成される。そして、分類処理部は、姿勢種類ごとに生成された確率モデル22と、第2の測定値32とに基づいて、測定対象の被験者11の姿勢を、複数の姿勢種類のいずれかに分類する。
Based on the acquired
確率モデル22は、例えば、第2の測定値32が、対応する姿勢種類に分類される確率を計算するための計算式として表される。この場合、分類処理部4は、姿勢種類ごとに確率の計算を行い、算出された確率が最も高い姿勢分類に、被験者11の姿勢を分類する。
The
以上の情報処理装置1によれば、姿勢種類ごとに、複数方向に対する被験者11の傾きを測定した複数個の第1の測定値31に基づいて、測定値の確率モデル22を生成するためのパラメータ21が、姿勢種類ごとに算出される。そして、第2の測定値32が取得されると、第2の測定値32と、算出されたパラメータ21を基にそれぞれ生成される確率モデル22とに基づいて、被験者11の姿勢がいずれかの姿勢種類に分類される。これにより、人体の姿勢を高精度に分類できるようになる。
According to the
なお、以上の第1の実施の形態では、学習工程と、その後の姿勢分類のための工程とで、被験者11が同一とされたが、各工程の被験者が別人であってもよい。また、例えば、学習工程において姿勢種類ごとに取得される複数個の第1の測定値31は、複数の被験者から得られたものであってもよい。 In the above first embodiment, the subject 11 is the same in the learning step and the subsequent posture classification step, but the subject in each step may be a different person. Further, for example, the plurality of first measurement values 31 acquired for each posture type in the learning process may be obtained from a plurality of subjects.
〔第2の実施の形態〕
図2は、第2の実施の形態に係る姿勢計測システムの構成例を示す図である。姿勢計測システム100は、センサデバイス110、端末装置120および姿勢分類装置200を含む。端末装置120と姿勢分類装置200とは、ネットワーク130を介して接続されている。
[Second Embodiment]
FIG. 2 is a diagram illustrating a configuration example of an attitude measurement system according to the second embodiment. The posture measurement system 100 includes a
センサデバイス110は、人体に取り付けられて使用される、いわゆる“ウェアラブルセンサ”である。具体的には、センサデバイス110は、人体の背中に取り付けられる。また、センサデバイス110は、重力方向を基準とした3軸方向の加速度を検出する3軸加速度センサを備える。なお、3軸方向がどのように規定されるかについては後述する。
The
端末装置120は、例えばユーザによる操作に応じて、センサデバイス110に加速度の測定を実行させる。端末装置120は、センサデバイス110から出力された測定値を、ネットワーク130を通じて姿勢分類装置200に送信する。
The
姿勢分類装置200は、端末装置120から送信された、センサデバイス110による測定値を基に、測定対象の人体の姿勢を推定する。具体的には、姿勢分類装置200は、センサデバイス110による測定値を基に、測定対象の人体の姿勢をあらかじめ決められた複数の姿勢分類項目のうちの1つに分類する。また、姿勢分類装置200は、姿勢の分類処理時に使用される制御パラメータを算出する処理も実行可能である。
The
図3は、第2の実施の形態に係る姿勢分類装置のハードウェア構成例を示す図である。姿勢分類装置200は、例えば、図3のようなコンピュータとして実現される。
姿勢分類装置200は、プロセッサ201によって装置全体が制御されている。プロセッサ201は、マルチプロセッサであってもよい。プロセッサ201は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ201は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
FIG. 3 is a diagram illustrating a hardware configuration example of the posture classification apparatus according to the second embodiment. The
The
プロセッサ201には、バス208を介して、RAM(Random Access Memory)202と複数の周辺機器が接続されている。
RAM202は、姿勢分類装置200の主記憶装置として使用される。RAM202には、プロセッサ201に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM202には、プロセッサ201による処理に必要な各種データが格納される。
A RAM (Random Access Memory) 202 and a plurality of peripheral devices are connected to the
The
バス208に接続されている周辺機器としては、HDD203、グラフィック処理装置204、入力インタフェース205、読み取り装置206および通信インタフェース207がある。
Peripheral devices connected to the
HDD203は、姿勢分類装置200の補助記憶装置として使用される。HDD203には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、SSD(Solid State Drive)などの他の種類の不揮発性記憶装置を使用することもできる。
The
グラフィック処理装置204には、表示装置204aが接続されている。グラフィック処理装置204は、プロセッサ201からの命令に従って、画像を表示装置204aの画面に表示させる。表示装置としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。
A
入力インタフェース205には、入力装置205aが接続されている。入力インタフェース205は、入力装置205aから出力される信号をプロセッサ201に送信する。入力装置205aとしては、キーボードやポインティングデバイスなどがある。ポインティングデバイスとしては、マウス、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
An
読み取り装置206には、可搬型記録媒体206aが脱着される。読み取り装置206は、可搬型記録媒体206aに記録されたデータを読み取ってプロセッサ201に送信する。可搬型記録媒体206aとしては、光ディスク、光磁気ディスク、半導体メモリなどがある。
A
通信インタフェース207は、ネットワーク130を介して、端末装置120などの他の装置との間でデータの送受信を行う。
以上のようなハードウェア構成によって、姿勢分類装置200の処理機能を実現することができる。
The
With the hardware configuration described above, the processing function of the
なお、端末装置120についても、図3と同様のハードウェア構成を有するコンピュータとして実現可能である。また、端末装置120は、例えば、ノート型パーソナルコンピュータ、タブレット型情報端末などの可搬型の情報処理装置であってもよい。この場合、センサデバイス110の機能が端末装置120に組み込まれていてもよい。
Note that the
図4は、センサデバイスによる測定値について示す図である。
図4の右側に示すように、センサデバイス110は、被験者140の背中に装着される。そして、センサデバイス110は、被験者140の上半身の姿勢を推定するための測定値を出力する。後述するように、姿勢分類装置200は、センサデバイス110による測定値を基に、被験者140の背中の傾きおよび湾曲状態を分類する。なお、被験者140の背中の傾きおよび湾曲状態を分類可能であれば、センサデバイス110の搭載位置は背中に限らず、例えば、肩や首であってもよい。
FIG. 4 is a diagram illustrating measurement values obtained by the sensor device.
As shown on the right side of FIG. 4, the
図4の左側に示すように、センサデバイス110は、x方向、y方向、z方向のそれぞれに対する加速度を測定する。x方向、y方向、z方向は、重力gの方向に対する相対的な方向として検知される。
As shown on the left side of FIG. 4, the
x方向は、被験者140の背中に対して前後方向に直交する方向を示し、y方向は、被験者140の背中に対して左右方向に直交する方向を示す。本実施の形態では、図4に示すように、x方向については被験者140の後側方向を正の方向とし、y方向については被験者140の右側方向を正の方向とする。 The x direction indicates a direction orthogonal to the front-rear direction with respect to the back of the subject 140, and the y direction indicates a direction orthogonal to the left-right direction with respect to the back of the subject 140. In the present embodiment, as shown in FIG. 4, the rear direction of the subject 140 is the positive direction for the x direction, and the right direction of the subject 140 is the positive direction for the y direction.
z方向は、被験者140の背中に沿った方向を示す。本実施の形態では、被験者140の上半身が起きている状態で測定を行うものとするので、z方向は、地面に対して鉛直またはそれに近い方向となる。また、本実施の形態では、図4に示すように、z方向については上方向を正の方向とする。 The z direction indicates a direction along the back of the subject 140. In the present embodiment, since the measurement is performed with the upper body of the subject 140 standing, the z direction is perpendicular to or close to the ground. Further, in the present embodiment, as shown in FIG. 4, the upward direction is the positive direction with respect to the z direction.
図5は、姿勢の分類項目の例を示す図である。姿勢分類装置200は、被験者の姿勢が図5に示す13種類の分類項目のどれに属するかを判定するものとする。また、これらの分類項目は、5種類の大分類と3種類の小分類とに分けられる。
FIG. 5 is a diagram illustrating an example of posture classification items. The
大分類は、被験者の背中の傾きを分類するものであり、「直立」、「前傾」、「後傾」、「右傾」および「左傾」の5種類に分類される。「直立」は、被験者の背中が直立状態であり、前後方向にも左右方向にも傾いていないことを示す。「前傾」は、被験者の背中が前側に傾いていることを示す。「後傾」は、被験者の背中が後側に傾いていることを示す。「右傾」は、被験者の背中が右側に傾いていることを示す。「左傾」は、被験者の背中が左側に傾いていることを示す。 The major classification classifies the inclination of the back of the subject, and is classified into five types: “upright”, “forward tilt”, “back tilt”, “right tilt”, and “left tilt”. “Upright” indicates that the subject's back is in an upright state and is not inclined in the front-rear direction or the left-right direction. “Forward tilt” indicates that the subject's back is tilted forward. “Backward tilt” indicates that the subject's back is tilted rearward. “Tilt right” indicates that the subject's back is tilted to the right. “Left tilt” indicates that the subject's back is tilted to the left.
小分類は、被験者の背中の湾曲状態を分類するものであり、「真っ直ぐ」、「反り」および「猫背」の3種類に分類される。「真っ直ぐ」は、被験者の背中が直線状であり、湾曲していないことを示す。「反り」は、被験者の背中が凹むように(すなわち、背骨の後側が凹むように)湾曲していることを示す。「猫背」は、被験者の背中が突出するように(すなわち、背骨の後側が突出するように)湾曲していることを示す。 The small classification is for classifying the curved state of the subject's back, and is classified into three types: “straight”, “warping”, and “back of the back”. “Straight” indicates that the subject's back is straight and not curved. “Warpage” indicates that the subject's back is curved (ie, the back side of the spine is recessed). “Stoopback” indicates that the subject's back is curved (ie, the back side of the spine protrudes).
全体の分類項目としては、「直立」、「前傾」および「後傾」のそれぞれについては、さらに「真っ直ぐ」、「反り」および「猫背」の3種類に分類される。また、「右傾」および「左傾」のそれぞれについては、さらに「真っ直ぐ」と「猫背」の2種類にのみ分類されるものとする。これにより、被験者の姿勢は合計13種類の分類項目に分類される。 As an overall classification item, each of “upright”, “forward tilt”, and “backward tilt” is further classified into three types of “straight”, “warp”, and “stoop”. Each of “right tilt” and “left tilt” is further classified into only two types, “straight” and “stoop”. As a result, the posture of the subject is classified into a total of 13 types of classification items.
図6は、姿勢分類装置が備える機能の例を示すブロック図である。
姿勢分類装置200は、データ取得部211、特徴量算出部212、姿勢パラメータ算出部213、姿勢パラメータ記憶部214、姿勢分類処理部215および正解率算出部216を有する。データ取得部211、特徴量算出部212、姿勢パラメータ算出部213、姿勢分類処理部215および正解率算出部216の各処理は、例えば、姿勢分類装置200が備えるプロセッサ201が所定のプログラムを実行することで実現される。また、姿勢パラメータ記憶部214は、例えば、姿勢分類装置200が備えるHDD203の記憶領域として実現される。
FIG. 6 is a block diagram illustrating an example of functions provided in the posture classification apparatus.
The
データ取得部211は、センサデバイス110による測定値を端末装置120から取得する。取得される測定値は、x方向、y方向、z方向のそれぞれについての加速度である。
The
特徴量算出部212は、取得された測定値に基づいて、姿勢に関する特徴量を算出する。特徴量としては、背中の左右方向および前後方向のそれぞれの傾斜角度を示す「姿勢角度」が算出される。
The feature
姿勢パラメータ算出部213は、算出された特徴量に基づいて、姿勢の分類処理で使用される「姿勢パラメータ」を算出して、姿勢パラメータ記憶部214に格納する。姿勢パラメータとしては、姿勢角度に基づく平均ベクトルおよび共分散行列が算出される。また、姿勢パラメータは、前述した13種類の分類項目のそれぞれについて算出される。
The posture
姿勢分類処理部215は、姿勢パラメータ記憶部214に格納された姿勢パラメータを参照して、特徴量算出部212によって算出された特徴量に基づき、被験者の姿勢が上記の分類項目のどれに分類されるかを判定する。具体的には、姿勢分類処理部215は、算出された特徴量と、13種類の分類項目のそれぞれに対応する姿勢パラメータとの演算を行うことで、被験者の姿勢がそれぞれの分類項目に属する確率を求める。そして、姿勢分類処理部215は、求められた確率が最も高い分類項目を、被験者の姿勢を示す分類項目として出力する。
The posture
なお、姿勢パラメータ算出部213は、実際に被験者の姿勢を分類する処理より前に実行される、姿勢パラメータ算出のための前処理でのみ使用される。一方、姿勢分類処理部215は、実際に被験者の姿勢を分類する際に使用される。従って、姿勢パラメータ算出部213が特徴量算出部212から取得する特徴量と、姿勢分類処理部215が特徴量算出部212から取得する特徴量は、それぞれ異なるタイミングで測定された測定値に基づくものである。
Note that the posture
正解率算出部216は、姿勢分類処理部215による分類結果の正解率を算出する。なお、正解率算出部216は、姿勢分類処理の精度を検証するために設けられた処理機能である。従って、例えば、姿勢分類装置200が製品として出荷される際には、その姿勢分類装置200には正解率算出部216が含まれていなくてもよい。
The correct answer
図7は、姿勢分類装置による処理全体の手順の例を示すフローチャートである。姿勢分類装置200による処理は、「学習処理」と「本処理」とに大別される。本処理とは、姿勢パラメータに基づいて、実際に被験者の姿勢を分類する処理である。一方、学習処理は、本処理に先立って、本処理で使用される姿勢パラメータを算出するために実行される処理である。前述のように、姿勢パラメータは、13種類の分類項目のそれぞれについて算出される。
FIG. 7 is a flowchart illustrating an example of a procedure of the entire process performed by the posture classification apparatus. Processing by the
学習処理は、次のような手順で実行される。なお、以下の説明において、“j”は1以上の整数であり、分類項目の数を示す。本実施の形態では例として、j=13である。
[ステップS11]被験者に、ある1つの分類項目に属するような姿勢をとらせ、その状態でセンサデバイス110による測定が行われる。また、このような測定がN回行われる(ただし、Nは1以上の整数)。
The learning process is executed in the following procedure. In the following description, “j” is an integer of 1 or more, and indicates the number of classification items. In this embodiment, as an example, j = 13.
[Step S11] The subject is assumed to belong to a certain classification item, and measurement by the
なお、N回の測定のそれぞれは、基本的に、すべて同一の被験者に対して行われるものとする。ただし、N回の測定におけるそれぞれの測定が、2人以上の被験者を用いて行われてもよい。 Note that each of the N measurements is basically performed on the same subject. However, each measurement in N measurements may be performed using two or more subjects.
データ取得部211は、センサデバイス110によるN回分の測定結果を取得する。特徴量算出部212は、取得された測定結果を基に、特徴量、すなわち、背中の左右方向および前後方向のそれぞれの傾斜角度を示す姿勢角度を算出する。
The
[ステップS12]姿勢パラメータ算出部213は、算出された特徴量に基づいて、1つの姿勢分類項目に対応する姿勢パラメータを算出し、姿勢パラメータ記憶部214に格納する。前述のように、姿勢パラメータには、姿勢角度に基づく平均ベクトルおよび共分散行列が含まれる。
[Step S12] The posture
[ステップS13]j種類の姿勢分類項目のすべてについてステップS11,S12の処理が実行されたかが判定される。処理済みでない姿勢分類項目がある場合には、ステップS11に戻り、処理済みでない別の姿勢分類項目についてステップS11,S12の処理が実行される。一方、すべての姿勢分類項目について処理済みである場合には、学習処理が終了される。 [Step S13] It is determined whether or not the processing of steps S11 and S12 has been executed for all of the j types of posture classification items. If there is a posture classification item that has not been processed, the process returns to step S11, and the processing of steps S11 and S12 is executed for another posture classification item that has not been processed. On the other hand, if all the posture classification items have been processed, the learning process is terminated.
以上の処理により、j(=13)種類の分類項目ごとに姿勢パラメータが算出され、算出された姿勢パラメータが姿勢パラメータ記憶部214に格納される。
次に、本処理は、次のような手順が実行される。
Through the above processing, posture parameters are calculated for each of j (= 13) types of classification items, and the calculated posture parameters are stored in the posture
Next, in this process, the following procedure is executed.
[ステップS21]被験者に装着されたセンサデバイス110から、測定結果が出力される。なお、基本的に、本処理の際の被験者は、学習処理における被験者と同じであるものとするが、学習処理での被験者と本処理での被験者とを別人とすることもできる。
[Step S21] A measurement result is output from the
データ取得部211は、センサデバイス110によるN回分の測定結果を取得する。特徴量算出部212は、取得された測定結果を基に、特徴量、すなわち、背中の左右方向および前後方向のそれぞれの傾斜角度を示す姿勢角度を算出する。
The
[ステップS22]姿勢分類処理部215は、姿勢パラメータ記憶部214に格納された姿勢パラメータを参照して、特徴量算出部212によって算出された特徴量に基づき、被験者の姿勢がj種類の分類項目のどれに分類されるかを判定する。
[Step S22] The posture
次に、図7の処理の詳細について説明する。
まず、図8は、学習処理における特徴量算出の処理手順の例を示すフローチャートである。この図8の処理は、図7のステップS11の処理に対応する。
Next, details of the processing of FIG. 7 will be described.
First, FIG. 8 is a flowchart illustrating an example of a processing procedure for calculating a feature amount in the learning process. The processing in FIG. 8 corresponds to the processing in step S11 in FIG.
[ステップS101]被験者に、ある1つの分類項目に属するような姿勢をとらせ、その状態でセンサデバイス110による測定が行われる。ここでは例として、被験者に、ある1つの分類項目に属するような姿勢でt秒間(ただし、t>0)静止させる。そして、t秒の静止期間において1秒間隔でセンサデバイス110に測定を実行させ、t個の測定結果を出力させる。tは、例えば“15”(すなわち、静止期間は15秒)である。
[Step S101] The subject is allowed to take a posture that belongs to a certain classification item, and measurement by the
測定結果は、次の式(1−1)〜(1−3)のように表される。式(1−1)〜(1−3)において、XjN,YjN,ZjNは、それぞれj番目の分類項目に対応するN回目のx方向、y方向、z方向の測定値を示す。
XjN={XjN(1),XjN(2),・・・,XjN(t)} ・・・(1−1)
YjN={YjN(1),YjN(2),・・・,YjN(t)} ・・・(1−2)
ZjN={ZjN(1),ZjN(2),・・・,ZjN(t)} ・・・(1−3)
データ取得部211は、端末装置120を介して、上記の測定値XjN,YjN,ZjNを取得する。
The measurement results are expressed as the following formulas (1-1) to (1-3). In Expressions (1-1) to (1-3), X jN , Y jN , and Z jN indicate the measured values in the Nth x-direction, y-direction, and z-direction corresponding to the j-th classification item, respectively.
X jN = {X jN (1), X jN (2),..., X jN (t)} (1-1)
Y jN = {Y jN (1), Y jN (2),..., Y jN (t)} (1-2)
Z jN = {Z jN (1), Z jN (2),..., Z jN (t)} (1-3)
The
[ステップS102]特徴量算出部212は、t秒の測定期間における測定値XjN,YjN,ZjNの平均値を算出する。測定値XjN,YjN,ZjNのそれぞれの平均値Ave(XjN),Ave(YjN),Ave(ZjN)は、次の式(2−1)〜(2−3)に従って算出される。
[Step S102] The feature
[ステップS103]特徴量算出部212は、平均値Ave(XjN),Ave(YjN),Ave(ZjN)を基に、背中の左右方向および前後方向のそれぞれの傾斜角度を算出する。ここで算出される傾斜角度は、重力の方向を基準とした角度として表される。左右方向の傾斜角度φjN1,前後方向の傾斜角度φjN2は、それぞれ次の式(3−1),(3−2)に従って算出される。
[Step S103] The feature
[ステップS104]特徴量算出部212は、ステップS103で算出した傾斜角度φjN1,φjN2を補正することで、姿勢角度を算出する。この補正は、センサデバイス110が被験者に傾いた状態で装着されたことによる誤差を低減するためのものである。ここでは、センサデバイス110のy方向が傾いた場合、すなわち、被験者の後側から見たときにセンサデバイス110が左右方向に傾いた状態で装着された場合を想定して、左右方向の傾斜角度φjN1を補正する。
[Step S104] The feature
基準姿勢(すなわち、理想的な状態でセンサデバイス110が装着された場合)でセンサデバイス110の左右方向の傾斜角度をφjN01と表すと、左右方向、前後方向の各姿勢角度θjN1,θjN2は、次の式(4)に従って算出される。
(θjN1,θjN2)=(φjN1−φjN01,φjN2) ・・・(4)
[ステップS105]測定回数、すなわちステップS101〜S104の実行回数が、N回に達したかが判定される。測定回数がN回未満の場合には、ステップS101に戻って測定が継続される。測定回数がN回に達した場合には、図7のステップS12の処理に進む。以上のステップS101〜S105の処理により、1つの分類項目に対応する姿勢角度θjN1,θjN2が算出される。
When the tilt angle in the left-right direction of the
(Θ jN1 , θ jN2 ) = (φ jN1 −φ jN01 , φ jN2 ) (4)
[Step S105] It is determined whether the number of measurements, that is, the number of executions of steps S101 to S104, has reached N times. If the number of measurements is less than N, the process returns to step S101 and the measurement is continued. If the number of measurements reaches N, the process proceeds to step S12 in FIG. Through the processes in steps S101 to S105 , the posture angles θ jN1 and θ jN2 corresponding to one classification item are calculated.
次に、図9は、姿勢パラメータ算出の処理手順の例を示すフローチャートである。この図9の処理は、図7のステップS12の処理に対応する。なお、以下の説明では、姿勢角度(θjN1,θjN2)を、(θj1(N),θj2(N))と表すものとする。 Next, FIG. 9 is a flowchart illustrating an example of a processing procedure for calculating posture parameters. The process of FIG. 9 corresponds to the process of step S12 of FIG. In the following description, the posture angle (θ jN1 , θ jN2 ) is represented as (θ j1 (N), θ j2 (N)).
[ステップS111]姿勢パラメータ算出部213は、姿勢角度を基に、平均ベクトルを算出する。
ここで、j番目の分類項目について算出された姿勢角度Θjは、次の式(5)のように表される。また、N回の測定における左右方向、前後方向の姿勢角度の平均値Ave(θj1),Ave(θj2)は、それぞれ式(6−1),(6−2)によって表される。なお、添字Tは転置行列を示す。
[Step S111] The posture
Here, the posture angle Θ j calculated for the j-th classification item is expressed as the following equation (5). Further, average values Ave (θ j1 ) and Ave (θ j2 ) of the posture angles in the left-right direction and the front-rear direction in the N measurements are expressed by equations (6-1) and (6-2), respectively. The subscript T indicates a transposed matrix.
そして、j番目の分類項目に対応する平均ベクトルAve(Θj)は、次の式(7)に従って算出される。
Ave(Θj)=(Ave(θj1),Ave(θj2))T ・・・(7)
[ステップS112]姿勢パラメータ算出部213は、姿勢角度および平均ベクトルに基づき、共分散行列を算出する。ここで、Bj=Θj−Ave(Θj)とすると、j番目の分類項目に対応する共分散行列Ajは、次の式(8)に従って算出される。
Aj=BjBj T ・・・(8)
なお、平均ベクトルAve(Θj)は2次元のベクトルであり、共分散行列Ajは2行2列の行列である。以上の処理により、j番目の分類項目に対応する姿勢パラメータが算出される。姿勢パラメータ算出部213は、算出した姿勢パラメータ、すなわち平均ベクトルAve(Θj)および共分散行列Ajを、姿勢パラメータ記憶部214に格納する。
Then, the average vector Ave (Θ j ) corresponding to the jth classification item is calculated according to the following equation (7).
Ave (Θ j ) = (Ave (θ j1 ), Ave (θ j2 )) T (7)
[Step S112] The attitude
A j = B j B j T (8)
The average vector Ave (Θ j ) is a two-dimensional vector, and the covariance matrix A j is a 2 × 2 matrix. Through the above processing, the posture parameter corresponding to the jth classification item is calculated. The posture
次に、図10は、本処理における特徴量算出の処理手順の例を示すフローチャートである。この図10の処理は、図7のステップS21の処理に対応する。
図10に示すステップS201,S202,S203,S204の処理手順は、それぞれ図8のステップS101,S102,S103,S104と同じである。すなわち、本処理における特徴量の算出処理は、図8の処理を、測定回数N=1としてセンサデバイス110によるt秒間の測定処理を1回だけ実行するように変形したものである。ただし、本処理の被験者は、学習処理の被験者とは異なる。なお、本処理における特徴量の算出処理でも、t秒間の測定処理を複数実行するようにしてもよい。
Next, FIG. 10 is a flowchart illustrating an example of a processing procedure for calculating a feature amount in this processing. The processing in FIG. 10 corresponds to the processing in step S21 in FIG.
The processing procedures of steps S201, S202, S203, and S204 shown in FIG. 10 are the same as steps S101, S102, S103, and S104 of FIG. That is, the feature amount calculation process in this process is a modification of the process in FIG. 8 so that the measurement process for t seconds by the
データ取得部211および特徴量算出部212による図10の処理により、左右方向、前後方向の各姿勢角度θjN1,θjN2が算出される。以下、本処理において算出された姿勢角度θjN1,θjN2を、それぞれθ1,θ2として説明する。
The posture angles θ jN1 and θ jN2 in the left-right direction and the front-rear direction are calculated by the processing of FIG. 10 by the
図11は、姿勢分類の処理手順の例を示すフローチャートである。この図11の処理は、図7のステップS22の処理に対応する。
[ステップS211]姿勢分類処理部215は、j種類の分類項目の中から1つを選択し、選択した分類項目に対応する姿勢パラメータ(平均ベクトルおよび共分散行列)を、姿勢パラメータ記憶部214から取得する。以下、取得されたj番目の分類項目に対応する平均ベクトルおよび共分散行列を、それぞれAve(Θj),Ajとする。
FIG. 11 is a flowchart illustrating an example of a processing procedure for posture classification. The process of FIG. 11 corresponds to the process of step S22 of FIG.
[Step S211] The posture
[ステップS212]姿勢分類処理部215は、姿勢パラメータ記憶部214から取得した平均ベクトルAve(Θj)および共分散行列Ajと、特徴量算出部212によって算出された姿勢角度θ=(θ1,θ2)とに基づいて、次の式(9)に従って確率Pj(θ)を算出する。
[Step S212] The posture
なお、式(9)において、dは次元の数を示す。このdは、姿勢角度θのパラメータ数に一致し、本実施の形態ではd=2である。
上記の式(9)は、被験者の姿勢を示す姿勢角度θが、ステップS211で選択された分類項目に属する確率を示す。
In equation (9), d represents the number of dimensions. This d coincides with the number of parameters of the posture angle θ, and d = 2 in the present embodiment.
Equation (9) above indicates the probability that the posture angle θ indicating the posture of the subject belongs to the classification item selected in step S211.
[ステップS213]姿勢分類処理部215は、j種類の分類項目のすべてをステップS211で選択したかを判定する。未選択の分類項目がある場合には、ステップS211の処理が実行される。この場合、未選択の分類項目についてステップS211,S212の処理が実行される。すなわち、ステップS211,S212が繰り返されることで、被験者の姿勢を示す姿勢角度θが、n種類の分類項目にそれぞれ属する確率が計算される。一方、すべての分類項目が選択済みである場合には、ステップS214の処理が実行される。
[Step S213] The posture
[ステップS214]姿勢分類処理部215は、算出されたn個の確率のうち、最も高い値を持つ確率に対応する分類項目を、被験者の姿勢が属する分類項目と判定して出力する。
[Step S214] The posture
ここで、図12は、姿勢分類のための計算について説明するための図である。図12のグラフは、2つの変数、すなわち、左右方向の姿勢角度(θjN1に対応)および前後方向の姿勢角度(θjN2に対応)による2次元正規分布を平面上に示したものである。 Here, FIG. 12 is a diagram for explaining calculation for posture classification. The graph of FIG. 12 shows a two-dimensional normal distribution on a plane by two variables, that is, a posture angle in the left-right direction (corresponding to θ jN1 ) and a posture angle in the front-rear direction (corresponding to θ jN2 ).
また、図12中の楕円領域301,302,303は、それぞれ異なる分類項目#1,#2,#3にそれぞれ対応する。楕円領域301は、分類項目#1に属する姿勢とされた被験者から得られる2つの変数が、ある一定の割合で含まれるような領域である。楕円領域302も同様に、分類項目#2に属する姿勢とされた被験者から得られる2つの変数が、ある一定の割合で含まれるような領域である。楕円領域303も同様に、分類項目#3に属する姿勢とされた被験者から得られる2つの変数が、ある一定の割合で含まれるような領域である。このような楕円領域301〜303は、確率楕円体、ある割合の信頼楕円または確率偏差楕円などと呼ばれる。
In addition,
また、図12中の点311,312は、それぞれ本処理にて任意の姿勢の被験者から得られた2つの変数をグラフ上にプロットした位置を示す。ここで、前述した式(9)は、多次元正規分布(本実施の形態では2次元正規分布)の確率密度関数を示す。この式(9)は、本処理にて任意の姿勢の被験者から得られた2つの変数を図12のグラフ上にプロットした点と、楕円領域301〜303の各中心点との距離を計算することと等価である。そして、姿勢分類処理部215は、グラフ上にプロットされた点と中心点との距離が最も近い楕円領域を判別し、判別した楕円領域に対応する分類項目を、被験者の姿勢が属するものと判定する。
In addition, points 311 and 312 in FIG. 12 indicate positions where two variables obtained from a subject having an arbitrary posture in this processing are plotted on the graph. Here, the above-described equation (9) represents a probability density function of a multidimensional normal distribution (a two-dimensional normal distribution in the present embodiment). This equation (9) calculates the distance between the points plotted on the graph of FIG. 12 and the center points of the
例えば、点311は、楕円領域301〜303の各中心点のうち、楕円領域301の中心点に最も近い。このため、点311が得られた被験者の姿勢は、分類項目#1に属すると判定される。また、点312は、楕円領域301〜303の各中心点のうち、楕円領域302の中心点に最も近い。このため、点312が得られた被験者の姿勢は、分類項目#2に属すると判定される。
For example, the
図13は、測定により得られた変数と、矩形の判定領域との比較によって姿勢分類を行う場合の参考図である。以下、この図13に示す姿勢分類の方法と、図12に示した姿勢分類の方法とを対比する。 FIG. 13 is a reference diagram when posture classification is performed by comparing a variable obtained by measurement with a rectangular determination region. The posture classification method shown in FIG. 13 is compared with the posture classification method shown in FIG.
図13のグラフは、2つの変数を軸とした平面上に、2つの変数それぞれの上限および下限の閾値を示す矩形領域321〜323が設定したものである。矩形領域321,322,323は、それぞれ分類項目#1,#2,#3に属することを判定するための領域である。
In the graph of FIG. 13,
また、図13中の点331,332は、それぞれ本処理にて任意の姿勢の被験者から得られた2つの変数をグラフ上にプロットした位置を示す。この図13の方法では、それぞれの点がどの矩形領域に含まれるかによって、それぞれの点が得られた被験者の姿勢が分類される。しかしながら、図13の例では、点331は矩形領域321〜323のいずれにも含まれておらず、また、点332も矩形領域321〜323のいずれにも含まれていない。この場合、点331,332がそれぞれ得られた被験者の姿勢が、どの分類項目に属するかを判定できない。
Further, points 331 and 332 in FIG. 13 indicate positions where two variables obtained from a subject in an arbitrary posture in this processing are plotted on the graph. In the method of FIG. 13, the posture of the subject from which each point is obtained is classified according to which rectangular area each point is included in. However, in the example of FIG. 13, the
これに対して、図12に示した方法によれば、グラフ上にプロットされた点と中心点との距離が最も近い楕円領域が判別され、判別された楕円領域に対応する分類項目が、被験者の姿勢が属するものと判定される。これにより、プロットされた点が得られた被験者の姿勢がどの分類項目に属するかを、確実に判定することができる。また、分類項目を多くした場合でも、被験者の姿勢がどの分類項目に属するかを判定することができる。 On the other hand, according to the method shown in FIG. 12, the ellipse area where the distance between the point plotted on the graph and the center point is the closest is determined, and the classification item corresponding to the determined ellipse area is the subject. It is determined that the posture belongs. This makes it possible to reliably determine to which classification item the posture of the subject from whom the plotted points are obtained belongs. Even when the number of classification items is increased, it is possible to determine which classification item the subject's posture belongs to.
次に、正解率算出部216を用いた姿勢の分類精度の検証について示す。本願の発明者らは、10−fold交差検定を用いた次のような方法で、姿勢の分類精度を検証した。
まず、被験者にある1つの分類項目に属するような姿勢をとらせ、その状態でセンサデバイス110によるt(=15)秒間の測定を行う。このようにして得られた測定値を基に、特徴量、すなわち姿勢角度を得る。また、このような測定を10回行って、それぞれ姿勢角度を得る。すなわち、1つの分類項目について10個の姿勢角度が得られる。さらに、各分類項目について上記の処理を繰り返し、分類項目ごとに10個の姿勢角度を得る。
Next, verification of posture classification accuracy using the accuracy
First, the subject is assumed to belong to one classification item, and measurement is performed for t (= 15) seconds by the
次に、すべての分類項目についての姿勢角度を1つずつ含むデータ群を10組作成して、姿勢角度を分類する。そして、10組のデータ群のうち、9組のデータ群を用いて学習処理を行って、各分類項目についての姿勢パラメータを算出し、残りの1組のデータ群に含まれる姿勢角度を用いて本処理、すなわちどの分類項目に属するかの判定を行う。この場合、N=9として学習処理が行われ、残りのデータ群に含まれる10個の姿勢角度のそれぞれについて、どの分類項目に属するかが判定される。 Next, 10 sets of data groups each including one posture angle for all classification items are created, and the posture angles are classified. Then, learning processing is performed using nine data groups out of the ten data groups, posture parameters for each classification item are calculated, and posture angles included in the remaining one data group are used. This process, that is, which classification item is determined is determined. In this case, learning processing is performed with N = 9, and it is determined to which classification item each of the ten posture angles included in the remaining data group belongs.
さらに、このような学習処理および本処理を、本処理に用いるデータ群を変更しながら繰り返す。これにより、合計100回の姿勢分類の判定が行われる。正解率算出部216は、姿勢分類の判定結果が得られるごとに、その判定結果が正しいかを判定して、正解率を算出する。
Further, the learning process and the main process are repeated while changing the data group used for the main process. As a result, the posture classification is determined 100 times in total. The accuracy
ただし、以下に示す正解率の算出例では、「直立−真っ直ぐ」の分類項目についてのみ、10回ではなく60回の測定を行った。そして、各データ群には、「直立−真っ直ぐ」の分類項目に対応する姿勢角度が6個ずつ含まれるようにした。 However, in the calculation example of the accuracy rate shown below, only for the classification item “upright-straight”, measurement was performed 60 times instead of 10 times. Each data group includes six posture angles corresponding to the classification item “upright-straight”.
さらに、次の図14に示すようにセンサデバイス110の装着位置を変えながら処理を行った。図14は、センサデバイスの装着位置を示す図である。
図14に示すように、発明者らは、センサデバイス110を、被験者140の背中に沿って上下方向に3箇所ずれた位置に装着して、姿勢分類の検証を行った。以下、各位置に装着されたセンサデバイス110は、上側から順に“センサ#1”、“センサ#2”、“センサ#3”と表記する。センサ#1は、被験者140の肩甲骨付近に装着したものとする。センサ#2は、被験者140の背中の中心付近に装着したものとする。センサ#3は、被験者140が身につけている腰のベルトの下付近に装着したものとする。
Further, as shown in FIG. 14, the processing was performed while changing the mounting position of the
As shown in FIG. 14, the inventors attached the
図15は、センサデバイスの位置に応じた正解率の算出例を示すグラフである。センサ#1を用いた場合の正解率は約0.73、センサ#2を用いた場合の正解率は約0.65、センサ#3を用いた場合の正解率は0.89となり、センサデバイス110の装着位置がどの位置の場合でも60%以上の正解率が得られた。特に、センサ#3を用いた場合には80%以上という高い正解率が得られた。なお、分類項目ごとの正解率については後述する。
FIG. 15 is a graph illustrating an example of calculating the correct answer rate according to the position of the sensor device. When the
〔第3の実施の形態〕
ところで、上記の第2の実施の形態では、図15に示したように、センサデバイス110の装着位置によって正解率にバラツキが見られる。これに対して、それぞれ別の位置に装着した複数のセンサデバイス110からの測定値を用いて学習処理および本処理を行うことで、姿勢分類の精度を高めることができると考えられる。
[Third Embodiment]
By the way, in said 2nd Embodiment, as shown in FIG. 15, the variation in a correct answer rate is seen by the mounting position of the
そこで、以下の第3の実施の形態では、第2の実施の形態の姿勢分類装置200を、複数のセンサデバイス110の測定値を基に処理を行うように変形する。さらに、第3の実施の形態では、姿勢分類精度のさらなる向上効果を得るために、複数のセンサデバイス110の測定値を用いて算出された姿勢パラメータを補正する手段についても開示する。
Therefore, in the following third embodiment, the
なお、以下の第3の実施の形態についての説明では、第2の実施の形態と同じ処理が行われる構成要素や処理ステップには同じ符号を付して示し、それらの説明を省略する。
図16は、第3の実施の形態に係る姿勢計測システムの構成例を示す図である。図16に示す姿勢計測システム100aは、複数のセンサデバイス110と、端末装置120aと、姿勢分類装置200aとを含む。端末装置120aと姿勢分類装置200aとは、ネットワーク130を介して接続されている。
In the following description of the third embodiment, the same reference numerals are given to components and processing steps in which the same processing as in the second embodiment is performed, and description thereof is omitted.
FIG. 16 is a diagram illustrating a configuration example of an attitude measurement system according to the third embodiment. The posture measurement system 100a illustrated in FIG. 16 includes a plurality of
端末装置120aは、複数のセンサデバイス110と接続し、それぞれのセンサデバイス110からの計測値を姿勢分類装置200aに送信する点で、図2に示した端末装置120とは異なる。なお、図16の例では、端末装置120aに対して2つのセンサデバイス110が接続されているが、3つ以上のセンサデバイス110が接続されていてもよい。
The
複数のセンサデバイス110は、同じ被験者に装着される。また、複数のセンサデバイス110は、被験者の背中あるいはその周辺において、上下方向、すなわち背骨に沿った方向に対してそれぞれ異なる位置に装着されることが望ましい。例えば、2つのセンサデバイス110が使用される場合、これらのセンサデバイス110は、図14に示したセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のいずれかの組み合わせに対応するようにしてもよい。
The plurality of
なお、複数のセンサデバイス110の各機能は、例えば、端末装置120aに組み込まれていてもよい。
姿勢分類装置200aは、複数のセンサデバイス110のそれぞれから受信した測定値を用いて、姿勢パラメータの算出、および姿勢の分類処理を行う。
Note that the functions of the plurality of
The
図17は、第3の実施の形態に係る姿勢分類装置が備える機能の構成例を示すブロック図である。図17に示す姿勢分類装置200aは、データ取得部211a、特徴量算出部212a、姿勢パラメータ算出部213a、姿勢パラメータ記憶部214a、姿勢分類処理部215a、正解率算出部216、拘束条件算出部221および姿勢パラメータ補正部222を有する。なお、姿勢分類装置200aのハードウェア構成は、図3に示した姿勢分類装置200と同様の構成とすることができる。
FIG. 17 is a block diagram illustrating a configuration example of functions included in the posture classification apparatus according to the third embodiment. The
データ取得部211a、特徴量算出部212a、姿勢パラメータ算出部213a、姿勢分類処理部215a、正解率算出部216、拘束条件算出部221および姿勢パラメータ補正部222の各処理は、例えば、姿勢分類装置200aが備えるプロセッサ201が所定のプログラムを実行することで実現される。また、姿勢パラメータ記憶部214aは、例えば、姿勢分類装置200aが備えるHDD203の記憶領域として実現される。
Each process of the
データ取得部211a、特徴量算出部212a、姿勢パラメータ算出部213aおよび姿勢分類処理部215aの基本的な処理は、それぞれ図6に示したデータ取得部211、特徴量算出部212、姿勢パラメータ算出部213および姿勢分類処理部215と同様である。以下、これらの処理機能について、図6における対応する処理機能とは異なる点についてのみ説明する。
The basic processes of the
データ取得部211aは、2つのセンサデバイス110のそれぞれから、x方向、y方向、z方向のそれぞれについての加速度の測定値を取得する点で、データ取得部211とは異なる。
The
特徴量算出部212aは、2つのセンサデバイス110のそれぞれから取得した測定値を用いて、センサデバイス110ごとに姿勢角度を算出する点で、特徴量算出部212とは異なる。
The feature
姿勢パラメータ算出部213aは、センサデバイス110ごとに算出された姿勢角度を基に1組の平均ベクトルおよび共分散行列を算出する点で、姿勢パラメータ算出部213とは異なる。また、姿勢パラメータ算出部213aは、拘束条件算出部221によって、姿勢分類に対する寄与が小さいパラメータがあると判定された場合には、寄与が小さいパラメータ、すなわち、左右方向または前後方向のいずれかの姿勢角度を除外して、姿勢パラメータの算出を行う。
The posture
姿勢分類処理部215aは、センサデバイス110の個数をnとしたとき、姿勢分類の計算式における次元dが2nとなる点で、姿勢分類処理部215とは異なる。また、拘束条件算出部221の処理結果によっては、次元dが2nより小さくなる場合もある。
The posture
拘束条件算出部221および姿勢パラメータ補正部222は、2つのセンサデバイス110の測定値を基に算出される姿勢パラメータを最適化するために付加された処理機能である。
The constraint
拘束条件算出部221は、人体の背骨の動きに関する拘束条件を考慮して、姿勢分類処理に対する寄与が小さいパラメータを判別する。判別の方法としては、次の2種類の方法がある。
The constraint
拘束条件算出部221は、第1の判別方法として、特徴量算出部212aによって算出された特徴量に基づいて、姿勢分類処理に対する寄与が小さい背中の傾斜の方向を判別する。この場合、姿勢パラメータ算出部213aは、判別された方向に対応する特徴量、すなわち姿勢角度を使用せずに、姿勢パラメータの算出を行う。
As a first determination method, the constraint
また、拘束条件算出部221は、第2の判別方法として、姿勢パラメータ算出部213aによって算出された姿勢パラメータに基づいて、姿勢分類処理に対する寄与が小さいパラメータを判別する。この場合、拘束条件算出部221は、姿勢パラメータ算出部213aによって算出された姿勢パラメータを、姿勢分類処理に対する寄与が小さいパラメータが除外されるように変換して、姿勢パラメータ補正部222に渡す。
Further, as a second determination method, the constraint
姿勢パラメータ補正部222は、拘束条件算出部221によって上記の第2の判別方法による判別が行われた場合に、拘束条件算出部221によって変換されたパラメータを用いて、姿勢パラメータを再計算する。姿勢パラメータ補正部222は、再計算された姿勢パラメータを姿勢パラメータ記憶部214aに格納する。
The posture
以下、姿勢分類装置200aの処理を、処理例1〜4の4パターンの処理例として説明する。
<処理例1>
処理例1は、第2の実施の形態の姿勢分類装置200の処理を、複数のセンサデバイス110の測定値を用いて行うように変形したものである。この処理例1では、拘束条件算出部221および姿勢パラメータ補正部222は使用されない。
Hereinafter, the processing of the
<Processing Example 1>
The processing example 1 is a modification in which the processing of the
処理例1での基本的な処理の流れは、図7と同様であり、学習処理と本処理とを含む。まず、学習処理における特徴量の算出処理(図7のステップS11および図8に対応)は、次のように変形される。 The basic processing flow in Processing Example 1 is the same as that in FIG. 7 and includes a learning process and a main process. First, the feature amount calculation process (corresponding to step S11 in FIG. 7 and FIG. 8) in the learning process is modified as follows.
データ取得部211aは、複数のセンサデバイス110による測定値を、端末装置120を通じて取得する。センサデバイス110の数をnとすると、データ取得部211aは、前述の式(1−1)〜(1−3)で表される測定値XjN,YjN,ZjNを、n組取得する。この処理は、図8のステップS101に対応する。特徴量算出部212aは、図8のステップS102〜S104と同様の手順で、取得されたn組の測定値のそれぞれを基に、n組の姿勢角度θjN1,θjN2を算出する。
The
さらに、以上のようなn組の姿勢角度θjN1,θjN2の算出処理がN回行われる。これにより、1つの分類項目に対応する特徴量として、N回分の姿勢角度θjN1,θjN2を含むデータ群がn群算出される。 Further, the above n sets of posture angles θ jN1 and θ jN2 are calculated N times. As a result, n groups of data including N posture angles θ jN1 and θ jN2 are calculated as feature amounts corresponding to one classification item.
次に、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。
姿勢パラメータ算出部213aは、センサデバイス110ごとに算出された姿勢角度を基に、1組の平均ベクトルおよび共分散行列を算出する。この処理は、図9のステップS111に対応する。
Next, the posture parameter calculation process (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows.
The posture
ここで、n組目の姿勢角度、すなわち、n番目のセンサデバイス110の測定値を基に算出された姿勢角度をθj1_n(N),θj2_n(N)とすると、j番目の分類項目について算出された姿勢角度Θjは、下記の式(5’)のように表される。また、n番目のセンサデバイス110を用いたN回の測定における左右方向、前後方向の姿勢角度の平均値Ave(θj1_n),Ave(θj2_n)は、それぞれ下記の式(6’−1),(6’−2)によって表される。そして、すべてのセンサデバイス110の測定値を加味した左右方向、前後方向の姿勢角度の平均値Ave(θj1),Ave(θj2)は、それぞれ下記の式(6’−3),(6’−4)によって表される。
Here, assuming that the posture angle calculated based on the n-th posture angle, that is, the measured value of the
従って、j番目の分類項目に対応する平均ベクトルAve(Θj)は、前述した式(7)に、式(6’−3),(6’−4)で表される姿勢角度の平均値Ave(θj1),Ave(θj2)を代入することによって算出される。 Therefore, the average vector Ave (Θ j ) corresponding to the j-th classification item is obtained by adding the average value of the posture angles represented by the equations (6′-3) and (6′-4) to the equation (7) described above. It is calculated by substituting Ave (θ j1 ) and Ave (θ j2 ).
また、共分散行列Ajは、式(5’)によって算出された姿勢角度Θjと、この姿勢角度Θjを用いて上記手順で算出された平均ベクトルAve(Θj)とを、前述の式(8)に代入することによって算出される。この処理は、図9のステップS112に対応する。 Further, the covariance matrix A j includes the attitude angle Θ j calculated by the equation (5 ′) and the average vector Ave (Θ j ) calculated by the above procedure using the attitude angle Θ j . It is calculated by substituting into equation (8). This process corresponds to step S112 in FIG.
なお、第2の実施の形態では、平均ベクトルAve(Θj)は2次元のベクトルであり、共分散行列Ajは2行2列の行列であった。これに対して、第3の実施の形態の処理例1では、平均ベクトルAve(Θj)は2n次元のベクトルとなり、共分散行列Ajは2n行2n列の行列となる。 In the second embodiment, the average vector Ave (Θ j ) is a two-dimensional vector, and the covariance matrix A j is a matrix with 2 rows and 2 columns. On the other hand, in the processing example 1 of the third embodiment, the average vector Ave (Θ j ) is a 2n-dimensional vector, and the covariance matrix A j is a matrix of 2n rows and 2n columns.
以上のように図7のステップS11,S12を変形した処理が、j種類の分類項目のそれぞれについて実行される。
次に、本処理における特徴量の算出処理(図7のステップS21および図10に対応)は、次のように変形される。
As described above, the process obtained by modifying steps S11 and S12 in FIG. 7 is executed for each of the j types of classification items.
Next, the feature amount calculation process (corresponding to step S21 in FIG. 7 and FIG. 10) in this process is modified as follows.
データ取得部211は、複数のセンサデバイス110による測定値を、端末装置120を通じて取得する。すなわち、データ取得部211は、前述の式(1−1)〜(1−3)で表される測定値XjN,YjN,ZjNを、n組取得する。この処理は、図10のステップS201に対応する。特徴量算出部212aは、図10のステップS202〜S204と同様の手順で、取得されたn組の測定値のそれぞれを基に、n組の姿勢角度θjN1,θjN2を算出する。
The
次に、姿勢分類処理(図7のステップS22および図11に対応)は、次のように変形される。
姿勢分類処理部215aによる姿勢分類処理は、姿勢分類処理部215による図11の処理のうち、ステップS212の処理が次のように変形されたものと等価である。前述のように、特徴量算出部212aは、n組の姿勢角度θjN1,θjN2を算出する。ここで、n番目のセンサデバイス110の測定値を基に算出された姿勢角度θjN1,θjN2をそれぞれθ1_n,θ2_nとすると、算出された姿勢角度θは、次の式(10)のように表される。
Next, the posture classification process (corresponding to step S22 in FIG. 7 and FIG. 11) is modified as follows.
The posture classification processing by the posture
姿勢分類処理部215aは、式(10)で表される姿勢角度θを前述の式(9)に代入することによって、確率Pj(θ)を算出する。なお、式(9)における次元dは、2nとなる。
The posture
姿勢分類処理部215aは、以上のような確率Pj(θ)の演算を、n種類の分類項目のそれぞれについて実行する。そして、姿勢分類処理部215aは、算出されたn個の確率のうち、最も高い値を持つ確率に対応する分類項目を、被験者の姿勢が属する分類項目と判定して出力する。
The posture
ここで、図18は、処理例1での正解率の算出例を示すグラフである。この図18では、例として、n=2として処理を行った場合に、正解率算出部216によって算出された正解率の例を示す。また、図18には、2つのセンサデバイス110の搭載位置の組み合わせとして、図14に示すセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のそれぞれの組み合わせで処理を行った場合の正解率を示している。さらに、図18では、参考のために、センサ#1,#2,#3をそれぞれ単独で用いて第2の実施の形態の姿勢分類装置200によって処理された場合の正解率(図15に示した正解率)も示している。
Here, FIG. 18 is a graph showing an example of calculating the correct answer rate in Processing Example 1. FIG. 18 shows an example of the correct answer rate calculated by the correct answer
図18に示すように、複数のセンサデバイス110を組み合わせて処理を行うと、センサデバイス110を単独で用いて処理を行った場合より、姿勢分類の精度が低下する場合があることが判明した。このことの原因について、発明者らは次のように推察した。
As shown in FIG. 18, it has been found that when processing is performed by combining a plurality of
物理的な観点からすると、装着するセンサデバイス110が例えば2個の場合、姿勢を表現する姿勢パラメータの次元は“4”となる。その一方、人体の背骨を構成している骨の動きには、何らかの拘束条件がある。このため、姿勢の分類に寄与する姿勢パラメータの次元は、“4”より少ない場合があり得る。この場合、姿勢の分類に寄与しない次元のパラメータを含めて分類処理を行うと、分類精度が悪化することが考えられる。
From a physical point of view, when there are two
また、数値計算的な観点からすると、共分散行列の固有値の中に、最大固有値と比較して極端に小さい固有値が存在することによって、逆行列を用いた算出精度が劣化したことも考えられる。このような精度の劣化も、骨の動きの拘束条件に起因する可能性がある。 From a numerical point of view, it is also conceivable that the calculation accuracy using the inverse matrix has deteriorated due to the presence of extremely small eigenvalues in the eigenvalues of the covariance matrix compared to the maximum eigenvalue. Such deterioration in accuracy may also be attributed to the constraint of bone movement.
以下に示す処理例2,3は、このような原因の推察に基づき、姿勢分類で使用される姿勢パラメータが最適化されるように上記の処理例1を変形したものである。
<処理例2>
図19は、背中を前後方向に傾けた場合の姿勢の例を示す図である。図19の左側は、被験者140が背中を前方向に傾けた場合の姿勢の例を示し、図19の右側は、被験者140が背中を後ろ方向に傾けた場合の姿勢の例を示す。
The following processing examples 2 and 3 are modifications of the above processing example 1 so that posture parameters used in posture classification are optimized based on such a cause inference.
<Processing example 2>
FIG. 19 is a diagram illustrating an example of a posture when the back is tilted in the front-rear direction. The left side of FIG. 19 shows an example of the posture when the subject 140 tilts his back forward, and the right side of FIG. 19 shows an example of the posture when the subject 140 tilts his back backward.
この図19の例のように、被験者140が背中を前後方向に傾ける動作を行う際に、背中は左右方向にはほとんど傾かない可能性がある。この場合、被験者140が背中を前方向に傾けたときと、後ろ方向に傾けたときと、その中間のときとで、左右方向の傾斜角度を示すパラメータの値はほとんど変化しない。このため、例えば、前述の分類項目のうち、「直立」、「前傾」、「後傾」のように、背中の前後方向の傾きが異なる姿勢を分類するために、左右方向の傾斜角度を示すパラメータが寄与する可能性は低い。 As in the example of FIG. 19, when the subject 140 performs an operation of tilting the back in the front-rear direction, the back may hardly tilt in the left-right direction. In this case, the value of the parameter indicating the tilt angle in the left-right direction hardly changes depending on whether the subject 140 tilts the back in the forward direction, tilts in the rear direction, or in the middle. Therefore, for example, in order to classify postures with different back-and-forth back-and-forth orientations, such as “upright”, “forward tilt”, and “backward tilt” among the classification items described above, the tilt angle in the left-right direction is The parameters shown are unlikely to contribute.
このように、姿勢パラメータの中に、姿勢の分類のために寄与しない方向に関するパラメータが含まれていると、そのパラメータが姿勢の分類処理に悪影響を与える可能性がある。そこで、処理例2では、拘束条件算出部221が、姿勢パラメータが示す傾斜角度の方向(すなわち、左右方向または前後方向)のうち、姿勢の分類処理に寄与しない方向の有無を判定する。そして、姿勢の分類処理に寄与しない方向がある場合には、その方向に関するパラメータを捨てて、姿勢の分類処理に使用しないようにする。
As described above, if a posture parameter includes a parameter related to a direction that does not contribute to posture classification, the parameter may adversely affect posture classification processing. Therefore, in the processing example 2, the constraint
図20は、処理例2における姿勢パラメータ算出の処理手順の例を示すフローチャートである。処理例2では、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。 FIG. 20 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 2. In the processing example 2, the posture parameter calculation processing (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows.
[ステップS151]拘束条件算出部221は、特徴量算出部212aによって算出された姿勢角度を基に、姿勢の分類処理に寄与しない方向に対応するパラメータがあるかを判定する。
[Step S151] The constraint
具体的には、拘束条件算出部221は、同じ方向への傾斜角度を示す姿勢角度の合計を算出する。この計算では、各センサデバイス110からの測定値に基づく、同じ方向に対応する姿勢角度が合計される。n番目のセンサデバイス110によるN回の測定値を基に算出された姿勢角度をθj1_n(N),θj2_n(N)とすると、左右方向に対する姿勢角度の合計値Γj1_n、前後方向に対する姿勢角度の合計値Γj2_nは、それぞれ次の式(11−1),(11−2)で表される。
Specifically, the constraint
拘束条件算出部221は、同じセンサデバイス110の測定値に基づく、異なる方向の姿勢角度の合計値の比を計算する。ここで、一方の方向についての合計値が相対的に極端に小さい場合には、その方向に対する背中の傾きの変化が少ない、すなわち、その方向に対する背中の動きが制限されているという拘束条件があることを示す。このため、拘束条件算出部221は、一方の方向についての合計値が相対的に極端に小さい場合に、その方向についてのパラメータが姿勢の分類処理に寄与しないと判定する。
The constraint
具体的には、拘束条件算出部221は、対応するセンサデバイス110ごとに、比率(Γj1_n/Γj2_n)および比率(Γj2_n/Γj1_n)を算出する。すべてのセンサデバイス110について、比率(Γj1_n/Γj2_n)が所定の閾値以下である場合、拘束条件算出部221は、左右方向に対応する姿勢角度が姿勢の分類処理に寄与しないと判定する。また、すべてのセンサデバイス110について、比率(Γj2_n/Γj1_n)が上記と同じ閾値以下である場合、拘束条件算出部221は、前後方向に対応する姿勢角度が姿勢の分類処理に寄与しないと判定する。なお、閾値は、0以上1未満の範囲で任意に設定可能であり、例えば“0.01”といった値が設定される。
Specifically, the constraint
なお、判定条件は、次のように変形されてもよい。拘束条件算出部221は、例えば、ある方向に対応する姿勢角度を基に算出された比率のうち、所定数以上のセンサデバイス110に対応する比率が閾値以下である場合に、その方向に対応する姿勢角度が姿勢の分類処理に寄与しないと判定してもよい。また、他の方法として、拘束条件算出部221は、ある方向についての式(11−1)および式(11−2)に基づく姿勢角度の合計値をすべてのセンサデバイス110についてさらに合計し、算出された合計値同士の比率を閾値を比較することで判定を行ってもよい。
Note that the determination condition may be modified as follows. For example, when the ratio corresponding to a predetermined number or more of
以上の処理により、姿勢の分類処理に寄与しない方向に対応するパラメータがあると判定された場合、ステップS152の処理が実行される。一方、姿勢の分類処理に寄与しない方向に対応するパラメータがないと判定された場合には、ステップS111aの処理が実行される。なお、後者の場合に実行されるステップS111a,S112aの処理は、前述の処理例1での姿勢パラメータの算出処理と同様の処理である。 If it is determined that there is a parameter corresponding to a direction that does not contribute to the posture classification process, the process of step S152 is executed. On the other hand, if it is determined that there is no parameter corresponding to a direction that does not contribute to the posture classification process, the process of step S111a is executed. Note that the processing in steps S111a and S112a executed in the latter case is the same processing as the posture parameter calculation processing in Processing Example 1 described above.
[ステップS111a]拘束条件算出部221は、ステップS151で姿勢分類に寄与しない方向に対応するパラメータがないと判定した場合、特徴量算出部212aによって算出されたすべての姿勢角度θj1_n(N),θj2_n(N)を姿勢パラメータ算出部213aに渡す。姿勢パラメータ算出部213aは、これらの姿勢角度θj1_n(N),θj2_n(N)を基に、次のような手順で1組の平均ベクトルを算出する。
[Step S111a] If the constraint
j番目の分類項目について算出された姿勢角度Θjは、前述の式(5’)のように表される。また、n番目のセンサデバイス110を用いたN回の測定における左右方向、前後方向の姿勢角度の平均値Ave(θj1_n),Ave(θj2_n)は、それぞれ前述の式(6’−1),(6’−2)によって表される。そして、すべてのセンサデバイス110の測定値を加味した左右方向、前後方向の姿勢角度の平均値Ave(θj1),Ave(θj2)は、それぞれ前述の式(6’−3),(6’−4)によって表される。従って、j番目の分類項目に対応する平均ベクトルAve(Θj)は、前述の式(7)に、式(6’−3),(6’−4)で表される姿勢角度の平均値Ave(θj1),Ave(θj2)を代入することによって算出される。
The posture angle Θ j calculated for the j-th classification item is expressed as the above-described equation (5 ′). In addition, the average values Ave (θ j1 — n ) and Ave (θ j2 — n ) of the posture angles in the left-right direction and the front-rear direction in N measurements using the n-
[ステップS112a]姿勢パラメータ算出部213aは、姿勢角度θj1_n(N),θj2_n(N)を基に、1つの共分散行列Ajを算出する。共分散行列Ajは、ステップS111aで式(5’)によって算出された姿勢角度Θjと、この姿勢角度Θjを用いてステップS111aで算出された平均ベクトルAve(Θj)とを、前述の式(8)に代入することによって算出される。
[Step S112a] The posture
[ステップS152]拘束条件算出部221aは、ステップS152において姿勢の分類処理に寄与しないと判定された方向についてのパラメータを破棄する。
具体的には、左右方向に対応する姿勢角度θj1_n(N)が姿勢の分類処理に寄与しないと判定された場合、拘束条件算出部221aは、左右方向に対応するすべての姿勢角度θj1_n(N)を破棄して、前後方向に対応する姿勢角度θj2_n(N)だけを姿勢パラメータ算出部213aに渡す。また、前後方向に対応する姿勢角度θj2_n(N)が姿勢の分類処理に寄与しないと判定された場合、拘束条件算出部221aは、前後方向に対応するすべての姿勢角度θj2_n(N)を破棄して、左右方向に対応する姿勢角度θj1_n(N)だけを姿勢パラメータ算出部213aに渡す。
[Step S152] The constraint condition calculation unit 221a discards the parameter for the direction determined not to contribute to the posture classification process in Step S152.
Specifically, when it is determined that the posture angle θ j1 — n (N) corresponding to the left-right direction does not contribute to the posture classification process, the constraint condition calculation unit 221a performs all posture angles θ corresponding to the left-right direction. j1 _ discards n a (n), and passes only the posture
[ステップS111b]姿勢パラメータ算出部213aは、拘束条件算出部221から引き渡された姿勢角度のみを用いて、1組の平均ベクトルを算出する。
j番目の分類項目について算出された姿勢角度Θjは、前述の式(5’)において、ステップS152で破棄された姿勢角度を含まない行列として表される。ステップS111aで算出される姿勢角度Θjは、2n行2n列の行列となるのに対し、ステップS111bで算出される姿勢角度Θjは、n行n列の行列となる。
[Step S <b> 111 b] The posture
The posture angle Θ j calculated for the j-th classification item is represented as a matrix that does not include the posture angle discarded in step S152 in the above-described equation (5 ′). The posture angle Θ j calculated in step S111a is a matrix of 2n rows and 2n columns, whereas the posture angle Θ j calculated in step S111b is a matrix of n rows and n columns.
ステップS151で左右方向に対応する姿勢角度θj1_n(N)が姿勢の分類処理に寄与しないと判定された場合、姿勢パラメータ算出部213aは、式(6’−2)および式(6’−4)に従って、前後方向に対応する平均値Ave(θj2)を算出する。そして、姿勢パラメータ算出部213aは、前後方向に対応する平均値Ave(θj2)だけを前述の式(7)に代入することで、平均ベクトルAve(Θj)を算出する。
When it is determined in step S151 that the posture angle θ j1 — n (N) corresponding to the left-right direction does not contribute to the posture classification process, the posture
一方、ステップS151で前後方向に対応する姿勢角度θj2_n(N)が姿勢の分類処理に寄与しないと判定された場合、姿勢パラメータ算出部213aは、式(6’−1)および式(6’−3)に従って、左右方向に対応する平均値Ave(θj1)を算出する。そして、姿勢パラメータ算出部213aは、左右方向に対応する平均値Ave(θj1)だけを前述の式(7)に代入することで、平均ベクトルAve(Θj)を算出する。
On the other hand, when it is determined in step S151 that the posture angle θ j2 — n (N) corresponding to the front-rear direction does not contribute to the posture classification process, the posture
ステップS111aで算出される平均ベクトルAve(Θj)は、2n次元のベクトルとなるのに対し、ステップS111bで算出される平均ベクトルAve(Θj)は、n次元のベクトルとなる。 The average vector Ave (Θ j ) calculated in step S111a is a 2n-dimensional vector, whereas the average vector Ave (Θ j ) calculated in step S111b is an n-dimensional vector.
[ステップS112b]姿勢パラメータ算出部213aは、拘束条件算出部221から引き渡された姿勢角度のみを用いて、1組の共分散行列Ajを算出する。共分散行列Ajは、ステップS111bで式(5’)によって算出された姿勢角度Θjと、この姿勢角度Θjを用いてステップS111bで算出された平均ベクトルAve(Θj)とを、前述の式(8)に代入することによって算出される。ステップS112aで算出される共分散行列Ajは、2n行2n列の行列となるのに対し、ステップS112bで算出される共分散行列Ajは、n行n列の行列となる。
[Step S112b] The posture
以上の手順で、1つの分類項目に対応する平均ベクトルAve(Θj)および共分散行列Ajが算出され、それらが姿勢パラメータ記憶部214aに格納される。
次に、処理例2における本処理は、処理例1と同様に実行される。すなわち、特徴量算出部212aは、n組の姿勢角度θjN1,θjN2を算出して、姿勢分類処理部215aに出力する。姿勢分類処理部215aは、前述の式(10)で表される姿勢角度θを前述の式(9)に代入することによって、確率Pj(θ)を算出する。
With the above procedure, the average vector Ave (Θ j ) and the covariance matrix A j corresponding to one classification item are calculated and stored in the posture
Next, this process in Process Example 2 is executed in the same manner as in Process Example 1. That is, the feature
ある分類項目に対応する平均ベクトルAve(Θj)および共分散行列Ajが図20のステップS111a,S112aの処理により算出されていた場合、被験者の姿勢がその分類項目に属するかの判定処理は、処理例1と同様の計算により行われる。この場合、式(9)における次元dは2nとなる。 When the average vector Ave (Θ j ) and the covariance matrix A j corresponding to a certain classification item have been calculated by the processing in steps S111a and S112a in FIG. 20, the determination processing as to whether the subject's posture belongs to the classification item is This is performed by the same calculation as in Processing Example 1. In this case, the dimension d in Equation (9) is 2n.
一方、ある分類項目に対応する平均ベクトルAve(Θj)および共分散行列Ajが図20のステップS111b,S112bの処理により算出されていた場合、被験者の姿勢がその分類項目に属するかの判定処理は、特徴量算出部212aから入力された姿勢角度のうち、一方の方向についての姿勢角度だけを用いて行われる。この場合、式(9)における次元dはnとなる。
On the other hand, if the average vector Ave (Θ j ) and the covariance matrix A j corresponding to a certain category item have been calculated by the processing in steps S111b and S112b in FIG. 20, it is determined whether the subject's posture belongs to that category item. The processing is performed using only the posture angle in one direction among the posture angles input from the feature
図21は、処理例2での正解率の算出例を示すグラフである。この図21では、例として、n=2として処理を行った場合に、正解率算出部216によって算出された正解率の例を示す。また、図21には、2つのセンサデバイス110の搭載位置の組み合わせとして、図14に示すセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のそれぞれの組み合わせで処理を行った場合の正解率を示している。さらに、図21では、参考のために、センサ#1,#2,#3をそれぞれ単独で用いて第2の実施の形態の姿勢分類装置200によって処理された場合の正解率(図15に示した正解率)も示している。
FIG. 21 is a graph showing an example of calculating the correct answer rate in Processing Example 2. FIG. 21 shows an example of the correct answer rate calculated by the correct answer
図21に示すように、処理例2によれば、特に、センサ#1とセンサ#2とを組み合わせた場合と、センサ#2とセンサ#3とを組み合わせた場合に、対応するセンサデバイス110を単独で用いた場合より高い正解率が得られた。また、図18に示した処理例1との比較では、どのセンサデバイス110の組み合わせでも処理例1より高い正解率が得られた。
As shown in FIG. 21, according to the processing example 2, when the
<処理例3>
図22は、背中が斜めに傾いた場合の姿勢の例を示す図である。
上記の処理例2では、背中が前後方向または左右方向に傾いたときに、その傾き方向と直交する方向に対する背中の位置変動がごく小さくなるケースを想定した。しかし、実際にはこのようなケースは少ない。
<Processing example 3>
FIG. 22 is a diagram illustrating an example of the posture when the back is inclined obliquely.
In the above processing example 2, when the back is tilted in the front-rear direction or the left-right direction, a case is assumed in which the position variation of the back with respect to the direction orthogonal to the tilt direction is extremely small. However, there are few such cases in practice.
例えば、被験者が背中を前後方向に傾けようとした場合でも、実際には背中が前後方向以外の他の方向にも傾いてしまう場合が多い。図22はこのようなケースの例を示しており、例えば、図22の左側に示すように、被験者140の背中が右斜め前方向に傾く場合や、図22の右側に示すように、被験者140の背中が左斜め前に傾く場合もある。また、同様に、被験者が背中を左右方向に傾けようとした場合でも、実際には背中が左右方向以外の他の方向にも傾いてしまう場合が多い。 For example, even when the subject tries to tilt his / her back in the front-rear direction, the back is often tilted in other directions besides the front-rear direction. FIG. 22 shows an example of such a case. For example, as shown on the left side of FIG. 22, when the back of the subject 140 is inclined diagonally right frontward, or as shown on the right side of FIG. In some cases, the back of the person leans forward diagonally to the left. Similarly, even when the subject tries to tilt his / her back in the left / right direction, the back is often tilted in other directions besides the left / right direction.
このように、背中が前後方向または左右方向に真っ直ぐに傾いていない状況でも、前後方向または左右方向以外の方向の中に、骨の動きの拘束条件に起因する、変動量の少ない方向が存在する可能性はある。このような変動量の少ない方向に対する背中の傾きを示すパラメータは、姿勢の分類処理に寄与しないパラメータと考えられる。このため、このような方向に対する傾きを示すパラメータを、姿勢パラメータから除外することで、姿勢の分類精度を高められると考えられる。しかしながら、このような方向は被験者によっても異なり、処理例1で想定したケースのように一意に決めることは難しい。 As described above, even in a situation where the back is not tilted straight in the front-rear direction or the left-right direction, there is a direction with a small amount of fluctuation due to the constraint condition of the bone motion in the direction other than the front-rear direction or the left-right direction. it's possible. Such a parameter indicating the inclination of the back relative to the direction with a small amount of variation is considered to be a parameter that does not contribute to the posture classification process. For this reason, it is considered that the accuracy of posture classification can be improved by excluding the parameter indicating the inclination with respect to the direction from the posture parameter. However, such a direction differs depending on the subject, and it is difficult to uniquely determine as in the case assumed in Processing Example 1.
以下で説明する処理例3では、拘束条件算出部221が、姿勢の分類処理に寄与しないパラメータを計算により推定し、姿勢パラメータ補正部222が、その推定結果に基づいて、姿勢パラメータ算出部213aにより算出された姿勢パラメータを補正する。具体的には、拘束条件算出部221は、姿勢パラメータ算出部213aによって算出された共分散行列を、固有値および固有ベクトルに分解し、姿勢の分類処理に寄与しないと推定される方向に対応する固有値および固有ベクトルを判別する。姿勢パラメータ補正部222は、共分散行列の固有値および固有ベクトルのうち、判別された固有値および固有ベクトルを除いた残りの固有値および固有ベクトルを用いて、共分散行列を算出し直す。
In Processing Example 3 described below, the constraint
ここで、例として、被験者が「前傾−真っ直ぐ」の分類項目に該当する姿勢をとった場合の姿勢角度の分布例を図23および図24に示して、姿勢角度の分布と固有値との関係について説明する。 Here, as an example, FIG. 23 and FIG. 24 show examples of posture angle distributions when the subject takes a posture corresponding to the classification item of “forward tilt-straight”, and the relationship between the posture angle distribution and the eigenvalues. Will be described.
図23は、姿勢の変化が前後方向に限定される場合の姿勢角度の分布例を示す図である。また、図24は、姿勢が斜め方向にも変化する場合の姿勢角度の分布例を示す図である。 FIG. 23 is a diagram illustrating a distribution example of posture angles when a change in posture is limited to the front-rear direction. FIG. 24 is a diagram illustrating a distribution example of posture angles when the posture also changes in an oblique direction.
図23に示す楕円領域351は、被験者の姿勢の変化がほぼ前後方向に限定される場合に、姿勢角度がある一定の割合で分布する領域のイメージを示す。この場合、楕円領域351に属する姿勢角度を基に算出された共分散行列の固有値のうち、最大の固有値に対する固有ベクトルの方向D1は、前後方向、すなわち図23の左右方向となる。一方、このケースでは、背中の左右方向に対する変動量がごく小さいことから、上記の共分散行列の固有値のうち、極端に小さい固有値に対する固有ベクトルの方向D2は、左右方向、すなわち図23の上下方向となる。
An
これに対して、図24に示す楕円領域352は、被験者の姿勢が前後方向だけでなく、斜め方向にも変動する場合に、姿勢角度がある一定の割合で分布する領域のイメージを示す。この場合、楕円領域352に属する姿勢角度を基に算出された共分散行列の固有値のうち、最大の固有値に対する固有ベクトルの方向D3は、前後方向、すなわち図24の左右方向とはならない可能性が高い。そして、この共分散行列の固有値のうち、極端に小さい固有値に対する固有ベクトルの方向D4も、図23の例のように左右方向、すなわち図24の上下方向とはならない可能性が高い。
On the other hand, an
処理例3では、拘束条件算出部221は、共分散行列の固有値の累積寄与率を計算することで、共分散行列の固有値から、姿勢の分類処理に寄与しない、極端に小さい固有値を排除する。
In the processing example 3, the constraint
図25は、処理例3における姿勢パラメータ算出の処理手順の例を示すフローチャートである。処理例3では、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。 FIG. 25 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 3. In Processing Example 3, the posture parameter calculation process (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows.
[ステップS111a]姿勢パラメータ算出部213aには、特徴量算出部212aによって算出されたすべての姿勢角度θj1_n(N),θj2_n(N)が入力される。姿勢パラメータ算出部213aは、図20のステップS111aと同様の手順(処理例1と同様の手順)で、j番目の分類項目に対応する平均ベクトルAve(Θj)を算出する。算出される平均ベクトルAve(Θj)は、2n次元のベクトルとなる。
[Step S111a] All posture angles θ j1 — n (N) and θ j2 — n (N) calculated by the feature
[ステップS112a]姿勢パラメータ算出部213aは、図20のステップS112aと同様の手順(処理例1と同様の手順)で、j番目の分類項目に対応する1つの共分散行列Ajを算出する。算出される共分散行列Ajは、2n行2n列の行列となる。
[Step S112a] The posture
[ステップS161]拘束条件算出部221は、算出された共分散行列Ajに対する固有値分解を行い、固有値Λjと、この固有値Λjに対する固有ベクトルQjとを算出する。
ここで、n番目の分類項目に対応する共分散行列Ajは、Aj=QjΛjQj Tと表すことができる。また、固有値ΛjをΛj=diag(λ1,・・・,λd)と表し、固有ベクトルQjをQj=(q1,・・・,qd)と表す。ただし、λ1,・・・,λdは降順とする。
[Step S161] constraint
Here, the covariance matrix A j corresponding to the nth classification item can be expressed as A j = Q j Λ j Q j T. Further, the eigenvalue Λ j is expressed as Λ j = diag (λ 1 ,..., Λ d ), and the eigenvector Q j is expressed as Q j = (q 1 ,..., Q d ). Λ 1 ,..., Λ d are in descending order.
[ステップS162]拘束条件算出部221は、変数bを“1”とする。
[ステップS163]拘束条件算出部221は、次の式(13)に従って累積寄与率ξ(b)を算出する。
[Step S162] The constraint
[Step S163] The constraint
[ステップS164]拘束条件算出部221は、算出された累積寄与率ξ(b)が、閾値ξc以上であるかを判定する。閾値ξcは、経験的に決定される値であり、0<ξc<1の条件を満たす範囲でできるだけ大きな値(例えば、0.999)とされることが望ましい。
[Step S164] constraint
累積寄与率ξ(b)が閾値ξc未満である場合には、ステップS165の処理が実行される。累積寄与率ξ(b)が閾値ξc以上である場合には、ステップS166の処理が実行される。 If the cumulative contribution rate ξ (b) is less than the threshold value ξ c , the process of step S165 is executed. If the cumulative contribution rate ξ (b) is greater than or equal to the threshold value ξ c , the process of step S166 is executed.
[ステップS165]拘束条件算出部221は、変数bを“1”だけインクリメントする。その後、インクリメントされた変数bを用いてステップS163の計算が再度行われる。
[Step S165] The constraint
[ステップS166]ステップS164で累積寄与率ξ(b)が閾値ξc以上であると判定されたときの変数bを、b_cとする。拘束条件算出部221は、共分散行列の再計算に用いる固有値および固有ベクトルを、それぞれ次の式(14),(15)のように決定する。
Λ’j=(λ1,・・・,λb_c) ・・・(14)
Q’j=(q1,・・・,qb_c) ・・・(15)
姿勢パラメータ補正部222は、式(14),(15)に基づき、共分散行列A’jを次の式(8’)に従って再計算する。
A’j=Q’jΛ’jQ’j T ・・・(8’)
姿勢パラメータ補正部222は、n番目の分類項目に対応する姿勢パラメータとして、ステップS111aで算出された平均ベクトルAve(Θj)と、ステップS166で再計算された共分散行列A’jとを、姿勢パラメータ記憶部214aに格納する。
The variable b when the cumulative contribution ratio xi] (b) is determined to be equal to or greater than the threshold value xi] c at Step S166] Step S164, the B_c. The constraint
Λ ′ j = (λ 1 ,..., Λ b — c ) (14)
Q ′ j = (q 1 ,..., Q b — c ) (15)
The attitude
A ′ j = Q ′ j Λ ′ j Q ′ j T (8 ′)
The posture
次に、処理例2における本処理は、処理例1と同様に実行される。すなわち、特徴量算出部212aは、n組の姿勢角度θjN1,θjN2を算出して、姿勢分類処理部215aに出力する。姿勢分類処理部215aは、姿勢パラメータ記憶部214aに格納された姿勢パラメータを参照しながら、前述の式(10)で表される姿勢角度θを前述の式(9)に代入することによって、確率Pj(θ)を算出する。そして、姿勢分類処理部215aは、算出されたn個の確率のうち、最も高い値を持つ確率に対応する分類項目を、被験者の姿勢が属する分類項目と判定して出力する。
Next, this process in Process Example 2 is executed in the same manner as in Process Example 1. That is, the feature
式(9)の次元dは、最大で2nとなる。ただし、図25の処理において、共分散行列Ajの固有値λ1,・・・,λdのうち、ステップS166の計算で使用されなかった固有値の個数分だけ(すなわち、2n−b_cだけ)次元dは少なくなる。 The dimension d of Equation (9) is 2n at the maximum. However, in the process of FIG. 25, among the eigenvalues λ 1 ,..., Λ d of the covariance matrix A j , the dimensions are equal to the number of eigenvalues that are not used in the calculation of step S166 (ie, 2n−b_c). d decreases.
ここで、上記のステップS162〜S164の処理では、累積寄与率ξ(b)が閾値ξcを超えないような変数bの最小値(=b_c)が算出される。そして、式(14)により、固有値(λ1,・・・,λd)のうち、先頭からb_c番目までの固有値が抽出され、それ以外の固有値、すなわち、姿勢の分類処理に寄与しない、極端に小さい固有値が、ステップS166での共分散行列の計算の対象から除外される。 Here, in the process at the step S162~S164 the minimum value of the variable b as the cumulative contribution ratio xi] (b) does not exceed the threshold ξ c (= b_c) is calculated. Then, from the eigenvalues (λ 1 ,..., Λ d ), the eigenvalues from the head to the b_c-th eigenvalue are extracted, and the other eigenvalues, that is, the extreme values that do not contribute to the posture classification process are extracted. Eigenvalues that are too small are excluded from the target of the covariance matrix calculation in step S166.
換言すると、姿勢の分類処理に使用されるパラメータの1つである、共分散行列Ajの固有値および固有ベクトルの中から、骨の動きの拘束条件に起因する、背中の傾き方がごく小さい方向に対応する固有値および固有ベクトルが判別される。そして、判別された固有値および固有ベクトルを除外したパラメータを用いて、共分散行列が再計算される。 In other words, from among the eigenvalues and eigenvectors of the covariance matrix A j , which is one of the parameters used for the posture classification process, the direction of the back tilt caused by the constraint condition of the bone motion is extremely small. Corresponding eigenvalues and eigenvectors are determined. Then, the covariance matrix is recalculated using the parameters excluding the determined eigenvalues and eigenvectors.
これにより、背中の傾き方が小さい方向が予測できない場合でも、姿勢の分類精度を向上させることができる。
図26は、処理例3での正解率の算出例を示すグラフである。この図26では、例として、n=2として処理を行った場合に、正解率算出部216によって算出された正解率の例を示す。また、図26には、2つのセンサデバイス110の搭載位置の組み合わせとして、図14に示すセンサ#1とセンサ#2、センサ#1とセンサ#3、センサ#2とセンサ#3のそれぞれの組み合わせで処理を行った場合の正解率を示している。さらに、図26では、参考のために、センサ#1,#2,#3をそれぞれ単独で用いて第2の実施の形態の姿勢分類装置200によって処理された場合の正解率(図15に示した正解率)も示している。
Thereby, even when a direction in which the back tilt is small cannot be predicted, the posture classification accuracy can be improved.
FIG. 26 is a graph illustrating an example of calculating the correct answer rate in Processing Example 3. FIG. 26 shows an example of the correct answer rate calculated by the correct answer
図26に示すように、処理例3によれば、どのセンサデバイス110の組み合わせでも、対応するセンサデバイス110を単独で用いた場合より高い正解率が得られた。また、図18に示した処理例1、および、図21に示した処理例2と比較した場合でも、どのセンサデバイス110の組み合わせでも高い正解率が得られた。
As shown in FIG. 26, according to Processing Example 3, a higher accuracy rate was obtained with any combination of
図27は、分類項目ごとの正解率の算出例を示すグラフである。図27に示す正解率一覧表400では、第2の実施の形態、および、第3の実施の形態のうちの処理例1、処理例2、処理例3のそれぞれについて、分類項目ごとに算出された正解率を示している。なお、分類項目を、図5に示した識別番号によって表している。また、平均値の項目に示した数値は、図15、図18、図21および図26のグラフに示したものである。 FIG. 27 is a graph illustrating an example of calculating the correct answer rate for each classification item. In the accuracy rate list 400 shown in FIG. 27, each of the processing example 1, the processing example 2, and the processing example 3 in the second embodiment and the third embodiment is calculated for each classification item. The correct answer rate is shown. The classification items are represented by the identification numbers shown in FIG. In addition, the numerical values shown in the item of average value are those shown in the graphs of FIGS.
図27に示すように、第2の実施の形態の処理によれば、特にセンサ#1を用いた場合に、13種類すべての分類項目についてある程度、分類処理に成功している。また、処理例1,2,3の順に、全体として13種類の分類項目の分類精度が向上することがわかる。特に、処理例2のセンサ#1,#2の組み合わせ、処理例2のセンサ#2,#3の組み合わせ、および処理例3のすべてのセンサデバイス110の組み合わせで、13種類すべての分類項目について60%以上の正解率が得られた。さらに、処理例3のセンサ#1,#3の組み合わせと、処理例3のセンサ#2,#3の組み合わせは、13種類すべての分類項目について80%以上の正解率が得られた。このように、上記各実施の形態によれば、背中の前後方向や左右方向の傾きだけでなく、背中の湾曲状態に応じた姿勢の分類も行うことが可能になる。
As shown in FIG. 27, according to the processing of the second embodiment, particularly when
<処理例4>
処理例4は、処理例2の処理と処理例3との処理を組み合わせたものである。
図28は、処理例4における姿勢パラメータ算出の処理手順の例を示すフローチャートである。処理例4では、姿勢パラメータの算出処理(図7のステップS12および図9に対応)は、次のように変形される。なお、図28では、図20および図25と同じ処理が行われる処理ステップには同じ符号を付して示し、その説明を省略する。
<Processing example 4>
The process example 4 is a combination of the process of the process example 2 and the process of the process example 3.
FIG. 28 is a flowchart illustrating an example of a processing procedure of posture parameter calculation in Processing Example 4. In the process example 4, the posture parameter calculation process (corresponding to step S12 in FIG. 7 and FIG. 9) is modified as follows. In FIG. 28, processing steps in which the same processing as in FIGS. 20 and 25 is performed are denoted by the same reference numerals, and description thereof is omitted.
まず、拘束条件算出部221は、処理例2の場合と同様に、特徴量算出部212aによって算出された姿勢角度を基に、姿勢の分類処理に寄与しない方向に対応するパラメータがあるかを判定する(ステップS151)。姿勢の分類処理に寄与しない方向に対応するパラメータがある場合、その方向に対応するパラメータ(姿勢角度)が破棄され、姿勢パラメータ算出部213aは、残りの方向に対応するパラメータ(姿勢角度)のみを用いて平均ベクトルおよび共分散行列を算出する(ステップS152,S111b,S111b)。
First, the constraint
一方、ステップS151で姿勢の分類処理に寄与しない方向のパラメータがあると判定されなかった場合には、処理例3と同様の処理が実行される。すなわち、姿勢パラメータ算出部213aによって処理例1と同様の手順で平均ベクトルおよび共分散行列が算出される(ステップS111a,S112a)。拘束条件算出部221は、共分散行列の固有値の中から、累積寄与率の計算に基づいて、姿勢の分類処理に寄与しない固有値を除外する。そして、姿勢パラメータ補正部222は、除外された固有値以外の残りの固有値と、これらの固有値に対する固有ベクトルとを用いて、共分散行列を再計算する(ステップS161〜S166)。
On the other hand, if it is not determined in step S151 that there is a parameter in a direction that does not contribute to the posture classification process, the same process as in process example 3 is executed. That is, the mean vector and the covariance matrix are calculated by the posture
〔第4の実施の形態〕
上記の第2の実施の形態および第3の実施の形態では、センサデバイス110によって測定された測定値が、端末装置120,120aを介して姿勢分類装置200,200aへ送信され、姿勢分類装置200,200aにおいて姿勢パラメータの算出や姿勢分類処理が行われる構成とした。これに対して、第4の実施の形態では、端末装置において、姿勢パラメータの算出や姿勢分類処理が行われる構成とする。
[Fourth Embodiment]
In the second embodiment and the third embodiment described above, the measurement value measured by the
図29は、第4の実施の形態に係る端末装置の構成例を示すブロック図である。図29に示す端末装置120bには、複数のセンサデバイス110が接続されている。また、端末装置120bは、図17に示した姿勢分類装置200aと同様の処理機能を有する。ただし、データ取得部211aは、センサデバイス110によって測定された測定値を、センサデバイス110から直接取得する。
FIG. 29 is a block diagram illustrating a configuration example of a terminal device according to the fourth embodiment. A plurality of
なお、図29では、第3の実施の形態における姿勢分類装置200aの処理機能を端末装置120bに設けたが、第2の実施の形態における姿勢分類装置200の処理機能を端末装置120bに設けてもよい。
In FIG. 29, the processing function of the
また、上記の第2〜第4の実施の形態では、学習処理と本処理とを1つの装置で行う構成としたが、これらの処理はそれぞれ別の装置で行われてもよい。この場合、学習処理が行われた装置で算出された姿勢パラメータが、可搬型の記録媒体あるいはネットワークなどを介して、本処理が行われる装置に入力される。 In the second to fourth embodiments, the learning process and the main process are performed by one apparatus. However, these processes may be performed by different apparatuses. In this case, the posture parameter calculated by the device on which the learning process has been performed is input to the device on which this process is performed via a portable recording medium or a network.
また、上記の各実施の形態に示した装置(情報処理装置1、姿勢分類装置200,200b、端末装置120,120a,120b)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc-Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
In addition, the processing functions of the devices (the
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.
1 情報処理装置
2 測定値取得部
3 パラメータ算出部
4 分類処理部
5 記憶装置
11 被験者
12 センサ
21 パラメータ
22 確率モデル
31 第1の測定値
32 第2の測定値
DESCRIPTION OF
Claims (12)
前記姿勢種類ごとの複数の前記第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを前記姿勢種類ごとに算出して、記憶装置に格納し、
前記第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得し、
前記第2の測定値と、前記記憶装置に格納されたパラメータを基にそれぞれ生成される前記姿勢種類ごとの確率モデルとに基づいて、前記第2の測定値の測定対象の人体の姿勢を、複数種類の前記姿勢種類のいずれかに分類する、
ことを特徴とする姿勢分類方法。 For each posture type that classifies the posture of the human body into a plurality of types, obtain a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions,
Based on the plurality of first measurement values for each posture type, a parameter for generating a probability model of measurement values is calculated for each posture type, and stored in a storage device;
Obtaining a second measured value obtained by measuring the inclination of the human body with respect to the same plurality of directions as the first measured value,
Based on the second measurement value and the probability model for each posture type respectively generated based on the parameters stored in the storage device, the posture of the human body to be measured by the second measurement value is determined. Classify into one of a plurality of types of postures,
A posture classification method characterized by that.
前記姿勢を分類する処理では、前記第2の測定値と、前記姿勢種類ごとの平均ベクトルおよび共分散行列とに基づいて、前記姿勢種類ごとに確率を算出し、測定対象の人体の姿勢を、算出された確率が最も高い前記姿勢種類に分類する、
ことを特徴とする請求項2記載の姿勢分類方法。 The parameters calculated for each posture type are an average vector and a covariance matrix based on the first measurement value for each measured tilt direction,
In the process of classifying the posture, the probability is calculated for each posture type based on the second measurement value, the average vector and the covariance matrix for each posture type, and the posture of the human body to be measured is calculated as follows: Classify into the posture types with the highest calculated probability,
The posture classification method according to claim 2, wherein:
前記第2の測定値の取得では、それぞれ複数方向に対する人体の傾きを測定する、前記第1の測定値の測定の際と同数のセンサによって測定された測定値を取得する、
ことを特徴とする請求項1記載の姿勢分類方法。 In the acquisition of the first measurement value, the measurement value measured by a plurality of sensors each measuring the inclination of the human body with respect to a plurality of directions is acquired,
In the acquisition of the second measurement value, the inclination of the human body with respect to a plurality of directions is measured, and the measurement values measured by the same number of sensors as in the measurement of the first measurement value are acquired.
The posture classification method according to claim 1.
処理をさらに含み、
前記姿勢種類ごとのパラメータの算出では、複数種類の前記姿勢種類のうち一の姿勢種類について前記制限方向が判別された場合には、前記一の姿勢種類に対応する前記第1の測定値のうち、前記制限方向に対する傾きを示す前記第1の測定値を除いた残りの前記第1の測定値を用いて、前記一の姿勢種類に対応するパラメータを算出して前記記憶装置に格納する、
ことを特徴とする請求項4記載の姿勢分類方法。 Based on the plurality of first measurement values for each posture type, a restriction direction in which the inclination of the human body to be measured is limited among the plurality of directions indicated by the first measurement value is determined for each posture type. ,
Further comprising processing,
In the calculation of the parameter for each posture type, when the restriction direction is determined for one posture type among the plurality of posture types, the first measurement value corresponding to the one posture type is calculated. , Using the remaining first measurement values excluding the first measurement value indicating the inclination with respect to the restriction direction, a parameter corresponding to the one posture type is calculated and stored in the storage device.
The posture classification method according to claim 4.
複数種類の前記姿勢種類のうち一の姿勢種類について前記制限方向が判別された場合には、判別された前記制限方向に対する傾きを示すパラメータが除外されるように、前記一の姿勢種類に対応するパラメータを再計算して前記記憶装置に格納する、
処理をさらに含むことを特徴とする請求項4記載の姿勢分類方法。 Based on the parameters calculated for each posture type, for each posture type, determining a restriction direction in which the inclination of the human body to be measured is limited,
When the restriction direction is determined for one of the plurality of posture types, the parameter indicating the inclination with respect to the determined restriction direction is excluded so that the parameter corresponding to the one posture type is excluded. Recalculate the parameters and store them in the storage device;
The posture classification method according to claim 4, further comprising a process.
前記姿勢種類ごとに算出されるパラメータは、測定される傾きの方向ごとの前記第1の測定値に基づく平均ベクトルおよび共分散行列であり、
前記制限方向の判別では、前記姿勢種類ごとに算出された共分散行列の固有値の累積寄与率に基づいて、共分散行列の固有値の中から処理対象の固有値を前記姿勢種類ごとに選択し、
前記パラメータの再計算では、前記一の姿勢種類について処理対象の固有値が選択された場合に、当該選択された固有値と、当該固有値に対する固有ベクトルとを用いて、前記一の姿勢種類に対応する共分散行列を再計算する、
ことを特徴とする請求項6記載の姿勢分類方法。 The probability model for each posture type is a probability model of a measurement value according to a multidimensional normal distribution,
The parameters calculated for each posture type are an average vector and a covariance matrix based on the first measurement value for each measured tilt direction,
In the determination of the restriction direction, based on the cumulative contribution ratio of the eigenvalues of the covariance matrix calculated for each posture type, the eigenvalue to be processed is selected for each posture type from among the eigenvalues of the covariance matrix,
In the recalculation of the parameter, when an eigenvalue to be processed is selected for the one posture type, a covariance corresponding to the one posture type is used by using the selected eigenvalue and an eigenvector for the eigenvalue. Recalculate the matrix,
The posture classification method according to claim 6.
前記測定値取得部が、人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得すると、前記姿勢種類ごとの複数の前記第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを前記姿勢種類ごとに算出して、記憶装置に格納するパラメータ算出部と、
を有することを特徴とする情報処理装置。 A measurement value acquisition unit for acquiring a measurement value obtained by measuring the inclination of the human body with respect to a plurality of directions;
When the measurement value acquisition unit acquires a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions for each posture type obtained by classifying the postures of the human body into a plurality of types, a plurality of the first measurement values for each posture type are obtained. A parameter calculation unit for calculating a parameter for generating a probability model of the measurement value for each posture type based on the measurement value of 1 and storing the parameter in the storage device;
An information processing apparatus comprising:
人体の姿勢を複数種類に分類した姿勢種類ごとに、複数方向に対する人体の傾きを測定した第1の測定値を複数個取得し、
前記姿勢種類ごとの複数の前記第1の測定値を基に、測定値の確率モデルを生成するためのパラメータを前記姿勢種類ごとに算出して、記憶装置に格納する、
処理を実行させることを特徴とするプログラム。 On the computer,
For each posture type that classifies the posture of the human body into a plurality of types, obtain a plurality of first measurement values obtained by measuring the inclination of the human body with respect to a plurality of directions,
Based on the plurality of first measurement values for each posture type, a parameter for generating a probability model of the measurement value is calculated for each posture type and stored in a storage device.
A program characterized by causing processing to be executed.
前記第1の測定値とそれぞれ同じ複数方向に対する人体の傾きを測定した第2の測定値を取得し、
前記第2の測定値と、前記記憶装置に格納されたパラメータを基にそれぞれ生成される前記姿勢種類ごとの確率モデルとに基づいて、前記第2の測定値の測定対象の人体の姿勢を、複数種類の前記姿勢種類のいずれかに分類する、
処理をさらに実行させることを特徴とする請求項11記載のプログラム。 In the computer,
Obtaining a second measured value obtained by measuring the inclination of the human body with respect to the same plurality of directions as the first measured value,
Based on the second measurement value and the probability model for each posture type respectively generated based on the parameters stored in the storage device, the posture of the human body to be measured by the second measurement value is determined. Classify into one of a plurality of types of postures,
The program according to claim 11, further executing a process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013237810A JP6337447B2 (en) | 2013-11-18 | 2013-11-18 | Posture classification method, information processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013237810A JP6337447B2 (en) | 2013-11-18 | 2013-11-18 | Posture classification method, information processing apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015097565A true JP2015097565A (en) | 2015-05-28 |
JP6337447B2 JP6337447B2 (en) | 2018-06-06 |
Family
ID=53374631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013237810A Active JP6337447B2 (en) | 2013-11-18 | 2013-11-18 | Posture classification method, information processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6337447B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210557B2 (en) | 2017-04-10 | 2021-12-28 | Fujitsu Limited | Recognition apparatus, recognition method, and recording medium |
KR102559451B1 (en) * | 2022-06-27 | 2023-07-24 | 영산대학교산학협력단 | Method and system for measuring spine curvature using integrated sensor |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002328134A (en) * | 2001-04-27 | 2002-11-15 | Nec Tokin Corp | Detector for posture condition and azimuth |
JP2004157614A (en) * | 2002-11-01 | 2004-06-03 | Advanced Telecommunication Research Institute International | Behavior analysis system |
JP2005152255A (en) * | 2003-11-25 | 2005-06-16 | Matsushita Electric Works Ltd | Human body posture measuring apparatus |
JP2009039466A (en) * | 2007-08-13 | 2009-02-26 | Advanced Telecommunication Research Institute International | Action identification device, action identification system, and action identification method |
US20100069795A1 (en) * | 2008-09-17 | 2010-03-18 | Industrial Technology Research Institute | Method and system for contour fitting and posture identification, and method for contour model adaptation |
JP2010207488A (en) * | 2009-03-12 | 2010-09-24 | Gifu Univ | Behavior analyzing device and program |
-
2013
- 2013-11-18 JP JP2013237810A patent/JP6337447B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002328134A (en) * | 2001-04-27 | 2002-11-15 | Nec Tokin Corp | Detector for posture condition and azimuth |
JP2004157614A (en) * | 2002-11-01 | 2004-06-03 | Advanced Telecommunication Research Institute International | Behavior analysis system |
JP2005152255A (en) * | 2003-11-25 | 2005-06-16 | Matsushita Electric Works Ltd | Human body posture measuring apparatus |
JP2009039466A (en) * | 2007-08-13 | 2009-02-26 | Advanced Telecommunication Research Institute International | Action identification device, action identification system, and action identification method |
US20100069795A1 (en) * | 2008-09-17 | 2010-03-18 | Industrial Technology Research Institute | Method and system for contour fitting and posture identification, and method for contour model adaptation |
JP2010069282A (en) * | 2008-09-17 | 2010-04-02 | Ind Technol Res Inst | Method and system for detecting posture of fitting contour model and method for posture adaptation |
JP2010207488A (en) * | 2009-03-12 | 2010-09-24 | Gifu Univ | Behavior analyzing device and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210557B2 (en) | 2017-04-10 | 2021-12-28 | Fujitsu Limited | Recognition apparatus, recognition method, and recording medium |
KR102559451B1 (en) * | 2022-06-27 | 2023-07-24 | 영산대학교산학협력단 | Method and system for measuring spine curvature using integrated sensor |
Also Published As
Publication number | Publication date |
---|---|
JP6337447B2 (en) | 2018-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Angelikopoulos et al. | X-TMCMC: Adaptive kriging for Bayesian inverse modeling | |
US11023806B2 (en) | Learning apparatus, identifying apparatus, learning and identifying system, and recording medium | |
Gijsberts et al. | Real-time model learning using incremental sparse spectrum gaussian process regression | |
Bi et al. | Support vector classification with input data uncertainty | |
US11763603B2 (en) | Physical activity quantification and monitoring | |
US8504500B2 (en) | Systems, methods, and apparatus for reconstruction of 3-D object morphology, position, orientation and texture using an array of tactile sensors | |
Leightley et al. | Human activity recognition for physical rehabilitation | |
US20130022277A1 (en) | Facial feature point position correcting device, facial feature point position correcting method, and facial feature point position correcting program | |
US9092737B2 (en) | Systems, methods, and apparatus for 3-D surface mapping, compliance mapping, and spatial registration with an array of cantilevered tactile hair or whisker sensors | |
US20200074161A1 (en) | Object recognition method, device, system, and program | |
US10856850B2 (en) | Information processing apparatus, method, and program for matching target object position between the prone and supine positions obtained by MRI and ultrasound | |
McKee et al. | Direct estimation of the parameters of a delayed, intermittent activation feedback model of postural sway during quiet standing | |
JP6337447B2 (en) | Posture classification method, information processing apparatus, and program | |
Zhou et al. | Learn fine-grained adaptive loss for multiple anatomical landmark detection in medical images | |
Mascret et al. | A wearable sensor network with embedded machine learning for real-time motion analysis and complex posture detection | |
JP6573272B2 (en) | Generating apparatus, generating method, and program | |
AU2019404197B2 (en) | Methods for sensing and analyzing impacts and performing an assessment | |
CN108292437B (en) | Image processing apparatus and method | |
Segura et al. | Analysis of recoverable falls via Microsoft Kinect: Identification of third-order ankle dynamics | |
US20220262013A1 (en) | Method for improving markerless motion analysis | |
US10325367B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US11769349B2 (en) | Information processing system, data accumulation apparatus, data generation apparatus, information processing method, data accumulation method, data generation method, recording medium and database | |
Călin et al. | Improving Movement analysis in physical therapy systems based on kinect interaction | |
Chong et al. | Informative sensor selection and learning for prediction of lower limb kinematics using generative stochastic neural networks | |
Patterson et al. | Online change detection for timely solicitation of user interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6337447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |