JP6530350B2 - Sequential posture identification device, sequential posture identification method, and sequential posture identification program - Google Patents
Sequential posture identification device, sequential posture identification method, and sequential posture identification program Download PDFInfo
- Publication number
- JP6530350B2 JP6530350B2 JP2016126451A JP2016126451A JP6530350B2 JP 6530350 B2 JP6530350 B2 JP 6530350B2 JP 2016126451 A JP2016126451 A JP 2016126451A JP 2016126451 A JP2016126451 A JP 2016126451A JP 6530350 B2 JP6530350 B2 JP 6530350B2
- Authority
- JP
- Japan
- Prior art keywords
- identification
- user
- posture
- unit
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 113
- 230000033001 locomotion Effects 0.000 claims description 116
- 230000001133 acceleration Effects 0.000 claims description 88
- 238000000605 extraction Methods 0.000 claims description 44
- 238000010801 machine learning Methods 0.000 claims description 33
- 230000003068 static effect Effects 0.000 claims description 7
- 206010011985 Decubitus ulcer Diseases 0.000 claims description 5
- 238000002360 preparation method Methods 0.000 claims description 5
- 208000012802 recumbency Diseases 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 256
- 230000008569 process Effects 0.000 description 65
- 238000012545 processing Methods 0.000 description 47
- 238000005259 measurement Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 11
- 230000010355 oscillation Effects 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000000747 cardiac effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000004872 arterial blood pressure Effects 0.000 description 1
- 210000000467 autonomic pathway Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000006806 disease prevention Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
本発明は、逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラムに関する。 The present invention relates to a sequential posture identification device, a sequential posture discrimination method, and a sequential posture discrimination program.
近年、人の身体に装着することができる情報処理端末いわゆるウェアラブル機器(以下、ウェアラブル機器)の利用が広がっている。ウェアラブル機器はユーザが日常的に身に着けて携帯することが可能であるという点から、ユーザの健康状態や生活習慣を継続的・長期的にモニタするためにも利用できる。 BACKGROUND In recent years, the use of information processing terminals so-called wearable devices (hereinafter, wearable devices) that can be worn on a human body is spreading. The wearable device can also be used to monitor the health condition and lifestyle of the user continuously and over the long term, since the user can wear and carry it on a daily basis.
本発明者らは、ウェアラブル機器によってユーザの姿勢や運動状態を検知するとともに、ユーザの生体信号を測定し、姿勢や運動状態と生体信号とを関連づけることで、ユーザの健康管理や疾病予防に結び付けることを検討した。そして、本発明者らは、ウェアラブル機器を用いて逐次姿勢識別を行ったり、自律神経機能情報を取得し評価したりする発明について特許出願を行っている(特願2015−028850号)。 The present inventors detect the posture and exercise state of the user with the wearable device, measure the biological signal of the user, and associate the posture and exercise state with the biological signal, thereby linking the user to health care and disease prevention. We considered that. Then, the present inventors have filed patent applications for inventions that sequentially perform posture identification using wearable devices and acquire and evaluate autonomic nerve function information (Japanese Patent Application No. 2015-028850).
ところで、ウェアラブル機器を用いてユーザの姿勢や運動状態を識別する場合、ユーザ特有の癖等によって識別が難しい姿勢や運動状態が存在することが分かってきた。 By the way, when a user's posture and an exercise state are identified using a wearable device, it has been found that there is a posture and an exercise state which are difficult to identify due to wrinkles and the like unique to the user.
開示の実施形態は、上記に鑑みてなされたものであって、ユーザから測定される情報を用いた逐次姿勢識別の精度向上を実現する技術を提供することを目的とする。 The embodiment of the disclosure is made in view of the above, and an object of the embodiment is to provide a technique for realizing an improvement in accuracy of sequential posture identification using information measured by a user.
開示する逐次姿勢識別装置、方法およびプログラムは、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出し、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成し、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。 The disclosed posture recognition apparatus, method, and program extract a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from acceleration information of a user, and A machine learning based on the feature amounts of 1 creates a discrimination model for identifying the posture and motion state of the user, and based on the discrimination model and the second feature amount, a plurality of corresponding to the posture and motion state of the user The posture of the user for a second predetermined period from a classification that is easily distinguishable to a classification that is difficult to distinguish among a plurality of divisions that are divisions and that include subdivisions corresponding to predetermined dates and times for the same posture and exercise state And by sequentially selecting the sections corresponding to the exercise state, the posture and the exercise state of the user in the second predetermined period are identified.
開示する逐次姿勢識別装置、逐次姿勢識別方法、逐次姿勢識別プログラムは、ユーザから測定される情報を用いた逐次姿勢識別の精度向上を実現するという効果を奏する。 The disclosed sequential posture identification device, sequential posture identification method, and sequential posture identification program have an effect of realizing improvement in accuracy of sequential posture identification using information measured by the user.
以下に、開示する逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、各実施形態は適宜組み合わせることができる。 Hereinafter, embodiments of the disclosed sequential posture identification device, sequential posture identification method, and sequential posture identification program will be described in detail based on the drawings. The present invention is not limited by this embodiment. Moreover, each embodiment can be combined suitably.
(第1の実施形態)
第1の実施形態にかかる逐次姿勢識別装置は、ウェアラブル機器を装着したユーザから計測した加速度情報に基づく逐次機械学習を行うことにより、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。そして、逐次姿勢識別装置は、識別モデルに基づき、ユーザの姿勢および運動状態が、相互に異なる複数の区分に該当すると特定する。逐次姿勢識別装置は、特定した複数の区分を、所定の順序に基づき段階的に選択することで、ユーザの姿勢および運動状態を識別する。
First Embodiment
The sequential posture identification apparatus according to the first embodiment creates a discrimination model for identifying the posture and motion state of the user by performing sequential machine learning based on acceleration information measured from the user wearing the wearable device. . Then, based on the identification model, the sequential posture identification device identifies that the posture and the motion state of the user correspond to a plurality of different segments. The sequential posture identifying apparatus identifies the posture and the motion state of the user by selecting the plurality of identified segments in a stepwise manner based on a predetermined order.
第1の実施形態にかかる逐次姿勢識別装置は特に、静止状態の識別精度を高めるため、静止状態を特定する2つの特定部を設ける。そして、1の特定部が「臥位」と「臥位以外」の2つの状態を区別する。そして他の特定部が「臥位以外」の下位区分である「立位」と「座位」の2つの状態を区別する。このように、第1の実施形態にかかる逐次姿勢識別装置は、複数段階に分けて姿勢および運動状態の特定結果を選択する。つまり、逐次姿勢識別装置は、上段で上位区分についての判定を行い、下位区分について、下段で判定を行う。このため、段数、下位区分の数、区分の種類等の設定を調整することにより、識別しにくい区分について識別精度を向上させることができる。 The sequential posture identification apparatus according to the first embodiment, in particular, is provided with two identification units for identifying the stationary state in order to improve the accuracy of discrimination of the stationary state. And one specific part distinguishes two states of "the recumbent position" and "other than a recumbent position". And another specific part distinguishes two states of "standing" and "sitting" which are subdivisions of "other than a recumbent". As described above, the sequential posture identifying apparatus according to the first embodiment selects the identification results of the posture and the motion state in a plurality of stages. That is, the posture identifying apparatus sequentially performs determination on the upper class in the upper stage, and performs determination in the lower stage on the lower class. For this reason, by adjusting settings such as the number of stages, the number of subdivisions, and the type of division, it is possible to improve the identification accuracy for the difficult to distinguish.
また、第1の実施形態の逐次姿勢識別装置は、静止状態の種類を多段で特定することにより識別精度を向上させる。識別に用いられる特徴量は、静止状態と動作状態との間で大きく異なる。静止状態と動作状態とを1つの識別モデルで識別しようとすると、静止状態と動作状態とのコントラストに隠れて、相対的に相互の差異が小さい静止状態での姿勢の識別が困難となりがちである。また、相対的に差異が小さい姿勢についてさらに詳細に種類分けして識別することが困難である。そこで、第1の実施形態の逐次姿勢識別装置は、コントラストが大きい姿勢や運動状態を先に特定し、コントラストが小さい姿勢や運動状態を分けて特定するよう構成される。たとえば、同じ静止状態であっても、「臥位」と「立位」または「座位」とのコントラストは、「立位」と「座位」との間のコントラストより大きい。そこで、逐次姿勢識別装置は、「臥位」と「臥位以外」の特定と、「立位」と「座位」との特定と、を分けて実行する。 In addition, the sequential posture identification device of the first embodiment improves identification accuracy by specifying the type of stationary state in multiple stages. The feature quantities used for identification differ greatly between the stationary state and the operating state. When trying to distinguish between the stationary state and the operating state by one discrimination model, it tends to be difficult to distinguish the posture in the stationary state, which has a relatively small difference from each other, behind the contrast between the stationary state and the operating state . In addition, it is difficult to further classify and identify postures with relatively small differences. Therefore, the sequential posture identifying apparatus according to the first embodiment is configured to first identify the posture and the motion state with high contrast, and separately identify the posture and the motion state with low contrast. For example, even in the same resting state, the contrast between "recumbent position" and "standing position" or "sitting position" is larger than the contrast between "standing position" and "sitting position". Therefore, the posture recognition apparatus sequentially executes the identification of the “throw position” and the “non-throw position” and the identification of the “standing position” and the “sitting position”.
以下の第1の実施形態においては、識別が困難な区分の例として「立位」と「座位」について説明する。また、「立位」と「座位」の上位区分として「臥位以外」を設定する。なお、「立位」「座位」「臥位」はいずれも静止状態の一種である。なおここで、「区分」は機械学習において用いられる「ラベル」と同様であり、機械学習に基づき入力に対して生成される出力を指す。 In the following first embodiment, “standing position” and “sitting position” will be described as an example of a division that is difficult to identify. In addition, "other than recumbent position" is set as the upper class of "standing position" and "sitting position". Note that "standing position", "sitting position" and "throw position" are all types of stationary states. Here, “division” is the same as “label” used in machine learning, and refers to an output generated for an input based on machine learning.
(第1の実施形態にかかる逐次姿勢識別システム1の構成の一例)
図1は、第1の実施形態にかかる逐次姿勢識別システム1の構成の一例を示す概略図である。図1に示す逐次姿勢識別システム1は、ウェアラブル機器10と、逐次姿勢識別装置20と、を備える。ウェアラブル機器10と逐次姿勢識別装置20とはネットワークを介して通信可能に接続される。
(One Example of Configuration of Sequential
FIG. 1 is a schematic diagram showing an example of the configuration of the sequential
ウェアラブル機器10と逐次姿勢識別装置20とを接続するネットワークの種類は特に限定されず、有線ネットワークでも無線ネットワークでもよい。ただし、ウェアラブル機器10を装着するユーザの行動を妨げないためには、無線ネットワークはたとえば、Bluetooth(登録商標)で接続したスマートフォン等を利用したり、Wi−Fi(登録商標)等を利用することが好ましい。
The type of network connecting the
(ウェアラブル機器10の構成の一例)
ウェアラブル機器10は、ユーザが装着して携帯することができる電子機器である。図1の例では、ウェアラブル機器10はユーザが着脱できるシャツ形状である。ただしウェアラブル機器10の形状はシャツに限定されず、たとえばベルト形状等、ユーザに装着することができれば任意の形状でよい。また、ウェアラブル機器10として、プロセッサやメモリを備えるウェアラブルコンピュータを用い、計測した情報を適宜ウェアラブル機器10内に記憶するように構成してもよい。この場合、以下に説明する各部(加速度情報計測部101、生体信号情報計測部102、送受信部103、入力部104)は、プロセッサの機能として構成してもよい。また、各部の処理に用いられる情報および各部の処理により生成される情報は、メモリに記憶されるものとしてもよい。
(An example of the configuration of the wearable device 10)
The
ウェアラブル機器10は、加速度情報計測部101と、生体信号情報計測部102と、送受信部103と、入力部104と、を備える。
The
加速度情報計測部101は、ユーザの体の動きを検知、計測するセンシングデバイスである。加速度情報計測部101は、ユーザの体の加速度情報を計測する。たとえば、加速度情報計測部101は、ユーザの体幹近傍に配置される加速度センサたとえば3軸加速度センサで構成される。加速度情報計測部101は、前後軸、左右軸、上下軸の3軸にそったユーザの体の動きの加速度を計測する。以下、前後・左右・上下というときは、ウェアラブル機器10をユーザが装着して起立している場合にユーザの体が向く方向を基準とする。
The acceleration
生体信号情報計測部102は、ユーザの体から取得することができる生体信号情報を計測する。生体信号情報計測部102は、たとえば心電位を計測するセンシングデバイスである。生体信号情報計測部102は、たとえば、ユーザの心電位と心拍に関する情報とを計測する。具体的には、生体信号情報計測部102は、一定間隔で単誘導による心電位を計測する。また、生体信号情報計測部102は、たとえば心拍間隔すなわちRR間隔(RR interval)を計測する。このほか、光電脈波等の脈波、生体電気抵抗等の体内インピーダンス、生体微振動や生体圧力変動、血圧計等のカフ圧等の動脈圧等を生体信号として計測してもよい。また、このほか、生体電位、筋電、脳波、誘発電位等も利用できる。
The biological signal
送受信部103は、加速度情報計測部101および生体信号情報計測部102が計測した加速度情報および生体信号情報をウェアラブル機器10の外部に送信する。また、送受信部103は、ウェアラブル機器10の外部から送信される信号を受信する。送受信部103は、加速度情報計測部101および生体信号情報計測部102が情報を取得するとその都度外部に当該情報を送信する。たとえば、送受信部103は、無線通信機能により情報を送信する。具体的には、送受信部103は、加速度情報および生体信号情報を逐次姿勢識別装置20に送信する。
The transmission and
入力部104は、ユーザ等がウェアラブル機器10に入力する情報を受け付ける。たとえば、入力部104は、ユーザ等が入力するラベル(後述)を受け付ける。受け付けられたラベルは送受信部103に送られ、逐次姿勢識別装置20に送信される。逐次姿勢識別装置20は、予め定められた処理手順に基づき、ラベルとその後受信する加速度情報および生体信号情報とを対応づける。なお、ラベルの詳細については後述する。また、ラベルは、入力部104からではなく逐次姿勢識別装置20が備える入力部213(後述)から入力するものとしてもよい。また、ウェアラブル機器10は入力部104を備えない構成としてもよい。また、入力部104は、ユーザ等が後述する学習モードまたは識別モードを選択するためにも用いることができる。
The
(逐次姿勢識別装置20の構成の一例)
逐次姿勢識別装置20は、送受信部201、特徴量抽出部202、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210、識別部211、生成部212および入力部213を備える。なお、逐次姿勢識別装置20が備える各部の機能は、プロセッサ(CPU:Central Processing Unit等)により実現してもよい。
(Example of Configuration of Sequential Pose Identification Device 20)
The
送受信部201は、ウェアラブル機器10の送受信部103から送信される加速度情報および生体信号情報を受信する。送受信部201は、送受信部103が逐次送信する加速度情報および生体信号情報を受信して特徴量抽出部202に送る。
The transmission /
特徴量抽出部202は、加速度情報および生体信号情報の少なくとも一方から、姿勢識別に用いる特徴量を抽出する。抽出された特徴量は、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に送られ、ユーザの姿勢および運動のベースライン情報を取得する学習処理に用いられる。抽出された特徴量はまた、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210に送られ、ユーザの姿勢および運動を識別する識別処理に用いられる。特徴量抽出部202が実行する特徴量抽出処理の詳細については後述する。なお、特徴量抽出部202は独立した構成部とせず、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210各々に特徴量抽出部202の処理を組み入れてもよい。
The feature
第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206は、特徴量を用いて逐次機械学習を行う学習処理を実行する。第1の作成部203は、ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する。第2の作成部204は、ユーザが運動状態にある場合に当該運動の種類を識別するための運動識別モデルを作成する。第3の作成部205は、ユーザが静止状態にある場合に当該静止の種類が「臥位」か「臥位以外」か、を識別するための第1静止識別モデルを作成する。第4の作成部206は、ユーザの姿勢が「臥位以外」である場合に、「立位」か「座位」か、を識別するための第2静止識別モデルを作成する。学習処理によって作成される運動・静止識別モデル、運動識別モデル、第1静止識別モデルおよび第2静止識別モデルは、ユーザの姿勢および運動のベースライン情報となる。学習処理は、かかる識別モデルを作成する処理、すなわちベースライン情報を取得する処理である。学習処理の詳細については後述する。
The first creating
なお、たとえば、第3の作成部205が作成する第1静止識別モデルは、「臥位」として、「伏臥位(うつ伏せ)」「仰臥位(仰向け)」「側臥位(横向き)」のいずれか一部または全部を識別する。第1静止識別モデルは、臥位の各種類も識別できるように作成される。つまり、第1静止識別モデルにより、「伏臥位」「仰臥位」「側臥位」「その他(立位と座位)」を識別することができる。
Note that, for example, the first stationary identification model created by the third creating
また、第4の作成部206が作成する第2静止識別モデルは、「立位」として、「おじぎ」や「上体反らし」等の姿勢も含めて識別するよう作成される。さらに、第2静止識別モデルは、「椅子に座る」「床に座る」も「座位」として識別するよう作成される。 Further, the second stationary identification model created by the fourth creating unit 206 is created to be identified as “standing position”, including postures such as “curly” and “body curl”. Furthermore, the second stationary identification model is created to identify "sit in a chair" and "sit on the floor" as "sit".
第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210は各々、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206が作成した識別モデルと特徴量抽出部202が抽出した特徴量とを用いてユーザの姿勢および運動を特定する。
The first specifying
第1の特定部207は、第1の作成部203が作成した運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する。第2の特定部208は、第2の作成部204が作成した運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する。第3の特定部209は、第3の作成部205が作成した第1静止識別モデルを用いて、ユーザの姿勢が「臥位」か「臥位以外」か、を特定する。第4の特定部210は、第4の作成部206が作成した第2静止識別モデルを用いて、ユーザの姿勢が「立位」か「座位」か、を特定する。第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理の詳細については後述する。
The
識別部211は、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理の結果を、識別が容易な区分から困難な区分へと順番に選択することで、ユーザの姿勢および運動を識別する。識別部211の識別処理の結果、ユーザの姿勢および運動の識別結果が得られる。たとえば、ユーザが「運動」しており「歩行」中である等の識別結果が得られる。識別処理の詳細についても後述する。
The
生成部212は、識別部211の識別結果と、ウェアラブル機器10から受信される生体信号情報と、を時系列的に対応付けた情報を生成する。生成部212は所定の期間中に取得される加速度情報および生体信号情報の少なくとも一方に基づいて識別されるユーザの姿勢および運動と、同じ期間中に取得された生体信号情報と、を対応付けた対応情報を生成する。たとえば、生成部212は、時刻T1からT5の間のユーザの姿勢および運動と、時刻T1からT5の間の当該ユーザの心拍数とを対応付けて対応情報を生成する。生成部212が生成する情報の詳細についても後述する。
The generation unit 212 generates information in which the identification result of the
入力部213は、逐次姿勢識別装置20の外部からの情報入力を受け付ける。入力部213はたとえば、キーボードやタッチパッド等の入力デバイスであってよい。入力部213は、ウェアラブル機器10の入力部104と同様、ユーザ等が後述するラベルを入力するために用いることができる。また、入力部213は、ユーザ等が学習モードまたは識別モードを選択するために用いることができる。
The
(逐次姿勢識別処理の概括的な流れの一例)
図2は、第1の実施形態にかかる逐次姿勢識別処理の流れの一例を示すフローチャートである。処理が開始すると、逐次姿勢識別装置20はモードの選択を受け付ける(ステップS201)。具体的には、学習モードまたは識別モードの選択を受け付ける。ここで、学習モードとは、逐次姿勢識別装置20が学習処理を実行する動作態様である。また、識別モードとは、逐次姿勢識別装置20が識別処理(姿勢特定処理を含む)を実行する動作態様である。なお、図2では説明の便宜上、学習モードまたは識別モードのいずれかを選択する構成としたが、学習処理と識別処理を並行して行うモードをさらに設けて実行できるようにしてもよい。また、学習処理を実行する装置と識別処理を実行する装置とを別体として構成してもよい。
(An example of the general flow of sequential pose identification processing)
FIG. 2 is a flowchart showing an example of the flow of the sequential posture identification process according to the first embodiment. When the process starts, the
次に、逐次姿勢識別装置20は、学習モードが選択されたか否かを判定する(ステップS202)。学習モードが選択されている場合(ステップS202、肯定)、逐次姿勢識別装置20は、ユーザ等が入力するラベルを受信する。ラベルとは、ユーザの「姿勢」および「運動」を特定する情報である。たとえば、ラベルは、「姿勢」として「立位」「座位」「臥位」、「運動」として「運動状態」または「静止状態」の情報を含む。また、「運動」として、「歩行」「跳躍」「足踏み」「ウォーキング」等のラベルも作成できる。ここで、「歩行」は単に日常的な歩行を、「ウォーキング」は積極的に運動として歩いている場合を指す。逐次姿勢識別装置20は、身体の運動状態としては類似する運動について運動強度も判定することによって、日常的な「歩行」と運動としての「ウォーキング」を識別することができる。このように、逐次姿勢識別装置20は、類似する運動であっても強度が異なる運動各々に異なるラベルを付して識別することが可能である。学習処理時には、学習させる情報がどのような「姿勢、運動」の情報であるかを逐次姿勢識別装置20に記憶させるため、特徴量と「姿勢、運動」の2つの情報を含むラベルとを対応づけて処理する。
Next, the
そして、逐次姿勢識別装置20は、ウェアラブル装置10から受信する加速度情報および生体信号情報の少なくとも一方から特徴量を抽出する。受信したラベルと抽出した特徴量とは、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に入力される(ステップS203)。各作成部203,204,205,206は、ラベルが「運動状態」を示すか否かを判定する(ステップS204)。ラベルが「運動状態」を示すと判定した場合(ステップS204、肯定)、第1の作成部203は特徴量に基づく機械学習を行い、運動・静止識別モデルを作成または更新する(ステップS205)。また、第2の作成部204は、特徴量に基づく機械学習を行い、運動識別モデルを作成または更新する(ステップS205)。ラベルが「運動状態」を示すと判定した場合(ステップS204、肯定)、第3の作成部205および第4の作成部206は機械学習を実行しない。
Then, the
ラベルが「静止状態」を示すと判定した場合(ステップS204、否定)、第1の作成部203は特徴量に基づく機械学習を行い、運動・静止識別モデルを作成または更新する(ステップS206)。また、第2の作成部204は、機械学習を実行しない。第3の作成部205および第4の作成部206は、特徴量に基づく機械学習を行い、それぞれ第1静止識別モデルおよび第2静止識別モデルを作成または更新する(ステップS206)。学習モードでの処理はこれで終了する。
When it is determined that the label indicates the "rest state" (No at step S204), the first creating
他方、ステップS202で学習モードが選択されていない、すなわち、識別モードが選択されていると判定されたとする(ステップS202、否定)。この場合、逐次姿勢識別装置20は、ウェアラブル機器10から受信する加速度情報および生体信号情報の少なくとも一方から特徴量を抽出する(ステップS207)。そして、逐次姿勢識別装置20は特徴量を第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に送る。第1の特定部207は、特徴量と既に作成されている運動・静止識別モデルに基づき、ユーザが運動状態か静止状態かを特定する(ステップS208)。第2の特定部208は、特徴量と既に作成されている運動識別モデルに基づき、どのような運動状態であるかを特定する(ステップS209)。第3の特定部209は、特徴量と既に作成されている第1静止識別モデルに基づき、臥位か臥位以外かを特定する(ステップS210)。第4の特定部210は、特徴量と既に作成されている第2静止識別モデルに基づき、立位か座位かを特定する(ステップS211)。
On the other hand, it is assumed that the learning mode is not selected in step S202, that is, it is determined that the identification mode is selected (No in step S202). In this case, the
第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210の特定結果は識別部211に送られ、識別部211は特定結果に基づき、ユーザの姿勢、運動を識別する(ステップS212)。たとえば、識別部211は、その時点のユーザの姿勢および運動は「立位、運動状態」であると識別する。そして、逐次姿勢識別装置20は、識別結果と、識別結果に対応する生体信号情報とを時系列に対応付けた情報を生成する(ステップS213)。これで、識別処理が終了する。識別部211における段階的な識別処理については、以下にさらに説明する。
The identification results of the
(識別処理における特定結果の選択)
図3は、第1の実施形態の逐次姿勢識別処理における段階的判定の流れの一例を示すフローチャートである。図3の処理は、図2のステップS212において実行される。
(Selection of specific result in identification process)
FIG. 3 is a flowchart showing an example of the flow of stepwise determination in the sequential posture identification process of the first embodiment. The process of FIG. 3 is performed in step S212 of FIG.
上述の通り、逐次姿勢識別装置20の識別部211は、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210における特定結果にもとづき、ユーザの姿勢および運動状態を識別する。
As described above, the
識別部211はまず、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210の特定結果を受信する(ステップS31)。識別部211は、第1の特定部207の特定結果は「静止」か否かを判定する(ステップS32)。特定結果が「静止」ではない場合(ステップS32、否定)、識別部211は第2の特定部208の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS33)。他方、第1の特定部207の特定結果が「静止」の場合(ステップS32、肯定)、識別部211は、第3の特定部209の特定結果が「臥位」か否かを判定する(ステップS34)。第3の特定部209の特定結果が「臥位」である場合(ステップS34、肯定)、識別部211は、第3の特定部209の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS35)。他方、第3の特定部209の特定結果が「臥位以外」である場合(ステップS34、否定)、識別部211は、第4の特定部210の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS36)。これで識別部211による処理が終了する。
The
図3に示した識別部211の処理についてさらに、図4を参照して説明する。図4は、第1の実施形態における逐次姿勢識別処理における段階的判定の流れについて説明するための図である。
The process of the
図4に示すように、第1の特定部207は、運動・静止識別モデルに基づき、入力された特徴量が「運動」および「静止」のいずれに該当するか特定する。また、第2の特定部208は、運動識別モデルに基づき、入力された特徴量が「ジャンプ」「歩行」「走行」のいずれに該当するか特定する。第3の特定部209は、第1静止識別モデルに基づき、入力された特徴量が「臥位」および「臥位以外」のいずれに該当するか特定する。また、第4の判定部210は、第2静止識別モデルに基づき、入力された特徴量が「立位」「座位」のいずれに該当するか特定する。各特定部は独立して特定処理を実行し、実行結果である特定結果が、識別部211に送信される。
As shown in FIG. 4, the
識別部211は、第1の特定部207の特定結果が「運動」である場合(図4の(1))、第3の特定部209および第4の特定部210の特定結果に関わらず、第2の特定部208の特定結果を選択し、姿勢および運動状態の識別結果として出力する(図4の(2))。このときは、第2の特定部208の特定結果が「ジャンプ」「歩行」「走行」のいずれであるかに応じて、識別部211の識別結果が決定される。
When the identification result of the
他方、第1の特定部207の特定結果が「静止」である場合(図4の(3))、識別部211は、第3の特定部209の特定結果を参照する(図4の(4))。識別部211は、第3の特定部209の特定結果が「臥位」であれば、第4の特定部210の特定結果に関わらず、「臥位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(5))。他方、識別部211は、第3の特定部209の特定結果が「臥位以外」であれば、第4の特定部210の特定結果を参照する(図4の(7))。そして、第4の特定部210の特定結果が「座位」であれば、識別部211は、「座位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(8))。他方、第4の特定部210の特定結果が「立位」であれば、識別部211は、「立位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(9))。
On the other hand, when the identification result of the
このように、第1の実施形態にかかる逐次姿勢識別処理では、4つの特定部それぞれに姿勢および運動状態を特定させ、識別部211が特定結果を所定の順序で段階的に選択することにより、最終的な逐次姿勢識別結果が出力される。このため、第1の実施形態にかかる逐次姿勢識別装置10は、判定が容易な区分たとえば「運動」と「静止」については上段で判断する。そして、逐次姿勢識別装置10は、判定が困難な区分たとえば「立位」と「座位」については下段で判断する。このため、逐次姿勢識別装置10は、判定容易な識別を先に完了して迅速な処理を実現しつつ、判定困難な識別は、専用の特定部を設けて詳細な特定処理を実行することができる。このため、逐次姿勢識別装置10は、逐次姿勢識別処理の精度を向上させることができる。
As described above, in the sequential posture identification process according to the first embodiment, the posture and the movement state are specified in each of the four specifying units, and the
次に、逐次姿勢識別処理に含まれる特徴量抽出処理、学習処理および識別処理(姿勢特定処理含む)の各々についてさらに説明する。第1の実施形態における特徴量抽出処理の手法は特に限定されない。以下に、特徴量抽出処理の一例について説明する。 Next, each of feature amount extraction processing, learning processing, and identification processing (including posture identification processing) included in the sequential posture identification processing will be further described. The method of the feature quantity extraction process in the first embodiment is not particularly limited. An example of the feature amount extraction process will be described below.
(特徴量抽出処理の一例)
第1の実施形態の逐次姿勢識別装置20では、特徴量抽出部202は、所定の期間において計測された加速度情報および生体信号情報をウェアラブル機器10から受信し、当該所定の期間を重なり合う複数の異なる長さの期間に分割する。そして特徴量抽出部202は、各期間について特徴量を算出する。学習処理および姿勢特定処理においてはこれら複数の特徴量が使用される。なお、第1の作成部203で用いる特徴量およびその抽出サイクル(下記T1〜T4)は、第1の特定部207で用いる特徴量およびその抽出サイクルと同じである。また、第2の作成部204で用いる特徴量およびその抽出サイクルは、第2の特定部208で用いる特徴量およびその抽出サイクルと同じである。また、第3の作成部205で用いる特徴量およびその抽出サイクルは、第3の特定部209で用いる特徴量およびその抽出サイクルと同じである。また、第4の作成部206で用いる特徴量およびその抽出サイクルは、第4の特定部210で用いる特徴量およびその抽出サイクルと同じである。ただし、第1の作成部203が用いる特徴量およびその抽出サイクルと、第2の作成部204が用いる特徴量およびその抽出サイクルと、第3の作成部205が用いる特徴量およびその抽出サイクルと、第4の作成部206が用いる特徴量およびその抽出サイクルは相互に異なってもよい。
(One example of feature quantity extraction processing)
In the sequential
(第1の特徴量)
第1の特徴量として、特徴量抽出部202は、T1秒間における各軸の加速度情報の時系列集合における基本統計量を算出する。たとえば、最大値、最小値、平均値および分散値のうち少なくとも1つを算出する。たとえば、T1=0.4秒として、0.4秒間に各軸について10個の加速度情報が計測されるとする。この場合、特徴量抽出部202は、各軸についての10個の情報の基本統計量を各軸の特徴量として抽出する。
(First feature amount)
As the first feature quantity, the feature
(第2の特徴量)
第2の特徴量として、特徴量抽出部202は、T2秒間(ただし、T1<T2)における各軸の加速度情報の時系列集合における基本統計量を算出する。たとえば、最大値、最小値、平均値および分散値のうち少なくとも1つを算出する。たとえば、T2=2秒とする。
(Second feature)
As the second feature quantity, the feature
(第3の特徴量)
第3の特徴量として、特徴量抽出部202は、T3秒間(ただし、T2<T3)における各軸の揺れ数、全体の揺れ数の平均値および分散値、または生体信号情報から抽出される心拍間隔の平均値および分散値のうち少なくとも1つを算出する。揺れ数とは、ユーザの体の振動数に対応する特徴量である。揺れ数の検出手法については以下に詳述する。
(Third feature amount)
As the third feature amount, the feature
(第4の特徴量)
第4の特徴量として、特徴量抽出部202は、T4秒間(ただし、T3<T4)における各軸の揺れ数、全体の揺れ数の基本統計量、または生体信号情報から抽出される心拍間隔の基本統計量のうち少なくとも1つを算出する。基本統計量としては、たとえば、最大値、最小値、平均値および分散値が挙げられる。
(4th feature amount)
As the fourth feature amount, the feature
なお、心拍間隔から算出される特徴量は、心拍間隔の平均値や分散値に限定されない。たとえば、心拍数の基本統計量を特徴量として算出してもよい。また、第1、第2、第3および第4の特徴量としては、上述した特徴量のうちすべてを使用せずともよく、識別する姿勢および運動に依存して、一部の特徴量のみを使用する。 In addition, the feature value calculated from the heartbeat interval is not limited to the average value or the variance value of the heartbeat interval. For example, a basic statistic of heart rate may be calculated as a feature. In addition, as the first, second, third and fourth feature quantities, it is not necessary to use all of the above-mentioned feature quantities, and depending on the posture and motion to be identified, only some of the feature quantities use.
(揺れ数の検出手法)
次に、揺れ数の検出手法につき説明する。ここで、「揺れ数」とは、体の上下方向ならば歩数やジャンプ回数など体の振動数と同様の意味を持つ回数である。揺れ数を姿勢識別のための特徴量として用いることで、ユーザの身体の傾きの程度や振動すなわち揺れを考慮した識別モデルを作成して詳細な姿勢および運動の識別を実現することができる。
(Detection method of swing number)
Next, a method of detecting the number of swings will be described. Here, the “number of swings” is the number of steps having the same meaning as the number of vibrations of the body, such as the number of steps and the number of jumps in the vertical direction of the body. By using the number of swings as a feature amount for posture identification, it is possible to create a discrimination model in consideration of the degree of tilt of the user's body and vibration, that is, vibration, and to realize detailed posture and motion identification.
揺れ数を特徴量として用いる場合、加速度情報計測部101は、ウェアラブル機器10を装着するユーザの身体の揺れを計測するため、少なくとも3軸加速度センサ等の加速度センサを備える。たとえば3軸加速度センサを用いる場合、X,Y,Z軸の3軸(図5参照)において加速度センサが受ける加速度を測定することができる。
When using the number of swings as the feature amount, the acceleration
図5は、逐次姿勢識別処理において用いる特徴量のうち揺れ数の検出手法について説明するための図である。ユーザが姿勢を変えたり運動したりして加速度センサが傾くと、加速度センサが検知する重力加速度が変化する。これによって加速度センサの傾きすなわちユーザの身体の傾きを検知することができる。また、加速度センサが検知するX,Y,Z軸各々における加速度の合成加速度が変化することで、加速度センサすなわちユーザの身体の揺れの程度を検知することができる。たとえば、図5は、ユーザが歩行中に加速度センサによって検知される3軸加速度および合成加速度の計測値の一例を示すグラフである。 FIG. 5 is a diagram for describing a method of detecting the number of oscillations among feature amounts used in the posture recognition process. When the user changes the posture or moves and the acceleration sensor is tilted, the gravitational acceleration detected by the acceleration sensor changes. Thus, the inclination of the acceleration sensor, that is, the inclination of the user's body can be detected. Further, by changing the synthetic acceleration of the acceleration in each of the X, Y, Z axes detected by the acceleration sensor, it is possible to detect the acceleration sensor, that is, the degree of shaking of the user's body. For example, FIG. 5 is a graph showing an example of measurement values of three-axis acceleration and synthetic acceleration detected by the acceleration sensor while the user is walking.
上記のように加速度センサによって得られる計測値を用いて揺れ数を検出する。揺れ数検出の手法の一例を以下に説明する。 The swing number is detected using the measurement value obtained by the acceleration sensor as described above. An example of the method of swing number detection will be described below.
まず、以下の式(1)に基づき合成加速度Arを算出する。
式(1)で定義する合成加速度Arによれば、各軸方向に対しての揺れが等しく検知でき、センサの回転等の動きがあった場合には合成加速度がほぼ変わらない。図6は、センサを回転させた場合の加速度と合成加速度の一例を示すグラフである。図6の例では、Z軸方向の回転運動が生じているが、合成加速度はほぼZ軸の計測値に追従する。 According to the synthetic acceleration A r as defined in formula (1), can shake equal detection for each axis direction, it does not change substantially synthesis acceleration when there is a movement such as rotation of the sensor. FIG. 6 is a graph showing an example of the acceleration and the synthetic acceleration when the sensor is rotated. In the example of FIG. 6, the rotational movement in the Z-axis direction occurs, but the combined acceleration substantially follows the measurement value of the Z-axis.
次に、合成加速度Arが所定の下限閾値θbtmを下回るとき、その時の合成加速度Abtmを記録する。そして、下限閾値θbtmを下回る合成加速度Abtmが記録されてから所定の上限時間tw内に、合成加速度Arが所定の上限閾値θtopを上回るとき、その時の合成加速度Atopを記録する。この処理によって短時間内に合成加速度の値が大きく変化している期間を検出する。 Next, when the combined acceleration A r is below a predetermined lower threshold value theta btm, records the resultant acceleration A btm at that time. Then, the resultant acceleration A btm below the lower threshold theta btm is recorded a predetermined upper limit time in t w, when the combined acceleration A r exceeds a predetermined upper limit threshold value theta top, records the resultant acceleration A top at that time . By this processing, a period in which the value of the synthetic acceleration changes significantly within a short time is detected.
次に記録したAbtmとAtopとの差が所定の揺れ検知閾値θampより大きいか否かを判定する。差が揺れ検知閾値θampより大きい場合、揺れ数1とカウントする。そして、AbtmとAtopをリセットする。また、所定の上限期間tw内に揺れ数がカウントされなかった場合もAbtmおよびAtopをリセットする。 The difference between the recorded A btm and A top then is equal to or greater than a predetermined shake detection threshold theta # 038. If the difference is larger than the shake detection threshold θ amp , the number of shakes is counted as 1. Then, reset A btm and A top . Also, if the number of oscillations is not counted within the predetermined upper limit period t w , A btm and A top are reset.
以上の処理によって、長時間一定方向に強い加速度がかかっている場合は揺れ数としてカウントされず、加速度の方向が急に変化する身体の揺れを正確に検出できる。 By the above processing, when strong acceleration is applied in a constant direction for a long time, it is not counted as the number of swings, and it is possible to accurately detect body shake in which the direction of acceleration changes rapidly.
なお、揺れ数の検出手法としては、(1)回転や長期的な変化は揺れとして検出されず、(2)一定の量加速度が変化しなければ揺れとして検出されず、(3)どの軸方向でも同様のアルゴリズムで検知でき、(4)ピエゾ式センサすなわち角速度等を検知できないセンサでも検知可能であれば、特に限定なく任意の手法を用いることができる。このように、揺れ数は、合成加速度特定の動作によらず前後方向や左右方向にいずれの方向であっても区別なく算出する。第1の実施形態にかかる特徴量抽出部202は、T3を数分割した小フレームに区切って各小フレーム内の揺れ数に基づいて分散値や平均値を算出する。
As a method of detecting the number of swings, (1) rotation or long-term change is not detected as a swing, and (2) a certain amount of acceleration is not detected as a swing unless it changes, and (3) which axial direction However, any method can be used without particular limitation as long as it can be detected by the same algorithm and (4) a piezoelectric sensor, that is, a sensor which can not detect angular velocity or the like. As described above, the number of oscillations is calculated regardless of the operation of the synthetic acceleration regardless of the direction in the front-rear direction or the left-right direction. The feature
また、「各軸の揺れ数」とは、揺れ数を検知したときに最もその揺れに影響を及ぼした軸のみをカウントして得られる数である。たとえば、上記の手法によって揺れ数がカウントされた時の合成加速度を構成している成分のうち最も大きい加速度が計測された軸を検出する。そして、この軸における揺れ数を1とカウントする。たとえば、揺れ数1がカウントされた時の各軸の加速度のうち最も大きい加速度がZ軸から検出されている場合、Z軸の揺れ数1とカウントする。Z軸の揺れは、たとえばユーザが歩行しているときの揺れや、ユーザがジャンプした場合などに検出される。このため、Z軸の揺れ数に基づいて「歩行」等の運動を検出することができる。
Further, “the number of swings of each axis” is a number obtained by counting only the axis that most affected the swing when detecting the number of swings. For example, among the components constituting the composite acceleration when the number of swings is counted by the above-described method, the axis where the largest acceleration is measured is detected. Then, the number of vibrations on this axis is counted as 1. For example, when the largest acceleration among the accelerations of the respective axes when the number of
なお、第1の実施形態に係る逐次姿勢識別装置20は、機械学習モデルを採用しているため、各特徴量に対する重みづけは自動的に行う。
In addition, since the sequential
(学習処理の流れの一例)
図7は、第1の実施形態にかかる逐次姿勢識別装置20による逐次姿勢識別処理のうち学習処理の流れの一例を示す概略図である。図7を用いて、具体的な学習処理の例を説明する。
(One example of the flow of learning process)
FIG. 7 is a schematic diagram showing an example of the flow of learning processing in the sequential posture identification processing by the sequential
逐次姿勢識別装置20において最初に機械学習を実行する際および追加で機械学習を実行する際は、ユーザが学習モードを選択する等して学習処理の実行開始を逐次姿勢識別装置20に指示する(ステップS300)。そして、ユーザは姿勢の登録を行う。すなわち、ユーザはラベルを入力する。つまり、ユーザは、機械学習させる動作を識別する情報(「姿勢Aの名前」)と、当該動作の「姿勢」と、当該動作が「運動状態」と「静止状態」のいずれに該当するかの情報と、を逐次姿勢識別装置20に入力する(「姿勢Aの登録準備」、ステップS301)。たとえば図7の例では、「姿勢Aの名前」として「座る」を入力する。座っている状態は「静止状態」であるので「止まっている」という運動状態を示す情報を併せて入力する。図7の例では、これによって「座る」という姿勢を識別する。さらに細かな状態を識別する場合は、ラベルが示す姿勢および運動状態の分類を調整して対応する。たとえば、「座る」という名前に対応して、「姿勢:座位」「運動状態:静止」という情報を入力してもよい。また、「跳躍」という名前に対応して、「姿勢:立位」「運動状態:上下躍動」等としてもよい。入力はウェアラブル機器10の入力部104から行うようにしても逐次姿勢識別装置20の入力部213から行うようにしてもよい。ラベルは、機械学習を行わせる動作の各々について入力し逐次姿勢識別装置20に取得させ記憶させる(ステップS302)。
When performing machine learning first and subsequent machine learning in the
ラベルの入力後、ユーザは入力したラベルに対応する動作の機械学習開始を逐次姿勢識別装置20に指示する(「姿勢A 開始」、ステップS303)。例えば、逐次姿勢識別装置20の入力部213に開始ボタンや終了ボタンを設けておき、機械学習開始時は、ユーが開始ボタンを押下する。そして、ユーザは、入力したラベルに対応する動作を開始する。ユーザの指示入力によって、逐次姿勢識別装置20において学習モードが起動する(ステップS304)。そして、逐次姿勢識別装置20の特徴量抽出部202は特徴量抽出処理を実行する(ステップS305)。特徴量抽出処理は上述したように各特徴量について予め定められた期間(T1〜T4)ごとに繰り返される。
After inputting the label, the user sequentially instructs the
特徴量が抽出されると、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に特徴量が送られる。そして、第1の作成部203は、入力されたラベル(たとえば「座る:止まっている」)に基づき、ラベルで指定された「運動状態」または「静止状態」のデータとして(たとえばラベルが「座る:止まっている」であれば「静止状態」)、入力される特徴量の機械学習を行う(ステップS306)。図7の例では、機械学習は特徴量が抽出される時間T1秒ごとに実行される。なお、T1秒より短い抽出サイクルで抽出される特徴量はスライド入力されることになる。機械学習の実行サイクルは、加速度情報計測部101および生体信号情報計測部102の計測サイクルに応じて設定すればよい。
When the feature amount is extracted, the feature amount is sent to the first creating
第2の作成部204も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であるため、動作状態の識別モデルを作成する構成要素である第2の作成部204は機械学習は行わず待機する(ステップS307)。
Similarly, the second creating
第3の作成部205も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であるため、第3の作成部205は、「静止状態」のうち、「臥位以外」に対応する特徴量として、入力される特徴量の機械学習を行う(ステップS308)。
Similarly, the third creating
第4の作成部206も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であり、「臥位以外」のうち「座位」に対応する。このため、第4の作成部206は、「静止状態」、「臥位以外」のうち「座位」に対応する特徴量として、入力される特徴量の機械学習を行う(ステップS309)。 Similarly, the fourth preparation unit 206 executes processing based on the input label (for example, “sit: stop”). In the example of FIG. 7, the input label is “sitting: stopped”, that is, “resting state”, and corresponds to “sitting” out of “other than lying”. Therefore, the fourth creating unit 206 performs machine learning of the input feature amount as the feature amount corresponding to the "sitting position" among the "rest state" and the "other than lying position" (step S309).
ユーザ側ではラベルで指定した動作が完了すると、当該動作の機械学習の終了を逐次姿勢識別装置20に指示する(「姿勢A 終了」、ステップS310)。たとえば、ユーザは、入力部213の終了ボタンを押下する。ユーザの指示に応じて、逐次姿勢識別装置20は学習モードを停止する(ステップS311)。そして、ユーザは次に機械学習させる姿勢Bの登録の準備を開始する(ステップS312)。以上が逐次姿勢識別処理における学習処理の一例の流れである。
When the operation specified by the label is completed on the user side, the
学習処理において使用するラベルは、識別の対象とする動作の姿勢および運動状態を示すものであり、たとえば「歩く」「ジャンプする」「座る」「立つ」「うつ伏せになる」「仰向けになる」等と、それが運動状態であるか静止状態であるかの表示を含む。 The label used in the learning process indicates the posture and motion state of the motion to be identified. For example, "walk", "jump", "sit", "stand up", "becoming prone", "becoming supple", etc. And an indication of whether it is in motion or at rest.
(識別処理の流れの一例)
図8は、第1の実施形態にかかる逐次姿勢識別装置20による逐次姿勢識別処理のうち識別処理(姿勢特定処理含む)の流れの一例を示す概略図である。次に、図8を参照しつつ、姿勢特定処理および識別処理について具体的な一例を説明する。なお、第1の実施形態にかかる逐次姿勢識別装置20は、図8に示す姿勢特定処理および識別処理を実行中であっても、並行して図7の学習処理を実行し、適宜識別モデルを更新していくことができる。
(An example of the flow of identification processing)
FIG. 8 is a schematic diagram showing an example of the flow of identification processing (including attitude identification processing) in the sequential attitude identification processing by the sequential
識別処理を開始するときは、ユーザがまず逐次姿勢識別装置20に対して識別処理を開始する旨の指示を入力する(ステップS401)。たとえば、ユーザは、識別モードを選択する旨の入力を行う。ユーザの入力に応じて、逐次姿勢識別装置20は、識別モードを起動する(ステップS402)。識別モード起動時には、特徴量抽出部202が抽出する特徴量が第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に入力される。そして、ユーザは学習モード時とは異なり、ラベルの指定入力はおこなわず直ちに任意の動作を開始する(「姿勢A 開始」、ステップS403)。たとえば、ユーザは「座っている」という動作を開始する。ユーザが装着するウェアラブル機器10はユーザの加速度情報と生体信号情報とを計測して逐次姿勢識別装置20に送信する。そして、逐次姿勢識別装置20は、受信した加速度情報および生体信号情報の少なくとも一方に基づき特徴量を抽出する(ステップS404)。特徴量抽出処理は前述のとおり、各特徴量について予め決められた期間ごとに実行される。抽出された特徴量は第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に入力される。
When the identification process is started, the user sequentially inputs an instruction to start the identification process to the posture identification device 20 (step S401). For example, the user makes an input to select the identification mode. In response to the user's input, the
第1の特定部207は、入力された特徴量と第1の作成部203により作成済の運動・静止識別モデルに基づき、現在の特徴量が運動状態と静止状態のいずれに該当するかを特定する。図8の例では、第1の特定部207は、入力された特徴量に対応する状態は「静止状態」(すなわち「止まっている」)であると特定する(ステップS405)。
The first specifying
第2の特定部208は、入力された特徴量と第2の作成部204により作成済の運動識別モデルに基づき、現在の特徴量は運動状態のうち、「歩いている」に該当すると特定する(ステップS406)。
The second identifying
第3の特定部209は、入力された特徴量と第3の作成部205により作成済の第1静止識別モデルに基づき、現在の特徴量は静止状態のうち、「臥位以外」に該当すると特定する(ステップS407)。
The third identifying
第4の特定部210は、入力された特徴量と第4の作成部206により作成済の第2静止識別モデルに基づき、現在の特徴量は「静止状態、臥位以外」のうち、「座位」に該当すると特定する(ステップS408)。図8の例では、T1秒ごとに姿勢特定処理が繰り返し実行される。
The fourth identifying
第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理が完了すると、各特定結果が識別部211に送られる。そして、識別部211は、4つの特定結果を統合して最終的な識別結果を出力する。具体的には、識別部211はまず、第1の特定部207による特定結果を参照する(第1段目、ステップS409)。そして第1の特定部207による特定結果が「止まっている」すなわち「静止状態」であるため、識別部211は、第1静止識別モデルによる特定を実行する第3の特定部209の特定結果「臥位以外」を採用(第2段目、ステップS409)する。さらに、識別部211は、「臥位以外」の下位区分を特定する第4の特定部210の特定結果を参照する。そして、識別部211は、第4の特定部210の特定結果「座位」を採用(第3段目、ステップS409)する。これによって、識別部211は、ユーザの姿勢および運動状態を「座位」と識別する。
When the posture specifying process by the first specifying
このように識別処理においては、識別部211は、第1段階として特徴量が「運動状態」と「静止状態」のいずれに該当するか(第1の特定部207の特定結果)をチェックする。そして、第1段階の結果が「運動状態」の場合には、識別部211は、運動状態の種類を特定した特定結果(第2の特定部208の特定結果)を第2段階として選択する。他方、第1段階の結果が「静止状態」の場合には、識別部211は、静止状態のうち、「臥位」と「臥位以外」という区分のいずれかを特定する特定結果(第3の特定部209の特定結果)を第2段階として選択する。さらに下位区分が設定されている「臥位以外」が第2段階において選択された場合、識別部211は、「臥位以外」の下位区分「座位」または「立位」(第4の特定部210の特定結果)を第3段階として選択する。他方、下位区分が設定されていない「臥位」が第2段階において選択された場合、識別部211は、第2段階で処理を終了し「臥位」を識別結果として選択する。このように識別部211は、下位区分が設定されていない区分まで段階的に選択処理を進め、選択処理において到達した最も下位の区分を識別結果として出力する。
As described above, in the identification process, the
ユーザは別の動作に移行するときは特に逐次姿勢識別装置20に対する入力は行わず、異なる動作に移行する(「姿勢A終了、姿勢B開始」、ステップS410)。ユーザの動作変化に応じて、逐次姿勢識別装置20に送信される加速度情報および生体信号情報が変動し、特徴量が変動する。これによって、逐次姿勢識別装置20がT1ごとに実行する識別処理(姿勢特定処理含む)の結果に姿勢変動が反映されていく。
When the user shifts to another operation, the user does not perform input to the
このように、第1の実施形態にかかる逐次姿勢識別装置20は、ユーザの姿勢や運動状態を識別する。そして、逐次姿勢識別装置20の生成部212は、識別した姿勢や運動状態と、生体信号情報の変動を対応づけることで、ユーザの健康状態の判断に利用できる情報を生成する。
As described above, the sequential
(変形例)
上記の逐次姿勢識別処理においては、第1の特定部207が運動状態と静止状態とを特定し、第2の特定部208が運動状態の種類を特定し、第3の特定部209が臥位と臥位以外とを特定し、第4の特定部210が立位と座位とを特定するものとした。これに限らず、各特定部が特定する姿勢および運動状態の種類をさらに細分化して設定することもできる。
(Modification)
In the above-described sequential posture identification processing, the
たとえば、識別モデルを作成する際に、特定の時間に計測された加速度情報に基づく姿勢ラベルを、他の時間に計測された加速度情報に基づく同一の姿勢ラベルと区別して機械学習させる。たとえば、朝の8時に計測された加速度情報に基づく「座位」と、夜の9時に計測された加速度情報に基づく「座位」と、を区別して機械学習させる。同じ姿勢であっても、当該姿勢のときに測定される加速度情報は、測定する日時等によって変化すると考えられる。たとえば、朝、ユーザが活発に活動している時間帯の「立位」と、夜中にユーザが疲労してぼんやりしているときの「立位」とは、計測される加速度情報に差異が生じると考えられる。そこで、より精度の高い逐次姿勢識別処理を実現するためには、日時等によって生じる同じ姿勢の間の変化も加味して処理を実行することが有用と考えられる。 For example, when creating the identification model, the posture label based on the acceleration information measured at a specific time is machine-trained in distinction from the same posture label based on the acceleration information measured at another time. For example, machine learning is performed by distinguishing “sitting” based on acceleration information measured at 8 o'clock in the morning and “sitting” based on acceleration information measured at 9 o'clock at night. Even if the posture is the same, it is considered that the acceleration information measured in the posture changes depending on the date and time of measurement. For example, in the morning, there is a difference in measured acceleration information between the “standing position” of the time when the user is actively active and the “standing position” when the user is tired and vague during the night it is conceivable that. Therefore, in order to realize a more accurate sequential posture identification process, it is considered useful to execute the process in consideration of the change between the same posture caused by the date and time.
また、人の動作や運動状態は季節や気候など、他の要因によっても変動すると考えられる。したがって、一日のうちどの時間か、に応じて姿勢ラベルを作成するだけでなく、どの季節か、どのような気候か、気温はどの程度か、等に応じて同じ姿勢や運動状態であっても異なるラベルを作成することが有用と考えられる。また、逐次姿勢識別装置20は、ユーザの健康状態に応じたラベルに基づいて機械学習を実行するように構成してもよい。たとえば、逐次姿勢識別装置20は、怪我をしたユーザの「回復前の立位」、「回復中の立位」、「回復後の立位」等のラベルに基づいて機械学習を実行するように構成してもよい。
In addition, it is thought that human movement and movement state also fluctuate due to other factors such as season and climate. Therefore, in addition to creating a posture label according to which time of day, it is the same posture or movement state according to which season, what kind of climate, how much temperature, etc. It is also considered useful to create different labels. In addition, the
そこで、変形例として、第4の特定部210が特定する「立位」と「座位」のそれぞれについて複数のラベルを準備する。図9は、変形例にかかる逐次姿勢識別処理における判定について説明するための図である。図9に示すように、変形例では、「立位A」、「立位B」、「立位C」等として、異なる時間帯に対応する立位を特定するよう、第4の特定部210を構成する。さらに、「座位A」、「座位B」、「座位C」等として、異なる時間帯に対応する座位を特定するよう、第4の特定部210を構成する。この場合、第4の作成部206は、第4の特定部210で特定する各ラベルに対応する識別モデルを作成する。
Therefore, as a modification, a plurality of labels are prepared for each of the "standing position" and the "sitting position" specified by the fourth specifying
図9の例では、不明な姿勢の加速度情報が入力されると(図9の(1))、識別部211はまず、第1の特定部207の特定結果が静止状態か運動状態かを特定する。第1の特定部207の特定結果が「運動状態」(図9の(2)、「動作」)であれば、識別部211は、第2の特定部208の特定結果(図9の(3)、「動作A」または「動作B」)を採用する。他方、第1の特定部207の特定結果が「静止状態」(図9の(4)、「静止」)であれば、識別部211は、第3の特定部209の特定結果(図9の(5)(6)、「臥位」または「その他」)を採用する。第3の特定部209の特定結果が「臥位」の場合(図9の(5))、識別部211は、それより下位の区分はないため、「臥位」を採用する。第3の特定部209の特定結果が「その他」の場合(図9の(6))、識別部211は、さらに下位の区分の特定を行う第4の特定部210の特定結果を採用する(図9の(7)、(8))。第4の特定部210は、「立位A」「立位B」「立位C」と特定された加速度情報をすべて「立位」と特定し、「座位A」「座位B」「座位C」と特定された加速度情報をすべて「座位」とし特定する。識別部211は、第4の特定部210の特定結果を採用して、識別結果として出力する。
In the example of FIG. 9, when acceleration information of an unknown posture is input ((1) in FIG. 9), the
このように、逐次姿勢識別装置は、識別が困難なラベル(たとえば「立位」と「座位」)各々について、異なる時点のデータに異なるラベルを付して機械学習を実行し、識別処理を実行することで、識別が困難な姿勢や運動状態であっても網羅的に検知することができる。すなわち、逐次姿勢識別装置は、「立位A」「立位B」「立位C」を全て同じ「立位」と特定するため、姿勢の微妙な変化を考慮しつつ、同じ上位区分に分類できる姿勢および運動状態を網羅的に検知することができる。 In this way, the posture identification device sequentially performs machine learning by performing different types of data at different points in time for each of the labels (for example, "standing position" and "sitting position") that are difficult to identify, and performs identification processing By doing this, it is possible to comprehensively detect even postures and exercise states that are difficult to identify. That is, in order to identify "standing position A", "standing position B" and "standing position C" as the same "standing position" sequentially, the posture recognition device classifies them into the same upper class while considering subtle changes in the posture. It is possible to comprehensively detect possible postures and motion states.
なお、ここでは、所定時間帯の姿勢に対して一つのラベルを付すものとしたが、これに限らず、同一の姿勢が一定期間離れて複数検知された場合には常に異なるラベルを付して区別するようにしてもよい。 In this case, although one label is attached to the attitude of the predetermined time zone, the present invention is not limited to this, and when a plurality of same attitudes are detected at predetermined intervals, different labels are always attached. You may make it distinguish.
また、上記の例では、立位と座位について複数のラベルを作成する例を説明したが、これに限らず、任意の姿勢および運動状態について時間や季節等ごとに異なるラベルを作成してもよい。 In the above example, an example of creating a plurality of labels for standing and sitting positions has been described. However, the present invention is not limited to this, and different labels may be created for each posture and exercise state every time or season. .
(第1の実施形態の効果)
上記のように、第1の実施形態にかかる逐次姿勢識別装置は、抽出部と、作成部と、識別部と、を備える。抽出部は、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する。作成部は、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。識別部は、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このため、逐次姿勢識別装置は、特定部が特定する区分を柔軟に設定して、ユーザの姿勢および運動状態を識別することができる。また、逐次姿勢識別装置は、所定の時間の姿勢および運動状態に対応する区分を含むユーザの姿勢および運動状態に対応する複数の区分から、ユーザの姿勢および運動状態を特定する。このため、所定の時間に対応する姿勢および運動状態と、他の時間に対応する姿勢および運動状態を区別して識別精度を向上させることができる。また、逐次姿勢識別装置は、識別が容易な区分から識別が困難な区分へと、区分を順番に選択する。このため、逐次姿勢識別装置は、容易に識別できる区分について処理時間を増加させることなく、迅速な識別を実現することができる。このため、識別が容易な区分については迅速に識別結果を得ることができる。
(Effects of the first embodiment)
As described above, the sequential posture identification apparatus according to the first embodiment includes the extraction unit, the creation unit, and the identification unit. The extraction unit extracts a first feature amount corresponding to a first predetermined period and a second feature amount corresponding to a second predetermined period from the acceleration information of the user. The creation unit creates a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount. The identification unit is a plurality of sections corresponding to the posture and motion state of the user based on the identification model and the second feature amount, and includes a plurality of sub-divisions corresponding to predetermined dates and times for the same posture and motion state. Of the categories, from the easy to distinguish category to the difficult category to distinguish, by sequentially selecting the category corresponding to the posture and exercise state of the user in the second predetermined period, the user of the second predetermined period Identify posture and motion status. For this reason, the posture identification apparatus can set the category specified by the identification unit flexibly to identify the posture and motion state of the user. Also, the sequential posture identification device identifies the posture and motion state of the user from a plurality of segments corresponding to the posture and motion state of the user including the segments corresponding to the posture and motion state of a predetermined time. For this reason, it is possible to distinguish between the posture and motion state corresponding to a predetermined time and the posture and motion state corresponding to another time to improve identification accuracy. In addition, the posture identification apparatus sequentially selects sections from easy-to-identify sections to difficult-to-identify sections. For this reason, the posture identification apparatus can realize quick identification without increasing the processing time for easily identifiable segments. For this reason, it is possible to quickly obtain an identification result for a segment that is easy to identify.
また、第1の実施形態にかかる逐次姿勢識別装置において、識別部は、複数の区分のうち上位区分から下位区分へと区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このため、逐次姿勢識別装置は、識別がより容易な区分から始めて迅速に識別を行うことができる。 Further, in the sequential posture identification apparatus according to the first embodiment, the recognition unit selects the classification from the upper classification to the lower classification in order among the plurality of classifications, thereby determining the posture of the user in the second predetermined period and Identify exercise status. For this reason, the posture identification apparatus can perform identification rapidly, starting from a segment that is easier to identify.
また、第1の実施形態にかかる逐次姿勢識別装置は、識別モデルと第2の特徴量とに基づき、第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の時間の姿勢および運動状態に対応する区分を含む複数の区分の中から各々特定する4以上の特定部をさらに備える。そして、識別部は、4以上の特定部が特定した区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する1の区分を少なくとも3段階で順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このように、逐次姿勢識別装置は、4以上の特定部においてそれぞれ姿勢および運動状態を特定し、特定結果を段階的に選択する。このため、各特定部において特定する姿勢および運動状態や、選択の順番等を柔軟に設定して識別速度や効率を向上させることができる。 In addition, the sequential posture identification apparatus according to the first embodiment determines, based on the identification model and the second feature value, one category to which the posture and the motion state of the user in the second predetermined period correspond to a predetermined time. The system further includes four or more identification units that respectively identify from among a plurality of sections including sections corresponding to the posture and the movement state of. And an identification part is a division corresponding to the posture of the user of a 2nd predetermined period, and an exercise state from the division which is easy to distinguish among the division which four or more specific parts specified, to a division which is hard to distinguish. Are sequentially selected in at least three stages, thereby identifying the posture and motion state of the user in the second predetermined period. In this manner, the sequential posture identification device identifies the posture and the motion state in each of the four or more identification units, and selects the identification results in stages. Therefore, it is possible to flexibly set the posture and motion state to be specified in each specifying unit, the order of selection, and the like to improve the identification speed and the efficiency.
また、第1の実施形態にかかる逐次姿勢識別装置において、識別部は、4以上の特定部により特定された区分を少なくとも3段階で選択する。このため、逐次姿勢識別装置は、段数を適切に設定して処理負荷を調節しつつ、精度の高い逐次姿勢識別を実行することができる。 Further, in the sequential posture identification apparatus according to the first embodiment, the identification unit selects the section identified by the four or more identification units in at least three stages. Therefore, the posture recognition apparatus can perform accurate posture recognition with high accuracy while appropriately setting the number of stages to adjust the processing load.
また、第1の実施形態にかかる逐次姿勢識別装置において、特定部は、臥位および臥位以外のいずれかの区分を特定する第1の特定部と、臥位以外のうち、立位および座位のいずれかの区分を特定する第2の特定部と、を備える。このため、逐次姿勢識別装置は、複数の特定部における特定結果に基づき、段階的に特定結果を選択して逐次姿勢識別を実行することができる。また、識別が困難な立位と座位を、識別が容易な臥位と臥位以外とは別の特定部で特定することにより、逐次姿勢識別装置は、第2の特定部では精度の高い識別モデルを用い、第1の特定部では精度が低めの識別モデルを用いるなど、各特定部での処理精度を調整することができる。このため、全体としての識別精度を向上させることが可能である。 Further, in the sequential posture identifying apparatus according to the first embodiment, the identifying unit is a first identifying unit that identifies any one of the lying position and the lying position, and the standing position and the sitting position among those other than the lying position. And a second identification unit that identifies any one of the categories. For this reason, the posture recognition apparatus can sequentially perform the posture recognition by selecting the specification results in stages based on the specification results of the plurality of specifying units. Also, by identifying standing positions and sitting positions, which are difficult to distinguish, with the easily identifiable distinction positions other than the easily positioned positions and the lying positions, the sequential posture identifying apparatus identifies with high accuracy in the second identification unit. The processing accuracy in each identifying unit can be adjusted, such as using a model and using a identification model with lower accuracy in the first identifying unit. Therefore, it is possible to improve the identification accuracy as a whole.
また、第2の特定部は、複数の所定の日時に各々対応する複数の立位の区分および複数の所定の日時に各々対応する複数の座位の区分のいずれかを、第2の所定期間のユーザの姿勢および運動状態が該当する1の区分として特定する。このため、逐次姿勢識別装置は、同じ「立位」や「座位」であっても時間や季節、温度等に応じた微妙な姿勢や運動状態の変化を反映して、異なるラベルとして複数種類の「立位」および「座位」を識別することができる。このため、逐次姿勢識別装置は、識別が困難な姿勢および運動状態であっても識別精度を向上させて逐次姿勢識別を実現することができる。 In addition, the second identification unit may select one of a plurality of standing sections respectively corresponding to a plurality of predetermined dates and times and a plurality of segments of a plurality of sitting positions respectively corresponding to a plurality of predetermined dates and times during a second predetermined period. The user's posture and motion state are identified as the corresponding 1 category. For this reason, even if the posture identification device is the same "standing position" or "sitting position", it reflects changes in the posture and motion state depending on time, season, temperature, etc. "Standing" and "sitting" can be identified. For this reason, the posture recognition apparatus can sequentially realize posture recognition by improving identification accuracy even in postures and motion states that are difficult to distinguish.
また、逐次姿勢識別装置は、特定部による特定結果を並列的に処理するのではなく、多段的に組み合わせて用いる。このため、逐次姿勢識別装置は、コントラストが小さいために識別しにくい姿勢や運動状態を予め専用の特定部によって特定するよう構成され、識別精度を向上させることができる。 In addition, the posture identification apparatus does not process the identification results of the identification unit in parallel, but uses them in combination in multiple stages. For this reason, the posture identification device is configured to specify in advance a posture or a motion state which is difficult to identify because the contrast is small by a dedicated specifying unit, and it is possible to improve the identification accuracy.
静止状態を複数の区分に分類しようとした場合に、「立位」と「座位」との区別が困難な理由の1つは、「立位」と「座位」との差異が、他の姿勢と「立位」または「座位」との差異に比較して小さいためであると考えられる。したがって、逐次姿勢識別装置が、複数のラベルたとえば「立位」「座位」「臥位」を機械学習に基づき並列的に区別しようとすると、「立位」と「座位」との識別が困難になる。つまり、「立位」または「座位」と「臥位」との差異に比して相対的に小さい「立位」と「座位」との差異が、相対的に識別されにくくなる。上記実施形態では、相互に相対的に差異が小さい区分の組み合わせを、他の区分とは別の特定部において特定させることにより、識別精度を向上させる。 One of the reasons why it is difficult to distinguish between “standing” and “sitting” when trying to classify stationary state into multiple categories is the difference between “standing” and “sitting”, but other attitudes It is considered to be small compared to the difference between “H” and “Sit” or “Sit”. Therefore, if it is attempted to sequentially distinguish a plurality of labels, for example, "standing position", "sitating position" and "throwing position" based on machine learning, it becomes difficult to distinguish between "standing position" and "siting position". Become. That is, the difference between the "standing position" and the "sitting position", which is relatively smaller than the difference between the "standing position" or the "sitting position", is relatively hard to be identified. In the above embodiment, identification accuracy is improved by specifying combinations of sections having relatively small differences relatively to each other in a specific unit different from the other sections.
(その他の変形例)
上記のように第1の実施形態においては、ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成部を4つ設け、ユーザの姿勢および運動状態を特定するための特定部を4つ設けた。ただし、作成部および特定部の数は4に限られず、5以上の作成部および特定部を設けて細かく姿勢および運動状態を識別してもよい。また、識別処理の段数も必ずしも3に限定されず、特定部の数に応じて任意の段数に設定することができる。
(Other modifications)
As described above, in the first embodiment, four creation units for creating a discrimination model for identifying the posture and exercise state of the user are provided, and the identification unit for specifying the posture and exercise state of the user is Provided. However, the number of creation units and identification units is not limited to four, and five or more creation units and identification units may be provided to finely identify the posture and motion state. Further, the number of stages of the identification process is not necessarily limited to three, and can be set to any number of stages according to the number of specific units.
第1の実施形態では、運動と静止とを区別する特定部と、運動の種類を特定する特定部と、静止のうち臥位と臥位以外とを特定する特定部と、臥位以外のうち立位と座位を特定する特定部を設けた。これに限らず、特に区別が困難な任意の2以上の区分を相互に区別するための特定部を設けることができる。 In the first embodiment, the identification unit that distinguishes exercise from rest, the identification unit that identifies the type of exercise, the identification unit that identifies the recumbent position and the position other than the repose position among the rest, and the other than the recumbent position A specific section to identify standing position and sitting position was provided. Not only this but the specific part for mutually distinguishing arbitrary two or more especially difficult divisions can be provided.
また、介護やリハビリを目的として逐次姿勢識別を行う場合等に、特に着目する姿勢や運動状態の区分をユーザが設定することができるように構成してもよい。 In addition, in the case where posture identification is sequentially performed for the purpose of nursing care or rehabilitation, the user may be able to set classification of a posture or exercise state to which attention is particularly focused.
また、特定部の特定結果を段階的に選択する際の選択順序も必ずしも限定されない。第1の実施形態では、相互に識別が容易な区分を先の段で、相互に識別が困難な区分を後段で選択するように選択順序を設定する。ただし、識別の困難性以外の基準に基づいて選択順序を設定することも可能である。 Moreover, the selection order at the time of selecting the specific result of a specific part in steps is not necessarily limited. In the first embodiment, the selection order is set such that, in the first stage, sections that are easy to identify with each other are selected in the second stage. However, it is also possible to set the selection order based on criteria other than the difficulty of identification.
(実施例)
図10は、実施形態にかかる逐次姿勢識別方法を用いた場合の精度向上について説明するための図である。図10を参照し、本実施形態にかかる逐次姿勢識別方法の効果について説明する。
(Example)
FIG. 10 is a diagram for explaining the improvement in accuracy when the sequential posture identification method according to the embodiment is used. The effect of the sequential posture identification method according to the present embodiment will be described with reference to FIG.
図10は、7名のユーザ「u01」「u02」「u03」「u04」「u05」「u06」「u07」について行った逐次姿勢識別の実験結果を示す。 FIG. 10 shows experimental results of sequential posture identification performed for seven users “u01”, “u02”, “u03”, “u04”, “u05”, “u06”, and “u07”.
図10中、左側のデータ(1)は、3つの特定部を設けてそれぞれにおいて、(A)運動状態か静止状態かの特定、(B)運動の種類の特定、(C)静止の種類の特定、を実行した場合の実験結果を示す。この場合には、逐次姿勢識別処理結果として、(A)で「運動状態」と特定されれば(B)の特定結果を識別結果として採用し、(A)で「静止状態」と特定されれば(C)の特定結果を採用した。 In FIG. 10, data (1) on the left side is provided with three identification parts, and in each of (A) identification of exercise state or rest state, (B) identification of exercise type, (C) rest type We show experiment result when we perform identification. In this case, if "exercise state" is specified in (A) as the posture recognition processing result sequentially, the specific result of (B) is adopted as the identification result, and "static state" is specified in (A). (C) was adopted.
図10中、中央のデータ(2)は、上記第1の実施形態のように4つの特定部を設けてそれぞれにおいて、(A)運動状態か静止状態かの特定、(B)運動の種類の特定、(C)臥位かそれ以外かの特定、(D)立位か座位かの特定、を実行した場合の実験結果を示す。この場合には、逐次姿勢識別処理結果として、(A)で「運動状態」と特定されれば(B)の特定結果を識別結果として採用した。また、(A)で「静止状態」と特定されれば(C)の特定結果、さらに(C)で臥位以外と特定された場合は(D)の特定結果を採用した。 In FIG. 10, central data (2) is provided with four identification parts as in the first embodiment, and in each of (A) identification of exercise state or rest state, (B) exercise type An experiment result at the time of performing specification (C) specification of recumbency or others and (D) specification of standing position or sitting position is shown. In this case, if "exercise state" is specified in (A) as the posture recognition processing result sequentially, the specification result of (B) is adopted as the identification result. In addition, the identification result of (C) is adopted if it is identified as "static state" in (A), and the identification result of (D) is adopted if it is identified as other than decubitus in (C).
図10中、右側のデータ(3)は、中央の場合に加えて、「立位」と「座位」のそれぞれについて異なる時間帯のラベルは異なるラベルとして区別した場合の実験結果を示す。すなわち、上記変形例に対応する実験結果である。 In FIG. 10, data (3) on the right side shows experimental results in the case where labels of different time zones for “standing” and “sitting” are distinguished as different labels in addition to the case of the center. That is, it is an experimental result corresponding to the above-mentioned modification.
図10中、正判別率とは、逐次姿勢識別処理の実行回数に対し正しい識別結果が得られた割合を示す。誤判別率とは、逐次姿勢識別処理の実行回数に対し誤った識別結果が得られた割合を示す。また、再現率とは、結果として得られるべき回答のうち、実際に得られるべき回答が得られた率を示す。たとえば、「座位」として識別されるべき姿勢のうち、実際に「座位」と判定された姿勢の割合を示す。また、適合率とは、得られた結果のうち正しかったものの割合を示す。たとえば、「座位」として識別された姿勢のうち、実際に「座位」であった姿勢の割合を示す。F値は、適合率と再現率の調和平均である。F値が高いほど、適合率と再現率のバランスがよく、高い識別精度が得られているといえる。 In FIG. 10, the positive discrimination rate indicates the ratio of correct discrimination results to the number of executions of the sequential posture discrimination processing. The misclassification rate indicates the rate at which an erroneous discrimination result is obtained with respect to the number of executions of the sequential attitude discrimination processing. Further, the recall rate indicates the rate at which the answer that should be obtained actually is obtained among the answers that should be obtained as a result. For example, of the postures to be identified as "sitting", the ratio of the postures actually determined to be "sitting" is shown. Moreover, a precision rate shows the ratio of what was correct among the obtained results. For example, of the postures identified as "sitting", the ratio of the posture that was actually "sitting" is shown. The F value is the harmonic mean of precision and recall. It can be said that the higher the F value, the better the balance between precision and recall, and higher discrimination accuracy.
図10の例において、上記(1)(2)(3)のそれぞれの場合において、各ユーザについて「立位」「座位」の正判別率、誤判別率、再現率、適合率、F値を算出した。 In the example of FIG. 10, in each case of the above (1) (2) (3), the positive discrimination rate, the erroneous discrimination rate, the recall rate, the accuracy rate, and the F value for “standing” and “sitting” for each user Calculated.
「立位」を識別した場合、(1)のF値平均は「0.779」である。これに対して、(2)のF値平均は「0.840」と大きく改善している。さらに、(3)のF値平均はさらに「0.857」と改善する。 When "standing position" is identified, the F value average of (1) is "0.779". On the other hand, the F value average of (2) is greatly improved to "0.840". Furthermore, the F value average of (3) is further improved to "0.857".
また、「座位」を識別した場合、(1)のF値平均は「0.697」である。これに対して、(2)のF値平均は「0.776」とやはり改善している。さらに、(3)のF値平均はさらに「0.814」とさらに改善している。 Moreover, when "Sitling" is identified, the F value average of (1) is "0.697". On the other hand, the F value average of (2) is also improved to "0.776". Furthermore, the F value average of (3) is further improved to "0.814".
このように、逐次姿勢識別装置の作成部および特定部の中に、識別が困難な区分(ラベル)を識別するための作成部および特定部を設け、多段的に姿勢および運動状態を識別することにより、識別精度を向上させることができることが確認された。また、下位区分として設定するラベルを加速度情報が計測された時間帯に応じて複数に分けることで、さらに識別精度を向上させることが可能であることが確認された。 As described above, the creating unit and the identifying unit for identifying the difficult-to-identify sections (labels) are provided in the creating unit and the identifying unit of the sequential attitude identifying device, and the posture and motion state are identified in multiple stages. It has been confirmed that the identification accuracy can be improved. Moreover, it was confirmed that it is possible to further improve the identification accuracy by dividing the label set as the subdivision into a plurality of labels according to the time zone in which the acceleration information is measured.
(プログラム)
図11は、開示の技術に係る逐次姿勢識別プログラムによる情報処理がコンピュータを用いて具体的に実現されることを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブ1080と、ネットワークインタフェース1070とを有する。コンピュータ1000の各部はバス1100によって接続される。
(program)
FIG. 11 is a diagram illustrating that information processing by the sequential posture identification program according to the disclosed technology is specifically realized using a computer. As illustrated in FIG. 11, the
メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。
The
ここで、図11に例示するように、ハードディスクドライブ1080は、例えば、OS(Operating System)1081、アプリケーションプログラム1082、プログラムモジュール1083、プログラムデータ1084を記憶する。すなわち、開示の実施の形態に係る逐次姿勢識別プログラムは、コンピュータによって実行される指令が記述されたプログラムモジュール1083として、例えばハードディスクドライブ1080に記憶される。例えば、特徴量抽出部202、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210、識別部211、生成部212の各部と同様の情報処理を実行する手順各々が記述されたプログラムモジュール1083が、ハードディスクドライブ1080に記憶される。
Here, as illustrated in FIG. 11, the
また、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206により作成される識別モデル、識別部211による識別結果および生成部212が生成する情報のように、逐次姿勢識別プログラムによる情報処理に用いられるデータは、プログラムデータ1084として、例えばハードディスクドライブ1080に記憶される。そして、CPU1020が、ハードディスクドライブ1080に記憶されたプログラムモジュール1083やプログラムデータ1084を必要に応じてRAM1012に読み出し、各種の手順を実行する。
Also, the identification model created by the
なお、逐次姿勢識別プログラムに係るプログラムモジュール1083やプログラムデータ1084は、ハードディスクドライブ1080に記憶される場合に限られない。例えば、プログラムモジュール1083やプログラムデータ1084は、着脱可能な記憶媒体に記憶されてもよい。この場合、CPU1020は、ディスクドライブなどの着脱可能な記憶媒体を介してデータを読み出す。また、同様に、逐次姿勢識別プログラムに係るプログラムモジュール1083やプログラムデータ1084は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。この場合、CPU1020は、ネットワークインタフェース1070を介して他のコンピュータにアクセスすることで各種データを読み出す。
The
(その他)
なお、本実施形態で説明した逐次姿勢識別プログラムは、インターネット等のネットワークを介して配布することができる。また、逐次姿勢識別プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読取可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
(Others)
The sequential posture identification program described in the present embodiment can be distributed via a network such as the Internet. The sequential orientation identification program can also be executed by being recorded on a computer readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, etc. and reading from the recording medium by a computer. .
なお、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Of the processes described in the present embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being performed manually. All or part of them can be automatically performed by a known method. In addition to the above, the processing procedures, control procedures, specific names, and information including various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above embodiments and the modifications thereof are included in the invention described in the claims and the equivalents thereof as well as included in the technology disclosed in the present application.
1 逐次姿勢識別システム
10 ウェアラブル機器
101 加速度情報計測部
102 生体信号情報計測部
103 送受信部
104 入力部
20 逐次姿勢識別装置
201 送受信部
202 特徴量抽出部
203 第1の作成部
204 第2の作成部
205 第3の作成部
206 第4の作成部
207 第1の特定部
208 第2の特定部
209 第3の特定部
210 第4の特定部
211 識別部
212 生成部
213 入力部
DESCRIPTION OF
Claims (5)
前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成部と、
前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4以上の特定部と、
前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について前記所定の日時に対応する下位区分を含む複数の区分のうちの前記4以上の特定部が特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別部と、
を備え、
前記作成部は、
ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する第1の作成部と、
ユーザが運動状態にある場合に当該運動状態の種類を識別するための運動識別モデルを作成する第2の作成部と、
ユーザが静止状態にある場合に当該静止状態の種類が臥位か臥位以外か、を識別する第1静止識別モデルを作成する第3の作成部と、
ユーザの姿勢が臥位以外である場合に、立位か座位かを識別するための第2静止識別モデルを作成する第4の作成部と、
を有し、
前記特定部は、
前記運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する第1の特定部と、
前記運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する第2の特定部と、
前記第1静止識別モデルを用いて、ユーザの姿勢が臥位か臥位以外か、を特定する第3の特定部と、
前記第2静止識別モデルを用いて、ユーザの姿勢が立位か座位か、を特定する第4の特定部と、
を有し、
前記識別部は、
前記第1の特定部の特定結果が運動状態である場合、第2の特定部の特定結果を選択して識別結果として出力する一方、前記第1の特定部の特定結果が静止状態である場合、前記第3の特定部の特定結果を参照し、前記第3の特定部の特定結果が臥位であれば臥位を識別結果として出力し、前記第3の特定部の特定結果が臥位以外であれば、前記第4の特定部の特定結果で示された立位または座位を識別結果として出力することを特徴とする逐次姿勢識別装置。 An extraction unit for extracting a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from the acceleration information of the user;
A creation unit that creates a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount;
Among a plurality of divisions including a subdivision corresponding to a predetermined date and time, one division to which the posture and motion state of the user of the second predetermined period correspond based on the identification model and the second feature amount. And 4 or more specific parts each specified from
Wherein based on the identification model and the second feature quantity, a plurality of segments corresponding to the posture and motion state of the user, the same posture and the motion state of the plurality including a subdivision corresponding to the predetermined time Of the categories specified by the four or more specific parts of the categories, from the easy to identify category to the hard to identify category, the order corresponding to the posture and motion state of the user in the second predetermined period is ordered An identification unit that identifies the posture and motion state of the user during the second predetermined period by selecting
Equipped with
The creation unit is
A first creation unit for creating a motion / static discrimination model for identifying a user's motion state and stationary state;
A second creation unit that creates an exercise identification model for identifying the type of exercise state when the user is in an exercise state;
A third creation unit that creates a first stationary identification model that identifies whether the type of the stationary state is recumbent or non-recumbent when the user is in a stationary state;
A fourth creation unit that creates a second stationary identification model for identifying whether the user is standing or sitting when the user's posture is other than lying down;
Have
The identification unit is
A first identification unit that identifies whether the user is in an exercise state or a rest state using the exercise / still identification model;
A second identification unit that identifies what kind of exercise the user is doing when he or she is in motion using the exercise identification model;
A third identification unit that identifies whether the posture of the user is in a recumbent position or a non-recumbent position using the first stationary identification model;
A fourth identification unit that identifies whether the user's posture is standing or sitting using the second stationary identification model;
Have
The identification unit
When the identification result of the first identification unit is an exercise state, the identification result of the second identification unit is selected and output as an identification result, while the identification result of the first identification portion is stationary With reference to the identification result of the third identification unit, if the identification result of the third identification portion is recumbent, it outputs the recumbency as an identification result, and the identification result of the third identification portion is reversion if not, the sequential orientation identification device for an output to said Rukoto a standing or sitting position indicated by the specific results of the fourth specific portion as an identification result.
複数の所定の日時に各々対応する複数の立位の下位区分および複数の所定の日時に各々対応する複数の座位の下位区分のいずれかを、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分として特定することを特徴とする請求項1に記載の逐次姿勢識別装置。 The fourth identification unit is
Any of a plurality of standing subdivisions respectively corresponding to a plurality of predetermined dates and times and a plurality of sitting subdivisions respectively corresponding to a plurality of predetermined dates and times, the posture and the movement state of the user of the second predetermined period The sequential posture identification apparatus according to claim 1 , wherein the sequential posture identification device is identified as a corresponding one of the categories.
前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成工程と、
前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4回以上の特定工程と、
前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について前記所定の日時に対応する下位区分を含む複数の区分のうちの前記4回以上の特定工程によって特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別工程と、
をコンピュータに実行させ、
前記作成工程は、
ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する第1の作成工程と、
ユーザが運動状態にある場合に当該運動状態の種類を識別するための運動識別モデルを作成する第2の作成工程と、
ユーザが静止状態にある場合に当該静止状態の種類が臥位か臥位以外か、を識別する第1静止識別モデルを作成する第3の作成工程と、
ユーザの姿勢が臥位以外である場合に、立位か座位かを識別するための第2静止識別モデルを作成する第4の作成工程と、
を含み、
前記特定工程は、
前記運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する第1の特定工程と、
前記運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する第2の特定工程と、
前記第1静止識別モデルを用いて、ユーザの姿勢が臥位か臥位以外か、を特定する第3の特定工程と、
前記第2静止識別モデルを用いて、ユーザの姿勢が立位か座位か、を特定する第4の特定工程と、
を含み、
前記識別工程は、
前記第1の特定工程の特定結果が運動状態である場合、第2の特定工程の特定結果を選択して識別結果として出力する一方、前記第1の特定工程の特定結果が静止状態である場合、前記第3の特定工程の特定結果を参照し、前記第3の特定工程の特定結果が臥位であれば臥位を識別結果として出力し、前記第3の特定工程の特定結果が臥位以外であれば、前記第4の特定工程の特定結果で示された立位または座位を識別結果として出力することを特徴とする逐次姿勢識別方法。 An extraction step of extracting a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from the acceleration information of the user;
Creating a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount;
Among a plurality of divisions including a subdivision corresponding to a predetermined date and time, one division to which the posture and motion state of the user of the second predetermined period correspond based on the identification model and the second feature amount. And four or more identification steps, each identifying
Wherein based on the identification model and the second feature quantity, a plurality of segments corresponding to the posture and motion state of the user, the same posture and the motion state of the plurality including a subdivision corresponding to the predetermined time Of the classifications identified by the four or more identification steps, the classifications that correspond to the user's posture and exercise state in the second predetermined period from the classifications that are easy to distinguish to the classifications that are difficult to distinguish Identifying, by sequentially selecting, the posture and motion state of the user during the second predetermined period;
On your computer ,
The preparation process is
A first creating step of creating a motion / static discrimination model for identifying a user's motion state and stationary state;
A second creating step of creating an exercise identification model for identifying the type of exercise state when the user is in an exercise state;
A third creating step of creating a first stationary identification model that identifies whether the type of the stationary state is recumbent or non-recumbent when the user is in a stationary state;
A fourth creating step of creating a second stationary identification model for identifying whether the user is standing or sitting when the user's posture is other than lying down;
Including
The specific step is
A first identification step of identifying whether the user is in an exercise state or a rest state using the exercise / stationary discrimination model;
A second identification step of identifying the type of exercise performed by the user using the exercise identification model when the user is in an exercise state;
A third identification step of identifying whether the posture of the user is in a recumbent position or a non-recumbent position using the first stationary identification model;
A fourth identification step of identifying whether the posture of the user is standing or sitting using the second stationary identification model;
Including
In the identification step,
When the identification result of the first identification step is an exercise state, the identification result of the second identification step is selected and output as an identification result, while the identification result of the first identification step is stationary With reference to the identification result of the third identification step, if the identification result of the third identification step is a recumbent position, the decubitus position is output as an identification result, and the identification result of the third identification step is a reversion position. if not, the sequential orientation identification method, wherein also be output from the standing or sitting position indicated by the specific results of the fourth identification step as an identification result.
前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成手順と、
前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4回以上の特定手順と、
前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について前記所定の日時に対応する下位区分を含む複数の区分のうちの前記4回以上の特定手順によって特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別手順と、
をコンピュータに実行させ、
前記作成手順は、
ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する第1の作成手順と、
ユーザが運動状態にある場合に当該運動状態の種類を識別するための運動識別モデルを作成する第2の作成手順と、
ユーザが静止状態にある場合に当該静止状態の種類が臥位か臥位以外か、を識別する第1静止識別モデルを作成する第3の作成手順と、
ユーザの姿勢が臥位以外である場合に、立位か座位かを識別するための第2静止識別モデルを作成する第4の作成手順と、
を含み、
前記特定手順は、
前記運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する第1の特定手順と、
前記運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する第2の特定手順と、
前記第1静止識別モデルを用いて、ユーザの姿勢が臥位か臥位以外か、を特定する第3の特定手順と、
前記第2静止識別モデルを用いて、ユーザの姿勢が立位か座位か、を特定する第4の特定手順と、
を含み、
前記識別手順は、
前記第1の特定手順の特定結果が運動状態である場合、第2の特定手順の特定結果を選択して識別結果として出力する一方、前記第1の特定手順の特定結果が静止状態である場合、前記第3の特定手順の特定結果を参照し、前記第3の特定手順の特定結果が臥位であれば臥位を識別結果として出力し、前記第3の特定手順の特定結果が臥位以外であれば、前記第4の特定手順の特定結果で示された立位または座位を識別結果として出力することを特徴とする逐次姿勢識別プログラム。 An extraction procedure for extracting a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from the acceleration information of the user;
A creation procedure for creating a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount;
Among a plurality of divisions including a subdivision corresponding to a predetermined date and time, one division to which the posture and motion state of the user of the second predetermined period correspond based on the identification model and the second feature amount. And 4 or more specific procedures to identify from
Wherein based on the identification model and the second feature quantity, a plurality of segments corresponding to the posture and motion state of the user, the same posture and the motion state of the plurality including a subdivision corresponding to the predetermined time Of the classifications identified by the four or more identification procedures, the classifications that correspond to the user's posture and exercise state in the second predetermined period from the classifications that are easy to distinguish to the classifications that are difficult to distinguish An identification procedure for identifying the posture and motion state of the user during the second predetermined period by selecting in order;
On your computer ,
The creation procedure is
A first creation procedure for creating a motion / stationary discrimination model for identifying a user's motion state and stationary state;
A second creation procedure for creating an exercise identification model for identifying the type of exercise state when the user is in an exercise state;
A third creation procedure for creating a first stationary identification model that identifies whether the type of the stationary state is recumbent or non-recumbent when the user is in a stationary state;
A fourth creation procedure for creating a second stationary identification model for identifying whether the user is standing or sitting when the user's posture is other than lying down;
Including
The specific procedure is
A first identification procedure for identifying whether the user is in an exercise state or a rest state using the exercise / still discrimination model;
A second identification procedure for identifying the type of exercise performed by the user using the exercise identification model when the user is in an exercise state;
A third identification procedure for identifying whether the posture of the user is the recumbent position or the non-recumbent position using the first stationary identification model;
A fourth identification procedure for identifying whether the posture of the user is standing or sitting using the second stationary identification model;
Including
The identification procedure is
When the identification result of the first identification procedure is an exercise state, the identification result of the second identification procedure is selected and output as an identification result, while the identification result of the first identification procedure is stationary Then, referring to the specific result of the third specific procedure, if the specific result of the third specific procedure is a recumbent position, the recumbency is output as an identification result, and the specific result of the third specific procedure is a negative position if not, the sequential orientation identification program to output to said Rukoto a standing or sitting position indicated by the specific result of the fourth determination procedure as identification result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016126451A JP6530350B2 (en) | 2016-06-27 | 2016-06-27 | Sequential posture identification device, sequential posture identification method, and sequential posture identification program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016126451A JP6530350B2 (en) | 2016-06-27 | 2016-06-27 | Sequential posture identification device, sequential posture identification method, and sequential posture identification program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018000230A JP2018000230A (en) | 2018-01-11 |
JP6530350B2 true JP6530350B2 (en) | 2019-06-12 |
Family
ID=60944840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016126451A Active JP6530350B2 (en) | 2016-06-27 | 2016-06-27 | Sequential posture identification device, sequential posture identification method, and sequential posture identification program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6530350B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7377001B2 (en) * | 2019-03-28 | 2023-11-09 | 北陸電気工業株式会社 | Worker fall detection system and worker position detection system |
JP2021094307A (en) * | 2019-12-19 | 2021-06-24 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009018158A (en) * | 2007-06-14 | 2009-01-29 | Hideo Hirose | Posture monitoring system and body monitoring system |
JP5202257B2 (en) * | 2008-11-29 | 2013-06-05 | 学校法人日本大学 | Human posture motion discrimination device |
JP5895345B2 (en) * | 2011-02-03 | 2016-03-30 | ソニー株式会社 | Time lag symptom estimation apparatus, estimation system, estimation method, and program |
JP5885292B2 (en) * | 2011-11-08 | 2016-03-15 | 公立大学法人首都大学東京 | Action recognition program and processing device for action recognition |
US20150018724A1 (en) * | 2013-07-15 | 2015-01-15 | Ying Hsu | Balance Augmentation Sensors |
-
2016
- 2016-06-27 JP JP2016126451A patent/JP6530350B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018000230A (en) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6356616B2 (en) | Sequential posture identification device, autonomic nerve function information acquisition device, method and program | |
JP6362521B2 (en) | Behavior classification system, behavior classification device, and behavior classification method | |
Sasaki et al. | Measurement of physical activity using accelerometers | |
CN105530858B (en) | System and method for estimating cardiovascular health of a person | |
WO2018170017A1 (en) | System and method for automatic location detection for wearable sensors | |
CN109310364A (en) | System and method for automatic posture calibration | |
US11278238B2 (en) | Wearable sensor device and analysis platform for objective outcome assessment in spinal diseases | |
CN105748037B (en) | The body-sensing vest of biological feedback system with the patient for suffering from scoliosis | |
JP6876986B2 (en) | Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and program | |
US20210020295A1 (en) | Physical function independence support device of physical function and method therefor | |
Awais et al. | Physical activity classification using body-worn inertial sensors in a multi-sensor setup | |
CA2821590A1 (en) | A method for assessing cognitive function and predicting cognitive decline through quantitative assessment of the tug test | |
JP6530350B2 (en) | Sequential posture identification device, sequential posture identification method, and sequential posture identification program | |
JP6599821B2 (en) | Automatic teacher data creation apparatus, automatic teacher data creation method, and automatic teacher data creation program | |
EP3485803B1 (en) | Wearable device capable of recognizing sleep stage and recognition method thereof | |
CN112674760A (en) | Wearable sensor-based Parkinson upper limb movement detection method | |
CN205493832U (en) | Neck gesture control clothing | |
Napieralski et al. | Classification of subjects with balance disorders using 1d-cnn and inertial sensors | |
JP6310230B2 (en) | Diagnostic equipment | |
KR20150071729A (en) | The Classifying and Counting Algorithm for Real-time Walk/Run Exercise based on An Acceleration Sensor | |
Mani et al. | Evaluation of a Combined Conductive Fabric-Based Suspender System and Machine Learning Approach for Human Activity Recognition | |
Poli et al. | Identification issues associated with the use of wearable accelerometers in lifelogging | |
JP2021137371A (en) | Walking diagnostic system | |
Sukhadia et al. | IMU-Based Approach to Detect Spastic Cerebral Palsy in Infants at Early Stages | |
US20230140399A1 (en) | Active chair activity tracking system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6530350 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |