JP6530350B2 - Sequential posture identification device, sequential posture identification method, and sequential posture identification program - Google Patents

Sequential posture identification device, sequential posture identification method, and sequential posture identification program Download PDF

Info

Publication number
JP6530350B2
JP6530350B2 JP2016126451A JP2016126451A JP6530350B2 JP 6530350 B2 JP6530350 B2 JP 6530350B2 JP 2016126451 A JP2016126451 A JP 2016126451A JP 2016126451 A JP2016126451 A JP 2016126451A JP 6530350 B2 JP6530350 B2 JP 6530350B2
Authority
JP
Japan
Prior art keywords
identification
user
posture
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016126451A
Other languages
Japanese (ja)
Other versions
JP2018000230A (en
Inventor
拓郎 宇田川
拓郎 宇田川
山中 章裕
章裕 山中
雅人 澤田
雅人 澤田
俊哉 山田
俊哉 山田
幹樹 堀
幹樹 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT TechnoCross Corp
Original Assignee
Nippon Telegraph and Telephone Corp
NTT TechnoCross Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT TechnoCross Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016126451A priority Critical patent/JP6530350B2/en
Publication of JP2018000230A publication Critical patent/JP2018000230A/en
Application granted granted Critical
Publication of JP6530350B2 publication Critical patent/JP6530350B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラムに関する。   The present invention relates to a sequential posture identification device, a sequential posture discrimination method, and a sequential posture discrimination program.

近年、人の身体に装着することができる情報処理端末いわゆるウェアラブル機器(以下、ウェアラブル機器)の利用が広がっている。ウェアラブル機器はユーザが日常的に身に着けて携帯することが可能であるという点から、ユーザの健康状態や生活習慣を継続的・長期的にモニタするためにも利用できる。   BACKGROUND In recent years, the use of information processing terminals so-called wearable devices (hereinafter, wearable devices) that can be worn on a human body is spreading. The wearable device can also be used to monitor the health condition and lifestyle of the user continuously and over the long term, since the user can wear and carry it on a daily basis.

赤堀 顕光、岸本 圭史、小栗 宏次、「単一3軸加速度センサを用いた行動推定」、電子情報通信学会技術研究報告、MBE、MEとバイオサイバネティックス、一般社団法人電子情報通信学会、2005年12月2日、105巻、456号、p.49-52Satoshi Akahori, Atsushi Kishimoto, Koji Oguri, "Action Estimation Using a Single 3-Axis Acceleration Sensor", IEICE Technical Report, MBE, ME and Bio Cybernetics, The Institute of Electronics, Information and Communication Engineers, 2005 Dec. 2, 105, 456, p. 49-52

本発明者らは、ウェアラブル機器によってユーザの姿勢や運動状態を検知するとともに、ユーザの生体信号を測定し、姿勢や運動状態と生体信号とを関連づけることで、ユーザの健康管理や疾病予防に結び付けることを検討した。そして、本発明者らは、ウェアラブル機器を用いて逐次姿勢識別を行ったり、自律神経機能情報を取得し評価したりする発明について特許出願を行っている(特願2015−028850号)。   The present inventors detect the posture and exercise state of the user with the wearable device, measure the biological signal of the user, and associate the posture and exercise state with the biological signal, thereby linking the user to health care and disease prevention. We considered that. Then, the present inventors have filed patent applications for inventions that sequentially perform posture identification using wearable devices and acquire and evaluate autonomic nerve function information (Japanese Patent Application No. 2015-028850).

ところで、ウェアラブル機器を用いてユーザの姿勢や運動状態を識別する場合、ユーザ特有の癖等によって識別が難しい姿勢や運動状態が存在することが分かってきた。   By the way, when a user's posture and an exercise state are identified using a wearable device, it has been found that there is a posture and an exercise state which are difficult to identify due to wrinkles and the like unique to the user.

開示の実施形態は、上記に鑑みてなされたものであって、ユーザから測定される情報を用いた逐次姿勢識別の精度向上を実現する技術を提供することを目的とする。   The embodiment of the disclosure is made in view of the above, and an object of the embodiment is to provide a technique for realizing an improvement in accuracy of sequential posture identification using information measured by a user.

開示する逐次姿勢識別装置、方法およびプログラムは、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出し、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成し、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。   The disclosed posture recognition apparatus, method, and program extract a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from acceleration information of a user, and A machine learning based on the feature amounts of 1 creates a discrimination model for identifying the posture and motion state of the user, and based on the discrimination model and the second feature amount, a plurality of corresponding to the posture and motion state of the user The posture of the user for a second predetermined period from a classification that is easily distinguishable to a classification that is difficult to distinguish among a plurality of divisions that are divisions and that include subdivisions corresponding to predetermined dates and times for the same posture and exercise state And by sequentially selecting the sections corresponding to the exercise state, the posture and the exercise state of the user in the second predetermined period are identified.

開示する逐次姿勢識別装置、逐次姿勢識別方法、逐次姿勢識別プログラムは、ユーザから測定される情報を用いた逐次姿勢識別の精度向上を実現するという効果を奏する。   The disclosed sequential posture identification device, sequential posture identification method, and sequential posture identification program have an effect of realizing improvement in accuracy of sequential posture identification using information measured by the user.

図1は、第1の実施形態にかかる逐次姿勢識別システムの構成の一例を示す概略図である。FIG. 1 is a schematic diagram showing an example of the configuration of the sequential posture identification system according to the first embodiment. 図2は、第1の実施形態にかかる逐次姿勢識別処理の流れの一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of the flow of the sequential posture identification process according to the first embodiment. 図3は、第1の実施形態の逐次姿勢識別処理における段階的判定の流れの一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of the flow of stepwise determination in the sequential posture identification process of the first embodiment. 図4は、第1の実施形態における逐次姿勢識別処理における段階的判定の流れについて説明するための図である。FIG. 4 is a diagram for explaining the flow of stepwise determination in the sequential posture identification process in the first embodiment. 図5は、逐次姿勢識別処理において用いる特徴量のうち揺れ数の検出手法について説明するための図である。FIG. 5 is a diagram for describing a method of detecting the number of oscillations among feature amounts used in the posture recognition process. 図6は、センサを回転させた場合の加速度と合成加速度の一例を示すグラフである。FIG. 6 is a graph showing an example of the acceleration and the synthetic acceleration when the sensor is rotated. 図7は、第1の実施形態にかかる逐次姿勢識別装置による逐次姿勢識別処理のうち学習処理の流れの一例を示す概略図である。FIG. 7 is a schematic diagram showing an example of the flow of learning processing in the sequential posture identification processing by the sequential posture identification device according to the first embodiment. 図8は、第1の実施形態にかかる逐次姿勢識別装置による逐次姿勢識別処理のうち識別処理(姿勢特定処理含む)の流れの一例を示す概略図である。FIG. 8 is a schematic view showing an example of the flow of identification processing (including attitude identification processing) in the sequential attitude identification processing by the sequential attitude identification device according to the first embodiment. 図9は、変形例にかかる逐次姿勢識別処理における判定について説明するための図である。FIG. 9 is a diagram for explaining the determination in the sequential posture identification process according to the modification. 図10は、実施形態にかかる逐次姿勢識別方法を用いた場合の精度向上について説明するための図である。FIG. 10 is a diagram for explaining the improvement in accuracy when the sequential posture identification method according to the embodiment is used. 図11は、開示の技術に係る逐次姿勢識別プログラムによる情報処理がコンピュータを用いて具体的に実現されることを示す図である。FIG. 11 is a diagram illustrating that information processing by the sequential posture identification program according to the disclosed technology is specifically realized using a computer.

以下に、開示する逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、各実施形態は適宜組み合わせることができる。   Hereinafter, embodiments of the disclosed sequential posture identification device, sequential posture identification method, and sequential posture identification program will be described in detail based on the drawings. The present invention is not limited by this embodiment. Moreover, each embodiment can be combined suitably.

(第1の実施形態)
第1の実施形態にかかる逐次姿勢識別装置は、ウェアラブル機器を装着したユーザから計測した加速度情報に基づく逐次機械学習を行うことにより、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。そして、逐次姿勢識別装置は、識別モデルに基づき、ユーザの姿勢および運動状態が、相互に異なる複数の区分に該当すると特定する。逐次姿勢識別装置は、特定した複数の区分を、所定の順序に基づき段階的に選択することで、ユーザの姿勢および運動状態を識別する。
First Embodiment
The sequential posture identification apparatus according to the first embodiment creates a discrimination model for identifying the posture and motion state of the user by performing sequential machine learning based on acceleration information measured from the user wearing the wearable device. . Then, based on the identification model, the sequential posture identification device identifies that the posture and the motion state of the user correspond to a plurality of different segments. The sequential posture identifying apparatus identifies the posture and the motion state of the user by selecting the plurality of identified segments in a stepwise manner based on a predetermined order.

第1の実施形態にかかる逐次姿勢識別装置は特に、静止状態の識別精度を高めるため、静止状態を特定する2つの特定部を設ける。そして、1の特定部が「臥位」と「臥位以外」の2つの状態を区別する。そして他の特定部が「臥位以外」の下位区分である「立位」と「座位」の2つの状態を区別する。このように、第1の実施形態にかかる逐次姿勢識別装置は、複数段階に分けて姿勢および運動状態の特定結果を選択する。つまり、逐次姿勢識別装置は、上段で上位区分についての判定を行い、下位区分について、下段で判定を行う。このため、段数、下位区分の数、区分の種類等の設定を調整することにより、識別しにくい区分について識別精度を向上させることができる。   The sequential posture identification apparatus according to the first embodiment, in particular, is provided with two identification units for identifying the stationary state in order to improve the accuracy of discrimination of the stationary state. And one specific part distinguishes two states of "the recumbent position" and "other than a recumbent position". And another specific part distinguishes two states of "standing" and "sitting" which are subdivisions of "other than a recumbent". As described above, the sequential posture identifying apparatus according to the first embodiment selects the identification results of the posture and the motion state in a plurality of stages. That is, the posture identifying apparatus sequentially performs determination on the upper class in the upper stage, and performs determination in the lower stage on the lower class. For this reason, by adjusting settings such as the number of stages, the number of subdivisions, and the type of division, it is possible to improve the identification accuracy for the difficult to distinguish.

また、第1の実施形態の逐次姿勢識別装置は、静止状態の種類を多段で特定することにより識別精度を向上させる。識別に用いられる特徴量は、静止状態と動作状態との間で大きく異なる。静止状態と動作状態とを1つの識別モデルで識別しようとすると、静止状態と動作状態とのコントラストに隠れて、相対的に相互の差異が小さい静止状態での姿勢の識別が困難となりがちである。また、相対的に差異が小さい姿勢についてさらに詳細に種類分けして識別することが困難である。そこで、第1の実施形態の逐次姿勢識別装置は、コントラストが大きい姿勢や運動状態を先に特定し、コントラストが小さい姿勢や運動状態を分けて特定するよう構成される。たとえば、同じ静止状態であっても、「臥位」と「立位」または「座位」とのコントラストは、「立位」と「座位」との間のコントラストより大きい。そこで、逐次姿勢識別装置は、「臥位」と「臥位以外」の特定と、「立位」と「座位」との特定と、を分けて実行する。   In addition, the sequential posture identification device of the first embodiment improves identification accuracy by specifying the type of stationary state in multiple stages. The feature quantities used for identification differ greatly between the stationary state and the operating state. When trying to distinguish between the stationary state and the operating state by one discrimination model, it tends to be difficult to distinguish the posture in the stationary state, which has a relatively small difference from each other, behind the contrast between the stationary state and the operating state . In addition, it is difficult to further classify and identify postures with relatively small differences. Therefore, the sequential posture identifying apparatus according to the first embodiment is configured to first identify the posture and the motion state with high contrast, and separately identify the posture and the motion state with low contrast. For example, even in the same resting state, the contrast between "recumbent position" and "standing position" or "sitting position" is larger than the contrast between "standing position" and "sitting position". Therefore, the posture recognition apparatus sequentially executes the identification of the “throw position” and the “non-throw position” and the identification of the “standing position” and the “sitting position”.

以下の第1の実施形態においては、識別が困難な区分の例として「立位」と「座位」について説明する。また、「立位」と「座位」の上位区分として「臥位以外」を設定する。なお、「立位」「座位」「臥位」はいずれも静止状態の一種である。なおここで、「区分」は機械学習において用いられる「ラベル」と同様であり、機械学習に基づき入力に対して生成される出力を指す。   In the following first embodiment, “standing position” and “sitting position” will be described as an example of a division that is difficult to identify. In addition, "other than recumbent position" is set as the upper class of "standing position" and "sitting position". Note that "standing position", "sitting position" and "throw position" are all types of stationary states. Here, “division” is the same as “label” used in machine learning, and refers to an output generated for an input based on machine learning.

(第1の実施形態にかかる逐次姿勢識別システム1の構成の一例)
図1は、第1の実施形態にかかる逐次姿勢識別システム1の構成の一例を示す概略図である。図1に示す逐次姿勢識別システム1は、ウェアラブル機器10と、逐次姿勢識別装置20と、を備える。ウェアラブル機器10と逐次姿勢識別装置20とはネットワークを介して通信可能に接続される。
(One Example of Configuration of Sequential Posture Identification System 1 According to First Embodiment)
FIG. 1 is a schematic diagram showing an example of the configuration of the sequential posture identification system 1 according to the first embodiment. The sequential posture identification system 1 shown in FIG. 1 includes a wearable device 10 and a sequential posture identification device 20. The wearable device 10 and the posture identification device 20 are connected communicably via a network.

ウェアラブル機器10と逐次姿勢識別装置20とを接続するネットワークの種類は特に限定されず、有線ネットワークでも無線ネットワークでもよい。ただし、ウェアラブル機器10を装着するユーザの行動を妨げないためには、無線ネットワークはたとえば、Bluetooth(登録商標)で接続したスマートフォン等を利用したり、Wi−Fi(登録商標)等を利用することが好ましい。   The type of network connecting the wearable device 10 and the posture identification device 20 sequentially is not particularly limited, and may be a wired network or a wireless network. However, in order not to disturb the action of the user who wears the wearable device 10, for example, use a smart phone or the like connected by Bluetooth (registered trademark) or use Wi-Fi (registered trademark) or the like. Is preferred.

(ウェアラブル機器10の構成の一例)
ウェアラブル機器10は、ユーザが装着して携帯することができる電子機器である。図1の例では、ウェアラブル機器10はユーザが着脱できるシャツ形状である。ただしウェアラブル機器10の形状はシャツに限定されず、たとえばベルト形状等、ユーザに装着することができれば任意の形状でよい。また、ウェアラブル機器10として、プロセッサやメモリを備えるウェアラブルコンピュータを用い、計測した情報を適宜ウェアラブル機器10内に記憶するように構成してもよい。この場合、以下に説明する各部(加速度情報計測部101、生体信号情報計測部102、送受信部103、入力部104)は、プロセッサの機能として構成してもよい。また、各部の処理に用いられる情報および各部の処理により生成される情報は、メモリに記憶されるものとしてもよい。
(An example of the configuration of the wearable device 10)
The wearable device 10 is an electronic device that a user can wear and carry. In the example of FIG. 1, the wearable device 10 has a shirt shape that can be attached and detached by the user. However, the shape of the wearable device 10 is not limited to a shirt, and may be any shape as long as it can be attached to the user, such as a belt shape. Alternatively, a wearable computer including a processor and a memory may be used as the wearable device 10, and the measured information may be appropriately stored in the wearable device 10. In this case, each unit (acceleration information measurement unit 101, biological signal information measurement unit 102, transmission / reception unit 103, input unit 104) described below may be configured as a processor function. Further, the information used for the processing of each part and the information generated by the processing of each part may be stored in the memory.

ウェアラブル機器10は、加速度情報計測部101と、生体信号情報計測部102と、送受信部103と、入力部104と、を備える。   The wearable device 10 includes an acceleration information measurement unit 101, a biological signal information measurement unit 102, a transmission / reception unit 103, and an input unit 104.

加速度情報計測部101は、ユーザの体の動きを検知、計測するセンシングデバイスである。加速度情報計測部101は、ユーザの体の加速度情報を計測する。たとえば、加速度情報計測部101は、ユーザの体幹近傍に配置される加速度センサたとえば3軸加速度センサで構成される。加速度情報計測部101は、前後軸、左右軸、上下軸の3軸にそったユーザの体の動きの加速度を計測する。以下、前後・左右・上下というときは、ウェアラブル機器10をユーザが装着して起立している場合にユーザの体が向く方向を基準とする。   The acceleration information measurement unit 101 is a sensing device that detects and measures the motion of the user's body. The acceleration information measurement unit 101 measures acceleration information of the user's body. For example, the acceleration information measurement unit 101 is configured by an acceleration sensor, for example, a three-axis acceleration sensor disposed near the trunk of the user. The acceleration information measurement unit 101 measures the acceleration of the movement of the user's body along the three axes of the longitudinal axis, the lateral axis, and the vertical axis. Hereinafter, when the front, rear, left, right, up and down are referred to, the direction in which the user's body faces is taken as a reference when the wearable device 10 is worn and stood upright.

生体信号情報計測部102は、ユーザの体から取得することができる生体信号情報を計測する。生体信号情報計測部102は、たとえば心電位を計測するセンシングデバイスである。生体信号情報計測部102は、たとえば、ユーザの心電位と心拍に関する情報とを計測する。具体的には、生体信号情報計測部102は、一定間隔で単誘導による心電位を計測する。また、生体信号情報計測部102は、たとえば心拍間隔すなわちRR間隔(RR interval)を計測する。このほか、光電脈波等の脈波、生体電気抵抗等の体内インピーダンス、生体微振動や生体圧力変動、血圧計等のカフ圧等の動脈圧等を生体信号として計測してもよい。また、このほか、生体電位、筋電、脳波、誘発電位等も利用できる。   The biological signal information measurement unit 102 measures biological signal information that can be acquired from the user's body. The biological signal information measurement unit 102 is, for example, a sensing device that measures cardiac potential. The biological signal information measurement unit 102 measures, for example, the user's cardiac potential and information on the heartbeat. Specifically, the biological signal information measurement unit 102 measures cardiac potential by single lead at constant intervals. Further, the biological signal information measurement unit 102 measures, for example, a heartbeat interval, that is, an RR interval. Other than this, pulse waves such as photoelectric pulse waves, body impedances such as bioelectric resistance, body slight vibrations or body pressure fluctuations, and arterial pressure such as cuff pressure such as a sphygmomanometer may be measured as a biosignal. Besides this, bioelectric potential, myoelectric potential, electroencephalogram, evoked potential and the like can also be used.

送受信部103は、加速度情報計測部101および生体信号情報計測部102が計測した加速度情報および生体信号情報をウェアラブル機器10の外部に送信する。また、送受信部103は、ウェアラブル機器10の外部から送信される信号を受信する。送受信部103は、加速度情報計測部101および生体信号情報計測部102が情報を取得するとその都度外部に当該情報を送信する。たとえば、送受信部103は、無線通信機能により情報を送信する。具体的には、送受信部103は、加速度情報および生体信号情報を逐次姿勢識別装置20に送信する。   The transmission and reception unit 103 transmits the acceleration information and the biological signal information measured by the acceleration information measurement unit 101 and the biological signal information measurement unit 102 to the outside of the wearable device 10. The transmitting and receiving unit 103 also receives a signal transmitted from the outside of the wearable device 10. The transmission / reception unit 103 transmits the information to the outside each time the acceleration information measurement unit 101 and the biological signal information measurement unit 102 acquire the information. For example, the transmission and reception unit 103 transmits information by the wireless communication function. Specifically, the transmission / reception unit 103 sequentially transmits the acceleration information and the biological signal information to the posture identification device 20.

入力部104は、ユーザ等がウェアラブル機器10に入力する情報を受け付ける。たとえば、入力部104は、ユーザ等が入力するラベル(後述)を受け付ける。受け付けられたラベルは送受信部103に送られ、逐次姿勢識別装置20に送信される。逐次姿勢識別装置20は、予め定められた処理手順に基づき、ラベルとその後受信する加速度情報および生体信号情報とを対応づける。なお、ラベルの詳細については後述する。また、ラベルは、入力部104からではなく逐次姿勢識別装置20が備える入力部213(後述)から入力するものとしてもよい。また、ウェアラブル機器10は入力部104を備えない構成としてもよい。また、入力部104は、ユーザ等が後述する学習モードまたは識別モードを選択するためにも用いることができる。   The input unit 104 receives information that a user or the like inputs to the wearable device 10. For example, the input unit 104 receives a label (described later) input by the user or the like. The received label is sent to the transmission / reception unit 103 and sequentially sent to the posture identification device 20. The posture identification apparatus 20 sequentially associates the label with the acceleration information and the biological signal information to be received thereafter, based on a predetermined processing procedure. The details of the label will be described later. Also, the label may be input not from the input unit 104 but from the input unit 213 (described later) included in the posture identification device 20 sequentially. The wearable device 10 may not include the input unit 104. The input unit 104 can also be used for the user or the like to select a learning mode or an identification mode to be described later.

(逐次姿勢識別装置20の構成の一例)
逐次姿勢識別装置20は、送受信部201、特徴量抽出部202、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210、識別部211、生成部212および入力部213を備える。なお、逐次姿勢識別装置20が備える各部の機能は、プロセッサ(CPU:Central Processing Unit等)により実現してもよい。
(Example of Configuration of Sequential Pose Identification Device 20)
The posture recognition apparatus 20 includes a transmitting / receiving unit 201, a feature extraction unit 202, a first creating unit 203, a second creating unit 204, a third creating unit 205, a fourth creating unit 206, a first specifying unit A second identification unit 208, a third identification unit 209, a fourth identification unit 210, an identification unit 211, a generation unit 212, and an input unit 213 are provided. The functions of the units included in the posture recognition apparatus 20 may be realized by a processor (CPU: Central Processing Unit or the like).

送受信部201は、ウェアラブル機器10の送受信部103から送信される加速度情報および生体信号情報を受信する。送受信部201は、送受信部103が逐次送信する加速度情報および生体信号情報を受信して特徴量抽出部202に送る。   The transmission / reception unit 201 receives acceleration information and biological signal information transmitted from the transmission / reception unit 103 of the wearable device 10. The transmitting and receiving unit 201 receives the acceleration information and the biological signal information sequentially transmitted by the transmitting and receiving unit 103, and sends the acceleration information and the biological signal information to the feature amount extracting unit 202.

特徴量抽出部202は、加速度情報および生体信号情報の少なくとも一方から、姿勢識別に用いる特徴量を抽出する。抽出された特徴量は、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に送られ、ユーザの姿勢および運動のベースライン情報を取得する学習処理に用いられる。抽出された特徴量はまた、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210に送られ、ユーザの姿勢および運動を識別する識別処理に用いられる。特徴量抽出部202が実行する特徴量抽出処理の詳細については後述する。なお、特徴量抽出部202は独立した構成部とせず、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210各々に特徴量抽出部202の処理を組み入れてもよい。   The feature amount extraction unit 202 extracts a feature amount used for posture identification from at least one of the acceleration information and the biological signal information. The extracted feature amount is sent to the first creating unit 203, the second creating unit 204, the third creating unit 205, and the fourth creating unit 206, and acquires baseline information of the posture and motion of the user. Used for learning processing. The extracted feature amount is also sent to the first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210, and is used for identification processing for identifying the posture and motion of the user. Used. Details of the feature quantity extraction process performed by the feature quantity extraction unit 202 will be described later. Note that the feature amount extraction unit 202 is not an independent configuration unit, and the first creation unit 203, the second creation unit 204, the third creation unit 205, the fourth creation unit 206, the first identification unit 207, The processing of the feature quantity extraction unit 202 may be incorporated in each of the second identification unit 208, the third identification unit 209, and the fourth identification unit 210.

第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206は、特徴量を用いて逐次機械学習を行う学習処理を実行する。第1の作成部203は、ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する。第2の作成部204は、ユーザが運動状態にある場合に当該運動の種類を識別するための運動識別モデルを作成する。第3の作成部205は、ユーザが静止状態にある場合に当該静止の種類が「臥位」か「臥位以外」か、を識別するための第1静止識別モデルを作成する。第4の作成部206は、ユーザの姿勢が「臥位以外」である場合に、「立位」か「座位」か、を識別するための第2静止識別モデルを作成する。学習処理によって作成される運動・静止識別モデル、運動識別モデル、第1静止識別モデルおよび第2静止識別モデルは、ユーザの姿勢および運動のベースライン情報となる。学習処理は、かかる識別モデルを作成する処理、すなわちベースライン情報を取得する処理である。学習処理の詳細については後述する。   The first creating unit 203, the second creating unit 204, the third creating unit 205, and the fourth creating unit 206 execute learning processing in which machine learning is sequentially performed using feature amounts. The first creation unit 203 creates a motion / still discrimination model for identifying the motion state and the still state of the user. The second creating unit 204 creates an exercise identification model for identifying the type of exercise when the user is in an exercise state. The third creating unit 205 creates a first stationary identification model for identifying whether the type of the stationary state is “recumbent position” or “other than decedent position” when the user is in a stationary state. The fourth creating unit 206 creates a second stationary identification model for identifying whether the user is "standing" or "sitting" when the posture of the user is "other than lying". The motion / stationary discrimination model, the motion discrimination model, the first stationary discrimination model, and the second stationary discrimination model created by the learning process become baseline information of the posture and motion of the user. The learning process is a process of creating such a discrimination model, that is, a process of acquiring baseline information. Details of the learning process will be described later.

なお、たとえば、第3の作成部205が作成する第1静止識別モデルは、「臥位」として、「伏臥位(うつ伏せ)」「仰臥位(仰向け)」「側臥位(横向き)」のいずれか一部または全部を識別する。第1静止識別モデルは、臥位の各種類も識別できるように作成される。つまり、第1静止識別モデルにより、「伏臥位」「仰臥位」「側臥位」「その他(立位と座位)」を識別することができる。   Note that, for example, the first stationary identification model created by the third creating unit 205 is one of "Supposing", "Supposing (backing)", and "Sideover (lateral)" as "recumbent". Identify some or all. The first stationary identification model is created so that each type of decubitus position can also be identified. That is, the first stationary identification model can identify "suspicious position", "supine position", "lateral position", and "others (standing position and sitting position)".

また、第4の作成部206が作成する第2静止識別モデルは、「立位」として、「おじぎ」や「上体反らし」等の姿勢も含めて識別するよう作成される。さらに、第2静止識別モデルは、「椅子に座る」「床に座る」も「座位」として識別するよう作成される。   Further, the second stationary identification model created by the fourth creating unit 206 is created to be identified as “standing position”, including postures such as “curly” and “body curl”. Furthermore, the second stationary identification model is created to identify "sit in a chair" and "sit on the floor" as "sit".

第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210は各々、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206が作成した識別モデルと特徴量抽出部202が抽出した特徴量とを用いてユーザの姿勢および運動を特定する。   The first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210 are respectively a first creating unit 203, a second creating unit 204, and a third creating unit 205. The posture and the motion of the user are specified using the identification model generated by the fourth generation unit 206 and the feature amount extracted by the feature amount extraction unit 202.

第1の特定部207は、第1の作成部203が作成した運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する。第2の特定部208は、第2の作成部204が作成した運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する。第3の特定部209は、第3の作成部205が作成した第1静止識別モデルを用いて、ユーザの姿勢が「臥位」か「臥位以外」か、を特定する。第4の特定部210は、第4の作成部206が作成した第2静止識別モデルを用いて、ユーザの姿勢が「立位」か「座位」か、を特定する。第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理の詳細については後述する。   The first identification unit 207 identifies whether the user is in an exercise state or in a rest state, using the motion / still discrimination model created by the first creation unit 203. The second identification unit 208 uses the exercise identification model created by the second creation unit 204 to identify the type of exercise that the user is exercising in the exercise state. The third specifying unit 209 uses the first stationary identification model created by the third creating unit 205 to identify whether the posture of the user is “recumbent” or “other than decubitus”. The fourth specifying unit 210 uses the second stationary identification model created by the fourth creating unit 206 to identify whether the user's posture is “standing” or “sitting”. Details of the posture specifying process by the first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210 will be described later.

識別部211は、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理の結果を、識別が容易な区分から困難な区分へと順番に選択することで、ユーザの姿勢および運動を識別する。識別部211の識別処理の結果、ユーザの姿勢および運動の識別結果が得られる。たとえば、ユーザが「運動」しており「歩行」中である等の識別結果が得られる。識別処理の詳細についても後述する。   The identification unit 211 changes the result of the posture identification process by the first identification unit 207, the second identification unit 208, the third identification unit 209, and the fourth identification unit 210 from the easily distinguishable classification to the difficult classification. And sequentially select to identify the posture and motion of the user. As a result of the identification processing of the identification unit 211, identification results of the posture and motion of the user can be obtained. For example, the identification result that the user is "exercising" and "walking" can be obtained. Details of the identification process will also be described later.

生成部212は、識別部211の識別結果と、ウェアラブル機器10から受信される生体信号情報と、を時系列的に対応付けた情報を生成する。生成部212は所定の期間中に取得される加速度情報および生体信号情報の少なくとも一方に基づいて識別されるユーザの姿勢および運動と、同じ期間中に取得された生体信号情報と、を対応付けた対応情報を生成する。たとえば、生成部212は、時刻T1からT5の間のユーザの姿勢および運動と、時刻T1からT5の間の当該ユーザの心拍数とを対応付けて対応情報を生成する。生成部212が生成する情報の詳細についても後述する。   The generation unit 212 generates information in which the identification result of the identification unit 211 and the biological signal information received from the wearable device 10 are associated in time series. The generation unit 212 associates the posture and the motion of the user identified based on at least one of the acceleration information and the biological signal information acquired in a predetermined period with the biological signal information acquired in the same period. Generate correspondence information. For example, the generation unit 212 generates correspondence information by correlating the posture and exercise of the user between time T1 and T5 with the heart rate of the user between time T1 and T5. Details of the information generated by the generation unit 212 will also be described later.

入力部213は、逐次姿勢識別装置20の外部からの情報入力を受け付ける。入力部213はたとえば、キーボードやタッチパッド等の入力デバイスであってよい。入力部213は、ウェアラブル機器10の入力部104と同様、ユーザ等が後述するラベルを入力するために用いることができる。また、入力部213は、ユーザ等が学習モードまたは識別モードを選択するために用いることができる。   The input unit 213 sequentially receives information input from the outside of the posture identification device 20. The input unit 213 may be, for example, an input device such as a keyboard or a touch pad. Similar to the input unit 104 of the wearable device 10, the input unit 213 can be used by a user or the like to input a label to be described later. Also, the input unit 213 can be used by the user or the like to select the learning mode or the identification mode.

(逐次姿勢識別処理の概括的な流れの一例)
図2は、第1の実施形態にかかる逐次姿勢識別処理の流れの一例を示すフローチャートである。処理が開始すると、逐次姿勢識別装置20はモードの選択を受け付ける(ステップS201)。具体的には、学習モードまたは識別モードの選択を受け付ける。ここで、学習モードとは、逐次姿勢識別装置20が学習処理を実行する動作態様である。また、識別モードとは、逐次姿勢識別装置20が識別処理(姿勢特定処理を含む)を実行する動作態様である。なお、図2では説明の便宜上、学習モードまたは識別モードのいずれかを選択する構成としたが、学習処理と識別処理を並行して行うモードをさらに設けて実行できるようにしてもよい。また、学習処理を実行する装置と識別処理を実行する装置とを別体として構成してもよい。
(An example of the general flow of sequential pose identification processing)
FIG. 2 is a flowchart showing an example of the flow of the sequential posture identification process according to the first embodiment. When the process starts, the posture identification device 20 sequentially receives a mode selection (step S201). Specifically, the selection of the learning mode or the identification mode is accepted. Here, the learning mode is an operation mode in which the posture identification apparatus 20 sequentially executes a learning process. Further, the identification mode is an operation mode in which the posture identification apparatus 20 sequentially performs identification processing (including posture identification processing). In FIG. 2, for convenience of explanation, either the learning mode or the identification mode is selected, but a mode in which the learning process and the identification process are performed in parallel may be further provided and executed. Further, the device that executes the learning process and the device that executes the identification process may be configured separately.

次に、逐次姿勢識別装置20は、学習モードが選択されたか否かを判定する(ステップS202)。学習モードが選択されている場合(ステップS202、肯定)、逐次姿勢識別装置20は、ユーザ等が入力するラベルを受信する。ラベルとは、ユーザの「姿勢」および「運動」を特定する情報である。たとえば、ラベルは、「姿勢」として「立位」「座位」「臥位」、「運動」として「運動状態」または「静止状態」の情報を含む。また、「運動」として、「歩行」「跳躍」「足踏み」「ウォーキング」等のラベルも作成できる。ここで、「歩行」は単に日常的な歩行を、「ウォーキング」は積極的に運動として歩いている場合を指す。逐次姿勢識別装置20は、身体の運動状態としては類似する運動について運動強度も判定することによって、日常的な「歩行」と運動としての「ウォーキング」を識別することができる。このように、逐次姿勢識別装置20は、類似する運動であっても強度が異なる運動各々に異なるラベルを付して識別することが可能である。学習処理時には、学習させる情報がどのような「姿勢、運動」の情報であるかを逐次姿勢識別装置20に記憶させるため、特徴量と「姿勢、運動」の2つの情報を含むラベルとを対応づけて処理する。   Next, the posture identification apparatus 20 sequentially determines whether the learning mode is selected (step S202). When the learning mode is selected (Yes at step S202), the posture identification apparatus 20 sequentially receives a label input by the user or the like. The label is information identifying the "posture" and "exercise" of the user. For example, the label includes information of "standing position", "sitting position", "rest position" as "posture", and "exercise state" or "rest state" as "exercise". In addition, as "exercise", labels such as "walking", "jumping", "stepping", "walking" and the like can be created. Here, "walking" simply refers to walking as routine walking, and "walking" as walking actively as exercise. The sequential posture identifying apparatus 20 can distinguish between daily “walking” and “walking” as exercise by determining exercise intensity also for exercise similar to the exercise state of the body. In this manner, the sequential posture identification device 20 can distinguish and identify motions having similar intensities but different intensities. At the time of learning processing, in order to memorize in the posture identification device 20 what kind of "posture, exercise" information is to be learned, the feature amount and the label including the two pieces of "posture, exercise" are corresponded To process.

そして、逐次姿勢識別装置20は、ウェアラブル装置10から受信する加速度情報および生体信号情報の少なくとも一方から特徴量を抽出する。受信したラベルと抽出した特徴量とは、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に入力される(ステップS203)。各作成部203,204,205,206は、ラベルが「運動状態」を示すか否かを判定する(ステップS204)。ラベルが「運動状態」を示すと判定した場合(ステップS204、肯定)、第1の作成部203は特徴量に基づく機械学習を行い、運動・静止識別モデルを作成または更新する(ステップS205)。また、第2の作成部204は、特徴量に基づく機械学習を行い、運動識別モデルを作成または更新する(ステップS205)。ラベルが「運動状態」を示すと判定した場合(ステップS204、肯定)、第3の作成部205および第4の作成部206は機械学習を実行しない。   Then, the posture identification device 20 sequentially extracts the feature amount from at least one of the acceleration information and the biological signal information received from the wearable device 10. The received label and the extracted feature amount are input to the first creating unit 203, the second creating unit 204, the third creating unit 205, and the fourth creating unit 206 (step S203). Each creation unit 203, 204, 205, 206 determines whether the label indicates the "exercise state" (step S204). If it is determined that the label indicates the "exercise state" (Yes at step S204), the first creating unit 203 performs machine learning based on the feature amount, and creates or updates the motion / still discrimination model (step S205). In addition, the second creating unit 204 performs machine learning based on the feature amount, and creates or updates a motion identification model (step S205). If it is determined that the label indicates “exercise state” (Yes at Step S204), the third creating unit 205 and the fourth creating unit 206 do not execute machine learning.

ラベルが「静止状態」を示すと判定した場合(ステップS204、否定)、第1の作成部203は特徴量に基づく機械学習を行い、運動・静止識別モデルを作成または更新する(ステップS206)。また、第2の作成部204は、機械学習を実行しない。第3の作成部205および第4の作成部206は、特徴量に基づく機械学習を行い、それぞれ第1静止識別モデルおよび第2静止識別モデルを作成または更新する(ステップS206)。学習モードでの処理はこれで終了する。   When it is determined that the label indicates the "rest state" (No at step S204), the first creating unit 203 performs machine learning based on the feature amount, and creates or updates the motion / still identification model (step S206). Also, the second creating unit 204 does not execute machine learning. The third creating unit 205 and the fourth creating unit 206 perform machine learning based on the feature amount, and create or update the first stationary identification model and the second stationary identification model, respectively (step S206). The process in the learning mode ends here.

他方、ステップS202で学習モードが選択されていない、すなわち、識別モードが選択されていると判定されたとする(ステップS202、否定)。この場合、逐次姿勢識別装置20は、ウェアラブル機器10から受信する加速度情報および生体信号情報の少なくとも一方から特徴量を抽出する(ステップS207)。そして、逐次姿勢識別装置20は特徴量を第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に送る。第1の特定部207は、特徴量と既に作成されている運動・静止識別モデルに基づき、ユーザが運動状態か静止状態かを特定する(ステップS208)。第2の特定部208は、特徴量と既に作成されている運動識別モデルに基づき、どのような運動状態であるかを特定する(ステップS209)。第3の特定部209は、特徴量と既に作成されている第1静止識別モデルに基づき、臥位か臥位以外かを特定する(ステップS210)。第4の特定部210は、特徴量と既に作成されている第2静止識別モデルに基づき、立位か座位かを特定する(ステップS211)。   On the other hand, it is assumed that the learning mode is not selected in step S202, that is, it is determined that the identification mode is selected (No in step S202). In this case, the posture identification apparatus 20 sequentially extracts the feature amount from at least one of the acceleration information and the biological signal information received from the wearable device 10 (step S207). Then, the posture identification apparatus 20 sequentially sends the feature amount to the first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210. The first specifying unit 207 specifies whether the user is in an exercise state or a rest state based on the feature amount and the motion / still discrimination model that has already been created (step S208). The second identification unit 208 identifies what kind of motion state it is based on the feature amount and the motion identification model that has already been created (step S209). The third specifying unit 209 specifies whether the user is lying or not on the basis of the feature amount and the first stationary identification model that has already been created (step S210). The fourth identifying unit 210 identifies the standing position or the sitting position based on the feature amount and the second stationary identification model that has already been created (step S211).

第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210の特定結果は識別部211に送られ、識別部211は特定結果に基づき、ユーザの姿勢、運動を識別する(ステップS212)。たとえば、識別部211は、その時点のユーザの姿勢および運動は「立位、運動状態」であると識別する。そして、逐次姿勢識別装置20は、識別結果と、識別結果に対応する生体信号情報とを時系列に対応付けた情報を生成する(ステップS213)。これで、識別処理が終了する。識別部211における段階的な識別処理については、以下にさらに説明する。   The identification results of the first identification unit 207, the second identification unit 208, the third identification unit 209, and the fourth identification unit 210 are sent to the identification unit 211, and the identification unit 211 determines the posture of the user based on the identification results. , Identify motion (step S212). For example, the identification unit 211 identifies that the user's posture and motion at that time are “standing position and motion state”. Then, the posture identification apparatus 20 sequentially generates information in which the identification result and the biological signal information corresponding to the identification result are associated in time series (step S213). This completes the identification process. The stepwise identification process in the identification unit 211 will be further described below.

(識別処理における特定結果の選択)
図3は、第1の実施形態の逐次姿勢識別処理における段階的判定の流れの一例を示すフローチャートである。図3の処理は、図2のステップS212において実行される。
(Selection of specific result in identification process)
FIG. 3 is a flowchart showing an example of the flow of stepwise determination in the sequential posture identification process of the first embodiment. The process of FIG. 3 is performed in step S212 of FIG.

上述の通り、逐次姿勢識別装置20の識別部211は、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210における特定結果にもとづき、ユーザの姿勢および運動状態を識別する。   As described above, the identification unit 211 of the posture recognition apparatus 20 sequentially uses the identification results of the user based on the identification results of the first identification unit 207, the second identification unit 208, the third identification unit 209, and the fourth identification unit 210. Identify posture and motion status.

識別部211はまず、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210の特定結果を受信する(ステップS31)。識別部211は、第1の特定部207の特定結果は「静止」か否かを判定する(ステップS32)。特定結果が「静止」ではない場合(ステップS32、否定)、識別部211は第2の特定部208の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS33)。他方、第1の特定部207の特定結果が「静止」の場合(ステップS32、肯定)、識別部211は、第3の特定部209の特定結果が「臥位」か否かを判定する(ステップS34)。第3の特定部209の特定結果が「臥位」である場合(ステップS34、肯定)、識別部211は、第3の特定部209の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS35)。他方、第3の特定部209の特定結果が「臥位以外」である場合(ステップS34、否定)、識別部211は、第4の特定部210の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS36)。これで識別部211による処理が終了する。   The identification unit 211 first receives the identification results of the first identification unit 207, the second identification unit 208, the third identification unit 209, and the fourth identification unit 210 (step S31). The identification unit 211 determines whether the identification result of the first identification unit 207 is "static" (step S32). If the identification result is not “rest” (No at step S32), the identification unit 211 selects the identification result of the second identification unit 208, and uses it as the identification result of the posture and motion state (step S33). On the other hand, when the identification result of the first identification unit 207 is "rest" (Yes at step S32), the identification unit 211 determines whether the identification result of the third identification unit 209 is "recumbent" (step S32). Step S34). When the identification result of the third identification unit 209 is “placement position” (Yes in step S34), the identification unit 211 selects the identification result of the third identification unit 209, and identifies the posture and motion state identification results. (Step S35). On the other hand, when the identification result of the third identification unit 209 is "other than lying position" (No at step S34), the identification unit 211 selects the identification result of the fourth identification unit 210, and determines the posture and movement state. It is set as an identification result (step S36). The processing by the identification unit 211 ends here.

図3に示した識別部211の処理についてさらに、図4を参照して説明する。図4は、第1の実施形態における逐次姿勢識別処理における段階的判定の流れについて説明するための図である。   The process of the identification unit 211 shown in FIG. 3 will be further described with reference to FIG. FIG. 4 is a diagram for explaining the flow of stepwise determination in the sequential posture identification process in the first embodiment.

図4に示すように、第1の特定部207は、運動・静止識別モデルに基づき、入力された特徴量が「運動」および「静止」のいずれに該当するか特定する。また、第2の特定部208は、運動識別モデルに基づき、入力された特徴量が「ジャンプ」「歩行」「走行」のいずれに該当するか特定する。第3の特定部209は、第1静止識別モデルに基づき、入力された特徴量が「臥位」および「臥位以外」のいずれに該当するか特定する。また、第4の判定部210は、第2静止識別モデルに基づき、入力された特徴量が「立位」「座位」のいずれに該当するか特定する。各特定部は独立して特定処理を実行し、実行結果である特定結果が、識別部211に送信される。   As shown in FIG. 4, the first identification unit 207 identifies, based on the motion / static discrimination model, which one of “motion” and “static” the input feature amount corresponds to. Further, the second specifying unit 208 specifies which one of “jump”, “walking”, and “traveling” the input feature amount corresponds to, based on the exercise identification model. The third identifying unit 209 identifies, based on the first stationary identification model, which one of the “placement position” and the “non-placement position” the input feature amount corresponds to. Further, the fourth determination unit 210 specifies which of the “standing position” and the “sitting position” the input feature amount corresponds to, based on the second stationary identification model. Each identification unit independently executes identification processing, and the identification result as the execution result is transmitted to the identification unit 211.

識別部211は、第1の特定部207の特定結果が「運動」である場合(図4の(1))、第3の特定部209および第4の特定部210の特定結果に関わらず、第2の特定部208の特定結果を選択し、姿勢および運動状態の識別結果として出力する(図4の(2))。このときは、第2の特定部208の特定結果が「ジャンプ」「歩行」「走行」のいずれであるかに応じて、識別部211の識別結果が決定される。   When the identification result of the first identification unit 207 is "exercise" ((1) in FIG. 4), the identification unit 211 does not matter regardless of the identification results of the third identification unit 209 and the fourth identification unit 210. The identification result of the second identification unit 208 is selected, and is output as the identification result of the posture and motion state ((2) in FIG. 4). At this time, the identification result of the identification unit 211 is determined according to which one of “jump”, “walk” and “travel” the identification result of the second identification unit 208 is.

他方、第1の特定部207の特定結果が「静止」である場合(図4の(3))、識別部211は、第3の特定部209の特定結果を参照する(図4の(4))。識別部211は、第3の特定部209の特定結果が「臥位」であれば、第4の特定部210の特定結果に関わらず、「臥位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(5))。他方、識別部211は、第3の特定部209の特定結果が「臥位以外」であれば、第4の特定部210の特定結果を参照する(図4の(7))。そして、第4の特定部210の特定結果が「座位」であれば、識別部211は、「座位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(8))。他方、第4の特定部210の特定結果が「立位」であれば、識別部211は、「立位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(9))。   On the other hand, when the identification result of the first identification unit 207 is "rest" ((3) in FIG. 4), the identification unit 211 refers to the identification result of the third identification unit 209 ((4) in FIG. )). If the identification result of the third identification unit 209 is "recumbent", the identification unit 211 selects "recumbent" regardless of the identification result of the fourth identification unit 210, and identifies the posture and the movement state. It outputs as a result ((5) of FIG. 4). On the other hand, if the identification result of the third identification unit 209 is “other than the lying position”, the identification unit 211 refers to the identification result of the fourth identification unit 210 ((7) in FIG. 4). Then, if the identification result of the fourth identification unit 210 is "sitting", the identification unit 211 selects "sitting" and outputs it as the discrimination result of the posture and the movement state ((8) in FIG. 4). On the other hand, if the identification result of the fourth identification unit 210 is "standing", the identifying unit 211 selects "standing" and outputs it as a result of discrimination of posture and motion state ((9) in FIG. 4). ).

このように、第1の実施形態にかかる逐次姿勢識別処理では、4つの特定部それぞれに姿勢および運動状態を特定させ、識別部211が特定結果を所定の順序で段階的に選択することにより、最終的な逐次姿勢識別結果が出力される。このため、第1の実施形態にかかる逐次姿勢識別装置10は、判定が容易な区分たとえば「運動」と「静止」については上段で判断する。そして、逐次姿勢識別装置10は、判定が困難な区分たとえば「立位」と「座位」については下段で判断する。このため、逐次姿勢識別装置10は、判定容易な識別を先に完了して迅速な処理を実現しつつ、判定困難な識別は、専用の特定部を設けて詳細な特定処理を実行することができる。このため、逐次姿勢識別装置10は、逐次姿勢識別処理の精度を向上させることができる。   As described above, in the sequential posture identification process according to the first embodiment, the posture and the movement state are specified in each of the four specifying units, and the identification unit 211 selects the specification results in a predetermined order in a stepwise manner. The final sequential attitude identification result is output. For this reason, the sequential posture identification device 10 according to the first embodiment determines in the upper part the classification that is easy to determine, for example, "exercise" and "rest". Then, the posture identification apparatus 10 sequentially determines, for example, “standing” and “sitting” in the lower part of the classification that is difficult to determine. For this reason, while the posture identification device 10 completes the easy-to-judge identification first to realize quick processing, it is possible that the hard-to-judge identification executes a detailed identification process by providing a dedicated identification unit. it can. Therefore, the posture recognition apparatus 10 can improve the accuracy of the posture recognition process sequentially.

次に、逐次姿勢識別処理に含まれる特徴量抽出処理、学習処理および識別処理(姿勢特定処理含む)の各々についてさらに説明する。第1の実施形態における特徴量抽出処理の手法は特に限定されない。以下に、特徴量抽出処理の一例について説明する。   Next, each of feature amount extraction processing, learning processing, and identification processing (including posture identification processing) included in the sequential posture identification processing will be further described. The method of the feature quantity extraction process in the first embodiment is not particularly limited. An example of the feature amount extraction process will be described below.

(特徴量抽出処理の一例)
第1の実施形態の逐次姿勢識別装置20では、特徴量抽出部202は、所定の期間において計測された加速度情報および生体信号情報をウェアラブル機器10から受信し、当該所定の期間を重なり合う複数の異なる長さの期間に分割する。そして特徴量抽出部202は、各期間について特徴量を算出する。学習処理および姿勢特定処理においてはこれら複数の特徴量が使用される。なお、第1の作成部203で用いる特徴量およびその抽出サイクル(下記T1〜T4)は、第1の特定部207で用いる特徴量およびその抽出サイクルと同じである。また、第2の作成部204で用いる特徴量およびその抽出サイクルは、第2の特定部208で用いる特徴量およびその抽出サイクルと同じである。また、第3の作成部205で用いる特徴量およびその抽出サイクルは、第3の特定部209で用いる特徴量およびその抽出サイクルと同じである。また、第4の作成部206で用いる特徴量およびその抽出サイクルは、第4の特定部210で用いる特徴量およびその抽出サイクルと同じである。ただし、第1の作成部203が用いる特徴量およびその抽出サイクルと、第2の作成部204が用いる特徴量およびその抽出サイクルと、第3の作成部205が用いる特徴量およびその抽出サイクルと、第4の作成部206が用いる特徴量およびその抽出サイクルは相互に異なってもよい。
(One example of feature quantity extraction processing)
In the sequential posture identification device 20 according to the first embodiment, the feature extraction unit 202 receives, from the wearable device 10, the acceleration information and the biosignal information measured in a predetermined period, and the plurality of different overlapping predetermined periods are received. Divide into periods of length. Then, the feature amount extraction unit 202 calculates a feature amount for each period. The plurality of feature quantities are used in the learning process and the posture specifying process. Note that the feature quantities used in the first creation unit 203 and the extraction cycles (T1 to T4 below) are the same as the feature quantities used in the first identification unit 207 and their extraction cycles. Also, the feature amount used by the second creation unit 204 and the extraction cycle thereof are the same as the feature amount used by the second identification unit 208 and the extraction cycle thereof. Also, the feature amount used in the third creating unit 205 and the extraction cycle thereof are the same as the feature amount used in the third specifying unit 209 and the extraction cycle thereof. In addition, the feature quantity used in the fourth creation unit 206 and the extraction cycle thereof are the same as the feature quantity used in the fourth identification unit 210 and the extraction cycle thereof. However, the feature amount used by the first creating unit 203 and its extraction cycle, the feature amount used by the second creating unit 204 and its extraction cycle, and the feature amount used by the third creating unit 205 and its extraction cycle; The feature quantities used by the fourth creating unit 206 and their extraction cycles may be different from each other.

(第1の特徴量)
第1の特徴量として、特徴量抽出部202は、T1秒間における各軸の加速度情報の時系列集合における基本統計量を算出する。たとえば、最大値、最小値、平均値および分散値のうち少なくとも1つを算出する。たとえば、T1=0.4秒として、0.4秒間に各軸について10個の加速度情報が計測されるとする。この場合、特徴量抽出部202は、各軸についての10個の情報の基本統計量を各軸の特徴量として抽出する。
(First feature amount)
As the first feature quantity, the feature quantity extraction unit 202 calculates basic statistics in a time-series set of acceleration information of each axis in T1 seconds. For example, at least one of the maximum value, the minimum value, the average value, and the variance value is calculated. For example, assuming that T1 = 0.4 seconds, ten pieces of acceleration information are measured for each axis in 0.4 seconds. In this case, the feature quantity extraction unit 202 extracts basic statistics of ten pieces of information on each axis as feature quantities on each axis.

(第2の特徴量)
第2の特徴量として、特徴量抽出部202は、T2秒間(ただし、T1<T2)における各軸の加速度情報の時系列集合における基本統計量を算出する。たとえば、最大値、最小値、平均値および分散値のうち少なくとも1つを算出する。たとえば、T2=2秒とする。
(Second feature)
As the second feature quantity, the feature quantity extraction unit 202 calculates a basic statistic in a time-series set of acceleration information of each axis in T2 seconds (where T1 <T2). For example, at least one of the maximum value, the minimum value, the average value, and the variance value is calculated. For example, T2 = 2 seconds.

(第3の特徴量)
第3の特徴量として、特徴量抽出部202は、T3秒間(ただし、T2<T3)における各軸の揺れ数、全体の揺れ数の平均値および分散値、または生体信号情報から抽出される心拍間隔の平均値および分散値のうち少なくとも1つを算出する。揺れ数とは、ユーザの体の振動数に対応する特徴量である。揺れ数の検出手法については以下に詳述する。
(Third feature amount)
As the third feature amount, the feature amount extraction unit 202 extracts the number of oscillations of each axis in T3 seconds (where T2 <T3), the average value and the dispersion value of the overall number of oscillations, or the heartbeat extracted from biological signal information At least one of an average value and a variance value of the intervals is calculated. The shaking number is a feature amount corresponding to the frequency of the user's body. The method of detecting the number of swings will be described in detail below.

(第4の特徴量)
第4の特徴量として、特徴量抽出部202は、T4秒間(ただし、T3<T4)における各軸の揺れ数、全体の揺れ数の基本統計量、または生体信号情報から抽出される心拍間隔の基本統計量のうち少なくとも1つを算出する。基本統計量としては、たとえば、最大値、最小値、平均値および分散値が挙げられる。
(4th feature amount)
As the fourth feature amount, the feature amount extraction unit 202 calculates the number of oscillations of each axis in T4 seconds (where T3 <T4), the basic statistic of the overall number of oscillations, or the heartbeat interval extracted from biological signal information Calculate at least one of the basic statistics. Basic statistics include, for example, maximum value, minimum value, mean value and variance value.

なお、心拍間隔から算出される特徴量は、心拍間隔の平均値や分散値に限定されない。たとえば、心拍数の基本統計量を特徴量として算出してもよい。また、第1、第2、第3および第4の特徴量としては、上述した特徴量のうちすべてを使用せずともよく、識別する姿勢および運動に依存して、一部の特徴量のみを使用する。   In addition, the feature value calculated from the heartbeat interval is not limited to the average value or the variance value of the heartbeat interval. For example, a basic statistic of heart rate may be calculated as a feature. In addition, as the first, second, third and fourth feature quantities, it is not necessary to use all of the above-mentioned feature quantities, and depending on the posture and motion to be identified, only some of the feature quantities use.

(揺れ数の検出手法)
次に、揺れ数の検出手法につき説明する。ここで、「揺れ数」とは、体の上下方向ならば歩数やジャンプ回数など体の振動数と同様の意味を持つ回数である。揺れ数を姿勢識別のための特徴量として用いることで、ユーザの身体の傾きの程度や振動すなわち揺れを考慮した識別モデルを作成して詳細な姿勢および運動の識別を実現することができる。
(Detection method of swing number)
Next, a method of detecting the number of swings will be described. Here, the “number of swings” is the number of steps having the same meaning as the number of vibrations of the body, such as the number of steps and the number of jumps in the vertical direction of the body. By using the number of swings as a feature amount for posture identification, it is possible to create a discrimination model in consideration of the degree of tilt of the user's body and vibration, that is, vibration, and to realize detailed posture and motion identification.

揺れ数を特徴量として用いる場合、加速度情報計測部101は、ウェアラブル機器10を装着するユーザの身体の揺れを計測するため、少なくとも3軸加速度センサ等の加速度センサを備える。たとえば3軸加速度センサを用いる場合、X,Y,Z軸の3軸(図5参照)において加速度センサが受ける加速度を測定することができる。   When using the number of swings as the feature amount, the acceleration information measurement unit 101 includes at least an acceleration sensor such as a 3-axis acceleration sensor in order to measure the swing of the body of the user wearing the wearable device 10. For example, in the case of using a three-axis acceleration sensor, it is possible to measure the acceleration received by the acceleration sensor in three axes (see FIG. 5) of X, Y, and Z axes.

図5は、逐次姿勢識別処理において用いる特徴量のうち揺れ数の検出手法について説明するための図である。ユーザが姿勢を変えたり運動したりして加速度センサが傾くと、加速度センサが検知する重力加速度が変化する。これによって加速度センサの傾きすなわちユーザの身体の傾きを検知することができる。また、加速度センサが検知するX,Y,Z軸各々における加速度の合成加速度が変化することで、加速度センサすなわちユーザの身体の揺れの程度を検知することができる。たとえば、図5は、ユーザが歩行中に加速度センサによって検知される3軸加速度および合成加速度の計測値の一例を示すグラフである。   FIG. 5 is a diagram for describing a method of detecting the number of oscillations among feature amounts used in the posture recognition process. When the user changes the posture or moves and the acceleration sensor is tilted, the gravitational acceleration detected by the acceleration sensor changes. Thus, the inclination of the acceleration sensor, that is, the inclination of the user's body can be detected. Further, by changing the synthetic acceleration of the acceleration in each of the X, Y, Z axes detected by the acceleration sensor, it is possible to detect the acceleration sensor, that is, the degree of shaking of the user's body. For example, FIG. 5 is a graph showing an example of measurement values of three-axis acceleration and synthetic acceleration detected by the acceleration sensor while the user is walking.

上記のように加速度センサによって得られる計測値を用いて揺れ数を検出する。揺れ数検出の手法の一例を以下に説明する。   The swing number is detected using the measurement value obtained by the acceleration sensor as described above. An example of the method of swing number detection will be described below.

まず、以下の式(1)に基づき合成加速度Aを算出する。

Figure 0006530350
First, the synthetic acceleration Ar is calculated based on the following equation (1).
Figure 0006530350

式(1)で定義する合成加速度Aによれば、各軸方向に対しての揺れが等しく検知でき、センサの回転等の動きがあった場合には合成加速度がほぼ変わらない。図6は、センサを回転させた場合の加速度と合成加速度の一例を示すグラフである。図6の例では、Z軸方向の回転運動が生じているが、合成加速度はほぼZ軸の計測値に追従する。 According to the synthetic acceleration A r as defined in formula (1), can shake equal detection for each axis direction, it does not change substantially synthesis acceleration when there is a movement such as rotation of the sensor. FIG. 6 is a graph showing an example of the acceleration and the synthetic acceleration when the sensor is rotated. In the example of FIG. 6, the rotational movement in the Z-axis direction occurs, but the combined acceleration substantially follows the measurement value of the Z-axis.

次に、合成加速度Aが所定の下限閾値θbtmを下回るとき、その時の合成加速度Abtmを記録する。そして、下限閾値θbtmを下回る合成加速度Abtmが記録されてから所定の上限時間t内に、合成加速度Aが所定の上限閾値θtopを上回るとき、その時の合成加速度Atopを記録する。この処理によって短時間内に合成加速度の値が大きく変化している期間を検出する。 Next, when the combined acceleration A r is below a predetermined lower threshold value theta btm, records the resultant acceleration A btm at that time. Then, the resultant acceleration A btm below the lower threshold theta btm is recorded a predetermined upper limit time in t w, when the combined acceleration A r exceeds a predetermined upper limit threshold value theta top, records the resultant acceleration A top at that time . By this processing, a period in which the value of the synthetic acceleration changes significantly within a short time is detected.

次に記録したAbtmとAtopとの差が所定の揺れ検知閾値θampより大きいか否かを判定する。差が揺れ検知閾値θampより大きい場合、揺れ数1とカウントする。そして、AbtmとAtopをリセットする。また、所定の上限期間t内に揺れ数がカウントされなかった場合もAbtmおよびAtopをリセットする。 The difference between the recorded A btm and A top then is equal to or greater than a predetermined shake detection threshold theta # 038. If the difference is larger than the shake detection threshold θ amp , the number of shakes is counted as 1. Then, reset A btm and A top . Also, if the number of oscillations is not counted within the predetermined upper limit period t w , A btm and A top are reset.

以上の処理によって、長時間一定方向に強い加速度がかかっている場合は揺れ数としてカウントされず、加速度の方向が急に変化する身体の揺れを正確に検出できる。   By the above processing, when strong acceleration is applied in a constant direction for a long time, it is not counted as the number of swings, and it is possible to accurately detect body shake in which the direction of acceleration changes rapidly.

なお、揺れ数の検出手法としては、(1)回転や長期的な変化は揺れとして検出されず、(2)一定の量加速度が変化しなければ揺れとして検出されず、(3)どの軸方向でも同様のアルゴリズムで検知でき、(4)ピエゾ式センサすなわち角速度等を検知できないセンサでも検知可能であれば、特に限定なく任意の手法を用いることができる。このように、揺れ数は、合成加速度特定の動作によらず前後方向や左右方向にいずれの方向であっても区別なく算出する。第1の実施形態にかかる特徴量抽出部202は、T3を数分割した小フレームに区切って各小フレーム内の揺れ数に基づいて分散値や平均値を算出する。   As a method of detecting the number of swings, (1) rotation or long-term change is not detected as a swing, and (2) a certain amount of acceleration is not detected as a swing unless it changes, and (3) which axial direction However, any method can be used without particular limitation as long as it can be detected by the same algorithm and (4) a piezoelectric sensor, that is, a sensor which can not detect angular velocity or the like. As described above, the number of oscillations is calculated regardless of the operation of the synthetic acceleration regardless of the direction in the front-rear direction or the left-right direction. The feature quantity extraction unit 202 according to the first embodiment divides T3 into several small frames and calculates a variance value or an average value based on the number of oscillations in each small frame.

また、「各軸の揺れ数」とは、揺れ数を検知したときに最もその揺れに影響を及ぼした軸のみをカウントして得られる数である。たとえば、上記の手法によって揺れ数がカウントされた時の合成加速度を構成している成分のうち最も大きい加速度が計測された軸を検出する。そして、この軸における揺れ数を1とカウントする。たとえば、揺れ数1がカウントされた時の各軸の加速度のうち最も大きい加速度がZ軸から検出されている場合、Z軸の揺れ数1とカウントする。Z軸の揺れは、たとえばユーザが歩行しているときの揺れや、ユーザがジャンプした場合などに検出される。このため、Z軸の揺れ数に基づいて「歩行」等の運動を検出することができる。   Further, “the number of swings of each axis” is a number obtained by counting only the axis that most affected the swing when detecting the number of swings. For example, among the components constituting the composite acceleration when the number of swings is counted by the above-described method, the axis where the largest acceleration is measured is detected. Then, the number of vibrations on this axis is counted as 1. For example, when the largest acceleration among the accelerations of the respective axes when the number of swings 1 is counted is detected from the Z axis, it is counted as the number of swings 1 of the Z axis. The shake of the Z axis is detected, for example, when the user is walking or when the user jumps. For this reason, movement such as "walking" can be detected based on the number of swings of the Z axis.

なお、第1の実施形態に係る逐次姿勢識別装置20は、機械学習モデルを採用しているため、各特徴量に対する重みづけは自動的に行う。   In addition, since the sequential posture identification device 20 according to the first embodiment employs a machine learning model, weighting for each feature amount is automatically performed.

(学習処理の流れの一例)
図7は、第1の実施形態にかかる逐次姿勢識別装置20による逐次姿勢識別処理のうち学習処理の流れの一例を示す概略図である。図7を用いて、具体的な学習処理の例を説明する。
(One example of the flow of learning process)
FIG. 7 is a schematic diagram showing an example of the flow of learning processing in the sequential posture identification processing by the sequential posture identification device 20 according to the first embodiment. An example of a specific learning process will be described with reference to FIG.

逐次姿勢識別装置20において最初に機械学習を実行する際および追加で機械学習を実行する際は、ユーザが学習モードを選択する等して学習処理の実行開始を逐次姿勢識別装置20に指示する(ステップS300)。そして、ユーザは姿勢の登録を行う。すなわち、ユーザはラベルを入力する。つまり、ユーザは、機械学習させる動作を識別する情報(「姿勢Aの名前」)と、当該動作の「姿勢」と、当該動作が「運動状態」と「静止状態」のいずれに該当するかの情報と、を逐次姿勢識別装置20に入力する(「姿勢Aの登録準備」、ステップS301)。たとえば図7の例では、「姿勢Aの名前」として「座る」を入力する。座っている状態は「静止状態」であるので「止まっている」という運動状態を示す情報を併せて入力する。図7の例では、これによって「座る」という姿勢を識別する。さらに細かな状態を識別する場合は、ラベルが示す姿勢および運動状態の分類を調整して対応する。たとえば、「座る」という名前に対応して、「姿勢:座位」「運動状態:静止」という情報を入力してもよい。また、「跳躍」という名前に対応して、「姿勢:立位」「運動状態:上下躍動」等としてもよい。入力はウェアラブル機器10の入力部104から行うようにしても逐次姿勢識別装置20の入力部213から行うようにしてもよい。ラベルは、機械学習を行わせる動作の各々について入力し逐次姿勢識別装置20に取得させ記憶させる(ステップS302)。   When performing machine learning first and subsequent machine learning in the posture recognition device 20 sequentially, the user instructs the posture recognition device 20 to start execution of the learning process sequentially by selecting the learning mode, etc. Step S300). Then, the user registers the posture. That is, the user inputs a label. That is, the user identifies the machine learning operation (“name of posture A”), the “posture” of the operation, and which of the “exercise state” and the “rest state” the operation corresponds to Information is sequentially input to the posture identification apparatus 20 ("preparation for registration of posture A", step S301). For example, in the example of FIG. 7, "sit" is input as "the name of posture A". Since the sitting state is the "rest state", the information indicating the "resting" motion state is also input. In the example of FIG. 7, this identifies the posture of "sit". In order to identify more detailed states, the classifications of postures and motion states indicated by the labels are adjusted to correspond. For example, in response to the name “sit”, information “posture: sitting”, “exercise state: stationary” may be input. In addition, in response to the name "jumping", "posture: standing position", "exercise state: up and down movement" or the like may be used. The input may be performed from the input unit 104 of the wearable device 10 or sequentially from the input unit 213 of the posture identification device 20. The labels are input for each of the operations for performing machine learning, and sequentially acquired and stored in the posture identification device 20 (step S302).

ラベルの入力後、ユーザは入力したラベルに対応する動作の機械学習開始を逐次姿勢識別装置20に指示する(「姿勢A 開始」、ステップS303)。例えば、逐次姿勢識別装置20の入力部213に開始ボタンや終了ボタンを設けておき、機械学習開始時は、ユーが開始ボタンを押下する。そして、ユーザは、入力したラベルに対応する動作を開始する。ユーザの指示入力によって、逐次姿勢識別装置20において学習モードが起動する(ステップS304)。そして、逐次姿勢識別装置20の特徴量抽出部202は特徴量抽出処理を実行する(ステップS305)。特徴量抽出処理は上述したように各特徴量について予め定められた期間(T1〜T4)ごとに繰り返される。   After inputting the label, the user sequentially instructs the posture identification device 20 to start machine learning of the operation corresponding to the input label ("Position A start", step S303). For example, the start button and the end button are sequentially provided in the input unit 213 of the posture identification device 20, and the user presses the start button at the start of machine learning. Then, the user starts an operation corresponding to the input label. By the user's instruction input, the learning mode is sequentially activated in the posture identification device 20 (step S304). Then, the feature quantity extraction unit 202 of the posture identification device 20 sequentially executes feature quantity extraction processing (step S305). The feature amount extraction process is repeated for each predetermined period (T1 to T4) for each feature amount as described above.

特徴量が抽出されると、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に特徴量が送られる。そして、第1の作成部203は、入力されたラベル(たとえば「座る:止まっている」)に基づき、ラベルで指定された「運動状態」または「静止状態」のデータとして(たとえばラベルが「座る:止まっている」であれば「静止状態」)、入力される特徴量の機械学習を行う(ステップS306)。図7の例では、機械学習は特徴量が抽出される時間T1秒ごとに実行される。なお、T1秒より短い抽出サイクルで抽出される特徴量はスライド入力されることになる。機械学習の実行サイクルは、加速度情報計測部101および生体信号情報計測部102の計測サイクルに応じて設定すればよい。   When the feature amount is extracted, the feature amount is sent to the first creating unit 203, the second creating unit 204, the third creating unit 205, and the fourth creating unit 206. Then, based on the input label (e.g., "sit: stop"), the first creating unit 203 sets data of "exercise state" or "rest state" specified by the label (e.g. : If it is "stopped" ("rest state"), machine learning of the input feature amount is performed (step S306). In the example of FIG. 7, machine learning is performed every time T1 seconds in which the feature value is extracted. Note that the feature amount extracted in the extraction cycle shorter than T1 seconds is to be slide input. The execution cycle of machine learning may be set according to the measurement cycle of the acceleration information measurement unit 101 and the biological signal information measurement unit 102.

第2の作成部204も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であるため、動作状態の識別モデルを作成する構成要素である第2の作成部204は機械学習は行わず待機する(ステップS307)。   Similarly, the second creating unit 204 executes the process based on the input label (for example, "sit: stop"). In the example of FIG. 7, since the input label is “sit: stopped”, ie, “at rest”, the second creating unit 204, which is a component creating the identification model of the operating state, It waits without performing (step S307).

第3の作成部205も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であるため、第3の作成部205は、「静止状態」のうち、「臥位以外」に対応する特徴量として、入力される特徴量の機械学習を行う(ステップS308)。   Similarly, the third creating unit 205 executes a process based on the input label (for example, “sit: stop”). In the example of FIG. 7, since the input label is "sit: stopped", that is, "rest state", the third preparation unit 205 corresponds to "other than the recumbent position" in the "rest state". Machine learning of the input feature amount is performed as the feature amount to be input (step S308).

第4の作成部206も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であり、「臥位以外」のうち「座位」に対応する。このため、第4の作成部206は、「静止状態」、「臥位以外」のうち「座位」に対応する特徴量として、入力される特徴量の機械学習を行う(ステップS309)。   Similarly, the fourth preparation unit 206 executes processing based on the input label (for example, “sit: stop”). In the example of FIG. 7, the input label is “sitting: stopped”, that is, “resting state”, and corresponds to “sitting” out of “other than lying”. Therefore, the fourth creating unit 206 performs machine learning of the input feature amount as the feature amount corresponding to the "sitting position" among the "rest state" and the "other than lying position" (step S309).

ユーザ側ではラベルで指定した動作が完了すると、当該動作の機械学習の終了を逐次姿勢識別装置20に指示する(「姿勢A 終了」、ステップS310)。たとえば、ユーザは、入力部213の終了ボタンを押下する。ユーザの指示に応じて、逐次姿勢識別装置20は学習モードを停止する(ステップS311)。そして、ユーザは次に機械学習させる姿勢Bの登録の準備を開始する(ステップS312)。以上が逐次姿勢識別処理における学習処理の一例の流れである。   When the operation specified by the label is completed on the user side, the posture identification device 20 is sequentially instructed to finish machine learning of the operation ("attitude A end", step S310). For example, the user presses the end button of the input unit 213. In response to the user's instruction, the posture identification apparatus 20 sequentially stops the learning mode (step S311). Then, the user starts preparation for registration of posture B to be machine-learned next (step S312). The above is the flow of an example of the learning process in the posture recognition process.

学習処理において使用するラベルは、識別の対象とする動作の姿勢および運動状態を示すものであり、たとえば「歩く」「ジャンプする」「座る」「立つ」「うつ伏せになる」「仰向けになる」等と、それが運動状態であるか静止状態であるかの表示を含む。   The label used in the learning process indicates the posture and motion state of the motion to be identified. For example, "walk", "jump", "sit", "stand up", "becoming prone", "becoming supple", etc. And an indication of whether it is in motion or at rest.

(識別処理の流れの一例)
図8は、第1の実施形態にかかる逐次姿勢識別装置20による逐次姿勢識別処理のうち識別処理(姿勢特定処理含む)の流れの一例を示す概略図である。次に、図8を参照しつつ、姿勢特定処理および識別処理について具体的な一例を説明する。なお、第1の実施形態にかかる逐次姿勢識別装置20は、図8に示す姿勢特定処理および識別処理を実行中であっても、並行して図7の学習処理を実行し、適宜識別モデルを更新していくことができる。
(An example of the flow of identification processing)
FIG. 8 is a schematic diagram showing an example of the flow of identification processing (including attitude identification processing) in the sequential attitude identification processing by the sequential attitude identification device 20 according to the first embodiment. Next, with reference to FIG. 8, a specific example of the posture specifying process and the identifying process will be described. Note that the sequential posture identification apparatus 20 according to the first embodiment executes the learning process of FIG. 7 in parallel even while the posture identification process and the identification process shown in FIG. It can be updated.

識別処理を開始するときは、ユーザがまず逐次姿勢識別装置20に対して識別処理を開始する旨の指示を入力する(ステップS401)。たとえば、ユーザは、識別モードを選択する旨の入力を行う。ユーザの入力に応じて、逐次姿勢識別装置20は、識別モードを起動する(ステップS402)。識別モード起動時には、特徴量抽出部202が抽出する特徴量が第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に入力される。そして、ユーザは学習モード時とは異なり、ラベルの指定入力はおこなわず直ちに任意の動作を開始する(「姿勢A 開始」、ステップS403)。たとえば、ユーザは「座っている」という動作を開始する。ユーザが装着するウェアラブル機器10はユーザの加速度情報と生体信号情報とを計測して逐次姿勢識別装置20に送信する。そして、逐次姿勢識別装置20は、受信した加速度情報および生体信号情報の少なくとも一方に基づき特徴量を抽出する(ステップS404)。特徴量抽出処理は前述のとおり、各特徴量について予め決められた期間ごとに実行される。抽出された特徴量は第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に入力される。   When the identification process is started, the user sequentially inputs an instruction to start the identification process to the posture identification device 20 (step S401). For example, the user makes an input to select the identification mode. In response to the user's input, the posture identification apparatus 20 sequentially activates the identification mode (step S402). When the identification mode is activated, the feature quantity extracted by the feature quantity extraction unit 202 is input to the first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210. Then, unlike in the learning mode, the user does not perform designation input of a label, and immediately starts an arbitrary operation ("start of posture A," step S403). For example, the user initiates an action of "sitting". The wearable device 10 worn by the user measures the acceleration information and the biological signal information of the user and sequentially transmits them to the posture identification device 20. Then, the posture identification apparatus 20 sequentially extracts the feature amount based on at least one of the received acceleration information and biological signal information (step S404). As described above, the feature amount extraction process is performed every predetermined period for each feature amount. The extracted feature amount is input to the first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210.

第1の特定部207は、入力された特徴量と第1の作成部203により作成済の運動・静止識別モデルに基づき、現在の特徴量が運動状態と静止状態のいずれに該当するかを特定する。図8の例では、第1の特定部207は、入力された特徴量に対応する状態は「静止状態」(すなわち「止まっている」)であると特定する(ステップS405)。   The first specifying unit 207 specifies whether the current feature amount corresponds to the motion state or the still state based on the input feature amount and the motion / still identification model created by the first creating unit 203. Do. In the example of FIG. 8, the first specifying unit 207 specifies that the state corresponding to the input feature amount is the “rest state” (that is, “stops”) (step S405).

第2の特定部208は、入力された特徴量と第2の作成部204により作成済の運動識別モデルに基づき、現在の特徴量は運動状態のうち、「歩いている」に該当すると特定する(ステップS406)。   The second identifying unit 208 identifies that the current feature corresponds to “walking” in the motion state based on the input feature and the motion identification model created by the second creating unit 204. (Step S406).

第3の特定部209は、入力された特徴量と第3の作成部205により作成済の第1静止識別モデルに基づき、現在の特徴量は静止状態のうち、「臥位以外」に該当すると特定する(ステップS407)。   The third identifying unit 209 determines that the current feature amount corresponds to “other than the recumbent position” in the stationary state based on the input feature amount and the first stationary identification model created by the third creating unit 205. It identifies (step S407).

第4の特定部210は、入力された特徴量と第4の作成部206により作成済の第2静止識別モデルに基づき、現在の特徴量は「静止状態、臥位以外」のうち、「座位」に該当すると特定する(ステップS408)。図8の例では、T1秒ごとに姿勢特定処理が繰り返し実行される。   The fourth identifying unit 210 is based on the input feature amount and the second stationary identification model created by the fourth creating unit 206, and the current feature amount is “stationary, out of“ stationary state, other than recumbent position ”. "Is identified as" (step S408). In the example of FIG. 8, the posture specifying process is repeatedly executed every T1 seconds.

第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理が完了すると、各特定結果が識別部211に送られる。そして、識別部211は、4つの特定結果を統合して最終的な識別結果を出力する。具体的には、識別部211はまず、第1の特定部207による特定結果を参照する(第1段目、ステップS409)。そして第1の特定部207による特定結果が「止まっている」すなわち「静止状態」であるため、識別部211は、第1静止識別モデルによる特定を実行する第3の特定部209の特定結果「臥位以外」を採用(第2段目、ステップS409)する。さらに、識別部211は、「臥位以外」の下位区分を特定する第4の特定部210の特定結果を参照する。そして、識別部211は、第4の特定部210の特定結果「座位」を採用(第3段目、ステップS409)する。これによって、識別部211は、ユーザの姿勢および運動状態を「座位」と識別する。   When the posture specifying process by the first specifying unit 207, the second specifying unit 208, the third specifying unit 209, and the fourth specifying unit 210 is completed, each specifying result is sent to the determining unit 211. Then, the identification unit 211 integrates the four identification results and outputs a final identification result. Specifically, the identification unit 211 first refers to the identification result by the first identification unit 207 (first stage, step S409). Then, since the identification result by the first identification unit 207 is "stopped", that is, the "rest state", the identification unit 211 identifies the identification result of the third identification unit 209 that executes the identification by the first stationary identification model. "Other than recumbent position" is adopted (second step, step S409). Furthermore, the identification unit 211 refers to the identification result of the fourth identification unit 210 that identifies the subdivision of “other than the decile”. Then, the identification unit 211 adopts the identification result “sitting” of the fourth identification unit 210 (third step, step S409). Thereby, the identification unit 211 identifies the posture and motion state of the user as "sitting position".

このように識別処理においては、識別部211は、第1段階として特徴量が「運動状態」と「静止状態」のいずれに該当するか(第1の特定部207の特定結果)をチェックする。そして、第1段階の結果が「運動状態」の場合には、識別部211は、運動状態の種類を特定した特定結果(第2の特定部208の特定結果)を第2段階として選択する。他方、第1段階の結果が「静止状態」の場合には、識別部211は、静止状態のうち、「臥位」と「臥位以外」という区分のいずれかを特定する特定結果(第3の特定部209の特定結果)を第2段階として選択する。さらに下位区分が設定されている「臥位以外」が第2段階において選択された場合、識別部211は、「臥位以外」の下位区分「座位」または「立位」(第4の特定部210の特定結果)を第3段階として選択する。他方、下位区分が設定されていない「臥位」が第2段階において選択された場合、識別部211は、第2段階で処理を終了し「臥位」を識別結果として選択する。このように識別部211は、下位区分が設定されていない区分まで段階的に選択処理を進め、選択処理において到達した最も下位の区分を識別結果として出力する。   As described above, in the identification process, the identification unit 211 checks which of the “motion state” and the “rest state” the feature amount corresponds to as the first step (the identification result of the first identification unit 207). Then, when the result of the first stage is the “exercise state”, the identification unit 211 selects, as the second stage, the identification result (the identification result of the second identification unit 208) that identifies the type of the exercise state. On the other hand, when the result of the first step is “rest state”, the identification unit 211 specifies one of the classification “rest position” and “other than the rest position” in the rest state (third The identification result of the identification unit 209) is selected as the second stage. Furthermore, when “other than deceiving position” for which the subdivision is set is selected in the second step, the identification unit 211 determines that the subdivision “sitting” or “standing position” (“fourth identification portion”) The specific result of 210) is selected as the third step. On the other hand, when “recumbent position” in which the subdivision is not set is selected in the second stage, the identification unit 211 ends the process in the second stage and selects “recumbent position” as an identification result. As described above, the identification unit 211 proceeds to the selection process step by step until the section for which the lower level section is not set, and outputs the lowest section reached in the selection process as an identification result.

ユーザは別の動作に移行するときは特に逐次姿勢識別装置20に対する入力は行わず、異なる動作に移行する(「姿勢A終了、姿勢B開始」、ステップS410)。ユーザの動作変化に応じて、逐次姿勢識別装置20に送信される加速度情報および生体信号情報が変動し、特徴量が変動する。これによって、逐次姿勢識別装置20がT1ごとに実行する識別処理(姿勢特定処理含む)の結果に姿勢変動が反映されていく。   When the user shifts to another operation, the user does not perform input to the posture identification apparatus 20 one by one in particular, and shifts to a different operation ("end of attitude A, start of attitude B", step S410). The acceleration information and the biological signal information sequentially transmitted to the posture identification device 20 change according to the change in the user's operation, and the feature amount changes. As a result, the posture change is reflected in the result of the identification process (including the posture specifying process) sequentially performed by the posture recognition apparatus 20 every T1.

このように、第1の実施形態にかかる逐次姿勢識別装置20は、ユーザの姿勢や運動状態を識別する。そして、逐次姿勢識別装置20の生成部212は、識別した姿勢や運動状態と、生体信号情報の変動を対応づけることで、ユーザの健康状態の判断に利用できる情報を生成する。   As described above, the sequential posture identification device 20 according to the first embodiment identifies the posture and the movement state of the user. Then, the generation unit 212 of the posture identification device 20 sequentially generates information that can be used to determine the user's health condition by correlating the identified posture and motion state with the fluctuation of the biological signal information.

(変形例)
上記の逐次姿勢識別処理においては、第1の特定部207が運動状態と静止状態とを特定し、第2の特定部208が運動状態の種類を特定し、第3の特定部209が臥位と臥位以外とを特定し、第4の特定部210が立位と座位とを特定するものとした。これに限らず、各特定部が特定する姿勢および運動状態の種類をさらに細分化して設定することもできる。
(Modification)
In the above-described sequential posture identification processing, the first specification unit 207 specifies the motion state and the stationary state, the second specification unit 208 specifies the type of motion state, and the third specification unit 209 indicates the decubitus position. The fourth identification unit 210 identifies the standing position and the sitting position. Not limited to this, the types of postures and motion states specified by each specifying unit can be further subdivided and set.

たとえば、識別モデルを作成する際に、特定の時間に計測された加速度情報に基づく姿勢ラベルを、他の時間に計測された加速度情報に基づく同一の姿勢ラベルと区別して機械学習させる。たとえば、朝の8時に計測された加速度情報に基づく「座位」と、夜の9時に計測された加速度情報に基づく「座位」と、を区別して機械学習させる。同じ姿勢であっても、当該姿勢のときに測定される加速度情報は、測定する日時等によって変化すると考えられる。たとえば、朝、ユーザが活発に活動している時間帯の「立位」と、夜中にユーザが疲労してぼんやりしているときの「立位」とは、計測される加速度情報に差異が生じると考えられる。そこで、より精度の高い逐次姿勢識別処理を実現するためには、日時等によって生じる同じ姿勢の間の変化も加味して処理を実行することが有用と考えられる。   For example, when creating the identification model, the posture label based on the acceleration information measured at a specific time is machine-trained in distinction from the same posture label based on the acceleration information measured at another time. For example, machine learning is performed by distinguishing “sitting” based on acceleration information measured at 8 o'clock in the morning and “sitting” based on acceleration information measured at 9 o'clock at night. Even if the posture is the same, it is considered that the acceleration information measured in the posture changes depending on the date and time of measurement. For example, in the morning, there is a difference in measured acceleration information between the “standing position” of the time when the user is actively active and the “standing position” when the user is tired and vague during the night it is conceivable that. Therefore, in order to realize a more accurate sequential posture identification process, it is considered useful to execute the process in consideration of the change between the same posture caused by the date and time.

また、人の動作や運動状態は季節や気候など、他の要因によっても変動すると考えられる。したがって、一日のうちどの時間か、に応じて姿勢ラベルを作成するだけでなく、どの季節か、どのような気候か、気温はどの程度か、等に応じて同じ姿勢や運動状態であっても異なるラベルを作成することが有用と考えられる。また、逐次姿勢識別装置20は、ユーザの健康状態に応じたラベルに基づいて機械学習を実行するように構成してもよい。たとえば、逐次姿勢識別装置20は、怪我をしたユーザの「回復前の立位」、「回復中の立位」、「回復後の立位」等のラベルに基づいて機械学習を実行するように構成してもよい。   In addition, it is thought that human movement and movement state also fluctuate due to other factors such as season and climate. Therefore, in addition to creating a posture label according to which time of day, it is the same posture or movement state according to which season, what kind of climate, how much temperature, etc. It is also considered useful to create different labels. In addition, the posture identification device 20 may be configured to execute machine learning based on a label corresponding to the health condition of the user. For example, the sequential posture identification device 20 performs machine learning based on labels such as “Stand before recovery,” “Standing during recovery,” “Stand after recovery,” etc. of the injured user. It may be configured.

そこで、変形例として、第4の特定部210が特定する「立位」と「座位」のそれぞれについて複数のラベルを準備する。図9は、変形例にかかる逐次姿勢識別処理における判定について説明するための図である。図9に示すように、変形例では、「立位A」、「立位B」、「立位C」等として、異なる時間帯に対応する立位を特定するよう、第4の特定部210を構成する。さらに、「座位A」、「座位B」、「座位C」等として、異なる時間帯に対応する座位を特定するよう、第4の特定部210を構成する。この場合、第4の作成部206は、第4の特定部210で特定する各ラベルに対応する識別モデルを作成する。   Therefore, as a modification, a plurality of labels are prepared for each of the "standing position" and the "sitting position" specified by the fourth specifying unit 210. FIG. 9 is a diagram for explaining the determination in the sequential posture identification process according to the modification. As shown in FIG. 9, in the modification, the fourth specifying unit 210 is configured to specify standing positions corresponding to different time zones as “standing position A”, “standing position B”, “standing position C”, and the like. Configure Furthermore, the fourth specifying unit 210 is configured to specify a sitting position corresponding to a different time zone as “Siting position A”, “Siting position B”, “Siting position C” or the like. In this case, the fourth creating unit 206 creates an identification model corresponding to each label identified by the fourth identifying unit 210.

図9の例では、不明な姿勢の加速度情報が入力されると(図9の(1))、識別部211はまず、第1の特定部207の特定結果が静止状態か運動状態かを特定する。第1の特定部207の特定結果が「運動状態」(図9の(2)、「動作」)であれば、識別部211は、第2の特定部208の特定結果(図9の(3)、「動作A」または「動作B」)を採用する。他方、第1の特定部207の特定結果が「静止状態」(図9の(4)、「静止」)であれば、識別部211は、第3の特定部209の特定結果(図9の(5)(6)、「臥位」または「その他」)を採用する。第3の特定部209の特定結果が「臥位」の場合(図9の(5))、識別部211は、それより下位の区分はないため、「臥位」を採用する。第3の特定部209の特定結果が「その他」の場合(図9の(6))、識別部211は、さらに下位の区分の特定を行う第4の特定部210の特定結果を採用する(図9の(7)、(8))。第4の特定部210は、「立位A」「立位B」「立位C」と特定された加速度情報をすべて「立位」と特定し、「座位A」「座位B」「座位C」と特定された加速度情報をすべて「座位」とし特定する。識別部211は、第4の特定部210の特定結果を採用して、識別結果として出力する。   In the example of FIG. 9, when acceleration information of an unknown posture is input ((1) in FIG. 9), the identification unit 211 first identifies whether the identification result of the first identification unit 207 is the stationary state or the motion state. Do. If the identification result of the first identification unit 207 is “exercise state” ((2) in FIG. 9, “operation”), the identification unit 211 determines that the identification result of the second identification unit 208 ((3 in FIG. , "Action A" or "action B"). On the other hand, if the identification result of the first identification unit 207 is “rest state” ((4) in FIG. 9, “rest”), the identification unit 211 identifies the identification result of the third identification portion 209 (FIG. 9). (5) (6), adopt "the recumbent position" or "others". If the identification result of the third identifying unit 209 is "recumbent" ((5) in FIG. 9), the identification unit 211 adopts "recumbent" because there is no lower rank. When the identification result of the third identification unit 209 is "other" ((6) in FIG. 9), the identification unit 211 adopts the identification result of the fourth identification unit 210 that further identifies the lower level category ((6)) (7) and (8) of FIG. The fourth identification unit 210 identifies all the acceleration information identified as "standing position A", "standing position B", and "standing position C" as "standing position", and "seating A", "seating B", "seating C" All the acceleration information identified as "is identified as" sitting ". The identification unit 211 adopts the identification result of the fourth identification unit 210 and outputs it as an identification result.

このように、逐次姿勢識別装置は、識別が困難なラベル(たとえば「立位」と「座位」)各々について、異なる時点のデータに異なるラベルを付して機械学習を実行し、識別処理を実行することで、識別が困難な姿勢や運動状態であっても網羅的に検知することができる。すなわち、逐次姿勢識別装置は、「立位A」「立位B」「立位C」を全て同じ「立位」と特定するため、姿勢の微妙な変化を考慮しつつ、同じ上位区分に分類できる姿勢および運動状態を網羅的に検知することができる。   In this way, the posture identification device sequentially performs machine learning by performing different types of data at different points in time for each of the labels (for example, "standing position" and "sitting position") that are difficult to identify, and performs identification processing By doing this, it is possible to comprehensively detect even postures and exercise states that are difficult to identify. That is, in order to identify "standing position A", "standing position B" and "standing position C" as the same "standing position" sequentially, the posture recognition device classifies them into the same upper class while considering subtle changes in the posture. It is possible to comprehensively detect possible postures and motion states.

なお、ここでは、所定時間帯の姿勢に対して一つのラベルを付すものとしたが、これに限らず、同一の姿勢が一定期間離れて複数検知された場合には常に異なるラベルを付して区別するようにしてもよい。   In this case, although one label is attached to the attitude of the predetermined time zone, the present invention is not limited to this, and when a plurality of same attitudes are detected at predetermined intervals, different labels are always attached. You may make it distinguish.

また、上記の例では、立位と座位について複数のラベルを作成する例を説明したが、これに限らず、任意の姿勢および運動状態について時間や季節等ごとに異なるラベルを作成してもよい。   In the above example, an example of creating a plurality of labels for standing and sitting positions has been described. However, the present invention is not limited to this, and different labels may be created for each posture and exercise state every time or season. .

(第1の実施形態の効果)
上記のように、第1の実施形態にかかる逐次姿勢識別装置は、抽出部と、作成部と、識別部と、を備える。抽出部は、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する。作成部は、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。識別部は、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このため、逐次姿勢識別装置は、特定部が特定する区分を柔軟に設定して、ユーザの姿勢および運動状態を識別することができる。また、逐次姿勢識別装置は、所定の時間の姿勢および運動状態に対応する区分を含むユーザの姿勢および運動状態に対応する複数の区分から、ユーザの姿勢および運動状態を特定する。このため、所定の時間に対応する姿勢および運動状態と、他の時間に対応する姿勢および運動状態を区別して識別精度を向上させることができる。また、逐次姿勢識別装置は、識別が容易な区分から識別が困難な区分へと、区分を順番に選択する。このため、逐次姿勢識別装置は、容易に識別できる区分について処理時間を増加させることなく、迅速な識別を実現することができる。このため、識別が容易な区分については迅速に識別結果を得ることができる。
(Effects of the first embodiment)
As described above, the sequential posture identification apparatus according to the first embodiment includes the extraction unit, the creation unit, and the identification unit. The extraction unit extracts a first feature amount corresponding to a first predetermined period and a second feature amount corresponding to a second predetermined period from the acceleration information of the user. The creation unit creates a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount. The identification unit is a plurality of sections corresponding to the posture and motion state of the user based on the identification model and the second feature amount, and includes a plurality of sub-divisions corresponding to predetermined dates and times for the same posture and motion state. Of the categories, from the easy to distinguish category to the difficult category to distinguish, by sequentially selecting the category corresponding to the posture and exercise state of the user in the second predetermined period, the user of the second predetermined period Identify posture and motion status. For this reason, the posture identification apparatus can set the category specified by the identification unit flexibly to identify the posture and motion state of the user. Also, the sequential posture identification device identifies the posture and motion state of the user from a plurality of segments corresponding to the posture and motion state of the user including the segments corresponding to the posture and motion state of a predetermined time. For this reason, it is possible to distinguish between the posture and motion state corresponding to a predetermined time and the posture and motion state corresponding to another time to improve identification accuracy. In addition, the posture identification apparatus sequentially selects sections from easy-to-identify sections to difficult-to-identify sections. For this reason, the posture identification apparatus can realize quick identification without increasing the processing time for easily identifiable segments. For this reason, it is possible to quickly obtain an identification result for a segment that is easy to identify.

また、第1の実施形態にかかる逐次姿勢識別装置において、識別部は、複数の区分のうち上位区分から下位区分へと区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このため、逐次姿勢識別装置は、識別がより容易な区分から始めて迅速に識別を行うことができる。   Further, in the sequential posture identification apparatus according to the first embodiment, the recognition unit selects the classification from the upper classification to the lower classification in order among the plurality of classifications, thereby determining the posture of the user in the second predetermined period and Identify exercise status. For this reason, the posture identification apparatus can perform identification rapidly, starting from a segment that is easier to identify.

また、第1の実施形態にかかる逐次姿勢識別装置は、識別モデルと第2の特徴量とに基づき、第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の時間の姿勢および運動状態に対応する区分を含む複数の区分の中から各々特定する4以上の特定部をさらに備える。そして、識別部は、4以上の特定部が特定した区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する1の区分を少なくとも3段階で順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このように、逐次姿勢識別装置は、4以上の特定部においてそれぞれ姿勢および運動状態を特定し、特定結果を段階的に選択する。このため、各特定部において特定する姿勢および運動状態や、選択の順番等を柔軟に設定して識別速度や効率を向上させることができる。   In addition, the sequential posture identification apparatus according to the first embodiment determines, based on the identification model and the second feature value, one category to which the posture and the motion state of the user in the second predetermined period correspond to a predetermined time. The system further includes four or more identification units that respectively identify from among a plurality of sections including sections corresponding to the posture and the movement state of. And an identification part is a division corresponding to the posture of the user of a 2nd predetermined period, and an exercise state from the division which is easy to distinguish among the division which four or more specific parts specified, to a division which is hard to distinguish. Are sequentially selected in at least three stages, thereby identifying the posture and motion state of the user in the second predetermined period. In this manner, the sequential posture identification device identifies the posture and the motion state in each of the four or more identification units, and selects the identification results in stages. Therefore, it is possible to flexibly set the posture and motion state to be specified in each specifying unit, the order of selection, and the like to improve the identification speed and the efficiency.

また、第1の実施形態にかかる逐次姿勢識別装置において、識別部は、4以上の特定部により特定された区分を少なくとも3段階で選択する。このため、逐次姿勢識別装置は、段数を適切に設定して処理負荷を調節しつつ、精度の高い逐次姿勢識別を実行することができる。   Further, in the sequential posture identification apparatus according to the first embodiment, the identification unit selects the section identified by the four or more identification units in at least three stages. Therefore, the posture recognition apparatus can perform accurate posture recognition with high accuracy while appropriately setting the number of stages to adjust the processing load.

また、第1の実施形態にかかる逐次姿勢識別装置において、特定部は、臥位および臥位以外のいずれかの区分を特定する第1の特定部と、臥位以外のうち、立位および座位のいずれかの区分を特定する第2の特定部と、を備える。このため、逐次姿勢識別装置は、複数の特定部における特定結果に基づき、段階的に特定結果を選択して逐次姿勢識別を実行することができる。また、識別が困難な立位と座位を、識別が容易な臥位と臥位以外とは別の特定部で特定することにより、逐次姿勢識別装置は、第2の特定部では精度の高い識別モデルを用い、第1の特定部では精度が低めの識別モデルを用いるなど、各特定部での処理精度を調整することができる。このため、全体としての識別精度を向上させることが可能である。   Further, in the sequential posture identifying apparatus according to the first embodiment, the identifying unit is a first identifying unit that identifies any one of the lying position and the lying position, and the standing position and the sitting position among those other than the lying position. And a second identification unit that identifies any one of the categories. For this reason, the posture recognition apparatus can sequentially perform the posture recognition by selecting the specification results in stages based on the specification results of the plurality of specifying units. Also, by identifying standing positions and sitting positions, which are difficult to distinguish, with the easily identifiable distinction positions other than the easily positioned positions and the lying positions, the sequential posture identifying apparatus identifies with high accuracy in the second identification unit. The processing accuracy in each identifying unit can be adjusted, such as using a model and using a identification model with lower accuracy in the first identifying unit. Therefore, it is possible to improve the identification accuracy as a whole.

また、第2の特定部は、複数の所定の日時に各々対応する複数の立位の区分および複数の所定の日時に各々対応する複数の座位の区分のいずれかを、第2の所定期間のユーザの姿勢および運動状態が該当する1の区分として特定する。このため、逐次姿勢識別装置は、同じ「立位」や「座位」であっても時間や季節、温度等に応じた微妙な姿勢や運動状態の変化を反映して、異なるラベルとして複数種類の「立位」および「座位」を識別することができる。このため、逐次姿勢識別装置は、識別が困難な姿勢および運動状態であっても識別精度を向上させて逐次姿勢識別を実現することができる。   In addition, the second identification unit may select one of a plurality of standing sections respectively corresponding to a plurality of predetermined dates and times and a plurality of segments of a plurality of sitting positions respectively corresponding to a plurality of predetermined dates and times during a second predetermined period. The user's posture and motion state are identified as the corresponding 1 category. For this reason, even if the posture identification device is the same "standing position" or "sitting position", it reflects changes in the posture and motion state depending on time, season, temperature, etc. "Standing" and "sitting" can be identified. For this reason, the posture recognition apparatus can sequentially realize posture recognition by improving identification accuracy even in postures and motion states that are difficult to distinguish.

また、逐次姿勢識別装置は、特定部による特定結果を並列的に処理するのではなく、多段的に組み合わせて用いる。このため、逐次姿勢識別装置は、コントラストが小さいために識別しにくい姿勢や運動状態を予め専用の特定部によって特定するよう構成され、識別精度を向上させることができる。   In addition, the posture identification apparatus does not process the identification results of the identification unit in parallel, but uses them in combination in multiple stages. For this reason, the posture identification device is configured to specify in advance a posture or a motion state which is difficult to identify because the contrast is small by a dedicated specifying unit, and it is possible to improve the identification accuracy.

静止状態を複数の区分に分類しようとした場合に、「立位」と「座位」との区別が困難な理由の1つは、「立位」と「座位」との差異が、他の姿勢と「立位」または「座位」との差異に比較して小さいためであると考えられる。したがって、逐次姿勢識別装置が、複数のラベルたとえば「立位」「座位」「臥位」を機械学習に基づき並列的に区別しようとすると、「立位」と「座位」との識別が困難になる。つまり、「立位」または「座位」と「臥位」との差異に比して相対的に小さい「立位」と「座位」との差異が、相対的に識別されにくくなる。上記実施形態では、相互に相対的に差異が小さい区分の組み合わせを、他の区分とは別の特定部において特定させることにより、識別精度を向上させる。   One of the reasons why it is difficult to distinguish between “standing” and “sitting” when trying to classify stationary state into multiple categories is the difference between “standing” and “sitting”, but other attitudes It is considered to be small compared to the difference between “H” and “Sit” or “Sit”. Therefore, if it is attempted to sequentially distinguish a plurality of labels, for example, "standing position", "sitating position" and "throwing position" based on machine learning, it becomes difficult to distinguish between "standing position" and "siting position". Become. That is, the difference between the "standing position" and the "sitting position", which is relatively smaller than the difference between the "standing position" or the "sitting position", is relatively hard to be identified. In the above embodiment, identification accuracy is improved by specifying combinations of sections having relatively small differences relatively to each other in a specific unit different from the other sections.

(その他の変形例)
上記のように第1の実施形態においては、ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成部を4つ設け、ユーザの姿勢および運動状態を特定するための特定部を4つ設けた。ただし、作成部および特定部の数は4に限られず、5以上の作成部および特定部を設けて細かく姿勢および運動状態を識別してもよい。また、識別処理の段数も必ずしも3に限定されず、特定部の数に応じて任意の段数に設定することができる。
(Other modifications)
As described above, in the first embodiment, four creation units for creating a discrimination model for identifying the posture and exercise state of the user are provided, and the identification unit for specifying the posture and exercise state of the user is Provided. However, the number of creation units and identification units is not limited to four, and five or more creation units and identification units may be provided to finely identify the posture and motion state. Further, the number of stages of the identification process is not necessarily limited to three, and can be set to any number of stages according to the number of specific units.

第1の実施形態では、運動と静止とを区別する特定部と、運動の種類を特定する特定部と、静止のうち臥位と臥位以外とを特定する特定部と、臥位以外のうち立位と座位を特定する特定部を設けた。これに限らず、特に区別が困難な任意の2以上の区分を相互に区別するための特定部を設けることができる。   In the first embodiment, the identification unit that distinguishes exercise from rest, the identification unit that identifies the type of exercise, the identification unit that identifies the recumbent position and the position other than the repose position among the rest, and the other than the recumbent position A specific section to identify standing position and sitting position was provided. Not only this but the specific part for mutually distinguishing arbitrary two or more especially difficult divisions can be provided.

また、介護やリハビリを目的として逐次姿勢識別を行う場合等に、特に着目する姿勢や運動状態の区分をユーザが設定することができるように構成してもよい。   In addition, in the case where posture identification is sequentially performed for the purpose of nursing care or rehabilitation, the user may be able to set classification of a posture or exercise state to which attention is particularly focused.

また、特定部の特定結果を段階的に選択する際の選択順序も必ずしも限定されない。第1の実施形態では、相互に識別が容易な区分を先の段で、相互に識別が困難な区分を後段で選択するように選択順序を設定する。ただし、識別の困難性以外の基準に基づいて選択順序を設定することも可能である。   Moreover, the selection order at the time of selecting the specific result of a specific part in steps is not necessarily limited. In the first embodiment, the selection order is set such that, in the first stage, sections that are easy to identify with each other are selected in the second stage. However, it is also possible to set the selection order based on criteria other than the difficulty of identification.

(実施例)
図10は、実施形態にかかる逐次姿勢識別方法を用いた場合の精度向上について説明するための図である。図10を参照し、本実施形態にかかる逐次姿勢識別方法の効果について説明する。
(Example)
FIG. 10 is a diagram for explaining the improvement in accuracy when the sequential posture identification method according to the embodiment is used. The effect of the sequential posture identification method according to the present embodiment will be described with reference to FIG.

図10は、7名のユーザ「u01」「u02」「u03」「u04」「u05」「u06」「u07」について行った逐次姿勢識別の実験結果を示す。   FIG. 10 shows experimental results of sequential posture identification performed for seven users “u01”, “u02”, “u03”, “u04”, “u05”, “u06”, and “u07”.

図10中、左側のデータ(1)は、3つの特定部を設けてそれぞれにおいて、(A)運動状態か静止状態かの特定、(B)運動の種類の特定、(C)静止の種類の特定、を実行した場合の実験結果を示す。この場合には、逐次姿勢識別処理結果として、(A)で「運動状態」と特定されれば(B)の特定結果を識別結果として採用し、(A)で「静止状態」と特定されれば(C)の特定結果を採用した。   In FIG. 10, data (1) on the left side is provided with three identification parts, and in each of (A) identification of exercise state or rest state, (B) identification of exercise type, (C) rest type We show experiment result when we perform identification. In this case, if "exercise state" is specified in (A) as the posture recognition processing result sequentially, the specific result of (B) is adopted as the identification result, and "static state" is specified in (A). (C) was adopted.

図10中、中央のデータ(2)は、上記第1の実施形態のように4つの特定部を設けてそれぞれにおいて、(A)運動状態か静止状態かの特定、(B)運動の種類の特定、(C)臥位かそれ以外かの特定、(D)立位か座位かの特定、を実行した場合の実験結果を示す。この場合には、逐次姿勢識別処理結果として、(A)で「運動状態」と特定されれば(B)の特定結果を識別結果として採用した。また、(A)で「静止状態」と特定されれば(C)の特定結果、さらに(C)で臥位以外と特定された場合は(D)の特定結果を採用した。   In FIG. 10, central data (2) is provided with four identification parts as in the first embodiment, and in each of (A) identification of exercise state or rest state, (B) exercise type An experiment result at the time of performing specification (C) specification of recumbency or others and (D) specification of standing position or sitting position is shown. In this case, if "exercise state" is specified in (A) as the posture recognition processing result sequentially, the specification result of (B) is adopted as the identification result. In addition, the identification result of (C) is adopted if it is identified as "static state" in (A), and the identification result of (D) is adopted if it is identified as other than decubitus in (C).

図10中、右側のデータ(3)は、中央の場合に加えて、「立位」と「座位」のそれぞれについて異なる時間帯のラベルは異なるラベルとして区別した場合の実験結果を示す。すなわち、上記変形例に対応する実験結果である。   In FIG. 10, data (3) on the right side shows experimental results in the case where labels of different time zones for “standing” and “sitting” are distinguished as different labels in addition to the case of the center. That is, it is an experimental result corresponding to the above-mentioned modification.

図10中、正判別率とは、逐次姿勢識別処理の実行回数に対し正しい識別結果が得られた割合を示す。誤判別率とは、逐次姿勢識別処理の実行回数に対し誤った識別結果が得られた割合を示す。また、再現率とは、結果として得られるべき回答のうち、実際に得られるべき回答が得られた率を示す。たとえば、「座位」として識別されるべき姿勢のうち、実際に「座位」と判定された姿勢の割合を示す。また、適合率とは、得られた結果のうち正しかったものの割合を示す。たとえば、「座位」として識別された姿勢のうち、実際に「座位」であった姿勢の割合を示す。F値は、適合率と再現率の調和平均である。F値が高いほど、適合率と再現率のバランスがよく、高い識別精度が得られているといえる。   In FIG. 10, the positive discrimination rate indicates the ratio of correct discrimination results to the number of executions of the sequential posture discrimination processing. The misclassification rate indicates the rate at which an erroneous discrimination result is obtained with respect to the number of executions of the sequential attitude discrimination processing. Further, the recall rate indicates the rate at which the answer that should be obtained actually is obtained among the answers that should be obtained as a result. For example, of the postures to be identified as "sitting", the ratio of the postures actually determined to be "sitting" is shown. Moreover, a precision rate shows the ratio of what was correct among the obtained results. For example, of the postures identified as "sitting", the ratio of the posture that was actually "sitting" is shown. The F value is the harmonic mean of precision and recall. It can be said that the higher the F value, the better the balance between precision and recall, and higher discrimination accuracy.

図10の例において、上記(1)(2)(3)のそれぞれの場合において、各ユーザについて「立位」「座位」の正判別率、誤判別率、再現率、適合率、F値を算出した。   In the example of FIG. 10, in each case of the above (1) (2) (3), the positive discrimination rate, the erroneous discrimination rate, the recall rate, the accuracy rate, and the F value for “standing” and “sitting” for each user Calculated.

「立位」を識別した場合、(1)のF値平均は「0.779」である。これに対して、(2)のF値平均は「0.840」と大きく改善している。さらに、(3)のF値平均はさらに「0.857」と改善する。   When "standing position" is identified, the F value average of (1) is "0.779". On the other hand, the F value average of (2) is greatly improved to "0.840". Furthermore, the F value average of (3) is further improved to "0.857".

また、「座位」を識別した場合、(1)のF値平均は「0.697」である。これに対して、(2)のF値平均は「0.776」とやはり改善している。さらに、(3)のF値平均はさらに「0.814」とさらに改善している。   Moreover, when "Sitling" is identified, the F value average of (1) is "0.697". On the other hand, the F value average of (2) is also improved to "0.776". Furthermore, the F value average of (3) is further improved to "0.814".

このように、逐次姿勢識別装置の作成部および特定部の中に、識別が困難な区分(ラベル)を識別するための作成部および特定部を設け、多段的に姿勢および運動状態を識別することにより、識別精度を向上させることができることが確認された。また、下位区分として設定するラベルを加速度情報が計測された時間帯に応じて複数に分けることで、さらに識別精度を向上させることが可能であることが確認された。   As described above, the creating unit and the identifying unit for identifying the difficult-to-identify sections (labels) are provided in the creating unit and the identifying unit of the sequential attitude identifying device, and the posture and motion state are identified in multiple stages. It has been confirmed that the identification accuracy can be improved. Moreover, it was confirmed that it is possible to further improve the identification accuracy by dividing the label set as the subdivision into a plurality of labels according to the time zone in which the acceleration information is measured.

(プログラム)
図11は、開示の技術に係る逐次姿勢識別プログラムによる情報処理がコンピュータを用いて具体的に実現されることを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブ1080と、ネットワークインタフェース1070とを有する。コンピュータ1000の各部はバス1100によって接続される。
(program)
FIG. 11 is a diagram illustrating that information processing by the sequential posture identification program according to the disclosed technology is specifically realized using a computer. As illustrated in FIG. 11, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive 1080, and a network interface 1070. The components of the computer 1000 are connected by a bus 1100.

メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。   The memory 1010 includes a read only memory (ROM) 1011 and a random access memory (RAM) 1012 as illustrated in FIG. The ROM 1011 stores, for example, a boot program such as a BIOS (Basic Input Output System).

ここで、図11に例示するように、ハードディスクドライブ1080は、例えば、OS(Operating System)1081、アプリケーションプログラム1082、プログラムモジュール1083、プログラムデータ1084を記憶する。すなわち、開示の実施の形態に係る逐次姿勢識別プログラムは、コンピュータによって実行される指令が記述されたプログラムモジュール1083として、例えばハードディスクドライブ1080に記憶される。例えば、特徴量抽出部202、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210、識別部211、生成部212の各部と同様の情報処理を実行する手順各々が記述されたプログラムモジュール1083が、ハードディスクドライブ1080に記憶される。   Here, as illustrated in FIG. 11, the hard disk drive 1080 stores, for example, an OS (Operating System) 1081, an application program 1082, a program module 1083, and program data 1084. That is, the sequential posture identification program according to the embodiment of the disclosure is stored, for example, in the hard disk drive 1080 as a program module 1083 in which an instruction to be executed by a computer is described. For example, the feature amount extraction unit 202, the first generation unit 203, the second generation unit 204, the third generation unit 205, the fourth generation unit 206, the first identification unit 207, the second identification unit 208, The hard disk drive 1080 stores a program module 1083 in which procedures for performing information processing similar to those of the third specifying unit 209, the fourth specifying unit 210, the identifying unit 211, and the generating unit 212 are described.

また、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206により作成される識別モデル、識別部211による識別結果および生成部212が生成する情報のように、逐次姿勢識別プログラムによる情報処理に用いられるデータは、プログラムデータ1084として、例えばハードディスクドライブ1080に記憶される。そして、CPU1020が、ハードディスクドライブ1080に記憶されたプログラムモジュール1083やプログラムデータ1084を必要に応じてRAM1012に読み出し、各種の手順を実行する。   Also, the identification model created by the first creation unit 203, the second creation unit 204, the third creation unit 205, and the fourth creation unit 206, the identification result by the identification unit 211, and the information generated by the generation unit 212. As described above, data used for information processing by the posture identification program is stored as program data 1084 in the hard disk drive 1080, for example. Then, the CPU 1020 reads the program module 1083 and program data 1084 stored in the hard disk drive 1080 into the RAM 1012 as necessary, and executes various procedures.

なお、逐次姿勢識別プログラムに係るプログラムモジュール1083やプログラムデータ1084は、ハードディスクドライブ1080に記憶される場合に限られない。例えば、プログラムモジュール1083やプログラムデータ1084は、着脱可能な記憶媒体に記憶されてもよい。この場合、CPU1020は、ディスクドライブなどの着脱可能な記憶媒体を介してデータを読み出す。また、同様に、逐次姿勢識別プログラムに係るプログラムモジュール1083やプログラムデータ1084は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。この場合、CPU1020は、ネットワークインタフェース1070を介して他のコンピュータにアクセスすることで各種データを読み出す。   The program module 1083 and the program data 1084 related to the sequential posture identification program are not limited to the case of being stored in the hard disk drive 1080. For example, the program module 1083 and the program data 1084 may be stored in a removable storage medium. In this case, the CPU 1020 reads data via a removable storage medium such as a disk drive. Similarly, the program module 1083 and program data 1084 related to the sequential attitude identification program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.) It is also good. In this case, the CPU 1020 reads various data by accessing another computer via the network interface 1070.

(その他)
なお、本実施形態で説明した逐次姿勢識別プログラムは、インターネット等のネットワークを介して配布することができる。また、逐次姿勢識別プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読取可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
(Others)
The sequential posture identification program described in the present embodiment can be distributed via a network such as the Internet. The sequential orientation identification program can also be executed by being recorded on a computer readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, etc. and reading from the recording medium by a computer. .

なお、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   Of the processes described in the present embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being performed manually. All or part of them can be automatically performed by a known method. In addition to the above, the processing procedures, control procedures, specific names, and information including various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   The above embodiments and the modifications thereof are included in the invention described in the claims and the equivalents thereof as well as included in the technology disclosed in the present application.

1 逐次姿勢識別システム
10 ウェアラブル機器
101 加速度情報計測部
102 生体信号情報計測部
103 送受信部
104 入力部
20 逐次姿勢識別装置
201 送受信部
202 特徴量抽出部
203 第1の作成部
204 第2の作成部
205 第3の作成部
206 第4の作成部
207 第1の特定部
208 第2の特定部
209 第3の特定部
210 第4の特定部
211 識別部
212 生成部
213 入力部
DESCRIPTION OF SYMBOLS 1 sequential posture identification system 10 wearable device 101 acceleration information measurement unit 102 biological signal information measurement unit 103 transmission / reception unit 104 input unit 20 sequential posture identification apparatus 201 transmission / reception unit 202 feature amount extraction unit 203 first creation unit 204 second creation unit 205 third creation unit 206 fourth creation unit 207 first identification unit 208 second identification unit 209 third identification unit 210 fourth identification unit 211 identification unit 212 generation unit 213 input unit

Claims (5)

ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する抽出部と、
前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成部と、
前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4以上の特定部と、
前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について前記所定の日時に対応する下位区分を含む複数の区分のうちの前記4以上の特定部が特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別部と、
を備え
前記作成部は、
ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する第1の作成部と、
ユーザが運動状態にある場合に当該運動状態の種類を識別するための運動識別モデルを作成する第2の作成部と、
ユーザが静止状態にある場合に当該静止状態の種類が臥位か臥位以外か、を識別する第1静止識別モデルを作成する第3の作成部と、
ユーザの姿勢が臥位以外である場合に、立位か座位かを識別するための第2静止識別モデルを作成する第4の作成部と、
を有し、
前記特定部は、
前記運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する第1の特定部と、
前記運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する第2の特定部と、
前記第1静止識別モデルを用いて、ユーザの姿勢が臥位か臥位以外か、を特定する第3の特定部と、
前記第2静止識別モデルを用いて、ユーザの姿勢が立位か座位か、を特定する第4の特定部と、
を有し、
前記識別部は、
前記第1の特定部の特定結果が運動状態である場合、第2の特定部の特定結果を選択して識別結果として出力する一方、前記第1の特定部の特定結果が静止状態である場合、前記第3の特定部の特定結果を参照し、前記第3の特定部の特定結果が臥位であれば臥位を識別結果として出力し、前記第3の特定部の特定結果が臥位以外であれば、前記第4の特定部の特定結果で示された立位または座位を識別結果として出力することを特徴とする逐次姿勢識別装置。
An extraction unit for extracting a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from the acceleration information of the user;
A creation unit that creates a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount;
Among a plurality of divisions including a subdivision corresponding to a predetermined date and time, one division to which the posture and motion state of the user of the second predetermined period correspond based on the identification model and the second feature amount. And 4 or more specific parts each specified from
Wherein based on the identification model and the second feature quantity, a plurality of segments corresponding to the posture and motion state of the user, the same posture and the motion state of the plurality including a subdivision corresponding to the predetermined time Of the categories specified by the four or more specific parts of the categories, from the easy to identify category to the hard to identify category, the order corresponding to the posture and motion state of the user in the second predetermined period is ordered An identification unit that identifies the posture and motion state of the user during the second predetermined period by selecting
Equipped with
The creation unit is
A first creation unit for creating a motion / static discrimination model for identifying a user's motion state and stationary state;
A second creation unit that creates an exercise identification model for identifying the type of exercise state when the user is in an exercise state;
A third creation unit that creates a first stationary identification model that identifies whether the type of the stationary state is recumbent or non-recumbent when the user is in a stationary state;
A fourth creation unit that creates a second stationary identification model for identifying whether the user is standing or sitting when the user's posture is other than lying down;
Have
The identification unit is
A first identification unit that identifies whether the user is in an exercise state or a rest state using the exercise / still identification model;
A second identification unit that identifies what kind of exercise the user is doing when he or she is in motion using the exercise identification model;
A third identification unit that identifies whether the posture of the user is in a recumbent position or a non-recumbent position using the first stationary identification model;
A fourth identification unit that identifies whether the user's posture is standing or sitting using the second stationary identification model;
Have
The identification unit
When the identification result of the first identification unit is an exercise state, the identification result of the second identification unit is selected and output as an identification result, while the identification result of the first identification portion is stationary With reference to the identification result of the third identification unit, if the identification result of the third identification portion is recumbent, it outputs the recumbency as an identification result, and the identification result of the third identification portion is reversion if not, the sequential orientation identification device for an output to said Rukoto a standing or sitting position indicated by the specific results of the fourth specific portion as an identification result.
前記識別部は、前記複数の区分のうち上位区分から下位区分へと区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別することを特徴とする請求項1に記載の逐次姿勢識別装置。   The identification unit identifies the posture and the movement state of the user in the second predetermined period by sequentially selecting a category from the upper category to the lower category among the plurality of categories. The sequential posture identification device according to 1. 前記第の特定部は、
複数の所定の日時に各々対応する複数の立位の下位区分および複数の所定の日時に各々対応する複数の座位の下位区分のいずれかを、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分として特定することを特徴とする請求項に記載の逐次姿勢識別装置。
The fourth identification unit is
Any of a plurality of standing subdivisions respectively corresponding to a plurality of predetermined dates and times and a plurality of sitting subdivisions respectively corresponding to a plurality of predetermined dates and times, the posture and the movement state of the user of the second predetermined period The sequential posture identification apparatus according to claim 1 , wherein the sequential posture identification device is identified as a corresponding one of the categories.
ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する抽出工程と、
前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成工程と、
前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4回以上の特定工程と、
前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について前記所定の日時に対応する下位区分を含む複数の区分のうちの前記4回以上の特定工程によって特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別工程と、
をコンピュータに実行させ
前記作成工程は、
ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する第1の作成工程と、
ユーザが運動状態にある場合に当該運動状態の種類を識別するための運動識別モデルを作成する第2の作成工程と、
ユーザが静止状態にある場合に当該静止状態の種類が臥位か臥位以外か、を識別する第1静止識別モデルを作成する第3の作成工程と、
ユーザの姿勢が臥位以外である場合に、立位か座位かを識別するための第2静止識別モデルを作成する第4の作成工程と、
を含み、
前記特定工程は、
前記運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する第1の特定工程と、
前記運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する第2の特定工程と、
前記第1静止識別モデルを用いて、ユーザの姿勢が臥位か臥位以外か、を特定する第3の特定工程と、
前記第2静止識別モデルを用いて、ユーザの姿勢が立位か座位か、を特定する第4の特定工程と、
を含み、
前記識別工程は、
前記第1の特定工程の特定結果が運動状態である場合、第2の特定工程の特定結果を選択して識別結果として出力する一方、前記第1の特定工程の特定結果が静止状態である場合、前記第3の特定工程の特定結果を参照し、前記第3の特定工程の特定結果が臥位であれば臥位を識別結果として出力し、前記第3の特定工程の特定結果が臥位以外であれば、前記第4の特定工程の特定結果で示された立位または座位を識別結果として出力することを特徴とする逐次姿勢識別方法。
An extraction step of extracting a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from the acceleration information of the user;
Creating a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount;
Among a plurality of divisions including a subdivision corresponding to a predetermined date and time, one division to which the posture and motion state of the user of the second predetermined period correspond based on the identification model and the second feature amount. And four or more identification steps, each identifying
Wherein based on the identification model and the second feature quantity, a plurality of segments corresponding to the posture and motion state of the user, the same posture and the motion state of the plurality including a subdivision corresponding to the predetermined time Of the classifications identified by the four or more identification steps, the classifications that correspond to the user's posture and exercise state in the second predetermined period from the classifications that are easy to distinguish to the classifications that are difficult to distinguish Identifying, by sequentially selecting, the posture and motion state of the user during the second predetermined period;
On your computer ,
The preparation process is
A first creating step of creating a motion / static discrimination model for identifying a user's motion state and stationary state;
A second creating step of creating an exercise identification model for identifying the type of exercise state when the user is in an exercise state;
A third creating step of creating a first stationary identification model that identifies whether the type of the stationary state is recumbent or non-recumbent when the user is in a stationary state;
A fourth creating step of creating a second stationary identification model for identifying whether the user is standing or sitting when the user's posture is other than lying down;
Including
The specific step is
A first identification step of identifying whether the user is in an exercise state or a rest state using the exercise / stationary discrimination model;
A second identification step of identifying the type of exercise performed by the user using the exercise identification model when the user is in an exercise state;
A third identification step of identifying whether the posture of the user is in a recumbent position or a non-recumbent position using the first stationary identification model;
A fourth identification step of identifying whether the posture of the user is standing or sitting using the second stationary identification model;
Including
In the identification step,
When the identification result of the first identification step is an exercise state, the identification result of the second identification step is selected and output as an identification result, while the identification result of the first identification step is stationary With reference to the identification result of the third identification step, if the identification result of the third identification step is a recumbent position, the decubitus position is output as an identification result, and the identification result of the third identification step is a reversion position. if not, the sequential orientation identification method, wherein also be output from the standing or sitting position indicated by the specific results of the fourth identification step as an identification result.
ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する抽出手順と、
前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成手順と、
前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4回以上の特定手順と、
前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について前記所定の日時に対応する下位区分を含む複数の区分のうちの前記4回以上の特定手順によって特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別手順と、
をコンピュータに実行させ
前記作成手順は、
ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する第1の作成手順と、
ユーザが運動状態にある場合に当該運動状態の種類を識別するための運動識別モデルを作成する第2の作成手順と、
ユーザが静止状態にある場合に当該静止状態の種類が臥位か臥位以外か、を識別する第1静止識別モデルを作成する第3の作成手順と、
ユーザの姿勢が臥位以外である場合に、立位か座位かを識別するための第2静止識別モデルを作成する第4の作成手順と、
を含み、
前記特定手順は、
前記運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する第1の特定手順と、
前記運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する第2の特定手順と、
前記第1静止識別モデルを用いて、ユーザの姿勢が臥位か臥位以外か、を特定する第3の特定手順と、
前記第2静止識別モデルを用いて、ユーザの姿勢が立位か座位か、を特定する第4の特定手順と、
を含み、
前記識別手順は、
前記第1の特定手順の特定結果が運動状態である場合、第2の特定手順の特定結果を選択して識別結果として出力する一方、前記第1の特定手順の特定結果が静止状態である場合、前記第3の特定手順の特定結果を参照し、前記第3の特定手順の特定結果が臥位であれば臥位を識別結果として出力し、前記第3の特定手順の特定結果が臥位以外であれば、前記第4の特定手順の特定結果で示された立位または座位を識別結果として出力することを特徴とする逐次姿勢識別プログラム。
An extraction procedure for extracting a first feature corresponding to a first predetermined period and a second feature corresponding to a second predetermined period from the acceleration information of the user;
A creation procedure for creating a discrimination model for identifying the posture and motion state of the user by machine learning based on the first feature amount;
Among a plurality of divisions including a subdivision corresponding to a predetermined date and time, one division to which the posture and motion state of the user of the second predetermined period correspond based on the identification model and the second feature amount. And 4 or more specific procedures to identify from
Wherein based on the identification model and the second feature quantity, a plurality of segments corresponding to the posture and motion state of the user, the same posture and the motion state of the plurality including a subdivision corresponding to the predetermined time Of the classifications identified by the four or more identification procedures, the classifications that correspond to the user's posture and exercise state in the second predetermined period from the classifications that are easy to distinguish to the classifications that are difficult to distinguish An identification procedure for identifying the posture and motion state of the user during the second predetermined period by selecting in order;
On your computer ,
The creation procedure is
A first creation procedure for creating a motion / stationary discrimination model for identifying a user's motion state and stationary state;
A second creation procedure for creating an exercise identification model for identifying the type of exercise state when the user is in an exercise state;
A third creation procedure for creating a first stationary identification model that identifies whether the type of the stationary state is recumbent or non-recumbent when the user is in a stationary state;
A fourth creation procedure for creating a second stationary identification model for identifying whether the user is standing or sitting when the user's posture is other than lying down;
Including
The specific procedure is
A first identification procedure for identifying whether the user is in an exercise state or a rest state using the exercise / still discrimination model;
A second identification procedure for identifying the type of exercise performed by the user using the exercise identification model when the user is in an exercise state;
A third identification procedure for identifying whether the posture of the user is the recumbent position or the non-recumbent position using the first stationary identification model;
A fourth identification procedure for identifying whether the posture of the user is standing or sitting using the second stationary identification model;
Including
The identification procedure is
When the identification result of the first identification procedure is an exercise state, the identification result of the second identification procedure is selected and output as an identification result, while the identification result of the first identification procedure is stationary Then, referring to the specific result of the third specific procedure, if the specific result of the third specific procedure is a recumbent position, the recumbency is output as an identification result, and the specific result of the third specific procedure is a negative position if not, the sequential orientation identification program to output to said Rukoto a standing or sitting position indicated by the specific result of the fourth determination procedure as identification result.
JP2016126451A 2016-06-27 2016-06-27 Sequential posture identification device, sequential posture identification method, and sequential posture identification program Active JP6530350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126451A JP6530350B2 (en) 2016-06-27 2016-06-27 Sequential posture identification device, sequential posture identification method, and sequential posture identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126451A JP6530350B2 (en) 2016-06-27 2016-06-27 Sequential posture identification device, sequential posture identification method, and sequential posture identification program

Publications (2)

Publication Number Publication Date
JP2018000230A JP2018000230A (en) 2018-01-11
JP6530350B2 true JP6530350B2 (en) 2019-06-12

Family

ID=60944840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126451A Active JP6530350B2 (en) 2016-06-27 2016-06-27 Sequential posture identification device, sequential posture identification method, and sequential posture identification program

Country Status (1)

Country Link
JP (1) JP6530350B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377001B2 (en) * 2019-03-28 2023-11-09 北陸電気工業株式会社 Worker fall detection system and worker position detection system
JP2021094307A (en) * 2019-12-19 2021-06-24 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009018158A (en) * 2007-06-14 2009-01-29 Hideo Hirose Posture monitoring system and body monitoring system
JP5202257B2 (en) * 2008-11-29 2013-06-05 学校法人日本大学 Human posture motion discrimination device
JP5895345B2 (en) * 2011-02-03 2016-03-30 ソニー株式会社 Time lag symptom estimation apparatus, estimation system, estimation method, and program
JP5885292B2 (en) * 2011-11-08 2016-03-15 公立大学法人首都大学東京 Action recognition program and processing device for action recognition
US20150018724A1 (en) * 2013-07-15 2015-01-15 Ying Hsu Balance Augmentation Sensors

Also Published As

Publication number Publication date
JP2018000230A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6356616B2 (en) Sequential posture identification device, autonomic nerve function information acquisition device, method and program
JP6362521B2 (en) Behavior classification system, behavior classification device, and behavior classification method
Sasaki et al. Measurement of physical activity using accelerometers
CN105530858B (en) System and method for estimating cardiovascular health of a person
WO2018170017A1 (en) System and method for automatic location detection for wearable sensors
CN109310364A (en) System and method for automatic posture calibration
US11278238B2 (en) Wearable sensor device and analysis platform for objective outcome assessment in spinal diseases
CN105748037B (en) The body-sensing vest of biological feedback system with the patient for suffering from scoliosis
JP6876986B2 (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and program
US20210020295A1 (en) Physical function independence support device of physical function and method therefor
Awais et al. Physical activity classification using body-worn inertial sensors in a multi-sensor setup
CA2821590A1 (en) A method for assessing cognitive function and predicting cognitive decline through quantitative assessment of the tug test
JP6530350B2 (en) Sequential posture identification device, sequential posture identification method, and sequential posture identification program
JP6599821B2 (en) Automatic teacher data creation apparatus, automatic teacher data creation method, and automatic teacher data creation program
EP3485803B1 (en) Wearable device capable of recognizing sleep stage and recognition method thereof
CN112674760A (en) Wearable sensor-based Parkinson upper limb movement detection method
CN205493832U (en) Neck gesture control clothing
Napieralski et al. Classification of subjects with balance disorders using 1d-cnn and inertial sensors
JP6310230B2 (en) Diagnostic equipment
KR20150071729A (en) The Classifying and Counting Algorithm for Real-time Walk/Run Exercise based on An Acceleration Sensor
Mani et al. Evaluation of a Combined Conductive Fabric-Based Suspender System and Machine Learning Approach for Human Activity Recognition
Poli et al. Identification issues associated with the use of wearable accelerometers in lifelogging
JP2021137371A (en) Walking diagnostic system
Sukhadia et al. IMU-Based Approach to Detect Spastic Cerebral Palsy in Infants at Early Stages
US20230140399A1 (en) Active chair activity tracking system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190516

R150 Certificate of patent or registration of utility model

Ref document number: 6530350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250