JP2018000230A - 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム - Google Patents

逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム Download PDF

Info

Publication number
JP2018000230A
JP2018000230A JP2016126451A JP2016126451A JP2018000230A JP 2018000230 A JP2018000230 A JP 2018000230A JP 2016126451 A JP2016126451 A JP 2016126451A JP 2016126451 A JP2016126451 A JP 2016126451A JP 2018000230 A JP2018000230 A JP 2018000230A
Authority
JP
Japan
Prior art keywords
identification
posture
unit
user
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016126451A
Other languages
English (en)
Other versions
JP6530350B2 (ja
Inventor
拓郎 宇田川
Takuro Udagawa
拓郎 宇田川
山中 章裕
Akihiro Yamanaka
章裕 山中
雅人 澤田
Masahito Sawada
雅人 澤田
俊哉 山田
Toshiya Yamada
俊哉 山田
幹樹 堀
Motoki Hori
幹樹 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT TechnoCross Corp
Original Assignee
Nippon Telegraph and Telephone Corp
NTT TechnoCross Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT TechnoCross Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016126451A priority Critical patent/JP6530350B2/ja
Publication of JP2018000230A publication Critical patent/JP2018000230A/ja
Application granted granted Critical
Publication of JP6530350B2 publication Critical patent/JP6530350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

【課題】ユーザから測定される情報を用いた逐次姿勢識別装置を提供する。【解決手段】逐次姿勢識別装置20は、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する。逐次姿勢識別装置20は、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。逐次姿勢識別装置20は、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が安易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。【選択図】図1

Description

本発明は、逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラムに関する。
近年、人の身体に装着することができる情報処理端末いわゆるウェアラブル機器(以下、ウェアラブル機器)の利用が広がっている。ウェアラブル機器はユーザが日常的に身に着けて携帯することが可能であるという点から、ユーザの健康状態や生活習慣を継続的・長期的にモニタするためにも利用できる。
赤堀 顕光、岸本 圭史、小栗 宏次、「単一3軸加速度センサを用いた行動推定」、電子情報通信学会技術研究報告、MBE、MEとバイオサイバネティックス、一般社団法人電子情報通信学会、2005年12月2日、105巻、456号、p.49-52
本発明者らは、ウェアラブル機器によってユーザの姿勢や運動状態を検知するとともに、ユーザの生体信号を測定し、姿勢や運動状態と生体信号とを関連づけることで、ユーザの健康管理や疾病予防に結び付けることを検討した。そして、本発明者らは、ウェアラブル機器を用いて逐次姿勢識別を行ったり、自律神経機能情報を取得し評価したりする発明について特許出願を行っている(特願2015−028850号)。
ところで、ウェアラブル機器を用いてユーザの姿勢や運動状態を識別する場合、ユーザ特有の癖等によって識別が難しい姿勢や運動状態が存在することが分かってきた。
開示の実施形態は、上記に鑑みてなされたものであって、ユーザから測定される情報を用いた逐次姿勢識別の精度向上を実現する技術を提供することを目的とする。
開示する逐次姿勢識別装置、方法およびプログラムは、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出し、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成し、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。
開示する逐次姿勢識別装置、逐次姿勢識別方法、逐次姿勢識別プログラムは、ユーザから測定される情報を用いた逐次姿勢識別の精度向上を実現するという効果を奏する。
図1は、第1の実施形態にかかる逐次姿勢識別システムの構成の一例を示す概略図である。 図2は、第1の実施形態にかかる逐次姿勢識別処理の流れの一例を示すフローチャートである。 図3は、第1の実施形態の逐次姿勢識別処理における段階的判定の流れの一例を示すフローチャートである。 図4は、第1の実施形態における逐次姿勢識別処理における段階的判定の流れについて説明するための図である。 図5は、逐次姿勢識別処理において用いる特徴量のうち揺れ数の検出手法について説明するための図である。 図6は、センサを回転させた場合の加速度と合成加速度の一例を示すグラフである。 図7は、第1の実施形態にかかる逐次姿勢識別装置による逐次姿勢識別処理のうち学習処理の流れの一例を示す概略図である。 図8は、第1の実施形態にかかる逐次姿勢識別装置による逐次姿勢識別処理のうち識別処理(姿勢特定処理含む)の流れの一例を示す概略図である。 図9は、変形例にかかる逐次姿勢識別処理における判定について説明するための図である。 図10は、実施形態にかかる逐次姿勢識別方法を用いた場合の精度向上について説明するための図である。 図11は、開示の技術に係る逐次姿勢識別プログラムによる情報処理がコンピュータを用いて具体的に実現されることを示す図である。
以下に、開示する逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、各実施形態は適宜組み合わせることができる。
(第1の実施形態)
第1の実施形態にかかる逐次姿勢識別装置は、ウェアラブル機器を装着したユーザから計測した加速度情報に基づく逐次機械学習を行うことにより、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。そして、逐次姿勢識別装置は、識別モデルに基づき、ユーザの姿勢および運動状態が、相互に異なる複数の区分に該当すると特定する。逐次姿勢識別装置は、特定した複数の区分を、所定の順序に基づき段階的に選択することで、ユーザの姿勢および運動状態を識別する。
第1の実施形態にかかる逐次姿勢識別装置は特に、静止状態の識別精度を高めるため、静止状態を特定する2つの特定部を設ける。そして、1の特定部が「臥位」と「臥位以外」の2つの状態を区別する。そして他の特定部が「臥位以外」の下位区分である「立位」と「座位」の2つの状態を区別する。このように、第1の実施形態にかかる逐次姿勢識別装置は、複数段階に分けて姿勢および運動状態の特定結果を選択する。つまり、逐次姿勢識別装置は、上段で上位区分についての判定を行い、下位区分について、下段で判定を行う。このため、段数、下位区分の数、区分の種類等の設定を調整することにより、識別しにくい区分について識別精度を向上させることができる。
また、第1の実施形態の逐次姿勢識別装置は、静止状態の種類を多段で特定することにより識別精度を向上させる。識別に用いられる特徴量は、静止状態と動作状態との間で大きく異なる。静止状態と動作状態とを1つの識別モデルで識別しようとすると、静止状態と動作状態とのコントラストに隠れて、相対的に相互の差異が小さい静止状態での姿勢の識別が困難となりがちである。また、相対的に差異が小さい姿勢についてさらに詳細に種類分けして識別することが困難である。そこで、第1の実施形態の逐次姿勢識別装置は、コントラストが大きい姿勢や運動状態を先に特定し、コントラストが小さい姿勢や運動状態を分けて特定するよう構成される。たとえば、同じ静止状態であっても、「臥位」と「立位」または「座位」とのコントラストは、「立位」と「座位」との間のコントラストより大きい。そこで、逐次姿勢識別装置は、「臥位」と「臥位以外」の特定と、「立位」と「座位」との特定と、を分けて実行する。
以下の第1の実施形態においては、識別が困難な区分の例として「立位」と「座位」について説明する。また、「立位」と「座位」の上位区分として「臥位以外」を設定する。なお、「立位」「座位」「臥位」はいずれも静止状態の一種である。なおここで、「区分」は機械学習において用いられる「ラベル」と同様であり、機械学習に基づき入力に対して生成される出力を指す。
(第1の実施形態にかかる逐次姿勢識別システム1の構成の一例)
図1は、第1の実施形態にかかる逐次姿勢識別システム1の構成の一例を示す概略図である。図1に示す逐次姿勢識別システム1は、ウェアラブル機器10と、逐次姿勢識別装置20と、を備える。ウェアラブル機器10と逐次姿勢識別装置20とはネットワークを介して通信可能に接続される。
ウェアラブル機器10と逐次姿勢識別装置20とを接続するネットワークの種類は特に限定されず、有線ネットワークでも無線ネットワークでもよい。ただし、ウェアラブル機器10を装着するユーザの行動を妨げないためには、無線ネットワークはたとえば、Bluetooth(登録商標)で接続したスマートフォン等を利用したり、Wi−Fi(登録商標)等を利用することが好ましい。
(ウェアラブル機器10の構成の一例)
ウェアラブル機器10は、ユーザが装着して携帯することができる電子機器である。図1の例では、ウェアラブル機器10はユーザが着脱できるシャツ形状である。ただしウェアラブル機器10の形状はシャツに限定されず、たとえばベルト形状等、ユーザに装着することができれば任意の形状でよい。また、ウェアラブル機器10として、プロセッサやメモリを備えるウェアラブルコンピュータを用い、計測した情報を適宜ウェアラブル機器10内に記憶するように構成してもよい。この場合、以下に説明する各部(加速度情報計測部101、生体信号情報計測部102、送受信部103、入力部104)は、プロセッサの機能として構成してもよい。また、各部の処理に用いられる情報および各部の処理により生成される情報は、メモリに記憶されるものとしてもよい。
ウェアラブル機器10は、加速度情報計測部101と、生体信号情報計測部102と、送受信部103と、入力部104と、を備える。
加速度情報計測部101は、ユーザの体の動きを検知、計測するセンシングデバイスである。加速度情報計測部101は、ユーザの体の加速度情報を計測する。たとえば、加速度情報計測部101は、ユーザの体幹近傍に配置される加速度センサたとえば3軸加速度センサで構成される。加速度情報計測部101は、前後軸、左右軸、上下軸の3軸にそったユーザの体の動きの加速度を計測する。以下、前後・左右・上下というときは、ウェアラブル機器10をユーザが装着して起立している場合にユーザの体が向く方向を基準とする。
生体信号情報計測部102は、ユーザの体から取得することができる生体信号情報を計測する。生体信号情報計測部102は、たとえば心電位を計測するセンシングデバイスである。生体信号情報計測部102は、たとえば、ユーザの心電位と心拍に関する情報とを計測する。具体的には、生体信号情報計測部102は、一定間隔で単誘導による心電位を計測する。また、生体信号情報計測部102は、たとえば心拍間隔すなわちRR間隔(RR interval)を計測する。このほか、光電脈波等の脈波、生体電気抵抗等の体内インピーダンス、生体微振動や生体圧力変動、血圧計等のカフ圧等の動脈圧等を生体信号として計測してもよい。また、このほか、生体電位、筋電、脳波、誘発電位等も利用できる。
送受信部103は、加速度情報計測部101および生体信号情報計測部102が計測した加速度情報および生体信号情報をウェアラブル機器10の外部に送信する。また、送受信部103は、ウェアラブル機器10の外部から送信される信号を受信する。送受信部103は、加速度情報計測部101および生体信号情報計測部102が情報を取得するとその都度外部に当該情報を送信する。たとえば、送受信部103は、無線通信機能により情報を送信する。具体的には、送受信部103は、加速度情報および生体信号情報を逐次姿勢識別装置20に送信する。
入力部104は、ユーザ等がウェアラブル機器10に入力する情報を受け付ける。たとえば、入力部104は、ユーザ等が入力するラベル(後述)を受け付ける。受け付けられたラベルは送受信部103に送られ、逐次姿勢識別装置20に送信される。逐次姿勢識別装置20は、予め定められた処理手順に基づき、ラベルとその後受信する加速度情報および生体信号情報とを対応づける。なお、ラベルの詳細については後述する。また、ラベルは、入力部104からではなく逐次姿勢識別装置20が備える入力部213(後述)から入力するものとしてもよい。また、ウェアラブル機器10は入力部104を備えない構成としてもよい。また、入力部104は、ユーザ等が後述する学習モードまたは識別モードを選択するためにも用いることができる。
(逐次姿勢識別装置20の構成の一例)
逐次姿勢識別装置20は、送受信部201、特徴量抽出部202、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210、識別部211、生成部212および入力部213を備える。なお、逐次姿勢識別装置20が備える各部の機能は、プロセッサ(CPU:Central Processing Unit等)により実現してもよい。
送受信部201は、ウェアラブル機器10の送受信部103から送信される加速度情報および生体信号情報を受信する。送受信部201は、送受信部103が逐次送信する加速度情報および生体信号情報を受信して特徴量抽出部202に送る。
特徴量抽出部202は、加速度情報および生体信号情報の少なくとも一方から、姿勢識別に用いる特徴量を抽出する。抽出された特徴量は、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に送られ、ユーザの姿勢および運動のベースライン情報を取得する学習処理に用いられる。抽出された特徴量はまた、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210に送られ、ユーザの姿勢および運動を識別する識別処理に用いられる。特徴量抽出部202が実行する特徴量抽出処理の詳細については後述する。なお、特徴量抽出部202は独立した構成部とせず、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210各々に特徴量抽出部202の処理を組み入れてもよい。
第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206は、特徴量を用いて逐次機械学習を行う学習処理を実行する。第1の作成部203は、ユーザの運動状態と静止状態とを識別するための運動・静止識別モデルを作成する。第2の作成部204は、ユーザが運動状態にある場合に当該運動の種類を識別するための運動識別モデルを作成する。第3の作成部205は、ユーザが静止状態にある場合に当該静止の種類が「臥位」か「臥位以外」か、を識別するための第1静止識別モデルを作成する。第4の作成部206は、ユーザの姿勢が「臥位以外」である場合に、「立位」か「座位」か、を識別するための第2静止識別モデルを作成する。学習処理によって作成される運動・静止識別モデル、運動識別モデル、第1静止識別モデルおよび第2静止識別モデルは、ユーザの姿勢および運動のベースライン情報となる。学習処理は、かかる識別モデルを作成する処理、すなわちベースライン情報を取得する処理である。学習処理の詳細については後述する。
なお、たとえば、第3の作成部205が作成する第1静止識別モデルは、「臥位」として、「伏臥位(うつ伏せ)」「仰臥位(仰向け)」「側臥位(横向き)」のいずれか一部または全部を識別する。第1静止識別モデルは、臥位の各種類も識別できるように作成される。つまり、第1静止識別モデルにより、「伏臥位」「仰臥位」「側臥位」「その他(立位と座位)」を識別することができる。
また、第4の作成部206が作成する第2静止識別モデルは、「立位」として、「おじぎ」や「上体反らし」等の姿勢も含めて識別するよう作成される。さらに、第2静止識別モデルは、「椅子に座る」「床に座る」も「座位」として識別するよう作成される。
第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210は各々、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206が作成した識別モデルと特徴量抽出部202が抽出した特徴量とを用いてユーザの姿勢および運動を特定する。
第1の特定部207は、第1の作成部203が作成した運動・静止識別モデルを用いて、ユーザが運動状態にあるか静止状態にあるかを特定する。第2の特定部208は、第2の作成部204が作成した運動識別モデルを用いて、ユーザが運動状態にある場合どのような運動をしているのか運動の種類を特定する。第3の特定部209は、第3の作成部205が作成した第1静止識別モデルを用いて、ユーザの姿勢が「臥位」か「臥位以外」か、を特定する。第4の特定部210は、第4の作成部206が作成した第2静止識別モデルを用いて、ユーザの姿勢が「立位」か「座位」か、を特定する。第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理の詳細については後述する。
識別部211は、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理の結果を、識別が容易な区分から困難な区分へと順番に選択することで、ユーザの姿勢および運動を識別する。識別部211の識別処理の結果、ユーザの姿勢および運動の識別結果が得られる。たとえば、ユーザが「運動」しており「歩行」中である等の識別結果が得られる。識別処理の詳細についても後述する。
生成部212は、識別部211の識別結果と、ウェアラブル機器10から受信される生体信号情報と、を時系列的に対応付けた情報を生成する。生成部212は所定の期間中に取得される加速度情報および生体信号情報の少なくとも一方に基づいて識別されるユーザの姿勢および運動と、同じ期間中に取得された生体信号情報と、を対応付けた対応情報を生成する。たとえば、生成部212は、時刻T1からT5の間のユーザの姿勢および運動と、時刻T1からT5の間の当該ユーザの心拍数とを対応付けて対応情報を生成する。生成部212が生成する情報の詳細についても後述する。
入力部213は、逐次姿勢識別装置20の外部からの情報入力を受け付ける。入力部213はたとえば、キーボードやタッチパッド等の入力デバイスであってよい。入力部213は、ウェアラブル機器10の入力部104と同様、ユーザ等が後述するラベルを入力するために用いることができる。また、入力部213は、ユーザ等が学習モードまたは識別モードを選択するために用いることができる。
(逐次姿勢識別処理の概括的な流れの一例)
図2は、第1の実施形態にかかる逐次姿勢識別処理の流れの一例を示すフローチャートである。処理が開始すると、逐次姿勢識別装置20はモードの選択を受け付ける(ステップS201)。具体的には、学習モードまたは識別モードの選択を受け付ける。ここで、学習モードとは、逐次姿勢識別装置20が学習処理を実行する動作態様である。また、識別モードとは、逐次姿勢識別装置20が識別処理(姿勢特定処理を含む)を実行する動作態様である。なお、図2では説明の便宜上、学習モードまたは識別モードのいずれかを選択する構成としたが、学習処理と識別処理を並行して行うモードをさらに設けて実行できるようにしてもよい。また、学習処理を実行する装置と識別処理を実行する装置とを別体として構成してもよい。
次に、逐次姿勢識別装置20は、学習モードが選択されたか否かを判定する(ステップS202)。学習モードが選択されている場合(ステップS202、肯定)、逐次姿勢識別装置20は、ユーザ等が入力するラベルを受信する。ラベルとは、ユーザの「姿勢」および「運動」を特定する情報である。たとえば、ラベルは、「姿勢」として「立位」「座位」「臥位」、「運動」として「運動状態」または「静止状態」の情報を含む。また、「運動」として、「歩行」「跳躍」「足踏み」「ウォーキング」等のラベルも作成できる。ここで、「歩行」は単に日常的な歩行を、「ウォーキング」は積極的に運動として歩いている場合を指す。逐次姿勢識別装置20は、身体の運動状態としては類似する運動について運動強度も判定することによって、日常的な「歩行」と運動としての「ウォーキング」を識別することができる。このように、逐次姿勢識別装置20は、類似する運動であっても強度が異なる運動各々に異なるラベルを付して識別することが可能である。学習処理時には、学習させる情報がどのような「姿勢、運動」の情報であるかを逐次姿勢識別装置20に記憶させるため、特徴量と「姿勢、運動」の2つの情報を含むラベルとを対応づけて処理する。
そして、逐次姿勢識別装置20は、ウェアラブル装置10から受信する加速度情報および生体信号情報の少なくとも一方から特徴量を抽出する。受信したラベルと抽出した特徴量とは、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に入力される(ステップS203)。各作成部203,204,205,206は、ラベルが「運動状態」を示すか否かを判定する(ステップS204)。ラベルが「運動状態」を示すと判定した場合(ステップS204、肯定)、第1の作成部203は特徴量に基づく機械学習を行い、運動・静止識別モデルを作成または更新する(ステップS205)。また、第2の作成部204は、特徴量に基づく機械学習を行い、運動識別モデルを作成または更新する(ステップS205)。ラベルが「運動状態」を示すと判定した場合(ステップS204、肯定)、第3の作成部205および第4の作成部206は機械学習を実行しない。
ラベルが「静止状態」を示すと判定した場合(ステップS204、否定)、第1の作成部203は特徴量に基づく機械学習を行い、運動・静止識別モデルを作成または更新する(ステップS206)。また、第2の作成部204は、機械学習を実行しない。第3の作成部205および第4の作成部206は、特徴量に基づく機械学習を行い、それぞれ第1静止識別モデルおよび第2静止識別モデルを作成または更新する(ステップS206)。学習モードでの処理はこれで終了する。
他方、ステップS202で学習モードが選択されていない、すなわち、識別モードが選択されていると判定されたとする(ステップS202、否定)。この場合、逐次姿勢識別装置20は、ウェアラブル機器10から受信する加速度情報および生体信号情報の少なくとも一方から特徴量を抽出する(ステップS207)。そして、逐次姿勢識別装置20は特徴量を第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に送る。第1の特定部207は、特徴量と既に作成されている運動・静止識別モデルに基づき、ユーザが運動状態か静止状態かを特定する(ステップS208)。第2の特定部208は、特徴量と既に作成されている運動識別モデルに基づき、どのような運動状態であるかを特定する(ステップS209)。第3の特定部209は、特徴量と既に作成されている第1静止識別モデルに基づき、臥位か臥位以外かを特定する(ステップS210)。第4の特定部210は、特徴量と既に作成されている第2静止識別モデルに基づき、立位か座位かを特定する(ステップS211)。
第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210の特定結果は識別部211に送られ、識別部211は特定結果に基づき、ユーザの姿勢、運動を識別する(ステップS212)。たとえば、識別部211は、その時点のユーザの姿勢および運動は「立位、運動状態」であると識別する。そして、逐次姿勢識別装置20は、識別結果と、識別結果に対応する生体信号情報とを時系列に対応付けた情報を生成する(ステップS213)。これで、識別処理が終了する。識別部211における段階的な識別処理については、以下にさらに説明する。
(識別処理における特定結果の選択)
図3は、第1の実施形態の逐次姿勢識別処理における段階的判定の流れの一例を示すフローチャートである。図3の処理は、図2のステップS212において実行される。
上述の通り、逐次姿勢識別装置20の識別部211は、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210における特定結果にもとづき、ユーザの姿勢および運動状態を識別する。
識別部211はまず、第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210の特定結果を受信する(ステップS31)。識別部211は、第1の特定部207の特定結果は「静止」か否かを判定する(ステップS32)。特定結果が「静止」ではない場合(ステップS32、否定)、識別部211は第2の特定部208の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS33)。他方、第1の特定部207の特定結果が「静止」の場合(ステップS32、肯定)、識別部211は、第3の特定部209の特定結果が「臥位」か否かを判定する(ステップS34)。第3の特定部209の特定結果が「臥位」である場合(ステップS34、肯定)、識別部211は、第3の特定部209の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS35)。他方、第3の特定部209の特定結果が「臥位以外」である場合(ステップS34、否定)、識別部211は、第4の特定部210の特定結果を選択し、姿勢および運動状態の識別結果とする(ステップS36)。これで識別部211による処理が終了する。
図3に示した識別部211の処理についてさらに、図4を参照して説明する。図4は、第1の実施形態における逐次姿勢識別処理における段階的判定の流れについて説明するための図である。
図4に示すように、第1の特定部207は、運動・静止識別モデルに基づき、入力された特徴量が「運動」および「静止」のいずれに該当するか特定する。また、第2の特定部208は、運動識別モデルに基づき、入力された特徴量が「ジャンプ」「歩行」「走行」のいずれに該当するか特定する。第3の特定部209は、第1静止識別モデルに基づき、入力された特徴量が「臥位」および「臥位以外」のいずれに該当するか特定する。また、第4の判定部210は、第2静止識別モデルに基づき、入力された特徴量が「立位」「座位」のいずれに該当するか特定する。各特定部は独立して特定処理を実行し、実行結果である特定結果が、識別部211に送信される。
識別部211は、第1の特定部207の特定結果が「運動」である場合(図4の(1))、第3の特定部209および第4の特定部210の特定結果に関わらず、第2の特定部208の特定結果を選択し、姿勢および運動状態の識別結果として出力する(図4の(2))。このときは、第2の特定部208の特定結果が「ジャンプ」「歩行」「走行」のいずれであるかに応じて、識別部211の識別結果が決定される。
他方、第1の特定部207の特定結果が「静止」である場合(図4の(3))、識別部211は、第3の特定部209の特定結果を参照する(図4の(4))。識別部211は、第3の特定部209の特定結果が「臥位」であれば、第4の特定部210の特定結果に関わらず、「臥位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(5))。他方、識別部211は、第3の特定部209の特定結果が「臥位以外」であれば、第4の特定部210の特定結果を参照する(図4の(7))。そして、第4の特定部210の特定結果が「座位」であれば、識別部211は、「座位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(8))。他方、第4の特定部210の特定結果が「立位」であれば、識別部211は、「立位」を選択し、姿勢および運動状態の識別結果として出力する(図4の(9))。
このように、第1の実施形態にかかる逐次姿勢識別処理では、4つの特定部それぞれに姿勢および運動状態を特定させ、識別部211が特定結果を所定の順序で段階的に選択することにより、最終的な逐次姿勢識別結果が出力される。このため、第1の実施形態にかかる逐次姿勢識別装置10は、判定が容易な区分たとえば「運動」と「静止」については上段で判断する。そして、逐次姿勢識別装置10は、判定が困難な区分たとえば「立位」と「座位」については下段で判断する。このため、逐次姿勢識別装置10は、判定容易な識別を先に完了して迅速な処理を実現しつつ、判定困難な識別は、専用の特定部を設けて詳細な特定処理を実行することができる。このため、逐次姿勢識別装置10は、逐次姿勢識別処理の精度を向上させることができる。
次に、逐次姿勢識別処理に含まれる特徴量抽出処理、学習処理および識別処理(姿勢特定処理含む)の各々についてさらに説明する。第1の実施形態における特徴量抽出処理の手法は特に限定されない。以下に、特徴量抽出処理の一例について説明する。
(特徴量抽出処理の一例)
第1の実施形態の逐次姿勢識別装置20では、特徴量抽出部202は、所定の期間において計測された加速度情報および生体信号情報をウェアラブル機器10から受信し、当該所定の期間を重なり合う複数の異なる長さの期間に分割する。そして特徴量抽出部202は、各期間について特徴量を算出する。学習処理および姿勢特定処理においてはこれら複数の特徴量が使用される。なお、第1の作成部203で用いる特徴量およびその抽出サイクル(下記T1〜T4)は、第1の特定部207で用いる特徴量およびその抽出サイクルと同じである。また、第2の作成部204で用いる特徴量およびその抽出サイクルは、第2の特定部208で用いる特徴量およびその抽出サイクルと同じである。また、第3の作成部205で用いる特徴量およびその抽出サイクルは、第3の特定部209で用いる特徴量およびその抽出サイクルと同じである。また、第4の作成部206で用いる特徴量およびその抽出サイクルは、第4の特定部210で用いる特徴量およびその抽出サイクルと同じである。ただし、第1の作成部203が用いる特徴量およびその抽出サイクルと、第2の作成部204が用いる特徴量およびその抽出サイクルと、第3の作成部205が用いる特徴量およびその抽出サイクルと、第4の作成部206が用いる特徴量およびその抽出サイクルは相互に異なってもよい。
(第1の特徴量)
第1の特徴量として、特徴量抽出部202は、T1秒間における各軸の加速度情報の時系列集合における基本統計量を算出する。たとえば、最大値、最小値、平均値および分散値のうち少なくとも1つを算出する。たとえば、T1=0.4秒として、0.4秒間に各軸について10個の加速度情報が計測されるとする。この場合、特徴量抽出部202は、各軸についての10個の情報の基本統計量を各軸の特徴量として抽出する。
(第2の特徴量)
第2の特徴量として、特徴量抽出部202は、T2秒間(ただし、T1<T2)における各軸の加速度情報の時系列集合における基本統計量を算出する。たとえば、最大値、最小値、平均値および分散値のうち少なくとも1つを算出する。たとえば、T2=2秒とする。
(第3の特徴量)
第3の特徴量として、特徴量抽出部202は、T3秒間(ただし、T2<T3)における各軸の揺れ数、全体の揺れ数の平均値および分散値、または生体信号情報から抽出される心拍間隔の平均値および分散値のうち少なくとも1つを算出する。揺れ数とは、ユーザの体の振動数に対応する特徴量である。揺れ数の検出手法については以下に詳述する。
(第4の特徴量)
第4の特徴量として、特徴量抽出部202は、T4秒間(ただし、T3<T4)における各軸の揺れ数、全体の揺れ数の基本統計量、または生体信号情報から抽出される心拍間隔の基本統計量のうち少なくとも1つを算出する。基本統計量としては、たとえば、最大値、最小値、平均値および分散値が挙げられる。
なお、心拍間隔から算出される特徴量は、心拍間隔の平均値や分散値に限定されない。たとえば、心拍数の基本統計量を特徴量として算出してもよい。また、第1、第2、第3および第4の特徴量としては、上述した特徴量のうちすべてを使用せずともよく、識別する姿勢および運動に依存して、一部の特徴量のみを使用する。
(揺れ数の検出手法)
次に、揺れ数の検出手法につき説明する。ここで、「揺れ数」とは、体の上下方向ならば歩数やジャンプ回数など体の振動数と同様の意味を持つ回数である。揺れ数を姿勢識別のための特徴量として用いることで、ユーザの身体の傾きの程度や振動すなわち揺れを考慮した識別モデルを作成して詳細な姿勢および運動の識別を実現することができる。
揺れ数を特徴量として用いる場合、加速度情報計測部101は、ウェアラブル機器10を装着するユーザの身体の揺れを計測するため、少なくとも3軸加速度センサ等の加速度センサを備える。たとえば3軸加速度センサを用いる場合、X,Y,Z軸の3軸(図5参照)において加速度センサが受ける加速度を測定することができる。
図5は、逐次姿勢識別処理において用いる特徴量のうち揺れ数の検出手法について説明するための図である。ユーザが姿勢を変えたり運動したりして加速度センサが傾くと、加速度センサが検知する重力加速度が変化する。これによって加速度センサの傾きすなわちユーザの身体の傾きを検知することができる。また、加速度センサが検知するX,Y,Z軸各々における加速度の合成加速度が変化することで、加速度センサすなわちユーザの身体の揺れの程度を検知することができる。たとえば、図5は、ユーザが歩行中に加速度センサによって検知される3軸加速度および合成加速度の計測値の一例を示すグラフである。
上記のように加速度センサによって得られる計測値を用いて揺れ数を検出する。揺れ数検出の手法の一例を以下に説明する。
まず、以下の式(1)に基づき合成加速度Aを算出する。
Figure 2018000230
式(1)で定義する合成加速度Aによれば、各軸方向に対しての揺れが等しく検知でき、センサの回転等の動きがあった場合には合成加速度がほぼ変わらない。図6は、センサを回転させた場合の加速度と合成加速度の一例を示すグラフである。図6の例では、Z軸方向の回転運動が生じているが、合成加速度はほぼZ軸の計測値に追従する。
次に、合成加速度Aが所定の下限閾値θbtmを下回るとき、その時の合成加速度Abtmを記録する。そして、下限閾値θbtmを下回る合成加速度Abtmが記録されてから所定の上限時間t内に、合成加速度Aが所定の上限閾値θtopを上回るとき、その時の合成加速度Atopを記録する。この処理によって短時間内に合成加速度の値が大きく変化している期間を検出する。
次に記録したAbtmとAtopとの差が所定の揺れ検知閾値θampより大きいか否かを判定する。差が揺れ検知閾値θampより大きい場合、揺れ数1とカウントする。そして、AbtmとAtopをリセットする。また、所定の上限期間t内に揺れ数がカウントされなかった場合もAbtmおよびAtopをリセットする。
以上の処理によって、長時間一定方向に強い加速度がかかっている場合は揺れ数としてカウントされず、加速度の方向が急に変化する身体の揺れを正確に検出できる。
なお、揺れ数の検出手法としては、(1)回転や長期的な変化は揺れとして検出されず、(2)一定の量加速度が変化しなければ揺れとして検出されず、(3)どの軸方向でも同様のアルゴリズムで検知でき、(4)ピエゾ式センサすなわち角速度等を検知できないセンサでも検知可能であれば、特に限定なく任意の手法を用いることができる。このように、揺れ数は、合成加速度特定の動作によらず前後方向や左右方向にいずれの方向であっても区別なく算出する。第1の実施形態にかかる特徴量抽出部202は、T3を数分割した小フレームに区切って各小フレーム内の揺れ数に基づいて分散値や平均値を算出する。
また、「各軸の揺れ数」とは、揺れ数を検知したときに最もその揺れに影響を及ぼした軸のみをカウントして得られる数である。たとえば、上記の手法によって揺れ数がカウントされた時の合成加速度を構成している成分のうち最も大きい加速度が計測された軸を検出する。そして、この軸における揺れ数を1とカウントする。たとえば、揺れ数1がカウントされた時の各軸の加速度のうち最も大きい加速度がZ軸から検出されている場合、Z軸の揺れ数1とカウントする。Z軸の揺れは、たとえばユーザが歩行しているときの揺れや、ユーザがジャンプした場合などに検出される。このため、Z軸の揺れ数に基づいて「歩行」等の運動を検出することができる。
なお、第1の実施形態に係る逐次姿勢識別装置20は、機械学習モデルを採用しているため、各特徴量に対する重みづけは自動的に行う。
(学習処理の流れの一例)
図7は、第1の実施形態にかかる逐次姿勢識別装置20による逐次姿勢識別処理のうち学習処理の流れの一例を示す概略図である。図7を用いて、具体的な学習処理の例を説明する。
逐次姿勢識別装置20において最初に機械学習を実行する際および追加で機械学習を実行する際は、ユーザが学習モードを選択する等して学習処理の実行開始を逐次姿勢識別装置20に指示する(ステップS300)。そして、ユーザは姿勢の登録を行う。すなわち、ユーザはラベルを入力する。つまり、ユーザは、機械学習させる動作を識別する情報(「姿勢Aの名前」)と、当該動作の「姿勢」と、当該動作が「運動状態」と「静止状態」のいずれに該当するかの情報と、を逐次姿勢識別装置20に入力する(「姿勢Aの登録準備」、ステップS301)。たとえば図7の例では、「姿勢Aの名前」として「座る」を入力する。座っている状態は「静止状態」であるので「止まっている」という運動状態を示す情報を併せて入力する。図7の例では、これによって「座る」という姿勢を識別する。さらに細かな状態を識別する場合は、ラベルが示す姿勢および運動状態の分類を調整して対応する。たとえば、「座る」という名前に対応して、「姿勢:座位」「運動状態:静止」という情報を入力してもよい。また、「跳躍」という名前に対応して、「姿勢:立位」「運動状態:上下躍動」等としてもよい。入力はウェアラブル機器10の入力部104から行うようにしても逐次姿勢識別装置20の入力部213から行うようにしてもよい。ラベルは、機械学習を行わせる動作の各々について入力し逐次姿勢識別装置20に取得させ記憶させる(ステップS302)。
ラベルの入力後、ユーザは入力したラベルに対応する動作の機械学習開始を逐次姿勢識別装置20に指示する(「姿勢A 開始」、ステップS303)。例えば、逐次姿勢識別装置20の入力部213に開始ボタンや終了ボタンを設けておき、機械学習開始時は、ユーが開始ボタンを押下する。そして、ユーザは、入力したラベルに対応する動作を開始する。ユーザの指示入力によって、逐次姿勢識別装置20において学習モードが起動する(ステップS304)。そして、逐次姿勢識別装置20の特徴量抽出部202は特徴量抽出処理を実行する(ステップS305)。特徴量抽出処理は上述したように各特徴量について予め定められた期間(T1〜T4)ごとに繰り返される。
特徴量が抽出されると、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206に特徴量が送られる。そして、第1の作成部203は、入力されたラベル(たとえば「座る:止まっている」)に基づき、ラベルで指定された「運動状態」または「静止状態」のデータとして(たとえばラベルが「座る:止まっている」であれば「静止状態」)、入力される特徴量の機械学習を行う(ステップS306)。図7の例では、機械学習は特徴量が抽出される時間T1秒ごとに実行される。なお、T1秒より短い抽出サイクルで抽出される特徴量はスライド入力されることになる。機械学習の実行サイクルは、加速度情報計測部101および生体信号情報計測部102の計測サイクルに応じて設定すればよい。
第2の作成部204も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であるため、動作状態の識別モデルを作成する構成要素である第2の作成部204は機械学習は行わず待機する(ステップS307)。
第3の作成部205も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であるため、第3の作成部205は、「静止状態」のうち、「臥位以外」に対応する特徴量として、入力される特徴量の機械学習を行う(ステップS308)。
第4の作成部206も同様に、入力されたラベル(たとえば「座る:止まっている」)に基づき、処理を実行する。図7の例においては、入力されたラベルが「座る:止まっている」すなわち「静止状態」であり、「臥位以外」のうち「座位」に対応する。このため、第4の作成部206は、「静止状態」、「臥位以外」のうち「座位」に対応する特徴量として、入力される特徴量の機械学習を行う(ステップS309)。
ユーザ側ではラベルで指定した動作が完了すると、当該動作の機械学習の終了を逐次姿勢識別装置20に指示する(「姿勢A 終了」、ステップS310)。たとえば、ユーザは、入力部213の終了ボタンを押下する。ユーザの指示に応じて、逐次姿勢識別装置20は学習モードを停止する(ステップS311)。そして、ユーザは次に機械学習させる姿勢Bの登録の準備を開始する(ステップS312)。以上が逐次姿勢識別処理における学習処理の一例の流れである。
学習処理において使用するラベルは、識別の対象とする動作の姿勢および運動状態を示すものであり、たとえば「歩く」「ジャンプする」「座る」「立つ」「うつ伏せになる」「仰向けになる」等と、それが運動状態であるか静止状態であるかの表示を含む。
(識別処理の流れの一例)
図8は、第1の実施形態にかかる逐次姿勢識別装置20による逐次姿勢識別処理のうち識別処理(姿勢特定処理含む)の流れの一例を示す概略図である。次に、図8を参照しつつ、姿勢特定処理および識別処理について具体的な一例を説明する。なお、第1の実施形態にかかる逐次姿勢識別装置20は、図8に示す姿勢特定処理および識別処理を実行中であっても、並行して図7の学習処理を実行し、適宜識別モデルを更新していくことができる。
識別処理を開始するときは、ユーザがまず逐次姿勢識別装置20に対して識別処理を開始する旨の指示を入力する(ステップS401)。たとえば、ユーザは、識別モードを選択する旨の入力を行う。ユーザの入力に応じて、逐次姿勢識別装置20は、識別モードを起動する(ステップS402)。識別モード起動時には、特徴量抽出部202が抽出する特徴量が第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に入力される。そして、ユーザは学習モード時とは異なり、ラベルの指定入力はおこなわず直ちに任意の動作を開始する(「姿勢A 開始」、ステップS403)。たとえば、ユーザは「座っている」という動作を開始する。ユーザが装着するウェアラブル機器10はユーザの加速度情報と生体信号情報とを計測して逐次姿勢識別装置20に送信する。そして、逐次姿勢識別装置20は、受信した加速度情報および生体信号情報の少なくとも一方に基づき特徴量を抽出する(ステップS404)。特徴量抽出処理は前述のとおり、各特徴量について予め決められた期間ごとに実行される。抽出された特徴量は第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210に入力される。
第1の特定部207は、入力された特徴量と第1の作成部203により作成済の運動・静止識別モデルに基づき、現在の特徴量が運動状態と静止状態のいずれに該当するかを特定する。図8の例では、第1の特定部207は、入力された特徴量に対応する状態は「静止状態」(すなわち「止まっている」)であると特定する(ステップS405)。
第2の特定部208は、入力された特徴量と第2の作成部204により作成済の運動識別モデルに基づき、現在の特徴量は運動状態のうち、「歩いている」に該当すると特定する(ステップS406)。
第3の特定部209は、入力された特徴量と第3の作成部205により作成済の第1静止識別モデルに基づき、現在の特徴量は静止状態のうち、「臥位以外」に該当すると特定する(ステップS407)。
第4の特定部210は、入力された特徴量と第4の作成部206により作成済の第2静止識別モデルに基づき、現在の特徴量は「静止状態、臥位以外」のうち、「座位」に該当すると特定する(ステップS408)。図8の例では、T1秒ごとに姿勢特定処理が繰り返し実行される。
第1の特定部207、第2の特定部208、第3の特定部209および第4の特定部210による姿勢特定処理が完了すると、各特定結果が識別部211に送られる。そして、識別部211は、4つの特定結果を統合して最終的な識別結果を出力する。具体的には、識別部211はまず、第1の特定部207による特定結果を参照する(第1段目、ステップS409)。そして第1の特定部207による特定結果が「止まっている」すなわち「静止状態」であるため、識別部211は、第1静止識別モデルによる特定を実行する第3の特定部209の特定結果「臥位以外」を採用(第2段目、ステップS409)する。さらに、識別部211は、「臥位以外」の下位区分を特定する第4の特定部210の特定結果を参照する。そして、識別部211は、第4の特定部210の特定結果「座位」を採用(第3段目、ステップS409)する。これによって、識別部211は、ユーザの姿勢および運動状態を「座位」と識別する。
このように識別処理においては、識別部211は、第1段階として特徴量が「運動状態」と「静止状態」のいずれに該当するか(第1の特定部207の特定結果)をチェックする。そして、第1段階の結果が「運動状態」の場合には、識別部211は、運動状態の種類を特定した特定結果(第2の特定部208の特定結果)を第2段階として選択する。他方、第1段階の結果が「静止状態」の場合には、識別部211は、静止状態のうち、「臥位」と「臥位以外」という区分のいずれかを特定する特定結果(第3の特定部209の特定結果)を第2段階として選択する。さらに下位区分が設定されている「臥位以外」が第2段階において選択された場合、識別部211は、「臥位以外」の下位区分「座位」または「立位」(第4の特定部210の特定結果)を第3段階として選択する。他方、下位区分が設定されていない「臥位」が第2段階において選択された場合、識別部211は、第2段階で処理を終了し「臥位」を識別結果として選択する。このように識別部211は、下位区分が設定されていない区分まで段階的に選択処理を進め、選択処理において到達した最も下位の区分を識別結果として出力する。
ユーザは別の動作に移行するときは特に逐次姿勢識別装置20に対する入力は行わず、異なる動作に移行する(「姿勢A終了、姿勢B開始」、ステップS410)。ユーザの動作変化に応じて、逐次姿勢識別装置20に送信される加速度情報および生体信号情報が変動し、特徴量が変動する。これによって、逐次姿勢識別装置20がT1ごとに実行する識別処理(姿勢特定処理含む)の結果に姿勢変動が反映されていく。
このように、第1の実施形態にかかる逐次姿勢識別装置20は、ユーザの姿勢や運動状態を識別する。そして、逐次姿勢識別装置20の生成部212は、識別した姿勢や運動状態と、生体信号情報の変動を対応づけることで、ユーザの健康状態の判断に利用できる情報を生成する。
(変形例)
上記の逐次姿勢識別処理においては、第1の特定部207が運動状態と静止状態とを特定し、第2の特定部208が運動状態の種類を特定し、第3の特定部209が臥位と臥位以外とを特定し、第4の特定部210が立位と座位とを特定するものとした。これに限らず、各特定部が特定する姿勢および運動状態の種類をさらに細分化して設定することもできる。
たとえば、識別モデルを作成する際に、特定の時間に計測された加速度情報に基づく姿勢ラベルを、他の時間に計測された加速度情報に基づく同一の姿勢ラベルと区別して機械学習させる。たとえば、朝の8時に計測された加速度情報に基づく「座位」と、夜の9時に計測された加速度情報に基づく「座位」と、を区別して機械学習させる。同じ姿勢であっても、当該姿勢のときに測定される加速度情報は、測定する日時等によって変化すると考えられる。たとえば、朝、ユーザが活発に活動している時間帯の「立位」と、夜中にユーザが疲労してぼんやりしているときの「立位」とは、計測される加速度情報に差異が生じると考えられる。そこで、より精度の高い逐次姿勢識別処理を実現するためには、日時等によって生じる同じ姿勢の間の変化も加味して処理を実行することが有用と考えられる。
また、人の動作や運動状態は季節や気候など、他の要因によっても変動すると考えられる。したがって、一日のうちどの時間か、に応じて姿勢ラベルを作成するだけでなく、どの季節か、どのような気候か、気温はどの程度か、等に応じて同じ姿勢や運動状態であっても異なるラベルを作成することが有用と考えられる。また、逐次姿勢識別装置20は、ユーザの健康状態に応じたラベルに基づいて機械学習を実行するように構成してもよい。たとえば、逐次姿勢識別装置20は、怪我をしたユーザの「回復前の立位」、「回復中の立位」、「回復後の立位」等のラベルに基づいて機械学習を実行するように構成してもよい。
そこで、変形例として、第4の特定部210が特定する「立位」と「座位」のそれぞれについて複数のラベルを準備する。図9は、変形例にかかる逐次姿勢識別処理における判定について説明するための図である。図9に示すように、変形例では、「立位A」、「立位B」、「立位C」等として、異なる時間帯に対応する立位を特定するよう、第4の特定部210を構成する。さらに、「座位A」、「座位B」、「座位C」等として、異なる時間帯に対応する座位を特定するよう、第4の特定部210を構成する。この場合、第4の作成部206は、第4の特定部210で特定する各ラベルに対応する識別モデルを作成する。
図9の例では、不明な姿勢の加速度情報が入力されると(図9の(1))、識別部211はまず、第1の特定部207の特定結果が静止状態か運動状態かを特定する。第1の特定部207の特定結果が「運動状態」(図9の(2)、「動作」)であれば、識別部211は、第2の特定部208の特定結果(図9の(3)、「動作A」または「動作B」)を採用する。他方、第1の特定部207の特定結果が「静止状態」(図9の(4)、「静止」)であれば、識別部211は、第3の特定部209の特定結果(図9の(5)(6)、「臥位」または「その他」)を採用する。第3の特定部209の特定結果が「臥位」の場合(図9の(5))、識別部211は、それより下位の区分はないため、「臥位」を採用する。第3の特定部209の特定結果が「その他」の場合(図9の(6))、識別部211は、さらに下位の区分の特定を行う第4の特定部210の特定結果を採用する(図9の(7)、(8))。第4の特定部210は、「立位A」「立位B」「立位C」と特定された加速度情報をすべて「立位」と特定し、「座位A」「座位B」「座位C」と特定された加速度情報をすべて「座位」とし特定する。識別部211は、第4の特定部210の特定結果を採用して、識別結果として出力する。
このように、逐次姿勢識別装置は、識別が困難なラベル(たとえば「立位」と「座位」)各々について、異なる時点のデータに異なるラベルを付して機械学習を実行し、識別処理を実行することで、識別が困難な姿勢や運動状態であっても網羅的に検知することができる。すなわち、逐次姿勢識別装置は、「立位A」「立位B」「立位C」を全て同じ「立位」と特定するため、姿勢の微妙な変化を考慮しつつ、同じ上位区分に分類できる姿勢および運動状態を網羅的に検知することができる。
なお、ここでは、所定時間帯の姿勢に対して一つのラベルを付すものとしたが、これに限らず、同一の姿勢が一定期間離れて複数検知された場合には常に異なるラベルを付して区別するようにしてもよい。
また、上記の例では、立位と座位について複数のラベルを作成する例を説明したが、これに限らず、任意の姿勢および運動状態について時間や季節等ごとに異なるラベルを作成してもよい。
(第1の実施形態の効果)
上記のように、第1の実施形態にかかる逐次姿勢識別装置は、抽出部と、作成部と、識別部と、を備える。抽出部は、ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する。作成部は、第1の特徴量に基づく機械学習により、ユーザの姿勢および運動状態を識別するための識別モデルを作成する。識別部は、識別モデルと第2の特徴量とに基づき、ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このため、逐次姿勢識別装置は、特定部が特定する区分を柔軟に設定して、ユーザの姿勢および運動状態を識別することができる。また、逐次姿勢識別装置は、所定の時間の姿勢および運動状態に対応する区分を含むユーザの姿勢および運動状態に対応する複数の区分から、ユーザの姿勢および運動状態を特定する。このため、所定の時間に対応する姿勢および運動状態と、他の時間に対応する姿勢および運動状態を区別して識別精度を向上させることができる。また、逐次姿勢識別装置は、識別が容易な区分から識別が困難な区分へと、区分を順番に選択する。このため、逐次姿勢識別装置は、容易に識別できる区分について処理時間を増加させることなく、迅速な識別を実現することができる。このため、識別が容易な区分については迅速に識別結果を得ることができる。
また、第1の実施形態にかかる逐次姿勢識別装置において、識別部は、複数の区分のうち上位区分から下位区分へと区分を順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このため、逐次姿勢識別装置は、識別がより容易な区分から始めて迅速に識別を行うことができる。
また、第1の実施形態にかかる逐次姿勢識別装置は、識別モデルと第2の特徴量とに基づき、第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、所定の時間の姿勢および運動状態に対応する区分を含む複数の区分の中から各々特定する4以上の特定部をさらに備える。そして、識別部は、4以上の特定部が特定した区分のうち、識別が容易な区分から識別が困難な区分へと、第2の所定期間のユーザの姿勢および運動状態に該当する1の区分を少なくとも3段階で順番に選択することにより、第2の所定期間のユーザの姿勢および運動状態を識別する。このように、逐次姿勢識別装置は、4以上の特定部においてそれぞれ姿勢および運動状態を特定し、特定結果を段階的に選択する。このため、各特定部において特定する姿勢および運動状態や、選択の順番等を柔軟に設定して識別速度や効率を向上させることができる。
また、第1の実施形態にかかる逐次姿勢識別装置において、識別部は、4以上の特定部により特定された区分を少なくとも3段階で選択する。このため、逐次姿勢識別装置は、段数を適切に設定して処理負荷を調節しつつ、精度の高い逐次姿勢識別を実行することができる。
また、第1の実施形態にかかる逐次姿勢識別装置において、特定部は、臥位および臥位以外のいずれかの区分を特定する第1の特定部と、臥位以外のうち、立位および座位のいずれかの区分を特定する第2の特定部と、を備える。このため、逐次姿勢識別装置は、複数の特定部における特定結果に基づき、段階的に特定結果を選択して逐次姿勢識別を実行することができる。また、識別が困難な立位と座位を、識別が容易な臥位と臥位以外とは別の特定部で特定することにより、逐次姿勢識別装置は、第2の特定部では精度の高い識別モデルを用い、第1の特定部では精度が低めの識別モデルを用いるなど、各特定部での処理精度を調整することができる。このため、全体としての識別精度を向上させることが可能である。
また、第2の特定部は、複数の所定の日時に各々対応する複数の立位の区分および複数の所定の日時に各々対応する複数の座位の区分のいずれかを、第2の所定期間のユーザの姿勢および運動状態が該当する1の区分として特定する。このため、逐次姿勢識別装置は、同じ「立位」や「座位」であっても時間や季節、温度等に応じた微妙な姿勢や運動状態の変化を反映して、異なるラベルとして複数種類の「立位」および「座位」を識別することができる。このため、逐次姿勢識別装置は、識別が困難な姿勢および運動状態であっても識別精度を向上させて逐次姿勢識別を実現することができる。
また、逐次姿勢識別装置は、特定部による特定結果を並列的に処理するのではなく、多段的に組み合わせて用いる。このため、逐次姿勢識別装置は、コントラストが小さいために識別しにくい姿勢や運動状態を予め専用の特定部によって特定するよう構成され、識別精度を向上させることができる。
静止状態を複数の区分に分類しようとした場合に、「立位」と「座位」との区別が困難な理由の1つは、「立位」と「座位」との差異が、他の姿勢と「立位」または「座位」との差異に比較して小さいためであると考えられる。したがって、逐次姿勢識別装置が、複数のラベルたとえば「立位」「座位」「臥位」を機械学習に基づき並列的に区別しようとすると、「立位」と「座位」との識別が困難になる。つまり、「立位」または「座位」と「臥位」との差異に比して相対的に小さい「立位」と「座位」との差異が、相対的に識別されにくくなる。上記実施形態では、相互に相対的に差異が小さい区分の組み合わせを、他の区分とは別の特定部において特定させることにより、識別精度を向上させる。
(その他の変形例)
上記のように第1の実施形態においては、ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成部を4つ設け、ユーザの姿勢および運動状態を特定するための特定部を4つ設けた。ただし、作成部および特定部の数は4に限られず、5以上の作成部および特定部を設けて細かく姿勢および運動状態を識別してもよい。また、識別処理の段数も必ずしも3に限定されず、特定部の数に応じて任意の段数に設定することができる。
第1の実施形態では、運動と静止とを区別する特定部と、運動の種類を特定する特定部と、静止のうち臥位と臥位以外とを特定する特定部と、臥位以外のうち立位と座位を特定する特定部を設けた。これに限らず、特に区別が困難な任意の2以上の区分を相互に区別するための特定部を設けることができる。
また、介護やリハビリを目的として逐次姿勢識別を行う場合等に、特に着目する姿勢や運動状態の区分をユーザが設定することができるように構成してもよい。
また、特定部の特定結果を段階的に選択する際の選択順序も必ずしも限定されない。第1の実施形態では、相互に識別が容易な区分を先の段で、相互に識別が困難な区分を後段で選択するように選択順序を設定する。ただし、識別の困難性以外の基準に基づいて選択順序を設定することも可能である。
(実施例)
図10は、実施形態にかかる逐次姿勢識別方法を用いた場合の精度向上について説明するための図である。図10を参照し、本実施形態にかかる逐次姿勢識別方法の効果について説明する。
図10は、7名のユーザ「u01」「u02」「u03」「u04」「u05」「u06」「u07」について行った逐次姿勢識別の実験結果を示す。
図10中、左側のデータ(1)は、3つの特定部を設けてそれぞれにおいて、(A)運動状態か静止状態かの特定、(B)運動の種類の特定、(C)静止の種類の特定、を実行した場合の実験結果を示す。この場合には、逐次姿勢識別処理結果として、(A)で「運動状態」と特定されれば(B)の特定結果を識別結果として採用し、(A)で「静止状態」と特定されれば(C)の特定結果を採用した。
図10中、中央のデータ(2)は、上記第1の実施形態のように4つの特定部を設けてそれぞれにおいて、(A)運動状態か静止状態かの特定、(B)運動の種類の特定、(C)臥位かそれ以外かの特定、(D)立位か座位かの特定、を実行した場合の実験結果を示す。この場合には、逐次姿勢識別処理結果として、(A)で「運動状態」と特定されれば(B)の特定結果を識別結果として採用した。また、(A)で「静止状態」と特定されれば(C)の特定結果、さらに(C)で臥位以外と特定された場合は(D)の特定結果を採用した。
図10中、右側のデータ(3)は、中央の場合に加えて、「立位」と「座位」のそれぞれについて異なる時間帯のラベルは異なるラベルとして区別した場合の実験結果を示す。すなわち、上記変形例に対応する実験結果である。
図10中、正判別率とは、逐次姿勢識別処理の実行回数に対し正しい識別結果が得られた割合を示す。誤判別率とは、逐次姿勢識別処理の実行回数に対し誤った識別結果が得られた割合を示す。また、再現率とは、結果として得られるべき回答のうち、実際に得られるべき回答が得られた率を示す。たとえば、「座位」として識別されるべき姿勢のうち、実際に「座位」と判定された姿勢の割合を示す。また、適合率とは、得られた結果のうち正しかったものの割合を示す。たとえば、「座位」として識別された姿勢のうち、実際に「座位」であった姿勢の割合を示す。F値は、適合率と再現率の調和平均である。F値が高いほど、適合率と再現率のバランスがよく、高い識別精度が得られているといえる。
図10の例において、上記(1)(2)(3)のそれぞれの場合において、各ユーザについて「立位」「座位」の正判別率、誤判別率、再現率、適合率、F値を算出した。
「立位」を識別した場合、(1)のF値平均は「0.779」である。これに対して、(2)のF値平均は「0.840」と大きく改善している。さらに、(3)のF値平均はさらに「0.857」と改善する。
また、「座位」を識別した場合、(1)のF値平均は「0.697」である。これに対して、(2)のF値平均は「0.776」とやはり改善している。さらに、(3)のF値平均はさらに「0.814」とさらに改善している。
このように、逐次姿勢識別装置の作成部および特定部の中に、識別が困難な区分(ラベル)を識別するための作成部および特定部を設け、多段的に姿勢および運動状態を識別することにより、識別精度を向上させることができることが確認された。また、下位区分として設定するラベルを加速度情報が計測された時間帯に応じて複数に分けることで、さらに識別精度を向上させることが可能であることが確認された。
(プログラム)
図11は、開示の技術に係る逐次姿勢識別プログラムによる情報処理がコンピュータを用いて具体的に実現されることを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブ1080と、ネットワークインタフェース1070とを有する。コンピュータ1000の各部はバス1100によって接続される。
メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。
ここで、図11に例示するように、ハードディスクドライブ1080は、例えば、OS(Operating System)1081、アプリケーションプログラム1082、プログラムモジュール1083、プログラムデータ1084を記憶する。すなわち、開示の実施の形態に係る逐次姿勢識別プログラムは、コンピュータによって実行される指令が記述されたプログラムモジュール1083として、例えばハードディスクドライブ1080に記憶される。例えば、特徴量抽出部202、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206、第1の特定部207、第2の特定部208、第3の特定部209、第4の特定部210、識別部211、生成部212の各部と同様の情報処理を実行する手順各々が記述されたプログラムモジュール1083が、ハードディスクドライブ1080に記憶される。
また、第1の作成部203、第2の作成部204、第3の作成部205、第4の作成部206により作成される識別モデル、識別部211による識別結果および生成部212が生成する情報のように、逐次姿勢識別プログラムによる情報処理に用いられるデータは、プログラムデータ1084として、例えばハードディスクドライブ1080に記憶される。そして、CPU1020が、ハードディスクドライブ1080に記憶されたプログラムモジュール1083やプログラムデータ1084を必要に応じてRAM1012に読み出し、各種の手順を実行する。
なお、逐次姿勢識別プログラムに係るプログラムモジュール1083やプログラムデータ1084は、ハードディスクドライブ1080に記憶される場合に限られない。例えば、プログラムモジュール1083やプログラムデータ1084は、着脱可能な記憶媒体に記憶されてもよい。この場合、CPU1020は、ディスクドライブなどの着脱可能な記憶媒体を介してデータを読み出す。また、同様に、逐次姿勢識別プログラムに係るプログラムモジュール1083やプログラムデータ1084は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。この場合、CPU1020は、ネットワークインタフェース1070を介して他のコンピュータにアクセスすることで各種データを読み出す。
(その他)
なお、本実施形態で説明した逐次姿勢識別プログラムは、インターネット等のネットワークを介して配布することができる。また、逐次姿勢識別プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読取可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
なお、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 逐次姿勢識別システム
10 ウェアラブル機器
101 加速度情報計測部
102 生体信号情報計測部
103 送受信部
104 入力部
20 逐次姿勢識別装置
201 送受信部
202 特徴量抽出部
203 第1の作成部
204 第2の作成部
205 第3の作成部
206 第4の作成部
207 第1の特定部
208 第2の特定部
209 第3の特定部
210 第4の特定部
211 識別部
212 生成部
213 入力部

Claims (7)

  1. ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する抽出部と、
    前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成部と、
    前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別部と、
    を備えることを特徴とする逐次姿勢識別装置。
  2. 前記識別部は、前記複数の区分のうち上位区分から下位区分へと区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別することを特徴とする請求項1に記載の逐次姿勢識別装置。
  3. 前記識別モデルと前記第2の特徴量とに基づき、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分を、前記所定の日時に対応する下位区分を含む複数の区分の中から各々特定する4以上の特定部をさらに備え、
    前記識別部は、前記4以上の特定部が特定した区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する1の区分を少なくとも3段階で順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別することを特徴とする請求項1または2に記載の逐次姿勢識別装置。
  4. 前記4以上の特定部は、
    臥位および臥位以外のいずれかの区分を特定する第1の特定部と、
    臥位以外のうち、立位および座位のいずれかの区分を特定する第2の特定部と、
    を備えることを特徴とする請求項3に記載の逐次姿勢識別装置。
  5. 前記第2の特定部は、
    複数の所定の日時に各々対応する複数の立位の下位区分および複数の所定の日時に各々対応する複数の座位の下位区分のいずれかを、前記第2の所定期間のユーザの姿勢および運動状態が該当する1の区分として特定することを特徴とする請求項4に記載の逐次姿勢識別装置。
  6. ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する抽出工程と、
    前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成工程と、
    前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別工程と、
    をコンピュータに実行させることを特徴とする逐次姿勢識別方法。
  7. ユーザの加速度情報から、第1の所定期間に対応する第1の特徴量および第2の所定期間に対応する第2の特徴量を抽出する抽出手順と、
    前記第1の特徴量に基づく機械学習により、前記ユーザの姿勢および運動状態を識別するための識別モデルを作成する作成手順と、
    前記識別モデルと前記第2の特徴量とに基づき、前記ユーザの姿勢および運動状態に対応する複数の区分であって、同じ姿勢および運動状態について所定の日時に対応する下位区分を含む複数の区分のうち、識別が容易な区分から識別が困難な区分へと、前記第2の所定期間のユーザの姿勢および運動状態に該当する区分を順番に選択することにより、前記第2の所定期間のユーザの姿勢および運動状態を識別する識別手順と、
    をコンピュータに実行させることを特徴とする逐次姿勢識別プログラム。
JP2016126451A 2016-06-27 2016-06-27 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム Active JP6530350B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126451A JP6530350B2 (ja) 2016-06-27 2016-06-27 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126451A JP6530350B2 (ja) 2016-06-27 2016-06-27 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム

Publications (2)

Publication Number Publication Date
JP2018000230A true JP2018000230A (ja) 2018-01-11
JP6530350B2 JP6530350B2 (ja) 2019-06-12

Family

ID=60944840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126451A Active JP6530350B2 (ja) 2016-06-27 2016-06-27 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム

Country Status (1)

Country Link
JP (1) JP6530350B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166348A (ja) * 2019-03-28 2020-10-08 株式会社日立製作所 作業者転倒検知システム及び作業者位置検知システム
JP2021094307A (ja) * 2019-12-19 2021-06-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009018158A (ja) * 2007-06-14 2009-01-29 Hideo Hirose 姿勢モニタシステムおよび身体モニタシステム
JP2010125239A (ja) * 2008-11-29 2010-06-10 Nihon Univ 人の姿勢動作判別装置
JP2012161379A (ja) * 2011-02-03 2012-08-30 Sony Corp 時差ぼけ症状の推定装置、推定システム、推定方法およびプログラム
JP2013099433A (ja) * 2011-11-08 2013-05-23 Tokyo Metropolitan Univ 行動認識プログラム、行動認識用の端末および行動認識用の処理装置
US20150018724A1 (en) * 2013-07-15 2015-01-15 Ying Hsu Balance Augmentation Sensors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009018158A (ja) * 2007-06-14 2009-01-29 Hideo Hirose 姿勢モニタシステムおよび身体モニタシステム
JP2010125239A (ja) * 2008-11-29 2010-06-10 Nihon Univ 人の姿勢動作判別装置
JP2012161379A (ja) * 2011-02-03 2012-08-30 Sony Corp 時差ぼけ症状の推定装置、推定システム、推定方法およびプログラム
JP2013099433A (ja) * 2011-11-08 2013-05-23 Tokyo Metropolitan Univ 行動認識プログラム、行動認識用の端末および行動認識用の処理装置
US20150018724A1 (en) * 2013-07-15 2015-01-15 Ying Hsu Balance Augmentation Sensors

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166348A (ja) * 2019-03-28 2020-10-08 株式会社日立製作所 作業者転倒検知システム及び作業者位置検知システム
JP7377001B2 (ja) 2019-03-28 2023-11-09 北陸電気工業株式会社 作業者転倒検知システム及び作業者位置検知システム
JP2021094307A (ja) * 2019-12-19 2021-06-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP6530350B2 (ja) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6356616B2 (ja) 逐次姿勢識別装置および自律神経機能情報取得装置、方法ならびにプログラム
US20180264320A1 (en) System and method for automatic location detection for wearable sensors
JP6362521B2 (ja) 行動分類システム、行動分類装置及び行動分類方法
CN106580346B (zh) 情绪推定方法和情绪推定装置
CN105530858B (zh) 用于估计人员的心血管健康的系统和方法
CN109069066A (zh) 可穿戴和连接的步态分析系统
CN109310364A (zh) 用于自动姿势校准的系统和方法
JP2012527292A (ja) 着用位置を検出するためのセンシングデバイス
JP6876986B2 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム
Awais et al. Physical activity classification using body-worn inertial sensors in a multi-sensor setup
Palmerini et al. Dimensionality reduction for the quantitative evaluation of a smartphone-based Timed Up and Go test
KR102029219B1 (ko) 뇌 신호를 추정하여 사용자 의도를 인식하는 방법, 그리고 이를 구현한 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치
JP2016002109A (ja) 活動評価装置、評価処理装置、プログラム
JP6724984B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20190320944A1 (en) Biomechanical activity monitoring
JP2020120807A (ja) 転倒リスク評価装置、転倒リスク評価方法及び転倒リスク評価プログラム
CN109620209A (zh) 一种动态心电、呼吸和运动监测系统和方法
KR20180067233A (ko) 낙상위험 평가방법 및 이를 위한 사용자 단말기
JP6530350B2 (ja) 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム
JP6599821B2 (ja) 自動教師データ作成装置、自動教師データ作成方法および自動教師データ作成プログラム
EP3485803B1 (en) Wearable device capable of recognizing sleep stage and recognition method thereof
Angelucci et al. An IMU-based wearable system for respiratory rate estimation in static and dynamic conditions
JP6390783B2 (ja) 食事時間推定方法及び食事時間推定装置
CN205493832U (zh) 颈部姿态监控服装
CN112674760A (zh) 一种基于可穿戴传感器的帕金森病上肢运动检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190516

R150 Certificate of patent or registration of utility model

Ref document number: 6530350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250