JP6577324B2 - 行動判定装置及び行動判定方法 - Google Patents

行動判定装置及び行動判定方法 Download PDF

Info

Publication number
JP6577324B2
JP6577324B2 JP2015201308A JP2015201308A JP6577324B2 JP 6577324 B2 JP6577324 B2 JP 6577324B2 JP 2015201308 A JP2015201308 A JP 2015201308A JP 2015201308 A JP2015201308 A JP 2015201308A JP 6577324 B2 JP6577324 B2 JP 6577324B2
Authority
JP
Japan
Prior art keywords
information
unit
model
preset model
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015201308A
Other languages
English (en)
Other versions
JP2017073076A (ja
Inventor
大橋 純
純 大橋
一成 大内
一成 大内
隆 須藤
隆 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2015201308A priority Critical patent/JP6577324B2/ja
Publication of JP2017073076A publication Critical patent/JP2017073076A/ja
Application granted granted Critical
Publication of JP6577324B2 publication Critical patent/JP6577324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、行動判定装置及び行動判定方法に関する。
従来より、加速度センサ、カメラなどを利用して人の行動を判定する技術が、種々提案されている。このような技術は、例えば一人暮らしの者の状況を把握するシステムに、応用可能である。
また、音情報を使用して対象者の行動を判定する技術が提案されている。例えば、入力された音情報の特徴量情報と、特定の行動と対応付けられている所定モデルの特徴量情報とを比較することにより、行動判定は行われる。
行動判定に使用されるモデルは、ユーザの指示により、入力された音情報から学習して、モデル情報を蓄積させる技術も提案されている。
しかしながら、予め登録されたプリセットモデル情報に近いモデルが学習によって新たに蓄積されると、プリセットモデル情報と新しいモデルとの区別がつきにくくなり、行動判定の精度を低下させることがある。
特開2010−190861号公報
そこで、本実施形態は、プリセットモデル情報に対する判定精度を低下させることなく、ユーザモデル情報を蓄積させることができる行動判定装置及び行動判定方法の提供を目的とする。
実施形態の行動判定装置は、プリセットモデル部と、ユーザモデル部と、情報取得部と、情報抽出部と、モデル作成部と、行動認識部とを有し、プリセットモデル部は、複数のプリセットモデル情報を記憶可能であり、ユーザモデル部は、複数のユーザモデル情報を記憶可能であり、情報取得部によって取得される所定の情報から特徴情報を抽出し、特徴情報と、プリセットモデル部に記憶される各プリセットモデル情報との類似度を含む類似度情報に基づいて特徴情報の使用可否を判定し、特徴情報が使用可能であるとき、特徴情報からユーザモデル情報を作成し、特徴情報と、少なくともユーザモデル情報とに基づいて行動認識する。プリセットモデル部は、認識対象行動のプリセットモデル情報を含む認識対象行動グループと、認識対象行動以外のプリセットモデル情報を含むその他行動グループとを含む。行動認識部は、特徴情報が、認識対象行動グループに属すると判定されるとき、プリセットモデル部を参照して行動認識をし、特徴情報が、その他行動グループに属すると判定されるとき、プリセットモデル部に加えてユーザモデル部を参照して行動認識をする。
第1の実施形態に関わる、行動判定装置の主要部の構成を説明するブロック図である。 第1の実施形態に関わる、行動判定装置のウェアラブル端末の構成を示すブロック図である。 第1の実施形態に関わる、行動判定装置のウェアラブル端末の外観図である。 第1の実施形態に関わる、行動判定装置のウェアラブル端末を腕に装着した状態を説明する説明図である。 第1の実施形態に関わる、行動判定装置の学習処理の流れを説明するフローチャートである。 第1の実施形態に関わる、行動判定装置の類似度の判定方法を説明する説明図である。 第1の実施形態に関わる、行動判定装置のウェアラブル端末における行動認識処理の流れを説明するフローチャートである。 第1の実施形態の変形例1に関わる、行動判定装置のウェアラブル端末における行動認識処理の流れを説明するフローチャートである。 第1の実施形態の変形例1に関わる、行動判定装置のユーザモデル使用判定処理の流れを説明するフローチャートである。 第1の実施形態の変形例2に関わる、行動判定装置のユーザモデル使用判定処理の流れを説明するフローチャートである。 第2の実施形態に関わる、行動判定装置の主要部の構成を説明するブロック図である。 第2の実施形態に関わる、姿勢と認識対象行動との対応関係を示すテーブルである。 第3の実施形態に関わる、行動判定装置の主要部の構成を説明するブロック図である。
以下、図面を参照して実施形態を説明する。
(第1の実施形態の構成)
図1は、第1の実施形態に関わる、行動判定装置1の主要部の構成を説明するブロック図である。図1において、実線は学習処理の流れを示し、破線は行動認識処理の流れを示す。
図1に示すように、行動判定装置1は、ウェアラブル端末11と、携帯情報端末101とを有して構成される。
ウェアラブル端末11の主要部は、情報取得部21と、制御部31と、プリセットモデル部41と、ユーザモデル部51と、無線通信部C1とを有して構成される。
情報取得部21は、マイクロフォン22と、デジタル・シグナル・プロセッサ(以下、DSPという)24とを有して構成される。
マイクロフォン22は、集音口23(図3)の背面側に配置される。マイクロフォン22は、外部の音を集音し、音信号をDSP24に出力するように構成される。
DSP24は、マイクロフォン22から出力される音信号に基づいて、音情報を生成し、制御部31に出力するように構成される。
マイクロフォン22とDSP24は、電力消費量を抑えることができるように、制御部31の制御のもと、例えば、100msec動作して900msec休止する等の所定周期の間欠動作を繰り返す。
制御部31は、中央処理装置(以下「CPU」という)32と、ROM、RAM及び書き換え可能な不揮発性メモリを含むメモリ33を有して構成される。
CPU32は、メモリ33に記憶された各種プログラムを実行可能である。CPU32の機能は、メモリ33に記憶された各種プログラムを実行することによって実現される。
また、CPU32は、ユーザの行動判定において、省電力化のためにマイクロフォン22及びDSP24を間欠動作させるように、マイクロフォン22及びDSP24のオン・オフ制御を行う。
メモリ33には、ウェアラブル端末11の制御に関する各種プログラムの他、特徴量抽出部34及び行動認識部35の各プログラムが記憶される。
情報抽出部である特徴量抽出部34は、マイクロフォン22及びDSP24によって取得される所定の情報である音情報から、特徴情報である特徴量情報を抽出する処理部である。すなわち、情報抽出部は、情報取得部21によって取得される所定の情報から特徴情報を抽出する処理部を構成する。
特徴量抽出部34は、音情報が入力される度に、音情報から複数の特徴量情報を算出して抽出し、抽出された特徴量情報を正規化する。正規化された特徴量情報は、後述する行動認識処理において、行動認識部35に出力される。また、正規化された特徴量情報は、後述する学習処理において、無線通信部C1、C2を介し、携帯情報端末101のモデル作成部134に出力される。
特徴量情報は、例えば、MFCC(Mel Frequency Cepstral Coefficients)、RMS(Root Mean Square:二乗平均平方根)、及びZCR(Zero−Crossing Rate:ゼロ交差率)の3種類が複数抽出される。MFCCでは、人間の聴覚上重要な周波数成分を強調した特徴量情報が用いられ、RMSでは、音の強度の特徴量情報が用いられ、ZCRでは、音の高さ、すなわち、ピッチの特徴量情報が用いられる。なお、ここでは、MFCC、RMS、ZCRの3種類の特徴量情報を用いているが、これら以外の特徴量情報を用いてもよい。
行動認識部35は、特徴情報である特徴量情報と、少なくともユーザモデル情報とに基づき、行動を認識する処理部である。より具体的には、行動認識部35は、特徴量情報と、後述するプリセットモデル情報及びユーザモデル情報とに基づいて行動を認識する処理部である。
行動認識部35は、特徴量抽出部34によって抽出された複数の特徴量情報を、後述するプリセットモデル部41及びユーザモデル部51を参照してプリセットモデル部41及びユーザモデル部51に含まれるいずれか1つのモデル情報に分類してモデル情報に対する評価値を算出可能であり、所定期間に算出された複数の評価値に基づいて行動認識をし、無線通信部C1、C2を介し、後述する携帯情報端末101の認識結果出力部135に認識結果を送信する。
特徴量情報の分類処理は、プリセットモデル部41及びユーザモデル部51に含まれるプリセットモデル情報及びユーザモデル情報を参照し、例えば、サポート・ベクター・マシン(Support Vector Machine:SVM)を利用し、入力された複数の特徴量情報がどのクラスすなわち行動に属するかの推定を行い、推定された行動と、その推定確率とを出力する。なお、特徴量情報の分類処理は、サポート・ベクター・マシン以外の方法も利用し、複数の特徴量情報から行動の推定を行うようにしてもよい。
プリセットモデル部41及びユーザモデル部51は、書き換え可能な不揮発性メモリによって構成され、行動認識部35から参照できるように構成される。
プリセットモデル部41は、工場出荷前等にプリセットされる複数のプリセットモデル情報を記憶可能である。
ユーザモデル部51は、ユーザによって作成される複数のユーザモデル情報を記憶可能である。
プリセットモデル部41及びユーザモデル部51の各々は、認識対象行動のモデル情報を含む認識対象行動グループと、認識対象行動以外のプリセットモデル情報を含むその他行動グループとを含む。
認識対象行動グループは、1又は複数の認識対象行動と、認識対象行動に対応付けられた特徴量情報を有して構成される。
その他行動グループは、認識対象行動の判定精度を高めるため、プリセットモデル情報及びユーザモデル情報のいずれにも属さない、1又は複数のその他行動と、その他行動に対応付けられた特徴量情報を有して構成される。
無線通信部C1は、近距離無線通信により、携帯情報端末101の無線通信部C2と無線通信する回路である。
図2は、第1の実施形態に関わる、行動判定装置1のウェアラブル端末11の構成を示すブロック図である。
ウェアラブル端末11は、上述した情報取得部21、制御部31、プリセットモデル部41、ユーザモデル部51及び無線通信部C1に加え、図2に示すように、時計部61と、表示部71と、タッチパネル72と、操作部81と、バッテリー91とを有して構成される。
時計部61は、時刻情報を生成可能であり、時刻情報を制御部31に送信可能である。
表示部71は、制御部31に接続され、制御部31の出力により、各種情報を表示可能である。
タッチパネル72は、表示部71の表示面上に密着して配置される。タッチパネル72は、タッチ操作やスワイプ操作(タッチパネル72に手指をタッチしてそのまま滑らせる操作)による指示入力が可能である。タッチパネル72は、制御部31に接続され、ユーザの指示入力を電気信号として制御部31に出力可能である。
操作部81は、操作ボタンを有して構成される。操作部81は、制御部31に接続され、現在時刻又は各種設定等の各種指示の入力が可能である。
バッテリー91は、ウェアラブル端末11の各部に電力を供給できるように構成される。
図3は、第1の実施形態に関わる、行動判定装置1のウェアラブル端末11の外観図である。図4は、第1の実施形態に関わる、行動判定装置1のウェアラブル端末11を腕Aに装着した状態を説明する説明図である。
ウェアラブル端末11の外観構成について説明をする。
図3に示すように、ウェアラブル端末11は、所謂リストバンド型の端末であり、本体部12と装着部13を有して構成される。
本体部12は、表面に集音口23と、表示部71と、表示部71の表示面上に密着して配置されたタッチパネル72とを有して構成される。本体部12は、側面に、操作部81を有して構成される。なお、図3においては、操作部81は、本体部12の側面に設けられているが、本体部12の表面に設けられても良い。
装着部13は、本体部12の長手方向両端部に取り付けられる2本のリストバンド14を有して構成される。2本のリストバンド14は、それぞれ細長帯状に形成され、先端に留め具15を有して構成される。
図4に示すように、ユーザは、本体部12をユーザの利き腕Aである右の腕Aの外側(手の甲側)に配置し、2本のリストバンド14をそれぞれ腕Aの内側(手のひら側)に回し、留め具15を留め、ウェアラブル端末11を腕Aに装着可能である。
続いて、図1に戻り、携帯情報端末101の主要部について説明をする。
携帯情報端末101の主要部は、無線通信部C2と、制御部131と、表示部171と、タッチパネル172とを有して構成される。
携帯情報端末101の無線通信部C2は、近距離無線通信により、ウェアラブル端末11と無線通信する回路である。
制御部131は、中央処理装置(以下「CPU」という)132と、ROM、RAM及び書き換え可能な不揮発性メモリとを含むメモリ133とを有して構成される。
CPU132の機能は、メモリ133に記憶された各種プログラムを実行することによって実現される。
メモリ133には、行動判定に関する各種プログラムの他、モデル作成部134及び認識結果出力部135の各プログラムが記憶される。
モデル作成部134は、無線通信部C1、C2を介してウェアラブル端末11の特徴量抽出部34から入力される特徴量情報と、プリセットモデル部41及びユーザモデル部51に記憶される各モデル情報との類似度情報に基づいて特徴量情報の使用可否を判定し、特徴量情報が使用可能であるとき、特徴量情報からユーザモデル情報を作成し、無線通信部C1、C2を介し、作成されたユーザモデル情報をユーザモデル部51に出力する処理部である。
モデル作成部134は、新たなユーザモデル情報作成前において、類似度情報に基づいて、特徴量情報に類似するモデル情報がプリセットモデル部41及びユーザモデル部51にないとき、特徴情報を使用可能であると判定する。
認識結果出力部135は、ウェアラブル端末11の行動認識部35から入力される行動認識結果に基づいて、表示用データを生成し、表示部171に出力する処理部である。なお、認識結果出力部135は、ウェアラブル端末11から入力される行動認識結果を記憶し、ユーザの指示によって行動認識結果を集計する機能を持たせても構わない。
表示部171は、本体部12の表面に配置される。表示部171は、制御部131に接続され、制御部131から出力される表示用データにより、各種情報を表示可能である。
タッチパネル172は、表示部171の表示面上に密着して配置される。タッチパネル172は、制御部131に接続され、ユーザの指示入力を電気信号として制御部131に出力可能である。
上述の構成により、行動判定装置1は、情報取得部21が音情報を取得可能であり、特徴量抽出部34が取得された音情報から特徴量情報を抽出可能であり、モデル作成部134が抽出された特徴量情報からプリセットモデル部41及びユーザモデル部51に記憶されるモデル情報とは類似しないユーザモデル情報を作成可能であり、作成されたユーザモデル情報をユーザモデル部51が蓄積可能であるように構成される。
(作用)
上述した行動判定装置1の作用について説明をする。
図5は、第1の実施形態に関わる、行動判定装置1の学習処理の流れを説明するフローチャートである。
ユーザは、図4に示すように、腕Aにウェアラブル端末11を装着する。ユーザは、ウェアラブル端末11と携帯情報端末101との各々を起動させ、互いに無線通信部C1、C2を介して通信可能な状態にさせる。
ユーザ操作によって携帯情報端末101を学習モードに設定する(ステップ(以下Sと略す)1)。S1では、携帯情報端末101のタッチパネル172によって学習モードの指示入力があると、携帯情報端末101は、学習モードに設定される。さらに、制御部131は、無線通信部C2を介し、ウェアラブル端末11の制御部31に対し、学習モードに設定するコマンドを送信する。
制御部31が当該コマンドを受信すると、ウェアラブル端末11は、学習モードに設定される(S1W)。
ユーザ操作によって学習対象行動を選択する(S2)。S2では、制御部131は、表示部171に学習対象行動の一覧を表示させ、タッチパネル172を介して学習対象行動を入力可能な状態にする。ユーザは、表示部171に表示された学習対象行動の一覧を参照しながら、タッチパネル172を操作し、学習対象行動の入力指示を行う。また、ユーザは、タッチパネル172を介し、一覧にない学習対象行動を文字入力しても構わない。
ユーザ操作によって携帯情報端末101に対して録音開始の指示入力をする(S3)。ユーザからタッチパネル172を介して録音開始の入力指示があると、制御部131は、無線通信部C1、C2を介し、ウェアラブル端末11の制御部31に対し、録音開始のコマンドを送信する。
制御部31が当該コマンドを受信すると、ウェアラブル端末11は、録音を開始する(S3W)。S3Wでは、制御部31は、マイクロフォン22及びDSP24に対し、制御信号を送信し、間欠動作を開始させる。マイクロフォン22は外部の音を集音し、DSP24に音信号を出力する。DSP24は、音信号から音情報を生成し、制御部31に対して出力する。
制御部31は、DSP24から出力される音情報から特徴量情報を抽出する(S4W)。制御部31は、無線通信部C1、C2を介し、携帯情報端末101の制御部131に抽出された特徴情報である特徴量情報を送信する。
制御部131は、特徴量情報を受信する(S4)。
制御部131は、データ検証をする(S5)。S5では、制御部131は、プリセットモデル部41に記憶されるプリセットモデル情報及びユーザモデル部51に記憶されるユーザモデル情報毎に、抽出された特徴量情報との類似度を算出する。類似度は、例えば、各モデルと、抽出された特徴量情報との各クラスの重心間の距離を演算して算出される。なお、これ以外の方法によって類似度が算出されても構わない。
制御部131は、データが利用可能であるか否かを判定する(S6)。S6では、抽出された特徴量情報に類似するプリセットモデル情報又はユーザモデル情報が既にあるか否かを判定する。より具体的には、S6では、S5で算出された類似度に基づき、抽出された特徴情報である特徴量情報に類似するプリセットモデル情報又はユーザモデル情報がないとき、制御部131は、抽出された特徴量情報を利用可能と判定し、処理は、S7に進む。一方、抽出された特徴量情報に類似するプリセットモデル情報又はユーザモデル情報が既にあるとき、制御部131は、抽出された特徴量情報を利用不可と判定し、処理は、S6Nに進む。
図6は、第1の実施形態に関わる、行動判定装置1の類似度の判定方法を説明する説明図である。
図6は、プリセットモデル部41には、認識対象行動として行動1から行動Nのプリセットモデル情報が記憶され、ユーザモデル部51には、認識対象行動として行動N+1のユーザモデル情報が記憶され、プリセットモデル部41及びユーザモデル部51の各々には、その他行動としてその他1からその他Nのモデル情報が記憶される例である。
図6では、例えば、S2で入力された学習対象行動を行動Mとすると、行動Mに対応付けられる抽出された特徴量情報に対し、行動1から行動Nに対応付けられる各プリセットモデル情報の類似度と、行動N+1に対応付けられるユーザモデル情報の類似度とが算出される。行動Mの特徴量情報に類似するモデルが行動1から行動N+1にあるとき、抽出された特徴量情報は利用不可と判定される。一方、行動Mの特徴量情報に類似するモデルが行動1から行動N+1にないとき、抽出された特徴量情報は利用可能と判定される。
S6Nでは、制御部131は、学習のやり直しを促すメッセージをユーザに通知し、処理をS2に戻す。
制御部131は、モデルを作成する(S7)。S7では、制御部131は、抽出された音情報に基づいて、ユーザモデル情報を作成する。
制御部131は、無線通信部C1、C2を介し、S7で作成されたユーザモデル情報をウェアラブル端末11に送信する(S8)。
ウェアラブル端末11は、携帯情報端末101からユーザモデル情報を受信し、ユーザモデル情報をユーザモデル部51に記憶させる(S8W)。
ウェアラブル端末11と、携帯情報端末101とは、学習モードを終了する(S9、S9W)。
上述のS1からS9Wの処理が学習処理を構成する。
上述のS4Wの処理が特徴量抽出部34の処理を構成する。
上述のS5からS7の処理がモデル作成部134の処理を構成する。
次に、行動認識部35における行動認識処理の流れを説明する。
図7は、第1の実施形態に関わる、行動判定装置1のウェアラブル端末11における行動認識処理の流れを説明するフローチャートである。
ユーザが、ウェアラブル端末11の操作部81(又は携帯情報端末101のタッチパネル172)を介して行動認識処理開始の指示入力をすると、制御部31(又は制御部131)は行動認識モードに設定される。
続いて、制御部31は、マイクロフォン22及びDSP24の間欠動作を開始させる。マイクロフォン22は外部の音を集音し、DSP24に音信号を出力する。DSP24は、音信号から音情報を生成し、制御部31に出力する。
制御部31は、特徴量情報を抽出する(S11)。S11では、特徴量抽出部34の処理により、DSP24から出力される音情報から特徴量情報を抽出する。
制御部31は、プリセットモデル部41を使用した分類処理をする(S12)。S12では、制御部31は、行動認識部35の処理により、プリセットモデル部41を参照しながら、抽出された特徴量情報を複数のプリセットモデル情報のいずれかに分類する。
行動認識部35は、所定時間Ts毎に音情報に基づいて推定した行動の情報を認識結果とし、所定期間Tm分毎に、認識結果と認識結果の推定確率とを所定数N個だけ蓄積する。例えば、所定期間Tsが1秒間であり、所定期間Tmが1分間であるとき、所定Nは60である。
行動認識部35は、所定期間Tm毎に、プリセットモデル部41に記憶される全てのプリセットモデル情報に対して認識結果の出現頻度をカウントする。例えば、プリセットモデル情報の「トイレに行く」という行動が、1分間(所定期間Tm)に30回認識されていれば、その行動の出現頻度は30である。
行動認識部35は、プリセットモデル情報の中で出現頻度がカウントされた各行動に対し、出現頻度が頻度閾値Th1より高いか否かを判定する。出現頻度が頻度閾値Th1より高いとき、誤認識を防止できるように、後述する確率閾値Th2と回数閾値Th3は、所定数だけ引き上げられる。頻度閾値Th1は、認識対象行動毎に異なる。
行動認識部35は、推定確率が確率閾値Th2以上である認識結果の連続回数が回数閾値Th3以上であるか否かを判定する。確率閾値Th2及び回数閾値Th3は、経験的又は実験的に設定される値である。例えば、「トイレに行く」という行動は、1分間においてどの程度の推定確率で、どの程度の連続性を持って出現するかが経験的に又は実験的に判定され、確率閾値Th2及び回数閾値Th3が設定される。
行動認識部35は、推定確率が確率閾値Th2以上である認識結果の連続回数が回数閾値Th3以上であるとき、抽出された特徴量情報を当該行動に分類する。当該行動への分類とともに、行動認識部35は、当該行動のランクを算出する。ランクは評価値である。ランクの値は、例えば、推定確率が確率閾値Th2以上である認識結果が連続したときの推定確率の和である。
制御部31は、ユーザモデル部51を使用した分類処理をする(S13)。S13では、制御部31は、行動認識部35の処理により、ユーザモデル部51を参照しながら、抽出された特徴量情報を複数のユーザモデル情報のいずれかに分類する。ユーザモデル情報を使用した分類処理は、S12と同様である。行動認識部35は、S12と同様に、抽出された特徴量情報をユーザモデル情報のいずれかの行動に分類し、当該行動のランクを算出する。
制御部31は、最高ランクの認識結果を所定期間Tmの行動として出力する(S14)。S14では、S12及びS13において、所定期間Tm内に分類された複数の行動及びランクに基づいて、最高ランクの認識結果を所定期間Tmの行動として判定し、無線通信部C1、C2を介して携帯情報端末101の認識結果出力部135に、行動認識結果を出力する。
認識結果出力部135は、ウェアラブル端末11から入力される行動認識結果を集計し、表示用データを生成し、表示部に表示させる。
上述のS12〜S14の処理が行動認識部35の処理を構成する。
上述したように、行動判定装置1は、特徴量抽出部34により、情報取得部21によって取得される所定の情報から特徴情報を抽出し、モデル作成部134により、特徴情報に類似するモデル情報がプリセットモデル部41及びユーザモデル部51にないとき、特徴情報からユーザモデル情報を作成し、ユーザモデル情報をユーザモデル部51に蓄積させ、行動認識部35により、特徴情報に基づいて、プリセットモデル部41と、ユーザモデル部51とを参照して行動認識処理をする。
上述の第1の実施形態によれば、プリセットモデル部41に記憶されたプリセットモデル情報に類似するユーザモデル情報の追加を防ぐことができ、プリセットモデル情報に対する認識精度を低下させることなく、ユーザモデル情報を蓄積させることができる。
(第1の実施形態の変形例1)
上述の第1の実施形態では、行動認識処理において、プリセットモデル部41と、ユーザモデル部51との両方が使用されるが、特徴量情報が、認識対象行動グループに属すると判定されるとき、プリセットモデル部41を参照して行動認識をし、特徴量情報が、その他行動グループに属すると判定されるとき、プリセットモデル部41に加えてユーザモデル部51を使用して行動認識がされてもよい。
図8は、第1の実施形態の変形例1に関わる、行動判定装置1のウェアラブル端末11における行動認識処理の流れを説明するフローチャートである。図9は、第1の実施形態の変形例1に関わる、行動判定装置1のユーザモデル使用判定処理の流れを説明するフローチャートである。
第1の実施形態の変形例1においては、第1の実施形態と同じ処理については説明を省略する。
制御部31は、特徴量情報を抽出する(S21)。S21では、特徴量抽出部34の処理により、DSP24から出力される音情報から特徴量情報を抽出する。
制御部31は、プリセットモデル部41を使用した分類処理をする(S22)。S22では、制御部31は、行動認識部35の処理により、プリセットモデル部41を参照しながら、プリセットモデル情報の行動のいずれかに抽出された特徴量情報を分類し、ランクを算出する。
制御部31は、ユーザモデル使用判定をする(S23)。図9のユーザモデル使用判定処理に示すように、S23では、S22のプリセットモデル部51を使用した分類処理において、その他行動に分類されているとき(S23a:Yes)、制御部31は、ユーザモデル使用変数にTrueをセットする(S23b)。一方、S22において、その他行動に分類されていないとき(S23a:No)、制御部31は、ユーザモデル使用変数にFalseをセットする(S23c)。ユーザモデル使用変数に判定結果の値がセットされた後、処理は、S24に進む(S23d)。
制御部31は、ユーザモデル使用変数の値を判定する(S24)。ユーザモデル使用変数の値がTrueのとき、S25に進む。一方、ユーザモデル使用変数の値がFalseのとき、S26に進む。
制御部31は、ユーザモデル部51を使用した分類処理をする(S25)。S25では、制御部31は、行動認識部35の処理により、ユーザモデル部51を参照しながら、ユーザモデル情報の行動のいずれかに抽出された特徴量情報を分類し、ランクを算出する。
制御部31は、最高ランクの認識結果を所定期間Tmの行動として出力する(S26)。S26では、S22、又は、S22とS25の処理において、所定期間Tm内に分類された複数の行動及びランクに基づいて、最高ランクの認識結果を所定期間Tmの行動として判定し、無線通信部C1、C2を介して携帯情報端末101の認識結果出力部135に、行動認識結果を出力する。
上述の第1の実施形態の変形例1によれば、プリセットモデル部のみを参照して行動判定可能であるときには、プリセットモデル部のみを参照して行動認識処理をし、処理量を削減し、バッテリー消費量を抑え、ユーザモデル情報を蓄積させることができる。
(第1の実施形態の変形例2)
第1の実施形態の変形例1では、特徴量情報が、その他行動グループに属すると判定されるとき、プリセットモデル部41に加えてユーザモデル部51を使用して行動認識をするが、分類結果のプリセットモデル情報に類似するユーザモデル情報があるとき、プリセットモデル部41に加えてユーザモデル部51を使用した行動認識をしてもよい。
第1の実施形態の変形例2では、行動判定装置1は、類似度情報部Sを有して構成される(図1の2点鎖線)。類似度情報部Sは、学習処理におけるデータ検証(S5)の際に算出された類似度情報を記憶できるように構成される。すなわち、モデル作成部134は、学習処理の際、作成されたユーザモデル情報とともに、類似度情報をウェアラブル端末11に送信し、類似度情報部Sに蓄積させる。行動認識部35は、類似度情報部Sを参照可能であり、類似度情報部Sの類似度情報に基づいて、分類結果のプリセットモデル情報に類似するユーザモデル情報があるか否かを判定する。
図10は、第1の実施形態の変形例2に関わる、行動判定装置1のユーザモデル使用判定処理の流れを説明するフローチャートである。図10では、ユーザモデル使用判定処理のみを説明し、他の処理は第1の実施形態の変形例1と同じであるため、説明を省略する。
制御部31は、特徴量情報を抽出する(図8のS21)。
制御部31は、プリセットモデル部41を使用した分類処理を行う(図8のS22)。
制御部31は、プリセットモデル部41を使用した分類結果がその他行動であるか否かを判定する(S33a)。図10のユーザモデル使用判定処理に示すように、S33aでは、S22において抽出された特徴量情報がその他行動に分類されているとき(S33a:Yes)、処理は、S33cに進む。一方、S22において抽出された特徴量情報がその他行動に分類されていないとき(S33a:No)、処理は、S33bに進む。
制御部31は、プリセットモデル部41を使用した分類結果と類似度の高い行動がユーザモデル部51にあるか否かを判定する(S33b)。S33bでは、類似度情報部Sに記憶された類似度情報を参照し、プリセットモデル部41を使用した分類結果に対して所定閾値以上の類似度を有する行動がユーザモデル部51にあるか否かを判定し、所定閾値以上の類似度を有する行動がユーザモデル部51にあるとき(S33b:Yes)、ユーザモデル使用変数にTrueをセットする(S33c)。一方、所定閾値以上の類似度を有する行動がユーザモデル部51にないとき(S33b:No)、ユーザモデル使用変数にFalseをセットする(S33d)。所定閾値は、行動認識処理部の判定精度を高めることができるように、予め設定される。
ユーザモデル使用変数にTrue又はFalseがセットされた後、処理はS24に進む(S33e)。
上述の第1の実施形態の変形例2によれば、ユーザモデル部51を参照しなくても行動判定可能であるときには、プリセットモデル部41のみを参照して行動認識処理をし、処理量を削減し、バッテリー91の消費量を抑え、ユーザモデル情報を蓄積させることができる。
(第2の実施形態)
第1の実施形態、第1の実施形態の変形例1及び第1の実施形態の変形例2では、情報取得部21は、マイクロフォン22とDSP24を有して構成されるが、情報取得部21は、さらに生体センサである加速度センサ25を有して構成されてもよい。
図11は、第2の実施形態に関わる、行動判定装置1の主要部の構成を説明するブロック図である。図12は、第2の実施形態に関わる、姿勢と認識対象行動との対応関係を示すテーブルTL1である。第2の実施形態においては、第1の実施形態、第1の実施形態の変形例1及び第1の実施形態の変形例2と同じ構成については、同じ符号を付し、説明を省略する。
図11に示すように、行動判定装置1aは、ウェアラブル端末11aと、携帯情報端末101とを有して構成される。
ウェアラブル端末11aは、情報取得部21として、生体センサである加速度センサ25を有して構成される。
加速度センサ25は、3軸加速度センサであり、互いに直交する3軸(X軸、Y軸、Z軸)方向の加速度をそれぞれ検出することができるように、3つのセンサを有して構成される。加速度センサ25から出力される加速度データには、X軸データ、Y軸データ及びZ軸データが含まれる。加速度センサ25は、制御部31に対し、所定時間毎に、X軸出データ、Y軸データ及びZ軸データにより構成される加速度データを出力する。
制御部31のメモリ33aには、センサ情報抽出部36のプログラムが記憶される。制御部31は、メモリ33aに記憶されたセンサ情報抽出部36のプログラムを実行し、センサ情報抽出処理を実現可能である。
情報抽出部であるセンサ情報抽出部36は、加速度センサ25から入力される加速度データから特徴情報である加速度情報を抽出する処理部である。
センサ情報抽出部36は、加速度データから加速度情報を抽出し、無線通信部C1、C2を介し、抽出された加速度情報を携帯情報端末101のモデル作成部134aに出力する。
モデル作成部134aは、ウェアラブル端末11aから取得される音情報の特徴量情報に加え、加速度情報に基づいて、プリセットモデル情報及びユーザモデル情報との類似度を判定し、特徴量情報からユーザモデル情報を作成し、無線通信部C1、C2を介し、ウェアラブル端末11aのユーザモデル部51に、作成されたユーザモデル情報を出力する。
モデル作成部134aは、加速度情報に含まれる重力加速度に基づいて装着者の姿勢を検出する。装着者の姿勢検出の方法は種々あり、モデル作成部134aは、例えば、ユーザが立っている(立位)、座っている(座位)、寝ている(臥位)、歩いている(歩行)、走っている(走行)等のユーザの姿勢検出が可能である。
図12に示すように、モデル作成部134aは、姿勢と認識対象行動の対応関係を示すテーブルTL1を有して構成される。テーブルTL1は、検出される姿勢が5つで、認識対象行動は6つである場合のテーブルTL1である。テーブルTL1は、制御部131内のメモリ133aに記憶される。
「皿洗い」は、皿を洗う行動であり、「アイロン」はアイロン掛けの行動であり、「掃除機」は、掃除機を用いた掃除の行動であり、「歯磨き」は、歯を磨く行動であり、「ドライヤー」は、髪にドライヤーを当てる行動であり、「トイレ」は、トイレで用を足す行動である。
モデル作成部134aは、検出された姿勢に応じて、プリセットモデル部41及びユーザモデル部51において参照するモデルを限定して分類処理を行う。
上述の第2の実施形態によれば、マイクロフォン及び生体センサを使用し、より確実に、プリセットモデル部に記憶されたモデル情報に類似するユーザモデル情報の追加を防ぐことができ、プリセットモデル情報に対する認識精度を低下させることなく、ユーザモデル情報を蓄積させることができる。
(第3の実施形態)
第1の実施形態、第1の実施形態の変形例1、第1の実施形態の変形例2及び第2の実施形態では、行動判定装置1、1aは、ウェアラブル端末11、11a及び携帯情報端末101を有して構成されるが、行動判定装置1bは、ウェアラブル端末11a、携帯情報端末101a及びサーバ201を有して構成されても構わない。
図13は、第3の実施形態に関わる、行動判定装置1の主要部の構成を説明するブロック図である。第3の実施形態においては、第1の実施形態、第1の実施形態の変形例1、第1の実施形態の変形例2及び第2の実施形態と同じ構成については、同じ符号を付し、説明を省略する。
図13に示すように、行動判定装置1bは、ウェアラブル端末11aと、携帯情報端末101aと、サーバ201を有して構成される。
携帯情報端末101aは、無線通信部C2と、ネットワーク接続部C3と、制御部231と、表示部171と、タッチパネル172とを有して構成される。
ネットワーク接続部C3は、サーバ201と無線又は有線により、例えば、3Gネットワーク、インターネット又はLAN等のネットワークに接続し、サーバ201と通信可能な回路である。
表示部171は、制御部131に接続され、制御部131から出力される表示用データにより、各種情報を表示可能である。
タッチパネル172は、制御部131に接続され、ユーザの指示入力を電気信号として制御部131に出力可能である。
サーバ201は、ネットワーク接続部C4と、制御部231と、認識結果データベース235を有して構成される。
ネットワーク接続部C4は、ネットワークを介し、携帯情報端末101aと通信可能な回路である。
制御部231は、CPU232と、記憶部233とを有して構成される。記憶部233には、モデル作成部234のプログラムが記憶される。モデル作成部234の処理は、CPU232が記憶部233に記憶されたモデル作成部234のプログラムを実行することによって実現される。
記憶部233は、認識結果データベース235を有して構成される。認識結果データベース235は、行動認識処理の結果が蓄積される。
図13の実線は、行動判定装置1bの学習処理の流れを示す。学習処理において、ウェアラブル端末11は、抽出された特徴情報を、無線通信部C1、C2を介し、携帯情報端末101aに送信する。続いて、携帯情報端末101aは、ウェアラブル端末11から受信される特徴情報を、ネットワーク接続部C3、C4を介し、サーバ201に送信する。続いて、サーバ201は、モデル作成部234により、携帯情報端末101aから受信される特徴情報からユーザモデル情報と類似度情報を作成し、携帯情報端末101aに送信する。続いて、携帯情報端末101aは、サーバ201から受信されるユーザモデル情報と類似度情報を、無線通信部C1、C2を介し、ウェアラブル端末11に送信する。ウェアラブル端末11は、ユーザモデル情報をユーザモデル部51に蓄積し、類似度情報を類似度情報部Sに蓄積する。
図13の破線は、行動判定装置1bの行動認識処理の流れを示す。行動認識処理において、ウェアラブル端末11は、行動認識結果を、無線通信部C1、C2を介し、携帯情報端末101aに送信する。続いて、携帯情報端末101aは、ウェアラブル端末11から受信される行動認識結果に基づいて、認識結果出力部135の処理により、認識結果を表示部171に表示させる。また、ウェアラブル端末11は、ネットワーク接続部C3、C4を介し、行動認識結果をサーバ201に送信して認識結果データベース235に蓄積させる。
上述の第3の実施形態によれば、認識結果情報を蓄積して利用することによって認識精度を高め、また、プリセットモデル部41に記憶されたプリセットモデル情報に類似するユーザモデル情報の追加を防ぐことができ、プリセットモデル情報に対する認識精度を低下させることなく、ユーザモデル情報を蓄積させることができる。
なお、第1の実施形態、第1の実施形態の変形例1、第1の実施形態の変形例2、第2の実施形態及び第3の実施形態では、モデル作成部は、プリセットモデル部41及びユーザモデル部51に記憶されるプリセットモデル情報及びユーザモデル情報に類似しないユーザモデル情報を作成するが、ユーザの指示により、プリセットモデル情報及びユーザモデル情報に類似するユーザモデル情報を作成してもよい。この場合、作成されたユーザモデル情報は、既存のプリセットモデル情報又はユーザモデル情報に対応付けられたモデル情報として記憶される。この構成によれば、既存のプリセットモデル情報又はユーザモデル情報の認識精度を向上でさせるユーザモデル情報を蓄積可能である。
なお、第1の実施形態、第1の実施形態の変形例1、第1の実施形態の変形例2、第2の実施形態では、ウェアラブル端末11、11aと、携帯情報端末101、101aとを有して構成され、第3の実施形態では、さらにサーバ201を有して構成されるが、携帯情報端末101、101a及びサーバ201を有さず、モデル作成部34、134又は認識結果出力部135、認識結果データベース235等の実施形態に係る各部をウェアラブル端末内に配置しても構わない。
なお、第2の実施形態及び第3の実施形態では、生体センサは、活動量計を例として説明をしたが、生体センサは、例えば、脈拍計、体温計又は血圧計等であっても構わない。
なお、実施形態では、制御部の各処理部の機能は、プログラムを実行することにより実現されるが、各処理部の一部又は全部の機能が、回路により実現されても構わない。
本発明の実施形態を説明したが、これらの実施形態は、例として示したものであり、本発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1、1a、1b…行動判定装置、11、11a…ウェアラブル端末、12…本体部、13…装着部、14…リストバンド、15…留め具、21…情報取得部、22…マイクロフォン、23…集音口、24…DSP、25…加速度センサ、31…制御部、32…CPU、33、33a…メモリ、34…特徴量抽出部、35…行動認識部、36…センサ情報抽出部、41…プリセットモデル部、51…ユーザモデル部、61…時計部、71…表示部、72…タッチパネル、81…操作部、91…バッテリー、101、101a…携帯情報端末、131…制御部、132…CPU、133、133a…メモリ、134、134a…モデル作成部、135…認識結果出力部、171…表示部、172…タッチパネル、201…サーバ、231…制御部、232…CPU、233…記憶部、234…モデル作成部、235…認識結果データベース、C1、C2…無線通信部、C3、C4…ネットワーク接続部、A…腕、S…類似度情報部

Claims (6)

  1. 複数のプリセットモデル情報を記憶可能であるプリセットモデル部と、
    複数のユーザモデル情報を記憶可能であるユーザモデル部と、
    所定の情報を取得する情報取得部と、
    前記情報取得部によって取得される前記所定の情報から特徴情報を抽出する情報抽出部と、
    前記特徴情報と、前記プリセットモデル部に記憶される各プリセットモデル情報との類似度を含む類似度情報に基づいて前記特徴情報の使用可否を判定し、前記特徴情報が使用可能であるとき、前記特徴情報から前記ユーザモデル情報を作成するモデル作成部と、
    前記特徴情報と、少なくとも前記ユーザモデル情報とに基づいて行動認識をする行動認識部と、
    を有し、
    前記プリセットモデル部は、認識対象行動の前記プリセットモデル情報を含む認識対象行動グループと、認識対象行動以外の前記プリセットモデル情報を含むその他行動グループとを含み、
    前記行動認識部は、
    前記特徴情報が、前記認識対象行動グループに属すると判定されるとき、前記プリセットモデル部を参照して前記行動認識をし、
    前記特徴情報が、前記その他行動グループに属すると判定されるとき、前記プリセットモデル部に加えて前記ユーザモデル部を参照して前記行動認識をする、
    行動判定装置。
  2. 複数のプリセットモデル情報を記憶可能であるプリセットモデル部と、
    複数のユーザモデル情報を記憶可能であるユーザモデル部と、
    所定の情報を取得する情報取得部と、
    前記情報取得部によって取得される前記所定の情報から特徴情報を抽出する情報抽出部と、
    前記特徴情報と、前記プリセットモデル部に記憶される各プリセットモデル情報との類似度を含む類似度情報に基づいて前記特徴情報の使用可否を判定し、前記特徴情報が使用可能であるとき、前記特徴情報から前記ユーザモデル情報を作成するモデル作成部と、
    前記特徴情報と、少なくとも前記ユーザモデル情報とに基づいて行動認識をする行動認識部と、
    を有し、
    前記行動認識部は、前記プリセットモデル部を参照して前記特徴情報を分類し、分類結果のプリセットモデル情報に類似する前記ユーザモデル情報があるとき、前記プリセットモデル部に加えて前記ユーザモデル部を参照して前記行動認識をする、
    行動判定装置。
  3. 前記モデル作成部によって作成された前記類似度情報を記憶可能である類似度情報部を有し、
    前記行動認識部は、前記類似度情報部の前記類似度情報に基づいて、前記分類結果のプリセットモデル情報に類似する前記ユーザモデル情報があるか否かを判定する、
    請求項2に記載の行動判定装置。
  4. 情報抽出部により、情報取得部によって取得される所定の情報から特徴情報を抽出し、
    モデル作成部により、プリセットモデル部に記憶される各プリセットモデル情報との類似度情報から前記特徴情報の使用可否を判定し、前記特徴情報が使用可能であるとき、前記特徴情報からユーザモデル情報を作成し、
    ユーザモデル部により、前記ユーザモデル情報を蓄積し、
    行動認識部により、前記特徴情報と、少なくとも前記ユーザモデル情報とに基づいて行動認識処理をし、
    前記プリセットモデル部は、認識対象行動の前記プリセットモデル情報を含む認識対象行動グループと、認識対象行動以外の前記プリセットモデル情報を含むその他行動グループとを含み、
    前記行動認識部により、
    前記特徴情報が、前記認識対象行動グループに属すると判定されるとき、前記プリセットモデル部を参照して前記行動認識処理をし、
    前記特徴情報が、前記その他行動グループに属すると判定されるとき、前記プリセットモデル部に加えて前記ユーザモデル部を参照して前記行動認識処理をする、
    行動判定方法。
  5. 情報抽出部により、情報取得部によって取得される所定の情報から特徴情報を抽出し、
    モデル作成部により、プリセットモデル部に記憶される各プリセットモデル情報との類似度情報から前記特徴情報の使用可否を判定し、前記特徴情報が使用可能であるとき、前記特徴情報からユーザモデル情報を作成し、
    ユーザモデル部により、前記ユーザモデル情報を蓄積し、
    行動認識部により、前記特徴情報と、少なくとも前記ユーザモデル情報とに基づいて行動認識処理をし
    前記行動認識部により、前記プリセットモデル部を参照して前記特徴情報を分類し、分類結果のプリセットモデル情報に類似する前記ユーザモデル情報があるとき、前記プリセットモデル部に加えて前記ユーザモデル部を参照して行動認識処理をする、
    行動判定方法。
  6. 前記モデル作成部によって作成された前記類似度情報を記憶可能である類似度情報部を有し、
    前記行動認識部は、前記類似度情報に基づいて、前記分類結果のプリセットモデル情報に類似する前記ユーザモデル情報があるか否かを判定する、
    請求項5に記載の行動判定方法。
JP2015201308A 2015-10-09 2015-10-09 行動判定装置及び行動判定方法 Active JP6577324B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015201308A JP6577324B2 (ja) 2015-10-09 2015-10-09 行動判定装置及び行動判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015201308A JP6577324B2 (ja) 2015-10-09 2015-10-09 行動判定装置及び行動判定方法

Publications (2)

Publication Number Publication Date
JP2017073076A JP2017073076A (ja) 2017-04-13
JP6577324B2 true JP6577324B2 (ja) 2019-09-18

Family

ID=58538272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015201308A Active JP6577324B2 (ja) 2015-10-09 2015-10-09 行動判定装置及び行動判定方法

Country Status (1)

Country Link
JP (1) JP6577324B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7110568B2 (ja) * 2017-09-19 2022-08-02 富士フイルムビジネスイノベーション株式会社 行動推定装置及び行動推定プログラム
JP2022018180A (ja) * 2020-07-15 2022-01-27 株式会社日立製作所 作業認識装置および作業認識方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4682747B2 (ja) * 2005-08-17 2011-05-11 富士ゼロックス株式会社 文書処理装置、ルールデータ生成方法およびプログラム
JP5166316B2 (ja) * 2009-02-20 2013-03-21 株式会社東芝 状況認識装置及び状況認識方法
JP6031735B2 (ja) * 2011-06-13 2016-11-24 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP2013210875A (ja) * 2012-03-30 2013-10-10 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
JP2017073076A (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
KR102330889B1 (ko) 제스처-기반 제어를 위해 근활성도 센서 신호와 관성 센서 신호를 결합하는 방법 및 기기
US20200329998A1 (en) Accelerometer-based gait analysis
JP6083799B2 (ja) 携帯デバイスの携帯場所判定方法、携帯デバイス、携帯デバイスの携帯場所判定システム、プログラム及び情報記憶媒体
RU2605357C2 (ru) Система распознавания жестов
JP6362521B2 (ja) 行動分類システム、行動分類装置及び行動分類方法
CN107714024A (zh) 用于监测心脏活动的方法、系统及装置
Mikos et al. A wearable, patient-adaptive freezing of gait detection system for biofeedback cueing in Parkinson's disease
US10485456B2 (en) Identification method and device
Maekawa et al. WristSense: wrist-worn sensor device with camera for daily activity recognition
CN105996984A (zh) 利用可穿戴电子装置的久坐时间段检测
JP2014212915A (ja) 行動判別装置、および行動判別方法
EP3349644B1 (en) Method for monitoring activity of subject and monitoring device therefor
JP6577324B2 (ja) 行動判定装置及び行動判定方法
Adaskevicius Method for recognition of the physical activity of human being using a wearable accelerometer
Samiei-Zonouz et al. Smartphone-centric human posture monitoring system
JP6448477B2 (ja) 行動判定装置及び行動判定方法
JP2018000229A (ja) 自動教師データ作成装置、自動教師データ作成方法および自動教師データ作成プログラム
CN111887830B (zh) 睡眠监测方法、装置、设备及可读存储介质
JPWO2016143074A1 (ja) 食事時間推定方法及び食事時間推定装置
CN111803902B (zh) 泳姿识别方法、装置、可穿戴设备及存储介质
Weng et al. Fall detection based on tilt angle and acceleration variations
Sie et al. The design of a smartphone-based fall detection system
JP2017221350A (ja) 支援情報提供装置、支援情報提供システム、支援情報提供方法及び支援情報提供プログラム
Mani et al. Evaluation of a Combined Conductive Fabric-Based Suspender System and Machine Learning Approach for Human Activity Recognition
Ahmer et al. Using non-linear support vector machines for detection of activities of daily living

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170904

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6577324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150