JP2015132877A - 動作認識システム及び動作認識方法 - Google Patents

動作認識システム及び動作認識方法 Download PDF

Info

Publication number
JP2015132877A
JP2015132877A JP2014002498A JP2014002498A JP2015132877A JP 2015132877 A JP2015132877 A JP 2015132877A JP 2014002498 A JP2014002498 A JP 2014002498A JP 2014002498 A JP2014002498 A JP 2014002498A JP 2015132877 A JP2015132877 A JP 2015132877A
Authority
JP
Japan
Prior art keywords
gripping
data
learning
feature vector
verification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014002498A
Other languages
English (en)
Inventor
磯 俊樹
Toshiki Iso
俊樹 磯
堀越 力
Tsutomu Horikoshi
力 堀越
速光 飛世
Hayami Tobise
速光 飛世
和哉 村尾
Kazuya Murao
和哉 村尾
寺田 努
Tsutomu Terada
努 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Kobe University NUC
Original Assignee
NTT Docomo Inc
Kobe University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Kobe University NUC filed Critical NTT Docomo Inc
Priority to JP2014002498A priority Critical patent/JP2015132877A/ja
Publication of JP2015132877A publication Critical patent/JP2015132877A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ユーザに特別なアクションを要求せず、端末に特別な装置を搭載しないで、簡易に且つ精度良く端末の把持状態を識別する。【解決手段】動作認識システム1では、端末の把持開始から終了までの把持データを用いて時間変動状態の確率密度関数が算出され、得られた確率密度関数と基準の確率密度関数との相違度を特徴量として特徴ベクトルが求められ、該特徴ベクトルと事前に用意した各把持行動コーパスの代表特徴ベクトルとの類似度に基づく個人照合用特徴ベクトルの学習が行われる。また、同様の手順で検証用把持データに対し求められた検証用特徴ベクトルと個人照合用特徴ベクトルとの類似尺度が算出され、得られた類似尺度を用いて端末の把持状態が判定される。【選択図】図1

Description

本発明は、携帯電話等の端末の把持状態を判定する動作認識システム及び動作認識方法に関する。本発明は、例えば、端末の持ち方に応じて計測される時系列的な把持データからユーザが端末を利用している最中にそのユーザが端末の所有者か否かを判定する個人認証技術や、ユーザによる端末の把持状態を識別して当該把持状態に応じたコマンド入力を行うためのUI技術等に適用される。
端末所有者が端末から離れた隙に他人に当該端末を利用されてしまう(例えば他人に画面を盗み見られてしまう等)といった不都合が従来より存在する。そのため、端末を利用しているユーザが当該端末の所有者自身であるか否かを識別することは、プライバシー保護の観点からニーズは大きい。
一方で、満員電車の中といった端末を自由に操作しづらい状況で、マナーモードへの切り替え等のコマンド入力を、端末の画面を開いて画面から操作することなく実行したいというニーズもある。
特開2011−244419号公報 特開2008−282084号公報
T. Feng, K. Kwon, W. Shi et al., "Continuous mobile authentication using touch-screengestures, "To appear in IEEE HST, 2012. C. Stewartetal., " Characteristics of pressure-based input formobile devices, "CHI ’10, pp. 801 -810, 2010. K. Kim et al., " Hand grip pattern recognition for mobile userinterfaces, "IAAI ’06, pp. 1789 -1794, 2006. W. E. Eltahir, W. K. Lai, A. F. Ismail et al., " Hardware design,development and evaluation of a pressure-based typing biometrics authenticationsystem, "DICTA 2003, pp. 49 -54, 2003. M. O. Derawi, C. Nickely, P. Bours et al.," Unobtrusiveuserauthentication on mobile phones using biometric gait recognition, "IIHMSP2010, pp. 306 -311, 2010. I. Oliveira, O. Grigore, N. Guimaraes et al., " Relevance of eeginput signals in the augmented human reader, " Proceedings of the 1st AugmentedHuman International Conference, pp. 1 -9, 2010. Y. Boykov and D. P. Huttenlocher, " Adaptive bayesian recognition intracking rigid objects, "Computer Vision and Pattern Recognition, 2000.Proceedings. IEEE Con-ference on, pp. 2697 -2697.
背景技術に記載した前者の端末「利用中」での個人認証については、利用中ユーザの指紋によって当該ユーザが端末の所有者か否かを識別する方法が知られているが、個人認証のための所定のアクションをユーザに実行してもらう必要があった。利用中ユーザの音声によって上記識別を行う方法も知られているが、音声通話サービス利用時のみの対応であり、メール等の非音声サービス利用時には実行困難であった。端末を振動させることで上記識別を行う方法も知られているが、振動させるための特別な装置が必要であるという欠点があった。
また、背景技術に記載した後者の、端末の画面を開いて画面から操作することなくコマンド入力を実行する方法として、端末をタクトのように動かすことで、当該端末に搭載された加速度センサやジャイロセンサの検出値に応じてコマンド入力を実行する方法が知られている。しかし、この方法は、満員電車の中といった端末を自由に操作しづらい状況では実行するのが難しい、という欠点があった。
さらに、一般的に、識別で用いられるセンサには、様々なノイズが重畳されており、特にヒステリシス型のノイズ(例えば把持状態を識別するセンサの場合は、握った状態が残存するノイズ)は、識別の的中率の低下を招く原因になっていた。
本発明は、上記のような課題を解決するために成されたものであり、個人認証やコマンド入力にも適用できるように、ユーザに特別なアクションを要求せず、端末に特別な装置を搭載しないで、簡易に且つ精度良く端末の把持状態を識別することを目的とする。
本発明に係る動作認識システムは、端末の持ち方に応じて計測される学習用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する学習用把持データを取得する学習用把持データ取得手段と、取得された学習用把持データからノイズを除去し、時間変動情報として学習用時間変動把持データを算出する学習用時間変動把持データ算出手段と、算出された学習用時間変動把持データを用いて、時間変動状態の確率密度関数を算出する学習用確率密度関数算出手段と、算出された学習用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を学習用特徴ベクトルとして規定する学習用特徴ベクトル導出手段と、導出された学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルを学習させる個人照合用特徴ベクトル学習手段と、学習された個人照合用特徴ベクトルを把持情報データベースに格納する把持情報格納手段と、端末の持ち方に応じて計測される検証用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する検証用把持データを取得する検証用把持データ取得手段と、取得された検証用把持データからノイズを除去し、時間変動情報として検証用時間変動把持データを算出する検証用時間変動把持データ算出手段と、算出された検証用時間変動把持データを用いて、時間変動状態の確率密度関数を算出する検証用確率密度関数算出手段と、算出された検証用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を検証用特徴ベクトルとして規定する検証用特徴ベクトル導出手段と、導出された検証用特徴ベクトルと前記把持情報データベースに格納された個人照合用特徴ベクトルとの類似尺度を算出し、算出された類似尺度と予め設定された閾値とに基づいて、端末の把持状態を判定する把持状態判定手段と、を備える。
このような動作認識システムでは、端末の持ち方に応じて計測される学習用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する学習用把持データが取得され、取得された学習用把持データからノイズが除去され、時間変動情報として学習用時間変動把持データが算出され、算出された学習用時間変動把持データを用いて、時間変動状態の確率密度関数が算出され、算出された学習用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度が特徴量として算出され、得られた特徴量は学習用特徴ベクトルとして規定され、上記のように導出された学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルの学習が行われ、学習された個人照合用特徴ベクトルが把持情報データベースに格納される。
そして、同様に、端末の持ち方に応じて計測される検証用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する検証用把持データが取得され、取得された検証用把持データからノイズが除去され、時間変動情報として検証用時間変動把持データが算出され、算出された検証用時間変動把持データを用いて、時間変動状態の確率密度関数が算出され、算出された検証用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度が特徴量として算出され、得られた特徴量は検証用特徴ベクトルとして規定され、上記のように導出された検証用特徴ベクトルと把持情報データベースに格納された個人照合用特徴ベクトルとの類似尺度が算出され、算出された類似尺度と予め設定された閾値とに基づいて端末の把持状態が判定される。
以上のような動作認識システムによって、ユーザに特別なアクションを要求せず、端末に特別な装置を搭載しないで、簡易に且つ精度良く端末の把持状態を識別することができる。そして、個人認証やコマンド入力にも適用可能とされる。
なお、動作認識システムは、判定された把持状態に対応する追加学習用特徴ベクトルの方が前記学習用特徴ベクトルよりも、個人照合用特徴ベクトルとの類似性が高い場合、追加学習用特徴ベクトルを用いて、個人照合用特徴ベクトルを学習させる学習データ更新処理手段、をさらに備えてもよい。この場合、追加学習が実施され、個人照合用特徴ベクトルは随時更新される。
上記の動作認識システムに係る発明は、動作認識方法に係る発明として捉えることもでき、以下のように記述することができる。即ち、本発明に係る動作認識方法は、動作認識システムによって実行される動作認識方法であって、端末の持ち方に応じて計測される学習用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する学習用把持データを取得するステップと、取得された学習用把持データからノイズを除去し、時間変動情報として学習用時間変動把持データを算出するステップと、算出された学習用時間変動把持データを用いて、時間変動状態の確率密度関数を算出するステップと、算出された学習用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を学習用特徴ベクトルとして規定するステップと、導出された学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルを学習させるステップと、学習された個人照合用特徴ベクトルを把持情報データベースに格納するステップと、端末の持ち方に応じて計測される検証用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する検証用把持データを取得するステップと、取得された検証用把持データからノイズを除去し、時間変動情報として検証用時間変動把持データを算出するステップと、算出された検証用時間変動把持データを用いて、時間変動状態の確率密度関数を算出するステップと、算出された検証用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を検証用特徴ベクトルとして規定するステップと、導出された検証用特徴ベクトルと前記把持情報データベースに格納された個人照合用特徴ベクトルとの類似尺度を算出し、算出された類似尺度と予め設定された閾値とに基づいて、端末の把持状態を判定するステップと、を備える。
本発明によれば、ユーザに特別なアクションを要求せず、端末に特別な装置を搭載しないで、簡易に且つ精度良く端末の把持状態を識別することができる。そして、個人認証やコマンド入力にも適用できる。
発明の実施形態に係る動作認識システムの構成図である。 学習段階における処理のフロー図である。 検証段階における処理のフロー図である。 把持状態識別サーバのハードウェア構成例を示す図である。
以下、図面を用いて、本発明の動作認識システム及び動作認識方法に係る実施形態を説明する。
[動作認識システムの構成]
図1には、動作認識システム1の一構成例を示す。図1に示すように、動作認識システム1は、端末10と把持状態識別サーバ20とを含んで構成される。このうち端末10は、例えば携帯電話やスマートフォン等の、ユーザが携帯可能な情報通信装置全般に該当する。
端末10は、ユーザによる端末10の把持状態に関する把持データを取得するための把持センサ11と、把持行動開始から把持行動終了までの把持データを取得するセンサデータ取得部13と、取得された把持データを把持状態識別サーバ20へ送信するセンサデータ送信部14とを備える。把持センサ11は複数存在し、複数の把持センサ11は、ユーザが端末10を把持する際にユーザの手が接触する箇所に、タイル状に隙間なく配置されている。
また、端末10は、把持行動開始と把持行動終了を判定するために、端末10の状態を検出するモーションセンサ(加速度センサ等)12をさらに備えてもよい。ただし、モーションセンサ12は必須構成要件ではなく、モーションセンサ12を設けることなく上記把持センサ11を用いてもよい。本実施形態では、把持センサ11を用いて把持行動開始と把持行動終了を判定する例を、後述する。
把持状態識別サーバ20は、端末10から送信された把持データを受信するセンサデータ受信部21と、受信された把持データからノイズを除去し、時間変動情報として時間変動把持データを算出するセンサデータ前処理部22と、算出された時間変動把持データから現在の時間変動の頻度分布を確率密度関数として算出し、詳細は後述するが、事前に用意された基準時間変動把持データの確率密度関数との相違度(例えばJS情報量)に基づく学習用特徴ベクトルの導出、学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとの類似度に基づく個人照合用特徴ベクトルの学習、及び、学習後の個人照合用特徴ベクトルの格納を実行する把持状態推定部23と、個人照合用特徴ベクトルと検証用特徴ベクトルとの類似尺度を算出し、算出された類似尺度と予め設定された閾値とに基づいて端末の把持状態を判定する把持状態判定部24と、判定された把持状態に対応する追加学習用特徴ベクトルの方が上記学習用特徴ベクトルよりも、個人照合用特徴ベクトルとの類似性が高い場合、追加学習用特徴ベクトルを用いて、個人照合用特徴ベクトルを追加的に学習させる学習データ更新処理部25と、把持状態判定部24による判定結果を出力(例えば表示出力)する出力部26と、後述する個人照合用特徴ベクトル等を格納するための把持情報データベース27と、を備える。
上記のうち、把持状態推定部23は、学習用(又は検証用)時間変動把持データを用いて、時間変動状態の確率密度関数を算出する確率密度関数算出部23Aと、学習用(又は検証用)時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を学習用(又は検証用)特徴ベクトルとして規定する特徴ベクトル導出部23Bと、学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルを学習させる個人照合用特徴ベクトル学習部23Cと、学習された個人照合用特徴ベクトルを把持情報データベース27に格納する把持情報格納部23Dと、を備える。また、把持情報データベース27は、端末10から送信されてくる学習用把持データ及び検証用把持データ、予め用意された基準時間変動把持データの確率密度関数、予め用意された様々な把持行動コーパスの代表特徴ベクトル、並びに、後述する個人照合用特徴ベクトルを格納するために使用される。
なお、図1に示すように、端末10が備える各構成要素及び把持状態識別サーバ20が備えるセンサデータ受信部21は特許請求の範囲における「学習用把持データ取得手段、検証用把持データ取得手段」に対応し、センサデータ前処理部22は「学習用時間変動把持データ算出手段、検証用時間変動把持データ算出手段」に対応する。また、確率密度関数算出部23Aは「学習用確率密度関数算出手段、検証用確率密度関数算出手段」に対応し、特徴ベクトル導出部23Bは「学習用特徴ベクトル導出手段、検証用特徴ベクトル導出手段」に対応する。また、個人照合用特徴ベクトル学習部23Cは「個人照合用特徴ベクトル学習手段」に対応し、把持情報格納部23Dは「把持情報格納手段」に対応する。さらに、把持状態判定部24は「把持状態判定手段」に対応し、学習データ更新処理部25は「学習データ更新処理手段」に対応する。
ところで、図1には、把持情報データベース27及び出力部26が把持状態識別サーバ20と一体である構成例を示したが、把持情報データベース27及び出力部26のうち一方又は両方は把持状態識別サーバ20と別体であってもよい。
また、把持状態識別サーバ20は、ハードウェアとしては通常の情報処理装置の基本構成と同様であり、特別なハードウェア構成を必要とするものではない。例えば、図4に示すように、把持状態識別サーバ20は、CPU20A、RAM20B、ROM20C、キーボードやマウス等の入力装置20D、外部との通信を行う通信装置20E、ハードディスク等の補助記憶装置20F、及び、ディスプレイやプリンタ等の出力装置20Gを備える。図1のように把持情報データベース27及び出力部26を把持状態識別サーバ20と一体に構成する場合、補助記憶装置20Fにより把持情報データベース27を構成し、出力装置20Gにより出力部26を構成してもよい。
[動作認識方法に係る処理]
以下、動作認識方法に係る処理として、「学習段階における処理(図2)」と、「検証段階における処理(図3)」とを順に説明する。後者の「検証段階における処理」は、前者の「学習段階における処理」により個人照合用特徴ベクトルの学習が行われた後に実行される。なお、これら処理の開始トリガーは特定のものに限定されず、例えば端末10における所定のオペレータ操作や、端末10に事前設定した開始条件(開始時刻等)などを開始トリガーとしてもよい。
[学習段階における処理(図2)]
(ステップL1:学習用把持データの取得)
端末10がユーザにより把持されている状態において、複数(N個)の把持センサ11により検出された時系列的な把持データはセンサデータ取得部13へ出力される。ここで、時刻tにおけるi番目のセンサから把持データをfi(t)とすると、複数(N個)の把持センサ11から得られる把持データは以下の式(7.1)のように表される。
センサデータ取得部13は、以下のようにして把持行動開始及び把持行動終了を判定し、把持行動開始から把持行動終了までの学習用把持データを上記把持センサ11から得られた把持データから切り出して取得する。
即ち、センサデータ取得部13は、把持センサ11又はモーションセンサ12により検出された端末10の状態に基づいて把持行動開始及び把持行動終了を判定する。その判定方法は特定の方法に限定されない。例えば、把持センサ11により検出された情報(例えば把持の圧力値)を用いる場合は、予め設定された閾値以上の圧力値を検出した把持センサ11の数がある一定数以上となったことをもって把持行動開始と判定し、その後、上記閾値以上の圧力値を検出した把持センサ11の数が上記一定数を下回ったことをもって把持行動終了と判定する方法を採用してもよい。また、モーションセンサ12として加速度センサを用いるとき、加速度センサにより検出された加速度の値又はその時間変動が予め設定された閾値以上となったことをもって把持行動開始と判定し、その後、加速度の値又はその時間変動が上記閾値を下回ったことをもって把持行動終了と判定する方法を採用してもよい。
ここでは、前者の方法(把持センサ11を用いる方法)を示す。センサデータ取得部13は、時刻tにおいてN個の把持センサ11のうち、予め設定された閾値Thsen以上の圧力値を検出した把持センサの数をカウントし、カウント値が予め設定された閾値Thnum以上となった時、把持行動開始と判定し、把持データ取得タイミングを制御するための取得フラグFlagを1にセットして、この時の時刻tを開始時刻Tsにセットする。この状態(取得フラグFlagが1の状態)が続いている間は、N個の把持センサ11により計測された把持データftを、センサデータ取得部13内のバッファ(不図示)に蓄積する。その後、センサデータ取得部13は、閾値Thsen以上の圧力値を検出した把持センサの数(カウント値)が閾値Thnumを下回った時、把持行動終了と判定し、取得フラグFlagを0にリセットし、この時の時刻tを終了時刻Teにセットして、把持データftの蓄積を終了する。これにより、開始時刻Tsから終了時刻Teまでの把持データft(「学習用把持データfi(t)」という)が切り出され、センサデータ取得部13内のバッファに蓄積される。
(ステップL2:学習用把持データの送信)
蓄積された学習用把持データfi(t)は、センサデータ送信部14へ転送され、センサデータ送信部14により、例えばパケット通信で把持状態識別サーバ20へ送信される。
(ステップL3:学習用把持データの受信・格納)
そして、把持状態識別サーバ20のセンサデータ受信部21は、端末10から送信された学習用把持データfi(t)を受信し、得られた学習用把持データfi(t)を把持情報データベース27へ格納するとともにセンサデータ前処理部22へ転送する。
(ステップL4:学習用時間変動把持データの算出)
センサデータ前処理部22は、学習用把持データfi(t)からノイズを除去し、時間変動情報として学習用時間変動把持データを算出する。ここでのノイズの除去方法は特定の方法に限定されないが、本実施形態では、例えば、下記の5つのノイズ除去処理を実行する。
第1の処理として、センサデータ前処理部22は、学習用把持データftの取得された時刻tをTs≦t≦Teとすると、過渡状態と思われる取得開始直後(即ち、時刻Ts〜時刻(Ts+δt)の期間)及び取得終了直前(即ち、時刻(Te−δt)〜時刻Te)の期間)における学習用把持データを除去する。なお、δtは予め定められた短い期間を意味する。これにより、学習用把持データfi(t)は、以下の式(7.2)のように表される。
次に、第2の処理として、センサデータ前処理部22は、学習用把持データfi(t)が以下の式(7.3)の条件を満たす場合は当該把持データはパルスノイズを含むものと判断し、そのフレームデータ(即ち、該当する時刻tにおける把持データ)を利用しないように学習用把持データfi(t)から除去する。

ここで、ThresholdOfSensorValueは予め設定されたパルスノイズ閾値を表す。
次に、第3の処理として、センサデータ前処理部22は、以下のようにしてWavelet Shrinkageによるデノイズを施す。即ち、学習用把持データfi(t)をウェーブレット基底関数

で展開した時のウェーブレット係数は、

と表され、このウェーブレット係数に基づきノイズの標準偏差δが推定される。

また、このノイズの標準偏差δに基づき閾値λが算出される。

ただし、Nはウェーブレット係数の総数を表す。そして、この閾値λを用いて下記のSoft Threshold処理が施される。

上記で選択されたウェーブレット係数

を逆ウェーブレット変換することで、式(7.8)に示すデノイズされた把持データ

が求められる。
次に、第4の処理として、センサデータ前処理部22は、直流成分の影響を排除するために、デノイズされた学習用把持データ

において式(7.9)のように時間平均を減算することで直流成分を除去し、交流成分を得る。

ここで、Tallは、1データセットの全時間を表し、Te−Ts−2δtに相当する。
さらに、第5の処理として、センサデータ前処理部22は、直流成分除去後の学習用把持データに対し、データ平滑化のために、式(7.10)のようにガウス関数Gauss(tne,σ)とのコンボリューションによりガウスノイズを除去する。

ここで、σはガウス関数のハイパーパラメータを表し、tneは時間tの近傍を表す。
そして、センサデータ前処理部22は、ガウスノイズ除去後の学習用把持データから時間変動yi(t)を算出する。その算出方法は特定の方法に限定されないが、ここでは、下記の式(7.11)に従って時間変動yi(t)が算出される。

N個の把持センサ11全体での学習用把持データの時間変動は、式(7.12)のように表され、確率密度関数算出部23Aへ転送される。
(ステップL5:確率密度関数の算出)
確率密度関数算出部23Aは、算出された学習用時間変動把持データ(即ち、学習用把持データの時間変動を表すデータ)

の確率密度関数を算出する。その算出方法は特定の方法に限定されない。例えば、カーネル密度推定方法なども考えられるが、本実施形態では、確率密度関数算出部23Aは、以下のように単純な頻度分布(ヒストグラム)に基づいて確率密度関数を算出する。
i番目の把持センサ11に係る時間変動データの時間方向ヒストグラム histi(k)は、

となる。ここで、r(k)は、ヒストグラムにおけるk番目の刻み値を表し、

となる。確率密度関数算出部23Aは、以下の式(7.16)に従って確率密度関数を算出する。なお、Tは1データセットのIDを表す。

算出された確率密度関数は特徴ベクトル導出部23Bへ転送される。
(ステップL6:JS情報量特徴ベクトルの算出)
次に、特徴ベクトル導出部23Bは、事前に把持情報データベース27に格納された基準時間変動把持データの確率密度関数

を把持情報データベース27から取り出し、ステップL5で算出された学習用時間変動把持データの確率密度関数

と、基準時間変動把持データの確率密度関数との確率分布の相違度を算出する。相違度の算出方法は特定の方法に限定されないが、ここでは、JS情報量

により算出する。ただし、JS情報量は以下のように定義される。

ここで、R(x)=(P(x)+Q(x))/2である。
特徴ベクトル導出部23Bは、N個の把持センサ(i=1,2,…,N)それぞれに係る学習用時間変動把持データの確率密度関数についてJS情報量を算出し、得られたJS情報量を式(7.18)に示すJS情報量特徴ベクトルとして定義する。

得られたJS情報量特徴ベクトルは個人照合用特徴ベクトル学習部23Cへ転送される。
(ステップL7:個人照合用特徴ベクトルの学習)
次に、個人照合用特徴ベクトル学習部23Cは、事前に把持情報データベース27に登録された様々な把持行動コーパスの代表特徴ベクトルを把持情報データベース27から取り出し、学習用時間変動把持データに基づき導出されたJS情報量特徴ベクトル

と、上記の様々な把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルを学習させる。その学習方法は特定の方法に限定されないが、ここでは、KSOMを用いる。学習の際に用いるKSOMの尺度及び更新ルールは下記の通りである。

ここで、

は、それぞれ、

の最隣接セルとなる把持行動コーパスの代表特徴ベクトル、

に最も近い把持行動コーパスの代表特徴ベクトル、時刻tでの入力特徴ベクトル、そして、KSOMを構成する一つのセルであり各把持行動コーパスの代表であることを表す。これらのパラメータは、対象ごとに適切な値を設定する。また、δ(t)、hci、そしてr(t)はそれぞれ、学習レート、勝者ユニットncの近傍カーネル、そして、近傍半径を表す。
学習後、学習データの特性が2次元のセル配列で表現された特徴マップが得られ、学習された個人照合用特徴ベクトルに含まれている。また、この特徴マップには、ユーザ個人に特化した把持行動コーパスの出現頻度に関する情報が保持されている。上記のように学習された個人照合用特徴ベクトルは、把持情報格納部23Dへ転送される。
(ステップL8:個人照合用特徴ベクトル等の格納)
そして、把持情報格納部23Dは、学習された個人照合用特徴ベクトル

を把持情報データベース27に格納する。以上で、図2に示す学習段階における処理を終了する。
[検証段階における処理(図3)]
(ステップV1〜V6の処理について)
次に、図3に示す検証段階における処理を説明する。図3の処理はステップV1〜V8を備える。このうちステップV1〜V6では、処理対象を、検証用把持データ又は検証用把持データから導出されたデータとして、前述した図2のステップL1〜L6と同様の処理が実行される。ここでは、重複した説明を省くため、ステップV1〜V6の説明を省略する。
なお、ステップV1〜V4により得られる検証用時間変動把持データは、以下の式(7.21)で表され、

さらにステップV5〜V6により、上記検証用時間変動把持データに基づくJS情報量特徴ベクトル

が算出され、把持状態判定部24へ転送される。
(ステップV7:把持状態の判定)
把持状態判定部24は、把持情報データベース27に格納された個人照合用特徴ベクトル

を把持情報データベース27から取り出し、検証用時間変動把持データに基づくJS情報量特徴ベクトル

と、上記の個人照合用特徴ベクトルとの間における下記の類似尺度

を算出し、得られた類似尺度と予め設定された閾値Thjudgeとの比較結果に基づいて、以下のように把持状態の判定を行う。
類似尺度

は特定のものに限定されないが、ここでの類似尺度は、比較するJS情報量特徴ベクトル同士のユークリッド距離とし、以下の式(7.23)により算出される。
このようにユークリッド距離を用いる場合は、類似尺度が小さいほど、JS情報量特徴ベクトルと個人照合用特徴ベクトルとの類似性が高いと判断できるため、把持状態判定部24は、算出された類似尺度

が閾値Thjudge以下のとき(式(7.22)を満たすとき)、検証対象の把持状態を、把持情報データベース27に登録された人物の把持状態に一致すると判定する。
把持状態判定部24による判定結果は出力部26及び学習データ更新処理部25へ転送され、出力部26により出力(例えば表示出力)される。
(ステップV8:個人照合用特徴ベクトルの更新)
学習データ更新処理部25は、上記判定結果の中で、把持情報データベース27に登録された人物の把持状態に一致すると判定された検証対象の把持状態に関する検証用時間変動把持データを、追加学習用データと見做す。そして、学習データ更新処理部25は、追加学習用データに対し、上記ステップV5〜V7の処理を行うことでJS情報量特徴ベクトル群

を算出し、式(7.22)に従って類似尺度

も算出する。
そして、学習データ更新処理部25は、追加学習用データの類似尺度

と、学習用データの類似尺度

とを下記のように比較し、追加学習用データの方が学習用データよりも類似性が高い場合(以下の式(7.24)の条件を満たす場合)は、追加学習用データから得られたJS情報量特徴ベクトル群

によって個人照合用特徴ベクトルを更新し、更新後の個人照合用特徴ベクトル

を把持情報データベース27に登録する。

なお、

であり、ここでは評価値EvalDBが小さいほど、類似性が高いと判断される。以上で、図3に示す検証段階における処理を終了する。
以上説明した本発明に係る実施形態によれば、以下のさまざまな効果が得られる。
様々な把持行動コーパスを予め用意し、また、端末の状態(例えば把持の圧力値等)に応じて自動的に、把持行動開始から把持行動終了までの把持データを切り出しているので、ユーザに特別なアクションを要求することなく、ユーザの自然な動作(把持状態)を学習できる。
また、学習用特徴ベクトルを用いて代表的な特徴ベクトルを個人適用させているので、個々の把持行動のクセを学習できる。そのため、個人認証やコマンド入力などへの応用が可能である。
また、統計確率的なアプローチを用いているので、突発的なノイズに対し高いロバスト性を有する。
また、時間変動状態を入力データに用いているだけでなく、基準となる時間変動データとの分布の相違度を特徴量としているので、把持センサのヒステリスノイズに対しても高いロバスト性を有する。
さらに、個人照合用特徴ベクトルを随時学習しているので、個々のユーザの把持状態の経年変化に対応することが可能である。
なお、上記実施形態では、動作認識システム1が端末10と把持状態識別サーバ20とを含んで構成された例を示したが、把持状態識別サーバ20に設けられた構成要素を端末10内に設けることで、端末10単体で動作認識システム1を構成してもよい。その場合、センサデータ送信部14及びセンサデータ受信部21は不要となる。
1…動作認識システム、10…端末、11…把持センサ、12…モーションセンサ、13…センサデータ取得部、14…センサデータ送信部、20…把持状態識別サーバ、20A…CPU、20B…RAM、20C…ROM、20D…入力装置、20E…通信装置、20F…補助記憶装置、20G…出力装置、21…センサデータ受信部、22…センサデータ前処理部、23…把持状態推定部、23A…確率密度関数算出部、23B…特徴ベクトル導出部、23C…個人照合用特徴ベクトル学習部、23D…把持情報格納部、24…把持状態判定部、25…学習データ更新処理部、26…出力部、27…把持情報データベース。

Claims (3)

  1. 端末の持ち方に応じて計測される学習用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する学習用把持データを取得する学習用把持データ取得手段と、
    取得された学習用把持データからノイズを除去し、時間変動情報として学習用時間変動把持データを算出する学習用時間変動把持データ算出手段と、
    算出された学習用時間変動把持データを用いて、時間変動状態の確率密度関数を算出する学習用確率密度関数算出手段と、
    算出された学習用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を学習用特徴ベクトルとして規定する学習用特徴ベクトル導出手段と、
    導出された学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルを学習させる個人照合用特徴ベクトル学習手段と、
    学習された個人照合用特徴ベクトルを把持情報データベースに格納する把持情報格納手段と、
    端末の持ち方に応じて計測される検証用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する検証用把持データを取得する検証用把持データ取得手段と、
    取得された検証用把持データからノイズを除去し、時間変動情報として検証用時間変動把持データを算出する検証用時間変動把持データ算出手段と、
    算出された検証用時間変動把持データを用いて、時間変動状態の確率密度関数を算出する検証用確率密度関数算出手段と、
    算出された検証用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を検証用特徴ベクトルとして規定する検証用特徴ベクトル導出手段と、
    導出された検証用特徴ベクトルと前記把持情報データベースに格納された個人照合用特徴ベクトルとの類似尺度を算出し、算出された類似尺度と予め設定された閾値とに基づいて、端末の把持状態を判定する把持状態判定手段と、
    を備える動作認識システム。
  2. 判定された把持状態に対応する追加学習用特徴ベクトルの方が前記学習用特徴ベクトルよりも、個人照合用特徴ベクトルとの類似性が高い場合、追加学習用特徴ベクトルを用いて、個人照合用特徴ベクトルを学習させる学習データ更新処理手段、
    をさらに備える請求項1に記載の動作認識システム。
  3. 動作認識システムによって実行される動作認識方法であって、
    端末の持ち方に応じて計測される学習用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する学習用把持データを取得するステップと、
    取得された学習用把持データからノイズを除去し、時間変動情報として学習用時間変動把持データを算出するステップと、
    算出された学習用時間変動把持データを用いて、時間変動状態の確率密度関数を算出するステップと、
    算出された学習用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を学習用特徴ベクトルとして規定するステップと、
    導出された学習用特徴ベクトルと事前に用意された各把持行動コーパスの代表特徴ベクトルとを用いて、個人照合用特徴ベクトルを学習させるステップと、
    学習された個人照合用特徴ベクトルを把持情報データベースに格納するステップと、
    端末の持ち方に応じて計測される検証用連続把持データから、端末の状態に基づき把握される把持行動開始から把持行動終了までに対応する検証用把持データを取得するステップと、
    取得された検証用把持データからノイズを除去し、時間変動情報として検証用時間変動把持データを算出するステップと、
    算出された検証用時間変動把持データを用いて、時間変動状態の確率密度関数を算出するステップと、
    算出された検証用時間変動把持データに関する確率密度関数と事前に用意された基準用時間変動把持データに関する確率密度関数との相違度を特徴量として算出し、得られた特徴量を検証用特徴ベクトルとして規定するステップと、
    導出された検証用特徴ベクトルと前記把持情報データベースに格納された個人照合用特徴ベクトルとの類似尺度を算出し、算出された類似尺度と予め設定された閾値とに基づいて、端末の把持状態を判定するステップと、
    を備える動作認識方法。
JP2014002498A 2014-01-09 2014-01-09 動作認識システム及び動作認識方法 Pending JP2015132877A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014002498A JP2015132877A (ja) 2014-01-09 2014-01-09 動作認識システム及び動作認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014002498A JP2015132877A (ja) 2014-01-09 2014-01-09 動作認識システム及び動作認識方法

Publications (1)

Publication Number Publication Date
JP2015132877A true JP2015132877A (ja) 2015-07-23

Family

ID=53900051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014002498A Pending JP2015132877A (ja) 2014-01-09 2014-01-09 動作認識システム及び動作認識方法

Country Status (1)

Country Link
JP (1) JP2015132877A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019528502A (ja) * 2016-06-23 2019-10-10 ホアウェイ・テクノロジーズ・カンパニー・リミテッド パターン認識に適用可能なモデルを最適化するための方法および装置ならびに端末デバイス

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019528502A (ja) * 2016-06-23 2019-10-10 ホアウェイ・テクノロジーズ・カンパニー・リミテッド パターン認識に適用可能なモデルを最適化するための方法および装置ならびに端末デバイス
US10825447B2 (en) 2016-06-23 2020-11-03 Huawei Technologies Co., Ltd. Method and apparatus for optimizing model applicable to pattern recognition, and terminal device

Similar Documents

Publication Publication Date Title
CN105184325B (zh) 一种移动智能终端
CN108986801B (zh) 一种人机交互方法、装置及人机交互终端
US8620024B2 (en) System and method for dynamic gesture recognition using geometric classification
CN110797021A (zh) 混合语音识别网络训练方法、混合语音识别方法、装置及存储介质
US8730157B2 (en) Hand pose recognition
KR102399025B1 (ko) 개선된 데이터 비교 방법
CN109360572B (zh) 通话分离方法、装置、计算机设备及存储介质
MX2012010637A (es) Procesador de informacion biologica.
CN105303174B (zh) 指纹录入方法及装置
CN105549746B (zh) 一种基于加速度传感芯片的动作识别方法
CN110288085B (zh) 一种数据处理方法、装置、系统及存储介质
CN113221086A (zh) 离线人脸认证方法、装置、电子设备及存储介质
KR20150089370A (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
CN106598231B (zh) 手势识别方法及装置
CN105229700B (zh) 用于从多个连续拍摄图像提取峰图像的设备和方法
JP2015132877A (ja) 動作認識システム及び動作認識方法
CN111160173B (zh) 一种基于机器人的手势识别方法及机器人
CN112861742A (zh) 人脸识别方法、装置、电子设备及存储介质
CN106406507B (zh) 图像处理方法以及电子设备
CN111126456A (zh) 神经网络模型的处理方法、装置、设备及存储介质
Kawashima et al. Adaptive template method for early recognition of gestures
CN111880146B (zh) 声源定向方法和装置及存储介质
CN110298159B (zh) 一种智能手机动态手势身份认证方法
JP5923394B2 (ja) 認識装置、認識方法及び認識システム
JP6404692B2 (ja) 個人認証装置及び個人認証方法