JP2010213782A - 行動認識方法、装置及びプログラム - Google Patents

行動認識方法、装置及びプログラム Download PDF

Info

Publication number
JP2010213782A
JP2010213782A JP2009061509A JP2009061509A JP2010213782A JP 2010213782 A JP2010213782 A JP 2010213782A JP 2009061509 A JP2009061509 A JP 2009061509A JP 2009061509 A JP2009061509 A JP 2009061509A JP 2010213782 A JP2010213782 A JP 2010213782A
Authority
JP
Japan
Prior art keywords
action
abstract
behavior
recognition
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009061509A
Other languages
English (en)
Other versions
JP5359414B2 (ja
Inventor
Kurato Maeno
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Networks Co Ltd
Original Assignee
Oki Networks Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Networks Co Ltd filed Critical Oki Networks Co Ltd
Priority to JP2009061509A priority Critical patent/JP5359414B2/ja
Publication of JP2010213782A publication Critical patent/JP2010213782A/ja
Application granted granted Critical
Publication of JP5359414B2 publication Critical patent/JP5359414B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【目的】複数の抽象レベルで行動を把握することができる行動認識方法、装置及びプログラムを提供する。
【構成】複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持し、該センサデータから特徴ベクトルを抽出し、該特徴ベクトルに対して該複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子シーケンスを認識して記憶し、該複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子のシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子シーケンスを認識して記憶する。第2の抽象レベルを含む少なくとも1つ抽象レベルについて該第2認識ステップを反復する。
【選択図】図7

Description

本発明は、人や動物等の個体の行動を認識する行動認識方法、装置及びプログラムに関する。
従来から、高齢者の行動を見守るシステム、運転者の行動を監視するシステム、或いは店舗内の顧客行動を分析するシステム等の如き、人や動物等の個体の行動を認識する行動認識装方法又はシステムが知られている。かかる方法又はシステムにおいては、通常、ビデオカメラ等による撮像情報から個体の行動を認識したり、個体に装着されたRFID(Radio Frequency IDentification)等によるセンサ情報から個体の行動を認識することが行われる。
例えば、特許文献1は、加速度センサ、脈拍センサ、皮膚温度センサから得られたデータと、それらから得られる統計量等と比較することで、「睡眠」「休憩」「被ストレス」「食事」「運動」を分類する技術を開示している。また、特許文献2は、ビデオカメラの映像を用いて、人の行動を認識する技術を開示している。ここでは、画像中のメッシュ特徴、オプティカルフローの方向分布等の特徴量から、隠れマルコフモデル(HMM;Hidden Markov Model)等の確率的状態遷移モデルを基礎とした学習を行って行動を認識するものである。また、特許文献3は、複数のカメラが連携することで、人の移動を追跡し、その遷移パターンから、「座る」「急いでいる」「困っている」等の行動を認識する技術を開示している。さらに、特許文献4は、小売店の中で、棚や籠等の商品にそれぞれRFIDタグがつけられており、RFIDタグリーダを手首に装着した人が、RFIDタグの近くに手をやったかどうか、籠、商品、または棚のタグに近づいた順番等の関係を判別することで、商品への購入意欲等を表す購買行動を認識する技術を開示している。
特開2000−245713号公報 特開平05−46583号公報 特開2006−221379号公報 特開2006−209421号公報
しかしなから、上記の如き従来の行動認識システムは、人の行動からセンシングできるデータから単一の行動を認識することを主眼としている。人の行動は、単一な行動としての表現だけでは行動の全てを表しているとは言えず、様々な抽象レベルによって様々な表現が可能である。例えば、「車を運転している」という行動の場合、「仕事に行く過程で職場に向かって車を運転している」又は「買い物に行く過程で店に向かって車を運転している」といった、異なる抽象度の行動として捉えることも可能である。同様に、「ドアを開ける」という行動の場合、「どこ」のドアを「何」のために開けているのかによって、様々なレベルで行動を表現し得る。例えば朝出勤する際の「ドアを開ける」という行動は、具体的には「玄関のドアを空ける」という行動であり、さらに抽象度を上げると「外出する」、具体的には「出勤する」という行動であるといった様々な抽象レベルでの表現が可能である。このように単一の行動であっても複数の抽象レベルの行動として表現し得る。しかしながら、従来文献の手法では、「ドアを開ける」といった単一の抽象レベルでの行動しか認識できなかった。
本発明は、複数の抽象レベルで行動を把握することができる行動認識方法、装置及びプログラムを提供することである。
本発明による行動認識方法は、個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置における行動認識方法であって、複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識して記憶する第1識別ステップと、前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子の時間的な遷移であり単数もしくは複数の行動識別子の集合であるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識して記憶する第2認識ステップと、を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復することを特徴とする。
本発明による行動認識装置は、個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置であって、複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持手段と、前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識して記憶する第1識別手段と、前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識して記憶する第2認識手段と、を含み、前記第2認識手段は、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、当該抽象レベルの行動識別子を認識して記憶する動作を反復することを特徴とする。
本発明による行動認識プログラムは、個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する手順をコンピュータに実行されるための行動認識プログラムであって、複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識して記憶する第1識別ステップと、前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識して記憶する第2認識ステップと、を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復する手順を含むことを特徴とする。
本発明による個体行動認識方法、装置及びプログラムによれば、時間的に前後関係にある細かい行動を複数集積してより高い抽象レベルの行動を認識する構成が与えられる。これにより、複数の抽象レベルで行動を把握することができる。
本発明による行動認識装置の概念を示すブロック図である。 3軸加速度センサからのセンサデータの例を示す波形図である。 本発明の実施例であり、本発明による行動認識装置の内部構成を示すブロック図である。 第1の抽象レベルにおける行動識別子と行動との対応関係の例を示す図である。 第2の抽象レベルにおける行動識別子と行動との対応関係及び基準となる行動識別子シーケンスの例を示す図である。 第3の抽象レベルにおける行動識別子と行動との対応関係及び基準となる行 本発明による行動認識方法の処理手順を示すフローチャートである。 センサデータと認識された行動識別子シーケンスとの対応関係の例を示す図である。
本発明の実施例について添付の図面を参照しつつ詳細に説明する。
図1は、本発明の実施例であり、本発明による行動認識装置の概念形態を示している。行動認識の対象である個体としての人には、その両手首及び腰には複数の3軸加速度センサ11〜13が装着されている。行動認識装置20は、3軸加速度センサ11〜13の各々からのセンサデータを取り込む。3軸加速度センサ11〜13からのセンサデータの例が図2に示されている。行動認識装置20は、取り込んだセンサデータから、第1抽象レベルの行動識別子を認識し、次いで、下位抽象レベルの単数または複数の行動識別子からなるシーケンスからより一段上位の抽象レベルの行動識別子を認識する手順を繰り返すことによって、複数の抽象レベルの行動識別子シーケンスをシーケンスとして出力する。
第1の行動とは、第1の抽象レベルを持つ行動を指し、第1の行動毎に第1の行動識別子を持つ。第2の行動とは、第2の抽象レベルを持つ行動を指し、同様にして第2の行動毎に第2の行動識別子を持つ。一般化すると、第n(nは正の整数)の行動は、第(n−1)の行動よりも抽象レベルが1段高い第nの抽象レベルを持つ行動であり、第nの行動毎に第nの行動識別子を持つ。
ラジオ体操の例が示される図1において、第1の行動は、最下位の抽象レベルの行動であって、例えば、「手を下から横に曲げる」、「腰を曲げる」等の個体の細かな行動である。第2の行動は、第1の行動よりも抽象レベルが1段高く、ラジオ体操の例ではラジオ体操第1の13種類の運動、例えば、「胸を反らす」、「体を横に曲げる」等の行動である。また、第3の行動は、第2の行動よりも抽象レベルが1段高く、ラジオ体操の個々の運動ではなく、「ラジオ体操第1」か「ラジオ体操第2」の何れであるかを示すレベルの行動である。このように、一段高い抽象レベルの行動は、それよりも低い抽象レベルの行動の連なり、すなわち行動識別子の連鎖からなる行動識別子のシーケンスとして認識される。
第nの行動の各々は時刻と関連付けられて出力される。例えば、時刻10時10分10.00秒〜10時10分11.00秒の間のセンサデータから認識される第1の行動は、10時10分10.00秒の第1の行動として記録または出力される。時刻10時10分10.02秒〜10時10分11.02秒の間のセンサデータから認識された第3の行動は、10時10分10.02秒の第3の行動として記録または出力される。本図の例では、10時10分10.02秒に関連付けられた第3の行動「ラジオ体操第1」が出力されている。
図3は、行動認識装置20の内部構成を示している。行動認識装置20は、入力部21と、特徴抽出部22と、第1認識部23と、第2認識部24と、行動記憶部25と、行動モデル記憶部26と、出力部27とから構成されている。行動認識装置20は、通常、1つのコンピュータ装置として実現され得る。その場合に、上記した各部21〜27は、コンピュータ内部または外部に備えられるハードウェア及び/またはコンピュータによって実行されるプログラム及びデータ等のソフトウェアによって実現され得る。
入力部21は、加速度センサ等のセンサからのセンサデータを取り込み、これを所定のサンプリング周期でサンプリングし、時系列状のセンサデータを出力する。例えば、±3G(1G = 9.80665m/s2)の測定レンジを持つ3軸加速度センサから取得されるセンサデータに対して、1秒間に50回サンプリングして、例えば10mGの分解能にてデータ化することにより、0.02秒間隔でx、y、z軸方向の各々についての時系列状のセンサデータが得られる。1つの軸についての時系列状のセンサデータの例が図2に示されている。
特徴抽出部22は、時系列状のセンサデータから特徴ベクトルを抽出する。特徴ベクトルは、例えば、m(mは正の整数)個の特徴量の配列として生成される。例えば、1秒間で得られる時系列状のセンサデータに対する複数の統計的特長を複数の特徴量とすることができる。秒間50回サンプリングしたセンサデータの場合、x、y、zそれぞれの軸について1秒間に得られるセンサデータの平均値や分散値を特徴量としたり、1秒間のセンサデータに離散フーリエ変換を行って得られる周波数スペクトルにおけるピーク時のスペクトル周波数値やパワー値等を特徴量として、これらの量を組み合わせた配列を特徴ベクトルとすることができる。
第1認識部23は、特徴抽出部22が出力する特徴ベクトルから第1の行動を認識し、第1の行動識別子をシーケンス状に行動記憶部25へ出力する。第1認識部23は、行動モデル記憶部26がモデルデータとして提供する第1の行動を識別するための第1の行動モデルに基づいて、特徴ベクトルから第1の行動を認識し、第1の行動識別子の値がシーケンス状に並べられた行動識別子シーケンスを行動記憶部25に出力する。
第1の行動モデルに基づいて第1の行動を認識する方法としては、例えば、入力されるm次の特徴ベクトルをm次の空間のクラスタに分別するクラスタリングを行う判別器や、サポートベクタマシン(SVM;support vector machine)等の認識器が用いられ得る。例えば、サポートベクタマシンの場合、第1の行動識別子の値毎に学習データを複数用意し、機械学習を行うことにより特徴ベクトルの値と第1の行動識別子の対応関係が構築され得る。サポートベクタマシンを用いる方法については、例えば、「モデル導出方法、認識システム、情報処理装置、設計装置、設計方法、及びプログラム」と題される特開2008−250990号公報の技術内容が参照される。
第2認識部24は、行動記憶部25に出力された下位の抽象レベルすなわち第(n−1)の行動識別子の時間的な連鎖である行動識別子シーケンスから、第nの行動モデルを用いて第nの行動を認識し、これを行動記憶部25に出力する。この場合nは2以上であって第2以上の行動が第2認識部24によって認識される。第nの行動モデルは、行動モデル記憶部26からモデルデータとして読み込まれ、第2認識部24は、当該行動モデルに対応する認識アルゴリズムや認識アルゴリズム依存のパラメータを用いて行動識別子シーケンスを認識する。
第2認識部24における認識方法としては、上記したサポートベクトルマシンの他、例えば隠れマルコフモデル(HMM;Hidden Markov Model)や条件付き確率場(CRF; conditional random field)等の行動モデルに基づく識別器を用いることができる。HMMやCRF等の行動モデルに基づく識別器は、可変長の行動識別子シーケンスから最も確からしい行動を、例えば、最尤法、最小自乗法またはビタビ(Viterbi)法の如き認識アルゴリズムを用いて推定することができる。行動モデルを基づく識別器の技術については、例えば、「確率モデルの学習方法」と題する特開平9−62647号公報の技術内容が参照される。
尚、第nの行動を認識する際、参照するのは、第(n−1)の行動識別子だけでなく、それよりも抽象レベルの低い第1〜第n−1の行動識別子の何れを参照しても良く、抽象レベル毎や識別する行動毎に異なる識別アルゴリズムが用いられても良い。
行動記憶部25は、第1認識部23が出力する第1の行動を対応する時刻に関連付けて記録し、また、第2認識部24が出力する第nの行動を対応する時刻に関連付けて記録する。第1の行動及び第nの行動は、時間的に連続性のある時系列データとして、行動識別子シーケンスとして記録される。例えば、第1の行動識別子シーケンスとして、時刻10時10分10.00秒の第1の行動識別子が「2」、時刻10時10分10.02秒の第1の行動識別子が「2」、時刻10時10分10.04秒の第1の行動識別子が「3」、そして、時刻10時10分10.06秒の第1の行動識別子が「4」とした場合、時刻10時10分10.00秒乃至10時10分10.06秒迄の第1の行動識別子シーケンスは、{2、2、3、4}と表現される。
出力部27は、行動認識装置20に対する外部入力される操作指令に応じて、任意の指定抽象レベルや指定時刻に対応する第1〜nの行動を行動記憶部25から読み出して出力する。任意の第1〜nの行動を出力する出力方法としては、ディスプレイ等の表示装置へ表示や、プリンタ等の印刷装置への印字出力、さらにはネットワークを介して外部に情報提供する等の多様な形態があり得る。
また、出力部27は、ある程度リアルタイムに最新の行動が必要なアプリケーションでは、最も新しい時刻の行動を複数の抽象レベル分まとめて出力する方法や、リアルタイム性が不要なアプリケーションでは、抽象レベル及び時刻を指定する他、行動識別子の特定の値を指定する等、データベースに対する一般的な検索手段を提供しても良い。
行動モデル記憶部26は、第1〜nの行動を認識するためのモデルデータを保持している。行動モデルのモデルデータは、行動モデル識別子を介して抽象レベルに関連付けられ、抽象レベル毎に、認識アルゴリズムの識別情報や行動モデルに依存する各種パラメータからなる。例えば、隠れマルコフモデルの場合のパラメータは、ノード間遷移確率、シンボル出力確率、初期ノード確率の3つのパラメータを含む。これらパラメータ等のモデルデータは、予め学習用のデータを用いて最適な値を求め、認識アルゴリズムと共に行動モデル記憶部26に保持されている必要がある。
行動モデル記憶部26は、また、各抽象レベルの行動識別子と行動との対応関係や、認識アルゴリズムにおいて基準値または初期値となる行動識別子シーケンスを保持している。
図4は、第1の抽象レベルにおける行動識別子と行動との対応関係の例を示している。
ここで、第1の行動識別子の「1、2、3、4・・」の各々に対応する第1の行動の内容が設定されている。図5及び図6は、第2及び第3の各々の抽象レベルにおける行動識別子と行動との対応関係及び基準となる行動識別子シーケンスの例を示している。図5を参照すると、第2の行動識別子の「1、2、3、4・・」の各々に対応する第2の行動の内容が設定されていると共に、基準となる行動識別子シーケンスが第1の行動識別子の連鎖として設定されている。基準となる行動識別子シーケンスは、認識アルゴリズムにおいて、最も確からしい第2の行動を推定する推定プロセスおける基準値または初期値として用いられる。図6を参照すると、同様にして、第3の行動識別子の「1、2、・・」の各々に対応する第2の行動の内容が設定されていると共に、基準となる行動識別子シーケンスが第2の行動識別子の連鎖として設定されている。
図7は、本発明による行動認識方法の処理手順を示している。該処理手順は行動認識装置20の各部が連携して実行される。
先ず、行動認識装置20は、任意の時刻範囲のセンサデータを取り込み、所定のサンプリングレート及び分解能にて時系列状のセンサデータを生成する(ステップS101)。次いで、得られたセンサデータから複数の特徴量を抽出して、該複数の特徴量の配列からなる特徴ベクトルを生成する(ステップS102)。次いで、行動モデル記憶部から、第1の行動モデルを読み込む(ステップS103)。
次に、行動認識装置20は、読み込んだ行動モデルに基づいた認識アルゴリズムを用いて、生成した特徴ベクトルから第1の行動を認識する(ステップS104)。次いで、認識した第1の行動を行動記憶部に記憶する(ステップS105)。次いで、抽象レベルnをn=2に初期化し(ステップS106)、ステップS107に進む。
ステップS107において、行動モデル記憶部から第nの行動モデルを読み込む。次いで、読込の成否を判定し(ステップS108)、もし第nの行動モデルが無い場合には、これ以上の抽象レベルに上げることができないとして、新たなセンサデータを待つステップS114に進む。ステップS107にて読み込む第nの行動モデルは、行動毎に認識に用いるモデルが複数存在する場合、すべてを読み込む必要はなく、例えば、第(n−1)の行動識別子シーケンスから、発生しうる第nの行動識別子を求めることで、発生しうる第nの行動に関連した第nの行動モデルのみを読み込んでも良い。たとえば、第nの行動モデルに「手首の運動」と「足首の運動」の2種類があり、第(n−1)の行動識別子シーケンスが「手首の運動」に関連するものだけで構成される場合、読み込む第nの行動モデルを「手首の運動」だけに限定し、計算量を削減することができる。
ステップS108において、第nの行動モデルの読み込みに成功した場合には、行動認識装置20は、さらに行動記憶部から第(n−1)の行動識別子シーケンスを読み込む(ステップS109)。次いで、読込の成否を判定し(ステップS110)、もし第(n−1)の行動識別子シーケンスが無い場合には、これ以上の抽象レベルを上げることができないと判定して、新たなセンサデータを待つステップS114に進む。
次に、行動認識装置20は、読み込んだ行動モデルに基づいた認識アルゴリズムを用いて、第(n−1)の行動識別子シーケンスから、第nの行動を認識する(ステップS111)。読み込んだ行動モデルに基づいた認識アルゴリズムの選択は、行動モデルに認識アルゴリズムを示す識別子を持たせることで実現できる。この識別子は学習時に、複数の認識アルゴリズム毎に独立して学習し、それらの認識アルゴリズムによる認識率を評価することで選択できる。例えば、最も認識率の良い認識アルゴリズムの識別子と学習によって得られたパラメータをあわせて行動モデルとして行動モデル記憶部に保持することができる。次いで、認識した第nの行動を行動記憶部に記憶する(ステップS112)。次いで、抽象レベルを更新、すなわちn=n+1に初期化して(ステップS113)、ステップS107に進む。行動認識装置20は次の第n+1の行動について処理を繰り返す。これにより、n=2、3、4、・・と続く複数の抽象レベルの行動が認識される。
一方、ステップS114に進んだ場合には、新たなセンサデータが取り込まれるタイミングを待つ(S114)。新たなデータが取得されたならステップS101から処理を再開し、もし無い場合には処理を終了する(ステップS115)。処理の再開は、センサデータがサンプリングされる都度繰り返しても良い。また、数秒等ある程度センサデータを蓄積した後に処理しても良い。認識結果の出力がリアルタイムに必要ないのであれば、例えばセンサデータを1日や1週間等の期間蓄積した後に認識処理を行なっても良い。例えば、センサデータを50Hzでサンプリングした場合、秒間に50回の認識処理が繰り返されても良いし、1秒単位に認識処理が繰り返されても良い。
図8は、センサデータと認識された行動識別子シーケンスとの対応関係の例を示している。ここで、時刻0時0分00秒乃至時刻0時0分20秒に至るセンサデータに対して、第1の行動識別子シーケンスとして、「1 1 1 1 1 2 2 3 3 4 4 ・・・・・」が認識され、第2の行動識別子シーケンスとして、「1 2 8 4」が認識され第3の行動識別子シーケンスとして、「1 2 ・・・」が認識されている。
以上のように、複数の行動を複数集めて認識処理を行ない、一段抽象レベルの高い行動を認識し、これを繰り返すことにより、複数の抽象レベルの行動を認識することができる。
以上の実施例において、本発明を適用することにより、1つの動作を複数の抽象度で捉えて認識することができ、より高い表現力の行動認識が可能となる。また、抽象レベルを上げると、行動だけでなく人の状態を認識することもできる。たとえば、疲れたときと疲れてないときで抽象レベルの低い行動のシーケンスが変化する場合、抽象レベルの高い行動認識では、その変化を捉えて別の行動として認識できる。この場合の抽象レベルの高い行動とは、疲れた/疲れていないといった状態や状況と表現することができる。
尚、以上の実施例において、行動認識対象の個体として人が説明されたが、本発明に係る限定はなく、人の行動だけでなく、物やロボットの移動、複数の人によって運ばれ得る物の行動を複数の抽象レベルで認識することもできる。
10 個体(人)
11〜13 3軸加速度センサ
20 行動認識装置
21 入力部
22 特徴抽出部
23 第1認識部
24 行動記憶部
25 第2認識部
26 行動モデル記憶部
27 出力部

Claims (8)

  1. 個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置における行動認識方法であって、
    複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、
    前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識して記憶する第1識別ステップと、
    前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの単数若しくは複数の行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識して記憶する第2認識ステップと、
    を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復することを特徴とする行動認識方法。
  2. 前記第1認識ステップ及び前記第2認識ステップは、当該行動識別子を認識する際に対象となったセンサデータの取得時刻に関連付けて当該行動識別子を記憶し、外部入力される指定時刻及び指定抽象レベルに応じて、当該指定時刻及び指定抽象レベルに対応する行動識別子を出力する出力ステップをさらに含むことを特徴とする請求項1記載の行動認識方法。
  3. 前記行動モデル保持ステップは、前記特徴ベクトルに対してクラスタリングを施すことによって行動識別子を認識する判別器に対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。
  4. 前記行動モデル保持ステップは、前記特徴ベクトルまたは当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスから当該抽象レベルの行動識別子を認識するサポートベクトルマシンに対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。
  5. 前記行動モデル保持ステップは、当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスに対して隠れマルコフモデルを適用することによって当該抽象レベルの行動識別子を認識する認識アルゴリズムに対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。
  6. 前記行動モデル保持ステップは、当該抽象レベルより下位レベルの行動識別子からなるシーケンスに対して条件付き確率場モデルを適用することによって当該抽象レベルの行動識別子を認識する認識アルゴリズムに対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。
  7. 個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置であって、
    複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持手段と、
    前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識して記憶する第1識別手段と、
    前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識して記憶する第2認識手段と、
    を含み、前記第2認識手段は、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、当該抽象レベルの行動識別子を認識して記憶する動作を反復することを特徴とする行動認識装置。
  8. 個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する手順をコンピュータに実行されるための行動認識プログラムであって、
    複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、
    前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識して記憶する第1識別ステップと、
    前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識して記憶する第2認識ステップと、
    を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復する手順を含むことを特徴とする行動認識プログラム。
JP2009061509A 2009-03-13 2009-03-13 行動認識方法、装置及びプログラム Active JP5359414B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009061509A JP5359414B2 (ja) 2009-03-13 2009-03-13 行動認識方法、装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009061509A JP5359414B2 (ja) 2009-03-13 2009-03-13 行動認識方法、装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010213782A true JP2010213782A (ja) 2010-09-30
JP5359414B2 JP5359414B2 (ja) 2013-12-04

Family

ID=42973285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009061509A Active JP5359414B2 (ja) 2009-03-13 2009-03-13 行動認識方法、装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5359414B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215951A (ja) * 2010-03-31 2011-10-27 Toshiba Corp 行動判定装置、方法及びプログラム
KR20120042593A (ko) * 2010-10-22 2012-05-03 삼성전자주식회사 동작 합성을 위한 데이터 처리 장치 및 방법
JP2012130522A (ja) * 2010-12-21 2012-07-12 Fujitsu Ltd 行動認識装置、行動認識方法および行動認識プログラム
WO2017065241A1 (ja) * 2015-10-14 2017-04-20 国立大学法人東京工業大学 自動診断装置
JPWO2016208290A1 (ja) * 2015-06-26 2017-11-09 Necソリューションイノベータ株式会社 測定装置及び測定方法
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
JPWO2017037915A1 (ja) * 2015-09-03 2018-02-08 三菱電機株式会社 行動識別装置、空気調和機およびロボット制御装置
CN107886103A (zh) * 2016-09-29 2018-04-06 日本电气株式会社 用于识别行为模式的方法、设备和系统
JP2018077779A (ja) * 2016-11-11 2018-05-17 ファナック株式会社 センサインタフェース装置、測定情報通信システム、測定情報通信方法、及び測定情報通信プログラム
WO2018159542A1 (ja) * 2017-03-03 2018-09-07 株式会社日立製作所 行動認識システムおよび行動認識方法
CN108882892A (zh) * 2016-03-31 2018-11-23 Zoll医疗公司 跟踪患者运动的系统和方法
JP2019049889A (ja) * 2017-09-11 2019-03-28 株式会社日立製作所 学習装置、および学習方法
JP2020038440A (ja) * 2018-09-03 2020-03-12 国立大学法人 東京大学 動作認識方法及び装置
JP2020194218A (ja) * 2019-05-24 2020-12-03 株式会社日立製作所 正解データ作成支援システムおよび正解データ作成支援方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001087247A (ja) * 1999-09-27 2001-04-03 Matsushita Electric Works Ltd 身体活動判別方法及びその装置
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
WO2008120677A1 (ja) * 2007-03-30 2008-10-09 Panasonic Electric Works Co., Ltd. 活動量計測システム
JP2009160341A (ja) * 2008-01-10 2009-07-23 Yokogawa Electric Corp 就寝時体動識別装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001087247A (ja) * 1999-09-27 2001-04-03 Matsushita Electric Works Ltd 身体活動判別方法及びその装置
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
WO2008120677A1 (ja) * 2007-03-30 2008-10-09 Panasonic Electric Works Co., Ltd. 活動量計測システム
JP2009160341A (ja) * 2008-01-10 2009-07-23 Yokogawa Electric Corp 就寝時体動識別装置

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215951A (ja) * 2010-03-31 2011-10-27 Toshiba Corp 行動判定装置、方法及びプログラム
US8407024B2 (en) 2010-03-31 2013-03-26 Kabushiki Kaisha Toshiba Motion determination apparatus, method and computer readable medium
KR20120042593A (ko) * 2010-10-22 2012-05-03 삼성전자주식회사 동작 합성을 위한 데이터 처리 장치 및 방법
KR101639195B1 (ko) 2010-10-22 2016-07-13 삼성전자주식회사 동작 합성을 위한 데이터 처리 장치 및 방법
JP2012130522A (ja) * 2010-12-21 2012-07-12 Fujitsu Ltd 行動認識装置、行動認識方法および行動認識プログラム
JPWO2016208290A1 (ja) * 2015-06-26 2017-11-09 Necソリューションイノベータ株式会社 測定装置及び測定方法
JPWO2017037915A1 (ja) * 2015-09-03 2018-02-08 三菱電機株式会社 行動識別装置、空気調和機およびロボット制御装置
CN107708553A (zh) * 2015-09-03 2018-02-16 三菱电机株式会社 行为识别装置、空气调节机以及机器人控制装置
DE112015006877B4 (de) 2015-09-03 2024-05-02 Mitsubishi Electric Corporation Verhaltens-Identifizierungseinrichtung, Klimaanlage und Robotersteuerung
DE112015006877T5 (de) 2015-09-03 2018-05-17 Mitsubishi Electric Corporation Verhaltens-Identifizierungseinrichtung, Klimaanlage und Robotersteuerung
US10768591B2 (en) 2015-09-03 2020-09-08 Mitsubishi Electric Corporation Behavior identification device, air conditioner, and robot control device
WO2017065241A1 (ja) * 2015-10-14 2017-04-20 国立大学法人東京工業大学 自動診断装置
JPWO2017065241A1 (ja) * 2015-10-14 2018-08-09 国立大学法人東京工業大学 自動診断装置
CN108882892A (zh) * 2016-03-31 2018-11-23 Zoll医疗公司 跟踪患者运动的系统和方法
JP2019514448A (ja) * 2016-03-31 2019-06-06 ゾール メディカル コーポレイションZOLL Medical Corporation 患者の動きを追跡するシステムおよび方法
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
CN107886103B (zh) * 2016-09-29 2023-12-08 日本电气株式会社 用于识别行为模式的方法、设备和系统
CN107886103A (zh) * 2016-09-29 2018-04-06 日本电气株式会社 用于识别行为模式的方法、设备和系统
CN108073153A (zh) * 2016-11-11 2018-05-25 发那科株式会社 传感器接口装置、测量信息通信系统及方法、存储介质
CN108073153B (zh) * 2016-11-11 2019-09-24 发那科株式会社 传感器接口装置、测量信息通信系统及方法、存储介质
US10535204B2 (en) 2016-11-11 2020-01-14 Fanuc Corporation Sensor interface device, measurement information communication system, measurement information communication method, and non-transitory computer readable medium
JP2018077779A (ja) * 2016-11-11 2018-05-17 ファナック株式会社 センサインタフェース装置、測定情報通信システム、測定情報通信方法、及び測定情報通信プログラム
WO2018159542A1 (ja) * 2017-03-03 2018-09-07 株式会社日立製作所 行動認識システムおよび行動認識方法
JP2019049889A (ja) * 2017-09-11 2019-03-28 株式会社日立製作所 学習装置、および学習方法
WO2020050111A1 (ja) * 2018-09-03 2020-03-12 国立大学法人東京大学 動作認識方法及び装置
JP7146247B2 (ja) 2018-09-03 2022-10-04 国立大学法人 東京大学 動作認識方法及び装置
US20240020853A1 (en) * 2018-09-03 2024-01-18 The University Of Tokyo Motion recognition method and device
JP2020038440A (ja) * 2018-09-03 2020-03-12 国立大学法人 東京大学 動作認識方法及び装置
JP7152357B2 (ja) 2019-05-24 2022-10-12 株式会社日立製作所 正解データ作成支援システムおよび正解データ作成支援方法
JP2020194218A (ja) * 2019-05-24 2020-12-03 株式会社日立製作所 正解データ作成支援システムおよび正解データ作成支援方法

Also Published As

Publication number Publication date
JP5359414B2 (ja) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5359414B2 (ja) 行動認識方法、装置及びプログラム
US8935195B2 (en) Method of identification and devices thereof
Frank et al. Activity and gait recognition with time-delay embeddings
Rad et al. Applying deep learning to stereotypical motor movement detection in autism spectrum disorders
Bruno et al. Analysis of human behavior recognition algorithms based on acceleration data
Delachaux et al. Indoor activity recognition by combining one-vs.-all neural network classifiers exploiting wearable and depth sensors
CN112580552B (zh) 一种鼠类行为分析方法及装置
Taati et al. Vision-based posture assessment to detect and categorize compensation during robotic rehabilitation therapy
JP6658331B2 (ja) 行動認識装置及び行動認識プログラム
JP7380567B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Maekawa et al. WristSense: wrist-worn sensor device with camera for daily activity recognition
CN111680660B (zh) 基于多源异构数据流的人体行为检测方法
JPWO2010143361A1 (ja) 作業認識装置
Bahador et al. Deep learning–based multimodal data fusion: Case study in food intake episodes detection using wearable sensors
CN111199187A (zh) 一种基于算法的动物行为识别方法及相应存储介质与电子装置
Venkatachalam et al. Bimodal HAR-An efficient approach to human activity analysis and recognition using bimodal hybrid classifiers
Alqarni Error-less data fusion for posture detection using smart healthcare systems and wearable sensors for patient monitoring
Malekmohamadi et al. Low-cost automatic ambient assisted living system
Farzad et al. Recognition and classification of human behavior in Intelligent surveillance systems using Hidden Markov Model
Moreau et al. A motion recognition algorithm using polytopic modeling
Huynh-The et al. Visualizing inertial data for wearable sensor based daily life activity recognition using convolutional neural network
Daga et al. Silhouette based human fall detection using multimodal classifiers for content based video retrieval systems
CN113095379A (zh) 一种基于穿戴式六轴传感数据的人体运动状态识别方法
Gamage et al. Academic depression detection using behavioral aspects for Sri Lankan university students
Giannakeris et al. Activity recognition from wearable cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111027

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150