JP5359414B2 - Action recognition method, apparatus, and program - Google Patents

Action recognition method, apparatus, and program Download PDF

Info

Publication number
JP5359414B2
JP5359414B2 JP2009061509A JP2009061509A JP5359414B2 JP 5359414 B2 JP5359414 B2 JP 5359414B2 JP 2009061509 A JP2009061509 A JP 2009061509A JP 2009061509 A JP2009061509 A JP 2009061509A JP 5359414 B2 JP5359414 B2 JP 5359414B2
Authority
JP
Japan
Prior art keywords
action
recognition
level
behavior
abstract
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009061509A
Other languages
Japanese (ja)
Other versions
JP2010213782A (en
Inventor
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2009061509A priority Critical patent/JP5359414B2/en
Publication of JP2010213782A publication Critical patent/JP2010213782A/en
Application granted granted Critical
Publication of JP5359414B2 publication Critical patent/JP5359414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a behavior recognition method, device, and program for recognizing behavior at a plurality of abstract levels. <P>SOLUTION: A behavior identifier sequence at a first abstract level is recognized and stored by holding model data corresponding to a behavior model and an behavior recognition algorithm for each of plurality of abstract levels, extracting a feature vector from the sensor data, and performing recognition processing that uses the model data corresponding to the first abstract level among the plurality of abstract levels to the feature vector. The behavior identifier sequence at the abstract level is recognized and stored by performing recognition processing that uses the model data corresponding to the abstract level to the sequence of behavior identifiers at a lower level than the abstract level stored in each of the plurality of abstract levels. A second recognition step is repeated with respect to at least one abstract level including a second abstract level. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、人や動物等の個体の行動を認識する行動認識方法、装置及びプログラムに関する。   The present invention relates to a behavior recognition method, apparatus, and program for recognizing behavior of an individual such as a person or an animal.

従来から、高齢者の行動を見守るシステム、運転者の行動を監視するシステム、或いは店舗内の顧客行動を分析するシステム等の如き、人や動物等の個体の行動を認識する行動認識装方法又はシステムが知られている。かかる方法又はシステムにおいては、通常、ビデオカメラ等による撮像情報から個体の行動を認識したり、個体に装着されたRFID(Radio Frequency IDentification)等によるセンサ情報から個体の行動を認識することが行われる。   Conventionally, a behavior recognition method for recognizing the behavior of an individual such as a person or an animal, such as a system for watching the behavior of an elderly person, a system for monitoring the behavior of a driver, or a system for analyzing customer behavior in a store, or the like The system is known. In such a method or system, usually, an individual's action is recognized from image information obtained by a video camera or the like, or an individual's action is recognized from sensor information by RFID (Radio Frequency IDentification) attached to the individual. .

例えば、特許文献1は、加速度センサ、脈拍センサ、皮膚温度センサから得られたデータと、それらから得られる統計量等と比較することで、「睡眠」「休憩」「被ストレス」「食事」「運動」を分類する技術を開示している。また、特許文献2は、ビデオカメラの映像を用いて、人の行動を認識する技術を開示している。ここでは、画像中のメッシュ特徴、オプティカルフローの方向分布等の特徴量から、隠れマルコフモデル(HMM;Hidden Markov Model)等の確率的状態遷移モデルを基礎とした学習を行って行動を認識するものである。また、特許文献3は、複数のカメラが連携することで、人の移動を追跡し、その遷移パターンから、「座る」「急いでいる」「困っている」等の行動を認識する技術を開示している。さらに、特許文献4は、小売店の中で、棚や籠等の商品にそれぞれRFIDタグがつけられており、RFIDタグリーダを手首に装着した人が、RFIDタグの近くに手をやったかどうか、籠、商品、または棚のタグに近づいた順番等の関係を判別することで、商品への購入意欲等を表す購買行動を認識する技術を開示している。   For example, Patent Document 1 compares “data” obtained from an acceleration sensor, a pulse sensor, and a skin temperature sensor with a statistic obtained from the data, thereby “sleep”, “rest”, “stressed”, “meal”, “ A technique for classifying “movement” is disclosed. Patent Document 2 discloses a technique for recognizing a human action using a video camera image. Here, learning is performed based on a stochastic state transition model such as a Hidden Markov Model (HMM) based on features such as mesh features and optical flow direction distribution in the image, and actions are recognized. It is. Patent Document 3 discloses a technology for tracking movement of a person by cooperating with a plurality of cameras and recognizing actions such as “sitting”, “hurrying”, and “being troubled” from the transition pattern. doing. Furthermore, in Patent Document 4, whether or not a person wearing an RFID tag reader on the wrist has done a hand near the RFID tag, each of the merchandise such as a shelf and a bag in the retail store is attached. Disclosed is a technique for recognizing purchase behavior that represents a willingness to purchase a product by determining the relationship such as the order of approaching a bag, a product, or a shelf tag.

特開2000−245713号公報JP 2000-245713 A 特開平05−46583号公報JP 05-46583 A 特開2006−221379号公報JP 2006-221379 A 特開2006−209421号公報JP 2006-209421 A

しかしなから、上記の如き従来の行動認識システムは、人の行動からセンシングできるデータから単一の行動を認識することを主眼としている。人の行動は、単一な行動としての表現だけでは行動の全てを表しているとは言えず、様々な抽象レベルによって様々な表現が可能である。例えば、「車を運転している」という行動の場合、「仕事に行く過程で職場に向かって車を運転している」又は「買い物に行く過程で店に向かって車を運転している」といった、異なる抽象度の行動として捉えることも可能である。同様に、「ドアを開ける」という行動の場合、「どこ」のドアを「何」のために開けているのかによって、様々なレベルで行動を表現し得る。例えば朝出勤する際の「ドアを開ける」という行動は、具体的には「玄関のドアを空ける」という行動であり、さらに抽象度を上げると「外出する」、具体的には「出勤する」という行動であるといった様々な抽象レベルでの表現が可能である。このように単一の行動であっても複数の抽象レベルの行動として表現し得る。しかしながら、従来文献の手法では、「ドアを開ける」といった単一の抽象レベルでの行動しか認識できなかった。   However, the conventional action recognition system as described above mainly focuses on recognizing a single action from data that can be sensed from a person's action. A human action cannot be expressed as a single action, but can be expressed in various levels of abstraction. For example, in the case of an action “driving a car”, “driving a car toward the workplace in the process of going to work” or “driving a car toward the store in the process of going to shopping” It can also be understood as an action with a different level of abstraction. Similarly, in the case of the action of “opening the door”, the action can be expressed at various levels depending on “what” the door of “where” is opened. For example, the action of “opening the door” when going to work in the morning is specifically the action of “opening the entrance door”, and when the level of abstraction is further increased, “going out”, specifically, “going to work” It is possible to express at various levels of abstraction such as Thus, even a single action can be expressed as a plurality of abstract level actions. However, the method of the conventional literature can recognize only an action at a single abstract level such as “open the door”.

本発明は、複数の抽象レベルで行動を把握することができる行動認識方法、装置及びプログラムを提供することである。   The present invention is to provide an action recognition method, apparatus, and program capable of grasping actions at a plurality of abstract levels.

本発明による行動認識方法は、個体の行動を計測するセンサデータを取り込み、前記セ
ンサデータから前記個体の行動を認識する行動認識装置における行動認識方法であって、
複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを
保持する行動モデル保持ステップと、前記センサデータから特徴ベクトルを抽出し、前記
特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデル
データを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識
、前記センサデータの取得時刻に関連付けて記憶する第1認識ステップと、前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子の時間的な遷移であり単数もしくは複数の行動識別子の集合であるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第2認識ステップと、を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復することを特徴とする。
The behavior recognition method according to the present invention is a behavior recognition method in a behavior recognition device that takes in sensor data that measures an individual's behavior and recognizes the behavior of the individual from the sensor data,
A behavior model holding step for holding model data corresponding to a behavior model and a behavior recognition algorithm for each of a plurality of abstract levels; a feature vector is extracted from the sensor data; A first recognition step of recognizing the action identifier of the first abstract level by performing recognition processing using model data corresponding to the first abstract level, and storing the action identifier in association with the acquisition time of the sensor data. And, for each of the plurality of abstract levels, for a sequence that is a temporal transition of action identifiers lower than the abstract level and is a set of one or more action identifiers, by performing recognition processing using the corresponding model data, it recognizes the action identifier of the level of abstraction, the cell Includes a second recognition step of storing in association with acquisition time of Sadeta, and for at least one level of abstraction, including a second level of abstraction, characterized by repeating said second recognition step.

本発明による行動認識装置は、個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置であって、複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持手段と、前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第1認識手段と、前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第2認識手段と、を含み、前記第2認識手段は、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、当該抽象レベルの行動識別子を認識して記憶する動作を反復することを特徴とする。 The behavior recognition device according to the present invention is a behavior recognition device that captures sensor data for measuring an individual's behavior and recognizes the behavior of the individual from the sensor data, and includes a behavior model and a behavior recognition algorithm for each of a plurality of abstract levels. Behavior model holding means for holding model data corresponding to the above, and a feature vector is extracted from the sensor data, and model data corresponding to a first abstract level of the plurality of abstract levels is extracted from the feature vector. The first recognition means for recognizing the action identifier of the first abstract level by performing the recognition processing used and storing the action identifier in association with the acquisition time of the sensor data , and stored for each of the plurality of abstract levels Model data corresponding to the abstract level for a sequence of action identifiers lower than the abstract level. By a recognition process performed using recognizes the action identifier of the level of abstraction, wherein the second recognition means for storing in association with acquisition time of the sensor data, the second recognizing means, the second abstraction for at least one level of abstraction including level, characterized by repeating an operation of recognizing and storing the action identifier of the level of abstraction.

本発明による行動認識プログラムは、個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する手順をコンピュータに実行されるための行動認識プログラムであって、複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の
抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第1認識ステップと、前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第2認識ステップと、を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復する手順を含むことを特徴とする。
The behavior recognition program according to the present invention is a behavior recognition program for fetching sensor data for measuring the behavior of an individual and executing a procedure for recognizing the behavior of the individual from the sensor data on a plurality of abstract levels. A behavior model holding step for holding model data corresponding to a behavior model and a behavior recognition algorithm every time, a feature vector is extracted from the sensor data, and a first of the plurality of abstract levels with respect to the feature vector A first recognition step of recognizing the action identifier of the first abstract level by performing recognition processing using model data corresponding to the abstract level of the sensor data, and storing the action identifier in association with the acquisition time of the sensor data; For each abstract level, it consists of action identifiers stored at a level lower than the abstract level. Relative Sequence, by performing a recognition process using the model data corresponding to the level of abstraction, a second recognition step of recognizing the action identifier of the abstraction level and stored in association with the acquisition time of the sensor data, comprises, for at least one level of abstraction, including a second level of abstraction, characterized in that it comprises a procedure of repeating the second recognition step.

本発明による個体行動認識方法、装置及びプログラムによれば、時間的に前後関係にある細かい行動を複数集積してより高い抽象レベルの行動を認識する構成が与えられる。これにより、複数の抽象レベルで行動を把握することができる。   According to the individual behavior recognition method, apparatus, and program of the present invention, a configuration is provided in which a plurality of detailed behaviors that are temporally related to each other are accumulated to recognize a higher abstract level of behavior. Thereby, it is possible to grasp the behavior at a plurality of abstract levels.

本発明による行動認識装置の概念を示すブロック図である。It is a block diagram which shows the concept of the action recognition apparatus by this invention. 3軸加速度センサからのセンサデータの例を示す波形図である。It is a wave form diagram which shows the example of the sensor data from a 3-axis acceleration sensor. 本発明の実施例であり、本発明による行動認識装置の内部構成を示すブロック図である。It is an Example of this invention and is a block diagram which shows the internal structure of the action recognition apparatus by this invention. 第1の抽象レベルにおける行動識別子と行動との対応関係の例を示す図である。It is a figure which shows the example of the correspondence of the action identifier and action in a 1st abstract level. 第2の抽象レベルにおける行動識別子と行動との対応関係及び基準となる行動識別子シーケンスの例を示す図である。It is a figure which shows the example of the action identifier sequence used as the correspondence of action identifier and action in a 2nd abstract level, and a reference | standard. 第3の抽象レベルにおける行動識別子と行動との対応関係及び基準となる行Correspondence between action identifiers and actions at the third level of abstraction and the reference row 本発明による行動認識方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the action recognition method by this invention. センサデータと認識された行動識別子シーケンスとの対応関係の例を示す図である。It is a figure which shows the example of the correspondence of sensor data and the recognized action identifier sequence.

本発明の実施例について添付の図面を参照しつつ詳細に説明する。   Embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施例であり、本発明による行動認識装置の概念形態を示している。行動認識の対象である個体としての人には、その両手首及び腰には複数の3軸加速度センサ11〜13が装着されている。行動認識装置20は、3軸加速度センサ11〜13の各々からのセンサデータを取り込む。3軸加速度センサ11〜13からのセンサデータの例が図2に示されている。行動認識装置20は、取り込んだセンサデータから、第1抽象レベルの行動識別子を認識し、次いで、下位抽象レベルの単数または複数の行動識別子からなるシーケンスからより一段上位の抽象レベルの行動識別子を認識する手順を繰り返すことによって、複数の抽象レベルの行動識別子シーケンスをシーケンスとして出力する。   FIG. 1 is an embodiment of the present invention and shows a conceptual form of an action recognition apparatus according to the present invention. A person as an individual who is an object of action recognition is equipped with a plurality of three-axis acceleration sensors 11 to 13 on both wrists and waist. The action recognition device 20 takes in sensor data from each of the three-axis acceleration sensors 11 to 13. An example of sensor data from the three-axis acceleration sensors 11 to 13 is shown in FIG. The action recognition device 20 recognizes the action identifier of the first abstract level from the captured sensor data, and then recognizes the action identifier of the higher abstract level from the sequence consisting of one or more action identifiers of the lower abstract level. By repeating this procedure, a plurality of abstract level action identifier sequences are output as a sequence.

第1の行動とは、第1の抽象レベルを持つ行動を指し、第1の行動毎に第1の行動識別子を持つ。第2の行動とは、第2の抽象レベルを持つ行動を指し、同様にして第2の行動毎に第2の行動識別子を持つ。一般化すると、第n(nは正の整数)の行動は、第(n−1)の行動よりも抽象レベルが1段高い第nの抽象レベルを持つ行動であり、第nの行動毎に第nの行動識別子を持つ。   The first action refers to an action having a first abstract level, and has a first action identifier for each first action. The second action refers to an action having the second abstract level, and similarly has a second action identifier for each second action. When generalized, an nth action (n is a positive integer) is an action having an nth abstract level that is one level higher than the (n−1) th action, and for each nth action. It has an nth action identifier.

ラジオ体操の例が示される図1において、第1の行動は、最下位の抽象レベルの行動であって、例えば、「手を下から横に曲げる」、「腰を曲げる」等の個体の細かな行動である。第2の行動は、第1の行動よりも抽象レベルが1段高く、ラジオ体操の例ではラジオ体操第1の13種類の運動、例えば、「胸を反らす」、「体を横に曲げる」等の行動である。また、第3の行動は、第2の行動よりも抽象レベルが1段高く、ラジオ体操の個々の運動ではなく、「ラジオ体操第1」か「ラジオ体操第2」の何れであるかを示すレベルの行動である。このように、一段高い抽象レベルの行動は、それよりも低い抽象レベルの行動の連なり、すなわち行動識別子の連鎖からなる行動識別子のシーケンスとして認識される。   In FIG. 1 showing an example of radio gymnastics, the first action is the action at the lowest level of abstraction. For example, the individual action such as “bend the hand from the bottom” or “bend the waist” is fine. It is an action. The second action has a level of abstraction that is one step higher than the first action, and in the example of radio exercises, the first 13 types of exercises of radio exercises, such as “curve the chest”, “bend the body sideways”, etc. It is an action. In addition, the third action has a level of abstraction one level higher than that of the second action, and indicates whether it is “Radio Gymnastic First” or “Radio Gymnastic Second” rather than individual exercises of radio gymnastics. It is a level action. In this way, a higher abstract level action is recognized as a sequence of action identifiers consisting of a series of lower level action actions, that is, a chain of action identifiers.

第nの行動の各々は時刻と関連付けられて出力される。例えば、時刻10時10分10.00秒〜10時10分11.00秒の間のセンサデータから認識される第1の行動は、10時10分10.00秒の第1の行動として記録または出力される。時刻10時10分10.02秒〜10時10分11.02秒の間のセンサデータから認識された第3の行動は、10時10分10.02秒の第3の行動として記録または出力される。本図の例では、10時10分10.02秒に関連付けられた第3の行動「ラジオ体操第1」が出力されている。   Each of the nth actions is output in association with the time. For example, the first action recognized from the sensor data between 10: 10: 10.00 seconds and 10: 10: 11.00 seconds is recorded as the first action at 10: 10: 10.00 seconds. Or output. The third action recognized from the sensor data between 10: 10: 10.02 seconds and 10: 10: 11.02 seconds is recorded or output as the third action at 10: 10: 10.02 seconds. Is done. In the example of this figure, the third action “radio exercises first” associated with 10: 10: 10.02 is output.

図3は、行動認識装置20の内部構成を示している。行動認識装置20は、入力部21と、特徴抽出部22と、第1認識部23と、第2認識部24と、行動記憶部25と、行動モデル記憶部26と、出力部27とから構成されている。行動認識装置20は、通常、1つのコンピュータ装置として実現され得る。その場合に、上記した各部21〜27は、コンピュータ内部または外部に備えられるハードウェア及び/またはコンピュータによって実行されるプログラム及びデータ等のソフトウェアによって実現され得る。   FIG. 3 shows the internal configuration of the action recognition device 20. The behavior recognition device 20 includes an input unit 21, a feature extraction unit 22, a first recognition unit 23, a second recognition unit 24, a behavior storage unit 25, a behavior model storage unit 26, and an output unit 27. Has been. The behavior recognition device 20 can be usually realized as one computer device. In that case, each of the above-described units 21 to 27 can be realized by hardware provided inside or outside the computer and / or software such as a program and data executed by the computer.

入力部21は、加速度センサ等のセンサからのセンサデータを取り込み、これを所定のサンプリング周期でサンプリングし、時系列状のセンサデータを出力する。例えば、±3G(1G = 9.80665m/s2)の測定レンジを持つ3軸加速度センサから取得されるセンサデータに対して、1秒間に50回サンプリングして、例えば10mGの分解能にてデータ化することにより、0.02秒間隔でx、y、z軸方向の各々についての時系列状のセンサデータが得られる。1つの軸についての時系列状のセンサデータの例が図2に示されている。   The input unit 21 receives sensor data from a sensor such as an acceleration sensor, samples the sensor data at a predetermined sampling period, and outputs time-series sensor data. For example, sensor data acquired from a 3-axis acceleration sensor with a measurement range of ± 3G (1G = 9.80665m / s2) is sampled 50 times per second and converted to data with a resolution of 10mG, for example. Thus, time-series sensor data for each of the x-, y-, and z-axis directions is obtained at intervals of 0.02 seconds. An example of time-series sensor data for one axis is shown in FIG.

特徴抽出部22は、時系列状のセンサデータから特徴ベクトルを抽出する。特徴ベクトルは、例えば、m(mは正の整数)個の特徴量の配列として生成される。例えば、1秒間で得られる時系列状のセンサデータに対する複数の統計的特長を複数の特徴量とすることができる。秒間50回サンプリングしたセンサデータの場合、x、y、zそれぞれの軸について1秒間に得られるセンサデータの平均値や分散値を特徴量としたり、1秒間のセンサデータに離散フーリエ変換を行って得られる周波数スペクトルにおけるピーク時のスペクトル周波数値やパワー値等を特徴量として、これらの量を組み合わせた配列を特徴ベクトルとすることができる。   The feature extraction unit 22 extracts feature vectors from time-series sensor data. The feature vector is generated, for example, as an array of m (m is a positive integer) feature quantities. For example, a plurality of statistical features for time-series sensor data obtained in one second can be used as a plurality of feature amounts. In the case of sensor data sampled 50 times per second, the average value or dispersion value of sensor data obtained per second for each of the x, y, and z axes is used as a feature value, or discrete Fourier transform is performed on the sensor data per second. A spectral frequency value or power value at the peak of the obtained frequency spectrum is used as a feature amount, and an array obtained by combining these amounts can be used as a feature vector.

第1認識部23は、特徴抽出部22が出力する特徴ベクトルから第1の行動を認識し、第1の行動識別子をシーケンス状に行動記憶部25へ出力する。第1認識部23は、行動モデル記憶部26がモデルデータとして提供する第1の行動を識別するための第1の行動モデルに基づいて、特徴ベクトルから第1の行動を認識し、第1の行動識別子の値がシーケンス状に並べられた行動識別子シーケンスを行動記憶部25に出力する。   The first recognition unit 23 recognizes the first action from the feature vector output by the feature extraction unit 22 and outputs the first action identifier to the action storage unit 25 in a sequence. The first recognition unit 23 recognizes the first behavior from the feature vector based on the first behavior model for identifying the first behavior provided as the model data by the behavior model storage unit 26, The action identifier sequence in which the values of the action identifiers are arranged in a sequence is output to the action storage unit 25.

第1の行動モデルに基づいて第1の行動を認識する方法としては、例えば、入力されるm次の特徴ベクトルをm次の空間のクラスタに分別するクラスタリングを行う判別器や、サポートベクタマシン(SVM;support vector machine)等の認識器が用いられ得る。例えば、サポートベクタマシンの場合、第1の行動識別子の値毎に学習データを複数用意し、機械学習を行うことにより特徴ベクトルの値と第1の行動識別子の対応関係が構築され得る。サポートベクタマシンを用いる方法については、例えば、「モデル導出方法、認識システム、情報処理装置、設計装置、設計方法、及びプログラム」と題される特開2008−250990号公報の技術内容が参照される。   As a method for recognizing the first action based on the first action model, for example, a discriminator that performs clustering for classifying an input m-th order feature vector into clusters of an m-th order space, a support vector machine ( A recognizer such as SVM (support vector machine) can be used. For example, in the case of a support vector machine, a correspondence relationship between a feature vector value and a first action identifier can be constructed by preparing a plurality of learning data for each value of the first action identifier and performing machine learning. For the method using the support vector machine, for example, refer to the technical content of Japanese Patent Laid-Open No. 2008-250990 entitled “Model Derivation Method, Recognition System, Information Processing Device, Design Device, Design Method, and Program”. .

第2認識部24は、行動記憶部25に出力された下位の抽象レベルすなわち第(n−1)の行動識別子の時間的な連鎖である行動識別子シーケンスから、第nの行動モデルを用いて第nの行動を認識し、これを行動記憶部25に出力する。この場合nは2以上であって第2以上の行動が第2認識部24によって認識される。第nの行動モデルは、行動モデル記憶部26からモデルデータとして読み込まれ、第2認識部24は、当該行動モデルに対応する認識アルゴリズムや認識アルゴリズム依存のパラメータを用いて行動識別子シーケンスを認識する。   The second recognizing unit 24 uses the nth behavior model from the behavior identifier sequence that is a temporal chain of lower abstract levels output to the behavior storage unit 25, that is, the (n−1) th behavior identifier. n actions are recognized and output to the action storage unit 25. In this case, n is 2 or more, and the second or more actions are recognized by the second recognition unit 24. The n-th behavior model is read as model data from the behavior model storage unit 26, and the second recognition unit 24 recognizes the behavior identifier sequence using a recognition algorithm corresponding to the behavior model or a recognition algorithm-dependent parameter.

第2認識部24における認識方法としては、上記したサポートベクトルマシンの他、例えば隠れマルコフモデル(HMM;Hidden Markov Model)や条件付き確率場(CRF; conditional random field)等の行動モデルに基づく識別器を用いることができる。HMMやCRF等の行動モデルに基づく識別器は、可変長の行動識別子シーケンスから最も確からしい行動を、例えば、最尤法、最小自乗法またはビタビ(Viterbi)法の如き認識アルゴリズムを用いて推定することができる。行動モデルを基づく識別器の技術については、例えば、「確率モデルの学習方法」と題する特開平9−62647号公報の技術内容が参照される。   As a recognition method in the second recognition unit 24, in addition to the support vector machine described above, for example, a discriminator based on an action model such as a Hidden Markov Model (HMM) or a conditional random field (CRF). Can be used. Classifiers based on behavior models such as HMM and CRF estimate the most probable behavior from a variable-length behavior identifier sequence using a recognition algorithm such as the maximum likelihood method, the least square method, or the Viterbi method. be able to. For the technology of the discriminator based on the behavior model, for example, refer to the technical content of Japanese Patent Laid-Open No. 9-62647 entitled “Learning Method of Probability Model”.

尚、第nの行動を認識する際、参照するのは、第(n−1)の行動識別子だけでなく、それよりも抽象レベルの低い第1〜第n−1の行動識別子の何れを参照しても良く、抽象レベル毎や識別する行動毎に異なる識別アルゴリズムが用いられても良い。   When recognizing the n-th action, reference is made not only to the (n-1) th action identifier but also to any of the first to n-1th action identifiers having a lower abstract level. Alternatively, a different identification algorithm may be used for each abstract level or for each action to be identified.

行動記憶部25は、第1認識部23が出力する第1の行動を対応する時刻に関連付けて記録し、また、第2認識部24が出力する第nの行動を対応する時刻に関連付けて記録する。第1の行動及び第nの行動は、時間的に連続性のある時系列データとして、行動識別子シーケンスとして記録される。例えば、第1の行動識別子シーケンスとして、時刻10時10分10.00秒の第1の行動識別子が「2」、時刻10時10分10.02秒の第1の行動識別子が「2」、時刻10時10分10.04秒の第1の行動識別子が「3」、そして、時刻10時10分10.06秒の第1の行動識別子が「4」とした場合、時刻10時10分10.00秒乃至10時10分10.06秒迄の第1の行動識別子シーケンスは、{2、2、3、4}と表現される。   The behavior storage unit 25 records the first behavior output by the first recognition unit 23 in association with the corresponding time, and records the nth behavior output by the second recognition unit 24 in association with the corresponding time. To do. The first action and the n-th action are recorded as action identifier sequences as time-series data having temporal continuity. For example, as the first action identifier sequence, the first action identifier at time 10: 10: 10.00 is “2”, the first action identifier at 10: 10: 10.02 is “2”, When the first action identifier at the time 10: 10: 10.04 seconds is “3” and the first action identifier at the time 10: 10: 10.06 seconds is “4”, the time 10:10 The first action identifier sequence from 10.00 seconds to 10: 10: 10.06 seconds is expressed as {2, 2, 3, 4}.

出力部27は、行動認識装置20に対する外部入力される操作指令に応じて、任意の指定抽象レベルや指定時刻に対応する第1〜nの行動を行動記憶部25から読み出して出力する。任意の第1〜nの行動を出力する出力方法としては、ディスプレイ等の表示装置へ表示や、プリンタ等の印刷装置への印字出力、さらにはネットワークを介して外部に情報提供する等の多様な形態があり得る。   The output unit 27 reads out the first to n-th actions corresponding to any specified abstract level or specified time from the action storage unit 25 and outputs them in response to an operation command input to the action recognition device 20 from the outside. There are various output methods for outputting any of the first to n actions such as displaying on a display device such as a display, printing output to a printing device such as a printer, and providing information to the outside via a network. There can be a form.

また、出力部27は、ある程度リアルタイムに最新の行動が必要なアプリケーションでは、最も新しい時刻の行動を複数の抽象レベル分まとめて出力する方法や、リアルタイム性が不要なアプリケーションでは、抽象レベル及び時刻を指定する他、行動識別子の特定の値を指定する等、データベースに対する一般的な検索手段を提供しても良い。   In addition, the output unit 27 outputs an abstract level and time for an application that requires the latest action to some extent in real time, for a method that outputs actions at the latest time for a plurality of abstract levels, or for an application that does not require real-time performance. In addition to specifying, a general search means for the database such as specifying a specific value of the action identifier may be provided.

行動モデル記憶部26は、第1〜nの行動を認識するためのモデルデータを保持している。行動モデルのモデルデータは、行動モデル識別子を介して抽象レベルに関連付けられ、抽象レベル毎に、認識アルゴリズムの識別情報や行動モデルに依存する各種パラメータからなる。例えば、隠れマルコフモデルの場合のパラメータは、ノード間遷移確率、シンボル出力確率、初期ノード確率の3つのパラメータを含む。これらパラメータ等のモデルデータは、予め学習用のデータを用いて最適な値を求め、認識アルゴリズムと共に行動モデル記憶部26に保持されている必要がある。   The behavior model storage unit 26 holds model data for recognizing the first to nth behaviors. The model data of the behavior model is associated with the abstract level via the behavior model identifier, and includes, for each abstract level, various parameters depending on the identification information of the recognition algorithm and the behavior model. For example, the parameters in the case of a hidden Markov model include three parameters: an internode transition probability, a symbol output probability, and an initial node probability. For the model data such as parameters, it is necessary to obtain an optimum value in advance using learning data and to be held in the behavior model storage unit 26 together with the recognition algorithm.

行動モデル記憶部26は、また、各抽象レベルの行動識別子と行動との対応関係や、認識アルゴリズムにおいて基準値または初期値となる行動識別子シーケンスを保持している。   The behavior model storage unit 26 also holds a correspondence relationship between behavior identifiers and behaviors at each abstract level, and behavior identifier sequences that serve as reference values or initial values in the recognition algorithm.

図4は、第1の抽象レベルにおける行動識別子と行動との対応関係の例を示している。
ここで、第1の行動識別子の「1、2、3、4・・」の各々に対応する第1の行動の内容が設定されている。図5及び図6は、第2及び第3の各々の抽象レベルにおける行動識別子と行動との対応関係及び基準となる行動識別子シーケンスの例を示している。図5を参照すると、第2の行動識別子の「1、2、3、4・・」の各々に対応する第2の行動の内容が設定されていると共に、基準となる行動識別子シーケンスが第1の行動識別子の連鎖として設定されている。基準となる行動識別子シーケンスは、認識アルゴリズムにおいて、最も確からしい第2の行動を推定する推定プロセスおける基準値または初期値として用いられる。図6を参照すると、同様にして、第3の行動識別子の「1、2、・・」の各々に対応する第2の行動の内容が設定されていると共に、基準となる行動識別子シーケンスが第2の行動識別子の連鎖として設定されている。
FIG. 4 shows an example of the correspondence between action identifiers and actions at the first abstract level.
Here, the content of the first action corresponding to each of the first action identifiers “1, 2, 3, 4,...” Is set. FIG. 5 and FIG. 6 show an example of a behavior identifier sequence serving as a reference and a correspondence relationship between behavior identifiers and behaviors at the second and third abstract levels. Referring to FIG. 5, the content of the second action corresponding to each of the second action identifiers “1, 2, 3, 4,...” Is set, and the reference action identifier sequence is the first. It is set as a chain of action identifiers. The reference action identifier sequence is used as a reference value or an initial value in an estimation process for estimating the most likely second action in the recognition algorithm. Referring to FIG. 6, similarly, the contents of the second action corresponding to each of the third action identifiers “1, 2,...” Are set, and the reference action identifier sequence is the first action identifier sequence. It is set as a chain of two action identifiers.

図7は、本発明による行動認識方法の処理手順を示している。該処理手順は行動認識装置20の各部が連携して実行される。   FIG. 7 shows a processing procedure of the behavior recognition method according to the present invention. The processing procedure is executed in cooperation with each unit of the action recognition device 20.

先ず、行動認識装置20は、任意の時刻範囲のセンサデータを取り込み、所定のサンプリングレート及び分解能にて時系列状のセンサデータを生成する(ステップS101)。次いで、得られたセンサデータから複数の特徴量を抽出して、該複数の特徴量の配列からなる特徴ベクトルを生成する(ステップS102)。次いで、行動モデル記憶部から、第1の行動モデルを読み込む(ステップS103)。   First, the action recognition device 20 takes in sensor data in an arbitrary time range, and generates time-series sensor data at a predetermined sampling rate and resolution (step S101). Next, a plurality of feature amounts are extracted from the obtained sensor data, and a feature vector composed of an array of the plurality of feature amounts is generated (step S102). Next, the first behavior model is read from the behavior model storage unit (step S103).

次に、行動認識装置20は、読み込んだ行動モデルに基づいた認識アルゴリズムを用いて、生成した特徴ベクトルから第1の行動を認識する(ステップS104)。次いで、認識した第1の行動を行動記憶部に記憶する(ステップS105)。次いで、抽象レベルnをn=2に初期化し(ステップS106)、ステップS107に進む。   Next, the behavior recognition apparatus 20 recognizes the first behavior from the generated feature vector using a recognition algorithm based on the read behavior model (step S104). Next, the recognized first action is stored in the action storage unit (step S105). Next, the abstract level n is initialized to n = 2 (step S106), and the process proceeds to step S107.

ステップS107において、行動モデル記憶部から第nの行動モデルを読み込む。次いで、読込の成否を判定し(ステップS108)、もし第nの行動モデルが無い場合には、これ以上の抽象レベルに上げることができないとして、新たなセンサデータを待つステップS114に進む。ステップS107にて読み込む第nの行動モデルは、行動毎に認識に用いるモデルが複数存在する場合、すべてを読み込む必要はなく、例えば、第(n−1)の行動識別子シーケンスから、発生しうる第nの行動識別子を求めることで、発生しうる第nの行動に関連した第nの行動モデルのみを読み込んでも良い。たとえば、第nの行動モデルに「手首の運動」と「足首の運動」の2種類があり、第(n−1)の行動識別子シーケンスが「手首の運動」に関連するものだけで構成される場合、読み込む第nの行動モデルを「手首の運動」だけに限定し、計算量を削減することができる。   In step S107, the nth behavior model is read from the behavior model storage unit. Next, the success or failure of the reading is determined (step S108). If there is no n-th behavior model, it can not be raised to an abstract level higher than this, and the process proceeds to step S114 where new sensor data is awaited. The n-th behavior model read in step S107 need not be read when there are a plurality of models used for recognition for each behavior. For example, the n-th behavior model can be generated from the (n-1) th behavior identifier sequence. By obtaining n action identifiers, only the nth action model related to the nth action that may occur may be read. For example, the nth behavior model includes two types of “wrist movement” and “ankle movement”, and the (n−1) th action identifier sequence is composed only of those related to “wrist movement”. In this case, it is possible to reduce the calculation amount by limiting the n-th behavior model to be read only to “wrist movement”.

ステップS108において、第nの行動モデルの読み込みに成功した場合には、行動認識装置20は、さらに行動記憶部から第(n−1)の行動識別子シーケンスを読み込む(ステップS109)。次いで、読込の成否を判定し(ステップS110)、もし第(n−1)の行動識別子シーケンスが無い場合には、これ以上の抽象レベルを上げることができないと判定して、新たなセンサデータを待つステップS114に進む。   In step S108, when the reading of the nth behavior model is successful, the behavior recognition apparatus 20 further reads the (n-1) th behavior identifier sequence from the behavior storage unit (step S109). Next, the success or failure of reading is determined (step S110). If there is no (n-1) th action identifier sequence, it is determined that the level of abstraction cannot be increased any more, and new sensor data is obtained. The process proceeds to the waiting step S114.

次に、行動認識装置20は、読み込んだ行動モデルに基づいた認識アルゴリズムを用いて、第(n−1)の行動識別子シーケンスから、第nの行動を認識する(ステップS111)。読み込んだ行動モデルに基づいた認識アルゴリズムの選択は、行動モデルに認識アルゴリズムを示す識別子を持たせることで実現できる。この識別子は学習時に、複数の認識アルゴリズム毎に独立して学習し、それらの認識アルゴリズムによる認識率を評価することで選択できる。例えば、最も認識率の良い認識アルゴリズムの識別子と学習によって得られたパラメータをあわせて行動モデルとして行動モデル記憶部に保持することができる。次いで、認識した第nの行動を行動記憶部に記憶する(ステップS112)。次いで、抽象レベルを更新、すなわちn=n+1に初期化して(ステップS113)、ステップS107に進む。行動認識装置20は次の第n+1の行動について処理を繰り返す。これにより、n=2、3、4、・・と続く複数の抽象レベルの行動が認識される。   Next, the behavior recognition apparatus 20 recognizes the nth behavior from the (n-1) th behavior identifier sequence using a recognition algorithm based on the read behavior model (step S111). Selection of the recognition algorithm based on the read behavior model can be realized by providing the behavior model with an identifier indicating the recognition algorithm. This identifier can be selected by learning independently for each of a plurality of recognition algorithms at the time of learning, and evaluating the recognition rate by those recognition algorithms. For example, the identifier of the recognition algorithm with the best recognition rate and the parameter obtained by learning can be stored in the behavior model storage unit as a behavior model. Next, the recognized nth action is stored in the action storage unit (step S112). Next, the abstract level is updated, that is, initialized to n = n + 1 (step S113), and the process proceeds to step S107. The action recognition device 20 repeats the process for the next n + 1th action. As a result, a plurality of behaviors at the abstract level that follows n = 2, 3, 4,... Are recognized.

一方、ステップS114に進んだ場合には、新たなセンサデータが取り込まれるタイミングを待つ(S114)。新たなデータが取得されたならステップS101から処理を再開し、もし無い場合には処理を終了する(ステップS115)。処理の再開は、センサデータがサンプリングされる都度繰り返しても良い。また、数秒等ある程度センサデータを蓄積した後に処理しても良い。認識結果の出力がリアルタイムに必要ないのであれば、例えばセンサデータを1日や1週間等の期間蓄積した後に認識処理を行なっても良い。例えば、センサデータを50Hzでサンプリングした場合、秒間に50回の認識処理が繰り返されても良いし、1秒単位に認識処理が繰り返されても良い。   On the other hand, when it progresses to step S114, it waits for the timing at which new sensor data is taken in (S114). If new data is acquired, the process is restarted from step S101, and if not, the process ends (step S115). The resumption of processing may be repeated every time sensor data is sampled. Further, it may be processed after accumulating sensor data to some extent such as several seconds. If the output of the recognition result is not required in real time, the recognition process may be performed after accumulating sensor data for a period of one day or one week, for example. For example, when sensor data is sampled at 50 Hz, the recognition process may be repeated 50 times per second, or the recognition process may be repeated in units of 1 second.

図8は、センサデータと認識された行動識別子シーケンスとの対応関係の例を示している。ここで、時刻0時0分00秒乃至時刻0時0分20秒に至るセンサデータに対して、第1の行動識別子シーケンスとして、「1 1 1 1 1 2 2 3 3 4 4 ・・・・・」が認識され、第2の行動識別子シーケンスとして、「1 2 8 4」が認識され第3の行動識別子シーケンスとして、「1 2 ・・・」が認識されている。   FIG. 8 shows an example of the correspondence between the sensor data and the recognized action identifier sequence. Here, as the first action identifier sequence for the sensor data from time 0:00:00 to time 0: 0: 20, “1 1 1 1 1 2 2 3 3 4 4... “” Is recognized, “1 2 8 4” is recognized as the second action identifier sequence, and “1 2...” Is recognized as the third action identifier sequence.

以上のように、複数の行動を複数集めて認識処理を行ない、一段抽象レベルの高い行動を認識し、これを繰り返すことにより、複数の抽象レベルの行動を認識することができる。   As described above, it is possible to recognize a plurality of actions at a plurality of abstract levels by collecting a plurality of actions and performing a recognition process, recognizing a action with a higher level of abstraction, and repeating this.

以上の実施例において、本発明を適用することにより、1つの動作を複数の抽象度で捉えて認識することができ、より高い表現力の行動認識が可能となる。また、抽象レベルを上げると、行動だけでなく人の状態を認識することもできる。たとえば、疲れたときと疲れてないときで抽象レベルの低い行動のシーケンスが変化する場合、抽象レベルの高い行動認識では、その変化を捉えて別の行動として認識できる。この場合の抽象レベルの高い行動とは、疲れた/疲れていないといった状態や状況と表現することができる。   In the above embodiments, by applying the present invention, it is possible to recognize and recognize one action at a plurality of abstraction levels, and it is possible to recognize actions with higher expressive power. In addition, if the level of abstraction is raised, it is possible to recognize not only actions but also human states. For example, when a sequence of actions with a low abstract level changes between when tired and when not tired, the action recognition with a high abstract level can recognize the change and recognize it as another action. In this case, an action with a high level of abstraction can be expressed as a state or situation of being tired / not tired.

尚、以上の実施例において、行動認識対象の個体として人が説明されたが、本発明に係る限定はなく、人の行動だけでなく、物やロボットの移動、複数の人によって運ばれ得る物の行動を複数の抽象レベルで認識することもできる。   In the above embodiment, a person has been described as an action recognition target individual, but there is no limitation according to the present invention, and not only a person's action but also a movement of an object or robot, an object that can be carried by a plurality of persons Can be recognized at multiple levels of abstraction.

10 個体(人)
11〜13 3軸加速度センサ
20 行動認識装置
21 入力部
22 特徴抽出部
23 第1認識部
24 行動記憶部
25 第2認識部
26 行動モデル記憶部
27 出力部
10 individuals
11 to 13 Three-axis acceleration sensor 20 Action recognition device 21 Input unit 22 Feature extraction unit 23 First recognition unit 24 Behavior storage unit 25 Second recognition unit 26 Behavior model storage unit 27 Output unit

Claims (8)

個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置における行動認識方法であって、
複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、
前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第1認識ステップと、
前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの単数若しくは複数の行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第2認識ステップと、
を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復することを特徴とする行動認識方法。
It is a behavior recognition method in a behavior recognition device that captures sensor data for measuring a behavior of an individual and recognizes the behavior of the individual from the sensor data,
An action model holding step for holding model data corresponding to an action model and an action recognition algorithm for each of a plurality of abstract levels;
A feature vector is extracted from the sensor data, and a recognition process using model data corresponding to a first abstract level of the plurality of abstract levels is performed on the feature vector, thereby the first abstract level. A first recognition step of recognizing the action identifier and storing the action identifier in association with the acquisition time of the sensor data ;
For each of the plurality of abstract levels, a recognition process using model data corresponding to the abstract level is performed on a sequence composed of one or more action identifiers at a level lower than the abstract level. A second recognition step of recognizing the action identifier of the abstract level and storing the action identifier in association with the acquisition time of the sensor data ;
Hints, for at least one level of abstraction, including a second level of abstraction, activity recognition method characterized by repeating said second recognition step.
前記第1認識ステップ及び前記第2認識ステップは、外部入力される指定時刻及び指定抽象レベルに応じて、当該指定時刻及び指定抽象レベルに対応する行動識別子を出力する出力ステップをさらに含むことを特徴とする請求項1記載の行動認識方法。 Said first recognition step and the second recognition step, that in accordance with the designated time and the designated abstraction level is inputted external, further comprising an output step of outputting an action identifier corresponding to the designated time and the designated abstraction level The action recognition method according to claim 1, wherein: 前記行動モデル保持ステップは、前記特徴ベクトルに対してクラスタリングを施すことによって行動識別子を認識する判別器に対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。   The behavior recognition method according to claim 1, wherein the behavior model retaining step retains model data corresponding to a discriminator that recognizes a behavior identifier by performing clustering on the feature vector. 前記行動モデル保持ステップは、前記特徴ベクトルまたは当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスから当該抽象レベルの行動識別子を認識するサポートベクトルマシンに対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。   The action model holding step holds model data corresponding to a support vector machine for recognizing an action identifier of the abstract level from the feature vector or a sequence of one or more action identifiers at a level lower than the abstract level. The action recognition method according to claim 1, wherein: 前記行動モデル保持ステップは、当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスに対して隠れマルコフモデルを適用することによって当該抽象レベルの行動識別子を認識する認識アルゴリズムに対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。   In the behavior model holding step, model data corresponding to a recognition algorithm for recognizing a behavior identifier of the abstract level by applying a hidden Markov model to a sequence composed of one or a plurality of behavior identifiers at a level lower than the abstract level. The behavior recognition method according to claim 1, wherein: 前記行動モデル保持ステップは、当該抽象レベルより下位レベルの行動識別子からなるシーケンスに対して条件付き確率場モデルを適用することによって当該抽象レベルの行動識別子を認識する認識アルゴリズムに対応するモデルデータを保持することを特徴とする請求項1記載の行動認識方法。   The action model holding step holds model data corresponding to a recognition algorithm for recognizing an action identifier of the abstract level by applying a conditional random field model to a sequence composed of action identifiers lower than the abstract level. The action recognition method according to claim 1, wherein: 個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する行動認識装置であって、
複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持手段と、
前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第1認識手段と、
前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第2認識手段と、
を含み、前記第2認識手段は、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、当該抽象レベルの行動識別子を認識して記憶する動作を反復することを特徴とする行動認識装置。
A behavior recognition device that captures sensor data for measuring an individual's behavior and recognizes the behavior of the individual from the sensor data,
Action model holding means for holding model data corresponding to the action model and action recognition algorithm for each of a plurality of abstract levels;
A feature vector is extracted from the sensor data, and a recognition process using model data corresponding to a first abstract level of the plurality of abstract levels is performed on the feature vector, thereby the first abstract level. A first recognition means for recognizing the action identifier and storing the action identifier in association with the acquisition time of the sensor data ;
For each of the plurality of abstract levels, a recognition process using model data corresponding to the abstract level is performed on a sequence composed of one or more action identifiers at a level lower than the abstract level. Second recognition means for recognizing the action identifier of the abstract level and storing it in association with the acquisition time of the sensor data ;
And the second recognition means repeats an operation of recognizing and storing an action identifier of the abstract level for at least one abstract level including the second abstract level.
個体の行動を計測するセンサデータを取り込み、前記センサデータから前記個体の行動を認識する手順をコンピュータに実行されるための行動認識プログラムであって、
複数の抽象レベル毎に、行動モデルと行動認識アルゴリズムとに対応するモデルデータを保持する行動モデル保持ステップと、
前記センサデータから特徴ベクトルを抽出し、前記特徴ベクトルに対して前記複数の抽象レベルのうちの第1の抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該第1の抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第1認識ステップと、
前記複数の抽象レベル毎に、記憶されている、当該抽象レベルより下位レベルの単数もしくは複数の行動識別子からなるシーケンスに対して、当該抽象レベルに対応するモデルデータを用いた認識処理を施すことによって、当該抽象レベルの行動識別子を認識し、前記センサデータの取得時刻に関連付けて記憶する第2認識ステップと、
を含み、第2の抽象レベルを含む少なくとも1つ抽象レベルについて、前記第2認識ステップを反復する手順を含むことを特徴とする行動認識プログラム。
A behavior recognition program for capturing a sensor data for measuring an individual's behavior and executing a procedure for recognizing the behavior of the individual from the sensor data in a computer,
An action model holding step for holding model data corresponding to an action model and an action recognition algorithm for each of a plurality of abstract levels;
A feature vector is extracted from the sensor data, and a recognition process using model data corresponding to a first abstract level of the plurality of abstract levels is performed on the feature vector, thereby the first abstract level. A first recognition step of recognizing the action identifier and storing the action identifier in association with the acquisition time of the sensor data ;
For each of the plurality of abstract levels, a recognition process using model data corresponding to the abstract level is performed on a sequence composed of one or more action identifiers at a level lower than the abstract level. A second recognition step of recognizing the action identifier of the abstract level and storing the action identifier in association with the acquisition time of the sensor data ;
It hints, for at least one level of abstraction, including a second level of abstraction, behavioral recognition program, which comprises the steps of repeating the second recognition step.
JP2009061509A 2009-03-13 2009-03-13 Action recognition method, apparatus, and program Active JP5359414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009061509A JP5359414B2 (en) 2009-03-13 2009-03-13 Action recognition method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009061509A JP5359414B2 (en) 2009-03-13 2009-03-13 Action recognition method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2010213782A JP2010213782A (en) 2010-09-30
JP5359414B2 true JP5359414B2 (en) 2013-12-04

Family

ID=42973285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009061509A Active JP5359414B2 (en) 2009-03-13 2009-03-13 Action recognition method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP5359414B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5047326B2 (en) 2010-03-31 2012-10-10 株式会社東芝 Action determination apparatus, method, and program
KR101639195B1 (en) * 2010-10-22 2016-07-13 삼성전자주식회사 Data processing apparatus and method for motion synthesis
JP5516385B2 (en) * 2010-12-21 2014-06-11 富士通株式会社 Action recognition device, action recognition method, and action recognition program
JP6465419B2 (en) * 2015-06-26 2019-02-06 Necソリューションイノベータ株式会社 Measuring apparatus and measuring method
WO2017037915A1 (en) 2015-09-03 2017-03-09 三菱電機株式会社 Behavior identification device, air conditioner, and robot control device
WO2017065241A1 (en) * 2015-10-14 2017-04-20 国立大学法人東京工業大学 Automated diagnostic device
CN108882892A (en) * 2016-03-31 2018-11-23 Zoll医疗公司 The system and method for tracking patient motion
JP6975952B2 (en) * 2016-07-08 2021-12-01 国立大学法人岩手大学 Living body motion identification system and living body motion identification method
CN107886103B (en) * 2016-09-29 2023-12-08 日本电气株式会社 Method, device and system for identifying behavior patterns
JP6374466B2 (en) * 2016-11-11 2018-08-15 ファナック株式会社 Sensor interface device, measurement information communication system, measurement information communication method, and measurement information communication program
JP6895276B2 (en) * 2017-03-03 2021-06-30 株式会社日立製作所 Behavior recognition system and behavior recognition method
JP6861600B2 (en) * 2017-09-11 2021-04-21 株式会社日立製作所 Learning device and learning method
JP7146247B2 (en) * 2018-09-03 2022-10-04 国立大学法人 東京大学 Motion recognition method and device
JP7152357B2 (en) * 2019-05-24 2022-10-12 株式会社日立製作所 Correct data creation support system and correct data creation support method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001087247A (en) * 1999-09-27 2001-04-03 Matsushita Electric Works Ltd Body activity discriminating method and device therefor
JP2007310707A (en) * 2006-05-19 2007-11-29 Toshiba Corp Apparatus and method for estimating posture
JP4636206B2 (en) * 2007-03-30 2011-02-23 パナソニック電工株式会社 Activity measurement system
JP2009160341A (en) * 2008-01-10 2009-07-23 Yokogawa Electric Corp In-sleep body movement identification device

Also Published As

Publication number Publication date
JP2010213782A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5359414B2 (en) Action recognition method, apparatus, and program
Frank et al. Activity and gait recognition with time-delay embeddings
US8935195B2 (en) Method of identification and devices thereof
Rad et al. Applying deep learning to stereotypical motor movement detection in autism spectrum disorders
Bruno et al. Analysis of human behavior recognition algorithms based on acceleration data
CN112580552B (en) Murine behavior analysis method and device
Delachaux et al. Indoor activity recognition by combining one-vs.-all neural network classifiers exploiting wearable and depth sensors
Taati et al. Vision-based posture assessment to detect and categorize compensation during robotic rehabilitation therapy
Alharbi et al. Synthetic sensor data for human activity recognition
Javeed et al. Body-worn hybrid-sensors based motion patterns detection via bag-of-features and Fuzzy logic optimization
Maekawa et al. WristSense: wrist-worn sensor device with camera for daily activity recognition
JP2017228100A (en) Behavior recognition device and behavior recognition program
CN111680660B (en) Human behavior detection method based on multi-source heterogeneous data stream
Bahador et al. Deep learning–based multimodal data fusion: Case study in food intake episodes detection using wearable sensors
Hafeez et al. Multi-fusion sensors for action recognition based on discriminative motion cues and random forest
Venkatachalam et al. Bimodal HAR-An efficient approach to human activity analysis and recognition using bimodal hybrid classifiers
Kumar et al. Human activity recognition (har) using deep learning: Review, methodologies, progress and future research directions
Javeed et al. Deep activity recognition based on patterns discovery for healthcare monitoring
Alqarni Error-less data fusion for posture detection using smart healthcare systems and wearable sensors for patient monitoring
Malekmohamadi et al. Low-cost automatic ambient assisted living system
Moreau et al. A motion recognition algorithm using polytopic modeling
Huynh-The et al. Visualizing inertial data for wearable sensor based daily life activity recognition using convolutional neural network
CN113095379A (en) Human motion state identification method based on wearable six-axis sensing data
Kumar et al. Fall detection and activity recognition using hybrid convolution neural network and extreme gradient boosting classifier
Gamage et al. Academic depression detection using behavioral aspects for Sri Lankan university students

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111027

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150