JP2010207488A - Behavior analyzing device and program - Google Patents

Behavior analyzing device and program Download PDF

Info

Publication number
JP2010207488A
JP2010207488A JP2009058812A JP2009058812A JP2010207488A JP 2010207488 A JP2010207488 A JP 2010207488A JP 2009058812 A JP2009058812 A JP 2009058812A JP 2009058812 A JP2009058812 A JP 2009058812A JP 2010207488 A JP2010207488 A JP 2010207488A
Authority
JP
Japan
Prior art keywords
behavior
model
basic
acceleration data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009058812A
Other languages
Japanese (ja)
Inventor
Satoru Hayamizu
悟 速水
Tetsutsugu Tamura
哲嗣 田村
Shinichi Takeuchi
伸一 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gifu University NUC
Original Assignee
Gifu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu University NUC filed Critical Gifu University NUC
Priority to JP2009058812A priority Critical patent/JP2010207488A/en
Publication of JP2010207488A publication Critical patent/JP2010207488A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a behavior analyzing device, classifying behaviors of people at optimum, and more efficiently discriminating and analyzing with high accuracy even the behaviors imperfectly associated with measurement data of a sensor in the past. <P>SOLUTION: This behavior analyzing device includes: an analyzing means for analyzing the behavior of the human body using acceleration data output from a triaxial acceleration sensor applied to the human body; and a storage means. The analyzing means includes: a basic behavior pattern defining part for separating the feature amount of posture of the human body included in change with time of the acceleration data stored as a time series data from the feature amount of motion of the human body, and defining a model composed of the motion of the basic behavior pattern and the feature amount of posture; and an expanding behavior pattern recognition part for performing the processing to separate the acceleration data newly stored as a time series data by utilizing the model of the basic behavior pattern and clustering the processed acceleration data to recognize an expanded behavior pattern. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、人間の行動パターンを分類し解析する行動解析装置及び行動解析プログラムに関するものである。特に、加速度センサによって出力され時系列データとして蓄積されるデータを用いて、人間の行動を自動的に解析する行動解析装置及び行動解析プログラムに関する。   The present invention relates to a behavior analysis apparatus and a behavior analysis program for classifying and analyzing human behavior patterns. In particular, the present invention relates to a behavior analysis apparatus and a behavior analysis program that automatically analyze human behavior using data output by an acceleration sensor and accumulated as time series data.

ユーザにセンサを装着し、センサから得られる計測データを用いてユーザの行動内容の推定や詳細な解析を行う試みがなされている。例えば、特許文献1には、加速度センサを用いた行動判別システムが開示されている。特許文献1の行動判別システムは、加速度センサを用いて得られるユーザの姿勢と行動を示す出力データと、記憶手段の中に予め記憶されている姿勢と行動のパターンデータとを照合することで、人体の姿勢状態と動作状態とを判別する。また非特許文献1には、単一の加速度センサを搭載した情報端末でユーザの行動や姿勢を推定する方法が開示されている。   Attempts have been made to estimate a user's behavior and perform a detailed analysis using measurement data obtained from the sensor mounted on the user. For example, Patent Literature 1 discloses an action discrimination system using an acceleration sensor. The behavior discrimination system of Patent Document 1 compares output data indicating a user's posture and behavior obtained by using an acceleration sensor with posture and behavior pattern data stored in advance in a storage unit. The posture state and the motion state of the human body are discriminated. Non-Patent Document 1 discloses a method for estimating a user's behavior and posture with an information terminal equipped with a single acceleration sensor.

センサを用いた行動解析では、ユーザの特定の行動に限定して、行動の内容を詳細に計測し解析する場合がある。特に近年では、人の歩行をセンサによって詳細に解析しようとする試みが盛んに行われている。センサで歩行の状態を詳細に知ることが可能となることで、高齢者や幼児をプライバシーに配慮しつつ見守ったり、歩数などの運動量を計測して健康の維持や増進を図ったり、あるいは工場や作業場等において動線や周囲のレイアウト等を最適化したりすることが可能となる。   In behavioral analysis using a sensor, the content of behavior may be measured and analyzed in detail, limited to a user's specific behavior. Particularly in recent years, there have been many attempts to analyze a person's walking in detail using sensors. By making it possible to know the state of walking in detail with sensors, we can monitor elderly people and infants while taking privacy into consideration, measure the amount of exercise such as steps, and maintain or improve health. It is possible to optimize the flow line, the surrounding layout, and the like in the work place.

特許文献2には、角速度センサと加速度センサを用いて人の歩行動作の検出を行う歩行動作検出処理装置が開示されている。特許文献2の検出処理装置は、角速度ベクトルと加速度ベクトルの値から重力加速度を検出し、この重力加速度から鉛直方向の加速度を除去して残差加速度成分を抽出し、得られた残差加速度成分の主成分分析を行ってその主成分ベクトルを利用して歩行動作を検出する。また特許文献3には、センサによって人体の複数の部位における体動を測定して歩行動作を分析する歩行動作分析装置が開示されている。特許文献3の歩行動作分析装置は、歩行動作を行った際の体動と体力特性との相関関係をあらかじめ算出して記憶しておき、測定された体動と算出された体力特性を用いて歩行動作の分類結果を表示する。歩行動作の分類は、体動と体力特性からクラスタ分類を用いることで行う。   Patent Document 2 discloses a walking motion detection processing device that detects a human walking motion using an angular velocity sensor and an acceleration sensor. The detection processing device of Patent Document 2 detects gravitational acceleration from the values of the angular velocity vector and acceleration vector, removes the acceleration in the vertical direction from the gravitational acceleration, extracts a residual acceleration component, and obtains the obtained residual acceleration component. The principal component analysis is performed, and the walking motion is detected using the principal component vector. Patent Document 3 discloses a walking motion analyzer that analyzes walking motion by measuring body motions at a plurality of parts of a human body using sensors. The walking motion analysis device of Patent Document 3 calculates and stores a correlation between body motion and physical strength characteristics when performing a walking motion in advance, and uses the measured body motion and the calculated physical strength characteristics. The classification result of walking motion is displayed. Classification of walking motion is performed by using cluster classification based on body motion and physical strength characteristics.

また、ユーザの「歩く」「走る」「座る」「横臥する」といった複数の行動を、ユーザが装着しているセンサの出力データを統計的に処理することで推定しようとする試みがなされている。たとえば特許文献4には、観察対象者の身体の複数箇所に複数のセンサを取付けて、身体上の行動状況を記録し解析する状態解析装置が開示されている。特許文献4の状態解析装置は、センサによって得られた観察対象者の動きと姿勢に関する情報に基づいて、正規化センサ情報及び移動平均とを算出する。この移動平均及び正規化センサ情報との値と所定の閾値との差異により、観察対象者が、臥位、座位、立位、歩行あるいは車椅子走行のいずれの状況にあるかを判定する。非特許文献2には、6箇所に装着した加速度センサから得られた加速度の平均、標準偏差、エネルギーを特徴量として7種類の行動の識別を行う技術が開示されている。非特許文献2の技術は、音声認識で用いられるMAP推定法、MLLR法の2つの話者適応技術を応用することにより、行動の識別率の向上を検討している。   In addition, attempts have been made to estimate a plurality of behaviors such as “walking”, “running”, “sitting”, and “buying” by statistically processing the output data of the sensor worn by the user. . For example, Patent Document 4 discloses a state analysis device that attaches a plurality of sensors to a plurality of locations on the body of an observation subject and records and analyzes the behavioral state on the body. The state analysis apparatus of Patent Literature 4 calculates normalized sensor information and a moving average based on information about the movement and posture of the observation target obtained by the sensor. Based on the difference between the value of the moving average and the normalized sensor information and a predetermined threshold, it is determined whether the observation target person is in the supine position, sitting position, standing position, walking, or wheelchair running. Non-Patent Document 2 discloses a technique for identifying seven types of actions using the average, standard deviation, and energy of accelerations obtained from acceleration sensors mounted at six locations as feature quantities. The technique of Non-Patent Document 2 is considering improvement of the action identification rate by applying two speaker adaptation techniques of MAP estimation method and MLLR method used in speech recognition.

また、発明者らは、非特許文献3において、加速度センサの出力データから種々の行動を認識するために用いる特徴量の妥当性を検討している。発明者らは、非特許文献3の中で、MFCC(Mel−Frequency Cepstral Coefficients)とその一次動的特徴量や二次動的特徴量を考慮した特徴量を用い、その周波数特性を最適化することにより、行動の認識率を向上させる技術を開示している。   In addition, in the Non-Patent Document 3, the inventors have examined the validity of the feature amount used for recognizing various actions from the output data of the acceleration sensor. Inventors use MFCC (Mel-Frequency Cepstial Coefficients) and feature quantities considering its primary and secondary dynamic feature quantities in Non-Patent Document 3, and optimize their frequency characteristics. The technology which improves the recognition rate of action is disclosed.

特開2003−61935号公報JP 2003-61935 A 特開2005−114537号公報JP 2005-114537 A 特開2008−173250号公報JP 2008-173250 A 特開2006−116325号公報JP 2006-116325 A

倉沢央,川原圭博,森川博之,青山友紀「センサ装着場所を考慮した3軸加速度センサを用いた姿勢推定手法」,情報処理学会研究報告2006−UBI−11−(3),Vol.2006.No.54,pp.15−22,2006年Kurasawa Hiroshi, Kawahara Akihiro, Morikawa Hiroyuki, Aoyama Yuki “Attitude Estimation Method Using 3-Axis Accelerometer Considering Sensor Placement”, Information Processing Society of Japan Research Report 2006-UBI-11- (3), Vol. 2006. No. 54, pp. 15-22, 2006 橋田尚幸,大村廉,今井倫太「加速度センサを用いた日常行動識別における個人適応技術の識別精度への貢献」,情報処理学会研究報告2008−UBI−19−(13),Vol.2008.No.66,pp.69−74,2008年Naoyuki Hashida, Ren Omura, Ryota Imai “Contribution to identification accuracy of personal adaptation technology in daily behavior identification using acceleration sensor”, Information Processing Society of Japan Research Report 2008-UBI-19- (13), Vol. 2008. No. 66, pp. 69-74, 2008 竹内伸一,伊藤真也,田村哲嗣,速水悟「加速度情報を用いた日常行動認識について」,電子情報通信学会 信学技報,vol.108,no.453,CAS2008−142,pp.229−234,2009年Shinichi Takeuchi, Shinya Ito, Tetsugo Tamura, Satoru Hayami “Recognition of Daily Behavior Using Acceleration Information”, IEICE Technical Report, vol. 108, no. 453, CAS 2008-142, pp. 229-234, 2009

従来の行動解析技術では、解析対象とする行動パターンを1種類から数種類程度に限定した上で、センサによってユーザの動きや姿勢を計測し、得られたデータが解析対象の行動パターンに当てはまるか否かを正確に識別することを目的としている。あるいは、「歩く」「走る」等の特定の行動のより詳細な個体差や特徴を検出するための方法若しくは手段を提供することを目的としている。   In the conventional behavior analysis technology, the behavior pattern to be analyzed is limited to one to several types, and the user's movement and posture are measured by a sensor, and whether the obtained data is applicable to the behavior pattern to be analyzed. The purpose is to identify exactly. Alternatively, an object is to provide a method or means for detecting more detailed individual differences or characteristics of specific actions such as “walking” and “running”.

しかしながら、人間の日常の行動を小数のパターンに分類することは困難であり、未だ分類が行われていない行動は数多く存在する。分類が行われていない行動は、センサによる計測値から行動を識別できる識別パターンや識別モデルが定義されていない場合が大部分であるが、このような行動を従来の解析技術によって解析しようとした場合には、以下のような多くの作業が必要となる。   However, it is difficult to classify human daily behavior into a small number of patterns, and there are many behaviors that have not yet been classified. The behavior that has not been classified is mostly the case where the identification pattern or identification model that can identify the behavior is not defined from the measured value by the sensor, but this behavior was tried to be analyzed by the conventional analysis technology. In some cases, a lot of work is required.

従来の解析装置によって行動を解析するには、最初に、解析しようとする行動の一連の内容を含むカテゴリの設定を行う。次に、ある一定の時間間隔で解析対象となる行動を計測した大量の計測データを用意する。そしてこの計測データに含まれる情報を処理して行動を表す特徴量を抽出し、解析装置に特徴量を学習させることで識別パターンや識別モデルを定義する必要がある。このように、従来の行動解析技術で新たな行動を定義して解析するには、非常な労力が必要とされている。このため、より効率よく新たな行動の識別と分類とを行うことのできる技術が求められていた。   In order to analyze an action by a conventional analysis device, first, a category including a series of contents of the action to be analyzed is set. Next, a large amount of measurement data is prepared by measuring the behavior to be analyzed at a certain time interval. Then, it is necessary to define the identification pattern and the identification model by processing the information included in the measurement data, extracting the feature amount representing the behavior, and causing the analysis device to learn the feature amount. In this way, a great deal of effort is required to define and analyze new behaviors using conventional behavior analysis techniques. For this reason, the technique which can identify and classify | categorize a new action more efficiently was calculated | required.

また従来、センサから出力されるデータのクラスタリングでは、特徴量の空間に対して評価関数を定めて、最適なカテゴリ数や最適な分類を求める手法が広く行われてきた。しかしながら、加速度センサから得られる情報は姿勢の情報と動きの情報が混在しているという制約があり、クラスタリングの障害となる場合があった。このため、姿勢と動きの情報が混在する時系列情報を用いて、より正確に行動の識別と解析を行う技術が要求されていた。   Conventionally, in clustering of data output from sensors, a method has been widely used in which an evaluation function is defined for a feature space to obtain an optimal number of categories and an optimal classification. However, there is a limitation that the information obtained from the acceleration sensor is a mixture of posture information and motion information, which may be an obstacle to clustering. For this reason, there has been a demand for a technique for more accurately identifying and analyzing actions using time-series information in which posture and movement information are mixed.

本発明は上記問題点に鑑みてなされたものであって、人間の行動を最適に分類し、これまでセンサによる計測データとの関連付けが充分なされていない行動であっても、より効率よく高精度に識別して解析する行動解析装置及び行動解析プログラムを提供するためになされたものである。   The present invention has been made in view of the above problems, and classifies human behavior optimally, and even if it is behavior that has not been sufficiently correlated with measurement data by a sensor so far, it is more efficient and highly accurate. It is made in order to provide the behavior analysis apparatus and behavior analysis program which identify and analyze.

本発明の行動解析装置は、人体に装着される3軸加速度から出力される加速度データを用いて人体の行動を解析する解析手段と、記憶手段とを備えている。解析手段は、基本行動パターン定義部と、拡張行動パターン認識部とを備えている。基本行動パターン定義部は、連続して出力され時系列データとして蓄積される加速度データの経時的変化に含まれる人体の動きの特徴量と人体の姿勢の特徴量とを分離し、予め定められている基本行動と各々の特徴量との関連づけを行い、基本行動パターンの動きと姿勢の特徴量から成るモデルを定義して、モデルを記憶手段に記憶する。拡張行動パターン定義部は、基本行動パターンのモデルを利用して、新たに時系列データとして蓄積された加速度データを分離する加工を行い、加工された加速度データをクラスタリングして拡張行動パターンを認識することを特徴とする。   The behavior analysis apparatus according to the present invention includes analysis means for analyzing the behavior of the human body using acceleration data output from triaxial acceleration attached to the human body, and storage means. The analysis means includes a basic action pattern definition unit and an extended action pattern recognition unit. The basic behavior pattern definition unit separates the feature quantity of the human body motion and the feature quantity of the human body posture included in the temporal change of the acceleration data continuously output and accumulated as time series data, and is determined in advance. The basic action is associated with each feature quantity, a model composed of the basic action pattern movement and the posture feature quantity is defined, and the model is stored in the storage means. The extended action pattern definition unit uses the basic action pattern model to perform processing to separate newly accumulated acceleration data as time-series data, and clusters the processed acceleration data to recognize the extended action pattern It is characterized by that.

本発明の基本行動パターン定義部は、時系列データとして蓄積された加速度データに含まれる特徴量の分布に基づいて人体の動きの特徴量と姿勢の特徴量とを分離することを特徴とする。   The basic behavior pattern definition unit of the present invention is characterized in that the feature quantity of the human body motion and the feature quantity of the posture are separated based on the distribution of the feature quantity included in the acceleration data accumulated as time series data.

また本発明の基本行動パターン定義部は、高周波数領域の加速度データを人体の動きの情報とし、低周波数領域の加速度データを人体の姿勢の情報として分離した後にそれぞれの特徴量を求めることを特徴とする。   The basic behavior pattern definition unit of the present invention obtains each feature amount after separating acceleration data in a high frequency region as human body motion information and low frequency region acceleration data as human body posture information. And

本発明の拡張行動パターン認識部は、加速度データの経時的変化に含まれる人体の動きの特徴量と人体の姿勢の特徴量とを分離し、各々の特徴量を単位時間ごとに分割することで加速度データを分解して基本要素モデルを作成することを特徴とする。   The extended action pattern recognition unit of the present invention separates the feature quantity of the human body motion and the feature quantity of the human body posture included in the temporal change of the acceleration data, and divides each feature quantity for each unit time. A basic element model is created by decomposing acceleration data.

また本発明の拡張行動パターン認識部は、分解する加工が行われた加速度データの特徴量を併合するデータ加工を行うことを特徴とする。   Further, the extended action pattern recognition unit of the present invention is characterized in that data processing is performed to merge feature values of acceleration data that has been processed to be decomposed.

更に本発明の拡張行動パターン認識部は、新たに蓄積される加速度データの経時的変化を、基本行動パターンのモデルと基本要素モデルとを照合して、基本行動パターンに定義されていない行動パターンを表す動きの特徴量と姿勢の特徴量とを検出し、新たな拡張行動パターンのモデルを定義し、関連する定量的計測を行って前記新たな拡張行動パターンを認識することを特徴とする。   Furthermore, the extended action pattern recognition unit of the present invention collates a time-dependent change of newly accumulated acceleration data with a basic action pattern model and a basic element model to obtain an action pattern that is not defined in the basic action pattern. A feature amount of a motion to be represented and a feature amount of a posture are detected, a new extended action pattern model is defined, and related quantitative measurement is performed to recognize the new extended action pattern.

本発明は更にまた、行動解析プログラムを提供する。本発明の行動解析プログラムは、人体に装着される3軸加速度センサから連続して出力される任意の行動を表す加速度データを時系列データとして蓄積する手順と、加速度データの経時的変化に含まれる人体の動きの特徴量と人体の姿勢の特徴量とを分離する手順と、予め定められている基本行動と各々の前記特徴量との関連づけを行い、基本行動パターンの特徴量から成るモデルを定義する手順と、モデルを記憶手段に記憶する手順と、基本行動パターンの前記モデルを利用して、新たに時系列データとして蓄積される加速度データを分離する加工を行う手順と、加工された加速度データをクラスタリングして拡張行動パターンを認識する手順とをコンピュータに実行させることを特徴とする。   The present invention further provides a behavior analysis program. The behavior analysis program of the present invention is included in a procedure for accumulating acceleration data representing arbitrary behavior continuously output from a three-axis acceleration sensor attached to a human body as time-series data, and a change with time of the acceleration data. Define the model consisting of the basic behavior pattern features by associating the procedure that separates the features of human movement and the features of the posture of the human body with the basic behaviors that have been determined in advance. A procedure for storing the model in the storage means, a procedure for performing processing for separating acceleration data newly accumulated as time-series data using the model of the basic behavior pattern, and processed acceleration data And a procedure for recognizing an extended action pattern by clustering the computer.

本発明の行動解析装置は、加速度センサが出力した加速度データから、人体の動きの特徴量と姿勢の特徴量とを分離して解析することにより、より正確に行動を識別して解析することが可能である。   The behavior analysis apparatus according to the present invention can identify and analyze a behavior more accurately by separating and analyzing the feature quantity of the human body motion and the feature quantity of the posture from the acceleration data output from the acceleration sensor. Is possible.

本発明の行動解析装置の拡張行動パターン認識部によって、モデルが定義されていない行動のモデルを自動的に定義してその行動の定量的な解析を行うことが可能となる。これにより、解析に係る作業量が軽減されてより迅速且つ効率的に行動解析を行うことができる。またこれにより、より多様な行動パターンの認識と定量的な解析が容易になる。   The extended behavior pattern recognition unit of the behavior analysis device of the present invention can automatically define a behavior model for which no model is defined and perform quantitative analysis of the behavior. As a result, the amount of work involved in the analysis is reduced, and behavior analysis can be performed more quickly and efficiently. This also facilitates the recognition and quantitative analysis of more diverse behavior patterns.

図1は、3軸加速度センサを装着した被験者が横臥している状態を模式的に示す図である。FIG. 1 is a diagram schematically showing a state in which a subject wearing a triaxial acceleration sensor is lying on the side. 図2は、加速度センサが出力した「歩く」行動で検出される加速度を時系列で蓄積したデータを示している。FIG. 2 shows data obtained by accumulating acceleration detected by the “walking” action output from the acceleration sensor in time series. 図3は、加速度センサが出力した「椅子に座る」行動で検出される加速度を時系列で蓄積したデータを示している。FIG. 3 shows data obtained by accumulating accelerations detected by the action of “sitting on a chair” output from the acceleration sensor in time series. 図4は、加速度センサが出力した「椅子から立つ」行動で検出される加速度を時系列で蓄積したデータを示している。FIG. 4 shows data obtained by accumulating acceleration detected by the action “standing from a chair” output from the acceleration sensor in time series. 図5は、加速度センサが出力した「ベッドに寝る」行動で検出される加速度を時系列で蓄積したデータを示している。FIG. 5 shows data obtained by accumulating the acceleration detected by the “sleeping in bed” action output from the acceleration sensor in time series. 図6は、加速度センサが出力した「ベッドから起きる」行動で検出される加速度を時系列で蓄積したデータを示している。FIG. 6 shows data obtained by accumulating acceleration detected by the action “getting out of bed” output from the acceleration sensor in time series. 図7は、実施の形態で示される基本行動パターン定義部が行う手順のフローチャートである。FIG. 7 is a flowchart of a procedure performed by the basic action pattern definition unit shown in the embodiment. 図8は、「歩く」行動の加速度データを周波数分析した結果をx、y、z成分毎に示す図である。FIG. 8 is a diagram showing the results of frequency analysis of acceleration data of “walking” behavior for each x, y, and z component. 図9は、基本行動パターン定義部が予め記憶している「歩く」行動に適用する姿勢の特徴量と動きの特徴量の例を示す図である。FIG. 9 is a diagram illustrating examples of posture feature values and motion feature values applied to the “walking” behavior stored in advance by the basic behavior pattern definition unit. 図10は、基本行動パターンのモデルを定義するデータの一例である。FIG. 10 is an example of data defining a basic behavior pattern model. 図11は、拡張行動パターン認識部が拡張行動パターンを学習するまでの手順のフローチャートである。FIG. 11 is a flowchart of a procedure until the extended action pattern recognition unit learns an extended action pattern. 図12は、拡張行動パターン認識部が拡張行動パターンを認識するまでの手順のフローチャートである。FIG. 12 is a flowchart of a procedure until the extended action pattern recognition unit recognizes an extended action pattern. 図13は、拡張行動パターン認識部の処理によって新たに認識された行動の加速度データとモデルとを示す図である。FIG. 13 is a diagram showing acceleration data and a model of an action newly recognized by the process of the extended action pattern recognition unit. 図14は、本実施の形態の行動解析装置が認識した行動を出力する画面の一例を示す図である。FIG. 14 is a diagram illustrating an example of a screen that outputs the behavior recognized by the behavior analysis device according to the present embodiment. 図15は、拡張行動パターン認識部が拡張行動パターンに関連する行動の定量的計測を行うまでの手順のフローチャートである。FIG. 15 is a flowchart of a procedure until the extended action pattern recognition unit performs quantitative measurement of actions related to the extended action pattern. 図16は、行動解析装置の構成を模式的に示すブロック図である。FIG. 16 is a block diagram schematically illustrating the configuration of the behavior analysis apparatus.

以下に、本発明を実施する好適な形態の一例として、「歩く」「椅子に座る」「椅子から立つ」「ベッドに寝る」「ベッドから起きる」「停止する」の6種類の行動を基本行動と定めて、被験者に装着した3軸加速度センサのデータを用いて基本行動パターンのモデルを定義し、更に新たに入力した3軸加速度センサのデータから基本行動に分類されない行動のパターンを拡張行動パターンとして認識してモデルを定義する解析装置について、図面を参照しつつ詳細に説明する。   In the following, as an example of a preferred embodiment for carrying out the present invention, six types of behaviors of “walking”, “sitting in a chair”, “standing from a chair”, “sleeping on a bed”, “getting up from a bed”, and “stopping” are basic behaviors The basic behavior pattern model is defined using the data of the triaxial acceleration sensor worn by the subject, and the behavior pattern that is not classified as the basic behavior is newly defined from the newly input triaxial acceleration sensor data. An analysis apparatus that recognizes and defines a model will be described in detail with reference to the drawings.

本実施の形態における行動解析装置の構成を図16に模式的に示す。行動解析装置は1台のコンピュータ3で構成されており、CPU4と記憶手段5とがこのコンピュータ3に内蔵されている。解析手段の基本行動パターン定義部と拡張行動パターン認識部とは、コンピュータ3の記憶手段にプログラムとして記憶されており、必要な処理をコンピュータ3のCPU4で実行する。   The configuration of the behavior analysis apparatus in the present embodiment is schematically shown in FIG. The behavior analysis apparatus is composed of one computer 3, and the CPU 4 and the storage means 5 are built in the computer 3. The basic action pattern definition unit and the extended action pattern recognition unit of the analysis unit are stored as programs in the storage unit of the computer 3, and necessary processing is executed by the CPU 4 of the computer 3.

本実施の形態において、被験者2の体に装着されて検出した加速度を連続して出力する3軸加速度センサ1には、無線通信機能を備えた3軸加速度センサが利用されている。加速度センサ1は、検出した加速度を、センサに定義されている3次元(x、y、z)の直交座標系の成分値として出力し、無線通信によって行動解析装置のコンピュータに送信する。この加速度センサ1のサンプリング周波数は、最大100Hzである。加速度センサ1は、図1に示すように被験者2の腰に装着して加速度の検出を行った。加速度センサ1は小型であるため、被験者2の行動の障害となることがない。   In the present embodiment, a triaxial acceleration sensor having a wireless communication function is used as the triaxial acceleration sensor 1 that continuously outputs the acceleration detected by being mounted on the body of the subject 2. The acceleration sensor 1 outputs the detected acceleration as a component value of a three-dimensional (x, y, z) orthogonal coordinate system defined in the sensor, and transmits the component value to the computer of the behavior analysis device by wireless communication. The sampling frequency of the acceleration sensor 1 is a maximum of 100 Hz. As shown in FIG. 1, the acceleration sensor 1 was mounted on the waist of the subject 2 to detect acceleration. Since the acceleration sensor 1 is small, it does not obstruct the behavior of the subject 2.

基本行動パターン定義部は、各々の基本行動パターンのモデルを定義するために、加速度センサ1によって出力された各々の行動の加速度データに対して、以下に示す処理を行って多次元の特徴量を抽出し、この特徴量で構成されるモデルを定義する。基本行動パターン定義部が基本行動パターンのモデルを定義するまでの手順のフローチャートを、図7に示す。   The basic action pattern definition unit performs the following processing on the acceleration data of each action output by the acceleration sensor 1 to define a multi-dimensional feature value in order to define each basic action pattern model. Extract and define a model composed of these features. FIG. 7 shows a flowchart of a procedure until the basic action pattern definition unit defines a model of the basic action pattern.

図7のステップ1で、基本行動パターン定義部は、加速度センサ1が検出し時系列で蓄積した加速度データを、加速度の検出時に操作者が入力した情報に基づいて基本行動毎に区分化し、行動のラベル付けを行う。図2〜図6に、行動毎に分割されて基本行動名がラベルとして付された加速度データを示す。加速度データは、x、y、zの直交する3方向の成分として出力されている。図2は、「歩く」行動で検出される加速度を時系列で蓄積したデータを示している。図3は、「椅子に座る」行動で検出される加速度を時系列で蓄積したデータを示している。図4は、「椅子から立つ」行動で検出される加速度を時系列で蓄積したデータを示している。図5は、「ベッドに寝る」行動で検出される加速度を時系列で蓄積したデータを示している。図6は「ベッドから起きる」行動で検出される加速度を時系列で蓄積したデータを示している。尚、基本行動としてはこのほかに「停止する」行動が定義されるが、完全に停止している場合に加速度センサ1から出力されるデータは重力加速度のみであるため、本実施の形態では、行動パターンのモデル化を省略している。   In step 1 of FIG. 7, the basic behavior pattern definition unit divides the acceleration data detected by the acceleration sensor 1 and accumulated in time series into basic behaviors based on information input by the operator when detecting acceleration. Label the. 2 to 6 show acceleration data divided for each action and labeled with a basic action name as a label. The acceleration data is output as components in three orthogonal directions of x, y, and z. FIG. 2 shows data obtained by accumulating accelerations detected by “walking” behavior in time series. FIG. 3 shows data obtained by accumulating accelerations detected by the action of “sitting on a chair” in time series. FIG. 4 shows data obtained by accumulating the acceleration detected by the action “standing from the chair” in time series. FIG. 5 shows data obtained by accumulating acceleration detected in the “sleeping on bed” behavior in time series. FIG. 6 shows data obtained by accumulating acceleration detected in the action “getting up from bed” in time series. In addition, although a “stop” action is defined as the basic action, the data output from the acceleration sensor 1 when it is completely stopped is only the gravitational acceleration. Modeling behavior patterns is omitted.

基本行動パターン定義部は、行動毎に区分化された加速度データを用いて、フーリエ変換などの周波数分析を行う。あるいは区分化された加速度データに対して、単位時間毎の演算処理を行うこともできる。この場合には、処理を行う前の加速度の標本化周期で、データが得られる。この処理によって加速度データから得られる特徴量は以下のように定義することができる。ここで、tは区分化された加速度データのフレーム番号(単位時間当たりの処理を行う場合は時刻)を表している。特徴量は各軸についてJ次元のものを、加速度の軸の方向x,y,zに並べたK=3J次元のベクトルデータとして扱う。K次元の特徴量ベクトルcは、フレームtごとに得られる。この全体をCと表す。
The basic action pattern definition unit performs frequency analysis such as Fourier transform using acceleration data segmented for each action. Alternatively, arithmetic processing for each unit time can be performed on the segmented acceleration data. In this case, data is obtained at the sampling period of acceleration before processing. The feature amount obtained from the acceleration data by this processing can be defined as follows. Here, t represents the frame number of the segmented acceleration data (time when processing per unit time is performed). The feature quantity is treated as vector data of K = 3J dimension in which the J dimension for each axis is arranged in the directions x, y, z of the acceleration axis. A K-dimensional feature vector ct is obtained for each frame t. This whole is represented as C.

次に基本行動パターン定義部は、基本行動パターンを表すモデルの学習に用いるモデルの定義を行う。本実施形態の基本行動パターン定義部は、モデルを以下のように定義している。以下において、mは基本行動パターンを表すためのモデル番号である。本実施の形態では基本行動の種類が6種類であるため、モデル数Mは最大6となる。sは、ある一定の継続時間をもつ行動パターンであり、その状態数をSとしている。モデル番号mの状態sにおける特徴量の生起確率のパラメータBを以下の式で表す。
Next, the basic action pattern definition unit defines a model used for learning a model representing the basic action pattern. The basic action pattern definition unit of the present embodiment defines the model as follows. In the following, m is a model number for representing a basic action pattern. In this embodiment, since there are six types of basic actions, the number of models M is six at the maximum. s is an action pattern having a certain duration, and the number of states is S. A parameter B m of the occurrence probability of the feature amount in the state s of the model number m is expressed by the following equation.

このとき、観測された特徴量Cがモデルmから生起した確率をPとする。Pが最大となるモデル番号を求め、このモデル番号を、認識された行動パターンのカテゴリとする。すなわち、行動パターンのカテゴリを表す式は、以下で示される。
At this time, let P m be the probability that the observed feature quantity C occurred from the model m. A model number that maximizes P m is obtained, and this model number is set as the category of the recognized action pattern. In other words, an expression representing the category of the behavior pattern is shown below.

基本行動パターンのモデルを定義するために隠れマルコフモデル(hidden Markov model)を適用する場合には、さらに状態間の遷移確率も併せて考慮する。生起確率に代えて、時間方向に特徴量の平均値を並べたものとの距離を用いるモデルや、DP(dynamic programming)マッチングによる時間伸縮を考慮したモデルを定義することもできる。特徴量の時系列データと、状態ごとの確率モデルとの対応付けを求めながら推定する方法としては、隠れマルコフモデルを適用した場合には,forward−backwardアルゴリズムを用いることができる。他の場合には、モデルと観測されたデータとの時間的な対応付け(alignment)を求める。そして、一定時間の区間に対応する特徴量の集合から、平均値などの統計量を求めて、モデルを定義することができる。   When a hidden Markov model is applied to define a basic behavior pattern model, the transition probability between states is also considered. Instead of the occurrence probability, a model that uses a distance from the average value of feature values arranged in the time direction, or a model that considers time expansion and contraction by DP (dynamic programming) matching can be defined. A forward-backward algorithm can be used as a method for estimating the time-series data of feature quantities and the probability model for each state while obtaining a hidden Markov model. In other cases, a temporal alignment between the model and the observed data is obtained. Then, a model can be defined by obtaining a statistic such as an average value from a set of feature values corresponding to a certain time interval.

基本行動パターン定義部は、図7のステップ2に示すように、基本行動パターン毎のモデルを定義するための学習を行う。このステップで行われる学習は教師あり学習である。学習に用いられるデータは、ステップ1で基本行動毎に区分化し、行動のラベル付けが行われた、時系列データとして蓄積されている加速度データである。基本行動パターン定義部は、このラベルと時系列の加速度データの経時的変化の値から得られる特徴量を用いて、行動パターンのモデルを学習する。隠れマルコフモデルを適用している場合には、EM(Expectation Maximization)アルゴリズムによってそのパラメータを学習する。   The basic action pattern definition unit performs learning for defining a model for each basic action pattern, as shown in Step 2 of FIG. The learning performed in this step is supervised learning. The data used for learning is acceleration data accumulated as time-series data that is divided into basic actions in step 1 and labeled with actions. The basic behavior pattern definition unit learns a behavior pattern model using the feature amount obtained from the value of this label and time-series acceleration data. When the hidden Markov model is applied, its parameters are learned by an EM (Expectation Maximization) algorithm.

基本行動パターン定義部は、ステップS3で、学習した時系列で蓄積されている加速度データの中に含まれる姿勢の情報と動きの情報とを分離する。そして、ステップS4で、姿勢のモデルと動きのモデルとを含む基本行動パターンのモデルを定義する。基本行動パターン定義部は、姿勢の情報と動きの情報を分離してそれぞれのモデルを定義するための手順を複数備えており、学習した加速度データの内容を検討していずれかの手順を実行する。   In step S3, the basic behavior pattern definition unit separates posture information and motion information included in the learned acceleration data accumulated in time series. In step S4, a basic behavior pattern model including a posture model and a motion model is defined. The basic action pattern definition unit has multiple procedures for defining each model by separating posture information and motion information, and examines the contents of learned acceleration data and executes one of the procedures. .

姿勢の情報と動きの情報を分離するための手順の一例は、加速度データの周波数分析を行って、低周波数の成分を姿勢の情報とし、高周波数の成分を動きの情報として分離するものである。図8に、「歩く」基本行動の加速度データについて周波数分析を行った結果をx、y、zの成分毎に示す。図8の横軸は周波数(Hz)であり、縦軸は各周波数のパワースペクトルを表している。本実施の形態における基本行動パターン定義部は、「歩く」行動のモデルで、0Hz以上1Hz以下の周波数領域に現れる波形を姿勢に由来する特徴量であると定義し、1Hzを超えて25Hz以下の周波数領域に現れる波形を動きに由来する特徴量であると定義して、姿勢のデータと動きのデータとを分離している。   An example of a procedure for separating posture information and motion information is to perform frequency analysis of acceleration data and separate low frequency components as posture information and high frequency components as motion information. . FIG. 8 shows the result of frequency analysis of the acceleration data of the “walking” basic action for each of the x, y, and z components. In FIG. 8, the horizontal axis represents frequency (Hz), and the vertical axis represents the power spectrum of each frequency. The basic behavior pattern definition unit in the present embodiment is a “walking” behavior model, and defines a waveform appearing in a frequency region of 0 Hz or more and 1 Hz or less as a feature amount derived from posture, and exceeds 1 Hz and is 25 Hz or less. A waveform appearing in the frequency domain is defined as a feature amount derived from motion, and posture data and motion data are separated.

また基本行動パターン定義部は、学習した加速度データに含まれる特徴量の分布に基づいて、姿勢の情報と動きの情報を分離する手順を実施することができる。図9に、本実施の形態の基本行動パターン定義部が予め加速度データの経時的変化の値として記憶している「歩く」行動に関する姿勢の特徴量と動きの特徴量の例を示す。   In addition, the basic behavior pattern definition unit can perform a procedure for separating posture information and motion information based on the distribution of feature values included in the learned acceleration data. FIG. 9 shows an example of the posture feature amount and the motion feature amount related to the “walking” behavior that the basic behavior pattern definition unit of the present embodiment stores in advance as the value of the temporal change in the acceleration data.

更に基本行動パターン定義部は、姿勢のデータと動きのデータを分離するための以下の手順を備えており、学習した加速度データの内容に応じて処理の内容を変更してステップS3の動きのモデルと姿勢のモデルの定義を行っている。   Further, the basic action pattern definition unit includes the following procedure for separating posture data and motion data, and changes the processing content according to the content of the learned acceleration data to change the motion model in step S3. And we define the model of posture.

例えば基本行動パターン定義部は、学習した加速度データの周波数分析を行った後、高周波数領域の成分を除去する時間領域でのフィルタリング操作を行う。そして、低周波数成分のみを抽出してこれを姿勢のモデルとして定義する。フィルタリング操作の具体的な処理の一例としては、加速度データの移動平均を求めて動き成分を除去する処理が挙げられる。更に、学習した加速度データについて、複数の情報が混合したものとして定式化を行って、その混合割合を推定し姿勢のデータと動きのデータの分離を行うことができる。隠れマルコフモデルの出力確率分布として、混合ガウス分布(混合ガウスモデル)を用いる場合などは、この処理によって姿勢のモデルと動きのモデルの定義が可能である。   For example, the basic behavior pattern definition unit performs a frequency analysis of the learned acceleration data, and then performs a filtering operation in the time domain that removes components in the high frequency domain. Then, only a low frequency component is extracted and defined as a posture model. As an example of a specific process of the filtering operation, there is a process of obtaining a moving average of acceleration data and removing a motion component. Furthermore, it is possible to formulate the learned acceleration data as a mixture of a plurality of information, estimate the mixing ratio, and separate posture data and motion data. When a mixed Gaussian distribution (mixed Gaussian model) is used as the output probability distribution of the hidden Markov model, the posture model and the motion model can be defined by this processing.

更にまた、基本行動パターン定義部に提供される学習データの動きに関する内容が、以下の通り選択されていた場合には、より容易に姿勢のデータと動きのデータの分離を行うことができる。すなわち、基本行動パターン定義部に、学習データとして姿勢やその変化パターンは同じであるが動きの速度や大きさが異なる複数のパターンを提示できた場合には、基本行動パターン定義部は、学習した複数のパターンにおける不変な成分を求めて、それを姿勢のモデルの成分として分離する処理を行うことができる。この処理では、基本行動パターン定義部の学習の負担が少なく、また定義されるモデルの精度がより高くなるという効果が得られる。   Furthermore, when the content related to the movement of the learning data provided to the basic action pattern definition unit is selected as follows, the posture data and the movement data can be more easily separated. That is, if the basic behavior pattern definition unit can present multiple patterns with the same posture and change pattern but different movement speed and size as learning data, the basic behavior pattern definition unit learned Processing that obtains invariant components in a plurality of patterns and separates them as components of the model of the posture can be performed. This process has the effect of reducing the learning burden of the basic action pattern definition unit and increasing the accuracy of the defined model.

基本行動パターン定義部は、ステップS5で、定義した基本行動パターンのモデルをコンピュータの記憶手段に記憶させる。基本行動パターンの混合ガウス分布によるモデルのデータの一例を、図10に示す。図10のデータには、最初に基本行動の名称ラベルが記載されている。更に、データの中には、基本行動パターンのモデルを定義するための、<状態数><状態><混合数><混合><平均><分散>の各項目が含まれている。<状態数>の項目には、記憶されている状態の個数の情報が記載されている。<状態>の項目には記憶されている状態の番号の情報が記載されている。<混合数>の項目には、記憶されている混合ガウス分布の個数の情報が記載されている。<混合>の項目には、記憶されている混合ガウス分布の番号の情報が記載されている。<平均>および<分散>の項目には、記憶されている混合ガウス分布の特徴量の情報が記載されている。   In step S5, the basic behavior pattern definition unit stores the defined basic behavior pattern model in the storage means of the computer. An example of model data based on a mixed Gaussian distribution of basic behavior patterns is shown in FIG. In the data shown in FIG. 10, the name label of the basic action is first described. Further, the data includes items of <number of states>, <states>, <number of mixtures>, <mixture>, <average>, and <variance> for defining a model of a basic action pattern. In the item <number of states>, information on the number of states stored is described. In the <state> item, information on the number of the stored state is described. In the item <number of mixtures>, information on the number of stored Gaussian distributions is described. In the <mixing> item, information of the number of the stored Gaussian distribution is described. In the items <average> and <variance>, information on the stored characteristic quantities of the Gaussian distribution is described.

拡張行動パターン認識部は、これまでのステップで基本行動パターン定義部が作成した基本行動パターンのモデルを利用して、新たに蓄積される加速度データを加工し、基本行動パターンから派生する姿勢と動きのパターンを認識して、新たな行動パターンである拡張行動パターンを認識するためのモデルを作成する。図11に、拡張行動パターン認識部が行う手順のフローチャートを示す。以下フローチャートに従って、詳細な説明を行う。   The extended behavior pattern recognition unit uses the basic behavior pattern model created by the basic behavior pattern definition unit in the previous steps to process the newly accumulated acceleration data, and the posture and motion derived from the basic behavior pattern And a model for recognizing the extended action pattern, which is a new action pattern, is created. FIG. 11 shows a flowchart of a procedure performed by the extended action pattern recognition unit. A detailed description will be given below according to the flowchart.

拡張行動パターン認識部は、ステップS11で、新たに追加された加速度データを学習する。そしてステップS12で、基本行動パターンのモデルを再度学習する。拡張行動パターン認識部は、ステップS12の再学習の際に、新たに追加された学習データを、6種類の基本行動パターンの行動に対応付けて、学習データの部分集合を作成する。次に拡張行動パターン認識部は、ステップS13で、再学習された基本行動パターンのモデルを単位時間ごとに分割することで基本行動パターンのモデルを分解して、要素モデルを作成する。本実施の形態における拡張行動パターン認識部は、基本行動パターンのモデルを、1秒単位に区切ることで分解する。   In step S11, the extended behavior pattern recognition unit learns newly added acceleration data. In step S12, the basic behavior pattern model is learned again. The extended behavior pattern recognition unit creates a subset of learning data by associating the newly added learning data with the behaviors of the six basic behavior patterns at the time of relearning in step S12. Next, in step S13, the extended action pattern recognition unit divides the re-learned model of the basic action pattern for each unit time, thereby decomposing the model of the basic action pattern and creating an element model. The extended action pattern recognition unit in the present embodiment decomposes the basic action pattern model by dividing it into units of one second.

更に拡張行動パターン認識部は、ステップS14で、単位時間ごとに細分化された要素モデルを、特徴量の分布により更に細分化する。そしてステップS15で、細分化されたモデルを統合(クラスタリング)して拡張行動パターンを記述するための基本要素モデルを作成する。基本要素モデルの統合を、ボトムアップの統合法によって行う手順を以下に述べる。   Further, in step S14, the extended behavior pattern recognition unit further subdivides the element model subdivided for each unit time according to the distribution of the feature amount. In step S15, a basic element model for describing the extended action pattern is created by integrating (clustering) the subdivided models. The procedure for integrating the basic element model using the bottom-up integration method is described below.

ステップS16では、拡張行動パターンを記述する基本要素モデルを、それまでに得られた要素モデルの集合の中から、最適な部分集合の組み合わせを求めることによって行う。すなわち、ステップS15までの段階で得られた要素モデルは、追加された学習データに含まれるパターンに対して、時間的な細分化と、特徴量の分布による細分化を行ったものであるので、それらの組み合わせの中で、追加された学習データを表す最適な組み合わせを求める。   In step S16, a basic element model describing an extended action pattern is obtained by obtaining an optimal combination of subsets from a set of element models obtained so far. That is, the element model obtained in the stage up to step S15 is obtained by performing temporal subdivision and subdivision by distribution of feature amounts on the pattern included in the added learning data. Among these combinations, an optimum combination representing the added learning data is obtained.

学習データを表すために要素モデルの全ての組み合わせを求めるのは、計算量が非常に多くなるので、クラスタリング手法において一般的に用いられるボトムアップの統合法を適用する。クラスタリングの開始段階での要素モデル数をNとする。はじめに、要素モデルのうち、統合することによって評価基準が最大となる2つのモデルを選択して統合する。このとき、要素モデル数はN−1となる。以下、要素モデル数が、あらかじめ定めた数Lになるまで、この処理を繰り返す。統合された元の要素モデルの集合を部分集合として考えれば、クラスタリングの開始段階におけるN個の要素モデルをL個の排他的な部分集合への分割方法を求めていることになる。   Finding all combinations of element models to represent learning data requires a large amount of computation, so a bottom-up integration method generally used in clustering methods is applied. Let N be the number of element models at the start of clustering. First, of the element models, two models that maximize the evaluation criteria by being integrated are selected and integrated. At this time, the number of element models is N-1. Thereafter, this process is repeated until the number of element models reaches a predetermined number L. Considering the set of integrated original element models as a subset, it means that a method for dividing N element models into L exclusive subsets at the start of clustering is obtained.

拡張行動パターン認識部が行うステップS14の分解とステップS15統合の手順では、モデルあるいはモデルの部分集合に対する処理の妥当性を評価するための基準が必要になる。行動パターンを定義するために確率的なモデルを用いている場合には、学習データがそのモデルを説明している程度を表す尺度として、尤度を用いることができる。又、モデルの集合の全体を、独立の行動の部分集合の組み合わせに分割したときに、モデルの集合の分離の良さを、モデルの集合であるクラスと他のモデルの集合であるクラスの間の分散と、クラス内の分散の比によって表すことが可能である。さらに、識別のためのモデルとして、独立のクラスの部分集合の組み合わせを用いた場合の識別性能を評価基準とすることが可能である。このように妥当性が評価されたモデルは、ステップS16で基本要素モデルとして定義され一時記憶される。   In the procedure of step S14 decomposition and step S15 integration performed by the extended action pattern recognition unit, a criterion for evaluating the validity of the process for the model or a subset of the model is required. When a probabilistic model is used to define the behavior pattern, the likelihood can be used as a measure representing the degree to which the learning data describes the model. In addition, when the entire model set is divided into a combination of subsets of independent actions, the goodness of separation of the model set is determined between the class that is the model set and the class that is the set of other models. It can be represented by the ratio of the variance and the variance within the class. Furthermore, as a model for identification, it is possible to use the identification performance when a combination of subsets of independent classes is used as an evaluation criterion. The model whose validity has been evaluated in this way is defined and temporarily stored as a basic element model in step S16.

拡張行動パターンを認識するための基本要素モデルを作成し定義した拡張行動パターン定義部は、新たな行動パターンである拡張行動パターンの認識手順を行う。拡張行動パターンの認識手順を図12に示す。拡張行動パターン認識部は、ステップS21で新たに時系列で蓄積される加速度データを取得する。そしてステップS22で、この加速度データと基本行動パターンのモデル及び作成した基本要素モデルとの照合を行う。拡張行動パターン認識部は、ステップS23で、基本行動パターンに定義されておらず、且つ基本要素モデルに該当する行動パターンを検出し、新たな行動パターンとしてクラス名を付して、その開始時間と終了時間と尤度とを特定する。なお、図12のステップS23に記載するイベントとは、行動パターンの新たな分類、あるいは自動的に形成された行動のクラスに相当する行動パターンのことである。拡張行動パターン認識部は、ステップS24で、特定した新たな行動パターンを拡張行動パターンとして認識し、そのモデルを定義する。   An extended action pattern definition unit that creates and defines a basic element model for recognizing an extended action pattern performs a procedure for recognizing an extended action pattern that is a new action pattern. The procedure for recognizing the extended action pattern is shown in FIG. The extended behavior pattern recognition unit acquires acceleration data newly accumulated in time series in step S21. In step S22, the acceleration data is compared with the basic behavior pattern model and the created basic element model. In step S23, the extended action pattern recognition unit detects an action pattern that is not defined in the basic action pattern and corresponds to the basic element model, assigns a class name as a new action pattern, and sets the start time and Specify end time and likelihood. The event described in step S23 of FIG. 12 is a behavior pattern corresponding to a new classification of behavior patterns or an automatically formed behavior class. In step S24, the extended action pattern recognition unit recognizes the identified new action pattern as an extended action pattern, and defines the model.

拡張行動パターン認識部が、図12の手順によって新たに認識した行動パターンの例を図13に挙げる。図13に挙げた行動パターンは、立った状態で停止していた被験者2が、横臥して静止するまでの中間過程の行動を認識した一例である。図13に示される一連の加速度の計測値から、「腰を下ろす」「向きを変える」「腰をずらす」「状態を倒す」という一連の拡張行動パターンのカテゴリが認識された。   An example of an action pattern newly recognized by the extended action pattern recognition unit by the procedure of FIG. 12 is given in FIG. The behavior pattern shown in FIG. 13 is an example in which the subject 2 who has stopped in a standing state has recognized the behavior of an intermediate process until lying down and standing still. From the series of acceleration measurement values shown in FIG. 13, a series of extended action pattern categories such as “sit down”, “change direction”, “shift hips”, and “depress state” were recognized.

図14に、本実施の形態の行動解析装置の拡張行動パターン認識部が認識した行動を表示装置6の出力する画面の一例を示す。画像の右側には、経過時間と拡張行動パターン認識部が認識した行動のカテゴリが表示される。又画面の左側には、現在加速度センサ1を装着している被験者2の行動の画像を、必要に応じて表示することができる。   In FIG. 14, an example of the screen which the display apparatus 6 outputs the action which the extended action pattern recognition part of the action analysis apparatus of this Embodiment recognized is shown. On the right side of the image, the elapsed time and the action category recognized by the extended action pattern recognition unit are displayed. On the left side of the screen, an image of the behavior of the subject 2 who is currently wearing the acceleration sensor 1 can be displayed as necessary.

拡張行動パターン認識部は、図15に示すように、新たな行動パターンを認識するだけではなく、新たな行動パターンに含まれる動きの特徴量と姿勢の特徴量とを検出し、新たな拡張行動パターンに関連する姿勢や動きの定量的計測を行って新たな行動をより詳細に記述する処理を行うことができる。ここで、動きの特徴量と姿勢の特徴量の検出と分離は、先に基本行動パターン定義部がステップ3で行った手順と同一の手順によって行うことができる。このような拡張行動パターンの認識を繰り返すことによって、新たな行動パターンを記述するための独立なクラスを代表するモデルの集合を得ることができる。クラス数は,最初に定義された6種類の基本行動パターンのカテゴリ数よりも大きくなり、拡張行動パターン認識部による処理の手順を繰り返すことにより、多くの新たな行動を自動的に認識することができる。   As shown in FIG. 15, the extended action pattern recognition unit not only recognizes a new action pattern, but also detects a feature quantity of a motion and a feature quantity of a posture included in the new action pattern, and creates a new extension action It is possible to perform a process for describing the new behavior in more detail by quantitatively measuring the posture and movement related to the pattern. Here, the detection and separation of the motion feature value and the posture feature value can be performed by the same procedure as the procedure previously performed in step 3 by the basic action pattern definition unit. By repeating such recognition of the extended behavior pattern, a set of models representing independent classes for describing a new behavior pattern can be obtained. The number of classes is larger than the number of categories of the six basic action patterns defined at the beginning, and many new actions can be automatically recognized by repeating the processing procedure by the extended action pattern recognition unit. it can.

このように、本実施の形態の行動解析装置は、基本行動パターンのモデルにおいて、姿勢のモデルと動きのモデルの分離を行っている。このため、新たな拡張行動パターンを認識する場合においても、姿勢の認識と動きの認識を別々に行うことが可能となる。又、拡張行動パターンによる行動の定量化の別の側面は、認識の結果として得られる時間軸上の位置に関する情報の利用を可能とする点にある。すなわち、その行動パターンの継続時間、頻度、行動と行動の間の時間間隔等が定量的な情報として得られる点にある。   As described above, the behavior analysis apparatus according to the present embodiment separates the posture model and the motion model in the basic behavior pattern model. For this reason, even when a new extended action pattern is recognized, posture recognition and motion recognition can be performed separately. Another aspect of behavior quantification based on the extended behavior pattern is that information regarding a position on the time axis obtained as a result of recognition can be used. That is, the duration, frequency, time interval between actions and actions, etc. can be obtained as quantitative information.

本発明の行動解析装置及び行動解析プログラムによって、人間の行動パターンを自動的に分類して解析することが可能となる。この結果、支援を必要とする人の行動を見守るシステムや、携帯機器によるコンテキストアウェアサービス(状況認識サービス)、オフィスや工場等において行われている行動や動作の記録と解析による作業環境の改善プログラム、生産現場における動作の設計への応用、サービス分野におけるワークフロー解析などに利用可能である。   With the behavior analysis device and behavior analysis program of the present invention, it becomes possible to automatically classify and analyze human behavior patterns. As a result, a system that monitors the actions of people who need support, context-aware services (situation recognition services) using mobile devices, and programs for improving work environments by recording and analyzing actions and actions performed in offices and factories It can be used for application design of operations at production sites and workflow analysis in service fields.

1 加速度センサ
2 被験者
3 コンピュータ
4 CPU
5 記憶手段
6 表示装置
1 Acceleration sensor 2 Subject 3 Computer 4 CPU
5 Storage means 6 Display device

Claims (7)

人体に装着される3軸加速度センサから出力される加速度データを用いて前記人体の行動を解析する解析手段と、記憶手段とを備えており、
前記解析手段が、
連続して出力され時系列データとして蓄積される前記加速度データの経時的変化に含まれる前記人体の姿勢の特徴量と前記人体の動きの特徴量とを分離し、予め定められている基本行動と各々の前記特徴量との関連づけを行い、基本行動パターンの前記特徴量から成るモデルを定義して、前記モデルを前記記憶手段に記憶する基本行動パターン定義部と、
基本行動パターンの前記モデルを利用して、新たに時系列データとして蓄積された加速度データを分離する加工を行い、加工された前記加速度データをクラスタリングして拡張行動パターンを認識する拡張行動パターン認識部とを備えていることを特徴とする行動解析装置。
Analysis means for analyzing the behavior of the human body using acceleration data output from a three-axis acceleration sensor attached to the human body, and storage means,
The analysis means is
Separating the feature quantity of the human body posture and the feature quantity of the movement of the human body included in the temporal change of the acceleration data continuously output and accumulated as time series data, and a predetermined basic action A basic action pattern definition unit that associates with each of the feature quantities, defines a model composed of the feature quantities of the basic action pattern, and stores the model in the storage unit;
Extended behavior pattern recognition unit that performs processing for separating acceleration data newly accumulated as time series data using the model of the basic behavior pattern, and recognizes the extended behavior pattern by clustering the processed acceleration data And a behavior analysis device.
前記基本行動パターン定義部は、時系列データとして蓄積された前記加速度データに含まれる特徴量の分布に基づいて前記人体の姿勢の特徴量と前記人体の動きの特徴量とを分離することを特徴とする請求項1に記載の行動解析装置。   The basic behavior pattern definition unit separates the feature amount of the human body posture and the feature amount of the movement of the human body based on a distribution of feature amounts included in the acceleration data accumulated as time series data. The behavior analysis apparatus according to claim 1. 前記基本行動パターン定義部は、高周波数領域の加速度データを前記人体の動きの情報とし、低周波数領域の加速度データを前記人体の姿勢の情報として分離した後にそれぞれの特徴量を求めることを特徴とする請求項1に記載の行動解析装置。   The basic action pattern definition unit obtains respective feature amounts after separating acceleration data in a high frequency region as information on movement of the human body and acceleration data in a low frequency region as information on posture of the human body. The behavior analysis apparatus according to claim 1. 前記拡張行動パターン認識部は、前記加速度データの経時的変化に含まれる前記動きの特徴量と前記姿勢の特徴量とを分離し、前記動きの特徴量と前記姿勢の特徴量とを単位時間ごとに分割することで前記加速度データを分解して基本要素モデルを作成することを特徴とする請求項1に記載の行動解析装置。   The extended behavior pattern recognition unit separates the feature quantity of the motion and the feature quantity of the posture included in the time-dependent change of the acceleration data, and sets the feature quantity of the motion and the feature quantity of the posture for each unit time. The behavior analysis apparatus according to claim 1, wherein the basic element model is created by decomposing the acceleration data by dividing the acceleration data. 前記拡張行動パターン認識部は、分割する加工が行われた前記加速度データの特徴量を併合するデータ加工を行うことを特徴とする請求項4に記載の行動解析装置。   The behavior analysis apparatus according to claim 4, wherein the extended behavior pattern recognition unit performs data processing that merges feature amounts of the acceleration data that has been processed to be divided. 新たに蓄積される前記加速度データの経時的変化を、前記基本行動パターンのモデル及び前記基本要素モデルと照合し、基本行動パターンに定義されていない行動パターンを表す動きの特徴量と姿勢の特徴量とを検出し、新たな拡張行動パターンのモデルを定義し、関連する定量的計測を行って前記新たな拡張行動パターンを認識することを特徴とする請求項4及び5に記載の行動解析装置。   A change in the acceleration data newly accumulated over time is collated with the model of the basic action pattern and the basic element model, and a feature quantity of motion and a feature quantity of posture representing an action pattern not defined in the basic action pattern The behavior analysis apparatus according to claim 4, wherein a new extended behavior pattern model is defined, and the new extended behavior pattern is recognized by performing a related quantitative measurement. 人体に装着される3軸加速度センサから連続して出力される任意の行動を表す加速度データを時系列データとして蓄積する手順と、
前記加速度データの経時的変化に含まれる前記人体の動きの特徴量と前記人体の姿勢の特徴量とを分離する手順と、
予め定められている基本行動と各々の前記特徴量との関連づけを行い、基本行動パターンの前記特徴量から成るモデルを定義する手順と、
前記モデルを前記記憶手段に記憶する手順と、
基本行動パターンの前記モデルを利用して、新たに時系列データとして蓄積される前記加速度データを分離する加工を行う手順と、
加工された前記加速度データをクラスタリングして拡張行動パターンを認識する手順とをコンピュータに実行させることを特徴とする行動解析プログラム。
A procedure for accumulating acceleration data representing any action continuously output from a three-axis acceleration sensor worn on a human body as time-series data;
A step of separating the feature quantity of the human body motion and the feature quantity of the human body posture included in the time-dependent change of the acceleration data;
A procedure for associating a predetermined basic action with each of the feature quantities and defining a model composed of the feature quantities of the basic action pattern;
A procedure for storing the model in the storage means;
Using the model of the basic behavior pattern, a procedure for performing processing for separating the acceleration data newly accumulated as time series data,
A behavior analysis program for causing a computer to execute a procedure for recognizing an extended behavior pattern by clustering the processed acceleration data.
JP2009058812A 2009-03-12 2009-03-12 Behavior analyzing device and program Pending JP2010207488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009058812A JP2010207488A (en) 2009-03-12 2009-03-12 Behavior analyzing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009058812A JP2010207488A (en) 2009-03-12 2009-03-12 Behavior analyzing device and program

Publications (1)

Publication Number Publication Date
JP2010207488A true JP2010207488A (en) 2010-09-24

Family

ID=42968328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009058812A Pending JP2010207488A (en) 2009-03-12 2009-03-12 Behavior analyzing device and program

Country Status (1)

Country Link
JP (1) JP2010207488A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011156132A (en) * 2010-02-01 2011-08-18 Nec Corp Mode identification device, mode identification method, and program
JP2012524579A (en) * 2009-04-24 2012-10-18 モベア エス.アー System and method for determining a posture of a person
JP2013031625A (en) * 2011-07-07 2013-02-14 Ricoh Co Ltd Method and system for classifying movement of moving body
KR101337833B1 (en) * 2012-09-28 2013-12-06 경희대학교 산학협력단 Method for estimating response of audience concerning content
CN103680063A (en) * 2013-12-16 2014-03-26 嘉兴学院 Old person abnormal condition judging method based on mobile phone accelerometer and gyroscope
KR101403244B1 (en) * 2012-09-28 2014-06-02 경희대학교 산학협력단 Method for estimating attention level of audience group concerning content
KR101403143B1 (en) * 2012-09-28 2014-06-03 경희대학교 산학협력단 Method for estimating response of audience group concerning content
JP2014526913A (en) * 2011-06-28 2014-10-09 コーニンクレッカ フィリップス エヌ ヴェ Detection of transition from sitting to standing
KR101449604B1 (en) 2013-02-07 2014-10-13 경희대학교 산학협력단 Non-parametric Bayesian motion recognition method and the apparatus thereof
WO2015043546A1 (en) * 2013-09-30 2015-04-02 胡琨 Method and apparatus for tumble detection of human body, and mobile terminal system
JP2015097565A (en) * 2013-11-18 2015-05-28 富士通株式会社 Posture classification method, information processing apparatus, and program
JP2015109915A (en) * 2013-12-06 2015-06-18 富士通株式会社 Posture estimation device, method, and program
JP2016097228A (en) * 2014-11-26 2016-05-30 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
JP2016150102A (en) * 2015-02-17 2016-08-22 日本電信電話株式会社 Sequential attitude identification device, autonomic nerve function information acquisition device, method, and program
JP6236135B1 (en) * 2016-11-15 2017-11-22 三菱電機インフォメーションシステムズ株式会社 Action specifying device, action specifying method, and action specifying program
WO2017199589A1 (en) * 2016-05-18 2017-11-23 株式会社 東芝 Behavior estimating method, behavior estimating system, service providing method, signal detecting method, signal detecting unit, and signal processing system
JP2018029671A (en) * 2016-08-22 2018-03-01 学校法人慶應義塾 Behavior detection system, information processing device, and program
WO2018110030A1 (en) * 2016-12-16 2018-06-21 株式会社 東芝 Motion estimation method and motion estimation system
WO2018139398A1 (en) * 2017-01-30 2018-08-02 日本電信電話株式会社 Activity state analysis device and method
CN108446733A (en) * 2018-03-19 2018-08-24 上海玺翎智能科技有限公司 A kind of human body behavior monitoring and intelligent identification Method based on multi-sensor data
KR20180102527A (en) * 2016-12-09 2018-09-17 아주대학교산학협력단 Method and apparatus for classifying user activities
KR20190061874A (en) * 2017-11-28 2019-06-05 인하대학교 산학협력단 Apparatus and method for human identification using gait pattern based on emg
CN109886109A (en) * 2019-01-16 2019-06-14 南京邮电大学 A kind of Activity recognition method based on deep learning
JP2019159819A (en) * 2018-03-13 2019-09-19 オムロン株式会社 Annotation method, annotation device, annotation program, and identification system
JP2020512074A (en) * 2017-03-13 2020-04-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System, apparatus and method for estimating the position and / or orientation of a handheld personal care device with respect to a user
JP2020191050A (en) * 2019-05-24 2020-11-26 Kyb株式会社 Abnormality detector and abnormality detection method
JP2020194218A (en) * 2019-05-24 2020-12-03 株式会社日立製作所 Correct answer data creation assisting system and correct answer data creation assisting method
JPWO2021192062A1 (en) * 2020-03-24 2021-09-30
WO2023084609A1 (en) * 2021-11-09 2023-05-19 日本電信電話株式会社 Behavior model cost estimation device, method, and program

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524579A (en) * 2009-04-24 2012-10-18 モベア エス.アー System and method for determining a posture of a person
JP2011156132A (en) * 2010-02-01 2011-08-18 Nec Corp Mode identification device, mode identification method, and program
US9933452B2 (en) 2011-06-28 2018-04-03 Koninklijke Philips N.V. Sit-to-stand transfer detection
JP2014526913A (en) * 2011-06-28 2014-10-09 コーニンクレッカ フィリップス エヌ ヴェ Detection of transition from sitting to standing
JP2013031625A (en) * 2011-07-07 2013-02-14 Ricoh Co Ltd Method and system for classifying movement of moving body
KR101403143B1 (en) * 2012-09-28 2014-06-03 경희대학교 산학협력단 Method for estimating response of audience group concerning content
KR101403244B1 (en) * 2012-09-28 2014-06-02 경희대학교 산학협력단 Method for estimating attention level of audience group concerning content
KR101337833B1 (en) * 2012-09-28 2013-12-06 경희대학교 산학협력단 Method for estimating response of audience concerning content
KR101449604B1 (en) 2013-02-07 2014-10-13 경희대학교 산학협력단 Non-parametric Bayesian motion recognition method and the apparatus thereof
WO2015043546A1 (en) * 2013-09-30 2015-04-02 胡琨 Method and apparatus for tumble detection of human body, and mobile terminal system
JP2015097565A (en) * 2013-11-18 2015-05-28 富士通株式会社 Posture classification method, information processing apparatus, and program
JP2015109915A (en) * 2013-12-06 2015-06-18 富士通株式会社 Posture estimation device, method, and program
CN103680063A (en) * 2013-12-16 2014-03-26 嘉兴学院 Old person abnormal condition judging method based on mobile phone accelerometer and gyroscope
CN103680063B (en) * 2013-12-16 2015-12-30 嘉兴学院 Based on mobile phone accelerometer and gyrostatic old person abnormal condition decision method
WO2016084499A1 (en) * 2014-11-26 2016-06-02 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
JP2016097228A (en) * 2014-11-26 2016-05-30 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
WO2016133088A1 (en) * 2015-02-17 2016-08-25 日本電信電話株式会社 Sequential posture identification device and autonomic function information acquisition device, method, and program
US11350879B2 (en) 2015-02-17 2022-06-07 Nippon Telegraph And Telephone Corporation Device and method for sequential posture identification and autonomic function information acquisition
JP2016150102A (en) * 2015-02-17 2016-08-22 日本電信電話株式会社 Sequential attitude identification device, autonomic nerve function information acquisition device, method, and program
WO2017199589A1 (en) * 2016-05-18 2017-11-23 株式会社 東芝 Behavior estimating method, behavior estimating system, service providing method, signal detecting method, signal detecting unit, and signal processing system
JP2020146478A (en) * 2016-05-18 2020-09-17 株式会社東芝 Behavior estimation signal processing system
US11744484B2 (en) 2016-05-18 2023-09-05 Kabushiki Kaisha Toshiba Behavior estimating method, behavior estimating system, service providing method, signal detecting method, signal detecting unit, and signal processing system
JPWO2017199589A1 (en) * 2016-05-18 2019-02-14 株式会社東芝 Action estimation method, action estimation system, service providing method, signal detection method, signal detection unit, and signal processing system
JP2018029671A (en) * 2016-08-22 2018-03-01 学校法人慶應義塾 Behavior detection system, information processing device, and program
JP2018081445A (en) * 2016-11-15 2018-05-24 三菱電機インフォメーションシステムズ株式会社 Operation identifying device, operation identifying method, and operation identifying program
JP6236135B1 (en) * 2016-11-15 2017-11-22 三菱電機インフォメーションシステムズ株式会社 Action specifying device, action specifying method, and action specifying program
KR20180102527A (en) * 2016-12-09 2018-09-17 아주대학교산학협력단 Method and apparatus for classifying user activities
KR102424320B1 (en) * 2016-12-09 2022-07-25 아주대학교 산학협력단 Method and apparatus for classifying user activities
WO2018110030A1 (en) * 2016-12-16 2018-06-21 株式会社 東芝 Motion estimation method and motion estimation system
JP2018097781A (en) * 2016-12-16 2018-06-21 株式会社東芝 Motion estimation method and motion estimation system
WO2018139398A1 (en) * 2017-01-30 2018-08-02 日本電信電話株式会社 Activity state analysis device and method
JP2020512074A (en) * 2017-03-13 2020-04-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System, apparatus and method for estimating the position and / or orientation of a handheld personal care device with respect to a user
JP7107960B2 (en) 2017-03-13 2022-07-27 コーニンクレッカ フィリップス エヌ ヴェ Systems, apparatus, methods and machine-readable media for estimating the position and/or orientation of a handheld personal care device with respect to a user
KR20190061874A (en) * 2017-11-28 2019-06-05 인하대학교 산학협력단 Apparatus and method for human identification using gait pattern based on emg
KR102155134B1 (en) * 2017-11-28 2020-09-11 인하대학교 산학협력단 Apparatus and method for human identification using gait pattern based on emg
JP2019159819A (en) * 2018-03-13 2019-09-19 オムロン株式会社 Annotation method, annotation device, annotation program, and identification system
US20200397346A1 (en) * 2018-03-13 2020-12-24 Omron Corporation Annotation method, annotation device, storage medium, and identification system
CN108446733A (en) * 2018-03-19 2018-08-24 上海玺翎智能科技有限公司 A kind of human body behavior monitoring and intelligent identification Method based on multi-sensor data
CN109886109B (en) * 2019-01-16 2022-08-30 南京邮电大学 Behavior identification method based on deep learning
CN109886109A (en) * 2019-01-16 2019-06-14 南京邮电大学 A kind of Activity recognition method based on deep learning
JP2020194218A (en) * 2019-05-24 2020-12-03 株式会社日立製作所 Correct answer data creation assisting system and correct answer data creation assisting method
JP7152357B2 (en) 2019-05-24 2022-10-12 株式会社日立製作所 Correct data creation support system and correct data creation support method
JP7218867B2 (en) 2019-05-24 2023-02-07 Kyb株式会社 Anomaly detection device and anomaly detection method
JP2020191050A (en) * 2019-05-24 2020-11-26 Kyb株式会社 Abnormality detector and abnormality detection method
WO2021192062A1 (en) * 2020-03-24 2021-09-30 三菱電機株式会社 Motion model generation device, motion model generation method, and motion model generation program
JPWO2021192062A1 (en) * 2020-03-24 2021-09-30
JP7130155B2 (en) 2020-03-24 2022-09-02 三菱電機株式会社 Behavior model generation device, behavior model generation method, and behavior model generation program
WO2023084609A1 (en) * 2021-11-09 2023-05-19 日本電信電話株式会社 Behavior model cost estimation device, method, and program

Similar Documents

Publication Publication Date Title
JP2010207488A (en) Behavior analyzing device and program
Frank et al. Activity and gait recognition with time-delay embeddings
Bayat et al. A study on human activity recognition using accelerometer data from smartphones
Khan et al. Detecting unseen falls from wearable devices using channel-wise ensemble of autoencoders
Damaševičius et al. Human activity recognition in AAL environments using random projections
Khan et al. Towards the detection of unusual temporal events during activities using hmms
US20110282828A1 (en) Method of identification and devices thereof
Zheng Human activity recognition based on the hierarchical feature selection and classification framework
Tian et al. MEMS-based human activity recognition using smartphone
Frank et al. Activity recognition with mobile phones
WO2009090584A2 (en) Method and system for activity recognition and its application in fall detection
Khabir et al. Prediction of gender and age from inertial sensor-based gait dataset
Hemmatpour et al. Nonlinear predictive threshold model for real-time abnormal gait detection
Ashwini et al. Skeletal data based activity recognition system
Sharma et al. A transformer based approach for activity detection
Wei et al. Unsupervised race walking recognition using smartphone accelerometers
Alqarni Error-less data fusion for posture detection using smart healthcare systems and wearable sensors for patient monitoring
Gatea et al. Deep learning neural network for driver drowsiness detection using eyes recognition
CN116311497A (en) Tunnel worker abnormal behavior detection method and system based on machine vision
AU2020102094A4 (en) GROUP ACTIVITY RECOGNITION BY INTEGRATION AND FUSION OF INDIVIDUAL MULTISENSORY IoT DATA
Golestani et al. A comparison of machine learning classifiers for human activity recognition using magnetic induction-based motion signals
Chong et al. Visual based fall detection with reduced complexity horprasert segmentation using superpixel
Ismael et al. A study on human activity recognition using smartphone
Saidani et al. An Efficient Human Activity Recognition using Hybrid Features and Transformer Model
Amayri et al. A statistical process control chart approach for occupancy estimation in smart buildings