JP6650305B2 - Behavior analysis system and program - Google Patents

Behavior analysis system and program Download PDF

Info

Publication number
JP6650305B2
JP6650305B2 JP2016053465A JP2016053465A JP6650305B2 JP 6650305 B2 JP6650305 B2 JP 6650305B2 JP 2016053465 A JP2016053465 A JP 2016053465A JP 2016053465 A JP2016053465 A JP 2016053465A JP 6650305 B2 JP6650305 B2 JP 6650305B2
Authority
JP
Japan
Prior art keywords
behavior
action
sensor
unit
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016053465A
Other languages
Japanese (ja)
Other versions
JP2017167878A (en
Inventor
健 佐土原
健 佐土原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2016053465A priority Critical patent/JP6650305B2/en
Publication of JP2017167878A publication Critical patent/JP2017167878A/en
Application granted granted Critical
Publication of JP6650305B2 publication Critical patent/JP6650305B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Description

本発明は、センサネットワーク環境下で人間の行動を認識し、異常行動の検知や行動の識別などの行動分析を行う技術に関する。   The present invention relates to a technology for recognizing human behavior in a sensor network environment and performing behavior analysis such as detection of abnormal behavior and identification of behavior.

従来、住居やオフィスに多様かつ多数のセンサを設置し、ネットワーク経由でそれら情報を収集・分析することで人間の行動を認識する技術(以下、「行動認識技術」と呼ぶ)が用いられてきた。
例えば、特許文献1においては、独居高齢者宅に人体の動きを検知するモーションセンサーを多数設置し、センサ情報の分析に基づいて居住者の行動を認識し、異常な行動が検知された場合には遠隔にいる家族や介助者に通報する技術が開示されている。
Conventionally, technology that recognizes human behavior by installing various and numerous sensors in homes and offices and collecting and analyzing such information via a network (hereinafter referred to as “behavior recognition technology”) has been used. .
For example, in Patent Literature 1, a large number of motion sensors for detecting the movement of the human body are installed in a solitary elderly person's house, and the behavior of the resident is recognized based on the analysis of the sensor information. Discloses a technology for notifying a remote family member or caregiver.

このような技術において用いられるセンサは多種多様であり、動画像に基づいて人間の行動を監視する技術、人間に加速度センサを着装し行動を推定する技術、物体にRFIDを接着し物体を持ったことを認識する技術、床圧センサを用いて動線を推定する技術等、多種多様なセンサに基づく行動認識技術が知られている。   There are a wide variety of sensors used in such technologies, such as technology for monitoring human behavior based on moving images, technology for estimating behavior by wearing an acceleration sensor on a human, and bonding an RFID to an object and holding the object. A behavior recognition technology based on a variety of sensors, such as a technology for recognizing the fact and a technology for estimating a flow line using a floor pressure sensor, is known.

しかし、個人の住居において日常生活行動を分析する場合等は特に、利用者のプライバシー漏えいの危険性を考えるとカメラやマイクの設置は難しい。
また、ウェアラブルセンサの着装は利用者にとって煩わしく、日常的に使用してもらえない場合が多い。
However, it is difficult to install a camera or microphone especially when analyzing daily life behavior in an individual's house, especially considering the risk of privacy leakage of the user.
Also, wearing of the wearable sensor is troublesome for the user, and often cannot be used on a daily basis.

さらに、物体一つ一つにセンサ付けたり、床圧センサを後付けで設置したりすることは設置コストが大きい。
このような制約から、行動に関して多くの情報をもたらすセンサが利用できない場合も多く、焦電センサやドアスイッチセンサ等、設置・維持コストが低く利用者負担が小さいものの得られる情報が乏しいセンサしか利用できない場合が多い。
このような情報量が小さいセンサを用いる場合、個人毎に大きく異なる居住環境や行動様式の違いのため、汎用的な行動のモデルを構築することは困難である。
Further, attaching a sensor to each object or installing a floor pressure sensor afterwards increases installation cost.
Due to these restrictions, sensors that provide a lot of information on behavior are often not available, and only sensors such as pyroelectric sensors and door switch sensors that have low installation / maintenance costs and low user burden, but lack information that can be obtained, are used. Often not.
When a sensor having such a small amount of information is used, it is difficult to construct a general-purpose behavior model due to differences in living environment and behavior style that vary greatly for each individual.

そこで、個人毎に取得したデータから個人に特化した行動のモデルを学習することになるが、行動に該当するデータ区間の切り出しや、その区間がどのような行動に対応するのかを表すラベルの付与等、行動に関する教師信号付きの個人データを、システムの導入前に用意することはコスト的に許容できない場合が多い。
また、生活環境や行動様式は時間とともに変化するので、その都度教師信号付きのデータを用意することはさらに非現実的である。
Therefore, the model of the behavior specialized for the individual is learned from the data acquired for each individual, and the data section corresponding to the behavior is cut out and the label indicating the behavior corresponding to the section is included. It is often unacceptable in terms of cost to prepare personal data with a teacher signal on behavior such as assignment before introducing the system.
In addition, since the living environment and the behavior change over time, it is more unrealistic to prepare data with a teacher signal each time.

こうしたシステム導入の負担軽減と再導入の柔軟性の現実的な要請から、個人のデータから教師信号を用いずに行動のモデルを構築する教師なし学習技術が用いることが望ましい。   In view of the realistic demands for reducing the burden of introducing the system and the flexibility of re-introduction, it is desirable to use an unsupervised learning technique that builds a behavior model from personal data without using a teacher signal.

例えば、特許文献2では、移動速度をモニタリングすることで、移動開始から移動停止までの区間に動線を分割して行動のブロックを自動的に抽出し、得られた行動ブロック毎に、隠れマルコフモデルを用いて観測データの生成モデルをデータから学習させる技術が開示されている。   For example, in Patent Literature 2, by monitoring a moving speed, a flow line is divided into sections from a movement start to a movement stop to automatically extract action blocks, and a hidden Markov is obtained for each obtained action block. A technique of learning a generation model of observation data from data using the model is disclosed.

また、発明者による先行発明(特許文献4)では、センサの発火系列を文字列と見做し、部分文字列の網羅的分析を効率良く行うことができる文字列カーネルを用いる技術が開示されている。   Also, in the prior invention by the inventor (Patent Document 4), a technique using a character string kernel capable of efficiently performing a comprehensive analysis of a partial character string by regarding a sensor firing sequence as a character string is disclosed. I have.

この発明では、センサ発火系列中の部分系列の分析を行うことにより、部分系列の頻度パターンが類似した区間を一つの行動として自動的に分節し、分節された区間から計算される特徴量を用いて異常検知や行動識別を行っている。
ただし、分節そのものは教師なし学習で得られるものの、行動識別を行う際は教師信号を必要とする。
In the present invention, by analyzing a subsequence in a sensor firing sequence, a section having a similar frequency pattern of the subsequence is automatically segmented as one action, and a feature amount calculated from the segmented section is used. To detect abnormalities and identify actions.
However, although the segment itself can be obtained by unsupervised learning, a teacher signal is required when performing action identification.

その他、センサデータ系列から教師信号を用いずに行動をモデリングする手法として、非特許文献1のようにLatent Dirichlet Allocation(LDA)(非特許文献2)と呼ばれる、文書のトピックモデリング法を応用した技術が知られている。   In addition, as a method of modeling an action from a sensor data sequence without using a teacher signal, a technique using a document topic modeling method called Latent Dirichlet Allocation (LDA) (Non-Patent Document 2) as in Non-Patent Document 1 It has been known.

トピックモデリングでは、単語が外部からは観測されない文書のトピックに依存して生成されるという確率モデルを仮定し、与えられた文書集合に含まれる単語列だけから、潜在するトピック群を推定した上で、新たな文書に対しても、その単語列からトピックを推定することができる。   Topic modeling assumes a probabilistic model in which words are generated depending on the topics of documents that are not observed from the outside, and estimates potential topics from only word strings included in a given document set. Also, for a new document, a topic can be estimated from the word string.

単語列をセンサ系列、トピック系列を行動系列に対応させると、トピックモデリング法を用いて行動をモデル化でき、ヒューリスティクスを用いることなく行動モデルの教師なし学習や行動系列の推定を実現できる。   By associating the word sequence with the sensor sequence and the topic sequence with the action sequence, the behavior can be modeled using the topic modeling method, and unsupervised learning of the action model and estimation of the action sequence can be realized without using heuristics.

ただし、文書のためのトピックモデルが、行動のモデル化に最適であるかどうかは自明ではない。   However, it is not clear whether a topic model for a document is optimal for behavioral modeling.

特に、LDAをはじめとする文書のトピックモデルにおいては、トピックの多重性、すなわち、一つの文書が複数のトピックを持ち得ることを仮定することが望ましいが、行動モデルの場合には、そのような仮定が適切でない可能性があり、その場合、いたずらに複雑なモデルは学習や推論の精度低下をもたらす危険性がある。   In particular, in a topic model of a document such as LDA, it is desirable to assume topic multiplicity, that is, assuming that one document can have a plurality of topics. Assumptions may not be appropriate, in which case an unnecessarily complex model risks reducing learning and inference accuracy.

また、行動のモデル化においては、マルコフ性を仮定することが望ましい。すなわち、あるセンサが発火するかどうかは、それ以前、特に直前のセンサの発火に依存するし、ある行動が生じるかどうかは、それ以前、特に直前の行動に依存する。   In modeling behavior, it is desirable to assume Markov nature. That is, whether or not a certain sensor fires depends on the firing of the previous sensor, especially the immediately preceding sensor, and whether or not a certain action occurs depends on the previous, particularly, the immediately preceding action.

センサ発火のマルコフ性を導入するためには、非特許文献3で用いられるような単語のマルコフ性を仮定したLDAの拡張モデルを用いることができる。
一方、行動のマルコフ性の導入は、LDAが多重トピックモデルであり、文書中の単語が複数のトピックから生成されることを仮定しているので文書レベルのトピックのマルコフ性の導入は単純ではない。
In order to introduce the Markov property of sensor firing, an extended LDA model assuming the Markov property of words as used in Non-Patent Document 3 can be used.
On the other hand, the introduction of Markov property of behavior assumes that LDA is a multi-topic model and that words in the document are generated from multiple topics, so the introduction of Markov property of document-level topics is not simple. .

非特許文献4においては、トピックの上位階層に、文書におけるストーリー展開に対応するより抽象的なトピックの階層を設け、この階層にマルコフ性を導入している。
このようなモデル化をHierarchical Poison-Dirichlet Process(HPDP)を用いて実現しているが、パラメータ数が増大し、学習・推論が複雑化してしまうという問題が生じる。
In Non-Patent Document 4, a more abstract topic hierarchy corresponding to a story development in a document is provided at a higher hierarchy of a topic, and a Markov property is introduced to this hierarchy.
Although such modeling is realized using the Hierarchical Poison-Dirichlet Process (HPDP), there is a problem that the number of parameters increases and learning and inference become complicated.

特開2003−256957号公報JP 2003-256957 A 特開2007−249922号公報JP 2007-249922 A 特開2011−175349号公報JP 2011-175349 A 特開2014−087833号公報JP 2014-087333 A

T.Huynh et al.: Discovery of activity patterns using topic models, Proc. of Internat. Conf. on Ubiquitous Computing, pp.10-19 (2008).T. Huynh et al .: Discovery of activity patterns using topic models, Proc. Of Internat. Conf.on Ubiquitous Computing, pp. 10-19 (2008). D.M.Blei et al.: Latent Dirichlet Allocation, Journal of Machine Learning Research,No.3,pp.993-1022(2003).D.M.Blei et al .: Latent Dirichlet Allocation, Journal of Machine Learning Research, No. 3, pp. 993-1022 (2003). H.M.Wallach: Topic Modeling: Beyond Bag-of-words, Proceedings of the internat. Conf. on Machine Learning, pp.977-984(2006).H.M.Wallach: Topic Modeling: Beyond Bag-of-words, Proceedings of the internat. Conf.on Machine Learning, pp.977-984 (2006). D.Lan et al.: Sequential Latent Dirichlet Allocation, Knowledge and Information Systems, Vol.31, No.3,pp.475-503(2012).D. Lan et al .: Sequential Latent Dirichlet Allocation, Knowledge and Information Systems, Vol. 31, No. 3, pp. 475-503 (2012). 貞光九月 他:混合ディリクレ分布を用いたトピックに基づく言語モデル,電子情報通信学会論文誌 D-II,J88-D-II(9), pp.1771-1779(2005).Sadamitsu Sept. et al .: Topic-based language model using mixed Dirichlet distribution, IEICE Transactions D-II, J88-D-II (9), pp.1771-1779 (2005). 帖佐悦男:ロコモティブシンドローム:運動器疾患を取り囲む新たな概念,Jpn.J.Rehabil.Med.,Vol.50,No.1,pp.48-54(2013).Etsuo Chosa: Locomotive Syndrome: A New Concept Surrounding Motor Organ Disease, Jpn.J.Rehabil.Med., Vol.50, No.1, pp.48-54 (2013). J.Verghese et al.: Abnormality of Gait as a Predictor of Non-Alzheimer’s Dementia, New England Journal of Medicine, Vol.347, No.22,pp.1761-1768(2002).J. Verghese et al .: Abnormality of Gait as a Predictor of Non-Alzheimer's Dementia, New England Journal of Medicine, Vol.347, No.22, pp.1761-1768 (2002).

文書のトピックモデルであるLDAおよびその拡張モデルは、文書の多重トピック性をモデル化しているが、行動をモデル化する場合には、センサ系列が複数の行動から生成されると仮定することは現実的ではなく、モデルと学習・推論アルゴリズムを不必要に複雑化し、ひいては行動の予測の精度を劣化させてしまいかねないという課題がある。   Although the topic model of a document, LDA and its extended model, model the multitopic nature of the document, it is not realistic to assume that a sensor sequence is generated from multiple actions when modeling actions. However, there is a problem that the model and the learning / inference algorithm are unnecessarily complicated, which may degrade the accuracy of the behavior prediction.

実際、後に述べるように、行動をモデル化する場合には、多重トピックを仮定せず、単一のトピックからセンサ系列が出力されていると仮定する方が、行動の予測精度が良くなることが確認されている。
また、センサや行動のマルコフ性をできるだけモデルを複雑化せずに導入することも課題である。
In fact, as described later, when modeling behavior, it is better to assume that the sensor series is output from a single topic without assuming multiple topics, and the prediction accuracy of the behavior will be better. Has been confirmed.
Another challenge is to introduce the Markov property of sensors and behaviors without complicating the model as much as possible.

本発明では、文書中の単語が単一のトピックから、ディリクレ分布を事前分布として生成されると仮定し、そのような生成分布のトピック混合として文書をモデル化する混合ディリクレモデル(非特許文献5)を行動のモデル化法として採用する。
ただし、センサと行動のマルコフ性を導入するために混合ディリクレモデルを拡張し、拡張されたモデルを効率良くかつ精度良く学習・推論するために、ギブスサンプラーを構成し、マルコフ連鎖モンテカルロ法により学習と推論を行う。
In the present invention, it is assumed that a word in a document is generated from a single topic by a Dirichlet distribution as a prior distribution, and a mixed Dirichlet model that models a document as a topic mixture of such a generated distribution (see Non-Patent Document 5). ) Is adopted as a behavior modeling method.
However, we extended the mixed Dirichlet model to introduce the Markov property of the sensor and the behavior, and constructed a Gibbs sampler to learn and infer the extended model efficiently and accurately. Make inferences.

本発明の一形態によれば、センサデータに行動ラベルを付与する等の作業が不要となり、センサを設置する以外の作業を必要としないシステム導入の負担が軽減され再導入に柔軟性のある低コストな異常監視が可能となる。
また、センサ系列から直接異常を検出するのではなく、一度行動のレベルに抽象化した上で、推定された行動が日常的に良く観察されるか否かに基づいて異常を検出することができる。
According to one embodiment of the present invention, work such as assigning an activity label to sensor data is unnecessary, and the burden of introducing a system that does not require work other than installing a sensor is reduced, and low flexibility that can be re-introduced. Costly abnormality monitoring is possible.
In addition, instead of directly detecting an abnormality from a sensor series, it is possible to detect an abnormality based on whether or not an estimated behavior is frequently observed on a daily basis after abstracting to an activity level once. .

さらに、センサの日常的な誤作動を一つの行動として学習し異常とは見做さないような異常監視が実現できるので、ペットや暖房器具などの熱による誤ったセンサの発火に基づく誤報を減らす効果も有する。   Furthermore, it is possible to realize the abnormality monitoring that learns the daily malfunction of the sensor as one action and does not regard it as an abnormality, thereby reducing false alarms based on false sensor firing due to heat from pets and heating appliances. It also has an effect.

また、別の一形態において、推定された行動列と行動毎に計算される特徴量を分析者に分かり易く提示することにより、居住者の日常行動パターンや問題行動の分析が可能になる。
この際、行動の分節や行動の識別に係る教師信号を与えることなく、センサの発火系列のみから行動列が推定されるので、分析に必要なコストを大幅に低減できる。
さらに、別の一形態において、センサ活動そのものからではなく、行動に基づいて計算される信頼性の高い、活動量、睡眠の質や歩行速度に基づいて、日常的に居住者の健康をモニタリングし、定期的あるいは特定のイベントが発生した時に、健康レポートを自動的に遠隔地の家族や施設スタッフに通知する、低コストで信頼性の高い遠隔健康見守りシステムが実現できる。
In another form, by presenting the estimated behavior sequence and the feature amount calculated for each behavior to the analyst in an easy-to-understand manner, it becomes possible to analyze the daily behavior pattern and problem behavior of the resident.
At this time, since the action sequence is estimated only from the firing sequence of the sensor without giving a teacher signal for segmenting the action or identifying the action, the cost required for the analysis can be significantly reduced.
Furthermore, in another form, the health of the resident is monitored on a daily basis based on the activity, the quality of sleep, and the walking speed, which are calculated based on the behavior and not from the sensor activity itself. In addition, a low-cost and reliable remote health monitoring system can be realized which automatically notifies a health report to a remote family or facility staff when a regular or specific event occurs.

異常監視システムの全体図である。1 is an overall view of an abnormality monitoring system. 行動モデル学習部をより詳細に説明する図である。It is a figure explaining an action model learning part in more detail. 行動モデル推定部をより詳細に説明する図である。It is a figure explaining an action model estimation part in more detail. 受信部で受信するセンサ生データ(例)を表す図である。FIG. 7 is a diagram illustrating raw sensor data (example) received by a receiving unit. センサ生データから抽出されたフレーム列(例)を表す図である。FIG. 8 is a diagram illustrating a frame sequence (example) extracted from sensor raw data. 行動モデルの構造を表す図である。It is a figure showing the structure of an action model. カウンタ初期化手段(InitializeCounter)を説明する図である。FIG. 4 is a diagram illustrating a counter initialization unit (InitializeCounter). フレーム列初期化手段(Initialize)を説明する図である。FIG. 4 is a diagram for explaining a frame sequence initialization unit (Initialize). カウンタ更新手段(Estimate)を説明する図である。FIG. 4 is a diagram illustrating a counter updating unit (Estimate). 行動予測精度を比較した実験結果を説明する図である。It is a figure explaining the experimental result which compared action prediction accuracy. 行動分析システムの全体図である。1 is an overall view of a behavior analysis system. 行動分析システムにおける日常行動可視化の例を説明する図である。It is a figure explaining the example of everyday action visualization in an action analysis system. 健康管理システムの全体図である。It is an overall view of a health management system.

次に、図面を参照して、本発明の実施形態を説明する。   Next, an embodiment of the present invention will be described with reference to the drawings.

(異常監視システム)
(全体構成例)
(Abnormality monitoring system)
(Overall configuration example)

図1を用いて異常監視システムの全体構成例を説明する。
利用者の居宅に、人体感知センサ(焦電センサ等)や、スイッチセンサ(磁気近接型ドア開閉センサ等)のようなプライバシー侵襲度が低くいセンサを複数設置する。
これらのセンサとしては、電池で1年以上動作し、有線・無線で親機に情報を伝達可能な安価なセンサが利用可能である。
An example of the overall configuration of the abnormality monitoring system will be described with reference to FIG.
A plurality of sensors having a low degree of privacy invasion, such as a human body sensor (a pyroelectric sensor, etc.) and a switch sensor (a magnetic proximity door opening / closing sensor, etc.), are installed in the user's home.
As these sensors, inexpensive sensors that operate on batteries for at least one year and can transmit information to the parent device by wire or wirelessly can be used.

焦電センサについては、理想的には、検知範囲を狭めて天井に設置することで、利用者のおおまかな動線を取得できるように設置することが望ましい。
天井に設置できない場合は、壁面にグリッド状に設置し、センサXとセンサYが同時に発火することを以てXとYの検知範囲の交わる領域で動作が行われたことを検知できる。
Ideally, the pyroelectric sensor should be installed on the ceiling with a narrow detection range so that a rough flow line of the user can be obtained.
If the sensor cannot be installed on the ceiling, the sensor is installed in a grid on the wall surface, and it is possible to detect that the operation has been performed in an area where the detection ranges of X and Y intersect by firing the sensors X and Y at the same time.

これらセンサからの情報を受信部(11)で受信し、センサの発火系列(センサデータ列)が行動モデル学習部あるいは行動モデル推定部に送られる。   The information from these sensors is received by the receiving unit (11), and the firing sequence (sensor data sequence) of the sensors is sent to the behavior model learning unit or the behavior model estimation unit.

学習モードにおいては、センサ発火列は行動モデル学習部(12)に送られ、利用者の行動モデルが学習され、学習されたモデルは行動DB(14)に保存される。   In the learning mode, the sensor firing sequence is sent to the behavior model learning unit (12), the behavior model of the user is learned, and the learned model is stored in the behavior DB (14).

推定モードにおいては、センサ発火系列は行動モデル推定部(13)に送られ、行動DB(14)に保存された行動モデルを参照して、行動の系列が抽出される。   In the estimation mode, the sensor firing sequence is sent to the behavior model estimation unit (13), and the sequence of the behavior is extracted with reference to the behavior model stored in the behavior DB (14).

続いて、行動の系列は異常検出部(15)に送られ、行動モデルを参照しながら、抽出された行動毎に、モデルから当該行動が生起し得る確率が計算される。   Subsequently, the action sequence is sent to the abnormality detection unit (15), and the probability that the action can occur from the model is calculated for each extracted action while referring to the action model.

この確率が一定の閾値よりも低い場合、異常な行動と判断され、異常警報部(16)が警報を発報する。
この警報はインターネット等の居宅外のネットワークを通じて伝搬され、監視センター(17)、あるいは遠隔地で見守る家族やケアワーカーの元へ伝達される。
If this probability is lower than a certain threshold value, it is determined that the behavior is abnormal, and the abnormality warning unit (16) issues a warning.
This alarm is transmitted through a network outside the home, such as the Internet, and transmitted to a monitoring center (17) or to a family member or a care worker who watches over a remote place.

図2を用いて学習モードで用いられる行動モデル学習部について説明する。
まず、学習に用いるセンサの発火系列からフレームの系列を抽出する(P21)。
The behavior model learning unit used in the learning mode will be described with reference to FIG.
First, a frame sequence is extracted from the firing sequence of the sensor used for learning (P21).

図4に示すように、センサの発火系列は、典型的にはセンサの名前(3列目)と、センサの状態(4列目)が変化した日時(1・2列目)が間欠的に記録されたものである。
センサの状態が変化したという情報同様、センサの情報が変化していないという情報も行動を理解するために重要な情報源であるので、データ前処理部は、間欠的な情報を連続する時区間の情報に変換する。
As shown in FIG. 4, the firing sequence of the sensor typically includes the sensor name (the third column) and the date and time (the first and second columns) at which the state of the sensor (the fourth column) changes intermittently. It was recorded.
Like the information that the state of the sensor has changed, the information that the sensor information has not changed is also an important information source for understanding the behavior. To information.

具体的には、ある定められた幅の時間窓(以後フレームと呼ぶ)を動かし、窓内で発火したセンサのIDを発火した時間順に1行に並べる。   Specifically, a time window (hereinafter, referred to as a frame) having a predetermined width is moved, and the IDs of the sensors that have fired in the window are arranged in one line in the order of firing time.

図5は、図4の生データに対して、幅30秒の窓を10秒ずつシフトさせて得られるフレームの列を表している。
例えば、ドアセンサD001のIDは63であり、図5において最初の3フレームの間で発火した(ドアが開いた)ことが分かる。
FIG. 5 shows a sequence of frames obtained by shifting a window having a width of 30 seconds by 10 seconds with respect to the raw data of FIG.
For example, the ID of the door sensor D001 is 63, and it can be seen in FIG. 5 that the fire occurred during the first three frames (the door was opened).

また、1つのフレームに同じIDが複数回現れることは、当該フレームの間に同じセンサが複数回発火したことを示している。
さらに、あるフレームの間にどのセンサも発火しない場合は、図5最後のフレームのように特別なID、0が記録される。
The appearance of the same ID multiple times in one frame indicates that the same sensor has fired multiple times during the frame.
Furthermore, if no sensor fires during a certain frame, a special ID, 0, is recorded as in the last frame of FIG.

抽出されたフレーム列に基づいて、P22、P23およびP24において、行動モデルが学習される。
本発明では、混合ディリクレ分布を用いた階層的な確率モデルを用いて行動をモデル化するが、行動およびセンサにマルコフ性を仮定する。
At P22, P23 and P24, an action model is learned based on the extracted frame sequence.
In the present invention, the behavior is modeled using a hierarchical probabilistic model using a mixed Dirichlet distribution, but Markov property is assumed for the behavior and the sensor.

図6は、それぞれに1次マルコフ性を仮定した場合のモデルの構造を示している。
ただし、図中、網掛けされた丸は観測できる確率変数を、網掛けされていない丸は潜在する確率変数を表している。
もちろん、マルコフ性は一次に限定する必要はなく、また、場合によれば、どちらかあるいは両方を0次と仮定しても同様な議論を行うことができる。
FIG. 6 shows the structure of a model when first-order Markov property is assumed.
In the figure, shaded circles represent observable random variables, and unshaded circles represent latent random variables.
Of course, the Markov property does not need to be limited to the first order, and in some cases, the same discussion can be made even if one or both of them are assumed to be the zero order.

以降、一次マルコフ性を仮定して説明を行う。
図6では、各フレームの行動を表す確率変数zは、直前の行動tに依存して、θtをパラメータとするカテゴリカル分布から生成される。
Hereinafter, description will be made assuming first-order Markov property.
In FIG. 6, the random variable z representing the action of each frame is generated from a categorical distribution using θ t as a parameter, depending on the immediately preceding action t.

また、各フレームのセンサの発火を表す確率変数wは、フレームに割り当てられた行動tと直前のセンサの発火uに依存して、φt,uをパラメータとするカテゴリカル分布から生成される。また、行動、センサ、それぞれのカテゴリカル分布の事前分布として、それぞれαとβをハイパーパラメータとするディリクレ分布を事前分布として仮定している。 Further, the random variable w representing the sensor firing of each frame is generated from a categorical distribution using φ t, u as a parameter, depending on the action t assigned to the frame and the preceding sensor firing u. Further, as a prior distribution of the behavior, the sensor, and the categorical distribution of each, a Dirichlet distribution using α and β as hyperparameters is assumed as a prior distribution.

このとき、行動系列Zと発火系列Wの同時分布は以下のように書ける。

Figure 0006650305
Figure 0006650305
Figure 0006650305
At this time, the simultaneous distribution of the action sequence Z and the firing sequence W can be written as follows.
Figure 0006650305
Figure 0006650305
Figure 0006650305

ここで、Catはカテゴリカル分布を表し、

Figure 0006650305
Here, Cat represents a categorical distribution,
Figure 0006650305

と書ける。ただし、Tは行動の種類を表し、Σtθq t=1であり、nq,tは、行動qの直後に行動tが現れる頻度を表す。一方、Wについては、

Figure 0006650305
I can write However, T is represents the type of action, a Σ t θ q t = 1, n q, t represents the frequency of action t appears immediately after the action q. On the other hand, for W
Figure 0006650305

と書ける。ただし、Vはセンサの種類の数を表し、Σwφw t,u=1であり、nt u,wは、行動tにおいてセンサuが発火した直後にセンサwが発火する頻度を表す。 I can write However, V is represents the number of types of sensors, a Σ w φ w t, u = 1, n t u, w represents the frequency of the sensor w fires immediately after the sensor u fires Behavioral t.

Dirはディリクレ分布を表し、

Figure 0006650305
Dir represents the Dirichlet distribution,
Figure 0006650305

と書けるが、最初の学習時のように事前情報が全くない場合は、ハイパーパラメータαが一様であると仮定することができる。すなわち、

Figure 0006650305
However, when there is no prior information as in the first learning, it can be assumed that the hyperparameter α is uniform. That is,
Figure 0006650305

である場合は、ディリクレ分布は以下のように書ける。

Figure 0006650305
, The Dirichlet distribution can be written as
Figure 0006650305

記述の煩雑さを避けるため、以降、ディリクレ分布のハイパーパラメータは一様である場合で説明を行う。
βについても一様性を仮定する場合、すなわち、

Figure 0006650305
In order to avoid the complexity of the description, the following description will be made on the assumption that the hyper parameters of the Dirichlet distribution are uniform.
When assuming uniformity for β, that is,
Figure 0006650305

の場合、

Figure 0006650305
in the case of,
Figure 0006650305

と書ける。
このようなモデル化を行うと、数式2、数式4、数式8より、

Figure 0006650305
I can write
When such modeling is performed, from Expressions 2, 4, and 8,
Figure 0006650305

を得る。ここで、nq,・=Σq,tである。
一方で、数式3、数式5、数式10より、

Figure 0006650305
Get. Here, n q, · = Σ t n q, t .
On the other hand, from Equations 3, 5, and 10,
Figure 0006650305

を得る。ここで、nt u,・=Σt u,wである。
行動モデルの学習には、これら頻度nq,tやnt u,wを推定することが必要になる。
Get. Here is a n t u, · = Σ w n t u, w.
The study of behavioral model, it is necessary to estimate these frequency n q, t and n t u, w.

以下にその手順を示す。まず、一連のカウンタを初期化する(P22)。
図7では、行動が直前の行動に依存し、ある行動におけるセンサの発火が直前のセンサの発火に依存するというように、行動とセンサが共に一次マルコフ性を有すると仮定する場合に用いるカウンタの初期化法が示されている。
The procedure is described below. First, a series of counters is initialized (P22).
In FIG. 7, the counter used when assuming that both the action and the sensor have the primary Markov property, such that the action depends on the immediately preceding action and the firing of the sensor in a certain action depends on the firing of the immediately preceding sensor. The initialization method is shown.

次に、P21において抽出されたフレーム列を入力として、各フレームにランダムに行動を割り当てる初期化を行う(P23)。図8は、やはり一次マルコフ性を仮定する場合の初期化法が示されている。
このとき、各フレームで発火するセンサの頻度を数え上げ、主記憶上に保存し、これをsu,w(m)と表す。
Next, using the frame sequence extracted in P21 as input, initialization is performed to randomly assign an action to each frame (P23). FIG. 8 shows an initialization method when assuming first-order Markov property.
At this time, the frequency of the sensor that fires in each frame is counted and stored in the main memory, and this is represented as s u, w (m).

続いて、行動モデルのパラメータを計算するためのカウンタを、各フレーム毎にN回更新する(P24)。
図9は、一次マルコフ性を仮定した行動モデルのパラメータを計算するためのカウンタを、ギブスサンプラーを用いたマルコフ連鎖モンテカルロ法で計算する方法が示されている。
Subsequently, the counter for calculating the parameters of the behavior model is updated N times for each frame (P24).
FIG. 9 shows a method of calculating a counter for calculating a parameter of an action model assuming first-order Markov property by a Markov chain Monte Carlo method using a Gibbs sampler.

今、統計量cから、m番目のフレームの寄与分c(m)を除いた統計量をc(−m)と表すことにすれば、m番目以外のフレームの統計量が与えられるとき、m番目のフレームの行動の条件付き確率は、次式の右辺に比例する。

Figure 0006650305
If a statistic obtained by removing the contribution c (m) of the m-th frame from the statistic c is expressed as c (−m), then when the statistic of the frame other than the m-th frame is given, m The conditional probability of action in the th frame is proportional to the right side of the following equation:
Figure 0006650305

m−1番目のフレームの行動をq、m+1番目のフレームの行動をrとするとき、数式11より、右辺第1項は以下のように書ける。

Figure 0006650305
Assuming that the action of the (m-1) -th frame is q and the action of the (m + 1) -th frame is r, the first term on the right side can be written as follows from Expression 11.
Figure 0006650305

また、右辺第2項は、数式12より以下のように書ける。

Figure 0006650305
Also, the second term on the right side can be written as follows from Expression 12.
Figure 0006650305

数式13に従って、m番目のフレームの行動をランダムにギブスサンプリングし、その結果に基づいて頻度カウンタを更新する。
最後に、カウンタを行動DBに保存する(P25)。
一次マルコフ性を仮定する場合、カウンタから、行動モデルのパラメータは以下のように計算できる。

Figure 0006650305
Figure 0006650305
According to Equation 13, the behavior of the m-th frame is randomly Gibbs-sampled, and the frequency counter is updated based on the result.
Finally, the counter is stored in the action DB (P25).
Assuming first-order Markov property, the parameters of the behavior model can be calculated from the counter as follows.
Figure 0006650305
Figure 0006650305

続いて、図3を用いて、行動系列推定部を説明する。
まず、行動モデル学習部(図2)のP21と同様な方法で、推定したいセンサ発火系列からフレーム列を抽出する(P31)。
Next, an action sequence estimating unit will be described with reference to FIG.
First, a frame sequence is extracted from the sensor firing sequence to be estimated (P31) by the same method as P21 of the behavior model learning unit (FIG. 2).

次に、行動DBからカウンタを読み出した(P32)後、行動モデル学習部(P23)と同様にフレーム列にランダムに行動の初期値を割り当てる(P33)。   Next, after reading the counter from the action DB (P32), an initial value of the action is randomly assigned to the frame sequence as in the action model learning unit (P23) (P33).

さらに、行動モデル学習部(P24)と同様に、各フレームの行動をランダムにサンプリングしてカウンタを更新する(P34)。
そして最後に、得られたフレーム列に対する行動列Zを行動DBに保存する(P35)。
Further, similarly to the behavior model learning unit (P24), the behavior of each frame is randomly sampled and the counter is updated (P34).
Finally, the action sequence Z for the obtained frame sequence is stored in the action DB (P35).

したがって、行動モデル学習部(図2)と行動モデル推定部(図3)の基本的な違いは、カウンタをゼロに初期化するか否かとカウンタを上書きするか否かの違いである。   Therefore, the basic difference between the behavior model learning unit (FIG. 2) and the behavior model estimation unit (FIG. 3) is the difference between whether to initialize the counter to zero and whether to overwrite the counter.

一度行動モデルを学習した後に、追加のデータを用いてモデルを再学習させたい場合は、カウンタをゼロに初期化せずに更新し、更新されたカウンタを上書きすれば良い。
つまり、図2、P22のカウンタの初期化を行う代わりに、図3、P32と同様に、行動DBから既に保存されているカウンタを呼び出した後に、カウンタの更新(P23およびP24)を行い、新しいカウンタを行動DBに保存(P25)すれば良い。
If it is desired to retrain the model using additional data after learning the behavior model once, the counter may be updated without initializing it to zero, and the updated counter may be overwritten.
That is, instead of initializing the counters in FIG. 2 and P22, similarly to FIG. 3 and P32, after calling the already stored counters from the action DB, the counters are updated (P23 and P24) and the new counters are updated. The counter may be stored in the action DB (P25).

最後に、図1の異常検出部(15)について補足する。
行動モデルの下で、あるフレームが日常的にありふれたものであるか否かを判定するためには、そのフレームの尤度を用いれば良い。
例えば、推定された行動列Zと観測されたセンサ発火列Wを所与として、数式18、数式19と数式20を用いてm番目のフレームの尤度を計算することができる。

Figure 0006650305
Figure 0006650305
Figure 0006650305
Lastly, a supplementary description of the abnormality detection unit (15) in FIG.
In order to determine whether or not a certain frame is an ordinary one under the behavior model, the likelihood of the frame may be used.
For example, given the estimated action sequence Z and the observed sensor firing sequence W, the likelihood of the m-th frame can be calculated using Expressions 18, 19 and 20.
Figure 0006650305
Figure 0006650305
Figure 0006650305

また、より単純に、数式20を尤度として用いることもできる。
尤度が、あらかじめ決められた閾値、あるいは学習データから決定された閾値、例えば学習の結果得られた尤度の最小値よりも低い場合に、非日常的な行動、すなわち異常と判断することができる。
なお、ここで計算された尤度は、各フレームの属性の1つとして行動DBに保存され、後の分析等に利用される。
Further, more simply, Expression 20 can be used as the likelihood.
If the likelihood is lower than a predetermined threshold or a threshold determined from learning data, for example, the minimum likelihood obtained as a result of learning, it can be determined that the behavior is extraordinary, that is, abnormal. it can.
The likelihood calculated here is stored in the action DB as one of the attributes of each frame, and is used for later analysis and the like.

図10は、公開されたデータを用いて、本発明で用いる行動モデル化方法に基づいて、行動の推定を行った結果を、他のモデル化方法と比較した図である。
図10の縦軸は、予測された行動列を人間が付与した行動列に照合して一致していた時間の割合を表しており、横軸は、モデル化の際に仮定した行動の種類の数Tである。
FIG. 10 is a diagram comparing the result of estimating the behavior based on the behavior modeling method used in the present invention using the published data with other modeling methods.
The vertical axis of FIG. 10 represents the percentage of time when the predicted action sequence was matched with the action sequence given by the human, and the horizontal axis was the type of the behavior assumed at the time of modeling. The number T.

図10では、本発明で用いたモデル化方法を、非特許文献2記載のLatent Dirichlet Allocationを用いたモデル化方法(LDA)と、非特許文献5記載の混合ディリクレ分布を用いたモデル化方法(DM)と比較している。   In FIG. 10, the modeling method used in the present invention includes a modeling method using Latent Dirichlet Allocation described in Non-Patent Document 2 (LDA) and a modeling method using mixed Dirichlet distribution described in Non-Patent Document 5 ( DM).

図10から明らかなように、本発明によれば、行動予測精度の大幅な向上が実現でき、この精度向上に依拠して、日常的な行動か否かに基づく異常検知の精度を向上させることが可能になる。   As is clear from FIG. 10, according to the present invention, it is possible to realize a great improvement in the accuracy of behavior prediction, and to improve the accuracy of abnormality detection based on whether or not the behavior is a daily activity by relying on this accuracy improvement. Becomes possible.

(その他の実施形態)
(行動分析システム)
図11を用いて、行動分析システムの全体構成例を説明する。
センサの構成、受信部(111)、行動モデル学習部(112)、行動モデル推定部(113)および異常検出部(115)については図1記載の異常監視システムと同じである。
(Other embodiments)
(Behavior analysis system)
An example of the overall configuration of the behavior analysis system will be described with reference to FIG.
The configuration of the sensor, the reception unit (111), the behavior model learning unit (112), the behavior model estimation unit (113), and the abnormality detection unit (115) are the same as those in the abnormality monitoring system shown in FIG.

これら各部に加えて、行動分析システムは、行動DB(114)に保存された行動モデルを参照して、行動の分析を行う、検索部(118)、頻度計測部(117)および速度計測部(116)を備え、各部の分析結果を表示する行動可視化部(119)を有する。   In addition to these units, the behavior analysis system refers to the behavior model stored in the behavior DB (114) to analyze the behavior, and performs a search unit (118), a frequency measurement unit (117), and a speed measurement unit ( 116), and an action visualization unit (119) for displaying the analysis result of each unit.

以下、各部を説明する。
速度計測部(116)では、各行動におけるセンサの発火速度が計算される。今、ある行動の時区間内bで発火したセンサをs1,…,sL、各々の発火時刻をt(si)(1≦i≦L)とすると、発火速度の計算のために、

Figure 0006650305
Hereinafter, each unit will be described.
The speed measuring unit (116) calculates the firing speed of the sensor in each action. Now, assuming that the sensors that fired in the time section b of a certain action are s 1 ,..., S L and each firing time is t (s i ) (1 ≦ i ≦ L),
Figure 0006650305

の他、センサ間の距離d(si,sj)が分かっている場合には、

Figure 0006650305
In addition, if the distance d (s i , s j ) between the sensors is known,
Figure 0006650305

を用いることができる。
ただし、[P]は、Pが真のとき1、偽のとき0の値を取るとする。
Can be used.
However, [P] assumes a value of 1 when P is true and a value of 0 when P is false.

これら計測値は、行動毎に行動DB(114)内に保存される。
頻度計測部(117)では、特定の条件下の特定の行動を、検索部(118)を用いて行動DB(114)から抽出し、その頻度を、行動可視化部(119)を介してユーザに提示可能にする。
These measured values are stored in the behavior DB (114) for each behavior.
The frequency measurement unit (117) extracts a specific action under a specific condition from the action DB (114) using the search unit (118), and notifies the user of the frequency via the action visualization unit (119). Make it presentable.

例えば、トイレに該当する行動の内、前後に睡眠に該当する行動がある場合の頻度が計測できる。
条件や行動の指定は、行動可視化部(119)を介してユーザからの指示に従う場合の他、あらかじめ決められた条件を埋め込んでおくこともできる。
For example, it is possible to measure the frequency when there is an action corresponding to sleep before and after the action corresponding to the toilet.
The designation of the condition or the action may be in accordance with an instruction from the user via the action visualization unit (119), or may be embedded with a predetermined condition.

検索部(118)では、行動可視化部に備わったインタフェースを介したユーザからの指示、あるいは頻度計測部(117)からの要求に応じて、行動DB(114)を参照して特定条件下の特定の行動を検索する。   The search unit (118) refers to the behavior DB (114) in response to an instruction from a user via an interface provided in the behavior visualization unit or a request from the frequency measurement unit (117), and specifies a specific condition. Search for actions.

検索のキーとしても用いることができるのは、時刻・時間、センサの発火情報や推定された行動の他、異常検出部(115)で計測した異常度、速度計測部(116)で計測したセンサ発火速度や頻度計測部(117)で計測した行動頻度などを用いることができる。   The time / time, the ignition information of the sensor, the estimated behavior, the degree of abnormality measured by the abnormality detection unit (115), and the sensor measured by the speed measurement unit (116) can also be used as search keys. The firing speed and the action frequency measured by the frequency measuring unit (117) can be used.

行動可視化部(119)では、行動DBが保持する情報や、各部で計測した値などを分かり易くユーザに提示し、居住者の行動パターンの把握や問題行動の分析に利用される。   The behavior visualization unit (119) presents the information held in the behavior DB and the values measured by each unit to the user in an easy-to-understand manner, and is used for grasping the resident's behavior pattern and analyzing problem behavior.

分かり易い情報提示のためには、行動モデル推定部(113)が出力する行動系列に平滑化処理を施した方が良い場合がある。
例えば、行動列b1,…,bLにおいて同一の行動b(bi=b,1≦i≦L)が連続している場合には、これらを1つの行動bとしてマージして提示することは最も単純な平滑化の1つである。
For easy-to-understand information presentation, it may be better to perform a smoothing process on the action series output by the action model estimation unit (113).
For example, when the same action b (b i = b, 1 ≦ i ≦ L) is continuous in the action sequence b 1 ,..., B L , these are merged and presented as one action b. Is one of the simplest smoothing.

さらに、抽出された行動をクラスタリングし、類似した行動を一つの行動としてマージするような平滑化を考えることができる。
クラスタリング法としては、k−平均法などの既知の手法を用いることができるが、いずれの方法を使う場合でも行動と行動の距離あるいは類似度を定める必要がある。
Further, it is possible to consider smoothing such that the extracted actions are clustered and similar actions are merged as one action.
As the clustering method, a known method such as a k-means method can be used, but in any case, it is necessary to determine the distance or similarity between actions.

本発明における行動のモデル化においては、数式16で示される行動の遷移確率分布や数式17で示されるセンサの発火確率分布が得られるので、これらの分布を用いて与えられた2つの行動に対して距離を定義することができる。例えば、Jensen-Shannon Divergenceを用いて、以下のように行動aとbの距離を定義できる。

Figure 0006650305
Figure 0006650305
In the modeling of the behavior in the present invention, the transition probability distribution of the behavior represented by Formula 16 and the firing probability distribution of the sensor represented by Formula 17 are obtained. Therefore, two behaviors given by using these distributions are obtained. To define the distance. For example, the distance between actions a and b can be defined as follows using Jensen-Shannon Divergence.
Figure 0006650305
Figure 0006650305

ただし、rk=(pk+qk)/2である。もちろん、距離の定義にはθを用いないなど、様々なバリエーションがあり得る。
平滑化を行った結果、複数の連続するフレームが一つの行動としてマージされる場合、新たに得られた時区間を一つのフレームとして再び行動推定部113に入力し、新たなフレーム列に対する行動の推定と尤度の計算を行うことでより精度を高めることができる。
Here, r k = (p k + q k ) / 2. Of course, there can be various variations, such as not using θ for defining the distance.
As a result of performing the smoothing, when a plurality of continuous frames are merged as one action, the newly obtained time interval is input to the action estimation unit 113 again as one frame, and the action for the new frame sequence is The accuracy can be further improved by performing the estimation and the calculation of the likelihood.

図12は、行動可視化部(119)に接続されたディスプレイ等に表示された、ある1日分のデータの可視化の例が示されている。
最上部には、センサの発火時刻に合わせて縦線がセンサ毎に色分けされて表示されている。
その下には、センサの発火系列から推定された行動列が、破線で囲まれた時区間として表示されている。
また、各行動には異常検出部(115)で計算された尤度が「通常度」として表示されている。
FIG. 12 shows an example of visualization of data for one day, which is displayed on a display or the like connected to the behavior visualization unit (119).
At the top, a vertical line is displayed in different colors for each sensor according to the firing time of the sensor.
Below that, the action sequence estimated from the firing sequence of the sensor is displayed as a time section surrounded by a broken line.
Further, the likelihood calculated by the abnormality detection unit (115) is displayed as “normality” for each action.

さらに、一群の行動には、行動可視化部(119)に接続されたキーボードやマウス等の入力デバイスを用いてユーザにより付与された行動ラベル「睡眠」および「外出」が表示されている。   Further, in the group of actions, action labels “sleep” and “going out” given by the user using an input device such as a keyboard and a mouse connected to the action visualization unit (119) are displayed.

図中、ポインタで選択された行動は、睡眠中ベッドから抜け出してトレイに行ってベッドに戻るまでの一連の行動に対応している。
この行動をポイントすることで、この日に行われた複数のトイレ行動がハイライトされて表示されている。
In the figure, the action selected by the pointer corresponds to a series of actions from getting out of the bed during sleep to going to the tray and returning to the bed.
By pointing to this action, a plurality of toilet actions performed on that day are highlighted and displayed.

この状態で検索ボタンを押すことで、選択された行動を行動DB中から、検索部(118)を用い検索し表示させることができる。
図では、このような検索の結果、11月中の午後9時から午前6時の間にトイレに行った回数が20回であること、その総時間がおよそ100分であることが表示されている。
By pressing the search button in this state, the selected action can be searched and displayed from the action DB using the search unit (118).
In the figure, as a result of such a search, it is displayed that the number of times that the user went to the toilet between 9:00 pm and 6:00 am in November was 20 times, and that the total time was about 100 minutes.

また、選択された行動に対して、速度計測部(116)で数式22を用いて計算されたセンサの発火速度が表示されている。
この値は、トイレに行って帰ってくるまでの移動速度が反映されている。
In addition, for the selected action, the firing rate of the sensor calculated by the speed measurement unit (116) using Expression 22 is displayed.
This value reflects the speed of travel from returning to the toilet to returning.

(健康管理システム)
図13を用いて健康管理システムを説明する。
センサの構成、受信部(131)、行動モデル学習部(132)、行動モデル推定部(133)、異常検出部(135)、速度計測部(136)、頻度計測部(137)、検索部(138)については図2記載の行動分析システムと同じである。
(Health management system)
The health management system will be described with reference to FIG.
Sensor configuration, receiving unit (131), behavior model learning unit (132), behavior model estimation unit (133), abnormality detection unit (135), speed measurement unit (136), frequency measurement unit (137), search unit ( 138) is the same as the behavior analysis system shown in FIG.

健康レポート生成部(139)は、日常行動のモニタリングの結果得られた日常行動に係る指標を用いた健康レポートを、あらかじめ用意されたテンプレートに従って自動的に生成し、一定間隔あるいはあらかじめ定められたイベントの発生時に、家族や施設スタッフ等にインターネット回線網等を介して送信する。   The health report generation unit (139) automatically generates a health report using an index related to daily activity obtained as a result of monitoring of daily activity according to a template prepared in advance, at a predetermined interval or at a predetermined event. When an error occurs, the information is transmitted to a family member, facility staff, or the like via an Internet network or the like.

用いる指標としては、異常検出部(135)で計算された行動の異常度を用いることができる。   As an index to be used, the degree of abnormality of the behavior calculated by the abnormality detection unit (135) can be used.

その他、例えば、居室内の歩行速度も重要な指標となり得る。
歩行速度の低下はロコモティブ症候群(非特許文献6)や認知症(非特許文献7)の早期発見の指標となるからである。
In addition, for example, the walking speed in the living room can also be an important index.
This is because a decrease in walking speed is an index for early detection of locomotive syndrome (Non-Patent Document 6) and dementia (Non-Patent Document 7).

数式22で計算されるセンサの発火速度を歩行速度と見做すためには、居室内の移動行動を識別する必要がある。   In order to regard the firing speed of the sensor calculated by Expression 22 as the walking speed, it is necessary to identify the movement behavior in the living room.

そのために、本発明で推定された行動列の内、歩行行動を識別する識別器を健康管理システムに組み込む方法もあるが、より簡便な方法として、数式22で計算したセンサ発火速度の行動毎の平均値の最大値を歩行速度と見做すことができる。この最大値が居室内移動行動に該当している蓋然性が高いからである。例えば、行動tの時区間の集合をDとするとき、以下のように計算されるvを歩行速度と見做すことができる。

Figure 0006650305
For this purpose, there is a method of incorporating a discriminator for identifying a walking behavior in the behavior sequence estimated in the present invention into a health management system. However, as a simpler method, a sensor firing rate calculated by Expression 22 for each behavior is described. The maximum value of the average value can be regarded as the walking speed. This is because there is a high probability that the maximum value corresponds to the indoor movement behavior. For example, a set of interval time of action t when the D t, can be regarded as the walking speed computed by v as follows.
Figure 0006650305

また、睡眠の質も有用な指標となるが、その計算のために、睡眠行動の時間、トイレ等で睡眠が妨げられた頻度、寝返りの頻度の計測値を用いることができる。指標として、例えば、一定時間の中断を許容した睡眠行動系列s1,…,sLに対して、以下で計算される睡眠効率を考えることができる。

Figure 0006650305
In addition, the quality of sleep is also a useful index. For the calculation, measured values of the time of sleep action, the frequency of sleep disturbed in a toilet or the like, and the frequency of turning over can be used. As an index, for example, sleep behavior sequence s 1 which allows interruption of the predetermined time, ..., with respect to s L, can be considered a sleep efficiency is calculated as follows.
Figure 0006650305

ただし、te(s)は行動sの開始時刻、tb(s)は終了時刻とする。
この計算のためには、睡眠やトイレという行動が識別されている必要があるが、これら場所に強く結びついた行動の識別は、単純なルールベースの識別器で実現できる。例えば、ベッド周辺のセンサの活動を含み1時間以上継続する行動を睡眠行動と判定すれば、それ以外の時刻に現れる同一の行動全体で睡眠行動を識別できる。
Here, t e (s) is the start time of the action s, and t b (s) is the end time.
For this calculation, it is necessary that behaviors such as sleep and toilet have been identified, but behaviors strongly associated with these places can be identified with a simple rule-based classifier. For example, if an action that includes a sensor activity around the bed and continues for one hour or more is determined to be a sleep action, the sleep action can be identified by the same entire action that appears at other times.

また、寝返りの頻度は、睡眠行動中のベッド周辺のセンサ活動回数でカウントすることができる。
その際、例えば、ベッド周辺のセンサは、日中ベッド周辺に近づいただけでも活動するが、本発明の行動推定を用いれば、前後のセンサ活動の違いから、同じベッド周辺センサの活動でも、睡眠中のものと日中の活動中のものと区別できるので、より信頼性の高い指標となり得る。
In addition, the frequency of turning over can be counted by the number of sensor activities around the bed during the sleep action.
At that time, for example, the sensor around the bed activates only when approaching the periphery of the bed during the day. It can be a more reliable indicator because it can be distinguished from those that are active during the day and those that are active during the day.

さらに、1日の活動量も有用な指標となり得る。
本発明では、センサの発火活動より上位の行動列を取得できるので、1日の中で観察された行動の頻度、時間や種類を活動量として用いることができる。例えば、1日に現れるT種類の行動bの累積時間をt(b)と表すことにすると、以下の平均エントロピーを活動量の指標とすることができる。

Figure 0006650305
Further, the daily activity can be a useful index.
According to the present invention, since a higher-order action sequence than the firing activity of the sensor can be acquired, the frequency, time, and type of the action observed in one day can be used as the activity amount. For example, if the accumulated time of T types of actions b appearing in one day is represented by t (b), the following average entropy can be used as an index of the activity amount.
Figure 0006650305

ただし、L=Σbt(b)とする。
また、活動量の指標として、数式21で計算されるセンサの発火頻度の総和を用いることもできる。この場合、外出、睡眠やトイレを除いた行動におけるセンサ発火頻度の総和を計算することができるので、より信頼性の高い活動量が計算できる。
However, the L = Σ b t (b) .
In addition, the sum of the firing frequencies of the sensors calculated by Expression 21 can be used as an index of the activity amount. In this case, since the sum of the sensor firing frequencies in the behavior excluding going out, sleeping, and restroom can be calculated, a more reliable activity amount can be calculated.

外出行動の識別は、センサの活動が全く現れないことが特徴であるが、睡眠中などのセンサ活動が全くない時間帯と区別されなければならない。
本発明の行動推定法によれば、外出前後の玄関周辺のセンサや玄関のドアスイッチセンサの活動などの文脈が考慮されるので、外出行動は部屋の中でじっとしている行動とは区別されて抽出される。
Outing behavior identification is characterized by no sensor activity, but must be distinguished from periods of no sensor activity, such as during sleep.
According to the behavior estimation method of the present invention, since the context such as the sensor around the entrance before and after going out and the activity of the door switch sensor at the entrance is taken into consideration, the leaving behavior is distinguished from the activity still in the room. Extracted.

本発明は、センサを設置して発火し得る閉空間または開空間における人のみならず動物等の動体の行動・挙動を識別・分析することを目的とするシステムであって、実施例と同一環境または類似環境において幅広く利用することができる。   The present invention is a system for identifying and analyzing the behavior of not only a human but also a moving object such as an animal in a closed space or an open space where a sensor can be installed and ignited. Or it can be widely used in similar environments.

1 行動
2 センサ
3 フレーム
4 フレーム数
5 m番目のフレームのセンサ発火数
6 行動の種類の数
7 センサの種類の数
8 1日の回数
9 発火速度
10 行動ラベル付与
21 検索範囲
22 頻度/月
23 総時間/月
11,111,131 受信部
12,112,132 行動モデル学習部
13,113,133 行動モデル推定部
14、114,134 行動DB
15,115、135 異常検出部
16 異常警報部
17 監視センター
116、136 速度計測部
117、137 頻度計測部
118,138 検索部
119 行動可視化部
139 健康レポート生成部

Reference Signs List 1 action 2 sensor 3 frame 4 number of frames 5 number of sensor firing of m-th frame 6 number of types of action 7 number of types of sensor 8 times of day 9 firing rate 10 action labeling 21 search range 22 frequency / month 23 Total time / month 11,111,131 Receiving unit 12,112,132 Behavior model learning unit 13,113,133 Behavior model estimating unit 14,114,134 Behavior DB
15, 115, 135 abnormality detection unit 16 abnormality alarm unit 17 monitoring center 116, 136 speed measurement unit 117, 137 frequency measurement unit 118, 138 search unit 119 action visualization unit 139 health report generation unit

Claims (11)

少なくともセンサと受信部と行動モデル学習部と行動モデル推定部と行動DBと異常検出部を備えた閉空間または開空間の所定の領域における人の行動の異常監視システムであって、
前記行動とセンサが共にマルコフ性を有するものとし、
前記所定の領域には少なくとも人体感知センサとスイッチセンサとを含むセンサが複数個配置され、
前記受信部において前記各センサから送信された各センサ情報は時系列的に少なくともセンサの名前、センサの状態およびその状態が変化した日時を含むセンサデータ列に変換され行動モデル学習部と行動モデル推定部に送られ、
前記行動モデル学習部において前記一のセンサデータ列に基づいて前記人の行動が学習されて得られる行動系列からなる初期化行動モデルは、前記一のセンサデータ列に含まれるセンサの初期化された発火頻度(以後頻度カウンタと呼ぶ)ともに行動DBに格納され、
前記行動モデル推定部において前記他のセンサデータ列に基づいて前記人の行動が推定されて得られる行動系列は、前記他のセンサデータ列に含まれる当該センサの発火頻度で更新された当該頻度カウンタとともに行動DBに格納され、かつ、前記推定された行動系列が抽出されて異常検出部に送られ、
前記異常検出部において前記抽出された行動系列に関し前記頻度カウンタに基づいて当該行動が生起し得る確率が計算され、
前記確率に基づいて前記他のセンサデータ列に係る行動の異常を判断する事を特徴とする異常監視システム。
An abnormality monitoring system for human behavior in a predetermined area of a closed space or an open space including at least a sensor, a reception unit, an behavior model learning unit, an behavior model estimation unit, an activity DB, and an abnormality detection unit,
Assume that both the behavior and the sensor have Markov property,
A plurality of sensors including at least a human body sensor and a switch sensor are arranged in the predetermined area,
Each sensor information transmitted from each sensor in the receiving unit is converted in time series into a sensor data string including at least the name of the sensor, the state of the sensor, and the date and time when the state changed, and the behavior model learning unit and the behavior model estimation Sent to the department,
In the behavior model learning unit, an initialization behavior model composed of a behavior sequence obtained by learning the behavior of the person based on the one sensor data sequence is obtained by initializing the sensors included in the one sensor data sequence. Both the firing frequency (hereinafter referred to as frequency counter) are stored in the action DB,
The action series obtained by estimating the action of the person based on the other sensor data string in the action model estimating unit is the frequency counter updated with the firing frequency of the sensor included in the other sensor data string. Is stored in the action DB, and the estimated action sequence is extracted and sent to the abnormality detection unit.
The probability that the action can occur is calculated based on the frequency counter with respect to the extracted action series in the abnormality detection unit,
An abnormality monitoring system, wherein an abnormality in an action related to the other sensor data sequence is determined based on the probability.
前記行動モデルは、前記行動がディリクレ分布を事前分布とするカテゴリカル分布に従い生成され、前記センサは前記行動に依存してディリクレ分布を事前分布とするカテゴリカル分布に従い生成される、階層的な確率モデルであることを特徴とする請求項1に記載の異常監視システム。   The behavior model, wherein the behavior is generated according to a categorical distribution having a Dirichlet distribution as a prior distribution, and the sensor is generated according to a categorical distribution having a Dirichlet distribution as a prior distribution depending on the behavior, a hierarchical probability The abnormality monitoring system according to claim 1, wherein the abnormality monitoring system is a model. 前記センサデータ列は所定の幅の時間窓(フレームと呼ぶ)におけるセンサデータ列(フレーム列と呼ぶ)(次数M)であって、
前記一のセンサデータ列からフレーム列(学習用フレーム列)が行動モデル学習用に抽出され、
前記他のセンサデータ列からフレーム列(推定用フレーム列)が行動モデル推定用に抽出され、
前記各フレームの行動を表す確率変数zはそれ以前の行動に依存してカテゴリカル分布に従い生成され、
前記各フレームのセンサの発火を表す確率変数wは当該フレームに割り当てられた行動zとそれ以前のセンサの発火に依存してカテゴリカル分布に従い生成され、
前記カテゴリカル分布の各事前分布は前記ディリクレ分布であることを特徴とする請求項2に記載の異常監視システム。
The sensor data sequence is a sensor data sequence (called a frame sequence) in a time window of a predetermined width (called a frame) (order M),
A frame sequence (frame sequence for learning) is extracted from the one sensor data sequence for learning the behavior model,
A frame sequence (frame sequence for estimation) is extracted from the other sensor data sequence for behavior model estimation,
The random variable z representing the action of each frame is generated according to a categorical distribution depending on the action before that,
The random variable w representing the sensor firing of each frame is generated according to the categorical distribution depending on the action z assigned to the frame and the sensor firing before that,
The abnormality monitoring system according to claim 2, wherein each prior distribution of the categorical distribution is the Dirichlet distribution.
前記行動モデル学習部および前記行動モデル推定部における前記頻度カウンタはnq,t、nq,・、nt u,・、nt u,vであって、前記学習用フレーム列または前記推定用フレーム列からギブスサンプリングを用いたマルコフ連鎖モンテカルロ法により初期化または更新されたことを特徴とする請求項3に記載の異常監視システム。
ただし、nq,tは、前記各学習用フレーム列において行動列qの直後に行動tが現れる頻度、nt u,vは、前記各学習用フレーム列において行動tにおいてセンサ列uが発火した直後にセンサwが発火する頻度であって、nq,・=Σtq,tであり、nt u,・=Σvt u,vとする。
The frequency counter is n q in the action model learning unit and the behavior model estimator, t, n q, ·, n t u, ·, n t u, a v, the learning frame sequence or for the estimated The abnormality monitoring system according to claim 3, wherein the abnormality monitoring system is initialized or updated from a frame sequence by a Markov chain Monte Carlo method using Gibbs sampling.
However, n q, t, the frequency of action t appears immediately after the action column q in each learning frame sequence, n t u, v, the sensor array u in action t in each learning frame sequence has fired a frequency of the sensor w fires immediately, n q, · = Σ t n q, is t, and n t u, · = Σ v n t u, v.
前記行動モデル推定部における前記行動系列の抽出は、前記推定されて前記DBに保存された前記各頻度カウンタを前記DBから読み出して初期値とし、
前記各頻度カウンタを前記各推定用フレーム列に基づいて前記マルコフ連鎖モンテカルロ法により更新し、
推定された当該各推定用フレーム列に対応する行動列Zを前記行動DBに格納することを特徴とする請求項4に記載の異常監視システム。
The extraction of the behavior series in the behavior model estimating unit reads the frequency counters estimated and stored in the DB from the DB as initial values,
The frequency counter is updated by the Markov chain Monte Carlo method based on the estimation frame sequence,
The abnormality monitoring system according to claim 4, wherein an action sequence Z corresponding to each of the estimated frame sequences for estimation is stored in the action DB.
前記異常検出部において前記推定用フレーム列の各フレームに係る行動について当該フレームの尤度に基づいて異常を判断することを特徴とする請求項5に記載の異常監視システム。   6. The abnormality monitoring system according to claim 5, wherein the abnormality detection unit determines an abnormality in the behavior of each frame of the estimation frame sequence based on the likelihood of the frame. 7. 請求項6に記載の異常監視システムにさらに検索部、頻度計測部、速度計測部、および検索部の検索結果を表示する行動可視化部を備え、
前記速度計測部において前記推定用フレームに係る行動におけるセンサの発火速度が計算され当該行動毎に行動DBに格納され、
頻度計測部において行動DBから特定の行動を抽出してその頻度を前記行動DBに格納し、
前記検索部において前記センサの発火情報、前記異常と判断された前記尤度、前記推定された行動、前記センサ発火速度または前記特定の行動およびその頻度等を索引として前記行動DBの前記行動の検索を可能とし、
前記一の索引が与えられた場合に前記検索部において前記行動DBから所定の期間(日、週、月、年等)の前記行動を検索して当該行動を行動可視化部において表示することを特徴とする行動分析システム。
The abnormality monitoring system according to claim 6, further comprising a search unit, a frequency measurement unit, a speed measurement unit, and a behavior visualization unit that displays a search result of the search unit,
In the speed measurement unit, the firing speed of the sensor in the action related to the estimation frame is calculated and stored in the action DB for each action,
The frequency measurement unit extracts a specific behavior from the behavior DB, stores the frequency in the behavior DB,
The search of the action in the action DB using the sensor firing information in the search unit, the likelihood determined to be abnormal, the estimated action, the sensor firing rate or the specific action and its frequency as an index. And enable
When the one index is given, the search unit searches the behavior DB for the behavior for a predetermined period (day, week, month, year, etc.) and displays the behavior in the behavior visualization unit. Behavior analysis system.
請求項7において前記行動可視化部に代わって健康レポート生成部を備え、前記特定の行動の当該頻度、時間や種類に基づいた活動量を記載した健康レポートを提供することを特徴とする健康管理システム。   8. A health management system according to claim 7, further comprising a health report generation unit in place of the behavior visualization unit, and providing a health report describing an activity amount based on the frequency, time, and type of the specific behavior. . 請求項8に記載する健康管理システムであって、
前記計算された前記センサの発火速度を当該発火センサに係る前記領域の移動に係る前記特定行動の速さと看做して、
前記所定の期間における前記行動の平均発火速度の最大値を当該人の歩行速度と記載した健康レポートを提供することを特徴とする健康管理システム。
It is a health management system according to claim 8,
Considering the calculated firing speed of the sensor as the speed of the specific action related to the movement of the area according to the firing sensor,
A health management system characterized by providing a health report in which the maximum value of the average firing speed of the action during the predetermined period is described as the walking speed of the person.
請求項8に記載する健康管理システムであって、
さらに特定の前記センサの発火を含み所定時間以上継続する前記行動を睡眠行動と識別し得る識別器を備え、
前記所定の期間に前記識別器が識別した前記睡眠行動からなる睡眠行動列の中断時間に基づいて前記睡眠行動列に係る睡眠の質と記載した健康レポートを提供することを特徴とする健康管理システム。
It is a health management system according to claim 8,
Further comprising a discriminator capable of discriminating the behavior that lasts a predetermined time or more including the firing of the specific sensor as a sleep behavior,
A health management system for providing a health report stating sleep quality related to the sleep behavior sequence based on an interruption time of a sleep behavior sequence including the sleep behavior identified by the classifier during the predetermined period. .
請求項1乃至請求項10のいずれか1項に記載の健康管理システム、行動分析システム、異常監視システムに係る前記センサデータおよび関連データを当該処理する事を特徴とするプログラムを記録した記憶媒体。   A storage medium storing a program for processing the sensor data and related data of the health management system, the behavior analysis system, and the abnormality monitoring system according to any one of claims 1 to 10.
JP2016053465A 2016-03-17 2016-03-17 Behavior analysis system and program Active JP6650305B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016053465A JP6650305B2 (en) 2016-03-17 2016-03-17 Behavior analysis system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016053465A JP6650305B2 (en) 2016-03-17 2016-03-17 Behavior analysis system and program

Publications (2)

Publication Number Publication Date
JP2017167878A JP2017167878A (en) 2017-09-21
JP6650305B2 true JP6650305B2 (en) 2020-02-19

Family

ID=59913423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016053465A Active JP6650305B2 (en) 2016-03-17 2016-03-17 Behavior analysis system and program

Country Status (1)

Country Link
JP (1) JP6650305B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6986689B2 (en) 2017-12-27 2021-12-22 パナソニックIpマネジメント株式会社 Cognitive function evaluation device, cognitive function evaluation system, and program
JP6919761B2 (en) 2018-03-14 2021-08-18 日本電気株式会社 Traffic analyzers, methods and programs
JP2021518004A (en) * 2018-04-13 2021-07-29 ブレイノフティー インコーポレイテッド Use of contextual information in the environment component area for event / activity prediction
JP7192860B2 (en) * 2018-04-26 2022-12-20 日本電気株式会社 Motion estimation system, motion estimation method, and motion estimation program
DE112018007522T5 (en) * 2018-05-31 2021-01-14 Mitsubishi Electric Corporation WORK ANALYSIS DEVICE
WO2020003951A1 (en) * 2018-06-26 2020-01-02 コニカミノルタ株式会社 Program executed by computer, information processing device, and method executed by computer
CN111509727B (en) * 2019-01-30 2021-12-31 国网能源研究院有限公司 User load curve modeling method for distributed power supply based on user behaviors
JP7499425B1 (en) 2023-03-30 2024-06-13 株式会社Ic Monitoring support system, device, method, and program
CN116863638B (en) * 2023-06-01 2024-02-23 国药集团重庆医药设计院有限公司 Personnel abnormal behavior detection method and security system based on active early warning

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3996428B2 (en) * 2001-12-25 2007-10-24 松下電器産業株式会社 Abnormality detection device and abnormality detection system
JP2006134080A (en) * 2004-11-05 2006-05-25 Ntt Docomo Inc Portable terminal, and individual adaptive context acquiring method
JP2015207179A (en) * 2014-04-22 2015-11-19 国立研究開発法人産業技術総合研究所 behavior understanding system and program

Also Published As

Publication number Publication date
JP2017167878A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6650305B2 (en) Behavior analysis system and program
Van Kasteren et al. An activity monitoring system for elderly care using generative and discriminative models
Aminikhanghahi et al. Enhancing activity recognition using CPD-based activity segmentation
Ye et al. KCAR: A knowledge-driven approach for concurrent activity recognition
Dahmen et al. Smart secure homes: a survey of smart home technologies that sense, assess, and respond to security threats
Chikhaoui et al. A frequent pattern mining approach for ADLs recognition in smart environments
Lundström et al. Detecting and exploring deviating behaviour of smart home residents
Ordonez et al. In-home activity recognition: Bayesian inference for hidden Markov models
US20170365149A1 (en) A system and method for monitoring activities of daily living of a person
van Kasteren Activity recognition for health monitoring elderly using temporal probabilistic models
JP2015207179A (en) behavior understanding system and program
Amayri et al. Database quality assessment for interactive learning: Application to occupancy estimation
Viard et al. Human activity discovery and recognition using probabilistic finite-state automata
Yahaya et al. Detecting anomaly and its sources in activities of daily living
Coppola et al. Learning temporal context for activity recognition
Van Kasteren et al. Recognizing activities in multiple contexts using transfer learning
Rodner et al. Data-driven generation of rule-based behavior models for an ambient assisted living system
Sfar et al. Activity recognition for anomalous situations detection
Shang et al. BIA: Behavior identification algorithm using unsupervised learning based on sensor data for home elderly
Naeem et al. Recognising activities of daily life using hierarchical plans
Prenkaj et al. A self-supervised algorithm to detect signs of social isolation in the elderly from daily activity sequences
Pazhoumand-Dar et al. Detecting deviations from activities of daily living routines using kinect depth maps and power consumption data
Alam et al. Smart-energy group anomaly based behavioral abnormality detection
Sahlab et al. Graph-based association rule learning for context-based health monitoring to enable user-centered assistance
Massie et al. Fitsense: Employing multi-modal sensors in smart homes to predict falls

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6650305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250