JP2007249922A - Nonroutine action detecting system - Google Patents

Nonroutine action detecting system Download PDF

Info

Publication number
JP2007249922A
JP2007249922A JP2006076471A JP2006076471A JP2007249922A JP 2007249922 A JP2007249922 A JP 2007249922A JP 2006076471 A JP2006076471 A JP 2006076471A JP 2006076471 A JP2006076471 A JP 2006076471A JP 2007249922 A JP2007249922 A JP 2007249922A
Authority
JP
Japan
Prior art keywords
behavior
unit
data
action
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006076471A
Other languages
Japanese (ja)
Inventor
Atsushi Oda
淳志 小田
Kazue Sumiya
和重 角谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006076471A priority Critical patent/JP2007249922A/en
Publication of JP2007249922A publication Critical patent/JP2007249922A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically define routine action from the moving line of action in real environment by clustering the moving line of action in the real environment into appropriate action. <P>SOLUTION: This nonroutine action detecting system comprises a first clustering section 1201 clustering a plurality of action data generated from the time sequence moving line information of a person for every action; a first action model generating section 1202 generating an action model by modeling the plurality of action data clustered by the first clustering section 1201, for every model; a first recognition processing section 1203 recognizing the plurality of action data using the first action model to obtain a recognition result and likelihood; a first action data selecting section 1204 selecting only the action data in which the likelihood obtained by the first recognition processing section 1203 is a threshold value or more; and a second clustering section 1205 clustering the action data selected by the first action data selecting section 1204, into action shown by the recognition result of the first recognition processing section 1203. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、行動認識の対象となる人物の非日常行動を検知する非日常行動検知システムに関する。   The present invention relates to an extraordinary behavior detection system for detecting an extraordinary behavior of a person who is a target of behavior recognition.

従来、高齢者の異常を検知するシステムや高齢者の行動を見守るシステムなどでは、人物の行動を検知して、人物の行動を認識する技術(以下、「行動認識技術」という。)が用いられている。また、一般に対しても、生活行動からその人の状態を推測し、適切なサービスを提供する試みが行われている。また、このような行動認識技術としては、以下に示す行動認識技術が知られている。   2. Description of the Related Art Conventionally, in a system for detecting an anomaly of an elderly person or a system for watching the behavior of an elderly person, a technique for detecting a person's action and recognizing the person's action (hereinafter referred to as “behavior recognition technology”) is used. ing. Also, for the general public, an attempt has been made to provide an appropriate service by inferring the person's state from living behavior. Further, as such behavior recognition technology, the following behavior recognition technology is known.

あらかじめ生成された行動モデルと行動認識の対象となるデータ(以下、「認識対象データ」という。)とを比較して、認識対象データとの尤度が最も高い行動モデルに対応する行動を認識結果として出力する技術が挙げられる。具体的には、隠れマルコフモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって人物の行動データから複数の行動モデルをあらかじめ生成しておき、複数の行動モデルの中で認識対象データとの尤度が最も高い行動モデルに対応する行動が認識結果として出力される。   Compare the action model generated in advance with the data that is the target of action recognition (hereinafter referred to as “recognition target data”), and recognize the action corresponding to the action model with the highest likelihood of the recognition target data. The technology to output is mentioned. Specifically, a plurality of behavior models are generated in advance from human behavior data by a statistical model generation method such as a Hidden Markov Model (HMM), and the recognition target data in the plurality of behavior models is generated. The behavior corresponding to the behavior model with the highest likelihood is output as a recognition result.

行動認識技術を利用して行動の非日常性を検知するために、あらかじめ人手により定義された日常行動テンプレートと実際に起きた行動との違いを検出することで、異常の発生を判断する手法が提案されている(例えば、特許文献1参照。)。
特開2003−256957号公報
In order to detect the unusualness of behavior using behavior recognition technology, there is a method to determine the occurrence of anomalies by detecting the difference between the daily behavior template defined in advance by hand and the behavior that actually occurred It has been proposed (see, for example, Patent Document 1).
JP 2003-256957 A

しかしながら、上述した背景技術においては、異常の発生を検知する前の段階で、日常行動があらかじめ人手により定義されている。このため、複雑で多様な人物の行動の全てを行動特徴の組み合せによって定義することは非常に困難であり、限られた人物の行動しか認識することができない。   However, in the background art described above, daily actions are defined in advance by hand before detecting the occurrence of an abnormality. For this reason, it is very difficult to define all of the actions of a complex and diverse person by a combination of action characteristics, and only a limited number of person actions can be recognized.

高齢者の行動を見守るシステムでは、転倒・卒倒等の異常行動の検知に加えて、介護福祉施設等がより上質なケアを提供するために、プライバシーを保護した上で高齢者の生活パターンを検知し、生活習慣や健康状態の変化、廊下の兆候等を推定することが強く求められている。   In addition to detecting abnormal behavior such as falls and falls, the system for monitoring elderly people's behavior detects the lifestyle patterns of elderly people while protecting their privacy so that care welfare facilities can provide better quality care. However, there is a strong demand for estimating changes in lifestyle and health conditions, and signs in the hallway.

連続した実生活データから行動の非日常性を検知するには、行動を学習する際に、実生活データの分割方法や分割された行動において類似する行動をまとめる方法を工夫する必要がある。   In order to detect the unusualness of behavior from continuous real life data, it is necessary to devise a method of dividing real life data and a method of collecting similar behaviors in divided behavior when learning the behavior.

上記問題点に鑑み、本発明は、実環境での行動動線を適切な行動にクラスタリングすることで、実環境での行動動線から日常的な行動を自動的に定義できる非日常行動検知システムを提供する。   In view of the above problems, the present invention is a non-daily behavior detection system that can automatically define a daily behavior from a behavior flow in the real environment by clustering the behavior flow in the real environment into an appropriate behavior. I will provide a.

本発明の第1の特徴は、人物の非日常行動を検知する非日常行動検知システムであって、人物の時系列動線情報から生成された複数の行動データを行動毎にクラスタリングし、クラスタリングした複数の行動データを行動毎にモデル化した第1行動モデルを生成する第1学習処理部と、複数の行動データをクラスタリングして第2行動モデルを生成する第2学習処理部とを備え、第2学習処理部は、第1行動モデルを用いて複数の行動データを認識し、認識結果及び尤度を得る第1認識処理部と、第1認識処理部が求めた尤度が閾値以上である行動データのみを複数の行動データから選別する第1行動データ選別部と、第1行動データ選別部が選別した行動データを、第1認識処理部の認識結果の示す行動にクラスタリングする第2クラスタリング部と、第2クラスタリング部がクラスタリングした行動データから第2行動モデルを生成する第2行動モデル生成部とを備える非日常行動検知システムであることを要旨とする。第1の特徴に係る非日常行動検知システムによれば、類似する行動をまとめ、適切な行動にクラスタリングすることで実環境での行動動線から日常的な行動を自動的に定義できる。   A first feature of the present invention is an extraordinary behavior detection system that detects an extraordinary behavior of a person, and a plurality of behavior data generated from time-series flow line information of the person is clustered for each behavior and clustered. A first learning processing unit that generates a first behavior model obtained by modeling a plurality of behavior data for each behavior; and a second learning processing unit that generates a second behavior model by clustering the plurality of behavior data. The second learning processing unit recognizes a plurality of behavior data using the first behavior model and obtains a recognition result and a likelihood, and the likelihood obtained by the first recognition processing unit is equal to or greater than a threshold value. A first behavior data selection unit that selects only behavior data from a plurality of behavior data, and a second cluster that clusters the behavior data selected by the first behavior data selection unit into the behavior indicated by the recognition result of the first recognition processing unit A ring portion, the second clustering unit is summarized in that a non-daily activity detection system comprising a second behavior model generating unit for generating a second behavior model from the action data clustering. According to the extraordinary behavior detection system according to the first feature, the routine behavior can be automatically defined from the behavior flow line in the real environment by collecting similar behaviors and clustering them into appropriate behaviors.

第2の特徴は、第1の特徴に係る非日常行動検知システムにおいて、複数の行動データをクラスタリングして第3〜第n行動モデルを生成する第3〜第n学習処理部を更に備え(n;4以上の整数)、第3学習処理部は、第2行動モデルを用いて複数の行動データを認識し、認識結果及び尤度を得る第2認識処理部と、第2認識処理部が求めた尤度が閾値以上である行動データのみを複数の行動データから選別する第2行動データ選別部と、第2行動データ選別部が選別した行動データを、第2認識処理部の認識結果の示す行動にクラスタリングする第3クラスタリング部と、第3クラスタリング部がクラスタリングした行動データから第3行動モデルを生成する第3行動モデル生成部とを備えることを要旨とする。   The second feature further includes third to n-th learning processing units that generate a third to n-th behavior model by clustering a plurality of behavior data in the extraordinary behavior detection system according to the first feature (n An integer of 4 or more), the third learning processing unit recognizes a plurality of behavior data using the second behavior model, and obtains a recognition result and a likelihood, and a second recognition processing unit obtains the recognition result and likelihood. The recognition result of the second recognition processing unit indicates the second behavior data selection unit that selects only the behavior data whose likelihood is equal to or greater than the threshold from the plurality of behavior data, and the behavior data selected by the second behavior data selection unit. The gist of the present invention is to include a third clustering unit that performs clustering on behavior and a third behavior model generation unit that generates a third behavior model from behavior data clustered by the third clustering unit.

第3の特徴は、第2の特徴に係る非日常行動検知システムにおいて、第2〜第n行動モデルのいずれかを用いて認識対象の行動データを認識し、非日常行動を検知する行動認識部を更に備えることを要旨とする。   The third feature is the behavior recognition unit that recognizes behavior data to be recognized using any one of the second to n-th behavior models and detects unusual behavior in the unusual behavior detection system according to the second feature. Is further provided.

第4の特徴は、第3の特徴に係る非日常行動検知システムにおいて、第2〜第n学習処理部によるクラスタリングによって、直前のクラスタリング結果とは異なる行動にクラスタリングされた行動データの数が閾値以下となった際に生成された行動モデルを、認識対象の行動データを認識するための最終的な行動モデルとするクラスタリング結果判定部を更に備えることを要旨とする。   The fourth feature is that in the extraordinary behavior detection system according to the third feature, the number of behavior data clustered into behaviors different from the previous clustering result by clustering by the second to nth learning processing units is equal to or less than a threshold value. The gist of the present invention is to further include a clustering result determination unit that uses the behavior model generated at the time of becoming the final behavior model for recognizing the behavior data to be recognized.

第5の特徴は、第3又は第4の特徴に係る非日常行動検知システムにおいて、第2〜第n学習処理部によるクラスタリングによって、異なる行動にクラスタリングされた行動データの数が閾値以下となった際に生成された行動モデルを、認識対象の行動データを認識するための最終的な行動モデルとして選択する行動モデル選択部を更に備えることを要旨とする。第4の特徴に係る非日常行動検知システムによれば、行動の内部状態を考慮することで、行動の中の非日常性の検知が可能となる。   The fifth feature is that in the extraordinary behavior detection system according to the third or fourth feature, the number of behavior data clustered into different behaviors is equal to or less than a threshold value by clustering by the second to nth learning processing units. The gist of the invention is to further include a behavior model selection unit that selects the behavior model generated at this time as a final behavior model for recognizing behavior data to be recognized. According to the extraordinary behavior detection system according to the fourth feature, the extraordinary behavior in the behavior can be detected by considering the internal state of the behavior.

第6の特徴は、第5の特徴に係る非日常行動検知システムにおいて、行動認識部は、第2〜第n行動モデルのいずれかを用いて認識対象の行動データを認識し、認識結果及び尤度を得る第3認識処理部と、認識対象の行動データと第3認識処理部の認識結果の示す行動に対応するヒストグラムとを比較し、単位時間当たりの移動量の頻度の差分値を算出する差分値算出部と、第3認識処理部が得た尤度と差分値に基づいて、非日常行動の検知に用いる評価値を算出する評価値算出部とを備えることを要旨とする。第6の特徴に係る非日常行動検知システムによれば、ヒストグラムの差分値と尤度とに基づいて、非日常行動の検知に用いる評価値を求めることが可能となる。   A sixth feature is that in the extraordinary behavior detection system according to the fifth feature, the behavior recognition unit recognizes the behavior data to be recognized using any one of the second to nth behavior models, and the recognition result and the likelihood. A third recognition processing unit that obtains a degree, and the behavior data to be recognized and the histogram corresponding to the behavior indicated by the recognition result of the third recognition processing unit are compared, and the difference value of the frequency of the movement amount per unit time is calculated. The gist is to include a difference value calculation unit and an evaluation value calculation unit that calculates an evaluation value used for detecting an extraordinary action based on the likelihood and the difference value obtained by the third recognition processing unit. According to the extraordinary behavior detection system according to the sixth feature, it is possible to obtain an evaluation value used for detecting extraordinary behavior based on the difference value and likelihood of the histogram.

第7の特徴は、第6の特徴に係る非日常行動検知システムにおいて、行動認識部は、評価値を積算して累積評価値が閾値を超えた場合に非日常行動の発生と判定する判定部を更に備えることを要旨とする。第7の特徴に係る非日常行動検知システムによれば、一連の行動における非日常行動を検知可能となる。   The seventh feature is that in the extraordinary behavior detection system according to the sixth feature, the behavior recognition unit accumulates the evaluation values and determines that the extraordinary behavior occurs when the cumulative evaluation value exceeds the threshold value. Is further provided. According to the extraordinary behavior detection system according to the seventh feature, the extraordinary behavior in a series of behaviors can be detected.

第8の特徴は、第1〜第7の特徴に係る非日常行動検知システムにおいて、時系列動線情報から人物の移動開始及び移動停止を判定する停止状態判定部と、時系列動線情報から人物のエリア遷移の有無を判定するエリア遷移判定部と、移動開始から移動停止までで時系列動線情報を分割し、分割した時系列動線情報のうちエリア遷移を含む時系列動線情報を行動データ及び認識対象の行動データとして出力する行動データ出力部とを更に備え、エリア遷移の履歴を示すエリア遷移履歴をクラスタリングの基準として用いることを要旨とする。第8の特徴に係る非日常行動検知システムによれば、連続した実生活データ(時系列動線情報)から、最適なデータ分割を行うことが可能となる。   The eighth feature is that in the extraordinary behavior detection system according to the first to seventh features, the stop state determination unit that determines the movement start and stop of the person from the time-series flow line information, and the time-series flow line information An area transition determination unit that determines the presence or absence of an area transition of a person, and time-series flow line information that divides time-series flow line information from movement start to movement stop, and includes time-series flow line information including area transitions in the divided time-series flow line information. A gist is to further include an action data output unit that outputs action data and action data to be recognized, and uses an area transition history indicating an area transition history as a clustering reference. According to the extraordinary behavior detection system according to the eighth feature, it is possible to perform optimal data division from continuous real life data (time-series flow line information).

本発明によれば、実環境での行動動線を適切な行動にクラスタリングすることで、実環境での行動動線から日常的な行動を自動的に定義できる非日常行動検知システムを提供できる。   According to the present invention, it is possible to provide an extraordinary behavior detection system that can automatically define a daily behavior from a behavior flow in the real environment by clustering the behavior flow in the real environment into an appropriate behavior.

次に、図面を参照して、本発明の実施形態を説明する。以下の実施形態における図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。   Next, an embodiment of the present invention will be described with reference to the drawings. In the description of the drawings in the following embodiments, the same or similar parts are denoted by the same or similar reference numerals.

(全体構成例)
本発明の実施形態に係る非日常行動検知システムは、図1に示すように、例えば、高齢者等の人物の遠隔見守り(遠隔監視)システムとして構成される。非日常行動検知システムは、被監視者の住居に設置される検出装置110と、監視センタに設置される非日常行動検知装置1と、監視者の住居に設置される出力装置120とを備える。検出装置110、非日常行動検知装置1、及び出力装置120は、インターネット等の通信ネットワーク100を介して相互に通信可能なように構成されている。なお、通信ネットワーク100は、有線ネットワークに限らず無線ネットワークであってもかまわない。
(Overall configuration example)
As shown in FIG. 1, the extraordinary behavior detection system according to the embodiment of the present invention is configured as a remote monitoring (remote monitoring) system for a person such as an elderly person, for example. The extraordinary behavior detection system includes a detection device 110 installed in a monitored person's residence, an extraordinary behavior detection device 1 installed in a monitoring center, and an output device 120 installed in the monitoring subject's residence. The detection device 110, the extraordinary behavior detection device 1, and the output device 120 are configured to be able to communicate with each other via a communication network 100 such as the Internet. Note that the communication network 100 is not limited to a wired network, and may be a wireless network.

検出装置110は、人物の生活動線を検出するように構成されており、人物の行動動線を検知するセンサ部101と、センサ部101が検知したデータを処理して、単位時間当たりの移動量及び座標データを出力するセンサデータ処理部102と、通信ネットワーク100と通信を行う通信処理部103とを備える。センサ部101としては、例えば床圧力センサ、焦電センサ、無線タグ(RF−ID)、又は撮像装置等、あるいはこれらの組み合せが使用できる。すなわち、人物の生活動線が検出可能であればセンサ部101として使用可能である。以下においては、センサ部101として複数の床圧力センサを使用する一例を説明する。   The detection device 110 is configured to detect a person's live activity line, and the sensor unit 101 that detects a person's action flow line, and the data detected by the sensor unit 101 are processed to move per unit time. A sensor data processing unit 102 that outputs quantity and coordinate data, and a communication processing unit 103 that communicates with the communication network 100 are provided. As the sensor unit 101, for example, a floor pressure sensor, a pyroelectric sensor, a wireless tag (RF-ID), an imaging device, or a combination thereof can be used. That is, as long as a person's live activity line can be detected, the sensor unit 101 can be used. In the following, an example in which a plurality of floor pressure sensors is used as the sensor unit 101 will be described.

非日常行動検知装置1は、検出装置110から通信ネットワーク100を介して受信した時系列動線情報に基づいて人物の非日常行動を検知するように構成されており、各種の情報処理を行う処理装置10と、各種の情報を記憶する記憶装置20と、通信ネットワーク100と通信を行う通信処理部30とを備える。処理装置10は、記憶装置20にあらかじめ記憶された制御プログラムを実行することで、時系列動線情報から複数の行動データを生成する行動データ生成部11と、複数の行動データを用いて人物の行動を学習する行動学習部12と、行動学習部12の学習結果に基づいて行動データを認識し、非日常行動を検知する行動認識部13のそれぞれの機能を実行する。   The extraordinary behavior detection device 1 is configured to detect a person's extraordinary behavior based on time-series flow line information received from the detection device 110 via the communication network 100, and performs various types of information processing. The apparatus 10 includes a storage device 20 that stores various types of information, and a communication processing unit 30 that communicates with the communication network 100. The processing device 10 executes a control program stored in the storage device 20 in advance, thereby generating a plurality of behavior data from the time-series flow line information, and using the plurality of behavior data, The behavior learning unit 12 that learns the behavior and the behavior recognition unit 13 that recognizes the behavior data based on the learning result of the behavior learning unit 12 and detects the extraordinary behavior are executed.

出力装置120は、監視者に対して、被監視者における非日常行動の発生を通知する通知部121と、通知部121を制御する制御部122と、通信ネットワーク100と通信を行う通信処理部123とを備える。通知部121としては、映像出力装置、音声出力装置、又は家庭用ロボット等、あるいはこれらの組み合せが使用できる。   The output device 120 includes a notification unit 121 that notifies the monitor of the occurrence of extraordinary behavior in the monitored person, a control unit 122 that controls the notification unit 121, and a communication processing unit 123 that communicates with the communication network 100. With. As the notification unit 121, a video output device, an audio output device, a home robot, or a combination thereof can be used.

次に、図2に示すフローチャートを参照して、本発明の実施形態に係る非日常行動検知装置1の動作概要を説明する。   Next, with reference to the flowchart shown in FIG. 2, the operation | movement outline | summary of the extraordinary action detection apparatus 1 which concerns on embodiment of this invention is demonstrated.

ステップS101において、行動データ生成部11は、人物の時系列動線情報を、検出装置110から通信ネットワーク100を介して受信し、受信した時系列動線情報から複数の行動データ(学習用の行動データ)を生成する。   In step S <b> 101, the behavior data generation unit 11 receives time series flow line information of a person from the detection device 110 via the communication network 100, and a plurality of behavior data (behavior for learning) is received from the received time series flow line information. Data).

ステップS102において、行動学習部12は、ステップS101で生成された複数の行動データを学習し、行動モデルを生成する。   In step S102, the behavior learning unit 12 learns the plurality of behavior data generated in step S101 and generates a behavior model.

ステップS103において、行動データ生成部11は、人物の時系列動線情報を、検出装置110から通信ネットワーク100を介して受信し、受信した時系列動線情報から複数の行動データ(認識対象の行動データ)を生成する。   In step S <b> 103, the behavior data generation unit 11 receives time series flow line information of a person from the detection device 110 via the communication network 100, and a plurality of behavior data (recognition target behaviors) are received from the received time series flow line information. Data).

ステップS104において、行動認識部13は、ステップS102で得られた行動モデルを用いて、ステップS103で得られた行動データを認識し、非日常行動を検知する。   In step S104, the behavior recognition unit 13 recognizes the behavior data obtained in step S103 using the behavior model obtained in step S102, and detects unusual behavior.

以下、行動データ生成部11、行動学習部12、及び行動認識部13の詳細について説明する。   Hereinafter, details of the behavior data generation unit 11, the behavior learning unit 12, and the behavior recognition unit 13 will be described.

(行動データ生成部)
行動データ生成部11の機能構成例を図3に示す。行動データ生成部11は、時系列動線情報から人物の移動開始及び移動停止を判定する停止状態判定部111と、時系列動線情報から人物のエリア遷移の有無を判定するエリア遷移判定部112と、移動開始から移動停止までで時系列動線情報を分割し、分割した時系列動線情報のうちエリア遷移を含む時系列動線情報を行動データとして出力する行動データ出力部113とを備える。「エリア遷移」とは、図4に示すように、被監視者の住居の間取りに応じた部屋をエリアとして部屋の遷移を意味しているが、1つの部屋内に複数のエリアを定義し、定義されたエリア間での遷移であってもよい。行動データ出力部113は、行動データに対して、エリア遷移の履歴を示すエリア遷移履歴の情報を付加する。エリア遷移履歴の情報は、行動学習部12のクラスタリング処理等に使用される。
(Behavior data generator)
An example of the functional configuration of the behavior data generation unit 11 is shown in FIG. The behavior data generation unit 11 includes a stop state determination unit 111 that determines the start and stop of movement of a person from time-series flow line information, and an area transition determination unit 112 that determines whether or not there is a person area transition from the time-series flow line information. And a behavior data output unit 113 that divides time-series flow line information from the start of movement to stop of movement and outputs time-series flow line information including area transitions among the divided time-series flow line information as action data. . As shown in FIG. 4, “area transition” means a room transition with a room corresponding to the layout of the monitored person's residence as an area, but a plurality of areas are defined in one room, It may be a transition between defined areas. The behavior data output unit 113 adds area transition history information indicating an area transition history to the behavior data. The area transition history information is used for clustering processing of the behavior learning unit 12 and the like.

なお、図4において円形及び正方形でプロットされている点(時系列動線情報)は、単位時間(例えば5[s])毎に人物が存在した位置を示し、それぞれ単位時間当たりの移動量の情報と、x方向及びx方向に直交するy方向の平均座標の情報とを有している。   In addition, the points (time-series flow line information) plotted in a circle and a square in FIG. 4 indicate positions where persons exist for each unit time (for example, 5 [s]), and the amount of movement per unit time is shown respectively. Information and information on average coordinates in the y direction orthogonal to the x direction and the x direction.

図4に示すように、停止状態判定部111は、単位時間当たりの移動量が1[m]以下である状態を停止状態と判定する。具体的には、停止状態判定部111は、単位時間当たりの移動量データを、あらかじめ設定された停止状態閾値と比較することで停止状態を判定する。   As illustrated in FIG. 4, the stop state determination unit 111 determines that a movement amount per unit time is 1 [m] or less as a stop state. Specifically, the stop state determination unit 111 determines a stop state by comparing movement amount data per unit time with a preset stop state threshold.

エリア遷移判定部112は、平均座標データを入力として、エリア遷移の有無を判定する。具体的には、エリア遷移判定部112は、平均座標データをあらかじめ設定されたエリア閾値と比較することでエリア遷移を判定する。図4に示す例においては、エリア遷移履歴は、部屋Aから部屋Bへ移動(遷移)しているために“AB”で表される。なお、以下の実施形態の説明においては、被監視者の住居に“A”〜“G”の少なくとも7つの部屋が存在するものとしている。   The area transition determination unit 112 receives the average coordinate data as input and determines whether there is an area transition. Specifically, the area transition determination unit 112 determines the area transition by comparing the average coordinate data with a preset area threshold. In the example shown in FIG. 4, the area transition history is represented by “AB” because it moves (transitions) from room A to room B. In the following description of the embodiment, it is assumed that there are at least seven rooms “A” to “G” in the residence of the monitored person.

次に、図5に示すフローチャートを参照して、行動データ生成部11の動作例、すなわち図2に示すステップS101及びS103の詳細について説明する。ただし、説明の便宜上、1つの行動データを生成する場合について説明する。   Next, with reference to the flowchart shown in FIG. 5, the operation example of the action data generation part 11, ie, the detail of step S101 and S103 shown in FIG. 2, is demonstrated. However, for convenience of explanation, a case where one behavior data is generated will be described.

ステップS201において、停止状態判定部111は、単位時間当たりの移動量データを停止状態閾値と比較して、停止状態閾値以上である場合に人物の移動開始と判定する。また、エリア遷移判定部112は、平均座標データをエリア閾値と比較することでエリア遷移を検知する。   In step S201, the stop state determination unit 111 compares the movement amount data per unit time with the stop state threshold value, and determines that the movement of the person is started when the stop state threshold value is greater than or equal to the stop state threshold value. Moreover, the area transition determination part 112 detects an area transition by comparing average coordinate data with an area threshold value.

ステップS202において、停止状態判定部111は、単位時間当たりの移動量データを停止状態閾値と比較して、停止状態閾値未満である場合に人物の移動停止と判定する。   In step S202, the stop state determination unit 111 compares the movement amount data per unit time with the stop state threshold value, and determines that the movement of the person is stopped when it is less than the stop state threshold value.

ステップS203において、エリア遷移判定部112は、エリア遷移が含まれているか否かを判定する。エリア遷移が含まれていると判定された場合、ステップS204に進む。エリア遷移が含まれていないと判定された場合、行動データが生成されずに処理が終了する。   In step S203, the area transition determination unit 112 determines whether an area transition is included. If it is determined that an area transition is included, the process proceeds to step S204. If it is determined that the area transition is not included, the process ends without generating behavior data.

ステップS204において、行動データ出力部113は、ステップS201で検知された移動開始から、ステップS202で検知された移動停止までの時系列動線情報を行動データとして生成(データ分割)する。また、行動データ出力部113は、行動データにエリア遷移履歴の情報を付加する。生成された行動データは、例えば図1に示す記憶装置20に記憶される。   In step S204, the behavior data output unit 113 generates time-series flow line information from the movement start detected in step S201 to the movement stop detected in step S202 as behavior data (data division). Further, the behavior data output unit 113 adds area transition history information to the behavior data. The generated behavior data is stored in, for example, the storage device 20 illustrated in FIG.

このように、本発明の実施形態に係る行動データ生成部11によれば、連続した実生活データ(時系列動線情報)から、データ処理単位である行動データを自動的に生成できる。   Thus, according to the action data generation unit 11 according to the embodiment of the present invention, action data that is a data processing unit can be automatically generated from continuous real life data (time-series flow line information).

(行動学習部)
行動学習部12の機能構成例を図6に示す。行動学習部12は、図6に示すように、第1〜第3学習処理部1251〜1253、及びヒストグラム生成部1211を備える。第1〜第3学習処理部1251〜1253は、行動データ記憶部21に記憶された複数の行動データを学習してそれぞれ行動モデル(学習モデル)を生成する。第1学習処理部1251は、第1クラスタリング部1201及び第1行動モデル生成部1202を備える。第2学習処理部1252は、第1認識処理部1203、第1行動データ選別部1204、第2クラスタリング部1205、及び第2行動モデル生成部1206を備える。第3学習処理部1253は、第2認識処理部1207、第2行動データ選別部1208、第3クラスタリング部1209、及び第3行動モデル生成部1210を備える。
(Behavioral Learning Department)
An example of the functional configuration of the behavior learning unit 12 is shown in FIG. As illustrated in FIG. 6, the behavior learning unit 12 includes first to third learning processing units 1251 to 1253 and a histogram generation unit 1211. The first to third learning processing units 1251 to 1253 learn a plurality of behavior data stored in the behavior data storage unit 21 to generate behavior models (learning models), respectively. The first learning processing unit 1251 includes a first clustering unit 1201 and a first behavior model generation unit 1202. The second learning processing unit 1252 includes a first recognition processing unit 1203, a first behavior data selection unit 1204, a second clustering unit 1205, and a second behavior model generation unit 1206. The third learning processing unit 1253 includes a second recognition processing unit 1207, a second behavior data selection unit 1208, a third clustering unit 1209, and a third behavior model generation unit 1210.

図6に示す行動データ記憶部21、第1行動モデル記憶部22、第2行動モデル記憶部23、第3行動モデル記憶部24、及びヒストグラム記憶部25は、図1に示す記憶装置20内に設けられている。行動データ記憶部21には、行動データ生成部11が生成した複数の行動データが記憶されている。   The behavior data storage unit 21, the first behavior model storage unit 22, the second behavior model storage unit 23, the third behavior model storage unit 24, and the histogram storage unit 25 illustrated in FIG. 6 are included in the storage device 20 illustrated in FIG. Is provided. The behavior data storage unit 21 stores a plurality of behavior data generated by the behavior data generation unit 11.

第1クラスタリング部1201は、行動データ記憶部21に記憶された複数の行動データを読み出し、図7(a)に示すように、読み出した複数の行動データ“ABC−1”,“ABC−2”,“ABC−3”,“EFC−1”,“EFC−2”,“GBAE−1”,“GBAE−2”,及び“BA−1”を、行動(エリア遷移履歴)毎にクラスタリングする。   The first clustering unit 1201 reads a plurality of behavior data stored in the behavior data storage unit 21, and as shown in FIG. 7A, the plurality of read behavior data “ABC-1” and “ABC-2”. , “ABC-3”, “EFC-1”, “EFC-2”, “GBAE-1”, “GBAE-2”, and “BA-1” are clustered for each action (area transition history).

図7(a)に示す例においては、行動(エリア遷移履歴)が“ABC”である行動データ“ABC−1”,“ABC−2”,及び“ABC−3”が1つにクラスタリングされている。行動(エリア遷移履歴)が“EFC”である行動データ“EFC−1”及び“EFC−2”が1つにクラスタリングされている。行動(エリア遷移履歴)が“GBAE”である行動データ“GBAE−1”及び“GBAE−2”が1つにクラスタリングされている。行動(エリア遷移履歴)が“BA”である行動データ“BA−1”が1つにクラスタリングされている。   In the example shown in FIG. 7A, the action data “ABC-1”, “ABC-2”, and “ABC-3” whose action (area transition history) is “ABC” are clustered into one. Yes. Action data “EFC-1” and “EFC-2” whose actions (area transition history) are “EFC” are clustered into one. The behavior data “GBAE-1” and “GBAE-2” whose behavior (area transition history) is “GBAE” are clustered into one. The action data “BA-1” whose action (area transition history) is “BA” is clustered into one.

第1行動モデル生成部1202は、図7(a)に示すように、第1クラスタリング部1201がクラスタリングした複数の行動データを行動(エリア遷移履歴)毎にモデル化した行動モデルを生成する。第1行動モデルは第1行動モデル記憶部22に記憶される。   As shown in FIG. 7A, the first behavior model generation unit 1202 generates a behavior model in which a plurality of behavior data clustered by the first clustering unit 1201 is modeled for each behavior (area transition history). The first behavior model is stored in the first behavior model storage unit 22.

以下に行動モデル生成方法の具体例について説明する。第1行動モデル生成部1202は、単位時間当たりの移動量、x方向及びy方向の平均座標を含む行動データに基づいて行動モデルを生成する。具体的には、第1行動モデル生成部1202は、隠れマルコフモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって、“行動ABC”や“行動EFC”といった行動(エリア遷移履歴)毎に行動モデルを生成する。   A specific example of the behavior model generation method will be described below. The first behavior model generation unit 1202 generates a behavior model based on behavior data including a movement amount per unit time and average coordinates in the x direction and the y direction. Specifically, the first behavior model generation unit 1202 uses a statistical model generation method such as a Hidden Markov Model (HMM) for each behavior (area transition history) such as “Behavior ABC” and “Behavior EFC”. Generate a behavior model.

続いて、第1行動モデル生成部1202は、Baum−Welchアルゴリズムに従って、“行動ABC”や“行動EFC”といった行動(エリア遷移履歴)毎に隠れマルコフモデルのパラメータを推定する。なお、隠れマルコフモデルのパラメータとは、一の状態から他の状態に遷移する確率(遷移確率)や一の状態から一の出力記号が出力される確率などである。また、第1行動モデル生成部1202は、“行動ABC”や“行動EFC”といった行動(エリア遷移履歴)毎に推定された隠れマルコフモデルのパラメータを行動モデルとして第1行動モデル記憶部22に記憶する。すなわち、第1行動モデル記憶部22は、人物の行動(エリア遷移履歴)毎に複数の第1行動モデルを記憶する。   Subsequently, the first behavior model generation unit 1202 estimates the parameters of the hidden Markov model for each behavior (area transition history) such as “Behavior ABC” and “Behavior EFC” according to the Baum-Welch algorithm. The hidden Markov model parameters include the probability of transition from one state to another state (transition probability), the probability that one output symbol is output from one state, and the like. The first behavior model generation unit 1202 stores the parameters of the hidden Markov model estimated for each behavior (area transition history) such as “Behavior ABC” and “Behavior EFC” as a behavior model in the first behavior model storage unit 22. To do. In other words, the first behavior model storage unit 22 stores a plurality of first behavior models for each human behavior (area transition history).

また、第1認識処理部1203は、行動データ記憶部21に記憶された複数の行動データと第1行動モデル記憶部22に記憶された第1行動モデルとを読み出し、第1行動モデルを用いて複数の行動データを認識し、図7(b)に示すように、認識結果及び尤度を得る。具体的には、第1認識処理部1203は、第1行動モデル記憶部22に記憶された複数の第1行動モデルに対する行動データの尤度を算出する。また、第1認識処理部1203は、行動データの尤度が最大となる行動モデルを特定し、特定された行動モデルを認識結果として出力する。   In addition, the first recognition processing unit 1203 reads the plurality of behavior data stored in the behavior data storage unit 21 and the first behavior model stored in the first behavior model storage unit 22, and uses the first behavior model. A plurality of behavior data are recognized, and the recognition result and likelihood are obtained as shown in FIG. Specifically, the first recognition processing unit 1203 calculates the likelihood of behavior data for a plurality of first behavior models stored in the first behavior model storage unit 22. In addition, the first recognition processing unit 1203 identifies the behavior model that maximizes the likelihood of the behavior data, and outputs the identified behavior model as a recognition result.

以下において、統計モデル生成手法として隠れマルコフモデルを用いた場合を例に挙げて、行動モデルの生成方法について説明する。例えば、上述した隠れマルコフモデルでは、第1認識処理部1203は、単位時間当たりの移動量、x方向及びy方向の平均座標を含む行動データに基づいて、その行動データに対応する出力記号列を取得する。続いて、第1認識処理部1203は、取得された出力記号列が各隠れマルコフモデルに従って出力される確率(尤度)を算出する。   In the following, a behavior model generation method will be described by taking as an example the case of using a hidden Markov model as a statistical model generation method. For example, in the hidden Markov model described above, the first recognition processing unit 1203 generates an output symbol string corresponding to the behavior data based on the behavior data including the movement amount per unit time and the average coordinates in the x direction and the y direction. get. Subsequently, the first recognition processing unit 1203 calculates a probability (likelihood) that the acquired output symbol string is output according to each hidden Markov model.

具体的には、第1認識処理部1203は、以下の式に従って、各隠れマルコフモデル(行動モデル)に対する行動データの尤度(Pλ)を算出する。

Figure 2007249922
Specifically, the first recognition processing unit 1203 calculates the likelihood (P λ ) of action data for each hidden Markov model (behavior model) according to the following equation.
Figure 2007249922

ここで、O1,O2,・・・Otは、行動モデル(隠れマルコフモデル)の出力記号であり、ok(1), ok(2)・・・ok(t)は、行動データの出力記号であり、Nは、状態の数である。また、πjは、初期状態が状態(j)である確率であり、ai,jは、状態(i)から状態(j)に遷移する遷移確率であり、bj,k(t)は、時刻tにおいて状態(j)から出力記号(ok(t))が出力される確率である。 Here, O 1, O 2, ··· O t is the output symbol of the behavior models (hidden Markov model), o k (1), o k (2) ··· o k (t) is, It is an output symbol of action data, and N is the number of states. Also, π j is the probability that the initial state is state (j), a i, j is the transition probability of transition from state (i) to state (j), and b j, k (t) is , The probability that the output symbol (ok (t) ) is output from the state (j) at time t.

続いて、第1行動データ選別部1204は、尤度があらかじめ設定された閾値(ここでは−25.0)以上である行動データのみを複数の行動データから選別する。この結果、図8に示すように、行動データ“ABC−3”及び“GBAE−2”は第1行動データ選別部1204にてクラスタリング対象から除外される。   Subsequently, the first behavior data sorting unit 1204 sorts only behavior data having a likelihood equal to or higher than a preset threshold (−25.0 in this case) from the plurality of behavior data. As a result, as shown in FIG. 8, the behavior data “ABC-3” and “GBAE-2” are excluded from the clustering targets by the first behavior data selection unit 1204.

第2クラスタリング部1205は、第1行動データ選別部1204が選別した行動データを、第1認識処理部1203の認識結果の示す行動(エリア遷移履歴)にクラスタリングする。したがって、図8及び図9に示すように、行動データ“ABC−1”,“ABC−2”,“EFC−2”,及び“BA−1”が1つにクラスタリングされている。行動データ“EFC−1”及び“GBAE−1”が1つにクラスタリングされている。   The second clustering unit 1205 clusters the behavior data selected by the first behavior data selection unit 1204 into the behavior (area transition history) indicated by the recognition result of the first recognition processing unit 1203. Therefore, as shown in FIGS. 8 and 9, the action data “ABC-1”, “ABC-2”, “EFC-2”, and “BA-1” are clustered into one. The action data “EFC-1” and “GBAE-1” are clustered into one.

第2行動モデル生成部1206は、第2クラスタリング部1205がクラスタリングした行動データから第2行動モデルを生成する。よって、図9(a)に示すように、行動データ“ABC−1”,“ABC−2”,“EFC−2”,及び“BA−1”から行動(エリア遷移履歴)“ABC”の行動モデルが生成される。行動データ“EFC−1”及び“GBAE−1”から行動(エリア遷移履歴)“EFC”の行動モデルが生成される。生成された第2行動モデルは、第2行動モデル記憶部23に記憶される。   The second behavior model generation unit 1206 generates a second behavior model from the behavior data clustered by the second clustering unit 1205. Therefore, as shown in FIG. 9A, the action (area transition history) “ABC” is taken from action data “ABC-1”, “ABC-2”, “EFC-2”, and “BA-1”. A model is generated. A behavior model of behavior (area transition history) “EFC” is generated from the behavior data “EFC-1” and “GBAE-1”. The generated second behavior model is stored in the second behavior model storage unit 23.

更に、第2認識処理部1207は、行動データ記憶部21に記憶された複数の行動データと第2行動モデル記憶部23に記憶された第2行動モデルとを読み出し、第2行動モデルを用いて複数の行動データを認識し、図9(b)に示すように、認識結果及び尤度を得る。   Further, the second recognition processing unit 1207 reads the plurality of behavior data stored in the behavior data storage unit 21 and the second behavior model stored in the second behavior model storage unit 23, and uses the second behavior model. A plurality of behavior data are recognized, and the recognition result and likelihood are obtained as shown in FIG.

第2行動データ選別部1208は、第2認識処理部1207が求めた尤度があらかじめ設定された閾値(ここでは−25.0)以上である行動データのみを複数の行動データから選別する。この結果、図10(a)に示すように、行動データ“GBAE−2”は第2行動データ選別部1208にてクラスタリング対象から除外される。   The second behavior data sorting unit 1208 sorts only behavior data whose likelihood obtained by the second recognition processing unit 1207 is equal to or greater than a preset threshold value (−25.0 in this case) from the plurality of behavior data. As a result, as shown in FIG. 10A, the behavior data “GBAE-2” is excluded from the clustering by the second behavior data selection unit 1208.

3回目のクラスタリング処理の意義は、2回目のクラスタリング対象から除外された行動データをクラスタリングすることであり、行動モデルのロバスト性を高めることを目的としている。   The significance of the third clustering process is to cluster the behavior data excluded from the second clustering target, and aims to increase the robustness of the behavior model.

更に、第3クラスタリング部1209は、第2行動データ選別部1208が選別した行動データを、第2認識処理部1207の認識結果の示す行動(エリア遷移履歴)にクラスタリングする。したがって、図10(a)に示すように、行動データ“ABC−1”,“ABC−2”,“EFC−2”,“BA−1”,及び“ABC−3”が1つにクラスタリングされている。よって、2回目のクラスタリングで除外された行動データ“ABC−3”が救済されている。また、行動データ“EFC−1”及び“GBAE−1”が1つにクラスタリングされている。   Further, the third clustering unit 1209 clusters the behavior data selected by the second behavior data selection unit 1208 into the behavior (area transition history) indicated by the recognition result of the second recognition processing unit 1207. Therefore, as shown in FIG. 10A, the action data “ABC-1”, “ABC-2”, “EFC-2”, “BA-1”, and “ABC-3” are clustered into one. ing. Therefore, the action data “ABC-3” excluded in the second clustering is relieved. Also, the behavior data “EFC-1” and “GBAE-1” are clustered into one.

第3行動モデル生成部1210は、第3クラスタリング部1209がクラスタリングした行動データから第3行動モデルを生成する。よって、図10(b)に示すように、行動データ“ABC−1”,“ABC−2”,“EFC−2”,“BA−1”,及び“ABC−3”から行動(エリア遷移履歴)“ABC”の行動モデルが生成される。行動データ“EFC−1”及び“GBAE−1”から行動(エリア遷移履歴)“EFC”の行動モデルが生成される。生成された第3行動モデルは、第3行動モデル記憶部24に記憶される。   The third behavior model generation unit 1210 generates a third behavior model from the behavior data clustered by the third clustering unit 1209. Therefore, as shown in FIG. 10B, the action data (ABC-1), “ABC-2”, “EFC-2”, “BA-1”, and “ABC-3” are used as actions (area transition history). ) A behavior model of “ABC” is generated. A behavior model of behavior (area transition history) “EFC” is generated from the behavior data “EFC-1” and “GBAE-1”. The generated third behavior model is stored in the third behavior model storage unit 24.

更に、ヒストグラム生成部1211は、図11(a)〜(c)に示すように、第3クラスタリング部1209がクラスタリングした行動データ毎に単位時間当たりの移動量の頻度の分布を示すヒストグラムを生成する。具体的には、図11(a)に示す行動(エリア遷移履歴)“ABC”にクラスタリングされている行動データ“ABC−1”,“ABC−2”,“EFC−2”,“BA−1”,及び“ABC−3”のそれぞれについて、単位時間当たりの移動量の頻度の分布を示すヒストグラムを生成する。更に、行動データ“ABC−1”,“ABC−2”,“EFC−2”,“BA−1”,及び“ABC−3”の各ヒストグラムを平均して、図11(b)に示すようなヒストグラムを生成する。図11(b)に示すヒストグラムでは、単位時間当たりの移動量の小さい頻度が多いので、全体として遅い行動であると判断できる。   Further, as shown in FIGS. 11A to 11C, the histogram generation unit 1211 generates a histogram indicating the frequency distribution of the movement amount per unit time for each action data clustered by the third clustering unit 1209. . Specifically, the action data “ABC-1”, “ABC-2”, “EFC-2”, “BA-1” clustered in the action (area transition history) “ABC” shown in FIG. ”And“ ABC-3 ”, a histogram indicating the frequency distribution of the amount of movement per unit time is generated. Further, the histograms of the behavior data “ABC-1”, “ABC-2”, “EFC-2”, “BA-1”, and “ABC-3” are averaged as shown in FIG. A simple histogram. In the histogram shown in FIG. 11B, since the movement amount per unit time is small, it can be determined that the action is slow as a whole.

また、図11(a)に示す行動(エリア遷移履歴)“EFC”にクラスタリングされている行動データ“EFC−1”及び“GBAE−1”のそれぞれについて、単位時間当たりの移動量の頻度の分布を示すヒストグラムを生成する。更に、行動データ“EFC−1”及び“GBAE−1”の各ヒストグラムを平均して、図11(c)に示すようなヒストグラムを生成する。図11(c)に示すヒストグラムでは、単位時間当たりの移動量の大きい頻度が多いので、全体として速い行動であると判断できる。   Further, for each of the action data “EFC-1” and “GBAE-1” clustered in the action (area transition history) “EFC” shown in FIG. Is generated. Further, the histograms of behavior data “EFC-1” and “GBAE-1” are averaged to generate a histogram as shown in FIG. In the histogram shown in FIG. 11C, since the movement amount per unit time is often large, it can be determined that the action is fast as a whole.

次に、図12に示すフローチャートを参照して、行動学習部12の動作例、すなわち図2のステップS102の詳細について説明する。   Next, with reference to the flowchart shown in FIG. 12, the operation example of the action learning part 12, ie, the detail of step S102 of FIG. 2, is demonstrated.

ステップS301において、第1クラスタリング部1201は、行動データ記憶部21に記憶された複数の行動データを読み出し、読み出した複数の行動データを行動(エリア遷移履歴)毎にクラスタリングする。   In step S301, the first clustering unit 1201 reads a plurality of behavior data stored in the behavior data storage unit 21, and clusters the read behavior data for each behavior (area transition history).

ステップS302において、第1行動モデル生成部1202は、ステップS301でクラスタリングされた複数の行動データを、行動(エリア遷移履歴)毎にモデル化した第1行動モデルを生成する。第1行動モデルは第1行動モデル記憶部22に記憶される。   In step S302, the first behavior model generation unit 1202 generates a first behavior model obtained by modeling the plurality of behavior data clustered in step S301 for each behavior (area transition history). The first behavior model is stored in the first behavior model storage unit 22.

ステップS303において、第1認識処理部1203は、行動データ記憶部21に記憶された複数の行動データ及び第1行動モデル記憶部22に記憶された第1行動モデルを読み出し、第1行動モデルを用いて複数の行動データを認識し、認識結果及び尤度を得る。   In step S303, the first recognition processing unit 1203 reads the plurality of behavior data stored in the behavior data storage unit 21 and the first behavior model stored in the first behavior model storage unit 22, and uses the first behavior model. To recognize a plurality of behavior data and obtain a recognition result and likelihood.

ステップS304において、第1行動データ選別部1204は、尤度が閾値以上である行動データのみを複数の行動データから選別する。   In step S304, the first behavior data sorting unit 1204 sorts only behavior data having a likelihood equal to or greater than a threshold from a plurality of behavior data.

ステップS305において、第2クラスタリング部1205は、選別された行動データを認識結果の示す行動(エリア遷移履歴)にクラスタリングする。   In step S305, the second clustering unit 1205 clusters the selected action data into actions (area transition history) indicated by the recognition result.

ステップS306において、第2行動モデル生成部1206は、第2クラスタリング部1205がクラスタリングした行動データから第2行動モデルを生成する。第2行動モデルは第2行動モデル記憶部23に記憶される。   In step S306, the second behavior model generation unit 1206 generates a second behavior model from the behavior data clustered by the second clustering unit 1205. The second behavior model is stored in the second behavior model storage unit 23.

ステップS307において、第2認識処理部1207は、行動データ記憶部21に記憶された複数の行動データ及び第2行動モデル記憶部23に記憶された第2行動モデルを読み出し、第2行動モデルを用いて複数の行動データを認識し、認識結果及び尤度を得る。   In step S307, the second recognition processing unit 1207 reads the plurality of behavior data stored in the behavior data storage unit 21 and the second behavior model stored in the second behavior model storage unit 23, and uses the second behavior model. To recognize a plurality of behavior data and obtain a recognition result and likelihood.

ステップS308において、第2行動データ選別部1208は、ステップS307で求めた尤度が閾値以上である行動データのみを複数の行動データから選別する。   In step S308, the second behavior data sorting unit 1208 sorts only behavior data whose likelihood obtained in step S307 is equal to or greater than a threshold from a plurality of behavior data.

ステップS309において、第3クラスタリング部1209は、ステップS308で選別された行動データを、ステップS307における認識結果の示す行動(エリア遷移履歴)にクラスタリングする。   In step S309, the third clustering unit 1209 clusters the behavior data selected in step S308 into the behavior (area transition history) indicated by the recognition result in step S307.

ステップS310において、第3行動モデル生成部1210は、ステップS309でクラスタリングされた行動データから第3行動モデルを生成する。   In step S310, the third behavior model generation unit 1210 generates a third behavior model from the behavior data clustered in step S309.

ステップS311において、ステップS309でクラスタリングされた行動データに対し、単位時間当たりの移動量の頻度の分布を示すヒストグラムを行動(エリア遷移履歴)毎に生成する。   In step S311, a histogram indicating the frequency distribution of the amount of movement per unit time is generated for each action (area transition history) for the action data clustered in step S309.

このように、本発明の実施形態に係る行動学習部12によれば、複雑で多様な人物の行動に対して適切な行動モデルを自動的に生成できる。したがって、プライバシーを保護した上で日常的な生活パターンを定義することが可能となる。   As described above, according to the behavior learning unit 12 according to the embodiment of the present invention, it is possible to automatically generate an appropriate behavior model for the behaviors of complicated and diverse persons. Therefore, it is possible to define daily life patterns while protecting privacy.

(行動認識部)
行動認識部13の機能構成例を図13に示す。行動認識部13は、認識対象の行動データ、第3行動モデル、及びヒストグラムを入力として、被監視者における非日常行動の発生を監視者に通知するための非日常行動検知通知を出力する。出力された非日常行動検知通知は、図1に示す通信処理部30及び通信ネットワーク100を介して、出力装置120へ送信される。この結果、監視者は、被監視者による非日常行動の発生を知ることができる。
(Action Recognition Department)
An example of the functional configuration of the action recognition unit 13 is shown in FIG. The action recognition unit 13 receives the action data to be recognized, the third action model, and the histogram as inputs, and outputs an extraordinary action detection notification for notifying the monitor of the occurrence of the extraordinary action in the monitored person. The output extraordinary behavior detection notification is transmitted to the output device 120 via the communication processing unit 30 and the communication network 100 shown in FIG. As a result, the monitor can know the occurrence of the extraordinary behavior by the monitored person.

行動認識部13は、第3認識処理部1301、差分値算出部1302、評価値算出部1303、及び判定部1304を備える。なお、評価値記憶部27は、図1に示す記憶装置20内に設けられている。   The behavior recognition unit 13 includes a third recognition processing unit 1301, a difference value calculation unit 1302, an evaluation value calculation unit 1303, and a determination unit 1304. The evaluation value storage unit 27 is provided in the storage device 20 shown in FIG.

第3認識処理部1301は、第3行動モデル記憶部24に記憶された第3行動モデルを用いて、認識対象の行動データを認識し、認識結果及び尤度を得る。第3認識処理部1301には、図14(a)に示すような行動データ1〜5が順次入力される。例えば、行動データ1〜5は、人物のある生活シーンにおける一連の行動から測定されているものとする。   The third recognition processing unit 1301 recognizes the behavior data to be recognized using the third behavior model stored in the third behavior model storage unit 24, and obtains the recognition result and likelihood. Action data 1 to 5 as shown in FIG. 14A are sequentially input to the third recognition processing unit 1301. For example, it is assumed that the action data 1 to 5 are measured from a series of actions in a life scene with a person.

差分値算出部1302は、第3認識処理部1301の認識結果の示す行動(エリア遷移履歴)に対応するヒストグラムをヒストグラム記憶部25から読み出す。また、差分値算出部1302は、認識対象データを総データ(サンプル数)数で正規化し、読み出したヒストグラムと移動量毎に比較する。この比較は、ヒストグラムの頻度差を各移動量で積算する方式を採用する。図14(b)に示すように、あらかじめ設定していた移動量の基準値に対し、基準値よりも小さい移動量、即ち移動速度が遅い場合は、ヒストグラムデータよりも頻度が少ない場合に正として積算する。これに対して、あらかじめ設定していた移動量の基準値に対し、基準値よりも大きい移動量、即ち移動速度が速い場合は、ヒストグラムデータよりも頻度が多い場合に正として積算する。このようにして得られた積算値を差分値とする。よって、差分値は、ヒストグラムデータよりも移動量が大きいデータが多い場合に正として出力される。   The difference value calculation unit 1302 reads a histogram corresponding to the behavior (area transition history) indicated by the recognition result of the third recognition processing unit 1301 from the histogram storage unit 25. Further, the difference value calculation unit 1302 normalizes the recognition target data by the total number of data (the number of samples), and compares it with the read histogram for each movement amount. This comparison employs a method of integrating the frequency difference of the histogram with each movement amount. As shown in FIG. 14B, the movement amount smaller than the reference value with respect to the reference value of the movement amount set in advance, that is, when the movement speed is slow, is positive when the frequency is less than the histogram data. Accumulate. On the other hand, when the movement amount larger than the reference value, that is, the movement speed is faster than the reference value of the movement amount set in advance, it is integrated as positive when the frequency is higher than the histogram data. The integrated value obtained in this way is used as a difference value. Therefore, the difference value is output as positive when there is a lot of data having a larger movement amount than the histogram data.

評価値算出部1303は、図15(a)に示すように、第3認識処理部1301が求めた尤度と、差分値算出部1302が算出した差分値を乗算して、非日常行動の検知に用いる評価値を算出する。評価値は評価値記憶部27に記憶される。   As illustrated in FIG. 15A, the evaluation value calculation unit 1303 multiplies the likelihood obtained by the third recognition processing unit 1301 by the difference value calculated by the difference value calculation unit 1302 to detect the extraordinary behavior. The evaluation value used for is calculated. The evaluation value is stored in the evaluation value storage unit 27.

判定部1304は、図15(b)に示すように、評価値を積算し、累積評価値があらかじめ設定した閾値を超えた場合に非日常行動の発生と判定する。   As shown in FIG. 15B, the determination unit 1304 integrates the evaluation values, and determines that the extraordinary behavior occurs when the cumulative evaluation value exceeds a preset threshold value.

次に、図16に示すフローチャートを参照して、行動認識部13の動作例、すなわち図2のステップS104の詳細について説明する。   Next, with reference to the flowchart shown in FIG. 16, the operation example of the action recognition part 13, ie, the detail of step S104 of FIG. 2, is demonstrated.

ステップS401において、第3認識処理部1301は、第3行動モデル記憶部から第3行動モデルを読み出し、第3行動モデルを用いて認識対象データを認識し、認識結果及び尤度を得る。   In step S401, the third recognition processing unit 1301 reads the third behavior model from the third behavior model storage unit, recognizes recognition target data using the third behavior model, and obtains a recognition result and likelihood.

ステップS402において、差分値算出部1302は、ステップS401で得られた認識結果の示す行動(エリア遷移履歴)に対応するヒストグラムをヒストグラム記憶部25から読み出す。更に、差分値算出部1302は、認識対象データを総データ数で正規化し、ヒストグラムと移動量毎に比較する。このようにして移動量の頻度の差分値が算出される。   In step S402, the difference value calculation unit 1302 reads a histogram corresponding to the behavior (area transition history) indicated by the recognition result obtained in step S401 from the histogram storage unit 25. Further, the difference value calculation unit 1302 normalizes the recognition target data with the total number of data, and compares the data with the histogram for each movement amount. In this way, the difference value of the frequency of the movement amount is calculated.

ステップS403において、評価値算出部1303は、ステップS401で得られた尤度とステップS402で算出された差分値を乗算することで評価値を得る。   In step S403, the evaluation value calculation unit 1303 obtains an evaluation value by multiplying the likelihood obtained in step S401 by the difference value calculated in step S402.

ステップS404において、判定部1304は、ステップS403で得られた評価値を積算する。   In step S404, the determination unit 1304 integrates the evaluation values obtained in step S403.

ステップS405において、判定部1304は、ステップS404で積算された累積評価値が閾値を超えるか否かを判定する。累積評価値が閾値を超えると判定された場合、ステップS406に移行する。   In step S405, the determination unit 1304 determines whether or not the cumulative evaluation value integrated in step S404 exceeds a threshold value. When it is determined that the cumulative evaluation value exceeds the threshold value, the process proceeds to step S406.

ステップS406において、判定部1304は、非日常行動であると判定して非日常行動検知通知を出力する。   In step S406, the determination unit 1304 determines that the action is an extraordinary action, and outputs an extraordinary action detection notification.

このように、本発明の実施形態に係る行動認識部13によれば、行動データと行動モデルとの尤度と、行動データの内部状態との類似性(ヒストグラム差分値)とを併せて評価することで、行動の中の非日常性を検知することを可能としている。したがって、例えば非日常行動として物忘れ行動を検知するシステムに応用できる。物忘れが発生する1つの原因は、注意(意識)が他に向けられていることである。注意が他に向けられ、ある行動を失敗し、失敗した行動に意識が向かうことで、他の行動を更に失敗するというように、物忘れは連鎖的に発生すると考えられる。そこで、行動単位の非日常性を検知することで、その後に物忘れが発生しやすいかどうかを推定するシステムに応用できる。   Thus, according to the action recognition unit 13 according to the embodiment of the present invention, the likelihood between the action data and the action model and the similarity (histogram difference value) between the internal state of the action data are evaluated together. This makes it possible to detect unusualness in behavior. Therefore, for example, the present invention can be applied to a system that detects forgetting behavior as an extraordinary behavior. One cause of forgetfulness is that attention (consciousness) is directed elsewhere. Forgetfulness is thought to occur in a chain, such as when attention is directed elsewhere, a certain action fails, and the consciousness toward the failed action further fails another action. Therefore, it can be applied to a system for estimating whether or not forgetfulness is likely to occur thereafter by detecting the unusualness of the behavior unit.

(実験例)
次に、図17を用いて、本発明の実施形態に係る非日常行動検知システムの実験例を説明する。図17(a)及び(b)に示す各実験データにおいては、それぞれ一連の行動からなる複数の行動データを含んでいる。図17(c)に示すように、10回の実験中、誤認識されたのは実験2,5,及び8の3回のみであり、7回は正しく認識されていることが分かる。
(Experimental example)
Next, an experimental example of the extraordinary behavior detection system according to the embodiment of the present invention will be described with reference to FIG. Each experimental data shown in FIGS. 17A and 17B includes a plurality of action data each consisting of a series of actions. As shown in FIG. 17C, it can be seen that, out of 10 experiments, only 3 times of Experiments 2, 5, and 8 were erroneously recognized, and 7 times were correctly recognized.

(第1変形例)
上述した実施形態においては、行動学習部12が、第1〜第3行動モデルの3つの行動モデルを生成し、第3行動モデルを最終的な行動モデルとして用いる一例を説明した。しかしながら、本発明の実施形態の第1変形例として、図18に示すように、第2行動モデルを最終的な行動モデルとして用いるように構成されていてもよい。
(First modification)
In the embodiment described above, an example has been described in which the behavior learning unit 12 generates three behavior models of the first to third behavior models and uses the third behavior model as a final behavior model. However, as a first modification of the embodiment of the present invention, as shown in FIG. 18, the second behavior model may be used as the final behavior model.

(第2変形例)
本発明の実施形態の第2変形例に係る行動学習部1200は、図19に示すように、第2行動モデル記憶部23に記憶された行動モデルが、認識処理部1203に再度入力可能なように構成されている点で、図6と異なっている。すなわち、第2学習処理部1252を複数回使用して複数の行動モデルを生成する構成となっている。
(Second modification)
As illustrated in FIG. 19, the behavior learning unit 1200 according to the second modification of the embodiment of the present invention can input the behavior model stored in the second behavior model storage unit 23 to the recognition processing unit 1203 again. 6 is different from FIG. That is, the second learning processing unit 1252 is used a plurality of times to generate a plurality of behavior models.

更に、行動学習部1200は、第2クラスタリング部1205によるクラスタリングによって、直前のクラスタリング結果とは異なる行動にクラスタリングされた行動データの数が閾値以下となった際に生成された行動モデルを最終的な行動モデルとして選択する行動モデル選択部1260を更に備える。ここで「直前のクラスタリング結果とは異なる行動にクラスタリングされた行動データ」には、クラスタリング結果が「なし」となった行動データも含まれる。図8に示す例においては、行動データ“ABC−3”、“EFC−2”、“GBAE−1”、“GBAE−2”、及び“BA−1”に相当し、「異なる行動にクラスタリングされた行動データの数」は、5である。なお、閾値の値は任意に設定可能である。   Further, the behavior learning unit 1200 uses the second clustering unit 1205 to perform a final behavior model generated when the number of behavior data clustered into behaviors different from the previous clustering result is equal to or less than a threshold value. An action model selection unit 1260 for selecting as an action model is further provided. Here, “behavior data clustered into behaviors different from the previous clustering result” includes behavior data whose clustering result is “none”. In the example shown in FIG. 8, the action data corresponds to action data “ABC-3”, “EFC-2”, “GBAE-1”, “GBAE-2”, and “BA-1”. The number of action data ”is five. The threshold value can be arbitrarily set.

次に、図20に示すフローチャートを参照して、本発明の実施形態の第2変形例に係る行動学習部1200の動作例について説明する。   Next, an operation example of the behavior learning unit 1200 according to the second modified example of the embodiment of the present invention will be described with reference to the flowchart shown in FIG.

ステップS301において、第1クラスタリング部1201は、行動データ記憶部21に記憶された複数の行動データを読み出し、読み出した複数の行動データを行動(エリア遷移履歴)毎にクラスタリングする。   In step S301, the first clustering unit 1201 reads a plurality of behavior data stored in the behavior data storage unit 21, and clusters the read behavior data for each behavior (area transition history).

ステップS302において、第1行動モデル生成部1202は、ステップS301でクラスタリングされた複数の行動データを、行動(エリア遷移履歴)毎にモデル化した第1行動モデルを生成する。第1行動モデルは第1行動モデル記憶部22に記憶される。   In step S302, the first behavior model generation unit 1202 generates a first behavior model obtained by modeling the plurality of behavior data clustered in step S301 for each behavior (area transition history). The first behavior model is stored in the first behavior model storage unit 22.

ステップS303において、第1認識処理部1203は、行動データ記憶部21に記憶された複数の行動データ及び第1行動モデル記憶部22に記憶された第1行動モデルを読み出し、第1行動モデルを用いて複数の行動データを認識し、認識結果及び尤度を得る。   In step S303, the first recognition processing unit 1203 reads the plurality of behavior data stored in the behavior data storage unit 21 and the first behavior model stored in the first behavior model storage unit 22, and uses the first behavior model. To recognize a plurality of behavior data and obtain a recognition result and likelihood.

ステップS304において、行動データ選別部1204は、尤度が閾値以上である行動データのみを複数の行動データから選別する。   In step S304, the behavior data sorting unit 1204 sorts only behavior data having a likelihood equal to or greater than a threshold from a plurality of behavior data.

ステップS305において、第2クラスタリング部1205は、選別された行動データを認識結果の示す行動(エリア遷移履歴)にクラスタリングする。   In step S305, the second clustering unit 1205 clusters the selected action data into actions (area transition history) indicated by the recognition result.

ステップS306において、第2行動モデル生成部1206は、第2クラスタリング部1205がクラスタリングした行動データから第2行動モデルを生成する。第2行動モデルは第2行動モデル記憶部23に記憶される。   In step S306, the second behavior model generation unit 1206 generates a second behavior model from the behavior data clustered by the second clustering unit 1205. The second behavior model is stored in the second behavior model storage unit 23.

ステップS320において、行動モデル選択部1260は、ステップS305で直前のクラスタリング結果とは異なる行動(エリア遷移履歴)にクラスタリングされた行動データの数が閾値以下であるかを判定する。直前のクラスタリング結果とは異なる行動(エリア遷移履歴)にクラスタリングされた行動データの数が閾値以下であると判定された場合、ステップS321へ移行する。直前のクラスタリング結果とは異なる行動(エリア遷移履歴)にクラスタリングされた行動データの数が閾値を超えると判定された場合、ステップS303へ処理が戻る。処理が戻った場合のステップS303においては、ステップS306で生成された第2行動モデルを用いた認識処理が実行される。   In step S320, the behavior model selection unit 1260 determines whether the number of behavior data clustered in behavior (area transition history) different from the previous clustering result in step S305 is equal to or less than a threshold value. When it is determined that the number of behavior data clustered in behavior (area transition history) different from the previous clustering result is less than or equal to the threshold value, the process proceeds to step S321. If it is determined that the number of action data clustered in an action (area transition history) different from the previous clustering result exceeds the threshold, the process returns to step S303. In step S303 when the process returns, a recognition process using the second behavior model generated in step S306 is executed.

ステップS320において、行動モデル選択部1260は、ステップS306で生成された第2行動モデルを最終的な行動モデルとして選択する。   In step S320, the behavior model selection unit 1260 selects the second behavior model generated in step S306 as a final behavior model.

ステップS311において、ステップS305でクラスタリングされた行動データに対し、単位時間当たりの移動量の頻度の分布を示すヒストグラムを行動(エリア遷移履歴)毎に生成する。   In step S311, for the behavior data clustered in step S305, a histogram indicating the frequency distribution of the amount of movement per unit time is generated for each behavior (area transition history).

このように、本発明の実施形態の第2変形例に係る行動学習部1200によれば、終了条件を満たすまでは自動的にクラスタリングを繰り返すことで、良好な行動モデルを得ることができる。   Thus, according to the behavior learning unit 1200 according to the second modification of the embodiment of the present invention, a good behavior model can be obtained by automatically repeating clustering until the end condition is satisfied.

(その他の実施形態)
上記のように、本発明は実施形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなる。
(Other embodiments)
As mentioned above, although this invention was described by embodiment, it should not be understood that the description and drawing which form a part of this indication limit this invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

また、既に述べた実施形態の説明においては、行動認識部13が、人物のある生活シーンにおける一連の行動における非日常性を検知する場合について説明した。しかしながら、更に長い期間における非日常性を検知してもよい。1日単位の非日常性の検知は行動のリズム変化検知、健康状態の変化検知に有効であり、1年単位の非日常性の検知は、老化・疾病の予測に有効であると考えられる。   In the description of the embodiment already described, the case where the action recognition unit 13 detects unusualness in a series of actions in a life scene with a person has been described. However, you may detect unusualness in a longer period. Detection of extraordinary activity on a daily basis is effective for detecting changes in behavioral rhythms and changes in health status.

このように本発明は、ここでは記載していない様々な実施形態等を包含するということを理解すべきである。したがって、本発明はこの開示から妥当な特許請求の範囲の発明特定事項によってのみ限定されるものである。   Thus, it should be understood that the present invention includes various embodiments and the like not described herein. Therefore, the present invention is limited only by the invention specifying matters in the scope of claims reasonable from this disclosure.

本発明の実施形態に係る非日常行動検知システムの全体構成例を示すブロック図である。It is a block diagram which shows the example of whole structure of the unusual activity detection system which concerns on embodiment of this invention. 本発明の実施形態に係る非日常行動検知装置の動作概要を示すフローチャートである。It is a flowchart which shows the operation | movement outline | summary of the extraordinary action detection apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る行動データ生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the action data generation part which concerns on embodiment of this invention. 本発明の実施形態に係る行動データ生成部の機能を説明するための図である。It is a figure for demonstrating the function of the action data generation part which concerns on embodiment of this invention. 本発明の実施形態に係る行動データ生成部の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the action data generation part which concerns on embodiment of this invention. 本発明の実施形態に係る行動学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the action learning part which concerns on embodiment of this invention. 図7(a)は本発明の実施形態に係る第1行動モデル生成部の機能を説明するための図であり、図7(b)は本発明の実施形態に係る第1認識処理部の機能を説明するための図である。FIG. 7A is a diagram for explaining the function of the first behavior model generation unit according to the embodiment of the present invention, and FIG. 7B is the function of the first recognition processing unit according to the embodiment of the present invention. It is a figure for demonstrating. 本発明の実施形態に係る第1行動データ選別部及び第2クラスタリング部の機能を説明するための図である。It is a figure for demonstrating the function of the 1st action data selection part and 2nd clustering part which concern on embodiment of this invention. 図9(a)は本発明の実施形態に係る第2行動モデル生成部の機能を説明するための図であり、図9(b)は本発明の実施形態に係る第2認識処理部の機能を説明するための図である。FIG. 9A is a diagram for explaining the function of the second behavior model generation unit according to the embodiment of the present invention, and FIG. 9B is the function of the second recognition processing unit according to the embodiment of the present invention. It is a figure for demonstrating. 図10(a)は本発明の実施形態に係る第2行動データ選別部及び第3クラスタリング部の機能を説明するための図であり、図10(b)は本発明の実施形態に係る第3行動モデル生成部の機能を説明するための図である。FIG. 10A is a diagram for explaining functions of the second action data selection unit and the third clustering unit according to the embodiment of the present invention, and FIG. 10B is a third diagram according to the embodiment of the present invention. It is a figure for demonstrating the function of an action model production | generation part. 図11(a)〜(c)は、本発明の実施形態に係るヒストグラム生成部の機能を説明するための図である。FIGS. 11A to 11C are diagrams for explaining the function of the histogram generation unit according to the embodiment of the present invention. 本発明の実施形態に係る行動学習部の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the action learning part which concerns on embodiment of this invention. 本発明の実施形態に係る行動認識部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the action recognition part which concerns on embodiment of this invention. 図14(a)は本発明の実施形態に係る第3認識処理部の機能を説明するための図であり、図14(b)は本発明の実施形態に係る差分値算出部の機能を説明するための図である。FIG. 14A is a diagram for explaining a function of the third recognition processing unit according to the embodiment of the present invention, and FIG. 14B is a diagram for explaining a function of the difference value calculating unit according to the embodiment of the present invention. It is a figure for doing. 図15(a)は本発明の実施形態に係る評価値算出部の機能を説明するための図であり、図15(b)は本発明の実施形態に係る判定部の機能を説明するための図である。FIG. 15A is a diagram for explaining the function of the evaluation value calculation unit according to the embodiment of the present invention, and FIG. 15B is a diagram for explaining the function of the determination unit according to the embodiment of the present invention. FIG. 本発明の実施形態に係る行動認識部の動作例をフローチャートである。It is a flowchart of the operation example of the action recognition part which concerns on embodiment of this invention. 図17(a)〜(c)は、本発明の実施形態に係る非日常行動検知システムの実験例を示す図である。FIGS. 17A to 17C are diagrams illustrating experimental examples of the extraordinary behavior detection system according to the embodiment of the present invention. 本発明の実施形態の第1変形例に係る行動学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the action learning part which concerns on the 1st modification of embodiment of this invention. 本発明の実施形態の第2変形例に係る行動学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the action learning part which concerns on the 2nd modification of embodiment of this invention. 本発明の実施形態の第2変形例に係る行動学習部の動作例を示すブロック図である。It is a block diagram which shows the operation example of the action learning part which concerns on the 2nd modification of embodiment of this invention.

符号の説明Explanation of symbols

1…非日常行動検知装置
10…処理装置
11…行動データ生成部
12…行動学習部
13…行動認識部
20…記憶装置
21…行動データ記憶部
22…第1行動モデル記憶部
23…第2行動モデル記憶部
24…第3行動モデル記憶部
25…ヒストグラム記憶部
27…評価値記憶部
30…通信処理部
100…通信ネットワーク
101…センサ部
102…センサデータ処理部
103…通信処理部
110…検出装置
111…停止状態判定部
112…エリア遷移判定部
113…行動データ出力部
120…出力装置
121…通知部
122…制御部
123…通信処理部
1201…第1クラスタリング部
1202…第1行動モデル生成部
1203…第1認識処理部
1204…第1行動データ選別部
1205…第2クラスタリング部
1206…第2行動モデル生成部
1207…第2認識処理部
1208…第2行動データ選別部
1209…第3クラスタリング部
1210…第3行動モデル生成部
1211…ヒストグラム生成部
1251…第1学習処理部
1252…第2学習処理部
1253…第3学習処理部
1260…行動モデル選択部
1301…第3認識処理部
1302…差分値算出部
1303…評価値算出部
1304…判定部
DESCRIPTION OF SYMBOLS 1 ... Extraordinary action detection apparatus 10 ... Processing apparatus 11 ... Action data generation part 12 ... Action learning part 13 ... Action recognition part 20 ... Memory | storage device 21 ... Action data storage part 22 ... 1st action model memory | storage part 23 ... 2nd action Model storage unit 24 ... Third behavior model storage unit 25 ... Histogram storage unit 27 ... Evaluation value storage unit 30 ... Communication processing unit 100 ... Communication network 101 ... Sensor unit 102 ... Sensor data processing unit 103 ... Communication processing unit 110 ... Detection device DESCRIPTION OF SYMBOLS 111 ... Stop state determination part 112 ... Area transition determination part 113 ... Behavior data output part 120 ... Output device 121 ... Notification part 122 ... Control part 123 ... Communication processing part 1201 ... 1st clustering part 1202 ... 1st action model production | generation part 1203 ... 1st recognition process part 1204 ... 1st action data selection part 1205 ... 2nd clustering part 1206 Second behavior model generation unit 1207 ... second recognition processing unit 1208 ... second behavior data selection unit 1209 ... third clustering unit 1210 ... third behavior model generation unit 1211 ... histogram generation unit 1251 ... first learning processing unit 1252 ... first 2 learning processing unit 1253 ... third learning processing unit 1260 ... behavior model selection unit 1301 ... third recognition processing unit 1302 ... difference value calculation unit 1303 ... evaluation value calculation unit 1304 ... determination unit

Claims (8)

人物の非日常行動を検知する非日常行動検知システムであって、
前記人物の時系列動線情報から生成された複数の行動データを行動毎にクラスタリングし、クラスタリングした複数の行動データを前記行動毎にモデル化した第1行動モデルを生成する第1学習処理部と、
前記複数の行動データをクラスタリングして第2行動モデルを生成する第2学習処理部
とを備え、前記第2学習処理部は、
前記第1行動モデルを用いて前記複数の行動データを認識し、認識結果及び尤度を得る第1認識処理部と、
前記第1認識処理部が求めた前記尤度が閾値以上である行動データのみを前記複数の行動データから選別する第1行動データ選別部と、
前記第1行動データ選別部が選別した行動データを、前記第1認識処理部の前記認識結果の示す行動にクラスタリングする第2クラスタリング部と、
前記第2クラスタリング部がクラスタリングした行動データから前記第2行動モデルを生成する第2行動モデル生成部
とを備えることを特徴とする非日常行動検知システム。
An extraordinary behavior detection system for detecting an extraordinary behavior of a person,
A first learning processing unit for clustering a plurality of behavior data generated from the time-series flow line information of the person for each behavior, and generating a first behavior model in which the plurality of clustered behavior data is modeled for each behavior; ,
A second learning processing unit that clusters the plurality of behavior data to generate a second behavior model, and the second learning processing unit includes:
A first recognition processing unit that recognizes the plurality of behavior data using the first behavior model and obtains a recognition result and likelihood;
A first behavior data sorting unit that sorts only behavior data whose likelihood calculated by the first recognition processing unit is a threshold value or more from the plurality of behavior data;
A second clustering unit that clusters the behavior data selected by the first behavior data selection unit into the behavior indicated by the recognition result of the first recognition processing unit;
A non-daily behavior detection system comprising: a second behavior model generation unit that generates the second behavior model from behavior data clustered by the second clustering unit.
前記複数の行動データをクラスタリングして第3〜第n行動モデルを生成する第3〜第n学習処理部を更に備え(n;4以上の整数)、
前記第3学習処理部は、
前記第2行動モデルを用いて前記複数の行動データを認識し、認識結果及び尤度を得る第2認識処理部と、
前記第2認識処理部が求めた前記尤度が閾値以上である行動データのみを前記複数の行動データから選別する第2行動データ選別部と、
前記第2行動データ選別部が選別した行動データを、前記第2認識処理部の前記認識結果の示す行動にクラスタリングする第3クラスタリング部と、
前記第3クラスタリング部がクラスタリングした行動データから前記第3行動モデルを生成する第3行動モデル生成部
とを備えることを特徴とする請求項1に記載の非日常行動検知システム。
A third to n-th learning processing unit that clusters the plurality of behavior data to generate a third to n-th behavior model (n; an integer of 4 or more);
The third learning processing unit
Recognizing the plurality of behavior data using the second behavior model, and obtaining a recognition result and likelihood;
A second behavior data sorting unit that sorts only behavior data whose likelihood obtained by the second recognition processing unit is greater than or equal to a threshold value from the plurality of behavior data;
A third clustering unit that clusters the behavior data selected by the second behavior data selection unit into the behavior indicated by the recognition result of the second recognition processing unit;
The extraordinary behavior detection system according to claim 1, further comprising: a third behavior model generation unit that generates the third behavior model from the behavior data clustered by the third clustering unit.
前記第2〜第n行動モデルのいずれかを用いて認識対象の行動データを認識し、前記非日常行動を検知する行動認識部を更に備えることを特徴とする請求項2に記載の非日常行動検知システム。   The non-daily behavior according to claim 2, further comprising a behavior recognition unit that recognizes behavior data to be recognized using any one of the second to n-th behavior models and detects the non-daily behavior. Detection system. 前記第2〜第n学習処理部によるクラスタリングによって、直前のクラスタリング結果とは異なる行動にクラスタリングされた行動データの数が閾値以下となった際に生成された行動モデルを、前記認識対象の行動データを認識するための最終的な行動モデルとして選択する行動モデル選択部を更に備えることを特徴とする請求項3に記載の非日常行動検知システム。   The behavior model generated when the number of behavior data clustered in a behavior different from the previous clustering result by the clustering by the second to n-th learning processing units is equal to or less than a threshold value is the behavior data to be recognized. The non-daily behavior detection system according to claim 3, further comprising a behavior model selection unit that selects as a final behavior model for recognizing a voice. 前記第2〜第n学習処理部のいずれかがクラスタリングした行動データに対し、単位時間当たりの移動量の頻度の分布を示すヒストグラムを、前記行動毎に生成するヒストグラム生成部を更に備えることを特徴とする請求項3又は4に記載の非日常行動検知システム。   A histogram generation unit that generates, for each action, a histogram indicating a frequency distribution of the amount of movement per unit time for the action data clustered by any of the second to n-th learning processing parts. The extraordinary behavior detection system according to claim 3 or 4. 前記行動認識部は、
前記第2〜第n行動モデルのいずれかを用いて前記認識対象の行動データを認識し、認識結果及び尤度を得る第3認識処理部と、
前記認識対象の行動データと前記第3認識処理部の前記認識結果の示す行動に対応する前記ヒストグラムとを比較し、前記単位時間当たりの移動量の頻度の差分値を算出する差分値算出部と、
前記第3認識処理部が得た前記尤度と前記差分値に基づいて、前記非日常行動の検知に用いる評価値を算出する評価値算出部
とを備えることを特徴とする請求項5に記載の非日常行動検知システム。
The action recognition unit
A third recognition processing unit that recognizes the behavior data of the recognition target using any one of the second to nth behavior models, and obtains a recognition result and likelihood;
A difference value calculating unit that compares the action data of the recognition target and the histogram corresponding to the action indicated by the recognition result of the third recognition processing unit, and calculates a difference value of the frequency of the movement amount per unit time; ,
The evaluation value calculation unit that calculates an evaluation value used for detecting the extraordinary behavior based on the likelihood and the difference value obtained by the third recognition processing unit. Non-daily behavior detection system.
前記行動認識部は、前記評価値を積算して累積評価値が閾値を超えた場合に前記非日常行動の発生と判定する判定部を更に備えることを特徴とする請求項6に記載の非日常行動検知システム。   The non-daily life according to claim 6, wherein the behavior recognition unit further includes a determination unit that accumulates the evaluation values and determines that the extraordinary behavior occurs when a cumulative evaluation value exceeds a threshold value. Behavior detection system. 前記時系列動線情報から前記人物の移動開始及び移動停止を判定する停止状態判定部と、
前記時系列動線情報から前記人物のエリア遷移の有無を判定するエリア遷移判定部と、
前記移動開始から前記移動停止までで前記時系列動線情報を分割し、分割した時系列動線情報のうち前記エリア遷移を含む時系列動線情報を前記行動データ及び前記認識対象の行動データとして出力する行動データ出力部
とを更に備え、前記エリア遷移の履歴を示すエリア遷移履歴を前記クラスタリングの基準として用いることを特徴とする請求項1〜7のいずれか1項に記載の非日常行動検知システム。
A stop state determination unit for determining start and stop of movement of the person from the time-series flow line information;
An area transition determination unit that determines whether or not there is an area transition of the person from the time-series flow line information;
The time-series flow line information is divided from the movement start to the movement stop, and time-series flow line information including the area transition among the divided time-series flow line information is used as the action data and the action data to be recognized. The non-daily behavior detection according to any one of claims 1 to 7, further comprising: an action data output unit for outputting, wherein an area transition history indicating the history of the area transition is used as a reference for the clustering. system.
JP2006076471A 2006-03-20 2006-03-20 Nonroutine action detecting system Withdrawn JP2007249922A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006076471A JP2007249922A (en) 2006-03-20 2006-03-20 Nonroutine action detecting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006076471A JP2007249922A (en) 2006-03-20 2006-03-20 Nonroutine action detecting system

Publications (1)

Publication Number Publication Date
JP2007249922A true JP2007249922A (en) 2007-09-27

Family

ID=38594088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006076471A Withdrawn JP2007249922A (en) 2006-03-20 2006-03-20 Nonroutine action detecting system

Country Status (1)

Country Link
JP (1) JP2007249922A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110408A (en) * 2007-10-31 2009-05-21 Toshiba Tec Corp Moving route editing apparatus and moving route editing program
JP2010230443A (en) * 2009-03-26 2010-10-14 Japan Research Institute Ltd Direction detecting device
JP2010238105A (en) * 2009-03-31 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> System, method and program for determining normal/abnormal condition
JP2010279638A (en) * 2009-06-08 2010-12-16 Nikon Corp Life log recording apparatus
JP2011028436A (en) * 2009-07-23 2011-02-10 Nippon Telegr & Teleph Corp <Ntt> Behavior record storage system, server device, behavior record storage method and computer program
WO2011070831A1 (en) * 2009-12-11 2011-06-16 株式会社日立製作所 Lifestyle pattern classification device and lifestyle pattern classification system
US8139818B2 (en) 2007-06-28 2012-03-20 Toshiba Tec Kabushiki Kaisha Trajectory processing apparatus and method
WO2012042814A1 (en) * 2010-10-01 2012-04-05 パナソニック株式会社 Classification device and classification method
JP2017228100A (en) * 2016-06-23 2017-12-28 コニカミノルタ株式会社 Behavior recognition device and behavior recognition program
WO2019098777A1 (en) * 2017-11-16 2019-05-23 경희대학교 산학협력단 Dementia patient management method and system thereof
JP7371624B2 (en) 2018-06-26 2023-10-31 コニカミノルタ株式会社 Programs that run on computers, information processing devices, and methods that run on computers

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509490B2 (en) 2007-06-28 2013-08-13 Toshiba Tec Kabushiki Kaisha Trajectory processing apparatus and method
US8139818B2 (en) 2007-06-28 2012-03-20 Toshiba Tec Kabushiki Kaisha Trajectory processing apparatus and method
JP2009110408A (en) * 2007-10-31 2009-05-21 Toshiba Tec Corp Moving route editing apparatus and moving route editing program
JP2010230443A (en) * 2009-03-26 2010-10-14 Japan Research Institute Ltd Direction detecting device
JP2010238105A (en) * 2009-03-31 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> System, method and program for determining normal/abnormal condition
JP2010279638A (en) * 2009-06-08 2010-12-16 Nikon Corp Life log recording apparatus
JP2011028436A (en) * 2009-07-23 2011-02-10 Nippon Telegr & Teleph Corp <Ntt> Behavior record storage system, server device, behavior record storage method and computer program
JPWO2011070831A1 (en) * 2009-12-11 2013-04-22 株式会社日立製作所 Life pattern classification device and life pattern classification system
WO2011070831A1 (en) * 2009-12-11 2011-06-16 株式会社日立製作所 Lifestyle pattern classification device and lifestyle pattern classification system
JP5466713B2 (en) * 2009-12-11 2014-04-09 株式会社日立製作所 Life pattern classification device and life pattern classification system
WO2012042814A1 (en) * 2010-10-01 2012-04-05 パナソニック株式会社 Classification device and classification method
US8793204B2 (en) 2010-10-01 2014-07-29 Panasonic Corporation Classification device and classification method
JP5784585B2 (en) * 2010-10-01 2015-09-24 パナソニック株式会社 Classification apparatus and classification method
JP2017228100A (en) * 2016-06-23 2017-12-28 コニカミノルタ株式会社 Behavior recognition device and behavior recognition program
WO2019098777A1 (en) * 2017-11-16 2019-05-23 경희대학교 산학협력단 Dementia patient management method and system thereof
JP7371624B2 (en) 2018-06-26 2023-10-31 コニカミノルタ株式会社 Programs that run on computers, information processing devices, and methods that run on computers

Similar Documents

Publication Publication Date Title
JP2007249922A (en) Nonroutine action detecting system
JP5143212B2 (en) Method and apparatus for modeling behavior using probability distribution functions
CN106485871B (en) System and method for providing early prediction and prediction of false alarms by applying statistical inference models
US10785643B2 (en) Deep learning neural network based security system and control method therefor
Monekosso et al. Behavior analysis for assisted living
JP2005531845A5 (en)
US20150272509A1 (en) Diagnostic apparatus and method
JP4641450B2 (en) Unsteady image detection method, unsteady image detection device, and unsteady image detection program
WO2019133316A1 (en) Reconstruction-based anomaly detection
JP2007272488A (en) Image processor, monitor camera and image monitoring system
KR102359344B1 (en) System for smart childcare environment monitoring infant behavior and psychological analysis based on artificial intelligence and method thereof
Pirzada et al. Sensors in smart homes for independent living of the elderly
JP2008257513A (en) Abnormal condition monitoring device and elevator system
US20160371600A1 (en) Systems and methods for verification and anomaly detection using a mixture of hidden markov models
WO2021169361A1 (en) Method and apparatus for detecting time series data, and computer device and storage medium
Nwakanma et al. Iot-based vibration sensor data collection and emergency detection classification using long short term memory (lstm)
KR101979375B1 (en) Method of predicting object behavior of surveillance video
Monekosso et al. Anomalous behavior detection: Supporting independent living
JP3280872B2 (en) Environmental monitoring system, abnormality detection method, and abnormality detection device
Li et al. Detecting and monitoring time-related abnormal events using a wireless sensor network and mobile robot
Warriach et al. A comparative analysis of machine learning algorithms for faults detection in wireless sensor networks
Mocanu et al. A model for activity recognition and emergency detection in smart environments
JP2008097361A (en) Anomaly monitoring device
Hsueh et al. Abnormal event detection using Bayesian networks at a smart home
Ganesan et al. Elderly people activity recognition in smart grid monitoring environment

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080118

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20080201

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090602