JP2019053608A - Characteristic behavior detecting apparatus - Google Patents

Characteristic behavior detecting apparatus Download PDF

Info

Publication number
JP2019053608A
JP2019053608A JP2017178150A JP2017178150A JP2019053608A JP 2019053608 A JP2019053608 A JP 2019053608A JP 2017178150 A JP2017178150 A JP 2017178150A JP 2017178150 A JP2017178150 A JP 2017178150A JP 2019053608 A JP2019053608 A JP 2019053608A
Authority
JP
Japan
Prior art keywords
sensor
unit
group
behavior
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017178150A
Other languages
Japanese (ja)
Other versions
JP6626056B2 (en
Inventor
隆太郎 橋本
Ryutaro Hashimoto
隆太郎 橋本
藤野 剛
Takeshi Fujino
剛 藤野
雅哉 江藤
Masaya Eto
雅哉 江藤
義行 仲
Yoshiyuki Naka
義行 仲
拓也 生澤
Takuya Ubusawa
拓也 生澤
泰臣 采
Taishin Uchisawa
泰臣 采
武弘 小橋
Takehiro Kobashi
武弘 小橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2017178150A priority Critical patent/JP6626056B2/en
Publication of JP2019053608A publication Critical patent/JP2019053608A/en
Application granted granted Critical
Publication of JP6626056B2 publication Critical patent/JP6626056B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a characteristic behavior detecting apparatus which reduces a collection period of learning data and can keep detection accuracy in detection of a characteristic behavior.SOLUTION: In a characteristic behavior detecting system 100, a characteristic behavior detecting apparatus has a data acquiring unit 31, and a newly grouping unit 342. The data acquiring unit 31 acquires sensor values of a plurality of sensors. The newly grouping unit 342 groups the plurality of sensors on the basis of behavior patterns of detection objects detected by the sensor values.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、特徴行動検知装置に関する。   Embodiments described herein relate generally to a characteristic behavior detection apparatus.

近年、たとえばターミナル駅やショッピングモールなど、不特定多数の人間が行き交う場所において、監視カメラなどのセンサを設置し、特徴行動などと称される、通常とは異なる特徴的な行動を検知する取り組みが行われている。特徴行動の検知は、不審者の検知に止まらず、たとえば人の流れ方や集まり方が普段と違うなどといった監視対象エリア内における状況の検知にも適用し得る。つまり、特徴行動を検知することで、たとえば警備員の配置・派遣を適応的に行うといったことが可能となる。   In recent years, for example, terminal cameras and shopping malls, where there are many unspecified people, such as surveillance cameras, have been installed to detect unusual behaviors, which are called characteristic behaviors. Has been done. The detection of the characteristic behavior is not limited to the detection of the suspicious person, and can be applied to the detection of the situation in the monitoring target area, for example, how people flow or gather differently. That is, by detecting characteristic behavior, for example, it is possible to adaptively arrange and dispatch guards.

特徴行動を検知するために、たとえば特徴行動ごとに検知ルールを設定することは、困難かつ非常に手間がかかる。このことから、特徴行動を検知する手法の一つとして、統計的処理や機械学習によって通常の行動を学習し、当該学習した通常の行動とは異なる行動を特徴行動として検知する手法が提案されるに至っている。   In order to detect a characteristic behavior, for example, setting a detection rule for each characteristic behavior is difficult and very time-consuming. For this reason, as a method for detecting characteristic behavior, a method is proposed in which normal behavior is learned by statistical processing or machine learning, and behavior different from the learned normal behavior is detected as characteristic behavior. Has reached.

特許第5712868号公報Japanese Patent No. 5712868 特開2016−191966号公報Japanese Patent Laid-Open No. 2006-191966 特開2016−191975号公報JP, 2006-191975, A

たとえば、機械学習によって通常の行動を学習するためには、たとえば平日のデータ(監視カメラなどのセンサのセンサ値)と土休日のデータとを含む1週間分のデータを数セット収集しなければならないなど、学習データの収集期間がある程度必要であった。したがって、特徴行動を検知するシステムの導入から運用開始までにある程度の期間を置かざるを得なかった。   For example, in order to learn normal behavior by machine learning, several sets of data for one week including, for example, weekday data (sensor values of sensors such as surveillance cameras) and weekend data must be collected. For example, a period of learning data collection was required to some extent. Therefore, a certain period of time has been left between the introduction of the system for detecting characteristic behavior and the start of operation.

学習データの収集期間を短縮するために、たとえば、駅構内の異なる場所、異なる駅、駅や店舗などの異なる施設など、異なる環境下において設置された複数の監視カメラなどのセンサからデータを収集することが考えられ得る。しかしながら、異なる環境下において得られたデータを混ぜてしまうと、機械学習による特徴行動の検知精度(機械学習によって学習した通常の行動とは異なる行動の検知精度)が著しく低下する。   In order to shorten the collection period of learning data, for example, data is collected from sensors such as multiple surveillance cameras installed in different environments such as different locations within a station, different stations, different facilities such as stations and stores, etc. It can be considered. However, if data obtained in different environments are mixed, the detection accuracy of characteristic behavior by machine learning (detection accuracy of behavior different from normal behavior learned by machine learning) is significantly lowered.

本発明が解決しようとする課題は、学習データの収集期間を短縮し、かつ、特徴行動の検知精度を保つことができる特徴行動検知装置を提供することである。   The problem to be solved by the present invention is to provide a characteristic behavior detection device capable of shortening the learning data collection period and maintaining the detection accuracy of characteristic behavior.

実施形態によれば、特徴行動検知装置は、取得部と、新規グループ化部とを具備する。取得部は、複数のセンサのセンサ値を取得する。新規グループ化部は、前記センサ値から検出される対象体の行動パターンに基づき、前記複数のセンサをグループ化する。   According to the embodiment, the characteristic behavior detection device includes an acquisition unit and a new grouping unit. The acquisition unit acquires sensor values of a plurality of sensors. The new grouping unit groups the plurality of sensors based on the behavior pattern of the target detected from the sensor values.

実施形態の特徴行動検知システムの概要を説明するための図。The figure for demonstrating the outline | summary of the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムの一構成例を示す図。The figure which shows the example of 1 structure of the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムのハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムの行動パターンによるセンサのグループ化を説明するための概念図。The conceptual diagram for demonstrating grouping of the sensor by the action pattern of the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおけるセンサのグループ化および通常の行動の学習に関する処理の流れを示すフローチャート。The flowchart which shows the flow of the process regarding grouping of the sensor in the characteristic action detection system of embodiment, and learning of a normal action. 実施形態の特徴行動検知システムにおけるセンサの新規グループ化に関する処理の流れを示すフローチャート。The flowchart which shows the flow of the process regarding the new grouping of the sensor in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおいて用いられるグループ情報の一例を示す図。The figure which shows an example of the group information used in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおいて用いられるセンサ情報の一例を示す図。The figure which shows an example of the sensor information used in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおける追加されたセンサに対する処理の概要を説明するための図。The figure for demonstrating the outline | summary of the process with respect to the added sensor in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおける追加されたセンサに対する処理の流れを示すフローチャート。The flowchart which shows the flow of a process with respect to the added sensor in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムの行動パターンによるセンサのグループ化が実行された状態の一例を示す図。The figure which shows an example of the state by which the grouping of the sensor by the action pattern of the characteristic action detection system of embodiment was performed. 実施形態の特徴行動検知システムにおける正規化を含む学習データの収集に関する処理の流れを示すフローチャート。The flowchart which shows the flow of the process regarding collection of learning data including the normalization in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおける正規化を含む特徴行動の検知に関する処理の流れを示すフローチャート。The flowchart which shows the flow of the process regarding the detection of the characteristic action including the normalization in the characteristic action detection system of embodiment. 実施形態の特徴行動検知システムにおける行動パターンによるセンサのグループ化の効果の一例を説明するための図。The figure for demonstrating an example of the effect of the grouping of the sensor by the action pattern in the characteristic action detection system of embodiment.

以下、実施形態について図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態の特徴行動検知システム100の概要を説明するための図である。   FIG. 1 is a diagram for explaining the outline of the characteristic behavior detection system 100 of the present embodiment.

この特徴行動検知システム100は、駅、店舗、多目的ホールなどの様々な場所における特徴行動の検知を一元的に実行するシステムを想定している。より詳細には、この特徴行動検知システム100は、様々な場所に設置される監視カメラなどの複数のセンサ1を用いて様々な場所での特徴行動を検知するシステムを想定している。ただし、特徴行動検知システム100に接続されるセンサ1は、同種のセンサで統一されているものとする。   This characteristic behavior detection system 100 assumes a system that centrally executes detection of characteristic behavior in various places such as stations, stores, and multipurpose halls. More specifically, this characteristic behavior detection system 100 assumes a system that detects a characteristic behavior at various locations using a plurality of sensors 1 such as surveillance cameras installed at various locations. However, it is assumed that the sensors 1 connected to the characteristic behavior detection system 100 are unified with the same type of sensors.

また、この特徴行動検知システム100は、通常の行動とは異なる行動を特徴行動として検知するシステムであって、複数のセンサ1を用いることによって、通常の行動を学習するための学習データの収集期間を短縮し、かつ、特徴行動の検知精度を保つことができるようにしたシステムである。以下、特徴行動検知システム100が、設置場所が異なったり、設置条件が異なったりする複数のセンサ1を用いながらも、特徴行動の検知精度を保つために備える仕組みについて詳述する。   The characteristic behavior detection system 100 is a system that detects a behavior different from a normal behavior as a characteristic behavior, and uses a plurality of sensors 1 to collect learning data for learning the normal behavior. This is a system that can shorten the time and maintain the detection accuracy of characteristic behavior. Hereinafter, the mechanism provided for maintaining the detection accuracy of the characteristic behavior while using the plurality of sensors 1 having different installation locations or different installation conditions will be described in detail.

図2は、特徴行動検知システム100の一構成例を示す図である。   FIG. 2 is a diagram illustrating a configuration example of the characteristic behavior detection system 100.

図2に示すように、特徴行動検知システム100は、複数のセンサ1と、センサデータ管理装置2と、特徴行動検知装置3とを備える。特徴行動検知システム100は、発報装置4や情報配信装置5を備えてもよい。なお、ここでは、センサデータ管理装置2と特徴行動検知装置3とを分けて示しているが、これらは、たとえば同一のコンピュータによって構築されてもよい。また、センサデータ管理装置2および特徴行動検知装置3の一方または両方は、たとえば負荷分散などのために、たとえばネットワークを介して協働可能な2以上のコンピュータによって構築されてもよい。   As shown in FIG. 2, the characteristic behavior detection system 100 includes a plurality of sensors 1, a sensor data management device 2, and a characteristic behavior detection device 3. The characteristic behavior detection system 100 may include a reporting device 4 and an information distribution device 5. Here, although the sensor data management device 2 and the characteristic behavior detection device 3 are shown separately, they may be constructed by the same computer, for example. Further, one or both of the sensor data management device 2 and the characteristic behavior detection device 3 may be constructed by two or more computers capable of cooperating via a network, for example, for load distribution.

様々な場所に設置される監視カメラなどの複数のセンサ1のセンサ値は、センサデータ管理装置2(データ管理部21)へ送信される。センサ1とセンサデータ管理装置2との間で通信する手法については、特定の手法に限定されず、ここでは問わないが、たとえばインターネットなどのネットワーク経由で通信する手法を採用し得る。センサ値は、たとえば監視カメラの映像(画像)データであるが、前述したように、センサ1は、必ずしも監視カメラに限定されず、センサ値としては、温度、煙などの検知データとなる場合もある。   Sensor values of a plurality of sensors 1 such as surveillance cameras installed in various places are transmitted to the sensor data management device 2 (data management unit 21). The method of communicating between the sensor 1 and the sensor data management device 2 is not limited to a specific method, and although it does not matter here, for example, a method of communicating via a network such as the Internet can be adopted. The sensor value is, for example, video (image) data of a monitoring camera. However, as described above, the sensor 1 is not necessarily limited to the monitoring camera, and the sensor value may be detection data such as temperature and smoke. is there.

センサデータ管理装置2は、データ管理部21と、センサデータDB(Data base)22と、センサ情報DB23とを備えている。   The sensor data management device 2 includes a data management unit 21, a sensor data DB (Data base) 22, and a sensor information DB 23.

データ管理部21は、複数のセンサ1から送信されてくるセンサ値を、グループ化用データ22A、学習用データ22B、検知用データ22Cとして、センサデータDB22によって管理する機能を有する。たとえば、1つのセンサ値が、グループ化用データ22A、学習用データ22B、検知用データ22Cとして重複して用いられ得る。グループ化用データ22Aは、後述する、複数のセンサ1をグループ化する処理(クラスタリングなどとも称される)に用いられるデータである。学習用データ22Bは、特徴行動を検知するための通常の行動の学習に用いられるデータである。検知用データ22Cは、特徴行動の検知に用いられるデータである。データ管理部21は、これらの各データを、センサ1ごとに時系列に読み出し可能にセンサデータDB22に格納する。データ管理部21は、センサデータDB22内の各データを、センサ1ごとに削除することもできる。   The data management unit 21 has a function of managing sensor values transmitted from the plurality of sensors 1 as grouping data 22A, learning data 22B, and detection data 22C using the sensor data DB 22. For example, one sensor value can be used redundantly as grouping data 22A, learning data 22B, and detection data 22C. The grouping data 22A is data used for a process (also referred to as clustering) for grouping a plurality of sensors 1 described later. The learning data 22B is data used for learning a normal action for detecting a characteristic action. The detection data 22C is data used for detecting characteristic behavior. The data management unit 21 stores these pieces of data in the sensor data DB 22 so that they can be read out in time series for each sensor 1. The data management unit 21 can also delete each data in the sensor data DB 22 for each sensor 1.

また、データ管理部21は、センサ1の台数の増減を把握し得る情報を含むセンサ1に関する情報(センサ情報)を、センサ情報DB23によって管理する機能を有する。センサ1が増設された場合や撤去された場合、システム管理者によって、センサ情報DB23の更新が行われる。この更新は、センサ1が増設された場合や撤去された場合、その都度行われることが好ましいが、一定期間ごとに当該一定期間内において増設または撤去されたセンサ1について一括して行われるものであってもよい。センサ情報DB23は、最新(更新後)のセンサ情報と、少なくとも1世代以上の更新前のセンサ情報とを保持する。センサ情報は、センサ1の増減として、センサ1の総数の差分数ではなく、センサ1の増設数と撤去数とのそれぞれを把握し得る情報であることが好ましい。さらに、センサ情報は、たとえば設置条件が変更されたセンサ1の数を把握し得る情報であることが好ましい。つまり、システム管理者は、たとえば設置条件が変更されたセンサ1についても、センサ情報DB23の更新を行うことが好ましい。たとえば設置条件が変更されたセンサ1については、撤去され、かつ、新たに増設されたものとして、センサ情報が更新されてもよい。ここで、この特徴行動検知システム100では、システム管理者が、センサ1のグループ化に関する情報を、たとえばセンサ情報などとしてセンサ情報DB23へ登録する必要がないことを留意点として挙げておく。その理由については後述する。   Further, the data management unit 21 has a function of managing information (sensor information) about the sensor 1 including information that can grasp the increase / decrease in the number of sensors 1 by the sensor information DB 23. When the sensor 1 is added or removed, the sensor information DB 23 is updated by the system administrator. This update is preferably performed each time the sensor 1 is added or removed, but it is performed in batches for the sensors 1 that have been added or removed within a certain period of time. There may be. The sensor information DB 23 holds the latest (after update) sensor information and sensor information before update of at least one generation. It is preferable that the sensor information is information that can grasp each of the number of additions and removals of the sensors 1 instead of the difference of the total number of sensors 1 as the increase or decrease of the sensors 1. Furthermore, it is preferable that sensor information is information which can grasp | ascertain the number of the sensors 1 in which installation conditions were changed, for example. That is, it is preferable that the system administrator updates the sensor information DB 23 for the sensor 1 whose installation conditions are changed, for example. For example, for the sensor 1 whose installation condition has been changed, the sensor information may be updated on the assumption that the sensor 1 has been removed and newly added. Here, in this characteristic behavior detection system 100, it should be noted that the system administrator does not need to register information related to grouping of the sensors 1 in the sensor information DB 23 as sensor information or the like, for example. The reason will be described later.

また、データ管理部21は、センサデータDB22に格納される各種データや、センサ情報DB23に格納されるセンサ情報を、特徴行動検知装置3(データ取得部31)へ送信する機能を有する。センサデータ管理装置2と特徴行動検知装置3との間で通信する手法については、特定の手法に限定されず、ここでは問わないが、たとえばインターネットなどのネットワーク経由で通信する手法を採用し得る。   The data management unit 21 has a function of transmitting various data stored in the sensor data DB 22 and sensor information stored in the sensor information DB 23 to the characteristic behavior detection device 3 (data acquisition unit 31). The method of communicating between the sensor data management device 2 and the characteristic behavior detection device 3 is not limited to a specific method, and although it does not matter here, for example, a method of communicating via a network such as the Internet can be adopted.

特徴行動検知装置3は、データ取得部31、対象物検知部32、特徴量算出部33、グループ化部34、グループ管理部35、機械学習部36、特徴行動検知・識別部37、学習モデルDB38およびグループ情報DB39を備える。データ取得部31、対象物検知部32、特徴量算出部33、グループ化部34、グループ管理部35、機械学習部36および特徴行動検知・識別部37の一部または全部は、各々の処理手順が記述されたプログラムをプロセッサに実行させることによって実現されるものであってもよいし、専用の電子回路によって実現されるものであってもよい。図3に、特徴行動検知装置3のハードウェア構成の一例を示す。   The feature behavior detection device 3 includes a data acquisition unit 31, an object detection unit 32, a feature amount calculation unit 33, a grouping unit 34, a group management unit 35, a machine learning unit 36, a feature behavior detection / identification unit 37, and a learning model DB 38. And a group information DB 39. A part or all of the data acquisition unit 31, the object detection unit 32, the feature amount calculation unit 33, the grouping unit 34, the group management unit 35, the machine learning unit 36, and the feature behavior detection / identification unit 37 may be processed by each processing procedure. May be realized by causing a processor to execute a program in which is described, or may be realized by a dedicated electronic circuit. FIG. 3 shows an example of the hardware configuration of the characteristic behavior detection device 3.

図3に示すように、特徴行動検知装置3は、プロセッサ51、主メモリ52、外部記憶装置53、通信装置54、入力装置55および表示装置56を備える。また、特徴行動検知装置3は、これらを相互接続するためのバス57を備える。なお、前述したように、特徴行動検知装置3は、2以上のコンピュータ(サーバとファイルサーバなど)によって構築されてもよく、図3は、そのハードウェア構成例を概略的に示しているに過ぎない。   As shown in FIG. 3, the characteristic behavior detection device 3 includes a processor 51, a main memory 52, an external storage device 53, a communication device 54, an input device 55, and a display device 56. The characteristic behavior detection device 3 includes a bus 57 for interconnecting them. As described above, the characteristic behavior detection device 3 may be constructed by two or more computers (server and file server, etc.), and FIG. 3 only schematically shows a hardware configuration example thereof. Absent.

ここでは、特徴行動検知装置3は、外部記憶装置53に格納される特徴行動検知プログラム3Aが当該外部記憶装置53から主メモリ52にロードされてプロセッサ51によって実行されることによって、図2に示したデータ取得部31、対象物検知部32、特徴量算出部33、グループ化部34、グループ管理部35、機械学習部36、特徴行動検知・識別部37が実現されるものとする。また、図2に示した学習モデルDB38、グループ情報DB39および後述する行動パターンDB344は、外部記憶装置53内に構築されるものとする。   Here, the characteristic behavior detection device 3 is shown in FIG. 2 by the characteristic behavior detection program 3A stored in the external storage device 53 being loaded from the external storage device 53 into the main memory 52 and executed by the processor 51. The data acquisition unit 31, the object detection unit 32, the feature amount calculation unit 33, the grouping unit 34, the group management unit 35, the machine learning unit 36, and the feature behavior detection / identification unit 37 are realized. Further, the learning model DB 38, the group information DB 39, and an action pattern DB 344 described later are assumed to be built in the external storage device 53.

通信装置54は、センサデータ管理装置2、発報装置4および情報配信装置5との間の通信を実行する装置である。入力装置55は、特徴行動検知装置3のオペレータなどが指令を含む情報入力を行うための装置である。表示装置56は、特徴行動検知装置3のオペレータなどへ情報出力を行うための装置である。   The communication device 54 is a device that executes communication among the sensor data management device 2, the reporting device 4, and the information distribution device 5. The input device 55 is a device for an operator of the characteristic behavior detection device 3 to input information including a command. The display device 56 is a device for outputting information to an operator of the characteristic behavior detection device 3 or the like.

図2に戻って説明を続ける。データ取得部31は、センサデータ管理装置2(データ管理部21)から、センサ1のセンサ値である各種データや、センサ情報を取得する機能を有する。データ取得部31によって取得された各種データは、対象物検知部32と特徴量算出部33とに渡され、センサ情報は、グループ化部34に渡される。なお、センサデータ管理装置2(データ管理部21)とデータ取得部31との間の各種データの授受は、センサ1によるデータの取得とほぼ同時のいわゆるリアルタイム処理としても実施され得るし、センサデータDB22に格納された後、必要に応じて、いわゆるバッチ処理としても実施され得る。   Returning to FIG. 2, the description will be continued. The data acquisition unit 31 has a function of acquiring various data as sensor values of the sensor 1 and sensor information from the sensor data management device 2 (data management unit 21). Various data acquired by the data acquisition unit 31 is passed to the object detection unit 32 and the feature amount calculation unit 33, and the sensor information is passed to the grouping unit 34. The exchange of various data between the sensor data management device 2 (data management unit 21) and the data acquisition unit 31 can be performed as a so-called real-time process almost simultaneously with the data acquisition by the sensor 1, or sensor data After being stored in the DB 22, it may be implemented as a so-called batch process as necessary.

対象物検知部32は、センサ1の検知対象領域内に存在するたとえば人や人の集合体などを検知する。以下、対象物検知部32が検知対象とする人や人の集合体などを対象物または対象体などと称することがある。対象物を検知する手法は、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。対象物検知部32による対象物の検知結果は、特徴量算出部33、グループ化部34、機械学習部36および特徴行動検知・識別部37に通知される。   The object detection unit 32 detects, for example, a person or a group of persons existing in the detection target area of the sensor 1. Hereinafter, a person or a group of persons to be detected by the object detection unit 32 may be referred to as an object or an object. Various known methods can be adopted as a method for detecting an object (here, the method is not limited). The detection result of the object by the object detection unit 32 is notified to the feature amount calculation unit 33, the grouping unit 34, the machine learning unit 36, and the feature behavior detection / identification unit 37.

特徴量算出部33は、対象物検知部32から通知される対象物の特徴量を算出する。特徴量は、対象物の行動を表現し得る値であり、たとえば密度や動きベクトルなどを含む情報である。特徴量算出部33は、学習・検知用特徴量算出部331、動きベクトル算出部332および正規化部333を備える。   The feature amount calculation unit 33 calculates the feature amount of the object notified from the object detection unit 32. The feature amount is a value that can represent the behavior of the object, and is information including, for example, a density and a motion vector. The feature amount calculation unit 33 includes a learning / detection feature amount calculation unit 331, a motion vector calculation unit 332, and a normalization unit 333.

学習・検知用特徴量算出部331は、特徴行動を検知するための通常の行動の学習に用いられ、または、特徴行動の検知に用いられる対象物の特徴量を算出する。対象物の特徴量を算出する手法は、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。   The learning / detection feature quantity calculation unit 331 calculates a feature quantity of an object used for learning a normal action for detecting a characteristic action or used for detecting a characteristic action. Various known methods can be adopted as a method for calculating the feature amount of the object (here, the method is not limited).

また、動きベクトル算出部332は、対象物検知部32から通知される対象物の特徴量であって、特に、センサ1のグループ化に用いるのに好適な対象物の動きベクトルを算出する。動きベクトルを算出する手法も、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。センサ1のグループ化および動きベクトルについては後述する。   The motion vector calculation unit 332 calculates the feature vector of the target object notified from the target object detection unit 32 and particularly suitable for use in grouping of the sensors 1. Various known methods can be adopted as the method for calculating the motion vector (here, the method is not limited). The grouping and motion vectors of the sensors 1 will be described later.

学習・検知用特徴量算出部331により算出された学習・検知用特徴量と、動きベクトル算出部332により算出された動きベクトルとは、正規化部333に渡される。正規化部333は、受け取った学習・検知用特徴量や動きベクトルについて、たとえばセンサ1間における設置条件の違いなどの影響を排除するための正規化を実行する。正規化部333の処理については後述する。正規化部333により正規化が施された学習・検知用特徴量は、機械学習部36と特徴行動検知・識別部37とに渡される。また、正規化部333により正規化が施された動きベクトルは、グループ化部34(行動パターン決定部341)に渡される。   The learning / detection feature amount calculated by the learning / detection feature amount calculation unit 331 and the motion vector calculated by the motion vector calculation unit 332 are passed to the normalization unit 333. The normalization unit 333 performs normalization on the received learning / detection feature quantities and motion vectors to eliminate the influence of, for example, differences in installation conditions between the sensors 1. The processing of the normalization unit 333 will be described later. The learning / detection feature quantity normalized by the normalization unit 333 is passed to the machine learning unit 36 and the feature behavior detection / identification unit 37. The motion vector normalized by the normalization unit 333 is passed to the grouping unit 34 (behavior pattern determination unit 341).

機械学習部36は、特徴量算出部33(正規化部333)から受け取る学習・検知用特徴量を用いて、特徴行動を検知するための通常の行動を学習する。特徴行動検知・識別部37は、特徴量算出部33(正規化部333)から受け取る学習・検知用特徴量を用いて、機械学習部36により学習された通常の行動と異なる行動を特徴行動として検知する。通常の行動を学習する手法は、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。また、通常の行動と異なる行動を特徴行動として検知する手法も、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。特徴行動検知・識別部37は、特徴行動を検知した場合、その特徴行動の行動内容を識別する。行動内容を識別する手法も、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。特徴行動検知・識別部37による特徴行動の検知および行動内容の識別の結果は、発報装置4や情報配信装置5へ通知され、発報装置4による係員への通知や情報配信装置5による利用者への情報配信が実行される。   The machine learning unit 36 learns a normal action for detecting a feature action using the learning / detecting feature quantity received from the feature quantity calculation unit 33 (normalization unit 333). The feature behavior detection / identification unit 37 uses, as a feature behavior, a behavior different from the normal behavior learned by the machine learning unit 36 using the learning / detection feature amount received from the feature amount calculation unit 33 (normalization unit 333). Detect. Various known methods can be adopted as a method of learning normal behavior (here, the method is not questioned). Also, various known methods can be adopted as a method for detecting a behavior different from a normal behavior as a characteristic behavior (here, the method is not limited). When detecting the characteristic behavior, the characteristic behavior detection / identification unit 37 identifies the behavior content of the characteristic behavior. Various known methods can be adopted as the method for identifying the action content (here, the method does not matter). The result of the detection of the characteristic behavior and the identification of the behavior content by the characteristic behavior detection / identification unit 37 is notified to the reporting device 4 and the information distribution device 5, and the notification device 4 notifies the staff and uses the information distribution device 5. Information distribution to the person is executed.

ところで、設置場所が異なったり、設置条件が異なったりする複数のセンサ1から収集されるデータを混ぜると、機械学習部36による通常の行動の学習精度が低下し、これに伴い、特徴行動検知・識別部37による(通常の行動とは異なる行動である)特徴行動の検知精度が低下するおそれがある。そこで、この特徴行動検知システム100における特徴行動検知装置3は、機械学習部36による通常の行動の学習精度を保ち、また、特徴行動検知・識別部37による特徴行動の検知精度を保つために、グループ化部34とグループ管理部35とを備える。なお、特徴量算出部33の正規化部333も、機械学習部36による通常の行動の学習精度を保ち、また、特徴行動検知・識別部37による特徴行動の検知精度を保つことに寄与する特徴行動検知システム100(特徴行動検知装置3)に独自のものであるが、判り易くするために、グループ化部34およびグループ管理部35の説明とは分けて説明する。   By the way, if data collected from a plurality of sensors 1 with different installation locations or different installation conditions are mixed, the learning accuracy of normal behavior by the machine learning unit 36 decreases, and accordingly, characteristic behavior detection / There is a possibility that the detection accuracy of characteristic behavior (which is behavior different from normal behavior) by the identification unit 37 is lowered. Therefore, the feature behavior detection device 3 in the feature behavior detection system 100 maintains the normal behavior learning accuracy by the machine learning unit 36, and also maintains the feature behavior detection accuracy by the feature behavior detection / identification unit 37. A grouping unit 34 and a group management unit 35 are provided. Note that the normalization unit 333 of the feature amount calculation unit 33 also maintains the normal behavior learning accuracy by the machine learning unit 36 and also contributes to maintaining the detection accuracy of the characteristic behavior by the feature behavior detection / identification unit 37. Although it is unique to the behavior detection system 100 (characteristic behavior detection device 3), for the sake of easy understanding, description will be made separately from the description of the grouping unit 34 and the group management unit 35.

図4は、グループ化部34の行動パターンによるセンサ1のグループ化を説明するための概念図である。この図4と図2とを併せて参照して、まず、グループ化部34の行動パターン決定部341と新規グループ化部342とについて説明する。   FIG. 4 is a conceptual diagram for explaining grouping of the sensors 1 by the action pattern of the grouping unit 34. With reference to FIG. 4 and FIG. 2 together, first, the behavior pattern determination unit 341 and the new grouping unit 342 of the grouping unit 34 will be described.

前述したように、グループ化部34は、対象物検知部32からの通知を受け、また、特徴量算出部33から(動きベクトル算出部332により算出され、正規化部333により正規化された)動きベクトルを受け取る。   As described above, the grouping unit 34 receives the notification from the object detection unit 32, and from the feature amount calculation unit 33 (calculated by the motion vector calculation unit 332 and normalized by the normalization unit 333). Receive motion vectors.

特徴量算出部33の動きベクトル算出部332は、対象物検知部32から通知された対象物それぞれについて、たとえば時間的に連続する2つのセンサ値の取得間隔での移動方向および移動量を示す動きベクトルを算出する。たとえばセンサ1が監視カメラである場合、動きベクトル算出部332は、対象物のフレーム間での移動方向および移動量を示す動きベクトルを算出する。グループ化部34の行動パターン決定部341は、対象物検知部32から通知された対象物それぞれについて、特徴量算出部33から受け取った動きベクトルに基づき、行動パターンを決定する(STEP1)。   The motion vector calculation unit 332 of the feature amount calculation unit 33 indicates, for example, the movement indicating the movement direction and the movement amount at the acquisition interval of two temporally continuous sensor values for each of the objects notified from the object detection unit 32. Calculate the vector. For example, when the sensor 1 is a surveillance camera, the motion vector calculation unit 332 calculates a motion vector indicating the movement direction and the movement amount of the object between frames. The behavior pattern determination unit 341 of the grouping unit 34 determines a behavior pattern for each object notified from the object detection unit 32 based on the motion vector received from the feature amount calculation unit 33 (STEP 1).

たとえば、行動パターン決定部341は、移動方向を、上、右斜め上、右、右斜め下、下、左斜め下、左、左斜め上の8方向に分類し、また、移動量、つまり速度を、低速、普通、高速の3速度に分類する。行動パターン決定部341は、8方向×3速度=24通りに停止を加えた25通りの中から対象物の行動パターンを決定し、その結果を行動パターンテーブル上に集計する。なお、方向や速度の分類数は単なる一例であって、これらに限定されるものではない。行動パターンテーブル上の25個の数値の合計は、対象物検知部32から通知される対象物の数である。行動パターン決定部341は、このように作成される行動パターンテーブルを行動パターンDB344に格納する。   For example, the behavior pattern determination unit 341 classifies the movement direction into eight directions, up, right diagonally up, right, diagonally down right, down, diagonally down left, left, diagonally up left, and the amount of movement, that is, speed. Are classified into three speeds, low speed, normal speed, and high speed. The behavior pattern determination unit 341 determines a behavior pattern of the target object from 25 ways in which 8 directions × 3 speed = 24 kinds of stops are added, and totals the results on the behavior pattern table. The direction and speed classification numbers are merely examples, and are not limited to these. The total of 25 numerical values on the behavior pattern table is the number of objects notified from the object detection unit 32. The behavior pattern determination unit 341 stores the behavior pattern table created in this way in the behavior pattern DB 344.

グループ化部34の新規グループ化部342は、行動パターンDB344に格納される行動パターンテーブルを用いて、センサ1のグループ化を行う。新規グループ化部342によるセンサ1のグループ化が行われるタイミングとしては、第1に、特徴行動検知システム100の導入時が挙げられる。特徴行動検知システム100の導入時、たとえば特徴行動検知システム100全体で1000台のセンサ1が設置される場合、この1000台のセンサ1をいくつかのグループに分ける処理が初期処理として新規グループ化部342によって実行される。また、第2に、特徴行動検知システム100内でのセンサ1の増減の割合がしきい値を超えた場合が挙げられる。この増減は、センサデータ管理装置2のセンサ情報DB23に格納されているセンサ情報から取得することができる。センサ1の増減は、センサ1の総数の差分数ではなく、センサ1の変動数であることが好ましい。たとえばX台が増設され、Y台が撤去され、Z台の設置条件が変更された場合であって、|X−Y|の総数に占める割合がしきい値未満に収まる場合であっても、X+Y+Zの総数に占める割合がしきい値を越える場合には、改めて、センサ1をいくつかのグループに分ける処理が実行されることが好ましい。なお、センサ1のグループ化の実行要否の判定については、たとえば増設数と撤去数とを各々しきい値と比較するなど、様々な手法を採用し得る。   The new grouping unit 342 of the grouping unit 34 groups the sensors 1 using the behavior pattern table stored in the behavior pattern DB 344. The timing at which the sensors 1 are grouped by the new grouping unit 342 includes firstly when the characteristic behavior detection system 100 is introduced. When the characteristic behavior detection system 100 is introduced, for example, when 1000 sensors 1 are installed in the entire characteristic behavior detection system 100, the process of dividing the 1000 sensors 1 into several groups is a new grouping unit as an initial process. Executed by H.342. Secondly, there is a case where the rate of increase or decrease of the sensor 1 in the characteristic behavior detection system 100 exceeds a threshold value. This increase / decrease can be acquired from the sensor information stored in the sensor information DB 23 of the sensor data management device 2. The increase / decrease of the sensor 1 is preferably not the number of differences of the total number of sensors 1 but the number of fluctuations of the sensor 1. For example, even if X units are added, Y units are removed, and the installation conditions of Z units are changed, and the ratio of the total number of | X−Y | When the ratio of the total number of X + Y + Z exceeds the threshold value, it is preferable that the process of dividing the sensor 1 into several groups is executed again. It should be noted that various methods can be employed for determining whether to perform grouping of the sensors 1, for example, comparing the number of expansions and the number of removals with threshold values.

新規グループ化部342は、まず、たとえば1日や1週間などの所定の期間における各センサ1の行動パターンの検出数を時系列に抽出する(STEP2)。たとえば、低速で上に動く行動パターンを行動1とし、低速で右斜め上に動く行動パターンを行動2とするといった具合に、新規グループ化部342は、前述した25通りの行動パターンの検出数を行動パターン別かつ時系列に抽出する。また、これと併せて、新規グループ化部342は、全行動パターン合計の検出数を時系列に抽出する。   First, the new grouping unit 342 extracts, in a time series, the number of detected behavior patterns of each sensor 1 in a predetermined period such as one day or one week (STEP 2). For example, the new grouping unit 342 determines the number of detected 25 types of action patterns as described above, such as an action pattern that moves upward at a low speed as action 1 and an action pattern that moves at a low speed and diagonally upward to action 2. Extract by behavior pattern and time series. In addition, the new grouping unit 342 extracts the total number of detected behavior patterns in time series.

そして、新規グループ化部342は、前述した所定の期間における行動パターンごとの検出数の時間変化率と、全行動パターンの総検出数の推移とを求め、これらを基準にセンサ1のグループ化を実行する(STEP3)。   And the new grouping part 342 calculates | requires the time change rate of the detection number for every action pattern in the predetermined period mentioned above, and transition of the total detection number of all the action patterns, and groups the sensors 1 based on these. Execute (STEP 3).

行動パターンごとの検出数の時間変化率からは、行動の傾向と、時間帯による行動の変化を捉えることができる。また、全行動パターンの総検出数の推移からは、各センサ1における検出数の規模の傾向を捉えることができる。これらを基準にすることで、新規グループ化部342は、行動の傾向と規模の傾向との関連性の高いセンサ1同士が同一のグループに属するようにセンサ1のグループ化を実行することができる。このように、本実施形態の特徴行動検知装置3は、センサ1によって検知される対象物の行動からセンサ1のグループ化を自動的に行うという独自の機能を有している。なお、与えられた基準に沿ったグループ化の手法は、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。新規グループ化部342によるセンサ1のグループ化の結果は、グループ管理部35に通知される。   From the time change rate of the number of detections for each behavior pattern, it is possible to capture behavioral trends and behavioral changes due to time zones. Further, the trend of the number of detections in each sensor 1 can be grasped from the transition of the total number of detections of all the behavior patterns. By using these as a reference, the new grouping unit 342 can group the sensors 1 so that the sensors 1 having a high relationship between the behavior tendency and the scale tendency belong to the same group. . Thus, the characteristic behavior detection device 3 of the present embodiment has a unique function of automatically grouping the sensors 1 based on the behavior of the object detected by the sensor 1. It should be noted that various known methods can be adopted as a grouping method according to a given standard (in this case, the method does not matter). The group management unit 35 is notified of the result of grouping the sensors 1 by the new grouping unit 342.

グループ化部34の追加センサ処理部343は、センサ1が追加された場合に、そのセンサ1をどのグループに編入するかなどの処理を実行する。追加センサ処理部343の処理については後述する。なお、追加センサ処理部343の処理結果も、グループ管理部35に通知される。   When the sensor 1 is added, the additional sensor processing unit 343 of the grouping unit 34 performs processing such as which group the sensor 1 is incorporated into. The processing of the additional sensor processing unit 343 will be described later. The processing result of the additional sensor processing unit 343 is also notified to the group management unit 35.

グループ管理部35は、グループ化部34(新規グループ化部342、追加センサ処理部343)からの通知を受けて、センサ1のグループに関する情報であるグループ情報の作成および更新を行う。グループ情報は、グループ情報DB39に格納される。また、グループ管理部35は、グループ情報で示されるグループごとの学習モデルを学習モデルDB38によって管理する。   Upon receiving a notification from the grouping unit 34 (new grouping unit 342, additional sensor processing unit 343), the group management unit 35 creates and updates group information that is information related to the group of sensors 1. The group information is stored in the group information DB 39. Further, the group management unit 35 manages the learning model for each group indicated by the group information using the learning model DB 38.

グループ管理部35は、グループ情報DB39に格納されるグループ情報と、学習モデルDB38に格納される学習モデルとを、機械学習部36と特徴行動検知・識別部37とに渡す。   The group management unit 35 passes the group information stored in the group information DB 39 and the learning model stored in the learning model DB 38 to the machine learning unit 36 and the characteristic behavior detection / identification unit 37.

機械学習部36は、グループ管理部35から受け取ったグループ情報により、特徴量算出部33から受け取る学習・検知用特徴量がどのグループのセンサ1によるものかを把握することができるので、同じくグループ管理部35から受け取った学習モデルの中の当該グループに対応づけられる学習モデルを使って対象物の通常の行動を学習していく。機械学習部36は、必ずしも、グループ情報に基づき、たとえば特徴量算出部33から受け取る学習・検知用特徴量がどのグループのセンサ1によるものかを把握するなどの機能を有していなくともよい。たとえば、機械学習部36は、グループ管理部35の制御下で、グループ管理部35から与えられた1つの学習モデルを使ってグループごとに学習を行ってもよい。もちろん、その場合、機械学習部36に供給される学習・検知用特徴量は、グループ管理部35により、各グループに属するセンサ1に関するもののみに制御される。機械学習部36による通常の行動の学習結果は、グループ管理部35に返却され、学習モデルDB38内の学習モデルが更新される。学習モデルDB38内の学習モデルが更新されると、グループ管理部35は、更新後の学習モデルを所定のタイミングで特徴行動検知・識別部37に渡す。   The machine learning unit 36 can determine which group of sensors 1 receives the learning / detection feature amount received from the feature amount calculation unit 33 based on the group information received from the group management unit 35. The normal behavior of the object is learned using the learning model associated with the group in the learning model received from the unit 35. The machine learning unit 36 does not necessarily have a function of determining which group of sensors 1 the learning / detection feature amount received from the feature amount calculation unit 33 is based on, for example, the group information. For example, the machine learning unit 36 may perform learning for each group using one learning model given from the group management unit 35 under the control of the group management unit 35. Of course, in this case, the learning / detection feature quantity supplied to the machine learning unit 36 is controlled by the group management unit 35 only to those relating to the sensors 1 belonging to each group. The learning result of the normal action by the machine learning unit 36 is returned to the group management unit 35, and the learning model in the learning model DB 38 is updated. When the learning model in the learning model DB 38 is updated, the group management unit 35 passes the updated learning model to the feature behavior detection / identification unit 37 at a predetermined timing.

特徴行動検知・識別部37も、機械学習部36と同様に、グループ管理部35から受け取ったグループ情報により、特徴量算出部33から受け取る学習・検知用特徴量がどのグループのセンサ1によるものかを把握することができるので、同じくグループ管理部35から受け取った学習モデルの中の当該グループに対応づけられる学習モデルを使って対象物の特徴行動(学習モデルで示される通常の行動と異なる行動)を検知する。特徴行動を検知した場合、特徴行動検知・識別部37は、その特徴行動の行動内容を識別し、検知および認識の結果を発報装置4や情報配信装置5へ通知する。これにより、発報装置4による係員への通知や情報配信装置5による利用者への情報配信が実行される。   Similarly to the machine learning unit 36, the feature behavior detection / identification unit 37 also uses the group information received from the group management unit 35 to determine which group the sensor 1 receives the learning / detection feature amount from the feature amount calculation unit 33. Since the learning model associated with the group in the learning model received from the group management unit 35 is also used, the characteristic behavior of the target object (behavior different from the normal behavior shown in the learning model) Is detected. When the characteristic behavior is detected, the characteristic behavior detection / identification unit 37 identifies the behavior content of the characteristic behavior and notifies the notification device 4 and the information distribution device 5 of the detection and recognition results. Thereby, notification to the staff by the reporting device 4 and information distribution to the user by the information distribution device 5 are executed.

このように、特徴行動検知装置3は、センサ1によって検知される対象物の行動からセンサ1のグループ化を自動的に行うという独自の機能を有しているので、設置場所が異なったり、設置条件が異なったりする複数のセンサ1から収集されるデータを混ぜても、機械学習部36による通常の行動の学習精度を保ち、また、特徴行動検知・識別部37による特徴行動の検知精度を保つことができる。よって、たとえば、学習データの収集期間を短縮して、特徴行動検知システム100の導入から運用開始までの期間を早めることができる。その一方で、システム管理者は、センサ1を設置するにあたり、そのセンサ1をどのグループに編入させるのかなどを何ら考慮する必要がない。換言すれば、システム管理者は、センサ1のグループ化に関する情報を、たとえばセンサ情報などとしてセンサ情報DB23へ登録する必要がない。   In this way, the characteristic behavior detection device 3 has a unique function of automatically grouping the sensors 1 based on the behavior of the object detected by the sensor 1, so that the installation location is different or the installation is different. Even if data collected from a plurality of sensors 1 with different conditions are mixed, the learning accuracy of normal behavior by the machine learning unit 36 is maintained, and the detection accuracy of characteristic behavior by the characteristic behavior detection / identification unit 37 is maintained. be able to. Therefore, for example, the collection period of learning data can be shortened, and the period from the introduction of the feature behavior detection system 100 to the start of operation can be shortened. On the other hand, when installing the sensor 1, the system administrator does not need to consider which group the sensor 1 is incorporated into. In other words, the system administrator does not need to register information related to the grouping of sensors 1 in the sensor information DB 23 as sensor information, for example.

図5は、特徴行動検知装置3におけるセンサ1のグループ化および通常の行動の学習に関する処理の流れを示すフローチャートである。   FIG. 5 is a flowchart showing a flow of processing related to grouping of sensors 1 and normal behavior learning in the characteristic behavior detection device 3.

特徴行動検知装置3は、まず、特徴行動検知システム100内のすべてのセンサ1を対象としたグループ化である新規グループ化を実行する(ステップA1)。この新規グループ化は、グループ管理部35の制御の下、グループ管理部35と、データ取得部31、対象物検知部32、特徴量算出部33およびグループ化部34とが協働することによって実行される。図6に、新規グループ化に関する処理の詳細な流れを示す。   The characteristic behavior detection device 3 first executes a new grouping that is a grouping for all the sensors 1 in the characteristic behavior detection system 100 (step A1). This new grouping is executed by the group management unit 35, the data acquisition unit 31, the object detection unit 32, the feature amount calculation unit 33, and the grouping unit 34 under the control of the group management unit 35. Is done. FIG. 6 shows a detailed flow of processing relating to new grouping.

グループ化部34は、すべてのセンサ1のそれぞれについて、ステップB1〜ステップB16の処理を実行する。より詳細には、ステップB1において、処理対象のセンサ1が選定され、ステップB16において、未処理のセンサ1の有無が判定され、未処理のセンサ1が残っていれば、ステップB1に戻り、すべてのセンサ1が処理済であれば、当該ステップB1〜ステップB16のループを抜ける。   The grouping unit 34 executes the processes of Step B1 to Step B16 for each of all the sensors 1. More specifically, in step B1, the sensor 1 to be processed is selected. In step B16, the presence or absence of the unprocessed sensor 1 is determined. If there is any unprocessed sensor 1, the process returns to step B1, If the sensor 1 has been processed, the process exits the loop from Step B1 to Step B16.

ステップB1にて処理対象のセンサ1が選定されると、グループ化部34は、たとえば1日分や1週間分などの一定期間について、ステップB2〜ステップB14の処理を実行する。より詳細には、ステップB2において、たとえば数秒や数分などの単位で時系列に処理対象の時間帯が選定され、ステップB14において、一定期間の処理を完了したか否かが判定され、未処理の時間帯が残っていれば、ステップB2に戻り、一定期間のすべての時間帯が処理済であれば、当該ステップB2〜ステップB14のループを抜ける。   When the sensor 1 to be processed is selected in step B1, the grouping unit 34 executes the processing of step B2 to step B14 for a certain period such as one day or one week. More specifically, in step B2, a time zone to be processed is selected in time series in units of, for example, a few seconds or minutes, and in step B14, it is determined whether or not the processing for a certain period has been completed. If there is a remaining time zone, the process returns to step B2, and if all the time zones for a certain period have been processed, the process exits the loop from step B2 to step B14.

ステップB2にて処理対象の時間帯が選定されると、グループ化部34は、ステップB1にて選定されたセンサ1によってステップB2にて選定された時間帯に取得されたデータの取得をグループ管理部35経由でデータ取得部31に要請する(ステップB3)。データ取得部31によって取得されるデータに対しては、それぞれ、ステップB4〜ステップB13の処理が実行される。より詳細には、ステップB4において、処理対象のデータが選定され、ステップB13において、未処理のデータの有無が判定され、未処理のデータが残っていれば、ステップB4に戻り、すべてのデータが処理済であれば、当該ステップB4〜ステップB13のループを抜ける。   When the time zone to be processed is selected in step B2, the grouping unit 34 manages the acquisition of data acquired in the time zone selected in step B2 by the sensor 1 selected in step B1. The data acquisition unit 31 is requested via the unit 35 (step B3). For the data acquired by the data acquisition unit 31, the processes of Step B4 to Step B13 are executed. More specifically, in step B4, data to be processed is selected. In step B13, the presence or absence of unprocessed data is determined. If unprocessed data remains, the process returns to step B4, and all data is stored. If the processing has been completed, the process exits the loop from Step B4 to Step B13.

対象物検知部32は、ステップB4にて処理対象に選定されたデータから対象物を検出する(ステップB5)。対象物検知部32によって検出される対象物(検出物)に対しては、それぞれ、ステップB6〜ステップB12の処理が実行される。より詳細には、ステップB6において、処理対象の検出物が選定され、ステップB12において、未処理の検出物の有無が判定され、未処理の検出物が残っていれば、ステップB6に戻り、すべての検出物が処理済であれば、当該ステップB6〜ステップB12のループを抜ける。   The object detection unit 32 detects the object from the data selected as the processing object in step B4 (step B5). For the object (detected object) detected by the object detection unit 32, the processes of Step B6 to Step B12 are executed. More specifically, in step B6, a detection object to be processed is selected, and in step B12, the presence or absence of an unprocessed detection object is determined. If an unprocessed detection object remains, the process returns to step B6, and all If the detected object has been processed, the process exits the loop from Step B6 to Step B12.

特徴量算出部33の動きベクトル算出部332は、ステップB6にて処理対象に選定された検出物の動きベクトルを、ステップB4にて処理対象に選定されたデータ(およびたとえば1つ前のデータ)を用いて算出する(ステップB7)。特徴量算出部33の正規化部333は、動きベクトル算出部332によって算出された動きベクトルに対し、たとえばセンサ1間における設置条件の違いなどの影響を排除するための正規化を実行する(ステップB8)。正規化部333の処理については後述する。   The motion vector calculation unit 332 of the feature amount calculation unit 33 uses the motion vector of the detected object selected as the processing target in step B6 and the data selected as the processing target in step B4 (and, for example, the previous data). (Step B7). The normalization unit 333 of the feature amount calculation unit 33 performs normalization on the motion vector calculated by the motion vector calculation unit 332 to eliminate the influence of, for example, a difference in installation conditions between the sensors 1 (step) B8). The processing of the normalization unit 333 will be described later.

グループ化部34の行動パターン決定部341は、動きベクトル算出部332によって算出され、正規化部333によって正規化された動きベクトルから、検出物の方向を算出し(ステップB9)、また、検出物の速さを算出する(ステップB10)。行動パターン決定部341は、算出した検出物の方向および速さを基に、検出物の行動パターンを決定し、その行動パターンの検出数をカウントアップする(ステップB11)。   The behavior pattern determining unit 341 of the grouping unit 34 calculates the direction of the detected object from the motion vector calculated by the motion vector calculating unit 332 and normalized by the normalizing unit 333 (step B9). Is calculated (step B10). The behavior pattern determination unit 341 determines the behavior pattern of the detected object based on the calculated direction and speed of the detected object, and counts up the number of detected behavior patterns (step B11).

ステップB1にて処理対象に選定されたセンサ1について、ステップB11の行動パターンの検出数のカウントアップを終了すると、グループ化部34の新規グループ化部342は、一定期間内における、行動パターンごとの検出数の時間変化率を算出する(ステップB15)。また、すべてのセンサ1について、ステップB15の行動パターンごとの検出数の時間変化率の算出を終了すると、新規グループ化部342は、各センサ1における、行動パターンの検出数の時間変化率と、全行動パターン合計の検出数の推移を基準にグループ化を実行する(ステップB17)。グループ管理部35は、新規グループ化部342によるグループ化の結果と、グループ化基準情報とをグループ情報としてグループ情報DB39に保存する(ステップB18)。   When the sensor 1 selected as the processing target in step B1 finishes counting up the number of detected behavior patterns in step B11, the new grouping unit 342 of the grouping unit 34 performs a behavioral pattern for each behavior pattern within a certain period. The time change rate of the detected number is calculated (step B15). When the calculation of the time change rate of the number of detections for each behavior pattern in step B15 is completed for all sensors 1, the new grouping unit 342 determines the time change rate of the number of detections of the behavior pattern in each sensor 1, and Grouping is executed based on the transition of the total number of detected behavior patterns (step B17). The group management unit 35 stores the grouping result by the new grouping unit 342 and the grouping reference information as group information in the group information DB 39 (step B18).

図7に、グループ情報DB39に保存されるグループ情報の一例を示す。   FIG. 7 shows an example of group information stored in the group information DB 39.

図7に示すように、グループ情報は、たとえば、グループIDフィールドと、センサIDフィールドと、学習モデルIDフィールドと、グループ化基準情報フィールドとを含むテーブル形式のデータ構造体である。   As shown in FIG. 7, the group information is a data structure in a table format including, for example, a group ID field, a sensor ID field, a learning model ID field, and a grouping criterion information field.

グループIDフィールドには、各グループの識別子が保持される。センサIDフィールドには、各グループに属するセンサ1の識別子が保持される。学習モデルIDフィールドには、各グループが使用すべき学習モデル(学習モデルDB38に保持されている学習モデル)の識別子が保持される。グループ化基準情報については後述するが、グループ化基準情報は、各グループのテリトリを示す情報である。   The group ID field holds an identifier of each group. The sensor ID field holds an identifier of the sensor 1 belonging to each group. In the learning model ID field, an identifier of a learning model to be used by each group (a learning model held in the learning model DB 38) is held. Although the grouping criterion information will be described later, the grouping criterion information is information indicating the territory of each group.

図5に戻って説明を続ける。ステップA1の新規グループ化が終了すると、特徴行動検知装置3は、たとえば1ヶ月や3ヶ月などの任意のグループ化サイクルごとに、ステップA2〜ステップA29の処理を実行する。このグループ化サイクルは、たとえば季節変化などの経時変化に対応するために定められるものである。つまり、特徴行動検知装置3は、たとえば夏と冬とで人の流れ方や集まり方が異なるといった通常の行動の変化に適応的に対応することができる。   Returning to FIG. When the new grouping of step A1 is completed, the characteristic behavior detection device 3 executes the processes of step A2 to step A29 for every arbitrary grouping cycle such as one month or three months. This grouping cycle is determined in order to cope with a change with time such as a seasonal change. That is, the characteristic behavior detection device 3 can adaptively respond to changes in normal behavior such as how people flow and gather in summer and winter, for example.

さらに、特徴行動検知装置3は、たとえば1日や1週間などの任意の学習サイクルごとに、ステップA3〜ステップA26の処理を実行する。この学習サイクルは、たとえば新たに設置されたセンサ1などに対応するために定められるものである。   Furthermore, the characteristic behavior detection device 3 executes the processing of step A3 to step A26 for every arbitrary learning cycle such as one day or one week. This learning cycle is determined to correspond to, for example, a newly installed sensor 1.

より詳細には、グループ管理部35は、まず、センサデータ管理装置2で管理されているセンサ情報DB23の更新有無を調べる(ステップA4)。図8に、センサ情報DB23に保存されるセンサ情報の一例を示す。   More specifically, the group management unit 35 first checks whether the sensor information DB 23 managed by the sensor data management device 2 is updated (step A4). FIG. 8 shows an example of sensor information stored in the sensor information DB 23.

図8に示すように、センサ情報は、たとえば、更新日時フィールドと、センサIDフィールドとを含むテーブル形式のデータ構造体である。   As shown in FIG. 8, the sensor information is a data structure in a table format including, for example, an update date / time field and a sensor ID field.

更新日時フィールドには、システム管理者によってセンサ情報DB23(センサ情報)が更新された日時が保持される。センサIDフィールドには、たとえば更新日時の時点において存在するセンサ1の識別子が保持される。センサ情報は、1回目の更新以降、少なくとも2世代保持される。このセンサ情報によって、追加されたセンサ1や削除されたセンサ1を認識することができる。なお、ここでは、たとえば設置条件が変更されたセンサ1については、元の識別子が削除されて新たな識別子が追加されるものとする。   The date and time when the sensor information DB 23 (sensor information) was updated by the system administrator is held in the update date and time field. In the sensor ID field, for example, an identifier of the sensor 1 existing at the time of the update date and time is held. The sensor information is retained for at least two generations after the first update. Based on this sensor information, the added sensor 1 and the deleted sensor 1 can be recognized. Here, for example, for the sensor 1 whose installation conditions are changed, the original identifier is deleted and a new identifier is added.

グループ管理部35は、たとえば、その時点から1学習サイクル前以降の更新日時がセンサ情報DB23に保持されていた場合、センサ情報DB23が更新されていると判断することができる。センサ情報が1世代のみ存在する場合、そのセンサ情報は、特徴行動検知システム100の導入時に初期設定として保持されたものである。その場合、特徴行動検知装置3は、センサ情報DB23は更新されていると判断する。   For example, the group management unit 35 can determine that the sensor information DB 23 has been updated when the sensor information DB 23 holds the update date and time after one learning cycle before that point. When only one generation of sensor information exists, the sensor information is retained as an initial setting when the characteristic behavior detection system 100 is introduced. In that case, the characteristic behavior detection device 3 determines that the sensor information DB 23 has been updated.

センサ情報DB23が更新されていた場合(ステップA4)、次に、グループ管理部35は、更新前と更新後との間のセンサ1の増減がしきい値以上か否かを調べる(ステップA5)。前述したように、センサ1の増減は、センサ1の総数の差分数ではなく、センサ1の変動数であることが好ましい。センサ1の増減がしきい値以上の場合(ステップA5のYES)、グループ管理部35は、既存の全てのグループ情報と全ての学習モデル、つまり、グループ情報DB39に格納される全てのグループ情報と、学習モデルDB38に格納される全ての学習モデルとを削除し(ステップA6)、図6を参照して説明した新規グループ化を、新規グループ化部342などに改めて実行させる(ステップA7)。   If the sensor information DB 23 has been updated (step A4), then the group management unit 35 checks whether the increase / decrease in the sensor 1 between before and after the update is greater than or equal to the threshold (step A5). . As described above, the increase / decrease of the sensor 1 is preferably not the difference number of the total number of sensors 1 but the number of fluctuations of the sensor 1. When the increase / decrease in the sensor 1 is equal to or greater than the threshold (YES in step A5), the group management unit 35 includes all the existing group information and all the learning models, that is, all the group information stored in the group information DB 39. All the learning models stored in the learning model DB 38 are deleted (step A6), and the new grouping described with reference to FIG. 6 is executed again by the new grouping unit 342 or the like (step A7).

一方、センサ1の増減がしきい値未満の場合(ステップA5のNO)、グループ管理部35は、センサ1の数が増加しているか否かを調べる(ステップA8)。ここで、センサ1の数が増加しているか否かを調べることは、追加されたセンサ1が存在するか否かを調べることであることが好ましい。追加されたセンサ1が存在する場合(ステップA8のYES)、グループ管理部35は、当該追加されたセンサ1に対する処理を追加センサ処理部343などに実行させる(ステップA9)。ここで、図9を参照して、追加されたセンサ1に対する処理の概要について説明する。   On the other hand, when the increase / decrease of the sensor 1 is less than the threshold value (NO in step A5), the group management unit 35 checks whether the number of sensors 1 is increasing (step A8). Here, it is preferable to check whether or not the number of sensors 1 is increasing is to check whether or not the added sensor 1 exists. When the added sensor 1 exists (YES in step A8), the group management unit 35 causes the additional sensor processing unit 343 to execute a process for the added sensor 1 (step A9). Here, with reference to FIG. 9, the outline | summary of the process with respect to the added sensor 1 is demonstrated.

グループ化部34の新規グループ化部342は、新規グループ化の実行時、各グループに属する各センサ1のサンプル点を算出する。また、新規グループ化部342は、これらから、各グループの中心点を算出するとともに、各グループ内で最も中心点から離れたサンプル点までの距離を算出する。これらは、グループ化基準情報として、グループ情報DB39に保持される(図7参照)。このサンプル点は、たとえば、各センサ1により検知される対象物の通常の行動の傾向を数値化して得た値を2次元や3次元などの空間に投影した場合の位置である。なお、サンプル点を算出する手法、中心点を算出する手法および中心点からサンプル点までの距離を算出する手法は、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。   The new grouping unit 342 of the grouping unit 34 calculates a sample point of each sensor 1 belonging to each group when executing the new grouping. Also, the new grouping unit 342 calculates the center point of each group from these, and calculates the distance to the sample point farthest from the center point in each group. These are held in the group information DB 39 as grouping reference information (see FIG. 7). This sample point is, for example, a position when a value obtained by quantifying a normal behavior tendency of an object detected by each sensor 1 is projected in a two-dimensional or three-dimensional space. Various known methods can be adopted as the method for calculating the sample point, the method for calculating the center point, and the method for calculating the distance from the center point to the sample point (here, the method does not matter). .

グループ化部34の追加センサ処理部343も、追加されたセンサ1について、そのサンプル点を算出する。図9中、符号a1は、グループ化基準情報として保持されるグループ中心点、符号a2は、グループ中心点からの距離が最も大きいサンプル点、をそれぞれ示すものと想定する。また、符号a3−1,a3−2は、それぞれ、追加センサ処理部343によって算出されたサンプル点を示すものと想定する。図9に示すグループ中心点a1は、既存のグループのグループ中心点のうち、追加されたセンサ1のサンプル点a3−1,a3−2から最も近いグループ中心点である。   The additional sensor processing unit 343 of the grouping unit 34 also calculates sample points for the added sensor 1. In FIG. 9, it is assumed that the symbol a1 indicates a group center point held as grouping reference information, and the symbol a2 indicates a sample point having the longest distance from the group center point. Also, it is assumed that the symbols a3-1 and a3-2 indicate sample points calculated by the additional sensor processing unit 343, respectively. The group center point a1 illustrated in FIG. 9 is the group center point closest to the sample points a3-1 and a3-2 of the added sensor 1 among the group center points of the existing group.

追加センサ処理部343は、グループ中心点a1から、グループ中心点からの距離が最も大きいサンプル点a2までの距離である距離Aと、グループ中心点a1から、追加されたセンサ1のサンプル点a3−1,a3−2までの距離である距離Bとを比較し、距離Bが距離A以下である場合(a3−1の位置の場合)、追加されたセンサ1をそのグループに編入する。一方、距離Bが距離Aを超える場合(a3−2の位置の場合)、追加センサ処理部343は、追加されたセンサ1のみのグループを生成する。つまり、グループ中心点a1からサンプル点a2までを半径する円形の領域は、グループのテリトリを示す。換言すれば、グループ化基準情報は、グループのテリトリを示す。   The additional sensor processing unit 343 includes the distance A, which is the distance from the group center point a1 to the sample point a2 having the largest distance from the group center point, and the sample point a3- of the added sensor 1 from the group center point a1. 1 and a3-2 is compared with the distance B. If the distance B is equal to or less than the distance A (in the case of the position a3-1), the added sensor 1 is incorporated into the group. On the other hand, when the distance B exceeds the distance A (when the position is a3-2), the additional sensor processing unit 343 generates a group of only the added sensor 1. That is, a circular area having a radius from the group center point a1 to the sample point a2 indicates a group territory. In other words, the grouping criterion information indicates the territory of the group.

このように、特徴行動検知装置3は、センサ1が新設された場合、一定の条件下で、そのセンサ1を既存のグループに編入させることができるので、このセンサ1のための追加の学習を不要にでき、既存の学習モデルを用いた当該センサ1による特徴行動の検知を即時的かつ高精度で行うことが可能である。   Thus, when the sensor 1 is newly installed, the characteristic behavior detection device 3 can incorporate the sensor 1 into an existing group under certain conditions. Therefore, additional learning for the sensor 1 can be performed. It can be made unnecessary, and it is possible to detect the characteristic behavior by the sensor 1 using an existing learning model immediately and with high accuracy.

図10は、追加されたセンサに対する処理(図5のステップA9)の詳細な流れを示すフローチャートである。この処理は、グループ管理部35の制御の下、グループ管理部35と、データ取得部31、対象物検知部32、特徴量算出部33およびグループ化部34とが協働することによって実行される。   FIG. 10 is a flowchart showing a detailed flow of processing (step A9 in FIG. 5) for the added sensor. This process is executed under the control of the group management unit 35 by cooperation of the group management unit 35, the data acquisition unit 31, the object detection unit 32, the feature amount calculation unit 33, and the grouping unit 34. .

グループ化部34は、グループ情報DB39に保持されているグループ化基準情報をグループ管理部35経由で取得する(ステップC1)。グループ化部34は、追加されたセンサ1のそれぞれについて、ステップC2〜ステップC21の処理を実行する。ステップC2〜ステップC21のうちのステップC3〜ステップC16は、図6を参照して説明した新規グループ化のステップB2〜ステップB15と同様であるので、重複した説明は省略する。   The grouping unit 34 acquires grouping reference information held in the group information DB 39 via the group management unit 35 (step C1). The grouping unit 34 performs the processing of Step C2 to Step C21 for each of the added sensors 1. Of steps C2 to C21, steps C3 to C16 are the same as steps B2 to B15 of the new grouping described with reference to FIG.

グループ化部34の追加センサ処理部343は、追加されたセンサ1を表すサンプル点が、既存のどのグループの中心点に最も近いかを計算する(ステップC17)。追加センサ処理部343は、そのグループ中で中心点からの距離が最も大きい既存のサンプル点より、追加されたセンサ1を表すサンプル点の方が中心点からの距離が近いかどうかを調べる(ステップC18)。近い場合(ステップC18のYES)、追加センサ処理部343は、その追加されたセンサ1を当該グループに編入する(ステップC19)。一方、遠い場合には(ステップC19のNO)、追加センサ処理部343は、その追加されたセンサ1のみのグループを作成する(ステップC20)。   The additional sensor processing unit 343 of the grouping unit 34 calculates which existing group center point is closest to the sample point representing the added sensor 1 (step C17). The additional sensor processing unit 343 checks whether or not the sample point representing the added sensor 1 is closer to the center point than the existing sample point having the largest distance from the center point in the group (step) C18). If close (YES in step C18), the additional sensor processing unit 343 incorporates the added sensor 1 into the group (step C19). On the other hand, if it is far away (NO in step C19), the additional sensor processing unit 343 creates a group of only the added sensor 1 (step C20).

グループ化部34は、追加されたセンサ1すべてについて、既存のグループへの編入または当該追加されたセンサ1のみのグループの作成を終了すると、新たなグループ化基準情報を保存すべくグループ管理部35経由でグループ情報DB39を更新する(ステップC22)。   When the grouping unit 34 finishes incorporation of all the added sensors 1 into the existing group or creation of the group of only the added sensor 1, the group management unit 35 saves the new grouping reference information. The group information DB 39 is updated via (step C22).

図5に戻って説明を続ける。ステップA8におけるセンサ1の数が増加しているか否かを調べることは、さらに、削除されたセンサ1が存在するか否かを調べることを含むものであることが好ましい。削除されたセンサ1が存在する場合(ステップA8のNO)、グループ管理部35は、グループ情報DB39に保持される当該センサ1の情報を削除する(ステップA10)。ステップA9とステップA10とは、必ずしも排他選択的に実行されるものではなく、両方ともが実行され得る。   Returning to FIG. It is preferable that checking whether or not the number of sensors 1 in step A8 has increased further includes checking whether or not there is a deleted sensor 1. When the deleted sensor 1 exists (NO in step A8), the group management unit 35 deletes the information of the sensor 1 held in the group information DB 39 (step A10). Steps A9 and A10 are not necessarily executed exclusively and selectively, and both can be executed.

次に、グループ管理部35は、学習が実施されていないグループについて、ステップA11からステップA20の処理を実行する。学習が実施されていないグループとは、たとえば、新規グループ化部342によってグループ化が実行された場合におけるすべてのグループまたはセンサ1が追加された場合において追加センサ処理部343によって作成された当該センサ1のみのグループである。また、後述する、1つのグループが複数のグループに分割された場合における当該複数のグループも該当する。   Next, the group management part 35 performs the process of step A11 to step A20 about the group in which learning is not implemented. The group in which learning is not performed is, for example, the sensor 1 created by the additional sensor processing unit 343 when all the groups or sensors 1 when the grouping is performed by the new grouping unit 342 are added. Is only a group. Further, the plurality of groups in the case where one group is divided into a plurality of groups, which will be described later, also corresponds.

グループ管理部35は、各グループについて、そのグループに割り当てられている学習モデルが存在するか否かを調べる(ステップA12)。学習が実施されていないグループであって、割り当てられている学習モデルが存在しないグループとは、たとえば、1つのグループが複数のグループに分割された場合における増加分のグループである。   For each group, the group management unit 35 checks whether there is a learning model assigned to the group (step A12). The group in which learning is not performed and the assigned learning model does not exist is, for example, an increased group when one group is divided into a plurality of groups.

学習モデルが存在する場合(ステップA12のYES)、グループ管理部35は、その学習モデルを学習モデルDB38から読み出す(ステップA13)。グループ管理部35は、読み出した学習モデルを機械学習部36に供給する。一方、学習モデルが存在しない場合(ステップA12のNO)、グループ管理部35は、新規の学習モデルを作成し(ステップA14)、機械学習部36に供給する。   When the learning model exists (YES in step A12), the group management unit 35 reads the learning model from the learning model DB 38 (step A13). The group management unit 35 supplies the read learning model to the machine learning unit 36. On the other hand, when there is no learning model (NO in step A12), the group management unit 35 creates a new learning model (step A14) and supplies it to the machine learning unit 36.

対象物検知部32は、処理対象のグループに属するセンサ1によって取得されたデータから対象物を検出し(ステップA15)、特徴量算出部33の学習・検知用特徴量算出部331は、検出された対象物の特徴量を算出する(ステップA16)。特徴量算出部33の正規化部333は、その特徴量を距離情報によって正規化する(ステップA17)。図6のステップB8(図10のステップC9も同様)における動きベクトルの正規化を含めて、当該正規化部333による正規化については後述する。   The object detection unit 32 detects the object from the data acquired by the sensors 1 belonging to the group to be processed (step A15), and the learning / detection feature quantity calculation unit 331 of the feature quantity calculation unit 33 is detected. The feature amount of the target object is calculated (step A16). The normalization unit 333 of the feature amount calculation unit 33 normalizes the feature amount based on the distance information (step A17). The normalization by the normalization unit 333 will be described later, including the normalization of the motion vector in step B8 in FIG. 6 (also in step C9 in FIG. 10).

特徴量算出部33によって算出される特徴量を受け取る機械学習部36は、そのグループに割り当てられた学習モデルで機械学習を実施する(ステップA18)。前述したように、ここでは、特徴行動を検知するための通常の行動が学習される。また、機械学習に必要な種々の学習パラメータは、十分に調整されているものとする。機械学習部36による機械学習によって、その学習モデルは当該グループ用に適合したものとなる。当該グループ用に適合したものとなった学習モデルは、グループ管理部35経由で学習モデルDB38に保存される(ステップA19)。   The machine learning unit 36 that receives the feature amount calculated by the feature amount calculation unit 33 performs machine learning using the learning model assigned to the group (step A18). As described above, here, a normal action for detecting a characteristic action is learned. It is assumed that various learning parameters necessary for machine learning are sufficiently adjusted. Machine learning by the machine learning unit 36 makes the learning model suitable for the group. The learning model adapted for the group is stored in the learning model DB 38 via the group management unit 35 (step A19).

学習が実施されていないグループのそれぞれについて、機械学習を終了すると、グループ管理部35は、学習終了時の評価値が基準値を満たしていないグループが存在するか否かを調べる(ステップA21)。評価値は、学習方法によって異なり、たとえば、教師あり学習の場合は学習誤差が適用される。なお、機械学習を評価する方法は、既知の様々な手法を採用し得る(ここでは、その手法については問わない)。   When the machine learning is finished for each of the groups for which learning is not performed, the group management unit 35 checks whether there is a group whose evaluation value at the end of learning does not satisfy the reference value (step A21). The evaluation value varies depending on the learning method. For example, in the case of supervised learning, a learning error is applied. It should be noted that various known methods can be adopted as a method for evaluating machine learning (here, the method does not matter).

基準値を満たしていないグループが存在する場合(ステップA21のYES)、グループ管理部35は、その中に、2以上のセンサ1が含まれるグループが存在するか否かを調べる(ステップA22)。存在する場合(ステップA22のYES)、グループ管理部35は、そのグループに含まれる各センサ1のみのグループを作成すべく、当該グループを分割する(ステップA23〜ステップA25)。そして、グループ管理部35は、分割した各グループについて、ステップA11からの処理を繰り返す。このグループを分割することによるグループの最適化で、グループ管理部35は、機械学習部36による機械学習が上手くいかなかった場合の対応をグループ単位に取るようにしている。   When there is a group that does not satisfy the reference value (YES in step A21), the group management unit 35 checks whether or not there is a group including two or more sensors 1 (step A22). If it exists (YES in step A22), the group management unit 35 divides the group (step A23 to step A25) in order to create a group of only the sensors 1 included in the group. And the group management part 35 repeats the process from step A11 about each divided | segmented group. By optimizing the group by dividing the group, the group management unit 35 is configured to take a countermeasure when the machine learning by the machine learning unit 36 is not successful in units of groups.

基準値を満たしていないグループが存在しない場合(ステップA21のNO)や、基準値を満たしていないグループは存在するが2以上のセンサ1が含まれるグループは存在しない場合(ステップA22のNO)、グループ管理部35は、ステップA3〜ステップA26のループを抜ける。グループ管理部35は、前述した季節変化などの経時変化に対応するため、任意のグループ化サイクルごとに、既存の全てのグループ情報と全ての学習モデルとを削除し(ステップA27)、新規グループ化を、新規グループ化部342などに改めて実行させる(ステップA28)。   When there is no group that does not satisfy the reference value (NO in Step A21), or when there is a group that does not satisfy the reference value but there is no group that includes two or more sensors 1 (NO in Step A22), The group management unit 35 exits the loop of step A3 to step A26. The group management unit 35 deletes all the existing group information and all the learning models for each arbitrary grouping cycle in order to cope with the change over time such as the seasonal change described above (step A27), and creates a new grouping. Is newly executed by the new grouping unit 342 or the like (step A28).

図11に、特徴行動検知装置3によって行動パターンによるセンサ1のグループ化が実行された特徴行動検知システム100の状態の一例を示す。   FIG. 11 shows an example of the state of the characteristic behavior detection system 100 in which the grouping of the sensors 1 based on the behavior pattern is executed by the characteristic behavior detection device 3.

図11に示すように、特徴行動検知システム100は、複数のセンサ1がグループ化され、各グループに学習モデルが割り当てられる。各グループにはどのセンサ1が属しているのか、各グループにはどの学習モデルが割り当てられているのか、などはグループ情報DB39によって管理される。   As shown in FIG. 11, in the characteristic behavior detection system 100, a plurality of sensors 1 are grouped, and a learning model is assigned to each group. Which sensor 1 belongs to each group, which learning model is assigned to each group, and the like are managed by the group information DB 39.

次に、図5のステップA17における特徴量の正規化と、図6のステップB8(図10のステップC9も同様)における動きベクトルの正規化とについて説明する。   Next, the normalization of the feature amount in step A17 in FIG. 5 and the normalization of the motion vector in step B8 in FIG. 6 (the same applies to step C9 in FIG. 10) will be described.

たとえば、設置高や俯角など、センサ1の設置条件によって、たとえば対象物の見かけ上の大きさや速さなどの観測値は変化してしまう。そこで、正規化部333は、センサ1の距離情報を用いて、センサ1間における設置条件の違いなどの影響を排除すべく、学習・検知用特徴量算出部331によって算出された特徴量や動きベクトル算出部332によって算出された動きベクトルを正規化する。ここで、距離情報は、たとえば、センサ1の検知領域の各サンプル点(たとえば、センサ1が監視カメラである場合における画素)におけるセンサ1から検知対象位置までの距離を表す情報である。距離情報は、センサデータ管理装置2のセンサ情報DB23に保持され、データ取得部31経由で取得するものとする。換言すれば、センサ情報DB23には、センサ情報として、距離情報を含むセンサ1の設置条件に関する情報が保持されているものとする。なお、距離情報は、必ずしもセンサ情報DB23に含まれなくてもよく、別のDBに保存されてもよい。   For example, depending on the installation conditions of the sensor 1 such as the installation height and the depression angle, the observed values such as the apparent size and speed of the object change. Therefore, the normalization unit 333 uses the distance information of the sensors 1 to eliminate the influence of differences in installation conditions between the sensors 1 and the feature amounts and movements calculated by the learning / detection feature amount calculation unit 331. The motion vector calculated by the vector calculation unit 332 is normalized. Here, the distance information is, for example, information representing the distance from the sensor 1 to the detection target position at each sample point (for example, a pixel when the sensor 1 is a monitoring camera) in the detection area of the sensor 1. The distance information is held in the sensor information DB 23 of the sensor data management device 2 and is acquired via the data acquisition unit 31. In other words, it is assumed that the sensor information DB 23 holds information regarding installation conditions of the sensor 1 including distance information as sensor information. The distance information is not necessarily included in the sensor information DB 23 and may be stored in another DB.

図12は、正規化部333による正規化を含む学習データの収集に関する処理の流れを示すフローチャートである。   FIG. 12 is a flowchart showing a flow of processing relating to collection of learning data including normalization by the normalization unit 333.

特徴行動検知装置3は、学習データの収集対象であるグループごとに、ステップD1〜ステップD16の処理を実行する。また、特徴行動検知装置3は、グループ内のセンサ1ごとに、ステップD2〜ステップD15の処理を実行する。さらに、特徴行動検知装置3は、一定期間について、ステップD3〜ステップD14の処理を実行する。   The characteristic behavior detection device 3 executes the processes of Step D1 to Step D16 for each group that is a collection target of learning data. Moreover, the characteristic action detection apparatus 3 performs the process of step D2-step D15 for every sensor 1 in a group. Furthermore, the characteristic behavior detection device 3 executes the processes of Step D3 to Step D14 for a certain period.

より詳細には、データ取得部31は、処理対象のグループ内の処理対象のセンサ1について、そのセンサ1によって取得されたデータを時系列に取得する(ステップD4)。また、データ取得部31は、そのセンサ1の距離情報を取得する(ステップD5)。   More specifically, the data acquisition unit 31 acquires, in time series, data acquired by the sensor 1 for the processing target sensor 1 in the processing target group (step D4). Moreover, the data acquisition part 31 acquires the distance information of the sensor 1 (step D5).

対象物検知部32は、取得されたデータのそれぞれから対象物を検出する(ステップD7)。また、特徴量算出部33の学習・検知用特徴量算出部331は、検出された対象物のそれぞれについて、任意の特徴量を算出する(ステップD9)。   The object detection unit 32 detects the object from each of the acquired data (step D7). In addition, the learning / detection feature quantity calculation unit 331 of the feature quantity calculation unit 33 calculates an arbitrary feature quantity for each detected object (step D9).

正規化部333は、検出物の座標に対する距離情報を、対象のセンサ1の距離情報から抽出し(ステップD10)、特徴量と距離情報とを組み合わせて当該特徴量を正規化する(ステップD11)。この正規化は、たとえば以下の(1)式によって実行することができる。   The normalization unit 333 extracts distance information for the coordinates of the detected object from the distance information of the target sensor 1 (step D10), and normalizes the feature quantity by combining the feature quantity and the distance information (step D11). . This normalization can be executed by, for example, the following equation (1).

Figure 2019053608
Figure 2019053608

ここで、fiは、座標iにおける正規化値、xiは、座標iにおける特徴量値、Smaxは、距離情報の最大値、Siは、座標iの距離情報値である。 Here, f i is a normalized value at coordinate i, x i is a feature value at coordinate i, S max is a maximum value of distance information, and S i is a distance information value at coordinate i.

また、図13は、正規化部333による正規化を含む特徴行動の検知に関する処理の流れを示すフローチャートである。   FIG. 13 is a flowchart showing a flow of processing related to detection of characteristic behavior including normalization by the normalization unit 333.

特徴行動検知装置3は、たとえば1分や5分など、任意の検知サイクルごとに、ステップE1〜ステップE9の処理を実行する。より詳細には、対象物検知部32は、処理対象のグループに属するセンサ1によって取得されたデータから対象物を検出し(ステップE2)、特徴量算出部33の学習・検知用特徴量算出部331は、検出された対象物の特徴量を算出する(ステップE3)。また、特徴量算出部33の正規化部333は、その特徴量を距離情報によって正規化する(ステップE4)。   The characteristic behavior detection device 3 executes the processes of Step E1 to Step E9 for each arbitrary detection cycle such as 1 minute or 5 minutes. More specifically, the object detection unit 32 detects the object from data acquired by the sensors 1 belonging to the group to be processed (step E2), and the learning / detection feature quantity calculation unit of the feature quantity calculation unit 33 331 calculates the feature amount of the detected object (step E3). In addition, the normalization unit 333 of the feature amount calculation unit 33 normalizes the feature amount based on the distance information (step E4).

特徴量算出部33によって算出される特徴量を受け取る特徴行動検知・識別部37は、そのグループに割り当てられた学習モデルで特徴行動を検知する(ステップE5)。特徴行動が検知された場合(ステップE6のYES)、特徴行動検知・識別部37は、その特徴行動の行動内容を識別し(ステップE7)、検知・識別結果を発報装置4や情報配信装置5に送信する(ステップE8)。   The feature behavior detection / identification unit 37 that receives the feature amount calculated by the feature amount calculation unit 33 detects the feature behavior using the learning model assigned to the group (step E5). When the characteristic behavior is detected (YES in Step E6), the characteristic behavior detection / identification unit 37 identifies the behavior content of the characteristic behavior (Step E7), and the detection / identification result is notified to the reporting device 4 or the information distribution device. 5 (step E8).

なお、グループ化のために動きベクトル算出部332が算出する動きベクトルに対する正規化部333による正規化についても、学習・検知用特徴量算出部331が算出する特徴量に対する正規化部333による正規化と同様、センサ1の距離情報に基づいて実行されるものであるので、ここでは、その説明については省略する。   The normalization by the normalization unit 333 for the motion vector calculated by the motion vector calculation unit 332 for grouping is also normalized by the normalization unit 333 for the feature amount calculated by the learning / detection feature amount calculation unit 331. Since the process is executed based on the distance information of the sensor 1, the description thereof is omitted here.

このように、特徴行動検知装置3は、センサ1間における設置条件の違いなどの影響を排除することで、機械学習部36による通常の行動の学習精度を保ち、また、特徴行動検知・識別部37による特徴行動の検知精度を保つことができる。   In this manner, the characteristic behavior detection device 3 maintains the normal behavior learning accuracy by the machine learning unit 36 by eliminating the influence of differences in installation conditions between the sensors 1, and the characteristic behavior detection / identification unit The detection accuracy of the characteristic behavior by 37 can be maintained.

図14は、特徴行動検知装置3によって行動パターンによるセンサ1のグループ化が実行されることで特徴行動検知システム100に及ぼす効果の一例を改めて説明するための図である。   FIG. 14 is a diagram for explaining again an example of the effect on the characteristic behavior detection system 100 when the grouping of the sensors 1 based on the behavior pattern is executed by the characteristic behavior detection device 3.

たとえば、図14(A)に示すように、センサ1が1台のみ設置されている場合を想定する。この場合、複数のセンサ1のセンサ値が混在することによる特徴行動の検知精度の低下を考慮する必要がないが、特徴行動を検知するための通常の行動を学習するための学習データ(センサ値)の収集期間を長く取る必要があり、特徴行動を検知するシステムの導入から運用開始までのある程度の期間を置かざるを得ない。   For example, as shown in FIG. 14A, a case where only one sensor 1 is installed is assumed. In this case, although it is not necessary to consider a decrease in the detection accuracy of the characteristic behavior due to a mixture of sensor values of a plurality of sensors 1, learning data (sensor value for learning a normal behavior for detecting the characteristic behavior) ) Is required for a long period of time, and there is a certain period of time from the introduction of the system for detecting characteristic behavior to the start of operation.

また、学習データの収集期間を短縮するために、図14(B)に示すように、複数のセンサ1からデータを収集すると、機械学習による通常の行動の学習の精度が低下し、よって、特徴行動の検知精度が低下する。これは、特徴行動を検知するシステムとしては致命的である。   Further, if data is collected from a plurality of sensors 1 as shown in FIG. 14B in order to shorten the learning data collection period, the accuracy of learning of normal actions by machine learning is reduced, and therefore, characteristics The accuracy of behavior detection decreases. This is fatal as a system for detecting characteristic behavior.

一方、前述したように、特徴行動検知装置3によって行動パターンによるセンサ1のグループ化が実行される本実施形態の特徴行動検知システム100では、図14(C)に示すように、学習データの収集期間を短縮し、かつ、機械学習による通常の行動の学習の精度を維持し、よって、特徴行動の検知精度を維持する。すなわち、本実施形態の特徴行動検知装置3は、学習データの収集期間を短縮し、かつ、特徴行動の検知精度を保つことができる。   On the other hand, as described above, in the feature behavior detection system 100 according to the present embodiment in which the feature behavior detection device 3 performs grouping of the sensors 1 based on the behavior pattern, as shown in FIG. The period is shortened and the accuracy of normal behavior learning by machine learning is maintained, and thus the detection accuracy of characteristic behavior is maintained. That is, the characteristic behavior detection apparatus 3 of the present embodiment can shorten the learning data collection period and maintain the characteristic behavior detection accuracy.

上記した実施形態における背景と特徴を大きく分類してまとめると、以下のように記載することが可能である。   When the background and features in the above-described embodiment are roughly classified and summarized, they can be described as follows.

着目点1:センサの設置場所によって検知対象の通常の行動が異なるため、検知精度が低下する。たとえば、駅の改札では、「人の流れの方向が一定」、「人が動き続ける」、これに対して、大きな広場では、「人の流れの方向は不定」、「人が動いたり止まったりする」、このような現象が、検知精度の低下を招いている。   Point of interest 1: Since the normal behavior of the detection target varies depending on the installation location of the sensor, the detection accuracy decreases. For example, at a ticket gate at a station, “the direction of the flow of people is constant” and “the people continue to move”, whereas in a large plaza, “the direction of the flow of people is indefinite”, “people move and stop. This phenomenon causes a decrease in detection accuracy.

そこで、解決策としては、検知対象の「行動」を基準として、各センサを複数のグループに自動的にグループ化し、同じグループ内のセンサは同一の学習モデルで機械学習を行うことができるようにした。   Therefore, as a solution, each sensor is automatically grouped into a plurality of groups on the basis of “behavior” to be detected so that sensors in the same group can perform machine learning using the same learning model. did.

この結果、検知対象の「通常行動」が同じセンサは、同じ学習モデルで特徴行動の検知が可能となった。またセンサが追加されても、そのセンサが既存のグループに編入(既存の学習モデルを適用)できるようになり、このような追加のための新たな学習は不要となった。   As a result, sensors with the same “normal behavior” to be detected can detect characteristic behavior with the same learning model. Even if a sensor is added, the sensor can be incorporated into an existing group (an existing learning model is applied), and new learning for such addition becomes unnecessary.

着目点2:センサの設置条件(設置高や俯角など)によって、検知対象の観測値(対象の見かけの大きさなど)が変化してしまうため、検知精度が低下する。   Point of interest 2: Since the observation value (such as the apparent size of the object) of the detection object changes depending on the sensor installation conditions (installation height, depression angle, etc.), the detection accuracy decreases.

そこで、解決策としては、グループ内の各センサで収集された学習データを正規化し、それらの学習データを統一して扱うようにした。即ち、各センサで収集した学習データに対して、「距離情報」、つまりセンサの検知領域の各サンプル点(例:画素)における、センサからの距離を表す情報を用いて正規化処理を施している。   Therefore, as a solution, the learning data collected by each sensor in the group is normalized, and the learning data is handled in a unified manner. In other words, the learning data collected by each sensor is subjected to normalization processing using “distance information”, that is, information representing the distance from the sensor at each sample point (e.g., pixel) in the sensor detection area. Yes.

これにより、異なる環境で収集したデータを、グループ内で統一して扱うことができるようになった。   As a result, data collected in different environments can be handled uniformly within the group.

よって、本実施形態は学習データ収集期間を低減しつつ、検知精度を保つことができるものである。   Therefore, this embodiment can maintain detection accuracy while reducing the learning data collection period.

さらに上記した実施形態は、特徴行動検知方法という概念も含むものである。即ち、この方法は、以下のように表現され得る。
(1)複数のセンサのセンサ値を取得する取得部を有する特徴行動検知システムの特徴行動検知方法であって、前記センサ値から検出される対象体の行動パターンに基づき、前記複数のセンサを新規グループ化することを備える特徴行動検知方法。
(2)前記新規グループ化は、第1期間での各行動パターンの検出数の時間変化率と、前記第1期間での全行動パターンの検出数の合計値の推移とに基づき、前記複数のセンサをグループ化する(1)に記載の特徴行動検知方法。
(3)前記対象体の動きの方向および速度に基づき、前記対象体の行動パターンを決定する(1)または(2)に記載の特徴行動検知方法。
(4)前記取得部によってセンサ値が取得されるセンサが追加された場合、既存のグループそれぞれのテリトリを示すグループ化基準情報に基づき、前記追加されたセンサを前記既存のグループのいずれかに編入し、または、前記追加されたセンサのみから構成される新たなグループを生成する(1)乃至(3)のいずれか一つに記載の特徴行動検知方法。
(5)前記取得部によってセンサ値が取得されるセンサの増減がしきい値を越えた場合、前記複数のセンサのグループ化を前記新規グループ化により行う(1)乃至(4)のいずれか一つに記載の特徴行動検知方法。
(6)グループ管理として、各々のグループに属するセンサのセンサ値を用いて実行される前記対象体の特徴行動を検知するための前記対象体の通常行動の機械学習の結果に対する評価値が基準値に満たないグループが存在する場合、そのグループを当該グループに属するセンサそれぞれのみで構成されるグループに分割することによりグループの最適化を実行する(5)に記載の特徴行動検知方法。
(7)グループ管理として、第2期間ごとに、前記複数のセンサのグループ化を前記新規グループ化により行う(5)または(6)に記載の特徴行動検知方法。
(8)前記複数のセンサそれぞれの検知領域のサンプル点における各センサから各検知対象位置までの距離に基づき、前記対象体について算出されるセンサ値を正規化する(1)乃至(7)のいずれか一つに記載の特徴行動検知方法。
Furthermore, the above-described embodiment includes the concept of a characteristic behavior detection method. That is, this method can be expressed as follows.
(1) A characteristic behavior detection method for a characteristic behavior detection system having an acquisition unit that acquires sensor values of a plurality of sensors, wherein the plurality of sensors are newly created based on a behavior pattern of an object detected from the sensor values. A characteristic behavior detection method comprising grouping.
(2) The new grouping is based on the time change rate of the detected number of each behavior pattern in the first period and the transition of the total value of the detected number of all behavior patterns in the first period. The characteristic behavior detection method according to (1), wherein the sensors are grouped.
(3) The characteristic behavior detection method according to (1) or (2), wherein the behavior pattern of the target object is determined based on the direction and speed of movement of the target object.
(4) When a sensor whose sensor value is acquired by the acquisition unit is added, the added sensor is incorporated into one of the existing groups based on grouping standard information indicating each territory of the existing group. Or, the characteristic behavior detection method according to any one of (1) to (3), wherein a new group including only the added sensor is generated.
(5) When the increase / decrease of the sensor whose sensor value is acquired by the acquisition unit exceeds a threshold value, the plurality of sensors are grouped by the new grouping. The characteristic action detection method as described in one.
(6) As group management, an evaluation value with respect to a result of machine learning of normal behavior of the target object for detecting characteristic behavior of the target object that is executed using sensor values of sensors belonging to each group is a reference value (5) The feature behavior detection method according to (5), wherein when there is a group that does not satisfy the above, the group is divided into groups each composed of only sensors belonging to the group.
(7) The characteristic behavior detection method according to (5) or (6), in which grouping of the plurality of sensors is performed by the new grouping for each second period as group management.
(8) Any one of (1) to (7) that normalizes a sensor value calculated for the object based on a distance from each sensor to each detection target position at a sample point in a detection area of each of the plurality of sensors. The characteristic behavior detection method according to claim 1.

また上記した実施形態は、上記(1)乃至(8)を行うためのプログラムまた当該プログラムを記憶した記憶媒体としても特徴を備えるものである。   Further, the above-described embodiment is characterized by a program for performing the above (1) to (8) or a storage medium storing the program.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…センサ、2…センサデータ管理装置、3…特徴行動検知装置、4…発報装置、5…情報配信装置、21…データ管理部、22…センサデータDB、22A…グループ化用データ、22B…学習用データ、22C…検知用データ、23…センサ情報DB、31…データ取得部、32…対象物検知部、33…特徴量算出部、34…グループ化部、35…グループ管理部、36…機械学習部、37…特徴行動検知・識別部、38…学習モデルDB、39…グループ情報DB、100…特徴行動検知システム、331…学習・検知用特徴量算出部、332…動きベクトル算出部、333…正規化部、341…行動パターン決定部、342…新規グループ化部、343…追加センサ処理部、344…行動パターンDB。   DESCRIPTION OF SYMBOLS 1 ... Sensor, 2 ... Sensor data management apparatus, 3 ... Characteristic action detection apparatus, 4 ... Notification apparatus, 5 ... Information distribution apparatus, 21 ... Data management part, 22 ... Sensor data DB, 22A ... Grouping data, 22B Data for learning, 22C ... Data for detection, 23 ... Sensor information DB, 31 ... Data acquisition unit, 32 ... Object detection unit, 33 ... Feature amount calculation unit, 34 ... Grouping unit, 35 ... Group management unit, 36 ... machine learning unit, 37 ... feature behavior detection / identification unit, 38 ... learning model DB, 39 ... group information DB, 100 ... feature behavior detection system, 331 ... feature quantity calculation unit for learning / detection, 332 ... motion vector calculation unit 333 ... normalization unit, 341 ... behavior pattern determination unit, 342 ... new grouping unit, 343 ... additional sensor processing unit, 344 ... behavior pattern DB.

Claims (8)

複数のセンサのセンサ値を取得する取得部と、
前記センサ値から検出される対象体の行動パターンに基づき、前記複数のセンサをグループ化する新規グループ化部と、
を具備する特徴行動検知装置。
An acquisition unit for acquiring sensor values of a plurality of sensors;
A new grouping unit that groups the plurality of sensors based on the behavior pattern of the target detected from the sensor values;
A characteristic behavior detection device comprising:
前記新規グループ化部は、第1期間での各行動パターンの検出数の時間変化率と、前記第1期間での全行動パターンの検出数の合計値の推移とに基づき、前記複数のセンサをグループ化する請求項1に記載の特徴行動検知装置。   The new grouping unit determines the plurality of sensors based on a temporal change rate of the detected number of each behavior pattern in the first period and a transition of a total value of the detected number of all behavior patterns in the first period. The characteristic behavior detection apparatus according to claim 1, which is grouped. 前記対象体の動きの方向および速度に基づき、前記対象体の行動パターンを決定する行動パターン決定部を具備する請求項1または2に記載の特徴行動検知装置。   The characteristic behavior detection device according to claim 1, further comprising a behavior pattern determination unit that determines a behavior pattern of the target based on a direction and speed of movement of the target. 前記取得部によってセンサ値が取得されるセンサが追加された場合、既存のグループそれぞれのテリトリを示すグループ化基準情報に基づき、前記追加されたセンサを前記既存のグループのいずれかに編入し、または、前記追加されたセンサのみから構成される新たなグループを生成する追加センサ処理部を具備する請求項1乃至3のいずれか1項に記載の特徴行動検知装置。   When a sensor whose sensor value is acquired by the acquisition unit is added, the added sensor is incorporated into one of the existing groups based on grouping criterion information indicating each territory of the existing group, or 4. The characteristic behavior detection device according to claim 1, further comprising an additional sensor processing unit that generates a new group including only the added sensor. 5. 前記取得部によってセンサ値が取得されるセンサの増減がしきい値を越えた場合、前記複数のセンサのグループ化を前記新規グループ化部に実行させるグループ管理部を具備する請求項1乃至4のいずれか1項に記載の特徴行動検知装置。   The group management unit according to claim 1, further comprising a group management unit that causes the new grouping unit to perform grouping of the plurality of sensors when the increase / decrease of the sensor whose sensor value is acquired by the acquisition unit exceeds a threshold value. The characteristic behavior detection device according to any one of the preceding claims. 前記グループ管理部は、各々のグループに属するセンサのセンサ値を用いて実行される前記対象体の特徴行動を検知するための前記対象体の通常行動の機械学習の結果に対する評価値が基準値に満たないグループが存在する場合、そのグループを当該グループに属するセンサそれぞれのみで構成されるグループに分割することによるグループの最適化を実行する請求項5に記載の特徴行動検知装置。   The group management unit uses, as a reference value, an evaluation value for a result of machine learning of normal behavior of the target object for detecting a characteristic behavior of the target object that is executed using sensor values of sensors belonging to each group. The characteristic behavior detection apparatus according to claim 5, wherein when there is a less than group, the group is optimized by dividing the group into groups each composed of only sensors belonging to the group. 前記グループ管理部は、第2期間ごとに、前記複数のセンサのグループ化を前記新規グループ化部に実行させる請求項5または6に記載の特徴行動検知装置。   The characteristic behavior detection apparatus according to claim 5, wherein the group management unit causes the new grouping unit to group the plurality of sensors every second period. 前記複数のセンサそれぞれの検知領域のサンプル点における各センサから各検知対象位置までの距離に基づき、前記対象体について算出される値を正規化する正規化部を具備する請求項1乃至7のいずれか1項に記載の特徴行動検知装置。   The normalization part which normalizes the value calculated about the target object based on the distance from each sensor to each detection target position in the sample point of the detection area of each of the plurality of sensors. The characteristic behavior detection device according to claim 1.
JP2017178150A 2017-09-15 2017-09-15 Characteristic behavior detection device Active JP6626056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017178150A JP6626056B2 (en) 2017-09-15 2017-09-15 Characteristic behavior detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017178150A JP6626056B2 (en) 2017-09-15 2017-09-15 Characteristic behavior detection device

Publications (2)

Publication Number Publication Date
JP2019053608A true JP2019053608A (en) 2019-04-04
JP6626056B2 JP6626056B2 (en) 2019-12-25

Family

ID=66014948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017178150A Active JP6626056B2 (en) 2017-09-15 2017-09-15 Characteristic behavior detection device

Country Status (1)

Country Link
JP (1) JP6626056B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172450A1 (en) * 2021-02-15 2022-08-18 日本電信電話株式会社 Data collecting device, data collecting method and data collecting program
JP2022163669A (en) * 2021-04-14 2022-10-26 アウー インテリジェンス, インコーポレイテッド Method for behavior vectorization of information de-identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721488A (en) * 1993-07-02 1995-01-24 Omron Corp Traffic flow abnormality monitoring and supporting device
JP2002230012A (en) * 2000-12-01 2002-08-16 Sumitomo Electric Ind Ltd Document clustering device
JP2009271577A (en) * 2008-04-30 2009-11-19 Panasonic Corp Device and method for displaying result of similar image search
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2016062485A (en) * 2014-09-19 2016-04-25 パナソニックIpマネジメント株式会社 Traffic signal controller and traffic signal controlling method
JP2016118894A (en) * 2014-12-19 2016-06-30 ヤフー株式会社 Prediction apparatus, prediction method, and prediction program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721488A (en) * 1993-07-02 1995-01-24 Omron Corp Traffic flow abnormality monitoring and supporting device
JP2002230012A (en) * 2000-12-01 2002-08-16 Sumitomo Electric Ind Ltd Document clustering device
JP2009271577A (en) * 2008-04-30 2009-11-19 Panasonic Corp Device and method for displaying result of similar image search
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2016062485A (en) * 2014-09-19 2016-04-25 パナソニックIpマネジメント株式会社 Traffic signal controller and traffic signal controlling method
JP2016118894A (en) * 2014-12-19 2016-06-30 ヤフー株式会社 Prediction apparatus, prediction method, and prediction program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宜保達哉ほか: "多数の人物の大局的なパターンに注目した異常検出", 電子情報通信学会論文誌, vol. 第J96-D巻 第11号, JPN6018052064, 1 November 2013 (2013-11-01), JP, pages 2765 - 2775, ISSN: 0003951910 *
服部傑ほか: "多数センサによる観測データの相関を手がかりとする人間行動判別", 電子情報通信学会技術研究報告, vol. 106, no. 396, JPN6018052066, 23 November 2006 (2006-11-23), JP, pages 29 - 34, ISSN: 0003951911 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172450A1 (en) * 2021-02-15 2022-08-18 日本電信電話株式会社 Data collecting device, data collecting method and data collecting program
JP2022163669A (en) * 2021-04-14 2022-10-26 アウー インテリジェンス, インコーポレイテッド Method for behavior vectorization of information de-identification
JP7233758B2 (en) 2021-04-14 2023-03-07 アウー インテリジェンス, インコーポレイテッド Behavior vectorization method for information anonymization

Also Published As

Publication number Publication date
JP6626056B2 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
WO2021217934A1 (en) Method and apparatus for monitoring number of livestock, and computer device and storage medium
CN104811660B (en) control device and control method
EP4080406A1 (en) Distributed product defect analysis system and method, and computer-readable storage medium
CN102300051A (en) Camera layout determination support device
CN104112084B (en) Execution-based license discovery and optimization method and device
CN108596955A (en) A kind of image detecting method, image detection device and mobile terminal
US20210365813A1 (en) Management computer, management program, and management method
CN110335313A (en) Audio collecting device localization method and device, method for distinguishing speek person and system
CN113343779B (en) Environment abnormality detection method, device, computer equipment and storage medium
CN112948614A (en) Image processing method, image processing device, electronic equipment and storage medium
CN109951449A (en) A kind of abnormal login detecting method, device, electronic equipment and storage medium
JP6626056B2 (en) Characteristic behavior detection device
CN113420800B (en) Data anomaly detection method and device
JP2011232864A (en) Facility information classification system and facility information classification program
CN113762163B (en) GMP workshop intelligent monitoring management method and system
US20210295212A1 (en) Data management system, data management method, and recording medium having recorded thereon a data management program
US20230333720A1 (en) Generating presentation information associated with one or more objects depicted in image data for display via a graphical user interface
JP2020091756A (en) Learning method, learning program, and learning device
JP5505936B2 (en) Image processing unit and image processing program
CN114298245A (en) Anomaly detection method and device, storage medium and computer equipment
CN113761082A (en) Data visualization method, device and system
US20150373130A1 (en) Device and method for connecting celebrities and fans
CN113379469A (en) Abnormal flow detection method, device, equipment and storage medium
JP2021192155A (en) Program, method and system for supporting abnormality detection
WO2020127587A1 (en) Improved application testing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191128

R150 Certificate of patent or registration of utility model

Ref document number: 6626056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150