JP2012208793A - Security system - Google Patents

Security system Download PDF

Info

Publication number
JP2012208793A
JP2012208793A JP2011074731A JP2011074731A JP2012208793A JP 2012208793 A JP2012208793 A JP 2012208793A JP 2011074731 A JP2011074731 A JP 2011074731A JP 2011074731 A JP2011074731 A JP 2011074731A JP 2012208793 A JP2012208793 A JP 2012208793A
Authority
JP
Japan
Prior art keywords
person
determination
feature
feature data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011074731A
Other languages
Japanese (ja)
Inventor
Hisatomo Ushijima
央智 牛島
Takehiro Mabuchi
健宏 馬渕
Satoshi Futami
聡 二見
Takuo Moriguchi
拓雄 森口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2011074731A priority Critical patent/JP2012208793A/en
Publication of JP2012208793A publication Critical patent/JP2012208793A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a security system which is available in a versatile manner by defining and creating a flexible determination condition for detection in accordance with a destination of installation or a purpose of use when detecting suspicious persons.SOLUTION: A security system comprises a feature data DB 31 storing therein feature data associated with each person, a determination file 32 storing therein a determination condition defined from a combination of feature keywords, a determination unit 40 detecting, on the basis of matching comparison between a feature data value of feature data and the determination condition in the determination file, a person associated with the feature data as a detection person, and an output unit 50 which outputs a control signal to an output destination when the detection person is detected. The determination file is comprised of the determination condition defined by combining different types of a plurality of feature keywords using a connecting key, the output destination to output person detection when it is determined that the determination condition is satisfied, and contents of the control signal to the output destination.

Description

本発明は、所定の特徴を有する人物検知を行う警備装置の分野に関する。   The present invention relates to the field of security devices that perform person detection having predetermined characteristics.

近年、防犯意識の高まりにより警備システム、警備装置が広く設置されるようになってきた。ここで従来より、監視カメラ等で撮像された画像の画像解析処理に基づき、不審人物を検知する警備装置が知られている。   In recent years, security systems and security devices have been widely installed due to an increase in crime prevention awareness. Heretofore, a security device that detects a suspicious person based on image analysis processing of an image captured by a surveillance camera or the like has been known.

例えば特許文献1には、例えば金融機関のATM、入口等において、サングラスやマスク等により顔を隠している人物を画像から検知すると、不審人物の可能性があると判断し通報する警報装置が記載されている。より具体的には、画像処理部により、顔の目や口が確実に検知できたかの顔隠しのスコアを独自の算出式で計算し、判定部により、スコア値が不審とする閾値より大きい場合には、サングラスやマスク等により顔を隠している不審人物として判定する。   For example, Patent Document 1 describes an alarm device that determines that there is a possibility of a suspicious person when a person whose face is hidden by sunglasses or a mask is detected from an image, for example, at an ATM or entrance of a financial institution. Has been. More specifically, when the image processing unit calculates the face concealment score as to whether the eyes and mouth of the face have been reliably detected, using a unique calculation formula, and the determination unit determines that the score value is greater than a threshold value that is suspicious Is determined as a suspicious person whose face is hidden by sunglasses or a mask.

特許2648054号Japanese Patent No. 2648054

ここで、一概に不審人物を検知するといっても、警備装置の設置先(使用先)によってその使用目的は異なる。つまり、どのような特徴を有する人物を検知したい不審人物とみなすかは、警備装置を使用する側のニーズによって異なっている。   Here, even if a suspicious person is generally detected, the purpose of use differs depending on the installation location (use location) of the security device. In other words, what kind of characteristics a person is considered as a suspicious person who wants to detect differs depending on the needs of the side using the security device.

しかしながら、従来の不審人物を検知する警備装置においては、その設置先、使用目的ごとに合わせて不審人物の特徴、行動を定義し、必要とする画像処理と設置先の使用目的に特化した検知判定方法を実装しており、そのため、同じ装置、システムを別の設置先、別の使用目的で使用する場合には、検知判定のプログラムを実装し直さなければならないという問題があった。   However, in conventional security devices that detect suspicious persons, the characteristics and behavior of suspicious persons are defined according to the installation location and purpose of use, and the detection is specialized for the required image processing and the intended use of the installation location. Since the determination method is implemented, there is a problem that when the same apparatus or system is used for another installation destination or for another purpose, it is necessary to re-install a detection determination program.

例えば、病院やクリニックにおいては、風邪等でマスクのみを着けている人物は多く、これら人物を不審人物として検知すべきでない。このため病院等で要請されるものは、サングラスとマスクの両方を着けている人物、及びサングラスのみを着けている人物を不審人物として検知する警備装置である。   For example, in hospitals and clinics, there are many people wearing only a mask due to a cold or the like, and these people should not be detected as suspicious people. For this reason, what is required in hospitals and the like is a security device that detects a person wearing both sunglasses and a mask and a person wearing only sunglasses as a suspicious person.

しかし特許文献1に記載される警備装置は、サングラスとマスクの両方を着けている人物を検知することはできるものの、サングラスとマスクの両方を着けている人物、及びサングラスのみを着けている人物を不審人物として検知し、マスクのみを着けている人物は、検知しないという病院等でのニーズに適った検知判定を行うことはできない。そもそも特許文献1に記載される警備装置は、金融機関等での設置及び使用を想定して実装された装置であり、サングラスやマスク等により顔の大部分を隠している人物を不審人物とみなして検知するものだからである。そして仮にこのような検知判定を行いたい場合には、サングラスを着けている人物、マスクを着けている人物をそれぞれに検知し、人物に対しマスクのみを着けている人物を検知判定しないように検知判定条件の変更及びそのプログラムの実装が必要となる。即ちこのように、従来の不審人物を検知する装置においては、設置先、使用目的が変われば、検知判定のプログラムを実装し直す必要が出てくるため、同一装置を様々な設置先、使用目的で使用することは容易でない。   However, although the security device described in Patent Document 1 can detect a person wearing both sunglasses and a mask, a person wearing both sunglasses and a mask, and a person wearing only sunglasses. A person who is detected as a suspicious person and wears only a mask cannot make a detection decision that meets the needs of a hospital or the like not to detect it. In the first place, the security device described in Patent Document 1 is a device implemented assuming installation and use in a financial institution, etc., and a person who hides most of his face with sunglasses or a mask is considered a suspicious person. This is because it is detected. And if you want to make such a detection decision, detect people wearing sunglasses and a person wearing masks, and do not detect people who wear only masks against people. It is necessary to change the judgment conditions and implement the program. That is, in the conventional apparatus for detecting a suspicious person, if the installation destination and purpose of use change, it will be necessary to re-install the detection judgment program. It is not easy to use with.

本発明は上記の点に鑑みて、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することを目的とする。   In view of the above points, the present invention defines and creates flexible detection criteria according to the installation destination and purpose of use when detecting a suspicious person, regardless of the installation destination or purpose of use. It aims at providing the security device which can be used universally.

上記課題を解決するため、本発明に係る警備装置は、人物の特徴を示す複数の種類の特徴データ値を含む特徴データを人物毎に対応付けて記憶した第1記憶手段と、前記特徴データ値が示す人物の特徴に対応する特徴キーワードの組合せから定義される判定条件を含む判定ファイルを記憶した第2記憶手段と、前記特徴データの特徴データ値と前記判定ファイルの判定条件とのマッチ比較に基づき、該判定条件を満たすか否かの判定を行い、該判定条件を満たすとき、該特徴データに対応付けられた人物を検知人物として検知する判定手段と、前記検知人物を検知したとき、出力先に対する制御信号を出力する出力手段とを有し、前記判定ファイルは、種類の異なる複数の前記特徴キーワードが接続キーを用いて組合されて定義される判定条件と、該判定条件を満たすと判定されたときに人物検知を出力する出力先と、該出力先に対する制御信号の内容とにより構成されることを特徴とする。   In order to solve the above-described problem, the security device according to the present invention includes a first storage unit that stores feature data including a plurality of types of feature data values indicating the characteristics of a person in association with each person, and the feature data value. A second storage unit that stores a determination file including a determination condition defined from a combination of feature keywords corresponding to the feature of the person indicated by the character string, and a match comparison between the feature data value of the feature data and the determination condition of the determination file A determination unit that determines whether or not the determination condition is satisfied, and when the determination condition is satisfied, a determination unit that detects a person associated with the feature data as a detected person, and an output when the detected person is detected An output means for outputting a control signal for the destination, and the determination file includes a determination condition defined by combining a plurality of different types of feature keywords using a connection key. When, characterized in that it is configured with the output destination to output the person detected when it is determined that the determination condition is satisfied, by the content of the control signal to the output destination.

また上記課題を解決するため、前記警備装置において、前記判定ファイルを作成するための画面を提供するとともに、該画面において、検知すべき人物の特徴を示す特徴表現のうち1の特徴表現が選択されたとき、該特徴表現に予め対応付けられている前記特徴キーワード又は前記接続キーを用いて種類の異なる複数の前記特徴キーワードの組合せを作成し、作成した該特徴キーワード又は該特徴キーワードの組合せから定義される判定条件を含む判定ファイルを作成する判定ファイル作成手段とを有し、前記判定ファイル作成手段により作成された判定ファイルは、前記第2記憶手段に記憶されることを特徴とする。   In order to solve the above problem, the security device provides a screen for creating the determination file, and one feature representation is selected from the feature representations indicating the characteristics of the person to be detected on the screen. A combination of a plurality of different types of feature keywords using the feature keyword or the connection key previously associated with the feature expression, and defining from the created feature keyword or the combination of feature keywords And a determination file creating means for creating a determination file including the determination conditions to be determined, and the determination file created by the determination file creating means is stored in the second storage means.

また上記課題を解決するため、前記警備装置において、前記判定手段は、1の特徴キーワード毎に、該特徴キーワードに対応する特徴データ値とのマッチ比較に基づき「真」又は「偽」の値を出力し、次いで出力された「真」又は「偽」の値が、前記接続キーで組み合わされたときに該判定条件を満たすか否かの判定を行い、満たす場合には「真」の値を、満たさない場合には「偽」の値を出力することを特徴とする。   In order to solve the above-mentioned problem, in the security device, the determination means sets a value of “true” or “false” for each feature keyword based on a match comparison with a feature data value corresponding to the feature keyword. Output, and then, when the output “true” or “false” value is combined with the connection key, it is determined whether or not the determination condition is satisfied. If not satisfied, a “false” value is output.

また上記課題を解決するため、前記警備装置において、前記判定手段は、前記判定条件において所定関数が含まれている場合であって、1の特徴キーワード毎に、前記所定関数の第1パラメータで指定されている指定数分の特徴データの中から該特徴キーワードに対応する特徴データ値との比較に基づき、「真」又は「偽」の値を出力するとき、前記指定数分の特徴データのうち、前記所定関数の第2パラメータで指定されている指定数分の特徴データが前記特徴キーワードにマッチした場合には、「真」の値を出力することを特徴とする。   In order to solve the above-described problem, in the security device, the determination unit is a case where a predetermined function is included in the determination condition, and is designated by a first parameter of the predetermined function for each feature keyword. When outputting a value of “true” or “false” based on comparison with the feature data value corresponding to the feature keyword from the feature data for the designated number, the feature data for the designated number When the specified number of feature data specified by the second parameter of the predetermined function matches the feature keyword, a value of “true” is output.

また上記課題を解決するため、前記警備装置において、少なくともカメラからの画像を入力する入力手段と、前記画像に対し画像解析処理を行うとともに、該画像内に解析された人物の特徴データを人物毎に集計する画像解析手段とを有し、前記画像解析手段により人物毎に集計された特徴データは、前記第1記憶手段に記憶されることを特徴とする。

なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、などに適用したものも本発明の態様として有効である。
In order to solve the above-mentioned problem, in the security device, at least input means for inputting an image from a camera, image analysis processing is performed on the image, and person characteristic data analyzed in the image is stored for each person. The feature data aggregated for each person by the image analysis means is stored in the first storage means.

In addition, what applied the arbitrary combination of the component of this invention, expression, or a component to a method, an apparatus, a system, a computer program, a recording medium, etc. is also effective as an aspect of this invention.

本発明によれば、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することができる。   According to the present invention, when detecting a suspicious person, by defining and creating a flexible determination criterion for detection according to the installation destination and purpose of use, it can be used regardless of the installation destination or purpose of use. A security device that can be used can be provided.

本実施形態に係る警備システム100の全体構成を示す一実施例のブロック図を示す。The block diagram of one Example which shows the whole structure of the security system 100 which concerns on this embodiment is shown. 特徴データと判定ファイルの関係を説明する図である。It is a figure explaining the relationship between feature data and a determination file. 特徴データの一例である。It is an example of feature data. 特徴データの仕様表を示す。A feature data specification table is shown. 判定ファイル32の一例(その1)である。It is an example (the 1) of the determination file 32. FIG. 判定条件文の一文例を示す。An example sentence of a judgment condition sentence is shown. 特徴キーワードの仕様表を示す。The feature keyword specification table is shown. 関数の仕様表を示す。A function specification table is shown. 接続キーの仕様表を示す。A connection key specification table is shown. 判定ファイル32の一例(その2)である。It is an example (the 2) of the determination file 32. 複数の特徴データから抽出した特徴項目及び特徴データ値の一例である。6 is an example of feature items and feature data values extracted from a plurality of feature data. 特徴データ生成処理を説明するフローチャートである。It is a flowchart explaining a feature data generation process. 不審人物の判定処理を説明するフローチャートである。It is a flowchart explaining the judgment process of a suspicious person. 判定結果の出力処理を説明するフローチャートである。It is a flowchart explaining the output process of a determination result. 保守アプリの設定画面例(その1)を示す。An example (part 1) of a maintenance application setting screen is shown. 保守アプリの設定画面例(その2)を示す。An example (part 2) of a maintenance application setting screen is shown.

以下、本発明を実施するための形態を各実施形態において図面を用いて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings in each embodiment.

[概要]
本実施形態に係る警備装置においては、不審人物として検知(検出)したい特徴や行動、またその場所、時間等で詳細に定義し、最終的にこれら特徴や行動をand、or、又はnext等の関係で定義した検知用の判定条件を柔軟に作成できる判定ファイルの汎用的な作成方法を用意し実装した。そして、この方法で作成した判定ファイルと実際の画像処理結果による特徴、行動を比較することにより、不審人物の検知判定を行うようにした。
[Overview]
In the security device according to the present embodiment, features and actions that are desired to be detected (detected) as a suspicious person, and their locations and times are defined in detail. Finally, these features and actions are defined as and, or, or next, etc. Prepared and implemented a general method for creating judgment files that can flexibly create detection criteria defined in relations. Then, the judgment file created by this method is compared with the characteristics and behaviors based on the actual image processing result, so that the suspicious person is detected and judged.

このようにしたことで、本実施形態に係る警備装置においては、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある判定条件の定義、つまり判定ファイル作成を行えるので、設置先や使用目的を問わず汎用的な環境において使用が可能となる。また設置後、新たな犯罪等が発生した際にも、判定条件をその犯罪等に対応したものに定義し直せば、その犯罪等に対応した警備サービスを容易に開始することができる。以下、詳細に説明する。   By doing so, in the security device according to the present embodiment, when detecting a suspicious person, it is possible to define a flexible determination condition according to the installation destination and purpose of use, that is, to create a determination file. It can be used in a general-purpose environment regardless of the destination or purpose of use. In addition, when a new crime or the like occurs after the installation, the security service corresponding to the crime or the like can be easily started by redefining the determination condition corresponding to the crime or the like. Details will be described below.

[システム構成]
図1は、本実施形態に係る警備システム100の全体構成を示す一実施例のブロック図を示す。本実施形態に係る警備システム100は、警備装置1、カメラ2a、センサ2bを含むデータ収集装置2、監視センタ3、警報器4を含み構成される。
[System configuration]
FIG. 1 is a block diagram of an example showing an overall configuration of a security system 100 according to the present embodiment. The security system 100 according to the present embodiment includes a security device 1, a data collection device 2 including a camera 2a, a sensor 2b, a monitoring center 3, and an alarm device 4.

警備装置1は、入力部10、画像解析処理部20、記憶部30、判定部40、出力部50、判定ファイル作成部60を含む。   The security device 1 includes an input unit 10, an image analysis processing unit 20, a storage unit 30, a determination unit 40, an output unit 50, and a determination file creation unit 60.

入力部10は、カメラ2a、センサ2bを含むデータ収集装置2から、画像や検知信号等の入力データを受け付ける入力機能部である。つまり入力部10により、外部装置からのデータを警備装置1内部へ取り込む。   The input unit 10 is an input function unit that receives input data such as images and detection signals from the data collection device 2 including the camera 2a and the sensor 2b. That is, the input unit 10 takes in data from an external device into the security device 1.

画像解析処理部20は、画像や検知信号等の入力データのデータ解析を行い、不審人物の検知に必要な情報(特徴データ)を取り出したり、以後の判定処理で使用し易い形でデータを整形したり取り纏める。   The image analysis processing unit 20 performs data analysis of input data such as images and detection signals, extracts information (feature data) necessary for detecting a suspicious person, and shapes the data in a form that can be easily used in subsequent determination processing. Or gather together.

記憶部30は、人物の特徴データを人物毎に対応付けて記憶した特徴データDB31と、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義された判定ファイル32とを記憶した記憶手段である。なお特徴データDB31及び判定ファイル32の具体例は後述する。   The storage unit 30 stores a feature data DB 31 in which character feature data is stored in association with each person, and a determination file 32 in which a feature to be detected as a suspicious person is defined as a determination condition based on the character feature data. It is a storage means. Specific examples of the feature data DB 31 and the determination file 32 will be described later.

判定部40は、判定ファイル32に基づいて、解析された人物の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。また不審人物として検知すべき人物であると判定したときには、出力部50に対し監視センタ3や警報器4へ警報の出力を指示する。   Based on the determination file 32, the determination unit 40 compares and collates the analyzed characteristic data of the person, and determines whether the person should be detected as a suspicious person. When it is determined that the person is to be detected as a suspicious person, the output unit 50 is instructed to output a warning to the monitoring center 3 and the alarm device 4.

出力部50は、監視センタ3や警報器4と接続されており、監視センタ3への通報や警報器4への出力を行う。   The output unit 50 is connected to the monitoring center 3 and the alarm device 4, and performs notification to the monitoring center 3 and output to the alarm device 4.

判定ファイル作成部60は、判定ファイル32を作成する。本実施形態に係る警備装置1においては、ユーザは警備装置1の設置場所やその使用目的等によって、柔軟に不審人物として検知すべき特徴を判定条件として定義しうる。この作成方法の詳細は再度後述する。   The determination file creation unit 60 creates the determination file 32. In the security device 1 according to the present embodiment, the user can flexibly define a characteristic to be detected as a suspicious person as a determination condition depending on the installation location of the security device 1, the purpose of use, and the like. Details of this creation method will be described later again.

カメラ2aは、警備が行われる設置場所(金融機関、病院、店舗等々)内の随所に設けられる監視カメラである。出入口や室内、又は死角となるような位置に設けられ、リアルタイムに映像、即ち連続的な静止画像を撮像し、撮像した静止画像を警備装置1に対し入力する。近年のカメラ性能からすると、例えばこの静止画像は1秒間に20〜30画像(フレーム)程度が撮像され、警備装置1に対し入力される。   The camera 2a is a surveillance camera that is provided at various locations within an installation location (such as a financial institution, a hospital, or a store) where security is performed. It is provided at an entrance / exit, a room, or a position that becomes a blind spot, and takes a video, that is, a continuous still image in real time, and inputs the captured still image to the security device 1. In view of recent camera performance, for example, about 20 to 30 images (frames) are captured per second and input to the security device 1.

センサ2bは、警備が行われる設置場所内の随所に設けられる検知センサである。具体的に、出入口扉の開閉を検知して検知信号を出力する例えばマグネットスイッチ等のセンサ、廊下や室内に設けられ人の存在を検知して検知信号を出力する例えば赤外線検知センサ等のセンサがある。   The sensor 2b is a detection sensor provided everywhere in the installation location where security is performed. Specifically, a sensor such as a magnet switch that detects opening / closing of an entrance door and outputs a detection signal, for example, a sensor such as an infrared detection sensor that detects the presence of a person installed in a hallway or a room and outputs a detection signal is there.

監視センタ3及び警報器4は、異常時における警報の出力先である。監視センタ3へは電話回線等の通信回線を介して接続されており、監視センタ3は警備装置1から警報を受信すると、例えば現地へ警備員を派遣したり、警察等への連絡を行う。警報器4は、アラート・ランプやアラート・アラーム等であり、警備装置1から警報を受信すると、ランプを点灯させたり緊急時のアラートを鳴らす。   The monitoring center 3 and the alarm device 4 are alarm output destinations when an abnormality occurs. The monitoring center 3 is connected to the monitoring center 3 via a communication line such as a telephone line. When the monitoring center 3 receives an alarm from the security device 1, the monitoring center 3 dispatches a security staff to the site or contacts the police, for example. The alarm device 4 is an alert lamp, an alert alarm, or the like. When an alarm is received from the security device 1, the alarm device 4 turns on the lamp or sounds an emergency alert.

なお、上述の警備装置1の各機能は、実際には装置のCPUが実行するプログラムによりコンピュータに実現させるものであることはいうまでもない。なおまた、本実施形態においてはあくまで一構成例であり、各機能を他の装置に実装することも可能である。例えば、警備装置1の記憶部30は別途のデータ蓄積サーバにより構築することができる。また判定ファイル作成部60は端末PC等に実装し、端末PCの判定ファイル作成部60で作成した判定ファイルを警備装置1の記憶部30へ転送するように構成することも可能である。   Needless to say, each function of the security device 1 described above is actually realized by a computer by a program executed by the CPU of the device. In addition, in the present embodiment, it is only one configuration example, and each function can be mounted on another device. For example, the storage unit 30 of the security device 1 can be constructed by a separate data storage server. The determination file creation unit 60 may be mounted on a terminal PC or the like, and configured to transfer the determination file created by the determination file creation unit 60 of the terminal PC to the storage unit 30 of the security device 1.

[特徴データと判定ファイル]
図2は、特徴データと判定ファイルの関係を説明する図である。
[Feature data and judgment file]
FIG. 2 is a diagram for explaining the relationship between the feature data and the determination file.

警備装置1は、画像(フレーム)及び検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新している。また判定ファイル32は、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、ユーザにより又は判定ファイル作成部60を介して予め作成され記憶部30に保持される。   The security device 1 performs image analysis processing every time an image (frame) and a detection signal are input, and from the result of the image analysis processing, feature data for each person ID (given for each person using a face authentication result or the like) Are generated and stored in the feature DB 31 as needed. The determination file 32 is a file in which a characteristic to be detected as a suspicious person based on person characteristic data is defined as a determination condition. The determination file 32 is created in advance by the user or via the determination file creation unit 60 and is held in the storage unit 30. The

そして図に示されるように判定部40は、判定ファイル32と、人物毎の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。また不審人物として検知すべき人物であると判定したときには、出力部50に対し監視センタ3や警報器4へ警報の出力を指示する。以下詳しく説明する。   Then, as shown in the figure, the determination unit 40 compares and collates the determination file 32 with the feature data for each person, and determines whether or not the person is to be detected as a suspicious person. When it is determined that the person is to be detected as a suspicious person, the output unit 50 is instructed to output a warning to the monitoring center 3 and the alarm device 4. This will be described in detail below.

(特徴データ)
上述の如く、カメラ2aやセンサ2bから入力された画像や検知信号を解析した画像解析結果は、特徴データとして特徴DB31に蓄積される。つまり、警備装置1は、画像及び検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新していく。
(Feature data)
As described above, the image input from the camera 2a and the sensor 2b and the image analysis result obtained by analyzing the detection signal are accumulated in the feature DB 31 as feature data. That is, the security device 1 performs an image analysis process every time an image and a detection signal are input, and based on the result of the image analysis process, feature data for each person ID (given for each person using a face authentication result or the like) Generate and store and update the feature DB 31 as needed.

図3は、特徴データの一例である。また併せて図4は、特徴データの仕様表を示す。図3の特徴データは、実際の1の特徴データを示す。つまり、カメラ2aから入力された1画像及びセンサ2bから入力された検知信号により、人物が検出された場合、その人物の特徴や行動を図3の仕様表の各項目に従い画像解析により解析し、特徴データ項目毎の特徴データ値を検出する。そして1画像(1フレーム)、1人物に対し、1の特徴データを生成する。一方、人物が検出されない場合には、特徴データは生成しなくてよい。   FIG. 3 is an example of feature data. In addition, FIG. 4 shows a specification table of feature data. The feature data in FIG. 3 shows one actual feature data. That is, when a person is detected by one image input from the camera 2a and the detection signal input from the sensor 2b, the characteristics and behavior of the person are analyzed by image analysis according to each item of the specification table of FIG. A feature data value for each feature data item is detected. Then, one feature data is generated for one image (one frame) and one person. On the other hand, if no person is detected, the feature data need not be generated.

図4の仕様表は、カメラ2aから入力された画像及びセンサ2bから入力された検知信号により解析されうる特徴、行動の一例である。警備装置1において、該当の特徴、行動を解析・抽出しうる画像解析手法が実装されている限り、これら特徴や行動の項目の値を得ることができる。なおまた、センサ2bから入力された検知信号は、人物の存在・位置の特定等に用いられる。画像のみからでも人物の存在・位置を解析することが可能であるため、あくまで画像解析の補完情報として用いるものとする。   The specification table of FIG. 4 is an example of features and actions that can be analyzed by an image input from the camera 2a and a detection signal input from the sensor 2b. As long as an image analysis method capable of analyzing / extracting the relevant feature and action is implemented in the security device 1, the values of these feature and action items can be obtained. In addition, the detection signal input from the sensor 2b is used for specifying the presence / position of a person. Since it is possible to analyze the presence / position of a person only from an image, it is used only as supplementary information for image analysis.

具体的に図3を参照する。例えば、特徴データ項目「Date」(日付)は、特徴データの生成元の画像や検知信号が入力された日付を示す。また、特徴データ項目「Time」(時刻)は、特徴データの生成元の画像や検知信号が入力された時刻を示す。   Specifically, refer to FIG. For example, the feature data item “Date” (date) indicates the date on which the feature data generation source image or detection signal was input. The feature data item “Time” (time) indicates the time when the feature data generation source image or detection signal is input.

また、特徴データ項目「Gender」(性別)は、入力された1画像において1の人物(人物ID:0001)が写っていた場合、画像解析により解析されたその人物の性別値を示す。ここではこの人物の性別は「男」であると解析されたため、性別値は「0」となっている。また、「Sunglasses」(サングラスの有無)は、画像解析により解析されたその人物のサングラスの有無値を示す。ここではこの人物のサングラスの有無値は「あり」であると解析されたため、サングラスの有無の値は「1」となっている。   Also, the feature data item “Gender” (gender) indicates the gender value of the person analyzed by image analysis when one person (person ID: 0001) is captured in one input image. Here, since the gender of this person was analyzed as “male”, the gender value is “0”. “Sunglasses” (presence / absence of sunglasses) indicates the presence / absence value of the person's sunglasses analyzed by image analysis. Here, since the person's sunglasses presence / absence value is analyzed as “Yes”, the value of sunglasses presence / absence is “1”.

また、「Stay[x]」(エリアxにいる)は、画像解析及び検知信号により解析されたその人物の位置(エリア)値を示す。ここではこの人物の位置(エリア)値は「エリア1にいる」と解析されたため、Stay[1]の値は「1」となっている。またStay[2]、Stay[3]の値は「0」となっている。また、「Rove」(きょろきょろしている)は、画像解析により解析されたその人物がきょろきょろしているかどうかの値を示す。ここでは、この人物はきょろきょろしていないと解析されたため、この値は「0」となっている。   “Stay [x]” (in area x) indicates the position (area) value of the person analyzed by the image analysis and the detection signal. Here, since the position (area) value of this person has been analyzed as “in area 1”, the value of Stay [1] is “1”. The values of Stay [2] and Stay [3] are “0”. “Rove” indicates whether or not the person analyzed by the image analysis is missing. Here, this value is “0” because it has been analyzed that this person is not ready.

なお、特徴データは、各フレーム単位(撮像画像単位)で画像解析されて生成される。そして同一人物毎に人物IDを発行のうえ、蓄積可能なフレーム数を超えるまで特徴DBに保存、管理される。なお同一人物かどうかの判定は、従来の顔認証処理技術等を使って行えばよい。また入力された1画像において複数の人物が写っていた場合、1画像中の人物毎にその特徴、行動を画像解析し、人数分の特徴データを生成する。   The feature data is generated by image analysis for each frame (captured image). A person ID is issued for each person, and is stored and managed in the feature DB until the number of frames that can be accumulated is exceeded. The determination of whether or not they are the same person may be performed using a conventional face authentication processing technique or the like. When a plurality of persons are captured in one input image, the characteristics and behaviors of each person in the image are subjected to image analysis, and feature data for the number of persons is generated.

(判定ファイル)
図5は、判定ファイル32の一例(その1)である。判定ファイル32は、上述の如く、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、ユーザにより予め作成され記憶部30に保持される。具体的には図に示されるように、判定ファイルは「制御するIO(Input/Output)」、「制御内容」、「判定条件文」の各要素からなる。
(Judgment file)
FIG. 5 is an example (part 1) of the determination file 32. As described above, the determination file 32 is a file in which a feature to be detected as a suspicious person based on the person feature data is defined as a determination condition, and is created in advance by the user and held in the storage unit 30. Specifically, as shown in the figure, the determination file is made up of each element of “controlling IO (Input / Output)”, “control contents”, and “determination condition statement”.

「制御するIO」は、「判定条件文」による条件を満たした場合、制御の対象となる出力対象先(例えば監視センタ3及び警報器4等)のID(1、2・・)を示す。「制御内容」は、「判定条件文」による条件を満たした場合、制御の対象となる出力対象に対する制御の内容を示す。「開」はON、「閉」はOFFと意味し、出力対象が監視センタ3であれば通報のON/OFFとなり、警報器4であればランプ点灯/消灯、またもしくはアラームON/OFFといった制御を行う。なお出力対象に対する制御内容は、通常、「開」(ON)と「閉」(OFF)があるため、「開」制御する場合と「閉」制御する場合の判定条件はセットで定義するようにする。「判定条件文」は、人物の特徴データに基づき不審人物として検知すべき特徴が定義された判定条件構文である。この点以下説明する。   “IO to be controlled” indicates an ID (1, 2,...) Of an output target (for example, the monitoring center 3 and the alarm device 4) to be controlled when the condition by the “judgment condition sentence” is satisfied. “Control content” indicates the content of control for an output target to be controlled when the condition by the “judgment condition statement” is satisfied. “Open” means ON, “Close” means OFF. If the output target is the monitoring center 3, the notification is turned ON / OFF, and if the alarm device 4, the lamp is turned on / off, or the alarm is turned ON / OFF. I do. Since the control contents for the output target are usually “open” (ON) and “closed” (OFF), the determination conditions for “open” control and “closed” control should be defined as a set. To do. The “judgment condition sentence” is a judgment condition syntax in which a feature to be detected as a suspicious person is defined based on person feature data. This point will be described below.

図6は、判定条件文の一文例を示す。図に示されるように、「判定条件文」の構成は、大きく分けてア〜ウの3つの部分からなる。まずアの「特徴キーワード」は、例えば「Sunglasses」の場合、画像から画像解析された特徴データの特徴データ項目において、サングラスがありと検知されているときに、「真」を出力し、サングラスがありと検知されていないときに「偽」を出力する。また例えば「Mask」の場合、特徴データの特徴項目において、マスクがありと検知されているときに、「真」を出力し、マスクがありと検知されていないときに「偽」を出力する。よってこのことからも、この「特徴キーワード」と、特徴データの特徴項目(図4)とは対応関係にあることが分かる。   FIG. 6 shows an example of a judgment condition sentence. As shown in the figure, the configuration of the “judgment condition sentence” is roughly divided into three parts a to c. First, in the case of “Sunglasses”, for example, “Sunglasses”, “true” is output when sunglasses are detected in the feature data item of the feature data image-analyzed from the image. Outputs “false” when it is not detected. For example, in the case of “Mask”, “true” is output when the presence of a mask is detected in the feature item of the feature data, and “false” is output when the presence of a mask is not detected. Therefore, it can be seen from this that the “feature keyword” and the feature item of the feature data (FIG. 4) are in a correspondence relationship.

図7は、特徴キーワードの仕様表を示す。特徴キーワードは「Sunglasses」や「Mask」のみならず、図に示されるような複数の特徴キーワードが存在する。よってユーザはこの仕様表の中から使用したい特徴キーワードを使って、つまり不審人物として検知すべき特徴キーワードを使って判定条件を定義するようにする。   FIG. 7 shows a specification table of feature keywords. The feature keywords include not only “Sunglasses” and “Mask”, but also a plurality of feature keywords as shown in the figure. Therefore, the user uses the feature keyword that the user wants to use from the specification table, that is, uses the feature keyword that should be detected as a suspicious person to define the determination condition.

再び図6を参照し、次いでイの「個別条件」は、関数FrameCountを用いて定義された個別条件、例えば「FrameCount(x,y,z)」である場合、直近の規定フレーム数zのうち、その直近の規定フレームの画像から画像解析された特徴データの特徴データ項目(特徴データ値)と対応する特徴キーワードxが「真」である回数が、少なくとも指定した数yあるかどうかを判定する条件である。例えば、「FrameCount(Sunglasses,2,10)」である場合、直近の規定10フレームのうち、その直近の10フレームの画像から画像解析された特徴データの特徴データ項目(特徴データ値)と対応する特徴キーワード「Sunglasses」が「真」である回数が、少なくとも2回あるかどうかを判定する条件である。   Referring again to FIG. 6, if the “individual condition” is an individual condition defined using the function FrameCount, for example, “FrameCount (x, y, z)”, Determine whether the number of times the feature keyword x corresponding to the feature data item (feature data value) of the feature data image-analyzed from the image of the most recent specified frame is “true” is at least the specified number y It is a condition. For example, in the case of “FrameCount (Sunglasses, 2,10)”, it corresponds to the feature data item (feature data value) of the feature data image-analyzed from the image of the latest 10 frames out of the latest specified 10 frames. This is a condition for determining whether or not the number of times that the characteristic keyword “Sunglasses” is “true” is at least twice.

映像がカメラ2aで撮像されると、カメラ2aからの画像が連続的に警備装置1へ入力されてくる。人物が移っている場合、特徴データはフレーム単位(撮像画像単位)で生成されるので、カメラ2aからの人物画像が連続的に警備装置1へ入力されるたびに次々と特徴データが生成されることになる。しかしながら画像解析においては、人物検知自体の解析は高精度で検知できるものの、ときに人物の細かな特徴データ値を正確に解析できない場合がある。例えば、人物が後ろを向いている画像からは人物のサングラス着用を解析できない。また、人物を正面や側面から撮像できた画像であっても、解析によって必ずしもサングラス着用を解析できるとは限らない。従って特徴キーワード「Sunglasses」は、特徴データ値(Sunglasses=0or1)に基づきサングラス着用の有無を判定するものであるが、撮像された画像、フレームによってサングラスがありと検知されたりされなかったりと、そのばらつきを吸収する必要があるため、ここでは特徴キーワードに対し特徴検知の精度を向上させるための関数を介在させる。これにより、ある一定程度のフレーム数(例えば10フレーム)の幅を持たせ、そのうち指定した数(例えば2回)だけ人物のサングラス着用を検知できた場合、イの「個別条件」全体として「真」を出力するようにしたものである。   When a video is captured by the camera 2a, images from the camera 2a are continuously input to the security device 1. When the person is moving, the feature data is generated in units of frames (captured images), so that the feature data is generated one after another whenever the person image from the camera 2a is continuously input to the security device 1. It will be. However, in the image analysis, although the detection of the person detection itself can be detected with high accuracy, sometimes the fine feature data value of the person cannot be accurately analyzed. For example, a person wearing sunglasses cannot be analyzed from an image of the person facing back. Moreover, even if it is the image which imaged the person from the front and the side, it cannot necessarily analyze sunglasses wearing by analysis. Therefore, the feature keyword “Sunglasses” is used to determine whether or not sunglasses are worn based on the feature data value (Sunglasses = 0or1). Since it is necessary to absorb the variation, a function for improving the accuracy of feature detection is interposed in the feature keyword here. As a result, when a certain number of frames (for example, 10 frames) is provided, and the number of frames specified by the user (for example, twice) can be detected, the “individual condition” as a whole is “true”. "Is output.

図8は、関数の仕様表を示す。各関数の出力内容は図に示される通りであるが、関数の種類は大きくFrame系とTime系とを用意している。例えばFrameCountは、直近の対象フレーム数の中で、特徴キーワードに該当する特徴データが検知フレーム数回数以上、「真」を出力した場合に、「真」、それ以外は「偽」を出力する関数である。一方、TimeCountは、直近の対象時間の中で、特徴キーワードに該当する特徴データが、「真」を出力した時間の合計が検知時間以上の場合に、「真」、それ以外は「偽」を出力する関数である。
つまり、フレーム、時間というそれぞれの観点から、上述でいうばらつきを吸収しつつ該当の特徴を有する人物を検知できるようにしたものである。
FIG. 8 shows a function specification table. The output contents of each function are as shown in the figure, but the types of functions are broadly prepared for the Frame system and the Time system. For example, FrameCount is a function that outputs "true" when the feature data corresponding to the feature keyword outputs more than the number of detected frames, and outputs "false" otherwise. It is. On the other hand, TimeCount is set to “true” when the total of the time when the feature data corresponding to the feature keyword output “true” exceeds the detection time in the latest target time, and “false” otherwise. Function to output.
In other words, from the viewpoints of frame and time, it is possible to detect a person having the relevant characteristics while absorbing the above-described variations.

再び図6を参照し、次いでウの「総合条件」(判定条件文)は、イの「個別条件」をand、or、next等の接続キー(接続語)で接続されることにより、複数の個別条件から構成されるものである。例えば、イの「個別条件」である「FrameCount(Sunglasses,2,10)」は、10フレーム中2回、サングラス着用者を検知したときには「真」を出力し、「FrameCount(Mask,1,10)」は、10フレーム中1回、マスク着用者を検知したときには「真」を出力する。そして、この2つの個別条件を「and」で接続した「総合条件」においては、サングラス着用且つマスク着用を検知したとき、つまり両個別条件が両方とも「真」である場合に、「真」を出力する。   Referring to FIG. 6 again, the “total condition” (judgment condition sentence) of c is connected to the “individual condition” of a with connection keys (connection words) such as and, or, next, etc. It consists of individual conditions. For example, “FrameCount (Sunglasses, 2,10)”, which is the “individual condition”, outputs “true” when a wearer of sunglasses is detected twice in 10 frames, and “FrameCount (Mask, 1,10 “)” Outputs “true” once in 10 frames when a mask wearer is detected. And in the “total condition” in which these two individual conditions are connected by “and”, “true” is set when sunglasses wearing and mask wearing are detected, that is, when both of the individual conditions are both “true”. Output.

図9は、接続キーの仕様表を示す。各接続キー数の出力内容は図に示される通りであるので詳述は割愛する。以上のように、ユーザはア〜ウを自由に組み合わせて判定条件文を作成することで、警備装置1の設置先、使用目的に合った不審人物の検知判定を行うことができる。   FIG. 9 shows a connection key specification table. Since the output contents of each connection key number are as shown in the figure, the detailed description is omitted. As described above, the user can perform a detection determination of a suspicious person suitable for the installation destination and the purpose of use of the security device 1 by creating a determination condition sentence by freely combining a to c.

[判定例]
図10、11を元に、人物(例えば人物ID:0001)が判定ファイル32の判定条件において、不審人物であるかどうかを判定する例をここに示す。
[Judgment example]
An example of determining whether or not a person (for example, person ID: 0001) is a suspicious person in the determination condition of the determination file 32 based on FIGS.

図10は、判定ファイル32の一例(その2)である。図に示されるように、判定ファイル32には、「制御するIO」ID1及び2に対する「判定条件文」が少なくとも2セット定義されている。   FIG. 10 is an example (part 2) of the determination file 32. As shown in the figure, the determination file 32 defines at least two sets of “determination condition statements” for “controlling IO” IDs 1 and 2.

図11は、複数の特徴データから抽出した特徴項目及び特徴データ値の一例である。即ち、同一人物(例えば人物ID:0001)が撮像されている直近10フレーム分の特徴データの中から、特徴項目「サングラスの有無」(Sunglasses)、「エリア1にいる」(Stay[1])、「エリア2にいる」(Stay[2])を抽出し、その値(0又は1)をグラフに示した。また同一人物が撮像されている直近10000msec以内のフレームの特徴データの中から、特徴項目「きょろきょろしている」(Rove)を抽出し、その値(0又は1)をグラフに示した。   FIG. 11 is an example of feature items and feature data values extracted from a plurality of feature data. That is, from the feature data for the last 10 frames in which the same person (for example, person ID: 0001) is imaged, the feature items “Sunglasses” (Sunglasses), “I am in area 1” (Stay [1]) , “I am in area 2” (Stay [2]) was extracted and the value (0 or 1) was shown in the graph. In addition, feature items “Rove” were extracted from the feature data of the latest frame within 10,000 msec in which the same person was imaged, and the value (0 or 1) is shown in the graph.

まず、「制御するIO」がID1、「制御内容」が開であるところの「個別条件」である「FrameCount(Sunglasses,2,5)」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Sunglasses」が「真」(特徴データにおいてSunglasses=1)である回数が、2回以上あるかどうかを判定する条件である。図11より、直近の5フレーム中、1、2、3、5フレームにおいて、サングラスがありとなっている。従って判定部40は、「FrameCount(Sunglasses,2,5)」に対し、「真」を出力する。   First, a determination is made regarding “FrameCount (Sunglasses, 2, 5)” which is an “individual condition” where “IO to be controlled” is ID1 and “control content” is open. This individual condition means a condition for determining whether or not the number of times that the feature keyword “Sunglasses” is “true” (Sunglasses = 1 in the feature data) among the most recent five frames is two or more. is there. From FIG. 11, sunglasses are present in 1, 2, 3, 5 frames among the latest 5 frames. Accordingly, the determination unit 40 outputs “true” to “FrameCount (Sunglasses, 2, 5)”.

次に「制御するIO」がID1、「制御内容」が開であるところの「個別条件」である「FrameCount(Stay[1],3,5)」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Stay[1]」が「真」(Stay[1]=1)である回数が、3回以上あるかどうかを判定する条件である。図11より、直近の5フレーム中、1、2、3、5フレームにおいて、エリア1にいるとなっている。従って判定部40は、「FrameCount(Stay[1],3,5)」に対し、「真」を出力する。   Next, a determination is made regarding “FrameCount (Stay [1], 3, 5)”, which is an “individual condition” where “IO to be controlled” is ID1, and “control content” is open. The meaning of this individual condition is whether the number of times the characteristic keyword “Stay [1]” is “true” (Stay [1] = 1) out of the last five frames is three or more. It is a condition to do. From FIG. 11, in the last five frames, it is in area 1 in 1, 2, 3, 5 frames. Therefore, the determination unit 40 outputs “true” to “FrameCount (Stay [1], 3, 5)”.

最後に、ここでの「総合条件」(判定条件文)は、「個別条件」である「FrameCount(Sunglasses,2,5)」と、「FrameCount(Stay[1],3,5)」とが、andの接続キーで接続されている。上述のようにそれぞれの「個別条件」の判定結果からすると、「真」and「真」となっているので、判定部40は、最終的に「総合条件」である「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5)」に対し、「真」を出力する。またその結果、「制御するIO」がID1の出力対象先に対し、「制御内容」である開(ON)を出力する。   Finally, the “total condition” (judgment condition statement) here is “FrameCount (Sunglasses, 2,5)” and “FrameCount (Stay [1], 3,5)”, which are “individual conditions”. Connected with the and connection key. As described above, according to the determination result of each “individual condition”, “true” and “true” are obtained, so that the determination unit 40 finally determines “FrameCount (Sunglasses, 2, 5) and “FrameCount (Stay [1], 3,5)” are output as “true”. As a result, “IO to be controlled” outputs “ON” as “control content” to the output target of ID1.

一方、「制御するIO」がID1、「制御内容」が閉であるところの「個別条件」である「Not(FrameCount(Stay[1],3,5))」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Stay[1]」が「真」(Stay[1]=1)である回数が、3回ないかどうかを判定する条件である。図11より、直近の5フレーム中、1、2、3、5フレームにおいて、エリア1にいるとなっている。従って判定部40は、「Not(FrameCount(Stay[1],3,5))」に対し、「偽」を出力する。ここでは「個別条件」1つのみであるため、これが「総合条件」に相当する。判定部40は、最終的に「総合条件」である「Not(FrameCount(Stay[1],3,5))」に対し、「偽」を出力する。またその結果、「制御するIO」がID1の出力対象先に対し、「制御内容」である閉(OFF)を出力しない。   On the other hand, a determination is made regarding “Not (FrameCount (Stay [1], 3, 5))”, which is an “individual condition” where “IO to be controlled” is ID1 and “control content” is closed. This individual condition means that the number of times that the characteristic keyword “Stay [1]” is “true” (Stay [1] = 1) out of the five most recent frames is not three. It is a condition. From FIG. 11, in the last five frames, it is in area 1 in 1, 2, 3, 5 frames. Therefore, the determination unit 40 outputs “false” to “Not (FrameCount (Stay [1], 3,5))”. Since there is only one “individual condition” here, this corresponds to the “total condition”. The determination unit 40 finally outputs “false” to “Not (FrameCount (Stay [1], 3,5))” which is the “total condition”. As a result, “control IO” does not output “closed (OFF)” that is “control content” to the output destination of ID1.

以上に基づき、「制御するIO」がID1の判定条件文と、「制御するIO」がID1の出力対象先に対する判定結果とを考察する。つまり、ユーザはこの判定条件文によって、サングラスを着用している人物がエリア1(例えば立ち入り禁止区域)にいる場合、ID1の出力対象先(例えば警報器4)を鳴らすという使用目的をもって判定ファイル32を定義、作成しているものである。そして実際の特徴データにおいて、この判定条件を満たす特徴、行動の人物が検知されたことにより、警備装置1は警報器4に対し開(ON)を出力し、また警報器4はアラートを鳴らすものである。   Based on the above, the determination condition sentence with “controlling IO” being ID1 and the determination result for the output target destination with “controlling IO” being ID1 will be considered. That is, according to the determination condition sentence, when the person wearing sunglasses is in Area 1 (for example, a no-go-in area), the determination file 32 has a purpose of using the ID1 output target (for example, the alarm device 4). Is defined and created. In the actual feature data, when a feature or action person satisfying this determination condition is detected, the security device 1 outputs open (ON) to the alarm device 4, and the alarm device 4 sounds an alert. It is.

その後、この人物がエリア1外に移動するなどして、「FrameCount(Stay[1],3,5)」を満たさなくなった場合、逆に「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5)」に対しては「偽」が出力され、「Not(FrameCount(Stay[1],3,5))」に対し「真」が出力されることになるため、警備装置1は警報器4に対し閉(OFF)を出力し、また警報器4はアラートを停止する。   After that, if this person moves out of area 1 and does not satisfy “FrameCount (Stay [1], 3,5)”, conversely, “FrameCount (Sunglasses, 2,5) and FrameCount (Stay [ “1”, 3,5) ”will be output as“ false ”, and“ Not (FrameCount (Stay [1], 3,5)) ”will be output as“ true ”. The device 1 outputs a close (OFF) to the alarm device 4, and the alarm device 4 stops the alert.

さて今度は、「制御するIO」がID2、「制御内容」が開であるところの「個別条件」である「FrameCount(Sunglasses,2,5)」に関し判定する。ここは上述と同様の要領にて、判定部40は、「FrameCount(Sunglasses,2,5)」に対し、「真」を出力する。   Now, a determination is made regarding “FrameCount (Sunglasses, 2, 5)” which is an “individual condition” where “IO to be controlled” is ID2 and “control content” is open. Here, the determination unit 40 outputs “true” to “FrameCount (Sunglasses, 2, 5)” in the same manner as described above.

次に「制御するIO」がID2、「制御内容」が開であるところの「個別条件」である「FrameCount(Stay[1],3,5)」に関し判定する。ここも上述と同様の要領にて、判定部40は、「FrameCount(Stay[1],3,5)」に対し、「真」を出力する。   Next, a determination is made regarding “FrameCount (Stay [1], 3, 5)”, which is an “individual condition” where “IO to be controlled” is ID2, and “control content” is open. Here, the determination unit 40 outputs “true” to “FrameCount (Stay [1], 3, 5)” in the same manner as described above.

次に「制御するIO」がID2、「制御内容」が開であるところの「個別条件」である「TimeCount(Rove,5000,10000)」に関し判定する。この個別条件が意味するところは、
直近の対象時間10000msecの中で、特徴キーワード「Rove」が「真」を出力した時間の合計が検知時間5000msec以上であるかどうかを判定する条件である。図11より、直近の10000msec中、1000〜3000、4000〜9000msecにおいて、エリア1にいるとなっている。従って判定部40は、「TimeCount(Rove,5000,10000)」に対し、「真」を出力する。
Next, a determination is made regarding “TimeCount (Rove, 5000, 10000)” which is an “individual condition” where “IO to be controlled” is ID2 and “control content” is open. This individual condition means:
This is a condition for determining whether or not the total of the times when the characteristic keyword “Rove” outputs “true” in the latest target time of 10000 msec is the detection time of 5000 msec or more. From FIG. 11, it is in the area 1 in 1000 to 3000 and 4000 to 9000 msec in the latest 10,000 msec. Therefore, the determination unit 40 outputs “true” to “TimeCount (Rove, 5000, 10000)”.

最後に、ここでの「総合条件」(判定条件文)は、「個別条件」である「FrameCount(Sunglasses,2,5)」と、「FrameCount(Stay[1],3,5)」と、「TimeCount(Rove,5000,10000)」が、andの接続キーで接続されている。それぞれの「個別条件」の判定結果からすると、「真」and「真」and「真」であるので、判定部40は、最終的に「総合条件」である「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5) and TimeCount(Rove,5000,10000)」に対し、「真」を出力する。またその結果、「制御するIO」がID2の出力対象先に対し、「制御内容」である開(ON)を出力する。   Finally, the “total condition” (judgment condition statement) here is “FrameCount (Sunglasses, 2,5)” and “FrameCount (Stay [1], 3,5)”, which are “individual conditions”, “TimeCount (Rove, 5000,10000)” is connected with the connection key of “and”. According to the determination result of each “individual condition”, it is “true” and “true” and “true”. Therefore, the determination unit 40 finally determines “FrameCount (Sunglasses, 2, 5) which is the“ total condition ”. “True” is output for “and FrameCount (Stay [1], 3,5) and TimeCount (Rove, 5000,10000)”. As a result, “IO to be controlled” outputs “ON” as “control content” to the output target of ID2.

一方、「制御するIO」がID2、「制御内容」が閉であるところの「個別条件」である「FrameCount(Stay[2],3,5)」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Stay[2]」が「真」(Stay[2]=1)である回数が、3回以上あるかどうかを判定する条件である。図11より、直近の5フレーム中、エリア2にいないとなっている。従って判定部40は、「FrameCount(Stay[2],3,5)」に対し、「偽」を出力する。ここでは「個別条件」1つのみであるため、これが「総合条件」に相当する。判定部40は、最終的に「総合条件」である「FrameCount(Stay[2],3,5)」に対し、「偽」を出力する。またその結果、「制御するIO」がID2の出力対象先に対し、「制御内容」である閉(OFF)を出力しない。   On the other hand, a determination is made regarding “FrameCount (Stay [2], 3, 5)” which is an “individual condition” where “IO to be controlled” is ID2 and “control content” is closed. This individual condition means whether or not the number of times the feature keyword “Stay [2]” is “true” (Stay [2] = 1) out of the last five frames is three or more. It is a condition to do. From FIG. 11, it is not in area 2 in the latest 5 frames. Accordingly, the determination unit 40 outputs “false” to “FrameCount (Stay [2], 3, 5)”. Since there is only one “individual condition” here, this corresponds to the “total condition”. The determination unit 40 finally outputs “false” to “FrameCount (Stay [2], 3, 5)” which is the “total condition”. As a result, “control IO” does not output “control content” closed (OFF) to the output target ID2.

以上に基づき、「制御するIO」がID2の判定条件文と、「制御するIO」がID2の出力対象先に対する判定結果とを考察する。つまり、ユーザはこの判定条件文によって、サングラスを着用している人物がエリア1に位置しているうえ、さらにきょろきょろしている場合、ID2の出力対象先(例えば監視センタ3)へ通報するという使用目的をもって判定ファイル32を定義、作成しているものである。そして実際の特徴データにおいて、この判定条件を満たす特徴、行動の人物が検知されたことにより、警備装置1は監視センタ3に対し開(ON)を出力し、また監視センタ3は通報を受信するものである。   Based on the above, the determination condition sentence with “controlling IO” being ID2 and the determination result for the output target destination with “controlling IO” being ID2 will be considered. That is, the user uses this judgment condition sentence to notify the output target of ID2 (for example, the monitoring center 3) when the person wearing sunglasses is located in the area 1 and is still in a hurry. The determination file 32 is defined and created with a purpose. In the actual feature data, when a feature or action person satisfying this determination condition is detected, the security device 1 outputs open (ON) to the monitoring center 3, and the monitoring center 3 receives the notification. Is.

その後、この人物がエリア1外に移動し、エリア2(例えば建物玄関等)へ移動するなどして、「FrameCount(Stay[1],3,5)」を満たさなくなり、また「FrameCount(Stay[2],3,5)」を満たした場合、逆に「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5) and TimeCount(Rove,5000,10000)」に対しては「偽」が出力され、「FrameCount(Stay[1],3,5)」に対し「真」が出力されることになるため、警備装置1は監視センタ3に対し閉(OFF)を出力する。監視センタ3はこの人物がエリア2(例えば建物玄関等)、つまり建物外へ出たことを把握できる。   After that, this person moves out of area 1 and moves to area 2 (for example, a building entrance), so that “FrameCount (Stay [1], 3,5)” is not satisfied, and “FrameCount (Stay [ 2], 3,5) ”, and conversely for“ FrameCount (Sunglasses, 2,5) and FrameCount (Stay [1], 3,5) and TimeCount (Rove, 5000,10000) ” Since “false” is output and “true” is output for “FrameCount (Stay [1], 3,5)”, the security device 1 outputs closed (OFF) to the monitoring center 3. . The monitoring center 3 can grasp that the person has moved out of the area 2 (for example, a building entrance), that is, outside the building.

以上纏めると、ユーザはこの判定条件文によって、サングラスを着用している人物がエリア1にいる場合、警報器4を鳴らすようにした。またさらにその人物がきょろきょろと不審な行動をしている場合には、警報器4に加えて監視センタ3へ通報するようにしたことになる。そしてまた、サングラスを着用している人物がエリア1から移動した場合には、警報器4を解除し、さらにエリア2へ移動した場合、つまり建物外へ出た場合には、監視センタ3への通報を解除するようにしたことになる。   In summary, the user sounds the alarm device 4 when the person wearing sunglasses is in the area 1 according to the determination condition sentence. Further, when the person is suspiciously behaving suspiciously, in addition to the alarm device 4, the person is notified to the monitoring center 3. Also, when a person wearing sunglasses moves from the area 1, the alarm device 4 is released, and when the person moves further to the area 2, that is, when the person goes out of the building, The report is canceled.

なお、本判定ファイル32による判定においては、説明の便宜上、例えば「FrameCount(Sunglasses,2,10)」、「FrameCount(Stay[1],3,5)」などの直近の規定フレーム数は、10などの比較的小さな数値を使用して説明している。しかしながら実際の場合、上述の如くカメラ2aは、静止画像を1秒間に約20〜30画像(フレーム)を撮像し、警備装置1に対し入力する。よって、現実的な直近の規定フレーム数としてはもう少し大きな値を用いることができる。より具体的には例えば「FrameCount(Sunglasses,20,100)」、「FrameCount(Stay[1],30,50)」などとすることができる。   In the determination by the determination file 32, for the convenience of explanation, for example, the most recent specified number of frames such as “FrameCount (Sunglasses, 2, 10)”, “FrameCount (Stay [1], 3, 5)” is 10 It is explained using relatively small numbers. However, in the actual case, as described above, the camera 2a captures about 20 to 30 images (frames) per second and inputs them to the security device 1. Therefore, a slightly larger value can be used as the realistic most recent specified number of frames. More specifically, for example, “FrameCount (Sunglasses, 20, 100)”, “FrameCount (Stay [1], 30, 50)”, and the like can be used.

[システム動作]
本実施形態に係る警備システム100におけるシステム動作(情報処理)を説明する。上述にて既に説明済みの点と重複する点もあるが、全体的な動作を示すため、あらためて以下、(1)特徴データ生成ステップ、(2)不審人物の判定ステップ、(3)判定結果の出力ステップの大きく3つに分け説明を行う。
[System operation]
A system operation (information processing) in the security system 100 according to the present embodiment will be described. Although there are some points that have already been described above, in order to show the overall operation, the following will be repeated: (1) feature data generation step, (2) suspicious person determination step, (3) determination result The description is divided into three main output steps.

(1)特徴データ生成ステップ
警備装置1は警備を開始すると、カメラ2a及びセンサ2bから画像及び検知信号が入力されてくる。警備装置1は、画像や検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新する。この動作は、警備装置1が警備をし続ける限り繰り返し行われる。
(1) Feature data generation step When the security device 1 starts security, an image and a detection signal are input from the camera 2a and the sensor 2b. The security device 1 performs an image analysis process every time an image or a detection signal is input, and generates feature data for each person ID (given for each person using a face authentication result or the like) from the result of the image analysis process. From time to time, it is stored and updated in the feature DB 31. This operation is repeated as long as the security device 1 keeps guarding.

図12は、特徴データ生成処理を説明するフローチャートである。以下図面に沿って説明する。   FIG. 12 is a flowchart illustrating the feature data generation process. This will be described below with reference to the drawings.

S1:警備装置1の入力部10は、画像(及び検知信号)が入力されたか否かを判定する。警備を開始すると通常の場合、カメラ2aやセンサ2bから画像及び検知信号が次々と入力されてくることになる。   S1: The input unit 10 of the security device 1 determines whether an image (and a detection signal) is input. When security is started, in the normal case, images and detection signals are successively input from the camera 2a and the sensor 2b.

S2:画像解析処理部20は、入力された画像(及び検知信号)に対し画像解析処理を行う。ここではまず画像の画像解析及び検知信号により、人物が写っているかどうかを検出する。   S2: The image analysis processing unit 20 performs image analysis processing on the input image (and detection signal). Here, first, it is detected whether or not a person is shown by image analysis and detection signals.

S3:画像解析処理部20は、人物が検出されたか否かを判定する。人物が検出されない場合には、特徴データは生成しなくてよいからである(只の風景画像)。   S3: The image analysis processing unit 20 determines whether a person is detected. This is because when no person is detected, feature data does not have to be generated (landscape image of a frog).

S4:画像解析処理部20は、人物が検出された場合、その人物の特徴や行動を各特徴項目(図3)に従い、入力された画像(検知信号)に対し画像解析によって解析し、特徴データ項目毎の特徴データ値を検出する。そして1画像(1フレーム)、1人物に対し、1の特徴データを生成する。   S4: When a person is detected, the image analysis processing unit 20 analyzes the input image (detection signal) by image analysis according to each feature item (FIG. 3), and the feature data. The feature data value for each item is detected. Then, one feature data is generated for one image (one frame) and one person.

S5:最後に画像解析処理部20は、人物ID毎に特徴データを時系列に並べるなどして集計し、特徴DB31に蓄積する。具体的には、検出された人物に対し顔認証結果等を使って人物を特定し、過去に検出されている人物である場合は、その人物に対し発行済みの人物IDを特徴データ(図3[ID=xxxx])に付せばよい。また過去に検出されていない初めての人物である場合は、その人物に対し新たに人物IDを発行し、その人物IDを特徴データ(図3[ID=xxxx])に付せばよい。   S5: Finally, the image analysis processing unit 20 totals the feature data for each person ID, for example, by arranging them in time series, and accumulates them in the feature DB 31. Specifically, a person is identified using a face authentication result or the like for the detected person. If the person has been detected in the past, the person ID issued to that person is used as the feature data (FIG. 3). [ID = xxxx]). If it is the first person that has not been detected in the past, a new person ID is issued to the person, and the person ID is added to the feature data ([ID = xxxx] in FIG. 3).

以上により、人物を含む画像が入力されるたびに、人物ID毎に特徴データ(例えば図3参照)が生成され、特徴DB31に蓄積される(例えば図2参照)。
(2)不審人物の判定ステップ
警備装置1が警備を開始すると、その判定部40は、判定ファイル32と、人物毎の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。判定処理のタイミングとしては、例えば入力された画像(及び検知信号)に基づき何らかの人物が検出されたタイミングにおいて判定を行うこともできるし、一定の所定間隔で定期的に判定を行うこともできる。
As described above, each time an image including a person is input, feature data (see, for example, FIG. 3) is generated for each person ID and stored in the feature DB 31 (see, for example, FIG. 2).
(2) Suspicious Person Determination Step When the security device 1 starts security, the determination unit 40 compares and collates the determination file 32 with feature data for each person, and the person is a person to be detected as a suspicious person. It is determined whether or not there is. As the timing of the determination process, for example, the determination can be performed at the timing when some person is detected based on the input image (and the detection signal), or the determination can be performed periodically at a predetermined interval.

図13は、不審人物の判定処理を説明するフローチャートである。以下図面に沿って説明する。   FIG. 13 is a flowchart for explaining a suspicious person determination process. This will be described below with reference to the drawings.

S11:警備装置1の判定部40は、判定処理を行うべきタイミングあるか否かを判定する。ここでは画像解析処理部20により入力された画像(及び検知信号)に基づき人物が検出されたタイミングにおいて判定処理を開始するようにする。   S11: The determination unit 40 of the security device 1 determines whether or not there is a timing for performing the determination process. Here, the determination process is started at the timing when a person is detected based on the image (and the detection signal) input by the image analysis processing unit 20.

S12:判定部40は、記憶部30から判定ファイル32を取得し、この内容の読み込みを行う。上述の如く、判定ファイル32は、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、判定処理に先立ってユーザにより予め作成され記憶部30に保持されている。   S12: The determination unit 40 acquires the determination file 32 from the storage unit 30 and reads the contents. As described above, the determination file 32 is a file in which a feature to be detected as a suspicious person based on person characteristic data is defined as a determination condition. The determination file 32 is created in advance by the user and stored in the storage unit 30 prior to the determination process. Yes.

S13:判定部40は、特徴データDBから人物毎に集計されたと特徴データを参照する。対象の人物としては、特徴データDB内の全人物ではなく、上述の画像解析処理部20がそのときに入力された画像(及び検知信号)に基づき検出した人物を対象とする。そしてその同人物が検出され続ける限り(例えば同人物が建物内に居続ける限り)、判定処理を継続する。   S13: The determination unit 40 refers to the feature data as being aggregated for each person from the feature data DB. The target person is not the whole person in the feature data DB, but the person detected by the image analysis processing unit 20 based on the image (and the detection signal) input at that time. Then, as long as the same person continues to be detected (for example, as long as the same person stays in the building), the determination process is continued.

S14:判定部40は、判定ファイル32に基づいて、検出された人物の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。具体的な判定方法は上述した通りである。   S14: The determination unit 40 compares and collates the feature data of the detected person based on the determination file 32, and determines whether or not the person should be detected as a suspicious person. The specific determination method is as described above.

S15:判定部40は、不審人物として検知すべき人物であると判定したときには、出力部50に対し監視センタ3や警報器4へ警報の出力を指示する。つまり「制御するIO」に対応する出力対象先に対し、「制御内容」である開(ON)又は閉(OFF)の出力を行う。   S15: When the determination unit 40 determines that the person should be detected as a suspicious person, the output unit 50 instructs the monitoring center 3 and the alarm device 4 to output an alarm. That is, the output target corresponding to “IO to be controlled” is output as “control content” as open (ON) or closed (OFF).

なお、判定部40は画像解析処理部20により入力された画像(及び検知信号)に基づき人物が検出されたタイミングにおいて判定処理を開始するものの、開始直後においては、その瞬間時点では1画像(フレーム)のみしかまだ撮像されておらず、上述の関数(例えばFrameCount(x,y,z))との関係から、所定フレーム数の撮像がなされ十分な特徴データが蓄積されるまでは、判定ファイル32に基づく判定処理を実施できない。よってカメラ2aの撮像能力として1秒間に20〜30画像(フレーム)を撮像できる場合、判定部40は、人物検知直後から1秒なり2秒なり、判定処理が実施可能な特徴データが蓄積されるのを待ってから、判定処理を開始するようにすればよい。   The determination unit 40 starts the determination process at the timing when a person is detected based on the image (and the detection signal) input by the image analysis processing unit 20, but immediately after the start, one image (frame) is detected at that moment. ) Only, and from the relationship with the above-described function (for example, FrameCount (x, y, z)), until the predetermined number of frames are imaged and sufficient feature data is accumulated, the determination file 32 Judgment processing based on cannot be performed. Therefore, when 20 to 30 images (frames) can be captured per second as the imaging capability of the camera 2a, the determination unit 40 stores 1 second from 1 second immediately after human detection, and accumulates feature data that can be subjected to the determination process. The determination process may be started after waiting.

(3)判定結果の出力ステップ
警備装置1は、判定ファイル32に基づく不審人物を検知すると、不審人物検知時に対する対応を行う。つまり不審人物を検知した場合、監視センタ3への通報や警報器4への出力を行う。
(3) Determination result output step When the security device 1 detects a suspicious person based on the determination file 32, the security device 1 responds to the detection of the suspicious person. That is, when a suspicious person is detected, a report to the monitoring center 3 and an output to the alarm device 4 are performed.

図14は、判定結果の出力処理を説明するフローチャートである。   FIG. 14 is a flowchart for explaining determination result output processing.

S21:警備装置1の出力部50は、判定部40より出力指示の入力があったか否かを判定する。ここでいう出力指示は、「制御するIO」に対応する出力対象先に対し、「制御内容」である開(ON)又は閉(OFF)の出力を行う旨の指示である(S15)。   S21: The output unit 50 of the security device 1 determines whether or not an output instruction has been input from the determination unit 40. The output instruction here is an instruction to output “ON” or “OFF” as “control content” to the output target corresponding to “IO to be controlled” (S15).

S22:出力部50は、出力指示に応じた制御を実施する。例えば監視センタ3に対し通報を出力したりまたこれを解除する。また例えば警報器4に対しアラートを鳴らせたり停止させる。   S22: The output unit 50 performs control according to the output instruction. For example, a report is output to the monitoring center 3 or this is canceled. Further, for example, an alarm is sounded or stopped for the alarm device 4.

[具体的な設定方法]
以上、本実施形態に係る警備装置1について説明してきた。ここでは、同警備装置1をある設置先にて設置する場合の設定方法について言及する。具体的には、警備装置1に対しては保守・管理用アプリケーション(保守アプリという)が提供されており、現場技術員は、警備装置1を直接操作又は現場技術員の端末PCを介し、保守アプリを使用して簡便に設定作業を行い、警備装置1の運用を開始することができる。以下説明する。
[Specific setting method]
The security device 1 according to the present embodiment has been described above. Here, the setting method in the case of installing the security apparatus 1 in a certain installation place is mentioned. Specifically, a maintenance / management application (referred to as a maintenance application) is provided for the security device 1, and the field engineer operates the security device 1 directly or via the terminal PC of the field technician. The setting operation can be easily performed using the security device 1, and the operation of the security device 1 can be started. This will be described below.

図15は、保守アプリの設定画面例(その1)を示す。例えば病院の待合室にて、警備装置1を設置するにあたり、現場技術員は、保守アプリの設定画面を使用して基本設定を行うことができる。   FIG. 15 shows a setting screen example (part 1) of the maintenance application. For example, when installing the security device 1 in a waiting room of a hospital, a field engineer can perform basic settings using a setting screen of a maintenance application.

画面右のマップ部1401においては、設置先の基本図面、椅子や棚等のオブジェクトの設置位置、カメラ位置及びカメラの撮像エリア(検知エリア)を設定する。画面左下の基本情報部1402には、カメラの諸設定情報、例えばカメラの名称、位置、向き、俯角、回転角度、エリア等のパラメータを入力する。また画面左上の映像表示部1403には、カメラで撮像されている映像が表示される。基本情報部1402のパラメータに合わせてカメラが動くと、マップ部1401のカメラも合わせて移動する。   In the map section 1401 on the right side of the screen, a basic drawing of an installation destination, an installation position of an object such as a chair or a shelf, a camera position, and an imaging area (detection area) of the camera are set. In the basic information section 1402 at the lower left of the screen, various camera setting information, for example, parameters such as the camera name, position, orientation, depression angle, rotation angle, and area are input. A video image captured by the camera is displayed on the video display unit 1403 at the upper left of the screen. When the camera moves according to the parameters of the basic information unit 1402, the camera of the map unit 1401 also moves.

ここでは例えば、2台のカメラのうち、1つ目のカメラを受付カウンター付近に設置する。また2つ目のカメラを入り口玄関付近に設置する。現場技術員は、保守アプリの設定画面において、カメラの位置等を調整のうえ、位置が決まると、その撮像範囲の名称設定を行うとともに、マップ部1401上から、対応するエリアの範囲を指定する。具体的に例えば、「エリア名」をそれぞれ「エリア1(受付)」と入力するとともに、マップ部1401上において、ドラッグ操作するなどして、入力した「エリア名」と対応するエリア1の範囲を指定する(図中、エリア1の楕円形状範囲)。エリア範囲が決まると、「範囲決定」ボタンを押下すればその範囲で決定される。   Here, for example, the first camera of the two cameras is installed near the reception counter. A second camera will be installed near the entrance. The field engineer adjusts the position of the camera on the setting screen of the maintenance application, and when the position is determined, sets the name of the imaging range and designates the corresponding area range from the map unit 1401. Specifically, for example, each of “area name” is input as “area 1 (acceptance)”, and a drag operation is performed on the map unit 1401 to set the range of area 1 corresponding to the input “area name”. Designate (in the figure, the elliptical range of area 1). When the area range is determined, the range is determined by pressing the “range determination” button.

図16は、保守アプリの設定画面例(その2)を示す。使用目的に応じて現場技術員や、病院のシステム管理者又は警備担当者は、保守アプリの設定画面を使用して判定条件の設定(判定ファイル32の作成)を行うことができる。ここでは本設定画面を使用し、図10の判定ファイル32相当の判定条件を設定(作成)した。   FIG. 16 shows a setting screen example (part 2) of the maintenance application. Depending on the purpose of use, a field engineer, a hospital system administrator, or a security officer can set determination conditions (create a determination file 32) using the setting screen of the maintenance application. Here, this setting screen is used to set (create) determination conditions corresponding to the determination file 32 in FIG.

具体的には、サングラスを着用している人物がエリア1(受付)にいる場合、警報器4を鳴らす。その後、この人物がエリア1外に移動した場合、警報器4を解除する。また、サングラスを着用している人物がエリア1に位置しているうえ、さらにきょろきょろしている場合、監視センタ3へ通報する。その後、エリア2(玄関)へ移動するなどして病院外へ立ち去った場合、監視センタ3への通報を停止する。   Specifically, when a person wearing sunglasses is in area 1 (reception), alarm 4 is sounded. Thereafter, when the person moves out of the area 1, the alarm device 4 is released. In addition, if the person wearing sunglasses is located in area 1 and is still a little intimidated, the monitoring center 3 is notified. Thereafter, when the user leaves the hospital by moving to the area 2 (entrance), the reporting to the monitoring center 3 is stopped.

図中、「出力先」1501は、判定条件を満たした場合、制御の対象となる出力対象先を設定する項目である。ここでは、例えば1:警報(警報器)、2:通報(監視センタ)の中から選択できる。   In the figure, an “output destination” 1501 is an item for setting an output target destination to be controlled when the determination condition is satisfied. Here, it can be selected from, for example, 1: alarm (alarm), 2: report (monitoring center).

「検知時の状態」1502は、判定条件を満たした場合、制御の対象となる出力対象に対する制御の内容を示す。「開」はON、「閉」はOFFと意味する。通常の場合は、「開」に設定しておく。例えば不審者を検知した場合には、警報を鳴らす(即ち「開」)ためである。   The “state at the time of detection” 1502 indicates the content of control for the output target to be controlled when the determination condition is satisfied. “Open” means ON, and “Close” means OFF. In normal cases, it is set to “open”. For example, when a suspicious person is detected, an alarm is sounded (that is, “open”).

「検知対象項目」1503は、検知したい人物の特徴(又は行動)を設定する項目である。選択枝には、例えば「サングラス着用」、「場所から立ち去った」、「行動不審」等といったように、予めユーザにとって分かりやすい特徴表現を用意しておく。勿論、実際の判定ファイル32では、各特長表現に対応した特徴キーワード及びその組み合わせ等でもって、判定条件文が生成される。以下、不審人物検知関連の特徴表現とその特徴表現に対応する判定条件を、関数FrameCountの場合を用いて例示する。なお、ユーザに分かりやすいこれら特徴表現は、1つの特徴表現に対して、開と閉のセットが割り当てられるようになっている。従って、「検知対象項目」1503の選択肢の中から1の特徴表現を選択すれば、「判定条件文」が1セット自動的に生成されることになる。   A “detection target item” 1503 is an item for setting a feature (or action) of a person to be detected. For the selected branch, for example, feature expressions easy to understand for the user are prepared in advance, such as “wearing sunglasses”, “leaving away from place”, “suspicious behavior”, and the like. Of course, in the actual determination file 32, a determination condition sentence is generated using a feature keyword corresponding to each feature expression and a combination thereof. In the following, feature expression related to suspicious person detection and determination conditions corresponding to the feature expression will be exemplified using the function FrameCount. Note that these feature expressions that are easy to understand for the user are assigned a set of open and closed to one feature expression. Accordingly, if one feature expression is selected from the choices of “detection target item” 1503, one set of “judgment condition sentence” is automatically generated.

「サングラス着用」
開 FrameCount(Sunglasses,y,z) and FrameCount(Stay[x],y,z)
閉 Not(FrameCount(Stay[x],y,z))
「不審者」:
開 FrameCount(Sunglasses,y,z) and FrameCount(Stay[x],y,z) and FramCount(Rove,y,z)
閉 FrameCount(Stay[x],y,z)
「場所」1504は、検知したい人物の所在・位置を設定する項目である。ここでは、2台のカメラの撮像範囲のうち、例えばエリア1(受付)、エリア2(玄関)の中から選択できる。
"Sunglasses"
Open FrameCount (Sunglasses, y, z) and FrameCount (Stay [x], y, z)
Closed Not (FrameCount (Stay [x], y, z))
"Suspicious person":
Open FrameCount (Sunglasses, y, z) and FrameCount (Stay [x], y, z) and FramCount (Rove, y, z)
Closed FrameCount (Stay [x], y, z)
“Location” 1504 is an item for setting the location and position of a person to be detected. Here, it is possible to select, for example, from area 1 (reception) or area 2 (entrance) from the imaging range of the two cameras.

「感度」1505は、検知の感度(精度)を設定する項目である。ここでは、例えば1(高)〜5(低)の中から選択できる。実際の判定ファイル32では、この感度は、関数FrameCountの場合、直近の規定フレーム数、特徴キーワードが「真」である指定回数に反映される。例えば感度「2」の場合、感度が上がると検知回数が緩くなるので、「FrameCount(Sunglasses,2,5)」などといったように反映できる。また例えば感度「1」の場合、「FrameCount(Sunglasses,1,5)」などといったように反映できる。   “Sensitivity” 1505 is an item for setting the sensitivity (accuracy) of detection. Here, for example, it can be selected from 1 (high) to 5 (low). In the actual determination file 32, in the case of the function FrameCount, this sensitivity is reflected in the nearest specified number of frames and the designated number of times when the feature keyword is “true”. For example, in the case of sensitivity “2”, the number of detections decreases as the sensitivity increases, and can be reflected as “FrameCount (Sunglasses, 2, 5)”. For example, when the sensitivity is “1”, it can be reflected as “FrameCount (Sunglasses, 1, 5)”.

「ポップアップ」1506は、例えば警備装置1のモニタ画面において、判定条件を満たした場合、その旨をポップアップでユーザに知らせる機能のON/OFFを設定する項目である。   “Pop-up” 1506 is an item for setting ON / OFF of a function that informs the user of a pop-up when the determination condition is satisfied on the monitor screen of the security device 1, for example.

「無効」1507は、その設定行の有効/無効を設定する項目である。チェックボックスにチェックがされている行(判定条件)については、ないものとして取り扱われる。   “Invalid” 1507 is an item for setting validity / invalidity of the setting line. A line (judgment condition) for which the check box is checked is treated as not present.

以上のように、本実施形態に係る警備装置1の判定ファイル作成部60は、保守アプリの設定画面を介し、簡便に判定ファイル32の作成を行うことができる。特に、専門知識を有しない病院のシステム管理者又は警備担当者が、判定条件を設定・変更するのは困難であるが、このような保守アプリの設定画面を使用することにより、容易に判定条件の設定(判定ファイル32の作成)を行うことができる。   As described above, the determination file creation unit 60 of the security device 1 according to the present embodiment can easily create the determination file 32 via the maintenance application setting screen. In particular, it is difficult for a hospital system administrator or security officer who does not have specialized knowledge to set or change the judgment conditions. By using such a maintenance application setting screen, the judgment conditions can be easily set. Can be set (creation of the determination file 32).

なおいうまでもなく、実施形態に係る保守アプリの設定画面を使用せずとも、判定ファイル32の作成を行うことができることは明らかである。例えば、保守アプリの設定画面の「検知対象項目」1503の特徴表現だけでは設定しきれない人物及びその特徴を設定したい場合、現場技術員は、警備装置1の記憶部30に保存される判定ファイル32を直接、作成又は編集することにより、いかようにもより柔軟で高度な判定条件を作成することが可能である。   Needless to say, the determination file 32 can be created without using the setting screen of the maintenance application according to the embodiment. For example, when it is desired to set a person who cannot be set only by the feature expression of “detection target item” 1503 on the setting screen of the maintenance application and the feature thereof, the field engineer determines the determination file 32 stored in the storage unit 30 of the security device 1 It is possible to create a more flexible and advanced determination condition by directly creating or editing the above.

[総括]
以上、本実施形態に係る警備装置1は、判定ファイルと個々の特徴項目毎に集計された特徴データとに基づき、判定ファイルにおいて定義されている特徴を有する人物を検知する。この判定ファイルでは、特徴データの個々の特徴項目に対応した特徴キーワードを組合せて使用できるため、ユーザの意図に適った検知用の判定条件の定義、作成を柔軟に行うことができる。また併せて設定画面からは、知識のないものであっても選択枝の中から、抽象的な特徴表現を選択するだけで、検知用の判定条件の定義、作成を容易に行うことができる。即ち、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することが可能となる。
[Summary]
As described above, the security device 1 according to the present embodiment detects a person having a feature defined in the determination file based on the determination file and the feature data aggregated for each feature item. In this determination file, feature keywords corresponding to individual feature items of the feature data can be used in combination, so that determination conditions for detection suitable for the user's intention can be defined and created flexibly. In addition, even if there is no knowledge from the setting screen, the determination condition for detection can be easily defined and created simply by selecting an abstract feature expression from the selection. In other words, when detecting a suspicious person, by defining and creating flexible detection criteria according to the installation location and purpose of use, it can be used universally regardless of the location or purpose of use. It is possible to provide a security device.

なお、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。上述の実施形態においては、本発明をビル建物に適用した一例を示したが、家庭用の住居やマンション等にも同様に本発明を適用することができることはいうまでもない。   Note that the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. In the above-described embodiment, an example in which the present invention is applied to a building is shown. However, it goes without saying that the present invention can be similarly applied to homes and apartments.

1 警備装置
2 データ入力装置
2a カメラ
2b センサ
3 監視センタ
4 警報器
10 入力部
20 画像解析処理部
30 記憶部
40 判定部
50 出力部
60 判定ファイル作成部
100 警備システム
DESCRIPTION OF SYMBOLS 1 Security apparatus 2 Data input device 2a Camera 2b Sensor 3 Monitoring center 4 Alarm device 10 Input part 20 Image analysis process part 30 Storage part 40 Judgment part 50 Output part 60 Judgment file creation part 100 Security system

Claims (5)

人物の特徴を示す複数の種類の特徴データ値を含む特徴データを人物毎に対応付けて記憶した第1記憶手段と、
前記特徴データ値が示す人物の特徴に対応する特徴キーワードの組合せから定義される判定条件を含む判定ファイルを記憶した第2記憶手段と、
前記特徴データの特徴データ値と前記判定ファイルの判定条件とのマッチ比較に基づき、該判定条件を満たすか否かの判定を行い、該判定条件を満たすとき、該特徴データに対応付けられた人物を検知人物として検知する判定手段と、
前記検知人物を検知したとき、出力先に対する制御信号を出力する出力手段とを有し、
前記判定ファイルは、種類の異なる複数の前記特徴キーワードが接続キーを用いて組合されて定義される判定条件と、該判定条件を満たすと判定されたときに人物検知を出力する出力先と、該出力先に対する制御信号の内容とにより構成されること、
を特徴とする警備装置。
First storage means for storing feature data including a plurality of types of feature data values indicating the features of a person in association with each person;
Second storage means for storing a determination file including a determination condition defined from a combination of characteristic keywords corresponding to a characteristic of a person indicated by the characteristic data value;
Based on the match comparison between the feature data value of the feature data and the determination condition of the determination file, it is determined whether or not the determination condition is satisfied, and when the determination condition is satisfied, the person associated with the feature data Determining means for detecting a person as a detected person;
An output means for outputting a control signal for the output destination when the detected person is detected;
The determination file includes a determination condition defined by combining a plurality of different types of feature keywords using a connection key, an output destination that outputs person detection when it is determined that the determination condition is satisfied, Configured with the contents of the control signal for the output destination,
Security device characterized by.
前記判定ファイルを作成するための画面を提供するとともに、該画面において、検知すべき人物の特徴を示す特徴表現のうち1の特徴表現が選択されたとき、該特徴表現に予め対応付けられている前記特徴キーワード又は前記接続キーを用いて種類の異なる複数の前記特徴キーワードの組合せを作成し、作成した該特徴キーワード又は該特徴キーワードの組合せから定義される判定条件を含む判定ファイルを作成する判定ファイル作成手段とを有し、
前記判定ファイル作成手段により作成された判定ファイルは、前記第2記憶手段に記憶されること、
を特徴とする請求項1記載の警備装置。
A screen for creating the determination file is provided, and when one feature representation is selected from the feature representations indicating the characteristics of the person to be detected on the screen, the screen is associated with the feature representation in advance. A determination file that creates a combination of a plurality of different types of feature keywords using the feature keyword or the connection key and creates a determination file that includes a determination condition defined from the created feature keyword or the combination of feature keywords Creating means,
The determination file created by the determination file creation means is stored in the second storage means;
The security device according to claim 1.
前記判定手段は、1の特徴キーワード毎に、該特徴キーワードに対応する特徴データ値とのマッチ比較に基づき「真」又は「偽」の値を出力し、次いで出力された「真」又は「偽」の値が、前記接続キーで組み合わされたときに該判定条件を満たすか否かの判定を行い、満たす場合には「真」の値を、満たさない場合には「偽」の値を出力すること、
を特徴とする請求項1又は2記載の警備装置。
The determination means outputs a value of “true” or “false” for each feature keyword based on a match comparison with the feature data value corresponding to the feature keyword, and then outputs “true” or “false” When the value is combined with the connection key, it is determined whether or not the determination condition is satisfied. If the value is satisfied, the value “true” is output. If the value is not satisfied, the value “false” is output. To do,
The security device according to claim 1 or 2.
前記判定手段は、前記判定条件において所定関数が含まれている場合であって、1の特徴キーワード毎に、前記所定関数の第1パラメータで指定されている指定数分の特徴データの中から該特徴キーワードに対応する特徴データ値との比較に基づき、「真」又は「偽」の値を出力するとき、前記指定数分の特徴データのうち、前記所定関数の第2パラメータで指定されている指定数分の特徴データが前記特徴キーワードにマッチした場合には、「真」の値を出力すること、
を特徴とする請求項3記載の警備装置。
The determination means is a case where a predetermined function is included in the determination condition, and for each characteristic keyword, the determination means includes the specified number of characteristic data specified by the first parameter of the predetermined function. Based on the comparison with the feature data value corresponding to the feature keyword, when the value of “true” or “false” is output, it is specified by the second parameter of the predetermined function among the specified number of feature data. When the specified number of feature data matches the feature keyword, a value of “true” is output,
The security device according to claim 3.
少なくともカメラからの画像を入力する入力手段と、
前記画像に対し画像解析処理を行うとともに、該画像内に解析された人物の特徴データを人物毎に集計する画像解析手段とを有し、
前記画像解析手段により人物毎に集計された特徴データは、前記第1記憶手段に記憶されること、
を特徴とする請求項1ないし4何れか一項記載の警備装置。
Input means for inputting at least an image from the camera;
The image analysis processing is performed on the image, and image analysis means for collecting the feature data of the person analyzed in the image for each person,
Feature data aggregated for each person by the image analysis means is stored in the first storage means;
The security device according to claim 1, wherein:
JP2011074731A 2011-03-30 2011-03-30 Security system Pending JP2012208793A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011074731A JP2012208793A (en) 2011-03-30 2011-03-30 Security system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011074731A JP2012208793A (en) 2011-03-30 2011-03-30 Security system

Publications (1)

Publication Number Publication Date
JP2012208793A true JP2012208793A (en) 2012-10-25

Family

ID=47188449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011074731A Pending JP2012208793A (en) 2011-03-30 2011-03-30 Security system

Country Status (1)

Country Link
JP (1) JP2012208793A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174796A1 (en) * 2013-04-23 2014-10-30 日本電気株式会社 Information processing system, information processing method and storage medium
JP2016062131A (en) * 2014-09-16 2016-04-25 日本電気株式会社 Video monitoring device
JP2017040983A (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system and person image display method
WO2017029779A1 (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system, person image display method, and report creation method
JP2017040982A (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system and report preparation method
JP2017045315A (en) * 2015-08-27 2017-03-02 パナソニックIpマネジメント株式会社 Security system and person image display method
JP2018101317A (en) * 2016-12-21 2018-06-28 ホーチキ株式会社 Abnormality monitoring system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005129003A (en) * 2003-06-09 2005-05-19 Hitachi Kokusai Electric Inc Device for detecting change
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2009205617A (en) * 2008-02-29 2009-09-10 Sogo Keibi Hosho Co Ltd Security device, and security system update method
JP2010122746A (en) * 2008-11-17 2010-06-03 Secom Co Ltd Image monitoring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005129003A (en) * 2003-06-09 2005-05-19 Hitachi Kokusai Electric Inc Device for detecting change
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2009205617A (en) * 2008-02-29 2009-09-10 Sogo Keibi Hosho Co Ltd Security device, and security system update method
JP2010122746A (en) * 2008-11-17 2010-06-03 Secom Co Ltd Image monitoring device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174796A1 (en) * 2013-04-23 2014-10-30 日本電気株式会社 Information processing system, information processing method and storage medium
US9666064B2 (en) 2013-04-23 2017-05-30 Nec Corporation Information processing system, information processing method and storage medium
JP2016062131A (en) * 2014-09-16 2016-04-25 日本電気株式会社 Video monitoring device
US10223619B2 (en) 2014-09-16 2019-03-05 Nec Corporation Video monitoring apparatus, control apparatus, control method, and non-transitory readable storage medium
JP2017040983A (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system and person image display method
WO2017029779A1 (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system, person image display method, and report creation method
JP2017040982A (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system and report preparation method
JP2017045315A (en) * 2015-08-27 2017-03-02 パナソニックIpマネジメント株式会社 Security system and person image display method
JP2018101317A (en) * 2016-12-21 2018-06-28 ホーチキ株式会社 Abnormality monitoring system

Similar Documents

Publication Publication Date Title
US11632292B2 (en) Cooperative monitoring networks
JP5560397B2 (en) Autonomous crime prevention alert system and autonomous crime prevention alert method
JP2012208793A (en) Security system
US10424175B2 (en) Motion detection system based on user feedback
KR101133924B1 (en) Active image monitoring system using motion pattern database, and method thereof
CN105450983B (en) Apparatus for generating virtual panorama thumbnail
US20180315200A1 (en) Monitoring system
US20170076576A1 (en) Activity monitoring method and system
KR102058452B1 (en) IoT Convergence Intelligent Video Analysis Platform System
US20070252693A1 (en) System and method for surveilling a scene
KR20040068195A (en) Adaptive environment system and method of providing an adaptive environment
US10891492B2 (en) Method and a system for providing privacy enabled surveillance in a building
JP2010272958A (en) Monitoring device, monitoring system, and monitoring program
KR20190052190A (en) PROTECTION SYSTEM FOR VULNERABLE CLASSES USING Internet Of Things AND METHOD THEREFOR
US20210365674A1 (en) System and method for smart monitoring of human behavior and anomaly detection
US10964199B2 (en) AI-based monitoring system for reducing a false alarm notification to a call center
KR101466004B1 (en) An intelligent triplex system integrating crime and disaster prevention and their post treatments and the control method thereof
CN107122743A (en) Security-protecting and monitoring method, device and electronic equipment
US10834363B1 (en) Multi-channel sensing system with embedded processing
KR20190044867A (en) Apparatus for elderly people who lives alone
JP2014067383A (en) Behavior monitoring notification system
EP3188148A1 (en) Intrusion alarm system with learned and dynamic entry delays
KR20210043960A (en) Behavior Recognition Based Safety Monitoring System and Method using Artificial Intelligence Technology and IoT
CN205847453U (en) A kind of wisdom gold eyeball people based on intelligent video technology and the Activity recognition system of thing
JP5188840B2 (en) Security device and update method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150519