JP2010128594A - Motion detection device and motion detection method - Google Patents

Motion detection device and motion detection method Download PDF

Info

Publication number
JP2010128594A
JP2010128594A JP2008299955A JP2008299955A JP2010128594A JP 2010128594 A JP2010128594 A JP 2010128594A JP 2008299955 A JP2008299955 A JP 2008299955A JP 2008299955 A JP2008299955 A JP 2008299955A JP 2010128594 A JP2010128594 A JP 2010128594A
Authority
JP
Japan
Prior art keywords
action
state information
case
information
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008299955A
Other languages
Japanese (ja)
Other versions
JP5091095B2 (en
Inventor
Takuo Moriguchi
拓雄 森口
Takehiro Mabuchi
健宏 馬渕
Satoshi Futami
聡 二見
Masaki Murakawa
正貴 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2008299955A priority Critical patent/JP5091095B2/en
Publication of JP2010128594A publication Critical patent/JP2010128594A/en
Application granted granted Critical
Publication of JP5091095B2 publication Critical patent/JP5091095B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To highly precisely detect the motion of an object by using information on a plurality of objects. <P>SOLUTION: This motion detection device is provided with: a state information DB 151 for storing state information representing the motion state of an object and expressed in a case frame including a verb representing a type of motion of the object and a case element as a noun related to the motion of the object, and indicating a semantic relation between the verb and the case element; a state acquisition part 139 for acquiring a plurality of pieces of state information representing the motion state of each of the plurality of objects from the state information DB151; and a second detection part 140 for, on the basis of a rule predefining the motion of the object corresponding to the combination of verbs included in each of the plurality of pieces of acquired state information, detecting the motion of the object corresponding to the combination. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、カメラなどの撮像手段により撮像された画像情報から人物などの物体の動作を検出する動作検出装置および動作検出方法に関する。   The present invention relates to a motion detection apparatus and a motion detection method for detecting the motion of an object such as a person from image information captured by an imaging means such as a camera.

従来から、監視カメラ等で撮影した画像を分析して、人物などの監視対象物の行動を認識する認識装置が知られている。例えば、特許文献1では、ステレオカメラで撮影した映像から、SVM(サポートベクタマシーン)などのパターン認識技術を用いて正常パターンか異常パターンかを判定することにより、複数の監視対象の中から不審な行動をしている監視対象を検出する技術が提案されている。   2. Description of the Related Art Conventionally, a recognition device that analyzes an image captured by a monitoring camera or the like and recognizes an action of a monitoring target such as a person is known. For example, in Patent Document 1, it is suspicious from a plurality of monitoring targets by determining whether the pattern is a normal pattern or an abnormal pattern using a pattern recognition technique such as SVM (support vector machine) from video captured by a stereo camera. Techniques have been proposed for detecting an action target to be monitored.

特開2008−217602号公報JP 2008-217602 A

しかしながら、特許文献1の方法は、学習した歩行軌跡データを用いることにより、例えば複数人の歩行軌跡情報からパターン認識により異常な行動(歩行軌跡)を検出するものである。すなわち、複数人の歩行軌跡のそれぞれが正常か異常かを判定するのみである。このため、例えば、複数人が共謀して不正行為を行っている場合などでは、個々の人物の歩行軌跡のパターン認識のみでは高精度に行動を検出することができず、結果として異常な行動であると判定できない場合があった。   However, the method of Patent Document 1 detects abnormal behavior (walking trajectory) by pattern recognition from the walking trajectory information of a plurality of persons, for example, by using learned walking trajectory data. That is, it is only determined whether each of a plurality of walking trajectories is normal or abnormal. For this reason, for example, when a plurality of people conspire to perform a fraud, it is not possible to detect an action with high accuracy only by pattern recognition of the walking trajectory of each person, resulting in an abnormal action. In some cases, it could not be determined.

本発明は、上記に鑑みてなされたものであって、複数の物体の情報を用いることにより、高精度に物体の動作を検出することができる動作検出装置および動作検出方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a motion detection device and a motion detection method that can detect the motion of an object with high accuracy by using information on a plurality of objects. And

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段と、前記状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得手段と、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is information representing the motion state of an object, and is related to a verb representing the motion type of the object and the motion of the object. A state storage means for storing state information represented by a case frame indicating a semantic relationship between the verb and the case element, and a plurality of the objects from the state storage means. Based on a rule that predetermines the motion of the object in accordance with a combination of the verbs included in each of the acquired plurality of state information, state acquisition means for acquiring a plurality of the state information representing the operation state of Detecting means for detecting the motion of the object corresponding to the combination.

また、請求項2にかかる発明は、請求項1に記載の動作検出装置において、前記状態情報は、前記格要素として前記物体の動作が発生した時刻を含み、前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、を特徴とする。   According to a second aspect of the present invention, in the motion detection device according to the first aspect, the state information includes a time when the motion of the object has occurred as the case element, and the state acquisition unit is configured to store the state memory. A plurality of the state information having substantially the same time are acquired from the means.

また、請求項3にかかる発明は、請求項1に記載の動作検出装置において、前記状態情報は、前記動作の主体となる物体を表す主格と、前記主格による前記動作の対象となる他の物体を表す対象格と、を前記格要素として含み、前記規則は、前記主格による前記動作の種類を表す前記動詞と前記対象格を主体とする前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、前記検出手段は、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記対象格と他方の前記状態情報である第2状態情報の前記主格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、を特徴とする。   According to a third aspect of the present invention, in the motion detection device according to the first aspect, the state information includes a main character representing an object that is a subject of the motion, and another object that is a target of the motion based on the main character. A combination of the verb that represents the type of the action by the main case and the verb that represents the type of the action mainly based on the target case, and The detection unit includes the operation determined according to the combination, and the detection means includes the target case of the first state information as one of the state information and the state information of the other of the plurality of state information acquired. Is matched when the main case of the second state information is the same, and the combination of the verb of the first state information and the verb of the second state information matches the combination included in the rule Detecting the operation corresponding to the combined, characterized by.

また、請求項4にかかる発明は、請求項1に記載の動作検出装置において、前記状態情報は、前記動作の主体となる物体を表す主格と、前記動作が生じた位置を表す場所格と、を前記格要素として含み、前記規則は、第1物体の前記動作の種類を表す前記動詞と第2物体の前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、前記検出手段は、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記場所格と他方の前記状態情報である第2状態情報の前記場所格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、を特徴とする。   According to a fourth aspect of the present invention, in the motion detection device according to the first aspect, the state information includes a main case that represents an object that is the subject of the motion, and a location case that represents a position where the motion has occurred. The rule is determined according to the combination of the verb representing the type of action of the first object and the verb representing the type of action of the second object, and the combination The detection means includes the location case of the first state information that is one of the state information and the second state information that is the state information of the other of the plurality of state information acquired. The action corresponding to the matched combination when the place case matches and the combination of the verb of the first state information and the verb of the second state information matches the combination included in the rule Detecting, characterized.

また、請求項5にかかる発明は、請求項1に記載の動作検出装置において、前記状態情報は、前記動作の対象となる他の物体を表す対象格を前記格要素として含み、前記検出手段は、さらに、取得された複数の前記状態情報のうち、前記状態情報に含まれる前記動詞が予め定められた特定動詞と一致し、かつ、前記状態情報に含まれる前記対象格が相互に一致する前記状態情報の個数を算出し、前記個数が予め定められた閾値より大きい場合に、異常が発生したことを検出すること、を特徴とする。   According to a fifth aspect of the present invention, in the motion detection device according to the first aspect, the state information includes a target case representing another object to be the target of the motion as the case element, and the detection means Further, among the plurality of acquired state information, the verb included in the state information matches a predetermined specific verb, and the target cases included in the state information match each other. The number of state information is calculated, and when the number is larger than a predetermined threshold, it is detected that an abnormality has occurred.

また、請求項6にかかる発明は、請求項1に記載の動作検出装置において、不審者の動作状態として予め定められた情報であって、前記不審者の動作の種類を表す動詞と、前記不審者の動作に関連する名詞である格要素に関する条件とを含む不審者情報を記憶する不審者情報記憶手段と、検出された前記動作を表す動詞が前記不審者情報に含まれる動詞と一致し、かつ、検出された前記動作に関連する格要素が前記不審者情報に含まれる前記条件を満たす前記動作の主体である前記物体を不審者であると判定する判定手段と、をさらに備えたこと、を特徴とする。   The invention according to claim 6 is the motion detection device according to claim 1, wherein the information is predetermined information as a motion state of the suspicious person, the verb representing the kind of motion of the suspicious person, and the suspicious person. A suspicious person information storage means for storing suspicious person information including a condition related to a case element that is a noun related to a person's action, and a verb representing the detected action matches a verb included in the suspicious person information, And a determination unit that determines that the object that is the subject of the action that satisfies the condition included in the suspicious person information is a suspicious person, as a case element related to the detected action is further included. It is characterized by.

また、請求項7にかかる発明は、状態取得手段が、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得ステップと、検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出ステップと、を備えたことを特徴とする。   In the invention according to claim 7, the state acquisition means includes information indicating the motion state of the object, a verb indicating the motion type of the object, and a case element that is a noun related to the motion of the object. A plurality of pieces of state information representing respective motion states of the plurality of objects are obtained from state storage means for storing state information represented by a case frame indicating a semantic relationship between the verb and the case element. The state acquisition step and the detection means detect the motion of the object corresponding to the combination based on a rule that predetermines the motion of the object according to the combination of the verbs included in each of the acquired plurality of state information And a detecting step.

本発明によれば、予め定められた規則に基づき、複数の物体それぞれの動作状態を表す複数の状態情報に含まれる各物体の動作の種類を表す動詞の組み合わせに応じた物体の動作を検出することができるため、高精度に物体の動作を検出することができるという効果を奏する。   According to the present invention, based on a predetermined rule, a motion of an object corresponding to a combination of verbs representing the motion type of each object included in a plurality of state information representing the motion state of each of the plurality of objects is detected. Therefore, there is an effect that the motion of the object can be detected with high accuracy.

以下に添付図面を参照して、この発明にかかる動作検出装置および動作検出方法の最良な実施の形態を詳細に説明する。   Exemplary embodiments of an operation detection apparatus and an operation detection method according to the present invention will be explained below in detail with reference to the accompanying drawings.

本実施の形態にかかる動作検出装置は、監視カメラで撮像した画像情報から、監視対象物である人物の行動(動作状態)を解析し、解析結果を深層格フレーム構造で表して記憶部に保存する。そして、記憶部に保存した深層格フレームを相互に比較することによって、さらに人物の行動を検出する。具体的には、同時刻に発生した複数人物の行動の組み合わせが、事前に定めた組み合わせに一致する場合に、当該組み合わせに応じた所定の行動が発生したことを検出する。   The motion detection apparatus according to the present embodiment analyzes the behavior (motion state) of a person who is a monitoring target from image information captured by a surveillance camera, and stores the analysis result in a deep case frame structure. To do. Then, the person's action is further detected by comparing the deep case frames stored in the storage unit with each other. Specifically, when a combination of actions of a plurality of persons generated at the same time matches a predetermined combination, it is detected that a predetermined action corresponding to the combination has occurred.

なお、以下では、監視カメラや各種センサからの情報を用いて所定領域を警備する警備装置として動作検出装置を実現した例について説明する。適用可能な装置は警備装置に限られず、画像情報を解析して物体の動作を検出する機能を備える装置であればあらゆる装置に適用できる。   In the following, an example in which the motion detection device is realized as a security device that guards a predetermined area using information from a monitoring camera and various sensors will be described. Applicable devices are not limited to security devices, and can be applied to any device that has a function of analyzing image information and detecting the motion of an object.

本実施の形態について、添付図面を参照して説明する。まず、本実施の形態が適用される監視システムの構成例について説明する。図1は、本実施の形態にかかる監視システム10の構成を示すブロック図である。図1に示すように、監視システム10は、警備装置100と監視センタ200とを備えている。警備装置100と監視センタ200は、電話回線、無線ネットワーク、インターネットなどのネットワーク300を介して接続されている。   The present embodiment will be described with reference to the accompanying drawings. First, a configuration example of a monitoring system to which this exemplary embodiment is applied will be described. FIG. 1 is a block diagram showing a configuration of a monitoring system 10 according to the present embodiment. As shown in FIG. 1, the monitoring system 10 includes a security device 100 and a monitoring center 200. The security device 100 and the monitoring center 200 are connected via a network 300 such as a telephone line, a wireless network, or the Internet.

監視センタ200は、監視領域の異常を検知した警備装置100からの通報を受け、待機中の警備員に対して異常が検知された監視領域(不図示)へ向かう旨の指示を出すとともに、必要に応じて警察や消防等の関係機関への通報を行う。   The monitoring center 200 receives a report from the security device 100 that has detected an abnormality in the monitoring area, and instructs the standby security guard to go to the monitoring area (not shown) where the abnormality has been detected. Report to relevant agencies such as the police and fire departments.

警備装置100は、センサ110と、監視カメラ120と、警備操作部130とを備えている。   The security device 100 includes a sensor 110, a monitoring camera 120, and a security operation unit 130.

センサ110は、警備対象である監視領域に設置されており、主に侵入者等の異常を検知する目的で設置された人感センサである。センサ110は、人の存在や扉の開閉を検知した場合に検知信号を出力する。センサ110は、例えば赤外線の受光量の変化をもとに人の存在を検出する赤外線センサ、赤外線等の受信が遮断されることで人の存在を検出する遮断センサ、電磁波の乱れで人の存在を検知する電波センサ、およびマグネットにより扉の開閉を検出するマグネットセンサなどの監視領域の異常を検出する各種センサによって構成できる。   The sensor 110 is a human sensor that is installed in a monitoring area that is a security target and is mainly installed for the purpose of detecting an abnormality such as an intruder. The sensor 110 outputs a detection signal when the presence of a person or the opening / closing of a door is detected. The sensor 110 is, for example, an infrared sensor that detects the presence of a person based on a change in the amount of received infrared light, a blocking sensor that detects the presence of a person by blocking reception of infrared light, and the presence of a person due to disturbance of electromagnetic waves. Can be configured by various sensors that detect abnormalities in the monitoring area, such as a radio wave sensor that detects the opening and closing of the door with a magnet.

監視カメラ120は、警備対象である監視領域を撮像する。監視カメラ120は、主に監視領域である住居の出入口付近や敷地内への出入口付近に設置されている。   The monitoring camera 120 images a monitoring area that is a security target. The monitoring camera 120 is installed mainly in the vicinity of the entrance / exit of a residence, which is a monitoring area, or in the vicinity of the entrance / exit to the site.

次に、警備操作部130について説明する。警備操作部130は、検知情報受信部131と、画像情報取得部132と、警備状態切替部133と、操作パネル制御部134と、操作パネル135と、送受信部136と、警備状態記憶部137と、第1検出部138と、状態取得部139と、第2検出部140と、不審者判定部141と、HDD(Hard Disk Drive)150と、を備えている。   Next, the security operation unit 130 will be described. The security operation unit 130 includes a detection information reception unit 131, an image information acquisition unit 132, a security state switching unit 133, an operation panel control unit 134, an operation panel 135, a transmission / reception unit 136, and a security state storage unit 137. , A first detection unit 138, a state acquisition unit 139, a second detection unit 140, a suspicious person determination unit 141, and an HDD (Hard Disk Drive) 150.

検知情報受信部131は、センサ110によって異常が検知された場合に送出される検知情報を受信する。検知情報は、センサ110から送出される検知信号である。センサ110が複数設置されている場合、検知情報は検知信号およびセンサ110を識別するセンサIDを含む。画像情報取得部132は、監視カメラ120によって撮像された画像情報を取得する。   The detection information receiving unit 131 receives detection information that is sent when an abnormality is detected by the sensor 110. The detection information is a detection signal sent from the sensor 110. When a plurality of sensors 110 are installed, the detection information includes a detection signal and a sensor ID that identifies the sensor 110. The image information acquisition unit 132 acquires image information captured by the monitoring camera 120.

警備状態切替部133は、操作パネル制御部134によって受付けた警備状態を警備状態記憶部137に格納する。   The guard state switching unit 133 stores the guard state received by the operation panel control unit 134 in the guard state storage unit 137.

警備状態記憶部137は、現在の警備装置100の警備状態である警備モードまたは警備解除モードのいずれかを記憶する。なお、警備状態記憶部137は、ハードディスク、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。   The security state storage unit 137 stores either a security mode or a security release mode that is a security state of the current security device 100. The security state storage unit 137 can be configured by any storage medium that is generally used, such as a hard disk, an optical disk, a memory card, and a RAM (Random Access Memory).

ここで、警備モードとは、センサ110が異常を検知して検知情報を取得した場合に、警備領域での異常を知らせる警報情報をネットワーク300で接続されている監視センタ200に送信する状態をいう。また、警備解除モードとは、上記検知情報を取得した場合でも異常を知らせる警報情報を監視センタ200に送信しない状態をいう。   Here, the security mode refers to a state in which alarm information notifying abnormality in the security area is transmitted to the monitoring center 200 connected via the network 300 when the sensor 110 detects abnormality and acquires detection information. . The security release mode refers to a state in which alarm information notifying abnormality is not transmitted to the monitoring center 200 even when the detection information is acquired.

操作パネル135は、警備装置100に関する情報が表示され、警備装置100に対して情報が入力される。操作パネル135は、ボタンの押下等によって警備モードまたは警備解除モードのいずれかの警備状態を入力する。操作パネル制御部134は、操作パネル135への表示情報の出力や、操作パネル135から入力された入力情報の取得等の操作パネル135に対する制御を行う。   The operation panel 135 displays information related to the security device 100, and information is input to the security device 100. The operation panel 135 inputs the security state of either the security mode or the security release mode by pressing a button or the like. The operation panel control unit 134 controls the operation panel 135 such as outputting display information to the operation panel 135 and acquiring input information input from the operation panel 135.

送受信部136は、ネットワーク300を介して監視センタ200との間で各種情報を送受信する。例えば、送受信部136は、監視カメラ120が撮像した画像情報を監視センタ200に送信する。また、送受信部136は、センサ110から検知情報を受信した場合で、かつ警備状態記憶部137に記憶された現在の警備状態に警備モードが記憶されている場合に、警報情報を監視センタ200に送信する。   The transmission / reception unit 136 transmits / receives various information to / from the monitoring center 200 via the network 300. For example, the transmission / reception unit 136 transmits image information captured by the monitoring camera 120 to the monitoring center 200. In addition, the transmission / reception unit 136 transmits alarm information to the monitoring center 200 when the detection information is received from the sensor 110 and the security mode is stored in the current security state stored in the security state storage unit 137. Send.

HDD150は、物体の動作検出に関する各種データを記憶する。具体的には、HDD150は、状態情報DB(データベース)151と、規則DB152と、不審者情報DB153と、を格納している。なお、各DBを、光ディスク、メモリカードなどのHDD150以外の記憶媒体に格納するように構成してもよい。   The HDD 150 stores various types of data related to object motion detection. Specifically, the HDD 150 stores a state information DB (database) 151, a rule DB 152, and a suspicious person information DB 153. Each DB may be configured to be stored in a storage medium other than the HDD 150 such as an optical disk or a memory card.

なお、第1検出部138、第2検出部140、HDD150等を監視センタ200に設け、センサ110や監視カメラ120で得られた情報を監視センタ200に送り、動作検出を監視センタで行うように構成してもよい。   The first detection unit 138, the second detection unit 140, the HDD 150, and the like are provided in the monitoring center 200, information obtained by the sensor 110 and the monitoring camera 120 is sent to the monitoring center 200, and operation detection is performed at the monitoring center. It may be configured.

状態情報DB151は、物体の動作状態を深層格フレーム構造で表した状態情報を記憶する。深層格フレーム(以下、単に格フレームとも言う)とは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造をいう。   The state information DB 151 stores state information representing the motion state of the object in a deep case frame structure. A deep case frame (hereinafter also simply referred to as a case frame) refers to a language structure that expresses the semantic relationship of a noun to a verb as a deep case, based on the verb.

図2は、状態情報DB151に記憶される状態情報のデータ構造の一例を示す図である。図2に示すように、状態情報は、格フレームを識別する格フレームIDと、動作(行動)の種類を表す行動名と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格、属性格、場所格、時間格、源泉格、目標格、対象格、および道具格が含まれる。   FIG. 2 is a diagram illustrating an example of a data structure of state information stored in the state information DB 151. As shown in FIG. 2, the state information includes a case frame ID that identifies a case frame, an action name that represents the type of action (action), and a case element (deep case) that is a noun related to the action. Yes. The deep case includes a main case, an attribute case, a place case, a time case, a source case, a target case, a target case, and a tool case.

主格は、動作を引き起こす主体を表す。属性格は、主格に関する情報をいう。例えば、属性格は、身長高、体型、上半身色、下半身色、頭色、顔情報、および歩容情報等を含む。   The main character represents the subject that causes the action. The attribute case refers to information on the main case. For example, the attribute case includes height, body type, upper body color, lower body color, head color, face information, gait information, and the like.

顔情報および歩容情報は、さらに詳細な要素に分けられる。例えば、顔情報は、顔の特徴を表す顔特徴、視線方向、マスクの有無、サングラスの有無、性別、および年代などの要素を含む。また、歩容情報は、歩幅、姿勢、脚長、および歩速などの要素を含む。   Face information and gait information are further divided into detailed elements. For example, the face information includes elements such as a facial feature representing a facial feature, a line-of-sight direction, the presence / absence of a mask, the presence / absence of sunglasses, gender, and age. The gait information includes elements such as stride length, posture, leg length, and walking speed.

場所格は、動作や状態が起こる場所を表す。例えば、場所格は、頭部位置、体位置、手位置、顔位置、および脚部位置等を含む。   A place case represents a place where an action or a state occurs. For example, the place case includes a head position, a body position, a hand position, a face position, a leg position, and the like.

時間格は、動作や状態が起こる時間を表す。例えば、時間格は、現在時刻を表す時刻、動作が開始された時刻を表す動作開始時刻、動作が終了した時刻を表す動作終了時刻、および動作が発生した年月日等を表す。   The time case represents the time at which an action or condition occurs. For example, the time case represents the time representing the current time, the operation start time representing the time when the operation was started, the operation end time representing the time when the operation was completed, and the date when the operation occurred.

源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作等を行う起点の位置を表す場所情報、および起点での主格の属性を表す属性情報を含む。   The source case represents the starting point of movement or state change. For example, the source case includes location information indicating the position of the starting point where the leading character moves or moves, and attribute information indicating the attribute of the leading character at the starting point.

目標格は、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作等を行う終点の位置を表す場所情報、および終点での主格の属性を表す属性情報を含む。   The target case represents an end point such as movement or state change. For example, the target case includes location information indicating the position of the end point where the main character moves or moves, and attribute information indicating the attribute of the main character at the end point.

対象格は、動作や状態の対象となる事物を表す。対象格は、固有の識別情報である対象ID、および固有の情報である属性情報を含む。   A target case represents an object that is the target of an action or state. The target case includes a target ID that is unique identification information and attribute information that is unique information.

道具格は、動作の補助的手段を表す。道具格は、固有の識別情報である道具ID、および固有の情報である属性情報を含む。   The tool scale represents an auxiliary means of movement. The tool case includes a tool ID that is unique identification information and attribute information that is unique information.

なお、利用できる深層格はこれらに限られず、例えば精神的事象の経験者を表す経験者格などの、その他のあらゆる深層格を用いることができる。   In addition, the deep case which can be utilized is not restricted to these, For example, all other deep cases, such as the experience person's case showing the experience person of a mental event, can be used.

図3は、状態情報DB151に記憶される状態情報の具体例を示す図である。図3は、人物A(主格)が、「しゃがむ」という行動を検出したときに生成される状態情報の一例を示している。この場合、属性格には、人物Aの身長高、体型などの具体的な値が設定される。また、場所格および時間格には、それぞれ人物Aがしゃがんだときの位置や時刻に関する具体的な値が設定される。   FIG. 3 is a diagram illustrating a specific example of the state information stored in the state information DB 151. FIG. 3 shows an example of state information generated when the person A (main character) detects the action of “squatting”. In this case, specific values such as the height and body shape of the person A are set in the attribute case. In the place case and the time case, specific values relating to the position and time when the person A squats down are set.

図1に戻り、規則DB152は、後述する第2検出部140が、状態情報DB151に保存された格フレームを比較して動作を検出するときに参照する行動検出規則を記憶する。図4は、規則DB152に記憶される行動検出規則のデータ構造の一例を示す図である。   Returning to FIG. 1, the rule DB 152 stores an action detection rule that is referred to when the second detection unit 140 described later detects an action by comparing the case frames stored in the state information DB 151. FIG. 4 is a diagram illustrating an example of the data structure of the action detection rule stored in the rule DB 152.

図4に示すように、行動検出規則は、比較元となる情報であって、時間的に前の状態情報である前格フレームと、比較先となる情報であって、時間的に後の状態情報である後格フレームと、その他の条件と、検出される状態情報とを対応づけた形式となっている。   As shown in FIG. 4, the behavior detection rule is information that is a comparison source, that is, a temporal frame that is state information that is temporally previous, and information that is a comparison destination that is temporally subsequent. This is a format in which the post-grade frame that is information, other conditions, and detected state information are associated with each other.

前格フレームおよび後格フレームは、それぞれ行動名と格情報とを含んでいる。格情報には、比較すべき少なくとも1つの深層格を設定する。   Each of the front case frame and the back case frame includes an action name and case information. In the case information, at least one deep case to be compared is set.

前格フレームおよび後格フレームは、2つの格フレームが差異を有するパターンを表す情報(差分情報)に相当する。すなわち、ある2つの格フレームが、それぞれ前格フレームと後格フレームとで設定された行動名および格情報と適合するとき、この2つの格フレーム間には差異が存在すると判断される。例えば、図4では、ある格フレーム(格フレーム1)の行動名が「存在する」、場所格に含まれる体位置が「A」であり、他の格フレーム(格フレーム2)の行動名が「存在する」、場所格に含まれる体位置が「B」であるとき、格フレーム1と格フレーム2との間には差分が存在すると判断される。そして、差分が存在すると判断された場合、差分に対応する行動として、「検出される状態情報」欄に記載された行動名の行動が検出される。   The front case frame and the back case frame correspond to information (difference information) representing a pattern in which two case frames have a difference. That is, when two case frames are matched with the action name and case information set in the front case frame and the back case frame, it is determined that there is a difference between the two case frames. For example, in FIG. 4, the action name of a case frame (case frame 1) is “exists”, the body position included in the place case is “A”, and the action names of other case frames (case frame 2) are When the body position included in the place case is “B”, it is determined that there is a difference between the case frame 1 and the case frame 2. When it is determined that there is a difference, an action with the action name described in the “detected state information” column is detected as an action corresponding to the difference.

その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「しゃがむ」の行動を検出する行動検出規則では、前格フレームに含まれる頭部位置Bと、後格フレームに含まれる頭部位置Cとが、B>Cの関係を満たすことが条件として設定されている。   In other conditions, conditions to be satisfied by the state information to be compared are set as necessary. For example, in the behavior detection rule for detecting the behavior with the behavior name “squatting” in the same figure, the relationship B> C between the head position B included in the front case frame and the head position C included in the back case frame. Satisfying is set as a condition.

検出される状態情報は、検出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「移動する」の行動が検出された場合は、前格フレームに含まれる体位置Aおよび後格フレームに含まれる体位置Bを、それぞれ検出した行動に対応する格フレームの源泉格の体位置Aおよび目標格の体位置Bとして保存する例が示されている。   The detected state information includes the action name of the detected action and case information representing at least one deep case to be saved. In the figure, for example, when an action with the action name “move” is detected, the body position A included in the front case frame and the body position B included in the back case frame are respectively corresponding to the detected actions. An example of saving as the body position A of the source case of the frame and the body position B of the target case is shown.

なお、行動検出規則は同図に示す形式に限られるものではなく、複数の状態情報間の差分に応じて予め定められた行動を決定可能なものであればあらゆる形式の規則を適用できる。   The behavior detection rule is not limited to the format shown in the figure, and any format rule can be applied as long as a predetermined behavior can be determined according to a difference between a plurality of state information.

図5は、検出される行動間の遷移関係を表す図である。具体的には、図5は、画像情報から検出される行動と、状態情報DB151に保存された状態情報を比較し、行動検出規則によって検出される行動との関係を表している。同図の楕円は、検出される行動名の一例を表している。また、楕円間の矢印に付された文字列は、ある行動から他の行動を検出するための状態情報間の差分の基準を表している。   FIG. 5 is a diagram illustrating a transition relationship between detected actions. Specifically, FIG. 5 shows the relationship between the behavior detected from the image information and the behavior detected by the behavior detection rule by comparing the status information stored in the status information DB 151. The ellipse in the figure represents an example of the action name to be detected. Moreover, the character string attached | subjected to the arrow between ellipses represents the reference | standard of the difference between the state information for detecting another action from a certain action.

なお、この基準は、図4の規則DB152に記憶された行動検出規則に対応する。例えば、「位置座標の変異」という基準は、図4では行動名「移動する」を検出する最初の行動検出規則に対応する。すなわち、例えば同図の行動名501(存在する)に対応する複数の状態情報を比較することにより、「位置座標の変異」という差分が検出された場合は、「移動する」という行動名の行動が新たに検出される。   This criterion corresponds to the action detection rule stored in the rule DB 152 of FIG. For example, the criterion “variation in position coordinates” corresponds to the first action detection rule for detecting the action name “move” in FIG. That is, for example, when a difference “positional mutation” is detected by comparing a plurality of state information corresponding to the action name 501 (exists) in FIG. Is newly detected.

なお、図5の行動名501〜504は、後述する第1検出部138によって画像情報から検出される行動名を表している。それ以外の行動名は、後述する第2検出部140によって、行動検出規則を用いて検出される行動名を表している。また、同図の行動名511〜513は、他の行動へ派生しない行動名を表している。すなわち、この状態に達した場合は、同図の遷移から離脱することを意味する。   Note that action names 501 to 504 in FIG. 5 represent action names detected from the image information by the first detection unit 138 described later. The other behavior names represent the behavior names detected by the second detection unit 140 described later using the behavior detection rules. Also, action names 511 to 513 in the same figure represent action names that are not derived from other actions. That is, when this state is reached, it means leaving from the transition of FIG.

本実施の形態では、さらに、規則DB152が、複数の物体(人物)の状態情報の組み合わせに応じた動作を検出するときに参照する行動検出規則を記憶する。以下では、このように複数の物体の状態から動作を検出するための行動検出規則を、状況把握規則という。図6は、状況把握規則のデータ構造の一例を示す図である。   In the present embodiment, the rule DB 152 further stores an action detection rule that is referred to when detecting an operation corresponding to a combination of state information of a plurality of objects (persons). Hereinafter, the action detection rule for detecting an action from the states of a plurality of objects is referred to as a situation grasping rule. FIG. 6 is a diagram illustrating an example of a data structure of the situation grasp rule.

図6に示すように、状況把握規則は、ある人物Aに関する情報と、他の人物Bに関する情報と、その他の条件と、検出される状態情報とを対応づけた形式となっている。   As shown in FIG. 6, the situation grasp rule has a format in which information on a certain person A, information on another person B, other conditions, and detected state information are associated with each other.

人物Aに関する情報および人物Bに関する情報は、それぞれ行動名と格情報とを含んでいる。格情報には、各人物が満たすべき深層格の条件を設定する。   The information about the person A and the information about the person B include action names and case information, respectively. In the case information, a deep case condition to be satisfied by each person is set.

ある2人の人物それぞれに対応する2つの格フレームが、それぞれ人物Aに関する情報と人物Bに関する情報とで設定された行動名および格情報に適合するとき、「検出される状態情報」欄に記載された行動名の行動が検出される。   When the two case frames corresponding to each of two persons match the action name and case information set by the information about person A and the information about person B, they are listed in the “detected state information” column. The action with the action name is detected.

その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「脅す」の行動を検出する状況把握規則では、行動名「見る」の格フレームが存在し、その格フレームの主格および対象格がそれぞれ人物Aおよび人物Bであるという条件が設定されている。   In other conditions, conditions to be satisfied by the state information to be compared are set as necessary. For example, in the situation grasping rule for detecting the action with the action name “threat” in the figure, there is a case frame with the action name “see”, and the main case and the target case of the case frame are person A and person B, respectively. The condition is set.

検出される状態情報は、検出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「脅す」の行動が検出された場合は、人物Bを検出した行動に対応する格フレームの対象格として保存する例が示されている。   The detected state information includes the action name of the detected action and case information representing at least one deep case to be saved. In the same figure, for example, when an action with an action name “threat” is detected, an example is shown in which it is stored as a target case of a case frame corresponding to the action in which the person B is detected.

なお、状況把握規則は同図に示す形式に限られるものではなく、複数人の行動を表す状態情報の組み合わせに応じて予め定められた行動を決定可能なものであればあらゆる形式の規則を適用できる。また、同図では2人の状態情報の組み合わせから行動を検出する規則が例示されているが、3人以上の状態情報の組み合わせから行動を検出する規則を用いてもよい。   The situation grasping rules are not limited to the form shown in the figure, and any form of rules can be applied as long as predetermined actions can be determined according to a combination of state information representing the actions of multiple persons. it can. Moreover, although the rule which detects an action from the combination of the status information of two persons is illustrated in the same figure, you may use the rule which detects an action from the combination of the status information of three or more persons.

複数人の行動の組み合わせとしては、例えば、犯罪行為等の被害者および加害者、または、異常な状況が発生するときの周囲の人物等の行動の組み合わせなどを想定する。そして、このような複数人の行動の組み合わせが発生したときに予測される行動を検出される状態情報に設定した状況把握規則を定める。   As a combination of actions of a plurality of persons, for example, a combination of actions of a victim and a perpetrator such as a criminal act or a surrounding person when an abnormal situation occurs is assumed. Then, a situation grasp rule is set in which the behavior predicted when such a combination of behaviors of a plurality of people occurs is set in the detected state information.

例えば、同図の1行目および2行目は、人物Aを加害者、人物Bを被害者としたときの状況に対応する状況把握規則を表している。また、同図の3行目は、複数人の行動の組み合わせから不審行動を検出する状況把握規則を表している。このような規則を用いることにより、例えば個々の人物の行動が不審行動と思われるが不審と断定できない場合であっても、他の人物の行動と同時に発生していることを条件として不審行動であると判断することが可能となる。   For example, the first and second lines in the figure represent the situation grasp rules corresponding to the situation when the person A is the perpetrator and the person B is the victim. Also, the third line in the figure represents a situation grasp rule for detecting suspicious behavior from a combination of behaviors of a plurality of people. By using such rules, for example, even if an individual person's action seems to be suspicious but cannot be determined as suspicious, It can be determined that there is.

図1に戻り、不審者情報DB153は、不審者の動作状態を表す行動パターンとして予め定められた不審者情報を記憶する。図7は、本実施の形態の不審者情報DB153に記憶された不審者情報のデータ構造の一例を示す図である。図7に示すように、不審者情報は、不審者の動作の種類を表す行動名と、不審者の動作に関連する深層格(格情報)と、当該深層格が満たすべき条件とを含んでいる。   Returning to FIG. 1, suspicious person information DB153 memorize | stores suspicious person information predetermined as an action pattern showing the operating state of a suspicious person. FIG. 7 is a diagram illustrating an example of a data structure of suspicious person information stored in the suspicious person information DB 153 according to the present embodiment. As shown in FIG. 7, the suspicious person information includes an action name indicating the type of action of the suspicious person, a deep case (case information) related to the action of the suspicious person, and a condition to be satisfied by the deep case. Yes.

同図の網掛け部は、行動名が「きょろきょろする」である場合であって、かつ場所格の体位置が「玄関前」、すなわち、玄関前できょろきょろしている場合を不審者または不審行動として記憶している例を示している。   The shaded area in the figure shows a suspicious person or a suspicious behavior when the action name is "Korokoro" and the body position of the place character is "in front of the entrance", that is, when the action is in front of the entrance. An example stored as is shown.

なお、不審者情報DB153に記憶される行動名や、深層格の種類等は、予めユーザによって記憶される。   Note that the action name, the type of deep case, and the like stored in the suspicious person information DB 153 are stored in advance by the user.

図1に戻り、第1検出部138は、画像情報取得部132によって取得された画像情報を解析することにより、画像情報から物体の動作状態を検出する。また、第1検出部138は、検出した動作状態を表す状態情報を生成して状態情報DB151に保存する。   Returning to FIG. 1, the first detection unit 138 detects the motion state of the object from the image information by analyzing the image information acquired by the image information acquisition unit 132. Further, the first detection unit 138 generates state information representing the detected operation state and stores it in the state information DB 151.

第1検出部138は、例えば画像情報から人物領域を抽出することにより、人物が「存在する」という動作状態を検出する。また、第1検出部138は、検出した人物の視線方向を検出することにより、当該人物の「見る」という動作状態を検出する。また、第1検出部138は、人物以外の他の物体を画像情報から抽出し、抽出した物体が新たに現れた場合には「取り出す」という動作状態を、抽出した物体が以前から存在し、人物の手の位置と重なった場合には「触る」という動作状態を検出する。   The first detection unit 138 detects an operation state in which a person “exists”, for example, by extracting a person region from image information. In addition, the first detection unit 138 detects an operation state of “seeing” the person by detecting the detected gaze direction of the person. Further, the first detection unit 138 extracts an object other than a person from the image information, and when the extracted object newly appears, an operation state of “take out” is present, and the extracted object has existed before. When it overlaps with the position of a person's hand, an operation state of “touch” is detected.

なお、第1検出部138が人物または物体を抽出する方法としては、連続する画像情報の背景を比較することにより抽出した変動領域を人物領域とする方法や、人物パターンまたは物体パターンと照合することにより人物または物体を抽出する方法などの、従来から用いられているあらゆる方法を適用できる。また、第1検出部138が人物の視線方向を検出する方法としては、顔領域パターンと照合することにより顔領域を抽出するとともに視線方向を検出する方法などの従来から用いられているあらゆる方法を適用できる。   In addition, as a method for the first detection unit 138 to extract a person or an object, a variation area extracted by comparing backgrounds of continuous image information is used as a person area, or a person pattern or an object pattern is collated. Any method conventionally used, such as a method of extracting a person or an object by the above, can be applied. In addition, as a method for the first detection unit 138 to detect the gaze direction of a person, any conventionally used method such as a method of extracting a face area by collating with a face area pattern and detecting the gaze direction is used. Applicable.

状態取得部139は、状態情報DB151から複数の状態情報を取得する。例えば、状態取得部139は、第1検出部138によって検出され、状態情報DB151に保存された状態情報のうち、時刻が連続する2つの状態情報を取得する。また、状態取得部139は、状態情報DB151に保存された状態情報のうち、同一時刻で主格が異なる2つの状態情報を取得する。前者は、図4の行動検出規則によって行動を検出するときに利用される。また、後者は、図6の状況把握規則によって行動を検出するときに利用される。なお、時刻は厳密に同一である必要はなく、誤差が所定の時間範囲内であれば略同一の時刻と判断するように構成してもよい。   The state acquisition unit 139 acquires a plurality of state information from the state information DB 151. For example, the state acquisition unit 139 acquires two pieces of state information having consecutive times among the state information detected by the first detection unit 138 and stored in the state information DB 151. Further, the state acquisition unit 139 acquires two pieces of state information having different main characters at the same time among the state information stored in the state information DB 151. The former is used when detecting a behavior by the behavior detection rule of FIG. The latter is used when an action is detected by the situation grasping rule of FIG. Note that the time does not need to be exactly the same, and may be configured to be determined to be substantially the same if the error is within a predetermined time range.

第2検出部140は、時刻が連続する2つの状態情報が規則DB152に保存された行動検出規則に適合するか否かを判定することによって、新たな行動を検出する。   The second detection unit 140 detects a new action by determining whether or not two pieces of state information with successive times are compatible with the action detection rule stored in the rule DB 152.

具体的には、第2検出部140は、状態取得部139によって取得された時刻が連続する2つの状態情報の行動名および格情報が一致する行動検出規則を規則DB152から取得する。そして、第2検出部140は、行動検出規則が取得できた場合に、行動検出規則で定められた行動を新たな行動として検出する。   Specifically, the second detection unit 140 acquires, from the rule DB 152, an action detection rule in which the action name and the case information of the two pieces of state information having the same time acquired by the state acquisition unit 139 match. Then, when the behavior detection rule can be acquired, the second detection unit 140 detects the behavior defined by the behavior detection rule as a new behavior.

また、第2検出部140は、同一時刻で主格が異なる2つの状態情報が規則DB152に保存された状況把握規則に適合するか否かを判定することによって、新たな行動を検出する。   Moreover, the 2nd detection part 140 detects a new action by determining whether two state information from which a main character differs at the same time corresponds to the condition grasping | storing rule preserve | saved in rule DB152.

具体的には、第2検出部140は、状態取得部139によって取得された同一時刻で主格が異なる2つの状態情報の行動名および格情報が一致する状況把握規則を規則DB152から取得する。そして、第2検出部140は、状況把握規則が取得できた場合に、状況把握規則で定められた行動を新たな行動として検出する。   Specifically, the second detection unit 140 acquires, from the rule DB 152, a situation grasp rule in which action names and case information of two state information having different main characters at the same time acquired by the state acquisition unit 139 match. And the 2nd detection part 140 detects the action defined by the situation grasping rule as a new action, when the situation grasping rule can be acquired.

不審者判定部141は、不審者情報DB153に記憶されている不審者情報に適合する状態情報を状態情報DB151から検索することにより、不審者の有無を判定する。具体的には、不審者判定部141は、状態情報DB151に記憶されている状態情報のうち、状態情報の行動名が不審者情報の行動名と一致し、かつ状態情報の格要素のうち不審者情報の格情報に記載された格要素が不審者情報の条件を満たす状態情報を検索する。そして、不審者判定部141は、条件を満たす状態情報の主格である人物が不審者であると判定する。   The suspicious person determination unit 141 determines whether or not there is a suspicious person by searching the state information DB 151 for state information that matches the suspicious person information stored in the suspicious person information DB 153. Specifically, the suspicious person determination unit 141 matches the action name of the state information with the action name of the suspicious person information among the state information stored in the state information DB 151, and the suspicious person among the case elements of the state information. Search for state information in which the case element described in the case information of the person information satisfies the conditions of the suspicious person information. Then, the suspicious person determination unit 141 determines that the person who is the main character of the state information that satisfies the condition is a suspicious person.

次に、このように構成された本実施の形態にかかる警備装置100による画像からの動作検出処理について図8を用いて説明する。画像からの動作検出処理とは、監視カメラ120で撮影された画像情報から人物等の動作(行動)を検出する処理をいう。図8は、本実施の形態における画像からの動作検出処理の全体の流れを示すフローチャートである。   Next, operation detection processing from an image by the security device 100 according to the present embodiment configured as described above will be described with reference to FIG. The operation detection process from an image refers to a process for detecting an operation (behavior) of a person or the like from image information captured by the monitoring camera 120. FIG. 8 is a flowchart showing an overall flow of the operation detection process from an image according to the present embodiment.

まず、画像情報取得部132は、監視カメラ120が撮影した画像情報を入力する(ステップS601)。次に、第1検出部138が、画像情報から人物領域を検出する(ステップS602)。次に、第1検出部138は、人物領域が検出されたか否かを判断する(ステップS603)。人物領域が検出されなかった場合は(ステップS603:NO)、次の画像情報を入力して処理を繰り返す(ステップS601)。   First, the image information acquisition unit 132 inputs image information captured by the monitoring camera 120 (step S601). Next, the first detection unit 138 detects a person area from the image information (step S602). Next, the first detection unit 138 determines whether a person area has been detected (step S603). If no person area is detected (step S603: NO), the next image information is input and the process is repeated (step S601).

人物領域が検出された場合(ステップS603:YES)、第1検出部138は、行動名=「存在する」の格フレームを作成する(ステップS604)。なお、作成した格フレームの格フレームIDには、他の格フレームと重複しない値を割り当てる。   When the person area is detected (step S603: YES), the first detection unit 138 creates a case frame with action name = “exists” (step S604). A value that does not overlap with other case frames is assigned to the case frame ID of the created case frame.

次に、第1検出部138は、検出した人物領域の各部位の検出位置を場所格へ格納する(ステップS605)。例えば、第1検出部138は、検出した人物領域に含まれる頭部、体、手、顔、および脚部の座標を算出し、それぞれ頭部位置、体位置、手位置、顔位置、および脚部位置として場所格に格納する。なお、人物領域の各部位は、部位ごとの照合パターンと照合して検出する方法などの従来から用いられているあらゆる方法により検出できる。   Next, the 1st detection part 138 stores the detection position of each site | part of the detected person area in a place case (step S605). For example, the first detection unit 138 calculates the coordinates of the head, body, hand, face, and leg included in the detected person region, and the head position, body position, hand position, face position, and leg, respectively. Stored in a place case as a part position. It should be noted that each part of the person region can be detected by any conventionally used method such as a method of detecting by matching with a matching pattern for each part.

第1検出部138は、ステップS604〜ステップS605と並行して、人物同定処理(ステップS606〜ステップS607)、顔検出処理(ステップS608〜ステップS610)、体型判定処理(ステップS611〜ステップS612)、および歩容検出処理(ステップS613〜ステップS614)の各処理を実行する。なお、これらの各処理は必ずしも並行して処理する必要はなく、任意の順序で実行するように構成することができる。   In parallel with step S604 to step S605, the first detection unit 138 performs person identification processing (step S606 to step S607), face detection processing (step S608 to step S610), body type determination processing (step S611 to step S612), And each process of a gait detection process (step S613-step S614) is performed. Note that these processes are not necessarily performed in parallel, and can be configured to be executed in an arbitrary order.

人物同定処理では、第1検出部138は、抽出済みの人物領域と照合する方法などにより、抽出された人物を同定する(ステップS606)。そして、第1検出部138は、同定した人物に既に割り当てられているエージェントID(図2のAgtID)を、作成した格フレームの主格に格納する(ステップS607)。   In the person identification process, the first detection unit 138 identifies the extracted person by a method of collating with the extracted person region (step S606). Then, the first detection unit 138 stores the agent ID already assigned to the identified person (AgtID in FIG. 2) in the main case of the created case frame (step S607).

顔検出処理では、第1検出部138は、顔領域パターンと照合する方法などによって顔領域を検出する(ステップS608)。また、第1検出部138は、照合結果に応じて、視線方向、マスクの有無、およびサングラスの有無などの顔情報を属性格に格納する(ステップS609)。視線方向が検出された場合は、第1検出部138は、行動名=「見る」の格フレームを作成する(ステップS610)。   In the face detection process, the first detection unit 138 detects a face area by a method of matching with a face area pattern (step S608). Further, the first detection unit 138 stores face information such as the line-of-sight direction, the presence / absence of a mask, and the presence / absence of sunglasses in the attribute case according to the collation result (step S609). When the line-of-sight direction is detected, the first detection unit 138 creates a case frame of action name = “see” (step S610).

体型判定処理では、第1検出部138は、照合した人物パターンに予め付与された体型を求める方法などにより、検出した人物の体型を判定する(ステップS611)。そして、第1検出部138は、判定した体型を、作成した格フレームの属性格に格納する(ステップS612)。   In the body type determination process, the first detection unit 138 determines the body type of the detected person by a method of obtaining a body type given in advance to the collated person pattern (step S611). Then, the first detection unit 138 stores the determined body type in the attribute case of the created case frame (step S612).

歩容検出処理では、第1検出部138は、主に検出した人物領域の脚部を解析することにより、歩速、歩幅、脚長、姿勢などの歩容情報を検出する(ステップS613)。歩速は、例えば連続する画像情報の脚部の位置を比較することにより算出することができる。そして、第1検出部138は、検出した歩容情報を、作成した格フレームの属性格に格納する(ステップS614)。   In the gait detection process, the first detection unit 138 detects gait information such as a gait speed, a stride length, a leg length, and a posture mainly by analyzing a leg portion of the detected human area (step S613). The walking speed can be calculated, for example, by comparing the positions of the leg portions of successive image information. Then, the first detection unit 138 stores the detected gait information in the attribute case of the created case frame (step S614).

次に、第1検出部138は、画像情報から物体を検出する(ステップS615)。なお、物体検出処理は、人物領域検出処理(ステップS602)とともに実行してもよい。   Next, the first detection unit 138 detects an object from the image information (step S615). The object detection process may be executed together with the person area detection process (step S602).

次に、第1検出部138は、物体が検出されたか否かを判断する(ステップS616)。物体が検出された場合(ステップS616:YES)、第1検出部138は、物体が前の画像情報で検出されていたか否か、および物体と人物領域の位置関係に応じて、行動名=「触る」または「取り出す」の格フレームを作成する(ステップS617)。   Next, the first detection unit 138 determines whether or not an object has been detected (step S616). When an object is detected (step S616: YES), the first detection unit 138 determines whether the object has been detected based on the previous image information and the positional relationship between the object and the person area, action name = “ A case frame of “touch” or “take out” is created (step S617).

具体的には、第1検出部138は、前の画像情報で検出された物体と照合することなどにより、物体が既に検出されていると判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「触る」の格フレームを新たに作成する。また、第1検出部138は、未検出の物体が新たに検出されたと判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「取り出す」の格フレームを新たに作成する。   Specifically, the first detection unit 138 can determine that the object has already been detected, for example, by collating with the object detected in the previous image information, and can also determine the position of the person's hand and the position of the object. If it can be determined that they overlap, a case frame of action name = “touch” is newly created. Further, if the first detection unit 138 can determine that an undetected object is newly detected and can determine that the position of the person's hand and the position of the object overlap, the action name = “take out” case. Create a new frame.

ステップS616で物体が検出されなかったと判断された場合(ステップS616:NO)、またはステップS617で新たな格フレームを作成後、第1検出部138は、これまでに作成した格フレームを状態情報DBに保存し(ステップS618)、画像からの動作検出処理を終了する。   When it is determined in step S616 that no object has been detected (step S616: NO), or after creating a new case frame in step S617, the first detection unit 138 uses the case frame created so far to the state information DB. (Step S618), and the motion detection process from the image is terminated.

次に、本実施の形態にかかる警備装置100による状態情報からの動作検出処理について図9を用いて説明する。状態情報からの動作検出処理とは、状態情報DB151に保存されている状態情報から人物等の動作(行動)を検出する処理をいう。図9は、本実施の形態における状態情報からの動作検出処理の全体の流れを示すフローチャートである。   Next, operation detection processing from state information by the security device 100 according to the present embodiment will be described with reference to FIG. The operation detection process from the state information refers to a process of detecting an operation (behavior) of a person or the like from the state information stored in the state information DB 151. FIG. 9 is a flowchart showing an overall flow of the operation detection process from the state information in the present embodiment.

まず、状態取得部139は、状態情報DB151に保存されている状態情報である格フレームのうち、未処理の格フレーム(以下、第1格フレームという)を取得する(ステップS701)。次に、状態取得部139は、取得した第1格フレームと時間的に連続する格フレーム(以下、第2格フレームという)を状態情報DB151から取得する(ステップS702)。   First, the state acquisition unit 139 acquires an unprocessed case frame (hereinafter referred to as a first case frame) among the case frames that are state information stored in the state information DB 151 (step S701). Next, the state acquisition unit 139 acquires a case frame (hereinafter referred to as a second case frame) that is temporally continuous with the acquired first case frame from the state information DB 151 (step S702).

次に、第2検出部140は、取得した2つの格フレームが満たす行動検出規則を規則DB152から検索する(ステップS703)。具体的には、第2検出部140は、第1格フレームおよび第2格フレームの行動名が、それぞれ行動検出規則の前格フレームおよび後格フレームの行動名と一致し、格情報が行動検出規則の格情報が表す条件を満たす行動検出規則を検索する。   Next, the second detection unit 140 searches the rule DB 152 for action detection rules that are satisfied by the acquired two case frames (step S703). Specifically, the second detection unit 140 matches the action names of the first case frame and the second case frame with the action names of the front case frame and the back case frame of the action detection rule, respectively, and the case information detects the action. A behavior detection rule that satisfies the condition represented by the rule case information is searched.

例えば、第1格フレームおよび第2格フレームの行動名が共に「存在する」であり、第1格フレームの体位置(体位置Aとする)と、第2格フレームの体位置(体位置Bとする)とが異なる場合、図4に示すような規則DB152の最初の行動検出規則が検索される。   For example, the action names of the first case frame and the second case frame are both “exist”, and the body position of the first case frame (referred to as body position A) and the body position of the second case frame (body position B) The first action detection rule in the rule DB 152 as shown in FIG. 4 is searched.

次に、第2検出部140は、行動検出規則が検索されたか否かを判断し(ステップS704)、検索された場合は(ステップS704:YES)、検索した行動検出規則の「検出される状態情報」に設定された行動名の格フレームを作成する(ステップS705)。   Next, the second detection unit 140 determines whether or not a behavior detection rule has been searched (step S704). If the behavior detection rule has been searched (step S704: YES), the “detected state” of the searched behavior detection rule is determined. A case frame of the action name set in “information” is created (step S705).

行動検出規則が検索されなかった場合(ステップS704:NO)、または、格フレームを作成後、第2検出部140は、未処理の格フレームが存在するか否かを判断する(ステップS706)。   If no action detection rule is found (step S704: NO), or after creating a case frame, the second detection unit 140 determines whether there is an unprocessed case frame (step S706).

未処理の格フレームが存在する場合(ステップS706:YES)、状態取得部139は、次の格フレームを取得して処理を繰り返す(ステップS701)。未処理の格フレームが存在しない場合は(ステップS706:NO)、状態情報からの動作検出処理を終了する。   When there is an unprocessed case frame (step S706: YES), the state acquisition unit 139 acquires the next case frame and repeats the process (step S701). If there is no unprocessed case frame (step S706: NO), the operation detection process from the state information is terminated.

このような処理により、画像情報からだけでなく、テキスト情報として保存した状態情報から、人物等の対象物の行動を検出することができる。このため、画像の分析のみによって監視対象物の動作を認識する従来の方法と比較して、動作検出処理の処理負荷を低減することが可能となる。   By such processing, it is possible to detect the behavior of an object such as a person not only from image information but also from state information stored as text information. For this reason, it is possible to reduce the processing load of the motion detection process as compared with the conventional method of recognizing the motion of the monitoring object only by analyzing the image.

次に、本実施の形態にかかる警備装置100による状況把握処理について図10を用いて説明する。状況把握処理とは、状態情報DB151に保存されている複数人(物体)の状態情報から動作の状況を把握し、新たな人物等の動作(行動)を検出する処理をいう。図10は、本実施の形態における状況把握処理の全体の流れを示すフローチャートである。   Next, the situation grasping process by the security device 100 according to the present embodiment will be described with reference to FIG. The situation grasping process refers to a process of grasping the situation of the operation from the state information of a plurality of persons (objects) stored in the state information DB 151 and detecting the action (behavior) of a new person or the like. FIG. 10 is a flowchart showing the overall flow of the situation grasping process in the present embodiment.

まず、状態取得部139は、状態情報DB151に保存されている状態情報である格フレームのうち、未処理の格フレーム(以下、第1格フレームという)を取得する(ステップS1001)。次に、状態取得部139は、取得した第1格フレームと同時刻の他の格フレーム(以下、第2格フレームという)を状態情報DB151から取得する(ステップS1002)。   First, the state acquisition unit 139 acquires an unprocessed case frame (hereinafter referred to as a first case frame) among the case frames that are state information stored in the state information DB 151 (step S1001). Next, the state acquisition unit 139 acquires another case frame (hereinafter referred to as a second case frame) at the same time as the acquired first case frame from the state information DB 151 (step S1002).

次に、第2検出部140は、複数人物の格フレームが取得されたか否か、すなわち、第1格フレームの主格と、第2格フレームの主格とが異なるか否かを判断する(ステップS1003)。複数人物の格フレームが取得された場合(ステップS1003:YES)、第2検出部140は、各人物の格フレームの行動名を取得する(ステップS1004)。   Next, the second detection unit 140 determines whether or not case frames of a plurality of persons have been acquired, that is, whether or not the main case of the first case frame is different from the main case of the second case frame (step S1003). ). When the case frames of a plurality of persons are acquired (step S1003: YES), the second detection unit 140 acquires the action name of each person's case frame (step S1004).

次に、第2検出部140は、行動名=「見る」の格フレームが存在するか否かを判断する(ステップS1005)。存在する場合(ステップS1005:YES)、第2検出部140は、行動名=「見る」の対象となる物体(人物)が一致する他の人物の人数を算出し、人数が所定の閾値より大きいか否かを判断する(ステップS1006)。例えば、第2検出部140は、第1格フレームまたは第2格フレームの対象格に設定された物体(人物)と同一物体(人物)が、行動名=「見る」の対象格に設定され、主格が異なる他の格フレームの個数を算出し、閾値と比較する。   Next, the second detection unit 140 determines whether or not a case frame of action name = “see” exists (step S1005). If it exists (step S1005: YES), the second detection unit 140 calculates the number of other persons with the same object (person) as the action name = “see”, and the number is larger than a predetermined threshold. Whether or not (step S1006). For example, the second detection unit 140 sets the same object (person) as the object (person) set as the target case of the first case frame or the second case frame to the target case of action name = “see”, The number of other case frames with different main cases is calculated and compared with a threshold value.

人物数が閾値より大きい場合(ステップS1006:YES)、第2検出部140は、複数の人物が特定の人物に注目していることから、異常な状況が生じていると判断し、異常が発生したことを表す情報を出力する(ステップS1007)。   If the number of persons is greater than the threshold (step S1006: YES), the second detection unit 140 determines that an abnormal situation has occurred because a plurality of persons are paying attention to the specific person, and an abnormality has occurred. Information indicating that this has been done is output (step S1007).

このように、本実施の形態によれば、複数人の状態情報から特定の人物の異常な行動を検出するだけでなく、複数人の状態情報から何らかの異常な状況が生じているということを検出することもできる。なお、上記例では、特定の対象を複数人が「見る」という行動が生じたときに異常と判断していたが、行動は「見る」に限られるものではなく、予め定められた特定の行動を対象として判断するように構成してもよい。この場合、特定の行動を表す特定の動詞が含まれる状態情報の個数を算出し、個数が所定の閾値より大きいか否かを判定すればよい。   As described above, according to the present embodiment, not only the abnormal behavior of a specific person is detected from the status information of a plurality of people, but also that an abnormal situation has occurred from the status information of the plurality of people. You can also In the above example, a specific target is judged to be abnormal when an action of “seeing” occurs by a plurality of people. However, the action is not limited to “seeing”, and a predetermined specific action is determined. You may comprise so that it may judge as object. In this case, the number of state information including a specific verb representing a specific action may be calculated to determine whether the number is greater than a predetermined threshold.

人物数が閾値より大きくない場合(ステップS1006:NO)、第2検出部140は、第1格フレームおよび第2格フレームのうち、行動名=「見る」の格フレームの主格を人物A、対象格を人物Bとして取得する(ステップS1008)。そして、第2検出部140は、人物Aの格フレームおよび人物Bの格フレームが満たす状況把握規則を規則DB152から検索する(ステップS1009)。具体的には、第2検出部140は、人物Aの格フレームおよび人物Bの格フレームの行動名が、それぞれ状況把握規則の人物Aに関する情報および人物Bに関する情報の行動名と一致し、格情報が状況把握規則の格情報が表す条件を満たす状況把握規則を検索する。   When the number of persons is not greater than the threshold (step S1006: NO), the second detection unit 140 sets the main case of the action frame with the action name = “see” as the person A and the target among the first case frame and the second case frame. The case is acquired as person B (step S1008). Then, the second detection unit 140 searches the rule DB 152 for a situation grasp rule that is satisfied by the case frame of the person A and the case frame of the person B (step S1009). Specifically, the second detection unit 140 matches the action names of the case frame of the person A and the case frame of the person B with the action names of the information about the person A and the information about the person B in the situation grasp rule, respectively. A situation grasp rule that satisfies the condition represented by the case information of the situation grasp rule is searched.

例えば、人物Aの格フレームの行動名が「手を突き出す」であり、人物Bの格フレームの行動名が「手を上げる」であり、人物Aの格フレームの対象格が人物Bである場合、図6に示すような状況把握規則の最初の規則が検索される。   For example, when the action name of the person A's case frame is “push out a hand”, the action name of the person B ’s case frame is “raise his hand”, and the target case of the person A ’s case frame is the person B The first rule of the situation grasping rule as shown in FIG. 6 is searched.

また、ステップS1005で、行動名=「見る」の格フレームが存在しないと判断された場合(ステップS1005:NO)、第2検出部140は、第1格フレームおよび第2格フレームが満たす状況把握規則を規則DB152から検索する(ステップS1010)。具体的には、第2検出部140は、第1格フレームおよび第2格フレームの行動名が、それぞれ状況把握規則の人物Aに関する情報および人物Bに関する情報の行動名と一致し、格情報が状況把握規則の格情報が表す条件を満たす状況把握規則を検索する。   If it is determined in step S1005 that there is no case frame of action name = “see” (step S1005: NO), the second detection unit 140 grasps the situation that the first case frame and the second case frame satisfy. A rule is searched from the rule DB 152 (step S1010). Specifically, the second detection unit 140 matches the action names of the first case frame and the second case frame with the action names of the information related to the person A and the information related to the person B in the situation grasp rule, and the case information is A situation grasp rule satisfying the condition indicated by the case information of the situation grasp rule is searched.

例えば、第1格フレームの行動名が「移動する」であり、第2格フレームの行動名が「見回す」であり、第1格フレームおよび第2格フレームの場所格が表す地点が一致する(例えば地点A)場合、図6に示すような状況把握規則の3行目の規則が検索される。   For example, the action name of the first case frame is “move”, the action name of the second case frame is “look around”, and the points indicated by the location case of the first case frame and the second case frame match ( For example, in the case of point A), the rule in the third line of the situation grasp rule as shown in FIG. 6 is searched.

次に、第2検出部140は、状況把握規則が検索されたか否かを判断し(ステップS1011)、検索された場合は(ステップS1011:YES)、検索した状況把握規則の「検出される状態情報」に設定された行動名の格フレームを作成する(ステップS1012)。   Next, the second detection unit 140 determines whether or not a situation grasp rule has been searched (step S1011), and if found (step S1011: YES), the “detected state” of the searched situation grasp rule. A case frame of the action name set in “information” is created (step S1012).

ステップS1003で複数人物の格フレームが取得されなかった場合(ステップS1003:NO)、ステップS1011で状況把握規則が検索されなかった場合(ステップS1011:NO)、または、格フレームを作成後、第2検出部140は、未処理の格フレームが存在するか否かを判断する(ステップS1013)。   If a case frame of a plurality of persons is not acquired in step S1003 (step S1003: NO), a case grasping rule is not searched in step S1011 (step S1011: NO), or after creating a case frame, the second The detection unit 140 determines whether there is an unprocessed case frame (step S1013).

未処理の格フレームが存在する場合(ステップS1013:YES)、状態取得部139は、次の格フレームを取得して処理を繰り返す(ステップS1001)。未処理の格フレームが存在しない場合は(ステップS1013:NO)、状況把握処理を終了する。   When there is an unprocessed case frame (step S1013: YES), the state acquisition unit 139 acquires the next case frame and repeats the process (step S1001). If there is no unprocessed case frame (step S1013: NO), the situation grasping process is terminated.

このような処理により、個々の物体(人物)の状態情報の差分(変異)から、個々の物体(人物)の状態情報を検出するだけでなく、複数の物体(人物)の状態情報から物体(人物)の行動の状況を把握し、行動(動作)をより高精度に検出することが可能となる。   By such processing, not only the state information of each object (person) is detected from the difference (mutation) of the state information of each object (person), but also the object (from the state information of a plurality of objects (persons)) It is possible to grasp the situation of the action of the person and detect the action (motion) with higher accuracy.

次に、このように構成された本実施の形態にかかる警備装置100による不審者判定処理について図11を用いて説明する。図11は、本実施の形態における不審者判定処理の全体の流れを示すフローチャートである。   Next, the suspicious person determination process by the security device 100 according to the present embodiment configured as described above will be described with reference to FIG. FIG. 11 is a flowchart showing the overall flow of the suspicious person determination process in the present embodiment.

同図に示す各処理では、図7に示すような不審者情報DB153が、ユーザや監視センタ200によって予め記憶され、さらに操作パネル135等からユーザによって不審者判定を行うための指示がなされたものとする。   In each process shown in the figure, a suspicious person information DB 153 as shown in FIG. 7 is stored in advance by the user or the monitoring center 200, and further, an instruction for making a suspicious person determination is given by the user from the operation panel 135 or the like. And

まず、不審者判定部141は、不審者情報DB153を参照して、記憶されている不審者情報を読み込む(ステップS1101)。そして、読み込んだ不審者情報をキーにして、その不審者情報を含む深層格フレームを状態情報DB151の中から検索する(ステップS1102)。   First, the suspicious person determination unit 141 reads the stored suspicious person information with reference to the suspicious person information DB 153 (step S1101). Then, using the read suspicious person information as a key, a deep case frame including the suspicious person information is searched from the state information DB 151 (step S1102).

そして、状態情報DB151の中に、不審者情報を含む深層格フレームが存在するか否かを判定し(ステップS1103)、不審者情報を含む深層格フレームがないと判定した場合(ステップS1103:NO)、何もせずに次のステップに進む。   Then, it is determined whether or not there is a deep case frame including suspicious person information in the state information DB 151 (step S1103), and when it is determined that there is no deep case frame including suspicious person information (step S1103: NO). ), Proceed to the next step without doing anything.

一方、不審者情報を含む深層格フレームが存在すると判定した場合(ステップS1103:YES)、その不審者情報を含む深層格フレームを操作パネル135に表示する(ステップS1104)。その後、不審者情報DB153に記憶されているすべての不審者情報の規則を参照したか否かを判定し(ステップS1105)、すべての不審者情報の規則を参照していないと判定した場合(ステップS1105:NO)、ステップS1101に戻り、以降の処理を繰り返す。一方、すべての不審者情報の規則を参照したと判定した場合(ステップS1105:YES)、不審者判定処理が終了する。   On the other hand, when it is determined that there is a deep case frame including suspicious person information (step S1103: YES), the deep case frame including the suspicious person information is displayed on the operation panel 135 (step S1104). Thereafter, it is determined whether or not all the suspicious person information rules stored in the suspicious person information DB 153 are referred to (step S1105), and when it is determined that all the suspicious person information rules are not referred to (step S1105). (S1105: NO), the process returns to step S1101, and the subsequent processing is repeated. On the other hand, when it is determined that all the suspicious person information rules have been referred to (step S1105: YES), the suspicious person determination process ends.

次に、複数人の状態情報の解析による不審者判定処理の具体例について図12〜図15を用いて説明する。図12は、この例で撮影された画像の一例を示す図である。同図では、右側の人物(人物Aとする)が、左側の人物(人物Bとする)に対して手を突き出し、人物Bが両手を挙げている状況の例が示されている。   Next, a specific example of the suspicious person determination process based on the analysis of the status information of a plurality of persons will be described with reference to FIGS. FIG. 12 is a diagram illustrating an example of an image photographed in this example. In the drawing, an example of a situation in which a person on the right side (referred to as a person A) sticks out a hand against the person on the left side (referred to as a person B) and the person B raises both hands is shown.

図13および図14は、それぞれ図12の画像から検出された人物Aおよび人物Bの動作状態を表す格フレームの一例を示す図である。   FIGS. 13 and 14 are diagrams showing examples of case frames representing the operating states of the person A and the person B detected from the image of FIG. 12, respectively.

図12の例では、人物Aが人物Bに対して、手を突き出している動作状態であることが記述されている。図14の例では、人物Bが手を上げている動作状態であることが記述されている。このような状態情報が検出された場合、第2検出部140は、図6に示すような状況把握規則の1行目の規則を適用することにより、人物Aが人物Bを脅しているという行動を検出することができる。   In the example of FIG. 12, it is described that the person A is in an operation state in which a hand is sticking out against the person B. In the example of FIG. 14, it is described that the person B is in an operating state in which his hand is raised. When such state information is detected, the second detection unit 140 applies the rule in the first line of the situation grasping rule as shown in FIG. 6 so that the person A threatens the person B. Can be detected.

図15は、検出された行動名で図12の格フレームを更新した場合の例を示す図である。図15に示すように、図13で「手を突き出す」であった行動名が、「脅す」に変化している。なお、行動名を更新するのではなく、検出された新たな行動名の格フレームを作成して状態情報DB151に保存するように構成してもよい。   FIG. 15 is a diagram illustrating an example when the case frame of FIG. 12 is updated with the detected action name. As shown in FIG. 15, the action name that was “push out a hand” in FIG. 13 has changed to “threat”. Instead of updating the action name, a case frame of a new detected action name may be created and stored in the state information DB 151.

また、このような状態情報が検出された場合、不審者判定部141は、図7に示すような不審者情報DB153の6行目の不審者情報を適用することにより、行動名「脅す」の主格である人物Aを不審者として検出することができる。   Further, when such state information is detected, the suspicious person determination unit 141 applies the suspicious person information on the sixth line of the suspicious person information DB 153 as illustrated in FIG. Person A who is the main character can be detected as a suspicious person.

このように、本実施の形態にかかる動作検出装置では、一人の行動の状態情報では判断できない異常行動および不審行動等を、複数人の状態情報を用いることにより、より的確に検出することができる。   As described above, in the motion detection device according to the present embodiment, abnormal behavior and suspicious behavior that cannot be determined from the status information of one individual's behavior can be detected more accurately by using the status information of a plurality of people. .

なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。   It should be noted that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本実施の形態にかかる監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system concerning this Embodiment. 状態情報DBに記憶される状態情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the status information memorize | stored in status information DB. 状態情報DBに記憶される状態情報の具体例を示す図である。It is a figure which shows the specific example of the status information memorize | stored in status information DB. 規則DBに記憶される行動検出規則のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the action detection rule memorize | stored in rule DB. 検出される行動間の遷移関係を表す図である。It is a figure showing the transition relation between the detected actions. 状況把握規則のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of a situation grasp rule. 不審者情報DBに記憶された不審者情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of suspicious person information memorize | stored in suspicious person information DB. 本実施の形態における画像からの動作検出処理の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the operation | movement detection process from the image in this Embodiment. 本実施の形態における状態情報からの動作検出処理の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the operation | movement detection process from the status information in this Embodiment. 本実施の形態における状況把握処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole situation grasping | ascertainment process in this Embodiment. 本実施の形態における不審者判定処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole suspicious person determination process in this Embodiment. 撮影された画像の一例を示す図である。It is a figure showing an example of a photoed image. 図12の画像から検出された人物Aの動作状態を表す格フレームの一例を示す図である。It is a figure which shows an example of the case frame showing the operation state of the person A detected from the image of FIG. 図12の画像から検出された人物Bの動作状態を表す格フレームの一例を示す図である。It is a figure which shows an example of the case frame showing the operation state of the person B detected from the image of FIG. 検出された行動名で図12の格フレームを更新した場合の例を示す図である。It is a figure which shows the example at the time of updating the case frame of FIG. 12 with the detected action name.

符号の説明Explanation of symbols

10 監視システム
100 警備装置
110 センサ
120 監視カメラ
130 警備操作部
131 検知情報受信部
132 画像情報取得部
133 警備状態切替部
134 操作パネル制御部
135 操作パネル
136 送受信部
137 警備状態記憶部
138 第1検出部
139 状態取得部
140 第2検出部
141 不審者判定部
150 HDD
151 状態情報DB
152 規則DB
153 不審者情報DB
200 監視センタ
300 ネットワーク
501〜504、511〜513 行動名
DESCRIPTION OF SYMBOLS 10 Monitoring system 100 Security apparatus 110 Sensor 120 Monitoring camera 130 Security operation part 131 Detection information reception part 132 Image information acquisition part 133 Security state switching part 134 Operation panel control part 135 Operation panel 136 Transmission / reception part 137 Security state storage part 138 1st detection Unit 139 Status acquisition unit 140 Second detection unit 141 Suspicious person determination unit 150 HDD
151 Status information DB
152 Rule DB
153 Suspicious person information DB
200 Monitoring Center 300 Network 501-504, 511-513 Action Name

Claims (7)

物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段と、
前記状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得手段と、
取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出手段と、
を備えたことを特徴とする動作検出装置。
Information representing the motion state of an object, including a verb indicating the type of motion of the object and a case element that is a noun related to the motion of the object, and a semantic relationship between the verb and the case element State storage means for storing state information represented by the case frame shown;
State acquisition means for acquiring a plurality of the state information representing the operation state of each of the plurality of objects from the state storage means;
Detection means for detecting an action of an object corresponding to the combination based on a rule that predetermines an action of the object according to a combination of the verbs included in each of the acquired plurality of state information;
A motion detection apparatus comprising:
前記状態情報は、前記格要素として前記物体の動作が発生した時刻を含み、
前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、
を特徴とする請求項1に記載の動作検出装置。
The state information includes a time when the movement of the object occurs as the case element,
The status acquisition means acquires a plurality of the status information having substantially the same time from the status storage means;
The motion detection apparatus according to claim 1.
前記状態情報は、前記動作の主体となる物体を表す主格と、前記主格による前記動作の対象となる他の物体を表す対象格と、を前記格要素として含み、
前記規則は、前記主格による前記動作の種類を表す前記動詞と前記対象格を主体とする前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、
前記検出手段は、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記対象格と他方の前記状態情報である第2状態情報の前記主格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、
を特徴とする請求項1に記載の動作検出装置。
The state information includes, as the case elements, a main case that represents an object that is the subject of the action and a target case that represents another object that is the target of the action by the main case,
The rule includes a combination of the verb representing the type of the action based on the main case and the verb representing the type of the action mainly based on the target case, and the action determined according to the combination,
The detection means matches the target case of the first state information, which is one of the state information, with the main case of the second state information, which is the other state information, among the plurality of state information acquired. Detecting the action corresponding to the matched combination when the combination of the verb of the first state information and the verb of the second state information matches the combination included in the rule;
The motion detection apparatus according to claim 1.
前記状態情報は、前記動作の主体となる物体を表す主格と、前記動作が生じた位置を表す場所格と、を前記格要素として含み、
前記規則は、第1物体の前記動作の種類を表す前記動詞と第2物体の前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、
前記検出手段は、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記場所格と他方の前記状態情報である第2状態情報の前記場所格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、
を特徴とする請求項1に記載の動作検出装置。
The state information includes, as the case elements, a main case that represents an object that is the subject of the action, and a place case that represents a position where the action has occurred,
The rule includes a combination of the verb representing the type of action of the first object and the verb representing the type of action of the second object, and the action defined according to the combination,
The detection means is configured such that, out of the plurality of acquired state information, the location case of the first state information which is one of the state information and the location case of the second state information which is the other state information are one. If the combination of the verb of the first state information and the verb of the second state information matches the combination included in the rule, detecting the action corresponding to the matched combination;
The motion detection apparatus according to claim 1.
前記状態情報は、前記動作の対象となる他の物体を表す対象格を前記格要素として含み、
前記検出手段は、さらに、取得された複数の前記状態情報のうち、前記状態情報に含まれる前記動詞が予め定められた特定動詞と一致し、かつ、前記状態情報に含まれる前記対象格が相互に一致する前記状態情報の個数を算出し、前記個数が予め定められた閾値より大きい場合に、異常が発生したことを検出すること、
を特徴とする請求項1に記載の動作検出装置。
The state information includes, as the case element, a target case representing another object to be the target of the action,
The detection means further includes that the verb included in the state information matches a predetermined specific verb among the plurality of acquired state information, and the target cases included in the state information are mutually Detecting the occurrence of an abnormality when the number of the state information that matches the number is greater than a predetermined threshold;
The motion detection apparatus according to claim 1.
不審者の動作状態として予め定められた情報であって、前記不審者の動作の種類を表す動詞と、前記不審者の動作に関連する名詞である格要素に関する条件とを含む不審者情報を記憶する不審者情報記憶手段と、
検出された前記動作を表す動詞が前記不審者情報に含まれる動詞と一致し、かつ、検出された前記動作に関連する格要素が前記不審者情報に含まれる前記条件を満たす前記動作の主体である前記物体を不審者であると判定する判定手段と、をさらに備えたこと、
を特徴とする請求項1に記載の動作検出装置。
Suspicious person information stored in advance as a suspicious person's action state, including a verb representing the kind of action of the suspicious person and a condition regarding a case element that is a noun related to the action of the suspicious person Suspicious person information storage means,
A verb representing the detected action matches a verb included in the suspicious person information, and a case element related to the detected action is a subject of the action satisfying the condition included in the suspicious person information. Determination means for determining that the object is a suspicious person,
The motion detection apparatus according to claim 1.
状態取得手段が、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得ステップと、
検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出ステップと、
を備えたことを特徴とする動作検出方法。
The state acquisition means includes information indicating the motion state of the object, and includes a verb indicating the motion type of the object and a case element that is a noun related to the motion of the object, and the verb and the case element A state acquisition step of acquiring a plurality of pieces of state information representing operation states of the plurality of objects, from a state storage unit that stores state information represented by a case frame indicating a semantic relationship between;
A detecting step for detecting an action of an object corresponding to the combination based on a rule in which an action of the object corresponding to the combination of the verbs included in each of the acquired plurality of state information is determined in advance;
An operation detection method comprising:
JP2008299955A 2008-11-25 2008-11-25 Motion detection device and motion detection method Active JP5091095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008299955A JP5091095B2 (en) 2008-11-25 2008-11-25 Motion detection device and motion detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008299955A JP5091095B2 (en) 2008-11-25 2008-11-25 Motion detection device and motion detection method

Publications (2)

Publication Number Publication Date
JP2010128594A true JP2010128594A (en) 2010-06-10
JP5091095B2 JP5091095B2 (en) 2012-12-05

Family

ID=42328967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008299955A Active JP5091095B2 (en) 2008-11-25 2008-11-25 Motion detection device and motion detection method

Country Status (1)

Country Link
JP (1) JP5091095B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003596A (en) * 2010-06-18 2012-01-05 Secom Co Ltd Notification device
JP2012141686A (en) * 2010-12-28 2012-07-26 Secom Co Ltd Abnormality detection device
JP2012208850A (en) * 2011-03-30 2012-10-25 Secom Co Ltd Abnormality detection apparatus
JP2012208851A (en) * 2011-03-30 2012-10-25 Secom Co Ltd Abnormality detection apparatus
JP2014235608A (en) * 2013-06-03 2014-12-15 富士通株式会社 Search device, search method, and search program
WO2015198767A1 (en) * 2014-06-27 2015-12-30 日本電気株式会社 Abnormality detection device and abnormality detection method
JP2017207877A (en) * 2016-05-17 2017-11-24 株式会社東芝 Behavioral analysis device and program
CN109035658A (en) * 2018-08-21 2018-12-18 北京深瞐科技有限公司 A kind of historical relic safety protecting method and device
JP2020095357A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
WO2022102038A1 (en) * 2020-11-12 2022-05-19 富士通株式会社 Information processing device, generation method, and generation program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280376A (en) * 2003-03-14 2004-10-07 Japan Science & Technology Agency Method and system for recognition of subject's behavior
JP2006092396A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2006287884A (en) * 2005-03-31 2006-10-19 Ara Software:Kk Intelligent video monitoring system
JP2007226634A (en) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd Person status recognition device, method, program, robot and life support system
JP2009199516A (en) * 2008-02-25 2009-09-03 Sogo Keibi Hosho Co Ltd Motion detector and motion detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280376A (en) * 2003-03-14 2004-10-07 Japan Science & Technology Agency Method and system for recognition of subject's behavior
JP2006092396A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2006287884A (en) * 2005-03-31 2006-10-19 Ara Software:Kk Intelligent video monitoring system
JP2007226634A (en) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd Person status recognition device, method, program, robot and life support system
JP2009199516A (en) * 2008-02-25 2009-09-03 Sogo Keibi Hosho Co Ltd Motion detector and motion detection method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003596A (en) * 2010-06-18 2012-01-05 Secom Co Ltd Notification device
JP2012141686A (en) * 2010-12-28 2012-07-26 Secom Co Ltd Abnormality detection device
JP2012208850A (en) * 2011-03-30 2012-10-25 Secom Co Ltd Abnormality detection apparatus
JP2012208851A (en) * 2011-03-30 2012-10-25 Secom Co Ltd Abnormality detection apparatus
JP2014235608A (en) * 2013-06-03 2014-12-15 富士通株式会社 Search device, search method, and search program
US10846536B2 (en) 2014-06-27 2020-11-24 Nec Corporation Abnormality detection device and abnormality detection method
JPWO2015198767A1 (en) * 2014-06-27 2017-04-20 日本電気株式会社 Anomaly detection device and anomaly detection method
US20170220871A1 (en) * 2014-06-27 2017-08-03 Nec Corporation Abnormality detection device and abnormality detection method
US20190205657A1 (en) * 2014-06-27 2019-07-04 Nec Corporation Abnormality detection device and abnormality detection method
WO2015198767A1 (en) * 2014-06-27 2015-12-30 日本電気株式会社 Abnormality detection device and abnormality detection method
US11106918B2 (en) 2014-06-27 2021-08-31 Nec Corporation Abnormality detection device and abnormality detection method
US11250268B2 (en) 2014-06-27 2022-02-15 Nec Corporation Abnormality detection device and abnormality detection method
JP2017207877A (en) * 2016-05-17 2017-11-24 株式会社東芝 Behavioral analysis device and program
CN109035658A (en) * 2018-08-21 2018-12-18 北京深瞐科技有限公司 A kind of historical relic safety protecting method and device
JP2020095357A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
JP7115277B2 (en) 2018-12-10 2022-08-09 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
WO2022102038A1 (en) * 2020-11-12 2022-05-19 富士通株式会社 Information processing device, generation method, and generation program

Also Published As

Publication number Publication date
JP5091095B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5091095B2 (en) Motion detection device and motion detection method
JP5674406B2 (en) Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body
JP5523900B2 (en) Person search device, person search method, and person search program
JP7405200B2 (en) person detection system
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
JP5590945B2 (en) Person search device, person search method, and person search program
JP5888770B2 (en) Lost child detection system and method
JP2007272488A (en) Image processor, monitor camera and image monitoring system
JP5355446B2 (en) Moving object tracking system and moving object tracking method
KR20060122764A (en) Person searching device, person searching method and access control system
JP2010239992A (en) Person identification device, person identification method, and person identification program
JP6440327B2 (en) Crime prevention system, crime prevention method, and robot
JP2009252215A (en) Security device and information display method
JP5143780B2 (en) Monitoring device and monitoring method
KR101515214B1 (en) Identification method using face recognition and entrance control system and method thereof using the identification method
KR101879444B1 (en) Method and apparatus for operating CCTV(closed circuit television)
JP5202419B2 (en) Security system and security method
JP2010170212A (en) Action estimation device and method
JP5188840B2 (en) Security device and update method
JP5227046B2 (en) Motion detection device and motion detection method
JP2010257450A (en) Device, method, and program for retrieving person
TWI691923B (en) Fraud detection system for financial transaction and method thereof
JP6806626B2 (en) Person group tracking device and person group tracking method
JP4944818B2 (en) Search device and search method
JP2010157097A (en) Device and method for generation information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5091095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250