JP2017111496A - Behavior monitoring prediction system and behavior monitoring prediction method - Google Patents

Behavior monitoring prediction system and behavior monitoring prediction method Download PDF

Info

Publication number
JP2017111496A
JP2017111496A JP2015243331A JP2015243331A JP2017111496A JP 2017111496 A JP2017111496 A JP 2017111496A JP 2015243331 A JP2015243331 A JP 2015243331A JP 2015243331 A JP2015243331 A JP 2015243331A JP 2017111496 A JP2017111496 A JP 2017111496A
Authority
JP
Japan
Prior art keywords
image data
suspicious person
person
behavior
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015243331A
Other languages
Japanese (ja)
Inventor
真由 荻野
Mayu Ogino
真由 荻野
原 尚子
Naoko Hara
尚子 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2015243331A priority Critical patent/JP2017111496A/en
Publication of JP2017111496A publication Critical patent/JP2017111496A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a behavior monitoring prediction system which monitors behavior of a suspicious person to predict a risk, and a behavior monitoring prediction method.SOLUTION: A behavior monitoring prediction system detects a person from an image captured by an imaging unit of a sensor device 100, transmits image data including the detected person to a computer 200 over a network N1, and determines whether a suspicious person is included in the image data. When a determination is made that a suspicious person is included in the image data, a storage unit 201 accumulates the image data. The system determines correspondence or similarity between image data and the image data accumulated in the storage unit 201. When they are determined to be correspondent or similar, a determination is made whether the accumulated image data is image data indicating a risk behavior of a suspicious person. When the accumulated image data is determined to be image data indicating a risk behavior of a suspicious person, a warning is issued to a terminal 300 over a network N2.SELECTED DRAWING: Figure 1

Description

本発明は、行動監視予測システム、行動監視予測方法に関する。   The present invention relates to a behavior monitoring prediction system and a behavior monitoring prediction method.

従来から、不審者の行動を監視する様々な技術が存在する。例えば、特許文献1には、トイレ内をセンシングして不審者を検知し、通報する技術が開示されている。また、特許文献2には、予め設定された行動パターンと照合することにより、不審者を認識する技術が開示されている。   Conventionally, there are various techniques for monitoring the behavior of a suspicious person. For example, Patent Literature 1 discloses a technique for sensing the inside of a toilet to detect a suspicious person and reporting the suspicious person. Patent Document 2 discloses a technique for recognizing a suspicious person by collating with a preset action pattern.

特開2007−058416号公報JP 2007-058416 A 特開2012−133665号公報JP 2012-133665 A

上記特許文献1、2では、不審者を検知、認識することはできる。しかしながら、これらの従来技術では、ある人物が不審者として検知、認識されるためには、その人物が不審者の行動をとる必要があった。すなわち、ある人物が実際に不審者としての行動をとった場合に、その人物が不審者であると判断され、検知、認識されていた。   In the above Patent Documents 1 and 2, a suspicious person can be detected and recognized. However, in these conventional techniques, in order for a person to be detected and recognized as a suspicious person, the person needs to take the action of the suspicious person. That is, when a person actually acts as a suspicious person, the person is determined to be a suspicious person and is detected and recognized.

このような技術では、実際にその人物が不審者としての行動をとらない限り、その人物が不審者であることを判断できない。したがって、その人物が不審者としての行動をとったあとでなければ通報できず、不審者がとる行動によっては取り返しのつかない犯罪となる可能性がある。   Such a technique cannot determine that the person is a suspicious person unless the person actually acts as a suspicious person. Therefore, it is possible to report only after the person has acted as a suspicious person, and depending on the action taken by the suspicious person, there is a possibility that the crime becomes irreversible.

本発明は、上記に鑑みてなされたものであって、不審者の行動を監視して危険を予測することが可能な行動監視予測システム、行動監視予測方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a behavior monitoring prediction system and a behavior monitoring prediction method capable of predicting a danger by monitoring a suspicious person's behavior.

上記課題を解決するために、本発明にかかる行動監視予測システムは、不審者の行動を監視し、危険行為を予測する行動監視予測システムであって、センサ装置は、撮像部と、前記撮像部が撮像した画像から人物を検知し、検知した前記人物を含む画像データを、ネットワークを介してコンピュータに送信するセンサ部と、を備え、前記コンピュータは、前記画像データに前記不審者が含まれているか否かを判定し、前記画像データに前記不審者が含まれていると判定した場合、前記画像データを記憶部に蓄積する検知処理部と、前記画像データと、前記記憶部に蓄積されている画像データとに基づいて、両者が一致または類似するか否かを判定し、両者が一致または類似すると判定した場合、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであるか否かを判定し、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであると判定した場合、ネットワークを介して端末に通報をする予測判定処理部と、を備えることを特徴とする行動監視予測システムとして構成される。   In order to solve the above-mentioned problem, the behavior monitoring prediction system according to the present invention is a behavior monitoring prediction system that monitors a suspicious person's behavior and predicts a dangerous act, and the sensor device includes an imaging unit and the imaging unit. And a sensor unit that detects a person from the captured image and transmits image data including the detected person to a computer via a network. The computer includes the suspicious person in the image data. And determining that the image data includes the suspicious person, a detection processing unit that stores the image data in a storage unit, the image data, and the storage unit that stores the image data. Whether or not they match or are similar to each other, and if it is determined that they match or are similar, the stored image data is sent to the suspicious person. If it is determined whether the stored image data is image data indicating a dangerous action by the suspicious person, a notification is sent to the terminal via the network. And a prediction determination processing unit.

また、本発明は、上記行動監視予測システムで行われる行動監視予測方法としても把握される。   Moreover, this invention is grasped | ascertained also as the behavior monitoring prediction method performed with the said behavior monitoring prediction system.

本発明によれば、不審者の行動を監視して危険を予測することができる。   According to the present invention, it is possible to predict the danger by monitoring the behavior of the suspicious person.

本実施の形態における行動監視予測システムの構成例を示す図である。It is a figure which shows the structural example of the action monitoring prediction system in this Embodiment. センサ装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a sensor apparatus. 深度画像の例を示す図である。It is a figure which shows the example of a depth image. 検知蓄積データの例を示す図である。It is a figure which shows the example of detection accumulation data. 表示部が表示する通報データの例を示す図である。It is a figure which shows the example of the report data which a display part displays. 表示部が表示する通報データの例を示す図である。It is a figure which shows the example of the report data which a display part displays. 行動監視予測処理の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process sequence of an action monitoring prediction process.

以下に添付図面を参照して、本発明にかかる行動監視予測システム、行動監視予測方法の実施の形態を詳細に説明する。   Exemplary embodiments of a behavior monitoring prediction system and a behavior monitoring prediction method according to the present invention will be described below in detail with reference to the accompanying drawings.

図1は、本実施の形態における行動監視予測システム1000の構成例を示す図である。図1に示すように、行動監視予測システム1000は、人物や物体等のオブジェクトを検知するセンサ装置100と、センサ装置100が検知した情報に基づいてオブジェクトが不審人物や不審物であるかを判定するコンピュータ200と、コンピュータ200から通報を受ける端末300とを有して構成されている。なお、オブジェクトとは、本システムで監視される人物や物体である。また、不審者とは、監視される人物の中で不審な行動をする者であり、不審物とは、不審者が取り扱う物である。   FIG. 1 is a diagram illustrating a configuration example of a behavior monitoring prediction system 1000 according to the present embodiment. As illustrated in FIG. 1, the behavior monitoring prediction system 1000 determines whether an object is a suspicious person or a suspicious object based on a sensor device 100 that detects an object such as a person or an object, and information detected by the sensor device 100. And a terminal 300 that receives a report from the computer 200. An object is a person or an object monitored by this system. A suspicious person is a person who performs suspicious behavior among monitored persons, and a suspicious object is a thing handled by a suspicious person.

センサ装置100とコンピュータ200とは、ネットワークN1によって接続され、コンピュータ200と端末300とは、ネットワークN2により接続されている。図1では、ネットワークN1が一般的なLAN(Local Area Network)等により構成され、ネットワークN2は、一般的な無線通信ネットワーク等により構成されている場合について示しているが、これら以外の様々なネットワークを用いてよい。また、以下では、センサ装置100とコンピュータ200とが別個の筺体である前提で説明しているが、これらの全部または一部が1つの筺体で構成されていてもよい。   The sensor device 100 and the computer 200 are connected by a network N1, and the computer 200 and the terminal 300 are connected by a network N2. Although FIG. 1 shows a case where the network N1 is configured by a general LAN (Local Area Network) or the like, and the network N2 is configured by a general wireless communication network or the like, various other networks are shown. May be used. In the following description, it is assumed that the sensor device 100 and the computer 200 are separate casings, but all or a part of them may be configured as a single casing.

センサ装置100は、測定対象となるオブジェクト(図1では、人物O)を撮像し、その画像と、オブジェクトの幅、高さ、オブジェクトまでの距離などの情報をコンピュータ200に送信する装置である。センサ装置100は、居室、廊下等のあらかじめ定められた場所に設置される。   The sensor apparatus 100 is an apparatus that captures an image of an object to be measured (person O in FIG. 1) and transmits the image and information such as the width, height, and distance to the object to the computer 200. The sensor device 100 is installed in a predetermined place such as a living room or a hallway.

図2は、センサ装置100の機能的な構成を示すブロック図である。図2に示すように、センサ装置100は、撮像部101と、センサ部102と、通信部103と、制御部104とを有して構成されている。センサ装置100は、例えば、Kinect for Windows(登録商標)によって実現される。   FIG. 2 is a block diagram illustrating a functional configuration of the sensor device 100. As illustrated in FIG. 2, the sensor device 100 includes an imaging unit 101, a sensor unit 102, a communication unit 103, and a control unit 104. The sensor device 100 is realized by, for example, Kinect for Windows (registered trademark).

撮像部101は、オブジェクトを撮像するRGBカメラである。センサ部102は、オブジェクトを検知し、そのオブジェクトとの距離を測定する深度センサである。センサ部102は、深度センサによって得られた距離データを含む深度情報を読み取り、撮像部101が撮像した画像に物体の輪郭や骨格を示す境界が認識された画像(深度画像)を出力する。深度画像の例については図3を用いて後述する。通信部103は、撮像部101が撮像したRGB画像や、上述した深度画像、深度情報等の各種情報をコンピュータ200に送信する。制御部104は、上記各部の動作を制御する。なお、RGB画像は、撮像部101から出力され、深度画像がRGB化されている画像(つまり、深度画像化される前の画像)である。   The imaging unit 101 is an RGB camera that images an object. The sensor unit 102 is a depth sensor that detects an object and measures the distance to the object. The sensor unit 102 reads depth information including distance data obtained by the depth sensor, and outputs an image (depth image) in which an image captured by the imaging unit 101 has recognized a boundary indicating an outline or skeleton of an object. An example of the depth image will be described later with reference to FIG. The communication unit 103 transmits various information such as the RGB image captured by the imaging unit 101 and the above-described depth image and depth information to the computer 200. The control unit 104 controls the operation of each unit described above. The RGB image is an image output from the imaging unit 101 and the depth image is converted to RGB (that is, an image before being converted into a depth image).

図3は、上述した深度画像の例を示す図である。図3では、センサ装置100により物体Pを所持した人物Oが撮像された深度画像を示している。本実施例では、人物が正面を向いている場合について示しているが、センサ装置100を天井ではなく壁に設けて人物の横向きの画像を撮像したり、映像解析部202が、これらの複数の画像から、より正確に人物Oや物体Pのサイズを測定してもよい。   FIG. 3 is a diagram illustrating an example of the above-described depth image. FIG. 3 illustrates a depth image in which the person O who has the object P is captured by the sensor device 100. In the present embodiment, the case where the person is facing the front is shown. However, the sensor device 100 is provided on the wall instead of the ceiling to capture a landscape image of the person, and the video analysis unit 202 can detect the plurality of images. The size of the person O or the object P may be measured more accurately from the image.

図3では、まず、センサ装置100が設置された廊下にいる人物Oが物体Pを所持している状態の画像が撮像され(a)、次に、その人物Oが体の前で物体Pを両手で持つ姿勢をとっている状態の画像が撮像され(b)、続いて、その人物Oが物体Pを右側にあるドアRに向けている姿勢をとっている状態の画像が撮像されている(c)ことを示している。同様に、別のタイミングでは、人物Oが物体Pを片手で持ち上げている状態の画像が撮像され(d)、次に、人物Oが持ち上げていた物体Pの手をおろした状態の画像が撮像されている(e)ことを示している。センサ部102は、撮像部101が連続して撮像したRGB画像の中から所定のタイミング(例えば、1秒間隔)でRGB画像を抽出し、上述した深度画像を生成する。続いて、図1に戻って、コンピュータ200について説明する。   In FIG. 3, first, an image in a state where the person O in the hallway where the sensor device 100 is installed is carrying the object P is captured (a), and then the person O moves the object P in front of the body. An image in a state of taking a posture with both hands is taken (b), and then an image in a state in which the person O is taking a posture in which the object P faces the door R on the right side is taken. (C) shows that. Similarly, at another timing, an image in a state where the person O lifts the object P with one hand is captured (d), and then an image in which the hand of the object P lifted by the person O is captured is captured. (E). The sensor unit 102 extracts an RGB image at a predetermined timing (for example, at intervals of 1 second) from RGB images continuously captured by the imaging unit 101, and generates the above-described depth image. Next, returning to FIG. 1, the computer 200 will be described.

コンピュータ200は、一般的なPCから構成され、センサ装置100から受信したRGB画像、深度画像を解析するとともに深度情報を読み取り、オブジェクトの幅や高さ、オブジェクトまでの距離などを測定し、不審人物や不審物であるかを判定する。図1に示すように、コンピュータ200は、記憶部201と、検知処理部202と、予測判定処理部203と、通信部204と、制御部205とを有して構成されている。   The computer 200 is composed of a general PC, analyzes the RGB image and depth image received from the sensor device 100, reads depth information, and measures the width and height of the object, the distance to the object, etc. Or whether it is a suspicious object. As illustrated in FIG. 1, the computer 200 includes a storage unit 201, a detection processing unit 202, a prediction determination processing unit 203, a communication unit 204, and a control unit 205.

記憶部201は、HDD(Hard Disk Drive)等の一般的な記憶装置から構成され、本システムの処理に必要な各種情報を記憶する。図1に示すように、記憶部201は、検知蓄積データ2011と、マップデータ2012とを記憶する。   The storage unit 201 includes a general storage device such as an HDD (Hard Disk Drive), and stores various types of information necessary for processing of the present system. As illustrated in FIG. 1, the storage unit 201 stores detection accumulation data 2011 and map data 2012.

図4は、検知蓄積データ2011の例を示す図である。検知蓄積データ2011は、センサ装置100から受信したRGB画像、深度画像、深度情報を含む情報のうち、不審者や不審物等のオブジェクトを含むと判定されたデータを記憶する。   FIG. 4 is a diagram illustrating an example of the detected and accumulated data 2011. The detection accumulation data 2011 stores data determined to include an object such as a suspicious person or a suspicious object among information including an RGB image, a depth image, and depth information received from the sensor device 100.

図4に示すように、検知蓄積データ2011は、センサ装置10ごとに、不審者を検知した日時である検知日および検知時刻と、不審者が検知された深度画像に含まれるオブジェクトの種類を示すオブジェクト情報と、深度画像データに含まれている不審者が危険行為をしたことを示す危険フラグと、実際の深度画像データ、RGB画像データ、深度情報とが対応付けて記憶されている。図4では、例えば、A0001で識別されるセンサ装置100は、2015年10月1日の14時01分01秒に、不審者と判定された人物Oと不審物と判定された物体Pとを含むRGB画像を撮像し、対応する深度画像データ、RGB画像データ、深度情報がX1であることを示している。また、その人物Oは、少なくとも2015年10月1日の14時01分01秒から2015年10月1日の14時01分30秒の間、危険行為をしたこと(危険フラグが1)を示している。なお、センサ装置100の識別情報であるA0001は、センサ装置100が実際に設置されている位置情報に対応付けられている。   As illustrated in FIG. 4, the detection accumulation data 2011 indicates, for each sensor device 10, the detection date and detection time that are the date and time when the suspicious person is detected, and the type of object included in the depth image in which the suspicious person is detected. Object information, a danger flag indicating that a suspicious person included in the depth image data has taken a dangerous action, and actual depth image data, RGB image data, and depth information are stored in association with each other. In FIG. 4, for example, the sensor device 100 identified by A0001 receives the person O determined to be a suspicious person and the object P determined to be a suspicious object at 14:01:01 on October 1, 2015. An RGB image including the image is captured, and the corresponding depth image data, RGB image data, and depth information are X1. Further, the person O indicates that he / she has performed a dangerous act (at risk flag 1) from at least 14:01:01 on Oct. 1, 2015 to 14:01:30 on Oct. 1, 2015. Show. A0001 which is identification information of the sensor device 100 is associated with position information where the sensor device 100 is actually installed.

マップデータ2012は、本システムの対象となるエリアの地図情報であり、例えば、センサ装置100が設置されているエリアの地図情報である。マップデータ2012の例については具体的に示していないが、後述する図5、6の上段に示すような一般的な地図情報である。   The map data 2012 is map information of an area that is a target of the present system, for example, map information of an area where the sensor device 100 is installed. An example of the map data 2012 is not specifically shown, but is general map information as shown in the upper part of FIGS.

検知処理部202は、センサ装置100から受信した深度画像の中から、不審者や不審物が撮像されている画像を抽出し、検知蓄積データ2011に蓄積する。不審者や不審物が撮像されている画像の特定方法については、あらかじめ定められた人物(例えば、サングラス着用者、マスク着用者、目出し帽着用者)の形状等の特徴が深度画像中に含まれている場合にはその人物は不審者であると判断することができる。また、その不審者が所持し、取り扱っている不審物(例えば、銃形状の物体、刃物形状の物体、1m以上の長尺物)の形状等の特徴が、深度画像中に含まれている場合にはその人物は不審者であると判断することができる。   The detection processing unit 202 extracts an image in which a suspicious person or a suspicious object is captured from the depth image received from the sensor device 100, and stores the extracted image in the detection accumulation data 2011. Regarding the method of identifying an image in which a suspicious person or suspicious object is captured, the depth image includes characteristics such as the shape of a predetermined person (for example, a sunglasses wearer, a mask wearer, or a balaclava wearer) The person can be determined to be a suspicious person. In addition, the depth image includes features such as the shape of a suspicious object possessed and handled by the suspicious person (for example, a gun-shaped object, a blade-shaped object, a long object of 1 m or longer). The person can be determined to be a suspicious person.

本例では、深度画像の中から不審者の形状(例えば、サングラスをかけている人物の形状)や不審物の形状(例えば、銃や1m以上の長尺物の形状)をあらかじめ不審者または不審物として記憶部201に記憶しておき、それらの形状に一致または類似する形状が含まれている場合に、その深度画像の中には不審者または不審物が含まれていると判定する。もちろん、RGB画像の中から不審者や不審物が含まれているか否かを判定してもよい。例えば、図3(a)から(e)に示した画像には、1m以上の長尺物が含まれているため、検知処理部202は、これらの深度画像には不審物が撮像されていると判定するとともに、その不審物を取り扱っている人物は不審者であると判定し、これら不審物や不審者等のオブジェクト情報と、これらの検知日および検知時刻を、深度画像データ、RGB画像データ、深度情報共に検知蓄積データ2011に蓄積している。検知処理部202が、検知蓄積データ2011を蓄積するタイミングでは、危険フラグには初期値ゼロが設定される。   In this example, the shape of a suspicious person (for example, the shape of a person wearing sunglasses) or the shape of a suspicious object (for example, the shape of a gun or a long object of 1 m or longer) from the depth image is previously set as a suspicious person or a suspicious person. It is stored in the storage unit 201 as an object, and when a shape that matches or similar to these shapes is included, it is determined that the depth image includes a suspicious person or a suspicious object. Of course, it may be determined whether or not a suspicious person or a suspicious object is included in the RGB image. For example, since the images shown in FIGS. 3A to 3E include long objects of 1 m or longer, the detection processing unit 202 captures suspicious objects in these depth images. It is determined that the person handling the suspicious object is a suspicious person, and the object information such as the suspicious object and the suspicious person, the detection date and the detection time thereof, the depth image data, the RGB image data The depth information is accumulated in the detection accumulation data 2011. At the timing when the detection processing unit 202 accumulates the detection accumulation data 2011, an initial value of zero is set in the danger flag.

予測判定処理部203は、センサ装置100から受信した深度画像と、その時点で検知蓄積データ2011に蓄積されている深度画像とを比較し、上記受信した深度画像が、上記蓄積されている深度画像と一致または類似しているか否かを判定することにより、上記受信した深度画像に含まれる不審者による危険行為の有無を予測する。   The prediction determination processing unit 203 compares the depth image received from the sensor device 100 with the depth image stored in the detection accumulation data 2011 at that time, and the received depth image is the accumulated depth image. Whether or not there is a dangerous act by a suspicious person included in the received depth image is determined.

例えば、センサ装置10から図3(a)に示す深度画像を受信した場合、予測判定処理部203は、その図3(a)に示す深度画像と、検知蓄積データ2011に既に蓄積されている深度画像とを比較し、両者が一致または類似する深度画像を、検知蓄積データ2011の中から特定する。上記類似の判定は、例えば、深度画像に含まれる人物Oや物体P等のオブジェクトの画像上の位置や姿勢、角度、数などを基準として、これらの値が一致または一定の範囲内の差を有した値であれば、少なくとも両者は類似していると判定することができる。   For example, when the depth image illustrated in FIG. 3A is received from the sensor device 10, the prediction determination processing unit 203 performs the depth image illustrated in FIG. 3A and the depth already accumulated in the detection accumulation data 2011. The images are compared, and a depth image that matches or is similar to each other is specified from the detected accumulated data 2011. The similarity determination is performed by, for example, determining whether the values match or are within a certain range based on the position, posture, angle, number, and the like of an object such as the person O or the object P included in the depth image. If it has the value, it can be determined that at least both are similar.

そして、予測判定処理部203は、両者が一致または類似していると判定した場合、検知蓄積データ2011に蓄積されているその深度画像から連続して蓄積された検知蓄積データ2011の危険フラグがセット(本例では1が設定)されているか否かを判定する。検知蓄積データ2011の危険フラグがセットされている場合、予測判定処理部203は、そのような不審者は過去に危険行為をしたと判断し、センサ装置100から受信した、その不審者や不審物が含まれる深度画像に対応する検知蓄積データ2011の危険フラグをセットする。   If the prediction determination processing unit 203 determines that the two match or are similar, the danger flag of the detection accumulation data 2011 continuously accumulated from the depth image accumulated in the detection accumulation data 2011 is set. It is determined whether or not (in this example, 1 is set). When the danger flag of the detection accumulation data 2011 is set, the prediction determination processing unit 203 determines that such a suspicious person has performed a dangerous act in the past, and the suspicious person or suspicious object received from the sensor device 100. Is set to the danger flag of the detected accumulated data 2011 corresponding to the depth image including the.

このように、予測判定処理部203は、センサ装置100から受信した深度画像に含まれる不審者や不審物と、過去の深度画像に含まれている不審者や不審物とを比較して両者が少なくとも類似している場合、その深度画像に対応する検知蓄積データ2011の中から、その後に危険行為がされたときの深度画像の有無を判定する。そして、危険行為がされたときの深度画像が特定できた場合、センサ装置100から受信した深度画像に続いて受信する予定の深度画像には上記危険行為と同様の危険行為が撮像されていると予測し、通報データを生成する。その後、予測判定処理部203は、端末300にその通報データを送信するとともに、センサ装置100から受信した深度画像および続いて受信する深度画像のうち危険行為をすると予測した不審者や不審物が含まれている深度画像に対応する検知蓄積データ2011の危険フラグをセットする。   As described above, the prediction determination processing unit 203 compares the suspicious person or suspicious object included in the depth image received from the sensor device 100 with the suspicious person or suspicious object included in the past depth image. If it is at least similar, the presence / absence of a depth image when a dangerous act is subsequently performed is determined from the detected accumulated data 2011 corresponding to the depth image. And when the depth image at the time of a dangerous act being able to be specified, the same dangerous action as the said dangerous action is imaged in the depth image which is scheduled to receive following the depth image received from the sensor apparatus 100. Predict and generate report data. Thereafter, the prediction determination processing unit 203 transmits the notification data to the terminal 300 and includes a suspicious person or a suspicious object that is predicted to perform a dangerous act among the depth image received from the sensor device 100 and the subsequently received depth image. The danger flag of the detection accumulation data 2011 corresponding to the depth image being set is set.

例えば、予測判定処理部203は、センサ装置100から受信した図3(a)に示す深度画像に不審者や不審物が含まれ、蓄積されている検知蓄積データ2011に類似していると判定した場合、その蓄積されている検知蓄積データ2011あるいはその後に続けて蓄積されている検知蓄積データ2011に危険フラグに「1」がセットされているか否かを判定する。そして、予測判定処理部203は、危険フラグに「1」がセットされていると判定した場合、図3(a)およびこれに続いて受信する予定の図3(b)、(c)の深度画像にも不審者や不審物が含まれ、過去と同様の危険行為が発生すると予測する。そして、予測判定処理部203は、これらの深度画像に対応する検知蓄積データ2011の危険フラグに「1」をセットするとともに、通報データを生成し、端末300に送信する。予測判定処理部203が危険フラグをセットしておくことにより、危険行為と判定される深度画像の数が増え、その中から不審者の危険行為の有無を判定することができ、今後、同様の不審者や不審物が撮像された場合であっても、精度よくその不審者が危険行為をするか否かを予測することができる。   For example, the prediction determination processing unit 203 determines that the depth image shown in FIG. 3A received from the sensor device 100 includes a suspicious person or a suspicious object and is similar to the accumulated accumulated detection data 2011. In this case, it is determined whether or not the danger flag is set to “1” in the accumulated detected accumulated data 2011 or the detected accumulated data 2011 subsequently accumulated. Then, if the prediction determination processing unit 203 determines that “1” is set in the danger flag, the depth of FIG. 3A and the depths of FIG. 3B and FIG. The image includes suspicious persons and suspicious objects, and predicts that dangerous behavior similar to the past will occur. Then, the prediction determination processing unit 203 sets “1” to the danger flag of the detected accumulation data 2011 corresponding to these depth images, generates notification data, and transmits the notification data to the terminal 300. When the prediction determination processing unit 203 sets a danger flag, the number of depth images determined as dangerous actions increases, and it is possible to determine whether or not there is a suspicious person's dangerous action. Even when a suspicious person or a suspicious object is imaged, it is possible to accurately predict whether or not the suspicious person will perform a dangerous act.

なお、危険行為としては、例えば、ある人物が銃を構える姿勢、長い棒で壁や扉を突き刺す姿勢が挙げられる。どのような行為が危険行為に該当するかについては、上記不審者や不審物と同様、あらかじめ定められ、記憶部201に記憶されている。したがって、定められた行為以外の行為は危険行為として判定されない。例えば、図3(d)、(e)に示した深度画像では、人物Oが物体Pを片手で持ち上げて、人物Oが持ち上げていた物体Pの手をおろした行為であるため、これらの行為はあらかじめ記憶部201に記憶されておらず、上記危険行為であるとは判定されない。   Examples of dangerous actions include a posture in which a person holds a gun, and a posture in which a long stick sticks a wall or door. As with the suspicious person and the suspicious object, what kind of action corresponds to the dangerous action is determined in advance and stored in the storage unit 201. Therefore, actions other than the prescribed actions are not determined as dangerous actions. For example, in the depth images shown in FIGS. 3D and 3E, since the person O lifts the object P with one hand and the person O lifts the hand of the object P, these actions are performed. Is not stored in advance in the storage unit 201 and is not determined to be the dangerous action.

このように、予測判定処理部203は、センサ装置100から過去に受信して蓄積されている深度画像と、センサ装置100から現在受信している深度画像とを比較したうえで、センサ装置100から現在受信している深度画像に含まれる不審者や不審物に少なくとも類似する深度画像を特定し、さらにその深度画像が危険行為を撮像した時のものである場合には、これから過去と同様の危険行為が撮像されると予測し、直ちに通報する。したがって、過去と同様の危険行為の発生を未然に防ぐことができる。   As described above, the prediction determination processing unit 203 compares the depth image received and accumulated in the past from the sensor device 100 with the depth image currently received from the sensor device 100, and then from the sensor device 100. If a depth image that is at least similar to a suspicious person or suspicious object contained in the currently received depth image is identified, and the depth image is taken when a dangerous action is taken, the same risk as in the past Predict that the action will be imaged and report immediately. Therefore, it is possible to prevent the occurrence of dangerous acts similar to the past.

通信部204は、予測判定処理部203による予測判定後の通報データ等の各種情報を端末300に送信する。制御部205は、上記各部の動作を制御する。続いて、図1に戻って、端末300について説明する。   The communication unit 204 transmits various types of information such as report data after the prediction determination by the prediction determination processing unit 203 to the terminal 300. The control unit 205 controls the operation of each unit. Next, returning to FIG. 1, the terminal 300 will be described.

端末300は、一般的なPCから構成され、コンピュータ200から受信した予測判定後の通報データを、ディスプレイ等の表示装置に表示する。図1に示すように、端末300は、表示部301と、命令処理部302と、通信部303と、制御部304とを有して構成されている。   The terminal 300 is composed of a general PC, and displays the notification data after the prediction determination received from the computer 200 on a display device such as a display. As illustrated in FIG. 1, the terminal 300 includes a display unit 301, a command processing unit 302, a communication unit 303, and a control unit 304.

表示部201は、LCD(Liquid Crystal Display)等の一般的なディスプレイから構成され、コンピュータ200から受信した通報データ等、通報に関する様々な情報を表示する。   The display unit 201 is composed of a general display such as an LCD (Liquid Crystal Display), and displays various information related to the report, such as report data received from the computer 200.

図5は、表示部301が表示する通報データの例を示す図である。図5に示すように、表示部301は、センサ装置100が設置されているエリア付近のマップデータ2012を表示するマップ表示領域Sと、通報されるコンテンツを表示するコンテンツ表示領域Tとを表示する。図5に示す例では、A0001で識別されるセンサ装置100が設置され、センサ装置100が撮像可能な範囲のエリア付近の地図に、危険行為をすると予測される不審者(人物O)および不審物(物体P)の位置が重畳表示されたデータが画面上段に表示されている。また、画面下段には、人物Oが物体Pにより危険行為をする可能性があることを示すメッセージと、警備員に対して、直ちに現場に急行する要請をするメッセージとが表示されている。   FIG. 5 is a diagram illustrating an example of report data displayed on the display unit 301. As shown in FIG. 5, the display unit 301 displays a map display area S that displays map data 2012 near the area where the sensor device 100 is installed, and a content display area T that displays the reported content. . In the example shown in FIG. 5, a suspicious person (person O) and a suspicious object that are predicted to perform a dangerous act on a map in the vicinity of an area in which the sensor apparatus 100 identified by A0001 is installed and can be imaged. Data on which the position of (object P) is superimposed is displayed at the top of the screen. In the lower part of the screen, a message indicating that there is a possibility that the person O may perform a dangerous act with the object P and a message requesting immediate security to the security staff are displayed.

本実施例では、通報データを端末300に表示する場合について説明しているが、警備員が到着する前に、現場付近にいる人々の身の安全を確保すべき場合もあると考えられる。そのような場合に備え、例えば、コンピュータ200は、端末300に通報データを送信するとともにセンサ装置100に対して通報データを送信し、センサ装置100の通信部103が、センサ装置100内に設けられた不図示のスピーカから、付近で危険行為が行われる可能性があることを報知してもよい。さらに、センサ装置100が、公衆無線LANを介して、センサ装置100の付近にいる人が操作している携帯端末に接続可能な場合には、その携帯端末に対して通報データを割り込みで送信し、表示してもよい。例えば、図6に示すように、上記同様の地図データと、上記同様のメッセージおよび避難連絡を示すメッセージとを、通報データとして携帯端末に送信し、表示させてもよい。これにより、その付近にいる人は、危険行為が近くで起こっていることを知ることができ、直ちに逃げる等の身の安全を確保することができる。続いて、本システムで行われる処理について説明する。   In the present embodiment, the case where the notification data is displayed on the terminal 300 is described, but it is considered that there are cases where the safety of people near the site should be secured before the security guard arrives. In preparation for such a case, for example, the computer 200 transmits report data to the terminal 300 and transmits the report data to the sensor device 100, and the communication unit 103 of the sensor device 100 is provided in the sensor device 100. Further, it may be notified from the speaker (not shown) that a dangerous act may be performed in the vicinity. Further, when the sensor device 100 can be connected to a mobile terminal operated by a person in the vicinity of the sensor device 100 via a public wireless LAN, notification data is transmitted to the mobile terminal by interruption. , May be displayed. For example, as shown in FIG. 6, the same map data as described above, and the same message and message indicating evacuation communication may be transmitted to the portable terminal as report data and displayed. As a result, the person in the vicinity can know that the dangerous act is taking place nearby, and can secure personal safety such as escaping immediately. Next, processing performed in this system will be described.

図7は、本システムで行われる処理(行動監視予測処理)の処理手順を示すシーケンス図である。図7に示すように、行動監視予測処理では、センサ装置100の撮像部101がRGB画像を撮像し(ステップS701)、センサ部102が人物や物体等のオブジェクトを検知して深度画像を生成し(ステップS702)、通信部703を介してその深度画像データ、RGB画像データ、深度情報をコンピュータ200に送信する(ステップS703)。   FIG. 7 is a sequence diagram illustrating a processing procedure of processing (behavior monitoring prediction processing) performed in the present system. As illustrated in FIG. 7, in the behavior monitoring prediction process, the imaging unit 101 of the sensor device 100 captures an RGB image (step S701), and the sensor unit 102 detects an object such as a person or an object to generate a depth image. (Step S702), the depth image data, RGB image data, and depth information are transmitted to the computer 200 via the communication unit 703 (Step S703).

コンピュータ200の検知処理部202は、センサ装置100から受信したデータのうち不審者や不審物が含まれている深度画像データ、RGB画像データ、深度情報を特定し、検知蓄積データ2011として記憶部201に蓄積する(ステップS704)。予測判定処理部203は、検知処理部202により特定された深度画像と、検知蓄積データ2011に蓄積されている深度画像とを比較する(ステップS705)。   The detection processing unit 202 of the computer 200 identifies depth image data, RGB image data, and depth information that include a suspicious person or a suspicious object from the data received from the sensor device 100, and the storage unit 201 as detection accumulation data 2011. (Step S704). The prediction determination processing unit 203 compares the depth image specified by the detection processing unit 202 with the depth image stored in the detection accumulation data 2011 (step S705).

予測判定処理部203は、両者が一致または類似していると判定した場合、蓄積されている深度画像またはその後続けて蓄積されている深度画像に対応する検知蓄積データ2011の危険フラグがセットされているか否かを判定する(ステップS706)。予測判定処理部203は、検知蓄積データ2011の危険フラグがセットされていると判定した場合(ステップS706;Yes)、ステップS703で受信し、ステップS704で蓄積した深度画像に対応する検知蓄積データ2011の危険フラグをセットするとともに、通報データを生成する(ステップS707)。一方、予測判定処理部203は、検知蓄積データ2011の危険フラグがセットされていないと判定した場合(ステップS706;No)、ステップS704に戻って処理を続行する。   When the prediction determination processing unit 203 determines that the two match or are similar, the danger flag of the detection accumulation data 2011 corresponding to the accumulated depth image or the depth image accumulated thereafter is set. It is determined whether or not (step S706). If the prediction determination processing unit 203 determines that the danger flag of the detected accumulated data 2011 is set (step S706; Yes), the detected accumulated data 2011 corresponding to the depth image received in step S703 and accumulated in step S704. Is set, and notification data is generated (step S707). On the other hand, when the prediction determination processing unit 203 determines that the danger flag of the detected accumulation data 2011 is not set (step S706; No), the prediction determination processing unit 203 returns to step S704 and continues the processing.

予測判定処理部203は、危険フラグをセットした検知蓄積データ2011についての通報データを端末300に送信し(ステップS708)、端末300の命令処理部302は、表示部301に通報データを表示する(ステップS709)。システム管理者や警備員は、表示部301に表示された通報データを目視することで、危険行為を行うと予測される不審者を容易に確認することができる。   The prediction determination processing unit 203 transmits report data about the detected accumulation data 2011 in which the danger flag is set to the terminal 300 (step S708), and the command processing unit 302 of the terminal 300 displays the report data on the display unit 301 ( Step S709). A system administrator or a security guard can easily confirm a suspicious person who is predicted to perform a dangerous act by viewing the report data displayed on the display unit 301.

このように、本システムでは、上記処理を実行することにより、不審者の行動を監視して危険を予測することができる。従来は不審者が行動した後にしか、その不審者の危険行為を判断できなかったが、本システムによれば、過去に不審者と判断された人物の行動から不審者の行動を予測し、予測した行動が過去の危険行為に該当する場合には直ちに通報する。したがって、実際に危険行為が発生する前にシステム管理者や警備員に通報することができる。   In this way, in this system, by executing the above process, it is possible to predict the risk by monitoring the behavior of the suspicious person. Previously, the risky behavior of a suspicious person could only be determined after the suspicious person acted.However, according to this system, the behavior of a suspicious person is predicted from the behavior of a person who has been determined to be a suspicious person in the past. Immediately notify you if the action you have taken is a past dangerous act. Therefore, it is possible to notify the system administrator and the security guard before a dangerous act actually occurs.

上記センサ装置100、コンピュータ200、端末300で行われる各処理は、実際には、センサ装置100、コンピュータ200、端末300にインストールされたプログラムを実行することにより実現される。上記プログラムは、ROM等に予め組み込まれて提供されたり、インストール可能な形式又は実行可能な形式のファイルで記録媒体に記録して提供したり、配布してもよい。   Each process performed by the sensor device 100, the computer 200, and the terminal 300 is actually realized by executing a program installed in the sensor device 100, the computer 200, and the terminal 300. The program may be provided by being incorporated in advance in a ROM or the like, or may be provided by being recorded on a recording medium in a file in an installable format or an executable format, or distributed.

なお、上記実施例では、廊下等のオープンな場所にセンサ装置を設置した場合について説明したが、例えば、トイレの中など、通常カメラが設置できないような密室にセンサ装置を設置し、上記のように危険行為を予測してもよい。この場合、カメラが設置されないような空間でも危険行為を予測することができる。   In the above embodiment, the case where the sensor device is installed in an open place such as a corridor has been described. However, for example, the sensor device is installed in a closed room where a camera cannot be installed, such as in a toilet. You may predict dangerous behavior. In this case, a dangerous act can be predicted even in a space where no camera is installed.

1000 行動監視予測システム
100 センサ装置
101 撮像部
102 センサ部
103 通信部
104 制御部
200 コンピュータ
201 記憶部
2011 検知蓄積データ
2012 マップデータ
202 検知処理部
203 予測判定処理部
204 通信部
205 制御部
300 端末
301 表示部
302 命令処理部
303 通信部
304 制御部
N1、N2 ネットワーク。
1000 Action Monitoring Prediction System 100 Sensor Device 101 Imaging Unit 102 Sensor Unit 103 Communication Unit 104 Control Unit 200 Computer 201 Storage Unit 2011 Detection Accumulated Data 2012 Map Data 202 Detection Processing Unit 203 Prediction Determination Processing Unit 204 Communication Unit 205 Control Unit 300 Terminal 301 Display unit 302 Command processing unit 303 Communication unit 304 Control unit N1, N2 Network.

Claims (4)

不審者の行動を監視し、危険行為を予測する行動監視予測システムであって、
センサ装置は、
撮像部と、
前記撮像部が撮像した画像から人物を検知し、検知した前記人物を含む画像データを、ネットワークを介してコンピュータに送信するセンサ部と、を備え、
前記コンピュータは、
前記画像データに前記不審者が含まれているか否かを判定し、前記画像データに前記不審者が含まれていると判定した場合、前記画像データを記憶部に蓄積する検知処理部と、
前記画像データと、前記記憶部に蓄積されている画像データとに基づいて、両者が一致または類似するか否かを判定し、両者が一致または類似すると判定した場合、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであるか否かを判定し、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであると判定した場合、ネットワークを介して端末に通報をする予測判定処理部と、
を備えることを特徴とする行動監視予測システム。
A behavior monitoring and prediction system that monitors the behavior of a suspicious person and predicts dangerous behavior,
The sensor device
An imaging unit;
A sensor unit that detects a person from an image captured by the imaging unit and transmits image data including the detected person to a computer via a network;
The computer
Determining whether or not the image data includes the suspicious person, and when determining that the image data includes the suspicious person, a detection processing unit that accumulates the image data in a storage unit;
Based on the image data and the image data stored in the storage unit, it is determined whether or not they match or similar, and when it is determined that they match or similar, the stored image data Is determined to be image data indicating a dangerous action by the suspicious person, and when it is determined that the stored image data is image data indicating a dangerous action by the suspicious person, the terminal is connected via the network. A prediction determination processing unit that reports to
A behavior monitoring and prediction system comprising:
前記予測判定処理部は、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであると判定した場合、前記センサ装置から受信して前記検知処理部が前記記憶部に蓄積した画像データを、危険行為を示す画像データとして設定する、
ことを特徴とする請求項1に記載の行動監視予測システム。
When it is determined that the stored image data is image data indicating a dangerous act by the suspicious person, the prediction determination processing unit receives from the sensor device and the detection processing unit accumulates in the storage unit Set the image data as image data indicating a dangerous act,
The behavior monitoring prediction system according to claim 1.
前記予測判定処理部は、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであると判定した場合、前記センサ装置が設置されている場所を示す地図データと前記不審者が危険行為をする可能性があることを示すメッセージと、警備員に現場に急行する要請をするメッセージとを含む通報データを生成し、生成した前記通報データを前記端末に送信することにより、前記通報をする、
ことを特徴とする請求項1または2に記載の行動監視予測システム。
When the prediction determination processing unit determines that the stored image data is image data indicating a dangerous act by the suspicious person, the map data indicating a place where the sensor device is installed and the suspicious person By generating notification data including a message indicating that there is a possibility of taking a dangerous action and a message requesting the guard to urgently go to the scene, and transmitting the generated notification data to the terminal, the notification do,
The behavior monitoring prediction system according to claim 1 or 2, wherein
不審者の行動を監視し、危険行為を予測する行動監視予測方法であって、
センサ装置の撮像部が撮像した画像から人物を検知し、
検知した前記人物を含む画像データを、ネットワークを介してコンピュータに送信し、
前記画像データに前記不審者が含まれているか否かを判定し、
前記画像データに前記不審者が含まれていると判定した場合、前記画像データを記憶部に蓄積し、
前記画像データと、前記記憶部に蓄積されている画像データとに基づいて、両者が一致または類似するか否かを判定し、
両者が一致または類似すると判定した場合、前記蓄積されている画像データが前記不審者による危険行為を示す画像データであるか否かを判定し、
前記蓄積されている画像データが前記不審者による危険行為を示す画像データであると判定した場合、ネットワークを介して端末に通報をする、
ことを特徴とする行動監視予測方法。
A behavior monitoring prediction method for monitoring a suspicious person's behavior and predicting dangerous behavior,
A person is detected from the image captured by the imaging unit of the sensor device,
Send image data including the detected person to a computer via a network,
Determining whether the suspicious person is included in the image data;
When it is determined that the suspicious person is included in the image data, the image data is stored in a storage unit,
Based on the image data and the image data stored in the storage unit, it is determined whether or not both match or are similar,
If it is determined that both match or similar, determine whether the stored image data is image data indicating a dangerous act by the suspicious person,
If it is determined that the stored image data is image data indicating a dangerous act by the suspicious person, a notification is sent to the terminal via the network.
A behavior monitoring prediction method characterized by that.
JP2015243331A 2015-12-14 2015-12-14 Behavior monitoring prediction system and behavior monitoring prediction method Pending JP2017111496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015243331A JP2017111496A (en) 2015-12-14 2015-12-14 Behavior monitoring prediction system and behavior monitoring prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015243331A JP2017111496A (en) 2015-12-14 2015-12-14 Behavior monitoring prediction system and behavior monitoring prediction method

Publications (1)

Publication Number Publication Date
JP2017111496A true JP2017111496A (en) 2017-06-22

Family

ID=59080756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015243331A Pending JP2017111496A (en) 2015-12-14 2015-12-14 Behavior monitoring prediction system and behavior monitoring prediction method

Country Status (1)

Country Link
JP (1) JP2017111496A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047002A (en) * 2018-09-19 2020-03-26 トヨタホーム株式会社 Crime prevention system and crime prevention management system
JP2020149389A (en) * 2019-03-14 2020-09-17 三菱電機株式会社 Suspicious behavior detection system
JP7459558B2 (en) 2020-02-26 2024-04-02 富士通株式会社 Abnormal behavior detection method, abnormal behavior detection program, and abnormal behavior detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047002A (en) * 2018-09-19 2020-03-26 トヨタホーム株式会社 Crime prevention system and crime prevention management system
JP7103901B2 (en) 2018-09-19 2022-07-20 トヨタホーム株式会社 Security system and security management system
JP2020149389A (en) * 2019-03-14 2020-09-17 三菱電機株式会社 Suspicious behavior detection system
JP7285661B2 (en) 2019-03-14 2023-06-02 三菱電機株式会社 Suspicious behavior detector
JP7459558B2 (en) 2020-02-26 2024-04-02 富士通株式会社 Abnormal behavior detection method, abnormal behavior detection program, and abnormal behavior detection device

Similar Documents

Publication Publication Date Title
KR101766305B1 (en) Apparatus for detecting intrusion
EP3118826B1 (en) Home, office security, surveillance system using micro mobile drones and ip cameras
JP6915542B2 (en) Information processing equipment, notification system, information transmission method and program
US10949657B2 (en) Person's behavior monitoring device and person's behavior monitoring system
KR101485022B1 (en) Object tracking system for behavioral pattern analysis and method thereof
KR101544019B1 (en) Fire detection system using composited video and method thereof
JPWO2020152851A1 (en) Digital search security systems, methods and programs
JP7162412B2 (en) detection recognition system
JP2013084248A (en) Information sharing device and program
JP6233624B2 (en) Information processing system, information processing method, and program
KR20160074208A (en) System and method for providing safety service using beacon signals
KR102069270B1 (en) CCTV system with fire detection
JP2017111496A (en) Behavior monitoring prediction system and behavior monitoring prediction method
JP2009077064A (en) Monitoring method and monitoring apparatus
KR102233679B1 (en) Apparatus and method for detecting invader and fire for energy storage system
KR20180066688A (en) Digital Social Shield System using Deep Active Semi-Supervised Learning
JP6017163B2 (en) Security device and security method
WO2019176222A1 (en) Anomaly sensing system, anomaly sensing method, and anomaly sensing program
JP2010238187A (en) Security system and security method
EP3496397A1 (en) Systems and methods for automatic video recording
JP2021087103A (en) Information processing device, control method of the same, and program
KR101629219B1 (en) An elevator monitor that restricts access through face recognition
KR20160131678A (en) Portable device for protecting having camera and method for taking picture
KR101223606B1 (en) System for intelligently monitoring image for monitoring elevator
JP2017188861A (en) Portable crime-preventing terminal, crime prevention management device, crime prevention method, and computer program