JP2008152586A - Automatic identification monitor system for area surveillance - Google Patents

Automatic identification monitor system for area surveillance Download PDF

Info

Publication number
JP2008152586A
JP2008152586A JP2006340610A JP2006340610A JP2008152586A JP 2008152586 A JP2008152586 A JP 2008152586A JP 2006340610 A JP2006340610 A JP 2006340610A JP 2006340610 A JP2006340610 A JP 2006340610A JP 2008152586 A JP2008152586 A JP 2008152586A
Authority
JP
Japan
Prior art keywords
pattern
monitoring
behavior
suspicious
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006340610A
Other languages
Japanese (ja)
Inventor
Masakazu Suzuki
正和 鈴木
Shinji Ishihara
慎二 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Engineering Ltd
Original Assignee
NEC Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Engineering Ltd filed Critical NEC Engineering Ltd
Priority to JP2006340610A priority Critical patent/JP2008152586A/en
Publication of JP2008152586A publication Critical patent/JP2008152586A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve identification accuracy of a monitoring target and to detect also a monitoring target whose behavior is suspicious. <P>SOLUTION: A monitoring target identification part 22 registers monitoring target patterns and identifies the monitoring target from a photographed image by using a pattern matching technique. A noise eliminating part 21 registers noise patterns to be eliminated; and when noise in the video coincides with any of the noise patterns, the noise is eliminated by using the pattern-matching technique. A behavior suspicious pattern registration part 25 registers behavior suspicious patterns of monitoring targets and a behavior suspicious pattern identification part 24 identifies whether the moving action pattern of the monitoring target matches any of the registered behavior suspicious patterns of the monitoring targets, by using an optical flow image processing technique. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理技術であるパターンマッチング技術とオプティカルフロー技術を用いたエリア警戒自動識別監視システムに関する。   The present invention relates to an area warning automatic identification and monitoring system using a pattern matching technique and an optical flow technique which are image processing techniques.

従来のエリア警戒自動識別監視システムでは、監視カメラを用いて撮影した映像から不審人物、車輌等の侵入を検知して警報発報するようにしている(文献公知発明に係るものではない)。このようなエリア警戒自動識別監視システムは、例えば、埠頭のゲートやフェンス、船舶や波止場に監視カメラを設置して、監視カメラが撮影した映像情報から物体の映像情報を抽出し、人物や車輌を検知し識別した場合には警報を発報する。監視センターの画像モニタが監視カメラの撮影映像を映し出し、監視員が不審者や不審車輌を発見した場合、直ちに警戒発報を発し警察等に通報する。   In a conventional area warning automatic identification and monitoring system, an intrusion of a suspicious person, a vehicle, or the like is detected from an image captured using a monitoring camera (not related to a known invention in the literature). Such an area warning automatic identification and monitoring system, for example, installs a surveillance camera at a gate or fence at a pier, a ship or a wharf, extracts video information of an object from video information taken by the surveillance camera, and selects a person or vehicle. When it is detected and identified, an alarm is issued. When the image monitor of the surveillance center displays the video captured by the surveillance camera and the surveillance staff finds a suspicious person or a suspicious vehicle, a warning alert is immediately issued and the police are notified.

しかし、監視員による監視カメラ画像の目視による監視では、少人数の監視員が多数の画像モニタを監視している場合、全ての画像モニタ画面に対して注意が届かず不審行動や異常行動を見落とす恐れがある。また、カメラ監視を行っているふ頭作業エリア等では、フェンスおよびゲートにセンサーを装備する場合があるが、そのセンサー発報は監視員によって、確認する人為的行為によって行うため、故障や切断または風等の自然現象による外的要因で誤発報する場合がある問題がある。この場合、監視員は画像モニタ画面で毎回確認する必要がある。更に、映像情報から人物、車輌等の映像情報を抽出するパターンマッチングによる画像処理方法も周知である。   However, in the visual monitoring of surveillance camera images by surveillance personnel, when a small number of surveillance personnel are monitoring a large number of image monitors, all the image monitor screens do not receive attention and overlook suspicious behavior and abnormal behavior. There is a fear. In addition, in the wharf work area where cameras are monitored, sensors may be installed on fences and gates. However, since the sensor alerts are performed by the human beings to be checked by the surveillance staff, they may fail, be cut or wind. There is a problem that it may be falsely reported due to external factors such as natural phenomena. In this case, it is necessary for the monitor to check the image monitor screen every time. Furthermore, an image processing method by pattern matching for extracting video information such as a person and a vehicle from video information is also well known.

この種の従来技術を記載した特許文献として、監視領域に進入した物体がない状態で撮像入力される画像を初期画像用メモリ、初期画像を所定の大きさに細分割処理した領域毎に得られる像が示す物体までの距離を距離マップ用メモリに、それぞれ格納しておき、監視領域に物体が進入して監視画像用メモリに監視画像が得られると、初期画像用メモリに格納されている初期画像との間で、例えば差分処理を実行して初期画像中に存在しない画像成分を検出することにより移動物体の像を移動物体画像用メモリに格納し、この検出物体像に対して距離マップ用メモリを参照し、移動物体が検出された細分割領域の距離情報を求めことにより移動物体までの距離を求めるようにした「監視装置」が知られている(例えば、特許文献1参照)。   As a patent document describing this type of prior art, an image captured and input without any object entering the monitoring area is obtained for each initial image memory, and the initial image is subdivided into a predetermined size for each area. The distance to the object indicated by the image is stored in the distance map memory, and when the object enters the monitoring area and the monitoring image is obtained in the monitoring image memory, the initial value stored in the initial image memory is stored. For example, a difference process is performed between the image and the image component that does not exist in the initial image is detected, and the moving object image is stored in the moving object image memory. A “monitoring device” is known in which a distance to a moving object is obtained by obtaining distance information of a subdivision area where the moving object is detected with reference to a memory (for example, see Patent Document 1).

また、監視領域に対する撮影前後の画像の差分画像をデジタル化したデジタル画像に含まれる所定値を有する画素の固まりを検出し、検出された固まりについて面積が大きい順に当該固まりを含む所定形状の領域を設定し、この領域内に存在する固まりの合計面積を求め、それが所定範囲内である場合に、領域内に存在する固まりが侵入者の画像として認知されるようにした「侵入者識別システム」も公知である(例えば、特許文献2参照)。   In addition, a block of pixels having a predetermined value included in a digital image obtained by digitizing a difference image between images before and after shooting with respect to the monitoring region is detected, and an area having a predetermined shape including the block in order of increasing area of the detected block. `` Intruder identification system '' that sets and determines the total area of clusters present in this area, and when it is within a predetermined range, the clusters present in the area are recognized as intruder images Is also known (see, for example, Patent Document 2).

特公平6−095008(第2頁−第3頁、図1)Japanese Patent Publication No. 6-095008 (2nd page-3rd page, Fig. 1) 特許第2612662号(第2頁−第3頁、図2)Japanese Patent No. 2612662 (2nd page to 3rd page, FIG. 2)

しかしながら、上述したパターンマッチングによる画像処理方法では、人物や車輌等を検知することは出来ても、不特定多数の人物や車輌が出入りし、作業する場所の場合、撮影した映像情報から不審者や不審車輌であることを見分けることは極めて困難である。例えば、ふ頭エリア内にてゲートやフェンスをよじ登ったり、破壊したりして侵入する場合、ふ頭内の作業者や作業車輌を撮影している監視カメラ映像から不審行動や異常行動と、通常の作業行動とを自動的に切り分け、警戒発報をすることはできない。   However, in the image processing method based on the pattern matching described above, even if people and vehicles can be detected, an unspecified number of people and vehicles come and go, and in places where work is performed, suspicious persons and It is very difficult to tell if it is a suspicious vehicle. For example, when climbing or destroying a gate or fence in the wharf area, suspicious or abnormal behavior and normal work can be seen from the surveillance camera images of workers or work vehicles in the wharf. It is not possible to automatically discriminate between actions and alerts.

また、特許文献1記載の技術では、移動物体の大きさを判断して警報を発するため、人,二輪車,車,船等のように移動物体の形を判断して警報するものではないので、監視対象物の識別精度が低いため、対象外の物まで識別してしまう誤検出が非常に多いという問題点がある。これは、この技術は、進入物体によって遮られた画像部分は少なくとも進入物体より遠くの位置に存在することから、進入物体は距離マップ用メモリから求められる最短距離情報の位置に存在するとして、これにより、3次元画像処理等の複雑な画像処理なくして物体までの距離を求めることを意図したものであるからである。   In addition, since the technology described in Patent Document 1 issues a warning by determining the size of a moving object, it does not warn by determining the shape of a moving object such as a person, a motorcycle, a car, or a ship. Since the identification accuracy of the monitoring object is low, there is a problem that there are very many false detections that identify even an object that is not the object. In this technique, since the image portion obstructed by the approaching object exists at least at a position farther than the approaching object, the approaching object exists at the position of the shortest distance information obtained from the distance map memory. This is because it is intended to obtain the distance to the object without complicated image processing such as three-dimensional image processing.

また、特許文献2記載の技術でも、指定エリア内で動いている物体の面積サイズにより、人のみを判断して発報するだけで、他の対象物の識別検出、従って挙動が不審な行動の監視対象物を自動的に検知することができないし、通常の作業者や通行人や作業車輌と、挙動不審な行動をする者との識別もできないという問題点がある。また、映像内のざわつき(例えば木の揺れ、波)を不要な監視対象物として排除するのも物体の面積サイズで判断するため、ざわつき内に物体が入ると識別できなかったり誤発報することがある。   In the technique described in Patent Document 2, it is also possible to detect and detect other objects, and thus behave suspiciously, only by judging only the person based on the area size of the object moving within the designated area. There is a problem that it is not possible to automatically detect the monitoring object, and it is impossible to distinguish a normal worker, a passerby, a work vehicle, and a person who behaves suspiciously. In addition, it is judged by the area size of the object that noises in the video (for example, shaking of the tree, waves) are excluded as unnecessary objects to be monitored. There is.

そこで、本発明の目的は、監視エリア内の監視対象物である人・車・二輪などの識別精度を高くし、監視対象物の識別精度を維持し、更に挙動が不審な監視対象物も検知できるエリア警戒自動識別監視システムを提供することにある。   Therefore, the object of the present invention is to increase the identification accuracy of people, vehicles, motorcycles, etc., which are the monitoring objects in the monitoring area, maintain the identification accuracy of the monitoring objects, and also detect monitoring objects with suspicious behavior. It is to provide an area warning automatic identification and monitoring system that can be used.

本発明のエリア警戒自動識別監視システムは、監視対象物パターンを登録し、撮影された映像からパターンマッチングの画像処理技術を用いて監視対象物を識別処理する監視対象識別部(図1の22)と、識別処理の結果により監視対象物以外を映像から排除処理する監視対象外排除部(図1の23)を設けたことを特徴とする。登録する監視対象物パターンは、監視対象物の画像ピクセルの一番外側にある頂点を抽出して接続した模擬図形とすることが望ましい。   The area warning automatic identification and monitoring system of the present invention registers a monitoring object pattern, and performs a monitoring object identification unit (22 in FIG. 1) for identifying and processing the monitoring object from a captured image using pattern matching image processing technology. And a non-monitoring object exclusion unit (23 in FIG. 1) that excludes objects other than the monitoring object from the video according to the result of the identification process. The monitored object pattern to be registered is preferably a simulated figure obtained by extracting and connecting the outermost vertices of the image pixels of the monitored object.

また、排除対象となる、ざわつきパターンを登録し、映像内のざわつきが、ざわつきパターンと一致すると、パターンマッチングの画像処理技術を用いて、それを排除処理するざわつき排除部(図1の21)を設けたことを特徴とする。   In addition, a roughness pattern to be excluded is registered, and when the roughness in the video matches the roughness pattern, a roughness exclusion unit (21 in FIG. 1) that eliminates it using pattern matching image processing technology. It is provided.

更に、監視対象物の挙動不審パターンを登録処理する挙動不審パターン登録部(図1の25)と、監視対象識別部で識別処理された監視対象物の移動行動パターンが、登録処理された監視対象物の挙動不審パターンと一致するかオプティカルフローの画像処理技術を用いて識別処理する挙動不審パターン識別部(図1の24)と、識別処理の結果により監視対象物の移動行動パターンが挙動不審パターンに一致すると発報処理する挙動不審発報部(図1の26)を設けたことを特徴とする。監視対象物の移動行動パターンは、映像画面を分割したブロックまたはピクセルの遷移を辿ることにより得るのが良い。   Furthermore, the behavior suspicious pattern registration unit (25 in FIG. 1) for registering the behavior suspicious pattern of the monitoring target object, and the monitoring target that has been subjected to the registration processing of the movement behavior pattern of the monitoring target that has been identified by the monitoring target identification unit A behavior suspicious pattern identification unit (24 in FIG. 1) that performs an identification process using an optical flow image processing technique that matches an object behavior suspicious pattern, or a movement suspicious pattern of a monitoring target object depending on the result of the identification process 1 is provided with a suspicious behavior reporting section (26 in FIG. 1) that performs a processing for issuing a notification when it matches. The movement behavior pattern of the monitoring object may be obtained by following the transition of blocks or pixels obtained by dividing the video screen.

本発明の第1の効果は、監視対象物をパターンマッチングの画像処理技術を用いて検知することとしたため、監視エリア内の監視対象物である人・車・二輪などの識別精度を高くして、対象外の物を識別しないようにすることができるということである。   The first effect of the present invention is to detect the monitoring object using the image processing technology of pattern matching. Therefore, the identification accuracy of the person, vehicle, motorcycle, etc., which is the monitoring object in the monitoring area is increased. This means that it is possible to prevent the identification of non-target objects.

本発明の第2の効果は、パターンマッチングの画像処理技術を用いて、画像のざわつきを排除することとしたため、監視対象物の識別精度を約10倍以上に高めることができるということである。   The second effect of the present invention is that the identification accuracy of the monitoring target can be increased by about 10 times or more because the image roughness of the image is eliminated by using the image processing technique of pattern matching.

本発明の第3の効果は、挙動不審パターンを登録しておき、オプティカルフローの画像処理技術を用いて把握する監視対象物の行動移動パターンとの一致をチェックすることとしたため、挙動が不審な行動の監視対象物と通常の作業者や通行人や作業車輌とを自動に区別することができ、識別精度を更に上げることができるということである。   The third effect of the present invention is that the behavior suspicious pattern is registered, and the coincidence with the behavior movement pattern of the monitored object grasped by using the optical flow image processing technology is checked. This means that it is possible to automatically discriminate between behavior monitoring objects and normal workers, passers-by, and work vehicles, thereby further improving the identification accuracy.

本発明の第4の効果は、挙動が不審な行動のパターンをいくつでも追加登録することができ、不審者の検出の精度を更に上げることができる。また、通常の移動パターンの登録(排除パターン)も追加登録をすることができるということである。   According to the fourth effect of the present invention, any number of suspicious behavior patterns can be additionally registered, and the accuracy of suspicious person detection can be further increased. In addition, registration of a normal movement pattern (exclusion pattern) can be additionally registered.

次に、本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

[構成の説明]
図1は、本発明のエリア警戒自動識別監視システムを示すブロック図である。このエリア警戒自動識別監視システムは、ふ頭エリア内を警戒・監視するシステムであって、カメラ1と対象物取込検出装置10と対象物検出装置20と表示装置30で構成されている。
[Description of configuration]
FIG. 1 is a block diagram showing an area warning automatic identification monitoring system of the present invention. This area warning automatic identification and monitoring system is a system for warning and monitoring the inside of a wharf area, and is composed of a camera 1, an object take-in detection device 10, an object detection device 20, and a display device 30.

対象物取込検出装置10は、カメラ1と対象物検出装置20に接続されており、カメラ1によって撮影された、ふ頭エリア内の様子の映像情報を対象物取込検出装置10に送信する。このとき、対象物取込検出装置10はカメラから受信したアナログ映像信号をデジタル映像信号に変換して、細分化および警戒するエリア範囲を指定し、また動体を検知して映像情報を対象物検出装置20へ送信する。対象物検出装置20は、対象物取込検出装置10から送信されてくる映像情報からパターンマッチングにて対象物を検出・識別し、オプティカルフローにて移動軌跡を検出・識別し表示装置30に送信する。表示装置30は、対象物または移動軌跡に対して警報を発報するときにブザー音および画面にて表示する。パターンマッチングおよびオプティカルフローは周知の技法である。   The object take-in detection device 10 is connected to the camera 1 and the object detection device 20, and transmits to the object take-in detection device 10 video information of the state in the wharf area taken by the camera 1. At this time, the object capture detection device 10 converts the analog video signal received from the camera into a digital video signal, specifies the area range to be subdivided and warned, and detects the moving object to detect the video information. Transmit to device 20. The object detection device 20 detects and identifies the object by pattern matching from the video information transmitted from the object take-in detection device 10, detects and identifies the movement trajectory by the optical flow, and transmits it to the display device 30. To do. The display device 30 displays a buzzer sound and a screen when an alarm is issued for an object or a movement locus. Pattern matching and optical flow are well known techniques.

図1を参照すると、対象物取込検出装置10は、A/D変換部11,画像処理部12,警戒エリア指定部13および動体検知部14から成る。A/D変換部11は、カメラ1からのアナログ映像信号をデジタル映像信号に変換処理する。画像処理部12は、デジタル映像信号のカラー画像を白黒化(2値化)し、更に映像情報の輪郭を際立たせる補正を行って細分化処理する。警戒エリア指定部13は、映像情報内の警戒したいエリアを指定処理する。動体検知部14は、警戒エリア内にて動体を検知して対象物検出装置20へ映像情報を送信処理する。   Referring to FIG. 1, the object capture detection device 10 includes an A / D conversion unit 11, an image processing unit 12, a warning area designation unit 13, and a moving object detection unit 14. The A / D converter 11 converts the analog video signal from the camera 1 into a digital video signal. The image processing unit 12 converts the color image of the digital video signal to black and white (binarization), and further performs a subdivision process by performing correction that makes the outline of the video information stand out. The alert area designating unit 13 designates an area to be alerted in the video information. The moving object detection unit 14 detects a moving object in the alert area and transmits the video information to the object detection device 20.

対象物検出装置20は、ざわつき排除部21,監視対象識別部22,監視対象外排除部23,挙動不審パターン識別部24,挙動不審パターン登録部25,挙動不審発報部26およびパターン外排除部27から成る。また、対象物検出装置20内の図示しないメモリには、排除対象となる、ざわつきパターン,監視対象物パターン,挙動不審パターン及び監視対象外パターンが予め登録されている。なお、ざわつきパターン,監視対象物パターン,挙動不審パターン及び挙動不審パターンは、予め登録しておくことの外、処理の途中で新規に追加登録することも可能である。   The object detection device 20 includes a wobble exclusion unit 21, a monitoring target identification unit 22, a non-monitoring target exclusion unit 23, a behavior suspicious pattern identification unit 24, a behavior suspicious pattern registration unit 25, a behavior suspicious notification unit 26, and an out-of-pattern exclusion unit. 27. In addition, in a memory (not shown) in the object detection apparatus 20, a rough pattern, a monitoring object pattern, a behavior suspicious pattern, and a non-monitoring pattern to be excluded are registered in advance. Note that the roughness pattern, the monitoring target pattern, the behavior suspicious pattern, and the behavior suspicious pattern can be newly registered in the middle of the process in addition to being registered in advance.

ざわつき排除部21は、排除対象となる、ざわつきパターンを予め登録し、動体検知部14から送信されてくる映像内のざわつき(木の揺れ,波等)が、ざわつきパターンと一致すると、それを排除処理する。監視対象識別部22は、監視対象物パターンを予め登録し、ざわつきが排除処理された後の映像から監視対象物(人,車,二輪,船など)を識別処理し、監視対象外排除部23は、監視対象物以外を映像から排除処理する。   The wrinkle removal unit 21 registers in advance a wobble pattern to be excluded, and removes the wobble pattern (swings, waves, etc.) in the video transmitted from the moving object detection unit 14 if it matches the wobble pattern. To process. The monitoring target identifying unit 22 registers a monitoring target pattern in advance, identifies a monitoring target (a person, a car, a motorcycle, a ship, etc.) from the image after the processing for eliminating the wobble, and performs a non-monitoring target exclusion unit 23. Removes objects other than the monitoring target from the video.

挙動不審パターン登録部25は、監視対象物の挙動不審パターンを予め登録処理する。挙動不審パターン識別部24は、監視対象識別部22で識別処理された監視対象物の移動行動パターンが、挙動不審パターン登録部25で登録処理された監視対象物の挙動不審パターンと一致するか識別処理する。挙動不審発報部26は、監視対象物の移動行動パターンが挙動不審パターン識別部24にて一致した場合に発報処理する。パターン外排除部27は、監視対象外パターンを予め登録し、監視対象物の移動行動パターンが挙動不審パターン識別部24にて不一致または監視対象外パターンに一致した場合に排除処理する。   The suspicious behavior pattern registration unit 25 performs registration processing of the suspicious behavior pattern of the monitoring target in advance. The behavior suspicious pattern identifying unit 24 identifies whether the movement behavior pattern of the monitoring object identified by the monitoring object identifying unit 22 matches the behavior suspicious pattern of the monitored object registered by the behavior suspicious pattern registering unit 25. To process. The suspicious behavior reporting unit 26 performs a reporting process when the movement behavior pattern of the monitored object is matched by the behavior suspicious pattern identifying unit 24. The non-monitoring exclusion unit 27 registers a non-monitoring target pattern in advance, and performs a removal process when the movement behavior pattern of the monitoring target does not match or matches the non-monitoring target pattern in the behavior suspicious pattern identification unit 24.

挙動不審表示部31は、挙動不審発報部26が発報した場合に、その内容を画面表示する。また、ブザー音およびランプ点灯等にて確認することもできる。動体検知物識別表示部32は、監視対象識別部22にて監視対象物を識別した場合に、監視対象物を画面表示する。   The suspicious behavior display unit 31 displays the contents on the screen when the suspicious behavior reporting unit 26 reports. It can also be confirmed by a buzzer sound and lamp lighting. The moving object detection display unit 32 displays the monitoring target on the screen when the monitoring target identification unit 22 identifies the monitoring target.

[動作の説明]
図2は、以上のように構成された本発明のエリア警戒自動識別監視システムの動作手順を示すフローチャートである。以下、図2に沿い、かつ図3〜図16参照しながら、このエリア警戒自動識別監視システムの動作について説明する。
[Description of operation]
FIG. 2 is a flowchart showing an operation procedure of the area warning automatic identification monitoring system of the present invention configured as described above. The operation of this area warning automatic identification and monitoring system will be described below with reference to FIG. 2 and with reference to FIGS.

先ず、対象物取込検出装置10のA/D変換部11は、カメラ1でキャプチャしたアナログ映像信号をデジタル映像信号に変換処理する(図2のステップS1)。次に、画像処理部12は、例えば、埠頭の風景を写したデジタル映像信号(カラー)の元画像を白黒化(2値化)し、更に映像情報の輪郭を際立たせるための補正を行って細分化処理する(図2のステップS2)。この輪郭補正は、白黒化した画像データを反転させて、色の濃淡の差を抽出し、濃いところを強調し、細かいノイズ(薄い点等)を排除して行なう。   First, the A / D converter 11 of the object take-in detection device 10 converts the analog video signal captured by the camera 1 into a digital video signal (step S1 in FIG. 2). Next, for example, the image processing unit 12 converts the original image of the digital video signal (color) representing the scenery of the wharf into black and white (binarization), and further performs correction to make the contour of the video information stand out. Subdivision processing is performed (step S2 in FIG. 2). This contour correction is performed by inverting the black and white image data, extracting the difference between the shades of the color, emphasizing the dark portion, and eliminating fine noise (such as a thin point).

警戒エリア指定部13は、このような映像情報内の警戒したいエリアを指定処理する(図2のステップS3)。この指定は、例えば四角形でエリアを指定する場合は、4つの角の座標を指定して行なう。   The alert area designating unit 13 designates an area to be alerted in such video information (step S3 in FIG. 2). This designation is performed by designating the coordinates of four corners, for example, when an area is designated by a rectangle.

動体検知部14は、輪郭補正された画像の警戒エリア内にて動体を検知する(図2のステップS4)が、動体検知が無い場合は(図2のステップS5)、処理を最初(図2のステップS1)から繰り返し実施する。図3は、動体検知を説明するための第1の図であり、警戒エリア指定13にて指定した警戒エリア内の人物画像を細分化することを示している。   The moving object detection unit 14 detects a moving object in the alert area of the contour-corrected image (step S4 in FIG. 2). If there is no moving object detection (step S5 in FIG. 2), the process is first performed (FIG. 2). Step S1) is repeated. FIG. 3 is a first diagram for explaining the moving object detection, and shows that the person image in the alert area designated by the alert area designation 13 is subdivided.

図4は、動体検知を説明するための第2の図である。画像フレームは、図4(A)に示すように時間と共に更新されている。図4(B)は、このような画像フレームから取り出した、人の顔を写した1つの画像フレームを示す。このような画像フレームを例えば450ブロックに分割し、各ブロックを図4(C)に示すように例えば64ピクセルに分割する。   FIG. 4 is a second diagram for explaining the moving object detection. The image frame is updated with time as shown in FIG. FIG. 4B shows one image frame taken from such an image frame and showing a human face. Such an image frame is divided into, for example, 450 blocks, and each block is divided into, for example, 64 pixels as shown in FIG.

動体検知部14は、現在の画像フレームと過去の6画像フレームの合計7画像フレームについて、同じ座標ピクセルを調べる。その結果、4つ以上同じ場合は「変化無し」のピクセルと判断する。違っていた場合には「動体」と判断する。これを画面上の全ピクセルについて処理を行い、8×8ピクセルにして計算を行う。この64ピクセルのうち25ピクセル以上(設定により変更できる)が白だった場合は、このブロックを動いているブロックを判断する。動いているブロックが25ブロック以上(設定により変更できる)だった場合は動体認識とし、対象物検出装置20へ送信する。   The moving object detection unit 14 examines the same coordinate pixel for a total of seven image frames including the current image frame and the past six image frames. As a result, when four or more are the same, it is determined that the pixel is “no change”. If it is different, it is judged as a “moving object”. This is processed for all the pixels on the screen to calculate 8 × 8 pixels. When 25 pixels or more (which can be changed by setting) of these 64 pixels are white, a block moving this block is determined. When the moving blocks are 25 blocks or more (can be changed by setting), the moving object is recognized and transmitted to the object detection device 20.

対象物検出装置20では、ざわつき排除部21が映像内のざわつき(木の揺れ、波等)を排除処理する(図2のステップS6)。図5は、ざわつき排除処理を説明するための模式図である。図5(A)は登録してある、ざわつきパターン(パターンブレ成分)の例であり、図5(B)に示すように、画像がこのようなパターンブレ成分ρ(X,Y)と動体φ(X,Y)の合成である場合、登録してあるパターンブレ成分と画像内で一致したパターンブレ成分ρ(X,Y)を排除する。動体は排除対象外とする。なお、ざわつきが大きい場合には、図3で説明した細分化の単位を大きくして誤検出を減らす動作を行う。   In the target object detection device 20, the roughness eliminating unit 21 eliminates the roughness (such as tree shaking and waves) in the video (step S6 in FIG. 2). FIG. 5 is a schematic diagram for explaining the roughness elimination process. FIG. 5A is an example of a registered wavy pattern (pattern blur component). As shown in FIG. 5B, the image is such a pattern blur component ρ (X, Y) and a moving object φ. In the case of combining (X, Y), the pattern blur component ρ (X, Y) that matches the registered pattern blur component in the image is excluded. Moving objects are not excluded. When the roughness is large, the operation of reducing the false detection is performed by increasing the subdivision unit described in FIG.

図6は、ざわつき排除処理を説明するための、より現実的な図である。ここでは、図6(A)に示すように、パターンブレ成分ρ(X,Y)として雨や雪、動体φ(X,Y)として人の顔を示している。図6(B)に示すように、雨や雪の画像上における存在確率は画面上の位置に拘わらず一定であるのに対して、人の顔の画像上における存在確率は、図6(C)に示すように、画面中央部が高い。従って、このような存在確率の特性によりパターンブレ成分等の動体の物体以外を排除することもできる。   FIG. 6 is a more realistic diagram for explaining the roughness elimination process. Here, as shown in FIG. 6A, rain and snow are shown as the pattern blur component ρ (X, Y), and a human face is shown as the moving object φ (X, Y). As shown in FIG. 6B, the existence probability on the image of rain or snow is constant regardless of the position on the screen, whereas the existence probability on the image of the human face is shown in FIG. ), The center of the screen is high. Therefore, it is possible to exclude objects other than moving objects such as pattern blur components by such existence probability characteristics.

次に、監視対象識別部22はざわつきの排除された映像について監視対象物識別処理を行う(図2のステップS7)。動体検知処理(図2のステップS4)された物が、登録されている監視対象物パターンに当てはまらない場合は(図2のステップS8)、監視対象物以外は監視対象外排除部23にて排除処理して最初(図2のステップS1)から繰り返し実施する。   Next, the monitoring target identifying unit 22 performs a monitoring target identifying process on the video from which the roughness is eliminated (step S7 in FIG. 2). When the object subjected to the moving object detection process (step S4 in FIG. 2) does not apply to the registered monitoring object pattern (step S8 in FIG. 2), the objects other than the monitoring object are excluded by the non-monitoring object exclusion unit 23. The process is repeated from the beginning (step S1 in FIG. 2).

なお、監視対象物パターンは、画像ピクセルの一番外側にある頂点を抽出することにより得ることができる。例えば、人であれば縦長の長方形、自動車であれば横長の長方形、二輪車であれば三角形、船であれば台形様の図形で模擬する。このような大胆な模擬も、本エリア警戒自動識別監視システムが適用される環境に特化して考えれば、出現確率上妥当なものとして肯定することができる。   Note that the monitoring object pattern can be obtained by extracting the outermost vertex of the image pixel. For example, it is simulated by a vertically long rectangle for a person, a horizontally long rectangle for a car, a triangle for a motorcycle, and a trapezoidal figure for a ship. Such a bold simulation can also be affirmed as being reasonable in terms of the appearance probability if it is specially considered in an environment to which the area warning automatic identification and monitoring system is applied.

一方、監視対象物パターンに当てはまる場合は、動体検知物識別表示部32が監視対象物(人,車,二輪,船など)を画面表示し(図2のステップS10)、挙動不審パターン識別部24は、監視対象識別部22で識別処理された監視対象物の移動行動パターンが、挙動不審パターン登録部25で登録処理された監視対象物の挙動不審パターンと一致するか識別処理する(図2のステップS11)。   On the other hand, when the monitoring target pattern is applicable, the moving object detection display unit 32 displays the monitoring target (person, vehicle, motorcycle, ship, etc.) on the screen (step S10 in FIG. 2), and the behavior suspicious pattern identification unit 24. 2 performs identification processing to determine whether the movement behavior pattern of the monitoring object identified by the monitoring object identification unit 22 matches the behavior suspicious pattern of the monitoring object registered by the behavior suspicious pattern registration unit 25 (see FIG. 2). Step S11).

図7は、監視対象物の移動遷移を説明するための模式図である。図7では、人が画面の左下から上方、右方、車の間を下方、右方へと移動していることを矢印で示している。実際には、人はブロックとして取り扱われるので、そのブロックの軌跡を辿ることになる。このような矢印の結合から監視対象物の移動行動パターンを得ることができる。なお、監視対象物の移動行動パターンはピクセル単位に行なうこともできる。   FIG. 7 is a schematic diagram for explaining the movement transition of the monitoring object. In FIG. 7, an arrow indicates that a person is moving from the lower left of the screen to the upper side, the right side, and between the cars to the lower side and the right side. Actually, since a person is treated as a block, the locus of the block is traced. The movement behavior pattern of the monitoring object can be obtained from the combination of such arrows. Note that the movement behavior pattern of the monitoring object can also be performed in units of pixels.

厳密には、時間の経過とともに観測した複数の画像から、動体の移動方向と速度を求める解析手法として、オプティカルフロー法が周知である。オプティカルフロー法とは、動画像中の濃淡パターンの動き(ベクトル)を各画素点で表示したものである。図8は、挙動不審パターン識別部24における動体の移動方向検出の概念を説明するための図である。   Strictly speaking, the optical flow method is well known as an analysis method for obtaining the moving direction and speed of a moving object from a plurality of images observed over time. The optical flow method is a method in which a motion (vector) of a light and shade pattern in a moving image is displayed at each pixel point. FIG. 8 is a diagram for explaining the concept of detecting the moving direction of the moving body in the suspicious behavior pattern identifying unit 24.

いま、図8(A)に示すように、座標(x,y) に位置する濃淡パターンρの物体がδt 秒後に、座標(x+δx,y+δy) に移動したとすると、動体の移動方向は図8(B)に示すようにベクトル表示することができる。また、濃淡パターンρは移動の前後で変わらないため、ρ(x,y,t)=ρ(x+δx,y+δy,t+δt )
挙動不審パターン識別処理(図2のステップS11)の結果、監視対象物の移動行動パターンが挙動不審パターンに一致した場合(図2のステップS12)、挙動不審発報部26は発報処理する。これを受けて、表示装置30の挙動不審表示部31は発報内容を画面表示し、またブザー音やランプ点灯等で報知する。
Now, as shown in FIG. 8 (A), if the object of the shading pattern ρ located at the coordinate (x, y) moves to the coordinate (x + δx, y + δy) after δt seconds, the moving object moves. The direction can be displayed as a vector as shown in FIG. Further, since the shading pattern ρ does not change before and after the movement, ρ (x, y, t) = ρ (x + δx, y + δy, t + δt)
As a result of the behavior suspicious pattern identification process (step S11 in FIG. 2), when the movement behavior pattern of the monitored object matches the behavior suspicious pattern (step S12 in FIG. 2), the behavior suspicious reporting unit 26 performs a reporting process. In response to this, the suspicious behavior display unit 31 of the display device 30 displays the contents of the notification on the screen, and notifies by a buzzer sound, lamp lighting, or the like.

一方、監視対象物の移動行動パターンが挙動不審パターン識別にて不一致または対象外パターンに一致した場合(図2のステップS12)、パターン外排除部27は、排除処理をして処理を最初(図2のステップS1)から繰り返し実施する。   On the other hand, when the movement behavior pattern of the monitored object does not match or matches the non-target pattern in the behavior suspicious pattern identification (step S12 in FIG. 2), the non-pattern exclusion unit 27 performs the exclusion process first (FIG. 2). 2. Repeat from step S1).

図9〜図16は、挙動不審パターン登録部25によって登録される様々な挙動不審パターンを示す。パターンは複数登録することができる。検出設定時間は任意設定が可能とする。また、パターンはある程度のバラツキがあっても近い移動軌跡を識別対象として判断する。   9 to 16 show various behavior suspicious patterns registered by the behavior suspicious pattern registration unit 25. Multiple patterns can be registered. The detection setting time can be set arbitrarily. Further, even if there is a certain amount of variation in the pattern, a close movement trajectory is determined as an identification target.

図9は、電光型移動識別パターンを示す。このパターンは、電光型ジグザグ(ギザギザに折れ曲がって)移動し、移動軌跡が一定推移でない。図10は、侵入禁止方向識別パターンを示す。このパターンは、x方向にaからbへ移動する様を表す。   FIG. 9 shows a lightning type movement identification pattern. This pattern moves with an electric light type zigzag (bently bent), and the movement locus is not constant. FIG. 10 shows an intrusion prohibition direction identification pattern. This pattern represents a movement from a to b in the x direction.

図11は、乗り越え動作識別パターン、すなわちy方向の所定の位置を越えるパターンである。図12は、潜り抜け動作識別パターン、すなわちy方向の所定の位置を潜るパターンである。   FIG. 11 shows a climbing motion identification pattern, that is, a pattern exceeding a predetermined position in the y direction. FIG. 12 is a dive-through operation identification pattern, that is, a pattern that dives in a predetermined position in the y direction.

図13は、頻繁出没動作識別パターン、すなわち頻繁に上下に移動して出没し、隠れたり(消えたり)出たりする様を表す。上下移動検出時間は任意設定が可能とする。図14は、伸縮移動動作識別パターン、すなわち人が屈み込み等伸縮移動動作する様を表す。移動時間検出は任意設定が可能とする。   FIG. 13 shows a frequently appearing and appearing motion identification pattern, that is, frequently moving up and down to appear and hide (disappear). The vertical movement detection time can be arbitrarily set. FIG. 14 shows an expansion / contraction movement operation identification pattern, that is, how a person performs an expansion / contraction movement operation such as bending. The travel time detection can be arbitrarily set.

以上に説明したように、このエリア警戒自動識別監視システムによれば、埠頭エリアを撮影する監視カメラからの映像情報からパターンマッチングおよびオプティカルフローパターンの一致により異常状態を検知して警報発報を発生することができる。   As explained above, according to this area warning automatic identification and monitoring system, an abnormal state is detected by pattern matching and optical flow pattern matching from the video information from the surveillance camera that images the wharf area, and an alarm is generated. can do.

[産業上の利用可能性]
本発明は、埠頭監視システムへの適用を想定して記載したが、税関違法出入国者監視システム,駐車場入退場車数監視システム,店舗入退場者数監視システム,鉄道置き石監視システム,土砂崩れ災害監視システム,不審船監視システム,不法投棄監視システム,工場不法侵入監視システム,無人施設不法侵入監視システム,ダム河川監視システム等、より広範な防災・防犯・セキュリティ現場に適用することができる。
[Industrial applicability]
Although the present invention has been described on the assumption that it is applied to a wharf monitoring system, a customs illegal entry and exit monitoring system, a parking lot entry and exit number monitoring system, a store entrance and exit number monitoring system, a railway stone monitoring system, a landslide disaster It can be applied to a wider range of disaster prevention / crime prevention / security sites such as monitoring systems, suspicious ship monitoring systems, illegal dumping monitoring systems, factory illegal intrusion monitoring systems, unmanned facility illegal intrusion monitoring systems, and dam river monitoring systems.

本発明のエリア警戒自動識別監視システムを示すブロック図The block diagram which shows the area warning automatic identification monitoring system of this invention 本発明のエリア警戒自動識別監視システムの動作手順を示すフローチャートThe flowchart which shows the operation | movement procedure of the area warning automatic identification monitoring system of this invention. 動体検知を説明するための第1の図1st figure for demonstrating a moving body detection 動体検知を説明するための第2の図2nd figure for demonstrating a moving body detection ざわつき排除処理を説明するための模式図Schematic diagram for explaining the roughness elimination process ざわつき排除処理を説明するための、より現実的な図A more realistic diagram to explain the noise elimination process 監視対象物の移動遷移を説明するための模式図Schematic diagram for explaining the movement transition of the monitored object 挙動不審パターン識別部における動体の移動方向検出の概念を説明するための図The figure for demonstrating the concept of the moving direction detection of a moving body in a suspicious pattern identification part 第1の挙動不審パターンを示す図The figure which shows the 1st behavior suspicious pattern 第2の挙動不審パターンを示す図The figure which shows the 2nd behavior suspicious pattern 第3の挙動不審パターンを示す図The figure which shows the 3rd behavior suspicious pattern 第4の挙動不審パターンを示す図The figure which shows a 4th behavior suspicious pattern 第5の挙動不審パターンを示す図The figure which shows a 5th suspicious pattern 第6の挙動不審パターンを示す図The figure which shows a 6th behavior suspicious pattern

符号の説明Explanation of symbols

1 カメラ
10 対象物取込検出装置
11 A/D変換部
12 画像処理部
13 警戒エリア指定部
14 動体検知部
20 対象物検出装置
21 ざわつき排除部
22 監視対象識別部
23 監視対象外排除部
24 挙動不審パターン識別部
25 挙動不審パターン登録部
26 挙動不審発報部
27 パターン外排除部
30 表示装置
31 挙動不審表示部
32 監視対象物識別表示部
DESCRIPTION OF SYMBOLS 1 Camera 10 Object taking-in detection apparatus 11 A / D conversion part 12 Image processing part 13 Warning area designation | designated part 14 Moving body detection part 20 Object detection apparatus 21 Roughness exclusion part 22 Monitoring object identification part 23 Monitoring object exclusion part 24 Behavior Suspicious pattern identification unit 25 Suspicious behavior pattern registration unit 26 Suspicious behavior reporting unit 27 Outside pattern exclusion unit 30 Display device 31 Suspicious behavior display unit 32 Monitoring object identification display unit

Claims (5)

監視対象物パターンを登録し、撮影された映像からパターンマッチングの画像処理技術を用いて監視対象物を識別処理する監視対象識別部と、
前記識別処理の結果により監視対象物以外を映像から排除処理する監視対象外排除部を設けたことを特徴とするエリア警戒自動識別監視システム。
A monitoring object identification unit that registers a monitoring object pattern and identifies the monitoring object using image processing technology of pattern matching from the captured video;
An area warning automatic identification and monitoring system, comprising: a non-monitoring exclusion unit that removes objects other than the monitoring object from the video according to the result of the identification process.
前記登録する監視対象物パターンは、監視対象物の画像ピクセルの一番外側にある頂点を抽出して接続した模擬図形とすることを特徴とする請求項1記載のエリア警戒自動識別監視システム。   2. The area warning automatic identification and monitoring system according to claim 1, wherein the monitoring object pattern to be registered is a simulated figure obtained by extracting and connecting vertices on the outermost side of image pixels of the monitoring object. 排除対象となる、ざわつきパターンを登録し、映像内のざわつきが前記ざわつきパターンと一致すると、パターンマッチングの画像処理技術を用いて、それを排除処理するざわつき排除部を設けたことを特徴とする請求項2または請求項2記載のエリア警戒自動識別監視システム。   The present invention is characterized in that a roughness pattern to be excluded is registered, and when the roughness in the video matches the roughness pattern, there is provided a roughness exclusion unit that eliminates it using a pattern matching image processing technique. The area warning automatic identification monitoring system according to claim 2 or claim 2. 前記監視対象物の挙動不審パターンを登録処理する挙動不審パターン登録部と、
前記監視対象識別部で識別処理された監視対象物の移動行動パターンが、前記登録処理された監視対象物の挙動不審パターンと一致するかオプティカルフローの画像処理技術を用いて識別処理する挙動不審パターン識別部と、
前記識別処理の結果により前記監視対象物の移動行動パターンが前記挙動不審パターンに一致すると発報処理する挙動不審発報部を設けたことを特徴とする請求項3ないし請求項3のいずれかに記載のエリア警戒自動識別監視システム。
A suspicious behavior pattern registration unit for registering a behavior suspicious pattern of the monitoring object;
The behavior suspicious pattern in which the movement behavior pattern of the monitored object that has been subjected to the identification processing by the monitoring target identifying unit matches the behavior suspicious pattern of the monitored processing target that has been registered or is identified using an optical flow image processing technique An identification unit;
4. A suspicious behavior reporting unit for performing a reporting process when a movement behavior pattern of the monitoring object matches the behavior suspicious pattern according to a result of the identification processing is provided. The area warning automatic identification and monitoring system described.
前記監視対象物の移動行動パターンは、前記映像画面を分割したブロックまたはピクセルの遷移を辿ることにより得ることを特徴とする請求項4記載のエリア警戒自動識別監視システム。   5. The area warning automatic identification and monitoring system according to claim 4, wherein the movement behavior pattern of the monitoring object is obtained by following a transition of blocks or pixels obtained by dividing the video screen.
JP2006340610A 2006-12-18 2006-12-18 Automatic identification monitor system for area surveillance Pending JP2008152586A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006340610A JP2008152586A (en) 2006-12-18 2006-12-18 Automatic identification monitor system for area surveillance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006340610A JP2008152586A (en) 2006-12-18 2006-12-18 Automatic identification monitor system for area surveillance

Publications (1)

Publication Number Publication Date
JP2008152586A true JP2008152586A (en) 2008-07-03

Family

ID=39654685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006340610A Pending JP2008152586A (en) 2006-12-18 2006-12-18 Automatic identification monitor system for area surveillance

Country Status (1)

Country Link
JP (1) JP2008152586A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042206A1 (en) * 2011-09-20 2013-03-28 トヨタ自動車株式会社 Subject change detection device and subject change detection method
JP2013246794A (en) * 2012-05-29 2013-12-09 Toyota Motor Corp Object change detection device and object change detection method
JPWO2019188039A1 (en) * 2018-03-26 2021-03-11 株式会社日立国際電気 Image processing system
CN115035668A (en) * 2022-03-09 2022-09-09 武汉众智数字技术有限公司 Community security system based on video monitoring
WO2023152889A1 (en) * 2022-02-10 2023-08-17 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322155A (en) * 1996-05-31 1997-12-12 Hitachi Denshi Ltd Method and device for monitoring video
JP2005122607A (en) * 2003-10-20 2005-05-12 Av Planning Center:Kk Method and device for counting object
JP2006252248A (en) * 2005-03-11 2006-09-21 Meidensha Corp Trespasser detecting system by image processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322155A (en) * 1996-05-31 1997-12-12 Hitachi Denshi Ltd Method and device for monitoring video
JP2005122607A (en) * 2003-10-20 2005-05-12 Av Planning Center:Kk Method and device for counting object
JP2006252248A (en) * 2005-03-11 2006-09-21 Meidensha Corp Trespasser detecting system by image processing

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042206A1 (en) * 2011-09-20 2013-03-28 トヨタ自動車株式会社 Subject change detection device and subject change detection method
CN103814401A (en) * 2011-09-20 2014-05-21 丰田自动车株式会社 Subject change detection device and subject change detection method
JPWO2013042206A1 (en) * 2011-09-20 2015-03-26 トヨタ自動車株式会社 Object change detection device and object change detection method
US9373042B2 (en) 2011-09-20 2016-06-21 Toyota Jidosha Kabushiki Kaisha Subject change detection system and subject change detection method
JP2013246794A (en) * 2012-05-29 2013-12-09 Toyota Motor Corp Object change detection device and object change detection method
JPWO2019188039A1 (en) * 2018-03-26 2021-03-11 株式会社日立国際電気 Image processing system
JP7045445B2 (en) 2018-03-26 2022-03-31 株式会社日立国際電気 Image processing system
WO2023152889A1 (en) * 2022-02-10 2023-08-17 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and program
CN115035668A (en) * 2022-03-09 2022-09-09 武汉众智数字技术有限公司 Community security system based on video monitoring

Similar Documents

Publication Publication Date Title
JP4456086B2 (en) Vehicle periphery monitoring device
EP3026880B1 (en) Damage recognition assist system
US8189049B2 (en) Intrusion alarm video-processing device
US6985172B1 (en) Model-based incident detection system with motion classification
CN107437318B (en) Visible light intelligent recognition algorithm
US8301577B2 (en) Intelligent monitoring system for establishing reliable background information in a complex image environment
JPH0950585A (en) Intruder monitoring device
KR101036947B1 (en) The automatic guard system to prevent the crime and accident using computer video image analysis technology
JP2006252248A (en) Trespasser detecting system by image processing
CN109492548B (en) Method for obtaining region mask picture based on video analysis
JP2008152586A (en) Automatic identification monitor system for area surveillance
US20110304729A1 (en) Method for Automatically Ignoring Cast Self Shadows to Increase the Effectiveness of Video Analytics Based Surveillance Systems
KR102434154B1 (en) Method for tracking multi target in traffic image-monitoring-system
KR101937836B1 (en) Apparatus and method for determinating composite video and audio status in tetrapod
JP2001160146A (en) Method and device for recognizing image
KR102290353B1 (en) Unauthorized alerting system and method using object recognition
JP2010218046A (en) Smoke detection device
KR101960741B1 (en) Method for Setting Event Rule According to Interested Boundary and Apparatus for Monitoring Event Using The Method
JPH0397080A (en) Picture monitoring device
KR20180114669A (en) System for monitoring standardized accident standardization and method for analyzing accident situation using the same
JP2009278300A (en) Monitor area setting device for video monitor system
KR100712959B1 (en) Marking system and method for global local security recorder
JP5329466B2 (en) Smoke detector
JPH056420A (en) Intrusion supervisory unit
JP6482892B2 (en) Monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120402