JP2011186727A - Monitoring apparatus and program - Google Patents

Monitoring apparatus and program Download PDF

Info

Publication number
JP2011186727A
JP2011186727A JP2010050577A JP2010050577A JP2011186727A JP 2011186727 A JP2011186727 A JP 2011186727A JP 2010050577 A JP2010050577 A JP 2010050577A JP 2010050577 A JP2010050577 A JP 2010050577A JP 2011186727 A JP2011186727 A JP 2011186727A
Authority
JP
Japan
Prior art keywords
moving
moving body
video
derived
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010050577A
Other languages
Japanese (ja)
Other versions
JP5787485B2 (en
Inventor
Yuzo Ogawa
雄三 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2010050577A priority Critical patent/JP5787485B2/en
Publication of JP2011186727A publication Critical patent/JP2011186727A/en
Application granted granted Critical
Publication of JP5787485B2 publication Critical patent/JP5787485B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for detecting probability of the occurrence of an accident or a case in a predetermined monitoring area. <P>SOLUTION: A monitoring apparatus 1 detects a plurality of moving objects in a monitoring area from a video of a camera 2, detects the probability of the occurrence of an accident or a case based on mutual relationship of positions of the plurality of moving objects and movement information, and records the video in a recording medium while reflecting the detection results. Further, the monitoring apparatus 1 discriminates the height of the probability of the occurrence of a case based on the positions of the plurality of moving objects and the movement information. Further, the monitoring apparatus 1 detects a further detailed accident or case based on mutual relationship of the positions of the moving objects and the movement information in a certain frame in addition to the moving object information in a succeeding frame. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、所定の監視領域を監視するための監視装置、監視方法、及びこの監視方法をコンピュータに実行させるためのプログラムに関する。   The present invention relates to a monitoring device for monitoring a predetermined monitoring area, a monitoring method, and a program for causing a computer to execute the monitoring method.

所定の場所を監視する目的で、例えば監視カメラを用いた監視システムが普及している。
このような監視システムは、所定の場所(監視領域)を撮像するよう設置されたカメラと、このカメラと回線等で接続された監視装置を含んで構成される。監視装置は、一般的にはパーソナルコンピュータやワークステーション等のコンピュータや、ビデオモニターによって実現される。
このような監視システムによれば、監視者は、監視装置を通じて監視領域の映像を確認することができる。
このような従来の監視装置の一例として、特許文献1〜2に記載のものがある。
For the purpose of monitoring a predetermined place, for example, a monitoring system using a monitoring camera has become widespread.
Such a monitoring system is configured to include a camera installed to image a predetermined place (monitoring area) and a monitoring device connected to the camera via a line or the like. The monitoring device is generally realized by a computer such as a personal computer or a workstation, or a video monitor.
According to such a monitoring system, the monitoring person can check the video of the monitoring area through the monitoring device.
As an example of such a conventional monitoring device, there are those described in Patent Documents 1 and 2.

ところが、監視者が実際に監視領域で事故や事件が発生したことを見つけるには、監視者が常時映像を見ていなければならず、多大な負担であった。そこで、カメラの映像をハードディスクレコーダー等の記録媒体に蓄積しておき、監視者が蓄積された映像を見返すということも考えられるが、この場合であっても、結局、監視者が映像を始めから見ていかなければならないので負担は同様である。   However, in order for the supervisor to find out that an accident or incident actually occurred in the surveillance area, the supervisor had to always watch the video, which was a heavy burden. Therefore, it is conceivable that the video of the camera is stored in a recording medium such as a hard disk recorder, and the supervisor looks back on the stored video. The burden is the same because you have to look at it.

そこで、特許文献3には、カメラの映像の中の移動体(例えば歩行する人間)の異常行動を検知し、発報する技術が開示されている。   Therefore, Patent Document 3 discloses a technique for detecting and reporting an abnormal behavior of a moving body (for example, a walking human) in a camera image.

特開2004−266633号公報JP 2004-266633 A 特開2003−259349号公報JP 2003-259349 A 特開2005−353016号公報JP 2005-353016 A

しかしながら、特許文献3に開示されている技術は、一つの移動体の動き方に着目し、異常と捉えられる動き方を検知するため、例えば移動体が人間の場合は異常な歩き方を検知する程度に留まり、ある者が他の者へ危害を加える事故や事件等、複数の移動体間で発生する行動を検知するのは難しい。   However, the technique disclosed in Patent Document 3 focuses on the way of movement of one moving body, and detects the way of moving that is considered abnormal. For example, when the moving body is a human, it detects an abnormal way of walking. It is difficult to detect behaviors that occur between multiple mobile objects, such as accidents and incidents where one person harms another person.

本発明は、上記のような監視装置において、所定の監視領域内で事故や事件等複数の移動体間で所定の行動が発生した可能性を検出することができる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of detecting the possibility that a predetermined action has occurred between a plurality of moving bodies such as accidents and incidents in a predetermined monitoring area in the monitoring device as described above. To do.

本発明に係る監視装置は、所定の監視領域内の移動体を検出する移動体検出手段と、前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置を導出する位置導出手段と、前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出手段とを備える。   The monitoring apparatus according to the present invention includes a moving body detection unit that detects a moving body within a predetermined monitoring region, and a position of the moving body detected by the moving body detection unit on coordinates corresponding to the monitoring region. When a plurality of moving bodies are detected by the position deriving means for deriving and the moving body detecting means, and the positions of the respective moving bodies are derived by the position deriving means, Detecting means for detecting a predetermined behavior among a plurality of moving bodies.

また、本発明に係るプログラムは、所定の監視領域を監視する処理をコンピュータに実行させるためのプログラムであって、前記処理は、前記監視領域内の移動体を検出する移動体検出工程と、前記移動体検出工程で検出された移動体の位置を導出する位置導出工程と、前記移動体検出工程で複数の移動体が検出され、前記位置導出工程で各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出工程とを含む。   The program according to the present invention is a program for causing a computer to execute a process of monitoring a predetermined monitoring area, and the process includes a moving object detection step of detecting a moving object in the monitoring area; A position deriving step for deriving the position of the moving body detected in the moving body detecting step, and a plurality of moving bodies are detected in the moving body detecting step, and the position of each moving body is derived in the position deriving step; And a detecting step of detecting a predetermined behavior among the plurality of moving bodies based on the mutual relationship between the positions of the moving bodies.

本発明によれば、所定の監視領域内で事故や事件等複数の移動体間で所定の行動が発生した可能性を検出することができる。   According to the present invention, it is possible to detect the possibility that a predetermined action has occurred between a plurality of moving bodies such as accidents and incidents within a predetermined monitoring area.

図1は、監視システムを示す図である。(実施形態1)FIG. 1 is a diagram illustrating a monitoring system. (Embodiment 1) 図2は、監視装置の処理部を示す図である。(実施形態1)FIG. 2 is a diagram illustrating a processing unit of the monitoring apparatus. (Embodiment 1) 図3は、移動体の位置や移動情報を示す図である。(実施形態1)FIG. 3 is a diagram illustrating the position and movement information of the moving body. (Embodiment 1) 図4は、事故や事件の発生を示す図である。(実施形態1)FIG. 4 is a diagram showing the occurrence of an accident or incident. (Embodiment 1) 図5は、監視装置の処理を示すフローチャートである。(実施形態1)FIG. 5 is a flowchart showing processing of the monitoring apparatus. (Embodiment 1) 図6は、記録部12の記録内容を示す図である。(実施形態1)FIG. 6 is a diagram showing the recorded contents of the recording unit 12. (Embodiment 1) 図7は、表示部11の表示例を示す図である。(実施形態1)FIG. 7 is a diagram illustrating a display example of the display unit 11. (Embodiment 1) 図8は、監視装置の処理部を示す図である。(実施形態2)FIG. 8 is a diagram illustrating a processing unit of the monitoring apparatus. (Embodiment 2) 図9は、接近度と近似度の判別を示す図である。(実施形態2)FIG. 9 is a diagram illustrating discrimination between the approach degree and the approximation degree. (Embodiment 2) 図10は、記録部12の記録内容を示す図である。(実施形態2)FIG. 10 is a diagram showing the recorded contents of the recording unit 12. (Embodiment 2) 図11は、表示部11の表示例を示す図である。(実施形態2)FIG. 11 is a diagram illustrating a display example of the display unit 11. (Embodiment 2) 図12は、監視装置の処理部を示す図である。(実施形態3)FIG. 12 is a diagram illustrating a processing unit of the monitoring apparatus. (Embodiment 3) 図13は、衝突事故の発生を示す図である。(実施形態3)FIG. 13 is a diagram illustrating the occurrence of a collision accident. (Embodiment 3) 図14は、ひき逃げ事故の発生を示す図である。(実施形態3)FIG. 14 is a diagram illustrating the occurrence of a flank accident. (Embodiment 3) 図15は、引きずり事故の発生を示す図である。(実施形態3)FIG. 15 is a diagram illustrating the occurrence of a drag accident. (Embodiment 3) 図16は、監視装置の処理部を示す図である。(実施形態4)FIG. 16 is a diagram illustrating a processing unit of the monitoring apparatus. (Embodiment 4) 図17は、移動体の位置や移動情報を示す図である。(実施形態4)FIG. 17 is a diagram illustrating the position and movement information of the moving body. (Embodiment 4) 図18は、監視システムを示す図である。(補足)FIG. 18 is a diagram illustrating a monitoring system. (Supplement) 図19は、監視システムを示す図である。(補足)FIG. 19 is a diagram illustrating a monitoring system. (Supplement) 図20は、監視システムを示す図である。(補足)FIG. 20 is a diagram illustrating a monitoring system. (Supplement) 図21は、監視システムを示す図である。(補足)FIG. 21 is a diagram illustrating a monitoring system. (Supplement)

<実施形態1>
実施形態1に係る監視装置は、カメラの映像から監視領域内の複数の移動体を検知し、複数の移動体の位置や移動情報の相互関係に基づいて事故や事件の発生の可能性を検出し、この検出結果を反映して映像を記録媒体に記録する。
<Embodiment 1>
The monitoring apparatus according to the first embodiment detects a plurality of moving objects in the monitoring area from the video of the camera, and detects the possibility of occurrence of an accident or an incident based on the correlation between the positions of the plurality of moving objects and movement information. Then, the video is recorded on the recording medium reflecting the detection result.

図1に示すように、監視装置1は、ネットワーク(NW)を介してカメラ2と接続されており、全体として監視システムを構成している。   As shown in FIG. 1, a monitoring device 1 is connected to a camera 2 via a network (NW), and constitutes a monitoring system as a whole.

カメラ2は、街頭や建物入口付近等、所定の監視領域に設置されており、この監視領域の映像を撮像し、得た映像をネットワークを介して監視装置1に送信する。   The camera 2 is installed in a predetermined monitoring area such as a street or near the entrance of a building. The camera 2 captures an image of the monitoring area and transmits the obtained image to the monitoring apparatus 1 via the network.

監視装置1は、ネットワークを介してカメラ2からの映像を受信し、後述する所定の処理、映像の表示、映像の記録等を実行する。監視装置1は、具体的にはパーソナルコンピュータやワークステーション等のコンピュータにより実現される。監視装置1は、大きく分けて表示部10、処理部11、記録部12とを有している。処理部10は、例えば図示しないROMに書き込まれているプログラムを読み出してカメラ2の映像を処理する。表示部11は、処理部10で処理された映像等を表示するもので、具体的にはビデオモニター等で実現される。記録部12は、処理部10で処理された映像を記録するもので、具体的にはハードディスクレコーダ等で実現される。   The monitoring device 1 receives video from the camera 2 via the network, and executes predetermined processing, video display, video recording, and the like, which will be described later. Specifically, the monitoring device 1 is realized by a computer such as a personal computer or a workstation. The monitoring device 1 roughly includes a display unit 10, a processing unit 11, and a recording unit 12. For example, the processing unit 10 reads a program written in a ROM (not shown) and processes the video of the camera 2. The display unit 11 displays the video processed by the processing unit 10, and is specifically realized by a video monitor or the like. The recording unit 12 records the video processed by the processing unit 10, and is specifically realized by a hard disk recorder or the like.

ネットワークは、LANやインターネット網等の通信回線や同軸線等、種々のものを含む。   The network includes various types such as a communication line such as a LAN and an Internet network, a coaxial line, and the like.

図2は、監視装置1の処理部10の機能を示すブロック図である。   FIG. 2 is a block diagram illustrating functions of the processing unit 10 of the monitoring device 1.

図2に示すように、処理部10は、カメラ2から送信されてくる映像に対し、まずフレーム毎に表示処理を行う(100)。ここでは、例えば、カメラ2から映像がデジタル符号化されて送信されてくるのであれば、デジタル符号化された映像をフレーム毎に復号化し、映像として再現できるようにする。表示処理された映像は表示部11に送られる。   As shown in FIG. 2, the processing unit 10 first performs display processing for each frame on the video transmitted from the camera 2 (100). Here, for example, if the video is digitally encoded and transmitted from the camera 2, the digitally encoded video is decoded frame by frame so that it can be reproduced as a video. The display-processed video is sent to the display unit 11.

また、処理部10は、表示処理された映像について、フレーム毎に移動体検知し(101)、フレーム単位での移動体の位置を導出する(102)。ここでは、まず、各フレームについて、フレーム内に存在する移動体を検知する。検知された移動体の、実際にカメラ1が設置されている監視領域を含む実世界に対応する座標上での位置をキャリブレーション技術により導出する。
ここで、処理部10が連続したフレームに渡って移動体検知を行う際、あるフレームで移動体検知を開始すると、検知されたこの移動体の検知が終了するまで、一の検知として識別する。例えば、移動体aが監視領域に入ってきたことにより、N番目のフレーム(Nは自然数)で移動体aの検知を開始し、(N+100)番目のフレームまで移動体aの検知が続いた場合、N〜(N+100)フレームに渡っての移動体aの検知をひとまとまりとして一の検知とする。具体的にはひとまとまりの検知にIDなどの識別情報を付せばよい。
同様に、処理部10が連続したフレームに渡って移動体の位置の導出を行う際、移動体の検知時にひとまとりとして一の検知として識別された複数フレームにおける移動体の位置をひとまとまりとして位置群として識別する。例えば、上記の通りN〜(N+100)フレームに渡っての移動体aの検知がひとまりとして識別されていれば、N〜(N+100)フレームに渡っての移動体aの連続した位置を位置群として識別する。具体的にはひとまとりの位置群にIDなどの識別情報を付せばよい。
Further, the processing unit 10 detects a moving body for each frame of the display-processed video (101), and derives the position of the moving body in units of frames (102). Here, first, for each frame, a moving body existing in the frame is detected. The position of the detected moving body on the coordinates corresponding to the real world including the monitoring area where the camera 1 is actually installed is derived by the calibration technique.
Here, when the moving part detection is started in a certain frame when the processing unit 10 performs the moving body detection over successive frames, the detection is identified as one detection until the detection of the detected moving body is completed. For example, when the moving object “a” has entered the monitoring area, detection of the moving object “a” is started in the Nth frame (N is a natural number), and the detection of the moving object “a” continues until the (N + 100) th frame. , Detection of the moving object a over N to (N + 100) frames is regarded as one detection. Specifically, identification information such as an ID may be added to the detection of a group.
Similarly, when the processing unit 10 derives the position of the moving object over successive frames, the position of the moving object in a plurality of frames identified as one detection as a lump when detecting the moving object is taken as a group. Identify as a position group. For example, if the detection of the moving object a over N to (N + 100) frames is identified as a group as described above, the continuous position of the moving object a over N to (N + 100) frames is represented by the position group. Identify as. Specifically, identification information such as an ID may be attached to a group of positions.

次に、処理部10は、フレーム毎に導出した移動体の位置の履歴を、連続する複数フレームに渡って取っていくことで、移動体の移動方向や移動速度といった移動情報を導出する(103)。ここでは、あるフレーム上での移動体の位置とこれに続くフレーム上での位置との差分から座標上での移動方向を求めることができる。また、フレーム間の位置の差分とフレームの遷移時間とから移動速度を求めることができる。
なお、移動体検知手法はフレーム間での輝度変化に基づく方法等種々の方法があるが公知なので詳述はしない。同様に、キャリブレーション手法も射影変換法等種々の方法があるが公知なので詳述はしない。これらの手法は、本願出願人が先に出願し公開されている以下の特許公開公報内にも記載がある。
・特開2004−110280号公報
・特開2005−003377号公報
・特開2006−245795号公報
・特開2009−210331号公報
Next, the processing unit 10 derives movement information such as a moving direction and a moving speed of the moving body by taking the history of the position of the moving body derived for each frame over a plurality of continuous frames (103). ). Here, the moving direction on the coordinates can be obtained from the difference between the position of the moving body on a certain frame and the position on the subsequent frame. Further, the moving speed can be obtained from the position difference between frames and the frame transition time.
There are various methods for detecting a moving body, such as a method based on a change in luminance between frames. Similarly, there are various calibration methods such as a projective transformation method, but they are well known and will not be described in detail. These techniques are also described in the following patent publications that have been filed and published by the present applicant.
-JP 2004-110280 A-JP 2005-003377 A-JP 2006-245795 A-JP 2009-210331 A

図3は、処理部10により作成された位置や移動情報の一例を可視化した図であり、二つの移動体a及び移動体bが検知されたときの位置や移動情報の例を示している
マップMは、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップであり、カメラ2の監視領域がSで示されている。ここで、処理部10が導出した現フレームにおける移動体aの位置Paと、移動体bの位置Pbとをプロットして示している。また、移動体aと移動体bの位置の履歴を可視化するために、過去の複数フレームにおいて導出された移動体aの位置を結ぶことで移動履歴Haを作成し、同様に移動体bの位置を結ぶことで移動履歴Hbを作成する。また、例えば、移動情報として導出(103)した移動体aとbの移動方向を矢印で示し、移動体aとbの移動速度を数値で示している。
なお、本図では、移動体aとbとはともにほぼ同じ方向(図面上で上方向)に向かって移動しており、それぞれ2m/sと3m/sで移動していることを示している。
FIG. 3 is a diagram visualizing an example of the position and movement information created by the processing unit 10, and a map showing an example of the position and movement information when two moving bodies a and b are detected M is a map on coordinates corresponding to the real world including the monitoring area where the camera 2 is installed, and the monitoring area of the camera 2 is indicated by S. Here, the position Pa of the moving object a and the position Pb of the moving object b in the current frame derived by the processing unit 10 are plotted. Further, in order to visualize the position history of the moving object a and the moving object b, a movement history Ha is created by connecting the positions of the moving object a derived in the past plural frames, and similarly the position of the moving object b To create a movement history Hb. Further, for example, the moving directions of the moving bodies a and b derived (103) as movement information are indicated by arrows, and the moving speeds of the moving bodies a and b are indicated by numerical values.
In this figure, both the moving bodies a and b are moving in substantially the same direction (upward in the drawing), and are moving at 2 m / s and 3 m / s, respectively. .

フレーム内で複数の移動体の位置が導出されると、処理部10は、フレーム毎に、これら複数の移動体について位置の比較と移動情報の比較とを行い(104)、比較結果に基づいて、複数の移動体のうちいずれかが起こした事故や事件を検出する(105)。   When the positions of the plurality of moving objects are derived within the frame, the processing unit 10 compares the positions of the plurality of moving objects and the movement information for each frame (104), and based on the comparison result. Then, an accident or incident caused by any of the plurality of moving objects is detected (105).

処理部10は、事故や事件が検知されたフレームに対しては事故や事件が発生した可能性がある旨の識別情報(フラグ)を立てて(106)、映像を記録部12に記録する。   The processing unit 10 sets identification information (flag) indicating that an accident or incident may have occurred for a frame in which an accident or incident is detected, and records the video in the recording unit 12.

なお、処理部10は、事故や事件が検知されなかったフレームについては、フラグを立てずに記録部12に記録する。
なお、処理部10は、記録部12に記録された映像を読み出し、表示部11に表示させることができる。
Note that the processing unit 10 records a frame in which no accident or incident has been detected in the recording unit 12 without setting a flag.
The processing unit 10 can read the video recorded in the recording unit 12 and display the video on the display unit 11.

図4は、移動体の位置と移動情報の相対関係に基づく事故や事件の検出(105)を説明する図であり、二つの移動体a及び移動体bが検知された例を示している。
図4(a)に示すように、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが互いに所定の距離以上離間している場合、移動体aと移動体bのいずれも他方に対して危害を加えるような事故や事件は起こしていないとして、事故や事件の検知は行われない。
図4(b)に示すように、移動体aの位置Paと移動体bのPbとが所定距離以内であって、移動体a移動方向と移動体bの移動方向とが異なる方向にある場合、事故の検知を行う。これは移動体aと移動体bとが接近し衝突する事故が発生した可能性があるからである。
図4(c)に示すように、移動体aの位置Paと移動体bの位置Pbとが所定距離以内であって、かつ、移動体aと移動体bとが同じ移動方向にあり、さらに移動体aと移動体bとの間で移動速度に所定以上の差がある場合、事件の検知を行う。これは、移動速度が速い一方が遅い他方に対する「ひったくり」事件が発生した可能性があるからである。
FIG. 4 is a diagram for explaining the detection (105) of an accident or incident based on the relative relationship between the position of the moving body and the moving information, and shows an example in which two moving bodies a and b are detected.
As shown in FIG. 4A, in a certain frame, when the position Pa of the moving object a and the position Pb of the moving object b are separated from each other by a predetermined distance or more, both the moving object a and the moving object b On the other hand, no accidents or incidents that cause harm are not detected, and no accidents or incidents are detected.
As shown in FIG. 4B, the position Pa of the moving object a and the Pb of the moving object b are within a predetermined distance, and the moving direction of the moving object a is different from the moving direction of the moving object b. Detect accidents. This is because there may be an accident in which the moving body a and the moving body b approach and collide.
As shown in FIG. 4 (c), the position Pa of the moving body a and the position Pb of the moving body b are within a predetermined distance, and the moving body a and the moving body b are in the same moving direction. When there is a predetermined difference in moving speed between the moving body a and the moving body b, the incident is detected. This is because there is a possibility that a “snacking” incident has occurred for the one with the fast moving speed to the other with the slow moving speed.

図5は、処理部10が移動体の相互関係に基づいて事故や事件の検知を行う処理を示すフローチャートである。
処理部10は、複数の移動体が検知されると、移動体間の距離が所定の距離以内であるか否かを判断する(S10)。
移動体間の距離が所定の距離以上離間していれば(S10:N)、事故や事件の検出は行わない。所定の距離以内であれば(S10:Y)、処理部10はさらに両移動体の移動方向を判断する(S11)。
両移動体の移動方向が異なっていれば(S11:N)、処理部10は移動体同士の衝突の可能性があるとして事故を検出する(S12)。
両移動体の移動方向がほぼ同じであれば(S11:Y)、処理部10はさらに両移動体の移動速度差を判断する(S13)。
両移動体の移動速度に所定以上の差がなければ(S13:N)、処理部10は事故や事件を検出しないが、所定以上の差があれば(S13:Y)、速い方の移動体が遅い方の移動体に対してひったくりを仕掛けた可能性があるとして事件を検出する(S14)。
FIG. 5 is a flowchart illustrating a process in which the processing unit 10 detects an accident or an incident based on the mutual relationship between the moving objects.
When a plurality of moving objects are detected, the processing unit 10 determines whether or not the distance between the moving objects is within a predetermined distance (S10).
If the distance between the moving bodies is a predetermined distance or more (S10: N), no accident or incident is detected. If it is within the predetermined distance (S10: Y), the processing unit 10 further determines the moving directions of both moving bodies (S11).
If the moving directions of the two moving bodies are different (S11: N), the processing unit 10 detects an accident that there is a possibility of collision between the moving bodies (S12).
If the moving directions of both moving bodies are substantially the same (S11: Y), the processing unit 10 further determines the moving speed difference between the both moving bodies (S13).
If there is no difference between the moving speeds of the two moving bodies (S13: N), the processing unit 10 does not detect an accident or incident, but if there is a difference greater than the predetermined (S13: Y), the faster moving body. A case is detected as a possibility that a slow moving body has been snatched (S14).

このように、処理部10は、移動体の相互関係(相互の距離、移動方向、移動速度)に基づいて、移動体間に事故や事件が発生した可能性を検出することができる。   In this way, the processing unit 10 can detect the possibility that an accident or incident has occurred between the moving bodies based on the mutual relationships (mutual distance, moving direction, moving speed) of the moving bodies.

処理部10は、図6に示すように、事故や事件を検出したフレームについてその旨の示すフラグを立て、フレームの日付、時刻、及び当該フレームの前後フレームを含む映像(対象映像)と対応付けて記録部12に記録する。対象映像は、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る映像である。より具体的には、処理部10が位置導出(102)の際にひとまとまりとして一の位置群として識別した複数フレームから成る映像である。
例えば、本図において、2010年02月15日の07:00:15のフレームにおいて衝突発生が検知されたフレームは、一の位置群として識別されている07:00:02〜07:01:18間の複数フレームから成る映像と対応付けられている。
なお、本図では、事故(衝突)の可能性を示すフラグを1として、事件(ひったくり)の可能性を示すフラグを2としている。
図7は、記録部12に記録された映像を処理部10が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11には、事故や事件のフラグが立てられたフレームの一覧Lが表示され、その隣に映像を表示するウインドウWが表示されている。
フラグが立てられたフレームが一覧表示されるため、監視者は映像を始めから最後まで見なくても、事故や事件が発生した可能性のある映像箇所を素早く見つけることができる。
監視者がフレーム一覧Lから所望のフレームを選択する操作を行うと、処理部10は、この選択操作に応答して、選択されたフレームを含む対象映像を記録部12から読み出し再生し、ウインドウWに表示させる。
こうすることで、監視者が事故や事件が発生した可能性のある所望のフレームを選択すると、この所望のフレームに含まれる移動体(事故や事件の原因となったであろう移動体)が監視領域内でどのような挙動をしたのかを表示でき、監視者が事故や事件の解明を素早く行うことができる。すなわち、対象映像は、事故や事件が発生に起因した移動体が監視領域に現れてから消えるまでの間の映像であるため、監視者は事故や事件が発生した状況を確認することができる。
As illustrated in FIG. 6, the processing unit 10 sets a flag indicating that the frame in which an accident or incident has been detected, and associates the frame date, time, and the video (target video) including the frames before and after the frame. To the recording unit 12. The target video is a video composed of a plurality of frames that are adjacent to a frame in which the occurrence of an accident or incident is detected and from which movement information is derived. More specifically, it is an image made up of a plurality of frames identified as a group of positions by the processing unit 10 as a group at the time of position derivation (102).
For example, in this figure, a frame in which occurrence of a collision is detected in a frame at 07:00:15 on February 15, 2010 is identified as one position group, from 07:00:02 to 07:01:18. Are associated with a video composed of a plurality of frames.
In this figure, a flag indicating the possibility of an accident (collision) is set to 1, and a flag indicating the possibility of an incident (spotting) is set to 2.
FIG. 7 is a diagram illustrating a display example when the processing unit 10 reads out the video recorded in the recording unit 12 and displays the video on the display unit 11.
On the display unit 11, a list L of frames with flags of accidents and incidents is displayed, and a window W for displaying an image is displayed next to the list.
Since the flagged frames are displayed in a list, the supervisor can quickly find a video part where an accident or an incident may have occurred without looking at the video from the beginning to the end.
When the monitor performs an operation of selecting a desired frame from the frame list L, the processing unit 10 reads out and reproduces the target video including the selected frame from the recording unit 12 in response to the selection operation, and the window W To display.
In this way, when the monitor selects a desired frame where an accident or incident may have occurred, the moving object included in the desired frame (the moving object that may have caused the accident or incident) The behavior in the monitoring area can be displayed, and the supervisor can quickly clarify the accident or incident. In other words, the target video is a video from when the moving object resulting from the occurrence of the accident or incident appears in the monitoring area until it disappears, so the supervisor can confirm the situation in which the accident or incident has occurred.

<実施形態2>
実施形態1に係る監視装置では、複数の移動体の位置と移動情報とに基づき事故又は事件の発生を判別しているが、実施形態2では、位置と移動情報とに基づき事件の発生の蓋然性の高さを判別する。
<Embodiment 2>
In the monitoring apparatus according to the first embodiment, the occurrence of an accident or an incident is determined based on the position and movement information of a plurality of moving bodies. In the second embodiment, the probability of the occurrence of an incident is determined based on the position and the movement information. Determine the height.

実施形態2に係る監視装置は、実施形態1に係る監視装置の処理部10を処理部20に変更したものである。処理部20以外の構成については特に異なる点がないため、ここでは処理部20について詳しく説明する。   The monitoring device according to the second embodiment is obtained by changing the processing unit 10 of the monitoring device according to the first embodiment to a processing unit 20. Since there is no particular difference in the configuration other than the processing unit 20, the processing unit 20 will be described in detail here.

処理部20は、フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)を行った後、事件発生の蓋然性を検出し(205)、検出結果に応じてフレームに識別情報(フラグ)を立てる(206)。
フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)は、実施形態1に係る処理部10が実行するフレーム表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報の導出(103)、位置と移動情報の比較(104)と同様である。
The processing unit 20 performs frame display processing (200), mobile object detection (201), position derivation (202), mobile object information derivation (203), and comparison of position and movement information (204), and then an incident occurs. Is detected (205), and identification information (flag) is set in the frame according to the detection result (206).
The processing unit 10 according to the first embodiment executes frame display processing (200), moving object detection (201), position derivation (202), derivation of moving object information (203), and comparison of position and movement information (204). Frame display processing (100), moving object detection (101), position derivation (102), moving object information derivation (103), and position and movement information comparison (104).

処理部20は、事件の発生蓋然性の検出(205)において、導出された複数の移動体の位置に基づく移動体間の距離の接近度と、導出された複数の移動体の移動情報に基づく移動体間の移動方向と移動速度の近似度とに応じて、事件の発生の蓋然性の高さを判別する。   In the detection of the probability of occurrence of an incident (205), the processing unit 20 moves based on the degree of proximity between the moving bodies based on the derived positions of the plurality of moving bodies and the movement information on the plurality of derived moving bodies. The probability of occurrence of the incident is determined according to the moving direction between the bodies and the approximate degree of moving speed.

図9は、処理部20が上記接近度と近似度の判別を行うためのテーブルの例を示している。
図9に示すように、処理部20は、接近度と近似度とに基づきポイントを付与し、総合的なポイントの高さに応じて事件の発生の蓋然性の高さを判別する。
図9に示す例では、複数の移動体間の距離の近似度について、互いに1m以内であれば2ポイント、1m〜3m以内であれば1ポイント、3m以上であれば0ポイント付与する。また、複数の移動体間の移動方向の近似度について、互いに±30°以内であれば2ポイント、±30°〜±45°以内であれば1ポイント、±45°以上であれば0ポイントを付与する。また、複数の移動体間の移動速度の近似度については、互いに2.5m/h以上であれば2ポイント、2.5m/h未満であれば1ポイントを付与する。
ポイント付与後、処理部20は、例えば、距離の接近度と移動方向の近似度のいずれか一方に0ポイントがある場合には蓋然性を0(ゼロ)とし事件発生とは判別せず、いずれか一方に0ポイントが無い場合は全てのポイントの合計を蓋然性の高さとする。処理部20は、このように事件発生の蓋然性が導出されたフレームについて、蓋然性の高低を識別情報(フラグ)として付与し(206)、映像を記録部12に記録する。
FIG. 9 shows an example of a table for the processing unit 20 to determine the degree of approach and the degree of approximation.
As illustrated in FIG. 9, the processing unit 20 assigns points based on the degree of approach and the degree of approximation, and determines the probability of occurrence of an incident according to the overall point height.
In the example shown in FIG. 9, regarding the degree of approximation of the distance between a plurality of moving objects, 2 points are given if they are within 1 m of each other, 1 point is given if they are within 1 m to 3 m, and 0 points are given if they are 3 m or more. In addition, regarding the degree of approximation of the moving direction between a plurality of moving bodies, 2 points if within ± 30 ° of each other, 1 point if within ± 30 ° to ± 45 °, 0 points if over ± 45 °. Give. Moreover, about the approximation of the moving speed between several moving bodies, if it is 2.5 m / h or more mutually, 2 points will be provided, and if it is less than 2.5 m / h, 1 point will be provided.
After giving points, the processing unit 20 sets the probability to 0 (zero), for example, when there is 0 point in either one of the proximity of the distance and the approximation of the moving direction, and does not determine that the incident has occurred. On the other hand, if there is no 0 point, the total of all points is considered as a high probability. The processing unit 20 assigns the level of probability as identification information (flag) to the frame from which the probability of occurrence of the event is derived in this way (206), and records the video in the recording unit 12.

図10は、事件の発生の蓋然性の高低を識別情報として付与した例を示す図である。
時刻07:00:15のフレームでは、事件発生の蓋然性が4と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m〜3m以内であって(1ポイント)、移動方向の差が±30°〜±45°以内であって(1ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
時刻07:22:09のフレームでは、事件発生の蓋然性が6と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m以上であって(2ポイント)、移動方向の差が±30°以内であって(2ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
なお、処理部20がフラグを付して映像を記録部12に記録する際、フラグを付したフレームの前後フレームを含む映像(対象映像)と対応付けて記録するのは実施形態1と同様である。
FIG. 10 is a diagram illustrating an example in which the probability of occurrence of an incident is assigned as identification information.
In the frame at time 07:00:15, the probability of occurrence of the incident is determined to be 4. According to the table of FIG. 9, for example, the distance between moving bodies is within 1 m to 3 m (1 point), and the difference in moving direction is within ± 30 ° to ± 45 ° (1 point). This corresponds to a case where the speed difference is 2.5 m or more (2 points).
In the frame at time 07:22:09, the probability of occurrence of the event is determined to be 6. According to the table of FIG. 9, for example, the distance between moving bodies is 1 m or more (2 points), the difference in moving direction is within ± 30 ° (2 points), and the moving speed difference is 2.5 m. This corresponds to the case where there are (2 points).
Note that when the processing unit 20 adds a flag and records the video in the recording unit 12, the processing unit 20 records the video in association with the video including the frames before and after the flagged frame (target video) in the same manner as in the first embodiment. is there.

このように、処理部20は、複数の移動体間の位置の接近度と移動方向や移動速度の近似度に基づいて、事件の発生の蓋然性を判別することができ、監視者が事件の発生の可能性のある場面を効率的に探すことができる。   In this way, the processing unit 20 can determine the probability of occurrence of an incident based on the degree of proximity of the position between a plurality of moving objects and the degree of approximation of the moving direction and moving speed, and the supervisor can determine whether the incident has occurred. It is possible to efficiently search for a scene with the possibility of

図11は、このようにフラグを付した映像を記録部12から処理部20が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11にフレームの一覧LとウインドウWが表示され、フレーム一覧Lから選択されたフレームと対応付けられた対象映像がウインドウW上に表示されるのは実施形態1と同様であるが、本図に示すように、フレーム一覧Lにおいては、事件発生の蓋然性が高いフレームから順番にリスト表示される。
こうすることで、監視者は、事件発生の蓋然性の高い場面から映像を確認することができるため、犯罪捜査等をより効率的に行うことができる。
FIG. 11 is a diagram illustrating a display example when the processing unit 20 reads out the video with the flag in this way from the recording unit 12 and displays the video on the display unit 11.
Although the frame list L and the window W are displayed on the display unit 11 and the target video associated with the frame selected from the frame list L is displayed on the window W, as in the first embodiment, As shown in the figure, in the frame list L, a list is displayed in order from frames having a high probability of occurrence of an incident.
By doing so, the observer can check the video from a scene with a high probability of occurrence of the incident, so that the criminal investigation and the like can be performed more efficiently.

<実施形態3>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出する。
<Embodiment 3>
Although the monitoring device according to the first and second embodiments detects an accident or an incident based on the correlation between the position and movement information between moving bodies in a certain frame, in the third embodiment, the monitoring apparatus between the moving bodies in a certain frame In addition to the correlation between position and movement information, more detailed accidents or incidents are detected based on moving body information in subsequent frames.

図12は、実施形態3に係る処理部30の構成を示す図である。処理部30のフレーム表示処理(300)、移動体検知(301)、位置導出(302)、移動体情報導出(303)、位置と移動情報の比較(304)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部30は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(304)、比較した結果事故又は事故発生の可能性がある場合はさらに、続く複数フレームでの移動情報を導出し(305)、導出結果に応じて詳細な事故又は事件を検出する(306)。
FIG. 12 is a diagram illustrating a configuration of the processing unit 30 according to the third embodiment. The frame display process (300), the moving object detection (301), the position derivation (302), the moving object information derivation (303), and the comparison between the position and the movement information (304) of the processing unit 30 are the processing units according to the first embodiment. 10 display processing (100), moving object detection (101), position derivation (102), moving object information derivation (103), comparison of position and movement information (104), but the subsequent processing is different. Yes.
The processing unit 30 compares the derived positions of a plurality of moving objects and movement information (movement direction, movement speed) for a certain frame (304), and if there is a possibility that an accident or an accident occurs as a result of the comparison, Then, movement information in a plurality of subsequent frames is derived (305), and a detailed accident or incident is detected according to the derived result (306).

図13〜15は、事件又は事故の検出(304〜305)を説明するための図であり、二つの移動体a及び移動体bが検出された例を示している。   13-15 is a figure for demonstrating the detection (304-305) of an incident or an accident, and has shown the example in which the two mobile bodies a and the mobile bodies b were detected.

1.衝突事故の検出
図13に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、両移動体a及びbの移動速度が著しく0(ゼロ)に近くなった場合、移動体aと移動体bとが衝突事故を起こしたことを検出する(306)。例えば、N番目(Nは自然数)のフレームにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、両移動体の移動速度が0に近くなった場合、N番目のフレームで衝突事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、衝突事故を起こしたのであれば、それまで移動していた移動体がともに停止する蓋然性が高いからである。
1. Detection of Collision Accident As shown in FIG. 13, first, if the position Pa of the moving body a and the position Pb of the moving body b are within a predetermined distance in a certain frame, there is a possibility that a collision accident has occurred in this frame. Yes (304). In this case, the positions and movement information of the moving bodies a and b are derived in the following frame in the same manner as 300 to 303 (305), and the moving speeds of both the moving bodies a and b are remarkably 0 (zero). If it is close to, it is detected that a collision accident has occurred between the moving body a and the moving body b (306). For example, when it is detected that a collision accident may have occurred in the Nth frame (N is a natural number), the moving speeds of both moving bodies are determined for the (N + 1) to (N + M) (M is a natural number) frames. If it is detected that the moving speeds of both moving bodies are close to 0, it is detected that a collision accident has occurred in the Nth frame, and a flag indicating that fact is set in the Nth frame (307).
The reason for this determination is that if a collision accident has occurred, there is a high probability that both moving bodies that have moved up to that point will stop.

2.轢き逃げ事故の検出
図14に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動速度が著しく0(ゼロ)に近くなり、かつ、移動体bの移動速度が0以外である場合、移動体bが移動体a衝突した後逃走した(轢き逃げを起こした)を検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、移動体aの移動速度が0に近くなって移動体bの移動速度が0以外である場合、N番目のフレームで轢き逃げ事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、轢き逃げ事故の場合、被害者はその場で重傷を受けるか死亡する等して動きが止まる一方、加害者はその場から立ち去る蓋然性が高いからである。
2. As shown in FIG. 14, when a position Pa of the moving body a and a position Pb of the moving body b are within a predetermined distance in a certain frame, there is a possibility that a collision accident has occurred in this frame. Yes (304). In this case, the positions and movement information of the moving body a and the moving body b are derived in the following frame in the same manner as 300 to 303 (305), and the moving speed of the moving body a becomes remarkably close to 0 (zero). If the moving speed of the moving body b is other than 0, it is detected that the moving body b has escaped after hitting the moving body a (whether it has run away) (306). For example, when it is detected that a collision accident may have occurred in an Nth frame (N is a natural number), the moving speeds of both moving bodies are set for (N + 1) to (N + M) (M is a natural number) frames. If the moving speed of the moving body “a” is close to 0 and the moving speed of the moving body “b” is other than 0, it is detected that an accident has occurred in the Nth frame, and this is indicated in the Nth frame. Is set (307).
The reason for this decision is that in the case of a whispering accident, the victim is severely injured on the spot or ceases to move, but the perpetrator is likely to leave the spot.

3.引きずり事故の検出
図15に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動情報が無くなり、つまり移動体検知されなくなり、かつ、移動体bのみ移動情報が得られ移動速度が0以外である場合、移動体bが移動体a衝突した後移動体aを引きずったまま逃走していることを検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動情報を検出し、移動体aの移動情報が検出されず移動体bの移動速度が0以外である場合、N番目のフレームで引きずり事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、引きずり事故の場合、被害者はその場で加害者の車両に巻き込まれ引きずられることから、両移動体が一つとして検出される蓋然性が高いからである。
3. Detection of dragging accident As shown in FIG. 15, first, in a certain frame, when the position Pa of the moving body a and the position Pb of the moving body b are within a predetermined distance, there is a possibility that a collision accident has occurred in this frame. Yes (304). In this case, the positions and movement information of the moving object a and the moving object b are derived in the following frame in the same manner as 300 to 303 (305), and the moving information of the moving object a is lost, that is, the moving object is not detected. When the movement information is obtained only for the moving body b and the moving speed is other than 0, it is detected that the moving body b has escaped while dragging the moving body a after colliding with the moving body a (306). For example, when it is detected that a collision accident may have occurred in the Nth (N is a natural number) frame, the movement information of both moving bodies is obtained for the (N + 1) to (N + M) (M is a natural number) frames. If the movement information of the moving object a is not detected and the moving speed of the moving object b is other than 0, it is detected that a drag accident has occurred in the Nth frame, and this is indicated in the Nth frame. A flag is set (307).
The reason for this determination is that in the case of a dragging accident, the victim is caught in the vehicle of the perpetrator and dragged on the spot, so there is a high probability that both moving bodies are detected as one.

以上のように、処理部30は、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1及び2と同様である。
<実施形態4>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、さらにフレーム内の事故又は事件が検出された場所に基づいて詳細な事故又は事件を検出する。
As described above, the processing unit 30 can detect a more detailed accident or incident based on the moving object information in the subsequent frame in addition to the correlation between the position and moving information between moving objects in a certain frame. .
Also in this embodiment, the frame in which the flag indicating that an accident or an incident has occurred is a frame adjacent to the frame in which the occurrence of the accident or incident is detected in the recording unit 12, and the movement information is derived. It is the same as in the first and second embodiments that it is recorded in association with the target video composed of a plurality of frames.
<Embodiment 4>
Although the monitoring device according to the first and second embodiments detects an accident or an incident based on the correlation between the position of the moving body in a certain frame and the movement information, in the third embodiment, the accident or the incident in the frame is further detected. Detect detailed accidents or incidents based on the location where.

図16は、実施形態4に係る処理部40の構成を示す図である。処理部40のフレーム表示処理(400)、移動体検知(401)、位置導出(402)、移動体情報導出(403)、位置と移動情報の比較(404)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部40は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(404)、比較した結果事故又は事故発生の可能性がある場合はさらに、導出した移動体の位置の座標を比較し(405)、比較結果に基づいて事故又は事件の詳細を検出する(406)。
FIG. 16 is a diagram illustrating a configuration of the processing unit 40 according to the fourth embodiment. The frame display process (400), the moving object detection (401), the position derivation (402), the moving object information derivation (403), and the comparison between the position and the movement information (404) of the processing unit 40 are the processing units according to the first embodiment. 10 display processing (100), moving object detection (101), position derivation (102), moving object information derivation (103), comparison of position and movement information (104), but the subsequent processing is different. Yes.
The processing unit 40 compares the derived positions of a plurality of moving objects and movement information (movement direction, movement speed) for a certain frame (404), and if there is a possibility that an accident or an accident occurs as a result of the comparison, Then, the coordinates of the derived position of the moving body are compared (405), and the details of the accident or incident are detected based on the comparison result (406).

図17は、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップを示している。マップの中で、破線で表しているのが監視領域内に存在する横断歩道に相当する領域である。移動体がこの領域内の座標で検出された場合、当該移動体は監視領域内では横断歩道を通行する歩行者である蓋然性が高い。逆に、この破線で示した領域外の座標で検出された移動体は、監視領域の中では、横断歩道以外の道路を(車道)を通行する車両である蓋然性が高い。
そこで、監視装置1は予め、監視領域内において歩行者が歩行しそうな場所に相当する領域(歩行領域)の実世界の座標を記憶しておく。記憶する場所は記録部12であってもよいし、ROMやRAM等の記憶手段を監視装置1に設けておいてそこに記憶しておいてもよい。
FIG. 17 shows a map on coordinates corresponding to the real world including the monitoring area where the camera 2 is installed. In the map, a broken line represents an area corresponding to a pedestrian crossing existing in the monitoring area. When a moving body is detected at coordinates in this area, the moving body is highly likely to be a pedestrian who passes a pedestrian crossing in the monitoring area. On the contrary, the mobile body detected by the coordinates outside the area indicated by the broken line is highly likely to be a vehicle that travels (roadway) other than the pedestrian crossing in the monitoring area.
Therefore, the monitoring device 1 stores in advance the real-world coordinates of an area (walking area) corresponding to a place where a pedestrian is likely to walk in the monitoring area. The storage location may be the recording unit 12, or storage means such as ROM or RAM may be provided in the monitoring apparatus 1 and stored therein.

処理部40は、複数の移動体の位置と移動情報を比較し(404)、互いの位置とが所定距離内にある場合、例えば事故の発生と判断し、さらに、このときの互いの位置座標と記憶された座標とを比較する(405)。比較の結果、記憶された座標に含まれる場合は、監視領域内での横断歩道で事故が発生した蓋然性が高いため、歩行者と車両とによる接触事故である蓋然性が高いと判断しこれを検出する(406)。一方、比較の結果、記憶された座標に含まれない場合は、監視領域内での車道で事故が発生した蓋然性が高いため、車両同士による接触事故である蓋然性が高いと判断しこれを検出する(406)。
処理部40は、検出結果に応じて、歩行者と車両による接触事故である旨のフラグもしくは車両同士による接触事故である旨のフラグをフレームに付与する(407)。
このように、事故又は事件の発生位置を監視領域と対応する実世界の座標上で判断することで、より詳細な事故又は事件の発生を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1〜3と同様である。
The processing unit 40 compares the position of the plurality of moving objects and the movement information (404), and determines that an accident has occurred, for example, if the positions are within a predetermined distance. Are compared with the stored coordinates (405). As a result of comparison, if it is included in the stored coordinates, it is highly likely that an accident occurred at a pedestrian crossing in the surveillance area, so it is judged that there is a high probability of a contact accident between a pedestrian and a vehicle, and this is detected. (406). On the other hand, if it is not included in the stored coordinates as a result of the comparison, it is highly probable that an accident has occurred on the roadway in the monitoring area, so it is determined that there is a high probability of a contact accident between vehicles, and this is detected. (406).
Based on the detection result, the processing unit 40 adds to the frame a flag indicating a contact accident between the pedestrian and the vehicle or a flag indicating a contact accident between the vehicles (407).
In this way, by determining the occurrence position of the accident or incident on the real-world coordinates corresponding to the monitoring area, it is possible to detect the occurrence of a more detailed accident or incident.
Also in this embodiment, the frame in which the flag indicating that an accident or an incident has occurred is a frame adjacent to the frame in which the occurrence of the accident or incident is detected in the recording unit 12, and the movement information is derived. It is the same as in the first to third embodiments that is recorded in association with a target video composed of a plurality of frames.

<補足>
以上、実施形態1〜4に基づき、監視装置について説明したが、本発明の監視装置の構成について以下の通り補足する。
1.処理部10〜40は、移動体の位置の位置の導出(102〜402)において、過去のフレームでの位置検出結果に基づき移動平均化した位置を導出するようにすれば、ごく一時的もしくは急峻は移動体の動きに敏感に反応しすぎることなく滑らかに位置を導出することができる。
2.処理部10〜40が移動体の検知(101〜401)を行う際、人物歩行像(シルエット)に着目した人物検出を利用してもよい。このような移動体検知については、例えば、特開2010−038835号公報に開示されている。
3.監視装置1は記録部12を備え、処理部10〜40は映像を記録部12に記録するようにしているがこれに限らない。例えば、監視装置1は、図18に示すように、発報部22を備え、処理部10〜40は、事故又は事件の検出(105、205、306、406)を行ったとき、発報部22に発報させるようにしてもよい。発報部22は例えば、アラーム等の警告音を放音させるドライバで、外部のスピーカに警告音を鳴動させることができるものであればよい。
4.監視装置1はカメラ2と接続され、処理部10〜40は、カメラ2の撮像映像に基づいて監視領域内の移動体を検出する(101〜401)ようにしているが、これに限らない。例えば、監視装置1は、図19に示すように、カメラの代わりに監視領域にレーザースキャナ(レーザーセンサ)3と接続し、処理部10〜40は、レーザースキャナ3のスキャン結果に基づいて移動体を検出するようにしてもよい。
レーザースキャナ3は、スキャン領域A内において一端から他端まで順次レーザー光を照射し、スキャン領域A内でレーザー光が物体に当たるのを検出する装置である。処理部10〜40は例えば、レーザースキャナ3が物体を検出した場合、これを移動体と検出し(101〜401)、スキャン領域Aに対応する実世界座標上での移動体の位置を導出する(102〜402)ようにすればよい。
このように構成した場合、上記補足3で説明したように、監視装置1には発報部を設け、処理部10〜40が事故又は事件の検出に応じて発報部から発報させるようにすればよい。
5.監視装置1とカメラ2とは便宜上、ネットワークを介して接続されている例を示したが、いわゆるインターネット網やLAN等の通信回線に限らない。同軸線などの有線接続手段や、Bluetooth(登録商標)や赤外線等の無線接続手段など、監視装置1とカメラ2間で信号のやり取りができる手段であればよい。上記補足で示したレーザースキャナ3との接続も同様である。
6.監視装置1がカメラ2とネットワークで接続されている例を示したが、監視装置1の一部又は全ての構成とカメラ2とは同じ筐体に格納し、カメラ2に監視装置1の機能の一部又は全部を実行させるようにしてもよい。例えば、図20(a)及び(b)に示すように、カメラ2に処理部10を備え、カメラ2側で事故又は事件の検出を行い、検出結果に応じて監視装置1が表示や記録を行うようにしてもよいし、カメラ2に処理部10、表示部11、記録部12を備え、カメラ2が完全に監視装置として機能するようにしてもよい。
また、図21に示すように、処理部の機能の一部をカメラ2に実行させ、残りの機能を監視装置1に実行させるようにしてもよい。図21で示す例では、処理部10の処理のうち移動体検知処理101をカメラ2が実行し、残りの機能を監視装置1が実行する例を示しているがこれに限定されない。
<Supplement>
As mentioned above, although the monitoring apparatus was demonstrated based on Embodiment 1-4, it supplements as follows about the structure of the monitoring apparatus of this invention.
1. In the derivation of the position of the moving object (102 to 402), the processing units 10 to 40 are very temporary or steep if the moving averaged position is derived based on the position detection result in the past frame. Can derive the position smoothly without being too sensitive to the movement of the moving body.
2. When the processing units 10 to 40 detect a moving body (101 to 401), person detection that focuses on a person walking image (silhouette) may be used. Such moving body detection is disclosed in, for example, Japanese Patent Application Laid-Open No. 2010-038835.
3. Although the monitoring device 1 includes the recording unit 12 and the processing units 10 to 40 record the video in the recording unit 12, the present invention is not limited thereto. For example, as shown in FIG. 18, the monitoring device 1 includes a notification unit 22, and when the processing units 10 to 40 detect an accident or an incident (105, 205, 306, 406), the notification unit 22 may be notified. For example, the reporting unit 22 is a driver that emits a warning sound such as an alarm, and may be any one that can cause a warning sound to sound on an external speaker.
4). The monitoring device 1 is connected to the camera 2 and the processing units 10 to 40 detect the moving body in the monitoring area based on the captured image of the camera 2 (101 to 401), but the present invention is not limited to this. For example, as shown in FIG. 19, the monitoring apparatus 1 is connected to a laser scanner (laser sensor) 3 in a monitoring area instead of a camera, and the processing units 10 to 40 are based on the scan result of the laser scanner 3. May be detected.
The laser scanner 3 is a device that irradiates laser light sequentially from one end to the other end in the scan area A, and detects that the laser light strikes an object in the scan area A. For example, when the laser scanner 3 detects an object, the processing units 10 to 40 detect this as a moving body (101 to 401), and derive the position of the moving body on the real world coordinates corresponding to the scan region A. (102-402).
When configured in this way, as described in Supplement 3 above, the monitoring device 1 is provided with a notification unit so that the processing units 10 to 40 are notified from the notification unit in response to the detection of an accident or incident. do it.
5. For the sake of convenience, the monitoring device 1 and the camera 2 are connected via a network. However, the monitoring device 1 and the camera 2 are not limited to a so-called Internet network or a communication line such as a LAN. Any means capable of exchanging signals between the monitoring apparatus 1 and the camera 2 such as a wired connection means such as a coaxial line or a wireless connection means such as Bluetooth (registered trademark) or infrared rays may be used. The connection with the laser scanner 3 shown in the above supplement is the same.
6). Although an example in which the monitoring device 1 is connected to the camera 2 via the network has been shown, a part or all of the configuration of the monitoring device 1 and the camera 2 are stored in the same housing, and the camera 2 has the functions of the monitoring device 1. Some or all of them may be executed. For example, as shown in FIGS. 20A and 20B, the camera 2 includes a processing unit 10, detects an accident or incident on the camera 2 side, and the monitoring device 1 displays and records depending on the detection result. Alternatively, the camera 2 may include the processing unit 10, the display unit 11, and the recording unit 12, and the camera 2 may completely function as a monitoring device.
In addition, as shown in FIG. 21, some functions of the processing unit may be executed by the camera 2 and the remaining functions may be executed by the monitoring device 1. In the example illustrated in FIG. 21, the camera 2 executes the moving body detection process 101 among the processes of the processing unit 10 and the monitoring apparatus 1 executes the remaining functions. However, the present invention is not limited to this.

<まとめ>
以上のように、本発明の実施形態に係る監視装置1は、監視領域内で発生した複数の移動体間の事故又は事件を検出することができる。
特に、複数の移動体間の位置、移動情報(移動方向差、移動速度差)に基づいて検出を行うため、移動体が事故又は事件を起こした場合の動きの類型をデータベース化しておく必要が無く、簡素な構成で監視装置1を構成することができる。
<Summary>
As described above, the monitoring device 1 according to the embodiment of the present invention can detect an accident or incident between a plurality of moving bodies that occur in the monitoring area.
In particular, since the detection is performed based on the position and movement information (movement direction difference, movement speed difference) between a plurality of moving bodies, it is necessary to create a database of movement types when the moving body has caused an accident or incident. The monitoring apparatus 1 can be configured with a simple configuration.

本発明の監視装置は、所定の監視領域内の移動体を監視する監視装置に広く適用することができる。   The monitoring apparatus of the present invention can be widely applied to a monitoring apparatus that monitors a moving body in a predetermined monitoring area.

1 監視装置
2 カメラ
3 レーザースキャナ
10 処理部
11 表示部
12 記録部
100、200、300、400 フレーム表示処理
101、201、301、401 移動体検知処理
102、202、302、402 位置導出処理
103、203、303、305、403 移動情報導出処理
104、204、304、404 位置・移動情報比較処理
105、306、406 事故・事件検出処理
106、206、307、407 フラグ付与処理
205 事件発生蓋然性検出処理
405 座標比較処理
DESCRIPTION OF SYMBOLS 1 Monitoring apparatus 2 Camera 3 Laser scanner 10 Processing part 11 Display part 12 Recording part 100, 200, 300, 400 Frame display process 101, 201, 301, 401 Moving body detection process 102, 202, 302, 402 Position derivation process 103, 203, 303, 305, 403 Movement information derivation processing 104, 204, 304, 404 Position / movement information comparison processing 105, 306, 406 Accident / incident detection processing 106, 206, 307, 407 Flag assignment processing 205 Incident occurrence probability detection processing 405 Coordinate comparison process

Claims (8)

所定の監視領域内の移動体を検出する移動体検出手段と、
前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置を導出する位置導出手段と、
前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて、前記複数の移動体間の所定の行動を検出する検出手段とを備える
監視装置。
A moving body detecting means for detecting a moving body within a predetermined monitoring area;
Position deriving means for deriving a position of the moving body detected by the moving body detecting means on coordinates corresponding to the monitoring area;
When the plurality of moving bodies are detected by the moving body detecting means and the position of each moving body is derived by the position deriving means, the position between the moving bodies is determined based on the mutual relationship between the positions of the respective moving bodies. A monitoring device comprising: detecting means for detecting a predetermined action.
前記監視領域を撮像するカメラが撮像した映像を入力する入力手段をさらに備え、
前記移動体検出手段は、前記入力手段で入力された映像内の移動体を検出する
請求項1記載の監視装置。
It further comprises input means for inputting the video imaged by the camera that images the monitoring area,
The monitoring apparatus according to claim 1, wherein the moving body detection unit detects a moving body in an image input by the input unit.
前記位置導出手段は、移動体の位置を、映像を構成するフレーム毎に導出し、
前記検出手段は、前記位置導出手段により導出された前記複数の移動体の位置間の距離に基づき前記所定の行動を検出する
請求項2記載の監視装置。
The position deriving means derives the position of the moving body for each frame constituting the video,
The monitoring apparatus according to claim 2, wherein the detection unit detects the predetermined action based on a distance between positions of the plurality of moving bodies derived by the position deriving unit.
各移動体について、前記位置導出手段が導出した位置に基づき、各移動体の移動方向と移動速度のうち少なくとも一方を移動情報として導出する移動情報導出手段をさらに備え、
前記検出手段は、前記複数の移動体の位置の相互関係と前記移動情報とに基づいて前記所定の行動を検出する
請求項1記載の監視装置。
For each moving body, further comprising movement information deriving means for deriving at least one of the moving direction and moving speed of each moving body as movement information based on the position derived by the position deriving means,
The monitoring device according to claim 1, wherein the detection unit detects the predetermined action based on a mutual relationship between positions of the plurality of moving bodies and the movement information.
各移動体について、前記位置導出手段が導出した位置に基づき、各移動体の移動方向と移動速度のうち少なくとも一方を移動情報として導出する移動情報導出手段をさらに備え、
前記検出手段は、前記位置導出手段が導出した位置より決まる前記複数の移動体間の距離の接近度と、前記移動情報導出手段が導出した移動情報より決まる前記複数の移動体間の移動方向と移動速度との少なくとも一方の近似度とに基づいて、前記所定の行動が発生した蓋然性を異ならせて検出を行う
請求項1記載の監視装置。
For each moving body, further comprising movement information deriving means for deriving at least one of the moving direction and moving speed of each moving body as movement information based on the position derived by the position deriving means,
The detection means includes an approach degree of the distance between the plurality of moving bodies determined from the position derived by the position deriving means, and a moving direction between the plurality of moving bodies determined from the movement information derived by the movement information deriving means. The monitoring apparatus according to claim 1, wherein the detection is performed by changing the probability that the predetermined action has occurred based on at least one of the approximate degrees of movement speed.
前記カメラが撮像した映像を記録する映像記録手段をさらに備え、
前記位置導出手段は、映像を構成するフレーム毎に位置を導出し、
前記検出手段は、前記位置導出手段により導出された前記複数の移動体の位置の相互関係に基づき前記所定の行動を検出し、
前記映像記録手段は、前記検出手段により前記所定の行動が検出されたフレームにこれを識別する識別情報を付して映像を記録する
請求項2記載の監視装置。
Video recording means for recording video captured by the camera;
The position deriving means derives a position for each frame constituting the video;
The detecting means detects the predetermined action based on the mutual relationship between the positions of the plurality of moving bodies derived by the position deriving means,
The monitoring apparatus according to claim 2, wherein the video recording unit records video by adding identification information for identifying the frame in which the predetermined action is detected by the detection unit.
前記カメラが撮像した映像を記録する映像記録手段をさらに備え、
移動体検知手段は、前記監視領域内に移動体が現れたことで当該移動体の検知を開始し、当該移動体が前記監視領域から離れたことで当該移動体の検知を終了する際、当該開始から終了までを一の検知として識別し、
前記位置導出手段は、映像を構成するフレーム毎に位置を導出するものであって、前記移動体検知手段が一の検知を行っている間に導出した移動体の位置を一の位置群として識別し、
前記検出手段は、前記位置導出手段により導出された前記複数の移動体の位置の相互関係に基づき前記所定の行動を検出し、
前記映像記録手段は、前記検出手段により前記所定の行動が検出されたフレームと、当該フレームと隣接フレームとから成るものであって前記位置導出手段が一の位置群として識別している複数の位置が導出された複数のフレームとを対応付けて記録する
請求項2記載の監視装置。
Video recording means for recording video captured by the camera;
The moving body detection means starts detecting the moving body when the moving body appears in the monitoring area, and ends the detection of the moving body when the moving body leaves the monitoring area. Identify from start to end as one detection,
The position deriving means derives a position for each frame constituting the video, and identifies the position of the moving body derived while the moving body detecting means performs one detection as one position group. And
The detecting means detects the predetermined action based on the mutual relationship between the positions of the plurality of moving bodies derived by the position deriving means,
The video recording means is composed of a frame in which the predetermined action is detected by the detection means, and a plurality of positions identified by the position deriving means as one position group. The monitoring apparatus according to claim 2, wherein the plurality of frames from which the is derived are recorded in association with each other.
所定の監視領域を監視する処理をコンピュータに実行させるためのプログラムであって、前記処理は、
前記監視領域内の移動体を検出する移動体検出工程と、
前記移動体検出工程で検出された移動体の位置を導出する位置導出工程と、
前記移動体検出工程で複数の移動体が検出され、前記位置導出工程で各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出工程とを含む
プログラム。
A program for causing a computer to execute a process for monitoring a predetermined monitoring area, wherein the process includes:
A moving body detecting step of detecting a moving body in the monitoring region;
A position deriving step for deriving the position of the moving body detected in the moving body detecting step;
When a plurality of moving bodies are detected in the moving body detecting step and the position of each moving body is derived in the position deriving step, a predetermined value between the plurality of moving bodies is determined based on the mutual relationship between the positions of the moving bodies. And a detection process for detecting the behavior of the person.
JP2010050577A 2010-03-08 2010-03-08 Monitoring device and program Active JP5787485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010050577A JP5787485B2 (en) 2010-03-08 2010-03-08 Monitoring device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010050577A JP5787485B2 (en) 2010-03-08 2010-03-08 Monitoring device and program

Publications (2)

Publication Number Publication Date
JP2011186727A true JP2011186727A (en) 2011-09-22
JP5787485B2 JP5787485B2 (en) 2015-09-30

Family

ID=44792923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010050577A Active JP5787485B2 (en) 2010-03-08 2010-03-08 Monitoring device and program

Country Status (1)

Country Link
JP (1) JP5787485B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194686A (en) * 2013-03-29 2014-10-09 Denso Corp Crime prevention system
JP2015115955A (en) * 2013-12-13 2015-06-22 華為技術有限公司Huawei Technologies Co.,Ltd. Video synopsis method and apparatus
JP2017046125A (en) * 2015-08-25 2017-03-02 東京海上日動火災保険株式会社 Information processing technology relating to customer service when accident occurs
WO2019082742A1 (en) * 2017-10-25 2019-05-02 株式会社Ihi Information generation device
CN109952491A (en) * 2016-11-14 2019-06-28 伟摩有限责任公司 The object smoothly generated from sensing data using cartographic information
JP2020149521A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Specific event occurrence detection device, specific event occurrence detection method, and specific event occurrence detection program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229487A (en) * 2000-02-15 2001-08-24 Minolta Co Ltd Traffic monitor device
WO2002021441A1 (en) * 2000-09-06 2002-03-14 Hitachi, Ltd. Abnormal behavior detector
JP2007300556A (en) * 2006-05-02 2007-11-15 Canon Inc Moving image processor, and moving image processing method
JP2009238152A (en) * 2008-03-28 2009-10-15 Brother Ind Ltd Authority management system of operation equipment
JP2011091705A (en) * 2009-10-23 2011-05-06 Canon Inc Image processing apparatus, and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229487A (en) * 2000-02-15 2001-08-24 Minolta Co Ltd Traffic monitor device
WO2002021441A1 (en) * 2000-09-06 2002-03-14 Hitachi, Ltd. Abnormal behavior detector
JP2007300556A (en) * 2006-05-02 2007-11-15 Canon Inc Moving image processor, and moving image processing method
JP2009238152A (en) * 2008-03-28 2009-10-15 Brother Ind Ltd Authority management system of operation equipment
JP2011091705A (en) * 2009-10-23 2011-05-06 Canon Inc Image processing apparatus, and image processing method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194686A (en) * 2013-03-29 2014-10-09 Denso Corp Crime prevention system
JP2015115955A (en) * 2013-12-13 2015-06-22 華為技術有限公司Huawei Technologies Co.,Ltd. Video synopsis method and apparatus
US9454701B2 (en) 2013-12-13 2016-09-27 Huawei Technologies Co., Ltd. Video synopsis method and apparatus
JP2017046125A (en) * 2015-08-25 2017-03-02 東京海上日動火災保険株式会社 Information processing technology relating to customer service when accident occurs
CN109952491A (en) * 2016-11-14 2019-06-28 伟摩有限责任公司 The object smoothly generated from sensing data using cartographic information
JP2019079296A (en) * 2017-10-25 2019-05-23 株式会社Ihi Information generating device
WO2019082742A1 (en) * 2017-10-25 2019-05-02 株式会社Ihi Information generation device
CN111247574A (en) * 2017-10-25 2020-06-05 株式会社Ihi Information generating apparatus
EP3703025A4 (en) * 2017-10-25 2021-08-04 IHI Corporation Information generation device
JP7043785B2 (en) 2017-10-25 2022-03-30 株式会社Ihi Information generator
US11934746B2 (en) 2017-10-25 2024-03-19 Ihi Corporation Information generation device
JP2020149521A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Specific event occurrence detection device, specific event occurrence detection method, and specific event occurrence detection program
JP7115373B2 (en) 2019-03-15 2022-08-09 オムロン株式会社 Specific event occurrence detection device, specific event occurrence detection method, and specific event occurrence detection program

Also Published As

Publication number Publication date
JP5787485B2 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
JP5787485B2 (en) Monitoring device and program
JP6551512B2 (en) Monitoring system, monitoring control device, monitoring method, and program
US9792434B1 (en) Systems and methods for security data analysis and display
US9672440B2 (en) Damage recognition assist system
JP5284599B2 (en) Image processing device
JP7070683B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program
US20090128632A1 (en) Camera and image processor
JP5743849B2 (en) Video analysis apparatus and system
KR20210053534A (en) Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof
KR20140004291A (en) Forward collision warning system and forward collision warning method
KR100916960B1 (en) Monitoring system in railway station
JP2010220042A (en) Video confirmation apparatus, method thereof and program
JP4852355B2 (en) Abandoned object detection device and abandoned object detection method
JP2012128561A (en) Abnormal vehicle detection device
JP7128577B2 (en) monitoring device
JP2012243128A (en) Monitoring device, monitoring method and monitoring program
CN110544312A (en) Video display method and device in virtual scene, electronic equipment and storage device
JP2018148402A (en) Image monitoring device and image monitoring method
CN104050785A (en) Safety alert method based on virtualized boundary and face recognition technology
KR102438433B1 (en) Control system capable of 3d visualization based on data and the method thereof
JP6405606B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010238187A (en) Security system and security method
JP2012222685A (en) Detection system for abandoned or removed object
JP6648923B2 (en) Control device, control method, and program
JP6570906B2 (en) Monitoring system and monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150728

R150 Certificate of patent or registration of utility model

Ref document number: 5787485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250