JP2005086626A - Wide area monitoring device - Google Patents

Wide area monitoring device Download PDF

Info

Publication number
JP2005086626A
JP2005086626A JP2003318033A JP2003318033A JP2005086626A JP 2005086626 A JP2005086626 A JP 2005086626A JP 2003318033 A JP2003318033 A JP 2003318033A JP 2003318033 A JP2003318033 A JP 2003318033A JP 2005086626 A JP2005086626 A JP 2005086626A
Authority
JP
Japan
Prior art keywords
information
image
tracking target
tracking
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003318033A
Other languages
Japanese (ja)
Inventor
Masahiro Iwasaki
正宏 岩崎
Taro Imagawa
太郎 今川
Tsukasa Kanda
宰 神田
Tatsuji Yamazaki
龍次 山崎
Susumu Okada
晋 岡田
Kensuke Marutani
健介 丸谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003318033A priority Critical patent/JP2005086626A/en
Publication of JP2005086626A publication Critical patent/JP2005086626A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring device displaying various pieces of information regarding a mobile object, selecting and switching information to be displayed according to situations, enhancing the monitoring efficiency of a watcher, and reducing mistakes. <P>SOLUTION: A video image picked up with a camera 10 is transmitted to a video processing part 12 and a position detection part 13 via a network 11. The video processing part 12 detects the information regarding the mobile object, the position detection part 13 detects a position of the mobile object, and these pieces of information are transmitted to a mobile object detection tracing part 14 and a map data part 15. The mobile object detection tracing part 14 selects image information required for processing and transmits the selected image information to a state judgment part 17 with the information of the map data part 15. The state judgment part 17 collates the image information with image information preliminarily registered in a data base 16 and attribute information and judges the tracing state of the mobile object, etc. A display switching part 18 selects information matching the situations on the basis of its result, and displays the selected information on a monitor 19. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、広範囲で人物等の移動物体の監視を行う広域監視装置に関するものである。   The present invention relates to a wide area monitoring apparatus that monitors a moving object such as a person over a wide range.

従来、複数の監視カメラを用いて、車両や人物等の移動物体を検出、追跡し、不審車両や不審人物を認識する自動監視システムが知られている。しかし、これらの自動監視システムを適用して、屋外に監視カメラを設置し、広範囲に監視を行う場合、照明条件の整った室内とは大きく異なる問題が生じる。   2. Description of the Related Art Conventionally, there is known an automatic monitoring system that recognizes a suspicious vehicle or a suspicious person by detecting and tracking a moving object such as a vehicle or a person using a plurality of monitoring cameras. However, when these automatic monitoring systems are applied and a surveillance camera is installed outdoors and monitoring is performed over a wide area, there is a problem that is significantly different from that in a room with well-lit lighting conditions.

例えば、天候、季節、時間によって、さまざまに光の当たり具合が変化するために、カメラで監視対象を撮影し、装置が自動的かつ精度良く不審者や不審物体を検出および追跡することは非常に難しく、誤検出や追跡ミスが大きな問題となる。   For example, because the light exposure varies depending on the weather, season, and time, it is extremely difficult for the camera to capture the object to be monitored and automatically and accurately detect and track the suspicious person or object. Difficult, false detection and tracking mistakes become a big problem.

また、天候等の照明条件に左右されずに、車両や人物等の移動物体等を認識するために、対象物体がそれぞれIDタグ等を保持することによって、特定の人物および移動物体を認識する方法も存在するが、必ずしも監視対象がIDタグを保持しているとは限らないために、監視を目的としたシステムには適用できない。   A method of recognizing a specific person and a moving object by holding an ID tag or the like for each target object in order to recognize a moving object such as a vehicle or a person regardless of lighting conditions such as weather. However, since the monitoring target does not always hold an ID tag, it cannot be applied to a system for monitoring purposes.

このような点から、監視システムにおいて、複数のカメラを設置した場合、自動監視は困難であるため、カメラで撮像した映像は、各カメラに対応するモニタで表示するように構成し、監視員がそのモニタを監視することが多い。このような場合、カメラの設置数が増加するにしたがってモニタ数も増加することになり、そのため、監視員は、それぞれのモニタに気を配る必要があり、監視員の負担が大きくなると共に、監視ミスも増えるという可能性があった。   In view of this, when a plurality of cameras are installed in a monitoring system, automatic monitoring is difficult. Therefore, an image captured by a camera is configured to be displayed on a monitor corresponding to each camera. The monitor is often monitored. In such a case, the number of monitors will increase as the number of cameras installed increases. Therefore, it is necessary for the monitor to pay attention to each monitor, which increases the burden on the monitor and increases the monitoring. There was a possibility that mistakes also increased.

監視員の負担を軽減することを目的とした従来技術として、侵入者等の対象物がカメラの死角に入った場合に、その対象物が死角に入る直前の映像を表示することにより、対象者が死角に入ったことを表示する映像処理装置が知られている(例えば、特許文献1参照)。   As a conventional technology aimed at reducing the burden on observers, when an object such as an intruder enters the blind spot of the camera, the target person is displayed by displaying an image immediately before the object enters the blind spot. A video processing apparatus that displays that the camera has entered the blind spot is known (see, for example, Patent Document 1).

また、他の監視装置として、複数の監視領域に対応してそれぞれ複数のモニタを設置した場合、監視員の負担が大きくなるため、これを解消するために1台のモニタに移動体の存在する位置と移動体の映像とを同時に表示するものも知られている。これによれば、監視員は一つのモニタに表示される地図と地図上の移動物体とを監視することによって、一目で移動物体とその存在位置とを知ることができる(例えば、特許文献2参照)。
特開2001−94968号公報(第16頁、第6図) 特開2000−295599号公報(第8頁、第5図)
In addition, when a plurality of monitors are installed corresponding to a plurality of monitoring areas as other monitoring devices, the burden on the monitoring staff increases, and there is a moving body in one monitor in order to solve this problem. A device that simultaneously displays a position and an image of a moving object is also known. According to this, the monitoring person can know the moving object and its existence position at a glance by monitoring the map displayed on one monitor and the moving object on the map (see, for example, Patent Document 2). ).
Japanese Patent Laid-Open No. 2001-94968 (page 16, FIG. 6) JP 2000-295599 A (page 8, FIG. 5)

しかしながら、特許文献1に記載された従来の広域監視装置では、死角に入ったか否かの判定方法が、死角に入った移動物体がどの物体なのかを特定する方法が明記されていない。そのため、不特定多数の人物が存在したり、照明条件の変化等が起きた場合には、多数の人物中のどの人物が死角に入ったのか、また、実際には死角に入っていないにも関わらず、誤って死角に入ったと判定する可能性があった。   However, in the conventional wide area monitoring device described in Patent Document 1, the method for determining whether the moving object has entered the blind spot is not specified as the method for determining whether the blind spot has been entered. Therefore, if there are a large number of unspecified persons or if the lighting conditions change, etc., which person in the large number of persons has entered the blind spot, and is not actually in the blind spot. Regardless, there was a possibility that it was determined that the blind spot was accidentally entered.

また、特許文献2に記載された従来の監視装置では、監視区域が広く移動物体の数が多
い場合、監視区域全体の地図と全移動体とを同時に表示すると画面が煩雑になり、分かり難くなるという問題があり、そのため、監視区域を小規模に区切って複数のモニタを用意する等の対策が必要になり、監視員の増員、もしくは、監視員の負担が増加するという問題があった。
Further, in the conventional monitoring device described in Patent Document 2, when the monitoring area is wide and the number of moving objects is large, if the map of the entire monitoring area and all the moving objects are displayed simultaneously, the screen becomes complicated and difficult to understand. Therefore, it is necessary to take measures such as preparing a plurality of monitors by dividing the monitoring area into small scales, and there is a problem that the number of observers increases or the burden on the observers increases.

本発明は、上記のような従来の問題点に鑑みてなされたものであり、不特定多数の移動物体が存在する監視領域において、移動体に関するさまざまな情報および監視員のオペレーションから総合的に状況を判断し、その状況に応じて表示する情報を適宜、選択切り替え、監視員の監視効率の向上とミスの削減を可能にする広域監視装置を提供することを目的とするものである。   The present invention has been made in view of the conventional problems as described above. In a monitoring area where an unspecified number of moving objects are present, the present invention is comprehensively considered based on various information related to moving objects and operations of monitoring personnel. It is an object of the present invention to provide a wide-area monitoring apparatus that makes it possible to appropriately select and switch information to be displayed in accordance with the situation, improve the monitoring efficiency of monitoring personnel, and reduce errors.

本発明の広域監視装置は、画像に含まれる追跡対象物体に関し、得られた情報を用いて、状況を判断する状況判断手段と、状況判断手段の判断に基づいて必要な情報を切り替える表示切替手段と、必要な情報を表示するモニタとを有する。   The wide area monitoring apparatus of the present invention relates to a tracking target object included in an image, using the obtained information, situation determination means for judging the situation, and display switching means for switching necessary information based on the judgment of the situation judgment means And a monitor for displaying necessary information.

この構成により、状況に応じて監視員に必要な情報を選択的に表示することができ、監視効率の向上および監視ミスの減少を可能にすることができる。   With this configuration, it is possible to selectively display information necessary for the monitor according to the situation, and it is possible to improve monitoring efficiency and reduce monitoring errors.

また、本発明の広域監視装置は、得られた情報が、外部からの通報に含まれる情報又は、追跡対象物体と予め蓄積された画像とを照合した信頼度情報である。   In the wide area monitoring apparatus according to the present invention, the obtained information is information included in a report from the outside or reliability information obtained by collating a tracking target object with a previously accumulated image.

この構成により、緊急事態の通報を含め、照合された追跡対象物体を状況に応じて監視員に必要な情報を選択的に表示することができ、監視効率の向上および監視ミスの減少を可能にすることができる。   With this configuration, it is possible to selectively display necessary information to the monitoring staff according to the situation, including the notification of an emergency situation, and it is possible to improve monitoring efficiency and reduce monitoring errors can do.

また、本発明の広域監視装置は、表示切替手段が、外部からの通報が入力された場合に、外部からの通報に含まれる情報と予め蓄積された情報とが合成された情報に切り替えるものである。   In the wide area monitoring device of the present invention, the display switching means switches the information included in the external notification to the information synthesized in advance when the external notification is input. is there.

この構成により、外部からの通報に含まれる情報を用いて、状況に応じて監視員に必要な情報を選択的に表示することができ、監視効率の向上および監視ミスの減少を可能にする。   With this configuration, it is possible to selectively display information necessary for the monitor according to the situation using information included in the notification from the outside, and it is possible to improve monitoring efficiency and reduce monitoring errors.

また、本発明の広域監視装置は、表示切替手段で、信頼度情報が、予め定めた値以上である場合に、ユーザに確認を求める情報に切り替えるものである。   Moreover, the wide area monitoring apparatus of this invention is a display switching means, and switches to the information which asks a user confirmation, when reliability information is more than a predetermined value.

この構成により、照合による信頼度をユーザが確認することができるため、監視効率の向上および監視ミスの減少を可能にする。   With this configuration, since the user can confirm the reliability by the verification, it is possible to improve monitoring efficiency and reduce monitoring errors.

また、本発明の広域監視装置は、表示切替手段で、信頼度情報が、予め定めた値以上であり、ユーザが承認した場合に、必要な情報を切り替えるものである。   Further, the wide area monitoring apparatus of the present invention is a display switching means for switching necessary information when the reliability information is not less than a predetermined value and the user approves.

この構成により、ユーザによる確認が可能であるため、監視効率の向上および監視ミスの減少を可能とする。   With this configuration, confirmation by the user is possible, so that monitoring efficiency can be improved and monitoring errors can be reduced.

また、本発明の広域監視装置は、表示切替手段で、ユーザにより承認された追跡対象物体と予め蓄積した画像とを照合した信頼度情報が、予め定めた値未満となる場合に、必要な情報を切り替えるものである。   Further, the wide area monitoring device of the present invention provides the necessary information when the reliability information obtained by comparing the tracking target object approved by the user with the image stored in advance is less than a predetermined value by the display switching unit. Is to switch.

この構成により、追跡対象物体を再度検出するために必要な情報を選択することができ、監視員に監視に必要な情報を選択的に表示でき、監視員のオペレーションを補助し、監視効率の向上および監視ミスの減少を可能とする。   With this configuration, it is possible to select information necessary to detect the tracking target object again, selectively display information necessary for monitoring to the monitoring staff, assist the monitoring staff, and improve monitoring efficiency. And monitoring errors can be reduced.

また、本発明の広域監視装置は、必要な情報に、地図情報、画像情報を含み、地図情報に、ユーザにより承認された追跡対象物体と予め蓄積した画像とを照合した信頼度情報が、予め定めた値未満となる位置付近の交通状況、交通手段を考慮した逃避予測経路が表示されるものである。   Further, the wide area monitoring apparatus of the present invention includes map information and image information as necessary information, and reliability information obtained by comparing a tracking target object approved by a user with a previously accumulated image is included in the map information in advance. An escape prediction route is displayed in consideration of traffic conditions and transportation means in the vicinity of a position that is less than a predetermined value.

この構成により、ロスト後、追跡対象の移動が予測される場所を、詳しく表示することができ、監視員のオペレーションを補助し、監視ミスの減少を可能とする。   With this configuration, it is possible to display in detail the place where the movement of the tracking target is predicted after the loss, assisting the operation of the observer, and reducing monitoring errors.

また、本発明の広域監視装置は、地図情報に、ユーザにより承認された追跡対象物体と予め蓄積した画像とを照合した信頼度情報が、予め定めた値未満となる経過時間に応じて縮尺および逃避予測経路を変更して表示するものである。   Further, the wide area monitoring device of the present invention is configured such that the reliability information obtained by comparing the tracking target object approved by the user with the image accumulated in advance in the map information is reduced in scale according to the elapsed time when it is less than a predetermined value. The escape prediction route is changed and displayed.

この構成により、追跡対象物をロストしてから経過した時間をもとに、移動可能性領域を広げ、それに従い地図の縮尺や逃避予測経路を変更することができ、監視員のオペレーションを補助し、監視ミスの減少を可能とする。   With this configuration, based on the time elapsed since the tracking object was lost, the mobility area can be expanded, and the map scale and escape prediction route can be changed accordingly. This makes it possible to reduce monitoring errors.

また、本発明の広域監視装置は、表示切替手段で、追跡対象物体と予め蓄積した画像とを照合した信頼度情報に応じて、追跡対象物体の画像を複数枚表示する情報に切り替える。   In the wide area monitoring device of the present invention, the display switching means switches to information for displaying a plurality of images of the tracking target object in accordance with the reliability information obtained by comparing the tracking target object with the previously stored image.

この構成により、データベースとの照合を行う場合に、システムが行った照合処理の信頼度情報に基づいて、表示する画像の枚数を変化させることができ、装置の照合ミスを防ぐことができ、さらに、監視員にデータベース登録画像と同一人物であるかどうかを監視員に確認することによって、監視ミスの減少を可能とする。   With this configuration, when collating with the database, the number of images to be displayed can be changed based on the reliability information of the collation processing performed by the system, and an apparatus collation error can be prevented. The monitoring error can be reduced by checking with the monitoring person whether or not it is the same person as the database registration image.

本発明の広域監視装置は、少なくとも1台のカメラにより映像を撮像する手段と、撮像手段で撮影した画像から移動物体を検出、追跡し、検出した対象物体とあらかじめ登録したデータベースとの照合を行い、さらに、対象物体の存在位置を、地図情報を用いて対応付けを行い、追跡対象物体に関する情報などを含めた複数の情報から状況を判断する状況判断手段を有し、状況判断結果に基づいて必要な情報を選択的に表示する手段を備えたものであり、状況に応じて監視員に必要な情報を選択的に表示することができ、監視効率の向上および監視ミスの減少を可能にすることができる。   The wide area monitoring apparatus according to the present invention detects and tracks a moving object from an image captured by at least one camera and an image captured by the imaging unit, and compares the detected target object with a pre-registered database. In addition, there is a situation determination means for associating the location of the target object using map information and determining the situation from a plurality of information including information on the tracking target object. It is equipped with a means to selectively display necessary information, and it can selectively display necessary information to the monitor according to the situation, enabling improvement of monitoring efficiency and reduction of monitoring errors. be able to.

以下、本発明の実施の形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に関わる広域監視装置の概略構成図である。
(Embodiment 1)
FIG. 1 is a schematic configuration diagram of a wide area monitoring apparatus according to Embodiment 1 of the present invention.

本実施の形態に係る広域監視装置では、ビルや工場の構内、或いは、街頭のような広い領域を監視領域とするために、複数の地点にそれぞれのカメラを設置し、その領域内に存在する人物などの動く物体を検出し、追跡監視するように構成されている。   In the wide area monitoring apparatus according to the present embodiment, in order to set a wide area such as a building or factory premises or a street as a monitoring area, respective cameras are installed at a plurality of points and exist in the area. A moving object such as a person is detected and tracked and monitored.

図1において、カメラ10−1〜nは、広域を監視するために、様々な地点に設置され、カメラ10−1〜nは、それぞれ設置された位置情報を保持している。各カメラ10−
1〜nで撮像された映像及びカメラ10−1〜nの位置情報は、ネットワーク11を介して映像処理部12及び位置検出部13に送信される。この時、カメラ10−1〜n毎に、それぞれサーバーを設けてもよいが、複数台のカメラ10−1〜nをまとめて1台のサーバーで制御するようにしてもよい。
In FIG. 1, cameras 10-1 to 10-n are installed at various points in order to monitor a wide area, and the cameras 10-1 to 10-n each hold position information installed. Each camera 10-
The images captured by 1 to n and the position information of the cameras 10-1 to 10-n are transmitted to the image processing unit 12 and the position detection unit 13 via the network 11. At this time, a server may be provided for each of the cameras 10-1 to 10-n, but a plurality of cameras 10-1 to 10-n may be collectively controlled by one server.

映像処理部12では、送信された画像に対して背景差分若しくはフレーム間差分を行い、人物及び車両等の動いている物体が存在する領域を限定する。そこで限定された領域に対して、M.Oren,C.Papageorgiou,P.Sinha,E.Osuna and T.Poggio,“Pedestrian Detection using Wavelet Templates”,Proc.of CVPR97,pp.193−199,1997(参考文献3)等の人物検出手法を用いて移動物体の検出を行う。その後、前記人物検出結果をもとに、顔領域の検出、切りだしを行う。   The video processing unit 12 performs background difference or inter-frame difference on the transmitted image, and limits an area where moving objects such as a person and a vehicle exist. Therefore, for a limited area, M.I. Oren, C.I. Pageagegiou, P.A. Sinha, E .; Osuna and T. Poggio, “Pedestrian Detection using Wavelet Templates”, Proc. of CVPR97, pp. A moving object is detected using a person detection method such as 193-199, 1997 (reference document 3). Thereafter, the face area is detected and cut out based on the person detection result.

また、位置検出部13では、カメラ10−1〜nから送信された位置情報をもとに、映像処理部12で切り出された顔画像および人物画像に対してそれぞれ位置情報を付与する。   Further, the position detection unit 13 assigns position information to the face image and the person image cut out by the video processing unit 12 based on the position information transmitted from the cameras 10-1 to 10-n.

これら映像処理部12と位置検出部13とで処理された情報は、移動物体検出追跡部14に送信される。   Information processed by the video processing unit 12 and the position detection unit 13 is transmitted to the moving object detection tracking unit 14.

移動物体検出追跡部14では、映像処理部12と位置検出部13とで得られた情報及び地図データ部15の地図データから、同一人物に対してインデックスを付与する。同一人物の判断は、C.Wren,A.Azerbayejani,T.Darrel,A.Pentland,“Pfinder:Real Time Tracking of Human Body”IEEE Trans.PAMI,Vol.19,NO.7,July,1997等のトラッキング手法を用いて、映像処理部12で検出したすべての移動物体に対して、服装のテクスチャや色の特徴量を用いてそれぞれ追跡を行い、追跡を行いながら、検出した顔画像を逐次マッチングすることによって総合的に行う。   The moving object detection and tracking unit 14 assigns an index to the same person from the information obtained by the video processing unit 12 and the position detection unit 13 and the map data of the map data unit 15. The judgment of the same person is C.I. Wren, A.M. Azerbayejani, T.A. Darrel, A.M. Pentland, “Pfinder: Real Time Tracking of Human Body” IEEE Trans. PAMI, Vol. 19, NO. Using tracking methods such as 7, July, 1997, etc., all moving objects detected by the video processing unit 12 are tracked using the texture and color feature values of the clothing, and detected while tracking. Comprehensively performed by sequentially matching the face images.

ただし、これは追跡を行うための特徴量や追跡方法を限定するものではない。この時、撮影されたカメラ10−1〜nの位置情報と時間との関係を用いて判断することにより、短い時間内に距離的に近い人物同士をマッチングすることができるため、追跡ミスを減少させることが可能になる。   However, this does not limit the feature amount or tracking method for tracking. At this time, it is possible to match persons who are close to each other in a short time by using the relationship between the positional information of the captured cameras 10-1 to 10-n and time, thereby reducing tracking errors. It becomes possible to make it.

次に、状況判断部17について、図2を用いて説明する。   Next, the situation determination unit 17 will be described with reference to FIG.

状況判断部17は、ロスト判断部171と、ルート探索部172と、データベース処理部173と、通報処理部174と、属性処理部175とを備えている。   The situation determination unit 17 includes a lost determination unit 171, a route search unit 172, a database processing unit 173, a notification processing unit 174, and an attribute processing unit 175.

ロスト判断部171は、移動物体検出追跡部14で移動物体を自動追跡している間は常に動作し、追跡対象の物体を見失ったことを判断するものであり、移動物体が人物の場合には、そのロスト判断を、服装のテクスチャや色などを用いた追跡ができなくなった場合、顔画像のマッチングがとれなくなった場合に行う。   The lost determination unit 171 always operates while the moving object detection tracking unit 14 automatically tracks the moving object, and determines that the object to be tracked has been lost. When the moving object is a person, The lost determination is performed when tracking using the texture or color of clothes becomes impossible, or when matching of face images cannot be performed.

なお、本実施の形態においては、過去Nフレーム分の追跡対象に関するテクスチャや色などの特徴量と現フレームにおける追跡対象のテクスチャや色などの特徴量とを比較することによって、類似度が過去Nフレームすべてにおいて、閾値以下であれば追跡失敗と判断する。   In the present embodiment, the degree of similarity is determined by comparing the feature amount such as texture and color related to the tracking target for the past N frames with the feature amount such as texture and color of the tracking target in the current frame. If all frames are below the threshold, it is determined that tracking has failed.

また、顔画像のマッチングに関しても、過去Nフレーム分の追跡対象の顔画像と現フレ
ームにおける追跡対象の顔画像とをそれぞれマッチングした類似度の計算を行い、追跡結果と顔画像のマッチング結果とから総合的にロスト判断を行う。
Also, with regard to face image matching, a similarity is calculated by matching the face image to be tracked for the past N frames with the face image to be tracked in the current frame, and based on the tracking result and the face image matching result. Comprehensive lost judgment.

例えば、追跡結果と顔画像マッチング結果とをそれぞれ重み付けし、閾値を決定することなどによって、ロスト判断を行うことが可能である。また、追跡結果でロストと判断した場合に、補助的に顔画像マッチング結果を用いることも可能である。   For example, it is possible to make the lost determination by weighting the tracking result and the face image matching result and determining a threshold value. In addition, when it is determined that the tracking result is lost, the face image matching result can be used as an auxiliary.

ところで、このようなロスト判断を行う場合には、一時的な遮蔽を許容するために、フレームごとに判断処理しないで、複数のフレーム画像から総合的に判断するようにしている。   By the way, when such a lost determination is performed, in order to allow temporary occlusion, a determination process is made comprehensively from a plurality of frame images without performing a determination process for each frame.

ここで、ロスト判定部171が、追跡対象の物体をロストしたことを判断した場合には、ルート探索部172において、地図データ部15の地図データをもとに追跡対象物体の移動可能ルートを自動的に探索し、探索結果を表示切替部18に出力する。追跡対象物体が人物である場合には、最寄りの駅を含めた移動可能ルートを探索する。この時、ロスト判断を行った時間から人物の移動速度を適宜平均的な移動速度、例えば、時速10kmと仮定して探索を行う。検索ルートは、表示切替部18及び移動物体検出追跡部14に出力され、移動物体検出追跡部14は、検索ルートに基づき再度インデックスを付与する。   If the lost determination unit 171 determines that the object to be tracked has been lost, the route search unit 172 automatically determines the movable route of the tracked object based on the map data in the map data unit 15. The search result is output to the display switching unit 18. When the tracking target object is a person, a movable route including the nearest station is searched. At this time, the search is performed on the assumption that the moving speed of the person is an average moving speed, for example, 10 km / h from the time when the lost determination is performed. The search route is output to the display switching unit 18 and the moving object detection / tracking unit 14, and the moving object detection / tracking unit 14 assigns an index again based on the search route.

次に、データベース処理部173は、移動物体追跡検出部14で顔画像を検出した場合に動作するものであり、あらかじめデータベース16に登録した人物の顔画像と監視中に検出された人物の顔画像とのマッチングを行うものであり、照合結果が閾値以上であれば、データベース16と照合したと判断するように構成されている。   Next, the database processing unit 173 operates when a face image is detected by the moving object tracking detection unit 14, and the face image of the person registered in the database 16 in advance and the face image of the person detected during monitoring. If the collation result is equal to or greater than the threshold, it is determined that the database 16 has been collated.

次に、通報処理部174は、事件等の緊急事態が発生し、ネットワーク21を介して緊急事態発生などの通報を受けた場合に、通報内容を、表示切替部18、データベース16及び移動物体検出追跡部14に出力する。   Next, when an emergency such as an incident occurs and the notification processing unit 174 receives a notification such as the occurrence of an emergency via the network 21, the notification processing unit 174 displays the notification contents, the display switching unit 18, the database 16, and the moving object detection. Output to the tracking unit 14.

属性処理部175は、追跡対象物体が、例えば人物であれば、人物の身長、体重、名前、服装、その他特徴等の追跡対象物体情報を受け付けるものであり、それぞれの追跡対象物体情報は、データベース16にあらかじめ登録をしてある場合は、その登録された情報を受け付け、登録をなされていない場合は、I/F部20を介してそれぞれオペレータが入力した情報を受け付けることも可能である。   If the tracking target object is, for example, a person, the attribute processing unit 175 receives tracking target object information such as a person's height, weight, name, clothes, and other characteristics. Each tracking target object information is stored in a database. If the information is registered in advance, the registered information can be received. If the information is not registered, information input by the operator via the I / F unit 20 can be received.

次に、移動物体の監視の動作を、図3を用いて説明する。   Next, the operation of monitoring a moving object will be described with reference to FIG.

なお、ここでは、事前に4種類の表示モードを用意し、その表示モードにおいて動作する場合について説明するが、表示モードは、必ずしも4種類である必要はなく、他の情報を表示する表示モードを設けてもよいことは言うまでもないことである。   Here, a case where four types of display modes are prepared in advance and the operation is performed in the display mode will be described. However, the display modes are not necessarily four types, and display modes for displaying other information are provided. Needless to say, it may be provided.

4種類の表示モードは、通報モード(モード1)、照合モード(モード2)、事件モード(モード3)、ロストモード(モード4)からなり、モード1の通報モードは、外部から追跡対象者についての通報があった場合に、通報内容を表示するモードであり、モード2の照合モードは、追跡対象者を発見した場合に、オペレータが正確な追跡対象者判定を行うことを支援するモードであり、モード3の事件モードは、事件発生時にオペレータが追跡対象者を迅速に追跡、発見することを支援するモードであり、モード4のロストモードは、追跡対象者をロストした場合に、オペレータにロストした対象の検出および追跡を行えるように操作を求めるモードである。   The four display modes consist of a notification mode (mode 1), a verification mode (mode 2), an incident mode (mode 3), and a lost mode (mode 4). Is a mode that displays the content of the notification when there is a report, and the mode 2 verification mode is a mode that assists the operator in making an accurate tracking target determination when a tracking target person is found. The incident mode of mode 3 is a mode that assists the operator to quickly track and find the tracking target when the incident occurs, and the lost mode of mode 4 is lost to the operator when the tracking target is lost. In this mode, an operation is requested so that the detected object can be detected and tracked.

まず、S301にて、状況判断部17が、ネットワーク21を介して追跡対象者を発見
したとの通報を受けた場合は、S302に移行し、通報を受けない場合は、S312に移行する。
First, in S301, when the status determination unit 17 receives a report that the tracking target person has been found via the network 21, the process proceeds to S302, and when the report is not received, the process proceeds to S312.

次に、S302にて、表示切替部18が、モニタ19に通報モードを表示させる。   Next, in S302, the display switching unit 18 causes the monitor 19 to display the notification mode.

次に、S303にて、通報処理部174が、通報情報42をデータベース16に追加する。   Next, in S <b> 303, the notification processing unit 174 adds the notification information 42 to the database 16.

次に、S304にて、移動物体検出追跡部14が、通報情報42に基づき、追跡対象者を検出する。   Next, in S <b> 304, the moving object detection tracking unit 14 detects a tracking target person based on the notification information 42.

次に、S305にて、データベース処理部173が、検出画像52とデータベース画像とを照合し、一致する場合は、S306に移行し、一致しない場合は、S304に移行する。   Next, in S305, the database processing unit 173 compares the detected image 52 with the database image. If they match, the process proceeds to S306, and if they do not match, the process proceeds to S304.

次に、S306にて、表示切替部18が、モニタ19に照合モードを表示する。   Next, in S306, the display switching unit 18 displays the collation mode on the monitor 19.

次に、S307にて、監視者が、検出画像52を確認し、I/F部20より確認結果を入力し、検出画像52と追跡対象者とが一致する場合は、S308に移行し、検出画像52と追跡対象者とが一致しない場合は、S304に移行する。   Next, in S307, the supervisor confirms the detection image 52 and inputs a confirmation result from the I / F unit 20. If the detection image 52 and the tracking target person match, the process proceeds to S308, where the detection is performed. If the image 52 and the tracking target person do not match, the process proceeds to S304.

次に、S308にて、表示切替部18が、モニタ19に事件モードを表示する。   Next, in S <b> 308, the display switching unit 18 displays the incident mode on the monitor 19.

次に、S309にて、状況判断部17が、追跡対象者をロストした場合は、S310に移行し、追跡中は、S309に移行する。   Next, in S309, when the situation determination unit 17 has lost the tracking target person, the process proceeds to S310, and during tracking, the process proceeds to S309.

次に、S310にて、表示切替部18が、モニタ19にロストモードを表示する。   Next, in S310, the display switching unit 18 displays the lost mode on the monitor 19.

次に、S311にて、移動物体検出追跡部14が、探索ルートを考慮して追跡対象者を検出し、追跡し、S304に移行する。   Next, in S311, the moving object detection tracking unit 14 detects and tracks the tracking target person in consideration of the search route, and proceeds to S304.

次に、通報を受けない場合において、S312にて、移動物体検出追跡部14が、追跡対象者の検出を行い、追跡対象者を検出した場合は、S313に移行し、検出しない場合は、S301に移行する。   Next, in a case where the notification is not received, in S312, the moving object detection and tracking unit 14 detects the tracking target person, and when the tracking target person is detected, the process proceeds to S313. Migrate to

次に、S313にて、データベース処理部173が、検出画像52とデータベース画像とを照合し、一致する場合は、S314に移行し、一致しない場合は、S301に移行する。   Next, in S313, the database processing unit 173 collates the detected image 52 with the database image. If they match, the process proceeds to S314, and if they do not match, the process proceeds to S301.

次に、S314にて、表示切替部18が、モニタ19に照合モードを表示する。   Next, in S314, the display switching unit 18 displays the collation mode on the monitor 19.

次に、S315にて、監視者が、検出画像52を確認し、I/F部20より確認結果を入力し、検出画像52と追跡対象者とが一致する場合は、S316に移行し、検出画像52と追跡対象者とが一致しない場合は、S301に移行する。   Next, in S315, the supervisor confirms the detection image 52, inputs the confirmation result from the I / F unit 20, and if the detection image 52 and the tracking target person match, the process proceeds to S316, and the detection is performed. If the image 52 and the tracking target person do not match, the process proceeds to S301.

次に、S316にて、表示切替部18が、モニタ19に事件モードを表示する。   Next, in S316, the display switching unit 18 displays the incident mode on the monitor 19.

次に、S317にて、状況判断部17が、追跡対象者をロストした場合は、S318に移行し、追跡中は、S301に移行する。   Next, in S317, when the situation determination unit 17 has lost the tracking target person, the process proceeds to S318, and during tracking, the process proceeds to S301.

次に、S318にて、表示切替部18が、モニタ19にロストモードを表示する。   Next, in S318, the display switching unit 18 displays the lost mode on the monitor 19.

次に、S319にて、移動物体検出追跡部14が、探索ルートを考慮して追跡対象者を検出し、追跡し、S301に移行する。   Next, in S319, the moving object detection tracking unit 14 detects and tracks the tracking target person in consideration of the search route, and proceeds to S301.

以上が、移動物体の監視の動作フローである。   The above is an operation flow for monitoring a moving object.

なお、状況判断部17のデータベース処理部173が、検出画像52とデータベース16に蓄積されている画像とのマッチングは、マッチング結果が予め定めた閾値以上であれば、照合したと判断するものである。   The database processing unit 173 of the situation determination unit 17 determines that the matching between the detected image 52 and the image stored in the database 16 is a collation if the matching result is equal to or greater than a predetermined threshold. .

ここで、図4に通報モード(モード1)の表示を示す。通報内容として、撮影された画像と追跡対象者の特徴を示す情報と存在位置が通報された場合は、通報画像41、通報情報42、存在位置を示す通報位置地図43を表示し、監視員に、追跡対象者の存在を示す。ここでは、通報位置地図43上に、星型のアイコンを用いて追跡対象者の位置を示した。   Here, the display of the notification mode (mode 1) is shown in FIG. When the captured image, the information indicating the characteristics of the person to be tracked, and the presence position are notified as the notification content, the notification image 41, the notification information 42, and the notification position map 43 indicating the presence position are displayed and displayed to the monitor. , Indicate the presence of the person being tracked. Here, the position of the tracking target person is indicated on the notification position map 43 using a star-shaped icon.

また、照合モード(モード2)では、図5に示すように、データベース16に登録された追跡対象者画像51と実際に検出した複数の検出画像52とを同時に表示する。   Further, in the collation mode (mode 2), as shown in FIG. 5, the tracking target person image 51 registered in the database 16 and a plurality of actually detected detection images 52 are simultaneously displayed.

また、データベース16に予め追跡対象者の身長や体重などの追跡対象者情報53が登録されている場合は、同時にその追跡対象者情報53を表示することも可能である。   Further, when tracking target person information 53 such as the height and weight of the tracking target person is registered in the database 16 in advance, the tracking target person information 53 can be displayed at the same time.

さらに、実際に検出画像52の枚数を、データベース処理部173で照合した結果の信頼度に基づいて変化させることも可能である。信頼度は、例えば、検出画像52とデータベース16に登録された追跡対象者画像との類似度を用いることができる。これにより信頼度が低い場合には、より多くの検出画像52を表示することが可能であり、監視員が、照合結果が妥当であるかどうかを判断する。   Furthermore, it is possible to actually change the number of detected images 52 based on the reliability of the result of collation by the database processing unit 173. As the reliability, for example, the similarity between the detected image 52 and the tracking target person image registered in the database 16 can be used. Accordingly, when the reliability is low, it is possible to display more detection images 52, and the monitoring person determines whether or not the collation result is valid.

ここで、誤認識を防ぐ目的で、監視員が、複数の検出画像52とデータベース16の追跡対象者画像51とが一致するかどうかを確認ボタン54のYES/NOで判断する形式とし、確認ボタン54のNOを選択した場合には、I/F部20より移動物体検出追跡部14に検出、追跡を続行するための信号が出力され、再度、確認ボタン54のYESが選択されるか、もしくは、追跡対象者の追跡が行える限り検出画像を表示していく。   Here, for the purpose of preventing misrecognition, the monitor uses the confirmation button 54 to determine whether or not the plurality of detected images 52 and the tracking target person image 51 in the database 16 coincide with each other. When NO of 54 is selected, a signal for continuing detection and tracking is output from the I / F unit 20 to the moving object detection tracking unit 14, and YES of the confirmation button 54 is selected again, or The detection image is displayed as long as the tracking target person can be tracked.

また、確認ボタン54のYESを選択した場合には、追跡対象者であると判断し、その旨がI/F部20より属性処理部175に出力され、事件発生と認識し、事件モード(モード3)の処理を行う。   If YES is selected on the confirmation button 54, it is determined that the person is a tracking target, and the fact is output from the I / F unit 20 to the attribute processing unit 175 to recognize that an incident has occurred, and the incident mode (mode) Process 3) is performed.

なお、通報処理部174が、ネットワーク21から緊急事態発生の通報を受けた場合に、そのモード3の事件モードとなることも可能である。   Note that when the notification processing unit 174 receives a notification of occurrence of an emergency from the network 21, the incident mode of mode 3 can be set.

また、事件発生の場合は、事件が発生した場所が重要な問題になるため、事件モード(モード3)では、図6に示すように、事件が発生した場所付近の追跡位置地図61と住所を表示し、その地図上に追跡対象者の位置を示すアイコンを表示する。そして、同時に追跡時に撮影した追跡中カメラ画像63から代表的な画像62を選択して表示する。この代表的な画像62の選択は、監視員が行ってもよいし、データベース処理部173で照合した照合結果の信頼度が高い画像を自動的に選択してもよい。   In the case of an incident, the place where the incident occurred becomes an important issue. Therefore, in the incident mode (mode 3), as shown in FIG. 6, a tracking position map 61 and an address near the place where the incident occurred are displayed. And an icon indicating the position of the tracking target person is displayed on the map. At the same time, a representative image 62 is selected from the tracking camera images 63 taken during tracking and displayed. The representative image 62 may be selected by a monitor, or an image with high reliability of the collation result collated by the database processing unit 173 may be automatically selected.

また、属性処理部175が保持する身長や体重などの追跡対象者情報64も表示するこ
とも可能である。また、追跡位置地図61には、追跡対象の移動軌跡を表示することも可能である。ここでは、点線で示した。
It is also possible to display tracking target person information 64 such as height and weight held by the attribute processing unit 175. The tracking position map 61 can also display a movement locus of the tracking target. Here, it is indicated by a dotted line.

なお、追跡処理は自動的に行われ、より信頼度の高い画像が検出できた場合には、代表的な画像62を自動的に更新することも可能である。これにより、監視員は、警備員を配置するためのオペレーションを容易に行うことができる。また、監視員は、地図上のアイコンをクリックすることによって、その付近を撮影する追跡中カメラ画像63を表示し、更に、追跡中のカメラ10−1〜nを選択することもできる。これは、位置検出部13と地図データ部15との対応関係を持っているために、位置検出部13の情報からカメラ10−1〜nの選択が可能である。   Note that the tracking process is automatically performed, and the representative image 62 can be automatically updated when an image with higher reliability is detected. Thereby, the monitor can easily perform the operation for arranging the guard. In addition, by clicking on an icon on the map, the monitor can display the tracking camera image 63 that captures the vicinity, and can further select the cameras 10-1 to 10-n being tracked. Since this has a correspondence relationship between the position detection unit 13 and the map data unit 15, the cameras 10-1 to 10-n can be selected from the information of the position detection unit 13.

次に、ロストモードの表示について、図7を用いて説明する。   Next, the display of the lost mode will be described with reference to FIG.

ロストモードは、一時的な遮蔽等によるロストを許容するために複数枚の画像からロスト判断され、表示切替部18が、モード4のロストモードの表示を行う。   The lost mode is determined to be lost from a plurality of images in order to allow the lost due to temporary occlusion or the like, and the display switching unit 18 displays the mode 4 lost mode.

ロストモードの表示は、ロストした付近のビルや家屋等の情報も含めたロスト位置地図71を表示すると同時に、ロストした時点からの経過時間をもとに逃避可能ルートを探索し、ロスト位置地図71上に表示する。ここでは、点線矢印で逃避可能ルートを示す。   The display of the lost mode displays the lost position map 71 including information on buildings and houses in the vicinity of the lost area, and at the same time searches for an escapeable route based on the elapsed time from the time of the lost, and the lost position map 71 Display above. Here, the escapeable route is indicated by a dotted arrow.

また、ロスト位置地図71の縮尺は経過時間と逃避可能ルートをもとに決定するため、ロスト後、時間が経過するほど広域を表示することになる。また、ロスト付近のカメラ画像73とロストした追跡対象者情報74および追跡時に撮影した代表的な画像72を同時に表示することによって、監視員がロストした対象を発見するように、追跡対象者をロストした付近の捜索員に、的確な指示を出すことが可能となる。この時、最寄りに駅があればそれもあわせて表示する。   Further, since the scale of the lost position map 71 is determined based on the elapsed time and the escapeable route, the wide area is displayed as time passes after the lost. In addition, by simultaneously displaying the camera image 73 near the lost, the tracked person information 74 that has been lost, and the representative image 72 that was taken at the time of tracking, the person to be tracked is lost so as to find the object that the monitor has lost. It is possible to give accurate instructions to searchers nearby. At this time, if there is a nearby station, it is also displayed.

また、自動追跡中の人物が監視区域外に出た場合も同様に、過去Nフレーム分の追跡対象に関するテクスチャや色などの特徴量と現フレームにおける追跡対象のテクスチャや色などの特徴量との類似度が下がるために、ロスト判断部171においてロストしたと判断する。この時も同様にロストモードの表示を行うが、加えて、地図データ部15のデータを用いて、最寄りの監視区域を探索して色分けして表示する。   Similarly, when a person who is being tracked automatically goes out of the monitoring area, the feature amount such as texture or color related to the track target for the past N frames and the feature amount such as texture or color of the track target in the current frame Since the degree of similarity is lowered, the lost determination unit 171 determines that it has been lost. At this time, the lost mode is displayed in the same manner. In addition, the nearest monitoring area is searched using the data of the map data unit 15 and displayed in different colors.

また、監視区域外から移動可能な監視区域を表示することによって、監視区域外に人員を配置するなどの処置を取るなどの監視員のオペレーションを補助し、監視ミスの減少を可能とする。   Also, by displaying a monitoring area that can be moved from outside the monitoring area, it assists the operation of the monitoring person such as placing a person outside the monitoring area, and reduces monitoring errors.

このように、追跡対象が人物の場合は、人物の顔画像や属性データおよび人物が存在する位置などの複数のデータを、緊急通報やロストなどの状況を状況判断部17で判断し、その判断結果に応じて必要な表示を選択し切り替えることによって、監視員の効率的かつ正確な監視を実現し、監視ミスを減少させることができる。また、警備員の配置などのオペレーション業務に対しても有効な情報を表示することができる。   As described above, when the tracking target is a person, the situation determination unit 17 determines a situation such as an emergency call or lost from a plurality of data such as a person's face image, attribute data, and a position where the person exists, and the determination. By selecting and switching the necessary display according to the result, it is possible to realize efficient and accurate monitoring of the monitor and reduce monitoring errors. Also, it is possible to display information that is effective for operations such as the placement of guards.

(実施の形態2)
図1は、実施の形態2に関わる広域監視システムの概略構成図である。
(Embodiment 2)
FIG. 1 is a schematic configuration diagram of a wide area monitoring system according to the second embodiment.

本実施の形態における広域監視装置は、街頭のような広い領域を監視領域とするために、複数の地点にカメラを設置し、その領域内に存在する車両を検出、追跡して監視するものである。   The wide area monitoring apparatus in the present embodiment is configured to install cameras at a plurality of points in order to set a wide area such as a street as a monitoring area, and detect, track and monitor vehicles existing in the area. is there.

図1において、カメラ10−1〜nは、広域を監視するためにさまざまな地点に設置され、各カメラ10−1〜nはそれぞれ設置された位置情報を保持している。各カメラ10−1〜nで撮像された映像およびカメラ10−1〜nの位置情報は、ネットワーク11を介して映像処理部12および位置検出部13に送信される。この時、カメラ10−1〜n毎にサーバーをもっておいても良いし、複数台のカメラ10−1〜nをまとめて1台のサーバーで制御してもよい。   In FIG. 1, cameras 10-1 to n are installed at various points in order to monitor a wide area, and each camera 10-1 to 10-n holds position information. The images captured by the cameras 10-1 to n and the position information of the cameras 10-1 to 10-n are transmitted to the image processing unit 12 and the position detection unit 13 via the network 11. At this time, a server may be provided for each of the cameras 10-1 to 10-n, or a plurality of cameras 10-1 to 10-n may be collectively controlled by one server.

映像処理部12では、送信された画像に対して背景差分若しくはフレーム間差分を行い、人物及び車両等の動いている物体が存在する領域を限定する。そこで限定された領域に対して、前述の参考文献3などの検出手法を用いるか、もしくは、複数の車両のテンプレートを予め用意し、そのテンプレートを用いてマッチングを行う。その後、ナンバー領域を検出し切りだしを行う。切り出されたナンバー領域はここで読み取られる。また、位置検出部13では、カメラ10−1〜nから送信された位置情報をもとに、映像処理部12で切り出した車両の画像及びナンバー情報に対して位置情報を付与する。これら映像処理部12と位置検出部13で処理された情報は、移動物体検出追跡部14に送信される。   The video processing unit 12 performs background difference or inter-frame difference on the transmitted image, and limits an area where moving objects such as a person and a vehicle exist. Therefore, a detection method such as Reference 3 described above is used for the limited region, or a plurality of vehicle templates are prepared in advance, and matching is performed using the templates. Thereafter, the number area is detected and cut out. The cut out number area is read here. Further, the position detection unit 13 adds position information to the vehicle image and number information cut out by the video processing unit 12 based on the position information transmitted from the cameras 10-1 to 10-n. Information processed by the video processing unit 12 and the position detection unit 13 is transmitted to the moving object detection tracking unit 14.

また、移動物体検出追跡部14では、映像処理部12と位置検出部13で得られた情報及び地図データ部15の地図データから、同一車両に対してインデックスを付与するものである。同一車両の判断は、ナンバー情報の読み取り結果を用いて行う。この時、撮影された位置情報と時間との関係も用いて判断することによって、距離的に近い車両同士をマッチングすることができ、追跡ミスを減少させることが可能である。また、検出した車両の色情報及び検出時に用いた車両テンプレートの種類を用いて追跡処理を行い、更に、オプティカルフローを用いて、追跡対象の移動方向を算出することによって、追跡ミスを減少させることも可能である。   The moving object detection and tracking unit 14 gives an index to the same vehicle from the information obtained by the video processing unit 12 and the position detection unit 13 and the map data of the map data unit 15. Judgment of the same vehicle is performed using the reading result of the number information. At this time, it is possible to match vehicles that are close to each other by using the relationship between the captured position information and time, and reduce tracking errors. Also, tracking errors are reduced by performing tracking processing using the color information of the detected vehicle and the type of vehicle template used at the time of detection, and further calculating the moving direction of the tracking target using the optical flow. Is also possible.

次に、状況判断部17について、図2を用いて説明する。   Next, the situation determination unit 17 will be described with reference to FIG.

状況判断部17は、ロスト判断部171と、ルート探索部172と、データベース処理部173と、通報処理部174と、属性処理部175とを備えている。   The situation determination unit 17 includes a lost determination unit 171, a route search unit 172, a database processing unit 173, a notification processing unit 174, and an attribute processing unit 175.

第1の実施の形態と同様に、ロスト判断部171およびデータベース処理部173は、移動物体追跡検出部14で対象を検出、追跡している時に動作し、追跡対象のロスト判断および検出したナンバープレートとデータベース16に保持したナンバープレートとの照合を行う。   Similar to the first embodiment, the lost determination unit 171 and the database processing unit 173 operate when the moving object tracking detection unit 14 detects and tracks the target, and the lost determination of the tracking target and the detected license plate are performed. And the license plate held in the database 16 are collated.

ロスト判断部171は、移動物体検出追跡部14で自動追跡中の追跡対象物体を見失ったことを判断するものであり、車両の場合におけるロスト判断は、基本的にナンバーの読み取り及びマッチングができなくなった場合に行う。   The lost determination unit 171 determines that the object to be tracked that is being automatically tracked by the moving object detection tracking unit 14 is lost, and the lost determination in the case of a vehicle basically cannot read and match the number. If you do.

これらのロスト判断は、一時的な遮蔽等によるロストを許容するために、フレーム毎に処理するものではなく、複数のフレーム画像から総合的に判断する。例えば、過去Nフレームにおいて、読み取ったナンバーと現在の読み取ったナンバーとを照合して、一度も照合できない場合にはロストしたと判断する。追跡対象をロストしたことを判断した場合、ルート探索部172において、地図データ部15の地図データをもとに追跡対象の移動可能ルートを探索する。追跡対象が車両である場合は、ロスト地点近傍の交通状況を考慮した移動可能ルートを探索する。この時、ロスト判断を行った時間に応じて探索範囲を広げていく。   These lost determinations are not processed for each frame but are comprehensively determined from a plurality of frame images in order to allow lost due to temporary occlusion or the like. For example, in the past N frames, the read number and the current read number are collated, and if collation cannot be performed, it is determined that the lost number has been lost. If it is determined that the tracking target has been lost, the route search unit 172 searches for a movable route of the tracking target based on the map data in the map data unit 15. When the tracking target is a vehicle, a movable route is searched in consideration of the traffic situation in the vicinity of the lost point. At this time, the search range is expanded according to the time when the lost determination is performed.

データベース処理部173は、移動物体検出部14でナンバープレートを検出した場合に動作するものであり、予めデータベース16に登録した車両のナンバーと監視中に画像
処理部で検出した車両のナンバーとのマッチングを行うものである。この時、照合結果が正しければ、データベース16と照合したと判断する。
The database processing unit 173 operates when the moving object detection unit 14 detects a license plate, and matches the vehicle number registered in the database 16 in advance with the vehicle number detected by the image processing unit during monitoring. Is to do. At this time, if the collation result is correct, it is determined that the database 16 has been collated.

通報処理部174は、事件等の緊急事態が発生した場合とオペレータが緊急事態と判断した場合に、I/F部20を介してオペレータの入力情報を受け付けるか、若しくはネットワーク21を介して通報を受け付けるものである。   The notification processing unit 174 accepts operator input information via the I / F unit 20 or reports via the network 21 when an emergency such as an incident occurs and when the operator determines an emergency. Accept.

属性処理部175は、追跡対象が車両である場合、車両のナンバー、車種、車の色等の追跡対象物体情報を受け付けるものであり、それぞれの追跡対象物体情報は、データベース16にあらかじめ登録してある場合はその情報を受け付け、登録がなされていない場合は、I/F部20を介してオペレータが入力する。   When the tracking target is a vehicle, the attribute processing unit 175 receives tracking target object information such as the vehicle number, the vehicle type, and the color of the vehicle. Each tracking target object information is registered in the database 16 in advance. If there is, the information is accepted, and if not registered, the operator inputs via the I / F unit 20.

次に、状況判断部17と表示切替部18について、その動作を詳しく説明する。   Next, operations of the situation determination unit 17 and the display switching unit 18 will be described in detail.

ここでは、事前に4種類の表示モードを用意した場合の状況判断部17の処理を、図8を用いて説明する。ただし、表示モードは4種類である必要はなく、他の情報を表示するための表示モードを用意しても構わない。   Here, the processing of the situation determination unit 17 when four types of display modes are prepared in advance will be described with reference to FIG. However, the display modes do not have to be four types, and display modes for displaying other information may be prepared.

4種類の表示モードは、通報モード(モード1)、照合モード(モード2)、事件モード(モード3)、ロストモード(モード4)からなり、モード1の通報モードは、外部から追跡対象者についての通報があった場合に、通報内容を表示するモードであり、モード2の照合モードは、追跡対象車両を発見した場合に、オペレータが正確な追跡対象車判定を行うことを支援するモードであり、モード3の事件モードは、事件発生時にオペレータが追跡対象車両を迅速に追跡、発見することを支援するモードであり、モード4のロストモードは、追跡対象車両をロストした場合に、オペレータにロストした対象の検出および追跡を行えるように操作を求めるモードである。   The four display modes consist of a notification mode (mode 1), a verification mode (mode 2), an incident mode (mode 3), and a lost mode (mode 4). Is a mode that displays the content of the notification when there is a notification, and the mode 2 verification mode is a mode that assists the operator in making an accurate tracking target vehicle determination when a tracking target vehicle is found. The incident mode of mode 3 is a mode for assisting the operator to quickly track and find the tracked vehicle when the incident occurs, and the lost mode of mode 4 is lost to the operator when the tracked vehicle is lost. In this mode, an operation is requested so that the detected object can be detected and tracked.

次に、移動物体の監視の動作フローを、図8を用いて説明する。   Next, an operation flow for monitoring a moving object will be described with reference to FIG.

まず、S801にて、状況判断部17が、ネットワーク21を介して追跡対象車両を発見したとの通報を受けた場合は、S802に移行し、通報を受けない場合は、S804に移行する。   First, in S801, when the situation determination unit 17 receives a report that the tracking target vehicle has been found via the network 21, the process proceeds to S802, and when the report is not received, the process proceeds to S804.

次に、S802にて、表示切替部18が、モニタ19に通報モードを表示させる。   Next, in S802, the display switching unit 18 causes the monitor 19 to display the notification mode.

次に、S803にて、通報処理部174が、通報情報92をデータベース16に追加する。   Next, in S <b> 803, the notification processing unit 174 adds the notification information 92 to the database 16.

次に、S804にて、移動物体検出追跡部14が、通報情報92に基づき、追跡対象車両を検出する。   Next, in S804, the moving object detection tracking unit 14 detects the tracking target vehicle based on the report information 92.

次に、S805にて、データベース処理部173が、検出画像1002とデータベース画像とを照合し、一致する場合は、S806に移行し、一致しない場合は、S804に移行する。   Next, in S805, the database processing unit 173 collates the detected image 1002 with the database image. If they match, the process proceeds to S806, and if they do not match, the process proceeds to S804.

次に、S806にて、表示切替部18が、モニタ19に照合モードを表示する。   Next, in S806, the display switching unit 18 displays the collation mode on the monitor 19.

次に、S807にて、監視者が、検出画像1002を確認し、I/F部20より確認結果を入力し、検出画像1002と追跡対象車両とが一致する場合は、S808に移行し、検出画像1002と追跡対象車両とが一致しない場合は、S804に移行する。   Next, in S807, the supervisor confirms the detection image 1002, inputs the confirmation result from the I / F unit 20, and if the detection image 1002 matches the tracking target vehicle, the process proceeds to S808, and the detection If the image 1002 and the tracking target vehicle do not match, the process proceeds to S804.

次に、S808にて、表示切替部18が、モニタ19に事件モードを表示する。   Next, in S808, the display switching unit 18 displays the incident mode on the monitor 19.

次に、S809にて、状況判断部17が、追跡対象車両をロストした場合は、S810に移行し、追跡中は、S809に移行する。   Next, in S809, when the situation determination unit 17 has lost the tracking target vehicle, the process proceeds to S810, and during tracking, the process proceeds to S809.

次に、S810にて、表示切替部18が、モニタ19にロストモードを表示する。   Next, in S810, the display switching unit 18 displays the lost mode on the monitor 19.

次に、S811にて、移動物体検出追跡部14が、探索ルートを考慮して追跡対象車両を検出し、追跡し、S804に移行する。   Next, in S811, the moving object detection tracking unit 14 detects and tracks the tracking target vehicle in consideration of the search route, and the process proceeds to S804.

次に、通報が無い場合において、S812にて、移動物体検出追跡部14が、追跡対象車両を検出した場合は、S813に移行し、検出しない場合は、S801に移行する。   Next, when there is no report, if the moving object detection tracking unit 14 detects a tracking target vehicle in S812, the process proceeds to S813. If not detected, the process proceeds to S801.

次に、S813にて、データベース処理部173が、検出画像1002とデータベース画像とを照合し、一致する場合は、S814に移行し、一致しない場合は、S801に移行する。   Next, in S813, the database processing unit 173 collates the detected image 1002 and the database image. If they match, the process proceeds to S814, and if they do not match, the process proceeds to S801.

次に、S814にて、表示切替部18が、モニタ19に照合モードを表示する。   Next, in S814, the display switching unit 18 displays the collation mode on the monitor 19.

次に、S815にて、監視員が、検出画像1002を確認し、I/F部20より確認結果を入力し、検出画像1002と追跡対象車両とが一致する場合は、S816に移行し、検出画像1002と追跡対象車両とが一致しない場合は、S801に移行する。   Next, in S815, the monitoring person confirms the detection image 1002, inputs the confirmation result from the I / F unit 20, and if the detection image 1002 matches the tracking target vehicle, the process proceeds to S816 to detect If the image 1002 and the tracking target vehicle do not match, the process proceeds to S801.

次に、S816にて、表示切替部18が、モニタ19に事件モードを表示する。   Next, in S816, the display switching unit 18 displays the incident mode on the monitor 19.

次に、S817にて、状況判断部17が、追跡対象車両をロストした場合は、S818に移行し、追跡中は、S801に移行する。   Next, in S817, when the situation determination unit 17 has lost the tracking target vehicle, the process proceeds to S818, and during tracking, the process proceeds to S801.

次に、S818にて、表示切替部18が、モニタ19にロストモードを表示する。   Next, in S818, the display switching unit 18 displays the lost mode on the monitor 19.

次に、S819にて、移動物体検出追跡部14が、探索ルートを考慮して追跡対象車両を検出し、追跡し、S801に移行する。   Next, in S819, the moving object detection tracking unit 14 detects and tracks the tracking target vehicle in consideration of the search route, and the process proceeds to S801.

以上が、移動物体の監視の動作フローである。   The above is an operation flow for monitoring a moving object.

ここで、図9に通報モード(モード1)の表示を示す。通報内容として、撮影された画像と対象者の特徴データと存在位置が通報された場合は、通報画像91、通報情報92、存在位置を示す通報位置地図93を表示し、監視員に、追跡対象車両の存在を示す。ここでは、通報位置地図93上に、星型のアイコンを用いて車両の位置を示した。   Here, FIG. 9 shows a display of the notification mode (mode 1). When the photographed image, the characteristic data of the target person, and the existing position are notified as the contents of the report, the report image 91, the report information 92, and the report position map 93 indicating the present position are displayed, and the monitoring target is displayed to the monitor. Indicates the presence of a vehicle. Here, the position of the vehicle is shown on the notification position map 93 using a star-shaped icon.

また、照合モード(モード2)では、図10に示すように、データベース16に登録された追跡対象車両画像1001と実際に検出した複数の検出画像1002とを同時に表示する。   Further, in the collation mode (mode 2), as shown in FIG. 10, the tracking target vehicle image 1001 registered in the database 16 and a plurality of actually detected detection images 1002 are simultaneously displayed.

また、データベース16に予め追跡対象車両の車両番号、車種、色、所有者、使用者などの追跡対象車両情報1003が登録されている場合は、同時にその追跡対象車両情報1003を表示することも可能である。   Further, when tracking target vehicle information 1003 such as a vehicle number, a vehicle type, a color, an owner, and a user of a tracking target vehicle is registered in the database 16 in advance, the tracking target vehicle information 1003 can be displayed at the same time. It is.

さらに、実際に検出した検出画像1002の枚数を、データベース処理部173で照合
した結果の信頼度に基づいて変化させることも可能である。信頼度は、例えば、検出画像1002とデータベース16に登録された追跡対象車両画像1001との類似度を用いることができる。これにより信頼度が低い場合には、より多くの検出画像1002を表示することが可能であり、監視員が、照合結果が妥当であるかどうかを判断する。
Furthermore, the number of detected images 1002 actually detected can be changed based on the reliability of the result of collation by the database processing unit 173. As the reliability, for example, the similarity between the detected image 1002 and the tracking target vehicle image 1001 registered in the database 16 can be used. As a result, when the reliability is low, more detection images 1002 can be displayed, and the monitoring person determines whether or not the collation result is appropriate.

ここで、誤認識を防ぐ目的で、監視員が、検出された複数の検出画像1002とデータベース16の追跡対象車両画像1001とが一致するかどうかを確認ボタン1004のYES/NOで判断する形式とし、確認ボタン1004のNOを選択した場合には、I/F部20より移動物体検出追跡部14に検出、追跡を続行するための信号が出力され、再度、確認ボタン1004のYESが選択されるか、もしくは、追跡対象車両画像1001の追跡が行える限り検出画像1002を表示していく。   Here, for the purpose of preventing misrecognition, the monitor uses a confirmation button 1004 YES / NO to determine whether or not the detected plurality of detected images 1002 match the tracking target vehicle image 1001 in the database 16. When NO of the confirmation button 1004 is selected, a signal for continuing detection and tracking is output from the I / F unit 20 to the moving object detection tracking unit 14, and YES of the confirmation button 1004 is selected again. Alternatively, the detection image 1002 is displayed as long as the tracking target vehicle image 1001 can be tracked.

また、確認ボタン1004のYESを選択した場合には、追跡対象車両であると判断し、その旨がI/F部20より属性処理部175に出力され、事件発生と認識し、事件モード(モード3)の処理を行う。   If YES on the confirmation button 1004 is selected, it is determined that the vehicle is a tracking target vehicle, and the fact is output from the I / F unit 20 to the attribute processing unit 175 to recognize that the incident has occurred, and the incident mode (mode) Process 3) is performed.

なお、通報処理部174が、ネットワーク21から緊急事態発生の通報を受けた場合に、そのモード3の事件モードとなることも可能である。   Note that when the notification processing unit 174 receives a notification of occurrence of an emergency from the network 21, the incident mode of mode 3 can be set.

事件モードは、前述のようにデータベース処理部173で追跡対象車両と判断した場合と、図2における通報処理部174で、緊急事態発生の通報を受けた場合に相当する。事件が発生した場合、モード3として事件モードとなり、表示切替器18によって事件モードの表示を行う。事件発生時は、事件の発生した場所が重要な問題である。そのため事件モードでは、図11のように、事件の起きた場所付近の追跡位置地図1101および住所を表示し、その追跡位置地図1101上に車両であることが分かるようにアイコンを表示する。ここでは、星型のアイコンとした。また、追跡中の画像を追跡中カメラ画像1103として、表示することも可能である。また、検出画像1002から選択された代表的な画像1102を表示することもできる。   The incident mode corresponds to the case where the database processing unit 173 determines that the vehicle is a tracking target vehicle as described above and the case where the notification processing unit 174 in FIG. When an incident occurs, the incident mode is set as mode 3 and the incident mode is displayed by the display switch 18. When an incident occurs, the place where the incident occurred is an important issue. Therefore, in the incident mode, as shown in FIG. 11, a tracking position map 1101 and an address near the place where the incident occurred are displayed, and an icon is displayed on the tracking position map 1101 so that it can be seen that the vehicle is a vehicle. Here, it is a star icon. It is also possible to display a tracking image as a tracking camera image 1103. Further, a representative image 1102 selected from the detected image 1002 can be displayed.

同時にナンバー情報や属性処理部175が保持する車種、車体の色などの追跡対象車両情報1104も表示する。追跡対象車両情報1104は、データベース16に予め登録してあるデータ、若しくはI/F部20を介して監視員が入力したデータである。   At the same time, the tracking target vehicle information 1104 such as the number information, the vehicle type and the color of the vehicle body held by the attribute processing unit 175 is also displayed. The tracking target vehicle information 1104 is data registered in advance in the database 16 or data input by the monitor via the I / F unit 20.

また、追跡位置地図1101上にアイコンを表示し、更に、追跡対象の移動軌跡を表示することも可能である。ここでは、移動軌道を点線で示した。   It is also possible to display an icon on the tracking position map 1101 and further display a tracking locus of the tracking target. Here, the movement trajectory is indicated by a dotted line.

さらに、映像処理部12で抽出した車両の代表画像1102を表示する。これにより、監視員は警備員を配置するためのオペレーションを容易に行うことができる。   Further, the representative image 1102 of the vehicle extracted by the video processing unit 12 is displayed. As a result, the monitor can easily perform an operation for arranging the guard.

次に、図12におけるロスト発生時の表示モード(モード4)について説明する。ロスト発生時とは、追跡対象車両を検出および追跡している途中、もしくは、事件発生時に追跡対象車両を追跡中に追跡対象をロストした場合である。移動物体検出追跡部14で追跡している追跡対象を追跡できているかどうかの判断を、状況判断部17のロスト判断部171で行う。   Next, the display mode (mode 4) at the time of occurrence of lost in FIG. 12 will be described. The occurrence of lost refers to the case where the tracking target vehicle is being detected and tracked, or the tracking target is lost while the tracking target vehicle is being tracked when the incident occurs. The lost determination unit 171 of the situation determination unit 17 determines whether or not the tracking target tracked by the moving object detection tracking unit 14 can be tracked.

ここでは、一時的な遮蔽等によるロストを許容するために複数枚の画像からロスト判断を行う。ロストしたことを判断した場合は、モード4としてロストモードの表示を行う。ロストモードの表示は、図12に示すように、ロストした付近のビルや家屋等の情報も含めたロスト位置地図1201とロストした時点からの経過時間をもとに逃避可能ルートを探索し、ロスト位置地図1201上に表示する。ここでは、点線矢印で逃避可能ルートを
示した。
Here, in order to allow lost due to temporary shielding or the like, the lost determination is performed from a plurality of images. When it is determined that it has been lost, the lost mode is displayed as mode 4. As shown in FIG. 12, the lost mode is displayed by searching for an escapeable route based on the lost position map 1201 including information on the buildings and houses in the vicinity that have been lost and the elapsed time from the time of the loss. It is displayed on the position map 1201. Here, the escape route is indicated by a dotted arrow.

この時、表示するロスト位置地図1201の縮尺は経過時間および逃避可能ルートによって決定するため、ロスト後、時間が経過するほどロスト位置地図1201の縮尺は広域を表すようになる。また、ロスト付近のカメラ画像1203とロストした対象の追跡対象車両情報1204および追跡時に撮影した代表的な画像1202を同時に表示することによって、監視員がロストした対象を発見するように促す。   At this time, since the scale of the lost position map 1201 to be displayed is determined by the elapsed time and the escape route, the scale of the lost position map 1201 represents a wide area as time passes after the lost. Further, the camera image 1203 near the lost, the tracking target vehicle information 1204 of the lost target, and the representative image 1202 taken at the time of tracking are displayed at the same time, thereby urging the observer to discover the lost target.

また、自動追跡中の車両が監視区域外に出た場合も同様に、追跡処理を失敗するために、ロスト判断部においてロストしたと判断する。この時も同様にロストモードの表示を行うが、加えて、地図データ部15のデータを用いて、最寄りの監視区域を探索してカメラ10−1〜nごとの監視区域を色分けして表示する。また、監視区域外から移動可能な監視区域を表示することによって、監視区域外に人員を配置するなどの処置を取るなどの監視員のオペレーションを補助し、監視ミスの減少を可能とする。   Similarly, when the vehicle being automatically tracked goes out of the monitoring area, the lost determination unit determines that the vehicle has been lost in order to fail the tracking process. At this time, the lost mode is displayed in the same manner. In addition, the nearest monitoring area is searched using the data of the map data section 15 and the monitoring areas for the cameras 10-1 to 10-n are displayed in different colors. . Also, by displaying a monitoring area that can be moved from outside the monitoring area, it assists the operation of the monitoring person such as placing a person outside the monitoring area, and reduces monitoring errors.

このように、監視対象が車両の場合は、車両のナンバー、車両の色、車種及び追跡車両が存在する位置などの複数のデータを緊急通報やロスト時などの状況を状況判断部17で判断し、その判断結果に応じて必要な表示を選択し切り替えることによって、監視員の効率的かつ正確な監視を実現し、監視ミスを減少させることができる。また、警備員の配置などのオペレーション業務に対しても有効な情報を表示することができる。   As described above, when the monitoring target is a vehicle, the situation determination unit 17 determines a situation such as an emergency call or a loss of a plurality of data such as a vehicle number, a vehicle color, a vehicle type, and a position where a tracked vehicle is present. By selecting and switching the necessary display according to the determination result, efficient and accurate monitoring of the monitoring staff can be realized, and monitoring errors can be reduced. Also, it is possible to display information that is effective for operations such as the placement of guards.

以上のように本発明の広域監視装置によれば、データベースに蓄積された情報とカメラから得られた情報との照合を行うために、監視員の負担が小さくなるように情報を選択的に表示したり、緊急事態発生時には、発生位置や追跡対象の属性を表示し、対象を追跡することによって、監視員のオペレーションを容易にすることで負担を軽減したり、装置が追跡対象をロストした時には、その発生を監視員に知らせることによって監視員の操作を促すことが可能である。このように、状況を判断し状況に応じた表示を行うことで、監視の効率を向上し監視ミスを減少させることが可能である。   As described above, according to the wide area monitoring apparatus of the present invention, in order to collate information stored in the database with information obtained from the camera, information is selectively displayed so as to reduce the burden on the observer. In the event of an emergency, the occurrence location and the attributes of the tracking target are displayed, and tracking the target reduces the burden by facilitating the operation of the observer, or when the device loses the tracking target It is possible to prompt the supervisor to operate by notifying the supervisor of the occurrence. Thus, by judging the situation and displaying according to the situation, it is possible to improve the efficiency of monitoring and reduce monitoring errors.

本発明の実施の形態1に関わる広域監視装置の概略構成図Schematic configuration diagram of a wide area monitoring apparatus according to Embodiment 1 of the present invention 本発明の実施の形態1に関わる広域監視装置実施において使用する状況判断部の概略構成図Schematic configuration diagram of a situation determination unit used in the wide area monitoring apparatus implementation according to Embodiment 1 of the present invention 本発明の実施の形態1における広域監視装置の動作を示すフローチャートThe flowchart which shows operation | movement of the wide area monitoring apparatus in Embodiment 1 of this invention. 本発明の実施の形態1における広域監視装置による通報モードの表示を示す図The figure which shows the display of the report mode by the wide area monitoring apparatus in Embodiment 1 of this invention 本発明の実施の形態1における広域監視装置による照合モードの表示を示す図The figure which shows the display of the collation mode by the wide area monitoring apparatus in Embodiment 1 of this invention 本発明の実施の形態1における広域監視装置による事件モードの表示を示す図The figure which shows the display of the incident mode by the wide area monitoring apparatus in Embodiment 1 of this invention 本発明の実施の形態1における広域監視装置によるロストモードの表示を示す図The figure which shows the display of the lost mode by the wide area monitoring apparatus in Embodiment 1 of this invention. 本発明の実施の形態2における広域監視装置の動作を示すフローチャートThe flowchart which shows operation | movement of the wide area monitoring apparatus in Embodiment 2 of this invention. 本発明の実施の形態2における広域監視装置による通報モードの表示を示す図The figure which shows the display of the report mode by the wide area monitoring apparatus in Embodiment 2 of this invention 本発明の実施の形態2における広域監視装置による照合モードの表示を示す図The figure which shows the display of the collation mode by the wide area monitoring apparatus in Embodiment 2 of this invention 本発明の実施の形態2における広域監視装置による事件モードの表示を示す図The figure which shows the display of the incident mode by the wide area monitoring apparatus in Embodiment 2 of this invention 本発明の実施の形態2における広域監視装置によるロストモードの表示を示す図The figure which shows the display of the lost mode by the wide area monitoring apparatus in Embodiment 2 of this invention.

符号の説明Explanation of symbols

10−1〜n カメラ
11、21 ネットワーク
12 映像処理部
13 位置検出部
14 移動物体検出追跡部
15 地図データ部
16 データベース
17 状況判断部
18 表示切替部
19 モニタ
20 I/F部
171 ロスト判定部
172 ルート探索部
173 データベース処理部
174 通報処理部
175 属性処理部
41、91 通報画像
42、92 通報情報
43、93 通報位置地図
51 追跡対象者画像
52、1002 検出画像
53、64、74 追跡対象者情報
54、1004 確認ボタン
61、1101 追跡位置地図
62、72、1102、1202 代表的な画像
63、1103 追跡中カメラ画像
71、1201 ロスト位置地図
73、1203 ロスト付近のカメラ画像
1001 追跡対象車両画像
1003、1104、1204 追跡対象車両情報

10-1 to n Camera 11, 21 Network 12 Video processing unit 13 Position detection unit 14 Moving object detection tracking unit 15 Map data unit 16 Database 17 Situation determination unit 18 Display switching unit 19 Monitor 20 I / F unit 171 Lost determination unit 172 Route search unit 173 Database processing unit 174 Report processing unit 175 Attribute processing unit 41, 91 Report image 42, 92 Report information 43, 93 Report location map 51 Tracking target person image 52, 1002 Detection image 53, 64, 74 Tracking target person information 54, 1004 Confirmation button 61, 1101 Tracking position map 62, 72, 1102, 1202 Representative image 63, 1103 Tracking camera image 71, 1201 Lost position map 73, 1203 Camera image near lost 1001 Tracking target vehicle image 1003, 1104, 120 4 Tracking target vehicle information

Claims (9)

画像に含まれる追跡対象物体に関し、得られた情報を用いて、状況を判断する状況判断手段と、前記状況判断手段の判断に基づいて必要な情報を切り替える表示切替手段と、前記必要な情報を表示するモニタと、を有する広域監視装置。 With respect to the tracking target object included in the image, using the obtained information, a situation determination means for judging the situation, a display switching means for switching necessary information based on the judgment of the situation judgment means, and the necessary information And a wide area monitoring device. 前記得られた情報は、外部からの通報に含まれる情報又は、前記追跡対象物体と予め蓄積された画像とを照合した信頼度情報である請求項1記載の広域監視装置。 The wide-area monitoring apparatus according to claim 1, wherein the obtained information is information included in an external report or reliability information obtained by comparing the tracking target object with a previously stored image. 前記表示切替手段は、前記外部からの通報が入力された場合に、前記外部からの通報に含まれる情報と予め蓄積された情報とが合成された情報に切り替えるものである請求項2記載の広域監視装置。 3. The wide area according to claim 2, wherein the display switching unit is configured to switch to information obtained by combining information included in the external notification and information stored in advance when the external notification is input. Monitoring device. 前記表示切替手段は、前記信頼度情報が、予め定めた値以上である場合に、ユーザに確認を求める情報に切り替えるものである請求項2または請求項3記載の広域監視装置。 The wide-area monitoring device according to claim 2 or 3, wherein the display switching means is configured to switch to information for requesting confirmation from a user when the reliability information is equal to or greater than a predetermined value. 前記表示切替手段は、前記信頼度情報が、予め定めた値以上であり、ユーザが承認した場合に、必要な情報を切り替えるものである請求項2ないし請求項4のいずれか記載の広域監視装置。 The wide-area monitoring device according to any one of claims 2 to 4, wherein the display switching means is configured to switch necessary information when the reliability information is a predetermined value or more and the user approves. . 前記表示切替手段は、ユーザにより承認された追跡対象物体と予め蓄積した画像とを照合した信頼度が、予め定めた値未満となる場合に、必要な情報を切り替えるものである請求項2ないし請求項5のいずれか記載の広域監視装置。 3. The display switching unit is configured to switch necessary information when a reliability obtained by comparing a tracking target object approved by a user with an image stored in advance is less than a predetermined value. Item 6. The wide area monitoring device according to any one of Items 5 to 6. 前記必要な情報は、地図情報、画像情報を含み、前記地図情報は、前記ユーザにより承認された追跡対象物体と予め蓄積した画像とを照合した信頼度情報が、予め定めた値未満となる位置付近の交通状況、交通手段を考慮した逃避予測経路が表示されるものである請求項6記載の広域監視装置。 The necessary information includes map information and image information, and the map information is a position where reliability information obtained by comparing a tracking target object approved by the user with a previously accumulated image is less than a predetermined value. The wide area monitoring apparatus according to claim 6, wherein an escape prediction route in consideration of a nearby traffic situation and means of transportation is displayed. 前記地図情報は、前記ユーザにより承認された追跡対象物体と予め蓄積した画像とを照合した信頼度情報が、予め定めた値未満となる経過時間に応じて縮尺および逃避予測経路を変更して表示するものである請求項7記載の広域監視装置。 The map information is displayed by changing the scale and escape prediction route according to the elapsed time when the reliability information obtained by comparing the tracking target object approved by the user with the previously accumulated image is less than a predetermined value. The wide-area monitoring apparatus according to claim 7. 前記表示切替手段は、前記信頼度情報に応じて、前記追跡対象物体の画像を複数枚表示する情報に切り替える請求項4ないし請求項6のいずれか記載の広域監視装置。

The wide-area monitoring device according to any one of claims 4 to 6, wherein the display switching unit switches to information for displaying a plurality of images of the tracking target object according to the reliability information.

JP2003318033A 2003-09-10 2003-09-10 Wide area monitoring device Pending JP2005086626A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003318033A JP2005086626A (en) 2003-09-10 2003-09-10 Wide area monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003318033A JP2005086626A (en) 2003-09-10 2003-09-10 Wide area monitoring device

Publications (1)

Publication Number Publication Date
JP2005086626A true JP2005086626A (en) 2005-03-31

Family

ID=34417421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003318033A Pending JP2005086626A (en) 2003-09-10 2003-09-10 Wide area monitoring device

Country Status (1)

Country Link
JP (1) JP2005086626A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049229A (en) * 2005-08-05 2007-02-22 Canon Inc Imaging apparatus and method
JP2007142527A (en) * 2005-11-15 2007-06-07 Hitachi Ltd Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus
JP2007142742A (en) * 2005-11-17 2007-06-07 Mitsubishi Electric Corp Intrusion monitoring system
JP2007213291A (en) * 2006-02-09 2007-08-23 Fujitsu General Ltd Emergency notification system
JP2007221191A (en) * 2006-02-14 2007-08-30 Hitachi Ltd Monitoring system, monitoring method, and monitoring program
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2009055445A (en) * 2007-08-28 2009-03-12 Toshiba Corp System and device for searching video image
JPWO2007119355A1 (en) * 2006-03-15 2009-08-27 オムロン株式会社 TRACKING DEVICE, TRACKING METHOD, TRACKING DEVICE CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM
JP2012504265A (en) * 2008-09-30 2012-02-16 ユーロピアン エアロノティック ディフェンス アンド スペース カンパニー イーズ フランス Optimization method of scene retrieval based on stream of images archived in video database
JP2013157812A (en) * 2012-01-30 2013-08-15 Olympus Imaging Corp Image processing apparatus and image processing method
CN103310185A (en) * 2012-03-15 2013-09-18 欧姆龙株式会社 Monitoring device, reliability calculation program, and reliability calculation method
WO2014045843A1 (en) * 2012-09-19 2014-03-27 日本電気株式会社 Image processing system, image processing method, and program
JP2014078150A (en) * 2012-10-11 2014-05-01 Sharp Corp Suspicious person monitoring system, suspicious person monitoring method and computer program
JP2014149620A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Photographing system
JP2014534786A (en) * 2011-11-22 2014-12-18 ペルコ インコーポレーテッドPelco, Inc. Control based on map
JP2018056915A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Information processing device, information processing method, and program
WO2018180040A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image processing device, image analysis system, method, and program
WO2020115910A1 (en) * 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
WO2022201987A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Image analysis device, image analysis system, image analysis method, and program
JP2023115087A (en) * 2018-12-07 2023-08-18 日本電気株式会社 Information processing apparatus, information processing method, and program

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049229A (en) * 2005-08-05 2007-02-22 Canon Inc Imaging apparatus and method
JP2007142527A (en) * 2005-11-15 2007-06-07 Hitachi Ltd Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus
JP4700477B2 (en) * 2005-11-15 2011-06-15 株式会社日立製作所 MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
JP2007142742A (en) * 2005-11-17 2007-06-07 Mitsubishi Electric Corp Intrusion monitoring system
JP4687488B2 (en) * 2006-02-09 2011-05-25 株式会社富士通ゼネラル Emergency call system
JP2007213291A (en) * 2006-02-09 2007-08-23 Fujitsu General Ltd Emergency notification system
JP2007221191A (en) * 2006-02-14 2007-08-30 Hitachi Ltd Monitoring system, monitoring method, and monitoring program
JPWO2007119355A1 (en) * 2006-03-15 2009-08-27 オムロン株式会社 TRACKING DEVICE, TRACKING METHOD, TRACKING DEVICE CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM
US8599267B2 (en) 2006-03-15 2013-12-03 Omron Corporation Tracking device, tracking method, tracking device control program, and computer-readable recording medium
JP4957721B2 (en) * 2006-03-15 2012-06-20 オムロン株式会社 TRACKING DEVICE, TRACKING METHOD, TRACKING DEVICE CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM
JP4706535B2 (en) * 2006-03-30 2011-06-22 株式会社日立製作所 Moving object monitoring device using multiple cameras
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2009055445A (en) * 2007-08-28 2009-03-12 Toshiba Corp System and device for searching video image
JP2012504265A (en) * 2008-09-30 2012-02-16 ユーロピアン エアロノティック ディフェンス アンド スペース カンパニー イーズ フランス Optimization method of scene retrieval based on stream of images archived in video database
JP2014534786A (en) * 2011-11-22 2014-12-18 ペルコ インコーポレーテッドPelco, Inc. Control based on map
JP2013157812A (en) * 2012-01-30 2013-08-15 Olympus Imaging Corp Image processing apparatus and image processing method
JP2013192154A (en) * 2012-03-15 2013-09-26 Omron Corp Monitoring device, reliability calculation program and reliability calculation method
CN103310185A (en) * 2012-03-15 2013-09-18 欧姆龙株式会社 Monitoring device, reliability calculation program, and reliability calculation method
WO2014045843A1 (en) * 2012-09-19 2014-03-27 日本電気株式会社 Image processing system, image processing method, and program
JPWO2014045843A1 (en) * 2012-09-19 2016-08-18 日本電気株式会社 Image processing system, image processing method, and program
US9984300B2 (en) 2012-09-19 2018-05-29 Nec Corporation Image processing system, image processing method, and program
JP2014078150A (en) * 2012-10-11 2014-05-01 Sharp Corp Suspicious person monitoring system, suspicious person monitoring method and computer program
JP2014149620A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Photographing system
JP2018056915A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Information processing device, information processing method, and program
JPWO2018180040A1 (en) * 2017-03-31 2019-12-19 日本電気株式会社 Video processing apparatus, video analysis system, method and program
WO2018180040A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image processing device, image analysis system, method, and program
US10846865B2 (en) 2017-03-31 2020-11-24 Nec Corporation Video image processing device, video image analysis system, method, and program
WO2020115910A1 (en) * 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
JPWO2020115910A1 (en) * 2018-12-07 2021-10-28 日本電気株式会社 Information processing systems, information processing devices, information processing methods, and programs
JP7020567B2 (en) 2018-12-07 2022-02-16 日本電気株式会社 Information processing systems, information processing equipment, information processing methods, and programs
JP2023115087A (en) * 2018-12-07 2023-08-18 日本電気株式会社 Information processing apparatus, information processing method, and program
JP7371806B2 (en) 2018-12-07 2023-10-31 日本電気株式会社 Information processing device, information processing method, and program
WO2022201987A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Image analysis device, image analysis system, image analysis method, and program

Similar Documents

Publication Publication Date Title
JP2005086626A (en) Wide area monitoring device
US10977917B2 (en) Surveillance camera system and surveillance method
US9241138B2 (en) Image monitoring apparatus, image monitoring system, and image monitoring system configuration method
US11062160B2 (en) Person monitoring system and person monitoring method
JP4984728B2 (en) Subject collation device and subject collation method
CN107766788B (en) Information processing apparatus, method thereof, and computer-readable storage medium
US9767663B2 (en) GPS directed intrusion system with data acquisition
US20090128632A1 (en) Camera and image processor
JP6268498B2 (en) Security system and person image display method
JP2003187352A (en) System for detecting specified person
KR101397453B1 (en) System for monitoring an image and method thereof
US20040240542A1 (en) Method and apparatus for video frame sequence-based object tracking
KR102039277B1 (en) Pedestrian face recognition system and method thereof
US8130774B2 (en) Object tracking method and system
WO2018096787A1 (en) Person&#39;s behavior monitoring device and person&#39;s behavior monitoring system
CN108734967B (en) Method, device and system for monitoring illegal vehicle
JP6013923B2 (en) System and method for browsing and searching for video episodes
KR102181355B1 (en) Vehicle search system based artificial intelligence
US11450186B2 (en) Person monitoring system and person monitoring method
JP3664784B2 (en) Wide area monitoring device
JP5111795B2 (en) Monitoring device
KR100825225B1 (en) System and method for regulating illegally parked vehicle having function of overspeeding vehicle detection and crime prevention
KR20190072323A (en) Image Monitoring System and Method for Monitoring Image
KR20200133596A (en) Automatic vehicle integrated inspection system
JP2019159377A (en) Monitoring system, server device, monitoring method, and monitoring program