JP2007208659A - Cooperation camera system - Google Patents

Cooperation camera system Download PDF

Info

Publication number
JP2007208659A
JP2007208659A JP2006025089A JP2006025089A JP2007208659A JP 2007208659 A JP2007208659 A JP 2007208659A JP 2006025089 A JP2006025089 A JP 2006025089A JP 2006025089 A JP2006025089 A JP 2006025089A JP 2007208659 A JP2007208659 A JP 2007208659A
Authority
JP
Japan
Prior art keywords
camera
tracking
importance
moving body
monitoring camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006025089A
Other languages
Japanese (ja)
Inventor
Yoshio Iizuka
義夫 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006025089A priority Critical patent/JP2007208659A/en
Publication of JP2007208659A publication Critical patent/JP2007208659A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To continuously trace a moving body even if a plurality of moving bodies simultaneously appear. <P>SOLUTION: A cooperation camera system includes a trace importance calculation unit which calculates a trace importance degree iaB on which a camera 110 traces a moving body B in a trace region ARb. Moreover, it includes a taking over importance calculation unit which calculates a taking over importance degree iAA which a camera 110 succeeds and takes over a moving body A which a camera 100 is tracing. Further, when the camera 110 is tracing the moving body B in the tracing region ARb, the system includes a comparison unit which compares the trace importance degree for the moving body B and the taking over importance degree is tracing for the moving body to A which the camera 100. At that time, after the comparison unit detects that a degree of the taking over importance degree iAA becomes higher than a degree of the trace importance degree iaB, the system includes a switching unit which switches the moving body which the camera 110 traces to the moving body A. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の監視カメラを連携させて、複数の移動体を継続的に撮影する連携カメラシステムに関する。   The present invention relates to a linked camera system that links a plurality of surveillance cameras and continuously photographs a plurality of moving objects.

従来、複数の監視カメラを分散配置して広い範囲を監視する監視システムが実用化されている。この監視システムの多くは、広角の複数の固定監視カメラで撮影した複数の映像のすべてを監視センターのモニターに映し出し、そのモニターを監視人が監視することによって、不審者の侵入や、事件、事故などの異常状態を発見できるようになっている。   Conventionally, a monitoring system that monitors a wide range by distributing a plurality of monitoring cameras has been put into practical use. Many of these surveillance systems project multiple images taken by multiple wide-angle fixed surveillance cameras onto a monitor at the surveillance center, and the monitor monitors the monitor, thereby intruding suspicious individuals, incidents and accidents. It is possible to detect abnormal conditions such as.

このため、従来の監視システムは、監視カメラ台数が多くなるほど監視人の負担が重くなり、異常事態の発見が遅れたり、見過ごしたりする虞があった。また、広角の固定監視カメラで撮影するだけでは、特定の場所や対象物をズームアップして詳細に写すことができないため、監視人が事態を正確に把握できないことがあった。   For this reason, in the conventional monitoring system, as the number of monitoring cameras increases, the burden on the monitoring person becomes heavier, and the discovery of an abnormal situation may be delayed or overlooked. In addition, simply shooting with a wide-angle fixed surveillance camera cannot zoom in on a specific location or object, so that the monitor cannot accurately grasp the situation.

こうした状況を改善するため、移動体を自動的に認識する監視カメラや、複数台の監視カメラを相互に連携させるシステムの研究、開発が始まっている。   To improve this situation, research and development of surveillance cameras that automatically recognize moving objects and systems that link multiple surveillance cameras to each other have begun.

特許文献1及び特許文献2には、複数の監視カメラを連携させて移動体を継続的に撮影するための侵入者自動追尾方法及び監視システムが開示されている。   Patent Document 1 and Patent Document 2 disclose an intruder automatic tracking method and a monitoring system for continuously capturing a moving body by linking a plurality of monitoring cameras.

これらの先行技術における複数の監視カメラは、図5に示すように、先ず、それぞれ移動体の自動検出及び特徴量の自動抽出を行う。そして、複数の監視カメラ1,2は、移動体Mが一方の監視カメラ1の追跡領域である視野内から他方の監視カメラ2の視野内へ移動する際に、移動体Mを追跡中の監視カメラ1から他方の監視カメラ2へ移動体Mの特徴情報を送信する。他方の監視カメラ2は、受信した特徴情報を備えた移動体Mを発見することができる。この結果、複数の監視カメラ1,2は、監視カメラ間で移動体Mを継続して撮影することができる。   As shown in FIG. 5, the plurality of monitoring cameras in these prior arts first perform automatic detection of moving objects and automatic extraction of feature amounts, respectively. The plurality of monitoring cameras 1 and 2 monitor the moving body M while tracking the moving body M when the moving body M moves from the visual field that is the tracking area of one monitoring camera 1 to the visual field of the other monitoring camera 2. The feature information of the moving body M is transmitted from the camera 1 to the other monitoring camera 2. The other monitoring camera 2 can find the moving object M having the received feature information. As a result, the plurality of monitoring cameras 1 and 2 can continuously photograph the moving object M between the monitoring cameras.

特許文献3には、同時に3台以上の監視カメラを用いて移動体の3次元情報を正確に計測する移動物体の計測装置の発明が開示されている。この計測装置は、図6に示すように、移動体の移動に伴って、その移動体の3次元情報を計測するのに適した位置に設置された3台以上の監視カメラ11乃至16を有している。そして、計測装置は、設置された3台以上の監視カメラ11乃至16を動的に選択して、計測に使用する監視カメラから移動体Mが見えなくなるような状況が起こらないようにしている。   Patent Document 3 discloses an invention of a moving object measuring apparatus that accurately measures three-dimensional information of a moving object using three or more surveillance cameras at the same time. As shown in FIG. 6, this measuring device has three or more monitoring cameras 11 to 16 installed at positions suitable for measuring three-dimensional information of the moving body as the moving body moves. is doing. The measuring device dynamically selects the three or more installed monitoring cameras 11 to 16 so that the situation where the moving body M cannot be seen from the monitoring camera used for measurement does not occur.

また、特許文献3の計測装置は、広視野角の固定監視カメラ(広角監視カメラ)で複数の移動体を同時に検出し、検出された各移動体のそれぞれに対して3台以上のパン・チルト・ズーム機能付き監視カメラ(PTZ監視カメラ)を動的に割り当てている。この結果、計測装置は、複数の移動体の3次元情報を計測できるようになっている。さらに、計測装置は、複数の移動体に優先順位を付け、優先順位の高い移動体に優先的に監視カメラを割り当てて、複数の移動体に対して監視カメラ割り当てが競合する場合に対処できるようになっている。   In addition, the measuring device disclosed in Patent Document 3 simultaneously detects a plurality of moving bodies with a fixed viewing camera (wide-angle monitoring camera) having a wide viewing angle, and three or more pans / tilts for each of the detected moving bodies. A surveillance camera with a zoom function (PTZ surveillance camera) is dynamically assigned. As a result, the measuring device can measure the three-dimensional information of a plurality of moving bodies. Furthermore, the measuring device can prioritize a plurality of moving objects, and assign a monitoring camera to a moving object with a higher priority, and can cope with the case where the monitoring camera assignments compete with the plurality of moving objects. It has become.

特開2002−290962号公報JP 2002-290962 A 特開2003−324720号公報JP 2003-324720 A 特開平07−306012号公報Japanese Patent Application Laid-Open No. 07-306012

しかし、特許文献1及び特許文献2に記載の侵入者自動追尾方法及び監視システムは、連携する複数の監視カメラの視野内に移動体が同時に複数現れる場合があることを考慮していない。このため、従来の侵入者自動追尾方法及び監視システムは、複数の移動体が同時に現れた場合の各監視カメラの制御方法及び複数の監視カメラ間の連携方法が不明である。   However, the intruder automatic tracking method and the monitoring system described in Patent Document 1 and Patent Document 2 do not take into account that a plurality of moving objects may appear simultaneously in the field of view of a plurality of linked monitoring cameras. For this reason, in the conventional intruder automatic tracking method and monitoring system, the control method of each monitoring camera and the cooperation method between the plurality of monitoring cameras when a plurality of moving objects appear simultaneously are unknown.

また、特許文献3に記載の計測装置は、サッカー競技場のような見通しのよい場所の周囲に多数の監視カメラを配置できる状況に適しており、基本的に1つの範囲を1台の監視カメラで監視する監視システムには向いていない。なぜならば、1つの移動体を常に3台以上の監視カメラが同時に撮影する必要があるため、1つの範囲を1台の監視カメラで監視する場合と比べて3倍以上の監視カメラの台数が必要となり、大幅なコストアップになるためである。   In addition, the measuring device described in Patent Document 3 is suitable for a situation where a large number of surveillance cameras can be arranged around a place with good visibility such as a soccer field, and basically one surveillance camera in one range. It is not suitable for monitoring systems that monitor with This is because three or more surveillance cameras must always shoot a single moving body at the same time, so the number of surveillance cameras is three times greater than when one range is monitored by one surveillance camera. This is a significant cost increase.

さらに、特許文献3に記載の計測装置は、複数の移動体が同時に現れた場合、これらの移動体に割り当て可能な監視カメラが3台しかないと、優先順位が最も高い1つの移動体しか計測(または追跡・影)することができない。このため、他の移動体はすべて無視されてしまうという課題がある。   Furthermore, when a plurality of moving objects appear simultaneously, the measuring device described in Patent Document 3 measures only one moving object having the highest priority when there are only three monitoring cameras that can be assigned to these moving objects. (Or tracking / shadowing) is not possible. For this reason, there is a problem that all other moving objects are ignored.

従って、上述のいずれの先行技術を用いても、複数の監視カメラが連携して撮影している範囲内に複数の移動体が同時に現れた場合、せいぜい1つの移動体しか追跡・撮影することができないという課題があった。   Therefore, even if any of the above-described prior arts is used, if a plurality of moving objects appear simultaneously within a range in which a plurality of surveillance cameras shoot together, only one moving object can be tracked and photographed at most. There was a problem that it was not possible.

本発明は、複数の監視カメラを連携させて移動体を継続的に撮影する際に、複数の移動体が同時に現れた場合でも可能な限り多くの移動体を同時に追跡、撮影できる連携カメラシステムを提供することにある。   The present invention provides a linked camera system capable of simultaneously tracking and shooting as many moving objects as possible even when a plurality of moving objects appear simultaneously when a plurality of monitoring objects are linked to continuously shoot a moving object. It is to provide.

本発明の連携カメラシステムは、一方の監視カメラから他方の監視カメラに引継いで追跡対象の移動体を捕捉追跡する連携カメラシステムにおいて、前記一方の監視カメラと前記他方の監視カメラに設けられて、前記各監視カメラが前記各監視カメラの追跡領域にいる移動体を追跡する追跡重要度を求める追跡重要度設定手段と、前記一方の監視カメラに設けられて、前記一方の監視カメラによって追跡されている前記移動体を、前記他方の監視カメラが引継いで追跡する引継ぎ重要度を求める引継ぎ重要度設定手段と、前記他方の監視カメラに設けられて、前記他方の監視カメラが前記他方の監視カメラの追跡領域内にいる移動体を追跡しているとき、当該移動体に対する前記追跡重要度と、前記一方の監視カメラが追跡している移動体に対する前記引継ぎ重要度とを比較する比較手段と、前記他方の監視カメラに設けられて、前記比較手段によって、前記追跡重要度の度合いよりも前記引継ぎ重要度の度合いの方が高くなったことが検知された後、前記他方の監視カメラが追跡する移動体を前記一方の監視カメラが追跡している移動体に切換える切換え手段と、を備えたことを特徴としている。   The linked camera system of the present invention is provided in the one monitoring camera and the other monitoring camera in the linked camera system that captures and tracks the tracking target moving body from one monitoring camera to the other monitoring camera. Tracking importance setting means for obtaining tracking importance for tracking each moving camera in the tracking area of each monitoring camera, tracking importance setting means for obtaining the tracking importance, and being tracked by the one monitoring camera The takeover importance setting means for obtaining the takeover importance for the other monitoring camera to take over and track the moving body, and the other monitoring camera is provided with the other monitoring camera. When tracking a moving object in the tracking area, the tracking importance for the moving object and the moving object being tracked by the one surveillance camera are displayed. The comparison means for comparing the takeover importance level and the other monitoring camera are provided, and the comparison means has the degree of the takeover importance level higher than the tracking importance level. And switching means for switching the moving body tracked by the other monitoring camera to the moving body tracked by the one monitoring camera after being detected.

本発明の連携カメラシステムは、監視カメラの追跡領域に複数の移動体が同時に現れた場合、各監視カメラが自動的に各自の役割を判断し、監視カメラ間の役割分担が最適になされるようになっている。このため、本発明の連携カメラシステムは、従来多くの移動体をより効果的に追跡・撮影することができる。   In the cooperative camera system of the present invention, when a plurality of moving objects appear in the tracking area of the surveillance camera at the same time, each surveillance camera automatically determines the role of each person so that the role sharing between the surveillance cameras is optimized. It has become. For this reason, the cooperative camera system of the present invention can track and photograph many moving objects more effectively.

以下、図1乃至図4に基づいて本発明の実施形態の連携カメラシステムを説明する。   Hereinafter, a cooperative camera system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4.

図1は、連携カメラシステム90のブロック図である。   FIG. 1 is a block diagram of the cooperative camera system 90.

連携カメラシステム90は、監視カメラ100、監視カメラ110の他にも不図示の複数の監視カメラを有しているものとする。これらの監視カメラは、同じ構成になっている。各監視カメラは、それぞれ必要に応じて、ネットワーク10を介して画像データ及びまたは複合情報をモニタリング装置20に送信するようになっている。ここで、複合情報には少なくとも移動体A,B(図4参照)に関する追跡重要度情報、引継ぎ重要度情報、及び特徴情報等が含まれている。また、各監視カメラは、それぞれ必要に応じて、ネットワーク10を介して互いに複合情報を送受信するようになっている。   Assume that the cooperative camera system 90 includes a plurality of monitoring cameras (not shown) in addition to the monitoring camera 100 and the monitoring camera 110. These surveillance cameras have the same configuration. Each monitoring camera transmits image data and / or composite information to the monitoring device 20 via the network 10 as necessary. Here, the composite information includes at least tracking importance level information, takeover importance level information, feature information, and the like regarding the mobile objects A and B (see FIG. 4). In addition, the monitoring cameras transmit / receive composite information to / from each other via the network 10 as necessary.

なお、図1において、破線矢印は画像データ(符号化済み画像データを含む)の流れを示している。実線矢印はそれ以外のデータ(複合情報や各種制御情報など)の流れを示している。また、ネットワーク10には、有線/無線、公衆網/専用網を問わず、任意の通信網、通信回線、通信技術を使用してもよい。ネットワーク10には、アナログ専用線、LAN回線、携帯電話回線等の利用が増えており、より広い概念で言えばインターネットを利用してもよい。   In FIG. 1, broken line arrows indicate the flow of image data (including encoded image data). Solid arrows indicate the flow of other data (composite information, various control information, etc.). The network 10 may be any communication network, communication line, or communication technology, regardless of whether it is wired / wireless or public / dedicated. In the network 10, the use of an analog dedicated line, a LAN line, a mobile phone line, etc. is increasing, and the Internet may be used in a broader concept.

以下、すべての監視カメラを代表して、符号100で示した監視カメラの構成を説明する。図1において、符号100で示す監視カメラと符号110で示す監視カメラとにおいて、名称が同一の構成要素は、同一の作用をするようになっている。このため、符号110で示す監視カメラの説明を省略する。また、図2に示した複合情報処理部においても、名称が同一の構成要素は、同一の作用をするようになっている。   Hereinafter, the configuration of the monitoring camera denoted by reference numeral 100 will be described on behalf of all the monitoring cameras. In FIG. 1, in the surveillance camera denoted by reference numeral 100 and the surveillance camera denoted by reference numeral 110, components having the same name are configured to perform the same action. For this reason, description of the surveillance camera denoted by reference numeral 110 is omitted. Also in the composite information processing unit shown in FIG. 2, components having the same name perform the same action.

画像撮影部103は、移動体を撮影する部分であり、不図示のパン・チルト・ズーム機構を備えている。画像撮影部103は、撮影パラメータ制御部102の指示に従って画像撮影部103がパン・チルト・ズームを行うことにより、撮影方向及び視野角を変化させることが出来るようになっている。画像撮影部103で撮影された画像データは、複合情報処理部105と画像符号化部106とに伝達される。   The image photographing unit 103 is a part that photographs a moving body, and includes a pan / tilt / zoom mechanism (not shown). The image photographing unit 103 can change the photographing direction and the viewing angle when the image photographing unit 103 performs pan / tilt / zoom in accordance with an instruction from the photographing parameter control unit 102. Image data captured by the image capturing unit 103 is transmitted to the composite information processing unit 105 and the image encoding unit 106.

撮影パラメータ制御部102は、後述のように複合情報処理部105からの画像上での移動体の移動方向と移動量の予測結果を受けるようになっている。撮影パラメータ制御部102は、この予測結果に基づいて移動体が今後監視カメラ視野の中心付近で撮影されるように画像撮影部103のパン角とチルト角を調節するようになっている。また、ユーザが望む場合(ユーザ設定に従って)、撮影パラメータ制御部102は複合情報処理部105から移動体の画像上のサイズを伝達される。撮影パラメータ制御部102は、このサイズがあらかじめユーザが決めた所定のサイズに近づくように(または、所定の上限サイズと下限サイズの間に収まるように)画像撮影部103のズーム率を制御する制御部である。また、撮影パラメータ制御部102は、画像撮影部103のパン角、チルト角及びズーム率を複合情報処理部105に伝達する制御部である。   The imaging parameter control unit 102 receives the prediction result of the moving direction and the moving amount of the moving body on the image from the composite information processing unit 105 as will be described later. The shooting parameter control unit 102 adjusts the pan angle and the tilt angle of the image shooting unit 103 so that the moving body is shot near the center of the monitoring camera field of view based on the prediction result. When the user desires (according to user settings), the imaging parameter control unit 102 is notified of the size of the moving object on the image from the composite information processing unit 105. The shooting parameter control unit 102 controls the zoom rate of the image shooting unit 103 so that this size approaches a predetermined size determined by the user in advance (or falls within a predetermined upper limit size and lower limit size). Part. The shooting parameter control unit 102 is a control unit that transmits the pan angle, tilt angle, and zoom rate of the image shooting unit 103 to the composite information processing unit 105.

設置情報取得部101は、監視カメラ100及び隣接する他の監視カメラの設置位置及び設置向き(監視カメラ台座の向き)を3次元の絶対座標及び方向角として取得する。絶対座標の原点及びXYZ軸方向は任意に決めてよいが、すべての監視カメラが同じ座標系を使用しなければならない。設置情報取得方法には任意の従来技術を用いることができる。最も簡単な設置情報取得方法は、あらかじめユーザが既存の測定装置を利用して監視カメラ100及び隣接する他の監視カメラの設置情報(設置位置及び設置向き)を測定しておき、それを記憶部104に入力しておく方法である。この場合、設置情報取得部101は不要となる。他の設置情報取得方法としては、GPS計測装置などの自動計測装置を利用して自分の設置情報(設置位置及び設置向き)を取得した後、隣接する監視カメラ間同士で通信して互いの設置情報を交換する方法がある。設置情報取得部101が取得するかまたはあらかじめ記憶部104に記憶しておいた設置情報は、複合情報処理部105によって利用される。   The installation information acquisition unit 101 acquires the installation position and installation direction (the direction of the monitoring camera base) of the monitoring camera 100 and other adjacent monitoring cameras as three-dimensional absolute coordinates and direction angles. The origin of absolute coordinates and the XYZ axis directions may be arbitrarily determined, but all surveillance cameras must use the same coordinate system. Any conventional technique can be used for the installation information acquisition method. In the simplest installation information acquisition method, the user measures the installation information (installation position and installation direction) of the monitoring camera 100 and other adjacent monitoring cameras in advance using an existing measurement device, and stores the information. This is a method of inputting to 104. In this case, the installation information acquisition unit 101 is not necessary. As another installation information acquisition method, after acquiring own installation information (installation position and installation direction) using an automatic measurement device such as a GPS measurement device, communication between adjacent monitoring cameras is performed to install each other. There are ways to exchange information. The installation information acquired by the installation information acquisition unit 101 or stored in advance in the storage unit 104 is used by the composite information processing unit 105.

複合情報処理部105は、次に、列挙するように、様々な処理を行う。   Next, the composite information processing unit 105 performs various processes as listed below.

複合情報処理部105は、画像データを時系列的に処理することにより移動体を自動的に検出する機能(移動体検出機能)を備えている。移動体の検出方法としては、背景差分法、フレーム間差分法、オプティカルフロー法などの従来法を用いることができる。   The composite information processing unit 105 has a function of automatically detecting a moving object (moving object detection function) by processing image data in time series. Conventional methods such as a background difference method, an inter-frame difference method, and an optical flow method can be used as a moving object detection method.

複合情報処理部105は、画像データから移動体部分を切り出し、そこからあらかじめ決められた情報を抽出して、移動体の外見上の特徴情報を取得する機能(特徴情報抽出機能)も備えている。あらかじめ決められた情報には、例えば、形状、サイズ、輝度分布、色分布、特徴点分布、ビットマップパターンなど、あるいはこれらのいくつかを組み合わせたものがある。   The composite information processing unit 105 also has a function (feature information extraction function) for extracting feature information on the appearance of the moving object by extracting the moving object portion from the image data and extracting predetermined information therefrom. . The predetermined information includes, for example, a shape, a size, a luminance distribution, a color distribution, a feature point distribution, a bitmap pattern, etc., or some combination thereof.

複合情報処理部105は、ある移動体を追跡することの重要性を定量的に表す追跡重要度を計算する機能(追跡重要度計算機能)を備えている。すなわち、複合情報処理部105は、図4に示す監視カメラ100(110,120)の追跡領域である撮影可能範囲ARa(ARb,ARc)にいる移動体A,Bを追跡する追跡重要度を算出する追跡重要度算出部105a(図2参照)を有している。追跡重要度算出部105a(115a)は追跡重要度設定手段に相当する。追跡重要度情報の具体例は後述する。   The composite information processing unit 105 has a function (tracking importance calculation function) for calculating a tracking importance that quantitatively represents the importance of tracking a certain moving object. That is, the composite information processing unit 105 calculates the tracking importance for tracking the moving objects A and B in the shootable range ARa (ARb, ARc) that is the tracking area of the monitoring camera 100 (110, 120) shown in FIG. A tracking importance calculation unit 105a (see FIG. 2). The tracking importance calculation unit 105a (115a) corresponds to tracking importance setting means. A specific example of the tracking importance information will be described later.

複合情報処理部105は、移動体の追跡重要度情報と特徴情報とを組み合わせて複合情報を作り、その複合情報を記憶部104に記憶させる機能も備えている。   The composite information processing unit 105 also has a function of creating composite information by combining tracking importance information and feature information of a moving object and storing the composite information in the storage unit 104.

複合情報処理部105は、画像上における移動体の代表位置(例えば中心位置)を計算して、所定のフレーム数分だけ移動体の代表位置の軌跡を求めることにより、画像上での移動体の今後の移動方向と移動量を予測する機能も備えている。そして、複合情報処理部105は、この予測結果を撮影パラメータ制御部102に伝達する。仮に、ユーザが望む場合は(ユーザ設定に従って)、移動体の画像上のサイズも計算して撮影パラメータ制御部102に伝達する。   The composite information processing unit 105 calculates the representative position (for example, the center position) of the moving object on the image, and obtains the trajectory of the representative position of the moving object for a predetermined number of frames. It also has a function to predict the future direction and amount of movement. Then, the composite information processing unit 105 transmits this prediction result to the imaging parameter control unit 102. If the user desires (according to user settings), the size of the moving object on the image is also calculated and transmitted to the imaging parameter control unit 102.

複合情報処理部105は、撮影パラメータ制御部102から伝達された画像撮影部103のパン角とチルト角、及び移動体の画像上での今後の移動方向と移動量の予測結果に基づいて、移動体が監視カメラ100の視野から遠ざかっているかどうかを判断する。   The composite information processing unit 105 moves based on the pan angle and tilt angle of the image shooting unit 103 transmitted from the shooting parameter control unit 102, and the prediction result of the future moving direction and moving amount on the moving object image. It is determined whether the body is moving away from the visual field of the monitoring camera 100.

複合情報処理部105は、仮に、移動体が遠ざかっていると判断した場合、設置情報取得部101が取得するか、またはあらかじめ記憶部104に記憶しておいた設置情報を用いて移動体の進行方向にある他の監視カメラを特定する。そして、複合情報処理部105は、通信部107及びネットワーク10を介して、上記特定した他の監視カメラに対して、記憶部104に記憶しておいた複合情報を送信する。   If the composite information processing unit 105 determines that the moving body is moving away, the installation information acquisition unit 101 acquires the advancement of the moving body using the installation information stored in the storage unit 104 in advance. Identify other surveillance cameras in the direction. Then, the composite information processing unit 105 transmits the composite information stored in the storage unit 104 to the identified other monitoring camera via the communication unit 107 and the network 10.

複合情報処理部105は、他の監視カメラから受信した複合情報(引継ぎ重要度に関する情報)と自身が作成した複合情報(追跡重要度に関する情報)とを比較する機能(複合情報比較機能)を備えている。そして、複合情報処理部105は、この比較結果に基づいて自監視カメラが追跡する移動体を決定する。   The composite information processing unit 105 includes a function (composite information comparison function) for comparing composite information (information regarding takeover importance) received from another monitoring camera with composite information (information regarding tracking importance) created by itself. ing. Then, the composite information processing unit 105 determines a moving body to be tracked by the self-monitoring camera based on the comparison result.

このため、図2に示すように、上流側の監視カメラ100の複合情報処理部105は、監視カメラ100によって追跡されている移動体Aを、下流側の監視カメラ110が引継いで追跡する引継ぎ重要度を求める引継ぎ重要度算出部105bを備えている。引継ぎ重要度算出部105bは引継ぎ重要度設定手段である。さらに、下流側の複合情報処理部115は、監視カメラ110が追跡領域内である撮影可能領域内ARbにいる移動体Bの追跡中、移動体Bの追跡重要度と、監視カメラ100が追跡している移動体Aの引継ぎ重要度とを比較する比較部115cを備えている。比較部115cは、比較手段である。また、移動体Bに対する追跡重要度より、移動体Aに対する引継ぎ重要度の重要度が高くなったことを比較部115cが検知したとき、下流側の監視カメラ110が追跡する移動体をBからAに切換える切換え部115dを備えている。切換え部115dは、切換え手段である。   For this reason, as shown in FIG. 2, the composite information processing unit 105 of the upstream monitoring camera 100 takes over the moving object A being tracked by the monitoring camera 100 by the downstream monitoring camera 110 and takes over. A takeover importance degree calculation unit 105b for obtaining the degree is provided. The takeover importance calculating unit 105b is a takeover importance setting means. Furthermore, the downstream composite information processing unit 115 tracks the tracking importance of the moving object B and the monitoring camera 100 during tracking of the moving object B in the imageable area ARb in which the monitoring camera 110 is in the tracking area. The comparison part 115c which compares the taking over importance of the moving body A currently provided is provided. The comparison unit 115c is a comparison unit. Further, when the comparison unit 115c detects that the importance of the takeover importance for the moving object A is higher than the tracking importance for the moving object B, the moving object to be tracked by the monitoring camera 110 on the downstream side is changed from B to A. There is provided a switching portion 115d for switching to. The switching unit 115d is switching means.

なお、各カメラに対応する複合情報処理部は、以上説明した、追跡重要度算出部、引継ぎ重要度算出部、比較部、切換え部等を備えている。   The composite information processing unit corresponding to each camera includes the tracking importance calculation unit, the takeover importance calculation unit, the comparison unit, and the switching unit described above.

ここで、以下に追跡重要度の情報の具体例を3つ挙げる(iα、iβ及びiγ)。さらに、これらの情報を使用する意味と、これらの情報を統一的に扱うために数値化した場合の数値の割り当て例を示す。   Here, three specific examples of the tracking importance level information are given below (iα, iβ, and iγ). Furthermore, the meaning of using these pieces of information and an example of assigning numerical values when these pieces of information are digitized in order to handle them uniformly are shown.

(iα)は、自監視カメラが追跡中の移動体を他の監視カメラが同時に追跡中かどうかを示す情報である。   (Iα) is information indicating whether or not the other monitoring camera is simultaneously tracking the moving object being tracked by the own monitoring camera.

意味:他の監視カメラが自監視カメラと同じ移動体を追跡中なら、自監視カメラは別の移動体を追跡することができる。   Meaning: If another surveillance camera is tracking the same mobile object as the self-monitoring camera, the self-monitoring camera can follow another mobile object.

数値例:0または10。他の監視カメラが自監視カメラと同じ移動体を追跡中なら0、自監視カメラだけが追跡中なら10。なお、他の監視カメラの動作が不明な場合は自監視カメラだけが追跡中と見なし、10とする。   Numerical example: 0 or 10. 0 if other surveillance cameras are tracking the same moving object as the surveillance camera, and 10 if only the surveillance camera is tracking. If the operation of the other monitoring camera is unknown, it is assumed that only the own monitoring camera is tracking and is set to 10.

(iβ)は、自監視カメラが追跡中の移動体が自監視カメラの撮影可能範囲から外れる可能性の度合いを示す情報である。   (Iβ) is information indicating the degree of possibility that the moving body being tracked by the self-monitoring camera is out of the shootable range of the self-monitoring camera.

意味:移動体が自監視カメラの撮影可能範囲から外れる方向に移動するに従って自監視カメラにとっては重要度が下がる。   Meaning: As the moving body moves away from the photographing range of the self-monitoring camera, the importance for the self-monitoring camera decreases.

数値例:0乃至3。自監視カメラ100(110,120)にとっての重要度は、図3(a)に示すように移動体が自監視カメラの撮影可能範囲ARa(ARb,ARc)の中心付近にある場合は3、中心から離れるに従って2,1とし、撮影可能範囲から外れた場合は0とする。   Numerical example: 0 to 3. The importance for the self-monitoring camera 100 (110, 120) is 3 when the moving object is in the vicinity of the center of the photographing range ARa (ARb, ARc) of the self-monitoring camera as shown in FIG. 2 and 1 as the distance from the camera increases, and 0 when the camera is out of the shootable range.

(iγ)は、自監視カメラが追跡中の移動体の特徴情報があらかじめ記憶している注目情報と一致する度合いを示す情報である。   (Iγ) is information indicating the degree to which the feature information of the moving object being tracked by the self-monitoring camera matches the attention information stored in advance.

利点:あらかじめ移動体の種類を特定するための注目情報を記憶しておくことにより、特定の種類の移動体だけを追跡できる。これにより、例えば人間だけを追跡し、小動物は無視することができる。   Advantage: By storing attention information for specifying the type of mobile object in advance, only a specific type of mobile object can be tracked. Thus, for example, only humans can be tracked and small animals can be ignored.

数値例:0乃至3。移動体の特徴情報と注目情報との相関値を計算し、得られた相関値を0乃至3に再量子化する。   Numerical example: 0 to 3. The correlation value between the feature information of the moving object and the attention information is calculated, and the obtained correlation value is requantized to 0 to 3.

次に、引継ぎ重要度の情報の具体例を3つ挙げる(iα,iβ,iδ)。iα,iβは、前述のiα,iβと同様である。   Next, three specific examples of takeover importance level information are given (iα, iβ, iδ). iα and iβ are the same as iα and iβ described above.

(iδ)は、上流側の監視カメラ100によって追跡されている移動体Aを、下流側の監視カメラ110が引継いで追跡する引継ぎ重要度の度合いを示す情報である。   (Iδ) is information indicating the degree of takeover importance that the downstream monitoring camera 110 takes over and tracks the moving object A being tracked by the upstream monitoring camera 100.

意味:移動体の進行方向にある他の監視カメラにとっては重要度が上がる。   Meaning: Increased importance for other surveillance cameras in the direction of travel of the moving object.

数値例:0乃至3。自監視カメラ110にとっての引継ぎ重要度は、図3(b)に示すように、移動体が上流側の監視カメラ100の撮影可能範囲ARaの中心付近にいる場合は0、中心から離れるに従って1,2とする。そして、自監視カメラ110の撮影可能範囲ARb内に移動体が入ると3にする。すなわち、追跡重要度(iβ)とは、逆の関係になっており、iδ=3−iβの関係にある。   Numerical example: 0 to 3. As shown in FIG. 3B, the takeover importance for the self-monitoring camera 110 is 0 when the moving body is near the center of the photographing possible range ARa of the upstream monitoring camera 100, and is 1 as the distance from the center increases. 2. Then, when the moving body enters within the shootable range ARb of the self-monitoring camera 110, it is set to 3. In other words, the tracking importance (iβ) has an inverse relationship, iδ = 3-iβ.

なお、追跡重要度情報と引継ぎ重要度情報は、比較可能な形式であれば必ずしも数値化する必要はない。上記の数値割り当て例は、あくまで実施形態の理解を助けるために記述したものである。実際に連携カメラシステムを使用する際は各監視カメラの設置場所や運用状況に配慮して数値の割り当て方を変更してもよい。   The tracking importance level information and the takeover importance level information need not be quantified as long as they can be compared. The above numerical value assignment example is described only to help understanding of the embodiment. When the cooperative camera system is actually used, the numerical value assignment method may be changed in consideration of the installation location and operation status of each surveillance camera.

画像符号化部106は、あらかじめ決められた手順で画像データの圧縮、暗号化、誤り訂正符号化などを行い、符号化済み画像データを通信部107に伝達する。ただし、画像符号化部106は、画像データをモニタリング装置20に送信する必要がある場合のみ動作する。このため、画像データをモニタリング装置20に送信するか否かを制御するための制御手順は、あらかじめ決めておく必要がある。制御手順の例としては、複合情報処理部105が移動体を検出している間は常に画像データをモニタリング装置20に送信するものがある。別の例として、モニタリング装置20のユーザが画像データ送信の開始及び停止を制御できるようにシステム設計しておくものがある。モニタリング装置20で画像データを表示しない(移動体の位置情報だけ表示できればよい)と決めた場合、画像符号化部106が不要になる。   The image encoding unit 106 performs compression, encryption, error correction encoding, and the like of image data according to a predetermined procedure, and transmits the encoded image data to the communication unit 107. However, the image encoding unit 106 operates only when image data needs to be transmitted to the monitoring device 20. For this reason, it is necessary to determine in advance a control procedure for controlling whether or not to transmit image data to the monitoring device 20. As an example of the control procedure, there is one that always transmits image data to the monitoring device 20 while the composite information processing unit 105 detects a moving object. As another example, there is a system designed so that the user of the monitoring device 20 can control the start and stop of image data transmission. When it is determined that the monitoring device 20 does not display image data (only the position information of the moving body can be displayed), the image encoding unit 106 is not necessary.

通信部107は、ネットワーク10に適した方法(データ形式、変調方式、通信プロトコルなど)で様々なデータを送受信する。   The communication unit 107 transmits and receives various data by a method (data format, modulation method, communication protocol, etc.) suitable for the network 10.

一方、モニタリング装置20は以下の構成を備えている。   On the other hand, the monitoring device 20 has the following configuration.

通信部21は、ネットワーク10に適した方法で様々なデータを送受信する。画像復号化部22は、受信した符号化済み画像データを復号化した後、モニターとしての表示部24に画像データを伝達する。制御部23は、不図示のユーザインタフェースを備え、ユーザからの指示に応じて表示部24の表示方法を変更したり、任意の監視カメラに対して制御情報を送信したりなどの制御を行う。表示部24は、通信部21から受け取った複合情報及び画像復号化部22から受け取った画像データをそれぞれ所定の表示方法でユーザに表示する。   The communication unit 21 transmits and receives various data by a method suitable for the network 10. The image decoding unit 22 decodes the received encoded image data, and then transmits the image data to the display unit 24 as a monitor. The control unit 23 includes a user interface (not shown), and performs control such as changing the display method of the display unit 24 according to an instruction from the user or transmitting control information to an arbitrary monitoring camera. The display unit 24 displays the composite information received from the communication unit 21 and the image data received from the image decoding unit 22 to the user by a predetermined display method.

図4に基づいて、監視カメラ間の連携動作例を説明する。   Based on FIG. 4, an example of cooperative operation between surveillance cameras will be described.

図4(a)乃至(d)は、それぞれ時刻t1乃至t4における連携カメラシステム90の動作状態を示した図である。(a)乃至(d)の順番に時間が経過するものとする。   4A to 4D are diagrams showing the operating state of the cooperative camera system 90 at times t1 to t4, respectively. It is assumed that time elapses in the order of (a) to (d).

監視カメラ100、110及び120は、各監視カメラの撮影可能範囲ARa,ARb,ARcの左右端が少し重なる間隔で並べて設置されている。各監視カメラの撮影可能範囲ARa,ARb,ARcは、それぞれ監視カメラ前方(同図では上方)に点線で描かれた半円形の範囲である。移動体A及びBは、時刻t1乃至t4において概ね左から右へ移動する。   The monitoring cameras 100, 110, and 120 are installed side by side at intervals where the left and right ends of the shootable ranges ARa, ARb, ARc of each monitoring camera slightly overlap. The photographing possible ranges ARa, ARb, ARc of the respective monitoring cameras are semicircular ranges drawn by dotted lines in front of the monitoring camera (upward in the figure). The moving bodies A and B move substantially from left to right at times t1 to t4.

以下、移動体の追跡重要度情報としての上述の具体例(iα)、(iβ)及び(iγ)と、引継ぎ重要度の情報(iδ)とを用いて説明する。   Hereinafter, description will be made using the above-described specific examples (iα), (iβ), and (iγ) as tracking importance information of the moving object and takeover importance information (iδ).

なお、(iα)、(iβ)及び(iγ)で求めた数値の総和を追跡重要度(ia)((ib)(ic)・・)とする。ただし(iγ)に関しては、人間の外見的な特徴(例えば、形状やサイズなど)を注目情報としてあらかじめ記憶しておくことにより、移動体A及びBのいずれにおいても(iγ)=3が割り当てられるものとする。   The sum of the numerical values obtained from (iα), (iβ), and (iγ) is set as the tracking importance (ia) ((ib) (ic). However, for (iγ), (iγ) = 3 is assigned to both of the moving bodies A and B by preliminarily storing human appearance characteristics (for example, shape and size) as attention information. Shall.

また、(iα)、(iγ)及び(iδ)で求めた数値の総和を追跡重要度(iA)((iB)(iC)・・)とする。   Further, the sum of the numerical values obtained from (iα), (iγ), and (iδ) is set as the tracking importance (iA) ((iB) (iC).

図4(a)において、監視カメラ100は、移動体Aを追跡中であり、監視カメラ110は移動体Bを追跡中である。監視カメラ100は、上述の複合情報処理部105の機能により、移動体Aが監視カメラ110の方向に近づいていると判断する。そこで、監視カメラ100から監視カメラ110に対して移動体Aの引継ぎ重要度を追跡要求メッセージ(図中の追跡要求1−1)として送信する。このメッセージには、以下の手順で計算した引継ぎ重要度(iAA)と、任意の従来技術を用いて抽出した移動体Aの特徴情報を組み合わせて作成された複合情報が含まれている。   4A, the monitoring camera 100 is tracking the moving object A, and the monitoring camera 110 is tracking the moving object B. The monitoring camera 100 determines that the moving object A is approaching the direction of the monitoring camera 110 by the function of the composite information processing unit 105 described above. Therefore, the monitoring camera 100 transmits the takeover importance of the moving object A to the monitoring camera 110 as a tracking request message (tracking request 1-1 in the drawing). This message includes composite information created by combining the takeover importance (iAA) calculated by the following procedure and the feature information of the moving object A extracted using any conventional technique.

監視カメラ100が追跡中の移動体Aに対する追跡重要度(iaA)は、複合情報処理部105によって、次のようにして算出される。   The tracking importance (iaA) for the moving object A being tracked by the monitoring camera 100 is calculated by the composite information processing unit 105 as follows.

移動体Aは、監視カメラ100だけが追跡中なので、(iα)=10である。移動体Aは、監視カメラ100の撮影可能範囲の中心付近にあるので、(iβ)=3である。移動体Aはあらかじめ記憶しておいた注目情報と一致するので、(iγ)=3である。これらの総和として、(iaA)=16となる。   Since only the surveillance camera 100 is tracking the moving object A, (iα) = 10. Since the moving object A is in the vicinity of the center of the shootable range of the monitoring camera 100, (iβ) = 3. Since the moving object A matches the attention information stored in advance, (iγ) = 3. The sum of these is (iaA) = 16.

上流側の監視カメラ100が追跡中の移動体Aに対する下流側の監視カメラ110の引継ぎ重要度(iAA)は、複合情報処理部105によって、次のようにして算出される。   The takeover importance (iAA) of the downstream monitoring camera 110 with respect to the moving object A being tracked by the upstream monitoring camera 100 is calculated by the composite information processing unit 105 as follows.

移動体Aは、監視カメラ100だけが追跡中なので、(iα)=10である。移動体Aはあらかじめ記憶しておいた注目情報と一致するので、(iγ)=3である。移動体Aは監視カメラ100の撮影可能範囲の中心付近にいるので(iδ)=0である。これらの総和として、(iAA)=13となる。   Since only the surveillance camera 100 is tracking the moving object A, (iα) = 10. Since the moving object A matches the attention information stored in advance, (iγ) = 3. Since the moving object A is near the center of the photographing range of the monitoring camera 100, (iδ) = 0. The sum of these is (iAA) = 13.

監視カメラ110が追跡中の移動体Bに対する追跡重要度(iaB)は、複合情報処理部115によって、次のようにして算出される。   The tracking importance (iaB) for the moving body B being tracked by the monitoring camera 110 is calculated by the composite information processing unit 115 as follows.

移動体Bは、監視カメラ110だけが追跡中なので、(iα)=10である。移動体Bは、監視カメラ100の撮影可能範囲の中心付近にあるので、(iβ)=3である。移動体Bはあらかじめ記憶しておいた注目情報と一致するので、(iγ)=3である。これらの総和として、(iaB)=16となる。   Since only the surveillance camera 110 is tracking the moving object B, (iα) = 10. Since the moving body B is in the vicinity of the center of the shootable range of the monitoring camera 100, (iβ) = 3. Since the moving object B matches the attention information stored in advance, (iγ) = 3. The sum of these is (iaB) = 16.

従って、上流側の監視カメラ100の複合情報処理部105が、下流側の監視カメラ110の複合情報処理部115に移動体Aの引継ぎ重要度を追跡要求メッセージ(図中の追跡要求1−1)として送信する。   Accordingly, the composite information processing unit 105 of the upstream monitoring camera 100 sends a tracking request message to the composite information processing unit 115 of the monitoring camera 110 on the downstream side (taken request 1-1 in the figure). Send as.

下流側の複合情報処理部115の比較部115cは、上流側の複合情報処理部105からの引継ぎ重要度(iAA=13)と、下流側の監視カメラ110の移動体Bに対する追跡重要度とを比較する。(iAA=13)<(iaB=16)であるので、下流側の複合情報処理部115は、現在追跡中の移動体Bを追跡する方が重要であると判断する。そして、下流側の複合情報処理部115は、上流側の複合情報処理部105に、移動体Aの追跡要求を拒否する応答メッセージ(1−1NG)をとして送信する。   The comparison unit 115c of the downstream composite information processing unit 115 determines the takeover importance (iAA = 13) from the upstream composite information processing unit 105 and the tracking importance of the downstream monitoring camera 110 with respect to the moving object B. Compare. Since (iAA = 13) <(iaB = 16), the downstream composite information processing unit 115 determines that it is more important to track the mobile object B that is currently being tracked. Then, the downstream composite information processing unit 115 transmits to the upstream composite information processing unit 105 a response message (1-1NG) that rejects the tracking request for the moving object A.

図4(b)において、移動体Aは監視カメラ110の方向に移動を続けている。しかし、複合情報処理部105は、移動体Aが先程と同様、監視カメラ100の撮影可能範囲の中心付近にいると判断して、引継ぎ重要度には変化がないものと判断する。このため、複合情報処理部105は、下流側の複合情報処理部115に追跡要求メッセージを送信しない。   In FIG. 4B, the moving object A continues to move in the direction of the monitoring camera 110. However, the composite information processing unit 105 determines that the moving object A is in the vicinity of the center of the shootable range of the monitoring camera 100 as before, and determines that there is no change in the takeover importance. For this reason, the composite information processing unit 105 does not transmit a tracking request message to the downstream composite information processing unit 115.

一方、移動体Bは、監視カメラ120の方向に近づいている。そこで、監視カメラ110の複合情報処理部115から監視カメラ120の複合情報処理部に引継ぎ重要度を追跡要求メッセージ(図中の追跡要求2−1)として送信する。このメッセージには、以下の手順で計算した引継ぎ重要度(iBA)と、任意の従来技術を用いて抽出した移動体Bの特徴情報を組み合わせて作成された複合情報が含まれている。   On the other hand, the moving body B is approaching the direction of the monitoring camera 120. Therefore, the takeover importance is transmitted as a tracking request message (tracking request 2-1 in the figure) from the composite information processing unit 115 of the monitoring camera 110 to the composite information processing unit of the monitoring camera 120. This message includes composite information created by combining the takeover importance (iBA) calculated by the following procedure and the feature information of the moving body B extracted using any conventional technique.

上流側の監視カメラ110が追跡中の移動体Bに対する下流側の監視カメラ120の引継ぎ重要度(iBB)は、複合情報処理部115によって、次のようにして算出される。   The takeover importance (iBB) of the downstream monitoring camera 120 with respect to the moving object B being tracked by the upstream monitoring camera 110 is calculated by the composite information processing unit 115 as follows.

移動体Bは、監視カメラ110だけが追跡中なので、(iα)=10である。移動体Bはあらかじめ記憶しておいた注目情報と一致するので、(iγ)=3である。移動体Bは、監視カメラ110の撮影可能範囲の中心から外れた位置にいるので、(iδ)=1である。これらの総和として、(iBB)=14となる。   Since only the surveillance camera 110 is tracking the moving object B, (iα) = 10. Since the moving object B matches the attention information stored in advance, (iγ) = 3. Since the moving body B is at a position outside the center of the shootable range of the monitoring camera 110, (iδ) = 1. As a sum of these, (iBB) = 14.

一方、追跡要求メッセージ2−1を受信した監視カメラ120は移動体を追跡していないので、(iBB)の値に関わらず追跡要求を受け入れることができる。そこで、監視カメラ120の複合情報処理部は、監視カメラ110の複合情報処理部115に、移動体Bの追跡要求を受け入れるための応答メッセージ(図中の2−1OK)を返信する。また、監視カメラ120における複合情報処理部の切換え部は、監視カメラ120の向きを移動体Bに向ける。   On the other hand, since the monitoring camera 120 that has received the tracking request message 2-1 does not track the moving object, the tracking request can be accepted regardless of the value of (iBB). Therefore, the composite information processing unit of the monitoring camera 120 returns a response message (2-1 OK in the drawing) for accepting the tracking request of the moving object B to the composite information processing unit 115 of the monitoring camera 110. In addition, the switching unit of the composite information processing unit in the monitoring camera 120 directs the monitoring camera 120 toward the moving body B.

そして、移動体Aが図4(b)を経て図4(c)に示す位置まで移動している。図4(c)において、移動体Aは監視カメラ110の方に移動を続けている。上流側の監視カメラ100が追跡中の移動体Aに対する下流側の監視カメラ110の引継ぎ重要度(iCA)は、複合情報処理部105によって、次のようにして算出される。   And the moving body A has moved to the position shown in FIG.4 (c) through FIG.4 (b). In FIG. 4C, the moving object A continues to move toward the monitoring camera 110. The takeover importance (iCA) of the downstream monitoring camera 110 for the moving object A being tracked by the upstream monitoring camera 100 is calculated by the composite information processing unit 105 as follows.

移動体Aは、監視カメラ100だけが追跡中なので、(iα)=10である。移動体Aはあらかじめ記憶しておいた注目情報と一致するので、(iγ)=3である。移動体Aは監視カメラ100の撮影可能範囲の中心から外れているので(iδ)=2である。これらの総和として、(iCA)=15となる。   Since only the surveillance camera 100 is tracking the moving object A, (iα) = 10. Since the moving object A matches the attention information stored in advance, (iγ) = 3. Since the moving object A is out of the center of the shootable range of the monitoring camera 100, (iδ) = 2. The sum of these is (iCA) = 15.

引継ぎ重要度の値が前回の(iAA=13)から(iCA)=15と大きくなったので、監視カメラ110に引継ぎ要求が受け入れられる可能性が高り、監視カメラ100の複合情報処理部105は、追跡要求メッセージ(図中の追跡要求1−2)を再送信する。   Since the value of the takeover importance has increased from (iAA = 13) to (iCA) = 15 from the previous time, there is a high possibility that the monitoring camera 110 will accept the takeover request. Then, the tracking request message (tracking request 1-2 in the figure) is retransmitted.

一方、追跡要求メッセージ1−2を受信した監視カメラ110は移動体Bを追跡中であるので、再び自監視カメラが追跡中の移動体Bの追跡重要度(icB)を計算する。   On the other hand, since the monitoring camera 110 that has received the tracking request message 1-2 is tracking the moving object B, the tracking importance (icB) of the moving object B being tracked by the own monitoring camera is calculated again.

移動体Bは、監視カメラ110と監視カメラ120が同時に追跡中なので、(iα)=0である。移動体Bは、監視カメラ110の撮影可能範囲の中心からずれており、(iβ)=1である。移動体Bは、あらかじめ記憶しておいた注目情報と一致するので、(iγ)=3である。これらの総和として、(icB)=4である。   Since the surveillance camera 110 and the surveillance camera 120 are simultaneously tracking the moving object B, (iα) = 0. The moving object B is deviated from the center of the photographing range of the monitoring camera 110, and (iβ) = 1. Since the moving body B matches the attention information stored in advance, (iγ) = 3. As a sum of these, (icB) = 4.

従って、(iCA=15)>(icB=4)であるので、監視カメラ110における複合情報処理部115の比較部115cは、移動体Bを追跡し続けるよりも、移動体Aの追跡要求を受け入れる方が重要であると判断する。そこで、複合情報処理部115の切換え部115dは、監視カメラ110の向きを移動体Bから移動体Aに換える。また、監視カメラ110の複合情報処理部115は、監視カメラ100の複合情報処理部105に対して、移動体Aの追跡要求を受け入れるための応答メッセージ(図中の1−2OK)を返信する。   Therefore, since (iCA = 15)> (icB = 4), the comparison unit 115c of the composite information processing unit 115 in the monitoring camera 110 accepts the tracking request of the moving object A rather than keeping track of the moving object B. Judge that is more important. Therefore, the switching unit 115d of the composite information processing unit 115 changes the direction of the monitoring camera 110 from the moving body B to the moving body A. Further, the composite information processing unit 115 of the monitoring camera 110 returns a response message (1-2 OK in the drawing) for accepting the tracking request of the moving object A to the composite information processing unit 105 of the monitoring camera 100.

この結果、図4(d)に示すように、移動体Aは監視カメラ110が追跡を続け。移動体Bは監視カメラ120が追跡を続ける。   As a result, as shown in FIG. 4D, the moving camera A is continuously tracked by the monitoring camera 110. The moving body B is continuously tracked by the monitoring camera 120.

なお、図4の例よりも多数の移動体が同時に表れた場合は、必ずしもすべての移動体を同時に撮影できるとは限らないが、上述の引継ぎ重要度の情報に基づいて各監視カメラが最も重要と判断した移動体は必ず撮影できる。この場合、各監視カメラが最も重要と判断した移動体だけが撮影されるようにズーム率を上げるか、または可能な限り他の移動体も撮影されるようにズーム率を下げるかは、あらかじめユーザ設定によって決めておくこととする。   Note that when a larger number of moving objects appear at the same time than in the example of FIG. 4, it is not always possible to photograph all the moving objects at the same time. You can always shoot a moving object that you have determined. In this case, whether to increase the zoom rate so that only the moving objects that each surveillance camera determines to be the most important is captured or whether to decrease the zoom rate so that other moving objects are captured as much as possible is determined in advance by the user. It is decided according to the setting.

(第2実施形態)
本発明は、第1実施形態で説明したパン・チルト・ズーム機能付き監視カメラ(PTZ監視カメラ)の変わりに、撮影視野が固定の監視カメラ(固定監視カメラ)を用いても実現可能である。ただし、固定監視カメラを用いる場合はパン角、チルト角、ズーム率の撮影パラメータは固定である。従って、PTZ監視カメラを用いる場合と固定監視カメラを用いる場合とでは、移動体を追跡する方法及び追跡の意味が異なる。
(Second Embodiment)
The present invention can also be realized by using a surveillance camera (fixed surveillance camera) with a fixed field of view in place of the surveillance camera with pan / tilt / zoom functions (PTZ surveillance camera) described in the first embodiment. However, when a fixed surveillance camera is used, shooting parameters such as a pan angle, a tilt angle, and a zoom rate are fixed. Therefore, the method of tracking a moving object and the meaning of tracking differ between when a PTZ monitoring camera is used and when a fixed monitoring camera is used.

固定監視カメラを用いる場合、第1実施形態で説明した追跡の重要度情報に応じて、各監視カメラから画像データを送信するかどうかを切換えることができる。例えば、あらかじめ決めた基準値以上の重要度を持つ移動体が現れた場合のみ画像データをモニタリング装置20に送信するという制御が可能となる。   When a fixed monitoring camera is used, whether to transmit image data from each monitoring camera can be switched according to the tracking importance information described in the first embodiment. For example, it is possible to perform control such that image data is transmitted to the monitoring device 20 only when a mobile object having an importance level equal to or higher than a predetermined reference value appears.

または、移動体を検出したすべての監視カメラから追跡の重要度情報と画像データをモニタリング装置20に送信する場合、モニタリング装置20が受信した追跡の重要度情報に応じて画像データの取り扱い方法を変更することができる。例えば、追跡の重要度が高い順に並び替えて画像データを表示してもよいし、最も重要度が高い画像データのみ選択して表示することもできる。   Alternatively, when tracking importance information and image data are transmitted from all monitoring cameras that have detected a moving object to the monitoring device 20, the method of handling image data is changed according to the tracking importance information received by the monitoring device 20. can do. For example, the image data may be rearranged in descending order of the importance of tracking, or only the image data having the highest importance may be selected and displayed.

監視カメラに固定監視カメラを用いる場合、移動体を追跡することの意味は、監視カメラから送信する画像データまたはモニタリング装置において表示する画像データを選択または順位付けすることとなる。   When a fixed surveillance camera is used as the surveillance camera, the meaning of tracking a moving body is to select or rank image data transmitted from the surveillance camera or image data to be displayed on the monitoring device.

本発明の第1実施形態に係る連携カメラシステムのブロック図である。It is a block diagram of the cooperation camera system concerning a 1st embodiment of the present invention. 図1における複合情報処理部の詳細図である。FIG. 2 is a detailed view of a composite information processing unit in FIG. 1. (a)は、監視カメラの撮影可能領域と追跡重要度の度合いとの関係を示す図である。(b)は、監視カメラの撮影可能領域と引継ぎ重要度の度合いとの関係を示す図である。(A) is a figure which shows the relationship between the imaging | photography possible area | region of a surveillance camera, and the degree of tracking importance. (B) is a figure which shows the relationship between the imaging | photography possible area | region of a surveillance camera, and the degree of taking over importance. 本発明の連携カメラシステムの動作説明用の図である。It is a figure for operation | movement description of the cooperation camera system of this invention. 従来の連携カメラシステムの動作説明用の図である。It is a figure for operation | movement description of the conventional cooperation camera system. 他の従来の連携カメラシステムの動作説明用の図である。It is a figure for operation | movement description of another conventional cooperation camera system.

符号の説明Explanation of symbols

A,B 移動体
ARa,ARb,ARc 撮影可能範囲(追跡領域)
10 ネットワーク
20 モニタリング装置
24 表示部(モニター)
90 連携カメラシステム
100,110 パン・チルト・ズーム機能付き監視カメラ(監視カメラ)
101,111 設置情報取得部
102,112 撮影パラメータ制御部
103,113 画像撮影部
104,114 記憶部
105,115 複合情報処理部
105a,115a 追跡重要度算出部(追跡重要度設定手段)
105b,115b 引継ぎ重要度算出部(引継ぎ重要度設定手段)
105c,115c 比較部(比較手段)
105d,115d 切換え部(切換え手段)
A, B Mobile objects ARa, ARb, ARc Possible shooting range (tracking area)
10 Network 20 Monitoring Device 24 Display Unit (Monitor)
90 Linked camera system 100, 110 Surveillance camera with pan / tilt / zoom function (surveillance camera)
101, 111 Installation information acquisition unit 102, 112 Imaging parameter control unit 103, 113 Image capturing unit 104, 114 Storage unit 105, 115 Complex information processing unit 105a, 115a Tracking importance calculation unit (tracking importance setting means)
105b, 115b Takeover importance calculation unit (takeover importance setting means)
105c, 115c comparison unit (comparison means)
105d, 115d switching part (switching means)

Claims (5)

一方の監視カメラから他方の監視カメラに引継いで追跡対象の移動体を捕捉追跡する連携カメラシステムにおいて、
前記一方の監視カメラと前記他方の監視カメラに設けられて、前記各監視カメラが前記各監視カメラの追跡領域にいる移動体を追跡する追跡重要度を求める追跡重要度設定手段と、
前記一方の監視カメラに設けられて、前記一方の監視カメラによって追跡されている前記移動体を、前記他方の監視カメラが引継いで追跡する引継ぎ重要度を求める引継ぎ重要度設定手段と、
前記他方の監視カメラに設けられて、前記他方の監視カメラが前記他方の監視カメラの追跡領域内にいる移動体を追跡しているとき、当該移動体に対する前記追跡重要度と、前記一方の監視カメラが追跡している移動体に対する前記引継ぎ重要度とを比較する比較手段と、
前記他方の監視カメラに設けられて、前記比較手段によって、前記追跡重要度の度合いよりも前記引継ぎ重要度の度合いの方が高くなったことが検知された後、前記他方の監視カメラが追跡する移動体を前記一方の監視カメラが追跡している移動体に切換える切換え手段と、
を備えたことを特徴とする連携カメラシステム。
In the cooperative camera system that captures and tracks the moving object to be tracked by taking over from one surveillance camera to the other surveillance camera,
Tracking importance setting means provided in the one monitoring camera and the other monitoring camera, and for each tracking camera to obtain tracking importance for tracking a moving body in the tracking area of each monitoring camera;
A takeover importance setting means for obtaining a takeover importance degree, which is provided in the one surveillance camera, and the second surveillance camera takes over and tracks the moving body being tracked by the one surveillance camera;
When the other monitoring camera is tracking a moving object within the tracking area of the other monitoring camera, the tracking importance for the moving object and the one monitoring A comparison means for comparing the takeover importance with respect to the moving object being tracked by the camera;
Provided in the other surveillance camera, and after the comparison means detects that the degree of importance of taking over is higher than the degree of importance of tracking, the other surveillance camera tracks. Switching means for switching the moving body to the moving body tracked by the one monitoring camera;
A cooperative camera system characterized by comprising:
前記追跡重要度設定手段が、追跡中の移動体が前記監視カメラの追跡領域の端にいるときの追跡重要度よりも中央にいるときの追跡重要度の方の度合いを高くし、
前記引継ぎ重要度設定手段が、追跡中の移動体が前記監視カメラの追跡領域の中央にいるときの追跡重要度よりも端にいるときの追跡重要度の方の度合いを高くする、
ことを特徴とする請求項1に記載の連携カメラシステム。
The tracking importance setting means increases the degree of tracking importance when the moving body being tracked is at the center than the tracking importance when the moving body is at the end of the tracking area of the surveillance camera,
The handover importance setting means increases the degree of tracking importance when the moving body being tracked is at the end than the tracking importance when the moving body is in the center of the tracking area of the monitoring camera.
The cooperative camera system according to claim 1.
前記追跡重要度設定手段が、追跡中の移動体が前記監視カメラの追跡領域にいるときの追跡重要度よりもいないときの追跡重要度の方の度合いを低くし、
前記引継ぎ重要度設定手段が、追跡中の移動体が前記監視カメラの追跡領域の中央にいるときの追跡重要度よりも端にいるときの追跡重要度の方の度合いを高くする、
ことを特徴とする請求項1に記載の連携カメラシステム。
The tracking importance setting means lowers the degree of tracking importance when the moving body being tracked is less than the tracking importance when the moving body is in the tracking area of the surveillance camera,
The handover importance setting means increases the degree of tracking importance when the moving body being tracked is at the end than the tracking importance when the moving body is in the center of the tracking area of the monitoring camera.
The cooperative camera system according to claim 1.
前記監視カメラが、向きを変更可能であり、
前記切換え手段が、前記他方の監視カメラが追跡する移動体を前記一方の監視カメラが追跡している移動体に切換えたとき、前記他方の監視カメラの向きを前記一方の監視カメラが追跡している移動体に換える、
ことを特徴とする請求項1乃至3のいずれか1項に記載の連携カメラシステム。
The surveillance camera can change its orientation;
When the switching means switches the moving body tracked by the other monitoring camera to the moving body tracked by the one monitoring camera, the one monitoring camera tracks the direction of the other monitoring camera. Change to a moving object,
The cooperative camera system according to any one of claims 1 to 3, wherein
前記監視カメラが、固定された監視カメラであり、
前記監視カメラによって追跡されている移動体が表示されるモニターを備え、
前記切換え手段が、前記他方の監視カメラが追跡する移動体を一方の監視カメラが追跡している移動体に切換えたとき、前記モニターに表示される前記移動体を前記他方の監視カメラが追跡する一方の移動体に換える、
ことを特徴とする請求項1乃至3のいずれか1項に記載の連携カメラシステム。
The surveillance camera is a fixed surveillance camera;
A monitor on which a moving object tracked by the surveillance camera is displayed;
When the switching means switches the moving body tracked by the other monitoring camera to the moving body tracked by one monitoring camera, the other monitoring camera tracks the moving body displayed on the monitor. Switch to one moving body,
The cooperative camera system according to any one of claims 1 to 3, wherein
JP2006025089A 2006-02-01 2006-02-01 Cooperation camera system Pending JP2007208659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006025089A JP2007208659A (en) 2006-02-01 2006-02-01 Cooperation camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006025089A JP2007208659A (en) 2006-02-01 2006-02-01 Cooperation camera system

Publications (1)

Publication Number Publication Date
JP2007208659A true JP2007208659A (en) 2007-08-16

Family

ID=38487716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006025089A Pending JP2007208659A (en) 2006-02-01 2006-02-01 Cooperation camera system

Country Status (1)

Country Link
JP (1) JP2007208659A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211598A (en) * 2010-03-30 2011-10-20 Sony Corp Imaging system and imaging apparatus
US9041811B2 (en) 2008-02-25 2015-05-26 Canon Kabushiki Kaisha Monitoring system, method for monitoring object entering room, and computer readable storage medium
WO2016132769A1 (en) * 2015-02-19 2016-08-25 シャープ株式会社 Imaging device, control method for imaging device, and control program
KR101696801B1 (en) * 2016-10-21 2017-01-16 이형각 integrated image monitoring system based on IoT camera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9041811B2 (en) 2008-02-25 2015-05-26 Canon Kabushiki Kaisha Monitoring system, method for monitoring object entering room, and computer readable storage medium
JP2011211598A (en) * 2010-03-30 2011-10-20 Sony Corp Imaging system and imaging apparatus
WO2016132769A1 (en) * 2015-02-19 2016-08-25 シャープ株式会社 Imaging device, control method for imaging device, and control program
KR101696801B1 (en) * 2016-10-21 2017-01-16 이형각 integrated image monitoring system based on IoT camera

Similar Documents

Publication Publication Date Title
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
KR100432870B1 (en) Intruding object monitoring method and intruding object monitoring system
KR101228341B1 (en) Visual survailance system and method based on cooperation between cameras
JP6924079B2 (en) Information processing equipment and methods and programs
CN109104561B (en) System and method for tracking moving objects in a scene
JP3800217B2 (en) Monitoring system
JP2016100696A (en) Image processing device, image processing method, and image processing system
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
JP2008085874A (en) Person monitoring system, and person monitoring method
KR20190013104A (en) Surveillance system and operation method thereof
KR100888935B1 (en) Method for cooperation between two cameras in intelligent video surveillance systems
JP2007208659A (en) Cooperation camera system
JP3852745B2 (en) Object detection method and object detection apparatus
JP4574509B2 (en) System camera, surveillance system, and surveillance method
JP6720010B2 (en) Information processing apparatus, information processing method, and program
JP5188244B2 (en) Monitoring device and monitoring method
JP2006211696A (en) Object detecting method and object detecting system
JP5360403B2 (en) Mobile imaging device
JP6941458B2 (en) Monitoring system
JP2005268972A (en) Video display system and video display method
JP2008078729A (en) Surveillance camera switching system
JP2007049278A (en) Camera for system and cooperation camera system
JP3758511B2 (en) Object detection apparatus and object detection program
TW201205506A (en) System and method for managing security of a roof
KR101332820B1 (en) System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof