JP7146416B2 - Information processing device, information processing system, information processing method, and program - Google Patents

Information processing device, information processing system, information processing method, and program Download PDF

Info

Publication number
JP7146416B2
JP7146416B2 JP2018039323A JP2018039323A JP7146416B2 JP 7146416 B2 JP7146416 B2 JP 7146416B2 JP 2018039323 A JP2018039323 A JP 2018039323A JP 2018039323 A JP2018039323 A JP 2018039323A JP 7146416 B2 JP7146416 B2 JP 7146416B2
Authority
JP
Japan
Prior art keywords
sub
monitoring
area
information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018039323A
Other languages
Japanese (ja)
Other versions
JP2019153986A (en
JP2019153986A5 (en
Inventor
博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018039323A priority Critical patent/JP7146416B2/en
Publication of JP2019153986A publication Critical patent/JP2019153986A/en
Publication of JP2019153986A5 publication Critical patent/JP2019153986A5/en
Application granted granted Critical
Publication of JP7146416B2 publication Critical patent/JP7146416B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、広域に配置される複数の監視カメラを用いて監視を行う監視システムに関する。 The present invention relates to a surveillance system that performs surveillance using a plurality of surveillance cameras arranged over a wide area.

監視システムは、例えば、複数の監視カメラと、各監視カメラが撮影した映像の解析及び各監視カメラの動作制御を行う管理装置と、を備える。管理装置と各監視カメラとは、ネットワークを介して接続される。大規模なエリアを監視する場合、数十~数百を超える数の監視カメラがエリア内の各所に配置される。管理装置は、各監視カメラが撮影した映像を取得して、映像の記録、映像の解析処理、解析結果の表示等を行う。管理装置は、監視カメラから取得した映像の解析処理により、監視対象、例えば不審者の検出や混雑状態の検出等を行う。好適な解析結果を得るために、監視カメラは、解析の目的や監視対象に応じてパラメータ等の設定が調整される。 A monitoring system includes, for example, a plurality of monitoring cameras, and a management device that analyzes images captured by each monitoring camera and controls the operation of each monitoring camera. The management device and each surveillance camera are connected via a network. When monitoring a large area, dozens to more than hundreds of surveillance cameras are placed throughout the area. The management device acquires the video captured by each monitoring camera, records the video, analyzes the video, displays the analysis result, and the like. The management device detects objects to be monitored, such as suspicious persons and congestion, by analyzing images acquired from the surveillance cameras. In order to obtain suitable analysis results, the settings of parameters and the like of the monitoring camera are adjusted according to the purpose of analysis and the object to be monitored.

そのために多数の監視カメラは、個別に手動或いは自動で設定が変更される。監視カメラの数やその配置エリアの広大さから、管理装置が自動的に各監視カメラの設定を変更することが望ましい。しかし管理装置で自動的に設定を変更する場合であっても、状況に応じて状態変化する監視対象に対応して監視カメラの設定を変更することは、作業の煩雑さのために現実的ではない。 Therefore, the settings of many surveillance cameras are individually changed manually or automatically. Due to the number of surveillance cameras and the vastness of their installation area, it is desirable for the management device to automatically change the settings of each surveillance camera. However, even if the settings are automatically changed by the management device, it is not realistic to change the settings of the monitoring cameras in response to the monitoring target whose status changes according to the situation, due to the complexity of the work involved. do not have.

特許文献1は、建物間での設備機器のデータの比較を容易且つリアルタイムに行い、複数の建物内の設備機器を連動させて自動制御する広域監視システムの発明を開示する。広域監視システムは、対象の建物内に配置された複数の機器の発停状況の変化等の状態変化情報を収集して監視する管理装置を備える。この管理装置は、監視対象が特定の状態変化を起こした場合に、予め登録したイベントプログラムを起動し、状態変化に対して適切な処理(例えば機器の発停処理)を行うことにより連動した機器の設定を行う。 Patent Literature 1 discloses an invention of a wide area monitoring system that easily compares equipment data between buildings in real time, and automatically controls equipment in a plurality of buildings in conjunction with each other. A wide-area monitoring system includes a management device that collects and monitors state change information such as changes in the start/stop states of a plurality of devices placed in a target building. This management device activates a pre-registered event program when an object to be monitored undergoes a specific state change, and performs appropriate processing (for example, device start/stop processing) in response to the state change. settings.

特許2012-53549号公報Japanese Patent No. 2012-53549

特許文献1の広域監視システムは、機器の内部状態に基づく発停処理が主な制御対象である。この広域監視システムは、監視対象自体が状況に応じて変化するような局面では、機器の自律した制御が困難である。 In the wide area monitoring system of Patent Document 1, the main control target is start/stop processing based on the internal state of the equipment. In this wide area monitoring system, it is difficult to control the equipment autonomously in situations where the monitored object itself changes according to the situation.

本発明は、このような従来の問題を解決するため、監視カメラの設定を監視対象の状況に応じて自動的に行うことができる監視システムを提供することを主たる目的とする。 SUMMARY OF THE INVENTION In order to solve such conventional problems, the main object of the present invention is to provide a monitoring system capable of automatically setting a monitoring camera according to the situation of a monitored object.

本発明の情報処理装置は、広域エリアを分割した複数のサブエリアに対応する複数の撮像装置の設定情報を生成する情報処理装置であって、前記複数の撮像装置のそれぞれで撮像された映像のうち少なくとも1つの映像から監視対象が検出されたことを示すイベント情報取得する取得手段と、前記監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定手段と、 前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成手段と、を有し、前記カメラパラメータは、前記反映条件を満たす前記撮像装置に対して設定されることを特徴とする。 An information processing apparatus according to the present invention is an information processing apparatus that generates setting information for a plurality of imaging devices corresponding to a plurality of sub-areas obtained by dividing a wide area, wherein the image captured by each of the plurality of imaging devices is generated. Acquisition means for acquiring event information indicating that a monitored object has been detected from at least one of the images ; Determining means for determining a group of the imaging devices, the camera parameters for the imaging devices determined based on the table information in which the relationship between the event information and the camera parameters is preset, and the determination based on the event information a reflection condition indicating a time at which the camera parameters are to be actually reflected in the imaging devices included in the group; is set for the imaging device that satisfies

本発明によれば、監視カメラの設定を監視対象の状況に応じて自動的に行うことが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to automatically set a surveillance camera according to the situation of a monitoring object.

監視システムの全体構成図。Overall configuration diagram of the monitoring system. (a)~(c)は、サブエリア監視装置の構成例示図。4(a) to 4(c) are configuration diagrams of a sub-area monitoring device; FIG. (a)、(b)は、管理装置の構成例示図。4A and 4B are configuration diagrams of a management device; FIG. (a)、(b)は、統合管理装置の構成例示図。(a), (b) is a structural illustration figure of an integrated management apparatus. 出力装置に表示される画像の例示図。FIG. 4 is an exemplary diagram of an image displayed on an output device; 設定情報を生成する処理を表すフローチャート。4 is a flowchart showing processing for generating setting information; イベントと設定情報との対応説明図。FIG. 4 is an explanatory diagram of correspondence between events and setting information;

以下、図面を参照して、実施形態を詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the drawings.

(全体構成)
図1は、本実施形態の管理装置を含む監視システムの全体構成図である。監視システム1は、広域エリア140に配置される複数の監視カメラ131~134の動作を制御して不審人物や事象の発生の監視を行う。広域エリア140は複数のサブエリアに分割されて管理される。本実施形態では、広域エリア140が3つのサブエリア141~143に分割される例を説明する。広域エリア140の分割数はこれに限られるものではない。サブエリア141~143は、それぞれ1或いは複数の監視カメラにより撮影される。ここでは、サブエリア141が監視カメラ131により撮影される。サブエリア142が監視カメラ132により撮影される。サブエリア143が監視カメラ133、134により撮影される。なお、図1ではサブエリア141~143が隣接しているが、これに限らない。例えば、サブエリア141~143は、それぞれ離れた位置に設けられていてもよい。
(overall structure)
FIG. 1 is an overall configuration diagram of a monitoring system including a management device of this embodiment. The monitoring system 1 controls the operations of a plurality of monitoring cameras 131 to 134 arranged in a wide area 140 to monitor the occurrence of suspicious persons and events. The wide area 140 is divided into a plurality of sub-areas and managed. In this embodiment, an example in which a wide area 140 is divided into three sub-areas 141 to 143 will be described. The number of divisions of the wide area 140 is not limited to this. Each of the sub-areas 141-143 is captured by one or more surveillance cameras. Here, sub-area 141 is captured by surveillance camera 131 . Subarea 142 is captured by surveillance camera 132 . A sub-area 143 is captured by surveillance cameras 133 and 134 . Although the sub-areas 141 to 143 are adjacent in FIG. 1, the present invention is not limited to this. For example, the sub-areas 141-143 may be provided at separate positions.

監視システム1は、複数の管理装置101、102、複数のサブエリア監視装置111、112、113、及び統合管理装置121を備える。管理装置101、102、サブエリア監視装置111、112、113、及び統合管理装置121は、ネットワーク130を介して通信可能に接続される。ネットワーク130は、例えばLAN(Local Area Network)、インターネット、公衆通信回線網、或いはこれらの組み合わせを用いることができる。 The monitoring system 1 includes multiple management devices 101 and 102 , multiple sub-area monitoring devices 111 , 112 and 113 and an integrated management device 121 . The management devices 101 and 102, the subarea monitoring devices 111, 112 and 113, and the integrated management device 121 are communicably connected via a network . The network 130 can use, for example, a LAN (Local Area Network), the Internet, a public communication line network, or a combination thereof.

1つのサブエリア監視装置は、1つのサブエリアを担当して監視する。本実施形態では、サブエリア監視装置111は、監視カメラ131が接続され、サブエリア141を監視する。サブエリア監視装置112は、監視カメラ132が接続され、サブエリア142を監視する。サブエリア監視装置113は、監視カメラ133、134が接続され、サブエリア143を監視する。各サブエリア監視装置111~113は、それぞれ独立に動作して、監視カメラ131~134が撮影した映像に基づいて担当するサブエリア141~143の監視を行う。各サブエリア監視装置111~113は、例えば映像から人等の監視対象を検出し、監視対象が移動した場合にはこれを追跡することで監視を行う。各サブエリア監視装置111~113は、例えば、監視カメラ131~134が撮影したサブエリア141~143の映像に基づいて、監視対象が人である場合は、顔検出や、人体検出技術を用いて監視対象を検出する。各サブエリア監視装置111~113は、管理装置101、102、或いは統合管理装置121から監視システム1に登録されている監視対象の画像を取得し、これに基づいて監視対象の検出を行う。各サブエリア監視装置111~113は、例えば、位置予測やテンプレートマッチング等により検出した監視対象を追跡する。サブエリア監視装置と監視カメラとは、一体に構成されていてもよい。 One sub-area monitoring device takes charge of monitoring one sub-area. In this embodiment, the sub-area monitoring device 111 is connected to the monitoring camera 131 and monitors the sub-area 141 . The sub-area monitoring device 112 is connected to the monitoring camera 132 and monitors the sub-area 142 . The sub-area monitoring device 113 is connected to monitoring cameras 133 and 134 and monitors a sub-area 143 . Each of the sub-area monitoring devices 111-113 operates independently and monitors the sub-areas 141-143 in charge based on the images captured by the monitoring cameras 131-134. Each of the sub-area monitoring devices 111 to 113 detects an object to be monitored, such as a person, from an image, and if the object to be monitored moves, it is monitored by tracking it. Each of the sub-area monitoring devices 111-113, for example, based on the images of the sub-areas 141-143 captured by the monitoring cameras 131-134, uses face detection or human body detection technology when the monitored object is a person. Discover monitored targets. Each of the sub-area monitoring devices 111 to 113 acquires images of monitored objects registered in the monitoring system 1 from the management devices 101 and 102 or the integrated management device 121, and detects the monitored objects based on the obtained images. Each of the sub-area monitoring devices 111-113 tracks a monitoring target detected by position prediction, template matching, or the like, for example. The sub-area monitoring device and the monitoring camera may be configured integrally.

複数の管理装置101、102は、協働して複数のサブエリア監視装置111~113の分散管理を行う。サブエリア監視装置の数が少ない場合には、管理装置は1つであってもよい。サブエリア監視装置の数が多い場合には、管理装置をさらに増設してもよい。管理装置101、102は、サブエリア監視装置111、112、113から監視対象の個数や属性等の監視結果を、ネットワーク130を介して取得する。管理装置101、102は、各サブエリア監視装置111、112、113から取得した監視結果を個別に、或いはまとめて所定のディスプレイに表示することができる。 A plurality of management devices 101 and 102 cooperate to perform distributed management of a plurality of sub-area monitoring devices 111-113. If the number of subarea monitoring devices is small, there may be only one management device. If the number of subarea monitoring devices is large, more management devices may be added. Management devices 101 and 102 acquire monitoring results such as the number and attributes of monitoring targets from sub-area monitoring devices 111 , 112 and 113 via network 130 . The management devices 101 and 102 can individually or collectively display the monitoring results obtained from the respective sub-area monitoring devices 111, 112 and 113 on a predetermined display.

統合管理装置121は、管理装置101、102を統合して管理する。統合管理装置121は、サブエリア監視装置の数が膨大で、複数の管理装置だけではサブエリア監視装置の管理の処理負荷が大きい場合に設けられる。
統合管理装置121が設けられる場合、各管理装置101、102に、管理するサブエリア監視装置111~113が割り当てられる。例えば、管理装置101はサブエリア監視装置111及びサブエリア監視装置112を管理し、管理装置102はサブエリア監視装置113を管理する。これにより統合管理装置121は、例えばサブエリア監視装置111から直接監視結果を取得するのではなく、管理装置101を介してサブエリア監視装置111の監視結果を取得する。統合管理装置121は、取得した監視結果を個別に、或いはまとめて所定のディスプレイに表示することができる。
The integrated management device 121 integrates and manages the management devices 101 and 102 . The integrated management device 121 is provided when the number of sub-area monitoring devices is enormous and the processing load of managing the sub-area monitoring devices is large with only a plurality of management devices.
When the integrated management device 121 is provided, each of the management devices 101 and 102 is assigned sub-area monitoring devices 111 to 113 to manage. For example, management device 101 manages sub-area monitoring device 111 and sub-area monitoring device 112 , and management device 102 manages sub-area monitoring device 113 . As a result, the integrated management device 121 obtains the monitoring result of the sub-area monitoring device 111 via the management device 101 instead of obtaining the monitoring result directly from the sub-area monitoring device 111, for example. The integrated management device 121 can display the acquired monitoring results individually or collectively on a predetermined display.

サブエリア監視装置111、112、113、管理装置101、102、及び統合管理装置121は、ネットワーク130上でまったく同列に扱われる。各装置間の通信は適当な通信プロトコルにより実現される。 The sub-area monitoring devices 111, 112, 113, the management devices 101, 102, and the integrated management device 121 are treated in exactly the same manner on the network 130. FIG. Communication between each device is realized by an appropriate communication protocol.

以上のような監視システム1では、サブエリア監視装置がサブエリアの数に応じて設けられる。サブエリア監視装置とサブエリアが一対一に対応する。管理装置及び統合管理装置の数は、サブエリア監視装置の数に応じて設けられる。各管理装置101、102は、管理するサブエリア監視装置111~113の割り当てが予め設定されず、処理負荷の状況に応じて、統合管理装置121により適宜、動的に割り当てが変更されてもよい。 In the monitoring system 1 as described above, sub-area monitoring devices are provided according to the number of sub-areas. There is a one-to-one correspondence between subarea monitoring devices and subareas. The number of management devices and integrated management devices is provided according to the number of subarea monitoring devices. The sub-area monitoring devices 111 to 113 to be managed by the management devices 101 and 102 are not assigned in advance, and the assignment may be changed dynamically by the integrated management device 121 depending on the processing load. .

監視システム1は、サブエリア監視装置111~113及び監視カメラ131~134の組をグループに分割して制御する。監視カメラ131~134のグループ分けは、撮影するサブエリアや、設置条件(監視カメラの設置位置の高さ、窓際等の位置関係)、外部環境(屋外、屋内、監視対象の被写体密度等)に基づいて行われる。これらの条件の1つ或いは組み合わせにより、監視カメラ131~134のグループ分けが行われる。監視カメラ131~134のグループ分けは、予め行われてもよいが、管理装置101、102、或いは統合管理装置121により、監視結果に基づいて動的に行われてもよい。監視カメラ131~134のグループ化に応じて、管理装置101、102、或いは統合管理装置121は、サブエリア監視装置111~113のグループ化も行う。 The monitoring system 1 divides groups of sub-area monitoring devices 111 to 113 and monitoring cameras 131 to 134 into groups and controls them. The grouping of the surveillance cameras 131 to 134 depends on the sub-area to be photographed, the installation conditions (the height of the installation position of the surveillance camera, the positional relationship such as by the window), and the external environment (outdoors, indoors, subject density of the monitored object, etc.). done on the basis of The surveillance cameras 131 to 134 are grouped according to one or a combination of these conditions. The grouping of the monitoring cameras 131 to 134 may be performed in advance, or may be performed dynamically by the management apparatuses 101 and 102 or the integrated management apparatus 121 based on the monitoring results. Depending on the grouping of the monitoring cameras 131-134, the management devices 101, 102 or the integrated management device 121 also groups the sub-area monitoring devices 111-113.

(サブエリア監視装置)
図2は、サブエリア監視装置の構成例示図である。図2(a)は、サブエリア監視装置111のハードウェア構成を例示する。他のサブエリア監視装置112、113も、同じハードウェア構成である。ただし、サブエリア監視装置113には2台の監視カメラ133、134が接続される。図2(b)は、1台の監視カメラ131が接続されるサブエリア監視装置111の機能ブロック図である。図2(c)は、2台の監視カメラ133、134が接続されるサブエリア監視装置113の機能ブロック図である。
(Sub-area monitoring device)
FIG. 2 is an exemplary configuration diagram of a sub-area monitoring device. FIG. 2A illustrates the hardware configuration of the subarea monitoring device 111. As shown in FIG. Other sub-area monitoring devices 112 and 113 also have the same hardware configuration. However, two monitoring cameras 133 and 134 are connected to the sub-area monitoring device 113 . FIG. 2(b) is a functional block diagram of the sub-area monitoring device 111 to which one monitoring camera 131 is connected. FIG. 2(c) is a functional block diagram of the sub-area monitoring device 113 to which two monitoring cameras 133 and 134 are connected.

ハードウェア構成について説明する。サブエリア監視装置111は、CPU(Central Processing Unit)20、ROM(Read Only Memory)21、及びRAM(Random
Access Memory)22を備えるコンピュータシステムである。CPU20は、ROM21に格納されるコンピュータプログラムを、RAM22を作業領域に用いて実行することでサブエリア監視装置111の動作を制御する。サブエリア監視装置111は、通信インタフェース(I/F)23及び入出力I/F24を備える。通信I/F23は、ネットワーク130を介した他の装置との通信制御を行う。入出力I/F24は、監視カメラ131との通信制御を行う。CPU20は、監視カメラ131から取得する映像を、通信I/F23によりネットワーク130を介して管理装置101、102へ送信する。CPU20、ROM21、RAM22、通信I/F23、及び入出力I/F24は、バスを介して通信可能に接続される。なお、サブエリア監視装置113のように複数の監視カメラ133、134が接続される場合、入出力I/F24は、監視カメラの数に応じて設けられる。
The hardware configuration will be explained. The sub-area monitoring device 111 includes a CPU (Central Processing Unit) 20, a ROM (Read Only Memory) 21, and a RAM (Random
Access Memory) 22. The CPU 20 controls the operation of the sub-area monitoring device 111 by executing computer programs stored in the ROM 21 using the RAM 22 as a work area. The subarea monitoring device 111 has a communication interface (I/F) 23 and an input/output I/F 24 . Communication I/F 23 controls communication with other devices via network 130 . The input/output I/F 24 controls communication with the surveillance camera 131 . CPU 20 transmits images obtained from surveillance camera 131 to management devices 101 and 102 via network 130 using communication I/F 23 . The CPU 20, ROM 21, RAM 22, communication I/F 23, and input/output I/F 24 are communicably connected via a bus. When a plurality of monitoring cameras 133 and 134 are connected like the sub-area monitoring device 113, the input/output I/F 24 is provided according to the number of monitoring cameras.

サブエリア監視装置111の機能について説明する。サブエリア監視装置111は、カメラ制御部201、イベント検出部202、サブエリア監視部203、サブエリア間対応部204、及び通信制御部205として機能する。本実施形態の各機能ブロックは、CPU20が所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。 Functions of the subarea monitoring device 111 will be described. The sub-area monitoring device 111 functions as a camera control section 201 , an event detection section 202 , a sub-area monitoring section 203 , an inter-sub-area correspondence section 204 and a communication control section 205 . Each functional block of this embodiment is implemented by the CPU 20 executing a predetermined program, but at least a part of them may be implemented by hardware.

カメラ制御部201は、監視カメラ131による撮影動作を制御する。そのためにカメラ制御部201は、監視カメラ131に動作を制御するための制御信号を送信する。カメラ制御部201は、監視カメラ131に撮影時の各種パラメータ(焦点距離、露出補正、画質等)を設定する。また、カメラ制御部201は、監視カメラ131からサブエリア141の映像を取得する。 The camera control unit 201 controls photographing operations by the surveillance camera 131 . Therefore, the camera control unit 201 transmits a control signal for controlling the operation to the surveillance camera 131 . The camera control unit 201 sets various parameters (focal length, exposure correction, image quality, etc.) for the monitoring camera 131 at the time of photographing. Also, the camera control unit 201 acquires an image of the sub-area 141 from the surveillance camera 131 .

イベント検出部202は、カメラ制御部201で取得した映像に基づいて、担当するサブエリア141内に監視対象が進入した等の予め設定された事象を、イベントとして検出する。サブエリア監視部203は、イベント検出部202が検出したイベントに応じて、カメラ制御部201で取得した映像により、監視対象の検出、追跡を行い、同時に監視対象の属性情報を取得する。
サブエリア監視部203は、例えば映像のフレーム間差分とテンプレートマッチ技術とにより、監視対象の検出、追跡を行い、監視対象を監視する。テンプレートマッチ技術で用いられるテンプレート画像は、監視システム1に登録されている監視対象の画像である。サブエリア監視部203は、通信制御部205により管理装置101、102或いは統合管理装置121から予め監視対象の画像を取得している。監視対象の属性情報は、例えばサブエリア141内の映像に含まれる監視対象の数や監視対象の映像内の位置等である。また監視対象の属性情報は、イベントとして検出された監視対象を特定するための特徴を表す情報を含む。例えばイベントとして検出された監視対象が人である場合、監視対象の属性情報は、年齢や性別などの主に顔の画像から取得できる情報や、服装や体型等の全身の特徴を表す情報等を含む。サブエリア監視部203は、取得した監視対象の属性情報を、イベントが発生したことを表すイベント情報及びイベント付加情報として通信制御部205によりネットワーク130を介して管理装置101、102へ送信する。イベント情報は、発生したイベントの種類、監視対象の属性情報を含む。イベント付加情報は、典型的には、時刻や検出された位置、状況(周囲にあるものや、同行している人等)、撮影した監視カメラの撮影時のパラメータ等の情報である。サブエリア監視部203は、イベント検出部202の機能を内包していてもよい。
Based on the image acquired by the camera control unit 201, the event detection unit 202 detects, as an event, a preset event, such as the entry of a monitored object into the sub-area 141 in charge. The sub-area monitoring unit 203 detects and tracks the monitored object using the video acquired by the camera control unit 201 according to the event detected by the event detection unit 202, and simultaneously acquires the attribute information of the monitored object.
The sub-area monitoring unit 203 detects and tracks a monitoring target by using, for example, a difference between video frames and a template matching technique, and monitors the monitoring target. A template image used in the template matching technique is a monitored image registered in the monitoring system 1 . The sub-area monitoring unit 203 acquires images to be monitored in advance from the management devices 101 and 102 or the integrated management device 121 by the communication control unit 205 . The monitoring target attribute information is, for example, the number of monitoring targets included in the video within the sub-area 141, the positions of the monitoring targets within the video, and the like. The monitoring target attribute information also includes information representing characteristics for identifying the monitoring target detected as an event. For example, if the monitored object detected as an event is a person, the attribute information of the monitored object includes information such as age and gender, which can be obtained mainly from facial images, and information representing the characteristics of the whole body, such as clothing and body shape. include. The sub-area monitoring unit 203 transmits the acquired attribute information of the monitored object to the management apparatuses 101 and 102 via the network 130 by the communication control unit 205 as event information and additional event information indicating that an event has occurred. The event information includes the type of event that occurred and the attribute information of the monitoring target. The additional event information is typically information such as the time, detected position, situation (surrounding objects, people accompanying the subject, etc.), and parameters of the monitoring camera used to capture the image. Sub-area monitoring section 203 may include the function of event detection section 202 .

サブエリア間対応部204は、他のサブエリア142、143から担当するサブエリア141に進入する可能性のある監視対象の属性情報を、通信制御部205によりネットワーク130を介して管理装置101、102から取得する。サブエリア間対応部204は、サブエリア監視部203がサブエリア141に進入した監視対象を検出した場合に、該監視対象の属性情報をサブエリア監視部203から取得する。サブエリア間対応部204は、サブエリア監視部203から取得した属性情報と、管理装置101、102から取得した属性情報との対応付けを行う。すなわちサブエリア間対応部204は、隣接するサブエリア142で把握されていた監視対象と、担当するサブエリア141内で把握された監視対象との対応付けを行う。サブエリア間対応部204は、対応付けの結果を、通信制御部205によりネットワーク130を介して管理装置101、102へ送信する。 The inter-subarea correspondence unit 204 transmits the attribute information of the monitoring targets that may enter the subarea 141 in charge from the other subareas 142 and 143 to the management devices 101 and 102 via the network 130 by the communication control unit 205 . Get from When the sub-area monitoring unit 203 detects a monitoring target that has entered the sub-area 141 , the inter-sub-area correspondence unit 204 acquires the attribute information of the monitoring target from the sub-area monitoring unit 203 . Inter-subarea correspondence section 204 associates the attribute information acquired from subarea monitoring section 203 with the attribute information acquired from management devices 101 and 102 . In other words, inter-subarea correspondence unit 204 associates the monitoring target grasped in adjacent subarea 142 with the monitoring target grasped in subarea 141 in charge. Inter-subarea correspondence section 204 transmits the association result to management devices 101 and 102 via network 130 by communication control section 205 .

サブエリア監視装置113の機能について説明する。サブエリア監視装置111は、第1、第2カメラ制御部401、411、第1、第2サブエリア監視部402、412、統合処理部403、サブエリア間対応部404、及び通信制御部405として機能する。本実施形態の各機能ブロックは、サブエリア監視装置113のCPUが所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。 Functions of the sub-area monitoring device 113 will be described. The sub-area monitoring device 111 includes first and second camera control units 401 and 411, first and second sub-area monitoring units 402 and 412, an integration processing unit 403, an inter-subarea correspondence unit 404, and a communication control unit 405. Function. Each functional block of this embodiment is realized by executing a predetermined program by the CPU of the sub-area monitoring device 113, but at least a part thereof may be realized by hardware.

第1カメラ制御部401は、監視カメラ133による撮影動作を制御する。そのために第1カメラ制御部401は、監視カメラ133に動作を制御するための制御信号を送信する。第1カメラ制御部401は、監視カメラ133に撮影時の各種パラメータを設定する。また、第1カメラ制御部401は、監視カメラ133からサブエリア143内の監視カメラ133の撮影領域の映像を取得する。
第2カメラ制御部411は、監視カメラ134による撮影動作を制御する。そのために第2カメラ制御部411は、監視カメラ134に動作を制御するための制御信号を送信する。第2カメラ制御部411は、監視カメラ134に撮影時の各種パラメータを設定する。また、第2カメラ制御部411は、監視カメラ134からサブエリア143内の監視カメラ134の撮影領域の映像を取得する。
A first camera control unit 401 controls the shooting operation of the monitoring camera 133 . Therefore, the first camera control unit 401 transmits a control signal for controlling the operation to the surveillance camera 133 . The first camera control unit 401 sets various parameters for the monitoring camera 133 at the time of shooting. Also, the first camera control unit 401 acquires the image of the imaging area of the monitoring camera 133 within the sub-area 143 from the monitoring camera 133 .
A second camera control unit 411 controls the shooting operation of the monitoring camera 134 . Therefore, the second camera control unit 411 transmits a control signal for controlling the operation to the surveillance camera 134 . The second camera control unit 411 sets various parameters for the surveillance camera 134 at the time of photographing. Also, the second camera control unit 411 acquires the image of the imaging area of the monitoring camera 134 in the sub-area 143 from the monitoring camera 134 .

第1サブエリア監視部402は、第1カメラ制御部401で取得した映像により、監視対象の検出、追跡を行い、同時に監視対象の属性情報を取得する。第2サブエリア監視部412は、第2カメラ制御部411で取得した映像により、監視対象の検出、追跡を行い、同時に監視対象の属性情報を取得する。第1サブエリア監視部402及び第2サブエリア監視部412は、それぞれ、イベント検出部202とサブエリア監視部203とを組み合わせた機能を有する。第1サブエリア監視部402及び第2サブエリア監視部412は、取得した監視対象の属性情報を、監視結果として統合処理部403へ送信する。 The first sub-area monitoring unit 402 detects and tracks the monitored object from the image acquired by the first camera control unit 401, and simultaneously acquires the attribute information of the monitored object. The second sub-area monitoring unit 412 detects and tracks the monitored object from the image acquired by the second camera control unit 411, and simultaneously acquires the attribute information of the monitored object. The first sub-area monitoring section 402 and the second sub-area monitoring section 412 each have the function of combining the event detection section 202 and the sub-area monitoring section 203 . The first sub-area monitoring unit 402 and the second sub-area monitoring unit 412 transmit the acquired attribute information of the monitoring target to the integrated processing unit 403 as a monitoring result.

統合処理部403は、第1サブエリア監視部402及び第2サブエリア監視部412から取得する監視結果を統合して、サブエリア143全体の監視結果を生成する。統合処理部403は、例えば監視対象の個数や位置、監視対象を特定するための情報特徴を表す情報等の属性情報を、比較、修正するなどして統合した属性情報を、最終の監視結果として生成する。統合処理部403は、生成した最終の監視結果を、通信制御部405によりネットワーク130を介して管理装置101、102へ送信する。 The integration processing unit 403 integrates the monitoring results obtained from the first sub-area monitoring unit 402 and the second sub-area monitoring unit 412 to generate a monitoring result for the entire sub-area 143 . The integration processing unit 403 compares and corrects attribute information such as the number and positions of monitoring targets and information representing information characteristics for identifying monitoring targets, and outputs the integrated attribute information as the final monitoring result. Generate. The integration processing unit 403 transmits the generated final monitoring result to the management apparatuses 101 and 102 via the network 130 by the communication control unit 405 .

サブエリア間対応部404は、サブエリア間対応部204と同様の処理により、監視対象の対応付けを行う。サブエリア間対応部404は、統合処理部403から取得した属性情報と、管理装置101、102から取得した属性情報との対応付けにより、監視対象の対応付けを行う。サブエリア間対応部404は、対応付けの結果を、通信制御部405によりネットワーク130を介して管理装置101、102へ送信する。 Inter-subarea correspondence section 404 associates monitoring targets by the same processing as inter-subarea correspondence section 204 . The inter-subarea correspondence unit 404 associates the monitoring targets by associating the attribute information acquired from the integration processing unit 403 with the attribute information acquired from the management devices 101 and 102 . Inter-subarea correspondence section 404 transmits the association result to management devices 101 and 102 via network 130 by communication control section 405 .

以上、監視カメラが1台接続されるサブエリア監視装置111と監視カメラが2台接続されるサブエリア監視装置113の構成について説明した。サブエリア監視装置に接続される監視カメラは、さらに多くてもよい。サブエリア監視装置は、接続される監視カメラの台数に応じた数のカメラ制御部及びサブエリア監視部を備えることになる。 The configurations of the sub-area monitoring device 111 to which one monitoring camera is connected and the sub-area monitoring device 113 to which two monitoring cameras are connected have been described above. More surveillance cameras may be connected to the sub-area surveillance device. The sub-area monitoring device is provided with a number of camera control units and sub-area monitoring units corresponding to the number of connected monitoring cameras.

(管理装置)
管理装置101、102は、各サブエリア監視装置111~113から取得する各種情報に基づいて、サブエリア141~143間で移動する監視対象の追跡を行う。また、管理装置101、102は、各サブエリア監視装置111~113から取得する各種情報に基づいて、各サブエリア監視装置111~113及び各監視カメラ131~134のパラメータの設定を行う。この設定により、各サブエリア監視装置111~113及び各監視カメラ131~134は、監視対象の検出及び追跡を容易にする映像の取得及び映像解析が可能となる。図3は、このような処理を行う管理装置の構成例示図である。図3(a)は、管理装置101のハードウェア構成を例示する。図3(b)は、管理装置101の機能ブロック図である。管理装置102も、管理装置101と同じハードウェア及び機能ブロックの構成である。
(Management device)
The management devices 101 and 102 track the monitored objects moving between the sub-areas 141-143 based on various information obtained from the respective sub-area monitoring devices 111-113. Also, the management devices 101 and 102 set the parameters of the sub-area monitoring devices 111-113 and the monitoring cameras 131-134 based on various information acquired from the sub-area monitoring devices 111-113. This configuration enables each sub-area monitor 111-113 and each monitor camera 131-134 to capture and analyze video to facilitate detection and tracking of monitored objects. FIG. 3 is an exemplary configuration diagram of a management device that performs such processing. 3A illustrates the hardware configuration of the management device 101. FIG. FIG. 3B is a functional block diagram of the management device 101. As shown in FIG. The management device 102 also has the same hardware and functional block configuration as the management device 101 .

ハードウェア構成について説明する。管理装置101は、CPU30、ROM31、及びRAM32を備えるコンピュータシステムである。CPU30は、ROM31に格納されるコンピュータプログラムを、RAM32を作業領域に用いて実行することで管理装置101の動作を制御する。管理装置101は、通信I/F33、入力I/F34、出力I/F35、及び大容量記憶装置36を備える。CPU30、ROM31、RAM32、通信I/F33、入力I/F34、出力I/F35、及び大容量記憶装置36は、バスを介して通信可能に接続される。 The hardware configuration will be explained. The management device 101 is a computer system that includes a CPU 30, a ROM 31, and a RAM 32. The CPU 30 controls the operation of the management device 101 by executing computer programs stored in the ROM 31 using the RAM 32 as a work area. The management device 101 has a communication I/F 33 , an input I/F 34 , an output I/F 35 and a mass storage device 36 . The CPU 30, ROM 31, RAM 32, communication I/F 33, input I/F 34, output I/F 35, and mass storage device 36 are communicably connected via a bus.

通信I/F33は、ネットワーク130を介した他の装置との通信制御を行う。入力I/F34は、入力装置37との通信制御を行う。入力装置37は、キーボード、ポインティングデバイス、タッチパネル等であり、ユーザがデータや指示を入力する際に用いられる。入力I/F34は、入力装置37から入力されるデータや指示をCPU30に送信する。出力I/F35は、出力装置38との通信制御を行う。出力装置38は、例えばディスプレイである。出力I/F35は、CPU30の指示により、出力装置38に画像を表示させる。大容量記憶装置36は、HDD(Hard Disk Drive)やSSD(Solid State Drive)であり、監視カメラが撮影した映像を格納する。大容量記憶装置36は、管理装置101がサブエリア監視装置111~113の少なくとも一つから取得する映像を格納することになる。大容量記憶装置36は、監視システム1に登録された監視対象の画像を格納する。CPU30は、監視対象の画像を予めサブエリア監視装置111~113へ送信する。 Communication I/F 33 controls communication with other devices via network 130 . The input I/F 34 controls communication with the input device 37 . The input device 37 is a keyboard, pointing device, touch panel, or the like, and is used when the user inputs data or instructions. The input I/F 34 transmits data and instructions input from the input device 37 to the CPU 30 . The output I/F 35 controls communication with the output device 38 . The output device 38 is, for example, a display. The output I/F 35 causes the output device 38 to display an image according to an instruction from the CPU 30 . The large-capacity storage device 36 is a HDD (Hard Disk Drive) or SSD (Solid State Drive), and stores images captured by the surveillance camera. The mass storage device 36 will store images that the management device 101 acquires from at least one of the sub-area monitoring devices 111-113. The mass storage device 36 stores images of monitored objects registered in the monitoring system 1 . The CPU 30 transmits images to be monitored to the sub-area monitoring devices 111 to 113 in advance.

管理装置101の機能について説明する。管理装置101は、入力制御部301、状況把握部302、通信制御部303、パラメータ決定部304、及び出力制御部305として機能する。本実施形態の各機能ブロックは、CPU30が所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。 Functions of the management device 101 will be described. The management device 101 functions as an input control unit 301 , a situation grasping unit 302 , a communication control unit 303 , a parameter determination unit 304 and an output control unit 305 . Each functional block of this embodiment is implemented by the CPU 30 executing a predetermined program, but at least a part of them may be implemented by hardware.

入力制御部301は、入力装置37からの指示等の入力を受け付ける。ユーザは、例えば入力装置37から、特定の監視対象の追跡や、特定のサブエリア内の状況把握などの指示を入力する。また、監視対象の画像の登録は、入力制御部301が入力装置37から該画像を受け付け、該監視対象を特定する各種情報が入力されることで行われる。 The input control unit 301 receives inputs such as instructions from the input device 37 . For example, the user inputs instructions from the input device 37, such as tracking of a specific monitored object, grasping of the situation in a specific sub-area, and the like. The registration of the image of the monitoring target is performed by the input control unit 301 receiving the image from the input device 37 and inputting various information specifying the monitoring target.

状況把握部302は、入力制御部301で受け付けた入力装置37からの指示に応じて、例えば特定の監視対象の追跡、特定のサブエリアの状況把握等の処理を行う。状況把握部302は、受け付けた指示に応じた処理に必要なデータを、通信制御部303を介して各サブエリア監視装置111~113に要求する。要求するデータは、例えば映像や属性情報である。状況把握部302は、要求に応じてサブエリア監視装置111~113のいずれかから取得したデータに応じて、処理を実行する。状況把握部302は、必要なデータを所持するサブエリア監視装置が明確な場合には、該サブエリア監視装置に対してデータの要求を行い、該データを取得する。状況把握部302の処理結果及び処理に用いたデータ(映像、属性情報等)は、通信制御部303を介して統合管理装置121へ送信されてもよい。 The status grasping unit 302 performs processing such as tracking of a specific monitoring target, grasping of the situation of a specific sub-area, etc., according to instructions from the input device 37 received by the input control unit 301 . The status grasping unit 302 requests data necessary for processing according to the received instruction from each of the sub-area monitoring devices 111 to 113 via the communication control unit 303 . The requested data is, for example, video and attribute information. The status grasping unit 302 executes processing according to data acquired from any one of the sub-area monitoring devices 111 to 113 in response to a request. If it is clear which sub-area monitoring device possesses the necessary data, the status grasping unit 302 requests the sub-area monitoring device for the data and acquires the data. The processing result of the status grasping unit 302 and the data (video, attribute information, etc.) used for the processing may be transmitted to the integrated management device 121 via the communication control unit 303 .

パラメータ決定部304は、通信制御部303を介して各サブエリア監視装置111~113から各サブエリア141~143で発生したイベントのイベント情報及びイベント付加情報を取得する。パラメータ決定部304は、取得したイベント情報及びイベント付加情報に応じて、監視カメラ131~134の適切な制御パラメータ等の設定情報を生成する。制御パラメータは、例えば撮影方向、焦点距離、解像度、シャッタースピード、絞り(F値)、測光モード、焦点距離、露出補正ステップ値、色空間、フレームレート等である。 The parameter determination unit 304 acquires event information and additional event information of events occurring in the subareas 141 to 143 from the subarea monitoring devices 111 to 113 via the communication control unit 303 . The parameter determining unit 304 generates setting information such as appropriate control parameters for the monitoring cameras 131 to 134 according to the acquired event information and event additional information. Control parameters include, for example, shooting direction, focal length, resolution, shutter speed, aperture (F number), photometry mode, focal length, exposure correction step value, color space, frame rate, and the like.

パラメータ決定部304は、決定した制御パラメータを通信制御部303を介して各サブエリア監視装置111~113へ送信する。パラメータ決定部304は、例えばイベント情報からサブエリアに監視対象である人物が進入したことを確認すると、該人物を撮影しやすいように、対応する監視カメラの画角調整や、照明方向に応じた露出の変更を行うように制御パラメータを決定する。パラメータ決定部304は、例えばイベント情報によるサブエリア内の状況と監視カメラに設定可能な制御パラメータの設定内容を表す設定情報とを対応付けたテーブルを保持する。パラメータ決定部304は、このテーブルを参照することで制御パラメータを決定する。制御パラメータは、通信制御部303を介して統合管理装置121へ送信されてもよい。パラメータ決定部304の処理の内容や制御パラメータの詳細については後述する。 Parameter determination section 304 transmits the determined control parameters to sub-area monitoring devices 111 to 113 via communication control section 303 . For example, when it is confirmed from the event information that a person to be monitored has entered a sub-area, the parameter determining unit 304 adjusts the angle of view of the corresponding surveillance camera and adjusts the angle of view of the corresponding surveillance camera according to the lighting direction so that the person can be easily photographed. Determining control parameters to effect changes in exposure. The parameter determination unit 304 holds a table in which, for example, the situation in the sub-area based on the event information and the setting information representing the setting contents of the control parameters that can be set for the surveillance cameras are associated with each other. The parameter determination unit 304 determines control parameters by referring to this table. Control parameters may be transmitted to the integrated management device 121 via the communication control unit 303 . Details of the processing performed by the parameter determination unit 304 and the control parameters will be described later.

出力制御部305は、状況把握部302による処理の結果を出力装置38、例えばディスプレイに表示する。例えば、特定のサブエリア内の状況を把握する場合、状況把握部302は、把握したいサブエリアを担当するサブエリア監視装置から必要とするデータを取得する。必要とするデータは、当該サブエリアに存在する監視対象の個数やその位置等の属性情報、サブエリア監視装置間での監視対象の対応付け結果等である。状況把握部302は、必要とするデータを取得すると、例えば予め保持する各サブエリア141~143の地図画像に、監視対象の現在位置やその移動規制をプロットして出力画像を生成する。出力画像は、出力制御部305によりディスプレイに表示される。 The output control unit 305 displays the result of processing by the situation grasping unit 302 on the output device 38, for example, a display. For example, when grasping the situation in a specific sub-area, the situation grasping unit 302 acquires necessary data from the sub-area monitoring device in charge of the sub-area to be grasped. Required data include attribute information such as the number of monitored objects existing in the sub-area and their positions, and the result of association of monitored objects between sub-area monitoring devices. When the necessary data is acquired, the situation grasping unit 302 plots the current position of the monitoring target and its movement restrictions on the pre-stored map images of the respective sub-areas 141 to 143, for example, to generate an output image. The output image is displayed on the display by the output control unit 305 .

(統合管理装置)
統合管理装置121は、管理装置101、102を介して各サブエリア監視装置111~113から取得する各種情報に基づいて、サブエリア141~143間で移動する監視対象の追跡を行う。また、統合管理装置121は、管理装置101、102及び各サブエリア監視装置111~113から取得する各種情報に基づいて、各サブエリア監視装置111~113及び各監視カメラ131~134のパタラメータの設定を行う。この設定により、各サブエリア監視装置111~113及び各監視カメラ131~134は、監視対象の検出及び追跡を容易にする映像の取得及び映像解析が可能となる。図4は、このような処理を行う統合管理装置121の構成例示図である。図4(a)は、統合管理装置121のハードウェア構成を例示する。図4(b)は、統合管理装置121の機能ブロック図である。
(Integrated management device)
The integrated management device 121 tracks monitoring objects moving between the subareas 141 to 143 based on various information acquired from the respective subarea monitoring devices 111 to 113 via the management devices 101 and 102 . Also, the integrated management device 121 sets the parameters of the sub-area monitoring devices 111-113 and the monitoring cameras 131-134 based on various information acquired from the management devices 101 and 102 and the sub-area monitoring devices 111-113. I do. This configuration enables each sub-area monitor 111-113 and each monitor camera 131-134 to capture and analyze video to facilitate detection and tracking of monitored objects. FIG. 4 is an exemplary configuration diagram of the integrated management device 121 that performs such processing. 4A illustrates the hardware configuration of the integrated management device 121. FIG. FIG. 4B is a functional block diagram of the integrated management device 121. As shown in FIG.

ハードウェア構成について説明する。統合管理装置121は、CPU40、ROM41、及びRAM42を備えるコンピュータシステムである。CPU40は、ROM41に格納されるコンピュータプログラムを、RAM42を作業領域に用いて実行することで統合管理装置121の動作を制御する。統合管理装置121は、通信I/F43、入力I/F44、出力I/F45、及び大容量記憶装置46を備える。CPU40、ROM41、RAM42、通信I/F43、入力I/F44、出力I/F45、及び大容量記憶装置46は、バスを介して通信可能に接続される。 The hardware configuration will be explained. The integrated management device 121 is a computer system that includes a CPU 40, a ROM 41, and a RAM 42. The CPU 40 controls the operation of the integrated management device 121 by executing computer programs stored in the ROM 41 using the RAM 42 as a work area. Integrated management device 121 includes communication I/F 43 , input I/F 44 , output I/F 45 , and mass storage device 46 . The CPU 40, ROM 41, RAM 42, communication I/F 43, input I/F 44, output I/F 45, and mass storage device 46 are communicably connected via a bus.

通信I/F43は、ネットワーク130を介した他の装置との通信制御を行う。入力I/F44は、入力装置47との通信制御を行う。入力装置47は、キーボード、ポインティングデバイス、タッチパネル等であり、ユーザがデータや指示を入力する際に用いられる。入力I/F44は、入力装置47から入力されるデータや指示をCPU40に送信する。出力I/F45は、出力装置48との通信制御を行う。出力装置48は、例えばディスプレイである。出力I/F45は、CPU40の指示により、出力装置48に画像を表示させる。なお、統合管理装置121に接続される出力装置48と、管理装置101、102に接続される出力装置38とは、少なくとも一方に設けられていればよい。大容量記憶装置46は、HDDやSSDであり、監視カメラ131~134が撮影した映像を格納する。大容量記憶装置46は、監視システム1に登録される監視対象の画像を格納する。CPU40は、監視対象の画像を予め管理装置101、102及びサブエリア監視装置111~113へ送信する。 Communication I/F 43 controls communication with other devices via network 130 . The input I/F 44 controls communication with the input device 47 . The input device 47 is a keyboard, pointing device, touch panel, or the like, and is used when the user inputs data or instructions. The input I/F 44 transmits data and instructions input from the input device 47 to the CPU 40 . The output I/F 45 controls communication with the output device 48 . The output device 48 is, for example, a display. The output I/F 45 causes the output device 48 to display an image according to an instruction from the CPU 40 . At least one of the output device 48 connected to the integrated management device 121 and the output device 38 connected to the management devices 101 and 102 may be provided. A large-capacity storage device 46 is an HDD or SSD, and stores images captured by the surveillance cameras 131-134. The mass storage device 46 stores images of monitored objects registered in the monitoring system 1 . The CPU 40 transmits images to be monitored in advance to the management devices 101 and 102 and the sub-area monitoring devices 111-113.

統合管理装置121の機能について説明する。統合管理装置121は、入力制御部501、情報管理部502、通信制御部503、統合パラメータ決定部504、及び出力制御部505として機能する。本実施形態の各機能ブロックは、CPU40が所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。 Functions of the integrated management device 121 will be described. The integrated management device 121 functions as an input control section 501 , an information management section 502 , a communication control section 503 , an integration parameter determination section 504 and an output control section 505 . Each functional block of this embodiment is implemented by the CPU 40 executing a predetermined program, but at least a part of them may be implemented by hardware.

入力制御部501は、入力装置47からの指示等の入力を受け付ける。例えば監視対象の画像の登録は、入力制御部501が入力装置47から該画像を受け付け、該監視対象を特定する各種情報が入力されることで行われる。 The input control unit 501 receives inputs such as instructions from the input device 47 . For example, registration of an image of a monitoring target is performed by the input control unit 501 accepting the image from the input device 47 and inputting various information specifying the monitoring target.

情報管理部502は、通信制御部503を介して管理装置101、102及びサブエリア監視装置111~113から必要な情報を取得する。例えば、予め登録されていた監視対象の画像(例えば顔画像)と一致する人物が検出された場合、情報管理部502は、検出された時刻、カメラ位置、どの顔画像と一致したか等のイベント情報及びイベント付加情報を取得する。その際、情報管理部502は、該当人物を検出した監視カメラの撮影時のパラメータ及び映像も一緒に取得してもよい。情報管理部502は、取得した情報を編集した画像を出力制御部505により出力装置48、例えばディスプレイに表示させる。 Information management unit 502 acquires necessary information from management devices 101 and 102 and sub-area monitoring devices 111 to 113 via communication control unit 503 . For example, when a person matching a pre-registered monitoring target image (for example, a face image) is detected, the information management unit 502 stores event information such as the detection time, camera position, and which face image matches. Get information and additional event information. At that time, the information management unit 502 may also acquire the parameters and the image at the time of shooting of the surveillance camera that detected the person. The information management unit 502 causes the output control unit 505 to display an image obtained by editing the acquired information on the output device 48, for example, a display.

統合パラメータ決定部504は、監視システム1の全体的な制御パラメータを決定し、通信制御部503を介して管理装置101、102へ送信する。統合パラメータ決定部504の機能は管理装置101、102のパラメータ決定部304とほぼ同様である。 The integrated parameter determination unit 504 determines overall control parameters for the monitoring system 1 and transmits them to the management devices 101 and 102 via the communication control unit 503 . The functions of the integrated parameter determination unit 504 are substantially the same as those of the parameter determination units 304 of the management apparatuses 101 and 102 .

図5は、出力装置48(ディスプレイ)に表示される画像の例示図である。出力装置38にも同様の画像が表示可能である。ディスプレイには、情報管理部502で生成された画像が表示される。以下、画像を分割画面601、602、603に3分割した例を説明するが、この限りではない。 FIG. 5 is an exemplary diagram of an image displayed on the output device 48 (display). A similar image can also be displayed on the output device 38 . An image generated by the information management unit 502 is displayed on the display. An example in which an image is divided into three divided screens 601, 602, and 603 will be described below, but the present invention is not limited to this.

分割画面601は、監視対象である広域エリア140の全体を表示する。分割画面601は、広域エリア140の全体の地図上に、サブエリア141~143を明示し、監視カメラ131~134の位置が重畳表示される。分割画面601は、地図に代えて、予め用意した俯瞰の映像にサブエリア141~143を明示し、監視カメラ131~134の位置を重畳表示されてもよい。 A split screen 601 displays the entire wide area 140 to be monitored. The split screen 601 clearly shows the sub-areas 141 to 143 on the map of the entire wide area 140, and superimposes the positions of the monitoring cameras 131 to 134 on it. Instead of the map, the split screen 601 may clearly show the sub-areas 141 to 143 on a previously prepared bird's-eye view image, and superimpose the positions of the monitoring cameras 131 to 134 thereon.

分割画面602は、特定の監視カメラの映像をライブ表示している。監視カメラの選択は、分割画面601の地図表示から、入力装置47により選択可能となっている。ユーザは、ポインティングデバイスのような入力装置47により、サブエリアを選択後、サブエリアを拡大表示し、さらに該サブエリア内にある監視カメラを選択する。このような操作により、該監視カメラのライブ映像が分割画面602に表示される。図5の例では、サブエリア141が選択されており、監視カメラ131のライブ映像が表示されている。なお分割画面602に表示されるライブ映像は、ユーザの指定ではなく、予め設定した条件に該当する監視カメラの映像であってもよい。例えば、統合管理装置121は、特定の監視対象が検出された場合、該イベントを検出したサブエリア監視装置から当該監視カメラの映像を取得して表示してもよい。 A split screen 602 displays live images of a specific surveillance camera. Selection of the monitoring camera can be made by the input device 47 from the map display of the split screen 601 . After selecting a sub-area with an input device 47 such as a pointing device, the user enlarges and displays the sub-area, and further selects a monitoring camera within the sub-area. Through such an operation, the live image of the surveillance camera is displayed on the split screen 602 . In the example of FIG. 5, the subarea 141 is selected and the live image of the surveillance camera 131 is displayed. Note that the live video displayed on the split screen 602 may be video from a surveillance camera that meets a preset condition instead of being specified by the user. For example, when a specific monitoring target is detected, the integrated management device 121 may acquire and display the image of the monitoring camera from the sub-area monitoring device that detected the event.

分割画面603は、特定のイベントが発生したときのイベント情報及びイベント付加情報を表示している例である。特定のイベントとは、例えば、前述のような特定の監視対象(人物)の検出等である。表示するイベント情報及びイベント付加情報は、例えば、特定した人物の登録名、時刻、カメラ位置、撮影時の監視カメラのパラメータ(焦点距離、露出、画質等)である。監視カメラのパラメータは、ユーザの指定により分割画面603から変更できるようにしてもよい。分割画面603は、特定の監視カメラのパラメータだけではなく、特定のサブエリアに属する全ての監視カメラのパラメータを表示するようにしてもよい。この場合、特定のサブエリアに属する全ての監視カメラのパラメータが、ユーザの指定により変更可能であってもよい。監視カメラのパラメータを変更する場合、ユーザが入力装置47によりパラメータの項目を選択して、数値の入力などによりパラメータ値を変更する。統合パラメータ決定部504は、このように入力されたパラメータ値により監視カメラのパラメータを変更する。 A split screen 603 is an example of displaying event information and additional event information when a specific event occurs. A specific event is, for example, detection of a specific monitoring target (person) as described above. The event information and additional event information to be displayed are, for example, the registered name of the specified person, time, camera position, and monitoring camera parameters (focal length, exposure, image quality, etc.) at the time of shooting. The parameters of the monitoring camera may be changed from the split screen 603 according to the user's designation. The split screen 603 may display not only the parameters of a specific surveillance camera, but also the parameters of all surveillance cameras belonging to a specific sub-area. In this case, the parameters of all surveillance cameras belonging to a specific sub-area may be changeable according to the user's designation. When changing the parameters of the monitoring camera, the user selects a parameter item using the input device 47 and changes the parameter value by inputting a numerical value or the like. The integrated parameter determination unit 504 changes the parameters of the monitoring camera based on the parameter values thus input.

パラメータの表示及びパラメータの指定の対象となる監視カメラは、予めユーザが指定する条件に一致する監視カメラに限定されてもよい。条件は、入力装置47から入力されて情報管理部502に設定される。例えば、ユーザは、屋外に配置される監視カメラや、映っている被写体の種類(人物、車、動体、登録人物等)を条件として指定する。この条件に合致する監視カメラのパラメータが、表示や指定の対象に限定される。これにより、ユーザが、カメラのパラメータの確認や設定を個別に行う手間を軽減することができる。 Surveillance cameras for which parameters are displayed and parameters are specified may be limited to surveillance cameras that match conditions specified by the user in advance. The conditions are input from the input device 47 and set in the information management unit 502 . For example, the user designates a surveillance camera placed outdoors and the type of subject (person, car, moving body, registered person, etc.) as a condition. The parameters of surveillance cameras that meet this condition are limited to those that can be displayed or specified. As a result, it is possible to reduce the user's trouble of checking and setting camera parameters individually.

統合管理装置121は、撮影した映像が表示される監視カメラを、撮影した監視対象に応じて決定してもよい。例えば、情報管理部502は、特定の人物の動線を、顔認証技術等を用いて推定、予測する。情報管理部502は、特定の人物を撮影した監視カメラだけではなく、推定、予測した動線を撮影範囲に含む複数の監視カメラのカメラパラメータを表示、設定可能とする。 The integrated management device 121 may determine the monitoring camera that displays the captured image according to the monitored object that has captured the image. For example, the information management unit 502 estimates and predicts the flow line of a specific person using face recognition technology or the like. The information management unit 502 can display and set the camera parameters of not only the surveillance camera that has shot a specific person, but also the camera parameters of a plurality of surveillance cameras whose shooting ranges include estimated and predicted flow lines.

(監視カメラの撮影条件設定処理)
以上のような本実施形態の監視システム1は、監視対象の移動にともなって監視カメラ131~134の撮影条件(カメラパラメータ)の設定を変更することで、より好適に監視対象の検出、追跡を行うことができる。図6は、監視対象が進入した等の所定のイベントが発生した際に、監視カメラ131~134の撮影条件等を設定する設定情報を生成する処理を表すフローチャートである。ここでは、管理装置101が監視カメラ131~134の設定情報を生成する処理を行う例を説明するが、管理装置102や統合管理装置121が処理を行ってもよい。
(Surveillance camera imaging condition setting processing)
The monitoring system 1 of the present embodiment as described above changes the setting of the photographing conditions (camera parameters) of the monitoring cameras 131 to 134 as the monitored object moves, thereby detecting and tracking the monitored object more preferably. It can be carried out. FIG. 6 is a flow chart showing a process of generating setting information for setting shooting conditions and the like of the monitoring cameras 131 to 134 when a predetermined event such as the entry of an object to be monitored occurs. Here, an example in which the management apparatus 101 performs processing for generating setting information for the surveillance cameras 131 to 134 will be described, but the management apparatus 102 or the integrated management apparatus 121 may perform the processing.

管理装置101は、サブエリア監視装置111~113のいずれかから、担当するサブエリア141~143内で発生したイベントを検出したことを表す通知を取得する(S101)。例えば管理装置101は、イベントを検出したことを表す通知としてイベント情報及びイベント付加情報を取得する。管理装置101は、取得したイベント情報及びイベント付加情報を保存する。
サブエリア監視装置111~113は、例えば担当するサブエリア141~143に予め登録される監視対象(人)が出現する場合に、人体検出及び顔画像によるマッチング技術を用いて該監視対象が出現したというイベントを検出する。サブエリア監視装置111~113は、監視カメラ131~134から取得した映像内の監視対象の画像と、予め登録された監視対象の画像とを、公知の顔認証技術を用いて比較する。サブエリア監視装置111~113は、比較結果が所定の類似度となった場合に、イベントを検出したと判断して、管理装置101にイベントの発生を通知する。
The management device 101 obtains from any of the subarea monitoring devices 111 to 113 a notification indicating that an event that has occurred in the subareas 141 to 143 it is in charge of has been detected (S101). For example, the management device 101 acquires event information and additional event information as a notification indicating that an event has been detected. The management device 101 saves the acquired event information and additional event information.
The sub-area monitoring devices 111-113, for example, when a pre-registered monitoring target (person) appears in the sub-areas 141-143 they are in charge of, use human body detection and face image matching technology to detect whether the monitoring target has appeared. Detect the event. The sub-area monitoring devices 111 to 113 compare the images of the monitoring targets in the video acquired from the monitoring cameras 131 to 134 with the images of the monitoring targets registered in advance using known face recognition technology. When the comparison results reach a predetermined degree of similarity, the subarea monitoring devices 111 to 113 determine that an event has been detected, and notify the management device 101 of the occurrence of the event.

監視対象が自動車等の場合、ナバープレート等の監視対象毎に固有の情報が予め登録される。サブエリア監視装置111~113は、予め登録された情報と、監視カメラ131~134から取得した映像内の監視対象の画像と、の比較によりイベントを検出する。 When the monitored object is an automobile or the like, unique information is registered in advance for each monitored object such as a license plate. The sub-area monitoring devices 111-113 detect an event by comparing pre-registered information with images of monitored objects in video images acquired from the monitoring cameras 131-134.

イベント検出の通知を取得した管理装置101は、取得したイベントの内容に応じて複数のサブエリア監視装置111~113から所定数のサブエリア監視装置をグループ化する(S102)。管理装置101は、典型的には、監視対象の現在位置と、サブエリア141~143間の距離的な近さとに基づいて、グループ化を行う。例えば管理装置101は、監視対象の現在位置を含むサブエリアに隣接するサブエリアを担当するサブエリア監視装置をグループ化する。また、管理装置101は、サブエリアの状況、例えば、監視カメラ131~134が撮影した映像内の人の混雑度や照明等の条件が近いもので、グループ化を行ってもよい。 The management device 101 that has received the notification of event detection groups a predetermined number of sub-area monitoring devices from the sub-area monitoring devices 111 to 113 according to the content of the obtained event (S102). The management device 101 typically performs grouping based on the current location of the monitored object and the closeness in distance between the sub-areas 141-143. For example, the management device 101 groups sub-area monitoring devices in charge of sub-areas adjacent to the sub-area including the current position of the monitoring target. In addition, the management device 101 may group sub-areas according to conditions such as crowding of people in the images captured by the monitoring cameras 131 to 134, lighting conditions, and the like.

管理装置101は、イベント情報及びイベント付加情報に基づいて、グループ化したサブエリア監視装置に接続される各監視カメラに設定する設定情報を決定する(S103)。管理装置101は、設定情報をグループ化したサブエリア監視装置に送信する。サブエリア監視装置は、取得した設定情報に基づいて、監視カメラの撮影条件等を設定する。設定情報は、典型的にはカメラパラメータである。例えば、設定情報は、撮影方向、焦点距離、解像度、シャッタースピード、絞り(F値)、測光モード、焦点距離、露出補正ステップ値、色空間、フレームレート等である。 The management device 101 determines setting information to be set for each monitoring camera connected to the grouped sub-area monitoring devices, based on the event information and the additional event information (S103). The management device 101 transmits the setting information to the grouped sub-area monitoring devices. The sub-area monitoring device sets shooting conditions and the like of the monitoring camera based on the acquired setting information. The setting information is typically camera parameters. For example, the setting information includes shooting direction, focal length, resolution, shutter speed, aperture (F value), photometry mode, focal length, exposure correction step value, color space, frame rate, and the like.

図7は、イベントと設定情報との対応説明図である。管理装置101は、例えばこのようなテーブルを予めRAM32に保持し、イベントの発生時にこのテーブルを参照して設定情報を決定する。このテーブルでは、イベント情報の種類に応じて、設定情報として監視カメラ131~134に設定する焦点距離、露出補正、画質が決定される。 FIG. 7 is an explanatory diagram of correspondence between events and setting information. The management device 101 stores such a table in advance in the RAM 32, for example, and determines setting information by referring to this table when an event occurs. In this table, the focal length, exposure correction, and image quality to be set for the monitoring cameras 131 to 134 as setting information are determined according to the type of event information.

なお、設定情報は、サブエリア監視装置111~113が映像解析を行うためのパラメータであってもよい。具体的は、設定情報は、顔を検出するためのパラメータ、例えば、検出する顔の大きさや向き等を変更するようなパラメータであってもよい。サブエリア監視装置111~113は、設定情報に基づいて監視カメラ131~134から取得する映像を解析することになる。 Note that the setting information may be parameters for the subarea monitoring devices 111 to 113 to perform video analysis. Specifically, the setting information may be parameters for detecting a face, such as parameters for changing the size and orientation of a face to be detected. The sub-area monitoring devices 111-113 analyze the images obtained from the monitoring cameras 131-134 based on the setting information.

設定情報は、設定をサブエリア監視装置111~113や監視カメラ131~134に実際に反映させる時刻や基準等の反映条件を含んでもよい。これは、設定情報が監視対象の追跡に最適な設定であり、一般的な撮影状況で好ましい設定ではない可能性があるためである。サブエリア監視装置111~113は、反映条件が満たされると設定情報に基づいて設定を変更する。担当するサブエリア内に監視対象が存在する、或いは存在する可能性が所定値よりも高くなった場合に、サブエリア監視装置111~113は、設定情報を実際に反映する。管理装置101は、設定情報が反映される時刻や基準を、例えばイベント情報やイベント付加情報に基づいて決定する。管理装置101は、例えば監視対象を追跡する場合に、イベント情報に基づいて監視対象の移動方向及び速度を測定し、各サブエリア141~143に監視対象が出現する時刻を予測する。管理装置101は、この予測結果に基づいて、各サブエリア監視装置111~113に設定情報を反映させるように、該設定情報に予測結果を含ませる。これにより設定情報による設定は、予測結果の時刻にサブエリア監視装置111~113により反映される。 The setting information may include reflection conditions such as the time and criteria for actually reflecting the settings on the sub-area monitoring devices 111-113 and the monitoring cameras 131-134. This is because the setting information may be the optimum setting for tracking the monitored object, and may not be the preferred setting for general shooting situations. The subarea monitoring devices 111 to 113 change the setting based on the setting information when the reflection condition is satisfied. When a monitored object exists in the sub-area it is in charge of, or when the possibility of its existence becomes higher than a predetermined value, the sub-area monitoring devices 111 to 113 actually reflect the setting information. The management device 101 determines the time and criteria for reflecting the setting information based on, for example, event information and additional event information. For example, when tracking a monitored object, the management device 101 measures the movement direction and speed of the monitored object based on the event information, and predicts the time when the monitored object will appear in each of the sub-areas 141-143. Based on this prediction result, the management device 101 includes the prediction result in the setting information so that each of the sub-area monitoring devices 111 to 113 reflects the setting information. As a result, the setting based on the setting information is reflected by the sub-area monitoring devices 111 to 113 at the predicted result time.

このように管理装置101は、発生したイベントの状況に応じてサブエリア毎にカメラパラメータなどの設定情報を更新する。これにより監視システム1は、監視対象を、より好適な条件で監視することが可能になる。管理装置101は、サブエリア監視装置111~113のグループ化後に設定情報を決定するために、設定情報に関する演算をまとめて行うことができる。また同一グループ内で制御される監視カメラのパラメータを相互に関連させて設定できるために、高度な監視対象の監視を実現することができる。そのために、より素早く設定情報の反映が可能になる。 In this manner, the management device 101 updates setting information such as camera parameters for each sub-area according to the situation of the event that has occurred. As a result, the monitoring system 1 can monitor the monitoring target under more suitable conditions. The management device 101 can collectively perform calculations related to the setting information in order to determine the setting information after grouping the sub-area monitoring devices 111-113. In addition, since the parameters of the monitoring cameras controlled within the same group can be set in association with each other, it is possible to realize advanced monitoring of the monitoring target. Therefore, setting information can be reflected more quickly.

サブエリア141~143に監視対象が出現するか否かでサブエリア監視装置111~113及び監視カメラ131~134の設定を切り替えることで、以下のような効果が得られる。
特定の監視対象を追跡していない平時の状況では、監視カメラは、例えば、異常な状況が発生しているか否かの判定に必要な設定、典型的には画面全体が概ね同じ明るさで撮影できるような設定であればよい。しかし、逆光状態や夕方等の著しい輝度の変化が画面内にある状態で特定の人物の顔を判別、追跡する場合、平時の設定では、サブエリア監視装置が、顔を正しく検出さえできないことがある。このような場合、監視カメラは、背景が多少白飛びしても監視対象が現れそうな位置を人の顔が判別しやすいホワイトバランスに設定して撮影する。これによりサブエリア監視装置は、監視対象の検出精度が向上する。ただしこのような極端な設定は、監視対象がサブエリア内に存在する可能性が高い場合に限られるべきである。従ってこのような設定は、イベント発生状況に応じて動的に決定される。
By switching the settings of the sub-area monitoring devices 111-113 and the monitoring cameras 131-134 depending on whether or not a monitoring target appears in the sub-areas 141-143, the following effects can be obtained.
In normal situations, when not tracking a particular target, a surveillance camera may, for example, use the settings necessary to determine whether an abnormal situation is occurring, typically the entire screen at roughly the same brightness. Any setting that allows this is acceptable. However, when distinguishing and tracking a specific person's face in a backlight condition or in the evening when there is a significant change in luminance in the screen, the sub-area monitoring device may not even be able to detect the face correctly under normal settings. be. In such a case, the surveillance camera shoots the position where the surveillance object is likely to appear even if the background is slightly overexposed by setting the white balance so that the human face can be easily distinguished. As a result, the sub-area monitoring device can improve the detection accuracy of the monitored object. However, such extreme settings should be limited to cases where there is a high possibility that the monitored object exists within the sub-area. Therefore, such settings are dynamically determined according to the event occurrence situation.

(変形例)
以上の説明では、監視対象が人等の実体物であるが、監視対象は、異常な状態であってもよい。ここでは監視システム1が、異常な状態の検出及び解析を行う例について説明する。管理装置101、102、及び統合管理装置121は、イベントとして検出される異常な状態に応じて、サブエリア監視装置111~113及び監視カメラ131~134の設定を切り替える。
(Modification)
In the above description, the monitored object is a physical object such as a person, but the monitored object may be in an abnormal state. Here, an example in which the monitoring system 1 detects and analyzes an abnormal state will be described. The management devices 101 and 102 and the integrated management device 121 switch settings of the sub-area monitoring devices 111 to 113 and the monitoring cameras 131 to 134 according to abnormal states detected as events.

監視システム1は、通常の混雑度よりも高い危険な状態に近い混雑度が発生する予兆や、通常とは異なる集団の動き、例えば集団で走り去る状態を、異常な状態として扱う。ここでは、危険な状態に近い混雑度が発生する予兆を「危険混雑状態の予兆」、集団で走り去る状態を「集団逃避」という。 The monitoring system 1 treats, as an abnormal state, a sign of the occurrence of a congestion level close to a dangerous state higher than the normal congestion level, or a group movement different from usual, for example, a group running away. Here, a sign of the occurrence of a congestion degree close to a dangerous state is called a "prediction of a dangerous congestion state", and a state of running away in a group is called a "group escape".

危険混雑状態の予兆は、映像中の混雑度と、人の大まかな流れとにより検出される。この場合、危険混雑状態の予兆は、1つのサブエリア内の結果だけでなく、複数のサブエリア内の映像を統合することによって検出される。サブエリア監視装置は、他のサブエリア監視装置から映像を取得して、イベント検出の処理を行う。なお、管理装置101、102或いは統合管理装置121が複数のサブエリア監視装置から映像を取得してイベント検出を行ってもよい。この場合、管理装置101、102或いは統合管理装置121にイベント検出部202が設けられる。 A sign of a dangerous congestion state is detected from the degree of congestion in the video and the rough flow of people. In this case, a sign of dangerous congestion is detected by integrating not only the result within one sub-area but also the images within a plurality of sub-areas. The sub-area monitoring device acquires images from other sub-area monitoring devices and performs event detection processing. Note that the management devices 101 and 102 or the integrated management device 121 may acquire images from a plurality of sub-area monitoring devices and detect events. In this case, the event detection unit 202 is provided in the management apparatuses 101 and 102 or the integrated management apparatus 121 .

ある程度以上の混雑状況と人の流れが所定の一箇所に向かっている場合、危険混雑状態の予兆が検出される。この場合、危険混雑状況が発生すると考えられるサブエリアを担当するサブエリア監視装置及び監視カメラの設定が、危険混雑状況を検出するための設定に変更される。例えば監視カメラが、画角を広くして、より広域の状態を撮影できるように設定変更される。 If the congestion is above a certain level and the flow of people is heading toward a predetermined location, a sign of dangerous congestion is detected. In this case, the settings of the sub-area monitoring device and the monitoring camera that are in charge of the sub-area where the dangerous congestion situation is expected to occur are changed to the settings for detecting the dangerous congestion situation. For example, the setting of the surveillance camera is changed so that the angle of view is widened so that a wider area can be photographed.

混雑度の推定は、映像を解析して人数を数える処理を含む。設定変更時には、サブエリア監視装置に設定される人数を数えるためのパラメータが変更される。例えば人が異常なほど密集した状況では、映像中の人が重なっている。そのために、人体を検出する場合、未検出となってしまう人が多く発生する。設定変更により、人体ではなく、頭部を検出することで、正確な人数が把握できるようになる。一般的な状況(人の密度が低い状態)では、頭部よりも人体の方が、精度良く人数を検出できる。しかし人の密度が高まると予想される、もしくは高まっている状況では、頭部の検出に切り替える方が、精度良く人数を検出できる。そのために人の密度が高まると予想される、もしくは高まっている状況では、頭部の検出に切り替える方が、危険混雑状態の検出には望ましい。 Estimation of the degree of congestion includes processing for analyzing video and counting the number of people. When changing the setting, the parameter for counting the number of people set in the subarea monitoring device is changed. For example, in situations where people are abnormally dense, the people in the video overlap. Therefore, when detecting a human body, many people are not detected. By changing the settings, it will be possible to accurately determine the number of people by detecting the head instead of the human body. Under general conditions (when the density of people is low), the number of people can be detected more accurately from the human body than from the head. However, in a situation where the density of people is expected to increase or is increasing, switching to head detection enables more accurate detection of the number of people. Therefore, in situations where the density of people is expected to increase or is increasing, switching to head detection is preferable for detecting dangerous congestion.

集団逃避は、人体検出及び追跡により検出される。複数の人体が一斉に所定の速度以上で移動したことを検出することで、集団逃避が検出される。例えば、所定のアクシデントが発生した場合、その場を離れようとする人が増えるために、集団逃避が発生する。 Mass escapes are detected by human detection and tracking. Collective escape is detected by detecting that a plurality of human bodies have moved together at a predetermined speed or higher. For example, when a certain accident occurs, more people want to leave the place, resulting in mass evacuation.

この場合、設定情報には、以下の2つが考えられる。一つは、アクシデントが発生した近傍の監視カメラを、アクシデントの発生地点に向けてズームさせ、より詳細な映像を得るようにする設定情報である。もう一つは、アクシデントの発生地点から離れたサブエリアの監視カメラを、イベント発生時に発生地点に存在した人物を追跡するような設定にする設定情報である。複数の監視カメラの設定をこのように変更することで、アクシデントに関係する人の行動を把握することができる。 In this case, the following two types of setting information are conceivable. One is setting information for zooming a surveillance camera in the vicinity of an accident to the point of occurrence of the accident to obtain a more detailed image. The other is setting information for setting a surveillance camera in a sub-area away from the accident occurrence point to track a person who was present at the event occurrence point when the event occurred. By changing the settings of multiple surveillance cameras in this way, it is possible to grasp the behavior of people involved in an accident.

以上のような本実施形態の監視システム1は、監視対象の状況に応じて、監視カメラ131~134の撮影条件や、サブエリア監視装置111~113の映像解析条件を変更することで、監視対象の監視を好適な条件で行うことができる。このような監視システム1では、多数の監視カメラやサブエリア監視装置を、監視対象の監視を好適な条件で自動的に連動して行うことができるように設定することができる。 The monitoring system 1 of this embodiment as described above changes the shooting conditions of the monitoring cameras 131 to 134 and the video analysis conditions of the sub-area monitoring devices 111 to 113 according to the situation of the monitoring target. can be monitored under suitable conditions. In such a monitoring system 1, a large number of monitoring cameras and sub-area monitoring devices can be set so that the monitoring of the monitoring target can be automatically performed in conjunction with each other under suitable conditions.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

Claims (9)

広域エリアを分割した複数のサブエリアに対応する複数の撮像装置の設定情報を生成する情報処理装置であって、
前記複数の撮像装置のそれぞれで撮像された映像のうち少なくとも1つの映像から監視対象が検出されたことを示すイベント情報取得する取得手段と、
前記監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定手段と、
前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成手段と、を有し、
前記カメラパラメータは、前記反映条件を満たす前記撮像装置に対して設定されることを特徴とする情報処理装置。
An information processing device that generates setting information for a plurality of imaging devices corresponding to a plurality of sub-areas obtained by dividing a wide area,
acquisition means for acquiring event information indicating that a monitoring target has been detected from at least one image among images captured by each of the plurality of imaging devices;
determining means for determining a group of one or more imaging devices corresponding to a second sub-area adjacent to the first sub-area including the position where the monitored object has entered;
camera parameters for the imaging device determined based on table information that presets the relationship between the event information and the camera parameters; and actual imaging devices included in the group determined based on the event information. a generation means for generating the setting information including a reflection condition indicating a time at which the camera parameter is to be reflected ;
An information processing apparatus, wherein the camera parameters are set for the imaging apparatus that satisfies the reflection condition.
前記撮像装置に対して生成した前記カメラパラメータを送信する送信手段を更に有し、
前記撮像装置は、送信された前記カメラパラメータにより設定が変更されることを特徴とする請求項1に記載の情報処理装置。
further comprising transmitting means for transmitting the generated camera parameters to the imaging device;
2. The information processing apparatus according to claim 1, wherein the setting of said imaging apparatus is changed according to said transmitted camera parameters.
前記監視対象は、前記監視対象の画像を用いたテンプレートマッチングによって検されることを特徴とする請求項1または2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein the monitoring target is detected by template matching using an image of the monitoring target. 前記生成手段は、前記監視対象を撮像するための前記カメラパラメータを生成することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 4. The information processing apparatus according to any one of claims 1 to 3 , wherein said generating means generates said camera parameters for imaging said monitoring target. 前記取得手段は、前記複数の撮像装置のそれぞれで撮像された映像から、監視対象を検出する監視装置によって隣接する前記サブエリアで検出された監視対象が対応付けされた場合に、前記監視対象が検出された画像を撮像した撮像装置の位置、撮像時刻、または該撮像装置に設定されたカメラパラメータについての情報を更に含む前記イベント情報を得し
前記生成手段は、前記イベント情報に基づいて、前記カメラパラメータを生成することを特徴とする請求項乃至のいずれか1項に記載の情報処理装置。
The obtaining means obtains the monitoring target when the monitoring target detected in the adjacent sub-area by the monitoring device that detects the monitoring target is associated with the video imaged by each of the plurality of imaging devices. Acquiring the event information further including information about the position of the imaging device that captured the detected image, the imaging time, or the camera parameters set in the imaging device;
5. The information processing apparatus according to claim 1 , wherein said generating means generates said camera parameters based on said event information.
前記監視対象が検出されたことを示す通知情報を所定の出力装置に出力することによって通知する通知手段を更に有することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 6. The information processing apparatus according to any one of claims 1 to 5 , further comprising notifying means for notifying by outputting notification information indicating that said monitoring target has been detected to a predetermined output device. . 広域エリアを分割した複数のサブエリアをそれぞれ撮像する複数の撮像装置と、
前記複数の撮像装置のそれぞれで撮像された映像から監視対象を検出する監視装置と、
前記監視装置によって少なくとも1つの映像から前記監視対象が検出された場合に、前記監視対象に応じて設定される設定情報に基づいて前記撮像装置または前記監視装置を制御する管理装置と、を有する情報処理システムであって、
前記管理装置は、
前記監視対象が検出されたことを示すイベント情報を取得する取得手段と、
前記監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定手段と、
前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成手段と、を有し、
前記撮像装置は、前記反映条件を満たす場合に前記カメラパラメータが設定されることを特徴とすることを特徴とする情報処理システム。
a plurality of imaging devices each imaging a plurality of sub- areas obtained by dividing a wide area ;
a monitoring device that detects a monitoring target from images captured by each of the plurality of imaging devices;
and a management device that controls the imaging device or the monitoring device based on setting information set according to the monitoring target when the monitoring device detects the monitoring target from at least one video. A processing system,
The management device
Acquisition means for acquiring event information indicating that the monitoring target has been detected;
determining means for determining a group of one or more imaging devices corresponding to a second sub-area adjacent to the first sub-area including the position where the monitored object has entered;
camera parameters for the imaging device determined based on table information that presets the relationship between the event information and the camera parameters; and actual imaging devices included in the group determined based on the event information. a generation means for generating the setting information including a reflection condition indicating a time at which the camera parameter is to be reflected;
The information processing system, wherein the imaging device is characterized in that the camera parameters are set when the reflection condition is satisfied.
広域エリアを分割した複数のサブエリアに対応する複数の撮像装置の設定情報を生成する情報処理方法であって、
前記複数の撮像装置のそれぞれで撮像された映像のうち少なくとも1つの映像から監視対象が検出されたことを示すイベント情報を取得する取得工程と、
監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定工程と、
前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成工程と、
前記反映条件を満たす前記撮像装置に対して前記カメラパラメータを設定する設定工程と、を含むことを特徴とする情報処理方法。
An information processing method for generating setting information of a plurality of imaging devices corresponding to a plurality of sub-areas obtained by dividing a wide area,
an acquiring step of acquiring event information indicating that a monitoring target has been detected from at least one image among images captured by each of the plurality of imaging devices;
a determination step of determining a group of one or more imaging devices corresponding to a second sub-area adjacent to the first sub-area containing the location where the monitored object has entered;
camera parameters for the imaging device determined based on table information that presets the relationship between the event information and the camera parameters; and actual imaging devices included in the group determined based on the event information. a generation step of generating the setting information including a reflection condition indicating a time to reflect the camera parameter ;
and a setting step of setting the camera parameters for the imaging device that satisfies the reflection condition.
コンピュータを、請求項1乃至のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit included in the information processing apparatus according to any one of claims 1 to 6 .
JP2018039323A 2018-03-06 2018-03-06 Information processing device, information processing system, information processing method, and program Active JP7146416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018039323A JP7146416B2 (en) 2018-03-06 2018-03-06 Information processing device, information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018039323A JP7146416B2 (en) 2018-03-06 2018-03-06 Information processing device, information processing system, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2019153986A JP2019153986A (en) 2019-09-12
JP2019153986A5 JP2019153986A5 (en) 2021-04-08
JP7146416B2 true JP7146416B2 (en) 2022-10-04

Family

ID=67947212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018039323A Active JP7146416B2 (en) 2018-03-06 2018-03-06 Information processing device, information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7146416B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10202000146SA (en) 2020-01-07 2021-08-30 Nec Asia Pacific Pte Ltd A method and an apparatus for determining if an event relates to an unauthorized subject
CN112287143A (en) * 2020-10-29 2021-01-29 杭州海康威视数字技术股份有限公司 Event information retrieval and storage method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136774A (en) 2003-10-31 2005-05-26 Casio Comput Co Ltd Camera surveillance system and program
JP2015213338A (en) 2015-06-16 2015-11-26 株式会社ニコン Imaging apparatus
WO2016157327A1 (en) 2015-03-27 2016-10-06 日本電気株式会社 Video surveillance system and video surveillance method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136774A (en) 2003-10-31 2005-05-26 Casio Comput Co Ltd Camera surveillance system and program
WO2016157327A1 (en) 2015-03-27 2016-10-06 日本電気株式会社 Video surveillance system and video surveillance method
JP2015213338A (en) 2015-06-16 2015-11-26 株式会社ニコン Imaging apparatus

Also Published As

Publication number Publication date
JP2019153986A (en) 2019-09-12

Similar Documents

Publication Publication Date Title
US9141184B2 (en) Person detection system
US9477891B2 (en) Surveillance system and method based on accumulated feature of object
KR101933153B1 (en) Control Image Relocation Method and Apparatus according to the direction of movement of the Object of Interest
US10755109B2 (en) Monitoring system, monitoring method, and non-transitory computer-readable storage medium
CN105809710B (en) System and method for detecting moving object
JP6914007B2 (en) Information processing device and information processing method
JP2011060058A (en) Imaging apparatus and monitoring system
KR102344606B1 (en) CCTV system for tracking and monitoring of object, and tracking and monitoring method therefor
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP2019029935A (en) Image processing system and control method thereof
KR20170096838A (en) Apparatus and method for searching cctv image
KR101178886B1 (en) High resolution digital ptz camera, monitoring system including high resolution digital ptz camera and data transmisson method thereof
JP5865584B2 (en) Specific person detection system and detection method
JP2007312271A (en) Surveillance system
JP2012099940A (en) Photographic obstruction detection method, obstruction detection device, and monitoring camera system
JP6941458B2 (en) Monitoring system
JP4985742B2 (en) Imaging system, method and program
KR102030736B1 (en) Apparatus for analyzing Multi-Distributed Video Data
JP2020022177A (en) Video monitoring system and video monitoring method
JP2007243270A (en) Video image surveillance system and method therefor
KR102395440B1 (en) Cloud-based building management system and method thereof
KR101363601B1 (en) Remote video monitoring method and system including privacy protecion
KR101196408B1 (en) Collaboration monitoring system and method for collaboration monitoring
US20190279477A1 (en) Monitoring system and information processing apparatus
JP2017028688A (en) Image managing device, image managing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R151 Written notification of patent or utility model registration

Ref document number: 7146416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151