JP7146416B2 - Information processing device, information processing system, information processing method, and program - Google Patents
Information processing device, information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP7146416B2 JP7146416B2 JP2018039323A JP2018039323A JP7146416B2 JP 7146416 B2 JP7146416 B2 JP 7146416B2 JP 2018039323 A JP2018039323 A JP 2018039323A JP 2018039323 A JP2018039323 A JP 2018039323A JP 7146416 B2 JP7146416 B2 JP 7146416B2
- Authority
- JP
- Japan
- Prior art keywords
- sub
- monitoring
- area
- information
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、広域に配置される複数の監視カメラを用いて監視を行う監視システムに関する。 The present invention relates to a surveillance system that performs surveillance using a plurality of surveillance cameras arranged over a wide area.
監視システムは、例えば、複数の監視カメラと、各監視カメラが撮影した映像の解析及び各監視カメラの動作制御を行う管理装置と、を備える。管理装置と各監視カメラとは、ネットワークを介して接続される。大規模なエリアを監視する場合、数十~数百を超える数の監視カメラがエリア内の各所に配置される。管理装置は、各監視カメラが撮影した映像を取得して、映像の記録、映像の解析処理、解析結果の表示等を行う。管理装置は、監視カメラから取得した映像の解析処理により、監視対象、例えば不審者の検出や混雑状態の検出等を行う。好適な解析結果を得るために、監視カメラは、解析の目的や監視対象に応じてパラメータ等の設定が調整される。 A monitoring system includes, for example, a plurality of monitoring cameras, and a management device that analyzes images captured by each monitoring camera and controls the operation of each monitoring camera. The management device and each surveillance camera are connected via a network. When monitoring a large area, dozens to more than hundreds of surveillance cameras are placed throughout the area. The management device acquires the video captured by each monitoring camera, records the video, analyzes the video, displays the analysis result, and the like. The management device detects objects to be monitored, such as suspicious persons and congestion, by analyzing images acquired from the surveillance cameras. In order to obtain suitable analysis results, the settings of parameters and the like of the monitoring camera are adjusted according to the purpose of analysis and the object to be monitored.
そのために多数の監視カメラは、個別に手動或いは自動で設定が変更される。監視カメラの数やその配置エリアの広大さから、管理装置が自動的に各監視カメラの設定を変更することが望ましい。しかし管理装置で自動的に設定を変更する場合であっても、状況に応じて状態変化する監視対象に対応して監視カメラの設定を変更することは、作業の煩雑さのために現実的ではない。 Therefore, the settings of many surveillance cameras are individually changed manually or automatically. Due to the number of surveillance cameras and the vastness of their installation area, it is desirable for the management device to automatically change the settings of each surveillance camera. However, even if the settings are automatically changed by the management device, it is not realistic to change the settings of the monitoring cameras in response to the monitoring target whose status changes according to the situation, due to the complexity of the work involved. do not have.
特許文献1は、建物間での設備機器のデータの比較を容易且つリアルタイムに行い、複数の建物内の設備機器を連動させて自動制御する広域監視システムの発明を開示する。広域監視システムは、対象の建物内に配置された複数の機器の発停状況の変化等の状態変化情報を収集して監視する管理装置を備える。この管理装置は、監視対象が特定の状態変化を起こした場合に、予め登録したイベントプログラムを起動し、状態変化に対して適切な処理(例えば機器の発停処理)を行うことにより連動した機器の設定を行う。 Patent Literature 1 discloses an invention of a wide area monitoring system that easily compares equipment data between buildings in real time, and automatically controls equipment in a plurality of buildings in conjunction with each other. A wide-area monitoring system includes a management device that collects and monitors state change information such as changes in the start/stop states of a plurality of devices placed in a target building. This management device activates a pre-registered event program when an object to be monitored undergoes a specific state change, and performs appropriate processing (for example, device start/stop processing) in response to the state change. settings.
特許文献1の広域監視システムは、機器の内部状態に基づく発停処理が主な制御対象である。この広域監視システムは、監視対象自体が状況に応じて変化するような局面では、機器の自律した制御が困難である。 In the wide area monitoring system of Patent Document 1, the main control target is start/stop processing based on the internal state of the equipment. In this wide area monitoring system, it is difficult to control the equipment autonomously in situations where the monitored object itself changes according to the situation.
本発明は、このような従来の問題を解決するため、監視カメラの設定を監視対象の状況に応じて自動的に行うことができる監視システムを提供することを主たる目的とする。 SUMMARY OF THE INVENTION In order to solve such conventional problems, the main object of the present invention is to provide a monitoring system capable of automatically setting a monitoring camera according to the situation of a monitored object.
本発明の情報処理装置は、広域エリアを分割した複数のサブエリアに対応する複数の撮像装置の設定情報を生成する情報処理装置であって、前記複数の撮像装置のそれぞれで撮像された映像のうち少なくとも1つの映像から監視対象が検出されたことを示すイベント情報を取得する取得手段と、前記監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定手段と、 前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成手段と、を有し、前記カメラパラメータは、前記反映条件を満たす前記撮像装置に対して設定されることを特徴とする。 An information processing apparatus according to the present invention is an information processing apparatus that generates setting information for a plurality of imaging devices corresponding to a plurality of sub-areas obtained by dividing a wide area, wherein the image captured by each of the plurality of imaging devices is generated. Acquisition means for acquiring event information indicating that a monitored object has been detected from at least one of the images ; Determining means for determining a group of the imaging devices, the camera parameters for the imaging devices determined based on the table information in which the relationship between the event information and the camera parameters is preset, and the determination based on the event information a reflection condition indicating a time at which the camera parameters are to be actually reflected in the imaging devices included in the group; is set for the imaging device that satisfies
本発明によれば、監視カメラの設定を監視対象の状況に応じて自動的に行うことが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to automatically set a surveillance camera according to the situation of a monitoring object.
以下、図面を参照して、実施形態を詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the drawings.
(全体構成)
図1は、本実施形態の管理装置を含む監視システムの全体構成図である。監視システム1は、広域エリア140に配置される複数の監視カメラ131~134の動作を制御して不審人物や事象の発生の監視を行う。広域エリア140は複数のサブエリアに分割されて管理される。本実施形態では、広域エリア140が3つのサブエリア141~143に分割される例を説明する。広域エリア140の分割数はこれに限られるものではない。サブエリア141~143は、それぞれ1或いは複数の監視カメラにより撮影される。ここでは、サブエリア141が監視カメラ131により撮影される。サブエリア142が監視カメラ132により撮影される。サブエリア143が監視カメラ133、134により撮影される。なお、図1ではサブエリア141~143が隣接しているが、これに限らない。例えば、サブエリア141~143は、それぞれ離れた位置に設けられていてもよい。
(overall structure)
FIG. 1 is an overall configuration diagram of a monitoring system including a management device of this embodiment. The monitoring system 1 controls the operations of a plurality of monitoring
監視システム1は、複数の管理装置101、102、複数のサブエリア監視装置111、112、113、及び統合管理装置121を備える。管理装置101、102、サブエリア監視装置111、112、113、及び統合管理装置121は、ネットワーク130を介して通信可能に接続される。ネットワーク130は、例えばLAN(Local Area Network)、インターネット、公衆通信回線網、或いはこれらの組み合わせを用いることができる。
The monitoring system 1 includes
1つのサブエリア監視装置は、1つのサブエリアを担当して監視する。本実施形態では、サブエリア監視装置111は、監視カメラ131が接続され、サブエリア141を監視する。サブエリア監視装置112は、監視カメラ132が接続され、サブエリア142を監視する。サブエリア監視装置113は、監視カメラ133、134が接続され、サブエリア143を監視する。各サブエリア監視装置111~113は、それぞれ独立に動作して、監視カメラ131~134が撮影した映像に基づいて担当するサブエリア141~143の監視を行う。各サブエリア監視装置111~113は、例えば映像から人等の監視対象を検出し、監視対象が移動した場合にはこれを追跡することで監視を行う。各サブエリア監視装置111~113は、例えば、監視カメラ131~134が撮影したサブエリア141~143の映像に基づいて、監視対象が人である場合は、顔検出や、人体検出技術を用いて監視対象を検出する。各サブエリア監視装置111~113は、管理装置101、102、或いは統合管理装置121から監視システム1に登録されている監視対象の画像を取得し、これに基づいて監視対象の検出を行う。各サブエリア監視装置111~113は、例えば、位置予測やテンプレートマッチング等により検出した監視対象を追跡する。サブエリア監視装置と監視カメラとは、一体に構成されていてもよい。
One sub-area monitoring device takes charge of monitoring one sub-area. In this embodiment, the
複数の管理装置101、102は、協働して複数のサブエリア監視装置111~113の分散管理を行う。サブエリア監視装置の数が少ない場合には、管理装置は1つであってもよい。サブエリア監視装置の数が多い場合には、管理装置をさらに増設してもよい。管理装置101、102は、サブエリア監視装置111、112、113から監視対象の個数や属性等の監視結果を、ネットワーク130を介して取得する。管理装置101、102は、各サブエリア監視装置111、112、113から取得した監視結果を個別に、或いはまとめて所定のディスプレイに表示することができる。
A plurality of
統合管理装置121は、管理装置101、102を統合して管理する。統合管理装置121は、サブエリア監視装置の数が膨大で、複数の管理装置だけではサブエリア監視装置の管理の処理負荷が大きい場合に設けられる。
統合管理装置121が設けられる場合、各管理装置101、102に、管理するサブエリア監視装置111~113が割り当てられる。例えば、管理装置101はサブエリア監視装置111及びサブエリア監視装置112を管理し、管理装置102はサブエリア監視装置113を管理する。これにより統合管理装置121は、例えばサブエリア監視装置111から直接監視結果を取得するのではなく、管理装置101を介してサブエリア監視装置111の監視結果を取得する。統合管理装置121は、取得した監視結果を個別に、或いはまとめて所定のディスプレイに表示することができる。
The integrated
When the
サブエリア監視装置111、112、113、管理装置101、102、及び統合管理装置121は、ネットワーク130上でまったく同列に扱われる。各装置間の通信は適当な通信プロトコルにより実現される。
The
以上のような監視システム1では、サブエリア監視装置がサブエリアの数に応じて設けられる。サブエリア監視装置とサブエリアが一対一に対応する。管理装置及び統合管理装置の数は、サブエリア監視装置の数に応じて設けられる。各管理装置101、102は、管理するサブエリア監視装置111~113の割り当てが予め設定されず、処理負荷の状況に応じて、統合管理装置121により適宜、動的に割り当てが変更されてもよい。
In the monitoring system 1 as described above, sub-area monitoring devices are provided according to the number of sub-areas. There is a one-to-one correspondence between subarea monitoring devices and subareas. The number of management devices and integrated management devices is provided according to the number of subarea monitoring devices. The
監視システム1は、サブエリア監視装置111~113及び監視カメラ131~134の組をグループに分割して制御する。監視カメラ131~134のグループ分けは、撮影するサブエリアや、設置条件(監視カメラの設置位置の高さ、窓際等の位置関係)、外部環境(屋外、屋内、監視対象の被写体密度等)に基づいて行われる。これらの条件の1つ或いは組み合わせにより、監視カメラ131~134のグループ分けが行われる。監視カメラ131~134のグループ分けは、予め行われてもよいが、管理装置101、102、或いは統合管理装置121により、監視結果に基づいて動的に行われてもよい。監視カメラ131~134のグループ化に応じて、管理装置101、102、或いは統合管理装置121は、サブエリア監視装置111~113のグループ化も行う。
The monitoring system 1 divides groups of
(サブエリア監視装置)
図2は、サブエリア監視装置の構成例示図である。図2(a)は、サブエリア監視装置111のハードウェア構成を例示する。他のサブエリア監視装置112、113も、同じハードウェア構成である。ただし、サブエリア監視装置113には2台の監視カメラ133、134が接続される。図2(b)は、1台の監視カメラ131が接続されるサブエリア監視装置111の機能ブロック図である。図2(c)は、2台の監視カメラ133、134が接続されるサブエリア監視装置113の機能ブロック図である。
(Sub-area monitoring device)
FIG. 2 is an exemplary configuration diagram of a sub-area monitoring device. FIG. 2A illustrates the hardware configuration of the
ハードウェア構成について説明する。サブエリア監視装置111は、CPU(Central Processing Unit)20、ROM(Read Only Memory)21、及びRAM(Random
Access Memory)22を備えるコンピュータシステムである。CPU20は、ROM21に格納されるコンピュータプログラムを、RAM22を作業領域に用いて実行することでサブエリア監視装置111の動作を制御する。サブエリア監視装置111は、通信インタフェース(I/F)23及び入出力I/F24を備える。通信I/F23は、ネットワーク130を介した他の装置との通信制御を行う。入出力I/F24は、監視カメラ131との通信制御を行う。CPU20は、監視カメラ131から取得する映像を、通信I/F23によりネットワーク130を介して管理装置101、102へ送信する。CPU20、ROM21、RAM22、通信I/F23、及び入出力I/F24は、バスを介して通信可能に接続される。なお、サブエリア監視装置113のように複数の監視カメラ133、134が接続される場合、入出力I/F24は、監視カメラの数に応じて設けられる。
The hardware configuration will be explained. The
Access Memory) 22. The CPU 20 controls the operation of the
サブエリア監視装置111の機能について説明する。サブエリア監視装置111は、カメラ制御部201、イベント検出部202、サブエリア監視部203、サブエリア間対応部204、及び通信制御部205として機能する。本実施形態の各機能ブロックは、CPU20が所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。
Functions of the
カメラ制御部201は、監視カメラ131による撮影動作を制御する。そのためにカメラ制御部201は、監視カメラ131に動作を制御するための制御信号を送信する。カメラ制御部201は、監視カメラ131に撮影時の各種パラメータ(焦点距離、露出補正、画質等)を設定する。また、カメラ制御部201は、監視カメラ131からサブエリア141の映像を取得する。
The
イベント検出部202は、カメラ制御部201で取得した映像に基づいて、担当するサブエリア141内に監視対象が進入した等の予め設定された事象を、イベントとして検出する。サブエリア監視部203は、イベント検出部202が検出したイベントに応じて、カメラ制御部201で取得した映像により、監視対象の検出、追跡を行い、同時に監視対象の属性情報を取得する。
サブエリア監視部203は、例えば映像のフレーム間差分とテンプレートマッチ技術とにより、監視対象の検出、追跡を行い、監視対象を監視する。テンプレートマッチ技術で用いられるテンプレート画像は、監視システム1に登録されている監視対象の画像である。サブエリア監視部203は、通信制御部205により管理装置101、102或いは統合管理装置121から予め監視対象の画像を取得している。監視対象の属性情報は、例えばサブエリア141内の映像に含まれる監視対象の数や監視対象の映像内の位置等である。また監視対象の属性情報は、イベントとして検出された監視対象を特定するための特徴を表す情報を含む。例えばイベントとして検出された監視対象が人である場合、監視対象の属性情報は、年齢や性別などの主に顔の画像から取得できる情報や、服装や体型等の全身の特徴を表す情報等を含む。サブエリア監視部203は、取得した監視対象の属性情報を、イベントが発生したことを表すイベント情報及びイベント付加情報として通信制御部205によりネットワーク130を介して管理装置101、102へ送信する。イベント情報は、発生したイベントの種類、監視対象の属性情報を含む。イベント付加情報は、典型的には、時刻や検出された位置、状況(周囲にあるものや、同行している人等)、撮影した監視カメラの撮影時のパラメータ等の情報である。サブエリア監視部203は、イベント検出部202の機能を内包していてもよい。
Based on the image acquired by the
The
サブエリア間対応部204は、他のサブエリア142、143から担当するサブエリア141に進入する可能性のある監視対象の属性情報を、通信制御部205によりネットワーク130を介して管理装置101、102から取得する。サブエリア間対応部204は、サブエリア監視部203がサブエリア141に進入した監視対象を検出した場合に、該監視対象の属性情報をサブエリア監視部203から取得する。サブエリア間対応部204は、サブエリア監視部203から取得した属性情報と、管理装置101、102から取得した属性情報との対応付けを行う。すなわちサブエリア間対応部204は、隣接するサブエリア142で把握されていた監視対象と、担当するサブエリア141内で把握された監視対象との対応付けを行う。サブエリア間対応部204は、対応付けの結果を、通信制御部205によりネットワーク130を介して管理装置101、102へ送信する。
The
サブエリア監視装置113の機能について説明する。サブエリア監視装置111は、第1、第2カメラ制御部401、411、第1、第2サブエリア監視部402、412、統合処理部403、サブエリア間対応部404、及び通信制御部405として機能する。本実施形態の各機能ブロックは、サブエリア監視装置113のCPUが所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。
Functions of the
第1カメラ制御部401は、監視カメラ133による撮影動作を制御する。そのために第1カメラ制御部401は、監視カメラ133に動作を制御するための制御信号を送信する。第1カメラ制御部401は、監視カメラ133に撮影時の各種パラメータを設定する。また、第1カメラ制御部401は、監視カメラ133からサブエリア143内の監視カメラ133の撮影領域の映像を取得する。
第2カメラ制御部411は、監視カメラ134による撮影動作を制御する。そのために第2カメラ制御部411は、監視カメラ134に動作を制御するための制御信号を送信する。第2カメラ制御部411は、監視カメラ134に撮影時の各種パラメータを設定する。また、第2カメラ制御部411は、監視カメラ134からサブエリア143内の監視カメラ134の撮影領域の映像を取得する。
A first
A second
第1サブエリア監視部402は、第1カメラ制御部401で取得した映像により、監視対象の検出、追跡を行い、同時に監視対象の属性情報を取得する。第2サブエリア監視部412は、第2カメラ制御部411で取得した映像により、監視対象の検出、追跡を行い、同時に監視対象の属性情報を取得する。第1サブエリア監視部402及び第2サブエリア監視部412は、それぞれ、イベント検出部202とサブエリア監視部203とを組み合わせた機能を有する。第1サブエリア監視部402及び第2サブエリア監視部412は、取得した監視対象の属性情報を、監視結果として統合処理部403へ送信する。
The first
統合処理部403は、第1サブエリア監視部402及び第2サブエリア監視部412から取得する監視結果を統合して、サブエリア143全体の監視結果を生成する。統合処理部403は、例えば監視対象の個数や位置、監視対象を特定するための情報特徴を表す情報等の属性情報を、比較、修正するなどして統合した属性情報を、最終の監視結果として生成する。統合処理部403は、生成した最終の監視結果を、通信制御部405によりネットワーク130を介して管理装置101、102へ送信する。
The
サブエリア間対応部404は、サブエリア間対応部204と同様の処理により、監視対象の対応付けを行う。サブエリア間対応部404は、統合処理部403から取得した属性情報と、管理装置101、102から取得した属性情報との対応付けにより、監視対象の対応付けを行う。サブエリア間対応部404は、対応付けの結果を、通信制御部405によりネットワーク130を介して管理装置101、102へ送信する。
以上、監視カメラが1台接続されるサブエリア監視装置111と監視カメラが2台接続されるサブエリア監視装置113の構成について説明した。サブエリア監視装置に接続される監視カメラは、さらに多くてもよい。サブエリア監視装置は、接続される監視カメラの台数に応じた数のカメラ制御部及びサブエリア監視部を備えることになる。
The configurations of the
(管理装置)
管理装置101、102は、各サブエリア監視装置111~113から取得する各種情報に基づいて、サブエリア141~143間で移動する監視対象の追跡を行う。また、管理装置101、102は、各サブエリア監視装置111~113から取得する各種情報に基づいて、各サブエリア監視装置111~113及び各監視カメラ131~134のパラメータの設定を行う。この設定により、各サブエリア監視装置111~113及び各監視カメラ131~134は、監視対象の検出及び追跡を容易にする映像の取得及び映像解析が可能となる。図3は、このような処理を行う管理装置の構成例示図である。図3(a)は、管理装置101のハードウェア構成を例示する。図3(b)は、管理装置101の機能ブロック図である。管理装置102も、管理装置101と同じハードウェア及び機能ブロックの構成である。
(Management device)
The
ハードウェア構成について説明する。管理装置101は、CPU30、ROM31、及びRAM32を備えるコンピュータシステムである。CPU30は、ROM31に格納されるコンピュータプログラムを、RAM32を作業領域に用いて実行することで管理装置101の動作を制御する。管理装置101は、通信I/F33、入力I/F34、出力I/F35、及び大容量記憶装置36を備える。CPU30、ROM31、RAM32、通信I/F33、入力I/F34、出力I/F35、及び大容量記憶装置36は、バスを介して通信可能に接続される。
The hardware configuration will be explained. The
通信I/F33は、ネットワーク130を介した他の装置との通信制御を行う。入力I/F34は、入力装置37との通信制御を行う。入力装置37は、キーボード、ポインティングデバイス、タッチパネル等であり、ユーザがデータや指示を入力する際に用いられる。入力I/F34は、入力装置37から入力されるデータや指示をCPU30に送信する。出力I/F35は、出力装置38との通信制御を行う。出力装置38は、例えばディスプレイである。出力I/F35は、CPU30の指示により、出力装置38に画像を表示させる。大容量記憶装置36は、HDD(Hard Disk Drive)やSSD(Solid State Drive)であり、監視カメラが撮影した映像を格納する。大容量記憶装置36は、管理装置101がサブエリア監視装置111~113の少なくとも一つから取得する映像を格納することになる。大容量記憶装置36は、監視システム1に登録された監視対象の画像を格納する。CPU30は、監視対象の画像を予めサブエリア監視装置111~113へ送信する。
Communication I/
管理装置101の機能について説明する。管理装置101は、入力制御部301、状況把握部302、通信制御部303、パラメータ決定部304、及び出力制御部305として機能する。本実施形態の各機能ブロックは、CPU30が所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。
Functions of the
入力制御部301は、入力装置37からの指示等の入力を受け付ける。ユーザは、例えば入力装置37から、特定の監視対象の追跡や、特定のサブエリア内の状況把握などの指示を入力する。また、監視対象の画像の登録は、入力制御部301が入力装置37から該画像を受け付け、該監視対象を特定する各種情報が入力されることで行われる。
The
状況把握部302は、入力制御部301で受け付けた入力装置37からの指示に応じて、例えば特定の監視対象の追跡、特定のサブエリアの状況把握等の処理を行う。状況把握部302は、受け付けた指示に応じた処理に必要なデータを、通信制御部303を介して各サブエリア監視装置111~113に要求する。要求するデータは、例えば映像や属性情報である。状況把握部302は、要求に応じてサブエリア監視装置111~113のいずれかから取得したデータに応じて、処理を実行する。状況把握部302は、必要なデータを所持するサブエリア監視装置が明確な場合には、該サブエリア監視装置に対してデータの要求を行い、該データを取得する。状況把握部302の処理結果及び処理に用いたデータ(映像、属性情報等)は、通信制御部303を介して統合管理装置121へ送信されてもよい。
The
パラメータ決定部304は、通信制御部303を介して各サブエリア監視装置111~113から各サブエリア141~143で発生したイベントのイベント情報及びイベント付加情報を取得する。パラメータ決定部304は、取得したイベント情報及びイベント付加情報に応じて、監視カメラ131~134の適切な制御パラメータ等の設定情報を生成する。制御パラメータは、例えば撮影方向、焦点距離、解像度、シャッタースピード、絞り(F値)、測光モード、焦点距離、露出補正ステップ値、色空間、フレームレート等である。
The
パラメータ決定部304は、決定した制御パラメータを通信制御部303を介して各サブエリア監視装置111~113へ送信する。パラメータ決定部304は、例えばイベント情報からサブエリアに監視対象である人物が進入したことを確認すると、該人物を撮影しやすいように、対応する監視カメラの画角調整や、照明方向に応じた露出の変更を行うように制御パラメータを決定する。パラメータ決定部304は、例えばイベント情報によるサブエリア内の状況と監視カメラに設定可能な制御パラメータの設定内容を表す設定情報とを対応付けたテーブルを保持する。パラメータ決定部304は、このテーブルを参照することで制御パラメータを決定する。制御パラメータは、通信制御部303を介して統合管理装置121へ送信されてもよい。パラメータ決定部304の処理の内容や制御パラメータの詳細については後述する。
出力制御部305は、状況把握部302による処理の結果を出力装置38、例えばディスプレイに表示する。例えば、特定のサブエリア内の状況を把握する場合、状況把握部302は、把握したいサブエリアを担当するサブエリア監視装置から必要とするデータを取得する。必要とするデータは、当該サブエリアに存在する監視対象の個数やその位置等の属性情報、サブエリア監視装置間での監視対象の対応付け結果等である。状況把握部302は、必要とするデータを取得すると、例えば予め保持する各サブエリア141~143の地図画像に、監視対象の現在位置やその移動規制をプロットして出力画像を生成する。出力画像は、出力制御部305によりディスプレイに表示される。
The
(統合管理装置)
統合管理装置121は、管理装置101、102を介して各サブエリア監視装置111~113から取得する各種情報に基づいて、サブエリア141~143間で移動する監視対象の追跡を行う。また、統合管理装置121は、管理装置101、102及び各サブエリア監視装置111~113から取得する各種情報に基づいて、各サブエリア監視装置111~113及び各監視カメラ131~134のパタラメータの設定を行う。この設定により、各サブエリア監視装置111~113及び各監視カメラ131~134は、監視対象の検出及び追跡を容易にする映像の取得及び映像解析が可能となる。図4は、このような処理を行う統合管理装置121の構成例示図である。図4(a)は、統合管理装置121のハードウェア構成を例示する。図4(b)は、統合管理装置121の機能ブロック図である。
(Integrated management device)
The
ハードウェア構成について説明する。統合管理装置121は、CPU40、ROM41、及びRAM42を備えるコンピュータシステムである。CPU40は、ROM41に格納されるコンピュータプログラムを、RAM42を作業領域に用いて実行することで統合管理装置121の動作を制御する。統合管理装置121は、通信I/F43、入力I/F44、出力I/F45、及び大容量記憶装置46を備える。CPU40、ROM41、RAM42、通信I/F43、入力I/F44、出力I/F45、及び大容量記憶装置46は、バスを介して通信可能に接続される。
The hardware configuration will be explained. The
通信I/F43は、ネットワーク130を介した他の装置との通信制御を行う。入力I/F44は、入力装置47との通信制御を行う。入力装置47は、キーボード、ポインティングデバイス、タッチパネル等であり、ユーザがデータや指示を入力する際に用いられる。入力I/F44は、入力装置47から入力されるデータや指示をCPU40に送信する。出力I/F45は、出力装置48との通信制御を行う。出力装置48は、例えばディスプレイである。出力I/F45は、CPU40の指示により、出力装置48に画像を表示させる。なお、統合管理装置121に接続される出力装置48と、管理装置101、102に接続される出力装置38とは、少なくとも一方に設けられていればよい。大容量記憶装置46は、HDDやSSDであり、監視カメラ131~134が撮影した映像を格納する。大容量記憶装置46は、監視システム1に登録される監視対象の画像を格納する。CPU40は、監視対象の画像を予め管理装置101、102及びサブエリア監視装置111~113へ送信する。
Communication I/
統合管理装置121の機能について説明する。統合管理装置121は、入力制御部501、情報管理部502、通信制御部503、統合パラメータ決定部504、及び出力制御部505として機能する。本実施形態の各機能ブロックは、CPU40が所定のプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。
Functions of the
入力制御部501は、入力装置47からの指示等の入力を受け付ける。例えば監視対象の画像の登録は、入力制御部501が入力装置47から該画像を受け付け、該監視対象を特定する各種情報が入力されることで行われる。
The
情報管理部502は、通信制御部503を介して管理装置101、102及びサブエリア監視装置111~113から必要な情報を取得する。例えば、予め登録されていた監視対象の画像(例えば顔画像)と一致する人物が検出された場合、情報管理部502は、検出された時刻、カメラ位置、どの顔画像と一致したか等のイベント情報及びイベント付加情報を取得する。その際、情報管理部502は、該当人物を検出した監視カメラの撮影時のパラメータ及び映像も一緒に取得してもよい。情報管理部502は、取得した情報を編集した画像を出力制御部505により出力装置48、例えばディスプレイに表示させる。
統合パラメータ決定部504は、監視システム1の全体的な制御パラメータを決定し、通信制御部503を介して管理装置101、102へ送信する。統合パラメータ決定部504の機能は管理装置101、102のパラメータ決定部304とほぼ同様である。
The integrated
図5は、出力装置48(ディスプレイ)に表示される画像の例示図である。出力装置38にも同様の画像が表示可能である。ディスプレイには、情報管理部502で生成された画像が表示される。以下、画像を分割画面601、602、603に3分割した例を説明するが、この限りではない。
FIG. 5 is an exemplary diagram of an image displayed on the output device 48 (display). A similar image can also be displayed on the
分割画面601は、監視対象である広域エリア140の全体を表示する。分割画面601は、広域エリア140の全体の地図上に、サブエリア141~143を明示し、監視カメラ131~134の位置が重畳表示される。分割画面601は、地図に代えて、予め用意した俯瞰の映像にサブエリア141~143を明示し、監視カメラ131~134の位置を重畳表示されてもよい。
A
分割画面602は、特定の監視カメラの映像をライブ表示している。監視カメラの選択は、分割画面601の地図表示から、入力装置47により選択可能となっている。ユーザは、ポインティングデバイスのような入力装置47により、サブエリアを選択後、サブエリアを拡大表示し、さらに該サブエリア内にある監視カメラを選択する。このような操作により、該監視カメラのライブ映像が分割画面602に表示される。図5の例では、サブエリア141が選択されており、監視カメラ131のライブ映像が表示されている。なお分割画面602に表示されるライブ映像は、ユーザの指定ではなく、予め設定した条件に該当する監視カメラの映像であってもよい。例えば、統合管理装置121は、特定の監視対象が検出された場合、該イベントを検出したサブエリア監視装置から当該監視カメラの映像を取得して表示してもよい。
A
分割画面603は、特定のイベントが発生したときのイベント情報及びイベント付加情報を表示している例である。特定のイベントとは、例えば、前述のような特定の監視対象(人物)の検出等である。表示するイベント情報及びイベント付加情報は、例えば、特定した人物の登録名、時刻、カメラ位置、撮影時の監視カメラのパラメータ(焦点距離、露出、画質等)である。監視カメラのパラメータは、ユーザの指定により分割画面603から変更できるようにしてもよい。分割画面603は、特定の監視カメラのパラメータだけではなく、特定のサブエリアに属する全ての監視カメラのパラメータを表示するようにしてもよい。この場合、特定のサブエリアに属する全ての監視カメラのパラメータが、ユーザの指定により変更可能であってもよい。監視カメラのパラメータを変更する場合、ユーザが入力装置47によりパラメータの項目を選択して、数値の入力などによりパラメータ値を変更する。統合パラメータ決定部504は、このように入力されたパラメータ値により監視カメラのパラメータを変更する。
A
パラメータの表示及びパラメータの指定の対象となる監視カメラは、予めユーザが指定する条件に一致する監視カメラに限定されてもよい。条件は、入力装置47から入力されて情報管理部502に設定される。例えば、ユーザは、屋外に配置される監視カメラや、映っている被写体の種類(人物、車、動体、登録人物等)を条件として指定する。この条件に合致する監視カメラのパラメータが、表示や指定の対象に限定される。これにより、ユーザが、カメラのパラメータの確認や設定を個別に行う手間を軽減することができる。
Surveillance cameras for which parameters are displayed and parameters are specified may be limited to surveillance cameras that match conditions specified by the user in advance. The conditions are input from the
統合管理装置121は、撮影した映像が表示される監視カメラを、撮影した監視対象に応じて決定してもよい。例えば、情報管理部502は、特定の人物の動線を、顔認証技術等を用いて推定、予測する。情報管理部502は、特定の人物を撮影した監視カメラだけではなく、推定、予測した動線を撮影範囲に含む複数の監視カメラのカメラパラメータを表示、設定可能とする。
The
(監視カメラの撮影条件設定処理)
以上のような本実施形態の監視システム1は、監視対象の移動にともなって監視カメラ131~134の撮影条件(カメラパラメータ)の設定を変更することで、より好適に監視対象の検出、追跡を行うことができる。図6は、監視対象が進入した等の所定のイベントが発生した際に、監視カメラ131~134の撮影条件等を設定する設定情報を生成する処理を表すフローチャートである。ここでは、管理装置101が監視カメラ131~134の設定情報を生成する処理を行う例を説明するが、管理装置102や統合管理装置121が処理を行ってもよい。
(Surveillance camera imaging condition setting processing)
The monitoring system 1 of the present embodiment as described above changes the setting of the photographing conditions (camera parameters) of the
管理装置101は、サブエリア監視装置111~113のいずれかから、担当するサブエリア141~143内で発生したイベントを検出したことを表す通知を取得する(S101)。例えば管理装置101は、イベントを検出したことを表す通知としてイベント情報及びイベント付加情報を取得する。管理装置101は、取得したイベント情報及びイベント付加情報を保存する。
サブエリア監視装置111~113は、例えば担当するサブエリア141~143に予め登録される監視対象(人)が出現する場合に、人体検出及び顔画像によるマッチング技術を用いて該監視対象が出現したというイベントを検出する。サブエリア監視装置111~113は、監視カメラ131~134から取得した映像内の監視対象の画像と、予め登録された監視対象の画像とを、公知の顔認証技術を用いて比較する。サブエリア監視装置111~113は、比較結果が所定の類似度となった場合に、イベントを検出したと判断して、管理装置101にイベントの発生を通知する。
The
The sub-area monitoring devices 111-113, for example, when a pre-registered monitoring target (person) appears in the sub-areas 141-143 they are in charge of, use human body detection and face image matching technology to detect whether the monitoring target has appeared. Detect the event. The
監視対象が自動車等の場合、ナバープレート等の監視対象毎に固有の情報が予め登録される。サブエリア監視装置111~113は、予め登録された情報と、監視カメラ131~134から取得した映像内の監視対象の画像と、の比較によりイベントを検出する。 When the monitored object is an automobile or the like, unique information is registered in advance for each monitored object such as a license plate. The sub-area monitoring devices 111-113 detect an event by comparing pre-registered information with images of monitored objects in video images acquired from the monitoring cameras 131-134.
イベント検出の通知を取得した管理装置101は、取得したイベントの内容に応じて複数のサブエリア監視装置111~113から所定数のサブエリア監視装置をグループ化する(S102)。管理装置101は、典型的には、監視対象の現在位置と、サブエリア141~143間の距離的な近さとに基づいて、グループ化を行う。例えば管理装置101は、監視対象の現在位置を含むサブエリアに隣接するサブエリアを担当するサブエリア監視装置をグループ化する。また、管理装置101は、サブエリアの状況、例えば、監視カメラ131~134が撮影した映像内の人の混雑度や照明等の条件が近いもので、グループ化を行ってもよい。
The
管理装置101は、イベント情報及びイベント付加情報に基づいて、グループ化したサブエリア監視装置に接続される各監視カメラに設定する設定情報を決定する(S103)。管理装置101は、設定情報をグループ化したサブエリア監視装置に送信する。サブエリア監視装置は、取得した設定情報に基づいて、監視カメラの撮影条件等を設定する。設定情報は、典型的にはカメラパラメータである。例えば、設定情報は、撮影方向、焦点距離、解像度、シャッタースピード、絞り(F値)、測光モード、焦点距離、露出補正ステップ値、色空間、フレームレート等である。
The
図7は、イベントと設定情報との対応説明図である。管理装置101は、例えばこのようなテーブルを予めRAM32に保持し、イベントの発生時にこのテーブルを参照して設定情報を決定する。このテーブルでは、イベント情報の種類に応じて、設定情報として監視カメラ131~134に設定する焦点距離、露出補正、画質が決定される。
FIG. 7 is an explanatory diagram of correspondence between events and setting information. The
なお、設定情報は、サブエリア監視装置111~113が映像解析を行うためのパラメータであってもよい。具体的は、設定情報は、顔を検出するためのパラメータ、例えば、検出する顔の大きさや向き等を変更するようなパラメータであってもよい。サブエリア監視装置111~113は、設定情報に基づいて監視カメラ131~134から取得する映像を解析することになる。
Note that the setting information may be parameters for the
設定情報は、設定をサブエリア監視装置111~113や監視カメラ131~134に実際に反映させる時刻や基準等の反映条件を含んでもよい。これは、設定情報が監視対象の追跡に最適な設定であり、一般的な撮影状況で好ましい設定ではない可能性があるためである。サブエリア監視装置111~113は、反映条件が満たされると設定情報に基づいて設定を変更する。担当するサブエリア内に監視対象が存在する、或いは存在する可能性が所定値よりも高くなった場合に、サブエリア監視装置111~113は、設定情報を実際に反映する。管理装置101は、設定情報が反映される時刻や基準を、例えばイベント情報やイベント付加情報に基づいて決定する。管理装置101は、例えば監視対象を追跡する場合に、イベント情報に基づいて監視対象の移動方向及び速度を測定し、各サブエリア141~143に監視対象が出現する時刻を予測する。管理装置101は、この予測結果に基づいて、各サブエリア監視装置111~113に設定情報を反映させるように、該設定情報に予測結果を含ませる。これにより設定情報による設定は、予測結果の時刻にサブエリア監視装置111~113により反映される。
The setting information may include reflection conditions such as the time and criteria for actually reflecting the settings on the sub-area monitoring devices 111-113 and the monitoring cameras 131-134. This is because the setting information may be the optimum setting for tracking the monitored object, and may not be the preferred setting for general shooting situations. The
このように管理装置101は、発生したイベントの状況に応じてサブエリア毎にカメラパラメータなどの設定情報を更新する。これにより監視システム1は、監視対象を、より好適な条件で監視することが可能になる。管理装置101は、サブエリア監視装置111~113のグループ化後に設定情報を決定するために、設定情報に関する演算をまとめて行うことができる。また同一グループ内で制御される監視カメラのパラメータを相互に関連させて設定できるために、高度な監視対象の監視を実現することができる。そのために、より素早く設定情報の反映が可能になる。
In this manner, the
サブエリア141~143に監視対象が出現するか否かでサブエリア監視装置111~113及び監視カメラ131~134の設定を切り替えることで、以下のような効果が得られる。
特定の監視対象を追跡していない平時の状況では、監視カメラは、例えば、異常な状況が発生しているか否かの判定に必要な設定、典型的には画面全体が概ね同じ明るさで撮影できるような設定であればよい。しかし、逆光状態や夕方等の著しい輝度の変化が画面内にある状態で特定の人物の顔を判別、追跡する場合、平時の設定では、サブエリア監視装置が、顔を正しく検出さえできないことがある。このような場合、監視カメラは、背景が多少白飛びしても監視対象が現れそうな位置を人の顔が判別しやすいホワイトバランスに設定して撮影する。これによりサブエリア監視装置は、監視対象の検出精度が向上する。ただしこのような極端な設定は、監視対象がサブエリア内に存在する可能性が高い場合に限られるべきである。従ってこのような設定は、イベント発生状況に応じて動的に決定される。
By switching the settings of the sub-area monitoring devices 111-113 and the monitoring cameras 131-134 depending on whether or not a monitoring target appears in the sub-areas 141-143, the following effects can be obtained.
In normal situations, when not tracking a particular target, a surveillance camera may, for example, use the settings necessary to determine whether an abnormal situation is occurring, typically the entire screen at roughly the same brightness. Any setting that allows this is acceptable. However, when distinguishing and tracking a specific person's face in a backlight condition or in the evening when there is a significant change in luminance in the screen, the sub-area monitoring device may not even be able to detect the face correctly under normal settings. be. In such a case, the surveillance camera shoots the position where the surveillance object is likely to appear even if the background is slightly overexposed by setting the white balance so that the human face can be easily distinguished. As a result, the sub-area monitoring device can improve the detection accuracy of the monitored object. However, such extreme settings should be limited to cases where there is a high possibility that the monitored object exists within the sub-area. Therefore, such settings are dynamically determined according to the event occurrence situation.
(変形例)
以上の説明では、監視対象が人等の実体物であるが、監視対象は、異常な状態であってもよい。ここでは監視システム1が、異常な状態の検出及び解析を行う例について説明する。管理装置101、102、及び統合管理装置121は、イベントとして検出される異常な状態に応じて、サブエリア監視装置111~113及び監視カメラ131~134の設定を切り替える。
(Modification)
In the above description, the monitored object is a physical object such as a person, but the monitored object may be in an abnormal state. Here, an example in which the monitoring system 1 detects and analyzes an abnormal state will be described. The
監視システム1は、通常の混雑度よりも高い危険な状態に近い混雑度が発生する予兆や、通常とは異なる集団の動き、例えば集団で走り去る状態を、異常な状態として扱う。ここでは、危険な状態に近い混雑度が発生する予兆を「危険混雑状態の予兆」、集団で走り去る状態を「集団逃避」という。 The monitoring system 1 treats, as an abnormal state, a sign of the occurrence of a congestion level close to a dangerous state higher than the normal congestion level, or a group movement different from usual, for example, a group running away. Here, a sign of the occurrence of a congestion degree close to a dangerous state is called a "prediction of a dangerous congestion state", and a state of running away in a group is called a "group escape".
危険混雑状態の予兆は、映像中の混雑度と、人の大まかな流れとにより検出される。この場合、危険混雑状態の予兆は、1つのサブエリア内の結果だけでなく、複数のサブエリア内の映像を統合することによって検出される。サブエリア監視装置は、他のサブエリア監視装置から映像を取得して、イベント検出の処理を行う。なお、管理装置101、102或いは統合管理装置121が複数のサブエリア監視装置から映像を取得してイベント検出を行ってもよい。この場合、管理装置101、102或いは統合管理装置121にイベント検出部202が設けられる。
A sign of a dangerous congestion state is detected from the degree of congestion in the video and the rough flow of people. In this case, a sign of dangerous congestion is detected by integrating not only the result within one sub-area but also the images within a plurality of sub-areas. The sub-area monitoring device acquires images from other sub-area monitoring devices and performs event detection processing. Note that the
ある程度以上の混雑状況と人の流れが所定の一箇所に向かっている場合、危険混雑状態の予兆が検出される。この場合、危険混雑状況が発生すると考えられるサブエリアを担当するサブエリア監視装置及び監視カメラの設定が、危険混雑状況を検出するための設定に変更される。例えば監視カメラが、画角を広くして、より広域の状態を撮影できるように設定変更される。 If the congestion is above a certain level and the flow of people is heading toward a predetermined location, a sign of dangerous congestion is detected. In this case, the settings of the sub-area monitoring device and the monitoring camera that are in charge of the sub-area where the dangerous congestion situation is expected to occur are changed to the settings for detecting the dangerous congestion situation. For example, the setting of the surveillance camera is changed so that the angle of view is widened so that a wider area can be photographed.
混雑度の推定は、映像を解析して人数を数える処理を含む。設定変更時には、サブエリア監視装置に設定される人数を数えるためのパラメータが変更される。例えば人が異常なほど密集した状況では、映像中の人が重なっている。そのために、人体を検出する場合、未検出となってしまう人が多く発生する。設定変更により、人体ではなく、頭部を検出することで、正確な人数が把握できるようになる。一般的な状況(人の密度が低い状態)では、頭部よりも人体の方が、精度良く人数を検出できる。しかし人の密度が高まると予想される、もしくは高まっている状況では、頭部の検出に切り替える方が、精度良く人数を検出できる。そのために人の密度が高まると予想される、もしくは高まっている状況では、頭部の検出に切り替える方が、危険混雑状態の検出には望ましい。 Estimation of the degree of congestion includes processing for analyzing video and counting the number of people. When changing the setting, the parameter for counting the number of people set in the subarea monitoring device is changed. For example, in situations where people are abnormally dense, the people in the video overlap. Therefore, when detecting a human body, many people are not detected. By changing the settings, it will be possible to accurately determine the number of people by detecting the head instead of the human body. Under general conditions (when the density of people is low), the number of people can be detected more accurately from the human body than from the head. However, in a situation where the density of people is expected to increase or is increasing, switching to head detection enables more accurate detection of the number of people. Therefore, in situations where the density of people is expected to increase or is increasing, switching to head detection is preferable for detecting dangerous congestion.
集団逃避は、人体検出及び追跡により検出される。複数の人体が一斉に所定の速度以上で移動したことを検出することで、集団逃避が検出される。例えば、所定のアクシデントが発生した場合、その場を離れようとする人が増えるために、集団逃避が発生する。 Mass escapes are detected by human detection and tracking. Collective escape is detected by detecting that a plurality of human bodies have moved together at a predetermined speed or higher. For example, when a certain accident occurs, more people want to leave the place, resulting in mass evacuation.
この場合、設定情報には、以下の2つが考えられる。一つは、アクシデントが発生した近傍の監視カメラを、アクシデントの発生地点に向けてズームさせ、より詳細な映像を得るようにする設定情報である。もう一つは、アクシデントの発生地点から離れたサブエリアの監視カメラを、イベント発生時に発生地点に存在した人物を追跡するような設定にする設定情報である。複数の監視カメラの設定をこのように変更することで、アクシデントに関係する人の行動を把握することができる。 In this case, the following two types of setting information are conceivable. One is setting information for zooming a surveillance camera in the vicinity of an accident to the point of occurrence of the accident to obtain a more detailed image. The other is setting information for setting a surveillance camera in a sub-area away from the accident occurrence point to track a person who was present at the event occurrence point when the event occurred. By changing the settings of multiple surveillance cameras in this way, it is possible to grasp the behavior of people involved in an accident.
以上のような本実施形態の監視システム1は、監視対象の状況に応じて、監視カメラ131~134の撮影条件や、サブエリア監視装置111~113の映像解析条件を変更することで、監視対象の監視を好適な条件で行うことができる。このような監視システム1では、多数の監視カメラやサブエリア監視装置を、監視対象の監視を好適な条件で自動的に連動して行うことができるように設定することができる。
The monitoring system 1 of this embodiment as described above changes the shooting conditions of the
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
Claims (9)
前記複数の撮像装置のそれぞれで撮像された映像のうち少なくとも1つの映像から監視対象が検出されたことを示すイベント情報を取得する取得手段と、
前記監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定手段と、
前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成手段と、を有し、
前記カメラパラメータは、前記反映条件を満たす前記撮像装置に対して設定されることを特徴とする情報処理装置。 An information processing device that generates setting information for a plurality of imaging devices corresponding to a plurality of sub-areas obtained by dividing a wide area,
acquisition means for acquiring event information indicating that a monitoring target has been detected from at least one image among images captured by each of the plurality of imaging devices;
determining means for determining a group of one or more imaging devices corresponding to a second sub-area adjacent to the first sub-area including the position where the monitored object has entered;
camera parameters for the imaging device determined based on table information that presets the relationship between the event information and the camera parameters; and actual imaging devices included in the group determined based on the event information. a generation means for generating the setting information including a reflection condition indicating a time at which the camera parameter is to be reflected ;
An information processing apparatus, wherein the camera parameters are set for the imaging apparatus that satisfies the reflection condition.
前記撮像装置は、送信された前記カメラパラメータにより設定が変更されることを特徴とする請求項1に記載の情報処理装置。 further comprising transmitting means for transmitting the generated camera parameters to the imaging device;
2. The information processing apparatus according to claim 1, wherein the setting of said imaging apparatus is changed according to said transmitted camera parameters.
前記生成手段は、前記イベント情報に基づいて、前記カメラパラメータを生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The obtaining means obtains the monitoring target when the monitoring target detected in the adjacent sub-area by the monitoring device that detects the monitoring target is associated with the video imaged by each of the plurality of imaging devices. Acquiring the event information further including information about the position of the imaging device that captured the detected image, the imaging time, or the camera parameters set in the imaging device;
5. The information processing apparatus according to claim 1 , wherein said generating means generates said camera parameters based on said event information.
前記複数の撮像装置のそれぞれで撮像された映像から監視対象を検出する監視装置と、
前記監視装置によって少なくとも1つの映像から前記監視対象が検出された場合に、前記監視対象に応じて設定される設定情報に基づいて前記撮像装置または前記監視装置を制御する管理装置と、を有する情報処理システムであって、
前記管理装置は、
前記監視対象が検出されたことを示すイベント情報を取得する取得手段と、
前記監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定手段と、
前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成手段と、を有し、
前記撮像装置は、前記反映条件を満たす場合に前記カメラパラメータが設定されることを特徴とすることを特徴とする情報処理システム。 a plurality of imaging devices each imaging a plurality of sub- areas obtained by dividing a wide area ;
a monitoring device that detects a monitoring target from images captured by each of the plurality of imaging devices;
and a management device that controls the imaging device or the monitoring device based on setting information set according to the monitoring target when the monitoring device detects the monitoring target from at least one video. A processing system,
The management device
Acquisition means for acquiring event information indicating that the monitoring target has been detected;
determining means for determining a group of one or more imaging devices corresponding to a second sub-area adjacent to the first sub-area including the position where the monitored object has entered;
camera parameters for the imaging device determined based on table information that presets the relationship between the event information and the camera parameters; and actual imaging devices included in the group determined based on the event information. a generation means for generating the setting information including a reflection condition indicating a time at which the camera parameter is to be reflected;
The information processing system, wherein the imaging device is characterized in that the camera parameters are set when the reflection condition is satisfied.
前記複数の撮像装置のそれぞれで撮像された映像のうち少なくとも1つの映像から監視対象が検出されたことを示すイベント情報を取得する取得工程と、
監視対象が侵入した位置を含む第1のサブエリアに隣接する第2のサブエリアに対応する1以上の撮像装置のグループを決定する決定工程と、
前記イベント情報とカメラパラメータとの関係を予め設定したテーブル情報に基づいて決定される、前記撮像装置に対するカメラパラメータと、前記イベント情報に基づいて決定される、前記グループに含まれる撮像装置に実際に前記カメラパラメータを反映させる時刻を示す反映条件と、を含む前記設定情報を生成する生成工程と、
前記反映条件を満たす前記撮像装置に対して前記カメラパラメータを設定する設定工程と、を含むことを特徴とする情報処理方法。 An information processing method for generating setting information of a plurality of imaging devices corresponding to a plurality of sub-areas obtained by dividing a wide area,
an acquiring step of acquiring event information indicating that a monitoring target has been detected from at least one image among images captured by each of the plurality of imaging devices;
a determination step of determining a group of one or more imaging devices corresponding to a second sub-area adjacent to the first sub-area containing the location where the monitored object has entered;
camera parameters for the imaging device determined based on table information that presets the relationship between the event information and the camera parameters; and actual imaging devices included in the group determined based on the event information. a generation step of generating the setting information including a reflection condition indicating a time to reflect the camera parameter ;
and a setting step of setting the camera parameters for the imaging device that satisfies the reflection condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018039323A JP7146416B2 (en) | 2018-03-06 | 2018-03-06 | Information processing device, information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018039323A JP7146416B2 (en) | 2018-03-06 | 2018-03-06 | Information processing device, information processing system, information processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019153986A JP2019153986A (en) | 2019-09-12 |
JP2019153986A5 JP2019153986A5 (en) | 2021-04-08 |
JP7146416B2 true JP7146416B2 (en) | 2022-10-04 |
Family
ID=67947212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018039323A Active JP7146416B2 (en) | 2018-03-06 | 2018-03-06 | Information processing device, information processing system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7146416B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG10202000146SA (en) | 2020-01-07 | 2021-08-30 | Nec Asia Pacific Pte Ltd | A method and an apparatus for determining if an event relates to an unauthorized subject |
CN112287143A (en) * | 2020-10-29 | 2021-01-29 | 杭州海康威视数字技术股份有限公司 | Event information retrieval and storage method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005136774A (en) | 2003-10-31 | 2005-05-26 | Casio Comput Co Ltd | Camera surveillance system and program |
JP2015213338A (en) | 2015-06-16 | 2015-11-26 | 株式会社ニコン | Imaging apparatus |
WO2016157327A1 (en) | 2015-03-27 | 2016-10-06 | 日本電気株式会社 | Video surveillance system and video surveillance method |
-
2018
- 2018-03-06 JP JP2018039323A patent/JP7146416B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005136774A (en) | 2003-10-31 | 2005-05-26 | Casio Comput Co Ltd | Camera surveillance system and program |
WO2016157327A1 (en) | 2015-03-27 | 2016-10-06 | 日本電気株式会社 | Video surveillance system and video surveillance method |
JP2015213338A (en) | 2015-06-16 | 2015-11-26 | 株式会社ニコン | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2019153986A (en) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9141184B2 (en) | Person detection system | |
US9477891B2 (en) | Surveillance system and method based on accumulated feature of object | |
KR101933153B1 (en) | Control Image Relocation Method and Apparatus according to the direction of movement of the Object of Interest | |
US10755109B2 (en) | Monitoring system, monitoring method, and non-transitory computer-readable storage medium | |
CN105809710B (en) | System and method for detecting moving object | |
JP6914007B2 (en) | Information processing device and information processing method | |
JP2011060058A (en) | Imaging apparatus and monitoring system | |
KR102344606B1 (en) | CCTV system for tracking and monitoring of object, and tracking and monitoring method therefor | |
JP7146416B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP2019029935A (en) | Image processing system and control method thereof | |
KR20170096838A (en) | Apparatus and method for searching cctv image | |
KR101178886B1 (en) | High resolution digital ptz camera, monitoring system including high resolution digital ptz camera and data transmisson method thereof | |
JP5865584B2 (en) | Specific person detection system and detection method | |
JP2007312271A (en) | Surveillance system | |
JP2012099940A (en) | Photographic obstruction detection method, obstruction detection device, and monitoring camera system | |
JP6941458B2 (en) | Monitoring system | |
JP4985742B2 (en) | Imaging system, method and program | |
KR102030736B1 (en) | Apparatus for analyzing Multi-Distributed Video Data | |
JP2020022177A (en) | Video monitoring system and video monitoring method | |
JP2007243270A (en) | Video image surveillance system and method therefor | |
KR102395440B1 (en) | Cloud-based building management system and method thereof | |
KR101363601B1 (en) | Remote video monitoring method and system including privacy protecion | |
KR101196408B1 (en) | Collaboration monitoring system and method for collaboration monitoring | |
US20190279477A1 (en) | Monitoring system and information processing apparatus | |
JP2017028688A (en) | Image managing device, image managing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220921 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7146416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |