JP2020136855A - Monitoring system, monitor support device, monitoring method, monitor support method, and program - Google Patents

Monitoring system, monitor support device, monitoring method, monitor support method, and program Download PDF

Info

Publication number
JP2020136855A
JP2020136855A JP2019026493A JP2019026493A JP2020136855A JP 2020136855 A JP2020136855 A JP 2020136855A JP 2019026493 A JP2019026493 A JP 2019026493A JP 2019026493 A JP2019026493 A JP 2019026493A JP 2020136855 A JP2020136855 A JP 2020136855A
Authority
JP
Japan
Prior art keywords
camera
person
charge
area
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019026493A
Other languages
Japanese (ja)
Inventor
智之 清水
Tomoyuki Shimizu
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019026493A priority Critical patent/JP2020136855A/en
Publication of JP2020136855A publication Critical patent/JP2020136855A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To suppress search leak even when person search is difficult in a search target region.SOLUTION: A monitoring system for monitoring a person on the basis of video imaged by a plurality of cameras installed at different positions includes: responsible camera determination means for determining at least one camera out of the plurality of cameras on the basis of installation information on the plurality of cameras and a target region set as a search target, as a responsible camera in charge of imaging a peripheral region determined by taking the target region as a reference; and camera control means for controlling an imaging direction of the responsible camera on the basis of video of the peripheral region imaged by the responsible camera.SELECTED DRAWING: Figure 4

Description

本発明は、監視システム、監視支援装置、監視方法、監視支援方法及びプログラムに関する。 The present invention relates to a monitoring system, a monitoring support device, a monitoring method, a monitoring support method and a program.

近年の監視カメラシステムの普及により、様々な場所で人物を撮影するケースが増加している。監視カメラシステムでは、リアルタイムで危険予知や事件発生の検知を行うだけでなく、蓄積された画像を見ることで、事件の容疑者や共犯者、迷子や行方不明者といった人物の捜索を網羅的に行うことができる。大量に蓄積された画像から高速に漏れを少なく対象を検索する技術として、顔照合技術や人物照合技術の検討が進んでいる。いずれの技術も、予め撮影された映像中から同一人物を照合するための特徴情報を抽出して蓄積しておき、指定された検索対象の人物の映像から同様に抽出した特徴情報と比較することで、同一人物か否かを判定する。 With the spread of surveillance camera systems in recent years, the number of cases of shooting people in various places is increasing. The surveillance camera system not only predicts danger and detects the occurrence of an incident in real time, but also comprehensively searches for suspects, accomplices, lost children, and missing persons by viewing the accumulated images. It can be carried out. Face matching technology and person matching technology are being studied as a technology for searching a target at high speed with less leakage from a large amount of accumulated images. In each technique, feature information for collating the same person is extracted and accumulated from the images shot in advance, and compared with the feature information similarly extracted from the images of the specified search target person. Then, it is determined whether or not they are the same person.

従来の人物の検索では、映像から検索可能な特徴量を抽出する必要がある。しかし、検索対象の領域において人が混雑しているため必要な特徴量に対応した映像を撮影できないような状況においては、精度よく人物検索を行うことができない。これに対し、特許文献1には、第1のカメラにより撮影された撮影画像において検出された人物の数が所定値よりも大きい場合に、第1のカメラの撮影領域を第2のカメラと第3のカメラとで分担して撮影する技術が開示されている。これにより、複数の人物を効率的に監視することができる。 In the conventional human search, it is necessary to extract the searchable features from the video. However, in a situation where people are crowded in the area to be searched and it is not possible to shoot an image corresponding to the required feature amount, it is not possible to perform a person search with high accuracy. On the other hand, in Patent Document 1, when the number of persons detected in the captured image captured by the first camera is larger than a predetermined value, the imaging area of the first camera is set to the second camera and the second camera. A technique for sharing and shooting with the three cameras is disclosed. As a result, a plurality of persons can be efficiently monitored.

特開2005−117542号公報Japanese Unexamined Patent Publication No. 2005-117542

しかしながら、検索対象の領域における混雑度が高い場合には、複数のカメラで分担しても、必要な特徴量を抽出できないこともある。また、検索対象の領域を撮影するカメラが設置されていない等、検索対象の領域の撮影が困難な場合もある。 However, when the degree of congestion in the search target area is high, it may not be possible to extract the required feature amount even if it is shared by a plurality of cameras. In addition, it may be difficult to photograph the search target area because a camera for photographing the search target area is not installed.

本発明はこのような問題点に鑑みなされたもので、検索対象の領域における人物検索が困難な場合においても、検索漏れを低減することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to reduce omission of search even when it is difficult to search for a person in a search target area.

そこで、本発明は、異なる位置に設置された複数のカメラにより撮影された映像に基づいて、人物を監視する監視システムであって、前記複数のカメラの設置情報と、検索対象として設定された対象領域と、に基づいて、前記複数のカメラの中から、少なくとも1つのカメラを、前記対象領域を基準として定まる周辺領域の撮影を担当する担当カメラとして決定する担当カメラ決定手段と、前記担当カメラにより撮影された前記周辺領域の映像に基づいて、前記担当カメラの撮影方向を制御するカメラ制御手段とを有することを特徴とする。 Therefore, the present invention is a monitoring system that monitors a person based on images taken by a plurality of cameras installed at different positions, and the installation information of the plurality of cameras and a target set as a search target. Based on the area, at least one camera from the plurality of cameras is determined by the responsible camera determining means for determining the camera in charge of shooting the peripheral area determined with reference to the target area, and the responsible camera. It is characterized by having a camera control means for controlling the shooting direction of the camera in charge based on the captured image of the peripheral region.

本発明によれば、検索対象の領域における人物検索が困難な場合においても、検索漏れを低減することができる。 According to the present invention, it is possible to reduce search omissions even when it is difficult to search for a person in a search target area.

第1の実施形態に係る監視システムの全体構成図である。It is an overall block diagram of the monitoring system which concerns on 1st Embodiment. 監視支援装置のハードウェア構成図である。It is a hardware configuration diagram of a monitoring support device. カメラ及び監視装置の機能構成図である。It is a functional block diagram of a camera and a monitoring device. 監視支援処理を示すシーケンス図である。It is a sequence diagram which shows the monitoring support processing. 監視領域の一例を示す図である。It is a figure which shows an example of a monitoring area. 監視領域の一例を示す図である。It is a figure which shows an example of a monitoring area. 監視領域の一例を示す図である。It is a figure which shows an example of a monitoring area. 第4の実施形態に係る監視支援装置の機能構成図である。It is a functional block diagram of the monitoring support device which concerns on 4th Embodiment. 監視領域の一例を示す図である。It is a figure which shows an example of a monitoring area.

以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る監視システムの全体構成図である。監視システムは、複数のカメラ100と、監視装置110と、監視支援装置120と、を有している。監視装置110は、複数のカメラ100と通信可能であり、また監視支援装置120とも通信可能である。監視装置110とカメラ100及び監視支援装置120は、例えばLocal Area Network(LAN)等により接続されているものとする。
(First Embodiment)
FIG. 1 is an overall configuration diagram of a monitoring system according to the first embodiment. The monitoring system includes a plurality of cameras 100, a monitoring device 110, and a monitoring support device 120. The monitoring device 110 can communicate with the plurality of cameras 100, and can also communicate with the monitoring support device 120. It is assumed that the monitoring device 110, the camera 100, and the monitoring support device 120 are connected by, for example, a Local Area Network (LAN) or the like.

複数のカメラ100は、監視領域に設置され、各カメラ100により得られた映像は、監視装置110に送信される。監視装置110は、各カメラ100を制御し、また各カメラ100の映像を蓄積する。監視装置110はまた、カメラ100の映像において人物検索を行う。監視支援装置120は、監視装置110から映像を取得し、映像に基づいて、人物検索を支援するための処理を行う。 The plurality of cameras 100 are installed in the monitoring area, and the images obtained by each camera 100 are transmitted to the monitoring device 110. The monitoring device 110 controls each camera 100 and stores an image of each camera 100. The monitoring device 110 also searches for a person in the image of the camera 100. The monitoring support device 120 acquires an image from the monitoring device 110, and performs processing for supporting a person search based on the image.

図2は、監視支援装置120のハードウェア構成図である。監視支援装置120は、CPU201と、ROM202と、RAM203と、外部記憶装置204と、入力デバイスインタフェース205と、出力デバイスインタフェース206と、を有している。CPU201は、監視支援装置120の全体を制御する。ROM202は、変更を必要としないプログラムやパラメータを格納する。RAM203は、外部記憶装置204などから供給されるプログラムやデータを一時記憶する。外部記憶装置204は、カメラ100に固定して設置されたハードディスクドライブ(HDD)やフラッシュメモリドライブ(SSD)、又はカメラ100に着脱可能な光ディスク、磁気や光カード、ICカード、メモリカードなどである。外部記憶装置204により、処理結果を永続化したり、大規模データを保存したりすることができる。 FIG. 2 is a hardware configuration diagram of the monitoring support device 120. The monitoring support device 120 includes a CPU 201, a ROM 202, a RAM 203, an external storage device 204, an input device interface 205, and an output device interface 206. The CPU 201 controls the entire monitoring support device 120. The ROM 202 stores programs and parameters that do not need to be changed. The RAM 203 temporarily stores programs and data supplied from the external storage device 204 and the like. The external storage device 204 is a hard disk drive (HDD) or flash memory drive (SSD) fixedly installed on the camera 100, an optical disk detachable from the camera 100, a magnetic or optical card, an IC card, a memory card, or the like. .. The external storage device 204 can make the processing result persistent and store a large amount of data.

入力デバイスインタフェース205は、ユーザの操作を受けてデータを入力するポインティングデバイスやキーボードなどの入力デバイス208とのインタフェースである。出力デバイスインタフェース206は、カメラ100のプログラムの実行結果を出力するための、モニタなどの出力デバイス209とのインタフェースである。207は、カメラ100の各ユニットを通信可能に接続するシステムバスである。監視装置110のハードウェア構成は、図2を参照しつつ説明した監視支援装置120のハードウェア構成と同様である。 The input device interface 205 is an interface with an input device 208 such as a pointing device or a keyboard that inputs data in response to a user operation. The output device interface 206 is an interface with an output device 209 such as a monitor for outputting the execution result of the program of the camera 100. Reference numeral 207 is a system bus for communicably connecting each unit of the camera 100. The hardware configuration of the monitoring device 110 is the same as the hardware configuration of the monitoring support device 120 described with reference to FIG.

図3は、カメラ100及び監視装置110の機能構成図である。はじめに監視装置110について説明する。監視装置110は、通信処理部301と、映像データベース(DB)302と、人物検索部303と、カメラ制御部304と、を有している。 FIG. 3 is a functional configuration diagram of the camera 100 and the monitoring device 110. First, the monitoring device 110 will be described. The monitoring device 110 includes a communication processing unit 301, a video database (DB) 302, a person search unit 303, and a camera control unit 304.

通信処理部301は、外部装置との通信を制御する。映像DB302は、各カメラ100から受信した映像を蓄積する。人物検索部303は、映像DB302に蓄積されている映像において、人物検索を行う。人物検索部303は、例えば、カメラ100により撮影された映像から人物部分を抽出し、抽出した人物映像から色成分、エッジ情報、方向、動き等、特徴的な要素をベクトル化した情報(特徴ベクトル)を生成し、このベクトルを予め蓄積しておく。そして、人物検索部303は、検索対象の映像と、蓄積されたベクトルとを用いて、蓄積しておいた上で距離近傍探索によって人物検索を行う。人物映像からの特徴ベクトルの生成には、近年であれば深層学習を利用した方法が広く用いられており、そのような手法を適用して抽出すればよい。なお、人物検索部303は、人物検索処理を行えばよく、人物検索処理における具体的な処理は実施形態に限定されるものではない。 The communication processing unit 301 controls communication with an external device. The video DB 302 stores the video received from each camera 100. The person search unit 303 searches for a person in the video stored in the video DB 302. For example, the person search unit 303 extracts a person portion from the image captured by the camera 100, and vectorizes characteristic elements such as color components, edge information, direction, and movement from the extracted person image (feature vector). ) Is generated and this vector is accumulated in advance. Then, the person search unit 303 uses the video to be searched and the accumulated vector to perform a person search by a distance neighborhood search after accumulating the images. In recent years, a method using deep learning has been widely used for generating a feature vector from a human image, and such a method may be applied for extraction. The person search unit 303 may perform the person search process, and the specific process in the person search process is not limited to the embodiment.

カメラ制御部304は、各カメラ100の制御性能に応じたパン・チルト・ズーム(以下、PTZと称する)を制御する。なお、カメラ制御部304は、複数のカメラ100を識別可能であって、各カメラ100を所望の状態に制御することができるものとする。カメラ制御部304は、通信処理部301を介して監視支援装置120から所定のカメラ100に対する制御指示を取得し、制御指示に従い、制御指示に係るカメラ100を制御する。 The camera control unit 304 controls pan / tilt / zoom (hereinafter referred to as PTZ) according to the control performance of each camera 100. It is assumed that the camera control unit 304 can identify a plurality of cameras 100 and can control each camera 100 to a desired state. The camera control unit 304 acquires a control instruction for a predetermined camera 100 from the monitoring support device 120 via the communication processing unit 301, and controls the camera 100 related to the control instruction according to the control instruction.

また、監視装置110の外部記憶装置204等の記憶部には、設定情報305が記憶されているものとする。ここで、設定情報305は、地図情報と設置情報とを含んでいる。地図情報は、複数のカメラ100が設置された位置を含む地図を示す情報である。地図情報には、カメラ100だけでなく、道路や建物等の位置が示されている。設置情報は、各カメラ100の識別情報と、設置場所、制御情報を対応付けた情報である。ここで、設置場所は、地図上の位置を示す座標値である。制御性能情報は、対応するカメラ100の撮影方向がわかる角度又は方位を示す情報、PTZといった制御に係る性能を示す情報である。 Further, it is assumed that the setting information 305 is stored in the storage unit such as the external storage device 204 of the monitoring device 110. Here, the setting information 305 includes map information and installation information. The map information is information indicating a map including positions where a plurality of cameras 100 are installed. In the map information, not only the camera 100 but also the positions of roads, buildings, and the like are shown. The installation information is information in which the identification information of each camera 100 is associated with the installation location and control information. Here, the installation location is a coordinate value indicating a position on the map. The control performance information is information indicating an angle or direction in which the shooting direction of the corresponding camera 100 is known, and information indicating performance related to control such as PTZ.

次に、監視支援装置120について説明する。監視支援装置120は、通信処理部311と、対象領域設定部312と、状況判定部313と、周辺領域設定部314と、担当カメラ決定部315と、人流解析部316と、撮影方向決定部317と、を有している。通信処理部311は、外部装置との通信を制御する。対象領域設定部312は、入力デバイス208を介したユーザ操作に応じて、人物検索の対象となる領域及び時間帯を設定する。以下、対象領域設定部312により設定された領域を対象領域と称する。 Next, the monitoring support device 120 will be described. The monitoring support device 120 includes a communication processing unit 311, a target area setting unit 312, a situation determination unit 313, a peripheral area setting unit 314, a responsible camera determination unit 315, a human flow analysis unit 316, and a shooting direction determination unit 317. And have. The communication processing unit 311 controls communication with an external device. The target area setting unit 312 sets the target area and time zone for the person search according to the user operation via the input device 208. Hereinafter, the area set by the target area setting unit 312 is referred to as a target area.

状況判定部313は、予め定められた条件に従い、対象領域設定部312により設定された対象領域が検索困難領域であるか否かを判定する。ここで、検索困難領域とは、人物検索に適した映像を得るのが困難な領域である。本実施形態においては、状況判定部313は、対象領域を撮影可能なカメラ100が設置されていない場合に、対象領域を検索困難領域と判定するという条件に従い、検索困難領域であるか否かを判定するものとする。なお、状況判定部313は、通信処理部311を介して監視装置110から設定情報305を取得し、検索困難領域であるか否かの判定において設定情報305を参照するものとする。 The situation determination unit 313 determines whether or not the target area set by the target area setting unit 312 is a search difficult area according to a predetermined condition. Here, the search difficult area is an area in which it is difficult to obtain an image suitable for a person search. In the present embodiment, the situation determination unit 313 determines whether or not the target area is a difficult search area according to the condition that the target area is determined to be a difficult search area when the camera 100 capable of photographing the target area is not installed. It shall be judged. The situation determination unit 313 acquires the setting information 305 from the monitoring device 110 via the communication processing unit 311 and refers to the setting information 305 in determining whether or not the area is difficult to search.

また、状況判定部313が参照する条件は、実施形態に限定されるものではなく、管理者等が自由に設定可能であるものとする。例えば、対象領域を撮影可能なカメラ100は存在するものの、事件、事故等の影響や、カメラ100自体の不具合等により正常に撮影できない場合が考えられる。これに対応し、状況判定部313は、対象領域を撮影可能なカメラ100が存在するものの、このカメラ100が正常に撮影を行うことができない場合にも、対象領域を撮影困難領域と判定してもよい。 Further, the conditions referred to by the situation determination unit 313 are not limited to the embodiment, and can be freely set by the administrator or the like. For example, although there is a camera 100 capable of photographing the target area, it is conceivable that the camera 100 may not be able to photograph normally due to the influence of an incident, an accident, or a malfunction of the camera 100 itself. Corresponding to this, the situation determination unit 313 determines that the target area is a difficult shooting area even when there is a camera 100 capable of shooting the target area, but the camera 100 cannot normally shoot. May be good.

また、対象領域における人物の混雑度(密度)が高い場合には、対象領域の映像から、各人の画像を得ることが困難である。これに対応し、状況判定部313は、対象領域の密度が閾値以上の場合に対象領域を検索困難領域と判定するという条件を参照することとしてもよい。 Further, when the degree of congestion (density) of people in the target area is high, it is difficult to obtain an image of each person from the image of the target area. Correspondingly, the situation determination unit 313 may refer to the condition that the target area is determined to be a difficult search area when the density of the target area is equal to or higher than the threshold value.

周辺領域設定部314は、対象領域に基づいて、対象領域に替えて人物検索の対象とする周辺領域を設定する。本実施形態においては、周辺領域は、対象領域を中心とした、半径が所定の距離の領域とする。但し、周辺領域は、対象領域の位置を基準として定まる領域であればよく、実施形態に限定されるものではない。すなわち、周辺領域は必ずしも対象領域を含む必要はない。 The peripheral area setting unit 314 sets the peripheral area to be the target of the person search instead of the target area based on the target area. In the present embodiment, the peripheral region is a region having a radius of a predetermined distance centered on the target region. However, the peripheral area may be an area determined based on the position of the target area, and is not limited to the embodiment. That is, the peripheral area does not necessarily have to include the target area.

担当カメラ決定部315は、対象領域が検索困難領域であると判定された場合に、複数のカメラ100の中から担当カメラを決定する。ここで、担当カメラとは、周辺領域の撮影を担当することができるカメラである。具体的には、担当カメラ決定部315は、設定情報を参照し、周辺領域に設置されたカメラを担当カメラとして決定する。なお、他の例としては、担当カメラ決定部315は、PTZの制御による撮影可能範囲が周辺領域の少なくとも一部を含むカメラ100を担当カメラとして決定してもよい。 When it is determined that the target area is a difficult-to-search area, the responsible camera determination unit 315 determines the responsible camera from among the plurality of cameras 100. Here, the responsible camera is a camera that can be in charge of shooting the peripheral area. Specifically, the responsible camera determination unit 315 refers to the setting information and determines the camera installed in the peripheral area as the responsible camera. As another example, the responsible camera determination unit 315 may determine the camera 100 whose shooting range controlled by the PTZ includes at least a part of the peripheral region as the responsible camera.

人流解析部316は、担当カメラにより撮影された映像を、通信処理部311を介して監視装置110から取得する。そして、人流解析部316は、担当カメラにより撮影された映像を解析し、人流の方向と量(混雑度)を特定する。人流解析部316は、例えば、映像と人流の方向と量を対応付けた映像を大量に用意し、映像が入力されたときに、人流の方向と量を推定するような認識モデルを学習させる機械学習手法により、人流の方向と量を特定する。 The human flow analysis unit 316 acquires the video captured by the camera in charge from the monitoring device 110 via the communication processing unit 311. Then, the person flow analysis unit 316 analyzes the image taken by the camera in charge and specifies the direction and amount (congestion degree) of the person flow. The human flow analysis unit 316 is, for example, a machine that prepares a large number of images in which the image and the direction and amount of the human flow are associated with each other, and trains a recognition model that estimates the direction and amount of the human flow when the image is input. Identify the direction and amount of people flow by learning methods.

なお、人流の方向と量を特定するための処理は特に限定されるものではない。他の例としては、人流解析部316は、レーザの照射に応じた反射波の計測により人物の距離を計測し、距離変化から人流の方向及び量を求めてもよい。また、他の例としては、監視範囲の床面に歩行状態を検出するセンサが設置されている場合には、人流解析部316は、このセンサの検知結果を取得し、検知結果から人流の方向及び量を特定してもよい。 The process for specifying the direction and amount of the flow of people is not particularly limited. As another example, the human flow analysis unit 316 may measure the distance of a person by measuring the reflected wave according to the irradiation of the laser, and obtain the direction and amount of the human flow from the change in distance. As another example, when a sensor for detecting a walking state is installed on the floor surface of the monitoring range, the human flow analysis unit 316 acquires the detection result of this sensor, and the direction of the human flow is obtained from the detection result. And the amount may be specified.

撮影方向決定部317は、人流の方向と量に基づいて、各担当カメラの撮影方向を決定する。撮影方向決定部317の処理については後に詳述する。なお、撮影方向決定部317により各担当カメラの撮影方向が決定されると、各担当カメラの識別情報と撮影方向を対応付けた情報が撮影方向通知として監視装置110へ送信される。監視装置110のカメラ制御部304は、通信処理部301を介して撮影方向通知を受け取り、撮影方向通知に従い、各担当カメラのPTZ制御を行う。 The shooting direction determination unit 317 determines the shooting direction of each camera in charge based on the direction and amount of the flow of people. The processing of the shooting direction determination unit 317 will be described in detail later. When the shooting direction of each responsible camera is determined by the shooting direction determination unit 317, the identification information of each responsible camera and the information in which the shooting direction is associated with each other are transmitted to the monitoring device 110 as a shooting direction notification. The camera control unit 304 of the monitoring device 110 receives the shooting direction notification via the communication processing unit 301, and performs PTZ control of each camera in charge according to the shooting direction notification.

図4は、監視装置110及び監視支援装置120による監視支援処理を示すシーケンス図である。図5は、監視装置110に記憶されている設定情報に対応した監視領域の一例を示す図である。図5に示すように、監視領域は、道路を含んだ領域であり、複数のカメラ100が設置されている。 FIG. 4 is a sequence diagram showing monitoring support processing by the monitoring device 110 and the monitoring support device 120. FIG. 5 is a diagram showing an example of a monitoring area corresponding to the setting information stored in the monitoring device 110. As shown in FIG. 5, the monitoring area is an area including a road, and a plurality of cameras 100 are installed.

S400において、監視支援装置120の対象領域設定部312は、人物検索の対象となる対象領域を設定する。具体的には、監視支援装置120は、利用者からの要求に応じて、監視装置110が記憶している設定情報に含まれる地図情報を取得し、これを出力デバイス209に表示する。そして、利用者は、入力デバイス208を介したユーザ操作に応じて、地図上の地点や範囲を入力する。対象領域設定部312は、ユーザ操作に応じて入力された情報に従い、対象領域を設定する。なお、このとき、利用者はカメラ100の設置状況を意識することなく、監視したい地点を指定すればよい。さらに、対象領域設定部312は、検索対象の時間帯も制限したい場合には、対象となる時間帯についても対象領域に紐付けて設定する。 In S400, the target area setting unit 312 of the monitoring support device 120 sets the target area to be the target of the person search. Specifically, the monitoring support device 120 acquires the map information included in the setting information stored in the monitoring device 110 in response to the request from the user, and displays this on the output device 209. Then, the user inputs a point or a range on the map in response to a user operation via the input device 208. The target area setting unit 312 sets the target area according to the information input according to the user operation. At this time, the user may specify the point to be monitored without being aware of the installation status of the camera 100. Further, when it is desired to limit the time zone of the search target, the target area setting unit 312 also sets the target time zone in association with the target area.

次に、S401において、状況判定部313は、S400において設定された対象領域が検索困難領域であるか否かを判定する。本処理は、領域判定処理の一例である。例えば、図5に示す状況において、領域501が対象領域として設定され、いずれのカメラ100からも領域501を撮影することができないとする。この場合には、状況判定部313は、対象領域は検索困難領域であると判定する。状況判定部313は、対象領域が検索困難領域であると判定した場合には(S401でYES)、処理をS402へ進める。状況判定部313は、対象領域が検索困難領域ではないと判定した場合には(S401でNO)、監視支援処理を終了する。なお、監視支援処理を終了した場合には、各カメラ100は、予め設定された撮影範囲の映像を撮影し、得られた映像は監視装置110の映像DB302に蓄積される。 Next, in S401, the situation determination unit 313 determines whether or not the target area set in S400 is a search difficult area. This process is an example of the area determination process. For example, in the situation shown in FIG. 5, it is assumed that the area 501 is set as the target area and the area 501 cannot be photographed from any of the cameras 100. In this case, the situation determination unit 313 determines that the target area is a difficult search area. When the status determination unit 313 determines that the target area is a difficult-to-search area (YES in S401), the status determination unit 313 proceeds to the process in S402. When the status determination unit 313 determines that the target area is not a difficult-to-search area (NO in S401), the status determination unit 313 ends the monitoring support process. When the monitoring support process is completed, each camera 100 shoots a video in a preset shooting range, and the obtained video is stored in the video DB 302 of the monitoring device 110.

S402において、周辺領域設定部314は、S400において設定された対象領域を中心とした、半径が所定の距離の領域を周辺領域として設定する。図5の例においては、対象領域501を中心とした所定の距離を半径とする領域502が周辺領域として設定される。次に、S403において、担当カメラ決定部315は、周辺領域に設置されたカメラ100を担当カメラとして決定する。図5の例では、カメラA〜Fの6台のカメラ100が担当カメラとして決定される。なお、カメラGは、周辺領域502の外側に設置されているため担当カメラから外れる。なお、各カメラ100の設置位置については、担当カメラ決定部315は、通信処理部311を介して監視装置110から設定情報を取得し、これを参照するものとする。 In S402, the peripheral area setting unit 314 sets a region having a radius of a predetermined distance as the peripheral region centered on the target region set in S400. In the example of FIG. 5, a region 502 having a radius of a predetermined distance centered on the target region 501 is set as a peripheral region. Next, in S403, the responsible camera determination unit 315 determines the camera 100 installed in the peripheral area as the responsible camera. In the example of FIG. 5, six cameras 100 of cameras A to F are determined as responsible cameras. Since the camera G is installed outside the peripheral area 502, it is removed from the camera in charge. Regarding the installation position of each camera 100, the responsible camera determination unit 315 acquires setting information from the monitoring device 110 via the communication processing unit 311 and refers to this.

次に、S404において、担当カメラ決定部315は、担当カメラのうち、撮影方向が決定されていない、1台の担当カメラを処理対象として選択する。次に、S405において、人流解析部316は、S303において選択された選択カメラにより撮影された映像を、通信処理部311を介して監視装置110から取得する。次に、S406において、人流解析部316は、取得した映像において、人流の方向と量を特定する。例えば、対象領域で犯罪が発生したとする。この場合には、周辺の人物は対象領域から遠ざかる方向に移動することが考えられる。また、犯人も対象領域から遠ざかる方向に移動することが考えられる。このため、例えば、カメラAの映像からは、矢印X1で示すような人流の方向が特定される。また例えば、カメラCの映像からは、矢印X2で示すような人流の方向が特定される。 Next, in S404, the responsible camera determination unit 315 selects one responsible camera whose shooting direction has not been determined as the processing target. Next, in S405, the human flow analysis unit 316 acquires the image captured by the selected camera selected in S303 from the monitoring device 110 via the communication processing unit 311. Next, in S406, the human flow analysis unit 316 specifies the direction and amount of the human flow in the acquired video. For example, suppose a crime occurs in the target area. In this case, it is conceivable that the surrounding persons move in the direction away from the target area. It is also possible that the criminal also moves away from the target area. Therefore, for example, from the image of the camera A, the direction of the flow of people as shown by the arrow X1 is specified. Further, for example, from the image of the camera C, the direction of the flow of people as shown by the arrow X2 is specified.

次に、S407において、撮影方向決定部317は、人流の方向、すなわち人物の移動方向に基づいて、選択中の担当カメラの撮影方向を決定する。次に、S408において、通信処理部311は、S407において決定された撮影方向と、対応する担当カメラの識別情報とを含む撮影方向通知を監視装置110に送信する。監視装置110では、撮影方向通知を受信すると、S410において、カメラ制御部304は、撮影方向通知に示される担当カメラが撮影方向を向くようにPZT制御を行う。これにより、担当カメラでは、S407で決定された撮影方向の映像が撮影されるようになり、監視装置110の映像DB302には、担当カメラにより撮影された映像が蓄積される。S410において、カメラ制御部304はさらに、担当カメラの識別情報と、制御状態にあることを示す情報とを紐付けて記憶部に記憶しておく。監視装置110においては、カメラ制御が完了すると、カメラ制御の完了通知を監視支援装置120に送信する。 Next, in S407, the shooting direction determination unit 317 determines the shooting direction of the camera in charge being selected based on the direction of the flow of people, that is, the moving direction of the person. Next, in S408, the communication processing unit 311 transmits a shooting direction notification including the shooting direction determined in S407 and the identification information of the corresponding camera in charge to the monitoring device 110. When the monitoring device 110 receives the shooting direction notification, in S410, the camera control unit 304 performs PZT control so that the camera in charge indicated in the shooting direction notification faces the shooting direction. As a result, the camera in charge captures the image in the shooting direction determined in S407, and the image captured by the camera in charge is stored in the image DB 302 of the monitoring device 110. In S410, the camera control unit 304 further associates the identification information of the camera in charge with the information indicating that the camera is in the control state and stores it in the storage unit. When the camera control is completed, the monitoring device 110 transmits a camera control completion notification to the monitoring support device 120.

ここで、S407、S408、S410の処理について詳述する。担当カメラの映像から1つの人流のみが検出されたとする。この場合には、撮影方向決定部317は、この人流に正対するようにカメラ方向を設定する。例えば、図5の領域501において事件や事故が発生した場合には、領域501に密集していた人が矢印508で示すように領域501を中心として放射状に拡散することが考えられる。このような場合には、人流に正対する方向が各担当カメラの撮影方向として決定される。 Here, the processing of S407, S408, and S410 will be described in detail. It is assumed that only one person flow is detected from the image of the camera in charge. In this case, the shooting direction determination unit 317 sets the camera direction so as to face this human flow. For example, when an incident or an accident occurs in the area 501 of FIG. 5, it is conceivable that people who are densely packed in the area 501 diffuse radially around the area 501 as shown by an arrow 508. In such a case, the direction facing the human flow is determined as the shooting direction of each camera in charge.

図5の例では、破線で示すような向きに設置されていたカメラAは、S410において、実線で示すように撮影方向が変更されるようにパン制御が行われる。カメラCも同様に、S410において、破線で示す向きから実線で示す向きに撮影方向が変更されるようにパン制御が行われる。これにより、悪意を持って密集地点で事故や事件を起こした犯人やその関係者が、人混みに紛れて逃走するような場合にも、撮影方向が制御された担当カメラの映像において、犯人の正面画像を捉える可能性が高まる。さらには、犯人等検索対象人物の顔画像はブラックリストとして存在している可能性があるため、担当カメラの映像から、このような検索対象人物を検出する可能性が高まる。 In the example of FIG. 5, the camera A installed in the direction shown by the broken line is pan-controlled in S410 so that the shooting direction is changed as shown by the solid line. Similarly, in S410, the camera C is pan-controlled so that the shooting direction is changed from the direction shown by the broken line to the direction shown by the solid line. As a result, even if the criminal who maliciously caused an accident or incident at a crowded point or a related person escapes due to crowds, the image of the camera in charge whose shooting direction is controlled shows the front of the criminal. The possibility of capturing an image increases. Furthermore, since the face image of the search target person such as a criminal may exist as a blacklist, the possibility of detecting such a search target person from the image of the camera in charge increases.

また、領域501において事件や事故が発生し、領域501へ周囲から野次馬が集まる一方で、領域501から犯人が逃走するようなケースも想定される。このような場合に対応させる場合には、撮影方向決定部317は、人流の方向及び正対する方向の2方向を撮影できるように、各担当カメラの撮影方向を決定する。例えば、矢印X1で示すような人流の方向に着目すると、カメラAの撮影方向を人流X1に正対する方向とし、カメラFの撮影方向を人流の方向X1としてもよい。以上のように、撮影方向は、人流の方向に応じて定まればよく、撮影方向を決定するための具体的な条件は実施形態に限定されるものではない。 In addition, it is assumed that an incident or accident occurs in the area 501, and while the rubberneckers gather from the surroundings in the area 501, the criminal escapes from the area 501. In the case of dealing with such a case, the shooting direction determination unit 317 determines the shooting direction of each responsible camera so that it can shoot in two directions, the direction of the flow of people and the direction facing the person. For example, paying attention to the direction of the human flow as shown by the arrow X1, the shooting direction of the camera A may be the direction facing the human flow X1, and the shooting direction of the camera F may be the direction X1 of the human flow. As described above, the shooting direction may be determined according to the direction of the flow of people, and the specific conditions for determining the shooting direction are not limited to the embodiment.

なお、本実施形態においては、撮影方向決定部317は、人流の量が閾値以上の場合に、人流が主な人流であると判断し、人流が主な人流である場合に、上記のように、人流の方向に基づいて、撮影方向を決定するものとする。すなわち、人流の量が閾値未満の場合には、人流の方向に応じて撮影方向を決定する処理は行わないものとする。これにより、重要な人流を優先して撮影できるようにする。 In the present embodiment, the photographing direction determination unit 317 determines that the human flow is the main human flow when the amount of the human flow is equal to or more than the threshold value, and when the human flow is the main human flow, as described above. , The shooting direction shall be determined based on the direction of the flow of people. That is, when the amount of the flow of people is less than the threshold value, the process of determining the shooting direction according to the direction of the flow of people is not performed. This makes it possible to prioritize the shooting of important people.

監視支援装置120では、S408の処理の後、S409において、担当カメラ決定部315は、すべての担当カメラについて、S405〜S408の処理を完了したか否かを判定する。担当カメラ決定部315は、すべての担当カメラについて処理が完了した場合には(S409でYES)、監視支援処理を完了する。担当カメラ決定部315は、未処理の担当カメラが存在する場合には(S409でNO)、処理をS404へ進める。この場合、S404において、未処理の担当カメラが選択され、S405以降の処理が継続する。 In the monitoring support device 120, after the processing of S408, in S409, the responsible camera determination unit 315 determines whether or not the processing of S405 to S408 has been completed for all the responsible cameras. The responsible camera determination unit 315 completes the monitoring support process when the processes for all the responsible cameras are completed (YES in S409). If there is an unprocessed camera in charge (NO in S409), the camera in charge determination unit 315 proceeds to process in S404. In this case, in S404, the unprocessed camera in charge is selected, and the processing after S405 continues.

以上の処理により、担当カメラの撮影方向は適宜変更される。そして、人物の正面を向くよう制御された担当カメラにより撮影が行われ、映像DB302には、担当カメラにより撮影された映像が蓄積される。なお、担当カメラにより撮影された映像は、対象領域の位置情報に対応付けて記憶されるものとする。 By the above processing, the shooting direction of the camera in charge is appropriately changed. Then, shooting is performed by the camera in charge controlled so as to face the front of the person, and the video shot by the camera in charge is stored in the video DB 302. It should be noted that the image taken by the camera in charge is stored in association with the position information of the target area.

なお、S407において決定された撮影方向での撮影は、対象領域に対する時間帯が設定された場合には、この時間帯が経過するまで継続し、時間帯が経過した時点で終了するものとする。そして、時間帯が経過した時点で、カメラ制御部304は、各担当カメラの撮影方向をデフォルトの向きに戻す。 If a time zone for the target area is set, the shooting in the shooting direction determined in S407 is continued until this time zone elapses, and ends when the time zone elapses. Then, when the time zone elapses, the camera control unit 304 returns the shooting direction of each responsible camera to the default direction.

次に、監視支援処理において設定された対象領域を目標領域とした検索が実行される場合について説明する。利用者は、検索を希望する領域(目標領域と称する)と、検索を希望する時間帯とを監視装置110の入力デバイス208を介して入力する。これらの情報が入力されると、監視装置110の人物検索部303は、指定された目標領域に対応付けられた担当カメラによる映像を映像DB302から抽出し、抽出した映像において、人物検索を行う。 Next, a case where a search with the target area set in the monitoring support process as the target area is executed will be described. The user inputs an area (referred to as a target area) desired to be searched and a time zone desired to be searched via the input device 208 of the monitoring device 110. When such information is input, the person search unit 303 of the monitoring device 110 extracts the image by the camera in charge associated with the designated target area from the image DB 302, and performs a person search in the extracted image.

担当カメラは、人流の方向に逆らう方向を撮影方向とする映像である。したがって、担当カメラによる映像においては、撮影方向の制御前に比べて、正面を向いた人物が写っている機会が増加している。したがって、正面向きの人物のクエリが入力された場合に、人物の照合に成功する可能性を向上させることができる。さらに、本実施形態の監視装置110は、クエリに合致する映像を検索できた場合には、間接的に検出された人物映像である旨を示しつつ、検索結果を利用者に提示する。これにより、利用者は、対象領域の検索結果の代替として、周辺領域における良好な検索結果を得ることができる。 The camera in charge is an image whose shooting direction is in the direction opposite to the direction of the flow of people. Therefore, in the image taken by the camera in charge, the chances of a person facing the front are increasing as compared with before the shooting direction is controlled. Therefore, when a query of a front-facing person is input, the possibility of successful matching of the person can be improved. Further, when the monitoring device 110 of the present embodiment can search for a video that matches the query, the monitoring device 110 presents the search result to the user while indicating that the video is an indirectly detected person video. As a result, the user can obtain good search results in the peripheral area as a substitute for the search results in the target area.

以上のように、本実施形態に係る監視支援装置120は、人物検索の対象領域の撮影が困難な場合には、間接的に対象領域の人物を検索すべく周辺領域を設定し、周辺領域に位置するカメラを周辺領域の撮影を担当する担当カメラとして決定する。そして、担当カメラにより撮影された周辺領域の映像が映像DB302に蓄積される。これにより、別のカメラや目撃証言から得られた、対象人物の画像とのマッチングによる対象人物の検索が可能となる。すなわち、周辺領域における対象人物の検索により、対象領域における対象人物の検索が間接的に可能となり、検索対象の領域における人物検索が困難な場合においても、検索漏れを低減することができる。 As described above, when it is difficult to photograph the target area of the person search, the monitoring support device 120 according to the present embodiment sets the peripheral area to indirectly search for the person in the target area, and sets the peripheral area in the peripheral area. The camera to be located is determined as the camera in charge of shooting the peripheral area. Then, the image of the peripheral area taken by the camera in charge is accumulated in the image DB 302. This makes it possible to search for the target person by matching with the image of the target person obtained from another camera or eyewitness testimony. That is, the search for the target person in the peripheral area makes it possible to indirectly search for the target person in the target area, and even when it is difficult to search for the target person in the search target area, it is possible to reduce the omission of the search.

さらに、目撃者が容易に確認できることから、対象人物の正面画像は検索条件として利用されることが多い。また、容疑者のブラックリストも正面を含む画像が多い。これらのことに対応し、実施形態においては、担当カメラが、人物の正面画像を撮影するようにカメラ制御が行われる。これにより、一般的な検索条件に対しても、マッチングの機会を増やすことができる。 Furthermore, since the witness can easily confirm it, the front image of the target person is often used as a search condition. In addition, many of the suspects' blacklists include images including the front. Corresponding to these, in the embodiment, the camera is controlled so that the responsible camera captures a front image of the person. This makes it possible to increase the chances of matching even for general search conditions.

第1の実施形態の第1の変形例について説明する。本実施形態においては、カメラ100と監視装置110は、異なる装置であるものとしたが、カメラ100と監視装置110は1つの装置として構成されるものとしてもよい。すなわち、図3に示す監視支援装置120の機能構成を監視装置110が有することとしてもよい。また、他の例としては、カメラ100と監視装置110の各機能は、監視システムを構成する何れかの装置が有すればよく、各機能を有する装置については、実施形態に限定されるものではない。また、監視システムは、カメラにより撮影された映像又は映像から抽出された特徴量の蓄積までを行うものとし、人物探索については、別の装置が行うこととしてもよい。 A first modification of the first embodiment will be described. In the present embodiment, the camera 100 and the monitoring device 110 are different devices, but the camera 100 and the monitoring device 110 may be configured as one device. That is, the monitoring device 110 may have the functional configuration of the monitoring support device 120 shown in FIG. Further, as another example, each function of the camera 100 and the monitoring device 110 may be provided by any device constituting the monitoring system, and the device having each function is not limited to the embodiment. Absent. Further, the monitoring system may perform up to the accumulation of the image taken by the camera or the feature amount extracted from the image, and the person search may be performed by another device.

次に、第2の変形例について説明する。撮影方向決定部317は、人流に基づいて、各担当カメラの撮影方向を決定すればよく、具体的な撮影方向は実施形態に限定されるものではない。例えば、複数の同程度の人流が映像中に現れているような場合もある。この場合には、撮影方向決定部317は、複数の人流それぞれに正対するようにパンを繰り返すように撮影方向を決定する。例えば、一定間隔でパンを繰り返すことで、一の担当カメラが撮影可能な複数の人流それぞれに対して正対した方向の撮影を行うようにしてもよい。 Next, a second modification will be described. The shooting direction determination unit 317 may determine the shooting direction of each camera in charge based on the flow of people, and the specific shooting direction is not limited to the embodiment. For example, there are cases where a plurality of similar people flow appear in the video. In this case, the shooting direction determination unit 317 determines the shooting direction so as to repeat the pan so as to face each of the plurality of people. For example, by repeating panning at regular intervals, it is possible to shoot in a direction facing each of a plurality of people who can be shot by one camera in charge.

例えば、図5の領域501において事件や事故が発生する可能性を示唆する情報を得たとする。この場合には、担当カメラ決定部315は、領域501に対応したカメラの有無によらず、周辺のカメラを担当カメラとして決定する。そして、撮影方向決定部317は、領域501から離れる方向に移動する人物及び領域501へ向かう方向に移動する人物の両方を撮影するように各担当カメラの撮影方向を決定する。これにより、監視装置110は、担当カメラの映像から領域501への人物の出入りを監視することができる。これにより、例えばある人物が領域501に入った時間と領域501から得た時間を特定し易くなり、この場合、何れか一方の時間のみが特定できた場合よりも有益な情報となる。この場合には、人物の出入りを明らかにするために、映像DB302は、領域501へ向かう流れであるか、領域501から出てくる流れであるかを識別可能に、各映像を蓄積するものとする。人物検索部303は、領域501の検索を指示された場合に、同一人物の領域501への出入りを識別して検索結果を提示することとしてもよい。 For example, suppose that information suggesting the possibility of an incident or accident occurring in the area 501 of FIG. 5 is obtained. In this case, the responsible camera determination unit 315 determines the surrounding cameras as the responsible camera regardless of the presence or absence of the camera corresponding to the area 501. Then, the shooting direction determination unit 317 determines the shooting direction of each camera in charge so as to shoot both the person moving in the direction away from the area 501 and the person moving in the direction toward the area 501. As a result, the monitoring device 110 can monitor the entry and exit of a person from the image of the camera in charge into the area 501. This makes it easier to specify, for example, the time when a person enters the area 501 and the time obtained from the area 501, and in this case, the information is more useful than when only one of the times can be specified. In this case, in order to clarify the entry and exit of a person, the video DB 302 stores each video so that it can be identified whether the flow is toward the area 501 or the flow coming out of the area 501. To do. When the person search unit 303 is instructed to search the area 501, the person search unit 303 may identify the entry and exit of the same person into the area 501 and present the search result.

さらに、第3の変形例としては、監視支援装置120は担当カメラの撮影方向だけでなく、ズームも制御してもよい。これにより、例えば、担当カメラは、人物の顔が映像全体における人物の顔の割合が所定以上となるような画像を撮影することができる。 Further, as a third modification, the monitoring support device 120 may control not only the shooting direction of the camera in charge but also the zoom. As a result, for example, the camera in charge can take an image in which the face of the person has a ratio of the face of the person in the entire image to be a predetermined value or more.

(第2の実施形態)
第2の実施形態に係る監視システムについて、第1の実施形態に係る監視システムと異なる点を主に説明する。第2の実施形態に係る監視支援装置120においては、対象領域設定部312は、映像DB302に格納されている映像に基づいて、人流の方向及び量を解析し、人流の方向の異常及び人流の量の異常を検出する。そして、対象領域設定部312は、検出した異常に応じて対象領域を自動的に設定する。
(Second Embodiment)
The difference between the monitoring system according to the second embodiment and the monitoring system according to the first embodiment will be mainly described. In the monitoring support device 120 according to the second embodiment, the target area setting unit 312 analyzes the direction and amount of the human flow based on the image stored in the image DB 302, and analyzes the direction and amount of the human flow, and the abnormality in the direction of the human flow and the human flow. Detect quantity anomalies. Then, the target area setting unit 312 automatically sets the target area according to the detected abnormality.

より具体的には、対象領域設定部312は、例えば、5分毎というようにある単位期間毎の映像中の人流の方向及び量を記憶しておく。対象領域設定部312は、最後に得られた単位期間における人流の方向とその直前に得られた単位期間における人流の方向の差が閾値以上となる場合、すなわち、人流の方向に変化があった場合に、人流の方向の異常として検出する。そして、対象領域設定部312は、人流の方向の異常を検出した場合には、この人流の起点となる領域を対象領域として設定する。なお、変化を検出する処理は実施形態に限定されるものではない。他の例としては、対象領域設定部312は、最後に得られた単位期間における人流の方向と、その直前の所定の期間の人流の方向の平均値との差が閾値以上となる場合に、人流の方向の異常を検出してもよい。 More specifically, the target area setting unit 312 stores the direction and amount of the flow of people in the video for each unit period, for example, every 5 minutes. In the target area setting unit 312, when the difference between the direction of the human flow in the last obtained unit period and the direction of the human flow in the unit period obtained immediately before that is equal to or more than the threshold value, that is, the direction of the human flow has changed. In some cases, it is detected as an abnormality in the direction of human flow. Then, when the target area setting unit 312 detects an abnormality in the direction of the human flow, the target area setting unit 312 sets the area that is the starting point of the human flow as the target area. The process of detecting a change is not limited to the embodiment. As another example, when the difference between the direction of the flow of people in the last obtained unit period and the average value of the direction of the flow of people in the predetermined period immediately before that is equal to or more than the threshold value, the target area setting unit 312 is used. Anomalies in the direction of human flow may be detected.

また、対象領域設定部312は、最後に得られた単位期間における人流の量とその直前に得られた単位期間における人流の量の差が閾値以上となる場合に、人流の量の異常として検出する。そして、対象領域設定部312は、人流の量の異常を検出した場合には、人流の量の異常が生じた領域を対象領域として設定する。 Further, the target area setting unit 312 detects as an abnormality in the amount of human flow when the difference between the amount of human flow in the last obtained unit period and the amount of human flow in the unit period obtained immediately before it is equal to or more than the threshold value. To do. Then, when the target area setting unit 312 detects an abnormality in the amount of human flow, the target area setting unit 312 sets the area in which the abnormality in the amount of human flow occurs as the target area.

人流の方向や量の短期間での大きな変化は、何らかの異常に起因する可能性が高い。そこで、第2の実施形態においては、このように、人流の方向や量の変化に応じて、対象領域を自動的に設定することとした。なお、本処理は、図4を参照しつつ説明した監視支援処理におけるS400の処理である。なお、S401以降の処理については、第1の実施形態において説明したのと同様の処理である。 Large changes in the direction and volume of traffic over a short period of time are likely to be due to some anomaly. Therefore, in the second embodiment, the target area is automatically set according to the change in the direction and amount of the flow of people in this way. This process is the process of S400 in the monitoring support process described with reference to FIG. The processing after S401 is the same processing as described in the first embodiment.

また、対象領域設定部312が自動的に設定する場合の対象領域のサイズについては、予め定められているものとする。なお、他の例としては、対象領域のサイズは、人流の方向や量の変化の程度や、人流の方向から定まる対象領域の位置の確からしさに応じて定まるものとしてもよい。例えば、道路の構造やカメラの位置によっては、人流の方向からその起点として局所的な領域が定まらない場合がある。このような場合には、局所的な領域が定まる場合に比べて対象領域のサイズを大きくする。これにより、異常が発生した箇所が監視対象から外れるのを避けることができる。 Further, the size of the target area when the target area setting unit 312 automatically sets the size is assumed to be predetermined. As another example, the size of the target area may be determined according to the degree of change in the direction and amount of the flow of people and the certainty of the position of the target area determined from the direction of the flow of people. For example, depending on the structure of the road and the position of the camera, a local area may not be determined as the starting point from the direction of the flow of people. In such a case, the size of the target area is increased as compared with the case where the local area is determined. As a result, it is possible to prevent the location where the abnormality has occurred from being excluded from the monitoring target.

例えば、図6の例において、人流602において方向に変化があったと判断されたとする。この場合、対象領域設定部312は、これらの人流602の起点となる領域601を対象領域として設定する。なお、第2の実施形態に係る監視システムのこれ以外の構成及び処理は、第1の実施形態に係る監視システムの構成及び処理と同様である。このように、第2の実施形態に係る監視支援装置120は、監視領域内の映像に基づいて、対象領域を自動的に設定することができる。 For example, in the example of FIG. 6, it is assumed that there is a change in direction in the human flow 602. In this case, the target area setting unit 312 sets the area 601 that is the starting point of these human flows 602 as the target area. The other configurations and processes of the monitoring system according to the second embodiment are the same as the configurations and processes of the monitoring system according to the first embodiment. As described above, the monitoring support device 120 according to the second embodiment can automatically set the target area based on the image in the monitoring area.

次に、第2の実施形態の第1の変形例について説明する。対象領域を自動的に設定するための処理は、実施形態に限定されるものではない。他の例としては、例えば、対象領域設定部312は、映像において人流に替えて人物の数(混雑度)に応じて対象領域を設定してもよい。具体的には、対象領域設定部312は、まず人物の数を特定する。例えば、カメラ100が高所に設置されている場合には、隠れの比較的少ない人物の頭部をカウントすることで人物の数とすればよい。そして、対象領域設定部312は、人物の数の変化が閾値以上になった場合に、変化があった領域を対象領域として設定してもよい。また、他の例としては、撮影された混雑映像と人物の概数とを対応付けた大量の映像を機械学習によって相互に関連付けた人数概数カウント器によって人物の数をカウントしてもよい。 Next, a first modification of the second embodiment will be described. The process for automatically setting the target area is not limited to the embodiment. As another example, for example, the target area setting unit 312 may set the target area according to the number of people (congestion degree) instead of the flow of people in the video. Specifically, the target area setting unit 312 first specifies the number of people. For example, when the camera 100 is installed at a high place, the number of persons may be calculated by counting the heads of persons with relatively few hidden objects. Then, when the change in the number of people exceeds the threshold value, the target area setting unit 312 may set the changed area as the target area. Further, as another example, the number of people may be counted by a number-of-persons approximate number counter in which a large number of images in which a captured crowded image and an approximate number of people are associated with each other are associated with each other by machine learning.

また、第2の変形例としては、対象領域設定部312は、監視映像中の人物の存在している領域をサンプリングし、サンプリングした領域における人物の重なり判定を行うこととしてもよい。そして、対象領域設定部312は、重なりの程度が閾値以上の場合に、サンプリングした領域を対象領域として設定してもよい。対象領域設定部312は、人物映像中の人物部位特徴の検出をそれぞれ行い、検出できなかった部分の量により重なりを判定するものとする。また、他の例としては、カメラが深度情報を得られるものであれば、対象領域設定部312は、ピクセル毎の距離情報により、映像中の人物の前後関係によってセグメントを行い、重なりの判定を行ってもよい。 Further, as a second modification, the target area setting unit 312 may sample an area in which a person exists in the surveillance image and determine the overlap of the person in the sampled area. Then, the target area setting unit 312 may set the sampled area as the target area when the degree of overlap is equal to or greater than the threshold value. The target area setting unit 312 detects each person's part feature in the person's image, and determines the overlap based on the amount of the part that could not be detected. As another example, if the camera can obtain depth information, the target area setting unit 312 performs segmentation according to the context of the person in the image based on the distance information for each pixel, and determines the overlap. You may go.

(第3の実施形態)
第3の実施形態に係る監視システムについて、他の実施形態に係る監視システムと異なる点を主に説明する。人物検索において参照される画像が人物の正面以外の向きの画像である場合も考えられる。このような場合は、正対する人物映像を撮影する機会を増やすだけでなく、一人の人物を多様な方向から捉えた映像を取得しておくことが望ましい。これに対し、第3の実施形態に係る監視システムは、周辺領域として、対象領域により近い第1の領域と、対象領域からの距離が第1の領域に比べて遠い第2の領域とを設定し、各領域に対応した担当カメラの映像を蓄積する。さらに、第3の実施形態の監視システムは、領域毎に異なる向きの人物画像を撮影するように撮影方向を決定する。
(Third Embodiment)
The difference between the monitoring system according to the third embodiment and the monitoring system according to the other embodiment will be mainly described. It is also conceivable that the image referred to in the person search is an image in a direction other than the front of the person. In such a case, it is desirable not only to increase the chances of shooting the image of the person facing the person, but also to acquire the image of one person captured from various directions. On the other hand, in the monitoring system according to the third embodiment, a first region closer to the target region and a second region having a distance from the target region farther than the first region are set as peripheral regions. Then, the images of the camera in charge corresponding to each area are accumulated. Further, the monitoring system of the third embodiment determines the shooting direction so as to shoot a person image in a different direction for each area.

例えば、図7の例では、周辺領域設定部314は、対象領域701の周辺領域として、第1の領域702と第2の領域703を設定する。また、担当カメラ決定部315は、第1の領域702に位置するカメラH〜Lについては、人流に対し正対する撮影方向を決定し、第2の領域703のカメラM〜Oについては、人流の側面や背面を撮影するような撮影方向を決定する。なお、第3の実施形態に係る監視システムのこれ以外の構成及び処理は、他の実施形態に係る監視システムの構成及び処理と同様である。以上のように、第3の実施形態に係る監視システムによれば、周辺領域において、複数の向きの人物画像を撮影することができる。これにより、検索漏れを低減することができる。 For example, in the example of FIG. 7, the peripheral area setting unit 314 sets the first area 702 and the second area 703 as the peripheral area of the target area 701. Further, the camera determination unit 315 in charge determines the shooting direction facing the human flow for the cameras H to L located in the first area 702, and determines the shooting direction of the cameras M to O in the second area 703 for the human flow. Determine the shooting direction so that the side and back are shot. The other configurations and processes of the monitoring system according to the third embodiment are the same as the configurations and processes of the monitoring system according to the other embodiments. As described above, according to the monitoring system according to the third embodiment, it is possible to capture a person image in a plurality of directions in the peripheral area. As a result, search omission can be reduced.

第3の実施形態の第1の変形例について説明する。対象領域が混雑している場合などは、対象領域から離れる程対象領域との関連の薄い人物は増えるが、人流はスパースになると考えられる。そこで、周辺領域設定部314は、第3の実施形態において説明した処理とは逆の処理を行うこととしてもよい。すなわち、周辺領域設定部314は、第1の領域702のカメラに対し、人流の側面や背面を撮影するような撮影方向を決定し、第2の領域603のカメラに対し、人流の正面を撮影するような撮影方向を決定してもよい。 A first modification of the third embodiment will be described. When the target area is congested, the number of people who are less closely related to the target area increases as the distance from the target area increases, but the flow of people is considered to be sparse. Therefore, the peripheral area setting unit 314 may perform a process opposite to the process described in the third embodiment. That is, the peripheral area setting unit 314 determines the shooting direction such that the side surface and the back surface of the human flow are photographed with respect to the camera in the first area 702, and the front surface of the human flow is photographed with respect to the camera in the second area 603. The shooting direction may be determined.

例えば、定常的に監視している地点が徐々に混雑して、一時的に監視困難な状況になった場合は、当該監視地点の監視目的に合わせるように制御する。後でどのような検索条件の画像が入力されるかを想定できないような場合は、監視システムは、第3の実施形態において説明したように、複数の方向からの映像を撮影するような制御を行う。 For example, when a point that is constantly monitored is gradually congested and it becomes temporarily difficult to monitor, control is performed so as to match the monitoring purpose of the monitoring point. When it is not possible to predict what kind of search condition image will be input later, the monitoring system controls to shoot images from a plurality of directions as described in the third embodiment. Do.

第2の変形例について説明する。第3の実施形態においては、監視支援装置120が人流に応じてどのような撮影方向を決定するかについては、予め定められているものとした。ただし、人流に応じて動的に決定されるものとしてもよく、またユーザ操作に応じて任意に設定、変更できることとしてもよい。また、人流に対して一方向の撮影のみを行うか、上記のように複数の方向の撮影を行うかについても、ユーザ操作に応じて任意に設定、変更できることとしてもよい。このように、カメラ制御のための条件を可変とすることで、状況に応じて人物検索の機会を向上させることができる。 A second modification will be described. In the third embodiment, what kind of shooting direction the monitoring support device 120 determines according to the flow of people is determined in advance. However, it may be determined dynamically according to the flow of people, or it may be arbitrarily set or changed according to the user operation. Further, it may be possible to arbitrarily set and change whether to shoot in only one direction or to shoot in a plurality of directions as described above according to the user's operation. In this way, by making the conditions for camera control variable, it is possible to improve the opportunity for searching for a person depending on the situation.

(第4の実施形態)
次に、第4の実施形態に係る監視システムについて他の実施形態に係る監視システムと異なる点を主に説明する。第1の実施形態及び第2の実施形態において説明したように、カメラ制御を行うことで周辺領域の映像を蓄積することとしても、映像中の人物の重なりや動き、人物検出処理での漏れ等により、撮影された人物ごとに得られる情報にばらつきが生じる。第3の実施形態に係る監視支援装置120は、このような場合において、すでに多くの情報を得ている人物よりも、少ない情報しか得られていない人物からの情報を得ることを優先するようにカメラの撮影方向を制御する。
(Fourth Embodiment)
Next, the difference between the monitoring system according to the fourth embodiment and the monitoring system according to the other embodiment will be mainly described. As described in the first embodiment and the second embodiment, even if the image of the peripheral area is accumulated by performing the camera control, the overlap and movement of the person in the image, leakage in the person detection process, etc. As a result, the information obtained varies from person to person. In such a case, the monitoring support device 120 according to the third embodiment gives priority to obtaining information from a person who has obtained less information than a person who has already obtained much information. Control the shooting direction of the camera.

図8は、第4の実施形態に係る監視支援装置800の機能構成図である。第3の実施形態に係る監視支援装置800は、第1の実施形態の監視支援装置120の機能構成に加えて、人物管理部801と、人物DB802と、撮影機会判定部803と、を有している。 FIG. 8 is a functional configuration diagram of the monitoring support device 800 according to the fourth embodiment. The monitoring support device 800 according to the third embodiment has a person management unit 801, a person DB 802, and a shooting opportunity determination unit 803, in addition to the functional configuration of the monitoring support device 120 of the first embodiment. ing.

人物管理部801は、担当カメラ決定部315により決定された担当カメラにより撮影された映像を、通信処理部311を介して監視装置110から取得する。そして、人物管理部801は、映像から人物の特徴量を抽出し、これを人物の識別情報に対応付けて人物DB802に蓄積することで、周辺領域に存在する人物を管理する。なお、人物DB802に蓄積される情報は、人物の同一性を判定するための特徴情報とする。人物管理部801は、特徴量に基づいて、担当カメラで撮影された映像中の人物と人物DB802に蓄積される人物の同一性を判定し、人物DB802に蓄積されている人物と同一人物でない場合に、担当カメラで得られた人物を管理対象人物として選択する。 The person management unit 801 acquires the image captured by the responsible camera determined by the responsible camera determination unit 315 from the monitoring device 110 via the communication processing unit 311. Then, the person management unit 801 manages the person existing in the peripheral area by extracting the feature amount of the person from the video, associating it with the identification information of the person and accumulating it in the person DB 802. The information stored in the person DB 802 is characteristic information for determining the identity of the person. The person management unit 801 determines the identity of the person in the image taken by the camera in charge and the person stored in the person DB 802 based on the feature amount, and when the person is not the same person as the person stored in the person DB 802. In addition, the person obtained by the camera in charge is selected as the person to be managed.

そして、撮影方向決定部317は、管理対象人物を優先して撮影するような撮影方向を決定する。この結果、カメラ制御部304は、管理対象人物を優先的に撮影するようなカメラ制御を行う。この場合のカメラ制御は、情報量が不足している人物の情報を増やすことが目的であるため、たとえば、管理対象人物の全身像を撮影できるまで、追跡を継続させることとする。また、他の例としては、カメラ制御部304は、管理対象人物の周辺をズーム撮影することとしてもよい。これにより、検索条件となる画像とマッチする情報を増やすことができる。 Then, the shooting direction determination unit 317 determines the shooting direction so as to give priority to the management target person for shooting. As a result, the camera control unit 304 performs camera control so as to preferentially shoot the managed person. Since the purpose of the camera control in this case is to increase the information of the person whose amount of information is insufficient, for example, the tracking is continued until the whole body image of the managed person can be taken. Further, as another example, the camera control unit 304 may take a zoom image of the periphery of the person to be managed. As a result, it is possible to increase the information that matches the image that is the search condition.

例えば、図9に示すカメラ901(破線)は、主な人流903に沿って正対するように制御されていたとする。この時、人物904が新規に撮影されて、十分な特徴量を有していないことが判明した場合、カメラ902のように人物904を追跡するように撮影方向を制御してもよい。 For example, it is assumed that the camera 901 (broken line) shown in FIG. 9 is controlled so as to face the main flow of people 903. At this time, if the person 904 is newly photographed and it is found that the person 904 does not have a sufficient feature amount, the photographing direction may be controlled so as to track the person 904 like the camera 902.

さらに、撮影機会判定部803は、管理対象人物と判定された人物の撮影機会があるか否かを判定する。撮影方向決定部317は、撮影機会判定部803により撮影機会がないと判定された場合に、管理対象人物を追跡するような撮影方向を決定する。これにより、撮影機会がない場合についてのみ、管理対象人物を追跡することになる。これにより、管理対象人物と判定されたすべての人物に対し、管理対象人物に応じたカメラ制御を行わずにすむため、処理コストを低減することができる。 Further, the shooting opportunity determination unit 803 determines whether or not there is a shooting opportunity for the person determined to be the management target person. The shooting direction determination unit 317 determines a shooting direction for tracking the person to be managed when the shooting opportunity determination unit 803 determines that there is no shooting opportunity. As a result, the managed person is tracked only when there is no shooting opportunity. As a result, it is not necessary to control the camera according to the management target person for all the persons determined to be the management target person, so that the processing cost can be reduced.

例えば、図9の人物904は、周辺領域900から外れる方向に移動しており、カメラ902により新規に撮影された人物である。このことから、その後は、撮影機会は少ないと考えられる。このように、撮影機会判定部803は、担当カメラにより撮影された映像に基づいて、撮影機会の有無を判定すればよい。また、例えば、方向905のように周辺領域900の外側から周辺領域900内に移動してきた人物が検出された場合には、この人物は対象領域との関係は少ないと考えられる。そこで、監視システムは、この人物については、追跡を行わないよう制御する。これにより、本実施例における関連カメラの範囲内に出現する人物照合処理の対象を絞ることができ、処理コストを抑制することができる。 For example, the person 904 in FIG. 9 is moving in a direction away from the peripheral area 900, and is a person newly photographed by the camera 902. From this, it is considered that there are few shooting opportunities after that. In this way, the shooting opportunity determination unit 803 may determine the presence or absence of a shooting opportunity based on the image shot by the camera in charge. Further, for example, when a person who has moved into the peripheral area 900 from the outside of the peripheral area 900 is detected as in the direction 905, it is considered that this person has little relationship with the target area. Therefore, the monitoring system controls this person not to be tracked. As a result, it is possible to narrow down the target of the person matching process that appears within the range of the related cameras in this embodiment, and it is possible to suppress the processing cost.

なお、撮影機会の判定に係る処理は必須ではない。撮影機会に係る処理を行わない場合には、監視支援装置800は、管理対象人物が検出された場合には、常に管理対象人物を撮影するような撮影方向を決定するものとすればよい。このように、撮影中の人物の取得済みの情報の量や内容に応じて、不足を補うようにカメラを制御することで、各人物あたりの情報量を増やすことができるようになるため、検索機会が向上する効果が期待できる。 It should be noted that the process related to the determination of the shooting opportunity is not essential. When the processing related to the shooting opportunity is not performed, the monitoring support device 800 may determine the shooting direction so as to always shoot the managed person when the managed person is detected. In this way, by controlling the camera so as to make up for the shortage according to the amount and content of the acquired information of the person being photographed, the amount of information per person can be increased. The effect of improving opportunities can be expected.

(第5の実施形態)
次に、第5の実施形態に係る監視システムについて、他の実施形態に係る監視システムと異なる点を主に説明する。本実施形態においては、監視支援装置120の周辺領域設定部314は、担当カメラとして選択された各カメラの映像に基づいて、周辺領域の位置及びサイズのうち少なくとも一方を調整する。
(Fifth Embodiment)
Next, the monitoring system according to the fifth embodiment will be mainly described as being different from the monitoring system according to the other embodiments. In the present embodiment, the peripheral area setting unit 314 of the monitoring support device 120 adjusts at least one of the position and size of the peripheral area based on the image of each camera selected as the responsible camera.

例えば、図5の例において、担当カメラAの映像中の人流量が他の担当カメラB〜Fの映像中の人流量に比べて所定の割合以上多いとする。この場合に、周辺領域設定部314は、担当カメラAの方向に周辺領域の中心位置をずらすことで周辺領域の位置を変更する。また、他の例としては、この場合に、周辺領域設定部314は、担当カメラAが位置する方向についてのみ、対象領域から周辺領域の外側の境界までの距離を長くすることで周辺領域のサイズを変更してもよい。また、他の例としては、地図上で道路がない範囲が周辺領域に含まれる場合に、道路がない範囲については周辺領域から除外してもよい。以上のように周辺領域が変更された場合に、担当カメラ決定部315は、担当カメラを再決定する。これにより、人流量の多い領域において担当カメラを増やすことができる。なお、第5の実施形態に係る監視システムのこれ以外の構成及び処理は、他の実施形態に係る監視システムの構成及び処理と同様である。 For example, in the example of FIG. 5, it is assumed that the flow rate of people in the image of the camera A in charge is higher than the flow rate of people in the images of the other cameras B to F by a predetermined ratio or more. In this case, the peripheral area setting unit 314 changes the position of the peripheral area by shifting the center position of the peripheral area in the direction of the camera A in charge. Further, as another example, in this case, the peripheral area setting unit 314 increases the distance from the target area to the outer boundary of the peripheral area only in the direction in which the responsible camera A is located, thereby increasing the size of the peripheral area. May be changed. Further, as another example, when the area without roads on the map is included in the peripheral area, the area without roads may be excluded from the peripheral area. When the peripheral area is changed as described above, the responsible camera determination unit 315 redetermines the responsible camera. As a result, the number of cameras in charge can be increased in areas where the flow rate of people is high. The other configurations and processes of the monitoring system according to the fifth embodiment are the same as the configurations and processes of the monitoring system according to the other embodiments.

人流量が多い場合には、一台のカメラの撮影範囲だけでは撮影しきれない人物がでてくる可能性が高い。これに対し、本実施形態においては、人流量の多い領域を撮影するカメラを増やすことができるので、取得できる検索特徴が増えることが期待できる。 When the flow rate of people is large, there is a high possibility that some people will not be able to shoot with just one camera. On the other hand, in the present embodiment, since it is possible to increase the number of cameras that capture an area with a large flow rate of people, it is expected that the number of search features that can be acquired will increase.

(第6の実施形態)
次に、第6の実施形態に係る監視システムについて、他の実施形態に係る監視システムと異なる点を主に説明する。本監視システムは、監視領域の所定の領域を定常的に監視するためのメインカメラと、上記実施形態において説明したように、対象領域が設定された場合に、担当カメラとして機能するための補助カメラと、をそれぞれ備える。これにより、補助カメラが対象領域に対応した周辺領域の撮影を開始した場合においても、メインカメラは、予め設定された監視状態を維持し、映像を蓄積することができる。なお、第6の実施形態の監視システムのこれ以外の構成及び処理は、他の実施形態に係る監視システムの構成及び処理と同様である。
(Sixth Embodiment)
Next, the monitoring system according to the sixth embodiment will be mainly described as being different from the monitoring system according to the other embodiments. This monitoring system has a main camera for constantly monitoring a predetermined area of the monitoring area and an auxiliary camera for functioning as a responsible camera when the target area is set as described in the above embodiment. And, respectively. As a result, even when the auxiliary camera starts shooting in the peripheral area corresponding to the target area, the main camera can maintain the preset monitoring state and accumulate the image. The other configurations and processes of the monitoring system of the sixth embodiment are the same as the configurations and processes of the monitoring system according to the other embodiments.

また、第6の実施形態の変形例としては、例えば、メインカメラが担当カメラとして決定され、撮影方向決定部317により決定された撮影方向を向くように制御され、これに対応して、補助カメラはメインカメラと異なる方向を撮影するよう制御してもよい。これにより、人流を複数の方向から撮影することができる。また、複数の人流の正面を撮影することができる。これにより、取得できる検索特徴が増えることが期待できる。 Further, as a modification of the sixth embodiment, for example, the main camera is determined as the responsible camera, and is controlled so as to face the shooting direction determined by the shooting direction determining unit 317, and the auxiliary camera corresponds to this. May be controlled to shoot in a direction different from that of the main camera. This makes it possible to photograph the flow of people from a plurality of directions. In addition, it is possible to photograph the front of a plurality of people. As a result, it can be expected that the number of search features that can be acquired will increase.

本発明の目的は、実施例の機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、装置に供給し、装置のコンピュータ、CPUまたはMPUが記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することとなり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 An object of the present invention is to supply a recording medium on which a program code of software that realizes the functions of the embodiment is recorded to a device, and the computer, CPU, or MPU of the device reads and executes the program code stored in the recording medium. It is also achieved by that. In this case, the program code itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

プログラムコードを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。 As a recording medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, a DVD, or the like can be used. it can.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOperating System(OS)などが実際の処理を行うことによって、実施例の機能が実現される場合も含まれることは言うまでもない。 In addition, it goes without saying that the functions of the examples may be realized by performing actual processing by the Operating System (OS) or the like running on the computer based on the instruction of the program code read by the computer. No.

さらに、記録媒体から読み出されたプログラムコードは、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれていてもよい。そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。 Further, the program code read from the recording medium may be written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer. Based on the instruction of the program code, the function expansion board or the CPU provided in the function expansion unit may perform a part or all of the actual processing, and the processing may realize the function of the above-described embodiment. Needless to say.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications are made within the scope of the gist of the present invention described in the claims.・ Can be changed.

100 カメラ
110 監視装置
120 監視支援装置
100 Camera 110 Monitoring device 120 Monitoring support device

Claims (19)

異なる位置に設置された複数のカメラにより撮影された映像に基づいて、人物を監視する監視システムであって、
前記複数のカメラの設置情報と、検索対象として設定された対象領域と、に基づいて、前記複数のカメラの中から、少なくとも1つのカメラを、前記対象領域を基準として定まる周辺領域の撮影を担当する担当カメラとして決定する担当カメラ決定手段と、
前記担当カメラにより撮影された前記周辺領域の映像に基づいて、前記担当カメラの撮影方向を制御するカメラ制御手段と
を有することを特徴とする監視システム。
A surveillance system that monitors people based on images taken by multiple cameras installed at different locations.
Based on the installation information of the plurality of cameras and the target area set as the search target, at least one of the plurality of cameras is in charge of photographing the peripheral area determined with the target area as a reference. The means of determining the camera in charge to be determined as the camera in charge, and
A surveillance system comprising a camera control means for controlling a shooting direction of the camera in charge based on an image of the peripheral area captured by the camera in charge.
前記カメラ制御手段は、前記周辺領域の映像における人物の移動方向に基づいて、前記担当カメラの撮影方向を制御することを特徴とする請求項1に記載の監視システム。 The monitoring system according to claim 1, wherein the camera control means controls the shooting direction of the camera in charge based on the moving direction of a person in the image of the peripheral region. 前記複数のカメラの設置情報に基づいて、前記対象領域が検索困難な領域であるか否かを判定する領域判定手段をさらに有し、
前記カメラ制御手段は、前記対象領域が前記検索困難な領域である場合に、前記担当カメラの撮影方向を制御することを特徴とする請求項1又は2に記載の監視システム。
Further, it has an area determination means for determining whether or not the target area is a difficult-to-search area based on the installation information of the plurality of cameras.
The monitoring system according to claim 1 or 2, wherein the camera control means controls the shooting direction of the camera in charge when the target area is a difficult-to-search area.
前記担当カメラ決定手段は、前記周辺領域を撮影可能なカメラを、前記担当カメラとして決定することを特徴とする請求項1乃至3の何れか1項に記載の監視システム。 The surveillance system according to any one of claims 1 to 3, wherein the responsible camera determining means determines a camera capable of photographing the peripheral area as the responsible camera. 前記担当カメラ決定手段は、前記周辺領域に設定されたカメラを、前記担当カメラとして決定することを特徴とする請求項1乃至3の何れか1項に記載の監視システム。 The surveillance system according to any one of claims 1 to 3, wherein the responsible camera determining means determines a camera set in the peripheral area as the responsible camera. ユーザ操作に応じて、前記対象領域を設定する領域設定手段をさらに有することを特徴とする請求項1乃至5の何れか1項に記載の監視システム。 The monitoring system according to any one of claims 1 to 5, further comprising an area setting means for setting the target area according to a user operation. 前記カメラにより撮影された映像に基づいて、前記対象領域を設定する領域設定手段をさらに有することを特徴とする請求項1乃至5の何れか1項に記載の監視システム。 The monitoring system according to any one of claims 1 to 5, further comprising an area setting means for setting the target area based on an image captured by the camera. 前記領域設定手段は、前記カメラにより撮影された映像における、人物の混雑度の変化及び人物の移動方向のうち少なくとも一方に基づいて、前記対象領域を設定することを特徴とする請求項7に記載の監視システム。 The area setting means according to claim 7, wherein the target area is set based on at least one of a change in the degree of congestion of a person and a moving direction of the person in the image captured by the camera. Monitoring system. 前記担当カメラにより撮影された映像から人物の特徴量を抽出する抽出手段と、
前記特徴量を記憶手段に格納する格納手段と
をさらに有し、
前記カメラ制御手段は、映像に含まれる人物の前記特徴量が前記格納手段に格納されていない場合に、前記人物の所定の画像を撮影するように前記担当カメラのパン・チルト・ズームのうち少なくとも1つを制御することを特徴とする請求項1乃至8の何れか1項に記載の監視システム。
An extraction means for extracting the feature amount of a person from the image taken by the camera in charge, and
Further having a storage means for storing the feature amount in the storage means,
The camera control means has at least one of the pan / tilt / zoom of the camera in charge so as to capture a predetermined image of the person when the feature amount of the person included in the image is not stored in the storage means. The monitoring system according to any one of claims 1 to 8, wherein one is controlled.
前記カメラ制御手段は、前記映像に含まれる人物の前記特徴量が前記格納手段に格納されておらず、かつ前記人物の位置及び移動方向のうち少なくとも一方が予め定められた条件を満たす場合に、前記人物の所定の画像を撮影するように前記担当カメラを制御することを特徴とする請求項9に記載の監視システム。 The camera control means is when the feature amount of the person included in the image is not stored in the storage means and at least one of the position and the moving direction of the person satisfies a predetermined condition. The monitoring system according to claim 9, wherein the camera in charge is controlled so as to capture a predetermined image of the person. 前記カメラ制御手段は、前記人物の全身を撮影するよう制御することを特徴とする請求項9又は10に記載の監視システム。 The monitoring system according to claim 9 or 10, wherein the camera control means controls the whole body of the person to be photographed. 前記カメラ制御手段は、前記人物の顔を撮影するよう制御することを特徴とする請求項9又は10に記載の監視システム。 The monitoring system according to claim 9 or 10, wherein the camera control means controls to photograph the face of the person. 前記カメラ制御手段は、映像全体における前記人物の顔の割合が所定以上となるような画像を撮影するよう制御することを特徴とする請求項12に記載の監視システム。 The monitoring system according to claim 12, wherein the camera control means controls to capture an image such that the ratio of the face of the person in the entire image is equal to or higher than a predetermined value. 前記担当カメラ決定手段は、前記担当カメラにより撮影された映像に基づいて、前記担当カメラを変更することを特徴とする請求項1乃至13の何れか1項に記載の監視システム。 The surveillance system according to any one of claims 1 to 13, wherein the responsible camera determining means changes the responsible camera based on an image captured by the responsible camera. 異なる位置に設置された複数のカメラにより撮影された映像に基づく人物の監視を支援する監視支援装置であって、
前記複数のカメラの設置情報と、検索対象として設定された対象領域と、に基づいて、前記複数のカメラの中から、少なくとも1つのカメラを、前記対象領域を基準として定まる周辺領域の撮影を担当する担当カメラとして決定する担当カメラ決定手段と、
前記担当カメラにより撮影された前記周辺領域の映像に基づいて、前記担当カメラの撮影方向を決定する撮影方向決定手段と
を有することを特徴とする監視支援装置。
It is a monitoring support device that supports the monitoring of people based on images taken by multiple cameras installed at different positions.
Based on the installation information of the plurality of cameras and the target area set as the search target, at least one of the plurality of cameras is in charge of photographing the peripheral area determined with the target area as a reference. The means of determining the camera in charge to be determined as the camera in charge, and
A monitoring support device comprising a shooting direction determining means for determining a shooting direction of the camera in charge based on an image of the peripheral region shot by the camera in charge.
異なる位置に設置された複数のカメラにより撮影された映像に基づいて、人物を監視する監視システムが実行する監視方法であって、
前記複数のカメラの設置情報と、検索対象として設定された対象領域と、に基づいて、前記複数のカメラの中から、少なくとも1つのカメラを、前記対象領域を基準として定まる周辺領域の撮影を担当する担当カメラとして決定する担当カメラ決定ステップと、
前記担当カメラにより撮影された前記周辺領域の映像に基づいて、前記担当カメラの撮影方向を制御するカメラ制御ステップと
を含むことを特徴とする監視方法。
A monitoring method performed by a monitoring system that monitors a person based on images taken by multiple cameras installed at different positions.
Based on the installation information of the plurality of cameras and the target area set as the search target, at least one of the plurality of cameras is in charge of photographing the peripheral area determined with the target area as a reference. The step of determining the responsible camera to be determined as the responsible camera, and
A monitoring method including a camera control step for controlling a shooting direction of the camera in charge based on an image of the peripheral area taken by the camera in charge.
異なる位置に設置された複数のカメラにより撮影された映像に基づく人物の監視を支援する監視支援装置が実行する監視支援方法であって、
前記複数のカメラの設置情報と、検索対象として設定された対象領域と、に基づいて、前記複数のカメラの中から、少なくとも1つのカメラを、前記対象領域を基準として定まる周辺領域の撮影を担当する担当カメラとして決定する担当カメラ決定ステップと、
前記担当カメラにより撮影された前記周辺領域の映像に基づいて、前記担当カメラの撮影方向を決定する撮影方向決定ステップと
を含む監視支援方法。
It is a monitoring support method executed by a monitoring support device that supports monitoring of a person based on images taken by multiple cameras installed at different positions.
Based on the installation information of the plurality of cameras and the target area set as the search target, at least one of the plurality of cameras is in charge of photographing the peripheral area determined with the target area as a reference. The step of determining the responsible camera to be determined as the responsible camera, and
A monitoring support method including a shooting direction determination step for determining a shooting direction of the camera in charge based on an image of the peripheral area shot by the camera in charge.
コンピュータを、請求項1乃至14の何れか1項に記載の監視システムの各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the monitoring system according to any one of claims 1 to 14. コンピュータを、請求項15に記載の監視支援装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the monitoring support device according to claim 15.
JP2019026493A 2019-02-18 2019-02-18 Monitoring system, monitor support device, monitoring method, monitor support method, and program Pending JP2020136855A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019026493A JP2020136855A (en) 2019-02-18 2019-02-18 Monitoring system, monitor support device, monitoring method, monitor support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026493A JP2020136855A (en) 2019-02-18 2019-02-18 Monitoring system, monitor support device, monitoring method, monitor support method, and program

Publications (1)

Publication Number Publication Date
JP2020136855A true JP2020136855A (en) 2020-08-31

Family

ID=72263735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026493A Pending JP2020136855A (en) 2019-02-18 2019-02-18 Monitoring system, monitor support device, monitoring method, monitor support method, and program

Country Status (1)

Country Link
JP (1) JP2020136855A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075730A1 (en) * 2022-10-04 2024-04-11 株式会社Jvcケンウッド Information processing device, imaging device, and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075730A1 (en) * 2022-10-04 2024-04-11 株式会社Jvcケンウッド Information processing device, imaging device, and information processing method

Similar Documents

Publication Publication Date Title
KR101530255B1 (en) Cctv system having auto tracking function of moving target
US11887318B2 (en) Object tracking
JP6561830B2 (en) Information processing system, information processing method, and program
KR101687530B1 (en) Control method in image capture system, control apparatus and a computer-readable storage medium
US8170277B2 (en) Automatic tracking apparatus and automatic tracking method
JP7131599B2 (en) Information processing system, information processing method and program
JP2008040781A (en) Subject verification apparatus and subject verification method
JP2007328572A (en) Face authentication device and face authentication method
KR101212082B1 (en) Image Recognition Apparatus and Vison Monitoring Method thereof
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
KR101990823B1 (en) Method, program, and apparatus for estimating location and managing identification of target using facial information
JP2020136855A (en) Monitoring system, monitor support device, monitoring method, monitor support method, and program
KR20210094931A (en) Image-based disaster detection method and apparatus
JP4985742B2 (en) Imaging system, method and program
KR101154350B1 (en) Multiple Images Processing system using Detection of Objects and segmenting - recognizing of High- resolution Image and there of.
JP6558178B2 (en) Nuisance agent estimation system, control method and control program for nuisance agent estimation system
KR101311728B1 (en) System and the method thereof for sensing the face of intruder
JP2017028688A (en) Image managing device, image managing method and program
KR101698864B1 (en) Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata
KR102589150B1 (en) Long-distance object detection system using cumulative difference image
US11908197B2 (en) Information processing apparatus, information processing method, and storage medium
JP7480841B2 (en) Event management method, event management device, system and program
JP7101080B2 (en) Image processing equipment
JP7022642B2 (en) Monitoring device
KR101623332B1 (en) Detection and close up shooting method using images of moving objects