JP2016119625A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2016119625A
JP2016119625A JP2014259392A JP2014259392A JP2016119625A JP 2016119625 A JP2016119625 A JP 2016119625A JP 2014259392 A JP2014259392 A JP 2014259392A JP 2014259392 A JP2014259392 A JP 2014259392A JP 2016119625 A JP2016119625 A JP 2016119625A
Authority
JP
Japan
Prior art keywords
tracking
unit
monitoring
tracking target
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014259392A
Other languages
Japanese (ja)
Other versions
JP6441067B2 (en
Inventor
秀行 青木
Hideyuki Aoki
秀行 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014259392A priority Critical patent/JP6441067B2/en
Publication of JP2016119625A publication Critical patent/JP2016119625A/en
Application granted granted Critical
Publication of JP6441067B2 publication Critical patent/JP6441067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring system that can grasp a situation in which monitoring camera should not be allowed to track an object to be tracked.SOLUTION: A monitoring system 1 comprises: a memorizing portion 44 that memorizes position information and photographable ranges of monitoring cameras 2; a monitoring camera tracking portion 43b that detects and tracks an object to be tracked on the basis of an image of each monitoring camera 2; a deviation determining portion 43c that determines whether or not an object to be tracked deviates from photographable ranges in all the monitoring cameras 2; an allowable time setting portion 43d that extracts the monitoring cameras 2 other than the monitoring cameras 2 which determine the deviations of the object on the basis of the position information, calculates predicted time of movement of the object to be tracked from the monitoring cameras 2 determining the deviations of the object to the other monitoring cameras 2, and sets allowable time on the basis of the longest predicted time of movement of the predicted time of movement; and a tracking-impossible determining portion 43e that determines that tracking of the object to be tracked is impossible when none of the monitoring cameras 2 detect the object to be tracked, and outputs the fact that the object cannot be tracked.SELECTED DRAWING: Figure 1

Description

本発明は、例えば人物、車両などの移動体を監視する監視システムに関する。   The present invention relates to a monitoring system for monitoring a moving object such as a person or a vehicle.

人物、車両などの移動体を監視するシステムとしては、例えば下記特許文献1に開示されるものが知られている。この特許文献1では、システム全体にわたる移動体の追跡及び複数のビデオカメラ毎に分散された情報の統括的管理を効率よく行うことを目的として、複数ビデオカメラ毎に分散的に人物追跡するカメラ内追跡手段と、追跡を行うメイン追跡要素と移動体の特徴量をメイン追跡要素に供給するサブ追跡要素とからなり複数のカメラ内追跡手段間で連携して移動体を追跡するカメラ間追跡手段と、複数のカメラ内追跡手段に亙り移動体を探索する移動体探索手段とを具え、監視領域に分散配置された複数のビデオカメラを連携動作させている。   As a system for monitoring a moving body such as a person or a vehicle, for example, a system disclosed in Patent Document 1 below is known. In this patent document 1, in order to efficiently perform tracking of a moving body over the entire system and comprehensive management of information distributed to a plurality of video cameras, an internal camera that tracks people in a distributed manner for each of the plurality of video cameras. An inter-camera tracking means for tracking a moving body in cooperation with a plurality of in-camera tracking means, comprising a tracking means, and a main tracking element for tracking and a sub-tracking element for supplying a feature quantity of the moving object to the main tracking element; In addition, a plurality of video camera units distributed in the monitoring area are operated in cooperation with a moving body searching unit for searching for a moving body over a plurality of in-camera tracking units.

特開2004−72628号公報JP 2004-72628 A

上述した特許文献1に開示されるシステムでは、複数のビデオカメラが監視領域に分散配置された構成なので、監視領域全体をカバーするために多くのビデオカメラが必要となる。そうすると、システムを構築する際のコストが嵩むだけでなく、監視領域の状況によっては死角領域が無くなるようにビデオカメラを増設するのが困難な場合もある。この場合、監視領域全体をカバーするようにビデオカメラが設置できない状況となるので、監視領域においてビデオカメラの死角領域はシステムによる監視の目が届かないことになる。特許文献1によれば、追跡対象が死角領域に移動したとしても再びビデオカメラの撮影範囲に移動すれば追跡対象を追跡できるものの、追跡対象が必ず再びビデオカメラの撮影範囲に移動するとは限らず、また追跡対象が再びビデオカメラの撮影範囲に移動したとしてもビデオカメラの死角領域で不正な行為などを行う可能性もある。このような事態に対応するためには特許文献1のようなシステム以外のその他の対応をとる必要がある。しかしながら、特許文献1ではビデオカメラの死角領域があることによる問題点が考慮されておらず、このため、複数のビデオカメラに追跡対象の監視を委ねるべきではなくその他の対応をとるべき適切なタイミングを容易に把握することができなかった。   The system disclosed in Patent Document 1 described above has a configuration in which a plurality of video cameras are distributed in the monitoring area, so that many video cameras are required to cover the entire monitoring area. This not only increases the cost for constructing the system, but it may be difficult to increase the number of video cameras so that the blind spot area is eliminated depending on the situation of the monitoring area. In this case, since the video camera cannot be installed so as to cover the entire monitoring area, the blind spot area of the video camera cannot be monitored by the system in the monitoring area. According to Patent Document 1, even if the tracking target moves to the blind spot area, the tracking target can be tracked by moving again to the imaging range of the video camera. However, the tracking target does not always move again to the imaging range of the video camera. In addition, even if the tracking target is moved again to the shooting range of the video camera, there is a possibility that an illegal act is performed in the blind spot area of the video camera. In order to cope with such a situation, it is necessary to take other measures other than the system as in Patent Document 1. However, Patent Document 1 does not consider the problem due to the presence of the blind spot area of the video camera. For this reason, monitoring of the tracking target should not be entrusted to a plurality of video cameras, and other appropriate timing should be taken. Could not be grasped easily.

そこで、本発明は上記問題点に鑑みてなされたものであり、監視領域内においてビデオカメラに追跡対象の追跡を委ねるべきではない状況を適切なタイミングで把握することができる監視システムを提供することを目的とするものである。   Accordingly, the present invention has been made in view of the above problems, and provides a monitoring system capable of grasping a situation in which the tracking of a tracking target should not be entrusted to a video camera in a monitoring area at an appropriate timing. It is intended.

上記した目的を達成するために、本発明に係る監視システムは、複数の監視カメラを備えた監視システムであって、
前記複数の監視カメラに関する位置情報と撮影可能範囲とを記憶する記憶部と、
前記監視カメラごとに撮影される画像から所定の追跡対象を検出して追跡する監視カメラ追跡部と、
当該監視カメラ追跡部の追跡結果に基づいて前記複数の全ての監視カメラにおいて前記追跡対象が前記撮影可能範囲から逸脱したか否かを判定する逸脱判定部と、
前記逸脱を判定すると、最後に前記追跡対象を検出した前記監視カメラ以外の他の監視カメラを前記位置情報から抽出し、最後に前記追跡対象を検出した前記監視カメラから前記他の監視カメラそれぞれまで前記追跡対象が移動するのに要する予想移動時間又は予想移動距離を算出し、当該算出した予想移動時間のうち最長の予想移動時間又は前記算出した予想移動距離のうち最長の予想移動距離から許容時間を設定する許容時間設定部と、
前記逸脱を判定したときからの経過時間が前記許容時間を経過しても、前記複数の監視カメラのいずれにおいても前記追跡対象を検出していないときに当該追跡対象を追跡不能と判定し、この旨を出力する追跡不能判定部と、
を備えたことを特徴とする。
In order to achieve the above object, a monitoring system according to the present invention is a monitoring system including a plurality of monitoring cameras,
A storage unit that stores position information and a shootable range regarding the plurality of monitoring cameras;
A monitoring camera tracking unit that detects and tracks a predetermined tracking target from an image captured for each monitoring camera;
A deviation determination unit that determines whether or not the tracking target has deviated from the photographing range in all of the plurality of monitoring cameras based on a tracking result of the monitoring camera tracking unit;
When the deviation is determined, other monitoring cameras other than the monitoring camera that finally detected the tracking target are extracted from the position information, and finally from the monitoring camera that detected the tracking target to each of the other monitoring cameras. The expected travel time or the expected travel distance required for the tracking target to move is calculated, and the allowable time from the longest predicted travel time of the calculated predicted travel time or the longest predicted travel distance of the calculated predicted travel distance An allowable time setting section for setting
Even if the elapsed time from the determination of the deviation exceeds the allowable time, when the tracking target is not detected in any of the plurality of monitoring cameras, the tracking target is determined to be untraceable, An untraceable determination unit that outputs the effect,
It is provided with.

また、本発明に係る監視システムは、前記追跡不能と判定した旨の出力がなされると、最後に前記追跡対象を検出した前記監視カメラの位置から前記追跡対象が存在する予測エリアを推定する予測エリア推定部と、
当該推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部を有する飛行装置を制御する飛行装置制御部と、
を備えた構成としてもよい。
In addition, when the monitoring system according to the present invention outputs that it is determined that the tracking is impossible, the prediction system estimates the prediction area where the tracking target is present from the position of the monitoring camera that finally detected the tracking target. An area estimation unit;
A flying device control unit that controls a flying device having an imaging unit that captures an image from above, so that the estimated prediction area can be captured;
It is good also as a structure provided with.

さらに、本発明に係る監視システムは、前記追跡不能と判定した旨の出力がなされると、最後に前記追跡対象を検出した前記監視カメラの位置から、前記追跡対象が存在する予測エリアを、前記追跡対象を検出しなかった前記他の監視カメラの前記撮影可能範囲を除外して推定する予測エリア推定部と、
この推定した予測エリアを表示部に表示する表示制御部と、
を備えた構成としてもよい。
Furthermore, when the monitoring system according to the present invention outputs that it is determined that the tracking is impossible, the predicted area where the tracking target exists is determined from the position of the monitoring camera that finally detected the tracking target. A prediction area estimation unit that estimates and excludes the shootable range of the other surveillance camera that did not detect the tracking target;
A display control unit for displaying the estimated prediction area on the display unit;
It is good also as a structure provided with.

また、本発明に係る監視システムは、前記飛行装置が移動型飛行装置であり、
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記移動型飛行装置を、前記予測エリアを含んで撮影できる目標位置へ移動制御してもよい。
Moreover, in the monitoring system according to the present invention, the flying device is a mobile flying device,
The flying device control unit may control the movement of the mobile flying device to a target position that can be photographed including the prediction area when an output indicating that the tracking is impossible is made.

そして、本発明に係る監視システムは、前記予測エリア推定部が、前記予測エリアの推定を繰り返し実行し、
前記飛行装置制御部が、前記実行の結果に応じて前記目標位置を再設定してもよい。
In the monitoring system according to the present invention, the prediction area estimation unit repeatedly executes estimation of the prediction area,
The flying device control unit may reset the target position according to the execution result.

また、本発明に係る監視システムは、前記飛行装置が複数の係留型飛行装置であり、
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記予測エリアを含んで撮影可能な係留型飛行装置を選択して撮影制御してもよい。
Moreover, in the monitoring system according to the present invention, the flight device is a plurality of moored flight devices,
The flying device control unit may select and control the shooting of a moored flying device that can capture an image including the prediction area when an output indicating that the tracking is impossible is performed.

さらに、本発明に係る監視システムは、前記複数の係留型飛行装置の中に前記予測エリアを撮影可能なものが無いときは、前記予測エリアの推定を継続し、当該予測エリアを撮影可能な係留型飛行装置が見つかったときに選択してもよい。   Furthermore, the monitoring system according to the present invention continues the estimation of the prediction area and the mooring capable of photographing the prediction area when none of the plurality of moored flight devices can photograph the prediction area. It may be selected when a type flight device is found.

本発明の監視システムによれば、複数の監視カメラに関する位置情報と撮影可能範囲とを記憶部に記憶させておき、監視カメラ追跡部は、監視カメラごとに撮影される画像から所定の追跡対象を監視カメラ追跡部が検出して追跡し、逸脱判定部は、全ての監視カメラで追跡対象が撮影可能範囲から逸脱したか否かを判定する。そして、許容時間設定部は、監視カメラ追跡部が撮影可能範囲からの逸脱を判定すると、最後に追跡対象を検出した監視カメラ以外の他の監視カメラを位置情報から抽出し、最後に追跡対象を検出した監視カメラから他の監視カメラそれぞれまで追跡対象が移動するのに要する予想移動時間又は予想移動距離を算出し、この算出した予想移動時間のうち最長の予想移動時間又はその算出した予想移動距離のうち最長の予想移動距離から許容時間を設定する。そして、追跡不能判定部は、撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間を経過しても、複数の監視カメラのいずれにおいても追跡対象を検出していないときに追跡不能と判定して、その旨を出力する。かかる構成により、監視員が複数の監視カメラの画像を常時確認する等しなくても、複数の監視カメラに追跡対象の追跡を委ねるべきではない状況を適切なタイミングで把握することができる。   According to the monitoring system of the present invention, the position information regarding the plurality of monitoring cameras and the shootable range are stored in the storage unit, and the monitoring camera tracking unit extracts a predetermined tracking target from the image captured for each monitoring camera. The monitoring camera tracking unit detects and tracks, and the deviation determination unit determines whether or not the tracking target has deviated from the photographing possible range in all the monitoring cameras. Then, when the monitoring camera tracking unit determines a deviation from the shootable range, the allowable time setting unit extracts other monitoring cameras other than the monitoring camera that finally detected the tracking target from the position information, and finally selects the tracking target. Calculate the expected travel time or predicted travel distance required for the tracking target to move from the detected surveillance camera to each of the other surveillance cameras, and calculate the longest expected travel time or the calculated expected travel distance of the calculated predicted travel times. The allowable time is set from the longest expected travel distance. The untrackable determination unit is unable to track when the tracking target is not detected in any of the plurality of monitoring cameras even if the elapsed time from the time when the deviation from the shootable range is determined exceeds the allowable time. And output that fact. With such a configuration, it is possible to grasp a situation in which tracking of the tracking target should not be entrusted to the plurality of monitoring cameras at an appropriate timing without the monitoring person constantly confirming the images of the plurality of monitoring cameras.

さらに、本発明の監視システムによれば、予測エリア推定部は、追跡不能判定部から追跡対象を追跡不能と判定した旨の出力がなされると、最後に追跡対象を検出した監視カメラの位置から追跡対象が存在する予測エリアを推定する。そして、飛行装置制御部は、予測エリア推定部が推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部を有する飛行装置を制御する。かかる構成により、複数の監視カメラに追跡対象の追跡を委ねるべきではなくなると、最後に追跡対象を検出した監視カメラの位置から推定した予測エリアに向けて飛行装置を制御し、追跡対象が存在する可能性の高い予測エリアを飛行装置が上空から撮影することができる。   Furthermore, according to the monitoring system of the present invention, when the prediction area estimation unit outputs that the tracking target is determined to be untrackable from the untrackable determination unit, the prediction area estimation unit finally determines the position of the monitoring camera that detected the tracking target. Estimate the prediction area where the tracking target exists. Then, the flying device control unit controls the flying device having an imaging unit that captures an image from the sky so that it can be captured including the prediction area estimated by the prediction area estimation unit. With this configuration, when tracking of the tracking target should not be entrusted to a plurality of monitoring cameras, the flying device is controlled toward the prediction area estimated from the position of the monitoring camera that finally detected the tracking target, and the tracking target exists. The flying device can capture the predicted area with high possibility from the sky.

また、本発明の監視システムによれば、予測エリア推定部は、追跡不能判定部から追跡対象を追跡不能と判定した旨の出力がなされると、最後に追跡対象を検出した監視カメラの位置から、追跡対象が存在する予測エリアを、追跡対象を検出しなかった他の監視カメラの撮影可能範囲を除外して推定した予測エリアを表示部に表示する。かかる構成により、追跡対象が存在し得ない余計な情報を省いて推定した追跡対象が存在し得る予測エリアを表示させて監視員に知らせることができる。   Further, according to the monitoring system of the present invention, when the prediction area estimation unit outputs that the tracking target is determined to be untrackable from the untrackable determination unit, the prediction area estimation unit finally determines the position of the monitoring camera that detected the tracking target. The prediction area in which the tracking target exists is estimated by excluding the shootable range of other surveillance cameras that did not detect the tracking target, and is displayed on the display unit. With such a configuration, it is possible to display the predicted area where the tracking target estimated by omitting unnecessary information where the tracking target cannot exist can be displayed and notify the monitoring staff.

また、本発明の監視システムによれば、飛行装置が移動型飛行装置の場合、飛行装置制御部は、追跡不能判定部から追跡不能と判定した旨の出力がなされると、移動型飛行装置を予測エリアへ移動制御する。かかる構成により、複数の監視カメラに追跡対象の追跡を委ねるべきではなくなると、移動型飛行装置を速やかに予測エリアに向けて移動制御することができる。   Further, according to the monitoring system of the present invention, when the flying device is a mobile flying device, the flying device control unit outputs the mobile flying device when the non-tracking determination unit determines that the tracking is impossible. Move to the prediction area. With this configuration, when the tracking of the tracking target should not be entrusted to a plurality of monitoring cameras, the mobile flying device can be quickly controlled to move toward the prediction area.

さらに、本発明の監視システムによれば、予測エリア推定部は、予測エリアの推定を繰り返し実行し、飛行装置制御部は、予測エリア推定部が実行する予測エリアの推定の結果に応じて移動型飛行装置を移動制御する目標位置を再設定する。かかる構成により、時間の経過とともに変化する予測エリアを確実に撮影できるように移動型飛行装置を移動制御することができる。   Further, according to the monitoring system of the present invention, the prediction area estimation unit repeatedly executes estimation of the prediction area, and the flying device control unit moves according to the prediction area estimation result executed by the prediction area estimation unit. Reset the target position for movement control of the flying device. With this configuration, it is possible to control the movement of the mobile flying device so that the predicted area that changes with time can be reliably imaged.

また、本発明の監視システムによれば、飛行装置が複数の係留型飛行装置の場合、飛行装置制御部は、追跡不能判定部から追跡不能と判定した旨の出力がなされると、予測エリアを撮影可能な係留型飛行装置を選択して撮影制御する。かかる構成により、予測エリアを撮影可能な係留型飛行装置を選択して確実に撮影を行うことができる。   Further, according to the monitoring system of the present invention, when the flying device is a plurality of moored flying devices, the flying device control unit outputs the prediction area when it is determined that the tracking is impossible from the tracking impossible determination unit. Select a mooring-type flying device that can shoot and control shooting. With such a configuration, it is possible to select the mooring type flying device capable of shooting the predicted area and perform shooting reliably.

さらに、本発明の監視システムによれば、飛行装置として、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無いときは、予測エリア推定部による予測エリアの推定を継続し、予測エリアを撮影可能な係留型飛行装置が見つかったときに、その係留型飛行装置を選択する。かかる構成により、時間経過とともに変化する予測エリアに応じて撮影可能なものが見つかった時点で、係留型飛行装置が上空から予測エリアの撮影を行うことができる。   Further, according to the monitoring system of the present invention, when there is no flight device that can shoot the prediction area among the plurality of moored flight devices, the prediction area estimation unit continues to estimate the prediction area, When a moored flying device capable of photographing an area is found, the moored flying device is selected. With such a configuration, the moored flying device can photograph the prediction area from the sky when an object that can be photographed according to the prediction area that changes with time is found.

本発明に係る監視システムの全体構成を示す概略ブロック図である。It is a schematic block diagram which shows the whole structure of the monitoring system which concerns on this invention. 本発明に係る監視システムが監視する監視領域の一例を示す図である。It is a figure which shows an example of the monitoring area | region which the monitoring system which concerns on this invention monitors. 本発明に係る監視システムにおいて監視カメラの画像と飛行装置の画像から追跡対象の類似度を算出するために用いられる特徴情報の一例を示す図である。It is a figure which shows an example of the feature information used in order to calculate the similarity of a tracking target from the image of a monitoring camera, and the image of a flying device in the monitoring system which concerns on this invention. (a)〜(d)予測エリアの推定処理に関する説明図である。(A)-(d) It is explanatory drawing regarding the estimation process of a prediction area. 制御信号によって制御される監視カメラの動作例である。It is an operation example of a surveillance camera controlled by a control signal. 本発明に係る監視システムによる追跡機能の動作フローチャート(1)である。It is an operation | movement flowchart (1) of the tracking function by the monitoring system which concerns on this invention. 本発明に係る監視システムによる追跡機能の動作フローチャート(2)である。It is an operation | movement flowchart (2) of the tracking function by the monitoring system which concerns on this invention. 図6における許容時間設定処理のフローチャートである。It is a flowchart of the allowable time setting process in FIG. 図6における追跡不能判定処理のフローチャートである。FIG. 7 is a flowchart of an untraceable determination process in FIG. 6. 図7における予測エリア推定処理のフローチャートである。It is a flowchart of the prediction area estimation process in FIG. 図7における飛行装置制御処理のフローチャートである。It is a flowchart of the flying device control process in FIG. 図7における対象候補検出処理のフローチャートである。It is a flowchart of the object candidate detection process in FIG. 図7における連携処理のフローチャートである。It is a flowchart of the cooperation process in FIG.

以下、本発明を実施するための形態について、添付した図面の図1〜13を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to FIGS. 1 to 13 of the accompanying drawings.

図1に示すように、本発明に係る監視システム1は、監視カメラ2、飛行装置3、追跡処理装置としてのセンタ装置4を備えて構築される。   As shown in FIG. 1, a monitoring system 1 according to the present invention is constructed by including a monitoring camera 2, a flying device 3, and a center device 4 as a tracking processing device.

(監視カメラの構成について)
監視カメラ2は、地上から所定の撮影範囲を撮影する。本例において、監視カメラ2が地上から撮影する高度は、追跡対象(例えば不審者、不審車両など)を特定するための後述する複数種類の特徴情報の中で最も重要とされる最重要情報(追跡対象が例えば人物であれば顔画像、車両であれば自動車登録番号標(ナンバープレート)画像)が認識できる地上から比較的低い高度である。これにより、追跡対象を側方から撮影し、撮影した画像から追跡対象を把握しやすい側方画像、つまり、重力の方向と略直角となる方向(略水平方向)から撮影した画像を主に得ることができる。
(About surveillance camera configuration)
The surveillance camera 2 captures a predetermined imaging range from the ground. In this example, the altitude that the surveillance camera 2 captures from the ground is the most important information (the most important information among a plurality of types of feature information described later) for specifying the tracking target (for example, a suspicious person, a suspicious vehicle, etc.) For example, if the tracking target is a person, it is a face image, and if it is a vehicle, an automobile registration number mark (number plate) image) can be recognized at a relatively low altitude from the ground. As a result, the tracking target is photographed from the side, and a side image in which the tracking target can be easily grasped from the photographed image, that is, an image photographed from a direction substantially perpendicular to the direction of gravity (substantially horizontal direction) is mainly obtained. be able to.

監視カメラ2は、監視領域の所定箇所に固定して複数設置されている。図2は監視カメラ2の設置例であり、イベント会場における監視領域の一部を示している。図2の例では、固定の撮影範囲E1,E2,E3,E4,E5による監視カメラ2(2a,2b,2c,2d,2e)がイベント会場となるコロシアムのゲート周りの4箇所とゲートに向かう道路の途中の1箇所に設置され、撮影範囲E6が可変可能な撮影可能範囲E7を有するパンチルトズームカメラからなる監視カメラ2(2f)が駐車場近傍の1箇所に設置されている。また、監視カメラ2aと監視カメラ2cは、互いの撮影範囲E1,E3の一部が重複するように設置されている。   A plurality of surveillance cameras 2 are fixedly installed at predetermined locations in the surveillance area. FIG. 2 shows an example of installation of the surveillance camera 2 and shows a part of the surveillance area in the event venue. In the example of FIG. 2, surveillance cameras 2 (2a, 2b, 2c, 2d, 2e) with fixed shooting ranges E1, E2, E3, E4, and E5 head to the four locations around the gate of the Coliseum that will be the event venue. A surveillance camera 2 (2f), which is a pan / tilt / zoom camera having a photographic range E7 in which the photographic range E6 is variable, is installed at one location in the vicinity of the parking lot. Moreover, the monitoring camera 2a and the monitoring camera 2c are installed so that a part of mutual imaging | photography range E1, E3 may overlap.

監視カメラ2は、図1に示すように、カメラ部21、制御部22、通信部23を備えている。   As shown in FIG. 1, the monitoring camera 2 includes a camera unit 21, a control unit 22, and a communication unit 23.

カメラ部21は、所定の撮影範囲を撮影する本体をなし、撮像部21a、方向制御部21b、画像データ生成部21cを有している。   The camera unit 21 forms a main body that captures a predetermined shooting range, and includes an imaging unit 21a, a direction control unit 21b, and an image data generation unit 21c.

撮像部21aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成される。撮像部21aは、監視領域内の所定の撮影範囲を所定時間おきに撮像し、撮像した画像を画像データ生成部21cに順次出力している。   The imaging unit 21a includes an imaging element such as a CCD element or a C-MOS element, an optical component, and the like. The imaging unit 21a captures a predetermined imaging range in the monitoring area at predetermined time intervals, and sequentially outputs the captured images to the image data generation unit 21c.

尚、撮像部21aは、監視カメラ2がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部21cに出力される。   Note that when the monitoring camera 2 is configured as a pan / tilt zoom camera, the imaging unit 21a has a zoom position controlled by the control of the control unit 22 based on a shooting instruction of a control signal from the center device 4. Information on the focal length based on the zoom position is output to the image data generation unit 21c.

方向制御部21bは、監視カメラ2がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、水平方向及び垂直方向の角度が制御される。この水平方向及び垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向からの変位角度であり、画像データ生成部21cに出力される。   The direction control unit 21b is necessary when the monitoring camera 2 is configured as a pan / tilt / zoom camera. The direction control unit 21b is controlled in the horizontal direction and the vertical direction under the control of the control unit 22 based on the shooting instruction of the control signal from the center device 4. The angle is controlled. The angle information in the horizontal direction and the vertical direction is a preset displacement angle from the shooting direction of the monitoring camera 2, and is output to the image data generation unit 21c.

画像データ生成部21cは、撮像部21aが撮像した画像に対し、必要に応じて撮影時における焦点距離や水平方向及び垂直方向の角度情報(撮影方向)を付加した画像データを生成する。なお、監視カメラ2がパンチルトズームカメラとして構成される場合には、予め設定された監視カメラ2の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。   The image data generation unit 21c generates image data in which the focal length at the time of shooting and the angle information (shooting direction) in the horizontal direction and the vertical direction are added to the image taken by the imaging unit 21a as necessary. When the monitoring camera 2 is configured as a pan / tilt / zoom camera, a shooting direction obtained by correcting the previously set shooting direction of the monitoring camera 2 with the above-described displacement angle is added to the image data.

制御部22は、カメラ部21の画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきに通信部23を介してセンタ装置4に送信制御する。また、制御部22は、センタ装置4からの制御信号を通信部23を介して受信したときに、この制御信号の撮影指示に従ってカメラ部21の撮像部21aや方向制御部21bを制御する。   The control unit 22 controls transmission of the image data generated by the image data generation unit 21c of the camera unit 21 to the center device 4 via the communication unit 23 at predetermined frame intervals at predetermined intervals. When the control unit 22 receives a control signal from the center device 4 via the communication unit 23, the control unit 22 controls the imaging unit 21a and the direction control unit 21b of the camera unit 21 in accordance with a shooting instruction of the control signal.

通信部23は、有線又は無線により通信を行うための通信インタフェースであり、制御部22の制御により、通信回線を介してセンタ装置4との間で有線又は無線により通信し、データや信号の送受信を行う。具体的には、画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部21aや方向制御部21bを制御するためのセンタ装置4からの制御信号を受信する。   The communication unit 23 is a communication interface for performing wired or wireless communication. Under the control of the control unit 22, the communication unit 23 communicates with the center device 4 via the communication line by wired or wireless, and transmits and receives data and signals. I do. Specifically, the image data generated by the image data generation unit 21c is transmitted to the center device 4 at predetermined intervals with a predetermined frame period. In addition, a control signal is received from the center device 4 for controlling the imaging unit 21a and the direction control unit 21b.

尚、監視カメラ2は、図2に示すように、監視領域の所定箇所に固定して複数設置されるものに限定されない。監視カメラ2は、地上から比較的低い高度において撮影可能なものであってよく、低い高度で撮影可能な、例えば各種車両に搭載した車載用カメラ、撮像部を有する小型移動飛行ロボットやドローンなどのように監視領域を移動できるものであってもよい。また、監視カメラ2が監視領域内を移動できる場合には、少なくとも1つの監視カメラ2が設けられた構成であってもよい。そして、監視カメラ2が監視領域を移動する場合には、撮影時における監視カメラ2の位置情報が移動に伴って変化するため、GPSからなる測位部を監視カメラ2に備え、地球上での監視カメラ2の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を画像データ生成部21cに出力する。また、監視カメラ2が監視領域を移動する場合は、撮影時における監視カメラ2の撮影方向も移動による姿勢変動によって変化するため、後述する姿勢検出部35と同様の構成を備え、画像データ生成部21cは、これにより得られた姿勢情報により撮影方向を補正する。そして、画像データ生成部21cからは、監視カメラ2の撮影時における位置情報及び撮影時における監視カメラ2の撮影方向も付加した画像データがセンタ装置4に送信される。   As shown in FIG. 2, the monitoring camera 2 is not limited to a camera that is fixedly installed at a predetermined location in the monitoring area. The surveillance camera 2 may be capable of photographing at a relatively low altitude from the ground, and can be photographed at a low altitude, such as an in-vehicle camera mounted on various vehicles, a small mobile flying robot having an imaging unit, a drone, and the like. The monitoring area may be moved as described above. Further, when the monitoring camera 2 can move within the monitoring area, a configuration in which at least one monitoring camera 2 is provided may be used. When the surveillance camera 2 moves in the surveillance area, the position information of the surveillance camera 2 at the time of shooting changes with the movement. Therefore, the surveillance camera 2 is provided with a GPS positioning unit, and is monitored on the earth. Position information (latitude, longitude, height) indicating the three-dimensional position (current position) of the camera 2 is output to the image data generation unit 21c. Further, when the monitoring camera 2 moves in the monitoring area, the shooting direction of the monitoring camera 2 at the time of shooting also changes due to the posture change caused by the movement, and thus has the same configuration as the posture detection unit 35 described later, and an image data generation unit 21c corrects the shooting direction based on the posture information obtained thereby. Then, the image data generation unit 21c transmits to the center device 4 image data to which position information at the time of shooting by the monitoring camera 2 and a shooting direction of the monitoring camera 2 at the time of shooting are added.

(飛行装置の構成について)
飛行装置3は、センタ装置4からの制御信号の指示によって移動制御が可能な移動型飛行装置、すなわち、移動型飛行船、小型移動飛行ロボットやドローン、人工衛星などである。又は電源供給及び通信可能な状態で本体がケーブルを介して地上の係留装置と繋がれた係留型飛行装置(例えば係留型飛行船など)であってもよい。さらに、これらの組合せによって構成してもよい。
(About the configuration of the flying device)
The flying device 3 is a mobile flying device capable of moving control according to an instruction of a control signal from the center device 4, that is, a mobile airship, a small mobile flying robot, a drone, an artificial satellite, or the like. Alternatively, it may be a moored flying device (for example, a moored airship) in which the main body is connected to a ground mooring device via a cable in a state where power supply and communication are possible. Furthermore, you may comprise by these combination.

尚、飛行装置3が係留型飛行装置の場合には、監視カメラ2で撮影できない死角領域を包含するように、監視領域の規模に合わせた数だけ設けるのが好ましい。   When the flying device 3 is a moored flying device, it is preferable to provide the number corresponding to the size of the monitoring area so as to include the blind spot area that cannot be captured by the monitoring camera 2.

飛行装置3は、図1に示すように、カメラ部31、推進部32、方向舵33、測位部34、姿勢検出部35、制御部36、無線通信部37を備えている。   As shown in FIG. 1, the flying device 3 includes a camera unit 31, a propulsion unit 32, a rudder 33, a positioning unit 34, an attitude detection unit 35, a control unit 36, and a wireless communication unit 37.

カメラ部31は、飛行装置3の本体に搭載され、上空から監視カメラ2よりも広い撮影範囲で撮影を行っている。本例において、飛行装置3のカメラ部31が撮影する高度は、監視カメラ2と比較して相対的に高い高度であって、追跡対象を特定するための後述する複数種類の特徴情報の中で最も重要とされる最重要情報の認識が困難な高度であるが、追跡対象を上方から俯瞰して撮影できる高度である。これにより、撮影した画像から追跡対象の水平面上における周囲の状況が把握しやすい上方画像、つまり、重力の方向と略同方向となる略鉛直方向から撮影した画像を主に得ることができる。   The camera unit 31 is mounted on the main body of the flying device 3 and shoots in a wider shooting range than the surveillance camera 2 from above. In this example, the altitude captured by the camera unit 31 of the flying device 3 is relatively high as compared with the surveillance camera 2, and among the plurality of types of feature information described below for specifying the tracking target. Although it is an altitude at which it is difficult to recognize the most important information, which is regarded as the most important, it is an altitude at which the tracking target can be photographed from above. As a result, it is possible to obtain mainly an upper image from which the surrounding situation on the horizontal plane to be tracked can be easily grasped from the photographed image, that is, an image photographed from a substantially vertical direction that is substantially the same as the direction of gravity.

カメラ部31は、撮像部31a、方向制御部31b、画像データ生成部31cを有している。   The camera unit 31 includes an imaging unit 31a, a direction control unit 31b, and an image data generation unit 31c.

撮像部31aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成されるものであり、所定の撮影範囲を上空から所定時間おきに撮像し、撮像した画像を画像データ生成部31cに順次出力する。   The imaging unit 31a includes, for example, an imaging element such as a CCD element or a C-MOS element, an optical component, and the like. The imaging unit 31a captures a predetermined imaging range from the sky every predetermined time and images the captured image. The data is sequentially output to the data generation unit 31c.

尚、撮像部31aは、カメラ部31がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部31cに出力される。   When the camera unit 31 is configured as a pan / tilt zoom camera, the zoom position of the imaging unit 31a is controlled by the control unit 36 based on a shooting instruction of a control signal from the center device 4. Information on the focal length based on the zoom position is output to the image data generation unit 31c.

方向制御部31bは、カメラ部31がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、水平方向及び垂直方向の角度が制御される。この水平方向及び垂直方向の角度情報は、予め設定されたカメラ部31の向きに相当する撮影方向からの変位角度であり、画像データ生成部31cに出力される。   The direction control unit 31b is necessary when the camera unit 31 is configured as a pan / tilt / zoom camera. The direction control unit 31b is controlled in the horizontal and vertical directions under the control of the control unit 36 based on the shooting instruction of the control signal from the center device 4. The angle is controlled. The angle information in the horizontal direction and the vertical direction is a displacement angle from the photographing direction corresponding to a preset direction of the camera unit 31, and is output to the image data generation unit 31c.

画像データ生成部31cは、撮像部31aが撮像した画像に対し、撮影時における焦点距離や水平方向及び垂直方向の角度情報(撮影方向)を必要に応じて付加した画像データを生成する。また、後述の測位部34にて取得した撮影時における位置情報、及び後述の姿勢検出部35にて得られた撮影時における姿勢情報から補正した撮影方向を必要に応じて付加した画像データを生成する。   The image data generation unit 31c generates image data in which the focal length at the time of shooting and the angle information (shooting direction) in the horizontal and vertical directions are added to the image taken by the imaging unit 31a as necessary. Further, image data is generated by adding the shooting direction corrected from the position information obtained by the positioning unit 34 described later and the posture information obtained by the posture detecting unit 35 described later as needed. To do.

推進部32は、エンジンの動力をプロペラに伝達して回転させることにより飛行装置3に推進力を与えるものであり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。   The propulsion unit 32 applies propulsive force to the flying device 3 by transmitting the engine power to the propeller and rotating it, and is controlled by the control unit 36 according to the flight instruction of the control signal from the center device 4.

方向舵33は、飛行装置3の操縦に用いる動翼であり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。   The rudder 33 is a moving blade used for maneuvering the flying device 3 and is controlled by the control unit 36 in accordance with a flight instruction of a control signal from the center device 4.

測位部34は、GPS(Global Positioning System )からなり、地球上での飛行装置3の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を制御部36に出力する。この位置情報は画像データ生成部31cへも出力する。   The positioning unit 34 includes a GPS (Global Positioning System), and outputs position information (latitude, longitude, height) indicating the three-dimensional position (current position) of the flying device 3 on the earth to the control unit 36. This position information is also output to the image data generation unit 31c.

姿勢検出部35は、例えばジャイロコンパスとサーボ加速度計を備え、飛行装置3の方位角、ピッチ角、ロール角を計測して飛行装置3の姿勢を検出し、この検出により得られる姿勢情報を制御部36に出力する。この姿勢情報は画像データ生成部31cへも出力する。   The attitude detection unit 35 includes, for example, a gyrocompass and a servo accelerometer, detects the attitude of the flying device 3 by measuring the azimuth angle, pitch angle, and roll angle of the flying device 3, and controls the attitude information obtained by this detection. To the unit 36. This attitude information is also output to the image data generation unit 31c.

制御部36は、カメラ部31の画像データ生成部31cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信するように無線通信部37を制御する。また、制御部36は、飛行制御部36aとカメラ制御部36bを有する。飛行制御部36aは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の飛行指示に従って推進部32や方向舵33を制御する。カメラ制御部36bは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の撮影指示に従ってカメラ部31の撮像部31aや方向制御部31bを制御する。   The control unit 36 controls the wireless communication unit 37 so that the image data generated by the image data generation unit 31c of the camera unit 31 is transmitted to the center device 4 at predetermined intervals at predetermined frame periods. The control unit 36 includes a flight control unit 36a and a camera control unit 36b. When the flight control unit 36a receives a control signal from the center device 4 via the wireless communication unit 37, the flight control unit 36a controls the propulsion unit 32 and the rudder 33 according to the flight instruction of the control signal. When the control signal from the center device 4 is received via the wireless communication unit 37, the camera control unit 36b controls the imaging unit 31a and the direction control unit 31b of the camera unit 31 in accordance with the shooting instruction of the control signal.

無線通信部37は、制御部36の制御により、センタ装置4との間で無線通信し、データや信号の送受信を行う。具体的には、画像データ生成部31cが生成した画像データを所定フレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部31a、方向制御部31b、推進部32、方向舵33を制御するため、センタ装置4からの制御信号(撮影指示、飛行指示)を受信する。   The wireless communication unit 37 performs wireless communication with the center device 4 and transmits / receives data and signals under the control of the control unit 36. Specifically, the image data generated by the image data generation unit 31c is transmitted to the center device 4 at predetermined time intervals in a predetermined frame period. In addition, in order to control the imaging unit 31a, the direction control unit 31b, the propulsion unit 32, and the rudder 33, a control signal (imaging instruction, flight instruction) is received from the center device 4.

(センタ装置の構成について)
追跡処理装置としてのセンタ装置4は、通信部41、無線通信部42、制御部43、記憶部44、操作部45、表示部46を備えている。
(About the configuration of the center device)
The center device 4 as a tracking processing device includes a communication unit 41, a wireless communication unit 42, a control unit 43, a storage unit 44, an operation unit 45, and a display unit 46.

通信部41は、有線又は無線により通信を行うための通信インタフェースであり、制御部43の制御により、通信回線を介して複数の監視カメラ2との間で相互に通信を行う。具体的には、複数の監視カメラ2から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、制御対象となる監視カメラ2に対し、撮像部21aや方向制御部21bを制御して撮影指示するための制御信号を送信する。   The communication unit 41 is a communication interface for performing wired or wireless communication, and communicates with a plurality of monitoring cameras 2 via a communication line under the control of the control unit 43. Specifically, image data transmitted from the plurality of monitoring cameras 2 at predetermined frame intervals is received. In addition, a control signal for instructing photographing is transmitted to the monitoring camera 2 to be controlled by controlling the imaging unit 21a and the direction control unit 21b.

無線通信部42は、制御部43の制御により、飛行装置3との間で相互に無線通信を行う。具体的には、飛行装置3から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、飛行装置3の撮像部31aや方向制御部31bを制御して撮影指示するための制御信号と、飛行装置3の推進部32や方向舵33を制御して飛行指示するための制御信号を必要に応じて送信する。   The wireless communication unit 42 performs wireless communication with the flying device 3 under the control of the control unit 43. Specifically, the image data transmitted from the flying device 3 at a predetermined frame period and every predetermined time is received. Further, a control signal for instructing shooting by controlling the imaging unit 31a and the direction control unit 31b of the flying device 3, and a control signal for instructing flight by controlling the propulsion unit 32 and the rudder 33 of the flying device 3 are necessary. Send according to.

制御部43は、後述する追跡対象の追跡機能を実行するための構成として、対象特徴抽出部43a、監視カメラ追跡部43b、逸脱判定部43c、許容時間設定部43d、追跡不能判定部43e、予測エリア推定部43f、飛行装置制御部43g、対象候補検出部43h、連携処理部43i、表示制御部43jを備えている。   The control unit 43 includes a target feature extraction unit 43a, a monitoring camera tracking unit 43b, a deviation determination unit 43c, an allowable time setting unit 43d, an untrackable determination unit 43e, and a prediction function for executing a tracking target tracking function to be described later. An area estimation unit 43f, a flying device control unit 43g, a target candidate detection unit 43h, a cooperation processing unit 43i, and a display control unit 43j are provided.

対象特徴抽出部43aは、追跡対象を特定するための複数種類の特徴情報を抽出しており、抽出した特徴情報を追跡対象の特徴情報(追跡対象特徴)として記憶部44に記憶させる。   The target feature extraction unit 43a extracts a plurality of types of feature information for specifying a tracking target, and stores the extracted feature information in the storage unit 44 as tracking target feature information (tracking target feature).

ここで、複数種類の特徴情報は、追跡対象が例えば人物である場合、図3に示すように、顔画像、年齢、性別、髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色、身長、体型からなる。   Here, when the tracking target is, for example, a person, the plurality of types of feature information include, as shown in FIG. Consists of color, height, and figure.

これらの特徴情報の抽出方法としては、公知の手法を用いればよいが、例えば次のようにして抽出すればよい。   As a method for extracting the feature information, a known method may be used. For example, the feature information may be extracted as follows.

顔画像の抽出は、人物を検出するための識別器により、指定された画像から人物領域を抽出し、この抽出した人物領域内で顔を検出するための識別器を用いて顔領域を抽出する。そして、この顔領域を顔画像の特徴情報として抽出する。   The face image is extracted by extracting a person area from a specified image using a classifier for detecting a person and extracting a face area using a classifier for detecting a face in the extracted person area. . Then, this face area is extracted as feature information of the face image.

年齢の抽出は、年代ごとの一般的な基準顔画像を、その基準顔画像の年代と対応づけて予め記憶部44に記憶しておき、これらの基準顔画像と、顔画像の抽出の際に抽出した顔画像とを比較して類似度を算出する。そして、最も類似度が高い基準顔画像に対応づけて記憶されている年代を、年齢の特徴情報として抽出する。   In the extraction of age, a general reference face image for each age is stored in advance in the storage unit 44 in association with the age of the reference face image, and these reference face images and face images are extracted. The degree of similarity is calculated by comparing the extracted face image. Then, the age stored in association with the reference face image having the highest similarity is extracted as age characteristic information.

性別の抽出は、性別ごとの一般的な基準顔画像を、その基準顔画像の性別と対応づけて予め記憶部44に記憶しておき、これらの基準顔画像と、顔画像の抽出の際に抽出した顔画像とを比較して類似度を算出する。そして、最も類似度が高い基準顔画像に対応づけて記憶されている性別を、性別の特徴情報として抽出する。   In the gender extraction, a general reference face image for each gender is stored in advance in the storage unit 44 in association with the gender of the reference face image, and these reference face images and face images are extracted. The degree of similarity is calculated by comparing the extracted face image. Then, the gender stored in association with the reference face image having the highest similarity is extracted as gender feature information.

髪色の抽出は、上記顔画像の抽出の際に抽出した人物領域内で、頭部を検出するための識別器により頭部領域を抽出する。この頭部領域から、顔画像の抽出の際に抽出した顔領域を除いた領域を髪領域とし、髪領域における色情報のヒストグラムを作成し、これを髪色の特徴情報として抽出する。   In the hair color extraction, the head region is extracted by a discriminator for detecting the head in the human region extracted in the face image extraction. A region excluding the face region extracted at the time of face image extraction from the head region is defined as a hair region, a color information histogram in the hair region is created, and this is extracted as hair color feature information.

上半身衣服色と下半身衣服色の抽出は、顔画像の抽出の際に抽出した人物領域において、高さ方向で上半身衣服と下半身衣服に相当する領域(例えば地上からの比率を下半身衣服:上半身衣服:頭部を4:3:1とする、など)から色情報のヒストグラムを作成し、これを上半身衣服色の特徴情報と下半身衣服色の特徴情報として抽出する。   In the extraction of the upper body clothes color and the lower body clothes color, an area corresponding to the upper body clothes and the lower body clothes in the height direction (for example, the ratio from the ground to the lower body clothes: upper body clothes: Histogram of color information is created from the head as 4: 3: 1), and this is extracted as feature information of upper body clothes color and feature information of lower body clothes color.

所持品種別の抽出は、所持品の種別(例えば鞄、リュック、傘など)を検出するための識別器により所持品の有無と種別を判定し、判定した有無と種別を所持品種別の特徴情報として抽出する。   Extraction by type of possession is performed by determining the presence and type of possession by a classifier for detecting the type of possession (for example, bag, backpack, umbrella, etc.) Extract as

所持品色の抽出は、所持品種別の抽出の際に抽出した所持品領域の色情報のヒストグラムを作成し、これを所持品色の特徴情報として抽出する。   In the possession color extraction, a histogram of the color information of the possession area extracted at the time of extraction for each possession type is created, and this is extracted as characteristic information of the possession color.

身長の抽出は、画像データに含まれる、監視カメラ2の撮影位置、焦点距離、俯角などの撮影パラメータ(監視カメラ情報)を参照し、顔画像の抽出の際に抽出した人物領域の位置や大きさから身長を算出し、これを身長の特徴情報として抽出する。   The height is extracted by referring to shooting parameters (monitoring camera information) such as the shooting position, focal length, and depression angle of the monitoring camera 2 included in the image data, and the position and size of the person region extracted when extracting the face image. The height is calculated from this, and this is extracted as the feature information of the height.

体型の抽出は、顔画像の抽出の際に抽出した人物領域の高さ方向の長さと幅方向の長さの比率を算出し、これを体型の特徴情報として抽出する。   In the extraction of the body type, the ratio of the length in the height direction and the length in the width direction of the person region extracted when extracting the face image is calculated, and this is extracted as the feature information of the body type.

なお、これらの追跡対象の特徴情報の入力方法としては、監視員が必要に応じて操作部45を操作して、記憶部44に記憶保存された監視カメラ2の画像から人物に当たる部分を指定すると、対象特徴抽出部43aが指定された画像から上述の方法で特徴情報を抽出して追跡対象特徴として記憶部44に記憶させる。また、監視員の指定操作によらず、追跡対象が予め決まっている場合には、その追跡対象の対象特徴を予め記憶部44に記憶させておく。   In addition, as a method of inputting the feature information of these tracking targets, when a monitor operates the operation unit 45 as necessary, a portion corresponding to a person is specified from the image of the monitoring camera 2 stored and stored in the storage unit 44. Then, the target feature extraction unit 43a extracts feature information from the designated image by the above-described method and stores it in the storage unit 44 as a tracking target feature. In addition, when the tracking target is determined in advance regardless of the designation operation of the monitor, the target feature of the tracking target is stored in the storage unit 44 in advance.

監視カメラ追跡部43bは、図6の破線で囲まれる後述の監視カメラ追跡処理を実行し、複数の監視カメラ2毎に順次撮影される画像から、対象特徴抽出部43aにて抽出した追跡対象特徴を用いて、所定の追跡対象を検出し、検出した追跡対象を追跡する監視を行う。   The monitoring camera tracking unit 43b performs a later-described monitoring camera tracking process surrounded by a broken line in FIG. 6, and the tracking target feature extracted by the target feature extraction unit 43a from images sequentially captured for each of the plurality of monitoring cameras 2. Is used to detect a predetermined tracking target and to monitor the detected tracking target.

監視カメラ追跡処理は、複数の全ての監視カメラ2の画像に対して実行される処理であり、監視カメラ2で撮影した画像から、識別器により画像中の人物領域を抽出し、抽出した人物領域ごとに前述した対象特徴抽出部43aが行う特徴の抽出方法と同様にして複数種類の特徴情報を抽出し、この特徴情報と、対象特徴抽出部43aにて抽出した追跡対象特徴との対比により追跡対象の検出を対象検出処理として行う。   The surveillance camera tracking process is a process executed on all the images of a plurality of surveillance cameras 2, and a person area in the image is extracted from an image photographed by the surveillance camera 2 by a discriminator. Each type of feature information is extracted in the same manner as the feature extraction method performed by the target feature extraction unit 43a described above, and tracking is performed by comparing this feature information with the tracking target feature extracted by the target feature extraction unit 43a. Object detection is performed as object detection processing.

具体的に図3の例で挙げている特徴情報を用いた追跡対象の検出について説明すると、まず、これら複数種類の特徴情報は、個々の特徴情報について追跡対象の検出における信頼性を考慮した重み付け係数が設定されている。例えば、最も高精度な照合が可能な顔画像を最重要特徴情報とし、この顔画像の重み付け係数を一番高く設定し、高精度な照合が難しい身長や体型の重み付け係数は低く設定する、などとすることができる。   Specifically, detection of the tracking target using the feature information given in the example of FIG. 3 will be described. First, these multiple types of feature information are weighted in consideration of reliability in detection of the tracking target for each feature information. The coefficient is set. For example, the face image that can be collated with the highest accuracy is set as the most important feature information, the weighting coefficient of this face image is set to be the highest, and the weighting coefficient for height and body type that is difficult to collate with high accuracy is set to be low. It can be.

そして、特徴情報の種別ごとに、監視カメラ追跡部43bが抽出した特徴情報と対象特徴抽出部43aで抽出した追跡対象特徴とを比較し、類似度を算出する。   Then, for each type of feature information, the feature information extracted by the monitoring camera tracking unit 43b is compared with the tracking target feature extracted by the target feature extraction unit 43a, and the similarity is calculated.

次に、複数種類の特徴情報ごとに算出した類似度に対し、上述した重み付け係数を掛け合わせる。そして、特徴情報の種類毎の類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とする。次に、予め記憶部44に記憶された追跡対象と見なせる追跡対象検出閾値(例えば類似度90%など)と全体類似度とを比較し、全体類似度が追跡対象検出閾値を超えていると判定したときに、追跡対象として検出する。   Next, the above-described weighting coefficient is multiplied to the similarity calculated for each of the plurality of types of feature information. Then, the total similarity is obtained by multiplying the similarity for each type of feature information by the weighting coefficient and adding them together. Next, the tracking target detection threshold (for example, 90% similarity) that can be regarded as a tracking target stored in advance in the storage unit 44 is compared with the overall similarity, and it is determined that the overall similarity exceeds the tracking target detection threshold. When detected, it is detected as a tracking target.

また、監視カメラ追跡処理では、上述した対象検出処理により追跡対象を検出すると、監視カメラ2が追跡対象を追跡中であるか否かを示す追跡フラグをONにする。この追跡フラグは、監視カメラ2ごとに対応付けられて記憶部44に記憶されている。なお、このときの画像は、表示制御部43jの制御により表示部46に表示される。   In the monitoring camera tracking process, when the tracking object is detected by the above-described object detection process, a tracking flag indicating whether the monitoring camera 2 is tracking the tracking object is turned ON. The tracking flag is stored in the storage unit 44 in association with each monitoring camera 2. Note that the image at this time is displayed on the display unit 46 under the control of the display control unit 43j.

さらに、監視カメラ追跡処理では、対象追跡処理として、所定のフレーム周期で所定時間おきに送信される監視カメラ2からの画像データにおいて、上述した対象検出処理で検出した追跡対象を追跡する処理を行う。この追跡処理は公知の手法を用いればよいが、例えば、現在の画像と1フレーム前の画像とのフレーム間差分をとることで画像中における変化領域を抽出し、対象検出処理で検出した追跡対象の位置に相当する変化領域を特定する。そして、次に新たな画像データを取得した際も同様にフレーム間差分を行って変化領域を抽出し、この抽出した変化領域が、前回追跡対象に相当する変化領域として特定した変化領域と、その位置、大きさ、形状などの点において同一の物体とみなせるかを判定し、同一とみなせる場合には、その変化領域を今回追跡対象に相当する変化領域として特定する。これらの処理を新たな画像データを取得する度に繰り返すことで、監視カメラ2の画像中において追跡対象を追跡してゆくことができる。なお、この対象追跡処理においても、上述した対象検出処理で行っているような特徴情報をさらに用いて追跡対象を追跡してもよい。   Further, in the monitoring camera tracking process, as the target tracking process, a process of tracking the tracking target detected in the above-described target detection process is performed on the image data from the monitoring camera 2 transmitted every predetermined time in a predetermined frame period. . For this tracking process, a known method may be used. For example, a change target in the image is extracted by taking a difference between frames of the current image and the previous frame, and the tracking target detected by the target detection process is detected. The change area corresponding to the position of is specified. Then, when new image data is acquired next, the difference region is similarly extracted to extract the change region, and the extracted change region is identified as the change region corresponding to the previous tracking target, and the change region It is determined whether the object can be regarded as the same object in terms of position, size, shape, and the like. By repeating these processes each time new image data is acquired, it is possible to track the tracking target in the image of the monitoring camera 2. Also in this target tracking process, the tracking target may be tracked by further using the feature information as performed in the above-described target detection process.

そして、上述した対象追跡処理により、追跡対象が監視カメラ2の撮影可能範囲外に移動したか否かを判別し、追跡対象が監視カメラ2の撮影可能範囲外に移動して撮影可能範囲から逸脱したと判定すると、その監視カメラ2の追跡フラグをOFFにする。   Then, by the target tracking process described above, it is determined whether or not the tracking target has moved out of the shootable range of the monitoring camera 2, and the tracking target moves out of the shootable range of the monitoring camera 2 and deviates from the shootable range. If it is determined that the tracking flag of the monitoring camera 2 is turned off.

さらに、監視カメラ追跡処理では、追跡対象を検出するための追跡対象検出閾値を緩く変更するための制御信号の入力を後述の連携処理部43iから受けると、その制御信号に応じて追跡対象検出閾値を緩く(例えば類似度70%など)する。   Further, in the monitoring camera tracking process, when an input of a control signal for loosely changing the tracking target detection threshold for detecting the tracking target is received from the cooperation processing unit 43i described later, the tracking target detection threshold is determined according to the control signal. Is loosened (for example, 70% similarity).

逸脱判定部43cは、上述した監視カメラ追跡処理にて制御される追跡フラグを、記憶部44を参照して監視する。逸脱判定部43cは、各監視カメラ2の追跡フラグが全てOFFになるか否かを判定することで、複数の全ての監視カメラ2において追跡対象が撮影可能範囲から逸脱したか否かを判定している。また、逸脱判定部43cは、追跡フラグがONとなっていた監視カメラ2のうち最後にOFFに変化した監視カメラ2を、最後に追跡対象を検出した監視カメラとして特定する。   The departure determination unit 43c monitors the tracking flag controlled by the monitoring camera tracking process described above with reference to the storage unit 44. The departure determination unit 43c determines whether or not the tracking target has deviated from the shootable range in all of the plurality of monitoring cameras 2 by determining whether or not all the tracking flags of each monitoring camera 2 are turned off. ing. In addition, the departure determination unit 43c identifies the monitoring camera 2 that has finally turned OFF among the monitoring cameras 2 whose tracking flag is ON as the monitoring camera that has finally detected the tracking target.

許容時間設定部43dは、逸脱判定部43cが撮影可能範囲からの逸脱を判定すると、最後に追跡対象を検出した監視カメラ2の所定範囲(例えば100m)内の他の監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から抽出している。そして、許容時間設定部43dは、最後に追跡対象を検出した監視カメラ2から他の監視カメラ2まで追跡対象が移動するのに要する予想移動時間をそれぞれ算出し、この算出した予想移動時間のうち最長の予想移動時間に猶予時間を加えた許容時間を設定する。なお、予想移動時間の算出は、例えば、追跡対象が人である場合には、人の一般的な移動速度と、最後に追跡対象を検出した監視カメラ2から他の監視カメラ2までの距離とから算出することができる。また、猶予時間は、監視ポリシーに応じて適時定められた時間である。   When the deviation determination unit 43c determines a deviation from the shootable range, the allowable time setting unit 43d stores other monitoring cameras 2 within a predetermined range (for example, 100 m) of the monitoring camera 2 that finally detected the tracking target. 44 is extracted from the position information of the monitoring camera information stored in 44. Then, the allowable time setting unit 43d calculates an estimated moving time required for the tracking target to move from the monitoring camera 2 that finally detected the tracking target to the other monitoring camera 2, and out of the calculated predicted moving time. Set the allowable time by adding the grace time to the longest expected travel time. For example, when the tracking target is a person, the expected movement time is calculated by using the general movement speed of the person and the distance from the monitoring camera 2 that finally detected the tracking target to the other monitoring camera 2. It can be calculated from Further, the grace time is a time determined in accordance with the monitoring policy.

なお、他の監視カメラ2を抽出する際の所定範囲は、最後に追跡対象を検出した監視カメラ2の位置から所定距離を半径とする円を描いた領域を所定範囲としてもよい。また、追跡対象が例えば車両の場合は車両の通行が可能な領域(道路や駐車場など)を後述する監視空間情報に基づいて特定して所定範囲とし、この所定範囲を撮影可能範囲に含む監視カメラ2を抽出するなどとしてもよい。さらには、監視カメラ情報に記憶されている全ての監視カメラ2を抽出してもよい。   It should be noted that the predetermined range when extracting the other monitoring cameras 2 may be a predetermined range that is a circle drawn with a predetermined distance from the position of the monitoring camera 2 that finally detected the tracking target. In addition, when the tracking target is a vehicle, for example, an area in which the vehicle can pass (such as a road or a parking lot) is specified based on monitoring space information to be described later to be a predetermined range, and the predetermined range is included in the shootable range. The camera 2 may be extracted. Furthermore, all the monitoring cameras 2 stored in the monitoring camera information may be extracted.

追跡不能判定部43eは、監視カメラ追跡部43bによる追跡対象の追跡が不能になったか否かを判定する。さらに説明すると、追跡不能判定部43eは、逸脱判定部43cが撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間設定部43dで設定された許容時間を経過するまでに、どの監視カメラ2でも追跡対象を検出していなければ、追跡対象の追跡ができない、つまり複数の監視カメラ2に追跡対象の追跡を委ねるべきではないとして、追跡対象を追跡不能と判定し、追跡不能判定信号を出力する。   The tracking impossibility determination unit 43e determines whether or not tracking of the tracking target by the monitoring camera tracking unit 43b is disabled. More specifically, the untrackable determination unit 43e determines which monitoring time the elapsed time from when the departure determination unit 43c determines the departure from the shootable range passes the allowable time set by the allowable time setting unit 43d. If the camera 2 does not detect the tracking target, the tracking target cannot be tracked, that is, the tracking target should not be entrusted to a plurality of monitoring cameras 2. Is output.

予測エリア推定部43fは、追跡不能判定部43eが追跡不能判定信号を出力したときに、最後に追跡対象を検出した監視カメラ2の位置から、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定する予測エリア推定処理を実行する。   The prediction area estimation unit 43f can shoot the monitoring camera 2 that did not detect the tracking target from the position of the monitoring camera 2 that last detected the tracking target when the tracking impossible determination unit 43e outputs the tracking impossible determination signal. Prediction area estimation processing for estimating a prediction area where a tracking target exists by excluding the range is executed.

さらに説明すると、予測エリア推定処理では、最初に追跡対象の移動範囲を算出する。具体的には、監視カメラ2が最後に追跡対象を検出した位置が図4(a)の×印で示す位置Pあったとする。この場合、×印の位置Pを基準として、追跡対象が最大移動できる移動範囲を追跡対象の移動速度と経過時間とを掛け合わせた値から算出すると、図4(a)における斜線部分が移動範囲E0となる。次に、算出した移動範囲E0内で追跡対象を検出していない監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から抽出する。図4(b)の例では、カメラのアイコンで示された5つの監視カメラ2a,2b,2c,2d,2eが抽出される。次に、抽出した各監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5を、記憶部44に記憶された監視カメラ情報の撮影範囲から読み出す。図4(b)の例では、カメラのアイコンで示された5つの監視カメラ2a,2b,2c,2d,2eから引き出された斜線部分が各監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5となる。そして、追跡対象の移動方向(図4(c)の矢印m方向)を加味して、図4(a)の追跡対象の移動範囲E0と、図4(b)の監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5と、後述する追跡対象が移動することができない移動不可能領域とから追跡対象の移動不能領域E10を特定する。図4(c)の例では、斜線部分が追跡対象の移動不能領域E10となる。そして、図4(a)の追跡対象の移動範囲E0と図4(c)の追跡対象の移動不能領域E10とを重ね合わせて重複しない部分を予測エリアE11として推定する。図4(d)の例では、斜線部分が予測エリアE11となる。   More specifically, in the prediction area estimation process, first, the movement range of the tracking target is calculated. Specifically, it is assumed that the position at which the surveillance camera 2 last detected the tracking target is a position P indicated by a cross in FIG. In this case, with reference to the position P indicated by the x mark, when the movement range in which the tracking target can move to the maximum is calculated from a value obtained by multiplying the movement speed of the tracking target and the elapsed time, the hatched portion in FIG. E0. Next, the monitoring camera 2 that does not detect the tracking target within the calculated movement range E0 is extracted from the position information of the monitoring camera information stored in the storage unit 44. In the example of FIG. 4B, five surveillance cameras 2a, 2b, 2c, 2d, and 2e indicated by camera icons are extracted. Next, the imaging ranges E1, E2, E3, E4, and E5 of the extracted surveillance cameras 2a, 2b, 2c, 2d, and 2e are read out from the imaging ranges of the monitoring camera information stored in the storage unit 44. In the example of FIG. 4B, shaded portions drawn from the five surveillance cameras 2a, 2b, 2c, 2d, and 2e indicated by camera icons are taken by the surveillance cameras 2a, 2b, 2c, 2d, and 2e. The range is E1, E2, E3, E4, E5. Then, in consideration of the moving direction of the tracking target (the direction of the arrow m in FIG. 4C), the moving range E0 of the tracking target in FIG. 4A and the monitoring cameras 2a, 2b, 2c in FIG. , 2d, 2e and the immovable area E10 of the tracking target is specified from the immovable area where the tracking target cannot move, which will be described later. In the example of FIG. 4C, the hatched portion is the immovable area E10 to be tracked. Then, the movement range E0 of the tracking target of FIG. 4A and the non-movable area E10 of the tracking target of FIG. 4C are overlapped to estimate a non-overlapping portion as the prediction area E11. In the example of FIG. 4D, the shaded area is the prediction area E11.

尚、上述した監視カメラ追跡部43bによる対象検出処理を追跡機能がONしている間、常時行っている。また、予測エリア推定部43fは、上述した予測エリア推定処理を監視カメラ追跡部43bにて追跡対象を検出するまで継続して実行する。このため、予測エリア推定処理を実行している場合にはどの監視カメラ2でも追跡対象を検出していないことになる。従って、移動範囲内にある監視カメラ2を抽出し、その撮影範囲を含む移動不能領域E10を移動範囲E0から除外して予測エリアE11とすることが、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定することとなる。   Note that the object detection process by the monitoring camera tracking unit 43b described above is always performed while the tracking function is ON. The prediction area estimation unit 43f continuously executes the above-described prediction area estimation process until the monitoring target is detected by the monitoring camera tracking unit 43b. For this reason, no tracking camera 2 has detected the tracking target when the prediction area estimation process is being executed. Therefore, extracting the surveillance camera 2 within the movement range and excluding the immovable area E10 including the imaging range from the movement range E0 as the prediction area E11 allows the surveillance camera 2 that has not detected the tracking target. The prediction area where the tracking target exists is estimated by excluding the imageable range.

飛行装置制御部43gは、飛行装置3が移動型飛行装置の場合、追跡不能判定部43eが追跡不能判定信号を出力したときに、予測エリア推定部43fが推定した予測エリアを含んで撮影できる目標位置まで移動型飛行装置を移動制御するための飛行指示の制御信号を出力する。   When the flying device 3 is a mobile flying device, the flying device control unit 43g can capture an image including a prediction area estimated by the prediction area estimation unit 43f when the untrackable determination unit 43e outputs a non-trackable determination signal. A flight instruction control signal for controlling movement of the mobile flight device to a position is output.

尚、目標位置は、予測エリア推定部43fが推定した予測エリアの外接矩形領域の外側に所定幅の余裕を持たせた領域の重心における所定高度に設定される。   Note that the target position is set to a predetermined height at the center of gravity of a region having a margin of a predetermined width outside the circumscribed rectangular region of the prediction area estimated by the prediction area estimation unit 43f.

また、飛行装置制御部43gは、予測エリア推定部43fが予測エリアの推定を繰り返し実行したときに、その実行の結果に応じて目標位置を再設定し、この再設定された目標位置まで飛行装置3を移動制御するための飛行指示の制御信号を出力する。   Further, when the prediction area estimation unit 43f repeatedly executes the estimation of the prediction area, the flying device control unit 43g resets the target position according to the result of the execution, and the flying device reaches the reset target position. 3 outputs a flight instruction control signal for controlling the movement of 3.

さらに、飛行装置制御部43gは、飛行装置3が複数の係留型飛行装置の場合、追跡不能判定部43eが追跡不能判定信号を出力したときに、予測エリア推定部43fが推定した予測エリアを撮影可能な係留型飛行装置を選択し、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置の飛行状態を制御するための制御信号を出力する。   Further, when the flying device 3 is a plurality of moored flight devices, the flying device control unit 43g captures the prediction area estimated by the prediction area estimating unit 43f when the untrackable determination unit 43e outputs the untrackable determination signal. A possible moored flying device is selected, and a control signal for controlling the flight state of the moored flying device is output so that the selected moored flying device images the prediction area.

飛行装置制御部43gは、推定された予測エリアを撮影可能な係留型飛行装置が無いと判定しても、その後に推定された予測エリアにおいて撮影可能な係留型飛行装置を検出すれば、その検出した係留型飛行装置を選択し、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置の飛行状態を制御するための制御信号を出力する。   Even if the flying device control unit 43g determines that there is no moored flying device capable of photographing the estimated prediction area, if the flying device control unit 43g detects a moored flying device capable of photographing in the estimated prediction area after that, the detection is performed. The moored flying device is selected, and a control signal for controlling the flight state of the moored flying device is output so that the selected moored flying device images the predicted area.

対象候補検出部43hは、追跡不能判定部43eが追跡不能判定信号を出力した場合に、飛行装置3のカメラ部31にて撮影された画像から追跡対象の候補を検出する対象候補検出処理を実行する。   The target candidate detection unit 43h executes target candidate detection processing for detecting a tracking target candidate from an image captured by the camera unit 31 of the flying device 3 when the untrackable determination unit 43e outputs a nontrackable determination signal. To do.

対象候補検出処理では、飛行装置3のカメラ部31より取得した画像データの画像から特徴検索を行っている。特徴検索は、前述した監視カメラ2の対象検出処理の判定基準よりも緩い判定基準による特徴情報を用いた類似度の算出により、追跡対象の候補を検索している。   In the target candidate detection process, feature search is performed from the image of the image data acquired from the camera unit 31 of the flying device 3. In the feature search, a tracking target candidate is searched by calculating similarity using feature information based on a determination criterion that is looser than the determination criterion of the object detection processing of the monitoring camera 2 described above.

特徴検索では、監視カメラ2の対象検出処理の判定基準で用いる特徴情報より少なく、その複数種類の特徴情報の一部を用いる判定基準となっている。具体的には、図3に×印で示すように、追跡対象が人物の場合、監視カメラ2の対象検出処理の判定基準で用いられる顔画像、年齢、性別、身長、体型の特徴情報を用いず、○印で示す髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色に限定した特徴情報が用いられる。そして、前述した対象検出処理と同様の手法により、これら特徴情報毎に算出した追跡対象特徴との類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とし、この全体類似度が予め記憶部44に記憶された追跡対象の候補と見なせる候補検出閾値(例えば類似度50%など)を超えていると判定したときに、追跡対象の候補として検出する。尚、上空から撮影した飛行装置3からの画像では追跡対象の特定がしづらいため、候補検出閾値が追跡対象閾値よりも低く設定されている。   The feature search is a criterion for using a part of the plurality of types of feature information, which is less than the feature information used in the criterion for the object detection process of the monitoring camera 2. Specifically, as indicated by a cross in FIG. 3, when the tracking target is a person, the facial image, age, gender, height, and body feature information used in the criteria for the target detection process of the monitoring camera 2 are used. First, feature information limited to the hair color indicated by a circle, the upper body clothes color, the lower body clothes color, the possession type, and the possession product color is used. Then, by using the same method as the target detection process described above, the total similarity is obtained by multiplying the similarity with the tracking target feature calculated for each feature information by multiplying the weighting coefficient and adding up the total similarity. When it is determined that a candidate detection threshold value that can be regarded as a tracking target candidate stored in advance in the storage unit 44 (for example, a similarity of 50% or the like) is exceeded, it is detected as a tracking target candidate. Note that the candidate detection threshold is set lower than the tracking target threshold because it is difficult to specify the tracking target in the image taken from the flying device 3 taken from above.

連携処理部43iは、後述する図13の連携処理を実行し、対象候補検出部43hが追跡対象の候補を検出したときに、飛行装置3の画像内に設置されている監視カメラ2を特定し、この特定した監視カメラ2の撮影可能範囲を記憶部44に記憶された監視カメラ情報から読み出す。そして、全ての追跡対象の候補について、追跡対象の候補の位置が監視カメラ2の撮影可能範囲内にある全ての監視カメラ2を特定し、特定した監視カメラ2に撮影指示の制御信号を通信部41に出力したり、特定した監視カメラ2が撮影した画像について監視カメラ追跡部43bによる追跡対象検出閾値を緩く設定するための制御信号を監視カメラ追跡部43bに出力する。   The cooperation processing unit 43i executes the cooperation processing of FIG. 13 to be described later, and specifies the monitoring camera 2 installed in the image of the flying device 3 when the target candidate detection unit 43h detects the tracking target candidate. Then, the shootable range of the specified surveillance camera 2 is read from the surveillance camera information stored in the storage unit 44. Then, for all the tracking target candidates, all the monitoring cameras 2 whose tracking target candidate positions are within the shooting possible range of the monitoring camera 2 are identified, and a control signal for shooting instruction is transmitted to the identified monitoring camera 2 41, or a control signal for loosely setting the tracking target detection threshold by the monitoring camera tracking unit 43b for the image captured by the specified monitoring camera 2 is output to the monitoring camera tracking unit 43b.

図5は追跡対象の追跡を飛行装置3から監視カメラ2に連携するときに、上述した制御信号によって制御される監視カメラ2の動作の一例を示している。図5の×印で示す位置に追跡対象の候補がいる場合、この追跡対象の候補の撮影が可能な監視カメラ2fを制御対象として特定し、この制御対象の監視カメラ2fに撮影指示の制御信号を出力する。この制御信号は通信部41を介して監視カメラ2fへ送信され、監視カメラ2fは、撮影指示の制御信号を受信すると、現在の撮影範囲E6から追跡対象の候補が撮影できる撮影範囲E6’に変更するため、制御信号の撮影指示に従って撮像部21aのズーム位置と方向制御部21bによる水平方向及び垂直方向の角度を制御する。   FIG. 5 shows an example of the operation of the monitoring camera 2 controlled by the control signal described above when the tracking target is linked from the flying device 3 to the monitoring camera 2. When there is a tracking target candidate at the position indicated by a cross in FIG. 5, the monitoring camera 2f capable of shooting the tracking target candidate is specified as a control target, and a control signal for shooting instructions is sent to the monitoring camera 2f of the control target. Is output. This control signal is transmitted to the monitoring camera 2f via the communication unit 41. When the monitoring camera 2f receives the shooting instruction control signal, the monitoring camera 2f changes from the current shooting range E6 to the shooting range E6 ′ where the tracking target candidate can be shot. Therefore, the zoom position of the imaging unit 21a and the horizontal and vertical angles by the direction control unit 21b are controlled in accordance with the shooting instruction of the control signal.

表示制御部43jは、表示部46の表示を制御している。具体的には、後述する追跡対象の追跡機能を実行したときに、予測エリア推定部43fが推定した予測エリアを表示部46に表示している。予測エリアは、飛行装置3のカメラ部31が撮影した画像に重畳表示(例えば飛行装置3からの画像に予測エリアを半透明で重ね合わせて表示)することもできる。尚、表示制御部43jは、通常の監視状態において、監視カメラ2や飛行装置3から所定時間おきに送信される画像データに含まれる最新の画像を表示部46に表示し、監視員がモニタできるようになっている。   The display control unit 43j controls the display on the display unit 46. Specifically, the prediction area estimated by the prediction area estimation unit 43f is displayed on the display unit 46 when a tracking function for a tracking target described later is executed. The prediction area can be displayed superimposed on the image captured by the camera unit 31 of the flying device 3 (for example, the prediction area is displayed in a semi-transparent manner superimposed on the image from the flying device 3). In the normal monitoring state, the display control unit 43j displays the latest image included in the image data transmitted from the monitoring camera 2 or the flying device 3 every predetermined time on the display unit 46, and can be monitored by the monitor. It is like that.

記憶部44は、後述する追跡対象の追跡機能を実行するために必要な各種情報として、追跡対象特徴、追跡フラグ、経過時間、追跡用情報、監視カメラ情報、飛行装置情報、監視空間情報、画像データなどを記憶している。   The storage unit 44 includes, as various information necessary for executing a tracking function of a tracking target described later, a tracking target feature, a tracking flag, an elapsed time, tracking information, monitoring camera information, flying device information, monitoring space information, an image. Data is stored.

上記各種情報について説明すると、追跡対象特徴は、対象特徴抽出部43aにて抽出した追跡対象の特徴情報を示す情報である。例えば追跡対象が人物の場合、顔画像、年齢、性別、髪色、上半身服装色、下半身服装色、所持品種別、所持品色、身長、体型、移動方向などが対象特徴となる。   The various types of information will be described. The tracking target feature is information indicating the tracking target feature information extracted by the target feature extraction unit 43a. For example, when the subject to be tracked is a person, facial images, age, sex, hair color, upper body clothes color, lower body clothes color, possession type, possession color, height, body shape, movement direction, and the like are the target features.

追跡フラグは、監視カメラ2において追跡対象を追跡中か否かを示すものであり、監視カメラ2ごとに記憶されている。追跡フラグは、追跡中であればON、追跡中でなければOFFとなる。   The tracking flag indicates whether or not the tracking target is being tracked by the monitoring camera 2, and is stored for each monitoring camera 2. The tracking flag is ON if tracking is in progress, and is OFF if tracking is not in progress.

経過時間は、複数の監視カメラ2の追跡フラグが全てOFFとなった時から経過した時間を示す情報である。   The elapsed time is information indicating the time that has elapsed since the tracking flags of the plurality of surveillance cameras 2 are all turned off.

追跡用情報は、同一の監視カメラ2において追跡対象を追跡するための情報であり、追跡対象の画像内における位置、大きさ、形状などの情報である。   The tracking information is information for tracking the tracking target in the same monitoring camera 2, and is information such as a position, a size, and a shape of the tracking target in the image.

監視カメラ情報は、各監視カメラ2に関する情報であって、各監視カメラ2の位置情報(撮影位置:緯度、経度、高さ)、撮影方向(水平角度と垂直角度)、現在撮影している撮影範囲、焦点距離、パンチルトズームすることで撮影することが可能な撮影可能範囲などの情報が含まれる。   The monitoring camera information is information related to each monitoring camera 2, and includes position information (shooting position: latitude, longitude, height), shooting direction (horizontal angle and vertical angle) of each monitoring camera 2, and shooting currently being shot. Information such as a range, a focal length, and a shootable range that can be shot by pan / tilt zoom is included.

なお、移動可能な監視カメラ2においては、位置情報、撮影方向、撮影範囲、焦点距離、撮影可能範囲が変化するため、受信する画像データに含まれる情報に基づいて制御部43により逐次更新される。具体的には、位置情報と撮影方向と焦点距離は受信した情報をそのまま更新し、撮影範囲と撮影可能範囲は画像データに含まれる焦点距離、撮影方向、及び位置情報、並びに予め記憶したパンチルトズームの変更可能範囲に基づいて算出し、更新する。   In the movable monitoring camera 2, the position information, the shooting direction, the shooting range, the focal length, and the shooting range change, so that the control unit 43 sequentially updates the information based on the information included in the received image data. . Specifically, the position information, shooting direction, and focal length are updated as received information, and the shooting range and shooting range are the focal length, shooting direction, and position information included in the image data, and pre-stored pan / tilt zoom It is calculated and updated based on the changeable range.

また、監視領域の所定箇所に固定して設置される監視カメラ2の位置情報に関する情報は、予め記憶部44に監視カメラ情報の一部として記憶しておくことができる。このような監視カメラ2のうち、パンチルトズーム可能な監視カメラ2については、撮影方向、撮影範囲、焦点距離、撮影可能範囲が変化するため、受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。なお、パンチルトズーム不可能な監視カメラ2については撮影範囲と撮影可能範囲は同じであるため同一の情報として記憶される。   In addition, information related to the position information of the monitoring camera 2 that is fixedly installed at a predetermined location in the monitoring area can be stored in advance in the storage unit 44 as a part of the monitoring camera information. Among such surveillance cameras 2, the surveillance camera 2 capable of pan / tilt / zoom changes the shooting direction, shooting range, focal length, and shooting range, so that the above and the like are based on the information included in the received image data. Similarly, the controller 43 sequentially updates. Note that for the surveillance camera 2 that cannot be pan / tilt zoomed, the shooting range and the shooting range are the same, so they are stored as the same information.

飛行装置情報は、飛行装置3に関する情報であって、飛行装置3の位置情報(飛行位置又は撮影位置:緯度、経度、高さ)、カメラ部31の撮影方向(水平角度と垂直角度)、現在撮影している撮影範囲、焦点距離、パンチルトズームすることで撮影することが可能な撮影可能範囲などの情報が含まれ、動的に変化するものは飛行装置3から受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。   The flying device information is information related to the flying device 3, and includes position information of the flying device 3 (flight position or shooting position: latitude, longitude, height), shooting direction of the camera unit 31 (horizontal angle and vertical angle), current Information such as a photographing range, a focal length, a photographing possible range that can be photographed by pan / tilt zoom is included, and information that dynamically changes includes information included in image data received from the flying device 3 Based on the above, the controller 43 sequentially updates the same as described above.

監視空間情報は、監視空間に関する情報であり、例えば地形、建物、道路など形状が所定の座標系で表された3次元情報、監視対象とする監視領域、及び、例えば建物や壁などの人物が存在し得ない領域である移動不可能領域などの情報である。   The monitoring space information is information related to the monitoring space, for example, three-dimensional information in which the shape such as terrain, buildings, roads and the like is represented in a predetermined coordinate system, the monitoring area to be monitored, and a person such as a building or a wall. This is information such as a non-movable area that cannot exist.

画像データは、各監視カメラ2や飛行装置3から所定のフレーム周期で所定時間おきに送信されるデータであり、監視カメラ2ごと飛行装置3ごとに記憶部44に逐次蓄積される。   The image data is data transmitted from the respective monitoring cameras 2 and the flying devices 3 at predetermined frame intervals every predetermined time, and is sequentially stored in the storage unit 44 for each monitoring device 2 and each flying device 3.

尚、記憶部44には、上述した情報の他に、類似度の算出に用いられる重み付け係数、検出閾値(追跡対象検出閾値、候補検出閾値)も記憶されている。   In addition to the above-described information, the storage unit 44 also stores weighting coefficients and detection threshold values (tracking target detection threshold values and candidate detection threshold values) used for calculating similarity.

操作部45は、例えばマウス、キーボード、表示部46の表示画面上のソフトキーなどで構成される。操作部45は、後述する追跡対象の追跡機能の実行や終了、追跡対象の特徴情報を記憶部44に予め記憶させる操作、記憶部44に記憶保存された画像データから追跡対象の指定、各監視カメラ2や飛行装置3への指示、画像データの削除などを行う際に監視員によって操作される。   The operation unit 45 includes, for example, a mouse, a keyboard, and soft keys on the display screen of the display unit 46. The operation unit 45 executes or terminates a tracking function for a tracking target, which will be described later, performs an operation for storing characteristic information of the tracking target in the storage unit 44 in advance, specifies a tracking target from image data stored and saved in the storage unit 44, and monitors each It is operated by a monitor when giving instructions to the camera 2 and the flying device 3 and deleting image data.

表示部46は、例えば液晶表示器などで構成される。表示部46は、表示制御部43jの制御により、複数の監視カメラ2や飛行装置3から取得した画像データの表示、予測エリアの表示、飛行装置3のカメラ部31が撮影した画像への予測エリアの重畳表示(例えば飛行装置3からの画像に予測エリアを半透明で重ね合わせて表示)などを行っている。   The display unit 46 is composed of, for example, a liquid crystal display. The display unit 46 displays the image data acquired from the plurality of monitoring cameras 2 and the flying device 3, displays the prediction area, and predicts the image captured by the camera unit 31 of the flying device 3 under the control of the display control unit 43 j. (For example, the prediction area is displayed in a translucent manner on the image from the flying device 3).

(追跡機能について)
次に、上記のように構成される監視システム1の動作として、監視領域内を移動する追跡対象を追跡して監視する場合の追跡機能について図6〜13のフローチャートを参照しながら説明する。ここでは、複数の監視カメラ2が少なくともパンチルトズームカメラで構成されるものを含み、飛行装置3が移動型飛行装置であるものとしている。
(About the tracking function)
Next, as an operation of the monitoring system 1 configured as described above, a tracking function when tracking and monitoring a tracking target moving in the monitoring area will be described with reference to the flowcharts of FIGS. Here, it is assumed that the plurality of surveillance cameras 2 includes at least a pan / tilt / zoom camera, and the flying device 3 is a mobile flying device.

まず、追跡機能のメインフローについて図6及び図7を用いて説明する。監視員がセンタ装置4の操作部45を操作し、追跡機能の処理を開始する指示がなされて追跡機能がONすることにより本フローチャートが開始される(ST1)。なお、この追跡機能は監視員が操作部45にて追跡機能をOFFする終了操作を行うことで処理を終了する。ST1の次に、対象特徴抽出部43aは対象特徴抽出処理を実行する(ST2)。   First, the main flow of the tracking function will be described with reference to FIGS. This flowchart is started when the monitoring person operates the operation unit 45 of the center apparatus 4 to give an instruction to start processing of the tracking function and the tracking function is turned on (ST1). The tracking function ends when the monitoring person performs an end operation to turn off the tracking function at the operation unit 45. Following ST1, the target feature extraction unit 43a executes target feature extraction processing (ST2).

対象特徴抽出処理では、追跡対象を特定するための特徴を追跡対象特徴として抽出する。対象特徴抽出処理が終了すると、監視カメラ追跡部43bは、監視領域における複数の全ての監視カメラ2から送信される画像データの画像に対し、監視カメラ追跡処理(ST3〜ST11)を実行する。   In the target feature extraction process, a feature for specifying a tracking target is extracted as a tracking target feature. When the target feature extraction process is completed, the monitoring camera tracking unit 43b performs the monitoring camera tracking process (ST3 to ST11) on the images of the image data transmitted from all of the plurality of monitoring cameras 2 in the monitoring area.

監視カメラ追跡処理では、連携処理部43iから追跡対象検出閾値を緩く設定する制御信号の入力を受けたかを判別する(ST3)。制御信号の入力を判定すると、追跡対象検出閾値を緩く設定する(ST4)。この制御信号の入力判別が終了すると、対象検出処理に移行する(ST5)。なお、監視カメラ追跡処理では、追跡対象検出閾値を緩くした場合、追跡機能がOFFされると元の追跡対象検出閾値に戻す処理を行う。   In the monitoring camera tracking process, it is determined whether or not an input of a control signal for loosely setting the tracking target detection threshold is received from the cooperation processing unit 43i (ST3). When the input of the control signal is determined, the tracking target detection threshold is set loosely (ST4). When this control signal input determination is completed, the routine proceeds to target detection processing (ST5). In the monitoring camera tracking process, when the tracking target detection threshold is relaxed, a process for returning to the original tracking target detection threshold is performed when the tracking function is turned off.

対象検出処理では、複数の監視カメラ2から送信される画像データの画像に対し、ST2において抽出した複数種類の追跡対象特徴を用いて追跡対象を検出する。   In the target detection process, a tracking target is detected by using a plurality of types of tracking target features extracted in ST2 for images of image data transmitted from a plurality of monitoring cameras 2.

対象検出処理が終了すると、追跡対象を検出したか否かを判別する(ST6)。追跡対象を検出したと判定すると、追跡フラグをONし(ST7)、表示制御部43jはそのときの監視カメラ2の画像をセンタ装置4の表示部46に表示する(ST8)。そして、対象検出処理によって検出した追跡対象を追跡する対象追跡処理を実行する(ST9)。   When the target detection process ends, it is determined whether or not a tracking target is detected (ST6). If it is determined that the tracking target is detected, the tracking flag is turned ON (ST7), and the display control unit 43j displays the image of the monitoring camera 2 at that time on the display unit 46 of the center device 4 (ST8). Then, a target tracking process for tracking the tracking target detected by the target detection process is executed (ST9).

対象追跡処理では、所定のフレーム周期で所定時間おきに送信される監視カメラ2からフレーム間差分により変化領域を抽出し、ST5の対象検出処理で検出した追跡対象に相当する変化領域の位置、大きさ、形状を加味して同一の移動物体による変化領域をフレーム間にわたり対応付けてゆくことで追跡対象を追跡する。   In the target tracking process, the change area is extracted by the inter-frame difference from the monitoring camera 2 transmitted every predetermined time in a predetermined frame period, and the position and size of the change area corresponding to the tracking target detected in the target detection process of ST5. Now, the tracking target is tracked by associating the change areas of the same moving object across the frames in consideration of the shape.

上述した監視カメラ追跡処理(ST3〜ST11)により、監視カメラ2ごとに、順次取得する画像データについて追跡対象の追跡処理が行われ、この追跡処理の結果に応じて追跡フラグがON又はOFFに制御されることによって、各監視カメラ2において追跡対象を追跡中であるのか否かを監視している。   By the monitoring camera tracking processing (ST3 to ST11) described above, the tracking processing is performed for the image data sequentially acquired for each monitoring camera 2, and the tracking flag is controlled to be ON or OFF according to the result of the tracking processing. As a result, each monitoring camera 2 monitors whether or not the tracking target is being tracked.

一方、対象特徴抽出処理が終了した場合、上述した監視カメラ追跡処理に並行した処理が開始される。まず、逸脱判定部43cは、複数の監視カメラ2の全ての追跡フラグがOFFか否かを判別する逸脱判定処理を実行する(ST12)。具体的には、全ての追跡フラグがOFFであると判定することで、全ての監視カメラ2において追跡対象を追跡していない状態になったか否かを判定する。逸脱判定処理において全ての追跡フラグがOFFであると判定すると、経過時間の計測を開始し(ST13)、監視カメラ追跡不能判定処理(ST14〜ST17)に移行する。   On the other hand, when the target feature extraction processing ends, processing parallel to the monitoring camera tracking processing described above is started. First, the departure determination unit 43c executes departure determination processing for determining whether all the tracking flags of the plurality of monitoring cameras 2 are OFF (ST12). Specifically, by determining that all tracking flags are OFF, it is determined whether or not all the monitoring cameras 2 are not tracking the tracking target. If it is determined in the departure determination process that all tracking flags are OFF, the measurement of elapsed time is started (ST13), and the process proceeds to the monitoring camera tracking disable determination process (ST14 to ST17).

監視カメラ追跡不能判定処理では、まず、監視カメラ追跡処理(ST3〜ST11)による追跡が不能か否かを判定するための許容時間を設定する許容時間設定処理を許容時間設定部43dが実行する(ST14)。   In the monitoring camera tracking impossibility determination process, first, the allowable time setting unit 43d executes an allowable time setting process for setting an allowable time for determining whether or not tracking by the monitoring camera tracking process (ST3 to ST11) is impossible ( ST14).

許容時間が設定されると、追跡不能判定部43eが、この許容時間とST13にて計時開始している経過時間とを比較して監視カメラ追跡処理による追跡は不能であるか否かを判定する追跡不能判定処理を実行する(ST15)。   When the permissible time is set, the tracking impossibility determination unit 43e compares the permissible time with the elapsed time started in ST13 to determine whether or not tracking by the monitoring camera tracking process is impossible. Untraceable determination processing is executed (ST15).

追跡不能判定処理が終了すると、追跡不能判定処理において監視カメラ2での追跡対象の追跡が不能と判定したか否かを判別する(ST16)。監視カメラ2での追跡対象の追跡が不能と判定していないと判別すると、監視カメラ2の追跡フラグがONか否かを判別する(ST17)。そして、追跡フラグがONであると判定すると、経過時間をクリアし(ST18)、ST12の全ての追跡フラグがOFFか否かの判別に戻る。この状態では、複数の監視カメラ2の何れかが追跡対象の再追跡を行っていることになる。また、追跡フラグがONでないと判定すると、ST15の追跡不能判定処理に戻る。これに対し、ST16にて監視カメラ2での追跡対象の追跡が不能であると判定すると、図7の予測エリア推定処理に移行する(ST19)。   When the tracking impossibility determination process ends, it is determined whether or not it is determined in the tracking impossibility determination process that tracking of the tracking target by the monitoring camera 2 is impossible (ST16). If it is determined that it is not determined that tracking of the tracking target by the monitoring camera 2 is impossible, it is determined whether or not the tracking flag of the monitoring camera 2 is ON (ST17). If it is determined that the tracking flag is ON, the elapsed time is cleared (ST18), and the process returns to the determination of whether all the tracking flags in ST12 are OFF. In this state, any one of the plurality of monitoring cameras 2 is retracking the tracking target. If it is determined that the tracking flag is not ON, the process returns to the tracking inability determination process in ST15. On the other hand, if it is determined in ST16 that the monitoring target cannot be tracked by the monitoring camera 2, the process proceeds to the prediction area estimation process of FIG. 7 (ST19).

このように、監視カメラ追跡不能判定処理(ST14〜ST17)は、全ての監視カメラ2によって追跡対象を追跡していない状態になってから(ST12−Yes)、追跡対象を再追跡するまで(ST17−Yes)、処理が繰り返されて、監視カメラ2による追跡対象の追跡が不能か否かを判断する。   As described above, the monitoring camera tracking impossibility determination process (ST14 to ST17) is performed until all the tracking cameras 2 are not tracking the tracking target (ST12-Yes) until the tracking target is retracked (ST17). -Yes), the process is repeated, and it is determined whether or not the monitoring camera 2 cannot track the tracking target.

予測エリア推定処理では、予測エリア推定部43fが予測エリアを推定する。予測エリア推定処理が終了すると、表示制御部43jは、推定した予測エリアをセンタ装置4の表示部46に表示する(ST20)。推定した予測エリアの表示が終了すると、飛行装置対処処理(ST21〜ST26)に移行する。   In the prediction area estimation process, the prediction area estimation unit 43f estimates the prediction area. When the prediction area estimation process ends, the display control unit 43j displays the estimated prediction area on the display unit 46 of the center device 4 (ST20). When the display of the estimated prediction area is completed, the process proceeds to the flying device handling process (ST21 to ST26).

飛行装置対処処理では、まず、飛行装置制御部43gが、ST19にて推定した予測エリアを飛行装置3にて撮影できる目標位置に飛行装置3を移動させる制御としての飛行装置制御処理を実行する(ST21)。   In the flying device handling process, first, the flying device control unit 43g executes a flying device control process as a control for moving the flying device 3 to a target position where the flying device 3 can photograph the predicted area estimated in ST19 ( ST21).

そして、飛行装置対処処理において飛行装置3が目標位置に到着したか否かを判別する(ST22)。飛行装置3が目標位置に到着していないと判定すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行する。さらに、飛行装置3が目標位置に到着したと判定すると、対象候補検出処理に移行する。   Then, it is determined whether or not the flying device 3 has arrived at the target position in the flying device handling process (ST22). If it is determined that the flying device 3 has not arrived at the target position, it is determined whether or not the tracking flag of the surveillance camera 2 is ON (ST23). If it is determined that the tracking flag of the monitoring camera 2 is ON, since at least one monitoring camera 2 of the plurality of monitoring cameras 2 is tracking the tracking target, it is determined whether all the tracking flags of ST12 are OFF. Return. If it is determined that the tracking flag of the surveillance camera 2 is not ON, the process returns to the prediction area estimation process of ST19, and the prediction area estimation process by the prediction area estimation unit 43f is continuously executed. Furthermore, if it determines with the flying device 3 having arrived at the target position, it will transfer to object candidate detection processing.

対象候補検出処理では、対象候補検出部43hが、飛行装置3にて撮影される画像に対し、限定された複数種類の特徴情報を判定基準として追跡対象の候補を検出する。   In the target candidate detection process, the target candidate detection unit 43h detects a tracking target candidate with respect to an image photographed by the flying device 3, using a plurality of types of limited feature information as determination criteria.

次に、上述した対象候補検出処理により追跡対象の候補を検出したか否かを判別する(ST25)。追跡対象の候補を検出したと判定すると、この検出した候補について複数の監視カメラ2や監視カメラ追跡部43bと連携させるための連携処理に移行する(ST26)。追跡対象の候補を検出していないと判定すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別処理に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行し、この推定処理の結果に応じて再び飛行装置対処処理を実行する。   Next, it is determined whether or not a tracking target candidate has been detected by the target candidate detection process described above (ST25). If it is determined that a tracking target candidate has been detected, the process proceeds to linkage processing for linking the detected candidate with a plurality of monitoring cameras 2 and the monitoring camera tracking unit 43b (ST26). If it is determined that the tracking target candidate is not detected, it is determined whether or not the tracking flag of the monitoring camera 2 is ON (ST23). If it is determined that the tracking flag of the monitoring camera 2 is ON, since at least one monitoring camera 2 of the plurality of monitoring cameras 2 is tracking the tracking target, it is determined whether all the tracking flags of ST12 are OFF. Return to. If it is determined that the tracking flag of the monitoring camera 2 is not ON, the process returns to the prediction area estimation process of ST19, and the prediction area estimation process by the prediction area estimation unit 43f is continuously executed, depending on the result of this estimation process. The flight device handling process is executed again.

連携処理では、連携処理部43iが、監視カメラ2や監視カメラ追跡部43bに連携のための制御信号を出力する(ST26)。   In the cooperation process, the cooperation processing unit 43i outputs a control signal for cooperation to the monitoring camera 2 and the monitoring camera tracking unit 43b (ST26).

連携処理が終了すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。そして、監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行し、この推定処理の結果に応じて再び飛行装置対処処理を実行する。   When the cooperation process ends, it is determined whether or not the tracking flag of the monitoring camera 2 is ON (ST23). When it is determined that the tracking flag of the monitoring camera 2 is ON, since at least one monitoring camera 2 of the plurality of monitoring cameras 2 is tracking the tracking target, whether all the tracking flags of ST12 are OFF or not. Return to discrimination. If it is determined that the tracking flag of the monitoring camera 2 is not ON, the process returns to the prediction area estimation process of ST19, and the prediction area estimation process by the prediction area estimation unit 43f is continuously executed, depending on the result of this estimation process. The flight device handling process is executed again.

上述した予測エリア推定処理及び飛行装置対処処理は、全ての監視カメラ2による追跡が不能と判定してから(ST16−Yes)、監視カメラ2にて追跡対象を再追跡するまで(ST23−Yes)、処理が繰り返されて、飛行装置3による対処が継続されることになる。   The above-described prediction area estimation process and flying device handling process are performed until it is determined that tracking by all the monitoring cameras 2 is impossible (ST16-Yes) and until the tracking target is re-tracked by the monitoring camera 2 (ST23-Yes). The processing is repeated and the handling by the flying device 3 is continued.

尚、上述した追跡機能においてST20において予測エリアを表示した後、その次のST21の飛行装置制御処理に移行する処理は、飛行装置対処処理を実行するか否かを表示部46に表示し、監視員が操作部45にて許可操作がなされたときにST21に移行するようにしてもよい。   In the tracking function described above, after the predicted area is displayed in ST20, the next process of shifting to the flight device control process of ST21 displays on the display unit 46 whether or not to execute the flight device handling process. When an operator performs a permission operation on the operation unit 45, the process may proceed to ST21.

次に、図6及び図7のメインフローで詳細に説明しなかった処理フローについて説明する。   Next, a processing flow not described in detail in the main flow of FIGS. 6 and 7 will be described.

まず、図8を参照して、図6のST14で許容時間設定部43dが実行する許容時間設定処理について説明する。許容時間設定部43dは、最後に追跡対象を検出した監視カメラ2の周辺、つまり抽出した監視カメラ2の位置から所定範囲内の監視カメラ2を抽出する(ST31)。続いて、抽出した監視カメラ2毎に予想移動時間を算出する(ST32)。次に、抽出した全ての監視カメラ2の予想移動時間を算出したか否かを判別する(ST33)。抽出した全ての監視カメラの予想移動時間を算出したと判定すると、算出した予想移動時間の中から最長の予想移動時間を選択する(ST34)。そして、選択した最長の予想移動時間に余裕を持たせるための猶予時間を加えた許容時間を設定し(ST35)、処理を終了する。尚、許容時間に余裕を持たせない場合は、選択した最長の予想移動時間そのものが許容時間となる。   First, the allowable time setting process executed by the allowable time setting unit 43d in ST14 of FIG. 6 will be described with reference to FIG. The allowable time setting unit 43d extracts the monitoring camera 2 within a predetermined range from the periphery of the monitoring camera 2 that finally detected the tracking target, that is, the extracted position of the monitoring camera 2 (ST31). Subsequently, an expected movement time is calculated for each extracted surveillance camera 2 (ST32). Next, it is determined whether or not the estimated travel times of all extracted surveillance cameras 2 have been calculated (ST33). If it is determined that the predicted travel times of all the extracted surveillance cameras have been calculated, the longest predicted travel time is selected from the calculated predicted travel times (ST34). Then, an allowable time is set by adding a grace time for giving a margin to the selected longest expected travel time (ST35), and the process is terminated. In the case where there is no allowance for the allowable time, the selected longest expected movement time itself is the allowable time.

図9を参照して、図6のST15で追跡不能判定部43eが実行する追跡不能判定処理について説明する。追跡不能判定部43eは、経過時間が許容時間以上であるか否かを判別する(ST41)。経過時間が許容時間以上であると判定すると、監視カメラ2での追跡対象の追跡が不可能であり、追跡不能と判定し(ST42)、処理を終了する。経過時間が許容時間以上ではないと判定すると、追跡不能とは判定せずに処理を終了する。   With reference to FIG. 9, the untraceability determination process executed by untrackability determination unit 43e in ST15 of FIG. 6 will be described. The untraceable determination unit 43e determines whether or not the elapsed time is equal to or longer than the allowable time (ST41). If it is determined that the elapsed time is equal to or longer than the allowable time, it is determined that the tracking target cannot be tracked by the monitoring camera 2 and tracking is impossible (ST42), and the process ends. If it is determined that the elapsed time is not longer than the allowable time, the process ends without determining that the tracking is impossible.

図10を参照して、図7のST19で予測エリア推定部43fが実行する予測エリア推定処理について説明する。予測エリア推定処理では、最後に追跡対象を検出した監視カメラ2の検出位置を基準として、追跡対象が最大移動できる移動範囲を算出する(ST51)。次に、算出した移動範囲内の監視カメラ2を抽出する(ST52)。そして、抽出した各監視カメラ2の撮影範囲を記憶部44に記憶された監視カメラ情報から読み出す(ST53)。続いて、追跡対象の移動範囲と各監視カメラ2の撮影範囲などから追跡対象が移動不可能な移動不能領域を特定する(ST54)。そして、この特定した移動不能領域と追跡対象の移動範囲とを重ね合わせて重複しない領域を予測エリアとして推定し(ST55)、処理を終了する。   With reference to FIG. 10, the prediction area estimation process which the prediction area estimation part 43f performs by ST19 of FIG. 7 is demonstrated. In the prediction area estimation process, a moving range in which the tracking target can move to the maximum is calculated based on the detection position of the monitoring camera 2 that finally detected the tracking target (ST51). Next, the surveillance camera 2 within the calculated movement range is extracted (ST52). And the imaging | photography range of each surveillance camera 2 extracted is read from the surveillance camera information memorize | stored in the memory | storage part 44 (ST53). Subsequently, an immovable region where the tracking target cannot move is specified from the moving range of the tracking target and the imaging range of each monitoring camera 2 (ST54). Then, the identified non-movable area and the movement range to be tracked are overlapped to estimate a non-overlapping area as a prediction area (ST55), and the process ends.

図11を参照して、図7のST21で飛行装置制御部43gが実行する飛行装置制御処理について説明する。飛行装置制御部43gは、飛行装置3を移動させる目標位置を決定する(ST61)。次に、飛行装置3を目標位置まで移動制御するため、センタ装置4から飛行指示による制御信号を飛行装置3に送信する(ST62)。そして、センタ装置4は、制御信号の飛行指示に従って移動制御される飛行装置3から位置情報を取得し(ST63)、飛行装置3が目標位置に到着したか否かを判別する(ST64)。飛行装置3が目標位置に到着すれば、飛行装置3が目標位置に到着と判定し(ST65)、処理を終了する。なお、ST64の飛行装置着の判定は、ST62にて移動指示を行ってから所定時間(例えば3分)後に実行される。   With reference to FIG. 11, the flying device control process executed by the flying device control unit 43g in ST21 of FIG. 7 will be described. The flying device control unit 43g determines a target position for moving the flying device 3 (ST61). Next, in order to control the movement of the flying device 3 to the target position, a control signal based on a flight instruction is transmitted from the center device 4 to the flying device 3 (ST62). Then, the center device 4 acquires position information from the flying device 3 that is movement-controlled according to the flight instruction of the control signal (ST63), and determines whether or not the flying device 3 has arrived at the target position (ST64). If the flying device 3 arrives at the target position, it is determined that the flying device 3 has arrived at the target position (ST65), and the process ends. Note that the determination of arrival at ST64 of the flying device is executed after a predetermined time (for example, 3 minutes) from the movement instruction at ST62.

図12を参照して、図7のST24で対象候補検出部43hが実行する対象候補検出処理について説明する。対象候補検出部43hは、飛行装置3からの画像データを取得し(ST71)、取得した画像から特徴検索を行うことで限定された複数種類の特徴情報を判定基準として用いて追跡対象の候補を検出する(ST72)。そして、この特徴検索において追跡対象の候補を検出したか否かを判定する(ST73)。候補を検出した場合には、対象候補検出と判定し(ST74)、候補を検出していない場合にはST74の判定をせずに処理を終了する。   With reference to FIG. 12, the target candidate detection process which the target candidate detection part 43h performs by ST24 of FIG. 7 is demonstrated. The target candidate detection unit 43h acquires image data from the flying device 3 (ST71), and uses a plurality of types of feature information limited by performing a feature search from the acquired image as a criterion for tracking target candidates. It is detected (ST72). Then, it is determined whether or not a tracking target candidate is detected in this feature search (ST73). If a candidate is detected, it is determined that the target candidate is detected (ST74). If no candidate is detected, the process ends without determining ST74.

図13を参照して、図7のST26で連携処理部43iが実行する連携処理について説明する。連携処理部43iは、飛行装置3から取得した画像データの画像内にある監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から特定する(ST81)。そして、特定した監視カメラ2の撮影可能範囲を、記憶部44に記憶された監視カメラ情報から読み出す(ST82)。次に、追跡対象の候補の位置(対象候補位置)が特定した監視カメラ2の撮影可能範囲内にあるか否かを判別する(ST83)。対象候補位置が特定した監視カメラ2の撮影可能範囲内にあると判定すると、その監視カメラ2を制御対象の監視カメラ2として特定する(ST84)。そして、全ての特定した監視カメラ2を処理したか否かを判別する(ST85)。全ての特定した監視カメラ2を処理したと判定すると、追跡対象の全ての候補について処理したか否かを判別する(ST86)。追跡対象の全ての候補について処理したと判定すると、制御対象(監視カメラ2や監視カメラ追跡部43b)に制御信号を出力し(ST87)、処理を終了する。   With reference to FIG. 13, the cooperation process which the cooperation process part 43i performs by ST26 of FIG. 7 is demonstrated. The cooperation processing unit 43i specifies the monitoring camera 2 in the image of the image data acquired from the flying device 3 from the position information of the monitoring camera information stored in the storage unit 44 (ST81). And the imaging | photography possible range of the specified monitoring camera 2 is read from the monitoring camera information memorize | stored in the memory | storage part 44 (ST82). Next, it is determined whether or not the position of the tracking target candidate (target candidate position) is within the image capturing possible range of the specified monitoring camera 2 (ST83). If it is determined that the target candidate position is within the shootable range of the specified monitoring camera 2, the monitoring camera 2 is specified as the monitoring camera 2 to be controlled (ST84). Then, it is determined whether or not all specified surveillance cameras 2 have been processed (ST85). If it is determined that all specified surveillance cameras 2 have been processed, it is determined whether or not all candidates for tracking have been processed (ST86). When it is determined that all the tracking target candidates have been processed, a control signal is output to the control target (the monitoring camera 2 and the monitoring camera tracking unit 43b) (ST87), and the process is terminated.

尚、全ての特定した監視カメラ2を処理していないと判定したときや、追跡対象の全ての候補について処理していないと判定したときは、ST83の対象候補位置が撮影可能範囲内にあるか否かの判別に戻る。   If it is determined that all the specified surveillance cameras 2 have not been processed, or if it has been determined that all the tracking target candidates have not been processed, is the target candidate position in ST83 within the shootable range? Return to the determination of NO.

ところで、上述した追跡機能における飛行装置対処処理は、飛行装置3が移動型飛行装置であるものとして説明したが、飛行装置3が係留型飛行装置である場合には、図11の飛行装置制御処理に変わり、以下の処理が実行される。追跡不能判定部43eが追跡不能判定信号を出力すると、飛行装置制御部43gが推定した予測エリアを撮影可能な係留型飛行装置を選択する。そして、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置に制御信号を出力する。これにより、係留型飛行装置は、予測エリアを含んで撮影できるように、センタ装置4から受信した制御信号により、飛行制御部36aが推進部32や方向舵33を制御するとともに、カメラ制御部36bがカメラ部31の焦点距離や水平方向及び垂直方向の角度を制御する。そして、この制御信号により係留型飛行装置の制御がなされると、ST24の対象候補検出処理に移行する。   By the way, although the flying device handling process in the tracking function described above has been described on the assumption that the flying device 3 is a mobile flying device, when the flying device 3 is a moored flying device, the flying device control process of FIG. Instead, the following processing is executed. When the untrackable determination unit 43e outputs the untrackable determination signal, a moored flying device capable of photographing the prediction area estimated by the flying device control unit 43g is selected. Then, a control signal is output to the moored flight device so that the selected moored flight device images the predicted area. Accordingly, the flight control unit 36a controls the propulsion unit 32 and the rudder 33 according to the control signal received from the center device 4 so that the moored flight device can capture images including the prediction area, and the camera control unit 36b The focal length of the camera unit 31 and the horizontal and vertical angles are controlled. When the moored flight device is controlled by this control signal, the process proceeds to the target candidate detection process of ST24.

また、複数の係留型飛行装置の中に予測エリアを撮影可能な係留型飛行装置が無い場合は、ST23の追跡フラグがONか否かの判別に移行する。そして、追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行する。そして、推定した予測エリアを撮影可能な係留型飛行装置が見つかると、その係留型飛行装置を選択し、予測エリアを撮影できるように係留型飛行装置に制御信号を出力し、この制御信号により係留型飛行装置の推進部32や方向舵33、カメラ部31の焦点距離や水平方向及び垂直方向の角度を制御する。   If there is no mooring-type flying device capable of photographing the prediction area among the plurality of mooring-type flying devices, the process proceeds to determination of whether the tracking flag in ST23 is ON. If it is determined that the tracking flag is ON, at least one monitoring camera 2 of the plurality of monitoring cameras 2 is tracking the tracking target, and the process returns to the determination of whether all the tracking flags in ST12 are OFF. If it determines with a tracking flag not being ON, it will return to the prediction area estimation process of ST19, and the prediction area estimation process by the prediction area estimation part 43f will be performed continuously. When a moored flying device capable of photographing the estimated predicted area is found, the moored flying device is selected, and a control signal is output to the moored flying device so that the predicted area can be photographed. The focal length and horizontal and vertical angles of the propulsion unit 32, the rudder 33, and the camera unit 31 are controlled.

また、上述した追跡機能における許容時間設定処理の別態様として、次のようにすることもできる。図8を用いて説明すると、ST32の処理に替えて、最後に追跡対象を検出した監視カメラ2からST31にて抽出した他の監視カメラ2まで追跡対象が移動するのに要する予想移動距離をそれぞれ算出する。そして、ST34の処理に替えて、算出した予想移動距離のうち最長の予想移動距離を選択する。そして、ST35の処理に替えて、選択した予想移動距離から予想移動時間を算出し、この予想移動時間に猶予時間を加えた許容時間を設定する。なお、この予想移動時間の算出と猶予時間の加算は許容時間設定部43dの説明において説明した方法と同様にして行うことができる。   Further, as another aspect of the allowable time setting process in the tracking function described above, the following may be performed. If it demonstrates using FIG. 8, it replaces with the process of ST32, and the estimated moving distance required for a tracking object to move from the monitoring camera 2 which finally detected the tracking object to the other monitoring camera 2 extracted in ST31 is respectively shown. calculate. Then, instead of the process of ST34, the longest predicted movement distance is selected from the calculated predicted movement distances. Then, instead of the process of ST35, an expected travel time is calculated from the selected predicted travel distance, and an allowable time obtained by adding a grace time to the predicted travel time is set. The calculation of the estimated travel time and the addition of the grace time can be performed in the same manner as the method described in the description of the allowable time setting unit 43d.

以上説明したように、上述した実施の形態による監視システム1によれば、以下に示すような効果を奏する。   As described above, the monitoring system 1 according to the above-described embodiment has the following effects.

センタ装置4は、複数の監視カメラ2に関する位置情報と撮影可能範囲とを記憶部44に記憶させておき、監視カメラ2ごとに撮影される画像から所定の追跡対象(例えば人物、車両など)を監視カメラ追跡部43bが検出して追跡する。すなわち、通常は、所定の撮影範囲で地上から撮影した複数の監視カメラ2からの画像データに基づいて追跡対象を検出して追跡を行っている。そして、逸脱判定部43cは、全ての監視カメラ2において追跡対象が撮影可能範囲から逸脱したか否かを判定する。許容時間設定部43dは、逸脱判定部43cが撮影可能範囲からの逸脱を判定すると、逸脱を判定した監視カメラ2の周辺に設置されている他の監視カメラ2を位置情報から抽出し、逸脱を判定した監視カメラ2から他の監視カメラ2まで追跡対象が移動するのに要する予想移動時間をそれぞれ算出し、この算出した予想移動時間のうち最長の予想移動時間から許容時間を設定する。追跡不能判定部43eは、撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間を経過しても、複数の監視カメラ2のいずれにおいても追跡対象を検出していないときに追跡不能と判定して、その旨を出力する。   The center device 4 stores the position information and the shootable range regarding the plurality of monitoring cameras 2 in the storage unit 44, and selects a predetermined tracking target (for example, a person, a vehicle, etc.) from an image captured for each monitoring camera 2. The surveillance camera tracking unit 43b detects and tracks. That is, normally, tracking is performed by detecting a tracking target based on image data from a plurality of surveillance cameras 2 photographed from the ground within a predetermined photographing range. Then, the departure determination unit 43c determines whether or not the tracking target has deviated from the shootable range in all the monitoring cameras 2. When the deviation determination unit 43c determines a deviation from the shootable range, the allowable time setting unit 43d extracts, from the position information, other monitoring cameras 2 installed around the monitoring camera 2 that has determined the deviation. An estimated travel time required for the tracking target to move from the determined monitoring camera 2 to another monitoring camera 2 is calculated, and an allowable time is set from the longest predicted travel time among the calculated predicted travel times. The untrackable determination unit 43e is untrackable when no tracking target is detected in any of the plurality of monitoring cameras 2 even if the elapsed time from the time when the deviation from the shootable range is determined exceeds the allowable time. And output that fact.

すなわち、全ての監視カメラ2にて追跡対象を検出できなくなると、この監視カメラ2から所定範囲内(例えば100m以内)の他の監視カメラ2を抽出し、抽出した監視カメラ2にて追跡対象を検出できるようになるまでに要する追跡対象の予想移動時間をそれぞれ算出し、算出した予想移動時間の中で最長の予想移動時間を含む許容時間を超えても何れの監視カメラ2でも追跡対象を検出できないときに、その旨を出力している。かかる構成により、監視員は、複数の監視カメラ2の画像を常時確認しなくても、監視カメラ2だけで追跡対象を再度発見することが困難となった状況を適切なタイミングで把握することができる。そして、全ての監視カメラ2で追跡対象の追跡が困難になったときの出力を、例えば表示出力や音声出力の報知信号として利用すれば、その旨を監視員に知らせることができる。   That is, when the tracking target cannot be detected by all the monitoring cameras 2, another monitoring camera 2 within a predetermined range (for example, within 100 m) is extracted from the monitoring camera 2, and the tracking target is extracted by the extracted monitoring camera 2. Calculate the estimated travel time of the tracking target required until it can be detected, and detect the tracking target with any surveillance camera 2 even if the calculated expected travel time exceeds the allowable time including the longest expected travel time When it is not possible, a message to that effect is output. With this configuration, the monitoring person can grasp the situation where it is difficult to find the tracking target again only with the monitoring camera 2 at an appropriate timing without constantly checking the images of the plurality of monitoring cameras 2. it can. Then, if the output when the tracking target becomes difficult to be tracked by all the monitoring cameras 2 is used as, for example, a notification signal for display output or audio output, it is possible to notify the monitoring person.

センタ装置4の予測エリア推定部42eは、追跡不能判定部43eから追跡対象を追跡不能と判定した旨の出力がなされたときに、最後に追跡対象(例えば不審者や不審車両など)を検出した監視カメラ2の位置から、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定する。そして、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して推定した追跡対象が存在する予測エリアを表示部46に表示する。かかる構成により、余計な情報を省いて追跡対象が存在し得る予測エリアを表示させ、監視員に知らせることができる。   The prediction area estimation unit 42e of the center device 4 finally detects the tracking target (for example, a suspicious person or a suspicious vehicle) when the tracking target determination unit 43e outputs that the tracking target is determined to be untrackable. The prediction area where the tracking target exists is estimated from the position of the monitoring camera 2 by excluding the imaging range of the monitoring camera 2 that did not detect the tracking target. Then, the prediction area where the tracking target estimated by excluding the imaging range of the monitoring camera 2 that did not detect the tracking target is present is displayed on the display unit 46. With such a configuration, it is possible to display a prediction area where a tracking target may exist without extra information and notify the monitoring staff.

センタ装置4の飛行装置制御部43gは、予測エリア推定部42eが推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部31aを有する飛行装置3を制御する。かかる構成により、複数の監視カメラ2で追跡対象の追跡ができなくなったときに、最後に追跡対象を検出した監視カメラ2の位置から予測エリアを推定し、この予測エリアに向けて飛行装置3を制御し、追跡対象が存在する可能性の高い予測エリアを飛行装置3の撮像部31aが上空から撮影することができる。   The flying device control unit 43g of the center device 4 controls the flying device 3 having the imaging unit 31a that captures an image from the sky so that it can be captured including the prediction area estimated by the prediction area estimation unit 42e. With such a configuration, when the tracking target cannot be tracked by a plurality of monitoring cameras 2, a prediction area is estimated from the position of the monitoring camera 2 that finally detected the tracking target, and the flying device 3 is directed toward the prediction area. The imaging area 31a of the flying device 3 can take an image of the predicted area where the tracking target is highly likely to be controlled from above.

飛行装置3が移動型飛行装置の場合、センタ装置4の飛行装置制御部43gは、追跡不能判定部43eから追跡不能と判定した旨の出力がなされたときに、移動型飛行装置を予測エリアへ移動制御する。かかる構成により、全ての監視カメラ2で追跡対象の追跡が困難になったときに、移動型飛行装置を速やかに予測エリアに向けて移動制御することができる。   When the flying device 3 is a mobile flying device, the flying device control unit 43g of the center device 4 outputs the mobile flying device to the prediction area when an output indicating that the untrackable determination unit 43e determines that the tracking is impossible is made. Move control. With this configuration, when the tracking target becomes difficult to be tracked by all the monitoring cameras 2, the mobile flight device can be quickly controlled to move toward the prediction area.

センタ装置4の予測エリア推定部43fは、予測エリアの推定を繰り返し実行する。そして、飛行装置制御部43gは、予測エリア推定部43fが実行する予測エリアの推定の結果に応じて移動型飛行装置を移動制御する目標位置を再設定し、再設定された目標位置に向けて移動型飛行装置を制御する。かかる構成により、繰り返し実行される予測エリアの推定の結果に応じて再設定された目標位置に移動型飛行装置を制御するので、移動型飛行装置を目標位置に向けて確実に制御することができる。   The prediction area estimation unit 43f of the center device 4 repeatedly performs prediction area estimation. Then, the flying device control unit 43g resets the target position for controlling the movement of the mobile flying device according to the prediction area estimation result executed by the prediction area estimating unit 43f, toward the reset target position. Control mobile flight equipment. With this configuration, the mobile flying device is controlled to the target position that is reset according to the result of estimation of the prediction area that is repeatedly executed, so that the mobile flying device can be reliably controlled toward the target position. .

飛行装置3が複数の係留型飛行装置の場合、センタ装置4の飛行装置制御部43gは、追跡不能判定部43eから追跡不能と判定した旨の出力がなされたときに、予測エリアを撮影可能な係留型飛行装置を選択して撮影制御している。かかる構成により、予測エリアを撮影可能な係留型飛行装置を選択して確実に撮影を行うことができる。   When the flying device 3 is a plurality of moored type flying devices, the flying device control unit 43g of the center device 4 can photograph the prediction area when the tracking failure determination unit 43e outputs that it is determined that tracking is impossible. The mooring-type flying device is selected to control shooting. With such a configuration, it is possible to select the mooring type flying device capable of shooting the predicted area and perform shooting reliably.

飛行装置3として、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無いときは、予測エリア推定部43fによる予測エリアの推定を継続し、予測エリアを撮影可能な係留型飛行装置が見つかったときに、その係留型飛行装置を選択する。かかる構成により、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無ければ予測エリアの推定を継続して行うので、追跡対象が存在し得る予測エリアを推定し、この予測エリアを撮影可能な係留型飛行装置が見つかった時点で、係留型飛行装置が上空から予測エリアの撮影を行うことができる。   When there is no flying device 3 that can shoot a prediction area among a plurality of moored flight devices, the prediction area estimation unit 43f continues to estimate the prediction area and can shoot the prediction area. When found, select the moored flying device. With this configuration, if there is no one that can capture the prediction area among the plurality of moored flight devices, the estimation of the prediction area is continued, so the prediction area where the tracking target can exist is estimated, and this prediction area is When a mooring-type flying device that can be photographed is found, the mooring-type flying device can photograph the predicted area from the sky.

センタ装置4の対象候補検出部43hは、監視カメラ追跡部43bによる追跡対象の追跡が不能と判定すると、飛行装置3にて撮影された画像から追跡対象の候補を検出している。そして、連携処理部43iは、対象候補検出部43hにて検出した追跡対象の候補が撮影可能範囲に進入したと判定すると、監視カメラ2又は監視カメラ追跡部43bに制御信号を出力している。例えば監視カメラ2がパンチルトズームカメラで構成される場合には、追跡対象の候補が撮影可能となるように監視カメラ2の焦点距離や水平方向及び垂直方向の角度を制御信号によって制御する。かかる構成により、監視カメラ2と飛行装置3とを連携させて継続的に追跡対象を追跡することができる。   When it is determined that the tracking target tracking unit 43b cannot track the tracking target, the target candidate detection unit 43h of the center device 4 detects the tracking target candidate from the image captured by the flying device 3. When the cooperation processing unit 43i determines that the tracking target candidate detected by the target candidate detection unit 43h has entered the shootable range, it outputs a control signal to the monitoring camera 2 or the monitoring camera tracking unit 43b. For example, when the surveillance camera 2 is configured by a pan / tilt / zoom camera, the focal length and the horizontal and vertical angles of the surveillance camera 2 are controlled by the control signal so that the tracking target candidate can be photographed. With this configuration, it is possible to track the tracking target continuously by linking the monitoring camera 2 and the flying device 3 together.

複数の監視カメラ2からの画像を用いて監視領域内を移動する追跡対象を検出する場合には、最も高精度な照合が可能な最重要特徴情報を含んだ複数種類の特徴情報を判定基準として追跡対象を検出している。これに対し、飛行装置3からの画像を用いて予測エリアを含む領域内の追跡対象の候補を検出する場合には、最重要特徴情報を含まない複数種類の特徴情報の一部の特徴情報を判定基準として追跡対象の候補を検出している。かかる構成により、監視カメラ2からの画像では追跡対象を高精度に検出しつつ、飛行装置3からの画像では検出精度の向上に大きく寄与しない特徴情報を使用せず、監視カメラ2からの画像よりも低精度で追跡対象の候補を検出することにより、飛行装置3からの画像を用いた追跡対象の候補の検出に要する処理負荷を軽減することができる。   When detecting a tracking target that moves within a monitoring area using images from a plurality of monitoring cameras 2, a plurality of types of feature information including the most important feature information that can be collated with the highest accuracy is used as a criterion. The tracking target is detected. On the other hand, when detecting a tracking target candidate in a region including a prediction area using an image from the flying device 3, a part of feature information of a plurality of types of feature information not including the most important feature information is obtained. A candidate for tracking is detected as a criterion. With this configuration, the image from the monitoring camera 2 detects the tracking target with high accuracy, while the image from the flying device 3 does not use feature information that does not greatly contribute to the improvement in detection accuracy, and the image from the monitoring camera 2 In addition, by detecting the tracking target candidate with low accuracy, the processing load required to detect the tracking target candidate using the image from the flying device 3 can be reduced.

このように、本実施の形態に係る監視システムによれば、監視カメラ2と飛行装置3とを連携させ、監視領域内を移動する追跡対象(例えば人物、車両など)を効率的に検出して追跡し監視を行うことができる。   As described above, according to the monitoring system according to the present embodiment, the monitoring camera 2 and the flying device 3 are linked to efficiently detect a tracking target (for example, a person, a vehicle, etc.) moving in the monitoring area. Track and monitor.

以上、本発明に係る監視システムの最良の形態について説明したが、この形態による記述及び図面により本発明が限定されることはない。すなわち、この形態に基づいて当業者等によりなされる他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれることは勿論である。   The best mode of the monitoring system according to the present invention has been described above, but the present invention is not limited by the description and drawings according to this mode. That is, it is a matter of course that all other forms, examples, operation techniques, and the like made by those skilled in the art based on this form are included in the scope of the present invention.

1 監視システム
2(2a〜2f) 監視カメラ
3 飛行装置
4 センタ装置(追跡処理装置)
21 カメラ部
21a 撮像部
21b 方向制御部
21c 画像データ生成部
22 制御部
23 通信部
31 カメラ部
31a 撮像部
31b 方向制御部
31c 画像データ生成部
32 推進部
33 方向舵
34 測位部
35 姿勢検出部
36 制御部
36a 飛行制御部
36b カメラ制御部
37 無線通信部
41 通信部
42 無線通信部
43 制御部
43a 対象特徴抽出部
43b 監視カメラ追跡部
43c 逸脱判定部
43d 許容時間設定部
43e 追跡不能判定部
43f 予測エリア推定部
43g 飛行装置制御部
43h 対象候補検出部
43i 連携処理部
43j 表示制御部
44 記憶部
45 操作部
46 表示部
E0 追跡対象の移動範囲
E1〜E6 撮影範囲
E6’制御後の撮影範囲
E7 撮影可能範囲
E10 追跡対象の移動不能領域
E11 予測エリア
m 追跡対象の移動方向
DESCRIPTION OF SYMBOLS 1 Monitoring system 2 (2a-2f) Monitoring camera 3 Flight apparatus 4 Center apparatus (tracking processing apparatus)
DESCRIPTION OF SYMBOLS 21 Camera part 21a Imaging part 21b Direction control part 21c Image data generation part 22 Control part 23 Communication part 31 Camera part 31a Imaging part 31b Direction control part 31c Image data generation part 32 Propulsion part 33 Directional steering 34 Positioning part 35 Attitude detection part 36 Control Unit 36a flight control unit 36b camera control unit 37 wireless communication unit 41 communication unit 42 wireless communication unit 43 control unit 43a target feature extraction unit 43b surveillance camera tracking unit 43c deviation determination unit 43d allowable time setting unit 43e untrackable determination unit 43f prediction area Estimating unit 43g Flight device control unit 43h Target candidate detection unit 43i Cooperation processing unit 43j Display control unit 44 Storage unit 45 Operation unit 46 Display unit E0 Movement range of tracking target E1 to E6 Shooting range E6 'Shooting range after control E7 Shooting possible Range E10 Unmovable area to be tracked E11 Preliminary Measurement area m Direction of movement of tracking target

Claims (7)

複数の監視カメラを備えた監視システムであって、
前記複数の監視カメラに関する位置情報と撮影可能範囲とを記憶する記憶部と、
前記監視カメラごとに撮影される画像から所定の追跡対象を検出して追跡する監視カメラ追跡部と、
当該監視カメラ追跡部の追跡結果に基づいて前記複数の全ての監視カメラにおいて前記追跡対象が前記撮影可能範囲から逸脱したか否かを判定する逸脱判定部と、
前記逸脱を判定すると、最後に前記追跡対象を検出した前記監視カメラ以外の他の監視カメラを前記位置情報から抽出し、最後に前記追跡対象を検出した前記監視カメラから前記他の監視カメラそれぞれまで前記追跡対象が移動するのに要する予想移動時間又は予想移動距離を算出し、当該算出した予想移動時間のうち最長の予想移動時間又は前記算出した予想移動距離のうち最長の予想移動距離から許容時間を設定する許容時間設定部と、
前記逸脱を判定したときからの経過時間が前記許容時間を経過しても、前記複数の監視カメラのいずれにおいても前記追跡対象を検出していないときに当該追跡対象を追跡不能と判定し、この旨を出力する追跡不能判定部と、
を備えたことを特徴とする監視システム。
A surveillance system comprising a plurality of surveillance cameras,
A storage unit that stores position information and a shootable range regarding the plurality of monitoring cameras;
A monitoring camera tracking unit that detects and tracks a predetermined tracking target from an image captured for each monitoring camera;
A deviation determination unit that determines whether or not the tracking target has deviated from the photographing range in all of the plurality of monitoring cameras based on a tracking result of the monitoring camera tracking unit;
When the deviation is determined, other monitoring cameras other than the monitoring camera that finally detected the tracking target are extracted from the position information, and finally from the monitoring camera that detected the tracking target to each of the other monitoring cameras. The expected travel time or the expected travel distance required for the tracking target to move is calculated, and the allowable time from the longest predicted travel time of the calculated predicted travel time or the longest predicted travel distance of the calculated predicted travel distance An allowable time setting section for setting
Even if the elapsed time from the determination of the deviation exceeds the allowable time, when the tracking target is not detected in any of the plurality of monitoring cameras, the tracking target is determined to be untraceable, An untraceable determination unit that outputs the effect,
A monitoring system characterized by comprising:
前記追跡不能と判定した旨の出力がなされると、最後に前記追跡対象を検出した前記監視カメラの位置から前記追跡対象が存在する予測エリアを推定する予測エリア推定部と、
当該推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部を有する飛行装置を制御する飛行装置制御部と、
を備えた請求項1に記載の監視システム。
When an output indicating that the tracking is impossible is made, a prediction area estimation unit that estimates a prediction area where the tracking target exists from the position of the monitoring camera that finally detected the tracking target;
A flying device control unit that controls a flying device having an imaging unit that captures an image from above, so that the estimated prediction area can be captured;
The monitoring system according to claim 1, comprising:
前記追跡不能と判定した旨の出力がなされると、最後に前記追跡対象を検出した前記監視カメラの位置から、前記追跡対象が存在する予測エリアを、前記追跡対象を検出しなかった前記他の監視カメラの前記撮影可能範囲を除外して推定する予測エリア推定部と、
この推定した予測エリアを表示部に表示する表示制御部と、
を備えた請求項1に記載の監視システム。
When an output indicating that the tracking target is impossible is made, a predicted area where the tracking target is present is determined from the position of the monitoring camera that finally detected the tracking target, and the other tracking target is not detected. A prediction area estimation unit that estimates by excluding the imaging range of the surveillance camera;
A display control unit for displaying the estimated prediction area on the display unit;
The monitoring system according to claim 1, comprising:
前記飛行装置が移動型飛行装置であり、
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記移動型飛行装置を、前記予測エリアを含んで撮影できる目標位置へ移動制御する請求項2又は請求項3に記載の監視システム。
The flying device is a mobile flying device;
The said flight apparatus control part will carry out movement control of the said mobile flight apparatus to the target position which can image | photograph including the said prediction area, if the output to the effect of having determined that the said tracking is impossible is made. The monitoring system described.
前記予測エリア推定部は、前記予測エリアの推定を繰り返し実行し、
前記飛行装置制御部は、前記実行の結果に応じて前記目標位置を再設定する請求項4に記載の監視システム。
The prediction area estimation unit repeatedly executes estimation of the prediction area,
The monitoring system according to claim 4, wherein the flying device control unit resets the target position according to a result of the execution.
前記飛行装置が複数の係留型飛行装置であり、
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記予測エリアを含んで撮影可能な係留型飛行装置を選択して撮影制御する請求項2に記載の監視システム。
The flight device is a plurality of moored flight devices;
3. The monitoring system according to claim 2, wherein, when an output indicating that the tracking is impossible is performed, the flying device control unit selects and controls shooting of a moored flying device including the prediction area.
前記複数の係留型飛行装置の中に前記予測エリアを撮影可能なものが無いときは、前記予測エリアの推定を継続し、当該予測エリアを撮影可能な係留型飛行装置が見つかったときに選択する請求項6に記載の監視システム。 If none of the plurality of moored flying devices can shoot the predicted area, the estimation of the predicted area is continued and selected when a moored flying device capable of shooting the predicted area is found. The monitoring system according to claim 6.
JP2014259392A 2014-12-22 2014-12-22 Monitoring system Active JP6441067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259392A JP6441067B2 (en) 2014-12-22 2014-12-22 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259392A JP6441067B2 (en) 2014-12-22 2014-12-22 Monitoring system

Publications (2)

Publication Number Publication Date
JP2016119625A true JP2016119625A (en) 2016-06-30
JP6441067B2 JP6441067B2 (en) 2018-12-19

Family

ID=56244521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259392A Active JP6441067B2 (en) 2014-12-22 2014-12-22 Monitoring system

Country Status (1)

Country Link
JP (1) JP6441067B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092256A (en) * 2016-11-30 2018-06-14 株式会社豊田中央研究所 Blind spot coverage apparatus, control apparatus, distributed control program for moving object
WO2018211575A1 (en) 2017-05-16 2018-11-22 日本電気株式会社 Control apparatus, monitoring system, and monitoring method
JP2019091163A (en) * 2017-11-13 2019-06-13 トヨタ自動車株式会社 Animal rescue system and animal rescue method, and server and program used for the same
JP2020162438A (en) * 2019-03-28 2020-10-08 セコム株式会社 Monitoring system and flying robot
US11107344B2 (en) 2017-11-13 2021-08-31 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
CN113632031A (en) * 2019-04-12 2021-11-09 三菱电机株式会社 Moving body movement control system, moving body, and moving body system
US11373499B2 (en) 2017-11-13 2022-06-28 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
US11393215B2 (en) 2017-11-13 2022-07-19 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
CN115835008A (en) * 2022-11-21 2023-03-21 上海飞机制造有限公司 Tracking method and device across different shooting devices, electronic device and medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069346A (en) * 1998-06-12 2000-03-03 Canon Inc Camera control device, its method, camera, tracking camera system, and computer-readable recording medium
JP2000289695A (en) * 1999-04-06 2000-10-17 Hitachi Ltd Moored flight body and its utilizing system
JP2009017416A (en) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp Device and method for monitoring, and program
WO2014125882A1 (en) * 2013-02-15 2014-08-21 日本電気株式会社 Information processing system, information processing method, and program
JP2014149620A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Photographing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069346A (en) * 1998-06-12 2000-03-03 Canon Inc Camera control device, its method, camera, tracking camera system, and computer-readable recording medium
JP2000289695A (en) * 1999-04-06 2000-10-17 Hitachi Ltd Moored flight body and its utilizing system
JP2009017416A (en) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp Device and method for monitoring, and program
JP2014149620A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Photographing system
WO2014125882A1 (en) * 2013-02-15 2014-08-21 日本電気株式会社 Information processing system, information processing method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092256A (en) * 2016-11-30 2018-06-14 株式会社豊田中央研究所 Blind spot coverage apparatus, control apparatus, distributed control program for moving object
WO2018211575A1 (en) 2017-05-16 2018-11-22 日本電気株式会社 Control apparatus, monitoring system, and monitoring method
US11393215B2 (en) 2017-11-13 2022-07-19 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
JP2019091163A (en) * 2017-11-13 2019-06-13 トヨタ自動車株式会社 Animal rescue system and animal rescue method, and server and program used for the same
US11107344B2 (en) 2017-11-13 2021-08-31 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
US11727782B2 (en) 2017-11-13 2023-08-15 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
JP7000805B2 (en) 2017-11-13 2022-01-19 トヨタ自動車株式会社 Animal rescue systems and methods, as well as the servers and programs used in them.
US11373499B2 (en) 2017-11-13 2022-06-28 Toyota Jidosha Kabushiki Kaisha Rescue system and rescue method, and server used for rescue system and rescue method
JP2020162438A (en) * 2019-03-28 2020-10-08 セコム株式会社 Monitoring system and flying robot
JP7155062B2 (en) 2019-03-28 2022-10-18 セコム株式会社 Surveillance system and flying robot
CN113632031A (en) * 2019-04-12 2021-11-09 三菱电机株式会社 Moving body movement control system, moving body, and moving body system
CN113632031B (en) * 2019-04-12 2024-05-28 三菱电机株式会社 Mobile control system for mobile body, and mobile body system
CN115835008A (en) * 2022-11-21 2023-03-21 上海飞机制造有限公司 Tracking method and device across different shooting devices, electronic device and medium

Also Published As

Publication number Publication date
JP6441067B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6482852B2 (en) Tracking processor
JP6441068B2 (en) Monitoring system
JP6441067B2 (en) Monitoring system
US10878584B2 (en) System for tracking object, and camera assembly therefor
KR102661363B1 (en) Device and method for monitoring a berthing
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
CN112703533B (en) Object tracking
JP6368651B2 (en) Driving environment recognition system
EP3654233A1 (en) System and method for identifying an object in water
CN106092123B (en) A kind of video navigation method and device
CN110672111A (en) Vehicle driving path planning method, device, system, medium and equipment
JP7456536B2 (en) Mobile object tracking system, mobile object tracking method and program
JP7194130B2 (en) A method and apparatus for detecting emergency vehicles in real time and planning driving routes to deal with situations expected to be caused by emergency vehicles.
JP6482857B2 (en) Monitoring system
CN111754551B (en) Target tracking method, device, system, equipment and storage medium
JP7035272B2 (en) Shooting system
JP6865064B2 (en) Moving body position estimation device and method
KR101780929B1 (en) Image surveillence system for moving object
JPWO2018179404A1 (en) Information processing apparatus, information processing method, and information processing program
JP2010140425A (en) Image processing system
JP6482855B2 (en) Monitoring system
KR20220050722A (en) method of mapping monitoring point in CCTV video for video surveillance system
JP6482856B2 (en) Monitoring system
CN110930437B (en) Target tracking method and device
JP7354528B2 (en) Autonomous mobile device, method and program for detecting dirt on lenses of autonomous mobile device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181121

R150 Certificate of patent or registration of utility model

Ref document number: 6441067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250