JP2016119625A - Monitoring system - Google Patents
Monitoring system Download PDFInfo
- Publication number
- JP2016119625A JP2016119625A JP2014259392A JP2014259392A JP2016119625A JP 2016119625 A JP2016119625 A JP 2016119625A JP 2014259392 A JP2014259392 A JP 2014259392A JP 2014259392 A JP2014259392 A JP 2014259392A JP 2016119625 A JP2016119625 A JP 2016119625A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- unit
- monitoring
- tracking target
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 318
- 238000003384 imaging method Methods 0.000 claims description 43
- 230000000694 effects Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 8
- 238000000034 method Methods 0.000 description 124
- 238000001514 detection method Methods 0.000 description 57
- 238000012545 processing Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 28
- 238000000605 extraction Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 7
- 101000737813 Homo sapiens Cyclin-dependent kinase 2-associated protein 1 Proteins 0.000 description 7
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 6
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 5
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 4
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 4
- 230000037308 hair color Effects 0.000 description 4
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 2
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 108090000237 interleukin-24 Proteins 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、例えば人物、車両などの移動体を監視する監視システムに関する。 The present invention relates to a monitoring system for monitoring a moving object such as a person or a vehicle.
人物、車両などの移動体を監視するシステムとしては、例えば下記特許文献1に開示されるものが知られている。この特許文献1では、システム全体にわたる移動体の追跡及び複数のビデオカメラ毎に分散された情報の統括的管理を効率よく行うことを目的として、複数ビデオカメラ毎に分散的に人物追跡するカメラ内追跡手段と、追跡を行うメイン追跡要素と移動体の特徴量をメイン追跡要素に供給するサブ追跡要素とからなり複数のカメラ内追跡手段間で連携して移動体を追跡するカメラ間追跡手段と、複数のカメラ内追跡手段に亙り移動体を探索する移動体探索手段とを具え、監視領域に分散配置された複数のビデオカメラを連携動作させている。 As a system for monitoring a moving body such as a person or a vehicle, for example, a system disclosed in Patent Document 1 below is known. In this patent document 1, in order to efficiently perform tracking of a moving body over the entire system and comprehensive management of information distributed to a plurality of video cameras, an internal camera that tracks people in a distributed manner for each of the plurality of video cameras. An inter-camera tracking means for tracking a moving body in cooperation with a plurality of in-camera tracking means, comprising a tracking means, and a main tracking element for tracking and a sub-tracking element for supplying a feature quantity of the moving object to the main tracking element; In addition, a plurality of video camera units distributed in the monitoring area are operated in cooperation with a moving body searching unit for searching for a moving body over a plurality of in-camera tracking units.
上述した特許文献1に開示されるシステムでは、複数のビデオカメラが監視領域に分散配置された構成なので、監視領域全体をカバーするために多くのビデオカメラが必要となる。そうすると、システムを構築する際のコストが嵩むだけでなく、監視領域の状況によっては死角領域が無くなるようにビデオカメラを増設するのが困難な場合もある。この場合、監視領域全体をカバーするようにビデオカメラが設置できない状況となるので、監視領域においてビデオカメラの死角領域はシステムによる監視の目が届かないことになる。特許文献1によれば、追跡対象が死角領域に移動したとしても再びビデオカメラの撮影範囲に移動すれば追跡対象を追跡できるものの、追跡対象が必ず再びビデオカメラの撮影範囲に移動するとは限らず、また追跡対象が再びビデオカメラの撮影範囲に移動したとしてもビデオカメラの死角領域で不正な行為などを行う可能性もある。このような事態に対応するためには特許文献1のようなシステム以外のその他の対応をとる必要がある。しかしながら、特許文献1ではビデオカメラの死角領域があることによる問題点が考慮されておらず、このため、複数のビデオカメラに追跡対象の監視を委ねるべきではなくその他の対応をとるべき適切なタイミングを容易に把握することができなかった。 The system disclosed in Patent Document 1 described above has a configuration in which a plurality of video cameras are distributed in the monitoring area, so that many video cameras are required to cover the entire monitoring area. This not only increases the cost for constructing the system, but it may be difficult to increase the number of video cameras so that the blind spot area is eliminated depending on the situation of the monitoring area. In this case, since the video camera cannot be installed so as to cover the entire monitoring area, the blind spot area of the video camera cannot be monitored by the system in the monitoring area. According to Patent Document 1, even if the tracking target moves to the blind spot area, the tracking target can be tracked by moving again to the imaging range of the video camera. However, the tracking target does not always move again to the imaging range of the video camera. In addition, even if the tracking target is moved again to the shooting range of the video camera, there is a possibility that an illegal act is performed in the blind spot area of the video camera. In order to cope with such a situation, it is necessary to take other measures other than the system as in Patent Document 1. However, Patent Document 1 does not consider the problem due to the presence of the blind spot area of the video camera. For this reason, monitoring of the tracking target should not be entrusted to a plurality of video cameras, and other appropriate timing should be taken. Could not be grasped easily.
そこで、本発明は上記問題点に鑑みてなされたものであり、監視領域内においてビデオカメラに追跡対象の追跡を委ねるべきではない状況を適切なタイミングで把握することができる監視システムを提供することを目的とするものである。 Accordingly, the present invention has been made in view of the above problems, and provides a monitoring system capable of grasping a situation in which the tracking of a tracking target should not be entrusted to a video camera in a monitoring area at an appropriate timing. It is intended.
上記した目的を達成するために、本発明に係る監視システムは、複数の監視カメラを備えた監視システムであって、
前記複数の監視カメラに関する位置情報と撮影可能範囲とを記憶する記憶部と、
前記監視カメラごとに撮影される画像から所定の追跡対象を検出して追跡する監視カメラ追跡部と、
当該監視カメラ追跡部の追跡結果に基づいて前記複数の全ての監視カメラにおいて前記追跡対象が前記撮影可能範囲から逸脱したか否かを判定する逸脱判定部と、
前記逸脱を判定すると、最後に前記追跡対象を検出した前記監視カメラ以外の他の監視カメラを前記位置情報から抽出し、最後に前記追跡対象を検出した前記監視カメラから前記他の監視カメラそれぞれまで前記追跡対象が移動するのに要する予想移動時間又は予想移動距離を算出し、当該算出した予想移動時間のうち最長の予想移動時間又は前記算出した予想移動距離のうち最長の予想移動距離から許容時間を設定する許容時間設定部と、
前記逸脱を判定したときからの経過時間が前記許容時間を経過しても、前記複数の監視カメラのいずれにおいても前記追跡対象を検出していないときに当該追跡対象を追跡不能と判定し、この旨を出力する追跡不能判定部と、
を備えたことを特徴とする。
In order to achieve the above object, a monitoring system according to the present invention is a monitoring system including a plurality of monitoring cameras,
A storage unit that stores position information and a shootable range regarding the plurality of monitoring cameras;
A monitoring camera tracking unit that detects and tracks a predetermined tracking target from an image captured for each monitoring camera;
A deviation determination unit that determines whether or not the tracking target has deviated from the photographing range in all of the plurality of monitoring cameras based on a tracking result of the monitoring camera tracking unit;
When the deviation is determined, other monitoring cameras other than the monitoring camera that finally detected the tracking target are extracted from the position information, and finally from the monitoring camera that detected the tracking target to each of the other monitoring cameras. The expected travel time or the expected travel distance required for the tracking target to move is calculated, and the allowable time from the longest predicted travel time of the calculated predicted travel time or the longest predicted travel distance of the calculated predicted travel distance An allowable time setting section for setting
Even if the elapsed time from the determination of the deviation exceeds the allowable time, when the tracking target is not detected in any of the plurality of monitoring cameras, the tracking target is determined to be untraceable, An untraceable determination unit that outputs the effect,
It is provided with.
また、本発明に係る監視システムは、前記追跡不能と判定した旨の出力がなされると、最後に前記追跡対象を検出した前記監視カメラの位置から前記追跡対象が存在する予測エリアを推定する予測エリア推定部と、
当該推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部を有する飛行装置を制御する飛行装置制御部と、
を備えた構成としてもよい。
In addition, when the monitoring system according to the present invention outputs that it is determined that the tracking is impossible, the prediction system estimates the prediction area where the tracking target is present from the position of the monitoring camera that finally detected the tracking target. An area estimation unit;
A flying device control unit that controls a flying device having an imaging unit that captures an image from above, so that the estimated prediction area can be captured;
It is good also as a structure provided with.
さらに、本発明に係る監視システムは、前記追跡不能と判定した旨の出力がなされると、最後に前記追跡対象を検出した前記監視カメラの位置から、前記追跡対象が存在する予測エリアを、前記追跡対象を検出しなかった前記他の監視カメラの前記撮影可能範囲を除外して推定する予測エリア推定部と、
この推定した予測エリアを表示部に表示する表示制御部と、
を備えた構成としてもよい。
Furthermore, when the monitoring system according to the present invention outputs that it is determined that the tracking is impossible, the predicted area where the tracking target exists is determined from the position of the monitoring camera that finally detected the tracking target. A prediction area estimation unit that estimates and excludes the shootable range of the other surveillance camera that did not detect the tracking target;
A display control unit for displaying the estimated prediction area on the display unit;
It is good also as a structure provided with.
また、本発明に係る監視システムは、前記飛行装置が移動型飛行装置であり、
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記移動型飛行装置を、前記予測エリアを含んで撮影できる目標位置へ移動制御してもよい。
Moreover, in the monitoring system according to the present invention, the flying device is a mobile flying device,
The flying device control unit may control the movement of the mobile flying device to a target position that can be photographed including the prediction area when an output indicating that the tracking is impossible is made.
そして、本発明に係る監視システムは、前記予測エリア推定部が、前記予測エリアの推定を繰り返し実行し、
前記飛行装置制御部が、前記実行の結果に応じて前記目標位置を再設定してもよい。
In the monitoring system according to the present invention, the prediction area estimation unit repeatedly executes estimation of the prediction area,
The flying device control unit may reset the target position according to the execution result.
また、本発明に係る監視システムは、前記飛行装置が複数の係留型飛行装置であり、
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記予測エリアを含んで撮影可能な係留型飛行装置を選択して撮影制御してもよい。
Moreover, in the monitoring system according to the present invention, the flight device is a plurality of moored flight devices,
The flying device control unit may select and control the shooting of a moored flying device that can capture an image including the prediction area when an output indicating that the tracking is impossible is performed.
さらに、本発明に係る監視システムは、前記複数の係留型飛行装置の中に前記予測エリアを撮影可能なものが無いときは、前記予測エリアの推定を継続し、当該予測エリアを撮影可能な係留型飛行装置が見つかったときに選択してもよい。 Furthermore, the monitoring system according to the present invention continues the estimation of the prediction area and the mooring capable of photographing the prediction area when none of the plurality of moored flight devices can photograph the prediction area. It may be selected when a type flight device is found.
本発明の監視システムによれば、複数の監視カメラに関する位置情報と撮影可能範囲とを記憶部に記憶させておき、監視カメラ追跡部は、監視カメラごとに撮影される画像から所定の追跡対象を監視カメラ追跡部が検出して追跡し、逸脱判定部は、全ての監視カメラで追跡対象が撮影可能範囲から逸脱したか否かを判定する。そして、許容時間設定部は、監視カメラ追跡部が撮影可能範囲からの逸脱を判定すると、最後に追跡対象を検出した監視カメラ以外の他の監視カメラを位置情報から抽出し、最後に追跡対象を検出した監視カメラから他の監視カメラそれぞれまで追跡対象が移動するのに要する予想移動時間又は予想移動距離を算出し、この算出した予想移動時間のうち最長の予想移動時間又はその算出した予想移動距離のうち最長の予想移動距離から許容時間を設定する。そして、追跡不能判定部は、撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間を経過しても、複数の監視カメラのいずれにおいても追跡対象を検出していないときに追跡不能と判定して、その旨を出力する。かかる構成により、監視員が複数の監視カメラの画像を常時確認する等しなくても、複数の監視カメラに追跡対象の追跡を委ねるべきではない状況を適切なタイミングで把握することができる。 According to the monitoring system of the present invention, the position information regarding the plurality of monitoring cameras and the shootable range are stored in the storage unit, and the monitoring camera tracking unit extracts a predetermined tracking target from the image captured for each monitoring camera. The monitoring camera tracking unit detects and tracks, and the deviation determination unit determines whether or not the tracking target has deviated from the photographing possible range in all the monitoring cameras. Then, when the monitoring camera tracking unit determines a deviation from the shootable range, the allowable time setting unit extracts other monitoring cameras other than the monitoring camera that finally detected the tracking target from the position information, and finally selects the tracking target. Calculate the expected travel time or predicted travel distance required for the tracking target to move from the detected surveillance camera to each of the other surveillance cameras, and calculate the longest expected travel time or the calculated expected travel distance of the calculated predicted travel times. The allowable time is set from the longest expected travel distance. The untrackable determination unit is unable to track when the tracking target is not detected in any of the plurality of monitoring cameras even if the elapsed time from the time when the deviation from the shootable range is determined exceeds the allowable time. And output that fact. With such a configuration, it is possible to grasp a situation in which tracking of the tracking target should not be entrusted to the plurality of monitoring cameras at an appropriate timing without the monitoring person constantly confirming the images of the plurality of monitoring cameras.
さらに、本発明の監視システムによれば、予測エリア推定部は、追跡不能判定部から追跡対象を追跡不能と判定した旨の出力がなされると、最後に追跡対象を検出した監視カメラの位置から追跡対象が存在する予測エリアを推定する。そして、飛行装置制御部は、予測エリア推定部が推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部を有する飛行装置を制御する。かかる構成により、複数の監視カメラに追跡対象の追跡を委ねるべきではなくなると、最後に追跡対象を検出した監視カメラの位置から推定した予測エリアに向けて飛行装置を制御し、追跡対象が存在する可能性の高い予測エリアを飛行装置が上空から撮影することができる。 Furthermore, according to the monitoring system of the present invention, when the prediction area estimation unit outputs that the tracking target is determined to be untrackable from the untrackable determination unit, the prediction area estimation unit finally determines the position of the monitoring camera that detected the tracking target. Estimate the prediction area where the tracking target exists. Then, the flying device control unit controls the flying device having an imaging unit that captures an image from the sky so that it can be captured including the prediction area estimated by the prediction area estimation unit. With this configuration, when tracking of the tracking target should not be entrusted to a plurality of monitoring cameras, the flying device is controlled toward the prediction area estimated from the position of the monitoring camera that finally detected the tracking target, and the tracking target exists. The flying device can capture the predicted area with high possibility from the sky.
また、本発明の監視システムによれば、予測エリア推定部は、追跡不能判定部から追跡対象を追跡不能と判定した旨の出力がなされると、最後に追跡対象を検出した監視カメラの位置から、追跡対象が存在する予測エリアを、追跡対象を検出しなかった他の監視カメラの撮影可能範囲を除外して推定した予測エリアを表示部に表示する。かかる構成により、追跡対象が存在し得ない余計な情報を省いて推定した追跡対象が存在し得る予測エリアを表示させて監視員に知らせることができる。 Further, according to the monitoring system of the present invention, when the prediction area estimation unit outputs that the tracking target is determined to be untrackable from the untrackable determination unit, the prediction area estimation unit finally determines the position of the monitoring camera that detected the tracking target. The prediction area in which the tracking target exists is estimated by excluding the shootable range of other surveillance cameras that did not detect the tracking target, and is displayed on the display unit. With such a configuration, it is possible to display the predicted area where the tracking target estimated by omitting unnecessary information where the tracking target cannot exist can be displayed and notify the monitoring staff.
また、本発明の監視システムによれば、飛行装置が移動型飛行装置の場合、飛行装置制御部は、追跡不能判定部から追跡不能と判定した旨の出力がなされると、移動型飛行装置を予測エリアへ移動制御する。かかる構成により、複数の監視カメラに追跡対象の追跡を委ねるべきではなくなると、移動型飛行装置を速やかに予測エリアに向けて移動制御することができる。 Further, according to the monitoring system of the present invention, when the flying device is a mobile flying device, the flying device control unit outputs the mobile flying device when the non-tracking determination unit determines that the tracking is impossible. Move to the prediction area. With this configuration, when the tracking of the tracking target should not be entrusted to a plurality of monitoring cameras, the mobile flying device can be quickly controlled to move toward the prediction area.
さらに、本発明の監視システムによれば、予測エリア推定部は、予測エリアの推定を繰り返し実行し、飛行装置制御部は、予測エリア推定部が実行する予測エリアの推定の結果に応じて移動型飛行装置を移動制御する目標位置を再設定する。かかる構成により、時間の経過とともに変化する予測エリアを確実に撮影できるように移動型飛行装置を移動制御することができる。 Further, according to the monitoring system of the present invention, the prediction area estimation unit repeatedly executes estimation of the prediction area, and the flying device control unit moves according to the prediction area estimation result executed by the prediction area estimation unit. Reset the target position for movement control of the flying device. With this configuration, it is possible to control the movement of the mobile flying device so that the predicted area that changes with time can be reliably imaged.
また、本発明の監視システムによれば、飛行装置が複数の係留型飛行装置の場合、飛行装置制御部は、追跡不能判定部から追跡不能と判定した旨の出力がなされると、予測エリアを撮影可能な係留型飛行装置を選択して撮影制御する。かかる構成により、予測エリアを撮影可能な係留型飛行装置を選択して確実に撮影を行うことができる。 Further, according to the monitoring system of the present invention, when the flying device is a plurality of moored flying devices, the flying device control unit outputs the prediction area when it is determined that the tracking is impossible from the tracking impossible determination unit. Select a mooring-type flying device that can shoot and control shooting. With such a configuration, it is possible to select the mooring type flying device capable of shooting the predicted area and perform shooting reliably.
さらに、本発明の監視システムによれば、飛行装置として、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無いときは、予測エリア推定部による予測エリアの推定を継続し、予測エリアを撮影可能な係留型飛行装置が見つかったときに、その係留型飛行装置を選択する。かかる構成により、時間経過とともに変化する予測エリアに応じて撮影可能なものが見つかった時点で、係留型飛行装置が上空から予測エリアの撮影を行うことができる。 Further, according to the monitoring system of the present invention, when there is no flight device that can shoot the prediction area among the plurality of moored flight devices, the prediction area estimation unit continues to estimate the prediction area, When a moored flying device capable of photographing an area is found, the moored flying device is selected. With such a configuration, the moored flying device can photograph the prediction area from the sky when an object that can be photographed according to the prediction area that changes with time is found.
以下、本発明を実施するための形態について、添付した図面の図1〜13を参照しながら詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to FIGS. 1 to 13 of the accompanying drawings.
図1に示すように、本発明に係る監視システム1は、監視カメラ2、飛行装置3、追跡処理装置としてのセンタ装置4を備えて構築される。
As shown in FIG. 1, a monitoring system 1 according to the present invention is constructed by including a
(監視カメラの構成について)
監視カメラ2は、地上から所定の撮影範囲を撮影する。本例において、監視カメラ2が地上から撮影する高度は、追跡対象(例えば不審者、不審車両など)を特定するための後述する複数種類の特徴情報の中で最も重要とされる最重要情報(追跡対象が例えば人物であれば顔画像、車両であれば自動車登録番号標(ナンバープレート)画像)が認識できる地上から比較的低い高度である。これにより、追跡対象を側方から撮影し、撮影した画像から追跡対象を把握しやすい側方画像、つまり、重力の方向と略直角となる方向(略水平方向)から撮影した画像を主に得ることができる。
(About surveillance camera configuration)
The
監視カメラ2は、監視領域の所定箇所に固定して複数設置されている。図2は監視カメラ2の設置例であり、イベント会場における監視領域の一部を示している。図2の例では、固定の撮影範囲E1,E2,E3,E4,E5による監視カメラ2(2a,2b,2c,2d,2e)がイベント会場となるコロシアムのゲート周りの4箇所とゲートに向かう道路の途中の1箇所に設置され、撮影範囲E6が可変可能な撮影可能範囲E7を有するパンチルトズームカメラからなる監視カメラ2(2f)が駐車場近傍の1箇所に設置されている。また、監視カメラ2aと監視カメラ2cは、互いの撮影範囲E1,E3の一部が重複するように設置されている。
A plurality of
監視カメラ2は、図1に示すように、カメラ部21、制御部22、通信部23を備えている。
As shown in FIG. 1, the
カメラ部21は、所定の撮影範囲を撮影する本体をなし、撮像部21a、方向制御部21b、画像データ生成部21cを有している。
The
撮像部21aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成される。撮像部21aは、監視領域内の所定の撮影範囲を所定時間おきに撮像し、撮像した画像を画像データ生成部21cに順次出力している。
The
尚、撮像部21aは、監視カメラ2がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部21cに出力される。
Note that when the
方向制御部21bは、監視カメラ2がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、水平方向及び垂直方向の角度が制御される。この水平方向及び垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向からの変位角度であり、画像データ生成部21cに出力される。
The
画像データ生成部21cは、撮像部21aが撮像した画像に対し、必要に応じて撮影時における焦点距離や水平方向及び垂直方向の角度情報(撮影方向)を付加した画像データを生成する。なお、監視カメラ2がパンチルトズームカメラとして構成される場合には、予め設定された監視カメラ2の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。
The image
制御部22は、カメラ部21の画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきに通信部23を介してセンタ装置4に送信制御する。また、制御部22は、センタ装置4からの制御信号を通信部23を介して受信したときに、この制御信号の撮影指示に従ってカメラ部21の撮像部21aや方向制御部21bを制御する。
The
通信部23は、有線又は無線により通信を行うための通信インタフェースであり、制御部22の制御により、通信回線を介してセンタ装置4との間で有線又は無線により通信し、データや信号の送受信を行う。具体的には、画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部21aや方向制御部21bを制御するためのセンタ装置4からの制御信号を受信する。
The
尚、監視カメラ2は、図2に示すように、監視領域の所定箇所に固定して複数設置されるものに限定されない。監視カメラ2は、地上から比較的低い高度において撮影可能なものであってよく、低い高度で撮影可能な、例えば各種車両に搭載した車載用カメラ、撮像部を有する小型移動飛行ロボットやドローンなどのように監視領域を移動できるものであってもよい。また、監視カメラ2が監視領域内を移動できる場合には、少なくとも1つの監視カメラ2が設けられた構成であってもよい。そして、監視カメラ2が監視領域を移動する場合には、撮影時における監視カメラ2の位置情報が移動に伴って変化するため、GPSからなる測位部を監視カメラ2に備え、地球上での監視カメラ2の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を画像データ生成部21cに出力する。また、監視カメラ2が監視領域を移動する場合は、撮影時における監視カメラ2の撮影方向も移動による姿勢変動によって変化するため、後述する姿勢検出部35と同様の構成を備え、画像データ生成部21cは、これにより得られた姿勢情報により撮影方向を補正する。そして、画像データ生成部21cからは、監視カメラ2の撮影時における位置情報及び撮影時における監視カメラ2の撮影方向も付加した画像データがセンタ装置4に送信される。
As shown in FIG. 2, the
(飛行装置の構成について)
飛行装置3は、センタ装置4からの制御信号の指示によって移動制御が可能な移動型飛行装置、すなわち、移動型飛行船、小型移動飛行ロボットやドローン、人工衛星などである。又は電源供給及び通信可能な状態で本体がケーブルを介して地上の係留装置と繋がれた係留型飛行装置(例えば係留型飛行船など)であってもよい。さらに、これらの組合せによって構成してもよい。
(About the configuration of the flying device)
The flying
尚、飛行装置3が係留型飛行装置の場合には、監視カメラ2で撮影できない死角領域を包含するように、監視領域の規模に合わせた数だけ設けるのが好ましい。
When the flying
飛行装置3は、図1に示すように、カメラ部31、推進部32、方向舵33、測位部34、姿勢検出部35、制御部36、無線通信部37を備えている。
As shown in FIG. 1, the flying
カメラ部31は、飛行装置3の本体に搭載され、上空から監視カメラ2よりも広い撮影範囲で撮影を行っている。本例において、飛行装置3のカメラ部31が撮影する高度は、監視カメラ2と比較して相対的に高い高度であって、追跡対象を特定するための後述する複数種類の特徴情報の中で最も重要とされる最重要情報の認識が困難な高度であるが、追跡対象を上方から俯瞰して撮影できる高度である。これにより、撮影した画像から追跡対象の水平面上における周囲の状況が把握しやすい上方画像、つまり、重力の方向と略同方向となる略鉛直方向から撮影した画像を主に得ることができる。
The
カメラ部31は、撮像部31a、方向制御部31b、画像データ生成部31cを有している。
The
撮像部31aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成されるものであり、所定の撮影範囲を上空から所定時間おきに撮像し、撮像した画像を画像データ生成部31cに順次出力する。
The
尚、撮像部31aは、カメラ部31がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部31cに出力される。
When the
方向制御部31bは、カメラ部31がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、水平方向及び垂直方向の角度が制御される。この水平方向及び垂直方向の角度情報は、予め設定されたカメラ部31の向きに相当する撮影方向からの変位角度であり、画像データ生成部31cに出力される。
The
画像データ生成部31cは、撮像部31aが撮像した画像に対し、撮影時における焦点距離や水平方向及び垂直方向の角度情報(撮影方向)を必要に応じて付加した画像データを生成する。また、後述の測位部34にて取得した撮影時における位置情報、及び後述の姿勢検出部35にて得られた撮影時における姿勢情報から補正した撮影方向を必要に応じて付加した画像データを生成する。
The image
推進部32は、エンジンの動力をプロペラに伝達して回転させることにより飛行装置3に推進力を与えるものであり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。
The
方向舵33は、飛行装置3の操縦に用いる動翼であり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。
The
測位部34は、GPS(Global Positioning System )からなり、地球上での飛行装置3の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を制御部36に出力する。この位置情報は画像データ生成部31cへも出力する。
The
姿勢検出部35は、例えばジャイロコンパスとサーボ加速度計を備え、飛行装置3の方位角、ピッチ角、ロール角を計測して飛行装置3の姿勢を検出し、この検出により得られる姿勢情報を制御部36に出力する。この姿勢情報は画像データ生成部31cへも出力する。
The
制御部36は、カメラ部31の画像データ生成部31cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信するように無線通信部37を制御する。また、制御部36は、飛行制御部36aとカメラ制御部36bを有する。飛行制御部36aは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の飛行指示に従って推進部32や方向舵33を制御する。カメラ制御部36bは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の撮影指示に従ってカメラ部31の撮像部31aや方向制御部31bを制御する。
The
無線通信部37は、制御部36の制御により、センタ装置4との間で無線通信し、データや信号の送受信を行う。具体的には、画像データ生成部31cが生成した画像データを所定フレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部31a、方向制御部31b、推進部32、方向舵33を制御するため、センタ装置4からの制御信号(撮影指示、飛行指示)を受信する。
The
(センタ装置の構成について)
追跡処理装置としてのセンタ装置4は、通信部41、無線通信部42、制御部43、記憶部44、操作部45、表示部46を備えている。
(About the configuration of the center device)
The center device 4 as a tracking processing device includes a
通信部41は、有線又は無線により通信を行うための通信インタフェースであり、制御部43の制御により、通信回線を介して複数の監視カメラ2との間で相互に通信を行う。具体的には、複数の監視カメラ2から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、制御対象となる監視カメラ2に対し、撮像部21aや方向制御部21bを制御して撮影指示するための制御信号を送信する。
The
無線通信部42は、制御部43の制御により、飛行装置3との間で相互に無線通信を行う。具体的には、飛行装置3から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、飛行装置3の撮像部31aや方向制御部31bを制御して撮影指示するための制御信号と、飛行装置3の推進部32や方向舵33を制御して飛行指示するための制御信号を必要に応じて送信する。
The
制御部43は、後述する追跡対象の追跡機能を実行するための構成として、対象特徴抽出部43a、監視カメラ追跡部43b、逸脱判定部43c、許容時間設定部43d、追跡不能判定部43e、予測エリア推定部43f、飛行装置制御部43g、対象候補検出部43h、連携処理部43i、表示制御部43jを備えている。
The
対象特徴抽出部43aは、追跡対象を特定するための複数種類の特徴情報を抽出しており、抽出した特徴情報を追跡対象の特徴情報(追跡対象特徴)として記憶部44に記憶させる。
The target
ここで、複数種類の特徴情報は、追跡対象が例えば人物である場合、図3に示すように、顔画像、年齢、性別、髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色、身長、体型からなる。 Here, when the tracking target is, for example, a person, the plurality of types of feature information include, as shown in FIG. Consists of color, height, and figure.
これらの特徴情報の抽出方法としては、公知の手法を用いればよいが、例えば次のようにして抽出すればよい。 As a method for extracting the feature information, a known method may be used. For example, the feature information may be extracted as follows.
顔画像の抽出は、人物を検出するための識別器により、指定された画像から人物領域を抽出し、この抽出した人物領域内で顔を検出するための識別器を用いて顔領域を抽出する。そして、この顔領域を顔画像の特徴情報として抽出する。 The face image is extracted by extracting a person area from a specified image using a classifier for detecting a person and extracting a face area using a classifier for detecting a face in the extracted person area. . Then, this face area is extracted as feature information of the face image.
年齢の抽出は、年代ごとの一般的な基準顔画像を、その基準顔画像の年代と対応づけて予め記憶部44に記憶しておき、これらの基準顔画像と、顔画像の抽出の際に抽出した顔画像とを比較して類似度を算出する。そして、最も類似度が高い基準顔画像に対応づけて記憶されている年代を、年齢の特徴情報として抽出する。
In the extraction of age, a general reference face image for each age is stored in advance in the
性別の抽出は、性別ごとの一般的な基準顔画像を、その基準顔画像の性別と対応づけて予め記憶部44に記憶しておき、これらの基準顔画像と、顔画像の抽出の際に抽出した顔画像とを比較して類似度を算出する。そして、最も類似度が高い基準顔画像に対応づけて記憶されている性別を、性別の特徴情報として抽出する。
In the gender extraction, a general reference face image for each gender is stored in advance in the
髪色の抽出は、上記顔画像の抽出の際に抽出した人物領域内で、頭部を検出するための識別器により頭部領域を抽出する。この頭部領域から、顔画像の抽出の際に抽出した顔領域を除いた領域を髪領域とし、髪領域における色情報のヒストグラムを作成し、これを髪色の特徴情報として抽出する。 In the hair color extraction, the head region is extracted by a discriminator for detecting the head in the human region extracted in the face image extraction. A region excluding the face region extracted at the time of face image extraction from the head region is defined as a hair region, a color information histogram in the hair region is created, and this is extracted as hair color feature information.
上半身衣服色と下半身衣服色の抽出は、顔画像の抽出の際に抽出した人物領域において、高さ方向で上半身衣服と下半身衣服に相当する領域(例えば地上からの比率を下半身衣服:上半身衣服:頭部を4:3:1とする、など)から色情報のヒストグラムを作成し、これを上半身衣服色の特徴情報と下半身衣服色の特徴情報として抽出する。 In the extraction of the upper body clothes color and the lower body clothes color, an area corresponding to the upper body clothes and the lower body clothes in the height direction (for example, the ratio from the ground to the lower body clothes: upper body clothes: Histogram of color information is created from the head as 4: 3: 1), and this is extracted as feature information of upper body clothes color and feature information of lower body clothes color.
所持品種別の抽出は、所持品の種別(例えば鞄、リュック、傘など)を検出するための識別器により所持品の有無と種別を判定し、判定した有無と種別を所持品種別の特徴情報として抽出する。 Extraction by type of possession is performed by determining the presence and type of possession by a classifier for detecting the type of possession (for example, bag, backpack, umbrella, etc.) Extract as
所持品色の抽出は、所持品種別の抽出の際に抽出した所持品領域の色情報のヒストグラムを作成し、これを所持品色の特徴情報として抽出する。 In the possession color extraction, a histogram of the color information of the possession area extracted at the time of extraction for each possession type is created, and this is extracted as characteristic information of the possession color.
身長の抽出は、画像データに含まれる、監視カメラ2の撮影位置、焦点距離、俯角などの撮影パラメータ(監視カメラ情報)を参照し、顔画像の抽出の際に抽出した人物領域の位置や大きさから身長を算出し、これを身長の特徴情報として抽出する。
The height is extracted by referring to shooting parameters (monitoring camera information) such as the shooting position, focal length, and depression angle of the
体型の抽出は、顔画像の抽出の際に抽出した人物領域の高さ方向の長さと幅方向の長さの比率を算出し、これを体型の特徴情報として抽出する。 In the extraction of the body type, the ratio of the length in the height direction and the length in the width direction of the person region extracted when extracting the face image is calculated, and this is extracted as the feature information of the body type.
なお、これらの追跡対象の特徴情報の入力方法としては、監視員が必要に応じて操作部45を操作して、記憶部44に記憶保存された監視カメラ2の画像から人物に当たる部分を指定すると、対象特徴抽出部43aが指定された画像から上述の方法で特徴情報を抽出して追跡対象特徴として記憶部44に記憶させる。また、監視員の指定操作によらず、追跡対象が予め決まっている場合には、その追跡対象の対象特徴を予め記憶部44に記憶させておく。
In addition, as a method of inputting the feature information of these tracking targets, when a monitor operates the
監視カメラ追跡部43bは、図6の破線で囲まれる後述の監視カメラ追跡処理を実行し、複数の監視カメラ2毎に順次撮影される画像から、対象特徴抽出部43aにて抽出した追跡対象特徴を用いて、所定の追跡対象を検出し、検出した追跡対象を追跡する監視を行う。
The monitoring
監視カメラ追跡処理は、複数の全ての監視カメラ2の画像に対して実行される処理であり、監視カメラ2で撮影した画像から、識別器により画像中の人物領域を抽出し、抽出した人物領域ごとに前述した対象特徴抽出部43aが行う特徴の抽出方法と同様にして複数種類の特徴情報を抽出し、この特徴情報と、対象特徴抽出部43aにて抽出した追跡対象特徴との対比により追跡対象の検出を対象検出処理として行う。
The surveillance camera tracking process is a process executed on all the images of a plurality of
具体的に図3の例で挙げている特徴情報を用いた追跡対象の検出について説明すると、まず、これら複数種類の特徴情報は、個々の特徴情報について追跡対象の検出における信頼性を考慮した重み付け係数が設定されている。例えば、最も高精度な照合が可能な顔画像を最重要特徴情報とし、この顔画像の重み付け係数を一番高く設定し、高精度な照合が難しい身長や体型の重み付け係数は低く設定する、などとすることができる。 Specifically, detection of the tracking target using the feature information given in the example of FIG. 3 will be described. First, these multiple types of feature information are weighted in consideration of reliability in detection of the tracking target for each feature information. The coefficient is set. For example, the face image that can be collated with the highest accuracy is set as the most important feature information, the weighting coefficient of this face image is set to be the highest, and the weighting coefficient for height and body type that is difficult to collate with high accuracy is set to be low. It can be.
そして、特徴情報の種別ごとに、監視カメラ追跡部43bが抽出した特徴情報と対象特徴抽出部43aで抽出した追跡対象特徴とを比較し、類似度を算出する。
Then, for each type of feature information, the feature information extracted by the monitoring
次に、複数種類の特徴情報ごとに算出した類似度に対し、上述した重み付け係数を掛け合わせる。そして、特徴情報の種類毎の類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とする。次に、予め記憶部44に記憶された追跡対象と見なせる追跡対象検出閾値(例えば類似度90%など)と全体類似度とを比較し、全体類似度が追跡対象検出閾値を超えていると判定したときに、追跡対象として検出する。
Next, the above-described weighting coefficient is multiplied to the similarity calculated for each of the plurality of types of feature information. Then, the total similarity is obtained by multiplying the similarity for each type of feature information by the weighting coefficient and adding them together. Next, the tracking target detection threshold (for example, 90% similarity) that can be regarded as a tracking target stored in advance in the
また、監視カメラ追跡処理では、上述した対象検出処理により追跡対象を検出すると、監視カメラ2が追跡対象を追跡中であるか否かを示す追跡フラグをONにする。この追跡フラグは、監視カメラ2ごとに対応付けられて記憶部44に記憶されている。なお、このときの画像は、表示制御部43jの制御により表示部46に表示される。
In the monitoring camera tracking process, when the tracking object is detected by the above-described object detection process, a tracking flag indicating whether the
さらに、監視カメラ追跡処理では、対象追跡処理として、所定のフレーム周期で所定時間おきに送信される監視カメラ2からの画像データにおいて、上述した対象検出処理で検出した追跡対象を追跡する処理を行う。この追跡処理は公知の手法を用いればよいが、例えば、現在の画像と1フレーム前の画像とのフレーム間差分をとることで画像中における変化領域を抽出し、対象検出処理で検出した追跡対象の位置に相当する変化領域を特定する。そして、次に新たな画像データを取得した際も同様にフレーム間差分を行って変化領域を抽出し、この抽出した変化領域が、前回追跡対象に相当する変化領域として特定した変化領域と、その位置、大きさ、形状などの点において同一の物体とみなせるかを判定し、同一とみなせる場合には、その変化領域を今回追跡対象に相当する変化領域として特定する。これらの処理を新たな画像データを取得する度に繰り返すことで、監視カメラ2の画像中において追跡対象を追跡してゆくことができる。なお、この対象追跡処理においても、上述した対象検出処理で行っているような特徴情報をさらに用いて追跡対象を追跡してもよい。
Further, in the monitoring camera tracking process, as the target tracking process, a process of tracking the tracking target detected in the above-described target detection process is performed on the image data from the
そして、上述した対象追跡処理により、追跡対象が監視カメラ2の撮影可能範囲外に移動したか否かを判別し、追跡対象が監視カメラ2の撮影可能範囲外に移動して撮影可能範囲から逸脱したと判定すると、その監視カメラ2の追跡フラグをOFFにする。
Then, by the target tracking process described above, it is determined whether or not the tracking target has moved out of the shootable range of the
さらに、監視カメラ追跡処理では、追跡対象を検出するための追跡対象検出閾値を緩く変更するための制御信号の入力を後述の連携処理部43iから受けると、その制御信号に応じて追跡対象検出閾値を緩く(例えば類似度70%など)する。 Further, in the monitoring camera tracking process, when an input of a control signal for loosely changing the tracking target detection threshold for detecting the tracking target is received from the cooperation processing unit 43i described later, the tracking target detection threshold is determined according to the control signal. Is loosened (for example, 70% similarity).
逸脱判定部43cは、上述した監視カメラ追跡処理にて制御される追跡フラグを、記憶部44を参照して監視する。逸脱判定部43cは、各監視カメラ2の追跡フラグが全てOFFになるか否かを判定することで、複数の全ての監視カメラ2において追跡対象が撮影可能範囲から逸脱したか否かを判定している。また、逸脱判定部43cは、追跡フラグがONとなっていた監視カメラ2のうち最後にOFFに変化した監視カメラ2を、最後に追跡対象を検出した監視カメラとして特定する。
The departure determination unit 43c monitors the tracking flag controlled by the monitoring camera tracking process described above with reference to the
許容時間設定部43dは、逸脱判定部43cが撮影可能範囲からの逸脱を判定すると、最後に追跡対象を検出した監視カメラ2の所定範囲(例えば100m)内の他の監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から抽出している。そして、許容時間設定部43dは、最後に追跡対象を検出した監視カメラ2から他の監視カメラ2まで追跡対象が移動するのに要する予想移動時間をそれぞれ算出し、この算出した予想移動時間のうち最長の予想移動時間に猶予時間を加えた許容時間を設定する。なお、予想移動時間の算出は、例えば、追跡対象が人である場合には、人の一般的な移動速度と、最後に追跡対象を検出した監視カメラ2から他の監視カメラ2までの距離とから算出することができる。また、猶予時間は、監視ポリシーに応じて適時定められた時間である。
When the deviation determination unit 43c determines a deviation from the shootable range, the allowable
なお、他の監視カメラ2を抽出する際の所定範囲は、最後に追跡対象を検出した監視カメラ2の位置から所定距離を半径とする円を描いた領域を所定範囲としてもよい。また、追跡対象が例えば車両の場合は車両の通行が可能な領域(道路や駐車場など)を後述する監視空間情報に基づいて特定して所定範囲とし、この所定範囲を撮影可能範囲に含む監視カメラ2を抽出するなどとしてもよい。さらには、監視カメラ情報に記憶されている全ての監視カメラ2を抽出してもよい。
It should be noted that the predetermined range when extracting the
追跡不能判定部43eは、監視カメラ追跡部43bによる追跡対象の追跡が不能になったか否かを判定する。さらに説明すると、追跡不能判定部43eは、逸脱判定部43cが撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間設定部43dで設定された許容時間を経過するまでに、どの監視カメラ2でも追跡対象を検出していなければ、追跡対象の追跡ができない、つまり複数の監視カメラ2に追跡対象の追跡を委ねるべきではないとして、追跡対象を追跡不能と判定し、追跡不能判定信号を出力する。
The tracking
予測エリア推定部43fは、追跡不能判定部43eが追跡不能判定信号を出力したときに、最後に追跡対象を検出した監視カメラ2の位置から、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定する予測エリア推定処理を実行する。
The prediction
さらに説明すると、予測エリア推定処理では、最初に追跡対象の移動範囲を算出する。具体的には、監視カメラ2が最後に追跡対象を検出した位置が図4(a)の×印で示す位置Pあったとする。この場合、×印の位置Pを基準として、追跡対象が最大移動できる移動範囲を追跡対象の移動速度と経過時間とを掛け合わせた値から算出すると、図4(a)における斜線部分が移動範囲E0となる。次に、算出した移動範囲E0内で追跡対象を検出していない監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から抽出する。図4(b)の例では、カメラのアイコンで示された5つの監視カメラ2a,2b,2c,2d,2eが抽出される。次に、抽出した各監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5を、記憶部44に記憶された監視カメラ情報の撮影範囲から読み出す。図4(b)の例では、カメラのアイコンで示された5つの監視カメラ2a,2b,2c,2d,2eから引き出された斜線部分が各監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5となる。そして、追跡対象の移動方向(図4(c)の矢印m方向)を加味して、図4(a)の追跡対象の移動範囲E0と、図4(b)の監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5と、後述する追跡対象が移動することができない移動不可能領域とから追跡対象の移動不能領域E10を特定する。図4(c)の例では、斜線部分が追跡対象の移動不能領域E10となる。そして、図4(a)の追跡対象の移動範囲E0と図4(c)の追跡対象の移動不能領域E10とを重ね合わせて重複しない部分を予測エリアE11として推定する。図4(d)の例では、斜線部分が予測エリアE11となる。
More specifically, in the prediction area estimation process, first, the movement range of the tracking target is calculated. Specifically, it is assumed that the position at which the
尚、上述した監視カメラ追跡部43bによる対象検出処理を追跡機能がONしている間、常時行っている。また、予測エリア推定部43fは、上述した予測エリア推定処理を監視カメラ追跡部43bにて追跡対象を検出するまで継続して実行する。このため、予測エリア推定処理を実行している場合にはどの監視カメラ2でも追跡対象を検出していないことになる。従って、移動範囲内にある監視カメラ2を抽出し、その撮影範囲を含む移動不能領域E10を移動範囲E0から除外して予測エリアE11とすることが、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定することとなる。
Note that the object detection process by the monitoring
飛行装置制御部43gは、飛行装置3が移動型飛行装置の場合、追跡不能判定部43eが追跡不能判定信号を出力したときに、予測エリア推定部43fが推定した予測エリアを含んで撮影できる目標位置まで移動型飛行装置を移動制御するための飛行指示の制御信号を出力する。
When the flying
尚、目標位置は、予測エリア推定部43fが推定した予測エリアの外接矩形領域の外側に所定幅の余裕を持たせた領域の重心における所定高度に設定される。
Note that the target position is set to a predetermined height at the center of gravity of a region having a margin of a predetermined width outside the circumscribed rectangular region of the prediction area estimated by the prediction
また、飛行装置制御部43gは、予測エリア推定部43fが予測エリアの推定を繰り返し実行したときに、その実行の結果に応じて目標位置を再設定し、この再設定された目標位置まで飛行装置3を移動制御するための飛行指示の制御信号を出力する。
Further, when the prediction
さらに、飛行装置制御部43gは、飛行装置3が複数の係留型飛行装置の場合、追跡不能判定部43eが追跡不能判定信号を出力したときに、予測エリア推定部43fが推定した予測エリアを撮影可能な係留型飛行装置を選択し、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置の飛行状態を制御するための制御信号を出力する。
Further, when the flying
飛行装置制御部43gは、推定された予測エリアを撮影可能な係留型飛行装置が無いと判定しても、その後に推定された予測エリアにおいて撮影可能な係留型飛行装置を検出すれば、その検出した係留型飛行装置を選択し、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置の飛行状態を制御するための制御信号を出力する。
Even if the flying
対象候補検出部43hは、追跡不能判定部43eが追跡不能判定信号を出力した場合に、飛行装置3のカメラ部31にて撮影された画像から追跡対象の候補を検出する対象候補検出処理を実行する。
The target candidate detection unit 43h executes target candidate detection processing for detecting a tracking target candidate from an image captured by the
対象候補検出処理では、飛行装置3のカメラ部31より取得した画像データの画像から特徴検索を行っている。特徴検索は、前述した監視カメラ2の対象検出処理の判定基準よりも緩い判定基準による特徴情報を用いた類似度の算出により、追跡対象の候補を検索している。
In the target candidate detection process, feature search is performed from the image of the image data acquired from the
特徴検索では、監視カメラ2の対象検出処理の判定基準で用いる特徴情報より少なく、その複数種類の特徴情報の一部を用いる判定基準となっている。具体的には、図3に×印で示すように、追跡対象が人物の場合、監視カメラ2の対象検出処理の判定基準で用いられる顔画像、年齢、性別、身長、体型の特徴情報を用いず、○印で示す髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色に限定した特徴情報が用いられる。そして、前述した対象検出処理と同様の手法により、これら特徴情報毎に算出した追跡対象特徴との類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とし、この全体類似度が予め記憶部44に記憶された追跡対象の候補と見なせる候補検出閾値(例えば類似度50%など)を超えていると判定したときに、追跡対象の候補として検出する。尚、上空から撮影した飛行装置3からの画像では追跡対象の特定がしづらいため、候補検出閾値が追跡対象閾値よりも低く設定されている。
The feature search is a criterion for using a part of the plurality of types of feature information, which is less than the feature information used in the criterion for the object detection process of the
連携処理部43iは、後述する図13の連携処理を実行し、対象候補検出部43hが追跡対象の候補を検出したときに、飛行装置3の画像内に設置されている監視カメラ2を特定し、この特定した監視カメラ2の撮影可能範囲を記憶部44に記憶された監視カメラ情報から読み出す。そして、全ての追跡対象の候補について、追跡対象の候補の位置が監視カメラ2の撮影可能範囲内にある全ての監視カメラ2を特定し、特定した監視カメラ2に撮影指示の制御信号を通信部41に出力したり、特定した監視カメラ2が撮影した画像について監視カメラ追跡部43bによる追跡対象検出閾値を緩く設定するための制御信号を監視カメラ追跡部43bに出力する。
The cooperation processing unit 43i executes the cooperation processing of FIG. 13 to be described later, and specifies the
図5は追跡対象の追跡を飛行装置3から監視カメラ2に連携するときに、上述した制御信号によって制御される監視カメラ2の動作の一例を示している。図5の×印で示す位置に追跡対象の候補がいる場合、この追跡対象の候補の撮影が可能な監視カメラ2fを制御対象として特定し、この制御対象の監視カメラ2fに撮影指示の制御信号を出力する。この制御信号は通信部41を介して監視カメラ2fへ送信され、監視カメラ2fは、撮影指示の制御信号を受信すると、現在の撮影範囲E6から追跡対象の候補が撮影できる撮影範囲E6’に変更するため、制御信号の撮影指示に従って撮像部21aのズーム位置と方向制御部21bによる水平方向及び垂直方向の角度を制御する。
FIG. 5 shows an example of the operation of the
表示制御部43jは、表示部46の表示を制御している。具体的には、後述する追跡対象の追跡機能を実行したときに、予測エリア推定部43fが推定した予測エリアを表示部46に表示している。予測エリアは、飛行装置3のカメラ部31が撮影した画像に重畳表示(例えば飛行装置3からの画像に予測エリアを半透明で重ね合わせて表示)することもできる。尚、表示制御部43jは、通常の監視状態において、監視カメラ2や飛行装置3から所定時間おきに送信される画像データに含まれる最新の画像を表示部46に表示し、監視員がモニタできるようになっている。
The
記憶部44は、後述する追跡対象の追跡機能を実行するために必要な各種情報として、追跡対象特徴、追跡フラグ、経過時間、追跡用情報、監視カメラ情報、飛行装置情報、監視空間情報、画像データなどを記憶している。
The
上記各種情報について説明すると、追跡対象特徴は、対象特徴抽出部43aにて抽出した追跡対象の特徴情報を示す情報である。例えば追跡対象が人物の場合、顔画像、年齢、性別、髪色、上半身服装色、下半身服装色、所持品種別、所持品色、身長、体型、移動方向などが対象特徴となる。
The various types of information will be described. The tracking target feature is information indicating the tracking target feature information extracted by the target
追跡フラグは、監視カメラ2において追跡対象を追跡中か否かを示すものであり、監視カメラ2ごとに記憶されている。追跡フラグは、追跡中であればON、追跡中でなければOFFとなる。
The tracking flag indicates whether or not the tracking target is being tracked by the
経過時間は、複数の監視カメラ2の追跡フラグが全てOFFとなった時から経過した時間を示す情報である。
The elapsed time is information indicating the time that has elapsed since the tracking flags of the plurality of
追跡用情報は、同一の監視カメラ2において追跡対象を追跡するための情報であり、追跡対象の画像内における位置、大きさ、形状などの情報である。
The tracking information is information for tracking the tracking target in the
監視カメラ情報は、各監視カメラ2に関する情報であって、各監視カメラ2の位置情報(撮影位置:緯度、経度、高さ)、撮影方向(水平角度と垂直角度)、現在撮影している撮影範囲、焦点距離、パンチルトズームすることで撮影することが可能な撮影可能範囲などの情報が含まれる。
The monitoring camera information is information related to each
なお、移動可能な監視カメラ2においては、位置情報、撮影方向、撮影範囲、焦点距離、撮影可能範囲が変化するため、受信する画像データに含まれる情報に基づいて制御部43により逐次更新される。具体的には、位置情報と撮影方向と焦点距離は受信した情報をそのまま更新し、撮影範囲と撮影可能範囲は画像データに含まれる焦点距離、撮影方向、及び位置情報、並びに予め記憶したパンチルトズームの変更可能範囲に基づいて算出し、更新する。
In the
また、監視領域の所定箇所に固定して設置される監視カメラ2の位置情報に関する情報は、予め記憶部44に監視カメラ情報の一部として記憶しておくことができる。このような監視カメラ2のうち、パンチルトズーム可能な監視カメラ2については、撮影方向、撮影範囲、焦点距離、撮影可能範囲が変化するため、受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。なお、パンチルトズーム不可能な監視カメラ2については撮影範囲と撮影可能範囲は同じであるため同一の情報として記憶される。
In addition, information related to the position information of the
飛行装置情報は、飛行装置3に関する情報であって、飛行装置3の位置情報(飛行位置又は撮影位置:緯度、経度、高さ)、カメラ部31の撮影方向(水平角度と垂直角度)、現在撮影している撮影範囲、焦点距離、パンチルトズームすることで撮影することが可能な撮影可能範囲などの情報が含まれ、動的に変化するものは飛行装置3から受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。
The flying device information is information related to the flying
監視空間情報は、監視空間に関する情報であり、例えば地形、建物、道路など形状が所定の座標系で表された3次元情報、監視対象とする監視領域、及び、例えば建物や壁などの人物が存在し得ない領域である移動不可能領域などの情報である。 The monitoring space information is information related to the monitoring space, for example, three-dimensional information in which the shape such as terrain, buildings, roads and the like is represented in a predetermined coordinate system, the monitoring area to be monitored, and a person such as a building or a wall. This is information such as a non-movable area that cannot exist.
画像データは、各監視カメラ2や飛行装置3から所定のフレーム周期で所定時間おきに送信されるデータであり、監視カメラ2ごと飛行装置3ごとに記憶部44に逐次蓄積される。
The image data is data transmitted from the
尚、記憶部44には、上述した情報の他に、類似度の算出に用いられる重み付け係数、検出閾値(追跡対象検出閾値、候補検出閾値)も記憶されている。
In addition to the above-described information, the
操作部45は、例えばマウス、キーボード、表示部46の表示画面上のソフトキーなどで構成される。操作部45は、後述する追跡対象の追跡機能の実行や終了、追跡対象の特徴情報を記憶部44に予め記憶させる操作、記憶部44に記憶保存された画像データから追跡対象の指定、各監視カメラ2や飛行装置3への指示、画像データの削除などを行う際に監視員によって操作される。
The
表示部46は、例えば液晶表示器などで構成される。表示部46は、表示制御部43jの制御により、複数の監視カメラ2や飛行装置3から取得した画像データの表示、予測エリアの表示、飛行装置3のカメラ部31が撮影した画像への予測エリアの重畳表示(例えば飛行装置3からの画像に予測エリアを半透明で重ね合わせて表示)などを行っている。
The
(追跡機能について)
次に、上記のように構成される監視システム1の動作として、監視領域内を移動する追跡対象を追跡して監視する場合の追跡機能について図6〜13のフローチャートを参照しながら説明する。ここでは、複数の監視カメラ2が少なくともパンチルトズームカメラで構成されるものを含み、飛行装置3が移動型飛行装置であるものとしている。
(About the tracking function)
Next, as an operation of the monitoring system 1 configured as described above, a tracking function when tracking and monitoring a tracking target moving in the monitoring area will be described with reference to the flowcharts of FIGS. Here, it is assumed that the plurality of
まず、追跡機能のメインフローについて図6及び図7を用いて説明する。監視員がセンタ装置4の操作部45を操作し、追跡機能の処理を開始する指示がなされて追跡機能がONすることにより本フローチャートが開始される(ST1)。なお、この追跡機能は監視員が操作部45にて追跡機能をOFFする終了操作を行うことで処理を終了する。ST1の次に、対象特徴抽出部43aは対象特徴抽出処理を実行する(ST2)。
First, the main flow of the tracking function will be described with reference to FIGS. This flowchart is started when the monitoring person operates the
対象特徴抽出処理では、追跡対象を特定するための特徴を追跡対象特徴として抽出する。対象特徴抽出処理が終了すると、監視カメラ追跡部43bは、監視領域における複数の全ての監視カメラ2から送信される画像データの画像に対し、監視カメラ追跡処理(ST3〜ST11)を実行する。
In the target feature extraction process, a feature for specifying a tracking target is extracted as a tracking target feature. When the target feature extraction process is completed, the monitoring
監視カメラ追跡処理では、連携処理部43iから追跡対象検出閾値を緩く設定する制御信号の入力を受けたかを判別する(ST3)。制御信号の入力を判定すると、追跡対象検出閾値を緩く設定する(ST4)。この制御信号の入力判別が終了すると、対象検出処理に移行する(ST5)。なお、監視カメラ追跡処理では、追跡対象検出閾値を緩くした場合、追跡機能がOFFされると元の追跡対象検出閾値に戻す処理を行う。 In the monitoring camera tracking process, it is determined whether or not an input of a control signal for loosely setting the tracking target detection threshold is received from the cooperation processing unit 43i (ST3). When the input of the control signal is determined, the tracking target detection threshold is set loosely (ST4). When this control signal input determination is completed, the routine proceeds to target detection processing (ST5). In the monitoring camera tracking process, when the tracking target detection threshold is relaxed, a process for returning to the original tracking target detection threshold is performed when the tracking function is turned off.
対象検出処理では、複数の監視カメラ2から送信される画像データの画像に対し、ST2において抽出した複数種類の追跡対象特徴を用いて追跡対象を検出する。
In the target detection process, a tracking target is detected by using a plurality of types of tracking target features extracted in ST2 for images of image data transmitted from a plurality of
対象検出処理が終了すると、追跡対象を検出したか否かを判別する(ST6)。追跡対象を検出したと判定すると、追跡フラグをONし(ST7)、表示制御部43jはそのときの監視カメラ2の画像をセンタ装置4の表示部46に表示する(ST8)。そして、対象検出処理によって検出した追跡対象を追跡する対象追跡処理を実行する(ST9)。
When the target detection process ends, it is determined whether or not a tracking target is detected (ST6). If it is determined that the tracking target is detected, the tracking flag is turned ON (ST7), and the
対象追跡処理では、所定のフレーム周期で所定時間おきに送信される監視カメラ2からフレーム間差分により変化領域を抽出し、ST5の対象検出処理で検出した追跡対象に相当する変化領域の位置、大きさ、形状を加味して同一の移動物体による変化領域をフレーム間にわたり対応付けてゆくことで追跡対象を追跡する。
In the target tracking process, the change area is extracted by the inter-frame difference from the
上述した監視カメラ追跡処理(ST3〜ST11)により、監視カメラ2ごとに、順次取得する画像データについて追跡対象の追跡処理が行われ、この追跡処理の結果に応じて追跡フラグがON又はOFFに制御されることによって、各監視カメラ2において追跡対象を追跡中であるのか否かを監視している。
By the monitoring camera tracking processing (ST3 to ST11) described above, the tracking processing is performed for the image data sequentially acquired for each
一方、対象特徴抽出処理が終了した場合、上述した監視カメラ追跡処理に並行した処理が開始される。まず、逸脱判定部43cは、複数の監視カメラ2の全ての追跡フラグがOFFか否かを判別する逸脱判定処理を実行する(ST12)。具体的には、全ての追跡フラグがOFFであると判定することで、全ての監視カメラ2において追跡対象を追跡していない状態になったか否かを判定する。逸脱判定処理において全ての追跡フラグがOFFであると判定すると、経過時間の計測を開始し(ST13)、監視カメラ追跡不能判定処理(ST14〜ST17)に移行する。
On the other hand, when the target feature extraction processing ends, processing parallel to the monitoring camera tracking processing described above is started. First, the departure determination unit 43c executes departure determination processing for determining whether all the tracking flags of the plurality of
監視カメラ追跡不能判定処理では、まず、監視カメラ追跡処理(ST3〜ST11)による追跡が不能か否かを判定するための許容時間を設定する許容時間設定処理を許容時間設定部43dが実行する(ST14)。
In the monitoring camera tracking impossibility determination process, first, the allowable
許容時間が設定されると、追跡不能判定部43eが、この許容時間とST13にて計時開始している経過時間とを比較して監視カメラ追跡処理による追跡は不能であるか否かを判定する追跡不能判定処理を実行する(ST15)。
When the permissible time is set, the tracking
追跡不能判定処理が終了すると、追跡不能判定処理において監視カメラ2での追跡対象の追跡が不能と判定したか否かを判別する(ST16)。監視カメラ2での追跡対象の追跡が不能と判定していないと判別すると、監視カメラ2の追跡フラグがONか否かを判別する(ST17)。そして、追跡フラグがONであると判定すると、経過時間をクリアし(ST18)、ST12の全ての追跡フラグがOFFか否かの判別に戻る。この状態では、複数の監視カメラ2の何れかが追跡対象の再追跡を行っていることになる。また、追跡フラグがONでないと判定すると、ST15の追跡不能判定処理に戻る。これに対し、ST16にて監視カメラ2での追跡対象の追跡が不能であると判定すると、図7の予測エリア推定処理に移行する(ST19)。
When the tracking impossibility determination process ends, it is determined whether or not it is determined in the tracking impossibility determination process that tracking of the tracking target by the
このように、監視カメラ追跡不能判定処理(ST14〜ST17)は、全ての監視カメラ2によって追跡対象を追跡していない状態になってから(ST12−Yes)、追跡対象を再追跡するまで(ST17−Yes)、処理が繰り返されて、監視カメラ2による追跡対象の追跡が不能か否かを判断する。
As described above, the monitoring camera tracking impossibility determination process (ST14 to ST17) is performed until all the
予測エリア推定処理では、予測エリア推定部43fが予測エリアを推定する。予測エリア推定処理が終了すると、表示制御部43jは、推定した予測エリアをセンタ装置4の表示部46に表示する(ST20)。推定した予測エリアの表示が終了すると、飛行装置対処処理(ST21〜ST26)に移行する。
In the prediction area estimation process, the prediction
飛行装置対処処理では、まず、飛行装置制御部43gが、ST19にて推定した予測エリアを飛行装置3にて撮影できる目標位置に飛行装置3を移動させる制御としての飛行装置制御処理を実行する(ST21)。
In the flying device handling process, first, the flying
そして、飛行装置対処処理において飛行装置3が目標位置に到着したか否かを判別する(ST22)。飛行装置3が目標位置に到着していないと判定すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行する。さらに、飛行装置3が目標位置に到着したと判定すると、対象候補検出処理に移行する。
Then, it is determined whether or not the flying
対象候補検出処理では、対象候補検出部43hが、飛行装置3にて撮影される画像に対し、限定された複数種類の特徴情報を判定基準として追跡対象の候補を検出する。
In the target candidate detection process, the target candidate detection unit 43h detects a tracking target candidate with respect to an image photographed by the flying
次に、上述した対象候補検出処理により追跡対象の候補を検出したか否かを判別する(ST25)。追跡対象の候補を検出したと判定すると、この検出した候補について複数の監視カメラ2や監視カメラ追跡部43bと連携させるための連携処理に移行する(ST26)。追跡対象の候補を検出していないと判定すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別処理に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行し、この推定処理の結果に応じて再び飛行装置対処処理を実行する。
Next, it is determined whether or not a tracking target candidate has been detected by the target candidate detection process described above (ST25). If it is determined that a tracking target candidate has been detected, the process proceeds to linkage processing for linking the detected candidate with a plurality of
連携処理では、連携処理部43iが、監視カメラ2や監視カメラ追跡部43bに連携のための制御信号を出力する(ST26)。
In the cooperation process, the cooperation processing unit 43i outputs a control signal for cooperation to the
連携処理が終了すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。そして、監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行し、この推定処理の結果に応じて再び飛行装置対処処理を実行する。
When the cooperation process ends, it is determined whether or not the tracking flag of the
上述した予測エリア推定処理及び飛行装置対処処理は、全ての監視カメラ2による追跡が不能と判定してから(ST16−Yes)、監視カメラ2にて追跡対象を再追跡するまで(ST23−Yes)、処理が繰り返されて、飛行装置3による対処が継続されることになる。
The above-described prediction area estimation process and flying device handling process are performed until it is determined that tracking by all the
尚、上述した追跡機能においてST20において予測エリアを表示した後、その次のST21の飛行装置制御処理に移行する処理は、飛行装置対処処理を実行するか否かを表示部46に表示し、監視員が操作部45にて許可操作がなされたときにST21に移行するようにしてもよい。
In the tracking function described above, after the predicted area is displayed in ST20, the next process of shifting to the flight device control process of ST21 displays on the
次に、図6及び図7のメインフローで詳細に説明しなかった処理フローについて説明する。 Next, a processing flow not described in detail in the main flow of FIGS. 6 and 7 will be described.
まず、図8を参照して、図6のST14で許容時間設定部43dが実行する許容時間設定処理について説明する。許容時間設定部43dは、最後に追跡対象を検出した監視カメラ2の周辺、つまり抽出した監視カメラ2の位置から所定範囲内の監視カメラ2を抽出する(ST31)。続いて、抽出した監視カメラ2毎に予想移動時間を算出する(ST32)。次に、抽出した全ての監視カメラ2の予想移動時間を算出したか否かを判別する(ST33)。抽出した全ての監視カメラの予想移動時間を算出したと判定すると、算出した予想移動時間の中から最長の予想移動時間を選択する(ST34)。そして、選択した最長の予想移動時間に余裕を持たせるための猶予時間を加えた許容時間を設定し(ST35)、処理を終了する。尚、許容時間に余裕を持たせない場合は、選択した最長の予想移動時間そのものが許容時間となる。
First, the allowable time setting process executed by the allowable
図9を参照して、図6のST15で追跡不能判定部43eが実行する追跡不能判定処理について説明する。追跡不能判定部43eは、経過時間が許容時間以上であるか否かを判別する(ST41)。経過時間が許容時間以上であると判定すると、監視カメラ2での追跡対象の追跡が不可能であり、追跡不能と判定し(ST42)、処理を終了する。経過時間が許容時間以上ではないと判定すると、追跡不能とは判定せずに処理を終了する。
With reference to FIG. 9, the untraceability determination process executed by
図10を参照して、図7のST19で予測エリア推定部43fが実行する予測エリア推定処理について説明する。予測エリア推定処理では、最後に追跡対象を検出した監視カメラ2の検出位置を基準として、追跡対象が最大移動できる移動範囲を算出する(ST51)。次に、算出した移動範囲内の監視カメラ2を抽出する(ST52)。そして、抽出した各監視カメラ2の撮影範囲を記憶部44に記憶された監視カメラ情報から読み出す(ST53)。続いて、追跡対象の移動範囲と各監視カメラ2の撮影範囲などから追跡対象が移動不可能な移動不能領域を特定する(ST54)。そして、この特定した移動不能領域と追跡対象の移動範囲とを重ね合わせて重複しない領域を予測エリアとして推定し(ST55)、処理を終了する。
With reference to FIG. 10, the prediction area estimation process which the prediction
図11を参照して、図7のST21で飛行装置制御部43gが実行する飛行装置制御処理について説明する。飛行装置制御部43gは、飛行装置3を移動させる目標位置を決定する(ST61)。次に、飛行装置3を目標位置まで移動制御するため、センタ装置4から飛行指示による制御信号を飛行装置3に送信する(ST62)。そして、センタ装置4は、制御信号の飛行指示に従って移動制御される飛行装置3から位置情報を取得し(ST63)、飛行装置3が目標位置に到着したか否かを判別する(ST64)。飛行装置3が目標位置に到着すれば、飛行装置3が目標位置に到着と判定し(ST65)、処理を終了する。なお、ST64の飛行装置着の判定は、ST62にて移動指示を行ってから所定時間(例えば3分)後に実行される。
With reference to FIG. 11, the flying device control process executed by the flying
図12を参照して、図7のST24で対象候補検出部43hが実行する対象候補検出処理について説明する。対象候補検出部43hは、飛行装置3からの画像データを取得し(ST71)、取得した画像から特徴検索を行うことで限定された複数種類の特徴情報を判定基準として用いて追跡対象の候補を検出する(ST72)。そして、この特徴検索において追跡対象の候補を検出したか否かを判定する(ST73)。候補を検出した場合には、対象候補検出と判定し(ST74)、候補を検出していない場合にはST74の判定をせずに処理を終了する。 With reference to FIG. 12, the target candidate detection process which the target candidate detection part 43h performs by ST24 of FIG. 7 is demonstrated. The target candidate detection unit 43h acquires image data from the flying device 3 (ST71), and uses a plurality of types of feature information limited by performing a feature search from the acquired image as a criterion for tracking target candidates. It is detected (ST72). Then, it is determined whether or not a tracking target candidate is detected in this feature search (ST73). If a candidate is detected, it is determined that the target candidate is detected (ST74). If no candidate is detected, the process ends without determining ST74.
図13を参照して、図7のST26で連携処理部43iが実行する連携処理について説明する。連携処理部43iは、飛行装置3から取得した画像データの画像内にある監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から特定する(ST81)。そして、特定した監視カメラ2の撮影可能範囲を、記憶部44に記憶された監視カメラ情報から読み出す(ST82)。次に、追跡対象の候補の位置(対象候補位置)が特定した監視カメラ2の撮影可能範囲内にあるか否かを判別する(ST83)。対象候補位置が特定した監視カメラ2の撮影可能範囲内にあると判定すると、その監視カメラ2を制御対象の監視カメラ2として特定する(ST84)。そして、全ての特定した監視カメラ2を処理したか否かを判別する(ST85)。全ての特定した監視カメラ2を処理したと判定すると、追跡対象の全ての候補について処理したか否かを判別する(ST86)。追跡対象の全ての候補について処理したと判定すると、制御対象(監視カメラ2や監視カメラ追跡部43b)に制御信号を出力し(ST87)、処理を終了する。
With reference to FIG. 13, the cooperation process which the cooperation process part 43i performs by ST26 of FIG. 7 is demonstrated. The cooperation processing unit 43i specifies the
尚、全ての特定した監視カメラ2を処理していないと判定したときや、追跡対象の全ての候補について処理していないと判定したときは、ST83の対象候補位置が撮影可能範囲内にあるか否かの判別に戻る。
If it is determined that all the specified
ところで、上述した追跡機能における飛行装置対処処理は、飛行装置3が移動型飛行装置であるものとして説明したが、飛行装置3が係留型飛行装置である場合には、図11の飛行装置制御処理に変わり、以下の処理が実行される。追跡不能判定部43eが追跡不能判定信号を出力すると、飛行装置制御部43gが推定した予測エリアを撮影可能な係留型飛行装置を選択する。そして、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置に制御信号を出力する。これにより、係留型飛行装置は、予測エリアを含んで撮影できるように、センタ装置4から受信した制御信号により、飛行制御部36aが推進部32や方向舵33を制御するとともに、カメラ制御部36bがカメラ部31の焦点距離や水平方向及び垂直方向の角度を制御する。そして、この制御信号により係留型飛行装置の制御がなされると、ST24の対象候補検出処理に移行する。
By the way, although the flying device handling process in the tracking function described above has been described on the assumption that the flying
また、複数の係留型飛行装置の中に予測エリアを撮影可能な係留型飛行装置が無い場合は、ST23の追跡フラグがONか否かの判別に移行する。そして、追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行する。そして、推定した予測エリアを撮影可能な係留型飛行装置が見つかると、その係留型飛行装置を選択し、予測エリアを撮影できるように係留型飛行装置に制御信号を出力し、この制御信号により係留型飛行装置の推進部32や方向舵33、カメラ部31の焦点距離や水平方向及び垂直方向の角度を制御する。
If there is no mooring-type flying device capable of photographing the prediction area among the plurality of mooring-type flying devices, the process proceeds to determination of whether the tracking flag in ST23 is ON. If it is determined that the tracking flag is ON, at least one
また、上述した追跡機能における許容時間設定処理の別態様として、次のようにすることもできる。図8を用いて説明すると、ST32の処理に替えて、最後に追跡対象を検出した監視カメラ2からST31にて抽出した他の監視カメラ2まで追跡対象が移動するのに要する予想移動距離をそれぞれ算出する。そして、ST34の処理に替えて、算出した予想移動距離のうち最長の予想移動距離を選択する。そして、ST35の処理に替えて、選択した予想移動距離から予想移動時間を算出し、この予想移動時間に猶予時間を加えた許容時間を設定する。なお、この予想移動時間の算出と猶予時間の加算は許容時間設定部43dの説明において説明した方法と同様にして行うことができる。
Further, as another aspect of the allowable time setting process in the tracking function described above, the following may be performed. If it demonstrates using FIG. 8, it replaces with the process of ST32, and the estimated moving distance required for a tracking object to move from the
以上説明したように、上述した実施の形態による監視システム1によれば、以下に示すような効果を奏する。 As described above, the monitoring system 1 according to the above-described embodiment has the following effects.
センタ装置4は、複数の監視カメラ2に関する位置情報と撮影可能範囲とを記憶部44に記憶させておき、監視カメラ2ごとに撮影される画像から所定の追跡対象(例えば人物、車両など)を監視カメラ追跡部43bが検出して追跡する。すなわち、通常は、所定の撮影範囲で地上から撮影した複数の監視カメラ2からの画像データに基づいて追跡対象を検出して追跡を行っている。そして、逸脱判定部43cは、全ての監視カメラ2において追跡対象が撮影可能範囲から逸脱したか否かを判定する。許容時間設定部43dは、逸脱判定部43cが撮影可能範囲からの逸脱を判定すると、逸脱を判定した監視カメラ2の周辺に設置されている他の監視カメラ2を位置情報から抽出し、逸脱を判定した監視カメラ2から他の監視カメラ2まで追跡対象が移動するのに要する予想移動時間をそれぞれ算出し、この算出した予想移動時間のうち最長の予想移動時間から許容時間を設定する。追跡不能判定部43eは、撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間を経過しても、複数の監視カメラ2のいずれにおいても追跡対象を検出していないときに追跡不能と判定して、その旨を出力する。
The center device 4 stores the position information and the shootable range regarding the plurality of
すなわち、全ての監視カメラ2にて追跡対象を検出できなくなると、この監視カメラ2から所定範囲内(例えば100m以内)の他の監視カメラ2を抽出し、抽出した監視カメラ2にて追跡対象を検出できるようになるまでに要する追跡対象の予想移動時間をそれぞれ算出し、算出した予想移動時間の中で最長の予想移動時間を含む許容時間を超えても何れの監視カメラ2でも追跡対象を検出できないときに、その旨を出力している。かかる構成により、監視員は、複数の監視カメラ2の画像を常時確認しなくても、監視カメラ2だけで追跡対象を再度発見することが困難となった状況を適切なタイミングで把握することができる。そして、全ての監視カメラ2で追跡対象の追跡が困難になったときの出力を、例えば表示出力や音声出力の報知信号として利用すれば、その旨を監視員に知らせることができる。
That is, when the tracking target cannot be detected by all the
センタ装置4の予測エリア推定部42eは、追跡不能判定部43eから追跡対象を追跡不能と判定した旨の出力がなされたときに、最後に追跡対象(例えば不審者や不審車両など)を検出した監視カメラ2の位置から、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定する。そして、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して推定した追跡対象が存在する予測エリアを表示部46に表示する。かかる構成により、余計な情報を省いて追跡対象が存在し得る予測エリアを表示させ、監視員に知らせることができる。
The prediction area estimation unit 42e of the center device 4 finally detects the tracking target (for example, a suspicious person or a suspicious vehicle) when the tracking
センタ装置4の飛行装置制御部43gは、予測エリア推定部42eが推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部31aを有する飛行装置3を制御する。かかる構成により、複数の監視カメラ2で追跡対象の追跡ができなくなったときに、最後に追跡対象を検出した監視カメラ2の位置から予測エリアを推定し、この予測エリアに向けて飛行装置3を制御し、追跡対象が存在する可能性の高い予測エリアを飛行装置3の撮像部31aが上空から撮影することができる。
The flying
飛行装置3が移動型飛行装置の場合、センタ装置4の飛行装置制御部43gは、追跡不能判定部43eから追跡不能と判定した旨の出力がなされたときに、移動型飛行装置を予測エリアへ移動制御する。かかる構成により、全ての監視カメラ2で追跡対象の追跡が困難になったときに、移動型飛行装置を速やかに予測エリアに向けて移動制御することができる。
When the flying
センタ装置4の予測エリア推定部43fは、予測エリアの推定を繰り返し実行する。そして、飛行装置制御部43gは、予測エリア推定部43fが実行する予測エリアの推定の結果に応じて移動型飛行装置を移動制御する目標位置を再設定し、再設定された目標位置に向けて移動型飛行装置を制御する。かかる構成により、繰り返し実行される予測エリアの推定の結果に応じて再設定された目標位置に移動型飛行装置を制御するので、移動型飛行装置を目標位置に向けて確実に制御することができる。
The prediction
飛行装置3が複数の係留型飛行装置の場合、センタ装置4の飛行装置制御部43gは、追跡不能判定部43eから追跡不能と判定した旨の出力がなされたときに、予測エリアを撮影可能な係留型飛行装置を選択して撮影制御している。かかる構成により、予測エリアを撮影可能な係留型飛行装置を選択して確実に撮影を行うことができる。
When the flying
飛行装置3として、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無いときは、予測エリア推定部43fによる予測エリアの推定を継続し、予測エリアを撮影可能な係留型飛行装置が見つかったときに、その係留型飛行装置を選択する。かかる構成により、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無ければ予測エリアの推定を継続して行うので、追跡対象が存在し得る予測エリアを推定し、この予測エリアを撮影可能な係留型飛行装置が見つかった時点で、係留型飛行装置が上空から予測エリアの撮影を行うことができる。
When there is no flying
センタ装置4の対象候補検出部43hは、監視カメラ追跡部43bによる追跡対象の追跡が不能と判定すると、飛行装置3にて撮影された画像から追跡対象の候補を検出している。そして、連携処理部43iは、対象候補検出部43hにて検出した追跡対象の候補が撮影可能範囲に進入したと判定すると、監視カメラ2又は監視カメラ追跡部43bに制御信号を出力している。例えば監視カメラ2がパンチルトズームカメラで構成される場合には、追跡対象の候補が撮影可能となるように監視カメラ2の焦点距離や水平方向及び垂直方向の角度を制御信号によって制御する。かかる構成により、監視カメラ2と飛行装置3とを連携させて継続的に追跡対象を追跡することができる。
When it is determined that the tracking
複数の監視カメラ2からの画像を用いて監視領域内を移動する追跡対象を検出する場合には、最も高精度な照合が可能な最重要特徴情報を含んだ複数種類の特徴情報を判定基準として追跡対象を検出している。これに対し、飛行装置3からの画像を用いて予測エリアを含む領域内の追跡対象の候補を検出する場合には、最重要特徴情報を含まない複数種類の特徴情報の一部の特徴情報を判定基準として追跡対象の候補を検出している。かかる構成により、監視カメラ2からの画像では追跡対象を高精度に検出しつつ、飛行装置3からの画像では検出精度の向上に大きく寄与しない特徴情報を使用せず、監視カメラ2からの画像よりも低精度で追跡対象の候補を検出することにより、飛行装置3からの画像を用いた追跡対象の候補の検出に要する処理負荷を軽減することができる。
When detecting a tracking target that moves within a monitoring area using images from a plurality of
このように、本実施の形態に係る監視システムによれば、監視カメラ2と飛行装置3とを連携させ、監視領域内を移動する追跡対象(例えば人物、車両など)を効率的に検出して追跡し監視を行うことができる。
As described above, according to the monitoring system according to the present embodiment, the
以上、本発明に係る監視システムの最良の形態について説明したが、この形態による記述及び図面により本発明が限定されることはない。すなわち、この形態に基づいて当業者等によりなされる他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれることは勿論である。 The best mode of the monitoring system according to the present invention has been described above, but the present invention is not limited by the description and drawings according to this mode. That is, it is a matter of course that all other forms, examples, operation techniques, and the like made by those skilled in the art based on this form are included in the scope of the present invention.
1 監視システム
2(2a〜2f) 監視カメラ
3 飛行装置
4 センタ装置(追跡処理装置)
21 カメラ部
21a 撮像部
21b 方向制御部
21c 画像データ生成部
22 制御部
23 通信部
31 カメラ部
31a 撮像部
31b 方向制御部
31c 画像データ生成部
32 推進部
33 方向舵
34 測位部
35 姿勢検出部
36 制御部
36a 飛行制御部
36b カメラ制御部
37 無線通信部
41 通信部
42 無線通信部
43 制御部
43a 対象特徴抽出部
43b 監視カメラ追跡部
43c 逸脱判定部
43d 許容時間設定部
43e 追跡不能判定部
43f 予測エリア推定部
43g 飛行装置制御部
43h 対象候補検出部
43i 連携処理部
43j 表示制御部
44 記憶部
45 操作部
46 表示部
E0 追跡対象の移動範囲
E1〜E6 撮影範囲
E6’制御後の撮影範囲
E7 撮影可能範囲
E10 追跡対象の移動不能領域
E11 予測エリア
m 追跡対象の移動方向
DESCRIPTION OF SYMBOLS 1 Monitoring system 2 (2a-2f)
DESCRIPTION OF
Claims (7)
前記複数の監視カメラに関する位置情報と撮影可能範囲とを記憶する記憶部と、
前記監視カメラごとに撮影される画像から所定の追跡対象を検出して追跡する監視カメラ追跡部と、
当該監視カメラ追跡部の追跡結果に基づいて前記複数の全ての監視カメラにおいて前記追跡対象が前記撮影可能範囲から逸脱したか否かを判定する逸脱判定部と、
前記逸脱を判定すると、最後に前記追跡対象を検出した前記監視カメラ以外の他の監視カメラを前記位置情報から抽出し、最後に前記追跡対象を検出した前記監視カメラから前記他の監視カメラそれぞれまで前記追跡対象が移動するのに要する予想移動時間又は予想移動距離を算出し、当該算出した予想移動時間のうち最長の予想移動時間又は前記算出した予想移動距離のうち最長の予想移動距離から許容時間を設定する許容時間設定部と、
前記逸脱を判定したときからの経過時間が前記許容時間を経過しても、前記複数の監視カメラのいずれにおいても前記追跡対象を検出していないときに当該追跡対象を追跡不能と判定し、この旨を出力する追跡不能判定部と、
を備えたことを特徴とする監視システム。 A surveillance system comprising a plurality of surveillance cameras,
A storage unit that stores position information and a shootable range regarding the plurality of monitoring cameras;
A monitoring camera tracking unit that detects and tracks a predetermined tracking target from an image captured for each monitoring camera;
A deviation determination unit that determines whether or not the tracking target has deviated from the photographing range in all of the plurality of monitoring cameras based on a tracking result of the monitoring camera tracking unit;
When the deviation is determined, other monitoring cameras other than the monitoring camera that finally detected the tracking target are extracted from the position information, and finally from the monitoring camera that detected the tracking target to each of the other monitoring cameras. The expected travel time or the expected travel distance required for the tracking target to move is calculated, and the allowable time from the longest predicted travel time of the calculated predicted travel time or the longest predicted travel distance of the calculated predicted travel distance An allowable time setting section for setting
Even if the elapsed time from the determination of the deviation exceeds the allowable time, when the tracking target is not detected in any of the plurality of monitoring cameras, the tracking target is determined to be untraceable, An untraceable determination unit that outputs the effect,
A monitoring system characterized by comprising:
当該推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部を有する飛行装置を制御する飛行装置制御部と、
を備えた請求項1に記載の監視システム。 When an output indicating that the tracking is impossible is made, a prediction area estimation unit that estimates a prediction area where the tracking target exists from the position of the monitoring camera that finally detected the tracking target;
A flying device control unit that controls a flying device having an imaging unit that captures an image from above, so that the estimated prediction area can be captured;
The monitoring system according to claim 1, comprising:
この推定した予測エリアを表示部に表示する表示制御部と、
を備えた請求項1に記載の監視システム。 When an output indicating that the tracking target is impossible is made, a predicted area where the tracking target is present is determined from the position of the monitoring camera that finally detected the tracking target, and the other tracking target is not detected. A prediction area estimation unit that estimates by excluding the imaging range of the surveillance camera;
A display control unit for displaying the estimated prediction area on the display unit;
The monitoring system according to claim 1, comprising:
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記移動型飛行装置を、前記予測エリアを含んで撮影できる目標位置へ移動制御する請求項2又は請求項3に記載の監視システム。 The flying device is a mobile flying device;
The said flight apparatus control part will carry out movement control of the said mobile flight apparatus to the target position which can image | photograph including the said prediction area, if the output to the effect of having determined that the said tracking is impossible is made. The monitoring system described.
前記飛行装置制御部は、前記実行の結果に応じて前記目標位置を再設定する請求項4に記載の監視システム。 The prediction area estimation unit repeatedly executes estimation of the prediction area,
The monitoring system according to claim 4, wherein the flying device control unit resets the target position according to a result of the execution.
前記飛行装置制御部は、前記追跡不能と判定した旨の出力がなされると、前記予測エリアを含んで撮影可能な係留型飛行装置を選択して撮影制御する請求項2に記載の監視システム。 The flight device is a plurality of moored flight devices;
3. The monitoring system according to claim 2, wherein, when an output indicating that the tracking is impossible is performed, the flying device control unit selects and controls shooting of a moored flying device including the prediction area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014259392A JP6441067B2 (en) | 2014-12-22 | 2014-12-22 | Monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014259392A JP6441067B2 (en) | 2014-12-22 | 2014-12-22 | Monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016119625A true JP2016119625A (en) | 2016-06-30 |
JP6441067B2 JP6441067B2 (en) | 2018-12-19 |
Family
ID=56244521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014259392A Active JP6441067B2 (en) | 2014-12-22 | 2014-12-22 | Monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6441067B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092256A (en) * | 2016-11-30 | 2018-06-14 | 株式会社豊田中央研究所 | Blind spot coverage apparatus, control apparatus, distributed control program for moving object |
WO2018211575A1 (en) | 2017-05-16 | 2018-11-22 | 日本電気株式会社 | Control apparatus, monitoring system, and monitoring method |
JP2019091163A (en) * | 2017-11-13 | 2019-06-13 | トヨタ自動車株式会社 | Animal rescue system and animal rescue method, and server and program used for the same |
JP2020162438A (en) * | 2019-03-28 | 2020-10-08 | セコム株式会社 | Monitoring system and flying robot |
US11107344B2 (en) | 2017-11-13 | 2021-08-31 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
CN113632031A (en) * | 2019-04-12 | 2021-11-09 | 三菱电机株式会社 | Moving body movement control system, moving body, and moving body system |
US11373499B2 (en) | 2017-11-13 | 2022-06-28 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
US11393215B2 (en) | 2017-11-13 | 2022-07-19 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
CN115835008A (en) * | 2022-11-21 | 2023-03-21 | 上海飞机制造有限公司 | Tracking method and device across different shooting devices, electronic device and medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000069346A (en) * | 1998-06-12 | 2000-03-03 | Canon Inc | Camera control device, its method, camera, tracking camera system, and computer-readable recording medium |
JP2000289695A (en) * | 1999-04-06 | 2000-10-17 | Hitachi Ltd | Moored flight body and its utilizing system |
JP2009017416A (en) * | 2007-07-09 | 2009-01-22 | Mitsubishi Electric Corp | Device and method for monitoring, and program |
WO2014125882A1 (en) * | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | Information processing system, information processing method, and program |
JP2014149620A (en) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | Photographing system |
-
2014
- 2014-12-22 JP JP2014259392A patent/JP6441067B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000069346A (en) * | 1998-06-12 | 2000-03-03 | Canon Inc | Camera control device, its method, camera, tracking camera system, and computer-readable recording medium |
JP2000289695A (en) * | 1999-04-06 | 2000-10-17 | Hitachi Ltd | Moored flight body and its utilizing system |
JP2009017416A (en) * | 2007-07-09 | 2009-01-22 | Mitsubishi Electric Corp | Device and method for monitoring, and program |
JP2014149620A (en) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | Photographing system |
WO2014125882A1 (en) * | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | Information processing system, information processing method, and program |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092256A (en) * | 2016-11-30 | 2018-06-14 | 株式会社豊田中央研究所 | Blind spot coverage apparatus, control apparatus, distributed control program for moving object |
WO2018211575A1 (en) | 2017-05-16 | 2018-11-22 | 日本電気株式会社 | Control apparatus, monitoring system, and monitoring method |
US11393215B2 (en) | 2017-11-13 | 2022-07-19 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
JP2019091163A (en) * | 2017-11-13 | 2019-06-13 | トヨタ自動車株式会社 | Animal rescue system and animal rescue method, and server and program used for the same |
US11107344B2 (en) | 2017-11-13 | 2021-08-31 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
US11727782B2 (en) | 2017-11-13 | 2023-08-15 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
JP7000805B2 (en) | 2017-11-13 | 2022-01-19 | トヨタ自動車株式会社 | Animal rescue systems and methods, as well as the servers and programs used in them. |
US11373499B2 (en) | 2017-11-13 | 2022-06-28 | Toyota Jidosha Kabushiki Kaisha | Rescue system and rescue method, and server used for rescue system and rescue method |
JP2020162438A (en) * | 2019-03-28 | 2020-10-08 | セコム株式会社 | Monitoring system and flying robot |
JP7155062B2 (en) | 2019-03-28 | 2022-10-18 | セコム株式会社 | Surveillance system and flying robot |
CN113632031A (en) * | 2019-04-12 | 2021-11-09 | 三菱电机株式会社 | Moving body movement control system, moving body, and moving body system |
CN113632031B (en) * | 2019-04-12 | 2024-05-28 | 三菱电机株式会社 | Mobile control system for mobile body, and mobile body system |
CN115835008A (en) * | 2022-11-21 | 2023-03-21 | 上海飞机制造有限公司 | Tracking method and device across different shooting devices, electronic device and medium |
Also Published As
Publication number | Publication date |
---|---|
JP6441067B2 (en) | 2018-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6482852B2 (en) | Tracking processor | |
JP6441068B2 (en) | Monitoring system | |
JP6441067B2 (en) | Monitoring system | |
US10878584B2 (en) | System for tracking object, and camera assembly therefor | |
KR102661363B1 (en) | Device and method for monitoring a berthing | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN112703533B (en) | Object tracking | |
JP6368651B2 (en) | Driving environment recognition system | |
EP3654233A1 (en) | System and method for identifying an object in water | |
CN106092123B (en) | A kind of video navigation method and device | |
CN110672111A (en) | Vehicle driving path planning method, device, system, medium and equipment | |
JP7456536B2 (en) | Mobile object tracking system, mobile object tracking method and program | |
JP7194130B2 (en) | A method and apparatus for detecting emergency vehicles in real time and planning driving routes to deal with situations expected to be caused by emergency vehicles. | |
JP6482857B2 (en) | Monitoring system | |
CN111754551B (en) | Target tracking method, device, system, equipment and storage medium | |
JP7035272B2 (en) | Shooting system | |
JP6865064B2 (en) | Moving body position estimation device and method | |
KR101780929B1 (en) | Image surveillence system for moving object | |
JPWO2018179404A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2010140425A (en) | Image processing system | |
JP6482855B2 (en) | Monitoring system | |
KR20220050722A (en) | method of mapping monitoring point in CCTV video for video surveillance system | |
JP6482856B2 (en) | Monitoring system | |
CN110930437B (en) | Target tracking method and device | |
JP7354528B2 (en) | Autonomous mobile device, method and program for detecting dirt on lenses of autonomous mobile device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6441067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |