JP2016119627A - 追跡処理装置 - Google Patents

追跡処理装置 Download PDF

Info

Publication number
JP2016119627A
JP2016119627A JP2014259394A JP2014259394A JP2016119627A JP 2016119627 A JP2016119627 A JP 2016119627A JP 2014259394 A JP2014259394 A JP 2014259394A JP 2014259394 A JP2014259394 A JP 2014259394A JP 2016119627 A JP2016119627 A JP 2016119627A
Authority
JP
Japan
Prior art keywords
tracking
tracking target
unit
target
monitoring camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014259394A
Other languages
English (en)
Other versions
JP6482852B2 (ja
Inventor
秀行 青木
Hideyuki Aoki
秀行 青木
高橋 哲也
Tetsuya Takahashi
哲也 高橋
雅弘 工藤
Masahiro Kudo
雅弘 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014259394A priority Critical patent/JP6482852B2/ja
Publication of JP2016119627A publication Critical patent/JP2016119627A/ja
Application granted granted Critical
Publication of JP6482852B2 publication Critical patent/JP6482852B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】追跡対象を追跡するときの画像処理に要する処理負荷を軽減する。【解決手段】追跡処理装置としてのセンタ装置4は、地上から撮影する複数の監視カメラ2にて取得した画像と、撮像部31aを備えた飛行装置3にて取得した画像とに基づいて所定の追跡対象を追跡するものであり、監視カメラ2にて撮影される画像に基づき第1の判定基準を用いて追跡対象を検出する監視カメラ追跡部43bと、飛行装置3にて撮影される画像に基づき第1の判定基準と異なる第2の判定基準を用いて追跡対象を検出する対象候補検出部43hと、を備え、これらの検出結果に基づいて追跡対象を追跡する。【選択図】図1

Description

本発明は、例えば人体、車両などの追跡対象として、監視領域内を移動する追跡対象を追跡する追跡処理装置に関する。
人物、車両などの移動体を監視するシステムとしては、例えば下記特許文献1に開示されるものが知られている。この特許文献1では、システム全体にわたる移動体の追跡及び複数のビデオカメラ毎に分散された情報の統括的管理を効率よく行うことを目的として、複数ビデオカメラ毎に分散的に人物追跡するカメラ内追跡手段と、追跡を行うメイン追跡要素と移動体の特徴量をメイン追跡要素に供給するサブ追跡要素とからなり複数のカメラ内追跡手段間で連携して移動体を追跡するカメラ間追跡手段と、複数のカメラ内追跡手段に亙り移動体を探索する移動体探索手段とを具え、監視領域に分散配置された複数のビデオカメラを連携動作させている。
特開2004−72628号公報
上述した特許文献1に開示されるシステムでは、複数のビデオカメラが地上の監視領域に分散配置された構成なので、監視領域全体をカバーするために多くのビデオカメラが必要となる。そうすると、システムを構築する際のコストが嵩むだけでなく、追跡対象を追跡する際の画像処理に要する処理負荷も増し、監視領域の状況によっては死角領域が無くなるようにビデオカメラを増設するのが困難な場合もある。この場合、監視領域全体をカバーするようにビデオカメラが設置できない状況となるので、監視領域においてビデオカメラの死角領域はシステムによる監視の目が届かないことになる。特許文献1によれば、追跡対象が死角領域に移動したとしても再びビデオカメラの撮影範囲に移動すれば追跡対象を追跡できるものの、追跡対象が必ず再びビデオカメラの撮影範囲に移動するとは限らず、また追跡対象が再びビデオカメラの撮影範囲に移動したとしてもビデオカメラの死角領域で不正な行為などを行う可能性もある。このような事態に対応するためには特許文献1のようなシステム以外のその他の対応をとる必要がある。しかしながら、特許文献1ではビデオカメラの死角領域があることによる問題点が考慮されておらず、監視領域の状況を把握するのに適した画像を必ずしも得られるとは限らない。その結果、監視領域内を移動する追跡対象を見失って追跡できなくなるおそれもあった。
ここで、このような従来の地上から監視領域を撮影するシステムで追跡対象を見失った場合に、上空から監視領域を撮影した画像を得ることができるシステムを別途設けて、この上空からの画像において追跡対象を検出することが考えられる。しかし、従来の地上から撮影するシステムで得られた画像における追跡対象の検出方法と比較して、上空から撮影した画像に対して追跡対象をいかに検出するかについてはこれまで検討が行われていなかった。
そこで、本発明は上記問題点に鑑みてなされたものであり、地上から撮影した画像と上空から撮影した画像とで、それぞれの画像に適した検出方法で追跡対象を追跡できる追跡処理装置を提供することを目的とするものである。
上記した目的を達成するために、本発明に係る追跡処理装置は、地上から撮影する複数の監視カメラにて取得した画像と、撮像部を備えた飛行装置にて取得した画像とに基づいて所定の追跡対象を追跡する追跡処理装置であって、
前記監視カメラにて撮影される画像に基づき第1の判定基準を用いて前記追跡対象を検出する第1の検出部と、
前記飛行装置にて撮影される画像に基づき前記第1の判定基準と異なる第2の判定基準を用いて前記追跡対象を検出する第2の検出部と、
を備え、
前記第1の検出部及び/又は前記第2の検出部の検出結果に基づいて前記追跡対象を追跡することを特徴とする。
また、本発明に係る追跡処理装置は、前記追跡対象を略鉛直方向から撮影した場合よりも略水平方向から撮影した場合に画像上に顕著に現れる特定の特徴情報を含む、前記追跡対象に関する複数種類の特徴情報を記憶する記憶部を備え、
前記第1の判定基準は、前記複数種類の特徴情報のうち少なくとも前記特定の特徴情報を用いて判定する判定基準であり、
前記第2の判定基準は、前記複数種類の特徴情報のうち前記特定の特徴情報を除いて判定する判定基準であってもよい。
さらに、本発明に係る追跡処理装置は、前記第2の検出部で前記追跡対象を検出すると、当該検出した追跡対象を前記監視カメラにて取得した画像にて前記第1の検出部が検出するための変更処理を実行してもよい。
また、本発明に係る追跡処理装置は、前記特定の特徴情報が、前記追跡対象の略鉛直面上の領域に関する特徴情報、又は、前記追跡対象の略鉛直方向の長さに関する特徴情報としてもよい。
さらに、本発明に係る追跡処理装置は、前記追跡対象は人物とし、前記追跡対象の略鉛直面上の領域に関する特徴情報は前記人物の顔に関する特徴情報であり、前記追跡対象の略鉛直方向の長さに関する特徴情報は前記人物の身長又は体型に関する特徴情報としてもよい。
飛行装置にて撮影される画像は、監視カメラにて撮影された画像に比べて、広範囲を撮影した画像となる傾向がある。このため、飛行装置にて撮影される画像は、監視カメラにて撮影された画像と比べると、追跡対象を検出するための特徴がはっきりと現れていない可能性が高い。ゆえに、飛行装置にて撮影される画像に対して、監視カメラにて撮影された画像における判定基準と同じ判定基準で追跡対象を検出しようとしても、実際には画像中には追跡対象が存在するにもかかわらず、これを検出できない状況が発生してしまう場合がある。
本発明の追跡処理装置によれば、地上から撮影する複数の監視カメラにて取得した画像と、撮像部を備えた飛行装置にて取得した画像とに基づいて追跡対象を追跡するにあたって、第1の検出部は、監視カメラにて撮影される画像に対し、第1の判定基準を用いて追跡対象を検出する。第2の検出部は、飛行装置にて撮影される画像に対し、第1の判定基準と異なる第2の判定基準を用いて追跡対象を検出する。そして、これら第1の検出部及び/又は第2の検出部の検出結果に基づいて追跡対象を追跡する。
かかる構成により、飛行装置の画像による追跡対象の検出処理では、監視カメラの画像による追跡対象の検出処理における第1の判定基準と異なる第2の判定基準を用いて追跡対象の検出を行う。
これにより、地上から撮影した画像と上空から撮影した画像とで、それぞれの画像に適した検出方法で追跡対象を追跡できる。例えば、第2の判定基準を第1の判定基準より緩くした判定基準とすれば、監視カメラでの追跡対象の検出処理では高精度で検出しつつ、飛行装置での追跡対象の検出処理では追跡対象を検出しやすくできる。
また、検出精度向上に大きく寄与しない特徴情報を使用しないことで、追跡対象を追跡するときの画像処理に要する処理負荷を軽減することができる。
飛行装置にて撮影される画像は、監視カメラにて撮影された画像に比べて、略鉛直方向から撮影した画像となる傾向がある。このため、飛行装置にて撮影される画像に対して、水平方向から撮影した場合に画像上に顕著に現れる追跡対象の特徴情報を用いても検出精度向上には寄与しない可能性が高く、また、実際には画像中には追跡対象が存在するにもかかわらず、これを検出できない状況が発生してしまう場合がある。
本発明の追跡処理装置によれば、前記追跡対象を略鉛直方向から撮影した場合よりも略水平方向から撮影した場合に画像上に顕著に現れる特定の特徴情報を含む、追跡対象に関する複数種類の特徴情報を記憶部に記憶させておき、第1の判定基準は、複数種類の特徴情報のうち少なくとも前記特定の特徴情報を用いて判定する判定基準であり、第2の判定基準は、複数種類の特徴情報のうち特定の特徴情報を除いて判定する判定基準である。
かかる構成により、監視カメラでの追跡対象の検出処理では高精度で検出しつつ、飛行装置での追跡対象の検出処理では検出精度向上に大きく寄与しない特定の特徴情報を除いて検出するため、地上から撮影した画像と上空から撮影した画像とで、それぞれの画像に適した検出方法で追跡対象を追跡できる。
また、検出精度向上に大きく寄与しない特定の特徴情報を使用しないことで、追跡対象を追跡するときの画像処理に要する処理負荷を軽減することができる。
飛行装置での追跡対象の検出処理を、監視カメラでの追跡対象の検出処理よりも緩い判定基準で行うと追跡対象を検出しやすくなるため誤検出が生じる可能性がある。
本発明の追跡処理装置によれば、第2の検出部で追跡対象を検出すると、その検出した追跡対象を監視カメラにて取得した画像にて第1の検出部が検出するための変更処理を実行する。
かかる構成により、第2の検出部が飛行装置の画像から追跡対象を検出すると、この検出した追跡対象を監視カメラの画像で第1の検出部が検出するための変更処理を実行する。変更処理としては、例えばパンチルトズームカメラで構成される監視カメラに対して焦点距離や水平方向及び垂直方向の角度を制御したり、判定基準を緩くするなどの変更処理などが考えられる。この結果、飛行装置での追跡対象の検出処理の結果を踏まえた連携を行った上で、監視カメラでの追跡対象の検出処理を実行することができる。
本発明の追跡処理装置によれば、飛行装置での追跡対象の検出処理において、検出精度向上に大きく寄与しない傾向が高い、追跡対象の略鉛直面上の領域に関する特徴情報、又は、前記追跡対象の略鉛直方向の長さに関する特徴情報を除外して実行することができる。
本発明の追跡処理装置によれば、飛行装置での人物の検出処理において、検出精度向上に大きく寄与しない傾向が高い、顔に関する特徴情報や、身長又は体型に関する特徴情報を除外して実行することができる。
本発明に係る監視システムの全体構成を示す概略ブロック図である。 本発明に係る監視システムが監視する監視領域の一例を示す図である。 本発明に係る監視システムにおいて監視カメラの画像と飛行装置の画像から追跡対象の類似度を算出するために用いられる特徴情報の一例を示す図である。 (a)〜(d)予測エリアの推定処理に関する説明図である。 制御信号によって制御される監視カメラの動作例である。 本発明に係る監視システムによる追跡機能の動作フローチャート(1)である。 本発明に係る監視システムによる追跡機能の動作フローチャート(2)である。 図6における許容時間設定処理のフローチャートである。 図6における追跡不能判定処理のフローチャートである。 図7における予測エリア推定処理のフローチャートである。 図7における飛行装置制御処理のフローチャートである。 図7における対象候補検出処理のフローチャートである。 図7における連携処理のフローチャートである。
以下、本発明を実施するための形態について、添付した図面の図1〜13を参照しながら詳細に説明する。
図1に示すように、本発明に係る監視システム1は、監視カメラ2、飛行装置3、追跡処理装置としてのセンタ装置4を備えて構築される。
(監視カメラの構成について)
監視カメラ2は、地上から所定の撮影範囲を撮影する。本例において、監視カメラ2が地上から撮影する高度は、追跡対象(例えば、地上を移動する不審者、不審車両など)を特定するための後述する複数種類の特徴情報の中で最も重要とされる最重要情報(追跡対象が例えば人物であれば顔画像、車両であれば自動車登録番号標(ナンバープレート)画像)が認識できる地上から比較的低い高度である。これにより、追跡対象を側方から撮影し、撮影した画像から追跡対象を把握しやすい側方画像、つまり、重力の方向と略直角となる方向(略水平方向)から撮影した画像を主に得ることができる。
監視カメラ2は、監視領域の所定箇所に固定して複数設置されている。図2は監視カメラ2の設置例であり、イベント会場における監視領域の一部を示している。図2の例では、固定の撮影範囲E1,E2,E3,E4,E5による監視カメラ2(2a,2b,2c,2d,2e)がイベント会場となるコロシアムのゲート周りの4箇所とゲートに向かう道路の途中の1箇所に設置され、撮影範囲E6が可変可能な撮影可能範囲E7を有するパンチルトズームカメラからなる監視カメラ2(2f)が駐車場近傍の1箇所に設置されている。また、監視カメラ2aと監視カメラ2cは、互いの撮影範囲E1,E3の一部が重複するように設置されている。
監視カメラ2は、図1に示すように、カメラ部21、制御部22、通信部23を備えている。
カメラ部21は、所定の撮影範囲を撮影する本体をなし、撮像部21a、方向制御部21b、画像データ生成部21cを有している。
撮像部21aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成される。撮像部21aは、監視領域内の所定の撮影範囲を所定時間おきに撮像し、撮像した画像を画像データ生成部21cに順次出力している。
尚、撮像部21aは、監視カメラ2がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部21cに出力される。
方向制御部21bは、監視カメラ2がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、水平方向及び垂直方向の角度が制御される。この水平方向及び垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向からの変位角度であり、画像データ生成部21cに出力される。
画像データ生成部21cは、撮像部21aが撮像した画像に対し、必要に応じて撮影時における焦点距離や水平方向及び垂直方向の角度情報(撮影方向)を付加した画像データを生成する。なお、監視カメラ2がパンチルトズームカメラとして構成される場合には、予め設定された監視カメラ2の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。
制御部22は、カメラ部21の画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきに通信部23を介してセンタ装置4に送信制御する。また、制御部22は、センタ装置4からの制御信号を通信部23を介して受信したときに、この制御信号の撮影指示に従ってカメラ部21の撮像部21aや方向制御部21bを制御する。
通信部23は、有線又は無線により通信を行うための通信インタフェースであり、制御部22の制御により、通信回線を介してセンタ装置4との間で有線又は無線により通信し、データや信号の送受信を行う。具体的には、画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部21aや方向制御部21bを制御するためのセンタ装置4からの制御信号を受信する。
尚、監視カメラ2は、図2に示すように、監視領域の所定箇所に固定して複数設置されるものに限定されない。監視カメラ2は、地上から比較的低い高度において撮影可能なものであってよく、低い高度で撮影可能な、例えば各種車両に搭載した車載用カメラ、撮像部を有する小型移動飛行ロボットやドローンなどのように監視領域を移動できるものであってもよい。また、監視カメラ2が監視領域内を移動できる場合には、少なくとも1つの監視カメラ2が設けられた構成であってもよい。そして、監視カメラ2が監視領域を移動する場合には、撮影時における監視カメラ2の位置情報が移動に伴って変化するため、GPSからなる測位部を監視カメラ2に備え、地球上での監視カメラ2の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を画像データ生成部21cに出力する。また、監視カメラ2が監視領域を移動する場合は、撮影時における監視カメラ2の撮影方向も移動による姿勢変動によって変化するため、後述する姿勢検出部35と同様の構成を備え、画像データ生成部21cは、これにより得られた姿勢情報により撮影方向を補正する。そして、画像データ生成部21cからは、監視カメラ2の撮影時における位置情報及び撮影時における監視カメラ2の撮影方向も付加した画像データがセンタ装置4に送信される。
(飛行装置の構成について)
飛行装置3は、センタ装置4からの制御信号の指示によって移動制御が可能な移動型飛行装置、すなわち、移動型飛行船、小型移動飛行ロボットやドローン、人工衛星などである。又は電源供給及び通信可能な状態で本体がケーブルを介して地上の係留装置と繋がれた係留型飛行装置(例えば係留型飛行船など)であってもよい。さらに、これらの組合せによって構成してもよい。
尚、飛行装置3が係留型飛行装置の場合には、監視カメラ2で撮影できない死角領域を包含するように、監視領域の規模に合わせた数だけ設けるのが好ましい。
飛行装置3は、図1に示すように、カメラ部31、推進部32、方向舵33、測位部34、姿勢検出部35、制御部36、無線通信部37を備えている。
カメラ部31は、飛行装置3の本体に搭載され、上空から監視カメラ2よりも広い撮影範囲で撮影を行っている。本例において、飛行装置3のカメラ部31が撮影する高度は、監視カメラ2と比較して相対的に高い高度であって、追跡対象を特定するための後述する複数種類の特徴情報の中で最も重要とされる最重要情報の認識が困難な高度であるが、追跡対象を上方から俯瞰して撮影できる高度である。これにより、撮影した画像から追跡対象の水平面上における周囲の状況が把握しやすい上方画像、つまり、重力の方向と略同方向となる略鉛直方向から撮影した画像を主に得ることができる。
カメラ部31は、撮像部31a、方向制御部31b、画像データ生成部31cを有している。
撮像部31aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成されるものであり、所定の撮影範囲を上空から所定時間おきに撮像し、撮像した画像を画像データ生成部31cに順次出力する。
尚、撮像部31aは、カメラ部31がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部31cに出力される。
方向制御部31bは、カメラ部31がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、水平方向及び垂直方向の角度が制御される。この水平方向及び垂直方向の角度情報は、予め設定されたカメラ部31の撮影方向からの変位角度であり、画像データ生成部31cに出力される。
画像データ生成部31cは、撮像部31aが撮像した画像に対し、撮影時における焦点距離や水平方向及び垂直方向の角度情報(撮影方向)を必要に応じて付加した画像データを生成する。また、後述の測位部34にて取得した撮影時における位置情報、及び後述の姿勢検出部35にて得られた撮影時における姿勢情報から補正した撮影方向を必要に応じて付加した画像データを生成する。
推進部32は、エンジンの動力をプロペラに伝達して回転させることにより飛行装置3に推進力を与えるものであり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。
方向舵33は、飛行装置3の操縦に用いる動翼であり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。
測位部34は、GPS(Global Positioning System )からなり、地球上での飛行装置3の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を制御部36に出力する。この位置情報は画像データ生成部31cへも出力する。
姿勢検出部35は、例えばジャイロコンパスとサーボ加速度計を備え、飛行装置3の方位角、ピッチ角、ロール角を計測して飛行装置3の姿勢を検出し、この検出により得られる姿勢情報を制御部36に出力する。この姿勢情報は画像データ生成部31cへも出力する。
制御部36は、カメラ部31の画像データ生成部31cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信するように無線通信部37を制御する。また、制御部36は、飛行制御部36aとカメラ制御部36bを有する。飛行制御部36aは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の飛行指示に従って推進部32や方向舵33を制御する。カメラ制御部36bは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の撮影指示に従ってカメラ部31の撮像部31aや方向制御部31bを制御する。
無線通信部37は、制御部36の制御により、センタ装置4との間で無線通信し、データや信号の送受信を行う。具体的には、画像データ生成部31cが生成した画像データを所定フレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部31a、方向制御部31b、推進部32、方向舵33を制御するため、センタ装置4からの制御信号(撮影指示、飛行指示)を受信する。
(センタ装置の構成について)
追跡処理装置としてのセンタ装置4は、通信部41、無線通信部42、制御部43、記憶部44、操作部45、表示部46を備えている。
通信部41は、有線又は無線により通信を行うための通信インタフェースであり、制御部43の制御により、通信回線を介して複数の監視カメラ2との間で相互に通信を行う。具体的には、複数の監視カメラ2から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、制御対象となる監視カメラ2に対し、撮像部21aや方向制御部21bを制御して撮影指示するための制御信号を送信する。
無線通信部42は、制御部43の制御により、飛行装置3との間で相互に無線通信を行う。具体的には、飛行装置3から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、飛行装置3の撮像部31aや方向制御部31bを制御して撮影指示するための制御信号と、飛行装置3の推進部32や方向舵33を制御して飛行指示するための制御信号を必要に応じて送信する。
制御部43は、後述する追跡対象の追跡機能を実行するための構成として、対象特徴抽出部43a、監視カメラ追跡部43b、逸脱判定部43c、許容時間設定部43d、追跡不能判定部43e、予測エリア推定部43f、飛行装置制御部43g、対象候補検出部43h、連携処理部43i、表示制御部43jを備えている。
対象特徴抽出部43aは、追跡対象を特定するための複数種類の特徴情報を抽出しており、抽出した特徴情報を追跡対象の特徴情報(追跡対象特徴)として記憶部44に記憶させる。
ここで、複数種類の特徴情報は、追跡対象が例えば人物である場合、図3に示すように、顔画像、年齢、性別、髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色、身長、体型からなる。
これらの特徴情報の抽出方法としては、公知の手法を用いればよいが、例えば次のようにして抽出すればよい。
顔画像の抽出は、人物を検出するための識別器により、指定された画像から人物領域を抽出し、この抽出した人物領域内で顔を検出するための識別器を用いて顔領域を抽出する。そして、この顔領域を顔画像の特徴情報として抽出する。
年齢の抽出は、年代ごとの一般的な基準顔画像を、その基準顔画像の年代と対応づけて予め記憶部44に記憶しておき、これらの基準顔画像と、顔画像の抽出の際に抽出した顔画像とを比較して類似度を算出する。そして、最も類似度が高い基準顔画像に対応づけて記憶されている年代を、年齢の特徴情報として抽出する。
性別の抽出は、性別ごとの一般的な基準顔画像を、その基準顔画像の性別と対応づけて予め記憶部44に記憶しておき、これらの基準顔画像と、顔画像の抽出の際に抽出した顔画像とを比較して類似度を算出する。そして、最も類似度が高い基準顔画像に対応づけて記憶されている性別を、性別の特徴情報として抽出する。
髪色の抽出は、上記顔画像の抽出の際に抽出した人物領域内で、頭部を検出するための識別器により頭部領域を抽出する。この頭部領域から、顔画像の抽出の際に抽出した顔領域を除いた領域を髪領域とし、髪領域における色情報のヒストグラムを作成し、これを髪色の特徴情報として抽出する。
上半身衣服色と下半身衣服色の抽出は、顔画像の抽出の際に抽出した人物領域において、高さ方向で上半身衣服と下半身衣服に相当する領域(例えば地上からの比率を下半身衣服:上半身衣服:頭部を4:3:1とする、など)から色情報のヒストグラムを作成し、これを上半身衣服色の特徴情報と下半身衣服色の特徴情報として抽出する。
所持品種別の抽出は、所持品の種別(例えば鞄、リュック、傘など)を検出するための識別器により所持品の有無と種別を判定し、判定した有無と種別を所持品種別の特徴情報として抽出する。
所持品色の抽出は、所持品種別の抽出の際に抽出した所持品領域の色情報のヒストグラムを作成し、これを所持品色の特徴情報として抽出する。
身長の抽出は、画像データに含まれる、監視カメラ2の撮影位置、焦点距離、俯角などの撮影パラメータ(監視カメラ情報)を参照し、顔画像の抽出の際に抽出した人物領域の位置や大きさから身長を算出し、これを身長の特徴情報として抽出する。
体型の抽出は、顔画像の抽出の際に抽出した人物領域の高さ方向の長さと幅方向の長さの比率を算出し、これを体型の特徴情報として抽出する。
なお、これらの追跡対象の特徴情報の入力方法としては、監視員が必要に応じて操作部45を操作して、記憶部44に記憶保存された監視カメラ2の画像から人物に当たる部分を指定すると、対象特徴抽出部43aが指定された画像から上述の方法で特徴情報を抽出して追跡対象特徴として記憶部44に記憶させる。また、監視員の指定操作によらず、追跡対象が予め決まっている場合には、その追跡対象の対象特徴を予め記憶部44に記憶させておく。
監視カメラ追跡部43bは、本発明における第1の検出部として、図6の破線で囲まれる後述の監視カメラ追跡処理を実行し、複数の監視カメラ2毎に順次撮影される画像から、対象特徴抽出部43aにて抽出した追跡対象特徴を用いて、所定の追跡対象を検出し、検出した追跡対象を追跡する監視を行う。
監視カメラ追跡処理は、複数の全ての監視カメラ2の画像に対して実行される処理であり、監視カメラ2で撮影した画像から、識別器により画像中の人物領域を抽出し、抽出した人物領域ごとに前述した対象特徴抽出部43aが行う特徴の抽出方法と同様にして複数種類の特徴情報を抽出し、この特徴情報と、対象特徴抽出部43aにて抽出した追跡対象特徴との対比により追跡対象の検出を対象検出処理として行う。
具体的に図3の例で挙げている特徴情報を用いた追跡対象の検出について説明すると、まず、これら複数種類の特徴情報は、個々の特徴情報について追跡対象の検出における信頼性を考慮した重み付け係数が設定されている。例えば、最も高精度な照合が可能な顔画像を最重要特徴情報とし、この顔画像の重み付け係数を一番高く設定し、高精度な照合が難しい身長や体型の重み付け係数は低く設定する、などとすることができる。
そして、特徴情報の種別ごとに、監視カメラ追跡部43bが抽出した特徴情報と対象特徴抽出部43aで抽出した追跡対象特徴とを比較し、類似度を算出する。
次に、複数種類の特徴情報ごとに算出した類似度に対し、上述した重み付け係数を掛け合わせる。そして、特徴情報の種類毎の類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とする。次に、予め記憶部44に記憶された追跡対象と見なせる追跡対象検出閾値(例えば類似度90%など)と全体類似度とを比較し、全体類似度が追跡対象検出閾値を超えていると判定したときに、追跡対象として検出する。
また、監視カメラ追跡処理では、上述した対象検出処理により追跡対象を検出すると、監視カメラ2が追跡対象を追跡中であるか否かを示す追跡フラグをONにする。この追跡フラグは、監視カメラ2ごとに対応付けられて記憶部44に記憶されている。なお、このときの画像は、表示制御部43jの制御により表示部46に表示される。
さらに、監視カメラ追跡処理では、対象追跡処理として、所定のフレーム周期で所定時間おきに送信される監視カメラ2からの画像データにおいて、上述した対象検出処理で検出した追跡対象を追跡する処理を行う。この追跡処理は公知の手法を用いればよいが、例えば、現在の画像と1フレーム前の画像とのフレーム間差分をとることで画像中における変化領域を抽出し、対象検出処理で検出した追跡対象の位置に相当する変化領域を特定する。そして、次に新たな画像データを取得した際も同様にフレーム間差分を行って変化領域を抽出し、この抽出した変化領域が、前回追跡対象に相当する変化領域として特定した変化領域と、その位置、大きさ、形状などの点において同一の物体とみなせるかを判定し、同一とみなせる場合には、その変化領域を今回追跡対象に相当する変化領域として特定する。これらの処理を新たな画像データを取得する度に繰り返すことで、監視カメラ2の画像中において追跡対象を追跡してゆくことができる。なお、この対象追跡処理においても、上述した対象検出処理で行っているような特徴情報をさらに用いて追跡対象を追跡してもよい。
そして、上述した対象追跡処理により、追跡対象が監視カメラ2の撮影可能範囲外に移動したか否かを判別し、追跡対象が監視カメラ2の撮影可能範囲外に移動して撮影可能範囲から逸脱したと判定すると、その監視カメラ2の追跡フラグをOFFにする。
さらに、監視カメラ追跡処理では、追跡対象を検出するための追跡対象検出閾値を緩く変更するための制御信号の入力を後述の連携処理部43iから受けると、その制御信号に応じて追跡対象検出閾値を緩く(例えば類似度70%など)する。
逸脱判定部43cは、上述した監視カメラ追跡処理にて制御される追跡フラグを、記憶部44を参照して監視する。逸脱判定部43cは、各監視カメラ2の追跡フラグが全てOFFになるか否かを判定することで、複数の全ての監視カメラ2において追跡対象が撮影可能範囲から逸脱したか否かを判定している。また、逸脱判定部43cは、追跡フラグがONとなっていた監視カメラ2のうち最後にOFFに変化した監視カメラ2を、最後に追跡対象を検出した監視カメラとして特定する。
許容時間設定部43dは、逸脱判定部43cが撮影可能範囲からの逸脱を判定すると、最後に追跡対象を検出した監視カメラ2の所定範囲(例えば100m)内の他の監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から抽出している。そして、許容時間設定部43dは、最後に追跡対象を検出した監視カメラ2から他の監視カメラ2まで追跡対象が移動するのに要する予想移動時間をそれぞれ算出し、この算出した予想移動時間のうち最長の予想移動時間に猶予時間を加えた許容時間を設定する。なお、予想移動時間の算出は、例えば、追跡対象が人である場合には、人の一般的な移動速度と、最後に追跡対象を検出した監視カメラ2から他の監視カメラ2までの距離とから算出することができる。また、猶予時間は、監視ポリシーに応じて適時定められた時間である。
なお、他の監視カメラ2を抽出する際の所定範囲は、最後に追跡対象を検出した監視カメラ2の位置から所定距離を半径とする円を描いた領域を所定範囲としてもよい。また、追跡対象が例えば車両の場合は車両の通行が可能な領域(道路や駐車場など)を後述する監視空間情報に基づいて特定して所定範囲とし、この所定範囲を撮影可能範囲に含む監視カメラ2を抽出するなどとしてもよい。さらには、監視カメラ情報に記憶されている全ての監視カメラ2を抽出してもよい。
追跡不能判定部43eは、監視カメラ追跡部43bによる追跡対象の追跡が不能になったか否かを判定する。さらに説明すると、追跡不能判定部43eは、逸脱判定部43cが撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間設定部43dで設定された許容時間を経過するまでに、どの監視カメラ2でも追跡対象を検出していなければ、追跡対象の追跡ができない、つまり複数の監視カメラ2に追跡対象の追跡を委ねるべきではないとして、追跡対象を追跡不能と判定し、追跡不能判定信号を出力する。
予測エリア推定部43fは、追跡不能判定部43eが追跡不能判定信号を出力したときに、最後に追跡対象を検出した監視カメラ2の位置から、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定する予測エリア推定処理を実行する。
さらに説明すると、予測エリア推定処理では、最初に追跡対象の移動範囲を算出する。具体的には、監視カメラ2が最後に追跡対象を検出した位置が図4(a)の×印で示す位置Pあったとする。この場合、×印の位置Pを基準として、追跡対象が最大移動できる移動範囲を追跡対象の移動速度と経過時間とを掛け合わせた値から算出すると、図4(a)における斜線部分が移動範囲E0となる。次に、算出した移動範囲E0内で追跡対象を検出していない監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から抽出する。図4(b)の例では、カメラのアイコンで示された5つの監視カメラ2a,2b,2c,2d,2eが抽出される。次に、抽出した各監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5を、記憶部44に記憶された監視カメラ情報の撮影範囲から読み出す。図4(b)の例では、カメラのアイコンで示された5つの監視カメラ2a,2b,2c,2d,2eから引き出された斜線部分が各監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5となる。そして、追跡対象の移動方向(図4(c)の矢印m方向)を加味して、図4(a)の追跡対象の移動範囲E0と、図4(b)の監視カメラ2a,2b,2c,2d,2eの撮影範囲E1,E2,E3,E4,E5と、後述する追跡対象が移動することができない移動不可能領域とから追跡対象の移動不能領域E10を特定する。図4(c)の例では、斜線部分が追跡対象の移動不能領域E10となる。そして、図4(a)の追跡対象の移動範囲E0と図4(c)の追跡対象の移動不能領域E10とを重ね合わせて重複しない部分を予測エリアE11として推定する。図4(d)の例では、斜線部分が予測エリアE11となる。
尚、上述した監視カメラ追跡部43bによる対象検出処理を追跡機能がONしている間、常時行っている。また、予測エリア推定部43fは、上述した予測エリア推定処理を監視カメラ追跡部43bにて追跡対象を検出するまで継続して実行する。このため、予測エリア推定処理を実行している場合にはどの監視カメラ2でも追跡対象を検出していないことになる。従って、移動範囲内にある監視カメラ2を抽出し、その撮影範囲を含む移動不能領域E10を移動範囲E0から除外して予測エリアE11とすることが、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定することとなる。
飛行装置制御部43gは、飛行装置3が移動型飛行装置の場合、追跡不能判定部43eが追跡不能判定信号を出力したときに、予測エリア推定部43fが推定した予測エリアを含んで撮影できる目標位置まで移動型飛行装置を移動制御するための飛行指示の制御信号を出力する。
尚、目標位置は、予測エリア推定部43fが推定した予測エリアの外接矩形領域の外側に所定幅の余裕を持たせた領域の重心における所定高度に設定される。
また、飛行装置制御部43gは、予測エリア推定部43fが予測エリアの推定を繰り返し実行したときに、その実行の結果に応じて目標位置を再設定し、この再設定された目標位置まで飛行装置3を移動制御するための飛行指示の制御信号を出力する。
さらに、飛行装置制御部43gは、飛行装置3が複数の係留型飛行装置の場合、追跡不能判定部43eが追跡不能判定信号を出力したときに、予測エリア推定部43fが推定した予測エリアを撮影可能な係留型飛行装置を選択し、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置の飛行状態を制御するための制御信号を出力する。
飛行装置制御部43gは、推定された予測エリアを撮影可能な係留型飛行装置が無いと判定しても、その後に推定された予測エリアにおいて撮影可能な係留型飛行装置を検出すれば、その検出した係留型飛行装置を選択し、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置の飛行状態を制御するための制御信号を出力する。
対象候補検出部43hは、本発明における第2の検出部として、追跡不能判定部43eが追跡不能判定信号を出力した場合に、飛行装置3のカメラ部31にて撮影された画像から追跡対象の候補を検出する対象候補検出処理を実行する。
対象候補検出処理では、飛行装置3のカメラ部31より取得した画像データの画像から特徴検索を行っている。特徴検索は、前述した監視カメラ2の対象検出処理の判定基準よりも緩い判定基準による特徴情報を用いた類似度の算出により、追跡対象の候補を検索している。
特徴検索では、監視カメラ2の対象検出処理の判定基準で用いる特徴情報より少なく、その複数種類の特徴情報の一部を用いる判定基準となっている。具体的には、図3に×印で示すように、追跡対象が人物の場合、監視カメラ2の対象検出処理の判定基準で用いられる顔画像、年齢、性別、身長、体型の特徴情報(特定の特徴情報)を用いず、○印で示す髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色に限定した特徴情報が用いられる。つまり、追跡対象の略鉛直面上の領域に関する特徴情報である顔画像とこの顔画像に基づいて抽出される年齢と性別、及び、追跡対象の略鉛直方向の長さに関する特徴情報である身長と略鉛直方向の長さを用いて算出される体型を除いている。
これにより、特徴検索においては、追跡対象を略鉛直方向から撮影した場合よりも略水平方向から撮影した場合に画像上に顕著に現れる特定の特徴情報を除いて追跡対象を検出するという判定基準とすることで、監視カメラ2の対象検出処理の判定基準と異ならせている。本実施の形態においては、その異ならせ方を、特徴検索で用いる判定基準を監視カメラ2の対象検出処理の判定基準よりも緩い判定基準としている。
そして、前述した対象検出処理と同様の手法により、これら特徴情報毎に算出した追跡対象特徴との類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とし、この全体類似度が予め記憶部44に記憶された追跡対象の候補と見なせる候補検出閾値(例えば類似度50%など)を超えていると判定したときに、追跡対象の候補として検出する。尚、上空から撮影した飛行装置3からの画像では追跡対象の特定がしづらいため、候補検出閾値が追跡対象閾値よりも低く設定された判定基準としている。これにより、特徴検索においては、監視カメラ2の対象検出処理の判定基準と異ならせた判定基準、具体的には監視カメラ2の対象検出処理の判定基準よりも緩い判定基準としている。
連携処理部43iは、後述する図13の連携処理を実行し、対象候補検出部43hが追跡対象の候補を検出したときに、飛行装置3の画像内に設置されている監視カメラ2を特定し、この特定した監視カメラ2の撮影可能範囲を記憶部44に記憶された監視カメラ情報から読み出す。そして、全ての追跡対象の候補について、追跡対象の候補の位置が監視カメラ2の撮影可能範囲内にある全ての監視カメラ2を特定し、特定した監視カメラ2に撮影指示の制御信号を通信部41に出力したり、特定した監視カメラ2が撮影した画像について監視カメラ追跡部43bによる追跡対象検出閾値を緩く設定するための制御信号を監視カメラ追跡部43bに出力する。これらの制御信号の出力によって、この出力を受けた各部が制御信号に応じた変更処理を実行することで、対象候補検出部43hが追跡対象を監視カメラ2にて取得した画像にて監視カメラ追跡部43bが検出するための変更処理の実行を実現している。
図5は追跡対象の追跡を飛行装置3から監視カメラ2に連携するときに、上述した制御信号によって制御される監視カメラ2の動作の一例を示している。図5の×印で示す位置に追跡対象の候補がいる場合、この追跡対象の候補の撮影が可能な監視カメラ2fを制御対象として特定し、この制御対象の監視カメラ2fに撮影指示の制御信号を出力する。この制御信号は通信部41を介して監視カメラ2fへ送信され、監視カメラ2fは、撮影指示の制御信号を受信すると、現在の撮影範囲E6から追跡対象の候補が撮影できる撮影範囲E6’に変更するため、制御信号の撮影指示に従って撮像部21aのズーム位置と方向制御部21bによる水平方向及び垂直方向の角度を制御する。
表示制御部43jは、表示部46の表示を制御している。具体的には、後述する追跡対象の追跡機能を実行したときに、予測エリア推定部43fが推定した予測エリアを表示部46に表示している。予測エリアは、飛行装置3のカメラ部31が撮影した画像に重畳表示(例えば飛行装置3からの画像に予測エリアを半透明で重ね合わせて表示)することもできる。尚、表示制御部43jは、通常の監視状態において、監視カメラ2や飛行装置3から所定時間おきに送信される画像データに含まれる最新の画像を表示部46に表示し、監視員がモニタできるようになっている。
記憶部44は、後述する追跡対象の追跡機能を実行するために必要な各種情報として、追跡対象特徴、追跡フラグ、経過時間、追跡用情報、監視カメラ情報、飛行装置情報、監視空間情報、画像データなどを記憶している。
上記各種情報について説明すると、追跡対象特徴は、対象特徴抽出部43aにて抽出した追跡対象の特徴情報を示す情報である。例えば追跡対象が人物の場合、顔画像、年齢、性別、髪色、上半身服装色、下半身服装色、所持品種別、所持品色、身長、体型、移動方向などが対象特徴となる。
追跡フラグは、監視カメラ2において追跡対象を追跡中か否かを示すものであり、監視カメラ2ごとに記憶されている。追跡フラグは、追跡中であればON、追跡中でなければOFFとなる。
経過時間は、複数の監視カメラ2の追跡フラグが全てOFFとなった時から経過した時間を示す情報である。
追跡用情報は、同一の監視カメラ2において追跡対象を追跡するための情報であり、追跡対象の画像内における位置、大きさ、形状などの情報である。
監視カメラ情報は、各監視カメラ2に関する情報であって、各監視カメラ2の位置情報(撮影位置:緯度、経度、高さ)、撮影方向(水平角度と垂直角度)、現在撮影している撮影範囲、焦点距離、パンチルトズームすることで撮影することが可能な撮影可能範囲などの情報が含まれる。
なお、移動可能な監視カメラ2においては、位置情報、撮影方向、撮影範囲、焦点距離、撮影可能範囲が変化するため、受信する画像データに含まれる情報に基づいて制御部43により逐次更新される。具体的には、位置情報と撮影方向と焦点距離は受信した情報をそのまま更新し、撮影範囲と撮影可能範囲は画像データに含まれる焦点距離、撮影方向及び位置情報、並びに予め記憶したパンチルトズームの変更可能範囲に基づいて算出し、更新する。
また、監視領域の所定箇所に固定して設置される監視カメラ2の位置情報に関する情報は、予め記憶部44に監視カメラ情報の一部として記憶しておくことができる。このような監視カメラ2のうち、パンチルトズーム可能な監視カメラ2については、撮影方向、撮影範囲、焦点距離、撮影可能範囲が変化するため、受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。なお、パンチルトズーム不可能な監視カメラ2については撮影範囲と撮影可能範囲は同じであるため同一の情報として記憶される。
飛行装置情報は、飛行装置3に関する情報であって、飛行装置3の位置情報(飛行位置又は撮影位置:緯度、経度、高さ)、カメラ部31の撮影方向(水平角度と垂直角度)、現在撮影している撮影範囲、焦点距離、パンチルトズームすることで撮影することが可能な撮影可能範囲などの情報が含まれ、動的に変化するものは飛行装置3から受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。
監視空間情報は、監視空間に関する情報であり、例えば地形、建物、道路など形状が所定の座標系で表された3次元情報、監視対象とする監視領域、及び、例えば建物や壁などの人物が存在し得ない領域である移動不可能領域などの情報である。
画像データは、各監視カメラ2や飛行装置3から所定のフレーム周期で所定時間おきに送信されるデータであり、監視カメラ2ごと飛行装置3ごとに記憶部44に逐次蓄積される。
尚、記憶部44には、上述した情報の他に、類似度の算出に用いられる重み付け係数、検出閾値(追跡対象検出閾値、候補検出閾値)も記憶されている。
操作部45は、例えばマウス、キーボード、表示部46の表示画面上のソフトキーなどで構成される。操作部45は、後述する追跡対象の追跡機能の実行や終了、追跡対象の特徴情報を記憶部44に予め記憶させる操作、記憶部44に記憶保存された画像データから追跡対象の指定、各監視カメラ2や飛行装置3への指示、画像データの削除などを行う際に監視員によって操作される。
表示部46は、例えば液晶表示器などで構成される。表示部46は、表示制御部43jの制御により、複数の監視カメラ2や飛行装置3から取得した画像データの表示、予測エリアの表示、飛行装置3のカメラ部31が撮影した画像への予測エリアの重畳表示(例えば飛行装置3からの画像に予測エリアを半透明で重ね合わせて表示)などを行っている。
(追跡機能について)
次に、上記のように構成される監視システム1の動作として、監視領域内を移動する追跡対象を追跡して監視する場合の追跡機能について図6〜13のフローチャートを参照しながら説明する。ここでは、複数の監視カメラ2が少なくともパンチルトズームカメラで構成されるものを含み、飛行装置3が移動型飛行装置であるものとしている。
まず、追跡機能のメインフローについて図6及び図7を用いて説明する。監視員がセンタ装置4の操作部45を操作し、追跡機能の処理を開始する指示がなされて追跡機能がONすることにより本フローチャートが開始される(ST1)。なお、この追跡機能は監視員が操作部45にて追跡機能をOFFする終了操作を行うことで処理を終了する。ST1の次に、対象特徴抽出部43aは対象特徴抽出処理を実行する(ST2)。
対象特徴抽出処理では、追跡対象を特定するための特徴を追跡対象特徴として抽出する。対象特徴抽出処理が終了すると、監視カメラ追跡部43bは、監視領域における複数の全ての監視カメラ2から送信される画像データの画像に対し、監視カメラ追跡処理(ST3〜ST11)を実行する。
監視カメラ追跡処理では、連携処理部43iから追跡対象検出閾値を緩く設定する制御信号の入力を受けたかを判別する(ST3)。制御信号の入力を判定すると、追跡対象検出閾値を緩く設定する(ST4)。この制御信号の入力判別が終了すると、対象検出処理に移行する(ST5)。なお、監視カメラ追跡処理では、追跡対象検出閾値を緩くした場合、追跡機能がOFFされると元の追跡対象検出閾値に戻す処理を行う。
対象検出処理では、複数の監視カメラ2から送信される画像データの画像に対し、ST2において抽出した複数種類の追跡対象特徴を用いて追跡対象を検出する。
対象検出処理が終了すると、追跡対象を検出したか否かを判別する(ST6)。追跡対象を検出したと判定すると、追跡フラグをONし(ST7)、表示制御部43jはそのときの監視カメラ2の画像をセンタ装置4の表示部46に表示する(ST8)。そして、対象検出処理によって検出した追跡対象を追跡する対象追跡処理を実行する(ST9)。
対象追跡処理では、所定のフレーム周期で所定時間おきに送信される監視カメラ2からフレーム間差分により変化領域を抽出し、ST5の対象検出処理で検出した追跡対象に相当する変化領域の位置、大きさ、形状を加味して同一の移動物体による変化領域をフレーム間にわたり対応付けてゆくことで追跡対象を追跡する。
上述した監視カメラ追跡処理(ST3〜ST11)により、監視カメラ2ごとに、順次取得する画像データについて追跡対象の追跡処理が行われ、この追跡処理の結果に応じて追跡フラグがON又はOFFに制御されることによって、各監視カメラ2において追跡対象を追跡中であるのか否かを監視している。
一方、対象特徴抽出処理が終了した場合、上述した監視カメラ追跡処理に並行した処理が開始される。まず、逸脱判定部43cは、複数の監視カメラ2の全ての追跡フラグがOFFか否かを判別する逸脱判定処理を実行する(ST12)。具体的には、全ての追跡フラグがOFFであると判定することで、全ての監視カメラ2において追跡対象を追跡していない状態になったか否かを判定する。逸脱判定処理において全ての追跡フラグがOFFであると判定すると、経過時間の計測を開始し(ST13)、監視カメラ追跡不能判定処理(ST14〜ST17)に移行する。
監視カメラ追跡不能判定処理では、まず、監視カメラ追跡処理(ST3〜ST11)による追跡が不能か否かを判定するための許容時間を設定する許容時間設定処理を許容時間設定部43dが実行する(ST14)。
許容時間が設定されると、追跡不能判定部43eが、この許容時間とST13にて計時開始している経過時間とを比較して監視カメラ追跡処理による追跡は不能であるか否かを判定する追跡不能判定処理を実行する(ST15)。
追跡不能判定処理が終了すると、追跡不能判定処理において監視カメラ2での追跡対象の追跡が不能と判定したか否かを判別する(ST16)。監視カメラ2での追跡対象の追跡が不能と判定していないと判別すると、監視カメラ2の追跡フラグがONか否かを判別する(ST17)。そして、追跡フラグがONであると判定すると、経過時間をクリアし(ST18)、ST12の全ての追跡フラグがOFFか否かの判別に戻る。この状態では、複数の監視カメラ2の何れかが追跡対象の再追跡を行っていることになる。また、追跡フラグがONでないと判定すると、ST15の追跡不能判定処理に戻る。これに対し、ST16にて監視カメラ2での追跡対象の追跡が不能であると判定すると、図7の予測エリア推定処理に移行する(ST19)。
このように、監視カメラ追跡不能判定処理(ST14〜ST17)は、全ての監視カメラ2によって追跡対象を追跡していない状態になってから(ST12−Yes)、追跡対象を再追跡するまで(ST17−Yes)、処理が繰り返されて、監視カメラ2による追跡対象の追跡が不能か否かを判断する。
予測エリア推定処理では、予測エリア推定部43fが予測エリアを推定する。予測エリア推定処理が終了すると、表示制御部43jは、推定した予測エリアをセンタ装置4の表示部46に表示する(ST20)。推定した予測エリアの表示が終了すると、飛行装置対処処理(ST21〜ST26)に移行する。
飛行装置対処処理では、まず、飛行装置制御部43gが、ST19にて推定した予測エリアを飛行装置3にて撮影できる目標位置に飛行装置3を移動させる制御としての飛行装置制御処理を実行する(ST21)。
そして、飛行装置対処処理において飛行装置3が目標位置に到着したか否かを判別する(ST22)。飛行装置3が目標位置に到着していないと判定すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行する。さらに、飛行装置3が目標位置に到着したと判定すると、対象候補検出処理に移行する。
対象候補検出処理では、対象候補検出部43hが、飛行装置3にて撮影される画像に対し、限定された複数種類の特徴情報を判定基準として追跡対象の候補を検出する。
次に、上述した対象候補検出処理により追跡対象の候補を検出したか否かを判別する(ST25)。追跡対象の候補を検出したと判定すると、この検出した候補について複数の監視カメラ2や監視カメラ追跡部43bと連携させるための連携処理に移行する(ST26)。追跡対象の候補を検出していないと判定すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別処理に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行し、この推定処理の結果に応じて再び飛行装置対処処理を実行する。
連携処理では、連携処理部43iが、監視カメラ2や監視カメラ追跡部43bに連携のための制御信号を出力する(ST26)。
連携処理が終了すると、監視カメラ2の追跡フラグがONか否かを判別する(ST23)。そして、監視カメラ2の追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。また、監視カメラ2の追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行し、この推定処理の結果に応じて再び飛行装置対処処理を実行する。
上述した予測エリア推定処理及び飛行装置対処処理は、全ての監視カメラ2による追跡が不能と判定してから(ST16−Yes)、監視カメラ2にて追跡対象を再追跡するまで(ST23−Yes)、処理が繰り返されて、飛行装置3による対処が継続されることになる。
尚、上述した追跡機能においてST20において予測エリアを表示した後、その次のST21の飛行装置制御処理に移行する処理は、飛行装置対処処理を実行するか否かを表示部46に表示し、監視員が操作部45にて許可操作がなされたときにST21に移行するようにしてもよい。
次に、図6及び図7のメインフローで詳細に説明しなかった処理フローについて説明する。
まず、図8を参照して、図6のST14で許容時間設定部43dが実行する許容時間設定処理について説明する。許容時間設定部43dは、最後に追跡対象を検出した監視カメラ2の周辺、つまり抽出した監視カメラ2の位置から所定範囲内の監視カメラ2を抽出する(ST31)。続いて、抽出した監視カメラ2毎に予想移動時間を算出する(ST32)。次に、抽出した全ての監視カメラ2の予想移動時間を算出したか否かを判別する(ST33)。抽出した全ての監視カメラの予想移動時間を算出したと判定すると、算出した予想移動時間の中から最長の予想移動時間を選択する(ST34)。そして、選択した最長の予想移動時間に余裕を持たせるための猶予時間を加えた許容時間を設定し(ST35)、処理を終了する。尚、許容時間に余裕を持たせない場合は、選択した最長の予想移動時間そのものが許容時間となる。
図9を参照して、図6のST15で追跡不能判定部43eが実行する追跡不能判定処理について説明する。追跡不能判定部43eは、経過時間が許容時間以上であるか否かを判別する(ST41)。経過時間が許容時間以上であると判定すると、監視カメラ2での追跡対象の追跡が不可能であり、追跡不能と判定し(ST42)、処理を終了する。経過時間が許容時間以上ではないと判定すると、追跡不能とは判定せずに処理を終了する。
図10を参照して、図7のST19で予測エリア推定部43fが実行する予測エリア推定処理について説明する。予測エリア推定処理では、最後に追跡対象を検出した監視カメラ2の検出位置を基準として、追跡対象が最大移動できる移動範囲を算出する(ST51)。次に、算出した移動範囲内の監視カメラ2を抽出する(ST52)。そして、抽出した各監視カメラ2の撮影範囲を記憶部44に記憶された監視カメラ情報から読み出す(ST53)。続いて、追跡対象の移動範囲と各監視カメラ2の撮影範囲などから追跡対象が移動不可能な移動不能領域を特定する(ST54)。そして、この特定した移動不能領域と追跡対象の移動範囲とを重ね合わせて重複しない領域を予測エリアとして推定し(ST55)、処理を終了する。
図11を参照して、図7のST21で飛行装置制御部43gが実行する飛行装置制御処理について説明する。飛行装置制御部43gは、飛行装置3を移動させる目標位置を決定する(ST61)。次に、飛行装置3を目標位置まで移動制御するため、センタ装置4から飛行指示による制御信号を飛行装置3に送信する(ST62)。そして、センタ装置4は、制御信号の飛行指示に従って移動制御される飛行装置3から位置情報を取得し(ST63)、飛行装置3が目標位置に到着したか否かを判別する(ST64)。飛行装置3が目標位置に到着すれば、飛行装置3が目標位置に到着と判定し(ST65)、処理を終了する。なお、ST64の飛行装置着の判定は、ST62にて移動指示を行ってから所定時間(例えば3分)後に実行される。
図12を参照して、図7のST24で対象候補検出部43hが実行する対象候補検出処理について説明する。対象候補検出部43hは、飛行装置3からの画像データを取得し(ST71)、取得した画像から特徴検索を行うことで限定された複数種類の特徴情報を判定基準として用いて追跡対象の候補を検出する(ST72)。そして、この特徴検索において追跡対象の候補を検出したか否かを判定する(ST73)。候補を検出した場合には、対象候補検出と判定し(ST74)、候補を検出していない場合にはST74の判定をせずに処理を終了する。
図13を参照して、図7のST26で連携処理部43iが実行する連携処理について説明する。連携処理部43iは、飛行装置3から取得した画像データの画像内にある監視カメラ2を、記憶部44に記憶された監視カメラ情報の位置情報から特定する(ST81)。そして、特定した監視カメラ2の撮影可能範囲を、記憶部44に記憶された監視カメラ情報から読み出す(ST82)。次に、追跡対象の候補の位置(対象候補位置)が特定した監視カメラ2の撮影可能範囲内にあるか否かを判別する(ST83)。対象候補位置が特定した監視カメラ2の撮影可能範囲内にあると判定すると、その監視カメラ2を制御対象の監視カメラ2として特定する(ST84)。そして、全ての特定した監視カメラ2を処理したか否かを判別する(ST85)。全ての特定した監視カメラ2を処理したと判定すると、追跡対象の全ての候補について処理したか否かを判別する(ST86)。追跡対象の全ての候補について処理したと判定すると、制御対象(監視カメラ2や監視カメラ追跡部43b)に制御信号を出力し(ST87)、処理を終了する。
尚、全ての特定した監視カメラ2を処理していないと判定したときや、追跡対象の全ての候補について処理していないと判定したときは、ST83の対象候補位置が撮影可能範囲内にあるか否かの判別に戻る。
ところで、上述した追跡機能における飛行装置対処処理は、飛行装置3が移動型飛行装置であるものとして説明したが、飛行装置3が係留型飛行装置である場合には、図11の飛行装置制御処理に変わり、以下の処理が実行される。追跡不能判定部43eが追跡不能判定信号を出力すると、飛行装置制御部43gが推定した予測エリアを撮影可能な係留型飛行装置を選択する。そして、選択した係留型飛行装置が予測エリアを撮影するように係留型飛行装置に制御信号を出力する。これにより、係留型飛行装置は、予測エリアを含んで撮影できるように、センタ装置4から受信した制御信号により、飛行制御部36aが推進部32や方向舵33を制御するとともに、カメラ制御部36bがカメラ部31の焦点距離や水平方向及び垂直方向の角度を制御する。そして、この制御信号により係留型飛行装置の制御がなされると、ST24の対象候補検出処理に移行する。
また、複数の係留型飛行装置の中に予測エリアを撮影可能な係留型飛行装置が無い場合は、ST23の追跡フラグがONか否かの判別に移行する。そして、追跡フラグがONであると判定すると、複数の監視カメラ2の中の少なくとも1つの監視カメラ2が追跡対象を追跡中なので、ST12の全ての追跡フラグがOFFか否かの判別に戻る。追跡フラグがONではないと判定すると、ST19の予測エリア推定処理に戻り、予測エリア推定部43fによる予測エリアの推定処理を継続して実行する。そして、推定した予測エリアを撮影可能な係留型飛行装置が見つかると、その係留型飛行装置を選択し、予測エリアを撮影できるように係留型飛行装置に制御信号を出力し、この制御信号により係留型飛行装置の推進部32や方向舵33、カメラ部31の焦点距離や水平方向及び垂直方向の角度を制御する。
また、上述した追跡機能における許容時間設定処理の別態様として、次のようにすることもできる。図8を用いて説明すると、ST32の処理に替えて、最後に追跡対象を検出した監視カメラ2からST31にて抽出した他の監視カメラ2まで追跡対象が移動するのに要する予想移動距離をそれぞれ算出する。そして、ST34の処理に替えて、算出した予想移動距離のうち最長の予想移動距離を選択する。そして、ST35の処理に替えて、選択した予想移動距離から予想移動時間を算出し、この予想移動時間に猶予時間を加えた許容時間を設定する。なお、この予想移動時間の算出と猶予時間の加算は許容時間設定部43dの説明において説明した方法と同様にして行うことができる。
また、上述した追跡機能においては、監視カメラ追跡不能判定処理にて追跡不能と判定した場合に飛行装置制御処理、対象候補検出処理、連携処理を行っているが、この場合に限らず飛行装置3が所定の飛行ルートを撮影した画像などについて順次対象候補検出処理を行ってもよい。
また、上述した追跡機能における追跡不能判定処理は、全ての監視カメラ2で追跡対象を追跡することができなくなったときに、経過時間の計時を開始するとともに許容時間を設定し、経過時間が許容時間を超えると追跡不能と判定しているが、その他の方法でもよい。例えば、図6のST12において全ての監視カメラ2で追跡対象を追跡することができなくなったと判定した時点で追跡不能と判定し、図7のST19に進んでもよい。
また、上述した追跡機能においては、飛行装置3のカメラ部31より取得した画像データの画像から特徴検索において、監視カメラ2の対象検出処理の判定基準よりも緩い判定基準とすることを、使用する特徴情報の種類を限定することと、検出閾値を低くすることの両方で実現したが、いずれか一方で実現することとしてもよし、重み付けの設定等その他の手法で実現してもよい。
以上説明したように、上述した実施の形態による監視システム1によれば、以下に示すような効果を奏する。
センタ装置4は、複数の監視カメラ2に関する位置情報と撮影可能範囲とを記憶部44に記憶させておき、監視カメラ2ごとに撮影される画像から所定の追跡対象(例えば人物、車両など)を監視カメラ追跡部43bが検出して追跡する。すなわち、通常は、所定の撮影範囲で地上から撮影した複数の監視カメラ2からの画像データに基づいて追跡対象を検出して追跡を行っている。そして、逸脱判定部43cは、全ての監視カメラ2において追跡対象が撮影可能範囲から逸脱したか否かを判定する。許容時間設定部43dは、逸脱判定部43cが撮影可能範囲からの逸脱を判定すると、逸脱を判定した監視カメラ2の周辺に設置されている他の監視カメラ2を位置情報から抽出し、逸脱を判定した監視カメラ2から他の監視カメラ2まで追跡対象が移動するのに要する予想移動時間をそれぞれ算出し、この算出した予想移動時間のうち最長の予想移動時間から許容時間を設定する。追跡不能判定部43eは、撮影可能範囲からの逸脱を判定したときからの経過時間が許容時間を経過しても、複数の監視カメラ2のいずれにおいても追跡対象を検出していないときに追跡不能と判定して、その旨を出力する。
すなわち、全ての監視カメラ2にて追跡対象を検出できなくなると、この監視カメラ2から所定範囲内(例えば100m以内)の他の監視カメラ2を抽出し、抽出した監視カメラ2にて追跡対象を検出できるようになるまでに要する追跡対象の予想移動時間をそれぞれ算出し、算出した予想移動時間の中で最長の予想移動時間を含む許容時間を超えても何れの監視カメラ2でも追跡対象を検出できないときに、その旨を出力している。かかる構成により、監視員は、複数の監視カメラ2の画像を常時確認しなくても、監視カメラ2だけで追跡対象を再度発見することが困難となった状況を適切なタイミングで把握することができる。そして、全ての監視カメラ2で追跡対象の追跡が困難になったときの出力を、例えば表示出力や音声出力の報知信号として利用すれば、その旨を監視員に知らせることができる。
センタ装置4の予測エリア推定部42eは、追跡不能判定部43eから追跡対象を追跡不能と判定した旨の出力がなされたときに、最後に追跡対象(例えば不審者や不審車両など)を検出した監視カメラ2の位置から、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して追跡対象が存在する予測エリアを推定する。そして、追跡対象を検出しなかった監視カメラ2の撮影可能範囲を除外して推定した追跡対象が存在する予測エリアを表示部46に表示する。かかる構成により、余計な情報を省いて追跡対象が存在し得る予測エリアを表示させ、監視員に知らせることができる。
センタ装置4の飛行装置制御部43gは、予測エリア推定部42eが推定した予測エリアを含んで撮影できるように、上空から撮影する撮像部31aを有する飛行装置3を制御する。かかる構成により、複数の監視カメラ2で追跡対象の追跡ができなくなったときに、最後に追跡対象を検出した監視カメラ2の位置から予測エリアを推定し、この予測エリアに向けて飛行装置3を制御し、追跡対象が存在する可能性の高い予測エリアを飛行装置3の撮像部31aが上空から撮影することができる。
飛行装置3が移動型飛行装置の場合、センタ装置4の飛行装置制御部43gは、追跡不能判定部43eから追跡不能と判定した旨の出力がなされたときに、移動型飛行装置を予測エリアへ移動制御する。かかる構成により、全ての監視カメラ2で追跡対象の追跡が困難になったときに、移動型飛行装置を速やかに予測エリアに向けて移動制御することができる。
センタ装置4の予測エリア推定部43fは、予測エリアの推定を繰り返し実行する。そして、飛行装置制御部43gは、予測エリア推定部43fが実行する予測エリアの推定の結果に応じて移動型飛行装置を移動制御する目標位置を再設定し、再設定された目標位置に向けて移動型飛行装置を制御する。かかる構成により、繰り返し実行される予測エリアの推定の結果に応じて再設定された目標位置に移動型飛行装置を制御するので、移動型飛行装置を目標位置に向けて確実に制御することができる。
飛行装置3が複数の係留型飛行装置の場合、センタ装置4の飛行装置制御部43gは、追跡不能判定部43eから追跡不能と判定した旨の出力がなされたときに、予測エリアを撮影可能な係留型飛行装置を選択して撮影制御している。かかる構成により、予測エリアを撮影可能な係留型飛行装置を選択して確実に撮影を行うことができる。
飛行装置3として、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無いときは、予測エリア推定部43fによる予測エリアの推定を継続し、予測エリアを撮影可能な係留型飛行装置が見つかったときに、その係留型飛行装置を選択する。かかる構成により、複数の係留型飛行装置の中に予測エリアを撮影可能なものが無ければ予測エリアの推定を継続して行うので、追跡対象が存在し得る予測エリアを推定し、この予測エリアを撮影可能な係留型飛行装置が見つかった時点で、係留型飛行装置が上空から予測エリアの撮影を行うことができる。
センタ装置4の対象候補検出部43hは、監視カメラ追跡部43bによる追跡対象の追跡が不能と判定すると、飛行装置3にて撮影された画像から追跡対象の候補を検出している。そして、連携処理部43iは、対象候補検出部43hにて検出した追跡対象の候補が撮影可能範囲に進入したと判定すると、監視カメラ2又は監視カメラ追跡部43bに制御信号を出力している。例えば監視カメラ2がパンチルトズームカメラで構成される場合には、追跡対象の候補が撮影可能となるように監視カメラ2の焦点距離や水平方向及び垂直方向の角度を制御信号によって制御する。かかる構成により、監視カメラ2と飛行装置3とを連携させて継続的に追跡対象を追跡することができる。
複数の監視カメラ2からの画像を用いて監視領域内を移動する追跡対象を検出する場合には、最も高精度な照合が可能な最重要特徴情報を含んだ複数種類の特徴情報を判定基準として追跡対象を検出している。これに対し、飛行装置3からの画像を用いて予測エリアを含む領域内の追跡対象の候補を検出する場合には、最重要特徴情報を含まない複数種類の特徴情報の一部の特徴情報を判定基準として追跡対象の候補を検出している。かかる構成により、監視カメラ2からの画像では追跡対象を高精度に検出しつつ、飛行装置3からの画像では検出精度の向上に大きく寄与しない特徴情報を使用せず、監視カメラ2からの画像よりも低精度で追跡対象の候補を検出することにより、飛行装置3からの画像を用いた追跡対象の候補の検出に要する処理負荷を軽減することができる。
このように、本実施の形態に係る監視システムによれば、監視カメラ2と飛行装置3とを連携させ、監視領域内を移動する追跡対象(例えば人物、車両など)を効率的に検出して追跡し監視を行うことができる。
以上、本発明に係る監視システムの最良の形態について説明したが、この形態による記述及び図面により本発明が限定されることはない。すなわち、この形態に基づいて当業者等によりなされる他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれることは勿論である。
1 監視システム
2(2a〜2f) 監視カメラ
3 飛行装置
4 センタ装置(追跡処理装置)
21 カメラ部
21a 撮像部
21b 方向制御部
21c 画像データ生成部
22 制御部
23 通信部
31 カメラ部
31a 撮像部
31b 方向制御部
31c 画像データ生成部
32 推進部
33 方向舵
34 測位部
35 姿勢検出部
36 制御部
36a 飛行制御部
36b カメラ制御部
37 無線通信部
41 通信部
42 無線通信部
43 制御部
43a 対象特徴抽出部
43b 監視カメラ追跡部
43c 逸脱判定部
43d 許容時間設定部
43e 追跡不能判定部
43f 予測エリア推定部
43g 飛行装置制御部
43h 対象候補検出部
43i 連携処理部
43j 表示制御部
44 記憶部
45 操作部
46 表示部
E0 追跡対象の移動範囲
E1〜E6 撮影範囲
E6’制御後の撮影範囲
E7 撮影可能範囲
E10 追跡対象の移動不能領域
E11 予測エリア
m 追跡対象の移動方向

Claims (5)

  1. 地上から撮影する複数の監視カメラにて取得した画像と、撮像部を備えた飛行装置にて取得した画像とに基づいて所定の追跡対象を追跡する追跡処理装置であって、
    前記監視カメラにて撮影される画像に基づき第1の判定基準を用いて前記追跡対象を検出する第1の検出部と、
    前記飛行装置にて撮影される画像に基づき前記第1の判定基準と異なる第2の判定基準を用いて前記追跡対象を検出する第2の検出部と、
    を備え、
    前記第1の検出部及び/又は前記第2の検出部の検出結果に基づいて前記追跡対象を追跡することを特徴とする追跡処理装置。
  2. 前記追跡対象を略鉛直方向から撮影した場合よりも略水平方向から撮影した場合に画像上に顕著に現れる特定の特徴情報を含む、前記追跡対象に関する複数種類の特徴情報を記憶する記憶部を備え、
    前記第1の判定基準は、前記複数種類の特徴情報のうち少なくとも前記特定の特徴情報を用いて判定する判定基準であり、
    前記第2の判定基準は、前記複数種類の特徴情報のうち前記特定の特徴情報を除いて判定する判定基準である請求項1記載の追跡処理装置。
  3. 前記第2の検出部で前記追跡対象を検出すると、当該検出した追跡対象を前記監視カメラにて取得した画像にて前記第1の検出部が検出するための変更処理を実行する請求項1又は2に記載の追跡処理装置。
  4. 前記特定の特徴情報は、前記追跡対象の略鉛直面上の領域に関する特徴情報、又は、前記追跡対象の略鉛直方向の長さに関する特徴情報である請求項2又は3に記載の追跡処理装置。
  5. 前記追跡対象は人物であって、前記追跡対象の略鉛直面上の領域に関する特徴情報は前記人物の顔に関する特徴情報であり、前記追跡対象の略鉛直方向の長さに関する特徴情報は前記人物の身長又は体型に関する特徴情報である請求項4に記載の追跡処理装置。
JP2014259394A 2014-12-22 2014-12-22 追跡処理装置 Active JP6482852B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259394A JP6482852B2 (ja) 2014-12-22 2014-12-22 追跡処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259394A JP6482852B2 (ja) 2014-12-22 2014-12-22 追跡処理装置

Publications (2)

Publication Number Publication Date
JP2016119627A true JP2016119627A (ja) 2016-06-30
JP6482852B2 JP6482852B2 (ja) 2019-03-13

Family

ID=56244547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259394A Active JP6482852B2 (ja) 2014-12-22 2014-12-22 追跡処理装置

Country Status (1)

Country Link
JP (1) JP6482852B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018406A (ja) * 2016-07-29 2018-02-01 日本電気株式会社 検出装置、監視システム、検出方法及びプログラム
JP2018125699A (ja) * 2017-01-31 2018-08-09 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2018142907A (ja) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
WO2018211575A1 (ja) * 2017-05-16 2018-11-22 日本電気株式会社 制御装置、監視システムおよび監視方法
WO2019012710A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 解析装置、解析方法及びプログラム
JP2019087936A (ja) * 2017-11-09 2019-06-06 株式会社日立ビルシステム 映像監視システム及び映像監視装置
JP2019197496A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 捜索支援システム、捜索支援装置、及び、捜索支援方法
JP2020009174A (ja) * 2018-07-09 2020-01-16 トヨタ自動車株式会社 車載装置および車両捜索システム
CN111291585A (zh) * 2018-12-06 2020-06-16 杭州海康威视数字技术股份有限公司 一种基于gps的目标跟踪系统、方法、装置及球机
JP2021082348A (ja) * 2021-02-24 2021-05-27 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
CN113438450A (zh) * 2021-06-11 2021-09-24 深圳市大工创新技术有限公司 动态目标跟踪监控方法、监控系统、电子设备及存储介质
JP2021158673A (ja) * 2016-12-22 2021-10-07 日本電気株式会社 追跡支援装置、端末、追跡支援システム、追跡支援方法及びプログラム
WO2022034680A1 (ja) * 2020-08-14 2022-02-17 日本電気株式会社 物体認識装置、物体認識方法、及び、記録媒体
WO2023281897A1 (ja) * 2021-07-05 2023-01-12 株式会社日立製作所 映像監視システム及び映像監視方法
KR102589401B1 (ko) * 2023-04-21 2023-10-17 엔아이소프트 주식회사 객체 인식을 통한 영상 분석 시스템 및 이를 이용한 영상 분석 방법
US11943528B2 (en) 2021-03-30 2024-03-26 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP7542597B2 (ja) 2022-12-27 2024-08-30 株式会社インターネットイニシアティブ 映像合成装置、無人移動体、および映像合成表示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056664A (ja) * 2002-07-23 2004-02-19 Ntt Data Corp 共同撮影システム
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2012078950A (ja) * 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP2014123303A (ja) * 2012-12-21 2014-07-03 Secom Co Ltd 監視システム
JP2014149620A (ja) * 2013-01-31 2014-08-21 Secom Co Ltd 撮影システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056664A (ja) * 2002-07-23 2004-02-19 Ntt Data Corp 共同撮影システム
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2012078950A (ja) * 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP2014123303A (ja) * 2012-12-21 2014-07-03 Secom Co Ltd 監視システム
JP2014149620A (ja) * 2013-01-31 2014-08-21 Secom Co Ltd 撮影システム

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018406A (ja) * 2016-07-29 2018-02-01 日本電気株式会社 検出装置、監視システム、検出方法及びプログラム
JP2021158673A (ja) * 2016-12-22 2021-10-07 日本電気株式会社 追跡支援装置、端末、追跡支援システム、追跡支援方法及びプログラム
JP7211453B2 (ja) 2016-12-22 2023-01-24 日本電気株式会社 追跡支援装置、端末、追跡支援システム、追跡支援方法及びプログラム
US11727775B2 (en) 2016-12-22 2023-08-15 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
JP2018125699A (ja) * 2017-01-31 2018-08-09 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2018142907A (ja) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
EP3627182A4 (en) * 2017-05-16 2020-05-27 Nec Corporation CONTROL DEVICE, MONITORING SYSTEM AND MONITORING METHOD
JPWO2018211575A1 (ja) * 2017-05-16 2020-03-12 日本電気株式会社 制御装置、監視システムおよび監視方法
WO2018211575A1 (ja) * 2017-05-16 2018-11-22 日本電気株式会社 制御装置、監視システムおよび監視方法
JPWO2019012710A1 (ja) * 2017-07-13 2020-03-19 日本電気株式会社 解析装置、解析方法及びプログラム
WO2019012710A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 解析装置、解析方法及びプログラム
US11538258B2 (en) 2017-07-13 2022-12-27 Nec Corporation Analysis apparatus, analysis method, and non-transitory storage medium for deciding the number of occupants detected in a vehicle
JP2019087936A (ja) * 2017-11-09 2019-06-06 株式会社日立ビルシステム 映像監視システム及び映像監視装置
CN110473406A (zh) * 2018-05-11 2019-11-19 丰田自动车株式会社 搜索支援系统、搜索支援装置以及搜索支援方法
JP2019197496A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 捜索支援システム、捜索支援装置、及び、捜索支援方法
US10657660B2 (en) 2018-05-11 2020-05-19 Toyota Jidosha Kabushiki Kaisha Search assist system, search assist apparatus, and search assist method
CN110473406B (zh) * 2018-05-11 2022-02-08 丰田自动车株式会社 搜索支援系统、搜索支援装置以及搜索支援方法
US11080869B2 (en) 2018-05-11 2021-08-03 Toyota Jidosha Kabushiki Kaisha Search assist system, search assist apparatus, and search assist method
JP2020009174A (ja) * 2018-07-09 2020-01-16 トヨタ自動車株式会社 車載装置および車両捜索システム
JP7006527B2 (ja) 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
CN111291585A (zh) * 2018-12-06 2020-06-16 杭州海康威视数字技术股份有限公司 一种基于gps的目标跟踪系统、方法、装置及球机
CN111291585B (zh) * 2018-12-06 2023-12-08 杭州海康威视数字技术股份有限公司 一种基于gps的目标跟踪系统、方法、装置及球机
JP7416261B2 (ja) 2020-08-14 2024-01-17 日本電気株式会社 物体認識装置、物体認識方法、及び、プログラム
WO2022034680A1 (ja) * 2020-08-14 2022-02-17 日本電気株式会社 物体認識装置、物体認識方法、及び、記録媒体
JPWO2022034680A1 (ja) * 2020-08-14 2022-02-17
JP7088343B2 (ja) 2021-02-24 2022-06-21 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
JP2021082348A (ja) * 2021-02-24 2021-05-27 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
US11943528B2 (en) 2021-03-30 2024-03-26 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
CN113438450B (zh) * 2021-06-11 2022-05-17 深圳市大工创新技术有限公司 动态目标跟踪监控方法
CN113438450A (zh) * 2021-06-11 2021-09-24 深圳市大工创新技术有限公司 动态目标跟踪监控方法、监控系统、电子设备及存储介质
WO2023281897A1 (ja) * 2021-07-05 2023-01-12 株式会社日立製作所 映像監視システム及び映像監視方法
JP7564064B2 (ja) 2021-07-05 2024-10-08 株式会社日立製作所 映像監視システム及び映像監視方法
JP7542597B2 (ja) 2022-12-27 2024-08-30 株式会社インターネットイニシアティブ 映像合成装置、無人移動体、および映像合成表示システム
KR102589401B1 (ko) * 2023-04-21 2023-10-17 엔아이소프트 주식회사 객체 인식을 통한 영상 분석 시스템 및 이를 이용한 영상 분석 방법

Also Published As

Publication number Publication date
JP6482852B2 (ja) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6482852B2 (ja) 追跡処理装置
JP6441068B2 (ja) 監視システム
JP6441067B2 (ja) 監視システム
CN110672111B (zh) 车辆行车路径规划方法、装置、系统、介质和设备
KR102623124B1 (ko) 접안 모니터링 장치 및 방법
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6368651B2 (ja) 走行環境認識システム
US20220024549A1 (en) System and method for measuring the distance to an object in water
CN106092123B (zh) 一种视频导航方法及装置
KR101880437B1 (ko) 실제카메라 영상과 가상카메라 영상을 활용하여 넓은 시야각을 제공하는 무인선 관제시스템
CN102589542A (zh) 用于增强导航的方法和系统
CN108734732A (zh) 用于生成车辆环境的占用地图的方法和装置
JP7456536B2 (ja) 移動体追跡システム、移動体追跡方法及びプログラム
US20070286459A1 (en) Auxilliary Navigation System For Use In Urban Areas
JP7194130B2 (ja) 緊急車両をリアルタイムで検出し、緊急車両によって発生すると予想される状況に対処するための走行経路を計画する方法及び装置
JP6482857B2 (ja) 監視システム
CN111754551B (zh) 目标跟踪方法、装置、系统、设备及存储介质
Bloisi et al. Camera based target recognition for maritime awareness
CN113190047B (zh) 一种基于二维平面的无人机群路径识别方法
JPWO2018179404A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP2010140425A (ja) 画像処理システム
JP6482855B2 (ja) 監視システム
KR20220050722A (ko) 영상관제 시스템에서 카메라 영상내 관제 지점의 지도 매핑 방법
JP6482856B2 (ja) 監視システム
KR20230123504A (ko) 항로 표지 식별 장치, 자율 항행 시스템, 항로 표지식별 방법, 및 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6482852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250