JP2006173872A - カメラ制御装置 - Google Patents

カメラ制御装置 Download PDF

Info

Publication number
JP2006173872A
JP2006173872A JP2004361182A JP2004361182A JP2006173872A JP 2006173872 A JP2006173872 A JP 2006173872A JP 2004361182 A JP2004361182 A JP 2004361182A JP 2004361182 A JP2004361182 A JP 2004361182A JP 2006173872 A JP2006173872 A JP 2006173872A
Authority
JP
Japan
Prior art keywords
camera
camera control
sensor
information
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004361182A
Other languages
English (en)
Inventor
Susumu Okada
晋 岡田
Kensuke Marutani
健介 丸谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004361182A priority Critical patent/JP2006173872A/ja
Publication of JP2006173872A publication Critical patent/JP2006173872A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】一定間隔で受信可能な侵入センサのセンサ情報を参照して、センサ位置を撮影できるように監視カメラの撮影方向を自動制御するカメラ制御装置において、センサ情報を受信していない時間にもカメラを制御して、移動する侵入物体を常にフレームアウトさせずに撮影すること。
【解決手段】侵入センサを識別するセンサ識別手段と、センサ情報を記憶する記憶手段と、過去のセンサ情報から侵入物体の位置を予測する予測手段と、予測結果からカメラの撮影方向を算出する回転方向算出手段と、算出した回転方向にカメラの撮影方向を変更する駆動制御手段とを備え、予測手段が過去のセンサ情報を参照して予測する撮影対象位置にカメラが向くようにカメラの回転方向と回転速度を制御することで、移動する侵入物体を自動的に追跡する。
【選択図】図1

Description

本発明は、侵入物体の位置を検出するセンサと監視カメラが連携して、移動する人物などの物体を自動的に追尾する監視システムに関するものである。
近年、パンチルト機能を備えた監視カメラと人体感知センサなどの各種センサを連携させることで、監視者の操作なしに自動的に監視カメラを制御して不審人物や物体を撮影する監視システムが増えてきている。このような従来の監視システムのカメラ制御装置としては、センサ情報を受信すると、受信した位置方向を撮影するようにカメラを制御するものがあった(例えば、特許文献1参照)。
図16は、前記特許文献1に記載された従来のカメラ制御方法を実現するカメラ制御装置を示すものである。図16において、侵入センサ1610−1〜1610−nは、侵入物体1600を感知すると、センサ情報をカメラ制御装置1620に送信する。カメラ制御装置1620は、連携手段1621と、記憶手段1622と、駆動制御手段1623から構成される。連携手段1621はセンサ情報を受信すると、記憶手段1622に記憶された情報として、例えば「センサAからセンサ情報を受信したらカメラAが地点Aを向け」というように、センサ情報とカメラ動作の対応関係を記述した情報を参照して、制御するカメラと制御方法を決定する。
駆動制御手段1623は、連携手段1621が決定したカメラ制御方法に従い、カメラ1650の撮影方向を制御することが可能な駆動装置1640の制御を行う。また、前記のようにカメラを制御した後は、ユーザが操作手段1630を用いてカメラを遠隔制御することで、侵入物体の追尾を行っていた。
また、自動的に監視カメラを制御する方法として、監視カメラ映像に映る人物を検出する人物検出手段を用いて、人物がカメラ映像の中央に位置するように、カメラの撮影方向を制御することで、自動的に不審人物を追跡するものも一般的である。このような前記人物検出手段を備えたカメラ制御装置の構成例を図17に示す。
図17において、カメラ制御装置1710内にある映像取得手段1711が、カメラ1750の映像を取得すると、人物検出手段1712は映像取得手段1711が取得したカメラ映像の中から、人物が存在するか判定を行う。判定の方法としては、映像フレーム間の差分を取得して映像内に動きがあった領域を取得するフレーム間差分・背景差分法や、人の形をしたテンプレートをあらかじめ保持しておいて、映像内に前記テンプレートと類似した形を走査するテンプレートマッチング法、映像を細かい領域ブロックに分割し、過去の領域ブロックが現在どこに移動したかを走査するオプティカルフローといった手法が一般的である。これらの手法は、非特許文献1に詳しい。
これらの手法を単独または組み合わせで用いて人物を検出することで、映像フレーム内に存在する人物の場所を把握する。駆動制御手段1713は、検出した人物が映像フレームの中央に位置するように、カメラ1750の撮影方向を制御し、カメラ1750に設置された駆動手段1740に制御指示を出す。これにより、不審人物を常にカメラ映像内に捉えることが可能である。
特開2002−150441号公報 「画像処理産業応用総覧上巻(基礎・システム技術編)」株式会社フジ・テクノシステム P.608−P.614
前記従来の構成で、カメラを動かす場合のカメラの動作例を、図18に示す。図18(a)では、別の箇所に設置されたセンサ1610−1、1610−2が、時間t−1、t−5(ただしt−5>t−1)のときに、それぞれ同一の移動する侵入物体1600−t−1、1600−t−5を検出し、それぞれをカメラ1650が回転して、t−1における侵入物体1600−t−1を、1650−t−1のように、また、t−5における侵入物体1600−t−5を1650−t−5のように回転して撮影したことを示す。また、図18(a)における時間t−1〜t−5(ただし、t−5>t−4>t−3>t−2>t−1)のときのカメラ1650に映った映像フレームを図18(b)に示す。
この図18(a)、(b)に示すように、従来のカメラ制御装置では、図18における時間t−2、t−3、t−4のようなセンサを受信していない時間、またはセンサが設置されておらず侵入物体を検知することができない空間においては、侵入物体が移動すると、侵入物体がカメラ映像からフレームアウトしてしまい、侵入物体に犯罪行為を行われても犯罪行為の瞬間を映像におさめることができないという課題がある。
今日の監視システムのインフラは、CCTVからIPネットワークに移行しつつあり、このようなネットワークで構築した監視システムにおいては、映像データやカメラ制御信号がネットワークの帯域を占有しているため、センサ情報を細かい間隔で送信することができない。このため、前記従来法でセンサの数を増やしても、カメラ制御装置1620にすべてのセンサ情報をリアルタイムで受信することは難しい。
前記特許文献1の場合のカメラ制御装置は、複数設置されたセンサ1610−1、1610−nのうちどれかが侵入物体を検出したとき、侵入物体の予測を行ったあと、予測結果に従い複数のカメラの動きを、あらかじめ記述した連携情報を参照して、複数のカメラを自動的に制御する方法を備えている。
この方法を用いれば、複数設置されたカメラを侵入物体の移動を待ち受けるように、あらかじめ構えておくことは可能である。しかし、各カメラが侵入物体をフレームアウトさせずに追尾を行うためには、侵入物体の移動方向・速度はさまざまであるため、この移動方向・速度に対応できるように、無限に連携情報を記述する必要がある。これは連携情報の記述の手間が非常にかかることと連携情報の量が膨大になってしまうことから、あまり現実的ではない。
図17に示すような人物検出手段を持ったカメラ制御装置の場合、人物検出手段の検出処理は、検出手法によって異なるが通常数10ミリ秒から1秒程度で終了するので、侵入物体がカメラの映像フレーム外に出る前に、人物検出手段の検出処理が終了するようなズーム倍率であれば、カメラの駆動範囲内で侵入物体が移動する限り連続して侵入物体を映像フレーム内におさめることは可能である。
しかし、前記のような各種手法による人物検出処理は、全体的に複数の人物がカメラ映像上で交差したり重なったりする場合に、人物の分離や各人物の同定が困難であるという問題点があり、同一侵入物体の追跡が失敗して見失う可能性が高いという課題がある。
本発明は、前記従来の課題を解決するもので、侵入物体を常にフレームアウトさせずに、自動的に追跡を行うことが可能なカメラ制御方法を実現することを目的とする。
前記従来の課題を解決するために、本発明のカメラ制御装置は、物体を感知して反応信号を出力する複数のセンサと、前記反応信号から前記物体の感知地点を識別するセンサ識別手段と、前記センサ識別手段が識別した前記物体の感知地点と前記反応信号の発生時刻とからなるセンサ情報を記憶する記憶手段と、前記記憶手段に記憶されたセンサ情報から物体の移動方向、移動速度、位置の少なくとも1つを含む物体予測情報を出力する予測手段と、前記予測手段が出力する物体予測情報から、カメラの回転方向、回転速度、ズーム倍率の少なくとも1つを含むカメラ制御情報を算出するカメラ制御情報算出手段と、前記カメラ制御情報算出手段が算出したカメラ制御情報をカメラ制御命令に変換してカメラを制御する駆動制御手段と、を有し、パンチルト・ズーム機能を持った監視カメラで、間欠的に入力されるセンサ情報から移動する侵入物体の移動方向を予測して、自動追尾を実現することができるという効果を有する。
更に、本発明のカメラ制御装置は、過去の物体予測情報と実際の物体の移動方向、移動速度、位置との少なくともいずれか1つ以上の誤差の値を算出する予測誤差算出手段を更に含みと、前記カメラ制御情報算出手段は、前記予測誤差算出手段が算出する誤差によってカメラ制御情報を変更するものであり、算出された誤差に応じてカメラの制御を調整することで、正確な自動追尾を実現することができるという効果を有する。
更に、本発明のカメラ制御装置は、前記複数のセンサを設置した区域の地形情報を記憶する地形記憶手段を更に含み、前記カメラ制御情報算出手段は、前記地図情報と前記物体予測情報とが一致しない場合は、地図情報を用いてカメラ制御情報を算出するものであり、地図情報を優先してカメラを制御することで、正確な自動追尾を実現することができるという効果を有する。
更に、本発明のカメラ制御装置は、前記センサが、監視領域の映像を取得する映像取得手段と、前記映像取得手段の映像から侵入物体を検出する画像認識手段と、検出した前記侵入物体の映像上の位置から前記映像取得手段を設置した監視区域の実空間座標に変換する実空間座標算出手段と、を備えたものであり、侵入物体の情報を実空間座標で管理することができ、侵入物体の自動追尾を正確に実現することができるという効果を有する。
更に、本発明のカメラ制御装置は、前記カメラ制御情報算出手段が、前記予測誤差を予め定めた値より大きい判定した場合に、前記ズーム制御手段は、前記カメラのズーム倍率を下げて広角で撮影するものであり、侵入物体をフレームアウトすることなく自動追尾することができるという効果を有する。
更に、本発明のカメラ制御装置は、前記カメラ制御情報算出手段が、前記予測誤差を予め定めら値より小さいと判定した場合に、前記ズーム制御手段は、前記カメラのズーム倍率を上げて撮影するものであり、侵入物体を適切な倍率で撮影することで、詳細な撮影をすることができるという効果を有する。
更に、本発明のカメラ制御装置は、前記予測誤差算出手段は、前記センサから入力されるセンサ情報の受信時間が経過するほど、前記予測誤差が大きいと判定するものであり、センサの入力間隔に応じて、正確な自動追尾を実現することができるという効果を有する。
本発明のカメラ制御装置によれば、センサ情報が限られた状態でカメラを自動制御して物体を追尾する際に、追尾対象をカメラ映像からフレームアウトさせずに、滑らかなカメラワークで自動追尾することができる。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1におけるカメラ制御方法を実現するカメラ制御装置を含む、監視システムの構成図である。
図1において、カメラ制御装置120は、上記監視システムで監視している領域に侵入物体100が入ってきたことを感知する侵入センサ110−1〜110−nからセンサ情報を受信して、侵入物体100をカメラ140で撮影できるように、駆動手段130に指示を出す。また、カメラ140で撮影した映像は、モニタ150に表示する。
また、カメラ制御装置120は、あらかじめ侵入センサ110−1〜110−nの設置場所を記憶しておいて、侵入センサ110−1〜110−nから受信したセンサ信号をどの侵入センサが発信した信号かを識別するセンサ識別手段121と、センサ識別手段121が識別した侵入センサの位置とセンサ信号の受信時間をセンサ情報として記憶する記憶手段122と、受信した過去のセンサ情報から侵入物体の現在の位置、移動速度及び移動方向を予測する予測手段123と、予測手段123が予測した結果から常に侵入物体100をカメラ140で撮影するように駆動手段130の回転方向をカメラ制御情報として算出するカメラ制御情報算出手段124と、カメラ制御情報算出手段124が算出したカメラ制御情報にもとづいて、回転方向に駆動手段130を制御する駆動制御手段125を有する。
カメラ制御装置120の各部は以下の動作を行う。なお、センサ110−1〜110−nとカメラ140を使って侵入物体を監視している区域を、以後監視区域という。
センサ識別手段121は、赤外線センサなどを用いた侵入センサ110から、侵入者を発見したというセンサ情報を受信すると、センサ情報から侵入物体が存在する監視区域内の位置を識別し、記憶手段122に侵入物体100の位置情報と、センサ識別手段121がセンサ情報を受信した時間を記憶する。
図2に、記憶手段122に蓄えられるセンサ情報の例を示す。本例では、監視区域内に3次元座標系を設定し、あらかじめセンサ識別手段121で対応付けられた侵入センサと3次元位置情報を記録する。また同時にセンサ識別手段121が侵入センサ110−1〜110−nからセンサ情報を受信した時間をミリ秒単位で記録している。
予測手段123は、記憶手段122に蓄えられた侵入物体100の過去の位置と、その位置にいた時刻を基に、予測開始時点での侵入物体の位置を予測する。
予測手段123が侵入物体100の位置を予測するタイミングは、予測結果に基づいてカメラ140に設置した駆動手段130を動作させることから、カメラ制御装置120が送信するカメラ制御信号に駆動手段130が反応することができる最小の間隔で、一定周期で行うことが望ましいが、例えば、記憶手段122にセンサ情報を書き込んだ直後に、予測を開始するなどとしてもよい。
予測手段123は、まず、記憶手段122に蓄えられた過去の侵入物体100の位置情報と、位置情報に対応する時間とを抽出する。次に、予測手段123は、記憶手段122から出力された1つないし2つ以上の追尾点位置から、侵入物体100の移動方向、移動速度を予測する。
図3に、監視空間を真上から見た場合を示す。予測手段123が予測する侵入物体100の位置が示されている。図3において、予測手段123は、記憶手段122から侵入物体100の過去の位置を、時間aでの位置(x、y)、および時間bでの位置(x、y)を受け取り、未来である時間cにおける侵入物体100の位置(x、y)を予測する。追尾点位置の予測は、過去のN個の位置から多項式による補外や有理関数による補外を用いることで行うことができる。
これらは、「ニューメリカルレシピー・イン・シー」技術評論社、William H.Press,Saul A. Teukolsky, William T. Vetterling, Brian P.Flannery著、丹慶勝市・奥村晴彦・佐藤俊郎・小林誠 訳 P.96(ISBN4―87408―560―1)に詳しい。
カメラ制御情報算出手段124は、予測手段123が算出した予測結果とカメラ140の現在の撮影方向から、侵入物体100を常にカメラ140の映像フレーム内に収めるように駆動手段130の回転方向と回転速度を算出する。
カメラ制御情報算出手段124が回転方向と回転速度を算出する流れを図4と図5を使って説明する。
図4は監視区域を真上から見たときのカメラと侵入物体の位置関係を示す模式図である。401はカメラ、402は侵入物体の現在位置、403は予測手段123によって予測された時間t後の予測位置を表す。
また、図5はカメラ制御情報算出手段124が駆動手段130の回転方向と回転速度を算出する流れを示す図である。
カメラ制御情報算出手段124は、回転方向と回転速度を算出するために、まず制御前にカメラ401が撮影している方向を駆動手段130に問い合わせる(S501)。この問い合わせの結果、ある撮影方向を基準方向(0度)とした、基準方向と撮影方向がなす角度θ−now411が得られる。
次に、予測手段123が予測した、侵入物体の予測位置を撮影する角度を計算する(S502)。あらかじめ設定した監視区域の3次元空間座標上のカメラの設置位置(xcam、ycam)401と、予測結果(xest、yest)403から、侵入物体の予測位置を撮影する角度θest413は、(数1)のようにして求めることが可能である。
Figure 2006173872
カメラ制御情報算出手段124は、θest413が求まったら、予測位置を撮影するために回転する角度θmov412を求める(S503)。θmov412は、(数2)のようにあらわすことができる。
Figure 2006173872
θmov412が求まったら、カメラ制御情報算出手段124は、予測手段123が算出した予測位置に侵入物体100が到達する時間を参照して、回転速度を算出する(S504)。図5の例で、カメラのパン方向に回転する速度をvpanとし、侵入物体が予測位置に到達する時間をtest、回転方向算出手段が算出処理を開始した時間をtnowとすると、vpanは(数3)のように求めることができる。
Figure 2006173872
以上により求められたvpanの正負の符号から、カメラをパン方向に左右どちらかに動かせばよいかわかり、またvpanの大きさ|vpan|が回転速度を示している。
本例においては、図5のように、監視領域を真上からみた模式図を用いてパン方向の回転方向と回転速度を求めたが、同様に、カメラ制御情報算出手段124は、監視領域を真横からみた模式図を用いて、チルト方向の回転する方向および速度を表すvtiltを、vpanと同様にして算出し、チルト方向の回転方向と回転速度を求める。
駆動制御手段125は、カメラ制御情報算出手段124が求めたパンチルトそれぞれの回転方向、回転速度で、駆動手段130を制御するように、駆動手段130に指示を出す。
以上の動作により、カメラ制御装置120は、侵入センサ110から受信したセンサ情報に基づいて、カメラ140に接続された駆動手段130を自動制御する。この方法により駆動手段130を制御し、カメラ140で侵入物体100を追跡する模式図を図6に示す。
図6(a)において、110−aは時間tに侵入物体110を検知した侵入センサ、110−bは時間tに侵入物体110を検知した侵入センサ、100−t〜100−tは、時間t〜tにおける人物の位置、140−t〜140−tは時間t〜tにおけるカメラの撮影方向をそれぞれ表す。ただし、時間t〜tは添字の数字が小さいほど過去の時間とする。
また、図6(b)は、時間t〜tでのカメラ140で撮影された映像を示す。このとき、時間tにおいてカメラ制御装置120が侵入センサ110−aからセンサ情報を受信すると、侵入物体100の過去の位置から、時間t以降の人物の位置を予測し、センサ情報を受け取らない時間t〜tでも、図6(b)に示すように映像内に侵入物体100を捉えることができる。
このように、本実施の形態では、侵入物体の位置情報のようなセンサ情報が常に発信されない、限られた状態でカメラを自動制御して物体を追尾する際に、センサ情報から侵入物体の位置と移動方向・速度を予測することで、追尾対象をカメラ映像からフレームアウトさせずに、滑らかなカメラワークで自動追尾することができる。
なお、本実施の形態におけるカメラ制御装置に接続している侵入センサ110の代わりに、監視カメラと、画像認識技術を使用した侵入物体検知手段と、画像内から検知した人物の実空間座標を求める実空間座標算出手段からなる、画像センサを用いてもかまわない。図7に画像センサの例を示す。
図7において、画像センサ700は、監視カメラ映像を取得する映像取得手段701、画像認識技術により映像取得手段701が取得した映像から映像内の侵入物体の有無を判断する画像認識手段702、画像認識手段702により検出された映像上の侵入物体の位置を前記監視カメラが設置されている空間の実空間座標へ変換する実空間座標算出手段703からなる。
画像センサ700が、センサ情報をカメラ制御装置へ送信する流れを説明する。画像認識手段702は、映像取得手段701が取得した映像データから侵入物体の有無を検出する。検出の方法はフレーム間差分法、背景差分法、テンプレートマッチング法、オプティカルフローといった手法を一般的に用いる。これらの手法は、例えば「画像処理産業応用総覧上巻(基礎・システム技術編)」株式会社フジ・テクノシステム P.608−P.614に詳しい。
画像認識手段702により侵入物体が検出できた場合、実空間座標算出手段703が、監視カメラを設置した空間の実空間座標を算出する。算出の方法は、R.Y.Tsai「A Versatile Camera Calibration Technique for High−Accuracy 3D Machine Vision Metrology Using Off−the−shelf TV Cameras and Lenses」(IEEE JOURNAL OF ROBOTICS AND AUTOMATION,Vol.RA−3、NO.4、AUGUST 1987)に詳しい。
これにより実空間座標が算出完了するたびに、実空間座標算出手段は例えば図2に示すようなセンサ情報を生成してカメラ制御装置に送信する。
以上の流れで、画像センサを侵入センサ110の代わりとして用いることが可能となる。本実施例の場合、検出した侵入物体の位置を実空間座標に変換するので、監視したい領域に複数のカメラを設置し、複数のアングルから侵入物体の検出を行って結果を統合することができる。これにより、あるアングルで侵入物体を撮影すると人物や物体の重なりが発生してしまっても別のアングルの検出結果を参照することで、重なった人物や物体を分離して同定することが可能となる。
(実施の形態2)
実施の形態1では、カメラ制御装置が、侵入物体の移動方向と移動速度を予測し、カメラの映像フレームから侵入物体がフレームアウトしないようにカメラを侵入物体の動きに追従して制御する方法を示した。本実施の形態では、カメラ制御装置120が、予測手段123の予測誤差を算出して、算出結果に基づいてズーム倍率を制御することで、侵入物体をカメラからフレームアウトさせずに制御する方法について説明する。
図8は、本発明の実施の形態2のカメラ制御装置の構成図である。図8において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
図8において、カメラ制御装置120は、図1と同様にセンサ識別手段121と、記憶手段122と、予測手段123と、カメラ制御算出手段124と、駆動制御手段125とを備え、さらにセンサ識別手段121が受信したセンサ情報の受信間隔と現在のセンサ情報の内容、および予測手段が予測した過去の侵入者の予測位置と予測位置に移動する予測時刻から予測手段123の予測誤差を算出する予測誤差算出手段801と、予測誤差算出手段801が算出した予測誤差を記憶する誤差記憶手段802と、誤差記憶手段802に記憶された予測誤差に基づいてカメラ140のズーム倍率を決定するズーム倍率算出手段803と、予測手段123の予測結果に基づいてカメラ140を回転させる方向を決定するカメラ回転算出手段805と、カメラ140のズーム倍率をズーム倍率算出手段803が算出したズーム倍率に制御するズーム制御手段804を有する。ここで、カメラ制御情報算出手段124は、ズーム倍率算出手段803と回転方向算出手段805とから構成される。
センサ識別手段121が、侵入センサ110からセンサ情報を受信して記憶手段122に記憶し、予測手段123が記憶手段122に記憶されたセンサ情報を基に物体の位置を予測し、カメラ制御情報算出手段124が予測結果から物体を映像フレーム内におさめるようにカメラを回転させる方向を算出し、その算出結果から駆動制御手段125がカメラ140の駆動手段130を制御する流れは、実施の形態1と同様である。
カメラ制御装置120が、カメラ140のズーム倍率を制御する流れを、図9と図10に示す。
図9は、予測誤差算出手段801が予測手段123の予測誤差を求め、その結果を誤差記憶手段802に保存するまでの流れを示す図である。また、図10は、ズーム倍率算出手段803が、予測誤差をもとにカメラのズーム倍率を決定し、ズーム倍率を制御する流れを示す図である。図9に示す予測誤差の算出処理と、図10に示すズーム倍率制御処理は別々に動作するが、図9に示す予測誤差算出結果を参照して、図10に示すズーム倍率制御処理が行われる。
まず、図9に示す、予測誤差算出手段801が、予測誤差を算出する流れについて詳細に説明する。
予測手段123が移動方向、移動ベクトルを予測した後、センサ識別手段121が侵入センサ110からセンサ情報を受信する(S901)と、予測誤差算出手段801は、予測手段123が予測した物体位置と、受信したセンサ情報から得られる物体の実際の位置を比較して予測手段123が予測した物体位置の誤差を計算する(S902)。
予測誤差算出手段801の予測誤差の算出方法を、図11を使って説明する。図11において、1101は最新のひとつ前のセンサ位置情報、1102は予測手段123が予測した、最新のセンサ情報を受信した時刻での予測位置、1103は最新のセンサ位置情報である。1101の座標を(xold、yold)とし、1102の座標を(xest,yest)、1103の座標を(xreal、yreal)とする。
図11に示す、ひとつ前のセンサ位置から予測手段123が、予測した位置へ移動したときのベクトルの角度θest、およびひとつ前のセンサ位置から最新のセンサ位置へ移動したときのベクトルの角度θrealは、それぞれ(数4)、(数5)のように表すことができる。
Figure 2006173872
Figure 2006173872
予測誤差算出手段801は、上記で求めたθest、θrealから、図11に示す予測誤差θerrを、(数6)に示す式で算出する。
Figure 2006173872
予測誤差算出手段801は、上記に示す方法で予測誤差を算出したら、算出結果を誤差記憶手段802に記憶させる(S903)。
次に、図9の流れで算出された予測誤差を元に、ズーム倍率算出手段803がズーム倍率を算出し、ズーム制御手段804がカメラ140のズーム倍率を制御する流れを、図10を用いて詳細に説明する。
予測手段123は、実施の形態1に示すタイミングで予測を行うと同時に、ズーム倍率算出手段803にカメラ140のズーム倍率算出を指示する(S1001)。ズーム倍率算出手段803は、予測手段123からズーム倍率算出の指示を受けると、誤差記憶手段802に記憶された予測誤差からズーム倍率を算出する(S1002)。
図12に、求めるズーム倍率の模式図を示す。図12において、1201は最新のセンサ情報位置now、1202は予測手段123によって予測された侵入物体の移動位置est、1203、1204は誤差記憶手段802に記憶された予測誤差分だけ予測結果がずれた場合の侵入物体の移動位置err1、err2、1205はカメラ制御装置120が制御するカメラ140camを、それぞれ空中から地面に対して見た図である。
ズーム倍率算出手段803は、図12における1203、1204の座標を算出する。図12において、1201、1202、1203、1204、1205の座標を、それぞれ(x now、y now)、(x est、y est)、(x err1、y err1)、(x err2、y err2)、(xcam、ycam)とする。このとき、(x err1、y err1)、(x err2、y err2)は以下の(数7)、(数8)から求めることができる。
Figure 2006173872
Figure 2006173872
ズーム倍率算出手段803は、1203、1204の座標(x err1、y err1)、(x err2、y err2)を算出した後、1205に設置されたカメラの視界が、1203、1204が左右の両端になるような、カメラ1205の画角θangleを算出する。画角θangleは余弦定理を用いて、以下の(数9)に示す方法で算出することが可能である。
Figure 2006173872
ズーム倍率算出手段803は、(数9)によって求められた画角になるようなズーム倍率を求める(S1004)。画角に対するズーム倍率はカメラによって異なり、ズーム倍率算出手段803があらかじめ記憶しておく。その後、ズーム制御手段804は、ズーム倍率算出手段803が求めたズーム倍率を受け取り、カメラに送信することで、ズーム倍率を制御する(S1005)。ズーム倍率を制御する方法は、倍率の絶対値を指定して制御する方法と、カメラの現在のズーム倍率に対して相対的に上下させたい率を指定する方法の2通りあり、どちらの方法を使用しても問題ない。倍率の絶対値を指定する場合は、ズーム制御手段804が、ズーム倍率算出手段803が(S1004)で求めたズーム倍率をそのままカメラに送信する。倍率の相対的な値を指定する場合は、ズーム倍率算出手段803が制御前のズーム倍率を記憶しておき、(S1004)でズーム倍率を算出したら前記制御前のズーム倍率との差分を求め、得られた値の正負と絶対値によってズーム倍率の上下と変化量を決めてズーム制御手段804に渡し、ズーム制御手段804がカメラに前記ズーム倍率の上下と変化量をカメラに送信する。
以上の流れで、予測手段123の予測誤差に応じてズーム倍率を制御する。この方法により、カメラ制御装置120がカメラ140を制御して侵入物体100を追跡する一例の模式図を図13に示す。図13(a)において、110−aは時間tに侵入物体110を検知した侵入センサ、110−bは時間tに侵入物体110を検知した侵入センサ、100−t〜100−tは、時間t〜tにおける人物の位置、140−t〜140−tは時間t〜tにおけるカメラの撮影方向をそれぞれ表す。ただし、時間t〜tは添字の数字が小さいほど過去の時間とする。
また、図13(b)は、時間t〜tでのカメラ140で撮影された映像を示す。このとき、時間tにおいて、カメラ制御装置120が侵入センサ110−aからセンサ情報を受信すると、侵入物体100の過去の位置から、時間t1以降の人物の位置を予測し、センサ情報を受け取らない時間t〜tには予測誤差算出手段801が算出した予測誤差により、ズーム倍率が時間とともに小さくなる。このため、時間tにおいてセンサ情報を受信すると、予測誤差算出手段701が再度誤差を計算した結果が反映され、ズーム倍率算出手段803が再度ズーム倍率を設定しなおす。
これにより、予測手段123の予測誤差に応じてズーム倍率を自動的に変更することが可能であり、追尾対象をカメラ映像からフレームアウトさせずに、滑らかなカメラワークで自動追尾することができる。
なお、本実施の形態では、予測誤差算出手段801が、予測した物体の位置と、センサ情報から得られる実際の位置を比較して誤差を算出したが、図14に示すように、監視区域の地形情報を記憶した地形記憶手段1401を追加して、回転方向算出手段805、ズーム倍率算出手段803が地形情報を考慮して、カメラ制御信号を算出してもかまわない。
この場合、例えば図15に示すように侵入物体が通路を曲がろうとする際、曲がり角に差し掛かった際に、曲がり角全景が見えるように予測誤差に関係なく一時的にズーム倍率を下げて、侵入物体が曲がり角のどちらに移動してもカメラの映像フレーム内に収まるようにすることができる。
同様に、予測手段123の予測に、監視区域の地形情報を反映させるように、予測手段123に地形記憶手段1401をつなげて予測を行うことで、予測手段123がより精度の高い予測を行うことができる。
また、本実施の形態では、誤差記憶手段802が記憶する誤差の値の更新方法は、前記に示すとおり予測誤差を算出した結果を毎回誤差記憶手段802に記憶させるのではなく、例えば、予測誤差算出手段801が算出した誤差θerrが、誤差記憶手段802が記憶していた誤差より大きい場合にのみ更新し、過去の予測誤差をすべて記憶して、算出した予測誤差θerrを加えて平均を取るなど、確率的な手法を用いて予測誤差を記憶してもなんら問題ない。
本発明にかかるカメラ制御装置は、不審人物や物体の自動追尾機能を持つ監視システムのカメラ制御装置として有用である。また放送等の用途で番組の出演者やスポーツ中継におけるスポーツ選手の撮影などにも応用可能である。
実施の形態1によるカメラ制御装置の構成を示すブロック図 実施の形態1によるセンサ情報を示す図 実施の形態1による予測手段の侵入物体位置予測方法を示す図 実施の形態1による回転方向算出手段の回転方向算出方法を示す図 実施の形態1による回転方向算出手段の動作フロー図 実施の形態1によるカメラの動作を示す図 実施の形態1による画像センサの構成を示すブロック図 実施の形態2によるカメラ制御装置の構成を示すブロック図 実施の形態2による予測誤差算出手段の動作フロー図 実施の形態2によるズーム倍率算出手段の動作フロー図 実施の形態2による予測誤差算出手段の予測誤差の算出方法を示す図 実施の形態2によるズーム倍率算出手段のズーム倍率の算出方法を示す図 実施の形態2によるカメラの動作を示す図 実施の形態2による地形記憶手段を備えたカメラ制御装置の構成を示すブロック図 実施の形態2にる地形記憶手段が記憶する地形情報を示す図 従来のカメラ制御装置の構成を示すブロック図 従来の人物検出手段を用いたカメラ制御装置の構成を示すブロック図 従来のカメラの動作を示す図
符号の説明
100 侵入物体
110−1〜n 侵入センサ
120 カメラ制御装置
121 センサ識別手段
122 記憶手段
123 予測手段
124 カメラ制御情報算出手段
125 駆動制御手段
130 駆動手段
140,401,1205 カメラ
150 モニタ
402,1103,1201 侵入物体の現在位置
403,1202 侵入物体の予測位置
411 カメラの撮影角度
412 カメラが回転すべき角度
413 カメラの予測位置の撮影角度
700 画像センサ
701 映像取得手段
702 画像認識手段
703 実空間座標算出手段
801 予測誤差算出手段
802 誤差記憶手段
803 ズーム倍率算出手段
804 ズーム制御手段
805 回転方向算出手段
1101 過去の侵入物体の位置
1102 予測した侵入物体の位置
1203 予測誤差を考慮した侵入物体の予測位置
1204 予測誤差を考慮した侵入物体の予測位置
1401 地形記憶手段

Claims (7)

  1. 物体を感知して反応信号を出力する複数のセンサと、
    前記反応信号から前記物体の感知地点を識別するセンサ識別手段と、
    前記センサ識別手段が識別した前記物体の感知地点と前記反応信号の発生時刻とからなるセンサ情報を記憶する記憶手段と、
    前記記憶手段に記憶されたセンサ情報から物体の移動方向、移動速度、位置の少なくとも1つを含む物体予測情報を出力する予測手段と、
    前記予測手段が出力する物体予測情報から、カメラの回転方向、回転速度、ズーム倍率の少なくとも1つを含むカメラ制御情報を算出するカメラ制御情報算出手段と、
    前記カメラ制御情報算出手段が算出したカメラ制御情報をカメラ制御命令に変換してカメラを制御する駆動制御手段と、
    を含むカメラ制御装置。
  2. 過去の物体予測情報と実際の物体の移動方向、移動速度、位置との少なくともいずれか1つ以上の誤差の値を算出する予測誤差算出手段を更に含みと、
    前記カメラ制御情報算出手段は、
    前記予測誤差算出手段が算出する誤差によってカメラ制御情報を変更する
    請求項1に記載のカメラ制御装置。
  3. 前記複数のセンサを設置した区域の地形情報を記憶する地形記憶手段を更に含み、
    前記カメラ制御情報算出手段は、
    前記地図情報と前記物体予測情報とが一致しない場合は、地図情報を用いてカメラ制御情報を算出する
    請求項1又は2記載のカメラ制御装置。
  4. 前記センサが、
    監視領域の映像を取得する映像取得手段と、
    前記映像取得手段の映像から侵入物体を検出する画像認識手段と、
    検出した前記侵入物体の映像上の位置から前記映像取得手段を設置した監視区域の実空間座標に変換する実空間座標算出手段と、
    を備えた請求項1ないし3のいずれか記載のカメラ制御装置。
  5. 前記カメラ制御情報算出手段が、
    前記予測誤差を予め定めた値より大きい判定した場合に、
    前記ズーム制御手段は、
    前記カメラのズーム倍率を下げて広角で撮影する
    請求項2に記載のカメラ制御装置。
  6. 前記カメラ制御情報算出手段が、
    前記予測誤差を予め定めら値より小さいと判定した場合に、
    前記ズーム制御手段は、
    前記カメラのズーム倍率を上げて撮影する
    請求項2に記載のカメラ制御装置。
  7. 前記予測誤差算出手段は、
    前記センサから入力されるセンサ情報の受信時間が経過するほど、前記予測誤差が大きいと判定する請求項2に記載のカメラ制御装置。
JP2004361182A 2004-12-14 2004-12-14 カメラ制御装置 Pending JP2006173872A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004361182A JP2006173872A (ja) 2004-12-14 2004-12-14 カメラ制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361182A JP2006173872A (ja) 2004-12-14 2004-12-14 カメラ制御装置

Publications (1)

Publication Number Publication Date
JP2006173872A true JP2006173872A (ja) 2006-06-29

Family

ID=36674167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361182A Pending JP2006173872A (ja) 2004-12-14 2004-12-14 カメラ制御装置

Country Status (1)

Country Link
JP (1) JP2006173872A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165740A (ja) * 2006-11-29 2008-07-17 Mitsubishi Electric Research Laboratories Inc 監視システムの性能を測定するためのコンピュータ実施される方法
JP2008224099A (ja) * 2007-03-12 2008-09-25 Mitsubishi Electric Corp 空気調和装置
JP2011015325A (ja) * 2009-07-06 2011-01-20 Mitsubishi Electric Corp 監視画像記録装置
JP2014229552A (ja) * 2013-05-24 2014-12-08 パナソニック株式会社 照明システム
KR101824806B1 (ko) * 2016-07-05 2018-02-07 주식회사 로브아이 물체 감지 센서의 위치 설정 및 복원 방법
JP2018142815A (ja) * 2017-02-27 2018-09-13 富士通株式会社 3次元データ取得装置及び方法
WO2020070897A1 (ja) * 2018-10-05 2020-04-09 株式会社イームズラボ 監視システム、管理装置、監視方法、管理装置の制御プログラム
CN112945015A (zh) * 2019-12-11 2021-06-11 杭州海康机器人技术有限公司 一种无人机监测系统、方法、装置及存储介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165740A (ja) * 2006-11-29 2008-07-17 Mitsubishi Electric Research Laboratories Inc 監視システムの性能を測定するためのコンピュータ実施される方法
JP2008224099A (ja) * 2007-03-12 2008-09-25 Mitsubishi Electric Corp 空気調和装置
JP2011015325A (ja) * 2009-07-06 2011-01-20 Mitsubishi Electric Corp 監視画像記録装置
JP2014229552A (ja) * 2013-05-24 2014-12-08 パナソニック株式会社 照明システム
KR101824806B1 (ko) * 2016-07-05 2018-02-07 주식회사 로브아이 물체 감지 센서의 위치 설정 및 복원 방법
JP2018142815A (ja) * 2017-02-27 2018-09-13 富士通株式会社 3次元データ取得装置及び方法
WO2020070897A1 (ja) * 2018-10-05 2020-04-09 株式会社イームズラボ 監視システム、管理装置、監視方法、管理装置の制御プログラム
JPWO2020070897A1 (ja) * 2018-10-05 2021-09-24 イームズロボティクス株式会社 監視システム、管理装置、監視方法、管理装置の制御プログラム
JP7101799B2 (ja) 2018-10-05 2022-07-15 イームズロボティクス株式会社 監視システム、管理装置、監視方法、管理装置の制御プログラム
CN112945015A (zh) * 2019-12-11 2021-06-11 杭州海康机器人技术有限公司 一种无人机监测系统、方法、装置及存储介质
CN112945015B (zh) * 2019-12-11 2023-08-22 杭州海康威视数字技术股份有限公司 一种无人机监测系统、方法、装置及存储介质

Similar Documents

Publication Publication Date Title
US11887318B2 (en) Object tracking
JP4241742B2 (ja) 自動追尾装置及び自動追尾方法
US8180107B2 (en) Active coordinated tracking for multi-camera systems
US10812686B2 (en) Method and system for mimicking human camera operation
US20070236570A1 (en) Method and apparatus for providing motion control signals between a fixed camera and a ptz camera
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
JP2017212581A (ja) 追尾装置、追尾方法及びプログラム
JP4979525B2 (ja) マルチカメラシステム
JP4475164B2 (ja) 監視システム及び監視方法
CN111914592B (zh) 多相机联合取证方法、装置及系统
KR101096157B1 (ko) 듀얼 카메라를 이용한 실시간 감시장치
JP4056777B2 (ja) 自律移動体巡回システムおよび自律移動体の位置補正方法
JP2002374521A (ja) 移動体の監視方法および装置
JP2006173872A (ja) カメラ制御装置
JP3852745B2 (ja) 物体検出方法及び物体検出装置
WO2005088962A1 (ja) 追尾装置、及びモーションキャプチャ装置
KR101161557B1 (ko) 카메라 위치?태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치 및 방법
JP2006211696A (ja) 物体検出方法及び物体検出装置
JP2006229450A (ja) ネットワーク型監視カメラ装置及び制御プログラム並びに監視カメラシステム
KR101996907B1 (ko) 객체 추적 장치
JP2021056885A (ja) 検出装置、検出方法、及びプログラム
JP2021103410A (ja) 移動体及び撮像システム
JP4812099B2 (ja) カメラ位置検出方法
CN113865483B (zh) 镀膜机中基片位置的监测方法、装置、系统及镀膜机
KR102362695B1 (ko) 다중카메라 연계추적을 위한 AI기반의 복수 이동물체추적 Embedded 영상처리시스템을 통한 전방향 검지카메라 연계 정밀영상획득용 PTZ카메라 제어방법