JP4574509B2 - システム用カメラ、監視システム及び監視方法 - Google Patents

システム用カメラ、監視システム及び監視方法 Download PDF

Info

Publication number
JP4574509B2
JP4574509B2 JP2005290533A JP2005290533A JP4574509B2 JP 4574509 B2 JP4574509 B2 JP 4574509B2 JP 2005290533 A JP2005290533 A JP 2005290533A JP 2005290533 A JP2005290533 A JP 2005290533A JP 4574509 B2 JP4574509 B2 JP 4574509B2
Authority
JP
Japan
Prior art keywords
shooting
camera
moving body
evaluation value
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005290533A
Other languages
English (en)
Other versions
JP2007104223A (ja
Inventor
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005290533A priority Critical patent/JP4574509B2/ja
Publication of JP2007104223A publication Critical patent/JP2007104223A/ja
Application granted granted Critical
Publication of JP4574509B2 publication Critical patent/JP4574509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、システム用カメラ、監視システム及び監視方法に関し、特に移動体を継続的に撮影する際のシステム用カメラの撮影範囲の制御に関する。
従来、オフィスビル、商店、街中などで防犯、防災などの目的で監視カメラを用いた監視システムが利用されている。そして、このような従来の監視システムは、監視する領域に複数のシステム用カメラを配置して、その複数のカメラ映像を人がリアルタイムでモニタリングするといった方法である。このような方法においては、複数のシステム用カメラを分散配置して広い範囲を監視するようにしており、この場合、システム用カメラとして視野が広角に固定された固定カメラを使用している。
ここで、固定カメラの台数が増加すると、監視者に与える負担が増加していた。また、監視者が監視するモニタ以上にカメラの台数が設置されている場合、カメラからの映像は一定のタイミングで順番に切り替わってモニタに表示されるため、不審者を見落としたりする原因になっていた。
しかし、最近では画像処理技術の向上により、システム用カメラが自動的に移動体を抽出し、この抽出された移動体を認識して撮影を行うことが出来るようになってきている。ここで、このような監視システムに用いられるシステム用カメラとしては、例えば撮影手段である広角カメラと、広角カメラにより撮影される映像に対して監視対象の位置や特徴を抽出する画像処理装置が一体となった広域映像処理装置とを備えたものがある。
そして、このような監視システムにおいては、システム用カメラ(の広域映像処理装置)により対象物体の位置を認識し、これに基づきネットワークを経由して他に設けられたズームカメラの水平及び垂直方向、ズーム倍率を調整するようにしている。これにより、ズームカメラを対象物体の方向に向かせることができる(例えば、特許文献1参照。)。
また、他の監視システムとしては、パン・チルト・カメラと広角カメラを近接して設置したものがある。そして、広角カメラで撮影した映像から動く物体の位置と形状を推定してパン・チルト・カメラで撮影を行い、パン・チルト・カメラから出力される映像を映像記録装置に表示させるようにしている(例えば、特許文献2参照。)。
特開平9−130783号公報 特開2004−015516号公報
しかしながら、このような従来の監視システムにおいては、広角カメラとズームカメラ、又はパン・チルト・カメラの役割は固定されており、広角カメラの検出結果によりズームカメラ、又はパン・チルト・カメラが動作するようになっている。このため、監視エリアに広角カメラが1台の場合、遮蔽(障害物や人物など)により死角が生じると、移動体を認識出来ない事がある。
さらに、広角カメラの指示によってパン・チルト・カメラ、又はパン・チルト・カメラが動作するので、広角カメラが故障をしてしまうと、移動体を追跡して撮影が出来なくなってしまう。
なお、このような課題を解決するため、例えば監視エリアにパン・チルト・カメラ、又はパン・チルト・カメラの他に、広角カメラを複数設置するようにすると、死角は生じないものの、広角カメラを増加させた分だけコストがかかるという他の課題が生じる。
そこで、本発明は、このような事情に鑑みてなされたもので、最適なアングルで撮影可能で、かつ死角のないシステム用カメラ、監視システム及び監視方法を提供することを目的とするものである。
本発明は、移動体を継続して撮影するシステムに用いられるシステム用カメラにおいて、前記移動体を撮影して認識すると共に撮影範囲の切り替えが可能な撮影手段と、前記撮影手段が認識した移動体の特徴情報を抽出する特徴抽出手段と、移動体認識時、前記撮影手段が移動体を撮影している撮影状態を評価する撮影評価値を演算する演算手段と、前記撮影手段の撮影範囲、前記移動体の特徴情報及び前記撮影評価値を周囲のシステム用カメラとの間で相互に通信する通信手段と、前記移動体の特徴情報と、前記通信手段を介して取得した前記周囲のシステム用カメラが抽出している移動体の特徴情報とを比較する特徴比較手段と、前記撮影評価値と、前記通信手段を介して取得した前記周囲のシステム用カメラの撮影評価値を比較する撮影評価値比較手段と、前記周囲のシステム用カメラからの撮影手段の撮影範囲情報、前記特徴比較手段の比較結果及び前記撮影評価値比較手段の比較結果に応じて前記撮影手段の撮影範囲を変更する変更手段と、を備えたことを特徴とするものである。
本発明のように、移動体を検出した状況に応じて、システム用カメラ同士が互いの情報を交換して動的に役割変更を行うことによって、最適なアングルで撮影可能なシステム用カメラに移動体の撮影を行わせることが出来る。また、移動体を詳細に撮影するために撮影範囲を変更しても、システム用カメラ同士がお互いの監視領域をカバーして撮影を行う事によって死角を無くすことが出来る。
以下、本発明を実施するための最良の形態について図面を用いて詳細に説明する。
図1は、本発明の第1の実施の形態に係る監視システムの一例である移動体追跡撮影システムのシステムブロック図である。
本実施の形態における移動体追跡撮影システムは、地理的に分散した複数台の可動するシステム用カメラ10(10a〜10n)と、ネットワーク40と、モニタ装置50とを備えている。また、システムにはあらかじめ共通の3次元座標系が設定されており、床面上にX軸、Y軸、床面と垂直となる高さ方向にZ軸がそれぞれ直交するように設定してある。
システム用カメラ10(以下、カメラという)が移動体を認識すると、矢印に示すように後述する通信部29を利用して複数のカメラ10間同士で情報の送受信を行う。また、それと同時に移動体を認識したカメラ10、例えばカメラ10aは、点線で示すようにネットワーク40を利用してモニタ装置50に映像を伝送する。
ここで、各カメラ10は、移動体を撮影するための撮影手段である撮影部21と、撮影部21で認識した移動体の特徴情報を抽出する特徴抽出手段である移動体特徴抽出部22とを備えている。ここで、この撮影部21は、撮影対象移動体を特定するための画像処理機能を備えると共に広角撮影及びパン・チルト・ズーム撮影が可能なものであり、この撮影部21の撮影状態を変更することにより、撮影範囲を変更することができる。
また、移動体特徴抽出部22が抽出した移動体の特徴情報と、周囲のカメラ10から受信した周囲のカメラ10が撮影している移動体の特徴情報を比較する特徴比較手段である移動体特徴比較部23を備えている。さらに、受信部30を介して取得した周囲のカメラ10の動作状態と、カメラ10自身の動作状態の比較を行う動作状態比較手段である動作状態比較部27を備えている。
また、移動体特徴比較部23と動作状態比較部27とによる比較結果及び周囲のカメラ10の動作状態、言い換えれば周囲のカメラ10の撮影範囲からカメラ10自身の役割及び行動を決定し、撮影範囲を変更する変更手段である推論部28とを備えている。
また、推論部28によって推論された制御量に基づいて撮像部21の動作制御を行う動作制御部26と、動作制御部26から出力される制御信号に基づいて撮像部21を駆動する動作駆動部25で構成される動作部24を備えている。
ここで、撮影部21で撮影された動画像より認識された移動体の特徴情報を抽出する移動体特徴抽出部22における移動体の認識方法としては、前画像との差分を取り、差分が存在する部分のオブジェクトを抽出する背景差分法などがある。また、オプティカルフロー法などを用いることにより、移動体の移動方向や速度、及びカメラからの奥行きに関する情報を得ることが可能となる。
その他、画像から移動体の抽出を行う処理方法としては、背景差分法やオプティカルフロー法に限らず、フレーム間差分法、テンプレートマッチング法、マーカー検出法等、これらのうちの一つ、もしくはそれらの組み合わせを用いるようにしても良い。
移動体特徴比較部23は、移動体特徴抽出部22によって抽出された現在カメラ10自身が撮影している移動体の特徴情報と位置情報を、受信部30を介して取得した周囲のカメラ10が撮影している移動体の特徴情報と位置情報を用いて比較する。そして、撮影している移動体が同一か否かの比較結果を推論部28へ通知する。
推論部28は、演算手段として、移動体を撮影している状態を評価する撮影評価値Eを算出する。ここで、この撮影評価値Eは、現在カメラ自身が、どの程度適切に移動体を撮影しているのかを示す値であり、このように算出された撮影評価値Eは、送信部31を介して移動体の特徴情報と共にネットワーク40上の他のカメラ10に送信される。
なお、この送信部31と受信部30とにより、周囲のカメラ10との間において撮像部21の撮影範囲、移動体特徴比較部23と、後述する動作状態比較部27において行なわれた他のカメラの状態との比較結果を相互に通信するようにしている。
また、推論部28は、移動体特徴比較部23と、動作状態比較部27において行なわれた他のカメラの状態との比較の結果、撮影部21による撮影範囲の変更を行うか否かの判断を行う。そして、受信部30を介して取得した他のカメラ10の状態に応じ、例えば広角撮影状態からパン・チルト・ズームを行って撮影範囲の変更を行うと判断した場合は、動作部24の動作制御部26に制御量を伝えるようにしている。
動作制御部26は、この推論部28の撮影範囲の変更判断に基づく制御量に基づいて動作駆動部25を駆動すると共に、動作制御部26から出力される制御量を動作状態比較部27へ通知する。そして、動作状態比較部27では、動作駆動部25を動作させている制御量と周囲のカメラ10の動作状態との比較を行い、比較結果を推論部28へ通知する。推論部28は、この比較結果に基づき撮影範囲の変更を行う。
図2の(a)は移動体1が2つのカメラ10a,10bの撮影範囲11a,11bに進入してきたところを想定した図であり、矢印2は移動体1の進行方向を示している。なお、図2において、移動体1は右下から左上に向かって進んでいるものとする。ここで、それぞれのカメラ10a,10bは移動体1をトラッキングしていない時は広角撮影を行っている。
また、図2の(b)は、移動体1を横から見た時のカメラ10a,10bの設置状態及び撮影範囲11a,11bを示しており、図2の(c)はカメラ10a,10bがそれぞれ撮影している映像12a,12bを示している。
次に、図3のフローチャートを用いて、図2においてカメラ10aが新規に移動体1を発見した際の処理(監視方法)を説明する。
ステップ1(S1)では、例えば図2に示すカメラ10aの撮影部21により新規に移動体1を発見(認識)した際に、撮影部21により、移動体1の進行方向、移動体1の位置などを取得すると共に、移動体特徴抽出部22で移動体1の特徴を抽出する。例えば、移動体1の特徴情報は、色、形状、大きさ、輝度分布、色分布、ビットマップパターンや、移動体1が人物の場合には、顔の輪郭、目、口、鼻といった特徴を抽出する。
次に、ステップ2(S2)において、推論部28は、カメラ10aが移動体1を撮影している状態を評価する値である撮影評価値Eを算出する。なお、この撮影評価値Eは例えばファジィ推論を用いることにより算出出来る。
ここで、この撮影評価値Eを算出するためのパラメータとしては、カメラ10aと移動体1との距離、撮影部21の倍率、カメラ10aの画角内における移動体サイズ、カメラ10aに対する移動体1の進行方向(相対角度)がある。また、パラメータとしては、障害物の遮蔽などによる移動体1の抽出精度、照明条件があり、これらパラメータを用いることによって撮影評価値Eを算出する。
なお、画角内における移動体サイズは撮影部21の撮影状態によって影響を受けるパラメータである。例えば、画角内における移動体サイズが小さい場合、撮影状態は、広角撮影時にはさほど影響を受けないが、ズームアップ撮影時にもかかわらず移動体サイズが小さい時には影響を受ける。
また、移動体が人物である場合、全身を撮影出来ていて、画面の高さを1とすると、図4の(a)のように人物の高さが画面の1/2程度を占めている状態が望ましい。しかし、顔のアップが撮影出来ている状態が望ましい場合は、図4の(b)に示すように人物のバストアップサイズが画面の1/2程度を占める状態が望ましいとして設定を変更する事も可能である。そして、撮影評価値は、画角内における移動体のサイズが適切で、障害物等の影響を受けずに移動体を正面から撮影している状態が最も高い値となる。
次に、このように撮影評価値Eを算出した後、ステップ3(S3)において、周囲のカメラ、例えば図2に示すカメラ10bと通信し、カメラ10bに新規に移動体1を発見したことを送信する。ここで、このようにカメラ10aから移動体を認識したことを受信すると、カメラ10bは、移動体を撮影中である場合、撮影部21による撮影状態を送信すると共に、移動体の特徴情報を比較し、撮影評価値を算出してカメラ10aに送信する。
ここで、ステップ4(S4)において、カメラ10bが広角撮影を行っていれば(S4のY)、ステップ5(S5)において、カメラ10aが移動体のトラッキングを行うことをカメラ10bに通知する。
そして、ステップ6(S6)において、カメラ10bの合意があれば(S6のY)、即ちカメラ10bが広角撮影を継続して行う場合には、推論部28は動作部24及び撮影部21を制御し、パン・チルト・ズームを行う。これにより、ステップ7(S7)に示すように移動体1の追跡撮影(トラッキング)が開始され、この後、ステップ8(S8)に示すように、周囲のカメラ10bと撮影状態の通信を行う。
ここで、このように移動体1を詳細に撮影するため、カメラ10aが撮影範囲を変更した場合、カメラ10aが本来撮影すべき撮影範囲に死角が生じてしまう。しかし、この場合、カメラ10bが広角撮影を継続して行うので、このカメラ10bがカメラ10aの撮影範囲をカバーすることができ、死角が生じることはない。
また、ステップ6(S6)においてカメラ10bの合意が得られない場合は(S6のN)、即ちカメラ10bが広角撮影をしているが、移動体を検出している場合は、ステップ9(S9)において、移動体1の特徴量の比較を行う。
一方、ステップ4(S4)において、カメラ10bが広角撮影を行っておらず移動体1をトラッキング中である場合(S4のN)、ステップ9(S9)において、移動体1の特徴量を比較し、対象同定を行う。そして、対象同定を行った結果、カメラ10aが新規に発見した移動体1が、カメラ10bがトラッキングを行っている移動体1と同一だった場合には(S9のY)、ステップ10(S10)において、後述する図7に示すようなグループ化を行う。
ここで、このグループ化においては、同一の移動体1を撮影している複数のカメラ間のうち撮影評価値Eの最も高いカメラがメインとなり、他のカメラはサブとなるようなグループ化を行う。
そして、このように複数のカメラがグループ化された場合、移動体1を撮影している間、情報の交換を行う相手として、サブカメラは同一グループのメインカメラとだけ撮影評価値Eのやり取りを行い、メインカメラのみが周囲のカメラと情報の交換を行う。
なお、移動体1の移動に伴い撮影評価値Eが変化すると、そのとき撮影評価値Eの最も高いカメラがメインになる。なお、ステップ9(S9)において、移動体の対象同定を行った結果、トラッキングしている移動体1が別であった場合には(S9のN)、グループ化は行わない。
次に、このようなグループ化の後、ステップ11(S11)において、推論部28は撮影評価値比較手段として作用して撮影評価値Eの比較を行う。ここで、E(カメラ10aの撮影評価値)>α・E(カメラ10bの撮影評価値)であれば、カメラ10aがパン・チルト・ズームを行って移動体1を詳細に撮影する。また、E≦αEであれば、ステップ12(S12)のようにカメラ10aは広角撮影を行い、カメラ10bがそのまま移動体1のトラッキングを行う。
このように、移動体1の移動に応じてカメラ間で動的に役割変更を行うことによって、最適なアングルのカメラが移動体を詳細に撮影しながらトラッキングを行う事が出来る。
ここで、αは係数であり、ステップ11(S11)においては、係数αの設定により、複数のカメラが同程度の撮影評価値Eを算出する境界付近に移動体が存在し、カメラ間の撮影評価値Eの大小関係が頻繁に切り替わってしまう場合がある。この場合には、係数αの設定を変更してカメラ同士の撮影状態の切り替え頻度を制御することが出来る。
なお、この係数αの設定は監視者が手動で行ってもよい。切り替え頻度を制御するためには係数αを1より大きく設定する事が望ましい。
図5は、新規に移動体を発見した際に他のカメラ10bに送信する情報のフォーマットを示す説明図である。なお、この送信データは、図3におけるステップ3(S3)において送信されるものである。
送信データは、「同期・通信制御」、「送信元カメラID」、「送信先カメラID」、「移動体特徴量」、「移動体進行方向」、「移動体位置」、「撮影評価値」、「撮影評価値算出時刻」及び「撮影範囲」とから構成される。ここで、「同期・通信制御(信号)」とは、無線通信を行う2台以上のカメラのタイミングを一定の時間関係に保つ場合において必要な情報である。
「カメラID」は、カメラに対して一意に付与された識別番号である。「移動体特徴量」、「移動体進行方向」、「移動体位置」は、図3におけるステップ1(S1)でカメラが取得した移動体に関する情報である。
「撮影評価値」、「撮影評価値算出時刻」は、ステップ2(S2)で算出した値と時刻である。受信カメラ側では、送信カメラが撮影評価値を算出した時刻と同時刻の撮影評価値を比較する。「撮影範囲」はカメラの設置位置、俯角、回転角、ズーム率から算出する。
図6の(a)は、図3に示す新規に移動体Iを発見した際の処理の流れに基づいて、カメラ10a、10b間で情報のやり取りが行われた結果、カメラ10aが移動体1をズーム撮影しながらトラッキングを行っている例を示したものである。なお、図6の(b)は、横から見た時のカメラ10a,10bの設置状態及び撮影範囲11a,11bを示しており、図6の(c)の12aはカメラ10aが、12bはカメラ10bが撮影している映像を示している。
また、図7は同一の移動体を撮影しているカメラ10a〜10cをグループ化した第1グループ13aと、他の移動体を撮影しているカメラ10d,10eをグループ化した第2グループ13dとの間での情報のやり取りが行われる一例を示す概念図である。
ここでは、同一の移動体を撮影している第1グループ13aのカメラ10a及び他の移動体を撮影している第2グループ13bのカメラ10dがそれぞれのグループのメインカメラとしている。
そして、このようなグループ化を行った際に、サブカメラ10b,10cからの情報は矢印14bに示すように同一の移動体を撮影しているメインカメラ10a,10dのみに送信され、周囲のカメラ10b,10c,10eには送信を行わない。さらに、メインカメラ10a,10dのみが矢印14aに示すように移動体情報を周囲のカメラ10b,10c,10eに送信する。
ここで、このメインカメラ10a,10dの役割は撮影評価値Eによって動的に変更する。また、グループ化も同一の移動体を同時に認識しているカメラ同士が動的に行うものであり、固定されているものではない。なお、同一の移動体を認識していないカメラはグループに属さない。
図8の(a)は同一の移動体を撮影しているカメラ10a,10b,10cをグループ化した時の別の例である。ここではカメラ10aが移動体1−1を、カメラ10bが移動体1−2をそれぞれトラッキングしており、カメラ10cが広角撮影をしていて移動体1−1及び1−2を撮影している時のグループ化の例を示す。
図8(b)の12cはカメラ10cの撮影映像である。このように、一つのカメラ10cが複数の移動体を撮影している時は、一つのカメラ10cが複数のグループ13a,13bに属することもある。
以上説明したように、移動体1を検出した状況に応じてカメラ同士が互いの情報を交換してカメラ(撮影部21)の撮影範囲を変更することにより、最適なアングルで撮影可能なカメラに移動体1の撮影を行わせることが出来る。また、移動体を詳細に撮影するためにズームアップして撮影範囲を狭くした場合でも、他のカメラ(撮影部21)が撮影範囲を広範囲とし、監視領域をカバーして撮影を行う事によって死角を無くすことが出来る。
次に、本発明の第2の実施の形態について説明する。
図9は、本実施の形態に係る監視システムの一例である移動体追跡撮影システムのシステムブロック図である。なお、図9において、図1と同一符号は、同一又は相当部分を示している。
図9において、60はネットワーク40に接続されたデータベースであり、このデータベース60には対象物の特徴情報と重要度Iが登録されている。そして、この重要度Iに応じてカメラ10は、追跡して撮影を行う対象物を選択することが可能となる。
ここで、この重要度Iは移動体ごとに決められた値であり、監視者等によって手動で設定されるものであっても良い。さらに重要度は固定値ではなく、カメラが撮影している間にとった行動や、移動体の存在する位置に応じて重要度を更新するようにしても良い。例えば、危険な場所や立ち入り禁止区域に近づく移動体は要注意として重要度を更新するといったようにする。
次に、図10及び図11のフローチャートを用いて、カメラ10aが新規に移動体1を発見した際の重要度Iに応じた処理(監視方法)の流れを説明する。
ステップ20(S20)において、既述した図2に示すカメラ10aの撮影部21が新規に移動体1を認識した後、移動体特徴抽出部22により特徴情報を抽出し、ステップ21(S21)において、推論部28は特徴情報をデータベースに問い合わせる。
そして、ステップ22(S22)において、移動体特徴比較部23により、特徴情報を抽出した移動体がデータベース60に登録されているか否かを判断する。その特徴情報に対応する移動体がデータベース60に登録されている場合(S22のY)、ステップ23(S23)において、特徴情報と共に登録されている重要度Iを抽出し、移動体1に付与する。
一方、ステップ22(S22)において、移動体1がデータベース60に登録されていないと判断された場合は(S22のN)、ステップ24(S24)において、移動体1には重要度として0を付与し、新規移動体としてデータベース60に登録する。
次に、ステップ25(S25)において、推論部28は撮影評価値Eを算出し、ステップ26(S26)において、周囲のカメラ10bと通信し、カメラ10bに新規に移動体1を発見したことを送信すると共にカメラ10bの状態を受信する。
ここで、ステップ27(S27)において、カメラ10bが広角撮影を行っていれば(S27のY)、ステップ28(S28)において、カメラ10aが移動体1のトラッキングを行うことをカメラ10bに通知する。
そして、ステップ29(S29)において、カメラ10bの合意があれば(S29のY)、推論部28は撮影部21を制御し、パン・チルト・ズームを行う。これにより、ステップ30(S30)に示すように移動体1の追跡撮影(トラッキング)が開始され、この後、ステップ31(S31)に示すように、周囲のカメラ10bと動作状態等の通信を行う。
ここで、このように移動体を詳細に撮影するため、カメラ10aが撮影範囲を変更した場合、カメラ10aが本来撮影すべき撮影範囲に死角が生じてしまう。しかし、この場合、カメラ10bが広角撮影を継続して行うので、このカメラ10bがカメラ10aの撮影範囲をカバーすることができ、死角が生じることはない。
また、ステップ29(S29)においてカメラ10bの合意が得られない場合は(S29のN)、即ちカメラ10bが広角撮影をしているが、移動体1を検出している場合は、ステップ32(S32)において、移動体1の特徴量の比較を行う。
一方、ステップ27(S27)において、カメラ10bが移動体1をトラッキング中である場合、ステップ32(S32)において、移動体1の特徴量を比較し、対象同定を行う。そして、対象同定を行った結果、カメラ10aが新規に発見した移動体1が、カメラ10bがトラッキングを行っている移動体1と同一だった場合には、ステップ33(S33)において、グループ化を行い、ステップ34(S34)において、撮影評価値Eの比較を行う。
ここで、E(カメラ10aの撮影評価値)>α・E(カメラ10bの撮影評価値)であれば、カメラ10aがパン・チルト・ズームを行って移動体1を詳細に撮影する。また、E≦αEであれば、ステップ35(S35)のようにカメラ10aは広角撮影を行い、カメラ10bがそのまま移動体1のトラッキングを行う。
また、ステップ32(S32)において、移動体1の対象同定を行った結果、トラッキングしている移動体1が別であった場合、ステップ36(S36)において、移動体の重要度Iの比較を行う。
ここで、カメラ10aが認識した移動体の重要度をI、カメラ10bがトラッキング中である移動体の重要度をIとすると、I>Iの場合、その後の処理はステップ28(S28)に進む。なお、本実施の形態においては、重要度の高い移動体に注目して追跡撮影を行う例を示している。
したがって、I>Iの場合には、既述したようにステップ28(S28)以下の処理を行うが、ステップ36(S36)の後にステップ28(S28)の処理を行う場合、移動体1の重要度が高いという情報を付加してトラッキングを行うことを通知する。そして、カメラ10aが認識した移動体に対するトラッキングを行う。
また、I<Iの場合、その後の処理はステップ35(S35)に進み、カメラ10aは広角撮影を行なう。そして、このようにカメラ10aが広角撮影を行うので、カメラ10aがカメラ10bの撮影範囲をカバーすることができ、死角が生じることはない。また、I=Iの場合、ステップ34(S34)において、撮影評価値Eの比較を行い、この結果に応じてカメラ10aは移動体1の追跡撮影又は広角撮影を行う。
このように、移動体1の移動に応じてカメラ間で動的に役割変更を行うことによって、最適なアングルのカメラ(撮影部21)が移動体1を詳細に撮影しながらトラッキングを行う事が出来る。
なお、これまでの説明において、ステップ24(S24)において、データベース60に登録されていない移動体を発見した場合に新規登録を行ったが、登録済みの移動体のみ注目すればよい時には新規に登録を行わなくてもかまわない。また、逆に重要度が0の移動体、つまりデータベース60に登録されていない移動体を不審物と見做し、この移動体のみを選択して追跡撮影を行う事も可能である。
図12は新規に移動体を発見した際に他のカメラに送信する情報のフォーマットを示す説明図である。このデータは図10におけるステップ26(S26)において送信されるものである。
送信データは、「同期・通信制御」、「送信元カメラID」、「送信先カメラID」、「移動体特徴量」、「移動体進行方向」、「移動体位置」、「撮影評価値」、「撮影評価値算出時刻」、「撮影範囲」及び「移動体重要度」とから構成される。
このように、移動体を検出した状況に応じてカメラ同士が互いの情報を交換してカメラ(撮影部21)の撮影範囲を変更することにより、最適なアングルで撮影可能なカメラに移動体の撮影を行わせることが出来る。
更に、本実施の形態のように、移動体1に重要度を与えることによって、重要な移動体1のみを最適なアングルのカメラが詳細に撮影しながらトラッキングを行う事が可能である。逆に、情報が登録されていない移動体1のみに注目してトラッキングを行う事も可能である。
次に、本発明の第3の実施の形態について説明する。
図13は、本実施の形態に係る監視システムの一例である移動体追跡撮影システムのシステムブロック図である。なお、図13において、図1と同一符号は、同一又は相当部分を示している。
図13において、70はネットワーク40に接続された認証装置であり、この認証装置70はカメラ10以外の方法で対象物の認証を行う。例えば、RFID、指紋、虹彩、声紋など個体を識別する認証方式のうちの一つもしくはそれらの組み合わせにより移動体を認識する。また、カメラ10とこれらの認証方法を組み合わせて対象物を識別しても良い。これらの方法を用いて認識された移動体に重要度Iを付与して追跡撮影を行う。
ところで、これまでの説明において、カメラ10を、例えば図2及び図6に示すように、対象物を前後方向からそれぞれ撮影するように配置した例を示したが、本発明は、これに限らず、例えば図14に示すように配置しても良い。
即ち、図14の(a)に示すように、所定の方向に一列に配し、例えば(b)において、手前のカメラ10cが移動体1を発見した際にカメラ間同士で情報のやり取りを行う。そして、カメラ10cがズームアップを行った際に、カメラ10bが俯角を切り替えてカメラ10cの撮影範囲を補うように撮影を行っている。
本発明の第1の実施の形態に係る監視システムの一例である移動体追跡撮影システムの構成を示すブロック図。 上記移動体追跡撮影システムにおける撮影状況等を示す概念図。 上記移動体追跡撮影システムのカメラが新規に移動体を認識した際の処理の流れ(監視方法)の一例を示すフローチャート。 上記カメラにより撮影される移動体の画角内サイズを示す図。 上記カメラが新規に移動体を認識した際、送信を行う情報のフォーマットを示す図。 上記移動体追跡撮影システムの動作を示す概念図。 上記移動体追跡撮影システムのうち同一の移動体を撮影しているカメラをグループ化した時の情報の流れを示す概念図。 上記移動体追跡撮影システムのうち同一の移動体を撮影しているカメラをグループ化した時の情報の流れを示す他の概念図。 本発明の第2の実施の形態に係る監視システムの一例である移動体追跡撮影システムの構成を示すブロック図。 上記移動体追跡撮影システムのカメラが新規に移動体を認識した際の処理の流れの一例の一部分を示すフローチャート。 上記移動体追跡撮影システムのカメラが新規に移動体を認識した際の処理の流れの一例の残りの部分を示すフローチャート。 上記カメラが新規に移動体を認識した際、送信を行う情報のフォーマットを示す図。 本発明の第3の実施の形態に係る監視システムの一例である移動体追跡撮影システムの構成を示すブロック図。 第1〜第3の実施の形態に係る移動体追跡撮影システムの動作を示す他の概念図。
符号の説明
10 システム用カメラ
21 撮影部
22 移動体特徴抽出部
23 移動体特徴比較部
25 動作駆動部
26 動作制御部
27 動作状態比較部
28 推論部
30 受信部
31 送信部
40 ネットワーク
60 データベース
70 認証装置

Claims (13)

  1. 移動体を継続して撮影するシステムに用いられるシステム用カメラにおいて、
    前記移動体を撮影して認識すると共に撮影範囲の切り替えが可能な撮影手段と、
    前記撮影手段が認識した移動体の特徴情報を抽出する特徴抽出手段と、
    移動体認識時、前記撮影手段が移動体を撮影している撮影状態を評価する撮影評価値を演算する演算手段と、
    前記撮影手段の撮影範囲、前記移動体の特徴情報及び前記撮影評価値を周囲のシステム用カメラとの間で相互に通信する通信手段と、
    前記移動体の特徴情報と、前記通信手段を介して取得した前記周囲のシステム用カメラが抽出している移動体の特徴情報とを比較する特徴比較手段と、
    前記撮影評価値と、前記通信手段を介して取得した前記周囲のシステム用カメラの撮影評価値を比較する撮影評価値比較手段と、
    前記周囲のシステム用カメラからの撮影手段の撮影範囲情報、前記特徴比較手段の比較結果及び前記撮影評価値比較手段の比較結果に応じて前記撮影手段の撮影範囲を変更する変更手段と、
    を備えたことを特徴とするシステム用カメラ。
  2. 前記変更手段は、前記特徴比較手段の比較結果により前記周囲のシステム用カメラと同一の前記移動体を撮影していると判断した場合には、前記撮影評価値比較手段の比較結果に応じて前記撮影手段の撮影範囲を変更することを特徴とする請求項1記載のシステム用カメラ。
  3. 前記変更手段は、前記周囲のシステム用カメラが広範囲を撮影中である場合、前記特徴情報及び前記撮影評価値の比較結果に基づいて撮影範囲を狭い範囲に変更し、前記周囲のシステム用カメラが狭い範囲を撮影中である場合、前記特徴情報及び前記撮影評価値の比較結果に基づいて前記周囲のシステム用カメラに代わって狭い範囲を撮影するよう撮影範囲を狭い範囲に変更することを特徴とする請求項2記載のシステム用カメラ。
  4. 前記周囲のシステム用カメラとの間で撮影範囲を変更する際、前記周囲のシステム用カメラとの間の設定に基づいて撮影範囲の切り替え頻度を抑制することを特徴とする請求項3記載のシステム用カメラ。
  5. 前記変更手段は、前記撮影手段が前記移動体を撮影する向き、角度又は倍率の少なくとも一つを変えることにより前記撮影範囲を変更することを特徴とする請求項1乃至4のいずれか1項に記載のシステム用カメラ。
  6. 前記通信手段は、前記撮影手段が前記移動体を認識した時に、前記周囲のシステム用カメラに対し、識別子、移動体特徴量、移動体位置、移動体進行方向、前記撮影評価値、前記撮影範囲の少なくとも一つを送信することを特徴とする請求項1記載のシステム用カメラ。
  7. 前記演算手段が演算する撮影評価値は、前記撮影手段と移動体との距離、前記撮影手段の倍率、前記撮影手段の画角内における移動体サイズ、前記撮影手段に対する移動体の向き、前記移動体の抽出精度及び照明条件の少なくとも一つによって算出される値であることを特徴とする請求項1記載のシステム用カメラ。
  8. 前記請求項1乃至7のいずれか1項に記載のシステム用カメラを複数備えたことを特徴とする監視システム。
  9. 複数のシステム用カメラを接続するネットワークと、
    前記ネットワークに接続され、前記特徴情報が登録されたデータベースと、を備え
    前記特徴比較手段は、移動体認識時、前記データベースと該特徴抽出手段から取得した移動体の特徴情報とに基づき、前記移動体に関する重要度を抽出することを特徴とする請求項8記載の監視システム。
  10. 前記重要度は、前記データベースに登録されている対象物体に関する情報であり、前記変更手段は、前記撮影手段が移動体を認識して撮影を行う際に、重要度に応じて前記撮影手段の撮影範囲を変更することを特徴とする請求項9記載の監視システム。
  11. 前記重要度は前記移動体の状態に応じて変化する値であることを特徴とする請求項9又は10に記載の監視システム。
  12. 前記ネットワークに移動体を認識する認識手段を設け、
    前記移動体を撮影した際、前記撮影手段と前記認識手段とにより該移動体を認識することを特徴とする前記請求項9乃至11のいずれか1項に記載の監視システム。
  13. システム用カメラにより移動体を継続して撮影する監視方法において、
    前記移動体を撮影手段により撮影して認識するステップと、
    前記撮影手段が認識した移動体の特徴情報を抽出するステップと、
    移動体認識時、前記撮影手段が移動体を撮影している撮影状態を評価する撮影評価値を演算するステップと、
    前記撮影手段の撮影範囲、前記移動体の特徴情報及び前記撮影評価値を周囲のシステム用カメラとの間で相互に通信するステップと、
    前記移動体の特徴情報と、前記通信手段を介して取得した前記周囲のシステム用カメラが抽出している移動体の特徴情報とを比較するステップと、
    前記撮影評価値と、前記通信手段を介して取得した前記周囲のシステム用カメラの撮影評価値を比較するステップと、
    前記周囲のシステム用カメラからの撮影手段の撮影範囲情報、前記特徴情報の比較結果及び前記撮影評価値の比較結果に応じて前記撮影手段の撮影範囲を変更するステップと、
    を備えたことを特徴とする監視方法。
JP2005290533A 2005-10-03 2005-10-03 システム用カメラ、監視システム及び監視方法 Active JP4574509B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005290533A JP4574509B2 (ja) 2005-10-03 2005-10-03 システム用カメラ、監視システム及び監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005290533A JP4574509B2 (ja) 2005-10-03 2005-10-03 システム用カメラ、監視システム及び監視方法

Publications (2)

Publication Number Publication Date
JP2007104223A JP2007104223A (ja) 2007-04-19
JP4574509B2 true JP4574509B2 (ja) 2010-11-04

Family

ID=38030731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005290533A Active JP4574509B2 (ja) 2005-10-03 2005-10-03 システム用カメラ、監視システム及び監視方法

Country Status (1)

Country Link
JP (1) JP4574509B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101324221B1 (ko) 2008-08-27 2013-11-06 삼성테크윈 주식회사 영상 촬영을 통한 물체 추적 시스템 및 그 방법
JP5402431B2 (ja) * 2009-09-11 2014-01-29 沖電気工業株式会社 カメラ制御装置
JP5397281B2 (ja) * 2010-03-15 2014-01-22 オムロン株式会社 監視カメラ端末
MY177646A (en) * 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
JP7335753B2 (ja) * 2019-08-09 2023-08-30 サンリツオートメイシヨン株式会社 物体追尾システム、物体追尾装置、物体追尾方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2005032827A (ja) * 2003-07-08 2005-02-03 Sharp Corp 半導体チップのピックアップ方法及びピックアップ装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2005032827A (ja) * 2003-07-08 2005-02-03 Sharp Corp 半導体チップのピックアップ方法及びピックアップ装置

Also Published As

Publication number Publication date
JP2007104223A (ja) 2007-04-19

Similar Documents

Publication Publication Date Title
KR100432870B1 (ko) 침입물체 감시방법 및 침입물체 감시시스템
EP2549753B1 (en) Surveillance camera terminal
JP4568009B2 (ja) カメラ連携による監視装置
JP4241742B2 (ja) 自動追尾装置及び自動追尾方法
KR100492148B1 (ko) 이동물체의 거리와 이동방향을 제공하는 인공지능형영상경비 시스템
JP6755713B2 (ja) 追尾装置、追尾方法及びプログラム
KR100606485B1 (ko) 물체 추미 방법 및 물체 추미 장치
JP4378785B2 (ja) 画像処理機能を備えた画像入力装置
KR101496390B1 (ko) 차량번호인식 시스템
US20060066723A1 (en) Mobile tracking system, camera and photographing method
JP2005117542A (ja) 監視システム
JPWO2011114770A1 (ja) 監視カメラ端末
KR101404153B1 (ko) 지능형 cctv 통합관제시스템
JP4574509B2 (ja) システム用カメラ、監視システム及び監視方法
JPWO2005076621A1 (ja) 監視システムおよびカメラ端末
JP2005142683A (ja) カメラ制御装置およびカメラ制御方法
JP2011109630A (ja) カメラ装置用雲台
KR101033237B1 (ko) 360도 초광역 영상에 의한 영역감시, 방범 및 주정차단속 다기능 시스템 및 단속방법
KR102108391B1 (ko) 다수개의 카메라를 활용한 이동물체 연계추적시스템 및 방법
KR20150019230A (ko) 복수의 카메라를 이용한 객체 추적 방법 및 장치
JPWO2020065852A1 (ja) 認証システム、認証方法、及び、プログラム
KR20200010691A (ko) 이종 카메라를 활용한 인물인식 및 교통통제시스템
JP3828096B2 (ja) 物体追跡装置
KR101814040B1 (ko) 3차원 깊이 정보 초점 조절을 이용한 통합 관제 장치
TWI471825B (zh) 天台安全監控系統及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100818

R150 Certificate of patent or registration of utility model

Ref document number: 4574509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3