JP3903062B2 - 監視システムおよびカメラ端末 - Google Patents

監視システムおよびカメラ端末 Download PDF

Info

Publication number
JP3903062B2
JP3903062B2 JP2005517640A JP2005517640A JP3903062B2 JP 3903062 B2 JP3903062 B2 JP 3903062B2 JP 2005517640 A JP2005517640 A JP 2005517640A JP 2005517640 A JP2005517640 A JP 2005517640A JP 3903062 B2 JP3903062 B2 JP 3903062B2
Authority
JP
Japan
Prior art keywords
camera
shooting
area
camera terminal
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005517640A
Other languages
English (en)
Other versions
JPWO2005076621A1 (ja
Inventor
篤 吉田
勝司 青木
昭一 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3903062B2 publication Critical patent/JP3903062B2/ja
Publication of JPWO2005076621A1 publication Critical patent/JPWO2005076621A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19623Arrangements allowing camera linear motion, e.g. camera moving along a rail cable or track
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19695Arrangements wherein non-video detectors start video recording or forwarding but do not generate an alarm themselves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、複数のカメラ端末から構成される監視システムに関し、特に、監視区域全体を監視できるように、各カメラ端末が周囲のカメラ端末と協調して動作する監視システム等に関する。
複数台のカメラを用いることで、1台のカメラだけでは不可能だった高機能な監視が可能となる。
従来、複数台のカメラを用いた監視システムとして、例えば、特許文献1に開示された技術がある。図1は、特許文献1に記載された、複数台のカメラの検出領域を自動調整する装置の構成図である。本図において、広い撮影範囲にわたって検出対象を撮影する目的を負う移動物体検出用カメラ10011は、姿勢制御手段10012により自身の撮影範囲を変更し、検出対象の拡大画像を撮影する目的を負う監視用カメラ10021は、姿勢制御手段10022により自身の撮影範囲を変更する。各カメラ端末の撮影範囲は、画像処理装置10040において、移動物体検出用カメラ10011が撮影した撮影画像から抽出した撮影対象の位置と各カメラ端末の検出範囲から、カメラ画角記憶手段10031およびカメラ画角記憶手段10032に予め記憶させた情報をもとに決定する。
図2〜図4は、この装置における各カメラの撮影範囲の決定手順の説明図であり、数個のブロック画像に分割した移動物体検出用カメラ10011が撮影した画像を示している。
移動物体検出用カメラ10011の撮影範囲は以下のように決定される。図2の斜線で示すブロックに撮影対象が存在する場合には、それぞれのブロック位置が図2に示されるブロック位置と対応している図3の各ブロックに記載した矢印の方向が示す方向に移動物体検出用カメラ10011の姿勢を変化させ、同カメラの撮影範囲を変更する。各ブロック位置に対応した移動物体検出用カメラ10011の撮影範囲は予め人間が決定しており、同情報は10031カメラ画角記憶手段に予め設定されている。
一方、監視用カメラ10021の撮影範囲は以下のように決定される。図4に示されるブロック位置に撮影対象が存在する場合には、破線で示した撮影範囲になるよう監視用カメラ10021の姿勢を変化させ、同カメラの撮影範囲を変更する。各ブロック位置に対応した監視用カメラ10021の撮影範囲は予め人間が決定しており、同情報はカメラ画角記憶手段10032に予め設定されている。
このように、特許文献1に開示された監視システムによれば、監視領域内の広範囲撮影と所定の対象物の詳細撮影とが同時に行われる。
また、複数台のカメラを用いた監視システムの別の従来技術として、撮影位置を変更できる移動カメラを用いて広範囲を監視するものがある(例えば、特許文献2参照)。図5は、特許文献2に記載された移動カメラ10の構成図である。本図に示されるように、移動カメラ10は、ケーシング12と、ケーシング12の下部に取り付けられたカメラユニット14とを備え、レール20に沿って移動することが可能である。ケーシング12の内部には、移動を制御するためのプログラミング・コントローラユニット、搬送機構を制御するためのモータ制御ユニットを含む種々の機能を制御する総合制御ユニットが配置されており、監視の目的に応じてレール20の軌道上を移動する速度、位置、ズーム等を制御することができる。以上の構成をとることにより、移動カメラ10は、例えば、図6に示されるレンタルビデオショップ等の店舗内の所定の監視領域内に設置されたレール20の軌道上を移動しながら撮影を行うことで、少ない台数のカメラであっても監視領域において死角となる領域が少なくなるように監視することができる。
また、複数台のカメラを用いて画像を得る別の従来技術として、特許文献3に開示された撮像装置がある。この撮像装置は、被写体を撮影する複数の撮影系と、複数の撮影系に任意の輻輳角を与える輻輳角制御手段とを利用して、複数の撮影系から得られる複数の画像情報を得る際、複数の撮影系の撮影条件を検出する検出手段からの撮影情報と、該複数の撮影系の結像倍率情報を予め記憶している記憶手段からの結像倍率情報とを利用して、輻輳角制御手段により複数の撮影系間の撮影範囲の重複領域が一定範囲内に保たれるように複数の撮影系の輻輳角を制御する。これによって、複数の撮影系からの複数の画像情報を得る際、撮影系間の撮影範囲の重複領域が抜けることなく撮影範囲を有効に使用することができる。
さらに、複数台のカメラを用いた監視システムの別の従来技術として、特許文献4に開示されたビデオ式区域監視装置がある。この装置は、区域を監視するための固定パイロットカメラと、少なくとも区域の一部を監視するための1以上の移動可能な遠隔操作カメラとから成る。パイロットカメラは、区域を表す信号を発生させる。パイロットカメラによって監視される区域内の移動物体の位置が決定され、物体の位置を表す信号が発生される。遠隔操作カメラは、物体の位置を表す信号に基づいて物体を追跡する。パイロットカメラは魚眼レンズを備え、従って、遠隔操作カメラより広い視野を有する。監視中の区域はデカルト、極座標または球形座標に区分され、それによってコンピュータが物体を追跡するよう遠隔操作カメラに指令することができる。区域を表す信号は、圧縮されて遠隔監視のために通信チャンネルを通して送信される。これによって、区画全体の監視と移動物体の監視とが行われる。
しかしながら、上記特許文献1〜4に開示された従来技術では、システムを構成するカメラ端末の構成と役割が固定され、柔軟性に欠けるという問題がある。そのために、監視システムを構成するカメラ端末の増設や一部のカメラ端末の故障などによるシステム構成の拡張や変化等が生じた場合には、システム全体を再構成しなければならない。たとえば、1台のカメラ端末が故障した場合には、もはや監視システムとして機能しなくなる。
例えば、上記特許文献1に開示されたカメラ端末は、広い範囲を撮影する移動物体検出用カメラ10011と検出対象の拡大画像を撮影する監視用カメラ10021とに予め役割が与えられており、移動物体検出用カメラ10011と監視用カメラ10021を連携させて1台の移動物体検出用カメラ10011で撮影できる範囲よりも広い範囲を撮影することができない。また、監視用カメラ10021に対して死角となる領域を移動物体検出用カメラ10011が代わりに拡大画像を撮影するといった、一方のカメラが持つ機能を他方のカメラ端末が代わりを行うことができない。このため監視用カメラ10021が監視区域に対して死角を持たないように、予めカメラの設置を決めておく必要がある。
さらに、上記特許文献1に開示された2台のカメラによる協調動作においては、移動物体検出用カメラ10011の対象物の検出結果に対して監視用カメラ10021の撮影内容の変更手順が1対1で対応づけられており、例えば移動物体検出用カメラ10011の台数を増やして移動物体検出の精度を向上させた場合には、改めて複数の移動物体検出用カメラ10011の検出結果の組合せのパターン全てに対して、監視用カメラ10021の動作を対応付ける必要がある。
また、上記特許文献1〜4に開示された従来技術では、複数のカメラそれぞれに対して異なる役割が与えられているために、監視における死角が発生し易く、監視能力が十分ではないという問題もある。
例えば、上記特許文献2に開示された監視システムを構成する複数台の移動カメラ10では、監視領域内をレール20の軌道上に沿って一定の時間内で移動しながら監視領域の撮影を行うことで監視領域に対してより死角の少ない監視を行うことが可能になるものの、全ての移動カメラ端末で監視領域全体を同時に監視し続けることができない。このため、例えば侵入者が移動カメラ10の動きに合わせて、常に移動カメラ10の死角となる領域に移動する場合には、もはや、監視システムは侵入者を発見することができない。
特開平11−103457号公報 特開2001−142138号公報 特開平7−303207号公報 特開平8−265741号公報
そこで、本発明は、このような上記従来の技術の課題を解決するものであり、システム構成の変化に柔軟に対応でき、かつ、高い監視能力をもつ監視システム等を提供することを目的とする。
上記目的を達成するために、本発明は、通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムであって、前記複数のカメラ端末は、前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手段を有するカメラと、前記撮影領域の位置を特定する情報である撮影位置情報を含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と、当該カメラ端末の撮影位置情報と前記通信手段で受信された他のカメラ端末の撮影位置情報とから得られる、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域との距離間隔を、所定の目標値に近づけるように、当該カメラ端末のカメラを制御して撮影領域を変更する撮影特性変更手段とを備えることを特徴とする。
たとえば、前記撮影特性変更手段は、当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と、特定された他のカメラ端末からの撮影位置情報と当該カメラ端末の撮影位置情報に基づいて、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影領域との距離間隔に関する評価値を与える領域差評価部と、前記領域差評価部で与えられる評価値が所定の目標値に近づくように前記カメラを制御して撮影領域を変更する撮影領域変更部とを有していてもよい。
これによって、複数のカメラ端末は、他のカメラ端末と情報交換し合いながら、自己の撮影領域と隣接する撮影領域とが一定の関係となるように自己の撮影領域の位置やサイズを変更し、その結果として、監視システム全体に各撮影領域が偏りなく均一に分散され、高い監視能力が維持される。そして、特別な中央集中型のコントローラを必要とせず、かつ、複数のカメラ端末は、いずれも、同一の機能を備えているので、一部のカメラ端末が故障したり、カメラ端末が増設される場合であっても、システム構成を変更することなく、監視が継続される。
また、前記複数のカメラ端末はさらに、当該カメラ端末を移動させる移動手段と、前記移動手段を制御することによって当該カメラ端末の撮影領域の位置を変更する移動制御手段とを備え、前記移動制御手段は、当該カメラ端末の撮影特性情報と前記通信手段で受信された他のカメラ端末の撮影特性情報とに基づいて、前記複数のカメラ端末によって前記監視領域をよりくまなく同時撮影できるように、前記移動手段を制御してもよい。これによって、監視領域に対して複数のカメラ端末によって同時に撮影される撮影領域の割合が増加するように制御したり、監視領域における複数のカメラ端末の撮影領域がより均一に分散するように制御することが容易となる。
なお、本発明は、このような監視システムとして実現することができるだけでなく、監視システムを構成する単体のカメラ端末として実現したり、複数のカメラ端末を用いた監視方法として実現したり、カメラ端末が備える撮影特性変更手段や移動制御手段等の処理をコンピュータに実行させるプログラムとして実現することもできる。そして、そのプログラムをCD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
本発明の監視システムによれば、相互に協調して動作する複数のカメラ端末から構成され、各カメラ端末は同一機能を備えるので、一部のカメラ端末が故障や停止などによって撮影機能が失っても、他の複数のカメラ端末が互いに協調して監視領域を覆うように動作するので、システムを再構成することなく、監視が継続される。
また、本発明の監視システムによれば、監視システムを構成する複数のカメラ端末を監視区域内の適当な位置に設置したり、カメラ端末を任意の位置に増設した場合であっても、互いに隣り合う撮影領域が一定の位置関係となるように撮影領域が変更されるので、役割分担や設置台数等の制約が少ない柔軟な監視システムが実現される。
また、本発明の監視システムによれば、どのカメラ端末からも撮影されていない未撮影領域が監視区域全体において減少するように、各カメラ端末の撮影領域が自動的に変更されるので、高い監視能力が維持される。
また、本発明の監視システムによれば、カメラ端末の設置位置ごとに映像の歪みの少ない領域を優先的に撮影するように撮影領域が自動変更されるので、複数のカメラ端末によって歪みの少ない広い範囲の映像を撮影することができる。
また、本発明の監視システムによれば、対象物が撮影領域内に存在する場合、対象物を追跡しながら撮影するカメラ端末と対象物の周囲を取り囲むように撮影を行う複数のカメラ端末とに役割が自動的に分担されるので、対象物を追跡しながら周囲の広い範囲を撮影することができる。
また、本発明の監視システムによれば、監視システムを構成する複数のカメラ端末を監視区域内の適当な撮影精度に設定しても、互いに周囲のカメラ端末間で撮影精度が均一になるように設定が自動変更されるので、各カメラ端末から得られる映像の大きさの比較や画像合成等を容易に行うことができる。
また、本発明の監視システムによれば、撮影領域内に対象物が現れた場合には対象物を詳細な精度で撮影し、対象物が撮影領域からなくなると再び周囲のカメラ端末と同じ撮影精度で撮影するように撮影精度が自動的に調整されるので、対象物の出没に伴う煩わしい操作が不要となる。
また、本発明の監視システムによれば、複数の移動カメラ端末を適当な位置に設置しても、各移動カメラ端末は周囲の隣り合う撮影領域と所定の重なり領域を持ち、さらに監視領域の境界と所定の距離を持つように移動するので、複数の移動カメラ端末による同時撮影において、監視領域に対する死角が少なくなる位置に各移動カメラ端末が自動的に配置され、高い監視能力が維持される。
また、本発明の監視システムによれば、各移動カメラ端末は監視領域に存在する対象物の位置や形状、向きに関する情報を記憶し、対象物の位置や形状、向きによる撮影箇所や死角の位置をより正確に特定して移動するので、複数の移動カメラ端末による同時撮影において、監視領域に対する死角が少なくなる位置に各移動カメラ端末が自動的に配置される。
また、本発明の監視システムによれば、監視領域に存在する対象物の状態を所定の条件で検出することで、監視領域内の対象物の状態が変化し、各移動カメラ端末が記憶している内容と異なる場合においても、各移動カメラは改めて対象物の状態に関する情報を変更し、対象物の位置や形状、向きによる撮影箇所や死角の位置をより正確に特定して移動するので、複数の移動カメラ端末による同時撮影において、監視領域に対する死角が少なくなる位置に各移動カメラ端末が自動的に配置される。
また、本発明の監視システムによれば、複数の移動カメラ端末による同時撮影において監視領域に対する死角が少なくなる位置に各移動カメラ端末が移動し、さらに任意の移動カメラ端末が対象物を撮影領域に捕らえた場合に、対象物を所定の位置(距離、方向)から撮影できる位置に移動するので、監視領域のより死角の少ない広範囲撮影と所定の位置(距離、方向)からの対象物の詳細撮影を同時に行うことができる。
さらに、本発明の監視システムによれば、各移動カメラ端末に対して監視領域に存在する対象物の位置や形状、向きなどの情報を与えなくても、各移動カメラ端末が撮影した映像を比較することによって監視領域において実際に撮影されている領域と死角となっている領域の区別を行うので、地図情報等を備えていなくても、各移動カメラ端末は、監視領域に対する死角が少なくなる位置に移動することができる。
以下本発明における実施の形態について、図面を参照しながら説明する。
図7は、本発明の実施の形態における監視システムの基本構成図である。ここでは、後述する個々の実施の形態に共通する構成要素を備える監視システムが示されている。
この監視システムは、同一の構成要素からなる複数のカメラ端末01および01bと、各カメラ端末01および01bの撮影特性に関する情報を伝達する通信媒体02から構成され、各カメラ端末01および01bは監視システム全体として監視区域全体をより詳細に監視できるように周囲のカメラ端末と協調して撮影特性を変更する。以下、1台のカメラ端末01を中心に説明する。
カメラ端末01は、自律的に他のカメラ端末と協調して撮影特性を変更する自律協調カメラであり、他のカメラ端末01bとの間で撮影内容に関する情報を通信するための通信部03と撮影特性の変更が可能な撮影素子04と、撮影素子04の撮影特性を変更する撮影特性変更部05から構成され、カメラ端末01の撮影特性および、他のカメラ端末01bの撮影特性との関係が所定の条件を満たすように撮影特性変更部05が撮影素子04の撮影特性を変更する。
次に、本発明における監視システムが備える撮影特性変更部05が変更を行う撮影素子04の撮影特性について説明する。図8(a)および(b)は、撮影特性変更部05において利用される撮影特性に関する各種情報を示す。
図8(b)に示される撮影領域情報は、カメラ端末01の撮影領域に関する情報である。この撮影領域情報には、撮影領域の位置座標、中心座標、面積等が含まれる。また、図8の領域決定パラメータは、カメラ端末01の撮影領域情報を決定するパラメータである。この領域決定パラメータには、カメラ端末01の設置位置(x、y、z)、視線方向を示すパン角θP、チルト角θT、および焦点距離f等が含まれる。
また、図8(b)に示される撮影精度情報は、カメラ端末01の撮影映像の精度に関する情報である。この撮影精度情報は、例えば、撮影映像の解像度、または撮影映像が実際に撮影している領域の大きさを示す。また、図8(b)に示される領域決定パラメータは、カメラ端末01の撮影領域情報を決定するパラメータであり、例えば、焦点距離fである。
(実施の形態1)
まず、本発明の実施の形態1について説明する。
図9は、本発明の実施の形態1における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末101および101bと、各カメラ端末101および101bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末101および101bは監視システム全体として監視区域全体をより詳細に監視できるように周囲のカメラ端末と協調して撮影特性を変更する。以下、1台のカメラ端末101を中心に説明する。
カメラ端末101は、実施の形態1における自律協調カメラである。
通信媒体102は、複数のカメラ端末をつなぐ通信ネットワークである。
通信部103は、カメラ端末101の撮影領域情報と領域決定パラメータを通信する通信インターフェースである。
撮影素子104は、上述した撮影領域の変更が可能なCCDカメラ等である。
撮影特性変更部105は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部106、領域差評価部107、撮影領域変更部108から構成される。
協調相手決定部106は、通信部103で受信された他のカメラ端末101bの撮影領域情報と領域決定パラメータに基づいて、他のカメラ端末101bの中から互いの撮影領域が隣り合うカメラ端末101bを決定する。
領域差評価部107は、協調相手決定部106で決定されたカメラ端末101bおよびカメラ端末101の撮影領域情報および領域決定パラメータに基づいて、カメラ端末101bの撮影領域とカメラ端末101の撮影領域との距離に対して評価値Aを与える。
撮影領域変更部108は、評価値Aが所定の目標値Aに近づくように撮影素子104の領域決定パラメータを変更する。つまり、協調相手決定部106で決定されたカメラ端末101bおよびカメラ端末101の撮影領域情報および領域決定パラメータに基づいて、カメラ端末101bの撮影領域とカメラ端末101の撮影領域とが予め定められた一定の関係となるように、カメラ端末101の撮影素子104を制御して撮影領域を変更する。
背景技術においては、監視区域全体に対して1台のカメラ端末が一度に撮影できる範囲より広い範囲を撮影することができない。また、この問題を解決するために複数のカメラ端末を用いる場合が考えられるが、各カメラ端末が対してそれぞれの撮影領域をどのように割り振るかを決定する必要がある。
これに対し、本実施の形態1に係る構成によれば、各カメラ端末101は、通信部103により通信を行っている他のカメラ端末101bの中から協調相手決定部106により互いの撮影領域が隣り合うカメラ端末を特定し、領域差評価部107によって互いに隣り合う撮影領域の距離に対して評価値Aを求め、撮影領域変更部108により評価値Aが所定の目標値をとなる距離間隔を持つように撮影領域を変更することにより、監視システムを構成する各カメラ端末の撮影領域を、互いに隣り合う撮影領域と所定の距離間隔に保つように変更することができる。さらに図16(a)および(b)に示されるように、隣り合う撮影領域の距離間隔をマイナスの値にすることで、互いに隣り合う撮影領域が所定の重なり領域を持ち、複数のカメラ端末101が互いの撮影領域を隣接させて隙間のない1台のカメラが撮影できる範囲よりも広い範囲を撮影するように自動的に撮影領域を変更することができる。
次に、監視システムを構成するカメラ端末101の撮影領域を変更する手順について図10(a)〜(c)を用いて説明する。
(処理A)
(ステップA01)まず、通信部103における処理を開始する。
(処理A−1)
(ステップA101)カメラ端末101の撮影領域情報と領域決定パラメータを取得する。
(ステップA102)カメラ端末101の撮影領域情報と領域決定パラメータを他のカメラ端末101bに通知する。
(ステップA104)他のカメラ端末101bから撮影領域情報と領域決定パラメータの通知があるかどうかを判定する。通知があればステップA105に移る。通知がなければステップA101に戻る。
(ステップA105)他のカメラ端末101bから通知された撮影領域情報と領域決定パラメータを取得し、処理A−1を終了する。
ここで、ステップA101において取得される撮影領域情報と領域決定パラメータの関係について撮影素子の形状が矩形である場合を例に図11を用いて説明する。この図は、カメラ端末101を床面の方向に向けて天井に設置した場合を想定した図である。カメラ端末101の焦点の位置を(x、y、0)、天井の高さをH、撮影素子の形状が矩形でその縦横の長さを(Wx、Wy)、焦点距離をf、カメラ端末101の視線方向示すパン角、チルト角をθP、θTとする時、カメラ端末101によって撮影される床面領域の位置は、以下の式1〜式4によって求められる。つまり、撮影素子104とカメラ端末101の視野領域の位置関係については式1〜式4によって示される。ここで、上記式1〜式4で用いられている撮影素子の位置座標は、以下の式5〜式8に示される。つまり、カメラ端末101の領域決定パラメータ(パン角θP、チルト角θT、焦点距離f、カメラ端末101の設置位置(x、y、z))と撮影素子104の位置との関係は、式5〜式8によって示される。
Figure 0003903062
Figure 0003903062
また、撮影素子104に対応する視野領域は、カメラ端末101の視線方向によって矩形から歪んだ形となる。このため以下の説明では図12に示されるように視野領域に内接する矩形領域をカメラ端末101の撮影領域として説明をする。
(ステップA02)次に、撮影特性変更部105における処理を開始する。
(処理A−2)
(ステップA201)協調相手決定部106は、カメラ端末101の撮影領域と隣り合う撮影領域を持つカメラ端末101bを特定する。
(ステップA202)協調相手決定部106は、隣り合う撮影領域を持つカメラ端末101が存在するかどうかを判定する。存在する場合はステップA203に移り、存在しない場合は処理A−2を終了する。
(ステップA203)領域差評価部107は、撮影領域が隣り合うカメラ端末101bと撮影領域の距離間隔に対して評価値Aを求める。
(ステップA204)評価値Aが所定の目標値と異なるかどうかを判定する。目標値と異なる場合はステップA205に移る。目標値と等しい場合は処理A−2を終了する。
(ステップA205)撮影領域変更部108は、評価値Aが目標値に近づくようカメラ端末101の領域決定パラメータを変更し処理A−2を終了する。
以下、ステップA01(処理A−1)とステップA02(処理A−2)を繰り返す。
ステップA201における隣り合う撮影領域を持つカメラ端末101bの具体的な決定手順の一例について図13(a)および(b)に示されるフローチャートを用いて説明する。なお、ここでは、カメラ端末101の撮影領域と他のカメラ端末101bの撮影領域の位置関係が図14に示される位置関係にある場合を例にして説明する。
(処理A−3)
(ステップA301)カメラ端末101の撮影領域(1)の中心を基点にカメラ端末の撮影領域が移動可能な方向に基づいてカメラ端末101の撮影可能な全領域を複数の領域に分割する。図14の例では、カメラ端末101の撮影領域をその中心を基点として撮影領域を移動可能なパン方向、チルト方向に対して点線で区切られた4つの領域に分割する。
(ステップA302)他のカメラ端末101bの撮影領域の中心がステップA301で分割された領域のうちのどの領域に存在するかによって他のカメラ端末101bをグループ分けする。
図14の例では、図14において上下左右の4つ分割された各領域に対してそれぞれ上領域(カメラ端末2、カメラ端末3)、右領域(カメラ端末4)、下領域(カメラ端末5)、左領域(カメラ端末6、カメラ端末7)とグループ分けされる。
(ステップA303)分割された各グループに対してカメラ端末101の撮影領域の中心と最も距離の近い撮影領域の中心を持つカメラ端末を協調相手として決定する。
図14の例では、上方向にはカメラ端末2、右方向にはカメラ端末4、下方向にはカメラ端末5、左方向にはカメラ端末6がそれぞれ協調相手として決定される。
次に、カメラ端末101と他のカメラ端末101bとの撮影領域の関係を評価する手順(ステップA203)について説明する。
ステップA203におけるカメラ端末101と、他のカメラ端末101bの撮影領域の位置関係に対する評価値Aを求める手順の一例は、図15に示されるフローチャートの通りである。なお、図17は、実施の形態1におけるカメラ端末101と他のカメラ端末101bの撮影領域の位置関係の様子を示す図である。また、隣り合う撮影領域の距離関係に対して評価値Aを決定する評価関数Aの一例は、以下の式9、式10、式11、式12の通りである。
Figure 0003903062
(処理A−4)
(ステップA401)撮影領域を変更するにあたり処理A−3において分割された各グループに対してカメラ端末101と協調する相手が存在するかどうかを調べる。協調すべき相手が存在すればステップA403に移る。協調すべき相手が存在しない場合は処理A−4を終了する。
(ステップA402)協調すべき他のカメラ端末101bの撮影領域とカメラ端末101の撮影領域との距離を求める。
図17の例では、カメラ端末101の撮影領域の図における左側の撮影領域4とカメラ端末101の撮影領域1との距離(XL−X1)を求めた場合を例に説明する。
(ステップA403)ステップA402において求められた撮影領域間の距離(XL−X1)と所定の定数Cとの差異に対して評価値Aを求める。
以下、撮影領域5、撮影領域2、撮影領域3についても撮影領域4と同様にステップA401からステップA404を繰り返し、それぞれ上記式10、式11、式12によって評価値Aを求め、その平均値がカメラ端末101と撮影領域が隣り合う周囲のカメラ端末101bとの位置関係に対する評価値Aとなる。
ここで、評価関数Aは、隣り合う撮影領域との距離間隔(XL−X1)と所定の距離間隔Cとの関係を評価する関数であれば、上記式9、式10、式11、式12以外にも、領域決定パラメータ(θP、θT、f)の変更可能な範囲において距離(XL−X1)が所定の定数Cと等しい時に評価値Aが最も小さく(または大きく)なり、また、距離(XL−X1)が所定の定数Cとの差が広がるにつれて評価値Aが単調に大きく(または小さく)なる関数であればよい。
次に、ステップA205において撮影領域変更部108が撮影領域を変更する手順について説明する。
撮影領域変更部108は、評価値Aが目標値Aとして極小値(極大値)に近づくように撮影領域を変更するために、上記評価関数Aをそれぞれ領域決定パラメータ(θP、θT、f)で偏微分した導関数を含む以下の式13、式14、式15の更新式に従って領域決定パラメータ(θP、θT、f)を変更する。
Figure 0003903062
以上のような手順によって、各カメラ端末101は、領域決定パラメータ(θP、θT、f)を変更することで隣り合う撮影領域と互いの距離間隔を所定の距離Cに保つように撮影領域を自動的に変化させることができる。
次に、実施の形態1におけるカメラ端末101から構成される監視システムの具体的な動作の例について図18、図19を用いて説明する。ここでは、天井の高さが一様な部屋の天井に複数のカメラ端末101を設置し、互いの撮影領域の距離間隔が負の値Cとなるように動作させた場合を例として説明する。
図18に示されるように実施の形態1における監視システムは、各カメラ端末の向きや位置を適当に設置しても、互いに隣り合う撮影領域は間隔Cだけ重なり領域を持つように撮影領域を変更することにより隣り合う撮影領域と隙間を持たない広い撮影領域を協調して撮影することが可能となる。
また、図19に示されるように複数のカメラ端末101のうち任意のカメラ端末101の撮影領域を変更した場合、他のカメラ端末101bは撮影領域を変更したカメラ端末101の動きに合わせて撮影領域を変更するため、監視システムは複数のカメラ端末群を広い撮影領域を持つ1台のカメラ端末のように動作させることができる。
(実施の形態2)
次に、本発明の実施の形態2について説明する。
図20は、本発明の実施の形態2における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末201および201bと、各カメラ端末201および201bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が、実施の形態1における撮影領域の制御に加えて、予め定められた基準領域と一定の位置関係となるように撮影領域を調整する点に特徴を有する。以下、1台のカメラ端末201を中心に説明する。なお、図20において図9と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末201は、実施の形態2における自律協調カメラである。
撮影特性変更部205は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部106、領域差評価部107、自己領域評価部211、基準領域記憶部212、撮影領域変更部213から構成される。
自己領域評価部211は、カメラ端末201の撮影領域の中心座標と所定の位置の位置関係に対して、同じ位置ある場合に目標値Bをとり、距離が離れるにつれて目標値から単調に値が遠ざかる評価値Bを与える処理部である。
基準領域記憶部212は、撮影において基準となる領域の位置情報を記憶するメモリ等である。
撮影領域変更部213は、上記評価値Aに加えて評価値Bが所定の目標値に近づくように撮影素子104の領域決定パラメータを変更する処理部である。つまり、実施の形態1における撮影領域変更部108の機能に加えて、カメラ端末201の撮影領域が基準領域と一定の位置関係となる(例えば、位置が一致する)ように、カメラ端末201の撮影素子104を制御して撮影領域を変更する。
背景技術においては、広い範囲の撮影は1台のカメラ端末で行われており、カメラ端末が撮影可能な領域の境界付近を撮影する場合には、撮影された映像に歪みが生じてしまうため画像の認識処理において認識率が低下する等の問題がある。
これに対し、本実施の形態2に係る構成によれば、基準領域記憶部212に撮影映像の歪みが少ない領域を基準領域として与え、自己領域評価部211がカメラ端末201の撮影領域と基準領域との距離に対して評価値Bを求め、撮影領域変更部213が各カメラ端末201の撮影領域を基準領域に近づけるように変更することで、各カメラ端末201は周囲のカメラ端末201bと互いの撮影領域を隣接させながらも比較的歪みの少ない領域を担当し、結果として各カメラ端末201が撮影した歪みの少ない映像を合成することで、監視システムとして歪みの少ない広範囲の映像を取得できる。
次に、実施の形態2におけるカメラ端末201の撮影領域の変更における動作手順について説明する。
図21(a)および(b)は、カメラ端末201が撮影領域を変更する手順を示したフローチャートである。なお、図21(a)および(b)において図10(a)〜(c)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理B)
(ステップB01)次に、撮影特性変更部205における処理を開始する。
(処理B−1)
(ステップB101)自己領域評価部211は、カメラ端末201の撮影領域に対して評価値Bを求める。
(ステップB102)協調相手決定部106は、カメラ端末201の撮影領域を変更するにあたり協調すべき相手を決定する。
(ステップB103)協調相手決定部106は、カメラ端末201の撮影領域を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップB104に移り、協調すべき相手が存在しない場合はステップB105に移る。
(ステップB104)領域差評価部107は、協調すべき相手の撮影領域とカメラ端末自身の撮影領域との位置関係に対して評価値Aを求める。
(ステップB105)撮影領域変更部213は、評価値A、評価値Bが所定の目標値A、目標値Bと異なるかどうかを判定する。目標値と異なる場合はステップB106に移る。目標値と等しい場合は処理B−2を終了する。
(ステップA106)撮影領域変更部213は、評価値A、評価値Bがそれぞれ目標値に近づくようにカメラ端末201の領域決定パラメータを変更し、処理B−2を終了する。
以下、ステップA01(処理A−1)とステップB01(処理B−1)を繰り返す。
次に、ステップB101において、自己領域評価部211がカメラ端末201の撮影領域の中心座標と基準領域記憶部212に記録されている基準領域の中心座標との距離に対して評価値Bを与える手順について図22のフローチャートを用いて説明する。なお、ここでは、カメラ端末201の撮影領域と基準領域との位置関係が図23に示される位置関係にあり、さらに評価関数Bが以下に示される関数であった場合を例に説明する。
Figure 0003903062
(ステップB201)カメラ端末201の撮影領域の中心座標(x,、y、z)、またはカメラ端末201の視線方向(θP、θT)を求める。
(ステップB202)カメラ端末201の撮影領域の中心座標(x、y、z)と、基準領域の中心座標(xself、yself、zself)との位置関係に対して、上記評価関数Bを示す式16、式17、式18を用いて評価値を求める。ここで、カメラ端末201の撮影領域の中心座標(x、y、z)については、以下の式21によって求められる。また、カメラ端末201の視線方向(θP、θT)と基準領域の中心座標への視線方向(θselfP、θselfT)との関係に対して、上記評価関数Bを示す式19、式20によって評価値を求めてもよい。評価値を求めた後、処理B−3を終了する。
ここで、評価関数Bは、上記式16、式17、式18、式19、式20以外にも、カメラ端末201の領域決定パラメータ(θP、θT、f)の変更可能な範囲において、カメラ端末201の撮影領域の中心座標が基準領域の中心座標と等しいに位置にある時に評価値が最も小さく(または大きく)なり、また、カメラ端末の撮影領域の中心座標と基準領域の中心座標との距離が広がるにつれて評価値が単調に大きく(または小さく)なる関数であればよい。
ステップB102は、実施の形態1におけるステップA201と同様の手順である。
ステップB104は、実施の形態1におけるステップA203と同様の手順である。
次に、ステップB106において撮影領域変更部213が撮影領域を変更する手順について説明する。
実施の形態2における撮影領域変更部213は、評価値A、評価値Bそれぞれが目標値A、目標値Bとして極小値(または極大値)に近づくように領域決定パラメータ(θP、θT)を変更する。
評価値Aを極小値(または極大値)に近づける手順は実施の形態1の場合と同様である。評価値Bを極小値(または極大値)に近づける手順としては、例えば、上記評価関数Bをそれぞれ領域決定パラメータ(θP、θT)で偏微分した導関数を用いた以下に示される式22、式23または式24、式25の更新式によって領域決定パラメータ(θP、θT)を変更する。
Figure 0003903062
次に、実施の形態2における監視システムの動作の例について図24を用いて説明する。ここでは、天井の高さが一様の部屋の天井の適当な位置に複数のカメラ端末201を設置し、設置位置の真下が基準領域となるように設定した場合を例に説明する。
図24の左の図に示されるようにカメラ端末201の視線方向が鉛直真下から大きくずれる場合には、図12で説明した視野領域が矩形から大きく歪むため撮影される映像の形状も大きく歪んでしまう。一方、図24の右側の図に示されるように設置位置の真下の領域を予め基準領域とすることにより、各カメラ端末201は撮影領域を比較的に歪みの少ない映像を撮影できる設置位置の真下領域に変更する作用と、周囲のカメラ端末201bと互いの重なり領域を保つように撮影領域を変更する作用が釣り合う位置に撮影領域を変更する。これにより、各カメラ端末201は周囲のカメラ端末201bと撮影領域を隣接させながらも比較的に撮影映像の歪みが少ない領域を撮影領域に選ぶことができる。
また、各カメラ端末201から撮影される映像のうち比較的歪みの少ない部分(例えば中心部分)の映像をつなぎ合わせることで、監視システム全体として歪みの少ない広い範囲の映像を撮影することができる。
(実施の形態3)
次に、本発明の実施の形態3について説明する。
図25は、本発明の実施の形態3における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末301および301bと、各カメラ端末301および301bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が、実施の形態1における撮影領域の制御に加えて、監視領域内に存在する対象物と一定の位置関係となるように撮影領域を調整する点に特徴を有する。以下、1台のカメラ端末301を中心に説明する。なお、図25において図9と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末301は、実施の形態3における自律協調カメラである。
撮影特性変更部305は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部106、領域差評価部107、自己領域評価部311、対象物位置特定部312、撮影領域変更部313から構成される。
自己領域評価部311は、カメラ端末201の撮影領域の中心座標と所定の位置の位置関係に対して、同じ位置ある場合に目標値Cをとり、距離が離れるにつれて目標値Cから単調に値が遠ざかる評価値Cを与える処理部である。
対象物位置特定部312は、撮影領域に対象物が存在する場合、対象物の位置を特定する処理部である。
撮影領域変更部313は、上記評価値Aに加えて評価値Cが所定の目標値に近づくように撮影素子104の領域決定パラメータを変更する処理部である。つまり、実施の形態1における撮影領域変更部108の機能に加えて、カメラ端末301の撮影領域が対象物位置特定部312で特定された対象物と一定の位置関係となる(例えば、位置が一致する)ように、カメラ端末301の撮影素子104を制御して撮影領域を変更する。
背景技術においては、対象物の撮影を行う場合、対象物の周囲の様子は1台のカメラ端末で撮影できる範囲しか撮影できない。
これに対し、本実施の形態3に係る構成によれば、カメラ端末301が対象物を追跡しながら撮影する機能を有することにより、対象物を発見したカメラ端末301は対象物の動きを追跡しながら撮影を行い、残りのカメラ端末301bは対象物を追跡しているカメラ端末301と互いの撮影領域を隣接させながら撮影領域を変更させることにより対象物の周囲の広範囲を複数のカメラ端末301で撮影することができる。
次に、実施の形態3におけるカメラ端末301の撮影領域の変更における動作手順について説明する。
図26(a)および(b)は、カメラ端末301が撮影領域を変更する手順を示したフローチャートである。なお、図26(a)および(b)において図10(a)〜(c)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理C)
(ステップC01)撮影特性変更部305における処理を開始する。
(処理C−1)
(ステップC101)自己領域評価部311は、カメラ端末301の撮影領域に対して評価値Cを求める。
(ステップC102)協調相手決定部106は、カメラ端末301の撮影領域を変更するにあたり協調すべき相手を決定する。
(ステップC103)協調相手決定部106は、カメラ端末301の撮影領域を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップC104に移り、協調すべき相手が存在しない場合はステップC105に移る。
(ステップC104)領域差評価部107は、協調すべき相手の撮影領域とカメラ端末自身の撮影領域との位置関係に対して評価値Aを求める。
(ステップC105)撮影領域変更部313は、評価値A、評価値Cが所定の目標値A、目標値Cと異なるかどうかを判定する。目標値と異なる場合はステップC106に移る。目標値と等しい場合は処理C−2を終了する。
(ステップC106)撮影領域変更部313は、評価値A、評価値Cがそれぞれ目標値に近づくようにカメラ端末301の領域決定パラメータを変更し、処理C−1を終了する。
以下、ステップA01(処理A−1)とステップC01(処理C−1)を繰り返す。
次に、ステップC101において、自己領域評価部311がカメラ端末301の撮影領域の中心座標と対象物の位置座標との距離に対して評価値Cを与える手順について図28のフローチャートを用いて説明する。なお、ここでは、カメラ端末301の撮影領域と対象物との位置関係は図27に示される位置関係にあり、さらに評価値Cを求めるための評価関数Cが以下に示される関数であった場合を例に説明する。また、ここでは、対象物(人物)の位置座標は対象物と床面との接地面の重心として以下説明する。
Figure 0003903062
(処理C−2)
(ステップC201)カメラ端末301の撮影領域を撮影する。
(ステップC202)対象物位置特定部312は、撮影領域内に対象物が存在するかどうかを判定する。対象物が存在する場合はステップC203に移る。対象物が存在しない場合は処理C−2を終了する。
(ステップC203)撮影映像から対象物の位置座標(xobj,yobj,zobj)、または位置方向(θPobj、θTobj)を求める。
(ステップC204)カメラ端末301の撮影領域の中心座標(x、y、z)、または視線方向(θP、θT)を求める。
(ステップC205)カメラ端末201の撮影領域の中心座標(x、y、z)と対象物の位置座標(xobj、yobj、zobj)との関係に対して、上記評価関数Cを示す式26、式27、式28を用いて評価値を求める。
またはカメラ端末自身の視線方向(θP、θT)と対象物への位置方向(θPobj、θTobj)との関係に対しては上記評価関数Cの式29、式30を用いて評価値Cを求める。評価値Cを求めたら処理C−2を終了する。
ここで、評価関数Cは、上記式26、式27、式28、式29、式30以外にも、カメラ端末301の領域決定パラメータ(θP、θT、f)の変更可能な範囲において、カメラ端末301の撮影領域の中心座標と対象物の位置座標が等しい時に評価値Cが最も小さく(または大きく)なり、また、カメラ端末301の撮影領域の中心座標と対象物の位置座標との距離が大きくなるにつれて評価値Cが単調に大きく(または小さく)なる関数であればよい。
次に、カメラ端末301の領域決定パラメータの変更(ステップC106)について説明する。
実施の形態3における撮影領域変更部313は、評価値A、評価値Cがそれぞれ目標値A、目標値Cとして極小値(または極大値)に近づくように領域決定パラメータ(θP、θT)を変更する。
評価値Aを極小値(または極大値)に近づける手順は実施の形態1と同様である。評価値Cを極小値(または極大値)に近づける手順としては、例えば、上記評価関数Cをそれぞれ領域決定パラメータ(θP、θT)で偏微分して求められる導関数を用いた以下の式31、式32または式33、式34の更新式により、カメラ端末301の領域決定パラメータ(θP、θT)を変更する。
Figure 0003903062
次に、実施の形態3におけるカメラ端末301の協調動作の例について図29を用いて説明する。図29では、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数のカメラ端末301を設置し、床面を撮影している場合を例に説明する。
図29に示されるように任意のカメラ端末301の撮影領域に対象物が侵入し場合、カメラ端末301は、対象物が撮影領域の中心に来るように撮影領域を変更し、また、周囲のカメラ端末201bも互いの撮影領域の距離間隔が所定の距離Cを保つように撮影領域を変更させることで散協調監視システム全体としては対象物とその周囲の広範囲を撮影するようにカメラ端末の撮影領域を変更することができる。
これにより例えば1台のカメラ端末が追従できる速度よりも早い速度で対象物が急に移動方向を変えて視界から消えてしまう場合でも、対象物を追跡していたカメラ端末を取り囲む他のカメラ端末によって広い範囲で対象物の動きを捕らえ、再びカメラ端末どうしが協調して撮影領域を変更することにより対象物の追跡を維持することできる。
また、移動する対象物(例えば人物)の周囲に存在する道の段差や、接近してくる車等の危険物等をより広い範囲からいち早く発見することが可能となり、対象物に対して危険を迅速に知らせるなどの対応において有効である。
(実施の形態4)
次に、本発明の実施の形態4について説明する。
図30は、本発明の実施の形態4における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末401および401bと、各カメラ端末401および401bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が、実施の形態1における撮影領域の制御に加えて、撮影可能な領域の境界と一定の位置関係となるように撮影領域を調整する点に特徴を有する。以下、1台のカメラ端末401を中心に説明する。なお、図30において図9と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末401は、実施の形態4における自律協調カメラである。
撮影特性変更部405は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部106、領域差評価部107、境界領域評価部411、撮影領域変更部413から構成される。
境界領域評価部411は、カメラ端末401の撮影領域と、カメラ端末401が撮影することが可能な領域の境界との距離関係に対して、評価値Dを与える処理部である。
撮影領域変更部413は、上記評価値Aに加えて評価値Dが所定の目標値に近づくように撮影素子104の領域決定パラメータを変更する処理部である。つまり、実施の形態1における撮影領域変更部108の機能に加えて、カメラ端末401の撮影領域が撮影可能な領域の境界(例えば、監視領域の境界)と一定の位置関係となる(所定の距離だけ離れる、あるいは、重なり領域をもつ)ように、カメラ端末401の撮影素子104を制御して撮影領域を変更する。
背景技術においては、カメラ端末が撮影できる範囲よりも広い監視区域全体を一度に撮影することができない。また、この問題を解決するために複数のカメラ端末を用いる場合が考えられるが、この場合、監視区域全体を撮影できるように各カメラ端末に対してそれぞれの撮影領域を決定する必要がある。
これに対し、本実施の形態4に係る構成によれば、カメラ端末401が隣り合う撮影領域、および撮影可能な領域の境界と所定の距離を持つように撮影領域を変更することにより、監視システム全体として監視区域全体をくまなく撮影できるように各カメラ端末401の撮影領域を変更することができる。
次に、実施の形態4におけるカメラ端末401の撮影領域の変更における動作手順について説明する。
図31(a)および(b)は、カメラ端末401が撮影領域を変更する手順を示したフローチャートである。なお、図31(a)および(b)において図10(a)〜(c)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理D)
(ステップD01)撮影特性変更部405における処理を開始する。
(処理D−1)
(ステップD101)境界領域評価部411は、カメラ端末401の撮影領域と撮影可能な領域の境界との位置関係に対して評価値Dを求める。
(ステップD102)協調相手決定部106は、カメラ端末401の撮影領域を変更するにあたり協調すべき相手を決定する。
(ステップD103)協調相手決定部106は、カメラ端末401の撮影領域を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップD104に移り、協調すべき相手が存在しない場合はステップD105に移る。
(ステップD104)領域差評価部107は、協調すべき相手の撮影領域とカメラ端末自身の撮影領域との位置関係に対して評価値Aを求める。
(ステップD105)撮影領域変更部413は、評価値A、評価値Dが所定の目標値A、目標値Dと異なるかどうかを判定する。目標値と異なる場合はステップD106に移る。目標値と等しい場合は、処理D−2を終了する。
(ステップD106)撮影領域変更部413は、評価値A、評価値Dがそれぞれ目標値に近づくようにカメラ端末401の領域決定パラメータを変更し、処理D−1を終了する。
以下、ステップA01(処理A−1)とステップD01(処理D−1)を繰り返す。
次に、ステップD101において、境界領域評価部411がカメラ端末401の撮影領域と、撮影可能な領域の境界との距離に対して評価値Dを与える手順について図33のフローチャートを用いて説明する。なお、図32は、カメラ端末401の撮影領域1と撮影可能な領域の境界との位置関係、およびその位置関係を評価する評価関数Dの一例である以下の式35、式36を説明するための図である。
Figure 0003903062
(処理D−2)
(ステップD201)カメラ端末401の撮影領域を移動可能な方向に対して隣り合う撮影領域を持つ協調相手401bが存在するかどうかを判定する。協調相手が存在しない方向がある場合はステップD202に移る。協調相手が存在しない方向がない場合は処理D−2を終了する。
(ステップD202)協調相手が存在しない方向に対して、カメラ端末401の撮影可能領域の境界の位置を求める。
(ステップD203)カメラ端末401の撮影領域と撮影可能な領域の境界との距離を評価し、処理D−2を終了する。
ここで、カメラ端末401の撮影領域と撮影可能領域の境界との距離の評価内容について、図32のカメラ端末401の撮影領域と、その左側にある壁との関係を例に説明する。
まず、カメラ端末201の撮影領域と、その左側の壁との距離(XL−Xwall2)を求め、求められた距離と所定の定数Cとの差について、上記評価関数Dの式35を用いて評価値Dを求める。また、評価関数Dは、上記式35以外にも、カメラ端末401の領域決定パラメータ(θP、θT、f)の変更可能な範囲において、距離(XL−Xwall)が所定の定数Cに等しい時に評価値が最も小さく(または大きく)なり、また距離(XL−Xwall)と所定の定数Cとの差異が大きくなるにつれて評価値が単調に大きく(または小さく)なる関数であればよい。また、図32に示された上側の境界との評価値Dについては式36により求める。以下、その他の方向に対しても同様にステップD201からステップD203を繰り返し、評価値Dを求める。
次に、カメラ端末401の撮影領域の変更手順(ステップD106)について説明する。
撮影領域変更部413は評価値A、評価値Dがそれぞれ目標値A、目標値Dとして極小値(または極大値)に近づくように領域決定パラメータ(θP、θT)を変更する。
評価値Aを極小値(または極大値)に近づける手順は実施の形態1と同様である。評価値Dを極小値(または極大値)に近づける手順としては、例えば、上記評価関数Dをそれぞれ領域決定パラメータ(θP、θT)で偏微分して求められる導関数を用いた以下に示される式37、式38、式39の更新式に従ってカメラ端末201の領域決定パラメータ(θP、θT)を変更する。
Figure 0003903062
次に、実施の形態4におけるカメラ端末401の動作の例について図34、図35、図36、図37を用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数のカメラ端末401を設置し、床面を撮影している場合を例に説明する。
図34に示されるようにカメラ端末401を複数台設置した場合、監視システムを構成するカメラ端末401の台数が監視区域全体の大きさに対して十分に多い場合は、監視区域全体をくまなく監視することができる。
また、監視システムを構成するカメラ端末401の台数が監視区域全体の大きさに対して少ない場合は図35に示されるように監視区域全体に対するカメラ端末の撮影領域が一箇所に片寄ることなく、均一に分布するように撮影領域を変更することができる。
また、図36に示されるように監視システムを構成する任意のカメラ端末401が故障や停止などによって撮影機能が失っても、他のカメラ端末401bの台数が監視区域全体の大きさに対して十分に多い場合はカメラ端末401bが互いに協調して撮影領域を変更することにより再び監視区域全体をくまなく監視することができる。
また、図37に示されるように適当な位置にカメラ端末401を新たに設置する等の監視システムの拡張を行った場合には、カメラ端末401は互いに撮影領域を協調させて変更することにより、新たに追加されたカメラ端末401の機能を有効に活用できるように各カメラ端末401の撮影領域を変更することができる。
このように監視区域において適当な位置にカメラ端末401を設置しても、監視システムが監視区域全体を撮影するように各カメラ端末401の撮影領域が自動的に決定され、また、監視システムの拡張や故障に対しても監視システムの側で監視区域全体の撮影を維持することができるため、監視システムの設置やメンテナンスにかかる負担を軽減することができる。
(実施の形態5)
次に、本発明の実施の形態5について説明する。
図38は、本発明の実施の形態5における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末501および501bと、各カメラ端末501および501bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が、実施の形態1における撮影領域の制御に加えて、監視領域における未撮影領域が減少するように撮影領域を調整する点に特徴を有する。以下、1台のカメラ端末501を中心に説明する。なお、図38において図9、図30と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末501は、実施の形態5における自律協調カメラである。
撮影特性変更部505は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部106、領域差評価部107、境界領域評価部411、自己領域評価部511、未撮影領域特定部512、撮影領域変更部513から構成される。
自己領域評価部511は、カメラ端末501の撮影領域の中心座標と、所定の位置の位置関係に対して同じ位置ある場合に目標値Eをとり、距離が離れるにつれて目標値から単調に値が遠ざかる評価値Eを与える処理部である。
未撮影領域特定部512は、撮影領域に隣接するどのカメラ端末からも撮影されていない未撮影領域の位置を特定する処理部である。
撮影領域変更部513は、上記評価値Aに加えて評価値Eが所定の目標値に近づくように撮影素子104の領域決定パラメータを変更する処理部である。つまり、実施の形態1における撮影領域変更部108の機能に加えて、監視領域における未撮影領域が減少する(例えば、未撮影領域が無くなる)ように、カメラ端末501の撮影素子104を制御して撮影領域を変更する。
実施の形態4においては、監視システムを構成するカメラ端末401の台数が監視区域の大きさに比べて少ない場合、図43の左の図に示されるように撮影領域の位置関係や協調相手の決定の仕方によって未撮影領域が存在しながらも、隣り合う撮影領域の位置関係が満たされる場合が生じる。
これに対し、本実施の形態5に係る構成によれば、カメラ端末501は、未撮影領域特定部512により撮影領域に隣接する未撮影領域を特定し、自己領域評価部511によって未撮影領域の重心と撮影領域の中心との距離を評価し、さらに撮影領域変更部513によって未撮影領域が減少するようにカメラ端末501の撮影領域することができる。
次に、実施の形態5におけるカメラ端末501の撮影領域の変更における動作手順について説明する。
図39(a)および(b)は、カメラ端末501が撮影領域を変更する手順を示したフローチャートである。なお、図39(a)および(b)において図10(a)〜(c)、図31(a)および(b)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理E)
(ステップE01)撮影特性変更部505における処理を開始する。
(処理E−1)
(ステップE101)自己領域評価部511は、カメラ端末501の撮影領域と未撮影領域との位置関係に対して評価値Eを求める。
(ステップE102)協調相手決定部106は、カメラ端末501の撮影領域を変更するにあたり協調すべき相手を決定する。
(ステップE103)協調相手決定部106は、カメラ端末501の撮影領域を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップE104に移り、協調すべき相手が存在しない場合はステップE105に移る。
(ステップE104)領域差評価部107は、協調すべき相手の撮影領域とカメラ端末自身の撮影領域との位置関係に対して評価値Aを求める。
(ステップD105)撮影領域変更部413は、評価値A、評価値D、評価値Eが所定の目標値A、目標値D、目標値Eと異なるかどうかを判定する。目標値と異なる場合はステップE106に移る。目標値と等しい場合は処理E−2を終了する。
(ステップE106)撮影領域変更部513は、評価値A、評価値D、評価値Eがそれぞれ目標値に近づくようにカメラ端末501の領域決定パラメータを変更し、処理E−1を終了する。
以下、ステップA01(処理A−1)とステップE01(処理E−1)を繰り返す。
次に、ステップE101において、自己領域評価部511がカメラ端末501の撮影領域と未撮影領域の位置関係に対して評価値Eを与える手順について図40のフローチャートを用いて説明する。なお、ここでは、カメラ端末501の撮影領域の位置関係が図41に示される配置にある場合を例に説明する。また、図42はカメラ端末501の撮影領域と未撮影領域との位置関係、およびその位置関係を評価する評価関数Eの一例である以下の式を説明する図である。
Figure 0003903062
(処理E−2)
(ステップE201)カメラ端末501の撮影領域の中心を基点とし、撮影領域の移動可能方向に対して、カメラ端末501の撮影可能な領域を複数の領域に分割する。
図41では、カメラ端末501の撮影領域の中心座標を基点に撮影領域が移動可能なパン方向、チルト方向に対して撮影可能領域を4つの領域に分割する。
(ステップE202)分割された領域ごとに未撮影領域の場所を特定する。
図41では、太い枠線で囲われた領域がカメラ端末501の撮影領域と隣接する未撮影領域となる。
(ステップE203)カメラ端末501の撮影領域に隣接する未撮影領域が存在するかどうかを判定する。隣接未撮影領域が存在する場合はステップE204に移る。隣接未撮影領域が存在しない場合は処理E−2を終了する。
(ステップE204)分割された領域ごとに、カメラ端末501の撮影領域に隣接する未撮影領域の重心座標を求める。
(ステップE205)カメラ端末501の撮影領域の中心座標または視線方向を求める。
(ステップE206)カメラ端末501の撮影領域の中心座標と未撮影領域の重心との距離の差異について、上記評価関数Eの式40、式41、式42または式43、式44を用いて評価値Eを求める。全ての隣接する未撮影領域との評価値Eを求めたら処理E−2を終了する。
ここで、評価関数Eは、上記式40、式41、式42、式43、式44以外にも、領域決定パラメータの変更可能な範囲においてカメラ端末501の撮影領域の中心座標と隣接未撮影領域の重心座標が等しい時に評価値Eが最も小さく(または大きく)なり、また、カメラ端末501の撮影領域の中心座標と隣接未撮影領域の重心との距離が大きくなるにつれて評価値Eが単調に大きく(または小さく)なる関数であればよい。
次に、カメラ端末501の撮影領域の変更(ステップE205)について説明する。
撮影領域変更部513は評価値A、評価値D、評価値Eがそれぞれ目標値A、目標値D、目標値Eとして極小値(または極大値)に近づくように領域決定パラメータ(θP、θT)を変更する。評価値Aを極小値(または極大値)に近づける手順は実施の形態1と同様である。評価値Dを極小値(または極大値)に近づける手順は実施の形態4と同様である。
次に、評価値Eを極小値(または極大値)近づける手順は、上記評価関数Eをそれぞれ領域決定パラメータ(θP、θT)で偏微分して求められる導関数を用いた以下に示される式45、式46、または式47、式48の更新式に従ってカメラ端末501の領域決定パラメータ(θP、θT、f)を変更する。
Figure 0003903062
次に、実施の形態5におけるカメラ端末501の動作の例について図43を用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数のカメラ端末501を設置し、床面を撮影している場合を例にしている。
図43の左の図に示されるように撮影領域の位置関係や協調相手の決定の仕方によって未撮影領域が存在しながらも、隣り合う撮影領域の位置関係が満たされる場合に未撮影領域を取り囲むカメラ端末501は未撮影領域の重心に視線を近づけるように撮影領域を変更し、また、周囲のカメラ端末501bも互いに隣り合う撮影領域の重なりを所定の大きさに保つように撮影領域を変更するため、監視システム全体として監視区域全体における撮影領域の割合を向上させることができる。
(実施の形態6)
次に、本発明の実施の形態6について説明する。
図44は、本発明の実施の形態6における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末601および601bと、各カメラ端末601および601bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末の撮影精度が一定の関係になるように調整する点に特徴を有する。以下、1台のカメラ端末601を中心に説明する。なお、図44において図9と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末601は、実施の形態6における自律協調カメラである。
通信部603は、カメラ端末601の撮影精度情報と精度決定パラメータを通信する通信インターフェースである。
撮影素子604は、上述した撮影精度の変更が可能なCCDカメラ等である。
撮影特性変更部605は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部606、精度差評価部609、撮影精度変更部610から構成される。
協調相手決定部606は、他のカメラ端末601bの中から互いの撮影領域が隣り合うカメラ端末601bを決定する。
精度差評価部609は、協調相手決定部606で決定されたカメラ端末601bおよびカメラ端末601の撮影精度情報および精度決定パラメータに基づいて、カメラ端末601bとカメラ端末601の撮影精度の差異に対して評価値Fを与える。
撮影精度変更部610は、評価値Fが所定の目標値Fに近づくように撮影素子604の領域決定パラメータを変更する。つまり、協調相手決定部606で決定されたカメラ端末601bおよびカメラ端末601の撮影精度情報および精度決定パラメータに基づいて、カメラ端末601bの撮影精度とカメラ端末601の撮影精度が一定の関係になる(例えば、等しくなる)ように、カメラ端末601の撮影素子604を制御して撮影精度を変更する。
背景技術においては、広い範囲を撮影するカメラ端末と対象物を詳細に撮影するカメラ端末との役割が分かれており、それぞれのカメラで撮影される映像の解像度等が異なるため、これらの映像に写った対象物のサイズ比較や映像合成が容易ではない。
これに対し、本実施の形態6に係る構成によれば、複数のカメラ端末601を用いて互いに隣り合うカメラ端末601の撮影精度を均一にすることによりサイズの比較や映像合成に適した映像を撮影することができる。
次に、監視システムを構成するカメラ端末601の撮影精度を変更する手順について図45(a)〜(c)のフローチャートを用いて説明する。
(ステップF01)まず、通信部603における処理を開始する。
(処理F−1)
(ステップF101)カメラ端末601の撮影精度情報と精度決定パラメータを取得する。
(ステップF102)カメラ端末601の撮影精度情報と精度決定パラメータを他のカメラ端末601bに通知する。
(ステップF103)他のカメラ端末601bから撮影精度情報と精度決定パラメータの通知があるかどうかを判定する。通知があればステップF104に移る。通知がなければステップF101に戻る。
(ステップF104)他のカメラ端末601bから通知された撮影精度情報と精度決定パラメータを取得し、処理F−1を終了する。
(ステップF02)次に、撮影特性変更部605における処理を開始する。
(処理F−2)
(ステップF201)協調相手決定部606は、カメラ端末601の撮影精度を変更するにあたり協調すべき相手を決定する。
(ステップF202)協調相手決定部606は、カメラ端末601の撮影精度を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップF203に移り、協調すべき相手が存在しない場合は処理C−2を終了する。
(ステップF203)精度差評価部609は、協調すべき相手の撮影精度情報と精度決定パラメータとカメラ端末601の撮影精度情報と精度決定パラメータとの関係に対して評価値Fを求める。
(ステップF204)精度差評価部609は、評価値Fが所定の目標値Fと異なるかどうかを判定する。目標値Fと異なる場合はステップF205に移る。目標値Fと等しい場合は処理F−2を終了する。
(ステップF205)撮影精度変更部610は、評価値Fが所定の目標値Fに近づくようにカメラ端末601の精度決定パラメータを変更し処理F−2を終了する。
以下、ステップF01(処理F−1)とステップF02(処理F−2)を繰り返す。
次に、実施の形態6における撮影精度の変更のための協調相手の決定手順(ステップF201)について説明する。実施の形態6における協調相手の決定手順は図13(a)および(b)に示した実施の形態1における決定手順と同様である。
また、実施の形態6においては図46に示されるカメラ端末Aと他のカメラ端末のネットワークの接続関係、または図47のカメラ端末Aと他のカメラ端末の設置位置の物理的な位置関係によって協調相手を決定してもよい。
図46の例では、カメラ端末Aと直接ネットワーク接続している他のカメラ端末をカメラ端末Aの撮影精度の変更における協調相手として選ぶ。また、ネットワークを介して間接的に接続している他のカメラ端末に対しても、中継する他のカメラ端末の台数が所定の台数が所定の範囲にあるものを協調相手とするように選んでもよい。これにより、ネットワーク上で通信が交わされる範囲を制限することが可能となり、カメラ端末の台数の増加に伴うネットワーク上の通信トラフィックの増加すること防ぐことができる。
また、図47の例では、カメラ端末は互いの設置位置情報を交換し、カメラ端末の設置位置の物理的な位置関係が所定の距離範囲にあるものを協調相手として選ぶ。これによりカメラ端末を結ぶネットワークの配線経路や接続構成に関係なく、物理的な距離関係によって協調相手を選ぶことが可能となる。
次に、ステップF203におけるカメラ端末601と、他のカメラ端末601bの撮影精度の差異に対する評価値Fを求める手順の例について図48に示されるフローチャートを用いて説明する。なお、図49に実施の形態6におけるカメラ端末601と他のカメラ端末601bの撮影精度の差異の様子を示し、以下に、撮影精度の差異に対して評価値Fを決定する評価関数Fの式49、式50を示す。
Figure 0003903062
(処理F−3)
(ステップF301)カメラ端末601が他のカメラ端末601bと撮影精度の変更において協調すべき相手のうち、まだカメラ端末601の撮影精度との差異が評価されていない相手が存在するかどうかを判定する。
図49の例では、カメラ端末Aの協調相手として決定されたカメラ端末B、カメラ端末Cに対して撮影精度情報と精度決定パラメータの評価が終了したかどうかを判定する。
(ステップF302)協調相手が存在するかどうかを判定した結果、協調すべき相手が存在すればステップF303に移る。協調すべき相手が存在しない場合は処理F−3を終了する。
(ステップF303)協調すべき他のカメラ端末601bとカメラ端末601の撮影精度情報および精度決定パラメータの関係に対して評価値Fを求める。
図49の例ではカメラ端末Aとカメラ端末B、またはカメラ端末Cと焦点距離の関係に対して、上記評価関数Fの式49、式50を用いて評価値Fを求める。また、評価関数Fは、上記式49、式50以外にも、カメラ端末601の精度決定パラメータ(f)の変更可能な範囲においてカメラ端末間の所定の撮影精度情報および精度決定パラメータの差異が等しい時に評価値Fが最も小さく(または大きく)なり、また、所定の撮影精度情報および精度決定パラメータの差異が大きくなるにつれて評価値Fが単調に大きく(または小さく)なる関数であればよい。
次に、カメラ端末601の精度決定パラメータの変更手順(ステップF205)について説明する。
撮影精度変更部610は、評価値Fが目標値Fとして極小値(または極大値)に近づけるよう精度決定パラメータ(f)を変更するために、上記評価関数Fをそれぞれ精度決定パラメータ(f)で偏微分した導関数を用いた以下に示される更新式の式51に従ってカメラ端末601の精度決定パラメータ(f)を変更する。
Figure 0003903062
次に、実施の形態6におけるカメラ端末の協調動作の例について図50を用いて説明する。
図50では、天井の高さが一様で床面が矩形の部屋の天井に複数のカメラ端末601を設置し、床面を撮影している例を示している。
各カメラ端末601が図50の左側の図に示されるように、それぞれ異なる焦点距離を持ち、撮影される映像(たとえば人物の顔の映像)の解像度が異なる場合、対象物の顔認識などの処理が同じ条件で行えない等の課題がある。このため各カメラ端末601が他のカメラ端末601bと協調して所定の撮影精度を均一化させることにより図50の右側の図に示されるように各カメラ端末601は同じ解像度をもつ映像を撮影し、同じ条件で対象物の顔認識等の処理を行うことが可能となる。
(実施の形態7)
次に、本発明の実施の形態7について説明する。
図51は、本発明の実施の形態7における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末701および701bと、各カメラ端末701および701bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が、実施の形態6における撮影精度の制御に加えて、予め定められた基準精度と一定の位置関係となるように撮影精度を調整する点に特徴を有する。以下、1台のカメラ端末701を中心に説明する。なお、図51において図44と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末701は、実施の形態7における自律協調カメラである。
撮影特性変更部705は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部606、精度差評価部609、自己精度評価部711、基準精度記憶部712、撮影精度変更部713から構成される。
自己精度評価部711は、カメラ端末701の撮影精度が所定の値(基準精度記憶部712に記憶された基準精度)をとる場合に目標値Gをとり、精度が所定の値から離れるにつれて目標値Gから単調に値が遠ざかる評価値Gを与える処理部である。
基準精度記憶部712は、撮影において基準となる撮影精度である基準精度の値を記憶するメモリ等である。
撮影精度変更部713は、上記評価値Fに加えて評価値Gが所定の目標値に近づくように撮影素子604の精度決定パラメータを変更する処理部である。つまり、実施の形態6における撮影精度変更部610の機能に加えて、カメラ端末701の撮影精度が所定の値(基準精度)と一致するように、カメラ端末701の撮影素子604を制御して撮影精度を変更する。
実施の形態6に係るカメラ端末601は、周囲のカメラ端末601bと撮影精度を均一にすることができたが、その精度を目的の値に変更することができない。
これに対し、本実施の形態7に係る構成のカメラ端末701では、目的の撮影精度を基準精度として設定することにより、カメラ端末701の撮影精度を目的の撮影精度に近づけながら、均一にすることができる。
次に、実施の形態7におけるカメラ端末701の撮影領域の変更における動作手順について説明する。
図52(a)および(b)は、カメラ端末701が撮影領域を変更する手順を示したフローチャートである。なお、図52(a)および(b)において図45(a)〜(c)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理G)
(ステップG01)撮影特性変更部705における処理を開始する。
(処理G−1)
(ステップG101)自己精度評価部711は、カメラ端末701の撮影精度に対して評価値Gを求める。
(ステップG102)協調相手決定部606は、カメラ端末701の撮影精度を変更するにあたり協調すべき相手を決定する。
(ステップG103)協調相手決定部606は、カメラ端末701の撮影精度を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップG104に移り、協調すべき相手が存在しない場合はステップG105に移る。
(ステップG104)精度差評価部609は、協調すべき相手とカメラ端末701の所定の撮像精度の差異に対して評価値Fを求める。
(ステップG105)精度差評価部609は、評価値F、評価値Gがそれぞれ所定の目標値と異なるかどうかを判定する。目標値と異なる場合はステップG106 に移る。目標値と等しい場合は処理G−1を終了する。
(ステップG106)撮影精度変更部713は、評価値F、評価値Gがそれぞれ目標値に近づくよう、カメラ端末701の精度決定パラメータを変更し、処理G−1を終了する。
以下、ステップF01(処理F−1)とステップG01(処理G−1)を繰り返す。
実施の形態7における撮影精度情報の変更のための協調相手の決定手順(ステップG102)は実施の形態6と同様である。
次に、ステップG101において、自己精度評価部711がカメラ端末701の撮影精度と基準精度との差異に対して評価値Gを与える手順について図53のフローチャートを用いて説明する。なお、図54は、カメラ端末701の撮影精度と基準精度の差異を評価する評価関数Gの一例である以下の式52を説明するための図である。
Figure 0003903062
(処理G−2)
(ステップG201)カメラ端末701の撮影精度情報と精度決定パラメータを求める。
(ステップG202)カメラ端末701の撮影精度情報および精度決定パラメータと基準精度との関係に対して、上記評価関数Gの式52を用いて評価値Gを求める。評価値Gを求めたら処理G−2を終了する。
ここで、評価関数Gは、式52以外にも、カメラ端末自身の精度決定パラメータ(f)の変更可能な範囲においてカメラ端末701の所定の撮影精度情報および精度決定パラメータと基準精度が等しい時に評価値Gが最も小さく(または大きく)なり、また、カメラ端末701の所定の撮影精度情報および精度決定パラメータと基準精度との差異が大きくなるにつれて評価値Gが単調に大きく(または小さく)なる関数であればよい。
次に、カメラ端末701の撮影精度の変更(ステップG106)について説明する。
撮影精度変更部713は、評価値F、評価値Gがそれぞれ目標値F、目標値Fとして極小値(または極大値)に近づくように精度決定パラメータ(f)を変更する。
評価値Fを極小値(または極大値)に近づける手順は実施の形態6と同様である。評価値Gを極小値(または極大値)に近づける手順としては、例えば、上記評価関数Fを精度決定パラメータ(f)で偏微分した導関数を用いた以下に示される式53の更新式に従ってカメラ端末701の精度決定パラメータ(f)を変更する。
Figure 0003903062
次に、実施の形態7におけるカメラ端末の動作の例について図55を用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井に複数のカメラ端末701を設置し、床面を撮影している場合を例に説明する。
図55では、カメラ端末701に対して基準精度を与えることにより、各カメラ端末701の撮影精度を、基準精度に近い値で撮影精度の均一化を行うことができる。
これにより、例えば顔認識などにおいて、予め比較のためのテンプレート画像が用意されていた場合、テンプレートの画像と同じ解像度の映像を撮影できる撮影精度を基準精度に設定することにより、監視システムを構成する全てのカメラ端末701から顔認識処理に適した解像度を持つ映像を取得することができる。
(実施の形態8)
次に、本発明の実施の形態8について説明する。
図56は、本発明の実施の形態8における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末801および801bと、各カメラ端末801および801bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が撮影領域内に対象物を検出したか否かによって撮影精度を変更する点に特徴を有する。以下、1台のカメラ端末801を中心に説明する。なお、図56において図44と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末801は、実施の形態8における自律協調カメラである。
撮影特性変更部805は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部606、精度差評価部609、自己精度評価部811、対象物特定部812、対象物撮影用基準精度記憶部813、撮影精度変更部814から構成される。
自己精度評価部811は、カメラ端末801の撮影精度に対して、撮影精度が所定の値にある場合に目標値Hをとり、精度が所定の値から離れるにつれて目標値Hから単調に値が遠ざかる評価値Hを与える処理部である。
対象物特定部812は、撮影領域内に対象物が存在するかどうかを特定する処理部である。
対象物撮影用基準精度記憶部813は、対象物を撮影するための撮影精度を記憶するメモリ等である。
撮影精度変更部814は、上記評価値Fに加えて評価値Hが所定の目標値Hに近づくように撮影素子604の精度決定パラメータを変更する処理部である。具体的には、対象物特定部812が撮影領域内の対象物を特定した場合には、カメラ端末801の撮影精度が対象物撮影用基準精度記憶部813に記憶された撮影精度となるように撮影素子604を制御し、対象物特定部812が対象物を特定しない場合には、実施の形態6と同様に、カメラ端末801の撮影精度が他のカメラ端末と同一となるように撮影素子604を制御する。
背景技術においては、広い範囲を撮影するカメラ端末と対象物を詳細に撮影するカメラ端末とに役割が予め決められており、状況に応じてその役割を切り替えることができない。
これに対し、本実施の形態8に係る構成によれば、あらかじめ対象物を詳細に撮影するための撮影精度を基準精度として与えることにより、カメラ端末801の撮影領域内に対象物が侵入して来たカメラ端末801は対象物を詳細に撮影するために撮影精度を変更し、また、対象物が撮影領域からいなくなると再び周囲のカメラ端末と撮影精度を均一になるように変更することができる。このため対象物の近くにいるカメラ端末801が対象物の様子を詳細に撮影し、残りのカメラ端末801bは対象物の周囲の領域を同じ撮影精度で撮影するように役割を自動的に変更させることができる。
次に、監視システムを構成するカメラ端末801の撮影精度を変更する手順について図57(a)および(b)のフローチャートを用いて説明する。図57(a)および(b)は、カメラ端末801が撮影精度を変更する手順を示したフローチャートである。なお、図57(a)および(b)において図45(a)〜(c)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理H)
(ステップH01)撮影特性変更部805における処理を開始する。
(処理H−1)
(ステップH101)自己精度評価部811は、カメラ端末801の撮影精度に対して評価値Hを求める。
(ステップH102)協調相手決定部606は、カメラ端末801の撮影精度を変更するにあたり協調すべき相手を決定する。
(ステップH103)協調相手決定部606は、カメラ端末801の撮影精度を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップH104に移り、協調すべき相手が存在しない場合はステップH105に移る。
(ステップH104)精度差評価部609は、協調すべき相手とカメラ端末801の所定の撮像精度の差異に対して評価値Fを求める。
(ステップH105)精度差評価部609は、評価値F、評価値Hがそれぞれ所定の目標値と異なるかどうかを判定する。目標値と異なる場合はステップH106に移る。目標値と等しい場合は処理H−1を終了する。
(ステップH106)撮影精度変更部814は、評価値F、評価値Hがそれぞれ目標値に近づくよう、カメラ端末801の精度決定パラメータを変更し、処理H−1を終了する。
以下、ステップF01(処理F−1)とステップH01(処理H−1)を繰り返す。
次に、ステップH101において、自己精度評価部811がカメラ端末801の撮影精度と対象物を撮影するための基準精度との差異に対して評価値Hを与える手順について図58のフローチャートを用いて説明する。なお、図59は、カメラ端末801の撮影精度と対象物を撮影するための基準精度の差異を評価する評価関数Hの一例である以下の式54を説明するための図である。
Figure 0003903062
(処理H−2)
(ステップH201)カメラ端末801の撮影領域内を撮影する。
(ステップH202)撮影領域内に対象物が存在するかどうかを判定する。対象物が存在する場合はステップH203に移る。対象物が存在しない場合は処理H−2を終了する。
(ステップH203)カメラ端末801の撮影精度情報および精度決定パラメータ(f)と対象物の撮影のための基準精度(fobj)との関係に対して、上記評価関数Hの式54を用いて評価値Hを求め処理H−2を終了する。
ここで、評価関数Hは、式54以外にも、カメラ端末801の精度決定パラメータ(f)の変更可能な範囲においてカメラ端末801の所定の撮影精度が対象物の撮影のための基準精度と等しい時に評価値Hが最も小さく(または大きく)なり、また、カメラ端末自身の所定の撮影精度と対象物の撮影のための基準精度との差異が大きくなるにつれて評価値Hが単調に大きく(または小さく)なる関数であればよい。
次に、カメラ端末801の撮影精度の変更(ステップH106)について説明する。
実施の形態8における撮影精度変更部814は、評価値F、評価値Hがそれぞれ目標値F、目標値Hとして極小値(または極大値)に近づくように精度決定パラメータ(f)を変更する。
評価値Fを極小値(または極大値)に近づける手順は実施の形態6と同様である。評価値Hを極小値(または極大値)に近づける手順としては、例えば、上記評価関数Hをそれぞれ精度決定パラメータ(f)で偏微分した導関数を用いた以下に示される式55の更新式に従ってカメラ端末801の精度決定パラメータ(f)を変更する。
Figure 0003903062
次に、実施の形態8におけるカメラ端末801の動作の例について図60を用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井に複数のカメラ端末801を設置し、床面を撮影している場合を例に説明する。
図60に示されるように各カメラ端末801は撮影領域内に所定の対象物が現れると対象物を予め定められた所定の基準精度で撮影を行い、また、対象物が撮影領域からいなくなると再び周囲のカメラ端末801bと撮影精度を均一化させるように振舞う。
これにより監視区域に対象物が存在しない場合には、全てのカメラ端末801は同じ撮影精度で監視区域内を撮影し、対象物が存在する場合には、対象物を捕らえたカメラ端末801のみに対象物を詳細に監視させることができる。
(実施の形態9)
次に、本発明の実施の形態9について説明する。
図61は、本発明の実施の形態9における監視システムの構成図である。この監視システムは、同一の構成要素からなる複数のカメラ端末901および901bと、各カメラ端末901および901bの撮影特性に関する情報を伝達する通信媒体102から構成され、各カメラ端末が実施の形態1〜8における撮影領域および撮影精度の調整機能を併せ持つ点に特徴を有する。以下、1台のカメラ端末901を中心に説明する。なお、図61において図9、図20、図25、図30、図38、図44、図51、図56と同じ構成要素については同じ符号を用い、説明を省略する。
カメラ端末901は、実施の形態9における自律協調カメラである。
通信部903は、カメラ端末901の撮影領域情報、領域決定パラメータ、撮影精度情報、精度決定パラメータを通信する通信インターフェースである。
撮影特性変更部905は、周囲のカメラ端末と協調して撮影特性を変更する処理部であり、協調相手決定部106、領域差評価部107、精度差評価部109、基準領域記憶部212、対象物位置特定部312、境界領域評価部411、未撮影領域特定部512、基準精度記憶部712、対象物特定部812、対象物撮影用基準精度記憶部813、自己領域評価部911、自己精度評価部912、撮影領域変更部913、撮影精度変更部914から構成される。
自己領域評価部911は、カメラ端末901の撮影領域に対して評価値B、評価値C、評価値D、評価値Eを与える処理部である。
自己精度評価部912は、カメラ端末901の撮影精度に対して評価値G、評価値Hを与える処理部である。
撮影領域変更部913は、評価値A、評価値B、評価値C、評価値D、評価値Eがそれぞれ目標値に近づくように領域決定パラメータを変更する処理部である。つまり、実施の形態1〜5における撮影領域変更部の機能を併せ持つ。
撮影精度変更部914は、評価値F、評価値G、評価値Hがそれぞれ目標値に近づくように精度決定パラメータを変更する処理部である。つまり、実施の形態6〜8における撮影精度変更部の機能を併せ持つ。
背景技術においては、複数のカメラ端末を協調させることで監視区域全体をくまなく撮影することと、監視区域内に存在する対象物の様子を詳細に追跡しながら撮影することを同時に行うことができない。
これに対し、本実施の形態9に係る構成によれば、カメラ端末901の撮影領域に対して領域差評価部107、境界領域評価部411、自己領域評価部911によってそれぞれ評価値A、評価値B、評価値D、評価値Eを求め、撮影領域変更部913によって評価値A、評価値B、評価値D、評価値Eがそれぞれ所定の目標値に近づくように撮影領域を変更することで監視区域全体に対して歪みの少ない映像をくまなく撮影することができる。
また、カメラ端末901の撮影精度に対して精度差評価部109、自己精度評価部912によって評価値F、評価値Gを求め、撮影精度変更部914によって評価値F、評価値Gがそれぞれ所定の目標値に近づくように撮影精度を変更することで全てのカメラ端末901から同じ撮影精度の映像を撮影することができる。
また、カメラ端末901の撮影領域内に対象物が存在する場合には、対象物位置特定部312と対象物特定部812によって対象物とその位置を特定し、自己領域評価部911によって評価値Cを、また、自己精度評価部912によって評価値Hを求め、撮影領域変更部913と撮影精度変更部914によって評価値C、評価値Hがそれぞれ目標値に近づくように撮影領域および撮影精度を変更することによって、対象物を詳細な撮影精度で追跡しながら撮影することができる。
次に、監視システムを構成するカメラ端末901の撮影領域および撮影精度を変更する手順について図62(a)〜(d)のフローチャートを用いて説明する。図62(a)〜(d)は、カメラ端末901が撮影精度を変更する手順を示したフローチャートである。なお、図62(a)〜(d)において図10(a)〜(c)、図45(a)〜(c)と同じ動作手順については同じ符号を用い、説明を省略する。
(処理I)
(ステップI101)自己領域評価部911は、カメラ端末901の撮影領域に対して評価値B、評価値C、評価値D、評価値Eを求める。
(ステップI102)協調相手決定部106は、カメラ端末901の撮影領域を変更するにあたり協調すべき相手を決定する。
(ステップI103)協調相手決定部106は、カメラ端末901の撮影領域を変更するにあたり協調すべき相手がいるかどうかを判定する。協調すべき相手が存在する場合はステップI104に移り、協調すべき相手が存在しない場合は処理I−1を終了する。
(ステップI104)領域差評価部107は、協調すべき相手の撮影領域とカメラ端末901の撮影領域の位置関係に対して評価値Aを求め、処理I−1を終了する。
(処理I−2)
(ステップI201)自己精度評価部912は、カメラ端末901の撮影精度に対して評価値G、評価値Hを求める。
(ステップI202)協調相手決定部106は、カメラ端末901の撮影精度を変更するにあたり協調すべき相手を決定する。
(ステップI203)協調相手決定部106は、カメラ端末901の撮影精度を変更するにあたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場合はステップI204に移り、協調すべき相手が存在しない場合は処理E−2を終了する。
(ステップI204)精度差評価部109は、協調すべき相手とカメラ端末901との撮影精度の差異に対して評価値Fを求め、処理I−2を終了する。
(処理I−3)
(ステップI301)評価値A、評価値B、評価値C、評価値D、評価値E、評価値F、評価値G、評価値Hの中に所定の目標値と異なるものが存在するかどうかを判断する。目標値と異なる評価値が存在すればステップI302に移る。目標値と異なる評価値が存在しなければ処理I−3を終了する。
(ステップI302)評価値A、評価値B、評価値C、評価値D、評価値E、評価値F、評価値G、評価値Hがそれぞれ所定の目標値に近づくよう領域決定パラメータ(θP、θT、f)、および精度決定パラメータ(f)を変更し、処理I−3を終了する。
以下、ステップA01(処理A−1)、ステップI01(処理I−1)、ステップF01(処理F−1)、ステップI02(処理I−2)、ステップI03(処理I−3)を繰り返す。
実施の形態9における撮影領域変更部913および撮影精度変更部914は、評価関数A、評価関数B、評価関数C、評価関数D、評価関数E、評価関数F、評価関数G、評価関数Hを領域決定パラメータ(θP、θT、f)または精度決定パラメータ(f)で偏微分した導関数を用いた以下に示される式56、式57、式58の更新式に従ってカメラ端末自身の領域決定パラメータ(θP、θT、f)、精度決定パラメータ(f)を変更する。
Figure 0003903062
次に、実施の形態9におけるカメラ端末901の動作の例について図63用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数のカメラ端末901を設置し、床面を撮影している場合を例に説明する。
図63に示されるように複数のカメラ端末901を天井の適当な位置に設置しても、監視区域全体の様子をくまなく監視できるように各カメラ端末901の撮影領域の分担と撮影精度の設定を自動的に行うことができる。
また、監視区域内に対象物が存在する場合には、監視システムとし監視区域全体の監視を維持したまま、任意のカメラ端末901によって対象物を追跡しながら詳細に監視をすることができる。
次に、実施の形態9において撮影領域が矩形以外の場合の撮影領域の変更手順について説明する。
撮影領域の形状が撮影領域を視野領域に内接する楕円形である場合、図64に示されるように撮影領域の重心を結ぶ直線上において、2つの撮影領域が重なる距離間隔Lと所定の定数Cとの差異を評価する。図65に示される撮影領域Aと周囲の撮影領域B、撮影領域C、撮影領域Dとの関係は、以下の評価関数Iの式59、式60、式61によって評価値が求められる。
Figure 0003903062
ここで、評価関数Iは、上記式59、式60、式61以外にも、カメラ端末901の領域決定パラメータ(θP、θT、f)の変更可能な範囲でカメラ端末901自身と他のカメラ端末901bの重なりの距離Lが所定の定数Cと等しい時に評価値が最も小さく(または大きく)なり、また距離Lが所定の定数Cから離れるにつれて評価値が単調に大きく(または小さく)なる関数であればよい。
次に、実施の形態9における撮影領域が矩形以外の形状をとるカメラ端末の協調動作の例について図66用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数のカメラ端末901を設置し、床面を撮影している場合を例に説明する。
図66の示すように各カメラ端末901が互いの撮影領域が重なる領域の幅Lを所定の値Cに近づけることにより、撮影領域の形状が矩形とならない場合であっても、監視区域全体に対して各カメラ端末901の撮影領域が一様に分布するように監視することが可能となる。
また、撮影領域の形状が多角形やその他の形状であってもカメラ端末901の撮影領域の重心を結び、結ばれた直線上での重なり幅Lを評価することにより、各カメラ端末の撮影領域情報を変更することができる。
次に、互いの視線が交差するカメラ端末を協調相手の候補から除外することで、カメラ端末に設置位置の真下の領域を優先的に監視させる協調相手の決定手順について図67、図68を用いて説明する。
実施の形態1、実施の形態2、実施の形態3、実施の形態4、実施の形態5、実施の形態9における撮影領域の変更において図69の左側の図に示されるようにカメラ端末の設置位置と撮影領域の位置関係が交差した状態で撮影領域の担当領域が決定した場合、カメラ端末の視線方向が鉛直真下方向からずれた状態となるため撮影領域が矩形から歪んだ形状になってしまう。このため互いの視線が交差するカメラ端末を協調相手から除外することにより図69の右側の図に示されるようにカメラ端末間の視線交差の発生を防ぐことが可能となる。
図68は実施の形態1、実施の形態2、実施の形態3、実施の形態4、実施の形態5、実施の形態9における視線が交差するカメラ端末を協調相手から除外して隣り合う撮影領域をもつカメラ端末を特定する手順を示したフローチャートである。
(処理I−4)
(ステップI401)カメラ端末901の撮影領域の中心を基点にカメラ端末901の視線が移動可能な方向に基づいて、撮影可能領域を複数の領域に分割する。
(ステップI402)他のカメラ端末901bの撮影領域の中心がステップI401で分割された領域のうち、どの領域に含まれるかによって他のカメラ端末901bをグループ分けする。
(ステップI403)各グループからカメラ端末901の視線と交差する他のカメラ端末901bを除外する。
(ステップI404)分割された各グループに対してカメラ端末901の撮影領域の中心と最も距離の短い撮影領域の中心を持つカメラ端末をカメラ端末901の協調相手として決定する。
図69に互いの視線が交差するカメラ端末を協調相手の候補から除外した場合のカメラ端末901の協調動作の例を示す。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数のカメラ端末901を設置し、床面を撮影している場合を想定している。
図69の左側の図に示されるように監視システムを構成するカメラ端末が視線を交差させた状態に対して、図68のフローチャートに従って視線が交差するカメラ端末を協調相手の候補から除外した場合、図69の右側に示されるように各カメラ端末の撮影領域をカメラ端末の設置位置の真下の領域となるように撮影領域を変更することが可能となる。
(実施の形態10)
次に、本発明の実施の形態10について説明する。
図70は、本発明の実施の形態10における監視システムの構成を示すブロック図である。この監視システムは、通信ネットワーク1103で接続された移動カメラ1101と移動部1102とからなる複数のカメラ端末から構成され、監視領域1111をくまなく監視できるように、それら複数の移動カメラ1101が自律協調的に移動する点に特徴を有する。
通信ネットワーク1103は、複数の移動カメラ1101を結ぶ伝送路である。
移動部1102は、移動カメラ1101の撮影位置を変更させる機構部等である。
移動カメラ1101は、移動部1102に支持されて移動するカメラ装置であり、通信部1104、隣接撮影領域特定部1105、撮影素子1106、撮影領域推定部1107、監視範囲記憶部1108、撮影位置評価部1109および撮影位置変更部1110から構成される。
通信部1104は、移動カメラ1101が通信ネットワーク1103を介して他の移動カメラと情報のやりとりを行うための通信インターフェースである。
隣接撮影領域特定部1105は、通信部1104に通知された他の移動カメラからの情報に対して、撮影領域が隣り合う移動カメラを推定する処理部である。
撮影素子1106は、監視領域内の映像を取り込むCCDカメラ等である。
撮影領域推定部1107は、撮影素子1106の特性と、移動部1102の位置から移動カメラ1101の撮影領域を推定する処理部である。
監視範囲記憶部1108は、移動カメラ1101が監視すべき領域の範囲を記憶しているメモリ等である。
撮影位置評価部1109は、移動カメラ1101の撮影領域と互いに隣り合う撮影領域の重なり領域、または監視領域の境界との距離を評価する処理部である。
撮影位置変更部1110は、撮影位置評価部1109による評価が一定の目標値となるように、移動部1102を制御し、移動カメラ1101の撮影位置を変更させる制御部である。具体的には、隣接する撮影領域の重なり領域が一定の目標値に一致しない場合には、その重なり領域が目標値に一致するように移動部1102を制御し、監視領域の境界との距離が一定の目標値に一致しない場合には、その距離が目標値に一致するように移動部1102を制御する。その結果、監視領域に対して複数の移動カメラによって同時に撮影される撮影領域の割合が増加するように各移動カメラの位置が制御されるとともに、監視領域における複数の移動カメラの撮影領域がより均一に分散するように各移動カメラの位置が制御される。
監視領域1111は、移動カメラ1101が監視すべき領域である。
撮影領域1112は、移動カメラ1101によって撮影されている領域である。
このような実施の形態10の構成によれば、移動カメラ1101は、自身の撮影位置と撮影素子1106の特性により推定される撮影領域に関する情報を周囲の移動カメラと通知し合い、隣り合う撮影領域との重なり領域の大きさと、監視領域の境界との距離が所定の状態に近づくように周囲の移動カメラと協調しながら撮影位置を変更することにより、複数の移動カメラ1101による同時撮影において監視領域内の死角が少なくなる撮影位置に移動することができる。
次に、監視システムを構成する移動カメラの動作手順について図71(a)〜(d)のフローチャートを用いて説明する。
移動カメラ1101は、3つの処理(処理J−1〜J−3)を繰り返し実行する。
まず、以下の処理J−1を行う(ステップJ01)。
撮影領域推定部1107は、移動カメラ1101の撮影位置と、撮影素子1106の特性から移動カメラ1101の撮影領域を推定する(ステップJ101)。
通信部1104は、ステップJ101で推定された撮影領域に関する情報を周囲の移動カメラに通知する(ステップJ102)。
通信部1104は、別の移動カメラから撮影領域に関する情報を通知されたどうか判定する(ステップJ1103)。別の移動カメラからの通知があればステップJ104に移り、通知がなければステップJ101に移る。
通信部1104は、別の移動カメラから通知された撮影領域に関する情報を取得し(ステップJ104)、処理J−1を終了する。
ここでステップJ101における移動カメラ1101の撮影領域の推定方法の一例を、図72を用いて説明する。図72において、焦点1301は、移動カメラ1101の焦点である。撮影素子1302は、移動カメラ1101の撮影素子1106である。撮影領域1303は、移動カメラ1101の撮影素子1106に焦点を通して撮影される領域である。
なお、図72は、移動カメラを床面の方向に向けて天井に設置した場合を想定した図である。移動カメラの焦点の位置を(x、y、0)、天井の高さをH、撮影素子の形状が矩形でその縦横の長さを(Wx、Wy)、焦点距離をf、移動カメラの視線方向示すパン角、チルト角をθP、θTとする時、移動カメラ1101によって撮影される床面領域の位置は、以下の式62、式63、式64、式65によって求められる。ここで、式66、式67、式68、式69は、上記式62、式63、式64、式65を求めるために用いる撮影素子の位置座標を求める式である。
Figure 0003903062
なお、図72における撮影領域の推定においては移動カメラ1101によって撮影される床面を基準としたが、床面から所定の高さhにある平面を基準としてもよい。さらに領域の推定においては平面以外にも所定の三次元的な範囲に対して、移動カメラ1101が撮影できる三次元的な空間を撮影領域として推定してもよい。
次に、移動カメラ1101は、以下の処理J−2を開始する(ステップJ02)。
隣接撮影領域特定部1105は、周囲の移動カメラからの情報を基に、撮影領域が隣り合う移動カメラを特定する(ステップJ201)。
隣接撮影領域特定部1105は、隣り合う撮影領域を持つ移動カメラが存在するかどうかを判定する(ステップJ202)。存在する場合にはステップJ203に移る。存在しない場合にはステップJ204に移る。
撮影位置評価部1109は、隣り合う領域との位置関係に対して評価値Aを求める(ステップJ203)。
監視範囲記憶部1108に記憶されている監視すべき領域の範囲を参照する(ステップJ204)。
撮影位置評価部1109は、移動カメラが移動できる方向に対して、撮影領域と監視領域の境界との間に別の移動カメラの撮影領域が存在するかどうかを判定する(ステップJ205)。存在しない場合にはステップJ206に移り、存在する場合には処理J−2を終了する。
撮影位置評価部1109は、移動カメラが移動できる方向に対して、撮影領域と監視領域の境界との位置関係に対して評価値Bを求め(ステップJ206)、処理J−2を終了する。
ここで、ステップJ201において、周囲の移動カメラの中から撮影領域が隣り合う移動カメラを特定する方法の一例について図73を用いて説明する。
図73は複数の移動カメラの撮影領域の位置関係を床面に対して垂直な方向から見た様子を示している。
移動カメラ1101の撮影領域と隣り合う撮影領域は、移動カメラ1101が移動できる方向ごとに特定するために移動カメラ1101の撮影領域の中心座標を基準に図73に示されるように移動カメラ1101が移動可能な方向に基づいて撮影可能領域を分割する。図73では移動カメラの撮影領域の中心を基準にX軸方向、Y軸方向に基づいて撮影可能領域を領域E,領域S,領域W,領域Nの4つの領域に分割した様子を示している。
次に、周囲の移動カメラの撮影領域が分割された4つの領域のどの領域に属するかを特定し、グループ分けを行う。グループ分けにおいては移動カメラの撮影領域の中心座標の位置でグループ分けを行う。図73では領域Wには撮影領域1、領域Nには撮影領域2と撮影領域3、領域Eには撮影領域4、領域Sには撮影領域5がそれぞれ属し、グループ分けが行われる。
次に、グループごとに移動カメラ1101と互いの撮影領域の中心座標間の距離が近いものを特定し、それぞれ移動カメラ1101と隣り合う撮影領域とする。図73では撮影領域1が左方向に隣り合い、撮影領域2が上方向に隣り合い、撮影領域4が右方向に隣り合い、撮影領域5が下方向に隣り合うことになる。
なお、図73では、移動カメラ1101と隣り合う撮影領域を移動カメラ1101が移動可能な方向ごとに特定したが、これ以外の方向に対して隣り合う撮影領域を特定する方法を用いてもよい。
次に、ステップJ203において、隣り合う撮影領域の位置関係に対して評価値Aを与える方法の一例について図74を用いて説明する。
図74は、隣り合う撮影領域間の位置関係と、その位置関係に対して評価値Aを与える評価関数Aを説明するための図である。移動カメラ1101の評価値Aは、周囲の撮影領域の位置関係に基づいて、以下の式70、式71、式72、式73に示される評価関数Aによって与えられる。
Figure 0003903062
ここで、評価関数Aは、式70、式71、式72、式73だけに限られず、隣り合う撮影領域が所定の重なり幅が所定の定数Cとなる時に最も小さく(または大きく)なり、さらに移動カメラ1101が移動できる範囲に対して隣り合う撮影領域間の重なり幅(距離)が定数Cから遠ざかるにつれて単調に大きく(または小さく)なる評価値Aを与える関数であれば他の関数であってもよい。
また、式70、式71、式72、式73における定数Cの値は、移動カメラ毎に異なる値であってもよい。さらに、同一の移動カメラにおいて隣り合う方向毎に異なる定数Cの値をとるようにしてもよい。さらに、定数Cは、例えば、移動カメラ1101の撮影領域の大きさに比例して変化するような変数Cであってもよい。
次に、ステップJ206において、撮影領域と監視領域の境界との位置関係に対して評価値Bを与える方法の一例について図75を用いて説明する。
図75は、移動カメラ1101の撮影領域と監視領域の境界との位置関係と、その位置関係に対して評価値Bを与える評価関数Bの一例である以下の式74、式75を説明するための図である。以下の式に示されるように、移動カメラ1101の撮影領域と監視領域の境界との間に別のカメラの撮影領域が存在しない場合、評価値Bは、以下の式74、式75に示される評価関数Bによって与えられる。
Figure 0003903062
なお、監視領域の境界の位置については、監視
範囲記憶部1108に監視すべき範囲を記述する監視範囲情報を参照することにより求められる。図76に、監視すべき範囲とその監視範囲情報の内容についての一例を示す。
ここで、評価関数Bは、式74、式75だけに限られず、移動カメラ1101の撮影領域と監視領域の境界との距離が所定の定数Dとなる時に最も小さく(または大きく)なり、さらに移動カメラ1101が移動できる範囲に対して移動カメラ1101の撮影領域と監視領域の境界との距離が所定の定数Dから遠ざかるにつれて単調に大きく(または小さく)なる評価値Bを与える関数であれば他の関数であってもよい。
また、式74、式75における定数Dの値は、移動カメラ毎に異なる値であってもよい。さらに同一の移動カメラにおいて隣り合う方向毎に異なる定数Dの値を与えてもよい。
さらに定数Dは、例えば、移動カメラ1101の撮影領域の大きさに比例して変化するような変数Dであってもよい。
次に、移動カメラ1101は、以下の処理J−3を開始する(ステップJ03)。
撮影位置変更部1110は、評価値A、評価値Bのいずれかが目標値と異なるかどうかを判定する(ステップJ301)。目標値と異なる場合はステップJ302に移り、目標値と同じ場合に処理J−3を終了する。
撮影位置変更部1110は、評価値A、評価値Bがそれぞれ目標値に近づくように撮影位置を変更し(ステップJ302)、処理J−3を終了する。
ここでステップJ301において、評価値A、評価値Bの目標値は、それぞれの評価値の最小値(最大値)を目標値とする。
また、ステップJ302において、評価値A、評価値Bをそれぞれ目標値に近づける方法の一例は次に通りである。つまり、移動カメラ1101の撮影位置(x、y、z)については、評価関数A、評関関数Bをそれぞれ移動カメラ1101の撮影位置を表す変数(x、y、z)で偏微分した導関数を含む更新式の式76、式77、式78に従って変更する。
Figure 0003903062
以上のような手順を繰り返すことによって、各移動カメラ1101は互いに隣り合う撮影領域と一定の重なり幅Cを持ち、さらに監視領域の境界と隣り合う場合、監視領域の境界とも一定の距離Dを持つように撮影領域を変更させる。その結果、監視領域に対して複数の移動カメラによって同時に撮影される撮影領域の割合が増加するように各移動カメラの位置が制御されるとともに、監視領域における複数の移動カメラの撮影領域がより均一に分散するように各移動カメラの位置が制御される。
図77に実施の形態10における移動カメラ1101の動作の様子を示す。図77では説明を簡単にするために横方向(1次元)に移動できる移動カメラ1101を高さが一定な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
図77の位置関係1009aに示されるように、移動カメラ1101を天井の適当な位置に設置しても、移動カメラは互いの撮影領域の重なり領域の幅Cまたは監視領域の境界との距離Dが所定の値に近づくように撮影位置を変更することにより、図77の位置関係1009bに示されるように、監視領域全体を複数の移動カメラで端末同時に撮影できる位置に自動的に移動することが可能となる。
さらに、例えば高い天井などのように設置作業が難しい場所において、一ヶ所にまとめて移動カメラ1101を設置しても、移動カメラの方が複数の移動カメラによる同時撮影において死角が少なくなる位置に自動的に移動するため、移動カメラの設置位置の決定や設置作業といった負担を減らすことが可能となる。
また、図78に移動カメラ1101が2次元方向に移動する様子を示す。図78は監視領域を床面に垂直な方向から見た様子を示している。図78に示されるように監視領域の広さ対して移動カメラによってN%(<100%)の領域が撮影されている場合、実施の形態10における移動カメラ1101は、状態10aに示されるような監視領域から、状態10bのように互いの距離間隔が均一になるような監視領域となるように、撮影位置の変更を行うため、監視領域に対して連続した大きな死角領域が発生するのを防ぐことができる。
このように、本実施の形態10によれば、監視領域に対して複数の移動カメラによって同時に撮影される撮影領域の割合が増加するように、あるいは、監視領域における複数の移動カメラの撮影領域がより均一に分散するように、それら複数の移動カメラの移動制御が行われる。つまり、実施の形態10における移動カメラ1101は、周囲の移動カメラと互いに協調して撮影位置を変更することにより、適当な位置に設置された状態からでも、複数の移動カメラによる同時撮影において監視領域の死角が少なく、さらに監視領域内に生じる死角領域が対象物のサイズよりも大きな連続した領域とならないように各移動カメラの撮影位置を自動的に変更できるため、監視領域に対する同時撮影領域の割合を向上させるとともに、カメラの設置等にかかる負担を軽減できる。
(実施の形態11)
次に、本発明の実施の形態11について説明する。
図79は、本発明の実施の形態11における監視システムの構成図である。この監視システムは、通信ネットワーク1103で接続された移動カメラ1201と移動部1102とからなる複数のカメラ端末から構成され、監視領域1111をくまなく監視できるように、それら複数の移動カメラ1201が自律協調的に移動するとともに、予め用意された監視領域地図情報を参照することにより、対象物の位置や形状、向きなどを考慮して移動カメラ1201が正確な撮影領域を特定する点に特徴を有する。図79において図70と同じ構成要素については同じ符号を用い、説明を省略する。
対象物1120は、監視領域1111に置かれた監視対象となる物体である。
監視領域地図記憶部1121は、監視領域1111の範囲と、監視領域1111に置かれた対象物1120の位置、大きさ、状態などを記述した監視領域地図情報とを記憶しているメモリ等である。
移動カメラ1201は、移動部1102に支持されて移動するカメラ装置であり、通信部1104、隣接撮影領域特定部1105、撮影素子1106、撮影位置評価部1109、撮影位置変更部1110、監視領域地図記憶部1121および撮影領域特定部1122から構成される。
撮影領域特定部1122は、移動カメラ1201の位置、撮影素子1106の特性、監視領域地図の内容によって撮影領域の位置を特定する処理部である。
このような実施の形態11の構成によれば、移動カメラ1201は、監視領域地図情報に記録されている対象物1120の位置、形状、向きといった情報を参照し、さらに自身の撮影位置と撮影素子の特性から撮影領域1112の特定を行い、周囲の移動カメラと撮影領域に関する情報を交換し、隣り合う撮影領域との重なり領域、または監視領域の境界と距離が所定の状態に近づくように撮影位置を移動することにより、監視領域1111内に存在する対象物1120の影になって死角が発生する状況に対しても複数の移動カメラによる同時撮影において監視領域内の死角が少なくなる撮影位置に周囲の移動カメラと協調しながら自動的に移動することができる。
次に、監視システムを構成する移動カメラ1201の動作手順について図80(a)および(b)のフローチャートを用いて説明する。図80(a)および(b)において図71(a)〜(d)と同じ動作手順については同じ符号を用い、説明を省略する。
移動カメラ1201は、3つの処理(処理K−1、J−2、J−3)を繰り返し実行する。
まず、以下の処理K−1を開始する(ステップK01)。
撮影領域特定部1122は、監視領域地図記憶部1121に記憶されている監視領域地図情報を参照する(ステップK101)。
撮影領域特定部1122は、監視領域1111内の対象物1120の位置や形状、向きなどを特定する(ステップK102)。
撮影領域特定部1122は、移動カメラ1201の撮影位置と、撮影素子1106の特性、さらに対象物1120の位置、形状、向きから移動カメラ1201の撮影領域1112を特定する(ステップK1103)。
通信部1104は、ステップK1103で特定された撮影領域1112に関する情報を周囲の移動カメラに通知する(ステップK104)。
通信部1104は、別の移動カメラから撮影領域に関する情報を通知されたどうか判定する(ステップK105)。別の移動カメラからの通知があればステップK106に移り、通知がなければステップK101に移る。
通信部1104は、別の移動カメラから通知された撮影領域に関する情報を取得し(ステップK106)、処理K−1を終了する。
ここで、ステップK101において参照される監視領域地図情報は、予め監視領域に置かれた家具やパーティションなどの位置、形状、向きなどの情報を移動カメラ1201に対して用意しておいたものであり、その内容の一例を図81に示す。
図81では、監視領域地図情報の内容として監視領域1111を微小な単位領域に分割し、単位領域毎に対象物1120が存在する(Full)かしないか(Empty)を記録している様子を示している。このような監視領域地図情報を参照することにより、各移動カメラ1201の視野内に存在する対象物1120の位置、形状、向きなどを特定することが可能となり、対象物1120によって死角となる領域を考慮した撮影領域の特定を行うことができる。
また、図81では監視領域地図情報として監視領域を単位領域に分割し、単位領域ごとの状態を記録する例を示したが、これ以外にも対象物1120の位置、形状、向きを表す情報を直接記録した地図情報であってもよい。
次に、移動カメラ1201は、処理J−2、処理J−3を実行する(ステップJ02、J03)。この処理は実施の形態10と同様である。
以上のような手順を繰り返すことによって、各移動カメラ1201は、監視領域1111に存在する対象物1120によって生じる死角の位置を考慮して求められた撮影領域1112に対して、互いに隣り合う撮影領域と一定の重なり幅Cを持ち、さらに監視領域の境界と隣り合う場合は、監視領域の境界とも一定の距離Dを持つように、撮影領域を変更させる。
図82に実施の形態11における移動カメラ1201の動作の様子を示す。図82では、説明を簡単にするために、横方向(1次元)に移動できる移動カメラ1201を高さが一定な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
図82の状況1014aに示されるように、移動カメラ1201を天井の適当な位置に設置しても、移動カメラ1201は、監視領域1111に置かれた対象物1120a、対象物1120bの位置や形状、向きを考慮して特定された撮影領域に対して、隣り合う撮影領域との重なり幅C、または監視領域の境界との距離Dが所定の値に近づくように撮影位置を変更することにより、図82の状況1014bに示されるように、監視領域全体を複数の移動カメラで同時に撮影できる位置に自動的に移動することが可能となる。ただし、ここでの監視領域全体とは、床面に垂直な方向から床面に平行な面を全て同時に撮影することを意味しており、これ以外にも、例えば、対象物1120a(机)の下領域も含むように監視領域を定義し、監視目的に応じて監視領域全体を同時に撮影できるように移動カメラの移動範囲や移動方向を変え、さらに必要となる監視領域地図情報を用いた監視システムを構築してもよい。
このように、実施の形態11における移動カメラ1201は、予め用意された監視領域地図情報を参照することにより、対象物1120の位置や形状、向きなどを考慮して移動カメラ1201が正確な撮影領域を特定することができるため、対象物1120の影になって死角が生じる恐れのある監視領域に対しても複数の移動カメラ1201により同時撮影される監視領域の死角が少なくなるように各移動カメラ1201の撮影位置を自動的に変更できる。
(実施の形態12)
次に、本発明の実施の形態12について説明する。
図83は、本発明の実施の形態12における監視システムの構成図である。この監視システムは、通信ネットワーク1103で接続された移動カメラ1301と移動部1102とからなる複数のカメラ端末から構成され、監視領域1111をくまなく監視できるように、それら複数の移動カメラ1301が自律協調的に移動するとともに、監視領域地図情報を作成し続けることにより、対象物の位置や形状、向きなどが変化しても移動カメラ1301の撮影領域を正確に特定し続ける点に特徴を有する。図83において図70、図79と同じ構成要素については同じ符号を用い、説明を省略する。
対象物検出センサ1123は、監視領域1111に存在する対象物1120の位置、形状、向きなどの情報を検出するセンサである。
通信ネットワーク1124は、対象物検出センサ1123により検出された情報を伝える伝送路である。
移動カメラ1301は、移動部1102に支持されて移動するカメラ装置であり、通信部1104、隣接撮影領域特定部1105、撮影素子1106、撮影領域推定部1107、撮影位置評価部1109、撮影位置変更部1110、監視領域地図記憶部1121および監視領域地図作成部1125から構成される。
監視領域地図作成部1125は、対象物検出センサ1123により検出された監視領域1111に存在する対象物1120の位置、形状、向きなどの情報を用いて監視領域地図記憶部1121に記憶されている監視領域地図情報を作成、または変更を行う処理部である。
このような実施の形態12の構成によれば、予め移動カメラ1301の監視領域地図記憶部1121に対して監視領域地図情報を用意しなくても、監視システムが対象物検出センサ1123を用いて監視領域1111に存在する対象物1120の位置や形状、向きなどの状態に関する情報を取得し、監視領域地図作成部1125によって監視領域地図情報を自動的に作成することができる。また監視領域1111内に存在する対象物1120の位置や形状、向きなどが変化した場合には対象物検出センサ1123がその変化を所定のタイミングで検出し、改めて監視領域地図作成部1125によって監視領域地図情報を変更することが可能となり、対象物1120の状態の変化に合わせて、複数の移動カメラによる同時撮影において監視領域内の死角が少なくなる撮影位置に周囲の移動カメラと協調しながら自動的に移動することができる。
次に、監視システムを構成する移動カメラ1301の動作手順について図84(a)および(b)のフローチャートを用いて説明する。図84(a)および(b)において図71(a)〜(d)、図80(a)および(b)と同じ動作手順については同じ符号を用い、説明を省略する。
移動カメラ1301は、4つの処理(処理L−1、K−1、J−2、J−3)を繰り返し実行する。
まず、以下の処理L−1を開始する(ステップL01)。
対象物検出センサ1123は、監視領域1111内に存在する対象物1120の位置、形状、向きなどを検出し、その内容を監視領域地図作成部1125に通知する(ステップL101)。
監視領域地図作成部1125は、監視領域1111内の対象物1120の位置、形状、向きなどの情報を記録した監視領域地図情報を作成、またはその内容の変更を行い(ステップL102)、処理L−1を終了する。
ここで、ステップL101において、対象物検出センサ1123による対象物1120の位置、形状、向きの検出の具体的な方法の一例としては、複数の超音波センサを監視領域1111内に所定の間隔で設置し、それぞれの超音波センサから得られる情報を合成することにより監視領域1111内の対象物の状態を特定する方法が挙げられる。
また、対象物検出センサ1123として、超音波センサ以外にも、複数のカメラから撮影される映像から立体映像を合成することで対象物1120の位置や形状、向きなどを特定する方法など、監視領域1111内に存在する対象物1120の位置や形状、向きの特定に必要な情報を検出できるセンサであればよい。
また、本実施の形態の変形例として、対象物1120側で自らの位置や形状、向きなどを検出し、その内容を監視システムに通知する構成としてもよい。そのような構成例を図85に示す。
位置情報検出部1126は、対象物の位置、形状、向きなどを検出して、その内容を監視領域地図作成部1125に通知する処理部である。
ここで、位置情報検出部1126における位置や形状、向きの具体的な検出方法の一例としては、対象物1120に対して予め自身の形状を記憶させておき、GPSを用いて自身の位置と向きを検出することにより、対象物1120自身の位置と形状、向きを特定する方法が考えられる。
また、GPSを用いる方法以外にも、監視領域1111に位置情報を特定するための無線タグを埋め込み、対象物1120が監視領域1111に埋め込まれた無線タグの情報を読み取ることにより自身の位置と向きを特定する方法など、対象物1120自身が自らの位置や形状、向きを特定できる方法であればよい。
さらに、図83と図85のそれぞれに示した対象物検出センサ1123と位置情報検出部1126を組み合わせて用いて監視領域地図情報を作成してもよい。
次に、移動カメラ1301は、処理K−1、処理J−2、処理J−3を実行する(ステップK01、J02、J03)。これらの処理は、実施の形態10および実施の形態11と同様である。
以上のような手順を繰り返すことによって、各移動カメラ1301は、監視領域1111に存在する対象物1120が位置や形状、向きなどの変化によって生じる自身の撮影領域の変化に対応しながら、周囲の移動カメラと互いに隣り合う撮影領域と一定の重なり幅Cを持ち、さらに監視領域の境界と隣り合う場合は、監視領域の境界とも一定の距離Dを持つように撮影領域を変更させる。
図86に実施の形態12における移動カメラ1301の動作の様子を示す。図86では説明を簡単にするために横方向(1次元)に移動できる移動カメラ1301を高さが一定な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
実施の形態12における監視システムでは、図86の状況1018aに示されるように、移動カメラ1301が監視領域全体を監視している状態から、図86の状況1018bに示されるように、対象物1120a、対象物1120bを移動すると、移動カメラで撮影のできない死角領域が発生してしまうが、監視領域に設置された対象物検出センサや対象物に取り付けられた位置情報通知部によって対象物の位置を検出し、各移動カメラ1301が具備する監視領域地図作成部1125によって監視領域地図情報の内容を変更することにより、対象物1120aと対象物1120bの移動後の撮影領域を特定することが可能となり、改めて隣り合う撮影領域との重なり幅C、または監視領域の境界との距離Dが所定の値に近づくように撮影位置を変更することにより、図86の状況1018cに示されるように、監視領域全体を複数の移動カメラで同時に撮影できる位置に再び撮影位置を変更することが可能となる。
ここで、図86の状況1018cに示されるように、対象物と移動カメラの位置関係によっては、1台のカメラの撮影領域が複数の領域に分割される場合が生じる。この場合、分割された撮影領域ごとに隣り合う撮影領域を特定し、隣り合う撮影領域との重なり幅、または監視領域の境界との距離に対して評価値を求め、評価値の総和が小さく(または大きく)なる方向に撮影位置を変更させることにより、監視領域全体を複数の移動カメラで同時に撮影できる位置への移動カメラの配置を行う。
ただし、ここでの監視領域全体とは、床面に垂直な方向から床面に平行な面を全て同時に撮影することを意味しており、これ以外にも、例えば、対象物1120a(机)の下領域も含むように監視領域を定義し、監視目的に応じて監視領域全体を同時に撮影できるように移動カメラの移動範囲や移動方向を変え、さらに必要となる監視領域地図情報を作成可能な監視システムを構築してもよい。
このように、実施の形態12における移動カメラ1301は、監視領域に設置された対象物検出センサや対象物に取り付けられた位置情報通知部によって対象物の位置を検出し、各移動カメラ1301が監視領域地図作成部1125によって監視領域地図情報の内容を作成し続けることにより、対象物1120の位置や形状、向きなどが変化しても移動カメラ1301自身の撮影領域を正確に特定し続けることができるため、対象物1120の移動や状態変化が生じる場合においても複数の移動カメラ1301により同時撮影される監視領域の死角が少なくなるように各移動カメラ1301の撮影位置を自動的に変更できる。
(実施の形態13)
次に、本発明の実施の形態13について説明する。
図87は、本発明の実施の形態13における監視システムの構成図である。この監視システムは、通信ネットワーク1103で接続された移動カメラ1401と移動部1102と撮影方向変更部1130とからなる複数のカメラ端末から構成され、監視領域1111をくまなく監視できるように、それら複数の移動カメラ1401が自律協調的に移動するとともに、進入者の顔認証に適した映像を撮影できる位置に移動カメラ1401を自動的に配置させることができる点に特徴を有する。図87において図70、図79、図83と同じ構成要素については同じ符号を用い、説明を省略する。
撮影方向変更部1130は、移動カメラ1401の視線方向を変える機構部等である。
移動カメラ1401は、移動部1102に支持されて移動するカメラ装置であり、通信部1104、隣接撮影領域特定部1105、撮影素子1106、撮影領域推定部1107、撮影位置評価部1109、撮影位置変更部1110、監視領域地図記憶部1121、監視領域地図作成部1125および対象物追跡部1131から構成される。
対象物追跡部1131は、監視領域地図記憶部に記憶されている監視領域地図情報を参照して、移動カメラの視線方向を対象物の位置方向に向ける制御部である。
なお、本実施の形態における撮影位置評価部1109は、互いに隣り合う撮影領域との重なり領域、または監視領域の境界との距離の評価に加えて、対象物と移動カメラの位置関係(距離、方向)について評価値Cを与える。
このような実施の形態13の構成によれば、各移動カメラ1401は互いに隣り合う撮影領域との重なり領域、または監視領域の境界との距離が所定の状態となるように撮影位置を変更することで、複数の移動カメラ1401による同時撮影において監視領域内の死角が少なくなる撮影位置に周囲の移動カメラと協調しながら自動的に移動することができ、さらに任意の移動カメラ1401は、監視領域内の対象物1120を所定の位置(距離や方向)から撮影できる位置に移動することができる。
次に、監視システムを構成する移動カメラ1401の動作手順について図88(a)〜(c)のフローチャートを用いて説明する。図88(a)〜(c)において図71(a)〜(d)、図80(a)および(b)、図84(a)および(b)と同じ動作手順については同じ符号を用い、説明を省略する。
移動カメラ1401は、5つの処理(処理L−1、K−1、J−2、M−1、M−2)を繰り返し実行する。
移動カメラ1401は、処理M−1として、以下の処理を行う(ステップM01)。
撮影位置評価部1109と対象物追跡部1131は、監視領域地図記憶部1121に記憶されている監視領域地図情報を参照して、監視領域1111内に存在する所定の対象物1120の位置を取得する(ステップM101)。
対象物追跡部1131は、撮影領域1112内に対象物1120が存在するかどうかを判定し(ステップM102)、対象物1120が存在する場合にはステップM1103に移り、対象物が存在しない場合には処理M−1を終了する。
撮影位置評価部1109は、移動カメラ1401の撮影位置と対象物の位置関係に対して評価値Cを求め(ステップM1103)、処理M−1を終了する。
次に、ステップM1103において、対象物1120と移動カメラ1401の位置関係に対して評価値Cを与える方法の一例について図89を用いて説明する。
図89は、対象物1120と移動カメラ1401との位置関係と、その位置関係に対して評価値Cを与える評価関数Cの一例である以下の式を説明するための図である。移動カメラ1401の評価値Cは、対象物1120と移動カメラ1401の位置関係に基づいて、式79、式80、式81に示される評価関数Cによって与えられる。
Figure 0003903062
ここで、評価関数Cは、式79、式80、式81だけに限られず、対象物1120と移動カメラ1401との距離が所定の定数Eとなる時に最も小さく(または大きく)なり、さらに移動カメラ1401が移動できる範囲おいて、対象物1120との距離が定数Eから遠ざかるにつれて単調に大きく(または小さく)なる評価値Cを与える関数であれば他の関数であってもよい。
また、式79、式80、式81における定数Eの値は、移動カメラ毎に異なる値であってもよい。さらに、定数Eは、例えば、対象物1120の位置によって変化するような変数Cであってもよい。
次に、移動カメラ1401は、処理M−2を開始する(ステップM02) 。
撮影位置変更部1110は、評価値A、評価値B、評価値Cのいずれかが目標値と異なるかどうかを判定する(ステップM201)。目標値と異なる場合はステップM202に移り、目標値と同じ場合に処理M−2を終了する。
撮影位置変更部1110は、評価値A、評価値B、評価値Cがそれぞれ目標値に近づくように撮影位置を変更する(ステップM202)。
対象物追跡部1131は、移動カメラ1401の視界の中心に対象物1120が来るように移動カメラ1401の視線方向を変更し(ステップM203)、処理M−2を終了する。
なお、ステップM201において、評価値A、評価値B、評価値Cの目標値は、それぞれの評価値の最小値(最大値)を目標値とする。
また、ステップM202において、評価値A、評価値B、評価値Cをそれぞれ目標値に近づける方法の一例は次に通りである。つまり、移動カメラ1401の撮影位置(x、y、z)については、評価関数A、評関関数B、評価値Cをそれぞれ移動カメラ1401の撮影位置を表す変数(x、y、z)で偏微分した導関数を含む更新式の式76、式77、式78、および、以下の式84、式85、式86、に従って変更する。
Figure 0003903062
また、ステップM203において、移動カメラ1401の視線の中心に対象物1120が来るように視線方向を変更する方法の一例は次に通りである。つまり、移動カメラ1401はパン方向、チルト方向に視線方向を変更することが可能で、それぞれの角度をθP、θTとすると、移動カメラ1401の視線方向(θP、θT)と、移動カメラ1401から対象物1120が見える方向(θPobj、θTobj)の角度の差に対して、上記式82、式83により評価値を与え、式82、式83をθP、θTで偏微分した導関数を含む上記式87、式88の更新式によって(θP、θT)を変更することにより、移動カメラ1401の視線方向を対象物1120の方向へ向けることができる。
以上のような手順を繰り返すことによって、各移動カメラ1401は周囲の移動カメラと互いに隣り合う撮影領域と一定の重なり幅Cを持ち、さらに監視領域の境界と隣り合う場合は、監視領域の境界とも一定の距離Dを持つように撮影領域を変更させ、さらに自身の撮影領域内に対象物1120が存在する移動カメラ1401は、対象物1120を所定の位置(距離や方向)から撮影できるように周囲の移動カメラと協調しながら撮影位置を変更させる。
図90に実施の形態13における移動カメラ1401の動作の様子を示す。図90では、説明を簡単にするために横方向(1次元)に移動できる移動カメラ1401を高さが一定な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
実施の形態13における監視システムでは、図90の状況1023aに示されるように、移動カメラ1401が監視領域全体を複数の移動カメラで同時に撮影できる位置にあり、このうち所定の対象物1120(人物)を2台の移動カメラ1401aと401bが発見した場合、各移動カメラ1401に対して人物の側面を撮影するように設定されていたとすると、複数の移動カメラ1401は、図90の状況1023bに示されるように、周囲の移動カメラと監視領域全体の同時撮影を維持しながらも人物の側面の撮影に適した位置に移動する。
また、この時、移動カメラに対してズーム撮影機能を持たせ、必要に応じて図90の状況1023cに示されるように撮影映像をズーム映像として撮影させてもよい。
このように、実施の形態13における移動カメラ1401は、例えば、建物の通用口付近の監視と進入者の顔認証を行う場合などにおいて、通用口付近の全体の映像を常に同時撮影しながらも、進入者の顔認証に適した映像を撮影できる位置に移動カメラ1401を自動的に配置させることができる。
(実施の形態14)
次に、本発明の実施の形態14について説明する。
図91は、本発明の実施の形態14における監視システムの構成図である。この監視システムは、通信ネットワーク1103で接続された移動カメラ1501と移動部1102とからなる複数のカメラ端末から構成され、監視領域1111をくまなく監視できるように、それら複数の移動カメラ1501が自律協調的に移動するとともに、監視領域地図情報を保持しなくても、隣り合う撮影領域と確実に重なり領域を持っていることを判定しながら、周囲の移動カメラと互いに隣り合う撮影領域と一定の重なり領域を持つように撮影領域を変更させる点に特徴を有する。図91において図70と同じ構成要素については同じ符号を用い、説明を省略する。
移動カメラ1501は、移動部1102に支持されて移動するカメラ装置であり、通信部1104、隣接撮影領域特定部1105、撮影素子1106、撮影領域推定部1107、監視範囲記憶部1108、撮影位置評価部1109、撮影位置変更部1110および撮影映像比較部1140から構成される。
撮影映像比較部1140は、画像処理(輪郭抽出、パターンマッチング等)により、移動カメラ1501が撮影した映像と、隣り合う撮影領域を持つ移動カメラが撮影した映像とを比較し、互いの映像の中に同じ領域を撮影している箇所があるかどうかを判定する処理部である。
なお、本実施の形態では、監視領域1111である床面に、図91に示されるような模様(ここでは、太陽の絵)が描かれているとする。
このような実施の形態14の構成によれば、予め移動カメラ1501に対して監視領域地図情報を用意しなくても、撮影映像比較部1140により互いに隣り合う撮影領域の映像を比較して、それぞれの撮影映像の中に同じ領域を撮影している箇所が存在するかどうかを判定することで、隣り合う撮影領域が実際に重なり領域を持つかどうかを判定することができる。
次に、監視システムを構成する移動カメラ1501の動作手順について図92(a)および(b)のフローチャートを用いて説明する。図92(a)および(b)において図71(a)〜(d)と同じ動作手順については同じ符号を用い、説明を省略する。
移動カメラ1401は、4つの処理(処理J−1〜J−3、N−1)を繰り返し実行する。
移動カメラ1401は、処理N−1として、以下の処理を実行する(ステップN01)。
撮影位置評価部は、重なり領域を持つと推定される撮影領域が存在するかどうかを判定し(ステップN101)、重なり領域を持つ撮影領域が存在すると推定される場合にはステップN102に移る。存在しないと推定される場合は処理N−1を終了する。
撮影映像比較部1140は、互いに撮影領域が重なると推定される移動カメラの撮影映像と、自身が撮影した映像とを比較し、互いの撮影映像の中に同じ領域を撮影した箇所が存在するかどうかを判定する(ステップN102)。互いの撮影映像の中に同じ領域を撮影した箇所が存在する場合には処理N−1を終了する。同じ領域を撮影した箇所が存在しない場合にはステップN1103に移る。
たとえば、いま、3つの撮影領域A、BおよびCの映像が図91に示されるような監視領域1111(床面)に描かれた絵の一部である場合には、図93の説明図に示されるように、撮影領域Aと撮影領域Bについては共通する床面の模様が撮影されていないので、同じ映像箇所が存在しない(つまり、これら撮影領域AB間に死角が存在する)と判断し、一方、撮影領域Bと撮影領域Cについては共通する床面の模様が撮影されているので、同じ映像箇所が存在する(つまり、撮影領域BCは互いに隣接し、重なり領域を持つ)と判断する。
撮影位置変更部1110は、移動カメラ1501を互いに重なり領域を持つと推定されながらも、互いの撮影映像に同じ領域を撮影した箇所が存在しなかった撮影領域の方向へ移動カメラ1501を移動させ(ステップN1103)、処理N−1を終了する。
以上のような手順を繰り返すことによって、各移動カメラ1501は監視領域地図情報を保持しなくても、隣り合う撮影領域と確実に重なり領域を持っていることを判定しながら、周囲の移動カメラと互いに隣り合う撮影領域と一定の重なり領域を持つように撮影領域を変更させる。
このように、実施の形態14における移動カメラ1501は、対象物1120の位置や姿勢、向きなどの変化が多く、屋外などのように実施の形態12で説明した対象物検出センサ1123、位置情報検出部1126を設置することのできない領域に対しても、複数の移動カメラによる同時撮影における死角が少ない撮影位置に各移動カメラを自動的に移動することが可能となる。
以上、上記実施の形態における移動カメラの動作については1次元方向に移動する場合を例に説明をおこなったが、1次元方向への具体的な動作の実現方法の一例としては図94に示されるように監視領域内にレールを設置し、そのレールの軌道上を移動カメラが移動することで1次元方向の移行を実現することができる。
また、図95に示されるように移動カメラにタイヤを取り付けることにより、2次元平面を移動できる平面移動カメラ、さらにアームなどを利用して3次元方向に移動できる三次元移動カメラを用いてもよい。図95では、部屋の壁面を監視領域とする平面移動カメラと部屋の床面を監視領域とする三次元移動カメラとを用いた監視システムの例が示され、ここでは、初期状態1025aから、より死角が少なくなる状態1025bに自動的に遷移する様子が示されている。
また、実施の形態10、実施の形態11、実施の形態12、実施の形態14においては移動カメラの視線方向は床面に対して垂直に真下を撮影する場合を例に説明を行ったが、例えば、部屋の隅にレールを設置し、部屋の中心に視線が向くように移動カメラを設置するなど、移動カメラの移動範囲と監視の目的に合わせて移動カメラの視線方向を決定してもよい。
以上、本発明に係る監視システムについて、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。各実施の形態では、発明の趣旨を逸脱しない範囲で、当業者が思いつく各種変形や機能追加をしてもよいし、機能的に併存し得る限り、各実施の形態における各構成要素を任意に組み合わせてもよい。たとえば、実施の形態9の撮影特性変更部905を実施の形態10の移動カメラ1101に備えさせることで、複数の移動カメラが移動することによって、監視領域における各撮影領域が偏りなく均一に分散されるとともに、各移動カメラの撮影精度が同一となるような監視システムが実現される。
また、上記実施の形態においては、カメラ端末は映像を撮影するための撮影素子のみを備える場合を説明したが、図96に示されるように撮影素子に加えて録音素子を備えることにより、監視区域からの映像情報に加えて音声情報をさらに取得し、さらに対象物を動きに合わせた撮影と録音を行っても良い。
また、上記実施の形態において、録音素子以外にも赤外線センサ、超音波センサ、温度センサ、紫外線・X線センサ等のセンサ端末を備え、図97に示されるように監視区域からの映像情報に加えて所定の物理量を計測し、さらに対象物を動きにあわせた撮影と所定の物理量の計測を行っても良い。
また、本発明は、カメラだけでなく、上記の各種センサにも適用することができる。つまり、上記実施の形態におけるカメラ端末に代えて、微動センサ、圧力センサ、温度センサ、気圧センサ、音センサ(マイク)などを備えるセンサ端末で監視システムを構成してもよい。この場合には、センサが物理量を検出する方向(検出領域)をカメラ端末における撮影領域に対応させればよい。たとえば、図98(a)に示されるような指向特性をもるマイクについて、図98(b)に示されるように、一定以上の感度で音を検知できる方向(領域)を検出領域と定義することで、各種センサ端末からなる監視システムを構築することができる。つまり、通信路で接続された複数のセンサ端末から構成され、監視領域における物理量を検出することによって監視領域を監視する監視システムであって、複数のセンサ端末は、監視領域に含まれる検出領域における物理量を検出するとともに、検出領域を変更する手段を有するセンサと、検出領域を特定する情報である検出特性情報を通信路を介して他のセンサ端末に送信するとともに、他のセンサ端末から検出特性情報を受信する通信部と、当該センサ端末の検出特性情報と通信手段で受信された他のセンサ端末の検出特性情報とに基づいて、当該センサ端末の検出領域と他のセンサ端末の検出領域とが予め定められた一定の関係となるように、当該センサ端末のセンサを制御して検出領域を変更する検出特性変更部とを備える監視システムが実現される。
本発明は、複数のカメラを用いた監視システム、複数のセンサ素子を用いて物理量を計測するセンシングシステム等として、特に、撮影位置を変更可能な複数の移動カメラから構成され、広範囲の監視において死角が生じないことを求められる通用口や店舗の売り場、さらに家具の位置変えや人の動きによって死角の位置が変化する環境おいて、監視領域内に発生する死角がより少なくなるように撮影位置の変更が必要とされる領域の監視を行う監視システム等として利用することができる。
図1は、従来技術に係る装置の構成を示す図である。 図2は、従来技術に係る装置の動作を説明する図である。 図3は、従来技術に係る装置の動作を説明する図である。 図4は、従来技術に係る装置の動作を説明する図である。 図5は、従来技術に係る移動カメラの構成を示す図である。 図6は、従来技術に係る移動カメラの動作を説明する図である。 図7は、本発明における監視システムの基本構成を示すブロック図である。 図8は、カメラ端末の撮影領域情報と領域決定パラメータおよび撮影精度情報と精度決定パラメータを説明する図である。 図9は、本発明に係る実施の形態1の構成を示すブロック図である。 図10は、実施の形態1の動作を説明するフローチャートである。 図11は、カメラ端末の領域決定パラメータと視野領域との関係を表す図である。 図12は、カメラ端末の視野領域と撮影領域の関係を示す図である。 図13は、カメラ端末の協調相手の決定手順を説明するフローチャートである。 図14は、カメラ端末の協調相手の決定手順を説明する図である。 図15は、カメラ端末の撮影領域の位置関係の評価手順を説明するフローチャートである。 図16は、カメラ端末の撮影領域の位置関係の評価手順を説明するフローチャートである。 図17は、カメラ端末の評価関数Aを説明する図である。 図18は、カメラ端末の動作を説明する図である。 図19は、カメラ端末の動作を説明する図である。 図20は、本発明に係る実施の形態2の構成を示すブロック図である。 図21は、実施の形態2の動作を説明するフローチャートである。 図22は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。 図23は、カメラ端末の評価関数Bを説明する図である。 図24は、カメラ端末の動作を説明する図である。 図25は、本発明に係る実施の形態3の構成を示すブロック図である。 図26は、実施の形態3の動作を説明するフローチャートである。 図27は、カメラ端末の評価関数Cを説明する図である。 図28は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。 図29は、カメラ端末の動作を説明する図である。 図30は、本発明に係る実施の形態4の構成を示すブロック図である。 図31は、実施の形態4の動作を説明するフローチャートである。 図32は、カメラ端末の評価関数Dを説明する図である。 図33は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。 図34は、カメラ端末の動作を説明する図である。 図35は、カメラ端末の動作を説明する図である。 図36は、カメラ端末の動作を説明する図である。 図37は、カメラ端末の動作を説明する図である。 図38は、本発明に係る実施の形態5の構成を示すブロック図である。 図39は、実施の形態5の動作を説明するフローチャートである。 図40は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。 図41は、カメラ端末の未撮影領域の特定手順を説明する図である。 図42は、カメラ端末の評価関数Eを説明する図である。 図43は、カメラ端末の動作を説明する図である。 図44は、本発明に係る実施の形態6の構成を示すブロック図である。 図45は、実施の形態6の動作を説明するフローチャートである。 図46は、カメラ端末の撮影精度の変更における協調相手の決定手順を説明する図である。 図47は、カメラ端末の撮影精度の変更における協調相手の決定手順を説明する図である。 図48は、カメラ端末の撮影精度の評価手順を説明するフローチャートである。 図49は、カメラ端末の評価関数Fを説明する図である。 図50は、カメラ端末の動作を説明する図である。 図51は、本発明に係る実施の形態7の構成を示すブロック図である。 図52は、実施の形態7の動作を説明するフローチャートである。 図53は、カメラ端末の撮影精度の評価手順を説明するフローチャートである。 図54は、カメラ端末の評価関数Gを説明する図である。 図55は、カメラ端末の動作を説明する図である。 図56は、本発明に係る実施の形態8の構成を示すブロック図である。 図57は、実施の形態8の動作を説明するフローチャートである。 図58は、カメラ端末の撮影精度の評価手順を説明するフローチャートである。 図59は、カメラ端末の評価関数Hを説明する図である。 図60は、カメラ端末の動作を説明する図である。 図61は、本発明に係る実施の形態9の構成を示すブロック図である。 図62は、実施の形態9の動作を説明するフローチャートである。 図63は、カメラ端末の動作を説明する図である。 図64は、カメラ端末の視野領域と撮影領域の関係を示す図である。 図65は、カメラ端末の評価関数Iを説明する図である。 図66は、カメラ端末の動作を説明する図である。 図67は、設置位置と撮影領域が互いに交差するカメラ端末の動作を説明する図である。 図68は、カメラ端末の撮影領域情報の変更における協調相手の決定手順を説明する図である。 図69は、カメラ端末の動作を説明する図である。 図70は、本発明に係る実施の形態10の構成を示すブロック図である。 図71は、実施の形態10の動作を説明するフローチャートである。 図72は、移動カメラの撮影領域の推定方法を説明する図である。 図73は、移動カメラの撮影領域と隣り合う撮影領域の特定方法を説明する図である。 図74は、移動カメラの評価関数Aを説明する図である。 図75は、移動カメラの評価関数Bを説明する図である。 図76は、監視範囲記憶部に記憶されている監視領域情報の一例を示す図である。 図77は、移動カメラの動作を説明する図である。 図78は、移動カメラの動作を説明する図である。 図79は、実施の形態11の構成を示すブロック図である。 図80は、実施の形態11の動作を説明するフローチャートである。 図81は、監視領域地図記憶部に記憶されている監視領域地図情報の一例を示す図である。 図82は、移動カメラの動作を説明する図である。 図83は、本発明に係る実施の形態12の構成を示すブロック図である。 図84は、実施の形態12の動作を説明するフローチャートである。 図85は、発明に係る実施の形態12の別の構成を示すブロック図である。 図86は、移動カメラの動作を説明する図である。 図87は、本発明に係る実施の形態13の構成を示すブロック図である。 図88は、実施の形態13の動作を説明するフローチャートである。 図89は、移動カメラの評価関数Cを説明する図である。 図90は、実施の形態13における移動カメラの動作を説明する図である。 図91は、本発明に係る実施の形態14の構成を示すブロック図である。 図92は、実施の形態14の動作を説明するフローチャートである。 図93は、撮影映像比較部の動作を説明する図である。 図94は、移動カメラの具体的な設置方法の一例を示す図である。 図95は、移動カメラの具体的な設置方法の他の一例を示す図である。 図96は、カメラ端末の撮影素子に加えて録音素子を備えた監視システムを示す図である。 図97は、カメラ端末の撮影素子に加えてセンサ素子を備えた監視システムを示す図である。 図98は、本発明をマイクに適用した例を説明する図である。
符号の説明
01、101、201、301、401、501、601、701、801、901 カメラ端末
02、102 通信媒体
03、103、603、903 通信部
04、104、604、904 撮影素子
05、105、205、305、405、505、605、705、805、905 撮影特性変更部
106、606 協調相手決定部
107 領域差評価部
108、213、313、413、513、913 撮影領域変更部
109、609 精度差評価部
211、311、511、911 自己領域評価部
212 基準領域記憶部
312 対象物位置特定部
411 境界領域評価部
512 未撮影領域特定部
606 協調相手決定部
610、713、814、914 撮影精度変更部
711、811、912 自己精度評価部
712 基準精度記憶部
812 対象物特定部
813 対象物撮影用基準精度記憶部
1101、1201、1301、1401、1501 移動カメラ
1102 移動部
1103 通信ネットワーク
1104 通信部
1105 隣接撮影領域特定部
1106、1302 撮影素子
1107 撮影領域推定部
1108 監視範囲記憶部
1109 撮影位置評価部
1110 撮影位置変更部
1111 監視領域
1112、1303 撮影領域
1120、1120a、1120b 対象物
1121 監視領域地図記憶部
1122 撮影領域特定部
1123 対象物検出センサ
1124 通信ネットワーク
1125 監視領域地図作成部
1126 位置情報検出部
1130 撮影方向変更部
1131 対象物追跡部
1140 撮影映像比較部

Claims (16)

  1. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムであって、
    前記複数のカメラ端末は、
    前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手段を有するカメラと、
    前記撮影領域の位置を特定する情報である撮影位置情報を含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と、
    当該カメラ端末のカメラを制御して撮影領域を変更する撮影特性変更手段とを備え、
    前記撮影特性変更手段は、
    当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と、
    特定された他のカメラ端末からの撮影位置情報と当該カメラ端末の撮影位置情報に基づいて、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影領域との距離間隔に関する評価値を与える領域差評価部と、
    前記監視領域において予め定められた基準領域の位置情報を記憶する基準領域記憶部と、
    前記基準領域記憶部に記憶された位置情報が示す基準領域と当該カメラ端末の撮影領域との位置関係に対して評価値を与える自己領域評価部と、
    前記領域差評価部および前記自己領域評価部で与えられる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御して撮影領域を変更する撮影領域変更部とを有する
    ことを特徴とする監視システム。
  2. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムであって、
    前記複数のカメラ端末は、
    前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手段を有するカメラと、
    前記撮影領域の位置を特定する情報である撮影位置情報を含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と、
    当該カメラ端末のカメラを制御して撮影領域を変更する撮影特性変更手段とを備え、
    前記撮影特性変更手段は、
    当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と、
    特定された他のカメラ端末からの撮影位置情報と当該カメラ端末の撮影位置情報に基づいて、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影領域との距離間隔に関する評価値を与える領域差評価部と、
    前記監視領域の境界領域と当該カメラ端末の撮影領域との位置関係に対して評価値を与える境界領域評価部と、
    前記領域差評価部および前記境界領域評価部で与えられる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御して撮影領域を変更する撮影領域変更部とを有する
    ことを特徴とする監視システム。
  3. 前記撮影特性変更手段はさらに、
    前記監視領域のうち、前記複数のカメラ端末のいずれにも撮影されていない未撮影領域の位置を特定する未撮影領域特定部と、
    特定された前記未撮影領域と当該カメラ端末の撮影領域との位置関係に対して評価値を与える自己領域評価部とを有し、
    前記撮影領域変更部は、前記領域差評価部および前記自己領域評価部で与えられる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
    ことを特徴とする請求項2記載の監視システム。
  4. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムであって、
    前記複数のカメラ端末は、
    前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域と前記撮影領域の撮影における撮影精度とを変更する手段を有するカメラと、
    前記撮影領域の位置を特定する情報である撮影位置情報と前記撮影領域の撮影における撮影精度情報とを含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と、
    当該カメラ端末の撮影位置情報と前記通信手段で受信された他のカメラ端末の撮影位置情報とから得られる、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域との距離間隔を、所定の目標値に近づけるように、当該カメラ端末のカメラを制御して撮影領域を変更するとともに、当該カメラ端末の撮影精度情報と前記通信手段で受信された他のカメラ端末の撮影精度情報とに基づいて、当該カメラ端末の撮影精度と他のカメラ端末の撮影精度とが予め定められた一定の関係となるように、当該カメラ端末のカメラを制御して撮影精度を変更する撮影特性変更手段とを有する
    ことを特徴とする監視システム。
  5. 前記撮影特性変更手段は、
    当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と、
    特定された他のカメラ端末からの撮影精度情報と当該カメラ端末の撮影精度情報に基づいて、前記他のカメラ端末の撮影精度と当該カメラ端末の撮影精度との差異に対して評価値を与える精度差評価部と、
    前記精度差評価部で与えられる評価値が所定の目標値に近づくように前記カメラを制御して撮影精度を変更する撮影精度変更部とを有する
    ことを特徴とする請求項4記載の監視システム。
  6. 前記撮影精度変更部は、前記他のカメラ端末の撮影精度と当該カメラ端末の撮影精度とが同じになるように前記カメラを制御する
    ことを特徴とする請求項5記載の監視システム。
  7. 前記撮影特性変更手段はさらに、
    予め定められた撮影精度である基準精度の値を記憶する基準精度記憶部と、
    前記基準精度記憶部に記憶された基準精度と当該カメラ端末の撮影精度との差異に対して評価値を与える自己精度評価部とを有し、
    前記撮影領域変更部は、前記精度差評価部および前記自己精度評価部で与えられる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
    ことを特徴とする請求項5記載の監視システム。
  8. 前記撮影特性変更手段はさらに、
    予め定められた対象物の撮影のための基準精度を記憶する対象物撮影用基準精度記憶部と、
    前記対象物撮影用基準精度記憶部に記憶された基準精度と当該カメラ端末の撮影精度との差異に対して評価値を与える自己精度評価部と、
    当該カメラ端末の撮影領域内に前記対象物が存在するか否かを判定する対象物特定部と、
    前記撮影領域変更部は、前記対象物特定部によって前記対象物が存在すると判定された場合に、前記自己精度評価部で与えられる評価値が所定の目標値に近づくように前記カメラを制御し、前記対象物特定部によって前記対象物が存在しないと判定された場合に、前記精度差評価部で与えられる評価値が所定の目標値に近づくように前記カメラを制御する
    ことを特徴とする請求項5記載の監視システム。
  9. 前記複数のカメラ端末はさらに、
    当該カメラ端末を移動させる移動手段と、
    前記移動手段を制御することによって当該カメラ端末の撮影領域の位置を変更する移動制御手段とを備え、
    前記移動制御手段は、当該カメラ端末の撮影特性情報と前記通信手段で受信された他のカメラ端末の撮影特性情報とに基づいて、前記複数のカメラ端末によって前記監視領域をよりくまなく同時撮影できるように、前記移動手段を制御する
    ことを特徴とする請求項1または請求項2記載の監視システム。
  10. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムであって、
    前記複数のカメラ端末は、
    前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手段を有するカメラと、
    前記撮影領域の位置を特定する情報である撮影位置情報を含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と、
    当該カメラ端末の撮影位置情報と前記通信手段で受信された他のカメラ端末の撮影位置情報とから得られる、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域との距離間隔を、所定の目標値に近づけるように、当該カメラ端末のカメラを制御して撮影領域を変更する撮影特性変更手段と、
    当該カメラ端末を移動させる移動手段と、
    前記移動手段を制御することによって当該カメラ端末の撮影領域の位置を変更する移動制御手段と、
    前記監視領域に置かれた監視の対象となる対象物の前記監視領域における位置を示す位置情報を記憶する地図情報記憶手段とを備え、
    前記移動制御手段は、当該カメラ端末の撮影特性情報と前記通信手段で受信された他のカメラ端末の撮影特性情報とに基づいて、前記複数のカメラ端末によって前記監視領域をよりくまなく同時撮影できるように、前記移動手段を制御するとともに、前記地図情報記憶手段に記憶された情報に基づいて、前記対象物によって生じる前記監視領域における死角領域を特定し、特定した死角領域が減少するように、前記移動手段を制御する
    ことを特徴とする監視システム。
  11. 通信路で接続された複数のカメラ端末を用いて監視領域を監視する監視方法であって、
    前記複数のカメラ端末は、前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域と前記撮影領域の撮影における撮影精度とを変更する手段を有し、
    前記監視方法は、
    前記複数のカメラ端末が、前記撮影領域の位置を特定する情報である撮影位置情報と前記撮影領域の撮影における撮影精度情報とを含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信ステップと、
    当該カメラ端末の撮影位置情報と前記通信ステップで受信された他のカメラ端末の撮影位置情報とから得られる、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域との距離間隔を、所定の目標値に近づけるように、当該カメラ端末の撮影領域を変更するとともに、当該カメラ端末の撮影精度情報と前記通信手段で受信された他のカメラ端末の撮影精度情報とに基づいて、当該カメラ端末の撮影精度と他のカメラ端末の撮影精度とが予め定められた一定の関係となるように、当該カメラ端末のカメラを制御して撮影精度を変更する撮影特性変更ステップとを含む
    ことを特徴とする監視方法。
  12. 監視領域を監視する監視システムを構成するカメラ端末のためのプログラムであって、
    前記カメラ端末は、
    前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域と前記撮影領域の撮影における撮影精度とを変更する手段を有するカメラと、
    前記撮影領域の位置を特定する情報である撮影位置情報と前記撮影領域の撮影における撮影精度情報とを含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段とを備え、
    前記プログラムは、
    当該カメラ端末の撮影位置情報と前記通信手段で受信された他のカメラ端末の撮影位置情報とから得られる、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域との距離間隔を、所定の目標値に近づけるように、当該カメラ端末のカメラを制御して撮影領域を変更するとともに、当該カメラ端末の撮影精度情報と前記通信手段で受信された他のカメラ端末の撮影精度情報とに基づいて、当該カメラ端末の撮影精度と他のカメラ端末の撮影精度とが予め定められた一定の関係となるように、当該カメラ端末のカメラを制御して撮影精度を変更するステップを含む
    ことを特徴とするプログラム。
  13. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムによる監視方法であって、
    前記複数のカメラ端末は、前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手段を有するカメラを備え、
    前記監視方法は、
    前記複数のカメラ端末のそれぞれが、前記撮影領域の位置を特定する情報である撮影位置情報を含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信ステップと、
    当該カメラ端末のカメラを制御して撮影領域を変更する撮影特性変更ステップとを含み、
    前記撮影特性変更ステップは、
    当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定サブステップと、
    特定された他のカメラ端末からの撮影位置情報と当該カメラ端末の撮影位置情報に基づいて、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影領域との距離間隔に関する評価値を与える領域差評価サブステップと、
    前記監視領域において予め定められた基準領域と当該カメラ端末の撮影領域との位置関係に対して評価値を与える自己領域評価サブステップと、
    前記領域差評価サブステップおよび前記自己領域評価サブステップで得られる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御して撮影領域を変更する撮影領域変更サブステップとを含む
    ことを特徴とする監視方法。
  14. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムにおける1台のカメラ端末のためのプログラムであって、
    請求項13記載の監視方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
  15. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムによる監視方法であって、
    前記複数のカメラ端末は、前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手段を有するカメラを備え、
    前記監視方法は、
    前記複数のカメラ端末のそれぞれが、前記撮影領域の位置を特定する情報である撮影位置情報を含む撮影特性情報を、前記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信ステップと、
    当該カメラ端末のカメラを制御して撮影領域を変更する撮影特性変更ステップとを含み、
    前記撮影特性変更ステップは、
    当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定サブステップと、
    特定された他のカメラ端末からの撮影位置情報と当該カメラ端末の撮影位置情報に基づいて、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影領域との距離間隔に関する評価値を与える領域差評価サブステップと、
    前記監視領域の境界領域と当該カメラ端末の撮影領域との位置関係に対して評価値を与える境界領域評価サブステップと、
    前記領域差評価サブステップおよび前記境界領域評価サブステップで与えられる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御して撮影領域を変更する撮影領域変更サブステップとを含む
    ことを特徴とする監視方法。
  16. 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視システムにおける1台のカメラ端末のためのプログラムであって、
    請求項15記載の監視方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
JP2005517640A 2004-02-03 2005-01-18 監視システムおよびカメラ端末 Active JP3903062B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004027295 2004-02-03
JP2004027295 2004-02-03
JP2004105855 2004-03-31
JP2004105855 2004-03-31
PCT/JP2005/000545 WO2005076621A1 (ja) 2004-02-03 2005-01-18 監視システムおよびカメラ端末

Publications (2)

Publication Number Publication Date
JP3903062B2 true JP3903062B2 (ja) 2007-04-11
JPWO2005076621A1 JPWO2005076621A1 (ja) 2008-01-10

Family

ID=34840130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005517640A Active JP3903062B2 (ja) 2004-02-03 2005-01-18 監視システムおよびカメラ端末

Country Status (4)

Country Link
EP (1) EP1713275A4 (ja)
JP (1) JP3903062B2 (ja)
CN (1) CN101867785B (ja)
WO (1) WO2005076621A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7852764B2 (en) 2006-09-20 2010-12-14 Panasonic Corporation Relay transmission device and relay transmission method
WO2011018981A1 (ja) * 2009-08-10 2011-02-17 特定非営利活動法人 e自警ネットワーク研究会 所有者,画像閲覧可能な者を知らしめる情報開示手段を持つことを特徴とする防犯カメラシステム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4946077B2 (ja) * 2006-01-31 2012-06-06 パナソニック株式会社 センサー配置装置、センサー制御装置およびセンサー制御システム
JP4101857B2 (ja) 2006-09-20 2008-06-18 松下電器産業株式会社 監視システム、カメラ及び映像符号化方法
JP5418072B2 (ja) * 2009-08-28 2014-02-19 富士通株式会社 監視制御装置及び監視システム
JP5370398B2 (ja) 2011-03-15 2013-12-18 オムロン株式会社 画像処理装置および画像処理プログラム
JP6055823B2 (ja) * 2012-05-30 2016-12-27 株式会社日立製作所 監視カメラ制御装置及び映像監視システム
DE102012212613A1 (de) * 2012-07-18 2014-01-23 Robert Bosch Gmbh Überwachungssystem mit positionsabhängigem Schutzbereich, Verfahren zur Überwachung eines Überwachungsbereichs sowie Computerprogramm
CN103577789B (zh) * 2012-07-26 2018-02-13 中兴通讯股份有限公司 检测方法和装置
JP6072163B2 (ja) * 2015-08-06 2017-02-01 Toa株式会社 カメラ制御装置及びそのコンピュータプログラム
JP7101331B2 (ja) * 2016-11-22 2022-07-15 サン電子株式会社 管理装置及び管理システム
JP6660622B2 (ja) * 2019-03-15 2020-03-11 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JP7309097B2 (ja) * 2021-04-22 2023-07-14 三菱電機株式会社 位置検知装置、位置検知方法、及び位置検知プログラム
DE102021207641A1 (de) * 2021-07-16 2023-01-19 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung mit einer Mehrzahl an Kameras, Verfahren und Computerprogramm zur Überwachung
DE102022203740A1 (de) * 2022-04-13 2023-10-19 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungssystem, Verfahren zum Zuordnen einer Überwachungskamera zu einem Überlappungsüberwachungsbereich, Computerprogramm und Speichermedium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
JP3710297B2 (ja) * 1998-09-04 2005-10-26 キヤノン株式会社 撮像システム、撮像制御装置、撮像制御方法、及び記憶媒体
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
AUPQ684600A0 (en) * 2000-04-11 2000-05-11 Safehouse International Limited An object monitoring system
JP3656823B2 (ja) * 2000-09-04 2005-06-08 三菱電機株式会社 自動監視方法および自動監視装置
CA2364230A1 (en) * 2001-12-03 2003-06-03 Tim Lambert Video security and control system
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP4160799B2 (ja) * 2002-08-09 2008-10-08 株式会社日立製作所 監視部ユニット、それを用いた監視システム、及び異常監視方法
CN1254956C (zh) * 2004-04-15 2006-05-03 上海交通大学 交通监视环境下的摄像机标定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7852764B2 (en) 2006-09-20 2010-12-14 Panasonic Corporation Relay transmission device and relay transmission method
WO2011018981A1 (ja) * 2009-08-10 2011-02-17 特定非営利活動法人 e自警ネットワーク研究会 所有者,画像閲覧可能な者を知らしめる情報開示手段を持つことを特徴とする防犯カメラシステム
JP2011039737A (ja) * 2009-08-10 2011-02-24 Npo E-Jikei Network Promotion Institute 所有者,画像閲覧可能な者を知らしめる情報開示手段を持つことを特徴とする防犯カメラシステム

Also Published As

Publication number Publication date
CN101867785B (zh) 2012-07-25
EP1713275A4 (en) 2013-12-11
WO2005076621A1 (ja) 2005-08-18
JPWO2005076621A1 (ja) 2008-01-10
CN101867785A (zh) 2010-10-20
EP1713275A1 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
JP3903062B2 (ja) 監視システムおよびカメラ端末
JP3902222B2 (ja) 監視システム、監視方法及びカメラ端末
JP6587113B2 (ja) 画像処理装置及び画像処理方法
JP3886524B2 (ja) カメラ端末および監視システム
JP3905116B2 (ja) 検出領域調整装置
US7385626B2 (en) Method and system for performing surveillance
JP3968376B2 (ja) 撮影領域調整装置
US8390686B2 (en) Surveillance camera apparatus and surveillance camera system
KR100432870B1 (ko) 침입물체 감시방법 및 침입물체 감시시스템
US7385624B2 (en) Remote image display method, image capturing device, and method and program therefor
JP4418805B2 (ja) 検出領域調整装置
US20050036036A1 (en) Camera control apparatus and method
JP3887403B2 (ja) カメラ端末および撮影領域調整装置
JP4140591B2 (ja) 撮像システム及び撮像方法
CN100531370C (zh) 监视系统及摄像机终端
JP2000341574A (ja) カメラ装置及びカメラ制御システム
JP2007104223A (ja) システム用カメラ、監視システム及び監視方法
JP2006345114A (ja) 撮影領域調整装置および方法
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system
JP2002101408A (ja) 監視カメラシステム
KR101341632B1 (ko) 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법
JP2002027442A (ja) 物体追尾システム
KR20240078076A (ko) 조선소 작업공정 영상 수집을 위한 ptz 카메라 제어 시스템
KR102362695B1 (ko) 다중카메라 연계추적을 위한 AI기반의 복수 이동물체추적 Embedded 영상처리시스템을 통한 전방향 검지카메라 연계 정밀영상획득용 PTZ카메라 제어방법
KR20240002340A (ko) Ptz 카메라의 협업을 이용한 영상 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070105

R150 Certificate of patent or registration of utility model

Ref document number: 3903062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6