JP4470759B2 - 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体 - Google Patents

情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP4470759B2
JP4470759B2 JP2005054394A JP2005054394A JP4470759B2 JP 4470759 B2 JP4470759 B2 JP 4470759B2 JP 2005054394 A JP2005054394 A JP 2005054394A JP 2005054394 A JP2005054394 A JP 2005054394A JP 4470759 B2 JP4470759 B2 JP 4470759B2
Authority
JP
Japan
Prior art keywords
moving object
image
information
moving body
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005054394A
Other languages
English (en)
Other versions
JP2006245649A (ja
Inventor
秀宇 宮牧
雅晴 鈴木
朝子 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005054394A priority Critical patent/JP4470759B2/ja
Priority to US11/354,830 priority patent/US7801329B2/en
Priority to EP06250997A priority patent/EP1696398B1/en
Priority to EP20100166177 priority patent/EP2228776B1/en
Priority to DE602006015731T priority patent/DE602006015731D1/de
Priority to CNB200610058253XA priority patent/CN100551047C/zh
Priority to KR1020060019181A priority patent/KR101215199B1/ko
Publication of JP2006245649A publication Critical patent/JP2006245649A/ja
Application granted granted Critical
Publication of JP4470759B2 publication Critical patent/JP4470759B2/ja
Priority to US12/852,971 priority patent/US8041078B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体に関し、特に、所定の領域を撮影するとともに、その領域内の動体を撮影し、その結果得られる画像のうち、ユーザの所望する画像を容易に再生することができるようにする情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体に関する。
近年、例えば、自動預払機(ATM)を設置している銀行、駐車場、家屋などにおいて、セキュリティの確保のために多地点カメラ監視システム(Multi Camera system)が多く設置されている。
このような多地点カメラ監視システムは、複数のビデオカメラと、それらのビデオカメラから取得された画像を記録する記録装置とから構成される。多地点カメラ監視システムにおいては、複数の画像を縮小および合成し、1フレーム画像とする技術が提案されている。(例えば、特許文献1参照)。また、複数のビデオカメラからの画像を集めてビデオテープ等の記録媒体に記録することも提案されている(例えば、特許文献2参照)。
図1は、従来の多地点カメラ監視システムの一例を示す外観図である。
図1の多地点カメラ監視システム1は、4台のカメラ11−1乃至11−4から構成される。カメラ11−1乃至11−4は、撮影方向が固定の固定カメラまたは撮影方向が可変のパンチルトズームカメラである。カメラ11−1乃至11−4は、例えば、駐車場内の直径40mの円状の広範囲な領域21を監視している。
図2は、図1の多地点カメラ監視システム1の構成の一例を示している。
図2のカメラ11−1乃至11−4は撮影を行う。カメラ11−1乃至11−4は、それぞれ、記録装置41に接続され、撮影の結果得られる画像のアナログ信号を、記録装置41に供給する。記録装置41は、カメラ11−1乃至11−4から供給される画像のアナログ信号に対して、A/D変換などを行い、その結果得られる画像のデジタル信号である画像データを記録する。また、記録装置41は、表示装置42に接続され、画像データに対応する画像を、表示装置42に表示させる。
しかしながら、図2の多地点カメラ監視システム1では、記録装置41に接続可能なカメラ11−1乃至11−4が有限であり、多地点カメラ監視システム1の拡張性に乏しい。
図3は、図1の多地点カメラ監視システム1の構成の他の一例を示している。
図3のカメラ11−1乃至11−4は、それぞれネットワーク51を介して、パーソナルコンピュータ(PC)52と接続されている。カメラ11−1乃至11−4は、撮影を行い、その結果得られる画像データを、IP(Internet Protocol)に準拠してネットワーク51を介してPC52に送信する。PC52は、その画像データを記録したり、画像データに対応する画像を表示させる。
次に、図4を参照して、図2の記録装置41またはPC52に記録される画像データを説明する。
図4に示すように、記録装置41またはPC52では、カメラ11−1乃至11−4で得られる画像データがすべて記録される。従って、多地点カメラ監視システム1で監視を行う場合、画像データが所定の圧縮方式で圧縮された場合であっても、記録装置41またはPC52に記録される画像データの容量は非常に大きくなる。
例えば、所定の条件(50KB/フレーム,10フレーム/秒)で、JPEG(Joint Photographic Experts Group)方式にしたがって圧縮した画像データを24時間記録する場合、4台のカメラ11−1乃至11−4から構成される多地点カメラ監視システム1では、記録装置41またはPC52に記録される画像データの容量は、約164GBとなる。また、多地点カメラ監視システム1が、8台のカメラから構成される場合、その容量は約328GBとなり、16台のカメラから構成される場合、その容量は約656GBとなる。
以上のように、多地点カメラ監視システム1では、領域21を監視するために4台のカメラ11−1乃至11−4が必要であり、設置が面倒なうえ、多地点カメラ監視システム1のコストが大きくなる。さらに、高精細な画像を取得する場合、撮影倍率を上げて撮影する必要があるため、より多くのカメラ11−1乃至11−4が必要となる。また、高精細な画像を取得するために、カメラ11−1乃至11−4の台数を増やさない場合は、すべての領域21について高精細な画像を取得することが困難であるため、オペレータが常時通常の画像を監視して、所望の領域を指定し、その領域の高精細な画像を取得する必要がある。
そこで、撮影方向を順にシフトさせながら、被写体を撮影し、複数の単位画像から構成されるパノラマ状の全体画像を得ることにより、1台のカメラで広範囲の状況を監視することができる監視カメラがある。
特開平10−108163号広報 特開2000−243062号広報
しかしながら、このような監視カメラは、1枚の全体画像を生成するために、これを構成する全ての単位画像を取得する必要があり、1枚の全体画像を生成するために多くの時間を要する。従って、撮影範囲内において短時間に生じた僅かな状況変化をもれなく捉えることが困難である。
即ち、移動速度の速い動体(移動被写体)が撮影され、全体画像として取得されてから、次に全体画像が取得されるまでの間に、動体が撮影範囲外に移動してしまうことがある。
本発明は、このような状況に鑑みてなされたものであり、特に、所定の領域を撮影するとともに、その領域内の動体を撮影し、その結果得られる画像のうち、ユーザの所望する画像を容易に再生することができるようにするものである。
本発明の情報処理システムは、所定の領域を撮影する領域撮影手段と、領域撮影手段により撮影された結果得られる領域画像に基づいて、所定の領域内に存在する動体を検知する検知手段と、検知手段により検知された動体を撮影する動体撮影手段と、領域撮影手段により得られた領域画像を記憶する領域画像記憶手段と、検知手段による検知結果に基づいて、動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて記憶する情報記憶手段と、動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて記憶する動体画像記憶手段と、ユーザにより動体画像が指定された場合、その動体画像に対応する動体情報を動体画像記憶手段から読み出し、その動体情報に対応する再生情報を情報記憶手段から読み出して、その再生情報に基づいて領域画像記憶手段に記憶された領域画像を再生する再生手段とを備えることを特徴とする。
本発明の情報処理装置は、所定の領域を撮影する領域撮影手段を制御し、所定の領域を撮影させる領域撮影制御手段と、領域撮影手段により撮影された結果得られる領域画像に基づいて、所定の領域内に存在する動体を検知する検知手段と、検知手段により検知された動体を撮影する動体撮影手段を制御し、動体を撮影させる動体撮影制御手段と、領域撮影手段により得られた領域画像を記憶する領域画像記憶手段と、検知手段による検知結果に基づいて、動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて記憶する情報記憶手段と、動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて記憶する動体画像記憶手段と、ユーザにより動体画像が指定された場合、その動体画像に対応する動体情報を動体画像記憶手段から読み出し、その動体情報に対応する再生情報を情報記憶手段から読み出して、その再生情報に基づいて領域画像記憶手段に記憶された領域画像を再生する再生手段とを備えることを特徴とする。
この情報処理装置には、動体画像を、所定の画像を表示させる表示手段に表示させる表示制御手段と、ユーザによる表示手段に表示された動体画像の指定受け付ける受け付け手段とをさらに設け、再生手段は、受け付け手段により動体画像指定が受け付けられた場合、その動体画像に対応する再生情報に基づいて領域画像を再生することができる。
本発明の情報処理方法は、所定の領域を撮影する領域撮影手段を制御し、所定の領域を撮影させる領域撮影制御ステップと、領域撮影手段により撮影された結果得られる領域画像に基づいて、所定の領域内に存在する動体を検知する検知ステップと、検知ステップの処理により検知された動体を撮影する動体撮影手段を制御し、動体を撮影させる動体撮影制御ステップと、領域撮影手段により得られた領域画像を領域画像記憶手段に記憶させる領域画像記憶制御ステップと、検知ステップの処理による検知結果に基づいて、動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、情報記憶手段に記憶させる情報記憶制御ステップと、動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて、動体画像記憶手段に記憶させる動体画像記憶制御ステップと、ユーザにより動体画像が指定された場合、その動体画像に対応する動体情報を動体画像記憶手段から読み出し、その動体情報に対応する再生情報を情報記憶手段から読み出して、その再生情報に基づいて領域画像記憶手段に記憶された領域画像を再生する再生ステップとを含むことを特徴とする。
本発明のプログラムは、所定の領域を撮影する領域撮影手段を制御し、所定の領域を撮影させる領域撮影制御ステップと、領域撮影手段により撮影された結果得られる領域画像に基づいて、所定の領域内に存在する動体を検知する検知ステップと、検知ステップの処理により検知された動体を撮影する動体撮影手段を制御し、動体を撮影させる動体撮影制御ステップと、領域撮影手段により得られた領域画像を領域画像記憶手段に記憶させる領域画像記憶制御ステップと、検知ステップの処理による検知結果に基づいて、動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、情報記憶手段に記憶させる情報記憶制御ステップと、動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて、動体画像記憶手段に記憶させる動体画像記憶制御ステップと、ユーザにより動体画像が指定された場合、その動体画像に対応する動体情報を動体画像記憶手段から読み出し、その動体情報に対応する再生情報を情報記憶手段から読み出して、その再生情報に基づいて領域画像記憶手段に記憶された領域画像を再生する再生ステップとを含むことを特徴とする。
本発明の記録媒体に記録されるプログラムは、所定の領域を撮影する領域撮影手段を制御し、所定の領域を撮影させる領域撮影制御ステップと、領域撮影手段により撮影された結果得られる領域画像に基づいて、所定の領域内に存在する動体を検知する検知ステップと、検知ステップの処理により検知された動体を撮影する動体撮影手段を制御し、動体を撮影させる動体撮影制御ステップと、領域撮影手段により得られた領域画像を領域画像記憶手段に記憶させる領域画像記憶制御ステップと、検知ステップの処理による検知結果に基づいて、動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、情報記憶手段に記憶させる情報記憶制御ステップと、動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて、動体画像記憶手段に記憶させる動体画像記憶制御ステップと、ユーザにより動体画像が指定された場合、その動体画像に対応する動体情報を動体画像記憶手段から読み出し、その動体情報に対応する再生情報を情報記憶手段から読み出して、その再生情報に基づいて領域画像記憶手段に記憶された領域画像を再生する再生ステップとを含むことを特徴とする。
本発明においては、所定の領域が撮影され、その結果得られる領域画像に基づいて、所定の領域内に存在する動体を検知され、検知された動体が撮影される。また、領域画像が領域画像記憶手段に記憶され、検知結果に基づいて、動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とが対応付けて情報記憶手段に記憶される。さらに、動体が撮影された結果得られる動体画像が、その動体を表す動体情報に対応付けて動体画像記憶手段に記憶される。そして、ユーザにより動体画像が指定された場合、その動体画像に対応する動体情報が動体画像記憶手段から読み出され、その動体情報に対応する再生情報が情報記憶手段から読み出されて、その再生情報に基づいて領域画像記憶手段に記憶された領域画像が再生される。
本発明によれば、特に、所定の領域を撮影するとともに、その領域内の動体を撮影し、その結果得られる画像のうち、ユーザの所望する画像を容易に再生することができる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
請求項1に記載の情報処理システム(例えば、図6の監視システム101)は、
所定の領域を撮影する領域撮影手段(例えば、図6のセンサカメラ121)と、
前記領域撮影手段により撮影された結果得られる領域画像(例えば、センサ画像)に基づいて、前記所定の領域内に存在する動体を検知する検知手段(例えば、図8の動体検知モジュール222)と、
前記検知手段により検知された動体を撮影する動体撮影手段(例えば、図6のズームカメラ122)と、
前記領域撮影手段により得られた領域画像を記憶する領域画像記憶手段(例えば、図8の表示情報DB226)と、
前記検知手段による検知結果に基づいて、前記動体を表す動体情報(例えば、動体ID)と、その動体が検知された領域画像の再生に関する再生情報(例えば、再生開始位置)とを対応付けて記憶する情報記憶手段(例えば、図8の動体情報DB227)と、
前記動体撮影手段により動体が撮影された結果得られる動体画像(例えば、ズーム画像152)を、その動体を表す動体情報に対応付けて記憶する動体画像記憶手段(例えば、図8の動体ログ情報DB228)と、
ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生手段(例えば、図8の再生モジュール231)と
を備えることを特徴とする。
請求項2に記載の情報処理装置は、
被写体の撮影を制御する情報処理装置(例えば、図6のクライアント132)において、
所定の領域を撮影する領域撮影手段(例えば、図6のセンサカメラ121)を制御し、前記所定の領域を撮影させる領域撮影制御手段(例えば、図8のセンサ画像取得モジュール221)と、
前記領域撮影手段により撮影された結果得られる領域画像(例えば、センサ画像)に基づいて、前記所定の領域内に存在する動体を検知する検知手段(例えば、図8の動体検知モジュール222)と、
前記検知手段により検知された動体を撮影する動体撮影手段(例えば、図6のズームカメラ122)を制御し、前記検知手段により検知された動体を撮影させる動体撮影制御手段(例えば、図8の追跡対象画像取得モジュール223)と、
前記領域撮影手段により得られた領域画像を記憶する領域画像記憶手段(例えば、図8の表示情報DB226)と、
前記検知手段による検知結果に基づいて、前記動体を表す動体情報(例えば、動体ID)と、その動体が検知された領域画像の再生に関する再生情報(例えば、再生開始位置)とを対応付けて記憶する情報記憶手段(例えば、図8の動体情報DB227)と、
前記動体撮影手段により動体が撮影された結果得られる動体画像(例えば、ズーム画像152)を、その動体を表す動体情報に対応付けて記憶する動体画像記憶手段(例えば、動体ログ情報DB228)と、
ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生手段(例えば、図31のステップS212の処理を実行する図8の再生モジュール231)と
を備えることを特徴とする。
請求項3に記載の情報処理装置は、
前記動体画像(例えば、ズーム画像)を、所定の画像を表示させる表示手段(例えば、図8の出力部207)に表示させる表示制御手段(例えば、図30のステップS194の処理を実行する図8の再生モジュール231)と、
前記ユーザによる前記表示手段に表示された動体画像の指定受け付ける受け付け手段(例えば、図8の入力部206)と
をさらに備え、
前記再生手段は、前記受け付け手段により前記動体画像指定が受け付けられた場合、その動体画像に対応する再生情報に基づいて前記領域画像を再生する
ことを特徴とする。
請求項4に記載の情報処理方法は、
画像を記憶する領域画像記憶手段(例えば、図8の表示情報DB226)および動体画像記憶手段(例えば、図8の動体ログ情報DB228)、並びに情報を記憶する情報記憶手段(例えば、図8の動体情報DB227)とを備え、被写体の撮影を制御する情報処理装置(例えば、図6のクライアント132)の情報処理方法において、
所定の領域を撮影する領域撮影手段(例えば、図6のセンサカメラ121)を制御し、前記所定の領域を撮影させる領域撮影制御ステップ(例えば、図20のステップS1)と、
前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知ステップ(例えば、図23のステップS61)と、
前記検知ステップの処理により検知された動体を撮影する動体撮影手段(例えば、図6のズームカメラ122)を制御し、前記動体を撮影させる動体撮影制御ステップ(例えば、図24のステップS85)と、
前記領域撮影手段により得られた領域画像を前記領域画像記憶手段に記憶させる領域画像記憶制御ステップ(例えば、図21のステップS27)と、
前記検知ステップの処理による検知結果に基づいて、前記動体を表す動体情報(例えば、動体ID)と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、前記情報記憶手段に記憶させる情報記憶制御ステップ(例えば、図22のステップS43)と、
前記動体撮影手段により動体が撮影された結果得られる動体画像(例えば、ズーム画像152)を、その動体を表す動体情報に対応付けて、前記動体画像記憶手段に記憶させる動体画像記憶制御ステップ(例えば、図25のステップS104)と、
ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生ステップ(例えば、図31のステップ212)と
を含むことを特徴とする。
請求項5に記載のプログラムおよび請求項6に記載の記録媒体に記録されるプログラムは、
画像を記憶する領域画像記憶手段(例えば、図8の表示情報DB226)および動体画像記憶手段(例えば、図8の動体ログ情報DB228)、並びに情報を記憶する情報記憶手段(例えば、図8の動体情報DB227)とを備える情報処理装置(例えば、図6のクライアント132)を制御するコンピュータに行わせるプログラムにおいて、
所定の領域を撮影する領域撮影手段(例えば、図6のセンサカメラ121)を制御し、前記所定の領域を撮影させる領域撮影制御ステップ(例えば、図20のステップS1)と、
前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知ステップ(例えば、図23のステップS61)と、
前記検知ステップの処理により検知された動体を撮影する動体撮影手段(例えば、図6のズームカメラ122)を制御し、前記動体を撮影させる動体撮影制御ステップ(例えば、図24のステップS85)と、
前記領域撮影手段により得られた領域画像を前記領域画像記憶手段に記憶させる領域画像記憶制御ステップ(例えば、図21のステップS27)と、
前記検知ステップの処理による検知結果に基づいて、前記動体を表す動体情報(例えば、動体ID)と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、前記情報記憶手段に記憶させる情報記憶制御ステップ(例えば、図22のステップS43)と、
前記動体撮影手段により動体が撮影された結果得られる動体画像(例えば、ズーム画像
152)を、その動体を表す動体情報に対応付けて、前記動体画像記憶手段に記憶させる動体画像記憶制御ステップ(例えば、図25のステップS104)と、
ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生ステップ(例えば、図31のステップ212)と
を含むことを特徴とする。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図5は、本発明を適用した監視システム101の第一実施の形態の概観構成例を示している。
図5の監視システム101は、カメラユニット111から構成される。カメラユニット111は、広範囲な領域を撮影するセンサカメラ121(後述する図6)と、所定の動体をズーム(拡大)して撮影するズームカメラ122とから構成される。センサカメラ121が広範囲な領域を撮影し、その結果得られるセンサ画像121(後述する図6)から検知される動体を、ズームカメラ122がズームして撮影する。これにより、監視システム101では、例えば、駐車場内の直径40mの円状の広範囲な領域21を監視することができる。
その結果、図1に示した多地点カメラ監視システム1に比べて、カメラの台数が少なくて済み、設置が容易であり、コストも削減することができる。
図6は、監視システム101の構成例を示している。
図6の監視システム101は、センサカメラ121とズームカメラ122からなるカメラユニット111、ネットワーク131、およびクライアント132から構成され、センサカメラ121により取得されるセンサ画像151と、ズームカメラ122による撮影の結果得られるズーム画像152を、ネットワーク131を介してクライアント132に記録したり、その記録したセンサ画像151とズーム画像152を、クライアント132により再生する。
カメラユニット111のセンサカメラ121は、パンチルト部121Aとカメラ部121Bとが一体的に構成されている。パンチルト部121Aは、例えば、パン(水平方向
)とチルト(垂直方向)の2軸について撮影方向を自在に変更するための回転台として構成される。カメラ部121Bは、パンチルト部121Aを構成する回転台上に配設され、クライアント132の制御にしたがって、パンチルト部121Aを制御し、撮影方向の水平方向または垂直方向を調整しつつ、撮影画角を変更することにより、撮影倍率を拡大または縮小して広範囲の領域(の被写体)を動画像として撮影する。具体的には、例えば、カメラ部121Bは、撮影方向を順にシフトさせながら、被写体を撮影することにより、複数の単位画像を取得し、その複数の単位画像から構成されるパノラマ状の画像をセンサ画像151とする。
カメラ部121Bは、撮影の結果得られるセンサ画像151をネットワーク131を介してクライアント132に供給する。図6では、センサカメラ121は、動体161と162を含む広範囲な領域を撮影し、動体161と162が含まれるセンサ画像151を取得している。
ズームカメラ122は、センサカメラ121と同様に、パンチルト部122Aとカメラ部122Bとが一体的に構成されている。パンチルト部122Aは、パンチルト部121Aと同様に、例えば、パンとチルトの2軸について撮影方向を自在に変更するための回転台として構成される。カメラ部122Bは、パンチルト部121Aを構成する回転台上に配設され、クライアント132の制御にしたがって、パンチルト部122Aを制御し、撮影方向の水平方向または垂直方向を調整しつつ、撮影画角を変更することにより、撮影倍率を拡大または縮小して、所定の動体を動画像としてズーム撮影する。
クライアント132は、センサカメラ121から供給されるセンサ画像151に含まれる動体161と162を検知し、動体161または162を囲む所定の領域(例えば、四角形の領域)を、それぞれ動体枠171または172として決定する。
クライアント132は、例えば、動体枠172の4つの頂点A乃至Dのセンサ画像151上のX軸(図中水平方向の軸)とY軸(図中垂直方向の軸)における座標をズームカメラ122に供給する。ズームカメラ122は、その座標に基づいて、動体162(の動体枠172)をズーム撮影し、ズーム画像152を取得する。なお、以下では、センサ画像151とズーム画像152は、フレーム単位で取得されるものとする。ズームカメラ122は、ズーム画像152をネットワーク131を介してクライアント132に供給する。
ネットワーク131は、例えば、クライアント132と電話回線を介して接続されるインターネット網や、TA(Terminal Adapter)やモデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN、LAN(Local Area Network)等であり、データの双方向通信を可能とした通信網である。
クライアント132は、例えば、パーソナルコンピュータなどからなり、ネットワーク131を介して、センサカメラ121とズームカメラ122を制御する。また、クライアント132は、センサカメラ121からのセンサ画像151とズームカメラ122からのズーム画像152を記録したり、記録したセンサ画像151やズーム画像152を再生して表示させる。
図7は、図6のクライアント132の構成例を示すブロック図である。
図6に示されるように、CPU(Central Processing Unit)201は、バス204を介して、ROM(Read Only Memory)202およびRAM(Random Access Memory)203に接続されている。なお、CPU201、ROM202、およびRAM203は、マイコンなどにより構成される。バス204にはまた、入出力インタフェース205も接続されている。
CPU201は、ROM202に記憶されているプログラム、またはRAM203に記憶されているプログラムにしたがって、各種の処理を実行する。ROM202は、各種のプログラムなどを記憶している。RAM203には、通信部209を介して取得したプログラムが記憶される。また、RAM203には、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
入出力インタフェース205には、キーボードや、マウス、マイク等で構成される入力部206、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部207、ハードディスクなどにより構成される記憶部208、TA、モデムなどより構成される通信部209が接続されている。通信部209は、図6のネットワーク131に接続されており、ネットワーク131を介して、センサカメラ121およびズームカメラ122と通信を行う。
入出力インタフェース205にはまた、必要に応じて、ドライブ210が適宜装着され、ドライブ210に装着されたリムーバブルメディア211からプログラムが読み出されて記憶部208にインストールされる。CPU201は、記憶部208にインストールされたプログラムを、例えばRAM203にロードして実行する。
図8は、図6のクライアント132の機能的構成例を示すブロック図である。
なお、図8のクライアント132のセンサ画像取得モジュール221、動体検知モジュール222、追跡対象画像取得モジュール223、計時モジュール224、動体ログモジュール230、および再生モジュール231は、例えば、図7のCPU201に対応する。また、追跡対象情報管理DB225、表示情報DB226、動体情報DB227、動体ログ情報DB228、および録画実績情報DB229は、例えば、図7の記憶部208に対応する。
センサ画像取得モジュール221には、ユーザの操作に応じて、入力部206からセンサ画像151の取得の指令が供給され、その指令に応じて、センサカメラ121を制御する。センサカメラ121は、センサ画像取得モジュール221の制御により、広範囲な領域21を撮影し、その結果得られるセンサ画像151と自分自身を表すセンサカメラ121に固有のID(以下、カメラIDという)とをセンサ画像取得モジュール221に供給する。また、センサ画像取得モジュール221は、センサカメラ121からのセンサ画像151を動体検知モジュール222に供給する。
センサ画像取得モジュール221は、表示情報DB226に所定のファイルを作成し、動体検知モジュール222から供給される動体枠172の頂点A乃至Dの座標である動体の発生位置を表示情報として、そのファイルに表示情報とセンサ画像151を登録する。また、センサ画像取得モジュール221は、計時モジュール224から供給される現在の日時を表す日時情報に基づいて、録画実績情報DB229に登録されている、センサ画像151とズーム画像152の記憶(録画)の有無を表す録画実績情報を変更する。
また、動体情報DB227に所定のファイルを作成し、そのファイルに動体検知モジュール222から供給される動体の発生日時、消滅日時、発生位置、動体ID、再生に関する再生情報である再生開始位置、およびセンサカメラ121から供給されるカメラIDから構成される動体情報を登録する。
動体検知モジュール222は、センサ画像取得モジュール221から供給されるセンサ画像151に基づいて、そのセンサ画像151における撮影領域内に存在する動体の発生を検知し、その発生を検知した動体に固有のID(以下、動体IDという)を付与する。また、動体検知モジュール222は、その検知の結果に基づいて、動体の発生を検知したセンサ画像151のフレームの、先頭のフレームからの位置を、その動体に対応するセンサ画像151を再生するときの再生開始位置として認識する。さらに、動体検知モジュール222は、発生を検知した動体の動体枠172(171)を決定し、その動体枠172の頂点A乃至Dの座標を、動体の発生位置としてセンサ画像取得モジュール221に供給する。
また、動体検知モジュール222は、計時モジュール224からの日時情報に基づいて、動体の発生を検知した日時である発生日時を認識する。動体検知モジュール222は、動体の発生日時、動体ID、および発生位置を、ズームカメラ122によりズーム撮影(追跡撮影)させる追跡対象である動体の情報である追跡対象情報として、追跡対象情報管理DB225に登録する。
さらに、動体検知モジュール222は、発生を検知した動体の、センサ画像151からの消滅を検知し、計時モジュール224からの日時情報に基づいて、消滅を検知した日時を消滅日時として認識する。動体検知モジュール222は、動体の発生日時、消滅日時、発生位置、動体ID、および再生開始位置をセンサ画像取得モジュール221に供給する。
追跡対象画像取得モジュール223は、追跡対象情報管理DB225から追跡対象情報を取得する。追跡対象画像取得モジュール223は、その追跡対象情報に基づいて、ズームカメラ122を制御し、動体を動画像としてズーム撮影する。追跡対処画像取得モジュール223は、表示情報DB226に所定のファイルを作成し、そのファイルにズーム撮影の結果得られるズーム画像152を、追跡対象情報に含まれる追跡対象の動体の動体IDと対応付けて登録する。
追跡対象画像取得モジュール223は、動画像であるズーム画像152を所定のタイミングでキャプチャした静止画像(以下、ズーム静止画像という)272C(後述する図15)と、追跡対象の動体の動体IDとを、動体ログを表示するための動体ログ情報として動体ログ情報DB228に登録する。なお、動体ログとは、動体検知モジュール222により検知された動体のログである。追跡対象画像取得モジュール223は、計時モジュール224からの日時情報に基づいて、録画実績情報DB229に登録されている録画実績情報を変更する。
計時モジュール224は、現在の日時を計時し、その日時を表す日時情報を、センサ画像取得モジュール221、動体検知モジュール222、追跡対象画像取得モジュール223、および動体ログモジュール230に供給する。
追跡対象情報管理DB225は、動体検知モジュール222からの追跡対象情報を所定のファイルとして記憶する。表示情報DB226は、センサ画像取得モジュール221からの表示情報とセンサ画像151を、所定のファイルとして記憶する。また、表示情報DB226は、追跡対象画像取得モジュール223からのズーム画像152を、動体IDと対応付けて、所定のファイルとして記憶する。
動体情報DB227は、センサ画像取得モジュール221からの動体情報を所定のファイルとして記憶する。動体ログ情報DB228は、追跡対象画像取得モジュール223からの動体ログ情報を、所定のファイルとして記憶する。録画実績情報DB229は、録画実績情報を記憶する。
動体ログモジュール230には、ユーザの操作に応じて、入力部206から動体ログの表示の指令が供給される。動体ログモジュール230は、その指令に応じて、出力部207に動体ログを表示させる。具体的には、動体ログモジュール230は、計時モジュール224から供給される日時情報、動体情報DB227に記憶されている動体情報、動体ログ情報DB228に記憶されている動体ログ情報、および録画実績情報DB229に記憶されている録画実績情報に基づいて、動体ログを表示させる。
また、動体ログモジュール230には、ユーザの操作に応じて、入力部206から再生の指令が供給され、動体ログモジュール230は、その指令に応じて、ユーザが再生対象として指定した動体のセンサ画像151に対応する発生日時を、再生モジュール231に供給する。
再生モジュール231は、動体ログモジュール230からの発生日時に基づいて、動体情報DB227から、その発生日時に対応する動体IDと再生開始位置を読み出す。再生モジュール231は、その読み出した動体IDと再生開始位置に基づいて、表示情報DB226からセンサ画像151を再生するとともに、ズーム画像152を再生し、それぞれ出力部207に表示させる。
次に、図9は、図8の追跡対象情報管理DB225に登録されている追跡対象情報の例を示している。
図9に示すように、追跡対象情報は、動体の発生日時、動体ID、および発生位置から構成される。
図9では、動体検知モジュール222が、2004年1月10日の10時と10時5分に動体を検知し、10時に検知した動体に動体IDの「1」を、10時5分に検知した動体に動体IDの「2」を、それぞれ付与する。また、動体検知モジュール222は、動体ID「1」の動体の動体枠172を決定し、その動体枠172の頂点A乃至Dの座標(1,2),(1,5),(2,5),(2,2)を発生位置として認識する。なお、以下では、(i,j)のiは、センサ画像151における所定の位置を原点としたXY座標軸上のX座標の値、jはY座標の値を表す。
さらに、動体検知モジュール222は、動体ID「2」の動体の動体枠172を決定し、その動体枠172の頂点A乃至Dの座標(3,5)、(3,9)、(5,9)、(5,5)を発生位置として認識する。そして、動体検知モジュール222は、動体ID「1」と「2」の動体の発生日時、動体ID、および発生位置を、追跡対象情報として、追跡情報DB225に登録する。
次に、図10は、図8の動体情報DB227に登録される動体情報の例を示している。
図10に示すように、動体情報は、動体の発生日時、消滅日時、発生位置、動体ID、再生開始位置、およびカメラIDから構成される。即ち、動体情報DB227には、動体IDと、その動体IDの動体の発生日時、消滅日時、発生位置、再生開始位置、およびカメラIDとが対応付けて動体情報として記憶されている。動体情報DB227には、管理時間帯ごとにファイルが作成され、動体情報が、その動体情報の発生日時を含む管理時間帯に対応するファイルに登録される。なお、以下では、管理時間帯は、日付ごとに、1日を9時から順に1時間単位で区切ったものであるものとするが、管理時間帯の区切り方はこれに限定されない。
また、図10では、動体情報DB227の2004年1月10日の10時から11時という管理時間帯のファイルに登録される動体情報の例を示している。図10に示すように、動体検知モジュール222は、2004年1月10日の10時に発生を検知して動体ID「1」を付与した動体の消滅を同日の11時に検知する。また、動体検知モジュール222は、動体IDが「1」の動体の動体枠172を決定し、その頂点A乃至Dの座標である(1,2)、(1,5)、(2,5)、(2,2)を発生位置として認識している。
さらに、動体IDが「1」の動体の発生が検知されたセンサ画像151のフレームは、先頭から1番目のフレームであるフレーム#1であり、動体検知モジュール222は、フレーム#1を再生開始位置として認識する。なお、以下では、先頭からl番目のフレームをフレーム#lという。また、センサ画像取得モジュール221には、動体IDが「1」の動体の発生が検知されたセンサ画像151を取得したセンサカメラ121のカメラIDとして、「1」が供給されている。
また、動体検知モジュール222は、2004年1月10日10時5分に発生を検知した動体ID「2」が付与された動体の消滅を、同日の10時30分に検知する。動体検知モジュール222は、動体IDが「2」の動体の動体枠172を決定し、その動体枠172の頂点A乃至Dの座標である(3,5)、(3,9)、(5,9)、(5,5)を発生位置として認識する。
さらに、動体IDが「2」の動体の発生が検知されたセンサ画像151のフレームは、フレーム#2であり、動体検知モジュール222は、フレーム#2を再生開始位置として認識する。また、センサ画像取得モジュール221には、動体IDが「2」の動体の発生が検知されたセンサ画像151を取得したセンサカメラ121のカメラIDとして、「1」が供給されている。
センサ画像取得モジュール221は、動体ID「1」と「2」が付与された動体の消滅が検知された場合、動体の発生日時、消滅日時、発生位置、動体ID、再生開始位置、およびカメラIDから構成される動体情報を、動体情報DB227に登録する。
図11は、図8の動体ログ情報DB228に登録されている動体ログ情報の例を示している。
図11に示すように、動体ログ情報は、動体IDと、その動体IDの動体を含むズーム画像をキャプチャしたズーム静止画像272Cから構成される。なお、ズーム静止画像272Cには、例えば、取得された順に1から番号が付されており、以下では、番号pが付されたズーム静止画像272Cをズーム静止画像#1という。また、動体ログ情報DB228には、管理時間帯ごとにファイルが作成され、動体ログ情報が、その動体ログ情報のズーム静止画像272Cを取得した日時を含む管理時間帯に対応するファイルに登録される。
図11では、追跡対象画像取得モジュール223が、動体IDが「1」の動体のズーム画像152をキャプチャしたズーム静止画像272Cを、ズーム静止画像#1と#2の2フレーム分取得している。また、追跡対象画像取得モジュール223は、動体IDが「2」の動体のズーム静止画像272Cを、ズーム画像#10の1フレーム分取得している。
追跡対象画像取得モジュール223は、動体ID「1」と動体ID「1」の動体のズーム静止画像272C、並びに動体ID「2」と動体ID「2」の動体のズーム静止画像272Cを、動体ログ情報として、動体ログ情報DB228に登録する。
図12は、録画実績情報DB229に登録されている録画実績情報の例を示している。
図12に示すように、録画実績情報は、センサ画像151の記憶の有無を表すセンサフラグとズーム画像152の記憶の有無を表すズームフラグとから構成され、管理時間帯に対応付けて登録される。
図12では、2004年1月10日の10時から11時の管理時間帯に、センサ画像取得モジュール221は、センサ画像151を取得して表示情報DB226に登録しており、追跡対象画像取得モジュール223は、ズーム画像152を取得して表示情報DB226に登録している。即ち、センサフラグは、センサ画像151の記憶の有を表す「1」となっており、ズームフラグは、例えば、ズーム画像152の記憶の有を表す「1」となっている。
また、2004年1月10日の11時から12時の管理時間帯に、センサ画像取得モジュール221は、センサ画像151とズーム画像152を取得していない。即ち、センサフラグは、センサ画像151の記憶の無を表す「0」となっており、ズームフラグは、例えば、ズーム画像152の記憶の無を表す「0」となっている。
次に、図13を参照して表示情報DB226に記憶されるセンサ画像151とズーム画像152の容量を説明する。
図13に示すように、表示情報DB226には、センサカメラ121で取得されたすべてのセンサ画像151と、動体の発生が検知された場合にズームカメラ122で取得されたズーム画像152とが記録される。
このように、監視システム101では、動体の発生が検知された場合にのみズーム画像152が取得され、記録されるので、図4に示したカメラ11−1乃至11−4から取得された画像がすべて記録される場合に比べて、領域21を監視するために必要な表示情報DB226の記憶容量を削減することができる。
例えば、センサ画像151とズーム画像152を、所定の条件(50KB/フレーム,10フレーム/秒)で、JPEG(Joint Photographic Experts Group)方式にしたがって圧縮して記録する場合、領域21を24時間監視するために必要なセンサ画像151とズーム画像152の容量は、約51GBである。即ち、図4に示した多地点カメラ監視システム1に比べて、領域21を監視するために必要な表示情報DB226の容量は、1/60乃至1/3以下となる。
その結果、ユーザ(オペレータ)は、センサ画像151とズーム画像152を再生して、監視行為を行う場合、すべての時間におけるズーム画像152ではなく、監視が必要な動体が検知された時間におけるズーム画像152のみを再生することができるので、監視行為のための時間や手間(量的工数)を削減することができる。
また、表示情報DB226に記憶されるセンサ画像151とズーム画像152の容量が削減されることにより、再生モジュール231は、再生対象となるセンサ画像151とズーム画像152を容易に検索することができる。
次に、図14乃至図19を参照して、図7の出力部207に表示される画面の例を示す。
ユーザが入力部206を操作して、センサ画像151の取得を指令する場合、出力部207には、図14に示す画面250が表示される。
図14の画面250は、センサ画像151を表示するセンサ画像表示部251、センサ画像151とズーム画像152の記録(録画)に関する操作を指令するためのGUI(Graphical User Interface)を表示する操作部252、およびズーム画像152の動画像を表示するズーム画像表示部253などから構成される。
センサ画像取得モジュール221は、いま取得しているセンサ画像151をセンサ画像表示部251に表示させる。また、追跡対象画像取得モジュール223は、いま取得しているズーム画像152の動画像をズーム画像表示部253に表示させる。
操作部252には、例えば、プレイバック(Play Back)ボタン252Aと停止ボタン252Bなどが表示される。プレイバックボタン252Aは、動体ログ(の画面270(後述する図15))を表示させるときに操作される。また、停止ボタン252Bは、センサ画像151の取得を終了するときに操作される。ユーザが、入力部206を操作してプレイバックボタン252Aを選択する場合、入力部206はユーザからの操作を受け付け、その操作に応じて動体ログの表示の指令を動体ログモジュール230に供給する。動体ログモジュール230は、その指令に応じて、図15に示すように、動体ログの画面270を出力部207に表示させる。
画面270は、録画実績情報に基づいて録画実績を表示させる録画実績表示部271、動体ログ情報に基づいて動体ログを表示させる動体ログ表示部272、所定の管理時間帯に発生した動体の数を表す動体数グラフ表示部273、ターゲット時間帯選択部274、再生時刻選択部275、OKボタン276、およびクローズボタン277などから構成される。なお、ターゲット時間帯とは、動体ログ表示部272で表示対象となるズーム静止画像272Cに対応する動体の発生日時を含む所定の時間帯(例えば、15分)である。
録画実績表示部271には、日付表示部271Aとターゲット週間選択部271Bが表示される。日付表示部271には、ターゲット時間帯の日付を含む1週間であるターゲット週間の日付が表示される。ターゲット週間選択部271Bは、ターゲット週間を変更するときに、操作される。
動体ログモジュール230は、録画実績情報のセンサフラグとズームフラグに基づいて、録画実績情報に対応する日時を表す日付表示部271Aの日付と時間表示部271Cの時間における位置に、「センサ画像151とズーム画像152のいずれの記録も無し」、「センサ画像151のみ有り」、または「センサ画像151とズーム画像152の両方有り」を表す色を表示させる。例えば、「センサ画像151とズーム画像152のいずれの記録も無し」が透明、「センサ画像151のみ有り」が水色、「センサ画像151とズーム画像152の両方有り」が青色で表される。図15では、例えば、領域271Cに水色が表示され、色表示部271Dに青色が表示されている。
このように、センサ画像151とズーム画像152のいずれの記録も無し」、「センサ画像151のみ有り」、または「センサ画像151とズーム画像152の両方有り」を色分けして表示させることにより、ユーザは、録画実績表示部271から、センサ画像151またはズーム画像152の記録の有無を容易に判断することができる。
また、動体ログモジュール230は、録画実績情報のターゲット時間帯を表す日付表示部271Aの日付と時間表示部271Cの時間における位置に、ターゲット時間帯であることを表す色(例えば、黄色)を表示させる。図15では、領域271Eに黄色が表示されている。
動体ログ表示部272には、タブ272Aとサムネイル表示部272Bが表示される。タブ272Aは、動体ログ表示部272のページ数を表す。なお、動体ログ表示部272には、タブ272Aではなく、スクロールバーを表示させ、スクロールバーにより表示対象とするページを変更することができるようにしてもよい。サムネイル表示部272Bは、動体ログ表示部272に、例えばマトリクス状に表示され、サムネイル表示部272Bには、動体ログとして、ターゲット時間帯に発生した動体のズーム静止画像272Cと、ズーム静止画像272Cに対応する動体の発生時刻とが表示される。なお、サムネイル表示部272Bに表示される発生時刻は、例えば、その発生時刻に対応するセンサ画像151を取得したセンサカメラ121のカメラIDごとに、異なる色で表示される。
このように、動体ログ表示部272には、ターゲット時間帯に発生した動体のズーム静止画像272Cのみが表示されるため、ユーザは所望の動体のズーム静止画像272Cを検索しやすい。
動体数グラフ表示部273には、横軸がターゲット時間帯を含む管理時間帯、縦軸がその管理時間帯に発生した動体の数を表す動体数グラフが表示される。このように、動体数グラフが表示されることにより、ユーザはセンサ画像151を再生しなくても、管理時間帯に発生した動体の数を容易に認識することができる。また、動体数グラフ表示部273には、ターゲット時間帯を含む管理時間帯に発生した動体の最大の数(図15の例の場合26)も表示される。
ターゲット時間帯選択部274は、ターゲット時間帯を選択するときに表示される。再生時刻選択部275は、再生対象とするセンサ画像151またはズーム画像152に対応する動体の発生日時(の時刻)を選択するときに表示される。OKボタン276は、再生時刻選択部275で選択した時刻を決定するときに操作される。クローズボタン277は、画面270の表示を停止するときに操作される。
以上のように、画面270には、録画実績表示部271、動体ログ表示部272、および動体数グラフ表示部273が表示されるので、ユーザは、ターゲット時間帯を含む1週間単位での時間ごとのセンサ画像151とズーム画像152の記録の有無、ターゲット時間帯に発生した動体のズーム静止画像272C、ターゲット時間を含む管理時間帯に発生した動体の数を同時に認識することができる。
また、ユーザは、録画実績表示部271上の、所望の日時に対応する位置を指定することにより、所望の日時に発生した動体の動体ログを、動体ログ表示部272に表示させることができる。その結果、所望の日時の月、日、時、および分を順に入力する場合に比べて、容易に所望の日時を指定し、所望の日時に発生した動体の動体ログを表示させることができる。
また、ユーザは、例えば、入力部206を操作して、画面270上の所望のズーム静止画像272Cを選択することにより、所望のセンサ画像151とズーム画像152を再生して表示させる。
例えば、ユーザが、録画実績表示部271の領域271C内の位置を指定する場合、図15に示す画面270は、図16に示す画面270に変更される。
領域271Cには、「センサ画像151のみ有り」を表す水色が表示されている、即ち領域271Cに対応する日時には、ズーム静止画像272Cが取得されず、センサ画像151のみが取得されているので、図16に示すように、動体ログ表示部272には、サムネイル表示部272Bが表示されない。
また、ユーザが、入力部206を操作して、図15の画面270上の所望のズーム静止画像272Cが表示されるサムネイル表示部272Bを選択する場合、動体ログモジュール230は、そのサムネイル表示部272Bに表示される発生日時を再生モジュール231に供給する。再生モジュール231は、発生日時に基づいて、動体情報DB227から、その発生日時に対応する再生開始位置と動体IDを読み出す。再生モジュール231は、その読み出した再生開始位置と動体IDに基づいて、表示情報DB226からセンサ画像151とズーム画像152を再生し、図17に示す画面300を出力部207に表示させる。以上のように、ユーザは、サムネイル表示部272Bを選択することにより、センサ画像151の再生開始位置を指定することができる。
図17の画面300は、センサ画像表示部251、ズーム画像表示部253、および再生に関する操作を行うためのGUIから構成される操作部301などから構成される。
センサ画像表示部251には、表示情報DB226から再生されたセンサ画像151が表示され、ズーム画像表示部253には、表示情報DB226から再生されたズーム画像152が表示される。
操作部301には、図15や図16に示した画面270を表示させるときに操作されるライブ(Live)ボタン301Aが表示される。
さらに、
図18は、図15や図16の画面270で、日付表示部271Aが選択されたときに表示される画面270の例を示している。
図15や図16の画面270が表示されている場合に、ユーザが日付表示部271Aを選択すると、図15や図16の画面270は、図18に示す画面270に変更される。即ち、センサ画像151とズーム画像152の削除またはエキスポートを選択する選択ボックス321が表示される。ユーザが、選択ボックス321の削除を選択する場合、動体ログモジュール230は、図19に示す確認画面340を出力部207に表示させる。
図19に示すように、確認画面340には、「削除しますか?」というメッセージ、OKボタン341、およびキャンセルボタン342が表示される。OKボタン341は、削除を指令するときに操作される。キャンセルボタン342は、削除の取りやめ(キャンセル)を指令するときに操作される。
なお、図18において、ユーザが、選択ボックス321のエキスポートを選択する場合、出力部207には、図19と同様の確認画面340が表示される。この場合、表示されるメッセージは、「エキスポートしますか?」というメッセージである。
次に、図20を参照して、図8のセンサ画像取得モジュール221によるセンサ画像取得処理を説明する。このセンサ画像取得処理は、例えば、ユーザが入力部206を操作することにより、センサ画像151の取得を指令したときに操作される。
ステップS1において、センサ画像取得モジュール221は、センサカメラ121にセンサ画像151の取得を要求する。センサカメラ121のカメラ部122Aは、パンチルト部121Aを制御し、撮影方向の水平方向または垂直方向を調整しつつ、所定の撮影倍率で広範囲の領域を動画像として撮影する。そして、カメラ部122Aは、その結果得られる動画像であるセンサ画像151を、図示せぬクライアント返却用バッファに記憶する。センサカメラ121は、センサ画像取得モジュール221からの要求に応じて、クライアント返却用バッファに記憶されているセンサ画像151と、自分自身のカメラIDとを、センサ画像取得モジュール221に供給する。
ステップS1の処理後は、ステップS2に進み、センサ画像取得モジュール221は、センサカメラ121からセンサ画像とカメラIDとを取得して、ステップS3に進む。ステップS3において、センサ画像取得モジュール221は、動体検知モジュール222に、センサカメラ121からのセンサ画像151を入力し、ステップS4に進む。
ステップS4において、センサ画像取得モジュール221は、動体検知モジュール122から、ステップS3で入力したセンサ画像151に対応する動体の動体ID、発生位置、発生日時、および再生開始位置を取得し、ステップS5に進む。
ステップS5において、センサ画像取得モジュール221は、動体の発生位置を表示情報として、その表示情報とセンサ画像151を表示情報DB226に登録させる図21の表示情報登録処理を行う。
ステップS5の処理後は、ステップS6に進み、センサ画像取得モジュール221は、センサカメラ121のクライアント返却用バッファを更新し、ステップS7に進む。ステップS7において、センサ画像151上から消滅した動体はないかどうか、即ち動体検知モジュール222から消滅を検知した動体の動体IDと消滅日時が供給されていないかどうかを判定する。
ステップS7において、センサ画像151上から消滅した動体があると判定された場合、ステップS8に進み、センサ画像取得モジュール221は、動体検知モジュール222から供給された消滅した動体の動体IDと消滅時刻、それに対応するステップS4で取得した発生日時、発生位置、および再生開始位置、並びにセンサカメラ121から供給されたカメラIDから構成される動体情報を、動体情報DB227に登録する図22の動体情報登録処理を行う。
ステップS7でセンサ画像151上から消滅した動体はないと判定された場合、またはステップS8の処理後は、ステップS9に進み、センサ画像取得モジュール221は、入力部206からセンサ画像151とズーム画像152の取得の終了が要求されたかどうか、即ちユーザが入力部206を操作することにより停止ボタン252Bを選択したかどうかを判定し、終了が要求されていないと判定した場合、ステップS1に戻り、上述した処理を繰り返す。
一方、ステップS8において、入力部206からセンサ画像151とズーム画像152の取得の終了が要求されたと判定された場合、処理は終了する。
次に、図21を参照して、図20のステップS5の表示情報登録処理を説明する。
ステップS21において、センサ画像取得モジュール221は、計時モジュール224から現在の日時を表す日時情報を取得し、ステップS22に進む。ステップS22において、センサ画像取得モジュール221は、録画実績情報DB229から、ステップS21で取得した日時情報が表す日時に対応するセンサフラグを読み出し、そのセンサフラグが、センサ画像151の記録の無を表す0であるかどうかを判定する。
ステップS22において、センサフラグが0であると判定された場合、ステップS23に進み、センサ画像取得モジュール221は、センサフラグを0から、センサ画像151の記録の有を表す1に変更して、ステップS24に進む。
一方、ステップS22において、センサ画像取得モジュール221は、センサフラグが0ではない、即ちセンサフラグが1であると判定した場合、ステップS23をスキップして、ステップS24に進む。
ステップS24において、センサ画像取得モジュール221は、後述するステップS26で作成された表示情報DB226のファイルに登録されているセンサ画像151のフレーム数を取得する。なお、最初のステップS21では、まだ表示情報DB226にファイルが作成されていないので、フレーム数を取得せずに、表示情報DB226にファイルを作成する。また、まだステップS26で新しいファイルが作成されていない場合、センサ画像取得モジュール221は、最初のステップS21で作成されたファイルに登録されているセンサ画像151のフレーム数を取得する。
ステップS25において、センサ画像取得モジュール221は、ステップS24で取得したフレーム数が、例えば予めユーザにより設定された所定の閾値を越えたかどうかを判定し、超えたと判定した場合、ステップS26に進み、表示情報DB226に新しいファイルを作成する。
ステップS25において、ステップS24で取得したフレーム数が、所定の閾値を超えていないと判定された場合、またはステップS26の処理後は、ステップS27に進み、センサ画像取得モジュール221は、ステップS26において作成された表示情報DB226の最新のファイルに、センサ画像151に対応づけて表示情報を登録する。即ち、表示情報DB226では、センサ画像151の所定のフレーム数ごとに、そのセンサ画像151と対応する表示情報がファイルとして記憶される。そして、処理は、図20のステップS5に戻り、ステップS6に進む。
以上のように、センサ画像151と対応する表示情報が、センサ画像151のフレーム数ごとに1つのファイルとして記憶されるので、再生モジュール231は、再生対象となるセンサ画像151を素早く検索することができる。
図22を参照して、図20のステップS8の動体情報登録処理を説明する。
ステップS41において、センサ画像取得モジュール221は、図20のステップS4で取得した発生日時の管理時間帯に対応するファイルが動体情報DB227にないかどうか、即ち後述するステップS42で発生日時の管理時間帯に対応するファイルが作成されていないかどうかを判定し、発生日時の管理時間帯に対応するファイルがあると判定された場合、ステップS42に進む。
ステップS42において、センサ画像取得モジュール221は、発生日時の管理時間帯に対応するファイルを作成する。例えば、発生日時が2004年1月10日10時である場合、2004年1月10日の10時から11時の管理時間帯に対応するファイルを動体情報DB227に作成する。
一方、ステップS41において、発生日時の管理時間帯に対応するファイルが動体情報DB227にあると判定された場合、ステップS42をスキップしてステップS43に進む。
ステップS43において、センサ画像取得モジュール221は、動体情報DB227の発生日時の管理時間帯に対応するファイルに動体情報を登録して、図20のステップS8に戻り、ステップS9に進む。
次に、図23を参照して、動体検知モジュール222による動体検知処理を説明する。この動体検知処理は、図20のステップS3でセンサ画像取得モジュール221からセンサ画像151が供給されたとき、開始される。
ステップS61において、動体検知モジュール222は、センサ画像取得モジュール221からのセンサ画像151から、新しい動体の発生を検知したかどうかを判定する。具体的には、動体検知モジュール222は、いまセンサ画像取得モジュール221から供給されたセンサ画像151と、その直前に取得されたセンサ画像151との輝度レベルの差分値を求める。そして、動体検知モジュール222は、その輝度レベルの差分値が、予め製造元により製造時に設定された閾値を越えている場合、その輝度レベルに対応するセンサ画像151を構成する画素の集まりを動体として検知する。また、動体検知モジュール222は、例えば、その輝度レベルの差分値と動体として検知された画素の集まりなどに基づいて、いま検知した動体がいままでに検知されていなかった新しい動体であるかどうかを判定する。
ステップS61において、新しい動体の発生を検知した場合、動体検知モジュール222は、その新しい動体に動体IDを付与し、ステップS62に進み、ステップS61で動体として検知した画素の集まりから、動体枠172を決定し、その動体枠172の頂点A乃至Dの座標を、発生位置として認識する。また、動体検知モジュール222は、計時モジュール224から供給される日時情報に基づいて、ステップS61で動体を検知したときの日時を発生日時として認識する。
さらに、動体検知モジュール222は、新しい動体の発生を検知したセンサ画像151のフレームの、先頭のフレームからの位置を、その動体に対応するセンサ画像151を再生するときの再生開始位置として認識する。動体検知モジュール222は、発生を検知した新しい動体の動体ID、発生日時、発生位置、および再生開始位置をセンサ画像取得モジュール221に供給する。センサ画像取得モジュール221は、その動体ID、発生日時、発生位置、および再生開始位置を、図20のステップS4において取得する。
ステップS62の処理後は、ステップS63に進み、動体検知モジュール222は、検知した動体の付与される動体ID、発生日時、および発生位置からなる追跡対象情報を、追跡対象情報管理DB225に記憶させる。即ち、動体検知モジュール222は、追跡対象情報管理DB225を更新する。
ここで、動体検知モジュール222は、検知した動体のズーム撮影に対する優先順位を決定し、優先順位の高い順に、先頭から追跡対象情報を追跡対象情報管理DB225に記憶させる。
動体検知モジュール222が優先順位を決定する方法としては、以下の6つの方法がある。
第1の方法は、新しく発生が検知された動体の優先順位が、既に検知されている動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、新しく発生が検知された動体のズーム画像152が優先的に取得されるので、例えば侵入者のズーム画像152が取得され易くなり、侵入者を容易に発見することができる。
第2の方法は、高い位置にある動体の優先順位が、低い位置にある動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、高い位置にある動体のズーム画像152が優先的に取得されるので、一般的に、高い位置にある人間の顔のズーム撮影が取得され易くなり、侵入者を容易に特定することができる。
第3の方法は、低い位置にある動体の優先順位が、高い位置にある動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、低い位置にある動体のズーム画像152が優先的に取得されるので、屋外のビルの上などの高い位置にセンサカメラ121が設置されている場合に、空や、ビルなどの高い場所よりも比較的近くにある人間や車両などのズーム画像152が取得され易くなる。
第4の方法は、サイズの大きい動体の優先順位が、サイズの小さい動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、サイズの大きい動体のズーム画像152が優先的に取得されるので、遠方にある動体よりも、近傍にある動体のズーム画像152が取得され易くなる。
第5の方法は、サイズの小さい動体の優先順位が、サイズの大きい動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、サイズの小さい動体のズーム画像152が優先的に取得されるので、近傍にある動体よりも、遠方にある人間や車両などの動体のズーム画像152が取得され易くなる。
第6の方法は、縦長の動体の優先順位が高くなるように優先順位を決定する方法である。この場合、縦長の動体のズーム画像152が優先的に取得されるので、一般的に縦長の動体となる人間の全身のズーム画像152が取得されやすくなる。
以上のような第1乃至第6の優先順位を決定する方法は、例えば、ユーザの入力部206の操作により選択することができる。動体検知モジュール222は、ユーザにより選択された第1乃至第6の方法のいずれかにしたがって、検知した動体のズーム撮影に対する優先順位を決定する。
ステップS63の処理後は、ステップS64に進み、動体検知モジュール222は、センサ画像取得モジュール221からのセンサ画像151上に消滅した動体があるかどうかを判定する。具体的には、動体検知モジュール222は、いまセンサ画像取得モジュール221から供給されたセンサ画像151と、その直前に取得されたセンサ画像151との輝度レベルの差分値に基づいて、ステップS61で検知したが、まだ消滅を検知していない動体のうち、センサ画像151上から消滅した動体があるかどうかを判定する。
ステップS64において、センサ画像取得モジュール221は、消滅した動体がないと判定さした場合、ステップS61に戻り、上述した処理を繰り返す。
また、ステップS64において、消滅した動体があると判定された場合、ステップS65に進み、動体検知モジュール222は、計時モジュール224からの日時情報に基づいて、その日時情報が表す日時を消滅日時として認識し、その消滅日時と消滅した動体の動体IDとをセンサ画像取得モジュール221に供給して、ステップS61に戻る。
図24を参照して、追跡対象画像取得モジュール223によるズーム画像取得処理を説明する。このズーム画像取得処理は、例えば、図23のステップS63で追跡対象情報管理DB225が更新されたときに開始される。
ステップS81において、追跡対象画像取得モジュール223は、追跡対象情報管理DB225から、ステップS63で記憶された追跡対象情報のうち、優先順位の最も高い動体の追跡対象情報、即ち先頭の追跡対象情報を取得する。なお、追跡対象情報管理DB225は、追跡対象画像取得モジュール223により追跡対象情報が取得されると更新され、その追跡対象情報が追跡対象情報管理DB225から削除される。即ち、追跡対象情報管理DBの先頭の追跡対象情報が、常に優先順位が最も高くなる。
ステップS81の処理後は、ステップS82に進み、追跡対象画像取得モジュール223は、追跡対象情報の動体の発生位置に基づいて、動体の発生位置を含む領域がズームカメラ122により撮影されるように、撮影画角の位置と大きさを決定する。追跡対象画像取得モジュール223は、撮影画角の位置の変化量(動体の移動速度)と大きさから撮影倍率を決定する。
ステップS82の処理後は、ステップS83に進み、追跡対象画像取得モジュール223は、撮影画角の位置の変化量と撮影画角の位置からパンチルト値を決定し、ステップS84に進む。
ステップS84において、追跡対象画像取得モジュール223は、ステップS83で決定されたパンチルト値に基づいて、ズームカメラ122にパンチルト(の移動)の実行を要求する。ズームカメラ122のカメラ部122Bは、その要求に応じて、パンチルト部122Aを制御し、パンとチルトに自分自身を移動させる。
ステップS84の処理後は、ステップS85に進み、追跡対象画像取得モジュール223は、ステップS82で決定された撮影倍率に基づくズーム撮影を、ズームカメラ122に要求する。ズームカメラ122は、その要求に応じてズーム撮影を行い、その結果得られるズーム画像151を、追跡対象画像取得モジュール223に供給する。
ステップS85の処理後は、ステップS86に進み、追跡対象画像取得モジュール223は、ズームカメラ122から供給されるズーム画像151を取得し、ステップS87に進む。
ステップS87において、追跡対象画像取得モジュール223は、ステップS87で取得したズーム画像151を、ステップS81で取得した追跡対象情報の動体IDと対応付けて、所定のファイルとして表示情報DB226に登録する。
ステップS87の処理後は、ステップS88に進み、追跡対象画像取得モジュール223は、ステップS81で取得した追跡対象情報の動体IDと、ズーム画像151を所定のタイミングでキャプチャしたズーム静止画像272Cとからなる動体ログ情報を、動体ログ情報DB228に登録する図25の動体ログ情報登録処理を行い、ステップS81に戻る。
図25を参照して、図24のステップS88の動体ログ情報登録処理について説明する。
ステップS101において、追跡対象画像取得モジュール223は、計時モジュール224から現在の日時を表す日時情報を取得し、ステップS102に進む。
ステップS102において、追跡対象画像取得モジュール223は、ステップS101で取得した日時情報に基づいて、動体ログ情報DB228に、現在の日時を含む管理時間帯に対応する、後述するステップS103で作成されたファイルが記憶されていないかどうかを判定する。
ステップS103において、動体ログ情報DB228に、現在の日時を含む管理時間帯に対応するファイルが記憶されていないと判定された場合、ステップS103に進み、追跡対象画像取得モジュール223は、現在の日時を含む管理時間帯に対応するファイルを作成し、動体ログ情報DB228に記憶させ、ステップS104に進む。
一方、ステップS102において、動体ログ情報DB228に、現在の日時を含む管理時間帯に対応するファイルが記憶されていると判定された場合、処理はステップS103をスキップして、ステップS104に進む。
ステップS104において、追跡対象画像取得モジュール223は、動体ログ情報DB228に、図24のステップS81で取得した追跡対象情報の動体IDと、ステップS86で取得したズーム画像152を所定のタイミングでキャプチャしたズーム静止画像272Cとからなる動体ログ情報を登録する。このように、ズーム静止画像272Cが、動体情報とは別に登録されるので、動体情報DB227に記憶されているデータの容量が少なくて済み、所定の動体情報を動体情報DB227から素早く検索することができる。
ステップS104の処理後は、ステップS105に進み、追跡対象画像取得モジュール223は、録画実績情報DB229の、ステップS101で取得した日時情報が表す日時を含む管理時間帯に対応する録画実績情報のズームフラグが、ズーム画像152の記録の無を表す0であるかどうかを判定する。
ステップS105において、録画実績情報のズームフラグが0であると判定された場合、ステップS106に進み、追跡対象画像取得モジュール223は、ズームフラグを、ズーム画像152の記録の有を表す1に変更し、図24のステップS88に戻る。
一方、ステップS105において、録画実績情報のズームフラグが「0」ではない、即ちズームフラグが「1」であると判定された場合、処理は終了する。
次に、図26を参照して、図8の動体ログモジュール230による図15や図16の画面270の表示処理を説明する。この表示処理は、例えば、ユーザが入力部206を操作して図14のプレイバックボタン252Aまたは図17のライブボタン301Aを選択し、その操作に応じて入力部206から動体ログの表示の指令が供給されたとき、開始される。
ステップS121において、動体ログモジュール230は、図15の録画実績表示部271を表示する後述する図28の録画実績情報画面表示処理を行い、ステップS122に進む。
ステップS122において、動体ログモジュール230は、図15の動体ログ表示部272動体数グラフ273を表示する後述する図29の動体数グラフ表示処理を行い、ステップS123に進む。
ステップS123において、動体ログモジュール230は、動体情報DB227から、ターゲット時間帯に対応するファイルを読み出し、そのファイルに登録されている動体情報に対応する動体の数に基づいて、タブ272Aが表すページの数を求める。具体的には、動体ログモジュール230は、動体情報DB227から読み出したファイルに登録されている動体情報に対応する動体の数から、動体ログ表示部272に1度に表示可能なサムネイル表示部272Bの数Kmax(例えば、図15の例の場合、Kmax=7×5=35)、即ち動体ログ表示部272の1ページに表示可能なサムネイル表示部272Bの数Kmaxを除算した値を、ページ数として求める。なお、除算した値の小数点以下は繰り上げされる。
ステップS124において、動体ログモジュール230は、表示する動体ログ表示部272のページ番号である表示ページ番号Nを1に設定する。即ち、画面270には、動体ログ表示部272の1ページ目が表示される。ステップS124の処理後は、ステップS125に進み、動体ログモジュール230は、表示カウント値Kを0に設定し、ステップS126に進む。
ステップS126において、動体ログモジュール230は、画面270の動体ログ表示部272を表示させる後述する図30の動体ログ表示部表示処理を行い、ステップS127に進む。
ステップS127において、動体ログモジュール230は、ユーザにより動体ログ表示部272が指示されたかどうか、即ちユーザの操作に応じて、入力部206から動体ログ表示部272の指示を表す指示情報が供給されたかどうかを判定する。ユーザは、動体ログ表示部272を見ながら、所望の動体のズーム静止画像272Cが表示されているサムネイル表示部272Bを指示することにより、その動体を含むセンサ画像151とズーム画像152の再生を指令する。
ステップS127において、ユーザにより動体ログ表示部272が指示されたと判定された場合、ステップS128に進み、動体ログモジュール230は、ユーザにより指示された位置の動体ログ表示部272上の座標を認識する。
ステップS129において、動体ログモジュール230は、ステップS128で認識したユーザにより指示された位置の座標に基づいて、ユーザにより指示された位置がサムネイル表示部272B内であるか、即ちユーザがサムネイル表示部272Bのいずれか1つを指示したかどうかを判定する。
ステップS129において、ユーザにより指示された位置がサムネイル表示部272B内ではないと判定された場合、処理はステップS127に戻る。
一方、ステップS129において、ユーザにより指示された位置がサムネイル表示部272B内であると判定された場合、ステップS130に進み、動体ログモジュール230は、そのサムネイル表示部272Bに表示されているズーム静止画像272Cの発生日時を再生モジュール231に出力し、処理を終了する。具体的には、図15の画面270において、ユーザが入力部206を操作して、サムネイル表示部272B内の位置を指示した場合、動体ログモジュール230は、サムネイル表示部272B内に表示されているズーム静止画像272Cに対応する動体IDを、動体ログ情報DB228から読み出す。そして、動体ログモジュール230は、その動体IDに対応する動体情報の発生日時を読み出し、再生モジュール231に出力して、処理を終了する。
また、ステップS127において、ユーザにより動体ログ表示部272が指示されていないと判定された場合、ステップS131に進み、動体ログモジュール230は、ユーザによりタブ272Aが選択されたかどうかを判定する。具体的には、ユーザは、画面270に表示される動体ログ表示部272のページを変更する場合、入力部206を操作し、所望のページ番号Ncを表すタブ272Aを選択する。入力部206は、その操作に応じて、表示ページ番号Nのページ番号Ncへの変更の指令を、動体ログ表示部272に供給する。動体ログ表示部272は、入力部206から表示ページ番号Nのページ番号Ncへの変更の指令が供給されたかどうかを判定する。
ステップS131において、ユーザによりタブ272Aが選択された、即ち入力部206から表示ページ番号Nのページ番号Ncへの変更の指令が供給された場合、ステップS132に進み、表示ページ番号Nを、ユーザの所望のページ番号Ncにする。
ステップS132の処理後は、ステップS133に進み、動体ログモジュール230は、表示カウント値Kを0に設定し、ステップS126に戻り、動体ログ表示部272の表示が更新される。
一方、ステップS131において、ユーザによりタブ272Aが選択されていない、即ち入力部206から表示ページ番号Nのページ番号Ncへの変更の指令が供給されていない場合、ステップS134に進み、動体ログモジュール230は、ターゲット時間帯が変更されたかどうかを判定する。
具体的には、ユーザは、ターゲット時間帯を変更する場合、入力部206(例えば、キーボードの上下矢印キー)を操作し、録画実績表示部271内の所望のターゲット時間帯に対応する位置を指示したり、ターゲット時間帯選択部274を操作して所望のターゲット時間帯を選択する。このとき、入力部206は、ユーザからの操作に応じて、ターゲット時間帯の変更の指令を動体ログモジュール230に供給する。動体ログモジュール230は、入力部206からターゲット時間帯の変更の指令が供給されたかどうかを判定する。
ステップS134において、ターゲット時間帯が変更された、即ち入力部206からターゲット時間帯の変更の指令が供給された場合、動体ログモジュール230は、録画実績表示部271のターゲット時間帯を表す日付表示部271Aの日付と時間表示部271Cの時間における位置の色を、所定の色(例えば、黄色)に変更し、ステップS126に戻り、動体ログ表示部272の表示が更新される。
また、ステップS134において、ターゲット時間帯が変更されていない、即ち入力部206からターゲット時間帯の変更の指令が供給されていない場合、ステップS135に進み、動体ログモジュール230は、ターゲット週間が変更されたかどうかを判定する。
具体的には、ユーザは、ターゲット週間を変更する場合、入力部206を操作し、図15の録画実績表示部271のターゲット週間選択部271Bを操作して所望のターゲット週間を選択する。このとき、入力部206は、ユーザからの操作に応じて、ターゲット週間の変更の指令を動体ログモジュール230に供給する。動体ログモジュール230は、入力部206からターゲット週間の変更の指令が供給されたかどうかを判定する。なお、日付表示部271Aに表示されている日付が現在の週の日付である場合、ユーザがターゲット週間選択部271Bを操作して、次の週をターゲット週間として選択するとき、その操作は無効となる。
ステップS135において、ターゲット週間が変更された、即ち入力部206からターゲット週間の変更の指令が供給された場合、動体ログモジュール230は、ステップS121に戻り、上述した処理を繰り返す。
一方、ステップS135において、ターゲット週間が変更されていない、即ち入力部206からターゲット週間の変更の指令が供給されていない場合、図27のステップS136に進み、OKボタン276が操作されたかどうかを判定する。
具体的には、ユーザは、再生対象とするセンサ画像151とズーム画像152に対応する動体の発生日時を決定している場合、入力部206を操作し、再生時刻選択部275を操作して、その発生日時(の時刻)を選択する。その後、ユーザは、入力部206を操作して、OKボタン276を操作する。このとき、入力部206は、ユーザからの操作に応じて、OKボタン276の操作を表す情報を動体ログモジュール230に供給し、動体ログモジュール230は、入力部206からOKボタン276の操作を表す情報が供給されたかどうかを判定する。
ステップS136において、OKボタン276が操作されていない、即ち入力部206からOKボタン276の操作を表す情報が供給されていない場合、ステップS127に戻り、動体ログモジュール230は、上述した処理を繰り返す。
また、ステップS136において、OKボタン276が操作された、即ち入力部206からOKボタン276の操作を表す情報が供給された場合、ステップS137に進み、動体ログモジュール230は、動体情報DB227から、発生日時として、ユーザにより選択された発生日時の時刻(図15の例では、17時30分)と、録画実績表示部271の領域271Eに対応する日付(図5の例では、2005年1月13日)とを含む動体情報を読み出し、再生モジュール231に出力する。
ステップS137の処理後は、ステップS138に進み、動体ログモジュール230は、ユーザによりクローズボタン277が操作されたかどうか、即ちユーザの操作に応じて、入力部205からクローズボタン277の操作を表す情報が供給されたかどうかを判定する。
ステップS138において、ユーザによりクローズボタン277が操作されていない場合、ステップS127に戻り、上述した処理を繰り返す。一方、ステップS138において、クローズボタン277が操作された場合、動体ログモジュール230は、画面270の表示を停止し、処理を終了する。
次に、図28を参照して、図26のステップS121の録画実績情報画面表示処理を説明する。
ステップS151において、動体ログモジュール230は、ターゲット週間を、図26のステップS135で変更されたターゲット週間に設定する。なお、最初のステップS151では、動体ログモジュール230は、例えば、計時モジュール224から供給される日時情報に基づいて、ユーザにより図14のプレイバックボタン252Aまたは図17のライブボタン301Aが操作されたときの日時を認識し、その日時を含む所定の時間をターゲット時間帯に設定する。また、動体ログモジュール230は、その日付を含む1週間を、ターゲット週間に設定する。
なお、ユーザによりライブボタン301Aが操作されたときは、動体ログモジュール230が、その時点でセンサ画像表示部251とズーム画像表示部253(図17)に表示しているセンサ画像151とズーム画像152に対応する動体の発生日時を含む所定の時間をターゲット時間帯に設定し、その発生日を含む1週間を、ターゲット週間に設定するようにしてもよい。
ステップS151の処理後は、ステップS152に進み、動体ログモジュール230は、ステップS151で設定したターゲット週間を日付表示部271Aに表示させ、ステップS153に進む。ステップS153において、動体ログモジュール230は、録画実績情報DB229から、ターゲット週間の録画実績情報を取得し、ステップS154に進む。
ステップS154において、動体ログモジュール230は、ステップS153で取得した録画実績情報に基づいて、センサ画像151とズーム画像152の記録(録画)の有無を表す録画実績を、録画実績表示部271に表示させる。具体的には、動体ログモジュール230は、録画実績情報のセンサフラグとズームフラグに基づいて、録画実績情報に対応する日時を表す日付表示部271Aの日付と時間表示部271Cの時間における位置に、「センサ画像151とズーム画像152のいずれの記録も無し」を透明で、「センサ画像151のみ有り」を水色で、「センサ画像151とズーム画像152の両方有り」を青色で表す。
ステップS154の処理後は、ステップS155に進み、動体ログモジュール230は、ターゲット時間帯を、ターゲット時間帯選択部274に表示させるとともに、録画実績表示部271のターゲット時間帯を表す日付表示部271Aの日付と時間表示部271Cの時間における位置の色を、所定の色(例えば、黄色)に変更する。
ステップS155の処理後は、ステップS156に進み、動体ログモジュール230は、再生時刻選択部275を表示させる。例えば、再生時刻選択部275には、ターゲット時間帯の最初の時刻が表示される。
ステップS156の処理後は、ステップS157に進み、動体ログモジュール230は、OKボタン276とクローズボタン277を表示させ、図26のステップS121に戻り、ステップS122に進む。
次に、図29を参照して、図26のステップS122の動体数グラフ表示処理を説明する。
ステップS171において、動体ログモジュール230は、動体情報DB227から、ターゲット時間帯を含む管理時間帯の動体情報を取得し、ステップS172に進む。
ステップS172において、動体ログモジュール230は、ステップS171で取得した動体情報に基づいて、1分当たりに発生した最大の動体の数を求める。例えば、図10の動体情報が取得される場合、10時と10時5分に1つずつ動体が発生しているので、1分当たりに発生した最大の動体の数は1である。
ステップS172の処理後は、ステップS173に進み、動体ログモジュール230は、1分ごとに発生した動体の数と、ステップS172で求めた最大の動体の数との比を、1分ごとに求め、ステップS174に進む。
ステップS174において、動体ログモジュール230は、管理時間帯、ステップS172で求めた最大の動体の数、およびステップS173で求めた比に基づいて、動体数グラフ表示部273に、横軸が管理時間帯を、縦軸が動体の数を表す動体数グラフを表示させる。例えば、ステップS172で求めた最大の動体の数が26である場合、動体ログモジュール230は、図15に示したように動体数グラフの縦軸の最大値を26に設定し、管理時間帯の1分ごとに、ステップS173で求めた比に対応する高さの棒を、動体数グラフとして表示させる。なお、サムネイル表示部272Bに表示されているすべての発生時刻に対応する棒を、他の棒と異なる色で表示させるようにしてもよい。これにより、ユーザは、サムネイル表示部272Bに表示されているズーム静止画像272Cが、動体数グラフのどこに位置しているかを容易に認識することができる。ステップS174の処理後は、図26のステップS122に戻り、処理はステップS123に進む。
次に、図30を参照して、図26のステップS126の動体ログ表示部表示処理を説明する。
ステップS191において、動体ログモジュール230は、動体情報DB227から、ターゲット時間帯の動体情報を取得し、その動体情報に先頭からM(=Kmax×(N−1)+K+1)番目の動体情報があるかどうかを判定する。
ステップS191において、先頭からM番目の動体情報があると判定された場合、ステップS192に進み、動体ログモジュール230は、その動体情報に含まれる動体IDに対応する動体ログ情報を、動体ログ情報DB228から読み出し、その動体ログ情報のズーム静止画像272Cを、サムネイル表示部272Bの表示対象として選択する。
ステップS192の処理後は、ステップS193に進み、動体ログモジュール230は、表示カウント値Kに基づいて、ステップS192で選択した表示対象を表示するサムネイル表示部272Bを決定する。例えば、サムネイル表示部272Bには、そこに表示するズーム静止画像272Cに対応する表示カウント値Kが、ユーザにより予め設定されている。例えば、ユーザは動体ログ表示部272の左上のサムネイル表示部272Bから順に、右下方向にいくほど、表示カウント値Kが大になるように設定する。この場合、図15に示したように、動体ログ表示部272の横方向にサムネイル表示部272Bが7個並べられる場合、表示カウント値Kが2に設定されているとき、一番上の左から2番目のサムネイル表示部272Bが、表示対象を表示するサムネイル表示部272Bに決定される。
ステップS193の処理後は、ステップS194に進み、動体ログモジュール230は、ステップS193で決定したサムネイル表示部272Bに、表示対象のズーム静止画像272Cを表示させる。なお、動体ログ情報DB228に、対応する動体ログ情報がない場合、ステップS193で決定したサムネイル表示部272Bには、何も表示されない。
ステップS194の処理後は、ステップS195に進み、動体ログモジュール230は、ステップS191で取得した動体情報のうちの、先頭からM番目の動体情報のカメラIDに基づいて、発生日時の表示色を決定する。例えば、動体ログモジュール230は、カメラIDごとに、異なる表示色を決定する。
ステップS195の処理後は、ステップS196に進み、動体ログモジュール230は、ステップS191で取得した動体情報のうちの、先頭からM番目の動体情報の発生日時の時刻を、発生日時として、サムネイル表示部272Bに、ステップS195で決定した表示色で表示させる。
ステップS196の処理後は、ステップS197に進み、動体ログモジュール230は、表示カウント値Kが、動体ログ表示部272に1度に表示可能なサムネイル表示部272Bの数Kmaxより小であるかどうかを判定し、小であると判定した場合、ステップS198に進む。
ステップS198において、動体ログモジュール230は、表示カウント値Kを1だけインクリメントして、ステップS191に戻り、上述した処理を繰り返す。
ステップS191で先頭からM番目の動体情報がないと判定された場合、またはステップS197で表示カウント値Kが、動体ログ表示部272に1度に表示可能なサムネイル表示部272Bの数Kmaxより小ではないと判定された場合、図26のステップS126に戻り、処理はステップS127に進む。
次に、図31を参照して、図8の再生モジュール231によるセンサ画像151とズーム画像152の再生処理について説明する。この再生処理は、例えば、図26のステップS130または図27のS137で動体ログモジュール230から、再生対象とするセンサ画像151とズーム画像152に対応する動体の発生日時が供給されたとき、開始される。なお、このとき、再生モジュール231は、図17の画面300を出力部207に表示させる。
ステップS211において、再生モジュール231は、動体ログDB227から、動体ログモジュール230から供給される発生日時を含む管理時間帯に対応するファイルを読み出し、そのファイルに登録されている、その発生日時を含む動体情報から再生開始位置と動体IDを取得する。
ステップS211の処理後は、ステップS212に進み、再生モジュール231は、ステップS211で取得した再生開始位置と動体IDに基づいて、表示情報DB226から、その再生開始位置以降のセンサ画像151と、その動体IDに対応付けられているズーム画像152とを順次再生し、それぞれセンサ画像表示部251(図17)とズーム画像表示部253に表示させ、処理を終了する。
次に、図32を参照して、クライアント132によるセンサ画像151とズーム画像152の編集処理を説明する。この編集処理は、例えば、ユーザが入力部206を操作し、図18の日付表示部271Aを選択したとき、開始される。
ステップS231において、動体ログモジュール230は、ユーザの操作に応じて入力部206から供給される日付表示部271Aの選択を表す情報に応じて、ユーザが選択した日付表示部271Aの日付を取得し、ステップS232に進む。
ステップS232において、動体ログモジュール230は、計時モジュール224からの日時情報に基づいて、ステップS231で取得した日付が、現在の日付以前であるかどうかを判定し、現在の日付以前ではないと判定した場合、ステップS233に進む。
ステップS233において、動体ログモジュール230は、削除またはエキスポートすることができない旨を表すエラーメッセージを表示させ、処理を終了する。
一方、ステップS234において、動体ログモジュール230は、ステップS231で取得した日付のセンサ画像151またはズーム画像152があるかどうかを判定する。具体的には、動体ログモジュール230は、録画実績情報DB229から、ステップS231で取得した日付の管理時間帯に対応するすべての録画実績情報を読み出し、その録画実績情報の少なくとも1つのセンサフラグまたはズームフラグが「1」であるかどうかを判定する。
ステップS234において、センサ画像151またはズーム画像152がないと判定された場合、ステップS233に進み、上述した処理を行う。
また、ステップS234において、センサ画像151またはズーム画像152があると判定された場合、ステップS235に進み、図18の削除またはエキスポートを選択する選択ボックス321を表示させ、ステップS236に進む。
ステップS236において、動体ログモジュール230は、センサ画像151またはズーム画像152を削除するかどうか、即ちユーザが入力部206を操作することにより選択ボックス321の削除を選択したかどうかを判定する。
ステップS236において、センサ画像151またはズーム画像152を削除しない、即ちユーザが入力部206を操作することにより選択ボックス321のエキスポートを選択した場合、ステップS237に進み、動体ログモジュール230は、エキスポート先のフォルダを選択するためのフォルダ選択画面を表示させる。ユーザは、入力部206を操作して、フォルダ選択画面から所望のフォルダを、エキスポート先として選択する。
ステップS237の処理後は、ステップS238に進み、動体ログモジュール230は、ユーザにより選択されたフォルダにセンサ画像151またはズーム画像152をエキスポートすることができるかどうかを判定し、エキスポートすることができないと判定した場合、ステップS239に進む。
ステップS239において、動体ログモジュール230は、エキスポートすることができない旨を表すエラーメッセージを表示させ、ステップS237に戻る。
一方、ステップS238において、ユーザにより選択されたフォルダにセンサ画像151またはズーム画像152をエキスポートすることができると判定された場合、ステップS240に進み、動体ログモジュール230は、エキスポートするかどうかを確認するための確認画面340(図19)を表示させ、ステップS241に進む。
ステップS241において、動体ログモジュール230は、ユーザによりOKボタン341が操作されたかどうかを判定し、OKボタン341が操作されたと判定した場合、ステップS242に進み、ステップS231で取得した日付と、ステップS237で選択されたエキスポート先とを再生モジュール231に供給する。再生モジュール231は、動体ログモジュール230からの日付に基づいて、その日付の管理時間帯に対応するファイルを、動体情報DB227から読み出し、そのファイルに登録されている再生開始位置と動体IDを認識する。再生モジュール231は、その再生開始位置と動体IDに基づいて、その再生開始位置に対応するセンサ画像151と、その動体IDに対応するズーム画像152とを、表示情報DB226から再生し、エキスポート先にエキスポートして、処理を終了する。
また、ステップS241において、OKボタン341が操作されていない、即ちキャンセルボタン342が操作されたと判定された場合、ステップS242をスキップして、処理は終了する。
ステップS236において、センサ画像151またはズーム画像152を削除する、即ちユーザが入力部206を操作することにより選択ボックス321の削除を選択した場合、ステップS244に進み、動体ログモジュール230は、ステップS241と同様に、削除するかどうかを確認するための確認画面340(図19)を表示させ、ステップS244に進む。
ステップS244において、動体ログモジュール230は、ステップS241と同様に、ユーザによりOKボタン341が操作されたかどうかを判定し、OKボタン341が操作されたと判定した場合、ステップS245に進み、ステップS231で取得した日付を再生モジュール231に供給する。再生モジュール231は、動体ログモジュール230からの日付に基づいて、その日付の管理時間帯に対応するファイルを、動体情報DB227から読み出し、そのファイルに登録されている再生開始位置と動体IDを認識する。再生モジュール231は、その再生開始位置と動体IDに基づいて、その再生開始位置に対応するセンサ画像151と、その動体IDに対応するズーム画像152とを、表示情報DB226から削除し、処理を終了する。
また、ステップS244において、OKボタン341が操作されていない、即ちキャンセルボタン342が操作されたと判定された場合、ステップS245をスキップして、処理は終了する。
なお、本実施の形態では、編集処理として、削除またはエキスポートをするようにしたが、これに限定されず、例えばセンサ画像151またはズーム画像152の圧縮をするようにしてもよい。また、ユーザにより選択された日付ごとに編集処理を行うこととしたが、ユーザに時間も選択させ、日時ごとに編集処理を行うようにしてもよい。
なお、上述した説明では、監視システム10は、センサ画像151とズーム画像152を記録するものとしたが、センサ画像151を記録せず、ズーム画像152のみを記録するようにしてもよい。また、ユーザが、入力部206を操作し、センサ画像151とズーム画像152を記録する全記録モードと、ズーム画像152のみを記録するズーム画像のみ記録モードのいずれかを選択するようにしてもよい。
この場合のセンサ画像取得モジュール221によるセンサ画像取得処理を、図33を参照して説明する。
ステップS251乃至S254の処理は、図20のステップS1乃至S4の処理と同様であるので、説明は省略する。
ステップS254の処理後は、ステップS255に進み、センサ画像取得モジュール221は、記録モードがズーム画像のみ記録モードであるかどうかを判定する。具体的には、入力部206は、ユーザからの操作に応じて、全記録モードまたはズーム画像のみ記録モードの選択を表す情報をセンサ画像取得モジュール221に供給する。センサ画像取得モジュール221は、その情報に応じて、記録モードを全記録モードまたはズーム画像のみ記録モードに設定する。ステップS255において、センサ画像取得モジュール221は、いま設定されている記録モードがズーム画像のみ記録モードであるかどうかを判定する。
ステップS255において、センサ画像取得モジュール221が、記録モードがズーム画像のみ記録モードではない、即ち記録モードが全記録モードであると判定した場合、ステップS256に進む。
一方、ステップS255において、センサ画像取得モジュール221が、記録モードがズーム画像のみ記録モードであると判定した場合、ステップS256をスキップして、ステップS257に進む。即ち、センサ画像取得モジュール221は、表示情報DB226にセンサ画像151を記録せず、録画実績情報DB229の録画実績情報のセンサフラグは、センサ画像151の記録の無を表す0のままである
ステップ256乃至S260の処理は、図20のステップS5乃至S9の処理と同様であるので、説明は省略する。
次に、図34を参照して、記録モードがズーム画像のみ記録モードである場合に、表示情報DB226に記憶されるデータの記憶容量を説明する。
図34に示すように、表示情報DB226には、動体の発生が検知された場合にのみズームカメラ122で取得されるズーム画像152のみが記録される。従って、図13に示したセンサ画像151とズーム画像152の両方が記録される場合に比べて、表示情報DB226に記録されるデータの容量をさらに削減することができる。
なお、センサ画像151とズーム画像152に対応する動体のズーム撮影に対する優先順位に基づいて、優先順位が、例えば予めユーザにより設定された閾値以上である動体のセンサ画像151とズーム画像152のみが記録されるようにしてもよい。また、優先順位に基づいて、優先順位が閾値以上である動体のズーム画像152のみが記録されるようにしてもよい。
また、上述した動体検知モジュール222で検知される動体のサイズは、ユーザが入力部206を操作することにより設定するようにしてもよい。
この場合、ユーザは、入力部206を操作することにより、図35に示すように、動体のサイズを設定するための画面401を出力部207に表示させる。
図35に示すように、テキストボックス411Aまたはスライダ412Aは、センサカメラ121で検知する動体の最小の水平方向(X方向)のサイズ(ピクセル)を設定するときに操作される。ユーザは、テキストボックス411Aを操作して数値を入力したり、スライダ412Aを操作して図中左右方向に移動させ、動体の最小の水平方向のサイズを設定する。
テキストボックス411Bまたはスライダ412Bは、センサカメラ121で検知する動体の最小の垂直方向(Y方向)のサイズ(ピクセル)を設定するときに操作される。テキストボックス413Aまたはスライダ414Aは、センサカメラ121で検知する動体の最大の水平方向のサイズを、テキストボックス413Bまたはスライダ414Bは、最大の垂直方向のサイズを設定するときに操作される。
テストボタン415は、設定した動体の最大および最小のサイズを、センサ画像151の被写体のサイズと視覚的に比較するときに操作される。ユーザによりテストボタン415が操作されると、図36に示すような画面421が出力部207に表示される。
図36に示すように、画面421には、例えば、センサ画像151を表示するセンサ画像表示部430、いま設定されている検知対象の動体の最大サイズを表示する最大サイズ部431、検知対象の動体の最小サイズを表示する最小サイズ部432が表示される。
ユーザは、例えば、センサ画像表示部430に表示されるセンサ画像151の人物433と、最大サイズ部431および最小サイズ部432とを視覚的に比較することにより、ユーザは、自分自身が設定した動体の最大および最小サイズが妥当な値であるかどうかを容易に確認することができる。
図37は、図6の監視システム101の他の一実施の形態の構成例を示している。なお、図6と同一のものには、同一の符号を付してある。これは、後述する図38においても同様である。
図37の監視システム101では、図6のセンサカメラ121の代わりに、360度全方位撮影がリアルタイムに可能な固定カメラ451を設けている。
図38は、監視システム101のさらに他の一実施の形態の構成例を示している。
図38の監視システム101では、ネットワーク131に、さらに固定カメラ471が接続されている。この場合、クライアント132の動体検知モジュール222は、固定カメラ471による撮影の結果得られた動画像である固定画像における動体も検知し、動体ログモジュール230は、画面270のサムネイル表示部272B(図15)に動体に対応する固定画像を所定のタイミングでキャプチャした静止画像を表示させる。このとき、サムネイル表示部272に表示される発生日時の表示色(例えば、緑色または黄色)を、センサカメラ121により取得されたセンサ画像151に対応する発生日時の表示色(例えば、白色)とは異なるようにしてもよい。ユーザが、サムネイル表示部272Bに表示された静止画像を指定する場合、その静止画像に対応する固定画像が再生され、出力部207に表示される。
以上のように、図38の監視システム101では、センサ画像151だけでなく、固定画像における動体も検知するので、監視する領域を増やすことができる。例えば、駐車場の料金所や入出口(ゲート)などの動体が多く発生する固定の領域を監視するために固定カメラ471を設置し、駐車場内の広範囲を監視するためにカメラユニット111を設置することにより、駐車場全体を確実に監視することが可能となる。
なお、図8のクライアント132の各ブロックは、クライアント132ではなく、センサカメラ121またはズームカメラ122に設けられるようにしてもよい。
また、監視システム101の用途は、領域21の監視に限定されない。
さらに、センサカメラ121とズームカメラ122は、パンチルトカメラに限定されない。また、本実施の形態では、監視システム101は、センサカメラ121とズームカメラ122の2つのカメラを設けるようにしたが、カメラの数はこれに限定されず、例えば、1つのカメラでセンサ画像151とズーム画像152を取得するようにしてもよい。
さらに、本実施の形態では、サムネイル表示部272に表示される発生日時の表示色は、センサカメラ121のカメラIDに基づいて決定されるようにしたが、ズームカメラ122のカメラIDに基づいて決定されるようにしまよい。この場合、動体ログ情報DB228には、動体ログ情報としてズームカメラ122のカメラIDも登録される。
以上のように、監視システム101では、動体IDに対応付けたズーム画像152と動体IDに対応付けた再生開始位置とが、それぞれ動体ログ情報DB228と動体情報DB227に別々に記憶されるので、再生対象とするセンサ画像151に対応するズーム画像152が指定される場合、動体情報DB227に比べてデータ数の少ない動体ログ情報DB228から、そのズーム画像152に対応する動体IDを読み出し(検索し)、その動体IDに対応する再生開始位置を動体情報DB227から読み出して、その再生開始位置に基づいて表示情報DB226に記憶されているセンサ画像151を再生することができる。その結果、ユーザの所望するセンサ画像151を容易に再生することができる。
また、監視システム101では、センサカメラ121による撮影の結果得られる、広範囲な領域21のセンサ画像151に基づいて、その領域21内の動体を検知し、その動体をズームカメラ122により撮影することができる。
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
従来の多地点カメラ監視システムの一例を示す外観図である。 図1の多地点カメラ監視システムの構成の一例を示す図である。 図1の多地点カメラ監視システムの構成の他の一例を示す図である。 図2の記録装置またはPCに記録される画像データを説明する図である。 本発明を適用した監視システムの第一実施の形態の概観構成例を示す図である。 監視システムの構成例を示す図である。 図6のクライアントの構成例を示すブロック図である。 図6のクライアントの機能的構成例を示すブロック図である。 図8の追跡対象情報管理DBに登録されている追跡対象情報の例を示す図である。 図8の動体情報DBに登録される動体情報の例を示す図である。 図8の動体ログ情報DBに登録されている動体ログ情報の例を示す図である。 録画実績情報DBに登録されている録画実績情報の例を示す図である。 表示情報DBに記憶されるセンサ画像とズーム画像の容量を説明する図である。 図7の出力部に表示される画面の例を示す図である。 図7の出力部に表示される画面の例を示す図である。 図7の出力部に表示される画面の例を示す図である。 図7の出力部に表示される画面の例を示す図である。 図7の出力部に表示される画面の例を示す図である。 図7の出力部に表示される画面の例を示す図である。 図8のセンサ画像取得モジュールによるセンサ画像取得処理を説明するフローチャートである。 図20のステップS5の表示情報登録処理を説明するフローチャートである。 図20のステップS8の動体情報登録処理を説明するフローチャートである。 動体検知モジュールによる動体検知処理を説明するフローチャートである。 追跡対象画像取得モジュールによるズーム画像取得処理を説明するフローチャートである。 図24のステップS88の動体ログ情報登録処理について説明するフローチャートである。 図8の動体ログモジュールによる画面の表示処理を説明するフローチャートである。 図8の動体ログモジュールによる画面の表示処理を説明するフローチャートである。 図26のステップS121の録画実績情報画面表示処理を説明するフローチャートである。 図26のステップS122の動体数グラフ表示処理を説明するフローチャートである。 図26のステップS126の動体ログ表示部表示処理を説明するフローチャートである。 図8の再生モジュールによるセンサ画像とズーム画像の再生処理について説明するフローチャートである。 クライアントによるセンサ画像とズーム画像の編集処理を説明するフローチャートである。 センサ画像取得モジュール221によるセンサ画像取得処理を説明するフローチャートである。 表示情報DBに記憶されるデータの記憶容量を説明する図である。 動体のサイズを設定するための画面の例を示す図である。 テストボタンが選択されたときの画面の例を示す図である。 図6の監視システムの他の一実施の形態の構成例を示す図である。 監視システムのさらに他の一実施の形態の構成例を示す図である。
符号の説明
101 監視システム, 121 センサカメラ, 122 ズームカメラ, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 221 センサ画像取得モジュール, 222 動体検知モジュール, 223 追跡対象画像取得モジュール, 226 表示情報DB, 227 動体情報管理DB, 230 動体ログモジュール, 231 再生モジュール

Claims (6)

  1. 所定の領域を撮影する領域撮影手段と、
    前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知手段と、
    前記検知手段により検知された動体を撮影する動体撮影手段と、
    前記領域撮影手段により得られた領域画像を記憶する領域画像記憶手段と、
    前記検知手段による検知結果に基づいて、前記動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて記憶する情報記憶手段と、
    前記動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて記憶する動体画像記憶手段と、
    ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生手段と
    を備えることを特徴とする情報処理システム。
  2. 被写体の撮影を制御する情報処理装置において、
    所定の領域を撮影する領域撮影手段を制御し、前記所定の領域を撮影させる領域撮影制御手段と、
    前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知手段と、
    前記検知手段により検知された動体を撮影する動体撮影手段を制御し、前記動体を撮影させる動体撮影制御手段と、
    前記領域撮影手段により得られた領域画像を記憶する領域画像記憶手段と、
    前記検知手段による検知結果に基づいて、前記動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて記憶する情報記憶手段と、
    前記動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて記憶する動体画像記憶手段と、
    ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生手段と
    を備えることを特徴とする情報処理装置。
  3. 前記動体画像を、所定の画像を表示させる表示手段に表示させる表示制御手段と、
    前記ユーザによる前記表示手段に表示された動体画像の指定受け付ける受け付け手段と
    をさらに備え、
    前記再生手段は、前記受け付け手段により前記動体画像指定が受け付けられた場合、その動体画像に対応する再生情報に基づいて前記領域画像を再生する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 画像を記憶する領域画像記憶手段および動体画像記憶手段、並びに情報を記憶する情報
    記憶手段とを備え、被写体の撮影を制御する情報処理装置の情報処理方法において、
    所定の領域を撮影する領域撮影手段を制御し、前記所定の領域を撮影させる領域撮影制御ステップと、
    前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知ステップと、
    前記検知ステップの処理により検知された動体を撮影する動体撮影手段を制御し、前記動体を撮影させる動体撮影制御ステップと、
    前記領域撮影手段により得られた領域画像を前記領域画像記憶手段に記憶させる領域画像記憶制御ステップと、
    前記検知ステップの処理による検知結果に基づいて、前記動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、前記情報記憶手段に記憶させる情報記憶制御ステップと、
    前記動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて、前記動体画像記憶手段に記憶させる動体画像記憶制御ステップと、
    ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生ステップと
    を含むことを特徴とする情報処理方法。
  5. 画像を記憶する領域画像記憶手段および動体画像記憶手段、並びに情報を記憶する情報記憶手段とを備える情報処理装置を制御するコンピュータに行わせるプログラムにおいて、
    所定の領域を撮影する領域撮影手段を制御し、前記所定の領域を撮影させる領域撮影制御ステップと、
    前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知ステップと、
    前記検知ステップの処理により検知された動体を撮影する動体撮影手段を制御し、前記動体を撮影させる動体撮影制御ステップと、
    前記領域撮影手段により得られた領域画像を前記領域画像記憶手段に記憶させる領域画像記憶制御ステップと、
    前記検知ステップの処理による検知結果に基づいて、前記動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、前記情報記憶手段に記憶させる情報記憶制御ステップと、
    前記動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて、前記動体画像記憶手段に記憶させる動体画像記憶制御ステップと、
    ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生ステップと
    を含むことを特徴とするプログラム。
  6. 画像を記憶する領域画像記憶手段および動体画像記憶手段、並びに情報を記憶する情報記憶手段とを備える情報処理装置を制御するコンピュータに行わせるプログラムが記録されている記録媒体において、
    所定の領域を撮影する領域撮影手段を制御し、前記所定の領域を撮影させる領域撮影制御ステップと、
    前記領域撮影手段により撮影された結果得られる領域画像に基づいて、前記所定の領域内に存在する動体を検知する検知ステップと、
    前記検知ステップの処理により検知された動体を撮影する動体撮影手段を制御し、前記動体を撮影させる動体撮影制御ステップと、
    前記領域撮影手段により得られた領域画像を前記領域画像記憶手段に記憶させる領域画像記憶制御ステップと、
    前記検知ステップの処理による検知結果に基づいて、前記動体を表す動体情報と、その動体が検知された領域画像の再生に関する再生情報とを対応付けて、前記情報記憶手段に記憶させる情報記憶制御ステップと、
    前記動体撮影手段により動体が撮影された結果得られる動体画像を、その動体を表す動体情報に対応付けて、前記動体画像記憶手段に記憶させる動体画像記憶制御ステップと、
    ユーザにより前記動体画像が指定された場合、その動体画像に対応する動体情報を前記動体画像記憶手段から読み出し、その動体情報に対応する再生情報を前記情報記憶手段から読み出して、その再生情報に基づいて前記領域画像記憶手段に記憶された領域画像を再生する再生ステップと
    を含むことを特徴とするプログラムが記録されている記録媒体。
JP2005054394A 2005-02-28 2005-02-28 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体 Expired - Fee Related JP4470759B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2005054394A JP4470759B2 (ja) 2005-02-28 2005-02-28 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
US11/354,830 US7801329B2 (en) 2005-02-28 2006-02-16 Information processing system, information processing apparatus and information processing method, program, and recording medium
EP20100166177 EP2228776B1 (en) 2005-02-28 2006-02-24 Information processing system, information processing apparatus and information processing method, program, and recording medium
DE602006015731T DE602006015731D1 (de) 2005-02-28 2006-02-24 Informationsverarbeitungssystem, -vorrichtung, -verfahren, -program und -aufzeichnungsmedium
EP06250997A EP1696398B1 (en) 2005-02-28 2006-02-24 Information processing system, information processing apparatus and information processing method , program, and recording medium
CNB200610058253XA CN100551047C (zh) 2005-02-28 2006-02-28 信息处理的方法和装置
KR1020060019181A KR101215199B1 (ko) 2005-02-28 2006-02-28 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법 및 기록 매체
US12/852,971 US8041078B2 (en) 2005-02-28 2010-08-09 Information processing system, information processing apparatus and information processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005054394A JP4470759B2 (ja) 2005-02-28 2005-02-28 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009201027A Division JP5531512B2 (ja) 2009-08-31 2009-08-31 情報処理装置、プログラム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2006245649A JP2006245649A (ja) 2006-09-14
JP4470759B2 true JP4470759B2 (ja) 2010-06-02

Family

ID=36498931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005054394A Expired - Fee Related JP4470759B2 (ja) 2005-02-28 2005-02-28 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体

Country Status (6)

Country Link
US (2) US7801329B2 (ja)
EP (2) EP1696398B1 (ja)
JP (1) JP4470759B2 (ja)
KR (1) KR101215199B1 (ja)
CN (1) CN100551047C (ja)
DE (1) DE602006015731D1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498497B2 (en) * 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
CN101442647B (zh) * 2008-12-30 2012-11-28 北京中星微电子有限公司 视频监控系统中录像回放定位的控制方法以及存储服务器
JP5469899B2 (ja) * 2009-03-31 2014-04-16 株式会社トプコン 自動追尾方法及び測量装置
US10248697B2 (en) * 2009-07-24 2019-04-02 Raytheon Company Method and system for facilitating interactive review of data
US8279266B2 (en) * 2009-11-30 2012-10-02 Daniel Theobald Video system using camera modules to provide real-time composite video image
US8907985B2 (en) * 2010-03-04 2014-12-09 Panasonic Corporation Image display device and image display method
JP5533048B2 (ja) * 2010-03-08 2014-06-25 ソニー株式会社 撮像制御装置、撮像制御方法
CN102377984A (zh) * 2010-08-09 2012-03-14 纬创资通股份有限公司 监视影像录制方法和监视系统以及计算机程序产品
KR101222482B1 (ko) * 2011-06-23 2013-01-15 브이씨에이 테크놀러지 엘티디 설정 인터페이스를 구비한 피플 카운터 및 그 설정 방법
KR101543712B1 (ko) * 2011-08-25 2015-08-12 한국전자통신연구원 증강현실을 이용한 보안 감시 장치 및 방법
JP2013219544A (ja) * 2012-04-09 2013-10-24 Ricoh Co Ltd 画像処理装置、画像処理方法、及び画像処理プログラム
CN102868936B (zh) * 2012-09-06 2015-06-10 北京邮电大学 存储视频日志的方法和系统
US9210385B2 (en) * 2012-11-20 2015-12-08 Pelco, Inc. Method and system for metadata extraction from master-slave cameras tracking system
CN104184986B (zh) * 2013-05-28 2018-06-05 华为技术有限公司 一种视频监控方法、装置及系统
JP2015142181A (ja) * 2014-01-27 2015-08-03 キヤノン株式会社 制御装置、制御方法
JP6381313B2 (ja) * 2014-06-20 2018-08-29 キヤノン株式会社 制御装置、制御方法、およびプログラム
CN109660745A (zh) * 2018-12-21 2019-04-19 深圳前海微众银行股份有限公司 视频录制方法、装置、终端及计算机可读存储介质
CN111316187B (zh) * 2019-04-29 2024-06-14 深圳市大疆创新科技有限公司 一种云台的控制方法、云台及云台拍摄装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
JP3809661B2 (ja) * 1995-12-28 2006-08-16 ソニー株式会社 動き検出装置および動き検出方法
JP3432348B2 (ja) * 1996-01-30 2003-08-04 三菱電機株式会社 代表画像表示方法、代表画像表示装置およびこの装置を用いた動画検索装置
JPH10108163A (ja) 1996-09-26 1998-04-24 Sony Corp ビデオ装置
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
DE69921237T2 (de) 1998-04-30 2006-02-02 Texas Instruments Inc., Dallas Automatische Videoüberwachungsanlage
JP2000209580A (ja) * 1999-01-13 2000-07-28 Canon Inc 画像処理装置およびその方法
JP3826598B2 (ja) 1999-01-29 2006-09-27 株式会社日立製作所 画像監視装置及び記録媒体
JP2000243062A (ja) 1999-02-17 2000-09-08 Sony Corp 映像記録装置および映像記録方法、ならびに集中監視記録システム。
US20020063711A1 (en) 1999-05-12 2002-05-30 Imove Inc. Camera system with high resolution image inside a wide angle view
JP2000339923A (ja) * 1999-05-27 2000-12-08 Mitsubishi Electric Corp 映像収集装置および映像収集方法
JP3808242B2 (ja) * 1999-07-26 2006-08-09 パイオニア株式会社 画像処理装置、画像処理方法及びナビゲーション装置
JP4516665B2 (ja) 2000-05-19 2010-08-04 パナソニック株式会社 監視装置
AU2002257442A1 (en) 2001-05-14 2002-11-25 Fadi Dornaika Attentive panoramic visual sensor
JP3870124B2 (ja) 2002-06-14 2007-01-17 キヤノン株式会社 画像処理装置及びその方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
JP2004201231A (ja) 2002-12-20 2004-07-15 Victor Co Of Japan Ltd 監視用ビデオカメラシステム
US20040189801A1 (en) 2003-03-28 2004-09-30 Chao-Hung Chang Active video surveillance system and active video surveillance method therefore
CN2667571Y (zh) * 2003-10-27 2004-12-29 北京雷波泰克信息技术有限公司 快速多目标人像自动识别与跟踪安全防御装置
JP4345692B2 (ja) * 2005-02-28 2009-10-14 ソニー株式会社 情報処理システム、情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
DE602006015731D1 (de) 2010-09-09
CN1829321A (zh) 2006-09-06
US7801329B2 (en) 2010-09-21
EP1696398A3 (en) 2007-12-05
US20060221185A1 (en) 2006-10-05
JP2006245649A (ja) 2006-09-14
EP2228776B1 (en) 2015-05-20
KR101215199B1 (ko) 2012-12-24
US20100321504A1 (en) 2010-12-23
CN100551047C (zh) 2009-10-14
EP1696398A2 (en) 2006-08-30
US8041078B2 (en) 2011-10-18
KR20060095515A (ko) 2006-08-31
EP2228776A1 (en) 2010-09-15
EP1696398B1 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
JP4470759B2 (ja) 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP4345692B2 (ja) 情報処理システム、情報処理装置および方法、並びにプログラム
US7573492B2 (en) Monitoring system and method, and program and recording medium used therewith
JP4727117B2 (ja) 知的特徴選択およびパンズーム制御
US8462253B2 (en) Monitoring system for a photography unit, monitoring method, computer program, and storage medium
JP4378636B2 (ja) 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP2006333132A (ja) 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム
JP4722537B2 (ja) 監視装置
JP6544996B2 (ja) 制御装置及び制御方法
JP5531512B2 (ja) 情報処理装置、プログラム、および情報処理方法
JP3841033B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP3969172B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP3838149B2 (ja) モニタリングシステムおよび方法、並びにプログラムおよび記録媒体
JP3838150B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2005277760A (ja) 監視装置
US8437552B2 (en) Information processing apparatus and method, and a recording medium storing a program for implementing the method
JP3991816B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP3838151B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2004173152A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4470759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees