JP5531512B2 - Information processing apparatus, program, and information processing method - Google Patents
Information processing apparatus, program, and information processing method Download PDFInfo
- Publication number
- JP5531512B2 JP5531512B2 JP2009201027A JP2009201027A JP5531512B2 JP 5531512 B2 JP5531512 B2 JP 5531512B2 JP 2009201027 A JP2009201027 A JP 2009201027A JP 2009201027 A JP2009201027 A JP 2009201027A JP 5531512 B2 JP5531512 B2 JP 5531512B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving object
- information
- zoom
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 24
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000001514 detection method Methods 0.000 claims description 73
- 238000012545 processing Methods 0.000 claims description 39
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 162
- 230000008569 process Effects 0.000 description 145
- 238000012544 monitoring process Methods 0.000 description 47
- 230000008034 disappearance Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 238000012217 deletion Methods 0.000 description 6
- 230000037430 deletion Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
本発明は、情報処理装置、プログラム、および情報処理方法に関し、特に、所定の領域を撮影するとともに、その領域内の動体を撮影し、その結果得られる画像のうち、ユーザの所望する画像を容易に再生することができるようにする情報処理装置、プログラム、および情報処理方法に関する。 The present invention relates to an information processing device , a program , and an information processing method . In particular, the present invention captures a predetermined area, images a moving object in the area, and easily obtains an image desired by a user from among the resulting images. The present invention relates to an information processing apparatus, a program , and an information processing method that can be reproduced in a simple manner .
近年、例えば、自動預払機(ATM)を設置している銀行、駐車場、家屋などにおいて、セキュリティの確保のために多地点カメラ監視システム(Multi Camera system)が多く設置されている。 In recent years, for example, in many banks, parking lots, houses, etc. where automatic teller machines (ATMs) are installed, a multi-point camera monitoring system (Multi Camera system) is installed to ensure security.
このような多地点カメラ監視システムは、複数のビデオカメラと、それらのビデオカメラから取得された画像を記録する記録装置とから構成される。多地点カメラ監視システムにおいては、複数の画像を縮小および合成し、1フレーム画像とする技術が提案されている。(例えば、特許文献1参照)。また、複数のビデオカメラからの画像を集めてビデオテープ等の記録媒体に記録することも提案されている(例えば、特許文献2参照)。 Such a multi-point camera monitoring system is composed of a plurality of video cameras and a recording device that records images acquired from these video cameras. In the multipoint camera monitoring system, a technique has been proposed in which a plurality of images are reduced and combined to form one frame image. (For example, refer to Patent Document 1). It has also been proposed to collect images from a plurality of video cameras and record them on a recording medium such as a video tape (for example, see Patent Document 2).
図1は、従来の多地点カメラ監視システムの一例を示す外観図である。 FIG. 1 is an external view showing an example of a conventional multipoint camera monitoring system.
図1の多地点カメラ監視システム1は、4台のカメラ11−1乃至11−4から構成される。カメラ11−1乃至11−4は、撮影方向が固定の固定カメラまたは撮影方向が可変のパンチルトズームカメラである。カメラ11−1乃至11−4は、例えば、駐車場内の直径40mの円状の広範囲な領域21を監視している。
The multipoint
図2は、図1の多地点カメラ監視システム1の構成の一例を示している。
FIG. 2 shows an example of the configuration of the multipoint
図2のカメラ11−1乃至11−4は撮影を行う。カメラ11−1乃至11−4は、それぞれ、記録装置41に接続され、撮影の結果得られる画像のアナログ信号を、記録装置41に供給する。記録装置41は、カメラ11−1乃至11−4から供給される画像のアナログ信号に対して、A/D変換などを行い、その結果得られる画像のデジタル信号である画像データを記録する。また、記録装置41は、表示装置42に接続され、画像データに対応する画像を、表示装置42に表示させる。
The cameras 11-1 to 11-4 in FIG. Each of the cameras 11-1 to 11-4 is connected to the
しかしながら、図2の多地点カメラ監視システム1では、記録装置41に接続可能なカメラ11−1乃至11−4が有限であり、多地点カメラ監視システム1の拡張性に乏しい。
However, in the multipoint
図3は、図1の多地点カメラ監視システム1の構成の他の一例を示している。
FIG. 3 shows another example of the configuration of the multipoint
図3のカメラ11−1乃至11−4は、それぞれネットワーク51を介して、パーソナルコンピュータ(PC)52と接続されている。カメラ11−1乃至11−4は、撮影を行い、その結果得られる画像データを、IP(Internet Protocol)に準拠してネットワーク51を介してPC52に送信する。PC52は、その画像データを記録したり、画像データに対応する画像を表示させる。
The cameras 11-1 to 11-4 in FIG. 3 are connected to a personal computer (PC) 52 via a
次に、図4を参照して、図2の記録装置41またはPC52に記録される画像データを説明する。
Next, image data recorded on the
図4に示すように、記録装置41またはPC52では、カメラ11−1乃至11−4で得られる画像データがすべて記録される。従って、多地点カメラ監視システム1で監視を行う場合、画像データが所定の圧縮方式で圧縮された場合であっても、記録装置41またはPC52に記録される画像データの容量は非常に大きくなる。
As shown in FIG. 4, the
例えば、所定の条件(50KB/フレーム,10フレーム/秒)で、JPEG(Joint Photographic Experts Group)方式にしたがって圧縮した画像データを24時間記録する場合、4台のカメラ11−1乃至11−4から構成される多地点カメラ監視システム1では、記録装置41またはPC52に記録される画像データの容量は、約164GBとなる。また、多地点カメラ監視システム1が、8台のカメラから構成される場合、その容量は約328GBとなり、16台のカメラから構成される場合、その容量は約656GBとなる。
For example, when recording image data compressed according to a JPEG (Joint Photographic Experts Group) system under a predetermined condition (50 KB / frame, 10 frames / second) for 24 hours, four cameras 11-1 to 11-4 In the multipoint
以上のように、多地点カメラ監視システム1では、領域21を監視するために4台のカメラ11−1乃至11−4が必要であり、設置が面倒なうえ、多地点カメラ監視システム1のコストが大きくなる。さらに、高精細な画像を取得する場合、撮影倍率を上げて撮影する必要があるため、より多くのカメラ11−1乃至11−4が必要となる。また、高精細な画像を取得するために、カメラ11−1乃至11−4の台数を増やさない場合は、すべての領域21について高精細な画像を取得することが困難であるため、オペレータが常時通常の画像を監視して、所望の領域を指定し、その領域の高精細な画像を取得する必要がある。
As described above, in the multipoint
そこで、撮影方向を順にシフトさせながら、被写体を撮影し、複数の単位画像から構成されるパノラマ状の全体画像を得ることにより、1台のカメラで広範囲の状況を監視することができる監視カメラがある。 Therefore, there is a surveillance camera that can monitor a wide range of situations with one camera by photographing a subject while sequentially shifting the photographing direction and obtaining a panoramic overall image composed of a plurality of unit images. is there.
しかしながら、このような監視カメラは、1枚の全体画像を生成するために、これを構成する全ての単位画像を取得する必要があり、1枚の全体画像を生成するために多くの時間を要する。従って、撮影範囲内において短時間に生じた僅かな状況変化をもれなく捉えることが困難である。 However, in order to generate one whole image, such a surveillance camera needs to acquire all unit images constituting the whole image, and takes a lot of time to generate one whole image. . Therefore, it is difficult to capture all the slight changes in the situation that occurred in a short time within the imaging range.
即ち、移動速度の速い動体(移動被写体)が撮影され、全体画像として取得されてから、次に全体画像が取得されるまでの間に、動体が撮影範囲外に移動してしまうことがある。 That is, a moving object (moving subject) having a high moving speed may be photographed and acquired as a whole image, and then the moving object may move outside the photographing range after the whole image is obtained.
本発明は、このような状況に鑑みてなされたものであり、特に、所定の領域を撮影するとともに、その領域内の動体を撮影し、その結果得られる画像のうち、ユーザの所望する画像を容易に再生することができるようにするものである。 The present invention has been made in view of such a situation. In particular, the present invention captures a predetermined area, images a moving object in the area, and selects an image desired by the user from among the resulting images. It is intended to allow easy reproduction.
本発明の情報処理装置は、所定の領域を撮像し、領域画像を取得する撮像手段と、撮像手段により取得された領域画像に基づいて、所定の領域内に存在する物体を検知する検知手段と、領域画像、および、領域画像より画角が狭く、検知手段により検知された物体を含む物体画像を記憶する記憶手段と、物体画像を表示画面に表示させる表示制御手段と、表示画面に表示された物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む領域画像を再生するよう制御する再生制御手段とを備える。 An information processing apparatus according to the present invention includes: an imaging unit that captures an image of a predetermined region and acquires a region image; and a detection unit that detects an object existing in the predetermined region based on the region image acquired by the imaging unit. A storage means for storing an area image and an object image having an angle of view smaller than that of the area image and including an object detected by the detection means, a display control means for displaying the object image on the display screen, and a display on the display screen. When a predetermined object image is designated among the obtained object images, reproduction control means for controlling to reproduce an area image including the object included in the object image is provided.
領域画像は、動画像であるようにすることができる。
物体画像は、物体のズーム画像であるようにすることができる。
領域画像には、複数の物体が含まれるようにすることができる。
物体は、動体であるようにすることができる。
検知手段による検知結果に基づいて、物体を表す物体情報と、その物体が検知された領域画像の再生に関する再生情報とを対応付けて記憶する情報記憶手段をさらに備えることができる。
The region image can be a moving image.
The object image can be a zoom image of the object.
The region image can include a plurality of objects .
The object can be a moving object.
Based on the detection result by the detection means, it is possible to further comprise information storage means for storing the object information representing the object and the reproduction information related to the reproduction of the area image where the object is detected in association with each other.
表示制御手段は、所定の日付の所定の時間帯における録画実績を表す録画実績表示部を物体画像とともに表示画面に表示させ、録画実績表示部において所定の日付の所定の時間帯における録画実績が選択された場合、その日付のその時間帯に検知された物体を含む物体画像を表示画面に表示させることができる。 The display control means displays a recording result display unit representing a recording result in a predetermined time zone on a predetermined date on the display screen together with an object image , and the recording performance in a predetermined time zone on a predetermined date is selected in the recording result display unit. If it is, it is Rukoto display the object image including the detected object to the time zone of the date on the display screen.
本発明のプログラムは、コンピュータを、所定の領域の画像である領域画像に基づいて、所定の領域内に存在する物体を検知する検知手段と、領域画像より画角が狭く、検知手段により検知された物体を含む物体画像を表示画面に表示させる表示制御手段と、表示画面に表示された物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む領域画像を再生するよう制御する再生制御手段として機能させる。 According to the program of the present invention, the computer detects, based on a region image that is an image of a predetermined region, a detection unit that detects an object existing in the predetermined region, and a detection angle that is narrower than the region image. Display control means for displaying an object image including an object on the display screen, and when a predetermined object image of the object images displayed on the display screen is specified , an area image including the object included in the object image is displayed. It functions as a reproduction control means for controlling reproduction.
本発明の情報処理方法は、情報処理装置が、所定の領域を撮像し、領域画像を取得する撮像ステップと、撮像ステップの処理により取得された領域画像に基づいて、所定の領域内に存在する物体を検知する検知ステップと、領域画像、および、領域画像より画角が狭く、検知ステップの処理により検知された物体を含む物体画像を記憶する記憶ステップと、物体画像を表示画面に表示させる表示制御ステップと、表示画面に表示された物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む領域画像を再生するよう制御する再生制御ステップとを含む。
領域画像は、動画像であるようにすることができる。
物体画像は、物体のズーム画像であるようにすることができる。
領域画像には、複数の物体が含まれるようにすることができる。
物体は、動体であるようにすることができる。
前記検知ステップの処理による検知結果に基づいて、前記物体を表す物体情報と、その物体が検知された領域画像の再生に関する再生情報とを対応付けて記憶する情報記憶ステップをさらに含むことができる。
表示制御ステップでは、所定の日付の所定の時間帯における録画実績を表す録画実績表示部を物体画像とともに表示画面に表示させ、録画実績表示部において所定の日付の所定の時間帯における録画実績が選択された場合、その日付のその時間帯に検知された物体を含む物体画像を表示画面に表示させることができる。
According to the information processing method of the present invention, the information processing apparatus exists in a predetermined area based on an imaging step of capturing a predetermined area and acquiring the area image, and the area image acquired by the processing of the imaging step. Detection step for detecting an object, an area image, a storage step for storing an object image having an angle of view narrower than the area image and detected by the processing of the detection step, and a display for displaying the object image on the display screen A control step, and a reproduction control step for controlling to reproduce an area image including an object included in the object image when a predetermined object image is designated among the object images displayed on the display screen.
The region image can be a moving image.
The object image can be a zoom image of the object.
The region image can include a plurality of objects.
The object can be a moving object.
The information storage step may further include storing object information representing the object and reproduction information relating to reproduction of the region image in which the object is detected, in association with each other based on a detection result obtained by the detection step.
In the display control step, a recording performance display unit representing a recording performance in a predetermined time zone on a predetermined date is displayed on the display screen together with an object image, and a recording performance in a predetermined time zone on a predetermined date is selected in the recording performance display portion. If it is, an object image including an object detected in that time zone on that date can be displayed on the display screen.
本発明においては、所定の領域の画像である領域画像に基づいて、所定の領域内に存在する物体が検知され、領域画像より画角が狭く、検知された物体を含む物体画像が表示画面に表示され、表示画面に表示された物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む領域画像を再生するよう制御される。 In the present invention, based on a region image that is an image of a predetermined region, an object that exists in the predetermined region is detected, an angle of view is narrower than the region image, and an object image including the detected object is displayed on the display screen. When a predetermined object image is designated from among the object images displayed and displayed on the display screen, the region image including the object included in the object image is controlled to be reproduced.
本発明によれば、特に、所定の領域を撮影するとともに、その領域内の動体を撮影し、その結果得られる画像のうち、ユーザの所望する画像を容易に再生することができる。 According to the present invention, in particular, a predetermined area can be imaged, a moving object in the area can be imaged, and an image desired by the user can be easily reproduced from the resulting images.
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
図5は、本発明を適用した監視システム101の第一実施の形態の概観構成例を示している。
FIG. 5 shows an example of an overview configuration of the first embodiment of the
図5の監視システム101は、カメラユニット111から構成される。カメラユニット111は、広範囲な領域を撮影するセンサカメラ121(後述する図6)と、所定の動体をズーム(拡大)して撮影するズームカメラ122とから構成される。センサカメラ121が広範囲な領域を撮影し、その結果得られるセンサ画像121(後述する図6)から検知される動体を、ズームカメラ122がズームして撮影する。これにより、監視システム101では、例えば、駐車場内の直径40mの円状の広範囲な領域21を監視することができる。
The
その結果、図1に示した多地点カメラ監視システム1に比べて、カメラの台数が少なくて済み、設置が容易であり、コストも削減することができる。
As a result, compared with the multipoint
図6は、監視システム101の構成例を示している。
FIG. 6 shows a configuration example of the
図6の監視システム101は、センサカメラ121とズームカメラ122からなるカメラユニット111、ネットワーク131、およびクライアント132から構成され、センサカメラ121により取得されるセンサ画像151と、ズームカメラ122による撮影の結果得られるズーム画像152を、ネットワーク131を介してクライアント132に記録したり、その記録したセンサ画像151とズーム画像152を、クライアント132により再生する。
The
カメラユニット111のセンサカメラ121は、パンチルト部121Aとカメラ部121Bとが一体的に構成されている。パンチルト部121Aは、例えば、パン(水平方向
)とチルト(垂直方向)の2軸について撮影方向を自在に変更するための回転台として構成される。カメラ部121Bは、パンチルト部121Aを構成する回転台上に配設され、クライアント132の制御にしたがって、パンチルト部121Aを制御し、撮影方向の水平方向または垂直方向を調整しつつ、撮影画角を変更することにより、撮影倍率を拡大または縮小して広範囲の領域(の被写体)を動画像として撮影する。具体的には、例えば、カメラ部121Bは、撮影方向を順にシフトさせながら、被写体を撮影することにより、複数の単位画像を取得し、その複数の単位画像から構成されるパノラマ状の画像をセンサ画像151とする。
In the
カメラ部121Bは、撮影の結果得られるセンサ画像151をネットワーク131を介してクライアント132に供給する。図6では、センサカメラ121は、動体161と162を含む広範囲な領域を撮影し、動体161と162が含まれるセンサ画像151を取得している。
The
ズームカメラ122は、センサカメラ121と同様に、パンチルト部122Aとカメラ部122Bとが一体的に構成されている。パンチルト部122Aは、パンチルト部121Aと同様に、例えば、パンとチルトの2軸について撮影方向を自在に変更するための回転台として構成される。カメラ部122Bは、パンチルト部121Aを構成する回転台上に配設され、クライアント132の制御にしたがって、パンチルト部122Aを制御し、撮影方向の水平方向または垂直方向を調整しつつ、撮影画角を変更することにより、撮影倍率を拡大または縮小して、所定の動体を動画像としてズーム撮影する。
As with the
クライアント132は、センサカメラ121から供給されるセンサ画像151に含まれる動体161と162を検知し、動体161または162を囲む所定の領域(例えば、四角形の領域)を、それぞれ動体枠171または172として決定する。
The
クライアント132は、例えば、動体枠172の4つの頂点A乃至Dのセンサ画像151上のX軸(図中水平方向の軸)とY軸(図中垂直方向の軸)における座標をズームカメラ122に供給する。ズームカメラ122は、その座標に基づいて、動体162(の動体枠172)をズーム撮影し、ズーム画像152を取得する。なお、以下では、センサ画像151とズーム画像152は、フレーム単位で取得されるものとする。ズームカメラ122は、ズーム画像152をネットワーク131を介してクライアント132に供給する。
For example, the
ネットワーク131は、例えば、クライアント132と電話回線を介して接続されるインターネット網や、TA(Terminal Adapter)やモデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN、LAN(Local Area Network)等であり、データの双方向通信を可能とした通信網である。
The
クライアント132は、例えば、パーソナルコンピュータなどからなり、ネットワーク131を介して、センサカメラ121とズームカメラ122を制御する。また、クライアント132は、センサカメラ121からのセンサ画像151とズームカメラ122からのズーム画像152を記録したり、記録したセンサ画像151やズーム画像152を再生して表示させる。
The
図7は、図6のクライアント132の構成例を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration example of the
図6に示されるように、CPU(Central Processing Unit)201は、バス204を介して、ROM(Read Only Memory)202およびRAM(Random Access Memory)203に接続されている。なお、CPU201、ROM202、およびRAM203は、マイコンなどにより構成される。バス204にはまた、入出力インタフェース205も接続されている。
As shown in FIG. 6, a CPU (Central Processing Unit) 201 is connected to a ROM (Read Only Memory) 202 and a RAM (Random Access Memory) 203 via a
CPU201は、ROM202に記憶されているプログラム、またはRAM203に記憶されているプログラムにしたがって、各種の処理を実行する。ROM202は、各種のプログラムなどを記憶している。RAM203には、通信部209を介して取得したプログラムが記憶される。また、RAM203には、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
The
入出力インタフェース205には、キーボードや、マウス、マイク等で構成される入力部206、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部207、ハードディスクなどにより構成される記憶部208、TA、モデムなどより構成される通信部209が接続されている。通信部209は、図6のネットワーク131に接続されており、ネットワーク131を介して、センサカメラ121およびズームカメラ122と通信を行う。
The input /
入出力インタフェース205にはまた、必要に応じて、ドライブ210が適宜装着され、ドライブ210に装着されたリムーバブルメディア211からプログラムが読み出されて記憶部208にインストールされる。CPU201は、記憶部208にインストールされたプログラムを、例えばRAM203にロードして実行する。
The input /
図8は、図6のクライアント132の機能的構成例を示すブロック図である。
FIG. 8 is a block diagram illustrating a functional configuration example of the
なお、図8のクライアント132のセンサ画像取得モジュール221、動体検知モジュール222、追跡対象画像取得モジュール223、計時モジュール224、動体ログモジュール230、および再生モジュール231は、例えば、図7のCPU201に対応する。
また、追跡対象情報管理DB225、表示情報DB226、動体情報DB227、動体ログ情報DB228、および録画実績情報DB229は、例えば、図7の記憶部208に対応する。
Note that the sensor
Further, the tracking target
センサ画像取得モジュール221には、ユーザの操作に応じて、入力部206からセンサ画像151の取得の指令が供給され、その指令に応じて、センサカメラ121を制御する。センサカメラ121は、センサ画像取得モジュール221の制御により、広範囲な領域21を撮影し、その結果得られるセンサ画像151と自分自身を表すセンサカメラ121に固有のID(以下、カメラIDという)とをセンサ画像取得モジュール221に供給する。また、センサ画像取得モジュール221は、センサカメラ121からのセンサ画像151を動体検知モジュール222に供給する。
A command for acquiring the
センサ画像取得モジュール221は、表示情報DB226に所定のファイルを作成し、動体検知モジュール222から供給される動体枠172の頂点A乃至Dの座標である動体の発生位置を表示情報として、そのファイルに表示情報とセンサ画像151を登録する。
また、センサ画像取得モジュール221は、計時モジュール224から供給される現在の日時を表す日時情報に基づいて、録画実績情報DB229に登録されている、センサ画像151とズーム画像152の記憶(録画)の有無を表す録画実績情報を変更する。
The sensor
Further, the sensor
また、動体情報DB227に所定のファイルを作成し、そのファイルに動体検知モジュール222から供給される動体の発生日時、消滅日時、発生位置、動体ID、再生に関する再生情報である再生開始位置、およびセンサカメラ121から供給されるカメラIDから構成される動体情報を登録する。
In addition, a predetermined file is created in the moving
動体検知モジュール222は、センサ画像取得モジュール221から供給されるセンサ画像151に基づいて、そのセンサ画像151における撮影領域内に存在する動体の発生を検知し、その発生を検知した動体に固有のID(以下、動体IDという)を付与する。
また、動体検知モジュール222は、その検知の結果に基づいて、動体の発生を検知したセンサ画像151のフレームの、先頭のフレームからの位置を、その動体に対応するセンサ画像151を再生するときの再生開始位置として認識する。さらに、動体検知モジュール222は、発生を検知した動体の動体枠172(171)を決定し、その動体枠172の頂点A乃至Dの座標を、動体の発生位置としてセンサ画像取得モジュール221に供給する。
Based on the
In addition, the moving
また、動体検知モジュール222は、計時モジュール224からの日時情報に基づいて、動体の発生を検知した日時である発生日時を認識する。動体検知モジュール222は、動体の発生日時、動体ID、および発生位置を、ズームカメラ122によりズーム撮影(追跡撮影)させる追跡対象である動体の情報である追跡対象情報として、追跡対象情報管理DB225に登録する。
In addition, the moving
さらに、動体検知モジュール222は、発生を検知した動体の、センサ画像151からの消滅を検知し、計時モジュール224からの日時情報に基づいて、消滅を検知した日時を消滅日時として認識する。動体検知モジュール222は、動体の発生日時、消滅日時、発生位置、動体ID、および再生開始位置をセンサ画像取得モジュール221に供給する。
Furthermore, the moving
追跡対象画像取得モジュール223は、追跡対象情報管理DB225から追跡対象情報を取得する。追跡対象画像取得モジュール223は、その追跡対象情報に基づいて、ズームカメラ122を制御し、動体を動画像としてズーム撮影する。追跡対処画像取得モジュール223は、表示情報DB226に所定のファイルを作成し、そのファイルにズーム撮影の結果得られるズーム画像152を、追跡対象情報に含まれる追跡対象の動体の動体IDと対応付けて登録する。
The tracking target
追跡対象画像取得モジュール223は、動画像であるズーム画像152を所定のタイミングでキャプチャした静止画像(以下、ズーム静止画像という)272C(後述する図15)と、追跡対象の動体の動体IDとを、動体ログを表示するための動体ログ情報として動体ログ情報DB228に登録する。なお、動体ログとは、動体検知モジュール222により検知された動体のログである。追跡対象画像取得モジュール223は、計時モジュール224からの日時情報に基づいて、録画実績情報DB229に登録されている録画実績情報を変更する。
The tracking target
計時モジュール224は、現在の日時を計時し、その日時を表す日時情報を、センサ画像取得モジュール221、動体検知モジュール222、追跡対象画像取得モジュール223、および動体ログモジュール230に供給する。
The timing module 224 measures the current date and time, and supplies date and time information representing the date and time to the sensor
追跡対象情報管理DB225は、動体検知モジュール222からの追跡対象情報を所定のファイルとして記憶する。表示情報DB226は、センサ画像取得モジュール221からの表示情報とセンサ画像151を、所定のファイルとして記憶する。また、表示情報DB226は、追跡対象画像取得モジュール223からのズーム画像152を、動体IDと対応付けて、所定のファイルとして記憶する。
The tracking target
動体情報DB227は、センサ画像取得モジュール221からの動体情報を所定のファイルとして記憶する。動体ログ情報DB228は、追跡対象画像取得モジュール223からの動体ログ情報を、所定のファイルとして記憶する。録画実績情報DB229は、録画実績情報を記憶する。
The moving
動体ログモジュール230には、ユーザの操作に応じて、入力部206から動体ログの表示の指令が供給される。動体ログモジュール230は、その指令に応じて、出力部207に動体ログを表示させる。具体的には、動体ログモジュール230は、計時モジュール224から供給される日時情報、動体情報DB227に記憶されている動体情報、動体ログ情報DB228に記憶されている動体ログ情報、および録画実績情報DB229に記憶されている録画実績情報に基づいて、動体ログを表示させる。
A moving body log display command is supplied from the
また、動体ログモジュール230には、ユーザの操作に応じて、入力部206から再生の指令が供給され、動体ログモジュール230は、その指令に応じて、ユーザが再生対象として指定した動体のセンサ画像151に対応する発生日時を、再生モジュール231に供給する。
In addition, a reproduction command is supplied from the
再生モジュール231は、動体ログモジュール230からの発生日時に基づいて、動体情報DB227から、その発生日時に対応する動体IDと再生開始位置を読み出す。再生モジュール231は、その読み出した動体IDと再生開始位置に基づいて、表示情報DB226からセンサ画像151を再生するとともに、ズーム画像152を再生し、それぞれ出力部207に表示させる。
Based on the occurrence date and time from the moving
次に、図9は、図8の追跡対象情報管理DB225に登録されている追跡対象情報の例を示している。
Next, FIG. 9 shows an example of the tracking target information registered in the tracking target
図9に示すように、追跡対象情報は、動体の発生日時、動体ID、および発生位置から構成される。 As shown in FIG. 9, the tracking target information includes a moving object occurrence date and time, a moving object ID, and an occurrence position.
図9では、動体検知モジュール222が、2004年1月10日の10時と10時5分に動体を検知し、10時に検知した動体に動体IDの「1」を、10時5分に検知した動体に動体IDの「2」を、それぞれ付与する。また、動体検知モジュール222は、動体ID「1」の動体の動体枠172を決定し、その動体枠172の頂点A乃至Dの座標(1,2),(1,5),(2,5),(2,2)を発生位置として認識する。なお、以下では、(i,j)のiは、センサ画像151における所定の位置を原点としたXY座標軸上のX座標の値、jはY座標の値を表す。
In FIG. 9, the moving
さらに、動体検知モジュール222は、動体ID「2」の動体の動体枠172を決定し、その動体枠172の頂点A乃至Dの座標(3,5)、(3,9)、(5,9)、(5,5)を発生位置として認識する。そして、動体検知モジュール222は、動体ID「1」と「2」の動体の発生日時、動体ID、および発生位置を、追跡対象情報として、追跡情報DB225に登録する。
Furthermore, the moving
次に、図10は、図8の動体情報DB227に登録される動体情報の例を示している。
Next, FIG. 10 shows an example of moving body information registered in the moving
図10に示すように、動体情報は、動体の発生日時、消滅日時、発生位置、動体ID、再生開始位置、およびカメラIDから構成される。即ち、動体情報DB227には、動体IDと、その動体IDの動体の発生日時、消滅日時、発生位置、再生開始位置、およびカメラIDとが対応付けて動体情報として記憶されている。動体情報DB227には、管理時間帯ごとにファイルが作成され、動体情報が、その動体情報の発生日時を含む管理時間帯に対応するファイルに登録される。なお、以下では、管理時間帯は、日付ごとに、1日を9時から順に1時間単位で区切ったものであるものとするが、管理時間帯の区切り方はこれに限定されない。
As shown in FIG. 10, the moving object information includes a moving object occurrence date and time, a disappearance date and time, a generation position, a moving object ID, a reproduction start position, and a camera ID. That is, in the moving
また、図10では、動体情報DB227の2004年1月10日の10時から11時という管理時間帯のファイルに登録される動体情報の例を示している。図10に示すように、動体検知モジュール222は、2004年1月10日の10時に発生を検知して動体ID「1」を付与した動体の消滅を同日の11時に検知する。また、動体検知モジュール222は、動体IDが「1」の動体の動体枠172を決定し、その頂点A乃至Dの座標である(1,2)、(1,5)、(2,5)、(2,2)を発生位置として認識している。
FIG. 10 shows an example of moving body information registered in a file in the management time zone from 10:00 to 11:00 on January 10, 2004 in the moving
さらに、動体IDが「1」の動体の発生が検知されたセンサ画像151のフレームは、先頭から1番目のフレームであるフレーム#1であり、動体検知モジュール222は、フレーム#1を再生開始位置として認識する。なお、以下では、先頭からl番目のフレームをフレーム#lという。また、センサ画像取得モジュール221には、動体IDが「1」の動体の発生が検知されたセンサ画像151を取得したセンサカメラ121のカメラIDとして、「1」が供給されている。
Further, the frame of the
また、動体検知モジュール222は、2004年1月10日10時5分に発生を検知した動体ID「2」が付与された動体の消滅を、同日の10時30分に検知する。動体検知モジュール222は、動体IDが「2」の動体の動体枠172を決定し、その動体枠172の頂点A乃至Dの座標である(3,5)、(3,9)、(5,9)、(5,5)を発生位置として認識する。
In addition, the moving
さらに、動体IDが「2」の動体の発生が検知されたセンサ画像151のフレームは、フレーム#2であり、動体検知モジュール222は、フレーム#2を再生開始位置として認識する。また、センサ画像取得モジュール221には、動体IDが「2」の動体の発生が検知されたセンサ画像151を取得したセンサカメラ121のカメラIDとして、「1」が供給されている。
Further, the frame of the
センサ画像取得モジュール221は、動体ID「1」と「2」が付与された動体の消滅が検知された場合、動体の発生日時、消滅日時、発生位置、動体ID、再生開始位置、およびカメラIDから構成される動体情報を、動体情報DB227に登録する。
When the disappearance of the moving object to which the moving object IDs “1” and “2” are detected is detected, the sensor
図11は、図8の動体ログ情報DB228に登録されている動体ログ情報の例を示している。
FIG. 11 shows an example of the moving body log information registered in the moving body
図11に示すように、動体ログ情報は、動体IDと、その動体IDの動体を含むズーム画像をキャプチャしたズーム静止画像272Cから構成される。なお、ズーム静止画像272Cには、例えば、取得された順に1から番号が付されており、以下では、番号pが付されたズーム静止画像272Cをズーム静止画像#1という。また、動体ログ情報DB228には、管理時間帯ごとにファイルが作成され、動体ログ情報が、その動体ログ情報のズーム静止画像272Cを取得した日時を含む管理時間帯に対応するファイルに登録される。
As illustrated in FIG. 11, the moving body log information includes a moving body ID and a zoom still image 272 </ b> C obtained by capturing a zoom image including the moving body of the moving body ID. For example, the zoom still image 272C is numbered from 1 in the order of acquisition, and hereinafter, the zoom still image 272C with the number p is referred to as a zoom still
図11では、追跡対象画像取得モジュール223が、動体IDが「1」の動体のズーム画像152をキャプチャしたズーム静止画像272Cを、ズーム静止画像#1と#2の2フレーム分取得している。また、追跡対象画像取得モジュール223は、動体IDが「2」の動体のズーム静止画像272Cを、ズーム画像#10の1フレーム分取得している。
In FIG. 11, the tracking target
追跡対象画像取得モジュール223は、動体ID「1」と動体ID「1」の動体のズーム静止画像272C、並びに動体ID「2」と動体ID「2」の動体のズーム静止画像272Cを、動体ログ情報として、動体ログ情報DB228に登録する。
The tracking target
図12は、録画実績情報DB229に登録されている録画実績情報の例を示している。
FIG. 12 shows an example of the recording performance information registered in the recording
図12に示すように、録画実績情報は、センサ画像151の記憶の有無を表すセンサフラグとズーム画像152の記憶の有無を表すズームフラグとから構成され、管理時間帯に対応付けて登録される。
As shown in FIG. 12, the recording performance information is composed of a sensor flag indicating whether the
図12では、2004年1月10日の10時から11時の管理時間帯に、センサ画像取得モジュール221は、センサ画像151を取得して表示情報DB226に登録しており、追跡対象画像取得モジュール223は、ズーム画像152を取得して表示情報DB226に登録している。即ち、センサフラグは、センサ画像151の記憶の有を表す「1」となっており、ズームフラグは、例えば、ズーム画像152の記憶の有を表す「1」となっている。
In FIG. 12, in the management time zone from 10:00 to 11:00 on January 10, 2004, the sensor
また、2004年1月10日の11時から12時の管理時間帯に、センサ画像取得モジュール221は、センサ画像151とズーム画像152を取得していない。即ち、センサフラグは、センサ画像151の記憶の無を表す「0」となっており、ズームフラグは、例えば、ズーム画像152の記憶の無を表す「0」となっている。
Further, the sensor
次に、図13を参照して表示情報DB226に記憶されるセンサ画像151とズーム画像152の容量を説明する。
Next, the capacities of the
図13に示すように、表示情報DB226には、センサカメラ121で取得されたすべてのセンサ画像151と、動体の発生が検知された場合にズームカメラ122で取得されたズーム画像152とが記録される。
As shown in FIG. 13, the
このように、監視システム101では、動体の発生が検知された場合にのみズーム画像152が取得され、記録されるので、図4に示したカメラ11−1乃至11−4から取得された画像がすべて記録される場合に比べて、領域21を監視するために必要な表示情報DB226の記憶容量を削減することができる。
In this way, in the
例えば、センサ画像151とズーム画像152を、所定の条件(50KB/フレーム,10フレーム/秒)で、JPEG(Joint Photographic Experts Group)方式にしたがって圧縮して記録する場合、領域21を24時間監視するために必要なセンサ画像151とズーム画像152の容量は、約51GBである。即ち、図4に示した多地点カメラ監視システム1に比べて、領域21を監視するために必要な表示情報DB226の容量は、1/60乃至1/3以下となる。
For example, when the
その結果、ユーザ(オペレータ)は、センサ画像151とズーム画像152を再生して、監視行為を行う場合、すべての時間におけるズーム画像152ではなく、監視が必要な動体が検知された時間におけるズーム画像152のみを再生することができるので、監視行為のための時間や手間(量的工数)を削減することができる。
As a result, when the user (operator) reproduces the
また、表示情報DB226に記憶されるセンサ画像151とズーム画像152の容量が削減されることにより、再生モジュール231は、再生対象となるセンサ画像151とズーム画像152を容易に検索することができる。
Further, by reducing the capacity of the
次に、図14乃至図19を参照して、図7の出力部207に表示される画面の例を示す。
Next, an example of a screen displayed on the
ユーザが入力部206を操作して、センサ画像151の取得を指令する場合、出力部207には、図14に示す画面250が表示される。
When the user operates the
図14の画面250は、センサ画像151を表示するセンサ画像表示部251、センサ画像151とズーム画像152の記録(録画)に関する操作を指令するためのGUI(Graphical User Interface)を表示する操作部252、およびズーム画像152の動画像を表示するズーム画像表示部253などから構成される。
14 is a sensor
センサ画像取得モジュール221は、いま取得しているセンサ画像151をセンサ画像表示部251に表示させる。また、追跡対象画像取得モジュール223は、いま取得しているズーム画像152の動画像をズーム画像表示部253に表示させる。
The sensor
操作部252には、例えば、プレイバック(Play Back)ボタン252Aと停止ボタン252Bなどが表示される。プレイバックボタン252Aは、動体ログ(の画面270(後述する図15))を表示させるときに操作される。また、停止ボタン252Bは、センサ画像151の取得を終了するときに操作される。ユーザが、入力部206を操作してプレイバックボタン252Aを選択する場合、入力部206はユーザからの操作を受け付け、その操作に応じて動体ログの表示の指令を動体ログモジュール230に供給する。動体ログモジュール230は、その指令に応じて、図15に示すように、動体ログの画面270を出力部207に表示させる。
For example, a
画面270は、録画実績情報に基づいて録画実績を表示させる録画実績表示部271、動体ログ情報に基づいて動体ログを表示させる動体ログ表示部272、所定の管理時間帯に発生した動体の数を表す動体数グラフ表示部273、ターゲット時間帯選択部274、再生時刻選択部275、OKボタン276、およびクローズボタン277などから構成される。なお、ターゲット時間帯とは、動体ログ表示部272で表示対象となるズーム静止画像272Cに対応する動体の発生日時を含む所定の時間帯(例えば、15分)である。
The
録画実績表示部271には、日付表示部271Aとターゲット週間選択部271Bが表示される。日付表示部271には、ターゲット時間帯の日付を含む1週間であるターゲット週間の日付が表示される。ターゲット週間選択部271Bは、ターゲット週間を変更するときに、操作される。
In the recording
動体ログモジュール230は、録画実績情報のセンサフラグとズームフラグに基づいて、録画実績情報に対応する日時を表す日付表示部271Aの日付と時間表示部271Cの時間における位置に、「センサ画像151とズーム画像152のいずれの記録も無し」、「センサ画像151のみ有り」、または「センサ画像151とズーム画像152の両方有り」を表す色を表示させる。例えば、「センサ画像151とズーム画像152のいずれの記録も無し」が透明、「センサ画像151のみ有り」が水色、「センサ画像151とズーム画像152の両方有り」が青色で表される。図15では、例えば、領域271Cに水色が表示され、色表示部271Dに青色が表示されている。
Based on the sensor flag and zoom flag of the recording record information, the moving
このように、センサ画像151とズーム画像152のいずれの記録も無し」、「センサ画像151のみ有り」、または「センサ画像151とズーム画像152の両方有り」を色分けして表示させることにより、ユーザは、録画実績表示部271から、センサ画像151またはズーム画像152の記録の有無を容易に判断することができる。
In this way, the user can display by color-coded “no
また、動体ログモジュール230は、録画実績情報のターゲット時間帯を表す日付表示部271Aの日付と時間表示部271Cの時間における位置に、ターゲット時間帯であることを表す色(例えば、黄色)を表示させる。図15では、領域271Eに黄色が表示されている。
In addition, the moving
動体ログ表示部272には、タブ272Aとサムネイル表示部272Bが表示される。
タブ272Aは、動体ログ表示部272のページ数を表す。なお、動体ログ表示部272には、タブ272Aではなく、スクロールバーを表示させ、スクロールバーにより表示対象とするページを変更することができるようにしてもよい。サムネイル表示部272Bは、動体ログ表示部272に、例えばマトリクス状に表示され、サムネイル表示部272Bには、動体ログとして、ターゲット時間帯に発生した動体のズーム静止画像272Cと、ズーム静止画像272Cに対応する動体の発生時刻とが表示される。なお、サムネイル表示部272Bに表示される発生時刻は、例えば、その発生時刻に対応するセンサ画像151を取得したセンサカメラ121のカメラIDごとに、異なる色で表示される。
The moving object
The
このように、動体ログ表示部272には、ターゲット時間帯に発生した動体のズーム静止画像272Cのみが表示されるため、ユーザは所望の動体のズーム静止画像272Cを検索しやすい。
As described above, since only the zoom still image 272C of the moving object generated in the target time zone is displayed on the moving object
動体数グラフ表示部273には、横軸がターゲット時間帯を含む管理時間帯、縦軸がその管理時間帯に発生した動体の数を表す動体数グラフが表示される。このように、動体数グラフが表示されることにより、ユーザはセンサ画像151を再生しなくても、管理時間帯に発生した動体の数を容易に認識することができる。また、動体数グラフ表示部273には、ターゲット時間帯を含む管理時間帯に発生した動体の最大の数(図15の例の場合26)も表示される。
The moving object number
ターゲット時間帯選択部274は、ターゲット時間帯を選択するときに表示される。再生時刻選択部275は、再生対象とするセンサ画像151またはズーム画像152に対応する動体の発生日時(の時刻)を選択するときに表示される。OKボタン276は、再生時刻選択部275で選択した時刻を決定するときに操作される。クローズボタン277は、画面270の表示を停止するときに操作される。
The target time
以上のように、画面270には、録画実績表示部271、動体ログ表示部272、および動体数グラフ表示部273が表示されるので、ユーザは、ターゲット時間帯を含む1週間単位での時間ごとのセンサ画像151とズーム画像152の記録の有無、ターゲット時間帯に発生した動体のズーム静止画像272C、ターゲット時間を含む管理時間帯に発生した動体の数を同時に認識することができる。
As described above, since the recording
また、ユーザは、録画実績表示部271上の、所望の日時に対応する位置を指定することにより、所望の日時に発生した動体の動体ログを、動体ログ表示部272に表示させることができる。その結果、所望の日時の月、日、時、および分を順に入力する場合に比べて、容易に所望の日時を指定し、所望の日時に発生した動体の動体ログを表示させることができる。
In addition, the user can display the moving body log of the moving body generated at the desired date and time on the moving body
また、ユーザは、例えば、入力部206を操作して、画面270上の所望のズーム静止画像272Cを選択することにより、所望のセンサ画像151とズーム画像152を再生して表示させる。
Further, for example, the user operates the
例えば、ユーザが、録画実績表示部271の領域271C内の位置を指定する場合、図15に示す画面270は、図16に示す画面270に変更される。
For example, when the user designates a position in the area 271C of the recording
領域271Cには、「センサ画像151のみ有り」を表す水色が表示されている、即ち領域271Cに対応する日時には、ズーム静止画像272Cが取得されず、センサ画像151のみが取得されているので、図16に示すように、動体ログ表示部272には、サムネイル表示部272Bが表示されない。
In the region 271C, a light blue color indicating “there is only the
また、ユーザが、入力部206を操作して、図15の画面270上の所望のズーム静止画像272Cが表示されるサムネイル表示部272Bを選択する場合、動体ログモジュール230は、そのサムネイル表示部272Bに表示される発生日時を再生モジュール231に供給する。再生モジュール231は、発生日時に基づいて、動体情報DB227から、その発生日時に対応する再生開始位置と動体IDを読み出す。再生モジュール231は、その読み出した再生開始位置と動体IDに基づいて、表示情報DB226からセンサ画像151とズーム画像152を再生し、図17に示す画面300を出力部207に表示させる。以上のように、ユーザは、サムネイル表示部272Bを選択することにより、センサ画像151の再生開始位置を指定することができる。
When the user operates the
図17の画面300は、センサ画像表示部251、ズーム画像表示部253、および再生に関する操作を行うためのGUIから構成される操作部301などから構成される。
A
センサ画像表示部251には、表示情報DB226から再生されたセンサ画像151が表示され、ズーム画像表示部253には、表示情報DB226から再生されたズーム画像152が表示される。
The
操作部301には、図15や図16に示した画面270を表示させるときに操作されるライブ(Live)ボタン301Aが表示される。
The
さらに、
図18は、図15や図16の画面270で、日付表示部271Aが選択されたときに表示される画面270の例を示している。
further,
FIG. 18 shows an example of the
図15や図16の画面270が表示されている場合に、ユーザが日付表示部271Aを選択すると、図15や図16の画面270は、図18に示す画面270に変更される。即ち、センサ画像151とズーム画像152の削除またはエキスポートを選択する選択ボックス321が表示される。ユーザが、選択ボックス321の削除を選択する場合、動体ログモジュール230は、図19に示す確認画面340を出力部207に表示させる。
When the
図19に示すように、確認画面340には、「削除しますか?」というメッセージ、OKボタン341、およびキャンセルボタン342が表示される。OKボタン341は、削除を指令するときに操作される。キャンセルボタン342は、削除の取りやめ(キャンセル)を指令するときに操作される。
As shown in FIG. 19, a message “Do you want to delete?”, An
なお、図18において、ユーザが、選択ボックス321のエキスポートを選択する場合、出力部207には、図19と同様の確認画面340が表示される。この場合、表示されるメッセージは、「エキスポートしますか?」というメッセージである。
In FIG. 18, when the user selects the export in the selection box 321, a
次に、図20を参照して、図8のセンサ画像取得モジュール221によるセンサ画像取得処理を説明する。このセンサ画像取得処理は、例えば、ユーザが入力部206を操作することにより、センサ画像151の取得を指令したときに操作される。
Next, sensor image acquisition processing by the sensor
ステップS1において、センサ画像取得モジュール221は、センサカメラ121にセンサ画像151の取得を要求する。センサカメラ121のカメラ部122Aは、パンチルト部121Aを制御し、撮影方向の水平方向または垂直方向を調整しつつ、所定の撮影倍率で広範囲の領域を動画像として撮影する。そして、カメラ部122Aは、その結果得られる動画像であるセンサ画像151を、図示せぬクライアント返却用バッファに記憶する。センサカメラ121は、センサ画像取得モジュール221からの要求に応じて、クライアント返却用バッファに記憶されているセンサ画像151と、自分自身のカメラIDとを、センサ画像取得モジュール221に供給する。
In step S <b> 1, the sensor
ステップS1の処理後は、ステップS2に進み、センサ画像取得モジュール221は、センサカメラ121からセンサ画像とカメラIDとを取得して、ステップS3に進む。ステップS3において、センサ画像取得モジュール221は、動体検知モジュール222に、センサカメラ121からのセンサ画像151を入力し、ステップS4に進む。
After step S1, the process proceeds to step S2, where the sensor
ステップS4において、センサ画像取得モジュール221は、動体検知モジュール122から、ステップS3で入力したセンサ画像151に対応する動体の動体ID、発生位置、発生日時、および再生開始位置を取得し、ステップS5に進む。
In step S4, the sensor
ステップS5において、センサ画像取得モジュール221は、動体の発生位置を表示情報として、その表示情報とセンサ画像151を表示情報DB226に登録させる図21の表示情報登録処理を行う。
In step S5, the sensor
ステップS5の処理後は、ステップS6に進み、センサ画像取得モジュール221は、センサカメラ121のクライアント返却用バッファを更新し、ステップS7に進む。ステップS7において、センサ画像151上から消滅した動体はないかどうか、即ち動体検知モジュール222から消滅を検知した動体の動体IDと消滅日時が供給されていないかどうかを判定する。
After the process of step S5, the process proceeds to step S6, where the sensor
ステップS7において、センサ画像151上から消滅した動体があると判定された場合、ステップS8に進み、センサ画像取得モジュール221は、動体検知モジュール222から供給された消滅した動体の動体IDと消滅時刻、それに対応するステップS4で取得した発生日時、発生位置、および再生開始位置、並びにセンサカメラ121から供給されたカメラIDから構成される動体情報を、動体情報DB227に登録する図22の動体情報登録処理を行う。
If it is determined in step S7 that there is a moving object disappeared from the
ステップS7でセンサ画像151上から消滅した動体はないと判定された場合、またはステップS8の処理後は、ステップS9に進み、センサ画像取得モジュール221は、入力部206からセンサ画像151とズーム画像152の取得の終了が要求されたかどうか、即ちユーザが入力部206を操作することにより停止ボタン252Bを選択したかどうかを判定し、終了が要求されていないと判定した場合、ステップS1に戻り、上述した処理を繰り返す。
If it is determined in step S7 that no moving object has disappeared from the
一方、ステップS8において、入力部206からセンサ画像151とズーム画像152の取得の終了が要求されたと判定された場合、処理は終了する。
On the other hand, if it is determined in step S8 that the acquisition of the
次に、図21を参照して、図20のステップS5の表示情報登録処理を説明する。 Next, the display information registration process in step S5 in FIG. 20 will be described with reference to FIG.
ステップS21において、センサ画像取得モジュール221は、計時モジュール224から現在の日時を表す日時情報を取得し、ステップS22に進む。ステップS22において、センサ画像取得モジュール221は、録画実績情報DB229から、ステップS21で取得した日時情報が表す日時に対応するセンサフラグを読み出し、そのセンサフラグが、センサ画像151の記録の無を表す0であるかどうかを判定する。
In step S21, the sensor
ステップS22において、センサフラグが0であると判定された場合、ステップS23に進み、センサ画像取得モジュール221は、センサフラグを0から、センサ画像151の記録の有を表す1に変更して、ステップS24に進む。
If it is determined in step S22 that the sensor flag is 0, the process proceeds to step S23, and the sensor
一方、ステップS22において、センサ画像取得モジュール221は、センサフラグが0ではない、即ちセンサフラグが1であると判定した場合、ステップS23をスキップして、ステップS24に進む。
On the other hand, if the sensor
ステップS24において、センサ画像取得モジュール221は、後述するステップS26で作成された表示情報DB226のファイルに登録されているセンサ画像151のフレーム数を取得する。なお、最初のステップS21では、まだ表示情報DB226にファイルが作成されていないので、フレーム数を取得せずに、表示情報DB226にファイルを作成する。また、まだステップS26で新しいファイルが作成されていない場合、センサ画像取得モジュール221は、最初のステップS21で作成されたファイルに登録されているセンサ画像151のフレーム数を取得する。
In step S24, the sensor
ステップS25において、センサ画像取得モジュール221は、ステップS24で取得したフレーム数が、例えば予めユーザにより設定された所定の閾値を越えたかどうかを判定し、超えたと判定した場合、ステップS26に進み、表示情報DB226に新しいファイルを作成する。
In step S25, the sensor
ステップS25において、ステップS24で取得したフレーム数が、所定の閾値を超えていないと判定された場合、またはステップS26の処理後は、ステップS27に進み、センサ画像取得モジュール221は、ステップS26において作成された表示情報DB226の最新のファイルに、センサ画像151に対応づけて表示情報を登録する。即ち、表示情報DB226では、センサ画像151の所定のフレーム数ごとに、そのセンサ画像151と対応する表示情報がファイルとして記憶される。そして、処理は、図20のステップS5に戻り、ステップS6に進む。
If it is determined in step S25 that the number of frames acquired in step S24 does not exceed the predetermined threshold value, or after the processing in step S26, the process proceeds to step S27, and the sensor
以上のように、センサ画像151と対応する表示情報が、センサ画像151のフレーム数ごとに1つのファイルとして記憶されるので、再生モジュール231は、再生対象となるセンサ画像151を素早く検索することができる。
As described above, since the display information corresponding to the
図22を参照して、図20のステップS8の動体情報登録処理を説明する。 With reference to FIG. 22, the moving body information registration process of step S8 of FIG. 20 will be described.
ステップS41において、センサ画像取得モジュール221は、図20のステップS4で取得した発生日時の管理時間帯に対応するファイルが動体情報DB227にないかどうか、即ち後述するステップS42で発生日時の管理時間帯に対応するファイルが作成されていないかどうかを判定し、発生日時の管理時間帯に対応するファイルがあると判定された場合、ステップS42に進む。
In step S41, the sensor
ステップS42において、センサ画像取得モジュール221は、発生日時の管理時間帯に対応するファイルを作成する。例えば、発生日時が2004年1月10日10時である場合、2004年1月10日の10時から11時の管理時間帯に対応するファイルを動体情報DB227に作成する。
In step S42, the sensor
一方、ステップS41において、発生日時の管理時間帯に対応するファイルが動体情報DB227にあると判定された場合、ステップS42をスキップしてステップS43に進む。
On the other hand, when it is determined in step S41 that the file corresponding to the management time zone of the occurrence date / time is in the moving
ステップS43において、センサ画像取得モジュール221は、動体情報DB227の発生日時の管理時間帯に対応するファイルに動体情報を登録して、図20のステップS8に戻り、ステップS9に進む。
In step S43, the sensor
次に、図23を参照して、動体検知モジュール222による動体検知処理を説明する。
この動体検知処理は、図20のステップS3でセンサ画像取得モジュール221からセンサ画像151が供給されたとき、開始される。
Next, the moving object detection process by the moving
This moving object detection process is started when the
ステップS61において、動体検知モジュール222は、センサ画像取得モジュール221からのセンサ画像151から、新しい動体の発生を検知したかどうかを判定する。具体的には、動体検知モジュール222は、いまセンサ画像取得モジュール221から供給されたセンサ画像151と、その直前に取得されたセンサ画像151との輝度レベルの差分値を求める。そして、動体検知モジュール222は、その輝度レベルの差分値が、予め製造元により製造時に設定された閾値を越えている場合、その輝度レベルに対応するセンサ画像151を構成する画素の集まりを動体として検知する。また、動体検知モジュール222は、例えば、その輝度レベルの差分値と動体として検知された画素の集まりなどに基づいて、いま検知した動体がいままでに検知されていなかった新しい動体であるかどうかを判定する。
In step S <b> 61, the moving
ステップS61において、新しい動体の発生を検知した場合、動体検知モジュール222は、その新しい動体に動体IDを付与し、ステップS62に進み、ステップS61で動体として検知した画素の集まりから、動体枠172を決定し、その動体枠172の頂点A乃至Dの座標を、発生位置として認識する。また、動体検知モジュール222は、計時モジュール224から供給される日時情報に基づいて、ステップS61で動体を検知したときの日時を発生日時として認識する。
In step S61, when the occurrence of a new moving object is detected, the moving
さらに、動体検知モジュール222は、新しい動体の発生を検知したセンサ画像151のフレームの、先頭のフレームからの位置を、その動体に対応するセンサ画像151を再生するときの再生開始位置として認識する。動体検知モジュール222は、発生を検知した新しい動体の動体ID、発生日時、発生位置、および再生開始位置をセンサ画像取得モジュール221に供給する。センサ画像取得モジュール221は、その動体ID、発生日時、発生位置、および再生開始位置を、図20のステップS4において取得する。
Furthermore, the moving
ステップS62の処理後は、ステップS63に進み、動体検知モジュール222は、検知した動体の付与される動体ID、発生日時、および発生位置からなる追跡対象情報を、追跡対象情報管理DB225に記憶させる。即ち、動体検知モジュール222は、追跡対象情報管理DB225を更新する。
After the processing of step S62, the process proceeds to step S63, and the moving
ここで、動体検知モジュール222は、検知した動体のズーム撮影に対する優先順位を決定し、優先順位の高い順に、先頭から追跡対象情報を追跡対象情報管理DB225に記憶させる。
Here, the moving
動体検知モジュール222が優先順位を決定する方法としては、以下の6つの方法がある。
There are the following six methods for the moving
第1の方法は、新しく発生が検知された動体の優先順位が、既に検知されている動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、新しく発生が検知された動体のズーム画像152が優先的に取得されるので、例えば侵入者のズーム画像152が取得され易くなり、侵入者を容易に発見することができる。
The first method is a method of determining the priority order so that the priority order of a moving object that is newly detected is higher than the priority order of a moving object that has already been detected. In this case, since the
第2の方法は、高い位置にある動体の優先順位が、低い位置にある動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、高い位置にある動体のズーム画像152が優先的に取得されるので、一般的に、高い位置にある人間の顔のズーム撮影が取得され易くなり、侵入者を容易に特定することができる。
The second method is a method of determining the priority order so that the priority order of the moving object at the higher position is higher than the priority order of the moving object at the lower position. In this case, since the
第3の方法は、低い位置にある動体の優先順位が、高い位置にある動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、低い位置にある動体のズーム画像152が優先的に取得されるので、屋外のビルの上などの高い位置にセンサカメラ121が設置されている場合に、空や、ビルなどの高い場所よりも比較的近くにある人間や車両などのズーム画像152が取得され易くなる。
The third method is a method of determining the priority order so that the priority order of the moving object at the lower position is higher than the priority order of the moving object at the higher position. In this case, since the
第4の方法は、サイズの大きい動体の優先順位が、サイズの小さい動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、サイズの大きい動体のズーム画像152が優先的に取得されるので、遠方にある動体よりも、近傍にある動体のズーム画像152が取得され易くなる。
The fourth method is a method of determining the priority order so that the priority order of a moving object having a large size is higher than the priority order of a moving object having a small size. In this case, since the
第5の方法は、サイズの小さい動体の優先順位が、サイズの大きい動体の優先順位に比べて高くなるように優先順位を決定する方法である。この場合、サイズの小さい動体のズーム画像152が優先的に取得されるので、近傍にある動体よりも、遠方にある人間や車両などの動体のズーム画像152が取得され易くなる。
The fifth method is a method of determining the priority order so that the priority order of the moving object having a small size is higher than the priority order of the moving object having a large size. In this case, since the
第6の方法は、縦長の動体の優先順位が高くなるように優先順位を決定する方法である。この場合、縦長の動体のズーム画像152が優先的に取得されるので、一般的に縦長の動体となる人間の全身のズーム画像152が取得されやすくなる。
The sixth method is a method of determining the priority order so that the priority order of the vertically long moving object becomes higher. In this case, since the
以上のような第1乃至第6の優先順位を決定する方法は、例えば、ユーザの入力部206の操作により選択することができる。動体検知モジュール222は、ユーザにより選択された第1乃至第6の方法のいずれかにしたがって、検知した動体のズーム撮影に対する優先順位を決定する。
The method for determining the first to sixth priorities as described above can be selected by, for example, operating the
ステップS63の処理後は、ステップS64に進み、動体検知モジュール222は、センサ画像取得モジュール221からのセンサ画像151上に消滅した動体があるかどうかを判定する。具体的には、動体検知モジュール222は、いまセンサ画像取得モジュール221から供給されたセンサ画像151と、その直前に取得されたセンサ画像151との輝度レベルの差分値に基づいて、ステップS61で検知したが、まだ消滅を検知していない動体のうち、センサ画像151上から消滅した動体があるかどうかを判定する。
After the process of step S63, the process proceeds to step S64, and the moving
ステップS64において、センサ画像取得モジュール221は、消滅した動体がないと判定さした場合、ステップS61に戻り、上述した処理を繰り返す。
In step S64, if the sensor
また、ステップS64において、消滅した動体があると判定された場合、ステップS65に進み、動体検知モジュール222は、計時モジュール224からの日時情報に基づいて、その日時情報が表す日時を消滅日時として認識し、その消滅日時と消滅した動体の動体IDとをセンサ画像取得モジュール221に供給して、ステップS61に戻る。
If it is determined in step S64 that there is a disappeared moving object, the process proceeds to step S65, and the moving
図24を参照して、追跡対象画像取得モジュール223によるズーム画像取得処理を説明する。このズーム画像取得処理は、例えば、図23のステップS63で追跡対象情報管理DB225が更新されたときに開始される。
With reference to FIG. 24, zoom image acquisition processing by the tracking target
ステップS81において、追跡対象画像取得モジュール223は、追跡対象情報管理DB225から、ステップS63で記憶された追跡対象情報のうち、優先順位の最も高い動体の追跡対象情報、即ち先頭の追跡対象情報を取得する。なお、追跡対象情報管理DB225は、追跡対象画像取得モジュール223により追跡対象情報が取得されると更新され、その追跡対象情報が追跡対象情報管理DB225から削除される。即ち、追跡対象情報管理DBの先頭の追跡対象情報が、常に優先順位が最も高くなる。
In step S81, the tracking target
ステップS81の処理後は、ステップS82に進み、追跡対象画像取得モジュール223は、追跡対象情報の動体の発生位置に基づいて、動体の発生位置を含む領域がズームカメラ122により撮影されるように、撮影画角の位置と大きさを決定する。追跡対象画像取得モジュール223は、撮影画角の位置の変化量(動体の移動速度)と大きさから撮影倍率を決定する。
After the processing of step S81, the process proceeds to step S82, and the tracking target
ステップS82の処理後は、ステップS83に進み、追跡対象画像取得モジュール223は、撮影画角の位置の変化量と撮影画角の位置からパンチルト値を決定し、ステップS84に進む。
After the process of step S82, the process proceeds to step S83, where the tracking target
ステップS84において、追跡対象画像取得モジュール223は、ステップS83で決定されたパンチルト値に基づいて、ズームカメラ122にパンチルト(の移動)の実行を要求する。ズームカメラ122のカメラ部122Bは、その要求に応じて、パンチルト部122Aを制御し、パンとチルトに自分自身を移動させる。
In step S84, the tracking target
ステップS84の処理後は、ステップS85に進み、追跡対象画像取得モジュール223は、ステップS82で決定された撮影倍率に基づくズーム撮影を、ズームカメラ122に要求する。ズームカメラ122は、その要求に応じてズーム撮影を行い、その結果得られるズーム画像151を、追跡対象画像取得モジュール223に供給する。
After the process of step S84, the process proceeds to step S85, and the tracking target
ステップS85の処理後は、ステップS86に進み、追跡対象画像取得モジュール223は、ズームカメラ122から供給されるズーム画像151を取得し、ステップS87に進む。
After the process of step S85, the process proceeds to step S86, where the tracking target
ステップS87において、追跡対象画像取得モジュール223は、ステップS87で取得したズーム画像151を、ステップS81で取得した追跡対象情報の動体IDと対応付けて、所定のファイルとして表示情報DB226に登録する。
In step S87, the tracking target
ステップS87の処理後は、ステップS88に進み、追跡対象画像取得モジュール223は、ステップS81で取得した追跡対象情報の動体IDと、ズーム画像151を所定のタイミングでキャプチャしたズーム静止画像272Cとからなる動体ログ情報を、動体ログ情報DB228に登録する図25の動体ログ情報登録処理を行い、ステップS81に戻る。
After the processing in step S87, the process proceeds to step S88, and the tracking target
図25を参照して、図24のステップS88の動体ログ情報登録処理について説明する。 With reference to FIG. 25, the moving body log information registration process of step S88 of FIG. 24 is demonstrated.
ステップS101において、追跡対象画像取得モジュール223は、計時モジュール224から現在の日時を表す日時情報を取得し、ステップS102に進む。
In step S101, the tracking target
ステップS102において、追跡対象画像取得モジュール223は、ステップS101で取得した日時情報に基づいて、動体ログ情報DB228に、現在の日時を含む管理時間帯に対応する、後述するステップS103で作成されたファイルが記憶されていないかどうかを判定する。
In step S102, the tracking target
ステップS103において、動体ログ情報DB228に、現在の日時を含む管理時間帯に対応するファイルが記憶されていないと判定された場合、ステップS103に進み、追跡対象画像取得モジュール223は、現在の日時を含む管理時間帯に対応するファイルを作成し、動体ログ情報DB228に記憶させ、ステップS104に進む。
If it is determined in step S103 that the moving body
一方、ステップS102において、動体ログ情報DB228に、現在の日時を含む管理時間帯に対応するファイルが記憶されていると判定された場合、処理はステップS103をスキップして、ステップS104に進む。
On the other hand, if it is determined in step S102 that the moving body
ステップS104において、追跡対象画像取得モジュール223は、動体ログ情報DB228に、図24のステップS81で取得した追跡対象情報の動体IDと、ステップS86で取得したズーム画像152を所定のタイミングでキャプチャしたズーム静止画像272Cとからなる動体ログ情報を登録する。このように、ズーム静止画像272Cが、動体情報とは別に登録されるので、動体情報DB227に記憶されているデータの容量が少なくて済み、所定の動体情報を動体情報DB227から素早く検索することができる。
In step S104, the tracking target
ステップS104の処理後は、ステップS105に進み、追跡対象画像取得モジュール223は、録画実績情報DB229の、ステップS101で取得した日時情報が表す日時を含む管理時間帯に対応する録画実績情報のズームフラグが、ズーム画像152の記録の無を表す0であるかどうかを判定する。
After the processing in step S104, the process proceeds to step S105, and the tracking target
ステップS105において、録画実績情報のズームフラグが0であると判定された場合、ステップS106に進み、追跡対象画像取得モジュール223は、ズームフラグを、ズーム画像152の記録の有を表す1に変更し、図24のステップS88に戻る。
If it is determined in step S105 that the zoom flag of the recording record information is 0, the process proceeds to step S106, and the tracking target
一方、ステップS105において、録画実績情報のズームフラグが「0」ではない、即ちズームフラグが「1」であると判定された場合、処理は終了する。 On the other hand, if it is determined in step S105 that the zoom flag of the recording record information is not “0”, that is, the zoom flag is “1”, the process ends.
次に、図26を参照して、図8の動体ログモジュール230による図15や図16の画面270の表示処理を説明する。この表示処理は、例えば、ユーザが入力部206を操作して図14のプレイバックボタン252Aまたは図17のライブボタン301Aを選択し、その操作に応じて入力部206から動体ログの表示の指令が供給されたとき、開始される。
Next, with reference to FIG. 26, the display processing of the
ステップS121において、動体ログモジュール230は、図15の録画実績表示部271を表示する後述する図28の録画実績情報画面表示処理を行い、ステップS122に進む。
In step S121, the moving
ステップS122において、動体ログモジュール230は、図15の動体ログ表示部272動体数グラフ273を表示する後述する図29の動体数グラフ表示処理を行い、ステップS123に進む。
In step S122, the moving
ステップS123において、動体ログモジュール230は、動体情報DB227から、ターゲット時間帯に対応するファイルを読み出し、そのファイルに登録されている動体情報に対応する動体の数に基づいて、タブ272Aが表すページの数を求める。具体的には、動体ログモジュール230は、動体情報DB227から読み出したファイルに登録されている動体情報に対応する動体の数から、動体ログ表示部272に1度に表示可能なサムネイル表示部272Bの数Kmax(例えば、図15の例の場合、Kmax=7×5=35)、即ち動体ログ表示部272の1ページに表示可能なサムネイル表示部272Bの数Kmaxを除算した値を、ページ数として求める。なお、除算した値の小数点以下は繰り上げされる。
In step S123, the moving
ステップS124において、動体ログモジュール230は、表示する動体ログ表示部272のページ番号である表示ページ番号Nを1に設定する。即ち、画面270には、動体ログ表示部272の1ページ目が表示される。ステップS124の処理後は、ステップS125に進み、動体ログモジュール230は、表示カウント値Kを0に設定し、ステップS126に進む。
In step S124, the moving
ステップS126において、動体ログモジュール230は、画面270の動体ログ表示部272を表示させる後述する図30の動体ログ表示部表示処理を行い、ステップS127に進む。
In step S126, the moving
ステップS127において、動体ログモジュール230は、ユーザにより動体ログ表示部272が指示されたかどうか、即ちユーザの操作に応じて、入力部206から動体ログ表示部272の指示を表す指示情報が供給されたかどうかを判定する。ユーザは、動体ログ表示部272を見ながら、所望の動体のズーム静止画像272Cが表示されているサムネイル表示部272Bを指示することにより、その動体を含むセンサ画像151とズーム画像152の再生を指令する。
In step S127, the moving
ステップS127において、ユーザにより動体ログ表示部272が指示されたと判定された場合、ステップS128に進み、動体ログモジュール230は、ユーザにより指示された位置の動体ログ表示部272上の座標を認識する。
If it is determined in step S127 that the moving object
ステップS129において、動体ログモジュール230は、ステップS128で認識したユーザにより指示された位置の座標に基づいて、ユーザにより指示された位置がサムネイル表示部272B内であるか、即ちユーザがサムネイル表示部272Bのいずれか1つを指示したかどうかを判定する。
In step S129, the moving
ステップS129において、ユーザにより指示された位置がサムネイル表示部272B内ではないと判定された場合、処理はステップS127に戻る。
If it is determined in step S129 that the position instructed by the user is not in the
一方、ステップS129において、ユーザにより指示された位置がサムネイル表示部272B内であると判定された場合、ステップS130に進み、動体ログモジュール230は、そのサムネイル表示部272Bに表示されているズーム静止画像272Cの発生日時を再生モジュール231に出力し、処理を終了する。具体的には、図15の画面270において、ユーザが入力部206を操作して、サムネイル表示部272B内の位置を指示した場合、動体ログモジュール230は、サムネイル表示部272B内に表示されているズーム静止画像272Cに対応する動体IDを、動体ログ情報DB228から読み出す。そして、動体ログモジュール230は、その動体IDに対応する動体情報の発生日時を読み出し、再生モジュール231に出力して、処理を終了する。
On the other hand, if it is determined in step S129 that the position instructed by the user is in the
また、ステップS127において、ユーザにより動体ログ表示部272が指示されていないと判定された場合、ステップS131に進み、動体ログモジュール230は、ユーザによりタブ272Aが選択されたかどうかを判定する。具体的には、ユーザは、画面270に表示される動体ログ表示部272のページを変更する場合、入力部206を操作し、所望のページ番号Ncを表すタブ272Aを選択する。入力部206は、その操作に応じて、表示ページ番号Nのページ番号Ncへの変更の指令を、動体ログ表示部272に供給する。動体ログ表示部272は、入力部206から表示ページ番号Nのページ番号Ncへの変更の指令が供給されたかどうかを判定する。
If it is determined in step S127 that the moving body
ステップS131において、ユーザによりタブ272Aが選択された、即ち入力部206から表示ページ番号Nのページ番号Ncへの変更の指令が供給された場合、ステップS132に進み、表示ページ番号Nを、ユーザの所望のページ番号Ncにする。
In step S131, when the user selects the
ステップS132の処理後は、ステップS133に進み、動体ログモジュール230は、表示カウント値Kを0に設定し、ステップS126に戻り、動体ログ表示部272の表示が更新される。
After the process of step S132, the process proceeds to step S133, the moving
一方、ステップS131において、ユーザによりタブ272Aが選択されていない、即ち入力部206から表示ページ番号Nのページ番号Ncへの変更の指令が供給されていない場合、ステップS134に進み、動体ログモジュール230は、ターゲット時間帯が変更されたかどうかを判定する。
On the other hand, if the user does not select the
具体的には、ユーザは、ターゲット時間帯を変更する場合、入力部206(例えば、キーボードの上下矢印キー)を操作し、録画実績表示部271内の所望のターゲット時間帯に対応する位置を指示したり、ターゲット時間帯選択部274を操作して所望のターゲット時間帯を選択する。このとき、入力部206は、ユーザからの操作に応じて、ターゲット時間帯の変更の指令を動体ログモジュール230に供給する。動体ログモジュール230は、入力部206からターゲット時間帯の変更の指令が供給されたかどうかを判定する。
Specifically, when changing the target time zone, the user operates the input unit 206 (for example, the up and down arrow keys on the keyboard) to indicate the position corresponding to the desired target time zone in the recording
ステップS134において、ターゲット時間帯が変更された、即ち入力部206からターゲット時間帯の変更の指令が供給された場合、動体ログモジュール230は、録画実績表示部271のターゲット時間帯を表す日付表示部271Aの日付と時間表示部271Cの時間における位置の色を、所定の色(例えば、黄色)に変更し、ステップS126に戻り、動体ログ表示部272の表示が更新される。
In step S134, when the target time zone is changed, that is, when a command for changing the target time zone is supplied from the
また、ステップS134において、ターゲット時間帯が変更されていない、即ち入力部206からターゲット時間帯の変更の指令が供給されていない場合、ステップS135に進み、動体ログモジュール230は、ターゲット週間が変更されたかどうかを判定する。
In step S134, if the target time zone has not been changed, that is, if the command for changing the target time zone has not been supplied from the
具体的には、ユーザは、ターゲット週間を変更する場合、入力部206を操作し、図15の録画実績表示部271のターゲット週間選択部271Bを操作して所望のターゲット週間を選択する。このとき、入力部206は、ユーザからの操作に応じて、ターゲット週間の変更の指令を動体ログモジュール230に供給する。動体ログモジュール230は、入力部206からターゲット週間の変更の指令が供給されたかどうかを判定する。なお、日付表示部271Aに表示されている日付が現在の週の日付である場合、ユーザがターゲット週間選択部271Bを操作して、次の週をターゲット週間として選択するとき、その操作は無効となる。
Specifically, when changing the target week, the user operates the
ステップS135において、ターゲット週間が変更された、即ち入力部206からターゲット週間の変更の指令が供給された場合、動体ログモジュール230は、ステップS121に戻り、上述した処理を繰り返す。
In step S135, when the target week is changed, that is, when the command for changing the target week is supplied from the
一方、ステップS135において、ターゲット週間が変更されていない、即ち入力部206からターゲット週間の変更の指令が供給されていない場合、図27のステップS136に進み、OKボタン276が操作されたかどうかを判定する。
On the other hand, if the target week is not changed in step S135, that is, if the command for changing the target week is not supplied from the
具体的には、ユーザは、再生対象とするセンサ画像151とズーム画像152に対応する動体の発生日時を決定している場合、入力部206を操作し、再生時刻選択部275を操作して、その発生日時(の時刻)を選択する。その後、ユーザは、入力部206を操作して、OKボタン276を操作する。このとき、入力部206は、ユーザからの操作に応じて、OKボタン276の操作を表す情報を動体ログモジュール230に供給し、動体ログモジュール230は、入力部206からOKボタン276の操作を表す情報が供給されたかどうかを判定する。
Specifically, when the user determines the occurrence date and time of the moving object corresponding to the
ステップS136において、OKボタン276が操作されていない、即ち入力部206からOKボタン276の操作を表す情報が供給されていない場合、ステップS127に戻り、動体ログモジュール230は、上述した処理を繰り返す。
If the
また、ステップS136において、OKボタン276が操作された、即ち入力部206からOKボタン276の操作を表す情報が供給された場合、ステップS137に進み、動体ログモジュール230は、動体情報DB227から、発生日時として、ユーザにより選択された発生日時の時刻(図15の例では、17時30分)と、録画実績表示部271の領域271Eに対応する日付(図5の例では、2005年1月13日)とを含む動体情報を読み出し、再生モジュール231に出力する。
If the
ステップS137の処理後は、ステップS138に進み、動体ログモジュール230は、ユーザによりクローズボタン277が操作されたかどうか、即ちユーザの操作に応じて、入力部205からクローズボタン277の操作を表す情報が供給されたかどうかを判定する。
After the process of step S137, the process proceeds to step S138, and the moving
ステップS138において、ユーザによりクローズボタン277が操作されていない場合、ステップS127に戻り、上述した処理を繰り返す。一方、ステップS138において、クローズボタン277が操作された場合、動体ログモジュール230は、画面270の表示を停止し、処理を終了する。
In step S138, when the
次に、図28を参照して、図26のステップS121の録画実績情報画面表示処理を説明する。 Next, with reference to FIG. 28, the recording performance information screen display process in step S121 of FIG. 26 will be described.
ステップS151において、動体ログモジュール230は、ターゲット週間を、図26のステップS135で変更されたターゲット週間に設定する。なお、最初のステップS151では、動体ログモジュール230は、例えば、計時モジュール224から供給される日時情報に基づいて、ユーザにより図14のプレイバックボタン252Aまたは図17のライブボタン301Aが操作されたときの日時を認識し、その日時を含む所定の時間をターゲット時間帯に設定する。また、動体ログモジュール230は、その日付を含む1週間を、ターゲット週間に設定する。
In step S151, the moving
なお、ユーザによりライブボタン301Aが操作されたときは、動体ログモジュール230が、その時点でセンサ画像表示部251とズーム画像表示部253(図17)に表示しているセンサ画像151とズーム画像152に対応する動体の発生日時を含む所定の時間をターゲット時間帯に設定し、その発生日を含む1週間を、ターゲット週間に設定するようにしてもよい。
When the
ステップS151の処理後は、ステップS152に進み、動体ログモジュール230は、ステップS151で設定したターゲット週間を日付表示部271Aに表示させ、ステップS153に進む。ステップS153において、動体ログモジュール230は、録画実績情報DB229から、ターゲット週間の録画実績情報を取得し、ステップS154に進む。
After the processing in step S151, the process proceeds to step S152, and the moving
ステップS154において、動体ログモジュール230は、ステップS153で取得した録画実績情報に基づいて、センサ画像151とズーム画像152の記録(録画)の有無を表す録画実績を、録画実績表示部271に表示させる。具体的には、動体ログモジュール230は、録画実績情報のセンサフラグとズームフラグに基づいて、録画実績情報に対応する日時を表す日付表示部271Aの日付と時間表示部271Cの時間における位置に、「センサ画像151とズーム画像152のいずれの記録も無し」を透明で、「センサ画像151のみ有り」を水色で、「センサ画像151とズーム画像152の両方有り」を青色で表す。
In step S154, the moving
ステップS154の処理後は、ステップS155に進み、動体ログモジュール230は、ターゲット時間帯を、ターゲット時間帯選択部274に表示させるとともに、録画実績表示部271のターゲット時間帯を表す日付表示部271Aの日付と時間表示部271Cの時間における位置の色を、所定の色(例えば、黄色)に変更する。
After the processing of step S154, the process proceeds to step S155, and the moving
ステップS155の処理後は、ステップS156に進み、動体ログモジュール230は、再生時刻選択部275を表示させる。例えば、再生時刻選択部275には、ターゲット時間帯の最初の時刻が表示される。
After the process of step S155, it progresses to step S156 and the moving
ステップS156の処理後は、ステップS157に進み、動体ログモジュール230は、OKボタン276とクローズボタン277を表示させ、図26のステップS121に戻り、ステップS122に進む。
After the processing of step S156, the process proceeds to step S157, and the moving
次に、図29を参照して、図26のステップS122の動体数グラフ表示処理を説明する。 Next, with reference to FIG. 29, the moving object number graph display process of step S122 of FIG. 26 will be described.
ステップS171において、動体ログモジュール230は、動体情報DB227から、ターゲット時間帯を含む管理時間帯の動体情報を取得し、ステップS172に進む。
In step S171, the moving
ステップS172において、動体ログモジュール230は、ステップS171で取得した動体情報に基づいて、1分当たりに発生した最大の動体の数を求める。例えば、図10の動体情報が取得される場合、10時と10時5分に1つずつ動体が発生しているので、1分当たりに発生した最大の動体の数は1である。
In step S172, the moving
ステップS172の処理後は、ステップS173に進み、動体ログモジュール230は、1分ごとに発生した動体の数と、ステップS172で求めた最大の動体の数との比を、1分ごとに求め、ステップS174に進む。
After the process of step S172, the process proceeds to step S173, and the moving
ステップS174において、動体ログモジュール230は、管理時間帯、ステップS172で求めた最大の動体の数、およびステップS173で求めた比に基づいて、動体数グラフ表示部273に、横軸が管理時間帯を、縦軸が動体の数を表す動体数グラフを表示させる。例えば、ステップS172で求めた最大の動体の数が26である場合、動体ログモジュール230は、図15に示したように動体数グラフの縦軸の最大値を26に設定し、管理時間帯の1分ごとに、ステップS173で求めた比に対応する高さの棒を、動体数グラフとして表示させる。なお、サムネイル表示部272Bに表示されているすべての発生時刻に対応する棒を、他の棒と異なる色で表示させるようにしてもよい。これにより、ユーザは、サムネイル表示部272Bに表示されているズーム静止画像272Cが、動体数グラフのどこに位置しているかを容易に認識することができる。ステップS174の処理後は、図26のステップS122に戻り、処理はステップS123に進む。
In step S174, the moving
次に、図30を参照して、図26のステップS126の動体ログ表示部表示処理を説明する。 Next, the moving body log display unit display process in step S126 of FIG. 26 will be described with reference to FIG.
ステップS191において、動体ログモジュール230は、動体情報DB227から、ターゲット時間帯の動体情報を取得し、その動体情報に先頭からM(=Kmax×(N−1)+K+1)番目の動体情報があるかどうかを判定する。
In step S191, the moving
ステップS191において、先頭からM番目の動体情報があると判定された場合、ステップS192に進み、動体ログモジュール230は、その動体情報に含まれる動体IDに対応する動体ログ情報を、動体ログ情報DB228から読み出し、その動体ログ情報のズーム静止画像272Cを、サムネイル表示部272Bの表示対象として選択する。
If it is determined in step S191 that there is the Mth moving body information from the beginning, the process proceeds to step S192, and the moving
ステップS192の処理後は、ステップS193に進み、動体ログモジュール230は、表示カウント値Kに基づいて、ステップS192で選択した表示対象を表示するサムネイル表示部272Bを決定する。例えば、サムネイル表示部272Bには、そこに表示するズーム静止画像272Cに対応する表示カウント値Kが、ユーザにより予め設定されている。例えば、ユーザは動体ログ表示部272の左上のサムネイル表示部272Bから順に、右下方向にいくほど、表示カウント値Kが大になるように設定する。この場合、図15に示したように、動体ログ表示部272の横方向にサムネイル表示部272Bが7個並べられる場合、表示カウント値Kが2に設定されているとき、一番上の左から2番目のサムネイル表示部272Bが、表示対象を表示するサムネイル表示部272Bに決定される。
After the processing in step S192, the process proceeds to step S193, and the moving
ステップS193の処理後は、ステップS194に進み、動体ログモジュール230は、ステップS193で決定したサムネイル表示部272Bに、表示対象のズーム静止画像272Cを表示させる。なお、動体ログ情報DB228に、対応する動体ログ情報がない場合、ステップS193で決定したサムネイル表示部272Bには、何も表示されない。
After the process of step S193, the process proceeds to step S194, and the moving
ステップS194の処理後は、ステップS195に進み、動体ログモジュール230は、ステップS191で取得した動体情報のうちの、先頭からM番目の動体情報のカメラIDに基づいて、発生日時の表示色を決定する。例えば、動体ログモジュール230は、カメラIDごとに、異なる表示色を決定する。
After the process of step S194, the process proceeds to step S195, and the moving
ステップS195の処理後は、ステップS196に進み、動体ログモジュール230は、ステップS191で取得した動体情報のうちの、先頭からM番目の動体情報の発生日時の時刻を、発生日時として、サムネイル表示部272Bに、ステップS195で決定した表示色で表示させる。
After the processing of step S195, the process proceeds to step S196, and the moving
ステップS196の処理後は、ステップS197に進み、動体ログモジュール230は、表示カウント値Kが、動体ログ表示部272に1度に表示可能なサムネイル表示部272Bの数Kmaxより小であるかどうかを判定し、小であると判定した場合、ステップS198に進む。
After the process of step S196, the process proceeds to step S197, and the moving
ステップS198において、動体ログモジュール230は、表示カウント値Kを1だけインクリメントして、ステップS191に戻り、上述した処理を繰り返す。
In step S198, the moving
ステップS191で先頭からM番目の動体情報がないと判定された場合、またはステップS197で表示カウント値Kが、動体ログ表示部272に1度に表示可能なサムネイル表示部272Bの数Kmaxより小ではないと判定された場合、図26のステップS126に戻り、処理はステップS127に進む。
If it is determined in step S191 that there is no M-th moving body information from the top, or if the display count value K is smaller than the number Kmax of
次に、図31を参照して、図8の再生モジュール231によるセンサ画像151とズーム画像152の再生処理について説明する。この再生処理は、例えば、図26のステップS130または図27のS137で動体ログモジュール230から、再生対象とするセンサ画像151とズーム画像152に対応する動体の発生日時が供給されたとき、開始される。なお、このとき、再生モジュール231は、図17の画面300を出力部207に表示させる。
Next, with reference to FIG. 31, the reproduction process of the
ステップS211において、再生モジュール231は、動体ログDB227から、動体ログモジュール230から供給される発生日時を含む管理時間帯に対応するファイルを読み出し、そのファイルに登録されている、その発生日時を含む動体情報から再生開始位置と動体IDを取得する。
In step S211, the
ステップS211の処理後は、ステップS212に進み、再生モジュール231は、ステップS211で取得した再生開始位置と動体IDに基づいて、表示情報DB226から、その再生開始位置以降のセンサ画像151と、その動体IDに対応付けられているズーム画像152とを順次再生し、それぞれセンサ画像表示部251(図17)とズーム画像表示部253に表示させ、処理を終了する。
After the processing in step S211, the process proceeds to step S212, and the
次に、図32を参照して、クライアント132によるセンサ画像151とズーム画像152の編集処理を説明する。この編集処理は、例えば、ユーザが入力部206を操作し、図18の日付表示部271Aを選択したとき、開始される。
Next, editing processing of the
ステップS231において、動体ログモジュール230は、ユーザの操作に応じて入力部206から供給される日付表示部271Aの選択を表す情報に応じて、ユーザが選択した日付表示部271Aの日付を取得し、ステップS232に進む。
In step S231, the moving
ステップS232において、動体ログモジュール230は、計時モジュール224からの日時情報に基づいて、ステップS231で取得した日付が、現在の日付以前であるかどうかを判定し、現在の日付以前ではないと判定した場合、ステップS233に進む。
In step S232, the moving
ステップS233において、動体ログモジュール230は、削除またはエキスポートすることができない旨を表すエラーメッセージを表示させ、処理を終了する。
In step S233, the moving
一方、ステップS234において、動体ログモジュール230は、ステップS231で取得した日付のセンサ画像151またはズーム画像152があるかどうかを判定する。具体的には、動体ログモジュール230は、録画実績情報DB229から、ステップS231で取得した日付の管理時間帯に対応するすべての録画実績情報を読み出し、その録画実績情報の少なくとも1つのセンサフラグまたはズームフラグが「1」であるかどうかを判定する。
On the other hand, in step S234, the moving
ステップS234において、センサ画像151またはズーム画像152がないと判定された場合、ステップS233に進み、上述した処理を行う。
If it is determined in step S234 that there is no
また、ステップS234において、センサ画像151またはズーム画像152があると判定された場合、ステップS235に進み、図18の削除またはエキスポートを選択する選択ボックス321を表示させ、ステップS236に進む。
If it is determined in step S234 that there is a
ステップS236において、動体ログモジュール230は、センサ画像151またはズーム画像152を削除するかどうか、即ちユーザが入力部206を操作することにより選択ボックス321の削除を選択したかどうかを判定する。
In step S236, the moving
ステップS236において、センサ画像151またはズーム画像152を削除しない、即ちユーザが入力部206を操作することにより選択ボックス321のエキスポートを選択した場合、ステップS237に進み、動体ログモジュール230は、エキスポート先のフォルダを選択するためのフォルダ選択画面を表示させる。ユーザは、入力部206を操作して、フォルダ選択画面から所望のフォルダを、エキスポート先として選択する。
If the
ステップS237の処理後は、ステップS238に進み、動体ログモジュール230は、ユーザにより選択されたフォルダにセンサ画像151またはズーム画像152をエキスポートすることができるかどうかを判定し、エキスポートすることができないと判定した場合、ステップS239に進む。
After the processing of step S237, the process proceeds to step S238, and the moving
ステップS239において、動体ログモジュール230は、エキスポートすることができない旨を表すエラーメッセージを表示させ、ステップS237に戻る。
In step S239, the moving
一方、ステップS238において、ユーザにより選択されたフォルダにセンサ画像151またはズーム画像152をエキスポートすることができると判定された場合、ステップS240に進み、動体ログモジュール230は、エキスポートするかどうかを確認するための確認画面340(図19)を表示させ、ステップS241に進む。
On the other hand, when it is determined in step S238 that the
ステップS241において、動体ログモジュール230は、ユーザによりOKボタン341が操作されたかどうかを判定し、OKボタン341が操作されたと判定した場合、ステップS242に進み、ステップS231で取得した日付と、ステップS237で選択されたエキスポート先とを再生モジュール231に供給する。再生モジュール231は、動体ログモジュール230からの日付に基づいて、その日付の管理時間帯に対応するファイルを、動体情報DB227から読み出し、そのファイルに登録されている再生開始位置と動体IDを認識する。再生モジュール231は、その再生開始位置と動体IDに基づいて、その再生開始位置に対応するセンサ画像151と、その動体IDに対応するズーム画像152とを、表示情報DB226から再生し、エキスポート先にエキスポートして、処理を終了する。
In step S241, the moving
また、ステップS241において、OKボタン341が操作されていない、即ちキャンセルボタン342が操作されたと判定された場合、ステップS242をスキップして、処理は終了する。
If it is determined in step S241 that the
ステップS236において、センサ画像151またはズーム画像152を削除する、即ちユーザが入力部206を操作することにより選択ボックス321の削除を選択した場合、ステップS244に進み、動体ログモジュール230は、ステップS241と同様に、削除するかどうかを確認するための確認画面340(図19)を表示させ、ステップS244に進む。
In step S236, when the
ステップS244において、動体ログモジュール230は、ステップS241と同様に、ユーザによりOKボタン341が操作されたかどうかを判定し、OKボタン341が操作されたと判定した場合、ステップS245に進み、ステップS231で取得した日付を再生モジュール231に供給する。再生モジュール231は、動体ログモジュール230からの日付に基づいて、その日付の管理時間帯に対応するファイルを、動体情報DB227から読み出し、そのファイルに登録されている再生開始位置と動体IDを認識する。再生モジュール231は、その再生開始位置と動体IDに基づいて、その再生開始位置に対応するセンサ画像151と、その動体IDに対応するズーム画像152とを、表示情報DB226から削除し、処理を終了する。
In step S244, the moving
また、ステップS244において、OKボタン341が操作されていない、即ちキャンセルボタン342が操作されたと判定された場合、ステップS245をスキップして、処理は終了する。
If it is determined in step S244 that the
なお、本実施の形態では、編集処理として、削除またはエキスポートをするようにしたが、これに限定されず、例えばセンサ画像151またはズーム画像152の圧縮をするようにしてもよい。また、ユーザにより選択された日付ごとに編集処理を行うこととしたが、ユーザに時間も選択させ、日時ごとに編集処理を行うようにしてもよい。
In the present embodiment, deletion or export is performed as the editing process. However, the present invention is not limited to this. For example, the
なお、上述した説明では、監視システム10は、センサ画像151とズーム画像152を記録するものとしたが、センサ画像151を記録せず、ズーム画像152のみを記録するようにしてもよい。また、ユーザが、入力部206を操作し、センサ画像151とズーム画像152を記録する全記録モードと、ズーム画像152のみを記録するズーム画像のみ記録モードのいずれかを選択するようにしてもよい。
In the above description, the monitoring system 10 records the
この場合のセンサ画像取得モジュール221によるセンサ画像取得処理を、図33を参照して説明する。
The sensor image acquisition process by the sensor
ステップS251乃至S254の処理は、図20のステップS1乃至S4の処理と同様であるので、説明は省略する。 The processing in steps S251 through S254 is the same as the processing in steps S1 through S4 in FIG.
ステップS254の処理後は、ステップS255に進み、センサ画像取得モジュール221は、記録モードがズーム画像のみ記録モードであるかどうかを判定する。具体的には、入力部206は、ユーザからの操作に応じて、全記録モードまたはズーム画像のみ記録モードの選択を表す情報をセンサ画像取得モジュール221に供給する。センサ画像取得モジュール221は、その情報に応じて、記録モードを全記録モードまたはズーム画像のみ記録モードに設定する。ステップS255において、センサ画像取得モジュール221は、いま設定されている記録モードがズーム画像のみ記録モードであるかどうかを判定する。
After the process of step S254, the process proceeds to step S255, and the sensor
ステップS255において、センサ画像取得モジュール221が、記録モードがズーム画像のみ記録モードではない、即ち記録モードが全記録モードであると判定した場合、ステップS256に進む。
If the sensor
一方、ステップS255において、センサ画像取得モジュール221が、記録モードがズーム画像のみ記録モードであると判定した場合、ステップS256をスキップして、ステップS257に進む。即ち、センサ画像取得モジュール221は、表示情報DB226にセンサ画像151を記録せず、録画実績情報DB229の録画実績情報のセンサフラグは、センサ画像151の記録の無を表す0のままである
On the other hand, when the sensor
ステップ256乃至S260の処理は、図20のステップS5乃至S9の処理と同様であるので、説明は省略する。 The processing in steps 256 to S260 is the same as the processing in steps S5 to S9 in FIG.
次に、図34を参照して、記録モードがズーム画像のみ記録モードである場合に、表示情報DB226に記憶されるデータの記憶容量を説明する。
Next, the storage capacity of data stored in the
図34に示すように、表示情報DB226には、動体の発生が検知された場合にのみズームカメラ122で取得されるズーム画像152のみが記録される。従って、図13に示したセンサ画像151とズーム画像152の両方が記録される場合に比べて、表示情報DB226に記録されるデータの容量をさらに削減することができる。
As shown in FIG. 34, the
なお、センサ画像151とズーム画像152に対応する動体のズーム撮影に対する優先順位に基づいて、優先順位が、例えば予めユーザにより設定された閾値以上である動体のセンサ画像151とズーム画像152のみが記録されるようにしてもよい。また、優先順位に基づいて、優先順位が閾値以上である動体のズーム画像152のみが記録されるようにしてもよい。
Note that only the moving
また、上述した動体検知モジュール222で検知される動体のサイズは、ユーザが入力部206を操作することにより設定するようにしてもよい。
Further, the size of the moving object detected by the moving
この場合、ユーザは、入力部206を操作することにより、図35に示すように、動体のサイズを設定するための画面401を出力部207に表示させる。
In this case, the user operates the
図35に示すように、テキストボックス411Aまたはスライダ412Aは、センサカメラ121で検知する動体の最小の水平方向(X方向)のサイズ(ピクセル)を設定するときに操作される。ユーザは、テキストボックス411Aを操作して数値を入力したり、スライダ412Aを操作して図中左右方向に移動させ、動体の最小の水平方向のサイズを設定する。
As shown in FIG. 35, the
テキストボックス411Bまたはスライダ412Bは、センサカメラ121で検知する動体の最小の垂直方向(Y方向)のサイズ(ピクセル)を設定するときに操作される。テキストボックス413Aまたはスライダ414Aは、センサカメラ121で検知する動体の最大の水平方向のサイズを、テキストボックス413Bまたはスライダ414Bは、最大の垂直方向のサイズを設定するときに操作される。
The text box 411 </ b> B or the slider 412 </ b> B is operated when setting the minimum vertical size (Y direction) size (pixels) of the moving object detected by the
テストボタン415は、設定した動体の最大および最小のサイズを、センサ画像151の被写体のサイズと視覚的に比較するときに操作される。ユーザによりテストボタン415が操作されると、図36に示すような画面421が出力部207に表示される。
The
図36に示すように、画面421には、例えば、センサ画像151を表示するセンサ画像表示部430、いま設定されている検知対象の動体の最大サイズを表示する最大サイズ部431、検知対象の動体の最小サイズを表示する最小サイズ部432が表示される。
As shown in FIG. 36, on the
ユーザは、例えば、センサ画像表示部430に表示されるセンサ画像151の人物433と、最大サイズ部431および最小サイズ部432とを視覚的に比較することにより、ユーザは、自分自身が設定した動体の最大および最小サイズが妥当な値であるかどうかを容易に確認することができる。
For example, the user visually compares the
図37は、図6の監視システム101の他の一実施の形態の構成例を示している。なお、図6と同一のものには、同一の符号を付してある。これは、後述する図38においても同様である。
FIG. 37 shows a configuration example of another embodiment of the
図37の監視システム101では、図6のセンサカメラ121の代わりに、360度全方位撮影がリアルタイムに可能な固定カメラ451を設けている。
In the
図38は、監視システム101のさらに他の一実施の形態の構成例を示している。
FIG. 38 shows a configuration example of still another embodiment of the
図38の監視システム101では、ネットワーク131に、さらに固定カメラ471が接続されている。この場合、クライアント132の動体検知モジュール222は、固定カメラ471による撮影の結果得られた動画像である固定画像における動体も検知し、動体ログモジュール230は、画面270のサムネイル表示部272B(図15)に動体に対応する固定画像を所定のタイミングでキャプチャした静止画像を表示させる。このとき、サムネイル表示部272に表示される発生日時の表示色(例えば、緑色または黄色)を、センサカメラ121により取得されたセンサ画像151に対応する発生日時の表示色(例えば、白色)とは異なるようにしてもよい。ユーザが、サムネイル表示部272Bに表示された静止画像を指定する場合、その静止画像に対応する固定画像が再生され、出力部207に表示される。
In the
以上のように、図38の監視システム101では、センサ画像151だけでなく、固定画像における動体も検知するので、監視する領域を増やすことができる。例えば、駐車場の料金所や入出口(ゲート)などの動体が多く発生する固定の領域を監視するために固定カメラ471を設置し、駐車場内の広範囲を監視するためにカメラユニット111を設置することにより、駐車場全体を確実に監視することが可能となる。
As described above, since the
なお、図8のクライアント132の各ブロックは、クライアント132ではなく、センサカメラ121またはズームカメラ122に設けられるようにしてもよい。
Each block of the
また、監視システム101の用途は、領域21の監視に限定されない。
Further, the use of the
さらに、センサカメラ121とズームカメラ122は、パンチルトカメラに限定されない。また、本実施の形態では、監視システム101は、センサカメラ121とズームカメラ122の2つのカメラを設けるようにしたが、カメラの数はこれに限定されず、例えば、1つのカメラでセンサ画像151とズーム画像152を取得するようにしてもよい。
Further, the
さらに、本実施の形態では、サムネイル表示部272に表示される発生日時の表示色は、センサカメラ121のカメラIDに基づいて決定されるようにしたが、ズームカメラ122のカメラIDに基づいて決定されるようにしまよい。この場合、動体ログ情報DB228には、動体ログ情報としてズームカメラ122のカメラIDも登録される。
Further, in the present embodiment, the display color of the occurrence date and time displayed on the
以上のように、監視システム101では、動体IDに対応付けたズーム画像152と動体IDに対応付けた再生開始位置とが、それぞれ動体ログ情報DB228と動体情報DB227に別々に記憶されるので、再生対象とするセンサ画像151に対応するズーム画像152が指定される場合、動体情報DB227に比べてデータ数の少ない動体ログ情報DB228から、そのズーム画像152に対応する動体IDを読み出し(検索し)、その動体IDに対応する再生開始位置を動体情報DB227から読み出して、その再生開始位置に基づいて表示情報DB226に記憶されているセンサ画像151を再生することができる。その結果、ユーザの所望するセンサ画像151を容易に再生することができる。
As described above, in the
また、監視システム101では、センサカメラ121による撮影の結果得られる、広範囲な領域21のセンサ画像151に基づいて、その領域21内の動体を検知し、その動体をズームカメラ122により撮影することができる。
Further, the
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。 Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
101 監視システム, 121 センサカメラ, 122 ズームカメラ, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 221 センサ画像取得モジュール, 222 動体検知モジュール, 223 追跡対象画像取得モジュール, 226 表示情報DB, 227 動体情報管理DB, 230 動体ログモジュール, 231 再生モジュール
DESCRIPTION OF
Claims (15)
前記撮像手段により取得された前記領域画像に基づいて、前記所定の領域内に存在する物体を検知する検知手段と、
前記領域画像、および、前記領域画像より画角が狭く、前記検知手段により検知された前記物体を含む物体画像を記憶する記憶手段と、
前記物体画像を表示画面に表示させる表示制御手段と、
前記表示画面に表示された前記物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む前記領域画像を再生するよう制御する再生制御手段と
を備える情報処理装置。 Imaging means for imaging a predetermined area and acquiring an area image;
Detection means for detecting an object present in the predetermined area based on the area image acquired by the imaging means;
Storage means for storing the area image, and an object image having a narrower angle of view than the area image and including the object detected by the detection means;
Display control means for displaying the object image on a display screen;
An information processing apparatus comprising: a reproduction control unit configured to control to reproduce the region image including an object included in the object image when a predetermined object image is designated among the object images displayed on the display screen. .
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the region image is a moving image.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the object image is a zoom image of the object.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the region image includes a plurality of the objects.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the object is a moving object.
をさらに備える
請求項1に記載の情報処理装置。 The information storage unit according to claim 1, further comprising: object information representing the object and reproduction information related to reproduction of the region image in which the object is detected in association with each other based on a detection result by the detection unit. Information processing device.
請求項1に記載の情報処理装置。 The display control means displays a recording performance display unit representing a recording performance in a predetermined time zone on a predetermined date on the display screen together with the object image, and the recording performance display portion in a predetermined time zone on a predetermined date. The information processing apparatus according to claim 1, wherein when a recording record is selected, the object image including the object detected in the time zone of the date is displayed on the display screen.
所定の領域の画像である領域画像に基づいて、前記所定の領域内に存在する物体を検知する検知手段と、
前記領域画像より画角が狭く、前記検知手段により検知された前記物体を含む物体画像を表示画面に表示させる表示制御手段と、
前記表示画面に表示された前記物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む前記領域画像を再生するよう制御する再生制御手段と
して機能させるプログラム。 Computer
Detecting means for detecting an object existing in the predetermined area based on an area image which is an image of the predetermined area;
Display control means for displaying on the display screen an object image including the object detected by the detection means and having a narrower angle of view than the area image;
A program that functions as a playback control unit that controls to play back the region image including an object included in the object image when a predetermined object image is specified among the object images displayed on the display screen. .
所定の領域を撮像し、領域画像を取得する撮像ステップと、
前記撮像ステップの処理により取得された前記領域画像に基づいて、前記所定の領域内に存在する物体を検知する検知ステップと、
前記領域画像、および、前記領域画像より画角が狭く、前記検知ステップの処理により検知された前記物体を含む物体画像を記憶する記憶ステップと、
前記物体画像を表示画面に表示させる表示制御ステップと、
前記表示画面に表示された前記物体画像のうちの所定の物体画像が指定された場合、その物体画像に含まれる物体を含む前記領域画像を再生するよう制御する再生制御ステップと
を含む情報処理方法。 Information processing device
An imaging step of imaging a predetermined area and acquiring an area image;
A detection step of detecting an object present in the predetermined region based on the region image acquired by the processing of the imaging step;
A storage step of storing the region image, and an object image having a narrower angle of view than the region image and including the object detected by the detection step;
A display control step for displaying the object image on a display screen;
An information processing method comprising: a reproduction control step for controlling to reproduce the region image including an object included in the object image when a predetermined object image is designated among the object images displayed on the display screen. .
請求項9に記載の情報処理方法。 The information processing method according to claim 9, wherein the region image is a moving image.
請求項9に記載の情報処理方法。 The information processing method according to claim 9, wherein the object image is a zoom image of the object.
請求項9に記載の情報処理方法。 The information processing method according to claim 9, wherein the region image includes a plurality of the objects.
請求項9に記載の情報処理方法。 The information processing method according to claim 9, wherein the object is a moving object.
をさらに含む
請求項9に記載の情報処理方法。 The information storage step of further storing the object information representing the object and the reproduction information related to the reproduction of the area image where the object is detected based on the detection result of the detection step. The information processing method described.
請求項9に記載の情報処理方法。 In the display control step, a recording performance display unit representing a recording performance in a predetermined time zone on a predetermined date is displayed on the display screen together with the object image, and the recording performance display portion in a predetermined time zone on a predetermined date. The information processing method according to claim 9, wherein when a recording record is selected, the object image including the object detected in the time zone of the date is displayed on the display screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009201027A JP5531512B2 (en) | 2009-08-31 | 2009-08-31 | Information processing apparatus, program, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009201027A JP5531512B2 (en) | 2009-08-31 | 2009-08-31 | Information processing apparatus, program, and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005054394A Division JP4470759B2 (en) | 2005-02-28 | 2005-02-28 | Information processing system, information processing apparatus, information processing method, program, and recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009284549A JP2009284549A (en) | 2009-12-03 |
JP2009284549A5 JP2009284549A5 (en) | 2010-01-21 |
JP5531512B2 true JP5531512B2 (en) | 2014-06-25 |
Family
ID=41454416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009201027A Expired - Fee Related JP5531512B2 (en) | 2009-08-31 | 2009-08-31 | Information processing apparatus, program, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5531512B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6501945B2 (en) * | 2018-04-26 | 2019-04-17 | キヤノン株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3826598B2 (en) * | 1999-01-29 | 2006-09-27 | 株式会社日立製作所 | Image monitoring apparatus and recording medium |
JP4516665B2 (en) * | 2000-05-19 | 2010-08-04 | パナソニック株式会社 | Monitoring device |
JP3870124B2 (en) * | 2002-06-14 | 2007-01-17 | キヤノン株式会社 | Image processing apparatus and method, computer program, and computer-readable storage medium |
JP2004201231A (en) * | 2002-12-20 | 2004-07-15 | Victor Co Of Japan Ltd | Monitoring video camera system |
-
2009
- 2009-08-31 JP JP2009201027A patent/JP5531512B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009284549A (en) | 2009-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4470759B2 (en) | Information processing system, information processing apparatus, information processing method, program, and recording medium | |
JP4345692B2 (en) | Information processing system, information processing apparatus and method, and program | |
US7573492B2 (en) | Monitoring system and method, and program and recording medium used therewith | |
JP4727117B2 (en) | Intelligent feature selection and pan / zoom control | |
JP4378636B2 (en) | Information processing system, information processing apparatus, information processing method, program, and recording medium | |
JP4722537B2 (en) | Monitoring device | |
JP6544996B2 (en) | Control device and control method | |
JP5531512B2 (en) | Information processing apparatus, program, and information processing method | |
JP3841033B2 (en) | Monitoring system and method, program, and recording medium | |
JP3969172B2 (en) | Monitoring system and method, program, and recording medium | |
JP3838149B2 (en) | Monitoring system and method, program and recording medium | |
JP3838150B2 (en) | Monitoring system and method, program, and recording medium | |
JP6099026B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
US8437552B2 (en) | Information processing apparatus and method, and a recording medium storing a program for implementing the method | |
JP3838151B2 (en) | Monitoring system and method, program, and recording medium | |
JP3991816B2 (en) | Monitoring system and method, program, and recording medium | |
KR20130107863A (en) | Image searching apparatus | |
JP2004173152A (en) | Monitoring system, monitoring method, its program, and recording medium | |
JP6099027B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140407 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5531512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |