JP4775931B2 - Image processing apparatus, image processing system, image processing method, and program - Google Patents

Image processing apparatus, image processing system, image processing method, and program Download PDF

Info

Publication number
JP4775931B2
JP4775931B2 JP2004193327A JP2004193327A JP4775931B2 JP 4775931 B2 JP4775931 B2 JP 4775931B2 JP 2004193327 A JP2004193327 A JP 2004193327A JP 2004193327 A JP2004193327 A JP 2004193327A JP 4775931 B2 JP4775931 B2 JP 4775931B2
Authority
JP
Japan
Prior art keywords
image
event
image processing
received
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004193327A
Other languages
Japanese (ja)
Other versions
JP2006019845A (en
JP2006019845A5 (en
Inventor
昭次 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2004193327A priority Critical patent/JP4775931B2/en
Publication of JP2006019845A publication Critical patent/JP2006019845A/en
Publication of JP2006019845A5 publication Critical patent/JP2006019845A5/ja
Application granted granted Critical
Publication of JP4775931B2 publication Critical patent/JP4775931B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法及び当該画像処理方法をコンピュータに実行させるためのプログラムに関し、特に監視用カメラで撮影した画像を記録するとともに、記録した画像の分析を行う画像処理装置、画像処理システム、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program for causing a computer to execute the image processing method, and particularly records an image taken by a monitoring camera and analyzes the recorded image. The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.

従来より、オフィスビルや工場、倉庫などの部外者が立ち入っては困るような場所、金融機関などの直接金銭を扱うような場所などには、防犯目的のための監視カメラが配設されており、当該監視カメラで撮影された画像を証拠として記録しておく監視システムが知られている。   Conventionally, surveillance cameras for crime prevention purposes have been installed in places where outsiders such as office buildings, factories, and warehouses have trouble entering, or places that handle direct money such as financial institutions. A monitoring system that records an image taken by the monitoring camera as evidence is known.

この従来の監視システムとしては、監視カメラで撮影した映像信号を記録媒体にその記憶容量の範囲内で繰り返し上書きして常時書き込み、異状検出センサにより異状(イベント)の検出がなされた際に、録画装置を録画モードにして、当該記録媒体からイベント発生前を含む所定時間分の映像信号を古い順に録画装置に送って記録するようにしたものがある(特許文献1)。   In this conventional monitoring system, a video signal captured by a monitoring camera is repeatedly overwritten on a recording medium within the range of its storage capacity, constantly written, and recording is performed when an abnormality (event) is detected by an abnormality detection sensor. There is a type in which the apparatus is set to a recording mode, and video signals for a predetermined time including before the occurrence of an event are sent from the recording medium to the recording apparatus in the oldest order for recording (Patent Document 1).

また、従来の監視システムの他の形態としては、状態変化情報を時系列に保存し、オペレータからの表示要求により所望の状態変化情報や警報−復帰の履歴情報を表示して、オペレータが当該表示内容を監視するようにしたものがある(特許文献2)。   As another form of the conventional monitoring system, state change information is stored in time series, desired state change information and alarm-return history information are displayed in response to a display request from the operator, and the operator displays the state change information. There is one that monitors the contents (Patent Document 2).

また、従来の監視システムのその他の形態としては、例えば、1秒間に1〜2フレーム程度の画像をビデオテープ等に連続的に記録して、1日あるいは2日程度でビデオテープを入れ替えるなどして監視画像を記録していくようにしたものもコンビニエンスストアを中心に広く用いられている。この監視画像を記録する際、録画を行うビデオデッキ側で各画像フレーム毎の録画時刻を当該監視画像に付加して記録している。また、イベントが発生していない場合は、各カメラを順次所定の間隔で切り替えつつ、画像を記録媒体に記憶し、イベント発生時にはイベント発生箇所の画像を記憶する製品も提供されている。   As another form of the conventional monitoring system, for example, an image of about 1 to 2 frames per second is continuously recorded on a video tape or the like, and the video tape is replaced in about one or two days. The ones that record the surveillance images are also widely used mainly in convenience stores. When this monitoring image is recorded, the recording time for each image frame is added to the monitoring image and recorded on the video deck that performs recording. In addition, when an event does not occur, a product is also provided that stores an image on a recording medium while sequentially switching each camera at a predetermined interval, and stores an image of the event occurrence location when the event occurs.

特開2000−350163号公報JP 2000-350163 A 特開平7−210244号公報Japanese Patent Laid-Open No. 7-210244

しかしながら、上述した従来の監視システムでは、例えば複数の監視カメラを監視区域に配設して各監視カメラで連続的に画像を撮影し記録している場合、ある監視カメラでイベントの検出がなされた際に、当該イベント発生時における他の監視カメラの撮影画像を容易に確認することができなかった。また、イベント発生時における他の監視カメラの撮影画像を確認する場合には、イベントを検知した監視カメラからのイベント情報等に基づいて、他の監視カメラで連続的に撮影した画像から抽出して記録する等の煩雑な処理を行う必要があった。その結果、イベントの発生原因や発生状況を容易に把握することが困難であるという問題点があった。また、イベントが発生していない場合は、各カメラを順次所定の間隔で切り替える場合、イベント発生時刻を証明することが困難であるという問題がる。   However, in the above-described conventional monitoring system, for example, when a plurality of monitoring cameras are arranged in a monitoring area and images are continuously captured and recorded by each monitoring camera, an event is detected by a certain monitoring camera. At that time, it was not possible to easily confirm the captured image of the other monitoring camera when the event occurred. In addition, when confirming a captured image of another monitoring camera at the time of the event occurrence, it is extracted from images continuously captured by the other monitoring camera based on event information from the monitoring camera that detected the event. It was necessary to perform complicated processing such as recording. As a result, there is a problem that it is difficult to easily grasp the cause and the situation of the event. In addition, when an event has not occurred, there is a problem that it is difficult to prove the event occurrence time when each camera is sequentially switched at a predetermined interval.

本発明は上述の問題点を解決するためになされたものであり、煩雑な処理を行うことなく、イベントの発生原因や発生状況を容易に把握することを実現するとともにイベント発生時の立証が容易な画像処理装置、画像処理方法及びプルグラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and it is possible to easily grasp the cause and the state of occurrence of an event without performing complicated processing, and to easily prove when the event occurs. Abstract: An image processing apparatus, an image processing method, and a program are provided.

本発明の画像処理システムは、イベント検知部を備える複数の撮影装置と通信可能なクライアント端末と画像処理装置とを備える画像処理システムであって、前記画像処理装置は、前記複数の撮影装置で撮影された画像を受信する画像受信手段と、前記画像受信手段で受信した画像を記憶領域に記憶するよう制御する画像記録制御手段と、前記クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶手段と、前記スケジュール記憶手段で記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信手段と、前記イベント情報受信手段で受信した前記イベント情報と、前記画像受信手段で受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付け記憶する関連付情報記憶手段と、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得手段とを備え、前記クライアント端末は、前記複数の撮像装置が備えるイベント検知部の、前記イベント情報を検知する制御スケジュールの設定を受け付けるスケジュール設定受付手段と、前記関連付情報記憶手段で記憶している前記イベント情報と、前記画像受信手段で受信した画像のうち、再生をするイベントの画像の選択を受け付ける再生画像選択受付手段と、前記再生画像選択受付手段で選択を受け付けた前記イベントの画像を再生する画像再生手段とを備えるAn image processing system of the present invention is an image processing system including a client terminal and an image processing device that can communicate with a plurality of imaging devices including an event detection unit, and the image processing device captures images with the plurality of imaging devices. An image receiving means for receiving the received image, an image recording control means for controlling the image received by the image receiving means to be stored in a storage area, and an event detection unit for each of the photographing devices that has received a setting at the client terminal And at least one of the plurality of photographing devices at the date and time when the event is detected based on the control schedule of the event detecting unit for each of the photographing devices stored in the schedule storage unit . event information receiving that receives event information detected by the event detecting unit of the first imaging device And means, the event information received by said event information receiving means, and an image received by the image receiving means, and associated information storage means for storing in association with the captured the image first image capturing apparatus, Image acquisition means for acquiring an image of the event selected to be played back on the client terminal, and the client terminal has a control schedule for detecting the event information of an event detection unit included in the plurality of imaging devices. A schedule setting accepting unit for accepting settings, an event information stored in the associated information storage unit, and a reproduction image selection acceptance for accepting selection of an image of an event to be reproduced among images received by the image receiving unit And an image playback method for playing back the image of the event whose selection has been received by the playback image selection receiving unit. Provided with a door.

本発明の画像処理装置は、イベント検知部を備える複数の撮影装置と通信可能な画像処理装置であって、前記複数の撮影装置で撮影される画像を受信する画像受信手段と、前記画像受信手段で受信した画像を記憶領域に記憶するよう制御する画像記録制御手段と、クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶手段と、前記スケジュール記憶手段で記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信手段と、前記イベント情報受信手段で受信した前記イベント情報と、前記画像受信手段で受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶手段と、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得手段とを備えるAn image processing apparatus according to the present invention is an image processing apparatus capable of communicating with a plurality of imaging devices including an event detection unit, and includes an image receiving unit that receives images captured by the plurality of imaging devices, and the image receiving unit. An image recording control unit that controls to store the image received in the storage area, a schedule storage unit that stores a control schedule of the event detection unit for each of the imaging devices whose settings are received by the client terminal, and the schedule storage unit Based on the stored control schedule of the event detection unit for each imaging device, event information detected by the event detection unit of at least one first imaging device among the plurality of imaging devices at the date and time when the event is detected. Event information receiving means for receiving, the event information received by the event information receiving means, and the image An association information storage means for associating and storing the image received by the communication means and the first photographing device that photographed the image, and an image for acquiring the image of the event selected to be reproduced by the client terminal Acquisition means .

本発明の画像処理システムの画像処理方法は、イベント検知部を備える複数の撮影装置と通信可能なクライアント端末と画像処理装置とを備える画像処理システムの画像処理方法であって、前記画像処理装置では、前記画像処理装置の画像受信手段が、前記複数の撮影装置で撮影された画像を受信する画像受信ステップと、前記画像処理装置の画像記録制御手段が、前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、前記画像処理装置のスケジュール記憶手段が、前記クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、前記画像処理装置のイベント情報受信手段が、前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、前記画像処理装置の関連付情報記憶手段が、前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、前記画像処理装置の画像取得手段が、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとを含み、前記クライアント端末では、前記クライアント端末のスケジュール設定受付手段が、前記複数の撮像装置が備えるイベント検知部の、前記イベント情報を検知する制御スケジュールの設定を受け付けるスケジュール設定受付ステップと、前記クライアント端末の再生画像選択受付手段が、前記関連付情報記憶ステップで記憶している前記イベント情報と、前記画像受信ステップで受信した画像のうち、再生をするイベントの画像の選択を受け付ける再生画像選択受付ステップと、前記クライアント端末の画像再生手段が、前記再生画像選択受付ステップで選択を受け付けた前記イベントの画像を再生する画像再生ステップとを備える。
本発明の画像処理装置の制御方法は、イベント検知部を備える複数の撮影装置と通信可能な画像処理装置の制御方法であって、前記画像処理装置の画像受信手段が、前記複数の撮影装置で撮影される画像を受信する画像受信ステップと、前記画像処理装置の画像記録制御手段が、前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、前記画像処理装置のスケジュール記憶手段が、クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、前記画像処理装置のイベント情報受信手段が、前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、前記画像処理装置の関連付情報記憶手段が、前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、前記画像処理装置の画像取得手段が、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとを備える。
An image processing method of an image processing system of the present invention is an image processing method of an image processing system including a client terminal and an image processing device that can communicate with a plurality of imaging devices including an event detection unit. The image receiving unit of the image processing device receives an image captured by the plurality of imaging devices, and the image recording control unit of the image processing device stores the image received in the image receiving step. An image recording control step for controlling to store in an area, and a schedule storage step for storing a control schedule of an event detection unit for each of the photographing devices for which the schedule storage unit of the image processing device has received a setting at the client terminal; Before the event information receiving means of the image processing apparatus stores it in the schedule storing step An event for receiving event information detected by the event detection unit of at least one first imaging device among the plurality of imaging devices at the date and time when the event is detected based on the control schedule of the event detection unit for each imaging device An information receiving step; and the associated information storage unit of the image processing apparatus receives the event information received in the event information receiving step, an image received in the image receiving step, and the first imaged imaged image. An association information storing step for associating and storing a device; and an image acquiring step in which the image acquisition means of the image processing device acquires an image of the event selected to be played back on the client terminal. In the terminal, the schedule setting accepting unit of the client terminal includes the plurality of imaging devices. An event detection unit that receives a setting of a control schedule for detecting the event information, and a reproduction image selection reception unit of the client terminal that stores the event information stored in the association information storage step. The reproduction image selection reception step for receiving selection of an image of an event to be reproduced among the images received in the image reception step, and the image reproduction means of the client terminal has received the selection in the reproduction image selection reception step And an image reproduction step for reproducing an image of the event.
An image processing device control method according to the present invention is a method for controlling an image processing device capable of communicating with a plurality of imaging devices including an event detection unit, wherein the image receiving means of the image processing device is the plurality of imaging devices. An image receiving step for receiving an image to be shot, an image recording control step for controlling the image recording control means of the image processing device to store the image received in the image receiving step in a storage area, and the image processing device The schedule storage unit stores the control schedule of the event detection unit for each of the imaging devices whose settings are received at the client terminal, and the event information reception unit of the image processing device stores the schedule in the schedule storage step. Based on the control schedule of the event detection unit for each photographing device, An event information receiving step for receiving event information detected by an event detection unit of at least one first imaging device among the plurality of imaging devices, and an association information storage unit of the image processing device includes the event information An association information storage step for storing the event information received in the reception step, the image received in the image reception step, and the first imaging device that captured the image in association with each other; and an image of the image processing device The acquisition means includes an image acquisition step of acquiring an image of the event selected to be played back on the client terminal.

本発明のプログラムは、イベント検知部を備える複数の撮影装置と通信可能なクライアント端末と画像処理装置とを備える画像処理システムの画像処理方法をコンピュータに実行させるためのプログラムであって、前記画像処理装置では、前記複数の撮影装置で撮影された画像を受信する画像受信ステップと、前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、前記クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとをコンピュータに実行させ、前記クライアント端末では、前記複数の撮像装置が備えるイベント検知部の、前記イベント情報を検知する制御スケジュールの設定を受け付けるスケジュール設定受付ステップと、前記関連付情報記憶ステップで記憶している前記イベント情報と、前記画像受信ステップで受信した画像のうち、再生をするイベントの画像の選択を受け付ける再生画像選択受付ステップと、前記再生画像選択受付ステップで選択を受け付けた前記イベントの画像を再生する画像再生ステップとをコンピュータに実行させる。
また、本発明のプログラムは、イベント検知部を備える複数の撮影装置と通信可能な画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、前記画像処理装置のコンピュータに、前記複数の撮影装置で撮影される画像を受信する画像受信ステップと、前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとを実行させる。
A program according to the present invention is a program for causing a computer to execute an image processing method of an image processing system including a client terminal capable of communicating with a plurality of imaging devices including an event detection unit and an image processing device. In the apparatus, an image receiving step for receiving images photographed by the plurality of photographing devices, an image recording control step for controlling to store an image received in the image receiving step in a storage area, and a setting in the client terminal Based on the schedule storage step of storing the control schedule of the event detection unit for each imaging device received and the control schedule of the event detection unit for each of the imaging devices stored in the schedule storage step, First imaging of at least one of the plurality of imaging devices Event information receiving step for receiving event information detected by the event detecting unit, the event information received in the event information receiving step, the image received in the image receiving step, and the first image obtained by capturing the image An association information storing step of storing the image capturing device in association with one another, and an image acquisition step of acquiring an image of the event selected to be played back on the client terminal. A schedule setting receiving step for receiving a setting of a control schedule for detecting the event information, an event information stored in the associated information storing step, and an image receiving step of an event detecting unit included in a plurality of imaging devices; Of the received images, the image of the event to be played A reproduction image selection accepting step of accepting a selection, to execute an image reproduction step of reproducing an image of the event selection of which is accepted by the reproduction image selection accepting step to the computer.
The program of the present invention is a program for causing a computer to execute a control method of an image processing apparatus capable of communicating with a plurality of imaging apparatuses including an event detection unit, wherein the computer of the image processing apparatus An image receiving step for receiving an image captured by the image capturing device, an image recording control step for controlling the image received in the image receiving step to be stored in a storage area, and a setting for each of the image capturing devices for which a setting has been received by a client terminal Based on the schedule storage step of storing the control schedule of the event detection unit and the control schedule of the event detection unit for each of the imaging devices stored in the schedule storage step, the date and time of detecting the event, among the plurality of imaging devices Detected by the event detector of at least one first imaging device. An event information receiving step for receiving event information, the event information received in the event information receiving step, an image received in the image receiving step, and the first imaging device that captured the image are associated and stored. And an associated information storing step and an image obtaining step for obtaining an image of the event selected to be reproduced by the client terminal.

本発明によれば、雑な処理を行うことなく、取得した画像を閲覧するのみでイベントの発生原因や発生状況を容易に把握することができる。特に、撮影装置を防犯カメラとして用いる場合には、従来では不可能であった緊急事態が発生した際の発生原因や発生状況の迅速な把握、更には緊急事態の発生時刻の証明を達成できる。 According to the present invention, without performing annoyance miscellaneous processing, it is possible to easily grasp the cause or occurrence of only events viewing the obtained image. In particular, when the photographing apparatus is used as a security camera, it is possible to quickly grasp the cause and situation of occurrence of an emergency situation that has been impossible in the past, and further prove the time of occurrence of the emergency situation.

以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、本発明の実施形態に係わる画像処理システム(監視システム)の構成を示す図である。
この画像処理システムは、当該画像処理システムを構成するネットワーク100と、配設された監視区域における画像を撮影する複数のカメラサーバ400と、本発明の実施形態に係わる画像処理装置に相当し、各カメラサーバ400からの画像を記録する録画サーバ200と、ユーザからの指示に基づき録画サーバ200の各種設定及びカメラサーバ400で撮影した画像の再生表示等を行うクライアント300を備えている。また、録画サーバ200、クライアント300及びカメラサーバ400は、ネットワーク100の通信回線を介して相互に通信可能に構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an image processing system (monitoring system) according to an embodiment of the present invention.
This image processing system corresponds to the network 100 that constitutes the image processing system, a plurality of camera servers 400 that capture images in the arranged surveillance area, and the image processing apparatus according to the embodiment of the present invention. A recording server 200 that records an image from the camera server 400, and a client 300 that performs various settings of the recording server 200 based on an instruction from the user, a playback display of an image captured by the camera server 400, and the like are provided. In addition, the recording server 200, the client 300, and the camera server 400 are configured to be able to communicate with each other via a communication line of the network 100.

また、カメラサーバ400には、撮影領域における異状(以下、イベントと称する)を検知するイベント検知部400aが設けられている。ここで、カメラサーバ400のイベント検知部400aで検知されるイベントとしては、例えば、カメラサーバ400が配設された位置における環境の変化をセンサにより検知するセンサイベントと、カメラサーバ400が撮影する撮影領域において、当該撮影領域内における撮影画像の動きが所定のレベルに達したことを検知する動き検知イベントが挙げられる。また、センサイベントとしては、例えば、音の検知、温度変化の検知、気圧変化の検知、振動の検知、光の検知、赤外線遮断の検知、重力異常の検知、磁気変化の検知、ドア開閉の検知等が挙げられる。   In addition, the camera server 400 is provided with an event detection unit 400a that detects an abnormality (hereinafter referred to as an event) in the imaging region. Here, as an event detected by the event detection unit 400a of the camera server 400, for example, a sensor event in which a change in the environment at a position where the camera server 400 is disposed is detected by a sensor, and a shooting to be taken by the camera server 400 is taken. In the region, there is a motion detection event for detecting that the motion of the captured image in the capturing region has reached a predetermined level. Examples of sensor events include sound detection, temperature change detection, atmospheric pressure change detection, vibration detection, light detection, infrared ray blocking detection, gravity abnormality detection, magnetic change detection, and door opening / closing detection. Etc.

図2は、本発明の実施形態に係わる録画サーバ(画像処理装置)200内におけるコンピュータシステムのハードウェア構成を示す図である。   FIG. 2 is a diagram showing a hardware configuration of a computer system in the recording server (image processing apparatus) 200 according to the embodiment of the present invention.

図2において、CPU201は、システムバス204に接続される各デバイスを統括的に制御する。また、ROM203あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステム(OS)の少なくとも一部、各サーバあるいは各クライアントの後述する各種機能を実現するためのプログラムが記憶されている。   In FIG. 2, the CPU 201 comprehensively controls each device connected to the system bus 204. In addition, the ROM 203 or the external memory 211 is used to realize at least a part of a basic input / output system (BIOS) and an operating system (OS), which are control programs of the CPU 201, and various functions described later of each server or each client. The program is stored.

RAM202は、CPU201の主メモリ、ワークエリア、一時待避領域等として機能する。CPU201は、処理の実行に際して必要なプログラムをRAM203にロードして、当該プログラムを実行することで各種処理を実現する。   The RAM 202 functions as a main memory, work area, temporary save area, and the like for the CPU 201. The CPU 201 implements various processes by loading a program necessary for executing the process into the RAM 203 and executing the program.

入力コントローラ205は、キーボード(KB)209からの入力を制御する。本実施形態では、入力デバイスとしてKBを適用しているが、マウス等のポインティングデバイスや、パッチパネル等を適用することも可能である。   The input controller 205 controls input from the keyboard (KB) 209. In this embodiment, KB is applied as an input device, but it is also possible to apply a pointing device such as a mouse, a patch panel, or the like.

ビデオコントローラ206は、CRTディスプレイ(CRT)210の表示を制御する。本実施形態では、表示デバイスとしてCRTを適用しているが、液晶等の表示デバイスを適用することも可能である。なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT210上での表示を可能としている。また、CRT210は、CRT210上の不図示のマウスカーソル等でユーザ指示を可能としている。   The video controller 206 controls display on a CRT display (CRT) 210. In this embodiment, the CRT is applied as the display device, but a display device such as a liquid crystal can also be applied. Note that the CPU 201 enables display on the CRT 210 by executing outline font rasterization processing on a display information area in the RAM 203, for example. In addition, the CRT 210 allows a user instruction with a mouse cursor (not shown) on the CRT 210.

メモリコントローラ207は、ブートプログラム等を記憶するネットワークビデオレコーダプログラム記憶部212、各種機能を実現するための定義ファイルを記憶する定義ファイル記憶部213及び各種機能を実現するためのテーブルを記憶する各種テーブル記憶部214、各カメラサーバ400で連続的に撮影した各画像における録画データを記憶する録画データ記憶部215等を備える外部メモリ211へのアクセスを制御する。加えて、イベントの発生を検知したカメラサーバ400のイベントの発生時における画像を記憶する外部メモリ216へのアクセスを制御する。この外部メモリ211、216としては、ハードディスク(HD)やフレキシブルディスク(FD)等が挙げられる。   The memory controller 207 includes a network video recorder program storage unit 212 for storing a boot program, a definition file storage unit 213 for storing definition files for realizing various functions, and various tables for storing tables for realizing various functions. Controls access to the external memory 211 including a storage unit 214, a recording data storage unit 215 that stores recording data of each image continuously captured by each camera server 400, and the like. In addition, the camera server 400 that has detected the occurrence of an event controls access to the external memory 216 that stores an image when the event occurs. Examples of the external memories 211 and 216 include a hard disk (HD) and a flexible disk (FD).

通信I/Fコントローラ208は、ネットワーク100の通信回線を介して外部機器との通信制御処理を実行する。例えば、通信I/Fコントローラ208は、TCP/IPを用いたインターネット通信等が可能である。   The communication I / F controller 208 executes communication control processing with an external device via the communication line of the network 100. For example, the communication I / F controller 208 can perform Internet communication using TCP / IP.

図3は、本発明の実施形態に係わる録画サーバ200において、各カメラサーバ400からの画像を処理するための各種マスタ、各種記録媒体、各種データを示した図である。ここで、図3(a)には各カメラサーバ400を管理するための各種管理項目を列挙したネットワークカメラ管理マスタ231を示し、図3(b)には各カメラサーバ400を制御するための各種制御項目を列挙したネットワークカメラ制御マスタ232を示し、図3(c)にはカメラサーバ400でイベントが発生した際の各種分析処理項目を列挙したイベント分析処理マスタ233を示し、図3(d)には各カメラサーバ400で連続的に撮影した各画像を記録する通常録画用記録媒体である外部メモリ211を示し、図3(e)にはイベントの発生を検知したカメラサーバ400のイベントの発生時における画像を記憶するイベント発生時用記録媒体216を示し、図3(f)にはセンサイベントの発生を検知したカメラサーバ400を管理するための各種管理項目を列挙したセンサイベント管理マスタ234を示し、図3(g)には動き検知イベントの発生を検知したカメラサーバ400を管理するための各種管理項目を列挙した動き検知イベント管理マスタ235を示し、図3(g)にはクライアント300に表示させる分析表示用データを示し、図3(h)にはクライアント300に表示させるサムネールデータを示している。   FIG. 3 is a diagram showing various masters, various recording media, and various data for processing an image from each camera server 400 in the recording server 200 according to the embodiment of the present invention. Here, FIG. 3A shows a network camera management master 231 listing various management items for managing each camera server 400, and FIG. 3B shows various types for controlling each camera server 400. A network camera control master 232 listing control items is shown. FIG. 3C shows an event analysis processing master 233 listing various analysis processing items when an event occurs in the camera server 400, and FIG. Shows an external memory 211 that is a recording medium for normal recording for recording each image continuously taken by each camera server 400, and FIG. 3E shows the occurrence of an event of the camera server 400 that detected the occurrence of the event. FIG. 3F shows a camera server 400 that detects the occurrence of a sensor event. FIG. A sensor event management master 234 listing various management items for management is shown, and FIG. 3G shows a motion detection event listing various management items for managing the camera server 400 that has detected the occurrence of a motion detection event. FIG. 3G shows analysis display data displayed on the client 300, and FIG. 3H shows thumbnail data displayed on the client 300. FIG.

図3(a)のネットワークカメラ管理マスタ231には、「カメラサーバID」、「カメラサーバ名」、「カメラ名」、「ロケーション名」、「ゾーン名」等の各種管理項目がある。このネットワークカメラ管理マスタ231は、例えば外部メモリ211の定義ファイル記憶部213あるいは各種テーブル記憶部214に格納されている。また、カメラサーバを特定する情報であるカメラサーバIDとしては、例えば、カメラサーバのID番号、カメラサーバのIPアドレス、MACアドレスなどが使用できる。   The network camera management master 231 in FIG. 3A has various management items such as “camera server ID”, “camera server name”, “camera name”, “location name”, and “zone name”. The network camera management master 231 is stored in the definition file storage unit 213 or the various table storage unit 214 of the external memory 211, for example. As the camera server ID that is information for specifying the camera server, for example, an ID number of the camera server, an IP address of the camera server, a MAC address, or the like can be used.

図3(b)のネットワークカメラ制御マスタ232には、「カメラサーバID」、「通常録画パン値」、「通常録画チルト値」、「通常録画ズーム値」、「通常録画フレームレート値」、「センサイベント録画パン値」、「センサイベント録画チルト値」、「センサイベント録画ズーム値」、「センサイベント録画フレームレート値」、「センサイベント録画設定時間値」、「動き検知イベント録画フレームレート値」、「動き検知イベント録画設定時間値」等の各種制御項目がある。このネットワークカメラ制御マスタ232は、例えば外部メモリ211の定義ファイル記憶部213あるいは各種テーブル記憶部214に格納されている。また、カメラサーバを特定する情報であるカメラサーバIDとしては、例えば、カメラサーバのID番号、カメラサーバのIPアドレス、MACアドレスなどが使用できる。   The network camera control master 232 in FIG. 3B includes “camera server ID”, “normal recording pan value”, “normal recording tilt value”, “normal recording zoom value”, “normal recording frame rate value”, “ “Sensor Event Recording Pan Value”, “Sensor Event Recording Tilt Value”, “Sensor Event Recording Zoom Value”, “Sensor Event Recording Frame Rate Value”, “Sensor Event Recording Setting Time Value”, “Motion Detection Event Recording Frame Rate Value” There are various control items such as “motion detection event recording setting time value”. The network camera control master 232 is stored in, for example, the definition file storage unit 213 or the various table storage unit 214 of the external memory 211. As the camera server ID that is information for specifying the camera server, for example, an ID number of the camera server, an IP address of the camera server, a MAC address, or the like can be used.

図3(c)のイベント分析処理マスタ233には、「カメラサーバ名表示」、「カメラ名表示」、「ゾーン名表示」、「ロケーション名表示」、「イベント開始時間表示」、「イベント終了時間表示」、「イベント発生時の録画データの定期的バックアップトリガーの設定」、「バックアップ終了後元データ自動削除」等の各種分析処理項目がある。このイベント分析処理マスタ233は、例えば外部メモリ211の定義ファイル記憶部213あるいは各種テーブル記憶部214に格納されている。ここで、このイベント分析処理マスタ233は、イベント発生時用の記録媒体216に格納されていても良い。   The event analysis processing master 233 in FIG. 3C includes “camera server name display”, “camera name display”, “zone name display”, “location name display”, “event start time display”, “event end time”. There are various analysis processing items such as “display”, “setting of a regular backup trigger of recorded data when an event occurs”, “original data automatic deletion after backup”. The event analysis processing master 233 is stored, for example, in the definition file storage unit 213 or the various table storage unit 214 of the external memory 211. Here, the event analysis processing master 233 may be stored in the recording medium 216 for event occurrence.

図3(d)の通常録画用記録媒体は、図2の外部メモリ211に相当するものである。図3(e)のイベント発生時用記録媒体は、図2の外部メモリ216に相当するものである。   The recording medium for normal recording in FIG. 3D corresponds to the external memory 211 in FIG. The event occurrence recording medium in FIG. 3 (e) corresponds to the external memory 216 in FIG.

図3(f)のセンサイベント管理マスタ234には、「センサイベントID」、「カメラサーバID」、「センサイベントON時の時刻情報」、「センサイベントOFF時の時刻情報」、「センサイベント録画パン値」、「センサイベント録画チルト値」、「センサイベント録画ズーム値」、「センサイベント録画フレームレート値」、「センサイベント録画設定時間値」、「センサイベント録画データの保管先」、「センサイベント録画データのファイル名」等の各種管理項目がある。また、カメラサーバを特定する情報であるカメラサーバIDとしては、例えば、カメラサーバのID番号、カメラサーバのIPアドレス、MACアドレスなどが使用できる。   The sensor event management master 234 in FIG. 3F includes “sensor event ID”, “camera server ID”, “time information when the sensor event is ON”, “time information when the sensor event is OFF”, and “sensor event recording”. Pan value, Sensor event recording tilt value, Sensor event recording zoom value, Sensor event recording frame rate value, Sensor event recording setting time value, Sensor event recording data storage location, Sensor There are various management items such as “file name of event recording data”. As the camera server ID that is information for specifying the camera server, for example, an ID number of the camera server, an IP address of the camera server, a MAC address, or the like can be used.

図3(g)の動き検知イベント管理マスタ235には、「動き検知イベントID」、「カメラサーバID」、「動き検知イベントON時の時刻情報」、「動き検知イベントOFF時の時刻情報」、「動き検知イベント録画パン値」、「動き検知イベント録画チルト値」、「動き検知イベント録画ズーム値」、「動き検知イベント録画フレームレート値」、「動き検知イベント録画設定時間値」、「動き検知イベント録画データの保管先」、「動き検知イベント録画データのファイル名」等の各種管理項目がある。また、カメラサーバを特定する情報であるカメラサーバIDとしては、例えば、カメラサーバのID番号、カメラサーバのIPアドレス、MACアドレスなどが使用できる。   The motion detection event management master 235 in FIG. 3G includes “motion detection event ID”, “camera server ID”, “time information when the motion detection event is ON”, “time information when the motion detection event is OFF”, “Motion Detection Event Recording Pan Value”, “Motion Detection Event Recording Tilt Value”, “Motion Detection Event Recording Zoom Value”, “Motion Detection Event Recording Frame Rate Value”, “Motion Detection Event Recording Setting Time Value”, “Motion Detection There are various management items such as “storage location of event recording data” and “file name of motion detection event recording data”. As the camera server ID that is information for specifying the camera server, for example, an ID number of the camera server, an IP address of the camera server, a MAC address, or the like can be used.

図3(g)の分析表示用データは、分析表示を行う際の作業ファイルである。図3(h)のサムネールデータは、サムネール画像の表示を行う際の作業ファイルである。   The analysis display data shown in FIG. 3G is a work file used when performing analysis display. The thumbnail data in FIG. 3H is a work file used when displaying a thumbnail image.

図4は、本発明の実施形態に係わる録画サーバ200のカメラサーバ400の基本動作設定処理のフローチャートである。この処理のフローチャートは、録画サーバ200とクライアント300との通信により行われる。ここで、図4の右側には、クライアント300におけるユーザの操作、あるいは、クライアント300に表示される表示画面を示す。   FIG. 4 is a flowchart of the basic operation setting process of the camera server 400 of the recording server 200 according to the embodiment of the present invention. The flowchart of this process is performed by communication between the recording server 200 and the client 300. Here, the right side of FIG. 4 shows a user operation on the client 300 or a display screen displayed on the client 300.

まず、ユーザの操作によりクライアント300からカメラ基本設定画面の呼び出し指示がなされると、ステップS1001において、CPU201は、ネットワーク管理マスタ231に基づいてカメラ基本設定画面を生成し、当該カメラ基本設定画面をクライアント300に送信する。クライアント300では、受信したカメラ基本設定画面を表示する。   First, when an instruction to call a camera basic setting screen is issued from the client 300 by a user operation, in step S1001, the CPU 201 generates a camera basic setting screen based on the network management master 231 and displays the camera basic setting screen on the client. To 300. The client 300 displays the received camera basic setting screen.

図12は、クライアント300に表示されるカメラ基本設定画面の一例を示した図である。ロケーション/ゾーン表示領域1210には、ロケーションが「品川本社」、ゾーンが「プレゼンルーム1」であることが表示されている。ロケーションまたはゾーンの追加処理を行う場合には、ロケーション/ゾーン表示領域1210の上方に設けられた「ロケーション追加」または「ゾーン追加」を選択して追加の処理を行う。また、カメラサーバ表示領域1220には、現在設定されているカメラサーバが表示されている。選択したロケーション/ゾーンに応じて、カメラサーバの検索を行う場合には、カメラサーバ表示領域1220の上方に設けられた「カメラサーバ検索」を選択して検索の処理を行う。カメラサーバの追加、編集または削除の処理を行う場合には、カメラサーバ表示領域1220の上方に設けられた「カメラサーバ追加」、「カメラサーバ編集」、または「カメラサーバ削除」を選択してそれぞれの処理を行う。   FIG. 12 is a diagram illustrating an example of a camera basic setting screen displayed on the client 300. The location / zone display area 1210 displays that the location is “Shinagawa head office” and the zone is “presentation room 1”. When the location or zone addition processing is performed, “location addition” or “zone addition” provided above the location / zone display area 1210 is selected to perform the additional processing. In the camera server display area 1220, the currently set camera server is displayed. When searching for a camera server according to the selected location / zone, “camera server search” provided above the camera server display area 1220 is selected to perform search processing. When adding, editing, or deleting a camera server, select “add camera server”, “edit camera server”, or “delete camera server” provided above the camera server display area 1220, respectively. Perform the process.

続いて、ユーザの操作によりクライアント300からカメラ制御設定画面の呼び出し指示がなされると、ステップS1002において、CPU201は、ネットワーク管理マスタ231及びネットワークカメラ制御マスタ232に基づいてカメラサーバ制御設定画面を生成する。通信I/Fコントローラ208は、当該カメラサーバ制御設定画面をクライアント300に送信する。クライアント300では、受信したカメラサーバ制御設定画面を表示する。   Subsequently, when an instruction to call the camera control setting screen is issued from the client 300 by the user's operation, the CPU 201 generates a camera server control setting screen based on the network management master 231 and the network camera control master 232 in step S1002. . The communication I / F controller 208 transmits the camera server control setting screen to the client 300. The client 300 displays the received camera server control setting screen.

図13〜17は、クライアント300に表示されるカメラサーバ制御設定画面の一例を示した図である。
まず、図13のカメラサーバ制御設定画面が表示され、ユーザの操作によりカメラサーバ400のIPアドレスやカメラサーバ400に接続されたアナログカメラの設定、録画データの格納場所等の基本的な項目が設定される。これらの設定された情報は、ステップS1003の処理において、ネットワーク管理マスタ231に記録される。
13 to 17 are diagrams illustrating an example of the camera server control setting screen displayed on the client 300. FIG.
First, the camera server control setting screen of FIG. 13 is displayed, and basic items such as the settings of the IP address of the camera server 400, the analog camera connected to the camera server 400, and the storage location of the recording data are set by the user's operation. The The set information is recorded in the network management master 231 in the process of step S1003.

続いて、図14のカメラサーバ制御設定画面において、ユーザの操作により録画スケジュール、録画設定等の項目が設定される。具体的に、録画スケジュール表示領域1410には、録画の開始及び終了の時間設定、録画を行う曜日の設定が行えるようになっている。録画設定表示領域1420には、ユーザの操作により録画モードの設定、プリセットの設定、映像サイズの設定が行えるようになっている。ここで、録画モードの設定には、「常時録画」1421、当該カメラサーバで動き検知イベントが発生した際に当該カメラサーバで撮影した画像をイベント発生時用記録媒体216に記録する「動き検知録画」1422、当該カメラサーバでセンサイベントが発生した際に当該カメラサーバで撮影した画像をイベント発生時用記録媒体216に記録する「センサ録画」1423のモードが設けられており、また、これらのモードを複数選択して各録画処理を行うことも可能である。また、「常時録画」1421を選択した場合には、ユーザの操作によりフレームレート(fps)の設定が行えるようになっている。「動き検知録画」1422及び「センサ録画」1423を選択した場合には、ユーザが各モードに対応して設けられた「設定」ボタンを選択することにより、以下に示す詳細な設定を行う画面が表示される。   Subsequently, on the camera server control setting screen of FIG. 14, items such as a recording schedule and a recording setting are set by a user operation. Specifically, in the recording schedule display area 1410, the start and end times of recording and the day of the week for recording can be set. In the recording setting display area 1420, recording mode setting, preset setting, and video size setting can be performed by the user's operation. Here, the recording mode is set by “always recording” 1421, “motion detection recording” in which an image taken by the camera server is recorded in the event occurrence recording medium 216 when a motion detection event occurs in the camera server. 1422, “sensor recording” 1423 modes for recording an image taken by the camera server in the event occurrence recording medium 216 when a sensor event occurs in the camera server are provided. It is also possible to select a plurality of and perform each recording process. When “always recording” 1421 is selected, the frame rate (fps) can be set by a user operation. When “motion detection recording” 1422 and “sensor recording” 1423 are selected, the user can select a “setting” button provided for each mode, and a screen for performing detailed settings shown below is displayed. Is displayed.

図15は、図14のセンサ録画の設定ボタンが選択された際に表示されるセンサ設定画面の一例を示した図である。図15(a)に示したセンサ設定画面には、当該カメラサーバに設けられたイベント検知部400aのセンサのオン(またはオフ)を契機として録画を行う「このセンサで録画」の設定領域1510と、センサイベントの優先度の設定領域1520と、センサイベントが発生した際のカメラアングルの設定領域1530と、センサイベントが発生した際の録画設定領域1540が設けられている。   FIG. 15 is a diagram showing an example of a sensor setting screen displayed when the setting button for sensor recording in FIG. 14 is selected. The sensor setting screen shown in FIG. 15A includes a setting area 1510 for “recording with this sensor” for recording when the sensor of the event detection unit 400a provided in the camera server is turned on (or off). A sensor event priority setting area 1520, a camera angle setting area 1530 when a sensor event occurs, and a recording setting area 1540 when a sensor event occurs are provided.

ここで、カメラアングルの設定には、ユーザの操作により2種類の設定方法がある。
まず、1つ目の設定方法としては、プレビュー画面1532で示したホームポジションのカメラアングルの画面を選択して図15(b)に示す表示画面を表示させ、当該表示画面に表示された8方向の矢印の画面を選択することにより、選択した方向にカメラアングルを変更する設定が行われる。このとき、図15(b)に示す表示画面の中央部に位置する虫眼鏡(ルーペ)で示した画面を選択すると、カメラのズームを変更して設定することができる。具体的には、中央部に上部に位置する「+」で示した虫眼鏡の画面を選択すると拡大ズームとなり、一方、中央部に下部に位置する「−」で示した虫眼鏡の画面を選択すると縮小ズームとなる。
Here, there are two types of setting methods for setting the camera angle by a user operation.
First, as a first setting method, the camera angle screen at the home position shown on the preview screen 1532 is selected to display the display screen shown in FIG. 15B, and the eight directions displayed on the display screen are displayed. By selecting the arrow screen, setting for changing the camera angle in the selected direction is performed. At this time, if the screen shown by the magnifying glass (loupe) located at the center of the display screen shown in FIG. 15B is selected, the zoom of the camera can be changed and set. Specifically, when the magnifying glass screen indicated by “+” positioned at the upper part in the central portion is selected, zooming is performed. On the other hand, when the magnifying glass screen indicated by “−” positioned at the lower central portion is selected, the screen is reduced. Zoom.

続いて、2つ目の設定方法としては、プリセット設定領域1531による設定方法がある。このプリセット設定領域1531には、予め設定されているホームポジション以外のカメラアングルが登録されており、このプリセット設定領域1531に登録されているカメラアングルを選択することにより設定を行う。本実施形態では、図15(b)に示した「Preset01〜Preset08」の8つのカメラアングルが登録されている。   Subsequently, as a second setting method, there is a setting method using a preset setting area 1531. In this preset setting area 1531, camera angles other than the preset home position are registered, and setting is performed by selecting a camera angle registered in the preset setting area 1531. In this embodiment, eight camera angles “Preset01 to Preset08” shown in FIG. 15B are registered.

また、録画設定領域1540には、ユーザの操作によりセンサイベントが発生した際の録画における最大フレームレートの設定、センサイベントが発生した前後における録画時間の設定が行えるようになっている。ここで、イベント前における録画時間の設定が行われた場合には、例えば、録画サーバ200では、カメラサーバ1台あたり16MBの物理メモリが当該録画サーバ上の物理的なメモリとして割り当てられ、撮影された画像はこのメモリに一旦書き込まれて、センサーイベント前の記録時間の分だけHDDへの書き込みを待っており、イベントが発生しなければそのまま外部メモリ211の録画データ記憶部215に記録される。また、イベントが発生すると、イベント前の時間から撮影された画像をイベント発生時用記録媒体216に記録することができる。このような処理を行うことにより、イベント発生時用記録媒体216にイベント前の画像の記録が行われる。   In the recording setting area 1540, the maximum frame rate for recording when a sensor event is generated by a user operation and the recording time before and after the sensor event occurs can be set. Here, when the recording time before the event is set, for example, in the recording server 200, 16 MB of physical memory per camera server is allocated as physical memory on the recording server and shot. The image is once written in this memory and is waiting to be written to the HDD for the recording time before the sensor event. If no event occurs, it is recorded in the recorded data storage unit 215 of the external memory 211 as it is. When an event occurs, an image taken from the time before the event can be recorded on the event occurrence recording medium 216. By performing such processing, the image before the event is recorded on the event occurrence recording medium 216.

次に、図16は、図14の動き検知録画の設定ボタンが選択された際に表示されるセンサ設定画面の一例を示した図である。図16に示した動き検知設定画面には、動き検知設定領域1610と、動き検知イベントの優先度の設定領域1620と、動き検知イベントが発生した際の録画設定領域1630と、動き検知領域表示画面1640が設けられている。また、本実施形態における動き検知領域は、動き検知領域表示画面1640の1641で示された領域である。   Next, FIG. 16 is a diagram showing an example of a sensor setting screen displayed when the setting button for motion detection recording in FIG. 14 is selected. The motion detection setting screen shown in FIG. 16 includes a motion detection setting region 1610, a motion detection event priority setting region 1620, a recording setting region 1630 when a motion detection event occurs, and a motion detection region display screen. 1640 is provided. In addition, the motion detection area in the present embodiment is an area indicated by 1641 on the motion detection area display screen 1640.

動き検知設定領域1610には、ユーザの操作により動き検知手段の設定、動き検知におけるフレームレートの設定、感度切替の設定、感度レベルの設定、動き検知における面積比の設定、動き検知における継続時間の設定が行えるようになっている。ここで、動き検知がされたと判断されるのは、動き検知領域1641における映像において、設定された感度で、当該映像における動きの変化量が面積比5.0%以上、その時間が1.0秒以上継続した場合である。   In the motion detection setting area 1610, the setting of motion detection means, the setting of the frame rate in motion detection, the setting of sensitivity switching, the setting of the sensitivity level, the setting of the area ratio in motion detection, the duration of the motion detection are performed in the motion detection setting area 1610. Settings can be made. Here, it is determined that the motion is detected in the video in the motion detection area 1641 with the set sensitivity, the amount of motion change in the video is 5.0% or more in area ratio, and the time is 1.0. This is a case of continuing for more than a second.

また、録画設定領域1630には、ユーザの操作により動き検知イベントが発生した際の録画における最大フレームレートの設定、動き検知イベントが発生した前後における録画時間の設定が行えるようになっている。   In the recording setting area 1630, the maximum frame rate for recording when a motion detection event occurs by the user's operation and the recording time before and after the motion detection event occurs can be set.

各カメラサーバ400のそれぞれにおいて、図14のカメラサーバの制御設定、図15のセンサ録画の設定及び図16の動き検知録画の設定が終了すると、図17に示す各カメラサーバ400における録画スケジュール画面が作成される。   When the camera server control setting in FIG. 14, the sensor recording setting in FIG. 15 and the motion detection recording setting in FIG. 16 are completed in each camera server 400, the recording schedule screen in each camera server 400 shown in FIG. Created.

図17は、録画サーバ200で管理する各カメラサーバ400の週間スケジュール画面の一例を示した図である。このスケジュール画面には、東京の下丸子に配設された4台のカメラサーバと、東京の新宿に配設された1台のカメラサーバと、シドニーのオペラハウスに配設された1台のカメラサーバにおける週間スケジュールが示されている。例えば、東京の下丸子に配設された「VCS1 by windouws」のカメラサーバでは、月、火、…の終日に渡って「常時録画」、「動き検知録画」及び「センサ録画」が設定されている。また、例えば、東京の下丸子に配設された「VCS1 by windouws2」のカメラサーバでは、月、火、…の0時〜8時までの間は「動き検知録画」、8時〜17時までの間は「常時録画」、17時〜0時までの間は「センサ録画」が設定されている。このように、図14〜図16の各種設定を行うことにより、各カメラサーバ400における録画モードを設定することができる。   FIG. 17 is a diagram showing an example of a weekly schedule screen of each camera server 400 managed by the recording server 200. This schedule screen includes four camera servers located in Shimomaruko, Tokyo, one camera server located in Shinjuku, Tokyo, and one camera server located in the Sydney Opera House. The weekly schedule at is shown. For example, in the camera server of “VCS1 by windouws” arranged in Shimomaruko, Tokyo, “always recording”, “motion detection recording” and “sensor recording” are set throughout the month, Tuesday,. . In addition, for example, in the camera server of “VCS1 by windouws2” installed in Shimomaruko, Tokyo, “motion detection recording” from 0:00 to 8:00 on Monday, Tuesday,. “Always recording” is set for the interval, and “Sensor recording” is set for the period from 17:00 to 0:00. As described above, the recording mode in each camera server 400 can be set by performing various settings in FIGS. 14 to 16.

また、図17では、通常の週間スケジュールのみならず特定スケジュールの設定を行うことが可能である。図17の週間スケジュール表示領域の上方に設けられている「特定スケジュール」を選択することにより、特定日における録画サーバ200の録画スケジュールの設定を行うことができる。このとき、録画サーバ200の録画スケジュールとしては、特定日における録画スケジュールが優先されてスケジューリングされる。   In FIG. 17, it is possible to set not only a normal weekly schedule but also a specific schedule. By selecting “specific schedule” provided above the weekly schedule display area of FIG. 17, the recording schedule of the recording server 200 on a specific day can be set. At this time, the recording schedule of the recording server 200 is scheduled with priority given to the recording schedule on a specific day.

ユーザの操作により、図13〜17のカメラサーバ制御設定がなされると、これらの設定された情報がクライアント300から録画サーバ200に送られる。   When the camera server control settings of FIGS. 13 to 17 are made by a user operation, the set information is sent from the client 300 to the recording server 200.

続いて、図4のフローチャートに戻って、ステップS1003において、CPU201は、図13で設定された情報に基づきネットワークカメラ管理マスタ231を書き換えるとともに、図14〜17で設定された情報に基づきネットワークカメラ制御マスタ232を書き換える。   Subsequently, returning to the flowchart of FIG. 4, in step S1003, the CPU 201 rewrites the network camera management master 231 based on the information set in FIG. 13 and controls the network camera based on the information set in FIGS. Rewrite master 232.

続いて、ユーザの操作によりクライアント300からイベント分析処理制御入力画面の呼び出し指示がなされると、ステップS1004において、CPU201は、イベント分析処理マスタ233に基づいてイベント分析集計処理時の表示項目を選択する。通信I/Fコントローラ208は、当該表示項目をクライアント300に送信する。クライアント300では、受信したイベント分析集計処理時の表示項目を加味してイベント発生時の各種設定を行うイベント分析処理制御入力画面を表示する。   Subsequently, when an instruction to call the event analysis process control input screen is issued from the client 300 by a user operation, in step S1004, the CPU 201 selects a display item at the time of the event analysis aggregation process based on the event analysis process master 233. . The communication I / F controller 208 transmits the display item to the client 300. The client 300 displays an event analysis process control input screen for performing various settings when an event occurs in consideration of the received display items at the time of event analysis aggregation processing.

図18は、クライアント300に表示されるイベント分析処理制御入力画面の一例を示した図である。このイベント分析処理制御入力画面には、イベント通知の設定領域1810と、イベント分析処理(表示)項目の設定領域1820と、イベント録画データのバックアップの設定領域1830がが設けられている。   FIG. 18 is a diagram showing an example of an event analysis process control input screen displayed on the client 300. This event analysis process control input screen is provided with an event notification setting area 1810, an event analysis process (display) item setting area 1820, and an event recording data backup setting area 1830.

イベント通知の設定領域1810には、イベント発生時にイベント情報のメールを送信する設定、POP before SMTPを使用する設定が行えるようになっている。   In the event notification setting area 1810, settings for sending event information mail when an event occurs and settings for using POP before SMTP can be performed.

イベント分析処理(表示)項目の設定領域1820には、カメラサーバ名の表示の設定、カメラ名表示の設定、ゾーン名表示の設定、ロケーション名表示の設定、イベント開始時間表示の設定、イベント終了時間表示の設定が行えるようになっている。   An event analysis processing (display) item setting area 1820 includes camera server name display settings, camera name display settings, zone name display settings, location name display settings, event start time display settings, and event end time. Display settings can be configured.

イベント録画データのバックアップの設定領域1830には、定期バックアップの設定並びに、当該定期バックアップの設定を行う場合の頻度(期間またはデータ容量ごと)の設定、当該定期バックアップ後にデータの削除の設定が行えるようになっている。なお、定期バックアップの設定項目1831において、定期バックアップを行わない選択がされた場合には、上述した定期バックアップ頻度の設定及び定期バックアップ後のデータの削除の設定における選択が不要となるため、当該設定領域をグレーアウトして表示する。また、定期バックアップの設定を行う場合の頻度において、データ容量ごとに行う設定が選択された場合には、データ容量選択表示領域1832の「▼」をプルダウンして所望するデータ容量(MB、GB等)を選択する。   In the event recording data backup setting area 1830, it is possible to set the periodic backup, the frequency (period or for each data capacity) when the periodic backup is set, and the data deletion after the periodic backup. It has become. In addition, in the setting item 1831 for regular backup, when the selection not to perform regular backup is made, the above-described selection in the setting of regular backup frequency and the setting for deleting data after regular backup becomes unnecessary. Display the area grayed out. In addition, when the setting for each data capacity is selected at the frequency of setting the regular backup, the desired data capacity (MB, GB, etc.) is pulled down by pulling down “▼” in the data capacity selection display area 1832. ) Is selected.

そして、録画サーバ200は、ユーザの操作により図18のイベント分析処理制御入力画面に設定された情報を受信する。そして、ステップS1004では、ユーザの操作によりイベント分析処理(表示)項目の設定領域1820に設定された情報に基づきイベント分析処理マスタ233を書き換える。   Then, the recording server 200 receives the information set on the event analysis processing control input screen of FIG. 18 by the user's operation. In step S1004, the event analysis processing master 233 is rewritten based on the information set in the event analysis processing (display) item setting area 1820 by the user's operation.

続いて、ステップS1005において、CPU201は、クライアント300から受信したイベント発生時における録画データの定期バックアップの設定の情報がバックアップを行うものであるか否かを判断する。この判断の結果、バックアップを行うものでないと判断された場合には、ステップS1007に進む。一方、ステップS1005の判断の結果、バックアップを行うものであると判断された場合には、ステップS1006に進む。   In step S <b> 1005, the CPU 201 determines whether the information on the setting for periodic backup of the recorded data at the time of the event received from the client 300 is to be backed up. If it is determined that backup is not performed as a result of the determination, the process advances to step S1007. On the other hand, if it is determined in step S1005 that backup is to be performed, the process proceeds to step S1006.

続いて、ステップS1006において、CPU201は、クライアント300から受信したイベント録画データのバックアップの設定領域1830に設定された情報に基づきイベント分析処理マスタ233を書き換えて、バックアップの設定を行う。   In step S <b> 1006, the CPU 201 rewrites the event analysis processing master 233 based on information set in the event recording data backup setting area 1830 received from the client 300 to set backup.

続いて、ステップS1007において、メモリコントローラ207は、各カメラサーバ400からの各画像を連続的に通常録画用媒体である外部メモリ211に記録する処理を開始する。   Subsequently, in step S1007, the memory controller 207 starts processing to continuously record each image from each camera server 400 in the external memory 211 that is a normal recording medium.

以上のステップS1001〜ステップS1007の処理を経て、録画サーバ200における各カメラサーバ400の基本動作設定の処理が行われる。   Through the processes in steps S1001 to S1007 described above, the basic operation setting process of each camera server 400 in the recording server 200 is performed.

次に、ステップS1007での通常録画中に、あるカメラサーバ400でセンサイベントの検知がされた場合の処理について説明する。   Next, processing when a sensor event is detected by a certain camera server 400 during normal recording in step S1007 will be described.

図5は、本発明の実施形態に係わる録画サーバ200において、通常録画中にあるカメラサーバ400でセンサイベントの検知がされた場合の処理のフローチャートである。図5の右側には、センサイベントを検知したカメラサーバ400の処理を示す。   FIG. 5 is a flowchart of processing when a sensor event is detected in the camera server 400 during normal recording in the recording server 200 according to the embodiment of the present invention. The right side of FIG. 5 shows processing of the camera server 400 that has detected the sensor event.

まず、ステップS2001において、CPU201は、カメラサーバ400に設けられているイベント検知部400aのセンサスイッチがオンになったか否かを判断する。この判断の結果、センサスイッチがオンでないと判断された場合には、ステップS2001で待機する。一方、ステップS2001での判断の結果、センサスイッチがオンになったと判断された場合には、ステップS2002に進む。   First, in step S2001, the CPU 201 determines whether or not the sensor switch of the event detection unit 400a provided in the camera server 400 is turned on. As a result of this determination, if it is determined that the sensor switch is not on, the process waits in step S2001. On the other hand, if it is determined in step S2001 that the sensor switch has been turned on, the process proceeds to step S2002.

続いて、ステップS2002において、CPU201は、ネットワークカメラ制御マスタ232から、センサイベント録画パン値、センサイベント録画チルト値、センサイベント録画ズーム値、センサイベント録画フレームレート値及びセンサイベント録画設定時間値を取得する。   Subsequently, in step S2002, the CPU 201 acquires a sensor event recording pan value, a sensor event recording tilt value, a sensor event recording zoom value, a sensor event recording frame rate value, and a sensor event recording setting time value from the network camera control master 232. To do.

続いて、ステップS2003において、通信I/Fコントローラ208は、ステップS2002で取得したセンサイベント録画に関する情報(パン値、チルト値、ズーム値、フレームレート値及び設定時間値)をセンサイベントを検知したカメラサーバ400に送信する。このセンサイベント録画に関する情報を受信した当該カメラサーバ400は、当該情報に基づいた条件で撮影を行い、当該撮影画像を録画サーバ200に送信する。   Subsequently, in step S2003, the communication I / F controller 208 detects the sensor event based on the information (pan value, tilt value, zoom value, frame rate value, and set time value) related to the sensor event recording acquired in step S2002. Send to server 400. The camera server 400 that has received the information related to the sensor event recording performs shooting under conditions based on the information, and transmits the captured image to the recording server 200.

続いて、ステップS2004において、メモリコントローラ207は、当該カメラサーバ400から送信されてくる撮影画像をイベント発生時用記録媒体216に記録する処理を開始する。なお、このとき送られてくる撮影画像は、イベント発生時用記録媒体216に記録されるとともに、通常録画用記録媒体である外部メモリ211には通常録画用のフレームレート値で記録される。なお、通常録画用記録媒体である外部メモリ211にもイベント発生時のフレームレート値で記録しても良い。   Subsequently, in step S2004, the memory controller 207 starts a process of recording the captured image transmitted from the camera server 400 on the event occurrence recording medium 216. The photographed image sent at this time is recorded on the event occurrence recording medium 216 and is recorded at the normal recording frame rate value in the external memory 211 which is a normal recording medium. Note that the external memory 211, which is a normal recording medium, may be recorded at the frame rate value at the time of event occurrence.

続いて、ステップS2005において、CPU201は、カメラサーバ400のセンサイベントに関する情報(センサイベントID、センサイベント発生のカメラサーバID、センサイベント発生時刻(センサイベントON時刻)、カメラPTZF値、センサイベント録画データの保管先、センサイベント録画データのファイル名)をセンサイベント管理マスタ234に登録する。   Subsequently, in step S2005, the CPU 201 detects information related to the sensor event of the camera server 400 (sensor event ID, camera server ID of the sensor event occurrence, sensor event occurrence time (sensor event ON time), camera PTZF value, sensor event recording data. Are stored in the sensor event management master 234.

続いて、ステップS2006において、CPU201は、イベント検知部400aのセンサスイッチがオンのままであるか否かを判断する。この判断の結果、センサスイッチがオンのままであると判断された場合には、ステップS2007に進み、ステップS2004で開始したメモリコントローラ207によるセンサイベントを検知したカメラサーバ400の撮影画像のイベント発生時用記録媒体216への記録を継続する。その後、ステップS2006に戻り、イベント検知部400aのセンサスイッチがオフになるまで、ステップS2007の処理を繰り返す。一方、ステップS2006の判断の結果、センサスイッチがオフであると判断された場合には、ステップS2008に進む。   Subsequently, in step S2006, the CPU 201 determines whether or not the sensor switch of the event detection unit 400a remains on. As a result of this determination, if it is determined that the sensor switch remains on, the process proceeds to step S2007, and when an event of a captured image of the camera server 400 that detected the sensor event by the memory controller 207 started in step S2004 occurs. The recording on the recording medium 216 is continued. Then, it returns to step S2006 and repeats the process of step S2007 until the sensor switch of the event detection part 400a turns off. On the other hand, as a result of the determination in step S2006, if it is determined that the sensor switch is OFF, the process proceeds to step S2008.

続いて、ステップS2008において、CPU201は、予め設定されているセンサイベント録画時間が経過したか否かを判断する。この判断の結果、センサイベント録画時間が経過していないと判断された場合には、ステップS2007に進み、センサイベントを検知したカメラサーバ400における撮影画像のイベント発生時用記録媒体216への記録を継続する。一方、ステップS2008の判断の結果、センサイベント録画時間が経過したと判断された場合には、ステップS2009に進む。   Subsequently, in step S2008, the CPU 201 determines whether or not a preset sensor event recording time has elapsed. As a result of this determination, if it is determined that the sensor event recording time has not elapsed, the process proceeds to step S2007, and the camera server 400 that has detected the sensor event records the captured image on the event occurrence recording medium 216. continue. On the other hand, as a result of the determination in step S2008, if it is determined that the sensor event recording time has elapsed, the process proceeds to step S2009.

続いて、ステップS2009において、メモリコントローラ207は、センサイベントを検知したカメラサーバ400における撮影画像のイベント発生時用記録媒体216への記録を終了する。続いて、ステップS2010において、CPU201は、センサイベント終了時刻(センサイベントOFF時刻)をセンサイベント管理マスタ234に登録する。   Subsequently, in step S2009, the memory controller 207 ends the recording of the captured image on the event occurrence recording medium 216 in the camera server 400 that has detected the sensor event. Subsequently, in step S2010, the CPU 201 registers the sensor event end time (sensor event OFF time) in the sensor event management master 234.

続いて、ステップS2011において、CPU201は、ネットワークカメラ制御マスタ232から、通常録画パン値、通常録画チルト値、通常録画ズーム値、通常録画フレームレート値及び通常録画設定時間値を取得する。このタイミングで通常録画の各パラメータを取得することで、ネットワークカメラ制御マスタ232の当該カメラサーバ400の設定値が変更された場合にも、変更後の設定値を反映することができる。   Subsequently, in step S2011, the CPU 201 acquires a normal recording pan value, a normal recording tilt value, a normal recording zoom value, a normal recording frame rate value, and a normal recording setting time value from the network camera control master 232. By acquiring each parameter of normal recording at this timing, even if the setting value of the camera server 400 of the network camera control master 232 is changed, the changed setting value can be reflected.

続いて、ステップS2012において、通信I/Fコントローラ208は、ステップS2011で取得した通常録画に関する情報(パン値、チルト値、ズーム値、フレームレート値及び設定時間値)をセンサイベントを検知したカメラサーバ400に送信する。この通常録画に関する情報を受信した当該カメラサーバ400は、当該情報に基づいた条件で撮影を行い、当該撮影画像を録画サーバ200に送信する。その後、録画サーバ200では、通常録画に関する情報に基づいて撮影された撮影画像を通常録画用記録媒体である外部メモリ211に引続き記録することになる。なお、ステップS2004〜ステップS2009までの処理の間は、センサイベント録画に関する情報に基づいて撮影された撮影画像が当該通常録画用記録媒体である外部メモリ211に記録されることになる。   Subsequently, in step S2012, the communication I / F controller 208 detects the sensor event based on the information related to normal recording (pan value, tilt value, zoom value, frame rate value, and set time value) acquired in step S2011. 400. The camera server 400 that has received the information related to the normal recording performs shooting under the condition based on the information and transmits the captured image to the recording server 200. Thereafter, the recording server 200 continuously records the captured image captured based on the information related to the normal recording in the external memory 211 which is a recording medium for normal recording. Note that, during the processing from step S2004 to step S2009, a captured image captured based on information related to sensor event recording is recorded in the external memory 211 that is the recording medium for normal recording.

以上のステップS2001〜ステップS2012の処理により、通常録画中にあるカメラサーバ400でセンサイベントの検知がされた場合における録画サーバ200の処理が終了する。   Through the processing in steps S2001 to S2012 described above, the processing of the recording server 200 when the sensor event is detected by the camera server 400 during normal recording is completed.

図6は、本発明の実施形態に係わる録画サーバ200において、通常録画中にあるカメラサーバ400で動き検知イベントの検知がされた場合の処理のフローチャートである。図5の右側には、動き検知イベントを検知したカメラサーバ400の処理を示す。   FIG. 6 is a flowchart of processing when a motion detection event is detected by the camera server 400 during normal recording in the recording server 200 according to the embodiment of the present invention. The right side of FIG. 5 shows processing of the camera server 400 that has detected a motion detection event.

まず、ステップS3001において、CPU201は、カメラサーバ400に設けられているイベント検知部400aにより当該カメラサーバ400における撮影領域の動き検知領域1641で映像信号の動き検知がされた(動き検知オン)か否かを判断する。この判断の結果、動き検知がオンでないと判断された場合には、ステップS3001で待機する。一方、ステップS3001での判断の結果、動き検知がオンになったと判断された場合には、ステップS3002に進む。   First, in step S3001, the CPU 201 determines whether or not motion detection of the video signal has been detected in the motion detection area 1641 of the imaging area in the camera server 400 by the event detection unit 400a provided in the camera server 400 (motion detection on). Determine whether. As a result of this determination, if it is determined that motion detection is not on, the process waits in step S3001. On the other hand, as a result of the determination in step S3001, if it is determined that the motion detection is turned on, the process proceeds to step S3002.

続いて、ステップS3002において、通信I/Fコントローラ208は、動き検知がなされたカメラサーバ400から、現在撮影しているパン値、チルト値、ズーム値を受信して取得する。ここでは、各カメラサーバ400の設定が手動で変更されていることもあり得るために、あえてネットワークカメラ制御マスタ232に登録されている通常録画におけるパン値、チルト値、ズーム値を使用せずに、当該各値をカメラサーバ400から取得するようにしている。このとき、カメラサーバ400から取得したパン値、チルト値、ズーム値がネットワークカメラ制御マスタ232に登録されているものと異なるときには、ネットワークカメラ制御マスタ232に登録されている各値の書き換えを行う。   Subsequently, in step S3002, the communication I / F controller 208 receives and acquires the pan value, the tilt value, and the zoom value that are currently captured from the camera server 400 in which the motion is detected. Here, since the settings of each camera server 400 may be changed manually, the pan value, tilt value, and zoom value in the normal recording registered in the network camera control master 232 are not used. The respective values are obtained from the camera server 400. At this time, when the pan value, tilt value, and zoom value acquired from the camera server 400 are different from those registered in the network camera control master 232, each value registered in the network camera control master 232 is rewritten.

続いて、ステップS3003において、メモリコントローラ207は、カメラサーバ400から送信されてくる撮影画像をイベント発生時用記録媒体216に記録する処理を開始する。なお、このとき送られてくる撮影画像は、イベント発生時用記録媒体216に記録されると同時に、通常録画用記録媒体である外部メモリ211にも記録される。フレームレート値については、図5の説明と同様である。   Subsequently, in step S3003, the memory controller 207 starts a process of recording the captured image transmitted from the camera server 400 in the event occurrence recording medium 216. The photographed image sent at this time is recorded on the event occurrence recording medium 216 and at the same time on the external memory 211 which is a normal recording medium. The frame rate value is the same as that described in FIG.

続いて、ステップS3004において、CPU201は、カメラサーバ400の動き検知イベントに関する情報(動き検知イベントID、動き検知イベント発生のカメラサーバID、動き検知イベント発生時刻(動き検知イベントON時刻)、カメラPTZF値、動き検知イベント録画データの保管先、動き検知イベント録画データのファイル名)をセンサイベント管理マスタ234に登録する。   Subsequently, in step S3004, the CPU 201 determines information related to the motion detection event of the camera server 400 (motion detection event ID, camera server ID of motion detection event occurrence, motion detection event occurrence time (motion detection event ON time), camera PTZF value. , The storage location of motion detection event recording data, and the file name of motion detection event recording data) are registered in the sensor event management master 234.

続いて、ステップS3005において、CPU201は、イベント検知部400aによる動き検知がオンのままであるか否かを判断する。この判断の結果、動き検知がオンのままであると判断された場合には、ステップS3006に進み、ステップS3003で開始したメモリコントローラ207による動き検知イベントを検知したカメラサーバ400の撮影画像のイベント発生時用記録媒体216への記録を継続する。その後、ステップS3005に戻り、イベント検知部400aによる動き検知がオフになるまで、ステップS3006の処理を繰り返す。一方、ステップS3005の判断の結果、動き検知がオフであると判断された場合には、ステップS3007に進む。   Subsequently, in step S3005, the CPU 201 determines whether or not the motion detection by the event detection unit 400a remains on. As a result of the determination, if it is determined that the motion detection remains on, the process proceeds to step S3006, and an event of the captured image of the camera server 400 that detected the motion detection event by the memory controller 207 started in step S3003 occurs. Recording on the time recording medium 216 is continued. Thereafter, the process returns to step S3005, and the process of step S3006 is repeated until motion detection by the event detection unit 400a is turned off. On the other hand, as a result of the determination in step S3005, if it is determined that motion detection is off, the process proceeds to step S3007.

続いて、ステップS3007において、CPU201は、予め設定されている動き検知イベント録画時間が経過したか否かを判断する。この判断の結果、動き検知イベント録画時間が経過していないと判断された場合には、ステップS3006に進み、動き検知イベントを検知したカメラサーバ400における撮影画像のイベント発生時用記録媒体216への記録を継続する。一方、ステップS3007の判断の結果、動き検知イベント録画時間が経過したと判断された場合には、ステップS3008に進む。   In step S3007, the CPU 201 determines whether a preset motion detection event recording time has elapsed. As a result of this determination, if it is determined that the motion detection event recording time has not elapsed, the process proceeds to step S3006, where the camera server 400 that detected the motion detection event stores the captured image on the event occurrence recording medium 216. Continue recording. On the other hand, as a result of the determination in step S3007, if it is determined that the motion detection event recording time has elapsed, the process proceeds to step S3008.

続いて、ステップS3008において、メモリコントローラ207は、センサイベントを検知したカメラサーバ400における撮影画像のイベント発生時用記録媒体216への記録を終了する。続いて、ステップS3009において、CPU201は、動き検知イベント終了時刻(センサイベントOFF時刻)を動き検知イベント管理マスタ235に登録する。   Subsequently, in step S3008, the memory controller 207 ends the recording of the captured image on the event occurrence recording medium 216 in the camera server 400 that has detected the sensor event. Subsequently, in step S3009, the CPU 201 registers the motion detection event end time (sensor event OFF time) in the motion detection event management master 235.

続いて、ステップS3010において、メモリコントローラ207は、当該カメラサーバ400からの撮影画像を通常録画用記録媒体である外部メモリ211にのみ記録し、通常録画の記録状態に戻る。   Subsequently, in step S3010, the memory controller 207 records the captured image from the camera server 400 only in the external memory 211, which is a normal recording medium, and returns to the normal recording state.

以上のステップS3001〜ステップS3010の処理により、通常録画中にあるカメラサーバ400で動き検知イベントの検知がされた場合における録画サーバ200の処理が終了する。   Through the processing in steps S3001 to S3010, the processing of the recording server 200 when the motion detection event is detected in the camera server 400 during normal recording ends.

次に、各イベントに対して記録したイベント内容の分析処理について説明する。   Next, an analysis process of event contents recorded for each event will be described.

図7は、本発明の実施形態に係わる録画サーバ200のイベント分析処理のフローチャートである。この処理のフローチャートは、録画サーバ200とクライアント300との通信により行われる。ここで、図7の右側には、クライアント300に表示される表示画面を示す。また、図7のフローチャートでは、イベント分析を行う期間として、1週間の場合を例にして説明を行う。   FIG. 7 is a flowchart of the event analysis process of the recording server 200 according to the embodiment of the present invention. The flowchart of this process is performed by communication between the recording server 200 and the client 300. Here, the display screen displayed on the client 300 is shown on the right side of FIG. Further, in the flowchart of FIG. 7, the case where the event analysis is performed is described by taking a case of one week as an example.

まず、ステップS4001において、CPU201は、図19に示すクライアント300のイベント分析/集計ビューワ画面において、ユーザの操作によりイベント分析/集計ボタン1910が選択されたか否かを判断する。この判断の結果、イベント分析/集計ボタン1910が選択されていないと判断された場合には、当該イベント分析/集計ボタン1910までステップS4001で待機する。一方、ステップS4001での判断の結果、イベント分析/集計ボタン1910が選択されたと判断された場合には、ステップS4002に進む。   First, in step S4001, the CPU 201 determines whether or not the event analysis / counting button 1910 is selected by a user operation on the event analysis / counting viewer screen of the client 300 shown in FIG. If it is determined that the event analysis / counting button 1910 is not selected as a result of this determination, the process waits at step S4001 until the event analysis / counting button 1910 is selected. On the other hand, as a result of the determination in step S4001, if it is determined that the event analysis / counting button 1910 has been selected, the process proceeds to step S4002.

ここで、図19に示したクライアント300のイベント分析/集計ビューワ画面において、メイン表示領域1940には、同一の監視領域における各カメラサーバ400の各画像が表示されており、また、サブ表示領域1940には、各監視領域における各カメラサーバ400の各画像がサムネール画像として表示されている。また、イベント分析/集計ボタン1910の下方に設けられたタイムチャートには、各イベントの発生を示すフラグが示されている。例えば、1920で示したフラグが動き検知イベントの発生フラグ、1930で示したフラグがセンサイベントの発生フラグである。このタイムチャートを参照することにより、各イベントの発生頻度等がひと目でわかるようになっている。   Here, in the event analysis / aggregation viewer screen of the client 300 shown in FIG. 19, each image of each camera server 400 in the same monitoring area is displayed in the main display area 1940, and the sub display area 1940 is displayed. Each image of each camera server 400 in each monitoring area is displayed as a thumbnail image. A time chart provided below the event analysis / aggregation button 1910 shows a flag indicating the occurrence of each event. For example, a flag indicated by 1920 is a motion detection event occurrence flag, and a flag indicated by 1930 is a sensor event occurrence flag. By referring to this time chart, the occurrence frequency of each event can be understood at a glance.

続いて、ステップS4002において、CPU201は、本日からさかのぼり7日間の全イベントの集計処理を行う。そして、イベント分析処理マスタ233を参照して、分析表示用データの生成を行う。また、この際、生成した分析表示用データのうち、画面表示を行う表示用データに表示フラグを示す1を付加する。   Subsequently, in step S4002, the CPU 201 performs a totaling process for all the events going back from today for seven days. Then, with reference to the event analysis processing master 233, analysis display data is generated. At this time, among the generated analysis display data, 1 indicating a display flag is added to display data for screen display.

続いて、ステップS4003において、メモリコントローラ207は、生成された分析表示用データを外部メモリ211等に記録する。ここで、当該生成された分析表示用データはイベント発生時用記録媒体216等の他のメモリに記録されても良い。   Subsequently, in step S4003, the memory controller 207 records the generated analysis display data in the external memory 211 or the like. Here, the generated analysis display data may be recorded in another memory such as the event occurrence recording medium 216.

続いて、ステップS4004において、CPU201は、表示フラグを示す1が付加された分析表示用データに基づいて週間イベント分析表を生成する。そして、通信I/Fコントローラ208は、当該週間イベント分析表をクライアント300に送信する。クライアント300では、受信した週間イベント分析表を表示する。   In step S4004, the CPU 201 generates a weekly event analysis table based on the analysis display data to which 1 indicating a display flag is added. Then, the communication I / F controller 208 transmits the weekly event analysis table to the client 300. The client 300 displays the received weekly event analysis table.

図20は、クライアント300に表示される週間イベント分析表の一例を示した図である。図20の週間イベント分析表には、カレンダー2010、月間ボタン2020、1日ボタン2030が表示されており、マウス等のポインティングデバイスで各ボタンを選択することにより、集計単位を変更することができる。また、図20の週間イベント分析表には、日付け送りを行うための1週送りボタン2060及び1日送りボタン2070も設けられている。また、サムネール表示ボタン2040を選択すると、各イベント発生時の代表的なサムネール画像2050が1枚表示されるようになっている。また、この週間イベント分析表には、1週間の各イベント(センサイベント、動き検知イベント)の発生件数を集計した週間イベント発生件数2091が表示されるようになっている。さらに、1日の各イベント(センサイベント、動き検知イベント)の発生件数を集計した1日イベント発生件数2092も表示されるようになっている。   FIG. 20 is a diagram showing an example of a weekly event analysis table displayed on the client 300. In the weekly event analysis table of FIG. 20, a calendar 2010, a monthly button 2020, and a day button 2030 are displayed, and the aggregation unit can be changed by selecting each button with a pointing device such as a mouse. In addition, the weekly event analysis table of FIG. 20 is also provided with a 1-week feed button 2060 and a 1-day feed button 2070 for performing date feeding. When the thumbnail display button 2040 is selected, one representative thumbnail image 2050 when each event occurs is displayed. In addition, the weekly event analysis table displays the number of weekly event occurrences 2091 obtained by tabulating the number of occurrences of each week's events (sensor events, motion detection events). Further, a daily event occurrence number 2092 in which the occurrence number of each day event (sensor event, motion detection event) is totaled is also displayed.

続いて、ステップS4005において、CPU201は、ユーザの操作により図20に示した週間イベント分析表のカレンダー2010から日付けの指定があるか否かを判断する。この判断の結果、日付けの指定があると判断された場合には、ステップS4006に進む。そして、ステップS4006において、CPU201は、指定された日付けの前後3日間の計1週間における全イベントの集計処理を再度行う。そして、イベント分析処理マスタ233を参照して、分析表示用データの生成を行う。また、この際、生成した分析表示用データのうち、画面表示を行う表示用データに表示フラグを示す1を付加する。その後、ステップS4003に戻る。   Subsequently, in step S4005, the CPU 201 determines whether or not a date is specified from the calendar 2010 of the weekly event analysis table shown in FIG. If it is determined that there is a date designation as a result of this determination, the process advances to step S4006. In step S4006, the CPU 201 performs again the totaling process of all events in a total of one week for three days before and after the designated date. Then, with reference to the event analysis processing master 233, analysis display data is generated. At this time, among the generated analysis display data, 1 indicating a display flag is added to display data for screen display. Thereafter, the process returns to step S4003.

一方、ステップS4005の判断の結果、日付けの指定がないと判断された場合には、ステップS4007に進む。   On the other hand, as a result of the determination in step S4005, if it is determined that no date is specified, the process proceeds to step S4007.

続いて、ステップS4007において、CPU201は、ユーザにより図20に示した週間イベント分析表の1週送りボタン2060または1日送りボタン2070が操作されたか否かを判断する。この判断の結果、1週送りボタン2060または1日送りボタン2070が操作されたと判断された場合には、ステップS4008に進む。そして、ステップS4008において、CPU201は、指定された日付けの前後3日間の計1週間における全イベントの集計処理を再度行う。そして、イベント分析処理マスタ233を参照して、分析表示用データの生成を行う。また、この際、生成した分析表示用データのうち、画面表示を行う表示用データに表示フラグを示す1を付加する。その後、ステップS4003に戻る。   Subsequently, in step S4007, the CPU 201 determines whether or not the user has operated the 1-week feed button 2060 or the 1-day feed button 2070 in the weekly event analysis table shown in FIG. If it is determined that the one-week advance button 2060 or the one-day advance button 2070 has been operated as a result of this determination, the process advances to step S4008. In step S4008, the CPU 201 performs again the totaling process of all events for a total of one week for three days before and after the designated date. Then, with reference to the event analysis processing master 233, analysis display data is generated. At this time, among the generated analysis display data, 1 indicating a display flag is added to display data for screen display. Thereafter, the process returns to step S4003.

一方、ステップS4007の判断の結果、1週送りボタン2060または1日送りボタン2070が操作されていないと判断された場合には、ステップS4009に進む。   On the other hand, as a result of the determination in step S4007, if it is determined that the 1-week advance button 2060 or the 1-day advance button 2070 is not operated, the process proceeds to step S4009.

続いて、ステップS4009において、CPU201は、ユーザにより図20に示した週間イベント分析表のサムネール表示ボタン2040が操作されたか否かを判断する。この判断の結果、サムネール表示ボタン2040が操作されたと判断された場合には、ステップS4010に進む。そして、ステップS4010において、CPU201は、イベント発生時用記録媒体216に記録されている各画像から表示用のサムネールデータを生成する。その後、ステップS4003に戻る。   Subsequently, in step S4009, the CPU 201 determines whether or not the user has operated the thumbnail display button 2040 of the weekly event analysis table shown in FIG. As a result of the determination, if it is determined that the thumbnail display button 2040 has been operated, the process proceeds to step S4010. In step S4010, the CPU 201 generates thumbnail data for display from each image recorded on the event occurrence recording medium 216. Thereafter, the process returns to step S4003.

一方、ステップS4009の判断の結果、サムネール表示ボタン2040が操作されていないと判断された場合には、ステップS4011に進む。   On the other hand, as a result of the determination in step S4009, if it is determined that the thumbnail display button 2040 has not been operated, the process proceeds to step S4011.

続いて、ステップS4011において、CPU201は、ユーザにより図20に示した週間イベント分析表の月間ボタン2020が操作されたか否かを判断する。この判断の結果、月間ボタン2020が操作されたと判断された場合には、クライアント300に月間イベント分析表を新たに表示して処理を行う月間処理に移行する。一方、ステップS4011の判断の結果、月間ボタン2020が操作されていないと判断された場合には、ステップS4012に進む。   Subsequently, in step S4011, the CPU 201 determines whether or not the user has operated the monthly button 2020 in the weekly event analysis table shown in FIG. If it is determined that the monthly button 2020 has been operated as a result of the determination, the process proceeds to a monthly process in which a monthly event analysis table is newly displayed on the client 300 and processing is performed. On the other hand, if it is determined that the monthly button 2020 is not operated as a result of the determination in step S4011, the process proceeds to step S4012.

続いて、ステップS4012において、CPU201は、ユーザにより図20に示した週間イベント分析表の1日ボタン2030が操作されたか否かを判断する。この判断の結果、1日ボタン2030が操作されたと判断された場合には、クライアント300に1日イベント分析表を新たに表示して処理を行う1日処理に移行する。一方、ステップS4012の判断の結果、1日ボタン2030が操作されていないと判断された場合には、ステップS4013に進む。   Subsequently, in step S4012, the CPU 201 determines whether or not the user has operated the 1-day button 2030 of the weekly event analysis table shown in FIG. If it is determined that the 1-day button 2030 has been operated as a result of this determination, the process proceeds to 1-day processing in which the 1-day event analysis table is newly displayed on the client 300 for processing. On the other hand, if it is determined that the one-day button 2030 has not been operated as a result of the determination in step S4012, the process proceeds to step S4013.

続いて、ステップS4013において、CPU201は、ユーザにより図20に示した週間イベント分析表の終了ボタン2080が操作されたか否かを判断する。この判断の結果、終了ボタン2080が操作されたと判断された場合には、処理を終了する。一方、ステップS4013の判断の結果、終了ボタン2080が操作されていないと判断された場合には、図8のステップS5001に進む。   Subsequently, in step S4013, the CPU 201 determines whether or not the user has operated the end button 2080 of the weekly event analysis table shown in FIG. As a result of the determination, if it is determined that the end button 2080 has been operated, the process is terminated. On the other hand, if it is determined in step S4013 that the end button 2080 has not been operated, the process advances to step S5001 in FIG.

続いて、図8のステップS5001において、CPU201は、ユーザにより図20に示した集計対象/カメラ指定ボタン2090が操作されたか否かを判断する。ここで、このステップS5001には、上述した月間処理及び1日処理が終了した後においても移行する。この際、月間処理においては月間イベント分析表における集計対象/カメラ指定ボタンが操作されたか否かを、1日処理においては1日イベント分析表における集計対象/カメラ指定ボタンが操作されたか否かを判断する。なお、以降の説明からは、図21に示す1日イベント分析表を用いた説明を行う。但し、週間イベント分析表及び月間イベント分析表を用いた場合においても適用可能である。   Subsequently, in step S5001 in FIG. 8, the CPU 201 determines whether or not the aggregation target / camera designation button 2090 shown in FIG. 20 has been operated by the user. Here, the process proceeds to step S5001 even after the above-described monthly processing and one-day processing are completed. At this time, in the monthly processing, whether or not the aggregation target / camera designation button in the monthly event analysis table has been operated, and in the 1-day processing, whether or not the aggregation target / camera designation button in the daily event analysis table has been operated. to decide. In addition, from the following description, it demonstrates using the 1 day event analysis table | surface shown in FIG. However, the present invention can also be applied when using a weekly event analysis table and a monthly event analysis table.

ステップS5001の判断の結果、集計対象/カメラ指定ボタン2090が操作されたと判断された場合には、ユーザから指定されたイベント毎、あるいは指定されたカメラサーバ400毎に集計を行う集計単位変更処理に移行する。一方、ステップS5001の判断の結果、集計対象/カメラ指定ボタン2090が操作されていないと判断された場合には、ステップS5002に進む。   If it is determined as a result of the determination in step S5001 that the aggregation target / camera designation button 2090 has been operated, the aggregation unit changing process is performed for aggregation for each event designated by the user or for each designated camera server 400. Transition. On the other hand, as a result of the determination in step S5001, if it is determined that the aggregation target / camera designation button 2090 has not been operated, the process proceeds to step S5002.

続いて、ステップS5002において、CPU201は、ユーザにより図21に表示されたイベント(本実施形態においては、イベントにおけるサムネール画像2110)がダブルクリックにより選択されたか否かを判断する。この判断の結果、ダブルクリックにより選択されたと判断された場合には、ステップS5003に進む。一方、ステップS5002での判断の結果、ダブルクリックにより選択されていないと判断された場合には、ステップS5004に進む。   Subsequently, in step S5002, the CPU 201 determines whether or not the event (the thumbnail image 2110 in the event in the present embodiment) displayed in FIG. As a result of the determination, if it is determined that the selection has been made by double-clicking, the process proceeds to step S5003. On the other hand, as a result of the determination in step S5002, if it is determined that it is not selected by double clicking, the process proceeds to step S5004.

続いて、ステップS5003において、CPU201は、ダブルクリックにより選択されたイベントのイベント発生時における画像をイベント発生時用記録媒体216から取得し、取得したイベント画像2120を画面上で再生する。   Subsequently, in step S5003, the CPU 201 acquires an image at the event occurrence time of the event selected by double-clicking from the event occurrence recording medium 216, and reproduces the acquired event image 2120 on the screen.

続いて、ステップS5004において、CPU201は、ユーザにより図22に表示されたイベント(本実施形態においては、イベントにおけるサムネール画像2110)がクリックにより指定され、かつ、再生設定ボタン2210が選択されたか否かを判断する。この判断の結果、イベントがクリックにより指定され、かつ、再生設定ボタン2210が選択されたと判断された場合には、図9のステップS6001に進む。一方、ステップS5004での判断の結果、イベントがクリックにより指定され、かつ、再生設定ボタン2210が選択されていないと判断された場合には、ステップS5005に進む。   Subsequently, in step S5004, the CPU 201 determines whether or not the event displayed in FIG. 22 (in this embodiment, the thumbnail image 2110 in the event) is specified by clicking and the playback setting button 2210 is selected. Judging. As a result of the determination, if it is determined that the event is designated by clicking and the reproduction setting button 2210 is selected, the process proceeds to step S6001 in FIG. On the other hand, as a result of the determination in step S5004, if it is determined that the event is designated by clicking and the reproduction setting button 2210 is not selected, the process proceeds to step S5005.

続いて、ステップS5005において、CPU201は、ユーザにより図22に表示されたファイル出力ボタン2220が選択されたか否かを判断する。この判断の結果、ファイル出力ボタン2220が選択されていないと判断された場合には、ステップS5009に進む。一方、ステップS5005での判断の結果、ファイル出力ボタン2220が選択されたと判断された場合には、ステップS5006に進む。   Subsequently, in step S5005, the CPU 201 determines whether or not the file output button 2220 displayed in FIG. 22 has been selected by the user. As a result of this determination, if it is determined that the file output button 2220 is not selected, the process advances to step S5009. On the other hand, if it is determined in step S5005 that the file output button 2220 has been selected, the process advances to step S5006.

続いて、ステップS5006において、CPU201は、現在、表示用に集計されているイベント分析データをSYLKファイル形式に変換し、分析表示用データを生成する(ステップS5007)。続いて、ステップS5008において、CPU201は、ユーザにより図23の表示画面においてイベント分析データをSYLKファイルで保存する選択がなされると、生成した分析表示用データを外部メモリ211等に保存する。   Subsequently, in step S5006, the CPU 201 converts the event analysis data currently tabulated for display into the SYLK file format, and generates analysis display data (step S5007). Subsequently, in step S5008, when the user selects to save the event analysis data as a SYLK file on the display screen of FIG. 23, the CPU 201 saves the generated analysis display data in the external memory 211 or the like.

続いて、ステップS5009において、CPU201は、ユーザにより図22に表示されたグラフボタン2230が選択されたか否かを判断する。この判断の結果、グラフボタン2230が選択されたと判断された場合には、図10のステップS7001に進む。一方、ステップS5009での判断の結果、グラフボタン2230が選択されていないと判断された場合には、ステップS5010に進む。   Subsequently, in step S5009, the CPU 201 determines whether or not the graph button 2230 displayed in FIG. 22 has been selected by the user. As a result of the determination, if it is determined that the graph button 2230 has been selected, the process proceeds to step S7001 in FIG. On the other hand, if the result of determination in step S5009 is that the graph button 2230 has not been selected, processing proceeds to step S5010.

続いて、ステップS5010において、CPU201は、ユーザにより図24に表示されたイベントがクリックにより指定され、かつサムネール出力ボタン2420が選択されたか否かを判断する。この判断の結果、イベントがクリックにより指定され、かつ、かつサムネール出力ボタン2420が選択されたと判断された場合には、図11のステップS8001に進む。一方、ステップS5010での判断の結果、イベントがクリックにより指定され、かつ、かつサムネール出力ボタン2420が選択されていないと判断された場合には、図7のステップS4004に移行する。   Subsequently, in step S5010, the CPU 201 determines whether or not the event displayed in FIG. 24 is specified by clicking by the user and the thumbnail output button 2420 is selected. As a result of the determination, if it is determined that the event is specified by clicking and the thumbnail output button 2420 is selected, the process proceeds to step S8001 in FIG. On the other hand, as a result of the determination in step S5010, if it is determined that the event is specified by clicking and the thumbnail output button 2420 is not selected, the process proceeds to step S4004 in FIG.

次に、図8のステップS5004で図22に表示されたイベントがクリックにより指定され、かつ、再生設定ボタン2210が選択された場合の処理について図9を用いて説明する。   Next, the processing when the event displayed in FIG. 22 in step S5004 in FIG. 8 is designated by clicking and the reproduction setting button 2210 is selected will be described with reference to FIG.

まず、ステップS6001において、CPU201は、指定されたイベントの情報に基づき録画再生の設定画面を生成する。そして、通信I/Fコントローラ208は、当該録画再生の設定画面をクライアント300に送信する。クライアント300では、受信した録画再生の設定画面を表示する。   First, in step S6001, the CPU 201 generates a recording / playback setting screen based on information of a designated event. Then, the communication I / F controller 208 transmits the recording / playback setting screen to the client 300. The client 300 displays the received recording / playback setting screen.

図25は、クライアント300に表示される録画再生の設定画面の一例を示した図である。この録画再生の設定画面には、ユーザにより指定されたイベントの情報を表示するイベント情報表示領域2510と、録画データ再生の詳細設定表示領域2520が設けられている。また、録画データ再生の詳細設定表示領域2520には、ユーザの操作によりイベント録画画像の再生設定、イベント前後の画像も再生する設定、イベントと同時刻の他のカメラ画像の再生設定が行えるようになっている。   FIG. 25 is a diagram showing an example of a recording / playback setting screen displayed on the client 300. This recording / playback setting screen is provided with an event information display area 2510 for displaying information of an event designated by the user and a detailed setting display area 2520 for recording data playback. Further, in the detailed setting display area 2520 for recording data playback, it is possible to perform playback settings for event recording images, playback settings for images before and after the event, and playback settings for other camera images at the same time as the event. It has become.

続いて、ステップS6002において、CPU201は、ユーザの操作により図25の「イベント録画画像の再生」ボタン2521が選択されたか否かを判断する。この判断の結果、「イベント録画画像の再生」ボタン2521が選択されたと判断された場合には、ステップS6005に進む。一方、ステップS6002での判断の結果、「イベント録画画像の再生」ボタン2521が選択されていないと判断された場合には、ステップS6003に進む。   Subsequently, in step S6002, the CPU 201 determines whether or not the “reproduce event recorded image” button 2521 in FIG. 25 has been selected by a user operation. As a result of the determination, if it is determined that the “playback of event recorded image” button 2521 is selected, the process advances to step S6005. On the other hand, as a result of the determination in step S6002, if it is determined that the “reproduce event recorded image” button 2521 is not selected, the process proceeds to step S6003.

続いて、ステップS6003において、CPU201は、ユーザの操作により図25の「イベント前後の画像も再生」ボタン2522が選択されたか否かを判断する。この判断の結果、「イベント前後の画像も再生」ボタン2522が選択されたと判断された場合には、ステップS6004に進む。一方、ステップS6003での判断の結果、「イベント前後の画像も再生」ボタン2522が選択されていないと判断された場合には、ステップS6006に進む。   Subsequently, in step S6003, the CPU 201 determines whether or not the “play image before and after event” button 2522 in FIG. 25 is selected by the user's operation. As a result of this determination, if it is determined that the “play image before and after event” button 2522 is selected, the process advances to step S6004. On the other hand, as a result of the determination in step S6003, if it is determined that the “play image before and after event” button 2522 is not selected, the process advances to step S6006.

続いて、ステップS6004において、CPU201は、ユーザの操作により図25のイベント前後の時間設定部2523に指示されたイベント前後の時間がともに0秒であるか否かを判断する。この判断の結果、イベント前後の時間のうち、少なくともいずれか一方が0秒でないと判断された場合には、ステップS6009に進む。一方、ステップS6004での判断の結果、イベント前後の時間がともに0秒であると判断された場合には、ステップS6004に進む。   Subsequently, in step S6004, the CPU 201 determines whether or not the time before and after the event instructed by the time setting unit 2523 before and after the event in FIG. As a result of the determination, if it is determined that at least one of the times before and after the event is not 0 seconds, the process proceeds to step S6009. On the other hand, as a result of the determination in step S6004, if it is determined that the time before and after the event is 0 second, the process proceeds to step S6004.

ステップS6002で「イベント録画画像の再生」ボタン2521が選択されたと判断された場合、あるいは、ステップS6004でイベント前後の時間がともに0秒であると判断された場合には、続いて、ステップS6005において、CPU201は、当該イベントにおける画像をイベント発生時用記録媒体216から取得し、取得したイベント画像を画面上で再生する。その後、図8のステップS5004に移行する。   If it is determined in step S6002 that the “playback of event recorded image” button 2521 has been selected, or if it is determined in step S6004 that both the time before and after the event are 0 seconds, then in step S6005 The CPU 201 acquires an image of the event from the event occurrence recording medium 216 and reproduces the acquired event image on the screen. Thereafter, the process proceeds to step S5004 in FIG.

ステップS6003で「イベント前後の画像も再生」ボタン2522が選択されたと判断された場合には、続いて、ステップS6006において、CPU201は、ユーザの操作により図25の「イベントと同時刻の他のカメラ画像の再生」ボタン2524が選択されたか否かを判断する。この判断の結果、「イベントと同時刻の他のカメラ画像の再生」ボタン2524が選択されていないと判断された場合には、図8のステップS5005に移行する。一方、ステップS6006での判断の結果、「イベントと同時刻の他のカメラ画像の再生」ボタン2524が選択されたと判断された場合には、ステップS6007に進む。   If it is determined in step S6003 that the “play also images before and after the event” button 2522 is selected, then in step S6006, the CPU 201 operates the “other camera at the same time as the event” in FIG. It is determined whether or not the “image playback” button 2524 has been selected. As a result of the determination, if it is determined that the “reproduce other camera image at the same time as the event” button 2524 is not selected, the process proceeds to step S5005 in FIG. On the other hand, as a result of the determination in step S6006, if it is determined that the “playback of other camera images at the same time as the event” button 2524 is selected, the process proceeds to step S6007.

続いて、ステップS6007において、CPU201は、図25の録画再生の設定画面より該当するカメラサーバ400を選択を行う。   In step S6007, the CPU 201 selects the corresponding camera server 400 from the recording / playback setting screen of FIG.

続いて、ステップS6008において、CPU201は、通常録画用媒体である外部メモリ211から該当するカメラサーバ400の該当する時間における画像データの再生を行う。   Subsequently, in step S6008, the CPU 201 reproduces image data at the corresponding time of the corresponding camera server 400 from the external memory 211 that is a normal recording medium.

ステップS6004でイベント前後の時間のうち、少なくともいずれか一方が0秒でないと判断された場合には、続いて、ステップS6009において、CPU201は、イベント発生時用記録媒体216から該当するカメラサーバ400の該当する時間における画像データの再生を行う。   If it is determined in step S6004 that at least one of the times before and after the event is not 0 seconds, then in step S6009, the CPU 201 determines that the corresponding camera server 400 from the event occurrence recording medium 216. Image data is reproduced at the corresponding time.

ステップS6008及びステップS6009の処理が終了した後、図8のステップS5004に移行する。以上のステップS6001〜ステップS6009での処理により、図22に表示されたイベントがクリックにより指定され、かつ、再生設定ボタン2210が選択された場合の再生処理が終了する。   After the processing of step S6008 and step S6009 is completed, the process proceeds to step S5004 in FIG. Through the processes in steps S6001 to S6009 described above, the reproduction process when the event displayed in FIG. 22 is designated by clicking and the reproduction setting button 2210 is selected is completed.

次に、図8のステップS5009で図22に表示されたグラフボタン2230が選択されたと判断された場合の処理について図10を用いて説明する。   Next, a process when it is determined in step S5009 in FIG. 8 that the graph button 2230 displayed in FIG. 22 has been selected will be described with reference to FIG.

まず、ステップS7001において、CPU201は、集計グラフの選択画面を生成する。そして、通信I/Fコントローラ208は、当該集計グラフの選択画面をクライアント300に送信する。クライアント300では、受信した集計グラフの選択画面を表示する。   First, in step S7001, the CPU 201 generates a summary graph selection screen. Then, the communication I / F controller 208 transmits a selection screen for the total graph to the client 300. The client 300 displays a selection screen for the received total graph.

図26は、クライアント300に表示される集計グラフの選択画面の一例を示した図である。この集計グラフの選択画面には、棒グラフ選択領域2610と、折れ線グラフ選択領域2620が設けられている。棒グラフ選択領域2610は、「棒グラフ」ボタン2611を選択することにより有効となる。また、棒グラフ選択領域2610には、「全イベント/全ロケーション」による設定、「イベント別/全ロケーション」による設定、「全イベント/ロケーション別」による設定が行えるようになっている。折れ線グラフ選択領域2620は、「折れ線」ボタン2621を選択することにより有効となる。また、折れ線グラフ選択領域2620には、「全イベント/全ロケーション」による設定、「イベント別/全ロケーション」による設定、「全イベント/ロケーション別」による設定が行えるようになっている。   FIG. 26 is a diagram illustrating an example of a total graph selection screen displayed on the client 300. In the total graph selection screen, a bar graph selection area 2610 and a line graph selection area 2620 are provided. The bar graph selection area 2610 is activated by selecting a “bar graph” button 2611. The bar graph selection area 2610 can be set by “all events / all locations”, “by event / all locations”, and “by all events / location”. The line graph selection area 2620 is enabled by selecting a “line line” button 2621. The line graph selection area 2620 can be set by “all events / all locations”, “by event / all locations”, and “by all events / location”.

続いて、ステップS7002において、CPU201は、ユーザの操作により図26の「棒グラフ」ボタン2611が選択されたか否かを判断する。この判断の結果、「棒グラフ」ボタン2611が選択されたと判断された場合には、ステップS7003に進む。一方、ステップS7002での判断の結果、「棒グラフ」ボタン2611が選択されていないと判断された場合には、ステップS7012に進む。   Subsequently, in step S7002, the CPU 201 determines whether or not the “bar graph” button 2611 in FIG. 26 is selected by a user operation. As a result of the determination, if it is determined that the “bar graph” button 2611 is selected, the process advances to step S7003. On the other hand, if it is determined in step S7002 that the “bar graph” button 2611 is not selected, the process advances to step S7012.

続いて、ステップS7003において、CPU201は、ユーザの操作により図26の「全イベント/全ロケーション」ボタン2612が選択されたか否かを判断する。この判断の結果、「全イベント/全ロケーション」ボタン2612が選択されたと判断された場合には、ステップS7004に進む。一方、ステップS7003での判断の結果、「全イベント/全ロケーション」ボタン2612が選択されていないと判断された場合には、ステップS7006に進む。   Subsequently, in step S7003, the CPU 201 determines whether or not the “all events / all locations” button 2612 in FIG. 26 has been selected by a user operation. As a result of this determination, if it is determined that the “all events / all locations” button 2612 has been selected, the process advances to step S7004. On the other hand, if it is determined in step S7003 that the “all events / all locations” button 2612 is not selected, the process advances to step S7006.

続いて、ステップS7004において、CPU201は、「全イベント/全ロケーション」におけるイベントを集計して、分析表示用データを生成する。続いて、ステップS7005において、CPU201は、ステップS7004で生成した分析表示用データに基づいて「全イベント/全ロケーション」における棒グラフを作成する。そして、通信I/Fコントローラ208は、当該棒グラフをクライアント300に送信する。クライアント300では、受信した「全イベント/全ロケーション」における棒グラフを表示する。   Subsequently, in step S7004, the CPU 201 aggregates events in “all events / all locations” to generate analysis display data. Subsequently, in step S7005, the CPU 201 creates a bar graph for “all events / all locations” based on the analysis display data generated in step S7004. Then, the communication I / F controller 208 transmits the bar graph to the client 300. The client 300 displays a bar graph for the received “all events / all locations”.

ステップS7003で「全イベント/全ロケーション」ボタン2612が選択されていないと判断された場合には、続いて、ステップS7006において、CPU201は、ユーザの操作により図26の「イベント別/全ロケーション」ボタン2613が選択されたか否かを判断する。この判断の結果、「イベント別/全ロケーション」ボタン2613が選択されたと判断された場合には、ステップS7007に進む。一方、ステップS7006での判断の結果、「イベント別/全ロケーション」ボタン2613が選択されていないと判断された場合には、ステップS7009に進む。   If it is determined in step S7003 that the “all events / all locations” button 2612 is not selected, then in step S7006, the CPU 201 operates the “event / all locations” button in FIG. It is determined whether or not 2613 has been selected. If it is determined that the “by event / all locations” button 2613 is selected as a result of the determination, the process advances to step S7007. On the other hand, if it is determined in step S7006 that the “by event / all locations” button 2613 has not been selected, the process advances to step S7009.

続いて、ステップS7007において、CPU201は、「イベント別/全ロケーション」におけるイベントを集計して、分析表示用データを生成する。続いて、ステップS7008において、CPU201は、ステップS7007で生成した分析表示用データに基づいて「イベント別/全ロケーション」における棒グラフを作成する。そして、通信I/Fコントローラ208は、当該棒グラフをクライアント300に送信する。クライアント300では、受信した「イベント別/全ロケーション」における棒グラフを表示する。   Subsequently, in step S7007, the CPU 201 aggregates events in “by event / all locations” to generate analysis display data. Subsequently, in step S7008, the CPU 201 creates a bar graph for “by event / all locations” based on the analysis display data generated in step S7007. Then, the communication I / F controller 208 transmits the bar graph to the client 300. The client 300 displays a bar graph in the received “by event / all locations”.

ステップS7006で「イベント別/全ロケーション」ボタン2613が選択されていないと判断された場合には、続いて、ステップS7009において、CPU201は、ユーザの操作により図26の「全イベント/ロケーション別」ボタン2614が選択されたか否かを判断する。この判断の結果、「全イベント/ロケーション別」ボタン2614が選択されたと判断された場合には、ステップS7010に進む。   If it is determined in step S7006 that the “by event / all locations” button 2613 is not selected, then in step S7009, the CPU 201 operates the “all events / by location” button in FIG. It is determined whether 2614 is selected. If it is determined that the “all events / by location” button 2614 is selected, the process advances to step S7010.

続いて、ステップS7010において、CPU201は、「全イベント/ロケーション別」におけるイベントを集計して、分析表示用データを生成する。続いて、ステップS7011において、CPU201は、ステップS7010で生成した分析表示用データに基づいて「全イベント/ロケーション別」における棒グラフを作成する。そして、通信I/Fコントローラ208は、当該棒グラフをクライアント300に送信する。クライアント300では、受信した「全イベント/ロケーション別」における棒グラフを表示する。   Subsequently, in step S7010, the CPU 201 aggregates events in “all events / by location” to generate analysis display data. Subsequently, in step S7011, the CPU 201 creates a bar graph for “all events / by location” based on the analysis display data generated in step S7010. Then, the communication I / F controller 208 transmits the bar graph to the client 300. The client 300 displays a bar graph for the received “all events / by location”.

ステップS7005の処理が終了した場合、ステップS7008の処理が終了した場合、ステップS7011の処理が終了した場合、もしくはステップS7009で「全イベント/ロケーション別」ボタン2614が選択されていないと判断された場合には、その後、図8のステップS5010に移行する。   When the process of step S7005 is completed, when the process of step S7008 is completed, when the process of step S7011 is completed, or when it is determined in step S7009 that the “by event / location” button 2614 is not selected. Then, the process proceeds to step S5010 in FIG.

また、ステップS7002で「棒グラフ」ボタン2611が選択されていないと判断された場合には、続いて、ステップS7012において、CPU201は、ユーザの操作により図26の「折れ線グラフ」ボタン2621が選択されたか否かを判断する。この判断の結果、「折れ線グラフ」ボタン2621が選択されたと判断された場合には、ステップS7013に進む。   If it is determined in step S7002 that the “bar graph” button 2611 has not been selected, then in step S7012, the CPU 201 has selected the “line graph” button 2621 in FIG. Judge whether or not. If it is determined that the “line graph” button 2621 is selected as a result of the determination, the process advances to step S7013.

続いて、ステップS7013において、CPU201は、ユーザの操作により図26の「全イベント/全ロケーション」ボタン2622が選択されたか否かを判断する。この判断の結果、「全イベント/全ロケーション」ボタン2622が選択されたと判断された場合には、ステップS7014に進む。一方、ステップS7013での判断の結果、「全イベント/全ロケーション」ボタン2622が選択されていないと判断された場合には、ステップS7016に進む。   Subsequently, in step S7013, the CPU 201 determines whether or not the “all events / all locations” button 2622 in FIG. 26 has been selected by a user operation. As a result of this determination, if it is determined that the “all events / all locations” button 2622 has been selected, the process advances to step S7014. On the other hand, if it is determined in step S7013 that the “all events / all locations” button 2622 has not been selected, the process advances to step S7016.

続いて、ステップS7014において、CPU201は、「全イベント/全ロケーション」におけるイベントを集計して、分析表示用データを生成する。続いて、ステップS7015において、CPU201は、ステップS7014で生成した分析表示用データに基づいて「全イベント/全ロケーション」における折れ線グラフを作成する。そして、通信I/Fコントローラ208は、当該折れ線グラフをクライアント300に送信する。クライアント300では、受信した「全イベント/全ロケーション」における折れ線グラフを表示する。   Subsequently, in step S <b> 7014, the CPU 201 aggregates events in “all events / all locations” to generate analysis display data. Subsequently, in step S7015, the CPU 201 creates a line graph for “all events / all locations” based on the analysis display data generated in step S7014. Then, the communication I / F controller 208 transmits the line graph to the client 300. The client 300 displays a line graph for the received “all events / all locations”.

ステップS7013で「全イベント/全ロケーション」ボタン2622が選択されていないと判断された場合には、続いて、ステップS7016において、CPU201は、ユーザの操作により図26の「イベント別/全ロケーション」ボタン2623が選択されたか否かを判断する。この判断の結果、「イベント別/全ロケーション」ボタン2623が選択されたと判断された場合には、ステップS7017に進む。一方、ステップS7016での判断の結果、「イベント別/全ロケーション」ボタン2623が選択されていないと判断された場合には、ステップS7019に進む。   If it is determined in step S7013 that the “all events / all locations” button 2622 is not selected, then in step S7016, the CPU 201 operates the “event / all locations” button in FIG. It is determined whether or not 2623 is selected. As a result of the judgment, if it is determined that the "event-specific / all locations" button 2623 has been selected, the process proceeds to step S7017. On the other hand, if it is determined in step S7016 that the “by event / all locations” button 2623 is not selected, the process advances to step S7019.

続いて、ステップS7017において、CPU201は、「イベント別/全ロケーション」におけるイベントを集計して、分析表示用データを生成する。続いて、ステップS7008において、CPU201は、ステップS7017で生成した分析表示用データに基づいて「イベント別/全ロケーション」における折れ線グラフを作成する。そして、通信I/Fコントローラ208は、当該折れ線グラフをクライアント300に送信する。クライアント300では、受信した「イベント別/全ロケーション」における折れ線グラフを表示する。   Subsequently, in step S <b> 7017, the CPU 201 aggregates events in “by event / all locations” to generate analysis display data. Subsequently, in step S7008, the CPU 201 creates a line graph in “by event / all locations” based on the analysis display data generated in step S7017. Then, the communication I / F controller 208 transmits the line graph to the client 300. The client 300 displays a line graph in the received “by event / all locations”.

ステップS7016で「イベント別/全ロケーション」ボタン2623が選択されていないと判断された場合には、続いて、ステップS7019において、CPU201は、ユーザの操作により図26の「全イベント/ロケーション別」ボタン2624が選択されたか否かを判断する。この判断の結果、「全イベント/ロケーション別」ボタン2624が選択されたと判断された場合には、ステップS7020に進む。   If it is determined in step S7016 that the “by event / all locations” button 2623 has not been selected, then in step S7019, the CPU 201 operates the “all events / by location” button in FIG. It is determined whether or not 2624 is selected. If it is determined that the “all events / by location” button 2624 has been selected as a result of this determination, the process advances to step S7020.

続いて、ステップS7020において、CPU201は、「全イベント/ロケーション別」におけるイベントを集計して、分析表示用データを生成する。続いて、ステップS7021において、CPU201は、ステップS7020で生成した分析表示用データに基づいて「全イベント/ロケーション別」における折れ線グラフを作成する。そして、通信I/Fコントローラ208は、当該折れ線グラフをクライアント300に送信する。クライアント300では、受信した「全イベント/ロケーション別」における折れ線グラフを表示する。   Subsequently, in step S7020, the CPU 201 aggregates events in “all events / by location” to generate analysis display data. Subsequently, in step S7021, the CPU 201 creates a line graph for “all events / by location” based on the analysis display data generated in step S7020. Then, the communication I / F controller 208 transmits the line graph to the client 300. The client 300 displays a line graph in the received “all events / by location”.

ステップS7012で「折れ線グラフ」ボタン2621が選択されていないと判断された場合、ステップS7015の処理が終了した場合、ステップS7018の処理が終了した場合、ステップS7021の処理が終了した場合、もしくはステップS7019で「全イベント/ロケーション別」ボタン2624が選択されていないと判断された場合には、その後、図8のステップS5010に移行する。   If it is determined in step S7012 that the “line graph” button 2621 has not been selected, the processing in step S7015 has been completed, the processing in step S7018 has been completed, the processing in step S7021 has been completed, or step S7019. If it is determined that the “all events / by location” button 2624 is not selected, the process proceeds to step S5010 in FIG.

以上のステップS7001〜ステップS7021での処理により、図22に表示されたグラフボタン2230が選択された場合のイベント分析におけるグラフ表示処理が終了する。   The graph display process in the event analysis when the graph button 2230 displayed in FIG. 22 is selected is completed by the processes in steps S7001 to S7021 described above.

次に、図8のステップS5010で図24に表示されたイベントがクリックにより指定され、かつ、かつサムネール出力ボタン2420が選択されたと判断された場合の処理について図11を用いて説明する。   Next, processing when it is determined in step S5010 of FIG. 8 that the event displayed in FIG. 24 has been designated by clicking and the thumbnail output button 2420 has been selected will be described with reference to FIG.

まず、ステップS8001において、CPU201は、ステップS5010でユーザにより指定されたイベント単位(1イベント毎、一定の時間帯内のイベント毎等)における全録画データをイベント発生時用記録媒体216から抽出し、抽出した録画データをサムネール化してサムネールデータを生成する。続いて、ステップS8002において、メモリコントローラ207は、生成されたサムネールデータを外部メモリ211等に記録する。ここで、当該生成されたサムネールデータはイベント発生時用記録媒体216等の他のメモリに記録されても良い。   First, in step S8001, the CPU 201 extracts from the event occurrence recording medium 216 all the recorded data in the event unit (every event, every event within a certain time period, etc.) designated by the user in step S5010. The extracted recording data is converted into thumbnails to generate thumbnail data. Subsequently, in step S8002, the memory controller 207 records the generated thumbnail data in the external memory 211 or the like. Here, the generated thumbnail data may be recorded in another memory such as the event occurrence recording medium 216.

続いて、ステップS8003において、通信I/Fコントローラ208は、サムネールデータをクライアント300に送信する。クライアント300では、受信したサムネールデータに基づき画面表示を行う。   Subsequently, in step S8003, the communication I / F controller 208 transmits thumbnail data to the client 300. The client 300 performs screen display based on the received thumbnail data.

図27は、クライアント300に表示されるイベント画像サムネール表示画面の一例を示した図である。このイベント画像サムネール表示画面には、各イベント毎にサムネール画像2710が表示されている。また、このサムネール画像2710は、図27の「現在の設定」の欄に示されているように2秒間隔で表示が行われている。ここで、各イベント毎に表示されるサムネール画像2710の枚数が異なるのは、各イベント毎に録画時間の設定値が異なるためである。   FIG. 27 is a diagram showing an example of an event image thumbnail display screen displayed on the client 300. On the event image thumbnail display screen, a thumbnail image 2710 is displayed for each event. Further, the thumbnail image 2710 is displayed at intervals of 2 seconds as shown in the “current setting” column of FIG. Here, the number of thumbnail images 2710 displayed for each event is different because the set value of the recording time is different for each event.

また、このイベント画像サムネール表示画面には、サムネール画像2710の表示領域の上方に、「集計対象イベント/カメラ指定」ボタン2720と、「時間の絞込み」ボタン2730と、「サムネール間隔の変更」ボタン2740が設けられている。   In addition, on the event image thumbnail display screen, a “total event / camera designation” button 2720, a “time narrowing down” button 2730, and a “change thumbnail interval” button 2740 are displayed above the display area of the thumbnail image 2710. Is provided.

続いて、ステップS8004において、CPU201は、ユーザの操作により図27に示した「集計対象イベント/カメラ指定」ボタン2720が選択されたか否かを判断する。この判断の結果、「集計対象イベント/カメラ指定」ボタン2720が選択されたと判断された場合には、ユーザが選択した集計対象イベント(全てのイベント、センサイベントのみ、動き検知イベントのみ)や、ユーザが選択した集計対象カメラサーバ(全てのカメラサーバ、指定したカメラサーバのみ)に応じて、サムネール画像の表示を変更する集計対象イベント/カメラ指定処理へ移行する。   Subsequently, in step S8004, the CPU 201 determines whether or not the “count target event / camera designation” button 2720 shown in FIG. 27 has been selected by the user's operation. As a result of this determination, if it is determined that the “total target event / camera designation” button 2720 has been selected, the total target event selected by the user (all events, only sensor events, only motion detection events) The process proceeds to a counting target event / camera designation process for changing the display of thumbnail images according to the counting target camera server selected by (all camera servers, only the designated camera server).

一方、ステップSステップS8004での判断の結果、「集計対象イベント/カメラ指定」ボタン2720が選択されていないと判断された場合には、ステップS8005に進む。   On the other hand, as a result of the determination in step S8004, if it is determined that the “count target event / camera designation” button 2720 has not been selected, the process proceeds to step S8005.

続いて、ステップS8005において、CPU201は、ユーザの操作により図27に示した「時間の絞込み」ボタン2730が選択されたか否かを判断する。この判断の結果、「時間の絞込み」ボタン2730が選択されたと判断された場合には、ユーザが指定した時刻(○時○分○秒〜□時□分□秒まで)に応じて、表示するサムネール画像の絞込みを行う時間の絞込み処理へ移行する。   Subsequently, in step S8005, the CPU 201 determines whether or not the “time narrowing down” button 2730 shown in FIG. 27 has been selected by the user's operation. As a result of this determination, if it is determined that the “time narrowing down” button 2730 has been selected, it is displayed according to the time specified by the user (from ○ hour ○ minute ○ second to □ hour □ minute □ second). The process proceeds to a time narrowing process for narrowing down thumbnail images.

一方、ステップSステップS8005での判断の結果、「時間の絞込み」ボタン2730が選択されていないと判断された場合には、ステップS8006に進む。   On the other hand, as a result of the determination in step S8005, if it is determined that the “time narrowing down” button 2730 is not selected, the process proceeds to step S8006.

続いて、ステップS8006において、CPU201は、ユーザの操作により図27に示した「サムネール間隔の変更」ボタン2740が選択されたか否かを判断する。この判断の結果、「サムネール間隔の変更」ボタン2740が選択されたと判断された場合には、ユーザが指定したサムネール間隔(図27の例では、2.0秒)に応じて、表示するサムネール画像における間隔を変更するサムネール間隔の変更処理へ移行する。   In step S8006, the CPU 201 determines whether the “change thumbnail interval” button 2740 shown in FIG. 27 has been selected by the user's operation. As a result of this determination, if it is determined that the “change thumbnail interval” button 2740 has been selected, the thumbnail image to be displayed according to the thumbnail interval specified by the user (2.0 seconds in the example of FIG. 27). The processing shifts to a thumbnail interval changing process for changing the interval at.

一方、ステップSステップS8006での判断の結果、「サムネール間隔の変更」ボタン2740が選択されていないと判断された場合には、図7のステップS4004に移行する。   On the other hand, as a result of the determination in step S8006, if it is determined that the “change thumbnail interval” button 2740 is not selected, the process proceeds to step S4004 in FIG.

以上のステップS8001〜ステップS8006での処理により、図24に表示されたイベントがクリックにより指定され、かつ、かつサムネール出力ボタン2420が選択された場合のサムネール画像表示処理が終了する。   Through the processes in steps S8001 to S8006 described above, the thumbnail image display process when the event displayed in FIG. 24 is specified by clicking and the thumbnail output button 2420 is selected is completed.

本発明の実施形態によれば、録画サーバ200において、各カメラサーバ400で撮影した各画像を外部メモリ211の録画データ記憶部215に連続的に記録する処理(ステップS1007)を開始し、少なくとも1つのカメラサーバ400でイベントの発生を検知した場合に、前記各カメラサーバ400で撮影した各画像を録画データ記憶部215に記録し続けるとともに、イベントの発生を検知したカメラサーバ400のイベントの発生期間に撮影された画像を外部メモリ211とは異なるイベント発生時用記録媒体216に記録する(ステップS2004、ステップS3003)ようにしたので、このイベント発生時用記録媒体216に記録された画像を閲覧するのみでイベントの発生原因や発生状況を把握することができる。また、録画データ記憶部215に記録された各画像の中から、イベントの発生期間における画像を抽出する場合と比較して、煩雑な抽出処理を行うことなく簡易で、かつ迅速にイベントの発生期間の画像を取得することができる。特に、カメラサーバ400を防犯カメラとして用いる場合には、従来では不可能であった緊急事態が発生した際の発生原因や発生状況の迅速な把握、更には緊急事態の発生時刻の証明を達成できる。   According to the embodiment of the present invention, the recording server 200 starts a process (step S1007) of continuously recording each image captured by each camera server 400 in the recording data storage unit 215 of the external memory 211, and at least 1 When the occurrence of an event is detected by one camera server 400, each image taken by each camera server 400 is continuously recorded in the recording data storage unit 215, and the event occurrence period of the camera server 400 that detected the occurrence of the event Since the image taken in the event recording medium 216 different from the external memory 211 is recorded (step S2004, step S3003), the image recorded in the event occurrence recording medium 216 is browsed. It is possible to grasp the cause of the event and the situation of the event. Also, the event occurrence period is simple and quick without performing complicated extraction processing, compared to the case of extracting an image in the event occurrence period from each image recorded in the recorded data storage unit 215. Images can be acquired. In particular, when the camera server 400 is used as a security camera, it is possible to quickly grasp the cause and the situation of occurrence of an emergency situation that was impossible in the past, and further prove the time of occurrence of the emergency situation. .

また、イベントの発生を検知したカメラサーバ400によるイベントの検知が終了した場合、当該イベント検知の終了時あるいは終了時から所定時間経過後に、当該カメラサーバ400の画像のイベント発生時用記録媒体216への記録を終了する(ステップS2009、ステップS3008)ようにしたので、イベント発生時用記録媒体216への記録を効率的に行うことができる。   When the event detection by the camera server 400 that has detected the occurrence of the event is completed, the event detection recording medium 216 of the image of the camera server 400 is completed at the end of the event detection or after a predetermined time has elapsed from the end. Is finished (steps S2009 and S3008), the event occurrence recording medium 216 can be efficiently recorded.

また、録画サーバ200は、検索条件(イベントの種別、撮影したカメラサーバ400及び撮影した時刻等)とイベント情報(イベントの種別情報、イベントの発生を検知したカメラサーバ400を特定する情報、イベントの時刻情報等)とに基づいてイベント発生時用記録媒体216から画像を取得し(ステップS5003)、取得した画像と関連付けられる画像を関連付け情報(撮影したカメラサーバ400を特定する情報、撮影された時刻情報及び撮影したカメラサーバの位置情報等)に基づいて録画データ記憶部215から取得する(ステップS6008)ようにしたので、複数の同一種類のイベントの画像を検索して比較表示することや、イベントを検知したカメラサーバ400のイベント期間の画像と同一時刻に撮影された他のカメラサーバ400の画像を再生することができる。これにより、イベントの発生原因や発生状況を詳細に把握することが可能となる。   The recording server 200 also includes a search condition (event type, captured camera server 400 and captured time, etc.) and event information (event type information, information that identifies the camera server 400 that detected the occurrence of the event, Image is acquired from the event occurrence recording medium 216 based on the time information, etc. (step S5003), and the image associated with the acquired image is associated with information (information for identifying the camera server 400 that has imaged, the time of shooting) Information from the recorded data storage unit 215 based on the information and the location information of the photographed camera server, etc. (step S6008). Other images taken at the same time as the event period image of the camera server 400 that detected the It is possible to reproduce an image of Merasaba 400. As a result, it is possible to grasp in detail the cause and occurrence of the event.

また、検索条件に合致するイベントを集計し(ステップS4002、ステップS4006、ステップS4008)、当該集計結果を表示するための表示データを生成する(ステップS4003)ようにしたので、例えば、1日単位、1週間単位又は1月単位の所定の期間について、イベントの発生回数、発生時刻、発生位置を含む発生傾向を迅速かつ容易に分析することができるようになる。   Also, events that match the search conditions are aggregated (step S4002, step S4006, step S4008), and display data for displaying the aggregated result is generated (step S4003). It is possible to quickly and easily analyze the occurrence tendency including the number of occurrences of the event, the occurrence time, and the occurrence position for a predetermined period of one week or one month.

また、イベント発生時用記録媒体216に記録された画像のサムネールデータを生成する(ステップS8001、ステップS8002)ようにしたので、イベントの発生原因や発生状況を視覚的に把握することができる。   In addition, since the thumbnail data of the image recorded on the event occurrence recording medium 216 is generated (steps S8001 and S8002), it is possible to visually grasp the cause and the state of occurrence of the event.

また、イベント発生時用記録媒体216に記録された画像を定期的にバックアップする(ステップS1006)ようにしたので、データ保管に対する安全性を高めることができる。   In addition, since the image recorded on the event occurrence recording medium 216 is regularly backed up (step S1006), safety against data storage can be improved.

なお、本発明の実施形態においては、各カメラサーバ400で撮影した各画像を連続的に記録させる外部メモリ211と、イベントの発生を検知したカメラサーバ400のイベントの発生期間に撮影された画像を記録するイベント発生時用記録媒体216とを録画サーバ200内に設ける形態を例示して説明したが、本発明はこれに限定されるわけではなく、例えば、これらの記録媒体を当該録画サーバ200の外部に設けられたデータベースサーバ内に設けて、当該記憶媒体への画像の記録を制御するようにしても良い。   In the embodiment of the present invention, an external memory 211 that continuously records each image captured by each camera server 400 and an image captured during the event occurrence period of the camera server 400 that detected the occurrence of the event are displayed. Although an example in which the recording medium for event occurrence 216 to be recorded is provided in the recording server 200 has been described as an example, the present invention is not limited to this. For example, these recording media may be stored in the recording server 200. It may be provided in a database server provided outside to control recording of images on the storage medium.

また、各カメラサーバ400で撮影した各画像を連続的に記録させる外部メモリとイベントの発生期間に撮影された画像を記録するイベント発生時用記録媒体とを同一の記憶手段に構成するようにしても良い。この場合、例えば、大容量の光ディスクドライブを複数台備えて別々に記録することや、1枚の大容量光ディスクのパーテションを分けて当該パーテションで区分された各領域に連続記録画像とイベント時の画像の両方を記録するようにしても良い。更に、複数のハードディスクで同様の記録をしたり、1台のハードディスクのパーテションを分けて両者を記録するようにしても良い。その意味で2つの「領域」に記録するとは異なる記憶媒体を意味する場合もあるし、1つの記憶媒体や記憶装置に連続記録画像とイベント時の画像の両方を記録する場合の両者を含んでいる。また、イベントの検知(ステップS2001やステップS3001)で所定時間待機後にイベント検知の有無を判定しているが、これに限らずハードウェア割込み(IRQ)によってイベント画像の撮影処理を開始し、イベント画像撮影の開始後は、通常画像の撮影と並行して行うように制御しても良い。   Also, the external memory for continuously recording each image captured by each camera server 400 and the event occurrence recording medium for recording the image captured during the event occurrence period are configured in the same storage means. Also good. In this case, for example, a plurality of large-capacity optical disk drives are separately recorded, or a partition of one large-capacity optical disk is divided, and continuously recorded images and images at the time of events are divided into the areas divided by the partitions. Both of them may be recorded. Furthermore, the same recording may be performed on a plurality of hard disks, or both may be recorded by dividing a partition of one hard disk. In this sense, recording to two “areas” may mean different storage media, and includes both cases where both a continuous recording image and an event image are recorded on one storage medium or storage device. Yes. Also, the event detection (step S2001 or step S3001) determines whether or not the event is detected after waiting for a predetermined time. However, the present invention is not limited to this, and the event image capturing process is started by hardware interrupt (IRQ). After the start of shooting, control may be performed in parallel with the shooting of the normal image.

また、本発明の実施形態においては、カメラサーバ400のイベント検知部400aで検知されるイベントとして、カメラサーバ400が配設された位置における環境の変化をセンサにより検知するセンサイベントと、カメラサーバ400が撮影する撮影領域において、当該撮影領域内における撮影画像の動きが所定のレベルに達したことを検知する動き検知イベントを例示して説明したが、例えば、ICカードが挿入されたことを検知するICカード検知やICタグを配設してそのICタグからの信号を検知するICタグ検知等を適用することも可能である。   In the embodiment of the present invention, as an event detected by the event detection unit 400a of the camera server 400, a sensor event for detecting a change in the environment at the position where the camera server 400 is disposed, and the camera server 400. In the shooting area for shooting, the motion detection event for detecting that the movement of the shot image in the shooting area has reached a predetermined level has been described as an example. For example, it is detected that an IC card is inserted. It is also possible to apply IC tag detection or the like in which IC card detection or an IC tag is provided to detect a signal from the IC tag.

前述した実施形態による録画サーバ200を構成する各手段(図2)、並びに録画サーバ200による画像処理方法の各ステップ(図4のステップS1001〜ステップS1007、図5のステップS2001〜ステップS2012、図6のステップS3001〜ステップS3010、図7のステップS4001〜ステップS4013、図8のステップS5001〜ステップS5010、図9のステップS6001〜ステップS6008、図10のステップS7001〜ステップS7021、図11のステップS8001〜ステップS8006)は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は本発明に含まれる。   Each means (FIG. 2) which comprises the video recording server 200 by embodiment mentioned above, and each step of the image processing method by the video recording server 200 (step S1001-step S1007 of FIG. 4, step S2001-step S2012 of FIG. 5, FIG. 6). Steps S3001 to S3010, Steps S4001 to S4013 of FIG. 7, Steps S5001 to S5010 of FIG. 8, Steps S6001 to S6008 of FIG. 9, Steps S7001 to S7021 of FIG. 10, Steps S8001 of FIG. S8006) can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium storing the program are included in the present invention.

具体的に、前記プログラムは、例えばCD−ROMのような記録媒体に記憶し、あるいは各種伝送媒体を介し、コンピュータに提供される。前記プログラムを記憶する記録媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。他方、前記プログラムの伝送媒体としては、プログラム情報を搬送波として伝搬させて供給するためのコンピュータネットワーク(LAN、インターネットの等のWAN、無線通信ネットワーク等)システムにおける通信媒体(光ファイバ等の有線回線や無線回線等)を用いることができる。   Specifically, the program is stored in a recording medium such as a CD-ROM or provided to a computer via various transmission media. As a recording medium for storing the program, besides a CD-ROM, a flexible disk, a hard disk, a magnetic tape, a magneto-optical disk, a nonvolatile memory card, or the like can be used. On the other hand, as the transmission medium of the program, a communication medium (wired line such as an optical fiber, etc.) in a computer network (LAN, WAN such as the Internet, wireless communication network, etc.) system for propagating and supplying program information as a carrier wave A wireless line or the like.

また、コンピュータが供給されたプログラムを実行することにより前述の実施形態の機能が実現されるだけでなく、そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合や、供給されたプログラムの処理の全て、あるいは一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて前述の実施形態の機能が実現される場合も、かかるプログラムは本発明に含まれる。   In addition, the functions of the above-described embodiments are realized not only by executing a program supplied by a computer, but also in cooperation with an OS (operating system) running on the computer or other application software. When the functions of the above-described embodiment are realized, or all or part of the processing of the supplied program is performed by a function expansion board or a function expansion unit of the computer, the functions of the above-described embodiment are realized. Such a program is also included in the present invention.

本発明の実施形態に係わる画像処理システムの構成を示す図である。1 is a diagram illustrating a configuration of an image processing system according to an embodiment of the present invention. 本発明の実施形態に係わる録画サーバ内におけるコンピュータシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer system in the video recording server concerning embodiment of this invention. 本発明の実施形態に係わる録画サーバにおいて、各カメラサーバからの画像を処理するための各種マスタ、各種記録媒体、各種データを示した図である。It is the figure which showed the various masters for processing the image from each camera server, various recording media, and various data in the video recording server concerning embodiment of this invention. 本発明の実施形態に係わる録画サーバのカメラサーバの基本動作設定処理のフローチャートである。It is a flowchart of the basic operation | movement setting process of the camera server of the video recording server concerning embodiment of this invention. 本発明の実施形態に係わる録画サーバ200において、通常録画中にあるカメラサーバでセンサイベントの検知がされた場合の処理のフローチャートである。6 is a flowchart of processing when a sensor event is detected by a camera server during normal recording in the recording server 200 according to the embodiment of the present invention. 本発明の実施形態に係わる録画サーバにおいて、通常録画中にあるカメラサーバで動き検知イベントの検知がされた場合の処理のフローチャートである。5 is a flowchart of processing when a motion detection event is detected by a camera server during normal recording in the recording server according to the embodiment of the present invention. 本発明の実施形態に係わる録画サーバのイベント分析処理のフローチャートである。It is a flowchart of the event analysis process of the video recording server concerning embodiment of this invention. 本発明の実施形態に係わる録画サーバのイベント分析処理のフローチャートである。It is a flowchart of the event analysis process of the video recording server concerning embodiment of this invention. 本発明の実施形態に係わる録画サーバのイベント分析処理におけるイベント画像の再生処理のフローチャートである。It is a flowchart of the event image reproduction process in the event analysis process of the recording server according to the embodiment of the present invention. 本発明の実施形態に係わる録画サーバのイベント分析処理におけるグラフ表示処理のフローチャートである。It is a flowchart of the graph display process in the event analysis process of the video recording server concerning embodiment of this invention. 本発明の実施形態に係わる録画サーバのイベント分析処理におけるサムネール画像表示処理のフローチャートである。It is a flowchart of the thumbnail image display process in the event analysis process of the video recording server concerning embodiment of this invention. クライアントに表示されるカメラ基本設定画面の一例を示した図である。It is the figure which showed an example of the camera basic setting screen displayed on a client. クライアントに表示されるカメラサーバ制御設定画面の一例を示した図である。It is the figure which showed an example of the camera server control setting screen displayed on a client. クライアントに表示されるカメラサーバ制御設定画面の一例を示した図である。It is the figure which showed an example of the camera server control setting screen displayed on a client. クライアントに表示されるカメラサーバ制御設定画面の一例を示した図である。It is the figure which showed an example of the camera server control setting screen displayed on a client. クライアントに表示されるカメラサーバ制御設定画面の一例を示した図である。It is the figure which showed an example of the camera server control setting screen displayed on a client. クライアントに表示されるカメラサーバ制御設定画面の一例を示した図である。It is the figure which showed an example of the camera server control setting screen displayed on a client. クライアントに表示されるイベント分析処理制御入力画面の一例を示した図である。It is the figure which showed an example of the event analysis process control input screen displayed on a client. クライアントに表示されるイベント分析/集計ビューワ画面の一例を示した図である。It is the figure which showed an example of the event analysis / total viewer screen displayed on a client. クライアントに表示される週間イベント分析表の一例を示した図である。It is the figure which showed an example of the weekly event analysis table displayed on a client. クライアントに表示される1日イベント分析表の一例を示した図である。It is the figure which showed an example of the 1 day event analysis table displayed on a client. クライアントに表示される1日イベント分析表の一例を示した図である。It is the figure which showed an example of the 1 day event analysis table displayed on a client. クライアントに表示されるイベント分析データの吐き出し設定の表示画面を示した図である。It is the figure which showed the display screen of the discharge setting of the event analysis data displayed on a client. クライアントに表示される1日イベント分析表の一例を示した図である。It is the figure which showed an example of the 1 day event analysis table displayed on a client. クライアントに表示される録画再生の設定画面の一例を示した図である。It is the figure which showed an example of the setting screen of the recording reproduction displayed on a client. クライアントに表示される集計グラフの選択画面の一例を示した図である。It is the figure which showed an example of the selection screen of the total graph displayed on a client. クライアントに表示されるイベント画像サムネール表示画面の一例を示した図である。It is the figure which showed an example of the event image thumbnail display screen displayed on a client.

符号の説明Explanation of symbols

100 ネットワーク
200 録画サーバ
201 CPU
202 RAM
203 ROM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 KB(キーボード)
210 CRT
211 外部メモリ(通常録画用記録媒体)
212 ネットワークビデオレコーダプログラム記憶部
213 定義ファイル記憶部
214 各種テーブル記憶部
215 録画データ記憶部
216 外部メモリ(イベント発生時用記録媒体)
300 クライアント
400 カメラサーバ
400a イベント検知部
100 Network 200 Recording Server 201 CPU
202 RAM
203 ROM
204 System bus 205 Input controller 206 Video controller 207 Memory controller 208 Communication I / F controller 209 KB (keyboard)
210 CRT
211 External memory (normal recording media)
212 Network video recorder program storage unit 213 Definition file storage unit 214 Various table storage unit 215 Recording data storage unit 216 External memory (recording medium for event occurrence)
300 Client 400 Camera server 400a Event detection unit

Claims (13)

イベント検知部を備える複数の撮影装置と通信可能なクライアント端末と画像処理装置とを備える画像処理システムであって、
前記画像処理装置は、
前記複数の撮影装置で撮影された画像を受信する画像受信手段と、
前記画像受信手段で受信した画像を記憶領域に記憶するよう制御する画像記録制御手段と、
前記クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶手段と、
前記スケジュール記憶手段で記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信手段と、
前記イベント情報受信手段で受信した前記イベント情報と、前記画像受信手段で受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付け記憶する関連付情報記憶手段と、
前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得手段
を備え、
前記クライアント端末は、
前記複数の撮像装置が備えるイベント検知部の、前記イベント情報を検知する制御スケジュールの設定を受け付けるスケジュール設定受付手段と、
前記関連付情報記憶手段で記憶している前記イベント情報と、前記画像受信手段で受信した画像のうち、再生をするイベントの画像の選択を受け付ける再生画像選択受付手段と、
前記再生画像選択受付手段で選択を受け付けた前記イベントの画像を再生する画像再生手段と
を備えることを特徴とする画像処理システム。
An image processing system including a client terminal capable of communicating with a plurality of imaging devices including an event detection unit and an image processing device ,
The image processing apparatus includes:
Image receiving means for receiving images taken by the plurality of photographing devices;
Image recording control means for controlling the image received by the image receiving means to be stored in a storage area;
Schedule storage means for storing a control schedule of an event detection unit for each of the imaging devices that has received settings at the client terminal;
Based on the control schedule of the event detection unit for each imaging device stored in the schedule storage unit, the event detection unit of at least one first imaging device of the plurality of imaging devices detects the event at the date and time when the event is detected. an event information receiving means for receiving an event information,
Association information storage means for storing the event information received by the event information reception means, the image received by the image reception means, and the first photographing device that photographed the image in association with each other ;
Image acquisition means for acquiring an image of the event selected to be reproduced on the client terminal ;
With
The client terminal is
Schedule setting accepting means for accepting a setting of a control schedule for detecting the event information of an event detecting unit provided in the plurality of imaging devices;
Replay image selection accepting means for accepting selection of an image of an event to be replayed among the event information stored in the associated information storage means and the image received by the image receiving means;
Image reproduction means for reproducing an image of the event whose selection is received by the reproduction image selection reception means;
An image processing system comprising:
前記クライアント端末は、The client terminal is
前記画像取得手段で取得する前記イベントの画像とともに、当該イベントの発生した期間と同時刻に第2の撮影装置で撮影された画像を再生すべく、前記第2の撮影装置の選択を受け付ける第2の撮影装置選択受付手段を更に備え、A second accepting selection of the second imaging device to reproduce the image captured by the second imaging device at the same time as the period of occurrence of the event together with the image of the event acquired by the image acquisition means. Further comprising a photographing device selection accepting means,
前記画像再生手段は、前記第2の撮影装置選択受付手段で受け付けた前記第2の撮影装置で撮影された画像を、前記イベントの画像と共に再生することを特徴とする請求項1に記載の画像処理システム。2. The image according to claim 1, wherein the image reproduction unit reproduces an image captured by the second imaging apparatus received by the second imaging apparatus selection reception unit together with an image of the event. Processing system.
前記クライアント端末は、The client terminal is
前記イベント前後の画像の取得時間の設定を受け付ける取得時間設定受付手段を更に備え、Further comprising an acquisition time setting accepting means for accepting the setting of the acquisition time of the image before and after the event,
前記画像処理装置は、The image processing apparatus includes:
前記画像取得手段において、前記イベントの発生期間の画像とともに、前記取得時間設定受付手段で設定した当該イベントの発生期間の前後に撮影された画像を取得することを特徴とする請求項1または2に記載の画像処理システム。3. The image acquisition unit according to claim 1, wherein images acquired before and after the event occurrence period set by the acquisition time setting reception unit are acquired together with an image of the event occurrence period. The image processing system described.
前記イベント検知部で検知するイベント情報は、温度変化の検知、振動の検知、光の検知、赤外線遮断の検知、重力異常の検知及びドア開閉の検知のうち、少なくともいずれか1つの変化をセンサにより検知するセンサイベントと、前記各撮影装置が撮影する撮影領域において、当該撮影領域内における撮影画像の動きが所定のレベルに達したことを検知する動き検知イベントとを含むものであり、
前記スケジュール設定受付手段は、前記イベント検知部で前記動き検知イベントおよび前記センサイベントを検知するスケジュールの詳細設定を受け付けることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理システム。
The event information detected by the event detection unit includes at least one of a change in temperature detection, vibration detection, light detection, infrared ray blocking detection, gravity abnormality detection, and door opening / closing detection by a sensor. A sensor event to be detected, and a motion detection event for detecting that the motion of the captured image in the imaging region has reached a predetermined level in the imaging region captured by each of the imaging devices ,
4. The image processing system according to claim 1, wherein the schedule setting reception unit receives a detailed setting of a schedule for detecting the motion detection event and the sensor event by the event detection unit. 5. .
前記イベント情報は、イベントの種別情報、前記イベントの発生を検知したイベント検知部を備える撮影装置を特定する情報、イベントの時刻情報を含むものであり、
前記再生画像選択受付手段で選択を受け付ける前記イベントの画像は、イベントの種別、撮影した撮影装置及び撮影した時刻のうち、少なくともいずれか1つにより選択されることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム
The event information includes event type information, information for specifying a photographing device including an event detection unit that detects the occurrence of the event , and event time information.
The reproduced image selection accepting means in the event of an image for receiving a selection, the type of the event, of the photographed image capturing apparatus and photographed time, claims 1 to 4, characterized in that it is selected by at least any one The image processing system according to any one of the above.
イベント発生時の画像を検索するための検索条件を指定するための検索条件指定手段を更に備え、
前記画像記録制御手段は、前記複数の撮影装置で撮影した画像を連続的に第1の記録領域に記録するとともに、少なくとも1つの前記撮影装置から前記イベント情報を受信した場合は、前記イベント情報を送信した撮影装置から受信した前記イベントの発生期間に撮影された画像を第2の記録領域に記録するように制御し、
前記関連付情報記憶手段は、連付け情報として、前記イベント情報と、前記第2の記録領域に記録されている画像と前記第1の記録領域に記録されている画像とを関連付けるための情報を記憶し、
前記検索条件指定手段は、前記第1の記録領域に記録されている画像及び前記第2の記録領域に記録されている画像のうち、少なくともいずれか一方の画像を検索するための検索条件を指定し、
前記画像取得手段は、前記検索条件指定手段で指定された検索条件と前記イベント情報とを用いて前記第2の記録領域から画像を取得し、取得した画像と関連付けられる他の画像を前記関連付け情報を用いて前記第1の記録領域から取得することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理システム
It further comprises a search condition specifying means for specifying a search condition for searching for an image when an event occurs,
The image recording control means continuously records images taken by the plurality of photographing devices in the first recording area, and receives the event information when receiving the event information from at least one of the photographing devices. Control to record an image captured during the event occurrence period received from the transmitted imaging device in the second recording area;
The association information storage unit, the associations information, the event information and information for associating the image recorded on said image recorded in the second recording area the first recording area Remember
The search condition designating unit designates a search condition for searching for at least one of the images recorded in the first recording area and the images recorded in the second recording area. And
The image acquisition means acquires an image from the second recording area using the search condition designated by the search condition designation means and the event information, and associates another image associated with the acquired image with the association information. 6. The image processing system according to claim 1, wherein the image processing system is acquired from the first recording area using an image .
前記画像記録制御手段は、前記イベント情報を送信した撮影装置から受信した前記イベントの発生期間の前後に撮影された画像を更に前記第2の記録領域に記憶させ、
前記画像取得手段は、前記イベントの発生期間の画像とともに、当該イベントの発生期間の前後に撮影された画像を前記第2の記録領域より取得することを特徴とする請求項に記載の画像処理システム
The image recording control means further stores in the second recording area images captured before and after the event occurrence period received from the imaging device that transmitted the event information,
The image processing according to claim 6 , wherein the image acquisition unit acquires images taken before and after the event occurrence period from the second recording area together with the image of the event occurrence period. System .
前記画像記録制御手段は、前記イベント情報に基づいて前記イベントの発生を検知した撮影装置によるイベントの検知が終了したと判定した場合、当該イベント検知の終了時あるいは前記終了時から所定時間経過後に、前記イベントの発生を検知した撮影装置で撮影された画像の前記第2の記録領域への記録を終了するように制御することを特徴とする請求項に記載の画像処理システムWhen the image recording control means determines that the detection of the event by the imaging device that has detected the occurrence of the event based on the event information has ended, the end of the event detection or after a lapse of a predetermined time from the end, The image processing system according to claim 6 , wherein control is performed so as to end recording of an image captured by the imaging apparatus that has detected the occurrence of the event in the second recording area. イベント検知部を備える複数の撮影装置と通信可能な画像処理装置であって、
前記複数の撮影装置で撮影される画像を受信する画像受信手段と、
前記画像受信手段で受信した画像を記憶領域に記憶するよう制御する画像記録制御手段と、
クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶手段と、
前記スケジュール記憶手段で記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信手段と、
前記イベント情報受信手段で受信した前記イベント情報と、前記画像受信手段で受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付け記憶する関連付情報記憶手段と、
前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得手段と
を備えることを特徴とする画像処理装置。
An image processing device capable of communicating with a plurality of imaging devices including an event detection unit ,
Image receiving means for receiving images taken by the plurality of imaging devices;
Image recording control means for controlling the image received by the image receiving means to be stored in a storage area;
Schedule storage means for storing a control schedule of the event detection unit for each of the imaging devices that has received the setting at the client terminal;
Based on the control schedule of the event detection unit for each imaging device stored in the schedule storage unit, the event detection unit of at least one first imaging device of the plurality of imaging devices detects the event at the date and time when the event is detected. an event information receiving means for receiving an event information,
Association information storage means for storing the event information received by the event information reception means, the image received by the image reception means, and the first photographing device that photographed the image in association with each other ;
Image acquisition means for acquiring an image of the event selected to be reproduced on the client terminal ;
The image processing apparatus comprising: a.
イベント検知部を備える複数の撮影装置と通信可能なクライアント端末と画像処理装置とを備える画像処理システムの画像処理方法であって、An image processing method of an image processing system including a client terminal capable of communicating with a plurality of imaging devices including an event detection unit and an image processing device,
前記画像処理装置では、In the image processing apparatus,
前記画像処理装置の画像受信手段が、前記複数の撮影装置で撮影された画像を受信する画像受信ステップと、An image receiving step in which the image receiving means of the image processing device receives images taken by the plurality of photographing devices;
前記画像処理装置の画像記録制御手段が、前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、An image recording control step of controlling the image recording control means of the image processing apparatus to store the image received in the image receiving step in a storage area;
前記画像処理装置のスケジュール記憶手段が、前記クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、A schedule storage step in which a schedule storage unit of the image processing apparatus stores a control schedule of an event detection unit for each of the imaging apparatuses that has received a setting at the client terminal;
前記画像処理装置のイベント情報受信手段が、前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、The event information receiving means of the image processing device detects at least one of the plurality of imaging devices at the date and time when the event is detected based on the control schedule of the event detection unit for each imaging device stored in the schedule storage step. An event information receiving step for receiving event information detected by the event detection unit of the first imaging device;
前記画像処理装置の関連付情報記憶手段が、前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、An association information storage unit of the image processing device associates the event information received in the event information receiving step, the image received in the image receiving step, and the first imaging device that captured the image. An associated information storage step for storing;
前記画像処理装置の画像取得手段が、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとを含み、An image acquisition unit of the image processing apparatus for acquiring an image of the event selected to be played back on the client terminal;
前記クライアント端末では、In the client terminal,
前記クライアント端末のスケジュール設定受付手段が、前記複数の撮像装置が備えるイベント検知部の、前記イベント情報を検知する制御スケジュールの設定を受け付けるスケジュール設定受付ステップと、A schedule setting receiving step in which the schedule setting receiving means of the client terminal receives a setting of a control schedule for detecting the event information of an event detection unit included in the plurality of imaging devices;
前記クライアント端末の再生画像選択受付手段が、前記関連付情報記憶ステップで記憶している前記イベント情報と、前記画像受信ステップで受信した画像のうち、再生をするイベントの画像の選択を受け付ける再生画像選択受付ステップと、A reproduction image in which the reproduction image selection accepting unit of the client terminal accepts selection of an image of an event to be reproduced among the event information stored in the association information storage step and the image received in the image reception step. A selection acceptance step;
前記クライアント端末の画像再生手段が、前記再生画像選択受付ステップで選択を受け付けた前記イベントの画像を再生する画像再生ステップとAn image reproduction step in which the image reproduction means of the client terminal reproduces the image of the event that has been selected in the reproduction image selection reception step;
を備えることを特徴とする画像処理システムの画像処理方法。An image processing method for an image processing system, comprising:
イベント検知部を備える複数の撮影装置と通信可能なクライアント端末と画像処理装置とを備える画像処理システムの画像処理方法をコンピュータに実行させるためのプログラムであって、A program for causing a computer to execute an image processing method of an image processing system including a client terminal capable of communicating with a plurality of imaging devices including an event detection unit and an image processing device,
前記画像処理装置では、In the image processing apparatus,
前記複数の撮影装置で撮影された画像を受信する画像受信ステップと、An image receiving step of receiving images taken by the plurality of photographing devices;
前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、An image recording control step for controlling to store the image received in the image receiving step in a storage area;
前記クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、A schedule storage step for storing a control schedule of an event detection unit for each of the imaging devices that has received a setting at the client terminal;
前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、Based on the control schedule of the event detection unit for each imaging device stored in the schedule storage step, the event detection unit of at least one first imaging device of the plurality of imaging devices detects the event at the date and time when the event is detected. Event information receiving step for receiving the received event information;
前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、An association information storage step for storing the event information received in the event information reception step, the image received in the image reception step, and the first imaging device that captured the image in association with each other;
前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとAn image acquisition step of acquiring an image of the event selected to be played on the client terminal;
をコンピュータに実行させ、To the computer,
前記クライアント端末では、In the client terminal,
前記複数の撮像装置が備えるイベント検知部の、前記イベント情報を検知する制御スケジュールの設定を受け付けるスケジュール設定受付ステップと、A schedule setting reception step for receiving a setting of a control schedule for detecting the event information of an event detection unit included in the plurality of imaging devices;
前記関連付情報記憶ステップで記憶している前記イベント情報と、前記画像受信ステップで受信した画像のうち、再生をするイベントの画像の選択を受け付ける再生画像選択受付ステップと、A reproduction image selection reception step for receiving selection of an image of an event to be reproduced among the event information stored in the association information storage step and the image received in the image reception step;
前記再生画像選択受付ステップで選択を受け付けた前記イベントの画像を再生する画像再生ステップとAn image reproduction step of reproducing an image of the event whose selection is received in the reproduction image selection reception step;
をコンピュータに実行させるためのプログラム。A program that causes a computer to execute.
イベント検知部を備える複数の撮影装置と通信可能な画像処理装置の制御方法であって、A method for controlling an image processing apparatus capable of communicating with a plurality of imaging devices including an event detection unit,
前記画像処理装置の画像受信手段が、前記複数の撮影装置で撮影される画像を受信する画像受信ステップと、An image receiving step in which the image receiving means of the image processing device receives images taken by the plurality of imaging devices;
前記画像処理装置の画像記録制御手段が、前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、An image recording control step of controlling the image recording control means of the image processing apparatus to store the image received in the image receiving step in a storage area;
前記画像処理装置のスケジュール記憶手段が、クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、A schedule storage step in which the schedule storage means of the image processing apparatus stores a control schedule of an event detection unit for each of the imaging apparatuses that has received a setting at a client terminal;
前記画像処理装置のイベント情報受信手段が、前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、The event information receiving means of the image processing device detects at least one of the plurality of imaging devices at the date and time when the event is detected based on the control schedule of the event detection unit for each imaging device stored in the schedule storage step. An event information receiving step for receiving event information detected by the event detection unit of the first imaging device;
前記画像処理装置の関連付情報記憶手段が、前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、An association information storage unit of the image processing device associates the event information received in the event information receiving step, the image received in the image receiving step, and the first imaging device that captured the image. An associated information storage step for storing;
前記画像処理装置の画像取得手段が、前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとAn image acquisition step in which an image acquisition means of the image processing apparatus acquires an image of the event selected to be played back on the client terminal;
を備えることを特徴とする画像処理装置の制御方法。An image processing apparatus control method comprising:
イベント検知部を備える複数の撮影装置と通信可能な画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、A program for causing a computer to execute a control method of an image processing apparatus capable of communicating with a plurality of imaging devices including an event detection unit,
前記画像処理装置のコンピュータに、In the computer of the image processing apparatus,
前記複数の撮影装置で撮影される画像を受信する画像受信ステップと、An image receiving step for receiving images taken by the plurality of photographing devices;
前記画像受信ステップで受信した画像を記憶領域に記憶するよう制御する画像記録制御ステップと、An image recording control step for controlling to store the image received in the image receiving step in a storage area;
クライアント端末で設定を受け付けた前記撮影装置毎のイベント検知部の制御スケジュールを記憶するスケジュール記憶ステップと、A schedule storage step of storing a control schedule of the event detection unit for each of the imaging devices that has received the setting at the client terminal;
前記スケジュール記憶ステップで記憶した前記撮影装置毎のイベント検知部の制御スケジュールに基づき、イベントを検知する日時に、前記複数の撮影装置のうちの少なくとも1つの第1の撮影装置のイベント検知部により検知されたイベント情報を受信するイベント情報受信ステップと、Based on the control schedule of the event detection unit for each imaging device stored in the schedule storage step, the event detection unit of at least one first imaging device of the plurality of imaging devices detects the event at the date and time when the event is detected. Event information receiving step for receiving the received event information;
前記イベント情報受信ステップで受信した前記イベント情報と、前記画像受信ステップで受信した画像と、当該画像を撮影した前記第1の撮影装置とを関連付けて記憶する関連付情報記憶ステップと、An association information storage step for storing the event information received in the event information reception step, the image received in the image reception step, and the first imaging device that captured the image in association with each other;
前記クライアント端末で再生すべく選択された前記イベントの画像を取得する画像取得ステップとAn image acquisition step of acquiring an image of the event selected to be played on the client terminal;
を実行させるためのプログラム。A program for running
JP2004193327A 2004-06-30 2004-06-30 Image processing apparatus, image processing system, image processing method, and program Expired - Lifetime JP4775931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004193327A JP4775931B2 (en) 2004-06-30 2004-06-30 Image processing apparatus, image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004193327A JP4775931B2 (en) 2004-06-30 2004-06-30 Image processing apparatus, image processing system, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2006019845A JP2006019845A (en) 2006-01-19
JP2006019845A5 JP2006019845A5 (en) 2007-08-16
JP4775931B2 true JP4775931B2 (en) 2011-09-21

Family

ID=35793719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004193327A Expired - Lifetime JP4775931B2 (en) 2004-06-30 2004-06-30 Image processing apparatus, image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4775931B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4663564B2 (en) * 2006-03-23 2011-04-06 パナソニック株式会社 Recorded image playback apparatus and recorded image playback method
JP4959592B2 (en) * 2008-01-18 2012-06-27 株式会社日立製作所 Network video monitoring system and monitoring device
JP5134556B2 (en) * 2009-01-08 2013-01-30 株式会社日立製作所 Monitoring recording apparatus, monitoring system, and monitoring recording method
JP5653105B2 (en) * 2010-07-21 2015-01-14 キヤノン株式会社 Video processing system, video processing method and program
EP2541356B1 (en) * 2011-06-30 2013-08-28 Axis AB Processing monitoring data in a monitoring system
JP6435550B2 (en) * 2014-08-29 2018-12-12 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing apparatus control method, and program
CN109565564B (en) * 2016-11-18 2021-07-02 Jvc 建伍株式会社 Recording device, recording method, reproducing method, and storage medium
JP6766009B2 (en) * 2017-05-09 2020-10-07 キヤノン株式会社 Monitoring equipment, monitoring methods, computer programs, and storage media
JP7098367B2 (en) * 2018-03-19 2022-07-11 キヤノン株式会社 Program products, monitoring and control systems, and information processing equipment
JP6708937B2 (en) * 2018-11-07 2020-06-10 キヤノンマーケティングジャパン株式会社 Surveillance camera, information processing system, control method, program
KR102613192B1 (en) * 2018-12-14 2023-12-15 현대자동차주식회사 Vehicle
JP7393526B2 (en) * 2019-09-06 2023-12-06 グーグル エルエルシー Methods, electronic devices, server systems, and programs for providing event clips
JP7279241B1 (en) 2022-08-03 2023-05-22 セーフィー株式会社 system and program
JP7302088B1 (en) * 2022-12-28 2023-07-03 セーフィー株式会社 system and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339923A (en) * 1999-05-27 2000-12-08 Mitsubishi Electric Corp Apparatus and method for collecting image
JP2002058016A (en) * 2000-08-11 2002-02-22 Sanyo Electric Co Ltd Image accumulation server and its method, remote monitoring system using the same, and image pickup device
JP2002077809A (en) * 2000-09-05 2002-03-15 Toshiba Corp Video recording system
JP4536299B2 (en) * 2001-08-29 2010-09-01 パナソニック株式会社 Event video recording / playback system, event management device, and local recording device

Also Published As

Publication number Publication date
JP2006019845A (en) 2006-01-19

Similar Documents

Publication Publication Date Title
JP4775931B2 (en) Image processing apparatus, image processing system, image processing method, and program
US20070033632A1 (en) Temporal data previewing system
US7505674B2 (en) Image processing apparatus and method for generating and displaying playlist for image data
US20190251351A1 (en) Image monitoring system and image monitoring program
US6014183A (en) Method and apparatus for detecting scene changes in a digital video stream
US6307550B1 (en) Extracting photographic images from video
CN100583999C (en) Apparatus and method for processing images, apparatus and method for processing reproduced images
US20070212031A1 (en) Video monitoring system and video monitoring program
JP4361484B2 (en) Video generation processing device, video generation processing method, and video storage device
US20070206100A1 (en) Video monitoring system and video monitoring program
US20080225119A1 (en) Video Distribution Device
JP4270623B2 (en) Time series data storage and delivery system
KR100925206B1 (en) Method for displaying delete data information in digital video recorder for monitoring
JP5344503B2 (en) Server, store analysis system, program
JP4953189B2 (en) Store analysis system, store analysis system server and control program thereof
US20100033566A1 (en) Digital logging vcr meta data based system construct
JP2013015916A (en) Image management device, image management method, image management program, and recording medium
JP2004304488A (en) Image reproducing device and program
JP4185376B2 (en) Image processing system
JP6847168B2 (en) Video playback device and video playback method
JPH10262236A (en) Video on-demand system, video reproducing position detection method and computer-readable recording medium recorded with video reproduction control program
KR100930338B1 (en) Channel Information Display Method in Surveillance Digital Video Recorder
KR100473753B1 (en) Method for managing preview search index file in digital video recorder for monitoring
JP2006074667A (en) Video image monitoring system
CN100518307C (en) Method of recording images in digital image monitoring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110624

R150 Certificate of patent or registration of utility model

Ref document number: 4775931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250