JP2003289532A - Monitoring camera system and control program thereof - Google Patents

Monitoring camera system and control program thereof

Info

Publication number
JP2003289532A
JP2003289532A JP2002091052A JP2002091052A JP2003289532A JP 2003289532 A JP2003289532 A JP 2003289532A JP 2002091052 A JP2002091052 A JP 2002091052A JP 2002091052 A JP2002091052 A JP 2002091052A JP 2003289532 A JP2003289532 A JP 2003289532A
Authority
JP
Japan
Prior art keywords
camera
surveillance
area
abnormality
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002091052A
Other languages
Japanese (ja)
Inventor
Natsuko Shioda
奈津子 塩田
Masaaki Nakai
政昭 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002091052A priority Critical patent/JP2003289532A/en
Priority to US10/400,342 priority patent/US20030202102A1/en
Publication of JP2003289532A publication Critical patent/JP2003289532A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring camera system that can photograph an abnormal position from a plurality of directions when detecting abnormality. <P>SOLUTION: The monitoring camera system 2 has a plurality of cameras 4A to 4D and a control section 6 for controlling the visual field of the cameras. For example, when a camera detects abnormality in a monitoring area E4, or a sensor S4 in the monitoring area E4 detects abnormality, the control section 6 controls the visual field in the cameras 4A to 4D so that all the cameras 4A to 4D monitor the monitoring area E4. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、複数の監視カメラ
を備えた監視カメラシステムに関する。本発明はまた、
監視カメラシステムの制御プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance camera system including a plurality of surveillance cameras. The present invention also provides
The present invention relates to a control program for a surveillance camera system.

【0002】[0002]

【従来の技術】店などに設置される監視カメラシステム
は、一般に複数の監視カメラを備え、各監視カメラは担
当のエリアを有する。
2. Description of the Related Art A surveillance camera system installed in a store or the like generally comprises a plurality of surveillance cameras, and each surveillance camera has an area in charge.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、例えば
侵入者などの異常を発見した場合、そのエリアを撮影す
る監視カメラは通常一つであるため、その顔を撮影した
くても一方向からでは後ろを向いていて撮影できない可
能性があった。
However, when an abnormality such as an intruder is found, for example, since there is usually only one surveillance camera for photographing the area, even if one wants to photograph the face, the person is behind in one direction. There was a possibility that I could not shoot because I was facing.

【0004】そこで、本発明は、異常を検出した場合
に、異常位置を複数の方向から撮影することのできる監
視カメラシステムを提供することを目的とする。
Therefore, it is an object of the present invention to provide a surveillance camera system capable of photographing an abnormal position from a plurality of directions when an abnormality is detected.

【0005】本発明はまた、異常を検出した場合に、異
常位置を複数の方向から撮影することのできる監視カメ
ラシステムの制御プログラムを提供することを目的とす
る。
It is another object of the present invention to provide a control program for a surveillance camera system capable of photographing an abnormal position from a plurality of directions when an abnormality is detected.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る監視カメラシステムは、第1の監視エ
リアを撮影する第1の監視カメラと、第2の監視エリア
を撮影する第2の監視カメラと、第1の監視エリアに関
する異常を検出するための第1の異常検出手段と、第2
の監視エリアに関する異常を検出するための第2の異常
検出手段と、第2の異常検出手段により第2の監視エリ
アで異常が検出されると、第1の監視カメラで第2の監
視エリアを撮影するよう第1の監視カメラの視野を制御
する第1の監視カメラ制御手段と、第1の異常検出手段
により第1の監視エリアで異常が検出されると、第2の
監視カメラで第1の監視エリアを撮影するよう第2の監
視カメラの視野を制御する第2の監視カメラ制御手段と
を備えることを特徴とするものである。
To achieve the above object, a surveillance camera system according to the present invention comprises a first surveillance camera for photographing a first surveillance area and a first surveillance camera for photographing a second surveillance area. Second surveillance camera, first abnormality detecting means for detecting an abnormality relating to the first monitoring area, and second
Second abnormality detecting means for detecting an abnormality in the second monitoring area, and when the second abnormality detecting means detects an abnormality in the second monitoring area, the first monitoring camera detects the second monitoring area. When an abnormality is detected in the first surveillance area by the first surveillance camera control means for controlling the field of view of the first surveillance camera so as to capture an image, and the second surveillance camera performs the first Second surveillance camera control means for controlling the field of view of the second surveillance camera so as to photograph the surveillance area.

【0007】異常検出手段は、監視エリアを撮影する監
視カメラの映像に基づいて異常を検出してもよい。
The abnormality detecting means may detect the abnormality on the basis of the image of the surveillance camera which photographs the surveillance area.

【0008】第1の監視カメラ制御手段は、第2の監視
エリアで異常が検出された場合に、第1の監視カメラで
第2の監視カメラの視線方向に位置する領域を撮影しな
がら第1の監視カメラの視野を制御し、これにより第1
の監視カメラで第2の監視エリアの異常を視野に捉えさ
せるようにしてもよい。この場合、第1の監視カメラが
第2の監視エリアを撮影可能なように、第1の監視カメ
ラ制御手段の制御プログラミングを設定しておかなくて
も、第1の監視カメラ制御手段は、第1の監視カメラが
第2の監視エリアの異常を発見するように第1の監視カ
メラの視野を制御できる。
The first monitoring camera control means, when an abnormality is detected in the second monitoring area, the first monitoring camera controls the first monitoring camera while photographing the area located in the line-of-sight direction of the second monitoring camera. Control the field of view of the surveillance camera of the
It is also possible to let the surveillance camera capture the abnormality of the second surveillance area in the visual field. In this case, even if the control programming of the first surveillance camera control means is not set so that the first surveillance camera can photograph the second surveillance area, the first surveillance camera control means does not The field of view of the first surveillance camera can be controlled so that the first surveillance camera detects an abnormality in the second surveillance area.

【0009】異常検出手段は、監視エリア内に設けたセ
ンサであってもよい。
The abnormality detecting means may be a sensor provided in the monitoring area.

【0010】第1及び第2の監視カメラが共通の異常物
体を捉えた後、ともに追尾を行うようにしてもよい。
After the first and second surveillance cameras catch a common abnormal object, both may be tracked.

【0011】本発明に係る制御プログラムは、第1の監
視エリアを撮影する第1の監視カメラと、第2の監視エ
リアを撮影する第2の監視カメラと、第1の監視エリア
に関する異常を検出するための第1の異常検出手段と、
第2の監視エリアに関する異常を検出するための第2の
異常検出手段とを備えた監視カメラシステムの制御プロ
グラムにおいて、第2の異常検出手段により第2の監視
エリアで異常が検出されると、第1の監視カメラで第2
の監視エリアを撮影するよう第1の監視カメラの視野を
制御し、第1の異常検出手段により第1の監視エリアで
異常が検出されると、第2の監視カメラで第1の監視エ
リアを撮影するよう第2の監視カメラの視野を制御させ
ることを特徴とするものである。
A control program according to the present invention detects a fault relating to the first surveillance area, a first surveillance camera for photographing the first surveillance area, a second surveillance camera for photographing the second surveillance area. First abnormality detecting means for
In the control program of the surveillance camera system including the second abnormality detecting means for detecting the abnormality relating to the second monitoring area, when the second abnormality detecting means detects an abnormality in the second monitoring area, Second with the first surveillance camera
The field of view of the first surveillance camera is controlled so as to photograph the surveillance area, and when the first abnormality detection means detects an abnormality in the first surveillance area, the second surveillance camera opens the first surveillance area. It is characterized in that the field of view of the second surveillance camera is controlled so as to photograph.

【0012】[0012]

【発明の実施の形態】以下、添付図面を参照して本発明
の実施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0013】本発明に係る監視カメラシステムは、複数
の監視エリアのいずれかで異常を検出した場合に、複数
のカメラの視野を制御して、同じ監視エリアを複数のカ
メラで多方向から監視するためのものである。図1は、
このような監視を実現するための本発明に係る監視カメ
ラシステムの一実施形態を示す概略図である。図2は、
図1の監視カメラシステムの制御ブロック図である。
In the surveillance camera system according to the present invention, when an abnormality is detected in any of the plurality of surveillance areas, the visual fields of the plurality of cameras are controlled so that the same surveillance area is monitored by the plurality of cameras from multiple directions. It is for. Figure 1
It is a schematic diagram showing one embodiment of a surveillance camera system concerning the present invention for realizing such surveillance. Figure 2
It is a control block diagram of the surveillance camera system of FIG.

【0014】具体的に、監視カメラシステム2は、概
略、複数(図の例では4つ)の監視エリアE1〜E4を
監視するための複数(図の例では4つ)の監視カメラ装
置4(4A、4B、4C、4D)(以下、単にカメラと
称する。)と、複数のカメラ4による監視、追尾などの
処理を行うプログラムを搭載した制御部(コンピュー
タ)6と、各監視エリアE1〜E4内にそれぞれ設けら
れたセンサS1〜S4と、4つのカメラ4の監視映像を
同時に表示することのできるディスプレイ8と、制御部
6に対しユーザが適当な指示を入力するための入力装置
(例えばキーボード、マウス)9とを備える。各カメラ
4は、後述するように、制御部6からの指示により、監
視エリアE1〜E4を巡回する通常監視動作、特定の監
視エリアで異常を検出した場合にそのエリアを集中的に
監視する集中監視動作、及び対象物の追尾を行う追尾動
作のいずれかを行う。
More specifically, the surveillance camera system 2 generally includes a plurality (four in the illustrated example) of surveillance camera devices 4 (four in the illustrated example) for monitoring a plurality (four in the illustrated example) of the monitoring areas E1 to E4. 4A, 4B, 4C, 4D) (hereinafter, simply referred to as cameras), a control unit (computer) 6 having a program for performing processing such as monitoring and tracking by a plurality of cameras 4, and monitoring areas E1 to E4. Sensors S1 to S4 respectively provided therein, a display 8 capable of simultaneously displaying monitoring images of four cameras 4, and an input device (for example, a keyboard) for a user to input an appropriate instruction to the control unit 6. , Mouse) 9. As will be described later, each camera 4 performs a normal monitoring operation of patrol the monitoring areas E1 to E4 in accordance with an instruction from the control unit 6, and a centralized monitoring for centrally monitoring an abnormality in a specific monitoring area. Either a monitoring operation or a tracking operation for tracking an object is performed.

【0015】制御部6は、各カメラ4の視野制御を行う
指示部10と、カメラ4から送信された画像を処理する
画像処理部12と、各カメラ4に関連する各種情報を管
理するための複数カメラ状態管理部14と、センサS1
〜S4に対応づけられた監視エリアE1〜E4の情報
(例えば、センサS3は監視エリアE3内にあるという
情報)を記憶するセンサ・監視エリア情報記憶部16
と、巡回時間、追尾実行時間、走査時間(これらは後述
する。)などユーザが入力装置9を介して設定した各種
時間を記憶する設定時間記憶部18とを含む。カメラ4
から画像処理部12に画像データが送られると、画像記
憶部19に記憶される。画像記憶部19内のデータに基
づいて画像処理部12からディスプレイ8に画像データ
が送信されるようになっている。
The control unit 6 manages the field of view control of each camera 4, the image processing unit 12 that processes the image transmitted from the camera 4, and various information related to each camera 4. Multiple camera status management unit 14 and sensor S1
To S4 corresponding to the monitoring areas E1 to E4 (for example, the information that the sensor S3 is in the monitoring area E3) stores the sensor / monitoring area information storage unit 16
And a set time storage unit 18 for storing various times set by the user via the input device 9, such as a traveling time, a tracking execution time, and a scanning time (these will be described later). Camera 4
When the image data is sent from the image processing unit 12 to the image processing unit 12, the image data is stored in the image storage unit 19. Image data is transmitted from the image processing unit 12 to the display 8 based on the data in the image storage unit 19.

【0016】ディスプレイ8は、図3(a)に示すよう
に、システム起動時に、システム2に監視を行わせる監
視モードと各種設定を行うための設定モードのいずれか
をユーザが選択できるよう選択メニュー画面が表示され
る。設定モードとして、図3(b)に示すように、監視
エリアとしてユーザが任意のエリアを選択し、この監視
エリアを画角が捉えるようカメラの視野を設定するため
の「監視エリアの設定]メニュー、各カメラをどのよう
な順序で巡回させるかを設定するための「巡回順の設
定」メニュー、各監視エリアでの巡回時間を設定する
「巡回時間の設定」メニュー、及び監視エリアの異常を
検出するのに色検出を用いる場合に検出色を設定するた
めの「検出色の設定」メニューが用意されている。設定
モードに関してはさらに後で詳述する。
As shown in FIG. 3A, the display 8 has a selection menu so that the user can select either a monitoring mode for allowing the system 2 to monitor or a setting mode for performing various settings when the system is started. The screen is displayed. As a setting mode, as shown in FIG. 3B, a user selects an arbitrary area as a monitoring area, and a “monitoring area setting” menu for setting the field of view of the camera so that the angle of view captures the monitoring area. , "Circulation order" menu for setting the order in which each camera travels, "Course time setting" menu for setting the patrol time in each surveillance area, and detection of abnormalities in the surveillance area A “detection color setting” menu is provided for setting the detection color when color detection is used for this purpose. The setting mode will be described in detail later.

【0017】監視モードにおいて、ディスプレイ8上で
4分割されたブロックに表示させる画像の巡回による切
替えは、図4(a)に示すように各カメラに割り当てる
表示ブロックを固定して行ってもよいし(例えばカメラ
4Aで撮影される映像は常に左上のブロックに表示す
る。)、あるいは、図4(b)に示すように各監視エリ
アに割り当てる表示ブロックを固定して行ってもよい
(例えば監視エリアE1を撮影する映像は常に左上のブ
ロックに表示する。)。なお、図4に示す巡回方法は、
各カメラが同じ監視エリアを監視しないよう同期巡回さ
せる場合であるが、各カメラが監視エリアを各々独立し
て巡回させるようにしてもよい。
In the monitoring mode, the switching of the images displayed in the four divided blocks on the display 8 by the circulation may be performed by fixing the display blocks assigned to the respective cameras as shown in FIG. 4A. (For example, the image captured by the camera 4A is always displayed in the upper left block.) Alternatively, as shown in FIG. 4B, the display block assigned to each monitoring area may be fixed (for example, the monitoring area). The image of E1 is always displayed in the upper left block.) In addition, the patrol method shown in FIG.
This is a case where each camera circulates synchronously so as not to monitor the same surveillance area, but each camera may circulate the surveillance area independently.

【0018】入力装置9は、ディスプレイ8に表示され
る映像に基づいて集中監視エリアを指示部10に指示す
るために用いられる。このとき、指示部10は、後述す
るように、特定のカメラに映し出されていた監視エリア
に対し、複数のカメラで集中監視させるようカメラの視
野を制御する。入力装置9はまた、設定モードでの各種
設定、あるいは監視モードにおいて監視、追尾動作を強
制的に停止させるためにも用いられる。
The input device 9 is used for instructing the centralized monitoring area to the instruction unit 10 based on the image displayed on the display 8. At this time, as will be described later, the instruction unit 10 controls the field of view of the camera so that a plurality of cameras centrally monitor the monitoring area displayed on the specific camera. The input device 9 is also used for various settings in the setting mode or for forcibly stopping the monitoring and tracking operations in the monitoring mode.

【0019】複数カメラ状態管理部14で管理される情
報には、図5に示すように、カメラ4毎に、システム内
でのカメラ4の設置位置の座標、各監視エリアEi(i
=1〜4)に関する下記の情報、カメラ4の現在の視
野、ユーザが入力装置9を介して当該カメラ4の選択指
示があった場合に選択情報を示すユーザ選択情報などが
含まれる。監視エリアEiの情報には、該エリアEiを
画角に捉えるためのカメラ4の視野情報、監視エリアE
iを監視するための方法、監視エリアEiの巡回順を示
す番号「n」(n=1〜4)(例えば、カメラ4Aは、
一巡回当たり監視エリアE3を「2」番目に監視す
る。)が含まれる。監視エリアEiを画角に捉えるため
の各カメラ4の視野情報は、後述するように設定モード
において設定される。監視方法は、ユーザが「色検出の
設定」メニューで検出色を設定しない限り、動体検出が
選択されるようになっている。
As shown in FIG. 5, the information managed by the multi-camera status management unit 14 includes, for each camera 4, the coordinates of the installation position of the camera 4 in the system and the monitoring areas Ei (i.
= 1 to 4), the current field of view of the camera 4, the user selection information indicating the selection information when the user gives an instruction to select the camera 4 via the input device 9, and the like. The information of the monitoring area Ei includes the field of view information of the camera 4 for capturing the area Ei at the angle of view and the monitoring area Ei.
A method for monitoring i, a number “n” (n = 1 to 4) indicating the patrol order of the monitoring area Ei (for example, the camera 4A is
The monitoring area E3 per round is monitored "2". ) Is included. The visual field information of each camera 4 for capturing the surveillance area Ei at the angle of view is set in the setting mode as described later. As the monitoring method, motion detection is selected unless the user sets a detection color in the "color detection setting" menu.

【0020】各カメラ4は、追尾機能及びズーム機能を
有するパン・チルトカメラであり、図6に示すように、
指示部10からの指示により視野(すなわちパン・チル
ト角(姿勢)及び撮影倍率)の制御を行うアクチュエー
タ20と、カメラ4で撮影した画像上で異常を検出する
画像異常検出部22と、カメラに関連する各種情報を管
理するためのカメラ状態管理部24とを備える。各カメ
ラ4には、ある監視エリアE1〜E4のセンサS1〜S
4からの信号を受信するための入力端子(図示せず)が
設けてある。センサの検出信号は、カメラの上記入力端
子を介してカメラ状態管理部24に送信されるようにし
てある。なお、センサの検出信号は指示部10に直接送
信されるようにしてもよい。図1の例では、センサS1
〜S4からの信号は、それぞれカメラ4A〜4Dに送信
される。
Each camera 4 is a pan / tilt camera having a tracking function and a zoom function, and as shown in FIG.
The actuator 20 that controls the field of view (that is, the pan / tilt angle (posture) and the photographing magnification) according to the instruction from the instruction unit 10, the image abnormality detection unit 22 that detects an abnormality on the image captured by the camera 4, and the camera A camera state management unit 24 for managing various related information. Each camera 4 has a sensor S1 to S4 in a certain monitoring area E1 to E4.
An input terminal (not shown) is provided for receiving a signal from No. 4. The detection signal of the sensor is transmitted to the camera state management unit 24 via the input terminal of the camera. The detection signal of the sensor may be directly transmitted to the instruction unit 10. In the example of FIG. 1, the sensor S1
The signals from S4 to S4 are transmitted to the cameras 4A to 4D, respectively.

【0021】画像異常検出部22は、画像フレームの差
分に基づいて画像上の移動物体を検出する動体検出部2
6と、設定モードで設定された色を画像上で検出する色
検出部28と、カメラ4のレンズが何らかで覆われたこ
とを検出するレンズ覆い検出部30とを有する。
The image abnormality detecting unit 22 detects the moving object on the image based on the difference between the image frames.
6, a color detection unit 28 that detects the color set in the setting mode on the image, and a lens cover detection unit 30 that detects that the lens of the camera 4 is covered by something.

【0022】各カメラ4のカメラ状態管理部24で管理
される情報には、画像異常検出部22で異常を検出した
か否かを示す「画像異常検出情報」、該カメラ4に検出
信号を送信するセンサSで異常を検出したか否かを示す
「センサ異常検出情報」、カメラ4が追尾を行っている
か否かを示す「追尾実行情報」などが含まれる。これら
の情報は、後述するように指示部10により適宜参照さ
れる。
The information managed by the camera status management unit 24 of each camera 4 includes "image abnormality detection information" indicating whether or not the image abnormality detection unit 22 detects an abnormality, and a detection signal is transmitted to the camera 4. "Sensor abnormality detection information" indicating whether or not the sensor S has detected an abnormality, "tracking execution information" indicating whether or not the camera 4 is tracking, and the like are included. These pieces of information are appropriately referred to by the instruction unit 10 as described later.

【0023】センサは監視エリア以外にも設置してもよ
い。すなわち、カメラ4の通常の巡回では映さないエリ
アにもセンサ(図の例ではエリアE5、E6内にS5、
S6の2つ)(以下、監視エリア外センサという。)を
設け、このセンサで異常を検出した場合に、カメラ4が
異常を検出したエリアを集中的に撮影するようにする。
監視エリア外センサに対応して、制御部6には、該セン
サで異常を検出したか否かを示す「エリア外センサ異常
検出情報」を管理するセンサ状態管理部32が設けられ
る。
The sensor may be installed in a place other than the monitoring area. In other words, the sensor is used even in an area which is not imaged in the normal traveling of the camera 4 (in the example of the figure, S5 in the areas E5 and E6,
2) of S6) (hereinafter referred to as a sensor outside the monitoring area) is provided, and when the sensor detects an abnormality, the camera 4 intensively captures the area where the abnormality is detected.
Corresponding to the sensor outside the monitoring area, the control unit 6 is provided with a sensor state management unit 32 that manages “outside area sensor abnormality detection information” indicating whether or not an abnormality is detected by the sensor.

【0024】図7〜図12は、本実施形態に係る監視カ
メラシステムにより監視を行うための処理の一例を示す
フローチャートである。図1、2、5、6も参照して、
まず、ステップS1でシステムを起動してディスプレイ
8に選択メニューを表示させる。ステップS2でディス
プレイ8に表示した選択メニューから監視モードを選択
し、ディスプレイ8に監視映像を表示させる。
7 to 12 are flowcharts showing an example of processing for monitoring by the monitoring camera system according to this embodiment. Referring also to FIGS. 1, 2, 5, and 6,
First, in step S1, the system is activated to display the selection menu on the display 8. The monitoring mode is selected from the selection menu displayed on the display 8 in step S2, and the monitoring video is displayed on the display 8.

【0025】指示部10は、ステップS3で、視野制御
を行うカメラN(=4A、4B、4C、4D)を選択
し、ステップS4で、カメラNに関して複数カメラ状態
管理部14で管理された各監視エリアの「巡回順番号」
及び「カメラの視野情報」を参照し、これらの情報に従
いカメラNのアクチュエータ20を制御し、これにより
カメラNの視野に最初に巡回すべき監視エリアが入るよ
うにする。ステップS5で、指示部10は、カメラNに
関して複数カメラ状態管理部14で管理された各監視エ
リア情報の「監視方法(動体検出又は色検出)の情報」
を参照し、この情報に従いカメラNに監視方法を指示す
る。カメラN以外のカメラの視野・監視方法の指示が終
了するまで、ステップS3〜S5が繰り返される(ステ
ップS6)。全カメラの視野・監視方法の指示が終了す
る(すなわち、各カメラが最初に巡回すべき監視エリア
の撮影を開始する。)と、フローはステップS7に進
む。
The instructing unit 10 selects the camera N (= 4A, 4B, 4C, 4D) for which the visual field control is performed in step S3, and in step S4, each of the cameras N managed by the plural camera state management unit 14 is controlled. "Cycling number" of the monitoring area
And "camera field-of-view information", the actuator 20 of the camera N is controlled in accordance with these information, so that the field of view of the camera N includes the surveillance area to be visited first. In step S5, the instruction unit 10 causes the “monitoring method (moving object detection or color detection) information” of each monitoring area information managed by the plural camera state management unit 14 for the camera N.
, And instructs the camera N on the monitoring method according to this information. Steps S3 to S5 are repeated until the instruction of the field of view / monitoring method of the cameras other than the camera N is completed (step S6). When the instructions of the field of view / monitoring method of all the cameras are completed (that is, each camera first starts photographing the surveillance area to be visited), the flow proceeds to step S7.

【0026】ステップS7で現在の巡回位置での巡回時
間が終了する前に、ユーザが入力装置9を介して監視停
止指令を行うと(ステップS8)、ディスプレイ8は初
期画面である選択メニューを表示する(ステップS
9)。
When the user issues a monitoring stop command via the input device 9 before the patrol time at the current patrol position is finished in step S7 (step S8), the display 8 displays a selection menu which is an initial screen. Yes (Step S
9).

【0027】ステップS7で現在の巡回位置での巡回時
間が終了した場合、ステップS3に戻り次に巡回すべき
監視エリアを監視するよう各カメラの視野を制御する
(ステップS3〜S6)。
When the patrol time at the current patrol position is completed in step S7, the process returns to step S3 and the field of view of each camera is controlled so as to monitor the surveillance area to be patrold next (steps S3 to S6).

【0028】ステップS7で現在の巡回位置での巡回時
間が終了する前に、指示部10がユーザから監視停止指
令を受けていない場合、ステップS10に進む。ステッ
プS10では、現在の巡回位置での巡回中、各カメラ4
のカメラ状態管理部24の「画像・センサ異常検出情
報」の確認を行う。
If the instruction unit 10 has not received a monitoring stop command from the user before the patrol time at the current patrol position ends in step S7, the process proceeds to step S10. In step S10, each camera 4 is in the process of patrol at the current patrol position.
The "image / sensor abnormality detection information" of the camera state management unit 24 is checked.

【0029】詳しくは、図8のサブルーチンを参照し
て、まずステップS801で、指示部10は、各カメラ
4のカメラ状態管理部24の「画像異常検出情報」を順
次参照する。ステップS802で、あるカメラ4が異常
を検出したことを確認した場合、フローはステップS8
03に進む。ステップS802に関して、各カメラの監
視フローは図9を用いて後述する。ステップS803
で、異常が検出されたカメラが現在監視しているエリア
を「集中監視エリア」として設定するとともに、このカ
メラを「基準カメラ」として設定し、異常検出情報の確
認のフローを終了する。
More specifically, referring to the subroutine of FIG. 8, first, in step S801, the instruction unit 10 sequentially refers to the "image abnormality detection information" of the camera state management unit 24 of each camera 4. If it is confirmed in step S802 that the camera 4 has detected an abnormality, the flow is step S8.
Go to 03. Regarding step S802, the monitoring flow of each camera will be described later with reference to FIG. Step S803
Then, the area where the camera in which the abnormality is detected is currently monitoring is set as the "centralized monitoring area", and this camera is set as the "reference camera", and the flow for confirming the abnormality detection information ends.

【0030】ステップS802で異常が検出されない場
合、フローはステップS804に進む。ステップS80
4で、指示部10は、各カメラ4内のカメラ状態管理部
24の「(エリア内)センサ異常検出情報」を順次参照
するとともに、センサ状態管理部32の「エリア外セン
サ異常検出情報」を参照する。
If no abnormality is detected in step S802, the flow proceeds to step S804. Step S80
In step 4, the instruction unit 10 sequentially refers to “(in-area) sensor abnormality detection information” of the camera state management unit 24 in each camera 4, and refers to “out-of-area sensor abnormality detection information” of the sensor state management unit 32. refer.

【0031】ステップS805で異常が検出されると、
フローはステップS806に進む。ステップS806
で、指示部10は、センサ・監視エリア情報記憶部16
に記憶された監視エリアの情報を参照して、検出された
センサが配置された監視エリアを「集中監視エリア」と
して設定し、異常検出情報の確認のフローを終了する。
When an abnormality is detected in step S805,
The flow proceeds to step S806. Step S806
Then, the instruction unit 10 uses the sensor / monitoring area information storage unit 16
The monitoring area in which the detected sensor is arranged is set as the "centralized monitoring area" by referring to the information on the monitoring area stored in the above, and the flow of the confirmation of the abnormality detection information is ended.

【0032】ステップS805で異常が検出されない場
合、フローはステップS807に進む。ステップS80
7で、指示部10は、複数カメラ状態管理部14で管理
される各カメラ4の「ユーザ選択情報」を参照する。
If no abnormality is detected in step S805, the flow proceeds to step S807. Step S80
In step 7, the instruction unit 10 refers to the “user selection information” of each camera 4 managed by the multiple camera state management unit 14.

【0033】ステップS808でユーザによるカメラ4
の選択を検出した場合、フローはステップS809に進
む。ステップS809で、指示部10は、ユーザが選択
したカメラが現在監視しているエリアを「集中監視エリ
ア」として設定するとともに、このカメラを「基準カメ
ラ」として設定し、異常検出情報の確認のフローを終了
する。
In step S808, the camera 4 operated by the user
If the selection is detected, the flow proceeds to step S809. In step S809, the instruction unit 10 sets the area currently monitored by the camera selected by the user as the “centralized monitoring area”, sets this camera as the “reference camera”, and confirms the abnormality detection information. To finish.

【0034】ステップS808でユーザによるカメラ4
の選択を検出しない場合、異常検出情報の確認のフロー
を終了する。
In step S808, the camera 4 operated by the user
When the selection of No. is not detected, the flow for confirming the abnormality detection information ends.

【0035】図9は、各カメラの監視フローを示す。ま
ず、ステップS901で、各カメラ4は、指示部10か
ら監視方法及び監視エリアへの視野制御の指令を受け、
アクチュエータ20はカメラ視野を監視エリアに向け、
画像異常検出部22は監視を開始する。ステップS90
2で、あるカメラ4の画像異常検出部22が画像上の異
常を検出した場合、ステップS903に進み、当該カメ
ラ4のカメラ状態管理部24の「画像異常検出情報」に
異常が存在することを記録し、監視フローを終了する。
上述したように、各カメラ4の「画像異常検出情報」は
画像上の異常の発見を目的として指示部10が適宜参照
するためのものである。ステップS902で、画像異常
検出部22が画像上の異常を検出しない場合、フローは
ステップS904に進む。ステップS904で、各カメ
ラ4が、対応する監視エリアのセンサから信号を受信し
た場合(例えば、カメラ4Bが監視エリアE2のセンサ
S2から信号を受信した場合)、ステップS903に進
み、当該カメラ4のカメラ状態管理部24の「センサ異
常検出情報」に異常が存在することを記録し、監視フロ
ーを終了する。上述したように、各カメラ4の「センサ
異常検出情報」はセンサによる異常の発見を目的として
指示部10が適宜参照するためのものである。なお、ス
テップS904で、各カメラ4が、対応する監視エリア
のセンサから信号を受信しない場合、ステップS902
に戻り、画像異常検出部22による画像上の異常検出が
行われる。
FIG. 9 shows a monitoring flow of each camera. First, in step S901, each camera 4 receives a command for a monitoring method and a visual field control to the monitoring area from the instruction unit 10,
The actuator 20 directs the camera field of view to the surveillance area,
The image abnormality detection unit 22 starts monitoring. Step S90
If the image abnormality detection unit 22 of a certain camera 4 detects an abnormality on the image in step 2, the process proceeds to step S903, and it is determined that there is an abnormality in the “image abnormality detection information” of the camera state management unit 24 of the camera 4. Record and end the monitoring flow.
As described above, the “image abnormality detection information” of each camera 4 is for the instruction unit 10 to appropriately refer to for the purpose of finding an abnormality on the image. If the image abnormality detection unit 22 does not detect an abnormality on the image in step S902, the flow proceeds to step S904. In step S904, when each camera 4 receives a signal from the sensor in the corresponding monitoring area (for example, when the camera 4B receives a signal from the sensor S2 in the monitoring area E2), the process proceeds to step S903, and the camera 4 The presence of an abnormality is recorded in the “sensor abnormality detection information” of the camera state management unit 24, and the monitoring flow is ended. As described above, the “sensor abnormality detection information” of each camera 4 is referred to by the instruction unit 10 as appropriate for the purpose of finding an abnormality by the sensor. In addition, in step S904, when each camera 4 does not receive a signal from the sensor of the corresponding monitoring area, step S902
Then, the image abnormality detection unit 22 detects an abnormality on the image.

【0036】図7に戻って、ステップS11では、ステ
ップS10で集中監視エリアの設定がされない場合、ス
テップS3に戻り次に巡回すべき監視エリアを監視する
よう各カメラの視野を制御する(ステップS3〜S
6)。
Returning to FIG. 7, in step S11, when the centralized monitoring area is not set in step S10, the process returns to step S3 and the field of view of each camera is controlled to monitor the monitoring area to be visited next (step S3). ~ S
6).

【0037】ステップS11で、ステップS10で集中
監視エリアの設定がされた場合、ステップS12に進み
集中監視制御フローを開始する。
In step S11, when the centralized monitoring area is set in step S10, the process proceeds to step S12 to start the centralized monitoring control flow.

【0038】図10のサブルーチンを参照して集中監視
制御フローを説明する。以下の説明では、監視エリアE
4が「集中監視エリア」として設定されたとする。
The centralized monitoring control flow will be described with reference to the subroutine of FIG. In the following description, the monitoring area E
It is assumed that 4 is set as the "centralized monitoring area".

【0039】まず、ステップS1001で、設定された
集中監視エリアE4への視野制御を行うカメラNを選択
する。カメラNは、図8の異常検出情報の確認のフロー
で「基準カメラ」が設定された場合(すなわち、カメラ
4で得た画像上の異常を検出した場合、あるいはユーザ
がディスプレイ8を見て集中監視エリアを指示した場
合)、基準カメラを除く3つのカメラのいずれかであ
り、「基準カメラ」が設定されない場合(すなわち、セ
ンサが異常を検出した場合)、4つのカメラのいずれか
である(但し、センサが異常を検出した監視エリアをい
ずれかのカメラが監視していた場合は、このカメラを除
く。)。
First, in step S1001, the camera N which controls the visual field to the set centralized monitoring area E4 is selected. When the “reference camera” is set in the abnormality detection information confirmation flow of FIG. 8 (that is, when an abnormality on the image obtained by the camera 4 is detected, or when the user looks at the display 8 and concentrates) It is one of the three cameras excluding the reference camera, when the "reference camera" is not set (that is, when the sensor detects an abnormality), and is one of the four cameras (when the monitoring area is designated). However, if any camera is monitoring the monitoring area where the sensor detects anomaly, this camera is excluded.)

【0040】ステップS1002で、指示部10は、複
数カメラ状態管理部14に管理される情報を参照し、カ
メラNを集中監視エリアE4に向かせる視野情報にした
がって、集中監視エリアへの視野制御をカメラNのアク
チュエータ20に指示する。ステップS1001、S1
002を残りのカメラについても行い、全てのカメラ4
に集中監視エリアE4を監視させ(ステップS100
3)(図13に示すように、ディスプレイ8に表示させ
る映像は、全て監視エリアE4に切り替わる。)、集中
監視制御フローを終了する。
In step S1002, the instruction unit 10 refers to the information managed by the plural camera state management unit 14, and controls the visual field to the centralized monitoring area according to the visual field information that directs the camera N to the centralized monitoring area E4. The actuator 20 of the camera N is instructed. Steps S1001 and S1
002 is performed for the remaining cameras, and all cameras 4
Control the centralized monitoring area E4 (step S100
3) (All the images displayed on the display 8 are switched to the monitoring area E4 as shown in FIG. 13), and the centralized monitoring control flow is ended.

【0041】図7に戻って、集中監視制御フロー終了
後、複数カメラ4による追尾フローを開始する(ステッ
プS13)。
Returning to FIG. 7, after the centralized monitoring control flow ends, the tracking flow by the plurality of cameras 4 is started (step S13).

【0042】図11のサブルーチンを参照して追尾フロ
ーを説明する。ステップS1101で、集中監視エリア
E4の設定が基準カメラで得た画像の色検出に基づく場
合、ステップS1102に進み、追尾時の対象検出方法
を色検出に設定する(すなわち、残りのカメラの異常検
出方法を色検出に設定する。)。ステップS1101
で、集中監視エリアE4の設定が基準カメラで得た画像
の色検出以外に基づく場合(すなわち、基準カメラで得
た画像の動体検出に基づく場合、監視エリアE4のセン
サS4の異常検出に基づく場合、及びユーザが集中監視
エリアを指示した場合)、ステップS1103に進み、
追尾時の対象検出方法を動体検出に設定する(すなわ
ち、全てのカメラの異常検出方法を動体検出に設定す
る。)。
The tracking flow will be described with reference to the subroutine of FIG. If the setting of the centralized monitoring area E4 is based on the color detection of the image obtained by the reference camera in step S1101, the process proceeds to step S1102, and the target detection method at the time of tracking is set to color detection (that is, abnormality detection of the remaining cameras). Set the method to color detection.). Step S1101
Then, when the setting of the centralized monitoring area E4 is based on other than the color detection of the image obtained by the reference camera (that is, when the moving object detection of the image obtained by the reference camera is performed, or when the abnormality of the sensor S4 of the monitoring area E4 is detected , And the user has designated the centralized monitoring area), the process proceeds to step S1103,
The object detection method during tracking is set to moving body detection (that is, the abnormality detection method for all cameras is set to moving body detection).

【0043】ステップS1104で、指示部10は、ス
テップS1102又はS1103で設定した追尾方法で
の追尾の開始を各カメラ4に指示する。ステップS11
05でユーザが入力装置9を介して追尾停止を指示しな
い限り、ステップS1106に進み、指示部10は、各
カメラのカメラ状態管理部24の「追尾実行情報」を参
照し、各カメラが現在追尾を行っているか否かを確認す
る。ステップS1107で一台でも追尾中のカメラがあ
る場合は追尾を続行し、全てのカメラが追尾を停止した
場合、追尾フローを終了する。なお、その後は、図7に
示すようにステップS3に戻って、システムは複数カメ
ラによる巡回監視を再開する。ステップS1105でユ
ーザが追尾終了を指示した場合も、システムは追尾動作
を終了し、複数カメラによる巡回監視を再開する。
In step S1104, the instruction unit 10 instructs each camera 4 to start tracking by the tracking method set in step S1102 or S1103. Step S11
Unless the user instructs the tracking stop via the input device 9 in 05, the instruction unit 10 refers to the “tracking execution information” of the camera state management unit 24 of each camera, and each camera is currently tracking. Check if you are doing. If at least one camera is being tracked in step S1107, the tracking is continued, and if all the cameras stop tracking, the tracking flow is ended. After that, the process returns to step S3 as shown in FIG. 7, and the system restarts the patrol monitoring by a plurality of cameras. Even when the user gives an instruction to end the tracking in step S1105, the system ends the tracking operation and restarts the patrol monitoring by the plurality of cameras.

【0044】図12は、各カメラ4の追尾フローを示
す。ステップS1201で、各カメラ4は、指示部10
から追尾方法の指令を受け追尾を開始する。ステップS
1202で、各カメラ4のカメラ情報管理部24の「追
尾実行情報」に追尾開始を記録する。ステップS120
3で、追尾対象を見失う(すなわち画角外に追尾対象が
移動した場合)まで、あるいは設定時間記憶部18に記
憶された追尾実行時間を過ぎるまで、追尾を行う。ステ
ップS1204で追尾を停止し、ステップS1205で
各カメラ4のカメラ情報管理部24の「追尾実行情報」
に追尾停止を記録し、各カメラでの追尾フローを終了す
る。
FIG. 12 shows a tracking flow of each camera 4. In step S1201, each camera 4 has the instruction unit 10
A tracking method command is received from and tracking is started. Step S
At 1202, the tracking start is recorded in the “tracking execution information” of the camera information management unit 24 of each camera 4. Step S120
In 3, the tracking is performed until the tracking target is lost (that is, when the tracking target moves out of the angle of view) or until the tracking execution time stored in the set time storage unit 18 has passed. Tracking is stopped in step S1204, and "tracking execution information" of the camera information management unit 24 of each camera 4 in step S1205.
The tracking stop is recorded in, and the tracking flow in each camera ends.

【0045】図14及び図15を用いて、集中監視制御
フローの別の例を説明する。この例では、図10に示す
フローと異なり、集中監視エリアに向くカメラの視野が
予め設定されていない場合(例えばカメラ4B、4C
は、巡回時に監視エリアE4を監視しない。)に、該カ
メラを集中監視エリアに向くようにカメラを制御する方
法が採用されている。以下の説明では、カメラ4Aが
「基準カメラ」として設定され、エリアE4が「集中監
視エリア」として設定されたとする。なお、図15で
は、カメラ4Dなど他の構成を省略して示してある。
Another example of the centralized monitoring control flow will be described with reference to FIGS. 14 and 15. In this example, unlike the flow shown in FIG. 10, when the field of view of the camera facing the centralized monitoring area is not set in advance (for example, the cameras 4B and 4C).
Does not monitor the monitoring area E4 during patrol. ), A method of controlling the camera so that the camera faces the centralized surveillance area is adopted. In the following description, it is assumed that the camera 4A is set as the "reference camera" and the area E4 is set as the "centralized monitoring area". Note that, in FIG. 15, the other components such as the camera 4D are omitted.

【0046】まず、ステップS1401で、設定された
集中監視エリアE4への視野制御を行うカメラNを選択
する。ステップS1402で、指示部10は、複数カメ
ラ状態管理部14に管理される情報を参照し、カメラN
を集中監視エリアE4に向かせる視野情報が設定されて
いるか否かを確認する。視野情報が設定されていれば、
ステップS1403に進み、上記情報にしたがって、集
中監視エリアへの視野制御をカメラNのアクチュエータ
20に指示し、フローはステップS1408に進む。
First, in step S1401, the camera N which controls the visual field to the set centralized monitoring area E4 is selected. In step S1402, the instruction unit 10 refers to the information managed by the multiple camera state management unit 14
It is confirmed whether or not the visual field information for directing to the centralized monitoring area E4 is set. If the field of view information is set,
In step S1403, the actuator 20 of the camera N is instructed to control the visual field to the centralized monitoring area according to the above information, and the flow proceeds to step S1408.

【0047】ステップS1402で、カメラNを集中監
視エリアE4に向かせる視野情報が設定されていなけれ
ば、フローはステップS1404に進む。ステップS1
404で、指示部10は、カメラNの異常検出方法(動
体検出または色検出)を基準カメラ4Aの異常検出方法
と同じに設定する。ステップS1405で、指示部10
は、カメラNの「設置位置情報」、基準カメラ4Aの
「設置位置情報」、及び「基準カメラ4Aの視野情報」
に基づいて、基準カメラ4Aの視線方向(すなわちカメ
ラのレンズ系の光軸方向)の走査をカメラNに指示す
る。具体的に、指示部10は、カメラNを基準カメラ4
Aに近い位置から遠ざかる方向に移動させる。基準カメ
ラ4Aから一定距離離れた位置に到達しても異常対象を
発見しない場合、再び基準カメラ4Aに近づく方向に移
動させるように設定して、カメラNを基準カメラAの視
線上で一度あるいはそれ以上往復移動させてもよい。ス
テップS1406で、カメラNが基準カメラAの視線上
を走査中に異常対象を検出した場合、フローはステップ
S1407に進む。ステップS1407で、異常検出位
置でのカメラNの視野を集中監視エリアE4の視野情報
として、複数カメラ状態管理部14のカメラN情報の
「監視エリアE4の情報」として記憶し、ステップS1
408に進む。カメラNが基準カメラAの視線上を一定
時間走査しても異常対象を検出できなかった場合(ステ
ップS1406、S1409)、フローはステップS1
408に進む。
If the visual field information for directing the camera N to the centralized monitoring area E4 is not set in step S1402, the flow proceeds to step S1404. Step S1
At 404, the instruction unit 10 sets the abnormality detection method (moving object detection or color detection) of the camera N to be the same as the abnormality detection method of the reference camera 4A. In step S1405, the instruction unit 10
Is the “installation position information” of the camera N, the “installation position information” of the reference camera 4A, and the “visual field information of the reference camera 4A”.
Based on the above, the camera N is instructed to scan in the line-of-sight direction of the reference camera 4A (that is, the optical axis direction of the lens system of the camera). Specifically, the instruction unit 10 controls the camera N to be the reference camera 4.
Move it away from the position near A. When the abnormal object is not found even when the object reaches a position a certain distance away from the reference camera 4A, the camera N is set to move toward the reference camera 4A again, and the camera N is once or in line of sight of the reference camera A. You may reciprocate above. In step S1406, when the camera N detects an abnormal target while scanning the line of sight of the reference camera A, the flow proceeds to step S1407. In step S1407, the field of view of the camera N at the abnormality detection position is stored as the field of view information of the centralized monitoring area E4 as "information of the monitoring area E4" of the camera N information of the multiple camera state management unit 14, and step S1
Proceed to 408. When the camera N scans the line of sight of the reference camera A for a certain period of time and cannot detect an abnormal object (steps S1406 and S1409), the flow is step S1.
Proceed to 408.

【0048】ステップS1408で、全てのカメラの集
中監視エリアE4への視野制御を終了しない場合、ステ
ップS1401に戻り、残りのカメラについての視野制
御を行う。ステップS1408で、全てのカメラの集中
監視エリアE4への視野制御を終了した場合、全てのカ
メラ4に集中監視エリアE4を監視させ、集中監視制御
フローを終了する。
If it is determined in step S1408 that the visual field control of the centralized monitoring area E4 of all the cameras is not completed, the process returns to step S1401 and the visual field control of the remaining cameras is performed. In step S1408, when the visual field control to the centralized monitoring area E4 of all the cameras is completed, all the cameras 4 are made to monitor the centralized monitoring area E4, and the centralized monitoring control flow ends.

【0049】上述したように、ステップS1409でカ
メラNの走査開始から一定時間経過しても異常対象が発
見できない場合、ステップS1408に進む。ステップ
S1408で、集中監視制御開始から一定時間経過して
いなければ、ステップS1401に戻り他のカメラの視
野制御を行う。しかしながら、他のカメラの視野制御が
終了すれば、異常対象が発見できなかったカメラの視野
制御を再度行う。ステップS1408で、集中監視指令
開始から一定時間経過しても、上記カメラの視野制御を
繰り返しても異常対象を発見できない場合、上記カメラ
での異常対象検出は行わず、集中監視制御フローを終了
し、残りのカメラで追尾動作を行う。
As described above, in step S1409, if an abnormal object cannot be found even after a lapse of a certain time from the start of scanning by the camera N, the process proceeds to step S1408. In step S1408, if the fixed time has not elapsed from the start of the centralized monitoring control, the process returns to step S1401 and the view control of other cameras is performed. However, when the field of view control of another camera is completed, the field of view control of the camera in which the abnormal target could not be found is performed again. In step S1408, if an abnormal target cannot be found even after repeating the visual field control of the camera even after a lapse of a certain time from the start of the centralized monitoring command, the abnormal target is not detected by the camera and the centralized monitoring control flow is ended. , Perform the tracking operation with the remaining cameras.

【0050】図14のフローは、特定のカメラが「基準
カメラ」として設定された場合(すなわちカメラ4で得
た画像上の異常を検出した場合、あるいはユーザがディ
スプレイ8を見て集中監視エリアを指示した場合)に、
基準カメラの視線方向に沿って他のカメラを走査するこ
とで他のカメラでも異常を検出するようにしたものであ
る。これに対し、センサが異常検出した場合は「基準カ
メラ」は設定されないが、異常を検出したセンサが配置
された監視エリアを巡回するカメラを該監視エリアに向
け、その後、この監視エリアを巡回しない他のカメラ
を、異常を検出したカメラの視線方向に沿って走査させ
る。
The flow of FIG. 14 shows that when a specific camera is set as the "reference camera" (that is, when an abnormality on the image obtained by the camera 4 is detected, or when the user looks at the display 8 and the central monitoring area is displayed). (If instructed),
By scanning the other camera along the line-of-sight direction of the reference camera, the other camera also detects an abnormality. On the other hand, when the sensor detects an abnormality, the "reference camera" is not set, but the camera that patrols the surveillance area in which the sensor that has detected the abnormality is located is directed to the surveillance area, and then does not patrol this surveillance area. Another camera is scanned along the line-of-sight direction of the camera that detected the abnormality.

【0051】図16〜図19は、各種設定を行うための
処理の一例を示すフローチャートである。図3も参照し
てシステムの起動時のメニュー画面で設定モードを選択
した場合、監視エリア、巡回順、巡回時間、及び検出色
の設定が行える。検出色の設定に関しては、本出願人に
より本願と同日に出願された「監視カメラシステム及び
監視カメラシステムの制御プログラム」で詳細に説明さ
れており、本願では説明しない。
16 to 19 are flowcharts showing an example of processing for making various settings. Referring also to FIG. 3, when the setting mode is selected on the menu screen at system startup, the monitoring area, the order of patrol, the time of patrol, and the detection color can be set. The setting of the detection color is described in detail in “Surveillance camera system and control program for surveillance camera system” filed on the same date as the present application by the present applicant, and will not be described in the present application.

【0052】図16のフローチャートを参照して、監視
エリアの設定方法を説明する。上述したように、「監視
エリアの設定」とは、監視エリアとして任意のエリアを
選択し、この監視エリアを画角が捉えるようカメラの視
野を設定することである。まず、ステップS1601
で、設定メニューから「監視エリアの設定」を選択す
る。ステップS1602で、監視エリアの設定を行うカ
メラN(=4A〜4D)を選択する。ステップS160
3でカメラNに目的の監視エリアを画角に捉えるよう
に、ユーザは入力部10を介して(すなわち手動で)カ
メラNの視野設定を行う。ステップS1604で、カメ
ラNの現在の視野を、複数カメラ状態管理部14のカメ
ラNの「監視エリアEiの情報」として記憶させる。合
わせて、動体検出か色検出かの監視方法も設定する。ま
た、監視エリアEiと該エリア内にあるセンサとの対応
関係をセンサ・監視エリア情報記憶部16に記憶させ
る。
A method of setting the monitoring area will be described with reference to the flowchart of FIG. As described above, “setting a surveillance area” means selecting an arbitrary area as the surveillance area and setting the field of view of the camera so that the angle of view captures the surveillance area. First, step S1601
Use to select "Monitor area setting" from the setting menu. In step S1602, the camera N (= 4A to 4D) for setting the monitoring area is selected. Step S160
The user sets the field of view of the camera N via the input unit 10 (that is, manually) so that the target surveillance area of the camera N is captured in 3 by the angle of view. In step S1604, the current field of view of the camera N is stored as “information of the monitoring area Ei” of the camera N of the multiple camera state management unit 14. At the same time, the monitoring method for moving object detection or color detection is also set. Further, the correspondence between the monitoring area Ei and the sensors in the area is stored in the sensor / monitoring area information storage unit 16.

【0053】ステップS1605で監視エリアEiを向
くための他のカメラの視野を設定する場合、ステップS
1606に進み、監視エリアEiを設定する他のカメラ
Mを選択する。ステップS1607で、カメラMを目的
の監視エリアEiに向くように視野設定を行う。
If the field of view of another camera for pointing the surveillance area Ei is set in step S1605, step S1
Proceeding to 1606, another camera M for which the monitoring area Ei is set is selected. In step S1607, the field of view is set so that the camera M faces the target monitoring area Ei.

【0054】詳しくは、図17のサブルーチンを参照し
て、2台目以降のカメラは手動あるいは自動で視野設定
を行うことができる。ステップS1701でカメラ視野
を設定するために手動モードを選択した場合、ステップ
S1702に進み、カメラMに目的の監視エリアEiを
画角に捉えるよう、ユーザは入力部10を介してカメラ
Mの視野設定を行う。
Specifically, referring to the subroutine of FIG. 17, the field of view of the second and subsequent cameras can be set manually or automatically. When the manual mode is selected in step S1701 to set the camera visual field, the process proceeds to step S1702, and the user sets the visual field of the camera M via the input unit 10 so that the camera M captures the target monitoring area Ei at the angle of view. I do.

【0055】ステップS1701でカメラ視野を設定す
るためのに自動モードを選択した場合、ステップS17
03に進み、指示部10は、選択したカメラMの「設置
位置情報」、最初に視野を設定したカメラNの「設置位
置情報」、及び「カメラNの姿勢(パン・チルト角)情
報」に基づいて、カメラNの視線方向を走査するように
カメラMの視野を制御する。ユーザは、カメラMが監視
エリアEiを捉えると走査停止を指示する(ステップS
1704、S1705)。必要ならば、手動でカメラM
の視野の微調整を行ってもよい。
If the automatic mode is selected for setting the camera field of view in step S1701, then step S17
In step 03, the instruction unit 10 sets “installation position information” of the selected camera M, “installation position information” of the camera N that first sets the field of view, and “posture (pan / tilt angle) information of the camera N”. Based on this, the field of view of the camera M is controlled so as to scan the line-of-sight direction of the camera N. The user gives an instruction to stop scanning when the camera M captures the monitoring area Ei (step S).
1704, S1705). If necessary, manually operate the camera M
The field of view may be finely adjusted.

【0056】図16に戻って、ステップS1608で、
カメラMの現在の視野を、複数カメラ状態管理部14の
カメラMの「監視エリアEiの情報」として記憶させ
る。合わせて、動体検出か色検出かの監視方法も設定す
る。フローはステップS1605に戻る。
Returning to FIG. 16, in step S1608,
The current field of view of the camera M is stored as “information of the monitoring area Ei” of the camera M of the multiple camera state management unit 14. At the same time, the monitoring method for moving object detection or color detection is also set. The flow returns to step S1605.

【0057】ステップS1605で上記監視エリアEi
を向くための他のカメラの視野をこれ以上設定しない場
合、フローはステップS1609に進む。ステップS1
609で、「監視エリアの設定」を終了しない場合はス
テップS1602に戻り、他の監視エリアについてカメ
ラの視野設定を行う。
In step S1605, the monitoring area Ei
If the field of view of another camera for pointing to is not set any more, the flow proceeds to step S1609. Step S1
If the “monitoring area setting” is not ended in 609, the process returns to step S1602, and the field of view of the camera is set for another monitoring area.

【0058】図18のフローチャートを参照して、巡回
順の設定方法を説明する。まず、ステップS1801
で、設定メニューから「巡回順の設定」を選択する。ス
テップS1802で、巡回順の設定を行うカメラN(=
4A〜4D)を選択する。ステップS1803で、「監
視エリアの設定」で設定済みの各監視エリアの巡回順
を、複数カメラ状態管理部14のカメラNの「監視エリ
アの情報」として記憶させる。ステップS1804で、
「巡回順の設定」を終了しない場合はステップS180
2に戻り、他のカメラについて巡回順の設定を行う。
A method of setting the traveling order will be described with reference to the flowchart of FIG. First, step S1801
Use to select “Circuit order setting” from the setting menu. In step S1802, the camera N (=
4A-4D). In step S1803, the patrol order of each monitoring area that has been set in the "monitoring area setting" is stored as "monitoring area information" of the camera N of the multiple camera state management unit 14. In step S1804,
When the “setting of the traveling order” is not completed, step S180
Returning to step 2, the patrol order is set for the other cameras.

【0059】図19のフローチャートを参照して、巡回
時間の設定方法を説明する。まず、ステップS1901
で、設定メニューから「巡回時間の設定」を選択する。
ステップS1902で、各巡回位置で監視を行う時間を
表す巡回時間を設定時間記憶部18に記憶させる。ステ
ップS1903で、「巡回時間の設定」を終了しない場
合はステップS1902に戻り巡回時間の変更を行う。
巡回時間は、カメラ及び/又は監視エリアに応じて異な
らせて設定してもよい。
A method of setting the traveling time will be described with reference to the flowchart of FIG. First, step S1901.
Use to select “Set tour time” from the setting menu.
In step S1902, the set time storage unit 18 stores the patrol time indicating the time for monitoring at each patrol position. If it is determined in step S1903 that the "payment time setting" is not to be completed, the process returns to step S1902 to change the patrol time.
The patrol time may be set differently depending on the camera and / or the surveillance area.

【0060】以上、本発明に係る具体的な実施形態を説
明したが、本発明はこれらに限らず、種々改変可能であ
る。例えば、上記実施形態では、カメラは複数の監視エ
リアを巡回するように構成されていたが、各カメラが監
視する監視エリアを固定しておき、異常を検出したとき
に初めて全てのカメラが集中監視エリアを監視するよう
にしてもよい。
The specific embodiments according to the present invention have been described above, but the present invention is not limited to these, and various modifications can be made. For example, in the above-described embodiment, the cameras are configured to circulate in a plurality of surveillance areas, but the surveillance areas monitored by each camera are fixed and all the cameras perform centralized surveillance only when an abnormality is detected. The area may be monitored.

【0061】また、上記実施形態では、全てのエリア
(E1〜E6)内にセンサ(S1〜S6)が配置されて
いたが、監視カメラが監視するエリア(E1〜E4)で
は必ずしもセンサを設けなくてもよい。
In the above embodiment, the sensors (S1 to S6) are arranged in all the areas (E1 to E6), but the sensors are not necessarily provided in the areas (E1 to E4) monitored by the surveillance camera. May be.

【0062】さらに、カメラ4内に搭載された画像異常
検出部20及びカメラ状態管理部24はコンピュータ6
側に設けてもよい。すなわち、これら画像異常検出など
の処理を行うプログラムをコンピュータ6に読み込ませ
てもよい。
Further, the image abnormality detecting section 20 and the camera state managing section 24 mounted in the camera 4 are connected to the computer 6
It may be provided on the side. In other words, the computer 6 may be caused to read a program for performing processing such as image abnormality detection.

【0063】[0063]

【発明の効果】本発明によれば、異常を検出した場合
に、異常位置を複数の方向から撮影することができる。
According to the present invention, when an abnormality is detected, the abnormal position can be photographed from a plurality of directions.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明に係る監視カメラシステムの一実施形
態を示す概略図。
FIG. 1 is a schematic diagram showing an embodiment of a surveillance camera system according to the present invention.

【図2】 図1の監視カメラシステムの制御ブロック
図。
FIG. 2 is a control block diagram of the surveillance camera system of FIG.

【図3】 (a)システム起動時の表示画面を示す図。
(b)設定メニュー画面を示す図。
FIG. 3A is a diagram showing a display screen when the system is activated.
(B) The figure which shows a setting menu screen.

【図4】 (a)各カメラに割り当てる表示ブロックを
固定して切替えを行う場合の表示画面を示す図。(b)
各監視エリアに割り当てる表示ブロックを固定して切替
えを行う場合の表示画面を示す図。
FIG. 4A is a diagram showing a display screen when a display block assigned to each camera is fixed and switched. (B)
The figure which shows the display screen at the time of switching, fixing the display block allocated to each monitoring area.

【図5】 図2の複数カメラ状態管理部に管理される情
報を示す図。
5 is a diagram showing information managed by a multi-camera state management unit in FIG.

【図6】 各カメラの構成を示す図。FIG. 6 is a diagram showing a configuration of each camera.

【図7】 図1の監視カメラシステムを用いた監視・追
尾プロセス全体を示すフローチャート。
7 is a flowchart showing the entire monitoring / tracking process using the monitoring camera system of FIG.

【図8】 図7のステップS10の異常検出情報確認の
サブルーチンを示すフローチャート。
FIG. 8 is a flowchart showing a subroutine for confirming abnormality detection information in step S10 of FIG.

【図9】 各カメラの監視動作を示すフローチャート。FIG. 9 is a flowchart showing the monitoring operation of each camera.

【図10】 図7のステップS12の集中監視制御のサ
ブルーチンを示すフローチャート。
10 is a flowchart showing a subroutine of centralized monitoring control in step S12 of FIG.

【図11】 図7のステップS13の追尾動作のサブル
ーチンを示すフローチャート。
FIG. 11 is a flowchart showing a tracking operation subroutine of step S13 of FIG.

【図12】 各カメラの追尾動作を示すフローチャー
ト。
FIG. 12 is a flowchart showing a tracking operation of each camera.

【図13】 集中監視制御フローにおいて、表示画面の
切替えの様子を示す図。
FIG. 13 is a diagram showing how the display screens are switched in the centralized monitoring control flow.

【図14】 集中監視制御の別のサブルーチンを示すフ
ローチャート。
FIG. 14 is a flowchart showing another subroutine of centralized monitoring control.

【図15】 図14に示すフローチャートを用いた集中
監視制御の様子を示すシステムの概略図。
FIG. 15 is a schematic diagram of a system showing a state of centralized monitoring control using the flowchart shown in FIG.

【図16】 監視エリアの設定プロセスを示すフローチ
ャート。
FIG. 16 is a flowchart showing a monitoring area setting process.

【図17】 図16のステップS1607のサブルーチ
ンを示すフローチャート。
FIG. 17 is a flowchart showing a subroutine of step S1607 of FIG.

【図18】 巡回順の設定プロセスを示すフローチャー
ト。
FIG. 18 is a flowchart showing a patrol order setting process.

【図19】 巡回時間の設定プロセスを示すフローチャ
ート。
FIG. 19 is a flowchart showing a patrol time setting process.

【符号の説明】[Explanation of symbols]

2:監視カメラシステム、4A〜4D:カメラ、E1〜
E4:監視エリア、S1〜S4:センサ。
2: surveillance camera system, 4A to 4D: camera, E1 to
E4: monitoring area, S1 to S4: sensors.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/225 C Fターム(参考) 5C022 AA05 AB61 AB62 AB65 AC69 CA00 5C054 CC05 CF06 CG05 CH02 DA06 EA01 EA05 FE09 FF02 HA18 5C087 AA02 AA03 AA09 AA24 BB02 BB65 BB74 DD05 DD20 EE05 EE06 EE08 GG02 GG11 GG19 GG65 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/225 H04N 5/225 CF Term (reference) 5C022 AA05 AB61 AB62 AB65 AC69 CA00 5C054 CC05 CF06 CG05 CH02 DA06 EA01 EA05 FE09 FF02 HA18 5C087 AA02 AA03 AA09 AA24 BB02 BB65 BB74 DD05 DD20 EE05 EE06 EE08 GG02 GG11 GG19 GG65

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 第1の監視エリアを撮影する第1の監視
カメラと、 第2の監視エリアを撮影する第2の監視カメラと、 第1の監視エリアに関する異常を検出するための第1の
異常検出手段と、 第2の監視エリアに関する異常を検出するための第2の
異常検出手段と、 第2の異常検出手段により第2の監視エリアで異常が検
出されると、第1の監視カメラで第2の監視エリアを撮
影するよう第1の監視カメラの視野を制御する第1の監
視カメラ制御手段と、 第1の異常検出手段により第1の監視エリアで異常が検
出されると、第2の監視カメラで第1の監視エリアを撮
影するよう第2の監視カメラの視野を制御する第2の監
視カメラ制御手段とを備えた監視カメラシステム。
1. A first surveillance camera for photographing a first surveillance area, a second surveillance camera for photographing a second surveillance area, and a first surveillance camera for detecting an abnormality relating to the first surveillance area. When the abnormality is detected in the second monitoring area by the abnormality detecting means, the second abnormality detecting means for detecting the abnormality related to the second monitoring area, and the second abnormality detecting means, the first monitoring camera When an abnormality is detected in the first surveillance area by the first surveillance camera control means for controlling the field of view of the first surveillance camera so as to capture an image of the second surveillance area at A second monitoring camera control means for controlling the field of view of the second monitoring camera so that the second monitoring camera captures the first monitoring area.
【請求項2】 上記異常検出手段は、監視エリアを撮影
する監視カメラの映像に基づいて異常を検出することを
特徴とする請求項1のシステム。
2. The system according to claim 1, wherein the abnormality detecting means detects an abnormality based on a video image of a surveillance camera which photographs the surveillance area.
【請求項3】 上記第1の監視カメラ制御手段は、第2
の監視エリアで異常が検出された場合に、第1の監視カ
メラで第2の監視カメラの視線方向に位置する領域を撮
影しながら第1の監視カメラの視野を制御し、これによ
り第1の監視カメラで第2の監視エリアの異常を視野に
捉えさせることを特徴とする請求項2のシステム。
3. The first surveillance camera control means comprises a second surveillance camera control means.
When an abnormality is detected in the surveillance area of the first surveillance camera, the first surveillance camera controls the field of view of the first surveillance camera while photographing the area located in the line-of-sight direction of the second surveillance camera. The system according to claim 2, wherein the surveillance camera captures an abnormality in the second surveillance area in a visual field.
【請求項4】 上記異常検出手段は監視エリア内に設け
たセンサであることを特徴とする請求項1のシステム。
4. The system according to claim 1, wherein the abnormality detecting means is a sensor provided in a monitoring area.
【請求項5】 第1の監視エリアを撮影する第1の監視
カメラと、第2の監視エリアを撮影する第2の監視カメ
ラと、第1の監視エリアに関する異常を検出するための
第1の異常検出手段と、第2の監視エリアに関する異常
を検出するための第2の異常検出手段とを備えた監視カ
メラシステムの制御プログラムにおいて、 第2の異常検出手段により第2の監視エリアで異常が検
出されると、第1の監視カメラで第2の監視エリアを撮
影するよう第1の監視カメラの視野を制御し、 第1の異常検出手段により第1の監視エリアで異常が検
出されると、第2の監視カメラで第1の監視エリアを撮
影するよう第2の監視カメラの視野を制御させることを
特徴とする制御プログラム。
5. A first surveillance camera for photographing the first surveillance area, a second surveillance camera for photographing the second surveillance area, and a first surveillance camera for detecting an abnormality relating to the first surveillance area. In a control program for a surveillance camera system including an abnormality detecting unit and a second abnormality detecting unit for detecting an abnormality relating to the second monitoring area, the second abnormality detecting unit detects an abnormality in the second monitoring area. When detected, the first surveillance camera controls the field of view of the first surveillance camera so as to photograph the second surveillance area, and the first abnormality detection means detects an abnormality in the first surveillance area. , A control program for controlling the field of view of the second surveillance camera so that the second surveillance camera captures the first surveillance area.
JP2002091052A 2002-03-28 2002-03-28 Monitoring camera system and control program thereof Pending JP2003289532A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002091052A JP2003289532A (en) 2002-03-28 2002-03-28 Monitoring camera system and control program thereof
US10/400,342 US20030202102A1 (en) 2002-03-28 2003-03-27 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002091052A JP2003289532A (en) 2002-03-28 2002-03-28 Monitoring camera system and control program thereof

Publications (1)

Publication Number Publication Date
JP2003289532A true JP2003289532A (en) 2003-10-10

Family

ID=29236233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002091052A Pending JP2003289532A (en) 2002-03-28 2002-03-28 Monitoring camera system and control program thereof

Country Status (1)

Country Link
JP (1) JP2003289532A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148260A (en) * 2004-11-16 2006-06-08 Canon Inc Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium
WO2008067247A1 (en) * 2006-11-29 2008-06-05 Honeywell International Inc. Method and system for automatically determining the camera field of view in a camera network
WO2010137211A1 (en) * 2009-05-28 2010-12-02 パナソニック株式会社 Camera device with rotary base
JP2015005910A (en) * 2013-06-21 2015-01-08 日本放送協会 Transmission/reception system, transmitter and receiver
WO2019124111A1 (en) * 2017-12-21 2019-06-27 ソニー株式会社 Control device and control method
JP2020178149A (en) * 2019-04-15 2020-10-29 シャープ株式会社 Monitoring device and monitoring method
JP2021185663A (en) * 2019-09-18 2021-12-09 日本電気株式会社 Video monitoring device, video monitoring method, and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148260A (en) * 2004-11-16 2006-06-08 Canon Inc Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium
JP4498104B2 (en) * 2004-11-16 2010-07-07 キヤノン株式会社 Monitoring device, control method thereof, and program
WO2008067247A1 (en) * 2006-11-29 2008-06-05 Honeywell International Inc. Method and system for automatically determining the camera field of view in a camera network
US8792005B2 (en) 2006-11-29 2014-07-29 Honeywell International Inc. Method and system for automatically determining the camera field of view in a camera network
WO2010137211A1 (en) * 2009-05-28 2010-12-02 パナソニック株式会社 Camera device with rotary base
JP2010276843A (en) * 2009-05-28 2010-12-09 Panasonic Corp Camera device with turntable
US9091904B2 (en) 2009-05-28 2015-07-28 Panasonic Intellectual Property Management Co., Ltd. Camera device with rotary base
JP2015005910A (en) * 2013-06-21 2015-01-08 日本放送協会 Transmission/reception system, transmitter and receiver
WO2019124111A1 (en) * 2017-12-21 2019-06-27 ソニー株式会社 Control device and control method
JPWO2019124111A1 (en) * 2017-12-21 2020-12-10 ソニー株式会社 Control device and control method
JP7218728B2 (en) 2017-12-21 2023-02-07 ソニーグループ株式会社 Control device and control method
US11818454B2 (en) 2017-12-21 2023-11-14 Sony Corporation Controller and control method
JP2020178149A (en) * 2019-04-15 2020-10-29 シャープ株式会社 Monitoring device and monitoring method
JP7317556B2 (en) 2019-04-15 2023-07-31 シャープ株式会社 Monitoring device and monitoring method
JP2021185663A (en) * 2019-09-18 2021-12-09 日本電気株式会社 Video monitoring device, video monitoring method, and program
JP7314973B2 (en) 2019-09-18 2023-07-26 日本電気株式会社 VIDEO MONITORING DEVICE, VIDEO MONITORING METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
US10861304B2 (en) Monitoring camera and monitoring camera control method
KR100432870B1 (en) Intruding object monitoring method and intruding object monitoring system
JP4140591B2 (en) Imaging system and imaging method
US20030202102A1 (en) Monitoring system
JP4898407B2 (en) Communication device
JP2003284053A (en) Monitoring camera system and monitoring camera control device
WO2011082185A1 (en) Confined motion detection for pan-tilt cameras employing motion detection and autonomous motion tracking
JP4378636B2 (en) Information processing system, information processing apparatus, information processing method, program, and recording medium
KR20120118790A (en) Visual survailance system and method based on cooperation between cameras
JP2008085874A (en) Person monitoring system, and person monitoring method
JP6624800B2 (en) Image processing apparatus, image processing method, and image processing system
JP2007067510A (en) Video image photography system
JP2003289532A (en) Monitoring camera system and control program thereof
JP2003158664A (en) Camera controller
WO2012158017A1 (en) Method and system for multiple objects tracking and display
JP4444746B2 (en) Object tracking method and object tracking device
JP5360403B2 (en) Mobile imaging device
EP2107536B1 (en) Video monitoring device
JP2004128646A (en) Monitoring system and controller
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system
KR101619953B1 (en) Method for image processing of surveilance camera by using auto multi-tracing
JP3711119B2 (en) Imaging apparatus, imaging system, and imaging method
JP3948322B2 (en) Surveillance camera system and control program for surveillance camera system
JPH0384698A (en) Intruder monitoring device
JP2005167604A (en) Image monitoring system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061010