JP2000083243A - Image pickup device, image pickup system, imaging control method and storage medium - Google Patents

Image pickup device, image pickup system, imaging control method and storage medium

Info

Publication number
JP2000083243A
JP2000083243A JP10250764A JP25076498A JP2000083243A JP 2000083243 A JP2000083243 A JP 2000083243A JP 10250764 A JP10250764 A JP 10250764A JP 25076498 A JP25076498 A JP 25076498A JP 2000083243 A JP2000083243 A JP 2000083243A
Authority
JP
Japan
Prior art keywords
imaging
camera
control
image
imaging range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10250764A
Other languages
Japanese (ja)
Other versions
JP3710297B2 (en
Inventor
Tomohiko Matsuura
友彦 松浦
Yoshihiro Ishida
良弘 石田
Tsuneyoshi Takagi
常好 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP25076498A priority Critical patent/JP3710297B2/en
Publication of JP2000083243A publication Critical patent/JP2000083243A/en
Application granted granted Critical
Publication of JP3710297B2 publication Critical patent/JP3710297B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image pickup system that efficiently and accurately conducts monitoring operation. SOLUTION: A control means 130 controls an imaging range by image pickup means 110, 120 so that the same area is not imaged by them to the utmost and all target points in the imaging area are imaged. Furthermore, in the case of detecting a target point where a change takes place, the control means 130 controls them so that the imaging range by the image pickup means 110 covers the imaging range including the target point at which the change is detected and the other imaging means 120 covers the imaging range including other target points than the target point above. Thus, the image pickup means 110, 120 provide a video image of an area where a change takes place and a video image of the other area where no change takes place.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、撮影時の
光学的カメラパラメータ(以下、「光学的パラメータ」
と言う)、及び幾何的カメラパラメータ(以下、「幾何
的パラメータ」と言う)を、コンピュータにより自在に
制御可能な撮影システムに用いられる撮像装置、撮像シ
ステム、撮像制御方法、及びそれを実施するための処理
ステップをコンピュータが読出可能に格納した記憶媒体
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, an optical camera parameter at the time of photographing (hereinafter, "optical parameter").
) And geometric camera parameters (hereinafter, referred to as “geometric parameters”) used in an imaging system that can be freely controlled by a computer, an imaging system, an imaging control method, and a method for implementing the same. The present invention relates to a storage medium in which the processing steps are stored in a computer-readable manner.

【0002】[0002]

【従来の技術】従来より、広範囲の監視作業等を行なう
ために、大きく分けて次の2つの方法が用いられてき
た。第1の方法は、注目している場所毎に監視用のカメ
ラを配置する方法であり、第2の方法は、広視野を撮影
可能な監視用のカメラを使用する方法である。
2. Description of the Related Art Conventionally, the following two methods have been used to perform a wide range of monitoring work. The first method is to arrange a monitoring camera for each location of interest, and the second method is to use a monitoring camera capable of capturing a wide field of view.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来用
いられていた上述の第1及び第2の方法には、次のよう
な問題点があった。まず、注目している場所毎にカメラ
を配置する第1の方法は、注目している場所の数が増加
するに従って、カメラの台数を増やす必要があり、経済
的な負担が大きくなる。これに対して、広視野を撮影可
能なカメラを使用する第2の方法は、例えば、監視領域
の中である領域に異変が発生したとしても、その異変部
分は撮影画像全体(監視領域全体)のごく小領域でしか
ない。したがって、異変の詳細を観測することはでき
ず、これは異変の詳細を確認する目的に対して非常に不
都合な問題である。この問題点を解決するために、カメ
ラに光学的なズーム機能を具備させ、異変の生じている
領域をズームアップして表示することが考えられるが、
ズームアップ中には他の領域を監視できないという問題
が残ってしまう。
However, the above-mentioned first and second methods used conventionally have the following problems. First, the first method of arranging cameras for each location of interest requires an increase in the number of cameras as the number of locations of interest increases, resulting in an increased economic burden. On the other hand, in the second method using a camera capable of capturing a wide field of view, for example, even if an abnormality occurs in a certain area in the monitoring area, the abnormal part is the entire captured image (the entire monitoring area) It is only a very small area. Therefore, the details of the anomaly cannot be observed, which is a very inconvenient problem for the purpose of confirming the details of the anomaly. In order to solve this problem, it is conceivable to provide the camera with an optical zoom function to zoom up and display the area where the abnormality has occurred,
The problem remains that other areas cannot be monitored during zoom-in.

【0004】そこで、本発明は、上記の欠点を除去する
ために成されたもので、効率的に且つ正確な監視作業を
行うことが可能な撮像装置、撮像システム、撮像制御方
法、及びそれを実施するための処理ステップをコンピュ
ータが読出可能に格納した記憶媒体を提供することを目
的とする。
Accordingly, the present invention has been made to eliminate the above-mentioned disadvantages, and an imaging apparatus, an imaging system, an imaging control method, and an imaging control method capable of performing an efficient and accurate monitoring operation. It is an object of the present invention to provide a storage medium in which processing steps to be performed are stored in a computer-readable manner.

【0005】[0005]

【課題を解決するための手段】斯かる目的下において、
第1の発明は、撮像範囲が変更可能な少なくとも1つの
撮像手段を含む複数の撮像手段と、上記複数の撮像手段
により撮像される画像中に複数の注目点を設定する設定
手段と、上記設定手段により設定された複数の注目点で
の変化を検出する検出手段と、上記検出手段の検出結果
に基づいて、上記撮像範囲が変更可能な撮像手段の該撮
像範囲を制御する制御手段とを備えることを特徴とす
る。
For such a purpose,
According to a first aspect of the present invention, a plurality of image pickup units including at least one image pickup unit capable of changing an image pickup range, a setting unit for setting a plurality of points of interest in an image picked up by the plurality of image pickup units, Detecting means for detecting changes at a plurality of points of interest set by the means; and control means for controlling the imaging range of the imaging means capable of changing the imaging range based on the detection result of the detecting means. It is characterized by the following.

【0006】第2の発明は、上記第1の発明において、
上記複数の撮像手段の全ては、撮像範囲が変更可能であ
り、上記制御手段は、上記検出手段の検出結果に基づい
て、上記複数の撮像手段の各撮像範囲を制御することを
特徴とする。
According to a second aspect, in the first aspect,
All of the plurality of imaging units can change the imaging range, and the control unit controls each imaging range of the plurality of imaging units based on a detection result of the detection unit.

【0007】第3の発明は、上記第1の発明において、
上記複数の撮像手段は、複数の注目点の全てを撮像可能
な固定の撮像範囲を有する撮像手段を含むことを特徴と
する。
[0007] A third invention is the above-mentioned first invention, wherein:
The plurality of imaging units include an imaging unit having a fixed imaging range capable of imaging all of the plurality of points of interest.

【0008】第4の発明は、上記第1の発明において、
上記制御手段から撮像範囲が制御された撮像手段で得ら
れた映像信号に対して拡大処理を行う信号処理手段を更
に備えることを特徴とする。
[0008] In a fourth aspect based on the first aspect,
The image processing apparatus further includes a signal processing unit that performs enlargement processing on a video signal obtained by the imaging unit whose imaging range is controlled by the control unit.

【0009】第5の発明は、上記第4の発明において、
上記信号処理手段は、上記映像信号の一部に対して拡大
処理を行うことを特徴とする。
A fifth aspect of the present invention is based on the fourth aspect,
The signal processing means performs enlargement processing on a part of the video signal.

【0010】第6の発明は、上記第1の発明において、
上記制御手段は、上記撮像範囲が変更可能な撮像手段を
制御するための所定のインターフェースを有することを
特徴とする。
In a sixth aspect based on the first aspect,
The control means has a predetermined interface for controlling the imaging means capable of changing the imaging range.

【0011】第7の発明は、上記第1の発明において、
上記検出手段は、上記複数の撮像手段により得られた映
像信号に所定の信号処理を行って上記画像中の動きを検
出することで、上記画像中に設定された複数の注目点で
の変化を自動的に検出することを特徴とする。
[0011] In a seventh aspect based on the first aspect,
The detecting means performs a predetermined signal processing on the video signal obtained by the plurality of imaging means to detect a movement in the image, thereby detecting a change at a plurality of points of interest set in the image. It is characterized by automatic detection.

【0012】第8の発明は、上記第7の発明において、
上記所定の信号処理は、少なくとも背景差分法又はフレ
ーム間差分法を用いた画像処理を含むことを特徴とす
る。
According to an eighth invention, in the above-mentioned seventh invention,
The predetermined signal processing includes at least image processing using a background difference method or an inter-frame difference method.

【0013】第9の発明は、上記第1の発明において、
上記制御手段は、撮像範囲を制御する撮像手段を、予め
定められた評価関数を用いて決定することを特徴とす
る。
According to a ninth aspect, in the first aspect,
The control means determines the imaging means for controlling the imaging range using a predetermined evaluation function.

【0014】第10の発明は、上記第1の発明におい
て、上記制御手段は、上記複数の注目点の位置情報に基
づいて、撮像範囲を制御する撮像手段の該撮像範囲を決
定することを特徴とする。
In a tenth aspect based on the first aspect, the control means determines the imaging range of the imaging means for controlling the imaging range based on the positional information of the plurality of points of interest. And

【0015】第11の発明は、撮像装置と、該撮像装置
での撮像動作を制御する制御装置と、該撮像装置で撮像
して得られた映像信号を画面表示する表示装置とが接続
されてなる撮像システムであって、上記撮像装置は、撮
像範囲が変更可能な少なくとも1つの撮像手段を有し、
上記制御装置は、上記撮像装置により撮像される画像中
に複数の注目点を設定する設定手段と、上記設定手段に
より設定された複数の注目点での変化を検出する検出手
段と、上記検出手段の検出結果に基づいて上記撮像範囲
が変更可能な撮像手段の該撮像範囲を制御する制御手段
とを有し、上記表示装置は、上記撮像装置で撮像して得
られた各映像信号を個々に画面表示することを特徴とす
る。
According to an eleventh aspect of the present invention, an imaging device, a control device for controlling an imaging operation of the imaging device, and a display device for displaying a video signal obtained by imaging with the imaging device on a screen are connected. An imaging system, wherein the imaging apparatus has at least one imaging unit capable of changing an imaging range,
The control device includes: a setting unit configured to set a plurality of points of interest in an image captured by the imaging device; a detection unit configured to detect a change in the plurality of points of interest set by the setting unit; Control means for controlling the imaging range of the imaging means capable of changing the imaging range based on the detection result, and the display device individually converts each video signal obtained by imaging with the imaging device. It is displayed on a screen.

【0016】第12の発明は、上記第11の発明におい
て、上記撮像装置が有する複数の撮像手段の全ては、撮
像範囲が変更可能であり、上記制御手段は、上記検出手
段の検出結果に基づいて、上記複数の撮像手段の各撮像
範囲を制御することを特徴とする。
In a twelfth aspect based on the eleventh aspect, all of the plurality of imaging means included in the imaging device can change an imaging range, and the control means is configured to perform a control based on a detection result of the detection means. And controlling each imaging range of the plurality of imaging means.

【0017】第13の発明は、上記第11の発明におい
て、上記撮像装置は、複数の注目点の全てを撮像可能な
固定の撮像範囲を有する撮像手段を含むことを特徴とす
る。
According to a thirteenth aspect, in the eleventh aspect, the imaging device includes imaging means having a fixed imaging range capable of imaging all of the plurality of points of interest.

【0018】第14の発明は、上記第11の発明におい
て、上記制御装置は、上記制御手段により撮像範囲を制
御した撮像手段で得られた映像信号に対して拡大処理を
行う信号処理手段を更に有することを特徴とする。
In a fourteenth aspect based on the eleventh aspect, the control device further comprises a signal processing means for performing enlargement processing on a video signal obtained by the imaging means whose imaging range is controlled by the control means. It is characterized by having.

【0019】第15の発明は、上記第14の発明におい
て、上記信号処理手段は、上記映像信号の一部に対して
拡大処理を行うことを特徴とする。
In a fifteenth aspect based on the fourteenth aspect, the signal processing means performs an enlargement process on a part of the video signal.

【0020】第16の発明は、上記第11の発明におい
て、上記制御手段は、上記撮像範囲が変更可能な撮像手
段を制御するための所定のインターフェースを有するこ
とを特徴とする。
In a sixteenth aspect based on the eleventh aspect, the control means has a predetermined interface for controlling the imaging means capable of changing the imaging range.

【0021】第17の発明は、上記第11の発明におい
て、上記検出手段は、上記撮像装置により得られた映像
信号に所定の信号処理を行って上記画像中の動きを検出
することで、上記画像中に設定された複数の注目点での
変化を自動的に検出することを特徴とする。
In a seventeenth aspect based on the eleventh aspect, the detecting means performs a predetermined signal processing on the video signal obtained by the image pickup device to detect a motion in the image. It is characterized in that changes at a plurality of points of interest set in an image are automatically detected.

【0022】第18の発明は、上記第17の発明におい
て、上記所定の信号処理は、少なくとも背景差分法又は
フレーム間差分法を用いた画像処理を含むことを特徴と
する。
In an eighteenth aspect based on the seventeenth aspect, the predetermined signal processing includes image processing using at least a background difference method or an inter-frame difference method.

【0023】第19の発明は、上記第11の発明におい
て、上記制御手段は、撮像範囲を制御する撮像手段を、
予め定められた評価関数を用いて決定することを特徴と
する。
In a nineteenth aspect based on the eleventh aspect, the control means includes an imaging means for controlling an imaging range.
The determination is made using a predetermined evaluation function.

【0024】第20の発明は、上記第11の発明におい
て、上記制御手段は、上記複数の注目点の位置情報に基
づいて、撮像範囲を制御する撮像手段の該撮像範囲を決
定することを特徴とする。
In a twentieth aspect based on the eleventh aspect, the control means determines the imaging range of the imaging means for controlling the imaging range based on the position information of the plurality of points of interest. And

【0025】第21の発明は、撮像範囲が変更可能な少
なくとも1つのカメラを含む複数のカメラにより任意の
画像を撮像するための撮像制御方法であって、上記画像
中に複数の注目点を設定する設定ステップと、上記設定
ステップにより設定された複数の注目点での変化を検出
する検出ステップと、上記検出ステップでの検出結果に
基づいて、上記撮像範囲が変更可能なカメラの該撮像範
囲を制御する制御ステップとを含むことを特徴とする。
A twenty-first invention is an imaging control method for imaging an arbitrary image with a plurality of cameras including at least one camera whose imaging range can be changed, wherein a plurality of points of interest are set in the image. Setting step, a detecting step of detecting changes at a plurality of points of interest set in the setting step, and, based on a detection result in the detecting step, changing an imaging range of the camera in which the imaging range can be changed. And a control step of controlling.

【0026】第22の発明は、上記第21の発明におい
て、上記複数のカメラの全ては、撮像範囲が変更可能で
あり、上記制御ステップは、上記検出ステップでの検出
結果に基づいて、上記複数のカメラの各撮像範囲を制御
することを特徴とする。
In a twenty-second aspect based on the twenty-first aspect, all of the plurality of cameras are capable of changing an imaging range, and the control step is performed based on a detection result in the detection step. Of each camera is controlled.

【0027】第23の発明は、上記第21の発明におい
て、上記複数のカメラは、複数の注目点の全てを撮像可
能な固定の撮像範囲を有するカメラを含むことを特徴と
する。
In a twenty-third aspect based on the twenty-first aspect, the plurality of cameras include a camera having a fixed imaging range capable of imaging all of a plurality of points of interest.

【0028】第24の発明は、上記第21の発明におい
て、上記制御ステップにより撮像範囲が制御されたカメ
ラで得られた映像信号に対して拡大処理を行う信号処理
ステップを更に含むことを特徴とする。
According to a twenty-fourth aspect, in the twenty-first aspect, the method further comprises a signal processing step of performing an enlarging process on a video signal obtained by a camera whose imaging range is controlled by the control step. I do.

【0029】第25の発明は、上記第24の発明におい
て、上記信号処理ステップは、上記映像信号の一部に対
して拡大処理を行うステップを含むことを特徴とする。
In a twenty-fifth aspect based on the twenty-fourth aspect, the signal processing step includes a step of performing an enlarging process on a part of the video signal.

【0030】第26の発明は、上記第21の発明におい
て、上記制御ステップは、上記撮像範囲が変更可能なカ
メラを制御するための所定のインターフェースを用い
て、該撮像範囲を制御するステップを含むことを特徴と
する。
In a twenty-sixth aspect based on the twenty-first aspect, the control step includes a step of controlling the imaging range using a predetermined interface for controlling a camera capable of changing the imaging range. It is characterized by the following.

【0031】第27の発明は、上記第21の発明におい
て、上記検出ステップは、上記複数のカメラにより得ら
れた映像信号に所定の信号処理を行って上記画像中の動
きを検出することにより、上記画像中に設定された複数
の注目点での変化を自動的に検出するステップを含むこ
とを特徴とする。
In a twenty-seventh aspect based on the twenty-first aspect, the detecting step performs predetermined signal processing on video signals obtained by the plurality of cameras to detect a motion in the image. A step of automatically detecting changes at a plurality of points of interest set in the image.

【0032】第28の発明は、上記第27の発明におい
て、上記所定の信号処理は、少なくとも背景差分法又は
フレーム間差分法を用いた画像処理を含むことを特徴と
する。
In a twenty-eighth aspect based on the twenty-seventh aspect, the predetermined signal processing includes image processing using at least a background difference method or an inter-frame difference method.

【0033】第29の発明は、上記第21の発明におい
て、上記制御ステップは、撮像範囲を制御するカメラ
を、予め定められた評価関数を用いて決定するステップ
を含むことを特徴とする。
In a twenty-ninth aspect based on the twenty-first aspect, the control step includes a step of determining a camera for controlling an imaging range by using a predetermined evaluation function.

【0034】第30の発明は、上記第21の発明におい
て、上記制御ステップは、上記複数の注目点の位置情報
に基づいて、撮像範囲を制御するカメラの該撮像範囲を
決定するステップを含むことを特徴とする。
In a thirtieth aspect based on the twenty-first aspect, the control step includes a step of determining the imaging range of a camera for controlling the imaging range based on the position information of the plurality of points of interest. It is characterized by.

【0035】第31の発明は、請求項21〜30の何れ
かに記載の撮像制御方法の処理ステップをコンピュータ
が読出可能に格納した記憶媒体であることを特徴とす
る。
A thirty-first aspect of the present invention is a storage medium in which the processing steps of the imaging control method according to any one of claims 21 to 30 are readable by a computer.

【0036】[0036]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0037】(第1の実施の形態)本発明は、例えば、
図1に示すような、監視システム100に適用される。
(First Embodiment) The present invention provides, for example,
It is applied to a monitoring system 100 as shown in FIG.

【0038】この監視システム100は、上記図1に示
すように、撮影時の光学的パラメータ及び幾何的パラメ
ータを外部参照及び外部制御可能なカメラを複数台(こ
こでは、カメラ110及び120の2台とする)と、そ
れらのカメラ制御装置130とを設けた構成としてい
る。ここでは、説明の簡単のために、光学的パラメータ
として”ズーム値”を用い、幾何的パラメータとして撮
影方向を表す”パン値”及び”チルト値”を用いるもの
とする。そして、監視システム100では、一方のカメ
ラがある領域を撮影(以下、この動作を「監視」とも言
う)しているときには、他方のカメラは監視範囲が重複
しないように他の領域を監視するように制御を行なう。
以下、監視システム100のハードウェア構成、原理、
及び処理手順について具体的に説明する。
As shown in FIG. 1, the monitoring system 100 includes a plurality of cameras (here, two cameras 110 and 120) capable of externally referencing and externally controlling the optical parameters and geometric parameters at the time of photographing. And the camera control device 130 are provided. Here, for the sake of simplicity, it is assumed that “zoom value” is used as an optical parameter, and “pan value” and “tilt value” representing a shooting direction are used as geometric parameters. Then, in the monitoring system 100, when one of the cameras is capturing an area (hereinafter, this operation is also referred to as “monitoring”), the other camera monitors the other area so that the monitoring ranges do not overlap. Control.
Hereinafter, the hardware configuration and principle of the monitoring system 100,
And the processing procedure will be specifically described.

【0039】尚、光学的パラメータ及び幾何的パラメー
タについては、上記の”ズーム値”、”パン値”、及
び”チルト値”に限らず、他のカメラパラメータを使用
する、或いは、組み合わせて使用するようにしてもよ
い。また、ここでは、使用するカメラを2台とし、カメ
ラ制御装置を1台としたが、これに限らず、さらに多数
のカメラを使用するようにしてもよい。
Incidentally, the optical parameters and the geometric parameters are not limited to the above-mentioned "zoom value", "pan value" and "tilt value", and other camera parameters are used or used in combination. You may do so. Further, here, two cameras are used and one camera control device is used. However, the present invention is not limited to this, and a larger number of cameras may be used.

【0040】1.ハードウェア構成(上記図1参照) 監視システム100は、上述したように、2台のカメラ
110及び120と、カメラ制御装置130とを備えて
いる。そして、カメラ制御装置130には、ポインティ
ングデバイス150と、キーボード140と、モニタ1
60及び170とが接続されている。
1. Hardware Configuration (see FIG. 1 above) The monitoring system 100 includes the two cameras 110 and 120 and the camera control device 130 as described above. The camera control device 130 has a pointing device 150, a keyboard 140, and a monitor 1
60 and 170 are connected.

【0041】カメラ110とカメラ120は、各々が同
様の構成としている。カメラ110は、撮像系により被
写体を撮影して撮影画像(映像信号)を出力するカメラ
部111と、カメラ部111の光学的パラメータ(”ズ
ーム値”)を制御する光学的パラメータ制御部112
と、カメラ部111の幾何的パラメータ(”パン値”及
び”チルト値”)を制御する幾何的パラメータ制御部1
13とを備えている。また、カメラ120も同様に、カ
メラ部121と、光学的パラメータ制御部122と、幾
何的パラメータ制御部123とを備えている。
Each of the cameras 110 and 120 has the same configuration. The camera 110 includes a camera unit 111 that captures a subject by an imaging system and outputs a captured image (video signal), and an optical parameter control unit 112 that controls optical parameters (“zoom value”) of the camera unit 111.
And a geometric parameter control unit 1 for controlling geometric parameters (“pan value” and “tilt value”) of the camera unit 111
13 is provided. Similarly, the camera 120 includes a camera unit 121, an optical parameter control unit 122, and a geometric parameter control unit 123.

【0042】カメラ部111は、光学的パラメータ制御
部112及び幾何的パラメータ制御部113による制御
に従って撮影して得た映像信号(NTSC方式やYC分
離方式等に従ったビデオ信号)を、直接外部のモニタ1
60に対して出力する。カメラ部121も同様にして、
光学的パラメータ制御部122及び幾何的パラメータ制
御部123による制御に従って撮影して得た映像信号
を、直接外部のモニタ170に対して出力する。
The camera unit 111 directly converts a video signal (a video signal according to the NTSC system or the YC separation system) obtained by shooting under the control of the optical parameter control unit 112 and the geometric parameter control unit 113 into an external device. Monitor 1
Output to 60. Similarly, the camera unit 121
A video signal obtained by shooting under the control of the optical parameter control unit 122 and the geometric parameter control unit 123 is directly output to the external monitor 170.

【0043】光学的パラメータ制御部112、122、
及び幾何的パラメータ制御部113、123の各部は、
制御信号線を介して、カメラ制御装置130と接続され
ている。この制御信号線を介した制御信号の通信が、各
部とカメラ制御装置130との間で行われることで、カ
メラ制御装置130から、各部への光学的パラメータ及
び幾何的パラメータの設定、取得、及び最適化等の制御
が可能となる。尚、上記の制御信号線としては、例え
ば、RS−232CやパラレルIO等を用いることが可
能であり、通信方式の規格は限定されない。
Optical parameter control units 112, 122,
And each unit of the geometric parameter control units 113 and 123,
It is connected to the camera control device 130 via a control signal line. The communication of the control signal via the control signal line is performed between each unit and the camera control device 130, so that the camera control device 130 sets, acquires, and sets optical parameters and geometric parameters to each unit. Control such as optimization becomes possible. Note that, as the control signal line, for example, RS-232C, parallel IO, or the like can be used, and the standard of the communication method is not limited.

【0044】光学的パラメータ制御部112、122
は、カメラ部111、121における撮影画像全体に対
して、光学的パラメータを自動制御する機能をも有す
る。この機能としては、自動的に合点画像を得る機能
や、自動的に画像の明度バランスを調整する機能等があ
る。このような機能は、例えば、家庭用のビデオカメラ
に内蔵されているカメラモジュールを用いることで容易
に実現できる。ここで、光学的パラメータの調整(制
御)を、カメラ制御装置130から行なうか、若しく
は、光学的パラメータ制御部112、122が有する上
記の自動制御機能に任せるかは、制御信号線を介してカ
メラ制御装置130から指示できるようになされてい
る。
Optical parameter control units 112 and 122
Also has a function of automatically controlling optical parameters for the entire captured images in the camera units 111 and 121. This function includes a function of automatically obtaining a point image and a function of automatically adjusting the brightness balance of an image. Such a function can be easily realized by using, for example, a camera module built in a home video camera. Here, whether the adjustment (control) of the optical parameter is performed from the camera control device 130 or the automatic control function of the optical parameter control units 112 and 122 is determined by the camera via the control signal line The instruction can be given from the control device 130.

【0045】また、光学的パラメータ制御部112、1
22は、カメラ部111、121のズームの制御及び参
照を行なう機能を有する。この機能により、例えば、カ
メラ制御装置130から指示されたズーム値をカメラ1
11、121に設定したり、また、現在のズーム値の情
報をカメラ制御装置130に提供したりすることが可能
となる。
The optical parameter control units 112, 1
Reference numeral 22 has a function of controlling and referencing the zoom of the camera units 111 and 121. With this function, for example, the zoom value specified by the camera
11 or 121, and information on the current zoom value can be provided to the camera control device 130.

【0046】幾何的パラメータ制御部113、123
も、カメラ部111、121の撮影方向の制御及び参照
を行なう機能を有する。この機能により、例えば、カメ
ラ制御装置130から指示された方向ヘ、カメラ11
1、121の撮影方向を変えたり、また、現在どの方向
が撮影方向となっているかという情報をカメラ制御装置
130に提供したりすることが可能となる。
Geometric parameter control units 113 and 123
Also has a function of controlling and referencing the shooting direction of the camera units 111 and 121. With this function, for example, the camera 11
It is possible to change the shooting direction of the camera 1 and 121, and to provide the camera control device 130 with information on which direction is currently the shooting direction.

【0047】一方、カメラ制御装置130は、汎用のコ
ンピュータにより実現され、システム全体の動作制御を
行うためのCPU131、CPU131の作業領域を含
むRAM132、各種動作制御のための処理プログラム
や各種データ等が記憶されるROM133、二次記憶部
134、カメラ110及び120と通信を行うための入
出力(I/O)回路135、及びネットワークを介した
外部との通信を行うための通信インターフェース(I/
F)回路136を備えている。そして、これらの各回路
は、バス137により接続されており、互いにデータ授
受するようになされている。また、バス137には、キ
ーボード140、マウス等のポインティングデバイス1
50、及びモニタ(映像モニタ)160、170をも接
続されている。
On the other hand, the camera control device 130 is realized by a general-purpose computer, and stores a CPU 131 for controlling the operation of the entire system, a RAM 132 including a work area of the CPU 131, a processing program and various data for various operation controls. An input / output (I / O) circuit 135 for communicating with the ROM 133, the secondary storage unit 134, the cameras 110 and 120 to be stored, and a communication interface (I / O) for communicating with the outside via a network.
F) A circuit 136 is provided. These circuits are connected by a bus 137 so as to exchange data with each other. The bus 137 has a pointing device 1 such as a keyboard 140 and a mouse.
50 and monitors (video monitors) 160 and 170 are also connected.

【0048】このようなカメラ制御装置130におい
て、例えば、外部(遠隔地)からの制御命令は、ネット
ワーク180を介して通信I/F回路136で受信され
る。この制御命令に従った制御信号は、I/O回路13
5により制御信号線を介して、カメラ110の光学的パ
ラメータ制御部112及び幾何的パラメータ制御部11
3や、カメラ120の光学的パラメータ制御部122及
び幾何的パラメータ制御部123に与えられる。したが
って、カメラ110、120の光学的パラメータ及び幾
何的パラメータは、このようにして与えられた制御信号
により制御される。また、キーボード140やポインテ
ィングデバイス150により入力された制御命令につい
ても同様に、その制御命令に従った制御信号が、カメラ
110の光学的パラメータ制御部112及び幾何的パラ
メータ制御部113や、カメラ120の光学的パラメー
タ制御部122及び幾何的パラメータ制御部123に与
えられ、カメラ110、120の光学的パラメータ及び
幾何的パラメータが制御される。
In such a camera control device 130, for example, a control command from the outside (remote location) is received by the communication I / F circuit 136 via the network 180. A control signal according to this control command is transmitted to the I / O circuit 13
5 through the control signal line, the optical parameter control unit 112 and the geometric parameter control unit 11 of the camera 110.
3 and the optical parameter control unit 122 and the geometric parameter control unit 123 of the camera 120. Thus, the optical and geometric parameters of the cameras 110, 120 are controlled by the control signals thus provided. Similarly, for a control command input from the keyboard 140 or the pointing device 150, a control signal according to the control command is transmitted to the optical parameter control unit 112 and the geometric parameter control unit 113 of the camera 110 and the camera 120. The optical parameters and the geometric parameters of the cameras 110 and 120 are provided to the optical parameter control unit 122 and the geometric parameter control unit 123.

【0049】2.基本原理 以下、図2〜図7を用いて、本実施の形態の基本原理に
ついて説明する。
2. Basic Principle Hereinafter, the basic principle of the present embodiment will be described with reference to FIGS.

【0050】上記図2は、2台のカメラ110及び12
0で監視領域を撮像している様子を示したものである。
図中”203”は、監視している撮像領域を示し、”A
1 ,A2 ,A3 ,・・・”は、撮像領域203中に点在
する注目点、すなわち監視ポイント(以下、「注目領
域」とも言う)を示している。
FIG. 2 shows two cameras 110 and 12
0 indicates that the monitoring area is being imaged.
In the figure, “203” indicates an imaging area being monitored, and “A”
, 1 , A 2 , A 3 ,... ”Indicate points of interest scattered in the imaging region 203, that is, monitoring points (hereinafter, also referred to as“ region of interest ”).

【0051】上記図3は、上記図2に示した撮像領域2
03に対して、カメラ110及び120の撮影方向(パ
ン方向及びチルト方向)に対応する座標系を示したもの
である。図中のp軸はパン方向の変位(パン値)を表
し、t軸はチルト方向の変位(チルト値)を表す。例え
ば、−60°≦p≦60°、−45°≦t≦45°のよ
うな値をとるが、これは、使用するカメラ110及び1
20の制御可能範囲を表しており、カメラが有する性能
に依存する。
FIG. 3 shows the image pickup area 2 shown in FIG.
3 shows a coordinate system corresponding to the shooting directions (pan direction and tilt direction) of the cameras 110 and 120. The p-axis in the figure represents displacement in the pan direction (pan value), and the t-axis represents displacement in the tilt direction (tilt value). For example, a value such as −60 ° ≦ p ≦ 60 ° and −45 ° ≦ t ≦ 45 ° is taken, which is based on the cameras 110 and 1 to be used.
It represents 20 controllable ranges and depends on the performance of the camera.

【0052】上記図4は、カメラ110及び120のと
りうるズーム値zと、そのズーム値zに対応する撮影可
能な画角を水平画角dp及び垂直画角dtで示した対応
表である。これは、カメラ110及び120に具備され
ている撮像系の性能に依存するが、例えば、カメラ11
0でのズーム値zが”2.0”である場合、上記図4の
対応表により、水平画角dpを”82°”、垂直画角d
tを”53°”とする範囲が撮影可能である、というよ
うに参照する。
FIG. 4 is a correspondence table showing the possible zoom values z of the cameras 110 and 120 and the viewable angles of view corresponding to the zoom values z by the horizontal view angle dp and the vertical view angle dt. This depends on the performance of the imaging system provided in the cameras 110 and 120.
When the zoom value z at 0 is “2.0”, the horizontal angle of view dp is set to “82 °” and the vertical angle of view d
Reference is made such that a range where t is “53 °” can be photographed.

【0053】尚、ここでは、各々が同様の構成であるカ
メラ110とカメラ120を使用するため、上記図4の
1種類の対応表を用意すればよいが、性能の異なるカメ
ラを使用する場合には、その種類の数だけこの対応表を
準備するようにする。また、対応表中の各値が連続的な
値をとることを考えると、上記図4の対応表は、最小値
を求める関数”min(・・・)”を持って、次の関数
で置き換えることも可能である。 z = PTtoZ(dp,dt) = min(tan(120 °/2)/tan(dp/2),tan(90°/2)/tan(dt/2)) dp = ZtoP(z) = 2 ・tan -1(tan(120°/2)/z) dt = ZtoT(z) = 2 ・tan -1(tan(90 °/2)/z)
In this case, since the cameras 110 and 120 each having the same configuration are used, one type of correspondence table shown in FIG. 4 may be prepared, but when cameras having different performances are used. Prepares this correspondence table by the number of the types. Considering that each value in the correspondence table takes a continuous value, the correspondence table in FIG. 4 has a function "min (...)" for finding the minimum value and is replaced by the following function. It is also possible. z = PTtoZ (dp, dt) = min (tan (120 ° / 2) / tan (dp / 2), tan (90 ° / 2) / tan (dt / 2)) dp = ZtoP (z) = 2 tan -1 (tan (120 ° / 2) / z) dt = ZtoT (z) = 2tan- 1 (tan (90 ° / 2) / z)

【0054】上記図5は、上記図2に示したような、監
視している撮像領域203中に点在する監視ポイントA
1 ,A2 ,A3 ,・・・(図中ではNo.1,2,3,
・・・)の位置及び範囲の属性(パラメータ)が設定
(保持)された表を示したものである。例えば、NO.
1に示す監視ポイントA1 は、上記図3の座標系におけ
るp=52°、t=20°、また、ズーム値z=8.5
の位置及び範囲に存在することを示している。このよう
な各パラメータは、カメラ110及びカメラ120の各
々の撮影位置に依存するため、ここでは、上記図5の表
を2種類用意する。
FIG. 5 shows the monitoring points A scattered in the monitored imaging area 203 as shown in FIG.
1 , A 2 , A 3 ,... (Nos. 1, 2, 3,
..) Shows a table in which attributes (parameters) of positions and ranges are set (held). For example, NO.
The monitoring point A 1 shown in FIG. 1 has p = 52 ° and t = 20 ° in the coordinate system of FIG. 3 and a zoom value z = 8.5.
At the position and range. Since each of these parameters depends on the shooting position of each of the camera 110 and the camera 120, here, two types of tables shown in FIG. 5 are prepared.

【0055】上記図6は、ここで使用する2台のカメラ
110及び120が、実際に撮像領域203中におい
て、どのような領域を監視(撮影)しているかを示した
ものである。ここで、カメラ110に具備されている光
学的パラメータ制御部112及び幾何的パラメータ制御
部113、カメラ120に具備されている光学的パラメ
ータ制御部122及び幾何的パラメータ制御部123の
各部は各々、カメラ制御装置130が出力する制御信号
により、光学的パラメータ(ズーム値)及び幾何的パラ
メータ(パン値、チルト値、以下、これらを「撮影方
向」とも言う)が制御される。このとき、カメラ制御装
置130から出力される制御信号は、2台のカメラ10
0とカメラ120で、全ての注目領域を撮影し、且つ、
なるべく他のカメラと同じ領域を撮影せず、且つ、自分
の受け持ちの監視ポイント群を最大限にズームアップし
て表示するための”ズーム値”、”パン値”、及び”チ
ルト値”のパラメータを含む信号である。したがって、
上記図6では、監視ポイントA1 ,A2 ,A3 ,・・
・,A8 が点在する撮像領域203全体に対して、カメ
ラ110の撮影領域208に監視ポイントA1 〜A4
含まれ、カメラ120の撮影領域209に監視ポイント
5〜A8 が含まれている。
FIG. 6 shows what areas of the two cameras 110 and 120 used here are actually monitoring (photographing) in the image pickup area 203. Here, the optical parameter control unit 112 and the geometric parameter control unit 113 included in the camera 110, and the optical parameter control unit 122 and the geometric parameter control unit 123 included in the camera 120 are each a camera unit. An optical parameter (zoom value) and a geometric parameter (pan value, tilt value, hereinafter, these are also referred to as “photographing directions”) are controlled by a control signal output from the control device 130. At this time, the control signal output from the camera control device 130 is
0 and the camera 120 shoots all the attention areas, and
"Zoom value", "Pan value", and "Tilt value" parameters for maximizing and displaying the monitoring point group assigned to the user without capturing the same area as other cameras as much as possible. . Therefore,
In FIG. 6, the monitoring points A 1 , A 2 , A 3 ,.
.. With respect to the entire imaging area 203 where A 8 is scattered, the monitoring area A 1 to A 4 is included in the imaging area 208 of the camera 110, and the monitoring points A 5 to A 8 are included in the imaging area 209 of the camera 120. Have been.

【0056】そこで、カメラ110及びカメラ120が
各々どのような制御を受けるかを、より具体的に説明す
る。
Therefore, how each of the cameras 110 and 120 is controlled will be described more specifically.

【0057】まず、カメラ制御装置130に対して、受
け持ちの監視ポイントA1 ,A2 ,・・・,An が与え
られると、カメラ制御装置130にて、これらの監視ポ
イント群の中心座標から撮影方向(pc ,tc )が、次
の式(1)により算出される。 p c = (max(p(A1),p(A2), ・・・,p(An ))+ min(p(A1),p(A2), ・・・,p(An )))/2 t c = (max(t(A1),t(A2), ・・・,t(An ))+ min(t(A1),t(A2), ・・・,t(An )))/2 ・・・(1) 上記式(1)にて、”max(・・・)”及び”min
(・・・)”は、最大値及び最小値を求める関数であ
る。また、”p(・・・)”及び”t(・・・)”は、
監視ポイントの位置に関するパラメータであり、上記図
5に示した表を参照することにより得られる。
First, when the assigned monitoring points A 1 , A 2 ,..., An are given to the camera control device 130, the camera control device 130 calculates the coordinates of the monitoring points from the center coordinates of these monitoring point groups. The shooting direction (p c , t c ) is calculated by the following equation (1). p c = (max (p (A 1 ), p (A 2 ), ..., p (A n )) + min (p (A 1 ), p (A 2 ), ..., p (A n )))) / 2 t c = (max (t (A 1 ), t (A 2 ), ..., t (A n )) + min (t (A 1 ), t (A 2 ), ··, t (A n ))) / 2 (1) In the above equation (1), “max (...)” and “min”
(...) "is a function for calculating the maximum value and the minimum value." P (...) "and" t (...) "
These are parameters relating to the position of the monitoring point, and can be obtained by referring to the table shown in FIG.

【0058】また、ズーム値zについては、次の式
(2)により算出される。 z = PTtoZ( 2・max( max(p(A1),p(A2), ・・・,p(An ))+ ZtoP(z(argmax(p(A1),p(A2), ・・・,p(An ))))/2-p c, p c-min(p(A1),p(A2), ・・・,p(An ))- ZtoP(z(argmin(p(A1),p(A2), ・・・,p(An ))))/2 ), 2・max( max(t(A1),t(A2), ・・・,t(An ))+ ZtoT(z(argmax(t(A1),t(A2), ・・・,t(An ))))/2-t c, t c-min(t(A1),t(A2), ・・・,t(An ))- ZtoT(z(argmin(t(A1),t(A2), ・・・,t(An ))))/2 ) ) ・・・(2) 上記式(2)にて、”argmax(・・・)”及び”
argmin(・・・)”は、最大値及び最小値を与え
る”Ai ”を返す関数であり、”PTtoZ(・・
・)”、”ZtoP(・・・)”、及び”ZtoT(・
・・)”は、上記図4に示した対応表と等価な関数であ
る。
The zoom value z is calculated by the following equation (2). z = PTtoZ (2 · max ( max (p (A 1), p (A 2), ···, p (A n)) + ZtoP (z (argmax (p (A 1), p (A 2) , ・ ・ ・, P (A n )))) / 2-p c , p c -min (p (A 1 ), p (A 2 ), ・ ・ ・, p (A n ))-ZtoP (z (argmin (p (A 1 ), p (A 2 ), ・ ・ ・, p (A n ))))) / 2), 2 ・ max (max (t (A 1 ), t (A 2 ), ・)・ ・, T (A n )) + ZtoT (z (argmax (t (A 1 ), t (A 2 ), ・ ・ ・, t (A n )))) / 2-t c , t c -min (t (A 1 ), t (A 2 ), ..., t (A n ))-ZtoT (z (argmin (t (A 1 ), t (A 2 ), ..., t (A n )))) / 2)) (2) In the above equation (2), “argmax (...)” and “
argmin (...) "is a function that returns" A i "giving the maximum value and the minimum value, and" PTtoZ (...
•) ”,“ ZtoP (...) ”, and“ ZtoT (•
..) "is a function equivalent to the correspondence table shown in FIG.

【0059】上述の式(1)及び(2)により、カメラ
制御装置130にて算出されたパラメータ(pc
c ,z)は、カメラ110、120に具備されている
光学的パラメータ制御部112、122、及び幾何的パ
ラメータ制御部113、123に対して送信される。こ
のようにして、カメラ110、120に対して適切な撮
影方向及びズーム値が指示されることになる。すなわ
ち、上記図6に示したカメラ110の撮影領域208、
及びカメラ120の撮影領域209は、カメラ制御装置
130が、監視ポイントA1 〜A4 についての上記式
(1)及び(2)、及び監視ポイントA5 〜A8 につい
ての上記式(1)及び(2)を実行して得た各パラメー
タ(pc ,tc ,z)を、カメラ110及びカメラ12
0に対して各々送信することで実現される。
According to the above equations (1) and (2), the parameters (p c ,
t c , z) are transmitted to the optical parameter control units 112 and 122 and the geometric parameter control units 113 and 123 provided in the cameras 110 and 120. In this way, appropriate shooting directions and zoom values are instructed to the cameras 110 and 120. That is, the photographing area 208 of the camera 110 shown in FIG.
The camera control device 130 determines the shooting area 209 of the camera 120 by using the above equations (1) and (2) for the monitoring points A 1 to A 4 and the above equations (1) and (2) for the monitoring points A 5 to A 8. The parameters (p c , t c , z) obtained by executing (2) are transferred to the camera 110 and the camera 12
This is realized by transmitting each of them to 0.

【0060】上記図7は、上記図6に対して、ある別の
時点(監視ポイントA1 及びA2 で異常が発生した時
等)における監視の状態の例を示したものである。図中
の”208’”は、このときのカメラ110の撮影領域
を示しており、”209’”は、このときのカメラ12
0の撮影領域を示している。上記図7に示すように、カ
メラ110が監視ポイントA1 及びA2 の詳細な状況を
調べるためにズームアップしているときには、他方のカ
メラ120は、残りの監視ポイントA3 〜A8 を全て含
むように撮影方向及びズームを変更している。
FIG. 7 shows an example of the monitoring state at a different time point (such as when an abnormality occurs at the monitoring points A 1 and A 2 ) with respect to FIG. “208 ′” in the figure indicates the shooting area of the camera 110 at this time, and “209 ′” indicates the camera 12 at this time.
0 shows a shooting area. As shown in FIG. 7, when the camera 110 is zoomed in to examine the detailed status of the monitoring points A 1 and A 2 are other camera 120, all the rest of the monitoring points A 3 to A 8 The shooting direction and zoom have been changed to include.

【0061】このような動作制御を実現するために、例
えば、カメラ制御装置130は常に、現在のカメラ11
0、120のズーム状態及び撮影方向を、I/O回路1
35を介して取り込み、これを参照する。そして、異常
が発生した場合等、そのときの状況に応じて、カメラ制
御装置130は、上述したようにして光学的パラメータ
及び幾何的パラメータを算出し、これを制御信号として
カメラ110、120に与える。これにより、カメラ1
10、120の光学的パラメータ及び幾何的パラメータ
が変更制御されることになる。すなわち、上記図7に示
したカメラ110の撮影領域208’、及びカメラ12
0の撮影領域209’は、カメラ制御装置130が、監
視ポイントA1 及びA 2 についての上記式(1)及び
(2)、及び監視ポイントA3 〜A8 についての上記式
(1)及び(2)を実行して得た各パラメータ(pc
c ,z)を、カメラ110及びカメラ120に対して
各々送信することで実現される。このようにして、カメ
ラ制御装置130がカメラ110、120での光学的パ
ラメータ及び幾何的パラメータを常に参照及び制御する
ことで、上記図7に示すような動作制御が実現される。
To realize such operation control, an example
For example, the camera control device 130 always keeps the current camera 11
I / O circuit 1
35, which is referred to. And abnormal
Camera control according to the situation at the time, such as when
The control device 130 has the optical parameters as described above.
And the geometric parameters are calculated and used as control signals.
Provided to cameras 110 and 120. Thereby, the camera 1
Optical and geometric parameters of 10, 120
Is controlled to be changed. That is, as shown in FIG.
Shooting area 208 'of the camera 110 and the camera 12
The camera control device 130 monitors the shooting area 209 ′ of 0.
Viewing point A1And A TwoEquation (1) above and
(2) and monitoring point AThree~ A8The above formula for
Each parameter (p obtained by executing (1) and (2)c,
tc, Z) to camera 110 and camera 120
It is realized by transmitting each. In this way, the turtle
The camera controller 130 controls the optical
Always reference and control parameters and geometric parameters
Thus, the operation control as shown in FIG. 7 is realized.

【0062】上述のように、監視システム100は、あ
る時点における複数台のカメラの光学的パラメータ及び
幾何的パラメータを、外部参照及び外部制御し、カメラ
110とカメラ120の何れかで異常が発生した場合に
は、その異常発生領域を監視(撮影)しているカメラに
対して、該異常発生領域の詳細を撮影するための光学的
パラメータ及び幾何的パラメータを与え、他のカメラに
対しては、撮像領域全体中に撮影されない領域が存在し
ないような光学的パラメータ及び幾何的パラメータを与
えることで、カメラ110及び120の撮影方向及びズ
ームを変更する。これにより、使用するカメラ台数を増
やすことなく、異常発生領域を詳細に観測することがで
きると共に、他の領域をも確実に観測することができ、
したがって、効率のよい監視システムを構築可能であ
る。
As described above, the monitoring system 100 externally references and externally controls the optical parameters and geometric parameters of a plurality of cameras at a certain point in time, and an abnormality occurs in either the camera 110 or the camera 120. In such a case, an optical parameter and a geometric parameter for photographing details of the abnormality occurrence area are given to a camera monitoring (photographing) the abnormality occurrence area. The optical direction and the zoom of the cameras 110 and 120 are changed by giving an optical parameter and a geometrical parameter such that there is no unphotographed area in the entire imaging area. Thereby, without increasing the number of cameras to be used, it is possible to observe the abnormality occurrence area in detail and also to reliably observe other areas,
Therefore, an efficient monitoring system can be constructed.

【0063】3.基本処理 以下、図8を用いて、本実施の形態での基本処理の流れ
について説明する。尚、カメラ制御装置130におい
て、例えば、ROM133には、上記図8に示すフロー
チャートに従った処理プログラムが予め格納されてお
り、この処理プログラムがCPU131により読み出さ
れ実行されることで、次に説明する動作が実施される。
3. Basic Processing Hereinafter, the flow of the basic processing in the present embodiment will be described with reference to FIG. In the camera control device 130, for example, a processing program according to the flowchart shown in FIG. 8 is stored in advance in the ROM 133, and this processing program is read out and executed by the CPU 131. Is performed.

【0064】本処理プログラムが実行されると、先ず、
カメラ制御装置130にて、初期設定として撮像領域中
の監視したいポイント(監視ポイント)が設定される
(ステップS301)。この設定方法としては、自動設
定、手動設定、予め設定しておく等、様々な方法が考え
られるが特に限定しない。設定された監視ポイントは、
CPU131により処理されて、その位置及び範囲的な
情報が上記図5に示したような表として、RAM132
等に保持される。
When this processing program is executed, first,
The camera control device 130 sets a point (monitoring point) to be monitored in the imaging area as an initial setting (step S301). As the setting method, various methods such as automatic setting, manual setting, and presetting can be considered, but are not particularly limited. The set monitoring points are
The position and range information processed by the CPU 131 is stored in the RAM 132 as a table as shown in FIG.
And so on.

【0065】次に、CPU131は、初期設定として、
カメラ110とカメラ120が監視(撮影)する領域を
各々決定する(ステップS302)。このとき、CPU
131は、カメラ110とカメラ120に対して、上述
したようにして、カメラ110とカメラ120がなるべ
く同じ領域を撮影しないような、且つ、全ての注目領域
を撮影するような、パラメータ(pc ,tc ,z)を各
々算出する。これらのパラメータが、カメラ110の光
学的パラメータ制御部112及び幾何的パラメータ制御
部113、カメラ120の光学的パラメータ制御部12
2及び幾何的パラメータ制御部123の各部に与えら
れ、これにより、カメラ110とカメラ120における
撮影方向及びズームが制御されることになる。尚、ここ
での具体的なカメラ110、120の制御方法(パラメ
ータ(pc ,tc ,z)の算出方法等)については、上
述した通りであるため、その詳細な説明は省略する。ま
た、後述するステップS305〜S308においても同
様に、カメラ110、120がカメラ制御装置130か
ら制御されるが、この制御方法についての詳細も上述し
た通りであるため、ここでは省略する。
Next, the CPU 131 performs initial settings as follows:
The areas to be monitored (photographed) by the camera 110 and the camera 120 are determined (step S302). At this time, CPU
131, the camera 110 and the camera 120, as described above, the camera 110 and the camera 120 as little as possible photographing the same area, and, so as to shoot all the region of interest, the parameters (p c, t c , z) are calculated respectively. These parameters are stored in the optical parameter control unit 112 and the geometric parameter control unit 113 of the camera 110, and the optical parameter control unit 12 of the camera 120.
2 and the respective components of the geometric parameter control unit 123, whereby the shooting direction and zoom of the camera 110 and the camera 120 are controlled. The specific control method of the cameras 110 and 120 (calculation method of the parameters (p c , t c , z) and the like) is as described above, and thus the detailed description is omitted. Similarly, in steps S305 to S308 described below, the cameras 110 and 120 are controlled by the camera control device 130. However, the details of this control method are as described above, and a description thereof will be omitted.

【0066】この後実際に、カメラ110とカメラ12
0による監視が開始される。カメラ110とカメラ12
0で得られた映像信号は、カメラ制御装置130に接続
されているモニタ160とモニタ170に供給され、こ
こで画面表示される。ユーザは、これらのモニタ16
0、170の表示画面を観察する。そして、ステップS
303及びS310による繰り返しループ処理(異常検
出ループ処理)により、異常が発見されるまで、又は、
ポインティングデバイス150やキーボード140によ
りユーザから本処理終了を示すコマンドが入力されるま
で、この状態のまま観察が行われる。
Thereafter, the camera 110 and the camera 12 are actually
Monitoring with 0 is started. Camera 110 and camera 12
The video signal obtained at 0 is supplied to the monitors 160 and 170 connected to the camera control device 130, and displayed on the screen. The user can use these monitors 16
Observe the display screens 0 and 170. And step S
Until an abnormality is found by the repetition loop processing (abnormality detection loop processing) in steps 303 and S310, or
The observation is performed in this state until a command indicating the end of the present process is input from the user via the pointing device 150 or the keyboard 140.

【0067】そこで、ユーザが異常を発見した場合、例
えば、ユーザは、その旨を示すコマンドをポインティン
グデバイス150やキーボード140により入力する。
尚、異常発見の方法については、上述のようにな人間に
よる観察の他に、所謂背景差分法やフレーム間差分法等
と呼ばれる画像処理の技術を用いた自動動体検出(動き
検出)等、様々な方法が存在するが、ここでもやはり特
に限定はしない。例えば、上記の画像処理の技術を用い
た方法を採用する場合、カメラ制御装置130にて、I
/O回路135からカメラ110及び120の映像信号
を取り込み、CPU131で所定の画像処理を行って、
異常発生を検出するようにする。
Therefore, when the user discovers an abnormality, for example, the user inputs a command to that effect using the pointing device 150 or the keyboard 140.
In addition to the above-described human observation as described above, various methods, such as automatic moving object detection (motion detection) using an image processing technique called a so-called background subtraction method or an inter-frame difference method, may be used for the abnormality detection method. There are various methods, but again there is no particular limitation. For example, when a method using the above-described image processing technique is adopted, the camera control device 130
The video signals of the cameras 110 and 120 are fetched from the / O circuit 135, and predetermined image processing is performed by the CPU 131.
Try to detect the occurrence of abnormality.

【0068】CPU131は、ポインティングデバイス
150やキーボード140から入力されたコマンドによ
り(或いは、上記の画像処理等により)、異常が発生し
たか否かを判別する(ステップS303)。
The CPU 131 determines whether an error has occurred based on a command input from the pointing device 150 or the keyboard 140 (or by the above-described image processing or the like) (step S303).

【0069】ステップS303の判別の結果、異常が発
生していない場合、CPU131は、ポインティングデ
バイス150やキーボード140により、ユーザから本
処理終了を示すコマンドが入力されたか否かを判別する
(ステップS310)。この判別の結果、本処理終了で
あった場合、本処理終了となり、そうでない場合には、
ステップS303に戻り、再び異常検出ループ処理に復
帰する。
If no abnormality has occurred as a result of the determination in step S303, the CPU 131 determines whether or not a command indicating the end of this process has been input from the user by the pointing device 150 or the keyboard 140 (step S310). . If the result of this determination is that this processing has ended, this processing ends.
The process returns to step S303, and returns to the abnormality detection loop processing again.

【0070】一方、ステップS303の判別の結果、異
常が発生した場合、CPU131は、その異常が、カメ
ラ110とカメラ120の何れのカメラが監視している
領域で発生したものであるかを判別する(ステップS3
04)。
On the other hand, as a result of the determination in step S303, if an abnormality has occurred, the CPU 131 determines which of the cameras 110 and 120 is monitoring the abnormality in the area monitored by the camera. (Step S3
04).

【0071】ステップS304の判別の結果、カメラ1
10の監視領域で異常が発生した場合、CPU131
は、カメラ110が具備している光学的パラメータ制御
部112及び幾何的パラメータ制御部113に対して、
所定の指示(パラメータ(pc,tc ,z))を制御信
号として、I/O回路135を介して与える。この制御
信号は、異常が発生した注目領域の詳細を撮影するため
の撮影方向及びズーム値を示す信号である。これを受け
たカメラ110は、撮影方向及びズーム値を変化させ
て、該注目領域の詳細を撮影する。これにより得られた
映像信号は、モニタ160に供給され、ここで画面表示
されることになる(ステップS305)。
As a result of the determination in step S304, the camera 1
When an abnormality occurs in the 10 monitoring areas, the CPU 131
For the optical parameter control unit 112 and the geometric parameter control unit 113 of the camera 110,
A predetermined instruction (parameter (p c , t c , z)) is given as a control signal via the I / O circuit 135. The control signal is a signal indicating a photographing direction and a zoom value for photographing details of the attention area where the abnormality has occurred. The camera 110 receiving this changes the photographing direction and the zoom value to photograph the details of the attention area. The video signal thus obtained is supplied to the monitor 160, where it is displayed on the screen (step S305).

【0072】また、CPU131は、他方のカメラ12
0が具備している光学的パラメータ制御部122及び幾
何的パラメータ制御部123に対して、所定の指示(パ
ラメータ(pc ,tc ,z))を制御信号として、I/
O回路135を介して与える。この制御信号は、撮像領
域全体中に撮影されない注目領域が存在しないような撮
影方向及びズーム値を示す信号である。これを受けたカ
メラ120は、撮影方向及びズーム値を変化させて、指
示に従った領域を撮影する。これにより得られた映像信
号は、モニタ160に供給され、ここで画面表示される
ことになる(ステップS306)。
The CPU 131 is connected to the other camera 12.
0 to the optical parameter control unit 122 and the geometric parameter control unit 123 provided with a predetermined instruction (parameter (p c , t c , z)) as a control signal.
Applied through the O-circuit 135. This control signal is a signal indicating a shooting direction and a zoom value such that there is no region of interest that is not shot in the entire image sensing region. The camera 120 receiving this changes the shooting direction and the zoom value, and shoots an area according to the instruction. The video signal thus obtained is supplied to the monitor 160, where it is displayed on the screen (step S306).

【0073】そして、上記の異常に対して所定の処置が
施された後(ステップS309)、CPU131は、ポ
インティングデバイス150やキーボード140によ
り、ユーザから本処理終了を示すコマンドが入力された
か否かを判別する(ステップS310)。この判別の結
果、本処理終了であった場合、本処理終了となり、そう
でない場合には、ステップS303に戻り、再び異常検
出ループ処理に復帰する。
After a predetermined action is taken against the above-mentioned abnormality (step S309), the CPU 131 determines whether or not a command indicating the end of this process is input from the user by the pointing device 150 or the keyboard 140. A determination is made (step S310). If the result of this determination is that this processing has ended, this processing ends. If not, processing returns to step S303 and returns to the abnormality detection loop processing again.

【0074】ステップS304の判別の結果、カメラ1
20の監視領域で異常が発生した場合、この場合もステ
ップS307及びS308と同様にして、CPU131
は、カメラ120、110に対して所定の指示(パラメ
ータ(pc ,tc ,z))を制御信号として与える(ス
テップS307、ステップS308)。そして、上記の
異常に対して所定の処置が施された後(ステップS30
9)、ユーザからの本処理終了の指示があった場合に
は、本処理終了となり、そうでない場合には、ステップ
S303に戻り、再び異常検出ループ処理に復帰する
(ステップS310)。尚、ステップS307及びS3
08の各処理は、ステップS305及びS306の各処
理にてカメラ110とカメラ120を入れ替えた処理で
あるため、その詳細な説明は省略する。
As a result of the determination in step S304, the camera 1
When an abnormality occurs in the monitoring area of No. 20, the CPU 131 also executes the processing in the same manner as in steps S307 and S308.
Gives predetermined instructions (parameters (p c , t c , z)) as control signals to the cameras 120 and 110 (steps S307 and S308). Then, after a predetermined measure is taken for the above-described abnormality (step S30)
9) If there is an instruction from the user to end the present process, the present process ends. Otherwise, the process returns to step S303 and returns to the abnormality detection loop process again (step S310). Steps S307 and S3
Each process of 08 is a process in which the camera 110 and the camera 120 are replaced in each of the processes of steps S305 and S306, and a detailed description thereof will be omitted.

【0075】(第2の実施の形態)本発明は、例えば、
図9に示すような、監視システム400に適用される。
(Second Embodiment) The present invention provides, for example,
It is applied to a monitoring system 400 as shown in FIG.

【0076】この監視システム400は、上記図1の監
視システム100と同様の構成としているが、該構成に
加えて、広範囲を撮影可能な固定カメラ(以下、「広視
野固定カメラ」と言う)401を備えた構成としてい
る。広視野固定カメラ401は、カメラ110及びカメ
ラ120のような撮影方向及びズームの変更が必ずしも
必要のないカメラである。このため、広視野固定カメラ
401は、撮像系により被写体を撮影して撮影画像(映
像信号)を出力するカメラ部402のみを備えている。
また、広視野固定カメラ401から出力される映像信号
を画面表示するモニタ403が、カメラ制御装置130
のバス137に接続されている。
The surveillance system 400 has the same configuration as the surveillance system 100 shown in FIG. 1. In addition to this configuration, a fixed camera 401 (hereinafter, referred to as a “wide-field fixed camera”) 401 capable of photographing a wide area. Is provided. The wide-view fixed camera 401 is a camera such as the camera 110 and the camera 120 that does not necessarily need to change the shooting direction and the zoom. For this reason, the wide-view fixed camera 401 includes only the camera unit 402 that captures an object by an imaging system and outputs a captured image (video signal).
A monitor 403 for displaying a video signal output from the wide-view fixed camera 401 on a screen is provided by the camera control device 130.
The bus 137 is connected to the

【0077】このように、本実施の形態においては、撮
影時の光学的パラメータ及び幾何的パラメータを外部参
照及び外部制御可能な複数台のカメラ(ここでは、カメ
ラ110とカメラ120の2台とする)と、それらのカ
メラ制御装置130と、1台の広視野固定カメラ401
とを備えた構成となる。そして、1台の広視野固定カメ
ラ401を、常に撮像領域の全体を監視(撮影)するた
めのカメラとして使用し、2台のカメラ110及び12
0については、異常発生時において、撮像領域中の注目
している領域に対するより詳細な情報を収集するために
使用する。また、第1の実施の形態と同様に、2台のカ
メラ110及び120については、カメラ制御装置13
0により、各監視範囲が重複しないように他の領域を監
視するように制御される。このとき、上記図3に示した
ような座標系、上記図4に示したようなズーム値と撮影
可能な画角に関する対応表、及び上記図5に示したよう
な各監視ポイントの位置と範囲の情報を保持した表が用
いられる。
As described above, in this embodiment, a plurality of cameras (here, two cameras 110 and 120) capable of externally referencing and externally controlling the optical parameters and geometric parameters at the time of photographing are used. ), Their camera control devices 130, and one wide-view fixed camera 401.
This is a configuration including: Then, one wide-view fixed camera 401 is used as a camera for always monitoring (photographing) the entire imaging area, and two cameras 110 and 12 are used.
0 is used to collect more detailed information on a region of interest in the imaging region when an abnormality occurs. Further, as in the first embodiment, the camera control device 13
By 0, control is performed so as to monitor other areas so that each monitoring range does not overlap. At this time, the coordinate system as shown in FIG. 3, the correspondence table between the zoom value and the viewable angle of view as shown in FIG. 4, and the position and range of each monitoring point as shown in FIG. Is used.

【0078】尚、上記図9の監視システム400におい
て、上記図1の監視システム100と同様に動作する箇
所には同じ符号を付し、その詳細な説明は省略する。こ
こでは、第1の実施の形態と異なる点についてのみ、具
体的に説明する。また、第1の実施の形態と同様に、説
明の簡単のために、光学的パラメータとしては”ズーム
値”、幾何的パラメータとしては撮影方向を表す”パン
値”及び”チルト値”とする。ここでも、”ズーム
値”、”パン値”、及び”チルト値”に限られるもので
はなく、他のカメラパラメータを使用する、又は、組み
合わせて使用するようにしてもよい。
In the monitoring system 400 shown in FIG. 9, the parts operating in the same manner as the monitoring system 100 shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted. Here, only the differences from the first embodiment will be specifically described. Similarly to the first embodiment, for the sake of simplicity, the optical parameters are “zoom value”, and the geometric parameters are “pan value” and “tilt value” representing the imaging direction. Again, the present invention is not limited to “zoom value”, “pan value”, and “tilt value”, and other camera parameters may be used or may be used in combination.

【0079】以下、監視システム400の原理、及び処
理手順について具体的に説明する。
Hereinafter, the principle and the processing procedure of the monitoring system 400 will be specifically described.

【0080】1.基本原理 以下、図10〜図14を用いて、本実施の形態の基本原
理について説明する。
1. Basic Principle Hereinafter, the basic principle of the present embodiment will be described with reference to FIGS.

【0081】上記図10は、1台の広視野固定カメラ4
01と、2台のカメラ110及び120により、撮像領
域を監視(撮影)している様子を示したものである。図
中”411”は、2台のカメラ110及び120が監視
している領域を示し(上記図6の領域208及び209
に対応)、”A1 ,A2 ,A3 ,・・・”は、監視して
いる撮像領域411中に点存する注目点(監視ポイン
ト)を示している。また、”413”は、広視野固定カ
メラ401にて常に監視している領域(視野)を示して
いる。
FIG. 10 shows one wide view fixed camera 4.
01 and two cameras 110 and 120 are monitoring (photographing) the imaging area. “411” in the figure indicates an area monitored by the two cameras 110 and 120 (the areas 208 and 209 in FIG. 6 described above).
, “A 1 , A 2 , A 3 ,...” Indicate points of interest (monitoring points) scattered in the monitored imaging area 411. “413” indicates an area (field of view) constantly monitored by the wide-field fixed camera 401.

【0082】上記図11は、広視野固定カメラ401で
撮像領域411を監視中に、ある領域(ここでは、監視
ポイントA1 )で異常が検出されたときの状態を示した
ものである。このように、異常が検出されると、その監
視ポイントA1 の詳細な状況を調べるために、2台のカ
メラ110とカメラ120の何れかのカメラ(ここでは
例として、カメラ110とする)に対して、カメラ制御
装置130からの制御信号(監視ポイントA1 について
の上記式(1)及び(2)の実行で得られたパラメー
タ)が与えられることで、監視ポイントA1 がズームア
ップ表示される。このときのカメラ110の撮影領域
を、図中”415”で示している。
FIG. 11 shows a state in which an abnormality is detected in a certain area (here, monitoring point A 1 ) while the wide-field fixed camera 401 is monitoring the imaging area 411. As described above, when an abnormality is detected, one of the two cameras 110 and 120 (here, for example, the camera 110) is used to check the detailed status of the monitoring point A1. in contrast, since the control signal from the camera controller 130 (the above equation for monitoring point a 1 (1) and (parameters obtained by the execution of 2)) is given, the monitoring points a 1 is a zoom-up display You. The shooting area of the camera 110 at this time is indicated by “415” in the figure.

【0083】上記図12は、以前に異常が検出された注
目領域(ここでは例として、上記図11の監視ポイント
1 とする)の該異常に対する所定の処置が終了する前
に、新たに異常(ここでは、監視ポイントA3 での異
常)が検出された状態を示している。この場合、その監
視ポイントA3 の詳細な状況を調べるために、カメラ制
御装置130により詳細な情報を収集するための制御が
行われていない状態(以下、「待機状態」と言う)にあ
るもう一方のカメラ120に対して、カメラ制御装置1
30からの制御信号(監視ポイントA3 についての上記
式(1)及び(2)の実行で得られたパラメータ)が与
えられることで、監視ポイントA3 がズームアップ表示
される。このときのカメラ120の撮影領域を、図中”
417”で示している。
[0083] FIG 12 is (as an example here, the monitoring point A 1 of FIG. 11) previously abnormality detected region of interest before the predetermined treatment is completed for the abnormalities, new abnormal (here, the abnormality of the monitoring points a 3) indicates the condition detected. In this case, in order to investigate the detailed status of the monitoring points A 3, a state where the control is not performed for collecting detailed information by the camera control unit 130 (hereinafter, referred to as "standby state") longer in For one camera 120, the camera control device 1
By given control signal 30 (parameters obtained by the execution of the above formula for the monitoring point A 3 (1) and (2)), the monitoring points A 3 is zoom-displayed. The shooting area of the camera 120 at this time is indicated by “
417 ".

【0084】上記図13は、2台のカメラ110とカメ
ラ120が両方とも待機状態でない場合(ここでは例と
して、上記図12の状態である場合とする)に、別の注
目領域(ここでは、監視ポイントA6 とする)で新たな
異常が検出された状態を示している。この場合、新たに
監視ポイントA6 で異常が検出されると、カメラ110
とカメラ120の何れのカメラで、監視ポイントA6
撮影するべきであるかに関し、カメラ制御装置130で
判別される。この判別により、例えば、カメラ120が
監視ポイントA6 を撮影する場合、カメラ制御装置13
0は、カメラ120の光学的パラメータ制御部122及
び幾何的パラメータ制御部123に対して、新たに異常
の検出された監視ポイントA6 を撮影範囲に含めるよう
な撮影方向(パン、チルト)及びズームを変更するため
の指示を行なう(光学的パラメータ及び幾何的パラメー
タを与える)。すなわち、カメラ制御装置130は、監
視ポイントA3 〜A7 についての上記式(1)及び
(2)を実行することで得たパラメータをカメラ120
に与える。これにより、カメラ120の撮影範囲が変更
される。図中の”419”が、カメラ制御装置130の
制御によって更新されたカメラ120の撮影領域を示し
ている。
FIG. 13 shows a case where both the two cameras 110 and 120 are not in a standby state (here, as an example, the case of FIG. 12), another attention area (here, new anomaly monitoring point to a 6) indicates a state of being detected. In this case, when a new abnormal monitoring point A 6 is detected, the camera 110
And in any of the camera of the camera 120 relates Should shoot monitoring point A 6, is determined by the camera control unit 130. This determination, for example, if the camera 120 photographs the monitoring points A 6, the camera control unit 13
0, with respect to the optical parameter control unit 122 and the geometric parameter control unit 123 of the camera 120, new abnormality detected watchpoints A 6 including imaging range such shooting direction (pan, tilt) and zoom (To provide optical and geometric parameters). That is, the camera controller 130 monitors point A 3 to A 7 above formula (1) and the camera 120 a parameter obtained by performing a (2) for
Give to. Thereby, the shooting range of the camera 120 is changed. “419” in the figure indicates the shooting area of the camera 120 updated under the control of the camera control device 130.

【0085】上記図14は、異常が検出された領域(こ
こでは例として、上記図13の監視ポイントA3 とす
る)の該異常に対して所定の処置が施され、この異常状
態を解除された場合の状態を示している。この場合、監
視ポイントA3 を撮影していたカメラ120に具備され
ている光学的パラメータ制御部122及び幾何的パラメ
ータ制御部123には、カメラ制御装置130から、カ
メラ120が撮影していた領域の中で依然として異常状
態が解除されていない領域のみを全て含むような撮影方
向(パン、チルト)及びズームに変更するための指示が
与えられる(光学的パラメータ及び幾何的パラメータが
与えられる)。すなわち、カメラ制御装置130は、監
視ポイントA3 を除く監視ポイントA 5 〜A7 について
の上記式(1)及び(2)を実行することで得たパラメ
ータをカメラ120に与える。これにより、カメラ12
0の撮影範囲が変更される。図中の”420”が、カメ
ラ制御装置130の制御によって更新されたカメラ12
0の撮影領域を示している。
FIG. 14 shows an area where an abnormality is detected.
Here, as an example, the monitoring point A in FIG.ThreeToss
A) predetermined action is taken for the abnormality of
The state when the state is released is shown. In this case, the supervisor
Viewing point AThreeProvided in the camera 120 that was shooting the
Optical parameter control unit 122 and geometric parameters
The camera control unit 123 sends
Still abnormal in the area that Mera 120 was shooting
Shooting method that includes all areas that have not been released
Instructions to change to orientation (pan, tilt) and zoom
Given (optical and geometric parameters are
Given). That is, the camera control device 130
Viewing point AThreeMonitoring point A excluding Five~ A7about
Parameters obtained by executing the above equations (1) and (2)
Data to the camera 120. Thereby, the camera 12
The shooting range of 0 is changed. “420” in the figure is the turtle
Camera 12 updated under the control of the camera control device 130
0 shows a shooting area.

【0086】上述のように、監視システム400は、撮
像領域の全体を常に監視する1台の広視野固定カメラ4
01を更に備えることで、撮影方向及びズームが制御可
能な2台のカメラ110及び120で異常の詳細な状況
を調べている最中に発生するその他の領域における異常
発生の検出漏れを回避するように構成されている。これ
により、さらに効率のよい監視システムを構築可能であ
る。
As described above, the surveillance system 400 is a single wide-field fixed camera 4 that constantly monitors the entire imaging area.
By further providing 01, it is possible to avoid omission of detection of abnormality occurrence in other areas that occurs while examining the detailed situation of abnormality with the two cameras 110 and 120 that can control the shooting direction and zoom. Is configured. Thereby, a more efficient monitoring system can be constructed.

【0087】2.基本処理 以下、図15及び図16を用いて、本実施の形態での基
本処理の流れについて説明する。上記図15は、撮像領
域中に異常が検出された場合の処理を示したフローチャ
ートであり、上記図16は、既に異常が検出されていた
注目領域の該異常に対する所定の処置が行われることで
異常状態が解除される場合の処理を示したフローチャー
トである。これらの処理は、並列実行の形態を採る。
尚、上述の第1の実施の形態と同様に、カメラ制御装置
130において、例えば、ROM133には、上記図1
5及び図16に示すフローチャートに従った処理プログ
ラムが予め格納されており、この処理プログラムがCP
U131により読み出され実行されることで、次に説明
する動作が実施される。
2. Basic Processing Hereinafter, the flow of the basic processing according to the present embodiment will be described with reference to FIGS. FIG. 15 is a flowchart showing a process when an abnormality is detected in the imaging region. FIG. 16 is a flowchart showing a process in which a predetermined process is performed on the abnormality in the attention region in which the abnormality has been detected. 9 is a flowchart illustrating a process when an abnormal state is released. These processes take the form of parallel execution.
As in the first embodiment, in the camera control device 130, for example, the ROM
5 and a processing program according to the flowchart shown in FIG. 16 are stored in advance.
The operation described below is performed by being read and executed by U131.

【0088】2−1.撮像領域中に異常が検出された場
合の処理(上記図15参照)
2-1. Processing when an abnormality is detected in the imaging area (see FIG. 15 above)

【0089】本処理プログラムが実行されると、広視野
固定カメラ401では、上述したような撮像領域全体の
監視(撮影)が行われる。この撮影で得られた映像信号
は、モニタ403に供給され、ここで画面表示される。
ユーザは、モニタ403の表示画面を観察する(ステッ
プS431)。また、カメラ110及び120において
も、上述したようにしてカメラ制御装置130の制御に
従った監視(撮影)が行われ、それにより得られた映像
信号がモニタ160及び170で画面表示される。ユー
ザは、これらのモニタ160、170の表示画面を観察
する。そして、ステップS431、S432、及びS4
40による繰り返しループ処理(異常検出ループ処理)
により、異常が発見されるまで、又は、ポインティング
デバイス150やキーボード140によりユーザから本
処理終了を示すコマンドが入力されるまで、この状態の
まま観察が行われる。
When this processing program is executed, the wide-view fixed camera 401 monitors (photographs) the entire imaging area as described above. The video signal obtained by this shooting is supplied to the monitor 403, where it is displayed on the screen.
The user observes the display screen of the monitor 403 (Step S431). Also in the cameras 110 and 120, monitoring (photographing) is performed according to the control of the camera control device 130 as described above, and the video signals obtained thereby are displayed on the monitors 160 and 170 on the screen. The user observes the display screens of these monitors 160 and 170. Then, steps S431, S432, and S4
Iterative loop processing by 40 (error detection loop processing)
Thus, the observation is performed in this state until an abnormality is found, or until a command indicating the end of the present process is input from the user using the pointing device 150 or the keyboard 140.

【0090】そこで、ユーザが異常を発見した場合、例
えば、ユーザは、その旨を示すコマンドをポインティン
グデバイス150やキーボード140により入力する。
尚、ここでも第1の実施の形態と同様に、異常発見の方
法については、人間による観察の他に、画像処理の技術
を用いた自動動体検出等、様々な方法が存在するが、特
に限定はしない。
Therefore, when the user discovers an abnormality, for example, the user inputs a command to that effect using the pointing device 150 or the keyboard 140.
Note that, similarly to the first embodiment, there are various methods for finding an abnormality other than observation by a human, such as automatic moving object detection using an image processing technique. Do not.

【0091】CPU131は、ポインティングデバイス
150やキーボード140から入力されたコマンドによ
り(或いは、上記の画像処理等により)、異常が発生し
たか否かを判別する(ステップS432)。
The CPU 131 determines whether an error has occurred based on a command input from the pointing device 150 or the keyboard 140 (or by the above-described image processing or the like) (step S432).

【0092】ステップS432の判別の結果、異常が発
生していない場合、CPU131は、ポインティングデ
バイス150やキーボード140により、ユーザから本
処理終了を示すコマンドが入力されたか否かを判別する
(ステップS440)。この判別の結果、本処理終了で
あった場合、本処理終了となり、そうでない場合には、
ステップS331に戻り、再び異常検出ループ処理に復
帰する。
If the result of determination in step S 432 is that no abnormality has occurred, the CPU 131 determines whether or not a command indicating the end of this process has been input by the user using the pointing device 150 or the keyboard 140 (step S 440). . If the result of this determination is that this processing has ended, this processing ends.
The process returns to step S331, and returns to the abnormality detection loop processing again.

【0093】一方、ステップS303の判別の結果、異
常が発生した場合、CPU131は、カメラ110が待
機状態(カメラ制御装置130により詳細な情報を収集
するための制御が行われていない状態)であるか否かを
判別する(ステップS433)。
On the other hand, if the result of the determination in step S303 indicates that an abnormality has occurred, the CPU 131 is in a standby state (a state in which control for collecting detailed information is not performed by the camera controller 130). It is determined whether or not this is the case (step S433).

【0094】ステップS433の判別の結果、カメラ1
10が待機状態であった場合、CPU131は、カメラ
110に具備されている光学的パラメータ制御部112
及び幾何的パラメータ制御部113に対して、所定の指
示(パラメータ(pc ,tc,z))を制御信号とし
て、I/O回路135を介して与える。この制御信号
は、異常が発生した領域の詳細を撮影するための撮影方
向及びズーム値を示す信号である。これを受けたカメラ
110は、撮影方向及びズーム値を変化させて、異常が
検出された注目領域の詳細を撮影する。これにより得ら
れた映像信号は、モニタ160に供給され、ここで画面
表示されることになる(ステップS434)。その後、
CPU131は、ポインティングデバイス150やキー
ボード140により、ユーザから本処理終了を示すコマ
ンドが入力されたか否かを判別する(ステップS44
0)。この判別の結果、本処理終了であった場合、本処
理終了となり、そうでない場合には、ステップS431
に戻り、再び異常検出ループ処理に復帰する。
As a result of the determination in step S433, the camera 1
In a case where the CPU 10 is in the standby state, the CPU 131 controls the optical parameter control unit 112 provided in the camera 110.
And a predetermined instruction (parameter (p c , t c , z)) as a control signal to the geometric parameter control unit 113 via the I / O circuit 135. The control signal is a signal indicating a photographing direction and a zoom value for photographing details of the area where the abnormality has occurred. The camera 110 receiving this changes the shooting direction and the zoom value, and shoots details of the attention area where the abnormality is detected. The video signal thus obtained is supplied to the monitor 160, where it is displayed on the screen (step S434). afterwards,
The CPU 131 determines whether or not a command indicating the end of this process has been input by the user using the pointing device 150 or the keyboard 140 (step S44).
0). If the result of this determination is that this processing has ended, this processing ends; otherwise, step S431
And returns to the abnormality detection loop processing again.

【0095】ステップS433の判別の結果、カメラ1
10が待機状態でなかった場合、CPU131は、カメ
ラ120が待機状態であるか否かを判別する(ステップ
S435)。
As a result of the determination in step S433, the camera 1
If the camera 10 is not in the standby state, the CPU 131 determines whether the camera 120 is in the standby state (step S435).

【0096】ステップS435の判別の結果、カメラ1
20が待機状態であった場合、ステップS434と同様
にして、CPU131は、カメラ120に具備されてい
る光学的パラメータ制御部122及び幾何的パラメータ
制御部123に対して、所定の指示(パラメータ
(pc ,tc ,z))を制御信号として与える(ステッ
プS436)。その後、ユーザからの本処理終了の指示
があった場合には、本処理終了となり、そうでない場合
には、ステップS431に戻り、再び異常検出ループ処
理に復帰する(ステップS440)。尚、ステップS4
36の処理は、ステップS434の処理にてカメラ11
0とカメラ120を入れ替えた処理であるため、その詳
細な説明は省略する。
As a result of the determination in step S435, the camera 1
If the CPU 20 is in the standby state, the CPU 131 instructs the optical parameter control unit 122 and the geometric parameter control unit 123 included in the camera 120 to perform a predetermined instruction (parameter (p c , t c , z)) are given as control signals (step S436). Thereafter, if there is an instruction from the user to end the present process, the present process ends, otherwise, the process returns to step S431 and returns to the abnormality detection loop process again (step S440). Step S4
The processing in step S434 is performed by the camera 11 in step S434.
Since the process is performed by replacing 0 with the camera 120, detailed description thereof is omitted.

【0097】ステップS435の判別の結果、カメラ1
20が待機状態でなかった場合、すなわちカメラ110
とカメラ120の何れも待機状態でなかった場合、CP
U131は、例えば、カメラ110及び120の撮影領
域の位置、撮影中の異常個所の数等をパラメータとした
所定の評価関数を用いて、新たに検出された異常が検出
された注目領域を、カメラ110とカメラ120の何れ
のカメラで撮影するべきであるのかを評価する(ステッ
プS437)。
As a result of the determination in step S435, the camera 1
20 is not in the standby state, that is, the camera 110
If neither the camera nor the camera 120 is in the standby state, the CP
U131 uses, for example, a predetermined evaluation function with parameters of the positions of the photographing regions of the cameras 110 and 120, the number of abnormal portions during photographing, and the like, and extracts the region of interest in which the newly detected abnormality is detected from the camera. It is evaluated which of the cameras 110 and 120 should be used for shooting (step S437).

【0098】ステップS437の評価の結果、カメラ1
10で撮影する方が最適であると判別された場合、CP
U131は、カメラ110に具備されている光学的パラ
メータ制御部112及び幾何的パラメータ制御部113
に対して、所定の指示(パラメータ(pc ,tc
z))を制御信号として、I/O回路135を介して与
える。この制御信号は、これまでカメラ110が撮影し
ていた領域に新たに異常が検出された注目領域を追加し
て、これらのすべてをカメラ110の撮影範囲に含める
ための撮影方向及びズーム値を示す信号である。これを
受けたカメラ110は、撮影方向及びズーム値を変化さ
せて、その領域の詳細を撮影する。これにより得られた
映像信号は、モニタ160に供給され、ここで画面表示
されることになる(ステップS438)。その後、CP
U131は、ポインティングデバイス150やキーボー
ド140により、ユーザから本処理終了を示すコマンド
が入力されたか否かを判別する(ステップS440)。
この判別の結果、本処理終了であった場合、本処理終了
となり、そうでない場合には、ステップS431に戻
り、再び異常検出ループ処理に復帰する。
As a result of the evaluation in step S437, camera 1
If it is determined that shooting at 10 is optimal,
U131 includes an optical parameter control unit 112 and a geometric parameter control unit 113 provided in the camera 110.
In response to a predetermined instruction (parameters (p c , t c ,
z)) is given as a control signal via the I / O circuit 135. This control signal indicates a photographing direction and a zoom value for adding a newly detected region of interest to the region previously photographed by the camera 110 and including all of them in the photographing range of the camera 110. Signal. The camera 110 receiving this changes the shooting direction and the zoom value, and shoots details of the area. The video signal thus obtained is supplied to the monitor 160, where it is displayed on the screen (step S438). After that, CP
The U131 determines whether or not a command indicating the end of this process has been input by the user using the pointing device 150 or the keyboard 140 (step S440).
If the result of this determination is that this processing has ended, this processing ends. Otherwise, processing returns to step S431 and returns to the abnormality detection loop processing again.

【0099】ステップS437の評価の結果、カメラ1
20で撮影する方が最適であると判別された場合、ステ
ップS438と同様にして、CPU131は、カメラ1
20に具備されている光学的パラメータ制御部122及
び幾何的パラメータ制御部123に対して、所定の指示
(パラメータ(pc ,tc ,z))を制御信号として与
える(ステップS439)。その後、ユーザからの本処
理終了の指示があった場合には、本処理終了となり、そ
うでない場合には、ステップS431に戻り、再び異常
検出ループ処理に復帰する(ステップS440)。尚、
ステップS439の処理は、ステップS438の処理に
てカメラ110とカメラ120を入れ替えた処理である
ため、その詳細な説明は省略する。
As a result of the evaluation in step S437, camera 1
If it is determined that shooting is more optimal in step S <b> 20, the CPU 131 proceeds to step S <b> 438.
A predetermined instruction (parameters (p c , t c , z)) is given as a control signal to the optical parameter control unit 122 and the geometric parameter control unit 123 provided in 20 (step S439). Thereafter, if there is an instruction from the user to end the present process, the present process ends, otherwise, the process returns to step S431 and returns to the abnormality detection loop process again (step S440). still,
The process in step S439 is a process in which the camera 110 and the camera 120 are replaced in the process in step S438, and thus a detailed description thereof will be omitted.

【0100】尚、ステップS434、S436、S43
8、及びS439における具体的なカメラの制御方法に
ついては、第1の実施の形態で詳述した通りである。ま
た、ステップS437において、撮影に使用するカメラ
を決定する具体的な方法はいくつか考えられるが、ここ
ではその簡単な一例について説明する。例えば、カメラ
110の撮影方向が”p=pA ,t=tA ”であり、カ
メラ120のの撮影方向が”p=pB ,t=tB ”であ
り、新たに検出された注目領域(監視ポイント)の方向
が”p=pN ,t=tN ”であるとする。このとき、 (pA - p N )2+(t A - t N )2≦(pB - p N )2+(t B - t
N )2 なる関係を満たした場合にカメラ110を使用し、そう
でない場合にはカメラ120を使用するように指示す
る。もちろん、ここで挙げた決定方法は、極簡単な方法
の一例であり、更に他の方法によっても最適な決定を期
待できる。
Steps S434, S436, S43
8, and the specific camera control method in S439 is as described in detail in the first embodiment. In step S437, several specific methods for determining a camera to be used for photographing are conceivable. Here, a simple example will be described. For example, the shooting direction of the camera 110 is “p = p A , t = t A ”, the shooting direction of the camera 120 is “p = p B , t = t B ”, and the newly detected attention area It is assumed that the direction of the (monitoring point) is “p = p N , t = t N ”. Then, (p A -p N ) 2 + (t A -t N ) 2 ≤ (p B -p N ) 2 + (t B -t
N ) Instruct the camera 110 to be used when the relationship 2 is satisfied, and to use the camera 120 otherwise. Of course, the determination method described here is an example of an extremely simple method, and an optimum determination can be expected by another method.

【0101】2−2.既に異常が検出されていた注目領
域に所定の処置が行われることで異常状態が解除される
場合の処理(上記図16参照)
2-2. Processing in a case where an abnormal state is canceled by performing a predetermined treatment on a region of interest in which an abnormality has already been detected (see FIG. 16 above)

【0102】本処理プログラムが実行されると、上記図
15の処理プログラムの実行により異常が検出された注
目領域の該異常に対して所定の処理が行われる(ステッ
プS451)。そして、ステップS451、S452、
及びS460による繰り返しループ処理により、上記異
常に対する問題が解決されるまで、又は、ポインティン
グデバイス150やキーボード140によりユーザから
本処理終了を示すコマンドが入力されるまで、この状態
のまま問題解決ための上記所定の処理が行われる。
When this processing program is executed, predetermined processing is performed on the abnormality in the attention area where an abnormality is detected by executing the processing program of FIG. 15 (step S451). Then, steps S451, S452,
Until the problem for the above abnormality is solved by the repetitive loop processing in S460 and S460, or until a command indicating the end of the present processing is input from the user through the pointing device 150 or the keyboard 140, the above-mentioned state for solving the problem is maintained. A predetermined process is performed.

【0103】そこで、ある異常に対して、問題が解決さ
れると、CPU131は、その異常が検出された注目領
域を撮影していたカメラの撮影範囲から、問題解決され
た注目領域を削除する処理を行う。
Therefore, when the problem is solved for a certain abnormality, the CPU 131 deletes the problem-resolved region of interest from the photographing range of the camera that photographed the region of interest in which the abnormality was detected. I do.

【0104】例えば、CPU131は、問題解決された
注目領域を撮影していたカメラがカメラ110であるか
否かを判別する(ステップS453)。
For example, the CPU 131 determines whether or not the camera that has photographed the attention-resolved area is the camera 110 (step S453).

【0105】ステップS453の判別の結果、カメラ1
10であった場合、CPU131は、カメラ110が、
今回問題が解決された注目領域以外にまだ未解決の異常
が存在する注目領域を撮影しているか否かを判別する
(ステップS453)。
As a result of the determination in step S453, the camera 1
If it is 10, the CPU 131 determines that the camera 110
It is determined whether or not the attention area in which an unsolved abnormality still exists other than the attention area in which the problem has been solved is photographed (step S453).

【0106】ステップS453の判別の結果、まだ未解
決の異常が存在する注目領域を撮影している場合、CP
U131は、カメラ110に具備されている光学的パラ
メータ制御部112及び幾何的パラメータ制御部113
に対して、所定の指示(パラメータ(pc ,tc
z))を制御信号として、I/O回路135を介して与
える。この制御信号は、未解決の異常が存在する注目領
域を全て含むように、カメラ110の撮影領域を縮小す
るための撮影方向及びズーム値を示す信号である。これ
を受けたカメラ110は、撮影方向及びズーム値を変化
させて、その領域の詳細を撮影する。これにより得られ
た映像信号は、モニタ160に供給され、ここで画面表
示されることになる(ステップS455)。その後、C
PU131は、ポインティングデバイス150やキーボ
ード140により、ユーザから本処理終了を示すコマン
ドが入力されたか否かを判別する(ステップS46
0)。この判別の結果、本処理終了であった場合、本処
理終了となり、そうでない場合には、ステップS451
に戻り、繰り返しループ処理に復帰する。
If the result of determination in step S453 is that an attention area in which an unresolved abnormality still exists is captured, the CP
U131 includes an optical parameter control unit 112 and a geometric parameter control unit 113 provided in the camera 110.
In response to a predetermined instruction (parameters (p c , t c ,
z)) is given as a control signal via the I / O circuit 135. This control signal is a signal indicating a shooting direction and a zoom value for reducing the shooting area of the camera 110 so as to include all the attention areas where unresolved abnormalities exist. The camera 110 receiving this changes the shooting direction and the zoom value, and shoots details of the area. The video signal thus obtained is supplied to the monitor 160, where it is displayed on the screen (step S455). Then, C
The PU 131 determines whether or not a command indicating the end of this process has been input by the user using the pointing device 150 or the keyboard 140 (step S46).
0). If the result of this determination is that this processing has ended, this processing ends, otherwise, step S451
To return to the loop processing.

【0107】ステップS453の判別の結果、カメラ1
10の撮影領域に異常が存在する注目領域がない場合、
CPU131は、カメラ110に具備されている光学的
パラメータ制御部112及び幾何的パラメータ制御部1
13に対して、所定の指示(パラメータ(pc ,tc
z))を制御信号として、I/O回路135を介して与
える。この制御信号は、カメラ110を待機状態に戻す
ための撮影方向及びズーム値(初期状態の撮影方向及び
ズーム値)を示す信号である。これを受けたカメラ11
0は、撮影方向及びズーム値を変化させて、その領域の
詳細を撮影する。これにより得られた映像信号は、モニ
タ160に供給され、ここで画面表示されることになる
(ステップS456)。その後、CPU131は、ポイ
ンティングデバイス150やキーボード140により、
ユーザから本処理終了を示すコマンドが入力されたか否
かを判別する(ステップS460)。この判別の結果、
本処理終了であった場合、本処理終了となり、そうでな
い場合には、ステップS451に戻り、繰り返しループ
処理に復帰する。
As a result of the determination in step S453, the camera 1
When there is no attention area where an abnormality exists in the 10 imaging areas,
The CPU 131 controls the optical parameter control unit 112 and the geometric parameter control unit 1 provided in the camera 110.
13, a predetermined instruction (parameters (p c , t c ,
z)) is given as a control signal via the I / O circuit 135. This control signal is a signal indicating a shooting direction and a zoom value (a shooting direction and a zoom value in an initial state) for returning the camera 110 to the standby state. Camera 11 receiving this
0 changes the shooting direction and the zoom value to shoot details of the area. The video signal thus obtained is supplied to the monitor 160, where it is displayed on the screen (step S456). After that, the CPU 131 uses the pointing device 150 and the keyboard 140 to
It is determined whether or not a command indicating the end of this process has been input from the user (step S460). As a result of this determination,
If the processing has ended, the processing ends. Otherwise, the processing returns to step S451 and returns to the loop processing.

【0108】ステップS453の判別の結果、カメラ1
10でなかった場合、すなわちカメラ120であった場
合、ステップS455及びS456と同様にして、CP
U131は、カメラ120に具備されている光学的パラ
メータ制御部122及び幾何的パラメータ制御部123
に対して、所定の指示(パラメータ(pc ,tc
z))を制御信号として与える(ステップS458、ス
テップS459)。そして、ステップS458又はステ
ップS459の処理後、ユーザからの本処理終了の指示
があった場合には、本処理終了となり、そうでない場合
には、ステップS451に戻り、再び異常検出ループ処
理に復帰する(ステップS460)。尚、ステップS4
58及びS459の各処理は、ステップS455及びS
456の各処理にてカメラ110とカメラ120を入れ
替えた処理であるため、その詳細な説明は省略する。
As a result of the determination in step S453, the camera 1
If it is not 10, that is, if it is the camera 120, as in steps S455 and S456, the CP
U131 is an optical parameter control unit 122 and a geometric parameter control unit 123 provided in the camera 120.
In response to a predetermined instruction (parameters (p c , t c ,
z)) is given as a control signal (step S458, step S459). Then, after the processing in step S458 or step S459, if there is an instruction from the user to end this processing, this processing ends, otherwise, the processing returns to step S451 and returns to the abnormality detection loop processing again. (Step S460). Step S4
58 and S459 are performed in steps S455 and S455.
Since the camera 110 and the camera 120 are replaced in each process of 456, detailed description thereof is omitted.

【0109】(第3の実施の形態)本発明は、例えば、
図17に示すような、監視システム500に適用され
る。
(Third Embodiment) The present invention provides, for example,
It is applied to a monitoring system 500 as shown in FIG.

【0110】この監視システム500は、上記図9の監
視システム400と同様の構成としているが、撮影時の
光学的パラメータ及び幾何的パラメータを外部参照及び
外部制御可能なカメラを1台のみ備えた構成とした点が
異なる。また、監視システム500では、カメラ制御装
置130のI/O回路135に3台のモニタ160、1
70、及び403が接続された構成としており、これら
のモニタ160、170、及び403には、カメラ11
0及び広視野固定カメラ401が出力する映像信号が直
接供給されるのではなく、I/O回路135を介して供
給されるようになされている。このため、カメラ制御装
置130のCPU131は、カメラ110及び広視野固
定カメラ401が出力する各映像信号を編集してI/O
回路135から出力する機能をも有している。
The monitoring system 500 has the same configuration as the monitoring system 400 shown in FIG. 9, but has only one camera that can externally reference and externally control the optical parameters and geometric parameters at the time of photographing. Is different. In the monitoring system 500, the three monitors 160 and 1 are connected to the I / O circuit 135 of the camera control device 130.
70 and 403 are connected, and these monitors 160, 170 and 403 are connected to the camera 11
The video signals output from the 0 and wide-view fixed cameras 401 are not supplied directly, but are supplied via an I / O circuit 135. For this reason, the CPU 131 of the camera control device 130 edits each video signal output by the camera 110 and the wide-view fixed camera 401 to perform I / O.
It also has a function of outputting from the circuit 135.

【0111】尚、上記図17の監視システム500にお
いて、上記図9の監視システム400と同様に動作する
箇所には同じ符号を付し、その詳細な説明は省略する。
ここでは、第2の実施の形態と異なる点についてのみ、
具体的に説明する。また、第1及び第2の実施の形態と
同様に、説明の簡単のために、光学的パラメータとして
は”ズーム値”、幾何的パラメータとしては撮影方向を
表す”パン値”及び”チルト値”とする。ここでも、”
ズーム値”、”パン値”、及び”チルト値”に限られる
ものではなく、他のカメラパラメータを使用する、又
は、組み合わせて使用するようにしてもよい。さらに、
カメラ制御装置130のI/O回路135に3台のモニ
タ160、170、及び403を接続する構成としてい
るが、このモニタの数に限定されるものではない。
In the monitoring system 500 shown in FIG. 17, parts operating in the same manner as in the monitoring system 400 shown in FIG. 9 are denoted by the same reference numerals, and detailed description thereof will be omitted.
Here, only the differences from the second embodiment are described.
This will be specifically described. Also, as in the first and second embodiments, for the sake of simplicity, the optical parameters are “zoom value”, and the geometric parameters are “pan value” and “tilt value” representing the imaging direction. And even here,"
It is not limited to the “zoom value”, “pan value”, and “tilt value”, and other camera parameters may be used or may be used in combination.
Although three monitors 160, 170, and 403 are connected to the I / O circuit 135 of the camera control device 130, the number of monitors is not limited.

【0112】以下、監視システム500の原理、及び処
理手順について具体的に説明する。
Hereinafter, the principle and the processing procedure of the monitoring system 500 will be specifically described.

【0113】1.基本原理 以下、図18〜図21を用いて、本実施の形態の基本原
理について説明する。
1. Basic Principle Hereinafter, the basic principle of the present embodiment will be described with reference to FIGS.

【0114】上記図18は、1台のカメラ110と、1
台の広視野固定カメラ401とで撮像領域を監視(撮
影)している様子を示したものである。図中の”50
1”は、カメラ110が監視している撮像領域を示
し、”A〜G”のようなアルファベットで示されている
領域は、撮像領域501中に点在する注目点(上述の”
1 〜A8 ”に示した監視ポイントに相当)を示してい
る。さらに、”503”は、広視野固定カメラ401で
常に監視している撮像領域(視野)を示している。
FIG. 18 shows one camera 110 and one camera 110.
This figure shows a state in which the imaging area is monitored (photographed) with two wide-field fixed cameras 401. "50" in the figure
1 ”indicates an imaging area monitored by the camera 110, and an area indicated by an alphabet such as“ A to G ”is a point of interest (the above-described“
(Corresponding to the monitoring points indicated by A 1 to A 8 ). Further, “503” indicates an imaging area (field of view) constantly monitored by the wide-view fixed camera 401.

【0115】尚、上述の第1の実施の形態と同様に、カ
メラ110の制御のために、上記図3に示したような座
標系、上記図4に示したようなズーム値と撮像可能な画
角に関する対応表、及び上記図5に示したような各監視
ポイントの位置と範囲の情報を保持した表を用いる。こ
こでは、1台のカメラ110を使用しているため、上記
図4の対応表及び上記図5の表は各々、1種類のみ用意
される。
As in the first embodiment, for controlling the camera 110, it is possible to take an image with a coordinate system as shown in FIG. 3 and a zoom value as shown in FIG. A correspondence table relating to the angle of view and a table holding information on the position and range of each monitoring point as shown in FIG. 5 are used. Here, since one camera 110 is used, only one type of each of the correspondence table of FIG. 4 and the table of FIG. 5 is prepared.

【0116】上記図19(a)は、広視野固定カメラ4
01で撮像領域503全体を監視中に、ある注目領域で
異常が検出された状態を示したものである。図中の”5
04”(=A)は、異常が検出された注目領域を示して
いる。このように、異常が検出されると、その注目領域
504の詳細な状況を調べるために、上述したようにし
てカメラ110がカメラ制御装置130から制御される
ことで、注目領域504がズームアップ表示される。こ
のときのカメラ110の撮影領域を、図中”505”で
示している。また、上記図19(b)は、このときのモ
ニタ(例えば、モニタ160)の画面表示の様子を示し
ている。
FIG. 19A shows the wide-view fixed camera 4.
01 indicates a state in which an abnormality is detected in a certain attention area while the entire imaging area 503 is monitored. "5" in the figure
04 ”(= A) indicates a region of interest in which an abnormality has been detected. When an abnormality is detected in this way, the camera is operated as described above to check the detailed status of the region of interest 504. By controlling the camera 110 from the camera control device 130, the area of interest 504 is displayed in a zoom-in display, and the shooting area of the camera 110 at this time is indicated by “505” in the figure. ) Shows a screen display state of the monitor (for example, the monitor 160) at this time.

【0117】上記図20(a)は、新たな異常が検出さ
れた状態を示している。図中の”505”(=B)及
び”506”(=C)は各々、新たな異常が検出された
注目領域を示している。このように新たな異常が検出さ
れると、依然として異常が存在する注目領域(ここでは
例として、上記図19(a)の注目領域504とする)
と共に、新たな異常が存在する注目領域505及び50
6を、カメラ110の撮影範囲に含めるために、カメラ
110がカメラ制御装置130から制御されることで、
カメラ110の撮影範囲が変更される。この変更後のカ
メラ110の撮影範囲を、図中”507”で示してい
る。上記図20(b)は、このときのモニタの画面表示
の様子を示している。ここでは、3つの注目領域50
4、505、及び506で異常が検出された場合として
いるため、3つのモニタ160、170、及び403に
各々、注目領域504、505、及び506がズームア
ップ表示される。このように、複数の異常が検出された
場合には、カメラ110で撮影して得られた映像信号
(すなわち、撮影領域507の映像信号)をそのままモ
ニタに出力するのではなく、それぞれの異常が検出され
た注目領域の映像信号に拡大処理等の所定の信号処理を
行って、モニタに出力する。このような動作は、カメラ
制御装置130において、I/O回路135を介して供
給されてくるカメラ110の映像信号を、CPU131
にて処理し、これをI/O回路135を介して各々のモ
ニタ160、170、及び403に供給することで実現
できる。
FIG. 20A shows a state where a new abnormality is detected. “505” (= B) and “506” (= C) in the figure each indicate a region of interest in which a new abnormality is detected. When a new abnormality is detected in this way, the attention area in which the abnormality still exists (here, for example, the attention area 504 in FIG. 19A).
At the same time, attention areas 505 and 50 where a new abnormality exists
6 is included in the shooting range of the camera 110, the camera 110 is controlled by the camera control device 130,
The shooting range of the camera 110 is changed. The photographing range of the camera 110 after this change is indicated by “507” in the figure. FIG. 20B shows a state of screen display on the monitor at this time. Here, three attention areas 50
Since it is assumed that an abnormality is detected in 4, 505, and 506, the attention areas 504, 505, and 506 are zoomed up on the three monitors 160, 170, and 403, respectively. As described above, when a plurality of abnormalities are detected, the video signal obtained by photographing with the camera 110 (that is, the video signal of the photographing area 507) is not output as it is to the monitor. Predetermined signal processing such as enlargement processing is performed on the detected video signal of the region of interest and output to a monitor. Such an operation is performed by causing the camera control device 130 to transmit the video signal of the camera 110 supplied through the I / O circuit 135 to the CPU 131.
And supplies this to each of the monitors 160, 170, and 403 via the I / O circuit 135.

【0118】上記図21(a)は、異常が検出された注
目領域(ここでは例として、上記図20(a)における
注目領域504とする)の該異常に対して所定の処置が
行われ、異常状態が解除された状態を示している。この
場合、カメラ110の撮影領域に、依然として異常状態
が解除されていない注目領域505及び506のみが全
て含まれるように、カメラ110がカメラ制御装置13
0から制御されることで、カメラ110の撮影範囲が変
更される。この変更後のカメラ110の撮影範囲を、図
中”508”で示している。また、上記図21(b)
は、このときのモニタ(例えば、モニタ160及び17
0)の画面表示の様子を示している。
FIG. 21A shows a case where a predetermined treatment is performed for the abnormality in the region of interest in which an abnormality is detected (here, for example, the region of interest 504 in FIG. 20A). This indicates a state in which the abnormal state has been released. In this case, the camera 110 is controlled by the camera control device 13 so that the photographing region of the camera 110 includes only all the attention regions 505 and 506 for which the abnormal state has not been released.
By controlling from 0, the shooting range of the camera 110 is changed. The photographing range of the camera 110 after this change is indicated by “508” in the figure. In addition, FIG.
Is the monitor at this time (for example, monitors 160 and 17).
0) shows a state of screen display.

【0119】上述のように、撮像領域の全体を常に監視
する1台の広視野固定カメラ401と、撮影方向及びズ
ームが制御可能な1台のカメラ110を併せて使用する
構成としても、第1の実施の形態と同様に、異常発生領
域を詳細に観測することができると共に、他の領域をも
確実に観測することができ、したがって、効率のよい監
視システムを構築可能である。また、監視システム50
0では、異常が存在する注目領域の映像信号を拡大し
て、モニタ160、170、及び403により画面表示
するように構成したため、複数の異常が発生した場合で
も、それらを詳細に観察することができる。
As described above, the configuration using one wide-field fixed camera 401 that constantly monitors the entire imaging area and one camera 110 that can control the imaging direction and zoom can be used. As in the embodiment, the abnormality occurrence area can be observed in detail, and other areas can be observed reliably, so that an efficient monitoring system can be constructed. Also, the monitoring system 50
In the case of 0, since the video signal of the attention area where the abnormality exists is enlarged and displayed on the screen by the monitors 160, 170 and 403, even if a plurality of abnormalities occur, they can be observed in detail. it can.

【0120】2.基本処理 以下、図22及び23を用いて、本実施の形態での基本
処理の流れについて説明する。上記図22は、撮像領域
中に異常が検出された場合の処理を示したフローチャー
トであり、上記図23は、既に異常が検出されていた注
目領域の該異常に対する所定の処置が行われることで異
常状態が解除される場合の処理を示したフローチャート
である。これらの処理は、並列実行の形態を採る。尚、
カメラ制御装置130において、例えば、ROM133
には、上記図22及び図23に示すフローチャートに従
った処理プログラムが予め格納されており、この処理プ
ログラムがCPU131により読み出され実行されるこ
とで、次に説明する動作が実施される。
[0120] 2. Basic Processing Hereinafter, the flow of the basic processing in the present embodiment will be described with reference to FIGS. FIG. 22 is a flowchart showing a process when an abnormality is detected in the imaging region. FIG. 23 is a flowchart showing a process in which a predetermined process is performed on the abnormality in the region of interest in which the abnormality has been detected. 9 is a flowchart illustrating a process when an abnormal state is released. These processes take the form of parallel execution. still,
In the camera control device 130, for example, the ROM 133
Has stored therein in advance a processing program according to the flowcharts shown in FIGS. 22 and 23. The processing program is read out and executed by the CPU 131 to perform the operation described below.

【0121】2−1.撮像領域中に異常が検出された場
合(上記図22参照)
2-1. When an abnormality is detected in the imaging area (see FIG. 22 above)

【0122】本処理プログラムが実行されると、先ず、
カメラ制御装置130にて、初期設定として撮像領域中
の監視したいポイント(監視ポイント)が設定される。
この設定方法としては、自動設定、手動設定、予め設定
しておく等、様々な方法が考えられるが特に限定しな
い。設定された監視ポイントは、CPU131により処
理されて、その位置及び範囲的な情報が上記図5に示し
たような表として、RAM132等に保持される。ま
た、カメラ制御装置130にて、異常領域数(監視ポイ
ント数)のカウンタ変数N、及び異常が発生している領
域(監視ポイント)の情報を保持するための異常領域リ
ストが初期化される(ステップS511)。尚、上記異
常領域リストは、現在、どの監視ポイントで異常が発生
しているか等を記憶しておくためのものであり、RAM
132等が用いられる。また、カウンタ変数Nは、上記
異常領域リストに登録されている監視ポイントの数を示
すものであり、これもRAM132等が用いられる。
When this processing program is executed, first,
The camera control device 130 sets a point (monitoring point) to be monitored in the imaging area as an initial setting.
As the setting method, various methods such as automatic setting, manual setting, and presetting can be considered, but are not particularly limited. The set monitoring points are processed by the CPU 131, and their position and range information are stored in the RAM 132 or the like as a table as shown in FIG. Further, the camera control device 130 initializes a counter variable N of the number of abnormal regions (the number of monitoring points) and an abnormal region list for holding information on the region (monitoring points) in which an abnormality has occurred ( Step S511). The abnormal area list is used to store information such as at which monitoring point an abnormality is currently occurring.
132 and the like are used. The counter variable N indicates the number of monitoring points registered in the abnormal area list, and the RAM 132 or the like is used for this.

【0123】次に、広視野固定カメラ401では、上述
したような撮像領域全体の監視(撮影)が行われる。こ
の撮影で得られた映像信号は、カメラ制御装置130に
供給され、このCPU131にて所定の信号処理が行わ
れ、モニタ160、170、及び403の何れかのモニ
タ(ここでは、モニタ160とする)で画面表示され
る。ユーザは、モニタ160の表示画面を観察する(ス
テップS512)。
Next, the wide-view fixed camera 401 monitors (photographs) the entire image pickup area as described above. The video signal obtained by this photographing is supplied to the camera control device 130, and a predetermined signal processing is performed by the CPU 131, and any one of the monitors 160, 170, and 403 (here, the monitor 160 is used). ) Is displayed on the screen. The user observes the display screen of the monitor 160 (Step S512).

【0124】そして、ステップS512、S513、及
びS520による繰り返しループ処理(異常検出ループ
処理)により、異常が発見されるまで、又は、ポインテ
ィングデバイス150やキーボード140によりユーザ
から本処理終了を示すコマンドが入力されるまで、この
状態のまま観察が行われる。
Then, a command indicating the end of this processing is input by the repetition loop processing (abnormality detection loop processing) in steps S512, S513, and S520 until an abnormality is found or from the user using the pointing device 150 or the keyboard 140. Until the observation is performed, observation is performed in this state.

【0125】そこで、ユーザが異常を発見した場合、例
えば、ユーザは、その旨を示すコマンドをポインティン
グデバイス150やキーボード140により入力する。
尚、ここでも第1及び第2の実施の形態と同様に、異常
発見の方法については、人間による観察の他に、画像処
理の技術を用いた自動動体検出等、様々な方法が存在す
るが、特に限定はしない。
Therefore, when the user finds an abnormality, for example, the user inputs a command to that effect using the pointing device 150 or the keyboard 140.
Note that, similarly to the first and second embodiments, there are various methods for finding an abnormality other than human observation, such as automatic moving object detection using image processing technology. There is no particular limitation.

【0126】CPU131は、ポインティングデバイス
150やキーボード140から入力されたコマンドによ
り(或いは、上記の画像処理等により)、異常が発生し
たか否かを判別する(ステップS513)。
The CPU 131 determines whether an error has occurred based on a command input from the pointing device 150 or the keyboard 140 (or by the above-described image processing or the like) (step S513).

【0127】ステップS513の判別の結果、異常が発
生していない場合、CPU131は、ポインティングデ
バイス150やキーボード140により、ユーザから本
処理終了を示すコマンドが入力されたか否かを判別する
(ステップS520)。この判別の結果、本処理終了で
あった場合、本処理終了となり、そうでない場合には、
ステップS512に戻り、再び異常検出ループ処理に復
帰する。
As a result of the determination in step S513, if no abnormality has occurred, the CPU 131 determines whether or not a command indicating the end of this process has been input from the user by the pointing device 150 or the keyboard 140 (step S520). . If the result of this determination is that this processing has ended, this processing ends.
It returns to step S512 and returns to the abnormality detection loop processing again.

【0128】一方、ステップS513の判別の結果、異
常が発生した場合、CPU131は、該異常が発生した
監視ポイントを異常領域リストに追加(登録)し、カウ
ンタ変数Nを1増加する(ステップS514)。
On the other hand, if the result of determination in step S513 indicates that an abnormality has occurred, the CPU 131 adds (registers) the monitoring point where the abnormality has occurred to the abnormal area list and increases the counter variable N by 1 (step S514). .

【0129】そして、CPU131は、カメラ110に
具備されている光学的パラメータ制御部112及び幾何
的パラメータ制御部113に対して、所定の指示(パラ
メータ(pc ,tc ,z))を制御信号として、I/O
回路135を介して与える。この制御信号は、異常領域
リストに基づき登録されている異常が検出されている領
域を全て撮像範囲に含めるための撮影方向及びズーム値
を示す信号である。これを受けたカメラ110は、撮影
方向及びズーム値を変化させて、異常が検出された注目
領域の詳細を撮影する。これにより得られた映像信号
は、カメラ制御装置130に供給される(ステップS5
15)。
Then, the CPU 131 sends a predetermined instruction (parameters (p c , t c , z)) to the optical parameter controller 112 and the geometric parameter controller 113 provided in the camera 110 by a control signal. As I / O
Provided via circuit 135. This control signal is a signal indicating a shooting direction and a zoom value for including in the imaging range all areas where an abnormality registered based on the abnormal area list is detected. The camera 110 receiving this changes the shooting direction and the zoom value, and shoots details of the attention area where the abnormality is detected. The video signal thus obtained is supplied to the camera control device 130 (step S5).
15).

【0130】カメラ制御装置130において、CPU1
31は、カメラ110からの映像信号に対して所定の信
号処理を行い、異常が発生している各領域の拡大映像信
号を生成する。また、CPU131は、広視野固定カメ
ラ402の映像信号が画面表示されれているモニタ16
0を除く、他のモニタ170、403に対して、モニタ
番号1,2を定義すると共に、モニタカウンタ変数nを
初期化する(ステップS516)。尚、上記モニタカウ
ンタ変数nもRAM132等が用いられる。
In the camera control device 130, the CPU 1
Reference numeral 31 performs predetermined signal processing on the video signal from the camera 110, and generates an enlarged video signal of each area where an abnormality has occurred. The CPU 131 also controls the monitor 16 on which the video signal of the wide-view fixed camera 402 is displayed on the screen.
The monitor numbers 1 and 2 are defined for the other monitors 170 and 403 except for 0, and the monitor counter variable n is initialized (step S516). The RAM 132 and the like are also used as the monitor counter variable n.

【0131】そして、ステップS517〜S519によ
る繰り返しループ処理により、異常領域リストに登録さ
れている領域に対応する拡大映像信号を全て別々のモニ
タに出力する。すなわち、CPU131は、異常領域リ
ストに登録されているカウンタ変数Nにより示される領
域の拡大映像信号を、モニタカウンタnにより示される
モニタに供給する。これにより、カウンタ変数Nにより
示される領域の拡大映像信号が、n番目のモニタで画面
表示される(ステップS517)。その後、CPU13
1は、モニタカウンタnを1増加して(ステップS51
8)、該モニタカウンタnがカウンタNを超えたか否か
を判別し(ステップS519)、該モニタカウンタnが
カウンタNを超えるまで、ステップS517及びステッ
プS519を実行する。尚、CPU131で行われる所
定の信号処理は、画面表示する各領域のサイズが、モニ
タの画面サイズの大きさと同じサイズとなるようなデジ
タル画像拡大処理を含む。このデジタル画像拡大処理と
しては、例えば、線形補間法やキュービック補間法等と
呼ばれている画像処理の技術を用いたものが利用可能で
ある。
Then, the enlarged video signals corresponding to the areas registered in the abnormal area list are all output to different monitors by the repetitive loop processing in steps S517 to S519. That is, the CPU 131 supplies the enlarged video signal of the area indicated by the counter variable N registered in the abnormal area list to the monitor indicated by the monitor counter n. As a result, the enlarged video signal in the area indicated by the counter variable N is displayed on the screen on the n-th monitor (step S517). After that, the CPU 13
1 increases the monitor counter n by 1 (step S51).
8) It is determined whether or not the monitor counter n has exceeded the counter N (step S519), and steps S517 and S519 are executed until the monitor counter n exceeds the counter N. Note that the predetermined signal processing performed by the CPU 131 includes digital image enlargement processing such that the size of each area displayed on the screen is the same as the size of the screen of the monitor. As the digital image enlargement processing, for example, an image processing technique called a linear interpolation method or a cubic interpolation method can be used.

【0132】このようにして、全ての異常が発生してい
る領域の画面表示が完了した後、CPU131は、ポイ
ンティングデバイス150やキーボード140により、
ユーザから本処理終了を示すコマンドが入力されたか否
かを判別する(ステップS520)。この判別の結果、
本処理終了であった場合、本処理終了となり、そうでな
い場合には、ステップS512に戻り、再び異常検出ル
ープ処理に復帰する。
After the screen display of the area where all the abnormalities have occurred is completed, the CPU 131 uses the pointing device 150 or the keyboard 140 to display the screen.
It is determined whether or not a command indicating the end of this process has been input from the user (step S520). As a result of this determination,
If the process has ended, the process ends. Otherwise, the process returns to step S512 and returns to the abnormality detection loop process again.

【0133】2−2.既に異常が検出されていた注目領
域に所定の処置が行われることで異常状態が解除される
場合の処理(上記図23参照)
2-2. Processing in a case where an abnormal state is canceled by performing a predetermined treatment on a region of interest in which an abnormality has already been detected (see FIG. 23).

【0134】本処理プログラムが実行されると、上記図
22の処理プログラムの実行により異常が検出された注
目領域の該異常に対して所定の処理が行われる(ステッ
プS521)。そして、ステップS521、S522、
及びS529による繰り返しループ処理により、上記異
常に対する問題が解決されるまで、又は、ポインティン
グデバイス150やキーボード140によりユーザから
本処理終了を示すコマンドが入力されるまで、この状態
のまま問題解決ための上記所定の処理が行われる。
When this processing program is executed, predetermined processing is performed on the abnormality in the attention area where an abnormality is detected by executing the processing program of FIG. 22 (step S521). Then, steps S521, S522,
Until the problem for the above-mentioned abnormality is solved by the repetitive loop processing in S529 and S529, or until a command indicating the end of the present processing is input from the user through the pointing device 150 or the keyboard 140, the above-mentioned state for solving the problem remains unchanged. A predetermined process is performed.

【0135】そこで、ある異常に対して、問題が解決さ
れると、CPU131は、該解決された領域を、異常領
域リストから削除すると共に、カウンタ変数Nを1減少
させる(ステップS523)。尚、このステップS52
3の結果、異常領域リストに何も登録されていない、即
ち異常は発生している領域が存在しない状態となった場
合、図示していないが、CPU131は、カメラ110
を待機状態に設定し、モニタに対して何も出力しない。
そして、そのまま本処理終了となる。
Therefore, when the problem is solved for a certain abnormality, the CPU 131 deletes the solved region from the abnormal region list and decreases the counter variable N by 1 (step S523). This step S52
As a result of No. 3, when nothing is registered in the abnormal area list, that is, when no abnormal area exists, the CPU 131 sets the camera 110 (not shown).
Is set to the standby state and nothing is output to the monitor.
Then, the present processing ends.

【0136】次に、CPU131は、カメラ110に具
備されている光学的パラメータ制御部112及び幾何的
パラメータ制御部113に対して、所定の指示(パラメ
ータ(pc ,tc ,z))を制御信号として、I/O回
路135を介して与える。この制御信号は、異常領域リ
ストに基づき登録されている異常が検出されている残り
の領域を全て撮像範囲に含めるための撮影方向及びズー
ム値を示す信号である。これを受けたカメラ110は、
撮影方向及びズーム値を変化させて、異常が検出された
注目領域の詳細を撮影する。これにより得られた映像信
号は、カメラ制御装置130に供給される(ステップS
524)。
Next, the CPU 131 controls a predetermined instruction (parameters (p c , t c , z)) to the optical parameter controller 112 and the geometric parameter controller 113 provided in the camera 110. The signal is given via the I / O circuit 135. This control signal is a signal indicating a shooting direction and a zoom value for including in the imaging range all the remaining areas in which an abnormality detected based on the abnormal area list is detected. The camera 110 receiving this,
By changing the shooting direction and the zoom value, the details of the attention area where the abnormality is detected are shot. The video signal thus obtained is supplied to the camera control device 130 (Step S
524).

【0137】カメラ制御装置130において、CPU1
31は、カメラ110からの映像信号に対して所定の信
号処理を行い、異常が発生している残りの各領域の拡大
映像信号を生成する。また、CPU131は、モニタカ
ウンタ変数nを初期化する(ステップS525)。
In the camera control device 130, the CPU 1
Reference numeral 31 performs predetermined signal processing on the video signal from the camera 110, and generates an enlarged video signal of each of the remaining areas where an abnormality has occurred. Further, the CPU 131 initializes a monitor counter variable n (step S525).

【0138】そして、上記図22のステップS517〜
S519と同様にして、ステップS526〜S528に
よる繰り返しループ処理により、異常領域リストに登録
されている残りの領域に対応する拡大映像信号を全て別
々のモニタに出力する。
Then, steps S517 to S517 in FIG.
As in step S519, all the enlarged video signals corresponding to the remaining areas registered in the abnormal area list are output to separate monitors by the repetitive loop processing in steps S526 to S528.

【0139】このようにして、異常が発生している残り
の領域全ての画面表示が完了した後、CPU131は、
ポインティングデバイス150やキーボード140によ
り、ユーザから本処理終了を示すコマンドが入力された
か否かを判別する(ステップS529)。この判別の結
果、本処理終了であった場合、本処理終了となり、そう
でない場合には、ステップS521に戻り、再び繰り返
しループ処理に復帰する。
After the screen display of all the remaining areas where the abnormality has occurred is completed, the CPU 131
Using the pointing device 150 or the keyboard 140, it is determined whether or not a command indicating the end of this process has been input by the user (step S529). If the result of this determination is that this processing has ended, this processing ends. Otherwise, processing returns to step S521 and returns to loop processing again.

【0140】尚、上述の第3の実施の形態では、撮像範
囲が可変なカメラ110を1台だけ使用した構成とした
が、これに限らず、第2の実施の形態のような、複数台
のカメラを使用した監視システムにも適用可能である。
この場合、カメラの台数を増やすことにより、各々のカ
メラで撮像すべき異常が発生している領域の数が減少し
撮像範囲が狭まることから、CPU131で行われるデ
ジタル画像拡大処理での拡大率が減少し、より解像度の
高い映像をモニタに出力することが可能となる。また、
撮像範囲が可変なカメラ110を設けずに、広視野固定
カメラ401のみを用いるようにして、簡略化した構成
としても、本発明の目的を達成することができる。この
場合、例えば、広視野固定カメラ401によって撮像し
て得られた映像において、異常が発生していることが検
知された部分に対してディジタル画像拡大処理を実行す
る。
In the third embodiment described above, only one camera 110 having a variable imaging range is used. However, the present invention is not limited to this, and a plurality of cameras 110 as in the second embodiment may be used. It is also applicable to surveillance systems using cameras.
In this case, by increasing the number of cameras, the number of areas where an abnormality to be imaged by each camera has occurred decreases and the imaging range becomes narrower. As a result, it becomes possible to output a higher resolution video to the monitor. Also,
The object of the present invention can be achieved even with a simplified configuration in which only the wide-field fixed camera 401 is used without providing the camera 110 having a variable imaging range. In this case, for example, in an image obtained by imaging with the wide-field fixed camera 401, digital image enlargement processing is executed on a portion where it is detected that an abnormality has occurred.

【0141】また、上述の第2及び第3の実施の形態で
は、1台の広視野固定カメラ401を使用した構成とし
たが、この広視野固定カメラ401は必ずしも必要とし
ない。例えば、広視野固定カメラ401の代わりに、カ
メラ110と同様のカメラを設け、複数のカメラの中か
ら常に撮像領域全体を監視しているカメラを1台だけ決
めておけばよい。或いは、常に撮像領域全体を監視して
カメラをある1台に固定せず、その場の状況に応じて動
的に選択してももちろんよい。
In the above-described second and third embodiments, one wide-field fixed camera 401 is used. However, the wide-field fixed camera 401 is not always required. For example, a camera similar to the camera 110 may be provided instead of the wide-view fixed camera 401, and only one camera that constantly monitors the entire imaging area may be determined from a plurality of cameras. Alternatively, instead of constantly monitoring the entire imaging area and fixing the camera to a certain camera, the camera may be selected dynamically according to the situation at that time.

【0142】また、本発明の目的は、上述した各実施の
形態のホスト及び端末の機能を実現するソフトウェアの
プログラムコードを記憶した記憶媒体を、システム或い
は装置に供給し、そのシステム或いは装置のコンピュー
タ(又はCPUやMPU)が記憶媒体に格納されたプロ
グラムコードを読みだして実行することによっても、達
成されることは言うまでもない。この場合、記憶媒体か
ら読み出されたプログラムコード自体が各実施の形態の
機能を実現することとなり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することとなる。
An object of the present invention is to supply a storage medium storing program codes of software for realizing the functions of the host and the terminal of each of the above-described embodiments to a system or an apparatus, and to provide a computer for the system or the apparatus. Needless to say, this can also be achieved by a program (or CPU or MPU) reading and executing a program code stored in a storage medium. In this case, the program code itself read from the storage medium realizes the function of each embodiment, and the storage medium storing the program code constitutes the present invention.

【0143】プログラムコードを供給するための記憶媒
体としては、ROM、フロッピーディスク、ハードディ
スク、光ディスク、光磁気ディスク、CD−ROM、C
D−R、磁気テープ、不揮発性のメモリカード等を用い
ることができる。
As storage media for supplying the program code, ROM, floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, C
DR, a magnetic tape, a nonvolatile memory card, or the like can be used.

【0144】また、コンピュータが読みだしたプログラ
ムコードを実行することにより、各実施の形態の機能が
実現されるだけでなく、そのプログラムコードの指示に
基づき、コンピュータ上で稼動しているOS等が実際の
処理の一部又は全部を行い、その処理によって各実施の
形態の機能が実現される場合も含まれることは言うまで
もない。
By executing the program code read by the computer, not only the functions of the respective embodiments are realized, but also an OS or the like running on the computer is executed based on the instructions of the program code. It goes without saying that a part or all of the actual processing is performed, and the function of each embodiment is realized by the processing.

【0145】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された拡張機能ボー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張ボードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部又は全部を行い、
その処理によって各実施の形態の機能が実現される場合
も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in an extension function board inserted into the computer or a function extension unit connected to the computer, based on an instruction of the program code, The CPU provided in the function expansion board or function expansion unit performs part or all of the actual processing,
It goes without saying that the functions of the embodiments are realized by the processing.

【0146】[0146]

【発明の効果】以上説明したように本発明では、複数の
注目点が設定された撮像領域を、各撮像手段にて各々の
撮像範囲での撮像を個別に行い、複数の注目点のうち変
化が検出された注目点については、該注目点を含むよう
に、撮像範囲が変更可能な撮像手段の該撮像範囲を制御
するように構成した。これにより、変化のあった箇所に
ついては、撮像領域全体とは別にズームアップして追尾
して画面表示すること等ができ、撮像範囲を常に制御し
ながら効率のよい監視作業等を行うことができる。
As described above, according to the present invention, an image pickup area in which a plurality of points of interest are set is individually imaged in each image pickup area by each image pickup means, and a change among the plurality of points of interest is performed. Is configured to control the imaging range of the imaging means whose imaging range is changeable so as to include the attention point in which is detected. Thus, for a changed portion, it is possible to perform zoom-up and follow-up on the screen separately from the entire imaging area, and to perform efficient monitoring work or the like while constantly controlling the imaging range. .

【0147】具体的には例えば、撮影時の光学的パラメ
ータ(フォーカス、ズーム、シャッタースピード、アイ
リス、ゲイン等のカメラ内部に関するパラメータ)、及
び幾何的パラメータ(パン、チルト等の撮影方向に関す
るパラメータ)をインターフェースとして、外部(制御
手段)から参照及び制御自在とするカメラ(撮像範囲が
制御可能な撮像手段)を2台使用して、複数の注目点
(監視ポイント)が設定された広範囲の撮像領域を、各
々個々の撮像範囲で撮影(監視)する。このとき、各カ
メラの撮像範囲を、注目点の位置(パン角、チルト角、
ズーム値の最大値や最小値)に基づいて、できるたけ同
じ領域を撮像しないように、且つ、全ての注目点を撮像
するように、外部制御する。そして、背景差分法やフレ
ーム間差分法等の画像処理技術により自動的に撮像領域
中の変化(被写体の動き、異常)を検出する。変化が検
出された場合には、所定の評価関数(各カメラの撮像範
囲の位置、変化が検出された注目点の数等をパラメータ
とした関数)を用いて、2台のカメラのうち変化が検出
された注目点を撮像するカメラを決定し、該カメラの撮
像範囲が、その変化が検出された注目点を含む撮像範囲
となるように、他方のカメラの撮像範囲が、該注目点以
外の注目点を含む撮像範囲となるように、外部制御す
る。このとき、変化が生じている注目点が新たに検出さ
れた場合は、先に変化が検出された注目点と併せて、両
方の注目点を含めるように、撮像範囲を変更する制御を
行う。これにより、各カメラからは、変化の生じている
領域の映像と、変化の生じていない他の領域の映像とが
得られ、この結果、変化の生じている領域をズームアッ
プして追尾しながら画面表示すると共に、他の領域をも
画面表示することができる。
More specifically, for example, optical parameters at the time of shooting (parameters related to the inside of the camera such as focus, zoom, shutter speed, iris, and gain) and geometric parameters (parameters related to the shooting direction such as pan and tilt) are set. As an interface, two cameras (imaging means capable of controlling an imaging range) which can be referred to and controlled from the outside (control means) are used, and a wide imaging area in which a plurality of points of interest (monitoring points) are set is used. , Each of which is photographed (monitored) in an individual imaging range. At this time, the imaging range of each camera is changed to the position of the point of interest (pan angle, tilt angle,
Based on the zoom value (maximum value or minimum value), external control is performed so as not to capture the same region as much as possible and to capture all the points of interest. Then, a change (movement of a subject, an abnormality) in the imaging region is automatically detected by an image processing technique such as a background difference method or an inter-frame difference method. When a change is detected, the change of the two cameras is determined using a predetermined evaluation function (a function using the position of the imaging range of each camera, the number of points of interest at which the change is detected, and the like as parameters). The camera that captures the detected point of interest is determined, and the image capturing range of the other camera is determined to be an image capturing range including the point of interest whose change has been detected. External control is performed so that the imaging range includes the point of interest. At this time, if a new point of interest where a change has occurred is detected, control is performed to change the imaging range so as to include both points of interest together with the point of interest where the change has been detected earlier. As a result, from each camera, an image of the area where the change has occurred and an image of another area where the change has not occurred are obtained. As a result, the area where the change has occurred is zoomed up and tracked. In addition to the screen display, other areas can be displayed on the screen.

【0148】また、常に広範囲の撮像領域全体を撮像す
るカメラ(広視野固定カメラ)と、上述のようにして撮
像範囲が制御されるカメラとを使用すれば、撮像領域全
体を画面表示すると共に、変化の生じている領域をズー
ムアップして追尾しながら画面表示することができる。
このとき、変化の生じている注目点が複数あった場合に
は、撮像範囲を制御して得た映像信号において、該注目
点の領域の映像信号に対して各々拡大処理を行い、個々
に画面表示するようにしてもよい。
When a camera (wide-field fixed camera) that constantly captures the entire image capturing area and a camera whose image capturing range is controlled as described above are used, the entire image capturing area can be displayed on the screen. The area on which the change has occurred can be displayed on the screen while zooming up and tracking.
At this time, if there are a plurality of points of interest that have changed, in the video signal obtained by controlling the imaging range, the video signal in the area of the point of interest is subjected to enlargement processing, and the screen It may be displayed.

【0149】したがって、本発明によれば、監視のため
のカメラシステム(監視システム)の撮像領域を常に制
御しながら、効率のよい監視作業を行なうこと等が可能
となる。すなわち、従来の技術で監視システムを構築し
ようとしたときに発生していた、カメラの台数の増加に
伴う経済的な負担が大きくなる問題や、広視野カメラを
用いたために異常の詳細を確認する際に都合が悪いとい
った問題、また、ズームアップ中に他の領域を監視でき
なくなる等といった問題を解消することができ、効率的
に且つ正確な監視作業等を行うことが可能となる。
Therefore, according to the present invention, it is possible to perform efficient monitoring work while always controlling the imaging area of the camera system (monitoring system) for monitoring. In other words, the problems that arise when trying to build a surveillance system using conventional techniques, such as the problem of increasing the economic burden due to the increase in the number of cameras and the details of abnormalities due to the use of a wide-field camera are confirmed. In such a case, it is possible to solve the problem of inconvenience, and the problem of not being able to monitor another area during zoom-up, and to perform efficient and accurate monitoring work.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態において、本発明を適用した
監視システムの構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a monitoring system to which the present invention is applied in a first embodiment.

【図2】上記監視システムにおいて、2台のカメラで撮
像領域を監視している様子を説明するための図である。
FIG. 2 is a diagram illustrating a state in which an imaging area is monitored by two cameras in the monitoring system.

【図3】上記撮像領域に対して、各カメラの撮影方向
(パン方向及びチルト方向)に対応する座標系を説明す
るための図である。
FIG. 3 is a diagram for explaining a coordinate system corresponding to a shooting direction (pan direction and tilt direction) of each camera with respect to the imaging region.

【図4】各カメラのとりうるズーム値と、そのズーム値
に対応する撮影可能な画角を水平画角及び垂直画角で示
した対応表を説明するための図である。
FIG. 4 is a diagram for explaining a correspondence table in which a zoom value that can be taken by each camera and a viewable angle of view corresponding to the zoom value are indicated by a horizontal angle of view and a vertical angle of view.

【図5】上記撮像領域中に点在する監視ポイントの位置
及び範囲の属性(パラメータ)が設定(保持)された表
を説明するための図である。
FIG. 5 is a diagram for explaining a table in which attributes (parameters) of positions and ranges of monitoring points scattered in the imaging region are set (held).

【図6】各カメラが実際に上記撮像領域中において、ど
のような領域を監視(撮影)しているかを説明するため
の図である。
FIG. 6 is a diagram for explaining what area each camera is actually monitoring (photographing) in the imaging area.

【図7】ある別の時点における各カメラの監視の状態を
説明するための図である。
FIG. 7 is a diagram for explaining a monitoring state of each camera at a different time point;

【図8】上記監視システムの基本処理を説明するための
フローチャートである。
FIG. 8 is a flowchart illustrating a basic process of the monitoring system.

【図9】第2の実施の形態において、本発明を適用した
監視システムの構成を示すブロック図である。
FIG. 9 is a block diagram showing a configuration of a monitoring system to which the present invention is applied in the second embodiment.

【図10】上記監視システムにおいて、1台の広視野固
定カメラと2台のカメラで撮像領域を監視している様子
を説明するための図である。
FIG. 10 is a diagram for explaining a state in which an imaging area is monitored by one wide-field fixed camera and two cameras in the monitoring system.

【図11】上記広視野固定カメラの監視中に、ある領域
で異常が検出されたときの状態を説明するための図であ
る。
FIG. 11 is a diagram for explaining a state when an abnormality is detected in a certain area during monitoring by the wide-field fixed camera.

【図12】以前に異常が検出された注目領域の該異常に
対する所定の処置が終了する前に、新たに異常が検出さ
れた状態を説明するための図である。
FIG. 12 is a diagram for explaining a state in which a new abnormality is detected before a predetermined process for the abnormality in the attention area in which the abnormality has been detected previously ends.

【図13】2台のカメラが両方とも待機状態でない場合
に、別の注目領域で新たな異常が検出された状態を説明
するための図である。
FIG. 13 is a diagram illustrating a state where a new abnormality is detected in another region of interest when both cameras are not in a standby state.

【図14】異常が検出された領域の該異常に対して所定
の処置が施され、この異常状態を解除された場合の状態
を説明するための図である。
FIG. 14 is a diagram illustrating a state in which a predetermined treatment is performed on the abnormality in an area where the abnormality is detected, and the abnormal state is released.

【図15】上記監視システムの基本処理において、撮像
領域中に異常が検出された場合の処理を説明するための
フローチャートである。
FIG. 15 is a flowchart illustrating a process when an abnormality is detected in an imaging region in the basic processing of the monitoring system.

【図16】上記監視システムの基本処理において、既に
異常が検出されていた注目領域の該異常に対する所定の
処置が行われることで異常状態が解除される場合の処理
を説明するためのフローチャートである。
FIG. 16 is a flowchart illustrating a process in a case where an abnormal state is canceled by performing a predetermined process for the abnormality in the attention area in which the abnormality has been detected in the basic processing of the monitoring system. .

【図17】第3の実施の形態において、本発明を適用し
た監視システムの構成を示すブロック図である。
FIG. 17 is a block diagram showing a configuration of a monitoring system to which the present invention is applied in the third embodiment.

【図18】上記監視システムにおいて、1台の広視野固
定カメラと1台のカメラで撮像領域を監視している様子
を説明するための図である。
FIG. 18 is a diagram for explaining a state in which an imaging area is monitored by one wide-field fixed camera and one camera in the monitoring system.

【図19】上記広視野固定カメラの監視中に、ある領域
で異常が検出されたときの状態を説明するための図であ
る。
FIG. 19 is a diagram for explaining a state when an abnormality is detected in a certain area during monitoring of the wide-field fixed camera.

【図20】以前に異常が検出された注目領域の該異常に
対する所定の処置が終了する前に、新たに異常が検出さ
れた状態を説明するための図である。
FIG. 20 is a diagram for explaining a state in which a new abnormality is detected before a predetermined process for the abnormality in the attention area in which the abnormality has been detected previously ends.

【図21】異常が検出された注目領域の該異常に対して
所定の処置が行われ、異常状態が解除された状態を説明
するための図である。
FIG. 21 is a diagram for explaining a state in which a predetermined treatment is performed on the abnormality in the attention area in which the abnormality is detected, and the abnormal state is released.

【図22】上記監視システムの基本処理において、撮像
領域中に異常が検出された場合の処理を説明するための
フローチャートである。
FIG. 22 is a flowchart illustrating a process performed when an abnormality is detected in an imaging region in the basic processing of the monitoring system.

【図23】上記監視システムの基本処理において、既に
異常が検出されていた注目領域の該異常に対する所定の
処置が行われることで異常状態が解除される場合の処理
を説明するためのフローチャートである。
FIG. 23 is a flowchart for explaining a process in a case where an abnormal state is canceled by performing a predetermined process for the abnormality in the attention area in which the abnormality has been detected in the basic processing of the monitoring system. .

【符号の説明】[Explanation of symbols]

100 監視システム 110、120 カメラ 111、121 カメラ部(撮像系) 112、122 光学的パラメータ制御部 113、123 幾何的パラメータ制御部 130 カメラ制御装置 131 CPU 132 RAM 133 ROM 134 二次記憶部 135 I/O回路 136 通信I/F回路 137 バス 140 キーボード 150 ポインティングデバイス(マウス) 160、170 モニタ 180 ネットワーク Reference Signs List 100 monitoring system 110, 120 camera 111, 121 camera unit (imaging system) 112, 122 optical parameter control unit 113, 123 geometric parameter control unit 130 camera control unit 131 CPU 132 RAM 133 ROM 134 secondary storage unit 135 I / O circuit 136 Communication I / F circuit 137 Bus 140 Keyboard 150 Pointing device (mouse) 160, 170 Monitor 180 Network

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高木 常好 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 Fターム(参考) 5C054 CF06 CG05 FC01 FC13 FD07 GB01 HA18  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Tomoyoshi Takagi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. F-term (reference) 5C054 CF06 CG05 FC01 FC13 FD07 GB01 HA18

Claims (31)

【特許請求の範囲】[Claims] 【請求項1】 撮像範囲が変更可能な少なくとも1つの
撮像手段を含む複数の撮像手段と、 上記複数の撮像手段により撮像される画像中に複数の注
目点を設定する設定手段と、 上記設定手段により設定された複数の注目点での変化を
検出する検出手段と、 上記検出手段の検出結果に基づいて、上記撮像範囲が変
更可能な撮像手段の該撮像範囲を制御する制御手段とを
備えることを特徴とする撮像装置。
1. A plurality of image pickup means including at least one image pickup means capable of changing an image pickup range; a setting means for setting a plurality of points of interest in an image picked up by the plurality of image pickup means; Detecting means for detecting changes at a plurality of points of interest set by the following; and control means for controlling the imaging range of the imaging means capable of changing the imaging range based on the detection result of the detecting means. An imaging device characterized by the above-mentioned.
【請求項2】 上記複数の撮像手段の全ては、撮像範囲
が変更可能であり、 上記制御手段は、上記検出手段の検出結果に基づいて、
上記複数の撮像手段の各撮像範囲を制御することを特徴
とする請求項1記載の撮像装置。
2. An imaging range of all of the plurality of imaging units is changeable, and the control unit is configured to perform a detection based on a detection result of the detection unit.
2. The imaging apparatus according to claim 1, wherein each imaging range of the plurality of imaging units is controlled.
【請求項3】 上記複数の撮像手段は、複数の注目点の
全てを撮像可能な固定の撮像範囲を有する撮像手段を含
むことを特徴とする請求項1記載の撮像装置。
3. The imaging apparatus according to claim 1, wherein the plurality of imaging units include an imaging unit having a fixed imaging range capable of imaging all of the plurality of points of interest.
【請求項4】 上記制御手段から撮像範囲が制御された
撮像手段で得られた映像信号に対して拡大処理を行う信
号処理手段を更に備えることを特徴とする請求項1記載
の撮像装置。
4. The imaging apparatus according to claim 1, further comprising a signal processing unit that performs an enlargement process on a video signal obtained by the imaging unit whose imaging range is controlled by the control unit.
【請求項5】 上記信号処理手段は、上記映像信号の一
部に対して拡大処理を行うことを特徴とする請求項4記
載の撮像装置。
5. The imaging apparatus according to claim 4, wherein said signal processing means performs enlargement processing on a part of said video signal.
【請求項6】 上記制御手段は、上記撮像範囲が変更可
能な撮像手段を制御するための所定のインターフェース
を有することを特徴とする請求項1記載の撮像装置。
6. The imaging apparatus according to claim 1, wherein said control means has a predetermined interface for controlling said imaging means capable of changing said imaging range.
【請求項7】 上記検出手段は、上記複数の撮像手段に
より得られた映像信号に所定の信号処理を行って上記画
像中の動きを検出することで、上記画像中に設定された
複数の注目点での変化を自動的に検出することを特徴と
する請求項1記載の撮像装置。
7. The method according to claim 1, wherein the detecting unit performs predetermined signal processing on the video signals obtained by the plurality of image capturing units to detect a motion in the image, thereby detecting a plurality of attentions set in the image. 2. The imaging apparatus according to claim 1, wherein a change at a point is automatically detected.
【請求項8】 上記所定の信号処理は、少なくとも背景
差分法又はフレーム間差分法を用いた画像処理を含むこ
とを特徴とする請求項7記載の撮像装置。
8. The imaging apparatus according to claim 7, wherein the predetermined signal processing includes at least image processing using a background difference method or an inter-frame difference method.
【請求項9】 上記制御手段は、撮像範囲を制御する撮
像手段を、予め定められた評価関数を用いて決定するこ
とを特徴とする請求項1記載の撮像装置。
9. The imaging apparatus according to claim 1, wherein said control means determines an imaging means for controlling an imaging range using a predetermined evaluation function.
【請求項10】 上記制御手段は、上記複数の注目点の
位置情報に基づいて、撮像範囲を制御する撮像手段の該
撮像範囲を決定することを特徴とする請求項1記載の撮
像装置。
10. The imaging apparatus according to claim 1, wherein the control means determines the imaging range of the imaging means for controlling the imaging range based on the position information of the plurality of points of interest.
【請求項11】 撮像装置と、該撮像装置での撮像動作
を制御する制御装置と、該撮像装置で撮像して得られた
映像信号を画面表示する表示装置とが接続されてなる撮
像システムであって、 上記撮像装置は、撮像範囲が変更可能な少なくとも1つ
の撮像手段を有し、 上記制御装置は、上記撮像装置により撮像される画像中
に複数の注目点を設定する設定手段と、上記設定手段に
より設定された複数の注目点での変化を検出する検出手
段と、上記検出手段の検出結果に基づいて上記撮像範囲
が変更可能な撮像手段の該撮像範囲を制御する制御手段
とを有し、 上記表示装置は、上記撮像装置で撮像して得られた各映
像信号を個々に画面表示することを特徴とする撮像シス
テム。
11. An imaging system comprising an imaging device, a control device for controlling an imaging operation of the imaging device, and a display device for displaying a video signal obtained by imaging with the imaging device on a screen. The imaging device has at least one imaging unit capable of changing an imaging range, the control device is a setting unit that sets a plurality of points of interest in an image captured by the imaging device, Detecting means for detecting changes at a plurality of points of interest set by the setting means; and control means for controlling the imaging range of the imaging means capable of changing the imaging range based on the detection result of the detecting means. An image pickup system, wherein the display device individually displays each video signal obtained by imaging with the image pickup device on a screen.
【請求項12】 上記撮像装置が有する複数の撮像手段
の全ては、撮像範囲が変更可能であり、 上記制御手段は、上記検出手段の検出結果に基づいて、
上記複数の撮像手段の各撮像範囲を制御することを特徴
とする請求項11記載の撮像システム。
12. An imaging range of all of a plurality of imaging units included in the imaging device can be changed, and the control unit, based on a detection result of the detection unit,
The imaging system according to claim 11, wherein each imaging range of said plurality of imaging means is controlled.
【請求項13】 上記撮像装置は、複数の注目点の全て
を撮像可能な固定の撮像範囲を有する撮像手段を含むこ
とを特徴とする請求項11記載の撮像システム。
13. The imaging system according to claim 11, wherein the imaging device includes an imaging unit having a fixed imaging range capable of imaging all of the plurality of points of interest.
【請求項14】 上記制御装置は、上記制御手段により
撮像範囲を制御した撮像手段で得られた映像信号に対し
て拡大処理を行う信号処理手段を更に有することを特徴
とする請求項11記載の撮像システム。
14. The control device according to claim 11, wherein the control device further includes a signal processing unit that performs an enlargement process on a video signal obtained by the imaging unit whose imaging range is controlled by the control unit. Imaging system.
【請求項15】 上記信号処理手段は、上記映像信号の
一部に対して拡大処理を行うことを特徴とする請求項1
4記載の撮像システム。
15. The signal processing device according to claim 1, wherein the signal processing unit performs an enlargement process on a part of the video signal.
5. The imaging system according to 4.
【請求項16】 上記制御手段は、上記撮像範囲が変更
可能な撮像手段を制御するための所定のインターフェー
スを有することを特徴とする請求項11記載の撮像シス
テム。
16. The imaging system according to claim 11, wherein said control means has a predetermined interface for controlling said imaging means capable of changing said imaging range.
【請求項17】 上記検出手段は、上記撮像装置により
得られた映像信号に所定の信号処理を行って上記画像中
の動きを検出することで、上記画像中に設定された複数
の注目点での変化を自動的に検出することを特徴とする
請求項11記載の撮像システム。
17. The method according to claim 17, wherein the detecting unit performs predetermined signal processing on the video signal obtained by the imaging device to detect a motion in the image, thereby detecting a plurality of points of interest set in the image. 12. The imaging system according to claim 11, wherein a change in the image is automatically detected.
【請求項18】 上記所定の信号処理は、少なくとも背
景差分法又はフレーム間差分法を用いた画像処理を含む
ことを特徴とする請求項17記載の撮像システム。
18. The imaging system according to claim 17, wherein the predetermined signal processing includes at least image processing using a background difference method or an inter-frame difference method.
【請求項19】 上記制御手段は、撮像範囲を制御する
撮像手段を、予め定められた評価関数を用いて決定する
ことを特徴とする請求項11記載の撮像システム。
19. The imaging system according to claim 11, wherein said control means determines an imaging means for controlling an imaging range by using a predetermined evaluation function.
【請求項20】 上記制御手段は、上記複数の注目点の
位置情報に基づいて、撮像範囲を制御する撮像手段の該
撮像範囲を決定することを特徴とする請求項11記載の
撮像システム。
20. The imaging system according to claim 11, wherein said control means determines an imaging range of an imaging means for controlling an imaging range based on position information of said plurality of points of interest.
【請求項21】 撮像範囲が変更可能な少なくとも1つ
のカメラを含む複数のカメラにより任意の画像を撮像す
るための撮像制御方法であって、 上記画像中に複数の注目点を設定する設定ステップと、 上記設定ステップにより設定された複数の注目点での変
化を検出する検出ステップと、 上記検出ステップでの検出結果に基づいて、上記撮像範
囲が変更可能なカメラの該撮像範囲を制御する制御ステ
ップとを含むことを特徴とする撮像制御方法。
21. An imaging control method for capturing an arbitrary image by a plurality of cameras including at least one camera whose imaging range is changeable, comprising: a setting step of setting a plurality of points of interest in the image. A detection step of detecting a change at a plurality of points of interest set by the setting step; and a control step of controlling the imaging range of the camera capable of changing the imaging range based on a detection result in the detection step. And an imaging control method.
【請求項22】 上記複数のカメラの全ては、撮像範囲
が変更可能であり、 上記制御ステップは、上記検出ステップでの検出結果に
基づいて、上記複数のカメラの各撮像範囲を制御するこ
とを特徴とする請求項21記載の撮像制御方法。
22. An imaging range of each of the plurality of cameras can be changed, and the control step controls each imaging range of the plurality of cameras based on a detection result in the detection step. 22. The imaging control method according to claim 21, wherein:
【請求項23】 上記複数のカメラは、複数の注目点の
全てを撮像可能な固定の撮像範囲を有するカメラを含む
ことを特徴とする請求項21記載の撮像制御方法。
23. The imaging control method according to claim 21, wherein the plurality of cameras include a camera having a fixed imaging range capable of imaging all of a plurality of points of interest.
【請求項24】 上記制御ステップにより撮像範囲が制
御されたカメラで得られた映像信号に対して拡大処理を
行う信号処理ステップを更に含むことを特徴とする請求
項21記載の撮像制御方法。
24. The imaging control method according to claim 21, further comprising a signal processing step of performing enlargement processing on a video signal obtained by a camera whose imaging range is controlled by said control step.
【請求項25】 上記信号処理ステップは、上記映像信
号の一部に対して拡大処理を行うステップを含むことを
特徴とする請求項24記載の撮像制御方法。
25. The imaging control method according to claim 24, wherein said signal processing step includes a step of performing enlargement processing on a part of said video signal.
【請求項26】 上記制御ステップは、上記撮像範囲が
変更可能なカメラを制御するための所定のインターフェ
ースを用いて、該撮像範囲を制御するステップを含むこ
とを特徴とする請求項21記載の撮像制御方法。
26. The imaging method according to claim 21, wherein the control step includes a step of controlling the imaging range using a predetermined interface for controlling the camera whose imaging range is changeable. Control method.
【請求項27】 上記検出ステップは、上記複数のカメ
ラにより得られた映像信号に所定の信号処理を行って上
記画像中の動きを検出することにより、上記画像中に設
定された複数の注目点での変化を自動的に検出するステ
ップを含むことを特徴とする請求項21記載の撮像制御
方法。
27. The method according to claim 27, wherein the detecting step performs a predetermined signal processing on the video signals obtained by the plurality of cameras to detect a motion in the image, thereby detecting a plurality of points of interest set in the image. 22. The imaging control method according to claim 21, further comprising a step of automatically detecting a change in the image.
【請求項28】 上記所定の信号処理は、少なくとも背
景差分法又はフレーム間差分法を用いた画像処理を含む
ことを特徴とする請求項27記載の撮像制御方法。
28. The imaging control method according to claim 27, wherein said predetermined signal processing includes image processing using at least a background difference method or an inter-frame difference method.
【請求項29】 上記制御ステップは、撮像範囲を制御
するカメラを、予め定められた評価関数を用いて決定す
るステップを含むことを特徴とする請求項21記載の撮
像制御方法。
29. The imaging control method according to claim 21, wherein said control step includes a step of determining a camera for controlling an imaging range by using a predetermined evaluation function.
【請求項30】 上記制御ステップは、上記複数の注目
点の位置情報に基づいて、撮像範囲を制御するカメラの
該撮像範囲を決定するステップを含むことを特徴とする
請求項21記載の撮像制御方法。
30. The imaging control according to claim 21, wherein the control step includes a step of determining an imaging range of a camera that controls the imaging range based on positional information of the plurality of points of interest. Method.
【請求項31】 請求項21〜30の何れかに記載の撮
像制御方法の処理ステップをコンピュータが読出可能に
格納したことを特徴とする記憶媒体。
31. A storage medium characterized by storing the processing steps of the imaging control method according to claim 21 in a computer readable manner.
JP25076498A 1998-09-04 1998-09-04 Imaging system, imaging control device, imaging control method, and storage medium Expired - Lifetime JP3710297B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25076498A JP3710297B2 (en) 1998-09-04 1998-09-04 Imaging system, imaging control device, imaging control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25076498A JP3710297B2 (en) 1998-09-04 1998-09-04 Imaging system, imaging control device, imaging control method, and storage medium

Publications (2)

Publication Number Publication Date
JP2000083243A true JP2000083243A (en) 2000-03-21
JP3710297B2 JP3710297B2 (en) 2005-10-26

Family

ID=17212703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25076498A Expired - Lifetime JP3710297B2 (en) 1998-09-04 1998-09-04 Imaging system, imaging control device, imaging control method, and storage medium

Country Status (1)

Country Link
JP (1) JP3710297B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003116139A (en) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd Video distribution server and video reception client system
US6812835B2 (en) 2000-02-28 2004-11-02 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
WO2005076621A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Monitoring system and camera terminal
WO2005076620A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Detection range adjustment device
JP2006304342A (en) * 2004-02-03 2006-11-02 Matsushita Electric Ind Co Ltd Detection range adjustment device
WO2006132029A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Monitoring system, monitoring method, and camera terminal
US7257235B2 (en) 2002-02-28 2007-08-14 Minolta Co., Ltd. Monitoring apparatus, monitoring method, monitoring program and monitoring program recorded recording medium readable by computer
US7787013B2 (en) 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
WO2012053623A1 (en) * 2010-10-22 2012-04-26 Murakami Naoyuki Method for operating numerical control apparatus using television camera monitor screen
JP2018510398A (en) * 2015-02-17 2018-04-12 日本電気株式会社 Event-related data monitoring system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6812835B2 (en) 2000-02-28 2004-11-02 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
JP2003116139A (en) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd Video distribution server and video reception client system
US7257235B2 (en) 2002-02-28 2007-08-14 Minolta Co., Ltd. Monitoring apparatus, monitoring method, monitoring program and monitoring program recorded recording medium readable by computer
US7787013B2 (en) 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
WO2005076621A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Monitoring system and camera terminal
WO2005076620A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Detection range adjustment device
JP2006304342A (en) * 2004-02-03 2006-11-02 Matsushita Electric Ind Co Ltd Detection range adjustment device
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
JPWO2005076621A1 (en) * 2004-02-03 2008-01-10 松下電器産業株式会社 Surveillance system and camera terminal
JPWO2006132029A1 (en) * 2005-06-07 2009-01-08 松下電器産業株式会社 Surveillance system, surveillance method, and camera terminal
WO2006132029A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Monitoring system, monitoring method, and camera terminal
US7929016B2 (en) 2005-06-07 2011-04-19 Panasonic Corporation Monitoring system, monitoring method and camera terminal
WO2012053623A1 (en) * 2010-10-22 2012-04-26 Murakami Naoyuki Method for operating numerical control apparatus using television camera monitor screen
JP2018510398A (en) * 2015-02-17 2018-04-12 日本電気株式会社 Event-related data monitoring system
JP2020102238A (en) * 2015-02-17 2020-07-02 日本電気株式会社 Event monitoring system, event monitoring method, and event monitoring program
US10970995B2 (en) 2015-02-17 2021-04-06 Nec Corporation System for monitoring event related data
JP2022133344A (en) * 2015-02-17 2022-09-13 日本電気株式会社 Monitoring system, monitoring method, and program
US11670159B2 (en) 2015-02-17 2023-06-06 Nec Corporation System for monitoring event related data
JP7420169B2 (en) 2015-02-17 2024-01-23 日本電気株式会社 Monitoring system, monitoring method and program

Also Published As

Publication number Publication date
JP3710297B2 (en) 2005-10-26

Similar Documents

Publication Publication Date Title
JP5810296B2 (en) Image display device and image display method
JP2007189503A (en) Terminal device and program
EP2117225A1 (en) Automatic tracking device and automatic tracking method
JP2018107583A (en) Information processing device, information processing method and program
JP7197981B2 (en) Camera, terminal device, camera control method, terminal device control method, and program
CN110177246B (en) Information processing apparatus, image pickup apparatus, information processing method, and storage medium
JP2000083243A (en) Image pickup device, image pickup system, imaging control method and storage medium
WO2014027567A1 (en) Image processing system, image processing method, and program
JP2001358984A (en) Moving picture processing camera
EP2684349A1 (en) Video processing apparatus, video processing system, and video processing method
JP5553109B2 (en) Image processing apparatus and image processing program
US8836820B2 (en) Image capturing apparatus having a control unit controlling switching unit such that first image is displayed in case a predetermined motion is detected and a composite image is displayed in case motion is not detected, control method thereof, and storage medium
WO2016152317A1 (en) Video processing system, video processing method and video processing program
WO2016152316A1 (en) Surveillance system, surveillance method, surveillance device, and surveillance device control program
JP5360403B2 (en) Mobile imaging device
EP2028841A2 (en) Camera control method, camera control device, camera control program, and camera system
EP2942945B1 (en) System and method of precision remote ptz control of ip cameras
JP2012119971A (en) Monitoring video display unit
JP4018273B2 (en) Video processing apparatus, control method therefor, and storage medium
JP4777486B2 (en) Camera control system and method, and storage medium storing operation processing program thereof
JP5744527B2 (en) Imaging apparatus and control method thereof
JP5241880B2 (en) Camera control system and method, and storage medium storing operation processing program thereof
WO2012099174A1 (en) Autofocus system
EP2187625A1 (en) Autofocus system
JP2009141606A (en) Image processing system, video processing apparatus, and image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050809

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

EXPY Cancellation because of completion of term