JPH06253312A - Space recognition device - Google Patents

Space recognition device

Info

Publication number
JPH06253312A
JPH06253312A JP5655793A JP5655793A JPH06253312A JP H06253312 A JPH06253312 A JP H06253312A JP 5655793 A JP5655793 A JP 5655793A JP 5655793 A JP5655793 A JP 5655793A JP H06253312 A JPH06253312 A JP H06253312A
Authority
JP
Japan
Prior art keywords
monitoring
image
points
point
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5655793A
Other languages
Japanese (ja)
Inventor
Masaharu Watanabe
正治 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHIGUMATSUKUSU KK
Sigmax Ltd
Original Assignee
SHIGUMATSUKUSU KK
Sigmax Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHIGUMATSUKUSU KK, Sigmax Ltd filed Critical SHIGUMATSUKUSU KK
Priority to JP5655793A priority Critical patent/JPH06253312A/en
Publication of JPH06253312A publication Critical patent/JPH06253312A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE:To securely discriminate and recognize changes of plural objects to be monitored in a depth direction by representing the three dimensional coordinate position of an abnormality occurrence point in a monitor space as an internal or external ratio to the segments connecting two monitor points in the monitor space. CONSTITUTION:While a monitor image PIC1 is obtained by a 1st television camera TV1, an object to be monitored in the monitor space monitored through the image PIC1 is picked up by a 2nd television camera TV2 arranged at a different position from the camera TV1 to obtain a 2nd monitor image PIC2. In this case, two of plural reference points are merely selected by using plane image information obtained from the images PIC1 and PIC2 obtained from the cameras TV1 and TV2 and a point is specified on the segments between the two reference points by internally dividing two segments at the same ratio to specifies the object to be monitored in the depth direction of the image PIC1 and PIC2, thereby securely deciding their changes.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は空間認識装置に関し、特
に所定の監視空間について、物体の有無の変化、状態の
変化、正常ではない状態の発生など(以下これを異常と
呼ぶ)を監視する空間監視装置に適用し得るものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a space recognition device, and in particular, monitors a predetermined monitoring space for changes in the presence or absence of an object, changes in the state, occurrence of an abnormal state (hereinafter referred to as abnormality). It is applicable to a space monitoring device.

【0002】[0002]

【従来の技術】従来この種の空間認識装置として、2台
のカメラを利用して監視視野内の特定の位置の異常を検
出するようにした空間監視装置が提案されている(特開
昭60-264181 号)。
2. Description of the Related Art Conventionally, as this type of space recognizing device, a space monitoring device has been proposed in which two cameras are used to detect an abnormality at a specific position within a monitoring field of view (Japanese Patent Laid-Open No. Sho 60). -264181).

【0003】この空間監視装置は、1台のテレビジヨン
カメラを用いて監視視野内の変化を監視しようとする
と、テレビジヨンカメラによつて撮像された監視映像が
基本的に平面的な画像を提供するものであるので、立体
的な位置にある被監視対象の変化を監視できない点を考
慮して、互いに異なる位置に配設された2台のテレビジ
ヨンカメラから得られる2つの監視画像を組合せてそれ
ぞれの監視画像における奥行き方向の複数の位置にある
被監視対象の変化を認識できるように構成されている。
In this space monitoring device, when an attempt is made to monitor a change in the field of view by using one television camera, the surveillance image picked up by the television camera provides a basically flat image. Therefore, in consideration of the fact that the change of the monitored object in the three-dimensional position cannot be monitored, the two monitoring images obtained from the two television cameras arranged at different positions are combined. It is configured to be able to recognize changes in the monitored object at a plurality of positions in the depth direction in each monitoring image.

【0004】[0004]

【発明が解決しようとする課題】このように3次元空間
において、2台のテレビジヨンカメラから得られる監視
画像においてそれぞれ奥行き方向に多数の被監視対象が
あつて各監視画像においては複数の被監視対象の映像部
分が互いに重なり合うように見えるような場合にも、こ
れをできるだけ高い精度で判別できるようにすることが
望ましい。
As described above, in the three-dimensional space, a large number of objects to be monitored are provided in the depth direction in the monitoring images obtained from the two television cameras, and a plurality of objects to be monitored in each monitoring image. Even when the target image portions appear to overlap each other, it is desirable to be able to determine this with the highest possible accuracy.

【0005】本発明は以上の点を考慮してなされたもの
で、奥行き方向にある複数の被監視対象の変化をそれぞ
れ確実に区別して認識できるようにした空間認識装置を
提案しようとするものである。
The present invention has been made in consideration of the above points, and is intended to propose a spatial recognition device capable of surely distinguishing and recognizing changes in a plurality of monitored objects in the depth direction. is there.

【0006】[0006]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、監視すべき監視空間を互いに異な
る監視位置において撮像する第1並びに第2の撮像手段
TV1、TV2と、第1並びに第2の撮像手段TV1、
TV2から得られる映像出力VD1、VD2に基づいて
それぞれ平面的な座標上に監視空間の被写体映像を表示
してなる第1並びに第2の監視画像PIC1、PIC2
の画像データを形成する画像処理手段16と、監視空間
内にある2つの被写体部分M1〜M4を表す被写体映像
部分の第1並びに第2の監視画像PIC1、PIC2上
の座標値を第1及び第2の基準点P11及びP12並び
に第3及び第4の基準点P21、P22の位置データと
して形成する基準点位置データ形成手段14、SP8
と、第1の監視画像PIC1の画像データについて、当
該第1の監視画像PIC1において第1及び第2の基準
点P11及びP12間を通る第1の直線L1上に異常が
発生したとき、当該異常が発生した第1の検出点P13
の座標値(x13、y13)を検出する第1の異常判定
手段14、SP9と、第2の監視画像PIC2における
第3及び第4の基準点P21及びP22間を通る第2の
直線L2上において、第1の直線L1の第1及び第2の
基準点P11及びP12間の線分に対する第1の異常発
生点P13の内分比又は外分比と同一の内分比又は外分
比を有する第2の検出点P23の座標値(x23、y2
3)を検出し、当該第2の検出点P23の座標値(x2
3、y23)に対応する第2の監視画像PIC2の画像
データに異常が発生したか否かを判定する第2の異常判
定手段14、SP11、SP12と、第2の異常判定手
段14、SP11、SP12によつて異常の発生が検出
されたとき、監視空間における2つの被写体部分を通る
直線上の第1並びに第2の検出点P13及びP23によ
つて表される位置にある被写体部分に異常が発生したと
判定する異常発生判定手段14、SP13とを設けるよ
うにする。
In order to solve such a problem, in the present invention, first and second image pickup means TV1 and TV2 for picking up images of the monitoring spaces to be monitored at different monitoring positions, and the first and second image pickup means. 2 image pickup means TV1,
First and second monitoring images PIC1 and PIC2 in which subject images in the monitoring space are displayed on two-dimensional coordinates based on the image outputs VD1 and VD2 obtained from the TV2.
Image processing means 16 for forming the image data of the first and second object images M1 to M4 in the monitoring space, and the first and second coordinate values on the first and second monitoring images PIC1 and PIC2. Reference point position data forming means 14, SP8 for forming the position data of the two reference points P11 and P12 and the third and fourth reference points P21 and P22.
Regarding the image data of the first monitoring image PIC1, when an abnormality occurs on the first straight line L1 passing between the first and second reference points P11 and P12 in the first monitoring image PIC1, the abnormality is detected. 1st detection point P13 at which
On the second straight line L2 passing between the first and second abnormality determination means 14 and SP9 for detecting the coordinate values (x13, y13) of the second and the third and fourth reference points P21 and P22 in the second monitoring image PIC2. , Has the same internal division ratio or external division ratio as the internal division ratio or external division ratio of the first abnormality occurrence point P13 to the line segment between the first and second reference points P11 and P12 of the first straight line L1. The coordinate value of the second detection point P23 (x23, y2
3) is detected and the coordinate value (x2) of the second detection point P23 is detected.
(3, y23), second abnormality determining means 14, SP11, SP12 for determining whether or not an abnormality has occurred in the image data of the second monitoring image PIC2, and second abnormality determining means 14, SP11, When the occurrence of an abnormality is detected by SP12, the abnormality is detected in the subject portion at the position represented by the first and second detection points P13 and P23 on the straight line passing through the two subject portions in the monitoring space. An abnormality occurrence determination means 14 and SP13 for determining that an abnormality has occurred are provided.

【0007】[0007]

【作用】監視すべき監視空間内にある2つの被写体部分
を通る直線上の点に異常が発生した場合、当該監視空間
内の異常発生点の3次元の座標位置は、監視空間内の2
つの監視点を結ぶ線分に対する内分比又は外分比として
表すことができる。このことは、第1並びに第2の監視
空間PIC1、PIC2において、それぞれ監視空間内
の2つの基準点に対応する基準点P11、P12並びに
P21、P22間の線分について、監視空間における内
分比(又は外分比)と同じ内分比(又は外分比)の点に
対応する異常発生点が生ずる。
When an abnormality occurs at a point on a straight line passing through two subject parts in the surveillance space to be monitored, the three-dimensional coordinate position of the abnormality occurrence point in the surveillance space is 2 in the surveillance space.
It can be expressed as an internal division ratio or an external division ratio with respect to a line segment connecting two monitoring points. This means that in the first and second monitoring spaces PIC1 and PIC2, the line segment between the reference points P11, P12 and P21, P22 corresponding to the two reference points in the monitoring space, respectively, is the internal division ratio in the monitoring space. An abnormal point corresponding to the point of the same internal division ratio (or external division ratio) as (or external division ratio) occurs.

【0008】本発明においてはこの関係を利用して、第
1の監視画像PIC1において2つの基準点P11及び
P12を通る直線L1上に異常が発生した点があれば、
第1及び第2の基準点P11及びP12間の線分L1に
対する内分比(又は外分比)として当該異常の発生点P
13の位置を求め、この内分比(又は外分比)と同じ内
分比(又は外分比)を有する点P23を、第2の監視画
像PIC2において第3及び第4の基準点P21及びP
22を通る直線上について特定してその異常の有無を判
定する。
In the present invention, by utilizing this relationship, if there is a point on the straight line L1 passing through the two reference points P11 and P12 in the first monitoring image PIC1, there is an abnormality,
The occurrence point P of the abnormality is an internal division ratio (or an external division ratio) with respect to the line segment L1 between the first and second reference points P11 and P12.
The position P13 having the same internal division ratio (or external division ratio) as this internal division ratio (or external division ratio) is determined to be the third and fourth reference points P21 in the second monitoring image PIC2. P
A straight line passing through 22 is specified and the presence or absence of the abnormality is determined.

【0009】かくして第1の監視画像PIC1並びに第
2の監視画像PIC2における対応する監視点P13、
P23の画像データに異常が発生したとき、当該第1及
び第2の異常発生点に対応する監視空間内の監視点に異
常が発生したと判定することができる。
Thus, corresponding monitoring points P13 in the first monitoring image PIC1 and the second monitoring image PIC2,
When an abnormality occurs in the image data of P23, it can be determined that an abnormality has occurred at the monitoring point in the monitoring space corresponding to the first and second abnormality occurrence points.

【0010】かくして2つのテレビジヨンカメラTV1
並びにTV2の映像出力VD1、VD2によつて得られ
る平面的な画像データに基づいて、監視空間内の奥行き
方向の監視点における異常の発生を確実に認識すること
ができる。
Thus, two television cameras TV1
In addition, based on the planar image data obtained by the video outputs VD1 and VD2 of the TV 2, it is possible to reliably recognize the occurrence of an abnormality at the monitoring point in the depth direction within the monitoring space.

【0011】[0011]

【実施例】以下図面について、本発明による空間認識装
置の一実施例を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the space recognition device according to the present invention will be described in detail below with reference to the drawings.

【0012】(1)原理的構成 図1に示すように、第1のテレビジヨンカメラTV1に
よつて監視画像PIC1を得ている状態において、監視
画像PIC1によつて監視されている監視空間内の被監
視対象を当該第1のテレビジヨンカメラTV1とは異な
る位置に配設された第2のテレビジヨンカメラTV2に
よつて撮像して第2の監視画像PIC2を得る場合を考
える。
(1) Principle Configuration As shown in FIG. 1, in a state in which the monitoring image PIC1 is obtained by the first television camera TV1, a monitoring space in the monitoring space monitored by the monitoring image PIC1 is displayed. Consider a case where the monitored object is imaged by the second television camera TV2 arranged at a position different from that of the first television camera TV1 to obtain the second monitoring image PIC2.

【0013】この場合、第1のテレビジヨンカメラTV
1によつて得られる監視画像PIC1には、複数例えば
4つの基準点K1j(j=1、2……J、J=4)が監
視空間内にある4つの被監視対象Mj(j=1、2……
J、J=4)の映像部分上に設定され、かくして基準点
K1j(j=1、2……J)の座標値によつて被監対象
点Mj(j=1、2……J)の映像部分の座標値を表す
ようになされている。
In this case, the first television camera TV
1. In the monitoring image PIC1 obtained by the method 1, a plurality of, for example, four reference points K1j (j = 1, 2 ... J, J = 4) are four monitored objects Mj (j = 1, 2 ……
J, J = 4) is set on the image portion, and thus the monitored point Mj (j = 1, 2 ... J) is determined by the coordinate value of the reference point K1j (j = 1, 2 ... J). It is designed to represent the coordinate value of the video portion.

【0014】実際上監視空間内にある被監視対象Mj
(j=1、2……J)から第1のテレビジヨンカメラT
V1に到達する映像光は当該第1のテレビジヨンカメラ
TV1のレンズの光軸上の焦点位置を通つて撮像素子
(例えばCCD、チヤージ・カツプルド・デバイスでな
る)の受光面に入射し、当該入射位置が監視画像PIC
1上のxy座標値によつて特定できることになる。
The monitored object Mj actually in the monitored space
(J = 1, 2, ... J) to the first television camera T
The image light reaching V1 passes through the focal position on the optical axis of the lens of the first television camera TV1 and is incident on the light receiving surface of the image pickup device (for example, CCD, charge coupled device), and the incident light. Position is surveillance image PIC
It can be specified by the xy coordinate value on 1.

【0015】このようにして、第1のテレビジヨンカメ
ラTV1とは異なる位置に配設されている第2のテレビ
ジヨンカメラTV2によつて監視空間を撮像して得られ
る監視画像PIC2は、監視空間に対する視線角度が第
1のテレビジヨンカメラTV1と異なることを除いて監
視画像PIC1と同様に被監視対象Mj(j=1、2…
…J)の映像を含む監視画像PIC2が得られ、これに
より監視点K2j(j=1、2……J)の映出位置が第
2の監視画像PIC2上のxy座標値によつて特定でき
ることになる。
In this way, the surveillance image PIC2 obtained by picking up the surveillance space by the second television camera TV2 arranged at a position different from the first television camera TV1 is the surveillance space. Is the same as the monitoring image PIC1 except that the line-of-sight angle to the first television camera TV1 is different.
A monitoring image PIC2 including the image of J) is obtained, and the projection position of the monitoring point K2j (j = 1, 2 ... J) can be specified by the xy coordinate values on the second monitoring image PIC2. become.

【0016】ところでこのようにして第1並びに第2の
監視画像PIC1並びにPIC2上において基準点K1
j(j=1、2……J)並びにK2j(j=1、2……
J)が設定された被監視対象Mj(j=1、2……J)
の監視空間内の位置は、それぞれ第1並びに第2のテレ
ビジヨンカメラTV並びにTV2からの距離に基づいて
異なる奥行きをもつているので、各基準点K1j(j=
1、2……K)並びにK2j(j=1、2……K)のx
y座標値は実質上当該奥行き情報をもつている。
By the way, the reference point K1 is thus set on the first and second monitoring images PIC1 and PIC2.
j (j = 1, 2 ... J) and K2j (j = 1, 2 ... J).
J) set monitored object Mj (j = 1, 2 ... J)
Since the positions in the monitoring space have different depths based on the distances from the first and second television cameras TV and TV2, respectively, each reference point K1j (j =
X of 1,2 ... K) and K2j (j = 1,2 ... K)
The y coordinate value substantially has the depth information.

【0017】本発明による空間認識装置は、各監視画像
PIC1並びにPIC2上の座標値に含まれている奥行
き情報を利用して、監視画像PIC1並びにPIC2上
の複数の基準点を通る線及び面上にある点を監視点とし
て当該複数の基準点間を結ぶ線分に対する内分比又は外
分比を用いて指定することにより、監視空間内の奥行方
向の任意の点における明るさ情報の変化を抽出できるよ
うにする。
The space recognition apparatus according to the present invention utilizes the depth information included in the coordinate values on each of the monitoring images PIC1 and PIC2 to draw lines and planes passing through a plurality of reference points on the monitoring images PIC1 and PIC2. By designating a point in the monitor point as the monitoring point using the internal division ratio or external division ratio for the line segment connecting the reference points, the change in the brightness information at any point in the depth direction in the monitoring space can be changed. Allow extraction.

【0018】(1−2)移転換の位置の指定 第1並びに第2のテレビジヨンカメラTV1並びにTV
2から得られる監視画像PIC1(図2)並びにPIC
2(図3)において、基準点K1j並びにK2j(j=
1、2……J)のうちの2点P11及びP12並びにP
21及びP22をそれぞれ監視点P13並びにP23を
指定するための基準情報として特定し、それぞれ2つの
基準点P11及びP12並びにP21及びP22間を結
ぶ直線L1並びにL2をそれぞれm1対n1並びにm2
対n2に内分した点を監視点P13並びにP23として
指定する。
(1-2) Designation of the position of transfer First and second television cameras TV1 and TV
2 PIC1 (Fig. 2) and PIC
2 (FIG. 3), reference points K1j and K2j (j =
Two points P1, P12 and P of 1, 2 ... J)
21 and P22 are specified as reference information for designating the monitoring points P13 and P23, respectively, and straight lines L1 and L2 connecting the two reference points P11 and P12 and P21 and P22 are respectively m1 to n1 and m2.
Points internally divided into the pair n2 are designated as monitoring points P13 and P23.

【0019】ここで第1並びに第2の監視画像PIC1
並びにPIC2において第1の基準点P11並びにP2
1として特定した被監視対象が互いに同じであり、かつ
第2の基準点P12並びにP22として特定した被監視
対象が互いに同じであれば、基準点P11及び監視点P
13間の距離と監視点P13及び基準点P12間の距離
の比(すなわちm1:n1)は、第2の監視画像PIC
2において第1の基準点P21から監視点P23までの
距離と監視点P23から第2の監視点P22までの距離
の比(すなわちm2:n2)と等しくなり、
Here, the first and second monitoring images PIC1
And PIC2 at the first reference points P11 and P2
If the monitored objects specified as 1 are the same as each other and the monitored objects specified as the second reference points P12 and P22 are the same as each other, the reference point P11 and the monitoring point P
The ratio of the distance between 13 and the distance between the monitoring point P13 and the reference point P12 (that is, m1: n1) is the second monitoring image PIC.
2, the ratio of the distance from the first reference point P21 to the monitoring point P23 and the distance from the monitoring point P23 to the second monitoring point P22 (that is, m2: n2) becomes equal to

【数1】 の関係になる。[Equation 1] It becomes a relationship.

【0020】因に実際上監視空間において2つの基準点
間を結ぶ線分を第1並びに第2のテレビジヨンカメラT
V1並びにTV2から見たときの差異は、当該線分に対
する視線角度が異なるだけで、当該線分上に1つの監視
点を指定したとき、当該監視点から両端の基準点までの
距離の比は第1のテレビジヨンカメラTV1からその視
線角度で見た場合でも、第2のテレビジヨンカメラTV
2からこの視線角度で見た場合とで同一になる。
In practice, the line segment connecting the two reference points in the surveillance space is connected to the first and second television cameras T.
The difference seen from V1 and TV2 is that the line-of-sight angle to the line segment is different, and when one monitoring point is specified on the line segment, the ratio of the distances from the monitoring point to the reference points at both ends is Even when viewed from the first television camera TV 1 at that line-of-sight angle, the second television camera TV 1
It is the same as when viewed from 2 from this line-of-sight angle.

【0021】そこで第1並びに第2の監視画像PIC1
並びにPIC2において監視点P13並びにP23が未
知であるとき、線分L1並びにL2上においてそれぞれ
(1)式の関係が成り立つような座標位置を監視画像P
IC1並びにPIC2上から選択し、当該選択した座標
位置を監視点P13並びにP23であると指定すれば、
結局監視空間の2つの基準点間を結ぶ線分上の任意の位
置を監視点として指定できることになる。
Therefore, the first and second monitoring images PIC1
When the monitoring points P13 and P23 are unknown in PIC2 and PIC2, the coordinate positions on the line segments L1 and L2 such that the relationship of the equation (1) is established are monitored images P.
By selecting from IC1 and PIC2 and designating the selected coordinate positions as the monitoring points P13 and P23,
After all, any position on the line segment connecting the two reference points in the monitoring space can be designated as the monitoring point.

【0022】実際上物体認識装置においては、このよう
にして第1並びに第2の監視画像PIC1並びにPIC
2上に指定した監視点P13並びにP23位置に所定の
大きさの監視領域を設定し、当該監視領域内に含まれる
画素の明るさデータを抽出処理して(積分演算又は平均
値演算をする)、当該処理結果が基準値より大きいか否
かを判定することにより当該監視点P13並びにP23
の位置にある被監視対象に変化が生じたか否かを判定す
る。
In practice, in the object recognition device, the first and second monitoring images PIC1 and PIC are
2. A monitoring area of a predetermined size is set at the monitoring points P13 and P23 positions designated on 2 and the brightness data of the pixels included in the monitoring area is extracted (integral calculation or average value calculation is performed). , The monitoring points P13 and P23 by determining whether or not the processing result is larger than the reference value.
It is determined whether or not there is a change in the monitored object at the position.

【0023】以上の構成によれば、第1並びに第2のテ
レビジヨンカメラTV1並びにTV2から得られる第1
並びに第2の監視画像PIC1並びにPIC2から得ら
れる平面的な画像情報を用いて、単に複数の基準点のう
ちの2つの基準点を選択して当該2つの基準点間の線分
上に当該2本の線分を同一比率でそれぞれ内分した点を
指定するだけの簡易な構成によつて、監視画像PIC1
並びにPIC2の奥行き方向の被監視対象を指定してそ
の変化を確実に判定することができる。
According to the above construction, the first and second television cameras TV1 and TV1 can be obtained from the first and second television cameras TV1 and TV2.
In addition, by using the planar image information obtained from the second monitoring images PIC1 and PIC2, two reference points are simply selected from the plurality of reference points, and the two points are displayed on the line segment between the two reference points. The monitoring image PIC1 is provided by a simple configuration in which the points obtained by internally dividing the line segments of the book at the same ratio are designated.
In addition, the subject to be monitored in the depth direction of the PIC 2 can be designated and its change can be reliably determined.

【0024】(1−3)3点間の位置の指定 奥行き方向の被監視対象を指定する第2の手法は、第1
並びに第2のテレビジヨンカメラTV1並びにTV2か
ら得られる監視画像PIC1並びにPIC2において、
それぞれ図4並びに図5に示すように3つの基準点を選
択して当該3つの基準点を含む三角形面分上に共通の監
視点を指定することにより被監視対象の位置を指定す
る。
(1-3) Designation of Position between Three Points The second method of designating the monitored object in the depth direction is the first method.
And the monitoring images PIC1 and PIC2 obtained from the second television cameras TV1 and TV2,
As shown in FIGS. 4 and 5, three reference points are selected, and common monitoring points are designated on the triangular surface segment including the three reference points to designate the position of the monitored object.

【0025】すなわち図4並びに図5に示すように、第
1のテレビジヨンカメラTV1の監視画像PIC1に設
定された基準点K1j(j=1、2……J)のうちから
任意に3つの点を選択して図4に示すように三角形の頂
点P31、P32及びP33とし、同様に第2のテレビ
ジヨンカメラTV2から得られる監視画像PIC2の基
準点K2j(j=1、2……J)から監視画像PIC1
において選択された3つの基準点と同じ基準点を監視画
像PIC2上に選択して三角形面分の頂点P41、P4
2及びP43とする。
That is, as shown in FIGS. 4 and 5, three arbitrary points are selected from the reference points K1j (j = 1, 2, ... J) set in the monitoring image PIC1 of the first television camera TV1. 4 to select triangular vertices P31, P32, and P33 as shown in FIG. 4, and similarly from the reference point K2j (j = 1, 2 ... J) of the monitoring image PIC2 obtained from the second television camera TV2. Surveillance image PIC1
The same reference points as the three reference points selected in 3 are selected on the monitoring image PIC2 to select the vertices P41 and P4 of the triangular surface.
2 and P43.

【0026】第1の監視画像PIC1上において頂点を
結ぶ3本の線分のうちの1本の線分、例えば点P32及
びP33を結ぶ線分L3を、r3:s3に内分した点P
35を指定すると共に、頂点P31と当該指定された点
P35を結ぶ線分をm3:n3に内分した点P34を指
定する。
On the first monitor image PIC1, one of the three line segments connecting the vertices, for example, the line segment L3 connecting the points P32 and P33 is internally divided into r3: s3.
Along with designating 35, a point P34 is obtained by internally dividing the line segment connecting the vertex P31 and the designated point P35 into m3: n3.

【0027】同様にして第2の監視画像PIC2におい
て、頂点P41、P42及びP43を結ぶ線分のうちの
1本、例えば頂点P42及びP43を結ぶ線分をr4:
s4の比率で内分した点P45を指定すると共に、当該
指定された点P45と線分L4に対向する頂点P41と
を結ぶ線分をm4:n4の比率で内分した点P44を指
定する。
Similarly, in the second monitoring image PIC2, one of the line segments connecting the vertices P41, P42 and P43, for example, the line segment connecting the vertices P42 and P43 is r4:
A point P45 internally divided at a ratio of s4 is designated, and a point P44 obtained by internally dividing a line segment connecting the designated point P45 and the apex P41 facing the line segment L4 at a ratio of m4: n4 is designated.

【0028】このようにして第1並びに第2の監視画像
PIC1並びにPIC2上に指定された監視点P34及
びP44が監視空間内の同じ点が映出されているとすれ
ば、第1並びに第2の監視画像PIC1並びにPIC2
上の2つの三角形P31、P32及びP33並びにP4
1、P42及びP43間に次式
In this way, if the designated points P34 and P44 on the first and second monitoring images PIC1 and PIC2 are the same points in the monitoring space, the first and second monitoring images PIC1 and P44 are displayed. Monitoring images PIC1 and PIC2
The top two triangles P31, P32 and P33 and P4
Between 1, P42 and P43

【数2】 のように、線分L3及びL4における分周比率r3:s
3及びr4:s4が互いに等しくなると共に、次式
[Equation 2] , The frequency division ratio r3: s in the line segments L3 and L4
3 and r4: s4 are equal to each other,

【数3】 のように、点P31及びP35間の線分の内分比率m
3:n3と、点P41及びP45間の線分を内分する比
率m4:n4とは互いに等しい関係になる。
[Equation 3] , The internal ratio m of the line segment between points P31 and P35
3: n3 and the ratio m4: n4 that internally divides the line segment between the points P41 and P45 have the same relationship.

【0029】因に2つの監視画像PIC1並びにPIC
2上に指定された三角形の頂点に対応する3つの基準点
を第1並びに第2のテレビジヨンカメラTV1並びにT
V2から見たとき、その差はテレビジヨンカメラTV1
並びにTV2の視線角度に差があるだけであるから、監
視画像PIC1並びにPIC2において内分により分割
された距離の比率は互いに等しくなるからである。
Incidentally, the two monitoring images PIC1 and PIC
The three reference points corresponding to the vertices of the triangle designated on the second screen are set to the first and second television cameras TV1 and T1.
When viewed from V2, the difference is TV Jeon Camera TV1
And the TV2 have different line-of-sight angles, the ratios of the distances divided by the internal division in the monitor images PIC1 and PIC2 are equal to each other.

【0030】かくして(2)式並びに(3)式が成り立
つような点P35並びにP45の座標(x35、y35)及
び(x45、y45)並びにP34及びP44の座標
(x34、y34)及び(x44、y44)を求めれば、点P3
4及びP44は監視空間内の奥行き方向の1つの点をそ
れぞれ第1並びに第2のテレビジヨンカメラTV1並び
にTV2によつて撮像した点であることを意味する。
Thus, the coordinates (x 35 , y 35 ) and (x 45 , y 45 ) of the points P35 and P45 and the coordinates (x 34 , y 34 ) of P34 and P44 such that the expressions (2) and (3) are satisfied. ) And (x 44 , y 44 ), the point P3
4 and P44 mean that one point in the depth direction in the surveillance space is imaged by the first and second television cameras TV1 and TV2, respectively.

【0031】従つて第1並びに第2の監視画像PIC1
並びにPIC2上の点P34並びにP44に所定の大き
さの監視領域を設定してこれに含まれる画素の明るさ情
報が基準値を越えたか否かを判定することにより当該監
視空間内の監視点にある監視対象の変化を確実に監視す
ることができる。
Accordingly, the first and second monitoring images PIC1
In addition, a monitoring area having a predetermined size is set at the points P34 and P44 on the PIC2, and it is determined whether the brightness information of the pixels included in the monitoring area exceeds the reference value. It is possible to reliably monitor the change of a certain monitoring target.

【0032】図4及び図5について上述した関係は、内
分比r3:s3及びr4:s4並びにm3:n3及びm
4:n4を必要に応じて任意の値に設定しても成り立つ
ので、結局三角形面分P31、P32及びP33並びに
P41、P42及びP43内の全ての点が指定できるこ
とにより、対応する監視空間内の対応する三角形の面分
内にある全ての監視点を指定できることになる。
The relationships described above with reference to FIGS. 4 and 5 are the internal division ratios r3: s3 and r4: s4 and m3: n3 and m.
4: Since it holds even if n4 is set to an arbitrary value as necessary, eventually, all points in the triangular surface segments P31, P32 and P33 and P41, P42 and P43 can be designated, so that the corresponding monitoring space in the corresponding monitoring space can be specified. It is possible to specify all the monitoring points within the corresponding triangle surface segment.

【0033】(1−4)2点を通る線上の外部位置の指
定 図2並びに図3においては、監視空間内の複数の基準点
K1j並びにK2j(j=1、2……J)のうちの2点
を選択して当該2点間を結ぶ線分L1並びにL2を内分
する点P13及びP23を監視点として指定するように
したが、線分L1及びL2を2点の外方に延長すること
により得られる基準点K1j並びにK2jをそれぞれ通
る直線上に外分点を指定してこれを監視点とするように
しても、図2及び図3について上述したと同様にして監
視空間内の1点を指定して当該指定された被監視対象の
明るさの変化を監視することができる。
(1-4) Designation of External Position on Line Passing Two Points In FIGS. 2 and 3, of the plurality of reference points K1j and K2j (j = 1, 2, ... J) in the monitoring space. Although the points P13 and P23 that internally select the line segments L1 and L2 connecting the two points by selecting the two points are designated as the monitoring points, the line segments L1 and L2 are extended to the outside of the two points. Even if the external dividing points are designated on the straight lines passing through the reference points K1j and K2j obtained by the above, and are used as the monitoring points, 1 in the monitoring space is processed in the same manner as described above with reference to FIGS. A point can be designated to monitor the change in brightness of the designated monitored object.

【0034】(1−5)3点を結ぶ三角形の外部位置の
指定 図4並びに図5においては、監視空間の複数の基準点の
うち3点を指定して各監視画像PIC1並びにPIC2
上に形成した三角形について、三角形を形成する線を内
分する点を指定することにより当該三角形の内部に監視
点を指定するようにした場合について述べたが、これに
代え、三角形を形成する線を外方に延長した直線上に外
分点を指定してこれを監視点とするようにしても、上述
の場合と同様にして監視空間内の監視点を指定すること
ができる。
(1-5) Designation of External Position of Triangle Connecting Three Points In FIGS. 4 and 5, three points out of a plurality of reference points in the surveillance space are designated and the respective surveillance images PIC1 and PIC2 are designated.
Regarding the triangle formed above, the case where the monitoring point is specified inside the triangle by specifying the point that internally divides the line forming the triangle was described, but instead, the line forming the triangle is replaced. Even if the external dividing point is designated on the straight line extending outward and is set as the monitoring point, the monitoring point in the monitoring space can be designated in the same manner as in the above case.

【0035】かくして監視空間内に選択された3つの基
準点を結ぶ三角形の面を外方に延長した面上に、必要に
応じて監視点を指定することができる。
Thus, a monitoring point can be designated as necessary on the surface of the triangular surface connecting the three reference points selected in the monitoring space and extending outward.

【0036】(1−6)図4並びに図5の実施例におい
ては、監視空間内の複数の基準点から3つの点を選択す
ることにより監視画像PIC1並びにPIC2上に監視
点を指定するための三角形を形成するようにしたが、選
択する基準点の数は3点に限らず、図6に示すように帯
状に延長する平面又は曲面上に多数の基準点を折線状に
指定した場合にも、当該指定された平面又は曲面を三角
形の集合に分割し、当該分割された三角形について図4
及び図5について上述したと同様にして三角形を構成す
る面分の内部を、1つの頂点から対向する辺の内分点
(又は外分点)間を結んだ直線を内分(又は外分)する
ことにより、図4並びに図5について上述したと同様に
して監視空間内にその奥行き方向に必要に応じて監視点
を指定することができる。
(1-6) In the embodiments shown in FIGS. 4 and 5, the monitoring points are designated on the monitoring images PIC1 and PIC2 by selecting three points from a plurality of reference points in the monitoring space. Although a triangle is formed, the number of reference points to be selected is not limited to three, and even when a large number of reference points are designated in a polygonal shape on a flat surface or curved surface extending in a strip shape as shown in FIG. , The specified plane or curved surface is divided into a set of triangles, and the divided triangles are shown in FIG.
And, in the same manner as described above with reference to FIG. 5, a straight line connecting the insides of the planes constituting the triangle from one vertex to the inside dividing points (or outside dividing points) of the opposite sides is internally divided (or outside). By doing so, it is possible to specify a monitoring point in the monitoring space in the depth direction as required in the same manner as described above with reference to FIGS. 4 and 5.

【0037】(2)実施例 この実施例の空間認識装置1は図7に示すように、図1
について上述したように、監視空間に対して異なる視野
角度を有する視野FLD1及びFLD2を第1及び第2
のテレビジヨンカメラTV1及びTV2によつて撮像
し、これにより得られる第1及び第2のビデオ信号VD
1及びVD2を第1及び第2の画像メモリ11A及び1
1Bに取り込む。
(2) Embodiment As shown in FIG. 7, the space recognition apparatus 1 of this embodiment has a structure shown in FIG.
As described above, the first and second views FLD1 and FLD2 having different view angles with respect to the surveillance space are provided.
Of the first and second video signals VD obtained by imaging with the television cameras TV1 and TV2 of
1 and VD2 to the first and second image memories 11A and 1A
Take in 1B.

【0038】この実施例の場合、第1及び第2のテレビ
ジヨンカメラTV1及びTV2は同期信号発生回路12
から送出される同期制御信号CONT1によつて互いに
同期しながらビデオ信号VD1及びVD2を形成するよ
うになされていると共に、同期信号発生回路12からバ
ス13を介して中央処理ユニツト(CPU)14に同期
制御信号CONT2を与えることによりCPU14がバ
ス13を介してメモリ制御信号CONT3を第1及び第
2の画像メモリ11A及び11Bに供給するようになさ
れ、かくして第1及び第2の画像メモリ11A及び11
Bに互いに同じタイミングでビデオ信号VD1及びVD
2を読み込むことができるようにすることにより、監視
空間内の監視対象が移動しているとき、第1及び第2の
画像メモリ11A及び11Bの記憶位置(従つて監視画
像PIC1及びPIC2上のxy座標位置)に位置ずれ
を生じさせないようになされている。
In the case of this embodiment, the first and second television cameras TV1 and TV2 are provided with the synchronization signal generating circuit 12.
The video signals VD1 and VD2 are formed in synchronization with each other by the synchronization control signal CONT1 transmitted from the synchronization signal generator circuit 12 and the synchronization signal generator circuit 12 is synchronized with the central processing unit (CPU) 14 via the bus 13. By giving the control signal CONT2, the CPU 14 supplies the memory control signal CONT3 via the bus 13 to the first and second image memories 11A and 11B, and thus the first and second image memories 11A and 11B.
B video signals VD1 and VD at the same timing
By making it possible to read 2, the storage positions of the first and second image memories 11A and 11B (hence the xy on the monitoring images PIC1 and PIC2) when the monitoring target in the monitoring space is moving. It is designed not to cause a position shift in the coordinate position).

【0039】この実施例の場合、第1及び第2の画像メ
モリ11A及び11Bは例えば 512× 512個の画素に対
応するアドレスに8ビツトの明るさデータをフレーム
(又はフイールド)画像情報として記憶するようになさ
れている。
In this embodiment, the first and second image memories 11A and 11B store 8-bit brightness data as frame (or field) image information at addresses corresponding to 512.times.512 pixels, for example. It is done like this.

【0040】第1及び第2の画像メモリ11A及び11
Bに記憶された監視画像PIC1及びPIC2を表す監
視画像明るさデータDT1及びDT2は、バス13を介
してCPU14から与えられる切換制御信号CONT4
によつて切換動作する切換回路15を介して画像処理装
置16に直接与えられると共に、加算回路17を介して
表示装置18に与えられることにより、監視画像PIC
1及びPIC2をオペレータが目視確認できる映像とし
て表示装置18の表示画面上に表示する。
First and second image memories 11A and 11
The monitor image brightness data DT1 and DT2 representing the monitor images PIC1 and PIC2 stored in B are the switching control signals CONT4 provided from the CPU 14 via the bus 13.
The monitor image PIC is supplied to the image processing device 16 directly via the switching circuit 15 that performs the switching operation according to the above, and is also supplied to the display device 18 via the adding circuit 17.
1 and PIC2 are displayed on the display screen of the display device 18 as an image that can be visually confirmed by the operator.

【0041】CPU14はバス13を介して位置指定装
置21から基準点位置指定情報PDAが与えられたと
き、表示制御装置22に表示制御信号CONT5を供給
し、これにより表示制御装置22において発生されるマ
ーク表示信号MKDを加算回路12を介して表示装置1
8に与えることにより、第1及び第2の監視画像PIC
1及びPIC2上にそれぞれ基準点K1j及びK2j
(j=1、2……J)が設定されたことを表す所定の形
状(例えば正方形)のマーク表示を監視画像PIC1及
びPIC2として映出されている監視空間の映像部分に
表示すると共に、監視画像PIC1及びPIC2上に被
監視対象に変化が生じたとき、当該変化が生じた被監視
対象の映像部分に当該変化が生じたことを表す表示マー
クをスーパーインポーズ表示させるようになされてい
る。
When the reference point position designation information PDA is given from the position designation device 21 via the bus 13, the CPU 14 supplies the display control signal CONT5 to the display control device 22, which causes the display control device 22 to generate. The mark display signal MKD is added to the display device 1 via the adder circuit 12.
8 gives the first and second monitoring images PIC.
1 and PIC2 on the reference points K1j and K2j, respectively.
A mark display of a predetermined shape (for example, a square) indicating that (j = 1, 2, ... J) has been set is displayed in the video portion of the monitoring space displayed as the monitoring images PIC1 and PIC2, and the monitoring is performed. When a change occurs in the monitored object on the images PIC1 and PIC2, a display mark indicating that the change has occurred is superimposed on the image portion of the monitored object in which the change has occurred.

【0042】この実施例の場合、基準点K1j、K2j
(j=1、2……J)を設定する際オペレータは、位置
指定装置21に設けられているキーボードによつてカー
ソルを表示装置18の所定位置に位置決めした後、当該
位置決めしたカーソルの位置に所定の形状の表示マーク
を設定表示させるようになされている。
In the case of this embodiment, reference points K1j and K2j
When setting (j = 1, 2, ... J), the operator positions the cursor at a predetermined position on the display device 18 using the keyboard provided in the position designation device 21, and then moves the cursor to the position of the positioned cursor. A display mark having a predetermined shape is set and displayed.

【0043】CPU14は図8に示す監視処理手順RT
0を固定メモリ25に格納されているプログラムをキー
ボード26を介してオペレータが入力する指令情報に応
じて、ワークメモリ27に設けられている各種のレジス
タを利用しながら実行して行くようになされている。
The CPU 14 executes the monitoring processing procedure RT shown in FIG.
0 is executed by executing a program stored in the fixed memory 25 while using various registers provided in the work memory 27 according to command information input by the operator via the keyboard 26. There is.

【0044】CPU14は監視処理手順RT0に入る
と、ステツプSP1において第1の監視画像PIC1を
表示装置18上に表示させた後、ステツプSP2におい
てオペレータが位置指定装置21を用いて第1の監視画
像PIC1上に基準点K1j(j=1、2……J)のマ
ーク表示MKを設定するのを待ち受ける。
When the CPU 14 enters the monitoring processing procedure RT0, the first monitoring image PIC1 is displayed on the display device 18 in step SP1, and then the operator uses the position specifying device 21 to display the first monitoring image PIC1 in step SP2. It waits for setting the mark display MK of the reference point K1j (j = 1, 2 ... J) on the PIC1.

【0045】当該第1の監視画像PIC1上に基準点K
1j(j=1、2……K)のマーク表示の設定が済む
と、CPU14は次のステツプSP3に移つて第2の監
視画像PIC2を表示装置18に表示させた後、ステツ
プSP4において当該第2の監視画像PIC2上に第1
の監視画像PIC1に設定された基準点K2j(j=
1、2……J)に対応する基準点K2j(j=1、2…
…J)を表すマーク表示をオペレータが位置指定装置2
1を用いて設定するを待ち受ける。
A reference point K is displayed on the first monitoring image PIC1.
When the setting of the mark display of 1j (j = 1, 2 ... K) is completed, the CPU 14 proceeds to the next step SP3 to display the second monitoring image PIC2 on the display device 18, and then at step SP4. The first on the second monitoring image PIC2
Reference image K2j (j =
Reference points K2j (j = 1, 2, ...
The operator displays the mark display indicating J) by the position specifying device 2
Wait for setting using 1.

【0046】かくして第2の監視画像PIC2上にマー
ク表示MKの設定が済むと、CPU14はステツプSP
5に移つて異常が発生した監視点を指定するための指定
方法をオペレータがキーボード26を介して定義するの
を待ち受ける。
When the mark display MK is set on the second monitor image PIC2, the CPU 14 proceeds to step SP.
Moving to step 5, the operator waits for the operator to define, via the keyboard 26, a specification method for specifying a monitoring point where an abnormality has occurred.

【0047】ここで異常検出点の指定の仕方は、上述し
たように、直線上の2点間の位置又は2点を通る線上の
外部の位置、三角形面分の内部又は外部、多数の基準点
を結ぶ折れ線又は曲面の内部又は外部の位置を求める手
法のうちのどれを採用するかを定義する。
Here, as described above, the method of designating the abnormality detection point is as follows: the position between two points on a straight line, the outer position on a line passing through the two points, the inside or the outside of a triangular surface segment, and a large number of reference points. It defines which of the methods to find the position inside or outside of the polygonal line or curved surface connecting between is adopted.

【0048】その後CPU14はステツプSP6におい
て当該設定処理が完了したか否かを判断し、否定結果が
得られたとき上述のステツプSP1に戻つて、その後S
P1−SP2−SP3−SP4−SP5−SP6−SP
1のループLP1を実行することにより設定処理を続け
る。
Thereafter, the CPU 14 determines in step SP6 whether or not the setting process is completed. When a negative result is obtained, the CPU 14 returns to step SP1 described above, and then S
P1-SP2-SP3-SP4-SP5-SP6-SP
The setting process is continued by executing the loop LP1 of 1.

【0049】これに対してステツプSP6において肯定
結果が得られたとき、CPU14はステツプSP7にお
いてオペレータがキーボード26の監視キーを操作する
のを待ち受ける。
On the other hand, when a positive result is obtained in step SP6, the CPU 14 waits for the operator to operate the monitor key of the keyboard 26 in step SP7.

【0050】オペレータが監視キーを操作すると、CP
Uは監視処理動作に入り、ステツプSP8において第1
及び第2のテレビジヨンカメラTV1及びTV2からビ
デオ信号VD1及びVD2に基づく明るさデータを第1
及び第2の画像メモリ11A及び11Bに取り込んだ
後、ステツプSP9において第1のテレビジヨンカメラ
TV1から取り込んだ明るさデータについて異常が発生
しているか否かの判定をする。
When the operator operates the monitor key, the CP
U enters the monitoring processing operation, and in step SP8, the first
And brightness data based on the video signals VD1 and VD2 from the second television cameras TV1 and TV2.
After the data is loaded into the second image memories 11A and 11B, it is determined in step SP9 whether or not there is an abnormality in the brightness data loaded from the first television camera TV1.

【0051】このステツプSP9における異常の判定処
理は、CPU14がバス13を介して画像処理装置16
に画像処理制御信号CONT5を与えることにより、画
像処理装置16が図10に示すような処理を実行するこ
とによりなされる。
In the abnormality determination processing in step SP9, the CPU 14 executes the image processing apparatus 16 via the bus 13.
The image processing control signal CONT5 is given to the image processing device 16 so that the image processing device 16 executes the processing shown in FIG.

【0052】すなわち画像処理装置16は選択された基
準点K1jでなる判定開始点PSTから判定終了点PE
Dまでの線分L0について、所定の大きさの監視領域M
Kh(h=1、2……H)を順次所定の間隔で設定して
行き、当該監視領域MKh(h=1、2……H)が設定
されることによりスーパーインポーズされた映像部分の
画素の明るさデータの平均値又は積分値を演算して正常
時の明るさデータとの差を求め、当該差の値が判定基準
値以上になつたとき当該監視領域MKh(h=1、2…
…H)の位置に異常が発生していると判定する。
That is, the image processing device 16 changes from the judgment start point PST consisting of the selected reference points K1j to the judgment end point PE.
For the line segment L0 up to D, a monitoring area M of a predetermined size
Kh (h = 1, 2 ... H) is sequentially set at a predetermined interval, and the monitoring area MKh (h = 1, 2 ... H) is set, so that the image portion of the superimposed image is displayed. The average value or integrated value of the brightness data of the pixel is calculated to obtain the difference from the brightness data in the normal state, and when the value of the difference becomes equal to or larger than the determination reference value, the monitoring area MKh (h = 1, 2). …
It is determined that an abnormality has occurred at the position of (H).

【0053】画像処理装置16は図4及び図5について
上述したように、三角形の領域内の各点について異常の
判定をする場合には、内分によつて指定された点P35
及びP45の位置を、内分比r3:s3及びr4:s4
を変更することにより線分L3及びL4を基準点P32
からP33及びP42からP43の方向に移動させて行
くことにより、結局三角形の面内の全面について異常の
発生の有無を判定する。
As described above with reference to FIGS. 4 and 5, when the image processing apparatus 16 determines abnormality for each point in the triangular area, the point P35 designated by internal division is used.
And the position of P45 are set to the internal division ratios r3: s3 and r4: s4.
By changing the line segments L3 and L4 to the reference point P32.
From P33 to P33 and from P42 to P43, it is finally determined whether or not an abnormality has occurred on the entire triangular plane.

【0054】かかるステツプSP9における判定結果
は、CPU14が次のステツプSP10においてバス1
3を介して画像処理装置16から判定結果データDDT
を取り込むことにより判断する。
The CPU 14 determines that the result of the determination in step SP9 is the bus 1 in the next step SP10.
Determination result data DDT from the image processing device 16 via
Judge by taking in.

【0055】ステツプSP10において否定結果が得ら
れたとき、このことは第1の被監視画像PIC1には異
常が発生していないことを意味し、このときCPU14
は上述のステツプSP8に戻りその後ステツプSP10
において肯定結果が得られるまでステツプSP8−SP
9−SP10−SP8のループLP2の処理を繰り返す
ことにより、監視空間内の異常の発生に対する監視を継
続的に実行する。
When a negative result is obtained in step SP10, this means that no abnormality has occurred in the first monitored image PIC1, and at this time the CPU 14
Returns to step SP8 described above and then step SP10
Until a positive result is obtained in step SP8-SP
By repeating the processing of the loop LP2 of 9-SP10-SP8, the monitoring for the occurrence of the abnormality in the monitoring space is continuously executed.

【0056】これに対してステツプSP10において肯
定結果が得られると、このことは監視空間内に異常が発
生したことにより第1の監視画像PIC1に当該異常の
発生状態が映出されたことを意味し、このときCPU1
4はステツプSP11に移つて当該異常が発生した監視
対象の位置を演算する処理に入る。
On the other hand, when a positive result is obtained in step SP10, this means that the occurrence state of the abnormality is displayed on the first monitoring image PIC1 due to the occurrence of abnormality in the monitoring space. At this time, CPU1
Step 4 moves to step SP11 to enter the processing for calculating the position of the monitoring target where the abnormality has occurred.

【0057】すわなちCPU14はステツプSP11に
おいてバス13を介して画像処理装置16に画像処理制
御信号CONT5を与えることにより、第1の監視画像
PIC1において検出した異常検出位置に基づいて、対
応する第2の監視画像PIC2上の座標を演算させる。
That is, the CPU 14 gives the image processing control signal CONT5 to the image processing device 16 via the bus 13 in step SP11, so that the corresponding first detection image PIC1 is detected based on the abnormality detection position. The coordinates on the second monitoring image PIC2 are calculated.

【0058】続いてCPU14はステツプSP12にお
いて第2の監視画像PIC2上の点P23の監視領域M
Khについて異常が発生しているか否かを判定し、異常
が発生しているときこれをステツプSP13において検
出してステツプSP14に移つて当該異常の処理を実行
する。
Subsequently, the CPU 14 in step SP12 monitors the monitoring area M of the point P23 on the second monitoring image PIC2.
It is determined whether or not an abnormality has occurred with respect to Kh. When an abnormality has occurred, this is detected in step SP13, and the process proceeds to step SP14 to execute the abnormality processing.

【0059】当該異常処理が終了するとCPU14は上
述のステツプSP8に戻つて新たな監視動作に入る。
When the abnormality processing is completed, the CPU 14 returns to the above-mentioned step SP8 and starts a new monitoring operation.

【0060】これに対してステツプSP12において異
常が発生していないときにはステツプSP13において
否定結果が得られることによりこれを確認して上述のス
テツプSP8に戻る。
On the other hand, when no abnormality has occurred in step SP12, a negative result is obtained in step SP13, and this is confirmed and the process returns to step SP8.

【0061】このように第1のテレビジヨンカメラの第
1の監視画像PIC1上の点に異常の発生が検出されて
も、当該異常の発生点に対応する点について第2のテレ
ビジヨンカメラから得られる第2の監視画像PIC2上
に異常が発生していないときには、総合判断として異常
が発生していないと評価する。
As described above, even if an abnormality is detected at a point on the first monitor image PIC1 of the first television camera, the point corresponding to the abnormality generation point is obtained from the second television camera. When no abnormality has occurred on the acquired second monitoring image PIC2, it is evaluated that no abnormality has occurred as a comprehensive judgment.

【0062】かくして第1及び第2の監視画像PIC1
及びPIC2の両方から対応する点について異常の発生
が確認できたとき、このことは図2及び図3について上
述したように、奥行き方向の点において発生したと評価
する。
Thus, the first and second monitoring images PIC1
When both PIC2 and PIC2 can confirm the occurrence of an abnormality at the corresponding point, it is evaluated that this has occurred at a point in the depth direction, as described above with reference to FIGS.

【0063】異常の構成によれば、それぞれ平面的な画
像として第1及び第2のテレビジヨンカメラTV1及び
TV2の監視画像PIC1及びPIC2を用いて監視視
野内の奥行き方向の点にある監視対象の状態を確実に判
定することができる。
According to the abnormal configuration, the monitoring images PIC1 and PIC2 of the first and second television cameras TV1 and TV2 are used as planar images, respectively, to monitor the monitoring target at a point in the depth direction within the monitoring field of view. The state can be reliably determined.

【0064】(3)他の実施例 (3−1)図11〜図14は他の実施例を示すもので、
この場合第1及び第2のテレビジヨンカメラTV1及び
TV2は図11に示すように、山岳地帯の第1の稜線R
L1上の2つのカメラ設置位置ST1及びST2に設置
されている。
(3) Other Embodiments (3-1) FIGS. 11 to 14 show other embodiments.
In this case, the first and second television cameras TV1 and TV2 are, as shown in FIG. 11, the first ridgeline R of the mountain area.
It is installed at two camera installation positions ST1 and ST2 on L1.

【0065】第1及び第2のテレビジヨンカメラTV1
及びTV2は川RIVを挟んで第1の稜線RL1と対向
する位置に連なる第2の稜線RL2の景色を望遠レンズ
を介して撮像し、かくして第1及び第2のテレビジヨン
カメラTV1及びTV2によつてそれぞれ図12及び図
13に示すような第1及び第2の監視画像PIC11及
びPIC12を第1及び第2の画像メモリ11A及び1
1B(図7)に取り込む。
First and second television cameras TV1
, And TV2 image through the telephoto lens the scenery of the second ridge line RL2 which is continuous with the first ridge line RL1 across the river RIV, and thus the first and second television cameras TV1 and TV2. The first and second monitoring images PIC11 and PIC12 as shown in FIGS. 12 and 13, respectively, are stored in the first and second image memories 11A and 1A.
1B (FIG. 7).

【0066】第2の稜線RL2内の2つの山頂が被監視
対象点M1X及びM2Xとして選択され、第1の監視画
像PIC11において第1及び第2の被監視対象点M1
X及びM2Xの映像部分に第1及び第2の基準点K11
X及びK12Xを設定すると共に、第1の監視画像PI
C12における第1及び第2の被監視対象点M1X及び
M2Xの映像部分に第3及び第4の基準点K21X及び
K22Xが設定されている。
Two peaks within the second ridge line RL2 are selected as the monitored points M1X and M2X, and the first and second monitored points M1 in the first monitoring image PIC11 are selected.
The first and second reference points K11 on the X and M2X image portions.
X and K12X are set and the first monitoring image PI is set.
Third and fourth reference points K21X and K22X are set in the image portions of the first and second monitored target points M1X and M2X in C12.

【0067】これに加えてこの実施例の場合には、第1
の監視画像PIC11において第1及び第2の基準点K
11X及びK12Xの真上に所定の(例えば1000
〔m〕)だけ上方の点に相当する位置にそれぞれ第1及
び第2の補助基準点K11Y及びK12Yが設定される
と共に、第2の監視画像PIC12においても同様に第
3及び第4の基準点K12X及びK22Xに対応する第
3及び第4の補助基準点K21Y及びK22Yが設定さ
れる。
In addition to this, in the case of this embodiment, the first
Of the first and second reference points K in the monitoring image PIC11 of
Directly above 11X and K12X (eg 1000
[M]), the first and second auxiliary reference points K11Y and K12Y are respectively set at positions corresponding to points above, and the third and fourth reference points are similarly set in the second monitoring image PIC12. Third and fourth auxiliary reference points K21Y and K22Y corresponding to K12X and K22X are set.

【0068】かくしてCPU14(図7)は図8及び図
9について上述した監視処理手順RT0を第1及び第2
の監視画像PIC11及びPIC12の画像データに基
づいて実行することにより、第1及び第2の監視画像P
IC11及びPIC12上に飛来物MCLの映像が映出
されたとき、当該飛来物が被監視対象点M1X及びM2
Xを結ぶ直線上において補助基準点K11Y、K12Y
及びK21Y、K22Yに相当する所定の高さ(すなわ
ち1000〔m〕の高さ)に亘る領域を通過したとき、あた
かも当該飛来物がバリアを通過したとして、これを検出
することができる。
Thus, the CPU 14 (FIG. 7) executes the monitoring processing procedure RT0 described above with reference to FIGS. 8 and 9 in the first and second steps.
Of the monitoring images PIC11 and PIC12, the first and second monitoring images P
When the image of the flying object MCL is displayed on the IC 11 and the PIC 12, the flying object is monitored by the target points M1X and M2.
Auxiliary reference points K11Y and K12Y on the straight line connecting X
When passing through a region having a predetermined height (that is, a height of 1000 [m]) corresponding to K21Y and K22Y, it can be detected as if the flying object has passed through the barrier.

【0069】この実施例の場合、第1の監視画像PIC
11において第1及び第2の基準点K11X及びK12
X間を結ぶ線分L11と、第1及び第2の基準点K11
X及びK12Xとその上方に設定された第1及び第2の
補助基準点K11Y及びK12Yとを結ぶ線分L12及
びL13と、第1及び第2の補助基準点K11Y及びK
12Y間を結ぶ線分L14とによつて第1の監視画像P
IC11上に平面的に形成される4角形の面分を、例え
ば第1の基準点K11X及び第2の補助基準点K12Y
間を結ぶ線分L15によつて2つの3角形の面分に分割
し、これら2つの3角形の面分について図4について上
述した第1の監視画像PIC11上の監視点、すなわち
飛来物MCLの位置の検索処理を図4において上述した
と同様の手法によつて実行する。
In the case of this embodiment, the first monitoring image PIC
11, the first and second reference points K11X and K12
A line segment L11 connecting between X and the first and second reference points K11
X and K12X and line segments L12 and L13 that connect the first and second auxiliary reference points K11Y and K12Y set above them, and the first and second auxiliary reference points K11Y and K12
The first monitoring image P is formed by the line segment L14 connecting the 12Ys.
A quadrangular surface segment formed in a plane on the IC 11 is defined by, for example, a first reference point K11X and a second auxiliary reference point K12Y.
It is divided into two triangular surface segments by a line segment L15 connecting the two, and these two triangular surface segments are monitored at the monitoring points on the first monitoring image PIC11 described above with reference to FIG. 4, that is, in the flying object MCL. The position search process is executed by the same method as described above with reference to FIG.

【0070】また同様にして第2の監視画像PIC12
において、第3及び第4の基準点K21X及びK22X
間を結ぶ線分L21と、第3及び第4の基準点K21X
及びK22Xとその上方に設定された第3及び第4の補
助基準点K21Y及びK22Y間を結ぶ線分L22及び
L23と、第3及び第4の補助基準点K12Y及びK2
2Y間を結ぶ線分L24とによつて形成される4角形の
面分を第3の基準点K21X及び第4の補助基準点K2
2Y間を結ぶ線分L25によつて2つの3角形の面分に
分割し、各3角形の面分について飛来物MCLが存在す
る座標の検索を図5において上述したと同様の手法によ
つて検索する。
Similarly, the second monitoring image PIC12
At the third and fourth reference points K21X and K22X
A line segment L21 connecting between the third and fourth reference points K21X
And K22X and the line segments L22 and L23 connecting the third and fourth auxiliary reference points K21Y and K22Y set above them, and the third and fourth auxiliary reference points K12Y and K2.
A quadrangular surface segment formed by a line segment L24 connecting between 2Y is a third reference point K21X and a fourth auxiliary reference point K2.
It is divided into two triangular facet segments by a line segment L25 connecting between 2Ys, and the search for the coordinates where the flying object MCL exists for each triangle facet segment is performed by the same method as described above in FIG. Search for.

【0071】かくして第2の稜線RL2上に設定された
2つの被監視対象点M1X及びM2Xを基準にしてその
上方に所定の高さ(例えば1000〔m〕の高度)に設定さ
れた補助被監視点によつて囲まれる4角形の面分が山岳
地帯の上空に張られたバリアとしてこれを突き抜けるよ
うに飛来物MCLが飛来して来たとき、この飛来物を第
1の監視画像PIC11上の座標値を求めることによ
り、当該座標値と第1の補助基準点K11Yを通る線分
L16に対する内分比を求め、当該内分比と同じ内分比
をもつ座標が第2の監視画像PIC12上の飛来物MC
Lの映像及び第3の補助基準点K21Y間を結ぶ線分L
26上に生じたとき、当該飛来物MCLが山岳上に形成
されたバリア内透過したことを認識できる。
Thus, the auxiliary monitored object set at a predetermined height (for example, an altitude of 1000 [m]) above the two monitored object points M1X and M2X set on the second ridge line RL2. When a flying object MCL flew in such that a quadrangular surface area surrounded by dots penetrates this as a barrier stretched over the mountainous area, the flying object is displayed on the first monitoring image PIC11. By obtaining the coordinate value, an internal division ratio of the coordinate value and the line segment L16 passing through the first auxiliary reference point K11Y is obtained, and a coordinate having the same internal division ratio as the internal division ratio is displayed on the second monitoring image PIC12. Flying object MC
A line segment L connecting the image of L and the third auxiliary reference point K21Y
26, it can be recognized that the flying object MCL has penetrated through the barrier formed on the mountain.

【0072】この実施例の場合第1及び第2の監視画像
PIC11及びPIC12上の第1、第2、第3及び第
4の補助基準点K11Y、K12Y、K21Y及びK2
2Yを設定するには、図14の手法を用いる。
In the case of this embodiment, the first, second, third and fourth auxiliary reference points K11Y, K12Y, K21Y and K2 on the first and second monitoring images PIC11 and PIC12 are used.
The method of FIG. 14 is used to set 2Y.

【0073】すなわち第1の稜線RL1上に設置された
第1及び第2のテレビジヨンカメラTV1及びTV2に
よつて第2の稜線RL2上の被監視点M1X及びM2X
を撮像する際に、図14に示すように第1及び第2のテ
レビジヨンカメラTV1及びTV2が望遠レンズLNS
を通してその光軸R1が水平になるようにテレビジヨン
カメラTV1及びTV2が設定されたとするとき、第1
及び第2の被監視対象点M1X及びM2Xの光学上の位
置を表す点Aを通つて垂直方向に延長する線上に、光軸
R1と交わる点Bと、第1及び第2の被監視対象点M1
X及びM2Xの位置を表す点Cとを考える。
That is, the monitored points M1X and M2X on the second ridge line RL2 are controlled by the first and second television cameras TV1 and TV2 installed on the first ridge line RL1.
As shown in FIG. 14, the first and second television cameras TV1 and TV2 use the telephoto lens LNS when capturing an image of
If the television cameras TV1 and TV2 are set so that their optical axis R1 becomes horizontal through,
And a point B intersecting the optical axis R1 on a line extending in the vertical direction through the point A representing the optical positions of the second monitored target points M1X and M2X, and the first and second monitored target points. M1
Consider point C, which represents the position of X and M2X.

【0074】かかる光学系において、第1及び第2の被
監視対象点M1X及びM2Xの映像が望遠レンズLNS
の中心を通る光学的線R2上に沿つてテレビジヨンカメ
ラTV1及びTV2の結像面上の位置を表す点aに結像
したとすると、光軸R1上の点Bの像は撮像面上の点b
に結像し、かつ点Cにある第1及び第2の被監視対象点
M1X及びM2Xの像は光学的線R3を通つて結像面上
の点cに結像する。図14において点A及びB間の距離
Hは第1及び第2の被監視対象点M1X及びM2Xの高
さを表し、点A及びC点の距離hは第1及び第2の被監
視対象点M1X及びM2Xからそれぞれ上方に設定した
補助監視点までの高さ(この実施例の場合1000〔m〕)
を表す。
In this optical system, the images of the first and second monitored points M1X and M2X are taken by the telephoto lens LNS.
If an image is formed at a point a representing the positions on the image planes of the television cameras TV1 and TV2 along an optical line R2 passing through the center of, the image of the point B on the optical axis R1 is on the image plane. Point b
And the images of the first and second monitored points M1X and M2X at the point C are imaged at the point c on the image plane through the optical line R3. In FIG. 14, the distance H between points A and B represents the height of the first and second monitored points M1X and M2X, and the distance h between points A and C is the first and second monitored points. Height from M1X and M2X to auxiliary monitoring points set above (1000 [m] in this embodiment)
Represents

【0075】これに対してテレビジヨンカメラTV1及
びTV2の結像面上において点A及びBに対応する点a
及びb間の距離をyaとし、点A及びCに対応する点a
及びc間の距離をycとし、かつカメラTV1及びTV
2からそれぞれ被監視対象点M1X及びM2Xまでの距
離、すなわちテレビジヨンカメラTV1及びTV2から
被監視対象点M1X及びM2Xまでの距離をLとし、さ
らに望遠レンズLNSの焦点距離をfとしたとき、結像
面上のa及びb間の距離yaについて次式、
On the other hand, a point a corresponding to points A and B on the image planes of the television cameras TV1 and TV2.
The distance between points a and b is ya, and the point a corresponding to points A and C is
And the distance between c and y is yc, and the cameras TV1 and TV
2 from L to the monitored points M1X and M2X, that is, from the television cameras TV1 and TV2 to the monitored points M1X and M2X, and L is the focal length of the telephoto lens LNS. For the distance ya between a and b on the image plane, the following equation,

【数4】 の関係があり、従つて焦点距離fは、[Equation 4] Therefore, the focal length f is

【数5】 のように表すことができる。[Equation 5] Can be expressed as

【0076】さらに結像面上の点a及びc間の距離yc
について次式、
Furthermore, the distance yc between the points a and c on the image plane
For the following equation,

【数6】 の関係があり、(6)式から距離Ycを解いて(5)式
を代入することにより次式、
[Equation 6] And the distance Yc is solved from the expression (6) and the expression (5) is substituted, the following expression,

【数7】 の関係を得ることができる。[Equation 7] Can get a relationship.

【0077】かくして第1及び第2の監視画像PIC1
1及びPIC12の画面上、第1の基準点K11X及び
第1の補助基準点K12Y間の距離、第2の基準点K1
2X及び第2の補助基準点K12Y間の距離、第3の基
準点K21X及び第3の補助基準点K21Y間の距離及
び第4の基準点K22X及び第4の補助基準点K22Y
間の距離を、(7)式に基づいて計算により求めること
ができ、かくして第1〜第4の補助基準点K11Y〜K
22Yの画面上の座標位置を容易に設定することができ
る。
Thus, the first and second monitoring images PIC1
1 and the distance between the first reference point K11X and the first auxiliary reference point K12Y on the screen of the PIC12, the second reference point K1.
The distance between 2X and the second auxiliary reference point K12Y, the distance between the third reference point K21X and the third auxiliary reference point K21Y, and the fourth reference point K22X and the fourth auxiliary reference point K22Y.
The distance between them can be obtained by calculation based on the equation (7), and thus the first to fourth auxiliary reference points K11Y to K
The coordinate position on the screen of 22Y can be easily set.

【0078】(3−2)図11〜図14においては、山
岳地帯において稜線上の2つの被監視対象点M1X及び
M2Xを結ぶ直線上に高さ1000〔m〕のバリアを設ける
ようにした場合について述べたが、本発明はこれに限ら
ず、被監視対象点M1X及びM2Xとして例えば塀の上
面の2点を選定すると共に、当該塀上の2点の上方に所
定の高さの監視バリアを設定する場合にも、図11〜図
14について上述したと同様にして第1及び第2の監視
画像PIC11及びPIC12の画面上に補助基準点を
設定することにより、塀の上に奥行きをもつて形成され
たバリア上に侵入者が現れたときこれを検出できるよう
な認識装置を容易に実現できる。
(3-2) In FIGS. 11 to 14, when a barrier having a height of 1000 [m] is provided on a straight line connecting two monitored points M1X and M2X on a ridgeline in a mountainous area. However, the present invention is not limited to this, and for example, two points on the top surface of the fence are selected as the monitored points M1X and M2X, and a monitoring barrier of a predetermined height is provided above the two points on the fence. Also when setting, by setting auxiliary reference points on the screens of the first and second monitoring images PIC11 and PIC12 in the same manner as described above with reference to FIGS. It is possible to easily realize a recognition device capable of detecting an intruder when it appears on the formed barrier.

【0079】(3−3)上述の実施例においては、図1
0に示すように、2つの基準点間を結ぶ線分L0上の点
を中心とする監視領域MKh(h=1、2……H)内の
画素の明るさデータを平均値演算又は積分演算すること
により異常の発生の有無を判定するようにしたが、これ
に代え図15に示すように、監視画像PICX上の画素
(例えば 512× 512個の画素)を所定個数(8×8個)
ずつメツシユ状に切り分けて64×64個の監視メツシユ領
域ARを形成し、基準点間の線分が通る監視メツシユ領
域ARの全部のデータ又は一部のデータだけを第1及び
第2の画像メモリ11A及び11Bに取り込むことによ
り各監視カメラ領域ARについて異常の発生を判断する
ようにしても上述の場合と同様の効果を得ることができ
る。
(3-3) In the embodiment described above, FIG.
As shown in 0, the brightness data of the pixels in the monitoring area MKh (h = 1, 2 ... H) centered on the point on the line segment L0 connecting the two reference points is calculated as an average value or an integration operation. Although the presence or absence of abnormality is determined by doing so, instead of this, as shown in FIG. 15, a predetermined number (8 × 8) of pixels (for example, 512 × 512 pixels) on the monitoring image PICX are used.
64 × 64 monitoring mesh areas AR are formed by dividing each of them into mesh shapes, and all the data of the monitoring mesh area AR through which the line segment between the reference points passes or only a part of the data are stored in the first and second image memories. Even if the occurrence of an abnormality is determined for each surveillance camera area AR by incorporating it into 11A and 11B, the same effect as in the above case can be obtained.

【0080】実際上このようにする場合、画像メモリ1
1A及び11Bはアナログデイジタル変換器、加算器及
びメモリを有する積分器によつて構成され、順次指定さ
れた監視カメラ領域ARに含まれる8×8個の画素の明
るさの積分データを第1及び第2の画像メモリ11A及
び11Bにストアすることにより、例えば64×64×8ビ
ツト又は64×64×16ビツトの画像データを第1及び第2
の画像メモリ11A及び11Bに格納する。
In practice, the image memory 1
Reference numerals 1A and 11B are composed of an analog digital converter, an adder, and an integrator having a memory. The integrated data of the brightness of 8 × 8 pixels included in the sequentially designated surveillance camera area AR are first and By storing in the second image memories 11A and 11B, for example, 64 × 64 × 8 bits or 64 × 64 × 16 bits of image data are stored in the first and second image memories.
Image memory 11A and 11B.

【0081】(3−4)上述の実施例においては、監視
画像PIC1及びPIC2上に監視点K1j、K2j
(j=1、2、……J)を設定する手段として、キーボ
ードによつてカーソルを位置決めして表示マークを設定
するようにした場合について述べたが、これに代えマウ
ス、ジヨイステイツク、ライトペン、タツチセンサ、デ
イジタイザ(ペン入力)などを用いるようにしてもよ
い。
(3-4) In the above embodiment, the monitoring points K1j and K2j on the monitoring images PIC1 and PIC2.
As a means for setting (j = 1, 2, ... J), the case where the cursor is positioned by the keyboard to set the display mark has been described. However, instead of this, a mouse, a joystick, a light pen, A touch sensor, a digitizer (pen input), or the like may be used.

【0082】(3−5)監視画像PIC1及びPIC2
のように基準点K1j及びK2j(j=1、2、……
J)を設定する手段として、監視画像PIC1及びPI
C2の映像に含まれている特異点を自動的に抽出して設
定するようにしてもよい。例えば第1に監視視野内の所
望の対象物に細い光ビーム(可視光ビーム、遠赤外ビー
ム又は赤外線ビーム)を照射し、その反射光が第1及び
第2のテレビジヨンカメラTV1及びTV2に入射して
高輝度の光点を監視画像PIC1及びPIC2内に形成
し、当該高輝度の光点の座標位置を位置指定装置21に
よつて検出するようにし、当該検出位置に基準点を設定
するようにする。
(3-5) Monitoring images PIC1 and PIC2
, The reference points K1j and K2j (j = 1, 2, ...
J) as means for setting the monitoring images PIC1 and PI
The singular point included in the image of C2 may be automatically extracted and set. For example, first, a thin light beam (visible light beam, far-infrared beam or infrared beam) is applied to a desired object in the monitoring field of view, and the reflected light is reflected by the first and second television cameras TV1 and TV2. An incident high-luminance light spot is formed in the monitoring images PIC1 and PIC2, the coordinate position of the high-luminance light spot is detected by the position designation device 21, and a reference point is set at the detection position. To do so.

【0083】また第2に暗い監視空間内の所定位置に照
明光源を配設したり、明るい監視空間内に反射鏡を設
け、当該照明光源又は反射鏡からの光を第1及び第2の
テレビジヨンカメラTV1及びTV2に入射し、その監
視画像PIC1及びPIC2上の座標位置を位置指定装
置21によつて自動的に算定して基準点を設定する。
Secondly, an illumination light source is arranged at a predetermined position in the dark surveillance space, or a reflecting mirror is provided in the bright surveillance space, and the light from the illumination light source or the reflecting mirror is supplied to the first and second televisions. It enters the Jyon cameras TV1 and TV2, and the coordinate position on the monitor images PIC1 and PIC2 is automatically calculated by the position specifying device 21 and the reference point is set.

【0084】また第3に監視空間として物体が存在しな
い屋外空間を用いる場合には、当該監視空間に飛行体、
例えばヘリコプタを飛行させて第1及び第2のテレビジ
ヨンカメラTV1及びTV2を撮像することにより時間
の経過に従つて複数の監視画像PIC1及びPIC2で
なる監視画像列を画像記憶装置に記憶し、各監視画像列
からヘリコプタの飛行軌跡を監視画像上の座標として検
出し、当該軌跡上の座標位置に基づいて基準点を決める
ようにする。
Thirdly, when an outdoor space in which no object is present is used as the monitoring space, a flying object,
For example, a helicopter is caused to fly and the first and second television cameras TV1 and TV2 are imaged to store a monitoring image sequence composed of a plurality of monitoring images PIC1 and PIC2 in the image storage device according to the passage of time. The flight trajectory of the helicopter is detected from the surveillance image sequence as coordinates on the surveillance image, and the reference point is determined based on the coordinate position on the trajectory.

【0085】この場合監視画像PIC1及びPIC2の
画像列は、第1及び第2のテレビジヨンカメラTV1及
びTV2の映像信号をそれぞれ対応するビデオテープレ
コーダにタイムコードと共に記録し、各ビデオテープレ
コーダからの再生時、同一のタイムコードを有するフレ
ームのヘリコプタの座標位置を互いに対応させるように
する。
In this case, in the image sequence of the monitoring images PIC1 and PIC2, the video signals of the first and second television cameras TV1 and TV2 are recorded in the corresponding video tape recorders together with the time code, and the video signals from the respective video tape recorders are recorded. At the time of reproduction, the coordinate positions of the helicopters of the frames having the same time code are made to correspond to each other.

【0086】この屋外の空間を監視領域とする場合、飛
行しているヘリコプタを各監視画像PIC1及びPIC
2上において自動認識し、当該認識した画面上の各位置
によつて軌跡を表すようにしてもよい。
When this outdoor space is used as the monitoring area, the flying helicopter is monitored by the monitoring images PIC1 and PIC.
2 may be automatically recognized and the locus may be represented by each recognized position on the screen.

【0087】(3−6)上述の実施例(図7)において
は、第1及び第2のテレビジヨンカメラTV1及びTV
2に対してそれぞれ第1及び第2の画像メモリ11A及
び11Bを2台の画像取込装置として設けると共に、当
該2台の画像取込装置に対して1台の画像処理装置16
を設けるようにしたが、これに代え、第1及び第2の画
像メモリ11A及び11Bに対してそれぞれ専用の画像
処理装置を設けるようにしてもよく、又は第1及び第2
のテレビジヨンカメラTV1及びTV2に対して1台の
画像メモリ及び画像処理装置を設け、これらの画像メモ
リ及び画像処理装置を第1及び第2のテレビジヨンカメ
ラについて時分割によつて順次交互に用いるようにして
も上述の場合と同様の効果を得ることができる。
(3-6) In the above embodiment (FIG. 7), the first and second television cameras TV1 and TV are used.
The first and second image memories 11A and 11B are provided as two image capturing devices for each of the two image capturing devices, and one image processing device 16 is provided for the two image capturing devices.
However, instead of this, a dedicated image processing device may be provided for each of the first and second image memories 11A and 11B, or the first and second image memories 11A and 11B may be provided.
One image memory and one image processing device are provided for each of the television cameras TV1 and TV2, and these image memories and image processing devices are sequentially and alternately used for the first and second television cameras by time division. Even in this case, the same effect as the above case can be obtained.

【0088】(3−7)上述の実施例(図7)において
は、2台のテレビジヨンカメラTV1及びTV2を用い
るようにした場合について述べたが、これに代え3台以
上のテレビジヨンカメラを設けるようにし、これにより
死角をなくすようにしてもよい。
(3-7) In the above-described embodiment (FIG. 7), the case where the two television projection cameras TV1 and TV2 are used has been described, but instead of this, three television projection cameras or more are used. It may be provided so that the blind spot may be eliminated.

【0089】(3−8)上述の実施例においては、テレ
ビジヨンカメラによつて監視画像PIC1及びPIC2
を得るようにした場合について述べたが、テレビジヨン
カメラTV1及びTV2に代え、平面上に配列された光
電変換素子(例えばCCD素子)によつて映像信号を得
るようにする等種々の構成の撮像手段を適用し得る。
(3-8) In the above embodiment, the monitoring images PIC1 and PIC2 are picked up by the television camera.
However, the image pickup of various configurations such as obtaining a video signal by a photoelectric conversion element (for example, a CCD element) arranged on a plane instead of the television cameras TV1 and TV2 has been described. Means can be applied.

【0090】[0090]

【発明の効果】上述のように本発明によれば、2台の撮
像手段から得られる2つの監視画像上に映出された同じ
2つの基準点の座標位置に基づいて、必要に応じて奥行
き方向の点に関する位置情報を確実に得ることができる
ような空間認識装置を実現できる。
As described above, according to the present invention, the depth as necessary is determined based on the coordinate positions of the same two reference points displayed on the two monitoring images obtained from the two image pickup means. It is possible to realize a space recognition device that can surely obtain position information regarding a point in a direction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による空間認識装置の動作原理の説明に
供する監視画像を示す略線図正面図である。
FIG. 1 is a schematic diagram front view showing a monitoring image for explaining an operation principle of a space recognition device according to the present invention.

【図2】第1の監視画像の線分上の監視点の説明に供す
る略線図である。
FIG. 2 is a schematic diagram for explaining a monitoring point on a line segment of a first monitoring image.

【図3】第2の監視画像の線分上の監視点の説明に供す
る略線図である。
FIG. 3 is a schematic diagram for explaining a monitoring point on a line segment of a second monitoring image.

【図4】第1の監視画像の三角形面分上の監視点の説明
に供する略線図である。
FIG. 4 is a schematic diagram for explaining a monitoring point on a triangular surface segment of a first monitoring image.

【図5】第2の監視画像の三角形面分上の監視点の説明
に供する略線図である。
FIG. 5 is a schematic diagram for explaining a monitoring point on a triangular surface segment of a second monitoring image.

【図6】平面又は曲面上に監視点を設定する場合の説明
に供する略線図である。
FIG. 6 is a schematic diagram for explaining a case of setting a monitoring point on a plane or a curved surface.

【図7】本発明による空間認識装置の全体構成を示すブ
ロツク図である。
FIG. 7 is a block diagram showing the overall configuration of a space recognition device according to the present invention.

【図8】監視処理手順を示すフローチヤートである。FIG. 8 is a flow chart showing a monitoring processing procedure.

【図9】監視処理手順を示すフローチヤートである。FIG. 9 is a flow chart showing a monitoring processing procedure.

【図10】異常発生点からデータを取り込む手法の説明
に供する略線図である。
FIG. 10 is a schematic diagram used for explaining a method of capturing data from an abnormality occurrence point.

【図11】山岳地帯に飛来物監視用バツフアを設定する
実施例を示す平面図である。
FIG. 11 is a plan view showing an embodiment in which a flying object monitoring buffer is set in a mountain area.

【図12】図11の第1のテレビジヨンカメラTV1に
よつて得られる第1の監視画像を示す正面図である。
12 is a front view showing a first monitor image obtained by the first television camera TV1 of FIG. 11. FIG.

【図13】図11の第2のテレビジヨンカメラTV2に
よつて得られる第2の監視画像を示す正面図である。
13 is a front view showing a second monitoring image obtained by the second television camera TV2 of FIG. 11. FIG.

【図14】図11の第1の及び第2のテレビジヨンカメ
ラTV1及びTV2の光学系を示す光路図である。
14 is an optical path diagram showing an optical system of the first and second television cameras TV1 and TV2 of FIG. 11. FIG.

【図15】他の実施例における監視画像を示す略線図で
ある。
FIG. 15 is a schematic diagram showing a monitoring image in another embodiment.

【符号の説明】[Explanation of symbols]

TV1、TV2……第1及び第2のテレビジヨンカメ
ラ、PIC1、PIC2、PIC11、PIC12……
第1及び第2の監視画像、K11〜K14、K21〜K
24、K11X〜K22X……基準点、K11Y〜K2
2Y……補助基準点、M1〜M4……監視対象、1……
空間認識装置、11A、11B……第1、第2の画像メ
モリ、13……バス、14……中央処理ユニツト(CP
U)、12……同期信号発生回路、15……切換回路、
16……画像処理装置、18……表示装置、21……位
置指定装置、22……表示制御装置、25……固定メモ
リ、26……キーボード、27……ワークメモリ。
TV1, TV2 ... First and second television cameras, PIC1, PIC2, PIC11, PIC12 ...
First and second monitoring images, K11 to K14, K21 to K
24, K11X to K22X ... Reference point, K11Y to K2
2Y ... Auxiliary reference points, M1-M4 ... Monitoring target, 1 ...
Space recognition device, 11A, 11B ... First and second image memories, 13 ... Bus, 14 ... Central processing unit (CP
U), 12 ... Synchronous signal generating circuit, 15 ... Switching circuit,
16 ... Image processing device, 18 ... Display device, 21 ... Positioning device, 22 ... Display control device, 25 ... Fixed memory, 26 ... Keyboard, 27 ... Work memory.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】監視すべき監視空間を互いに異なる監視位
置において撮像する第1並びに第2の撮像手段と、 上記第1並びに第2の撮像手段から得られる映像出力に
基づいてそれぞれ平面的な座標上に上記監視空間の被写
体映像を表示してなる第1並びに第2の監視画像の画像
データを形成する画像処理手段と、 上記監視空間内にある2つの被写体部分を表す被写体映
像部分の上記第1並びに第2の監視画像上の座標値を第
1及び第2の基準点並びに第3及び第4の基準点の位置
データとして形成する基準点位置データ形成手段と、 上記第1の監視画像の画像データについて、当該第1の
監視画像において上記第1及び第2の基準点間を通る第
1の直線上に異常が発生したとき、当該異常が発生した
第1の検出点の座標値を検出する第1の異常判定手段
と、 上記第2の監視画像における上記第3及び第4の基準点
間を通る第2の直線上において、上記第1の直線の上記
第1及び第2の基準点間の線分に対する上記第1の異常
発生点の内分比(又は外分比)と同一の内分比(又は外
分比)を有する第2の検出点の座標値を検出し、当該第
2の検出点の座標値に対応する上記第2の監視画像の画
像データに異常が発生したか否かを判定する第2の異常
判定手段と、 上記第2の異常判定手段によつて異常の発生が検出され
たとき、上記監視空間における上記2つの被写体部分を
通る直線上の上記第1並びに第2の検出点によつて表さ
れる位置にある被写体部分に異常が発生したと判定する
異常発生判定手段とを具えることを特徴とする空間認識
装置。
1. A first and second image pickup means for picking up an image of a monitoring space to be monitored at different monitoring positions, and two-dimensional coordinates based on image outputs obtained from the first and second image pickup means, respectively. Image processing means for forming image data of first and second monitoring images by displaying subject images in the monitoring space above, and the first of the subject image parts representing two subject parts in the monitoring space. Reference point position data forming means for forming coordinate values on the first and second monitoring images as position data of the first and second reference points and the third and fourth reference points, and the first monitoring image Regarding the image data, when an abnormality occurs on the first straight line passing between the first and second reference points in the first monitoring image, the coordinate value of the first detection point where the abnormality occurs is detected. The first difference On the second straight line passing between the determination means and the third and fourth reference points in the second monitoring image, with respect to the line segment between the first and second reference points of the first straight line, The coordinate value of the second detection point having the same internal division ratio (or external division ratio) as the internal division ratio (or external division ratio) of the first abnormality occurrence point is detected, and the coordinate value of the second detection point is detected. The occurrence of an abnormality is detected by the second abnormality determining means for determining whether or not an abnormality has occurred in the image data of the second monitoring image corresponding to the coordinate value, and the second abnormality determining means. At this time, an abnormality occurrence determination means for determining that an abnormality has occurred in the subject portion at the position represented by the first and second detection points on the straight line passing through the two subject portions in the monitoring space. A space recognition device characterized by comprising.
JP5655793A 1993-02-22 1993-02-22 Space recognition device Pending JPH06253312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5655793A JPH06253312A (en) 1993-02-22 1993-02-22 Space recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5655793A JPH06253312A (en) 1993-02-22 1993-02-22 Space recognition device

Publications (1)

Publication Number Publication Date
JPH06253312A true JPH06253312A (en) 1994-09-09

Family

ID=13030423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5655793A Pending JPH06253312A (en) 1993-02-22 1993-02-22 Space recognition device

Country Status (1)

Country Link
JP (1) JPH06253312A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241772A (en) * 2007-03-26 2008-10-09 Konami Digital Entertainment:Kk Voice image processing device, voice image processing method, and program
JP2009284371A (en) * 2008-05-26 2009-12-03 Meidensha Corp Video monitoring device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241772A (en) * 2007-03-26 2008-10-09 Konami Digital Entertainment:Kk Voice image processing device, voice image processing method, and program
JP2009284371A (en) * 2008-05-26 2009-12-03 Meidensha Corp Video monitoring device

Similar Documents

Publication Publication Date Title
CN104067144B (en) Construction machinery periphery monitoring apparatus
US6215519B1 (en) Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
US6977676B1 (en) Camera control system
JP5233926B2 (en) Fisheye monitoring system
CN107370994B (en) Marine site overall view monitoring method, device, server and system
CN106878687A (en) A kind of vehicle environment identifying system and omni-directional visual module based on multisensor
CN104184961A (en) Mobile device and system used for generating panoramic video
US6839081B1 (en) Virtual image sensing and generating method and apparatus
JP2005517253A (en) Method and apparatus for providing an infiltration lookout
CN101506850A (en) Modeling and texturing digital surface models in a mapping application
US20220279131A1 (en) Camera Assembly and Monitoring Camera
CN111462503A (en) Vehicle speed measuring method and device and computer readable storage medium
CN206611521U (en) A kind of vehicle environment identifying system and omni-directional visual module based on multisensor
WO2019163212A1 (en) Monitoring system and control method for monitoring system
CN101021669A (en) Whole-view field imaging and displaying method and system
US8289393B2 (en) Camera control unit, camera display system, and camera control method
CN109920048A (en) Monitored picture generation method and device
JP2611173B2 (en) Positioning method and device using fisheye lens
CN109040565A (en) Panoramic shooting system
US11703820B2 (en) Monitoring management and control system based on panoramic big data
JPH05334572A (en) Room monitoring device
JPH06253312A (en) Space recognition device
JP2001204015A (en) Surrounding camera system, method for generating surrounding image based on image picked up by surrounding camera, jointing unit for image picked up by adjacent camera and its method, and distance measurement device using the adjacent camera and its method
JP3707769B2 (en) Object tracking system
WO2022088821A1 (en) Method for acquiring landmark data and method for modeling landmark building