JPH06225197A - Monitor equipment by video camera - Google Patents

Monitor equipment by video camera

Info

Publication number
JPH06225197A
JPH06225197A JP3178099A JP17809991A JPH06225197A JP H06225197 A JPH06225197 A JP H06225197A JP 3178099 A JP3178099 A JP 3178099A JP 17809991 A JP17809991 A JP 17809991A JP H06225197 A JPH06225197 A JP H06225197A
Authority
JP
Japan
Prior art keywords
image
frame
picture
camera
processing section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3178099A
Other languages
Japanese (ja)
Inventor
Isamu Yoroisawa
勇 鎧沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3178099A priority Critical patent/JPH06225197A/en
Publication of JPH06225197A publication Critical patent/JPH06225197A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To save man-hours by realizing automatic recognition of an object existent in a monitor area and a resulting notice by voice so as to eliminate the need for monitoring a monitor screen continuously. CONSTITUTION:A picture of the entire monitor area is obtained by a stationary camera 11 with a wide visual field and the picture is inputted to a 1st picture processing section 12. The 1st picture processing section 12 performs processing of the picture to output a position and a size of an object to be noticed within a monitor area. The output of the 1st picture processing section is fed to a moving camera 13 whose visual field is variable. A closeup picture of an object is obtained based on information of the position and the size in the output of the processing section 12 in the camera 13. The picture is sent to a 2nd picture processing section 14, in which the object is recognized. The processing result of the 2nd picture processing section 14 is informed to a monitor in voice by a voice synthesis section 15 and a speaker 16.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、監視装置に関し、特
に、ビデオカメラによる監視装置に適用して有効な技術
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance device, and more particularly to a technique effectively applied to a surveillance device using a video camera.

【0002】[0002]

【従来の技術】従来、ビデオカメラによる監視では、ビ
デオカメラからの画像を人が見て監視をすることによ
り、地域の状況を判断しており、そのビデオカメラによ
る監視方式には、以下の3方式があった。 (1)広角の固定カメラにより、監視地域全体を一度に
見渡す方式。 (2)標準的な視野角のカメラの視線を周期的に移動さ
せることにより、監視地域全体を一定時間をかけて見渡
す方式。 (3)視野角が可変で、かつ、視線移動が可能なカメラ
を、監視者が遠隔操作することにより対象地域を監視す
る方式。
2. Description of the Related Art Conventionally, in monitoring by a video camera, a person looks at an image from the video camera to monitor the condition of the area, and the monitoring method by the video camera is as follows. There was a formula. (1) A method of overlooking the entire surveillance area at once with a wide-angle fixed camera. (2) A method of overlooking the entire surveillance area over a certain period of time by periodically moving the line of sight of a camera with a standard viewing angle. (3) A method of monitoring a target area by remotely operating a camera whose view angle is variable and whose line of sight can be moved.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、これら
のいずれの方式においても、人がビデオカメラの画像を
見ることが監視の基本になっている。従って、他のセン
サシステムを併用して、変化や異常を察知するようにし
ない限り、ほとんどの時間、変化のない画像を見続ける
ことが必要になり、労力の無駄になっている。
However, in any of these methods, it is the basis of surveillance that a person looks at an image of a video camera. Therefore, unless another sensor system is used in combination to detect a change or abnormality, it is necessary to continue to see an image that does not change for most of the time, which is a waste of labor.

【0004】また、たとえ、他のセンサシステムの併用
により、変化が生じた時だけ、画像を見るようにして
も、上記(1)(2)(3)の従来方式では、以下の問題点があ
った。 (1)の方式では、広角カメラを使用するため個々の対
象の像が小さく、人が見ても、その状況を判断できない
ことがある。 (2)の方式では、変化が生じた対象にカメラの視線が
向かうまでに、通常はある時間が経過してしまう。ま
た、カメラ視線はすぐにその対象からはずれてしまう。 (3)の方式では、上記(2)の方式と同様に、変化が
生じた対象にカメラの視線を合わせるまでに、ある時間
が経過してしまう。また、対象の大きさに適合した視野
角にカメラを調整する時間も必要である。
Further, even if the image is viewed only when a change occurs due to the combined use of other sensor systems, the conventional methods of (1), (2) and (3) have the following problems. there were. In the method (1), since a wide-angle camera is used, the image of each object is small, and even when viewed by a person, the situation may not be judged. In the method (2), a certain period of time usually elapses before the line of sight of the camera is directed at the changed object. In addition, the line of sight of the camera is immediately removed from the target. In the method (3), as in the method (2), a certain amount of time elapses until the line of sight of the camera is adjusted to the changed object. It also requires time to adjust the camera to a viewing angle suitable for the size of the target.

【0005】本発明の目的は、モニタ画面を間断なく監
視する労力の無駄を省き、監視地域内にある注目すべき
対象を自動的に追跡することを可能とし、緊急時に異常
物体を探す時間を不用とすることが可能な技術を提供す
ることにある。
An object of the present invention is to eliminate the waste of labor for monitoring the monitor screen without interruption and to automatically track a notable target in the monitored area, thereby reducing the time for searching for an abnormal object in an emergency. It is to provide a technology that can be disused.

【0006】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

【0007】[0007]

【課題を解決するための手段】前記目的を達成するため
に、本発明は、ビデオカメラによる監視装置であって監
視地域全体の広角画像を得る手段と、その広角画像を処
理して、注目すべき対象を決定し、その位置と大きさを
得る手段と、その注目すべき対象にカメラの視線を移動
して、対象のクローズアップ画像を得る手段と、そのク
ローズアップ画像を処理して、対象を認識する手段と、
認識結果を音声により通知する手段を有することを最も
主要な特徴とする。
In order to achieve the above-mentioned object, the present invention is a surveillance device using a video camera, a means for obtaining a wide-angle image of the entire surveillance area, and processing the wide-angle image to focus attention. Means for determining the target and its position and size, means for moving the line of sight of the camera to the target of interest to obtain a close-up image of the target, and processing the close-up image A means of recognizing
The most main feature is to have a means for notifying the recognition result by voice.

【0008】[0008]

【作用】前述の手段によれば、広視野角の固定カメラ
を用いて、監視地域全体の広角画像を常時得ておく。
その広角画像を処理して、注目すべき対象を抽出すると
ともに、その位置と大きさを得る。視線可動で視野角
可変のカメラを用いて、その対象に視線を合わせ、か
つ、視野角を調節して、対象のクローズアップ画像を得
る。そのクローズアップ画像を処理して、対象物が何
であるかを認識する。その結果を、音声で監視者に通
知する。
According to the above-mentioned means, a wide-angle image of the entire surveillance area is always obtained by using a fixed camera having a wide viewing angle.
The wide-angle image is processed to extract a target of interest, and its position and size are obtained. Using a camera with a movable line of sight and a variable viewing angle, the line of sight is adjusted to the target and the viewing angle is adjusted to obtain a close-up image of the target. The close-up image is processed to recognize what the object is. The result is notified to the observer by voice.

【0009】以上の作用により、監視地域内にある対象
を自動的に認識して、監視者に音声で通知するとともに
注目すべき対象を自動的に追跡することを可能にしてい
る。
With the above operation, it is possible to automatically recognize an object in the surveillance area, notify the observer by voice, and automatically track the object of interest.

【0010】以下、本発明の構成について、実施例とと
もに説明する。
The structure of the present invention will be described below together with embodiments.

【0011】なお、実施例を説明するための全図におい
て、同一機能を有するものは同一符号を付け、その繰り
返しの説明は省略する。
In all the drawings for explaining the embodiments, parts having the same functions are designated by the same reference numerals, and the repeated description thereof will be omitted.

【0012】[0012]

【実施例】図1は、本発明の実施例におけるブロック構
成図、図2は、図1の映像合成部の出力画像の例を示す
図、図3は、図1の第1画像処理部における処理の流れ
を示す図、図4A〜図4Fは、入力画像の輪郭線抽出結
果を時間的に連続する6フレーム毎に示す図、図5A〜
図5Fは、図4A〜図4Fの各フレームに対応する対数
極座標変換結果をフレーム毎に示す図、図6A〜図6F
は、図4A〜図4Fの各フレームに対応する検査画像を
フレーム毎に示す図、図7は、図6Aの第1フレームの
検査画像について、縦、横方向の画素頻度を示す図、図
8は、図1の第2画像処理部における処理の流れを示す
図である。
FIG. 1 is a block diagram of an embodiment of the present invention, FIG. 2 is a diagram showing an example of an output image of a video synthesizing section of FIG. 1, and FIG. 3 is a diagram of a first image processing section of FIG. 4A to 4F are diagrams showing the flow of processing, and FIG. 5A to FIG. 4F are diagrams showing the contour line extraction result of the input image for every 6 consecutive frames in time.
FIG. 5F is a diagram showing, for each frame, a logarithmic polar coordinate conversion result corresponding to each frame of FIGS. 4A to 4F, and FIGS. 6A to 6F.
8A and 8B are diagrams showing, for each frame, an inspection image corresponding to each frame in FIGS. 4A to 4F. FIG. 7 is a diagram showing pixel frequencies in the vertical and horizontal directions for the inspection image of the first frame in FIG. 6A. FIG. 3 is a diagram showing a flow of processing in a second image processing section of FIG. 1.

【0013】本実施例のビデオカメラによる監視装置は
図1に示すように、まず、広視野角の固定カメラ11で
監視地域全体の画像を得る。この広視野角の固定カメラ
11は、広角レンズを装着した通常のビデオカメラが使
用可能である。その画像を、第1画像処理部12に入力
する。第1画像処理部12では、画像を処理して、監視
地域内にある物体で注目すべき対象の位置と大きさを出
力する。第1画像処理部12の処理については、後述す
る。なお、注目すべき対象とは、監視地域内に初めて出
現したもののように、それが何であるか不明であるも
の、及び動いているものを指す。
As shown in FIG. 1, the surveillance apparatus using the video camera of this embodiment first obtains an image of the entire surveillance area by the fixed camera 11 having a wide viewing angle. As the fixed camera 11 having a wide viewing angle, a normal video camera equipped with a wide angle lens can be used. The image is input to the first image processing unit 12. The first image processing unit 12 processes the image and outputs the position and size of the object to be noted of the object in the monitoring area. The processing of the first image processing unit 12 will be described later. It should be noted that the notable targets are those that are unknown in what they are, such as those that first appeared in the surveillance area, and those that are moving.

【0014】第1画像処理部12の出力を、視野角可変
の可動カメラ13に送る。視野角可変の可動カメラ13
は、縦横2方向の回転を電動で制御できる雲台に取付け
た電動ズームレンズ装備のビデオカメラを用いる。視野
角可変の可動カメラ13では、第1画像処理部12の出
力における位置と大きさの情報に基づき、雲台とズーム
レンズを制御することにより、対象物のクローズアップ
画像を得る。その画像を第2画像処理部14に送り、そ
こでその対象物の認識を行う。第2画像処理部14の処
理については、後述する。
The output of the first image processing section 12 is sent to a movable camera 13 with a variable viewing angle. Movable camera 13 with variable viewing angle
Uses a video camera equipped with an electric zoom lens that is mounted on a pan head that can be electrically controlled to rotate in both vertical and horizontal directions. The movable camera 13 with a variable viewing angle obtains a close-up image of the object by controlling the platform and the zoom lens based on the position and size information in the output of the first image processing unit 12. The image is sent to the second image processing unit 14, where the object is recognized. The processing of the second image processing unit 14 will be described later.

【0015】第2画像処理部14の処理結果を、音声合
成部15及びスピーカ16により音声で監視者に通知す
る。また、広視野角固定カメラ11からの画像、視野角
可変可動カメラ13からの画像、及び第2画像処理部1
4の出力である対象物認識結果を、映像合成部17に入
力し、そこで、監視用の画像を合成する。その画像をビ
デオモニタ18に表示し、監視者の監視に供する。な
お、映像合成部17及びビデオモニタ18は、必要に応
じて設けるもので、本発明に必須のものではない。
The processing result of the second image processing unit 14 is audibly notified to the monitor by the voice synthesizing unit 15 and the speaker 16. Further, the image from the fixed wide viewing angle camera 11, the image from the variable viewing angle movable camera 13, and the second image processing unit 1
The object recognition result, which is the output of No. 4, is input to the video synthesizing unit 17, and the monitoring image is synthesized there. The image is displayed on the video monitor 18 for monitoring by a monitor. The video composition unit 17 and the video monitor 18 are provided as necessary and are not essential to the present invention.

【0016】その監視用の画像の例を図2に示す。ビデ
オモニタ18の画面21に、監視地域内の対象物の画像
22〜26及びクローズアップ画像の視線位置27を表
示する。視線位置27は注目すべき対象物の画像22上
に位置し、その対象物の画像22のクローズアップ画像
28を画面の一部29に表示する。なお、このクローズ
アップ画像28は、注目すべき対象物体がない場合には
表示しない。またその場合、視線位置27は、画面の中
央に位置させる。
An example of the monitoring image is shown in FIG. On the screen 21 of the video monitor 18, the images 22 to 26 of the object in the surveillance area and the line-of-sight position 27 of the close-up image are displayed. The line-of-sight position 27 is located on the image 22 of the target object to be noticed, and the close-up image 28 of the image 22 of the target object is displayed on a part 29 of the screen. The close-up image 28 is not displayed when there is no target object to be noticed. In that case, the line-of-sight position 27 is located at the center of the screen.

【0017】次に、第1画像処理部12での処理の流れ
を図3乃至図7を用いて説明する。
Next, the flow of processing in the first image processing section 12 will be described with reference to FIGS. 3 to 7.

【0018】始めに、図3のフローチャートに従って、
第1画像処理部12での処理の流れを説明する。
First, according to the flow chart of FIG.
The flow of processing in the first image processing unit 12 will be described.

【0019】以下の処理は、入力画像のフレームごとに
繰り返されるものである。
The following processing is repeated for each frame of the input image.

【0020】スッテプ301で、広視野角固定カメラ1
1からの広角画像を入力する。
In step 301, the wide viewing angle fixed camera 1 is used.
Input the wide-angle image from 1.

【0021】ステップ302で、入力された広角画像か
ら、物体の輪郭線を抽出する。その手法としては、多く
のものが提案されているが、例えば、「本郷節之,川人
光男,乾敏郎,三宅誠:エネルギー学習機能をもつ局所
並列確率アルゴリズムによる輪郭線抽出,信学論D-II,V
ol.J74-D-II,No.3,pp.348-356(1991)」に示すものが
利用できる。輪郭線抽出の結果、図4A〜図4Fに示す
輪郭線画像4a〜4fが得られる。該輪郭線画像には、
○図形41、△図形42、□図形43及び視線位置27
が表示されている。
In step 302, the contour line of the object is extracted from the input wide-angle image. Although many methods have been proposed, for example, “Setsuyuki Hongo, Mitsuo Kawahito, Toshiro Inui, Makoto Miyake: Contour line extraction by local parallel stochastic algorithm with energy learning function, theory D -II, V
ol.J74-D-II, No.3, pp.348-356 (1991) ”can be used. As a result of the contour line extraction, the contour line images 4a to 4f shown in FIGS. 4A to 4F are obtained. In the contour line image,
○ Figure 41, △ Figure 42, □ Figure 43 and line-of-sight position 27
Is displayed.

【0022】ステップ303で、物体の輪郭を表す各線
図形に番号を付けるラベリング処理を行う。これは、
「長谷川純一,輿水大和,中山晶,横井茂樹:画像処理
の基本技法<技法入門編>,技術評論社,pp.45-49(19
86)」にある手法が利用できる。この処理の結果、図4
Aの○図形41に対して1、△図形42に対して2、□
図形43に対して3という番号を付与する。
In step 303, a labeling process is performed in which each line figure representing the contour of the object is numbered. this is,
“Junichi Hasegawa, Yamato Koshimizu, Akira Nakayama, Shigeki Yokoi: Basic Techniques for Image Processing <Introduction to Techniques>, Technical Review, pp.45-49 (19
86) ”can be used. As a result of this processing, FIG.
1 for ○ figure 41 of A, 2 for △ figure 42, □
The number 3 is given to the graphic 43.

【0023】ステップ304で、対数極座標変換を行
う。対数極座標変換とは、画像の中心からの距離をr、
水平軸からの回転角をθとしたとき、横軸をlog
(r)、縦軸をθの空間に座標変換することである。な
お、この変換は、本発明において必須ではない。しか
し、「鎧沢勇:画像標本化方法,特願平3−97032
(1991)」に示すように、この変換を施すことにより、
後続する画像処理の演算量を大幅に削減することができ
る。監視システムでは、実時間性が重要であり、なるべ
く演算量を削減する必要がある。そのため本実施例で
は、この変換を採用することにする。この変換結果によ
って得られる変換画像5a〜5fを図5A〜図5Fに示
す。該変換画像には、変換された図形51、52、53
が表示される。
In step 304, logarithmic polar coordinate conversion is performed. The logarithmic polar coordinate transformation is the distance from the center of the image to r,
When the rotation angle from the horizontal axis is θ, the horizontal axis is log
(R) is to transform the vertical axis into a space of θ. Note that this conversion is not essential in the present invention. However, “Yamasazawa Isamu: Image Sampling Method, Japanese Patent Application No. 3-97032
(1991) ”, by applying this conversion,
The calculation amount of the subsequent image processing can be greatly reduced. In the monitoring system, real-time property is important, and it is necessary to reduce the calculation amount as much as possible. Therefore, in this embodiment, this conversion is adopted. Converted images 5a to 5f obtained by the conversion result are shown in FIGS. 5A to 5F. The converted images include the converted figures 51, 52, 53.
Is displayed.

【0024】ステップ305で、(変換画像)−(前変
換画像)の演算を行い、かつ、負の画素値を0にするこ
とにより、差分画像を得る。ここで、前変換画像とは、
1フレーム前の変換画像である。第1フレームにおける
前変換画像は、0(画像が0とは、すべての画素値が0
であることを言う)とする。
In step 305, the difference image is obtained by performing the operation of (converted image)-(pre-converted image) and setting the negative pixel value to zero. Here, the pre-conversion image is
It is a converted image one frame before. The pre-transformed image in the first frame is 0 (0 means that all pixel values are 0.
It is said that).

【0025】ステップ306で、その差分が0か否かを
判定する。差分が0とは、物体が画面から消失しない限
り、画像に変化がなかったことを意味する。差分が0で
ない場合は、ステップ307ヘ進み、差分が0であると
きは、ステップ308へ進む。
At step 306, it is determined whether or not the difference is zero. The difference of 0 means that the image has not changed unless the object disappears from the screen. If the difference is not 0, the process proceeds to step 307, and if the difference is 0, the process proceeds to step 308.

【0026】ステップ307では、差分画像を検査画像
とする。ここで得られた検査画像6a〜6fを図6A〜
図6Fに示す。該検査画像には、図形61、62、63
が表示される。
In step 307, the difference image is used as the inspection image. The inspection images 6a to 6f obtained here are shown in FIGS.
It is shown in FIG. 6F. The inspection image includes figures 61, 62, 63.
Is displayed.

【0027】ステップ308では、蓄積画像を検査画像
とする。ここで、蓄積画像とは、最初の変換画像から、
各フレームで注目すべき対象になった物体を逐次消去し
ていった画像である。第1フレームにおける蓄積画像
は、変換画像5aとする。
In step 308, the accumulated image is used as the inspection image. Here, the accumulated image is from the first converted image,
It is an image in which the object that is the target of attention is sequentially erased in each frame. The accumulated image in the first frame is the converted image 5a.

【0028】ステップ309では、ステップ307また
はステップ308で得られた検査画像の縦、横方向の画
素頻度を計数する。第1フレームについてのその結果を
図7に示す。
In step 309, the pixel frequency in the vertical and horizontal directions of the inspection image obtained in step 307 or step 308 is counted. The result for the first frame is shown in FIG.

【0029】ステップ310で、画素頻度が、縦、横と
も0か否かを判定する。画素頻度が0でない場合は、ス
テップ311へ進み、画素頻度が0の場合は、ステップ
314へ進む。
In step 310, it is determined whether the pixel frequency is 0 in both the vertical and horizontal directions. If the pixel frequency is not 0, the process proceeds to step 311, and if the pixel frequency is 0, the process proceeds to step 314.

【0030】ステップ311で、縦、横の最大頻度位置
を抽出する。
In step 311, the maximum vertical and horizontal frequency positions are extracted.

【0031】ステップ312で、縦、横の最大頻度位
置、または、その位置に最も近い位置に存在する画素の
ラベルを有する物体輪郭線の入力画像中での中心を視線
位置として抽出する。
In step 312, the center in the input image of the object contour line having the label of the pixel existing at the maximum frequency position in the vertical and horizontal directions or the position closest to that position is extracted as the line-of-sight position.

【0032】ステップ313で、対象物体の大きさを計
測する。
At step 313, the size of the target object is measured.

【0033】ステップ314では、視線位置27を画面
中央とし、対象の大きさを0とする。
In step 314, the line-of-sight position 27 is set to the center of the screen and the size of the target is set to zero.

【0034】ステップ315で、視線位置と対象物体の
大きさを出力する。この出力により、視野角可変の可動
カメラ13は、雲台とズームレンズを制御して、対象物
のクローズアップ画像を得る。
At step 315, the line-of-sight position and the size of the target object are output. With this output, the movable camera 13 with a variable viewing angle controls the platform and the zoom lens to obtain a close-up image of the object.

【0035】ステップ316で、(蓄積画像)−(対象
物体輪郭線)を、新たな蓄積画像として、蓄積する。
In step 316, (accumulated image)-(target object contour line) is accumulated as a new accumulated image.

【0036】以上の処理を入力画像のフレーム毎に繰り
返す。
The above processing is repeated for each frame of the input image.

【0037】次に、入力画像のフレーム毎に、以上の図
3の処理が行われる様子を具体的に説明する。
Next, how the above-described processing of FIG. 3 is performed for each frame of the input image will be specifically described.

【0038】図4A〜図4Fは、ステップ302による
入力画像の輪郭線抽出結果を時間的に連続する6フレー
ム毎に示すものである。同様に、図5A〜図5Fは、ス
テップ304による対数極座標変換結果をフレーム毎に
示すものであり、図6A〜図6Fは、ステップ307又
は308による検査画像をフレーム毎に示すものであ
る。なお、広角画像の大きさは、64×64画素として
いる。
FIGS. 4A to 4F show the contour line extraction result of the input image in step 302 for every 6 frames which are temporally continuous. Similarly, FIGS. 5A to 5F show the logarithmic polar coordinate conversion result of step 304 for each frame, and FIGS. 6A to 6F show the inspection image of step 307 or 308 for each frame. The size of the wide-angle image is 64 × 64 pixels.

【0039】図4A〜図4Fに示す輪郭線抽出結果にお
ける各フレームの変化の様子を次の通りとして説明をす
る。
The following describes how the frames in the contour extraction results shown in FIGS. 4A to 4F change.

【0040】図4Aが示す第1フレームは、初期フレー
ムであり、その画像4aには物体輪郭線である○図形4
1、△図形42、□図形43が表示されている。第2フ
レームの画像4bは、第1フレームの画像4aと全く同
じである。第3フレームの画像4cでは、□図形43の
位置が変化している。第4フレームの画像4dは、第3
フレームの画像4cと全く同じである。第5フレームの
画像4eは、第4フレームの画像4dと全く同じであ
る。第6フレームの画像4fでは、□図形43の位置が
変化している。
The first frame shown in FIG. 4A is an initial frame, and its image 4a has an object contour line.
1, a Δ graphic 42, and a □ graphic 43 are displayed. The image 4b of the second frame is exactly the same as the image 4a of the first frame. In the image 4c of the third frame, the position of the □ figure 43 has changed. The image 4d of the fourth frame is the third
It is exactly the same as the frame image 4c. The image 4e of the fifth frame is exactly the same as the image 4d of the fourth frame. In the image 4f of the sixth frame, the position of the □ figure 43 has changed.

【0041】まず、第1フレームでの処理について説明
をする。第1フレームは初めて現われるフレームである
から、蓄積画像として変換画像5aを使用し、前変換画
像を0としている。したがって、ステップ305の差分
画像は、変換画像5a自身になる。その結果、差分は0
でないので、ステップ306からステップ307へ進み
差分画像を検査画像6aとする。検査画像6aには、図
形61、62、63が注目すべき対象として表示されて
いる。その検査画像6aの縦、横方向の画素頻度は、図
7に示されるように、縦=2、横=44で最大になる。
この位置の画素のラベルは3であり、そのラベルを有す
る物体輪郭線□図形43の入力画像4a上における中心
は、縦=27、横=52の位置である。また、その物体
輪郭線□図形43の大きさ(外接正方形の1辺の長さ)
は、12である。この位置と大きさを出力することによ
り、□図形43が、注目すべき対象物としてクローズア
ップ画像となる。続いて、蓄積画像から、当該ラベル3
の画素を消去して、新たな蓄積画像とする。
First, the processing in the first frame will be described. Since the first frame is the first frame to appear, the converted image 5a is used as the accumulated image and the previous converted image is set to 0. Therefore, the difference image in step 305 becomes the converted image 5a itself. As a result, the difference is 0
Therefore, the process proceeds from step 306 to step 307, and the difference image is set as the inspection image 6a. In the inspection image 6a, figures 61, 62, 63 are displayed as targets to be noticed. As shown in FIG. 7, the vertical and horizontal pixel frequencies of the inspection image 6a are maximum at vertical = 2 and horizontal = 44.
The pixel label at this position is 3, and the center of the object outline □ figure 43 having that label on the input image 4a is at the position of vertical = 27, horizontal = 52. Also, the size of the object outline □ figure 43 (length of one side of the circumscribed square)
Is twelve. By outputting this position and size, the □ graphic 43 becomes a close-up image as an object to be noticed. Then, from the accumulated image, the label 3
The pixels of are erased to make a new accumulated image.

【0042】次に、第2フレームでは、変換画像5b
は、前変換画像5aと全く同じであるから、ステップ3
06の差分画像は0になる。その結果、検査画像6bに
は、蓄積画像が用いられる。検査画像6bには、注目す
べき対象物であるがまだクローズアップの対象となって
いない〇図形41及び△図形42に対応する図形61、
62が表示されている。その検査画像6bの縦、横方向
の画素頻度は、縦=38、横=54で最大になる。この
位置の画素のラベルは1であり、そのラベルを有する物
体輪郭線〇図形41の入力画像上における中心は、縦=
14、横=17の位置である。また、その物体輪郭線の
大きさは、18である。この位置と大きさを出力するこ
とにより、〇図形41が、注目すべき対象物としてクロ
ーズアップ画像となる。続いて、蓄積画像から、当該ラ
ベル1の画素を消去して、新たな蓄積画像とする。
Next, in the second frame, the converted image 5b
Is exactly the same as the pre-converted image 5a, so step 3
The difference image of 06 becomes 0. As a result, the accumulated image is used as the inspection image 6b. In the inspection image 6b, the graphic 61 corresponding to the ◯ graphic 41 and the Δ graphic 42, which are notable objects to be noticed but are notable targets,
62 is displayed. The vertical and horizontal pixel frequencies of the inspection image 6b are maximum at vertical = 38 and horizontal = 54. The label of the pixel at this position is 1, and the center of the object contour line ◯ figure 41 having the label on the input image is vertical =
The position is 14 and the width = 17. The size of the object contour line is 18. By outputting this position and size, the O graphic 41 becomes a close-up image as an object to be noticed. Then, the pixel of the label 1 is erased from the accumulated image to obtain a new accumulated image.

【0043】次に、第3フレームでは、画像4cで□図
形43の位置が変化しているので、変換画像5cは前変
換画像5bとは異なり、差分画像は0ではない。その結
果、検査画像6cには、差分画像が用いられる。検査画
像6cでは、位置が変化した□図形に対応した図形63
が表示される。その検査画像6cの縦、横方向の画素頻
度は、縦=64、横=54で最大になる。この位置の画
素のラベルは3であり、そのラベルを有する物体輪郭線
□図形43の入力画像上における中心は、縦=25、横
=50の位置である。また、その物体輪郭線の大きさ
は、12である。この位置と大きさを出力することによ
り、□図形43が、注目すべき対象物としてクローズア
ップ画像となる。続いて、蓄積画像から当該ラベル3の
画素を消去して、新たな蓄積画像とする。なお、ラベル
3の画素は、第1フレームの処理において消去済みであ
るから、実効的には、蓄積画像は更新されない。
Next, in the third frame, since the position of the □ figure 43 has changed in the image 4c, the converted image 5c is different from the previous converted image 5b, and the difference image is not zero. As a result, the difference image is used as the inspection image 6c. In the inspection image 6c, the figure 63 corresponding to the □ figure whose position has changed
Is displayed. The vertical and horizontal pixel frequencies of the inspection image 6c are maximum at vertical = 64 and horizontal = 54. The label of the pixel at this position is 3, and the center of the object outline □ figure 43 having that label on the input image is at the position of vertical = 25, horizontal = 50. The size of the object contour line is 12. By outputting this position and size, the □ graphic 43 becomes a close-up image as an object to be noticed. Then, the pixel of the label 3 is erased from the accumulated image to obtain a new accumulated image. Since the pixel of label 3 has been erased in the processing of the first frame, the accumulated image is not effectively updated.

【0044】次に、第4フレームでは、変換画像4d
は、前変換画像4cと全く同じであるから、差分画像は
0になる。その結果、検査画像6dには、蓄積画像が用
いられる。検査画像6dには、不明な対象物であるがま
だクローズアップの対象となっていない△図形42に対
応する図形62が表示されている。その検査画像6dの
縦、横方向の画素頻度は、縦=26、横=52で最大に
なる。この位置の画素のラベルは2であり、そのラベル
を有する物体輪郭線△図形42の入力画像上における中
心は、縦=46、横=15の位置である。また、その物
体輪郭線の大きさは、13である。この位置と大きさを
出力することにより、△図形42が、注目すべき対象物
としてクローズアップ画像となる。続いて、蓄積画像か
ら、当該ラベル2の画素を消去して、新たな蓄積画像と
する。この時点で、蓄積画像は0になる。
Next, in the fourth frame, the converted image 4d
Is exactly the same as the pre-conversion image 4c, the difference image is 0. As a result, the accumulated image is used as the inspection image 6d. In the inspection image 6d, a graphic 62 corresponding to a Δ graphic 42 which is an unknown object but has not yet been targeted for close-up is displayed. The vertical and horizontal pixel frequencies of the inspection image 6d are maximum when vertical = 26 and horizontal = 52. The pixel label at this position is 2, and the center of the object contour line Δ graphic 42 having that label on the input image is at the position of vertical = 46, horizontal = 15. The size of the object contour line is 13. By outputting this position and size, the Δ graphic 42 becomes a close-up image as an object to be noticed. Then, the pixel of the label 2 is erased from the accumulated image to obtain a new accumulated image. At this point, the accumulated image becomes 0.

【0045】次に、第5フレームでは、変換画像5e
は、前変換画像5dと全く同じであり、差分画像は0に
なる。その場合、検査画像6eには、蓄積画像が用いら
れる。その検査画像6eの縦、横方向の画素頻度は、と
もに0である。従って、視線の位置は、画面中央(縦=
32、横=32)であり、物体の大きさは0であり、こ
れらを出力する。この出力は、クローズアップ画像の対
象物体がないことを意味する。そして、蓄積画像は、実
効的に更新されない。
Next, in the fifth frame, the converted image 5e
Is exactly the same as the pre-conversion image 5d, and the difference image becomes 0. In that case, the accumulated image is used as the inspection image 6e. The vertical and horizontal pixel frequencies of the inspection image 6e are both 0. Therefore, the position of the line of sight is the center of the screen (vertical =
32, width = 32), the size of the object is 0, and these are output. This output means that there is no target object for the close-up image. And the accumulated image is not effectively updated.

【0046】次に、第6フレームでは、画像4fで□図
形43の位置が変化しているので、変換画像5fは、前
変換画像5eとは異なり、差分画像は0ではない。その
場合、検査画像6fには、差分画像が用いられる。検査
画像6fでは、位置が変化した□図形43に対応した図
形63が表示される。その検査画像の縦、横方向の画素
頻度は、縦=2、横=44で最大になる。この位置の画
素のラベルは3であり、そのラベルを有する物体輪郭線
□図形43の入力画像上における中心は、縦=27、横
=52の位置である。また、その物体輪郭線の大きさ
は、12である。この位置と大きさを出力することによ
り、□図形43が、注目すべき対象物としてクローズア
ップ画像となる。蓄積画像は、実効的に更新されない。
Next, in the sixth frame, since the position of the □ figure 43 has changed in the image 4f, the converted image 5f is different from the previous converted image 5e, and the difference image is not zero. In that case, a difference image is used as the inspection image 6f. In the inspection image 6f, the graphic 63 corresponding to the □ graphic 43 whose position has changed is displayed. The vertical and horizontal pixel frequencies of the inspection image are maximum when vertical = 2 and horizontal = 44. The label of the pixel at this position is 3, and the center of the object outline □ figure 43 having that label on the input image is at the position of vertical = 27, horizontal = 52. The size of the object contour line is 12. By outputting this position and size, the □ graphic 43 becomes a close-up image as an object to be noticed. The accumulated image is not effectively updated.

【0047】以下、同様にフレーム毎に処理が行われ、
監視地域内に初めて出現した不明で対象物及び、動いて
いる対象物があると、クローズアップ画像を得るための
出力がされる。
Thereafter, processing is similarly performed for each frame,
If there is an unknown object or moving object that first appears in the surveillance area, an output for obtaining a close-up image is output.

【0048】次に、図8を用いて、図1の第2画像処理
部14での処理の流れを説明する。この第2画像処理部
14は、視野角可変の可動カメラ13の出力のフレーム
毎に、対象の大きさが0でない場合に動作する。ここで
の処理の大部分は、「鎧沢勇:図面解釈処理方式,特願
平3−21623号(1991)」で用いているものと同じ
である。
Next, the flow of processing in the second image processing unit 14 of FIG. 1 will be described with reference to FIG. The second image processing unit 14 operates when the size of the target is not 0 for each frame output from the movable camera 13 having a variable viewing angle. Most of the processing here is the same as that used in “Yamasazawa: Drawing Interpretation Processing Method, Japanese Patent Application No. 3-21623 (1991)”.

【0049】ステップ801で、第1画像処理部12の
出力に基づき視線の方向と視野角が制御された、視野角
可変の可動カメラ13からのクローズアップ画像28を
入力する。
In step 801, the close-up image 28 is input from the movable camera 13 with a variable viewing angle in which the direction of the line of sight and the viewing angle are controlled based on the output of the first image processing unit 12.

【0050】ステップ802で、入力されたクローズア
ップ画像から物体の輪郭線を抽出する。その手法は、図
3のステップ302におけると同様の手法を用いればよ
い。
In step 802, the contour line of the object is extracted from the input close-up image. As the method, the same method as in step 302 of FIG. 3 may be used.

【0051】ステップ803で、対数極座標変換を行
い、対象物体の見かけの大きさの変化や回転を、平行移
動に変換する。この手法も、図3のステップ304にお
けると同様である。
In step 803, logarithmic polar coordinate conversion is performed to convert changes in apparent size and rotation of the target object into parallel movement. This method is also the same as in step 304 of FIG.

【0052】ステップ804で、R変換を行い、平行移
動によって変化しない画像を得る。R変換は、「Reitbo
eck H.J. and Brody,T.P.:A transformation with inva
riance under cyclic permutation for applications i
n pattern recognition,Information and Control,Vol
.15,pp.130-154(1969)h」に示される原理が利用でき
る。
In step 804, R conversion is performed to obtain an image that does not change due to parallel movement. For R conversion, refer to "Reitbo
eck HJ and Brody, TP: A transformation with inva
riance under cyclic permutation for applications i
n pattern recognition, Information and Control, Vol
.15, pp.130-154 (1969) h ”can be used.

【0053】ステップ805で、R変換結果を辞書画像
と照合する。
In step 805, the R conversion result is collated with the dictionary image.

【0054】ステップ806で、差(ベクトルの距離)
が最も小さい辞書画像の名前を対象物体の名前と同定す
る。これにより認識が達成される。
At step 806, the difference (distance of vector)
The name of the dictionary image with the smallest number is identified as the name of the target object. This achieves recognition.

【0055】最後に、ステップ807で、認識結果を出
力する。これにより、対象物の認識結果が音声により監
視者に通知されることは、前記の通りである。
Finally, in step 807, the recognition result is output. As described above, the result of recognizing the object is notified to the monitor by voice.

【0056】以上、本発明を、前記実施例に基づき具体
的に説明したが、本発明は、前記実施例に限定されるも
のではなく、その要旨を逸脱しない範囲において種々変
更可能であることは勿論である。
Although the present invention has been specifically described based on the above embodiments, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.

【0057】[0057]

【発明の効果】以上説明したように、本発明によれば、
監視地域内にある物体の自動認識とその結果の音声によ
る通知が実現できる。これにより、モニタ画面を間断な
く監視する必要が無くなり、省力化が図れる。
As described above, according to the present invention,
It is possible to realize automatic recognition of an object in the surveillance area and voice notification of the result. As a result, it is not necessary to monitor the monitor screen without interruption, and labor can be saved.

【0058】また、注目すべき対象、即ち監視地域内に
ある物体で、それが何であるか不明であるもの、及び動
いているものを自動的に追跡することが可能になり、そ
のクローズアップ画像が常時得られるので、緊急時に異
常物体を探す時間が不用になる。
Further, it becomes possible to automatically track an object to be noticed, that is, an object in the surveillance area, which is unknown, and a moving object, and a close-up image thereof. Since it is always obtained, the time to search for an abnormal object in an emergency becomes unnecessary.

【0059】本発明は、ビルや公園の警備、深海や放射
能汚染地域の探査など、監視が必要な産業における省力
化に有効である。
INDUSTRIAL APPLICABILITY The present invention is effective for labor saving in industries where monitoring is required, such as security for buildings and parks, exploration of the deep sea and radioactive contamination areas.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施例におけるブロック構成図。FIG. 1 is a block configuration diagram in an embodiment of the present invention.

【図2】 図1の映像合成部の出力画像を示す図。FIG. 2 is a diagram showing an output image of the video composition unit of FIG.

【図3】 図1の第1画像処理部における処理の流れを
示すフローチャート。
FIG. 3 is a flowchart showing a processing flow in a first image processing unit in FIG.

【図4A】 図3の入力画像の輪郭線抽出結果の第1フ
レームを示す図。
FIG. 4A is a diagram showing a first frame of a contour line extraction result of the input image of FIG. 3;

【図4B】 図3の入力画像の輪郭線抽出結果の第2フ
レームを示す図。
FIG. 4B is a diagram showing a second frame of the contour line extraction result of the input image of FIG. 3;

【図4C】 図3の入力画像の輪郭線抽出結果の第3フ
レームを示す図。
FIG. 4C is a diagram showing a third frame of the contour line extraction result of the input image of FIG. 3;

【図4D】 図3の入力画像の輪郭線抽出結果の第4フ
レームを示す図。
FIG. 4D is a diagram showing a fourth frame of the contour line extraction result of the input image of FIG. 3;

【図4E】 図3の入力画像の輪郭線抽出結果の第5フ
レームを示す図。
FIG. 4E is a diagram showing a fifth frame of the contour line extraction result of the input image of FIG. 3;

【図4F】 図3の入力画像の輪郭線抽出結果の第6フ
レームを示す図。
FIG. 4F is a diagram showing a sixth frame of the contour line extraction result of the input image of FIG. 3;

【図5A】 図3の対数極座標変換結果の第1フレーム
を示す図。
FIG. 5A is a diagram showing a first frame of the logarithmic polar coordinate conversion result of FIG. 3;

【図5B】 図3の対数極座標変換結果の第2フレーム
を示す図。
FIG. 5B is a diagram showing a second frame of the logarithmic polar coordinate conversion result of FIG. 3;

【図5C】 図3の対数極座標変換結果の第3フレーム
を示す図。
FIG. 5C is a diagram showing a third frame of the logarithmic polar coordinate conversion result of FIG. 3;

【図5D】 図3の対数極座標変換結果の第4フレーム
を示す図。
FIG. 5D is a diagram showing a fourth frame of the logarithmic polar coordinate conversion result of FIG. 3;

【図5E】 図3の対数極座標変換結果の第5フレーム
を示す図。
FIG. 5E is a diagram showing a fifth frame of the logarithmic polar coordinate conversion result of FIG. 3;

【図5F】 図3の対数極座標変換結果の第6フレーム
を示す図。
FIG. 5F is a diagram showing a sixth frame of the logarithmic polar coordinate conversion result of FIG. 3;

【図6A】 図3の検査画像の第1フレームを示す図。6A is a diagram showing a first frame of the inspection image of FIG. 3. FIG.

【図6B】 図3の検査画像の第2フレームを示す図。6B is a diagram showing a second frame of the inspection image shown in FIG. 3;

【図6C】 図3の検査画像の第3フレームを示す図。6C is a diagram showing a third frame of the inspection image of FIG. 3. FIG.

【図6D】 図3の検査画像の第4フレームを示す図。6D is a diagram showing a fourth frame of the inspection image of FIG. 3. FIG.

【図6E】 図3の検査画像の第5フレームを示す図。FIG. 6E is a diagram showing a fifth frame of the inspection image shown in FIG. 3;

【図6F】 図3の検査画像の第6フレームを示す図。6F is a diagram showing a sixth frame of the inspection image of FIG. 3. FIG.

【図7】 図6Aの縦、横方向の画素頻度を示す図。FIG. 7 is a diagram showing pixel frequencies in the vertical and horizontal directions of FIG. 6A.

【図8】 図1の第2画像処理部における処理の流れを
示す図。
FIG. 8 is a diagram showing the flow of processing in the second image processing unit in FIG.

【符号の説明】[Explanation of symbols]

11…広視野角の固定カメラ、12…第1画像処理部、
13…視野角可変の可動カメラ、14…第2画像処理
部、15…音声合成部、16…スピーカ、17…映像合
成部、18…ビデオモニタ、21…ビデオモニタの画
面、27…クローズアップ画像の視線位置、28…クロ
ーズアップ画像。
11 ... Wide view angle fixed camera, 12 ... First image processing unit,
13 ... Movable camera with variable viewing angle, 14 ... Second image processing section, 15 ... Audio synthesis section, 16 ... Speaker, 17 ... Video synthesis section, 18 ... Video monitor, 21 ... Video monitor screen, 27 ... Close-up image Eye position, 28 ... close-up image.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 監視地域全体の広角画像を得る手段と、
その広角画像を処理して注目すべき対象を決定し、その
位置と大きさを得る手段と、その注目すべき対象にカメ
ラの視線を移動して、対象のクローズアップ画像を得る
手段と、そのクローズアップ画像を処理して、対象を認
識する手段と、認識結果を音声により通知する手段を有
することを特徴とするビデオカメラによる監視装置。
1. A means for obtaining a wide-angle image of the entire surveillance area,
A means for processing the wide-angle image to determine a target to be noticed, a means for obtaining its position and size, a means for moving the line of sight of the camera to the target to obtain a close-up image of the target, A surveillance device using a video camera, comprising: a means for recognizing a target by processing a close-up image and a means for notifying a recognition result by voice.
JP3178099A 1991-07-18 1991-07-18 Monitor equipment by video camera Pending JPH06225197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3178099A JPH06225197A (en) 1991-07-18 1991-07-18 Monitor equipment by video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3178099A JPH06225197A (en) 1991-07-18 1991-07-18 Monitor equipment by video camera

Publications (1)

Publication Number Publication Date
JPH06225197A true JPH06225197A (en) 1994-08-12

Family

ID=16042628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3178099A Pending JPH06225197A (en) 1991-07-18 1991-07-18 Monitor equipment by video camera

Country Status (1)

Country Link
JP (1) JPH06225197A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6970576B1 (en) 1999-08-04 2005-11-29 Mbda Uk Limited Surveillance system with autonomic control
JP2007049229A (en) * 2005-08-05 2007-02-22 Canon Inc Imaging apparatus and method
JP2008146185A (en) * 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
JP2016200893A (en) * 2015-04-08 2016-12-01 日産自動車株式会社 Device for generating image for recognition, object detection device, and method for generating image for recognition
CN111028470A (en) * 2019-12-03 2020-04-17 安徽润谷科技有限公司 Omnibearing intelligent security system and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6970576B1 (en) 1999-08-04 2005-11-29 Mbda Uk Limited Surveillance system with autonomic control
JP2007049229A (en) * 2005-08-05 2007-02-22 Canon Inc Imaging apparatus and method
JP2008146185A (en) * 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
JP2016200893A (en) * 2015-04-08 2016-12-01 日産自動車株式会社 Device for generating image for recognition, object detection device, and method for generating image for recognition
CN111028470A (en) * 2019-12-03 2020-04-17 安徽润谷科技有限公司 Omnibearing intelligent security system and method

Similar Documents

Publication Publication Date Title
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US6819778B2 (en) Method and system for tracking a fast moving object
CN101123722A (en) Panorama video intelligent monitoring method and system
WO2001069931A1 (en) Method and apparatus for video surveillance with defined zones
CN110536074B (en) Intelligent inspection system and inspection method
JP2001333422A (en) Monitoring device
WO2009066988A2 (en) Device and method for a surveillance system
JPH0737100A (en) Moving object detection and judgement device
KR20160014413A (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP2002374521A (en) Method and device for monitoring mobile object
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
JPH07288802A (en) Intruded object supervisory equipment
JP4281338B2 (en) Image detection apparatus and image detection method
JPH05334572A (en) Room monitoring device
JPH06225197A (en) Monitor equipment by video camera
JP2006311099A (en) Device and method for automatic tracking
CN109785562A (en) A kind of vertical photoelectricity ground based threats warning system and suspicious object recognition methods
CN113361364A (en) Target behavior detection method, device, equipment and storage medium
KR101780929B1 (en) Image surveillence system for moving object
JPH0793558A (en) Image monitoring device
KR100541618B1 (en) Apparatus and method for controlling a monitoring camera
JP2009301175A (en) Monitoring method
CN112131915A (en) Face attendance system, camera and code stream equipment
JP2002101408A (en) Supervisory camera system
JP2007036782A (en) Moving object detection apparatus