JPH08317373A - System for detecting and extracting object in video monitoring device - Google Patents

System for detecting and extracting object in video monitoring device

Info

Publication number
JPH08317373A
JPH08317373A JP7118629A JP11862995A JPH08317373A JP H08317373 A JPH08317373 A JP H08317373A JP 7118629 A JP7118629 A JP 7118629A JP 11862995 A JP11862995 A JP 11862995A JP H08317373 A JPH08317373 A JP H08317373A
Authority
JP
Japan
Prior art keywords
image
similarity
image signal
positive
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7118629A
Other languages
Japanese (ja)
Other versions
JP3294468B2 (en
Inventor
Wataru Ito
渡 伊藤
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Denshi KK
Original Assignee
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Denshi KK filed Critical Hitachi Denshi KK
Priority to JP11862995A priority Critical patent/JP3294468B2/en
Priority to US08/646,018 priority patent/US6088468A/en
Priority to DE69622476T priority patent/DE69622476T2/en
Priority to EP96303303A priority patent/EP0749098B1/en
Priority to KR1019960016320A priority patent/KR100259737B1/en
Publication of JPH08317373A publication Critical patent/JPH08317373A/en
Application granted granted Critical
Publication of JP3294468B2 publication Critical patent/JP3294468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: To easily identify only the image of an object appearing on a screen by preserving prescribed positive/negative match information, performing division corresponding to the match and binarizing a differential value corresponding to each positive/negative match. CONSTITUTION: An image signal provided by picking up the image of a monitor zone with a television camera 121 is inputted through an input I/F123 to a data bus 122 and stored in an image memory 124. Besides, a CPU126 analyzes the image in a program memory 125 according to the program stored in the memory 125 and executes object detecting processing and corresponding to the result, a warning lamp 130 is turned on through an output I/F128. In this case, when the processing of the CPU126 is started, the image signals picked up by the camera 121 are fetched as image data of a prescribed number of picture elements. Next, match information Sn is found, the difference in the luminance value of picture elements between an input image and a background image is calculated, and positive/negative match information is preserved. Further, processing is divided into plural binarizing processing steps corresponding to that sign and binarization is performed corresponding to each positive/ negative match.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、テレビジョンカメラを
用いた映像監視装置に係り、特に危険区域に入ってくる
物体の検出など、極めて高い信頼性が要求される場合に
好適な映像監視装置における物体検出方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video surveillance device using a television camera, and particularly to a video surveillance device suitable for extremely high reliability such as detection of an object entering a dangerous area. Object detection method in.

【0002】[0002]

【従来の技術】テレビジョンカメラを用いた映像監視装
置は、近年、広く一般的に用いられているが、このよう
な監視システムにおいては、単に画像モニタによる有人
監視ではなく、その監視視野内に入り込んでくる人間や
自動車などの物体を、画像信号から自動的に検出し、所
定の報知や警報処置が得られるようにしたシステムが要
求されるようになってきているが、このときには、画像
信号から、信号処理により物体を検出する必要がある。
2. Description of the Related Art Video surveillance devices using television cameras have been widely and widely used in recent years. However, in such surveillance systems, it is not merely manned surveillance by an image monitor but within the surveillance field of view. There is a demand for a system capable of automatically detecting an intruding object such as a human being or an automobile from an image signal to obtain a predetermined notification or alarm treatment. Therefore, it is necessary to detect an object by signal processing.

【0003】ところで、このような画像信号の処理によ
り物体を検出する方式の従来技術としては、逐次入力さ
れる画像の最新の画像を古い画像と比較し、画素毎に輝
度値の差分を求め、その差分値の大きい領域を物体とし
て検出する方式が知られており、広く用いられている。
By the way, as a conventional technique of a method of detecting an object by processing such an image signal, the latest image of successively input images is compared with an old image to obtain a difference in luminance value for each pixel, A method of detecting an area having a large difference value as an object is known and widely used.

【0004】この従来技術による方式の基本的な流れを
図8に示す。すなわち、この従来技術では、まず処理8
1で画像の取込みを行ない、次に処理82では輝度値の
差分を求め、その差分を処理83で二値化し、最後に処
理84で、この二値化したデータを所定の閾値で判定し
て物体を検出するようになっている。
FIG. 8 shows the basic flow of the system according to this conventional technique. That is, in this conventional technique, first, the process 8 is performed.
In step 1, the image is captured, then in step 82, the difference in the brightness value is obtained, the difference is binarized in step 83, and finally, in step 84, the binarized data is judged with a predetermined threshold value. It is designed to detect objects.

【0005】しかし、この従来技術のように、単純に差
分を求めただけでは、図9(a)に示すように、検出すべ
き物体90に部分的な欠落部分91が生じ、誤検出の問
題がある。
However, if the difference is simply obtained as in this prior art, a partial missing portion 91 is generated in the object 90 to be detected, as shown in FIG. There is.

【0006】しかしながら、上記従来技術の問題につい
ては、膨張・収縮演算を適用することにより解決でき
る。
However, the above-mentioned problems of the prior art can be solved by applying an expansion / contraction operation.

【0007】このような、差分処理による移動物体の検
出方式の応用例としては、例えば1994年7月発行、
“O plus E” No.176,pp.122-136,に記載の 上田
他1による『画像認識技術を用いたインテリジェント映
像ハンドリング』と題する論文がある。
As an application example of such a moving object detection method by difference processing, for example, issued in July 1994,
Ueda described in "O plus E" No.176, pp.122-136
There is a paper entitled "Intelligent Video Handling Using Image Recognition Technology" by others 1.

【0008】この論文による移動物体の検出方式は、時
間的に連続した三枚の画像から物体の検出を行なうよう
にしたもので、図11に示すように、まず、時間的に連
続する画像111、112、113を入力画像とし、画
像111と画像112の輝度差分と、画像112と画像
113の輝度差分をそれぞれ計算し、二値化してから膨
張・収縮演算を行って画像114及び画像115を得
る。次に、これらの二値化画像114と115のAND
処理により各画像の共通部分を求め、物体の画像116
を得るのである。
The moving object detection method according to this paper is designed to detect an object from three temporally consecutive images. As shown in FIG. , 112 and 113 as input images, the brightness difference between the image 111 and the image 112 and the brightness difference between the image 112 and the image 113 are calculated, binarized, and then the expansion / contraction operation is performed to obtain the images 114 and 115. obtain. Next, AND these binary images 114 and 115.
The common part of each image is obtained by processing, and the object image 116
To get.

【0009】しかしながら、この方式によっても、図9
に示すように、 (b) 照明変動に伴う背景92の誤検出93。 (c) 入り込んだ物体が発光している場合、その光の反射
している領域94による誤検出95。 (d) 入り込んだ物体の影の領域96による誤検出97。 という問題が残り、この結果、実際には物体が画像視野
内に存在していないにもかかわらず、存在していると誤
検出してしまう虞れがあった。
However, even with this method, FIG.
(B) False detection 93 of the background 92 due to illumination fluctuation. (c) If the entering object is emitting light, erroneous detection 95 by the area 94 where the light is reflected. (d) False detection 97 due to the shadow area 96 of the entering object. However, as a result, there is a possibility that an object may be erroneously detected as being present even though the object is not actually present in the image visual field.

【0010】[0010]

【発明が解決しようとする課題】従来技術は、前記した
ように、物体誤検出の点について充分に配慮がされてい
るとはいえず、図9(b)に示したように、照明変動に伴
う背景による誤検出93の問題があり、さらに図9(c)
に示したように、車のヘッドライトのように物体が発光
している場合、その光の反射している領域94による誤
検出95の問題や、図9(d)に示したように、入り込ん
だ物体の影の領域96による誤検出97の問題があっ
た。
As described above, the prior art cannot be said to give sufficient consideration to the erroneous detection of an object, and as shown in FIG. There is a problem of false detection 93 due to the background, and further, FIG. 9 (c)
As shown in Fig. 9, when an object emits light like a headlight of a car, the problem of false detection 95 due to the area 94 where the light is reflected, and as shown in Fig. 9 (d), There was a problem of false detection 97 due to the shadow area 96 of the object.

【0011】そして、これら誤検出の問題は、特に踏切
に進入する歩行者や車両などの物体の監視に応用した場
合には、ほとんど致命的なものとなりかねず、従って、
応用範囲が限られてしまうという欠点があった。
These erroneous detection problems can be almost fatal, especially when applied to the monitoring of objects such as pedestrians and vehicles entering the level crossing.
There was a drawback that the application range was limited.

【0012】本発明の第1の目的は、画像信号の画面内
に存在している物体の像だけを容易に識別でき、監視し
ている視野内に入り込んだ物体が常に確実に検出できる
ようにした映像監視装置における物体検出方式を提供す
ることにある。
A first object of the present invention is to make it possible to easily identify only an image of an object existing within a screen of an image signal and to always reliably detect an object that has entered the field of view being monitored. An object of the present invention is to provide an object detection method in the video monitoring device.

【0013】また、本発明の第2の目的は、監視してい
る視野内に局所的に温度を異にする部分が現われた場
合、それを確実に検出できるようにした映像監視装置に
おける物体検出方式を提供することにある。
Further, a second object of the present invention is to detect an object in a video monitoring device which can surely detect when a part having a locally different temperature appears in the field of view being monitored. To provide a method.

【0014】[0014]

【課題を解決するための手段】まず、第1の本発明によ
れば、上記第1の目的は、図8に示した従来技術による
物体検出方式の基本的な処理に、図1に示すように、符
号情報保存ステップ13と、符号に応じて分岐する判断
処理ステップ14、それに第1の二値化処理ステップ1
5と第2の二値化処理ステップ16を付加し、これら第
1の二値化処理ステップ15と第2の二値化処理ステッ
プ16の閾値を異ならしめておくことにより達成され
る。なお、括弧を付して示してある数字は、他の図にお
ける同じ処理内容のステップを表わす。
First, according to the first aspect of the present invention, the first object is to perform the basic processing of the object detecting method according to the prior art shown in FIG. First, a code information storage step 13, a judgment processing step 14 for branching according to the code, and a first binarization processing step 1
This is achieved by adding 5 and the second binarization processing step 16 and making the threshold values of the first binarization processing step 15 and the second binarization processing step 16 different from each other. The numbers shown in parentheses indicate the steps of the same processing content in other figures.

【0015】次に、第2の本発明によれば、上記第1の
目的は、図2に示すように、図1に示した第1の本発明
の構成において、類似度の計算処理ステップ24と、差
分値の情報に類似度の情報を加えて閾値判定をする第1
と第2の二値化処理ステップ26、27を付加すること
により達成される。
Next, according to the second aspect of the present invention, the first purpose is, as shown in FIG. 2, in the configuration of the first aspect of the present invention shown in FIG. And the threshold value judgment by adding the information of the degree of similarity to the information of the difference value
And the second binarization processing steps 26 and 27 are added.

【0016】また、第3の本発明によれば、上記第1の
目的は、図3に示すように、類似度の高低によって2種
の領域37、38の何れかに分類する判断処理ステップ
36を付加し、領域37と領域38を区別して検出する
ようにして達成される。
Further, according to the third aspect of the present invention, the first purpose is, as shown in FIG. 3, a judgment processing step 36 for classifying into one of the two types of regions 37 and 38 according to the degree of similarity. Is added, and the areas 37 and 38 are distinguished and detected.

【0017】次に、第4の本発明によれば、上記第2の
目的は、図2に示した第2の本発明の構成において、撮
像手段として赤外線撮像装置を用い、符号が正になった
ときの処理として、図6に示すように、入力画像と背景
画像の局所的な輝度分布形状の類似度の評価処理ステッ
プ67を付加することにより達成される。
Next, according to the fourth aspect of the present invention, the second object is to use the infrared image pickup device as the image pickup means in the configuration of the second aspect of the present invention shown in FIG. This is achieved by adding an evaluation processing step 67 of the similarity between the local luminance distribution shapes of the input image and the background image, as shown in FIG.

【0018】また、第5の本発明によれば、上記第2の
目的は、図2に示した第2の本発明の構成において、撮
像手段として赤外線撮像装置を用い、符号が負になった
場合の処理として、図7に示すように、入力画像と背景
画像の局所的な輝度分布形状の類似度の評価処理ステッ
プ77を付加することにより達成される。
Further, according to the fifth aspect of the present invention, the second object is to use the infrared image pickup device as the image pickup means in the configuration of the second aspect of the present invention shown in FIG. As the processing in this case, as shown in FIG. 7, it is achieved by adding an evaluation processing step 77 of the similarity between the local luminance distribution shapes of the input image and the background image.

【0019】[0019]

【作用】図1において、テレビジョンカメラから画像入
力処理ステップ11により画像が取込まれると、差分処
理ステップ12では、この取込まれた入力画像と、予め
作成した背景画像との輝度値の差分が計算される。次
に、符号情報保存処理ステップ13では輝度の差分値の
符号が保存される。そして、判断処理ステップ14で
は、この符号に応じて処理の分岐がなされ、正負の符号
に応じて第1の二値化処理ステップ15、又は第2の二
値化処理ステップ16の何れか実行される。
In FIG. 1, when an image is captured from the television camera in the image input processing step 11, in the difference processing step 12, the difference in the brightness value between the captured input image and the background image created in advance. Is calculated. Next, in the code information storage processing step 13, the code of the brightness difference value is stored. Then, in the judgment processing step 14, the processing is branched according to this sign, and either the first binarization processing step 15 or the second binarization processing step 16 is executed according to the positive or negative sign. It

【0020】これら第1と第2の二値化処理ステップ1
5、16は、それぞれその閾値が変えてあり、この結
果、背景画像に対して輝度値変化が正負で性質が異なる
場合でも正確な二値化処理が得られ、確実な物体検出1
7が可能になる。
These first and second binarization processing steps 1
5 and 16 have different threshold values, and as a result, accurate binarization processing can be obtained even when the change in the luminance value is positive and negative with respect to the background image and the property is different, and reliable object detection 1
7 is possible.

【0021】すなわち、背景画像に対する入力画像の変
化が、例えば曇天から晴天になったり、ライトで照らさ
れたりして、画像が明るくなったことにより、正になっ
たときと、変化が、例えば、物体に影が生じたりして、
画像が暗くなったことにより、負になったときとでは、
変化量の度合いが異なり、従来技術のように、単に差の
絶対値を二値化したのでは、この変化の度合いに対応で
きない。
That is, the change in the input image with respect to the background image becomes positive when the image becomes brighter, for example, from cloudy weather to sunny weather or illuminated by a light. Shadows on objects,
When the image becomes dark and becomes negative,
The degree of change is different, and simply binarizing the absolute value of the difference as in the prior art cannot deal with the degree of change.

【0022】しかるに、この図1の方式では、変化の方
向、つまり正か負かにより閾値を変えているので、変化
量の度合いに柔軟に対応でき、正確な検出が可能になる
のである。
However, in the method of FIG. 1, since the threshold value is changed depending on the direction of change, that is, whether it is positive or negative, the degree of change amount can be flexibly dealt with and accurate detection can be performed.

【0023】図2において、図1の処理に入力画像と背
景画像の局所的な輝度分布形状の類似度の計算処理ステ
ップ24を付加し、第1の二値化処理ステップ26及び
第2の二値化処理ステップ27における二値化のための
条件に類似度を含ませるようにしたので、さらに変化度
の度合いに柔軟に対応でき、さらに正確な検出が可能に
なる。
In FIG. 2, a processing step 24 of calculating the similarity of the local luminance distribution shapes of the input image and the background image is added to the processing of FIG. 1, and the first binarization processing step 26 and the second binary processing step are added. Since the degree of similarity is included in the condition for binarization in the binarization processing step 27, the degree of change can be more flexibly dealt with and more accurate detection can be performed.

【0024】ここで、この類似度とは、入力画像と背景
画像中の局所的な輝度分布の形状の相関を表わすもの
で、いま、図10において、101に示す背景画像に対
して、環境での照度変化により、入力画像が、102で
示すように全体的に暗くなった場合でも、背景画像10
1中の白線や軌道などのパターンは、そのまま残ってい
るため、背景画像101の局所領域、例えば領域104
と、入力画像102での局所領域105とでは、類似度
が高くなっている。
Here, the similarity indicates the correlation between the shapes of the local luminance distributions in the input image and the background image. Now, in FIG. 10, the background image 101 indicates the environment. Even if the input image becomes dark as a whole as indicated by 102 due to the change in illuminance, the background image 10
Patterns such as white lines and trajectories in 1 remain as they are, and therefore local regions of the background image 101, for example, the region 104.
And the local area 105 in the input image 102 has a high degree of similarity.

【0025】一方、入力画像に、103で示すように、
物体(車両)106が存在している領域では、この物体1
06が背景を遮蔽しているため、背景画像中の白線や軌
道などのパターンは残っておらず、従って、領域104
と領域106とでは、類似度が低くなっている。
On the other hand, as indicated by 103 in the input image,
In the area where the object (vehicle) 106 exists, this object 1
Since 06 blocks the background, there are no patterns such as white lines or trajectories in the background image, and therefore the area 104
And the region 106 have a low degree of similarity.

【0026】そこで、図3において、二値化処理ステッ
プ35の次に、この類似度による領域評価ステップ36
を設けることにより、背景画像の輝度が変化した領域
と、物体が存在している領域など、性質の異なる二領域
を分離することができる。
Therefore, in FIG. 3, after the binarization processing step 35, the area evaluation step 36 based on the similarity is performed.
By providing, it is possible to separate two regions having different properties, such as a region in which the brightness of the background image has changed and a region in which an object exists.

【0027】次に、図4において、図2の処理におい
て、符号が正になった場合に、入力画像と背景画像の局
所的な輝度分布形状の類似度を評価する判断処理ステッ
プ47を付加することにより、図9(c)の場合のよう
に、ライトなどからの光によって明るくなった領域94
が存在した場合、それと分離して物体の検出49が得ら
れるため、さらに正確に物体を検出できる。
Next, in FIG. 4, in the process of FIG. 2, when the sign becomes positive, a judgment processing step 47 for evaluating the similarity of the local luminance distribution shape of the input image and the background image is added. As a result, as in the case of FIG. 9C, the area 94 that has been brightened by light from a light or the like
If the object exists, the object detection 49 is obtained separately from it, so that the object can be detected more accurately.

【0028】すなわち、ライトなどにによって明るくな
った領域は、図9(c)における領域94で示すように、
輝度値は高くなるものの路面パターンは残っているた
め、図10における局所領域104と105の場合と同
様に類似度が高くなる。従って、この類似度を用いるこ
とにより、ライトによって明るくなった領域94と物体
とが確実に判別できるのである。
That is, the area brightened by light or the like is, as shown by the area 94 in FIG. 9C,
Although the brightness value is high, the road surface pattern remains, so that the similarity is high as in the case of the local regions 104 and 105 in FIG. Therefore, by using this degree of similarity, it is possible to reliably discriminate the area 94 and the object lightened by the light.

【0029】次に、図5において、図2の処理におい
て、符号が負になった場合に、入力画像と背景画像の局
所的な輝度分布形状の類似度を評価する判断処理ステッ
プ57を付加することにより、図9(d)の場合のよう
に、影によって暗くなった領域96が存在した場合、そ
れから識別して物体の検出59が得られるため、さらに
正確に物体を検出できる。
Next, in FIG. 5, in the processing of FIG. 2, when the sign becomes negative, a judgment processing step 57 for evaluating the similarity of the local luminance distribution shape of the input image and the background image is added. As a result, as in the case of FIG. 9D, when there is a region 96 darkened by a shadow, the object detection 59 is obtained by distinguishing it from the area 96, so that the object can be detected more accurately.

【0030】すなわち、影によって暗くなった領域は、
図9(d)における領域96で示すように、輝度値は低く
なるものの路面パターンは残っているため、図10にお
ける局所領域104と105の場合と同様に類似度は高
くなる。
That is, the area darkened by the shadow is
As shown by a region 96 in FIG. 9D, the road surface pattern remains although the luminance value is low, so that the similarity is high as in the case of the local regions 104 and 105 in FIG.

【0031】従って、この類似度を用いることにより、
影によって暗くなった領域96と物体とを確実に判別す
ることができるのである。
Therefore, by using this similarity,
The region 96 darkened by the shadow and the object can be reliably discriminated.

【0032】図6において、入力画像と背景画像の局所
的な輝度分布形状の類似度の評価処理ステップ67を付
加することにより、局所的に温度が上昇した領域を検出
することができる。
In FIG. 6, a region in which the temperature locally rises can be detected by adding a processing step 67 for evaluating the similarity between the local luminance distribution shapes of the input image and the background image.

【0033】すなわち、局所的に温度が上昇した領域
は、その領域と上昇しなかった領域とに輝度分布の差が
生じるため、輝度分布形状の類似度は低くなる。例え
ば、火砕流検知に応用した場合において、火砕流により
溶岩ドームが形成された部分は、局所的に急激に温度が
上昇するため、類似度が低くなるが、他方、火砕流によ
り暖められた雲などでは、ほぼ全体で温度が均一に上昇
するため、類似度は高くなる。
That is, in a region where the temperature locally rises, a difference in luminance distribution occurs between that region and a region where the temperature does not rise, so that the similarity of the luminance distribution shape becomes low. For example, in the case of application to pyroclastic flow detection, the temperature at which the lava dome is formed by the pyroclastic flow rapidly rises locally, so the degree of similarity is low, but on the other hand, in clouds heated by the pyroclastic flow, The degree of similarity increases because the temperature rises uniformly over almost the entire area.

【0034】従って、類似度の評価処理ステップ67を
設けることにより、暖められた雲の部分と火砕流部分を
分離することができるのである。
Therefore, by providing the similarity evaluation processing step 67, the heated cloud portion and the pyroclastic flow portion can be separated.

【0035】図7において、入力画像と背景画像の局所
的な輝度分布形状の類似度の評価処理ステップ77を付
加しすることにより、局所的に温度が下降した領域を検
出することができる。
In FIG. 7, a region in which the temperature is locally lowered can be detected by adding a processing 77 for evaluating the similarity of the local luminance distribution shapes of the input image and the background image.

【0036】すなわち、局所的に温度が下降した領域
は、その領域と下降しなかった領域とに輝度分布の差が
生じるため、輝度分布形状の類似度は低くなる。例え
ば、火砕流検知に応用した場合において、溶岩ドームが
崩落した部分は、熱源が下に落ちてしまうので、その温
度は急激に低下してしまうため、類似度は低くなるが、
他方、火砕流によって暖められた雲などでは、熱源によ
る加熱が減ったとしても、全体がほぼ均一に冷却され温
度が下降するので、類似度は高くなる。
That is, in the region where the temperature is locally decreased, the difference in the brightness distribution is generated between that region and the region where the temperature is not decreased, so that the similarity of the brightness distribution shape is low. For example, when applied to pyroclastic flow detection, the part where the lava dome collapses falls because the heat source falls downward, so the temperature drops sharply, so the similarity becomes low,
On the other hand, in a cloud or the like warmed by a pyroclastic flow, even if the heating by the heat source is reduced, the whole is cooled almost uniformly and the temperature drops, so the degree of similarity increases.

【0037】従って、類似度の評価処理ステップ77に
より、これらを分離して検出することができるのであ
る。
Therefore, these can be detected separately by the similarity evaluation processing step 77.

【0038】[0038]

【実施例】以下、本発明による物体検出方式について、
図示の実施例により詳細に説明する。
EXAMPLE An object detection system according to the present invention will be described below.
This will be described in detail with reference to the illustrated embodiment.

【0039】以下に説明する実施例は、踏切内に進入し
た歩行者や、自動車なとの物体を検出する映像監視装置
に本発明を適用したもので、踏切全体を監視できる位置
にテレビジョンカメラを設置し、それにより得られる画
像信号を処理して物体を検出するようにしたものであ
る。
The embodiment described below is an application of the present invention to an image monitoring apparatus for detecting an object such as a pedestrian or an automobile that has entered the railroad crossing, and the television camera is located at a position where the entire railroad crossing can be monitored. Is installed and an image signal obtained thereby is processed to detect an object.

【0040】図12は、本発明の一実施例が適用された
映像監視装置の一例で、上記したテレビジョンカメラ1
21で監視区域(監視視野)を撮像して得た画像信号は、
入力I/F123を介してデータバス122に入力さ
れ、画像メモリ124に蓄積される。
FIG. 12 shows an example of a video surveillance apparatus to which an embodiment of the present invention is applied, which is the television camera 1 described above.
The image signal obtained by imaging the surveillance area (surveillance field of view) at 21 is
The data is input to the data bus 122 via the input I / F 123 and stored in the image memory 124.

【0041】一方、CPU126は、プログラムメモリ
125に格納されているプログラムに従ってワークメモ
リ125内で画像解析し、物体検出処理を実行し、その
結果に応じて、出力I/F128を介して警報ランプ1
30を点灯させたり、画像出力I/F129を介してモ
ニタ131に画像を表示させたりするようになってい
る。
On the other hand, the CPU 126 analyzes the image in the work memory 125 according to the program stored in the program memory 125, executes the object detection process, and outputs the alarm lamp 1 via the output I / F 128 according to the result.
30 is turned on, and an image is displayed on the monitor 131 via the image output I / F 129.

【0042】図13は、CPU126による物体検出処
理の一実施例を示したもので、この実施例による処理
は、図4及び図5の処理を組合わせ、それに背景画像更
新処理を付加したものである。
FIG. 13 shows an embodiment of the object detection processing by the CPU 126. The processing according to this embodiment is a combination of the processing shown in FIGS. 4 and 5 and a background image update processing added thereto. is there.

【0043】図13の処理が開始されると、まず画像入
力処理ステップ141では、カメラ121で撮像された
画像信号が、320×240画素の画像データf(x,
y)として取り込まれる。次に、判定ステップ143で
は、新しい背景画像が作成できたか否かを判定する。こ
の背景画像の作成は、CPU126が図14に示した処
理を並列に実行することによって行われる。この図14
の処理に入ると、まず、処理ステップ161では、入力
画像を0.2秒間隔で20フレーム分、取り込んで保存
(記憶)する。
When the processing of FIG. 13 is started, first, in the image input processing step 141, the image signal picked up by the camera 121 is image data f (x, 320 × 240 pixels).
y) is included. Next, in determination step 143, it is determined whether or not a new background image has been created. The background image is created by the CPU 126 executing the processes shown in FIG. 14 in parallel. This FIG.
In the processing step 161, first, in processing step 161, the input image is captured and saved for 0.2 frames at intervals of 20 frames.
(Remember.

【0044】次に、処理ステップ162では、これら保
存された20フレームの画像について、各画素毎に、
(1)式によりメディアンを計算して、背景画像データr
(x,y)を作成する。
Next, in processing step 162, for each of the stored 20 frame images, for each pixel,
The median is calculated by the equation (1), and the background image data r
Create (x, y).

【0045】[0045]

【数1】 [Equation 1]

【0046】ここで、med{ }がメディアンを表わしてお
り、この(1)式の場合は、20フレームの画像につい
て、それぞれの同じ画素を輝度値順に並べ、その10番
目の値(中間の値)の画素を取り出して背景画像データr
(x,y)とすることを表わしており、これにより、新し
い背景画像163を得るのである。従って、背景画像1
63=画像データr(x,y)となる。
Here, med {} represents a median, and in the case of this expression (1), the same pixels are arranged in the order of luminance value for the image of 20 frames, and the tenth value (intermediate value) ) Pixel is extracted and the background image data r
(x, y), which gives a new background image 163. Therefore, the background image 1
63 = image data r (x, y).

【0047】図13の処理に戻り、背景画像の作成が終
了していた場合には、処理ステップ143で、それまで
の背景画像を、いま作成された新しい背景画像に更新し
てから次の処理ステップ144に進むが、終了していな
かったときは、そのまま差分処理ステップ144に進
み、ここでは、入力画像を2×2画素からなるブロック
に分割し、全体を160×120個のブロック化領域f
n(i,j)としてから、それぞれのブロック化領域の輝
度平均Afを求めるのである。ここで、nはブロックの
番号で、i,jはブロック内の画素の位置を表わす。
Returning to the processing of FIG. 13, when the background image has been created, the background image up to that point is updated to the newly created background image in the processing step 143 before the next processing. If the processing has not been completed yet, the procedure proceeds to the difference processing step 144, where the input image is divided into blocks of 2 × 2 pixels, and the entire block region f of 160 × 120 is formed.
The brightness average Af of each block area is obtained from n (i, j). Here, n is a block number, and i and j represent pixel positions in the block.

【0048】また、背景画像データr(x,y)に対して
も同様に160×120個のブロック化領域rn(i,
j)としてから、それぞれのブロック化領域の輝度平均
Arを求め、(2)式により差分値εnを求める。
Similarly, for the background image data r (x, y), 160 × 120 blocked regions r n (i,
j), the luminance average Ar of each blocked area is obtained, and the difference value ε n is obtained from the equation (2).

【0049】[0049]

【数2】 [Equation 2]

【0050】続く符号情報の保存処理ステップ145で
は、符号情報Snを(3)式で求め、それを格納する。
In the subsequent step 145 of storing the code information, the code information S n is obtained by the equation (3) and stored.

【0051】[0051]

【数3】 (Equation 3)

【0052】類似度の計算処理ステップ146では、各
ブロックに対して、(4)式により類似度γnを計算する。
ここで、Dnはn番目のブロックの近傍領域、[ ]は要
素の数を表す。
In the similarity calculation step 146, the similarity γ n is calculated for each block by the equation (4).
Here, D n represents the neighborhood area of the n-th block, and [] represents the number of elements.

【0053】[0053]

【数4】 [Equation 4]

【0054】次に、判断処理ステップ147により、符
号情報Snに応じて、第1の二値化処理ステップ148
又は第2の二値化処理ステップ152に分岐される。
Next, in the judgment processing step 147, the first binarization processing step 148 is executed according to the code information S n.
Alternatively, the process branches to the second binarization processing step 152.

【0055】これらの処理は閾値による二値化処理で、
まず符号が正の場合の閾値、すなわち、処理ステップ1
48での閾値th+ は(5)式で求める。ここで、K+ は調
整可能なパラメータ、R+ は符号が正で物体の存在しな
い領域である。
These processes are thresholding binarization processes.
First, the threshold when the sign is positive, that is, processing step 1
The threshold value th + at 48 is calculated by the equation (5). Here, K + is an adjustable parameter, and R + is a region where the sign is positive and no object exists.

【0056】[0056]

【数5】 (Equation 5)

【0057】ここで、K+ は調整可能なパラメータで、
R+ は符号が正で物体が存在しない領域である。
Where K + is an adjustable parameter,
R + is an area where the sign is positive and no object exists.

【0058】また、符号が負の場合の閾値、すなわち、
処理ステップ152での閾値th~も同様にして、(6)式に
より求める。
The threshold when the sign is negative, that is,
The threshold value th ~ in the processing step 152 is similarly obtained by the equation (6).

【0059】[0059]

【数6】 (Equation 6)

【0060】ここで、K~ は調整可能なパラメータで、
R~ は符号が負で物体が存在しない領域である。
Here, K ~ is an adjustable parameter,
R ~ is an area where the sign is negative and no object exists.

【0061】類似度の判定処理ステップ149及び15
3では、それぞれに対して調整可能なパラメータT+と
T~を閾値として設定し、類似度γnについて判定を行な
う。すなわち、まず判定処理ステップ149では、類似
度γnを閾値T+と比較し、それが閾値T+を越えた場合
には、図9(c)に、光の反射している領域94として示
したような、ライトによって明るくなった領域150が
検出されたものとして無視し、閾値T+以下となったと
きだけ、物体の検出151として分類する。
Similarity determination processing steps 149 and 15
In 3, the adjustable parameters T + and T ~ are set as thresholds for each, and the similarity γ n is determined. That is, first in the judgment processing step 149, the similarity γ n is compared with the threshold value T +, and when it exceeds the threshold value T +, it is shown as a light-reflecting area 94 in FIG. 9C. As described above, the region 150 brightened by the light is ignored as detected, and is classified as the object detection 151 only when the region 150 becomes equal to or less than the threshold value T +.

【0062】同様に、判定処理ステップ153では、類
似度γnを閾値T~と比較し、それが閾値T~を越えた場
合には、図9(d)に、影の領域96として示したよう
な、影によって暗くなった領域154が検出されたもの
として、これも無視し、閾値T~以下になったときだ
け、物体の検出155として分類する。
Similarly, in the judgment processing step 153, the similarity γ n is compared with the threshold value T ~, and when it exceeds the threshold value T ~, it is shown as a shadow area 96 in FIG. 9 (d). If such a region 154 darkened by the shadow is detected, this is also ignored, and only when the region 154 is equal to or less than the threshold value T ~, it is classified as the object detection 155.

【0063】そして、CPU126は、物体の検出15
1の分類が得られたとき、及び物体の検出151が得ら
れたときには、出力I/F128を介して警報ランプ1
30を点灯させてたり、画像出力I/F129を介して
モニタ131に画像を表示させたりして、物体が検出さ
れたことを報知させるのである。
Then, the CPU 126 detects the object 15
When the classification of 1 is obtained and the detection 151 of the object is obtained, the alarm lamp 1 is output through the output I / F 128.
The fact that an object has been detected is notified by turning on 30 or by displaying an image on the monitor 131 via the image output I / F 129.

【0064】従って、この実施例によれば、常に確実
に、撮像視野内から物体だけを検出することができる。
例えば、図15において、入力画像171は、夕暮時に
踏切の外で停車している車両171Aが存在し、それの
影171Bが踏切内まで伸びている場合を示したもの
で、この場合、この入力画像171を従来の方式で判断
させたとすると、画像173に示すように、踏切内に進
入した物体173Aが存在するものと認識されてしまう
ことになる。
Therefore, according to this embodiment, it is possible to always reliably detect only the object from the imaging visual field.
For example, in FIG. 15, the input image 171 shows a case where there is a vehicle 171A stopped outside the railroad crossing at dusk, and a shadow 171B of the vehicle 171A extends to the inside of the railroad crossing. In this case, this input If the image 171 is determined by the conventional method, as shown in the image 173, it is recognized that the object 173A that has entered the railroad crossing exists.

【0065】これに対して、上記図13の実施例によれ
ば、まず、一方では、図14の処理により背景画像17
2が得られ、約4秒毎に新たな背景画像に更新されてい
る。次に、この場合、影171Bなので、その符号情報
nは負になっているので、判断処理ステップ153に
進み、ここで、背景画像172と入力画像171の類似
度が判定される。
On the other hand, according to the embodiment shown in FIG. 13, first, on the other hand, the background image 17 is processed by the processing shown in FIG.
2 is obtained and updated to a new background image about every 4 seconds. Next, in this case, since it is the shadow 171B, the code information S n is negative, so the process proceeds to the determination processing step 153, where the degree of similarity between the background image 172 and the input image 171 is determined.

【0066】そして、車両171Aが存在する領域で
は、背景の一部が隠されているので、高い類似度が得ら
れないことから、図13の物体154に分類され、この
領域が実際に存在する物体によるものと識別でき、他
方、影171Bの領域では、背景が隠されていないこと
から類似度が高くなっており、この結果、図13の領域
154として分類されることになる。
In the area where the vehicle 171A is present, a part of the background is hidden, and a high degree of similarity cannot be obtained. Therefore, the area is actually classified as the object 154 in FIG. 13, and this area actually exists. On the other hand, it can be distinguished from the object, and in the area of the shadow 171B, the degree of similarity is high because the background is not hidden, and as a result, it is classified as the area 154 of FIG.

【0067】従って、この実施例によれば、画像174
に示すように、車両174Aと、影174Bとが、図1
3の物体155と領域154とに明確に分類でき、確実
に踏切内に進入した物体だけの検出を得ることができ、
この場合には、影174Bがあるにもかかわらず、踏切
内に進入物体無しと判定できることになる。
Thus, according to this embodiment, the image 174
1, a vehicle 174A and a shadow 174B are shown in FIG.
3 objects 155 and areas 154 can be clearly classified, and it is possible to reliably detect only objects that have entered the railroad crossing.
In this case, it can be determined that there is no entering object within the railroad crossing despite the presence of the shadow 174B.

【0068】次に、図16は、入力画像181が、踏切
に進入する前の自動二輪車181Aのライトによる照射
部分181Bが踏切内の路面にまで侵入していた場合を
示したもので、この場合、入力画像181を従来の方式
で判断させたとすると、画像183に示すように、やは
り踏切内に進入した物体183Aが存在するものと認識
されてしまうことになる。
Next, FIG. 16 shows the case where the input image 181 shows the case where the illuminated portion 181B by the light of the motorcycle 181A before entering the railroad crossing has entered the road surface inside the railroad crossing. If the input image 181 is determined by the conventional method, it is recognized that the object 183A that has entered the railroad crossing still exists as shown in the image 183.

【0069】これに対して、上記図13の実施例によれ
ば、まず、一方では、図14の処理により背景画像17
2が得られ、約4秒毎に新たな背景画像に更新されてい
る。次に、この場合はライトによる照射部分181Bに
なっているので、今度は符号情報Snが正になって、判
断処理ステップ149に進み、ここで、背景画像172
と入力画像181の類似度が判定される。
On the other hand, according to the embodiment shown in FIG. 13, first, on the other hand, the background image 17 is processed by the processing shown in FIG.
2 is obtained and updated to a new background image about every 4 seconds. Next, in this case, since it is the light irradiation portion 181B, the code information S n becomes positive this time, and the process proceeds to the determination processing step 149, where the background image 172 is generated.
And the similarity of the input image 181 is determined.

【0070】そして、自動二輪車181Aが存在してい
る領域では、背景の一部が隠されているので、高い類似
度が得られないことから、図13の物体151に分類さ
れ、この領域が実際に進入した物体が存在しているもの
と識別でき、他方、ライトによる照射部分181Bの領
域では、背景が隠されていないことから類似度が高くな
っており、この結果、図13の領域150として分類さ
れることになる。
In the area where the motorcycle 181A is present, a part of the background is hidden, and a high degree of similarity cannot be obtained. Therefore, the area is actually classified as the object 151 in FIG. It is possible to discriminate that there is an object that has entered the area. On the other hand, in the area of the illuminated portion 181B by the light, the degree of similarity is high because the background is not hidden. Will be classified.

【0071】従って、この実施例によれば、画像184
に示すように、自動二輪車174Aと、そのライト照射
部分184Bとが、図13の物体151と領域150と
に明確に分類でき、確実に踏切内に進入した物体だけの
検出を得ることができ、この場合にも、ライト照射部分
184Bがあるにもかかわらず、踏切内に進入物体無し
と判定できることになる。
Thus, according to this embodiment, image 184
As shown in FIG. 13, the motorcycle 174A and its light irradiation portion 184B can be clearly classified into the object 151 and the region 150 in FIG. 13, and it is possible to reliably detect only the object that has entered the railroad crossing. In this case as well, it can be determined that there is no entering object within the railroad crossing despite the presence of the light irradiation portion 184B.

【0072】次に、本発明の他の一実施例について説明
する。この実施例は、活火山における火砕流の監視に本
発明を適用したもので、図12に示した映像監視装置に
おけるカメラ121として、赤外テレビジョンカメラ
(赤外線撮像装置)を用い、被写体の温度の高い部分で輝
度が大きくなっている入力画像が得られるようにした上
で、CPU126により、図17に示す処理が実行され
るように構成したものである。
Next, another embodiment of the present invention will be described. In this embodiment, the present invention is applied to the monitoring of pyroclastic flow in an active volcano, and an infrared television camera is used as the camera 121 in the image monitoring apparatus shown in FIG.
(Infrared imaging device) is used to obtain an input image having high brightness in a high temperature part of the subject, and then the CPU 126 is configured to execute the processing shown in FIG. is there.

【0073】図17の処理ステップ191から処理ステ
ップ198までと、処理ステップ201は、括弧書きし
て示してあるように、それぞれ図13の処理ステップ1
41から処理ステップ148まで、及び処理ステップ1
52と同じルーチンを用い、入力画像と背景画像の領域
での輝度、つまり温度の差分の符号に応じて、類似度の
判定処理ステップ199と、類似度の判定処理ステップ
202の何れかに分岐させ、それぞれ調整可能なパラメ
ータT+、T~を判定の閾値として用い、類似度が閾値以
下のとき、それぞれ温度が上昇している物体200と、
下降している物体203とに分類するのである。
The processing steps 191 to 198 of FIG. 17 and the processing step 201 are respectively shown in parentheses in the processing step 1 of FIG.
41 to processing step 148, and processing step 1
Using the same routine as 52, the process branches to either the similarity determination processing step 199 or the similarity determination processing step 202 depending on the brightness of the input image and the background image, that is, the sign of the temperature difference. , The adjustable parameters T + and T ~ are used as threshold values for determination, and when the similarity is less than or equal to the threshold value, the object 200 whose temperature is increasing,
The object 203 is descending.

【0074】この実施例の動作について、図18により
説明すると、この図は、火砕流が発生した瞬間の画像を
入力画像211として示したもので、背景画像は212
で示すようになっているものとする。
The operation of this embodiment will be described with reference to FIG. 18. In this figure, an image at the moment when a pyroclastic flow occurs is shown as an input image 211, and a background image is 212.
It is assumed to be as shown in.

【0075】そして、この実施例によれば、処理結果と
して画像213が得られ、火砕流が存在して温度が高く
なっている部分と、火砕流が流れて去って温度が下がっ
た部分とを識別し、確認することができる。
Then, according to this embodiment, the image 213 is obtained as the processing result, and the portion where the temperature is high due to the existence of the pyroclastic flow and the portion where the temperature is lowered due to the flow of the pyroclastic flow are discriminated. , Can be confirmed.

【0076】すなわち、局所的に温度が上昇した領域
は、その領域と上昇しなかった領域とに輝度分布の差が
生じるため、輝度分布形状の類似度は低くなる。このた
め、火砕流により溶岩ドームが形成された部分は、局所
的に急激に温度が上昇するので類似度が低くなるが、他
方、このとき火砕流により暖められた雲などでは、ほぼ
全体で温度が均一に上昇するため、類似度は高くなる。
That is, in a region where the temperature locally rises, a difference in luminance distribution occurs between that region and a region where the temperature does not rise, so that the similarity of the luminance distribution shape becomes low. For this reason, the temperature at which the lava dome is formed by the pyroclastic flow rises rapidly locally, and the degree of similarity is low.On the other hand, the temperature of the clouds warmed by the pyroclastic flow is almost uniform throughout. Therefore, the similarity is high.

【0077】従って、類似度の評価処理ステップ199
を設けることにより、暖められた雲などによる部分が存
在していても、温度が上昇した領域200として、火砕
流部分を明確に分離することができるのである。
Therefore, the similarity evaluation processing step 199
By providing the above, the pyroclastic flow portion can be clearly separated as the area 200 in which the temperature has risen, even if there is a portion due to a warmed cloud or the like.

【0078】一方、局所的に温度が下降した領域は、そ
の領域と下降しなかった領域とに輝度分布の差が生じる
ため、輝度分布形状の類似度は低くなる。このため、溶
岩ドームが崩落した部分は、熱源が下に落ちてしまうの
で、その温度は急激に低下してしまうため、類似度は低
くなるが、他方、火砕流によって暖められた雲などで
は、熱源による加熱が減ったとしても、全体がほぼ均一
に冷却され温度が下降するので、類似度は高くなる。
On the other hand, in the region where the temperature is locally decreased, the difference in the brightness distribution is generated between that region and the region where the temperature is not decreased, so that the similarity of the brightness distribution shape is low. As a result, the heat source drops below the part where the lava dome collapses, and the temperature drops sharply, resulting in a low degree of similarity.On the other hand, in the case of clouds heated by pyroclastic flow, the heat source Even if the heating due to is reduced, the whole is cooled almost uniformly and the temperature is lowered, so that the similarity is high.

【0079】従って、類似度の評価処理ステップ202
を設けることにより、温度が低下している雲などによる
部分が存在していても、温度が低下した領域203とし
て、火砕流が流れ去った部分を明確に分離し、検出する
ことができる。
Therefore, the similarity evaluation processing step 202
By providing, even if there is a part such as a cloud whose temperature has dropped, the part where the pyroclastic flow has flowed away can be clearly separated and detected as the region 203 where the temperature has dropped.

【0080】なお、本発明は、上記の適用例に限らず、
プラント設備など、立入禁止区域への侵入者の監視シス
テムなどにも適用可能なことは、言うまでもない。
The present invention is not limited to the above application example,
It goes without saying that it can also be applied to a monitoring system for an intruder in a restricted area such as plant equipment.

【0081】[0081]

【発明の効果】本発明によれば、照度変動による背景の
変化に伴う誤検出の問題に対して、差分値の符号を利用
するようにしたので、監視視野の照度変化などの環境変
化の影響を受ける虞れか少なくなって物体の検出を正確
に得ることができると共に、輝度分布形状の類似度を用
いてパターンの保存性を判定するようにしたので、物体
の存在によらない照度の変化による領域が存在していた
場合でも、常に確実に物体が検出できる。
According to the present invention, since the sign of the difference value is used for the problem of erroneous detection due to the change of the background due to the change of the illuminance, the influence of the environmental change such as the change of the illuminance of the monitoring visual field is used. Since it is possible to accurately detect the object by reducing the risk of being affected by the object, and to determine the preservation of the pattern using the similarity of the brightness distribution shape, the change in illuminance that does not depend on the existence of the object. Even if there is a region due to, the object can always be reliably detected.

【0082】従って、本発明によれば、踏切など極めて
高い信頼性が要求される場合でも、安心して適用するこ
とができ、映像監視装置の適用範囲を充分に広げること
ができる。
Therefore, according to the present invention, even in the case where extremely high reliability such as railroad crossing is required, the present invention can be applied without anxiety, and the applicable range of the video surveillance device can be sufficiently expanded.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 1 is a flowchart for explaining the operating principle of the first present invention.

【図2】第2の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 2 is a flowchart for explaining the operation principle of the second invention.

【図3】第3の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 3 is a flowchart for explaining the operation principle of the third invention.

【図4】第4の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 4 is a flowchart for explaining the operation principle of the fourth invention.

【図5】第5の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 5 is a flowchart for explaining the operating principle of the fifth invention.

【図6】第6の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 6 is a flow chart for explaining the operation principle of the sixth invention.

【図7】第7の本発明の動作原理を説明するためのフロ
ーチャートである。
FIG. 7 is a flow chart for explaining the operation principle of the seventh invention.

【図8】従来技術の動作原理を説明するためのフローチ
ャートである。
FIG. 8 is a flowchart for explaining the operation principle of the conventional technique.

【図9】従来技術の問題点を示す説明図である。FIG. 9 is an explanatory diagram showing a problem of the conventional technique.

【図10】本発明における類似度の説明図である。FIG. 10 is an explanatory diagram of the degree of similarity in the present invention.

【図11】従来技術による時間的な差分を用いた物体検
出の説明図である。
FIG. 11 is an explanatory diagram of object detection using a temporal difference according to the related art.

【図12】本発明の実施例が適用された映像監視装置の
一例を示す構成図である。
FIG. 12 is a configuration diagram showing an example of a video surveillance device to which an embodiment of the present invention is applied.

【図13】本発明を踏切での進入物体検出に適用した場
合の一実施例を示すフローチャートである。
FIG. 13 is a flowchart showing an example in which the present invention is applied to detection of an entering object at a railroad crossing.

【図14】本発明の一実施例における背景画像作成処理
を示すフローチャートである。
FIG. 14 is a flowchart showing background image creation processing according to an embodiment of the present invention.

【図15】本発明の一実施例による物体検出動作の一例
を示す説明図である。
FIG. 15 is an explanatory diagram showing an example of an object detecting operation according to an embodiment of the present invention.

【図16】本発明の一実施例による物体検出動作の一例
を示す説明図である。
FIG. 16 is an explanatory diagram showing an example of an object detecting operation according to an embodiment of the present invention.

【図17】本発明を火砕流発生監視に応用した場合の一
実施例を示すフローチャートである。
FIG. 17 is a flow chart showing an embodiment in which the present invention is applied to pyroclastic flow generation monitoring.

【図18】本発明を火砕流発生監視に応用した場合の一
実施例による検出動作を一例を示す説明図である。
FIG. 18 is an explanatory diagram showing an example of a detection operation according to an embodiment when the present invention is applied to pyroclastic flow generation monitoring.

【符号の説明】[Explanation of symbols]

121 テレビジョンカメラ(映像入力装置) 122 データバス 123 入力用I/F 124 画像用メモリ 125 ワークメモリ 126 CPU 127 プログラムメモリ 128 出力用I/F 129 画像出力用I/F 130 警告ランプ 131 警告表示用モニタ 121 television camera (video input device) 122 data bus 123 input I / F 124 image memory 125 work memory 126 CPU 127 program memory 128 output I / F 129 image output I / F 130 warning lamp 131 warning display monitor

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 カメラの入力画像を用いて視野内に侵入
する物体を計算機によって検出する方式において、 画像入力ステップと、入力画像と背景画像、すなわち物
体の存在しない画像、との画素の輝度値の差分を計算す
るステップと、 その差分値の正負の符号情報を保存するステップと、 その符号に応じて分岐するステップと、 正負の符号それぞれに対する差分値の二値化を行うステ
ップとからなる事を特徴とする物体検出方式。
1. A method of detecting an object entering a visual field by a computer using an input image of a camera, wherein a luminance value of a pixel between an image input step and an input image and a background image, that is, an image in which no object exists. Of the difference value, the step of storing the positive / negative sign information of the difference value, the step of branching according to the sign, and the step of binarizing the difference value for each positive / negative sign. Object detection method characterized by.
【請求項2】 カメラの入力画像を用いて視野内に侵入
する物体を計算機によって検出する方式において、 画像入力ステップと、 入力画像と背景画像との画素の輝度値の差分を計算する
ステップと、 その差分値の正負の符号情報を保存するステップと、 入力画像と背景画像の局所的な輝度値分布形状の類似度
を求めるステップと、 差分値の符号に応じて分岐するステップと、 正負の符号それぞれに対する差分値と類似度に応じた二
値化を行うステップとからなる物体検出方式。
2. A method of detecting an object invading in a visual field by using a computer input image, wherein an image input step and a step of calculating a difference in luminance value of pixels between the input image and the background image, The step of storing the positive / negative sign information of the difference value, the step of obtaining the similarity of the local luminance value distribution shape of the input image and the background image, the step of branching according to the sign of the difference value, and the positive / negative sign An object detection method comprising a step of performing binarization according to a difference value and similarity for each.
【請求項3】 請求項1及び2の発明において、 前記の入力画像と背景画像の局所的な輝度値分布形状の
類似度が高い領域と類似度の低い領域を別の領域として
判定するステップを付加した事を特徴とする物体抽出方
式。
3. The method according to claim 1 or 2, further comprising a step of determining a region having a high similarity and a region having a low similarity in local luminance value distribution shapes of the input image and the background image as different regions. Object extraction method characterized by being added.
【請求項4】 請求項1及び2、3の発明において、 前記の差分値の符号情報が正となる領域で入力画像と背
景画像の局所的な輝度値分布形状の類似度が高い領域
を、例えば視野内のライトにより明るくなった領域とし
て判定するステップを付加した事を特徴とする物体抽出
方式。
4. The invention according to any one of claims 1 and 2, wherein an area in which the input image and the background image have a high similarity in local luminance value distribution shape in the area where the sign information of the difference value is positive, For example, an object extraction method characterized by adding a step of determining an area brightened by a light in the visual field.
【請求項5】 請求項1及び2、3の発明において、 前記の差分値の符号情報が負となる領域で入力画像と背
景画像の局所的な輝度値分布形状の類似度が高い領域
を、例えば物体の視野内に写る影により暗くなった領域
として判定するステップを付加した事を特徴とする物体
抽出方式。
5. The invention according to any one of claims 1 and 2, wherein an area where the sign information of the difference value is negative and the similarity between the local luminance value distribution shapes of the input image and the background image is high, For example, an object extraction method characterized by adding a step of determining as an area darkened by a shadow appearing in the visual field of the object.
【請求項6】 請求項1及び2、3の発明において、画
像入力装置を赤外カメラとし、前記の差分値の符号情報
が正となる領域で入力画像と背景画像の局所的な輝度値
分布形状の類似度が低い領域を、例えば火砕流により局
所的に著しく温度が上がった領域と判定するステップを
付加した事を特徴とする物体検出方式。
6. The invention according to claim 1, 2 or 3, wherein the image input device is an infrared camera, and the local luminance value distribution of the input image and the background image is in an area where the sign information of the difference value is positive. An object detection method characterized by adding a step of judging a region having a low shape similarity as a region where the temperature is remarkably increased due to a pyroclastic flow.
【請求項7】 請求項1及び2、3の発明において、 画像入力装置を赤外カメラとし、前記の差分値の符号情
報が負となる領域で入力画像と背景画像の局所的な輝度
値分布形状の類似度が低い領域を、例えば火砕流が流れ
落ちたことにより局所的に著しく温度が下がった領域と
判定するステップを付加した事を特徴とする物体検出方
式。
7. The invention according to claim 1, 2 or 3, wherein the image input device is an infrared camera, and the local luminance value distribution of the input image and the background image is in an area where the sign information of the difference value is negative. An object detection method characterized by adding a step of judging a region having a low degree of shape similarity as a region where the temperature has significantly decreased locally due to, for example, a pyroclastic flow flowing down.
【請求項8】 所定の撮像手段により、所定の視野から
逐次、フレーム単位で取込まれてくる画像信号を用い、
過去の画像信号と最新の画像信号を各画素毎又は複数個
の画素からなる領域毎に比較し、それらの輝度値の差分
を二値化して得た画像データに基づいて上記所定の視野
内に入り込んでくる物体を検出する方式の映像監視装置
における物体検出方式において、 上記最新の画像信号が取り込まれてくるまでの所定フレ
ーム数の画像信号を取込み、それらのメディアン計算に
より背景画像信号を作成する背景画像信号作成手段と、 上記背景画像信号と上記最新の画像信号を各画素毎又は
複数個の画素からなる領域毎に比較し、それらの輝度値
の差分を、その正負の符号も含めて検出し保存する符号
保存手段と、 上記輝度値の差分の符号を判定する符号判定手段と、 閾値を異にする第1と第2の二値化手段とを設け、 上記符号判定手段による判定結果が正のとき上記第1の
二値化手段を用いて物体の検出を行ない、負のときは上
記第2の二値化手段を用いて物体を検出するように構成
したことを特徴とする映像監視装置における物体検出方
式。
8. An image signal which is sequentially captured in frame units from a predetermined field of view by a predetermined image pickup means,
The past image signal and the latest image signal are compared for each pixel or for each area composed of a plurality of pixels, and the difference between the brightness values thereof is binarized to be within the predetermined visual field based on the obtained image data. In the object detection method in the video monitoring device of the method of detecting an incoming object, the image signal of a predetermined number of frames until the latest image signal is taken in is taken, and the background image signal is created by the median calculation thereof. Background image signal generating means, compares the background image signal and the latest image signal for each pixel or for each region consisting of a plurality of pixels, and detects the difference in their brightness values, including their positive and negative signs. And a code storing means for storing the stored value, a code determining means for determining the sign of the difference between the brightness values, and first and second binarizing means having different thresholds. When the result is positive, the object is detected by using the first binarizing means, and when the result is negative, the object is detected by using the second binarizing means. Object detection method for video surveillance.
【請求項9】 所定の撮像手段により、所定の視野から
逐次、フレーム単位で取込まれてくる画像信号を用い、
過去の画像信号と最新の画像信号を複数個の画素からな
る領域毎に比較し、それらの輝度値の差分を二値化して
得た画像データに基づいて上記所定の視野内に入り込ん
でくる物体を検出する方式の映像監視装置における物体
検出方式において、 上記最新の画像信号が取り込まれてくるまでの所定フレ
ーム数の画像信号を取込み、それらのメディアン計算に
より背景画像信号を作成する背景画像信号作成手段と、 上記背景画像信号と上記最新の画像信号を複数個の画素
からなる領域毎に比較し、それらの輝度値の差分を、そ
の正負の符号も含めて検出し保存する符号保存手段と、 上記輝度値の差分の符号を判定する符号判定手段と、 閾値を異にする第1と第2の二値化手段と、 上記背景画像信号と現在の画像信号を複数個の画素から
なる領域毎に比較し、それらの輝度値分布形状の類似度
を検出する類似度検出手段とを設け、 上記符号判定手段による判定結果が正のとき上記第1の
二値化手段を用いて物体の検出を行ない、負のときは上
記第2の二値化手段を用いて物体を検出すると共に、 上記類似度検出手段により検出された類似度に応じて、
上記第1の二値化手段と上記第2の二値化手段の何れか
一方により検出された物体の真偽判定が行なわれるよう
に構成したことを特徴とする映像監視装置における物体
検出方式。
9. An image signal which is sequentially captured in frame units from a predetermined field of view by a predetermined image pickup means,
An object that enters the predetermined visual field based on the image data obtained by comparing the past image signal and the latest image signal for each area composed of a plurality of pixels and binarizing the difference in the brightness values thereof. In the object detection method in the video monitoring apparatus of the method of detecting the background image signal, a background image signal is created by taking in image signals of a predetermined number of frames until the latest image signal is taken in and calculating their median. Means, comparing the background image signal and the latest image signal for each area consisting of a plurality of pixels, the difference between the brightness values, a code storage means for detecting and storing the positive and negative signs, Code determination means for determining the sign of the difference between the brightness values, first and second binarization means having different thresholds, and the background image signal and the current image signal each consisting of a plurality of pixels. And a similarity detection means for detecting the similarity of the luminance value distribution shapes, and detecting the object by using the first binarization means when the determination result by the code determination means is positive. When negative, an object is detected using the second binarizing means, and according to the similarity detected by the similarity detecting means,
An object detection method in a video surveillance device, characterized in that the authenticity of an object detected by either one of the first binarization means and the second binarization means is determined.
【請求項10】 所定の撮像手段により、所定の視野か
ら逐次、フレーム単位で取込まれてくる画像信号を用
い、過去の画像信号と最新の画像信号を複数個の画素か
らなる領域毎に比較し、それらの輝度値の差分を二値化
して得た画像データに基づいて上記所定の視野内に入り
込んでくる物体を検出する方式の映像監視装置における
物体検出方式において、 上記最新の画像信号が取り込まれてくるまでの所定フレ
ーム数の画像信号を取込み、それらのメディアン計算に
より背景画像信号を作成する背景画像信号作成手段と、 上記背景画像信号と上記最新の画像信号を複数個の画素
からなる領域毎に比較し、それらの輝度値の差分を、そ
の正負の符号も含めて検出し保存する符号保存手段と、 上記輝度値の差分の符号を判定する符号判定手段と、 閾値を異にする第1と第2の二値化手段と、 上記背景画像信号と現在の画像信号を複数個の画素から
なる領域毎に比較し、それらの輝度値分布形状の類似度
を検出する類似度検出手段とを設け、 上記符号判定手段による判定結果が正のとき上記第1の
二値化手段を用いて物体の検出を行ない、負のときは上
記第2の二値化手段を用いて物体を検出すると共に、 上記類似度検出手段により検出された類似度に応じて、
上記第1の二値化手段と上記第2の二値化手段の何れか
一方により検出された領域を区別して検出するように構
成したことを特徴とする映像監視装置における物体検出
方式。
10. A comparison between a past image signal and a latest image signal for each area composed of a plurality of pixels by using image signals sequentially taken in frame units from a predetermined visual field by a predetermined image pickup means. Then, in the object detection method in the video monitoring apparatus of the method of detecting an object coming into the predetermined visual field based on the image data obtained by binarizing the difference between the brightness values, the latest image signal is A background image signal creating means for creating a background image signal by taking in image signals of a predetermined number of frames until it is taken in, and the background image signal and the latest image signal are composed of a plurality of pixels. Code storage means for comparing each area and detecting and storing the difference between the brightness values including the positive and negative signs, and a code determining means for determining the sign of the brightness value difference. , The first and second binarizing means having different thresholds, the background image signal and the current image signal are compared for each area including a plurality of pixels, and the similarity of the luminance value distribution shape is calculated. A similarity detection unit for detecting is provided, and when the determination result by the sign determination unit is positive, the first binarizing unit is used to detect the object, and when the determination result is negative, the second binarizing unit. While detecting the object using, according to the similarity detected by the similarity detection means,
An object detection method in an image monitoring device, characterized in that the areas detected by either the first binarizing means or the second binarizing means are detected separately.
【請求項11】 請求項10の発明において、 上記差分値の符号が正と判定され、上記類似度が所定値
を越えていると判定された領域が検出されたときは、そ
の領域は物体の存在による検出ではなく、上記視野内で
の局部的な照度増加による検出であると判定するように
構成されていることを特徴とする映像監視装置における
物体検出方式。
11. The invention according to claim 10, wherein when the sign of the difference value is determined to be positive and the area determined to have the similarity exceeding a predetermined value is detected, the area is an object. An object detection method in a video monitoring device, characterized in that it is configured not to detect the presence but to detect the local illuminance increase in the field of view.
【請求項12】 請求項10の発明において、 上記差分値の符号が負と判定され、上記類似度が所定値
を越えていると判定された領域が検出されたときは、そ
の領域は物体の存在による検出ではなく、局部的な照度
低下による検出であると判定するように構成されている
ことを特徴とする映像監視装置における物体検出方式。
12. The invention according to claim 10, wherein when the sign of the difference value is determined to be negative and the area determined to have the similarity exceeding a predetermined value is detected, the area is an object. An object detection method in a video monitoring device, characterized in that it is configured to determine that it is not a detection based on the presence but a detection based on a local decrease in illuminance.
【請求項13】 請求項10の発明において、 上記撮像手段として赤外線撮像装置を用い、 上記差分値の符号が正と判定され、上記類似度が所定値
以下であると判定された領域が検出されたときは、視野
内に局部的に温度が高くなっている部分が存在するもの
と判定するように構成されていることを特徴とする映像
監視装置における物体検出方式。
13. The invention according to claim 10, wherein an infrared image pickup device is used as the image pickup means, and a region in which the sign of the difference value is determined to be positive and the similarity is determined to be a predetermined value or less is detected. In this case, the object detection method in the video monitoring device is configured so that it is determined that there is a locally high temperature portion in the visual field.
【請求項14】 請求項10の発明において、 上記撮像手段として赤外線撮像装置を用い、 上記差分値の符号が負と判定され、上記類似度が所定値
以下であると判定された領域が検出されたときは、視野
内に局部的に温度が低くなっている部分が存在するもの
と判定するように構成されていることを特徴とする映像
監視装置における物体検出方式。
14. The invention according to claim 10, wherein an infrared image pickup device is used as the image pickup means, and a region in which the sign of the difference value is determined to be negative and the similarity is determined to be a predetermined value or less is detected. In this case, the object detection method in the video monitoring device is configured so that it is determined that there is a locally low temperature portion in the visual field.
JP11862995A 1995-05-17 1995-05-17 Object detection method in video monitoring device Expired - Fee Related JP3294468B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP11862995A JP3294468B2 (en) 1995-05-17 1995-05-17 Object detection method in video monitoring device
US08/646,018 US6088468A (en) 1995-05-17 1996-05-07 Method and apparatus for sensing object located within visual field of imaging device
DE69622476T DE69622476T2 (en) 1995-05-17 1996-05-13 Method and device for object recognition within the visual field of an imaging device
EP96303303A EP0749098B1 (en) 1995-05-17 1996-05-13 Method and apparatus for sensing object located within visual field of imaging device
KR1019960016320A KR100259737B1 (en) 1995-05-17 1996-05-16 Method and apparatus for sensing object located within visual field of imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11862995A JP3294468B2 (en) 1995-05-17 1995-05-17 Object detection method in video monitoring device

Publications (2)

Publication Number Publication Date
JPH08317373A true JPH08317373A (en) 1996-11-29
JP3294468B2 JP3294468B2 (en) 2002-06-24

Family

ID=14741268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11862995A Expired - Fee Related JP3294468B2 (en) 1995-05-17 1995-05-17 Object detection method in video monitoring device

Country Status (1)

Country Link
JP (1) JP3294468B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003043340A1 (en) * 2001-11-15 2003-05-22 Alogics Co., Ltd. Security system and warning method using edge detection of image signal
JP2006024149A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science On-image moving object recognition method and device
JP2006091974A (en) * 2004-09-21 2006-04-06 Sumitomo Electric Ind Ltd Traffic flow measuring method and device therefor
US7260243B2 (en) 2002-08-30 2007-08-21 Fuji Jukogyo Kabushiki Kaisha Intruding-object detection apparatus
JP2008245063A (en) * 2007-03-28 2008-10-09 Saxa Inc Image processing apparatus
JP2009225933A (en) * 2008-03-21 2009-10-08 Fujifilm Corp Capsule endoscope system, and capsule endoscope motion control method
JP2011227634A (en) * 2010-04-19 2011-11-10 Hitachi Ltd Moving body detection device
KR101297396B1 (en) * 2011-12-28 2013-08-14 충북대학교 산학협력단 Method of shadow removal based on relative similarity
KR101448749B1 (en) * 2012-12-10 2014-10-08 현대자동차 주식회사 System and method for object image detecting
JP2018026068A (en) * 2016-08-12 2018-02-15 日本電信電話株式会社 Foreground region extraction device, method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003043340A1 (en) * 2001-11-15 2003-05-22 Alogics Co., Ltd. Security system and warning method using edge detection of image signal
US7260243B2 (en) 2002-08-30 2007-08-21 Fuji Jukogyo Kabushiki Kaisha Intruding-object detection apparatus
JP2006024149A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science On-image moving object recognition method and device
JP4628712B2 (en) * 2004-07-09 2011-02-09 財団法人生産技術研究奨励会 Method and apparatus for recognizing moving object on image
JP2006091974A (en) * 2004-09-21 2006-04-06 Sumitomo Electric Ind Ltd Traffic flow measuring method and device therefor
JP4635536B2 (en) * 2004-09-21 2011-02-23 住友電気工業株式会社 Traffic flow measurement method and apparatus
JP2008245063A (en) * 2007-03-28 2008-10-09 Saxa Inc Image processing apparatus
JP2009225933A (en) * 2008-03-21 2009-10-08 Fujifilm Corp Capsule endoscope system, and capsule endoscope motion control method
JP2011227634A (en) * 2010-04-19 2011-11-10 Hitachi Ltd Moving body detection device
KR101297396B1 (en) * 2011-12-28 2013-08-14 충북대학교 산학협력단 Method of shadow removal based on relative similarity
KR101448749B1 (en) * 2012-12-10 2014-10-08 현대자동차 주식회사 System and method for object image detecting
JP2018026068A (en) * 2016-08-12 2018-02-15 日本電信電話株式会社 Foreground region extraction device, method, and program

Also Published As

Publication number Publication date
JP3294468B2 (en) 2002-06-24

Similar Documents

Publication Publication Date Title
EP0749098B1 (en) Method and apparatus for sensing object located within visual field of imaging device
US6754367B1 (en) Method and apparatus for automatically detecting intrusion object into view of image pickup device
US10127448B2 (en) Method and system for dismount detection in low-resolution UAV imagery
US6985172B1 (en) Model-based incident detection system with motion classification
JP4611776B2 (en) Image signal processing device
JP4542929B2 (en) Image signal processing device
JP3294468B2 (en) Object detection method in video monitoring device
JP6413318B2 (en) Vehicle detection device, system, and program
JP4491360B2 (en) Image signal processing device
JPH09282452A (en) Monitor
US9443150B2 (en) Device and method for detecting objects from a video signal
JP3377659B2 (en) Object detection device and object detection method
JP7125843B2 (en) Fault detection system
JP6413319B2 (en) Vehicle detection device, system, and program
CN107729811B (en) Night flame detection method based on scene modeling
Tang et al. Robust vehicle surveillance in night traffic videos using an azimuthally blur technique
Dong et al. Detection method for vehicles in tunnels based on surveillance images
Oh et al. Development of an integrated system based vehicle tracking algorithm with shadow removal and occlusion handling methods
JP3736836B2 (en) Object detection method, object detection apparatus, and program
Yu et al. Vision based vehicle detection and traffic parameter extraction
Taha et al. An efficient method for multi moving objects tracking at nighttime
JP4544955B2 (en) Image monitoring device
KR100284596B1 (en) How to measure waiting length at intersection
JP4922642B2 (en) Vehicle detection device and vehicle detection method
Taha et al. Multi-Vehicle Tracking under day and night illumination

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080405

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090405

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100405

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110405

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120405

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130405

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees