JPH0765173A - Intruding body recognition method - Google Patents

Intruding body recognition method

Info

Publication number
JPH0765173A
JPH0765173A JP5214484A JP21448493A JPH0765173A JP H0765173 A JPH0765173 A JP H0765173A JP 5214484 A JP5214484 A JP 5214484A JP 21448493 A JP21448493 A JP 21448493A JP H0765173 A JPH0765173 A JP H0765173A
Authority
JP
Japan
Prior art keywords
image
intruding object
change
input image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5214484A
Other languages
Japanese (ja)
Inventor
Yuji Kuno
裕次 久野
Takahiro Watanabe
孝弘 渡辺
Satoshi Nakagawa
聰 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP5214484A priority Critical patent/JPH0765173A/en
Publication of JPH0765173A publication Critical patent/JPH0765173A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To shorten intervals of input image acquisition and to improve recognition precision by performing a recognition processing when an entirely whole image of an intruding body is photographed as an input image. CONSTITUTION:A background image and the input image which are photographed by a TV camera, etc., are stored in memories 11 and 12. In a difference processing 13, the absolute value of the density difference between the background image and input image from the memories 11 and 12 is calculated to find a difference image. In a binarization processing 14, the found difference image is binarized to obtain a difference binarized image. The maximum variation quantity of an input image photographed before the current input image is stored in a memory 16 and the difference binarized image of the input image when the maximum variation quantity is obtained is stored in a memory 17. In a maximum variation detection processing 15, input images having maximum variation quantities are found by using the information stored in the memories 16 and 17. In a variation area segments processing 18, the input images are integrated into one variation area and in an intruding body recognition processing 19, the intruding body is recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、テレビジョンカメラ
(以下、TVカメラという)等の画像入力装置による撮
像画像から侵入物体を検出する侵入物体監視システムに
おいて、侵入物体を認識する侵入物体認識方法に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an intruding object recognition method for recognizing an intruding object in an intruding object monitoring system for detecting an intruding object from an image picked up by an image input device such as a television camera (hereinafter referred to as a TV camera). It is about.

【0002】[0002]

【従来の技術】従来、このような分野の技術としては、
例えば次のような文献に記載されるものがあった。 文献;1990年電子情報通信学会春季全国大会講演論
文集文冊 6D−436、佐久間 喜郎、伊東 潔、増
田 功著「微分画像のフレーム間差分による侵入物体検
出」P.6−438 図2は、前記文献に記載された従来の侵入物体認識方法
の処理手順を示す図である。この侵入物体認識方法で
は、侵入物体が存在しないときにTVカメラで撮影した
背景画像を背景画像メモリ1に格納しておき、侵入物体
が存在するときにTVカメラで撮影した入力画像を入力
画像メモリ2に格納すると、それらのメモリ1,2の背
景画像と入力画像が差分処理3へ送られる。差分処理3
では、背景画像と入力画像との間の濃度差の絶対値を差
分画像として計算する。この差分画像は、二値化処理4
によって適当な閾値で二値化され、入力画像と背景画像
との間で画素の濃淡値が変化した領域(これを変化領域
という)が抽出され、変化領域切出し処理5へ送られ
る。変化領域切出し処理5では、差分処理3によって切
れ切れになった変化領域の収集を行い、その収集結果を
侵入物体認識処理6へ送る。侵入物体認識処理6では、
変化領域切出し処理5の収集結果に基づき、変化領域の
特徴量から侵入物体の有無とその侵入物体の検出、つま
り侵入物体の認識を行う。変化領域の特徴量から侵入物
体の有無を判断する方法としては、例えば、変化領域の
面積と外接矩形をパラメータとして侵入物体の有無を判
断する。つまり、変化領域の面積がある値以上で、かつ
外接矩形の縦横比(外接矩形の縦の長さ/横の長さ)が
ある範囲以内であるものを、侵入物体として判断する。
このような侵入物体認識処理6の処理結果は、出力処理
7で出力される。以上のようにして1枚の入力画像に対
する認識処理が終了したら、次の入力画像に対して前記
と同様の認識処理が行われる。
2. Description of the Related Art Conventionally, as a technique in such a field,
For example, some documents were described in the following documents. References: 1990 IEICE Spring National Convention Proceedings 6D-436, Yoshiro Sakuma, Kiyoshi Ito, Isao Masuda “Detecting Intruding Objects by Difference Between Frames of Differential Image” 6-438 FIG. 2 is a diagram showing a processing procedure of a conventional intruding object recognition method described in the above document. In this intruding object recognition method, a background image taken by the TV camera when no intruding object exists is stored in the background image memory 1, and an input image taken by the TV camera when an intruding object exists is input image memory. When stored in 2, the background image of the memories 1 and 2 and the input image are sent to the difference processing 3. Difference processing 3
Then, the absolute value of the density difference between the background image and the input image is calculated as the difference image. This difference image is binarized 4
Is binarized by an appropriate threshold value, an area in which the gray value of the pixel changes between the input image and the background image (this area is called a changed area) is extracted, and sent to the changed area cutout processing 5. In the change area cutout processing 5, the change areas cut out by the difference processing 3 are collected, and the collection result is sent to the intruding object recognition processing 6. In the intruding object recognition processing 6,
Based on the collection result of the changing area cutout process 5, the presence / absence of an intruding object and the detection of the intruding object, that is, the recognition of the intruding object are performed from the feature amount of the changing area. As a method of determining the presence or absence of an intruding object from the feature amount of the changing region, for example, the presence or absence of an intruding object is determined using the area of the changing region and the circumscribed rectangle as parameters. In other words, an intruding object is determined if the area of the change region is equal to or larger than a certain value and within the range of the aspect ratio of the circumscribing rectangle (vertical length / horizontal length of the circumscribing rectangle).
The processing result of the intruding object recognition processing 6 is output in the output processing 7. When the recognition process for one input image is completed as described above, the same recognition process as described above is performed for the next input image.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
侵入物体認識方法では、次のような問題があり、それを
解決することが困難であった。図3、図4は侵入物体の
一部がTVカメラで撮影された入力画像の一例を示す
図、及び図5は侵入物体の全体が撮影された入力画像の
一例を示す図である。従来の侵入物体認識方法では、入
力画像メモリ2に格納する入力画像に変化が発生した場
合、必ず侵入物体認識処理6を行っている。そのため、
図3に示すように、物体の一部が侵入する場合において
も、侵入物体認識処理6が行われる。侵入物体認識処理
6は、一般に処理量が多いため、この侵入物体認識処理
6を行っている間は入力画像の取得が行えないとする
と、図3のような侵入物体の一部に対する侵入物体認識
処理6が行われている間に、図4に示すように、その侵
入物体がTVカメラ前を通り過ぎてしまう。これによ
り、図5に示すように、侵入物体の全体を撮影した画像
が得られないことになる。つまり、侵入物体認識処理6
が侵入物体の全体像を対象にしている場合、その物体の
侵入が見逃されてしまうことになる。本発明は、前記従
来技術が持っていた課題として、入力画像に侵入物体の
全体像が含まれるか否かに関わらず侵入物体認識処理を
行うことによって該侵入物体の正確な認識が行えないと
いう点について解決し、侵入物体の全体像を撮影した画
像が得られたときのみに認識処理を実行する侵入物体認
識方法を提供することを目的とする。
However, the conventional method of recognizing an intruding object has the following problems and it is difficult to solve them. 3 and 4 are diagrams showing an example of an input image in which a part of the intruding object is photographed by the TV camera, and FIG. 5 is a diagram showing an example of an input image in which the whole of the intruding object is photographed. In the conventional intruding object recognition method, the intruding object recognition processing 6 is always performed when a change occurs in the input image stored in the input image memory 2. for that reason,
As shown in FIG. 3, the intruding object recognition process 6 is performed even when a part of the object intrudes. Since the intruding object recognition processing 6 generally has a large amount of processing, assuming that an input image cannot be acquired while the intruding object recognition processing 6 is being performed, the intruding object recognition for a part of the intruding object as shown in FIG. While the process 6 is being performed, the intruding object passes by in front of the TV camera as shown in FIG. As a result, as shown in FIG. 5, an image of the entire intruding object cannot be obtained. That is, the intruding object recognition processing 6
If the target is the whole image of an intruding object, the invasion of the object will be overlooked. The present invention has a problem that the intruding object cannot be accurately recognized by performing the intruding object recognizing process regardless of whether or not the input image includes the entire image of the intruding object. An object of the present invention is to provide a method for recognizing an intruding object, which solves the problem and executes the recognition process only when an image obtained by capturing the entire image of the intruding object is obtained.

【0004】[0004]

【課題を解決するための手段】第1の発明は、前記課題
を解決するために、侵入物体が存在しない場合に画像入
力装置によって撮影された背景画像と、前記侵入物体が
存在する場合に前記画像入力装置によって逐次撮影され
た入力画像との差分画像をそれぞれ求めた後、前記差分
画像を二値化して差分二値化画像を求め、前記差分二値
化画像の変化領域より前記侵入物体を認識する侵入物体
認識方法において、次のような手段を講じている。即
ち、本発明では、前記背景画像と前記入力画像との間の
変化領域の変化量を逐次計算して該変化量が最大となる
入力画像を求め、現在の入力画像より以前に撮影された
入力画像における変化領域の最大変化量を最大変化量メ
モリに記憶すると共に、該最大変化量が得られたときの
入力画像の差分二値化画像を最大変化画像メモリに記憶
する。そして、前記最大変化画像メモリに記憶された前
記差分二値化画像の変化領域より前記侵入物体を認識す
るようにしている。第2の発明では、第1の発明と同様
の侵入物体認識方法において、現在前記画像入力装置に
よって撮影された入力画像における変化領域の位置と、
以前に前記画像入力装置によって撮影された入力画像に
おける変化領域の位置を比較すると共に、前記背景画像
と前記入力画像との間の変化領域の変化量を逐次計算す
ることで、前記侵入物体の認識に最も適した状態で撮影
された前記入力画像を検出し、前記侵入物体を認識す
る。この際、現在の入力画像より以前に撮影された入力
画像における最大変化量を最大変化量メモリに記憶し、
該最大変化量が得られたときの入力画像の差分二値化画
像を最大変化画像メモリに記憶すると共に、該以前に撮
影された入力画像における変化領域が画像の端に位置し
たか否かの情報をフラグメモリに記憶する。そして、前
記フラグメモリの記憶情報を参照し、前記最大変化画像
メモリに記憶された、画像の端に位置しない前記差分二
値化画像の変化領域より前記侵入物体を認識するように
している。
In order to solve the above-mentioned problems, a first aspect of the present invention provides a background image photographed by an image input device when an intruding object does not exist, and a background image when the intruding object exists. After obtaining the difference images with the input images sequentially captured by the image input device, the difference image is binarized to obtain the difference binarized image, and the intruding object is detected from the change area of the difference binarized image. The following means are taken in the method of recognizing an intruding object. That is, in the present invention, the change amount of the change area between the background image and the input image is sequentially calculated to obtain the input image having the maximum change amount, and the input image captured before the current input image is obtained. The maximum change amount of the change area in the image is stored in the maximum change amount memory, and the difference binarized image of the input image when the maximum change amount is obtained is stored in the maximum change image memory. Then, the intruding object is recognized from the change area of the differential binarized image stored in the maximum change image memory. According to a second invention, in the same intruding object recognition method as that of the first invention, the position of the change region in the input image currently captured by the image input device,
Recognition of the intruding object is performed by comparing the positions of the change areas in the input image previously captured by the image input device and sequentially calculating the change amount of the change areas between the background image and the input image. The input image captured in the most suitable state is detected, and the intruding object is recognized. At this time, the maximum change amount of the input image captured before the current input image is stored in the maximum change amount memory,
The difference binarized image of the input image when the maximum change amount is obtained is stored in the maximum change image memory, and whether the change region in the previously captured input image is located at the edge of the image or not. Store the information in the flag memory. Then, by referring to the storage information of the flag memory, the intruding object is recognized from the change area of the differential binarized image stored in the maximum change image memory and not located at the edge of the image.

【0005】[0005]

【作用】第1の発明によれば、以上のように侵入物体認
識方法を構成したので、最大変化量メモリ及び最大変化
画像メモリの記憶情報を用いて変化量が最大となる入力
画像を検出することにより、侵入物体の全体像を撮影し
た画像が得られたときのみ認識処理が実行される。第2
の発明によれば、最大変化量メモリ、最大変化画像メモ
リ、及びフラグメモリの記憶情報から、侵入物体の画像
内での位置と変化量を用いて入力画像を検出するので、
侵入物体の動く方向に依存することなく、該侵入物体の
全体像が入力画像として撮影された段階で認識処理が行
われる。従って、前記課題を解決できるのである。
According to the first aspect of the present invention, since the intruding object recognition method is configured as described above, the input image with the maximum change amount is detected using the stored information in the maximum change amount memory and the maximum change image memory. As a result, the recognition process is executed only when an image of the entire image of the intruding object is obtained. Second
According to the invention, the input image is detected from the stored information of the maximum change amount memory, the maximum change image memory, and the flag memory by using the position and the change amount of the intruding object in the image,
The recognition process is performed when the entire image of the intruding object is captured as an input image without depending on the moving direction of the intruding object. Therefore, the above problem can be solved.

【0006】[0006]

【実施例】第1の実施例 図1は、本発明の第1の実施例を示す侵入物体認識方法
の処理手順を示す図であり、この処理手順を図6〜図9
等を参照しつつ説明する。なお、図6は図1の背景画像
の一例を示す図、図7は図1の入力画像の一例を示す
図、図8は図1の二値化処理14によって得られる差分
二値化画像の一例を示す図、及び図9は図1の変化領域
の面積変化を示す図である。図1の侵入物体認識方法で
は、画像入力装置(例えば、TVカメラ)を用い、侵入
物体が存在しない場合の図6のような画像を背景画像と
して背景画像メモリ11に格納しておく。そして、背景
画像を撮影したのと同じ位置で、TVカメラを用いて侵
入物体が存在するときに図7のような画像を撮影し、そ
の入力画像を入力画像メモリ12に格納する。背景画像
メモリ11及び入力画像メモリ12にそれぞれ格納され
た背景画像及び入力画像は、差分処理13へ送られる。
差分処理13では、入力画像中における背景画像からの
変化を検出するために、背景画像メモリ11から得られ
る背景画像と入力画像メモリ12から得られる入力画像
との間の、濃度差の絶対値を計算し、差分画像を求めて
二値化処理14へ送る。二値化処理14では、差分処理
13で求められた差分画像を適当な閾値で二値化し、図
8に示すような差分二値化画像ΔIを求める。差分二値
化画像ΔIは、入力画像と背景画像との間で画素の濃淡
値が変化した領域(変化領域)を示す。即ち、この差分
二値化画像ΔIでは、入力画像中で背景画像から変化し
た領域の画素の値が1、変化していない領域では画素の
値が0に設定され、変化領域が抽出されることになる。
この場合、変化領域は背景画像から濃度が変化した部分
を示しているに過ぎず、必ずしも認識したい侵入物体の
全体像を示しているわけではない。そこで、背景画像か
らの変化量が最大となる入力画像が侵入物体の全体像を
示しているものとし、最大変化検出処理15で、背景画
像からの最大変化量を持つ入力画像、即ち差分二値化画
像を検出する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment FIG. 1 is a diagram showing a processing procedure of an intruding object recognition method showing a first embodiment of the present invention, and this processing procedure is shown in FIGS.
The description will be made with reference to the above. 6 is a diagram showing an example of the background image of FIG. 1, FIG. 7 is a diagram showing an example of the input image of FIG. 1, and FIG. 8 is a differential binarized image obtained by the binarization processing 14 of FIG. FIG. 9 is a diagram showing an example, and FIG. 9 is a diagram showing a change in area of the change region in FIG. In the intruding object recognition method of FIG. 1, an image input device (for example, a TV camera) is used, and an image as shown in FIG. 6 when no intruding object exists is stored in the background image memory 11 as a background image. Then, at the same position where the background image was captured, an image as shown in FIG. 7 is captured using the TV camera, and the input image is stored in the input image memory 12. The background image and the input image stored in the background image memory 11 and the input image memory 12 are sent to the difference processing 13.
In the difference processing 13, in order to detect a change from the background image in the input image, the absolute value of the density difference between the background image obtained from the background image memory 11 and the input image obtained from the input image memory 12 is calculated. The difference image is calculated and sent to the binarization processing 14. In the binarization process 14, the difference image obtained in the difference process 13 is binarized with an appropriate threshold value to obtain a difference binarized image ΔI as shown in FIG. The difference binarized image ΔI indicates an area (change area) in which the grayscale value of the pixel has changed between the input image and the background image. That is, in this difference binarized image ΔI, the pixel value of the area that has changed from the background image in the input image is set to 1, and the pixel value of the area that has not changed is set to 0, and the changed area is extracted. become.
In this case, the changed area merely indicates a portion where the density has changed from the background image, and does not necessarily indicate the entire image of the intruding object to be recognized. Therefore, it is assumed that the input image having the maximum amount of change from the background image shows the entire image of the intruding object, and the maximum change detection process 15 is performed on the input image having the maximum amount of change from the background image, that is, the difference binary value. The converted image.

【0007】変化量として、変化領域の形及び縦横比と
いった種々の尺度を用いることができる。例えば、変化
領域の面積ΔSを選ぶと、図3のように物体が画面の右
端から侵入し、図4のようにその反対側の左端から出て
いく場合、入力画像における背景画像からの変化領域の
面積Sの変化が図9のような分布を示す。ここで、変化
領域の面積ΔSが最大となる点Cの入力画像において、
侵入物体の全体像が示されていると考える。物体が画面
の端より侵入する場合、その物体の侵入が進むにつれ、
変化領域の面積ΔSが図9のように変化する。即ち、図
3のように物体の一部が画面の左端より侵入し始める
と、図9の点Aのように変化領域が発生する。物体が侵
入し続けると、変化領域の面積ΔSが図9の点Bのよう
に増加する。図5のように侵入物体全体が画面内に入っ
てしまえば、図9の点Cのように変化領域の面積Sが最
大になる。さらに物体が侵入し続けると、図4のように
物体が画面の左端から出てしまうので、変化領域の面積
Sが図9の点Dのように減少していく。従って、侵入物
体の正確な認識を行うならば、物体の全体像が表れてい
るとき、即ち図9の点Cのように変化領域の面積Sが最
大のときに認識処理を行う必要があるので、図1の最大
変化検出処理15では変化領域の最大面積となるときの
入力画像を検出している。つまり、図9に示すように、
物体が侵入するにつれて点A→点Bのように変化領域の
面積Sが増加する。入力画像は逐次撮影され、さらに処
理されるため、変化領域の面積Sが減少する地点(図9
の点D)が検出されることにより、変化領域の面積Sの
最大面積の地点(図9の点C)が明らかになる。そこ
で、これまでの入力画像で得られた最大の変化領域の面
積ΔSmax 、及びそのときの変化領域の差分二値化画像
ΔImax を、それぞれ図1の最大変化量メモリ16及び
最大変化画像メモリ17に保存しておく。
As the amount of change, various scales such as the shape of the changed area and the aspect ratio can be used. For example, when the area ΔS of the change area is selected, when the object enters from the right end of the screen as shown in FIG. 3 and goes out from the left end on the opposite side as shown in FIG. 4, the change area from the background image in the input image The change of the area S shows the distribution as shown in FIG. Here, in the input image of the point C where the area ΔS of the change region is maximum,
It is assumed that the whole image of the intruding object is shown. If an object penetrates from the edge of the screen, as the object penetrates,
The area ΔS of the change region changes as shown in FIG. That is, when a part of the object starts to enter from the left end of the screen as shown in FIG. 3, a change area occurs as shown by point A in FIG. When the object continues to enter, the area ΔS of the change region increases as shown by point B in FIG. When the entire intruding object enters the screen as shown in FIG. 5, the area S of the change region becomes maximum as shown by point C in FIG. If an object continues to enter, the object exits from the left edge of the screen as shown in FIG. 4, and the area S of the change region decreases as shown by point D in FIG. Therefore, if the intruding object is to be accurately recognized, it is necessary to perform the recognition process when the entire image of the object is displayed, that is, when the area S of the change region is maximum as at point C in FIG. In the maximum change detection processing 15 of FIG. 1, the input image when the maximum area of the change region is reached is detected. That is, as shown in FIG.
As the object invades, the area S of the change region increases from point A to point B. The input image is sequentially captured and further processed, so that the area S of the change region decreases (see FIG. 9).
The point of the maximum area of the area S of the change region (point C of FIG. 9) becomes clear by detecting the point D) of FIG. Therefore, the maximum change area area ΔSmax obtained in the input images so far and the difference binarized image ΔImax of the change area at that time are respectively stored in the maximum change amount memory 16 and the maximum change image memory 17 of FIG. Save it.

【0008】最大変化検出処理15では、現在の入力画
像の変化領域の面積ΔSを、最大変化量メモリ16に記
憶させてあったこれまでの入力画像の変化領域の最大面
積ΔSmax と比較する。現在の入力画像の変化領域の面
積ΔSの方が大きければ、最大変化量である最大面積Δ
Smax を更新すると共に、最大変化画像メモリ17に、
二値化処理14で得られた現在の入力画像の差分二値化
画像ΔIを保存させる。そして、次のフレームの入力画
像を読み込む。これに対し、現在の変化領域の面積ΔS
の方が小さければ、これまでの最大面積ΔSmax の画像
が侵入物体の全体像を表すものとし、最大変化画像メモ
リ17に記憶してあった差分二値化画像ΔImax を変化
領域切出し処理18へ送る。変化領域切出し処理18で
は、差分処理13において背景画像と入力画像との差分
計算により発生した二値画像の図8のような切れ切れの
変化領域を1つのまとまった変化領域として統合(収
集)する。例えば、この変化領域切り出し処理18で
は、一つの侵入物体を表す変化領域を一つにまとめるた
めに、差分二値化画像ΔIの変化領域を数回膨張した
後、同じ回数だけ収縮する。膨張とは、値0の画素の回
りに値1の画素がある場合、その値0の画素を1に変換
するものである。つまり、変化領域の回りを一画素分膨
らますのである。収縮はその逆で、変化領域の回りを一
画素分小さくする。このような作業によって、一つの侵
入物体を表すと思われる変化領域は、一つの領域として
抽出される。そして、このようにして得られた変化領域
を外接矩形で囲み、この外接矩形に囲まれた領域を差分
二値化画像ΔIから切り出す。この切り出された領域の
特徴量から、侵入物体認識処理19でその侵入物体の認
識を行う。認識方法としては、例えば、切出された領域
の面積と外接矩形をパラメータとして侵入物体を認識す
る。つまり、切出された領域の面積がある値以上で、か
つ外接矩形の縦横比(外接矩形の縦の長さ/横の長さ)
がある範囲以内であるものを、侵入物体として認識す
る。この認識結果は、出力処理20で出力され、次の入
力画像に対する読み込み処理が行われる。
In the maximum change detection processing 15, the area ΔS of the change area of the current input image is compared with the maximum area ΔSmax of the change area of the input image stored so far in the maximum change amount memory 16. If the area ΔS of the change area of the current input image is larger, the maximum area Δ that is the maximum change amount.
While updating Smax, the maximum change image memory 17
The difference binarized image ΔI of the current input image obtained in the binarization processing 14 is saved. Then, the input image of the next frame is read. On the other hand, the current change area area ΔS
Is smaller, the image of the maximum area ΔSmax up to now represents the entire image of the intruding object, and the difference binarized image ΔImax stored in the maximum change image memory 17 is sent to the change area cutout processing 18. . In the change area cutout processing 18, the cutout change areas as shown in FIG. 8 of the binary image generated by the difference calculation between the background image and the input image in the difference processing 13 are integrated (collected) as one integrated change area. For example, in the changing region cutting processing 18, the changing regions of the differential binarized image ΔI are expanded several times and then contracted the same number of times in order to combine the changing regions representing one intruding object into one. The expansion is to convert a pixel having a value of 0 into a pixel having a value of 1 when there is a pixel having a value of 1 around the pixel having a value of 0. In other words, it expands around the change area by one pixel. Contraction is the opposite, and reduces the area around the change area by one pixel. By such an operation, the change area that seems to represent one intruding object is extracted as one area. Then, the change area thus obtained is surrounded by a circumscribed rectangle, and the area surrounded by the circumscribed rectangle is cut out from the difference binary image ΔI. The intruding object recognition processing 19 recognizes the intruding object from the feature amount of the cut-out area. As a recognition method, for example, the intruding object is recognized using the area of the cut out region and the circumscribed rectangle as parameters. That is, the area of the clipped area is greater than or equal to a certain value, and the aspect ratio of the circumscribed rectangle (vertical length / horizontal length of the circumscribed rectangle)
Those within a certain range are recognized as intruding objects. This recognition result is output in the output processing 20, and the reading processing for the next input image is performed.

【0009】図10は、図1中の最大変化検出処理15
のフローチャートであり、この図を参照しつつその最大
変化検出処理15の処理内容を説明する。図10のステ
ップS1において、図1の二値化処理14で得られた変
化領域を示す差分二値化画像ΔIより、ある入力画像の
変化領域の面積ΔSを計算し、ステップS2へ進む。ス
テップS2では、最大変化量メモリ16に蓄えられてい
たこれまでの最大変化領域の面積ΔSmax と、入力画像
の変化領域の面積ΔSとを比較する。もし、面積ΔSが
最大面積ΔSmax よりも大きければ、図9の点A→点B
のように、現在の入力画像は変化領域が拡大している最
中であるとして、ステップS3において、最大変化量メ
モリ16及び最大変化画像メモリ17に蓄えられていた
ΔSmax,ΔImaxの値をそれぞれΔS,ΔIの値で入れ
換え、次のステップS4で再度入力画像の取得を行う。
これに対し、ステップS2において、もし面積ΔSが最
大面積ΔSmax よりも小さければ、最大変化量メモリ1
6に格納されているこれまでの最大の変化面積を持つ差
分二値化画像ΔImax を、図9の点Cにおける差分二値
化画像であるとみなすことができる。そこで、ステップ
S5において、最大変化画像メモリ17に格納されてい
た最大差分二値化画像ΔImax が差分二値化画像ΔIに
代入され、ステップS6で変化領域切出し処理19へ送
られる。
FIG. 10 shows the maximum change detection processing 15 in FIG.
The processing contents of the maximum change detection processing 15 will be described with reference to this figure. In step S1 of FIG. 10, the area ΔS of the change region of a certain input image is calculated from the difference binarized image ΔI indicating the change region obtained in the binarization processing 14 of FIG. 1, and the process proceeds to step S2. In step S2, the area ΔSmax of the maximum change area so far stored in the maximum change amount memory 16 is compared with the area ΔS of the change area of the input image. If the area ΔS is larger than the maximum area ΔSmax, point A → point B in FIG.
As described above, assuming that the current input image is in the process of expanding the change region, in step S3, the values of ΔSmax and ΔImax stored in the maximum change amount memory 16 and the maximum change image memory 17 are respectively changed to ΔSmax. , ΔI, and the input image is acquired again in the next step S4.
On the other hand, in step S2, if the area ΔS is smaller than the maximum area ΔSmax, the maximum change amount memory 1
The differential binarized image ΔImax having the largest change area so far stored in 6 can be regarded as the differential binarized image at the point C in FIG. 9. Therefore, in step S5, the maximum difference binarized image ΔImax stored in the maximum change image memory 17 is substituted into the difference binarized image ΔI, and is sent to the change region cutout process 19 in step S6.

【0010】以上のように、本実施例では次のような利
点がある。本実施例では、最大変化検出処理15、最大
変化量メモリ16、及び最大変化画像メモリ17を設
け、侵入物体の全体像が入力画像として撮影された段階
で、変化領域切出し処理18を介して侵入物体認識処理
19で認識処理を行う。そのため、入力画像取得の間隔
を短くすることができると共に、認識精度を向上させる
ことができる。ところが、本実施例では図11〜図13
に示すような問題がある。図11は侵入物体をTVカメ
ラから遠くで撮影した場合の入力画像の一例を示す図、
図12は侵入物体をTVカメラの近くで撮影した場合の
入力画像の一例を示す図、及び図13は侵入物体が画像
よりはみ出した場合の入力画像の一例を示す図である。
本実施例では、侵入物体がTVカメラからほぼ同じ距離
の位置にあると想定している。そのため、侵入物体がT
Vカメラに近づいてくる場合には変化領域が次第に大き
くなり、反対にTVカメラから遠ざかる場合には変化領
域が小さくなる。即ち、侵入物体の全体像が画像に含ま
れるか否かは、変化領域の面積の大小だけでは判定でき
ない。例えば、侵入物体がTVカメラに近づいてくる場
合を考える。TVカメラから遠い場合には、図11に示
すように変化領域の面積が小さい。次第にTVカメラに
近づくにつれ、図12に示すように、侵入物体が大きく
なって面積も大きくなる。図13のように、近づき過ぎ
て侵入物体が画像からはみ出してしまっても、面積は大
きくなる一方である。このように、変化領域の面積は単
調増加するため、変化面積の極大値に基づく侵入物体認
識方法では、侵入物体の全体像を含み認識処理に適した
入力画像を検出することができないおそれがある。さら
に、侵入物体がTVカメラから遠ざかる場合にも、変化
領域の面積が単調減少するため、認識処理に適した入力
画像の検出が行えないおそれがある。そこで、このよう
な問題が生じるおそれがある場合には、次の第2の実施
例の侵入物体認識方法を用いればよい。
As described above, this embodiment has the following advantages. In this embodiment, a maximum change detection process 15, a maximum change amount memory 16, and a maximum change image memory 17 are provided, and when the entire image of an intruding object is captured as an input image, the change area cutout process 18 is entered. The object recognition processing 19 performs recognition processing. Therefore, it is possible to shorten the interval for acquiring the input image and improve the recognition accuracy. However, in this embodiment, FIGS.
There is a problem as shown in. FIG. 11 is a diagram showing an example of an input image when an intruding object is photographed far from a TV camera,
FIG. 12 is a diagram showing an example of an input image when an intruding object is photographed near a TV camera, and FIG. 13 is a diagram showing an example of an input image when the intruding object is out of the image.
In this embodiment, it is assumed that the intruding object is located at substantially the same distance from the TV camera. Therefore, the intruding object is T
When approaching the V camera, the change area gradually becomes large, and when moving away from the TV camera, the change area becomes smaller. That is, whether or not the entire image of the intruding object is included in the image cannot be determined only by the size of the area of the change region. For example, consider the case where an intruding object approaches a TV camera. When it is far from the TV camera, the area of the change region is small as shown in FIG. As approaching the TV camera, the size of the intruding object increases and the area increases, as shown in FIG. As shown in FIG. 13, even if the intruding object gets too close and sticks out of the image, the area is still increasing. As described above, since the area of the change area monotonically increases, the intruding object recognition method based on the maximum value of the changing area may not be able to detect the input image including the entire image of the intruding object and suitable for the recognition processing. . Further, even when the intruding object moves away from the TV camera, the area of the change region monotonically decreases, and thus the input image suitable for the recognition process may not be detected. Therefore, if such a problem may occur, the intruding object recognition method of the second embodiment described below may be used.

【0011】第2の実施例 図14は、本発明の第2の実施例を示す侵入物体認識方
法の処理手順を示す図であり、第1の実施例を示す図1
中の要素と共通の要素には共通の符号が付されている。
この侵入物体認識方法では、図1の最大変化検出処理1
5に代えて、認識制御処理25及びフラグ(flag)メモ
リ26が設けられている。認識制御処理25では、二値
化処理14で求められた差分二値化画像ΔIに基づき、
以前に得られた入力画像と現在処理している入力画像と
の変化量(変化領域の面積)の比較、及びその変化領域
の位置の比較によって以後の侵入物体の認識処理を続行
するか、あるいは処理を中断して次の入力処理を取得す
るかを決定する処理を行う。フラグメモリ26は、二値
化処理14で求められた最大の変化領域の差分二値化画
像ΔImax における変化領域が画像の端に接しているか
否かを示す情報フラグの内容を蓄えるメモリであり、例
えば、変化領域が画像の端に接していればflag=1、接
していなければflag=0とする。図15は、図14中の
認識制御処理25のフローチャートであり、この図15
等を参照しつつ図14に示す侵入物体認識方法の処理手
順を説明する。図14において、TVカメラを用い、図
6のような侵入物体が存在しない場合の背景画像を撮影
し、それを背景画像メモリ11に格納しておく。この背
景画像を撮影したのと同じ位置で、図7のような入力画
像をTVカメラで撮影し、その入力画像を入力画像メモ
リ12に格納する。差分処理13では、入力画像中にお
ける背景画像からの変化を検出するために、背景画像メ
モリ11と入力画像メモリ12からそれぞれ得られる背
景画像と入力画像との間の濃度差の絶対値を計算し、差
分画像を求めて二値化処理14へ送る。二値化処理14
では、差分処理13からの差分画像を適当な閾値で二値
化し、差分二値化画像ΔIを求める。この差分二値化画
像ΔIでは、第1の実施例と同様に、入力画像中で背景
画像から濃度が変化した領域の画素の値が1、変化して
いない領域では画素の値が0に設定され、変化領域が抽
出されることになる。このような差分二値化画像ΔI
は、認識制御処理25へ送られる。
Second Embodiment FIG. 14 is a diagram showing a processing procedure of an intruding object recognizing method showing a second embodiment of the present invention, and FIG. 1 showing the first embodiment.
Elements that are the same as the elements inside have the same reference numerals.
In this intruding object recognition method, the maximum change detection process 1 in FIG.
5, a recognition control process 25 and a flag memory 26 are provided. In the recognition control process 25, based on the difference binarized image ΔI obtained in the binarization process 14,
Continue the recognition processing of the intruding object thereafter by comparing the amount of change (area of the changing region) between the input image obtained previously and the input image currently being processed, and comparing the position of the changing region, or A process of interrupting the process and determining whether to obtain the next input process is performed. The flag memory 26 is a memory for storing the content of an information flag indicating whether or not the change area in the difference binarized image ΔImax of the maximum change area obtained in the binarization process 14 is in contact with the edge of the image, For example, flag = 1 is set if the change area is in contact with the edge of the image, and flag = 0 is set otherwise. FIG. 15 is a flowchart of the recognition control process 25 in FIG.
The processing procedure of the intruding object recognition method shown in FIG. 14 will be described with reference to FIG. In FIG. 14, a TV camera is used to capture a background image when there is no intruding object as shown in FIG. 6, and the image is stored in the background image memory 11. The input image as shown in FIG. 7 is captured by the TV camera at the same position where the background image was captured, and the input image is stored in the input image memory 12. In the difference processing 13, in order to detect a change from the background image in the input image, the absolute value of the density difference between the background image and the input image obtained from the background image memory 11 and the input image memory 12 is calculated. , The difference image is obtained and sent to the binarization processing 14. Binarization processing 14
Then, the difference image from the difference process 13 is binarized with an appropriate threshold value to obtain the difference binarized image ΔI. In the difference binarized image ΔI, as in the first embodiment, the pixel value is set to 1 in the area where the density is changed from the background image in the input image, and the pixel value is set to 0 in the area where the density is not changed. Then, the changed area is extracted. Such a difference binarized image ΔI
Is sent to the recognition control processing 25.

【0012】認識制御処理25では、以前に得られた入
力画像と現在処理している入力画像との変化量(変化領
域の面積)の比較、及びその変化領域の位置の比較によ
り、以後の侵入物体の認識処理を続行するか、あるいは
その認識処理を中断して次の入力画像を取得するか否か
を決定する。この認識制御処理25の処理内容を、図1
5のフローチャートを参照しつつ説明する。まず、図1
5のステップS11では、図14の二値化処理14で得
られた差分二値化画像ΔIに変化領域(即ち、画素の値
が1の領域)があるか否かを判定し、変化領域がなけれ
ば、侵入物体がなかったものとみなしてステップS12
へ進み、次の入力画像の取得を行う。ステップS11に
おいて変化領域があった場合、ステップS13へ進み、
変化領域が画像の端に接しているか否かを判定する。画
像の端に接していれば、図13のように侵入物体が画像
からはみ出しているとみなす。この場合、必要な情報
(侵入物体の全体像)が不足しているので、後の認識処
理を行っても正確な結果を期待できない。そこで、現在
の入力画像に対しては後の認識処理を行わない。但し、
図11〜図13に示すように、侵入物体がTVカメラに
近づいてきた場合には、次のような例外処理を行う。即
ち、侵入物体がTVカメラに近づくと、変化領域の面積
ΔSが次第に大きくなる。後述するように、侵入物体の
全体像が画像の中にある(変化領域が画像の端に接して
いない)場合は、侵入物体ができるだけ大きく写ってい
る画像(変化領域が画像の端に接しておらず、かつ変化
量が最大の画像)に対して認識処理を行う。変化量とし
て変化領域の面積ΔSを用いると、これは図12のよう
に変化領域の面積ΔSが最大のときに認識処理を行うこ
とを意味する。そのため、図11から図13までのよう
に侵入物体が近づいてくると、図12のような認識処理
に最適な画像は、図13の変化領域の位置(画像の端に
接しているか否か)が判明するまで記憶されていなけれ
ばならない。そこで、前の入力画像に関する情報が次の
ように蓄えられる。
In the recognition control processing 25, subsequent intrusion is performed by comparing the amount of change (area of the changing region) between the input image obtained previously and the input image currently being processed, and comparing the position of the changing region. It is determined whether to continue the object recognition process or to interrupt the recognition process and acquire the next input image. The processing content of this recognition control processing 25 is shown in FIG.
This will be described with reference to the flowchart of FIG. First, Fig. 1
In step S11 of 5, it is determined whether or not there is a change region (that is, a region where the pixel value is 1) in the difference binarized image ΔI obtained in the binarization processing 14 of FIG. If not, it is considered that there is no intruding object, and step S12 is performed.
Proceed to and acquire the next input image. If there is a changed area in step S11, the process proceeds to step S13,
It is determined whether the changed area is in contact with the edge of the image. If it is in contact with the edge of the image, it is considered that the intruding object is protruding from the image as shown in FIG. In this case, since necessary information (overall image of the intruding object) is insufficient, accurate results cannot be expected even if the subsequent recognition processing is performed. Therefore, subsequent recognition processing is not performed on the current input image. However,
As shown in FIGS. 11 to 13, when an intruding object approaches the TV camera, the following exceptional processing is performed. That is, when the intruding object approaches the TV camera, the area ΔS of the change region gradually increases. As will be described later, if the whole image of the intruding object is in the image (the change area is not in contact with the edge of the image), the image in which the intruding object is as large as possible (the change area is in contact with the edge of the image The recognition process is performed on an image that does not exist and has the largest amount of change. When the area ΔS of the change area is used as the change amount, this means that the recognition processing is performed when the area ΔS of the change area is maximum as shown in FIG. Therefore, when an intruding object approaches as shown in FIG. 11 to FIG. 13, the optimum image for the recognition processing as shown in FIG. 12 is the position of the change region in FIG. 13 (whether it is in contact with the edge of the image). Must be remembered until Therefore, the information about the previous input image is stored as follows.

【0013】つまり、前の入力画像までに得られた最大
の変化領域の面積ΔSmax が最大変化量メモリ16に、
その面積ΔSmax が得られたときの最大の変化領域の差
分二値化画像ΔImax を最大変化画像メモリ17に、そ
の差分二値化画像ΔImax における変化領域が画像の端
に接していたか否かを示す情報flagの内容がフラグメモ
リ26に、それぞれ蓄えられる。ここでは、変化領域が
画像の端に接していれば、flag=1、接していなければ
flag=0とする。図15のステップS13において、現
在の入力画像の変化領域が画像の端に接しているなら
ば、ステップS14へ進み、今までに最大の変化量を示
した入力画像における変化領域の位置を調べる。flag=
1、即ち以前に最大変化を示した入力画像の変化領域が
画像の端に接しているならば、認識処理を行わず、ステ
ップS15へ進み、次の入力画像を取得する。ステップ
S14において、もしflag=0ならば、ステップS16
へ進み、前の入力画像において侵入物体の全体像が撮影
されていたとみなし、最大変化画像メモリ17に蓄えら
れていた差分二値化画像ΔImax をΔIに代入する。ま
た、現在の入力画像は変化領域が画像の端に接している
ことから、次の入力画像のためにflag=1とする。そし
て、ステップS17へ進み、差分二値化画像ΔIが図1
4の変化領域切出し処理18へ送られ、侵入物体認識処
理19で認識処理が行われる。図15のステップS13
において、現在の変化領域が画像の端に接していれば、
ステップS18へ進み、この変化領域の面積ΔSを計算
し、さらにステップS19へ進み、ステップS14と同
様にflagの値を評価する。flag=1ならば、前の入力画
像まで変化領域が画像からはみ出しており、現在の入力
画像になって侵入物体の全体像が画像内に入ってきたこ
とになる。そこで、ステップS20において、現在の変
化領域の面積ΔSをΔSmax に代入し、最大変化量メモ
リ16に格納する。また、現在の差分二値化画像ΔIを
差分二値化画像ΔImax に代入し、最大変化画像メモリ
17に格納する。さらに、flag=0としてフラグメモリ
26に格納する。その後、ステップS17へ進み、現在
の差分二値化画像ΔIを変化領域切出し処理18へ送
り、侵入物体認識処理19で認識処理を行う。ステップ
S19においてflag=0であれば、現在の入力画像も前
の入力画像も、変化領域が画像の端に位置していないこ
とになる。そこで、第1の実施例と同様、変化量の大き
い方の入力画像を変化領域切出し処理18へ送る。即
ち、ステップS21において、現在の変化領域の面積Δ
Sと、これまでの最大の変化量の面積ΔSmaxとを比較
する。もし、ΔSmax>ΔSならば、ステップS22に
おいてΔImax をΔIに代入し、ステップS17へ進
み、その差分二値化画像ΔIを変化領域切出し処理18
へ送る。ステップS21においてΔSmax <ΔSなら
ば、ステップS23へ進み、ΔS,ΔIの内容をそれぞ
れΔSmax,ΔImaxへ代入し、ステップS24で次の入
力画像を入力画像メモリ12から読み込む。以上のよう
な認識制御処理25によって図14の変化領域切出し処
理18へ送られた差分二値化画像ΔIは、該変化領域切
出し処理18において差分処理によってばらばらになっ
た変化領域を1つのまとまった領域に収集される。そし
て、変化領域切出し処理18でまとめられた領域が何で
あるかが侵入物体認識処理19で認識され、その認識結
果が出力処理20で出力され、次の入力画像が読み込ま
れる。
That is, the maximum change amount area 16 of the maximum change area obtained up to the previous input image is stored in the maximum change amount memory 16.
The difference binarized image ΔImax of the maximum change area when the area ΔSmax is obtained is shown in the maximum change image memory 17, and it is indicated whether or not the change area in the difference binarized image ΔImax is in contact with the edge of the image. The content of the information flag is stored in the flag memory 26, respectively. Here, flag = 1 if the change area touches the edge of the image, otherwise
Set flag = 0. In step S13 of FIG. 15, if the current change area of the input image is in contact with the edge of the image, the process proceeds to step S14, and the position of the change area in the input image showing the maximum change amount so far is checked. flag =
If 1, that is, if the change region of the input image that has shown the maximum change before is in contact with the edge of the image, the recognition process is not performed and the process proceeds to step S15 to acquire the next input image. If flag = 0 in step S14, step S16
Then, it is considered that the entire image of the intruding object was captured in the previous input image, and the binary difference image ΔImax stored in the maximum change image memory 17 is substituted for ΔI. Further, in the current input image, since the change area is in contact with the edge of the image, flag = 1 is set for the next input image. Then, the process proceeds to step S17, and the difference binarized image ΔI is shown in FIG.
4 is sent to the change area cutout processing 18 and the recognition processing is performed in the intruding object recognition processing 19. Step S13 of FIG.
In, if the current change area touches the edge of the image,
In step S18, the area ΔS of this change region is calculated, and in step S19, the value of flag is evaluated as in step S14. If flag = 1, the change area extends to the previous input image, which means that the current input image has become the entire image of the intruding object. Therefore, in step S20, the area ΔS of the current change area is substituted for ΔSmax and stored in the maximum change amount memory 16. Further, the current difference binarized image ΔI is substituted into the difference binarized image ΔImax and stored in the maximum change image memory 17. Further, flag = 0 is stored in the flag memory 26. After that, the process proceeds to step S17, where the current difference binarized image ΔI is sent to the changing region cutout process 18, and the intruding object recognition process 19 performs the recognition process. If flag = 0 in step S19, it means that the changed region is not located at the edge of the image in the current input image and the previous input image. Therefore, as in the first embodiment, the input image having the larger change amount is sent to the change region cutout process 18. That is, in step S21, the current change area area Δ
S is compared with the maximum change amount area ΔSmax so far. If ΔSmax> ΔS, ΔImax is substituted for ΔI in step S22, the process proceeds to step S17, and the difference binarized image ΔI is subjected to the change region cutting process 18
Send to. If ΔSmax <ΔS in step S21, the process proceeds to step S23, the contents of ΔS and ΔI are substituted into ΔSmax and ΔImax, respectively, and the next input image is read from the input image memory 12 in step S24. In the differential binarized image ΔI sent to the change area cutout processing 18 of FIG. 14 by the recognition control processing 25 as described above, the change areas cut out by the difference processing in the change area cutout processing 18 are grouped into one change area. Collected in the area. Then, the intruding object recognition processing 19 recognizes what the areas grouped by the changed area cutout processing 18 are, the recognition result is output by the output processing 20, and the next input image is read.

【0014】以上のように、本実施例では、図14の認
識制御処理25及びフラグメモリ26を設け、侵入物体
の画像内での位置と変化量を用いて侵入物体を認識する
のに最適な入力画像で認識処理を実行するようにしたの
で、侵入物体がTVカメラに近づくか、あるいは遠ざか
る際に、該侵入物体の全体像を撮影した画像を検出でき
ないことによって精度よく認識処理を実行することが困
難になるという第1の実施例の問題点を解決できる。即
ち、侵入物体の動く方向に依存することなく、該侵入物
体の全体像が入力画像として撮影された段階で認識処理
を行うので、入力画像取得の間隔を短くすることができ
ると共に、認識精度を向上させることができる。なお、
本発明は上記実施例に限定されず、例えば、図1の最大
変化検出処理15を図10のフローチャート以外の処理
手順で処理したり、あるいは図14の認識制御処理25
を図15のフローチャート以外の処理手順で処理する
等、種々の変形が可能である。
As described above, the present embodiment is provided with the recognition control processing 25 and the flag memory 26 shown in FIG. 14, and is optimal for recognizing an intruding object by using the position and the amount of change in the image of the intruding object. Since the recognition process is performed on the input image, when the intruding object approaches or moves away from the TV camera, the image capturing the entire image of the intruding object cannot be detected, so that the recognition process is performed accurately. It is possible to solve the problem of the first embodiment that it becomes difficult. That is, since the recognition processing is performed at the stage where the entire image of the intruding object is captured as the input image without depending on the moving direction of the intruding object, the interval of input image acquisition can be shortened and the recognition accuracy can be improved. Can be improved. In addition,
The present invention is not limited to the above-described embodiment. For example, the maximum change detection process 15 of FIG. 1 is processed by a processing procedure other than the flowchart of FIG. 10, or the recognition control process 25 of FIG.
Can be processed in various ways other than the flowchart of FIG. 15, and various modifications are possible.

【0015】[0015]

【発明の効果】以上詳細に説明したように、第1の発明
によれば、最大変化量メモリ及び最大変化画像メモリを
用いて最大変化検出処理を行うようにしたので、侵入物
体の全体像が入力画像として撮影された段階で認識処理
が行える。従って、入力画像取得の間隔を短くすること
ができると共に、認識精度を向上させることができる。
第2の発明によれば、最大変化量メモリ、最大変化画像
メモリ、及びフラグメモリを用い、侵入物体の画像内で
の位置と変化量を用いて認識制御処理で入力画像を検出
するようにしたので、侵入物体が画像入力装置に近づく
か、あるいは遠ざかる際に、該侵入物体の全体像を撮影
した画像を検出できないことによって精度よく認識処理
を実行することが困難になるという問題を解決できる。
即ち、侵入物体の動く方向に依存することなく、該侵入
物体の全体像が入力画像として撮影された段階で認識処
理を行えるので、入力画像取得の間隔をより短くするこ
とができると共に、認識精度をより向上させることがで
きる。
As described in detail above, according to the first aspect of the invention, since the maximum change amount detection processing is performed using the maximum change amount memory and the maximum change image memory, the entire image of the intruding object can be obtained. The recognition process can be performed when the image is captured as an input image. Therefore, it is possible to shorten the interval for acquiring the input image and improve the recognition accuracy.
According to the second invention, the maximum change amount memory, the maximum change image memory, and the flag memory are used, and the input image is detected by the recognition control process using the position and the change amount of the intruding object in the image. Therefore, when the intruding object approaches or moves away from the image input device, it is possible to solve the problem that it is difficult to perform the recognition process with high accuracy because the image of the entire image of the intruding object cannot be detected.
That is, since the recognition process can be performed at the stage where the entire image of the intruding object is captured as the input image without depending on the moving direction of the intruding object, the interval of input image acquisition can be shortened and the recognition accuracy can be improved. Can be further improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の侵入物体認識方法の処
理手順を示す図である。
FIG. 1 is a diagram showing a processing procedure of an intruding object recognition method according to a first embodiment of the present invention.

【図2】従来の侵入物体認識方法の処理手順を示す図で
ある。
FIG. 2 is a diagram showing a processing procedure of a conventional intruding object recognition method.

【図3】侵入物体の一部が撮影された入力画像の一例を
示す図である。
FIG. 3 is a diagram showing an example of an input image in which a part of an intruding object is photographed.

【図4】侵入物体の一部が撮影された入力画像の一例を
示す図である。
FIG. 4 is a diagram showing an example of an input image in which a part of an intruding object is photographed.

【図5】侵入物体の全体が撮影された入力画像の一例を
示す図である。
FIG. 5 is a diagram showing an example of an input image in which an entire intruding object is photographed.

【図6】背景画像の一例を示す図である。FIG. 6 is a diagram showing an example of a background image.

【図7】入力画像の一例を示す図である。FIG. 7 is a diagram showing an example of an input image.

【図8】差分二値化画像の一例を示す図である。FIG. 8 is a diagram showing an example of a difference binarized image.

【図9】変化領域の面積変化を示す図である。FIG. 9 is a diagram showing a change in area of a change region.

【図10】図1中の最大変化検出処理のフローチャート
である。
10 is a flowchart of a maximum change detection process in FIG.

【図11】侵入物体をTVカメラから遠くで撮影した場
合の入力画像の一例を示す図である。
FIG. 11 is a diagram showing an example of an input image when an intruding object is photographed far from a TV camera.

【図12】侵入物体をTVカメラの近くで撮影した場合
の入力画像の一例を示す図である。
FIG. 12 is a diagram showing an example of an input image when an intruding object is photographed near a TV camera.

【図13】侵入物体が画像よりはみ出した場合の入力画
像の一例を示す図である。
FIG. 13 is a diagram showing an example of an input image when an intruding object extends beyond the image.

【図14】本発明の第2の実施例の侵入物体認識方法の
処理手順を示す図である。
FIG. 14 is a diagram showing a processing procedure of an intruding object recognition method according to the second embodiment of the present invention.

【図15】図14中の認識制御処理のフローチャートで
ある。
15 is a flowchart of a recognition control process in FIG.

【符号の説明】 11 背景画像メモリ 12 入力画像メモリ 13 差分処理 14 二値化処理 15 最大変化検出処理 16 最大変化量メモリ 17 最大変化画像メモリ 18 変化領域切出し処理 19 侵入物体認識処理 20 出力処理 25 認識制御処理 26 フラグメモリ[Description of Reference Signs] 11 background image memory 12 input image memory 13 difference processing 14 binarization processing 15 maximum change detection processing 16 maximum change amount memory 17 maximum change image memory 18 change area cutout processing 19 intruding object recognition processing 20 output processing 25 Recognition control process 26 Flag memory

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 侵入物体が存在しない場合に画像入力装
置によって撮影された背景画像と、前記侵入物体が存在
する場合に前記画像入力装置によって逐次撮影された入
力画像との差分画像をそれぞれ求めた後、前記差分画像
を二値化して差分二値化画像を求め、前記差分二値化画
像の変化領域より前記侵入物体を認識する侵入物体認識
方法において、 前記背景画像と前記入力画像との間の変化領域の変化量
を逐次計算して該変化量が最大となる入力画像を求め、
現在の入力画像より以前に撮影された入力画像における
変化領域の最大変化量を最大変化量メモリに記憶すると
共に、該最大変化量が得られたときの入力画像の差分二
値化画像を最大変化画像メモリに記憶し、 前記最大変化画像メモリに記憶された前記差分二値化画
像の変化領域より前記侵入物体を認識することを特徴と
する侵入物体認識方法。
1. A difference image between a background image photographed by the image input device when no intruding object exists and an input image sequentially photographed by the image input device when the intruding object exists is obtained. After that, the difference image is binarized to obtain a difference binarized image, and in the intruding object recognition method for recognizing the intruding object from the change region of the difference binarized image, between the background image and the input image. The change amount of the change area is sequentially calculated to obtain the input image with the maximum change amount,
The maximum change amount of the change area in the input image captured before the current input image is stored in the maximum change amount memory, and the difference binary image of the input image when the maximum change amount is obtained is changed to the maximum change amount. An intruding object recognizing method characterized by recognizing the intruding object from a change region of the differential binarized image stored in the image memory and stored in the maximum change image memory.
【請求項2】 侵入物体が存在しない場合に画像入力装
置によって撮影された背景画像と、前記侵入物体が存在
する場合に前記画像入力装置によって逐次撮影された入
力画像との差分画像をそれぞれ求めた後、前記差分画像
を二値化して差分二値化画像を求め、前記差分二値化画
像の変化領域より前記侵入物体を認識する侵入物体認識
方法において、 現在前記画像入力装置によって撮影された入力画像にお
ける変化領域の位置と以前に前記画像入力装置によって
撮影された入力画像における変化領域の位置との間で比
較すると共に、前記背景画像と前記入力画像との間の変
化領域の変化量を逐次計算して前記侵入物体の認識に最
も適した状態で撮影された前記入力画像を検出し、 現在の入力画像より以前に撮影された入力画像における
最大変化量を最大変化量メモリに記憶し、該最大変化量
が得られたときの入力画像の差分二値化画像を最大変化
画像メモリに記憶すると共に、該以前に撮影された入力
画像における変化領域が画像の端に位置したか否かの情
報をフラグメモリに記憶し、 前記フラグメモリの記憶情報を参照し、前記最大変化画
像メモリに記憶された、画像の端に位置しない前記差分
二値化画像の変化領域より前記侵入物体を認識すること
を特徴とする侵入物体認識方法。
2. A difference image between a background image photographed by the image input device when there is no intruding object and an input image sequentially photographed by the image input device when there is the intruding object is obtained. Then, the difference image is binarized to obtain a difference binarized image, and in the intruding object recognition method for recognizing the intruding object from the change region of the difference binarized image, the input currently captured by the image input device is used. The position of the change area in the image is compared with the position of the change area in the input image previously captured by the image input device, and the amount of change in the change area between the background image and the input image is sequentially calculated. The calculated input image captured in the most suitable state for recognizing the intruding object is detected, and the maximum change in the input image captured before the current input image is detected. Storing the amount in the maximum change amount memory, storing the difference binarized image of the input image when the maximum change amount is obtained in the maximum change image memory, and changing the change area in the previously captured input image. Information on whether the image is located at the edge of the image is stored in the flag memory, the stored information of the flag memory is referred to, and the difference binarized image stored in the maximum change image memory and not located at the edge of the image A method for recognizing an intruding object, characterized by recognizing the intruding object from a change area of
JP5214484A 1993-08-30 1993-08-30 Intruding body recognition method Withdrawn JPH0765173A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5214484A JPH0765173A (en) 1993-08-30 1993-08-30 Intruding body recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5214484A JPH0765173A (en) 1993-08-30 1993-08-30 Intruding body recognition method

Publications (1)

Publication Number Publication Date
JPH0765173A true JPH0765173A (en) 1995-03-10

Family

ID=16656482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5214484A Withdrawn JPH0765173A (en) 1993-08-30 1993-08-30 Intruding body recognition method

Country Status (1)

Country Link
JP (1) JPH0765173A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007129591A1 (en) * 2006-05-09 2007-11-15 Pioneer Corporation Shielding-object video-image identifying device and method
WO2013080245A1 (en) * 2011-11-29 2013-06-06 パナソニック株式会社 Video processing device and video processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007129591A1 (en) * 2006-05-09 2007-11-15 Pioneer Corporation Shielding-object video-image identifying device and method
JP4913801B2 (en) * 2006-05-09 2012-04-11 パイオニア株式会社 Shielding object image identification apparatus and method
US8311269B2 (en) 2006-05-09 2012-11-13 Pioneer Corporation Blocker image identification apparatus and method
WO2013080245A1 (en) * 2011-11-29 2013-06-06 パナソニック株式会社 Video processing device and video processing method

Similar Documents

Publication Publication Date Title
KR100860988B1 (en) Method and apparatus for object detection in sequences
JP6095817B1 (en) Object detection device
JPH07192112A (en) Intruding object recognizing method
JP2007164690A (en) Image processor and image processing method
US20050190953A1 (en) Method, system and program for searching area considered to be face image
CN114267029A (en) Lane line detection method, device, equipment and storage medium
JP4740755B2 (en) Monitoring device using images
JPH0765173A (en) Intruding body recognition method
JP4421121B2 (en) Intruder detection method
JP2002032759A (en) Monitor
JP3230509B2 (en) Moving image processing device
JP2004295416A (en) Image processing apparatus
US11495006B2 (en) Object detection method for static scene and associated electronic device
JPH0652311A (en) Image processing method
JP3417635B2 (en) Intruding object recognition method
JPH09319978A (en) Intrusion body monitor device
KR102297103B1 (en) Method and apparatus for generating 3d scene graph
JPH07220047A (en) Human body recognition method
JPH07220076A (en) Image processing device
CN113378617A (en) Image processing and standing/sitting behavior identification method and system
JP2006107314A (en) Image processor and image processing method
JP4282512B2 (en) Image processing apparatus, binarization threshold management method in image processing apparatus, and image processing program
JP2004265291A (en) Background difference processing method and device thereof
JPH07230549A (en) Image processor and its method
JPH0514892A (en) Image monitor device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001031