JPH07192112A - Intruding object recognizing method - Google Patents
Intruding object recognizing methodInfo
- Publication number
- JPH07192112A JPH07192112A JP33205193A JP33205193A JPH07192112A JP H07192112 A JPH07192112 A JP H07192112A JP 33205193 A JP33205193 A JP 33205193A JP 33205193 A JP33205193 A JP 33205193A JP H07192112 A JPH07192112 A JP H07192112A
- Authority
- JP
- Japan
- Prior art keywords
- intruding object
- closed curve
- area
- image
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、例えばテレビジョンカ
メラ(以下、TVカメラという)等による撮像画像から
人物等の侵入物体を検出し、その侵入物体が何であるか
を認識する侵入物体認識方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects an intruding object such as a person from an image picked up by, for example, a television camera (hereinafter referred to as a TV camera) and recognizes what the intruding object is. It is about.
【0002】[0002]
【従来の技術】従来、このような分野の技術としては、
例えば次のような文献に記載されるものがあった。 文献1;1990年電子情報通信学会春季全国大会講演
論文集文冊 6D−436、佐久間 喜郎、伊東 潔、
増田 功著「微分画像のフレーム間差分による侵入物体
検出」P.6−438 従来、侵入者監視システムにおける人物認識方法として
は、前記文献に記載されるように、侵入者の有無を確認
するための入力画像と背景画像をTVカメラで画像入力
し、前記画像入力と背景画像との差分二値化画像から変
化領域を求め、前記変化領域の特徴量から侵入者の有無
を判断し、侵入者有りの場合には警報を発するようにな
っている。ここで、変化領域の特徴量から侵入者の有無
を判断する方法としては、変化領域の面積と外接矩形を
パラメータとして侵入者の有無を判断している。つま
り、変化領域の面積がある値以上で、かつ外接矩形の縦
横比(外接矩形の縦の長さ/横の長さ)がある範囲以内
であるものを、侵入者として判断するようになってい
た。2. Description of the Related Art Conventionally, as a technique in such a field,
For example, some documents were described in the following documents. Reference 1; Proceedings of the 1990 IEICE Spring National Convention, 6D-436, Kikuro Sakuma, Kiyoshi Ito,
Masuda, Isao "Detection of intruding object by difference between frames of differential image" P. 6-438 Conventionally, as a person recognition method in an intruder monitoring system, as described in the above document, an input image for confirming the presence or absence of an intruder and a background image are input by a TV camera, and the image is input. The change area is obtained from the difference binarized image from the background image, the presence or absence of an intruder is determined from the feature amount of the change area, and if there is an intruder, an alarm is issued. Here, as a method of determining the presence or absence of an intruder from the characteristic amount of the changed region, the presence or absence of an intruder is determined using the area of the changed region and the circumscribed rectangle as parameters. That is, if the area of the change area is equal to or larger than a certain value and the aspect ratio of the circumscribing rectangle (vertical length / horizontal length of the circumscribing rectangle) is within a range, it is determined as an intruder. It was
【0003】[0003]
【発明が解決しようとする課題】しかしながら、侵入物
体認識方法においては、次のような課題があった。 (a) 侵入者をTVカメラで画像入力し、その画像に
基づき侵入者の有無を検出する場合、TVカメラの設置
場所から遠くにいる侵入者は、画像上で変化領域の面積
が小さくなる。これに対し、TVカメラの設置場所の近
くでは、小さなものが動いても変化領域の面積が大きく
なる。そのため、TVカメラの設置場所から遠い位置に
いる侵入者を認識しようとして、変化領域の面積におけ
る閾値の設定を低くすると、TVカメラの近くで人以外
の小さな物体が動くことによって生じる変化領域との区
別ができずに、誤報を発してしまうことがある。また、
もう一つのパラメータである外接矩形の縦横比は、人が
通常に歩行する動作を横から捉えた場合、足と腕を開い
たときは閉じたときに比べ約4〜5倍ほども大きくな
る。そのため、縦横比だけから侵入者を判断する場合
も、誤認識が多くなる。このように、変化領域の面積と
外接矩形の縦横比のみから侵入者の有無を判断すると、
多くの誤報を発するおそれがある。However, the method of recognizing an intruding object has the following problems. (A) When an image of an intruder is input by a TV camera and the presence or absence of the intruder is detected based on the image, an intruder far from the installation location of the TV camera has a small area of change area on the image. On the other hand, in the vicinity of the installation location of the TV camera, the area of the change region becomes large even if a small object moves. Therefore, if the threshold value is set low in the area of the change area in order to recognize an intruder far from the installation location of the TV camera, the change area caused by the movement of a small object other than a person near the TV camera is recognized. It may not be possible to make a distinction and may give false alarms. Also,
The aspect ratio of the circumscribed rectangle, which is another parameter, is about 4 to 5 times larger when the person's normal walking motion is captured from the side when the legs and arms are opened than when they are closed. Therefore, even when the intruder is determined only based on the aspect ratio, there are many false recognitions. In this way, if the presence or absence of an intruder is judged only from the area of the change area and the aspect ratio of the circumscribed rectangle,
It can generate many false alarms.
【0004】(b) 前記(a)のような変化領域の面
積と外接矩形の縦横比から侵入者の有無を判断する方法
によって生じる誤認識の点を解決するため、本願出願人
等は先に特願平5−24608明細書(以下、先の提案
という)において、歩行時に発生する人物特有の形状を
利用することによって人物を正確に認識し、誤報を少な
くする侵入者監視システム等における人物認識方法を提
案した。即ち、侵入者の有無を確認するための入力画像
と背景画像との差分画像を二値化し、その差分二値化画
像の変化領域より侵入者の有無を判断する方法におい
て、前記変化領域の外接矩形を縦に3等分したそれぞれ
の矩形A1,A2,A3内の各変化領域を横軸上へ投影
して得られる投影ヒストグラムの特徴量である下記の特
徴(1)〜特徴(6)と、前記変化領域の外接矩形にお
ける縦横比との関係によって人物を認識するようにして
いる。 特徴(1);各分割外接矩形A1,A2,A3中のヒス
トグラムのブロック数 特徴(2);各ブロックの平均値F 特徴(3);各ブロックの平均値Fの分割外接矩形間の
差 特徴(4);各ブロックにおける極大値数 特徴(5);各ブロックにおける面積の割合R 特徴(6);分割外接矩形A3における極大値の位置M これにより、変化領域の外接矩形の縦横比と、その外接
矩形を縦に3等分したそれぞれの矩形A1,A2,A3
内での各変化領域を横軸上へ投影して得られる投影ヒス
トグラムの特徴量である特徴(1)〜(6)とから、人
物を認識するようにしたので、正確に人物を認識でき、
侵入者監視システムにおいて誤報を少なくすることが可
能となる。この方法を実施するうえでは、同一侵入物体
であるが差分二値化画像としては分離された変化領域を
有する侵入物体に対して、変化領域の統合を行う必要が
ある。ところが、この統合において、同一侵入物体とし
て変化領域の統合ができない場合と統合結果によっては
正確に人物を認識できない場合とがある。例えば、侵入
してきた人物が、背景画像に対して同じ濃度の洋服を着
ていたとする。この場合、背景画像に対する差分二値化
画像中に残る変化領域は、その侵入人物の手、足及び顔
といった領域のみとなる。そのため、個々の変化領域が
非常に離れることになり、侵入人物による変化領域を統
合することが困難となる。また、仮に、統合できた場合
にも、差分二値化画像中に残る変化領域は、侵入人物に
対して非常に多くの領域が取り除かれてしまっているた
め、侵入人物の本来の形とは、大きく異なる。そのた
め、人物の認識結果に悪影響を及ぼすことになる。(B) In order to solve the erroneous recognition caused by the method of determining the presence or absence of an intruder from the area of the change region and the aspect ratio of the circumscribing rectangle as in (a), the applicant of the present application has previously In Japanese Patent Application No. 5-24608 (hereinafter, referred to as the above-mentioned proposal), a person is accurately recognized by utilizing a shape peculiar to the person that occurs during walking, and person recognition in an intruder monitoring system or the like that reduces false alarms is performed. Suggested a method. That is, in the method of binarizing the difference image between the input image and the background image for confirming the presence or absence of an intruder, and determining the presence or absence of an intruder from the change region of the difference binarized image, the circumscribed area of the change region is The following features (1) to (6), which are the feature quantities of the projection histogram obtained by projecting each change region in each rectangle A1, A2, A3 obtained by vertically dividing the rectangle into three equal parts, The person is recognized based on the relationship with the aspect ratio of the circumscribed rectangle of the change area. Feature (1); Number of histogram blocks in each circumscribed rectangle A1, A2, A3 Feature (2); Average value F of each block Feature (3); Difference between circumscribed rectangles of average value F of each block Feature (4); maximum value number in each block feature (5); area ratio R in each block R feature (6); position of maximum value M in divided circumscribing rectangle A3 Thus, the aspect ratio of the circumscribing rectangle of the change region, Rectangle A1, A2, A3 obtained by vertically dividing the circumscribed rectangle into three equal parts.
Since the person is recognized from the features (1) to (6), which are the feature amounts of the projection histogram obtained by projecting each change area in the horizontal axis on the horizontal axis, the person can be accurately recognized,
It is possible to reduce false alarms in the intruder monitoring system. In carrying out this method, it is necessary to integrate the change areas for the same intruding object but for the intruding object having a different changing area as the differential binary image. However, in this integration, there are cases where the change areas cannot be integrated as the same intruding object and cases where the person cannot be accurately recognized depending on the integration result. For example, it is assumed that the invading person is wearing clothes having the same density as the background image. In this case, the changed areas that remain in the differential binarized image with respect to the background image are only the areas such as the intruder's hand, foot, and face. As a result, the individual change areas become very far apart, making it difficult to integrate the change areas by the intruder. Further, even if they could be integrated, the change area remaining in the difference binarized image has a large number of areas removed from the intruder, so the original shape of the intruder is not. ,to differ greatly. Therefore, the recognition result of the person is adversely affected.
【0005】[0005]
【課題を解決するための手段】本発明は、前記課題を解
決するために、予め記憶された侵入物体の存在しないと
きの背景画像と逐次入力される入力画像とから侵入物体
の存在によって生じる該背景画像に対する該入力画像中
の変化領域を抽出する差分処理を施し、該変化領域に基
づいて該侵入物体を認識する侵入物体認識方法におい
て、次のような方法を講じている。即ち、前記変化領域
を取り囲む閉曲線の輪郭モデルを設定するモデル設定処
理と、前記閉曲線上の点が前記変化領域のエッジである
場合に最小値を示す項と該閉曲線の形状によって最小値
を示す項とを有して該閉曲線に評価値を与える評価関数
を用い、該評価値が最小となり該変化領域に接する前記
輪郭モデルを抽出する最小化処理と、前記変化領域に接
する前記輪郭モデル内部の画素に対して同一の画素値を
代入し、前記差分処理により分離された侵入物体の個体
に対応する該変化領域を統合する代入処理とを、施して
いる。In order to solve the above-mentioned problems, the present invention provides a method of generating an intruding object from a background image when there is no intruding object stored in advance and an input image sequentially input. The following method is adopted in the intruding object recognition method for performing the difference processing for extracting the changed area in the input image with respect to the background image and recognizing the intruding object based on the changed area. That is, a model setting process for setting a contour model of a closed curve surrounding the change area, a term showing a minimum value when a point on the closed curve is an edge of the change area, and a term showing a minimum value depending on the shape of the closed curve. Using an evaluation function that gives an evaluation value to the closed curve, and a minimization process for extracting the contour model that has the smallest evaluation value and is in contact with the change area; and a pixel inside the contour model that is in contact with the change area. The same pixel value is substituted for, and the substitution process of integrating the change regions corresponding to the individual of the intruding object separated by the difference process is performed.
【0006】[0006]
【作用】本発明によれば、以上のように侵入物体認識方
法を構成したので、差分処理によって分離された侵入物
体による変化領域が、モデル設定処理において、輪郭モ
デルの閉曲線で取り囲まれる。次に、最少化処理によっ
て、輪郭モデルの閉曲線に対する評価値が最小となる閉
曲線が求められる。代入処理で、その評価値が最小とな
る閉曲線の内部の画素は、同一の画素値が代入され、こ
の評価値が最小となる閉曲線で囲われた領域が、侵入物
体の個体に対応する変化領域とされる。従って、前記課
題を解決できるのである。According to the present invention, since the method of recognizing an intruding object is configured as described above, the changing area of the intruding object separated by the difference processing is surrounded by the closed curve of the contour model in the model setting processing. Next, a minimization process is performed to obtain a closed curve that minimizes the evaluation value for the closed curve of the contour model. In the substitution process, the same pixel value is substituted for the pixels inside the closed curve with the smallest evaluation value, and the area enclosed by the closed curve with the smallest evaluation value is the change area corresponding to the individual invading object. It is said that Therefore, the above problem can be solved.
【0007】[0007]
【実施例】本実施例では、まず、先の提案の人物認識方
法の実施例の概略(I)と、その問題点(II)を説明し
た後、その問題点(II)を解決するための本発明の侵入
物体認識方法の実施例(III)を説明する。 (I)先の提案の人物認識方法の実施例 図2は、先の提案の実施例の人物認識方法を示す図であ
り、侵入者監視システムにおける人物認識方法の概略の
処理手順を示している。この人物認識方法は、TVカメ
ラ等の画像入力装置によって背景画像及び入力画像を入
力し、それらを背景画像メモリ1及び入力画像メモリ2
に格納する画像入力処理を行い、該入力した背景画像及
び入力画像に対して差分処理3、二値化処理4、変化領
域切り出し処理5、変化領域分割処理6、投影ヒストグ
ラム作成処理7、特徴量抽出処理8、及び侵入物体判定
処理9を行って侵入者に対する認識結果を出力するよう
になっている。以下、これらの各処理を図を参照しつつ
説明する。EXAMPLE In this example, first, an outline (I) of the embodiment of the previously proposed person recognition method and its problem (II) will be described, and then, to solve the problem (II). An embodiment (III) of the intruding object recognition method of the present invention will be described. (I) Embodiment of the person recognition method of the above proposal FIG. 2 is a diagram showing a person recognition method of the embodiment of the above proposal, and shows a schematic processing procedure of the person recognition method in the intruder monitoring system. . In this person recognition method, a background image and an input image are input by an image input device such as a TV camera, and they are input to the background image memory 1 and the input image memory 2.
The image input processing to be stored in the input image is performed, and the difference processing 3, the binarization processing 4, the change area cutout processing 5, the change area division processing 6, the projection histogram creation processing 7, and the feature amount are performed on the input background image and the input image. The extraction process 8 and the intruding object determination process 9 are performed and the recognition result for the intruder is output. Hereinafter, each of these processes will be described with reference to the drawings.
【0008】メモリ1,2への画像入力処理 図3は背景画像の例、図4は入力画像の例を示す図であ
る。まず、TVカメラ等の画像入力装置を用い、図3に
示すように、侵入物体が存在しない背景だけを撮影し、
その背景画像を予め背景画像メモリ1の中に格納してお
く。そして、背景画像を撮影したのと同じ位置で撮影
し、その撮影した図4に示すような入力画像を入力画像
メモリ2の中に格納する。差分処理3 画像入力処理後、差分処理3において、入力画像中にお
ける背景画像からの変化を検出するために、背景画像メ
モリ1と入力画像メモリ2からそれぞれ入力される背景
画像と入力画像とで、その濃度差の絶対値を計算し、差
分画像を求めた後、二値化処理4へ進む。二値化処理4 図5は、差分二値化画像の例を示す図である。二値化処
理4において、差分処理3で求めた差分画像をある適当
な閾値を用いて二値化し、図5に示すような差分二値化
画像を求める。この差分二値化画像では、入力画像中で
背景画像から濃度が変化した領域の画素の値が1、変化
していない領域では画素の値が0に設定され、変化領域
が抽出されることになる。しかし、侵入物体によっては
背景画像と局所的に同じ濃度を持っていることがある。
その場合の差分二値化画像は、図5に示すように、その
部分だけが侵入物体として捉えられず、変化領域が切れ
切れになる。そのため、それぞれの変化領域は別個に認
識され、本来の一つの侵入物体しては認識されなくな
る。そこで、次の変化領域切り出し処理5を行う。 Image Input Processing to Memories 1 and 2 FIG. 3 is a diagram showing an example of a background image, and FIG. 4 is a diagram showing an example of an input image. First, using an image input device such as a TV camera, as shown in FIG. 3, only the background in which no intruding object exists is photographed,
The background image is stored in the background image memory 1 in advance. Then, the background image is photographed at the same position as that photographed, and the photographed input image as shown in FIG. 4 is stored in the input image memory 2. After the difference processing 3 image input processing, in the difference processing 3, in order to detect a change from the background image in the input image, the background image and the input image input from the background image memory 1 and the input image memory 2 respectively, After calculating the absolute value of the density difference and obtaining the difference image, the process proceeds to the binarization processing 4. Binarization Processing 4 FIG. 5 is a diagram showing an example of a difference binarized image. In the binarization process 4, the difference image obtained in the difference process 3 is binarized by using an appropriate threshold value to obtain a difference binarized image as shown in FIG. In this difference binarized image, the pixel value is set to 1 in the area where the density is changed from the background image in the input image, and the pixel value is set to 0 in the area where the density is not changed, and the changed area is extracted. Become. However, some intruding objects may locally have the same density as the background image.
As shown in FIG. 5, the difference binarized image in that case has only that part not recognized as an intruding object, and the change region is cut off. Therefore, each change area is recognized separately, and is not recognized as one original intruding object. Therefore, the following change area cutout processing 5 is performed.
【0009】変化領域切り出し処理5 変化領域切り出し処理5では、一つの侵入物体を表す変
化領域を一つにまとめるために、差分二値化画像を数回
膨張した後、同じ回数だけ収縮する。膨張とは、値0の
画素の回りに値1の画素がある場合、その値0の画素を
1に変換するものである。つまり、変化領域の回りを一
画素分膨らますのである。収縮はその逆で、変化領域の
回りを一画素分小さくする。この作業によって、数画素
程度離れた変化領域同士はつながり、一つの侵入物体を
表すと思われる変化領域は、一つの領域として抽出され
る。そして、このようにして得られた変化領域を外接矩
形で囲み、この外接矩形に囲まれた領域を差分二値化画
像から切り出す。変化領域分割処理6 変化領域分割処理6では、変化領域の外接矩形を縦に3
等分する。これは、人を表す変化領域において、縦横比
変化の原因となる人の腕と足の部分を別々の領域に分割
し、変化領域の形状を捉え易くするためのものである。
この3等分によりできる矩形を、上からそれぞれA1,
A2,A3とする。そして、次の投影ヒストグラム作成
処理7へ進む。投影ヒストグラム作成処理7 投影ヒストグラム作成処理7では、分割した外接矩形A
1,A2,A3のそれぞれについて、変化領域を表す値
1の画素の数を縦方向に加算し、外接矩形内における変
化領域の横軸上への投影ヒストグラムを求める。その
後、特徴が捉え易いように、このヒストグラムを平滑化
しておく。すると、分割外接矩形A1,A2,A3中の
変化領域の形状の特徴は、投影ヒストグラムの形状の特
徴として現れる。即ち、分割外接矩形A1,A2,A3
中の変化領域の形状の特徴は、各投影ヒストグラム中で
両側の度数が0で区切られ、かつ度数がすべてが1以上
の一塊の部分であるブロックの形状として現れる。その
ため、3等分した外接矩形A1,A2,A3内での変化
領域の投影ヒストグラムの形状の変化に着目すれば、人
物の歩行状態を表現することができ、侵入物体が人であ
るか否かを認識できる。そこで、次の特徴量抽出処理8
を行う。 Change Region Cutout Process 5 In the change region cutout process 5, the difference binarized image is expanded several times and then contracted the same number of times in order to combine the change regions representing one intruding object into one. The expansion is to convert a pixel having a value of 0 into a pixel having a value of 1 when there is a pixel having a value of 1 around the pixel having a value of 0. In other words, it expands around the change area by one pixel. Contraction is the opposite, and reduces the area around the change area by one pixel. By this operation, the change regions separated by several pixels are connected to each other, and the change region that seems to represent one intruding object is extracted as one region. Then, the change area thus obtained is surrounded by a circumscribed rectangle, and the area surrounded by the circumscribed rectangle is cut out from the differential binarized image. Change Region Division Process 6 In the change region division process 6, the circumscribed rectangle of the change region is vertically
Divide into equal parts. This is for dividing the part of the person's arm and foot that causes a change in the aspect ratio into different areas in the change area representing a person so that the shape of the change area can be easily captured.
The rectangle formed by this trisection is A1,
Let it be A2 and A3. Then, the process proceeds to the next projection histogram creating process 7. Projection histogram creation processing 7 In the projection histogram creation processing 7, the divided circumscribed rectangle A
For each of A1, A2, and A3, the number of pixels having a value of 1 representing the change area is added in the vertical direction to obtain a projection histogram of the change area in the circumscribed rectangle on the horizontal axis. Then, this histogram is smoothed so that the features can be easily captured. Then, the shape feature of the change area in the divided circumscribed rectangles A1, A2, and A3 appears as the shape feature of the projection histogram. That is, the divided circumscribed rectangles A1, A2, A3
The characteristic of the shape of the change region in the middle appears in the shape of a block in which the frequencies on both sides are separated by 0 in each projection histogram and the frequencies are all 1 or more. Therefore, if attention is paid to the change in the shape of the projection histogram of the change region in the circumscribing rectangles A1, A2, and A3 divided into three equal parts, the walking state of the person can be expressed, and whether the intruding object is a person or not. Can be recognized. Therefore, the next feature amount extraction process 8
I do.
【0010】特徴量抽出処理8 特徴量抽出処理8では、以下の特徴量を矩形A1〜A3
の投影ヒストグラムから抽出する。 特徴(1);各分割外接矩形A1,A2,A3中のヒス
トグラムのブロック数 特徴(2);各ブロックの平均値F 特徴(3);各ブロックの平均値Fの分割外接矩形間の
差 特徴(4);各ブロックにおける極大値数 特徴(5);各ブロックにおける面積Sの割合R 特徴(6);矩形A3における極大値の位置M ただし、ここでの各ブロックの平均値Fとは、度数の平
均値を示す横軸上のx座標であり、次式(1)で求め
る。 Feature amount extraction process 8 In the feature amount extraction process 8, the following feature amounts are defined by rectangles A1 to A3.
From the projection histogram of. Feature (1); Number of histogram blocks in each circumscribed rectangle A1, A2, A3 Feature (2); Average value F of each block Feature (3); Difference between circumscribed rectangles of average value F of each block Feature (4); Maximum value number in each block Feature (5); Ratio of area S in each block R Feature (6); Maximum value position M in rectangle A3 However, the average value F of each block here is It is the x coordinate on the horizontal axis indicating the average value of frequencies, and is calculated by the following equation (1).
【0011】[0011]
【数1】 各ブロックの面積Sの割合Rとは、ブロックの底辺Lと
高さHを掛けてできるそれぞれの長方形ABCDの面積
を100%としたときの、ブロックの面積Sが長方形A
BCDに占める割合のことである。これは次式(2)で
求める。[Equation 1] The ratio R of the area S of each block means that the area S of the block is the rectangle A when the area of each rectangle ABCD formed by multiplying the base L of the block by the height H is 100%.
It is the ratio of BCD. This is calculated by the following equation (2).
【0012】[0012]
【数2】 また、極大値の位置Mは、各ブロック中で極大値を示す
横軸上のx座標である。特徴(1)〜(3)は変化領域
の全体的な特徴を表しており、これらの特徴量より人の
形状とは全く異なる変化領域を区別できることになる。
一方、特徴(4)〜(6)は各ブロックの形状の特徴を
表している。侵入物体判定処理9 そして最後に、侵入物体判定処理9において、特徴量抽
出処理8で得られる6つの特徴量と変化領域の外接矩形
の縦横比との関係から、変化領域の判定を行い、侵入物
体が人か否かを判定する。その人物判定手順1,2のフ
ローチャートを図6及び図7に示す。まず、図6のステ
ップS1において、外接矩形の縦横比がある範囲内にあ
るかどうかを調べる。次に、ステップS2において、3
つの投影ヒストグラムのブロック数がすべて1であるか
どうかを判定し、ステップS3,S4において、3つの
投影ヒストグラムのブロックの平均値Fが、どれもある
範囲内にあり、分割外接矩形間(A1とA2、A2とA
3、A1とA3)の平均値Fの差が、ある範囲内にある
ことをそれぞれ調べる。そして、ステップS5,S6に
おいて、矩形A1とA2の投影ヒストグラムの各ブロッ
クにおける極大値数が1であることと、面積Sの割合R
がある範囲内にあることをそれぞれ調べる。次に、縦横
比の境界値を、 a1<a2<a3<a4 のように設定し、図7のステップS7〜S9で、縦横比
に依存する矩形A3での処理を振り分ける。縦横比が境
界値a1からa2までの区間では、ステップS10にお
いて極大値数が2つ存在するかどうかを調べる。縦横比
が境界値a2からa3の区間では、ステップS11にお
いて、極大値数が2つ存在するか、または、極大値数が
一つならステップS13,S14において極大値の位置
Mとそのブロックの中央との差の絶対値がある範囲内
で、面積Sの割合Rが50%以下のある範囲内にあるか
どうかをそれぞれ調べる。縦横比が境界値a3からa4
の範囲内では、ステップS15,S16において、極大
値数が一つで、面積の割合が50%以上のある範囲内で
あるかどうかを調べる。[Equation 2] Further, the position M of the maximum value is the x coordinate on the horizontal axis showing the maximum value in each block. The features (1) to (3) represent the overall features of the change region, and it is possible to distinguish the change region that is completely different from the human shape from these feature amounts.
On the other hand, the features (4) to (6) represent the features of the shape of each block. Intruding object determination processing 9 Finally, in the intruding object determination processing 9, the change area is determined based on the relationship between the six feature amounts obtained in the feature amount extraction processing 8 and the aspect ratio of the circumscribed rectangle of the change area, Determine if the object is a person. Flow charts of the person determination procedures 1 and 2 are shown in FIGS. 6 and 7. First, in step S1 of FIG. 6, it is checked whether the aspect ratio of the circumscribing rectangle is within a certain range. Next, in step S2, 3
It is determined whether or not the number of blocks in one projection histogram is all 1, and in steps S3 and S4, the average values F of the blocks in the three projection histograms are all within a certain range, and the divided circumscribed rectangles (A1 and A2, A2 and A
3, it is investigated that the difference of the average value F of A1 and A3) is within a certain range. Then, in steps S5 and S6, the number of maximum values in each block of the projection histograms of the rectangles A1 and A2 is 1, and the ratio R of the area S is R.
Check that each is within a range. Next, the boundary value of the aspect ratio is set as a1 <a2 <a3 <a4, and the processing in the rectangle A3 depending on the aspect ratio is distributed in steps S7 to S9 in FIG. In the section where the aspect ratio is from the boundary value a1 to the boundary value a2, it is checked in step S10 whether there are two maximum values. In the section where the aspect ratio is the boundary value a2 to a3, there are two maximum values in step S11, or if the maximum value is one, the position M of the maximum value and the center of the block in steps S13 and S14. It is checked whether or not the absolute value of the difference between and is within a certain range, and the ratio R of the area S is within a certain range of 50% or less. Aspect ratio is boundary values a3 to a4
Within the range, it is checked in steps S15 and S16 whether the number of maximum values is one and the area ratio is within a certain range of 50% or more.
【0013】これらの条件をすべて満たす場合のみ、そ
の侵入物体が人と認識され、その認識結果が出力されて
人物認識処理を終了する。 (II) 先の提案における問題点 先の提案の実施例における変化領域切り出し処理では、
膨脹という手段を用いて分離された変化領域の統合を行
っている。しかし、この膨脹では、1回の処理につき1
画素分しか領域の収集範囲を広げることができない。こ
のことは、膨脹及び収縮処理を数回繰り返したとして
も、侵入物体の個体による変化領域が、分離されて遠く
離れている場合、その変化領域を統合できない。図8
は、大きく分離した変化領域の一例を示し、頭部、腹
部、及び足部の変化領域が、それぞれ分離した状態で抽
出されている。図8のような場合には、変化領域の統合
が困難となり、1つの侵入物体として外接矩形で切り出
すことができない。即ち、後の侵入物体判定処理9の処
理結果に悪影響を与える。 (III) 本発明の実施例 図1は、本発明の実施例の侵入物体認識方法を示す図で
ある。この侵入物体認識方法は、先の提案と同様に、T
Vカメラ等の画像入力装置によって背景画像及び入力画
像を入力し、それらを背景画像メモリ1及び入力画像メ
モリ2に格納する画像入力処理を行い、該入力した背景
画像及び入力画像に対して差分処理3及び二値化処理4
とを行う。次に、図1の侵入物体認識方法では、先の提
案とは異なる変化領域復元処理10を行う。変化領域復
元処理10の後、侵入物体認識処理20を行い、侵入者
に対する認識結果を出力するようになっている。以下、
これらの各処理を図を参照しつつ説明する。Only when all of these conditions are satisfied, the intruding object is recognized as a person, the recognition result is output, and the person recognition processing is ended. (II) Problems in the previous proposal In the change region segmentation processing in the embodiment of the previous proposal,
We are using the means of expansion to integrate the separated change areas. However, with this expansion, 1 per treatment
The collection range of the area can be expanded only by the number of pixels. This means that even if the expansion and contraction processes are repeated several times, if the change regions caused by the individual intruding objects are separated and far apart, the change regions cannot be integrated. Figure 8
Shows an example of a change area that is largely separated, and the change areas of the head, abdomen, and foot are extracted in separate states. In the case of FIG. 8, it is difficult to integrate the changed regions, and it is not possible to cut out a circumscribed rectangle as one intruding object. That is, the processing result of the subsequent intruding object determination processing 9 is adversely affected. (III) Embodiment of the Present Invention FIG. 1 is a diagram showing an intruding object recognition method according to an embodiment of the present invention. This intruding object recognition method is similar to the previous proposal in that the T
A background image and an input image are input by an image input device such as a V camera, image input processing for storing them in the background image memory 1 and the input image memory 2 is performed, and difference processing is performed on the input background image and input image. 3 and binarization processing 4
And do. Next, in the intruding object recognition method of FIG. 1, a changed area restoration process 10 different from the previous proposal is performed. After the changed area restoration process 10, an intruding object recognition process 20 is performed, and the recognition result for the intruder is output. Less than,
Each of these processes will be described with reference to the drawings.
【0014】メモリ1,2への画像入力処理 まず、先の提案の実施例と同様に、TVカメラ等の画像
入力装置を用い、図3に示すような侵入物体が存在しな
い背景だけを撮影し、その背景画像を予め背景画像メモ
リ1の中に格納しておく。そして、背景画像を撮影した
のと同じ位置で撮影し、その撮影した図4に示すような
入力画像を入力画像メモリ2の中に格納する。差分処理3 画像入力処理後、差分処理3において先の提案の実施と
同様に、入力画像中における背景画像からの変化を検出
するために、背景画像メモリ1と入力画像メモリ2から
それぞれ入力される背景画像と入力画像とで、その濃度
差の絶対値を計算し、差分画像を求めた後、二値化処理
4へ進む。二値化処理4 二値化処理4においても、先の提案の実施例と同様に、
差分処理3で求めた差分画像をある適当な閾値を用いて
二値化し、図5或いは図8に示すような差分二値化画像
を求める。この差分二値化画像では、入力画像中で背景
画像から変化した領域の画素の値が1、変化していない
領域では画素の値が0に設定され、変化領域が抽出され
ることになる。しかし、侵入物体によっては背景画像と
局所的に同じ濃度を持っていることがあり、侵入物体の
濃度が背景画像のそれにほぼ等しいと侵入物体本来の領
域が大きく失われた変化領域が得られる。その場合の差
分二値化画像は、図8に示すように、その部分だけが侵
入物体として捉えられず、変化領域が切れ切れになる。
そのため、それぞれの変化領域は別個に認識され、本来
の一つの侵入物体しては認識されなくなる。そこで、次
の変化領域復元処理10を行う。 Image Input Processing to Memories 1 and 2 First, similar to the previously proposed embodiment, an image input device such as a TV camera is used to photograph only the background where there is no intruding object as shown in FIG. , The background image is stored in the background image memory 1 in advance. Then, the background image is photographed at the same position as that photographed, and the photographed input image as shown in FIG. 4 is stored in the input image memory 2. After the difference processing 3 image input processing, in the difference processing 3, similarly to the implementation of the above-mentioned proposal, in order to detect a change from the background image in the input image, the background image memory 1 and the input image memory 2 respectively input. The absolute value of the density difference between the background image and the input image is calculated, the difference image is obtained, and then the binarization process 4 is performed. Binarization process 4 In the binarization process 4, as in the previously proposed embodiment,
The difference image obtained by the difference process 3 is binarized using a certain appropriate threshold value, and a difference binarized image as shown in FIG. 5 or 8 is obtained. In this differential binarized image, the pixel value of the area that has changed from the background image in the input image is set to 1, and the pixel value of the area that has not changed is set to 0, and the changed area is extracted. However, some intruding objects may have the same density locally as the background image, and if the density of the intruding object is almost equal to that of the background image, a change area in which the original area of the intruding object is largely lost can be obtained. In the binarized differential image in that case, as shown in FIG. 8, only that part is not recognized as an intruding object, and the change region is cut off.
Therefore, each change area is recognized separately, and is not recognized as one original intruding object. Therefore, the following changed area restoration processing 10 is performed.
【0015】変化領域復元処理10 変化領域復元処理10では、複数個に分離されている変
化領域を統合するために、差分二値画像に動的輪郭モデ
ルを適用する。動的輪郭モデルは本来輪郭抽出方法であ
り、これを変化領域の統合に応用する。動的輪郭モデル
の基本的なアルゴリズムは、以下の文献2に示されてい
る。 文献2;ファースト インターナショナル コンファレ
ンス オン コンピュータ ビィジョン(First Intern
ational Conference on ComputerVision)、(198
7)米国、Michael Kass,Andrew Witkin and De-mitri
Terzopoulos 、“Snakes: Active Contour Models ”P.
259-268 文献2にのっとり、動的輪郭モデルの基本的なアルゴリ
ズムを説明する。動的輪郭モデルでは、閉曲線の形状に
関する拘束条件と対象物に対する閉曲線の位置に関する
拘束条件とを満たす場合に、閉曲線に対する評価値が最
小となるような評価関数を定義し、この評価関数によっ
て求められる評価値を最小とするような閉曲線を求める
ことで、画像中の対象物体の輪郭を抽出する。図9は、
動的輪郭モデルの概念を示す図であり、評価値が最小に
収束するのに伴い、閉曲線が画像中の対象物体に引き付
けられる様子が示されている。画像上の座標系x,yを
用いて、複数の節点より構成された閉曲線の位置を表す
と、n個の節点Vi=(xi ,yi ),i =1,2,
…,nとなる。ただし、各節点は閉曲線上の点であるの
で、Vi+n =Vi とする。この閉曲線の評価関数は、次
の(3)式のように書ける。ここで、(3)式に対し
て、例えば(4),(5)式を次のように定義すると
(4)式のEint は、(3)式における閉曲線の形状に
関する拘束条件に対して評価値を与え、(5)式Eext
は、(3)式におけ画像中の対象物体との関係に対する
評価値を与える。 Change Region Restoration Process 10 In the change region restoration process 10, an active contour model is applied to the difference binary image in order to integrate the change regions separated into a plurality of pieces. The active contour model is originally a contour extraction method, and it is applied to the integration of change regions. The basic algorithm of the active contour model is shown in Reference 2 below. Reference 2: First International Conference on Computer Vision (First Intern
ational Conference on ComputerVision), (198
7) Michael Kass, Andrew Witkin and De-mitri, USA
Terzopoulos, “Snakes: Active Contour Models” P.
259-268 Based on Reference 2, the basic algorithm of the active contour model will be explained. In the dynamic contour model, an evaluation function that minimizes the evaluation value for the closed curve is defined when the restriction condition for the shape of the closed curve and the restriction condition for the position of the closed curve with respect to the object are defined, and is calculated by this evaluation function. By obtaining a closed curve that minimizes the evaluation value, the contour of the target object in the image is extracted. Figure 9
It is a figure which shows the concept of an active contour model, and shows that a closed curve is attracted to the target object in an image as an evaluation value converges to the minimum. When the position of a closed curve composed of a plurality of nodes is expressed using the coordinate system x, y on the image, n nodes Vi = (x i , y i ), i = 1, 2,
..., n. However, since each node is a point on the closed curve, Vi + n = Vi. The evaluation function of this closed curve can be written as the following expression (3). Here, for example, when Eqs. (4) and (5) are defined as follows with respect to Eq. (3), E int of Eq. (4) is given by the constraint condition regarding the shape of the closed curve in Eq. (3). The evaluation value is given, and the expression (5) E ext is given.
Gives an evaluation value for the relationship with the target object in the image in equation (3).
【0016】[0016]
【数3】 (4)式において、αi 、βi は評価値の適切な評価値
を与えるために設定されるパラメータであり、(4)式
中の第1項は閉曲線が短くなるほど、また、第2項は閉
曲線が滑らかなほど小さい評価値を(3)式に与える。
(5)式においては、閉曲線が画像のエッジに近付く
程、小さい評価値を(3)式に与える。なお、本明細書
では、Wedgeは符号を正として話を進める。このように
(3)式の評価関数E* snake を定義し、評価関数E*
snake の評価値が小さくなる方向に各節点を動かしてい
く。すると、例えば評価関数E* sn ake に閉曲線の形状
が「滑らかである」という形状の拘束条件と、閉曲線が
「画像のエッジ上にある」という画像上の特徴の拘束条
件とを与えたならば、閉曲線は画像中の対象物体の輪郭
に一致する滑らかな形をなすところで、評価値の最小値
を持つことになる。これにより、対象物体の輪郭線が抽
出される。図10は、変化領域復元処理を説明する図で
あり、図1における変化領域復元処理10の処理手順が
示されている。図10を用いてこの動的輪郭モデルを差
分二値画像に適応した場合について説明する。動的輪郭
モデルを用いて侵入物体の輪郭を求める場合、閉曲線を
物体の外側から近付けていく。これにより、差分二値化
画像において分離されていた侵入物体の個体の各変化領
域は、閉曲線の中に閉じ込められる。変化領域復元処理
10では、予め評価関数を設定する関数設定処理11
と、差分二値化画像12に輪郭モデルの初期位置を設定
する初期位置設定処理13と、評価関数の最小値を求め
る最小化処理14と、輪郭モデル内を同一侵入物体とし
て同一の画素値を同一にする代入処理15とで、構成さ
れている。図1中の二値化処理4で求められた差分二値
化画像12に対し、初期位置設定処理13で閉曲線の初
期位置が設定される。図11は、輪郭モデルの初期位置
の例を示す図である。即ち、例えば図11に示すよう
に、侵入物体による変化領域を取り囲むように閉曲線の
初期位置が、設定される。[Equation 3] In the equation (4), α i and β i are parameters set to give an appropriate evaluation value of the evaluation value. The first term in the equation (4) is the shorter the closed curve is, and the second term is also the second term. Gives a smaller evaluation value to equation (3) as the closed curve becomes smoother.
In the equation (5), a smaller evaluation value is given to the equation (3) as the closed curve approaches the edge of the image. In this specification, W edge will be described with a positive sign. Thus (3) defines an evaluation function E * snake of formula, the evaluation function E *
Move each node so that the evaluation value of snake becomes smaller. Then, for example, the constraint condition of the evaluation function shape E * sn ake to the shape of the closed curve called "a smooth", if a closed curve gave the constraints of the features on the image of "lies on the edge of the image" , Where the closed curve has a smooth shape that matches the contour of the target object in the image, and has the minimum evaluation value. As a result, the contour line of the target object is extracted. FIG. 10 is a diagram for explaining the changed area restoration processing, and shows the processing procedure of the changed area restoration processing 10 in FIG. A case where this active contour model is applied to a binary difference image will be described with reference to FIG. When obtaining the contour of an intruding object using a dynamic contour model, a closed curve is approached from the outside of the object. Thereby, each change region of the individual of the intruding object separated in the difference binarized image is confined in the closed curve. In the changing area restoration process 10, a function setting process 11 for setting an evaluation function in advance
An initial position setting process 13 for setting an initial position of the contour model in the differential binarized image 12, a minimization process 14 for obtaining the minimum value of the evaluation function, and the same pixel value for the same intruding object in the contour model. And the substitution process 15 that makes them the same. The initial position of the closed curve is set in the initial position setting process 13 for the difference binarized image 12 obtained in the binarization process 4 in FIG. FIG. 11 is a diagram showing an example of the initial position of the contour model. That is, for example, as shown in FIG. 11, the initial position of the closed curve is set so as to surround the change area caused by the intruding object.
【0017】次に、最小化処理14が実施される。図1
2は、最小化処理で抽出された輪郭モデルを示す図てあ
る。この最小化処理14は、輪郭モデルの評価関数が最
小の値となる輪郭モデル位置を求める。輪郭モデルは、
分離された変化領域の外部にから近付き、個々の変化領
域エッジ部分に一部に接する。すると、閉曲線が滑らか
な形になろうとする滑らかさの拘束条件と変化領域に近
付こうとする拘束条件とが、均衡状態となり、輪郭モデ
ルの閉曲線は、例えば図12のような位置で静止する。
輪郭モデルの動きの静止した閉曲線は、初期位置中の比
較的近くに存在した変化領域の外側を滑らかに結んだ形
となる。したがって、閉曲線に囲まれた領域は、侵入物
体に対する変化領域として最も確からしい形と見なすこ
とができる。そこで、次の代入処理15が実施される。
代入処理15では、評価値が最小となる輪郭モデルの内
部の領域すべてに画素値の1を代入する。これにより、
差分処理によって分離された変化領域は、統合される。
図13は、統合された変化領域の例を示す図であり、図
8のような侵入人物の変化領域が分離された場合おける
変化領域の統合結果を示している。Next, the minimization process 14 is executed. Figure 1
2 is a diagram showing a contour model extracted by the minimization process. In this minimization processing 14, the contour model position where the contour model evaluation function has the minimum value is obtained. The contour model is
It approaches from the outside of the separated change region and touches a part of each change region edge portion. Then, the constraint condition for smoothness of the closed curve and the constraint condition for approaching the change region are in equilibrium, and the closed curve of the contour model is stationary at the position shown in FIG. 12, for example. .
The stationary closed curve of the movement of the contour model has a shape in which the outside of the change region existing relatively close in the initial position is smoothly connected. Therefore, the area surrounded by the closed curve can be regarded as the most probable shape as the change area for the intruding object. Then, the following substitution process 15 is implemented.
In the substituting process 15, the pixel value 1 is substituted for all the regions inside the contour model having the smallest evaluation value. This allows
The change regions separated by the difference processing are integrated.
FIG. 13 is a diagram showing an example of the integrated change areas, and shows the integration result of the change areas in the case where the change area of the intruder as shown in FIG. 8 is separated.
【0018】侵入物体認識処理20 変化領域復元処理10の復元結果を元に侵入物体の認識
を行う。これには、例えば先の提案の実施例と同様に、
変化領域分割処理、投影ヒストグラム作成処理、特徴量
抽出処理及び侵入物体判定処理が、用いられ、その結果
が出力処理30で出力される。一枚の入力画像に対する
一連の処理が終了した場合、この一連の処理が次の入力
画像に対して実施される。以上のように、本実施例で
は、動的輪郭モデルを利用して、差分処理3及び二値化
処理4によって分離された侵入物体の変化領域を統合
し、その統合された変化領域に対して同一の画素値を代
入している。そのため、侵入物体の本来の形状を確実に
復元し、侵入物体の認識結果を正確にすることができ
る。なお、本発明は上記実施例に限定されず、例えば、
(3)式を定義する(4)式及び(5)式に対応して与
えら拘束条件は、「滑らかである」及び「画像のエッジ
上にある」としなくてもよく、「閉曲線内の面積が小さ
い」及び「画像のエッジ上にある」とする等の種々の定
義が可能である。ただし、閉曲線を変化領域に密着させ
るように定義することが重要である。Intruding object recognition processing 20 An intruding object is recognized based on the restoration result of the changed area restoration processing 10. This includes, for example, similar to the previously proposed embodiment,
The change area division process, the projection histogram creation process, the feature amount extraction process, and the intruding object determination process are used, and the result is output in the output process 30. When the series of processing for one input image is completed, this series of processing is performed for the next input image. As described above, in the present embodiment, the active contour model is used to integrate the change areas of the intruding object separated by the difference processing 3 and the binarization processing 4, and to the integrated change area. The same pixel value is substituted. Therefore, the original shape of the intruding object can be surely restored, and the recognition result of the intruding object can be made accurate. The present invention is not limited to the above-mentioned embodiment, and for example,
The constraint conditions given corresponding to the equations (4) and (5) that define the equation (3) do not have to be "smooth" and "on the edge of the image", and "the inside of the closed curve Various definitions such as "small area" and "on edge of image" are possible. However, it is important to define the closed curve so that it closely contacts the changing region.
【0019】[0019]
【発明の効果】以上詳細に説明したように、本発明によ
れば、差分処理によって分離された侵入物体の変化領域
に対して、それらを囲む閉曲線の輪郭モデルを設定し、
その輪郭モデルに評価関数を用いて侵入物体の輪郭を求
めている。その結果、分離された侵入物体の変化領域は
統合され、その統合された変化領域に対して同一の画素
値を代入している。そのため、侵入物体の本来の形状が
確実に復元され、侵入物体の認識結果を正確にすること
ができる。As described in detail above, according to the present invention, a contour model of a closed curve surrounding the changing areas of the intruding object separated by the difference processing is set,
An evaluation function is used for the contour model to find the contour of the intruding object. As a result, the changed areas of the separated intruding object are integrated, and the same pixel value is substituted for the integrated changed area. Therefore, the original shape of the intruding object is reliably restored, and the recognition result of the intruding object can be made accurate.
【図1】本発明の実施例の侵入物体認識方法を説明する
図である。FIG. 1 is a diagram illustrating an intruding object recognition method according to an embodiment of the present invention.
【図2】先の提案の実施例の人物認識方法を説明する図
である。FIG. 2 is a diagram illustrating a person recognition method according to an embodiment of the above proposal.
【図3】背景画像の例を示す図である。FIG. 3 is a diagram showing an example of a background image.
【図4】入力画像の例を示す図である。FIG. 4 is a diagram showing an example of an input image.
【図5】差分二値化画像の例を示す図である。FIG. 5 is a diagram showing an example of a difference binarized image.
【図6】図2の侵入物体判定処理における人物判定手順
1を示すフローチャートである。6 is a flowchart showing a person determination procedure 1 in the intruding object determination processing of FIG.
【図7】図2の侵入物体判定処理における人物判定手順
2を示すフローチャートである。7 is a flowchart showing a person determination procedure 2 in the intruding object determination process of FIG.
【図8】大きく分離した変化領域を示す図である。FIG. 8 is a diagram showing change regions that are largely separated.
【図9】動的輪郭モデルの概念を示す図である。FIG. 9 is a diagram showing the concept of an active contour model.
【図10】変化領域復元処理を示す図である。FIG. 10 is a diagram showing a changed area restoration process.
【図11】輪郭モデルの初期位置の例を示す図である。FIG. 11 is a diagram showing an example of an initial position of a contour model.
【図12】最小化処理で抽出された輪郭モデルを示す図
である。FIG. 12 is a diagram showing a contour model extracted by the minimization process.
【図13】統合された変化領域を示す図である。FIG. 13 is a diagram showing integrated change regions.
1 背景画像メモリ 2 入力画像メモリ 3 差分処理 4 二値化処理 10 変化領域復元処理 13 初期位置設定処理 14 最小化処理 15 代入処理 20 侵入物体認識処理 1 Background Image Memory 2 Input Image Memory 3 Difference Processing 4 Binarization Processing 10 Change Area Restoration Processing 13 Initial Position Setting Processing 14 Minimization Processing 15 Substitution Processing 20 Intruding Object Recognition Processing
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08B 13/196 4234−5G H04N 7/18 D K 9061−5L G06F 15/70 405 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G08B 13/196 4234-5G H04N 7/18 DK 9061-5L G06F 15/70 405
Claims (1)
きの背景画像と逐次入力される入力画像とから侵入物体
の存在によって生じる該背景画像に対する該入力画像中
の変化領域を抽出する差分処理を施し、該変化領域に基
づいて該侵入物体を認識する侵入物体認識方法におい
て、 前記変化領域を取り囲む閉曲線の輪郭モデルを設定する
モデル設定処理と、 前記閉曲線上の点が前記変化領域のエッジである場合に
最小値を示す項と該閉曲線の形状によって最小値を示す
項とを有して該閉曲線に評価値を与える評価関数を用
い、該評価値が最小となり該変化領域に接する前記輪郭
モデルを抽出する最小化処理と、 前記変化領域に接する前記輪郭モデル内部の画素に対し
て同一の画素値を代入し、前記差分処理により分離され
た侵入物体の個体に対応する該変化領域を統合する代入
処理とを、 施すことを特徴とする侵入物体認識方法。1. A difference process for extracting a change area in the input image with respect to the background image caused by the presence of an intruding object from a background image stored in advance when an intruding object does not exist and an input image sequentially input. In the intruding object recognition method for recognizing the intruding object based on the change area, a model setting process of setting a contour model of a closed curve surrounding the change area, and a point on the closed curve is an edge of the change area. In this case, an evaluation function that has a term indicating a minimum value and a term indicating a minimum value depending on the shape of the closed curve and gives an evaluation value to the closed curve is used. Minimizing process to extract, substituting the same pixel value for the pixel in the contour model in contact with the change region, to the individual of the intruding object separated by the difference process An intruding object recognizing method, characterized by performing substitution processing for integrating the corresponding change areas.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33205193A JPH07192112A (en) | 1993-12-27 | 1993-12-27 | Intruding object recognizing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33205193A JPH07192112A (en) | 1993-12-27 | 1993-12-27 | Intruding object recognizing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07192112A true JPH07192112A (en) | 1995-07-28 |
Family
ID=18250597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33205193A Withdrawn JPH07192112A (en) | 1993-12-27 | 1993-12-27 | Intruding object recognizing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07192112A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1010130A1 (en) * | 1996-12-23 | 2000-06-21 | Esco Electronics Corporation | Low false alarm rate video security system using object classification |
JP2003062777A (en) * | 2001-08-22 | 2003-03-05 | Honda Motor Co Ltd | Autonomous acting robot |
JP2012208094A (en) * | 2011-03-30 | 2012-10-25 | Canon Inc | Object detection device, object detection method, and program |
EP3736717A1 (en) * | 2019-05-10 | 2020-11-11 | Alitheon, Inc. | Loop chain digital fingerprint method and system |
US10867301B2 (en) | 2016-04-18 | 2020-12-15 | Alitheon, Inc. | Authentication-triggered processes |
US10872265B2 (en) | 2011-03-02 | 2020-12-22 | Alitheon, Inc. | Database for detecting counterfeit items using digital fingerprint records |
US10902540B2 (en) | 2016-08-12 | 2021-01-26 | Alitheon, Inc. | Event-driven authentication of physical objects |
US11301872B2 (en) | 2016-02-19 | 2022-04-12 | Alitheon, Inc. | Personal history in track and trace system |
US11341348B2 (en) | 2020-03-23 | 2022-05-24 | Alitheon, Inc. | Hand biometrics system and method using digital fingerprints |
US11379856B2 (en) | 2016-06-28 | 2022-07-05 | Alitheon, Inc. | Centralized databases storing digital fingerprints of objects for collaborative authentication |
US11488413B2 (en) | 2019-02-06 | 2022-11-01 | Alitheon, Inc. | Object change detection and measurement using digital fingerprints |
US11568683B2 (en) | 2020-03-23 | 2023-01-31 | Alitheon, Inc. | Facial biometrics system and method using digital fingerprints |
US11593503B2 (en) | 2018-01-22 | 2023-02-28 | Alitheon, Inc. | Secure digital fingerprint key object database |
US11636191B2 (en) | 2016-07-05 | 2023-04-25 | Alitheon, Inc. | Authenticated production |
US11663849B1 (en) | 2020-04-23 | 2023-05-30 | Alitheon, Inc. | Transform pyramiding for fingerprint matching system and method |
US11700123B2 (en) | 2020-06-17 | 2023-07-11 | Alitheon, Inc. | Asset-backed digital security tokens |
US11741205B2 (en) | 2016-08-19 | 2023-08-29 | Alitheon, Inc. | Authentication-based tracking |
US11915503B2 (en) | 2020-01-28 | 2024-02-27 | Alitheon, Inc. | Depth-based digital fingerprinting |
US11922753B2 (en) | 2019-10-17 | 2024-03-05 | Alitheon, Inc. | Securing composite objects using digital fingerprints |
US11948377B2 (en) | 2020-04-06 | 2024-04-02 | Alitheon, Inc. | Local encoding of intrinsic authentication data |
US11983957B2 (en) | 2020-05-28 | 2024-05-14 | Alitheon, Inc. | Irreversible digital fingerprints for preserving object security |
-
1993
- 1993-12-27 JP JP33205193A patent/JPH07192112A/en not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1010130A4 (en) * | 1996-12-23 | 2005-08-17 | Esco Electronics Corp | Low false alarm rate video security system using object classification |
EP1010130A1 (en) * | 1996-12-23 | 2000-06-21 | Esco Electronics Corporation | Low false alarm rate video security system using object classification |
JP2003062777A (en) * | 2001-08-22 | 2003-03-05 | Honda Motor Co Ltd | Autonomous acting robot |
JP4689107B2 (en) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | Autonomous robot |
US11423641B2 (en) | 2011-03-02 | 2022-08-23 | Alitheon, Inc. | Database for detecting counterfeit items using digital fingerprint records |
US10872265B2 (en) | 2011-03-02 | 2020-12-22 | Alitheon, Inc. | Database for detecting counterfeit items using digital fingerprint records |
JP2012208094A (en) * | 2011-03-30 | 2012-10-25 | Canon Inc | Object detection device, object detection method, and program |
US11593815B2 (en) | 2016-02-19 | 2023-02-28 | Alitheon Inc. | Preserving authentication under item change |
US11682026B2 (en) | 2016-02-19 | 2023-06-20 | Alitheon, Inc. | Personal history in track and trace system |
US11301872B2 (en) | 2016-02-19 | 2022-04-12 | Alitheon, Inc. | Personal history in track and trace system |
US10867301B2 (en) | 2016-04-18 | 2020-12-15 | Alitheon, Inc. | Authentication-triggered processes |
US11830003B2 (en) | 2016-04-18 | 2023-11-28 | Alitheon, Inc. | Authentication-triggered processes |
US11379856B2 (en) | 2016-06-28 | 2022-07-05 | Alitheon, Inc. | Centralized databases storing digital fingerprints of objects for collaborative authentication |
US11636191B2 (en) | 2016-07-05 | 2023-04-25 | Alitheon, Inc. | Authenticated production |
US10902540B2 (en) | 2016-08-12 | 2021-01-26 | Alitheon, Inc. | Event-driven authentication of physical objects |
US11741205B2 (en) | 2016-08-19 | 2023-08-29 | Alitheon, Inc. | Authentication-based tracking |
US11593503B2 (en) | 2018-01-22 | 2023-02-28 | Alitheon, Inc. | Secure digital fingerprint key object database |
US11843709B2 (en) | 2018-01-22 | 2023-12-12 | Alitheon, Inc. | Secure digital fingerprint key object database |
US11488413B2 (en) | 2019-02-06 | 2022-11-01 | Alitheon, Inc. | Object change detection and measurement using digital fingerprints |
US11321964B2 (en) | 2019-05-10 | 2022-05-03 | Alitheon, Inc. | Loop chain digital fingerprint method and system |
EP3736717A1 (en) * | 2019-05-10 | 2020-11-11 | Alitheon, Inc. | Loop chain digital fingerprint method and system |
US11922753B2 (en) | 2019-10-17 | 2024-03-05 | Alitheon, Inc. | Securing composite objects using digital fingerprints |
US11915503B2 (en) | 2020-01-28 | 2024-02-27 | Alitheon, Inc. | Depth-based digital fingerprinting |
US11568683B2 (en) | 2020-03-23 | 2023-01-31 | Alitheon, Inc. | Facial biometrics system and method using digital fingerprints |
US11341348B2 (en) | 2020-03-23 | 2022-05-24 | Alitheon, Inc. | Hand biometrics system and method using digital fingerprints |
US11948377B2 (en) | 2020-04-06 | 2024-04-02 | Alitheon, Inc. | Local encoding of intrinsic authentication data |
US11663849B1 (en) | 2020-04-23 | 2023-05-30 | Alitheon, Inc. | Transform pyramiding for fingerprint matching system and method |
US11983957B2 (en) | 2020-05-28 | 2024-05-14 | Alitheon, Inc. | Irreversible digital fingerprints for preserving object security |
US11700123B2 (en) | 2020-06-17 | 2023-07-11 | Alitheon, Inc. | Asset-backed digital security tokens |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07192112A (en) | Intruding object recognizing method | |
US6697502B2 (en) | Image processing method for detecting human figures in a digital image | |
EP1693782B1 (en) | Method for facial features detection | |
US7418134B2 (en) | Method and apparatus for foreground segmentation of video sequences | |
US5715325A (en) | Apparatus and method for detecting a face in a video image | |
US6184926B1 (en) | System and method for detecting a human face in uncontrolled environments | |
JP4275516B2 (en) | Person detection method and apparatus | |
US6400831B2 (en) | Semantic video object segmentation and tracking | |
EP1693783B1 (en) | Fast method of object detection by statistical template matching | |
US9092868B2 (en) | Apparatus for detecting object from image and method therefor | |
JP5675229B2 (en) | Image processing apparatus and image processing method | |
JP3768735B2 (en) | Face image processing device | |
WO2001039498A2 (en) | Method and apparatus for detecting moving objects in video conferencing and other applications | |
CN108710879B (en) | Pedestrian candidate region generation method based on grid clustering algorithm | |
CN108280841B (en) | Foreground extraction method based on neighborhood pixel intensity correction | |
CN114387496A (en) | Target detection method and electronic equipment | |
JP3417635B2 (en) | Intruding object recognition method | |
JP3062383B2 (en) | People recognition method | |
CN114387670A (en) | Gait recognition method and device based on space-time feature fusion and storage medium | |
JP3763279B2 (en) | Object extraction system, object extraction method, and object extraction program | |
JP3065838B2 (en) | People recognition method | |
JP3065854B2 (en) | People recognition method | |
JPH08315149A (en) | Intruding body recognition device | |
JPH08221549A (en) | Intrusion object recognizing device | |
KR102297103B1 (en) | Method and apparatus for generating 3d scene graph |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20010306 |