JPH08221549A - Intrusion object recognizing device - Google Patents
Intrusion object recognizing deviceInfo
- Publication number
- JPH08221549A JPH08221549A JP7021594A JP2159495A JPH08221549A JP H08221549 A JPH08221549 A JP H08221549A JP 7021594 A JP7021594 A JP 7021594A JP 2159495 A JP2159495 A JP 2159495A JP H08221549 A JPH08221549 A JP H08221549A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- line segment
- overlapping
- change area
- intruding object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は侵入物体認識装置に関
し、例えば、テレビカメラ等によって撮像された画像に
複数の人物が重なっている場合の人物の数を認識する装
置に適用し得るものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for recognizing an intruding object, which can be applied to a device for recognizing the number of persons when a plurality of persons are superposed on an image taken by a television camera or the like. .
【0002】[0002]
【従来の技術】近年、侵入物体の監視を目的としてテレ
ビカメラを用いた移動物体認識装置の研究・開発が行わ
なれている。このような移動物体認識装置における侵入
物体検出技術の提案として、次の文献に示されているよ
うな技術がある。2. Description of the Related Art In recent years, research and development of a moving object recognition apparatus using a television camera have been performed for the purpose of monitoring an intruding object. As a proposal of a technique for detecting an intruding object in such a moving object recognition device, there is a technique as shown in the following document.
【0003】文献:1990年、電子情報通信学会秋季
全国大会講演論文集、D−436、『微分画像のフレー
ム間差分による侵入物体検出』。Reference: Proceedings of the Autumn Conference of the Institute of Electronics, Information and Communication Engineers, 1990, D-436, "Detection of Intruding Object by Difference between Frames of Differential Image".
【0004】この文献による技術によると、侵入物体監
視システムにおける物体認識方法としては、侵入物体の
有無を確認するための入力画像と、背景画像とをテレビ
カメラから画像入力し、この入力画像と背景画像との差
分2値化画像から変化領域を求め、この変化領域の特徴
量から侵入物体の有無を判断し、侵入物体有りの場合に
は例えば警報を発するように構成されていた。According to the technique according to this document, as an object recognition method in an intruding object monitoring system, an input image for confirming the presence or absence of an intruding object and a background image are input from a television camera, and the input image and the background are input. The change area is obtained from the difference binary image from the image, the presence or absence of an intruding object is determined from the feature amount of the change area, and if there is an intruding object, for example, an alarm is issued.
【0005】ここで、変化領域の特徴量から侵入物体の
有無を判断する方法としては、変化領域の面積と、外接
矩形をパラメータとして侵入物体の有無を判断してい
る。つまり、変化領域の面積がある値以上で、且つ外接
矩形の縦横比(外接矩形の縦の長さ/横の長さ)がある
範囲以内であるものを侵入物体として判断するようにさ
れていた。Here, as a method of determining the presence or absence of an intruding object from the characteristic amount of the changing area, the presence or absence of an intruding object is determined using the area of the changing region and the circumscribed rectangle as parameters. In other words, the area of the change area is equal to or larger than a certain value, and the aspect ratio of the circumscribing rectangle (vertical length / horizontal length) is within the range. .
【0006】[0006]
【発明が解決しようとする課題】しかしながら、従来の
技術では、複数の侵入物体が重なって見える場合、従来
の差分処理や、二値化処理を行うと、これらの侵入物体
は一つの変化領域として抽出されてしまっていた。この
ため、その後の処理を行っても、侵入物体の個数を誤検
出する可能性があった。However, in the conventional technique, when a plurality of intruding objects appear to overlap with each other, when the conventional difference processing or binarization processing is performed, these intruding objects are regarded as one change region. It had been extracted. Therefore, even if the subsequent processing is performed, the number of intruding objects may be erroneously detected.
【0007】以上のようなことから、複数の侵入物体が
重なって撮像されても、侵入物体の個数を正確に検出す
ることができる侵入物体認識装置の提供が要請されてい
る。From the above, there is a demand for an intruding object recognition apparatus which can accurately detect the number of intruding objects even when a plurality of intruding objects are imaged in an overlapping manner.
【0008】[0008]
【課題を解決するための手段】そこで、本発明は、侵入
物体が存在しないときに撮像された背景画像信号と、逐
次撮像される入力画像信号との差分二値化によって得ら
れる画像信号から入力画像中の重なり変化領域を検出
し、この重なり変化領域を分析して侵入物体を認識する
侵入物体認識装置において、以下のような特徴的な構成
で上述の課題を解決するものである。Therefore, according to the present invention, an input is made from an image signal obtained by differential binarization of a background image signal picked up when an intruding object does not exist and an input image signal sequentially picked up. An intruding object recognition apparatus that detects an overlapping change area in an image and analyzes the overlapping change area to recognize an intruding object solves the above-described problem with the following characteristic configuration.
【0009】つまり、本発明は、入力画像中から重なり
変化領域内でのエッジを検出し、このエッジから重なり
変化領域内のエッジ直線を検出し、検出されたエッジ直
線から侵入物体を認識するために有効なエッジ線分を抽
出し、この有効なエッジ線分から重なり変化領域中でエ
ッジを多く含むエッジ線分を重なりエッジ線分として抽
出する重なりエッジ線分抽出手段と、この重なりエッジ
線分によって区分けされた重なり変化領域から侵入物体
の数を認識する侵入物体数認識手段とを備えたものであ
る。That is, the present invention detects an edge in the overlap change area from the input image, detects an edge straight line in the overlap change area from this edge, and recognizes an intruding object from the detected edge straight line. The effective edge line segment is extracted, and from this effective edge line segment, the overlapping edge line segment extraction means for extracting the edge line segment containing many edges in the overlapping change region as the overlapping edge line segment, and the overlapping edge line segment An intruding object number recognizing means for recognizing the number of intruding objects from the divided overlapping change areas is provided.
【0010】[0010]
【作用】本発明の構成によれば、重なり変化領域内の隣
接するが画素間で画素値が急激に変化する部分をエッジ
として検出する。これは一般に侵入物体が重なる部分に
は濃度が異なるところが現れるためである。このように
して検出されたエッジから統計処理などを行って、縦、
横、斜め方向などに沿ってエッジ直線を求めるのであ
る。According to the structure of the present invention, a portion in which the pixel value is abruptly changed between adjacent pixels in the overlap change region is detected as an edge. This is because, in general, a portion having different densities appears in a portion where intruding objects overlap. By performing statistical processing from the edges detected in this way,
The edge straight line is obtained along the horizontal and diagonal directions.
【0011】侵入物体間の部分エッジが撮影状況やノイ
ズなどの影響によって、常に完全に連結したエッジが抽
出されるとは限らないので、このような統計処理などを
行って確からしいエッジ直線を求める必要がある。Since partial edges between intruding objects are not always extracted completely due to the influence of the photographing condition and noise, such a statistical processing is performed to obtain a probable edge straight line. There is a need.
【0012】更に、検出されたエッジ直線から重なって
いる侵入物体を区分けするために有効な線分をエッジ線
分として抽出するのである。このエッジ線分の抽出に
は、エッジ直線同士の交点や、重なり変化領域を囲む外
接多角形とエッジ直線との交点などを使用して、交点間
を結んで有効なエッジ線分を抽出するのである。Further, a line segment effective for discriminating the intruding object which overlaps from the detected edge straight line is extracted as an edge line segment. To extract this edge line segment, use the intersection of the edge straight lines or the intersection of the circumscribing polygon surrounding the overlap change area and the edge straight line, and connect the intersections to extract a valid edge line segment. is there.
【0013】更にまた、有効なエッジ線分の中から侵入
物体の重なりを表し、重なり変化領域を区分けするため
の重なりエッジ線分を抽出するものである。この重なり
エッジ線分は、エッジ線分の中から重なり変化領域中で
エッジを多く含む線分であることが好ましい。また、エ
ッジ線分を接続したり、連結したりすることで適切な重
なりエッジ線分を抽出することができる。Furthermore, the overlapping edge line segment for extracting the overlapping of the intruding object from the effective edge line segment and for dividing the overlapping change region is extracted. It is preferable that the overlapping edge line segment is a line segment that includes many edges in the overlapping change region from the edge line segments. Also, by connecting or connecting the edge line segments, it is possible to extract an appropriate overlapping edge line segment.
【0014】得られた重なりエッジ線分は、重なり変化
領域を区分けするので、いろいろな重なり状態におい
て、侵入物体の重なりが明確にエッジが抽出されない場
合でも、重なって見える侵入物体を区分けすることが可
能となり、侵入物体の個数を正確に認識することができ
る。Since the obtained overlapping edge line segment divides the overlapping change region, it is possible to divide an intruding object that can be seen as overlapping in various overlapping states even if the edge of the intruding object is not clearly extracted. This makes it possible to accurately recognize the number of intruding objects.
【0015】[0015]
【実施例】次に本発明の好適な実施例を図面を用いて説
明する。図1は本発明の一実施例の侵入物体認識装置の
機能構成図である。この図1において、侵入物体認識装
置は背景画像メモリ回路1と、入力画像メモリ回路2
と、差分処理回路3と、二値化処理回路4と、変化領域
分割処理回路5と、ラベリング処理回路6と、ラベル計
数処理回路7と、出力処理回路8と、ビデオカメラ9
と、ビデオインタフェース回路10とから構成されてい
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram of an intruding object recognition apparatus according to an embodiment of the present invention. In FIG. 1, an intruding object recognition apparatus includes a background image memory circuit 1 and an input image memory circuit 2
A differential processing circuit 3, a binarization processing circuit 4, a change area division processing circuit 5, a labeling processing circuit 6, a label counting processing circuit 7, an output processing circuit 8, and a video camera 9.
And a video interface circuit 10.
【0016】この侵入物体認識装置において特徴的な構
成は、変化領域分割処理回路5を備えていることであ
る。A characteristic structure of this intruding object recognition apparatus is that it is provided with a changing area division processing circuit 5.
【0017】図1において、ビデオカメラ9は、侵入物
体などを撮像するためのもので、撮影画像をアナログ信
号で出力し、ビデオインタフェース回路10に与えるも
のである。ビデオインタフェース回路10は、撮影画像
信号を与えられると、背景画像メモリ回路1又は入力画
像メモリ回路2に撮影画像信号をデジタル信号に変換し
て与える。特に入力画像メモリ回路2はビデオカメラ9
で逐次撮影された入力画像信号をデジタル信号で格納す
るものである。他方、背景画像メモリ回路1は、侵入物
体(被写体)が存在しないときに撮影した背景画像信号
をデジタル信号で格納するものである。In FIG. 1, a video camera 9 is for picking up an intruding object and the like, and outputs a picked-up image as an analog signal and supplies it to the video interface circuit 10. When the video interface circuit 10 is supplied with the captured image signal, it converts the captured image signal into a digital signal and supplies it to the background image memory circuit 1 or the input image memory circuit 2. In particular, the input image memory circuit 2 is the video camera 9
The input image signals sequentially photographed by are stored as digital signals. On the other hand, the background image memory circuit 1 stores, as a digital signal, a background image signal captured when there is no intruding object (subject).
【0018】差分処理回路3は、入力画像メモリ回路2
から与えられる入力画像信号と、背景画像メモリ回路1
から与えられる背景画像信号とから画素間の差(例え
ば、濃度差の絶対値)を求め、差分画像信号を生成し二
値化処理回路4に与えるものである。二値化処理回路4
は差分画像信号を与えられると、適当なしきい値で二値
化を行い、差分二値化画像信号を生成し変化領域分割処
理回路5に与えるものである。この差分二値化画像信号
は、入力画像信号中の背景画像信号から濃度値が変化し
た画素の値が1に変化していない画素の値は0に設定さ
れる。The difference processing circuit 3 is the input image memory circuit 2
Input image signal given from the background image memory circuit 1
The difference between the pixels (for example, the absolute value of the density difference) is obtained from the background image signal given by the above, and a difference image signal is generated and given to the binarization processing circuit 4. Binarization processing circuit 4
When the differential image signal is given, the binarization is performed with an appropriate threshold value to generate a differential binarized image signal and apply it to the change region division processing circuit 5. In this differential binarized image signal, the value of the pixel whose density value has changed from the background image signal in the input image signal is set to 1 and the value of the pixel which has not changed is set to 0.
【0019】変化領域分割処理回路5は、重なり変化領
域の範囲における入力画像中の内部のエッジに基づいて
変化領域を分割するものである。更に具体的には入力画
像中からエッジを含む直線を検出し、その直線を直線同
士の交点、及びその直線と外接四角形との交点とを利用
して線分に分割し、その線分中でエッジを含む割合や線
分間の接続関係を利用して侵入物体の重なりを表す線分
だけを選択し、その線分によって変化領域を分割するも
のである。The change area division processing circuit 5 divides the change area based on the internal edge in the input image in the range of the overlap change area. More specifically, a straight line including an edge is detected from the input image, the straight line is divided into line segments by using the intersections of the straight lines and the intersections of the straight lines and the circumscribed quadrangle, and within the line segment. By utilizing the ratio including edges and the connection relationship between line segments, only the line segment representing the overlap of intruding objects is selected, and the change region is divided by the line segment.
【0020】ラベリング処理6は、分割された変化領域
にラベル付けを行い、孤立した個々の変化領域に別々の
ラベル番号を付与し、ラベル計数処理回路7に与えるも
のである。The labeling process 6 is to label the divided change regions, give a separate label number to each isolated change region, and give it to the label counting processing circuit 7.
【0021】ラベル計数処理回路7は、変化領域に付与
されたラベル番号数を計算し、この数を侵入物体の個数
とし、出力処理回路8へ与えるものである。出力処理回
路8は、侵入物体の個数を表示装置などに表示情報とし
て出力するものである。The label counting processing circuit 7 calculates the number of label numbers given to the change area, and uses this number as the number of intruding objects and gives it to the output processing circuit 8. The output processing circuit 8 outputs the number of intruding objects as display information to a display device or the like.
【0022】(装置全体の動作): ビデオカメラ9
からのアナログの画像信号は、ビデオインタフェース回
路10に与えられ、ここで、デジタルの画像信号に変換
される。ビデオインタフェース回路10から与えられ
た、逐次撮影された入力画像信号は入力画像メモリ2に
記憶され、背景画像信号は背景画像メモリ回路1に記憶
される。入力画像信号と、背景画像メモリ回路1から与
えられる背景画像信号とは差分処理回路3で画素間の差
が求められ、差分画像信号が生成される。この差分画像
信号は二値化処理回路4に与えられ、適当なしきい値で
二値化が行われ、差分二値化画像信号が生成され、変化
領域分割処理回路5に与えられる。(Operation of Entire Device): Video Camera 9
The analog image signal from is supplied to the video interface circuit 10, where it is converted into a digital image signal. The sequentially captured input image signals supplied from the video interface circuit 10 are stored in the input image memory 2, and the background image signal is stored in the background image memory circuit 1. The difference between the input image signal and the background image signal given from the background image memory circuit 1 is obtained by the difference processing circuit 3, and a difference image signal is generated. This difference image signal is given to the binarization processing circuit 4, binarized with an appropriate threshold value, a difference binarization image signal is generated, and given to the change region division processing circuit 5.
【0023】この『差分二値化画像信号から入力画像中
のエッジを含む直線が検出され、その直線を直線同士の
交点、及びその直線と外接四角形との交点とを利用して
線分に分割し、その線分中でエッジを含む割合や線分間
の接続関係を利用して侵入物体の重なりを表す線分だけ
が選択され、その線分によって変化領域が分割』され、
ラベリング処理6に与えられる。A straight line including an edge in the input image is detected from the difference binary image signal, and the straight line is divided into line segments by utilizing the intersections of the straight lines and the intersections of the straight lines and the circumscribed quadrangle. Then, only the line segment that represents the overlap of intruding objects is selected by using the ratio of edges in the line segment and the connection relationship between the line segments, and the change area is divided by the line segment.
It is given to the labeling process 6.
【0024】分割された変化領域にラベル付けが行わ
れ、孤立した個々の変化領域に別々のラベル番号が付与
され、ラベル計数処理回路7に与えられる。変化領域に
付与されたラベル番号数がラベル計数処理回路7で計算
され、この数は侵入物体の個数とし、出力処理回路8へ
与えられる。この侵入物体の個数が表示装置などで表示
情報として出力されるものである。Labeling is performed on the divided change areas, and a separate label number is given to each of the isolated change areas, which is given to the label counting processing circuit 7. The label count processing circuit 7 calculates the number of label numbers given to the change area, and this number is given to the output processing circuit 8 as the number of intruding objects. The number of intruding objects is output as display information on a display device or the like.
【0025】(変化領域分割処理回路5の詳細):
図2は変化領域分割処理回路5の詳細な機能構成図であ
る。この図2において、変化領域分割処理回路5は変化
領域内エッジ検出処理回路51と、方向別エッジ投影処
理回路52と、エッジ直線検出処理回路53と、エッジ
線分検出処理回路54と、重なりエッジ線分検出処理回
路55と、重なりエッジ線分反転処理回路56とから構
成されている。(Details of change area division processing circuit 5):
FIG. 2 is a detailed functional block diagram of the change area division processing circuit 5. In FIG. 2, the change area division processing circuit 5 includes an inside-change-area edge detection processing circuit 51, a direction-specific edge projection processing circuit 52, an edge straight line detection processing circuit 53, an edge line segment detection processing circuit 54, and overlapping edges. It is composed of a line segment detection processing circuit 55 and an overlapping edge line segment inversion processing circuit 56.
【0026】変化領域内エッジ検出処理回路51は、二
値化処理回路4までの処理によって求められた変化領域
に対して変化領域内エッジ検出処理を行うものである。
この変化領域内エッジ検出処理は、変化領域内での入力
画像のエッジ、つまり、隣接する画素間で画素値が急激
に変化する部分を求める処理で、以下の手順で行うもの
である。The in-change-region edge detection processing circuit 51 performs an in-change-region edge detection process on the changed region obtained by the processing up to the binarization processing circuit 4.
This edge-in-change-region detection processing is processing for obtaining an edge of the input image in the change area, that is, a portion in which the pixel value rapidly changes between adjacent pixels, and is performed in the following procedure.
【0027】先ず、入力画像中から変化領域の範囲を切
り出し(以下この切り出された領域のことを『入力変化
領域』と呼ぶ。)、その入力変化領域について縦、横、
斜め(左右の45°)の各方向でのエッジを検出する。
ここでのエッジ検出処理には、ソーベル(Sobel)
オペレータなどのオペレータを用いて行う。この処理に
よって変化領域の輪郭を表すエッジと入力変化領域の内
部のエッジが抽出された『入力変化領域エッジ画像』が
得られる。その後この画像に対して二値化処理を行いエ
ッジ部分の画素の値を1に、それ以外の画素の値を0に
した『二値化入力変化領域エッジ画像』を得る。First, a range of a change area is cut out from the input image (hereinafter, this cut out area is referred to as an "input change area"), and the input change area is vertically, horizontally, or horizontally.
Edges in each diagonal direction (45 ° to the left and right) are detected.
The edge detection process here is performed by Sobel.
Perform using an operator such as an operator. By this processing, an “input change area edge image” in which an edge representing the contour of the change area and an edge inside the input change area are extracted is obtained. Thereafter, the image is binarized to obtain a "binarized input change region edge image" in which the pixel values at the edge portions are set to 1 and the other pixel values are set to 0.
【0028】次に変化領域についてエッジ検出処理を行
い、変化領域の輪郭を表すエッジを抽出し、同じように
二値化処理を行い、『二値化変化領域エッジ画像』を得
る。これらの画像間で差をとり、入力変化領域内の輪郭
を表すエッジを除いた内部のエッジだけを抽出する。Next, edge detection processing is performed on the changed area, edges representing the contours of the changed area are extracted, and binarization processing is similarly performed to obtain a "binarized changed area edge image". The difference between these images is calculated, and only the internal edges excluding the edges representing the contour in the input change area are extracted.
【0029】図3は2人の人物画像が重なっている例の
図である。図4は図3における人物画像が重なっている
状態の画像から変化領域を表した図である。更に、図5
は図4に示している変化領域から、この変化領域内の
縦、横、斜め(左右の45°)の各方向でエッジを検出
した図である。図5(a)は、変化領域中の入力画像で
の縦方向エッジ画像を表すものである。図5(b)は変
化領域中の入力画像中での横方向エッジ画像を表すもの
である。図5(c)は変化領域中の入力画像中での斜め
(右45°)方向エッジ画像を表すものである。図5
(d)は変化領域中の入力画像での斜め(左45°)方
向エッジ画像を表すものである。FIG. 3 is a diagram showing an example in which two person images are overlapped. FIG. 4 is a diagram showing a change area in the image in which the person images in FIG. 3 are overlapped. Furthermore, FIG.
FIG. 6 is a diagram in which edges are detected from the change area shown in FIG. 4 in each of vertical, horizontal, and diagonal (45 ° left and right) directions within the change area. FIG. 5A shows a vertical edge image in the input image in the change area. FIG. 5B shows a lateral edge image in the input image in the change area. FIG. 5C shows an oblique (right 45 °) direction edge image in the input image in the change area. Figure 5
(D) represents an oblique (left 45 °) direction edge image in the input image in the change area.
【0030】また、上記『二値化変化領域エッジ画像』
は、図4のように既に二値化されている変化領域に対し
てエッジ検出を行うので、図6のようにエッジは変化領
域の輪郭のところにしか検出されない。一方、『二値化
変化領域エッジ画像』は、変化領域の範囲の入力画像
(図3の人の部分)に対してエッジ検出処理を行うの
で、図7のように輪郭の部分と、個体間の重なりによっ
て濃度が異なる部分(図7での人の重なりの部分)、更
に、個体内での濃度が異なる部分(図7での首の部分)
などにエッジが検出される。Further, the above "binarization change area edge image"
Performs edge detection on a change area that has already been binarized as shown in FIG. 4, so that an edge is detected only at the contour of the change area as shown in FIG. On the other hand, since the “binarization change area edge image” performs edge detection processing on the input image (human part in FIG. 3) in the range of the change area, as shown in FIG. Part where the concentration is different depending on the overlapping of (the overlapping part of the person in FIG. 7), and further the part where the concentration is different within the individual (neck part in FIG. 7)
An edge is detected at.
【0031】このため、2つの画像の差をとると、図8
のように個体間の重なりによって、濃度が異なる部分
と、個体内での濃度が異なる部分のエッジだけが検出さ
れる。但し、図6〜図8は方向別のエッジではなく、方
向性は無視した一般のエッジ画像である。尚、図8を方
向別にとると図5(a)〜(d)のようになる。Therefore, when the difference between the two images is taken, the result shown in FIG.
As described above, due to the overlap between individuals, only the edges of the portions having different concentrations and the portions having different concentrations within the individual are detected. However, FIG. 6 to FIG. 8 are general edge images in which directionality is ignored, not edges for each direction. It should be noted that FIG. 8 is taken for each direction and becomes as shown in FIGS.
【0032】上記図5から分かるように侵入物体が重な
っている部分がエッジとして抽出されている。これは一
般に侵入物体が重なる部分は濃度が異なるためである。
しかしながら、この侵入物体間の部分エッジは撮影状況
やノイズの影響によって、常に連結したエッジが抽出さ
れるとは限らない。そこで、方向別エッジ投影処理を行
うのである。As can be seen from FIG. 5, the portion where the intruding object overlaps is extracted as an edge. This is because in general, the density of the overlapping portions of the intruding objects is different.
However, the partial edges between the intruding objects are not always extracted as connected edges due to the influence of the imaging situation and noise. Therefore, the direction-dependent edge projection processing is performed.
【0033】方向別エッジ投影処理回路52は、方向別
変化領域エッジ検出回路51で求められた各方向のエッ
ジをそれぞれの方向に対して投影処理を行うものであ
る。この投影処理とは、図9、図10に示すようにエッ
ジ部分の画素を表す値が1の画素をエッジの方向に加算
していき、この加算の結果をヒストグラムに表したもの
である。図9(a)は上記図5(a)の縦方向のエッジ
投影ヒストグラムである。図9(b)は上記図5(b)
の横方向のエッジ投影ヒストグラムである。図10
(a)は上記図5(c)の斜め(右45°)方向エッジ
投影ヒストグラムである。図10(b)は上記図5
(d)の斜め(左45°)方向エッジ投影ヒストグラム
である。The direction-dependent edge projection processing circuit 52 performs a projection process on the edge in each direction obtained by the direction-dependent change area edge detection circuit 51 in each direction. The projection processing is to add pixels having a value of 1 representing the pixels in the edge portion in the direction of the edge as shown in FIGS. 9 and 10 and express the result of this addition in a histogram. FIG. 9A is a vertical edge projection histogram of FIG. 5A. FIG. 9B is the above FIG. 5B.
3 is a horizontal edge projection histogram of the. Figure 10
5A is an oblique (rightward 45 °) direction edge projection histogram of FIG. 5C. FIG. 10B shows the above-mentioned FIG.
It is a diagonal (left 45 degree) direction edge projection histogram of (d).
【0034】図9、図10から分かるように、縦方法、
横方向、右45°方向、左45°方向のそれぞれにおい
てエッジがある部分は、ヒストグラムの値が高くなって
いる。そこで、次にエッジ直線検出処理を行う。As can be seen from FIGS. 9 and 10, the vertical method,
The values of the histogram are high in the portions having edges in the horizontal direction, the 45 ° right direction, and the 45 ° left direction. Therefore, the edge straight line detection processing is next performed.
【0035】エッジ直線検出処理回路53は、各方向に
おけるヒストグラムにおいて、ヒストグラムの値が、予
め定めた値よりも大きい座標については、それぞれの方
向に直線を引く(以下、この直線のことを『エッジ直
線』と呼ぶ)。In the histogram in each direction, the edge straight line detection processing circuit 53 draws a straight line in each direction for coordinates whose histogram value is larger than a predetermined value (hereinafter, this straight line will be referred to as "edge"). "Straight line").
【0036】このエッジ直線は、それぞれの方向におい
てエッジを多く含む直線であるため、図5のように途切
れたエッジをそれぞれの方向に繋ぐ役割を果たすもので
ある。以下、縦、横、斜め(右45°方向、左45°方
向)のそれぞれの直線の式を表すものである。Since this edge straight line is a straight line containing many edges in each direction, it plays a role of connecting the interrupted edges in each direction as shown in FIG. Hereinafter, the formulas of the vertical, horizontal, and diagonal (right 45 ° direction, left 45 ° direction) straight lines are shown.
【0037】 y=xi …(1) x=yj …(2) y=x+yk …(3) y=−x+yl …(4) 但し、xi、yj、yk、ylは定数である。Y = xi (1) x = yj (2) y = x + yk (3) y = -x + yl (4) However, xi, yj, yk, and yl are constants.
【0038】図11は、図3の重なり人物像から得られ
る図9、図10のヒストグラムから求められるエッジ直
線11a〜11cを表している。FIG. 11 shows edge straight lines 11a to 11c obtained from the histograms of FIGS. 9 and 10 obtained from the overlapping human image of FIG.
【0039】エッジ線分検出処理回路54は、エッジ直
線から侵入物体を切り分けるために有効な線分を抽出す
るものである。このため、先ず図12の変化領域を外接
四角形で囲み、この外接四角形とエッジ直線との交点、
及びエッジ直線同士との交点をもとにしてエッジ直線を
線分に分割する(以下、この線分のことをエッジ線分と
呼ぶ)。図12のA〜Nはエッジ線分を表している。The edge line segment detection processing circuit 54 extracts a line segment effective for separating an intruding object from an edge straight line. Therefore, first, the change area in FIG. 12 is surrounded by a circumscribed quadrangle, and the intersection of the circumscribed quadrangle and the edge straight line is
And the edge straight line is divided into line segments based on the intersection with the edge straight lines (hereinafter, this line segment is referred to as an edge line segment). 12A to 12N represent edge line segments.
【0040】重なりエッジ線分検出処理回路55は、エ
ッジ線分の中から侵入物体の重なりを表し、変化領域を
切り分けるためのエッジ(以下、『重なりエッジ』と呼
ぶ)を求めるものである。そこで、具体的にはこの重な
りエッジ線分検出処理は、いろいろな手法があるが、こ
こでは侵入物体が複雑に重ならない場合を考慮した以下
のような手法を用いることができる。The overlap edge line segment detection processing circuit 55 represents an overlap of an intruding object from among the edge line segments, and obtains an edge (hereinafter, referred to as an "overlap edge") for separating a change region. Therefore, there are various methods for this overlapping edge line segment detection processing, but the following method can be used here in consideration of the case where intruding objects do not overlap intricately.
【0041】先ず、エッジ線分の中から変化領域中でエ
ッジを多く含む線分を求める。このためには、それぞれ
の線分における変化領域の画素数の合計の値Cと、エッ
ジの画素数の合計の値Eかとら、以下のような式(5)
によってそれぞれの線分における変化領域に対してエッ
ジが占める割合Rを求める。First, a line segment including many edges in the change area is obtained from the edge line segments. For this purpose, from the total value C of the number of pixels of the change area and the total value E of the number of pixels of the edge in each line segment, the following equation (5) is used.
Then, the ratio R of the edges to the change area in each line segment is obtained.
【0042】 R=E/C×100 (%) …(5) この割合Rが、所定以上ならばその線分は、エッジを多
く含む線分と見なし、例えば、ラベル10を付ける。一
例として、図12のエッジ線分に対しては、B、D、
H、I、K、Mのエッジ線分にラベル10が付けられ
る。これら以外のエッジ線分は、例えば、ラベル20が
付与される。これらの処理によってラベル10を付けら
れたエンジ線分は、入力変化領域内のエッジを多く含む
ことから、重なりを表すエッジ線分の可能性が高いとみ
なし、重なりエッジ線分を抽出する際に優先的に検出す
る。但し、ここでCの値が0のエッジ線分に対しては、
Rは計算せずに無条件にラベル0を付与するものであ
る。R = E / C × 100 (%) (5) If this ratio R is a predetermined value or more, the line segment is regarded as a line segment including many edges, and, for example, a label 10 is attached. As an example, for the edge line segment in FIG. 12, B, D,
Labels 10 are attached to the edge line segments of H, I, K, and M. Labels 20 are attached to the edge line segments other than these, for example. Since the engine line segment labeled 10 by these processes includes many edges in the input change region, it is considered that there is a high possibility that the edge line segment represents an overlap, and when the overlapping edge line segment is extracted. Detect with priority. However, for the edge line segment where the value of C is 0,
R does not calculate but unconditionally gives the label 0.
【0043】次にラベル0、10、20が付けられたエ
ンジ線分の中で、外接四角形と交わるエッジ線分はその
ラベル番号の右側、つまり、一の位の数を1にし、交わ
らないエッジ線分は2にする。更に、ラベル番号が一桁
のエッジ線分、つまり、ラベル番号1と2のエッジ線分
は変化領域上にないエッジ線分であるので削除し、その
ときのエッジ線分の延長線上に接続されているエッジ線
分のラベル番号が一桁目を1に書き替える。Next, among the engine line segments labeled 0, 10 and 20, the edge line segment that intersects the circumscribing quadrangle is on the right side of the label number, that is, the ones digit is 1, and edges that do not intersect. Set the line segment to 2. Further, since the edge line segment with the label number of one digit, that is, the edge line segments with the label numbers 1 and 2 are the edge line segments that are not on the change area, they are deleted and are connected on the extension line of the edge line segment at that time. The label number of the edge line segment is changed to 1 at the first digit.
【0044】図13はラベル付けされたエッジ線分の説
明図である。この図13において、ラベル番号11のエ
ッジ線分は現画像中のエッジを多く含み、且つ変化領域
の端にあるものを表し、ラベル番号12のエッジ線分は
現画像中のエッジを多く含み、且つ変化領域内にあるも
のを表すものである。ラベル番号21のエッジ線分は現
画像中のエッジを余り含まず、且つ変化領域の端にある
ものを表し、ラベル番号22のエッジ線分は現画像中の
エッジをあまり含まず、且つ変化領域内にあるものを表
すものである。FIG. 13 is an explanatory diagram of labeled edge line segments. In FIG. 13, the edge line segment with the label number 11 includes many edges in the current image and represents one at the end of the change area, and the edge line segment with the label number 12 includes many edges in the current image, In addition, it represents something in the change region. The edge line segment with the label number 21 indicates that it does not include the edges in the current image and is located at the end of the change area, and the edge line segment with the label number 22 does not include many edges in the current image and the change area. It represents what is inside.
【0045】これらのラベルが付与されたエッジ線分を
以下に示す手順によって連結し、外接四角形内の変化領
域を分割するための重なりエッジ線分を抽出する。The edge line segments having these labels are connected by the following procedure to extract overlapping edge line segments for dividing the change area in the circumscribed quadrangle.
【0046】(重なりエッジ線分候補の抽出): 先
ず、重なりエッジ線分候補を抽出する。この抽出方法に
おいては、図13においてラベル番号11のエッジ線分
は、図12のラベル番号を用いるとラベルB、ラベル
I、ラベルMが挙げられる。そこで、これらのエッジ線
分から重なりエッジ線分候補を抽出する。(Extraction of overlapping edge line segment candidates): First, overlapping edge line segment candidates are extracted. In this extraction method, the edge line segment with label number 11 in FIG. 13 includes label B, label I, and label M using the label numbers in FIG. Therefore, overlapping edge line segment candidates are extracted from these edge line segments.
【0047】ラベルBのエッジ線分については、先ず接
続するエッジ線分のラベルC、D、Eを比較する。この
場合のラベル番号はラベルCが21、Dが12、Eが2
2であるので、ここではラベル番号が最も小さいラベル
Dを選択する。次にラベルDに接続するエッジ線分のラ
ベルG、K、Hについては、ラベルGのエッジ番号が2
2、Kが12、Hが12で、KとHとが最も小さい。そ
こで、これらの2つについて内角を比較すると、Kは1
80°、Hは45°であるので、内角の大きいラベルK
を選択する。Regarding the edge line segment of the label B, the labels C, D and E of the edge line segments to be connected are first compared. The label numbers in this case are 21 for label C, 12 for D, and 2 for E.
Therefore, the label D having the smallest label number is selected here. Next, regarding the labels G, K, and H of the edge line segments connected to the label D, the edge number of the label G is 2
2, K is 12, H is 12, and K and H are the smallest. Therefore, when comparing the interior angles of these two, K is 1
Since 80 ° and H are 45 °, the label K with a large interior angle
Select
【0048】ラベルKに接続するエッジ線分のラベル
J、L、Mは、それぞれのラベル番号が22、21、1
1であるので、ラベルMを選択する。ラベルMはラベル
番号の右側の数字が1であるのでこの処理を終了する。
そこで、ラベルBにおける重なりエッジ線分候補はラベ
ルB、D、K、Mを接続したものとなる。The label numbers J, L, and M of the edge line segments connected to the label K have label numbers 22, 21, and 1, respectively.
Since it is 1, the label M is selected. Since the number on the right side of the label number of the label M is 1, this process is terminated.
Therefore, the overlapping edge line segment candidate in the label B is the one in which the labels B, D, K, and M are connected.
【0049】ラベルIのエッジ線分については、先ず接
続するエッジ線分E、H、Nのラベル番号がそれぞれ、
22、12、21なので、番号が最も小さいラベルHを
選択する。ラベルHに接続するエッジ線分はD、G、K
でラベル番号はそれぞれ、12、22、12で、ラベル
D、KのラベルHとの内角は45°、135°であるの
で、ラベル番号が最も小さく、且つ内角が最も大きいラ
ベルKを選択する。このラベルKについては上述と同様
にラベルMを選択して処理を終了する。そこで、ラベル
Iにおける重なりエッジ線分候補はラベルI、H、K、
Mを接続したものとなる。Regarding the edge line segment of label I, the label numbers of the edge line segments E, H, and N to be connected are respectively
Since it is 22, 12, and 21, the label H having the smallest number is selected. Edge line segments connected to label H are D, G, K
Since the label numbers are 12, 22 and 12, and the interior angles of the labels D and K with the label H are 45 ° and 135 °, respectively, the label K having the smallest label number and the largest interior angle is selected. For this label K, the label M is selected in the same manner as described above, and the processing ends. Therefore, the overlapping edge line segment candidates for label I are labels I, H, K,
M is connected.
【0050】ラベルMのエッジ線分については、先ず接
続するエッジ線分L、J、Kのラベル番号がそれぞれ、
21、22、12であるので、番号が最も小さいラベル
Kを選択する。ラベルKに接続するエッジ線分はD、
G、Hでラベル番号はそれぞれ12、22、12で、ラ
ベルD、HのラベルKとの内角は180°、135°な
ので、ラベル番号が最も小さく、且つ内角が最も大きい
ラベルDを選択する。Regarding the edge line segment of the label M, the label numbers of the edge line segments L, J and K to be connected are respectively
Since the labels are 21, 22, and 12, the label K having the smallest number is selected. The edge line segment connected to the label K is D,
The label numbers of G and H are 12, 22 and 12, respectively, and the interior angles of the labels D and H with the label K are 180 ° and 135 °, respectively, so that the label D having the smallest label number and the largest interior angle is selected.
【0051】ラベルDに接続するエッジ線分のラベル
B、C、Eは、それぞれのラベル番号が11、21、1
2であるので、番号が最も小さいラベルBを選択し処理
を終了する。そこで、ラベルMにおける重なりエッジ線
分候補はラベルM、K、D、Bを接続したものとなる。The labels B, C, and E of the edge line segments connected to the label D have label numbers 11, 21, and 1, respectively.
Since the number is 2, the label B having the smallest number is selected and the process ends. Therefore, the overlapping edge line segment candidate in the label M is the one in which the labels M, K, D, and B are connected.
【0052】つまり、この例では重なりエッジ線分候補
としては、ラベルM、K、D、Bを接続したものと、ラ
ベルI、H、K、Mを接続したものの2つが挙げられる
が、ラベルI、H、K、Mを接続したものは、横方向エ
ッジ線分であるラベルI、Hによって、侵入物体を縦に
切り分けてしまうことになり、侵入物体が縦に重なるこ
とが少ないという物理的な条件に反するため、適切な重
なりエッジ線分ではないとされる。このため、ここでは
ラベルM、K、D、Bを接続したものだけが重なりエッ
ジ線分となる。That is, in this example, there are two overlapping edge line segment candidates, one having labels M, K, D and B connected and one having labels I, H, K and M connected. , H, K, and M are connected to each other, the intruding objects are vertically separated by the labels I and H which are the horizontal edge line segments, and the intruding objects are rarely vertically overlapped. Since it violates the condition, it is not an appropriate overlapping edge line segment. Therefore, here, only the labels M, K, D, and B connected to each other are overlapped edge line segments.
【0053】上述のようにして、重なりエッジ線分候補
を抽出する場合はラベル番号11のエッジ線分から始め
て、その線分に接続するエッジ線分の中で次の『評価基
準』の中から最も評価値の高い線分を選んで接続し、次
にその接続したエッジ線分についても同様の処理を行っ
ていく。更に、ラベル番号の右側の数字が1であるエッ
ジ線分を接続した場合にこの処理を終了する。As described above, in the case of extracting the overlapping edge line segment candidate, starting from the edge line segment of label number 11, the edge line segment connected to the line segment is most selected from the following "evaluation criteria". A line segment having a high evaluation value is selected and connected, and then the same processing is performed on the connected edge line segment. Further, when the edge line segment whose number on the right side of the label number is 1 is connected, this processing is ended.
【0054】上記評価基準としては、(1)ラベル番号
の数字が小さいほど評価値が高いとする。(2)ラベル
番号の数字が同じ場合は、これらの2つのエッジ線分に
よって作られる内角が大きいほど評価値が高いとする。As the evaluation criteria, (1) the smaller the number of the label number, the higher the evaluation value. (2) When the label numbers are the same, the evaluation value is higher as the interior angle formed by these two edge line segments is larger.
【0055】但し、ここでその線分に接続するエッジ線
分の中で評価値が同じものがある場合は、それぞれにつ
いて処理を続けて最後まで行い、重なりエッジ線分候補
を検出する。However, if there is the same evaluation value among the edge line segments connected to the line segment, the process is continued for each of them until the end, and overlapping edge line segment candidates are detected.
【0056】更に、抽出された重なりエッジ線分候補の
中から、実際の画像上で侵入物体が縦に重なることが少
ないなどの物理的な条件や、その環境特有の条件などに
よって、適さない重なりエッジ線分候補は除くものとす
る。図14は上述のようにして求めた重なりエッジ線分
14aを示すものである。Further, from the extracted overlapping edge line segment candidates, unsuitable overlapping may occur due to physical conditions such as infrequent vertical overlap of intruding objects on the actual image, or conditions unique to the environment. Edge line segment candidates are excluded. FIG. 14 shows the overlapping edge line segment 14a obtained as described above.
【0057】重なりエッジ線分反転処理回路56は、変
化領域中で重なりエッジ線分を表す画素の値を0にす
る。この処理によって図14に示すように重なって見え
ていた侵入物体を表す領域は、それぞれの侵入物体に対
応して領域14bと、14cとに分割される。即ち、侵
入物体の数に応じた分割領域を得ることができるのであ
る。The overlapping edge line segment inversion processing circuit 56 sets the value of the pixel representing the overlapping edge line segment in the change area to 0. As a result of this processing, the region representing the intruding object which is seen as overlapping as shown in FIG. 14 is divided into regions 14b and 14c corresponding to each intruding object. That is, it is possible to obtain divided areas according to the number of intruding objects.
【0058】(変化領域分割処理回路5の動作):
二値化処理回路4までの処理によって求められた変化領
域に対して変化領域内エッジ検出処理が変化領域内エッ
ジ検出処理回路51で行われる。この処理で変化領域内
での入力画像のエッジ、つまり、隣接する画素間で画素
値が急激に変化する部分が求められる。(Operation of change area division processing circuit 5):
The change area inside edge detection processing circuit 51 performs the change area inside edge detection processing on the change area obtained by the processing up to the binarization processing circuit 4. By this processing, the edge of the input image within the change area, that is, the portion where the pixel value changes rapidly between the adjacent pixels is obtained.
【0059】次に方向別の変化領域エッジ検出回路51
で求められた各方向(縦、横、斜め方向)のエッジに対
して、方向別エッジ投影処理回路52では、それぞれの
方向に対して投影処理(ヒストグラム表現への処理)が
行われる。次に各方向におけるヒストグラムにおいて、
エッジ直線検出処理回路53では、ヒストグラムの値
が、予め定めた値よりも大きい座標については、それぞ
れの方向にエッジ直線を引く処理が行われる。Next, the change area edge detection circuit 51 for each direction
The edge-dependent edge projection processing circuit 52 performs projection processing (processing for histogram expression) on the edges in the respective directions (vertical, horizontal, and diagonal directions) obtained in (3). Next, in the histogram in each direction,
The edge straight line detection processing circuit 53 performs processing for drawing an edge straight line in each direction for coordinates whose histogram value is larger than a predetermined value.
【0060】次にそれぞれの方向に対するエッジ直線か
ら、エッジ線分検出処理回路54では、エッジ直線から
侵入物体を切り分けるための有効な線分が抽出される。
次に抽出された有効な線分から、重なりエッジ線分検出
処理回路55では、エッジ線分の中から侵入物体の重な
りを表し、変化領域を切り分けるための重なりエッジ線
分が求められる。次に重なりエッジ線分から、重なりエ
ッジ線分反転処理回路56では、変化領域中で重なりエ
ッジ線分を表す画素の値が0にされ、重なって見えてい
た侵入物体を表す領域が、それぞれの侵入物体に対応し
た領域に分割され、侵入物体の数に応じた分割領域が得
られるのである。Next, the edge line segment detection processing circuit 54 extracts an effective line segment for separating the intruding object from the edge straight line from the edge straight line in each direction.
From the extracted effective line segments, the overlapping edge line segment detection processing circuit 55 represents the overlapping of the intruding object from the edge line segments, and obtains the overlapping edge line segments for dividing the change region. Next, from the overlapping edge line segment, in the overlapping edge line segment inversion processing circuit 56, the value of the pixel representing the overlapping edge line segment is set to 0 in the change region, and the region representing the intruding object which was seen overlapping is invaded. It is divided into areas corresponding to the objects, and divided areas corresponding to the number of intruding objects are obtained.
【0061】この後、分割された変化領域にラベル付け
が行われ、孤立した個々の変化領域に別々のラベル番号
が付与され、ラベル計数処理回路7に与えられる。変化
領域に付与されたラベル番号数がラベル計数処理回路7
で計算され、この数は侵入物体の個数とし、出力処理回
路8へ与えられる。この侵入物体の個数が表示装置など
で表示情報として出力されるものである。After this, the divided change areas are labeled, and different label numbers are given to the isolated individual change areas, which are given to the label counting processing circuit 7. The number of label numbers assigned to the change area indicates the label counting processing circuit 7
The number of intruding objects is calculated and is given to the output processing circuit 8. The number of intruding objects is output as display information on a display device or the like.
【0062】図15は本発明の一実施例の侵入物体認識
装置を実現するための一例のハードウエア構成図であ
る。この図15において、侵入物体認識装置のハードウ
エア構成は、例えば、ビデオカメラ9と、ワークステー
ション本体220と、CRTディスプレイ26と、キー
ボード25と、マウス24と、外部記憶装置27とから
構成されている。ワークステーション本体220は、C
PU20と、メインメモリ210と、ビデオボード28
とから構成されている。FIG. 15 is a hardware configuration diagram of an example for realizing the intruding object recognizing device according to the embodiment of the present invention. In FIG. 15, the hardware configuration of the intruding object recognition apparatus includes, for example, a video camera 9, a workstation body 220, a CRT display 26, a keyboard 25, a mouse 24, and an external storage device 27. There is. The workstation body 220 is C
PU20, main memory 210, video board 28
It consists of and.
【0063】ビデオカメラ9で撮影された画像信号は、
アナログ信号(RGB信号又はNTSC信号など)でビ
デオボード28に与えられる。このビデオボード28
は、入力された画像信号をアナログ信号からデジタル信
号に変換し、背景画像や逐次撮影された入力画像信号を
メインメモリ210に格納させる。このメインメモリ2
10は、ビデオボード28からの画像信号を格納する
他、上述の人物画像認識を行うための種々のプログラム
データや、必要な各種ワークデータなどを格納している
ものである。メインメモリ210のこれらのデータを使
用してCPU20は処理して侵入物体の画像認識処理を
行うものである。The image signal taken by the video camera 9 is
An analog signal (RGB signal or NTSC signal) is provided to the video board 28. This video board 28
Converts the input image signal from an analog signal into a digital signal, and stores the background image and the sequentially captured input image signal in the main memory 210. This main memory 2
In addition to storing the image signal from the video board 28, 10 also stores various program data for performing the above-mentioned person image recognition, various necessary work data, and the like. The CPU 20 processes these data in the main memory 210 to perform image recognition processing of an intruding object.
【0064】外部記憶装置27は、メインメモリ210
に格納されてプログラムデータのバックアップ用として
使用される他、侵入物体数の画像認識処理に必要な各種
データを記憶していて、必要に応じてメインメモリ21
0に与えるものである。侵入物体数の画像認識処理の結
果は、CRTディスプレイ26に表示出力される。マウ
ス24、キーボード25などは、処理段階でデータ選択
やデータ入力のための入力手段として使用される。この
ように侵入物体認識装置を構成することで、上述の侵入
物体数の画像認識を行うことができる。The external storage device 27 is a main memory 210.
In addition to being used for backing up program data, it stores various data necessary for image recognition processing of the number of intruding objects, and stores the main memory 21 as necessary.
It is given to 0. The result of the image recognition processing for the number of intruding objects is displayed and output on the CRT display 26. The mouse 24, the keyboard 25, etc. are used as input means for data selection and data input at the processing stage. By configuring the intruding object recognition device in this way, it is possible to perform image recognition of the number of intruding objects described above.
【0065】(実施例の効果): 以上の実施例によ
れば、本来複数の侵入物体が重なって見えることによっ
て、差分処理及び二値化処理によって一つの変化領域と
して抽出された場合に、変化領域内のエッジを検出し、
この検出されたエッジからいろいろな状況においても侵
入物体の重なりを切り分けることが可能な重なりエッジ
線分を抽出する処理を行い、このエッジ線分をもとにし
て重なり変化領域を分割(区分け)するので、いろいろ
な状況において侵入物体の重なり間で明確にエッジが抽
出されない場合でも、重なって見える侵入物体を分割す
ることが可能となり、侵入物体の個数を正確に検出する
ことができる。(Effects of the Embodiment) According to the above embodiments, a plurality of intruding objects originally appear to overlap each other, so that a change occurs when they are extracted as one change region by difference processing and binarization processing. Detect edges in the region,
Processing is performed to extract overlapping edge line segments that can separate the overlapping of intruding objects from the detected edges in various situations, and the overlapping change area is divided (divided) based on this edge line segment. Therefore, even when the edges are not clearly extracted between the overlapping of the intruding objects in various situations, it is possible to divide the intruding objects that appear to overlap with each other, and it is possible to accurately detect the number of the intruding objects.
【0066】また、エッジ直線を、重なり変化領域内で
の、縦方向エッジ、横方向エッジ、斜め方向エッジごと
にヒストグラム投影処理を行って統計量を求め、この統
計量から、エッジを多く含む直線を引いて検出するよう
に構成したので、どのような方向にエッジが分布する場
合でも適切にエッジ直線を求めることができる。Further, the edge straight line is subjected to histogram projection processing for each of the vertical edge, the horizontal edge, and the diagonal edge in the overlap change area to obtain a statistical amount, and from this statistical amount, a straight line including many edges is obtained. Since the detection is performed by subtracting, the edge straight line can be appropriately obtained regardless of the edge distribution in any direction.
【0067】更に、有効なエッジ線分を、重なり変化領
域を外接多角形で囲み、この外接多角形と上記エッジ直
線との交点、上記エッジ直線同士の交点のいずれかを結
んで得られる線分として抽出するので、もとのエッジの
分布傾向に即しながら、しかも重なり変化領域の区分け
に適したエッジ線分を求めることができる。Furthermore, a line segment obtained by enclosing an overlapping change area with a circumscribing polygon and connecting either the intersection of the circumscribing polygon and the edge straight line or the intersection of the edge straight lines with each other Therefore, it is possible to obtain the edge line segment suitable for the division of the overlap change region while conforming to the original edge distribution tendency.
【0068】更にまた、重なりエッジ線分は、有効なエ
ッジ線分同士を結ぶことで抽出するので、複雑な重なり
が起きていても精度良く柔軟に線分を求めることができ
る。Furthermore, since the overlapping edge line segment is extracted by connecting the effective edge line segments, it is possible to accurately and flexibly obtain the line segment even if complicated overlapping occurs.
【0069】また、重なった変化領域から本来の侵入物
体の形状をほぼ正確に切り出せるので、侵入物体の計数
だけでなく、侵入物体の種類の識別にも利用することが
できる。Further, since the original shape of the intruding object can be cut out from the overlapping change areas almost accurately, it can be used not only for counting the intruding object but also for identifying the type of the intruding object.
【0070】(他の実施例): (1)尚、以上の実
施例のエッジ検出処理において、ソーベル(Sobe
l)オペレータを使用したが、他に例えば、ロビンソン
(Robinson)オペレータや、キルシェ(Kir
sch)オペレータなどを使用することも好ましい。Other Embodiments: (1) In the edge detection processing of the above embodiments, the Sobel (Sobe)
l) The operator was used, but in addition, for example, Robinson operator and Kirche (Kirsche)
It is also preferable to use a sch) operator or the like.
【0071】(2)また、変化領域の範囲にある入力画
像中のエッジ検出を行う場合、背景画像のエッジ画像
(各方向)と、入力画像のエッジ画像(各方向)との差
分画像を二値化処理することでも上述実施例と同様の効
果を得ることができる。(2) When detecting an edge in the input image within the range of the change area, the difference image between the edge image of the background image (each direction) and the edge image of the input image (each direction) is calculated. The same effect as that of the above-described embodiment can be obtained by performing the binarization process.
【0072】(3)更に、エッジ直線を求める処理で
は、エッジの投影ヒストグラムを用いて行う処理の他に
ハフ変換を利用してエッジ直線を求めても上述の実施例
と同様な効果を得ることができる。(3) Further, in the process of obtaining the edge straight line, the same effect as that of the above-described embodiment can be obtained even if the edge straight line is obtained by using the Hough transform in addition to the process performed by using the edge projection histogram. You can
【0073】(4)更にまた、上述の実施例の図1、図
2を侵入物体認識装置の機能構成図として示している
が、処理の手順(流れ)を示すフローチャートとして見
ることもできる。(4) Furthermore, although FIGS. 1 and 2 of the above-mentioned embodiment are shown as a functional configuration diagram of the intruding object recognizing device, they can be viewed as a flow chart showing a procedure (flow) of processing.
【0074】(5)また、上述の図12〜図14におい
て、外接四角形を変化領域の回りに形成しているが、変
化領域の形状によっては、多角形(三角形、5角形以上
など)が好ましい場合がある。(5) Further, in FIGS. 12 to 14 described above, the circumscribed quadrangle is formed around the changing region, but depending on the shape of the changing region, a polygon (triangle, pentagon or more) is preferable. There are cases.
【0075】(6)更に、本発明の侵入物体認識装置
は、例えば、テレビ会議システムや、各種監視カメラ装
置や、玄関用カメラ装置や、車両や航空機などの移動体
に搭載される監視装置などにも適用することができる。(6) Furthermore, the intruding object recognition device of the present invention is, for example, a video conference system, various monitoring camera devices, an entrance camera device, a monitoring device mounted on a moving body such as a vehicle or an aircraft. Can also be applied to.
【0076】[0076]
【発明の効果】以上述べた様に本発明は、重なりエッジ
線分抽出手段で、入力画像中から重なり変化領域内での
エッジを検出し、このエッジから重なり変化領域内のエ
ッジ直線を検出し、検出されたエッジ直線から侵入物体
を認識するために有効なエッジ線分を抽出し、この有効
なエッジ線分から重なり変化領域中でエッジを多く含む
エッジ線分を重なりエッジ線分として抽出し、侵入物体
数認識手段で、重なりエッジ線分によって区分けされた
重なり変化領域から侵入物体の数を認識するように構成
したことで、複数の侵入物体が重なって撮像されても、
侵入物体の個数を正確に検出することができる侵入物体
認識装置を実現することができる。As described above, according to the present invention, the overlapping edge line segment extracting means detects the edge in the overlapping change area from the input image and detects the edge straight line in the overlapping change area from this edge. , Extract an effective edge line segment for recognizing an intruding object from the detected edge straight line, and extract an edge line segment containing many edges in the overlap change region as an overlapping edge line segment from the effective edge line segment, The intruding object number recognition means is configured to recognize the number of intruding objects from the overlapping change area divided by the overlapping edge line segments, so that even if a plurality of intruding objects are imaged in an overlapping manner,
It is possible to realize an intruding object recognition device that can accurately detect the number of intruding objects.
【図1】本発明の実施例の侵入物体認識装置の機能構成
図である。FIG. 1 is a functional configuration diagram of an intruding object recognition apparatus according to an embodiment of the present invention.
【図2】実施例の変化領域分割処理回路の機能構成図で
あるFIG. 2 is a functional configuration diagram of a change area division processing circuit according to an embodiment.
【図3】実施例の重なって見える場合の侵入物体の説明
図である。FIG. 3 is an explanatory diagram of an intruding object in the case where the examples are seen to overlap each other.
【図4】図3に対する重なり変化領域の説明図である。FIG. 4 is an explanatory diagram of an overlap change area with respect to FIG.
【図5】図4の重なり変化領域に対する入力画像での方
向別エッジ画像の説明図である。5 is an explanatory diagram of edge images for each direction in the input image with respect to the overlapping change area in FIG. 4;
【図6】図3に対する二値化変化領域エッジ画像の説明
図である。FIG. 6 is an explanatory diagram of a binarized change area edge image with respect to FIG. 3;
【図7】図3に対する二値化入力変化領域エッジ画像の
説明図である。7 is an explanatory diagram of a binarized input change area edge image with respect to FIG. 3;
【図8】図6の二値化変化領域エッジ画像と、図7の二
値化入力変化領域エッジ画像との差の画像の説明図であ
る。8 is an explanatory diagram of an image of a difference between the binarized change area edge image of FIG. 6 and the binarized input change area edge image of FIG. 7;
【図9】図5に対する縦方向、横方向エッジ投影ヒスト
グラムの説明図である。9 is an explanatory diagram of vertical and horizontal edge projection histograms for FIG.
【図10】図5に対する斜め方向エッジ投影ヒストグラ
ムの説明図である。10 is an explanatory diagram of a diagonal edge projection histogram for FIG.
【図11】図9、図10に対するエッジ直線の説明図で
ある。11 is an explanatory diagram of an edge straight line with respect to FIGS. 9 and 10. FIG.
【図12】図3におけるエッジ線分の説明図である。12 is an explanatory diagram of an edge line segment in FIG.
【図13】図12に対するラベル付けされたエッジ線分
の説明図である13 is an explanatory diagram of labeled edge line segments for FIG. 12;
【図14】図3に対する変化領域の分割の説明図であ
る。FIG. 14 is an explanatory diagram of division of a change area with respect to FIG.
【図15】実施例の侵入物体認識装置の一例のハードウ
エア構成図である。FIG. 15 is a hardware configuration diagram of an example of an intruding object recognition device according to an embodiment.
1…背景画像メモリ回路、2…入力画像メモリ回路、3
…差分処理回路、4…二値化処理回路、5…変化領域分
割処理回路、6…ラベリング処理回路、7…ラベル計数
処理回路、8…出力処理回路、9…ビデオカメラ、10
…ビデオインタフェース回路、11a〜11c…エッジ
直線、14a…重なりエッジ線分、51…変化領域内エ
ッジ検出処理回路、52…方向別エッジ投影処理回路、
53…エッジ直線検出処理回路、54…エッジ線分検出
処理回路、55…重なりエッジ線分検出処理回路、56
…重なりエッジ線分反転処理回路、A〜N…エッジ線
分。1 ... Background image memory circuit, 2 ... Input image memory circuit, 3
... difference processing circuit, 4 ... binarization processing circuit, 5 ... change area division processing circuit, 6 ... labeling processing circuit, 7 ... label counting processing circuit, 8 ... output processing circuit, 9 ... video camera, 10
... video interface circuit, 11a to 11c ... edge straight line, 14a ... overlapping edge line segment, 51 ... change area edge detection processing circuit, 52 ... direction-dependent edge projection processing circuit,
53 ... Edge straight line detection processing circuit, 54 ... Edge line segment detection processing circuit, 55 ... Overlap edge line segment detection processing circuit, 56
... overlapping edge line segment inversion processing circuit, A to N ... edge line segment.
Claims (6)
背景画像信号と、逐次撮像される入力画像信号との差分
二値化によって得られる画像信号から入力画像中の重な
り変化領域を検出し、この重なり変化領域を分析して侵
入物体を認識する侵入物体認識装置において、 入力画像中から重なり変化領域内でのエッジを検出し、
このエッジから重なり変化領域内のエッジ直線を検出
し、検出されたエッジ直線から侵入物体を認識するため
に有効なエッジ線分を抽出し、この有効なエッジ線分か
ら重なり変化領域中でエッジを多く含むエッジ線分を重
なりエッジ線分として抽出する重なりエッジ線分抽出手
段と、 この重なりエッジ線分によって区分けされた重なり変化
領域から侵入物体の数を認識する侵入物体数認識手段と
を備えたことを特徴とする侵入物体認識装置。1. An overlap change region in an input image is detected from an image signal obtained by differential binarization of a background image signal captured when an intruding object does not exist and an input image signal sequentially captured, In the intruder recognition device that recognizes the intruding object by analyzing this overlapping change area, the edge in the overlapping change area is detected from the input image,
The edge straight line in the overlap change area is detected from this edge, the effective edge line segment for recognizing the intruding object is extracted from the detected edge straight line, and many edges in the overlap change area are extracted from this effective edge line segment. An overlapping edge line segment extracting means for extracting the included edge line segment as an overlapping edge line segment, and an intruding object number recognizing means for recognizing the number of intruding objects from the overlapping change area divided by the overlapping edge line segment are provided. An intruding object recognition device.
斜め方向エッジごとにヒストグラム投影処理を行って統
計量を求め、この統計量からエッジを多く含む直線を引
いて検出することを特徴とする請求項1記載の侵入物体
認識装置。2. The edge straight lines are vertical edges, horizontal edges, and
The intruding object recognition apparatus according to claim 1, wherein a histogram projection process is performed for each diagonal edge to obtain a statistic, and a straight line including many edges is drawn from the statistic to detect.
かの直線を求めることを特徴とする請求項1記載の侵入
物体認識装置。3. The intruding object recognition apparatus according to claim 1, wherein the edge straight line obtains a straight line in any of a vertical direction, a horizontal direction, and a diagonal direction by Hough transform.
上記エッジ直線との交点、上記エッジ直線同士の交点の
いずれかを結んで得られる線分として抽出することを特
徴とする請求項1〜3のいずれかに記載の侵入物体認識
装置。4. The effective edge line segment is a line obtained by enclosing an overlapping change area with a circumscribed polygon and connecting either the intersection of the circumscribed polygon and the edge straight line or the intersection of the edge straight lines. The intruding object recognition device according to any one of claims 1 to 3, wherein the intruding object recognition device extracts the minute object.
とする請求項1〜4のいずれかに記載の侵入物体認識装
置。5. The intruding object recognition device according to claim 1, wherein the overlapping edge line segment is extracted by connecting valid edge line segments.
侵入物体の識別を行うことを特徴とする請求項1〜5の
いずれかに記載の侵入物体認識装置。6. The intruding object recognition device according to claim 1, wherein the intruding object is identified based on the shapes of the divided overlapping change regions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7021594A JPH08221549A (en) | 1995-02-09 | 1995-02-09 | Intrusion object recognizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7021594A JPH08221549A (en) | 1995-02-09 | 1995-02-09 | Intrusion object recognizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08221549A true JPH08221549A (en) | 1996-08-30 |
Family
ID=12059370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7021594A Pending JPH08221549A (en) | 1995-02-09 | 1995-02-09 | Intrusion object recognizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08221549A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188168A (en) * | 1996-12-20 | 1998-07-21 | Nohmi Bosai Ltd | Fire detector |
JP2007188268A (en) * | 2006-01-12 | 2007-07-26 | Univ Of Tokyo | On-image mobile object tracking method and device |
JP2009080760A (en) * | 2007-09-27 | 2009-04-16 | Saxa Inc | Object recognition device, and object recognition method and program |
JP2009223693A (en) * | 2008-03-17 | 2009-10-01 | Glory Ltd | Person counting device and person counting method |
CN111754450A (en) * | 2019-07-16 | 2020-10-09 | 北京京东乾石科技有限公司 | Method, device, equipment and computer readable medium for determining number of objects |
-
1995
- 1995-02-09 JP JP7021594A patent/JPH08221549A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188168A (en) * | 1996-12-20 | 1998-07-21 | Nohmi Bosai Ltd | Fire detector |
JP2007188268A (en) * | 2006-01-12 | 2007-07-26 | Univ Of Tokyo | On-image mobile object tracking method and device |
JP4714872B2 (en) * | 2006-01-12 | 2011-06-29 | 国立大学法人 東京大学 | Method and apparatus for dividing moving object superimposed on image |
JP2009080760A (en) * | 2007-09-27 | 2009-04-16 | Saxa Inc | Object recognition device, and object recognition method and program |
JP2009223693A (en) * | 2008-03-17 | 2009-10-01 | Glory Ltd | Person counting device and person counting method |
CN111754450A (en) * | 2019-07-16 | 2020-10-09 | 北京京东乾石科技有限公司 | Method, device, equipment and computer readable medium for determining number of objects |
CN111754450B (en) * | 2019-07-16 | 2024-04-05 | 北京京东乾石科技有限公司 | Method, apparatus, device and computer readable medium for determining the number of objects |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110678901B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US11282185B2 (en) | Information processing device, information processing method, and storage medium | |
JP6904346B2 (en) | Image processing equipment, image processing systems, and image processing methods, and programs | |
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
CN110717489A (en) | Method and device for identifying character area of OSD (on screen display) and storage medium | |
JP4373840B2 (en) | Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus | |
CN106846339A (en) | Image detection method and device | |
CN114863492B (en) | Method and device for repairing low-quality fingerprint image | |
JPH07192112A (en) | Intruding object recognizing method | |
CN111369529B (en) | Article loss and leave-behind detection method and system | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
JP3490482B2 (en) | Edge and contour extraction device | |
EP2017788A1 (en) | Shielding-object video-image identifying device and method | |
KR101967858B1 (en) | Apparatus and method for separating objects based on 3D depth image | |
JPH08221549A (en) | Intrusion object recognizing device | |
US20200394802A1 (en) | Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool | |
US20030179824A1 (en) | Hierarchical video object segmentation based on MPEG standard | |
CN115063578B (en) | Method and device for detecting and positioning target object in chip image and storage medium | |
JPH0514891A (en) | Image monitor device | |
JPH1125222A (en) | Method and device for segmenting character | |
JP2000125288A (en) | Object tracking method and object tracking device | |
JP3417635B2 (en) | Intruding object recognition method | |
JPH06169458A (en) | Automatic tracking device for moving body | |
JP3078203B2 (en) | Intruding object recognition device | |
JPH08153187A (en) | Image recognizing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Effective date: 20040316 Free format text: JAPANESE INTERMEDIATE CODE: A02 |