JPH08185521A - Mobile object counter - Google Patents

Mobile object counter

Info

Publication number
JPH08185521A
JPH08185521A JP6337551A JP33755194A JPH08185521A JP H08185521 A JPH08185521 A JP H08185521A JP 6337551 A JP6337551 A JP 6337551A JP 33755194 A JP33755194 A JP 33755194A JP H08185521 A JPH08185521 A JP H08185521A
Authority
JP
Japan
Prior art keywords
data
label
area
moving
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6337551A
Other languages
Japanese (ja)
Inventor
Hirofumi Yajima
弘文 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP6337551A priority Critical patent/JPH08185521A/en
Publication of JPH08185521A publication Critical patent/JPH08185521A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To provide a mobile object counter which eliminates miss counting and improves accuracy. CONSTITUTION: Continuous frame image data inputted from a CCD camera 1 through an A/D converter 2 and a digital switch 2 are stored in frame memories 4, 5 and 6 and according to processing flow stored in a program memory 9, a CPU 8 extracts a mobile object area by calculating difference between the frames of image data while using pointer shift. Labelling is performed to this mobile object area by grouping using a pointer, and image data are separated for every independent mobile object area. Then, the number of mobile objects in the mobile object area is judged from the aspect ratio, area ratio and peripheral area ratio of the labelled mobile object area. Thus, the mobile object is extracted for every frame, mobile objects are made correspondent between the frames, the noncorrespondent mobile object is counted as an object moved out of the object area, and the counted result is outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】画像認識によって移動体をカウン
トする移動体カウント装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving body counting device for counting moving bodies by image recognition.

【0002】[0002]

【従来の技術】近年鉄道、バス、コンビニエンスストア
ー、デパート、街頭等を対象として、人物や自動車等の
移動体を画像認識によって自動カウントする移動体カウ
ント装置の研究開発が進められている。
2. Description of the Related Art In recent years, research and development of a moving object counting device for automatically counting moving objects such as people and automobiles by image recognition has been advanced for railways, buses, convenience stores, department stores, streets and the like.

【0003】その理由としては、例えば鉄道やバスにお
いては運行ダイヤはピーク時の旅客の量や変動に大きく
左右される。経営者側が旅客の量や変動を細かく把握す
ることができれば旅客量に対応した運転計画が立てら
れ、安定した輸送力を確保できる。さらに旅客に対して
も適切な運行情報やサービスを提供することができる。
従って、現在人手を要して行っている旅客量調査を自動
化により随時行うことができれば、経営面およびサービ
ス面においてより効果的であり、このような移動体の自
動カウントには画像認識によるものが最適であることが
挙げられる。
The reason for this is that, for example, in the case of trains and buses, operating schedules are greatly affected by the amount and fluctuations of passengers during peak hours. If the manager can grasp the passenger volume and fluctuations in detail, an operation plan corresponding to the passenger volume can be made and a stable transportation capacity can be secured. Furthermore, it is possible to provide appropriate operation information and services to passengers.
Therefore, if it is possible to automatically carry out passenger volume surveys that currently require manual labor, it will be more effective in terms of management and service, and such automatic counting of moving bodies is not possible by image recognition. It can be mentioned that it is optimal.

【0004】このような画像認識による移動体カウント
装置において、移動体を抽出する方法としては環境変動
に強く、高速で高精度な処理が期待できる入力画像のフ
レーム間差分による方法が最も有力視されている。この
入力画像のフレーム間差分による方法は2フレームまた
は3フレーム分の入力画像を記憶装置に取り込み、各フ
レーム間の差分を算出し、当該差分値から移動体領域を
判定する方法である。
In the moving object counting apparatus based on such image recognition, the most effective method for extracting moving objects is the method based on the inter-frame difference of input images, which is resistant to environmental changes and is expected to be processed at high speed and with high accuracy. ing. The method based on the inter-frame difference of the input image is a method of inputting the input image of two frames or three frames into the storage device, calculating the difference between each frame, and determining the moving body region from the difference value.

【0005】さらに抽出された各移動体領域にラべリン
グを施し、ラベリングされた各移動体領域内の移動体個
数を判定して移動体を抽出し、抽出された移動体をカウ
ントする。
Further, each extracted moving body area is labeled, the number of moving bodies in each labeled moving body area is determined, the moving bodies are extracted, and the extracted moving bodies are counted.

【0006】従って上記の方法において実現される移動
体カウント装置は、移動体のカウントを行う対象領域を
撮像し、画像データを得るデータ入力手段と、当該画像
データを記憶する記憶手段と、当該記憶手段から読み出
した画像データからフレーム間差分による方法によって
移動体領域を抽出し、当該抽出した各移動体領域にラべ
リングを施し、ラベリングされた各移動体領域内の移動
体個数を判定して移動体を抽出し、抽出された移動体を
カウントし、当該カウント結果を出力する演算処理手段
によって構成される。
Therefore, the moving body counting apparatus realized by the above method, the data input means for picking up the image of the target area for counting the moving body and obtaining the image data, the storing means for storing the image data, and the storing means. The moving body area is extracted from the image data read out from the means by a method based on the inter-frame difference, each extracted moving body area is labeled, and the number of moving bodies in each labeled moving body area is determined. It is configured by an arithmetic processing unit that extracts a moving body, counts the extracted moving body, and outputs the count result.

【0007】記憶手段は複数のフレームメモリーおよび
カウント結果等の演算結果を記憶するデータメモリーに
よって構成され、演算処理手段はCPUおよび当該CP
Uの演算プログラムを格納しているプログラムメモリー
によって構成される。
The storage means is composed of a plurality of frame memories and a data memory for storing calculation results such as count results. The calculation processing means is a CPU and the CP.
It is composed of a program memory that stores the U arithmetic program.

【0008】次に演算処理手段および記憶手段による画
像処理および演算処理はフレーム間差分による移動体の
抽出、ラベリング、移動体領域内の移動体個数の判定、
移動体のカウントに分けられる。これらの各処理の一例
を以下に説明する。
Next, the image processing and the arithmetic processing by the arithmetic processing means and the storage means are carried out by extracting the moving body by the inter-frame difference, labeling, determining the number of moving bodies in the moving body area,
Divided into mobile counts. An example of each of these processes will be described below.

【0009】[フレーム間差分による移動体の抽出]連
続して入力される3フレーム分の画像データをF(T−
2ΔT)、F(T−ΔT)、F(T)とする。ここでΔ
Tは画像データのサンプリング間隔であり、T−2Δ
T、T−ΔT、tはサンプリング時刻を表す。
[Extraction of Moving Object by Difference between Frames] F (T-
2ΔT), F (T-ΔT), and F (T). Where Δ
T is the sampling interval of the image data, T-2Δ
T, T-ΔT, t represent sampling times.

【0010】F(T−2ΔT)とF(T−ΔT)の差分
およびF(T−ΔT)とF(T)の差分を各画素ごとに
算出し、当該差分をしきい値t1 によって二値化する。
The difference between F (T-2ΔT) and F (T-ΔT) and the difference between F (T-ΔT) and F (T) are calculated for each pixel, and the difference is determined by a threshold value t 1 . Quantify.

【0011】二値化された差分データをそれぞれFb
(T−2ΔT,T−ΔT)、Fb(T−ΔT,T)とす
ると、 Fb(T−2ΔT,T−ΔT)=[|F(T−2ΔT)
−F(T−ΔT)|]t1 Fb(T−ΔT,T)=[|F(T−ΔT)−F(T)
|]t1 である。ここで[ ]t1 は[ ]内の値がt1 以上で
あれば“1”とし、t1未満であれば“0”とする二値
化演算を示す。
Each of the binarized difference data is Fb.
If (T-2ΔT, T-ΔT) and Fb (T-ΔT, T), then Fb (T-2ΔT, T-ΔT) = [| F (T-2ΔT)
−F (T−ΔT) |] t 1 Fb (T−ΔT, T) = [| F (T−ΔT) −F (T)
|] T 1 . Here, [] t 1 indicates a binarization operation in which if the value in [] is t 1 or more, it is “1”, and if it is less than t 1 , it is “0”.

【0012】次に移動体の二重化を消去するためにFb
(T−2ΔT、T−ΔT)とFb(T−ΔT、T)の論
理積を求め、これを時刻T−ΔTにおけるフレーム間差
分データH(T−ΔT)とする。
Next, in order to eliminate the duplication of the mobile unit, Fb
The logical product of (T-2 [Delta] T, T- [Delta] T) and Fb (T- [Delta] T, T) is obtained, and this is set as interframe difference data H (T- [Delta] T) at time T- [Delta] T.

【0013】H(T−ΔT)=Fb(T−2ΔT、T−
ΔT)*Fb(T−ΔT、T) ここで*は論理積演算を示す。
H (T-ΔT) = Fb (T-2ΔT, T-
ΔT) * Fb (T−ΔT, T) Here, * indicates a logical product operation.

【0014】以上の処理によって背景領域は除去され移
動体領域だけが抽出される。H(T−ΔT)は移動体領
域だけにビットが立ったデータとなっている。
By the above processing, the background area is removed and only the moving body area is extracted. H (T-ΔT) is data in which bits are set only in the moving body area.

【0015】次に上記の処理におけるフレームメモリー
内のデータのデータシフト動作を図33を用いて説明す
る。図33において、ステップAの画像データの入力か
らステップCのフレーム間差分による移動体の抽出をラ
ウンドの単位とする。
Next, the data shift operation of the data in the frame memory in the above processing will be described with reference to FIG. In FIG. 33, the extraction of the moving object based on the difference between the frames in step C from the input of the image data in step A is a round unit.

【0016】1ラウンド目に入る前に、最初に画像デー
タ1をフレームメモリーのデータ領域1に取り込む、つ
づいてサンプリング間隔ΔT後に画像データ2をデータ
領域2に取り込む。、さらにΔT後に画像データ3をデ
ータ領域3に取り込む時点で1ラウンド目に入る。1ラ
ウンド分のデータシフトおよびそれに伴うCPUによる
演算処理は、ΔTの間に行われる。図中に示すように画
像データ1をデータa、画像データ2をデータb、画像
データ3をデータcとする。
Before entering the first round, the image data 1 is first loaded into the data area 1 of the frame memory, and then the image data 2 is loaded into the data area 2 after the sampling interval ΔT. The first round starts when the image data 3 is taken into the data area 3 after ΔT. The data shift for one round and the accompanying arithmetic processing by the CPU are performed during ΔT. As shown in the figure, image data 1 is data a, image data 2 is data b, and image data 3 is data c.

【0017】1ラウンド目において、ステップAで画像
データ3をデータ領域3に取り込み(データc)、ステ
ップBでデータaとデータbの二値化された差分データ
(上記のFbに対応する)をデータ領域1に書き込む
(データdとする)。同様にデータbとデータcの二値
化された差分データをデータ領域2に書き込む(データ
eとする)。データcはデータ領域3にそのまま保存さ
れる。ステップCでデータdとデータeの論理積処理さ
れたフレーム間差分データ(上記のH(T−ΔT)に対
応する)をデータ領域1に書き込み(データfとす
る)、このfを用いてラベリングを行い、対応付けおよ
びカウントのための特徴量を抽出する。データeおよび
データcはデータ領域2およびデータ領域3にそのまま
保存される。
In the first round, the image data 3 is loaded into the data area 3 in step A (data c), and the binarized difference data (corresponding to Fb above) between the data a and the data b is acquired in step B. The data is written in the data area 1 (data d). Similarly, the binary difference data of the data b and the data c is written in the data area 2 (data e). The data c is stored in the data area 3 as it is. The inter-frame difference data (corresponding to H (T-ΔT) above) obtained by performing the logical product processing of the data d and the data e in step C is written in the data area 1 (referred to as data f), and labeling is performed using this f. Then, the feature amount for association and counting is extracted. The data e and the data c are stored in the data area 2 and the data area 3 as they are.

【0018】2ラウンド目において、ステップA′で画
像データ3のΔT後にサンプリングされた画像データ4
をデータ領域3に取り込む(データc′とする)。デー
タ領域2のデータeはデータ領域1にシフトされ(デー
タd′とする)、データ領域3のデータcはデータ領域
2にシフトされる(データb′とする)。ステップB′
でデータb′とデータc′の二値化された差分データを
データ領域3に書き込む。データc′およびデータd′
はそのまま保存される。以下1ラウンド目のステップB
およびステップCと同様の処理を行う。
In the second round, the image data 4 sampled after ΔT of the image data 3 in step A '.
Are taken into the data area 3 (data c '). The data e in the data area 2 is shifted to the data area 1 (data d '), and the data c in the data area 3 is shifted to the data area 2 (data b'). Step B '
Then, the binary difference data of the data b'and the data c'is written in the data area 3. Data c'and data d '
Is saved as is. Step B of the first round below
And the same processing as step C is performed.

【0019】3ラウンド目以降は2ラウンド目と同様の
データシフトを行い、サンプリングされた画像データは
常にデータ領域3に入力される。
After the third round, the same data shift as in the second round is performed, and the sampled image data is always input to the data area 3.

【0020】[ラベリング]上記の二値化されたフレー
ム間差分データH(T−ΔT)を用い、ビットの立った
各画素に対して、連結した画素に同一のラベルを施して
独立した各有効領域に対して1つのラベルを与えること
により、抽出された有効領域を独立した領域ごとに分離
する。
[Labeling] Using the binarized inter-frame difference data H (T-ΔT), the same label is applied to the connected pixels for each pixel with a bit, and each independent effective By giving one label to the area, the extracted effective area is separated into independent areas.

【0021】ラベリング処理は二値化された画像データ
を画面の左上からラスター方向に走査し、ビットの立っ
た画素を検出し、この画素をベースとしてベースおよび
ベースに連結した画素に同一ラベルを施す。そしてラス
ター方向への走査により次々とベースを変更して上記の
処理を繰り返えしていく手法である。
In the labeling process, the binarized image data is scanned in the raster direction from the upper left of the screen, a pixel with a bit is detected, and the same label is given to the base and the pixel connected to the base based on this pixel. . Then, the base is changed one after another by scanning in the raster direction, and the above processing is repeated.

【0022】図34〜36はラベリング処理のフローチ
ャートである。図35は図34のステップCのサブルー
チン1の内容であり、図36は図35のステップIのサ
ブルーチン2の内容である。
34 to 36 are flowcharts of the labeling process. 35 shows the contents of the subroutine 1 of the step C of FIG. 34, and FIG. 36 shows the contents of the subroutine 2 of the step I of FIG.

【0023】図34において、1フレームの画素数を2
56×256とする。またフレーム間差分データH(T
−ΔT)は有効領域を“1”として二値化されているも
のとする。ステップAにおいて、XMAX,YMAXは
それぞれx方向、y方向の画素数を示し、ここではいず
れも256が代入される。HIGHは有効領域の値を示
すものであり、ここでは“1”が代入される。変数la
belはラベル番号を示すものであり、初期値として
“1”が代入される。
In FIG. 34, the number of pixels in one frame is 2
56 x 256. In addition, the difference data between frames H (T
It is assumed that −ΔT) is binarized with the effective area being “1”. In step A, XMAX and YMAX indicate the numbers of pixels in the x direction and the y direction, respectively, and 256 is substituted in each case. HIGH indicates the value of the effective area, and "1" is substituted here. Variable la
“bel” indicates a label number, and “1” is substituted as an initial value.

【0024】ステップBにおいて、IMG(X,Y)は
X(0〜XMAX−1の値をとる)およびY(0〜YM
AX−1の値をとる)を変数とし、フレーム間差分デー
タH(T−ΔT)の対応する画素データを読み込んだ2
次元配列である。IMG(X,Y)の各画素をラスター
方向に順次走査し、IMG(X,Y)の値がHIGHで
なければ、ステップEを介してステップBに戻り次の画
素データの処理に移るが、IMG(X,Y)の値がHI
GHの画素が見つかった時点でステップCに進み、図3
5の示すサブルーチン1に進む。
In step B, IMG (X, Y) is X (takes a value of 0 to XMAX-1) and Y (0 to YM).
The pixel data corresponding to the inter-frame difference data H (T-ΔT) is read using the value of AX-1) as a variable.
It is a three-dimensional array. Each pixel of IMG (X, Y) is sequentially scanned in the raster direction, and if the value of IMG (X, Y) is not HIGH, the process returns to step B via step E to process the next pixel data. The value of IMG (X, Y) is HI
When the GH pixel is found, the process proceeds to step C, and FIG.
Go to subroutine 1 indicated by 5.

【0025】図35のステップFでIMG(X,Y)に
labelを代入してラベリングを施し、この画素をベ
ースとする。
In step F of FIG. 35, labeling is performed by substituting label for IMG (X, Y), and this pixel is used as a base.

【0026】ステップGでベースに連結した画素の有無
を示す変数CNTに“0”を代入してリセットし、ステ
ップHにおいて2次元配列IMGをI(0〜XMAX−
1の値をとる)およびJ(0〜YMAX−1の値をと
る)を変数として再度ラスター方向に走査してベースと
同じラベルを持つ画素があればステップIで図36に示
すサブルーチン2に進む。
In step G, the variable CNT indicating the presence or absence of the pixel connected to the base is substituted by "0" and reset, and in step H, the two-dimensional array IMG is set to I (0 to XMAX-).
1)) and J (0-YMAX-1) are used as variables to scan again in the raster direction, and if there is a pixel having the same label as the base, the process proceeds to the subroutine 2 shown in FIG. 36 in step I. .

【0027】図36のステップLでベースと同じラベル
を持つ画素IMG(I,J)の8近傍画素、すなわちM
およびNをそれぞれ−1〜1の値をとる変数としてIM
G(I+M,J+N)の値を調べ、その値がHIGHで
あればステップMでその画素にlabelを代入し、C
NTをインクリメントする(CNT=CNT+1)。
In step L of FIG. 36, 8 neighboring pixels of pixel IMG (I, J) having the same label as the base, that is, M
And IM are variables with values of -1 to 1
The value of G (I + M, J + N) is checked, and if the value is HIGH, label is assigned to that pixel in step M, and C
Increment NT (CNT = CNT + 1).

【0028】8画素のIMG(I+M,J+N)につい
て上記の処理を行った後、ステップNで図35のステッ
プIに戻る。
After the above processing is performed for the IMG (I + M, J + N) of 8 pixels, the process returns to step I of FIG. 35 at step N.

【0029】図35において全てのIMG(I,J)に
ついてステップHおよびIの処理が終了したら、ステッ
プJを介してステップKでCNTの値を調べ、CNT≠
0ならばステップGに戻り、CNTをリセットしてステ
ップHおよびIの処理を繰り返し、CNT=0ならばベ
ースに対してラベリングすべき連結画素が無くなったこ
とを意味するので、図34のステップDに戻る。
In FIG. 35, when the processes of steps H and I have been completed for all IMG (I, J), the value of CNT is checked in step K via step J, and CNT ≠
If it is 0, the process returns to step G, CNT is reset, and the processes of steps H and I are repeated. If CNT = 0, it means that there are no connected pixels to be labeled to the base. Therefore, step D in FIG. Return to.

【0030】図34のステップDでlabelをインク
リメントし(label=label+1)、ステップ
Eを介してステップBに戻り、新たにベースを設定して
ステップCおよびDの処理を繰り返す。
In step D of FIG. 34, label is incremented (label = label + 1), the process returns to step B through step E, a new base is set, and the processes of steps C and D are repeated.

【0031】全てのIMG(X,Y)についてステップ
B〜Dの処理を行い、ラベリング処理を終了する。
The processes of steps B to D are performed for all IMG (X, Y), and the labeling process is completed.

【0032】上記のラベリング処理においては、ベース
設定のための走査とベースに対する連結画素探索のため
の走査(全ラベル数をLとするとL回の走査)、すなわ
ち1+L回の走査が行われる。さらに移動体領域が複雑
な形状をしている場合は1つのべ−スに対する連結画素
探索のための走査が複数回行われる。
In the above labeling process, scanning for base setting and scanning for connecting pixel search to the base (L number of scannings when the total number of labels is L), that is, 1 + L scannings are performed. Further, when the moving body region has a complicated shape, scanning for connecting pixel search for one base is performed plural times.

【0033】図37は移動体領域が複雑な形状をしてい
る場合のラベリング処理の一例を示すものである。図3
7(a)は移動体領域の一例である。Hと記載されてい
る部分が抽出された移動体領域であり、〇印の画素がベ
ースである。このベースに対し、図37(b)〜(e)
に示す4回の走査が必要となる。
FIG. 37 shows an example of the labeling process when the moving body region has a complicated shape. FIG.
7 (a) is an example of the moving body area. The portion described as H is the extracted moving body area, and the pixel marked with a circle is the base. With respect to this base, Figs. 37 (b) to (e)
Four scans shown in are required.

【0034】図38は1つのベースに対する連結画素探
索のための走査回数の説明図である。走査がラスター方
向に行われるため、3画素以上の図38(a)に示す実
線方向の連結(図38(b)の〇印の連結)に対しては
1回の走査でラベリングが可能であるが、3画素以上の
図38(a)に示す破線方向の連結(図38(b)の×
印の連結)に対しては複数回の走査が必要となる。
FIG. 38 is an explanatory diagram of the number of scans for searching a connected pixel for one base. Since the scanning is performed in the raster direction, labeling can be performed by one scanning with respect to the connection of three or more pixels in the solid line direction shown in FIG. 38 (a) (the connection of the circle in FIG. 38 (b)). Is a connection of three or more pixels in the direction of the broken line shown in FIG. 38A (x in FIG. 38B).
Multiple scans are required for the (linking of marks).

【0035】結局ラベルkにおける走査回数をSk (k
=1,2…L)とすると、全走査回数は、 1+(S1 +S2 +…+Sk +…+SL ) となる。
After all, the number of scans at the label k is S k (k
= 1, 2 ... L), the total number of scans is 1+ (S 1 + S 2 + ... + S k + ... + S L ).

【0036】[移動体領域内の移動体個数の判定]ラベ
リングされた各移動体領域内の移動体個数を判定する。
2つの移動体が統合されると(すなわち2つの移動体の
移動体領域が連結すること)、1つの移動体領域として
ラベリングされてしまうためこの判定を行う。
[Determination of Number of Moving Objects in Moving Object Area] The number of moving objects in each labeled moving object area is determined.
When the two moving bodies are integrated (that is, the moving body areas of the two moving bodies are connected), the two moving bodies are labeled as one moving body area, and thus this determination is performed.

【0037】各移動体領域における固体数判定は、各移
動体領域の縦横比(アスペクト比)で判定する。2つの
移動体が横方向(移動方向に対して垂直方向)に統合さ
れた場合には、1つの移動体の場合と比較して、移動体
領域の形状が横長になるからである。縦方向(移動方
向)の統合も考えられるが、対象領域を横方向に長く縦
方向に短い領域に限定すれば縦方向の統合は問題になら
ない。
The number of individuals in each moving body area is determined by the aspect ratio of each moving body area. This is because when two moving bodies are integrated in the horizontal direction (direction perpendicular to the moving direction), the shape of the moving body region becomes horizontally long as compared with the case of one moving body. The vertical direction (moving direction) may be integrated, but if the target region is limited to a region that is long in the horizontal direction and short in the vertical direction, integration in the vertical direction does not pose a problem.

【0038】アスペクト比は次のようにして求める。移
動体領域の移動方向の2本の外接線および移動方向と垂
直方向の2本の外接線によって囲まれる外接矩形を考
え、この外接矩形の移動方向と垂直方向の辺の長さをL
s 、移動方向の辺の長さをLiとして次式によってアス
ペクト比を算出する。
The aspect ratio is obtained as follows. Consider a circumscribing rectangle surrounded by two circumscribing lines in the moving direction of the moving object region and two circumscribing lines in a direction perpendicular to the moving direction, and let L be the length of the side of the circumscribing rectangle in the moving direction and the vertical direction.
The aspect ratio is calculated by the following equation, where s is the length of the side in the moving direction and L i .

【0039】アスペクト比=Ls /Li そしてしきい値t2 を設け、アスペクト比がt2 以上で
あれば個体数は1つと判断し、アスペクト比がt2 未満
であれば個体数は2つと判断する。
Aspect ratio = L s / L i and a threshold value t 2 are provided. If the aspect ratio is t 2 or more, it is determined that the number of individuals is 1, and if the aspect ratio is less than t 2 , the number of individuals is 2. Judge as one.

【0040】[移動体のカウント]最後に各移動体領域
内の移動体をカウントする。
[Counting of Moving Objects] Finally, moving objects in each moving object area are counted.

【0041】[0041]

【発明が解決しようとする課題】しかしながら上記従来
の移動体カウント装置は、入力された画像データをフレ
ーム単位でリアルタイム処理する必要があり、データの
量が膨大であるためCPUの演算処理能力に制限されて
画像データのサンプリング間隔を十分に短くすることが
できないためミスカウントを起こすという問題点があ
り、また移動体領域内の固体数の誤判定によってもミス
カウントを起こすという問題点があるため実用化には至
っていないのが現状である。
However, the above-mentioned conventional moving body counting apparatus is required to process the input image data in real time on a frame-by-frame basis, and since the amount of data is enormous, it is limited to the arithmetic processing capability of the CPU. Therefore, there is a problem that miscounting occurs because the sampling interval of the image data cannot be shortened sufficiently, and there is also a problem that miscounting occurs due to an erroneous determination of the number of solids in the moving body area It is the current situation that it has not been realized.

【0042】本発明はこのような問題点に鑑みてなされ
たものであり、正確なカウントが行える高精度な移動体
カウント装置を提供することを目的とするものである。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a highly accurate moving body counting apparatus capable of performing accurate counting.

【0043】[0043]

【課題を解決するための手段】上記目的を達成するため
に請求項1の移動体カウント装置は、連続するフレーム
画像データを得るデータ入力手段と、当該入力手段より
入力された画像データを記憶する記憶手段と、当該記憶
手段とデータのやりとりをしながら、ポインタシフトに
より前記画像データのフレーム間差分をとることによっ
て移動体領域を抽出し、当該移動体領域にポインタを用
いたグルーピングによるラベリングを施して独立した移
動体領域ごとに分離し、当該ラベリングされた移動体領
域のアスペクト比、面積比および周面比から移動体領域
内の移動体個数を判定することによってフレームごとに
移動体を抽出し、フレーム間で当該移動体の対応付けを
行い、対応のとれなかった移動体を対象領域外に移動し
たものとしてカウントし、当該カウント結果を出力する
演算処理手段とを具備するものである。
In order to achieve the above object, a moving object counting apparatus according to a first aspect of the present invention stores data input means for obtaining continuous frame image data and image data input by the input means. While exchanging data with the storage means and the storage means, a moving object area is extracted by obtaining a difference between frames of the image data by pointer shift, and labeling is performed on the moving object area by grouping using a pointer. And separate each moving body region and extract the moving body for each frame by judging the number of moving bodies in the moving body region from the aspect ratio, area ratio and peripheral surface ratio of the labeled moving body region. , The relevant moving body is associated between frames, and the moving body that does not correspond is regarded as having moved out of the target area. Collected by, those comprising an arithmetic processing means for outputting the count result.

【0044】また請求項2の移動体カウント装置は、連
続するフレーム画像データを得るデータ入力手段と、当
該入力手段より入力された画像データを記憶する記憶手
段と、当該記憶手段とデータのやりとりをしながら、前
記画像データを空間微分し、当該空間微分された画像デ
ータのフレーム間差分をとることによって移動体の特徴
的な部分を抽出し、当該特徴的な部分にラベリングを施
すことによってフレームごとに移動体を抽出し、フレー
ム間で当該移動体の対応付けを行い、対応のとれなかっ
た移動体を対象領域外に移動したものとしてカウント
し、当該カウント結果を出力する演算処理手段とを具備
するものである。
According to a second aspect of the present invention, there is provided a moving object counting apparatus which comprises a data input means for obtaining continuous frame image data, a storage means for storing the image data input by the input means, and data exchange with the storage means. However, the image data is spatially differentiated, a characteristic portion of the moving body is extracted by taking an inter-frame difference of the spatially differentiated image data, and labeling is performed on the characteristic portion for each frame. A moving object is extracted, the moving object is associated with each other between frames, the moving object that does not correspond is counted as having moved out of the target area, and the calculation result is output. To do.

【0045】[0045]

【作用】従って請求項1の移動体カウント装置は、記憶
手段においてデータ入力手段より入力された連続するフ
レーム画像データを記憶し、演算処理手段において、ポ
インタシフトにより前記画像データのフレーム間差分を
とることによって移動体領域を抽出し、当該移動体領域
にポインタを用いたグルーピングによるラベリングを施
して独立した移動体領域ごとに分離し、当該ラベリング
された移動体領域のアスペクト比、面積比および周面比
から移動体領域内の移動体個数を判定することによって
フレームごとに移動体を抽出し、フレーム間で当該移動
体の対応付けを行って対応のとれなかった移動体をカウ
ントし、当該カウント結果を出力するものであり、ポイ
ンタシフトによって記憶手段でデータシフトを行わずに
フレーム間差分をとり、ポインタを用いたグルーピング
によるラベリングを行ってラベリング時の走査回数を減
らすことによって移動体領域抽出処理およびラベリング
処理を高速化し、また移動体領域内の移動体個数の判定
において判定項目を複数化し、さらにフレーム間で該移
動体の対応付けを行うことによって、移動体の個数を正
確にカウントすることができる。
Therefore, in the moving object counting apparatus according to the first aspect of the present invention, the storage means stores the continuous frame image data inputted from the data input means, and the arithmetic processing means obtains the inter-frame difference of the image data by pointer shift. By extracting the moving body area by this, labeling is performed on the moving body area by grouping using a pointer to separate each moving body area, and the aspect ratio, area ratio and peripheral surface of the labeled moving body area are separated. The moving objects are extracted for each frame by determining the number of moving objects in the moving object region from the ratio, the moving objects are associated between frames, and the unmoving moving objects are counted. Is output, and the interframe difference is calculated by the pointer shift without data shift in the storage means. By speeding up the moving body area extraction processing and labeling processing by performing the labeling by grouping using the pointer and reducing the number of scanning at the time of labeling, there are multiple judgment items when judging the number of moving bodies in the moving body area. Further, by associating the moving bodies between frames, the number of moving bodies can be accurately counted.

【0046】また請求項2の移動体カウント装置は、記
憶手段においてデータ入力手段より入力された連続する
フレーム画像データを記憶し、演算処理手段において、
前記画像データを空間微分し、当該空間微分された画像
データのフレーム間差分をとることによって移動体の特
徴的な部分を抽出し、当該特徴的な部分にラベリングを
施すことによってフレームごとに移動体を抽出し、フレ
ーム間で当該移動体の対応付けを行って対応のとれなか
った移動体をカウントし、当該カウント結果を出力する
ものであり、画像データを空間微分して移動体の特徴的
な部分を抽出し、当該特徴的な部分のフレーム間での対
応付けを行うことによって、移動体の個数を正確にカウ
ントすることができる。
According to a second aspect of the present invention, in the mobile object counting device, the storage means stores the continuous frame image data input from the data input means, and the arithmetic processing means:
The image data is spatially differentiated, a characteristic part of the moving body is extracted by taking a difference between frames of the spatially differentiated image data, and the moving body is frame-by-frame by labeling the characteristic portion. Is extracted, and the moving bodies are associated with each other between frames, and the moving bodies that cannot be matched are counted, and the count result is output. By extracting a portion and associating the characteristic portion between frames, the number of moving bodies can be accurately counted.

【0047】[0047]

【実施例】本発明の第一実施例について以下に説明す
る。図1は本第一実施例の構成を示すブロック図であ
る。
EXAMPLE A first example of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of the first embodiment.

【0048】図1において、1は移動体を撮像し、アナ
ログ画像データを出力するCCDカメラである。図2は
CCDカメラ1の設置図であり、CCDカメラ1は天井
から真下方向に設置される。
In FIG. 1, reference numeral 1 is a CCD camera for picking up an image of a moving body and outputting analog image data. FIG. 2 is an installation diagram of the CCD camera 1, and the CCD camera 1 is installed right below the ceiling.

【0049】図1において、2は前記アナログ画像デー
タをディジタル画像データに変換するA/Dコンバータ
であり、3は当該ディジタル画像データを出力先を選択
して出力するディジタルスイッチである。CCDカメラ
1、A/Dコンバータ2およびディジタルスイッチ3は
データ入力手段10を構成している。
In FIG. 1, 2 is an A / D converter for converting the analog image data into digital image data, and 3 is a digital switch for outputting the digital image data by selecting an output destination. The CCD camera 1, the A / D converter 2 and the digital switch 3 constitute data input means 10.

【0050】4、5、6はディジタルスイッチ3より入
力されたディジタル画像データまたは後述するCPU8
で画像処理されたデータを記憶するフレームメモリーで
あり、7は後述するCPU8で演算処理されたデータを
記憶するデータメモリーである。フレームメモリー4、
5、6およびデータメモリー7は記憶手段11を構成し
ている。
4, 5 and 6 are digital image data input from the digital switch 3 or a CPU 8 which will be described later.
Reference numeral 7 is a frame memory for storing the image-processed data, and 7 is a data memory for storing the data processed by the CPU 8 described later. Frame memory 4,
5, 6 and the data memory 7 constitute a storage means 11.

【0051】8はフレームメモリー4、5、6から読み
出したディジタル画像データに画像処理を施し、種々の
演算処理を行うことにより移動体をカウントするCPU
であり、9はCPU8における処理プログラムを記憶し
ているプログラムメモリーである。CPU8およびプロ
グラムメモリー9は演算処理手段12を構成している。
A CPU 8 counts the number of moving objects by subjecting the digital image data read from the frame memories 4, 5 and 6 to image processing and various arithmetic processing.
And 9 is a program memory that stores a processing program in the CPU 8. The CPU 8 and the program memory 9 constitute the arithmetic processing means 12.

【0052】本第一実施例の動作は以下のように7ステ
ップに分けることができる。
The operation of the first embodiment can be divided into 7 steps as follows.

【0053】[STEP1 画像データの入力] [STEP2 フレーム間差分による移動体の抽出] [STEP3 ラベリング] [STEP4 移動体領域の判定] [STEP5 移動体領域内の移動体個数判定] [STEP6 対応付けおよびカウント] [STEP7 カウント結果の出力] ここでSTEP2〜7はCPU8による画像処理および
演算処理によるものであり、CPU8とフレームメモリ
ー4、5、6およびデータメモリー7とのやりとりによ
るものである。
[STEP1 Input of image data] [STEP2 Extraction of moving body by difference between frames] [STEP3 Labeling] [STEP4 Judgment of moving body area] [STEP5 Judgment of number of moving body in moving body area] [STEP6 Correlation and Count] [STEP 7 Output of Count Result] Here, STEPs 2 to 7 are based on image processing and arithmetic processing by the CPU 8, and are based on interactions between the CPU 8 and the frame memories 4, 5, 6 and the data memory 7.

【0054】従って動作説明は各ステップに沿って行う
こととし、最後にフレームメモリー4、5、6における
データシフトについて説明する。
Therefore, the operation will be described along with each step, and finally the data shift in the frame memories 4, 5, and 6 will be described.

【0055】[STEP1 画像データの入力]CC
Dカメラ1より入力されたアナログ画像データをA/D
コンバータ2でディジタル画像データにA/D変換し、
当該ディジタル画像データを1フレーム分を単位とし
て、ディジタルスイッチ3で出力先を切り換えてフレー
ムメモリー4、5、6に入力する。
[STEP1 Input of image data] CC
Analog image data input from D camera 1 is A / D
A / D conversion to digital image data by the converter 2,
The digital image data is input to the frame memories 4, 5 and 6 by switching the output destination with the digital switch 3 in units of one frame.

【0056】[STEP2 フレーム間差分による移
動体の抽出]連続して入力される3フレーム分の画像デ
ータをF(T−2ΔT)、F(T−ΔT)、F(T)と
する。ここでΔTは画像データのサンプリング間隔であ
り、T−2ΔT、T−ΔT、Tはサンプリング時刻を表
す。
[STEP2 Extraction of Moving Object by Difference between Frames] Image data for three frames that are continuously input are F (T-2ΔT), F (T-ΔT), and F (T). Here, ΔT is a sampling interval of image data, and T−2ΔT, T−ΔT, and T represent sampling times.

【0057】F(T−2ΔT)とF(T−ΔT)の差分
およびF(T−ΔT)とF(T)の差分を各画素ごとに
算出し、当該差分をしきい値t1 によって二値化する。
The difference between F (T-2ΔT) and F (T-ΔT) and the difference between F (T-ΔT) and F (T) are calculated for each pixel, and the difference is calculated by the threshold value t 1 . Quantify.

【0058】二値化された差分データをそれぞれFb
(T−2ΔT,T−ΔT)、Fb(T−ΔT,T)とす
ると、 Fb(T−2ΔT,T−ΔT)=[|F(T−2ΔT)
−F(T−ΔT)|]t1 Fb(T−ΔT,T)=[|F(T−ΔT)−F(T)
|]t1 である。ここで[ ]t1 は[ ]内の値がt以上であ
れば“1”とし、t1 未満であれば“0”とする二値化
演算を示す。
Each of the binarized difference data is Fb.
If (T-2ΔT, T-ΔT) and Fb (T-ΔT, T), then Fb (T-2ΔT, T-ΔT) = [| F (T-2ΔT)
−F (T−ΔT) |] t 1 Fb (T−ΔT, T) = [| F (T−ΔT) −F (T)
|] T 1 . Here, [] t 1 indicates a binarization operation in which if the value in [] is t or more, it is set to “1”, and if it is less than t 1, it is set to “0”.

【0059】次に移動体の二重化を消去するためにFb
(T−2ΔT、T−ΔT)とFb(T−ΔT、T)の論
理積を求め、これを時刻T−ΔTにおけるフレーム間差
分データH(T−ΔT)とする。
Next, in order to eliminate the duplication of the mobile unit, Fb
The logical product of (T-2 [Delta] T, T- [Delta] T) and Fb (T- [Delta] T, T) is obtained, and this is set as interframe difference data H (T- [Delta] T) at time T- [Delta] T.

【0060】H(T−ΔT)=Fb(T−2ΔT、T−
ΔT)*Fb(T−ΔT、T) ここで*は論理積演算を示す。
H (T-ΔT) = Fb (T-2ΔT, T-
ΔT) * Fb (T−ΔT, T) Here, * indicates a logical product operation.

【0061】以上の処理によって背景領域は除去され、
H(T−ΔT)のビットの立った領域が移動体領域とし
て抽出されるが、実際にはノイズ領域も含まれるため、
ここで抽出された領域を有効領域と称することにする。
By the above processing, the background area is removed,
An area with a bit of H (T-ΔT) is extracted as a moving body area, but in reality, a noise area is also included.
The area extracted here will be referred to as an effective area.

【0062】さらにノイズの除去、メモリー容量の減少
化を目的として、フレーム間差分データH(T−ΔT)
に以下に示すブロック化を施す。H(T−ΔT)をn×
n画素の小領域すなわちブロックを単位としてM×Nブ
ロックに分割し、しきい値t2 を設ける。ブロック内の
n×n画素のうちビットが立っている画素数(データが
“1”である画素数)をkとして、k>t2 ならば有効
領域としてそのブロックのデータを“1”とし、k≦t
2 ならばノイズ領域としてそのブロック内のデータを
“0”とする。ブロック化を施したH(T−ΔT)をB
(T−ΔT)とすると、 B(T−ΔT)=《H(T−ΔT)》t2 =《Fb(T−2ΔT、T−ΔT)*Fb(T−ΔT、
T)》t2 ここで、《 》t2 は《 》内の二値化された画像デー
タのしきい値t2 によるブロック化演算処理を示してい
る。またB(T−ΔT)の全ブロック数M×Nすなわち
全画素数はH(T−ΔT)の全画素数の1/n2 とな
る。
Further, for the purpose of removing noise and reducing memory capacity, inter-frame difference data H (T-ΔT)
Is subjected to the following blocking. H (T−ΔT) is n ×
A small region of n pixels, that is, a block is divided into M × N blocks, and a threshold value t 2 is set. Let k be the number of pixels in which bits are set out of the n × n pixels in the block (the number of pixels whose data is “1”), and if k> t 2 , set the data of that block as “1” as an effective area, k ≦ t
If it is 2 , the data in the block is set to "0" as a noise area. Blocked H (T-ΔT) is B
Assuming that (T−ΔT), B (T−ΔT) = << H (T−ΔT) >> t 2 = << Fb (T−2ΔT, T−ΔT) * Fb (T−ΔT,
T) >> t 2 Here, <<>> t 2 indicates a blocking calculation process by the threshold value t 2 of the binarized image data in <<>>. Further, the total number of blocks of B (T-ΔT) M × N, that is, the total number of pixels is 1 / n 2 of the total number of pixels of H (T-ΔT).

【0063】図3は以上のフレーム間差分による移動体
抽出の説明図である。図3においてデータa、b、cは
それぞれ上記の入力画像データF(T−2ΔT)、F
(T−ΔT)、F(T)に対応し、データd、eは上記
の二値化された差分データFb(T−2ΔT、T−Δ
T)、Fb(T−ΔT、T)に対応する。データfは上
記のB(T−ΔT)に対応する。
FIG. 3 is an explanatory diagram of the moving body extraction based on the above-mentioned difference between frames. In FIG. 3, data a, b, and c are the above-mentioned input image data F (T-2ΔT), F, respectively.
Corresponding to (T-ΔT) and F (T), and the data d and e are the above-described binarized difference data Fb (T-2ΔT, T-Δ.
T) and Fb (T-ΔT, T). The data f corresponds to the above B (T-ΔT).

【0064】[STEP3 ラベリング]上記のブロ
ック化されたフレーム間差分データB(T−ΔT)を用
い、ビットの立った各画素に対して、連結した画素に同
一のラベルを施して独立した各有効領域に対して1つの
ラベルを与えることにより、抽出された有効領域を独立
した領域ごとに分離する。
[STEP3 Labeling] Using the above-described blocked inter-frame difference data B (T-ΔT), the same label is given to the connected pixels for each pixel having a bit, and each independent effective By giving one label to the area, the extracted effective area is separated into independent areas.

【0065】ラベリング処理は一回目走査、グルーピン
グ、二回目走査の3つの処理に分かれる。一回目走査で
は二値化されたデータを画面の左上からラスター方向に
走査し、ビットの立った画素を検出してラベリングし
(ベースとする)、その後の走査でビットの立った画素
を検出したら、ベースに連結しているか否かを調べ、連
結していればベースと同一ラベルを施し、連結していな
ければ異なるラベルを施し新たなベースとする。上記の
処理だけでは連結した全ての画素に同一ラベルを施すこ
とができないため、同時に異なるラベル間が連結してい
るか、独立しているかの関連付けを行う。
The labeling process is divided into three processes of the first scanning, the grouping and the second scanning. In the first scan, scan the binarized data in the raster direction from the upper left of the screen, detect the pixels with a bit set and label (base), and if the pixel with a bit set is detected in the subsequent scan, , It is checked whether or not it is connected to the base, and if it is connected, the same label as the base is given, and if not connected, a different label is given to make a new base. Since it is not possible to apply the same label to all the connected pixels only by the above processing, it is associated with whether different labels are connected or independent at the same time.

【0066】グルーピングは上記の2ラベル間の関連付
けに基づいて、同一ラベルとすべき複数のラベルを1つ
のグループにまとめる処理である。
Grouping is a process of grouping a plurality of labels that should be the same label into one group based on the above-mentioned association between the two labels.

【0067】二回目走査では上記のグルーピングに従っ
てラベル値の変更を行う。
In the second scan, the label value is changed according to the above grouping.

【0068】図4〜6はラベリング処理のフローチャー
トである。図4は一回目走査の処理を示し、図5は二回
目走査の処理を示すものである。また図6は図5のステ
ップIのサブルーチンの内容であり、グルーピング処理
を示すものである。
4 to 6 are flowcharts of the labeling process. FIG. 4 shows the processing of the first scanning, and FIG. 5 shows the processing of the second scanning. Further, FIG. 6 shows the contents of the subroutine of step I of FIG. 5 and shows the grouping processing.

【0069】図4において、1フレームの画素数を25
6×256とする。またフレーム間差分データB(T−
ΔT)は有効領域を“1”として二値化されているもの
とする。ステップAにおいて、XMAX,YMAXはそ
れぞれx方向、y方向の画素数を示し、ここではいずれ
も256が代入される。HIGHは有効領域の値を示す
ものであり、ここでは“1”が代入される。変数lab
elはラベル番号を示すものであり、初期値として
“0”が代入される。LK(L1,L2)はラベル番号
を示すL1およびL2を変数とする2次元配列であり、
初期値として“0”が代入される。L1とL2が連結し
ている時は、LK(L1,L2)は“1”となる。
In FIG. 4, the number of pixels in one frame is set to 25.
The size is 6 × 256. In addition, the inter-frame difference data B (T-
ΔT) is binarized with the effective area being “1”. In step A, XMAX and YMAX indicate the numbers of pixels in the x direction and the y direction, respectively, and 256 is substituted in each case. HIGH indicates the value of the effective area, and "1" is substituted here. Variable lab
el indicates a label number, and "0" is substituted as an initial value. LK (L1, L2) is a two-dimensional array having L1 and L2 indicating label numbers as variables,
"0" is substituted as the initial value. When L1 and L2 are connected, LK (L1, L2) becomes "1".

【0070】ステップBにおいて、IMG(X,Y)は
X(0〜XMAX−1の値をとる)およびY(0〜YM
AX−1の値をとる)を変数とし、フレーム間差分デー
タB(T−ΔT)の対応する画素データを読み込んだ2
次元配列である。このIMG(X,Y)のラスター方向
走査に順次走査し、IMG(X,Y)の値がHIGHで
なければ、ステップGを介してステップBに戻り次の画
素データの処理に移るが、IMG(X,Y)の値がHI
GHのときはステップCに進む。
In step B, IMG (X, Y) is X (takes a value of 0 to XMAX-1) and Y (0 to YM).
The pixel data corresponding to the inter-frame difference data B (T-ΔT) is read in 2).
It is a three-dimensional array. This IMG (X, Y) is sequentially scanned in the raster direction, and if the value of IMG (X, Y) is not HIGH, the process returns to step B via step G to move to the processing of the next pixel data. The value of (X, Y) is HI
If it is GH, go to step C.

【0071】ステップCで図7に示すIMG(X,Y)
の4方向データすなわちIMG(X−1,Y)、IMG
(X−1,Y−1)、IMG(X,Y−1)、IMG
(X+1,Y−1)の値が全て“0”であれば、ステッ
プDでlabelをインクリメントし(label=l
abel+1)、IMG(X,Y)にlabelを代入
した後、ステップGを介してステップBに戻り次の画素
データの処理に移る。
In step C, IMG (X, Y) shown in FIG.
4-direction data of IMG (X-1, Y), IMG
(X-1, Y-1), IMG (X, Y-1), IMG
If all the values of (X + 1, Y-1) are "0", the label is incremented in step D (label = l
abel + 1) and IMG (X, Y) are substituted for label, and then the process returns to step B via step G to process the next pixel data.

【0072】ステップCで4方向データのいずれかの値
が“0”でなければ、ステップEで4方向データを時計
回りに調べ、最初に見つかった“0”以外のデータすな
わちラベルをIMG(X,Y)に代入し、ステップFで
4方向データにおいて最初に見つかったラベルと異なる
値のラベルが存在する場合は、両ラベルをL1およびL
2としてLK(L1,L2)=1とした後、ステップG
を介してステップBに戻り次の画素データの処理に移
る。
If any value of the four-direction data is not "0" in step C, the four-direction data is checked clockwise in step E, and the first data other than "0", that is, the label, is IMG (X). , Y), and if there is a label having a value different from the label first found in the four-direction data in step F, both labels are L1 and L.
After setting LK (L1, L2) = 1 as 2, then step G
Then, the process returns to step B via to move to the processing of the next pixel data.

【0073】図8は本第一実施例のラベリング処理の過
程における画像データの状態を示すものである。図8
(a)はラベリング以前の有効領域を示す画像データで
あり、図8(b)は一回目走査後の画像データ、図8
(c)は二回目走査後の画像データをそれぞれ示す。図
8(a)において“1”が記載されている部分が有効領
域である。図8(a)は一回目走査によって図8(b)
に示すようにラベル1〜4にラベリングされる。図8
(b)の○印はベースを示す。
FIG. 8 shows the state of image data in the process of the labeling process of the first embodiment. FIG.
8A is image data showing an effective area before labeling, FIG. 8B is image data after the first scanning, and FIG.
(C) shows the image data after the second scanning. In FIG. 8A, the part in which "1" is described is the effective area. FIG. 8A shows the result of the first scanning as shown in FIG.
Labels 1 to 4 as shown in FIG. FIG.
The circle mark in (b) indicates the base.

【0074】上記の処理をB(T−ΔT)の全ての画素
について行い、図5のステップHで最大ラベル数を示す
変数Nにlabelを代入して一回目走査を終了し、ス
テップIで図6に示すサブルーチンに進みグルーピング
を行う。
The above processing is performed for all the pixels of B (T-ΔT), the label N is assigned to the variable N indicating the maximum number of labels in step H of FIG. The subroutine shown in 6 is executed to perform grouping.

【0075】図6のステップMにおいて、kは1〜Nの
値をとるグルーピング前のラベル値を示す変数であり、
q(k′)はラベルkのグルーピング後のラベル値が入
る1次元配列(変数k′は0〜Nの値をとる)、p
(k)はq(k′)のアドレスを入れるポインタ配列で
ある。初期設定としてq(0)=0、p(k)=&q
(0)とする。ここで&はアドレス値を示す記号であ
り、&q(0)はq(0)のアドレス値を示す。この初
期設定はグルーピング前の全てのラベルはアドレス値&
q(0)のデータすなわち“0”に変換されるという設
定である。
In step M of FIG. 6, k is a variable indicating a label value before grouping which takes a value of 1 to N,
q (k ') is a one-dimensional array in which the label values after the grouping of the label k are entered (the variable k'has a value of 0 to N), p
(K) is a pointer array into which the address of q (k ') is inserted. Q (0) = 0, p (k) = & q as initial settings
(0). Here, & is a symbol indicating an address value, and & q (0) indicates an address value of q (0). With this initial setting, all labels before grouping are address values &
The setting is that data of q (0), that is, "0" is converted.

【0076】ステップNでL1=1〜N−1、L2=2
〜N、L1<L2であるL1およびL2に対してLK
(L1,L2)を調べ、LK(L1,L2)=1でなけ
ればステップVに進み、LK(L1,L2)=1であれ
ばステップOに進む。
At step N, L1 = 1 to N-1, L2 = 2
~ N, LK for L1 and L2 where L1 <L2
(L1, L2) is checked, and if LK (L1, L2) = 1 is not satisfied, the process proceeds to step V, and if LK (L1, L2) = 1, proceeds to step O.

【0077】ステップOにおいて*p(L1)はポイン
タp(L1)の示すアドレス値に入っているデータ値を
示す記号であり、例えばp(3)=&q(3)、q
(3)=1ならば、*p(3)=1であり、これはラベ
ル3はラベル1に変換されることを示している。
In step O, * p (L1) is a symbol indicating the data value contained in the address value indicated by the pointer p (L1). For example, p (3) = & q (3), q.
If (3) = 1, then * p (3) = 1, which indicates that label 3 is converted to label 1.

【0078】*p(L1)=*p(L2)=0であれ
ば、ステップPで q(L1)=L1 p(L1)=&q(L1) p(L2)=&q(L1) としてステップVに進み、*p(L1)=*p(L2)
=0でなければステップQに進む。
If * p (L1) = * p (L2) = 0, in step P, q (L1) = L1 p (L1) = & q (L1) p (L2) = & q (L1) And proceed to * p (L1) = * p (L2)
If not = 0, go to step Q.

【0079】ステップQで*p(L1)=0かつ*p
(L2)≠0であれば、ステップRで p(L1)=p(L2) としてステップVに進み、*p(L1)=0かつ*p
(L2)≠0でなければステップSに進む。
In step Q, * p (L1) = 0 and * p
If (L2) ≠ 0, in step R, p (L1) = p (L2) is set, and the process proceeds to step V. * p (L1) = 0 and * p
If (L2) ≠ 0, the process proceeds to step S.

【0080】ステップSで*p(L1)≠0かつ*p
(L2)=0であれば、ステップTで p(L2)=p(L1) としてステップVに進み、*p(L1)≠0かつ*p
(L2)=0でなければステップUで MAX[*p(L1),*p(L2)] =MIN[*p(L1),*p(L2)] としてステップVに進む。ここでMAX[ ]=MIN
[ ]は[ ]内の小さい方の変数の値を大きい方の変
数に代入する処理である。
In step S, * p (L1) ≠ 0 and * p
If (L2) = 0, then in step T, p (L2) = p (L1) is set and the operation proceeds to step V. * p (L1) ≠ 0 and * p
If (L2) = 0 is not satisfied, in step U, MAX [* p (L1), * p (L2)] = MIN [* p (L1), * p (L2)] and the process proceeds to step V. Where MAX [] = MIN
[] Is a process of substituting the value of the smaller variable in [] for the larger variable.

【0081】ステップVを介して次のLK(L1,L
2)の処理を行い、全てのLK(L1,L2)の処理が
終了したら、図5のステップIに戻る。
Through step V, the next LK (L1, L
When the process of 2) is performed and the processes of all LKs (L1, L2) are completed, the process returns to step I of FIG.

【0082】以上でグルーピング処理を終了する。With that, the grouping process is completed.

【0083】次に上記のグルーピング処理の一例を図6
および図9〜11を参照しながら説明する。一回目走査
で以下のような関連付けデータが得られているものとす
る。
Next, an example of the above grouping process is shown in FIG.
Also, description will be made with reference to FIGS. Assume that the following association data has been obtained in the first scan.

【0084】data1:LK(2,7)=1 data2:LK(3,4)=1 data3:LK(3,6)=1 data4:LK(6,7)=1 この場合ラベル2からラベル4への関連付けは2→7→
6→3→4(data1→data4→data3→d
ata2)により始めて解る。このような複雑に絡み合
った関連付けを持つものを回り込んだ2データ間の関連
付けと言う。
Data1: LK (2,7) = 1 data2: LK (3,4) = 1 data3: LK (3,6) = 1 data4: LK (6,7) = 1 In this case, label 2 to label 4 Is associated with 2 → 7 →
6 → 3 → 4 (data1 → data4 → data3 → d
First understood by ata2). It is called an association between two data that wraps around such an intricately intertwined association.

【0085】図9は上記データによるポインタ配列p
(k)および配列q(k′)の初期設定の状態を示すも
のであり、図10、11はdata1〜data4を順
に参照した場合のグルーピング処理の過程を示すもので
ある。
FIG. 9 shows a pointer array p based on the above data.
(K) and the array q (k ') are shown in the initial setting state, and FIGS. 10 and 11 show the process of grouping processing when data1 to data4 are referred to in order.

【0086】図10において、初期設定によって*p
(2)=*p(7)=q(0)=0なので、data1
の処理でq(2)=2、p(2)=&q(2)、p
(7)=&q(2)とする。次に*p(3)=*p
(4)=q(0)=0なので、data2の処理でq
(3)=3、p(3)=&q(3)、p(4)=&q
(3)とする。
In FIG. 10, * p is set by the initial setting.
(2) = * p (7) = q (0) = 0, so data1
Q (2) = 2, p (2) = & q (2), p
(7) = & q (2). Next, * p (3) = * p
Since (4) = q (0) = 0, q in the processing of data2
(3) = 3, p (3) = & q (3), p (4) = & q
(3).

【0087】図11において、*p(3)=q(3)=
3(≠0)、*p(6)=q(0)=0なので、dat
a3の処理でp(6)=&q(3)とする。最後に*p
(6)=q(3)=3(≠0)、*p(7)=q(2)
=2(≠0)なので、data4の処理でq(3)=2
とする。
In FIG. 11, * p (3) = q (3) =
3 (≠ 0), * p (6) = q (0) = 0, so dat
In the processing of a3, p (6) = & q (3). Finally * p
(6) = q (3) = 3 (≠ 0), * p (7) = q (2)
= 2 (≠ 0), q (3) = 2 in the processing of data4
And

【0088】結局*p(2)=*p(3)=*p(4)
=*p(6)=*p(7)=2となり、data3の処
理の段階で別々にグルーピングされていた2つのグルー
プ、すなわち&q(2)の入っているp(2)、p
(7)のグループと&q(3)の入っているp(3)、
p(4)、p(6)のグループがdata4の処理で、
q(3)=q(2)とすることによって一つに統合され
る。
After all, * p (2) = * p (3) = * p (4)
= * P (6) = * p (7) = 2, and two groups that were grouped separately at the processing stage of data3, that is, p (2) and p containing & q (2)
The group of (7) and p (3) containing & q (3),
The group of p (4) and p (6) is the processing of data4,
It is unified by setting q (3) = q (2).

【0089】最後にグルーピング処理の結果に基づいて
二回目走査を行う。図5において、ステップJで一回目
走査によってラベリングが施された画像データをラスタ
ー方向に走査し、IMG(X,Y)≠0となるとなる画
素について*p(IMG(X,Y))を調べ、*p(I
MG(X,Y))=0ならばステップLを介してステッ
プJに戻って次の画素の処理に移り、*p(IMG
(X,Y))≠0ならばステップKで、 IMG(X,Y)=*p(IMG(X,Y)) としてグルーピング後のラベル値を代入した後、ステッ
プLに進む。
Finally, the second scan is performed based on the result of the grouping process. In FIG. 5, in step J, the image data labeled by the first scan is scanned in the raster direction, and * p (IMG (X, Y)) is checked for the pixel for which IMG (X, Y) ≠ 0. , * P (I
If MG (X, Y) = 0, return to step J via step L to move to the processing of the next pixel, * p (IMG
If (X, Y)) ≠ 0, in step K, the label value after grouping is substituted as IMG (X, Y) = * p (IMG (X, Y)), and the process proceeds to step L.

【0090】そして全ての画素について上記の処理を行
い、二回目走査を終了する。このような二回目走査によ
って、図8(b)に示す一回目走査でラベリングされた
画像データは図8(c)に示すように変換される。
Then, the above processing is performed for all the pixels, and the second scanning is completed. By such second scanning, the image data labeled in the first scanning shown in FIG. 8B is converted as shown in FIG. 8C.

【0091】[STEP4 移動体領域の判定]移動
体領域の判定は上記のラベリングを施されたフレーム間
差分データB(T−ΔT)を用いて行う。CCDカメラ
1と移動体との距離および移動体の大きさを考慮して、
判定基準となる領域面積すなわち画素数を示すしきい値
4 を設け、ラベリングされた有効領域の有する面積す
なわち画素数がt4 以上であれば移動体領域と判定さ
れ、t4 未満であればノイズ領域として除去する。
[STEP4 Judgment of Mobile Object Area] The judgment of the mobile object area is performed using the above-mentioned labeled inter-frame difference data B (T-ΔT). Considering the distance between the CCD camera 1 and the moving body and the size of the moving body,
A threshold t 4 indicating the area area, that is, the number of pixels, which serves as a criterion, is provided. If the area of the labeled effective area, that is, the number of pixels is t 4 or more, it is determined as a moving body area, and if it is less than t 4 , Remove as a noise area.

【0092】図12は移動体領域の判定の説明図であ
る。図12において、ラベル1、ラベル2、ラベル3お
よびしきい値t4 は面積で示してある。ラベル1および
ラベル2の有効領域面積はそれぞれt4 以上であるの
で、移動体領域と判定されるが、ラベル3の有効領域面
積はt4 より小さいので、ノイズ領域として除去され
る。したがって、移動体領域は2つと判定される。
FIG. 12 is an explanatory diagram of the determination of the moving body area. In FIG. 12, the label 1, the label 2, the label 3 and the threshold value t 4 are shown by the area. Since the effective area area of each of the label 1 and the label 2 is t 4 or more, the area is determined to be a moving body area, but the effective area area of the label 3 is smaller than t 4 and is removed as a noise area. Therefore, it is determined that there are two moving body areas.

【0093】最後に移動体領域の個数をn個とし、ラベ
ルの値をLk (k=1,2…n)とすると、Lk が1〜
nの値をとるように各移動体領域のラベル値を変換す
る。例えば、移動体領域が4つあり、そのラベル値が
1、3、4、6である場合は各移動体領域のラベル値を
1、2、3、4とする。
Finally, assuming that the number of moving body regions is n and the label value is L k (k = 1, 2 ... n), L k is 1 to
The label value of each moving body region is converted to take the value of n. For example, when there are four moving body areas and their label values are 1, 3, 4, and 6, the label values of the respective moving body areas are 1, 2, 3, and 4.

【0094】[STEP5 移動体領域内の移動体個
数判定]ノイズ領域を除去されたフレーム間差分データ
B(T−ΔT)から個々の移動体領域の特徴量となるア
スペクト比、面積比、周面比を算出し、当該算出値と設
けたしきい値を各特徴量ごとに比較することによって、
移動体領域内の移動体個数を判定する。
[STEP5 Judgment of Number of Moving Objects in Moving Object Area] From frame difference data B (T-ΔT) from which the noise area is removed, aspect ratios, area ratios, and peripheral surfaces which are characteristic amounts of individual moving object areas. By calculating the ratio and comparing the calculated value and the threshold value provided for each feature amount,
The number of moving bodies in the moving body area is determined.

【0095】各特徴量は以下の算式によって求める。移
動体の設定移動方向に引かれた移動体領域の2本の外接
線と移動体の設定移動方向に垂直な方向に引かれた移動
体領域の2本の外接線によって囲まれる領域を外接矩形
とし、Lsを設定移動方向の外接矩形の辺の長さ、Li
を設定移動方向と垂直方向の外接矩形の辺の長さとする
と、 アスペクト比As=Ls/Li 面積比Mn=(移動体領域の面積)/(外接矩形の面
積)(≦1) 周面比Su=(移動体領域の周囲長)2 /(移動体領域
の面積) 面積比によって固体数を判定する理由は、移動体が設定
移動方向に対して斜めに移動している場合は上記のアス
ペクト比では固体数が2個でも1に近い値となり誤判定
を生じる。しかし2つの移動体が設定移動方向に対して
斜めに移動している場合は設定移動方向に移動している
場合に比較して外接矩形の面積が大きくなり、結果とし
て面積比が小さくなるからである。
Each feature amount is obtained by the following formula. A region circumscribed by two circumscribed lines of the moving body region drawn in the set moving direction of the moving body and two circumscribed lines of the moving body region drawn in the direction perpendicular to the set moving direction of the moving body And Ls is the length of the side of the circumscribed rectangle in the set movement direction, Li
Where A is the length of the side of the circumscribed rectangle in the direction perpendicular to the set movement direction: Aspect ratio As = Ls / Li Area ratio Mn = (area of moving body area) / (area of circumscribed rectangle) (≦ 1) Peripheral surface ratio Su = (Perimeter of moving body area) 2 / (area of moving body area) The reason for determining the number of solids by the area ratio is that the aspect ratio is the above when the moving body moves diagonally with respect to the set moving direction. In this case, even if the number of individuals is two, the value becomes close to 1, and an erroneous determination occurs. However, when the two moving bodies move diagonally with respect to the set movement direction, the area of the circumscribing rectangle becomes larger than when moving in the set movement direction, and as a result, the area ratio becomes smaller. is there.

【0096】また周面比によって固体数を判定する理由
は、影やノイズ部分を伴う固体数2の移動体領域におい
ては上記のアスペクト比および面積比では誤判定を生じ
るが、2つの移動体が統合した移動体領域においては接
触部分で領域に凹部が生じて固体数1の場合に比較して
移動体領域の面積に対する周囲長すなわち周面比が大き
くなるからである。
The reason for determining the number of solids based on the peripheral surface ratio is that the above-mentioned aspect ratio and area ratio result in an erroneous determination in the moving body region of the number of solids 2 with shadows and noise portions. This is because, in the integrated moving body region, a concave portion is formed in the region at the contact portion, and the peripheral length with respect to the area of the moving body region, that is, the peripheral surface ratio becomes larger than in the case where the number of solids is one.

【0097】図13は移動体領域内の移動体個数判定処
理のフローチャートである。図13において、ステップ
Aでアスペクト比Asを算出し、ステップBでAsとア
スペクト比しきい値を比較し、Asがしきい値以下であ
ればステップHでこの移動体領域内の移動体個数は2つ
であると判定され、Asがしきい値より大きければステ
ップDに進む。
FIG. 13 is a flowchart of the processing for determining the number of moving bodies in the moving body area. In FIG. 13, the aspect ratio As is calculated in step A, As is compared with the aspect ratio threshold value in step B, and if As is less than or equal to the threshold value, in step H the number of moving bodies in this moving body region is calculated. If it is determined that the number is two and As is larger than the threshold value, the process proceeds to step D.

【0098】ステップCで面積比Mnを算出し、ステッ
プDでMnと面積比しきい値を比較し、Mnがしきい値
以下であればステップHでこの移動体領域内の移動体個
数は2つであると判定され、Asがしきい値より大きけ
ればステップEに進む。
The area ratio Mn is calculated in step C, the area ratio threshold is compared with Mn in step D, and if Mn is less than the threshold value, the number of moving bodies in this moving body region is 2 in step H. If As is larger than the threshold value, the process proceeds to step E.

【0099】ステップEで周面比Suを算出し、ステッ
プFでSuと周面比しきい値を比較し、Suがしきい値
より大きければステップHでこの移動体領域内の移動体
個数は2つであると判定され、Suがしきい値以下であ
ればステップGでこの移動体領域内の移動体個数は1つ
であると判定される。
In step E, the peripheral surface ratio Su is calculated, and in step F, Su is compared with the peripheral surface ratio threshold value. If Su is larger than the threshold value, in step H the number of moving bodies in this moving body area is calculated. If it is determined that the number is two and Su is equal to or less than the threshold value, it is determined in step G that the number of moving bodies in this moving body region is one.

【0100】図14〜図17はいずれも移動体領域の例
を示すものである。図14の移動体領域(移動体領域1
とする)は移動体個数が1つのもの、図15の移動体領
域(移動体領域2とする)は移動体個数が2つのもの、
図16の移動体領域(領域3とする)は移動体個数が2
つで実際の移動方向が設定移動方向に対して斜め方向で
あるもの、図17の移動体領域(移動体領域4とする)
は移動体個数が2つで影の部分およびノイズ部分が含ま
れたものをそれぞれ示している。また図18は各特徴量
の設定しきい値の一例および移動体領域1〜4の各特徴
量の算出結果を示すものである。
14 to 17 each show an example of the moving body area. The moving body area of FIG. 14 (moving body area 1
15) has one moving body, and the moving body area (shown as moving body area 2) in FIG. 15 has two moving bodies.
The number of moving objects is 2 in the moving object area (referred to as area 3) in FIG.
The actual moving direction is diagonal to the set moving direction, the moving body region of FIG. 17 (hereinafter referred to as moving body region 4)
Indicates that the number of moving objects is two and each includes a shadow portion and a noise portion. Further, FIG. 18 shows an example of the set threshold value of each feature amount and the calculation result of each feature amount of the mobile body regions 1 to 4.

【0101】図13〜図18を参照しながら移動体領域
1〜4における移動体個数判定処理を説明する。アスペ
クト比は全ての移動体領域で計算される。移動体領域2
(実際の固体数2)のアスペクト比はしきい値0.50
以下のため固体数2と判定され面積比および周面比の算
出は行われない。
A process for determining the number of moving bodies in the moving body regions 1 to 4 will be described with reference to FIGS. 13 to 18. The aspect ratio is calculated for all mobile regions. Mobile unit area 2
Aspect ratio of (actual solid number 2) is 0.50
Because of the following, the number of solids is determined to be 2, and the area ratio and the peripheral surface ratio are not calculated.

【0102】次に移動体領域1、3、4については面積
比が計算され、移動体領域3(実際の固体数3)の面積
比は面積比しきい値0.60以下のため固体数2と判定
され、周面比の算出は行われない。
Next, the area ratio is calculated for the moving body regions 1, 3, and 4. Since the area ratio of the moving body region 3 (actual number of solids 3) is less than the area ratio threshold value 0.60, the number of solids is 2. Therefore, the peripheral surface ratio is not calculated.

【0103】さらに移動体領域1、4については周面比
が計算され、移動体領域1(実際の固体数1)の周面比
は周面比しきい値18.0以下のため固体数1と判定さ
れ、移動体領域4(実際の固体数1)の周面比は周面比
しきい値18.0より大きいため固体数4と判定され
る。
Further, the peripheral surface ratio is calculated for the moving body regions 1 and 4, and the peripheral surface ratio of the moving body region 1 (actual solid number 1) is 1 or less because the peripheral surface ratio threshold value is 18.0 or less. Since the peripheral surface ratio of the moving body region 4 (actual solid number 1) is larger than the peripheral surface ratio threshold value 18.0, it is determined to be the solid number 4.

【0104】以上により移動体領域1は固体数1、移動
体領域2〜4は固体数2と正確に判定される。
From the above, it is accurately determined that the moving body area 1 is the number of solids 1 and the moving body areas 2 to 4 is the number of solids 2.

【0105】[STEP6 対応付けおよびカウン
ト]連続する2フレーム間で各移動体領域すなわち各ラ
ベルの対応付けを行う。ラベル内の移動体個数を考慮し
て、移動体の中心位置が最短距離にある2フレーム間の
ラベル同志を同一移動体として対応付け、対応付けので
きなかったラベルの移動体についてはその時点で対象領
域外に移動したと見なして人数カウントをインクリメン
トする。
[STEP 6 Correlation and Count] Correspondence is established between each mobile unit area, that is, each label, between two consecutive frames. Considering the number of moving objects in the label, the labels between two frames whose center position is the shortest distance are associated as the same moving object, and the moving objects with the labels that cannot be associated at that time are associated with each other. The number of people is incremented on the assumption that it has moved to the outside of the target area.

【0106】図19は対応付けおよびカウント処理のフ
ローチャートである。また図20は図19のステップH
におけるサブルーチン1の内容であり、図21は図19
のステップIにおけるサブルーチン2の内容である。
FIG. 19 is a flowchart of the association and counting process. 20 shows step H of FIG.
21 is the contents of the subroutine 1 in FIG.
This is the contents of the subroutine 2 in step I.

【0107】図19において、フレーム1の移動体領域
抽出データとフレーム2の移動体領域抽出データの対応
付けを行うこととし、フレーム1はフレーム2の前フレ
ームであるとする(例えばフレーム1が時刻T−2ΔT
にサンプリングされたものとすると、フレーム2は時刻
T−ΔTにサンプリングされたものである)。またLk
(k=1,2…m)はフレーム1におけるラベル、L´
h (h=1,2…n)はフレーム2におけるラベルであ
るとする。
In FIG. 19, it is assumed that the moving body region extraction data of frame 1 and the moving body region extraction data of frame 2 are associated with each other, and that frame 1 is the previous frame of frame 2 (for example, frame 1 is the time). T-2ΔT
, Frame 2 was sampled at time T-ΔT). Also L k
(K = 1, 2 ... m) is the label in frame 1, L ′
Let h (h = 1, 2 ... n) be a label in frame 2.

【0108】ステップAでラベルLk (k=1,2…
m)の移動体領域の中心座標(ik ,jk ),ラベルL
´h 、(h=1,2…n)の移動体領域の中心座標(i
´h ,j´h )を外接矩形の中心や重心を用いて求め、
またラベルLk (k=1,2…m)の移動体領域内の移
動体個数nk 、ラベルL´h (h=1,2…n)の移動
体領域内の移動体個数n´k として、これを Mx(Lk )=ik My(Lk )=jk Mc(Lk )=nk (k=1,2…m) Mx´(L´h )=i´h My´(L´h )=j´h Mc´(L´h )=n´h (h=1,2…n) とする。
In step A, the label L k (k = 1, 2 ...
m) center coordinates (i k , j k ) of the moving body region, label L
H , (h = 1, 2, ..., N) center coordinates (i
'H, determined using the center or centroid of the circumscribing rectangle j'h),
The label L k (k = 1,2 ... m ) mobile number n k of the moving object in the region of the label L'h (h = 1,2 ... n ) mobile number n'k mobile region of Then, Mx (L k ) = i k My (L k ) = j k Mc (L k ) = n k (k = 1, 2 ... m) Mx ′ (L ′ h ) = i ′ h My ′ (L'h) = j'h Mc' (L'h) = n' and h (h = 1,2 ... n) .

【0109】ステップBでk=1として、ステップCお
よびDでラベルL1 に対する検索対象ラベルをL´h
中から選定する。設定移動方向に対しラベルL1 より下
流にあるラベルが検索対象となる。
In step B, k = 1, and in steps C and D, the search target label for the label L 1 is selected from L ′ h . Labels downstream of the label L 1 with respect to the set movement direction are to be searched.

【0110】ステップEで検索対象ラベルがない場合
は、ステップでラベルL1 はフレーム2で消滅した(対
象領域外に移動した)と判断して移動体数カウントをイ
ンクリメントし、ステップBでkをインクリメントして
ラベルL2 の処理を始める。
When there is no label to be searched in step E, the label L 1 is judged to have disappeared in frame 2 (moved to the outside of the target area) in step S, and the number of moving bodies is incremented. The label L 2 is incremented and the processing of the label L 2 is started.

【0111】ステップEで検索対象ラベルがある場合
は、ステップGでラベルL1 の移動体個数Mc(L1
=1であれば、ステップHで図20に示すサブルーチン
1に進み、ステップFでラベルL1 の移動体個数Mc
(L1 )=2であれば、ステップIで図21に示すサブ
ルーチン2に進む。
If there is a label to be searched in step E, the number of moving objects Mc (L 1 ) of label L 1 is found in step G.
If = 1, the process proceeds to subroutine 1 shown in FIG. 20 in step H, and in step F, the number Mc of moving objects with label L 1
If (L 1 ) = 2, the process proceeds to the subroutine 2 shown in FIG. 21 in step I.

【0112】図20のステップJで検索対象ラベルの個
数が2つ以上であれば、ステップKでラベルL1 と各検
索対象ラベルの距離を中心座標データMx(L1 )、M
y(L1 )およびMx´(L´h )、My´(L´h
から求め、ステップLでラベルL1 との距離が最短とな
る検索対象ラベルを選択ラベルとしてステップMに進
み、ステップJで検索対象ラベルの個数が1つであれ
ば、このラベルを選択ラベルとしてステップMに進む。
ステップMで選択ラベルとラベルL1 は同一移動体とし
て対応付け図19のステップHに戻る。
If the number of search target labels is two or more in step J of FIG. 20, the distance between the label L 1 and each search target label is calculated as the central coordinate data Mx (L 1 ) and M in step K.
y (L 1 ) and Mx ′ (L ′ h ), My ′ (L ′ h ).
Then, in step L, the search target label having the shortest distance to the label L 1 is selected as the selection label, and the process proceeds to step M. In step J, if the number of the search target labels is 1, this label is selected as the selection label. Go to M.
In step M, the selected label and the label L 1 are associated with each other as the same moving body, and the process returns to step H in FIG.

【0113】図21のステップOで検索対象ラベルの個
数が2つ以上であれば、ステップPでラベルL1 と各検
索対象ラベルの距離を中心座標データMx(L1 )、M
y(L1 )およびMx´(L´h )、My´(L´h
から求め、ステップQに進む。ステップQでラベルL1
との距離が最短となる検索対象ラベルの移動体個数Mc
´(L´h )=1であれば、ステップRでフレーム2に
おいて分裂したと判断し、ステップSでラベルL1 と最
短距離となる検索対象ラベルおよびその次に近い距離と
なる検索対象ラベルを選択ラベルとしてステップUに進
み、ステップQでラベルL1 との距離が最短となる検索
対象ラベルの移動体個数Mc´(L´h)=2であれ
ば、ステップTでラベルL1 との距離が最短となる検索
対象ラベルを選択ラベルとしてステップUに進む。
If the number of search target labels is two or more in step O of FIG. 21, the distance between the label L 1 and each search target label is calculated as the center coordinate data Mx (L 1 ) and M in step P.
y (L 1 ) and Mx ′ (L ′ h ), My ′ (L ′ h ).
And go to step Q. Label L 1 in step Q
The number Mc of moving objects of the search target label having the shortest distance from
If ′ (L ′ h ) = 1, it is determined in step R that the frame 2 is divided, and in step S, the search target label having the shortest distance to the label L 1 and the search target label having the next shortest distance are selected. If the number of moving objects Mc '(L' h ) of the search target label having the shortest distance to the label L 1 in step Q is 2 as a selected label, the distance to the label L 1 in step T Is selected as the selected label and the process proceeds to step U.

【0114】ステップOで検索対象ラベルの個数が1つ
であれば、ステップVで検索対象ラベルの移動体個数M
c´(L´h )を検索し、Mc´(L´h )=2であれ
ば、ステップWで検索対象ラベルを選択ラベルとしてス
テップUに進み、ステップVでMc´(L´h )=1で
あれば、ステップXで2つの移動体が分裂し、片方が消
滅したと判断して移動対数カウントをインクリメント
し、ステップWで検索対象ラベルを選択ラベルとしてス
テップUに進む。そしてステップUで選択ラベルとラベ
ルL1 は同一移動体として対応付け図19のステップI
に戻る。
If the number of labels to be searched is one in step O, the number M of moving objects in the label to be searched is found in step V.
When c ′ (L ′ h ) is searched and Mc ′ (L ′ h ) = 2, the process proceeds to step U with the search target label as the selection label in step W, and Mc ′ (L ′ h ) = in step V. If it is 1, it is determined in step X that the two moving bodies have split and one has disappeared, the moving logarithmic count is incremented, and in step W, the search target label is set as the selected label and the process proceeds to step U. Then, in step U, the selected label and the label L 1 are associated with each other as the same moving body, and in step I of FIG.
Return to

【0115】図19において、ステップGまたはステッ
プIの処理が終わると、ステップBでkをインクリメン
トしてラベルL2 の処理を始める。
In FIG. 19, when the processing of step G or step I is completed, k is incremented in step B and the processing of label L 2 is started.

【0116】この様にして、ラベルL1 〜Lm について
対応付けを行う。
In this way, the labels L 1 to L m are associated with each other.

【0117】図22は対応付けおよびカウントの一例を
示すものである。図22においてa、b、cは移動体抽
出データ1におけるラベルを示し、a´、b´、c´は
移動体抽出データ2におけるラベルを示し、a″、
b″、c″は移動体抽出データ3におけるラベルを示
す。また移動体抽出データ1、移動体抽出データ2、移
動体抽出データ3の順にサンプリングされたものとする
(例えば時刻T−2ΔT、T−ΔT、Tにそれぞれサン
プリングされたものとする)。
FIG. 22 shows an example of correspondence and counting. In FIG. 22, a, b, and c indicate labels in the moving body extraction data 1, a ′, b ′, and c ′ indicate labels in the moving body extraction data 2, and a ″,
b ″ and c ″ represent labels in the moving body extraction data 3. In addition, it is assumed that the mobile body extraction data 1, the mobile body extraction data 2, and the mobile body extraction data 3 are sampled in this order (for example, sampled at times T-2ΔT, T-ΔT, and T, respectively).

【0118】移動体抽出データ1と移動体抽出データ2
間の対応付けおよびカウントは次のように行われる。各
ラベルの移動体個数は以下のように判定されているとす
る。
Mobile object extraction data 1 and mobile object extraction data 2
Correspondence and counting are performed as follows. It is assumed that the number of moving bodies of each label is determined as follows.

【0119】 ラベルaの固体数=2 ラベルa´の固体数=1 ラベルbの固体数=1 ラベルb´の固体数=1 ラベルc´の固体数=1 ラベルaの検索対象はラベルaの位置よりも下流にある
ラベルa´、b´である。ラベルaの固体数は2つ、ラ
ベルa´、およびb´の固体数はそれぞれ1つなので、
ラベルaは分裂したと判断され、ラベルa´およびb´
に対応付けられる。ラベルbの検索対象はラベルa´、
b´、c´であるが、最短距離にあるラベルc´が対応
付けられる。
Number of solids of label a = 2 Number of solids of label a ′ = 1 Number of solids of label b = 1 Number of solids of label b ′ = 1 Number of solids of label c ′ = 1 Search target of label a is label a Labels a'and b'downstream of the position. The label a has two solids, and the labels a ′ and b ′ each have one solid,
Label a is determined to have split, and labels a'and b '
Is associated with. The search target of the label b is the label a ′,
Although they are b'and c ', the label c'which is the shortest distance is associated.

【0120】また移動体抽出データ2と移動体抽出デー
タ3間の対応付けおよびカウントは次のように行われ
る。各ラベルの移動体個数は以下のように判定されてい
るとする。
The association and counting between the moving body extraction data 2 and the moving body extraction data 3 are performed as follows. It is assumed that the number of moving bodies of each label is determined as follows.

【0121】 ラベルa´の固体数=1 ラベルa″の固体数=1 ラベルb´の固体数=1 ラベルb″の固体数=1 ラベルc´の固体数=1 ラベルc″の固体数=1 ラベルa´の検索対象はラベルa″だけなので、ラベル
a″が対応付けられる。ラベルb´は検索対象ラベルが
無いため消滅したと判断され、人数カウントを1つイン
クリメントする。ラベルc´の検索対象はラベルa″、
c″であるが、最短距離にあるラベルc″が対応付けら
れる。尚結果的にラベルb″は対応付けの元となるラベ
ルが移動体抽出データ2に無いため、移動体抽出データ
3で新たに出現したことになる。
Number of solids of label a ′ = 1 Number of solids of label a ″ = 1 Number of solids of label b ′ = 1 Number of solids of label b ″ = 1 Number of solids of label c ′ = 1 Number of solids of label c ″ = 1 Since the label a'is the only search target for the label a ', the label a'is associated. The label b'is judged to have disappeared because there is no search target label, and the number of people is incremented by 1. The label c' Search target is label a ″,
Although it is c ″, the label c ″ located at the shortest distance is associated. Incidentally, as a result, since the label as the source of the association of the label b ″ does not exist in the moving body extraction data 2, it newly appears in the moving body extraction data 3.

【0122】以上をまとめると、 ラベルa=ラベルa´=ラベルa″ ラベルb=ラベルb´≠ラベルb″ ラベルc´=ラベルc″ 移動体カウント数=1(ラベルb´) となる。Summarizing the above, label a = label a ′ = label a ″ label b = label b ′ ≠ label b ″ label c ′ = label c ″, the mobile body count number = 1 (label b ′).

【0123】[STEP7 カウント結果の出力]最
後に移動体のカウント結果を出力する。STEP2〜6
を1ラウンドとして、リセットがかからなければ、前ラ
ウンドまでにカウントされた累積移動体数に現ラウント
でカウントされた移動体数を加算して出力し、リセット
がかかった場合は現ラウンドでカウントされた移動体数
を出力する。
[STEP7 Output of Count Result] Finally, the count result of the moving body is output. STEP2-6
If the reset is not applied, the cumulative number of moving objects counted up to the previous round is added to the number of moving objects counted in the current round, and the result is output. If a reset is applied, it is counted in the current round. Outputs the number of mobile units that have been created.

【0124】以上で各ステップの動作説明を終了する
が、最後にフレームメモリー4、5、6におけるデータ
シフトについて説明する。
The operation of each step has been described above. Finally, the data shift in the frame memories 4, 5 and 6 will be described.

【0125】フレームメモリー4、5、6のデータシフ
トは処理を高速化するため、ポイント値シフト法によっ
て行われる。この方式は入力画像データおよび演算処理
されたデータのフレームメモリーの先頭アドレスを示す
ポインタ値を1ラウンドごとにシフトすることにより、
入力画像データおよび演算処理されたデータがシフトさ
れたことと等価となるため、データ全体のシフトが不要
となり、連続的な演算処理を可能とする方式である。
The data shift of the frame memories 4, 5, 6 is performed by the point value shift method in order to speed up the processing. This method shifts the pointer value indicating the start address of the frame memory of the input image data and the processed data for each round,
Since this is equivalent to shifting the input image data and the processed data, it is not necessary to shift the entire data, and this is a method that enables continuous calculation processing.

【0126】図23はポインタ値シフト法の説明図であ
る。データ領域1、2、3はフレームメモリー4、5、
6にそれぞれ対応する。1ラウンド目に入る前に、最初
に画像データ1をフレームメモリーのデータ領域1に取
り込む、続いてサンプリング間隔ΔT後に画像データ2
を領域2に取り込む。さらにΔT後に画像データ3をデ
ータ領域3に取り込む時点で1ラウンド目に入る。1ラ
ウンド分のデータシフトおよびそれに伴うCPUによる
演算処理は、ΔTの間に行われる。図中に示すように画
像データ1をデータa、画像データ2をデータb、画像
データ3をデータcとする。
FIG. 23 is an explanatory diagram of the pointer value shift method. The data areas 1, 2, 3 are frame memories 4, 5,
6 respectively. Before entering the first round, the image data 1 is first captured in the data area 1 of the frame memory, and subsequently, the image data 2 after the sampling interval ΔT.
Are taken into area 2. Further, after ΔT, the first round starts when the image data 3 is loaded into the data area 3. The data shift for one round and the accompanying arithmetic processing by the CPU are performed during ΔT. As shown in the figure, image data 1 is data a, image data 2 is data b, and image data 3 is data c.

【0127】1ラウンド目において、ステップAで画像
データ3をデータ領域3に取り込み(データc)、ステ
ップBでデータaとデータbの二値化された差分データ
(上記のFb)をデータ領域1に書き込む(データdと
する)。同様にデータbとデータcの二値化された差分
データをデータ領域2に書き込む(データeとする)。
データcはデータ領域3にそのまま保存される。ステッ
プCでデータdとデータeの論理積処理されたフレーム
間差分データB(T−ΔT)をデータ領域1に書き込み
(データfとする)、このfから特徴量を抽出する。デ
ータeおよびデータcはデータ領域2およびデータ領域
3にそのまま保存される。
In the first round, in step A, the image data 3 is loaded into the data area 3 (data c), and in step B, the binarized difference data of the data a and the data b (above Fb) is acquired in the data area 1. To (data d). Similarly, the binary difference data of the data b and the data c is written in the data area 2 (data e).
The data c is stored in the data area 3 as it is. In step C, the inter-frame difference data B (T-ΔT), which is the logical product of the data d and the data e, is written in the data area 1 (data f), and the feature amount is extracted from this f. The data e and the data c are stored in the data area 2 and the data area 3 as they are.

【0128】2ラウンド目において、ステップA´で画
像データ3のΔT後にサンプリングされた画像データ4
をデータ領域1に取り込む。(データc´とする)。デ
ータeはデータ領域2にそのまま保存され(データd´
とする)、データcはデータ領域3にそのまま保存され
る。(データb´とする)。ステップB´でデータb´
とデータc´の二値化された差分データをデータ領域3
に書き込む。データc´およびデータd´はそのまま保
存される。ステップC´でデータd´とデータe´の論
理積処理されたフレーム間差分データをデータ領域2に
書き込む(データf´とする)。データc´およびデー
タd´はそのまま保存される。
In the second round, the image data 4 sampled after ΔT of the image data 3 in step A ′
Are taken into the data area 1. (Data c '). The data e is stored in the data area 2 as it is (data d ′
The data c is stored in the data area 3 as it is. (Data b '). Data b'at step B '
And binarized difference data of data c'in the data area 3
Write in. The data c ′ and the data d ′ are saved as they are. In step C ′, the inter-frame difference data obtained by performing the logical product processing of the data d ′ and the data e ′ is written in the data area 2 (data f ′). The data c ′ and the data d ′ are saved as they are.

【0129】3ラウンド目以降は2ラウンド目と同様の
処理を行う。ただし、前ラウンドと同一の動作を行うデ
ータ領域はポインタによってシフトする。例えば画像デ
ータ4の次にサンプリングされた画像データはデータ領
域2に取り込まれる。
After the third round, the same processing as in the second round is performed. However, the data area that performs the same operation as the previous round is shifted by the pointer. For example, the image data sampled after the image data 4 is taken into the data area 2.

【0130】次に図24は本第一実施例のCPU8によ
る各処理のフローチャートであり、ここではポインタ値
シフトに関する部分のみ詳細に示してある。また図25
は図24のステップEにおけるサブルーチンを示す。ン
グを行い、ステップGで対応付けおよびカウントを行
い、ステップHでカウント結果を出力する。
Next, FIG. 24 is a flow chart of each processing by the CPU 8 of the first embodiment, in which only the part relating to the pointer value shift is shown in detail. Also in FIG.
Shows the subroutine in step E of FIG. Then, in step G, association and counting are performed, and in step H, the count result is output.

【0131】次に図24は本第一実施例のCPU8によ
る各処理のフローチャートであり、ここではポインタ値
シフトに関する部分のみ詳細に示してある。また図25
は図24のステップEにおけるサブルーチンを示す。
Next, FIG. 24 is a flow chart of each processing by the CPU 8 of the first embodiment, in which only the part relating to the pointer value shift is shown in detail. Also in FIG.
Shows the subroutine in step E of FIG.

【0132】図24において、ADD1、ADD2、A
DD3はそれぞれデータ領域1、データ領域2、データ
領域3の先頭アドレス値であり、AREA1、AREA
2、AREA3はそれぞれADD1、ADD2、ADD
3のいずれかが排他的に入力される変数であり、データ
領域ポインタと称する。
In FIG. 24, ADD1, ADD2, A
DD3 is the start address value of the data area 1, the data area 2, and the data area 3, respectively, and is AREA1, AREA.
2 and AREA3 are ADD1, ADD2 and ADD, respectively
Any of the three is a variable that is exclusively input, and is called a data area pointer.

【0133】ステップAで初期値として、AREA1に
ADD1を、AREA2にADD2を、AREA3にA
DD3をそれぞれ代入する。
In step A, as initial values, AREA1 is ADD1, AREA2 is ADD2, and AREA3 is A.
Substitute DD3 respectively.

【0134】ステップBでAREA1が示すデータ領域
に画像データを取り込み、ステップCでAREA2が示
すデータ領域に画像データを取り込み、ステップDでA
REA3が示すデータ領域に画像データを取り込んでス
テップEの進む。
In step B, the image data is loaded into the data area indicated by AREA1, in step C the image data is loaded into the data area indicated by AREA2, and in step D, A
The image data is taken into the data area indicated by REA3, and step E is proceeded to.

【0135】ステップEのサブルーチンである図25の
ステップJでAREA1が示すデータ領域とAREA2
が示すデータ領域間の差分データを算出して二値化し、
結果をAREA1が示すデータ領域に書き込み、ステッ
プKでAREA2が示すデータ領域とAREA3が示す
データ領域間の差分データを算出して二値化し、結果を
AREA2が示すデータ領域に書き込み、ステップLで
AREA1が示すデータ領域とAREA2が示すデータ
領域間で論理積処理を行った後ブロック化処理を行い、
結果をAREA1が示すデータ領域に書き込む。
In step J of FIG. 25 which is a subroutine of step E, the data area indicated by AREA1 and AREA2
The difference data between the data areas indicated by is calculated and binarized,
The result is written in the data area indicated by AREA1, the difference data between the data area indicated by AREA2 and the data area indicated by AREA3 is calculated and binarized in step K, the result is written in the data area indicated by AREA2, and AREA1 is written in step L. And the data area indicated by AREA2 are ANDed and then blocked.
The result is written in the data area indicated by AREA1.

【0136】図24のステップFでAREA1が示すデ
ータ領域の特徴量抽出およびラベリングを行い、ステッ
プGで対応付けおよびカウントを行い、ステップHでカ
ウント結果を出力する。
In step F of FIG. 24, the characteristic amount of the data area indicated by AREA1 is extracted and labeled, the correspondence and counting are performed in step G, and the counting result is output in step H.

【0137】ステップIでTEMPを一時的に先頭アド
レスをストックするポインタとして、TEMPにARE
A1のポインタ値を代入し、AREA1にAREA2の
ポインタ値を代入し、AREA2にAREA3のポイン
タ値を代入し、AREA3にTEMPのポインタ値すな
わちAREA1のポインタ値を代入することによってポ
インタ値をシフトする。これによって第2ラウンドのA
REA1の対象領域はデータ領域2、AREA2の対象
領域はデータ領域3、AREA3の対象領域はデータ領
域1となる。図26は上記のデータ領域ポインタ値の変
遷の様子を示すものである。
At step I, TEMP is used as a pointer to temporarily stock the start address, and TEMP is stored in ARE.
The pointer value of A1 is substituted, the pointer value of AREA2 is substituted for AREA1, the pointer value of AREA3 is substituted for AREA2, and the pointer value of TEMP, that is, the pointer value of AREA1 is substituted for AREA3, whereby the pointer value is shifted. This made the second round of A
The target area of REA1 is data area 2, the target area of AREA2 is data area 3, and the target area of AREA3 is data area 1. FIG. 26 shows how the data area pointer value changes.

【0138】ここまでで第1ラウンドの処理を終了し、
第2ラウンド以降は各ラウンドごとにステップD〜ステ
ップIの処理を繰り返す。
Up to this point, the processing of the first round has been completed,
After the second round, the processes of steps D to I are repeated for each round.

【0139】このような上記の第一実施例によれば、ポ
インタシフトによりフレームメモリーでのデータシフト
を行わずに画像データから移動体領域を抽出し、ポイン
タを用いてグルーピングを行うことによりラベリングの
走査回数を2回とするによって処理を高速化して画像デ
ータのサンプリング間隔を狭め、移動体領域内の移動体
個数の判定においてはアスペクト比の加えて面積比およ
び周面比を判定項目とし、さらにフレーム間において移
動体の対応付けを行うことによって、移動体の個数を正
確にカウントすることができる。
According to the above-described first embodiment, the moving object area is extracted from the image data without performing the data shift in the frame memory by the pointer shift, and the labeling is performed by performing the grouping by using the pointer. By making the number of scans twice, the processing speed is increased to narrow the sampling interval of the image data, and in the determination of the number of moving bodies in the moving body region, the aspect ratio as well as the area ratio and the peripheral surface ratio are used as the determination items. By associating the moving bodies between frames, the number of moving bodies can be accurately counted.

【0140】次に第二実施例について説明する。本第二
実施例は移動体内の特徴的なある領域を抽出し、この領
域に着目して移動体数のカウントを行うものである。こ
の際理想的には、形状変化が無く、個々の移動体で形状
や大きさの差がない領域を特徴的な領域とする。本第二
実施例においては、移動体を人間とし、特徴的な領域を
頭の部分とする。
Next, the second embodiment will be described. In the second embodiment, a characteristic area in the moving body is extracted, and the number of moving bodies is counted by focusing on this area. At this time, ideally, a region that does not change in shape and has no difference in shape or size between individual moving bodies is defined as a characteristic region. In the second embodiment, the moving body is human and the characteristic area is the head.

【0141】本第二実施例の構成については図1に示す
第一実施例の構成と同様であるので、その説明を略す。
The configuration of the second embodiment is similar to that of the first embodiment shown in FIG. 1, and therefore its explanation is omitted.

【0142】本第二実施例の動作は以下のような6ステ
ップに分けることができる。
The operation of the second embodiment can be divided into the following 6 steps.

【0143】[STEP1 画像データの入力] [STEP2 sobelオペレータによる空間微
分] [STEP3 フレーム間差分による移動体の抽出] [STEP4 頭領域の抽出およびラベリング] [STEP5 対応付けおよびカウント] [STEP6 カウント結果の出力] 従って動作説明は各ステップに沿って行い、STEP1
およびSTEP6の動作については第一実施例と同じな
のでその説明を略す。
[STEP1 Input of Image Data] [STEP2 Spatial Differentiation by Sobel Operator] [STEP3 Extraction of Moving Object by Interframe Difference] [STEP4 Extraction and Labeling of Head Region] [STEP5 Correlation and Count] [STEP6 Count Result Output] Therefore, the operation is explained according to each step, and STEP1
The operation of STEP 6 and STEP 6 is the same as that of the first embodiment, and therefore its explanation is omitted.

【0144】[STEP2 sobelオペレータに
よる空間微分]連続して入力される3フレーム分の画像
データをF(T−2ΔT)、F(T−ΔT)、F(T)
とする。ここでΔTは画像データのサンプリング間隔で
あり、T−2ΔT、T−ΔT、Tはサンプリング時刻を
表す。
[STEP2 Spatial Differentiation by Sobel Operator] Image data for three frames that are continuously input is F (T-2ΔT), F (T-ΔT), F (T).
And Here, ΔT is a sampling interval of image data, and T−2ΔT, T−ΔT, and T represent sampling times.

【0145】F(T−2ΔT)、F(T−ΔT)、F
(T)の各画素を走査線方向にsobelオペレータで
微分し、その結果をDx(T−2ΔT)、Dx(T−Δ
T)、Dx(T)とする。またF(T−2ΔT)、F
(T−ΔT)、F(T)の各画素を走査線と垂直な方向
にsobelオペレータで微分し、その結果をDy(T
−2ΔT)、Dy(T−ΔT)、Dy(T)とする。
F (T-2ΔT), F (T-ΔT), F
Each pixel of (T) is differentiated by the sobel operator in the scanning line direction, and the result is Dx (T-2ΔT), Dx (T-Δ
T) and Dx (T). In addition, F (T-2ΔT), F
Each pixel of (T-ΔT) and F (T) is differentiated by the sobel operator in the direction perpendicular to the scanning line, and the result is Dy (T
-2ΔT), Dy (T-ΔT), and Dy (T).

【0146】画像データF(T−2ΔT)、F(T−Δ
T)、F(T)の各画素のエッジの大きさをD(T−2
ΔT)、D(T−ΔT)、D(T)として、以下の算式
によって求める。
Image data F (T-2ΔT), F (T-Δ
The edge size of each pixel of T) and F (T) is set to D (T-2
ΔT), D (T−ΔT), and D (T) are calculated by the following formula.

【0147】 D(T−2ΔT)=|Dx(T−2ΔT)|+|Dy(T−2ΔT)| D(T−ΔT) =|Dx(T−ΔT)| +|Dy(T−ΔT)| D(T) =|Dx(T)| +|Dy(T)| あるいは、 D(T−2ΔT)={Dx(T−2ΔT)}2 +{Dy(T−2ΔT)}2 D(T−ΔT) ={Dx(T−ΔT)}2 +{Dy(T−ΔT)}2 D(T) ={Dx(T)}2 +{Dy(T)}2 さらに画像データF(T−2ΔT)、F(T−ΔT)、
F(T)の各画素のエッジの方向をθ(T−2ΔT)、
θ(T−ΔT)、θ(T)として、以下の算式によって
求める。
D (T-2ΔT) = | Dx (T-2ΔT) | + | Dy (T-2ΔT) | D (T-ΔT) = | Dx (T-ΔT) | + | Dy (T-ΔT) | D (T) = | Dx (T) | + | Dy (T) | Alternatively, D (T-2ΔT) = {Dx (T-2ΔT)} 2 + {Dy (T-2ΔT)} 2 D (T -ΔT) = {Dx (T- ΔT)} 2 + {Dy (T-ΔT)} 2 D (T) = {Dx (T)} 2 + {Dy (T)} 2 further, the image data F (T- 2ΔT), F (T-ΔT),
The direction of the edge of each pixel of F (T) is θ (T-2ΔT),
θ (T−ΔT) and θ (T) are calculated by the following formula.

【0148】 θ(T−2ΔT)=tan-1{Dy(T−2ΔT)/Dx(T−2ΔT)} θ(T−ΔT) =tan-1{Dy(T−ΔT)/Dx(T−ΔT)} θ(t) =tan-1{Dy(T)/Dx(T)} [STEP3 フレーム間差分による移動体の抽出]
D(T−2ΔT)、D(T−ΔT)、D(T)のノイズ
分を取り除くために、D(T−2ΔT)とD(T−Δ
T)、D(T−ΔT)とD(T)の差分を算出し、当該
差分をしきい値t1 によって二値化したものをそれぞれ
Db(T−2ΔT,T−ΔT)、Db(T−ΔT,T)
として以下の算式によって求める。
Θ (T−2ΔT) = tan −1 {Dy (T−2ΔT) / Dx (T−2ΔT)} θ (T−ΔT) = tan −1 {Dy (T−ΔT) / Dx (T− ΔT)} θ (t) = tan −1 {Dy (T) / Dx (T)} [STEP3 Extraction of Moving Object by Inter-frame Difference]
In order to remove noise components of D (T-2ΔT), D (T-ΔT), and D (T), D (T-2ΔT) and D (T-Δ
T), D (T−ΔT) and the difference between D (T) and Db (T−2ΔT, T−ΔT) and Db (T), which are binarized by the threshold t 1 . -ΔT, T)
Is calculated by the following formula.

【0149】Db(T−2ΔT,T−ΔT)=[|D
(T−2ΔT)−D(T−ΔT)|]t1 Db(T−ΔT,T)=[|D(T−ΔT)−D(T)
|]t1 ここで[ ]t1 は[]内の値がt1 以上であれば
“1”とし、t未満であれば“0”とする二値化演算を
示す。
Db (T-2ΔT, T-ΔT) = [| D
(T-2ΔT) -D (T-ΔT) |] t 1 Db (T-ΔT, T) = [| D (T-ΔT) -D (T)
|] T 1 Here, [] t 1 indicates a binarization operation in which if the value in [] is t 1 or more, it is “1”, and if it is less than t, it is “0”.

【0150】またθ(T−2ΔT)とθ(T−ΔT)、
θ(T−ΔT)とθ(T)の差分を算出し、当該差分を
しきい値t2 によって二値化したものをそれぞれθb
(T−2ΔT,T−ΔT)、θb(T−ΔT,T)とし
て以下の算式によって求める。
Further, θ (T-2ΔT) and θ (T-ΔT),
The difference between θ (T−ΔT) and θ (T) is calculated, and the difference is binarized by a threshold value t 2 to obtain θb.
(T-2ΔT, T-ΔT) and θb (T-ΔT, T) are calculated by the following formula.

【0151】θb(T−2ΔT,T−ΔT)=[|θ
(T−2ΔT)−θ(T−ΔT)|]t2 θb(T−ΔT,T)=[|θ(T−ΔT)−θ(T)
|]t2 図27はDb(T−2ΔT、T−ΔT)またはDb(T
−ΔT、T)に対応する差分データを示すものであり、
例えばAおよびaを時刻T−2ΔTにおける人物および
頭部のエッジとすると、Bおよびbは時刻T−ΔTにお
ける人物および頭部のエッジである。
Θb (T-2ΔT, T-ΔT) = [| θ
(T- 2 [Delta] T)-[theta] (T- [Delta] T) |] t2 [theta] b (T- [Delta] T, T) = [| [theta] (T- [Delta] T)-[theta] (T).
|] T 2 FIG. 27 shows Db (T-2ΔT, T-ΔT) or Db (T
-ΔT, T) showing the difference data corresponding to
For example, letting A and a be the edges of the person and the head at time T-2ΔT, B and b are the edges of the person and the head at time T-ΔT.

【0152】図27の破線部に示すように、Db(T−
2ΔT、T−ΔT)およびDb(T−ΔT、T)では移
動体の重なりの部分でエッジがとぎれることがあり、こ
れをθb(T−2ΔT、T−ΔT)およびθb(T−Δ
T、T)によって補正するため、Db(T−2ΔT、T
−ΔT)とθb(T−2ΔT、T−ΔT)の論理和D
b′(T−2ΔT、T−ΔT)およびDb(T−ΔT、
T)とθb(T−ΔT、T)の論理和Db′(T−Δ
T、T)を次式によって求める。
As shown by the broken line portion in FIG. 27, Db (T-
In 2ΔT, T-ΔT) and Db (T-ΔT, T), the edge may be interrupted at the overlapping portion of the moving body, which is θb (T-2ΔT, T-ΔT) and θb (T-ΔT).
Since it is corrected by T, T, Db (T-2ΔT, T
Logical sum D of -ΔT) and θb (T-2ΔT, T-ΔT)
b '(T-2ΔT, T-ΔT) and Db (T-ΔT,
T) and θb (T−ΔT, T) OR'd Db ′ (T−Δ
T, T) is calculated by the following equation.

【0153】Db′(T−2ΔT、T−ΔT)=Db
(T−2ΔT、T−ΔT)+θb(T−2ΔT、T−Δ
T) Db′(T−ΔT、T)=Db(T−ΔT、T)+θb
(T−ΔT、T) ここで+は論理和を示す。
Db '(T-2ΔT, T-ΔT) = Db
(T-2ΔT, T-ΔT) + θb (T-2ΔT, T-Δ
T) Db ′ (T−ΔT, T) = Db (T−ΔT, T) + θb
(T−ΔT, T) Here, + indicates a logical sum.

【0154】次に移動体エッジの二重化を消去するため
にDb′(T−2ΔT、T−ΔT)とD′b(T−Δ
T、T)の論理積を求め、これを時刻T−ΔTにおける
フレーム間差分データH(T−ΔT)とする。
Next, in order to eliminate the duplication of the moving body edge, Db '(T-2ΔT, T-ΔT) and D'b (T-Δ
The logical product of (T, T) is obtained, and this is set as interframe difference data H (T-ΔT) at time T-ΔT.

【0155】H(T−ΔT)=Db′(T−2ΔT、T
−ΔT)*Db′(T−ΔT、T)} ここで*は論理積を示す。
H (T-ΔT) = Db '(T-2ΔT, T
−ΔT) * Db ′ (T−ΔT, T)} where * represents a logical product.

【0156】図28は移動体エッジの論理積による移動
体エッジの二重化消去の説明図である。図28におい
て、差分データ1および差分データ2はそれぞれDb′
(T−2ΔT,T−ΔT)およびDb′(T−ΔT、
T)に対応する。差分データ1または差分データ2にお
いては移動中の同一人物のエッジが二重に現れている。
差分データ1においてAおよびaは時刻T−2ΔTにお
ける人物およびその頭のエッジであり、Bおよびbは時
刻T−ΔTにおける人物およびその頭のエッジである。
また差分データ2においてBおよびbは時刻T−ΔTに
おける人物およびその頭のエッジであり、Cおよびcは
時刻Tにおける人物およびその頭のエッジである。差分
データ1と差分データ2の論理積をとることにより時刻
T−ΔTのエッジBおよびbのみが残り、二重化が除去
される。
FIG. 28 is an explanatory diagram of duplicated erasure of a mobile body edge by logical product of mobile body edges. In FIG. 28, the difference data 1 and the difference data 2 are Db ′, respectively.
(T-2ΔT, T-ΔT) and Db '(T-ΔT,
Corresponds to T). In the difference data 1 or the difference data 2, the edge of the same person who is moving appears twice.
In the difference data 1, A and a are the person and the head edge thereof at time T−2ΔT, and B and b are the person and the head edge thereof at time T−ΔT.
In the difference data 2, B and b are the person and the head edge thereof at the time T-ΔT, and C and c are the person and the head edge thereof at the time T. By taking the logical product of the difference data 1 and the difference data 2, only the edges B and b at time T-ΔT remain, and the duplication is removed.

【0157】さらにノイズの除去、メモリー容量の減少
化を目的として、フレーム間差分データH(T−ΔT)
に以下に示すブロック化を施す。H(T−ΔT)をn×
n画素の小領域すなわちブロックに分割し、しきい値t
3 を設ける。ブロック内のn×n画素うちビットが立っ
ている画素数をkとして、k>t3 ならば有効領域とし
てそのブロックのデータを“1”とし、k<t3 ならば
ノイズ領域としてそのブロックのデータを“0”とす
る。ブロック化を施したH(T−ΔT)をB(T−Δ
T)とすると、 B(T−ΔT)=《H(T−ΔT)》t3 =《Db′(T−2ΔT、T−ΔT)*Db′(T−Δ
T、T)》t3 である。ここで、《 》t3 は《 》内の二値化された
画像データのしきい値t3 によるブロック化演算処理を
示している。
Further, for the purpose of removing noise and reducing memory capacity, inter-frame difference data H (T-ΔT)
Is subjected to the following blocking. H (T−ΔT) is n ×
It is divided into small regions of n pixels, that is, blocks, and the threshold
Provide 3 . The number of pixels in which bits are set out of n × n pixels in a block is k. If k> t 3 , the data of the block is set as “1” as an effective area, and if k <t 3 is set as a noise area of the block. The data is set to "0". Blocked H (T-ΔT) is converted into B (T-ΔT)
When T), B (T-ΔT ) = "H (T-ΔT)" t 3 = "Db '(T-2ΔT, T-ΔT) * Db' (T-Δ
T, T) >> t 3 . Here, <<>> t 3 indicates a blocking operation process by the threshold value t 3 of the binarized image data in <<>>.

【0158】[STEP4 頭領域の抽出およびラベ
リング]H(T−ΔT)またはB(T−ΔT)から頭領
域をテンプレートマッチングによって取り出す。マッチ
ングテンプレートは各人の背丈や頭の大きさのバラツキ
に対応するため数種類の半径のものを用意し、H(T−
ΔT)またはB(T−ΔT)のエッジに囲まれた領域の
中心を求め、中心と、エッジを形成する各画素との距離
を算出し、算出した距離とマッチングテンプレートにお
ける距離との差分を画素ごとに算出し、各差分の総和が
設定したしきい値以内であれば、頭領域として抽出す
る。
[STEP4 Extraction and Labeling of Head Region] The head region is extracted from H (T-ΔT) or B (T-ΔT) by template matching. There are several matching templates with different radii to accommodate variations in height and head size, and H (T-
[Delta] T) or B (T- [Delta] T), the center of the area surrounded by the edge is obtained, the distance between the center and each pixel forming the edge is calculated, and the difference between the calculated distance and the distance in the matching template is calculated as the pixel. If the sum of the differences is within the set threshold value, it is extracted as the head region.

【0159】次に得られた頭領域の中心に対応する画素
に対してラベリングを施す。従って移動体の個数とラベ
ル数は等しい。
Then, labeling is applied to the pixel corresponding to the center of the obtained head region. Therefore, the number of moving objects is equal to the number of labels.

【0160】[STEP5 対応付けおよびカウン
ト]連続する2フレーム間で各頭領域データすなわち各
ラベルの対応付けを行い、対応付けのできなかったラベ
ルについてはその時点で測定対象領域外(CCDカメラ
の視野外)に移動したと見なして人数カウントをインク
リメントする。
[STEP 5 Correspondence and Count] Each head region data, that is, each label is associated between two consecutive frames, and a label that cannot be associated is out of the measurement target region (field of view of the CCD camera at that time). Outside) and increment the people count assuming it has moved.

【0161】対応付けの方法は2つあり、画像データの
サンプリング間隔および移動体の移動速度によって適宜
どちらかを選択して用いる。画像データのサンプリング
間隔が短い場合あるいは移動人物の移動速度が遅い場合
は、頭の重心位置が最短距離にある2フレーム間のラベ
ルを同一人物として対応付ける(第一の対応付け方
法)。また画像データのサンプリング間隔が長い場合あ
るいは移動人物の移動速度が速い場合は、形状等の特徴
量が最も類似した2フレーム間のラベルを同一人物とし
て対応付ける(第二の対応付け方法)。
There are two associating methods, and one of them is appropriately selected and used according to the sampling interval of the image data and the moving speed of the moving body. When the sampling interval of the image data is short or the moving speed of the moving person is slow, the labels between the two frames having the shortest distance to the center of gravity of the head are associated as the same person (first association method). If the sampling interval of the image data is long or the moving speed of the moving person is high, the labels between the two frames having the most similar feature amount such as the shape are associated as the same person (second association method).

【0162】図29は第一の対応付け方法を用いた対応
付けおよびカウント処理のフローチャートである。図2
9において、フレーム1の頭領域抽出データとフレーム
2の頭領域抽出データの対応付けを行うこととし、フレ
ーム1はフレーム2の前フレームであるとする(例えば
フレーム1が時刻T−2ΔTにサンプリングされたもの
とすると、フレーム2は時刻T−ΔTにサンプリングさ
れたものである)。またLk (k=1,2…m)はフレ
ーム1におけるラベル、L′h (h=1,2…n)はフ
レーム2におけるラベルであるとする。
FIG. 29 is a flowchart of the associating and counting process using the first associating method. Figure 2
9, the head region extraction data of frame 1 and the head region extraction data of frame 2 are associated with each other, and it is assumed that frame 1 is the previous frame of frame 2 (for example, frame 1 is sampled at time T-2ΔT). , Frame 2 was sampled at time T-ΔT). Lk (k = 1, 2 ... m) is a label in frame 1 and L' h (h = 1, 2 ... n) is a label in frame 2.

【0163】ステップAでラベルLk (k=1,2…
m)の頭領域の中心座標(ik ,jk)およびラベル
L′h (h=1,2…n)の頭領域の中心座標
(i′h ,j′h)を外接矩形の中心や重心を用いて求
め、これを Mx(Lk ) =ik My(Lk ) =jk (k=1,2…m) Mx′(L′h )=i′h My′(L′h )=j′h (h=1,2…n) とする。
In step A, the label L k (k = 1, 2 ...
center coordinates (i k head region of m), j k) and the label L 'h (h = 1,2 ... n) the center coordinates (i head area of' h, j 'h) the center of the circumscribed rectangle Ya The center of gravity is used to obtain Mx (L k ) = i k My (L k ) = j k (k = 1,2 ... m) Mx ′ (L ′ h ) = i ′ h My ′ (L ′ h ) = J ′ h (h = 1, 2 ... n).

【0164】ステップBでk=1として、ステップCお
よびDでラベルL1 に対する検索対象ラベルをL′h
中から選定する。人物移動の流れに対しラベルL1 より
下流にあるラベルが検索対象となる。
In step B, k = 1, and in steps C and D, the label to be searched for the label L 1 is selected from L ′ h . Labels downstream of the label L 1 in the flow of person movement are to be searched.

【0165】ステップEで検索対象ラベルがある場合
は、ステップFで検索対象ラベルの個数を検出し、検索
対象ラベルが1つであれば、ステップGでこのラベルを
選択ラベルとし、ステップHで選択ラベルとラベルL1
は同一人物として対応付け、ステップBでkをインクリ
メントして、ラベルL2 の処理を始める。
If there is a search target label in step E, the number of search target labels is detected in step F. If there is one search target label, this label is selected in step G and selected in step H. Label and Label L 1
Corresponds to the same person, increments k in step B, and starts processing of label L 2 .

【0166】ステップFで検索対象ラベルが2つ以上あ
る場合は、ステップIでラベルL1と各検索対象ラベル
の距離を中心座標データMx(L1 )、My(L1 )お
よびMx′(L′h )、My′(L′h )から求め、ス
テップJでラベルL1 との距離が最短となる検索対象ラ
ベルを選択ラベルとしてステップHに進む。
When there are two or more search target labels in step F, the distance between the label L 1 and each search target label is calculated as the center coordinate data Mx (L 1 ), My (L 1 ) and Mx '(L in step I. ′ H ), My ′ (L ′ h ), and in step J, the search target label having the shortest distance from the label L 1 is selected as the selected label, and the process proceeds to step H.

【0167】ステップEで検索対象ラベルが無い場合
は、ステップKでラベルL1 は消滅した(対象領域外に
移動した)と判断し、人数カウントをインクリメントし
てステップBに進む。
If there is no search target label in step E, it is determined in step K that the label L 1 has disappeared (moved to the outside of the target area), the number of people is incremented, and the process proceeds to step B.

【0168】次に図30は第二の対応付け方法を用いた
対応付けおよびカウント処理のフローチャートである。
以下の図30の説明において、図29と重複する設定、
記号および算式についてはその説明を省略する。
Next, FIG. 30 is a flowchart of the associating and counting process using the second associating method.
In the following description of FIG. 30, settings that overlap with FIG. 29,
Descriptions of symbols and formulas are omitted.

【0169】図30において、ステップAでラベルLk
(k=1,2…m)の頭領域の中心座標データ Mx(Lk ) =ik My(Lk ) =jk およびラベルL′h (h=1,2…n)の頭領域の中心
座標データ Mx′(L′h )=i′h My′(L′h )=j′h に加えて、各ラベルの円形度、アスペクト比、面積比等
の特徴量を求める。移動体の設定移動方向に引かれた頭
領域の2本の外接線と移動体の設定移動方向に対して垂
直に引かれた頭領域の2本の外接線によって囲まれる領
域を外接矩形とし、Sを頭領域の面積、Lを頭領域の輪
郭線の長さ、Lsを外接矩形の設定移動方向の辺の長
さ、Liを外接矩形の設定移動方向と垂直な方向の辺の
長さとして、 円形度 =4πS/L アスペクト比=Ls/Li 面積比 =S/(LsLi) によって算出する。
In FIG. 30, in step A, the label L k
(K = 1,2 ... m) the center coordinates data Mx (L k) of the head region of = i k My (L k) = j k and the label L 'h head region of (h = 1,2 ... n) center coordinate data Mx '(L' h) = i in addition to the 'h My' (L 'h ) = j' h, circularity of each label, the aspect ratio, the characteristic amounts such as area ratio determined. An area bounded by two outer tangent lines of the head area drawn in the set moving direction of the moving body and two outer tangent lines of the head area drawn perpendicular to the set moving direction of the moving body is a circumscribed rectangle, Let S be the area of the head region, L be the length of the outline of the head region, Ls be the length of the side of the circumscribed rectangle in the set movement direction, and Li be the length of the side of the circumscribed rectangle in the direction perpendicular to the set movement direction. , Circularity = 4πS / L aspect ratio = Ls / Li area ratio = S / (LsLi)

【0170】ここではこれら特徴量のうち円形度および
アスペクト比を採用して、ラベルLk (k=1,2…
m)の円形度をpk 、アスペクト比をqk として、 Mp(Lk ) =pk Mq(Lk ) =qk (k=1,2…m) またラベルL′h (h=1,2…n)の円形度を
p′h 、アスペクト比をq′hとして、 Mp′
(L′h )=p′h Mq′(L′h )=q′h (h=1,2…n) とおく。
Here, the circularity and the aspect ratio of these feature quantities are adopted to label L k (k = 1, 2 ...
m), the circularity is p k , and the aspect ratio is q k . Mp (L k ) = p k Mq (L k ) = q k (k = 1, 2 ... m) and the label L ′ h (h = 1 , 2 ... n) has a circularity of p ′ h and an aspect ratio of q ′ h , Mp ′
Let (L ′ h ) = p ′ h Mq ′ (L ′ h ) = q ′ h (h = 1, 2 ... n).

【0171】ステップBでk=1として、ステップCお
よびDでラベルL1 に対する検索対象ラベルをL′h
中から選定する。人物移動の流れに対しラベルL1 より
下流にあるラベルが検索対象となる。
In step B, k = 1, and in steps C and D, the label to be searched for the label L 1 is selected from L ′ h . Labels downstream of the label L 1 in the flow of person movement are to be searched.

【0172】ステップEで検索対象ラベルがある場合
は、ステップFで検索対象ラベルの個数を検出し、検索
対象ラベルが1つであれば、ステップGでこのラベルを
選択ラベルとしてステップLに進む。
If there is a search target label in step E, the number of search target labels is detected in step F, and if there is one search target label, then in step G this label is selected and the process proceeds to step L.

【0173】ステップFで検索対象ラベルが2つ以上あ
る場合は、ステップIでラベルL1の特徴量と検索対象
ラベルの特徴量の差を特徴量ごとに算出し、ステップJ
で特徴量の差の総和が最小のラベルを選択ラベルとして
ステップLに進む。各特徴量の差の総和は、 |Mp′(L′h )−Mp(L1 )|+|Mq′(L′
h )−Mq(L1 )| によって求める。ただしここではh=検索対象ラベルの
番号である。
When there are two or more search target labels in step F, the difference between the feature amount of the label L 1 and the feature amount of the search target label is calculated for each feature amount in step I, and step J
Then, the process advances to step L with the label having the smallest sum of the differences in the feature quantities as the selected label. The sum of the difference between the feature amount, | Mp '(L' h ) -Mp (L 1) | + | Mq '(L'
h ) -Mq (L 1 ) | Here, h = number of the search target label.

【0174】ステップLでラベルL1 と選択ラベルの特
徴量の差と、設定したしきい値を特徴量ごと比較し、全
ての特徴量の差がしきい値よりも小さければ、ステップ
Hで選択ラベルとラベルL1 は同一人物として対応付
け、ステップBでkをインクリメントして、ラベルL2
の処理を始め、いずれかの特徴量の差がしきい値以上で
あればステップKに進む。円形度の差のしきい値を
4 、アスペクト比の差のしきい値をt5 とすると、対
応付けをすることができる条件は、 |Mp′(L′h )−Mp(L1 )|<t4 且つ |Mq′(L′h )−Mq(L1 )|<t5 である。ただしここではh=選択ラベルの番号である。
In step L, the difference between the feature amounts of the label L 1 and the selected label and the set threshold value are compared for each feature amount. If all the feature amount differences are smaller than the threshold value, the selection is performed in step H. The label and the label L 1 are associated as the same person, k is incremented in step B, and the label L 2
Processing is started, and if the difference between any of the feature quantities is equal to or greater than the threshold value, the process proceeds to step K. Assuming that the threshold of the difference in circularity is t 4 and the threshold of the difference in aspect ratio is t 5 , the conditions that can be associated are | Mp ′ (L ′ h ) −Mp (L 1 ). | <T 4 and | Mq ′ (L ′ h ) −Mq (L 1 ) | <t 5 . Here, h = number of the selected label.

【0175】ステップDで検索対象ラベルが無い場合、
あるいはステップLでいずれかの特徴量の差がしきい値
以上である場合は、ステップKでラベルL1 は消滅した
と判断し、人数カウントをインクリメントしてステップ
Bに進む。
When there is no label to be searched in step D,
Alternatively, if the difference between any of the feature amounts is equal to or larger than the threshold value in step L, it is determined in step K that the label L 1 has disappeared, the number of people is incremented, and the process proceeds to step B.

【0176】図31はフレーム間隔が短い場合あるいは
移動速度が速い場合に用いる第一の対応付け方法による
対応付けおよびカウントの一例を示すものである。図3
1においてa、b、cは移動体抽出データ1におけるラ
ベルを示し、a′、b′、c′は移動体抽出データ2に
おけるラベルを示し、a″、b″、c″は移動体抽出デ
ータ3におけるラベルを示す。また移動体抽出データ
1、移動体抽出データ2、移動体抽出データ3の順にサ
ンプリングされたものとする(例えば時刻T−2ΔT、
T−ΔT、Tにそれぞれサンプリングされたものとす
る)。
FIG. 31 shows an example of association and counting by the first association method used when the frame interval is short or the moving speed is fast. FIG.
1, a, b, and c represent labels in the moving body extraction data 1, a ′, b ′, and c ′ represent labels in the moving body extraction data 2, and a ″, b ″, and c ″ represent moving body extraction data. 3 shows a label in 3. Also, it is assumed that the moving body extraction data 1, the moving body extraction data 2, and the moving body extraction data 3 are sampled in this order (for example, time T-2ΔT,
It is assumed that they are sampled at T-ΔT and T, respectively.

【0177】移動体抽出データ1と移動体抽出データ2
間の対応付けおよびカウントは次のように行われる。ラ
ベルaの検索対象は移動体抽出データ2においてラベル
aの位置よりも下流にあるラベルa′、b′であるが、
最短距離にあるラベルa′が対応付けられる。ラベルb
の検索対象はラベルb′だけなのでラベルbとラベル
b′が対応付けられる。ラベルcの検索対象は、ラベル
a′、b′、c′であるが、最短距離にあるラベルc′
が対応付けられる。
Mobile object extraction data 1 and mobile object extraction data 2
Correspondence and counting are performed as follows. The search target of the label a is the labels a ′ and b ′ which are located downstream of the position of the label a in the moving body extraction data 2,
The label a ′ at the shortest distance is associated. Label b
Since only the label b ′ is searched for, the label b and the label b ′ are associated with each other. The search target of the label c is the labels a ′, b ′, and c ′, but the label c ′ with the shortest distance.
Are associated with.

【0178】また移動体抽出データ2と移動体抽出デー
タ3間の対応付けおよびカウントは次のように行われ
る。ラベルa′の検索対象はラベルa″、c″である
が、最短距離にあるラベルa″が対応付けられる。ラベ
ルc″の検索対象もラベルa″、c″であるが、最短距
離にあるラベルc″が対応付けられる。ラベルb′は検
索対象ラベルが無いため消滅したと判断され、人数カウ
ントを1つインクリメントする。尚結果的にラベルb″
は新たに出現したことになる。
The association and counting between the moving body extraction data 2 and the moving body extraction data 3 are performed as follows. The search target of the label a ′ is the labels a ″ and c ″, but the label a ″ with the shortest distance is associated. The search target of the label c ″ is also the labels a ″ and c ″, but with the shortest distance. The label c ″ is associated. The label b ′ is determined to have disappeared because there is no search target label, and the number of people is incremented by 1. As a result, the label b ″ is obtained.
Is a new appearance.

【0179】以上をまとめると、 ラベルa=ラベルa′=ラベルa″ ラベルb=ラベルb′≠ラベルb″ ラベルc=ラベルc′=ラベルc″ 移動人数=1人(ラベルb′) となる。Summarizing the above, label a = label a ′ = label a ″ label b = label b ′ ≠ label b ″ label c = label c ′ = label c ″, the number of moving persons = 1 person (label b ′) .

【0180】図32はフレーム間隔が長い場合あるいは
移動速度が遅い場合に用いる第二の対応付け方法による
対応付けおよびカウントの説明図である。
FIG. 32 is an explanatory diagram of association and counting by the second association method used when the frame interval is long or the moving speed is slow.

【0181】図32において、移動体抽出データ1と移
動体抽出データ2間の対応付けおよびカウントは次のよ
うに行われる。ラベルaの検索対象ラベルはラベルa′
だけであるので、 |Mp′(a′)−Mp(a)|<t1 且つ |Mq′(a′)−Mq(a)|<t2 であればラベルaとラベルa′は対応付けられ、そうで
なければラベルaは消滅したと判断され、人数カウント
を1つインクリメントする。ラベルbは検索対象ラベル
が無いため消滅したと判断され、人数カウントを1つイ
ンクリメントする。ラベルcの検索対象ラベルはラベル
a′、c′である。ラベルcとラベルa′の各特徴量の
差の総和およびラベルcとラベルc′の各特徴量の差の
総和を算出し、差の総和が小さいほうの検索対象ラベル
をラベルcと対応付ける。ラベルcとラベルa′の各特
徴量の差の総和は、 |Mp′(a′)−Mp(c)|+|Mq′(a′)−
Mq(c)| によって算出され、ラベルcとラベルc′の各特徴量の
差の総和は、 |Mp′(c′)−Mp(c)|+|Mq′(c′)−
Mq(c)| によって算出される。ラベルbは検索対象ラベルが無い
ため消滅したと判断され、人数カウントを1つインクリ
メントする。
In FIG. 32, association and counting between the moving body extraction data 1 and the moving body extraction data 2 are performed as follows. Label to be searched for label a is label a ′
Therefore, if | Mp ′ (a ′) − Mp (a) | <t 1 and | Mq ′ (a ′) − Mq (a) | <t 2 , the label a and the label a ′ are associated with each other. Otherwise, it is determined that the label a has disappeared, and the number of people count is incremented by one. The label b is determined to have disappeared because there is no search target label, and the number of people count is incremented by one. Labels to be searched for the label c are labels a ′ and c ′. The sum of the differences between the feature amounts of the label c and the label a ′ and the sum of the differences between the feature amounts of the label c and the label c ′ are calculated, and the search target label having the smaller sum of the differences is associated with the label c. The sum of the differences between the feature amounts of the label c and the label a ′ is | Mp ′ (a ′) − Mp (c) | + | Mq ′ (a ′) −
The sum of the differences between the feature amounts of the label c and the label c ′ calculated by Mq (c) | is | Mp ′ (c ′) − Mp (c) | + | Mq ′ (c ′) −
It is calculated by Mq (c) |. The label b is determined to have disappeared because there is no search target label, and the number of people count is incremented by one.

【0182】尚、第二の対応付け方法においては、移動
の向きに着目して検索対象ラベルを絞り込むことをせ
ず、前ラベルを特徴量で比較して対応付けることもでき
る。この方法は移動の向きが人によってまちまちな場合
に適用される。
In the second associating method, it is also possible to compare and associate the previous label with the feature amount without narrowing down the search target label by paying attention to the moving direction. This method is applied when the direction of movement varies from person to person.

【0183】このように上記の第二実施例によれば、画
像データを空間微分して人物の特徴的な領域すなわち頭
領域を抽出することによって、移動体領域内の移動体個
数の判定が不要となるため移動体の個数を正確にカウン
トすることができる。
As described above, according to the second embodiment, it is not necessary to determine the number of moving objects in the moving object area by spatially differentiating the image data and extracting the characteristic area of the person, that is, the head area. Therefore, the number of moving bodies can be accurately counted.

【0184】[0184]

【発明の効果】上記の第一実施例より明らかなように、
請求項1の移動体カウント装置によれば、ポインタシフ
トによりフレームメモリーでのデータシフトを行わずに
画像データから移動体領域を抽出し、ポインタを用いて
グルーピングを行うことによりラベリングの走査回数を
2回とするによって処理を高速化して画像データのサン
プリング間隔を狭め、移動体領域内の移動体個数の判定
においてはアスペクト比に加えて面積比および周面比を
判定項目とし、さらにフレーム間で移動体の対応付けを
行うことによって移動体の個数を正確にカウントするこ
とができるという効果を有する。
As is apparent from the above first embodiment,
According to the moving object counting apparatus of claim 1, the moving object region is extracted from the image data without performing the data shift in the frame memory by the pointer shift, and the grouping is performed by using the pointer so that the number of scanning times of the labeling is 2. By speeding up the process, the sampling interval of the image data is narrowed, and when determining the number of moving bodies in the moving body area, the area ratio and the peripheral surface ratio are used as the judgment items in addition to the aspect ratio, and the movement between frames is performed. By associating the bodies, the number of moving bodies can be accurately counted.

【0185】また上記の第二実施例より明らかなよう
に、請求項2の移動体カウント装置によれば、画像デー
タを空間微分して人物の特徴的な領域である頭領域を抽
出することによって、移動体領域内の移動体個数の判定
が不要となるため移動体の個数を正確にカウントするこ
とができるという効果を有する。
As is clear from the second embodiment described above, according to the moving body counting apparatus of the second aspect, the image data is spatially differentiated to extract the head region which is a characteristic region of the person. Since there is no need to determine the number of moving bodies in the moving body area, the number of moving bodies can be accurately counted.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第一実施例および第二実施例における
移動体カウント装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a moving body counting apparatus in a first embodiment and a second embodiment of the present invention.

【図2】本発明の第一実施例および第二実施例における
CCDカメラのセッティング図である。
FIG. 2 is a setting diagram of a CCD camera according to the first and second embodiments of the present invention.

【図3】本発明の第一実施例における3フレーム法によ
る移動体抽出処理の説明図である。
FIG. 3 is an explanatory diagram of a moving body extraction process by a 3-frame method in the first embodiment of the present invention.

【図4】本発明の第一実施例におけるラベリング処理の
一回目走査部のフローチャートである。
FIG. 4 is a flowchart of a first scanning unit of labeling processing according to the first embodiment of the present invention.

【図5】本発明の第一実施例におけるラベリング処理の
二回目走査部のフローチャートである。
FIG. 5 is a flowchart of a second scanning unit of labeling processing according to the first embodiment of the present invention.

【図6】本発明の第一実施例におけるラベリング処理の
グルーピング処理部のフローチャートである。
FIG. 6 is a flowchart of a grouping processing unit of labeling processing according to the first embodiment of the present invention.

【図7】4方向データの説明図である。FIG. 7 is an explanatory diagram of 4-direction data.

【図8】本発明の第一実施例におけるラベリング処理の
一例である。
FIG. 8 is an example of a labeling process according to the first embodiment of the present invention.

【図9】本発明の第一実施例のグルーピング処理におけ
るポインタ配列p(k)および配列q(k′)の初期化
状態を示す図である。
FIG. 9 is a diagram showing an initialized state of pointer arrays p (k) and arrays q (k ′) in the grouping processing according to the first embodiment of this invention.

【図10】本発明の第一実施例のグルーピング処理の一
例においてdata1処理後およびdata2処理後の
ポインタ配列p(k)および配列q(k′)の状態を示
す図である。
FIG. 10 is a diagram showing a state of pointer arrays p (k) and arrays q (k ′) after data1 processing and data2 processing in an example of the grouping processing of the first exemplary embodiment of the present invention.

【図11】本発明の第一実施例のグルーピング処理の一
例においてdata3処理後およびdata4処理後の
ポインタ配列p(k)および配列q(k′)の状態を示
す図である。
FIG. 11 is a diagram showing a state of pointer arrays p (k) and arrays q (k ′) after data3 processing and data4 processing in an example of the grouping processing of the first exemplary embodiment of the present invention.

【図12】本発明の第一実施例における移動体領域判定
の説明図である。
FIG. 12 is an explanatory diagram of moving body region determination in the first embodiment of the present invention.

【図13】本発明の第一実施例における移動体領域内の
移動体個数判定処理のフローチャートである。
FIG. 13 is a flowchart of a process for determining the number of moving bodies in a moving body area according to the first embodiment of the present invention.

【図14】本発明の第一実施例における移動体領域の一
例である(移動体領域1)。
FIG. 14 is an example of a mobile unit area in the first embodiment of the present invention (mobile unit area 1).

【図15】本発明の第一実施例における移動体領域の一
例である(移動体領域2)。
FIG. 15 is an example of a mobile unit area in the first embodiment of the present invention (mobile unit area 2).

【図16】本発明の第一実施例における移動体領域の一
例である(移動体領域3)。
FIG. 16 is an example of a mobile unit area in the first embodiment of the present invention (mobile unit area 3).

【図17】本発明の第一実施例における移動体領域の一
例である(移動体領域4)。
FIG. 17 is an example of a mobile unit area in the first embodiment of the present invention (mobile unit area 4).

【図18】本発明の第一実施例の移動体領域内の移動体
個数判定処理おける移動体領域1〜4の特徴量算出結果
および設定しきい値の一例である。
FIG. 18 is an example of a feature amount calculation result and a set threshold value of the moving body regions 1 to 4 in the moving body number determination processing in the moving body region according to the first embodiment of the present invention.

【図19】本発明の第一実施例における対応付けおよび
カウント処理のフローチャート(メインルーチン)であ
る。
FIG. 19 is a flowchart (main routine) of association and counting processing in the first embodiment of the present invention.

【図20】本発明の第一実施例における対応付けおよび
カウント処理のフローチャート(サブルーチン1)であ
る。
FIG. 20 is a flowchart (subroutine 1) of association and counting processing in the first embodiment of the present invention.

【図21】本発明の第一実施例における対応付けおよび
カウント処理のフローチャート(サブルーチン2)であ
る。
FIG. 21 is a flowchart (subroutine 2) of association and counting processing in the first embodiment of the present invention.

【図22】本発明の第一実施例における対応付けおよび
カウント処理の一例を示す図である。
FIG. 22 is a diagram showing an example of association and count processing in the first embodiment of the present invention.

【図23】本発明の第一実施例におけるポインタ値シフ
ト法の説明図である。
FIG. 23 is an explanatory diagram of a pointer value shift method in the first embodiment of the present invention.

【図24】本発明の第一実施例におけるCPU処理のフ
ローチャート(メインルーチン)である。
FIG. 24 is a flowchart (main routine) of CPU processing in the first embodiment of the present invention.

【図25】本発明の第一実施例におけるCPU処理のフ
ローチャート(サブルーチン)である。
FIG. 25 is a flowchart (subroutine) of CPU processing in the first embodiment of the present invention.

【図26】本発明の第一実施例のポインタ値シフト法に
おけるデータ領域ポインタの変遷の様子を示す図であ
る。
FIG. 26 is a diagram showing how the data area pointer changes in the pointer value shift method according to the first embodiment of the present invention.

【図27】本発明の第二実施例における差分データDb
であり、エッジの一部がとぎれた状態のものである。
FIG. 27 is the difference data Db in the second embodiment of the present invention.
And a part of the edge is broken.

【図28】本発明の第二実施例における論理積による二
重化消去の説明図である。
FIG. 28 is an explanatory diagram of duplicated erasure by logical product in the second embodiment of the present invention.

【図29】本発明の第二実施例における第一の対応付け
方法による対応付けおよびカウントのフローチャートで
ある。
FIG. 29 is a flowchart of association and counting by the first association method according to the second embodiment of the present invention.

【図30】本発明の第二実施例における第二の対応付け
方法による対応付けおよびカウント方法のフローチャー
トである。
FIG. 30 is a flowchart of an associating and counting method according to a second associating method in the second embodiment of the present invention.

【図31】本発明の第二実施例における第一の対応付け
方法による対応付けおよびカウント処理の一例である。
FIG. 31 is an example of the association and count processing by the first association method in the second exemplary embodiment of the present invention.

【図32】本発明の第二実施例における第二の対応付け
方法による対応付けおよびカウント処理の一例である。
FIG. 32 is an example of an associating and counting process by the second associating method in the second embodiment of the present invention.

【図33】従来例におけるデータシフトの説明図であ
る。
FIG. 33 is an explanatory diagram of data shift in the conventional example.

【図34】従来例におけるラベリング処理のフローチャ
ートである(メインルーチン)。
FIG. 34 is a flowchart of a labeling process in a conventional example (main routine).

【図35】従来例におけるラベリング処理のフローチャ
ートである(サブルーチン1)。
FIG. 35 is a flowchart of a labeling process in a conventional example (subroutine 1).

【図36】従来例におけるラベリング処理のフローチャ
ートである(サブルーチン2)。
FIG. 36 is a flowchart of a labeling process in a conventional example (subroutine 2).

【図37】従来例におけるラベリングの一例である。FIG. 37 is an example of labeling in the conventional example.

【図38】従来例におけるラベリングの走査回数の説明
図である。
FIG. 38 is an explanatory diagram of the number of labeling scannings in the conventional example.

【符号の説明】[Explanation of symbols]

1 CCDカメラ 2 A/Dコンバータ 3 ディジタルスイッチ 4、5、6 フレームメモリー 7 データメモリー 8 CPU 9 プログラムメモリ− 10 データ入力手段 11 記憶手段 12 演算処理手段 1 CCD Camera 2 A / D Converter 3 Digital Switch 4, 5, 6 Frame Memory 7 Data Memory 8 CPU 9 Program Memory-10 Data Input Means 11 Storage Means 12 Arithmetic Processing Means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 K ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display part H04N 7/18 K

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 連続するフレーム画像データを得るデー
タ入力手段と、 該入力手段より入力された画像データを記憶する記憶手
段と、 該記憶手段とデータのやりとりをしながら、ポインタシ
フトにより前記画像データのフレーム間差分をとること
によって移動体領域を抽出し、該移動体領域にポインタ
を用いたグルーピングによるラベリングを施して独立し
た移動体領域ごとに分離し、該ラベリングされた移動体
領域のアスペクト比、面積比および周面比から移動体領
域内の移動体個数を判定することによってフレームごと
に移動体を抽出し、フレーム間で該移動体の対応付けを
行い、対応のとれなかった移動体を対象領域外に移動し
たものとしてカウントし、該カウント結果を出力する演
算処理手段とを具備することを特徴とする移動体カウン
ト装置。
1. Data input means for obtaining continuous frame image data, storage means for storing image data input by the input means, and the image data by pointer shift while exchanging data with the storage means. The moving object area is extracted by taking the difference between frames, the moving object area is labeled by grouping using a pointer to separate each moving object area, and the aspect ratio of the labeled moving object area is determined. , The moving body is extracted for each frame by determining the number of moving bodies in the moving body region from the area ratio and the peripheral surface ratio, and the moving bodies are associated between the frames, and the moving bodies that cannot be matched are identified. A moving object power source, comprising: an arithmetic processing unit that counts as having moved outside the target area and outputs the count result. Cement equipment.
【請求項2】 連続するフレーム画像データを得るデー
タ入力手段と、 該入力手段より入力された画像データを記憶する記憶手
段と、 該記憶手段とデータのやりとりをしながら、前記画像デ
ータを空間微分し、該空間微分された画像データのフレ
ーム間差分をとることによって移動体の特徴的な部分を
抽出し、該特徴的な部分にラベリングを施すことによっ
てフレームごとに移動体を抽出し、フレーム間で該移動
体の対応付けを行い、対応のとれなかった移動体を対象
領域外に移動したものとしてカウントし、該カウント結
果を出力する演算処理手段とを具備することを特徴とす
る移動体カウント装置。
2. Data input means for obtaining continuous frame image data, storage means for storing the image data input by the input means, and spatial differentiation of the image data while exchanging data with the storage means. Then, the characteristic portion of the moving body is extracted by taking the difference between the frames of the spatially differentiated image data, and the moving body is extracted for each frame by labeling the characteristic portion, The moving object counting is performed by associating the moving objects with each other, counting the unmoving moving objects as having moved out of the target area, and outputting the count result. apparatus.
JP6337551A 1994-12-28 1994-12-28 Mobile object counter Pending JPH08185521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6337551A JPH08185521A (en) 1994-12-28 1994-12-28 Mobile object counter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6337551A JPH08185521A (en) 1994-12-28 1994-12-28 Mobile object counter

Publications (1)

Publication Number Publication Date
JPH08185521A true JPH08185521A (en) 1996-07-16

Family

ID=18309716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6337551A Pending JPH08185521A (en) 1994-12-28 1994-12-28 Mobile object counter

Country Status (1)

Country Link
JP (1) JPH08185521A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055425A (en) * 1996-08-08 1998-02-24 Tokyo Electric Power Co Inc:The Device for monitoring waterway flowing in/out object
JPH10171916A (en) * 1996-12-10 1998-06-26 Matsushita Electric Ind Co Ltd Bar code reader
JPH10304348A (en) * 1997-05-01 1998-11-13 Atr Chinou Eizo Tsushin Kenkyusho:Kk Mobile object tracing method
JP2000078564A (en) * 1998-08-28 2000-03-14 Aiphone Co Ltd System for tracing person on television camera monitor
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2001175874A (en) * 1999-12-15 2001-06-29 Matsushita Electric Ind Co Ltd Method and device for detecting moving body in moving picture
JP2002190030A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring quantity of moving body by image recognition
JP2002190027A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring speed by image recognition
WO2002093487A1 (en) * 2001-05-14 2002-11-21 Koninklijke Philips Electronics N.V. Method and apparatus for assisting visitors in exhibition-like events using image-based crowd analysis
JP2003109001A (en) * 2001-09-27 2003-04-11 Ced System Inc System and program for detecting person
JP2003173435A (en) * 2001-12-06 2003-06-20 Tietech Co Ltd Moving body detecting method and moving body detecting device
JP2003196786A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2003196787A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2004265252A (en) * 2003-03-03 2004-09-24 Matsushita Electric Works Ltd Image processor
JP2004295416A (en) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd Image processing apparatus
JP2004355665A (en) * 1998-01-07 2004-12-16 Toshiba Corp Object extracting apparatus
JP2006197373A (en) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp Viewer information measuring instrument
JP2007080146A (en) * 2005-09-16 2007-03-29 Nippon Telegr & Teleph Corp <Ntt> Picture change extracting method, picture change extractor and picture change extracting program
JP2007102650A (en) * 2005-10-07 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> System, method and program for detecting motion area
JP2009070387A (en) * 2007-09-12 2009-04-02 Core Logic Inc Video processing device, method, and recording medium thereof
JP2009147922A (en) * 2007-11-22 2009-07-02 Semiconductor Energy Lab Co Ltd Image processing method, image display system, and computer program
JP2009239903A (en) * 2008-03-05 2009-10-15 Semiconductor Energy Lab Co Ltd Image processing method, image processing system, and computer program
JP2010204941A (en) * 2009-03-03 2010-09-16 Toshiba Teli Corp Image processing apparatus and shadow removal processing program
JP2012073891A (en) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd Frequency component specification method for smoke detection and smoke detector
JP2014504410A (en) * 2010-12-20 2014-02-20 インターナショナル・ビジネス・マシーンズ・コーポレーション Detection and tracking of moving objects
CN104484997A (en) * 2014-12-24 2015-04-01 福州大学 Regional moving vehicle flow detection method based on video image technology
JP2017220020A (en) * 2016-06-07 2017-12-14 リズム時計工業株式会社 Moving body detection system and moving body detection method
JP2020009382A (en) * 2018-07-12 2020-01-16 株式会社チャオ Traffic line analyzer, traffic line analysis program, and method for analyzing traffic line

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055425A (en) * 1996-08-08 1998-02-24 Tokyo Electric Power Co Inc:The Device for monitoring waterway flowing in/out object
JPH10171916A (en) * 1996-12-10 1998-06-26 Matsushita Electric Ind Co Ltd Bar code reader
JPH10304348A (en) * 1997-05-01 1998-11-13 Atr Chinou Eizo Tsushin Kenkyusho:Kk Mobile object tracing method
JP2004355665A (en) * 1998-01-07 2004-12-16 Toshiba Corp Object extracting apparatus
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2000078564A (en) * 1998-08-28 2000-03-14 Aiphone Co Ltd System for tracing person on television camera monitor
JP2001175874A (en) * 1999-12-15 2001-06-29 Matsushita Electric Ind Co Ltd Method and device for detecting moving body in moving picture
JP2002190030A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring quantity of moving body by image recognition
JP2002190027A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring speed by image recognition
WO2002093487A1 (en) * 2001-05-14 2002-11-21 Koninklijke Philips Electronics N.V. Method and apparatus for assisting visitors in exhibition-like events using image-based crowd analysis
JP2003109001A (en) * 2001-09-27 2003-04-11 Ced System Inc System and program for detecting person
JP2003173435A (en) * 2001-12-06 2003-06-20 Tietech Co Ltd Moving body detecting method and moving body detecting device
JP2003196786A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2003196787A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2004265252A (en) * 2003-03-03 2004-09-24 Matsushita Electric Works Ltd Image processor
JP2004295416A (en) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd Image processing apparatus
JP2006197373A (en) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp Viewer information measuring instrument
JP4641477B2 (en) * 2005-09-16 2011-03-02 日本電信電話株式会社 Video change extraction method, video change extraction device, and video change extraction program
JP2007080146A (en) * 2005-09-16 2007-03-29 Nippon Telegr & Teleph Corp <Ntt> Picture change extracting method, picture change extractor and picture change extracting program
JP2007102650A (en) * 2005-10-07 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> System, method and program for detecting motion area
JP4627711B2 (en) * 2005-10-07 2011-02-09 日本電信電話株式会社 Motion region detection system, motion region detection method, and motion region detection program
JP2009070387A (en) * 2007-09-12 2009-04-02 Core Logic Inc Video processing device, method, and recording medium thereof
US8160360B2 (en) 2007-09-12 2012-04-17 Core Logic, Inc. Image processing apparatus and method and a non-transitory computer readable medium with computer executable instructions stored thereon for performing an image processing method
JP2009147922A (en) * 2007-11-22 2009-07-02 Semiconductor Energy Lab Co Ltd Image processing method, image display system, and computer program
US9123132B2 (en) 2007-11-22 2015-09-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image display system, and computer program
US8687918B2 (en) 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
JP2009239903A (en) * 2008-03-05 2009-10-15 Semiconductor Energy Lab Co Ltd Image processing method, image processing system, and computer program
JP2010204941A (en) * 2009-03-03 2010-09-16 Toshiba Teli Corp Image processing apparatus and shadow removal processing program
JP2012073891A (en) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd Frequency component specification method for smoke detection and smoke detector
JP2014504410A (en) * 2010-12-20 2014-02-20 インターナショナル・ビジネス・マシーンズ・コーポレーション Detection and tracking of moving objects
US9147260B2 (en) 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
CN104484997A (en) * 2014-12-24 2015-04-01 福州大学 Regional moving vehicle flow detection method based on video image technology
JP2017220020A (en) * 2016-06-07 2017-12-14 リズム時計工業株式会社 Moving body detection system and moving body detection method
JP2020009382A (en) * 2018-07-12 2020-01-16 株式会社チャオ Traffic line analyzer, traffic line analysis program, and method for analyzing traffic line

Similar Documents

Publication Publication Date Title
JPH08185521A (en) Mobile object counter
JP4970195B2 (en) Person tracking system, person tracking apparatus, and person tracking program
Al-Ghaili et al. Vertical-edge-based car-license-plate detection method
CN107424142B (en) Weld joint identification method based on image significance detection
JP2915894B2 (en) Target tracking method and device
JPH0676062A (en) Picture processor
JP4946878B2 (en) Image identification apparatus and program
CN111539980B (en) Multi-target tracking method based on visible light
JP3800785B2 (en) White line recognition device
JP3490482B2 (en) Edge and contour extraction device
JP2903923B2 (en) Car number recognition device
CN116718599B (en) Apparent crack length measurement method based on three-dimensional point cloud data
Hommos et al. Hd Qatari ANPR system
JP3230509B2 (en) Moving image processing device
CN102073868A (en) Digital image closed contour chain-based image area identification method
CN111583341B (en) Cloud deck camera shift detection method
JPH0664614B2 (en) Hierarchical structured template matching method
JPH08161508A (en) Pattern detecting method
JP3232064B2 (en) Target area extraction method for color images
Wu et al. Motion detection based on two-piece linear approximation for cumulative histograms of ratio images in intelligent transportation systems
Malik High-quality vehicle trajectory generation from video data based on vehicle detection and description
JP2004258931A (en) Image processing method, image processor, and image processing program
JP2963138B2 (en) Color image processing equipment
CN113269188B (en) Mark point and pixel coordinate detection method thereof
JPH09107541A (en) Mobile object counter