JPH01207679A - Extracting method for background information - Google Patents

Extracting method for background information

Info

Publication number
JPH01207679A
JPH01207679A JP63030998A JP3099888A JPH01207679A JP H01207679 A JPH01207679 A JP H01207679A JP 63030998 A JP63030998 A JP 63030998A JP 3099888 A JP3099888 A JP 3099888A JP H01207679 A JPH01207679 A JP H01207679A
Authority
JP
Japan
Prior art keywords
scanning line
value
background information
feature value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63030998A
Other languages
Japanese (ja)
Other versions
JP2829960B2 (en
Inventor
Takuya Yamahira
山平 拓也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63030998A priority Critical patent/JP2829960B2/en
Publication of JPH01207679A publication Critical patent/JPH01207679A/en
Application granted granted Critical
Publication of JP2829960B2 publication Critical patent/JP2829960B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To improve the accuracy of measurement by extracting the number of '1's on a scanning line which is generated most in a predetermined time as background information in an image. CONSTITUTION:A video signal inputted to an input part 10 is outputted to a shift register 11 and a difference calculation part 12. The calculation part 12 receives video signals from the register 11 and input part 10 and outputs the absolute value of the difference. The output of the calculation part 12 is sent to a feature value updating part 14 through a threshold comparison part 13. The updating part 14 reads the right and left values of an area out of an area storage part 15, adds a feature value, and the scanning line feature value to a stored instruction part 19. The instruction part 19 reads the right and left values of the area and increases the value of a corresponding area in a feature value storage part 20 by one. After the processing of the instruction part 19, a picture element number counting part 21 passes control to a period counter 22 when values of a row (i) and a row (j) reach the picture element number of the right lower end of the screen. The measured value of the counter part 22 and the value of a cycle quantity storage part 23 are compared 22 and an extraction part 24 extracts the maximum value of each scanning line feature value of the storage part 20 as background information on each scanning line when the values are equal to each other, thereby outputting the information to a background information storage part 25.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、車両や航空機などの移動物体を検出する方法
に関し、特に移動物体以外の背景情報を抽出する背景情
報抽出方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a method for detecting a moving object such as a vehicle or an aircraft, and particularly to a background information extraction method for extracting background information other than a moving object.

〔従来の技術〕[Conventional technology]

テレビカメラ等から得られた映像信号を処理して移動物
体を検出する場合、移動物体でない部分、いわゆる背景
情報を認識することは良好な検出精度を得るために非常
に重要である。そのため従来、特願昭55−18459
1r車両存在位置方式」が提案されている。この方式は
2次元状に標本化された画像内の走査線方向の近隣画素
値の差をとり、その差の大小により画像を「1」と「0
」に2値化する。
When detecting a moving object by processing a video signal obtained from a television camera or the like, it is very important to recognize parts that are not moving objects, so-called background information, in order to obtain good detection accuracy. Therefore, conventionally, patent application No. 55-18459
1r vehicle presence position method" has been proposed. This method takes the difference between neighboring pixel values in the scanning line direction in a two-dimensionally sampled image, and depending on the magnitude of the difference, the image is divided into "1" and "0".
”.

そして、被計測領域内の同一走査線方向の「1」の数を
走査線の特徴値とし、この特徴値を利用して走行中の車
両の存在を検出するものである。この場合、背景値の抽
出としては予め予想される背景値の最大値をしきい値A
として設定する。そして、このしきい値Aより小さい走
査線上の特徴値を得たときに背景値として認識している
Then, the number of "1"s in the same scanning line direction within the measurement area is taken as a feature value of the scanning line, and this feature value is used to detect the presence of a running vehicle. In this case, to extract the background value, the maximum value of the background value expected in advance is set to the threshold value A.
Set as . When a feature value on a scanning line that is smaller than this threshold value A is obtained, it is recognized as a background value.

また、前述した走査線の特徴値を自動設定する方法ハ、
y、子通信学会論文誌Vol、 J68−D No、3
゜1985年3月、「画像処理手法を用いた交通流計測
システム」において提案されている。この方法は一定周
期内に同一走査線の走査線特徴値として発生した値のう
ち、車両が存在したと判定された場合を除いて最大値X
と最小値yを求める。その後、景背値はX+α、y−α
(α、βは定数)にはさまれた値であると認識して順次
計測していくものである。
In addition, the method of automatically setting the feature values of the scanning line described above,
y, Child Communication Society Journal Vol. J68-D No. 3
It was proposed in March 1985 in "Traffic flow measurement system using image processing method". This method calculates the maximum value of
and find the minimum value y. After that, the background value is X+α, y-α
(α and β are constants) and are sequentially measured.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、前述した「車両存在位置検出方式」は背
景情報のしきい値Aを予め設定しているため、時々刻々
と天候条件等により背景情報が変化すると正確な位置検
出が不可能であった。また、しきい値Aの操作によって
は車両の存在する場合に生じる走査線の特徴値をも背景
情報と誤って処理してしまう恐れがあった。
However, since the above-mentioned "vehicle presence position detection method" sets the background information threshold value A in advance, accurate position detection is impossible if the background information changes from moment to moment due to weather conditions or the like. Further, depending on the operation of the threshold value A, there is a possibility that feature values of scanning lines that occur when a vehicle is present may also be mistakenly treated as background information.

また、「画像処理手法を用いた交通流計測システム」は
背景値をX+α、y+βにはさまれた値として順次計測
していくものであるため、n周期目の背景値はx −)
−nα、 y −nβとなってしまう。
In addition, since the "traffic flow measurement system using image processing method" sequentially measures the background value as a value sandwiched between X + α and y + β, the background value of the nth cycle is x -)
-nα, y -nβ.

すなわち、順次計測を続けると背景値の上限(X+nα
)は徐々に増加し、下限(y−nβ)はOに近づく結果
となり正常な計測が不可能であった。
In other words, if measurements are continued sequentially, the upper limit of the background value (X+nα
) gradually increased, and the lower limit (y-nβ) approached O, making normal measurement impossible.

このように、走査線を処理する方法で背景情報にあたる
特徴値を効果的に抽出し、かつそれを自動的に行なう方
法は前例をみていない。
In this way, there is no precedent for a method of effectively extracting feature values corresponding to background information using a method of processing scanning lines, and of automatically doing so.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の背景情報抽出方法は、2次元状に標本化された
画像内における走査線方向の近隣画素値の差をとり、そ
の値の大小により画像情報を「1」と「O」に2値化し
、画像内の同一走査線上の「1」の数をI¥fgi値と
して処理する方法において、周期的に一定時間毎に一定
数の画像を発生する信号を処理する場合、予め定められ
た時間内に最も多く発生した走査線上の「1」の数を画
像内の背景情報として抽出する。
The background information extraction method of the present invention calculates the difference between adjacent pixel values in the scanning line direction in a two-dimensionally sampled image, and divides the image information into binary values of "1" and "O" depending on the magnitude of the value. In a method that processes the number of "1"s on the same scanning line in an image as an I\fgi value, when processing a signal that periodically generates a certain number of images at a certain time, The number of "1"s that occur most frequently on the scanning line within the image is extracted as background information within the image.

また、背景以外の物体が存在していたときを除いて予め
定められた時間内に最も多く発生した走査線上の「1」
の数を画像内の背景情報として抽出する。
In addition, "1" on the scanning line that occurred most frequently within a predetermined time, except when objects other than the background were present.
Extract the number of images as background information in the image.

また、設定された走査線の間に背景以外の物体が存在し
ていたときを除いて予め定められた時間内に最も多く発
生した走査線上の「1」の数を画像内の背景情報として
抽出する。
In addition, the number of "1"s that occur most frequently on the scanning line within a predetermined time is extracted as background information in the image, except when objects other than the background are present between the set scanning lines. do.

〔作用〕[Effect]

画像内における走査線方向の近隣画素値の差を算出し、
その値の大小により画像情報を「1」と「0」に2値化
すると共に、予め定められた時間内に最も多く発生した
走査線上の「1」を面内の背景情報として抽出する。
Calculate the difference between neighboring pixel values in the scanning line direction within the image,
The image information is binarized into ``1'' and ``0'' depending on the magnitude of the value, and the ``1'' on the scanning line that occurs most frequently within a predetermined time is extracted as in-plane background information.

また、既に抽出した背景情報と走査線上の「1」の数と
を比較し、背景以外の物体が存在していたときを除いて
背景情報を抽出する。
Further, the already extracted background information is compared with the number of "1"s on the scanning line, and the background information is extracted except when an object other than the background is present.

また、画面上における走査線間の範囲を設定し、この範
囲内に背景以外の物体が存在するか否かを認識した後、
背景情報を抽出する。
Also, after setting the range between the scanning lines on the screen and recognizing whether there are objects other than the background within this range,
Extract background information.

〔実施例〕〔Example〕

次に本発明について図面を参照して説明する。 Next, the present invention will be explained with reference to the drawings.

第1図は本発明に係る第1の実施例を示すブロック図で
ある。図において、10はテレビカメラの映像信号を入
力する入力部、11はシフトレジスタ、12は入力部1
0とシフトレジスタ11の信号を減算して絶対値を算出
する差分算出部、13社差分算出部12の算出結果と予
め定められたしきい値とを比較するしきい値比較部、1
4はしきい値比較部13の結果より走査線上の特徴値を
更新する特徴値更新部、15は計測領域を記憶している
領域記憶部、19は特徴値の更新部14により特徴値記
憶部20を操作する記憶命令部、20は各走査線におけ
る走査線特徴値の発生頻度を記憶している特徴値記憶部
、21は画面の画素番号を測定する画素番号カウント部
、22は画面の周期を測定する周期カウント部、23は
画面の周期の数を記憶する周期記憶部、24は特徴値記
憶部20から背景情報を抽出する背景情報抽出部、25
は背景情報抽出部の抽出結果を記憶する背景情報記憶部
である。
FIG. 1 is a block diagram showing a first embodiment according to the present invention. In the figure, 10 is an input section for inputting video signals from a television camera, 11 is a shift register, and 12 is an input section 1.
1; a difference calculation unit that calculates an absolute value by subtracting 0 and the signal of the shift register 11; a threshold comparison unit that compares the calculation result of the 13-company difference calculation unit 12 with a predetermined threshold;
Reference numeral 4 denotes a feature value updating unit that updates the feature values on the scanning line based on the results of the threshold comparison unit 13; 15, an area storage unit that stores measurement areas; and 19, a feature value storage unit that updates the feature values on the scanning line based on the results of the threshold comparison unit 13; 20 is a feature value storage section that stores the frequency of occurrence of the scanning line feature value in each scanning line; 21 is a pixel number counting section that measures the pixel number of the screen; 22 is the period of the screen. 23 is a cycle storage unit that stores the number of screen cycles; 24 is a background information extraction unit that extracts background information from the feature value storage unit 20; 25
is a background information storage unit that stores the extraction results of the background information extraction unit.

次に動作について説明する。一般に2次元状にi行j列
の配列に仮定できる映像信号ai、jは量子化された後
、入力部10に入力される。入力部10は各画素に対応
する値を逐次受は取シ、シフトレジスタ11と差分算出
部12へそれぞれ入力する。差分算出部12はシフトレ
ジスタ11と入力部10から映像信号を受は取り、その
差の絶対値を算出する。シフトレジスタ11における入
力から出力までの遅延時間は同一走査線上で比較する画
素の間隔を意味しておシ、遅延時間がkならばシフトレ
ジスタの出力はalJ−にとなる。従って、差分算出部
12はfat j−に−ai j lをしきい値比較部
13へ出力することになる。しきい値比較部13は予め
定められたしきい値THと差分算出部12の結果を比較
し、Iat j −に−as j1≧THならばrlJ
 r Iat、3−k  ”I、J l≦THならば「
0」を画素の特徴値Pij−にとして特徴値更新部14
へ送る。特徴値更新部14は計測領域内の「1」の和を
カウントするところで、計測領域を記憶している領域記
憶部15からi行の領域の左右値(31yJt)を読み
出し、j、≦3−k<J、であれば前述の特徴値Plj
−kを加算し、V1+Ptj−にとして走査線特徴値v
1を更新する。特徴値更新部14は処理を完了すると記
憶命令部19に走査線特徴値Vlを出力する。記憶命令
部19は前述のようにi行の領域の左右値(31+Jt
 )を読み出しJ −k = J tであれば、各走査
線の走査線特徴値Viの発生頻度を記憶している特徴値
記憶部20の該当するエリアの値を1インクリメントす
る。
Next, the operation will be explained. The video signals ai,j, which can generally be assumed to be arranged in a two-dimensional array of i rows and j columns, are input to the input section 10 after being quantized. The input section 10 sequentially receives the values corresponding to each pixel and inputs them to the shift register 11 and the difference calculation section 12, respectively. The difference calculating section 12 receives and receives video signals from the shift register 11 and the input section 10, and calculates the absolute value of the difference. The delay time from input to output in the shift register 11 means the interval between pixels to be compared on the same scanning line, and if the delay time is k, the output of the shift register will be alJ-. Therefore, the difference calculation section 12 outputs -ai j l to the threshold comparison section 13 for fat j-. The threshold comparison unit 13 compares the predetermined threshold TH with the result of the difference calculation unit 12, and determines if Iat j − to −as j1≧TH, rlJ
r Iat, 3-k ``I, J If l≦TH, then ``
0'' as the feature value Pij- of the pixel and the feature value update unit 14
send to When the feature value updating unit 14 counts the sum of “1” in the measurement area, it reads the left and right values (31yJt) of the area in the i row from the area storage unit 15 that stores the measurement area, and calculates that j,≦3− If k<J, the above-mentioned feature value Plj
-k is added to V1+Ptj-, and the scanning line feature value v
Update 1. When the feature value updating unit 14 completes the processing, it outputs the scanning line feature value Vl to the storage command unit 19. As mentioned above, the storage instruction unit 19 stores the left and right values (31+Jt
) is read and if J -k = J t, the value in the corresponding area of the feature value storage section 20 that stores the frequency of occurrence of the scanning line feature value Vi of each scanning line is incremented by 1.

特徴値記憶部20は2次元状のメモリで、i行の走査線
における走査線特徴値viの発生頻度をi行Vi列の要
素として記憶している。記憶命令部19の処理が終了す
ると画素番号カウント部21に制御が移される。なお、
前述の説明でj−に=j、でなければ記憶命令部19を
通過して画素番号カウント部21に制御が移る。画素番
号カウント部21は画面の画素番号を測定しておシ、j
列の値が画面の右端にあたる画素番号になったときi行
の走査線番号を1インクリメントし、j列の値を画面左
端の値1に合せる。そして、i行とj列の値が画面の右
下端にあたる画素番号になった場合、制御を周期カウン
ト部22へ移す。また、画面右下端にあたる画素番号に
達しなかった場合は制御を入力部10へ戻し前述した処
理を繰返す。
The feature value storage unit 20 is a two-dimensional memory that stores the frequency of occurrence of the scanning line feature value vi in the i-th row of scanning lines as an element in the i-th row and the Vith column. When the processing of the storage instruction section 19 is completed, control is transferred to the pixel number counting section 21. In addition,
In the above explanation, unless j-=j, control passes through the storage instruction section 19 and is transferred to the pixel number counting section 21. The pixel number counting unit 21 measures the pixel number of the screen and calculates the pixel number.
When the column value reaches the pixel number at the right edge of the screen, the scanning line number in the i row is incremented by 1, and the value in the j column is adjusted to the value 1 at the left edge of the screen. Then, when the value in the i row and the j column reaches the pixel number corresponding to the lower right edge of the screen, control is transferred to the cycle counting section 22. If the pixel number corresponding to the lower right corner of the screen has not been reached, control is returned to the input unit 10 and the above-described process is repeated.

周期カウント部22は画面の周期を測定しており、制御
が移されると1カウントを増加する。また、予め背景を
抽出するための周期を画面の数で記憶している周期数記
憶部23の値と、周期カウント部22で測定された値と
を比較する。そして、その値が一致すれば周期カウント
部22の内容をOにリセットして制御を背景情報抽出部
24へ移し、一致しなければ制御を入力部10に戻す。
The period counting section 22 measures the period of the screen, and increases the count by 1 when control is transferred. Further, the value of the cycle number storage unit 23, which stores the cycle for extracting the background in advance in terms of the number of screens, is compared with the value measured by the cycle count unit 22. If the values match, the contents of the cycle count section 22 are reset to O and control is transferred to the background information extraction section 24, and if they do not match, control is returned to the input section 10.

背景情報抽出部24は背景情報を抽出するため特徴値記
憶部20の各行の走査線特徴値のうち最大値を各走査線
の背景情報として抽出し、背景情報記憶部25へ出力す
る。そして、i行j列の値をOにリセットして制御を入
力部10に戻す。背景情報記憶部25は1次元状の配列
で背景情報を記憶することができる。
In order to extract background information, the background information extraction section 24 extracts the maximum value among the scanning line feature values of each row of the feature value storage section 20 as background information of each scanning line, and outputs it to the background information storage section 25. Then, the value in row i and column j is reset to O and control is returned to input unit 10. The background information storage unit 25 can store background information in a one-dimensional array.

第2図は本発明に係る第2の実施例を示すブロック図で
ある。図において第1図と同一部分については同一符号
を付する。16は領域判定部である0 この実施例において入力部10から特徴値更新部14に
至るまでの動作は第1の実施例と同一である。さて、領
域判定部16は特徴値更新部14から走査a%徴値vi
を受は取ると、領域記憶部15かも1行の領域の左右値
(jz−Jt)を読み出し、j−に=jtであれば記憶
命令部19へ制御を移す。また、この条件を満足しない
ときは画素番号カウント部21に制御を移すことKなる
。記憶命令部19は背景情報を記憶している背景情報記
憶部25の内容十ho1を参照すると共に、予め設定さ
れている値α、βを利用し+1lel−αりvI≦+)
lol+βであれば制御を画素番号カウント部21へ移
す。また、この条件が満足しないときは特徴値更新部1
4で求められた走査線特徴値の発生頻度を記憶している
特徴値記憶部20の該当するエリアの値を1インクリメ
ントする0以降の動作は第1の実施例と同一である。従
って、第2の実施例では、領域判定部16で計測領域を
限定し、記憶命令部で既に記憶されている背景情報記憶
部25のデータと対比させることにより背景以外の物体
が存在することを認識し、最も多く発生した走査線特徴
値の数を画像内の背景情報として抽出することができる
FIG. 2 is a block diagram showing a second embodiment according to the present invention. In the figure, the same parts as in FIG. 1 are given the same reference numerals. Reference numeral 16 denotes a region determining section 0. In this embodiment, the operations from the input section 10 to the feature value updating section 14 are the same as in the first embodiment. Now, the area determination unit 16 receives the scan a% characteristic value vi from the feature value update unit 14.
When it is received, the area storage unit 15 also reads the left and right values (jz-Jt) of the area of one line, and if j-=jt, control is transferred to the storage instruction unit 19. Furthermore, if this condition is not satisfied, control is transferred to the pixel number counting section 21. The storage instruction unit 19 refers to the content 1ho1 of the background information storage unit 25 that stores background information, and uses the preset values α and β to calculate +1lel−α (vI≦+)
If lol+β, control is transferred to the pixel number counting section 21. Also, if this condition is not satisfied, the feature value updating unit 1
The operations after 0 in which the value in the corresponding area of the feature value storage unit 20 storing the frequency of occurrence of the scanning line feature value determined in step 4 is incremented by 1 are the same as in the first embodiment. Therefore, in the second embodiment, the area determination unit 16 limits the measurement area, and the storage instruction unit compares it with the data in the background information storage unit 25 that has already been stored, thereby detecting the presence of objects other than the background. It is possible to recognize and extract the number of scanning line feature values that occur most frequently as background information in the image.

第3図は本発明に係る第3の実施例を示すブロック図で
ある。図において第1図及び第2図と同一部分について
は同一符号を付する。17は背景有効性判定部、18は
フラグ記憶部である。
FIG. 3 is a block diagram showing a third embodiment according to the present invention. In the figure, the same parts as in FIGS. 1 and 2 are designated by the same reference numerals. 17 is a background validity determining section, and 18 is a flag storage section.

この実施例において入力部10から領域判定部16に至
るまでの動作は第2の実施例と同一である。さて、背景
有効性判定部17は領域判定部16から制御を受は取る
と、背景情報記憶部25の内容+fiolを参照すると
共に、予め設定されている値α、βを利用し、+hoI
−α≦Vi≦+h61+βであれば、同−画像内の各走
査線の走査線特徴値を記憶しているフラグ記憶部18に
おける該当走査線i行の値を走査線特徴値vtとして書
込む。また、この条件を満足しないときは%%なるフラ
グを書き込み記憶命令部19へ制御を移す。記憶命令部
19は、第4図に示す走査線特徴値の配列図のように、
走査線i行の走査線特徴値Viを得た時点で走査線i 
−n −mから走査線iまでの特徴値が背景として有効
であるか否かをフラグ記憶部18の値により判断する。
In this embodiment, the operation from the input section 10 to the area determination section 16 is the same as in the second embodiment. Now, when the background validity determining unit 17 receives control from the area determining unit 16, it refers to the content +fiol of the background information storage unit 25, uses preset values α and β, and +hoI
If -α≦Vi≦+h61+β, the value of the corresponding scanning line i row in the flag storage unit 18 that stores the scanning line characteristic value of each scanning line in the same image is written as the scanning line characteristic value vt. If this condition is not satisfied, a flag of %% is written and control is transferred to the storage instruction section 19. As shown in the array diagram of scanning line feature values shown in FIG.
When the scanning line feature value Vi of the scanning line i row is obtained, the scanning line i
It is determined based on the value in the flag storage unit 18 whether the feature values from −n −m to scanning line i are valid as a background.

すなわち、フラグ記憶部18に簑簑フラグが書き込まれ
ていれば走査線i −n−mから走査線iまでに背景と
異なるものが存在したと判断し、走査線i −nの走査
線特徴値Vi−0を背景情報とは認めず特徴値記憶部2
0の値を操作しない。一方、フラグ記憶部18に舛袴フ
ラグが書き込まれていなければ、走査線i −n −m
から走査線iまでが背景であることを判断し、走査線i
 −nの走査線特徴値V、−アを背景情報として特徴値
記憶部20のi −n行V、−0列の値を1インクリメ
ントする。なお、m 、 nは走査線数を示す。記憶部
1911前述の動作を完了すると画素番号カウント部2
1へ制御を移す。以降の動作は第1の実施例と同一であ
る。従って、第3の実施例は、記憶命令部19により走
査線間の範囲を設定し、この範囲内に背景以外の物体が
存在するか否かを認識した後、最も多く発生した走査線
特徴値の数を画像内の背景情報として抽出することがで
きる。
That is, if the gutter flag is written in the flag storage unit 18, it is determined that there is something different from the background from scanning line i-n-m to scanning line i, and the scanning line feature value of scanning line i-n is determined. The feature value storage unit 2 does not recognize Vi-0 as background information.
Do not manipulate 0 values. On the other hand, if the masu-hakama flag is not written in the flag storage unit 18, the scanning line i −n −m
It is determined that the area from to scanning line i is the background, and scanning line i
Using the scanning line feature value V of -n and -a as background information, the value in the i-n row V and -0 column of the feature value storage unit 20 is incremented by 1. Note that m and n indicate the number of scanning lines. When the storage unit 1911 completes the above operation, the pixel number counting unit 2
Transfer control to 1. The subsequent operations are the same as in the first embodiment. Therefore, in the third embodiment, after setting the range between scanning lines by the storage instruction unit 19 and recognizing whether or not there is an object other than the background within this range, the most frequently occurring scanning line feature value The number of images can be extracted as background information within the image.

〔本発明の効果〕[Effects of the present invention]

以上説明したように、本発明の背景情報抽出方法によれ
ば、2次元状に標本化された画像内における走査線方向
の近隣画素値の差をとり、その値の大小によυ画像情報
を「1」とrOJK2値化し、予め定められた時間内に
最も多く発生した走査線上の「1」の数を画像内の背景
情報として抽出することにより、背景が時々刻々と天侯
争件等により変化してもその条件等を具備した背景情報
を抽出することができる。これにより、従来の車両、航
空機等の移動物体を検出する場合、測定精度を向上させ
ることができる。
As explained above, according to the background information extraction method of the present invention, the difference between neighboring pixel values in the scanning line direction in a two-dimensionally sampled image is taken, and υ image information is obtained based on the magnitude of the value. By converting "1" into rOJK binarization and extracting the number of "1"s that occur most often on the scanning line within a predetermined time as background information in the image, the background can be changed from moment to moment depending on the Even if the information changes, background information that satisfies the conditions can be extracted. Thereby, when detecting a moving object such as a conventional vehicle or aircraft, measurement accuracy can be improved.

また、自動的に背景情報を抽出することができるため、
処理の高速化が図れる。
In addition, background information can be automatically extracted, so
Processing speed can be increased.

さらに、同−画像情報内に背景以外の物体が存在してい
ても、その物体だけを除いて背景情報を抽出することが
できるため、移動物体等と背1゛情報とが混同すること
がなくなるなどの顕著な効果を有する。
Furthermore, even if there is an object other than the background in the same image information, it is possible to extract the background information by excluding only that object, which eliminates confusion between moving objects, etc. and the back information. It has remarkable effects such as

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る第1の実施例を示すブロック図、
第2図は第2の実施例を示すブロック図、第3図は第3
の実施例を示すブロック図、第4図は走査線特徴値の配
列図である。 10・・・・入力部、11・・・・シフトレジスタ、1
2・・・・差分算出部、13・・・・しきい値比較部、
14・・・・特徴値更新部、15・・・・領域記憶部、
16・・・・領域判定部、17・・・・背景有効性判定
部、18・・・・フラグ記憶部、19・・・・記憶命令
部、20拳・・・特徴値記憶部、21・・・・画素番号
カウント部、22・・・・周期カウント部、23・・Q
・周期数記憶部、24・・・・背景情報抽出部。
FIG. 1 is a block diagram showing a first embodiment according to the present invention,
FIG. 2 is a block diagram showing the second embodiment, and FIG. 3 is a block diagram showing the third embodiment.
FIG. 4 is a block diagram showing an embodiment of the present invention, and FIG. 4 is an array diagram of scanning line feature values. 10...Input section, 11...Shift register, 1
2...Difference calculation unit, 13...Threshold comparison unit,
14... Feature value update unit, 15... Area storage unit,
16... Area determination unit, 17... Background validity determination unit, 18... Flag storage unit, 19... Storage instruction unit, 20... Feature value storage unit, 21... ... Pixel number counting section, 22... Period counting section, 23... Q
- Period number storage section, 24... Background information extraction section.

Claims (3)

【特許請求の範囲】[Claims] (1)2次元状に標本化された画像内における走査線方
向の近隣画素値の差をとり、その値の大小により画像情
報を「1」と「0」に2値化し、画像内の同一走査線上
の「1」の数を特徴値として処理する方法において、周
期的に一定数の画像を発生する信号を処理する場合、予
め定められた時間内に最も多く発生した走査線上の「1
」の数を画像内の背景情報として抽出することを特徴と
する背景情報抽出方法。
(1) Calculate the difference between neighboring pixel values in the scanning line direction within a two-dimensionally sampled image, and binarize the image information into "1" and "0" depending on the magnitude of that value. In a method that processes the number of "1"s on a scanning line as a feature value, when processing a signal that periodically generates a fixed number of images, the number of "1"s on the scanning line that occur most often within a predetermined time is
'' as background information in an image.
(2)2次元状に標本化された画像内における走査線方
向の近隣画素値の差をとり、その値の大小により画像情
報を「1」と「0」に2値化し、画像内の同一走査線上
の「1」の数を特徴値として処理する方法において、周
期的に一定数の画像を発生する信号を処理する場合、背
景以外の物体が存在していたときを除いて予め定められ
た時間内に最も多く発生した走査線上の「1」の数を画
像内の背景情報として抽出することを特徴とする背景情
報抽出方法。
(2) Calculate the difference between neighboring pixel values in the scanning line direction within a two-dimensionally sampled image, and binarize the image information into "1" and "0" depending on the magnitude of that value. In a method that processes the number of "1"s on a scanning line as a feature value, when processing a signal that periodically generates a fixed number of images, a predetermined A background information extraction method characterized by extracting the number of "1"s that occur most frequently on a scanning line within a time as background information in an image.
(3)2次元状に標本化された画像内における走査線方
向の近隣画素値の差をとり、その値の大小により画像情
報を「1」と「0」に2値化し、画像内の同一走査線上
の「1」の数を特徴値として処理する方法において、周
期的に一定数の画像を発生する信号を処理する場合、設
定された走査線の間に背景以外の物体が存在していたと
きを除いて予め定められた時間内に最も多く発生した走
査線上の「1」の数を画像内の背景情報として抽出する
ことを特徴とする背景情報抽出方法。
(3) Calculate the difference between adjacent pixel values in the scanning line direction within a two-dimensionally sampled image, and binarize the image information into "1" and "0" depending on the magnitude of that value. In a method that processes the number of "1"s on a scanning line as a feature value, when processing a signal that periodically generates a fixed number of images, there was an object other than the background between the set scanning lines. A background information extraction method characterized in that the number of "1"s that occur most frequently on a scanning line within a predetermined time period, excluding times, is extracted as background information in an image.
JP63030998A 1988-02-15 1988-02-15 Background information extraction method Expired - Lifetime JP2829960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63030998A JP2829960B2 (en) 1988-02-15 1988-02-15 Background information extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63030998A JP2829960B2 (en) 1988-02-15 1988-02-15 Background information extraction method

Publications (2)

Publication Number Publication Date
JPH01207679A true JPH01207679A (en) 1989-08-21
JP2829960B2 JP2829960B2 (en) 1998-12-02

Family

ID=12319257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63030998A Expired - Lifetime JP2829960B2 (en) 1988-02-15 1988-02-15 Background information extraction method

Country Status (1)

Country Link
JP (1) JP2829960B2 (en)

Also Published As

Publication number Publication date
JP2829960B2 (en) 1998-12-02

Similar Documents

Publication Publication Date Title
US11200681B2 (en) Motion detection method and motion detection system with low computational complexity and high detection accuracy
JPH0658716A (en) Detecting method of edge on image
JPH01207679A (en) Extracting method for background information
RU2446471C1 (en) Method for detecting moving objects and determining parameters thereof
JPS5914782B2 (en) Binary pattern digitization processing method
JPH07177425A (en) Motion vector detector
JPH0236896B2 (en) JIKUTAISHOBUTSUTAINOKETSUKANKENSASOCHI
JPH0385681A (en) Picture processor
JPS58158761A (en) Pattern position detecting method
JPS6118229B2 (en)
JPH0429109B2 (en)
JPH0359362B2 (en)
JPS6136881A (en) Pattern discriminator
JPH0554142A (en) Method for separately detecting persons at both edges of detecting area for passer-by number detector
SU966710A1 (en) Device for reading-out and selecting object images
JPH0129643Y2 (en)
JPH03277910A (en) Image-size measuring method
JPH0312788A (en) Traveling object detecting device
JPS6365347A (en) Singular point detecting method by image processing
JPH10123014A (en) Inspection apparatus for defect
JPH1079035A (en) Specific object extracting device
JPS6136882A (en) Pattern discriminator
JPS62182603A (en) Apparatus for detecting position of number plate
JPH05153470A (en) Motion vector detector
JPH03278283A (en) Image processor