JP2829960B2 - Background information extraction method - Google Patents

Background information extraction method

Info

Publication number
JP2829960B2
JP2829960B2 JP63030998A JP3099888A JP2829960B2 JP 2829960 B2 JP2829960 B2 JP 2829960B2 JP 63030998 A JP63030998 A JP 63030998A JP 3099888 A JP3099888 A JP 3099888A JP 2829960 B2 JP2829960 B2 JP 2829960B2
Authority
JP
Japan
Prior art keywords
scanning line
value
background
background information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63030998A
Other languages
Japanese (ja)
Other versions
JPH01207679A (en
Inventor
拓也 山平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP63030998A priority Critical patent/JP2829960B2/en
Publication of JPH01207679A publication Critical patent/JPH01207679A/en
Application granted granted Critical
Publication of JP2829960B2 publication Critical patent/JP2829960B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、車両や航空機などの移動物体を検出する方
法に関し、特に移動物体以外の背景情報を抽出する背景
情報抽出方法に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting a moving object such as a vehicle or an aircraft, and more particularly to a background information extracting method for extracting background information other than a moving object.

〔従来の技術〕[Conventional technology]

テレビカメラ等から得られた映像信号を処理して移動
物体を検出する場合、移動物体でない部分、いわゆる背
景情報を認識することは良好な検出精度を得るために非
常に重量である。そのため従来、特願昭55−184591「車
両存在位置方式」が提案されている。この方式は2次元
状に標本化された画像内の走査線方向の近隣画素値の差
をとり、その差の大小により画像を「1」と「0」に2
値化する。そして、被計測領域内の同一走査線方向の
「1」の数を走査線の特徴値とし、この特徴値を利用し
て走行中の車両の存在を検出するものである。この場
合、背景値の抽出としては予め予想される背景値の最大
値をしきい値Aとして設定する。そして、このしきい値
Aより小さい走査線上の特徴値を得たときに背景値とし
て認識している。
When a moving object is detected by processing a video signal obtained from a television camera or the like, recognizing a portion that is not a moving object, so-called background information, is extremely heavy in order to obtain good detection accuracy. For this reason, Japanese Patent Application No. 55-188451 has been proposed. In this method, the difference between neighboring pixel values in the scanning line direction in an image sampled two-dimensionally is calculated, and the image is changed to “1” and “0” according to the magnitude of the difference.
Value. Then, the number of "1" s in the same scanning line direction in the measurement area is set as the characteristic value of the scanning line, and the presence of the traveling vehicle is detected using the characteristic value. In this case, as the extraction of the background value, the maximum value of the expected background value is set as the threshold value A in advance. When a characteristic value on a scanning line smaller than the threshold value A is obtained, it is recognized as a background value.

また、前述した走査線の特徴値を自動設定する方法
は、電子通信学会論文誌Vol.J68−D No.3,1985年3月.
「画像処理手法を用いた交通流計測システム」において
提案されている。この方法は一定周期内に同一走査線の
走査線特徴値として発生した値のうち、車両が存在した
と判定された場合を除いて最大値xと最小値yを求め
る。その後、背景値はx+α,y−α(α,βは定数)に
はさまれた値であると認識して順次計測していくもので
ある。
A method for automatically setting the feature value of the scanning line described above is described in IEICE Transactions Vol. J68-D No. 3, March 1985.
It is proposed in "Traffic flow measurement system using image processing method". In this method, the maximum value x and the minimum value y are obtained from the values generated as the scanning line characteristic values of the same scanning line within a certain period, except when it is determined that the vehicle is present. Thereafter, the background value is recognized as a value sandwiched between x + α, y−α (α and β are constants), and are sequentially measured.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、前述した「車両存在位置検出方式」は
背景情報のしきい値Aを予め設定しているため、時々刻
々と天候条件等により背景情報が変化すると正確な位置
検出が不可能であつた。また、しきい値Aの走査によつ
ては車両の存在する場合に生じる走査線の特徴値をも背
景情報と誤つて処理してしまう恐れがあつた。
However, in the above-described “vehicle presence position detection method”, since the threshold value A of the background information is set in advance, if the background information changes every moment due to weather conditions or the like, accurate position detection is impossible. Further, according to the scanning of the threshold value A, there is a possibility that a characteristic value of a scanning line generated when a vehicle is present is erroneously processed as background information.

また、「画像処理手法を用いた交通流計測システム」
は背景値をx+α,y+βにはさまれた値として順次計測
していくものであるため、n周期目の背景値はx+n
α,y−nβとなつてしまう。すなわち、順次計測を続け
ると背景値の上限(x+nα)は徐々に増加し、下限
(y−nβ)は0に近づく結果となり正常な計測が不可
能であつた。
"Traffic flow measurement system using image processing method"
Means that the background value is sequentially measured as a value sandwiched between x + α and y + β, so that the background value in the n-th cycle is x + n
α, y−nβ. That is, when the measurement was continued sequentially, the upper limit (x + nα) of the background value gradually increased, and the lower limit (y-nβ) approached 0, so that normal measurement was impossible.

このように、走査線を処理する方法で背景情報にあた
る特徴値を効果的に抽出し、かつそれを自動的に行なう
方法は前例をみていない。
As described above, there is no precedent for a method of effectively extracting a feature value corresponding to background information by a method of processing a scanning line and automatically performing the extraction.

〔課題を解決するための手段〕[Means for solving the problem]

本発明の背景情報抽出方法は、2次元状に標本化され
た画像内における走査線方向の近隣画素の差をとり、そ
の差分を所定のしきい値に基づいて「1」と「0」の走
査線特徴値として処理する方法であって、周期的に一定
数の画像を発生する信号を処理する場合、予め定められ
た時間内の同一走査線上の走査線特徴値の「1」の数を
算出し、走査線特徴値の「1」の数の最大値を画像内の
背景情報として抽出する。
The background information extraction method of the present invention calculates the difference between neighboring pixels in the scanning line direction in an image sampled two-dimensionally, and calculates the difference between “1” and “0” based on a predetermined threshold. This is a method of processing as a scanning line feature value. When processing a signal that periodically generates a fixed number of images, the number of scanning line feature values “1” on the same scanning line within a predetermined time is determined. Then, the maximum value of the number of “1” of the scanning line feature value is extracted as background information in the image.

また、領域判定部を設け、領域判定部により背景以外
の物体を除外した計測領域を定め、その計測領域におい
て予め定められた時間内の同一走査線上の走査線特徴値
「1」の数を算出し、走査線特徴値の「1」の数の最大
値を画像内の背景情報として抽出する。
In addition, an area determination unit is provided, a measurement area excluding objects other than the background is determined by the area determination unit, and the number of scanning line feature values “1” on the same scanning line within a predetermined time in the measurement area is calculated. Then, the maximum value of the number of “1” of the scanning line feature value is extracted as background information in the image.

また、領域判定部と、背景有効性判定部とを設け、領
域判定部は背景以外の物体を除外した計測領域を定め、
その計測領域において背景有効性判定部の所定の条件に
よる背景以外の物体の存在が判定されたときを除き、予
め定められた時間内の同一走査線上の走査線特徴値の
「1」の数を算出し、走査線特徴値の「1」の数の最大
値を画像内の背景情報として抽出する。
Further, an area determining unit and a background validity determining unit are provided, and the area determining unit determines a measurement area excluding objects other than the background,
Unless the presence of an object other than the background is determined in the measurement area by the predetermined condition of the background validity determination unit, the number of “1” of the scanning line feature value on the same scanning line within a predetermined time is calculated. Then, the maximum value of the number of “1” of the scanning line feature value is extracted as background information in the image.

〔作用〕[Action]

画像内における走査線方向の近隣画素値の差を算出
し、その値の大小により画像情報を「1」と「0」に2
値化すると共に、予め定められた時間内に最も多く発生
した走査線上の「1」を画内の背景情報として抽出す
る。
The difference between neighboring pixel values in the scanning line direction in the image is calculated, and the image information is changed to “1” and “0” according to the magnitude of the value.
At the same time, the value “1” on the scanning line that occurs most frequently within a predetermined time is extracted as background information in the image.

また、既に抽出した背景情報と走査線上の「1」の数
とを比較し、背景以外の物体が存在していたときを除い
て背景情報を抽出する。
Further, the background information that has already been extracted is compared with the number of “1” on the scanning line, and the background information is extracted except when there is an object other than the background.

また、画像上における走査線間の範囲を設定し、この
範囲内に背景以外の物体が存在するか否かを認識した
後、背景情報を抽出する。
Further, a range between scanning lines on the image is set, and after it is determined whether an object other than the background exists within this range, background information is extracted.

〔実施例〕〔Example〕

次に本発明について図面を参照して説明する。第1図
は本発明に係る第1の実施例を示すブロツク図である。
図において、10はテレビカメラの映像信号を入力する入
力部、11はシフトレジスタ、12は入力部10とシフトレジ
スタ11の信号を減算して絶対値を算出する差分算出部、
13は差分算出部12の算出結果と予め定められたしきい値
とを比較するしきい値比較部、14はしきい値比較部13の
結果により走査線上の特徴値を更新する特徴値更新部、
15は計測領域を記憶している領域記憶部、19は特徴値の
更新部14により特徴値記憶部20を操作する記憶命令部、
20は各走査線における走査線特徴値の発生頻度を記憶し
ている特徴値記憶部、21は画面の画素番号を測定する画
素番号カウント部、22は画面の周期を測定する周期カウ
ント部、23は画面の周期の数を記憶する周期記憶部、24
は特徴値記憶部20から背景情報を抽出する背景情報抽出
部、25は背景情報抽出部の抽出結果を記憶する背景情報
記憶部である。
Next, the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment according to the present invention.
In the figure, 10 is an input unit for inputting a video signal of a television camera, 11 is a shift register, 12 is a difference calculation unit that calculates an absolute value by subtracting a signal from the input unit 10 and the shift register 11,
13 is a threshold value comparing unit that compares the calculation result of the difference calculating unit 12 with a predetermined threshold value, and 14 is a feature value updating unit that updates a feature value on a scanning line based on the result of the threshold value comparing unit 13 ,
15 is an area storage unit that stores the measurement area, 19 is a storage command unit that operates the feature value storage unit 20 by the feature value update unit 14,
20 is a feature value storage unit that stores the frequency of occurrence of scanning line feature values in each scanning line, 21 is a pixel number counting unit that measures the pixel number of the screen, 22 is a cycle counting unit that measures the cycle of the screen, 23 Is a cycle storage unit that stores the number of screen cycles, 24
Is a background information extraction unit that extracts background information from the feature value storage unit 20, and 25 is a background information storage unit that stores the extraction result of the background information extraction unit.

次に動作について説明する。一般に2次元状にi行j
列の配列に仮定できる映像信号ai,jは量子化された後、
入力部10に入力される。入力部10は各画素に対応する値
を逐次受け取り、シフトレジスタ11と差分算出部12へそ
れぞれ入力する。差分算出部12はシフトレジスタ11と入
力部10から映像信号を受け取り、その差の絶対値を算出
する。シフトレジスタ11における入力から出力までの遅
延時間は同一走査線上で比較する画素の間隔を意味して
おり、遅延時間がkならばシフトレジスタの出力はa
i,j−kとなる。従つて、差分算出部12は|ai,j−k−a
i,j|をしきい値比較部13へ出力することになる。しき
い値比較部13は予め定められたしきい値THと差分算出部
12の結果を比較し、|ai,j−k−ai,j|≧THならば
「1」,|ai,j−k−ai,j|≦THならば「0」を画素の
特徴値Pi,j−kとして特徴値更新部14へ送る。特徴値
更新部14は計測領域内の「1」の和をカウントするとこ
ろで、計測領域を記憶している領域記憶部15からi行の
領域の左右値(j1,j2)を読み出し、j1j−kj2
あれば前述の特徴値Pi,j−kを加算し、Vi+Pi,j−k
として走査線特徴値Viを更新する。特徴値更新部14は処
理を完了すると記憶命令部19に走査線特徴値Viを出力す
る。記憶命令部19は前述のようにi行の領域の左右値
(j1,j2)を読み出しj−k=j2であれば、各走査線の
走査線特徴値Viの発生頻度を記憶している特徴値記憶部
20の該当するエリアの値を1インクリメントする。特徴
値記憶部20は2次元状のメモリで、i行の走査線におけ
る走査線特徴値Viの発生頻度をi行Vi列の要素として記
憶している。記憶命令部19の処理が終了すると画素番号
カウント部21に制御が移される。なお、前述の説明でj
−k=j2でなければ記憶命令部19を通貨して画素番号カ
ウント部21に制御が移る。画素番号カウント部21は画面
の画素番号を測定しており、j列の値が画面の右端にあ
たる画素番号になつたときi行の走査線番号を1インク
リメントし、j列の値を画面左端の値1に合せる。そし
て、i行とj列の値が画面の右下端にあたる画素番号に
なつた場合、制御を周期カウント部22へ移す。また、画
面右下端にあたる画素番号に達しなかつた場合は制御を
入力部10へ戻し前述した処理を繰返す。周期カウント部
22は画面の周知を測定しており、制御が移されると1カ
ウントを増加する。また、予め背景を抽出するための周
期を画面の数で記憶している周期数記憶部23の値と、周
期カウント部22で測定された値とを比較する。そして、
その値が一致すれば周期カウント部22の内容を0にリセ
ツトして制御を背景情報抽出部24へ移し、一致しなけれ
ば制御を入力部10に戻す。背景情報抽出部24は背景情報
を抽出するため特徴値記憶部20の各行の走査線特徴値の
うち最大値を各走査線の背景情報として抽出し、背景情
報記憶部25へ出力する。そして、i行j列の値を0にリ
セツトして制御を入力部10に戻す。背景情報記憶部25は
1次元状の配列で背景情報を記憶することができる。
Next, the operation will be described. In general, i rows j
The video signals ai, j that can be assumed to be in a column array are quantized,
It is input to the input unit 10. The input unit 10 sequentially receives values corresponding to each pixel, and inputs the values to the shift register 11 and the difference calculation unit 12, respectively. The difference calculation unit 12 receives the video signal from the shift register 11 and the input unit 10, and calculates the absolute value of the difference. The delay time from input to output in the shift register 11 means the interval between pixels to be compared on the same scanning line. If the delay time is k, the output of the shift register is a
i, j−k . Therefore, the difference calculation unit 12 calculates | a i, j−k −a
i, j | is output to the threshold value comparison unit 13. The threshold comparing unit 13 includes a predetermined threshold TH and a difference calculating unit.
12 are compared, and if | a i, j−k −a i, j | ≧ TH, “1” is set, and if | a i, j−k −a i, j | ≦ TH, “0” is set as a pixel. Is sent to the feature value updating unit 14 as the feature value P i, j−k . The feature value updating unit 14 reads the left and right values (j 1 , j 2 ) of the region of the i-th row from the region storage unit 15 that stores the measurement region when counting the sum of “1” in the measurement region. If 1 j−kj 2 , the above-mentioned feature value P i, j−k is added, and V i + P i, j−k
Updating scan line feature value V i as. Feature value updating unit 14 outputs the scanning line feature values V i and completes the process in the storage instruction unit 19. As described above, the storage command unit 19 reads the left and right values (j 1 , j 2 ) of the i-th row area and stores the frequency of occurrence of the scanning line characteristic value Vi of each scanning line if jk = j 2. Feature value storage unit
The value of the corresponding area of 20 is incremented by one. The feature value storage unit 20 is a two-dimensional memory, and stores the frequency of occurrence of the scanning line feature value Vi in the i-th scanning line as an element of the i-th row and the Vi column. When the processing of the storage command unit 19 is completed, the control is transferred to the pixel number counting unit 21. Note that in the above description, j
The -k = j 2 unless storage instruction unit 19 to the currency control the pixel number counting unit 21 moves to. The pixel number counting unit 21 measures the pixel number of the screen, and when the value of the j-th column reaches the pixel number corresponding to the right end of the screen, the scan line number of the i-th row is incremented by one, and the value of the j-th column is the left end of the screen. Match to value 1. When the values of the i-th row and the j-th column correspond to the pixel number corresponding to the lower right corner of the screen, the control is transferred to the cycle counting section 22. If the pixel number at the lower right of the screen has not been reached, the control is returned to the input unit 10, and the above-described processing is repeated. Period counting section
Numeral 22 measures the well-known state of the screen, and increases one count when control is transferred. Further, the value of the cycle number storage unit 23 in which the cycle for extracting the background is stored in advance by the number of screens is compared with the value measured by the cycle count unit 22. And
If the values match, the content of the cycle counting unit 22 is reset to 0, and control is transferred to the background information extraction unit 24. If they do not match, control is returned to the input unit 10. The background information extraction unit 24 extracts the maximum value among the scanning line feature values of each row of the feature value storage unit 20 as background information of each scanning line in order to extract background information, and outputs it to the background information storage unit 25. Then, the value of the i-th row and the j-th column is reset to 0, and the control is returned to the input unit 10. The background information storage unit 25 can store the background information in a one-dimensional array.

第2図は本発明に係る第2の実施例を示すブロツク図
である。図において第1図と同一部分については同一符
号を付する。16は領域判定部である。
FIG. 2 is a block diagram showing a second embodiment according to the present invention. In the figure, the same parts as those in FIG. 1 are denoted by the same reference numerals. 16 is an area determination unit.

この実施例において入力部10から特徴値更新部14に至
るまでの動作は第1の実施例と同一である。さて、領域
判定部16は特徴値更新部14から走査線特徴値Viを受け取
ると、領域記憶部15からi行の領域の左右値(j1,j2
を読み出し、j−k=j2であれば記憶命令部19へ制御を
移す。また、この条件を満足しないときは画素番号カウ
ント部21に制御を移すことになる。記憶命令部19は背景
情報を記憶している背景情報記憶部25の内容+hoiを参
照すると共に、予め設定されている値α,βを利用し+
hoi−αVi+hoi+βであれば制御を画素番号カウン
ト部21へ移す。また、この条件が満足しないときは特徴
値更新部14で求められた走査線特徴値の発生頻度を記憶
している特徴値記憶部20の該当するエリアの値を1イン
クリメントする。以降の動作は第1の実施例と同一であ
る。従つて、第2の実施例では、領域判定部16で計測領
域を限定し、記憶命令部で既に記憶されている背景情報
記憶部25のデータと対比させることにより背景以外の物
体が存在することを認識し、最も多く発生した走査線特
徴値の数を画像内の背景情報として抽出することができ
る。
In this embodiment, the operation from the input unit 10 to the feature value updating unit 14 is the same as in the first embodiment. When the area determination unit 16 receives the scanning line feature value Vi from the feature value update unit 14, the left and right values (j 1 , j 2 ) of the i-th row area are received from the area storage unit 15.
Reading, transfers control to store instruction unit 19 if j-k = j 2. If this condition is not satisfied, control is transferred to the pixel number counting section 21. The storage command unit 19 refers to the content + hoi of the background information storage unit 25 that stores the background information, and uses the preset values α and β to
h oi -αVi + h oi + transfers control if β to the pixel number counting section 21. When this condition is not satisfied, the value of the corresponding area of the feature value storage unit 20 storing the occurrence frequency of the scanning line feature value obtained by the feature value update unit 14 is incremented by one. Subsequent operations are the same as in the first embodiment. Therefore, in the second embodiment, the measurement area is limited by the area determination unit 16 and compared with the data of the background information storage unit 25 already stored by the storage command unit, so that an object other than the background exists. And the number of the most frequently occurring scanning line feature values can be extracted as background information in the image.

第3図は本発明に係る第3の実施例を示すブロツク図
である。図において第1図及び第2図と同一部分につい
ては同一符号を付する。17は背景有効性判定部、18はフ
ラグ記憶部である。
FIG. 3 is a block diagram showing a third embodiment according to the present invention. In the figure, the same parts as those in FIGS. 1 and 2 are denoted by the same reference numerals. Reference numeral 17 denotes a background validity determination unit, and reference numeral 18 denotes a flag storage unit.

この実施例において入力部10から領域判定部16に至る
までの動作は第2の実施例と同一である。さて、背景有
効性判定部17は領域判定部16から制御を受け取ると、背
景情報記憶部25の内容+hoiを参照すると共に、予め設
定されている値α,βを利用し、+hoi−αVi+hoi
+βであれば、同一画像内の各走査線の走査線特徴値を
記憶しているフラグ記憶部18における該当走査線i行の
値を走査線特徴値Viとして書込む。また、この条件を満
足しないときは**なるフラグを書き込み記憶命令部19
へ制御を移す。記憶命令部19は、第4図に示す走査線特
徴値の配列図のように、走査線iの走査線特徴値Viを得
た時点で走査線i−n−mから走査線iまでの特徴値が
背景として有効であるか否かをフラグ記憶部18の値によ
り判断する。すなわち、フラグ記憶部18に**フラグが
書き込まれていれば走査線i−n−mから走査線iまで
に背景と異なるものが存在したと判断し、走査線i−n
の走査線特徴値Vi-nを背景情報とは認めず特徴値記憶部
20の値を操作しない。一方、フラグ記憶部18に**フラ
グが書き込まていなければ、走査線i−n−mから走査
線iまでが背景であることを判断し、走査線i−nの走
査線特徴値Vi-nを背景情報として特徴値記憶部20のi−
n行Vi-n列の値を1インクリメントする。なお、m,nは
走査線数を示す。記憶部19は前述の動作を完了すると画
素番号カウント部21へ制御を移す。以降の動作は第1の
実施例と同一である。従つて、第3の実施例は、記憶命
令部19により走査線間の範囲を設定し、この範囲内に背
景以外の物体が存在するか否かを認識した後、最も多く
発生した走査線特徴値の数を画像内の背景情報として抽
出することができる。
In this embodiment, the operation from the input unit 10 to the area determination unit 16 is the same as in the second embodiment. When the background validity determining unit 17 receives the control from the area determining unit 16, the background validity determining unit 17 refers to the content + h oi of the background information storage unit 25 and uses the preset values α and β to obtain + h oi −αVi + h oi
If it is + β, the value of the i-th row of the corresponding scanning line in the flag storage unit 18 storing the scanning line characteristic value of each scanning line in the same image is written as the scanning line characteristic value Vi. If this condition is not satisfied, the flag ** is written and the storage instruction unit 19 is written.
Transfer control to As shown in the arrangement diagram of the scanning line characteristic values shown in FIG. 4, the storage command unit 19 obtains the characteristics from the scanning line i-n-m to the scanning line i when the scanning line characteristic value Vi of the scanning line i is obtained. Whether the value is effective as a background or not is determined based on the value of the flag storage unit 18. That is, if the ** flag is written in the flag storage unit 18, it is determined that there is something different from the background from the scanning line i-n-m to the scanning line i, and the scanning line i-n
Feature value storage unit not recognized as background information scanning line feature value V in the
Do not manipulate the value of 20. On the other hand, if the ** flag is not written in the flag storage unit 18, it is determined that the background from the scanning line inm to the scanning line i is the background, and the scanning line characteristic value Vin of the scanning line in is determined. As background information, i-
the value of n row V in the column is incremented by one. Here, m and n indicate the number of scanning lines. When the above operation is completed, the storage unit 19 transfers control to the pixel number counting unit 21. Subsequent operations are the same as in the first embodiment. Therefore, in the third embodiment, the range between scanning lines is set by the storage command unit 19, and after recognizing whether or not an object other than the background exists in this range, the most frequently occurring scanning line characteristics are set. The number of values can be extracted as background information in the image.

〔本発明の効果〕(Effect of the present invention)

以上説明したように、本発明の背景情報抽出方法によ
れば、2次元状に標本化された画像内における走査線方
向の近隣画素値の差をとり、その値の大小により画像情
報を「1」と「0」に2値化し、予め定められた時間内
に最も多く発生した走査線上の「1」の数を画像内の背
景情報として抽出することにより、背景が時々刻々と天
候条件等により変化してもその条件等を具備した背景情
報を抽出することができる。これにより、従来の車両,
航空機等の移動物体を検出する場合、測定精度を向上さ
せることができる。
As described above, according to the background information extracting method of the present invention, a difference between neighboring pixel values in the scanning line direction in an image sampled two-dimensionally is obtained, and the image information is set to “1” based on the magnitude of the value. ”And“ 0 ”, and the number of“ 1 ”s on the scanning line that occurred most frequently within a predetermined time is extracted as background information in the image. Even if it changes, background information that satisfies such conditions can be extracted. As a result, conventional vehicles,
When detecting a moving object such as an aircraft, the measurement accuracy can be improved.

また、自動的に背景情報を抽出することができるた
め、処理の高速化が図れる。
Further, since background information can be automatically extracted, the processing can be speeded up.

さらに、同一画像情報内に背景以外の物体が存在して
いても、その物体だけを除いて背景情報を抽出すること
ができるため、移動物体等と背景情報とが混同すること
がなくなるなどの顕著な効果を有する。
Furthermore, even if an object other than the background exists in the same image information, the background information can be extracted by excluding only the object, so that the moving object and the background information are not confused. It has a great effect.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明に係る第1の実施例を示すブロツク図、
第2図は第2の実施例を示すブロツク図、第3図は第3
の実施例を示すブロツク図、第4図は走査線特徴値の配
列図である。 10……入力部、11……シフトレジスタ、12……差分算出
部、13……しきい値比較部、14……特徴値更新部、15…
…領域記憶部、16……領域判定部、17……背景有効性判
定部、18……フラグ記憶部、19……記憶命令部、20……
特徴値記憶部、21……画素番号カウント部、22……周期
カウント部、23……周期数記憶部、24……背景情報抽出
部。
FIG. 1 is a block diagram showing a first embodiment according to the present invention,
FIG. 2 is a block diagram showing a second embodiment, and FIG.
FIG. 4 is an arrangement diagram of scanning line characteristic values. 10 input section, 11 shift register, 12 difference calculating section, 13 threshold comparing section, 14 feature value updating section, 15
… Area storage unit, 16… Area determination unit, 17… Background validity determination unit, 18… Flag storage unit, 19… Storage instruction unit, 20…
Feature value storage unit 21, pixel number counting unit 22, period counting unit 23, period number storage unit 24, background information extraction unit

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】2次元状に標本化された画像内における走
査線方向の近隣画素の差をとり、その差分を所定のしき
い値に基づいて「1」と「0」の走査線特徴値として処
理する方法であって、周期的に一定数の画像を発生する
信号を処理する場合、予め定められた時間内の同一走査
線上の走査線特徴値の「1」の数を算出し、走査線特徴
値「1」の数の最大値を画像内の背景情報として抽出す
ることを特徴とする背景情報抽出方法。
A difference between neighboring pixels in a scanning line direction in an image sampled two-dimensionally is calculated, and the difference is calculated based on a predetermined threshold value as a scanning line feature value of “1” or “0”. When processing a signal that periodically generates a fixed number of images, the number of scanning line feature values “1” on the same scanning line within a predetermined time is calculated, and scanning is performed. A background information extraction method, wherein a maximum value of the number of line feature values "1" is extracted as background information in an image.
【請求項2】2次元状に標本化された画像内における走
査線方向の近隣画素の差をとり、その差分を所定のしき
い値に基づいて「1」と「0」の走査線特徴値として処
理する方法であって、周期的に一定数の画素を発生する
信号を処理する場合、領域判定部を設け、前記領域判定
部により背景以外の物体を除外した計測領域を定め、該
計測領域において予め定められた時間内の同一走査線上
の走査線特徴値の「1」の数を算出し、走査線特徴値の
「1」の数の最大値を画像内の背景情報として抽出する
ことを特徴とする背景情報抽出方法。
2. A scanning line characteristic value of "1" and "0" is obtained based on a predetermined threshold value by taking a difference between neighboring pixels in a scanning line direction in an image sampled two-dimensionally. In the case of processing a signal that periodically generates a fixed number of pixels, an area determining unit is provided, and the area determining unit defines a measurement area excluding objects other than the background, Calculating the number of scanning line feature values “1” on the same scanning line within a predetermined time, and extracting the maximum value of the number of scanning line feature values “1” as background information in the image. Characteristic background information extraction method.
【請求項3】2次元状に標本化された画像内における走
査線方向の近隣画素の差をとり、その差分を所定のしき
い値に基づいて「1」と「0」の走査線特徴値として処
理する方法であって、周期的に一定数の画像を発生する
信号を処理する場合、領域判定部と、背景有効性判定部
とを設け、前記領域判定部は背景以外の物体を除外した
計測領域を定め、該計測領域において前記背景有効性判
定部の所定の条件に基づく背景以外の物体の存在が判定
されたときを除き、予め定められた時間内の同一走査線
上の走査線特徴値の「1」の数を算出し、走査線特徴値
の「1」の数の最大値を画像内の背景情報として抽出す
ることを特徴とする背景情報抽出方法。
3. A difference between neighboring pixels in a scanning line direction in an image sampled in a two-dimensional manner is obtained, and the difference is calculated based on a predetermined threshold value as a scanning line characteristic value of "1" or "0". When processing a signal that periodically generates a fixed number of images, a region determining unit and a background validity determining unit are provided, and the region determining unit excludes objects other than the background. A measurement area is determined, and a scanning line feature value on the same scanning line within a predetermined time period except when it is determined in the measurement area that an object other than the background is determined based on a predetermined condition of the background validity determination unit. A method of calculating the number of “1” in the image data and extracting the maximum value of the number of “1” in the scanning line feature value as background information in the image.
JP63030998A 1988-02-15 1988-02-15 Background information extraction method Expired - Lifetime JP2829960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63030998A JP2829960B2 (en) 1988-02-15 1988-02-15 Background information extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63030998A JP2829960B2 (en) 1988-02-15 1988-02-15 Background information extraction method

Publications (2)

Publication Number Publication Date
JPH01207679A JPH01207679A (en) 1989-08-21
JP2829960B2 true JP2829960B2 (en) 1998-12-02

Family

ID=12319257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63030998A Expired - Lifetime JP2829960B2 (en) 1988-02-15 1988-02-15 Background information extraction method

Country Status (1)

Country Link
JP (1) JP2829960B2 (en)

Also Published As

Publication number Publication date
JPH01207679A (en) 1989-08-21

Similar Documents

Publication Publication Date Title
JP3167752B2 (en) Vehicle distance detection device
US20030190058A1 (en) Apparatus and method for measuring queue length of vehicles
JPH07167649A (en) Distance measuring equipment
US6272237B1 (en) Image processing apparatus
CN113408550B (en) Intelligent weighing management system based on image processing
JPH0658716A (en) Detecting method of edge on image
JP2829960B2 (en) Background information extraction method
US6650362B1 (en) Movement detecting apparatus with feature point extractor based on luminance gradient in current frame
JPH10320559A (en) Traveling path detector for vehicle
JP2001043383A (en) Image monitoring system
CN113344905B (en) Strip deviation amount detection method and system
JPH05300516A (en) Animation processor
JP2001126192A (en) Method for judging parked or vacancy state in parking space of parking lot
JP2001209804A (en) Dynamic image processor and dynamic image processing method
JP3379416B2 (en) Object detection device
JP2986185B2 (en) Line width classification method for line figures
CN113382134B (en) Focusing debugging method of linear array industrial camera
JP3349381B2 (en) Vehicle entry detection device
JPH0922466A (en) Method for preparing background image and image processor
JPH09245166A (en) Pattern matching device
JPH1091793A (en) Optical flow calculation method and device
JP2848407B2 (en) Mobile vehicle environment recognition device
JP3091356B2 (en) Moving object detection method and apparatus
KR960016355B1 (en) Method and apparatus for detecting traffic information
JP2959017B2 (en) Circular image discrimination method