JP3185362B2 - Moving object detection device - Google Patents

Moving object detection device

Info

Publication number
JP3185362B2
JP3185362B2 JP13658492A JP13658492A JP3185362B2 JP 3185362 B2 JP3185362 B2 JP 3185362B2 JP 13658492 A JP13658492 A JP 13658492A JP 13658492 A JP13658492 A JP 13658492A JP 3185362 B2 JP3185362 B2 JP 3185362B2
Authority
JP
Japan
Prior art keywords
unit
image
background image
background
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13658492A
Other languages
Japanese (ja)
Other versions
JPH05334441A (en
Inventor
俊之 河原
眞 藤本
洋 江草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP13658492A priority Critical patent/JP3185362B2/en
Publication of JPH05334441A publication Critical patent/JPH05334441A/en
Application granted granted Critical
Publication of JP3185362B2 publication Critical patent/JP3185362B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、連続して入力される動
画像の中から移動物体を検出する移動物体検出装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object detecting apparatus for detecting a moving object from continuously input moving images.

【0002】[0002]

【従来の技術】動画像から移動物体を検出する手法とし
て、入力画像と、一定期間(例えば1フレーム期間)だ
け前に入力された画像との差分をとることにより変化分
を抽出する手法や、あらかじめ移動物体を含まない背景
画像を装置内に記憶しておき、連続して入力される入力
画像との差分をとることにより移動物体を抽出するとい
う手法がある。
2. Description of the Related Art As a method of detecting a moving object from a moving image, a method of extracting a change by taking a difference between an input image and an image input a predetermined period (eg, one frame period), There is a method in which a background image that does not include a moving object is stored in the apparatus in advance, and a moving object is extracted by calculating a difference from an input image that is continuously input.

【0003】しかしながら、入力画像と、前に入力され
た画像との差分をとる手法では、時間微分による変化分
のみを抽出するため、その値のみから移動物体の像を検
出することは困難である。例えば、一様に黒い背景の前
で無地の白い円形の領域が移動した場合を考えると、進
行方向の前部と後部に2つの3日月形の領域が得られる
が、この情報から円形の領域を抽出することは困難であ
る。
[0003] However, in the technique of obtaining a difference between an input image and a previously input image, since only a change due to time differentiation is extracted, it is difficult to detect an image of a moving object only from the value. . For example, when a plain white circular area moves in front of a uniform black background, two crescent-shaped areas are obtained at the front and rear in the traveling direction. It is difficult to extract a region.

【0004】また、あらかじめ記憶しておいた移動物体
を含まない背景画像と入力画像との差分をとることによ
る移動物体検出手法では、カメラが静止している場合や
背景が変化しない場合には問題ないが、カメラが移動・
パンニングする場合や、屋外などで太陽が雲に隠れるな
どのために照明変化が起こる場合には、背景画像は刻々
変化するため正しい結果が得られなくなる。この様な場
合に対処するために、入力画像から背景画像を合成する
手法が提案されており、例えば特開昭62−11848
0号公報では、入力画像とその時の背景画像とを所定の
割合で加算することによる背景画像生成手法について述
べられている。
The moving object detection method based on the difference between an input image and a background image that does not include a moving object stored in advance has a problem when the camera is stationary or the background does not change. No, but the camera moves
In the case of panning, or in the case where lighting changes due to the sun being hidden by clouds outdoors or the like, the background image changes every moment, so that correct results cannot be obtained. In order to cope with such a case, a method of synthesizing a background image from an input image has been proposed.
No. 0 describes a background image generation method by adding an input image and a background image at that time at a predetermined ratio.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
ような手法では、入力画像と背景画像との混合比を適切
に決定する必要があり、一般に、背景画像の更新される
時定数を、背景の変化速度より充分に速く、対象の移動
速度より充分に遅く設定しなければならない。従って、
対象の移動速度や背景の変化速度等の諸条件が一定で、
あらかじめわかっていれば問題ないが、これらの諸条件
が一定でない場合に、例えば、背景の変化が速くなった
場合にその背景部分が対象として誤検出されたり、逆
に、対象の速度が遅くなった場合に対象が検出されなく
なったりするというような誤動作が生じる。このよう
に、対象の移動速度や背景の変化速度等の諸条件が一定
でない場合には、各定数を一意に設定するのはきわめて
困難であり、誤動作が多くなるという課題を有してい
た。
However, in the above-described method, it is necessary to appropriately determine the mixing ratio between the input image and the background image. In general, the time constant at which the background image is updated is determined by changing the time constant of the background image. The speed must be set sufficiently higher than the change speed and sufficiently lower than the moving speed of the target. Therefore,
Various conditions such as the moving speed of the object and the changing speed of the background are constant,
There is no problem if it is known in advance, but when these conditions are not constant, for example, when the background changes rapidly, the background part is erroneously detected as a target, or conversely, the speed of the target decreases. In such a case, an erroneous operation occurs such that the target is not detected. As described above, when various conditions such as the moving speed of the target and the changing speed of the background are not constant, it is extremely difficult to uniquely set each constant, and there is a problem that the number of malfunctions increases.

【0006】本発明はかかる点に鑑み、対象の移動速度
や背景の変化速度が変化するような場合においても、誤
動作の少ない移動物体検出装置を提供することを目的と
する。
In view of the foregoing, it is an object of the present invention to provide a moving object detecting apparatus which is less likely to malfunction even when the moving speed of the object or the changing speed of the background changes.

【0007】[0007]

【課題を解決するための手段】本発明は、画像入力手段
と、背景画像記憶手段と、背景画像生成手段と、背景画
像と入力画像との差をとり移動体領域を抽出する移動体
領域検出手段と、移動体領域の速度および大きさを検出
する移動体速度・大きさ検出手段と、背景生成手段にお
ける入力画像と背景画像との加算の割合を決定する係数
決定手段とを備えた移動物体検出装置である。
According to the present invention, there is provided an image input means, a background image storage means, a background image generating means, and a moving body area detection for extracting a moving body area by taking a difference between the background image and the input image. Means and speed and size of moving object area are detected
The moving object detecting apparatus includes a moving body speed / size detecting means for performing the calculation and a coefficient determining means for determining a ratio of addition of the input image and the background image in the background generating means.

【0008】[0008]

【0009】[0009]

【0010】[0010]

【作用】本発明は前記した構成により、入力画像と背景
画像との差分により移動体領域を抽出し、移動体速度・
大きさ検出手段により得られる移動体領域の速度および
大きさを用いて、係数決定手段で背景生成手段における
入力画像と背景画像との加算の割合を決定し、その係数
を使用して次の背景画像を生成することにより、常に、
検出された移動体領域の特性に応じた混合比で入力画像
と背景画像を混合して背景画像を生成する。
According to the present invention, the moving object region is extracted by the difference between the input image and the background image, and the moving object speed and the moving object speed are calculated.
The speed of the moving body region obtained by the size detecting means and
By using the size , the coefficient determining means determines the addition ratio of the input image and the background image in the background generating means, and generates the next background image using the coefficient, so that
The background image is generated by mixing the input image and the background image at a mixing ratio according to the characteristics of the detected moving body region.

【0011】[0011]

【0012】[0012]

【0013】[0013]

【実施例】図1は本発明の第1の実施例における移動物
体検出装置のブロック図を示すものである。図1におい
て、101は画像入力部、113は画像を入力するフレ
ーム間隔を設定するフレーム間隔設定部、102,10
3は乗算部、104は加算部、105は生成された背景
画像を記憶する背景記憶部、106は画像入力部101
からの入力画像と背景記憶部105からの背景画像との
差を計算する差分部、107は差分部106により得ら
れた結果から時間軸方向の変動を吸収するための時間軸
フィルタ処理部、108はその結果から領域を検出する
領域検出部、109は画像表示部である。また、110
は検出された移動体領域の速度と大きさを検出する速度
・大きさ検出部、111は検出された速度および大きさ
により乗算部102,103における係数を決定する係
数決定部、112はその係数を記憶する係数記憶部であ
る。以上のように構成された第1の実施例の移動物体検
出装置について、以下その動作を説明する。
FIG. 1 is a block diagram showing a moving object detecting apparatus according to a first embodiment of the present invention. In FIG. 1, reference numeral 101 denotes an image input unit; 113, a frame interval setting unit for setting a frame interval for inputting an image;
3 is a multiplication unit, 104 is an addition unit, 105 is a background storage unit that stores the generated background image, and 106 is an image input unit 101
A difference unit 107 for calculating a difference between an input image from the image processing unit and a background image from the background storage unit 105; 107, a time axis filter processing unit for absorbing a change in the time axis direction from the result obtained by the difference unit 106 Denotes an area detection unit for detecting an area from the result, and 109 denotes an image display unit. Also, 110
Is a speed / size detection unit for detecting the speed and size of the detected moving body region; 111 is a coefficient determination unit for determining coefficients in the multiplication units 102 and 103 based on the detected speed and size; Is a coefficient storage unit for storing. The operation of the moving object detection device according to the first embodiment configured as described above will be described below.

【0014】画像入力部101では、フレーム間隔設定
部113によりあらかじめ設定されたフレーム間隔s
で、例えばカメラからの入力映像信号をディジタルデー
タに変換し、乗算部102と差分部106と画像表示部
109に供給する。乗算部102では、入力信号の各画
素に対して、係数記憶部112に記憶されている係数を
掛け加算部104に入力する。一方、乗算部103で
は、背景記憶部105に記憶されている背景画像の各画
素に対して、係数記憶部112に記憶されている係数を
掛け加算部104に入力する。加算部104では、乗算
部102と乗算部103で得られた値を加算し、背景記
憶部105の各画素に対応する位置に格納する。従っ
て、係数記憶部112に記憶された乗算部102の係数
をa(0<a<1)、乗算部103の係数を(1−a)
とすると、入力信号(図中のX)と背景記憶部105の
内容(図中のY)とから加算部104の出力(図中の
Z)として、 Z=a×X+(1−a)×Y (1) が得られる。即ち、背景記憶部105の中の各画素値が
式(1)により更新されることになる。例えば、a=0
の場合は、式(1)はZ=Yとなり、背景記憶部105
の内容は全く変化しない。逆にa=1の場合には、式
(1)はZ=Xとなるので、背景記憶部105の内容は
常に入力画像に書き換えられる。
In the image input unit 101, the frame interval s set in advance by the frame interval setting unit 113
Then, for example, the input video signal from the camera is converted into digital data and supplied to the multiplication unit 102, the difference unit 106, and the image display unit 109. The multiplication unit 102 multiplies each pixel of the input signal by the coefficient stored in the coefficient storage unit 112 and inputs the result to the addition unit 104. On the other hand, the multiplication unit 103 multiplies each pixel of the background image stored in the background storage unit 105 by the coefficient stored in the coefficient storage unit 112 and inputs the result to the addition unit 104. The adding unit 104 adds the values obtained by the multiplying unit 102 and the multiplying unit 103, and stores the sum at a position corresponding to each pixel in the background storage unit 105. Therefore, the coefficient of the multiplication unit 102 stored in the coefficient storage unit 112 is a (0 <a <1), and the coefficient of the multiplication unit 103 is (1−a).
Then, based on the input signal (X in the figure) and the contents of the background storage unit 105 (Y in the figure), the output of the adding unit 104 (Z in the figure) is given by: Z = a × X + (1-a) × Y (1) is obtained. That is, each pixel value in the background storage unit 105 is updated by Expression (1). For example, a = 0
In the case of, the expression (1) becomes Z = Y, and the background storage unit 105
Does not change at all. Conversely, when a = 1, the expression (1) becomes Z = X, so that the content of the background storage unit 105 is always rewritten to the input image.

【0015】差分部106では、画像入力部101から
の入力画像と背景記憶部105からの背景画像との各画
素の差の絶対値を求め、時間軸フィルタ処理部107で
差分結果の時間的変動を減少させる。第2図に時間軸フ
ィルタ処理部107の構成の一例を示す。
The difference unit 106 calculates the absolute value of the difference between each pixel between the input image from the image input unit 101 and the background image from the background storage unit 105. Decrease. FIG. 2 shows an example of the configuration of the time axis filter processing section 107.

【0016】ここで、図2を用いて時間軸フィルタ処理
部107の動作を説明する。差分部106により得られ
た結果は、乗算部201に入力され、乗算部201で
は、係数記憶部203に記憶されている係数を掛けて加
算部204に供給する。一方、乗算部202では、結果
記憶部205に記憶されている内容に対して係数記憶部
203に記憶されている係数を掛けて加算部204に供
給する。加算部204では、乗算部201と202の結
果を加算し、その結果を結果記憶部205に記憶する。
ここで、係数記憶部203に記憶される係数は時間軸フ
ィルタの時定数を決定するものであり、あらかじめ決定
した係数を記憶しておくようにしてもよいし、使用者が
状況に応じて変更できるようにしてもよい。このように
して、時間軸方向に平均化された検出結果が結果記憶部
205に生成される。
Here, the operation of the time axis filter processing section 107 will be described with reference to FIG. The result obtained by the difference unit 106 is input to the multiplication unit 201, and the multiplication unit 201 multiplies the coefficient stored in the coefficient storage unit 203 and supplies the result to the addition unit 204. On the other hand, the multiplication unit 202 multiplies the content stored in the result storage unit 205 by the coefficient stored in the coefficient storage unit 203 and supplies the result to the addition unit 204. The addition unit 204 adds the results of the multiplication units 201 and 202 and stores the result in the result storage unit 205.
Here, the coefficient stored in the coefficient storage unit 203 determines the time constant of the time axis filter, and the coefficient determined in advance may be stored, or may be changed according to the situation. You may be able to. Thus, the detection result averaged in the time axis direction is generated in the result storage unit 205.

【0017】領域検出部108では、時間軸フィルタ処
理部107の結果をもとにして移動物体の領域を検出す
る。図3に領域検出部108の構成の一例を示す。以
下、図3を用いて領域検出部108の動作を説明する。
時間軸フィルタ処理部107により得られた検出結果
は、まず、平滑化フィルタ部301で平滑化され、ある
程度離散的であった結果がまとまったものになる。平滑
化フィルタ301としては、通常のローパスフィルタで
良いが、平滑化の度合を大きくすると領域がまとまりや
すくなる反面、離れた部分もつながりやすくなるので、
あらかじめ適切な特性のものを選択する必要がある。平
滑化フィルタリング処理の後、2値化処理部302で所
定のしきい値により2値化される。このしきい値は、例
えば初期設定時に数種類の中から選択することにより設
定するようにしておく。ラベリング処理部303で、2
値化された領域に番号付けを行い離れた領域を別のもの
として扱えるようにするが、ラベリング処理については
周知の方法で良いので、ここでは説明を省略する。以上
のようにして得られた、移動物体の領域に番号付けされ
た結果が、画像表示部109と速度・大きさ検出部11
0に与えられる。
The area detection unit 108 detects the area of the moving object based on the result of the time axis filter processing unit 107. FIG. 3 shows an example of the configuration of the area detection unit 108. Hereinafter, the operation of the area detection unit 108 will be described with reference to FIG.
The detection result obtained by the time axis filter processing unit 107 is first smoothed by the smoothing filter unit 301, and a result that is somewhat discrete is collected. As the smoothing filter 301, a normal low-pass filter may be used. However, when the degree of smoothing is increased, the regions are easily united, but distant portions are easily connected.
It is necessary to select in advance those with appropriate characteristics. After the smoothing filtering process, binarization is performed by a binarization processing unit 302 using a predetermined threshold. This threshold value is set, for example, by selecting from several types at the time of initial setting. The labeling processing unit 303
The quantified areas are numbered so that the distant areas can be treated as different ones. However, the labeling processing may be performed by a known method, and thus the description is omitted here. The result obtained by numbering the moving object area obtained as described above is displayed on the image display unit 109 and the speed / size detection unit 11.
0 is given.

【0018】画像表示部109では、画像入力部101
からの入力画像と領域検出部108の結果とを組み合わ
せて、例えば、入力画像のうち、領域検出部108の結
果が0の部分に対応する位置の画素の輝度を下げ、それ
以外の画素は輝度を上げて表示するようにして検出結果
を表示する。
In the image display unit 109, the image input unit 101
Is combined with the result of the area detection unit 108, for example, the brightness of the pixel at the position corresponding to the portion where the result of the area detection unit 108 is 0 in the input image is reduced, and the other pixels are To display the detection result.

【0019】速度・大きさ検出部110では、フレーム
間隔設定部113により設定されるフレーム間隔sと領
域検出部108の結果から、移動物体の画面上での移動
速度vと移動方向における大きさwを検出する。図4に
速度・大きさ検出部110の構成の一例を示す。領域検
出部108の結果が、重心位置検出部401に供給さ
れ、検出された領域の重心が検出される。402は1つ
前の画像で検出された重心位置を記憶しておく重心位置
記憶部であり、重心位置検出部401で検出された1つ
前の画像における重心位置を記憶しておく。速度検出部
403では、重心位置検出部401により検出された重
心位置と、重心位置記憶部402により記憶されている
前回の重心位置とから移動物体の速度vを検出する。ま
た、大きさ検出部404では、重心位置検出部401に
より検出された重心位置と、重心位置記憶部402によ
り記憶されている前回の重心位置とから移動物体の大き
さwを検出する。
The speed / magnitude detecting unit 110 calculates the moving speed v of the moving object on the screen and the size w in the moving direction of the moving object based on the frame interval s set by the frame interval setting unit 113 and the result of the area detecting unit 108. Is detected. FIG. 4 shows an example of the configuration of the speed / size detection unit 110. The result of the area detection unit 108 is supplied to the center-of-gravity position detection unit 401, and the center of gravity of the detected area is detected. A barycentric position storage unit 402 stores the barycentric position detected in the immediately preceding image, and stores the barycentric position in the previous image detected by the barycentric position detecting unit 401. The speed detection unit 403 detects the speed v of the moving object from the center of gravity position detected by the center of gravity position detection unit 401 and the previous center of gravity position stored by the center of gravity position storage unit 402. Further, the size detection unit 404 detects the size w of the moving object from the center of gravity position detected by the center of gravity position detection unit 401 and the previous center of gravity position stored by the center of gravity position storage unit 402.

【0020】ここで、速度検出部403および大きさ検
出部404の動作について、図5を用いて説明する。s
フレームに1回画像を入力するとした場合を例にとって
考え、第nフレームでの領域検出部108の結果が図5
(a)のようになったとすると、重心位置検出部401
で領域501の重心G1の座標(x1,y1)が検出され
る。そして、第(n+s)フレームでの領域検出の結果
が図5(b)のようになったとすると、重心位置記憶部
402にG1の座標(x1,y1)が記憶され、重心位置
検出部401では、領域502の重心G2の座標(x2
2)が検出される。これらの結果と、フレーム間隔設
定部113により与えられるフレーム間隔sを用いて速
度検出部403で、移動速度v(画素/sフレーム)
を、式(2)により求める。
Here, the operation of the speed detector 403 and the size detector 404 will be described with reference to FIG. s
Considering an example in which an image is input once in a frame, the result of the area detection unit 108 in the n-th frame is shown in FIG.
If it becomes as shown in (a), the center of gravity position detection unit 401
, The coordinates (x 1 , y 1 ) of the center of gravity G 1 of the area 501 are detected. If the result of the area detection in the (n + s) -th frame is as shown in FIG. 5B, the coordinates (x 1 , y 1 ) of G 1 are stored in the center-of-gravity position storage unit 402, and the center-of-gravity position detection is performed. in section 401, the center of gravity G 2 of the coordinate region 502 (x 2,
y 2 ) is detected. Using these results and the frame interval s given by the frame interval setting unit 113, the speed detection unit 403 uses the moving speed v (pixels / s frame).
Is determined by equation (2).

【0021】 v=√(|x1−x22+|y1−y22) (2) 次に、大きさ検出部404の動作について図5(c)を
用いて説明する。大きさ検出部404では、重心位置検
出部401により検出された重心G2と重心位置記憶部
402に記憶された重心G1とを用いて移動物体の動き
方向の大きさwを求める。即ち、それぞれの検出領域の
重心G1とG2を結ぶ直線503上を、G 1からG2に向か
って直線503と垂直な方向に領域502の存在を調べ
ていき、最初に領域502を検出してから最後に領域5
02を検出するまでの距離を求め、移動物体の動き方向
の大きさwとする。それぞれの検出領域の重心G1とG2
を結ぶ直線503は式(3)で表され、直線503上で
1からG2に向かって調べる点の座標を(x3,y3)と
すると、x3とy3は式(4)を満たす。また、この点を
通り直線503に垂直な直線は式(5)で示されるの
で、この直線上で、検出領域の存在を調べる点の座標を
(x4,y4)とすると、x4とy4は式(6)を満たす。
V = √ (| x1-XTwo|Two+ | Y1-YTwo|Two(2) Next, FIG. 5C shows the operation of the size detector 404.
It will be described using FIG. The size detection unit 404 detects the center of gravity position.
Center of gravity G detected by protrusion 401TwoAnd center of gravity storage
Center of gravity G stored in 4021Of the moving object using
The size w in the direction is obtained. That is, for each detection area
Center of gravity G1And GTwoG on a straight line 503 connecting 1To GTwoToward
The existence of the region 502 in the direction perpendicular to the straight line 503
After detecting the area 502 first, the area 5 is finally detected.
Calculate the distance to detect 02 and move the moving object
Of size w. Center of gravity G of each detection area1And GTwo
Is expressed by equation (3), and on the straight line 503
G1To GTwoThe coordinates of the point to be examined toward (xThree, YThree)When
Then, xThreeAnd yThreeSatisfies equation (4). Also, this point
The straight line that is perpendicular to the straight line 503 is expressed by equation (5).
Then, on this straight line, the coordinates of the point to check for the existence of the detection area
(XFour, YFour), XFourAnd yFourSatisfies equation (6).

【0022】 (x1−x2)(yーy1)=(y1−y2)(x−x1) (3) (x1−x2)(y3ーy1)=(y1−y2)(x3−x1) (4) (y1−y2)(y−y3)=(x1−x2)(x−x3) (5) (y1−y2)(y4−y3)=(x1−x2)(x4−x3) (6) このようにして、直線503上を、G1からG2に向かっ
て直線503と垂直な方向に調べていき、領域502を
直線504上の点505で最初に検出し、最後に直線5
06上の点507で検出したとすると、直線503と直
線504、506との交点508、509の座標をそれ
ぞれ、(x5,y5)、(x6,y6)として、次式により
wが求まる。
(X 1 −x 2 ) (y−y 1 ) = (y 1 −y 2 ) (x−x 1 ) (3) (x 1 −x 2 ) (y 3 −y 1 ) = (y 1− y 2 ) (x 3 −x 1 ) (4) (y 1 −y 2 ) (y−y 3 ) = (x 1 −x 2 ) (x−x 3 ) (5) (y 1 −y 2 ) (y 4 −y 3 ) = (x 1 −x 2 ) (x 4 −x 3 ) (6) In this manner, the straight line 503 is perpendicular to the straight line 503 from G 1 toward G 2. The area 502 is first detected at a point 505 on the straight line 504, and finally the straight line 5 is detected.
If it is detected at a point 507 on the line 06, the coordinates of the intersections 508 and 509 of the straight line 503 and the straight lines 504 and 506 are (x 5 , y 5 ) and (x 6 , y 6 ), respectively, and w Is found.

【0023】 w=√(|x5−x62+|y5−y62) (7) 係数決定部111では、速度・大きさ検出部110で検
出された、移動物体の速度vと移動物体の動き方向の大
きさwから係数aを決定する。以下、その決定方法につ
いて説明する。移動物体が、移動物体の動き方向の大き
さwだけ移動するのに要するフレーム数は(w×s/
v)フレームである。一方、式(1)より、背景画像は
(1/a)回の演算で書き変わるから、s×(1/a)
フレームで書き変わる。従って、移動物体が動き方向の
大きさ分だけ移動する時間で背景画像が書き変わるよう
な係数aは、 a=v/w (8) となる。このようにして決定された係数aと(1−a)
を、係数記憶部112で記憶し、乗算部102、103
における乗算の係数とする。従って、常に、検出された
移動物体が、移動方向の大きさ分だけ移動する時間で背
景画像が書き変わるような割合で入力画像と背景画像と
を混合し背景画像を生成するように自動設定されること
になる。
[0023] w = √ In (| x 5 -x 6 | 2 + | | y 5 -y 6 2) (7) the coefficient determining unit 111, detected by the speed and magnitude detector 110, the speed of the moving object The coefficient a is determined from v and the magnitude w of the moving direction of the moving object. Hereinafter, the determination method will be described. The number of frames required for the moving object to move by the size w in the moving direction of the moving object is (w × s /
v) Frame. On the other hand, from equation (1), since the background image is rewritten by (1 / a) operations, s × (1 / a)
Rewrite with frame. Therefore, the coefficient a for which the background image is rewritten in the time required for the moving object to move by the size of the moving direction is as follows: a = v / w (8) The coefficient a thus determined and (1-a)
Is stored in the coefficient storage unit 112, and the multiplication units 102 and 103
Is the coefficient of multiplication in. Therefore, the input image and the background image are always mixed at such a rate that the background image is rewritten in a time required for the detected moving object to move by the size of the moving direction, so that the background image is automatically set. Will be.

【0024】以上のように本実施例によれば、検出され
た領域の移動速度をもとにして、入力画像と背景画像と
の混合比を変えて背景画像を生成するようにしたので高
精度な背景生成を行うことができる。また、移動物体検
出に際して時間軸フィルタ処理を施すようにしたので、
ノイズや外乱等による検出領域の時間的変動を抑えるこ
とができ、安定な検出が行える。
As described above, according to the present embodiment, the background image is generated by changing the mixture ratio between the input image and the background image based on the moving speed of the detected area. Background generation can be performed. In addition, since time axis filter processing is performed when detecting a moving object,
Temporal fluctuation of the detection area due to noise, disturbance, or the like can be suppressed, and stable detection can be performed.

【0025】図6は本発明の第2の実施例における移動
物体検出装置のブロック図を示すものである。図6にお
いて、図1と同じでよいものには同一番号を付してあ
る。601は検出領域を設定する領域設定部、602は
入力画素の画像中の位置を検出するための位置検出部、
603は入力画素がどの領域に属するかを判断する領域
判断部、605は乗算部102、103の係数を決定す
る係数決定部、604は各領域毎にその係数を記憶する
係数記憶部、606は差分結果を加算する加算部、60
7は加算結果を記憶しておく変化量記憶部、608は結
果を表示するための画像表示部である。以上のように構
成された第2の実施例の移動物体検出装置について、以
下その動作を説明する。
FIG. 6 is a block diagram showing a moving object detecting apparatus according to a second embodiment of the present invention. 6, the same components as those in FIG. 1 are denoted by the same reference numerals. 601 is an area setting unit for setting a detection area, 602 is a position detection unit for detecting the position of an input pixel in an image,
Reference numeral 603 denotes an area determining unit that determines which area the input pixel belongs to, 605 denotes a coefficient determining unit that determines coefficients of the multiplying units 102 and 103, 604 denotes a coefficient storage unit that stores the coefficient for each area, and 606 denotes a coefficient storing unit that stores the coefficient for each area. Adder for adding the difference result, 60
Reference numeral 7 denotes a change amount storage unit for storing the addition result, and 608, an image display unit for displaying the result. The operation of the moving object detection device according to the second embodiment configured as described above will be described below.

【0026】領域設定部601では、画面を複数の処理
単位に分割する。例えば、図7に示すように、入力画像
を横(x方向)640画素、縦(y方向)480画素で
あるとし、横方向を10分割、縦方向を5分割するとす
れば、1つの領域サイズは64(画素)×96(画素)
となる。
The area setting unit 601 divides a screen into a plurality of processing units. For example, as shown in FIG. 7, if the input image is 640 pixels in the horizontal direction (x direction) and 480 pixels in the vertical direction (y direction), and the horizontal direction is divided into 10 and the vertical direction is divided into 5, one area size is obtained. Is 64 (pixels) x 96 (pixels)
Becomes

【0027】画像入力部101の出力は、乗算部102
と差分部106と位置検出部602と画像表示部608
に供給される。位置検出部602では、入力されている
画素が画面中のどの位置のものであるか、即ち入力画素
の座標値を検出する。例えば、垂直方向の位置は垂直同
期信号でリセットをかけたカウンタを水平同期信号でカ
ウントアップすることにより実現できるし、水平方向の
位置についても、水平同期信号でリセットするカウンタ
を1画素入力されるごとにカウントアップすることで実
現できる。
The output of the image input unit 101 is supplied to a multiplication unit 102
, A difference unit 106, a position detection unit 602, and an image display unit 608.
Supplied to The position detection unit 602 detects the position of the input pixel on the screen, that is, the coordinate value of the input pixel. For example, the position in the vertical direction can be realized by counting up the counter reset by the vertical synchronizing signal with the horizontal synchronizing signal, and the counter resetting by the horizontal synchronizing signal with respect to the horizontal position is also input by one pixel. It can be realized by counting up every time.

【0028】領域判断部603では、入力画素がどの領
域に属するかを判断し、領域番号を出力する。例えば、
図7に示すように、入力画像を横(x方向)640画
素、縦(y方向)480画素であるとし、横方向を10
分割、縦方向を5分割した場合には、入力画素の位置が
例えばx=300,y=200の時は点701で示す位
置であるので、領域702に属する。各領域に対して左
上から順番に番号を付けると、領域702は25番とな
る。
The area judging section 603 judges which area the input pixel belongs to, and outputs an area number. For example,
As shown in FIG. 7, it is assumed that the input image has 640 pixels in the horizontal direction (x direction) and 480 pixels in the vertical direction (y direction).
When the division and the vertical direction are divided into five, when the position of the input pixel is, for example, x = 300 and y = 200, it is the position indicated by the point 701 and belongs to the area 702. When numbers are assigned to the respective regions in order from the upper left, the region 702 becomes the 25th.

【0029】一方、差分部106の結果は加算部606
に入力される。変化量記憶部607は、領域判断部60
3により指定される領域毎にの変化量の内容を記憶する
ように構成され、1画面入力される度に係数決定部60
5に結果を送り、内容をすべて0にリセットする。変化
量記憶部607から、領域判断部603で指定される領
域(入力画素の属する領域)の変化量が読み出されて加
算部606に加えられる。加算部606では、差分部1
06の結果と変化量記憶部607の中の入力画素の属す
る領域の変化量とが加算され、再び変化量記憶部607
に書き込まれる。即ち、変化量記憶部607には、入力
画素の属する領域に対する内容に差分結果が加算されて
いき、最終的には各領域における差分値の総和が格納さ
れることになる。
On the other hand, the result of the difference unit 106 is
Is input to The change amount storage unit 607 includes the area determination unit 60
3 for storing the content of the change amount for each area specified by
Send the result to 5 and reset all contents to 0. The change amount of the area (the area to which the input pixel belongs) specified by the area determination section 603 is read from the change amount storage section 607 and added to the addition section 606. In the adding unit 606, the difference unit 1
06 and the change amount of the area to which the input pixel belongs in the change amount storage unit 607 are added, and the change amount storage unit 607 is again added.
Is written to. That is, the difference result is added to the content for the area to which the input pixel belongs, and the total sum of the difference values in each area is finally stored in the change amount storage unit 607.

【0030】係数決定部605では、変化量記憶部60
7から供給される、各領域における差分値の総和をもと
にして、乗算部102、103における係数を決定す
る。差分の総和が大きい領域は動き領域が大きいことを
示しているので、入力画像の混合比を大きく(係数aを
大きく)し、逆に差分の総和が小さい領域では、背景画
像の混合比を大きく(係数aを小さく)する。各領域に
おける変化量の総和と係数aとの関係の一例を図8に示
す。即ち、各領域において変化量が100の画素が領域
内の半分あった場合を想定すると、その場合の変化量の
総和は307200であるので、変化量の総和がそれ以
下の部分で係数aを0〜1まで線形的に変化させ、それ
以上の場合は1に固定する。
In the coefficient determining section 605, the change amount storing section 60
The coefficients in the multiplication units 102 and 103 are determined on the basis of the sum of the difference values in each area supplied from 7. Since the region where the sum of differences is large indicates that the motion region is large, the mixture ratio of the input image is increased (the coefficient a is increased), and in the region where the sum of differences is small, the mixture ratio of the background image is increased. (Coefficient a is reduced). FIG. 8 shows an example of the relationship between the sum of the change amounts in each region and the coefficient a. That is, assuming that there are half of the pixels having a change amount of 100 in each region in each region, the total sum of the change amounts in this case is 307200. The value is changed linearly to 11, and is fixed to 1 in the case of more than 〜1.

【0031】係数記憶部604では、係数決定部605
で決定された係数を、領域別に記憶しておき、入力され
ている画素の属する領域(領域判断部603により判断
された領域)の係数を乗算部102、103に供給す
る。
In the coefficient storage section 604, a coefficient determination section 605
Are stored for each region, and the coefficients of the region to which the input pixel belongs (the region determined by the region determining unit 603) are supplied to the multiplying units 102 and 103.

【0032】以上のように本実施例によれば、入力画像
を複数の領域に分割し、各領域毎に差分結果をもとに各
領域での入力画像と背景画像との混合比を変えて背景画
像を生成するようにしたので、簡単な構成で、高精度な
背景生成を行うことができる。
As described above, according to the present embodiment, the input image is divided into a plurality of regions, and the mixing ratio between the input image and the background image in each region is changed based on the difference result for each region. Since the background image is generated, highly accurate background generation can be performed with a simple configuration.

【0033】なお、本実施例において、係数決定部で所
定値以下で線形的に決定し、それ以上で一定値とした
が、これに限定されるものではなく、例えば適用される
状況に応じて、あらかじめ適当な変換テーブルを作成し
ておき、そのテーブルを用いて変換するようにしてもよ
い。
In the present embodiment, the coefficient determining section linearly determines the value below a predetermined value and sets a constant value above the predetermined value. However, the present invention is not limited to this. Alternatively, an appropriate conversion table may be created in advance, and the conversion may be performed using the table.

【0034】また、第1及び第2の実施例において、差
分部のしきい値や、背景変化判断部の画素数のしきい値
および画素数増加率のしきい値を固定の値としたが状況
に応じて変化させてもよい。
In the first and second embodiments, the threshold value of the difference portion, the threshold value of the number of pixels of the background change judging portion, and the threshold value of the rate of increase in the number of pixels are fixed values. It may be changed according to the situation.

【0035】[0035]

【発明の効果】以上説明したように、本発明によれば、
対象の移動速度や背景の変化速度が変化するような場合
においても、誤検出を少なくすることができ、その実用
的効果は大きい。
As described above, according to the present invention,
Even when the moving speed of the target or the changing speed of the background changes, erroneous detection can be reduced, and the practical effect is large.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の移動物体検出装置のブ
ロック図
FIG. 1 is a block diagram of a moving object detection device according to a first embodiment of the present invention.

【図2】図1における時間軸フィルタ部の構成の一例を
示すブロック図
FIG. 2 is a block diagram illustrating an example of a configuration of a time axis filter unit in FIG. 1;

【図3】図1における領域検出部の構成の一例を示すブ
ロック図
FIG. 3 is a block diagram illustrating an example of a configuration of an area detection unit in FIG. 1;

【図4】図1における速度・大きさ検出部の構成の一例
を示すブロック図
FIG. 4 is a block diagram showing an example of a configuration of a speed / size detection unit in FIG. 1;

【図5】図1における速度・大きさ検出部の動作を説明
するための説明図
FIG. 5 is an explanatory diagram for explaining an operation of a speed / magnitude detection unit in FIG. 1;

【図6】本発明の第2の実施例の移動物体検出装置のブ
ロック図
FIG. 6 is a block diagram of a moving object detection device according to a second embodiment of the present invention.

【図7】図6の動作を説明するための説明図FIG. 7 is an explanatory diagram for explaining the operation of FIG. 6;

【図8】図6における係数決定部の動作を説明するため
の説明図
FIG. 8 is an explanatory diagram for explaining an operation of a coefficient determination unit in FIG. 6;

【符号の説明】[Explanation of symbols]

101 画像入力部 102,103 乗算部 104,605 加算部 105 背景記憶部 106 差分部 107 時間軸フィルタ処理部 108 領域抽出部 109,608 画像表示部 110 速度・大きさ検出部 111,605 係数決定部 112,604 係数記憶部 113 フレーム間隔設定部 601 領域設定部 602 位置検出部 603 領域判断部 607 変化量記憶部 Reference Signs List 101 Image input unit 102, 103 Multiplication unit 104, 605 Addition unit 105 Background storage unit 106 Difference unit 107 Time axis filter processing unit 108 Area extraction unit 109, 608 Image display unit 110 Speed / size detection unit 111, 605 Coefficient determination unit 112, 604 Coefficient storage unit 113 Frame interval setting unit 601 Area setting unit 602 Position detection unit 603 Area judgment unit 607 Change amount storage unit

フロントページの続き (56)参考文献 特開 平1−211083(JP,A) 特開 平2−71380(JP,A) 特開 昭60−168276(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 G08B 13/00 - 15/02 H04N 7/32 H04N 11/04 Continuation of the front page (56) References JP-A-1-211083 (JP, A) JP-A-2-71380 (JP, A) JP-A-60-168276 (JP, A) (58) Fields studied (Int .Cl. 7 , DB name) G06T 7/ 00-7/60 G06T 1/00 G08B 13/00-15/02 H04N 7/32 H04N 11/04

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像入力手段と、背景となる画像を記憶す
る背景画像記憶手段と、前記画像入力手段より得られた
入力画像と前記背景画像記憶手段に記憶されている背景
画像とを画素ごとに所定の割合で加算して新たな背景画
像を得て前記背景画像記憶手段の内容を更新する背景画
像生成手段と、前記背景画像と前記入力画像との差をと
り移動体領域を抽出する移動体領域検出手段と、抽出さ
れた移動体領域の速度および大きさを検出する移動体速
度・大きさ検出手段と、前記速度および前記大きさか
ら、前記背景生成手段における前記入力画像と前記背景
画像との加算の割合を決定する係数決定手段とを備えた
ことを特徴とする移動物体検出装置。
1. An image input means, a background image storage means for storing an image serving as a background, and an input image obtained by the image input means and a background image stored in the background image storage means for each pixel. Background image generation means for obtaining a new background image by adding a predetermined ratio to the background image and updating the contents of the background image storage means; and moving the difference between the background image and the input image to extract a moving body region. and body region detection unit, extracts of
Mobile speed to detect the speed and size of the moving mobile area
Degree / size detection means, the speed and the size
Et al., Moving object detection apparatus being characterized in that a coefficient determination means for determining the rate of addition of said background image and said input image in the background generation means.
【請求項2】 移動体領域検出手段の結果を時間的に平
滑化する時間軸フィルタ処理手段を備えたことを特徴と
する請求項1記載の移動体検出装置。
2. The method according to claim 1, wherein the result of the moving body region detecting means is temporally flat.
Characterized by having a time axis filter processing means for smoothing
The moving object detection device according to claim 1.
JP13658492A 1992-05-28 1992-05-28 Moving object detection device Expired - Fee Related JP3185362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13658492A JP3185362B2 (en) 1992-05-28 1992-05-28 Moving object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13658492A JP3185362B2 (en) 1992-05-28 1992-05-28 Moving object detection device

Publications (2)

Publication Number Publication Date
JPH05334441A JPH05334441A (en) 1993-12-17
JP3185362B2 true JP3185362B2 (en) 2001-07-09

Family

ID=15178702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13658492A Expired - Fee Related JP3185362B2 (en) 1992-05-28 1992-05-28 Moving object detection device

Country Status (1)

Country Link
JP (1) JP3185362B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162101B2 (en) 2001-11-15 2007-01-09 Canon Kabushiki Kaisha Image processing apparatus and method
JP5832910B2 (en) * 2012-01-26 2015-12-16 セコム株式会社 Image monitoring device

Also Published As

Publication number Publication date
JPH05334441A (en) 1993-12-17

Similar Documents

Publication Publication Date Title
KR100452413B1 (en) Method and apparatus for calibrating a computer-generated projected image
CN101222589B (en) Image processing device and image display device having the same
CN101803384B (en) Privacy zone algorithm for ptz dome cameras
US7346188B2 (en) Motion detection method and device, program and vehicle surveillance system
EP2677500A2 (en) Event-based image processing apparatus and method
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
JP2004312680A (en) Motion estimation apparatus and method for detecting scrolling text or graphic data
US20020136455A1 (en) System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view
US6377242B1 (en) Display pointer tracking device
EP0780003B1 (en) Method and apparatus for determining the location of a reflective object within a video field
JP3363529B2 (en) Video display device
JP3185362B2 (en) Moving object detection device
CN111654640B (en) Exposure adjusting method and device and electronic equipment
JP2950251B2 (en) Image display device
JP2667885B2 (en) Automatic tracking device for moving objects
CN110825225A (en) Advertisement display method and system
JPH05225341A (en) Mobile object detector
JP2001092976A (en) Detecting method for moving object
JP2000020210A (en) Screen scroll system and program recording medium therefor
JP2000350188A (en) Background image update device and its method
JPH06150005A (en) Moving object detector and moving object tracking device
CN118764581A (en) Double-picture display method and device and playing equipment
KR20040103156A (en) Method for displaying and moving a position in case of pdp video signal zoom
JPH0638127A (en) Cursor controller in television receiver
CN117762247A (en) Image display self-adaptive adjusting method, terminal equipment and storage medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090511

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees