JPH0944681A - Moving object area detector - Google Patents

Moving object area detector

Info

Publication number
JPH0944681A
JPH0944681A JP19634395A JP19634395A JPH0944681A JP H0944681 A JPH0944681 A JP H0944681A JP 19634395 A JP19634395 A JP 19634395A JP 19634395 A JP19634395 A JP 19634395A JP H0944681 A JPH0944681 A JP H0944681A
Authority
JP
Japan
Prior art keywords
moving object
motion vector
image
object area
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19634395A
Other languages
Japanese (ja)
Inventor
Kenji Iwano
賢二 岩野
Hiroshi Akahori
裕志 赤堀
Yukie Goshima
雪絵 五島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP19634395A priority Critical patent/JPH0944681A/en
Publication of JPH0944681A publication Critical patent/JPH0944681A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract a stable moving object area, regardless of the size of a motion vector, and to generate a background image which is not included in the moving object area, in a scene in which a moving object is tracked by a camera. SOLUTION: The motion vector of an input image generated accompanying the movement of a camera is detected, a field space to be processed according to the size of the motion vector in a field space calculation part 1b, the generation of a background image is performed by using a motion area, a motion vector, an input image and a background image in a background image generation part 1c, the motion area is detected from the motion vector, the input image and the background image in a motion area detection part 1d, a moving object area is detected from the motion area in a moving object area detection part 1e, and the processing space of the motion vector detection part 1a and the background image generation part 1c is varied by referring to the output of the field space calculation part 1b.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ビデオカメラ等の移動
可能な撮像装置から得られた動画像に対して、背景と異
なる動きをする移動物体領域を正確に抽出し、動画像の
早見、編集、検索を容易にするもので、画像編集装置や
セキュリティシステムにおける画像監視装置等に使用さ
れる移動物体領域検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention accurately extracts a moving object area that moves differently from a background from a moving image obtained from a movable image pickup device such as a video camera, and provides a quick view of the moving image. The present invention relates to a moving object area detection device used for an image editing device, an image monitoring device in a security system, and the like, which facilitates editing and searching.

【0002】[0002]

【従来の技術】従来の背景画像を用いた移動物体検出に
は大きく分けて (1)カメラ固定で入力画像を積分して背景画像を生成
する方法。 (2)カメラ移動可能で入力画像の動きベクトル検出を
行い、動き補償後に背景画像を積分する方法。 (3)(2)と同様に動き補償をし、動領域(移動物体
領域)に対しては背景画像を更新せず、静領域に対して
は入力画像と背景画像をある割合で加算する。 などがある。(1)は主に画像監視装置に使われており
特開平7−79429号公報に開示されたようなものが
ある。動画像の撮像条件として、カメラが移動している
場合の背景画像生成方法に関しては特開平5−2253
41号公報に開示されたように画面の変化に応じて入力
画像と背景画像との加算の割合を可変にする方法が示さ
れている。しかしこれは急激な照明変化や動作中の静止
物体の隠現による誤検出を減少させるものである。さら
に移動物体の特徴量として特開平5−145844号公
報に開示されたように移動物体領域の特徴量として移動
物体の横、縦の長さ、面積及び重心位置を用いる方法が
示されている。
2. Description of the Related Art A conventional method for detecting a moving object using a background image is roughly divided into (1) a method of integrating a input image with a camera fixed to generate a background image. (2) A method in which the camera is movable, the motion vector of the input image is detected, and the background image is integrated after motion compensation. (3) Motion compensation is performed as in (2), the background image is not updated for the moving area (moving object area), and the input image and the background image are added at a certain ratio for the static area. and so on. The type (1) is mainly used for an image monitoring apparatus, and there is one disclosed in Japanese Patent Laid-Open No. 7-79429. Japanese Patent Laid-Open No. 5-2253 discloses a method for generating a background image when a camera is moving as a moving image capturing condition.
As disclosed in Japanese Patent Publication No. 41-41, there is disclosed a method of changing the addition ratio of the input image and the background image according to the change of the screen. However, this reduces erroneous detections due to abrupt changes in illumination and hidden objects in motion. Further, as a feature amount of a moving object, as disclosed in Japanese Patent Application Laid-Open No. 5-145844, a method of using horizontal and vertical lengths, areas and barycentric position of a moving object as a feature amount of a moving object region is disclosed.

【0003】[0003]

【発明が解決しようとする課題】従来の移動物体領域検
出装置のブロック図を図39に示す。従来の移動物体領
域検出装置では、動きベクトル検出部、背景画像生成部
における各処理のフィールド間隔が固定であり、動き領
域検出部において検出される動き領域が誤検出された
り、検出洩れを起こしたりする問題がある。この原因を
画像中の移動物体領域をモデル化し、図7を用いて説明
する。図7の横軸は空間座標x(またはy)であり、縦
軸は画像の輝度値を表しており、実線のグラフが入力画
像の輝度値、点線のグラフは参照画像の輝度値を表して
いる。 1)撮影された動画像の動きベクトルが小さい場合 まず図7(A)の様な輝度値が一様に分布している移動
物体領域を考える。入力画像と参照画像との差分をとる
ことにより検出される動き領域は小さい領域のみであ
る。この動き領域に対して移動物体領域検出のために孤
立点除去の処理が行われるため、動き領域が小さいとこ
の処理により動き領域が消去される可能性がある。
FIG. 39 shows a block diagram of a conventional moving object area detecting apparatus. In the conventional moving object area detection device, the field interval of each process in the motion vector detection unit and the background image generation unit is fixed, and the motion area detected by the motion area detection unit is erroneously detected or may be missed. I have a problem to do. This cause will be described with reference to FIG. 7 by modeling the moving object area in the image. The horizontal axis of FIG. 7 represents the spatial coordinate x (or y), the vertical axis represents the brightness value of the image, the solid line graph represents the brightness value of the input image, and the dotted line graph represents the brightness value of the reference image. There is. 1) When the motion vector of the captured moving image is small First, consider a moving object region in which luminance values are uniformly distributed as shown in FIG. The moving region detected by taking the difference between the input image and the reference image is only a small region. Since the processing for removing the isolated points is performed on the moving area to detect the moving object area, the moving area may be erased by this processing if the moving area is small.

【0004】また図7(B)では、移動物体領域の輝度
が滑らかに変化している場合を考える。差分が検出され
た範囲は広いが、差分値(差分の絶対値または2乗値)が
小さいため画像のノイズとみなされ、動き領域が検出さ
れない可能性がある。さらに動き領域が正確に検出でき
ないと背景画像生成部において、実際は動き領域である
にもかかわらず静領域とみなされ、次回の動き領域検出
処理においても悪影響を及ぼす。 2)動きベクトルが大きい場合 1)の問題を解決するために、処理を行うフィールド間
隔を広くした時を考える。動きベクトル検出部において
ある一定の探索範囲内で動きベクトルを探索するが、探
索範囲以上の動きベクトルが生じた場合、動きベクトル
検出が誤検出となる。当然これ以降の処理結果も不正確
なものとなる。
Further, in FIG. 7B, consider a case where the luminance of the moving object region changes smoothly. Although the range in which the difference is detected is wide, the difference value (absolute value or squared value of the difference) is small, so it is regarded as noise in the image, and the motion region may not be detected. Further, if the motion area cannot be accurately detected, the background image generation unit regards it as a static area even though it is actually a motion area, and adversely affects the next motion area detection process. 2) When the motion vector is large Consider the case where the field interval for processing is widened in order to solve the problem of 1). The motion vector detection unit searches for a motion vector within a certain search range, but if a motion vector exceeding the search range occurs, the motion vector detection will be an erroneous detection. Naturally, the subsequent processing results will also be inaccurate.

【0005】本発明はかかる点に鑑み、様々な撮影状態
における動画像において移動物体領域を含まない背景画
像の生成方法、ならびに背景画像と入力画像を加算する
割合を考慮し、正確に移動物体領域を検出する方法を提
供し、動画像の検索、早見、編集装置ならびに監視装置
実現するための移動物体領域検出装置を提供することを
目的としている。
In view of the above points, the present invention accurately considers a moving object region in consideration of a method of generating a background image that does not include a moving object region in a moving image in various shooting states, and a ratio of adding the background image and the input image. The object of the present invention is to provide a moving object area detecting device for realizing a moving image search, quick viewing, editing device and monitoring device.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明の第1の構成は、入力画像の動きベクトルを
検出する動きベクトル検出部と、前記入力画像から背景
画像を作成する背景画像生成部を少なくとも具備し、前
記動きベクトルの大きさに基づいて前記動きベクトル検
出部と前記背景画像生成部の処理間隔もしくは前記背景
画像生成部のみの処理間隔を可変にする構成である。
In order to achieve the above object, the first configuration of the present invention is a motion vector detecting section for detecting a motion vector of an input image, and a background image for creating a background image from the input image. At least a generation unit is provided, and the processing interval between the motion vector detection unit and the background image generation unit or the processing interval only between the background image generation units is variable based on the magnitude of the motion vector.

【0007】また、第2の構成は、入力画像の動きベク
トルを検出する動きベクトル検出部と、前記入力画像か
ら背景画像を作成する背景画像生成部を少なくとも具備
し、前記動きベクトルの大きさと移動物体領域の周辺画
素との相関値により前記動きベクトル検出部と前記背景
画像生成部の処理間隔もしくは前記背景画像生成部のみ
の処理間隔を可変にする構成である。
The second configuration includes at least a motion vector detecting section for detecting a motion vector of the input image and a background image generating section for creating a background image from the input image, and the magnitude and movement of the motion vector. The processing interval between the motion vector detection unit and the background image generation unit or the processing interval between only the background image generation unit is variable according to the correlation value with the peripheral pixels of the object area.

【0008】また、第3の構成は、入力画像の動きベク
トルを検出する動きベクトル検出部と、前記入力画像か
ら背景画像を作成する背景画像生成部を少なくとも具備
し、前記動きベクトルの大きさと移動物体領域の周辺画
素との相関値により前記背景画像生成部における前記背
景画像と前記入力画像とを加算する割合を決定する構成
である。
Further, the third configuration comprises at least a motion vector detecting section for detecting a motion vector of the input image and a background image generating section for creating a background image from the input image, and the magnitude and movement of the motion vector. The ratio of adding the background image and the input image in the background image generation unit is determined based on the correlation value with the peripheral pixels of the object area.

【0009】[0009]

【作用】本発明は、以上のような構成により、動きベク
トル検出、背景画像生成の各処理を、動きベクトルの大
きさが大きい時は処理間隔を狭くして、動きベクトルの
大きさが小さい時は処理間隔を広くすることで、移動物
体領域を含まない背景画像を生成し、この背景画像を用
いて移動物体領域の正確な抽出が行える。
According to the present invention, with the above-described configuration, the processing intervals of the motion vector detection and the background image generation are narrowed when the motion vector size is large, and when the motion vector size is small. By increasing the processing interval, a background image that does not include a moving object region is generated, and the moving object region can be accurately extracted using this background image.

【0010】また、処理間隔を可変にする条件の中に、
移動物体領域の周辺画素との相関値を用いることより、
画像のテクスチャに左右されない移動物体検出が行え
る。
In addition, in the condition that the processing interval is variable,
By using the correlation value with the surrounding pixels of the moving object area,
It is possible to detect moving objects that are not affected by image texture.

【0011】また、動きベクトルの大きさと移動物体領
域の周辺画素との相関値を用いて、入力画像と背景画像
を加算する割合を可変にすることにより、移動物体領域
を含まない背景画像を生成し、この背景画像を用いて移
動物体領域の正確な抽出が行える。
Further, by using the correlation value between the size of the motion vector and the peripheral pixels of the moving object area, the ratio of addition of the input image and the background image is made variable to generate a background image not including the moving object area. However, it is possible to accurately extract the moving object region using this background image.

【0012】[0012]

【実施例】以下本発明の移動物体領域検出装置の第1の
実施例について説明する。図1は本発明の移動物体領域
検出装置の第1の実施例における全体ブロック図であ
る。全体の処理の流れから説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the moving object area detecting apparatus of the present invention will be described below. FIG. 1 is an overall block diagram of a first embodiment of a moving object area detecting apparatus of the present invention. The overall processing flow will be described.

【0013】まず、動きベクトル検出部1aでは入力画
像とこれより所定フィールド以前の画像である参照画像
を用いて動きベクトルを算出する。フィールド間隔計算
部1bでは動きベクトルの大きさと前回処理時のフィー
ルド間隔を参照して、動きベクトル検出部1aにおける
参照画像の更新もしくは継続、及び背景画像生成部1c
における背景画像の更新もしくは継続を決定する。次に
背景画像生成部1cでは入力画像、動きベクトル、前回
処理で生成された背景画像、動き領域を用いて新たな背
景画像を生成する。動き領域検出部1dでは動きベクト
ルにより補正された背景画像と入力画像との差分を計算
し動き領域を検出する。移動物体領域検出部1eでは、
動き領域の中で領域面積が最大である移動物体領域を検
出する。
First, the motion vector detecting section 1a calculates a motion vector using an input image and a reference image which is an image before a predetermined field from the input image. The field interval calculation unit 1b refers to the size of the motion vector and the field interval at the time of the previous processing to update or continue the reference image in the motion vector detection unit 1a, and the background image generation unit 1c.
To update or continue the background image in. Next, the background image generation unit 1c generates a new background image using the input image, the motion vector, the background image generated in the previous process, and the motion area. The motion area detection unit 1d detects the motion area by calculating the difference between the background image corrected by the motion vector and the input image. In the moving object area detection unit 1e,
The moving object area having the largest area area is detected in the moving area.

【0014】動きベクトル検出部1aは画像処理を用い
た種々の方法で実現できるが、ここでは「ナショナル
テクニカル レポート」(National Technical Report
Vol.37 No.3 pp308-204 Jun. 1991 )で記されている方
法について図2を用いて詳細を説明する。 (1)フィールドfにおける入力画像をS(f)と表記
し、このときの参照画像蓄積部2aには入力画像とin
t(f)フィールド間離れた画像S(f−int
(f))が保持されている。 (2)代表点マッチング処理部2bでは、画像S
(f)、S(f−int(f))を図8に示す5つの領
域に分割し、図9(A)に示す参照画像S(f−int
(f))の各領域の代表点9aと入力画像S(f)の各
領域の探索範囲9b内の点で代表点マッチング処理を行
い相関値C(n、z)を計算する。但し、nは領域番号
1≦n≦5、zは探索範囲内での座標を表しており、1
つの画像に対する相関値Cは領域分割数と探索範囲の大
きさとの積の個数だけ存在する。 (3)有効領域判定部2cにおいて、第n領域の相関値
の集合{C(n、z)}から探索範囲内での平均値Cav
e(n)、最小値Cmin(n)、相関値の最小値付近の勾
配のx、y方向成分grdx(n)、grdy(n)を求
め、これらを用いて各領域の有効性を検証し、第n領域
における動きベクトルv(f、n)を算出する。 (4)動きベクトル決定部2dでは、有効な領域の動き
ベクトルv(f、n)から動きベクトルV(f)を決定
する。 (5)検出された動きベクトルV(f)を用いて、フィ
ールド間隔計算部1bで参照画像蓄積部2aの更新もし
くは継続の判定をする。
The motion vector detecting section 1a can be realized by various methods using image processing.
Technical Report "(National Technical Report
The method described in Vol.37 No.3 pp308-204 Jun. 1991) will be described in detail with reference to FIG. (1) The input image in the field f is denoted by S (f), and the input image and in
Image S (f-int) separated by t (f) fields
(F)) is held. (2) In the representative point matching processing unit 2b, the image S
(F) and S (f-int (f)) are divided into five areas shown in FIG. 8, and the reference image S (f-int) shown in FIG.
The representative point matching process is performed at the representative point 9a of each area of (f) and the point within the search range 9b of each area of the input image S (f) to calculate the correlation value C (n, z). However, n represents the region number 1 ≦ n ≦ 5, and z represents the coordinates within the search range, and 1
There are as many correlation values C for one image as the product of the number of area divisions and the size of the search range. (3) In the effective area determination unit 2c, the average value Cav within the search range is calculated from the set of correlation values {C (n, z)} of the nth area.
e (n), minimum value Cmin (n), x, y direction components grdx (n), grdy (n) of the gradient near the minimum value of the correlation value are obtained, and the effectiveness of each region is verified using these , The motion vector v (f, n) in the nth region is calculated. (4) The motion vector determination unit 2d determines the motion vector V (f) from the motion vector v (f, n) of the effective area. (5) Using the detected motion vector V (f), the field interval calculation unit 1b determines whether the reference image storage unit 2a should be updated or continued.

【0015】但し、動きベクトル検出部1aはこの方法
に限定せず、オプティカルフローによって画像の局所的
動きの変化を検出する構成でも良い。
However, the motion vector detecting section 1a is not limited to this method, and may have a configuration for detecting a change in local motion of an image by an optical flow.

【0016】続いてフィールド間隔計算部1bの処理に
ついて図3を用いて説明する。ここでは課題を解決する
ために参照画像及び背景画像更新を行う処理間隔を可変
とする。 (1)画像更新判定部3aにおいて検出された動きベク
トルの大きさとフィールド間隔記憶部3bに保持されて
いる前回処理時のフィールド間隔を用いて画像の更新も
しくは継続の判定を行う。動きベクトルの大きさが小さ
い時は画像を継続する判定を行い、大きさがある閾値以
上になると画像更新の判定を行う。また入力画像と参照
画像との間隔が広がり過ぎると検出される動きベクトル
の信頼性が低下してしまうため、フィールド間隔にも閾
値を設けて画像の更新もしくは継続の判定をする。以下
に画像更新判定部3aにおける更新の条件を示す。
Next, the processing of the field interval calculator 1b will be described with reference to FIG. Here, in order to solve the problem, the processing interval for updating the reference image and the background image is variable. (1) The image update determination unit 3a determines the image update or continuation using the magnitude of the motion vector detected and the field interval stored in the field interval storage unit 3b during the previous processing. When the magnitude of the motion vector is small, it is determined to continue the image, and when the magnitude is equal to or larger than a certain threshold, it is determined to update the image. Further, if the interval between the input image and the reference image is too wide, the reliability of the detected motion vector is reduced. Therefore, a threshold is also set for the field interval to determine whether to update or continue the image. The update conditions in the image update determination unit 3a are shown below.

【0017】フィールドfにおける動きベクトルをV
(f)、入力画像と参照画像のフィールド間隔をint
(f)と表記すると、条件(数1)(数2)のどちらか
を満足する時に更新と判定する。
Let the motion vector in field f be V
(F) Int the field interval between the input image and the reference image
When expressed as (f), it is determined to be updated when either of the conditions (Equation 1) and (Equation 2) is satisfied.

【0018】[0018]

【数1】 [Equation 1]

【0019】[0019]

【数2】 [Equation 2]

【0020】ただし、式中のTHは閾値を表している。
なお、(数1)(数2)では動きベクトルの大きさとフ
ィールド間隔は独立な閾値を用いているが、フィールド
間隔の値により動きベクトルの大きさの閾値を変化させ
てゆくことも当然考えられる。すなわち条件は(数3)
のようになる。
However, TH in the equation represents a threshold value.
Note that in (Equation 1) and (Equation 2), the magnitude of the motion vector and the field interval use independent threshold values, but it is naturally conceivable to change the threshold value of the motion vector magnitude depending on the value of the field interval. . That is, the condition is (Equation 3)
become that way.

【0021】[0021]

【数3】 (Equation 3)

【0022】また、実際の映像信号ではカメラの動き、
移動物体の動きは横方向が多いため、動きベクトルの横
(x)方向成分Vx(f)を用いても実現できる。
In the actual video signal, the movement of the camera,
Since the motion of the moving object is mostly in the horizontal direction, it can be realized by using the lateral (x) direction component Vx (f) of the motion vector.

【0023】背景画像生成部1cについては図4を用い
て詳細を説明する。 (1)フィールド間隔計算部1bからの出力を参照し、
これが継続の場合は現在の背景画像を保持したままで新
たな生成は行わない。更新する場合は、背景画像蓄積部
4cに保持されている前回生成された背景画像BG(f
−int(f))と動きベクトルVを用いて、座標変換
部4aで(数4)に示す座標変換を行い、B(f−in
t(f))を算出する。
The background image generator 1c will be described in detail with reference to FIG. (1) Referring to the output from the field interval calculation unit 1b,
If this continues, the current background image is retained and new generation is not performed. When updating, the previously generated background image BG (f held in the background image storage unit 4c is stored.
-Int (f)) and the motion vector V are used to perform the coordinate conversion shown in (Equation 4) in the coordinate conversion unit 4a, and B (f-in
Calculate t (f)).

【0024】[0024]

【数4】 (Equation 4)

【0025】(2)背景画像更新部4bにおいて、(数
4)により座標変換された背景画像B(f−int
(f))と入力画像S(f)、および動き領域を用いて
背景画像の更新を行う。この時動き領域と判定された領
域には背景画像の更新を実行せず、動き領域ではない領
域(静領域)に対しては(数5)を用いて背景画像を更
新する。
(2) In the background image updating unit 4b, the background image B (f-int) whose coordinates have been converted by (Equation 4) is used.
(F)), the input image S (f), and the motion area are used to update the background image. At this time, the background image is not updated in the area determined to be the motion area, and the background image is updated using (Equation 5) for the area that is not the motion area (static area).

【0026】[0026]

【数5】 (Equation 5)

【0027】(3)背景画像蓄積部4cでは、背景画像
更新部4bで作成された背景画像B(f)を次回更新が
行われるまでBG(f)として蓄積する。
(3) The background image storage unit 4c stores the background image B (f) created by the background image update unit 4b as BG (f) until the next update.

【0028】動き領域検出部1dについては図5を用い
て詳細を説明する。 (1)カメラの動きを補償するために、検出された動き
ベクトルVを用いて背景画像BG(f−int(f))
を入力画像S(f)と同位置になるように座標変換部5
aで(数4)の座標変換を行う。 (2)差分計算部5bにおいて、入力画像S(f)と座
標変換された背景画像B(f−int(f))の差分画
像を作成する。 (3)次に動き領域判定部5cにおいて入力と背景の差
分画像に対して動き領域判定処理を実行する。ここでは
フィルタのサイズをL(但し、Lは奇数)とし、フィル
タの対象画素を(x0、y0)とすると、 (x、y)=(x0±(L−1)/2、y0±(L−
1)/2) に対して、(数6)を用いて動き領域の判定を行う。
The moving area detecting section 1d will be described in detail with reference to FIG. (1) Background image BG (f-int (f)) using detected motion vector V to compensate for camera motion
To the same position as the input image S (f).
The coordinate conversion of (Equation 4) is performed with a. (2) The difference calculation unit 5b creates a difference image between the input image S (f) and the coordinate-converted background image B (f-int (f)). (3) Next, the motion area determination unit 5c executes motion area determination processing on the input and background difference images. Here, if the filter size is L (where L is an odd number) and the filter target pixel is (x0, y0), then (x, y) = (x0 ± (L-1) / 2, y0 ± (L −
For 1) / 2), the motion area is determined using (Equation 6).

【0029】[0029]

【数6】 (Equation 6)

【0030】フィルタの対象画素(x0、y0)周辺の
L×L個の画素に対して差分を計算して差分値がある閾
値THlab以上である画素((数6)を満足する画素)
の個数が、L×L/2個以上存在すれば対象画素(x
0、y0)を動き領域とする。
Pixels whose difference value is greater than or equal to a threshold THlab by calculating the difference with respect to L × L pixels around the filter target pixel (x0, y0) (pixels satisfying (Equation 6))
If the number of pixels is L × L / 2 or more, the target pixel (x
0, y0) is set as a motion area.

【0031】移動物体領域検出部1eについては図6を
用いて詳細を説明する。 (1)ラベリング処理部6aでは、動き領域の中で隣接
している画素を1つのグループとみなして各グループに
順番を付けていく処理である。 (2)近接領域結合処理部6bでは、ラベリングされた
各グループの中で近接しているものを結合する処理であ
る。 (3)孤立点除去処理部6cでは、グループを構成する
領域が小さい場合はそれをノイズとみなして静止領域に
変更する処理を行う。 (4)移動物体領域決定部6dでは、上記の処理後に領
域面積が最大であるグループを移動物体領域として検出
をする。
The moving object area detecting section 1e will be described in detail with reference to FIG. (1) In the labeling processing unit 6a, pixels adjacent to each other in the motion area are regarded as one group, and each group is sequentially numbered. (2) The adjacent region combination processing unit 6b is a process of combining adjacent ones of the labeled groups. (3) In the isolated point removal processing unit 6c, when the area forming the group is small, it is treated as noise and is changed to the still area. (4) The moving object area determination unit 6d detects the group having the largest area area as the moving object area after the above processing.

【0032】以上の本発明の第1の実施例の有効性を確
認するために、従来方式との比較を行った。評価画像と
して、人物が歩行しているのをカメラで追尾しているシ
ーンを選出した。移動物体の特徴量として領域の面積、
重心位置を用いる。評価画像に用いた追尾シーンにおい
て移動物体領域が正確に検出されるならば、面積がある
程度の大きさを安定して保ち、重心位置も時間変化に対
して変動が少なく安定した値が得られる。
In order to confirm the effectiveness of the above-described first embodiment of the present invention, a comparison with the conventional system was made. As an evaluation image, a scene in which a camera tracks a person walking is selected. The area of the area as the feature of the moving object
Use the position of the center of gravity. If the moving object region is accurately detected in the tracking scene used for the evaluation image, the size of the area can be kept stable to some extent, and the position of the center of gravity can be obtained with a stable value with little change with time.

【0033】移動物体領域の検出結果として、移動物体
領域の面積を図10に、重心位置を図11に示す。比較
は図1におけるフィールド間隔計算部を具備する本発明
の方式10aと、フィールド間隔固定の従来方式10b
である。横軸が時間変化を表すフィールド数であり縦軸
が移動物体領域の面積とx軸方向の重心位置である。こ
こでカメラや移動物体の動きは横方向が多いため重心位
置としてx軸方向のみを参照している。図10、図11
より移動物体の特徴量である面積、重心位置ともに本発
明の方式では安定しているが、従来方式では不安定とな
っていることが分かる。
As the detection result of the moving object area, the area of the moving object area is shown in FIG. 10 and the center of gravity is shown in FIG. For comparison, the system 10a of the present invention equipped with the field interval calculator in FIG. 1 and the conventional system 10b with a fixed field interval.
It is. The horizontal axis represents the number of fields representing the time change, and the vertical axis represents the area of the moving object region and the position of the center of gravity in the x-axis direction. Here, since the movement of the camera or the moving object is mostly in the lateral direction, only the x-axis direction is referred to as the center of gravity position. 10 and 11
It can be seen that the area of the moving object and the position of the center of gravity are stable in the method of the present invention, but unstable in the conventional method.

【0034】次に、本発明の移動物体領域検出装置の第
2の実施例について説明する。図12は本発明の移動物
体領域検出装置の第2の実施例における全体ブロック図
である。第1の実施例との相違点は、フィールド間隔計
算部12bでは動きベクトルの大きさに加えて、移動物
体領域を参照していることである。
Next, a second embodiment of the moving object area detecting apparatus of the present invention will be described. FIG. 12 is an overall block diagram of the second embodiment of the moving object area detecting apparatus of the present invention. The difference from the first embodiment is that the field interval calculator 12b refers to the moving object area in addition to the magnitude of the motion vector.

【0035】第1の方法では動きベクトルの大きさを閾
値と比較してフィールド間隔を決定しているが、第2の
方法では移動物体領域のテクスチャの有無も判定条件に
盛り込む。図7(A)のエッジ部分に注目すれば、テク
スチャのある部分では移動距離が小さくても差分値が算
出されるが、逆に図7(B)のようにテクスチャの少な
い画像では移動距離が大きくなければ差分値は小さな値
にしかならない。
In the first method, the field interval is determined by comparing the magnitude of the motion vector with a threshold value, but in the second method, the presence or absence of texture in the moving object area is also included in the determination condition. Focusing on the edge part of FIG. 7 (A), the difference value is calculated even if the movement distance is small in a portion with texture, but conversely, the movement distance is small in an image with few textures as shown in FIG. 7 (B). If it is not large, the difference value will be small.

【0036】すなわち、動きベクトルの大きさだけで動
き領域が算出されると判定するのではなく、移動物体領
域のテクスチャを参照することにより適切なフィールド
間隔を決定する。移動物体領域のテクスチャを判定する
ために、移動物体領域に対して代表点マッチング処理を
実行して周辺画素との相関値を計算し、この相関値から
周辺画素との相関が低くなる画素間隔を計算する。
That is, the appropriate field interval is determined by referring to the texture of the moving object area instead of determining that the moving area is calculated only by the size of the motion vector. In order to determine the texture of the moving object area, the representative point matching process is performed on the moving object area to calculate the correlation value with the surrounding pixels, and from this correlation value, the pixel interval at which the correlation with the surrounding pixels becomes low is calculated. calculate.

【0037】フィールド間隔計算部12bの処理につい
て図13を用いて詳細を説明する。 (1)参照領域蓄積部13aでは、現在のフィールドか
ら所定フィールド以前の移動物体領域である参照領域を
蓄積する。この参照領域の更新もしくは継続は画像更新
判定部13dの判定により行う。 (2)代表点マッチング処理部13bでは、図9(B)
に示す参照領域の代表点9cと移動物体領域の探索範囲
9d内の点で代表点マッチング処理を行い相関値C
(m、z)を計算する。ただし、zは探索範囲内での座
標を、mは移動物体領域を表している。z=(x、y)に
対する相関値C(m、z)の一例を図14に示す。 (3)画素間隔計算部13cでは移動物体領域の相関値
の集合{C(m、z)}から相関値の平均値Cave
(m)、最小値Cmin(m)、相関値の最小値付近の勾
配のx、y方向成分Gx(m)、Gy(m)を算出し、こ
れらの関係を図15に示す。最小値付近では相関が高い
ので、最小値を示す位置から平均値を示す位置まで離れ
れば周辺画素との相関が低いと言える。これを求めるた
めに横(x)方向に2つ、縦(y)方向に2つの合計4
つ存在する最小値付近の傾きの中で、傾きの最小値Gmi
nを求める(但し、Gmin≠0)。これより周辺画素との
相関が低くなる画素間隔Nは(数7)により算出され
る。
The processing of the field interval calculator 12b will be described in detail with reference to FIG. (1) The reference area storage unit 13a stores a reference area that is a moving object area before the predetermined field from the current field. The update or continuation of the reference area is performed by the image update determination unit 13d. (2) In the representative point matching processing unit 13b, FIG.
The representative point matching process is performed at the representative point 9c of the reference area and the point within the search range 9d of the moving object area shown in FIG.
Calculate (m, z). However, z represents the coordinates within the search range, and m represents the moving object region. FIG. 14 shows an example of the correlation value C (m, z) for z = (x, y). (3) The pixel interval calculation unit 13c calculates the average value Cave of the correlation values from the set of correlation values {C (m, z)} of the moving object area.
(M), the minimum value Cmin (m), and the x- and y-direction components Gx (m) and Gy (m) of the gradient near the minimum correlation value are calculated, and the relationship between them is shown in FIG. Since the correlation is high in the vicinity of the minimum value, it can be said that the correlation with the surrounding pixels is low if the distance from the position showing the minimum value to the position showing the average value is increased. To obtain this, two in the horizontal (x) direction and two in the vertical (y) direction, a total of 4
The minimum value Gmi of the slopes among the existing slopes around the minimum value
Find n (however, Gmin ≠ 0). The pixel interval N with which the correlation with surrounding pixels is lower than this is calculated by (Equation 7).

【0038】[0038]

【数7】 (Equation 7)

【0039】(4)画像更新判定部13dでは、移動物
体領域の周辺画素との相関が低くなる画素間隔Nと動き
ベクトルの大きさ|V|を用いて(数8)により、フィ
ールド間隔Tを決定する。
(4) In the image update determination unit 13d, the field interval T is calculated by (Equation 8) using the pixel interval N and the magnitude of the motion vector | V | that have a low correlation with the peripheral pixels of the moving object area. decide.

【0040】[0040]

【数8】 (Equation 8)

【0041】すなわち、動き領域検出を正確に行うため
には、背景画像と入力画像との間がT(f)フィールド
必要であることを意味する。フィールド間隔記憶部3b
に保持されている入力画像と参照/背景画像とのフィー
ルド間隔int(f)と算出されたフィールド間隔T
(f)を用いて、画像更新判定部13dでの画像更新の
条件は(数9)となる。
That is, it means that T (f) fields are required between the background image and the input image in order to accurately detect the motion area. Field interval storage unit 3b
The field interval int (f) between the input image and the reference / background image held in the table and the calculated field interval T
Using (f), the condition for image update in the image update determination unit 13d is (Equation 9).

【0042】[0042]

【数9】 [Equation 9]

【0043】尚、(数9)だけでなく(数2)における
int(f)の閾値を用いた条件も判定時に参照するこ
とが当然考えられる。また実際の映像信号ではカメラの
動き、移動物体の動きは横方向が多いため、動きベクト
ルの横(x)方向成分Vx(f)を用いても実現でき
る。
Note that it is naturally conceivable to refer to the condition using the threshold value of int (f) in (Equation 2) as well as (Equation 9) at the time of determination. Further, in the actual video signal, since the movement of the camera and the movement of the moving object are mostly in the horizontal direction, it can be realized by using the horizontal (x) direction component Vx (f) of the motion vector.

【0044】また、本発明の移動物体領域検出装置の第
2の実施例は、図12のフィールド間隔計算部12bの
処理を図13の代りに図16を用いることでも実現でき
る。フィールド間隔計算部12bについては図16を用
いて詳細を説明する。 (1)移動物体領域の分散は分散計算部16aにより
(数10)のように計算できる。
The second embodiment of the moving object area detecting apparatus of the present invention can also be realized by using FIG. 16 instead of FIG. 13 for the processing of the field interval calculator 12b of FIG. Details of the field interval calculator 12b will be described with reference to FIG. (1) The variance of the moving object region can be calculated by the variance calculator 16a as in (Equation 10).

【0045】[0045]

【数10】 (Equation 10)

【0046】(2)画素間隔計算部16bでは領域のテ
クスチャの有無を分散を用いて推定するために、関数g
を定義して周辺画素との相関が低くなる画素間隔N1を
(数11)を用いて決定する。
(2) The pixel interval calculation unit 16b uses the function g in order to estimate the presence or absence of texture in the area by using the variance.
Is defined to determine the pixel interval N1 with which the correlation with surrounding pixels is low, using (Equation 11).

【0047】[0047]

【数11】 [Equation 11]

【0048】g(σ)として1/σやexp(−σ)な
ど様々な単調減少関数が存在する。 (3)画像更新判定部16cではN1を(数7)のN
(f)と等価とみなし、(数11)のN1を(数8)の
N(f)に代入してフィールド間隔T(f)を計算す
る。このT(f)とフィールド間隔記憶部3bのint
(f)を用いて、画像更新の条件(数8)により、更新
もしくは継続の判定を行う。
There are various monotone decreasing functions such as 1 / σ and exp (-σ) as g (σ). (3) The image update determination unit 16c sets N1 to N in (Equation 7).
Equivalent to (f), N1 in (Equation 11) is substituted into N (f) in (Equation 8) to calculate the field interval T (f). This T (f) and int of the field interval storage unit 3b
Using (f), it is determined whether to update or continue according to the image update condition (Equation 8).

【0049】次に、本発明の移動物体領域検出装置の第
3の実施例について説明する。図17は本発明の移動物
体領域検出装置の第3の実施例における全体ブロック図
である。第1および第2の実施例との相違点は、フィー
ルド間隔計算部17bでは動きベクトルの大きさに加え
て、入力画像と参照画像の相関値を参照していることで
ある。
Next, a third embodiment of the moving object area detecting apparatus of the present invention will be described. FIG. 17 is an overall block diagram of the moving object area detecting apparatus according to the third embodiment of the present invention. The difference from the first and second embodiments is that the field interval calculator 17b refers to the correlation value between the input image and the reference image in addition to the magnitude of the motion vector.

【0050】まず、代表点マッチング処理部2bの相関
値を用いる領域は図8より5つ存在するが、被写体を追
尾するような動画像では通常被写体が画面中央に存在す
るため図8の第5領域を用いる。しかしより汎用的な方
法として図17の点線に示すように移動物体領域の重心
位置を検出して、重心位置から参照する第n領域を決定
する方法もある。ここで移動物体領域の重心位置は移動
物体領域特徴量検出部17cにおいて検出されるものと
する。
First, although there are five areas in which the correlation value of the representative point matching processing section 2b is used from FIG. 8, the normal object is present in the center of the screen in a moving image in which the object is tracked. Use area. However, as a more general method, there is also a method of detecting the barycentric position of the moving object region as shown by the dotted line in FIG. 17 and determining the n-th region to be referred from the barycentric position. Here, it is assumed that the position of the center of gravity of the moving object area is detected by the moving object area feature amount detection unit 17c.

【0051】動きベクトル検出部17aは、図2におい
て代表点マッチング処理部2bの出力である相関値を動
きベクトル検出部1aの外部でも参照できるように構成
したものである。
The motion vector detecting section 17a is constructed so that the correlation value output from the representative point matching processing section 2b in FIG. 2 can be referred to outside the motion vector detecting section 1a.

【0052】図18を用いてフィールド間隔計算部17
bの詳細を説明する。 (1)参照領域判定部18aでは移動物体領域の重心位
置から図8の5つの領域の内どの領域を参照するかを決
定する。重心位置が第5領域に含まれる時は第5領域を
参照し、そうでない時は重心位置が含まれる領域を参照
する。但し、最初から第5領域を参照する場合は、この
処理を行わない。 (2)画素間隔計算部18bは13cの処理を移動物体
領域にではなく、図8に示す第n領域(1≦n≦5)に
対して行ったものである。即ち、相関値の集合は{C
(n、z)}から相関値の平均値Cave(n)、最小値
Cmin(n)、相関値の最小値付近の勾配のx、y方向
成分Gx(n)、Gy(n)を算出し、4つ存在する最小
値付近の傾きの中で傾きの最小値Gminを求める(但
し、Gmin≠0)。これより周辺画素との相関が低くな
る画素間隔Nは(数7)により算出される。 (3)画像更新判定部13dおよびフィールド間隔記憶
部3bでの処理は上記の説明と等価であるので、説明を
省略する。
The field interval calculator 17 will be described with reference to FIG.
The details of b will be described. (1) The reference area determination unit 18a determines which of the five areas in FIG. 8 is to be referred to from the position of the center of gravity of the moving object area. When the position of the center of gravity is included in the fifth region, the fifth region is referred to, and when not included, the region including the position of the center of gravity is referred to. However, this process is not performed when the fifth area is referenced from the beginning. (2) The pixel interval calculation unit 18b performs the process of 13c not on the moving object region but on the nth region (1 ≦ n ≦ 5) shown in FIG. That is, the set of correlation values is {C
From (n, z)}, the average value Cave (n) of correlation values, the minimum value Cmin (n), and the x- and y-direction components Gx (n) and Gy (n) of the gradient near the minimum correlation value are calculated. The minimum value Gmin of the gradient is obtained among the four gradients around the minimum value (where Gmin ≠ 0). The pixel interval N with which the correlation with surrounding pixels is lower than this is calculated by (Equation 7). (3) The processing in the image update determination unit 13d and the field interval storage unit 3b is equivalent to the above description, and therefore the description is omitted.

【0053】なお、本発明の第1の実施例における図
1、および第2の実施例における図12、および第3の
実施例における図17では、フィールド間隔計算部の出
力を、動きベクトル検出部、背景画像生成部において参
照しているが、動きベクトル検出部では参照せず固定の
フィールド間隔(または毎フィールド)で処理を実行す
ることもできる。
In FIG. 1 in the first embodiment of the present invention, in FIG. 12 in the second embodiment, and in FIG. 17 in the third embodiment, the output of the field interval calculator is replaced by the motion vector detector. Although it is referred to by the background image generation unit, the process can be executed at a fixed field interval (or every field) without being referred by the motion vector detection unit.

【0054】この場合フィールド間隔計算部では固定の
フィールド間隔(または毎フィールド)で検出された動
きベクトルを積算し可変フィールド間での動きベクトル
を検出すれば実現する。この場合の動きベクトル検出部
1aおよび17aの詳細を図19を用いて説明する。 (1)参照画像蓄積部19aでは、フィールドfにおけ
る入力画像S(f)とFフィールド間離れた画像S(f
−F)を保持している。 (2)代表点マッチング処理部2b、有効領域判定部2
c、動きベクトル決定部2dの処理は上記の説明と同じ
であるため、説明を省略する。
In this case, the field interval calculation unit realizes by integrating motion vectors detected at fixed field intervals (or every field) and detecting motion vectors between variable fields. Details of the motion vector detecting units 1a and 17a in this case will be described with reference to FIG. (1) In the reference image storage unit 19a, the input image S (f) in the field f and the image S (f
-F) is held. (2) Representative point matching processing unit 2b, effective area determination unit 2
c, the processing of the motion vector determination unit 2d is the same as the above description, and thus the description is omitted.

【0055】なお動きベクトル検出部1aのフィールド
間隔が固定である場合は、上記の画像処理を用いた方法
以外に撮影装置にセンサを付けその出力を参照する方法
でも動きベクトル検出部1aを実現できる。
When the field interval of the motion vector detecting unit 1a is fixed, the motion vector detecting unit 1a can be realized by a method of attaching a sensor to the photographing device and referring to the output thereof in addition to the method using the above image processing. .

【0056】第1の実施例において、動きベクトル検出
を固定フィールド間隔で実行した時のフィールド間隔計
算部1bについて図20を用いて詳細を説明する。 (1)動きベクトル検出部1aおよび17aの出力を動
きベクトル積算部20aで積算し、可変フィールド間隔
における動きベクトルを計算する。これを画像更新判定
部3aが画像更新と判定するまで行う。画像更新と判定
された場合、その時まで積算した動きベクトルを0にリ
セットする。 (2)画像更新判定部3a、フィールド間隔記憶部3b
の処理は上記の説明と同じであるため省略する。
The field interval calculator 1b when the motion vector detection is executed at the fixed field interval in the first embodiment will be described in detail with reference to FIG. (1) The motion vector integration unit 20a integrates the outputs of the motion vector detection units 1a and 17a to calculate the motion vector at the variable field interval. This is repeated until the image update determination unit 3a determines that the image is updated. When it is determined that the image is updated, the motion vector accumulated until that time is reset to zero. (2) Image update determination unit 3a and field interval storage unit 3b
Since the processing of is the same as the above description, it will be omitted.

【0057】動きベクトル検出処理を固定フィールド間
隔で実行した時の、第2の実施例におけるフィールド間
隔計算部12bの処理、および第3の実施例におけるフ
ィールド間隔計算部17bの処理については、図13、
図16、図18の画像更新判定部13d(もしくは16
c)と、13d(もしくは16c)の入力である動きベ
クトルとの間に動きベクトル積算部20aを設けた構造
となる。動きベクトル積算部20aの処理は上記説明と
等価であるため、説明を省略する。
FIG. 13 shows the process of the field interval calculator 12b in the second embodiment and the process of the field interval calculator 17b in the third embodiment when the motion vector detecting process is executed at a fixed field interval. ,
The image update determination unit 13d (or 16 in FIGS. 16 and 18)
The structure is such that the motion vector integration unit 20a is provided between c) and the motion vector that is the input of 13d (or 16c). Since the processing of the motion vector integration unit 20a is equivalent to the above description, the description will be omitted.

【0058】次に本発明の移動物体領域検出装置の第4
の実施例について説明する。図21および図24は本発
明の移動物体領域検出装置の第4の実施例における全体
ブロック図である。第1、第2、第3の実施例との相違
点は、動きベクトル検出部、背景画像生成部の処理を可
変フィールド間隔で実行するのではなく、背景画像生成
部1cの背景画像更新部4bにおける積分パラメータ
((数5)参照)を計算する係数計算部21aおよび2
4aを具備することである。処理をするフィールド間隔
を固定にする理由は、実際に製品化するときに処理間隔
を可変にできない場合も考えられるためである。積分パ
ラメータを決定する要素として、動きベクトルの大きさ
と移動物体領域の周辺画素との相関を用いる。
Next, the fourth embodiment of the moving object area detecting apparatus of the present invention will be described.
An example will be described. 21 and 24 are overall block diagrams of the moving object area detecting apparatus according to the fourth embodiment of the present invention. The difference from the first, second, and third embodiments is that the processes of the motion vector detecting unit and the background image generating unit are not executed at variable field intervals, but the background image updating unit 4b of the background image generating unit 1c. Coefficient calculation units 21a and 2 for calculating the integration parameter (see (Equation 5)) in
4a is provided. The reason why the field interval for processing is fixed is that it may not be possible to make the processing interval variable when the product is actually commercialized. The correlation between the magnitude of the motion vector and the peripheral pixels of the moving object area is used as an element for determining the integration parameter.

【0059】図21は移動物体領域を参照して周辺画素
との相関を計算する方式であり、図24は図8の第n領
域(通常は第5領域)の相関値から移動物体領域の周辺
画素との相関を推定する方法である。
FIG. 21 shows a method of calculating the correlation with surrounding pixels by referring to the moving object area, and FIG. 24 shows the periphery of the moving object area from the correlation value of the nth area (usually the fifth area) of FIG. This is a method of estimating the correlation with pixels.

【0060】まず、係数計算部21aで行う処理を図2
2および図23で、また係数計算部24aで行う処理を
図25を用いて説明する。図22における参照領域蓄積
部13a、代表点マッチング処理部13b、画素間隔計
算部13c、および図23における分散計算部16a、
画素間隔計算部16b、および図25における参照領域
判定部18aは上記の説明と同じであるため、説明を省
略し係数決定部22aの処理を説明する。
First, the processing performed by the coefficient calculation unit 21a will be described with reference to FIG.
2 and FIG. 23, and the processing performed by the coefficient calculation unit 24a will be described with reference to FIG. The reference area accumulator 13a, the representative point matching processor 13b, the pixel interval calculator 13c in FIG. 22, and the variance calculator 16a in FIG.
Since the pixel interval calculation unit 16b and the reference area determination unit 18a in FIG. 25 are the same as the above description, the description is omitted and the processing of the coefficient determination unit 22a will be described.

【0061】ここでは一例として毎フィールド処理を行
う場合を考える。背景画像生成の式(数5)においてi
nt(f)=1を代入して、(数12)のように変形す
る。
As an example, let us consider a case where each field processing is performed. In the formula (Formula 5) for generating the background image, i
Substituting nt (f) = 1, it is transformed as shown in (Equation 12).

【0062】[0062]

【数12】 (Equation 12)

【0063】この(数12)よって、tフィールド以前
の画像が現在の背景画像の中にa(1ーa)tの割合で
参照されていることが分かる。
From this (Equation 12), it can be seen that images before the t field are referred to in the current background image at a ratio of a (1−a) t .

【0064】前記原理によりフィールド間隔可変方式で
はint(f)=N/|V|フィールドの間処理を待つ
動作をしている。すなわちフィールド間隔が固定の場合
においても背景画像生成時にint(f)フィールドま
で参照すれば、処理間隔を可変にした時と同様の効果が
得られて移動物体領域の検出精度が向上する。フィール
ド数tと背景画像に含まれる割合yの関係は(数13)
となる。
According to the above-mentioned principle, in the field interval variable system, the operation is awaited during the int (f) = N / | V | field. That is, even when the field interval is fixed, if the int (f) field is referred to when the background image is generated, the same effect as when the processing interval is made variable is obtained, and the detection accuracy of the moving object region is improved. The relationship between the number of fields t and the ratio y contained in the background image is (Equation 13)
Becomes

【0065】[0065]

【数13】 (Equation 13)

【0066】(数13)を図26に表す。図26よりt
が増加すると割合yは減少するがt→∞としなければy
=0とはならない。そこで、t=0における微分直線が
t軸と交差するフィールドまでを参照すると定義し、こ
のフィールド数をT1と表記する。(数13)を対数微
分法を用いて微分して(数14)が導出される。
FIG. 26 shows (Equation 13). From FIG. 26, t
If y increases, the ratio y decreases, but if t → ∞, then y
It does not become = 0. Therefore, it is defined that the differential straight line at t = 0 refers to the field that intersects the t-axis, and the number of fields is described as T1. (Equation 14) is derived by differentiating (Equation 13) using the logarithmic differentiation method.

【0067】[0067]

【数14】 [Equation 14]

【0068】(数14)よりt=0における傾きa l
og(1−a)と、切片aを持つ直線をy1と表記する
と、(数15)のようになる。
From equation (14), the slope a l at t = 0
If og (1-a) and a straight line having an intercept a are written as y1, then (Equation 15) is obtained.

【0069】[0069]

【数15】 (Equation 15)

【0070】これにy1=0を代入し、T1を求めるとSubstituting y1 = 0 into this and obtaining T1

【0071】[0071]

【数16】 (Equation 16)

【0072】となる。(数16)からaについて解くとIs obtained. Solving for a from (Equation 16)

【0073】[0073]

【数17】 [Equation 17]

【0074】となる。(数12)は毎フィールド処理を
実行する場合であるが、間隔固定で複数フィールドの場
合も同様にして導出できる。(数17)のT1を(数
8)のT(f)と正比例の関係があるとみなすと、T1
=βN/|V|となり、これを(数17)に代入したも
のが(数18)となる。
Is obtained. (Equation 12) is a case where the processing is performed for each field, but it can be derived in the same manner even in the case of a fixed interval and a plurality of fields. Assuming that T1 in (Equation 17) is directly proportional to T (f) in (Equation 8), T1
= ΒN / | V |, and substituting this into (Equation 17) gives (Equation 18).

【0075】[0075]

【数18】 (Equation 18)

【0076】係数決定部22aでは動きベクトルの大き
さ|V|と周辺画素との相関が低くなる画素間隔Nを
(数18)に代入して積分パラメータaを決定する。
(数18)の関係を図27に示す。
The coefficient determining section 22a determines the integration parameter a by substituting the pixel interval N at which the correlation between the magnitude | V | of the motion vector and the surrounding pixels becomes low into (Equation 18).
The relationship of (Equation 18) is shown in FIG.

【0077】(数18)の効果を検討するために移動物
体領域検出の比較を行う。移動物体領域の特徴量として
は面積と重心位置のx方向成分を用い、面積を図28
に、重心位置を図29に示す。評価画像は人物の歩行シ
ーンをカメラで追尾した画像であるが図10、図11で
用いた追尾シーンとは異なる。
In order to examine the effect of (Equation 18), comparison of moving object area detection will be performed. As the feature amount of the moving object region, the area and the x-direction component of the center of gravity are used, and the area is shown in FIG.
FIG. 29 shows the position of the center of gravity. The evaluation image is an image obtained by tracking a walking scene of a person with a camera, but is different from the tracking scene used in FIGS. 10 and 11.

【0078】比較は処理間隔可変でa=0.8とした方式
28aと、処理を毎フィールド実行しa=0.2 , 0.4 ,
0.8 とした各方式28b、28c、28dである。フィ
ールド間隔が固定の場合はa=0.2にすると移動物体領
域を正確に検出できることが分かる。この追尾シーンに
対して(数18)のβに適当な値を代入してaを計算す
ると0.2〜0.3付近になり、結果とほぼ一致することが分
かる。但し、aを小さくするほどより以前のフィールド
を参照するため、ノイズが積算されて動き領域が誤検出
されることもある。
For comparison, the method 28a in which the processing interval is variable and a = 0.8 and the processing is executed in each field and a = 0.2, 0.4,
The respective methods 28b, 28c and 28d are set to 0.8. It is understood that the moving object area can be accurately detected by setting a = 0.2 when the field interval is fixed. When an appropriate value is substituted for β in (Equation 18) for this tracking scene and a is calculated, it is around 0.2 to 0.3, and it can be seen that the results almost match. However, the smaller a is, the earlier the field is referred to. Therefore, noise may be integrated and a motion area may be erroneously detected.

【0079】次に本発明の移動物体領域検出装置の第5
の実施例について説明する。図30および図31は本発
明の移動物体領域検出装置の第5の実施例における全体
ブロック図である。この第5の実施例は、第1、第2、
第3の実施例において、背景画像生成部1cの背景画像
更新部4bにおける積分パラメータ((数5)参照)を
計算する係数計算部30aおよび31aを具備すること
である。
Next, the fifth embodiment of the moving object area detecting apparatus of the present invention will be described.
An example will be described. 30 and 31 are overall block diagrams of the moving object area detecting apparatus according to the fifth embodiment of the present invention. In this fifth embodiment, the first, second,
The third embodiment is provided with coefficient calculation units 30a and 31a for calculating an integration parameter (see (Equation 5)) in the background image update unit 4b of the background image generation unit 1c.

【0080】ここでフィールド間隔を可変の場合の、積
分パラメータaについて考える。移動物体領域が完全に
検出できればaの値は1に近いほど良い。すなわち背景
画像生成時に 動領域 : 背景画像 静領域 : 入力画像 とすれば、カメラの移動による背景画像の変化(カメラ
をパンしたときカメラから対象物までの距離が異なるも
のは画面上での移動距離が異なる等)にも、素早く対応
できる。また画面にノイズが発生しても、その画面では
ノイズの影響を受けるが次回の処理には関係なくなり、
移動物体検出は正しく行える。
Now, let us consider the integration parameter a when the field interval is variable. The closer the value of a to 1, the better, if the moving object area can be detected completely. In other words, when the background image is generated: moving area: background image static area: input image, the background image changes due to camera movement (when the camera pans, the distance from the camera to the object differs , Etc.) can be dealt with quickly. Also, even if noise occurs on the screen, it will be affected by the noise on that screen, but it will not be related to the next processing,
The moving object can be detected correctly.

【0081】すなわち係数計算部30aとは、フィール
ド間隔計算部12bが ・(数9)の条件により画像更新を行う場合は、積分パ
ラメータをa=1とする ・(数2)の条件により画像更新を行う場合は、係数決
定部21aと同じ方法(詳細は図22)で積分パラメー
タaを決定する という構成を持つ。
That is, with the coefficient calculation unit 30a, when the field interval calculation unit 12b updates the image under the condition of (Equation 9), the integration parameter is set to a = 1. In the case of performing, the configuration is such that the integration parameter a is determined by the same method as the coefficient determination unit 21a (details are shown in FIG. 22).

【0082】また係数計算部31aとは、フィールド間
隔計算部17bが ・(数9)の条件により画像更新を行う場合は、積分パ
ラメータをa=1とする ・(数2)の条件により画像更新を行う場合は、係数決
定部24aと同じ方法(詳細は図25)で積分パラメー
タaを決定する という構成を持つ。
When the field interval calculation unit 17b updates the image under the condition of (Equation 9), the integration parameter is set to a = 1. The image update according to the condition of (Equation 2). In the case of performing, the configuration is such that the integration parameter a is determined by the same method as the coefficient determination unit 24a (details are shown in FIG. 25).

【0083】次に図1および図12および図17および
図21および図30および図31における動き領域検出
部1dの動き領域判定部5cの他の方法について説明す
る。第1の実施例において説明した動き領域判定方法
は、同一画面の周辺画素の値を参照していた。ここでは
移動物体領域の時間的連続性を考慮して、動き領域を判
定する。すなわち、フィルタ処理を同一画面内のみなら
ず、これを時間軸方向に延長する方式を行う。重み係数
をZ(但し、Z>1でZを大きくするほど周辺画素への
重みが大きくなる)、フィルタの対象画素(x0、y
0)からの距離をdとし対象画素から離れれば重み付け
が小さくなるフィルタを構成する。距離としてはユーク
リッド距離が代表的であるが、他の4近傍距離、8近傍
距離、8角形距離、を用いても設計可能であることは言
うまでもない。一例として3次元ユークリッド距離dを
用い設計した時空間フィルタを用いる。ここで用いる3
次元ユークリッド距離を(数19)に示す。但しf0は
現在のフィールドを表す。
Next, another method of the motion area determination unit 5c of the motion area detection unit 1d in FIGS. 1 and 12, 17 and 21, 21 and 30 and 31 will be described. The motion area determination method described in the first embodiment refers to the values of the peripheral pixels on the same screen. Here, the moving region is determined in consideration of the temporal continuity of the moving object region. That is, the filtering process is performed not only within the same screen but also in the time axis direction. The weighting coefficient is Z (however, when Z> 1 and Z is increased, the weighting to the peripheral pixels is increased), and the pixel to be filtered (x0, y
The distance from 0) is defined as d, and the weight is reduced as the distance from the target pixel increases. Although the Euclidean distance is typical as the distance, it goes without saying that the distance can be designed by using other four-neighbor distance, eight-neighbor distance, and octagonal distance. As an example, a spatiotemporal filter designed using the three-dimensional Euclidean distance d is used. Used here 3
The dimension Euclidean distance is shown in (Equation 19). However, f0 represents the current field.

【0084】[0084]

【数19】 [Equation 19]

【0085】ここでαは動きベクトルの大きさ|V|に
より変化する係数であり、その一例を(数20)に示
す。動きベクトルが小さいと時間方向の相関は高くな
り、動きベクトルが大きいと時間方向の相関が低くなる
ことを表している。
Here, α is a coefficient that changes depending on the magnitude | V | of the motion vector, and an example thereof is shown in (Equation 20). A small motion vector indicates a high correlation in the time direction, and a large motion vector indicates a low correlation in the time direction.

【0086】[0086]

【数20】 (Equation 20)

【0087】(数19)を用いたフィルタの要素値W
(f,x,y)は(数21)となる。
Element value W of the filter using (Equation 19)
(F, x, y) becomes (Equation 21).

【0088】[0088]

【数21】 (Equation 21)

【0089】フィルタサイズは空間方向をL(但しLは
奇数)、時間方向をLFと表記する。Z=2、α=1、
L=3、LF=3の時のフィルタの設計例を図32に示
す。フィルタの対象画素(x0,y0)に対する、動き
領域の判定条件を(数22)に示す。
The filter size is represented by L in the spatial direction (where L is an odd number) and LF in the temporal direction. Z = 2, α = 1,
FIG. 32 shows an example of filter design when L = 3 and LF = 3. The motion region determination condition for the filter target pixel (x0, y0) is shown in (Equation 22).

【0090】[0090]

【数22】 (Equation 22)

【0091】ここで、I(f,x,y)は輝度値、NW
はフィルタの正規化係数、THwは閾値を表す。正規化
係数を(数23)に示す。
Here, I (f, x, y) is a luminance value, NW
Is a filter normalization coefficient, and THw is a threshold value. The normalization coefficient is shown in (Equation 23).

【0092】[0092]

【数23】 (Equation 23)

【0093】つまり(数22)を満足する画素を動き領
域として検出する。次に、図1、図12、図17、図2
1、図30及び図31における移動物体領域検出部1e
の他の方法について説明する。ここでは動き領域に対し
て図6に示す各処理を実行せず、周波数変換を移動物体
領域検出に用いる。この方法は、移動物体領域の細部は
検出不可能であるが、大まかな位置と大きさを検出でき
ることを特徴とする。移動物体領域検出部1eで周波数
変換を用いる方法について、図33を用いて詳細を説明
する。 <手順> (1)周波数変換処理部33aでは、動き領域検出部1
dの差分画像に対して画面全体、またはブロック分割を
して2次元周波数変換(FFT、DCT等)の変換を行
う。 (2)周波数フィルタ処理部33bでは、周波数成分の
中での振幅が最大となる交流成分(直流成分は除く)を
x、yのそれぞれの方向で検出する。 (3)周波数逆変換処理部33cでは、ステップ2で検
出した振幅最大の(縦、横の各方向の)周波数成分を逆
変換し、空間領域に戻す。 (4)移動物体領域決定部33dでは周波数逆変換によ
り得られた周期関数と差分画像の相関を計算し、相関の
高い1周期区間(関数の最小値から隣の最小値までの区
間)をx、y各方向に1つ決定する。 (5)移動物体領域特徴量検出部33eでは、ステップ
4で検出された区間関数のピーク位置を移動物体の重心
位置とする。また移動物体領域の面積は、抽出された
x、y方向の周波数成分の周期をu、vとすると楕円の
面積の公式を利用してπuv/4と導出できる。これを
図34に示す。
That is, a pixel satisfying (Equation 22) is detected as a motion area. Next, FIG. 1, FIG. 12, FIG. 17, and FIG.
1, the moving object area detection unit 1e in FIGS. 30 and 31.
Another method will be described. Here, the respective processes shown in FIG. 6 are not executed for the moving area, and frequency conversion is used for detecting the moving object area. This method is characterized in that it is not possible to detect the details of the moving object area, but it is possible to detect the rough position and size. The method of using frequency conversion in the moving object area detection unit 1e will be described in detail with reference to FIG. <Procedure> (1) In the frequency conversion processing unit 33a, the motion area detection unit 1
Two-dimensional frequency conversion (FFT, DCT, etc.) is performed on the difference image of d by dividing the entire screen or block division. (2) The frequency filter processing unit 33b detects the AC component (excluding the DC component) having the maximum amplitude among the frequency components in each of the x and y directions. (3) The frequency inverse transform processing unit 33c inversely transforms the frequency component with the maximum amplitude (in each of the vertical and horizontal directions) detected in step 2 and returns it to the spatial domain. (4) The moving object region determination unit 33d calculates the correlation between the periodic function obtained by the frequency inverse transform and the difference image, and determines a period having a high correlation (a period from the minimum value of the function to the adjacent minimum value) as x. , Y, one for each direction. (5) The moving object area feature amount detection unit 33e sets the peak position of the section function detected in step 4 as the center of gravity position of the moving object. Further, the area of the moving object region can be derived as πuv / 4 using the ellipse area formula, where u and v are the periods of the extracted frequency components in the x and y directions. This is shown in FIG.

【0094】本発明の第1の応用例として、撮影時のカ
メラマンの意図に応じて動画像の編集、早見、検索など
を容易に行う装置がある。ここでは移動物体の行動パタ
ーンではなく、撮影者のカメラワークに基づいてシーン
の重要度の判定を行い、この重要度の高い画像を代表画
像として動画像ブラウジングシステムを構築する。
As a first application example of the present invention, there is a device which easily edits, looks at, and searches a moving image in accordance with the intention of a cameraman at the time of shooting. Here, the importance of the scene is determined based on the camerawork of the photographer rather than the action pattern of the moving object, and a moving image browsing system is constructed using the image of high importance as the representative image.

【0095】次の2つのシーンは、同じようなパンニン
グ(水平方向のカメラ移動)シーンであるが、撮影者の
意図は全く異なっている。 (1)移動する被写体を追尾するため、カメラをパンニ
ングする。 (2)ある被写体から別の被写体へ視点を移すためにカ
メラをパンニングする。
The next two scenes are similar panning (camera movement in the horizontal direction) scenes, but the intentions of the photographer are completely different. (1) Pan the camera to track a moving subject. (2) Pan the camera to shift the viewpoint from one subject to another.

【0096】即ち、(1)ではパンニングの期間中、撮
影者は被写体に注目しているので重要なシーンと思われ
る。それに対して(2)では、パンニング期間が2つの
被写体のつなぎになっているだけであり、不要なシーン
と思われる。以後(1)のシーンを「追尾シーン」、
(2)のシーンを「視点移行シーン」と呼ぶ。
That is, in (1), since the photographer pays attention to the subject during the panning period, it seems to be an important scene. On the other hand, in (2), the panning period is only a connection between two subjects, which seems to be an unnecessary scene. After that, the scene of (1) is the "tracking scene",
The scene (2) is called a "viewpoint transition scene".

【0097】この2つのシーンを判定するために本発明
を用いたシーン判別方法を図35に示す。図35におい
て、第1から第5までの実施例における処理、つまり入
力画像から移動物体領域を検出するまでの処理を移動物
体検出部35aとする。パンニング区間検出部35bに
おいてパンニング操作をしているシーンを検出し、移動
物体特徴量検出部35cでは重心位置、面積などを求め
る。ここで追尾シーンでは重心位置が安定し、面積も一
定しているが、視点移行シーンでは重心位置、面積とも
不安定である。このことを利用して、シーン判定部35
dではパンニング区間における、追尾/視点移行シーン
の判定を行う。代表画像決定部35eではシーン判定の
結果から重要度の高い代表画像を決定する。動画像表示
部35fでは代表画像を列挙して、その代表画像を選択
すると、そのシーンが再生される構成である。
FIG. 35 shows a scene discriminating method using the present invention for discriminating these two scenes. In FIG. 35, the processing in the first to fifth embodiments, that is, the processing until the moving object area is detected from the input image is referred to as a moving object detection unit 35a. The panning section detection unit 35b detects the scene in which the panning operation is performed, and the moving object feature amount detection unit 35c obtains the barycentric position, the area, and the like. Here, the center of gravity position is stable and the area is constant in the tracking scene, but both the center of gravity position and the area are unstable in the viewpoint transition scene. Utilizing this fact, the scene determination unit 35
In d, the tracking / viewpoint transition scene in the panning section is determined. The representative image determination unit 35e determines a representative image having high importance based on the result of the scene determination. The moving image display unit 35f has a configuration in which representative images are enumerated, and when the representative image is selected, the scene is reproduced.

【0098】本発明の第2の応用例として、移動物体検
出により撮影装置のズーム倍率を自動的に決定する装置
がある。図38は遠くに存在する移動物体(図38
(A)の状態)が近付いてくる(図38の(B)さらに
(C))シーンであり、スキー滑走時を撮影した場合等
がこれにあたる。このとき撮影者が移動物体領域の大き
さに合わせて撮影装置のズーム倍率を図38のように変
化させるのは困難であり、これが自動的に変化すると撮
影者の負担が軽減し、より良い映像が撮影できる。この
ズーム倍率自動可変機能付きの撮像装置のブロック図を
図36に示し、これを用いて詳細を説明する。 (1)まず、撮影装置36aにより得られた入力画像を
用いて移動物体検出部35aで移動物体領域の検出を行
う。 (2)ズーム倍率計算部36bでは移動物体領域の面積
から、最適なズーム倍率を計算する。 (3)ズーム倍率制御部36cでは、ズーム倍率計算部
36bの出力に応じて撮影装置36aのズーム倍率を制
御する。 (4)撮影装置36aでは、ズーム倍率を移動物体領域
の面積により可変としているため、得られる画像は移動
物体領域を大きく撮影したものとなる。この画像を画像
記録装置36d、画像表示装置36eに送り、画像の保
存、表示を行う。
A second application example of the present invention is a device for automatically determining the zoom magnification of a photographing device by detecting a moving object. FIG. 38 shows a moving object existing in the distance (see FIG.
(A) state is approaching ((B) and (C) in FIG. 38), which corresponds to a case where a skiing time is photographed. At this time, it is difficult for the photographer to change the zoom magnification of the photographing apparatus according to the size of the moving object area as shown in FIG. 38. If this automatically changes, the burden on the photographer is reduced, and a better image is obtained. Can be taken. FIG. 36 shows a block diagram of the image pickup apparatus having the automatic zoom magnification variable function, and the details will be described with reference to FIG. (1) First, the moving object detection unit 35a detects the moving object area using the input image obtained by the image capturing device 36a. (2) The zoom magnification calculator 36b calculates the optimum zoom magnification from the area of the moving object region. (3) The zoom magnification controller 36c controls the zoom magnification of the photographing device 36a according to the output of the zoom magnification calculator 36b. (4) In the image capturing device 36a, since the zoom magnification is variable depending on the area of the moving object region, the obtained image is a large image of the moving object region. This image is sent to the image recording device 36d and the image display device 36e to store and display the image.

【0099】なお、撮影する時の撮影装置36aの位置
は、固定の場合と、撮影者が移動物体に応じて移動する
場合がある。撮影者が撮影装置を移動する場合は、手振
れで映像が乱れることや、移動物体の追尾撮影を失敗す
ることが起こりえる。そこで移動物体物体領域の重心位
置によりカメラの位置を制御するカメラ位置自動可変機
能付き撮像装置のブロック図を図37に示し、これを用
いて詳細を説明する。但し、図36と同じ部分の説明は
省略する。 (1)撮影装置37aは撮影装置36aのカメラのレン
ズの方向を移動可能に設計したものである。 (2)カメラ位置計算部37bでは、移動物体領域の重
心位置から、カメラのレンズを向ける方向を計算する。 (3)カメラ位置制御部37cでは、カメラ位置計算部
37cの出力に応じて撮影装置37aのカメラのレンズ
の方向を制御する。 (4)撮影装置37aでは、移動物体領域の重心位置に
よりカメラのレンズの方向を可変にしているため、移動
物体に追従した画像が得られる。この画像を画像記録装
置36d、画像表示装置36eに送り、画像の保存、表
示を行う。
The position of the photographing device 36a at the time of photographing may be fixed or the photographer may move according to a moving object. When the photographer moves the photographing device, the image may be disturbed due to camera shake, or the tracking photographing of the moving object may fail. Therefore, FIG. 37 shows a block diagram of an image pickup apparatus with a camera position automatic changing function for controlling the position of the camera according to the position of the center of gravity of the moving object area, and the details will be described with reference to this. However, the description of the same parts as those in FIG. 36 is omitted. (1) The photographing device 37a is designed so that the direction of the lens of the camera of the photographing device 36a can be moved. (2) The camera position calculation unit 37b calculates the direction of the camera lens from the position of the center of gravity of the moving object area. (3) The camera position controller 37c controls the direction of the lens of the camera of the photographing device 37a according to the output of the camera position calculator 37c. (4) In the imaging device 37a, the direction of the lens of the camera is variable depending on the position of the center of gravity of the moving object area, so that an image that follows the moving object can be obtained. This image is sent to the image recording device 36d and the image display device 36e to store and display the image.

【0100】尚、実施例において、処理間隔は、フィー
ルド間隔としたが、フレーム間隔としてもよい。
Although the processing interval is the field interval in the embodiment, it may be a frame interval.

【0101】[0101]

【発明の効果】以上のように、移動物体を追尾するシー
ンにおいて、移動物体の速度が遅い場合、従来のように
処理間隔が固定である方式では、移動物体領域を誤検出
する場合が多かった。しかし動きベクトルの大きさと移
動物体領域の相関値に応じて処理間隔を可変とするか、
もしくは動きベクトルの大きさと移動物体領域の相関値
に応じて背景画像と入力画像を加算する割合を可変にす
る本発明では、このような場合にも対応でき、より汎用
的な移動物体領域検出に適用することができる。
As described above, in a scene in which a moving object is tracked, when the speed of the moving object is slow, in the conventional method in which the processing interval is fixed, the moving object area is often erroneously detected. . However, the processing interval can be changed according to the magnitude of the motion vector and the correlation value of the moving object area,
Alternatively, in the present invention in which the ratio of adding the background image and the input image is variable according to the magnitude of the motion vector and the correlation value of the moving object area, such a case can be dealt with, and a more general moving object area detection can be performed. Can be applied.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の移動物体領域検出装置における第1の
実施例の全体ブロック図
FIG. 1 is an overall block diagram of a first embodiment of a moving object area detection device of the present invention.

【図2】図1の動きベクトル検出部1aを示すブロック
FIG. 2 is a block diagram showing a motion vector detection unit 1a in FIG.

【図3】図1のフィールド間隔計算部1bを示すブロッ
ク図
FIG. 3 is a block diagram showing a field interval calculator 1b shown in FIG.

【図4】図1の背景画像生成部1cを示すブロック図FIG. 4 is a block diagram showing a background image generation unit 1c shown in FIG.

【図5】図1の動き領域検出部1dを示すブロック図5 is a block diagram showing a motion area detection unit 1d in FIG.

【図6】図1の移動物体領域検出部1eを示すブロック
6 is a block diagram showing a moving object area detection unit 1e in FIG.

【図7】(A),(B)は動きベクトルが小さい場合の差分値
を示す図
7 (A) and (B) are diagrams showing difference values when the motion vector is small.

【図8】代表点マッチング処理部における領域分割を示
す図
FIG. 8 is a diagram showing area division in a representative point matching processing unit.

【図9】(A),(B)は代表点マッチング処理部における代
表点と探索範囲を示す図
9A and 9B are diagrams showing a representative point and a search range in the representative point matching processing unit.

【図10】移動物体領域の面積を示す図FIG. 10 is a diagram showing the area of a moving object region.

【図11】移動物体領域の重心位置を示す図FIG. 11 is a diagram showing the position of the center of gravity of a moving object region.

【図12】本発明の移動物体領域検出装置における第2
の実施例の全体ブロック図
FIG. 12 is a second view of the moving object area detection device of the present invention.
Overall block diagram of the embodiment

【図13】図12のフィールド間隔計算部12b(移動
物体領域の相関値を用いる方法)を示すブロック図
13 is a block diagram showing a field interval calculation unit 12b (method using correlation value of moving object region) of FIG. 12;

【図14】代表点マッチング処理において算出された相
関値を示す図
FIG. 14 is a diagram showing correlation values calculated in representative point matching processing.

【図15】相関値の最小値、平均値、最小値付近の傾き
を示す図
FIG. 15 is a diagram showing a minimum value, an average value, and a slope near the minimum value of correlation values.

【図16】図12のフィールド間隔計算部12b(移動
物体領域の分散を用いる方法)を示すブロック図
16 is a block diagram showing a field interval calculation unit 12b (method using dispersion of moving object area) in FIG. 12;

【図17】本発明の移動物体領域検出装置における第3
の実施例の全体ブロック図
FIG. 17 is a third view of the moving object area detection device of the present invention.
Overall block diagram of the embodiment

【図18】図17のフィールド間隔計算部17bを示す
ブロック図
18 is a block diagram showing a field interval calculator 17b shown in FIG.

【図19】固定フィールド間隔で実行する動きベクトル
検出部1aを示すブロック図
FIG. 19 is a block diagram showing a motion vector detection unit 1a that executes at fixed field intervals.

【図20】図19の動きベクトル検出部を用いた時のフ
ィールド間隔計算部1bを示すブロック図
20 is a block diagram showing a field interval calculator 1b when the motion vector detector of FIG. 19 is used.

【図21】本発明の移動物体領域検出装置における第4
の実施例(移動物体領域を用いる方法)の全体ブロック
FIG. 21 is a fourth view of the moving object area detection device according to the present invention.
Overall block diagram of the embodiment (method using moving object area)

【図22】図21の係数計算部21a(移動物体領域の
相関値を用いる方法)を示すブロック図
22 is a block diagram showing a coefficient calculation unit 21a (a method using a correlation value of a moving object region) in FIG. 21.

【図23】図21の係数計算部21a(移動物体領域の
分散を用いる方法)を示すブロック図
23 is a block diagram showing a coefficient calculation unit 21a (method using dispersion of moving object area) in FIG. 21.

【図24】本発明の移動物体領域検出装置における第4
の実施例(動きベクトル検出部の相関値を用いる方法)
の全体ブロック図
FIG. 24 is a fourth view of the moving object area detection device of the invention.
Example (method using correlation value of motion vector detection unit)
Overall block diagram of

【図25】図24の係数計算部24a(動きベクトル検
出部の相関値を用いる方法)を示すブロック図
FIG. 25 is a block diagram showing a coefficient calculation unit 24a (method using a correlation value of a motion vector detection unit) of FIG.

【図26】フィールド数とその画像が背景画像に含まれ
る割合の関係を示す図
FIG. 26 is a diagram showing the relationship between the number of fields and the ratio of the image included in the background image.

【図27】背景画像に含まれるフィールド数と積分パラ
メータの関係を示す図
FIG. 27 is a diagram showing the relationship between the number of fields included in the background image and the integration parameter.

【図28】移動物体領域の面積(積分パラメータの比
較)を示す図
FIG. 28 is a diagram showing an area (comparison of integration parameters) of a moving object region.

【図29】移動物体領域の重心位置(積分パラメータの
比較)を示す図
FIG. 29 is a diagram showing a barycentric position (comparison of integration parameters) of a moving object region.

【図30】本発明の移動物体領域検出装置における第5
の実施例(移動物体領域を用いる方法)の全体ブロック
FIG. 30 is a fifth diagram of the moving object area detection device of the invention.
Overall block diagram of the embodiment (method using moving object area)

【図31】本発明の移動物体領域検出装置における第5
の実施例(動きベクトル検出部の相関値を用いる方法)
の全体ブロック図
FIG. 31 is a fifth diagram of the moving object area detection device of the invention.
Example (method using correlation value of motion vector detection unit)
Overall block diagram of

【図32】時空間フィルタを示す図FIG. 32 is a diagram showing a spatiotemporal filter.

【図33】移動物体領域検出部に周波数変換を用いた場
合を示す図
FIG. 33 is a diagram showing a case where frequency conversion is used in the moving object area detection unit.

【図34】周波数変換を用いた場合の移動物体領域の特
徴量を示す図
FIG. 34 is a diagram showing a feature amount of a moving object region when frequency conversion is used.

【図35】本発明の動画像ブラウジングへの応用例を示
す図
FIG. 35 is a diagram showing an application example of the present invention to moving image browsing.

【図36】本発明のズーム倍率自動可変機能つき撮像装
置への応用例を示す図
FIG. 36 is a diagram showing an example of application of the present invention to an image pickup apparatus with a variable zoom magnification function.

【図37】本発明のカメラ位置自動可変機能つき撮像装
置への応用例を示す図
FIG. 37 is a diagram showing an example of application of the present invention to an image pickup apparatus with a camera position automatic changing function.

【図38】遠くに存在する移動物体が近づいてくるシー
ンを示す図
FIG. 38 is a diagram showing a scene in which a moving object existing in the distance approaches.

【図39】移動物体領域検出装置の従来例を示す図FIG. 39 is a diagram showing a conventional example of a moving object area detection device.

【符号の説明】[Explanation of symbols]

1a 動きベクトル検出部 1b フィールド間隔計算部 1c 背景画像生成部 1d 動き領域検出部 1e 移動物体領域検出部 2a 参照画像蓄積部 2b 代表点マッチング処理部 2c 有効領域判定部 2d 動きベクトル決定部 2e フィールド間隔計算部 3a 画像更新判定部 3b フィールド間隔記憶部 4a 座標変換部 4b 背景画像更新部 4c 背景画像蓄積部 5a 座標変換部 5b 差分計算部 5c 動き領域判定部 6a ラベリング処理部 6b 近接領域結合処理部 6c 孤立点除去処理部 6d 移動物体領域決定部 9a 代表点(参照画像) 9b 探索範囲(入力画像) 9a 代表点(移動物体領域) 9b 探索範囲(移動物体領域) 10a 本発明の方式 10b 従来方式 12b フィールド間隔計算部 13a 参照領域蓄積部 13b 代表点マッチング処理部 13c 画素間隔計算部 13d 画像更新判定部 16a 分散計算部 16b 画素間隔計算部 17a 動きベクトル検出部 17b フィールド間隔計算部 17c 移動物体領域特徴量検出部 18a 参照画像判定部 18b 画素間隔計算部 19a 参照画像蓄積部 20a 動きベクトル積算部 21a 係数計算部 22a 係数決定部 24a 係数計算部 28a 処理間隔可変方式(a=0.8) 28b 処理間隔固定方式(a=0.2) 28c 処理間隔固定方式(a=0.4) 28d 処理間隔固定方式(a=0.8) 30a 係数計算部 31a 係数計算部 33a 周波数変換処理部 33b 周波数フィルタ処理部 33c 逆周波数変換処理部 33d 移動物体領域決定部 33e 移動物体領域特徴量検出部 35a 移動物体検出部 35b パンニング区間判定部 35c 移動物体特徴量検出部 35d シーン判定部 35e 代表画像決定部 35f 動画像表示部 36a 撮影装置 36b ズーム倍率計算部 36c ズーム倍率制御部 36d 画像記録装置 36e 画像表示装置 37a 撮影装置 37b カメラ位置計算部 37c カメラ位置制御部 1a Motion vector detection unit 1b Field interval calculation unit 1c Background image generation unit 1d Motion area detection unit 1e Moving object area detection unit 2a Reference image storage unit 2b Representative point matching processing unit 2c Effective area determination unit 2d Motion vector determination unit 2e Field interval Calculation unit 3a Image update determination unit 3b Field interval storage unit 4a Coordinate conversion unit 4b Background image update unit 4c Background image storage unit 5a Coordinate conversion unit 5b Difference calculation unit 5c Motion region determination unit 6a Labeling processing unit 6b Proximity region combination processing unit 6c Isolated point removal processing unit 6d Moving object region determination unit 9a Representative point (reference image) 9b Search range (input image) 9a Representative point (moving object region) 9b Search range (moving object region) 10a Method of the present invention 10b Conventional method 12b Field interval calculator 13a Reference area accumulator 13b Representative point map Stitching processing unit 13c pixel interval calculation unit 13d image update determination unit 16a variance calculation unit 16b pixel interval calculation unit 17a motion vector detection unit 17b field interval calculation unit 17c moving object region feature amount detection unit 18a reference image determination unit 18b pixel interval calculation unit 19a Reference image storage unit 20a Motion vector integration unit 21a Coefficient calculation unit 22a Coefficient determination unit 24a Coefficient calculation unit 28a Processing interval variable method (a = 0.8) 28b Processing interval fixed method (a = 0.2) 28c Processing interval fixed method (a = 0.4) 28d Fixed processing interval method (a = 0.8) 30a Coefficient calculation unit 31a Coefficient calculation unit 33a Frequency conversion processing unit 33b Frequency filter processing unit 33c Inverse frequency conversion processing unit 33d Moving object region determination unit 33e Moving object region feature amount detection unit 35a Moving object detection unit 35b Panning section size Part 35c Moving object feature amount detection unit 35d Scene determination unit 35e Representative image determination unit 35f Moving image display unit 36a Imaging device 36b Zoom magnification calculation unit 36c Zoom magnification control unit 36d Image recording device 36e Image display device 37a Imaging device 37b Camera position calculation 37c Camera position controller

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】画像の映像信号を入力画像とし、前記入力
画像の移動物体領域の検出を行う移動物体領域検出装置
であって、前記入力画像の動きベクトルを検出する動き
ベクトル検出部と、前記入力画像から背景画像を作成す
る背景画像生成部を少なくとも具備し、前記動きベクト
ルの大きさに基づいて前記動きベクトル検出部と前記背
景画像生成部の処理間隔もしくは前記背景画像生成部の
みの処理間隔を可変にすることを特徴とする移動物体領
域検出装置。
1. A moving object area detection device for detecting a moving object area of an input image by using a video signal of the image as an input image, and a motion vector detecting section for detecting a motion vector of the input image, At least a background image generation unit for generating a background image from an input image is provided, and a processing interval between the motion vector detection unit and the background image generation unit or a processing interval between only the background image generation unit based on the magnitude of the motion vector. A moving object area detection device characterized by making variable.
【請求項2】画像の映像信号を入力画像とし、前記入力
画像の移動物体領域の検出を行う移動物体領域検出装置
であって、前記入力画像の動きベクトルを検出する動き
ベクトル検出部と、前記入力画像から背景画像を作成す
る背景画像生成部を少なくとも具備し、前記動きベクト
ルの大きさと移動物体領域の周辺画素との相関値に基づ
いて前記動きベクトル検出部と前記背景画像生成部の処
理間隔もしくは前記背景画像生成部のみの処理間隔を可
変にすることを特徴とする移動物体領域検出装置。
2. A moving object area detection device for detecting a moving object area of an input image by using a video signal of the image as an input image, and a motion vector detecting section for detecting a motion vector of the input image, At least a background image generation unit for generating a background image from an input image is provided, and a processing interval between the motion vector detection unit and the background image generation unit based on a correlation value between the size of the motion vector and peripheral pixels of the moving object area. Alternatively, the moving object area detection device is characterized in that the processing interval of only the background image generation unit is variable.
【請求項3】画像の映像信号を入力画像とし、前記入力
画像の移動物体領域の検出を行う移動物体領域検出装置
であって、前記入力画像の動きベクトルを検出する動き
ベクトル検出部と、前記入力画像から背景画像を作成す
る背景画像生成部を少なくとも具備し、前記動きベクト
ルの大きさと移動物体領域の周辺画素との相関値に基づ
いて前記背景画像生成部における前記背景画像と前記入
力画像とを加算する割合を決定することを特徴とする移
動物体領域検出装置。
3. A moving object area detecting device for detecting a moving object area of the input image, using a video signal of the image as an input image, and a motion vector detecting section for detecting a motion vector of the input image, At least a background image generation unit that creates a background image from the input image, the background image and the input image in the background image generation unit based on the correlation value between the size of the motion vector and the peripheral pixels of the moving object region A moving object area detection device, characterized in that it determines a ratio for adding.
【請求項4】画像の映像信号を入力画像とし、前記入力
画像の移動物体領域の検出を行う移動物体領域検出装置
であって、前記入力画像の動きベクトルを検出する動き
ベクトル検出部と、前記入力画像から背景画像を作成す
る背景画像生成部を少なくとも具備し、前記動きベクト
ルの大きさと移動物体領域の周辺画素との相関値に基づ
いて前記動きベクトル検出部と前記背景画像生成部の処
理間隔もしくは前記背景画像生成部のみの処理間隔を可
変にし、前記動きベクトルの大きさと前記移動物体領域
の周辺画素との相関値により前記背景画像生成部におけ
る前記背景画像と前記入力画像とを加算する割合を決定
することを特徴とする移動物体領域検出装置。
4. A moving object area detection device for detecting a moving object area of an input image by using a video signal of the image as an input image, and a motion vector detecting section for detecting a motion vector of the input image, At least a background image generation unit for generating a background image from an input image is provided, and a processing interval between the motion vector detection unit and the background image generation unit based on a correlation value between the size of the motion vector and peripheral pixels of the moving object area. Alternatively, the processing interval of only the background image generation unit is made variable, and the ratio of adding the background image and the input image in the background image generation unit according to the correlation value between the size of the motion vector and the peripheral pixels of the moving object region A moving object area detection device characterized by:
【請求項5】移動物体領域の周辺画素との相関値とし
て、移動物体領域の分散もしくは動きベクトル検出部で
算出される相関値を用いて構成した請求項2〜4のいず
れかに記載の移動物体領域検出装置。
5. The movement according to claim 2, wherein a variance value of the moving object area or a correlation value calculated by a motion vector detection unit is used as a correlation value with peripheral pixels of the moving object area. Object area detection device.
【請求項6】背景画像と入力画像から動き領域を検出す
る動き領域検出部を具備し、動き領域に対して時間軸方
向にもフィルタ処理を行うことを特徴とした請求項1〜
5のいずれかに記載の移動物体領域検出装置。
6. A motion area detecting section for detecting a motion area from a background image and an input image, wherein the motion area is filtered in the time axis direction.
5. The moving object area detection device according to any one of 5 above.
【請求項7】動き領域から対象とする移動物体領域を検
出する移動物体領域検出部を具備し、動き領域に対して
周波数変換を用いることにより移動物体領域を検出する
ことを特徴とする請求項1〜6のいずれかに記載の移動
物体領域検出装置。
7. A moving object area detection unit for detecting a moving object area of interest from a moving area, wherein the moving object area is detected by using frequency conversion for the moving area. The moving object area detection device according to any one of 1 to 6.
JP19634395A 1995-08-01 1995-08-01 Moving object area detector Pending JPH0944681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19634395A JPH0944681A (en) 1995-08-01 1995-08-01 Moving object area detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19634395A JPH0944681A (en) 1995-08-01 1995-08-01 Moving object area detector

Publications (1)

Publication Number Publication Date
JPH0944681A true JPH0944681A (en) 1997-02-14

Family

ID=16356262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19634395A Pending JPH0944681A (en) 1995-08-01 1995-08-01 Moving object area detector

Country Status (1)

Country Link
JP (1) JPH0944681A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344949A (en) * 2001-05-18 2002-11-29 Toshiba Corp Moving picture monitoring system
US6937271B1 (en) 1999-03-09 2005-08-30 Sanyo Electric Co., Ltd. Camera signal processing device and camera signal processing method
JP2007235319A (en) * 2006-02-28 2007-09-13 Olympus Corp Noise reduction processing apparatus, method, program, and camera apparatus
JP2009042917A (en) * 2007-08-07 2009-02-26 Sony Corp Electronic equipment, motion vector detection method and program
JPWO2007032156A1 (en) * 2005-09-16 2009-03-19 富士通株式会社 Image processing method and image processing apparatus
JP2010003253A (en) * 2008-06-23 2010-01-07 Eidgenoessische Technische Hochschule Zuerich Motion estimation device
JP2012221002A (en) * 2011-04-04 2012-11-12 Fujitsu Ltd User detection apparatus, user detection method, and user detection program
JP2013207402A (en) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> Image encoding device and program
KR101537559B1 (en) * 2013-12-30 2015-07-20 전자부품연구원 Device for detecting object, device for detecting object for vehicle and method thereof
JP2016115214A (en) * 2014-12-16 2016-06-23 キヤノン株式会社 Image processor, image processing method, and program
WO2020067632A1 (en) * 2018-09-27 2020-04-02 주식회사 크라우드웍스 Method, apparatus, and program for sampling learning target frame image of video for ai image learning, and method of same image learning

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937271B1 (en) 1999-03-09 2005-08-30 Sanyo Electric Co., Ltd. Camera signal processing device and camera signal processing method
JP2002344949A (en) * 2001-05-18 2002-11-29 Toshiba Corp Moving picture monitoring system
JP4553942B2 (en) * 2005-09-16 2010-09-29 富士通株式会社 Image processing method and image processing apparatus
JPWO2007032156A1 (en) * 2005-09-16 2009-03-19 富士通株式会社 Image processing method and image processing apparatus
JP2007235319A (en) * 2006-02-28 2007-09-13 Olympus Corp Noise reduction processing apparatus, method, program, and camera apparatus
JP2009042917A (en) * 2007-08-07 2009-02-26 Sony Corp Electronic equipment, motion vector detection method and program
US8363726B2 (en) 2007-08-07 2013-01-29 Sony Corporation Electronic apparatus, motion vector detecting method, and program therefor
JP2010003253A (en) * 2008-06-23 2010-01-07 Eidgenoessische Technische Hochschule Zuerich Motion estimation device
US8213684B2 (en) 2008-06-23 2012-07-03 Swiss Federal Institute Of Technology Zurich Motion estimating device
JP2012221002A (en) * 2011-04-04 2012-11-12 Fujitsu Ltd User detection apparatus, user detection method, and user detection program
JP2013207402A (en) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> Image encoding device and program
KR101537559B1 (en) * 2013-12-30 2015-07-20 전자부품연구원 Device for detecting object, device for detecting object for vehicle and method thereof
JP2016115214A (en) * 2014-12-16 2016-06-23 キヤノン株式会社 Image processor, image processing method, and program
WO2020067632A1 (en) * 2018-09-27 2020-04-02 주식회사 크라우드웍스 Method, apparatus, and program for sampling learning target frame image of video for ai image learning, and method of same image learning
US11295169B2 (en) 2018-09-27 2022-04-05 Crowdworks Inc. Method, device, and program for sampling frame image of object to be learned in video for artificial intelligence video learning, and image learning method thereof

Similar Documents

Publication Publication Date Title
US10277809B2 (en) Imaging device and imaging method
KR101271092B1 (en) Method and apparatus of real-time segmentation for motion detection in surveillance camera system
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
CN103688292B (en) Image display device and method for displaying image
KR100985805B1 (en) Apparatus and method for image stabilization using adaptive Kalman filter
JPH08191411A (en) Scene discrimination method and representative image recording and display device
US20080107307A1 (en) Motion Detection Method, Motion Detection Program, Storage Medium in Which Motion Detection Program is Stored, and Motion Detection Apparatus
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
KR20130010875A (en) Method and camera for determining an image adjustment parameter
CN109711241B (en) Object detection method and device and electronic equipment
JPH0944681A (en) Moving object area detector
JP2010114752A (en) Device and method of imaging and program
JP2008042659A (en) Image processing apparatus and method, program, and program storage medium
JP2005309746A (en) Method and program for tracking moving body, recording medium therefor, and moving body tracking device
JP2013041400A (en) Image processing device, image processing method and program
JP2956056B2 (en) Tracking control method and apparatus, and shake correction method and apparatus
JP2003006654A (en) Method and device for extracting feature amount of moving object in moving image and method and device for automatically tracking moving object in moving image, program for executing the method and recording medium with the program recorded thereon
JPH09284702A (en) Method and device for detecting scene change frame
JP2012221043A (en) Image processing method and monitoring device
JP3525493B2 (en) Still image extraction device, moving image recording device, and still image automatic extraction method
JP2016170603A (en) Moving body tracking device
JPH06133298A (en) Motion vector detector
KR101652116B1 (en) Apparatus and method for detecting subject area and movement
JP3616355B2 (en) Image processing method and image processing apparatus by computer
JP2825863B2 (en) Moving object detection device