JP3037495B2 - Object image extraction processing method - Google Patents

Object image extraction processing method

Info

Publication number
JP3037495B2
JP3037495B2 JP4023803A JP2380392A JP3037495B2 JP 3037495 B2 JP3037495 B2 JP 3037495B2 JP 4023803 A JP4023803 A JP 4023803A JP 2380392 A JP2380392 A JP 2380392A JP 3037495 B2 JP3037495 B2 JP 3037495B2
Authority
JP
Japan
Prior art keywords
background
image
model
region
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4023803A
Other languages
Japanese (ja)
Other versions
JPH05225340A (en
Inventor
敦 佐藤
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4023803A priority Critical patent/JP3037495B2/en
Publication of JPH05225340A publication Critical patent/JPH05225340A/en
Application granted granted Critical
Publication of JP3037495B2 publication Critical patent/JP3037495B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、移動する対象物体を含
む背景を、固定した動画像中から、閾値処理により背景
領域と動物体領域と影領域とを分離するための、物体像
の抽出処理方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to extraction of an object image for separating a background including a moving target object from a fixed moving image by threshold processing into a background area, a moving object area, and a shadow area. It relates to a processing method.

【0002】[0002]

【従来の技術】動画像中の動物体領域を求める2値化手
法においては、基準背景像の構成と閾値決定とが重要で
あるが、特願平3−187981号では、単フレームの
背景像や固定閾値を用いるのではなく、複数フレームの
背景相当像の特徴量から背景の変動を反映する背景モデ
ルを構成することで、適応的閾値処理とモデル更新を逐
次的に行い動物体領域を抽出している。
2. Description of the Related Art In a binarization method for obtaining a moving object region in a moving image, the configuration of a reference background image and the determination of a threshold value are important. In Japanese Patent Application No. Hei 3-187981, a single frame background image is disclosed. Instead of using a fixed threshold or a fixed threshold, constructing a background model that reflects the fluctuation of the background from the feature amount of the background equivalent image of multiple frames, performing adaptive threshold processing and model updating sequentially to extract the moving object region doing.

【0003】[0003]

【発明が解決しようとする課題】しかし、この方法で
は、日照条件の変化に追従する背景像の構成や撮像ノイ
ズに対する適応的閾値処理は可能であるが、照明条件に
より異なる形状をとる物体の影も同時に抽出されてしま
い、真の動物体のみを抽出することは困難である。
However, in this method, the configuration of the background image that follows the change in the sunshine condition and the adaptive threshold processing for the imaging noise are possible, but the shadow of an object having a different shape depending on the illumination condition is possible. Is also extracted at the same time, and it is difficult to extract only the true animal.

【0004】本発明は、動画像に対して背景から影を除
く動物体を安定に分離することを目的とするものであ
る。
[0004] It is an object of the present invention to stably separate a moving object from which a shadow is removed from a background in a moving image.

【0005】[0005]

【課題を解決するための手段】図1は本発明の原理構成
図を表している。図中の符号1−1は特徴抽出部であっ
て、フレーム毎での特徴を抽出する。即ち、TVカメラ
などの撮像装置からフレーム単位で入力された動画像
を、各フレーム毎に必要とする複数の特徴量を画素毎に
抽出する。
FIG. 1 is a block diagram showing the principle of the present invention. Reference numeral 1-1 in the figure denotes a feature extracting unit, which extracts features for each frame. That is, a moving image input from an imaging device such as a TV camera in a frame unit is extracted for each pixel from a plurality of feature amounts required for each frame.

【0006】符号1−2は背景モデル構成部であって、
対象とするフレームの注目する画素に対して背景判定を
行い、現在までに背景とみなされた複数枚の注目画素の
系列情報から得られる背景の微変動を表すパラメータ
と、その複数枚の背景相当画素群とを、全画素にわたり
抽出する。
Reference numeral 1-2 denotes a background model constituting unit,
A background determination is performed on a pixel of interest in a target frame, and a parameter representing a slight change in the background obtained from the series information of a plurality of pixels of interest regarded as the background so far, and a parameter corresponding to the plurality of backgrounds A pixel group is extracted over all pixels.

【0007】符号1−3は閾値処理部であって、動物体
抽出領域と影領域とを設定し、対象とするフレームの画
素値が動物体領域内にありかつ影領域内にかからない場
合に動物体として抽出する。
Reference numeral 1-3 denotes a threshold processing unit which sets a moving object extraction area and a shadow area, and sets an animal when the pixel value of the target frame is within the moving object area and does not fall within the shadow area. Extract as body.

【0008】[0008]

【作用】複数フレームの画像特徴から背景の変動を反映
した背景モデルを構成し、背景除去領域とそれに基づく
影分離領域とを設定し、閾値処理することにより、撮影
条件の変化に追従し、かつ各画素毎に適応的な動物体を
抽出する。
According to the present invention, a background model reflecting the fluctuation of the background is constructed from image characteristics of a plurality of frames, a background removal region and a shadow separation region based on the background removal region are set, and threshold processing is performed to follow a change in shooting conditions, and An adaptive moving object is extracted for each pixel.

【0009】[0009]

【実施例】以下、上記図1を参照しつつ、具体的に実施
例について説明する。図中の1−1はフレーム毎での特
徴抽出部であって、TVカメラなどの撮像装置からフレ
ーム単位で入力された動画像を、各フレーム毎に必要と
する複数の特徴量を画素毎に抽出する。この特徴量とし
ては、画像のカラー情報より抽出できる輝度、色相、彩
度、隣接画素との濃度勾配、その他の表色系で表現され
る量、赤外線カメラなどから得られる濃度情報のいずれ
か1つあるいは複数を組み合わせた量を用いることがで
きる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment will be specifically described below with reference to FIG. In the figure, reference numeral 1-1 denotes a feature extraction unit for each frame, which converts a moving image input from an imaging apparatus such as a TV camera in units of frames into a plurality of feature amounts required for each frame for each pixel. Extract. The feature amount may be any one of luminance, hue, saturation, density gradient between adjacent pixels, an amount represented by other color system, and density information obtained from an infrared camera, which can be extracted from the color information of the image. One or a combination of two or more can be used.

【0010】1−2は背景モデル構成部であって、上記
特徴量のうち1つ以上の特徴を系列を用いて、画素毎に
対象とするフレームでの背景モデルを構成する。背景モ
デルは、対象とするフレームの注目する画素に対して背
景判定を行い、現在までに背景とみなされた複数枚の注
目画素の系列情報から得られる背景の微変動を表すパラ
メータと、その複数枚の背景相当画素群とを、全画素に
わたり抽出することにより構成する。
Reference numeral 1-2 denotes a background model constructing unit which constructs a background model in a target frame for each pixel by using one or more of the above-mentioned feature amounts in series. The background model performs a background determination on a pixel of interest in a target frame, and a parameter representing a slight change in the background obtained from the series information of a plurality of pixels of interest regarded as the background so far. It is configured by extracting a background-corresponding pixel group over all pixels.

【0011】例えば、ある二特徴v1 ,v2 を用いた場
合、ある画素上での画素値は図2のように分布すること
になる。図中の2−1は背景相当画素、2−2は背景で
ない画素、2−3は背景領域Rb 、2−4は背景分布の
中心、2−5,2−6は分布の広がり度を表す。背景モ
デルは、背景に相当する複数個の画素の分布の広がりの
中心とその分布形状を表すパラメータ(分布中心の位置
(m1 ,m2 )、形状パラメータA,B)と、背景領域
b 内の画素値群とによって構成する。
For example, when certain two features v 1 and v 2 are used, pixel values on a certain pixel are distributed as shown in FIG. In the figure, 2-1 is a background equivalent pixel, 2-2 is a non-background pixel, 2-3 is a background region Rb , 2-4 is the center of the background distribution, and 2-5 and 2-6 are the degree of spread of the distribution. Represent. The background model includes a center (a position (m 1 , m 2 ) of the distribution center, shape parameters A and B) representing the center of the spread of the distribution of a plurality of pixels corresponding to the background and the distribution shape, and a background region R b. And a group of pixel values within.

【0012】背景判定および背景更新は、図3のよう
に、現在までの背景領域Rb を基に過去の背景値からの
緩変化をカバーするような背景更新領域Rn を設定し、
現フレームの画素値が更新領域内にあれば背景に相当す
るとし、最も古いフレームの画素と入れ換えて新しい背
景モデル(背景領域はR′b となる)を再構成する。ま
た更新領域外であれば、モデルは更新しない。なお、初
期背景モデルは、複数枚の明らかな動物体を含まない背
景像から、その分布を表すパラメータと画像群により構
成する。なお図3において、3−1は背景相当画素、3
−2は最も古いフレームの画素、3−3は現フレームの
画素、3−4は背景領域、3−5は背景更新領域Rn
3−6は更新された背景領域R′b を表している。
[0012] BACKGROUND determination and background update, as shown in Figure 3, to set the background update region R n as to cover the gradual change from the past background value based on the background region R b to date,
The pixel values of the current frame corresponding to the background if the update region, to reconstruct a new background model interchanged with pixels of the oldest frame (the background area becomes R 'b). If the model is outside the update area, the model is not updated. The initial background model is composed of a plurality of background images that do not include a clear moving object and includes a parameter indicating the distribution and an image group. In FIG. 3, 3-1 is a background equivalent pixel, 3
-2 is the pixel of the oldest frame, 3-3 is the pixel of the current frame, 3-4 is the background area, 3-5 is the background update area R n ,
3-6 represents the updated background region R 'b.

【0013】1−3は閾値処理部であって、図4のよう
に、背景領域Rb に比例した動物体抽出領域Rm 、およ
び背景領域Rb に比例し特徴空間内で移動・回転させた
影領域Rs を設定し、対象とするフレームの画素値が動
物体領域内にありかつ影領域内にかからない場合に動物
体とみなし、抽出する。なお、図4において、4−1は
背景相当画素、4−2は現フレームの画素、4−3は背
景領域Rb 、4−4は動物体抽出領域Rm 、4−5は影
領域Rs を表している。
[0013] 1-3 is a threshold processing unit, as shown in FIG. 4, is moved, rotated within the feature space in proportion to the background region R b moving object is proportional to the extraction region R m, and the background region R b set the shadow region R s were located pixel value of the frame of interest is the moving object region and regarded as a moving object if not applied to the shadow area, and extracts. In FIG. 4, the background corresponds pixel 4-1, the pixels of the current frame is 4-2, 4-3 background region R b, 4-4 animal body extraction region R m, 4-5 shadow region R represents s .

【0014】さらに、上記の背景モデルの更新および動
物体像の判定手法を、各フレームの各画素に対して逐次
行うことにより、撮影条件の変化に追従しかつ適応的な
閾値処理が行え、背景の変動にロバストな動物体像が抽
出できる。
Further, the above-described updating of the background model and the determination of the moving object image are sequentially performed for each pixel of each frame, so that adaptive threshold processing can be performed while following a change in imaging conditions. The image of the animal body that is robust to the fluctuation of the image can be extracted.

【0015】本発明の一実施例として、画像から得られ
る特徴量として3次元のRGB画像情報とし、影の領域
は背景分布が同様形状で特徴空間の原点方向に暗く縮小
したものと仮定した場合に、動物体像を含む動画像から
動物体領域を抽出する方法について説明する。
As an embodiment of the present invention, it is assumed that three-dimensional RGB image information is used as a feature amount obtained from an image, and that a shadow region has the same shape as the background distribution and is darkened and reduced in the direction of the origin of the feature space. Next, a method of extracting a moving object region from a moving image including a moving object image will be described.

【0016】図5は本実施例における動物体像の抽出処
理の構成を示す。まず、テレビカメラ等の画像入力系を
介して動画像を入力し、画像蓄積部5−1に、対象とす
る動画像を各フレーム毎に蓄積する。蓄積された順に、
各フレーム画像を画像蓄積部5−1から画像メモリ5−
2に送出する。特徴抽出部5−3において、画像メモリ
5−2の画像の各RGB情報を算出し、特徴像メモリ5
−4に蓄積する。
FIG. 5 shows the structure of the moving object image extraction processing in this embodiment. First, a moving image is input via an image input system such as a television camera, and the target moving image is stored in the image storage unit 5-1 for each frame. In order of accumulation,
Each frame image is transferred from the image storage unit 5-1 to the image memory 5-
Send to 2. The feature extraction unit 5-3 calculates each RGB information of the image in the image memory 5-2, and
-4.

【0017】初期モデル構成部5−5において、指定し
たフレームt0 から過去Nフレームを背景相当像とみな
し、各画素毎に特徴像メモリ5−4から背景相当像の画
素値Xi,j のN個のRGB値(順にx1(i,j)
2(i,j),x3(i,j)と定義する)を読みだし、その画素
値集合の主成分分析(第(1)式〜第(3)式から得ら
れる共分散行列Σの第(4)式の固有値問題を解く)を
行い、得られる平均値ベクトル
[0017] In initial model configuration unit 5-5, the frame t 0 specifying regarded past N frames and background equivalent image, the pixel values X i, j of the background corresponding image from the feature image memory 5-4 for each pixel N RGB values (in order x 1 (i, j) ,
x2 (i, j) and x3 (i, j) ) and read the principal component analysis of the pixel value set (covariance matrix Σ obtained from equations (1) to (3)). Solving the eigenvalue problem of equation (4) of

【0018】[0018]

【数1】 (Equation 1)

【0019】および固有値λ1 ,λ2 ,λ3 と、第
(5)式から得られる単位固有ベクトル
And the eigenvalues λ 1 , λ 2 , λ 3 and the unit eigenvector obtained from equation (5)

【0020】[0020]

【数2】 (Equation 2)

【0021】をパラメータとして背景モデルを定義す
る。すなわち、第(6)式のように、平均値ベクトルを
中心に固有ベクトル方向に軸を持ち、相当する固有値の
平均根で各軸との交点となる楕円体で背景値分布を近似
する。
A background model is defined using as a parameter. That is, as shown in Expression (6), the background value distribution is approximated by an ellipsoid having an axis in the direction of the eigenvector centering on the average value vector and an intersection with each axis at the average root of the corresponding eigenvalue.

【0022】[0022]

【数3】 (Equation 3)

【0023】[0023]

【数4】 (Equation 4)

【0024】[0024]

【数5】 (Equation 5)

【0025】[0025]

【数6】 (Equation 6)

【0026】[0026]

【数7】 (Equation 7)

【0027】[0027]

【数8】 (Equation 8)

【0028】次に、決定した背景モデルの各パラメータ
および背景相当像群の画像値を背景モデル記憶バッファ
5−6に、モデル更新時および抽出処理に用いる閾値処
理パラメータを閾値処理パラメータ記憶バッファ5−8
に格納する。
Next, the determined parameters of the background model and the image values of the background-equivalent image group are stored in a background model storage buffer 5-6, and the threshold processing parameters used for model updating and extraction processing are stored in a threshold processing parameter storage buffer 5-6. 8
To be stored.

【0029】背景モデル算出部5−7において、指定し
たフレームt0 以降のフレーム(t 1 とする)の特徴像
メモリ5−4から取り出される画素値
In the background model calculation section 5-7, the designated
Frame t0Subsequent frames (t 1The characteristic image of
Pixel value retrieved from memory 5-4

【0030】[0030]

【数9】 (Equation 9)

【0031】が、背景モデル記憶バッファ5−6および
閾値処理パラメータ記憶バッファ5−8に格納されたパ
ラメータを用いて、第(7)式を満足するかどうかを調
べ、もし満足すれば背景であると判定する。
However, using the parameters stored in the background model storage buffer 5-6 and the threshold processing parameter storage buffer 5-8, it is checked whether or not Expression (7) is satisfied. Is determined.

【0032】[0032]

【数10】 (Equation 10)

【0033】背景と判定された場合には、現在の画素値
も含めた最新のN枚のフレームの背景相当値から、第
(1)式〜第(5)式に基づきt0 をt1 と置き換え、
モデルパラメータの再算出および背景相当像群の交換を
行い、背景モデルの更新を行う。ここで、モデルの更新
は背景モデル記憶バッファ5−6に記憶しているN枚の
フレーム分の画素単位に独立な画像データに対し、新し
い画素値を当該画素の最も古い画素値と交換することに
より行う。この作業は画素独立に行われるので初期状態
からある程度更新された後のモデルでは、画素毎のデー
タが収集された時刻は必ずしも一致しない。
If it is determined that the background is the background, t 0 is set to t 1 based on the equations (1) to (5) from the background equivalent values of the latest N frames including the current pixel value. Replacement,
The model parameters are recalculated and the background equivalent image group is exchanged to update the background model. Here, the updating of the model is performed by replacing a new pixel value with the oldest pixel value of the pixel for image data independent for each pixel of N frames stored in the background model storage buffer 5-6. Performed by Since this operation is performed independently for each pixel, in the model that has been updated to some extent from the initial state, the time at which data for each pixel is collected does not always match.

【0034】また、抽出処理部5−9において、特徴像
メモリ5−4からの画素値
In the extraction processing unit 5-9, the pixel values from the feature image memory 5-4 are read.

【0035】[0035]

【数11】 [Equation 11]

【0036】が、背景モデル記憶バッファ5−6および
閾値処理パラメータ記憶バッファ5−8に格納されたパ
ラメータを用いた第(8)式を満足するものを背景領域
と判定し、第(8)式を満足しない場合でかつ第(9)
式を満たすものを動物体領域と判定し、その他を影領域
と判定する。
However, the one satisfying the expression (8) using the parameters stored in the background model storage buffer 5-6 and the threshold processing parameter storage buffer 5-8 is determined as the background region, and the expression (8) And the (9) is not satisfied
Those satisfying the expression are determined as a moving object region, and the others are determined as shadow regions.

【0037】[0037]

【数12】 (Equation 12)

【0038】[0038]

【数13】 (Equation 13)

【0039】さらに、動物体か背景か影かの判定結果を
その位置情報と共に動物体像メモリ5−10に蓄積し、
動物体出力部5−11により出力する。なお、本実施例
では、影領域の分布を背景分布が同様形状で特徴空間の
原点方向に暗く縮小したものと仮定し、各パラメータを
一様に定数倍している。しかし、照明条件等に応じて、
非均等な移動・縮小、分布形状の回転を行ってもよい。
Further, the determination result of the moving object, the background or the shadow is stored in the moving object image memory 5-10 together with the position information,
It is output by the moving object output unit 5-11. In the present embodiment, it is assumed that the distribution of the shadow region has the same shape as the background distribution and is darkened and reduced in the direction of the origin of the feature space, and each parameter is uniformly multiplied by a constant. However, depending on lighting conditions, etc.,
Non-uniform movement / reduction and rotation of the distribution shape may be performed.

【0040】また、画像の特徴を3次元の画像情報とし
て説明したが、1多次元の特徴量を用いた場合には、単
純な平均値・分散値に基づきモデルの構成・更新、閾値
処理をすることで同様な効果が得られる。また、2次元
の特徴量を用いた場合の、特徴量分布の主成分分析の結
果から得られる分布形状の近似は等確率密度楕円(集中
楕円)と呼ばれ、統計解析における母集団分布の状態を
表すのに多く用いられる。
Although the features of the image have been described as three-dimensional image information, when one multi-dimensional feature is used, model construction / update and threshold processing are performed based on simple average and variance values. By doing so, a similar effect can be obtained. When a two-dimensional feature value is used, an approximation of the distribution shape obtained from the result of the principal component analysis of the feature value distribution is called an equal probability density ellipse (concentrated ellipse). Often used to represent

【0041】[0041]

【発明の効果】本発明によれば、撮影条件の変化に対す
る追従性を備え、かつ局所的な背景特性を考慮しかつ影
を除いた動物体の安定な分離・抽出が可能となるだけで
なく、複数フレームを有効に用いた動画像処理が可能と
なり、人物像の動作解析や自動車などの運動解析におけ
る有用な道具となり得る。
According to the present invention, it is possible to not only stably separate and extract a moving object having a follow-up property to a change in photographing conditions, but also taking local background characteristics into consideration and excluding shadows. In addition, moving image processing that effectively uses a plurality of frames can be performed, and can be a useful tool in motion analysis of a human image or motion analysis of a car or the like.

【0042】なお従来技術では、日照条件の変化に追従
する背景像の構成や撮像ノイズに対する適応的閾値処理
は可能であるが、照明条件により異なる形状をとる物体
の影も同時に抽出されてしまい、動物体の完全な抽出が
出来なかったものである。
In the prior art, the configuration of the background image that follows the change in the sunshine condition and the adaptive threshold processing for the imaging noise are possible, but the shadow of the object having a different shape depending on the illumination condition is also extracted at the same time. The animal could not be completely extracted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理構成図を表す。FIG. 1 is a diagram showing the principle configuration of the present invention.

【図2】複数フレームの背景相当像の2特徴の分布を表
す図である。
FIG. 2 is a diagram illustrating a distribution of two features of a background equivalent image of a plurality of frames.

【図3】背景更新の判定手法を表す図である。FIG. 3 is a diagram illustrating a technique for determining a background update.

【図4】動物体抽出の判定手法を表す図である。FIG. 4 is a diagram illustrating a determination method for extracting a moving object.

【図5】本発明の一実施例の構成を示す図である。FIG. 5 is a diagram showing a configuration of an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1−1 特徴抽出部 1−2 背景モデル構成部 1−3 閾値処理部 5−1 画像蓄積部 5−2 画像メモリ 5−3 特徴抽出部 5−4 特徴像メモリ 5−5 初期モデル構成部 5−6 背景モデル記憶バッファ 5−7 背景モデル算出部 5−8 閾値処理パラメータ記憶バッファ 5−9 抽出処理部 5−10 動物体像メモリ 5−11 動物体出力部 1-1 Feature extraction unit 1-2 Background model construction unit 1-3 Threshold processing unit 5-1 Image storage unit 5-2 Image memory 5-3 Feature extraction unit 5-4 Feature image memory 5-5 Initial model construction unit 5 -6 Background model storage buffer 5-7 Background model calculation unit 5-8 Threshold processing parameter storage buffer 5-9 Extraction processing unit 5-10 Animal image memory 5-11 Animal output unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭64−48181(JP,A) 特開 昭63−194477(JP,A) 電子情報通信学会秋季大会講演論文 集、分冊6、D−198、「x−t時空間 画像からのロバストな物体抽出方法」 (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-64-48181 (JP, A) JP-A-63-194477 (JP, A) Proceedings of the IEICE Autumn Meeting, Volume 6, D-198 , “Robust object extraction method from xt spatiotemporal image” (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7/20 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 動画像中から動物体の領域を抽出する物
体像の抽出処理方法において、 該動画像中の各フレーム画像から1つ以上の特徴量を抽
出し、 背景に相当する複数フレームの特徴量群とそれらより計
算される統計量とで背景モデルを構成し、 該モデルを特徴量空間内で変形・移動させた影領域のモ
デルを構成し、 構成された両モデルから算出される抽出閾値を用いて動
物体領域と背景領域の分離を行い、現フレームを含む特
徴量群から両モデルを再構成し、 動物体領域の分離とモデル更新とを逐次的に画素毎に行
うことにより、 背景の変化に追従しつつ最適な閾値処理で影を含まない
動物体領域のみを抽出することを特徴とする物体像の抽
出処理方法。
1. An object image extraction processing method for extracting an area of a moving object from a moving image, comprising: extracting one or more features from each frame image in the moving image; A background model is composed of a group of feature values and a statistic calculated from them, a model of a shadow region obtained by deforming and moving the model in a feature value space is extracted, and an extraction calculated from both the constructed models is performed. By separating the moving object region and the background region using the threshold value, reconstructing both models from the feature amount group including the current frame, separating the moving object region and updating the model sequentially for each pixel, An object image extraction processing method characterized by extracting only a moving object region that does not include a shadow by optimal threshold processing while following a change in the background.
JP4023803A 1992-02-10 1992-02-10 Object image extraction processing method Expired - Lifetime JP3037495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4023803A JP3037495B2 (en) 1992-02-10 1992-02-10 Object image extraction processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4023803A JP3037495B2 (en) 1992-02-10 1992-02-10 Object image extraction processing method

Publications (2)

Publication Number Publication Date
JPH05225340A JPH05225340A (en) 1993-09-03
JP3037495B2 true JP3037495B2 (en) 2000-04-24

Family

ID=12120489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4023803A Expired - Lifetime JP3037495B2 (en) 1992-02-10 1992-02-10 Object image extraction processing method

Country Status (1)

Country Link
JP (1) JP3037495B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69732089T2 (en) * 1996-10-04 2005-12-08 Nippon Telegraph And Telephone Corp. DEVICE AND METHOD FOR THE TIMELY AND SPATIAL INTEGRATION AND MANAGEMENT OF A VARIETY OF VIDEOS AND STORAGE MEDIUM FOR STORING A PROGRAM THEREFOR
US7574043B2 (en) * 2005-06-27 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Method for modeling cast shadows in videos
JP5736831B2 (en) * 2011-02-22 2015-06-17 大日本印刷株式会社 Sunlight change region detection device and moving object detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会秋季大会講演論文集、分冊6、D−198、「x−t時空間画像からのロバストな物体抽出方法」

Also Published As

Publication number Publication date
JPH05225340A (en) 1993-09-03

Similar Documents

Publication Publication Date Title
US7116716B2 (en) Systems and methods for generating a motion attention model
US6834125B2 (en) Method of improving a digital image as a function of its dynamic range
US6842543B2 (en) Method of improving a digital image having white zones
WO2022042049A1 (en) Image fusion method, and training method and apparatus for image fusion model
Song et al. Probabilistic exposure fusion
JP4194025B2 (en) Illumination-invariant object tracking method and video editing apparatus using the same
US7091993B1 (en) Computer-implemented digital video object compositing
US7340097B2 (en) Image processing apparatus, image processing method, and recording medium
EP4109392A1 (en) Image processing method and image processing device
KR102261532B1 (en) Method and system for image dehazing using single scale image fusion
EP0844582A3 (en) System and method for detecting a human face
EP1026631A2 (en) Method for inferring scenes from test images and training data using probability propagation in a markov network
WO2021018106A1 (en) Pedestrian detection method, apparatus, computer-readable storage medium and chip
JP6497579B2 (en) Image composition system, image composition method, image composition program
JPH1023452A (en) Picture extracting device and its method
JP2001126075A (en) Method and device for picture processing, and recording medium
CN111368731B (en) Silence living body detection method, silence living body detection device, silence living body detection equipment and storage medium
CN113781421A (en) Underwater-based target identification method, device and system
Lei et al. An investigation of retinex algorithms for image enhancement
JP3037495B2 (en) Object image extraction processing method
Petrovic Multilevel image fusion
JP3037469B2 (en) Object image extraction processing method
CN112700396A (en) Illumination evaluation method and device for face picture, computing equipment and storage medium
JPH09130714A (en) Image information extracting device and method
Apewokin et al. Embedded real-time surveillance using multimodal mean background modeling

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120225

Year of fee payment: 12

EXPY Cancellation because of completion of term