JPH0614358B2 - Method and apparatus for extracting moving object image - Google Patents

Method and apparatus for extracting moving object image

Info

Publication number
JPH0614358B2
JPH0614358B2 JP59280614A JP28061484A JPH0614358B2 JP H0614358 B2 JPH0614358 B2 JP H0614358B2 JP 59280614 A JP59280614 A JP 59280614A JP 28061484 A JP28061484 A JP 28061484A JP H0614358 B2 JPH0614358 B2 JP H0614358B2
Authority
JP
Japan
Prior art keywords
image
moving object
background
background image
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59280614A
Other languages
Japanese (ja)
Other versions
JPS61153774A (en
Inventor
敦 川端
真也 谷藤
泰男 諸岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59280614A priority Critical patent/JPH0614358B2/en
Publication of JPS61153774A publication Critical patent/JPS61153774A/en
Publication of JPH0614358B2 publication Critical patent/JPH0614358B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は動画像処理に係り、特に実時間で連続的に入力
される動画像から、移動している物体像を抽出する処理
に好適な移動物体像を抽出する方法に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image process, and more particularly to a moving process suitable for a process of extracting a moving object image from a moving image continuously input in real time. The present invention relates to a method for extracting an object image.

〔発明の背景〕[Background of the Invention]

従来の移動物体像に関する画像処理装置は、連続して入
力される動画像の各画素に関する時間微分あるいは類似
の演算により得られた値を利用して処理を行つていた。
電子回路により時間微分あるいは類似の演算を実行する
ことは、回路構成が簡単になり極めて高速に行なう事が
可能である。しかし時間微分あるいは類似の演算によつ
て得られた値のみから、移動物体の像を抽出する事は、
困難である。例えば、無地の背景の前で、円形の領域が
移動した場合、進行方向の前部と後部に符号の異なつた
三ヶ月形の領域が、出力されるがこの情報により円形の
領域を抽出する事は、困難である。
A conventional image processing apparatus for moving object images performs processing by using a value obtained by time differential or similar calculation for each pixel of continuously input moving images.
Execution of time differentiation or similar operation by an electronic circuit simplifies the circuit configuration and can be performed at extremely high speed. However, extracting the image of a moving object from only the values obtained by time differentiation or similar operation is
Have difficulty. For example, when a circular area moves in front of a plain background, three-month shaped areas with different signs are output at the front and rear of the traveling direction, but this area can be used to extract the circular area. It is difficult.

又別の方法としては従来、撮像素子から得られた像を記
憶装置に一旦蓄えて次に記憶装置から一枚ずつ画像を取
り出し、各画像間の対応点を算出することによつて移動
物体像を抽出するという方法が行なわれている。この方
法で対応点が見つかる場合には、それの移動量を正確に
算出するので、正確に移動物体像を抽出することができ
るが、その処理に要する時間は長くなる。また、物体の
回転、変形等がある場合には、対応点を検出する事が非
常に難しくなる。
As another method, conventionally, a moving object image is obtained by temporarily storing an image obtained from an image sensor in a storage device, then taking out images one by one from the storage device, and calculating corresponding points between the images. Is used. When the corresponding point is found by this method, the moving amount of the corresponding point is accurately calculated, so that the moving object image can be accurately extracted, but the time required for the processing becomes long. Further, when the object is rotated or deformed, it becomes very difficult to detect the corresponding points.

その他にも、あらかじめ移動物体の像が含まれない背景
だけの像を、装置内に記憶しておき、連続的に入力され
る像と背景像とを比較する事によつて移動物体像を抽出
する方法が知られている。この方法は、背景が変化する
場合には全く使用する事ができない。特開昭59−80
87は、背景像を更新する機構についても述べている。
これは移動物体の像が含まれていない瞬間の像を次々に
装置内に取り込みそれを背景像として記憶するものであ
る。これは背景の時間的にゆるやかな変化を、誤つて移
動物体像としない工夫がある。しかしこの方法では、例
えば常に移動物体が撮像範囲内に存在すれば、背景の更
新は一切行なわれないし、瞬間的に背景が大きく変化し
た場合などには、対応する事ができない。また関連公知
例としては「情報処理」(Vol.21,No.6,Ju
ne 1980)がある。
In addition, an image of only the background that does not include the image of the moving object is stored in advance in the device, and the moving object image is extracted by comparing the continuously input image and the background image. It is known how to do it. This method cannot be used at all when the background changes. JP-A-59-80
87 also describes a mechanism for updating the background image.
This is to capture the images at the moment when the image of the moving object is not included in the device one after another and store it as a background image. This is designed so that a gradual change in the background with time is not mistakenly taken as a moving object image. However, in this method, for example, if the moving object is always within the imaging range, the background is not updated at all, and it is not possible to deal with a case where the background changes momentarily. Also, as a related publicly known example, “Information Processing” (Vol. 21, No. 6, Ju
There is ne 1980).

〔発明の目的〕[Object of the Invention]

本発明の目的は、撮像素子から得られる動画像から実時
間で高精度に、移動物体像を抽出する事のできる、画像
処理方法を提供することにある。
An object of the present invention is to provide an image processing method capable of accurately extracting a moving object image in real time from a moving image obtained from an image sensor.

〔発明の概要〕[Outline of Invention]

本発明は撮像素子から得られる動画像の不変な部分、も
しくはゆつくりと変化する特徴成分をとらえて、それを
背景の特徴量として記憶し、前記背景の記憶データと時
々刻々入力される画像の特徴量を比較することにより、
移動物体に関する情報を抽出するようにしたものであ
る。
The present invention captures an invariant part of a moving image obtained from an image sensor, or a characteristic component that changes slowly, and stores it as a characteristic amount of a background, and the stored data of the background and an image input momentarily. By comparing the features,
The information about the moving object is extracted.

〔発明の実施例〕Example of Invention

以下本発明の一実施例を詳細に説明する。 An embodiment of the present invention will be described in detail below.

第1図に本発明を電子回路で実現した場合の、ブロック
図を示す。図示した矢線は、データの流れのみを示し、
制御線は省略する。先ず全構成要素の意味を説明してか
ら、その詳細な働きを述べる。
FIG. 1 shows a block diagram when the present invention is realized by an electronic circuit. The arrows shown in the figure show only the flow of data,
Control lines are omitted. First, the meanings of all the constituent elements will be described, and then the detailed functions thereof will be described.

101は、背景中に移動物体を含んだ所定撮像範囲を捉
える撮像素子であり、102は図示していないA/D変
換器でデイジタル信号に変換された画像データを1フレ
ーム分だけ記憶する画像記憶装置であり、103は10
2に記憶した画像の特徴を抽出する機構で、ここでは特
に102に記憶した画像のエツジ強調像を出力する機構
であり、104は103から出力されるエツジ強調像を
1フレーム分だけ蓄える画像記憶装置であり、105は
背景にあたる画像のエツジ強調像を1フレーム分だけ蓄
える画像記憶装置であり、106は、104,105に
記憶した2つの画像の対応画素を比較し移動物体の像に
関する情報を出力すると同時に、105の記憶データの
更新を行う機構であり、107は106が出力した情報
に基づき102から移動物体の像だけを抽出する機構で
ある。
Reference numeral 101 is an image pickup device for capturing a predetermined image pickup range including a moving object in the background, and 102 is an image storage for storing image data converted into a digital signal by an A / D converter (not shown) for one frame. Is a device, 103 is 10
2 is a mechanism for extracting the features of the image stored in FIG. 2, and in particular, is a mechanism for outputting the edge-enhanced image of the image stored in 102, and 104 is an image memory for storing the edge-enhanced image output from 103 for one frame. A device 105 is an image storage device that stores an edge-enhanced image of a background image for one frame, and a device 106 compares corresponding pixels of two images stored in 104 and 105 to obtain information about an image of a moving object. A mechanism for updating the stored data in 105 at the same time as outputting, and a mechanism for extracting only the image of the moving object from 102 based on the information outputted by 106.

第1図において1aは撮像素子からの出力で、通常のビ
デオ信号であり、1bは入力画像のデイジタル信号で特
徴抽出機構103へ1画素ずつ順次転送されるデータで
あり、1cは入力画像データ1bのエツジ強調像に関す
る、1画素ずつ順次転送されるデータであり、1dは画
像記憶装置104に記憶したエツジ強調像に関する、1
画素ずつ順次転送されるデータであり、1eは画像記憶
装置105に記憶した背景のエツジ強調像に関する、1
画素ずつ順次転送されるデータであり、1fは106に
よつて更新された背景のエツジ強調像に関する1画素ず
つ順次転送されるデータであり、1gは移動物体像に関
する情報で、1画素ずつ順次転送されるon−off信
号であり、1hは入力画像に関する1画素ずつ順次転送
されるデータであり、1iは、移動物体像に関する、1
画素ずつ順次転送されるデイジタル信号である。
In FIG. 1, 1a is an output from the image pickup device, which is a normal video signal, 1b is a digital signal of an input image, which is data sequentially transferred pixel by pixel to the feature extraction mechanism 103, and 1c is input image data 1b. Of the edge-enhanced image of 1), which is sequentially transferred pixel by pixel. 1d indicates the edge-enhanced image stored in the image storage device 104.
The data 1e is sequentially transferred pixel by pixel, and 1e indicates 1 in relation to the edge enhanced image of the background stored in the image storage device 105.
Data is sequentially transferred pixel by pixel, 1f is data that is sequentially transferred pixel by pixel related to the edge-enhanced image of the background updated by 106, and 1g is information related to a moving object image, and is sequentially transferred pixel by pixel. On-off signal, 1h is data sequentially transferred pixel by pixel for the input image, and 1i is 1 for the moving object image.
It is a digital signal that is sequentially transferred pixel by pixel.

第2図、201,202,203に示す様な情景を撮像
素子101が捉えた場合、処理が行なわれてそれぞれの
エツジ強調像が104に蓄えられる。105には背景の
エツジ強調槽204が蓄えられている。比較機構106
が、201,202,203と、204を比較し、その
差異を検出することによつて、201,202,203
において、移動物体が占めている場所に関する情報が出
力される。107は、その情報を基にして、201,2
02,203から移動物体像205,206,207を
出力する。
When the image sensor 101 captures a scene as shown in 201, 202, 203 in FIG. 2, processing is performed and each edge-enhanced image is stored in 104. A background edge emphasizing tank 204 is stored in 105. Comparison mechanism 106
However, by comparing 201, 202, 203 and 204 and detecting the difference, 201, 202, 203
At, information about the location occupied by the moving object is output. 107, based on the information,
02, 203 output moving object images 205, 206, 207.

次に細部の構造及び動作の説明を行う。撮像素子101
は画像を捉え、通常のビデオ信号を102に出力する。
捉えた画像には、静止した背景中に移動物体が含まれて
いる。
Next, the detailed structure and operation will be described. Image sensor 101
Captures an image and outputs a normal video signal to 102.
The captured image contains a moving object in a stationary background.

画像記憶装置102は、101より入力されたビデオ信
号を、図示していないA/D変換器に通してデイジタル
値に変換した後に、その値を1画面分だけ蓄える通常の
記憶装置である。
The image storage device 102 is a normal storage device that stores a video signal input from 101 through an A / D converter (not shown) into a digital value and stores the digital value for one screen.

特徴抽出機構103は、102から順次画素データを取
り込み、エツジを強調した後その結果を104に順次蓄
える。人間が物体を認識する際に、輪郭線が非常に大き
な役割りを果す事が心理学の分野に於て一般に知られて
いるが、103はこの知見に基づいて設置した物であ
り、移動物体の像を抽出する時に、輪郭線が脱落するの
を、防ぐ効果がある。画像処理の分野では輪郭(明るさ
が空間的に急激に変化している部分)を強調するため
に、従来より第3図(b)に示す様な空間フイルタが用い
られている。第3図の各数値は畳み込み積分の係数を表
わしている。一般に物体の境界では明るさが急激に変化
しており、その付近でこのフイルタを適用すると、畳み
込み積分の値は正または負の大きな値になる。また物体
内部では明るさがゆつくりと変化しているので畳み込み
積分の出力は零に近い値となる。102に記憶された画
像データの全画素の回りでこの畳み込み演算を、行うこ
とにより輪郭線の強調が可能になる。しかしながら本発
明の扱うような動画像を扱う場合には、第3図(b)の空
間フイルタでは次のような問題が発生する。
The feature extraction mechanism 103 sequentially fetches pixel data from 102, emphasizes edges, and sequentially stores the result in 104. It is generally known in the field of psychology that the contour line plays a very large role when a human recognizes an object, and 103 is an object installed based on this knowledge, and a moving object. It is effective in preventing the contour line from falling off when extracting the image. In the field of image processing, a spatial filter as shown in FIG. 3 (b) has been conventionally used in order to emphasize the contour (the portion where the brightness changes abruptly spatially). Each numerical value in FIG. 3 represents a coefficient of convolution integration. Generally, the brightness of the boundary of the object changes rapidly, and when this filter is applied in the vicinity, the value of the convolution integral becomes a large positive or negative value. In addition, since the brightness inside the object changes slowly, the output of the convolution integral becomes a value close to zero. By performing this convolution operation around all the pixels of the image data stored in 102, the contour line can be emphasized. However, in the case of handling a moving image as handled by the present invention, the spatial filter shown in FIG. 3 (b) has the following problems.

(1)フレーム間の同期信号のズレにより画像にはしばし
ば1画素程度のズレが生ずる。このため第3図(b)で処
理した輪郭像には、このフレーム間同期ズレによる位置
の変化が発生し、本来静止しているはずの背景像の輪郭
線が変動しているかのように誤認識されてしまう。
(1) A shift of about 1 pixel often occurs in an image due to a shift of a synchronization signal between frames. Therefore, in the contour image processed in Fig. 3 (b), the position change due to this inter-frame synchronization shift occurs, and it is erroneous as if the contour line of the background image, which is supposed to be still, fluctuates. It will be recognized.

(2)画像には各種の要因により孤立した1画素にノイズ
が重畳されているが、第3図(b)のフイルタは、このノ
イズを強調するように作用する。
(2) Noise is superimposed on an isolated pixel in the image due to various factors, but the filter in FIG. 3 (b) acts to emphasize this noise.

(3)第3図(b)の空間フイルタを102の画像データに適
用して得られる輪郭線強調画像には移動物体の輪郭線は
含まれるが、輪郭線以外の情報は脱落してしまう。
(3) The outline of the moving object is included in the outline-emphasized image obtained by applying the spatial filter of FIG. 3 (b) to the image data of 102, but information other than the outline is lost.

本発明は、フイルタの出力である輪郭線強調画像から得
られる情報に基づいて移動物体の像を抽出するものであ
るが、輪郭線以外の情報が脱落してしまつたのでは、移
動物体全体の像(濃淡画像)そのものを抽出するという
本発明の目的には、そぐわない。第3図(c)の様に畳み
込み係数の広がりの大きな空間フイルタを用いれば、画
像のズレや孤立したノイズの影響を小さくする事はでき
るが、(3)の移動体の輪郭線内部情報の脱落は、改善で
きない。そこで本発明では動画像において移動体像を抽
出するのに適したフイルタとして、第3図(a)に示した
ような空間フイルタを適用している。第3図(a)のフイ
ルタでは先ず第3図(c)と同様に、画像のフレーム間同
期や孤立ノイズ対策として重み係数の広がりを第3図
(b)に比べて大きくした。さらに、輪郭線以外の情報つ
まり画像の濃淡値に関する情報が脱落しないように、中
心部の係数を大きくした。第3図(a)のフイルタは、輪
郭線以外の場所では、その場所の濃淡値を反映した値を
出力する。空間フイルタの演算装置は、16個の掛け算
器を備えており画像に対する16近傍の積和演算を高速
に実行する。
The present invention is to extract the image of the moving object based on the information obtained from the contour line enhanced image which is the output of the filter, but if the information other than the contour line is lost, the image of the whole moving object is extracted. The purpose of the present invention to extract the (grayscale image) itself is not suitable. If a spatial filter with a large convolution coefficient spread is used as shown in Fig. 3 (c), the effects of image shift and isolated noise can be reduced, but in (3) the internal information of the contour of the moving object is used. Dropout cannot be improved. Therefore, in the present invention, a spatial filter as shown in FIG. 3 (a) is applied as a filter suitable for extracting a moving body image from a moving image. In the filter of FIG. 3 (a), first, as in FIG. 3 (c), the spread of the weighting coefficient is expanded as a countermeasure against the inter-frame synchronization of images and the isolated noise.
Larger than (b). Further, the coefficient of the central portion is increased so that the information other than the contour line, that is, the information about the gray value of the image is not lost. The filter shown in FIG. 3 (a) outputs a value that reflects the grayscale value of a place other than the contour line. The arithmetic unit of the spatial filter is provided with 16 multipliers and executes the product-sum operation of 16 neighborhoods on the image at high speed.

第1図中の画像記憶装置104は、103から出力され
る、102のエツジ強調像を1画面分だけ蓄える記憶装
置である。
An image storage device 104 in FIG. 1 is a storage device that stores the edge-enhanced image 102, which is output from 103, for one screen.

同様に第1図中の画像記憶装置105は、エツジ強調像
を1画面分だけ蓄える、通常の記憶装置である。104
には背景と移動物体で構成されている入力画像のエツジ
強調像が蓄えられ、105には背景だけで構成されてい
る画像のエツジ強調像が蓄えられている。
Similarly, the image storage device 105 in FIG. 1 is a normal storage device that stores an edge-enhanced image for one screen. 104
The edge-enhanced image of the input image composed of the background and the moving object is stored in, and the edge-enhanced image of the image composed of only the background is stored in 105.

第1図中の比較及び背景のエツジ強調像更新機構106
は、104の各画素を105に記憶した背景像の対応画
素と比較して、移動物体像に関する情報を出力する機構
と、105に記憶した背景像を104の画像を基にして
更新する機能を有する。106は104,105から対
応する画素を順次入力し各画素ごとに差を計算し、その
差が、ある値θ以上である場合、その画素は、104に
おいて移動物体像を構成し、その差が、ある値θに満た
ない場合に、その画素は104において背景像を構成し
ていると判定し、その判定結果を107に出力する。又
106は、104と105の各画素に関する荷重平均値
を、新たに105の値とする事によつて、背景のエツジ
強調像を形成したりあるいは更新したりする。背景のエ
ツジ強調像が、形成される様子を第4図に示す。40
1,402,403は入力画像のエツジ強調像を示し、
404,405,406,407は、背景のエツジ強調
像が形成される様子を示している。最初、背景のエツジ
強調像を蓄える画像記憶装置は、クリアされているもの
とする。猫と家を含む入力画像401が入力されると、
それの像が404の様に少しだけ背景像として記憶され
る。次に鳥と家を含む入力画像402が入力されると、
背景像において405の様に、引き続き存在している家
の像は、強調され、鳥の像は少しだけ記憶され、今回は
存在しない猫の像が、弱まつている。同様に人と家を含
む入力画像403が入力された場合、家の像はさらに強
調される。最終的に、背景のエツジ強調像として407
が形成される。第1図106の詳細図を第5図に示す。
差演算気501は、104,105から得られた画素デ
ータ1d,1eの差を演算し、502に出力(5a)す
る機構である。比較器502は、差演算器501からの
出力5aと、あらかじめ設定された値θとの大小比較を
行ない、例えばθの方が大きい場合には0を、等しいか
小さい場合には1を出力する。掛け算器503は、10
5から得られた画素データと、あらかじめ設定してある
値(2−1)との掛け算を行い、結果を504に出力
(5d)する。加算器504は、104から得られた画
素データ1dと、掛け算器503からの出力5dを加算
し、結果を505に出力(5e)する。nビットシフタ
505は、加算器504からの出力をあらかじめ設定し
てある値nビットだけ右にシフトし、結果を105に出
力(1f)する。記憶装置制御機構506は、104,
105に対する読み書きが正しく行なわれる様に、アド
レス線、制御線を制御する機構である。動作方法は、ま
ず506が5g,5hを通して104,105に対して
処理すべき画素のアドレスを出力し、104,105を
読み出し状態におく。対応する画素のデータはそれぞれ
1d,1eを通して入力され、501,502で処理さ
れた後107に対して、1gを通して0か1が出力され
ると同時に、画素データが503,504,505で処
理される。506は、前記のアドレスを出力したまま、
適当な時期を見計らつて105を書き込み状態に置く。
この結果、1fを通して105を下式で示す様に更新す
る事ができる。
Comparison and background edge-enhanced image updating mechanism 106 in FIG.
Is a mechanism for comparing each pixel of 104 with the corresponding pixel of the background image stored in 105 and outputting information about the moving object image, and a function of updating the background image stored in 105 based on the image of 104. Have. 106 sequentially inputs corresponding pixels from 104 and 105, calculates a difference for each pixel, and when the difference is a certain value θ or more, the pixel forms a moving object image at 104, and the difference is If the value θ is less than a certain value θ, it is determined that the pixel forms a background image at 104, and the determination result is output to 107. Also, 106 newly forms the weighted average value for each of the pixels 104 and 105 as the value of 105, thereby forming or updating the edge enhanced image of the background. FIG. 4 shows how the edge-enhanced image of the background is formed. 40
1, 402 and 403 represent edge enhanced images of the input image,
Reference numerals 404, 405, 406, and 407 indicate how an edge-enhanced image of the background is formed. First, it is assumed that the image storage device that stores the background edge enhanced image is cleared. When an input image 401 including a cat and a house is input,
Its image is memorized as a background image a little like 404. Next, when the input image 402 including the bird and the house is input,
In the background image, the image of the house that still exists, such as 405, is highlighted, the image of the bird is slightly remembered, and the image of the cat, which does not exist this time, is weakened. Similarly, when the input image 403 including a person and a house is input, the house image is further emphasized. Finally, as the background edge enhanced image 407
Is formed. A detailed view of FIG. 1 106 is shown in FIG.
The difference calculation 501 is a mechanism for calculating the difference between the pixel data 1d and 1e obtained from 104 and 105 and outputting (5a) to 502. The comparator 502 compares the output 5a from the difference calculator 501 with a preset value θ, and outputs 0 when θ is larger and outputs 1 when θ is equal or smaller. . The multiplier 503 is 10
The pixel data obtained from 5 is multiplied by a preset value (2 n −1), and the result is output to 504 (5d). The adder 504 adds the pixel data 1d obtained from 104 and the output 5d from the multiplier 503, and outputs the result to 505 (5e). The n-bit shifter 505 shifts the output from the adder 504 to the right by a preset value of n bits, and outputs the result to 105 (1f). The storage device control mechanism 506 includes 104,
This is a mechanism for controlling the address line and the control line so that reading and writing from and to 105 can be performed correctly. As an operation method, first, 506 outputs the address of the pixel to be processed to 104 and 105 through 5g and 5h, and puts 104 and 105 in a read state. The data of the corresponding pixels are input through 1d and 1e, respectively, and after being processed by 501 and 502, 0 or 1 is output through 1g to 107, and at the same time, the pixel data is processed by 503, 504 and 505. It 506 outputs the above address,
At an appropriate time, 105 is put in the writing state.
As a result, 105 can be updated through 1f as shown in the following equation.

ここで BKnew(x,y):座標(x,y)における更新された背景
のエツジ強調像に関する画素データ BKold(x,y):座標(x,y)における更新前の背景の
エツジ強調像に関する画素データ I(x,y):座標(x,y)における、入力画像のエ
ツジ強調像に関する画素データ n:あらかじめ設定した値 又、1gを通して出力しているデータが、どの画素に対
応するのかを示すアドレス情報が、5fを通して出力さ
れる。以上の動作が、1画面分繰り返して行なわれる。
Here, BK new (x, y): pixel data on the updated background edge-enhanced image at coordinates (x, y) BK old (x, y): background edge enhancement before updating at coordinates (x, y) Pixel data for image I (x, y): Pixel data for edge-enhanced image of input image at coordinates (x, y) n: Pre-set value Also, which pixel the data output through 1g corresponds to Address information indicating whether or not is output through 5f. The above operation is repeated for one screen.

第1図107は106から出力された情報1gをもとに
して、102における移動物体の像を形成している画素
データだけを外部に出力する機構である。詳細を第7図
に示す。601は情報選択機構であり、106から入力
される。移動体に関する情報1gを基にして、入力画像
1hを外部に出力するか、あるいは0を外部に出力する
かを決定する機構である。5fは、処理中の画素のアド
レス情報と、画像記憶機構102を制御するための信号
を含む。
FIG. 1 shows a mechanism for outputting only the pixel data forming the image of the moving object at 102 to the outside based on the information 1g output from 106. Details are shown in FIG. An information selection mechanism 601 is input from 106. This is a mechanism for determining whether to output the input image 1h to the outside or 0 to the outside based on the information 1g on the moving body. 5f includes address information of a pixel being processed and a signal for controlling the image storage mechanism 102.

106は、5fを通して処理中の画素に関するアドレス
情報を出力し、102を読み出し状態に置く。102
は、指定された画素のデータを1hを通して出力する。
106は、1gを通して1か0の信号を出力し、601
は1gを通して1が入力された場合102からの画素デ
ータを、1gを通して0が入力された場合、0を出力す
る。最終的には、外部に処理中の、つまり現在出力され
ている画素に関するアドレス情報と、移動物体像のみ含
む画像データを出力する事ができる。
106 outputs address information regarding the pixel being processed through 5f and puts 102 in a read state. 102
Outputs the data of the designated pixel through 1h.
106 outputs a signal of 1 or 0 through 1g, 601
Outputs pixel data from 102 when 1 is input through 1g and outputs 0 when 0 is input through 1g. Finally, it is possible to output the address information regarding the pixel being processed, that is, the pixel currently output, and the image data including only the moving object image.

第6図に、全体の処理時間を短縮する事のできる構成を
示す。矢線はデータの流れのみを示し、制御線は省略す
る。
FIG. 6 shows a configuration capable of shortening the overall processing time. The arrows indicate only the data flow, and the control lines are omitted.

101より出力される輝度に関するアナログ値を図示し
ていないA/Dコンバータに通してデイジタル値に変換
した後、102に順次蓄える際に、同時にそのデータを
103にも出力し、並行してエツジ強調処理を行う。更
に103から順次出力される画素データを直接106に
入力し、その画素データとそれに対応する105の画素
データを順次入力し各画素ごとに差を計算すると同時
に、各画素ごとに荷重平均を計算する事によつて、移動
物体像に関する情を出力すると同時に、105を更新す
る事ができる。
The analog value relating to the brightness output from 101 is converted into a digital value through an A / D converter (not shown), and then sequentially stored in 102, the data is simultaneously output to 103, and edge enhancement is performed in parallel. Perform processing. Further, the pixel data sequentially output from 103 is directly input to 106, and the pixel data and the corresponding pixel data of 105 are sequentially input to calculate the difference for each pixel, and at the same time calculate the weighted average for each pixel. As a result, 105 can be updated at the same time that the information regarding the moving object image is output.

以上により第1図に示された物に比べて処理時間の短縮
された移動物体像を抽出する画像処理装置を構成する事
ができる。
As described above, it is possible to configure an image processing apparatus that extracts a moving object image that has a shorter processing time than the object shown in FIG.

本実施例によれば、電気回路を用いた移動物体像のみを
抽出する事のできる画像処理装置を構成する事ができ
る。
According to this embodiment, it is possible to configure an image processing device that can extract only a moving object image using an electric circuit.

〔発明の効果〕〔The invention's effect〕

以上述べた様に本発明によれば、処理内容が簡単である
ために、大型計算機等の大がかりな装置を使用すること
なく、かつ高速に移動物体の像を抽出する事ができるの
で、移動物体に関する画像処理あるいは、移動物体の認
識等の前処理として利用する事ができる。
As described above, according to the present invention, since the processing content is simple, it is possible to extract the image of the moving object at high speed without using a large-scale device such as a large-scale computer. It can be used as image processing relating to, or pre-processing such as recognition of a moving object.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の実施例を示すブロツク図、第2図は、
入力画像から移動物体像が抽出される様子を示す画面
図、第3図はエツジ強調を行う際に用いた空間フイルタ
の係数、第4図は背景像が形成される様子を示す画面
図、第5図は第1図106の詳細図、第7図は107の
詳細図、第6図は、第1図の実施例の処理速度を速くし
た場合のブロツク図である。 101……撮像素子、102……入力画像記憶装置、1
03……エツジ強調機構、104……エツジ強調像記憶
装置、105……背景のエツジ強調像記憶装置、106
……比較機構及び背景のエツジ強調像更新機構、107
……移動物体像抽出機構。
FIG. 1 is a block diagram showing an embodiment of the present invention, and FIG.
FIG. 3 is a screen view showing how a moving object image is extracted from an input image, FIG. 3 is a coefficient of a spatial filter used for edge enhancement, and FIG. 4 is a screen view showing how a background image is formed. FIG. 5 is a detailed view of FIG. 1 106, FIG. 7 is a detailed view of 107, and FIG. 6 is a block diagram when the processing speed of the embodiment of FIG. 101 ... Image sensor, 102 ... Input image storage device, 1
03 ... edge enhancement mechanism, 104 ... edge enhanced image storage device, 105 ... background edge enhanced image storage device, 106
... Comparison mechanism and background edge enhanced image updating mechanism, 107
…… Moving object image extraction mechanism.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】連続して入力される画像データから予め記
憶された背景画像を用いて移動物体像を抽出する移動物
体像抽出方法において、 前記画像データと前記背景画像との差を求め、前記背景
画像との差をα倍(α<1)して前記背景画像に加算
し、加算後の背景画像を次入力画像データに体する背景
画像とするよう更新することを特徴とする移動物体像抽
出方法。
1. A moving object image extracting method for extracting a moving object image using a background image stored in advance from image data that is continuously input, wherein a difference between the image data and the background image is obtained, and A moving object image characterized in that the difference from the background image is multiplied by α (α <1) and added to the background image, and the added background image is updated to be a background image corresponding to the next input image data. Extraction method.
【請求項2】連続して入力される画像データから移動物
体像を抽出する方法において、 前記画像データに対し背景画像の特徴量を予め記憶し、 前記画像データと前記背景画像との差を求め、 前記差信号から移動物体像を抽出する一方、 前記差信号をα倍(α<1)し、前記背景画像に加算す
ることにより前記背景画像を更新し、次入力画像データ
に対する背景画像とすることを特徴とする移動物体像抽
出方法。
2. A method for extracting a moving object image from image data that is continuously input, wherein a feature amount of a background image is stored in advance for the image data, and a difference between the image data and the background image is obtained. While extracting a moving object image from the difference signal, the background image is updated by multiplying the difference signal by α times (α <1) and adding the background signal to the background image for the next input image data. A method for extracting a moving object image, which is characterized in that
【請求項3】連続して入力される画像データから予め記
憶された背景画像を用いて移動物体像を抽出する移動物
体像抽出装置において、 前記画像データから空間フィルタを用いて特徴画像を抽
出する特徴抽出手段と、 前記背景画像を前記特徴画像から減算する差演算器と、 前記差演算器から算出した差分値を設定値と比較する比
較器と、 前記比較器の結果に基づいて前記画像データから前記移
動物体像を選択する情報選択手段と、 前記画像データと前記背景画像との差を求め、前記背景
画像との差をα倍(α<1)して前記背景画像に加算
し、加算後の背景画像を次入力画像データに対する背景
画像とするよう更新する更新手段と、 を設けたことを特徴とする移動物体像抽出装置。
3. A moving object image extracting apparatus for extracting a moving object image from continuously input image data by using a background image stored in advance, wherein a characteristic image is extracted from the image data by using a spatial filter. Feature extraction means, a difference calculator that subtracts the background image from the feature image, a comparator that compares a difference value calculated from the difference calculator with a set value, the image data based on the result of the comparator From the information selecting means for selecting the moving object image from, the difference between the image data and the background image is obtained, and the difference between the background image and the background image is multiplied by α (α <1) and added to the background image. A moving object image extracting device comprising: an updating unit that updates a background image after that to be a background image for the next input image data.
【請求項4】特許請求の範囲第3項において、前記更新
手段は、前記背景画像を(2−1)倍する掛け算器
と、前記掛け算器の出力と前記特徴画像とを加算する加
算器と、前記加算器の出力結果をnビット右にシフトす
るnビットシフトレジスタとからなり、前記nビットシ
フトレジスタの出力を次入力画像データに対する背景画
像とすることを特徴とする移動物体像抽出装置。
4. The updating device according to claim 3, wherein the updating means adds a multiplier for multiplying the background image by (2 n −1), and an adder for adding the output of the multiplier and the characteristic image. And an n-bit shift register for shifting the output result of the adder to the right by n bits, and the output of the n-bit shift register is used as a background image for the next input image data. .
【請求項5】特許請求の範囲第3項乃至第4項におい
て、前記空間フィルタは下図のフィルタを用いることを
特徴とする移動物体像抽出装置。
5. The moving object image extracting device according to claim 3, wherein the spatial filter is a filter shown in the following figure.
JP59280614A 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image Expired - Lifetime JPH0614358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59280614A JPH0614358B2 (en) 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59280614A JPH0614358B2 (en) 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image

Publications (2)

Publication Number Publication Date
JPS61153774A JPS61153774A (en) 1986-07-12
JPH0614358B2 true JPH0614358B2 (en) 1994-02-23

Family

ID=17627491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59280614A Expired - Lifetime JPH0614358B2 (en) 1984-12-26 1984-12-26 Method and apparatus for extracting moving object image

Country Status (1)

Country Link
JP (1) JPH0614358B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1988000784A1 (en) * 1986-07-15 1988-01-28 Rca Corporation Motion detector apparatus for responding to edge information contained in a television signal
JP4628851B2 (en) * 2005-04-22 2011-02-09 富士通株式会社 Object detection method and object detection apparatus
JP5070376B2 (en) * 2009-06-01 2012-11-14 中央電子株式会社 Congestion state detection apparatus, method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598087A (en) * 1982-07-06 1984-01-17 Nec Corp Extractor for subject of recognition

Also Published As

Publication number Publication date
JPS61153774A (en) 1986-07-12

Similar Documents

Publication Publication Date Title
CN111741211B (en) Image display method and apparatus
JPH0766446B2 (en) Method of extracting moving object image
CN111402146A (en) Image processing method and image processing apparatus
EP3798975A1 (en) Method and apparatus for detecting subject, electronic device, and computer readable storage medium
CN113744142B (en) Image restoration method, electronic device and storage medium
CN113542868A (en) Video key frame selection method and device, electronic equipment and storage medium
CN110880003B (en) Image matching method and device, storage medium and automobile
JPH0614358B2 (en) Method and apparatus for extracting moving object image
KR960002548B1 (en) The method and the system for specific image fetching
CN111598943B (en) Book in-place detection method, device and equipment based on book auxiliary reading equipment
CN111768426A (en) Method, device and equipment for detecting moving target and storage medium
JPH0824350B2 (en) Background image extraction method
CN114144812A (en) Method for generating palm/finger foreground mask
JP3047952B2 (en) Image processing device
JP7070157B2 (en) Image processing program, image processing device and image processing method
JP2001283218A (en) Congestion state deciding method and device therefor
JP2962548B2 (en) Moving object region division method
JPH0731732B2 (en) Motion detection device
JP2949240B2 (en) Moving object detecting device and moving object detecting method
JPH083848B2 (en) Image feature extraction processor
JP2773871B2 (en) Image data binarization method
JP3009428B2 (en) Shadow separation method
JPH0687264B2 (en) Image binarization method
CN116523764A (en) Image boundary sharpening algorithm, device and control system based on FPGA language
JPH04341248A (en) Image distortion correction device, and inter-image arithmetic unit, and image motion calculating device