JP2864620B2 - Moving object detection device - Google Patents

Moving object detection device

Info

Publication number
JP2864620B2
JP2864620B2 JP2040071A JP4007190A JP2864620B2 JP 2864620 B2 JP2864620 B2 JP 2864620B2 JP 2040071 A JP2040071 A JP 2040071A JP 4007190 A JP4007190 A JP 4007190A JP 2864620 B2 JP2864620 B2 JP 2864620B2
Authority
JP
Japan
Prior art keywords
flow
point
optical flow
image
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2040071A
Other languages
Japanese (ja)
Other versions
JPH03243862A (en
Inventor
隆史 平位
耕一 笹川
伸一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2040071A priority Critical patent/JP2864620B2/en
Publication of JPH03243862A publication Critical patent/JPH03243862A/en
Application granted granted Critical
Publication of JP2864620B2 publication Critical patent/JP2864620B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、移動物体検出装置に関し、特に例えばテ
レビカメラ等で撮影された時間的に異なる2枚の画像か
ら得られるオプティカルフローを用いて微小な移動物体
を検出する装置に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object detecting apparatus, and more particularly to a moving object detecting apparatus using an optical flow obtained from two temporally different images taken by a television camera or the like. The present invention relates to an apparatus for detecting a moving object.

[従来の技術] 従来、時間的に異なる2枚の画像から移動物体を検出
する方法としては、2枚の画像間の差分による方法が用
いられている。第7図は例えば画像処理ハンドブック
(1987年,昭晃堂発行),第375頁に示された方法を示
す説明図である。図において、(30),(31)は時間的
に異なる2枚の入力画像、(72)は画像1(30)から画
像2(31)を差分した出力画像である。この方法では2
枚の画像(30),(31)中に移動物体が存在すれば、得
られた差分画像(72)には濃度レベルが正の領域(ア)
と、濃度レベルが0の領域(イ)と、濃度レベルが負の
領域(ウ)が得られ、濃度レベルが正の領域(ア)と負
の領域(ウ)が画像中で物体の存在位置、濃度レベルが
0の領域(イ)が背景部分であると考えらることができ
る。
[Prior Art] Conventionally, as a method of detecting a moving object from two temporally different images, a method based on a difference between the two images has been used. FIG. 7 is an explanatory diagram showing the method shown in, for example, page 375 of the Image Processing Handbook (1987, published by Shokodo). In the figure, (30) and (31) are two input images different in time, and (72) is an output image obtained by subtracting image 2 (31) from image 1 (30). In this method 2
If a moving object is present in the images (30) and (31), the obtained difference image (72) has an area where the density level is positive (A).
Then, an area (a) having a density level of 0 and an area (c) having a negative density level are obtained. The region (a) where the density level is 0 can be considered as the background portion.

第8図,第9図は差分画像による従来の方法の説明図
である。図において、(20),(25)は第7図に示す画
像1(30)のVIII a−VIII a線での画像を1次元信号で
表したものであり、(21),(26)は画像2(31)のVI
II b−VIII b線での画像を1次元信号で表したものであ
る。各信号において、横方向は画像の位置、縦方向は濃
度レベルを示す。従来の差分法により移動物体を検出す
るためには、2枚の画像(20),(21)を差分した画像
(82)において、2つの閾値T1,T2を設定し、濃度の変
化領域(83)を抽出する。領域(83)の正負の位置によ
り移動方向を決定する。即ち、濃度の変化領域が正から
負となる方向を移動方向とすると、第8図では矢印エが
移動方向となる。
8 and 9 are explanatory diagrams of a conventional method using a difference image. In the figure, (20) and (25) show the one-dimensional signal of the image 1 (30) shown in FIG. 7 along the line VIIIa-VIIIa, and (21) and (26) show the image 1 (30). VI of image 2 (31)
The image on the line IIb-VIIIb is represented by a one-dimensional signal. In each signal, the horizontal direction indicates the position of the image, and the vertical direction indicates the density level. In order to detect a moving object by the conventional difference method, two threshold values T1 and T2 are set in an image (82) obtained by subtracting two images (20) and (21), and a density change area (83 ) To extract. The moving direction is determined by the positive and negative positions of the area (83). That is, assuming that the direction in which the density change region changes from positive to negative is the movement direction, the arrow D is the movement direction in FIG.

しかし、画像によって濃度が異なるため、2つの閾値
T1,T2は一定とはならず、処理する画像毎に最適な閾値
を決定する必要が生じ様々な画像に対応するのは実用上
困難である。また物体と背景の濃度差が小さい場合にも
最適な閾値を決定するのは容易ではないという問題が残
る。さらに第9図に示す2枚の画像(25),(26)のよ
うに背景と物体の濃度差が逆になっている場合には、差
分画像(97)から抽出された濃度の変化領域(98)は図
のようになる。従って、変化領域の正負で移動方向を判
定すると、移動方向の矢印オのように判定されてしま
う。
However, since the density differs depending on the image, two thresholds
Since T1 and T2 are not constant, it is necessary to determine an optimum threshold value for each image to be processed, and it is practically difficult to handle various images. Further, there remains a problem that it is not easy to determine an optimum threshold even when the density difference between the object and the background is small. Further, if the density difference between the background and the object is reversed as in the two images (25) and (26) shown in FIG. 9, the density change area (97) extracted from the difference image (97) 98) is as shown in the figure. Therefore, if the moving direction is determined based on the positive or negative of the change area, the moving direction is determined as indicated by the arrow o in the moving direction.

また、他の従来の移動物体検出装置として、雑誌{Be
rthold K.P. Horn and Brian G.Schunck,「Determining
Optical Flow」,Artificial Intelligence,Vol.17,No.
1−3(1981年),第185頁〜第203頁}がある。これに
は、時間的に異なる2枚の画像から物体の移動ベクトル
を求めるための手法として、画像の空間方向の濃度勾配
と時間方向の濃度勾配を用いて計算されるオプティカル
フローにより物体の移動方向を検出する手法が提案され
ている。この方法は時刻tにおける画像中のある座標
(x,y)の濃度をE(x,y,t)で表した時、物体の濃度は
時間的に不変であると仮定すれば下に示す近似式(1)
が成立する。
Also, as another conventional moving object detection device, a magazine {Be
rthold KP Horn and Brian G. Schunck, `` Determining
Optical Flow '', Artificial Intelligence, Vol. 17, No.
1-3 (1981), pp. 185-203. As a technique for obtaining a motion vector of an object from two images that are different in time, a moving direction of the object is calculated by an optical flow calculated using a density gradient in a spatial direction and a density gradient in a time direction. Has been proposed. In this method, when the density of a certain coordinate (x, y) in an image at time t is represented by E (x, y, t), assuming that the density of an object is invariant with time, the following approximation is performed. Equation (1)
Holds.

Ex・u+Ey・v+Et=0 ・・・(1) Ex,Ey:空間方向(x方向,y方向)の濃度勾配 Et :時間方向(t方向)の濃度勾配 u,v :x方向,y方向の速度成分 式(1)に、局所的な速度は滑らかに変化するという
仮定を加え、誤差関数(式(2))を最小にするu,vが
求めるオプティカルフローの速度成分であるとするもの
である。
E x · u + E y · v + E t = 0 (1) E x , E y : density gradient in space direction (x direction, y direction) E t : density gradient in time direction (t direction) u, v: Velocity component in x and y directions To equation (1), the assumption that the local velocity changes smoothly is added, and the velocity component of the optical flow obtained by u and v that minimizes the error function (equation (2)) It is assumed that

∫∫(eb 2+ec 2)dxdy ・・・(2) ここで、 eb =Ex・u+Ey・v+Et ec 2=(∂u/∂x)+(∂u/∂y) +(∂v/∂x)+(∂v/∂y) 第10図,第11図はこの方法を示す説明図である。今、
第10図における破線(110)の位置にあった物体が実体
(111)の位置に移動する場合を考える。第11図は第10
図のΧI−ΧI線における画像の濃度を1次元信号で表
わしたものであり、信号(100)は移動前のもの、信号
(101)は移動後のものを示している。このような画像
から得られるオプティカルフローは背景との濃度差があ
る部分(物体のエッジ部分)において、空間的な濃度勾
配(23)と時間的な濃度勾配(24)のベクトル和である
(22)として与えられる。従って、画像全体についてオ
プティカルフローを調べれば、物体全体の移動方向(11
2)を検出できる。
∫∫ (e b 2 + e c 2 ) dxdy (2) where e b = E x xu + E y・ v + E t e c 2 = (∂u / ∂x) 2 + (∂u / ∂y ) 2 + (∂v / ∂x) 2 + (∂v / ∂y) 2 FIGS. 10 and 11 are explanatory diagrams showing this method. now,
Consider a case where the object at the position of the broken line (110) in FIG. 10 moves to the position of the entity (111). Figure 11 shows the 10th
The density of the image on the line ΧI-ΧI in the figure is represented by a one-dimensional signal, and a signal (100) indicates a signal before movement and a signal (101) indicates a signal after movement. The optical flow obtained from such an image is a vector sum of a spatial density gradient (23) and a temporal density gradient (24) in a portion having a density difference from the background (edge portion of the object) (22 ). Therefore, if the optical flow is checked for the entire image, the moving direction (11
2) can be detected.

このオプティカルフローによる方法は、第10図の破線
(110)の位置にあった物体が実線(111)の位置に移動
する場合のように、画面内で比較的大きな物体が異なる
画面間で共通な領域を持ちながら平行移動あるいは回転
運動をしている時に、全体の移動方向(112)を検出す
る際に用いられる方法である。従って、このままでは例
えば数画素程度で構成される微小な物体の移動を検出す
ることはできず、画像中の数画素程度の微小な物体の移
動に関する処理装置は確立されていない。
In the method based on the optical flow, a relatively large object in a screen is shared between different screens, such as a case where an object at a position indicated by a broken line (110) in FIG. 10 moves to a position indicated by a solid line (111). This is a method used to detect the entire movement direction (112) when performing a parallel movement or a rotational movement while holding an area. Therefore, it is impossible to detect the movement of a minute object composed of, for example, about several pixels, and a processing device for the movement of a minute object of about several pixels in an image has not been established.

[発明が解決しようとする課題] 従来の移動物体検出装置は以上のように構成されてお
り、差分画像による方法では、処理画像によって濃度が
異なるため、2つの閾値T1,T2は一定とはならず、処理
する画像毎に最適な閾値を決定する必要が生じ様々な画
像に対応するのは実用上困難であった。また物体と背景
の濃度差が小さい場合にも最適な閾値を決定するのは容
易ではないという問題が残る。さらに背景と物体の濃度
差が逆になっている場合には、誤判定することになると
いう問題点も有する。また、オプティカルフローによる
方法は、画面内で比較的大きな物体が異なる画面間で共
通な領域を持ちながら平行移動あるいは回転運動をして
いるときに全体の移動方向を検出する際に用いられる方
法であり、画像中の数画素程度の微小な物体の移動に関
する処理装置は確立されていないなどの問題点があっ
た。
[Problems to be Solved by the Invention] The conventional moving object detection device is configured as described above. In the method using the difference image, the two threshold values T1 and T2 are not constant because the density differs depending on the processing image. In addition, it is necessary to determine an optimum threshold value for each image to be processed, and it is practically difficult to handle various images. Further, there remains a problem that it is not easy to determine an optimum threshold even when the density difference between the object and the background is small. Further, when the density difference between the background and the object is reversed, there is a problem that an erroneous determination is made. The method based on optical flow is a method used when detecting a whole moving direction when a relatively large object in a screen is performing a parallel movement or a rotational movement while having a common area between different screens. In addition, there is a problem that a processing device for movement of a minute object of about several pixels in an image has not been established.

この発明は、上記のような問題点を解消するためにな
されたもので、2つの閾値T1,T2を画像毎に設定する必
要がなく、濃度差が逆になっている時も移動方向を正し
く判定することができ、さらに、画像中の数画素程度の
微小な物体の移動を検出できる移動物体検出装置を得る
ことを目的とする。
The present invention has been made in order to solve the above-described problems, and there is no need to set two thresholds T1 and T2 for each image, and the moving direction is correctly set even when the density difference is reversed. It is an object of the present invention to obtain a moving object detection device capable of making a determination and detecting a movement of a minute object of about several pixels in an image.

[課題を解決するための手段] この発明に係る移動物体検出装置は、時間的に異なる
2枚の画像からこの画像上での速度分布を示す大きさと
方向を有するオプティカルフローを求めるオプティカル
フロー演算手段、このオプティカルフロー演算手段によ
り得られたオプティカルフローの大きさを正規化し、あ
らかじめ設定した値以上の大きさをもつオプティカルフ
ローの方向を出力する正規化手段、この正規化手段によ
り得られるオプティカルフローの方向から画像を構成す
る画像ごとにその画素の近傍におけるオプティカルフロ
ーのパターンを抽出するフローパターン抽出手段、この
フローパターン抽出手段で得られたフローパターンに基
きフローの向きが近傍から集中している収縮点及びフロ
ーの向きが近傍へ広がっている拡散点を判定する特徴点
抽出手段、並びにこの特徴点抽出手段により抽出された
特徴点から物体の移動情報を検出する移動物体検出手段
を備えたものである。
[Means for Solving the Problems] A moving object detecting apparatus according to the present invention is an optical flow calculating means for obtaining an optical flow having a size and a direction indicating a velocity distribution on two images which are temporally different from each other. Normalizing means for normalizing the size of the optical flow obtained by the optical flow calculating means, and outputting the direction of the optical flow having a size equal to or larger than a preset value; A flow pattern extracting means for extracting an optical flow pattern in the vicinity of the pixel for each image constituting the image from the direction; a shrinkage in which the flow direction is concentrated from the vicinity based on the flow pattern obtained by the flow pattern extracting means Judgment of diffusion point where the direction of the point and the flow has spread to the vicinity And moving object detecting means for detecting moving information of the object from the characteristic points extracted by the characteristic point extracting means.

[作用] この発明における特徴点抽出手段は、ある着目する画
像の近傍のフローパターンから、移動前を表すフローが
内向きになっている収縮点、移動後を表すフローが外向
きになっている拡散点を抽出し、移動物体検出手段は一
対の収縮点と拡散点を移動前後の物体の存在位置と判定
して移動方向を検出する。
[Function] In the feature point extracting means according to the present invention, from a flow pattern in the vicinity of an image of interest, a contraction point where a flow representing before movement is inward, and a flow representing after movement is outward. The diffusion point is extracted, and the moving object detection means detects the moving direction by determining the pair of contraction points and the diffusion point as the positions of the object before and after the movement.

[実施例] 以下、この発明の一実施例を図について説明する。第
1図は、この発明の一実施例による移動物体検出装置を
示すブロック図である。(10),(11)は時間的に異な
る2枚の入力画像、(12)は画像(10),(11)から速
度分布を示す大きさと方向を有するオプティカルフロー
を計算する演算手段、(13)はオプティカルフロー演算
手段(12)により得られるオプティカルフローの大きさ
を正規化し、あらかじめ設定した値以上の大きさをもつ
オプティカルフローの方向を出力する正規化手段、(1
4)は着目する画素の8近傍のフローのパターンを抽出
するフローパターン抽出手段、(15)は抽出されたフロ
ーパターンから収縮点,拡散点等の特徴点を抽出する特
徴点抽出手段、(16)は抽出された特徴点より物体の移
動情報を検出する移動物体検出手段である。
Embodiment An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a moving object detection device according to one embodiment of the present invention. (10) and (11) are two input images that are temporally different, (12) is an arithmetic unit that calculates an optical flow having a size and direction indicating a velocity distribution from the images (10) and (11), and (13) ) Normalizing means for normalizing the magnitude of the optical flow obtained by the optical flow calculating means (12) and outputting the direction of the optical flow having a magnitude equal to or larger than a preset value;
4) is a flow pattern extracting means for extracting a flow pattern in the vicinity of 8 of the pixel of interest, (15) is a feature point extracting means for extracting feature points such as a contraction point and a diffusion point from the extracted flow pattern, and (16) ) Is a moving object detecting means for detecting the moving information of the object from the extracted feature points.

次に動作について説明する。この実施例は第2図に示
すような1次元信号で模式的に表されたオプティカルフ
ローの性質を利用するものである。第2図(a),
(b)において、(20),(25)は画像1の例えばある
縦位置における横方向の濃度レベルを示す信号、(2
1),(26)は画像1(20)と同一縦位置における画像
2の横方向の濃度レベルを示す信号、実線矢印(22)は
オプティカルフロー、点線矢印(23)は空間的な濃度勾
配、一点鎖線矢印(24)は時間的な濃度勾配を示す。即
ち第2図(a)に示すように、画像1の背景部分と濃度
差のある点(カ)の近傍のオプティカルフローはその点
が次の時刻の画像2(21)では消失する点であるので内
向きのフロー(22)となり、画像2(21)において背景
部分と濃度差のある点(キ)の近傍のオプティカルフロ
ーはその点が新たに出現する点であるので外向きのフロ
ー(22)になるという性質である。また、第2図(b)
に示すように、背景と物体の濃度差が逆になっている画
像1(25)、画像2(26)のような場合にもフローの向
きは変わらない。この性質は2次元画像においては第3
図に示されるようなオプティカルフローとして得られ
る。即ち、時間的に異なる画像1(30)、画像2(31)
の2枚の画像からオプティカルフロー(32)が得られ
る。この発明はこのようなオプティカルフローの性質を
用いて、ある着目する画素の近傍のフローの向きが内向
きである点(第3図(ク)のような点)を収縮点、近傍
のフローの向きが外向きである点(第3図(ケ)のよう
な点)を拡散点と定義し、それらの特徴点の判定方法を
提案し、移動物体を検出するものである。
Next, the operation will be described. This embodiment utilizes the property of optical flow schematically represented by a one-dimensional signal as shown in FIG. FIG. 2 (a),
In (b), (20) and (25) are signals indicating the density level of the image 1 in the horizontal direction at a certain vertical position, for example, (2)
1) and (26) are signals indicating the horizontal density level of image 2 at the same vertical position as image 1 (20), solid arrow (22) is optical flow, dotted arrow (23) is spatial density gradient, The dash-dotted arrow (24) indicates the concentration gradient over time. That is, as shown in FIG. 2A, the optical flow near the background portion of the image 1 and the point (f) having the density difference is such a point that the point disappears in the image 2 (21) at the next time. Therefore, the flow becomes inward (22). In the image 2 (21), the optical flow in the vicinity of the point (g) having the density difference from the background portion is the point where the point newly appears. ). FIG. 2 (b)
As shown in (1), the flow direction does not change even in the case of the image 1 (25) and the image 2 (26) in which the density difference between the background and the object is reversed. This property is the third in 2D images.
It is obtained as an optical flow as shown in the figure. That is, temporally different images 1 (30) and 2 (31)
An optical flow (32) is obtained from these two images. The present invention uses such an optical flow property to set a point where a flow in the vicinity of a certain pixel of interest is inward (a point like FIG. A point whose direction is outward (a point as shown in FIG. 3 (g)) is defined as a diffusion point, a method for determining those characteristic points is proposed, and a moving object is detected.

オプティカルフロー演算手段(12)からの出力はカメ
ラのぶれ等による背景の微妙な動きをも含むが、正規化
手段(13)により真の移動物体から得られるフローに比
較して相対的に小さいフローは背景とみなされ方向デー
タがないとされる。さらにある大きさ以上のフローは、
8方向(例えば、右方向のフローを0、右下方向のフロ
ーを1、下方向のフローを2、左下方向のフローを3、
左方向のフローを4、左上方向のフローを5、上方向の
フローを6、そして、右上方向のフローが7になるよう
にし、これら以外の方向のフローは上記8方向の中で最
も近い方向のフローの値)に量子化されて正規化手段
(13)からの出力となる。このようにして得られたフロ
ーを用いてフローパターン抽出手段(14)により着目す
る画素の近傍のフローのパターンを抽出し、特徴点抽出
手段(15)により収縮点、拡散点の判定をする。以下に
特徴点を抽出する手段について述べる。まず第4図に示
すように収縮点(第4図(a)と拡散点(第4図(b)
に対するフローパターン(40)、(41)を考える。この
ようなフローパターンになるべく近いパターンを持つ点
を収縮点あるいは拡散点と判定する。このため、第4図
(a)、(b)に示した理想的な収縮点、及び拡散点に
対する各フローパターンに対してフローの方向に応じた
番号付けを行う。すなわち、例えば、右方向のフローを
0、右下方向のフローを1、下方向のフローを2、左下
方向のフローを3、左方向のフローを4、左上方向のフ
ローを5、上方向のフローを6、そして、右上方向のフ
ローが7になるように、各フローパターンの方向に応じ
てそれぞれ0から7の番号を付与する。このようにして
番号付けをすると、第4図(a)に示した理想的な収縮
点は、第5図(a)に示したように番号付けがなされ、
第4図(b)に示した理想的な拡散点は、第5図(b)
に示したように番号付けがなされる。以上のようにし
て、第4図(a)、(b)に示した理想的に収縮点、及
び拡散点に対して番号付けがなされたものをそれぞれ収
縮点の量子化マスク(第5図(a))、及び拡散点の量
子化マスク(第5図(b))とする。いま着目する画素
が収縮点あるいは拡散点であるかどうかの判定をするた
めに、理想的な特徴点の方向データを第6図(a)の方
向データ(60)とし、着目する画素の近傍の方向データ
を第6図(b)の方向データ(61)のように与える。こ
こで方向データ(60)は収縮点に対しては、第5図
(a)より、 Fi=i+4 (i=1,2,3,) Fi=i−4 (i=4,5,6,7) となり、拡散点に対しては、第5図(b)より、 Fi=i (i=0〜7) となる。次に、実際にフローパターン抽出手段(14)に
より抽出された着目する画素の近傍の方向データを第6
図(b)の方向データ(61)とする。すなわち、着目す
る画素の近傍の右中央部のフローをG0、右下のフローを
G1、中央上部のフローをG2、以下、第6図(b)に示し
たようにGi(i=0、…、7)に割り当てる。すなわ
ち、例えば、第3図に示したクの収縮点では、第4図
(a)に示したフローと同様のフローが得られるので、
第5図(a)に示したものと同様の番号付けがなされ、
G0=4、G1=5、G2=6、G3=7、G4=0、G5=1、G6
=2、G7=3のように割り当てられ、第3図に示したケ
の拡散点では、第4図(b)に示したフローと同様のフ
ローが得られるので、第5図(b)に示したのと同様の
番号付けがなされG0=0、G1=1、G2=2、G3=3、G4
=4、G5=5、G6=6、G7=7のように割り当てられ
る。この時、理想的な特徴点との方向差は次式で与えら
れる。
The output from the optical flow calculation means (12) includes a subtle movement of the background due to camera shake and the like, but the flow is relatively small as compared with the flow obtained from the true moving object by the normalization means (13). Is regarded as the background and there is no direction data. If the flow is larger than a certain size,
Eight directions (e.g., 0 for the rightward flow, 1 for the lower rightward flow, 2 for the downward flow, 3 for the lower leftward flow,
The flow in the left direction is 4, the flow in the upper left direction is 5, the flow in the upper direction is 6, and the flow in the upper right direction is 7. The flows in other directions are the closest directions among the above 8 directions. And the output of the normalizing means (13). Using the flow thus obtained, a flow pattern extraction unit (14) extracts a flow pattern in the vicinity of a pixel of interest, and a feature point extraction unit (15) determines a contraction point and a diffusion point. The means for extracting feature points will be described below. First, as shown in FIG. 4, the contraction point (FIG. 4 (a) and the diffusion point (FIG. 4 (b)
Consider the flow patterns (40) and (41) for A point having a pattern as close as possible to such a flow pattern is determined as a contraction point or a diffusion point. For this reason, numbering according to the direction of the flow is performed for each flow pattern corresponding to the ideal contraction point and diffusion point shown in FIGS. 4 (a) and 4 (b). That is, for example, the flow in the right direction is 0, the flow in the lower right direction is 1, the flow in the lower direction is 2, the flow in the lower left direction is 3, the flow in the left direction is 4, the flow in the upper left direction is 5, and the flow in the upper direction is 5. Numbers are assigned from 0 to 7 according to the direction of each flow pattern so that the flow is 6 and the flow in the upper right direction is 7. When numbering is performed in this manner, the ideal contraction points shown in FIG. 4 (a) are numbered as shown in FIG. 5 (a).
The ideal diffusion point shown in FIG.
Numbering is performed as shown in FIG. As described above, the idealized contraction points and diffusion points shown in FIGS. 4 (a) and 4 (b) are numbered for the contraction point quantization mask (FIG. 5 ( a)) and the quantization mask of the diffusion point (FIG. 5 (b)). In order to determine whether the pixel of interest is a contraction point or a diffusion point, the direction data of the ideal feature point is set to the direction data (60) in FIG. The direction data is given as direction data (61) in FIG. 6 (b). Here, the direction data (60) for the contraction point is Fi = i + 4 (i = 1,2,3,) Fi = i-4 (i = 4,5,6, 7) For the diffusion point, from FIG. 5 (b), Fi = i (i = 0 to 7). Next, the direction data in the vicinity of the pixel of interest actually extracted by the flow pattern extraction means (14) is stored in the sixth direction.
The direction data (61) in FIG. That is, the flow at the right center near the pixel of interest is G0, and the flow at the lower right is G0.
G1 and the flow in the upper center are assigned to G2 and hereinafter to Gi (i = 0,..., 7) as shown in FIG. 6 (b). That is, for example, at the contraction point of the h shown in FIG. 3, a flow similar to the flow shown in FIG.
Numbering similar to that shown in FIG.
G0 = 4, G1 = 5, G2 = 6, G3 = 7, G4 = 0, G5 = 1, G6
= 2 and G7 = 3, and at the diffusion point of the key shown in FIG. 3, a flow similar to the flow shown in FIG. 4 (b) is obtained. Numbering is performed in the same manner as shown, G0 = 0, G1 = 1, G2 = 2, G3 = 3, G4
= 4, G5 = 5, G6 = 6, G7 = 7. At this time, the direction difference from the ideal feature point is given by the following equation.

|Gi−Fi|≦4の時、 d(Gi)=|Gi−Fi| |Gi−Fi|≧5の時、 d(Gi)=8−|Gi−Fi| となる。またフローの現われている近傍画素の方向差の
平均Mは、 で定義される。対象とするフローは正規化手段(13)に
よって正規化され、フローの大きさがある一定値以下の
画素は方向データを持っていない。そこで、Ωは近傍画
素のうちフローの現われている画素の集合であり、Nは
集合Ωに含まれている画素の個数であるとする。さら
に、収縮点と拡散点に対する方向差の平均を各々MC,MD
とする。ある画素の近傍におけるフローパターンが収縮
点の量子化マスクと一致するときはMC=0,MD=4とな
る。このことから、ある画素の近傍におけるフローパタ
ーンと収縮点の量子化マスクとの差の平均MCが0に近
ければその画素は収縮点とみなしてもよいと考えられ
る。逆にMCが4に近ければ拡散点であると判定すれば
よい。また拡散点の量子化マスクとの方向差の平均MD
を計算した場合には0に近ければ拡散点、4に近ければ
収縮点であると判定する。すなわち、収縮点の量子化マ
スクを用いた場合には、第3図に示したクの点に対して
は、G0=4、G1=5、G2=6、G3=7、G4=0、G5=
1、G6=2、G7=3で、収縮点の量子化マスクは、F0=
4、F1=5、F2=6、F3=7、F4=0、F5=1、F6=
2、F7=3であるので、d(Gi)=0、i=0、1、
…、7となり となる。逆に、拡散点の量子化マスクを用いた場合に
は、拡散点の量子化マスクがF0=0、F1=1、F2=2、
F3=3、F4=4、F5=5、F6=6、F7=7であることを
考慮すると、第3図に示したクの点に対しては、d(G
i)=4、i=0、1、…、7となり、 となる。このように、MCが0に近い値(MDが4に近い
値)であるので、この点は収縮点と判定される。
When | Gi−Fi | ≦ 4, d (Gi) = | Gi−Fi | When | Gi−Fi | ≧ 5, d (Gi) = 8− | Gi−Fi |. Also, the average M of the direction differences between neighboring pixels where the flow appears is Is defined by The target flow is normalized by the normalizing means (13), and pixels whose flow size is smaller than a certain value do not have direction data. Therefore, Ω is a set of pixels in which the flow appears among the neighboring pixels, and N is the number of pixels included in the set Ω. Further, the average of the direction difference for the contraction point and the diffusion point is calculated as MC, MD respectively.
And When the flow pattern near a certain pixel matches the quantization mask at the contraction point, MC = 0 and MD = 4. From this, it is considered that a pixel may be regarded as a contraction point if the average MC of the difference between the flow pattern and the quantization mask at the contraction point near a certain pixel is close to 0. Conversely, if MC is close to 4, it may be determined that it is a diffusion point. The average MD of the direction difference between the diffusion point and the quantization mask
Is calculated, it is determined that it is a diffusion point if it is close to 0, and it is a contraction point if it is close to 4. In other words, when the quantization mask for the contraction point is used, G0 = 4, G1 = 5, G2 = 6, G3 = 7, G4 = 0, G5 for the points shown in FIG. =
1, G6 = 2, G7 = 3, and the quantization mask of the contraction point is F0 =
4, F1 = 5, F2 = 6, F3 = 7, F4 = 0, F5 = 1, F6 =
2, since F7 = 3, d (Gi) = 0, i = 0, 1,
…, 7 Becomes Conversely, when a diffusion point quantization mask is used, the diffusion point quantization mask is F0 = 0, F1 = 1, F2 = 2,
Considering that F3 = 3, F4 = 4, F5 = 5, F6 = 6, and F7 = 7, the point d shown in FIG.
i) = 4, i = 0, 1,..., 7, Becomes Thus, since MC is a value close to 0 (MD is a value close to 4), this point is determined to be a contraction point.

同様に、第3図に示したクの点に対しては、G0=4、
G1=5、G2=6、G3=7、G4=0、G5=1、G6=2、G7
=3で、収縮点の量子化マスクを用いた場合には、d
(Gi)=4、i=0、1、…、7となり、 となる。逆に、拡散点の量子化マスクを用いた場合に
は、d(Gi)=0、i=0、1、…、7となり、 となる。このように、MCが4に近い値(MDが0に近い
値)であるので、この点は拡散点と判定される。移動物
体検出手段は(16)では画像1(10)における収縮点と
画像2(11)における拡散点が存在するかどうかを判定
する。収縮点は画像1(10)に存在した点が移動した結
果、画像2(11)における対応する位置が背景となるこ
とで見かけ上消失することにより発生する点であり、拡
散点は画像1(10)で背景であった位置に物体が移動し
てきたことで見かけ上新たに出現することにより発生す
る点であるので、一対の収縮点と拡散点を検出すること
により物体の移動方向を検出できる。
Similarly, for the point shown in FIG. 3, G0 = 4,
G1 = 5, G2 = 6, G3 = 7, G4 = 0, G5 = 1, G6 = 2, G7
= 3 and using a shrink point quantization mask, d
(Gi) = 4, i = 0, 1,..., 7, Becomes Conversely, when a diffusion point quantization mask is used, d (Gi) = 0, i = 0, 1,... Becomes Thus, since MC is a value close to 4 (MD is a value close to 0), this point is determined as a diffusion point. In (16), the moving object detection means determines whether or not there is a contraction point in the image 1 (10) and a diffusion point in the image 2 (11). The contraction point is a point that occurs when a point existing in the image 1 (10) moves and as a result, the corresponding position in the image 2 (11) becomes a background and apparently disappears. In 10), this is a point that is caused by the appearance of a new object due to the movement of the object to the position that was the background. Therefore, the movement direction of the object can be detected by detecting a pair of contraction points and a diffusion point. .

なお、上記実施例では3Χ3画素を基にした収縮点,
拡散点の抽出について述べたが、近傍画素のフローがす
べて同じ方向を向いている画素においてはMC=MD=2
となることを利用すれば、物体が異なる画像間で共通領
域を持って移動している場合に移動物体の存在の判定に
用いることもできる。すなわち、第10図に示したように
2枚の画像間で共通領域を有しながら移動している移動
物体の場合には、近傍画素が全て同じ方向を向いている
ので、各近傍画素の値は、同じ値に割り当てられている
ことになる。例えば、第10図に示した場合には、フロー
の方向が全て右方向になるので、Gi=0、i=0、1、
…、7と割り当てられ、MC=MD=2となる。このよう
に、MC(MD)が2であることより、2枚の画像間で共通
領域を有しながら移動している移動物体が存在している
と判定することができる。又、この時、3Χ3画素以上
のフローを調べるようにしてもよい。
In the above embodiment, the contraction point based on 3/3 pixels,
The diffusion point extraction has been described. For pixels in which the flows of the neighboring pixels are all in the same direction, MC = MD = 2
By using the fact that the moving object can be used to determine the presence of the moving object when the object is moving with a common area between different images. That is, as shown in FIG. 10, in the case of a moving object that moves while having a common area between two images, since the neighboring pixels are all in the same direction, the value of each neighboring pixel is Are assigned to the same value. For example, in the case shown in FIG. 10, since the flow directions are all rightward, Gi = 0, i = 0, 1,.
.., 7 and MC = MD = 2. As described above, since MC (MD) is 2, it can be determined that there is a moving object that is moving while having a common area between the two images. At this time, a flow of 3/3 pixels or more may be checked.

上記実施例ではオプティカルフローに基いて収縮点,
拡散点を抽出し、移動物体を検出するように構成したの
で、従来装置では検出が困難であった対象物体が非常に
小さい場合や背景との濃度差が少ない場合、あるいは背
景と物体の濃度差が逆になっている場合においても、比
較的正確にその物体の位置や移動方向を検出できる。さ
らに、従来のように2つの閾値T1,T2を画像毎に設定す
る必要もない。
In the above embodiment, the contraction point based on the optical flow,
Since the system is configured to extract diffusion points and detect moving objects, it is difficult to detect with a conventional device when the target object is very small, when the density difference between the background is small, or when the density difference between the background and the object is small. Is reversed, the position and the moving direction of the object can be detected relatively accurately. Further, unlike the related art, it is not necessary to set the two thresholds T1 and T2 for each image.

[発明の効果] 以上のように、この発明は時間的に異なる2枚の画像
からこの画像上での速度分布を示す大きさと方向を有す
るオプティカルフローを求めるオプティカルフロー演算
手段、このオプティカルフロー演算手段により得られた
オプティカルフローの大きさを正規化し、あらわじめ設
定した値以上の大きさをもつオプティカルフローの方向
を出力する正規化手段、この正規化手段により得られる
オプティカルフローの方向から画像を構成する画素ごと
にその画素の近傍におけるオプティカルフローのパター
ンを抽出するフローパターン抽出手段、このフローパタ
ーン抽出手段で得られたフローパターンに基きフローの
向きが近傍から集中している収縮点及びフローの向きが
近傍へ広がっている拡散点を判定する特徴点抽出手段、
並びにこの特徴点抽出手段により抽出された特徴点から
物体の移動情報を検出する移動物体検出手段を備えたこ
とにより、従来装置で必要だった閾値を画像毎に設定す
る必要もなく、濃度差が逆になっている時も移動方向を
正しく判定することができ、さらに、画像中の数画素程
度の微小な物体の移動を検出できる移動物体検出装置を
得ることができる。
[Effects of the Invention] As described above, the present invention provides an optical flow calculation means for obtaining an optical flow having a size and a direction indicating a velocity distribution on two images different in time, and this optical flow calculation means Normalizing means for normalizing the size of the optical flow obtained by the above, and outputting the direction of the optical flow having a size equal to or larger than a preset value, and converting the image from the direction of the optical flow obtained by the normalizing means. A flow pattern extracting means for extracting an optical flow pattern in the vicinity of the pixel for each constituent pixel; a contraction point and a flow where the flow direction is concentrated from the vicinity based on the flow pattern obtained by the flow pattern extracting means; Feature point extracting means for determining a diffusion point whose direction is spreading to the vicinity,
In addition, the provision of the moving object detecting means for detecting the moving information of the object from the characteristic points extracted by the characteristic point extracting means eliminates the need for setting the threshold value required for the conventional device for each image, and reduces the density difference. Even when the direction is reversed, the moving direction can be correctly determined, and a moving object detection device capable of detecting the movement of a minute object of about several pixels in an image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明の一実施例による移動物体検出装置を
示すブロック図、第2図は1次元信号で模式的に表した
オプティカルフローの性質を説明する説明図、第3図は
微小物体が移動する際に得られるオプティカルフローの
パターンを示す説明図、第4図は収縮点と拡散点の近傍
におけるフローパターンを示す説明図、第5図は収縮点
と拡散点の近傍のフローパターンに対して各方向に番号
をつけた量子化マスクを示す説明図、第6図は理想的な
特徴点の近傍画素の方向データと着目点の近傍画素の方
向データとを示す説明図、第7図は従来の差分法による
移動物体抽出法の概念を説明する説明図、第8図は第7
図のVIII a−VIII a線,VIII b−VIII b線における濃度
信号である1次元信号から差分法によって得られた差分
画像から移動物体を抽出する方法を示す説明図、第9図
は物体と背景の濃度が逆になっている場合に、特徴点を
抽出して移動方向を逆に判定する従来例を1次元信号で
示す説明図、第10図は従来のオプティカルフローの利用
例を示す説明図、第11図は第10図のΧI−ΧI線に対応
する濃度信号とオプティカルフローを示す説明図であ
る。 (10),(11)……画像、(12)……オプティカルフロ
ー演算手段、(13)……正規化手段、(14)……フロー
パターン抽出手段、(15)……特徴点抽出手段、(16)
……移動物体検出手段、(22)……オプティカルフロ
ー、(23)……空間的な濃度勾配、(24)……時間的な
濃度勾配。 なお、図中、同一符号は同一、または相当部分を示す。
FIG. 1 is a block diagram showing a moving object detecting apparatus according to one embodiment of the present invention, FIG. 2 is an explanatory diagram for explaining the characteristics of an optical flow schematically represented by a one-dimensional signal, and FIG. FIG. 4 is an explanatory diagram showing an optical flow pattern obtained when moving, FIG. 4 is an explanatory diagram showing a flow pattern near a contraction point and a diffusion point, and FIG. 5 is a diagram showing a flow pattern near a contraction point and a diffusion point. FIG. 6 is an explanatory diagram showing quantization masks numbered in each direction, FIG. 6 is an explanatory diagram showing direction data of a pixel near an ideal feature point and direction data of a pixel near a point of interest, and FIG. FIG. 8 is an explanatory diagram for explaining the concept of a moving object extraction method using a conventional difference method, and FIG.
FIG. 9 is an explanatory view showing a method of extracting a moving object from a difference image obtained by a difference method from a one-dimensional signal which is a density signal at a line VIIIa-VIIIa and a line VIIIb-VIIIb, and FIG. FIG. 10 is an explanatory diagram showing a conventional example in which a moving direction is determined by extracting a feature point in the case where the background density is reversed, using a one-dimensional signal. FIG. 10 is a diagram showing an example of using a conventional optical flow. FIG. 11 is an explanatory diagram showing a density signal and an optical flow corresponding to the line I-I of FIG. (10), (11) ... image, (12) ... optical flow calculation means, (13) ... normalization means, (14) ... flow pattern extraction means, (15) ... feature point extraction means, (16)
... Moving object detection means, (22) optical flow, (23) spatial density gradient, (24) temporal density gradient. In the drawings, the same reference numerals indicate the same or corresponding parts.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G01P 13/00 G01P 5/20──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 6 , DB name) G01P 13/00 G01P 5/20

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】時間的に異なる2枚の画像からこの画像上
での速度分布を示す大きさと方向を有するオプティカル
フローを求めるオプティカルフロー演算手段、このオプ
ティカルフロー演算手段による得られたオプティカルフ
ローの大きさを正規化し、あらかじめ設定した値以上の
大きさをもつオプティカルフローの方向を出力する正規
化手段、この正規化手段により得られるオプティカルフ
ローの方向から上記画像を構成する画素ごとにその画素
の近傍におけるオプティカルフローのパターンを抽出す
るフローパターン抽出手段、このフローパターン抽出手
段で得られたフローパターンに基きフローの向きが近傍
から集中している収縮点及びフローの向きが近傍へ広が
っている拡散点を判定する特徴点抽出手段、並びにこの
特徴点抽出手段により抽出された特徴点から物体の移動
情報を検出する移動物体検出手段を備えた移動物体検出
装置。
1. An optical flow calculating means for obtaining an optical flow having a magnitude and a direction indicating a velocity distribution on two images which are temporally different from each other, and the size of the optical flow obtained by the optical flow calculating means. Normalizing means for outputting the direction of an optical flow having a magnitude equal to or larger than a predetermined value, and for each pixel constituting the image from the direction of the optical flow obtained by the normalizing means, the vicinity of the pixel Flow pattern extraction means for extracting the optical flow pattern in the above, a contraction point where the flow direction is concentrated from the vicinity based on the flow pattern obtained by the flow pattern extraction means, and a diffusion point where the flow direction is spread to the vicinity Feature point extracting means for determining Moving object detection apparatus provided with a moving object detection means for detecting an object moving information from the extracted feature point Ri.
JP2040071A 1990-02-21 1990-02-21 Moving object detection device Expired - Fee Related JP2864620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2040071A JP2864620B2 (en) 1990-02-21 1990-02-21 Moving object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2040071A JP2864620B2 (en) 1990-02-21 1990-02-21 Moving object detection device

Publications (2)

Publication Number Publication Date
JPH03243862A JPH03243862A (en) 1991-10-30
JP2864620B2 true JP2864620B2 (en) 1999-03-03

Family

ID=12570700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2040071A Expired - Fee Related JP2864620B2 (en) 1990-02-21 1990-02-21 Moving object detection device

Country Status (1)

Country Link
JP (1) JP2864620B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6125050A (en) * 1984-07-13 1986-02-03 Matsushita Electric Works Ltd Biosensor

Also Published As

Publication number Publication date
JPH03243862A (en) 1991-10-30

Similar Documents

Publication Publication Date Title
US4573191A (en) Stereoscopic vision system
JP3164121B2 (en) Motion vector detection device
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
TW201300734A (en) Video object localization method using multiple cameras
CN111524091B (en) Information processing apparatus, information processing method, and storage medium
JP3577875B2 (en) Moving object extraction device
Funde et al. Object detection and tracking approaches for video surveillance over camera network
EP0586708B1 (en) Image processor and method therefor
JP2864620B2 (en) Moving object detection device
JPH07287764A (en) Stereoscopic method and solid recognition device using the method
Sincan et al. Moving object detection by a mounted moving camera
JP3364771B2 (en) Moving object detection device
JP3631541B2 (en) Object tracking method using stereo images
JP2807137B2 (en) 3D shape detection method
US6741652B1 (en) Movement vector detecting device
JPH0875454A (en) Range finding device
JP4825350B2 (en) Passing object counting device and counting method
KR100269784B1 (en) Method for detecting shaded region in image
JP2001209804A (en) Dynamic image processor and dynamic image processing method
JP3234300B2 (en) Video shooting status detection method
Ivanov et al. Specific features of operation of fallen person detection algorithms based on a sequence of scene images
JP2001126183A (en) Device for detecting traffic flow
Hossain et al. A novel accuracy assessment model for video stabilization approaches based on background motion
JPH04328689A (en) Method for extracting mobile object from moving image
JP3482717B2 (en) Image target detection device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees