JP2005209155A - Motion detector and motion detection method - Google Patents

Motion detector and motion detection method Download PDF

Info

Publication number
JP2005209155A
JP2005209155A JP2004278250A JP2004278250A JP2005209155A JP 2005209155 A JP2005209155 A JP 2005209155A JP 2004278250 A JP2004278250 A JP 2004278250A JP 2004278250 A JP2004278250 A JP 2004278250A JP 2005209155 A JP2005209155 A JP 2005209155A
Authority
JP
Japan
Prior art keywords
feature
edge
region
mask
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004278250A
Other languages
Japanese (ja)
Other versions
JP4079136B2 (en
Inventor
Shogo Watanabe
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004278250A priority Critical patent/JP4079136B2/en
Priority to US11/146,041 priority patent/US7602946B2/en
Priority to EP05012461A priority patent/EP1640916B1/en
Priority to DE602005007131T priority patent/DE602005007131D1/en
Publication of JP2005209155A publication Critical patent/JP2005209155A/en
Application granted granted Critical
Publication of JP4079136B2 publication Critical patent/JP4079136B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily calculate travel speed, travel direction and position of a featured area by detecting motion of the feature area such as a contour of an object, etc. in continuous images. <P>SOLUTION: A featured area is standardized by extracting the feature area such as an edge from an image picked up by an image pickup part 1 by a feature extraction part 2 and by standardizing edge width by a featured standardization part 3. Count values of a location where the feature area is detected are counted up in a voting part 4, inclination of the counted up count values is calculated in a travel speed detection part 5 and the travel direction, the travel speed and the location of the feature area are calculated based on the inclination of the count values. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、連続する画像に含まれる対象物を検出して、当該対象物の移動速度、移動方向及び位置等を検出する動き検出装置及び動き検出方法に関する。   The present invention relates to a motion detection apparatus and a motion detection method for detecting a target object included in continuous images and detecting a moving speed, a moving direction, a position, and the like of the target object.

近年、例えば車両に搭載される場合には、車両走行時における前方車両や車両前方の道路等を認識する目的で、種々の周辺監視装置が提案され、実用に供されている(例えば、下記の特許文献1の特開2003−67752号公報に開示の車両周辺監視装置など)。このような周辺監視装置は、カメラによって撮像された動画像に画像処理を施して周辺の変化を認識するものであるが、動画像処理技術の一手法として、オプティカルフロー(optical flow;カメラの観測者と移動物体との相対的な動きによって生じる画像上の各点の速度場のことをいう)による解析手法が知られている。   In recent years, for example, when mounted on a vehicle, various peripheral monitoring devices have been proposed and put into practical use for the purpose of recognizing a forward vehicle or a road ahead of the vehicle when the vehicle is traveling (for example, the following) (A vehicle periphery monitoring device disclosed in Japanese Patent Laid-Open No. 2003-67752 of Patent Document 1). Such a peripheral monitoring device recognizes changes in the periphery by performing image processing on a moving image captured by a camera. As one method of moving image processing technology, optical flow (camera observation) is used. An analysis method based on a velocity field of each point on an image generated by relative movement between a person and a moving object is known.

画像中より移動速度成分を検出する従来のオプティカルフローの検出方法としては、フレーム間で対応点を決定して動きベクトルを求める相関法や、各点の明るさの空間的および時間的な勾配の間の関係を用いる勾配法等の手法が一般的に用いられている。   As a conventional optical flow detection method for detecting a moving speed component from an image, a correlation method for determining a motion vector by determining a corresponding point between frames, a spatial and temporal gradient of brightness of each point, or the like. A method such as a gradient method using a relationship between the two is generally used.

まず、相関法は、画像を小領域に分割し、連続する画像中より、これとよく似た領域を見つけるブロック間マッチングを用いる手法である。相関法では、時刻tにおける注目領域I(x,y,t)と連続するフレームで対応する領域I(t+1,x+u,y+v)において、
ΣΣ{I(x,y,t)−I(x+u,y+v,t+1)}
ΣΣ|I(x,y,t)−I(x+u,y+v,t+1)|
を最小化する(u,v)を求める。この(u,v)が連続するフレーム間での対象の移動量となる。
First, the correlation method is a method that uses block-to-block matching that divides an image into small regions and finds a region similar to this from successive images. In the correlation method, in a region I (t + 1, x + u, y + v) corresponding to a region continuous with the region of interest I (x, y, t) at time t,
ΣΣ {I (x, y, t) −I (x + u, y + v, t + 1)} 2
ΣΣ | I (x, y, t) -I (x + u, y + v, t + 1) |
(U, v) that minimizes. This (u, v) is the amount of movement of the object between consecutive frames.

次に、勾配法は、各画素における明るさの空間的勾配と時間的勾配の間の関係を用いる。ある時刻tにおける座標(x,y)における明るさをf(x,y,t)とすると、xおよびy方向にδx,δyだけ移動する時間δt後のパターン上の点(x,y)の明るさは変化しないと仮定する。このとき、次式が成り立つ。   The gradient method then uses the relationship between the spatial and temporal gradients of brightness at each pixel. Assuming that the brightness at the coordinates (x, y) at a certain time t is f (x, y, t), the point (x, y) on the pattern after the time δt moved by δx, δy in the x and y directions. Assume that the brightness does not change. At this time, the following equation holds.

f(x,y,t)=f(x+δx,y+δy,t+δt)
上式をテイラー展開し、δt→0とすることで、
δf/δx・dx/dt+δf/δy・dy/dt+δf/δt=0
を得る。この動きベクトルの勾配条件だけでは動きベクトル(dx/dt,dy/dt)を決定することはできないので、勾配条件に、さらに制約条件を加えて動きベクトルを算出する。加える制約条件としては、動きベクトルが空間的に滑らかに変化する条件等が一般的には用いられている。
f (x, y, t) = f (x + δx, y + δy, t + δt)
Taylor expansion of the above equation and δt → 0,
δf / δx · dx / dt + δf / δy · dy / dt + δf / δt = 0
Get. Since the motion vector (dx / dt, dy / dt) cannot be determined only by the gradient condition of the motion vector, a motion vector is calculated by further adding a constraint condition to the gradient condition. As a constraint condition to be added, a condition in which a motion vector changes smoothly in space is generally used.

また、対象物の動きを検出する他の技術としては、下記の特許文献2に記載された動画像処理装置が知られている。この動画像処理装置は、画像入力部でシーンの時系列画像を取り込み、フロー検出部で動画像系列のある適当な基準画像画像と現在の画像との間の各画素のフローベクトルを検出する。そして、フロー検証部により、各画素毎のフローベクトルの信頼性を評価し、信頼性の高い場合には、当該フローベクトルについて速度決定部において画素移動量が一定量に達する移動時間を計測し、移動速度を出力している。
特開2003−67752号公報 特開2001−209804号公報
As another technique for detecting the movement of an object, a moving image processing apparatus described in Patent Document 2 below is known. In this moving image processing apparatus, a time series image of a scene is captured by an image input unit, and a flow vector of each pixel between an appropriate reference image image having a moving image sequence and a current image is detected by a flow detection unit. Then, the flow verification unit evaluates the reliability of the flow vector for each pixel, and when the reliability is high, measures the movement time when the pixel movement amount reaches a certain amount in the speed determination unit for the flow vector, The moving speed is output.
Japanese Patent Laid-Open No. 2003-67752 JP 2001-209804 A

しかしながら、上述した相関法においては、処理手順は比較的簡単であるが、注目する領域の周りに相関値を算出する領域を設け、フレーム間で、領域内輝度の相関値を計算するため、テンプレートマッチングのようなブロックマッチング処理が必要となり、計算量が膨大となって処理時間が長くなるという問題点がある。すなわち、ブロックマッチングを用いた手法において、サブピクセル以下の画素群を使用することによって、詳細な位置情報を算出するには、登録したテンプレートである画素群データを、注目位置を中心に、その周囲に所定量だけずらしながら算出した複数の相関値を高次曲線で補間し、その極値を与える位置を算出することによって動きを推定するために、計算量が膨大となってしまう。   However, in the above-described correlation method, the processing procedure is relatively simple. However, since a region for calculating a correlation value is provided around the region of interest, and a correlation value of in-region luminance is calculated between frames, a template is used. There is a problem that block matching processing such as matching is required, the calculation amount is enormous, and the processing time becomes long. That is, in the technique using block matching, in order to calculate detailed position information by using a pixel group of sub-pixels or less, pixel group data that is a registered template is centered on the target position and its surroundings. Since a plurality of correlation values calculated while being shifted by a predetermined amount are interpolated with a high-order curve and the motion is estimated by calculating the position where the extreme value is given, the calculation amount becomes enormous.

また、勾配法においては、画像の輝度変化に弱く、処理手順が複雑であるという問題点がある。   In addition, the gradient method has a problem that it is weak against changes in luminance of the image and the processing procedure is complicated.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、より少ないデータ量で且つ比較的簡単な処理手順を用いることで、画像中からの移動速度成分の検出をより高速に処理し得る動き検出装置及び動き検出方法を提供することにある。   The present invention has been made to solve such a conventional problem. The object of the present invention is to move from within an image by using a relatively simple processing procedure with a smaller amount of data. An object of the present invention is to provide a motion detection apparatus and a motion detection method that can process detection of velocity components at higher speed.

上記目的を解決するため、本発明は、周辺画像を撮像する撮像手段と、前記撮像手段により撮像された画像中より速度算出を行う領域の特徴領域を抽出する特徴抽出手段と、前記特徴抽出手段により抽出された特徴領域の大きさを規格化する特徴領域規格化手段と、前記特徴領域規格化手段により規格化された特徴領域情報に基づき、特徴領域が検出されていない領域をその特徴領域のマスク領域として設定するマスク生成手段と、前記マスク領域の位置のカウント値をリセットし、前記マスク領域によりマスクされていない非マスク領域の位置のカウント値をカウントアップする投票手段と、連続するフレームに渡って蓄積されたカウント値の傾きより、その特徴領域の移動方向及び移動速度を算出する移動速度検出手段と、を備えることを特徴とする。   In order to solve the above-described object, the present invention provides an imaging unit that captures a peripheral image, a feature extraction unit that extracts a feature region of a region for speed calculation from an image captured by the imaging unit, and the feature extraction unit A feature region normalization unit that normalizes the size of the feature region extracted by the feature region, and a feature region that has not been detected based on the feature region information normalized by the feature region normalization unit. A mask generating means for setting as a mask area, a voting means for resetting the count value of the position of the mask area and counting up the count value of the position of the non-mask area not masked by the mask area, and a continuous frame A moving speed detecting means for calculating the moving direction and moving speed of the feature area from the gradient of the count value accumulated over And it features.

本発明に係る動き検出装置では、撮像手段(撮像ステップ)により撮像された画像について、特徴抽出手段(特徴抽出ステップ)により特徴領域を抽出し、その特徴領域をエ特徴領域規格化手段(特徴領域規格化ステップ)により規格化し、マスク生成手段(マスク生成ステップ)により、規格化された特徴領域情報に基づき特徴領域が検出されていない領域をその特徴領域のマスク領域として設定し、投票手段(投票ステップ)により、該マスク領域の位置のカウント値をリセットすると共に、該マスク領域によりマスクされていない非マスク領域の位置のカウント値をカウントアップし、移動速度検出手段(移動速度検出ステップ)により、連続するフレームに渡って蓄積されたカウント値の傾きに基づき、その特徴領域の移動方向、速度を算出するので、カウント値は特徴領域が観測された時間計測をしていることと等価であり、該カウント値の勾配から特徴領域が所定画素数移動するのに要するフレーム数を計測して、そのエッジの移動方向、速度および加速度をテンプレートマッチングのようなブロックマッチングを用いることなく容易に求めることができる。また、非マスク領域の位置に基づいてのみ算出処理を行うので、より少ないデータ量に対して比較的簡単な手順で処理でき、画像中からの移動速度成分の検出をより高速に処理することができる。   In the motion detection apparatus according to the present invention, a feature region is extracted by the feature extraction unit (feature extraction step) from the image captured by the imaging unit (imaging step), and the feature region is extracted from the feature region normalization unit (feature region). Normalization step), and a mask generation unit (mask generation step) sets a region where no feature region is detected based on the standardized feature region information as a mask region of the feature region. Step) resets the count value of the position of the mask area, and counts up the count value of the position of the non-mask area that is not masked by the mask area, and the movement speed detection means (movement speed detection step) Based on the slope of the count value accumulated over successive frames, the moving direction and speed of the feature area Therefore, the count value is equivalent to the time measurement when the feature region is observed, and the number of frames required for the feature region to move a predetermined number of pixels is measured from the gradient of the count value, The edge moving direction, speed, and acceleration can be easily obtained without using block matching such as template matching. In addition, since the calculation process is performed only based on the position of the non-mask area, it can be processed with a relatively simple procedure for a smaller amount of data, and the detection of the moving speed component from the image can be performed at a higher speed. it can.

以下、本発明の第1実施形態〜第3実施形態について図面を参照して説明する。   Hereinafter, first to third embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
本発明は、例えば図1に示すように構成された動き検出装置に適用される。
[First Embodiment]
The present invention is applied to, for example, a motion detection apparatus configured as shown in FIG.

[動き検出装置の構成]
この動き検出装置は、例えば車両に搭載され、車両周囲を撮像して取得した連続する画像において対象物の特徴点又は領域(以下、特徴領域と呼ぶ)が与えられた時に、対象物を示す特徴領域の動きを検出するものである。
[Configuration of Motion Detection Device]
This motion detection device is mounted on a vehicle, for example, and a feature indicating an object when a feature point or region (hereinafter referred to as a feature region) of the object is given in a continuous image obtained by imaging around the vehicle. It detects the movement of the area.

この動き検出装置は、図1に示すように、撮像部1、特徴抽出部2、特徴規格化部3、投票部4、移動速度検出部5を備えて構成されている。   As shown in FIG. 1, the motion detection apparatus includes an imaging unit 1, a feature extraction unit 2, a feature normalization unit 3, a voting unit 4, and a moving speed detection unit 5.

撮像部1は、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の撮像素子によって構成され、画像を撮像してその画像を一定間隔毎にフレームとして取り出して連続処理を行う。このとき、観測対象となる対象物の現象(移動速度)よりも十分に高いフレームレートでフレーム画像を取得する。   The imaging unit 1 is configured by an imaging device such as a CMOS (Complementary Metal-Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor. The imaging unit 1 captures an image, extracts the image as a frame at regular intervals, and performs continuous processing. I do. At this time, a frame image is acquired at a frame rate sufficiently higher than the phenomenon (movement speed) of the object to be observed.

特徴抽出部2は、動き検出対象となる対象物を含む画像データを撮像部1から入力し、当該画像データに画像処理を施すことによって、対象物の特徴量又は特徴領域を抽出する。この特徴点又は特徴領域を抽出するに際して、特徴抽出部2は、エッジ検出フィルタ、コーナーエッジ検出フィルタ、又は、特徴ベクトル算出フィルタを使用する。なお、この特徴抽出部2の処理内容については後述する。   The feature extraction unit 2 inputs image data including an object to be a motion detection target from the imaging unit 1, and performs image processing on the image data to extract a feature amount or a feature region of the object. When extracting this feature point or feature region, the feature extraction unit 2 uses an edge detection filter, a corner edge detection filter, or a feature vector calculation filter. The processing content of the feature extraction unit 2 will be described later.

特徴規格化部3は、特徴抽出部2により抽出された特徴領域より代表点を規定し、代表点を基準に、所定のパターンを形成することにより、特徴の大きさを規格化する。すなわち、特徴規格化部3は、特徴抽出部2により得られた特徴領域を含む所定の位置に、規格化されたパターンを設定する。これにより、特徴規格化部3は、特徴抽出部2によって検出された特徴領域を所定の大きさに規格化する。   The feature normalization unit 3 standardizes the feature size by defining a representative point from the feature region extracted by the feature extraction unit 2 and forming a predetermined pattern based on the representative point. That is, the feature normalization unit 3 sets a standardized pattern at a predetermined position including the feature region obtained by the feature extraction unit 2. Thereby, the feature normalization unit 3 normalizes the feature region detected by the feature extraction unit 2 to a predetermined size.

投票部4は、特徴規格化部3により設定された規格化パターンが検出された位置(非マスク領域)に対応するメモリアドレスのカウント値をカウントアップする処理、又は、規格化パターンが検出されてなかった位置(マスク領域)に対応するメモリアドレスのカウント値をリセットする処理の何れかの処理である投票処理を行う。これにより、投票部4は、現在処理対象となっているフレームにおいて、規格化パターン、すなわち抽出された特徴が、何フレーム連続して同じ位置に検出されたかという情報を記憶する。   The voting unit 4 counts up the count value of the memory address corresponding to the position (non-mask area) where the standardized pattern set by the feature standardizing unit 3 is detected, or the standardized pattern is detected. A voting process, which is one of the processes for resetting the count value of the memory address corresponding to the position (mask area) that did not exist, is performed. As a result, the voting unit 4 stores information on how many frames the extracted feature has been detected at the same position in the frame currently being processed.

移動速度検出部5は、投票手段14に記憶されたカウント値と、当該カウント値の複数の位置に亘る勾配に基づき、抽出された特徴領域の移動速度及び移動方向を算出する。   The moving speed detection unit 5 calculates the moving speed and moving direction of the extracted feature region based on the count value stored in the voting unit 14 and the gradient over the plurality of positions of the count value.

このように構成された動き検出装置は、その処理の概略図を図2に示すように、先ず撮像部1により、対象物である他車両11を含む画像P1を取得すると、特徴抽出部2により、画像P1から他車両11を示す特徴領域12を抽出した特徴画像P2を作成し、当該特徴領域12を規格化して規格化パターン13を設定する。このとき、特徴規格化部3は、特徴領域12の大きさを規格化することによって、当該特徴領域12を含む位置に規格化された規格化パターン13を画像P3内に設定する。そして、動き検出装置では、連続するフレームに亘って、撮像部1、特徴抽出部2及び特徴規格化部3を動作させることにより、投票部4により、同一の規格化パターン13の検出回数を示すカウント値をカウントすることによって、同一画像内位置に含まれる複数のカウント値14を得る。   As shown in the schematic diagram of the process in FIG. 2, the motion detection apparatus configured as described above first acquires an image P <b> 1 including the other vehicle 11, which is an object, by the imaging unit 1. Then, a feature image P2 obtained by extracting the feature region 12 indicating the other vehicle 11 from the image P1 is created, the feature region 12 is normalized, and a normalized pattern 13 is set. At this time, the feature normalization unit 3 normalizes the size of the feature region 12, thereby setting a normalized pattern 13 normalized at a position including the feature region 12 in the image P3. In the motion detection device, the voting unit 4 indicates the number of detections of the same standardized pattern 13 by operating the imaging unit 1, the feature extraction unit 2, and the feature normalization unit 3 over successive frames. By counting the count value, a plurality of count values 14 included in the same image position are obtained.

つぎに、上述した動き検出装置における特徴抽出処理及び特徴規格化処理について説明する。   Next, feature extraction processing and feature normalization processing in the motion detection apparatus described above will be described.

(1)エッジ検出フィルタを用いる場合
先ず、特徴抽出部2によりエッジ検出フィルタを使用して特徴を検出する場合について説明する。
(1) When using an edge detection filter First, the case where the feature extraction part 2 detects a feature using an edge detection filter is demonstrated.

特徴抽出部2は、特徴としてエッジ情報を用いる場合は、Sobelフィルタや、Prewittフィルタなどの、濃淡画像のうち、複雑な部分や急激に輝度が変更する部分であるエッジを抽出するフィルタを用いる。これにより、特徴抽出部2は、特徴であるエッジとして認識された画素と、エッジとして認識されない画素とからなるエッジ画像を作成する。   When the edge information is used as a feature, the feature extraction unit 2 uses a filter that extracts an edge that is a complex portion or a portion whose luminance changes abruptly from a grayscale image, such as a Sobel filter or a Prewitt filter. As a result, the feature extraction unit 2 creates an edge image composed of pixels recognized as edges that are features and pixels that are not recognized as edges.

このような特徴抽出部2からエッジ情報が送られる特徴規格化部3は、図3に示すように、2値化部21、細線化部22、膨張部23及びピーク位置検出部24を備えて構成される。このような特徴規格化部3は、特徴領域の大きさを規格化する処理として、エッジ幅を規格化する。   The feature normalization unit 3 to which edge information is sent from the feature extraction unit 2 includes a binarization unit 21, a thinning unit 22, an expansion unit 23, and a peak position detection unit 24, as shown in FIG. Composed. Such a feature normalization unit 3 normalizes the edge width as a process for normalizing the size of the feature region.

すなわち、特徴規格化部3は、2値化部21により特徴抽出部2からのエッジ画像を取得すると、エッジ画像を値が「0」と「1」からなる2値化画像とする2値化処理を行い、2値化後の値が「1」(アクティブ)なエッジに対して、細線化手段22により細線化処理を、エッジ幅が所定画素数になるまで繰返し行い、検出された全てのエッジ幅を所定画素数(1画素)に統一する。そして、膨張部23では、エッジ幅が(1画素に)統一されたエッジを必要に応じた所定画素数(例えば3画素)まで膨張させている。   That is, when the feature normalization unit 3 acquires the edge image from the feature extraction unit 2 by the binarization unit 21, the binarization is performed by converting the edge image into a binarized image having values “0” and “1”. The thinning process is repeatedly performed by the thinning unit 22 on the edge whose binarized value is “1” (active) until the edge width reaches the predetermined number of pixels, and all detected detected values are processed. The edge width is unified to a predetermined number of pixels (one pixel). The expansion unit 23 expands an edge whose edge width is unified (to 1 pixel) to a predetermined number of pixels (for example, 3 pixels) as necessary.

これらの2値化処理、細線化処理及び膨張処理により、特徴抽出部2で抽出されたエッジ画像は、エッジ幅が所定値(3画素)に統一された2値の正規化エッジ画像として生成されることになる。なお、エッジ幅を統一するにあたり、特徴規格化部3のピーク位置検出部24では、特徴抽出部2から出力されるエッジ画像のエッジピーク位置を検出し、そのエッジピーク位置に所定画素数の幅を持たせた2値画像を生成することでエッジ幅を規格化しても良い。   By these binarization processing, thinning processing, and expansion processing, the edge image extracted by the feature extraction unit 2 is generated as a binary normalized edge image in which the edge width is unified to a predetermined value (3 pixels). Will be. In order to unify the edge width, the peak position detection unit 24 of the feature normalization unit 3 detects the edge peak position of the edge image output from the feature extraction unit 2, and a width of a predetermined number of pixels at the edge peak position. Alternatively, the edge width may be normalized by generating a binary image having the.

これにより、特徴規格化部3は、2値化部21、細線化部22及び膨張部23による処理による処理を行うことにより、特徴領域の大きさを規格化することができ、当該規格化された特徴領域の画像内位置を示す情報を投票部4に送る。   Thereby, the feature normalization unit 3 can normalize the size of the feature region by performing processing by the binarization unit 21, the thinning unit 22, and the expansion unit 23. Information indicating the position of the feature area in the image is sent to the voting unit 4.

(2)コーナーエッジ検出フィルタを用いる場合
つぎに、特徴抽出部2によりコーナーエッジ検出フィルタを使用して特徴を検出する場合について説明する。
(2) When using a corner edge detection filter Next, the case where the feature extraction unit 2 detects a feature using a corner edge detection filter will be described.

ここで、画像内のエッジ成分は、通常、対象物の輪郭又は一部の複雑な部分に相当する画像位置に現れる。これに対し、特徴抽出部2は、コーナーエッジ検出フィルタを使用することにより、対象物の輪郭のうち、当該輪郭が折れ曲がる角部を検出する。   Here, the edge component in the image usually appears at the image position corresponding to the contour of the object or a part of the complex part. On the other hand, the feature extraction unit 2 uses a corner edge detection filter to detect a corner where the contour is bent from the contour of the object.

このコーナーエッジ検出フィルタとしては、例えばSUSANオペレータが使用可能である。このSUSANオペレータを使用することにより、特徴抽出部2は、注目画素を中心とした所定領域中に含まれる画素のうち、注目画素の濃度値に近い濃度値を有する画素を検出し、当該検出した画像が所定領域に占める割合に基づいて、対象物のコーナーエッジを検出する。これにより、特徴抽出部2は、図4に示すように、対象物を含む入力画像P11の特徴領域(点)として、当該対象物のコーナーエッジ(a)、(b)、(c)を検出する。   As this corner edge detection filter, for example, a SUSAN operator can be used. By using this SUSAN operator, the feature extraction unit 2 detects a pixel having a density value close to the density value of the target pixel from among pixels included in a predetermined area centered on the target pixel, and detects the detected pixel. A corner edge of the object is detected based on the ratio of the image to the predetermined area. As a result, the feature extraction unit 2 detects the corner edges (a), (b), and (c) of the target object as the feature regions (points) of the input image P11 including the target object, as shown in FIG. To do.

これに対し、特徴規格化部3は、特徴抽出部2により検出されたコーナーエッジの位置を基準に、当該コーナーエッジの動きを計測する規格化パターンを設定する。このとき、特徴規格化部3は、図4において、入力画像P11が入力され、特徴抽出部2で検出されたコーナーエッジ(a)〜(c)の位置に相当する位置に、同一の大きさからなる規格化パターン(a’)〜(c’)を設定する。これによって、特徴領域の大きさを同一にする規格化を行うことができ、当該規格化された特徴領域の画像内位置を示す情報を投票部4に送る。   On the other hand, the feature normalization unit 3 sets a normalization pattern for measuring the movement of the corner edge with reference to the position of the corner edge detected by the feature extraction unit 2. At this time, the feature normalization unit 3 receives the input image P11 in FIG. 4 and has the same size at positions corresponding to the positions of the corner edges (a) to (c) detected by the feature extraction unit 2. Normalization patterns (a ′) to (c ′) consisting of are set. As a result, normalization can be performed so that the size of the feature region is the same, and information indicating the position in the image of the normalized feature region is sent to the voting unit 4.

(3)特徴ベクトル算出フィルタを用いる場合
つぎに、特徴抽出部2により特徴ベクトル算出フィルタを使用して特徴を検出する場合について説明する。
(3) Case of Using Feature Vector Calculation Filter Next, a case will be described in which features are detected by the feature extraction unit 2 using the feature vector calculation filter.

特徴抽出部2は、入力画像から対象物の特徴を示す特徴ベクトルを生成するに際して、例えば、エッジの特徴を用いた高次局所自己相関関数等を使用した演算を行う。このように、高次局所自己相関関数によってエッジ特徴を抽出することにより、入力画像内に含まれる対象物(物体)の位置に関して不変な特徴抽出が行えると共に、特徴ベクトルの次元数が低い特徴を得ることができる。なお、特徴ベクトルとしては、高次局所自己相関関数に限らず、輝度情報、パターン情報等を用いても良い。   When the feature extraction unit 2 generates a feature vector indicating the feature of the object from the input image, for example, the feature extraction unit 2 performs an operation using a higher-order local autocorrelation function using the feature of the edge. In this way, by extracting edge features using a higher-order local autocorrelation function, invariant feature extraction can be performed with respect to the position of an object (object) included in the input image, and features with a low dimensionality of feature vectors Can be obtained. Note that the feature vector is not limited to the higher-order local autocorrelation function, and luminance information, pattern information, and the like may be used.

そして、特徴規格化部3は、特徴ベクトルの検出位置に対応した画像内での特徴領域の位置を基準に、規格化パターンを設定する。このとき、特徴規格化部3は、上述したエッジ検出フィルタを使用した場合や、コーナーエッジ検出フィルタを使用した場合と同様の処理を行うことになる。   Then, the feature normalization unit 3 sets a normalization pattern based on the position of the feature region in the image corresponding to the feature vector detection position. At this time, the feature normalization unit 3 performs the same processing as when the above-described edge detection filter is used or when the corner edge detection filter is used.

つぎに、上述した動き検出装置により、特徴領域の移動速度及び方向を求めることによって、対象物の移動速度及び方向を求める処理について図5等を参照して説明する。なお、この説明では、簡単のために、x軸のみの1次元方向に特徴領域が移動し、規格化パターンを、検出された特徴領域を中心に3×3の9領域に設定されるものとして説明する。また、投票部4によるカウントアップは+1づつされるものとして説明する。   Next, a process for obtaining the moving speed and direction of the target object by obtaining the moving speed and direction of the feature region by the motion detection apparatus described above will be described with reference to FIG. In this description, for the sake of simplicity, it is assumed that the feature region moves in the one-dimensional direction of only the x-axis, and the normalized pattern is set to 9 regions of 3 × 3 centering on the detected feature region. explain. In addition, the count up by the voting unit 4 is described as being incremented by +1.

先ず、時刻tで取得された入力画像を入力すると(ステップS1)、当該入力画像を用いて、特徴抽出部2により特徴抽出を行い(ステップS2)、図6中網掛けで示す特徴領域(本例では1画素)が検出されると(図6(a−1))、特徴規格化部3により二値化を行い細線化部22及び膨張部23により、特徴領域を中心とした例えば3画素×3画素からなる規格化パターンを設定する(図6(b−1)、ステップS3)。   First, when an input image acquired at time t is input (step S1), feature extraction is performed by the feature extraction unit 2 using the input image (step S2), and a feature region indicated by shading in FIG. If one pixel in the example is detected (FIG. 6 (a-1)), binarization is performed by the feature normalization unit 3 and, for example, three pixels centered on the feature region by the thinning unit 22 and the expansion unit 23 A standardized pattern consisting of x3 pixels is set (FIG. 6 (b-1), step S3).

そして、特徴領域の中心位置xを中心として隣接する領域位置x−1、x+1の投票値(カウント値)をカウントアップし(ステップS4)、時刻tにおいて図6(c−1)に示すように投票値がカウントされており、次の時刻t+1のフレームにおいても領域位置x+1に規格化された特徴領域が観測された場合、当該領域位置の投票値をさらにカウントアップしていき、特徴領域が観測された以外の位置の投票値をリセットする。 Then, the center position area position x-1 and x 0 are adjacent the center, x + 1 of the vote value in the characteristic region (count value) is counted up (step S4), and as shown in FIG. 6 (c-1) at time t In the next frame at time t + 1, a feature region normalized to the region position x + 1 is observed, and the vote value at the region position is further counted up. Reset voting values at locations other than those observed.

次に、時刻t以降の時刻t+mにおいて、特徴抽出部2により特徴領域が検出され(図6(a−2))、細線化部22及び膨張部23によって規格化パターンが設定された場合に(図6(b−2))、時刻tと比較して特徴領域がX軸正方向に1画素シフトして位置x+1に観測されると、当該規格化パターンが設定された領域位置x、x+1、x+2の投票値をカウントアップし、規格化パターンが設定されていない位置での投票値、すなわち以前の領域位置x−1での投票値をリセットする(図6(c−3))。   Next, at time t + m after time t, a feature region is detected by the feature extraction unit 2 (FIG. 6 (a-2)), and when a normalization pattern is set by the thinning unit 22 and the expansion unit 23 ( 6 (b-2)), when the characteristic region is shifted by one pixel in the positive direction of the X axis compared with the time t and observed at the position x + 1, the region position x, x + 1, where the normalization pattern is set The vote value of x + 2 is counted up, and the vote value at the position where the normalization pattern is not set, that is, the vote value at the previous area position x−1 is reset (FIG. 6 (c-3)).

同様に、時刻t+m以降の時刻t+nにおいても、特徴抽出部2により特徴領域が検出され(図6(a−3))、細線化部22及び膨張部23によって規格化パターンが設定された場合に(図6(b−3))、時刻t+nと比較して特徴領域がX軸正方向に1画素シフトして位置x+2に観測されると、当該規格化パターンが設定された領域位置x+1、x+2、x+3の投票値をカウントアップし、規格化パターンが設定されていない位置での投票値、すなわち以前の領域位置xでの投票値をリセットする(図6(c−3))。   Similarly, at time t + n after time t + m, a feature region is detected by the feature extraction unit 2 (FIG. 6 (a-3)), and a standardized pattern is set by the thinning unit 22 and the expansion unit 23. (FIG. 6 (b-3)) When the characteristic region is shifted by one pixel in the positive direction of the X axis and observed at the position x + 2 compared to the time t + n, the region positions x + 1 and x + 2 where the normalized pattern is set. , X + 3, and the voting value at the position where the standardization pattern is not set, that is, the voting value at the previous region position x is reset (FIG. 6 (c-3)).

このように特徴抽出部2及び2値化部21による特徴抽出、細線化部22及び膨張部23による特徴の規格化及び投票部4による投票処理を繰り返す処理において、投票値をリセットする処理(ステップS5)は、図7に示すように、例えば特徴としてエッジを用いた場合、時刻tでエッジ幅が規格化された規格化パターンとして、図7(a)のように得られ、図7(b)のように、投票の対象となる領域(非マスク領域、図中の白抜き部分)と、投票の対象とならない領域(マスク領域、図中の黒塗り部分)とが得られる。そして、時刻t−1で生成された投票値(図7(c))は、時刻tで設定された規格化パターンより生成される図7(b)により規格化パターンが検出された領域によってカウントアップされ、規格化パターンが検出されない領域はマスク処理、すなわちリセットされて新たな投票値(図7(f)となる。続く時刻t+1で得られた特徴領域についても同様に、規格化パターンを図7(d)のように得て、図7(e)のようにマスク領域及び非マスク領域を規定してカウントアップされ、当該図7(f)の投票値と図7(e)での投票値とが計算される。   In this process of repeating the feature extraction by the feature extraction unit 2 and the binarization unit 21, the normalization of the features by the thinning unit 22 and the expansion unit 23, and the voting process by the voting unit 4, the process of resetting the voting value (step As shown in FIG. 7, for example, when an edge is used as a feature, S5) is obtained as a normalized pattern in which the edge width is normalized at time t as shown in FIG. ), An area to be voted (non-mask area, white area in the figure) and an area not to be voted (mask area, black area in the figure) are obtained. Then, the vote value generated at time t-1 (FIG. 7C) is counted by the area where the normalized pattern is detected in FIG. 7B generated from the normalized pattern set at time t. The area where the normalized pattern is not detected is masked, that is, reset to a new vote value (FIG. 7F). Similarly, the normalized pattern is plotted for the feature area obtained at time t + 1. 7 (d) is obtained and counted up by defining the mask area and the non-mask area as shown in FIG. 7 (e), and the vote value in FIG. 7 (f) and the vote in FIG. 7 (e) are counted. A value is calculated.

次に、図6のように得られた投票値(カウント値)から、移動速度検出部5により、当該カウント値の勾配を求める(ステップS6)。このとき、移動速度検出部5は、3画素分の投票値を用いて、移動方向における投票値の傾きを検出し、当該傾きが特徴領域の移動速度の逆数となることから、特徴領域の移動速度を求める(ステップS7)。また、移動速度検出部5は、特徴領域の位置を、画素位置x+(最小の投票値h/最小の投票値と最大投票値との差H)なる演算を行って求める(ステップS7)。   Next, the gradient of the count value is obtained by the moving speed detection unit 5 from the vote value (count value) obtained as shown in FIG. 6 (step S6). At this time, the moving speed detection unit 5 detects the inclination of the voting value in the moving direction using the voting value for three pixels, and the inclination is the reciprocal of the moving speed of the characteristic area. The speed is obtained (step S7). Further, the moving speed detection unit 5 obtains the position of the feature region by performing a calculation of pixel position x + (minimum vote value h / difference H between the minimum vote value and the maximum vote value) (step S7).

このカウント値の勾配は、動き検出装置によって規格化パターンの領域位置をカウントする間隔によって決定される。特徴抽出部2により抽出された特徴領域が移動する速度に比べて、入力画像のフレームレートが実際の対象物の移動速度よりも十分高い場合には、連続するフレーム間で観測される特徴領域又は規格化パターンは必ず重複する領域を有する。このように、特徴領域が観測された位置に対応する投票値をカウントアップしていくことで、当該投票値は、特徴領域が同じ位置に観測されている時間と等価となる。   The gradient of the count value is determined by the interval at which the region position of the normalized pattern is counted by the motion detection device. When the frame rate of the input image is sufficiently higher than the moving speed of the actual object as compared with the moving speed of the characteristic area extracted by the characteristic extracting unit 2, the characteristic area observed between successive frames or Normalization patterns always have overlapping areas. In this way, by counting up the voting value corresponding to the position where the feature region is observed, the voting value becomes equivalent to the time when the feature region is observed at the same position.

これに対し、特徴領域が移動した場合は、新たに特徴領域が観測された位置の投票値が1となり、観測された特徴領域の中では最も小さな値となる。すなわち、特徴領域が移動する方向における投票値は小さく、また、特徴領域が移動する方向と反対方向の投票値は大きくなる。   On the other hand, when the feature region moves, the vote value at the position where the feature region is newly observed is 1, which is the smallest value among the observed feature regions. That is, the vote value in the direction in which the feature region moves is small, and the vote value in the direction opposite to the direction in which the feature region moves is large.

したがって、投票値の勾配は、特徴領域が移動するまでに、何フレーム連続して同じ位置で観測されたかを計数した値であり、移動速度検出部5は、投票値の勾配より、特徴領域の移動速度を算出することができる。   Therefore, the gradient of the voting value is a value obtained by counting how many frames are continuously observed at the same position before the feature region moves, and the moving speed detection unit 5 determines the feature region based on the gradient of the voting value. The moving speed can be calculated.

更に、入力画像のフレームレートが実際の対象物の移動速度よりも十分高い場合は、対象が等速移動をしていると仮定でき、図6の例では、特徴領域が4フレームで1画素づつ移動していると仮定すると、時刻t+1の時点では、2フレーム連続して観測されていることより、時刻t+1では、2フレーム/{4フレーム/1画素}=0.5画素だけ領域位置xからシフトしていると算出することができる。したがって、移動速度検出部5では、入力画像内の特徴の画像位置から例えば自車両に対する相対位置を求めることができ、更には、対象物の入力画像内の特徴のカウント値の勾配から対象物の移動速度を求めることができる。 Furthermore, when the frame rate of the input image is sufficiently higher than the actual moving speed of the target object, it can be assumed that the target is moving at a constant speed. In the example of FIG. Assuming that it is moving, since two frames are continuously observed at time t + 1, the region position x 0 is 2 frames / {4 frames / 1 pixel} = 0.5 pixels at time t + 1. It can be calculated that the shift has occurred. Therefore, the moving speed detection unit 5 can obtain, for example, a relative position with respect to the host vehicle from the image position of the feature in the input image, and further, the object speed can be determined from the gradient of the count value of the feature in the input image of the target. The moving speed can be obtained.

[第1実施形態の効果]
以上詳細に説明したように、本発明を適用した第1実施形態に係る動き検出装置によれば、対象物の移動速度に対する十分に早いレートで入力画像の特徴を求める処理等を行うことにより、簡単な処理で対象物の移動速度を検出することができる。すなわち、特徴の大きさを規格化することで統一し、特徴が検出された位置のカウント値をカウントアップし、特徴が検出されなかった位置のカウント値をリセットするので、得られれたカウント値から、特徴が観測された時間を求めることができ、特徴の位置変化、すなわちカウント値の勾配より、特徴が所定画素数移動するのに要するフレーム数を容易に計測することができる。したがって、この動き検出装置によれば、例えばテンプレートマッチングのようなブロックマッチングを用いることなく、カウント値の勾配から対象物の位置及び移動速度を求めることができる。
[Effect of the first embodiment]
As described above in detail, according to the motion detection device according to the first embodiment to which the present invention is applied, by performing the process of obtaining the characteristics of the input image at a sufficiently high rate with respect to the moving speed of the object, The moving speed of the object can be detected with a simple process. That is, by standardizing the size of the feature, the count value of the position where the feature is detected is counted up, and the count value of the position where the feature is not detected is reset, so from the obtained count value The time when the feature is observed can be obtained, and the number of frames required for the feature to move a predetermined number of pixels can be easily measured from the change in the position of the feature, that is, the gradient of the count value. Therefore, according to this motion detection device, the position and moving speed of the object can be obtained from the gradient of the count value without using block matching such as template matching.

また、この動き検出装置によれば、特徴抽出部2によりエッジ検出フィルタを用いて抽出されたエッジの幅を、特徴規格化部3により統一し、統一された幅を有するエッジの情報に基づき、投票部4により、エッジが検出された位置のカウント値をカウントアップし、エッジが検出されなかった位置のカウント値をリセットするので、カウント値をエッジが観測された時間計測をしていることと等価とし、移動速度検出部5により算出されるカウント値の勾配より、エッジが所定画素数移動するのに要するフレーム数を容易に計測することができる。   Further, according to this motion detection device, the width of the edge extracted by the feature extraction unit 2 using the edge detection filter is unified by the feature normalization unit 3, and based on the information of the edge having the unified width, Since the voting unit 4 counts up the count value at the position where the edge is detected and resets the count value at the position where the edge is not detected, the time value at which the edge is observed is measured. The number of frames required for the edge to move by a predetermined number of pixels can be easily measured from the gradient of the count value calculated by the moving speed detection unit 5 as equivalent.

更に、この動き検出装置によれば、特徴抽出部2によりコーナーエッジ検出フィルタを用いて抽出されたコーナーエッジの位置において、その検出点又は領域の大きさを特徴規格化部3により統一し、大きさが統一された領域情報に基づき、投票部4により、規格化パターンが検出された位置のカウント値をカウントアップし、規格化パターンが検出されなかった位置のカウント値をリセットするので、カウント値を規格化パターンが観測された時間計測をしていることと等価とし、移動速度検出部5により算出されるカウント値の勾配より、コーナーエッジが所定画素数移動するのに要するフレーム数を容易に計測することができる。   Furthermore, according to this motion detection device, the size of the detection point or region is unified by the feature normalization unit 3 at the corner edge position extracted by the feature extraction unit 2 using the corner edge detection filter, Since the voting unit 4 counts up the count value of the position where the standardized pattern is detected and resets the count value of the position where the standardized pattern is not detected based on the region information whose length is unified, the count value Is equivalent to measuring the time when the standardized pattern is observed, and the number of frames required for the corner edge to move a predetermined number of pixels can be easily determined from the gradient of the count value calculated by the moving speed detector 5. It can be measured.

更にまた、この動き検出装置によれば、特徴抽出部2により抽出された特徴ベクトルが検出された位置において、その検出位置又は領域の大きさを、特徴規格化部3により統一し、大きさが統一された領域情報に基づき、投票部4により、規格化パターンが検出された位置のカウント値をカウントアップし、規格化パターンが検出されなかった位置のカウント値をリセットするので、カウント値を特徴ベクトルが観測された時間計測をしていることと等価とし、移動速度検出部5により算出されるカウント値の勾配より、特徴ベクトルが所定画素数移動するのに要するフレーム数を容易に計測することができる。   Furthermore, according to this motion detection apparatus, the size of the detected position or region is unified by the feature normalization unit 3 at the position where the feature vector extracted by the feature extraction unit 2 is detected, and the size is reduced. Based on the unified area information, the voting unit 4 counts up the count value of the position where the standardized pattern is detected, and resets the count value of the position where the standardized pattern is not detected. Equivalent to measuring the time when the vector is observed, and easily measuring the number of frames required for the feature vector to move by a predetermined number of pixels from the gradient of the count value calculated by the moving speed detector 5 Can do.

更にまた、この動き検出装置によれば、特徴抽出部2により抽出された特徴位置特徴領域より、その特徴を代表する位置を規定して、抽出された特徴のパターンに応じて既知のパターンを形成し、形成された既知のパターンである規格化パターンに基づき、投票部4により、その規格化パターンが検出された位置のカウント値をカウントアップし、規格化パターンが検出されなかった位置のカウント値をリセットするので、カウント値を、規格化パターンが観測された時間計測をしていることと等価とし、移動速度検出部5により算出されるカウント値の勾配より、特徴が所定画素数移動するのに要するフレーム数を容易に計測することができる。   Furthermore, according to this motion detection device, a position representative of the feature is defined from the feature position feature region extracted by the feature extraction unit 2, and a known pattern is formed according to the extracted feature pattern. Then, based on the standardized pattern that is the formed known pattern, the voting unit 4 counts up the count value of the position where the standardized pattern is detected, and the count value of the position where the standardized pattern is not detected Therefore, the count value is equivalent to the time measurement when the standardized pattern is observed, and the feature moves a predetermined number of pixels from the gradient of the count value calculated by the moving speed detection unit 5. It is possible to easily measure the number of frames required for.

[第2実施形態]
つぎに、第2実施形態に係る動き検出装置について説明する。
[Second Embodiment]
Next, a motion detection device according to the second embodiment will be described.

図8は本発明に係る動き検出装置の一実施形態の構成を示すブロック図である。同図に示すように、この動き検出装置は、動きを検出する対象物の画像を撮像する撮像部101と、撮像部101で撮像された画像中からエッジを抽出してエッジ画像を生成するエッジ抽出部102と、エッジ抽出部102で生成されたエッジ画像中にあるエッジのエッジ幅を、エッジの移動方向に向かって所定の幅に統一するエッジ幅規格化部103と、エッジ幅規格化部103で規格化されたエッジの検出された位置に対応するメモリアドレスの値をカウントアップするエッジカウント部104と、エッジカウント部104でカウントアップされたカウント値に基づいてエッジの移動速度、移動方向及び位置を算出する移動速度検出部105とから構成されている。   FIG. 8 is a block diagram showing a configuration of an embodiment of a motion detection apparatus according to the present invention. As shown in the figure, this motion detection device includes an imaging unit 101 that captures an image of an object for which motion is detected, and an edge that extracts an edge from an image captured by the imaging unit 101 to generate an edge image. An extraction unit 102, an edge width normalization unit 103 that unifies edge widths of edges in the edge image generated by the edge extraction unit 102 into a predetermined width in the direction of edge movement, and an edge width normalization unit The edge count unit 104 counts up the value of the memory address corresponding to the detected position of the edge normalized in 103, and the edge moving speed and direction based on the count value counted up by the edge count unit 104 And a moving speed detector 105 for calculating the position.

撮像部101は、CMOSやCCD等の撮像素子によって構成され、画像を撮像してその画像を一定間隔毎にフレームとして取り出して連続処理を行う。このとき、エッジの移動速度よりも十分に高いフレームレートでフレームを取り出す。   The imaging unit 101 is configured by an imaging element such as a CMOS or a CCD, captures an image, extracts the image as a frame at regular intervals, and performs continuous processing. At this time, frames are extracted at a frame rate sufficiently higher than the edge moving speed.

エッジ抽出部102は、撮像部101で撮像された画像から、Sobelフィルタ等を利用することによってエッジを抽出してエッジ画像を生成する。   The edge extraction unit 102 extracts an edge from an image captured by the imaging unit 101 by using a Sobel filter or the like to generate an edge image.

エッジ幅規格化部103は、エッジ抽出部102で生成されたエッジ画像中にあるエッジのエッジ幅を、エッジの移動方向に向かって所定の幅、例えば所定の画素数に統一してエッジを規格化する。また、エッジ幅規格化部103は、対象物の移動速度に応じて規格化するエッジのエッジ幅を規定する。   The edge width normalization unit 103 standardizes edges by unifying the edge width of edges in the edge image generated by the edge extraction unit 102 to a predetermined width, for example, a predetermined number of pixels, in the edge moving direction. Turn into. Further, the edge width normalization unit 103 defines the edge width of the edge to be normalized according to the moving speed of the object.

エッジカウント部104は、エッジ幅規格化部103によって規格化されたエッジの検出された位置に対応するメモリアドレスの値をカウントアップして蓄積し、エッジの検出されなかった位置に対応するメモリアドレスの値をリセットする。これによって規格化されたエッジが何フレーム連続して同じ位置で検出されているかという情報を生成する。   The edge count unit 104 counts up and accumulates the value of the memory address corresponding to the detected position of the edge normalized by the edge width normalizing unit 103, and the memory address corresponding to the position where the edge is not detected Reset the value of. As a result, information indicating how many frames of the standardized edge are detected at the same position is generated.

移動速度検出部105は、エッジカウント部104でカウントアップされたカウント値と、そのカウント値の傾きに基づいて、抽出されたエッジの移動速度、移動方向及び位置を算出する。   The movement speed detection unit 105 calculates the movement speed, movement direction, and position of the extracted edge based on the count value counted up by the edge counting unit 104 and the inclination of the count value.

次に、本実施形態に係る動き検出装置による動き検出処理について図9のフローチャートに基づいて説明する。   Next, motion detection processing by the motion detection device according to the present embodiment will be described based on the flowchart of FIG.

撮像部101は動きを検出する対象物の画像を撮像すると(S21)、一定間隔毎にフレームとして取り出してエッジ抽出部102に提供する(S22)。ただし、このときエッジの移動速度に比べて、フレームレートが十分に高くなるようにフレームを取り出す。   When the imaging unit 101 captures an image of an object whose motion is to be detected (S21), the imaging unit 101 extracts the image as a frame at regular intervals and provides it to the edge extraction unit 102 (S22). At this time, however, the frame is taken out so that the frame rate is sufficiently higher than the moving speed of the edge.

エッジ抽出部102では、撮像部101から供給されたフレーム毎の画像に対してSOBELフィルタなどを使って画像のエッジを抽出し、エッジ画像を生成する(S23)。   The edge extraction unit 102 extracts an edge of the image using an SOBEL filter or the like from the image for each frame supplied from the imaging unit 101, and generates an edge image (S23).

エッジ幅規格化部103では、エッジ抽出部102で生成されたエッジ画像中にあるエッジのエッジ幅を、エッジの移動方向に向かって所定の幅に統一して規格化する。ここで、エッジ幅規格化部103におけるエッジ幅の規格化処理を図10及び図11に基づいて説明する。   In the edge width normalization unit 103, the edge width of the edge in the edge image generated by the edge extraction unit 102 is standardized to a predetermined width in the edge moving direction. Here, the edge width normalization processing in the edge width normalization unit 103 will be described with reference to FIGS.

図10は、エッジ幅規格化部103の詳細な構成を示すブロック図である。同図に示すように、エッジ幅規格化部103は、エッジ抽出部102で生成されたエッジ画像を2値化する2値化部131と、2値化部131によって2値化されたエッジのエッジ幅を細線化して所定の画素数に統一する細線化部132と、細線化部132で細線化されたエッジのエッジ幅を所定の画素数にまで膨張させる膨張部133とから構成されている。   FIG. 10 is a block diagram illustrating a detailed configuration of the edge width normalization unit 103. As shown in the figure, the edge width normalization unit 103 binarizes the edge image generated by the edge extraction unit 102 and the edge binarized by the binarization unit 131. It is composed of a thinning unit 132 for thinning the edge width to unify it to a predetermined number of pixels, and an expansion unit 133 for expanding the edge width of the edge thinned by the thinning unit 132 to a predetermined number of pixels. .

このように構成されたエッジ幅規格化部103では、エッジ抽出部102からエッジ画像が提供されると、2値化部131によりエッジ画像に対して2値化処理が行われる(S24)。この2値化処理ではエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0として図11(a)に示すような2値化画像を生成する。   In the edge width normalization unit 103 configured as described above, when the edge image is provided from the edge extraction unit 102, the binarization unit 131 performs binarization processing on the edge image (S24). In this binarization processing, a pixel at a position where an edge is detected is set to 1, and a pixel at a position where an edge is not detected is set to 0, thereby generating a binarized image as shown in FIG.

こうして生成された2値化画像に対して、次に細線化部132によって細線化処理が行われる(S25)。この細線化処理は、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。例えば、図11(b)では所定画素幅として1画素になるまでエッジのエッジ幅を細線化している。ただし、ここでは一例として1画素に細線化する場合について説明しているが、その他の画素数に細線化してもよい。そして、このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定している。   Next, a thinning process is performed on the binarized image generated in this manner by the thinning unit 132 (S25). This thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. For example, in FIG. 11B, the edge width of the edge is thinned until the predetermined pixel width reaches 1 pixel. However, here, as an example, the case of thinning to one pixel has been described, but thinning may be made to other numbers of pixels. Then, the center position that is the center of the edge is set by thinning the edge until a predetermined pixel width is obtained.

次に、膨張部133によって、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う(S26)。この膨張処理では、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅を膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる。例えば、図11(c)では、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させている。   Next, the expansion unit 133 performs expansion processing for expanding the edge width of the thinned edge (S26). In this expansion process, the edge width is expanded from the center position set by thinning toward the edge moving direction, and the edge width is also expanded from the center position in the opposite direction to the edge moving direction. For example, in FIG. 11C, one pixel is expanded from the edge center position x0 to the edge movement direction (the positive direction of the x axis), and the edge movement direction from the edge center position x0 is opposite to the edge movement direction (of the x axis). 1 pixel is expanded in the negative direction), and the edge width is expanded to 3 pixels.

このようにして細線化処理と膨張処理とを行うことによって、エッジ抽出部102で生成されたエッジのエッジ幅を、エッジの移動方向に向かって所定の幅に統一して規格化している。   By performing the thinning process and the expansion process in this way, the edge width of the edge generated by the edge extraction unit 102 is standardized to a predetermined width in the edge moving direction.

また、ここでは細線化処理と膨張処理とを行うことによってエッジ幅を統一しているが、エッジ抽出部102で生成されたエッジ画像中のエッジピーク位置を検出し、そのエッジピーク位置から所定の画素数だけの幅を、エッジの移動方向とその反対方向の両方に持たせることによってエッジ幅を規格化してもよい。さらに、ここでは一例として3画素に膨張させた場合について説明しているが、その他の画素数に膨張させてもよい。   Further, here, the edge width is unified by performing the thinning process and the expansion process, but the edge peak position in the edge image generated by the edge extraction unit 102 is detected, and a predetermined value is detected from the edge peak position. The edge width may be normalized by providing a width corresponding to the number of pixels in both the edge moving direction and the opposite direction. Furthermore, although the case where it expands to 3 pixels is demonstrated as an example here, you may expand to the number of other pixels.

次に、エッジ幅の規格化されたエッジに対して、エッジカウント部104によるカウントアップ処理が行われる(S27)。このカウントアップ処理は、エッジが検出された位置のメモリアドレスの値をカウントアップし、エッジが検出されなかった位置のメモリアドレスの値を初期化するものである。   Next, the edge count unit 104 performs a count-up process on the edge whose edge width is standardized (S27). In this count-up process, the value of the memory address at the position where the edge is detected is counted up, and the value of the memory address at the position where the edge is not detected is initialized.

以下、図11に基づいてエッジカウント部104におけるカウントアップ処理を説明する。同図において、簡単のためにエッジはx軸の正方向に移動するものとして説明するが、エッジはx軸の負方向やy軸方向、あるいは2次元的に移動する場合も同様に説明することができる。   Hereinafter, the count-up process in the edge count unit 104 will be described with reference to FIG. In the figure, for the sake of simplicity, the edge is described as moving in the positive direction of the x-axis, but the edge is also described in the same way when moving in the negative direction of the x-axis, the y-axis, or two-dimensionally. Can do.

図11(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置があり、その中心位置からエッジの移動方向に1画素の位置x0+1と、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張されている。   As shown in FIG. 11C, the edge has the center position of the edge at a position x0 in a certain frame, the position x0 + 1 of one pixel in the movement direction of the edge from the center position, and the opposite movement direction of the edge from the center position. In the direction, it is expanded to a position x0-1 of one pixel.

このような場合にエッジカウント部104では、カウントアップマスク141によってエッジが検出された位置x0−1、x0、x0+1のカウント値が1ずつカウントアップされ、エッジが検出されなかった位置のカウント値がリセットされる。例えば、図11(d)では、時刻tにおいて位置x0−1、x0、x0+1にエッジが検出されているので、それぞれの位置で1ずつカウントアップされて、位置x0+1のカウント値が1、位置x0のカウント値が3、位置x0−1のカウント値が5になっている。そして、続く時刻t+1でもエッジが移動していないので、位置x0−1、x0、x0+1の各位置でエッジが検出され、エッジカウント部104は図11(e)に示すように位置x0−1、x0、x0+1のカウント値をさらに1ずつカウントアップして、位置x0−1のカウント値を2、位置x0のカウント値を4、位置x0+1のカウント値を6としている。   In such a case, the edge count unit 104 increments the count values of the positions x0-1, x0, and x0 + 1 where the edge is detected by the count-up mask 141 one by one, and the count value of the position where the edge is not detected. Reset. For example, in FIG. 11D, since an edge is detected at positions x0-1, x0, x0 + 1 at time t, the count is incremented by 1 at each position, and the count value at position x0 + 1 is 1, position x0. Is 3, and the count value at position x0-1 is 5. Since the edge does not move at the subsequent time t + 1, the edge is detected at each of the positions x0-1, x0, and x0 + 1, and the edge count unit 104 has positions x0-1, x0-1, The count values of x0 and x0 + 1 are further incremented by one, the count value of position x0-1 is 2, the count value of position x0 is 4, and the count value of position x0 + 1 is 6.

さらに、続く時刻t+2では、エッジがx軸の正方向に1画素シフトして位置x0、x0+1、x0+2の位置でエッジが検出されている。したがって、エッジが検出された位置x0、x0+1、x0+2のカウント値がカウントアップされ、エッジが検出されなかった位置x0−1のカウント値がリセットされる。この結果、図11(f)に示すように位置x0+2のカウント値が1、位置x0+1のカウント値が3、位置x0のカウント値が5となっている。さらに、エッジが検出されなかった位置x0−1のカウント値はリセットされて0になっている。   Further, at the subsequent time t + 2, the edge is shifted by one pixel in the positive direction of the x-axis, and the edge is detected at positions x0, x0 + 1, and x0 + 2. Accordingly, the count values at the positions x0, x0 + 1, and x0 + 2 where the edge is detected are counted up, and the count values at the position x0-1 where the edge is not detected are reset. As a result, the count value at position x0 + 2 is 1, the count value at position x0 + 1 is 3, and the count value at position x0 is 5, as shown in FIG. Further, the count value at the position x0-1 where no edge is detected is reset to zero.

このようにして、エッジカウント部104では、エッジが検出された位置のカウント値をカウントアップし、エッジの検出されなかった位置のカウント値をリセットしている。図11では、カウント値を検出する位置として、エッジの中心位置(x0)と、この中心位置からエッジの移動方向へ1画素の位置(x0+1)と、中心位置からエッジの移動方向と反対方向に1画素の位置(x0−1)の3箇所でカウント値を検出していたが、後述するカウント値の傾きが求められれば、エッジの移動方向に対して2箇所以上であれば何箇所のカウント値を検出してもよい。   In this way, the edge count unit 104 counts up the count value at the position where the edge is detected, and resets the count value at the position where the edge is not detected. In FIG. 11, as the position for detecting the count value, the center position (x0) of the edge, the position of one pixel (x0 + 1) from the center position to the edge movement direction, and the direction from the center position to the edge movement direction are opposite. The count value is detected at three positions of the position (x0-1) of one pixel. If the slope of the count value described later is obtained, the number of counts can be counted as long as it is two or more with respect to the edge moving direction. The value may be detected.

また、エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図11のケースでは、位置x0において時刻tと時刻t+1の2回エッジが検出されている。したがって、エッジが検出された位置のカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数)と等しくなる。とくにエッジのカウント値の中で最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表している。   If the frame rate is set sufficiently higher than the speed at which the edge moves, the edge is detected a plurality of times at the same position between consecutive frames. For example, in the case of FIG. 11, two edges at time t and time t + 1 are detected at the position x0. Therefore, when the count value at the position where the edge is detected is counted up, the count value becomes equal to the time (number of frames) during which the edge is detected at that position. In particular, the smallest count value h of the edge count values represents how many frames the edge has been in the same position after moving.

次に、移動速度検出部105によって、エッジの移動速度、移動方向および位置が算出される。移動速度検出部105は、まずカウント値の移動方向への傾きを算出し(S28)、この傾きに基づいて、エッジの移動方向、移動速度および位置を算出する(S29)。   Next, the moving speed detector 105 calculates the moving speed, moving direction, and position of the edge. The moving speed detector 105 first calculates the inclination of the count value in the moving direction (S28), and calculates the moving direction, moving speed and position of the edge based on this inclination (S29).

以下、この算出方法について図11に基づいて説明する。例えば、図11(e)の場合では、位置x0−1、x0、x0+1のカウント値がそれぞれ6、4、2となっている。したがって、位置x0−1のカウント値6からx0+1のカウント値2を引くことによって、カウント値の傾きをH=(6−2)/2=2として算出することができる。これは、
H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動してしまった後の時間)}/(2画素)
を意味するので、これはエッジが位置x0のある1画素を通過するのに要した時間(フレーム数)を算出したことになる。したがって、カウント値の傾きHはエッジが1画素移動するために何フレームを要したかを求めることになり、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出することができる。
Hereinafter, this calculation method will be described with reference to FIG. For example, in the case of FIG. 11E, the count values at positions x0-1, x0, and x0 + 1 are 6, 4, and 2, respectively. Therefore, by subtracting the count value 2 of x0 + 1 from the count value 6 of the position x0-1, the slope of the count value can be calculated as H = (6-2) / 2 = 2. this is,
H = {(time from the edge moving to the position x0-1 to the present)-(time after the edge has moved to the position x0 + 1)} / (2 pixels)
This means that the time (number of frames) required for the edge to pass through one pixel at the position x0 is calculated. Accordingly, the slope H of the count value determines how many frames it takes for the edge to move by one pixel, and the edge moving speed 1 / H can be calculated based on the slope H of the count value. .

例えば、図11(e)では1画素移動するのに4フレームを要したことになるので、エッジの移動速度は1/4(画素/フレーム)と算出することができる。同様に、図11(f)でもH=(5−1)/1=4となるので、エッジの移動速度は1/4(画素/フレーム)になる。   For example, in FIG. 11E, it takes 4 frames to move one pixel, so the edge moving speed can be calculated as 1/4 (pixel / frame). Similarly, since H = (5-1) / 1 = 4 in FIG. 11F, the edge moving speed becomes 1/4 (pixel / frame).

また、エッジの移動方向は、カウント値の大小によって判断することができる。エッジが移動して新たにエッジが検出された位置のカウント値は1であり、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなるので、これによってエッジの移動方向を判断することができる。   Further, the edge moving direction can be determined by the magnitude of the count value. The count value at the position where the edge is moved and the edge is newly detected is 1, which is the smallest value among the count values at each position. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large, so that the edge moving direction can be determined.

さらに、エッジが移動する速度に比べてフレームレートが十分に高く設定されていれば、検出対象物は等速移動をしていると仮定することができる。また、現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。   Furthermore, if the frame rate is set sufficiently higher than the speed at which the edge moves, it can be assumed that the detection target object moves at a constant speed. In addition, the smallest count value h among the count values at the current position represents the time when the edge is detected at the position, that is, how many frames the edge has moved to stay at the same position. ing.

これらのことにより、エッジの位置は、エッジの中心位置をx0とすると
エッジの位置=x0+h/H
により求めることができる。例えば図11(e)では、エッジの速度は1/4(画素/フレーム)で、時刻t+1の時点では2フレーム連続して同じ位置でエッジが検出されているので、時刻t+1のエッジの位置は
2(フレーム)×{1/4(画素/フレーム)}=0.5画素
だけ位置x0から移動していると算出することができる。
As a result, when the center position of the edge is x0, the edge position = x0 + h / H
It can ask for. For example, in FIG. 11E, the edge speed is ¼ (pixel / frame), and the edge is detected at the same position for two consecutive frames at time t + 1. Therefore, the position of the edge at time t + 1 is It can be calculated that 2 (frame) × {1/4 (pixel / frame)} = 0.5 pixel is moved from the position x0.

このようにしてエッジの移動速度、移動方向及び位置が算出されると、移動速度検出部105は算出した移動速度をエッジ幅規格化部103に送信し、この移動速度を受信したエッジ幅規格化部103は、移動速度に基づいて規格化するエッジのエッジ幅を変更する(S30)。例えば、図11(c)では膨張処理をした後のエッジ幅が3画素であったが、受信した移動速度が速い場合にはエッジ幅を大きくするように変更し、移動速度が遅い場合にはエッジ幅を小さくするように変更する。   When the movement speed, movement direction, and position of the edge are calculated in this way, the movement speed detection unit 105 transmits the calculated movement speed to the edge width normalization unit 103, and receives the movement speed and performs edge width normalization. The unit 103 changes the edge width of the edge to be normalized based on the moving speed (S30). For example, in FIG. 11C, the edge width after the expansion process is 3 pixels, but when the received moving speed is high, the edge width is changed to be large, and when the moving speed is low Change to reduce the edge width.

このように規格化するエッジ幅を変更すれば、検出対象物の移動速度が変化しても、移動速度に応じて連続するフレーム間でエッジが重なりを有するようにエッジ幅を規格化することができ、これによって検出可能な移動速度の範囲を拡大することができる。   If the edge width to be normalized is changed in this way, the edge width can be normalized so that the edges overlap between successive frames according to the movement speed even if the movement speed of the detection target changes. This makes it possible to expand the range of movement speeds that can be detected.

上述したように、本実施形態に係る動き検出装置及び動き検出方法では、エッジが検出された位置のカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出するので、テンプレートマッチングのようなブロックマッチングを用いることなく容易にエッジの移動速度と移動方向を算出することができる。   As described above, in the motion detection device and the motion detection method according to the present embodiment, the count value of the position where the edge is detected is counted up, and the moving speed and movement of the edge are based on the slope of the counted up count value. Since the direction is calculated, the moving speed and moving direction of the edge can be easily calculated without using block matching such as template matching.

また、移動速度算出手段5では算出したエッジの移動速度と、カウント値の中で最小のカウント値とに基づいてエッジの位置を求めるので、より細分化されたサブピクセルオーダーでのエッジの位置を算出することができる。   Further, since the moving speed calculation means 5 obtains the position of the edge based on the calculated moving speed of the edge and the smallest count value among the count values, the position of the edge in the sub-pixel order is further subdivided. Can be calculated.

さらに、エッジ幅規格化部103では、移動速度検出部105で算出した移動速度に基づいて、規格化するエッジ幅を変更するので、対象物の移動速度が変化しても、変化した移動速度に応じて、連続するフレーム間でエッジが重なりを有するようにエッジ幅を規格化することができ、これによって検出することのできる対象物の移動速度の範囲を拡大することができる。   Furthermore, since the edge width normalization unit 103 changes the edge width to be standardized based on the movement speed calculated by the movement speed detection unit 105, even if the movement speed of the object changes, the changed movement speed is obtained. Accordingly, the edge width can be normalized so that the edges overlap between successive frames, and thereby the range of the moving speed of the object that can be detected can be expanded.

以上、本発明の動き検出装置及びその方法について、図示した実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   As mentioned above, although the motion detection apparatus and method of the present invention have been described based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part is an arbitrary configuration having the same function. Can be replaced with something.

[第3実施形態]
つぎに、第3実施形態に係る動き検出装置について説明する。
[Third Embodiment]
Next, a motion detection device according to the third embodiment will be described.

図12は本発明の一実施例に係る動き検出装置の構成図である。   FIG. 12 is a block diagram of a motion detection apparatus according to an embodiment of the present invention.

図12において、本実施例の動き検出装置は、撮像手段211、エッジ抽出手段212、エッジ幅規格化手段213、マスク生成手段214、リセットタイミング生成手段215、投票手段216および移動速度検出手段217を備えて構成されている。   In FIG. 12, the motion detection apparatus of this embodiment includes an image pickup unit 211, an edge extraction unit 212, an edge width normalization unit 213, a mask generation unit 214, a reset timing generation unit 215, a voting unit 216, and a moving speed detection unit 217. It is prepared for.

撮像手段211はCMOSやCCD等の撮像素子で実現され、周辺画像を撮像する。また、エッジ抽出手段212は、撮像手段211により撮像された画像から、Sobelフィルタ等によって対象のエッジ(輪郭)についてエッジ画像を作成する。ここで、Sobel(ゾーベル)フィルタは1次の差分フィルタであるが、他の差分フィルタ(例えば、Prewitt(プレヴィット)フィルタ、水平または垂直方向1次空間微分フィルタ、2次空間微分フィルタ、非線形差分フィルタ等々)を使用しても良い。   The image pickup unit 211 is realized by an image pickup device such as a CMOS or a CCD, and picks up a peripheral image. In addition, the edge extraction unit 212 creates an edge image of the target edge (contour) from the image captured by the imaging unit 211 using a Sobel filter or the like. Here, the Sobel filter is a first-order difference filter, but other difference filters (for example, a Prewitt filter, a horizontal or vertical first-order spatial differential filter, a second-order spatial differential filter, and a non-linear difference filter. Filters etc. may be used.

エッジ幅規格化手段213は、エッジ抽出手段212により抽出されたエッジ画像中のエッジ幅を所定の画素数に規格化する。   The edge width normalization unit 213 normalizes the edge width in the edge image extracted by the edge extraction unit 212 to a predetermined number of pixels.

また、マスク生成手段214は、エッジ幅規格化手段213により規格化された各エッジ領域について、エッジが検出されていない領域をそのエッジのマスク領域として設定する。具体的には、エッジ幅規格化手段213により規格化されたエッジそれぞれについて、前フレームにおけるエッジのマスク領域と現フレームにおいて該エッジが検出されていない領域との論理積で得られる領域を、現フレームにおける該エッジのマスク領域として設定する。なお、後段の投票手段216では、このマスク領域の位置のカウント値をリセットし、該マスク領域の補集合である非マスク領域について位置のカウント値をカウントアップすることになる。   Further, the mask generation unit 214 sets, for each edge region normalized by the edge width normalization unit 213, a region where no edge is detected as a mask region for the edge. Specifically, for each edge standardized by the edge width normalization means 213, an area obtained by the logical product of the edge mask area in the previous frame and the area in which the edge is not detected in the current frame is obtained. It is set as a mask area of the edge in the frame. The latter voting means 216 resets the count value of the position of the mask area, and counts up the count value of the position for the non-mask area that is a complement of the mask area.

また、リセットタイミング生成手段215は、隣接エッジとの位置関係に基づき、後段の投票手段216によるカウント値並びにマスク生成手段214によるマスク領域をリセットするリセットタイミングを設定する。具体的には、隣接するエッジそれぞれの非マスク領域が互いに重畳すると判定されたときにリセットタイミングを生成して、投票手段216によるカウント値並びにマスク生成手段214によるマスク領域をリセットすることになる。なお、重畳する隣接エッジがなく、マスク領域がカウントし続けられているエッジについては、ある一定時間経過したら自動的にリセットしてもよい。   The reset timing generation unit 215 sets the reset timing for resetting the count value by the voting unit 216 and the mask area by the mask generation unit 214 based on the positional relationship with the adjacent edge. Specifically, a reset timing is generated when it is determined that the non-mask areas of adjacent edges overlap each other, and the count value by the voting means 216 and the mask area by the mask generation means 214 are reset. Note that an edge for which there is no adjacent edge to be overlapped and the mask area continues to be counted may be automatically reset after a certain period of time has elapsed.

また、投票手段216は、マスク生成手段214により生成されたマスク領域によりマスクされていない非マスク領域の位置のカウント値をカウントアップする。具体的には、非マスク領域に対応するメモリアドレスの内容をカウントアップし、逆に、マスク領域に対応するメモリアドレスの内容をリセットする。連続するフレームについて、時系列にこのような投票を行って投票値を蓄積することにより、規格化されたエッジが時系列で何フレーム連続して観測されたかの情報を得ることができる。   The voting means 216 counts up the count value of the position of the non-mask area that is not masked by the mask area generated by the mask generation means 214. Specifically, the contents of the memory address corresponding to the non-mask area are counted up, and conversely, the contents of the memory address corresponding to the mask area are reset. By voting such continuous time frames and accumulating the vote values, it is possible to obtain information on how many frames the standardized edge was observed in time series.

さらに、移動速度検出手段217は、投票手段216により連続するフレームに渡って蓄積されたカウント値の傾きより、そのエッジの移動方向、速度および加速度を算出する。   Further, the moving speed detecting means 217 calculates the moving direction, speed, and acceleration of the edge from the inclination of the count value accumulated over successive frames by the voting means 216.

次に、エッジ幅規格化手段213によるエッジ幅の規格化、マスク生成手段214によるマスク生成、投票手段216による投票、移動速度検出手段217によるエッジの移動方向、速度および加速度の算出、並びに、リセットタイミング生成手段215によるリセットタイミングの生成について、具体例を示しながら詳細に説明する。   Next, normalization of the edge width by the edge width normalization means 213, mask generation by the mask generation means 214, voting by the voting means 216, calculation of the edge moving direction, speed and acceleration by the moving speed detection means 217, and resetting The generation of the reset timing by the timing generation unit 215 will be described in detail with a specific example.

まず、図13および図14を参照して、エッジ幅規格化手段213によるエッジ幅の規格化について説明する。   First, with reference to FIGS. 13 and 14, the edge width normalization by the edge width normalization means 213 will be described.

まず、図13はエッジ幅規格化手段213のより具体的な構成図である。図13において、エッジ幅規格化手段213は、エッジ抽出手段212により抽出されたエッジ画像について2値化処理を行う2値化手段221と、エッジ幅が所定画素数になるまで細線化処理を繰返し行い、全てのエッジ幅を所定画素数に統一する細線化手段222と、所定画素数に統一されたエッジ幅を所定画素数まで膨張させる膨張手段223と、を備えて構成されている。   First, FIG. 13 is a more specific configuration diagram of the edge width normalizing means 213. In FIG. 13, the edge width normalization means 213 repeats the thinning process until the edge width reaches a predetermined number of pixels, and the binarization means 221 that performs binarization processing on the edge image extracted by the edge extraction means 212. And a thinning means 222 for unifying all edge widths to a predetermined number of pixels, and an expansion means 223 for expanding the edge widths unified to a predetermined number of pixels to a predetermined number of pixels.

次に、図14はエッジ幅の規格化の手順である2値化(図14(a))、細線化(図14(b))および膨張(図14(c))の処理を例示する説明図である。まず、2値化手段221では、図14(a)に示すように、抽出されたエッジ画像に対して2値化(0/1)処理を行っている。図中、白抜きの円は「0」の画素、塗り潰しの円は「1」(アクティブ)の画素を示す。次に、細線化手段222では、図14(b)に示すように、エッジ幅が所定画素数(図14の具体例ではx方向について1画素)になるまで、繰返し行い、検出された全てのエッジ幅を所定画素数(1画素)に統一している。   Next, FIG. 14 illustrates an example of binarization (FIG. 14 (a)), thinning (FIG. 14 (b)), and expansion (FIG. 14 (c)), which are procedures for normalizing the edge width. FIG. First, as shown in FIG. 14A, the binarizing means 221 performs binarization (0/1) processing on the extracted edge image. In the drawing, a white circle indicates a pixel “0”, and a solid circle indicates a pixel “1” (active). Next, in the thinning means 222, as shown in FIG. 14B, it is repeated until the edge width reaches a predetermined number of pixels (one pixel in the x direction in the specific example of FIG. 14). The edge width is unified to a predetermined number of pixels (one pixel).

さらに、膨張手段223では、図14(c)に示すように、エッジ幅が(1画素に)統一されたエッジを必要に応じた所定画素数(図14の具体例では3画素)まで膨張させている。例えば、位置x0にエッジ位置が観測された場合、位置x0の両側である位置x0−1および位置x0+1の画素をアクティブ(1)にして、エッジ幅を3画素に統一している。   Furthermore, as shown in FIG. 14 (c), the expansion means 223 expands an edge having a uniform edge width (to one pixel) to a predetermined number of pixels (3 pixels in the specific example of FIG. 14) as necessary. ing. For example, when an edge position is observed at the position x0, the pixels at the positions x0-1 and x0 + 1 on both sides of the position x0 are activated (1), and the edge width is unified to 3 pixels.

これらの2値化処理、細線化処理および膨張処理により、エッジ抽出手段212で抽出されたエッジ画像は、エッジ幅が所定値(3画素)に統一された2値の正規化エッジ画像として生成されることになる。なお、エッジ幅を統一するにあたり、エッジ抽出手段212から出力されるエッジ画像のエッジピーク位置を検出し、そのエッジピーク位置に所定画素数の幅を持たせた2値画像を生成することでエッジ幅を規格化しても良い。   By these binarization processing, thinning processing and expansion processing, the edge image extracted by the edge extraction means 212 is generated as a binary normalized edge image in which the edge width is unified to a predetermined value (3 pixels). Will be. In order to unify the edge width, the edge peak position of the edge image output from the edge extraction unit 212 is detected, and a binary image having a predetermined number of pixels at the edge peak position is generated. The width may be normalized.

次に、図15を参照して、マスク生成手段214によるマスク生成について説明する。図15は、マスク生成手段214によるマスク生成を説明する説明図であり、時刻t、時刻t+mおよび時刻t+nにおける正規化エッジ画像と生成されるマスクを例示している。なお、以下の説明では、簡単のために、x軸の1次元方向にエッジが移動するものとし、抽出されたエッジはx軸の正方向に移動するものとする。また、正規化エッジは、エッジ幅規格化手段213により3画素のエッジ幅に統一されているものとして説明する。   Next, mask generation by the mask generation unit 214 will be described with reference to FIG. FIG. 15 is an explanatory diagram for explaining mask generation by the mask generation means 214, and exemplifies normalized edge images and generated masks at time t, time t + m, and time t + n. In the following description, for simplicity, it is assumed that the edge moves in the one-dimensional direction of the x-axis, and the extracted edge moves in the positive direction of the x-axis. In addition, it is assumed that the normalized edge is unified to an edge width of 3 pixels by the edge width normalizing unit 213.

マスク生成手段214は、エッジ幅規格化手段213により規格化されたエッジそれぞれについて、前フレームにおけるエッジのマスク領域と現フレームにおいて該エッジが検出されていない領域との論理積で得られる領域を、現フレームにおける該エッジのマスク領域として設定する。この論理演算は、マスク領域とエッジが検出されていない領域とを真値としたときの正論理演算である。   For each edge standardized by the edge width standardization means 213, the mask generation means 214 calculates an area obtained by a logical product of the mask area of the edge in the previous frame and the area where the edge is not detected in the current frame. It is set as a mask area for the edge in the current frame. This logical operation is a positive logical operation when the mask area and the area where no edge is detected are assumed to be true values.

図15では、分かりやすくするために、正規化エッジ画像(図15(a),(c)および(e))と、生成されるマスク(図15(b),(d)および(f))とを示しており、これらの論理演算を考える場合には負論理演算となる。つまり、前フレームにおけるエッジの非マスク領域と現フレームにおいて該エッジが検出されている領域との論理和で得られる領域を、現フレームにおける該エッジの非マスク領域として設定することになる。   In FIG. 15, for the sake of easy understanding, normalized edge images (FIGS. 15A, 15C and 15E) and generated masks (FIGS. 15B, 15D and 15F) are shown. When these logical operations are considered, it is a negative logical operation. That is, the area obtained by the logical sum of the non-mask area of the edge in the previous frame and the area where the edge is detected in the current frame is set as the non-mask area of the edge in the current frame.

まず、図15(a)には時刻tにおける正規化エッジ画像を示す。このエッジ画像は、エッジ幅規格化手段213によりエッジ幅が3画素に統一されたものであり、見やすくするために中心の1画素を塗り潰しの円で、その両側の画素を白抜きの円で示している。この時刻tで、リセットタイミング生成手段215によってリセットタイミングが生成されたとすれば、エッジが検出されていない領域がそのままマスク領域となって、時刻tにおけるマスクは、図15(b)に示す如く塗り潰した領域となる。なお、図15(b)において白抜きの領域が非マスク領域である。   First, FIG. 15A shows a normalized edge image at time t. In this edge image, the edge width is standardized to 3 pixels by the edge width normalizing means 213, and for easy viewing, the center pixel is indicated by a filled circle and the pixels on both sides thereof are indicated by white circles. ing. If the reset timing is generated by the reset timing generation means 215 at this time t, the area where no edge is detected becomes the mask area as it is, and the mask at the time t is filled as shown in FIG. It becomes an area. In FIG. 15B, a white area is a non-mask area.

次に、時刻m後の時刻t+mにおいて、正規化エッジ画像が図15(c)に示すように変化したとすれば、時刻tにおける非マスク領域(図15(b)参照)とエッジが検出されている領域との論理和をとった領域が時刻t+mにおける非マスク領域として得られ、図15(d)に示す如く、その非マスク領域の補集合である塗り潰しの領域がマスク領域として得られる。   Next, if the normalized edge image changes as shown in FIG. 15C at time t + m after time m, an unmasked area (see FIG. 15B) and edge at time t are detected. A region obtained by ORing with the unmasked region is obtained as a non-mask region at time t + m, and as shown in FIG. 15D, a filled region which is a complement of the non-mask region is obtained as a mask region.

同様に、時刻n(n>m)後の時刻t+nにおいて、正規化エッジ画像が図15(e)に示すように変化したとすれば、時刻t+mにおける非マスク領域(図15(d)参照)とエッジが検出されている領域との論理和をとった領域が時刻t+nにおける非マスク領域として得られ、図15(f)に示す如く、その非マスク領域の補集合である塗り潰しの領域がマスク領域として得られる。   Similarly, if the normalized edge image changes as shown in FIG. 15E at time t + n after time n (n> m), the non-mask area at time t + m (see FIG. 15D). A region obtained by ORing the region where the edge is detected is obtained as a non-mask region at time t + n, and as shown in FIG. 15 (f), a filled region which is a complement of the non-mask region is masked. Obtained as a region.

次に、図16を参照して、投票手段216による投票について説明する。図16は、投票手段216による投票を説明する説明図であり、時刻t、時刻t+mおよび時刻t+nにおける非マスク領域と蓄積された投票値(カウント値)を例示している。なお、図16(a1),(b1)および(c1)においては、見やすくするためにエッジの中心の1画素を塗り潰しの円で示しており、この塗り潰しの円と周辺の白抜きの円の集合が非マスク領域である。また、図16(a2),(b2)および(c2)に示す投票値は、図16(a1),(b1)および(c1)において、y軸方向のうちハッチングを施した帯の位置における投票値である。   Next, voting by the voting means 216 will be described with reference to FIG. FIG. 16 is an explanatory diagram for explaining voting by the voting means 216, and exemplifies non-mask areas and accumulated voting values (count values) at time t, time t + m, and time t + n. In FIGS. 16 (a1), (b1), and (c1), one pixel at the center of the edge is shown by a filled circle for easy viewing, and a set of this filled circle and surrounding white circles is shown. Is a non-mask region. 16 (a2), (b2) and (c2) are the voting values at the positions of the hatched bands in the y-axis direction in FIGS. 16 (a1), (b1) and (c1). Value.

まず、時刻tにおいて、図16(a1)に示すような非マスク領域がマスク生成手段214から与えられると、投票手段216は、非マスク領域における各位置の投票値をカウントアップしていく。その際に、非マスク領域の補集合であるマスク領域の投票値についてはリセットする。時刻m後の時刻t+mにおいて、非マスク領域が図16(b1)のように変化した場合、並びに、時刻n後の時刻t+nにおいて、非マスク領域が図16(c1)のように変化した場合についても同様に、非マスク領域の各位置の投票値をカウントアップし、マスク領域の投票値はリセットする。   First, when a non-mask area as shown in FIG. 16 (a1) is given from the mask generation means 214 at time t, the voting means 216 counts up the voting value at each position in the non-mask area. At that time, the voting value of the mask area which is a complement of the non-mask area is reset. When the non-mask area changes as shown in FIG. 16 (b1) at time t + m after time m, and when the non-mask area changes as shown in FIG. 16 (c1) at time t + n after time n. Similarly, the voting value at each position in the non-mask area is counted up, and the voting value in the mask area is reset.

次に、移動速度検出手段217によるエッジの移動方向、速度および加速度の算出について説明する。   Next, calculation of the edge moving direction, speed, and acceleration by the moving speed detecting means 217 will be described.

エッジが移動する速度に比べて、フレームレートが十分高い場合、連続するフレーム間で観測されるエッジはほとんどの場合において重複する領域を有する(例示しているケースでは、2画素幅で重複している)。上述したように、投票手段216により、エッジが観測された位置に対応する投票値をカウントアップしていくことで、蓄積された投票値はそのエッジが同じ位置に観測されている時間と等価となる。   If the frame rate is sufficiently high compared to the speed at which the edges move, the edges observed between consecutive frames will almost always have overlapping regions (in the illustrated case, they overlap by 2 pixels wide) ) As described above, by counting up the vote value corresponding to the position where the edge is observed by the voting means 216, the accumulated vote value is equivalent to the time when the edge is observed at the same position. Become.

エッジが移動した場合は、新たにエッジが観測された位置の投票値は1であり、観測されたエッジの中では最も小さな値となる。つまり、エッジが移動する方向に向かって投票値はだんだん小さくなり、逆に、エッジが移動する方向と反対方向に向かって投票値はだんだん大きくなる。この投票値の勾配は、エッジが移動するまでに、何フレーム連続して同じ位置にエッジが観測されていたかを計数した値であり、この投票値のプロファイル(1次微分、2次微分の値)より、エッジの移動速度および加速度を算出することができる。図16(c2)の場合は、位置xj−1からxj+3までの投票値の勾配から、注目しているエッジの移動速度および加速度を検出することが可能となる。   When the edge moves, the vote value at the position where the edge is newly observed is 1, which is the smallest value among the observed edges. That is, the voting value gradually decreases in the direction in which the edge moves, and conversely, the voting value increases in the direction opposite to the direction in which the edge moves. The slope of this vote value is a value obtained by counting how many frames the edge has been observed at the same position before the edge moves, and the profile of this vote value (the value of the first and second derivatives) ), The moving speed and acceleration of the edge can be calculated. In the case of FIG. 16C2, it is possible to detect the moving speed and acceleration of the edge of interest from the gradient of the vote value from the position xj-1 to xj + 3.

なお、直交したエッジ成分を有するコーナーエッジについては,以上説明したx軸方向についての処理を、y軸方向についても行い、x軸方向およびy軸方向についての移動速度ベクトルを合成することにより、エッジの移動方向と該移動方向への移動速度が得られ、また、x軸方向およびy軸方向についての加速度ベクトルを合成することによりエッジの移動方向への加速度が得られる。   For corner edges having orthogonal edge components, the processing in the x-axis direction described above is also performed in the y-axis direction, and the moving speed vectors in the x-axis direction and the y-axis direction are combined to obtain the edge. And the moving speed in the moving direction are obtained, and the acceleration in the moving direction of the edge is obtained by combining the acceleration vectors in the x-axis direction and the y-axis direction.

また、本実施例では、エッジ幅を規格化した時系列の正規化エッジに基づき非マスク領域(マスク)を生成しているので、瞬間的に特異なエッジの影響を低く抑えることができ、より信頼性の高いエッジ情報を用いてエッジの移動方向、速度および加速度を検出することになるので、より正確な速度や加速度を観測することができる。   In addition, in this embodiment, since the non-mask area (mask) is generated based on the time-series normalized edge with the edge width normalized, it is possible to suppress the influence of the singular edge instantaneously, and more Since the edge moving direction, velocity and acceleration are detected using highly reliable edge information, more accurate velocity and acceleration can be observed.

次に、図17を参照して、リセットタイミング生成手段215によるリセットタイミングの生成について説明する。図17は、フレーム取得タイミングとリセットタイミングを例示するタイムチャートである。   Next, generation of reset timing by the reset timing generation means 215 will be described with reference to FIG. FIG. 17 is a time chart illustrating the frame acquisition timing and the reset timing.

エッジの動きを観測する時間が短いときには、瞬時的に出現または消失するエッジ等もあり、この場合の投票値は少ないことから、エッジの移動速度や加速度の計測の信頼性が低下することになる。逆に、エッジを観測する時間が長すぎるときには、エッジの移動速度が速くなったり遅くなったりすると、時間対速度の関係を曲線等でフィッティングすることが難しくなるので、その速度プロファイルを正確に解析することは困難となる。つまり、対象画像のダイナミクスに合わせて、エッジの移動速度を計測する周期を規定することが望ましい。   When the time for observing the movement of the edge is short, there are edges that appear or disappear instantaneously. In this case, the voting value is small, which reduces the reliability of measuring the moving speed and acceleration of the edge. . On the other hand, when the edge observation time is too long, it becomes difficult to fit the relationship between time and speed with a curve or the like if the moving speed of the edge becomes faster or slower, so the speed profile is analyzed accurately. It will be difficult to do. That is, it is desirable to define the cycle for measuring the moving speed of the edge in accordance with the dynamics of the target image.

フレームレートが十分高い場合は、フレーム間で対象としているエッジの移動は殆ど無く、等速運動をしていると仮定することができる。一方、上述のように、瞬時的に出現または消失するエッジの影響や、少ない投票値のために、計測精度が低くなってしまう場合がある。そこで、投票手段による投票値が有意であると判断できる程度の値であって、且つ、複雑な速度プロファイルを持たない程度の時間変化の範囲内で、注目エッジの動きを観測することが望まれる。   When the frame rate is sufficiently high, it can be assumed that there is almost no movement of the target edge between frames, and that the motion is constant. On the other hand, as described above, the measurement accuracy may be lowered due to the influence of an edge that appears or disappears instantaneously or a small vote value. Therefore, it is desirable to observe the movement of the target edge within a range of time variation that is such that the vote value by the voting means can be determined to be significant and does not have a complicated speed profile. .

また、隣接するエッジが存在する場合には、その隣接エッジについても同様に、正規化エッジに基づいてマスクが時系列に生成されており、隣接するエッジの非マスク領域同士が重畳すると、重畳部分の位置の投票値にノイズが加わることになるので、リセットタイミング生成手段215は、隣接するエッジそれぞれの非マスク領域が互いに重畳するときには、リセットタイミングを生成して、投票手段216による投票値およびマスク領域をリセットする必要がある。   Also, if there are adjacent edges, the masks are generated in time series based on the normalized edges for the adjacent edges as well, and if the non-mask areas of the adjacent edges are overlapped, Since the noise is added to the vote value at the position of, the reset timing generation means 215 generates the reset timing when the non-mask regions of the adjacent edges overlap each other, and the vote value and mask by the vote means 216 The area needs to be reset.

次に、以上説明したエッジ幅規格化手段213によるエッジ幅の規格化、マスク生成手段214によるマスク生成、投票手段216による投票、移動速度検出手段217によるエッジの移動方向、速度および加速度の算出、並びに、リセットタイミング生成手段215によるリセットタイミングの生成の処理の流れについて、図18に示すフローチャートを参照して説明する。   Next, normalization of the edge width by the edge width normalization means 213 described above, mask generation by the mask generation means 214, voting by the voting means 216, calculation of the edge moving direction, speed and acceleration by the movement speed detection means 217, In addition, the flow of reset timing generation processing by the reset timing generation means 215 will be described with reference to the flowchart shown in FIG.

まずステップS101では、撮像手段211により撮像を行う。次にステップS102では、エッジ抽出手段212によりエッジ画像を抽出する。次にステップS103では、ステップS102で抽出したエッジ画像に対して2値化処理を施し、ステップS104で細線化処理を施してエッジ幅を所定画素数(1画素)に統一した後、ステップS105の膨張処理により所定画素数(3画素)まで膨張させ、所定幅(3画素)にエッジ幅を統一する。   First, in step S101, imaging is performed by the imaging unit 211. In step S102, the edge extraction unit 212 extracts an edge image. Next, in step S103, binarization processing is performed on the edge image extracted in step S102, thinning processing is performed in step S104 to unify the edge width to a predetermined number of pixels (one pixel), and then in step S105. Dilation processing expands to a predetermined number of pixels (3 pixels), and unifies the edge width to a predetermined width (3 pixels).

次に、ステップS106では、ステップS103からステップS105までの処理で規格化された正規化エッジと前フレームにおけるそのエッジの非マスク領域との論理和で得られる非マスク領域から、現フレームにおけるマスクを生成する。   Next, in step S106, the mask in the current frame is obtained from the non-mask area obtained by the logical sum of the normalized edge normalized in the processing from step S103 to step S105 and the non-mask area of the edge in the previous frame. Generate.

次に、ステップS107では、リセットタイミング生成手段215により、前フレームにおけるマスクと現フレームにおけるマスクの有効画素数を比較して、所定値以上の有効画素数の変化があった場合は、隣接するエッジの非マスク領域が重畳したものと判断し、リセットタイミングを生成し、ステップS109に進んで蓄積された投票値およびマスクをリセットする。この場合、次にステップS105に戻り、ステップS103からステップS105までの処理で規格化された正規化エッジのみに基づきマスクを生成して、ステップS108に進む。また、ステップS107において、隣接するエッジの非マスク領域が重畳していないと判断した場合にはステップS108に進む。   Next, in step S107, the reset timing generation means 215 compares the number of effective pixels of the mask in the previous frame and the mask in the current frame. It is determined that the non-mask area is superimposed, a reset timing is generated, and the process proceeds to step S109 to reset the accumulated vote value and mask. In this case, the process returns to step S105, a mask is generated based only on the normalized edge normalized by the processing from step S103 to step S105, and the process proceeds to step S108. If it is determined in step S107 that the non-mask area of the adjacent edge is not superimposed, the process proceeds to step S108.

次に、ステップS108では、ステップS106で生成したマスクに基づく有効画素(非マスク領域の画素)に相当するメモリアドレスの投票値をカウントアップし、マスク領域の無効画素に相当するメモリアドレスの投票値をリセットする。   Next, in step S108, the voting value of the memory address corresponding to the effective pixel (the pixel in the non-mask area) based on the mask generated in step S106 is counted up, and the voting value of the memory address corresponding to the invalid pixel in the mask area is counted. To reset.

さらに、ステップS110では蓄積された投票値の勾配を求め、該投票地の勾配に基づき、ステップS111でエッジの移動方向、移動速度および加速度を算出する。   Further, in step S110, the gradient of the accumulated voting value is obtained, and based on the gradient of the voting place, the moving direction, moving speed, and acceleration of the edge are calculated in step S111.

以上説明したように、本実施例の動き検出装置では、撮像手段211(撮像ステップ)により撮像された画像について、エッジ抽出手段212(エッジ抽出ステップ)によりエッジを抽出し、そのエッジの幅をエッジ幅規格化手段213(エッジ幅規格化ステップ)により規格化し、マスク生成手段214(マスク生成ステップ)により、規格化されたエッジ情報に基づきエッジが検出されていない領域をそのエッジのマスク領域として設定し、投票手段216(投票ステップ)により、該マスク領域の位置のカウント値をリセットすると共に、該マスク領域によりマスクされていない非マスク領域の位置のカウント値をカウントアップし、移動速度検出手段217(移動速度検出ステップ)により、連続するフレームに渡って蓄積されたカウント値の傾きに基づき、そのエッジの移動方向、速度および加速度を算出する。   As described above, in the motion detection apparatus according to the present embodiment, an edge is extracted by the edge extraction unit 212 (edge extraction step) from the image captured by the imaging unit 211 (imaging step), and the width of the edge is set to the edge. Normalization is performed by the width normalization unit 213 (edge width normalization step), and an area where no edge is detected based on the standardized edge information is set as a mask region of the edge by the mask generation unit 214 (mask generation step). The voting means 216 (voting step) resets the count value of the position of the mask area, counts up the count value of the position of the non-mask area not masked by the mask area, and moves the movement speed detection means 217. (Moving speed detection step), the accumulated data over consecutive frames Based on the inclination of the cement value, calculates the moving direction of the edge, velocity and acceleration.

その結果、カウント値はエッジが観測された時間計測をしていることと等価であるので、該カウント値の勾配からエッジが所定画素数移動するのに要するフレーム数を計測して、そのエッジの移動方向、速度および加速度をテンプレートマッチングのようなブロックマッチングを用いることなく容易に求めることができる。また、マスク領域により他のエッジの画素が取り込まれることを防ぎ、エッジ間で互いに影響を及ぼし合うことが無く、より正確な速度や加速度を観測することができる。さらに、非マスク領域の位置に基づいてのみ算出処理を行うので、より少ないデータ量に対して比較的簡単な手順で処理でき、画像中からの移動速度成分の検出をより高速に処理することができる(請求項1,5の効果)。   As a result, the count value is equivalent to measuring the time when the edge is observed. Therefore, the number of frames required for the edge to move a predetermined number of pixels is measured from the gradient of the count value, and the edge value is measured. The moving direction, speed, and acceleration can be easily obtained without using block matching such as template matching. Further, it is possible to prevent pixels at other edges from being taken in by the mask area, and to observe more accurate speed and acceleration without affecting each other between the edges. Furthermore, since the calculation process is performed only based on the position of the non-mask area, it can be processed with a relatively simple procedure for a smaller amount of data, and the detection of the moving speed component from the image can be processed at a higher speed. (Effects of claims 1 and 5).

また、本実施例の動き検出装置では、リセットタイミング生成手段17(リセットタイミング生成ステップ)により、隣接エッジとの位置関係に基づき、投票手段216(投票ステップ)によるカウント値並びにマスク領域をリセットするリセットタイミングを設定することとし、より具体的には、隣接するエッジそれぞれの非マスク領域が互いに重畳するとき、リセットタイミングを生成して投票手段216(投票ステップ)によるカウント値並びにマスク領域をリセットするので、隣接するエッジ同士の速度および加速度を観測する非マスク領域が重なり合うまで、それぞれのエッジ速度および加速度を観測する時間を確保することができ、時系列的な速度の変化の検出S/Nを向上することが可能となる(請求項2,4,6,8の効果)。   In the motion detection apparatus of this embodiment, the reset timing generation unit 17 (reset timing generation step) resets the count value and the mask area by the voting unit 216 (voting step) based on the positional relationship with the adjacent edge. More specifically, the timing is set, and more specifically, when the non-mask areas of adjacent edges overlap each other, the reset timing is generated and the count value and the mask area by the voting means 216 (voting step) are reset. The time to observe each edge speed and acceleration can be secured until the non-mask areas for observing the speed and acceleration between adjacent edges overlap, improving the time-series speed change detection S / N (Effects of claims 2, 4, 6 and 8) .

また、本実施例の動き検出装置では、マスク生成手段214(マスク生成ステップ)により、エッジ幅規格化手段213(エッジ幅規格化ステップ)で規格化されたエッジそれぞれについて、前フレームにおけるエッジのマスク領域と現フレームにおいて該エッジが検出されていない領域との論理積で得られる領域を、現フレームにおける該エッジのマスク領域として設定するので、移動速度検出手段217(移動速度検出ステップ)により算出されるカウント値の勾配から、注目されるエッジが所定画素数移動するのに要するフレーム数を計数することができる。つまり、注目するエッジが何フレーム同じ位置に観測されたかの、時間変化を観測することができるので、対象の速度および加速度の検出S/Nを向上することが可能となる。さらに、エッジ幅を規格化した正規化エッジに基づき非マスク領域(マスク)を生成しているので、瞬間的に特異なエッジの影響を低く抑えることができ、より信頼性の高いエッジ情報を用いてエッジの移動方向、速度および加速度を検出することとなり、より正確な速度や加速度を観測することができる(請求項3,7の効果)。   Further, in the motion detection apparatus of this embodiment, the mask of the edge in the previous frame for each edge normalized by the edge width normalizing means 213 (edge width normalizing step) by the mask generating means 214 (mask generating step). Since the area obtained by the logical product of the area and the area where the edge is not detected in the current frame is set as the mask area of the edge in the current frame, it is calculated by the moving speed detecting means 217 (moving speed detecting step). From the count value gradient, the number of frames required for the noted edge to move a predetermined number of pixels can be counted. That is, since it is possible to observe the time change of how many frames the target edge is observed at the same position, it is possible to improve the detection speed / acceleration S / N of the target. In addition, the non-mask area (mask) is generated based on the normalized edge with standardized edge width, so that the influence of singular edges can be kept low instantaneously and more reliable edge information is used. Thus, the moving direction, speed and acceleration of the edge are detected, and more accurate speed and acceleration can be observed (effects of claims 3 and 7).

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

連続する画像の画像処理において対象物の輪郭の動き等の特徴を検出して、対象物の移動速度、移動方向及び位置を簡易に算出する手法として極めて有用である。   This is extremely useful as a method for easily calculating the moving speed, moving direction and position of an object by detecting features such as the contour movement of the object in continuous image processing.

本発明を適用した動き検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the motion detection apparatus to which this invention is applied. 本発明を適用した動き検出装置の動作を説明するためのブロック図である。It is a block diagram for demonstrating operation | movement of the motion detection apparatus to which this invention is applied. 本発明を適用した動き検出装置の特徴規格化部により、エッジ検出フィルタを使用する場合の構成を示すブロック図である。It is a block diagram which shows the structure in the case of using an edge detection filter by the feature normalization part of the motion detection apparatus to which this invention is applied. 本発明を適用した動き検出装置の特徴規格化部により、コーナーエッジ検出フィルタを使用する場合の動作を示す図である。It is a figure which shows operation | movement in case the corner edge detection filter is used by the characteristic normalization part of the motion detection apparatus to which this invention is applied. 本発明を適用した動き検出装置による対象物の位置及び速度を検出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which detects the position and speed of the target object by the motion detection apparatus to which this invention is applied. 本発明を適用した動き検出装置により、規格化パターンからカウント値を得る動作を説明するための図である。It is a figure for demonstrating the operation | movement which obtains a count value from a normalization pattern with the motion detection apparatus to which this invention is applied. 本発明を適用した動き検出装置による生成するマスクについて説明するための図である。It is a figure for demonstrating the mask produced | generated by the motion detection apparatus to which this invention is applied. 本発明の実施形態に係る動き検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the motion detection apparatus which concerns on embodiment of this invention. 本発明に係る動き検出装置による動き検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the motion detection process by the motion detection apparatus which concerns on this invention. エッジ幅規格部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of an edge width specification part. エッジ幅規格化部における細線化処理及び膨張処理と、エッジカウント部におけるカウントアップ処理を説明するための図である。It is a figure for demonstrating the thinning process and expansion process in an edge width normalization part, and the count-up process in an edge count part. 本発明の一実施例に係る動き検出装置の構成図である。It is a block diagram of the motion detection apparatus which concerns on one Example of this invention. エッジ幅規格化手段のより具体的な構成図である。It is a more concrete block diagram of an edge width normalization means. エッジ幅の規格化の手順である2値化(図14(a))、細線化(図14(b))および膨張(図14(c))の処理を例示する説明図である。It is explanatory drawing which illustrates the process of binarization (FIG. 14 (a)), thinning (FIG.14 (b)), and expansion (FIG.14 (c)) which are the procedures of normalization of edge width. 時刻t、時刻t+mおよび時刻t+nにおける正規化エッジ画像と生成されるマスクを例示して、マスク生成手段によるマスク生成を説明する説明図である。It is explanatory drawing explaining the mask production | generation by a mask production | generation means, illustrating the normalized edge image and the produced | generated mask at the time t, the time t + m, and the time t + n. 時刻t、時刻t+mおよび時刻t+nにおける非マスク領域と蓄積された投票値を例示して、投票手段による投票を説明する説明図である。It is explanatory drawing explaining the vote by a voting means, illustrating the non-mask area | region and the accumulated voting value in the time t, the time t + m, and the time t + n. フレーム取得タイミングとリセットタイミングを例示するタイムチャートである。It is a time chart which illustrates a frame acquisition timing and a reset timing. 動き検出装置におけるオプティカルフロー検出方法を説明するフローチャートである。It is a flowchart explaining the optical flow detection method in a motion detection apparatus.

符号の説明Explanation of symbols

1,101 撮像部
2 特徴抽出部
3 特徴規格化部
4 投票部
5,105 移動速度検出部
21,131 2値化部
22,132 細線化部
23,133 膨張部
24 ピーク位置検出部
102 エッジ抽出部
103 エッジ幅規格化部
104 エッジカウント部
141 カウントアップマスク
211 撮像手段
212 エッジ抽出手段
213 エッジ幅規格化手段
214 マスク生成手段
215 リセットタイミング生成手段
216 投票手段
217 移動速度検出手段
221 2値化手段
222 細線化手段
223 膨張手段
DESCRIPTION OF SYMBOLS 1,101 Image pick-up part 2 Feature extraction part 3 Feature normalization part 4 Voting part 5,105 Movement speed detection part 21,131 Binarization part 22,132 Thinning part 23,133 Expansion part 24 Peak position detection part 102 Edge extraction Unit 103 edge width normalization unit 104 edge count unit 141 count-up mask 211 imaging unit 212 edge extraction unit 213 edge width normalization unit 214 mask generation unit 215 reset timing generation unit 216 voting unit 217 movement speed detection unit 221 binarization unit 222 Thinning means 223 Expansion means

Claims (20)

周辺画像を撮像する撮像手段と、
前記撮像手段により撮像された画像中より速度算出を行う領域の特徴領域を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された特徴領域の大きさを規格化する特徴領域規格化手段と、
前記特徴領域規格化手段により規格化された特徴領域情報に基づき、特徴領域が検出されていない領域をその特徴領域のマスク領域として設定するマスク生成手段と、
前記マスク領域の位置のカウント値をリセットし、前記マスク領域によりマスクされていない非マスク領域の位置のカウント値をカウントアップする投票手段と、
連続するフレームに渡って蓄積されたカウント値の傾きより、その特徴領域の移動方向及び移動速度を算出する移動速度検出手段と
を有することを特徴とする動き検出装置。
An imaging means for capturing a peripheral image;
A feature extraction unit for extracting a feature region of a region for speed calculation from the image captured by the imaging unit;
Feature region normalization means for normalizing the size of the feature region extracted by the feature extraction means;
Mask generating means for setting, as a mask area of the feature area, an area in which no feature area is detected, based on the feature area information normalized by the feature area normalizing means;
Voting means for resetting the count value of the position of the mask area and counting up the count value of the position of the non-mask area not masked by the mask area;
And a moving speed detecting means for calculating a moving direction and a moving speed of the feature area from the inclination of the count value accumulated over successive frames.
前記特徴抽出手段は、対象物のエッジ成分である特徴領域を検出することを特徴とする請求項1に記載の動き検出装置。   The motion detection apparatus according to claim 1, wherein the feature extraction unit detects a feature region that is an edge component of an object. 前記特徴抽出手段は、対象物のコーナーエッジ成分である特徴領域を検出することを特徴とする請求項1に記載の動き検出装置。   The motion detection apparatus according to claim 1, wherein the feature extraction unit detects a feature region that is a corner edge component of an object. 前記特徴抽出手段は、対象物の特徴ベクトルである特徴領域を検出することを特徴とする請求項1に記載の動き検出装置。   The motion detection apparatus according to claim 1, wherein the feature extraction unit detects a feature region that is a feature vector of an object. 前記特徴領域規格化手段は、前記特徴抽出手段により抽出された特徴領域より代表点を規定し、代表点を基準として所定のパターンを形成することを特徴とする請求項1乃至請求項4の何れかに記載の動き検出装置。   5. The feature area normalization means defines a representative point from the feature area extracted by the feature extraction means, and forms a predetermined pattern with the representative point as a reference. The motion detection device according to claim 1. 前記移動速度算出手段は、前記カウント値の傾きと、前記カウント値の中で最小のカウント値とに基づいて、前記特徴領域の位置を算出することを特徴とする請求項1乃至請求項4の何れかに記載の動き検出装置。   5. The movement speed calculation unit calculates the position of the feature region based on a slope of the count value and a minimum count value among the count values. 6. Any one of the motion detection apparatuses. 前記特徴領域規格化手段は、前記特徴領域の移動速度に応じて、規格化する特徴領域を規定することを特徴とする請求項1乃至請求項4、請求項6の何れかに記載の動き検出装置。   The motion detection according to any one of claims 1 to 4, wherein the feature region normalizing means defines a feature region to be standardized according to a moving speed of the feature region. apparatus. 隣接する特徴領域との位置関係に基づき、前記投票手段によるカウント値並びに前記マスク領域をリセットするリセットタイミングを設定するリセットタイミング生成手段を有することを特徴とする請求項1乃至請求項4の何れかに記載の動き検出装置。   5. The apparatus according to claim 1, further comprising reset timing generation means for setting a count value by the voting means and a reset timing for resetting the mask area based on a positional relationship with an adjacent feature area. The motion detection apparatus described in 1. 前記マスク生成手段は、前記特徴領域規格化手段により規格化された特徴領域それぞれについて、前フレームにおける特徴領域のマスク領域と現フレームにおいて該特徴領域が検出されていない領域との論理積で得られる領域を、現フレームにおける該特徴領域のマスク領域として設定することを特徴とする請求項1乃至請求項4、請求項8の何れかに記載の動き検出装置。   The mask generation unit obtains, for each feature region normalized by the feature region normalization unit, a logical product of the mask region of the feature region in the previous frame and the region in which the feature region has not been detected in the current frame. The motion detection apparatus according to claim 1, wherein the region is set as a mask region of the feature region in the current frame. 前記リセットタイミング生成手段は、隣接する特徴領域それぞれの非マスク領域が互いに重畳するとき、前記リセットタイミングを生成して前記投票手段によるカウント値並びに前記マスク領域をリセットすることを特徴とする請求項1乃至請求項4、請求項8、請求項9の何れかに記載の動き検出装置。   The reset timing generation means generates the reset timing and resets the count value and the mask area by the voting means when non-mask areas of adjacent feature areas overlap each other. The motion detection device according to any one of claims 4 to 8. 周辺画像を撮像する撮像ステップと、
前記撮像ステップにより撮像された画像中より速度算出を行う領域の特徴領域を抽出する特徴抽出ステップと、
前記特徴領域抽出ステップにより抽出された特徴領域の大きさを規格化する特徴領域規格化ステップと、
前記特徴領域規格化ステップにより規格化された特徴領域情報に基づき、特徴領域が検出されていない領域をその特徴領域のマスク領域として設定するマスク生成ステップと、
前記マスク領域の位置のカウント値をリセットし、前記マスク領域によりマスクされていない非マスク領域の位置のカウント値をカウントアップする投票ステップと、
連続するフレームに渡って蓄積されたカウント値の傾きより、その特徴領域の移動方向及び速度を算出する移動速度検出ステップと
を有することを特徴とする動き検出方法。
An imaging step of capturing a peripheral image;
A feature extraction step of extracting a feature region of a region for speed calculation from the image captured by the imaging step;
A feature region normalizing step for normalizing the size of the feature region extracted by the feature region extracting step;
Based on the feature region information standardized by the feature region normalization step, a mask generation step for setting a region where no feature region is detected as a mask region of the feature region;
A voting step that resets the count value of the position of the mask area and counts up the count value of the position of the non-mask area that is not masked by the mask area;
And a moving speed detecting step of calculating a moving direction and a speed of the feature area from the gradient of the count value accumulated over successive frames.
前記特徴抽出ステップは、対象物のエッジ成分である特徴領域を検出することを特徴とする請求項11に記載の動き検出方法。   The motion detection method according to claim 11, wherein the feature extraction step detects a feature region that is an edge component of an object. 前記特徴抽出ステップは、対象物のコーナーエッジ成分である特徴領域を検出することを特徴とする請求項11に記載の動き検出方法。   The motion detection method according to claim 11, wherein the feature extraction step detects a feature region that is a corner edge component of an object. 前記特徴抽出手段は、対象物の特徴ベクトルである特徴領域を検出することを特徴とする請求項11に記載の動き検出方法。   The motion detection method according to claim 11, wherein the feature extraction unit detects a feature region that is a feature vector of an object. 前記特徴領域規格化ステップは、前記特徴抽出手段により抽出された特徴領域より代表点を規定し、代表点を基準として所定のパターンを形成することを特徴とする請求項11乃至請求項14の何れかに記載の動き検出方法。   15. The feature region normalization step defines a representative point from the feature region extracted by the feature extraction unit, and forms a predetermined pattern with the representative point as a reference. The motion detection method according to crab. 前記移動速度算出ステップは、前記カウント値の傾きと、前記カウント値の中で最小のカウント値とに基づいて、前記特徴領域の位置を算出することを特徴とする請求項11乃至請求項14の何れかに記載の動き検出方法。   15. The position of the feature region is calculated based on the inclination of the count value and the minimum count value among the count values in the moving speed calculation step. The motion detection method according to any one of the above. 前記特徴領域規格化ステップは、前記特徴領域の移動速度に応じて、規格化する特徴領域を規定することを特徴とする請求項11乃至請求項14、請求項16の何れかに記載の動き検出方法。   The motion detection according to any one of claims 11 to 14, wherein the feature region normalizing step defines a feature region to be standardized according to a moving speed of the feature region. Method. 隣接する特徴領域との位置関係に基づき、前記投票ステップによるカウント値並びに前記マスク領域をリセットするリセットタイミングを設定するリセットタイミング生成ステップを有することを特徴とする請求項11乃至請求項14の何れかに記載の動き検出方法。   15. The method according to claim 11, further comprising a reset timing generation step for setting a count value obtained by the voting step and a reset timing for resetting the mask region based on a positional relationship with an adjacent feature region. The motion detection method described in 1. 前記マスク生成ステップは、前記特徴領域規格化ステップにより規格化された特徴領域それぞれについて、前フレームにおける特徴領域のマスク領域と現フレームにおいて該特徴領域が検出されていない領域との論理積で得られる領域を、現フレームにおける該特徴領域のマスク領域として設定することを特徴とする請求項11乃至請求項14、請求項18の何れかに記載の動き検出方法。   The mask generation step is obtained for each feature region normalized by the feature region normalization step by a logical product of the mask region of the feature region in the previous frame and the region in which the feature region has not been detected in the current frame. The motion detection method according to claim 11, wherein the region is set as a mask region of the feature region in the current frame. 前記リセットタイミング生成ステップは、隣接する特徴領域それぞれの非マスク領域が互いに重畳するとき、前記リセットタイミングを生成して前記投票ステップによるカウント値並びに前記マスク領域をリセットすることを特徴とする請求項11乃至請求項14、請求項18、請求項19の何れかに記載の動き検出方法。   The reset timing generation step generates the reset timing and resets the count value and the mask region in the voting step when non-mask regions of adjacent feature regions overlap each other. The motion detection method according to any one of claims 14, 18, and 19.
JP2004278250A 2003-12-10 2004-09-24 Motion detection device and motion detection method Expired - Fee Related JP4079136B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004278250A JP4079136B2 (en) 2003-12-10 2004-09-24 Motion detection device and motion detection method
US11/146,041 US7602946B2 (en) 2004-09-24 2005-06-07 Motion detection apparatus and motion detection method
EP05012461A EP1640916B1 (en) 2004-09-24 2005-06-09 Motion detection apparatus and method
DE602005007131T DE602005007131D1 (en) 2004-09-24 2005-06-09 Apparatus and method for motion detection

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003411995 2003-12-10
JP2003427771 2003-12-24
JP2004278250A JP4079136B2 (en) 2003-12-10 2004-09-24 Motion detection device and motion detection method

Publications (2)

Publication Number Publication Date
JP2005209155A true JP2005209155A (en) 2005-08-04
JP4079136B2 JP4079136B2 (en) 2008-04-23

Family

ID=34916069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004278250A Expired - Fee Related JP4079136B2 (en) 2003-12-10 2004-09-24 Motion detection device and motion detection method

Country Status (1)

Country Link
JP (1) JP4079136B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092117A (en) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd Collision time estimation device for vehicles and collision time estimation method for vehicles
JP2007257132A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Motion detector and motion detection method
JP2007334766A (en) * 2006-06-16 2007-12-27 National Institute Of Advanced Industrial & Technology Abnormal area detection device and abnormal area detection method
JP2008305169A (en) * 2007-06-07 2008-12-18 Denso Corp Motion determination device
JP2010044576A (en) * 2008-08-12 2010-02-25 Nec Engineering Ltd Image generation method, image generation device, and image generation program
US7792327B2 (en) 2005-12-06 2010-09-07 Nissan Motor Co., Ltd. Apparatus and method for detecting a road boundary
JP2011014152A (en) * 2010-08-23 2011-01-20 National Institute Of Advanced Industrial Science & Technology Abnormal region detecting device and abnormal region detection method
US8204278B2 (en) 2006-11-28 2012-06-19 Fujitsu Limited Image recognition method
JP2013050798A (en) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd Motion detector
JP2013050797A (en) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd Motion detector
WO2018047616A1 (en) * 2016-09-08 2018-03-15 ソニー株式会社 Arithmetic device and sensor

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092117A (en) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd Collision time estimation device for vehicles and collision time estimation method for vehicles
US7792327B2 (en) 2005-12-06 2010-09-07 Nissan Motor Co., Ltd. Apparatus and method for detecting a road boundary
JP2007257132A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Motion detector and motion detection method
US7813530B2 (en) 2006-03-22 2010-10-12 Nissan Motor Co., Ltd. Motion detecting method and apparatus
JP4696991B2 (en) * 2006-03-22 2011-06-08 日産自動車株式会社 Motion detection method and motion detection apparatus
JP2007334766A (en) * 2006-06-16 2007-12-27 National Institute Of Advanced Industrial & Technology Abnormal area detection device and abnormal area detection method
JP4603512B2 (en) * 2006-06-16 2010-12-22 独立行政法人産業技術総合研究所 Abnormal region detection apparatus and abnormal region detection method
US8204278B2 (en) 2006-11-28 2012-06-19 Fujitsu Limited Image recognition method
JP2008305169A (en) * 2007-06-07 2008-12-18 Denso Corp Motion determination device
JP2010044576A (en) * 2008-08-12 2010-02-25 Nec Engineering Ltd Image generation method, image generation device, and image generation program
JP2011014152A (en) * 2010-08-23 2011-01-20 National Institute Of Advanced Industrial Science & Technology Abnormal region detecting device and abnormal region detection method
JP4728444B2 (en) * 2010-08-23 2011-07-20 独立行政法人産業技術総合研究所 Abnormal region detection apparatus and abnormal region detection method
JP2013050798A (en) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd Motion detector
JP2013050797A (en) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd Motion detector
WO2018047616A1 (en) * 2016-09-08 2018-03-15 ソニー株式会社 Arithmetic device and sensor
JPWO2018047616A1 (en) * 2016-09-08 2019-06-24 ソニー株式会社 Arithmetic unit and sensor
US10891706B2 (en) 2016-09-08 2021-01-12 Sony Corporation Arithmetic device and sensor to track movement of object between frames
JP7058010B2 (en) 2016-09-08 2022-04-21 ソニーグループ株式会社 Arithmetic logic unit and sensor

Also Published As

Publication number Publication date
JP4079136B2 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
US7602946B2 (en) Motion detection apparatus and motion detection method
US7512494B2 (en) Vehicle mounted image processor and method of use
US7437243B2 (en) Detecting device and method to detect an object based on a road boundary
JP6204659B2 (en) Video processing apparatus and video processing method
US20090161911A1 (en) Moving Object Detection Apparatus And Method
JP4079136B2 (en) Motion detection device and motion detection method
Nieto et al. Real-time vanishing point estimation in road sequences using adaptive steerable filter banks
JP4696991B2 (en) Motion detection method and motion detection apparatus
Verma et al. Analysis of moving object detection and tracking in video surveillance system
KR100885418B1 (en) System and method for detecting and tracking people from overhead camera video
JP2007127478A (en) Device and method for speed detection of tracking subject
CN110689554A (en) Background motion estimation method and device for infrared image sequence and storage medium
JP2006318064A (en) Image sensor
WO2021059765A1 (en) Imaging device, image processing system, image processing method and program
US20230154144A1 (en) Method and system or device for recognizing an object in an electronic image
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
WO2018230016A1 (en) Mobile body observation method
KR100751467B1 (en) Image processing device for recognizing outline of moving target and method therefor
JP4096932B2 (en) Vehicle collision time estimation apparatus and vehicle collision time estimation method
JPH08202847A (en) Moving object counting device
EP2528019A1 (en) Apparatus and method for detecting objects in moving images
JP2006236113A (en) Device and method for extracting region
JP3502933B2 (en) Image processing method for target extraction from infrared image, target extraction method, ground observation method for tracking the extraction target, flying object guidance method and their devices
JP2011129060A (en) Object detection device and object detection method
RU2681703C1 (en) Line segment detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4079136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees