JP4361381B2 - Vehicle detection device - Google Patents

Vehicle detection device Download PDF

Info

Publication number
JP4361381B2
JP4361381B2 JP2004017218A JP2004017218A JP4361381B2 JP 4361381 B2 JP4361381 B2 JP 4361381B2 JP 2004017218 A JP2004017218 A JP 2004017218A JP 2004017218 A JP2004017218 A JP 2004017218A JP 4361381 B2 JP4361381 B2 JP 4361381B2
Authority
JP
Japan
Prior art keywords
vehicle
motion amount
edge component
edge
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004017218A
Other languages
Japanese (ja)
Other versions
JP2005209097A (en
Inventor
景泰 宮原
康裕 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004017218A priority Critical patent/JP4361381B2/en
Publication of JP2005209097A publication Critical patent/JP2005209097A/en
Application granted granted Critical
Publication of JP4361381B2 publication Critical patent/JP4361381B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

この発明は画像中の走行車両を検出する車両検出装置に関するものである。   The present invention relates to a vehicle detection device that detects a traveling vehicle in an image.

画像から車両を検出する従来の車両検出装置として、例えば特許文献1に示されるものがある。この車両検出装置では、まず、カメラで撮影された画像から横エッジと縦エッジを抽出する。横エッジとは車両の進行方向に直交する方向で輝度の急変する特徴急変境界で、縦エッジとは車両の進行方向で輝度の急変する特徴急変境界である。次に、得られた横エッジ・縦エッジの中から等速で車両の進行方向へ移動するものを、等速移動横エッジ、等速移動縦エッジとして抽出する。その後、画像全体で一様に移動する画像要素を背景として除去し、残った等速横エッジと等速縦エッジを車両候補として登録する。等速移動横エッジは車両の幅方向の領域が特定される情報であり、一方、等速移動縦エッジは車両の進行方向の領域を特定するものであるので、車両候補として登録された両エッジを組み合わせて、得られた部分領域を車両領域とすることにより車両を検出している。   As a conventional vehicle detection device that detects a vehicle from an image, for example, there is one disclosed in Patent Document 1. In this vehicle detection device, first, a horizontal edge and a vertical edge are extracted from an image taken by a camera. The horizontal edge is a characteristic sudden change boundary where the luminance changes suddenly in a direction orthogonal to the traveling direction of the vehicle, and the vertical edge is a characteristic sudden change boundary where the luminance changes suddenly in the traveling direction of the vehicle. Next, from the obtained horizontal edges / longitudinal edges, those moving in the traveling direction of the vehicle at a constant speed are extracted as a constant speed moving horizontal edge and a constant speed moving vertical edge. Thereafter, image elements that move uniformly throughout the entire image are removed as a background, and the remaining constant speed horizontal edges and constant speed vertical edges are registered as vehicle candidates. The constant-velocity moving horizontal edge is information that identifies the area in the width direction of the vehicle, while the constant-velocity moving vertical edge specifies the area in the traveling direction of the vehicle, so both edges registered as vehicle candidates The vehicle is detected by using the obtained partial region as a vehicle region.

特開2003−51088号公報(段落0009〜段落0011)JP 2003-51088 A (paragraphs 0009 to 0011)

従来の車両検出装置は以上のように構成され、等速移動横エッジ、等速移動縦エッジを抽出して車両を検出するため、速度が微妙に異なるエッジ成分が多数発生した場合に、多くの組み合わせができ、処理に時間がかかるという課題があった。
また、照明条件により、例えば極度に明るかったり暗かったりした場合は、エッジ成分が分裂したり結合したりと不安定な出現状態になり、エッジ成分から速度情報を安定して抽出すること自体が難しいという課題があった。
The conventional vehicle detection device is configured as described above, and since the vehicle is detected by extracting the constant velocity moving horizontal edge and the constant velocity moving vertical edge, a large number of edge components with slightly different speeds are generated. There was a problem that they could be combined and processing took time.
Also, if the lighting conditions are extremely bright or dark depending on the lighting conditions, for example, the edge components are split or combined, resulting in an unstable appearance, and it is difficult to stably extract velocity information from the edge components. There was a problem.

この発明は上記のような課題を解決するためになされたもので、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分の出現状態が不安定な場合でも、車両の位置を安定して正しくかつ効率良く検出できる車両検出装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and stabilizes the position of the vehicle even when a large number of edge components with slightly different speeds occur or when the appearance state of the edge components is unstable. An object of the present invention is to obtain a vehicle detection device that can detect correctly and efficiently.

この発明に係る車両検出装置は、画像を入力する画像入力手段と、入力画像からエッジ成分を抽出するエッジ成分抽出手段と、過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する動き量抽出手段と、抽出された動き量の頻度分布を作成する動き量頻度分布作成手段と、作成された動き量の頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出する高頻度動き量抽出手段と、上記動き量抽出手段により動き量が抽出されたエッジ成分の中から上記高頻度動き量抽出手段により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択するエッジ成分選択手段と、選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する車両位置決定手段と、上記エッジ成分抽出手段により抽出されたエッジ成分を使用して入力画像中のナンバープレートを検出するナンバープレート検出手段と、検出されたナンバープレート内の文字を認識するナンバープレート認識手段とを備え、上記エッジ成分抽出手段は、入力画像からエッジ強度を算出し、上記エッジ強度を2値化してエッジ2値画像を作成し、上記エッジ2値画像を分割した部分領域毎に作成した投影2値データから連結領域を1つのエッジ成分として抽出するものである。
The vehicle detection device according to the present invention corresponds to an image input means for inputting an image, an edge component extraction means for extracting an edge component from the input image, an edge component extracted in the past, and a newly extracted edge component In addition, a motion amount extraction unit that extracts a motion amount for each edge component, a motion amount frequency distribution generation unit that generates a frequency distribution of the extracted motion amount, and a high frequency in the input image from the generated motion amount frequency distribution. A high-frequency motion amount extraction unit that extracts a motion amount that occurs frequently as a high-frequency motion amount, and the high-frequency motion amount extraction unit that extracts the motion amount from the edge component from which the motion amount has been extracted by the motion amount extraction unit. Edge component selection means for selecting an edge component having a motion amount included in the range of the high frequency motion amount selected, position coordinates of the selected edge component, and frequency distribution of the edge component at this position coordinate A vehicle position determining means for determining a location of the determined vehicle whether Luo vehicle, a license plate detecting means for detecting the number plate in the input image using the edge components extracted by the edge component extracting unit, detecting License plate recognition means for recognizing characters in the license plate, the edge component extraction means calculates edge strength from the input image, binarizes the edge strength to create an edge binary image, A connected region is extracted as one edge component from the binary projection data created for each partial region obtained by dividing the edge binary image .

この発明は、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分が分裂したり結合したりして不安定な出現状態であっても、車体の一部である可能性が極めて高いエッジ成分を抽出することができ、車両の位置を安定して正しくかつ効率良く検出できるという効果がある。   The present invention is very likely to be a part of the vehicle body even when a large number of edge components with slightly different velocities are generated, or even when the edge components are split or combined and appear unstable. Edge components can be extracted, and the vehicle position can be detected stably and correctly.

以下、この発明の実施の一形態について説明する。
実施の形態1.
図1はこの発明の実施の形態1による車両検出装置の構成を示すブロック図である。図1において、画像入力手段1は画像を入力し、エッジ成分抽出手段2は入力画像からエッジ成分を抽出する。動き量抽出手段3は過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出し、動き量頻度分布作成手段4は抽出された動き量の頻度分布を作成し、高頻度動き量抽出手段5は作成された動き量の頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出する。エッジ成分選択手段6は動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択し、車両位置決定手段7は選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する。
Hereinafter, an embodiment of the present invention will be described.
Embodiment 1 FIG.
1 is a block diagram showing a configuration of a vehicle detection apparatus according to Embodiment 1 of the present invention. In FIG. 1, an image input unit 1 inputs an image, and an edge component extraction unit 2 extracts an edge component from the input image. The motion amount extraction means 3 extracts the motion amount for each edge component by associating the edge component extracted in the past with the newly extracted edge component, and the motion amount frequency distribution creation means 4 extracts the motion amount of the extracted motion amount. A frequency distribution is created, and the high-frequency motion amount extraction unit 5 extracts a motion amount that occurs frequently in the input image as a high-frequency motion amount from the generated frequency distribution of motion amounts. The edge component selection unit 6 selects an edge component having a motion amount included in the range of the high frequency motion amount extracted by the high frequency motion amount extraction unit 5 from the edge components from which the motion amount has been extracted by the motion amount extraction unit 3. The vehicle position determination means 7 determines the presence or absence of the vehicle from the position coordinates of the selected edge component and the frequency distribution of the edge component at this position coordinate, and determines the position of the vehicle.

次に動作について説明する。
図2はこの発明の実施の形態1による車両検出装置の処理の流れを示すフローチャートである。ステップST11において、画像入力手段1は画像を入力する。
図3は入力画像の例を示す図であり、入力画像101内に車両の先頭部分(車頭)、その左下には車の影、さらに下には路面が見えている。入力画像101中の座標は、図3に示すように、画像の左上を原点として、右方向(水平方向)にX軸をとり、下方向(垂直方向)にY軸をとるものとする。ここでは、入力画像101として、一つの画素値が0〜255の256レベルで表わされる白黒の濃淡画像が入力されるものとする。
Next, the operation will be described.
FIG. 2 is a flowchart showing a process flow of the vehicle detection apparatus according to the first embodiment of the present invention. In step ST11, the image input means 1 inputs an image.
FIG. 3 is a diagram showing an example of an input image. In the input image 101, the head portion (vehicle head) of the vehicle, the lower left of the vehicle, the shadow of the vehicle, and the road surface below can be seen. As shown in FIG. 3, the coordinates in the input image 101 take the X axis in the right direction (horizontal direction) and the Y axis in the downward direction (vertical direction) with the upper left corner of the image as the origin. Here, it is assumed that a black and white grayscale image in which one pixel value is represented by 256 levels from 0 to 255 is input as the input image 101.

図2のステップST12において、エッジ成分抽出手段2は入力画像101からエッジ成分を抽出する。
図4はエッジ成分抽出の詳細処理の流れを示すフローチャートである。図4のステップST21において、エッジ成分抽出手段2は各画素についてエッジ強度を算出する。このエッジ強度とは、入力画像101における濃淡変動の急峻さを示す値であり、例えば、総研出版発行「コンピュータ画像処理入門」pp.119〜125に記載の各種方法で算出することができる。具体的な例としては、入力画像101を微分してその絶対値をエッジ強度とする方法や、勾配の大きさをエッジ強度とする方法をとることが可能である。この実施の形態1では、入力画像101を水平方向に微分した絶対値をエッジ強度とし、下記の式(1)で求めるものとする。
E=ABS(I(x−1,y)−I(x,y)) (1)
ここで、Eはエッジ強度、ABSは絶対値をとる関数で、I(x,y)は座標(x,y)における入力画像101の画素値を示す。
In step ST <b> 12 of FIG. 2, the edge component extraction unit 2 extracts edge components from the input image 101.
FIG. 4 is a flowchart showing a flow of detailed processing of edge component extraction. In step ST21 of FIG. 4, the edge component extraction means 2 calculates the edge strength for each pixel. This edge strength is a value indicating the steepness of the light and shade fluctuation in the input image 101. For example, see “Introduction to Computer Image Processing” pp. It can be calculated by various methods described in 119 to 125. As a specific example, it is possible to take a method in which the input image 101 is differentiated and its absolute value is used as the edge strength, or a gradient is used as the edge strength. In the first embodiment, the absolute value obtained by differentiating the input image 101 in the horizontal direction is set as the edge strength, and is obtained by the following equation (1).
E = ABS (I (x-1, y) -I (x, y)) (1)
Here, E is an edge strength, ABS is a function that takes an absolute value, and I (x, y) indicates a pixel value of the input image 101 at coordinates (x, y).

ステップST22において、エッジ成分抽出手段2はエッジ強度を2値化してエッジ2値画像を作成する。2値化は、例えば上記「コンピュータ画像処理入門」pp.66〜69に記載の各種方法で行うことができるが、この実施の形態1では、あらかじめ固定の閾値を定めておき、エッジ強度が閾値以上であれば‘1'、閾値未満なら‘0'とする2値化を行うものとする。
図5はエッジ2値画像の例を示す図であり、図3に示す入力画像101から図5に示すエッジ2値画像102が得られる。このエッジ2値画像102では、画素値‘1'を黒で示し、画素値‘0'を白で示している。
In step ST22, the edge component extraction unit 2 binarizes the edge strength and creates an edge binary image. For example, binarization is described in “Introduction to Computer Image Processing” pp. In the first embodiment, a fixed threshold value is set in advance, and “1” is set when the edge strength is equal to or higher than the threshold value, and “0” is set when the edge strength is lower than the threshold value. It is assumed that binarization is performed.
FIG. 5 is a diagram showing an example of the edge binary image, and the edge binary image 102 shown in FIG. 5 is obtained from the input image 101 shown in FIG. In the edge binary image 102, the pixel value “1” is shown in black and the pixel value “0” is shown in white.

図4のステップST23において、エッジ成分抽出手段2は、エッジ2値画像102を部分領域に分割し、部分領域毎に水平方向に投影をとって投影値を求める。
図6はエッジ成分抽出時のエッジ2値画像の領域分割例を示す図である。この例では、部分領域はエッジ2値画像102を垂直方向にn等分した形態としている。そして、エッジ成分抽出手段2は、1〜nの番号を付けた部分領域それぞれについて、同一水平ライン上の画素値の総和をとり投影値とする。
In step ST23 of FIG. 4, the edge component extraction unit 2 divides the edge binary image 102 into partial areas, and obtains a projection value by projecting in the horizontal direction for each partial area.
FIG. 6 is a diagram showing an example of area division of the edge binary image at the time of edge component extraction. In this example, the partial area has a form in which the edge binary image 102 is divided into n equal parts in the vertical direction. Then, the edge component extraction means 2 takes the sum of the pixel values on the same horizontal line for each of the partial areas numbered 1 to n to obtain a projection value.

図4のステップST24において、エッジ成分抽出手段2は投影値の2値化を行い‘0'又は‘1'の要素からなる投影2値データを作成する。2値化の方法は、上記のエッジ強度の2値化と同様である。ステップST25において、エッジ成分抽出手段2は投影2値データから‘1'の連続する部分(連結領域)をそれぞれ一つのエッジ成分として登録する。
図7はエッジ2値画像の一つの部分領域からエッジ成分を抽出する例を示す図であり、図7(a)に示す部分領域から図7(b)に示す水平方向の投影値が得られ、この投影値を2値化した結果、図7(c)に示す四つのエッジ成分が抽出される。
In step ST24 of FIG. 4, the edge component extraction means 2 binarizes the projection value and creates projection binary data composed of elements of “0” or “1”. The binarization method is the same as the binarization of the edge strength. In step ST <b> 25, the edge component extraction unit 2 registers each continuous portion (connected region) of “1” from the projection binary data as one edge component.
FIG. 7 is a diagram showing an example in which edge components are extracted from one partial area of the edge binary image. The horizontal projection value shown in FIG. 7B is obtained from the partial area shown in FIG. As a result of binarizing this projection value, four edge components shown in FIG. 7C are extracted.

図2のステップST13において、動き量抽出手段3は過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する。例えば、動き量抽出手段3は、1回前の入力画像のエッジ成分と最新の入力画像101のエッジ成分とを比較し、所定の条件が成立した場合に、当該エッジ成分は同一のものであると見なして、その座標差を動き量として抽出する。この同一のものと見なす条件は、例えば、下記の三つの条件を全て満足する場合とする。
(条件1)同一番号の部分領域に属していること。
(条件2)長さが同程度の値であること。
(条件3)上側や下側に隣接する他のエッジ成分までの距離が同程度の値であること。
In step ST13 of FIG. 2, the motion amount extraction means 3 associates the edge component extracted in the past with the newly extracted edge component, and extracts the motion amount for each edge component. For example, the motion amount extraction unit 3 compares the edge component of the previous input image with the edge component of the latest input image 101, and when a predetermined condition is satisfied, the edge component is the same. The coordinate difference is extracted as a motion amount. For example, the same condition is assumed to satisfy all of the following three conditions.
(Condition 1) Belonging to partial areas with the same number.
(Condition 2) The length should be the same value.
(Condition 3) The distances to other edge components adjacent to the upper side and the lower side should be the same value.

図8はエッジ成分の動き量を抽出する際の対応付けの例を示す図である。ここで、111〜115はエッジ成分を示し、116は動き量を示している。また、111〜113は1回前の入力画像から抽出したエッジ成分で、114〜115は最新の入力画像101から新たに抽出したエッジ成分であり、属する部分領域の番号は同じであるとする。対応付けを行ったところ、エッジ成分112とエッジ成分115が上記の三つの条件を全て満足するため、これらを同一物体のエッジ成分と見なし、これらの下端の座標差116を動き量として抽出する。   FIG. 8 is a diagram illustrating an example of association when extracting the motion amount of the edge component. Here, reference numerals 111 to 115 denote edge components, and 116 denotes the amount of movement. Further, 111 to 113 are edge components extracted from the previous input image, 114 to 115 are edge components newly extracted from the latest input image 101, and the numbers of the partial areas to which they belong are the same. As a result of the association, since the edge component 112 and the edge component 115 satisfy all the above three conditions, they are regarded as the edge components of the same object, and the coordinate difference 116 between these lower ends is extracted as the motion amount.

なお、上記の条件1は、車両がほぼ垂直方向に移動することを前提としているが、これは、斜め移動の可能性がある場合等、あらかじめ設定された車両の進行方向の情報に基づいて変えても良い。例えば、過去に抽出したエッジ成分の部分領域番号をi、最新の入力画像101におけるエッジ成分の部分領域番号をjとして、左右一つ分までの部分領域のずれが発生するのであれば、jはi−1〜i+1の範囲のどこかと対応付くことになり、次の式(2)を条件1の替わりに用いると、部分領域一つ分の斜行に対応できる。
i−1≦jかつj≦i+1 (2)
The above condition 1 is based on the premise that the vehicle moves in a substantially vertical direction, but this is changed based on information on the traveling direction of the vehicle set in advance, such as when there is a possibility of oblique movement. May be. For example, assuming that the partial region number of the edge component extracted in the past is i, and the partial region number of the edge component in the latest input image 101 is j, if there is a shift of partial regions up to one left and right, j is Corresponding to somewhere in the range of i-1 to i + 1, if the following equation (2) is used instead of condition 1, it is possible to cope with skew of one partial region.
i−1 ≦ j and j ≦ i + 1 (2)

また、車両が必ず画像の左上から右下へ移動するような場合には、次の式(3)を条件1の替わりに用いる。
i+α≦jかつj≦i+β (αとβは定数で、0≦α<β) (3)
さらに、Y座標の比較結果も条件1に加えることができる。例えば、車両が画像の上から下へ移動するのなら、過去に抽出したエッジ成分の下端Y座標をm、最新の入力画像101におけるエッジ成分の下端Y座標をnとすると、次の式(4)を条件1に加える。
m+γ≦n (γは調整用の定数で、0≦γ) (4)
このように条件1を適切に定めると、効率の良い対応付けが可能となる。また、条件2や条件3についても、対応付けが適切にできるように、その内容を変更しても良い。
Further, when the vehicle always moves from the upper left to the lower right of the image, the following equation (3) is used instead of condition 1.
i + α ≦ j and j ≦ i + β (α and β are constants, 0 ≦ α <β) (3)
Furthermore, the comparison result of the Y coordinate can also be added to the condition 1. For example, if the vehicle moves from the top to the bottom of the image, assuming that the lower end Y coordinate of the edge component extracted in the past is m and the lower end Y coordinate of the edge component in the latest input image 101 is n, the following equation (4) ) Is added to condition 1.
m + γ ≦ n (γ is a constant for adjustment, 0 ≦ γ) (4)
Thus, if condition 1 is appropriately determined, efficient association becomes possible. Further, the contents of condition 2 and condition 3 may be changed so that the association can be appropriately performed.

図2のステップST14において、動き量頻度分布作成手段4は動き量抽出手段3により抽出された動き量の頻度分布を作成する。
図9は動き量の頻度分布の例と高頻度動き量の抽出方法の例を説明するための図である。図9(a)は動き量頻度分布作成手段4により作成された動き量の頻度分布の例を示す図であり、縦軸の動き量に対応したエッジ成分の数を横軸に頻度として示している。図9(a)において、動き量の少ない位置にある塊は路面等にある移動していないエッジ成分に対応し、一方、動き量の多い位置にうすく広がっている塊は、エッジ2値画像102のかすれ等によりエッジ成分が分断され、実際には発生していない動きがあるかのように抽出してしまったところである。入力画像101中で車両が占める面積は大きいため、図9(a)に示す動き量の頻度分布の中で、最も大きい塊が実際の車両の動きに対応していると見なせる。
In step ST14 of FIG. 2, the motion amount frequency distribution creating unit 4 creates a frequency distribution of the motion amount extracted by the motion amount extracting unit 3.
FIG. 9 is a diagram for explaining an example of a motion amount frequency distribution and an example of a method of extracting a high frequency motion amount. FIG. 9A is a diagram showing an example of the frequency distribution of the motion amount created by the motion amount frequency distribution creating means 4, and the number of edge components corresponding to the motion amount on the vertical axis is shown as the frequency on the horizontal axis. Yes. In FIG. 9A, a lump at a position with a small amount of motion corresponds to a non-moving edge component on the road surface or the like, while a lump spreading slightly at a position with a large amount of motion represents an edge binary image 102. The edge component has been divided due to blurring, etc., and it has been extracted as if there were movements that did not actually occur. Since the area occupied by the vehicle in the input image 101 is large, it can be considered that the largest lump corresponds to the actual movement of the vehicle in the frequency distribution of the movement amount shown in FIG.

図2のステップST15において、高頻度動き量抽出手段5は、所定幅の動き量範囲における頻度の和を求め、この値が最大となる範囲を高頻度動き量とする。
図9(b)は高頻度動き量の抽出方法の例を説明するための図であり、図9(b)において、121は動き量の許容差を示し、122と123は頻度和が最大となる範囲を間に挟む動き量を示している。すなわち、図9(b)において、あらかじめ定めた動き量の許容差121で頻度分布の部分的な和を求めていった結果、動き量122〜動き量123の範囲の和が最大となった場合、この動き量122,123を高頻度動き量の最小値・最大値とする。ただし、上記頻度分布の部分的な和の最大値が所定の閾値未満の場合は、入力画像101内に「車両なし」と見なして以降の処理は行わない。
In step ST15 of FIG. 2, the high-frequency motion amount extraction means 5 calculates the sum of frequencies in a motion amount range with a predetermined width, and sets a range in which this value is maximum as the high-frequency motion amount.
FIG. 9B is a diagram for explaining an example of a method for extracting a high-frequency motion amount. In FIG. 9B, 121 indicates a motion amount tolerance, and 122 and 123 indicate the maximum frequency sum. The amount of movement with a range between is shown. That is, in FIG. 9B, when the sum of the range of the motion amount 122 to the motion amount 123 is maximized as a result of obtaining the partial sum of the frequency distribution with the predetermined motion amount tolerance 121. The movement amounts 122 and 123 are set as the minimum and maximum values of the high-frequency movement amount. However, when the maximum value of the partial sum of the frequency distributions is less than the predetermined threshold, it is regarded as “no vehicle” in the input image 101 and the subsequent processing is not performed.

図2のステップST16において、エッジ成分選択手段6は、ステップST13で動き量が抽出されたエッジ成分の中から、その動き量が高頻度動き量の範囲に含まれるエッジ成分を選択する。ここで選択されたエッジ成分は、車両の動きと概ね等しい動き量を持つので、車体の一部である可能性が極めて高いものとなる。   In step ST16 of FIG. 2, the edge component selection unit 6 selects an edge component whose motion amount is included in the range of the high-frequency motion amount from the edge components whose motion amount is extracted in step ST13. Since the edge component selected here has a movement amount substantially equal to the movement of the vehicle, the possibility of being part of the vehicle body is extremely high.

ステップST17において、車両位置決定手段7はエッジ成分選択手段6により選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する。この実施の形態1では、車頭の位置を検出することとし、垂直座標の狭い範囲にエッジ成分が密集している位置を検出し、これを車両位置とする。この場合、例えばステップST14〜ST15と同じように、垂直座標の頻度分布を作成し、最も大きい塊の位置を検出する方法をとることができる。   In step ST17, the vehicle position determination means 7 determines the presence or absence of the vehicle from the position coordinates of the edge component selected by the edge component selection means 6 and the frequency distribution of the edge component at this position coordinate, and determines the position of the vehicle. In the first embodiment, the position of the vehicle head is detected, the position where edge components are concentrated in a narrow range of vertical coordinates is detected, and this is set as the vehicle position. In this case, for example, as in steps ST14 to ST15, it is possible to create a vertical coordinate frequency distribution and detect the position of the largest block.

図10は選択されたエッジ成分の垂直座標の頻度分布から車両位置を決定する方法を説明するための図であり、131は垂直座標の許容差を示し、132と133は頻度和が最大となる範囲を間に挟む垂直座標を示している。図10において、車両位置決定手段7は、あらかじめ定めた垂直座標の許容差131で頻度分布の部分的な和を求めて行き、例えば垂直座標132〜垂直座標133の範囲の和が最大となった場合、このうち最も画像下端に近い垂直座標133を車両位置とする。ただし、車両位置決定手段7は、上記頻度分布の部分的な和の最大値が所定の閾値以上の場合には「車両あり」と判定するが、所定の閾値未満の場合には、入力画像101内に「車両なし」と判定する。   FIG. 10 is a diagram for explaining a method of determining the vehicle position from the vertical coordinate frequency distribution of the selected edge component. 131 indicates the vertical coordinate tolerance, and 132 and 133 have the maximum frequency sum. It shows the vertical coordinates with a range in between. In FIG. 10, the vehicle position determination means 7 obtains a partial sum of frequency distributions with a predetermined vertical coordinate tolerance 131, for example, the sum of the range of vertical coordinates 132 to vertical coordinates 133 is maximized. In this case, the vertical coordinate 133 closest to the lower end of the image is set as the vehicle position. However, the vehicle position determination means 7 determines that “there is a vehicle” when the maximum value of the partial sum of the frequency distributions is equal to or greater than a predetermined threshold value. It is determined that there is no vehicle inside.

以上のように、この実施の形態1によれば、エッジ成分抽出手段2が入力画像からエッジ成分を抽出し、動き量抽出手段3が過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出し、動き量頻度分布作成手段4が抽出された動き量の頻度分布を作成し、高頻度動き量抽出手段5が作成された頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出し、動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択し、車両位置決定手段7が選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定することにより、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分が分裂したり結合したりして不安定な出現状態であっても、車体の一部である可能性が極めて高いエッジ成分を抽出することができ、車両の位置を安定して正しくかつ効率良く検出できるという効果が得られる。   As described above, according to the first embodiment, the edge component extracting unit 2 extracts an edge component from the input image, and the motion amount extracting unit 3 extracts the edge component extracted in the past and the newly extracted edge component. Is extracted from the frequency distribution for each edge component, the frequency distribution of the motion amount is created by the motion amount frequency distribution creation means 4, and the frequency distribution of the high frequency motion amount extraction means 5 is input from the created frequency distribution The amount of motion that occurs frequently in the image is extracted as the high-frequency motion amount, and the high-frequency motion amount extracting unit 5 extracts the high-level motion amount extracting unit 5 from the edge components from which the motion amount is extracted. An edge component having a motion amount included in the range of the frequency motion amount is selected, and the vehicle position determination means 7 determines the presence / absence of the vehicle from the position coordinate of the selected edge component and the frequency distribution of the edge component at this position coordinate. The position of If there are many edge components with slightly different velocities, or if the edge components are unstable or appear to be unstable due to splitting or combining, the possibility of being part of the vehicle is extremely high. A high edge component can be extracted, and the effect that the position of the vehicle can be detected stably and correctly is obtained.

なお、この実施の形態1では画像を水平方向に微分した絶対値をエッジ強度としているが、例えば、垂直方向に微分した絶対値をエッジ強度としたり、水平方向の値と垂直方向の値の両者からエッジ強度を求めても良く、他のエッジ検出法に基づく算出式を適用しても良い。また、高頻度動き量の範囲を所定幅(固定幅)としたが、これは動き量の頻度分布に応じて幅を変えるようにしても良い。例えば、狭い範囲に頻度が集中していれば狭い幅とし、広く散らばっていれば広い幅になるようにしても良い。   In the first embodiment, the absolute value obtained by differentiating the image in the horizontal direction is used as the edge strength. For example, the absolute value obtained by differentiating in the vertical direction is used as the edge strength, or both the horizontal value and the vertical value are used. The edge strength may be obtained from the above, or a calculation formula based on another edge detection method may be applied. Moreover, although the range of the high-frequency motion amount is set to a predetermined width (fixed width), the width may be changed according to the frequency distribution of the motion amount. For example, if the frequency is concentrated in a narrow range, the width may be narrow, and if the frequency is scattered widely, the width may be wide.

また、この実施の形態1では、エッジ強度や投影値の2値化において、固定の閾値で2値化する方法を使用しているが、これは他の2値化手法を使用しても良い。さらに、閾値以上の大きい値を‘1'にする方法ではなく、二つの閾値に挟まれた中間的な範囲を‘1'とする方法でも良い。   In the first embodiment, a method of binarizing with a fixed threshold is used for binarizing the edge strength and the projection value. However, other binarization methods may be used for this. . Further, a method of setting an intermediate range between two threshold values to ‘1’ instead of a method of setting a large value equal to or greater than the threshold value to ‘1’ may be used.

さらに、この実施の形態1ではエッジ成分を部分領域における投影値から抽出しているが、微分2値画像から‘1'の連結領域を抽出し、それぞれをエッジ成分とするような別の方法を用いても良い。   Further, in the first embodiment, the edge component is extracted from the projection value in the partial region. However, another method is used in which a connected region of “1” is extracted from the differential binary image and each is used as an edge component. It may be used.

実施の形態2.
図11はこの発明の実施の形態2による車両検出装置の構成を示すブロック図である。図11において、エッジ成分抽出手段2は入力画像から投影2値データを求めてエッジ成分を抽出する際に、投影2値データの結合や消去を行う。また、エッジ成分分類手段8はエッジ成分抽出手段2により結合や消去が行われたエッジ成分の位置座標からエッジ成分を分類し、動き量頻度分布作成手段4は分類されたエッジ成分に応じて重みを変えて、抽出された動き量の頻度分布を作成し、エッジ成分選択手段6は動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分をエッジ成分分類手段8による分類結果に基づいて選択する。さらに、車両通過状況推定手段9は高頻度動き量抽出手段5により抽出された高頻度動き量の履歴情報を参照して車両の通過状況を推定し、推定した車両の通過状況と車両位置決定手段7により判定された車両の有無により最終的な車両検出結果を決定する。その他の構成要素は実施の形態1の図1と同一のものである。
Embodiment 2. FIG.
FIG. 11 is a block diagram showing a configuration of a vehicle detection device according to Embodiment 2 of the present invention. In FIG. 11, the edge component extraction unit 2 combines and deletes the projection binary data when obtaining the projection binary data from the input image and extracting the edge component. Further, the edge component classification means 8 classifies the edge components from the position coordinates of the edge components that are combined or deleted by the edge component extraction means 2, and the motion amount frequency distribution creation means 4 weights according to the classified edge components. The edge component selection means 6 is extracted by the high frequency motion amount extraction means 5 from the edge components from which the motion amount is extracted by the motion amount extraction means 3. An edge component having a motion amount included in the range of the high-frequency motion amount is selected based on the classification result by the edge component classification means 8. Further, the vehicle passing situation estimation means 9 estimates the passing situation of the vehicle by referring to the history information of the high-frequency motion amount extracted by the high-frequency motion quantity extraction means 5, and the estimated vehicle passing situation and the vehicle position determining means. The final vehicle detection result is determined according to the presence / absence of the vehicle determined by 7. Other components are the same as those in FIG. 1 of the first embodiment.

次に動作について説明する。
図12はこの発明の実施の形態2による車両検出装置の処理の流れを示すフローチャートである。ステップST31において、画像入力手段1が画像を入力し、ステップST32において、エッジ成分抽出手段2が入力画像101からエッジ成分を抽出する。
エッジ成分抽出の詳細処理の流れを示すフローチャートは、実施の形態1の図4に示すものと同じであり、処理内容も図4のステップST21〜ST24までの処理内容と同じであるが、この実施の形態2ではステップST25の処理内容が異なる。ステップST25において、エッジ成分抽出手段2は投影2値データの結合・消去を行い、その結果をエッジ成分として登録する。この投影2値データの結合・消去の処理は、明るさ変動等に起因するエッジ成分のかすれによる分断やノイズ等の影響を抑えることが目的である。
Next, the operation will be described.
FIG. 12 is a flowchart showing a process flow of the vehicle detection apparatus according to the second embodiment of the present invention. In step ST31, the image input means 1 inputs an image, and in step ST32, the edge component extraction means 2 extracts an edge component from the input image 101.
The flowchart showing the detailed processing flow of edge component extraction is the same as that shown in FIG. 4 of the first embodiment, and the processing content is the same as the processing content from steps ST21 to ST24 in FIG. In the second embodiment, the processing content of step ST25 is different. In step ST25, the edge component extraction means 2 combines and deletes the projection binary data, and registers the result as an edge component. The process of combining and erasing the projection binary data is intended to suppress the influence of fragmentation due to blurring of edge components due to brightness fluctuations, noise, and the like.

図13はエッジ成分抽出の際に行う投影2値データの結合・消去処理を説明するための図であり、車体部分の投影2値データ141を第1の結合判定用閾値143や第2の結合判定用閾値145により結合し、ノイズ部分の投影2値データ142を消去判定用閾値144により消去する様子を示している。ここでは、第1の結合判定用閾値143<第2の結合判定用閾値145とする。   FIG. 13 is a diagram for explaining projection binary data combining / deleting processing performed at the time of edge component extraction. The projection binary data 141 of the vehicle body part is converted into the first combination determination threshold value 143 and the second combination. A state is shown in which the projection binary data 142 of the noise portion is deleted by the erasure determination threshold value 144 by combining with the determination threshold value 145. Here, it is assumed that the first combination determination threshold value 143 <the second combination determination threshold value 145.

エッジ成分抽出手段2は、図13(a)の投影2値データに対し、第1の結合判定用閾値143を適用し、上下に隣接する連結領域間の距離(上側の連結領域の下端位置から下側の連結領域の上端位置までの長さ)が当該閾値以下である場合、その連結領域同士を結合して一つの連結領域とする。この結果が図13(b)であり、車体部分の投影2値データ141における細かな分断が結合されている。   The edge component extraction unit 2 applies the first combination determination threshold value 143 to the projection binary data in FIG. 13A, and determines the distance between the upper and lower adjacent connected regions (from the lower end position of the upper connected region). When the length (up to the upper end position of the lower connection area) is equal to or less than the threshold value, the connection areas are combined into one connection area. This result is shown in FIG. 13B, in which fine divisions in the projected binary data 141 of the vehicle body portion are combined.

次に、エッジ成分抽出手段2は、この図13(b)に対し、消去判定用閾値144を適用し、長さが当該閾値以下である連結領域を消去する。この結果が図13(c)であり、ノイズ部分の投影2値データ142の連結領域が消去されている。最後に、エッジ成分抽出手段2は、この図13(c)に対して、第2の結合判定用閾値145を適用し、上下に隣接する連結領域間の距離が当該閾値以下である場合、その連結領域同士を結合して一つの連結領域とする。この結果が図13(d)であり、車体部分の投影2値データ141の分断が解消されている一方、ノイズ部分の投影2値データ142には連結領域は全く無くなっており、残った一つの連結領域がエッジ成分として登録される。   Next, the edge component extraction unit 2 applies the erasure determination threshold value 144 to this FIG. 13B, and erases the connected region whose length is equal to or less than the threshold value. This result is shown in FIG. 13C, and the connected region of the projection binary data 142 of the noise portion is deleted. Finally, the edge component extraction unit 2 applies the second combination determination threshold value 145 to FIG. 13C, and when the distance between the connected regions adjacent in the vertical direction is equal to or less than the threshold value, The connected areas are combined into one connected area. This result is shown in FIG. 13 (d). While the division of the projection binary data 141 of the vehicle body portion is eliminated, the connection binary area is completely eliminated in the projection binary data 142 of the noise portion, and the remaining one A connected area is registered as an edge component.

ここで、図13(a)の投影2値データに対して、そのまま消去判定用閾値144による消去を行うと車体部分の投影2値データ141の中央部が欠落し、あるいは、そのまま第2の結合判定用閾値145による結合を行うとノイズ部分の投影2値データ142が一つの大きな連結領域として残ってしまうが、上記説明の通り、閾値を切り替えつつ(上記の例では闘値を徐々に大きくしつつ)結合と消去を繰り返すことで、かすれによる分断を解消し、かつノイズを除去することが可能となる。   Here, if the projection binary data in FIG. 13A is erased as it is with the threshold value 144 for erasure determination, the central portion of the projection binary data 141 of the vehicle body part is lost, or the second combination as it is. When combining with the threshold value for determination 145, the projection binary data 142 of the noise portion remains as one large connected area, but as described above, the threshold value is switched (in the above example, the battle value is gradually increased). However, by repeating the coupling and erasing, it becomes possible to eliminate the division caused by the blur and to remove the noise.

ステップST33において、エッジ成分分類手段8はエッジ成分抽出手段2により抽出されたエッジ成分の位置座標からエッジ成分の分類を行う。この実施の形態2ではエッジ成分を下記のA,B,C,Dに分類することとする。
A;車両前面である可能性の高いもの。
B;下端位置の動きが車両の動きを反映している可能性の高いもの。
C;上端位置の動きが車両の動きを反映している可能性の高いもの。
D;上記以外。
In step ST33, the edge component classification unit 8 classifies the edge component from the position coordinates of the edge component extracted by the edge component extraction unit 2. In the second embodiment, the edge components are classified into the following A, B, C, and D.
A: Highly likely to be in front of the vehicle.
B: The movement of the lower end position is highly likely to reflect the movement of the vehicle.
C: The movement of the upper end position is highly likely to reflect the movement of the vehicle.
D: Other than the above.

この分類では、エッジ成分の位置座標、すなわち、エッジ成分の長さ・位置や、隣接するエッジ成分までの距離に基づく条件を適用して、例えば下記のように分類する。
(分類1)エッジ成分の長さが所定範囲内で、上側又は下側の所定範囲内に他のエッジ成分が無いならAと分類する。
(分類2)エッジ成分の長さが所定値以上で、下側の所定範囲内に他のエッジ成分が無いならBと分類する。
(分類3)エッジ成分の長さが所定値以上で、上側の所定範囲内に他のエッジ成分が無いならCと分類する。
(分類4)分類1〜分類3の各条件を満足しなければDと分類する。
In this classification, a condition based on the position coordinates of the edge component, that is, the length / position of the edge component and the distance to the adjacent edge component is applied, and the classification is performed as follows, for example.
(Classification 1) If the length of the edge component is within a predetermined range and there is no other edge component within the predetermined range on the upper side or the lower side, it is classified as A.
(Classification 2) If the length of the edge component is not less than a predetermined value and there is no other edge component in the lower predetermined range, it is classified as B.
(Category 3) If the length of the edge component is not less than a predetermined value and there is no other edge component in the upper predetermined range, it is classified as C.
(Category 4) If each condition of classification 1 to classification 3 is not satisfied, it is classified as D.

図14は入力画像から得たエッジ成分の例を示す図であり、車体側面に対応したエッジ成分151,152、車体前面に対応したエッジ成分153,154、路面に対応したエッジ成分155〜158を示している。図14の例では、Aに該当するのはエッジ成分153,154で、Bに該当するのはエッジ成分151,152で、Cに該当するのはエッジ成分155であり、他のエッジ成分がDとなる。   FIG. 14 is a diagram showing an example of edge components obtained from an input image. Edge components 151 and 152 corresponding to the vehicle body side surface, edge components 153 and 154 corresponding to the vehicle body front surface, and edge components 155 to 158 corresponding to the road surface are shown. Show. In the example of FIG. 14, the edge components 153 and 154 correspond to A, the edge components 151 and 152 correspond to B, the edge component 155 corresponds to C, and the other edge components are D. It becomes.

図12のステップST34において、動き量抽出手段3は、過去に抽出したエッジ成分と新たに抽出したエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する。この実施の形態2では、上記A,B,Cのいずれかに分類されたエッジ成分だけを対象として対応付けを行い、実施の形態1で用いた条件1、条件2、条件3を満足し、かつ同じ分類が為されているエッジ成分同士を同一と見なして、その座標差を動き量とする。ここで、座標差をとる基準位置は、A及びBに分類されたものは下端位置とし、Cに分類されたものは上端位置とする。例えば、Cに分類された図14のエッジ成分155は路面のエッジ成分ではあるが、その上端位置の変化は車両の移動を示しているので、その変化量を用いるわけである。   In step ST34 of FIG. 12, the motion amount extraction unit 3 extracts the motion amount for each edge component by associating the previously extracted edge component with the newly extracted edge component. In the second embodiment, only the edge components classified into any one of A, B, and C are associated with each other, and the conditions 1, 2, and 3 used in the first embodiment are satisfied. In addition, the edge components that are classified the same are regarded as the same, and the coordinate difference is set as the amount of movement. Here, as for the reference position for taking the coordinate difference, those classified into A and B are the lower end positions, and those classified into C are the upper end positions. For example, although the edge component 155 of FIG. 14 classified as C is an edge component of the road surface, the change in the upper end position indicates the movement of the vehicle, so the change amount is used.

ステップST35において、動き量頻度分布作成手段4は動き量の頻度分布を作成するが、この実施の形態2では、ステップST33の分類結果に応じ、車両の検出精度を上げるために頻度として加算する値(重み)をエッジ成分毎に変えるものとする。例えば、車両である可能性が高いAは一つのエッジ成分につき2を加算し、B,Cは1を加算する。ステップST36において、実施の形態1と同様の手順で、高頻度動き量抽出手段5が当該頻度分布から高頻度動き量を抽出する。ステップST37において、エッジ成分選択手段6は車両位置推定用のエッジ成分を選択するが、この実施の形態2では、その動き量が高頻度動き量の範囲に含まれ、かつAに分類されたものを選択する。   In step ST35, the motion amount frequency distribution creating means 4 creates a motion amount frequency distribution. In the second embodiment, the value added as the frequency in order to increase the vehicle detection accuracy according to the classification result in step ST33. Assume that (weight) is changed for each edge component. For example, A which is highly likely to be a vehicle adds 2 for one edge component, and B and C add 1. In step ST36, the high frequency motion amount extraction means 5 extracts the high frequency motion amount from the frequency distribution in the same procedure as in the first embodiment. In step ST37, the edge component selection means 6 selects an edge component for vehicle position estimation. In the second embodiment, the motion amount is included in the high-frequency motion amount range and is classified as A. Select.

ステップST38において、車両位置決定手段7は、実施の形態1と同様の手順で、車両の有無を判定して車両位置を決定し、ステップST39において、車両通過状況推定手段9は高頻度動き量抽出手段5により抽出された高頻度動き量の履歴情報を参照して車両の通過状況を推定する。車両通過状況の推定方法としては、例えば、高頻度動き量の履歴情報(過去一定サイクル数における値)を参照して、同程度の高頻度動き量が続いている場合は「車両通過中」と見なし、続いていなければ「車両通過なし」とする方法をとる。   In step ST38, the vehicle position determination means 7 determines the vehicle position by determining the presence or absence of the vehicle in the same procedure as in the first embodiment. In step ST39, the vehicle passage state estimation means 9 extracts the high-frequency motion amount. The passing situation of the vehicle is estimated with reference to the history information of the high-frequency motion amount extracted by the means 5. As a method of estimating the vehicle passing situation, for example, referring to the history information of the high-frequency movement amount (value in the past constant cycle number), when the same high-frequency movement amount continues, “passing the vehicle” If it does not continue, “no vehicle passing” is adopted.

ステップST40において、車両通過状況推定手段9は、上記ステップST38で判定された車両の有無とステップST39で推定された車両通過状況から最終的な車両検出結果を決定する。例えば、車両通過状況推定手段9は、下記の条件aか条件bのどちらかが成立した場合は車両検出結果を「車頭出現」として車両位置を合せて出力し、どちらの条件も成立しない場合は、「車両通過中」の状況が続いていれば「車両あり」と決定し、続いていなければ「車両なし」と決定する。
(条件a)高頻度動き量の履歴情報による「車両通過中」が続いている状況において、初めて車両位置決定手段7が「車両あり」と判定した場合。
(条件b)高頻度動き量の履歴情報による「車両通過なし」の状況において、車両位置決定手段7が「車両あり」と判定した場合。
In step ST40, the vehicle passage situation estimation means 9 determines the final vehicle detection result from the presence / absence of the vehicle determined in step ST38 and the vehicle passage situation estimated in step ST39. For example, the vehicle passage state estimation means 9 outputs the vehicle detection result as “vehicle appearance” with the vehicle position when either of the following conditions a or b is satisfied, and when neither of the conditions is satisfied: If the state of “passing through the vehicle” continues, it is determined that “the vehicle is present”, and if not, it is determined that “the vehicle is not present”.
(Condition a) When the vehicle position determination means 7 determines that “there is a vehicle” for the first time in a situation where “passing through the vehicle” continues based on the history information of the high-frequency motion amount.
(Condition b) A case where the vehicle position determination means 7 determines that “there is a vehicle” in the situation of “no vehicle passing” based on the history information of the high-frequency motion amount.

このようにすると、1台の車両の通過中に「車両あり」は複数回発生し得るが、「車頭出現」は1回だけ発生する。車両位置決定手段7の決定結果だけでは、トラックの荷台等を別車両として検出してしまい、通過台数を二重カウントしてしまう場合もあるが、この実施の形態2では、車両通過状況の推定結果も加味して最終的な判定を下すため、車長の長い車両が通過しても誤って複数回検出することを防止できる。   In this way, “there is a vehicle” can occur a plurality of times during the passage of one vehicle, but “the appearance of the vehicle head” occurs only once. Only the determination result of the vehicle position determination means 7 may detect a truck bed or the like as a separate vehicle, and may double count the number of passing vehicles. Since the final determination is made in consideration of the result, even if a vehicle with a long vehicle length passes, it can be prevented from erroneously detecting multiple times.

以上のように、この実施の形態2によれば、エッジ成分抽出手段2が入力画像からエッジ成分を抽出し、エッジ成分分類手段8がエッジ成分の位置座標からエッジ成分を分類し、動き量抽出手段3が過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出し、動き量頻度分布作成手段4が分類されたエッジ成分に応じて重みを変えて抽出された動き量の頻度分布を作成し、高頻度動き量抽出手段5が作成された頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出し、エッジ成分選択手段6が動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分をエッジ成分分類手段8による分類結果に基づいて選択し、車両位置決定手段7が選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定することにより、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分が分裂したり結合したりして不安定な出現状態であっても、車体の一部である可能性が極めて高いエッジ成分を抽出することができ、車両の位置を安定して正しくかつ効率良く検出できるという効果が得られる。   As described above, according to the second embodiment, the edge component extraction unit 2 extracts the edge component from the input image, the edge component classification unit 8 classifies the edge component from the position coordinates of the edge component, and extracts the motion amount. The means 3 extracts the motion amount for each edge component by associating the edge component extracted in the past with the newly extracted edge component, and the motion amount frequency distribution creating means 4 weights according to the classified edge component. The frequency distribution of the extracted motion amount is generated by changing the frequency, and the high-frequency motion amount extraction means 5 extracts the high-frequency motion amount that is frequently generated in the input image from the generated frequency distribution. The edge component having the motion amount included in the range of the high frequency motion amount extracted by the high frequency motion amount extraction unit 5 from the edge components from which the motion amount extraction unit 3 has extracted the motion amount by the edge component selection unit 6 The edge Selection is made based on the classification result by the classification unit 8, and the vehicle position determination unit 7 determines the presence or absence of the vehicle from the position coordinates of the selected edge component and the frequency distribution of the edge component at this position coordinate, and determines the position of the vehicle. As a result, even when a large number of edge components with slightly different speeds occur, or even when the edge components are split or combined and appear unstable, the edge is very likely to be part of the vehicle body. The components can be extracted, and the effect that the position of the vehicle can be detected stably and correctly is obtained.

また、この実施の形態2によれば、エッジ成分抽出手段2が投影2値データの結合・消去を行い、その結果をエッジ成分として抽出することにより、明るさ変動等に起因するエッジ成分のかすれによる分断やノイズ等の影響を抑えることができるという効果が得られる。   Further, according to the second embodiment, the edge component extraction unit 2 combines and deletes the projection binary data, and extracts the result as an edge component, thereby fading the edge component due to brightness fluctuations and the like. The effect of being able to suppress the influence of the division and noise due to is obtained.

さらに、この実施の形態2によれば、エッジ成分の分類結果に基づいて基準位置(上端・下端)を切り替えてエッジ成分の動き量を抽出することにより、車両の動き量を安定して抽出できるという効果が得られる。   Furthermore, according to the second embodiment, the movement amount of the vehicle can be stably extracted by switching the reference position (upper end / lower end) and extracting the movement amount of the edge component based on the classification result of the edge component. The effect is obtained.

さらに、この実施の形態2によれば、車両通過状況推定手段9が車両の通過状況を考慮して車両検出結果を決定することにより、車長の長い車両も含め、通過する車両の種類によらずに安定して車両検出が行えるという効果が得られる。   Further, according to the second embodiment, the vehicle passage state estimation means 9 determines the vehicle detection result in consideration of the passage state of the vehicle, so that it depends on the type of the vehicle that passes, including a vehicle with a long vehicle length. The effect that a vehicle can be detected stably without being acquired.

なお、この実施の形態2では、投影2値データの結合・消去の手順を、結合→消去→結合の3ステップとしているが、これはもっと多く繰り返すようにしても良い。また、エッジ成分をA,B,C,Dの四つに分類したが、これは、もっと細かい条件で5種類以上に分類しても良く、あるいは、A,B,Dか、A,C,Dの3種類としても良い。   In the second embodiment, the procedure for combining and erasing projection binary data is made up of three steps of combining → erasing → combining, but this may be repeated more frequently. In addition, the edge components are classified into A, B, C, and D, but this may be classified into five or more types under more detailed conditions, or A, B, D, A, C, Three types of D may be used.

さらに、頻度分布作成の際の重みをエッジ成分の分類結果から決定しているが、他の条件を用いて重みを変えても良い。例えば、画像の中央にあるものは重みを大きくし、端にあるものは小さくするようにしても良く、さらには、動き量の大小に応じて重みを変えても良い。   Furthermore, although the weight in creating the frequency distribution is determined from the edge component classification result, the weight may be changed using other conditions. For example, the weight at the center of the image may be increased, the weight at the end may be decreased, and the weight may be changed according to the amount of motion.

さらに、車両通過状況の推定方法として、高頻度動き量の履歴情報を参照する方法を用いているが、これは他の方法でも良い。例えば、車頭出現と判定した直後の所定時間内を車両通過中と見なす方法や、車頭出現と判定した時点の高頻度動き量から車両の通過予想時間を求め、この予想時間内を車両通過中と見なす方法もある。さらに、車両検出結果として、「車頭出現」、「車両あり」及び「車両なし」3種類の出力を定めているが、これはもっと細かくし種類を増やしても良く、また判定条件も変えても良い。   Furthermore, as a method of estimating the vehicle passage situation, a method of referring to the history information of the high-frequency motion amount is used, but this may be another method. For example, a method that considers that a vehicle is passing the vehicle within a predetermined time immediately after it is determined that the vehicle has appeared, or a vehicle's estimated passing time is determined from the amount of high-frequency movement at the time when it is determined that the vehicle has appeared. There is also a method to consider. Furthermore, as the vehicle detection result, three types of output “car appearance”, “with vehicle” and “without vehicle” are defined, but this may be further refined and the types may be increased, and the judgment conditions may be changed. good.

実施の形態3.
図15はこの発明の実施の形態3による車両検出装置の構成を示すブロック図である。図において、ナンバープレート検出手段10はエッジ成分抽出手段2により抽出されたエッジ成分を使用してナンバープレートを検出し、ナンバープレート認識手段11はナンバープレート内の文字を認識する。その他の構成要素は実施の形態1の図1と同一のものである。
Embodiment 3 FIG.
FIG. 15 is a block diagram showing a configuration of a vehicle detection device according to Embodiment 3 of the present invention. In the figure, the license plate detection means 10 detects the license plate using the edge component extracted by the edge component extraction means 2, and the license plate recognition means 11 recognizes the characters in the license plate. Other components are the same as those in FIG. 1 of the first embodiment.

次に動作について説明する。
図16はこの発明の実施の形態3による車両検出装置の処理の流れを示すフローチャートである。ステップST51〜ST57では、実施の形態1の図2におけるステップST11〜ST17と同様の手順で車両検出を行う。
Next, the operation will be described.
FIG. 16 is a flowchart showing a process flow of the vehicle detection apparatus according to the third embodiment of the present invention. In steps ST51 to ST57, vehicle detection is performed in the same procedure as steps ST11 to ST17 in FIG. 2 of the first embodiment.

ステップST58において、ナンバープレート検出手段10は、ステップST52でエッジ成分抽出手段2により抽出されたエッジ成分を使用してナンバープレートの検出を行う。このナンバープレートの検出方法としては、例えば、信学技報PRMU96−46「ナンバープレート認識装置の開発」(以下、単に文献と呼ぶ)に記載の方法を用いる。この場合、上記文献の2.1節「プレート切り出し部」に記載のように、水平方向に微分した画像の投影値、すなわち実施の形態1で言うところのエッジ成分を使用して、ナンバープレートの上部と下部を示すペアを検出し、ステップST51で入力した入力画像101を使用して、上記文献の2.2節「プレート2値化部」の処理を行う。このように、エッジ成分をナンバープレート領域の切り出しにも使用することにより、エッジ成分を車両検出とナンバープレート検出の両方で利用できるため、全体として非常に効率の良い構成となる。また、このステップST58において、ナンバープレート領域が複数検出された場合には、ナンバープレート検出手段10は、ステップST57で車両位置決定手段7により決定された車両位置に近い方を選択する。   In step ST58, the license plate detecting means 10 detects the license plate using the edge component extracted by the edge component extracting means 2 in step ST52. As a method of detecting this license plate, for example, the method described in IEICE Technical Report PRMU 96-46 “Development of License Plate Recognition Device” (hereinafter simply referred to as literature) is used. In this case, as described in section 2.1 “Plate cutout section” of the above document, the projection value of the image differentiated in the horizontal direction, that is, the edge component in the first embodiment is used, and the license plate A pair indicating an upper part and a lower part is detected, and using the input image 101 input in step ST51, the processing of Section 2.2 “Plate binarization unit” in the above document is performed. As described above, since the edge component can be used for both vehicle detection and license plate detection by using the edge component also for cutting out the license plate region, the overall configuration is very efficient. When a plurality of license plate areas are detected in step ST58, the license plate detection means 10 selects the one closer to the vehicle position determined by the vehicle position determination means 7 in step ST57.

ステップST59において、ナンバープレート認識手段11は検出されたナンバープレート内の文字を認識する。この認識法としては、例えば、上記文献の2.3節「文字認識」に記載の方法を用いる。   In step ST59, the license plate recognition means 11 recognizes the characters in the detected license plate. As the recognition method, for example, the method described in section 2.3 “Character recognition” in the above-mentioned document is used.

以上のように、この実施の形態3によれば、実施の形態1と同様の効果が得られると共に、ナンバープレート検出手段10が車両を検出するためのエッジ成分を使用してナンバープレートの検出を行い、ナンバープレート認識手段11が検出されたナンバープレート内の文字を認識することにより、車両検出とナンバープレート検出を効率良く実施することができるという効果が得られる。   As described above, according to the third embodiment, the same effect as that of the first embodiment can be obtained, and the license plate detection means 10 can detect the license plate using the edge component for detecting the vehicle. When the license plate recognition means 11 recognizes the characters in the detected license plate, the vehicle detection and the license plate detection can be performed efficiently.

また、この実施の形態3によれば、ナンバープレート検出手段10が車両位置決定手段7により決定された車両位置の情報をナンバープレート検出にも利用することにより、ナンバープレートの検出精度を高めることができるという効果が得られる。   Further, according to the third embodiment, the license plate detection means 10 uses the information on the vehicle position determined by the vehicle position determination means 7 also for the license plate detection, thereby increasing the detection accuracy of the license plate. The effect that it can be obtained.

なお、この実施の形態3では、ナンバープレート検出法として文献記載の方法を用いているが、これはエッジの情報を使用するものであれば、別の方法を用いても良い。また、ナンバープレート認識法も、文献記載のものとは別の方法を用いても良い。さらに、ナンバープレート領域が複数検出された場合に車両位置により選択するようにしているが、例えば、最初からナンバープレート検出の対象領域を車両位置周辺に限定する等、車両位置の情報をナンバープレート検出に利用する別の形態をとっても良い。   In the third embodiment, the method described in the literature is used as the license plate detection method, but another method may be used as long as it uses edge information. In addition, the license plate recognition method may be different from those described in the literature. In addition, when a plurality of license plate areas are detected, the selection is made according to the vehicle position. For example, the license plate detection is performed from the beginning to limit the target area of the license plate detection to the periphery of the vehicle position. Another form may be used.

実施の形態4.
図17はこの発明の実施の形態4による車両検出装置の構成を示すブロック図である。図において、ナンバープレート検出手段10は、車両通過状況推定手段9により「車頭出現」と決定された場合に、エッジ成分抽出手段2により抽出されたエッジ成分を使用してナンバープレートを検出し、ナンバープレート認識手段11はナンバープレート内の文字を認識する。その他の構成要素は実施の形態2の図11と同一のものである。
Embodiment 4 FIG.
FIG. 17 is a block diagram showing a configuration of a vehicle detection device according to Embodiment 4 of the present invention. In the figure, the license plate detection means 10 detects the license plate using the edge component extracted by the edge component extraction means 2 when the vehicle passage state estimation means 9 determines “car appearance”. Plate recognition means 11 recognizes characters in the license plate. Other components are the same as those in FIG. 11 of the second embodiment.

次に動作について説明する。
図18はこの発明の実施の形態4による車両検出装置の処理の流れを示すフローチャートである。ステップST61〜ST70では、実施の形態2の図12におけるステップST31〜ST40と同様の手順で車両検出を行う。
Next, the operation will be described.
FIG. 18 is a flowchart showing a process flow of the vehicle detection apparatus according to Embodiment 4 of the present invention. In steps ST61 to ST70, vehicle detection is performed in the same procedure as steps ST31 to ST40 in FIG. 12 of the second embodiment.

ステップST71において、ナンバープレート検出手段10はステップST70における車両通過状況推定手段9による車両検出結果をチェックして「車頭出現」の場合に、ステップST72において、ナンバープレート検出手段10は実施の形態3と同様にナンバープレートの検出を行う。トラックのように車体が長く、かつ荷台部分に文字が表示されているような車両では、荷台部分の一部を誤ってナンバープレートとして検出してしまう場合もあるが、「車頭出現」の場合だけナンバープレートの検出を行うことで、車体に表示されている文字のような、ナンバープレート以外の領域を誤って検出してしまうことを防止できる。   In step ST71, the license plate detection means 10 checks the vehicle detection result by the vehicle passage situation estimation means 9 in step ST70, and in the case of “car appearance”, in step ST72, the license plate detection means 10 is the same as that of the third embodiment. Similarly, the license plate is detected. In vehicles such as trucks where the body is long and characters are displayed on the loading platform, a part of the loading platform may be mistakenly detected as a license plate, but only in the case of `` car head appearance '' By detecting the license plate, it is possible to prevent erroneous detection of areas other than the license plate, such as characters displayed on the vehicle body.

ステップST73において、図示されていない制御手段によりナンバープレートの検出結果がチェックされ、ナンバープレートが検出されていれば、ステップST74において、実施の形態3と同様に、ナンバープレート認識手段11が検出されたナンバープレート内の文字を認識するが、ナンバープレートが検出されていない場合は、検出された車両にはナンバープレートが付いていないか、あるいは隠れた位置にあると見なし、図示されていない警報装置を通じてナンバープレートが検出できないことを発報したり、又は図示されていない画像保存手段が検出された当該車両の画像を保存する。   In step ST73, the detection result of the license plate is checked by a control means (not shown). If the license plate is detected, the license plate recognition means 11 is detected in step ST74 as in the third embodiment. If the license plate is recognized, but the license plate is not detected, it is assumed that the detected vehicle does not have a license plate or is in a hidden position, and through a warning device (not shown) A notification that the license plate cannot be detected is issued, or an image storage means (not shown) stores the detected vehicle image.

以上のように、この実施の形態4によれば、実施の形態2と同様の効果が得られると共に、ナンバープレート検出手段10が「車頭出現」の場合に車両を検出するためのエッジ成分を使用してナンバープレートの検出を行い、ナンバープレート認識手段11が検出されたナンバープレート内の文字を認識することにより、車両検出とナンバープレート検出を効率良く実施することができ、ナンバープレート以外の領域を誤って検出してしまうことを防止できるという効果が得られる。   As described above, according to the fourth embodiment, the same effects as those of the second embodiment can be obtained, and the edge component for detecting the vehicle when the license plate detecting means 10 is “appearance of the vehicle head” is used. The license plate is detected, and the license plate recognition means 11 recognizes the characters in the detected license plate, so that vehicle detection and license plate detection can be efficiently performed. It is possible to prevent the erroneous detection.

また、この実施の形態4によれば、ナンバープレートが検出できない場合に、警報装置を通じて発報し、車両の画像を保存することにより、ナンバープレートが検出できない注意すべき車両の通知や画像保存を行うことができるという効果が得られる。   In addition, according to the fourth embodiment, when a license plate cannot be detected, a warning device is used to notify the vehicle and store an image of the vehicle to which a license plate cannot be detected. The effect that it can be performed is acquired.

なお、この実施の形態4では、図18のステップST75で、ナンバープレートが検出できない注意すべき車両について発報と画像保存を行っているが、これは、非定常状態で行われるような別の処理を行っても良い。例えば、車両は検出できてもナンバープレートを検出できないという現象は、カメラの絞り値等の撮像パラメータが望ましい範囲からずれていても起こり得るので、車両が検出できてナンバープレートが検出できない回数をカウントし、所定数以上連続して発生したら撮像パラメータの自動調整処理を行うことが考えられる。   In the fourth embodiment, in step ST75 of FIG. 18, the warning vehicle and the image storage are performed for the vehicle to which the license plate cannot be detected, but this is different from that performed in an unsteady state. Processing may be performed. For example, the phenomenon that the license plate cannot be detected even if the vehicle can be detected can occur even if the imaging parameters such as the aperture value of the camera deviate from the desired range, so the number of times that the vehicle can be detected and the license plate cannot be detected is counted. However, it is conceivable to perform automatic adjustment processing of imaging parameters if a predetermined number or more occur continuously.

この発明の実施の形態1による車両検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置の入力画像の例を示す図である。It is a figure which shows the example of the input image of the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置のエッジ成分抽出の詳細処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the detailed process of edge component extraction of the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置におけるエッジ2値画像の例を示す図である。It is a figure which shows the example of the edge binary image in the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置におけるエッジ成分抽出時のエッジ2値画像の領域分割例を示す図である。It is a figure which shows the area | region division example of the edge binary image at the time of edge component extraction in the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置におけるエッジ2値画像の一つの部分領域からエッジ成分を抽出する例を示す図である。It is a figure which shows the example which extracts an edge component from one partial area | region of the edge binary image in the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置におけるエッジ成分の動き量を抽出する際の対応付けの例を示す図である。It is a figure which shows the example of matching at the time of extracting the motion amount of the edge component in the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両検出装置における動き量の頻度分布の例と高頻度動き量の抽出方法の例を説明するための図である。It is a figure for demonstrating the example of the frequency distribution example of the motion amount in the vehicle detection apparatus by Embodiment 1 of this invention, and the example of the extraction method of a high frequency motion amount. この発明の実施の形態1による車両検出装置における選択されたエッジ成分の垂直座標の頻度分布から車両位置を決定する方法を説明するための図である。It is a figure for demonstrating the method to determine a vehicle position from the frequency distribution of the vertical coordinate of the selected edge component in the vehicle detection apparatus by Embodiment 1 of this invention. この発明の実施の形態2による車両検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle detection apparatus by Embodiment 2 of this invention. この発明の実施の形態2による車両検出装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the vehicle detection apparatus by Embodiment 2 of this invention. この発明の実施の形態2による車両検出装置におけるエッジ成分抽出の際に行う投影2値データの結合・消去処理を説明するための図である。It is a figure for demonstrating the combination / erasure | elimination process of the projection binary data performed in the case of edge component extraction in the vehicle detection apparatus by Embodiment 2 of this invention. この発明の実施の形態2による車両検出装置における入力画像から得たエッジ成分の例を示す図である。It is a figure which shows the example of the edge component obtained from the input image in the vehicle detection apparatus by Embodiment 2 of this invention. この発明の実施の形態3による車両検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle detection apparatus by Embodiment 3 of this invention. この発明の実施の形態3による車両検出装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the vehicle detection apparatus by Embodiment 3 of this invention. この発明の実施の形態4による車両検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle detection apparatus by Embodiment 4 of this invention. この発明の実施の形態4による車両検出装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the vehicle detection apparatus by Embodiment 4 of this invention.

符号の説明Explanation of symbols

1 画像入力手段、2 エッジ成分抽出手段、3 動き量抽出手段、4 動き量頻度分布作成手段、5 高頻度動き量抽出手段、6 エッジ成分選択手段、7 車両位置決定手段、8 エッジ成分分類手段、9 車両通過状況推定手段、10 ナンバープレート検出手段、11 ナンバープレート認識手段、101 入力画像、102 エッジ2値画像、111,112,113,114,115 エッジ成分、116 動き量、121 動き量の許容差、122,123 頻度和が最大となる範囲を間に挟む動き量、131 垂直座標の許容差、132,133 頻度和が最大となる範囲を間に挟む垂直座標、141 車体部分の投影2値データ、142 ノイズ部分の投影2値データ、143 第1の結合判定用闘値、144 消去判定用闘値、145 第2の結合判定用闘値、151,152 車体側面に対応したエッジ成分、153,154 車体前面に対応したエッジ成分、155,156,157,158 路面に対応したエッジ成分。   DESCRIPTION OF SYMBOLS 1 Image input means, 2 Edge component extraction means, 3 Motion amount extraction means, 4 Motion amount frequency distribution creation means, 5 High frequency motion amount extraction means, 6 Edge component selection means, 7 Vehicle position determination means, 8 Edge component classification means , 9 Vehicle passage state estimation means, 10 license plate detection means, 11 license plate recognition means, 101 input image, 102 edge binary image, 111, 112, 113, 114, 115 edge component, 116 motion amount, 121 motion amount Tolerance, 122,123 Movement amount sandwiching a range where the frequency sum is maximum, 131 Vertical coordinate tolerance, 132,133 Vertical coordinate sandwiching a range where the frequency sum is maximum, 141 Projection of body part 2 Value data, 142 Projection binary data of noise part, 143 First combination determination threshold value, 144 Erasing determination threshold value, 145 2 of the coupling determination 闘値, edge components corresponding to 151, 152 vehicle body side, the edge component corresponding to the vehicle body front 153 and 154, the edge component corresponding to 155,156,157,158 road.

Claims (8)

画像を入力する画像入力手段と、
入力画像からエッジ成分を抽出するエッジ成分抽出手段と、
過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する動き量抽出手段と、
抽出された動き量の頻度分布を作成する動き量頻度分布作成手段と、
作成された動き量の頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出する高頻度動き量抽出手段と、
上記動き量抽出手段により動き量が抽出されたエッジ成分の中から上記高頻度動き量抽出手段により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択するエッジ成分選択手段と、
選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する車両位置決定手段と、
上記エッジ成分抽出手段により抽出されたエッジ成分を使用して入力画像中のナンバープレートを検出するナンバープレート検出手段と、
検出されたナンバープレート内の文字を認識するナンバープレート認識手段とを備え、
上記エッジ成分抽出手段は、入力画像からエッジ強度を算出し、上記エッジ強度を2値化してエッジ2値画像を作成し、上記エッジ2値画像を分割した部分領域毎に作成した投影2値データから連結領域を1つのエッジ成分として抽出することを特徴とする車両検出装置。
An image input means for inputting an image;
Edge component extraction means for extracting edge components from the input image;
A motion amount extraction means for extracting a motion amount for each edge component by associating the edge component extracted in the past with the newly extracted edge component;
A motion amount frequency distribution creating means for creating a frequency distribution of the extracted motion amount;
A high-frequency motion amount extraction means for extracting, as a high-frequency motion amount, a motion amount that occurs frequently in the input image from the generated motion amount frequency distribution;
Edge component selection means for selecting an edge component having a motion amount included in the range of the high frequency motion amount extracted by the high frequency motion amount extraction means from among the edge components from which the motion amount has been extracted by the motion amount extraction means. When,
Vehicle position determination means for determining the presence or absence of a vehicle from the position coordinates of the selected edge component and the frequency distribution of the edge component at the position coordinates and determining the position of the vehicle ;
License plate detection means for detecting a license plate in the input image using the edge component extracted by the edge component extraction means;
A license plate recognition means for recognizing characters in the detected license plate;
The edge component extraction means calculates edge strength from an input image, binarizes the edge strength to create an edge binary image, and generates projected binary data for each partial region obtained by dividing the edge binary image. A vehicle detection device that extracts a connected region as one edge component from a vehicle.
エッジ成分抽出手段は所定の閾値に基づき投影2値データの結合と消去を繰り返してエッジ成分を抽出することを特徴とする請求項1記載の車両検出装置。 2. The vehicle detection apparatus according to claim 1, wherein the edge component extracting means extracts the edge component by repeatedly combining and erasing the projected binary data based on a predetermined threshold . 動き量抽出手段はあらかじめ設定された車両の進行方向の情報に基づいてエッジ成分の対応付けを行うことを特徴とする請求項記載の車両検出装置。 Motion amount extraction means vehicle detection apparatus according to claim 1, characterized in that the correspondence of an edge component based on the traveling direction information of the vehicle which is set in advance. 動き量頻度分布作成手段はエッジ成分の位置や動き量に応じて重みを変えて、動き量抽出手段により抽出された動き量の頻度分布を作成することを特徴とする請求項1記載の車両検出装置。 2. The vehicle detection according to claim 1, wherein the motion amount frequency distribution creating means creates the frequency distribution of the motion amount extracted by the motion amount extracting means by changing the weight according to the position of the edge component and the motion amount. apparatus. エッジ成分抽出手段により抽出されたエッジ成分の位置座標からエッジ成分を分類するエッジ成分分類手段を備え、
動き量抽出手段はエッジ成分分類手段の分類結果に基づいて動き量抽出の対象とするエッジ成分を選択し、
エッジ成分選択手段は上記動き量抽出手段により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を上記エッジ成分分類手段による分類結果に基づいて選択することを特徴とする請求項1記載の車両検出装置。
Edge component classification means for classifying the edge component from the position coordinates of the edge component extracted by the edge component extraction means;
The motion amount extraction means selects an edge component to be subjected to motion amount extraction based on the classification result of the edge component classification means,
The edge component selection means selects an edge component having a motion amount included in the range of the high-frequency motion amount extracted by the high-frequency motion amount extraction means from the edge components from which the motion amount has been extracted by the motion amount extraction means. 2. The vehicle detection device according to claim 1, wherein the selection is made based on a classification result by the component classification means .
高頻度動き量抽出手段により抽出された高頻度動き量の履歴情報を参照して車両の通過状況を推定し、推定した車両の通過状況と車両位置決定手段により判定された車両の有無により車両検出結果を決定する車両通過状況推定手段を備えたことを特徴とする請求項1記載の車両検出装置。 The vehicle passage state is estimated by referring to the history information of the high-frequency motion amount extracted by the high-frequency motion amount extraction unit, and the vehicle is detected based on the estimated vehicle passage state and the presence / absence of the vehicle determined by the vehicle position determination unit. The vehicle detection apparatus according to claim 1, further comprising vehicle passage state estimation means for determining a result . エッジ成分抽出手段により抽出されたエッジ成分を使用して、車両通過状況推定手段による車両検出結果に基づき入力画像中のナンバープレートを検出するナンバープレート検出手段と、
検出されたナンバープレート内の文字を認識するナンバープレート認識手段とを備えたことを特徴とする請求項記載の車両検出装置。
License plate detection means for detecting the license plate in the input image based on the vehicle detection result by the vehicle passage state estimation means using the edge component extracted by the edge component extraction means;
7. The vehicle detection apparatus according to claim 6, further comprising license plate recognition means for recognizing characters in the detected license plate .
ナンバープレート検出手段がナンバープレートを検出できない場合に、検出できないことを外部に発報したり、又は検出された車両の画像を保存することを特徴とする請求項7記載の車両検出装置。 8. The vehicle detection device according to claim 7 , wherein when the license plate cannot be detected by the license plate detection means, the fact that the license plate cannot be detected is reported to the outside, or the detected vehicle image is stored .
JP2004017218A 2004-01-26 2004-01-26 Vehicle detection device Expired - Fee Related JP4361381B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004017218A JP4361381B2 (en) 2004-01-26 2004-01-26 Vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004017218A JP4361381B2 (en) 2004-01-26 2004-01-26 Vehicle detection device

Publications (2)

Publication Number Publication Date
JP2005209097A JP2005209097A (en) 2005-08-04
JP4361381B2 true JP4361381B2 (en) 2009-11-11

Family

ID=34902129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004017218A Expired - Fee Related JP4361381B2 (en) 2004-01-26 2004-01-26 Vehicle detection device

Country Status (1)

Country Link
JP (1) JP4361381B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4973008B2 (en) * 2006-05-26 2012-07-11 富士通株式会社 Vehicle discrimination device and program thereof
JP5019375B2 (en) * 2007-09-05 2012-09-05 コイト電工株式会社 Object detection apparatus and object detection method
WO2014205787A1 (en) * 2013-06-28 2014-12-31 中国科学院自动化研究所 Vehicle detecting method based on hybrid image template

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164881A (en) * 1989-11-22 1991-07-16 Oki Electric Ind Co Ltd Moving vector detection
JPH05312818A (en) * 1992-05-13 1993-11-26 Sumitomo Electric Ind Ltd Speed measuring device and method through image processing
JPH11339017A (en) * 1998-05-29 1999-12-10 Mitsubishi Heavy Ind Ltd License plate recognizing device
JP3436224B2 (en) * 1999-12-16 2003-08-11 日本電気株式会社 Vehicle end detection device
JP3920535B2 (en) * 2000-06-12 2007-05-30 株式会社日立製作所 Vehicle detection method and vehicle detection device
JP3651419B2 (en) * 2001-08-03 2005-05-25 日産自動車株式会社 Environment recognition device

Also Published As

Publication number Publication date
JP2005209097A (en) 2005-08-04

Similar Documents

Publication Publication Date Title
CN100385462C (en) Method and device for tracing moving object in image
JP4855556B1 (en) Moving object detection apparatus, moving object detection method, moving object detection program, moving object tracking apparatus, moving object tracking method, and moving object tracking program
WO2019057067A1 (en) Image quality evaluation method and apparatus
CN102997900B (en) Vehicle systems, devices, and methods for recognizing external worlds
US7231288B2 (en) System to determine distance to a lead vehicle
JP6971177B2 (en) Compartment line recognition device
JP5127182B2 (en) Object detection device
JP4697480B2 (en) Lane recognition device, lane recognition method, and lane recognition program
KR100650407B1 (en) Method and apparatus for generating video abstract information at high speed on based multi-modal
CN102013008B (en) Smoke detection method based on support vector machine and device
CN102479327B (en) Target identification system, and the obstacle identification system and method for automobile
CN101968884A (en) Method and device for detecting target in video image
CN102598057A (en) Method and system for automatic object detection and subsequent object tracking in accordance with the object shape
JP4877801B2 (en) Vehicle tracking method and apparatus
CN105184763A (en) Image processing method and device
JPWO2007063705A1 (en) Pattern recognition device, pattern recognition method, and pattern recognition program
CN113239733B (en) Multi-lane line detection method
JP4361381B2 (en) Vehicle detection device
CN105354549A (en) Rapid pedestrian detection method based on objectness estimation
JPH10500518A (en) Likelihood-based threshold selection for video target trackers
JP2006155126A (en) Vehicle number recognition device
JP3215163B2 (en) Ruled line identification method and area identification method
JP2020098389A (en) Road sign recognition device and program thereof
JP4842301B2 (en) Pedestrian detection device and program
Marinas et al. Detection and tracking of traffic signs using a recursive Bayesian decision framework

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071016

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090812

R150 Certificate of patent or registration of utility model

Ref document number: 4361381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130821

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees