JP4361381B2 - Vehicle detection device - Google Patents
Vehicle detection device Download PDFInfo
- Publication number
- JP4361381B2 JP4361381B2 JP2004017218A JP2004017218A JP4361381B2 JP 4361381 B2 JP4361381 B2 JP 4361381B2 JP 2004017218 A JP2004017218 A JP 2004017218A JP 2004017218 A JP2004017218 A JP 2004017218A JP 4361381 B2 JP4361381 B2 JP 4361381B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- motion amount
- edge component
- edge
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 76
- 238000000605 extraction Methods 0.000 claims description 68
- 238000009826 distribution Methods 0.000 claims description 46
- 239000000284 extract Substances 0.000 claims description 25
- 238000000034 method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 9
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 1
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 101100018027 Pisum sativum HSP70 gene Proteins 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
Images
Description
この発明は画像中の走行車両を検出する車両検出装置に関するものである。 The present invention relates to a vehicle detection device that detects a traveling vehicle in an image.
画像から車両を検出する従来の車両検出装置として、例えば特許文献1に示されるものがある。この車両検出装置では、まず、カメラで撮影された画像から横エッジと縦エッジを抽出する。横エッジとは車両の進行方向に直交する方向で輝度の急変する特徴急変境界で、縦エッジとは車両の進行方向で輝度の急変する特徴急変境界である。次に、得られた横エッジ・縦エッジの中から等速で車両の進行方向へ移動するものを、等速移動横エッジ、等速移動縦エッジとして抽出する。その後、画像全体で一様に移動する画像要素を背景として除去し、残った等速横エッジと等速縦エッジを車両候補として登録する。等速移動横エッジは車両の幅方向の領域が特定される情報であり、一方、等速移動縦エッジは車両の進行方向の領域を特定するものであるので、車両候補として登録された両エッジを組み合わせて、得られた部分領域を車両領域とすることにより車両を検出している。
As a conventional vehicle detection device that detects a vehicle from an image, for example, there is one disclosed in
従来の車両検出装置は以上のように構成され、等速移動横エッジ、等速移動縦エッジを抽出して車両を検出するため、速度が微妙に異なるエッジ成分が多数発生した場合に、多くの組み合わせができ、処理に時間がかかるという課題があった。
また、照明条件により、例えば極度に明るかったり暗かったりした場合は、エッジ成分が分裂したり結合したりと不安定な出現状態になり、エッジ成分から速度情報を安定して抽出すること自体が難しいという課題があった。
The conventional vehicle detection device is configured as described above, and since the vehicle is detected by extracting the constant velocity moving horizontal edge and the constant velocity moving vertical edge, a large number of edge components with slightly different speeds are generated. There was a problem that they could be combined and processing took time.
Also, if the lighting conditions are extremely bright or dark depending on the lighting conditions, for example, the edge components are split or combined, resulting in an unstable appearance, and it is difficult to stably extract velocity information from the edge components. There was a problem.
この発明は上記のような課題を解決するためになされたもので、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分の出現状態が不安定な場合でも、車両の位置を安定して正しくかつ効率良く検出できる車両検出装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and stabilizes the position of the vehicle even when a large number of edge components with slightly different speeds occur or when the appearance state of the edge components is unstable. An object of the present invention is to obtain a vehicle detection device that can detect correctly and efficiently.
この発明に係る車両検出装置は、画像を入力する画像入力手段と、入力画像からエッジ成分を抽出するエッジ成分抽出手段と、過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する動き量抽出手段と、抽出された動き量の頻度分布を作成する動き量頻度分布作成手段と、作成された動き量の頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出する高頻度動き量抽出手段と、上記動き量抽出手段により動き量が抽出されたエッジ成分の中から上記高頻度動き量抽出手段により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択するエッジ成分選択手段と、選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する車両位置決定手段と、上記エッジ成分抽出手段により抽出されたエッジ成分を使用して入力画像中のナンバープレートを検出するナンバープレート検出手段と、検出されたナンバープレート内の文字を認識するナンバープレート認識手段とを備え、上記エッジ成分抽出手段は、入力画像からエッジ強度を算出し、上記エッジ強度を2値化してエッジ2値画像を作成し、上記エッジ2値画像を分割した部分領域毎に作成した投影2値データから連結領域を1つのエッジ成分として抽出するものである。
The vehicle detection device according to the present invention corresponds to an image input means for inputting an image, an edge component extraction means for extracting an edge component from the input image, an edge component extracted in the past, and a newly extracted edge component In addition, a motion amount extraction unit that extracts a motion amount for each edge component, a motion amount frequency distribution generation unit that generates a frequency distribution of the extracted motion amount, and a high frequency in the input image from the generated motion amount frequency distribution. A high-frequency motion amount extraction unit that extracts a motion amount that occurs frequently as a high-frequency motion amount, and the high-frequency motion amount extraction unit that extracts the motion amount from the edge component from which the motion amount has been extracted by the motion amount extraction unit. Edge component selection means for selecting an edge component having a motion amount included in the range of the high frequency motion amount selected, position coordinates of the selected edge component, and frequency distribution of the edge component at this position coordinate A vehicle position determining means for determining a location of the determined vehicle whether Luo vehicle, a license plate detecting means for detecting the number plate in the input image using the edge components extracted by the edge component extracting unit, detecting License plate recognition means for recognizing characters in the license plate, the edge component extraction means calculates edge strength from the input image, binarizes the edge strength to create an edge binary image, A connected region is extracted as one edge component from the binary projection data created for each partial region obtained by dividing the edge binary image .
この発明は、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分が分裂したり結合したりして不安定な出現状態であっても、車体の一部である可能性が極めて高いエッジ成分を抽出することができ、車両の位置を安定して正しくかつ効率良く検出できるという効果がある。 The present invention is very likely to be a part of the vehicle body even when a large number of edge components with slightly different velocities are generated, or even when the edge components are split or combined and appear unstable. Edge components can be extracted, and the vehicle position can be detected stably and correctly.
以下、この発明の実施の一形態について説明する。
実施の形態1.
図1はこの発明の実施の形態1による車両検出装置の構成を示すブロック図である。図1において、画像入力手段1は画像を入力し、エッジ成分抽出手段2は入力画像からエッジ成分を抽出する。動き量抽出手段3は過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出し、動き量頻度分布作成手段4は抽出された動き量の頻度分布を作成し、高頻度動き量抽出手段5は作成された動き量の頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出する。エッジ成分選択手段6は動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択し、車両位置決定手段7は選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する。
Hereinafter, an embodiment of the present invention will be described.
1 is a block diagram showing a configuration of a vehicle detection apparatus according to
次に動作について説明する。
図2はこの発明の実施の形態1による車両検出装置の処理の流れを示すフローチャートである。ステップST11において、画像入力手段1は画像を入力する。
図3は入力画像の例を示す図であり、入力画像101内に車両の先頭部分(車頭)、その左下には車の影、さらに下には路面が見えている。入力画像101中の座標は、図3に示すように、画像の左上を原点として、右方向(水平方向)にX軸をとり、下方向(垂直方向)にY軸をとるものとする。ここでは、入力画像101として、一つの画素値が0〜255の256レベルで表わされる白黒の濃淡画像が入力されるものとする。
Next, the operation will be described.
FIG. 2 is a flowchart showing a process flow of the vehicle detection apparatus according to the first embodiment of the present invention. In step ST11, the image input means 1 inputs an image.
FIG. 3 is a diagram showing an example of an input image. In the
図2のステップST12において、エッジ成分抽出手段2は入力画像101からエッジ成分を抽出する。
図4はエッジ成分抽出の詳細処理の流れを示すフローチャートである。図4のステップST21において、エッジ成分抽出手段2は各画素についてエッジ強度を算出する。このエッジ強度とは、入力画像101における濃淡変動の急峻さを示す値であり、例えば、総研出版発行「コンピュータ画像処理入門」pp.119〜125に記載の各種方法で算出することができる。具体的な例としては、入力画像101を微分してその絶対値をエッジ強度とする方法や、勾配の大きさをエッジ強度とする方法をとることが可能である。この実施の形態1では、入力画像101を水平方向に微分した絶対値をエッジ強度とし、下記の式(1)で求めるものとする。
E=ABS(I(x−1,y)−I(x,y)) (1)
ここで、Eはエッジ強度、ABSは絶対値をとる関数で、I(x,y)は座標(x,y)における入力画像101の画素値を示す。
In step ST <b> 12 of FIG. 2, the edge
FIG. 4 is a flowchart showing a flow of detailed processing of edge component extraction. In step ST21 of FIG. 4, the edge component extraction means 2 calculates the edge strength for each pixel. This edge strength is a value indicating the steepness of the light and shade fluctuation in the
E = ABS (I (x-1, y) -I (x, y)) (1)
Here, E is an edge strength, ABS is a function that takes an absolute value, and I (x, y) indicates a pixel value of the
ステップST22において、エッジ成分抽出手段2はエッジ強度を2値化してエッジ2値画像を作成する。2値化は、例えば上記「コンピュータ画像処理入門」pp.66〜69に記載の各種方法で行うことができるが、この実施の形態1では、あらかじめ固定の閾値を定めておき、エッジ強度が閾値以上であれば‘1'、閾値未満なら‘0'とする2値化を行うものとする。
図5はエッジ2値画像の例を示す図であり、図3に示す入力画像101から図5に示すエッジ2値画像102が得られる。このエッジ2値画像102では、画素値‘1'を黒で示し、画素値‘0'を白で示している。
In step ST22, the edge
FIG. 5 is a diagram showing an example of the edge binary image, and the edge
図4のステップST23において、エッジ成分抽出手段2は、エッジ2値画像102を部分領域に分割し、部分領域毎に水平方向に投影をとって投影値を求める。
図6はエッジ成分抽出時のエッジ2値画像の領域分割例を示す図である。この例では、部分領域はエッジ2値画像102を垂直方向にn等分した形態としている。そして、エッジ成分抽出手段2は、1〜nの番号を付けた部分領域それぞれについて、同一水平ライン上の画素値の総和をとり投影値とする。
In step ST23 of FIG. 4, the edge
FIG. 6 is a diagram showing an example of area division of the edge binary image at the time of edge component extraction. In this example, the partial area has a form in which the edge
図4のステップST24において、エッジ成分抽出手段2は投影値の2値化を行い‘0'又は‘1'の要素からなる投影2値データを作成する。2値化の方法は、上記のエッジ強度の2値化と同様である。ステップST25において、エッジ成分抽出手段2は投影2値データから‘1'の連続する部分(連結領域)をそれぞれ一つのエッジ成分として登録する。
図7はエッジ2値画像の一つの部分領域からエッジ成分を抽出する例を示す図であり、図7(a)に示す部分領域から図7(b)に示す水平方向の投影値が得られ、この投影値を2値化した結果、図7(c)に示す四つのエッジ成分が抽出される。
In step ST24 of FIG. 4, the edge component extraction means 2 binarizes the projection value and creates projection binary data composed of elements of “0” or “1”. The binarization method is the same as the binarization of the edge strength. In step ST <b> 25, the edge
FIG. 7 is a diagram showing an example in which edge components are extracted from one partial area of the edge binary image. The horizontal projection value shown in FIG. 7B is obtained from the partial area shown in FIG. As a result of binarizing this projection value, four edge components shown in FIG. 7C are extracted.
図2のステップST13において、動き量抽出手段3は過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する。例えば、動き量抽出手段3は、1回前の入力画像のエッジ成分と最新の入力画像101のエッジ成分とを比較し、所定の条件が成立した場合に、当該エッジ成分は同一のものであると見なして、その座標差を動き量として抽出する。この同一のものと見なす条件は、例えば、下記の三つの条件を全て満足する場合とする。
(条件1)同一番号の部分領域に属していること。
(条件2)長さが同程度の値であること。
(条件3)上側や下側に隣接する他のエッジ成分までの距離が同程度の値であること。
In step ST13 of FIG. 2, the motion amount extraction means 3 associates the edge component extracted in the past with the newly extracted edge component, and extracts the motion amount for each edge component. For example, the motion
(Condition 1) Belonging to partial areas with the same number.
(Condition 2) The length should be the same value.
(Condition 3) The distances to other edge components adjacent to the upper side and the lower side should be the same value.
図8はエッジ成分の動き量を抽出する際の対応付けの例を示す図である。ここで、111〜115はエッジ成分を示し、116は動き量を示している。また、111〜113は1回前の入力画像から抽出したエッジ成分で、114〜115は最新の入力画像101から新たに抽出したエッジ成分であり、属する部分領域の番号は同じであるとする。対応付けを行ったところ、エッジ成分112とエッジ成分115が上記の三つの条件を全て満足するため、これらを同一物体のエッジ成分と見なし、これらの下端の座標差116を動き量として抽出する。
FIG. 8 is a diagram illustrating an example of association when extracting the motion amount of the edge component. Here, reference numerals 111 to 115 denote edge components, and 116 denotes the amount of movement. Further, 111 to 113 are edge components extracted from the previous input image, 114 to 115 are edge components newly extracted from the
なお、上記の条件1は、車両がほぼ垂直方向に移動することを前提としているが、これは、斜め移動の可能性がある場合等、あらかじめ設定された車両の進行方向の情報に基づいて変えても良い。例えば、過去に抽出したエッジ成分の部分領域番号をi、最新の入力画像101におけるエッジ成分の部分領域番号をjとして、左右一つ分までの部分領域のずれが発生するのであれば、jはi−1〜i+1の範囲のどこかと対応付くことになり、次の式(2)を条件1の替わりに用いると、部分領域一つ分の斜行に対応できる。
i−1≦jかつj≦i+1 (2)
The
i−1 ≦ j and j ≦ i + 1 (2)
また、車両が必ず画像の左上から右下へ移動するような場合には、次の式(3)を条件1の替わりに用いる。
i+α≦jかつj≦i+β (αとβは定数で、0≦α<β) (3)
さらに、Y座標の比較結果も条件1に加えることができる。例えば、車両が画像の上から下へ移動するのなら、過去に抽出したエッジ成分の下端Y座標をm、最新の入力画像101におけるエッジ成分の下端Y座標をnとすると、次の式(4)を条件1に加える。
m+γ≦n (γは調整用の定数で、0≦γ) (4)
このように条件1を適切に定めると、効率の良い対応付けが可能となる。また、条件2や条件3についても、対応付けが適切にできるように、その内容を変更しても良い。
Further, when the vehicle always moves from the upper left to the lower right of the image, the following equation (3) is used instead of
i + α ≦ j and j ≦ i + β (α and β are constants, 0 ≦ α <β) (3)
Furthermore, the comparison result of the Y coordinate can also be added to the
m + γ ≦ n (γ is a constant for adjustment, 0 ≦ γ) (4)
Thus, if
図2のステップST14において、動き量頻度分布作成手段4は動き量抽出手段3により抽出された動き量の頻度分布を作成する。
図9は動き量の頻度分布の例と高頻度動き量の抽出方法の例を説明するための図である。図9(a)は動き量頻度分布作成手段4により作成された動き量の頻度分布の例を示す図であり、縦軸の動き量に対応したエッジ成分の数を横軸に頻度として示している。図9(a)において、動き量の少ない位置にある塊は路面等にある移動していないエッジ成分に対応し、一方、動き量の多い位置にうすく広がっている塊は、エッジ2値画像102のかすれ等によりエッジ成分が分断され、実際には発生していない動きがあるかのように抽出してしまったところである。入力画像101中で車両が占める面積は大きいため、図9(a)に示す動き量の頻度分布の中で、最も大きい塊が実際の車両の動きに対応していると見なせる。
In step ST14 of FIG. 2, the motion amount frequency
FIG. 9 is a diagram for explaining an example of a motion amount frequency distribution and an example of a method of extracting a high frequency motion amount. FIG. 9A is a diagram showing an example of the frequency distribution of the motion amount created by the motion amount frequency
図2のステップST15において、高頻度動き量抽出手段5は、所定幅の動き量範囲における頻度の和を求め、この値が最大となる範囲を高頻度動き量とする。
図9(b)は高頻度動き量の抽出方法の例を説明するための図であり、図9(b)において、121は動き量の許容差を示し、122と123は頻度和が最大となる範囲を間に挟む動き量を示している。すなわち、図9(b)において、あらかじめ定めた動き量の許容差121で頻度分布の部分的な和を求めていった結果、動き量122〜動き量123の範囲の和が最大となった場合、この動き量122,123を高頻度動き量の最小値・最大値とする。ただし、上記頻度分布の部分的な和の最大値が所定の閾値未満の場合は、入力画像101内に「車両なし」と見なして以降の処理は行わない。
In step ST15 of FIG. 2, the high-frequency motion amount extraction means 5 calculates the sum of frequencies in a motion amount range with a predetermined width, and sets a range in which this value is maximum as the high-frequency motion amount.
FIG. 9B is a diagram for explaining an example of a method for extracting a high-frequency motion amount. In FIG. 9B, 121 indicates a motion amount tolerance, and 122 and 123 indicate the maximum frequency sum. The amount of movement with a range between is shown. That is, in FIG. 9B, when the sum of the range of the
図2のステップST16において、エッジ成分選択手段6は、ステップST13で動き量が抽出されたエッジ成分の中から、その動き量が高頻度動き量の範囲に含まれるエッジ成分を選択する。ここで選択されたエッジ成分は、車両の動きと概ね等しい動き量を持つので、車体の一部である可能性が極めて高いものとなる。
In step ST16 of FIG. 2, the edge
ステップST17において、車両位置決定手段7はエッジ成分選択手段6により選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する。この実施の形態1では、車頭の位置を検出することとし、垂直座標の狭い範囲にエッジ成分が密集している位置を検出し、これを車両位置とする。この場合、例えばステップST14〜ST15と同じように、垂直座標の頻度分布を作成し、最も大きい塊の位置を検出する方法をとることができる。 In step ST17, the vehicle position determination means 7 determines the presence or absence of the vehicle from the position coordinates of the edge component selected by the edge component selection means 6 and the frequency distribution of the edge component at this position coordinate, and determines the position of the vehicle. In the first embodiment, the position of the vehicle head is detected, the position where edge components are concentrated in a narrow range of vertical coordinates is detected, and this is set as the vehicle position. In this case, for example, as in steps ST14 to ST15, it is possible to create a vertical coordinate frequency distribution and detect the position of the largest block.
図10は選択されたエッジ成分の垂直座標の頻度分布から車両位置を決定する方法を説明するための図であり、131は垂直座標の許容差を示し、132と133は頻度和が最大となる範囲を間に挟む垂直座標を示している。図10において、車両位置決定手段7は、あらかじめ定めた垂直座標の許容差131で頻度分布の部分的な和を求めて行き、例えば垂直座標132〜垂直座標133の範囲の和が最大となった場合、このうち最も画像下端に近い垂直座標133を車両位置とする。ただし、車両位置決定手段7は、上記頻度分布の部分的な和の最大値が所定の閾値以上の場合には「車両あり」と判定するが、所定の閾値未満の場合には、入力画像101内に「車両なし」と判定する。
FIG. 10 is a diagram for explaining a method of determining the vehicle position from the vertical coordinate frequency distribution of the selected edge component. 131 indicates the vertical coordinate tolerance, and 132 and 133 have the maximum frequency sum. It shows the vertical coordinates with a range in between. In FIG. 10, the vehicle position determination means 7 obtains a partial sum of frequency distributions with a predetermined vertical coordinate
以上のように、この実施の形態1によれば、エッジ成分抽出手段2が入力画像からエッジ成分を抽出し、動き量抽出手段3が過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出し、動き量頻度分布作成手段4が抽出された動き量の頻度分布を作成し、高頻度動き量抽出手段5が作成された頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出し、動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択し、車両位置決定手段7が選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定することにより、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分が分裂したり結合したりして不安定な出現状態であっても、車体の一部である可能性が極めて高いエッジ成分を抽出することができ、車両の位置を安定して正しくかつ効率良く検出できるという効果が得られる。
As described above, according to the first embodiment, the edge
なお、この実施の形態1では画像を水平方向に微分した絶対値をエッジ強度としているが、例えば、垂直方向に微分した絶対値をエッジ強度としたり、水平方向の値と垂直方向の値の両者からエッジ強度を求めても良く、他のエッジ検出法に基づく算出式を適用しても良い。また、高頻度動き量の範囲を所定幅(固定幅)としたが、これは動き量の頻度分布に応じて幅を変えるようにしても良い。例えば、狭い範囲に頻度が集中していれば狭い幅とし、広く散らばっていれば広い幅になるようにしても良い。 In the first embodiment, the absolute value obtained by differentiating the image in the horizontal direction is used as the edge strength. For example, the absolute value obtained by differentiating in the vertical direction is used as the edge strength, or both the horizontal value and the vertical value are used. The edge strength may be obtained from the above, or a calculation formula based on another edge detection method may be applied. Moreover, although the range of the high-frequency motion amount is set to a predetermined width (fixed width), the width may be changed according to the frequency distribution of the motion amount. For example, if the frequency is concentrated in a narrow range, the width may be narrow, and if the frequency is scattered widely, the width may be wide.
また、この実施の形態1では、エッジ強度や投影値の2値化において、固定の閾値で2値化する方法を使用しているが、これは他の2値化手法を使用しても良い。さらに、閾値以上の大きい値を‘1'にする方法ではなく、二つの閾値に挟まれた中間的な範囲を‘1'とする方法でも良い。 In the first embodiment, a method of binarizing with a fixed threshold is used for binarizing the edge strength and the projection value. However, other binarization methods may be used for this. . Further, a method of setting an intermediate range between two threshold values to ‘1’ instead of a method of setting a large value equal to or greater than the threshold value to ‘1’ may be used.
さらに、この実施の形態1ではエッジ成分を部分領域における投影値から抽出しているが、微分2値画像から‘1'の連結領域を抽出し、それぞれをエッジ成分とするような別の方法を用いても良い。 Further, in the first embodiment, the edge component is extracted from the projection value in the partial region. However, another method is used in which a connected region of “1” is extracted from the differential binary image and each is used as an edge component. It may be used.
実施の形態2.
図11はこの発明の実施の形態2による車両検出装置の構成を示すブロック図である。図11において、エッジ成分抽出手段2は入力画像から投影2値データを求めてエッジ成分を抽出する際に、投影2値データの結合や消去を行う。また、エッジ成分分類手段8はエッジ成分抽出手段2により結合や消去が行われたエッジ成分の位置座標からエッジ成分を分類し、動き量頻度分布作成手段4は分類されたエッジ成分に応じて重みを変えて、抽出された動き量の頻度分布を作成し、エッジ成分選択手段6は動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分をエッジ成分分類手段8による分類結果に基づいて選択する。さらに、車両通過状況推定手段9は高頻度動き量抽出手段5により抽出された高頻度動き量の履歴情報を参照して車両の通過状況を推定し、推定した車両の通過状況と車両位置決定手段7により判定された車両の有無により最終的な車両検出結果を決定する。その他の構成要素は実施の形態1の図1と同一のものである。
FIG. 11 is a block diagram showing a configuration of a vehicle detection device according to
次に動作について説明する。
図12はこの発明の実施の形態2による車両検出装置の処理の流れを示すフローチャートである。ステップST31において、画像入力手段1が画像を入力し、ステップST32において、エッジ成分抽出手段2が入力画像101からエッジ成分を抽出する。
エッジ成分抽出の詳細処理の流れを示すフローチャートは、実施の形態1の図4に示すものと同じであり、処理内容も図4のステップST21〜ST24までの処理内容と同じであるが、この実施の形態2ではステップST25の処理内容が異なる。ステップST25において、エッジ成分抽出手段2は投影2値データの結合・消去を行い、その結果をエッジ成分として登録する。この投影2値データの結合・消去の処理は、明るさ変動等に起因するエッジ成分のかすれによる分断やノイズ等の影響を抑えることが目的である。
Next, the operation will be described.
FIG. 12 is a flowchart showing a process flow of the vehicle detection apparatus according to the second embodiment of the present invention. In step ST31, the image input means 1 inputs an image, and in step ST32, the edge component extraction means 2 extracts an edge component from the
The flowchart showing the detailed processing flow of edge component extraction is the same as that shown in FIG. 4 of the first embodiment, and the processing content is the same as the processing content from steps ST21 to ST24 in FIG. In the second embodiment, the processing content of step ST25 is different. In step ST25, the edge component extraction means 2 combines and deletes the projection binary data, and registers the result as an edge component. The process of combining and erasing the projection binary data is intended to suppress the influence of fragmentation due to blurring of edge components due to brightness fluctuations, noise, and the like.
図13はエッジ成分抽出の際に行う投影2値データの結合・消去処理を説明するための図であり、車体部分の投影2値データ141を第1の結合判定用閾値143や第2の結合判定用閾値145により結合し、ノイズ部分の投影2値データ142を消去判定用閾値144により消去する様子を示している。ここでは、第1の結合判定用閾値143<第2の結合判定用閾値145とする。
FIG. 13 is a diagram for explaining projection binary data combining / deleting processing performed at the time of edge component extraction. The projection
エッジ成分抽出手段2は、図13(a)の投影2値データに対し、第1の結合判定用閾値143を適用し、上下に隣接する連結領域間の距離(上側の連結領域の下端位置から下側の連結領域の上端位置までの長さ)が当該閾値以下である場合、その連結領域同士を結合して一つの連結領域とする。この結果が図13(b)であり、車体部分の投影2値データ141における細かな分断が結合されている。
The edge
次に、エッジ成分抽出手段2は、この図13(b)に対し、消去判定用閾値144を適用し、長さが当該閾値以下である連結領域を消去する。この結果が図13(c)であり、ノイズ部分の投影2値データ142の連結領域が消去されている。最後に、エッジ成分抽出手段2は、この図13(c)に対して、第2の結合判定用閾値145を適用し、上下に隣接する連結領域間の距離が当該閾値以下である場合、その連結領域同士を結合して一つの連結領域とする。この結果が図13(d)であり、車体部分の投影2値データ141の分断が解消されている一方、ノイズ部分の投影2値データ142には連結領域は全く無くなっており、残った一つの連結領域がエッジ成分として登録される。
Next, the edge
ここで、図13(a)の投影2値データに対して、そのまま消去判定用閾値144による消去を行うと車体部分の投影2値データ141の中央部が欠落し、あるいは、そのまま第2の結合判定用閾値145による結合を行うとノイズ部分の投影2値データ142が一つの大きな連結領域として残ってしまうが、上記説明の通り、閾値を切り替えつつ(上記の例では闘値を徐々に大きくしつつ)結合と消去を繰り返すことで、かすれによる分断を解消し、かつノイズを除去することが可能となる。
Here, if the projection binary data in FIG. 13A is erased as it is with the
ステップST33において、エッジ成分分類手段8はエッジ成分抽出手段2により抽出されたエッジ成分の位置座標からエッジ成分の分類を行う。この実施の形態2ではエッジ成分を下記のA,B,C,Dに分類することとする。
A;車両前面である可能性の高いもの。
B;下端位置の動きが車両の動きを反映している可能性の高いもの。
C;上端位置の動きが車両の動きを反映している可能性の高いもの。
D;上記以外。
In step ST33, the edge
A: Highly likely to be in front of the vehicle.
B: The movement of the lower end position is highly likely to reflect the movement of the vehicle.
C: The movement of the upper end position is highly likely to reflect the movement of the vehicle.
D: Other than the above.
この分類では、エッジ成分の位置座標、すなわち、エッジ成分の長さ・位置や、隣接するエッジ成分までの距離に基づく条件を適用して、例えば下記のように分類する。
(分類1)エッジ成分の長さが所定範囲内で、上側又は下側の所定範囲内に他のエッジ成分が無いならAと分類する。
(分類2)エッジ成分の長さが所定値以上で、下側の所定範囲内に他のエッジ成分が無いならBと分類する。
(分類3)エッジ成分の長さが所定値以上で、上側の所定範囲内に他のエッジ成分が無いならCと分類する。
(分類4)分類1〜分類3の各条件を満足しなければDと分類する。
In this classification, a condition based on the position coordinates of the edge component, that is, the length / position of the edge component and the distance to the adjacent edge component is applied, and the classification is performed as follows, for example.
(Classification 1) If the length of the edge component is within a predetermined range and there is no other edge component within the predetermined range on the upper side or the lower side, it is classified as A.
(Classification 2) If the length of the edge component is not less than a predetermined value and there is no other edge component in the lower predetermined range, it is classified as B.
(Category 3) If the length of the edge component is not less than a predetermined value and there is no other edge component in the upper predetermined range, it is classified as C.
(Category 4) If each condition of
図14は入力画像から得たエッジ成分の例を示す図であり、車体側面に対応したエッジ成分151,152、車体前面に対応したエッジ成分153,154、路面に対応したエッジ成分155〜158を示している。図14の例では、Aに該当するのはエッジ成分153,154で、Bに該当するのはエッジ成分151,152で、Cに該当するのはエッジ成分155であり、他のエッジ成分がDとなる。
FIG. 14 is a diagram showing an example of edge components obtained from an input image.
図12のステップST34において、動き量抽出手段3は、過去に抽出したエッジ成分と新たに抽出したエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する。この実施の形態2では、上記A,B,Cのいずれかに分類されたエッジ成分だけを対象として対応付けを行い、実施の形態1で用いた条件1、条件2、条件3を満足し、かつ同じ分類が為されているエッジ成分同士を同一と見なして、その座標差を動き量とする。ここで、座標差をとる基準位置は、A及びBに分類されたものは下端位置とし、Cに分類されたものは上端位置とする。例えば、Cに分類された図14のエッジ成分155は路面のエッジ成分ではあるが、その上端位置の変化は車両の移動を示しているので、その変化量を用いるわけである。
In step ST34 of FIG. 12, the motion
ステップST35において、動き量頻度分布作成手段4は動き量の頻度分布を作成するが、この実施の形態2では、ステップST33の分類結果に応じ、車両の検出精度を上げるために頻度として加算する値(重み)をエッジ成分毎に変えるものとする。例えば、車両である可能性が高いAは一つのエッジ成分につき2を加算し、B,Cは1を加算する。ステップST36において、実施の形態1と同様の手順で、高頻度動き量抽出手段5が当該頻度分布から高頻度動き量を抽出する。ステップST37において、エッジ成分選択手段6は車両位置推定用のエッジ成分を選択するが、この実施の形態2では、その動き量が高頻度動き量の範囲に含まれ、かつAに分類されたものを選択する。
In step ST35, the motion amount frequency
ステップST38において、車両位置決定手段7は、実施の形態1と同様の手順で、車両の有無を判定して車両位置を決定し、ステップST39において、車両通過状況推定手段9は高頻度動き量抽出手段5により抽出された高頻度動き量の履歴情報を参照して車両の通過状況を推定する。車両通過状況の推定方法としては、例えば、高頻度動き量の履歴情報(過去一定サイクル数における値)を参照して、同程度の高頻度動き量が続いている場合は「車両通過中」と見なし、続いていなければ「車両通過なし」とする方法をとる。
In step ST38, the vehicle position determination means 7 determines the vehicle position by determining the presence or absence of the vehicle in the same procedure as in the first embodiment. In step ST39, the vehicle passage state estimation means 9 extracts the high-frequency motion amount. The passing situation of the vehicle is estimated with reference to the history information of the high-frequency motion amount extracted by the
ステップST40において、車両通過状況推定手段9は、上記ステップST38で判定された車両の有無とステップST39で推定された車両通過状況から最終的な車両検出結果を決定する。例えば、車両通過状況推定手段9は、下記の条件aか条件bのどちらかが成立した場合は車両検出結果を「車頭出現」として車両位置を合せて出力し、どちらの条件も成立しない場合は、「車両通過中」の状況が続いていれば「車両あり」と決定し、続いていなければ「車両なし」と決定する。
(条件a)高頻度動き量の履歴情報による「車両通過中」が続いている状況において、初めて車両位置決定手段7が「車両あり」と判定した場合。
(条件b)高頻度動き量の履歴情報による「車両通過なし」の状況において、車両位置決定手段7が「車両あり」と判定した場合。
In step ST40, the vehicle passage situation estimation means 9 determines the final vehicle detection result from the presence / absence of the vehicle determined in step ST38 and the vehicle passage situation estimated in step ST39. For example, the vehicle passage state estimation means 9 outputs the vehicle detection result as “vehicle appearance” with the vehicle position when either of the following conditions a or b is satisfied, and when neither of the conditions is satisfied: If the state of “passing through the vehicle” continues, it is determined that “the vehicle is present”, and if not, it is determined that “the vehicle is not present”.
(Condition a) When the vehicle position determination means 7 determines that “there is a vehicle” for the first time in a situation where “passing through the vehicle” continues based on the history information of the high-frequency motion amount.
(Condition b) A case where the vehicle position determination means 7 determines that “there is a vehicle” in the situation of “no vehicle passing” based on the history information of the high-frequency motion amount.
このようにすると、1台の車両の通過中に「車両あり」は複数回発生し得るが、「車頭出現」は1回だけ発生する。車両位置決定手段7の決定結果だけでは、トラックの荷台等を別車両として検出してしまい、通過台数を二重カウントしてしまう場合もあるが、この実施の形態2では、車両通過状況の推定結果も加味して最終的な判定を下すため、車長の長い車両が通過しても誤って複数回検出することを防止できる。 In this way, “there is a vehicle” can occur a plurality of times during the passage of one vehicle, but “the appearance of the vehicle head” occurs only once. Only the determination result of the vehicle position determination means 7 may detect a truck bed or the like as a separate vehicle, and may double count the number of passing vehicles. Since the final determination is made in consideration of the result, even if a vehicle with a long vehicle length passes, it can be prevented from erroneously detecting multiple times.
以上のように、この実施の形態2によれば、エッジ成分抽出手段2が入力画像からエッジ成分を抽出し、エッジ成分分類手段8がエッジ成分の位置座標からエッジ成分を分類し、動き量抽出手段3が過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出し、動き量頻度分布作成手段4が分類されたエッジ成分に応じて重みを変えて抽出された動き量の頻度分布を作成し、高頻度動き量抽出手段5が作成された頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出し、エッジ成分選択手段6が動き量抽出手段3により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段5により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分をエッジ成分分類手段8による分類結果に基づいて選択し、車両位置決定手段7が選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定することにより、速度が微妙に異なるエッジ成分が多数発生した場合や、エッジ成分が分裂したり結合したりして不安定な出現状態であっても、車体の一部である可能性が極めて高いエッジ成分を抽出することができ、車両の位置を安定して正しくかつ効率良く検出できるという効果が得られる。
As described above, according to the second embodiment, the edge
また、この実施の形態2によれば、エッジ成分抽出手段2が投影2値データの結合・消去を行い、その結果をエッジ成分として抽出することにより、明るさ変動等に起因するエッジ成分のかすれによる分断やノイズ等の影響を抑えることができるという効果が得られる。
Further, according to the second embodiment, the edge
さらに、この実施の形態2によれば、エッジ成分の分類結果に基づいて基準位置(上端・下端)を切り替えてエッジ成分の動き量を抽出することにより、車両の動き量を安定して抽出できるという効果が得られる。 Furthermore, according to the second embodiment, the movement amount of the vehicle can be stably extracted by switching the reference position (upper end / lower end) and extracting the movement amount of the edge component based on the classification result of the edge component. The effect is obtained.
さらに、この実施の形態2によれば、車両通過状況推定手段9が車両の通過状況を考慮して車両検出結果を決定することにより、車長の長い車両も含め、通過する車両の種類によらずに安定して車両検出が行えるという効果が得られる。 Further, according to the second embodiment, the vehicle passage state estimation means 9 determines the vehicle detection result in consideration of the passage state of the vehicle, so that it depends on the type of the vehicle that passes, including a vehicle with a long vehicle length. The effect that a vehicle can be detected stably without being acquired.
なお、この実施の形態2では、投影2値データの結合・消去の手順を、結合→消去→結合の3ステップとしているが、これはもっと多く繰り返すようにしても良い。また、エッジ成分をA,B,C,Dの四つに分類したが、これは、もっと細かい条件で5種類以上に分類しても良く、あるいは、A,B,Dか、A,C,Dの3種類としても良い。 In the second embodiment, the procedure for combining and erasing projection binary data is made up of three steps of combining → erasing → combining, but this may be repeated more frequently. In addition, the edge components are classified into A, B, C, and D, but this may be classified into five or more types under more detailed conditions, or A, B, D, A, C, Three types of D may be used.
さらに、頻度分布作成の際の重みをエッジ成分の分類結果から決定しているが、他の条件を用いて重みを変えても良い。例えば、画像の中央にあるものは重みを大きくし、端にあるものは小さくするようにしても良く、さらには、動き量の大小に応じて重みを変えても良い。 Furthermore, although the weight in creating the frequency distribution is determined from the edge component classification result, the weight may be changed using other conditions. For example, the weight at the center of the image may be increased, the weight at the end may be decreased, and the weight may be changed according to the amount of motion.
さらに、車両通過状況の推定方法として、高頻度動き量の履歴情報を参照する方法を用いているが、これは他の方法でも良い。例えば、車頭出現と判定した直後の所定時間内を車両通過中と見なす方法や、車頭出現と判定した時点の高頻度動き量から車両の通過予想時間を求め、この予想時間内を車両通過中と見なす方法もある。さらに、車両検出結果として、「車頭出現」、「車両あり」及び「車両なし」3種類の出力を定めているが、これはもっと細かくし種類を増やしても良く、また判定条件も変えても良い。 Furthermore, as a method of estimating the vehicle passage situation, a method of referring to the history information of the high-frequency motion amount is used, but this may be another method. For example, a method that considers that a vehicle is passing the vehicle within a predetermined time immediately after it is determined that the vehicle has appeared, or a vehicle's estimated passing time is determined from the amount of high-frequency movement at the time when it is determined that the vehicle has appeared. There is also a method to consider. Furthermore, as the vehicle detection result, three types of output “car appearance”, “with vehicle” and “without vehicle” are defined, but this may be further refined and the types may be increased, and the judgment conditions may be changed. good.
実施の形態3.
図15はこの発明の実施の形態3による車両検出装置の構成を示すブロック図である。図において、ナンバープレート検出手段10はエッジ成分抽出手段2により抽出されたエッジ成分を使用してナンバープレートを検出し、ナンバープレート認識手段11はナンバープレート内の文字を認識する。その他の構成要素は実施の形態1の図1と同一のものである。
FIG. 15 is a block diagram showing a configuration of a vehicle detection device according to
次に動作について説明する。
図16はこの発明の実施の形態3による車両検出装置の処理の流れを示すフローチャートである。ステップST51〜ST57では、実施の形態1の図2におけるステップST11〜ST17と同様の手順で車両検出を行う。
Next, the operation will be described.
FIG. 16 is a flowchart showing a process flow of the vehicle detection apparatus according to the third embodiment of the present invention. In steps ST51 to ST57, vehicle detection is performed in the same procedure as steps ST11 to ST17 in FIG. 2 of the first embodiment.
ステップST58において、ナンバープレート検出手段10は、ステップST52でエッジ成分抽出手段2により抽出されたエッジ成分を使用してナンバープレートの検出を行う。このナンバープレートの検出方法としては、例えば、信学技報PRMU96−46「ナンバープレート認識装置の開発」(以下、単に文献と呼ぶ)に記載の方法を用いる。この場合、上記文献の2.1節「プレート切り出し部」に記載のように、水平方向に微分した画像の投影値、すなわち実施の形態1で言うところのエッジ成分を使用して、ナンバープレートの上部と下部を示すペアを検出し、ステップST51で入力した入力画像101を使用して、上記文献の2.2節「プレート2値化部」の処理を行う。このように、エッジ成分をナンバープレート領域の切り出しにも使用することにより、エッジ成分を車両検出とナンバープレート検出の両方で利用できるため、全体として非常に効率の良い構成となる。また、このステップST58において、ナンバープレート領域が複数検出された場合には、ナンバープレート検出手段10は、ステップST57で車両位置決定手段7により決定された車両位置に近い方を選択する。
In step ST58, the license
ステップST59において、ナンバープレート認識手段11は検出されたナンバープレート内の文字を認識する。この認識法としては、例えば、上記文献の2.3節「文字認識」に記載の方法を用いる。 In step ST59, the license plate recognition means 11 recognizes the characters in the detected license plate. As the recognition method, for example, the method described in section 2.3 “Character recognition” in the above-mentioned document is used.
以上のように、この実施の形態3によれば、実施の形態1と同様の効果が得られると共に、ナンバープレート検出手段10が車両を検出するためのエッジ成分を使用してナンバープレートの検出を行い、ナンバープレート認識手段11が検出されたナンバープレート内の文字を認識することにより、車両検出とナンバープレート検出を効率良く実施することができるという効果が得られる。 As described above, according to the third embodiment, the same effect as that of the first embodiment can be obtained, and the license plate detection means 10 can detect the license plate using the edge component for detecting the vehicle. When the license plate recognition means 11 recognizes the characters in the detected license plate, the vehicle detection and the license plate detection can be performed efficiently.
また、この実施の形態3によれば、ナンバープレート検出手段10が車両位置決定手段7により決定された車両位置の情報をナンバープレート検出にも利用することにより、ナンバープレートの検出精度を高めることができるという効果が得られる。 Further, according to the third embodiment, the license plate detection means 10 uses the information on the vehicle position determined by the vehicle position determination means 7 also for the license plate detection, thereby increasing the detection accuracy of the license plate. The effect that it can be obtained.
なお、この実施の形態3では、ナンバープレート検出法として文献記載の方法を用いているが、これはエッジの情報を使用するものであれば、別の方法を用いても良い。また、ナンバープレート認識法も、文献記載のものとは別の方法を用いても良い。さらに、ナンバープレート領域が複数検出された場合に車両位置により選択するようにしているが、例えば、最初からナンバープレート検出の対象領域を車両位置周辺に限定する等、車両位置の情報をナンバープレート検出に利用する別の形態をとっても良い。 In the third embodiment, the method described in the literature is used as the license plate detection method, but another method may be used as long as it uses edge information. In addition, the license plate recognition method may be different from those described in the literature. In addition, when a plurality of license plate areas are detected, the selection is made according to the vehicle position. For example, the license plate detection is performed from the beginning to limit the target area of the license plate detection to the periphery of the vehicle position. Another form may be used.
実施の形態4.
図17はこの発明の実施の形態4による車両検出装置の構成を示すブロック図である。図において、ナンバープレート検出手段10は、車両通過状況推定手段9により「車頭出現」と決定された場合に、エッジ成分抽出手段2により抽出されたエッジ成分を使用してナンバープレートを検出し、ナンバープレート認識手段11はナンバープレート内の文字を認識する。その他の構成要素は実施の形態2の図11と同一のものである。
FIG. 17 is a block diagram showing a configuration of a vehicle detection device according to
次に動作について説明する。
図18はこの発明の実施の形態4による車両検出装置の処理の流れを示すフローチャートである。ステップST61〜ST70では、実施の形態2の図12におけるステップST31〜ST40と同様の手順で車両検出を行う。
Next, the operation will be described.
FIG. 18 is a flowchart showing a process flow of the vehicle detection apparatus according to
ステップST71において、ナンバープレート検出手段10はステップST70における車両通過状況推定手段9による車両検出結果をチェックして「車頭出現」の場合に、ステップST72において、ナンバープレート検出手段10は実施の形態3と同様にナンバープレートの検出を行う。トラックのように車体が長く、かつ荷台部分に文字が表示されているような車両では、荷台部分の一部を誤ってナンバープレートとして検出してしまう場合もあるが、「車頭出現」の場合だけナンバープレートの検出を行うことで、車体に表示されている文字のような、ナンバープレート以外の領域を誤って検出してしまうことを防止できる。 In step ST71, the license plate detection means 10 checks the vehicle detection result by the vehicle passage situation estimation means 9 in step ST70, and in the case of “car appearance”, in step ST72, the license plate detection means 10 is the same as that of the third embodiment. Similarly, the license plate is detected. In vehicles such as trucks where the body is long and characters are displayed on the loading platform, a part of the loading platform may be mistakenly detected as a license plate, but only in the case of `` car head appearance '' By detecting the license plate, it is possible to prevent erroneous detection of areas other than the license plate, such as characters displayed on the vehicle body.
ステップST73において、図示されていない制御手段によりナンバープレートの検出結果がチェックされ、ナンバープレートが検出されていれば、ステップST74において、実施の形態3と同様に、ナンバープレート認識手段11が検出されたナンバープレート内の文字を認識するが、ナンバープレートが検出されていない場合は、検出された車両にはナンバープレートが付いていないか、あるいは隠れた位置にあると見なし、図示されていない警報装置を通じてナンバープレートが検出できないことを発報したり、又は図示されていない画像保存手段が検出された当該車両の画像を保存する。 In step ST73, the detection result of the license plate is checked by a control means (not shown). If the license plate is detected, the license plate recognition means 11 is detected in step ST74 as in the third embodiment. If the license plate is recognized, but the license plate is not detected, it is assumed that the detected vehicle does not have a license plate or is in a hidden position, and through a warning device (not shown) A notification that the license plate cannot be detected is issued, or an image storage means (not shown) stores the detected vehicle image.
以上のように、この実施の形態4によれば、実施の形態2と同様の効果が得られると共に、ナンバープレート検出手段10が「車頭出現」の場合に車両を検出するためのエッジ成分を使用してナンバープレートの検出を行い、ナンバープレート認識手段11が検出されたナンバープレート内の文字を認識することにより、車両検出とナンバープレート検出を効率良く実施することができ、ナンバープレート以外の領域を誤って検出してしまうことを防止できるという効果が得られる。
As described above, according to the fourth embodiment, the same effects as those of the second embodiment can be obtained, and the edge component for detecting the vehicle when the license
また、この実施の形態4によれば、ナンバープレートが検出できない場合に、警報装置を通じて発報し、車両の画像を保存することにより、ナンバープレートが検出できない注意すべき車両の通知や画像保存を行うことができるという効果が得られる。 In addition, according to the fourth embodiment, when a license plate cannot be detected, a warning device is used to notify the vehicle and store an image of the vehicle to which a license plate cannot be detected. The effect that it can be performed is acquired.
なお、この実施の形態4では、図18のステップST75で、ナンバープレートが検出できない注意すべき車両について発報と画像保存を行っているが、これは、非定常状態で行われるような別の処理を行っても良い。例えば、車両は検出できてもナンバープレートを検出できないという現象は、カメラの絞り値等の撮像パラメータが望ましい範囲からずれていても起こり得るので、車両が検出できてナンバープレートが検出できない回数をカウントし、所定数以上連続して発生したら撮像パラメータの自動調整処理を行うことが考えられる。 In the fourth embodiment, in step ST75 of FIG. 18, the warning vehicle and the image storage are performed for the vehicle to which the license plate cannot be detected, but this is different from that performed in an unsteady state. Processing may be performed. For example, the phenomenon that the license plate cannot be detected even if the vehicle can be detected can occur even if the imaging parameters such as the aperture value of the camera deviate from the desired range, so the number of times that the vehicle can be detected and the license plate cannot be detected is counted. However, it is conceivable to perform automatic adjustment processing of imaging parameters if a predetermined number or more occur continuously.
1 画像入力手段、2 エッジ成分抽出手段、3 動き量抽出手段、4 動き量頻度分布作成手段、5 高頻度動き量抽出手段、6 エッジ成分選択手段、7 車両位置決定手段、8 エッジ成分分類手段、9 車両通過状況推定手段、10 ナンバープレート検出手段、11 ナンバープレート認識手段、101 入力画像、102 エッジ2値画像、111,112,113,114,115 エッジ成分、116 動き量、121 動き量の許容差、122,123 頻度和が最大となる範囲を間に挟む動き量、131 垂直座標の許容差、132,133 頻度和が最大となる範囲を間に挟む垂直座標、141 車体部分の投影2値データ、142 ノイズ部分の投影2値データ、143 第1の結合判定用闘値、144 消去判定用闘値、145 第2の結合判定用闘値、151,152 車体側面に対応したエッジ成分、153,154 車体前面に対応したエッジ成分、155,156,157,158 路面に対応したエッジ成分。
DESCRIPTION OF
Claims (8)
入力画像からエッジ成分を抽出するエッジ成分抽出手段と、
過去に抽出されたエッジ成分と新たに抽出されたエッジ成分とを対応付けてエッジ成分毎の動き量を抽出する動き量抽出手段と、
抽出された動き量の頻度分布を作成する動き量頻度分布作成手段と、
作成された動き量の頻度分布から入力画像中で高頻度に発生している動き量を高頻度動き量として抽出する高頻度動き量抽出手段と、
上記動き量抽出手段により動き量が抽出されたエッジ成分の中から上記高頻度動き量抽出手段により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を選択するエッジ成分選択手段と、
選択されたエッジ成分の位置座標とこの位置座標におけるエッジ成分の頻度分布から車両の有無を判定し車両の位置を決定する車両位置決定手段と、
上記エッジ成分抽出手段により抽出されたエッジ成分を使用して入力画像中のナンバープレートを検出するナンバープレート検出手段と、
検出されたナンバープレート内の文字を認識するナンバープレート認識手段とを備え、
上記エッジ成分抽出手段は、入力画像からエッジ強度を算出し、上記エッジ強度を2値化してエッジ2値画像を作成し、上記エッジ2値画像を分割した部分領域毎に作成した投影2値データから連結領域を1つのエッジ成分として抽出することを特徴とする車両検出装置。 An image input means for inputting an image;
Edge component extraction means for extracting edge components from the input image;
A motion amount extraction means for extracting a motion amount for each edge component by associating the edge component extracted in the past with the newly extracted edge component;
A motion amount frequency distribution creating means for creating a frequency distribution of the extracted motion amount;
A high-frequency motion amount extraction means for extracting, as a high-frequency motion amount, a motion amount that occurs frequently in the input image from the generated motion amount frequency distribution;
Edge component selection means for selecting an edge component having a motion amount included in the range of the high frequency motion amount extracted by the high frequency motion amount extraction means from among the edge components from which the motion amount has been extracted by the motion amount extraction means. When,
Vehicle position determination means for determining the presence or absence of a vehicle from the position coordinates of the selected edge component and the frequency distribution of the edge component at the position coordinates and determining the position of the vehicle ;
License plate detection means for detecting a license plate in the input image using the edge component extracted by the edge component extraction means;
A license plate recognition means for recognizing characters in the detected license plate;
The edge component extraction means calculates edge strength from an input image, binarizes the edge strength to create an edge binary image, and generates projected binary data for each partial region obtained by dividing the edge binary image. A vehicle detection device that extracts a connected region as one edge component from a vehicle.
動き量抽出手段はエッジ成分分類手段の分類結果に基づいて動き量抽出の対象とするエッジ成分を選択し、
エッジ成分選択手段は上記動き量抽出手段により動き量が抽出されたエッジ成分の中から高頻度動き量抽出手段により抽出された高頻度動き量の範囲に含まれる動き量を持つエッジ成分を上記エッジ成分分類手段による分類結果に基づいて選択することを特徴とする請求項1記載の車両検出装置。 Edge component classification means for classifying the edge component from the position coordinates of the edge component extracted by the edge component extraction means;
The motion amount extraction means selects an edge component to be subjected to motion amount extraction based on the classification result of the edge component classification means,
The edge component selection means selects an edge component having a motion amount included in the range of the high-frequency motion amount extracted by the high-frequency motion amount extraction means from the edge components from which the motion amount has been extracted by the motion amount extraction means. 2. The vehicle detection device according to claim 1, wherein the selection is made based on a classification result by the component classification means .
検出されたナンバープレート内の文字を認識するナンバープレート認識手段とを備えたことを特徴とする請求項6記載の車両検出装置。 License plate detection means for detecting the license plate in the input image based on the vehicle detection result by the vehicle passage state estimation means using the edge component extracted by the edge component extraction means;
7. The vehicle detection apparatus according to claim 6, further comprising license plate recognition means for recognizing characters in the detected license plate .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004017218A JP4361381B2 (en) | 2004-01-26 | 2004-01-26 | Vehicle detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004017218A JP4361381B2 (en) | 2004-01-26 | 2004-01-26 | Vehicle detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005209097A JP2005209097A (en) | 2005-08-04 |
JP4361381B2 true JP4361381B2 (en) | 2009-11-11 |
Family
ID=34902129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004017218A Expired - Fee Related JP4361381B2 (en) | 2004-01-26 | 2004-01-26 | Vehicle detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4361381B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4973008B2 (en) * | 2006-05-26 | 2012-07-11 | 富士通株式会社 | Vehicle discrimination device and program thereof |
JP5019375B2 (en) * | 2007-09-05 | 2012-09-05 | コイト電工株式会社 | Object detection apparatus and object detection method |
WO2014205787A1 (en) * | 2013-06-28 | 2014-12-31 | 中国科学院自动化研究所 | Vehicle detecting method based on hybrid image template |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03164881A (en) * | 1989-11-22 | 1991-07-16 | Oki Electric Ind Co Ltd | Moving vector detection |
JPH05312818A (en) * | 1992-05-13 | 1993-11-26 | Sumitomo Electric Ind Ltd | Speed measuring device and method through image processing |
JPH11339017A (en) * | 1998-05-29 | 1999-12-10 | Mitsubishi Heavy Ind Ltd | License plate recognizing device |
JP3436224B2 (en) * | 1999-12-16 | 2003-08-11 | 日本電気株式会社 | Vehicle end detection device |
JP3920535B2 (en) * | 2000-06-12 | 2007-05-30 | 株式会社日立製作所 | Vehicle detection method and vehicle detection device |
JP3651419B2 (en) * | 2001-08-03 | 2005-05-25 | 日産自動車株式会社 | Environment recognition device |
-
2004
- 2004-01-26 JP JP2004017218A patent/JP4361381B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005209097A (en) | 2005-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100385462C (en) | Method and device for tracing moving object in image | |
JP4855556B1 (en) | Moving object detection apparatus, moving object detection method, moving object detection program, moving object tracking apparatus, moving object tracking method, and moving object tracking program | |
WO2019057067A1 (en) | Image quality evaluation method and apparatus | |
CN102997900B (en) | Vehicle systems, devices, and methods for recognizing external worlds | |
US7231288B2 (en) | System to determine distance to a lead vehicle | |
JP6971177B2 (en) | Compartment line recognition device | |
JP5127182B2 (en) | Object detection device | |
JP4697480B2 (en) | Lane recognition device, lane recognition method, and lane recognition program | |
KR100650407B1 (en) | Method and apparatus for generating video abstract information at high speed on based multi-modal | |
CN102013008B (en) | Smoke detection method based on support vector machine and device | |
CN102479327B (en) | Target identification system, and the obstacle identification system and method for automobile | |
CN101968884A (en) | Method and device for detecting target in video image | |
CN102598057A (en) | Method and system for automatic object detection and subsequent object tracking in accordance with the object shape | |
JP4877801B2 (en) | Vehicle tracking method and apparatus | |
CN105184763A (en) | Image processing method and device | |
JPWO2007063705A1 (en) | Pattern recognition device, pattern recognition method, and pattern recognition program | |
CN113239733B (en) | Multi-lane line detection method | |
JP4361381B2 (en) | Vehicle detection device | |
CN105354549A (en) | Rapid pedestrian detection method based on objectness estimation | |
JPH10500518A (en) | Likelihood-based threshold selection for video target trackers | |
JP2006155126A (en) | Vehicle number recognition device | |
JP3215163B2 (en) | Ruled line identification method and area identification method | |
JP2020098389A (en) | Road sign recognition device and program thereof | |
JP4842301B2 (en) | Pedestrian detection device and program | |
Marinas et al. | Detection and tracking of traffic signs using a recursive Bayesian decision framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061215 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071016 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090804 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4361381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120821 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120821 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130821 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |