JPH05312818A - Speed measuring device and method through image processing - Google Patents

Speed measuring device and method through image processing

Info

Publication number
JPH05312818A
JPH05312818A JP4120590A JP12059092A JPH05312818A JP H05312818 A JPH05312818 A JP H05312818A JP 4120590 A JP4120590 A JP 4120590A JP 12059092 A JP12059092 A JP 12059092A JP H05312818 A JPH05312818 A JP H05312818A
Authority
JP
Japan
Prior art keywords
contour
vehicle
profile
image
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4120590A
Other languages
Japanese (ja)
Inventor
Kenji Kato
健司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP4120590A priority Critical patent/JPH05312818A/en
Publication of JPH05312818A publication Critical patent/JPH05312818A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To correctly obtain the speed of a vehicle by correctly obtaining the transfer distance of the vehicle by allowing not only the vehicle head posi tion but the continuous division of a vertical file to contribute to the calculation of the transfer distance of the vehicle. CONSTITUTION:Two images including each vehicle head are taken in, keeping a time interval (Step n1, n4). A contour image consisting of contour image elements is prepared by extracting the edge parts having the sharp concentration variation, from the taken-in image. The contour image is scanned in the direction crossing with the direction corresponding to the advance direction of the vehicle. The number of contour elements existing on each scan line is counted, and a vertical profile is prepared. The relative calculation is applied for two vertical profiles which are obtained in correspondence with two images (Step n9). From the result of the relative calculation, the transfer distance of the vehicle in the taken-photograph time for two images is calculated (Step n10). The speed of the vehicle is calculated on the basis of the transfer distance and the taken-photograph time difference between two images (Step n11).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カメラ装置により走行
中の車両の車頭部分を撮影してプレートナンバーを自動
識別する車番自動読取装置などで用いられ、画像処理に
よって走行中の車両の速度を計測する装置および方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used in a vehicle number automatic reading device or the like for automatically identifying a plate number by photographing a vehicle head portion of a vehicle running by a camera device, and the speed of the vehicle running by image processing. The present invention relates to an apparatus and method for measuring

【0002】[0002]

【従来の技術】制限速度違反車両の取り締りなどのため
に、路上に設置したテレビカメラで車両のナンバープレ
ートを光学的にとらえ、画像処理によってプレートナン
バーを識別する車番自動読取装置が、従来から開発され
ている。制限速度違反車両の取締りのためには、車番の
自動読取とともに、走行中の車両の速度も計測する必要
がある。そこで、従来では、車番自動読取装置とは別個
に速度計測装置を設けていたが、たとえば特開平3−2
76069号公報に見られるように、車番自動読取装置
における画像処理によって車両の速度を計測する技術が
開発されるようになってきている。すなわち、車番自動
読取装置に速度計測機能が付加されるから、特別の速度
計測装置を設ける必要がない。
2. Description of the Related Art Conventionally, a vehicle number automatic reading device for optically detecting a vehicle license plate with a television camera installed on the road and for identifying the plate number by image processing has been used for controlling a vehicle violating a speed limit. Being developed. In order to control a vehicle that violates the speed limit, it is necessary to automatically read the vehicle number and also to measure the speed of the running vehicle. Therefore, in the past, a speed measuring device was provided separately from the vehicle number automatic reading device.
As seen in Japanese Patent Publication No. 76069, a technique for measuring the speed of a vehicle by image processing in a vehicle number automatic reading device has been developed. That is, since a speed measuring function is added to the vehicle number automatic reading device, it is not necessary to provide a special speed measuring device.

【0003】上記の公開公報に開示された先行技術で
は、路上の所定領域をカメラ装置で撮影し、この撮影さ
れた画像中に車両の先端部分である車頭が存在している
かどうかが判定される。さらに、車頭が存在していると
きには、上記画像中における車頭位置が演算される。車
頭位置の検出は、次のようにして行われる。すなわち、
先ずデジタル化された画像信号に基づいて撮影された画
像のエッジ部が検出され、画像の輪郭が抽出される。こ
の輪郭を抽出して得た輪郭画像の一例は本願の図4(a)
に示されている。この輪郭を構成する輪郭画素の数が画
面の水平方向xに沿って走査して計数され、各走査線毎
の計数値に基づいて、画面の垂直方向yに関する垂直プ
ロファイルが作成される。この垂直プロファイルは図4
(b) に示されている。なお、垂直方向yは車両の進行方
向に沿う方向である。
In the prior art disclosed in the above-mentioned publication, a predetermined area on the road is photographed by a camera device, and it is judged whether or not the front end of the vehicle is present in the photographed image. .. Further, when the vehicle head is present, the vehicle head position in the image is calculated. The detection of the vehicle head position is performed as follows. That is,
First, the edge portion of the image captured based on the digitized image signal is detected, and the contour of the image is extracted. An example of the contour image obtained by extracting this contour is shown in FIG.
Is shown in. The number of contour pixels forming the contour is scanned and counted along the horizontal direction x of the screen, and a vertical profile in the vertical direction y of the screen is created based on the count value for each scanning line. This vertical profile is shown in Figure 4.
It is shown in (b). The vertical direction y is a direction along the traveling direction of the vehicle.

【0004】さらに、垂直プロファイルが車両の進行方
向とは反対の方向Rに沿って走査され、この走査の過程
で垂直プロファイルが閾値Aを超えた位置yheadが車頭
位置と判定される。車番の自動識別のためにナンバープ
レートの部分の画像を切り出すプレート切出し処理は、
検出された車頭位置yheadに基づいて行われる。このよ
うにして車頭位置が検出されると、その後に撮影された
別の画像に関して同様な処理が行われる。
Further, the vertical profile is scanned along the direction R opposite to the traveling direction of the vehicle, and the position yhead where the vertical profile exceeds the threshold value A is determined as the vehicle head position in the course of this scanning. The plate cutting process that cuts out the image of the license plate part for automatic identification of the car number is
This is performed based on the detected vehicle head position yhead. When the vehicle head position is detected in this manner, similar processing is performed on another image captured thereafter.

【0005】そこで、最初の画像に対して得られた車頭
位置を第1の車頭位置yhead1とし、次の画像に対して
得られた車頭位置を第2の車頭位置yhead2とすると、
この2つの車頭位置の差(yhead2−yhead1)は、2
つの画像の撮影時刻間における画面内での車頭の移動距
離に等しい。そこで、車頭位置の差(yhead2−yhead
1)を実際の車両の移動距離に換算し、さらにこの移動
距離を2つの画像の撮影時刻差で除することによって、
車両の速度が求まる。
Therefore, if the vehicle head position obtained for the first image is taken as the first vehicle head position yhead1 and the vehicle head position obtained for the next image is taken as the second vehicle head position yhead2,
The difference between these two vehicle head positions (yhead2-yhead1) is 2
It is equal to the distance traveled by the vehicle head on the screen between the times when two images were taken. Therefore, the difference in vehicle head position (yhead2-yhead
By converting 1) into the actual travel distance of the vehicle, and further dividing this travel distance by the shooting time difference between the two images,
The speed of the vehicle can be determined.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述の
先行技術では、必ずしも車両の速度の測定が正確に行え
るとは限らない。すなわち、検出された第1の車頭位置
yhead1と第2の車頭位置yhead2とは、車両の同一部
分に対応した位置であるとは限らず、この場合には、速
度の計測に誤差が生じる。
However, in the above-mentioned prior art, it is not always possible to accurately measure the speed of the vehicle. That is, the detected first vehicle head position yhead1 and second vehicle head position yhead2 are not necessarily positions corresponding to the same portion of the vehicle, and in this case, an error occurs in speed measurement.

【0007】さらに具体的に説明すると、第1の車頭位
置yhead1が図9(a) に示すように車両61のバンパー
62の部分で検出されたにもかかわらず、図9(b) に示
すように第2の車頭位置yhead2が車両61のナンバー
プレート63の下部で検出されるような場合が起こり得
る。このときには、2つの車頭位置の差L1(=yhead
2−yhead1)は、画像中における正確な車頭の移動距
離L0と等しくならない。このため、計測された車両の
速度には、
More specifically, as shown in FIG. 9 (b), the first vehicle head position yhead1 is detected at the bumper 62 of the vehicle 61 as shown in FIG. 9 (a). In some cases, the second vehicle head position yhead2 may be detected below the license plate 63 of the vehicle 61. At this time, the difference L2 between the two vehicle head positions (= yhead
2-yhead1) is not equal to the accurate travel distance L0 of the vehicle head in the image. Therefore, the measured vehicle speed is

【0008】[0008]

【数1】 [Equation 1]

【0009】の誤差が生じる。そこで、本発明の目的
は、上述の技術的課題を解決し、画像処理によって走行
中の車両の速度を正確に計測することができる速度計測
装置および速度計測方法を提供することである。
An error of occurs. Therefore, an object of the present invention is to solve the above-mentioned technical problems and to provide a speed measuring device and a speed measuring method capable of accurately measuring the speed of a running vehicle by image processing.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めの請求項1記載の画像処理による速度計測装置は、路
上の所定領域を撮影する撮影手段により撮影された画像
を処理することにより、走行中の車両の速度を計測する
画像処理による速度計測装置であって、上記撮影手段で
撮影された画像の濃度変化率が所定値以上であるエッジ
部の画素を輪郭画素として抽出する輪郭抽出手段と、上
記輪郭画素により構成される輪郭画像を車両の進行方向
に対応する方向に対して交差する方向に走査し、各走査
線上に存在する輪郭画素をそれぞれ計数して、この計数
値の組からなる輪郭プロファイルを作成する輪郭プロフ
ァイル作成手段と、この輪郭プロファイル作成手段で作
成された輪郭プロファイルを記憶するための記憶手段
と、この記憶手段に記憶された輪郭プロファイルに対応
する画像の撮影時刻よりも後に上記撮影手段で撮影され
た画像に対応する上記輪郭プロファイルと上記記憶手段
に記憶された輪郭プロファイルとの間で相関演算を行う
相関演算手段と、この相関演算手段における2つの輪郭
プロファイルの相関演算の結果に基づいて、上記2つの
輪郭プロファイルに対応する各画像の撮影時刻間におけ
る車両の移動距離を算出する移動距離算出手段と、上記
2つの輪郭プロファイルに対応する各画像の撮影時刻差
と、上記移動距離算出手段で算出された移動距離とに基
づいて、車両の速度を演算する速度演算手段とを含むこ
とを特徴とする。
In order to achieve the above object, a speed measuring device by image processing according to claim 1 processes an image photographed by a photographing means for photographing a predetermined area on a road, A speed measuring device by image processing for measuring the speed of a running vehicle, wherein a contour extracting means for extracting, as a contour pixel, a pixel at an edge portion in which a density change rate of an image photographed by the photographing means is a predetermined value or more. And a contour image composed of the contour pixels is scanned in a direction intersecting a direction corresponding to the traveling direction of the vehicle, the contour pixels existing on each scanning line are respectively counted, and from the set of count values, A contour profile creating means for creating a contour profile, a storage means for storing the contour profile created by the contour profile creating means, and a storage means for storing the contour profile. Correlation calculation means for performing a correlation calculation between the contour profile corresponding to the image photographed by the photographing means after the photographing time of the image corresponding to the stored contour profile and the contour profile stored in the storage means. And a moving distance calculating means for calculating the moving distance of the vehicle between the photographing times of the images corresponding to the two contour profiles based on the result of the correlation calculation of the two contour profiles by the correlation calculating means, It is characterized by including a speed calculation means for calculating the speed of the vehicle on the basis of the photographing time difference of each image corresponding to one contour profile and the movement distance calculated by the movement distance calculation means.

【0011】また、請求項2記載の画像処理による速度
計測装置は、上記相関演算手段は、相関演算の対象とな
るいずれか一方の輪郭プロファイルと所定の閾値とを比
較して上記撮影手段で撮影された画像中における車頭位
置を演算する車頭位置演算手段と、得られた車頭位置の
近傍における上記一方の輪郭プロファイルの一部である
部分プロファイルを抽出する手段と、抽出された部分プ
ロファイルと他方の輪郭プロファイルとのパターンマッ
チングを行い、上記他方の輪郭プロファイルにおいて最
も良くマッチングするマッチング部分を求めるマッチン
グ手段とを含み、上記移動距離算出手段は、上記部分プ
ロファイルと上記マッチング部分とのシフト量に基づい
て車両の移動距離を算出するものであることを特徴とす
る。
Further, in the speed measuring device according to the second aspect of the present invention, the correlation calculation means compares one of the contour profiles to be subjected to the correlation calculation with a predetermined threshold value, and photographs the image with the photographing means. Vehicle position calculation means for calculating the vehicle head position in the captured image, means for extracting a partial profile which is a part of the one contour profile in the vicinity of the obtained vehicle head position, and the extracted partial profile and the other A matching unit that performs pattern matching with the contour profile and finds a matching portion that best matches in the other contour profile; and the movement distance calculation unit includes the matching unit based on a shift amount between the partial profile and the matching portion. It is characterized in that the moving distance of the vehicle is calculated.

【0012】請求項3記載の画像処理による速度計測方
法は、路上の所定領域を撮影する撮影手段により撮影さ
れた画像を処理することにより、走行中の車両の速度を
計測する画像処理による速度計測方法であって、上記撮
影手段で撮影された画像の濃度変化率が所定値以上であ
るエッジ部の画素を輪郭画素として抽出し、上記輪郭画
素により構成される輪郭画像を車両の進行方向に対応す
る方向に対して交差する方向に走査し、各走査線上に存
在する輪郭画素をそれぞれ計数して、この計数値の組か
らなる輪郭プロファイルを作成し、時間間隔をおいて撮
影された2つの画像に対して作成された第1の輪郭プロ
ファイルと第2の輪郭プロファイルとの間で相関演算を
行い、この相関演算の結果に基づいて、第1の輪郭プロ
ファイルおよび第2の輪郭プロファイルに対応する各画
像の撮影時刻間における車両の移動距離を算出し、上記
第1の輪郭プロファイルおよび第2の輪郭プロファイル
に対応する各画像の撮影時刻差と、上記算出された車両
の移動距離とに基づいて、車両の速度を求めることを特
徴とする。
According to a third aspect of the present invention, there is provided a speed measuring method based on image processing for measuring a speed of a running vehicle by processing an image photographed by a photographing means for photographing a predetermined area on a road. A method of extracting a pixel of an edge portion in which a density change rate of an image photographed by the photographing means is a predetermined value or more as a contour pixel, and the contour image formed by the contour pixel corresponds to a traveling direction of the vehicle. Scanning is performed in a direction intersecting with the scanning direction, the contour pixels existing on each scanning line are respectively counted, a contour profile composed of a set of these count values is created, and two images photographed at time intervals. Correlation calculation is performed between the first contour profile and the second contour profile created for the first contour profile and the second contour profile, and based on the result of this correlation calculation, The moving distance of the vehicle between the shooting times of the images corresponding to the contour profile is calculated, and the shooting time difference between the images corresponding to the first contour profile and the second contour profile and the calculated vehicle It is characterized in that the speed of the vehicle is obtained based on the moving distance.

【0013】また、請求項4記載の画像処理による速度
計測方法は、上記相関演算は、相関演算の対象となるい
ずれか一方の輪郭プロファイルと所定の閾値とを比較し
て上記撮影手段で撮影された画像中における車頭位置を
演算し、得られた車頭位置の近傍における上記一方の輪
郭プロファイルの一部である部分プロファイルを抽出
し、抽出された部分プロファイルと他方の輪郭プロファ
イルとのパターンマッチングを行い、さらに上記他方の
輪郭プロファイルにおいて最も良くマッチングするマッ
チング部分を求めるようにして行われ、上記車両の移動
距離は、上記部分プロファイルと上記マッチング部分と
のシフト量に基づいて算出されることを特徴とする。
Further, in the speed measuring method by image processing according to claim 4, in the correlation calculation, one of the contour profiles to be subjected to the correlation calculation is compared with a predetermined threshold value and the image is photographed by the photographing means. The vehicle head position in the image is calculated, the partial profile that is a part of the one contour profile in the vicinity of the obtained vehicle head position is extracted, and pattern matching is performed between the extracted partial profile and the other contour profile. Further, it is performed so as to find a matching portion that best matches the other contour profile, and the moving distance of the vehicle is calculated based on a shift amount between the partial profile and the matching portion. To do.

【0014】[0014]

【作用】請求項1または3記載の構成においては、撮影
手段で撮影された画像から輪郭画素が抽出されて、輪郭
画像が作成される。この輪郭画像は車両の進行方向に対
応する方向に対して交差する方向に走査され、各走査線
上に存在する輪郭画素を計数することにより輪郭プロフ
ァイルが作成される。この輪郭プロファイルは記憶手段
に記憶される。
According to the present invention, the contour pixel is extracted from the image photographed by the photographing means to create the contour image. This contour image is scanned in a direction intersecting with the direction corresponding to the traveling direction of the vehicle, and a contour profile is created by counting the contour pixels existing on each scanning line. This contour profile is stored in the storage means.

【0015】記憶手段に記憶された輪郭プロファイルに
対応する画像の撮影時刻よりも後に別の画像が撮影され
て、当該別の画像に対応する輪郭プロファイルが得られ
ると、この輪郭プロファイルと記憶手段に記憶されてい
る輪郭プロファイルとの相関演算が行われる。そして、
この相関演算の結果に基づいて、上記の2つの画像の撮
影時刻間における車両の移動距離が算出される。そし
て、この移動距離と、上記2つの画像の撮影時刻差とに
基づいて、車両の速度が算出される。
When another image is photographed after the photographing time of the image corresponding to the contour profile stored in the storage means and a contour profile corresponding to the other image is obtained, the contour profile and the storage means are stored. Correlation calculation with the stored contour profile is performed. And
Based on the result of this correlation calculation, the moving distance of the vehicle between the photographing times of the two images is calculated. Then, the speed of the vehicle is calculated on the basis of the moving distance and the difference between the photographing times of the two images.

【0016】このように本発明では、時間間隔をおいて
撮影された2つの画像に対応する各輪郭プロファイルに
相関演算を施すことによって、車両の移動距離が求めら
れる。このため、従来のように車頭位置だけではなく、
輪郭プロファイルの全体が、車両の移動距離の決定に寄
与することになる。この結果、車両の移動距離が正確に
求まる。
As described above, in the present invention, the moving distance of the vehicle is obtained by performing the correlation calculation on each contour profile corresponding to the two images photographed at the time intervals. Therefore, not only the head position as in the past,
The entire contour profile will contribute to the determination of the distance traveled by the vehicle. As a result, the moving distance of the vehicle can be accurately obtained.

【0017】請求項2または4記載の構成は、相関演算
の演算量を少なくするための構成である。すなわち、先
ず相関演算の対象となる2つの輪郭プロファイルのうち
の一方の輪郭プロファイルと所定の閾値とが比較され、
車頭位置の近傍の有意な部分が部分プロファイルとして
抽出される。そして、この部分プロファイルと他方の輪
郭プロファイルとのパターンマッチングが行われる。そ
して、この他方の輪郭プロファイルにおいて最もよくマ
ッチングするマッチング部分が求められ、さらにこのマ
ッチング部分と部分プロファイルとのシフト量に基づい
て車両の移動距離が求められる。
The structure according to claim 2 or 4 is a structure for reducing the calculation amount of the correlation calculation. That is, first, one of the two contour profiles to be subjected to the correlation calculation is compared with a predetermined threshold value,
A significant portion near the vehicle head position is extracted as a partial profile. Then, pattern matching between this partial profile and the other contour profile is performed. Then, the matching portion that best matches the other contour profile is obtained, and the moving distance of the vehicle is obtained based on the shift amount between the matching portion and the partial profile.

【0018】このようにすれば、2つの輪郭プロファイ
ルの全部分に関して相関演算を行うのではなく、部分プ
ロファイルに関して演算を行うことになるから、演算量
を少なくすることができる。しかも、車頭位置の近傍の
有意な部分が、パターンマッチングのための部分プロフ
ァイルとして抽出されているから、マッチング演算の精
度も高くすることができる。
In this way, since the correlation calculation is not performed for all the portions of the two contour profiles, but the calculation is performed for the partial profiles, the amount of calculation can be reduced. Moreover, since a significant portion near the vehicle head position is extracted as a partial profile for pattern matching, the accuracy of matching calculation can be increased.

【0019】[0019]

【実施例】以下では、添付図面を参照して、本発明の実
施例について詳細に説明する。図2は、本発明の一実施
例の画像処理による速度計測装置および方法が適用され
る車番自動読取装置の設置例を示す平面図であり、図3
はその正面図である。車番自動読取装置は、車番自動読
取装置本体1、照明装置2a,2b、カメラ装置3等か
らなるものであり、カメラ装置3は、照明装置2a,2
bとともに道路脇の設置ポール4のアームの上部に取り
付けられている。車番自動読取装置本体1は設置ポール
4の側部に取付けられている。なお設置ポールの代わり
に信号機、歩道橋等を流用してもよい。
Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 2 is a plan view showing an installation example of a vehicle number automatic reading device to which the speed measuring device and method by image processing of one embodiment of the present invention is applied, and FIG.
Is a front view thereof. The vehicle number automatic reading device includes a vehicle number automatic reading device body 1, lighting devices 2a and 2b, a camera device 3, and the like, and the camera device 3 includes the lighting devices 2a and 2b.
It is attached to the upper part of the arm of the installation pole 4 beside the road together with b. The vehicle number automatic reader main body 1 is attached to a side portion of the installation pole 4. A traffic signal, pedestrian bridge, etc. may be used instead of the installation pole.

【0020】カメラ装置3は、カメラ装置3の視野が路
上の所定領域R(図2において斜線を付して示す。)に
設定されるように、所定の伏角をもって取り付けられて
いる。図1は、車番自動読取装置本体1の内部の回路構
成を示すブロック図である。カメラ装置3からの画像信
号は、アナログ/デジタル(A/D)変換回路11によ
りデジタルデータに変換される。このデジタルデータは
エッジ検出回路12に与えられる。エッジ検出回路12
は、画像の濃度変化のある部分(エッジ部)を検出し、
濃度変化率に対応したデータを出力する。エッジ検出回
路12の出力信号は二値化回路13に与えられ、所定の
閾値を基準として二値化される。二値化された信号は前
処理画像として画像メモリ14に蓄えられる。上記のエ
ッジ検出処理および二値化処理によって、画像の濃度変
化率が所定値以上となるような画素、すなわち撮影領域
内における画像の輪郭を構成する輪郭画素が抽出される
ことになる。したがって、画像メモリ14には、輪郭画
素で構成された輪郭画像が記憶されることになる。上記
エッジ検出回路12および二値化回路13は、輪郭抽出
手段を構成している。
The camera device 3 is attached with a predetermined dip so that the field of view of the camera device 3 is set in a predetermined region R on the road (shown by hatching in FIG. 2). FIG. 1 is a block diagram showing the internal circuit configuration of the vehicle number automatic reading device main body 1. The image signal from the camera device 3 is converted into digital data by the analog / digital (A / D) conversion circuit 11. This digital data is given to the edge detection circuit 12. Edge detection circuit 12
Detects a portion (edge portion) of the image where the density changes,
The data corresponding to the density change rate is output. The output signal of the edge detection circuit 12 is given to the binarization circuit 13 and binarized based on a predetermined threshold value. The binarized signal is stored in the image memory 14 as a preprocessed image. By the above edge detection processing and binarization processing, pixels for which the density change rate of the image is equal to or greater than a predetermined value, that is, contour pixels forming the contour of the image in the photographing region are extracted. Therefore, the image memory 14 stores a contour image composed of contour pixels. The edge detection circuit 12 and the binarization circuit 13 constitute a contour extraction means.

【0021】画像メモリ14に蓄えられたデータは、輪
郭プロファイル作成手段である画像処理プロセッサ15
に供給される。画像処理プロセッサ15は、1コマの輪
郭画像毎に後述する垂直プロファイル(垂直投影図)を
作成する。作成された垂直プロファイルは記憶手段であ
るプロファイルメモリ16に蓄えられる。このプロファ
イルメモリ16に蓄えられたデータは、相関演算手段、
移動距離算出手段および速度演算手段として機能する汎
用プロセッサ17に入力され、ここにおいて車頭位置検
出処理、プレート切出し処理、文字切出し処理、文字認
識処理が行われる。
The data stored in the image memory 14 is image processing processor 15 which is a contour profile creating means.
Is supplied to. The image processor 15 creates a vertical profile (vertical projection diagram) described below for each contour image of one frame. The created vertical profile is stored in the profile memory 16 which is a storage means. The data stored in the profile memory 16 is the correlation calculation means,
It is input to the general-purpose processor 17 functioning as a moving distance calculating means and a speed calculating means, and here, vehicle head position detection processing, plate cutting processing, character cutting processing, and character recognition processing are performed.

【0022】さらに詳説すると、エッジ検出回路12
は、車両等が映っている画像に二次元微分を施すことに
より、車両の輪郭だけを抽出するものである。エッジ検
出回路12の出力を二値化回路13で二値化することに
より、車両の輪郭がさらに明瞭になり、図4(a) に示す
ような輪郭画像が得られる。この輪郭画像に基づいて、
画像処理プロセッサ15は上記の垂直プロファイルを作
成することになる。この垂直プロファイルを図4(b) に
示す。図4(b) の縦軸yは車両の走行方向にとってい
る。
More specifically, the edge detection circuit 12
Is to extract only the contour of the vehicle by applying a two-dimensional differentiation to the image in which the vehicle or the like is reflected. By binarizing the output of the edge detection circuit 12 by the binarization circuit 13, the contour of the vehicle becomes clearer, and a contour image as shown in FIG. 4A is obtained. Based on this contour image,
The image processor 15 will create the above vertical profile. This vertical profile is shown in Figure 4 (b). The vertical axis y in FIG. 4 (b) is in the traveling direction of the vehicle.

【0023】この垂直プロファイルは、図4(a) に示す
輪郭画像を車両の走行方向に交差する方向である水平方
向xに沿って走査し、各走査線毎の輪郭画素数を計数す
ることによって、その計数値の組として得られる。すな
わち、垂直プロファイルは、いわば輪郭画像の垂直方向
yに関するヒストグラムである。次に、汎用プロセッサ
17が行う処理を図5のフローチャートを用いて説明す
る。まず、原画が取り込まれ(ステップn1)、画像処
理プロセッサ15で求められた垂直プロファイルを基に
して車頭位置を検出する(ステップn2)。この車頭検
出処理は、上記垂直プロファイルを垂直方向yとは反対
方向にスキャンし、輪郭画素数が閾値Aを超えた位置を
車頭位置yhead(図4参照)と判定する処理である。こ
のステップn2で検出された車頭位置を第1の車頭位置
y1とする。
This vertical profile is obtained by scanning the contour image shown in FIG. 4 (a) along the horizontal direction x, which is a direction intersecting the traveling direction of the vehicle, and counting the number of contour pixels for each scanning line. , As a set of the count values. That is, the vertical profile is, so to speak, a histogram in the vertical direction y of the contour image. Next, the processing performed by the general-purpose processor 17 will be described with reference to the flowchart of FIG. First, the original image is captured (step n1), and the vehicle head position is detected based on the vertical profile obtained by the image processor 15 (step n2). This vehicle head detection processing is processing for scanning the vertical profile in a direction opposite to the vertical direction y and determining a position where the number of contour pixels exceeds the threshold value A as a vehicle head position y head (see FIG. 4). The vehicle head position detected in step n2 is defined as a first vehicle head position y1.

【0024】車頭位置が検出されると(ステップn
3)、もう一度原画が取り込まれる(ステップn4)。
このステップn4の原画を取込む時刻と、上記ステップ
n1の原画を取込む時刻との差は、画像の1コマ分の走
査時間に対応する。これは、この実施例では、車頭検出
処理は1コマ分の走査時間内で完了するようにされてい
るからであるが、もし車頭検出処理がn(n≧2)コマ
分の走査時間内で完了するならば、ステップn1の原画
を取込む時刻と、上記ステップn4の原画を取込む時刻
との差は、画像のnコマ分の走査時間に対応することと
なる。
When the vehicle head position is detected (step n
3) Then, the original image is captured again (step n4).
The difference between the time when the original image is taken in step n4 and the time when the original image is taken in step n1 corresponds to the scanning time for one frame of the image. This is because, in this embodiment, the vehicle head detection processing is completed within the scanning time for one frame, but if the vehicle head detection processing is within the scanning time for n (n ≧ 2) frames. When completed, the difference between the time when the original image is captured in step n1 and the time when the original image is captured in step n4 corresponds to the scanning time for n frames of the image.

【0025】ステップn4の原画を取込んだ後、もう一
度車頭検出処理をし(ステップn5)、車頭位置を検出
する。このステップn4で検出された車頭位置を第2の
車頭位置y2 とする。もし車頭を検出できなければ(ス
テップn6)最初に戻り、車頭を検出できれば画面上で
の車頭の移動距離を仮の移動距離として計算する(ステ
ップn7)。
After capturing the original image in step n4, the vehicle head detection process is performed again (step n5) to detect the vehicle head position. The vehicle head position detected in step n4 is defined as a second vehicle head position y2. If the vehicle head cannot be detected (step n6), the process returns to the beginning, and if the vehicle head can be detected, the moving distance of the vehicle head on the screen is calculated as a temporary moving distance (step n7).

【0026】すなわち、既に求めた車頭位置y1,y2 か
ら仮の移動距離LAを計算する。この仮の移動距離LA
は、 LA=y2 −y1 ・・・・ (2) で求められる。もし、LA<0ならば逆方向に走行して
いるのであるから、計算を打ち切る。
That is, the tentative movement distance LA is calculated from the vehicle head positions y1 and y2 already obtained. This tentative movement distance LA
Is obtained by LA = y2-y1 ... (2). If LA <0, the vehicle is traveling in the opposite direction, so the calculation is terminated.

【0027】LA≧0ならば、LAをしきい値Lo と比
較する(ステップn8)。LA<Lo であれば、移動距
離が小さすぎて速度計算誤差が大きくなるので、速度計
算を行わずにステップn4に戻り、次の原画を取込む。
LA≧Lo であれば、移動距離が十分大きいとして、ス
テップn9に進む。ステップn9では、車頭位置y1,
y2が検出された各垂直プロファイルに対して、後述す
る相関演算が施される。そして、ステップn10では、
相関演算の結果に基づいて、画面上における車頭の移動
距離Lが算出され、さらにステップn11では、演算さ
れた移動距離Lに基づいて走行中の車両の速度が計算さ
れる。
If LA ≧ 0, LA is compared with the threshold Lo (step n8). If LA <Lo, the moving distance is too small and the speed calculation error becomes large. Therefore, without performing speed calculation, the process returns to step n4 to capture the next original image.
If LA ≧ Lo, it is determined that the moving distance is sufficiently large, and the process proceeds to step n9. At step n9, the vehicle head position y1,
The correlation calculation described later is performed on each vertical profile in which y2 is detected. Then, in step n10,
Based on the result of the correlation calculation, the moving distance L of the vehicle head on the screen is calculated, and in step n11, the speed of the running vehicle is calculated based on the calculated moving distance L.

【0028】このような速度を得るための処理と並行し
て車番読取処理が行われる(ステップn12)。この車
番読取処理は、図6に示すように、画面全体21のうち
車頭位置yheadの前αの範囲および後ろβの範囲を含む
範囲Δをプレート切出し範囲に限定し、さらに、このプ
レート切出し範囲Δにおいてプレート切出しを行うとと
もに、文字を抽出する文字切出しを行い、最後に文字認
識を行って車番を識別する処理である。
A vehicle number reading process is performed in parallel with the process for obtaining such speed (step n12). In this vehicle number reading process, as shown in FIG. 6, the range Δ including the range of front α and the range of rear β of the vehicle head position yhead is limited to the plate cutout range on the entire screen 21, and the plate cutout range is further set. In Δ, the plate is cut out, the character is cut out to extract the character, and finally the character is recognized to identify the vehicle number.

【0029】次に、ステップn9における相関演算につ
いて説明する。一般にxの1変数関数f(x) とg(x) が
与えられると、この2つの関数の相関は、下記第(3) 式
で与えられる。
Next, the correlation calculation in step n9 will be described. Generally, when a one-variable function f (x) and g (x) of x are given, the correlation between these two functions is given by the following equation (3).

【0030】[0030]

【数2】 [Equation 2]

【0031】で与えられる。垂直プロファイルを、画面
上における垂直方向yに関する位置座標yにより各計数
値pを表した関数p(y) で表すものとして、相関演算の
対象となる2つの垂直プロファイルを表す関数をp
1 (y) ,p2 (y) とすれば、2つの垂直プロファイルの
相関は、下記第(4) 式で与えられることになる。ただ
し、画面外のyに対しては、p1 (y) =0、p2 (y) =
0であるものとする。
Is given by Assuming that the vertical profile is represented by a function p (y) representing each count value p by the position coordinate y in the vertical direction y on the screen, a function representing two vertical profiles to be subjected to correlation calculation is represented by p.
Assuming 1 (y) and p 2 (y), the correlation between the two vertical profiles is given by the following equation (4). However, for y outside the screen, p 1 (y) = 0, p 2 (y) =
Assume 0.

【0032】[0032]

【数3】 [Equation 3]

【0033】この(p1 ・p2 )(x) が、x=x1 で最
大値をとるとすると、p1 (y) とp2 (y) とをx1 だけ
ずらしたときに、p1 とp2 とは最もよく類似すること
になる。ところで、p1 (y) ,p2 (y) は同一の車両に
対して求められているのであるから、x1 の絶対値|x
1 |は車両の移動距離にほかならない。すなわち、 L=|x1 | ・・・・ (5) である。
Assuming that (p 1 · p 2 ) (x) has a maximum value at x = x 1 , when p 1 (y) and p 2 (y) are shifted by x 1 , p 1 and p 2 will be the most similar. By the way, since p 1 (y) and p 2 (y) are obtained for the same vehicle, the absolute value of x 1 | x
1 | is nothing but the travel distance of the vehicle. That is, L = | x 1 | ... (5).

【0034】ステップn9での相関演算は、したがっ
て、上記第(4) 式で与えられる(p1・p2 )(x) を求
める処理であり、図5のステップn10における処理
は、(p 1 ・p2 )(x) が最大値をとるときのx=x1
を求める演算に他ならない。このような相関演算によ
り、垂直プロファイル全体の移動距離として移動距離L
が求められることになる。上述の特開平3−27606
9号公報に開示された先行技術では、上記の仮の移動距
離LA(=y2−y1)に基づいて車両の移動距離を求
めていることになる。すなわち、この場合には、点と点
とを0次元的にマッチングしていたことになる。これに
対して、本実施例では、垂直プロファイル相互間の相関
が求められるので、いわば一次元的なマッチングが行わ
れる。したがって、上記の先行技術に比較して、本実施
例によれば車両の移動距離が格段に正確に演算できるよ
うになる。すなわち、車両の異なる部分で検出された車
頭位置に基づいて距離の演算が行われた結果、不正確な
移動距離に基づいて車両の速度が演算されるなどという
不具合を防止できる。
The correlation calculation in step n9 follows
Given by equation (4) above (p1・ P2) (X)
Processing in step n10 of FIG.
Is (p 1・ P2) (X) takes the maximum value x = x1
It is nothing but an operation to obtain. Such correlation calculation
And the moving distance L as the moving distance of the entire vertical profile.
Will be required. JP-A-3-27606 mentioned above
In the prior art disclosed in Japanese Patent Publication No. 9, the above-mentioned temporary moving distance is
Obtain the travel distance of the vehicle based on the separation LA (= y2-y1)
I am sorry. That is, in this case
It means that and were matched in a zero dimension. to this
On the other hand, in this embodiment, the correlation between the vertical profiles is
Is required, so one-dimensional matching is performed.
Be done. Therefore, in comparison with the above-mentioned prior art, the present implementation
According to the example, the distance traveled by the vehicle can be calculated extremely accurately.
Growls That is, vehicles detected in different parts of the vehicle
Inaccurate as a result of distance calculation based on head position
The speed of the vehicle is calculated based on the distance traveled
You can prevent problems.

【0035】二次元画像内における特定の対象の移動距
離を求めるためには、本来は、二次元の広がりとして相
関演算を行わなければならない。しかし、車番自動読取
装置では、画面全体に1つの移動物体(すなわち車両)
しか入らないこと、および車両の進行方向は一方向に限
られることを考慮すれば、車両の進行方向に関して一次
元的に相関を求めれば、車両の移動距離を求めるための
相関演算として十分である。すなわち、少ない演算量で
車両の移動距離を正確に求めることができる。
In order to obtain the moving distance of a specific object in a two-dimensional image, originally, the correlation calculation should be performed as a two-dimensional spread. However, in the automatic vehicle number reader, one moving object (that is, vehicle) is displayed on the entire screen.
Considering that the vehicle traveling direction is limited to one direction, it is sufficient to obtain a one-dimensional correlation with respect to the traveling direction of the vehicle as a correlation calculation for obtaining the traveling distance of the vehicle. .. That is, the moving distance of the vehicle can be accurately obtained with a small amount of calculation.

【0036】また、車頭検出処理のために算出される垂
直プロファイルを用い、この垂直プロファイルの相関演
算を行うことで移動距離を算出するようにしているか
ら、新たな関数を求める必要がないという利点もある。
次に、図5のステップn11で行われる車両の速度の計
算を、図7を参照して説明する。カメラ装置3の高さを
H、伏角をθ、路面をCO、車頭の平均高さをΔHと
し、カメラ装置3で撮影した画面の垂直方向の視野をY
とする。
Further, since the vertical profile calculated for the vehicle head detection process is used and the moving distance is calculated by performing the correlation calculation of this vertical profile, it is not necessary to obtain a new function. There is also.
Next, the calculation of the speed of the vehicle performed in step n11 of FIG. 5 will be described with reference to FIG. The height of the camera device 3 is H, the dip angle is θ, the road surface is CO, and the average height of the vehicle head is ΔH, and the vertical field of view of the screen imaged by the camera device 3 is Y.
And

【0037】画面の垂直方向の視野の両端B,Aに対応
する路面上の位置をそれぞれC,A、車頭の進入位置を
それぞれE,Dとし、相関演算の対象となった2つの垂
直プロファイルのうちの時間的に先行する第1の垂直プ
ロファイルに対応した車頭の進入位置をGとし、上記2
つの垂直プロファイルのうちの時間的に後続する第2の
垂直プロファイルに対応した車頭の進入位置をFとす
る。このとき、上記の相関演算の結果として得られた画
像内における車両の移動距離Lは、図示のとおり、G,
F点とカメラ装置3とを結ぶ直線が線分ABと交わる点
J,K間の距離である。
The positions on the road surface corresponding to both ends B and A of the vertical field of view of the screen are C and A, respectively, and the entry positions of the vehicle head are E and D, respectively. Let G be the entry position of the vehicle head corresponding to the first vertical profile that precedes in time, and
Let F be the approach position of the vehicle head corresponding to the second vertical profile that temporally succeeds one of the two vertical profiles. At this time, the moving distance L of the vehicle in the image obtained as a result of the correlation calculation is G,
The straight line connecting the point F and the camera device 3 is the distance between points J and K where the line segment AB intersects.

【0038】また、rは点A,K間の画面上の距離であ
る。そうすると、下記第(6) 式および第(7) 式が成り立
つ。
Further, r is the distance between the points A and K on the screen. Then, the following expressions (6) and (7) are established.

【0039】[0039]

【数4】 [Equation 4]

【0040】同様に、次の第(8) 式および第(9) 式が成
り立つ。
Similarly, the following equations (8) and (9) hold.

【0041】[0041]

【数5】 [Equation 5]

【0042】これより、 GF=DE−DF ・・・・ (10) が求まる。車両の速度は、GFを「ステップn1の原画
を取込む時刻と、上記ステップn4の原画を取込む時刻
との差」で割り算して求めることができる。求めた速度
データは、車番自動読取装置外部に出力され、車両の速
度判定に利用される。
From this, GF = DE-DF (10) is obtained. The speed of the vehicle can be obtained by dividing GF by "the difference between the time when the original image of step n1 is taken and the time when the original image of step n4 is taken". The obtained speed data is output to the outside of the vehicle number automatic reading device and used for speed determination of the vehicle.

【0043】以上のように本実施例によれば、時間間隔
を開けて撮影された2枚の画像に対応する各垂直プロフ
ァイルの相関を演算することによって、車両の移動距離
が正確に求められる。すなわち、2つの垂直プロファイ
ル全体の移動距離に基づいて車両の移動距離が求められ
ることになるから、このような移動距離は極めて正確に
求まる。このため、この正確に求められた移動距離に基
づいて車両の速度を演算することにより、車両の速度が
高精度で求まることになる。
As described above, according to this embodiment, the moving distance of the vehicle can be accurately obtained by calculating the correlation between the vertical profiles corresponding to the two images taken at the time intervals. That is, since the moving distance of the vehicle is obtained based on the moving distances of the two vertical profiles as a whole, such moving distance can be obtained extremely accurately. Therefore, the speed of the vehicle can be calculated with high accuracy by calculating the speed of the vehicle based on the accurately calculated moving distance.

【0044】図8は、本発明の第2実施例を説明するた
めの図である。本実施例では、2つの垂直プロファイル
の相関演算に特徴があり、その他の点は上記の第1実施
例と同様であるので、この相関演算についてのみ説明す
る。なお、本実施例の説明において、上記の図5を再び
参照する。図8には相関演算の対象となる2つの垂直プ
ロファイルP1,P2がそれぞれ(a) ,(b) に表されて
いる。先ずステップn4で取込まれた2枚目の画像に対
応した図8(b) の第2の垂直プロファイルP2から、車
頭位置y2を含む区間[y 2 −w2 ,y2 +w1 ]の部
分プロファイルが基準パターンPREF として抽出され
る。wは区間に取入れるべき走査線の数であり、たとえ
ば w=w1 +w2 +1 ・・・・ (11) とされる。
FIG. 8 illustrates a second embodiment of the present invention.
It is a figure. In this example, two vertical profiles
Is characterized by its correlation calculation, and other points are the same as in the first embodiment above.
Since this is the same as the example, only this correlation calculation will be explained.
It In the description of this embodiment, the above-mentioned FIG.
refer. Figure 8 shows the two vertical planes that are the targets of the correlation calculation.
Profile files P1 and P2 are shown in (a) and (b) respectively.
There is. First, the second image captured in step n4
From the second vertical profile P2 in Fig. 8 (b),
Section including head position y2 [y 2-W2, Y2+ W1] Section
Minute profile is reference pattern PREFIs extracted as
It w is the number of scan lines to be included in the section,
If w = w1+ W2+1 ... (11)

【0045】基準パターンPREF が抽出されると、次
に、ステップn1で取り込まれた1枚目の画像に対応し
た図8(a) の第1の垂直プロファイルP1の各部とのマ
ッチング処理が行われる。このマッチング処理では、先
ず、下記第(12)式で示されるS(y) が演算される。すな
わち、基準パターンPREF を、最初に取込んだ画像に対
応する垂直プロファイルの各部に合わせて、走査線毎の
差の総和がとられる。
When the reference pattern P REF is extracted, a matching process with each part of the first vertical profile P1 of FIG. 8A corresponding to the first image captured in step n1 is performed next. Be seen. In this matching process, first, S (y) represented by the following expression (12) is calculated. That is, the reference pattern P REF is adjusted to each part of the vertical profile corresponding to the image first captured, and the sum of the differences for each scanning line is obtained.

【0046】[0046]

【数6】 [Equation 6]

【0047】次に、S(y) が最小値Smin をとるy=y
min が求められる。ただし、車両の進行方向はyの正方
向であること、およびp1 (y) はy≧0でのみ有効であ
ることから、 0≦y≦y−w2 ・・・・ (13) の範囲でymin を決定することになる。
Next, y = y at which S (y) takes the minimum value S min.
min is required. However, since the traveling direction of the vehicle is the positive direction of y and p 1 (y) is valid only when y ≧ 0, the range of 0 ≦ y ≦ y−w 2 (13) Will determine y min .

【0048】このymin は次のような意味を有してい
る。すなわち、基準パターンVREF を、第2の垂直プロ
ァイルP2の位置から、 Lm =(y2 −w2 )−ymin ・・・・ (14) だけシフトさせることにより、この基準パターンVREF
は図8(a) の第1の垂直プロファイルP1にもっとも良
くマッチする。
This y min has the following meaning. That is, the reference pattern V REF, from the position of the second vertical Puroairu P2, L m = (y 2 -w 2) -y min ···· (14) by shifted, the reference pattern V REF
Best matches the first vertical profile P1 of FIG. 8 (a).

【0049】すなわち、車頭位置y2を含む部分プロフ
ァイルを抽出して作成した基準パターンVREF が、第2
枚目の画像では距離Lm だけシフトしたのであるから、
この距離Lm は車両の移動距離Lに他ならない。すなわ
ち、 L=Lm ・・・・ (15) このようにして、第2の垂直プロファイルP2から抽出
した部分プロファイル(基準パターンVREF )と第1の
垂直プロファイルP1とのマッチングを行うことによっ
て、車両の移動距離が求まる。このような相関演算は、
上記の第1実施例の場合のように2つの垂直プロファイ
ルの全部に関して相関演算を行う場合に比較して、積和
演算を格段に減少させることができる。したがって、演
算量を低減することができ、移動距離Lを求めるための
演算時間を短縮することができる。
That is, the reference pattern V REF created by extracting the partial profile including the vehicle head position y2 is the second pattern.
In the first image, since it was shifted by the distance L m ,
This distance L m is nothing but the travel distance L of the vehicle. That is, L = L m (15) In this way, by matching the partial profile (reference pattern V REF ) extracted from the second vertical profile P2 with the first vertical profile P1, The travel distance of the vehicle can be obtained. Such a correlation operation is
Compared to the case where the correlation calculation is performed on all the two vertical profiles as in the case of the first embodiment, the product-sum calculation can be significantly reduced. Therefore, the amount of calculation can be reduced, and the calculation time for obtaining the moving distance L can be shortened.

【0050】しかも、本実施例のようなマッチング処理
では、上記の第(12)式から判るように、乗算演算が行わ
れないから、特別な積和演算回路などが不要であり、装
置の構成を簡単にすることができる。さらに、本実施例
では、第2の垂直プロファイルP2のうち、車頭位置を
含む有意な部分を用いてマッチング処理を行っているの
で、十分に正確に移動距離を求めることができる。
Moreover, in the matching processing as in the present embodiment, as can be seen from the above expression (12), since no multiplication operation is performed, no special product-sum operation circuit or the like is required, and the device configuration is Can be simplified. Furthermore, in the present embodiment, the matching process is performed using a significant portion including the vehicle head position in the second vertical profile P2, so that the moving distance can be obtained sufficiently accurately.

【0051】なお、本発明は上記の実施例に限定される
ものではない。例えば上記の第2実施例では、第2の垂
直プロファイルP2からマッチング処理を行うための部
分プロファイルを抽出しているが、このような部分プロ
ファイルは第1の垂直プロファイルから抽出されてもよ
い。また、上記の実施例では、相関演算が汎用プロセッ
サ17で行われるようにしているが、この相関演算は画
像処理プロセッサ15で行われてもよい。
The present invention is not limited to the above embodiment. For example, in the above-described second embodiment, the partial profile for performing the matching process is extracted from the second vertical profile P2, but such a partial profile may be extracted from the first vertical profile. Further, in the above embodiment, the correlation calculation is performed by the general-purpose processor 17, but the correlation calculation may be performed by the image processing processor 15.

【0052】さらに、上記の実施例では、車番自動読取
装置に適用される例について説明したが、本発明の画像
処理による速度計測装置は車番自動読取装置に限らず、
画像処理が行われる任意の装置に対して適用することが
でき、また速度計測装置単独でも用いることができる。
その他本発明の要旨を変更しない範囲内において、種々
の変更を施すことが可能である。
Further, in the above embodiment, the example applied to the vehicle number automatic reading device has been described, but the speed measuring device by the image processing of the present invention is not limited to the vehicle number automatic reading device.
The present invention can be applied to any device that performs image processing, and can also be used as a speed measurement device alone.
Other various modifications may be made without departing from the spirit of the invention.

【0053】[0053]

【発明の効果】以上のように本発明によれば、時間間隔
おいて撮影された2つの画像に対応する各輪郭プロファ
イルに相関演算を施すことによって、車両の移動距離が
求められる。このため、従来のように車頭位置だけでは
なく、輪郭プロファイルの全体が、車両の移動距離の決
定に寄与することになる。したがって、車両の移動距離
が正確に求まるようになり、画像処理による速度計測が
高精度で行えるようになる。
As described above, according to the present invention, the moving distance of the vehicle can be obtained by performing the correlation calculation on each contour profile corresponding to two images taken at time intervals. Therefore, not only the vehicle head position as in the conventional case but the entire contour profile contributes to the determination of the moving distance of the vehicle. Therefore, the moving distance of the vehicle can be accurately obtained, and the speed measurement by image processing can be performed with high accuracy.

【0054】また、相関演算の対象となるいずれか一方
の輪郭プロファイルの車頭位置の近傍の有意な部分であ
る部分プロファイルと、他方の輪郭プロファイルとのパ
ターンマッチングにより相関演算を行うこととすれば、
2つの輪郭プロファイルの全部分に関する相関演算を行
う場合に比較して、演算量を格段に少なくすることがで
きる。
Further, if the correlation calculation is performed by pattern matching between a partial profile which is a significant portion near the vehicle head position of one of the contour profiles to be subjected to the correlation calculation and the other contour profile,
The calculation amount can be significantly reduced as compared with the case where the correlation calculation is performed on all the parts of the two contour profiles.

【0055】しかも、車頭位置の近傍の有意な部分が、
パターンマッチングのための部分プロファイルとして抽
出されているから、マッチング演算の精度も高くするこ
とができる。さらに、パターンマッチングは、乗算演算
を含まずに実現できるから、特別な積和演算回路などが
必要になることはなく、簡単な構成で、速度計測の精度
を高めることができる。
Moreover, a significant portion near the vehicle head position is
Since it is extracted as a partial profile for pattern matching, the accuracy of the matching calculation can be increased. Further, since the pattern matching can be realized without including the multiplication operation, a special product-sum operation circuit or the like is not required, and the speed measurement accuracy can be improved with a simple configuration.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の画像処理による速度計測装
置および速度計測方法を適用した車番自動読取装置の電
気的構成を示すブロック図である。
FIG. 1 is a block diagram showing an electrical configuration of a vehicle number automatic reading device to which a speed measuring device and a speed measuring method by image processing according to an embodiment of the present invention are applied.

【図2】車番自動読取装置の設置例を示す平面図であ
る。
FIG. 2 is a plan view showing an installation example of a vehicle number automatic reading device.

【図3】車番自動読取装置の設置例を示す正面図であ
る。
FIG. 3 is a front view showing an installation example of a vehicle number automatic reading device.

【図4】垂直プロファイルの抽出処理および車頭検出処
理を説明するための図であり、(a) はエッジ検出後二値
化して得られた輪郭画像を示し、(b) は垂直プロファイ
ルを示す。
FIG. 4 is a diagram for explaining a vertical profile extraction process and a vehicle head detection process, where (a) shows a contour image obtained by binarizing after edge detection, and (b) shows a vertical profile.

【図5】速度計測処理を説明するためのフローチャート
である。
FIG. 5 is a flowchart for explaining speed measurement processing.

【図6】車頭位置に基づくプレート枠切出し処理を説明
するための図である。
FIG. 6 is a diagram for explaining a plate frame cutout process based on a vehicle head position.

【図7】画面内における車両の移動距離を実際の車両の
移動距離に換算するための方法を説明するための図であ
る。
FIG. 7 is a diagram for explaining a method for converting a moving distance of a vehicle within a screen into an actual moving distance of a vehicle.

【図8】本発明の第2実施例における相関演算を説明す
るための図であり、(a) ,(b)は時間間隔をおいて取り
込まれた2枚の画像に対応する各垂直プロファイルを示
す。
FIG. 8 is a diagram for explaining a correlation calculation in the second embodiment of the present invention, in which (a) and (b) show vertical profiles corresponding to two images captured at time intervals. Show.

【図9】先行技術の問題点を説明するための図である。FIG. 9 is a diagram for explaining a problem of the prior art.

【符号の説明】[Explanation of symbols]

1 車番自動読取装置 3 カメラ装置 12 エッジ検出回路 13 二値化回路 15 画像処理プロセッサ 16 プロファイルメモリ 17 汎用プロセッサ 1 Vehicle Number Automatic Reading Device 3 Camera Device 12 Edge Detection Circuit 13 Binarization Circuit 15 Image Processor 16 Profile Memory 17 General Purpose Processor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/052 7001−3H ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Internal reference number FI technical display location G08G 1/052 7001-3H

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】路上の所定領域を撮影する撮影手段により
撮影された画像を処理することにより、走行中の車両の
速度を計測する画像処理による速度計測装置であって、 上記撮影手段で撮影された画像の濃度変化率が所定値以
上であるエッジ部の画素を輪郭画素として抽出する輪郭
抽出手段と、 上記輪郭画素により構成される輪郭画像を車両の進行方
向に対応する方向に対して交差する方向に走査し、各走
査線上に存在する輪郭画素をそれぞれ計数して、この計
数値の組からなる輪郭プロファイルを作成する輪郭プロ
ファイル作成手段と、 この輪郭プロファイル作成手段で作成された輪郭プロフ
ァイルを記憶するための記憶手段と、 この記憶手段に記憶された輪郭プロファイルに対応する
画像の撮影時刻よりも後に上記撮影手段で撮影された画
像に対応する上記輪郭プロファイルと上記記憶手段に記
憶された輪郭プロファイルとの間で相関演算を行う相関
演算手段と、 この相関演算手段における2つの輪郭プロファイルの相
関演算の結果に基づいて、上記2つの輪郭プロファイル
に対応する各画像の撮影時刻間における車両の移動距離
を算出する移動距離算出手段と、 上記2つの輪郭プロファイルに対応する各画像の撮影時
刻差と、上記移動距離算出手段で算出された移動距離と
に基づいて、車両の速度を演算する速度演算手段とを含
むことを特徴とする画像処理による速度計測装置。
1. A speed measuring device by image processing for measuring a speed of a running vehicle by processing an image taken by a photographing means for photographing a predetermined area on a road, the photographing means photographing the speed of the vehicle. Contour extraction means for extracting, as a contour pixel, a pixel of an edge portion whose density change rate of the image is a predetermined value or more, and a contour image constituted by the contour pixel intersects a direction corresponding to the traveling direction of the vehicle. Direction contour scanning means, counts each contour pixel existing on each scanning line, and creates a contour profile composed of a set of these count values, and a contour profile created by this contour profile creating means is stored. And a storage unit for performing the image capturing, and the image capturing unit captured the image after the image capturing time of the image corresponding to the contour profile stored in the storage unit. The correlation calculation means for performing a correlation calculation between the contour profile corresponding to the image and the contour profile stored in the storage means, and the above-mentioned 2 based on the result of the correlation calculation of the two contour profiles in the correlation calculation means. Moving distance calculating means for calculating the moving distance of the vehicle between the photographing times of the images corresponding to the two contour profiles, the photographing time difference between the images corresponding to the two contour profiles, and the moving distance calculating means. And a speed calculation means for calculating the speed of the vehicle based on the moving distance.
【請求項2】上記相関演算手段は、相関演算の対象とな
るいずれか一方の輪郭プロファイルと所定の閾値とを比
較して上記撮影手段で撮影された画像中における車頭位
置を演算する車頭位置演算手段と、得られた車頭位置の
近傍における上記一方の輪郭プロファイルの一部である
部分プロファイルを抽出する手段と、抽出された部分プ
ロファイルと他方の輪郭プロファイルとのパターンマッ
チングを行い、上記他方の輪郭プロファイルにおいて最
も良くマッチングするマッチング部分を求めるマッチン
グ手段とを含み、 上記移動距離算出手段は、上記部分プロファイルと上記
マッチング部分とのシフト量に基づいて車両の移動距離
を算出するものであることを特徴とする画像処理による
速度計測装置。
2. The vehicle head position calculation for calculating the vehicle head position in the image captured by the image capturing means by comparing any one of the contour profiles to be subjected to the correlation calculation with a predetermined threshold value. Means, means for extracting a partial profile that is a part of the one contour profile in the vicinity of the obtained vehicle head position, pattern matching between the extracted partial profile and the other contour profile, and the other contour And a matching unit that finds a matching portion that best matches the profile, wherein the moving distance calculating unit calculates the moving distance of the vehicle based on the shift amount between the partial profile and the matching portion. An image processing speed measuring device.
【請求項3】路上の所定領域を撮影する撮影手段により
撮影された画像を処理することにより、走行中の車両の
速度を計測する画像処理による速度計測方法であって、 上記撮影手段で撮影された画像の濃度変化率が所定値以
上であるエッジ部の画素を輪郭画素として抽出し、 上記輪郭画素により構成される輪郭画像を車両の進行方
向に対応する方向に対して交差する方向に走査し、各走
査線上に存在する輪郭画素をそれぞれ計数して、この計
数値の組からなる輪郭プロファイルを作成し、 時間間隔をおいて撮影された2つの画像に対して作成さ
れた第1の輪郭プロファイルと第2の輪郭プロファイル
との間で相関演算を行い、 この相関演算の結果に基づいて、第1の輪郭プロファイ
ルおよび第2の輪郭プロファイルに対応する各画像の撮
影時刻間における車両の移動距離を算出し、 上記第1の輪郭プロファイルおよび第2の輪郭プロファ
イルに対応する各画像の撮影時刻差と、上記算出された
車両の移動距離とに基づいて、車両の速度を求めること
を特徴とする画像処理による速度計測方法。
3. A speed measuring method by image processing for measuring a speed of a running vehicle by processing an image taken by a photographing means for photographing a predetermined area on a road, which is photographed by the photographing means. The pixels of the edge portion whose density change rate of the image is a predetermined value or more are extracted as contour pixels, and the contour image formed by the contour pixels is scanned in a direction intersecting the direction corresponding to the traveling direction of the vehicle. , The contour pixels existing on each scanning line are respectively counted, and a contour profile composed of a set of these count values is created, and a first contour profile created for two images captured at time intervals. Calculation is performed between the first contour profile and the second contour profile, and each image corresponding to the first contour profile and the second contour profile is photographed based on the result of the correlation calculation. The moving distance of the vehicle between the times is calculated, and the speed of the vehicle is calculated based on the difference between the photographing times of the images corresponding to the first contour profile and the second contour profile and the calculated moving distance of the vehicle. A method for measuring speed by image processing, characterized in that
【請求項4】上記相関演算は、相関演算の対象となるい
ずれか一方の輪郭プロファイルと所定の閾値とを比較し
て上記撮影手段で撮影された画像中における車頭位置を
演算し、得られた車頭位置の近傍における上記一方の輪
郭プロファイルの一部である部分プロファイルを抽出
し、抽出された部分プロファイルと他方の輪郭プロファ
イルとのパターンマッチングを行い、さらに上記他方の
輪郭プロファイルにおいて最も良くマッチングするマッ
チング部分を求めるようにして行われ、 上記車両の移動距離は、上記部分プロファイルと上記マ
ッチング部分とのシフト量に基づいて算出されることを
特徴とする画像処理による速度計測方法。
4. The correlation calculation is obtained by comparing any one of the contour profiles to be subjected to the correlation calculation with a predetermined threshold value to calculate the vehicle head position in the image photographed by the photographing means. A partial profile that is a part of the one contour profile in the vicinity of the vehicle head position is extracted, pattern matching between the extracted partial profile and the other contour profile is performed, and matching that best matches the other contour profile is performed. A speed measuring method by image processing, wherein the moving distance of the vehicle is calculated based on a shift amount between the partial profile and the matching portion.
JP4120590A 1992-05-13 1992-05-13 Speed measuring device and method through image processing Pending JPH05312818A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4120590A JPH05312818A (en) 1992-05-13 1992-05-13 Speed measuring device and method through image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4120590A JPH05312818A (en) 1992-05-13 1992-05-13 Speed measuring device and method through image processing

Publications (1)

Publication Number Publication Date
JPH05312818A true JPH05312818A (en) 1993-11-26

Family

ID=14790037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4120590A Pending JPH05312818A (en) 1992-05-13 1992-05-13 Speed measuring device and method through image processing

Country Status (1)

Country Link
JP (1) JPH05312818A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6628804B1 (en) 1999-02-19 2003-09-30 Fujitsu Limited Method and apparatus for measuring speed of vehicle
JP2005209097A (en) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp Vehicle detection device
JP2006018339A (en) * 2004-06-30 2006-01-19 Hitachi Ltd License plate recognition device and method
US8493238B2 (en) 2009-10-01 2013-07-23 Kapsch Trafficcom Ag Device and method for detecting wheel axles
US8497783B2 (en) 2009-10-01 2013-07-30 Kapsch Trafficcom Ag Device and method for determining the direction, speed and/or distance of vehicles
WO2019176084A1 (en) * 2018-03-16 2019-09-19 日本電気株式会社 Object detection device, object detection system, object detection method, and non-transitory computer-readable medium having program stored thereon

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6628804B1 (en) 1999-02-19 2003-09-30 Fujitsu Limited Method and apparatus for measuring speed of vehicle
JP2005209097A (en) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp Vehicle detection device
JP2006018339A (en) * 2004-06-30 2006-01-19 Hitachi Ltd License plate recognition device and method
US8493238B2 (en) 2009-10-01 2013-07-23 Kapsch Trafficcom Ag Device and method for detecting wheel axles
US8497783B2 (en) 2009-10-01 2013-07-30 Kapsch Trafficcom Ag Device and method for determining the direction, speed and/or distance of vehicles
WO2019176084A1 (en) * 2018-03-16 2019-09-19 日本電気株式会社 Object detection device, object detection system, object detection method, and non-transitory computer-readable medium having program stored thereon
JPWO2019176084A1 (en) * 2018-03-16 2021-02-04 日本電気株式会社 Object detection device, object detection system, object detection method and program
US11335011B2 (en) 2018-03-16 2022-05-17 Nec Corporation Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program

Similar Documents

Publication Publication Date Title
JP6458734B2 (en) Passenger number measuring device, passenger number measuring method, and passenger number measuring program
US7899211B2 (en) Object detecting system and object detecting method
US20030190058A1 (en) Apparatus and method for measuring queue length of vehicles
JPH11252587A (en) Object tracking device
JP3072730B2 (en) Vehicle detection method and device
JPH08329393A (en) Preceding vehicle detector
KR20150029551A (en) Determining source lane of moving item merging into destination lane
JP2002228423A (en) Tire detecting method and device
JPH05312818A (en) Speed measuring device and method through image processing
JP3541774B2 (en) Vehicle type identification system
JP3453952B2 (en) Traffic flow measurement device
JPH10320559A (en) Traveling path detector for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
JP3465531B2 (en) Object recognition method and apparatus
JP2893814B2 (en) Plate cutout device for automatic car number reader
JP2946620B2 (en) Automatic number reading device with speed measurement function
JP2798349B2 (en) Vehicle position detection device
JP2851348B2 (en) License plate reader
JP3475700B2 (en) Object recognition method, object recognition device, and vehicle recognition device
JP2001108434A (en) Method and apparatus for measuring distance
JPH1049662A (en) Device for discriminating vehicle
JPH11175883A (en) Traffic volume measuring instrument and signal control device
JPH11259792A (en) Method and device for recognizing vehicle
JP3194301B2 (en) Guideline detector
JPH09178855A (en) Method of detecting obstruction