JPH11259792A - Method and device for recognizing vehicle - Google Patents

Method and device for recognizing vehicle

Info

Publication number
JPH11259792A
JPH11259792A JP7352198A JP7352198A JPH11259792A JP H11259792 A JPH11259792 A JP H11259792A JP 7352198 A JP7352198 A JP 7352198A JP 7352198 A JP7352198 A JP 7352198A JP H11259792 A JPH11259792 A JP H11259792A
Authority
JP
Japan
Prior art keywords
image
vehicle
recognizing
projection
vehicle type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7352198A
Other languages
Japanese (ja)
Inventor
Yoshimasa Asougawa
佳誠 麻生川
Masatoshi Kurumi
雅俊 來海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP7352198A priority Critical patent/JPH11259792A/en
Publication of JPH11259792A publication Critical patent/JPH11259792A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a specific type of a vehicle easily and also with high accuracy by executing detection processing with a characteristic representing the front of this type of a vehicle at the time of detecting a specific type of a vehicle by two-dimensional image processing and three-dimensional measurement processing. SOLUTION: A large vehicle detecting part calculates the distances to respective models MF about a projection point that is located in the neighborhood of the projection models MF at that point of time for every scan position, further calculates the mean value of each distance and makes it a difference degree between a projection image represented by each projection point and the model MF. The difference degree of each scan position is compared with a prescribed threshold and when the difference degree is below the threshold and also a scan position ZA that becomes the minimum value is detected, a CPU recognizes the position ZA as the front position of a large vehicle. Also, the CPU recognizes each projection point included in an area from the position ZA to a place ZB that is behind only by a prescribed distance d as a projection point of a configuration point of the large vehicle and excludes it from an object of matching processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、道路や駐車場などに
位置する車輌を認識するための技術であって、特に観測
領域を撮像手段により撮像して得られた画像を処理し
て、観測領域内に位置する車輌を認識するための方法お
よび装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for recognizing a vehicle located on a road, a parking lot, or the like. A method and apparatus for recognizing a vehicle located in an area.

【0002】[0002]

【従来の技術】従来、道路の近傍位置にテレビカメラを
配備し、このカメラからの画像を処理して道路上の車輌
を認識し、通過台数や通過速度などの交通流計測を実施
する装置が存在する。この装置では、まず前記カメラに
より得られた画像から背景の画像または所定時間前に得
られた画像が差分された後、差分処理後の画像に2値化
処理またはエッジ抽出処理が施されて、画像データの変
化領域が抽出される。そしてこの抽出結果に車輌の2次
元モデルを走査するなどして、各車輌が切り分けて検出
される。さらに車輌の検出結果を時間軸に沿って対応づ
けし、各車輌の検出位置の変化を追跡することにより、
車輌の通過台数や速度を算出することができる。
2. Description of the Related Art Heretofore, there has been an apparatus which is provided with a television camera at a position near a road, processes images from the camera, recognizes vehicles on the road, and measures traffic flow such as the number of vehicles passing and the speed of passage. Exists. In this device, first, after a background image or an image obtained a predetermined time ago is subtracted from the image obtained by the camera, a binarization process or an edge extraction process is performed on the image after the difference processing, A change area of the image data is extracted. Each vehicle is separated and detected by scanning a two-dimensional model of the vehicle on the extraction result. Furthermore, by associating the detection results of vehicles along the time axis and tracking changes in the detection position of each vehicle,
The number and speed of vehicles passing can be calculated.

【0003】また出願人は、先般、道路上の車輌を精度
良く検出するために、3次元認識およびパターンマッチ
ングの手法を用いた車輌検出方法を提案した(特開平9
−33232号)。この方法では、まず複数台のカメラ
により観測領域が撮像された後、各画像上で抽出された
車輌の特徴点が画像間で対応づけられて、車輌を示す物
点の3次元座標が計測される。この後、各3次元座標
は、道路に沿う仮想垂直平面上に投影されて、各車輌の
側面形状が抽出される。そしてこの投影像に複数種の車
輌の投影モデルが順次走査され、観測位置における各車
輌が切り分けて認識される。
Recently, the applicant has proposed a vehicle detection method using a three-dimensional recognition and pattern matching technique in order to detect a vehicle on a road with high accuracy (Japanese Patent Application Laid-Open No. Hei 9 (1994)).
-33232). In this method, first, after an observation region is imaged by a plurality of cameras, feature points of the vehicle extracted on each image are associated with each other between the images, and three-dimensional coordinates of an object point indicating the vehicle are measured. You. Thereafter, each three-dimensional coordinate is projected on a virtual vertical plane along the road, and the side shape of each vehicle is extracted. Then, a plurality of types of vehicle projection models are sequentially scanned on the projection image, and each vehicle at the observation position is separated and recognized.

【0004】[0004]

【発明が解決しようとする課題】2次元画像上で画像デ
ータの変化領域を抽出して車輌認識を行う場合、道路が
渋滞するなどして各車輌毎の画像データの変化領域が連
なると、複数台の一般車輌が大型車輌として誤認識され
る虞がある。
In the case of performing vehicle recognition by extracting a change area of image data on a two-dimensional image, if the change area of the image data of each vehicle is continuous due to traffic congestion or the like, a plurality of changes occur. There is a risk that one general vehicle will be erroneously recognized as a large vehicle.

【0005】また大型車輌の場合、車体後部の形状や長
さが車輌によって異なるため、これら車輌に対応する画
像領域の形状もまちまちになる。この結果、大型車輌の
画像領域であるのに、複数台の一般車輌の画像領域が連
続したものと認識されるなど、大型車輌を精度良く認識
するのは、大変困難である。
[0005] In the case of a large vehicle, the shape and length of the rear part of the vehicle body differ depending on the vehicle, so that the shape of the image area corresponding to these vehicles also varies. As a result, it is very difficult to accurately recognize a large vehicle, for example, it is recognized that the image regions of a plurality of general vehicles are continuous even though the image region is a large vehicle.

【0006】3次元計測結果を仮想平面上に投影した結
果を用いて車輌検出を行う方法においても、大型車輌
は、前記した車体後部の形状や長さの違いにより、誤検
出される可能性が高い。この誤検出を防ぐには、大型車
輌について複数種の投影モデルを設定し、各投影モデル
を仮想平面上に順次走査してマッチング処理を行う必要
がある。しかしながら投影モデルの数が増えると、モデ
ル記憶用のメモリの容量が増大する上、車輌の検出に多
大な時間がかかったり、装置のコストが増大するなどの
不都合が生じる。
In the method of detecting a vehicle using the result of projecting a three-dimensional measurement result on a virtual plane, a large vehicle may be erroneously detected due to the difference in the shape and length of the rear portion of the vehicle body. high. In order to prevent this erroneous detection, it is necessary to set a plurality of types of projection models for a large vehicle, and sequentially scan each projection model on a virtual plane to perform a matching process. However, when the number of projection models is increased, the capacity of the memory for storing the models is increased, and inconveniences such as a long time required for vehicle detection and an increase in the cost of the apparatus are caused.

【0007】この発明は、上記問題点に着目してなされ
たもので、撮像手段により得られた画像、または観測領
域における3次元計測結果を用いて特定車種の車輌を検
出する場合に、その車輌の前面に対応する特徴を検索す
ることにより、車輌を効率良く、かつ高精度に認識する
ことを技術課題とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems. When a vehicle of a specific vehicle type is detected by using an image obtained by an image pickup means or a three-dimensional measurement result in an observation area, the vehicle is used. It is an object of the present invention to efficiently and highly accurately recognize a vehicle by searching for a feature corresponding to the front of a vehicle.

【0008】[0008]

【課題を解決するための手段】例えば、トラックやバス
のような大型車輌と一般車輌とでは、車体前面の大きさ
や形状が大きく異なっているので、大型車輌の前面に対
応する画像領域や3次元計測データを検索するようにす
れば、大型車輌を精度良く検出することができる。また
フロントガラスなどの前面部分は、車種が同じであれば
似通った形状や大きさをとるので、特定車種の車輌の前
面部分に対応する画像領域や3次元計測データを検出す
ることにより、後部の形状や長さに関わらず、特定車種
の車輌を簡単に検出することができる。
For example, the size and shape of the front of a large vehicle such as a truck or a bus differ greatly from those of a general vehicle, so that an image area corresponding to the front of the large vehicle or a three-dimensional image is obtained. If the measurement data is searched, a large vehicle can be accurately detected. Also, since the front part such as the windshield takes a similar shape and size if the vehicle type is the same, by detecting the image area and the three-dimensional measurement data corresponding to the front part of the vehicle of the specific model, the rear part is obtained. Regardless of the shape or length, a vehicle of a specific vehicle type can be easily detected.

【0009】この発明は上記の原理に基づきなされたも
ので、請求項1の発明では、所定の観測領域を撮像手段
により撮像して得られた画像を用いて、前記観測領域内
に位置する車輌を認識する方法において、前記画像上に
おいて特定車種の車輌の前面に対応する画像領域を検索
し、対応する画像領域が検出されたとき、その検出位置
に対応する空間位置に前記特定車種の車輌が存在すると
認識するようにしている。
The present invention has been made on the basis of the above principle. According to the first aspect of the present invention, a vehicle located in an observation area is obtained by using an image obtained by imaging a predetermined observation area by an imaging means. In the method of recognizing, the image area corresponding to the front of the vehicle of the specific vehicle type is searched on the image, and when the corresponding image area is detected, the vehicle of the specific vehicle type is located at a spatial position corresponding to the detected position. I try to recognize that it exists.

【0010】請求項2の発明にかかる車輌認識方法で
は、画像上に特定車種の前面を表すモデル画像を走査し
てマッチング処理を実施し、このモデル画像に対応する
画像領域が抽出されたとき、その抽出位置に対応する空
間位置に前記特定車種の車輌が存在すると認識するよう
にしている。
In the vehicle recognition method according to the second aspect of the invention, a matching process is performed by scanning a model image representing the front of a specific vehicle type on the image, and when an image area corresponding to the model image is extracted, The system recognizes that the vehicle of the specific vehicle type exists at a spatial position corresponding to the extraction position.

【0011】請求項3,4の発明は、少なくとも1台の
撮像手段により所定の観測領域を撮像して得られた画像
を用いて、前記観測領域内における3次元計測処理を実
施し、その計測結果を用いて観測領域内に位置する車輌
を認識する方法に関するもので、請求項3の発明は、前
記3次元計測結果の中から特定車種の車輌の前面に対応
する計測結果を検索し、対応する計測結果が検出された
とき、その検出位置に前記特定車種の車輌が存在すると
認識する。
According to the third and fourth aspects of the present invention, a three-dimensional measurement process is performed in the observation area using an image obtained by imaging a predetermined observation area by at least one image pickup means. The present invention relates to a method for recognizing a vehicle located in an observation area by using a result. The invention according to claim 3 searches for a measurement result corresponding to the front of a vehicle of a specific vehicle type from the three-dimensional measurement results, and When the measurement result is detected, it is recognized that the vehicle of the specific vehicle type exists at the detection position.

【0012】請求項4の発明は、3次元計測処理により
計測された各3次元座標を、前記観測領域の底面に垂直
に位置する仮想平面上に投影した後、この仮想平面上に
特定車種の前面の投影モデルを走査し、このモデルに対
応する投影像が抽出されたとき、その抽出位置に対応す
る空間位置に前記特定車種の車輌が存在すると認識す
る。
According to a fourth aspect of the present invention, after projecting each three-dimensional coordinate measured by the three-dimensional measurement processing onto a virtual plane positioned perpendicular to the bottom surface of the observation area, the specific vehicle type of the specific vehicle type is projected on this virtual plane. The front projection model is scanned, and when a projection image corresponding to the model is extracted, it is recognized that a vehicle of the specific vehicle type exists at a spatial position corresponding to the extraction position.

【0013】請求項5の発明にかかる車輌認識装置は、
所定の観測領域を撮像手段により撮像して得られた画像
を入力する画像入力手段と、前記画像入力手段により入
力された画像上で特定車種の車輌の前面に対応する画像
領域を検索する検索手段と、前記検索手段により前記画
像領域が検出されたとき、その検出位置に前記特定車種
の車輌の画像が存在すると認識する認識手段とを具備す
る。
According to a fifth aspect of the present invention, there is provided a vehicle recognition apparatus comprising:
Image input means for inputting an image obtained by imaging a predetermined observation area by an image pickup means, and search means for searching an image input by the image input means for an image area corresponding to the front of a vehicle of a specific vehicle type And a recognizing means for recognizing that when the image area is detected by the searching means, an image of the vehicle of the specific vehicle type is present at the detected position.

【0014】請求項6の発明にかかる車輌認識装置は、
上記と同様の画像入力手段と、前記画像入力手段により
入力された画像上に特定車種の前面を表すモデル画像を
走査して、マッチング処理を実施するマッチング処理手
段と、前記マッチング処理により前記モデル画像に対応
する画像領域が抽出されたとき、この画像領域の抽出位
置に前記特定車種の車輌の画像が存在すると認識する認
識手段とを具備する。
According to a sixth aspect of the present invention, there is provided a vehicle recognition device comprising:
Image input means similar to the above, matching processing means for scanning a model image representing the front of a specific vehicle type on an image input by the image input means, and performing matching processing, and the model image by the matching processing And a recognizing means for recognizing that an image of the vehicle of the specific vehicle type exists at an extraction position of the image area when the image area corresponding to the image area is extracted.

【0015】請求項7の発明にかかる車輌認識装置は、
少なくとも1台の撮像手段により所定の観測領域を撮像
して得られた画像を入力する画像入力手段と、前記画像
入力手段により入力された画像を用いて、前記観測領域
における3次元計測処理を実施する3次元計測手段と、
前記3次元計測結果の中から特定車種の車輌の前面に対
応する計測データを検索する検索手段と、前記検索手段
により前記計測データが検出されたとき、その検出位置
を前記特定車種の車輌の先頭位置として認識する認識手
段とを具備する。
According to a seventh aspect of the present invention, there is provided a vehicle recognition apparatus comprising:
Image input means for inputting an image obtained by imaging a predetermined observation area by at least one image pickup means, and three-dimensional measurement processing in the observation area is performed using the image input by the image input means. Three-dimensional measuring means
Searching means for searching the three-dimensional measurement result for measurement data corresponding to the front of a vehicle of a specific vehicle type, and when the measurement data is detected by the searching means, the detected position is set to the top of the vehicle of the specific vehicle type And recognition means for recognizing the position.

【0016】請求項8の発明にかかる車輌認識装置は、
請求項7と同様の画像入力手段、および3次元計測手段
を具備するほか、前記3次元計測手段により計測された
各3次元座標を、前記観測領域の底面に垂直に位置する
仮想平面上に投影する投影手段と、仮想平面上に特定車
種の前面を投影して得られる投影モデルにより、投影処
理後の仮想平面を走査して、マッチング処理を実施する
マッチング手段と、前記マッチング処理により前記モデ
ルに対応する投影像が抽出されたとき、この抽出位置に
対応する空間位置を、前記特定車種の車輌の先頭位置と
認識する認識手段とを具備して成る。
The vehicle recognition device according to the invention of claim 8 is:
8. In addition to the same image input means and three-dimensional measuring means as in claim 7, each three-dimensional coordinate measured by said three-dimensional measuring means is projected on a virtual plane positioned perpendicular to the bottom surface of said observation area. Projection means, a projection model obtained by projecting the front of the specific vehicle type on the virtual plane, scans the virtual plane after the projection processing, performs matching processing, and performs matching processing on the model by the matching processing. When a corresponding projection image is extracted, the image processing apparatus includes a recognition unit that recognizes a spatial position corresponding to the extracted position as a head position of a vehicle of the specific vehicle type.

【0017】[0017]

【作用】請求項1および5の発明では、撮像手段により
得られた画像上で特定車種の車輌の前面に対応する画像
領域を検出することにより、前記特定車種の車輌が存在
するか否かを判断するようにしたので、特定車種の車体
前面の特徴をもって、その車種の車輌を簡単かつ精度良
く検出することが可能となる。
According to the first and fifth aspects of the present invention, an image area corresponding to the front of a vehicle of a specific vehicle type is detected on an image obtained by the imaging means to determine whether a vehicle of the specific vehicle type exists. Since the determination is made, it becomes possible to easily and accurately detect the vehicle of the specific vehicle type by using the characteristics of the front surface of the vehicle body of the specific vehicle type.

【0018】請求項2および6の発明では、撮像手段に
より得られた画像上に特定車種の車輌の前面を表すモデ
ル画像を走査してマッチング処理を実施することによ
り、特定車種の車輌の前面に対応する画像領域の検出処
理を実現できる。
According to the second and sixth aspects of the present invention, the model image representing the front of the vehicle of the specific vehicle type is scanned on the image obtained by the image pickup means and the matching process is carried out. The corresponding image area can be detected.

【0019】請求項3および7の発明では、3次元計測
結果の中から特定車種の車輌の前面に対応する計測デー
タを検索することにより、特定車種の車輌の空間位置
を、簡単かつ正確に検出することができる。
According to the third and seventh aspects of the present invention, the spatial position of the specific type of vehicle is easily and accurately detected by searching the three-dimensional measurement results for the measurement data corresponding to the front of the specific type of vehicle. can do.

【0020】請求項4および8の発明では、観測領域内
で計測された各3次元座標を、観測領域の底面に垂直に
位置する仮想平面上に投影した後、この投影像に対し、
特定車種の車輌の前面を投影して得られる投影モデルに
よるマッチング処理を実施して、前記特定車種の車輌を
検出するので、仮想平面上の投影像に対し、車輌の前面
部分の投影モデルを用いたマッチング処理のみで特定車
種の車輌を検出することが可能である。
According to the fourth and eighth aspects of the present invention, each three-dimensional coordinate measured in the observation area is projected on a virtual plane positioned perpendicular to the bottom surface of the observation area.
A matching process is performed using a projection model obtained by projecting the front of the vehicle of the specific vehicle type, and the vehicle of the specific vehicle type is detected. Therefore, a projection model of the front portion of the vehicle is used for the projection image on the virtual plane. It is possible to detect a specific type of vehicle only by the matching process.

【0021】[0021]

【実施例】図1は、この発明の一実施例にかかる交通流
計測装置の設置例を示す。この交通流計測装置41は、
道路RDを撮像して得られた画像を用いてその道路RD
上の車輌台数や車輌の移動速度を計測するためのもの
で、道路RDの近傍位置に設置された支柱45に、カメ
ラ1と制御装置2とを配備して成る。
FIG. 1 shows an example of installation of a traffic flow measuring device according to an embodiment of the present invention. This traffic flow measuring device 41
Using the image obtained by imaging the road RD, the road RD
This is for measuring the number of vehicles and the moving speed of the vehicles above, and is provided with a camera 1 and a control device 2 on a column 45 installed near the road RD.

【0022】前記カメラ1は、所定の高さ位置に、光軸
を斜め下方に、かつ道路RDの長さ方向に向けて支持さ
れる。制御装置2は、カメラ1からの画像データを逐次
取り込んで、画像上の車輌の検出処理や車輌台数の計測
処理を実施し、その処理結果を、遠方の管理センター4
0(図15に示す)などに送信する。
The camera 1 is supported at a predetermined height position with its optical axis obliquely downward and in the length direction of the road RD. The control device 2 sequentially captures image data from the camera 1, performs a process of detecting vehicles on the image and a process of measuring the number of vehicles, and transmits the processing results to a remote management center 4.
0 (shown in FIG. 15).

【0023】図2は、前記交通流計測装置41の電気的
構成を示す。前記制御装置2は、CPU5,ROM6,
RAM7から成る制御部4に、バス8を介して、入力画
像メモリ9,基準画像メモリ10,差分画像メモリ1
1,差分処理回路12,大型車輌検出部13,一般車輌
検出部14,出力部15などが接続されて成る。
FIG. 2 shows an electrical configuration of the traffic flow measuring device 41. The control device 2 includes a CPU 5, a ROM 6,
An input image memory 9, a reference image memory 10, and a difference image memory 1 are transmitted to a control unit 4 comprising a RAM 7 via a bus 8.
1, a difference processing circuit 12, a large vehicle detection unit 13, a general vehicle detection unit 14, an output unit 15, and the like are connected.

【0024】また図中、3は、カメラ1からのアナログ
量の画像信号をディジタル変換するためのA/D変換回
路であって、このA/D変換回路3により生成されたデ
ィジタル量の濃淡画像データは、入力画像メモリ9に取
り込まれ、つぎのフレーム分の画像データが入力される
まで保持される。
In FIG. 1, reference numeral 3 denotes an A / D conversion circuit for digitally converting an analog image signal from the camera 1, and a digital gray scale image generated by the A / D conversion circuit 3. The data is taken into the input image memory 9 and held until image data for the next frame is input.

【0025】前記基準画像メモリ10には、前記入力画
像に対する背景差分処理を実施するための基準画像とし
て、道路RD上に車輌が存在しない状態下で撮像された
画像、または過去の一定期間に得られた複数枚の入力画
像の積分処理画像が記憶されている。差分処理回路12
は、前記入力画像と基準画像との対応する画素の組毎
に、両画素データを差分処理することにより、車輌など
背景以外の物体の画像が抽出された差分画像を生成す
る。
The reference image memory 10 stores, as a reference image for performing background subtraction processing on the input image, an image captured in a state where no vehicle exists on the road RD or obtained in a certain period in the past. The integration processing image of the plurality of input images thus obtained is stored. Difference processing circuit 12
Generates a difference image in which an image of an object other than a background such as a vehicle is extracted by performing difference processing on both pixel data for each set of pixels corresponding to the input image and the reference image.

【0026】図3(1)は、カメラ1からの入力画像の
一例であって、車輌の画像のほか、道路の境界線や近傍
の樹木などの背景の画像が出現している。図3(2)
は、前記入力画像を差分処理して得られた画像であっ
て、検出対象となる車輌の画像のみが出現している。な
お図3(2)中のLは、通過車輌を認識するために前記
制御部4により仮想的に設定された計測ラインである。
FIG. 3A shows an example of an input image from the camera 1, in which a background image such as a road boundary or a nearby tree appears in addition to a vehicle image. Fig. 3 (2)
Is an image obtained by performing a difference process on the input image, and only an image of a vehicle to be detected appears. L in FIG. 3 (2) is a measurement line virtually set by the control unit 4 in order to recognize a passing vehicle.

【0027】図2に戻って、CPU5は、前記差分画像
を差分画像メモリ11へと格納し、以下、大型車輌検出
部13および一般車輌検出部14を用いて、この差分画
像上に現れた車輌の車種および位置を検出する。さらに
CPU5は、この検出結果を用いて、道路上の各車輌の
移動速度や、前記計測ラインLを通過した車輌台数など
を計測し、この計測結果を、出力部15を介して前記管
理センター40などへ送信する。
Returning to FIG. 2, the CPU 5 stores the difference image in the difference image memory 11, and thereafter, using the large vehicle detection unit 13 and the general vehicle detection unit 14, the vehicle appearing on the difference image The vehicle type and position are detected. Further, the CPU 5 measures the moving speed of each vehicle on the road, the number of vehicles passing through the measurement line L, and the like using the detection result, and outputs the measurement result to the management center 40 via the output unit 15. Send to

【0028】RAM7は、上記の一連の処理中に発生し
た作業用のデータを一時的に記憶するほか、前記した車
輌台数や移動速度を算出するためのデータとして、所定
期間内に得られた車輌検出結果を、時間軸上で対応づけ
て記憶する。ROM6には、CPU5に実施させるため
の処理手順を示すプログラムや、前記計測ラインLの設
定位置などの固定データが記憶される。
The RAM 7 temporarily stores work data generated during the above-described series of processing, and also stores vehicle data obtained within a predetermined period as data for calculating the number of vehicles and the traveling speed. The detection results are stored in association with each other on the time axis. The ROM 6 stores a program indicating a processing procedure to be executed by the CPU 5 and fixed data such as a set position of the measurement line L.

【0029】この実施例の制御装置2では、大型車輌と
一般車輌とでは、前面のフロントガラスの形状や大きさ
が大きく異なる点に着目し、大型車輌の認識精度を向上
するために、前記差分画像上で大型車輌のフロントガラ
スに対応する画像領域を検索するようにしている。
The control device 2 of this embodiment focuses on the fact that the shape and size of the front windshield differ greatly between a large vehicle and a general vehicle. An image area corresponding to the windshield of a large vehicle is searched on the image.

【0030】一般に、乗用車のフロントガラスは下広が
りの台形状であるのに対し、トラック,バスなどの大型
車輌は、長方形状の大きなフロントガラスを具備する。
したがって画像上に大型車輌,一般車輌がともに出現し
ている場合、画像上の各車種のフロントガラスにも、上
記した形状や大きさの差違が生じるはずである。
Generally, a windshield of a passenger car has a trapezoidal shape spreading downward, while a large vehicle such as a truck or a bus has a large windshield of a rectangular shape.
Therefore, when both a large vehicle and a general vehicle appear on the image, the above-described differences in shape and size should also occur in the windshield of each vehicle type on the image.

【0031】大型車輌検出部13には、大型車輌の代表
的なフロントガラスの特徴を表すモデル画像がセットさ
れており、前記差分画像上にこのモデル画像を走査して
マッチング処理を実施することにより、大型車輌のフロ
ントガラスに相当する画像領域を抽出する。CPU5
は、この画像領域の抽出位置を、大型車輌の画像上の先
頭位置として認識するとともに、この抽出位置を基準と
する所定大きさの画像領域を、大型車輌の画像に相当す
るものと判定する。
A model image representing the characteristics of a typical windshield of a large vehicle is set in the large vehicle detection unit 13. By scanning this model image on the difference image and performing a matching process, Then, an image area corresponding to the windshield of a large vehicle is extracted. CPU5
Recognizes the extraction position of this image region as the leading position on the image of the large vehicle, and determines that the image region of a predetermined size based on this extraction position corresponds to the image of the large vehicle.

【0032】一方、一般車輌検出部14には、一般車輌
の車体全体の形状を表すモデル画像がセットされてお
り、大型車輌の検出処理後、この一般車輌のモデル画像
を前記差分画像上に設定して走査し、同様のマッチング
処理を実施することにより、画像上の一般車輌が検出さ
れる。
On the other hand, a model image representing the shape of the entire vehicle body of the general vehicle is set in the general vehicle detecting section 14. After the detection processing of the large vehicle, the model image of the general vehicle is set on the difference image. Then, by performing scanning and performing the same matching process, a general vehicle on the image is detected.

【0033】図4は、前記カメラ1からの1フレーム分
の画像信号に対し、制御装置2が実施する一連の制御手
順を示す。なお図中、「ST」は、各ステップを意味す
る。まずステップ1で、A/D変換処理により生成され
た濃淡画像データが画像メモリ内に格納される。つぎの
ステップ2で、前記基準画像を用いた背景差分処理が実
施され、車輌などの物体の画像のみを含む差分画像が生
成される。
FIG. 4 shows a series of control procedures performed by the control device 2 for one frame of the image signal from the camera 1. In the figure, “ST” means each step. First, in step 1, the grayscale image data generated by the A / D conversion processing is stored in the image memory. In the next step 2, background difference processing using the reference image is performed, and a difference image including only an image of an object such as a vehicle is generated.

【0034】この差分画像が差分画像メモリ11に格納
されると、つぎのステップ3で、大型車輌検出部13
は、前記フロントガラスのモデル画像をこの差分画像上
に設定して走査し、各走査位置毎に、モデル画像に重ね
合わせられた画像領域と前記モデル画像との相関演算を
実施する。このマッチング処理により、前記モデル画像
に対して高い相関値をとる画像領域r(図3(2)に示
す)が抽出されると、CPU5は、その抽出位置を大型
車輌の検出位置として判定するとともに、抽出位置より
前後、左右の所定広さの画像領域を、大型車輌の画像と
して判定し、各判定結果をRAM7内に格納する。
When the difference image is stored in the difference image memory 11, in the next step 3, the large vehicle detection unit 13
Performs scanning by setting the model image of the windshield on the difference image, and performing a correlation operation between the image region superimposed on the model image and the model image at each scanning position. When an image region r (shown in FIG. 3B) having a high correlation value with respect to the model image is extracted by the matching process, the CPU 5 determines the extracted position as a detection position of a large vehicle and The image area of a predetermined size before, after, and from the extraction position is determined as an image of a large vehicle, and each determination result is stored in the RAM 7.

【0035】なお2次元画像上では、撮像位置より遠方
に位置する対象物ほど、画像上の上方位置に小さく現れ
るようになるので、前記マッチング処理を精度良く行う
には、走査位置のy座標値に応じてモデル画像の大きさ
を変動させる必要がある。同様の理由から、大型車輌の
画像として認識される画像領域も、その設定位置のy座
標値に応じて領域の広さを変動させるのが望ましい。ま
たマッチング処理に際し、モデルの走査領域を、画像上
の道路を含む所定領域内に限定するようにすれば、処理
時間を短縮することができる。
On a two-dimensional image, an object located farther from the imaging position appears smaller in an upper position on the image. Therefore, in order to perform the matching processing with high accuracy, the y coordinate value of the scanning position is required. It is necessary to change the size of the model image according to the condition. For the same reason, it is desirable that the area of the image area recognized as the image of the large vehicle is also changed in accordance with the y-coordinate value of the set position. In the matching process, if the scanning region of the model is limited to a predetermined region including a road on the image, the processing time can be reduced.

【0036】大型車輌の検出処理が終了すると、続いて
一般車輌検出部14により、前記車体モデルが差分画像
上に設定されて、同様の相関演算処理が実施され、画像
上の一般車輌が検出される(ステップ4)。なおこのマ
ッチング処理においても、前記と同様、走査位置のy座
標値に応じてモデル画像の大きさを変動させる必要があ
る。また先に大型車輌の画像として認識された画像領域
は、マッチング処理の対象から除外される。
When the detection process of the large vehicle is completed, the vehicle model is set on the difference image by the general vehicle detection unit 14, and the same correlation calculation process is performed to detect the general vehicle on the image. (Step 4). In this matching process as well, it is necessary to change the size of the model image according to the y-coordinate value of the scanning position, as described above. The image region previously recognized as the image of the large vehicle is excluded from the target of the matching processing.

【0037】このようにして画像上の大型車輌,一般車
輌がそれぞれ検出されると、CPU5はその検出位置を
取り込んでRAM7内に格納する(ステップ5)。RA
M7には、前記したように、所定期間内に得られた車輌
検出結果が蓄積されており、つぎのステップ6で、CP
U5は、現入力画像における検出結果を過去の検出結果
と対応づけして、検出された各車輌の移動経路を認識す
る。さらにステップ7で、各車輌毎に、それぞれその車
輌の現在および過去の所定回数分の検出位置を用いて移
動速度が算出される。
When a large vehicle and a general vehicle on the image are detected in this way, the CPU 5 takes in the detected positions and stores them in the RAM 7 (step 5). RA
As described above, the vehicle detection result obtained within the predetermined period is accumulated in M7, and in the next step 6, CP
U5 recognizes the detected moving route of each vehicle by associating the detection result in the current input image with the past detection result. Further, in step 7, the moving speed is calculated for each vehicle using the detected positions of the vehicle for a predetermined number of times in the current and past times.

【0038】ついでCPU5は、各車輌の今回の検出位
置と前段階での検出位置とをそれぞれ前記図3(2)に
示した計測ラインLの設定位置と比較する。そして各検
出位置の間に計測ラインが位置するような車輌があれ
ば、その車輌を通過車輌として認識し、その通過車輌の
台数を計測する(ステップ8,9)。
Next, the CPU 5 compares the current detection position of each vehicle and the detection position in the preceding stage with the set position of the measurement line L shown in FIG. 3 (2). If there is a vehicle whose measurement line is located between the detection positions, the vehicle is recognized as a passing vehicle, and the number of passing vehicles is measured (steps 8 and 9).

【0039】上記のようにして、道路上の各車輌の移動
速度や通過車輌の台数が計測されると、つぎのステップ
10で、各計測結果が前記出力部15を介して外部へと
送信され、処理終了となる。
When the moving speed of each vehicle on the road and the number of passing vehicles are measured as described above, the results of the measurement are transmitted to the outside via the output unit 15 in the next step 10. , And the process ends.

【0040】このように誤検出されやすい大型車輌につ
いて、この車種において共通の特徴が得られるフロント
ガラスの画像領域を抽出するので、大型車輌の前面部の
位置を精度良く検出して、車輌認識精度を大幅に向上さ
せることができる。また大型車輌は、画像上の大きな画
像領域を占めるので、車体全体のモデルを用いてマッチ
ング処理を実施する場合には、相関演算回路の構成が複
雑化してコスト高となるが、このようにフロントガラス
のモデル画像を用いたマッチング処理を行うことによ
り、相関演算回路が簡易化でき、かつ効率の良い処理を
実施することができる。
For a large vehicle that is likely to be erroneously detected as described above, the image area of the windshield that can obtain common features in this vehicle type is extracted. Can be greatly improved. In addition, since a large vehicle occupies a large image area on an image, when a matching process is performed using a model of the entire vehicle body, the configuration of a correlation operation circuit becomes complicated and costs increase. By performing the matching processing using the glass model image, the correlation operation circuit can be simplified and efficient processing can be performed.

【0041】なおこの実施例では、入力画像を差分処理
した後に、その差分画像上に各モデルを走査して、濃淡
画像データによるマッチング処理を行っているが、差分
処理後の画像上でエッジを抽出した後に、このエッジ画
像に対するマッチング処理を実施するようにしてもよ
い。この場合、マッチング処理に用いられる各画素デー
タは2値データとなるので、相関演算を簡単に実施する
ことができる。
In this embodiment, after the input image is subjected to the difference processing, each model is scanned on the difference image to perform the matching processing based on the gray image data. After the extraction, the matching process may be performed on the edge image. In this case, each pixel data used for the matching process is binary data, so that the correlation operation can be easily performed.

【0042】図5は、交通流計測装置41の他の設置例
であって、2台のカメラ1a,1bを用いた3次元認識
処理により、道路RD上の車輌を認識するようにしてい
る。各カメラ1a,1bは、等しい焦点距離を具備し、
図示しない支持部材により光軸を道路RDの方向に向け
て平行にし、かつ各撮像面を同一平面上に位置させた状
態で縦並びに配備される。制御装置2は、各カメラ1
a,1bからの画像を逐次取り込んで、三角測量の原理
を用いた3次元計測処理を実施した後、その計測結果を
用いて後記する投影処理やマッチング処理を実施し、各
車輌を切り分けて検出する。
FIG. 5 shows another example of installation of the traffic flow measuring device 41, in which vehicles on the road RD are recognized by three-dimensional recognition processing using two cameras 1a and 1b. Each camera 1a, 1b has an equal focal length,
The optical axes are paralleled by a support member (not shown) toward the direction of the road RD, and the imaging surfaces are arranged vertically with the respective imaging planes positioned on the same plane. The control device 2 controls each camera 1
After sequentially taking the images from a and 1b and performing a three-dimensional measurement process using the principle of triangulation, a projection process and a matching process described later are performed using the measurement results, and each vehicle is separated and detected. I do.

【0043】この実施例の制御装置2は、図6に示すよ
うに、各カメラ1a,1bに対応するA/D変換回路3
a,3b,画像メモリ9a,9b,基準画像メモリ10
a,10b,エッジ画像メモリ16a,16bを具備す
るほか、特徴抽出部17,3次元座標計測部18,投影
処理部19,大型車輌検出部20,一般車輌検出部2
1,出力部15などの各部が、バス22を介して制御部
4に接続されて成る。制御部4は、前記第1の実施例と
同様のもので、CPU5は、ROM6に記憶された制御
プログラムに基づき、上記各部を一連に制御して、道路
上の車輌の空間位置を検出した後、その検出結果を用い
て通過車輌の台数や車輌の移動速度を計測する。
As shown in FIG. 6, the control device 2 of this embodiment includes an A / D conversion circuit 3 corresponding to each of the cameras 1a and 1b.
a, 3b, image memories 9a, 9b, reference image memory 10
a, 10b, edge image memories 16a, 16b, a feature extracting unit 17, a three-dimensional coordinate measuring unit 18, a projection processing unit 19, a large vehicle detecting unit 20, a general vehicle detecting unit 2.
1, each unit such as the output unit 15 is connected to the control unit 4 via the bus 22. The control unit 4 is the same as that in the first embodiment, and the CPU 5 controls the above-described units in series based on a control program stored in the ROM 6 to detect the spatial position of the vehicle on the road. The number of passing vehicles and the moving speed of the vehicles are measured using the detection results.

【0044】各カメラ1a,1bからの画像データは、
対応するA/D変換回路3a,3bによりディジタル変
換された後、入力画像メモリ9a,9bへと格納され
る。特徴抽出部17は、差分処理回路やエッジ抽出回路
を具備するもので、各入力画像メモリ9a,9bに格納
された入力画像に対し、それぞれ基準画像メモリ10
a,10bの背景画像を用いた差分処理を施した後、エ
ッジ抽出回路により差分処理後の画像のエッジ抽出処理
を実施して、車輌の輪郭を表す特徴点を抽出する。
The image data from each of the cameras 1a and 1b is
After being digitally converted by the corresponding A / D conversion circuits 3a and 3b, they are stored in the input image memories 9a and 9b. The feature extraction unit 17 includes a difference processing circuit and an edge extraction circuit. The feature extraction unit 17 applies a reference image memory 10 to the input images stored in the input image memories 9a and 9b, respectively.
After performing the difference processing using the background images a and 10b, the edge extraction circuit performs edge extraction processing on the image after the difference processing, and extracts feature points representing the outline of the vehicle.

【0045】3次元座標計測部18は、抽出された各特
徴点を画像間で対応づけした後、対応する特徴点の組毎
に、その2次元座標を三角測量の原理にあてはめて、こ
れら特徴点に対応する空間内の物点の3次元座標を算出
する。
The three-dimensional coordinate measuring section 18 associates the extracted feature points between the images, and then applies the two-dimensional coordinates to the corresponding feature point sets according to the principle of triangulation to obtain these feature points. The three-dimensional coordinates of the object point in the space corresponding to the point are calculated.

【0046】この3次元座標の算出処理の前提となる空
間座標系は、例えば図7に示すように、下側のカメラ1
bの焦点Cより地面に下ろした垂線の足を原点Oとし、
道路RDの幅方向をX軸,高さ方向をY軸,長さ方向を
Z軸とするものである。なお図中、Bは各カメラ1a,
1b間の基線長を、Fは焦点距離を、Hは下側のカメラ
1bの設置高さ(点C,O間の距離に相当する)を、θ
はカメラ1a,1bの俯角を、それぞれ示す。
The spatial coordinate system on which the three-dimensional coordinate calculation processing is based is, for example, as shown in FIG.
The origin O is defined by the foot of the perpendicular dropped from the focal point C of b to the ground,
The width direction of the road RD is the X axis, the height direction is the Y axis, and the length direction is the Z axis. In the figure, B denotes each camera 1a,
1B, F is the focal length, H is the installation height of the lower camera 1b (corresponding to the distance between points C and O), θ
Indicates depression angles of the cameras 1a and 1b, respectively.

【0047】各カメラ1a,1bは光軸を平行かつ各撮
像面GU ,GL を同一平面上に位置させた状態で縦並び
に配置されているから、空間中の所定の物点Pにかかる
各入力画像上における結像位置は、上下方向にのみずれ
ることになる。よって各入力画像上における前記物点P
の像点PU ,PL の座標を(x,yU )(x,yL )と
おくと、前記物点Pの3次元座標(X,Y,Z)は、つ
ぎの(1)〜(3)式により算出される。
Since the cameras 1a and 1b are arranged vertically with their optical axes parallel and their imaging planes G U and GL positioned on the same plane, the cameras 1a and 1b fall on a predetermined object point P in space. The imaging position on each input image is shifted only in the vertical direction. Therefore, the object point P on each input image
Assuming that the coordinates of the image points P U and P L are (x, y U ) (x, y L ), the three-dimensional coordinates (X, Y, Z) of the object point P are It is calculated by equation (3).

【0048】[0048]

【数1】 (Equation 1)

【0049】[0049]

【数2】 (Equation 2)

【0050】[0050]

【数3】 (Equation 3)

【0051】このようにして各入力画像間で対応する特
徴点の組毎に3次元座標が算出されると、投影処理部1
9は、これら3次元座標を、道路RDの長さ方向に沿う
仮想垂直平面(YZ平面)上に投影処理する。
When the three-dimensional coordinates are calculated for each set of feature points corresponding to each input image in this manner, the projection processing unit 1
9 projects these three-dimensional coordinates on a virtual vertical plane (YZ plane) along the length direction of the road RD.

【0052】図8は、YZ平面への投影結果の一例を示
すもので、各特徴点の示す物点のY,Z座標により特定
される点をYZ平面上にプロットすることにより、道路
RD上の各車輌の側面形状を示す投影像が生成される。
FIG. 8 shows an example of the result of projection on the YZ plane. The points specified by the Y and Z coordinates of the object point indicated by each feature point are plotted on the YZ plane, so that the points on the road RD are plotted. A projection image showing the side shape of each vehicle is generated.

【0053】大型車輌検出部20には、代表的な大型車
輌の車体前部をこのYZ平面上に投影したときに得られ
るフロントガラスの投影像が、投影モデルとして設定さ
れている。大型車輌検出部20は、前記投影処理後のY
Z平面上に、この投影モデルを設定して走査し、各走査
位置における投影像とモデルとのマッチング処理を実施
し、大型車輌の先頭位置を検出する。
In the large vehicle detection section 20, a projected image of a windshield obtained when the front part of the body of a typical large vehicle is projected on the YZ plane is set as a projection model. The large-sized vehicle detection unit 20 detects the Y after the projection processing.
The projection model is set and scanned on the Z plane, a matching process between the projection image and the model at each scanning position is performed, and the leading position of the large vehicle is detected.

【0054】一方、一般車輌検出部21には、一般車輌
の車体全体の側面形状モデルがセットされており、大型
車輌の検出処理が完了すると、前記YZ平面上にこの側
面形状モデルが設定され、同様のマッチング処理により
一般車輌の位置が検出される。
On the other hand, a side-surface model of the entire vehicle body of the general vehicle is set in the general-vehicle detecting unit 21. When the detection processing of the large vehicle is completed, the side-surface model is set on the YZ plane. The position of the general vehicle is detected by the same matching process.

【0055】図9は、上記制御装置2において、各カメ
ラ1a,1bからの1フレーム分の画像信号に対する処
理手順を示す。まずステップ1では、各カメラ1a,1
bからの画像信号がA/D変換されて、対応する画像メ
モリに格納され、続くステップ2では、特徴抽出部17
により背景差分処理およびエッジ抽出処理が実施され
て、各入力画像上の特徴点が抽出される。
FIG. 9 shows a processing procedure for one frame of image signal from each of the cameras 1a and 1b in the control device 2. First, in step 1, each camera 1a, 1
b is subjected to A / D conversion and stored in the corresponding image memory.
, A background difference process and an edge extraction process are performed, and feature points on each input image are extracted.

【0056】3次元座標計測部18は、抽出された各特
徴点について、入力画像間の相関演算処理により、空間
内の同じ物点Pを表す特徴点PU ,PL を対応づけす
る。そして対応づけられた各特徴点PU ,PL 毎に、各
点の2次元座標(x,yL )(x,yU )を前記した
(1)〜(3)式に代入し、物点Pの3次元座標を算出
する(ステップ3)。
The three-dimensional coordinate measuring unit 18 associates the extracted feature points with feature points P U and P L representing the same object point P in space by performing a correlation operation between input images. Then, for each of the associated feature points P U and P L , the two-dimensional coordinates (x, y L ) (x, y U ) of each point are substituted into the above equations (1) to (3), and The three-dimensional coordinates of the point P are calculated (Step 3).

【0057】こうして各入力画像上に共通に出現した物
点の3次元座標が算出されると、投影処理部19による
処理へと移行し、各3次元座標が前記YZ平面上に投影
され、各車輌の側面形状を表す投影像が生成される(ス
テップ4)。そしてつぎのステップ5で、大型車輌検出
部20によるマッチング処理が行われ、道路上の大型車
輌が検出される。
When the three-dimensional coordinates of the object point commonly appearing on each input image are calculated, the processing shifts to the processing by the projection processing unit 19, and the three-dimensional coordinates are projected on the YZ plane. A projection image representing the side shape of the vehicle is generated (Step 4). Then, in the next step 5, a matching process is performed by the large vehicle detection unit 20, and a large vehicle on the road is detected.

【0058】図10は、前記図8の投影結果に対し、前
記フロントガラスの投影モデル(図中MF で示す)を用
いたマッチング処理を行う例を示す。この投影モデルM
F は、大型車輌の車体前部の投影モデル(図中、鎖線で
示すモデルm)よりフロントガラスの部分を切り出して
生成されるもので、モデルの左端点がY軸上に位置する
ように初期設定された後、Z軸に沿って順次走査され
る。
FIG. 10 shows an example in which a matching process using the projection model of the windshield (indicated by MF in the figure) is performed on the projection result of FIG. This projection model M
F is generated by cutting out a portion of a windshield from a projection model (model m shown by a chain line in the figure) of a front part of a vehicle body of a large vehicle, and is initially generated such that a left end point of the model is located on the Y axis. After the setting, scanning is performed sequentially along the Z axis.

【0059】大型車輌検出部20は、各走査位置毎に、
その時点で投影モデルMF の近傍に位置する投影点につ
いて、それぞれモデルMF に対する距離を算出し、さら
に各距離の平均値を算出して、これを各投影点の表す投
影像とモデルMF との相違度とする。各走査位置毎の相
違度は、所定のしきい値と比較され、相違度がしきい値
を下回り、かつ極小値となる走査位置ZA が検出された
とき、CPU5は、その走査位置ZA を大型車輌の先頭
位置として認識する。またCPU5は、この先頭位置Z
A よりも所定距離dだけ後方の地点ZB までの領域内に
含まれる各投影点を、大型車輌の構成点の投影点として
認識し、以下のマッチング処理の対象から除外する。
The large-sized vehicle detection unit 20 outputs
For projection point located in the vicinity of the projection model M F at that time, each calculates the distance to the model M F, and further calculates the average of each distance, the projected image and the model M F representative thereof of each projection points And the degree of difference. Degree of difference for each scan position is compared with a predetermined threshold value, when the degree of difference is below the threshold value, and the scan position Z A as the minimum value is detected, CPU 5, the scanning position Z A Is recognized as the head position of a large vehicle. The CPU 5 also determines that the start position Z
Each projection points included in the region of just to the rear of the point Z B predetermined distance d than A, recognized as a projection in configuration point of a large vehicle, to be excluded from the following matching process.

【0060】図10の例から明らかなように、大型車輌
のフロントガラスは、YZ平面上において、小型車輌の
フロントガラスよりも高い位置に投影され、かつ両者間
の大きさや傾き角度には顕著な差違があるから、前記投
影モデルMF によるマッチング処理により、大型車輌の
先頭位置を精度良く検出することができる。しかもこの
検出位置ZA よりZB までの各投影点をマッチング処理
の対象とする必要がないので、演算回路の構成を簡易化
でき、また処理速度も高速化することができる。
As is apparent from the example of FIG. 10, the windshield of a large vehicle is projected at a higher position on the YZ plane than the windshield of a small vehicle, and the size and inclination angle between the two are remarkable. because there are differences, the matching process by the projection model M F, the head position of large vehicles can be accurately detected. Moreover, since it is not necessary to be subjected to matching processing each projected point to Z B from the detected position Z A, you can simplify the configuration of the arithmetic circuit, and may be processing speed faster.

【0061】なお実際の処理においては、大型車輌のフ
ロントガラスの大きさや高さには、若干のばらつきがあ
ると思われる。しかしながら大型車輌のフロントガラス
の傾斜角は、一般車輌に比べて緩やかであるので、投影
モデルMF を代表的なフロントガラスの高さ位置に合わ
せて設定すれば、この投影モデルMF をフロントガラス
の投影像の一部分にほぼ重ね合わせることができ、マッ
チング処理を支障なく行うことができる。また投影モデ
ルMF の高さ位置を所定範囲内で変動させながらマッチ
ング処理を実施すれば、検出精度をより向上させること
ができる。
In the actual processing, the size and height of the windshield of a large vehicle may vary slightly. However the inclination angle of the windshield large vehicles are the gentler than ordinary vehicle, by setting the combined projection model M F at a height of a typical windshield, the windshield the projection model M F Can be almost superimposed on a part of the projected image, and the matching processing can be performed without any trouble. Further, if performing the matching process while changing the height position of the projection model M F within a predetermined range, it is possible to further improve the detection accuracy.

【0062】再び図9に戻って、大型車輌検出部20の
処理が終了すると、つぎに一般車輌検出部21の処理へ
と移行し、前記した一般車輌の側面形状モデルがYZ平
面上に走査されて、同様のマッチング処理が実施される
(ステップ6)。なおこの処理において、前記ステップ
5で大型車輌が検出されている場合には、その車輌の投
影点として認識された各点は、今回のマッチング処理の
対象からは除去されるので、大型車輌の投影像の一部が
一般車輌として誤検出される虞はない。
Returning to FIG. 9 again, when the processing of the large vehicle detecting section 20 is completed, the processing shifts to the processing of the general vehicle detecting section 21 and the above-described side shape model of the general vehicle is scanned on the YZ plane. Then, a similar matching process is performed (step 6). In this process, if a large vehicle is detected in step 5, each point recognized as a projection point of that vehicle is removed from the target of the current matching process. There is no possibility that a part of the image is erroneously detected as a general vehicle.

【0063】各車種毎の車輌検出処理が終了すると、つ
ぎのステップ7で各検出結果がRAM7内に記憶された
後、以下、前記第1の実施例と同様にして、検出された
各車輌の速度や通過車輌の台数が計測され、その計測結
果が出力される(ステップ8〜12)。
When the vehicle detection processing for each vehicle type is completed, each detection result is stored in the RAM 7 in the next step 7, and thereafter, in the same manner as in the first embodiment, each detected vehicle is detected. The speed and the number of passing vehicles are measured, and the measurement results are output (steps 8 to 12).

【0064】なおステップ10の通過車輌の判定処理に
おいて使用される計測ラインは、実際の道路上の所定位
置に設定されるもので、ある車輌の現在および前段階の
各検出位置がこの計測ラインの設定位置を挟んで位置す
るとき、その車輌は計測ラインを通過した車輌として認
識される。
The measurement line used in the process of judging a passing vehicle in step 10 is set at a predetermined position on an actual road, and the current and previous detection positions of a certain vehicle are determined by the measurement line of this measurement line. When the vehicle is located across the set position, the vehicle is recognized as a vehicle that has passed the measurement line.

【0065】なお上記実施例は、2台のカメラ1a,1
bにより道路を撮像して得られた画像を用いた3次元計
測処理を実施しているが、これに限らず、他の手段によ
り3次元計測処理を実施してもよい。
In the above embodiment, two cameras 1a, 1
Although the three-dimensional measurement processing using the image obtained by imaging the road by b is performed, the present invention is not limited to this, and the three-dimensional measurement processing may be performed by other means.

【0066】図11および図12は、交通流計測装置4
1の他の構成を示す。この装置は、レーザー光線のよう
な不可視光線を用いて車輌の3次元形状を示す特徴を抽
出するようにしたもので、前記第1の実施例と同様、支
柱3上に1台のカメラ1と制御装置2とを支持するとと
もに、この支柱3の手前位置に、投光装置25を配備し
て構成される。
FIGS. 11 and 12 show the traffic flow measuring device 4.
1 shows another configuration. This apparatus extracts a feature indicating a three-dimensional shape of a vehicle using an invisible light beam such as a laser beam, and controls one camera 1 on a support 3 in the same manner as in the first embodiment. In addition to supporting the device 2, a light projecting device 25 is provided at a position before the support 3.

【0067】前記投光装置25は、道路RDの幅方向に
沿って複数本のレーザースリット光を平行に照射するた
めのもので、カメラ1には、このレーザースリット光の
波長帯域に適応するフィルタが配備されている。
The light projecting device 25 irradiates a plurality of laser slit lights in parallel along the width direction of the road RD. The camera 1 has a filter adapted to the wavelength band of the laser slit light. Has been deployed.

【0068】前記制御装置2は、第1の実施例と同様の
A/D変換回路3,入力画像メモリ9,制御部4,出力
部15のほか、2値化回路26,2値画像メモリ27,
基準画像メモリ28,3次元座標計測部29,投影処理
部30,大型車輌検出部31,一般車輌検出部32の各
部を具備する。また前記投光装置25の光強度や発光タ
イミングを制御するための手段として、投光制御回路2
4が付加されている。
The control unit 2 includes an A / D conversion circuit 3, an input image memory 9, a control unit 4 and an output unit 15, as well as a binarization circuit 26 and a binary image memory 27 as in the first embodiment. ,
It includes a reference image memory 28, a three-dimensional coordinate measuring unit 29, a projection processing unit 30, a large vehicle detecting unit 31, and a general vehicle detecting unit 32. As means for controlling the light intensity and light emission timing of the light emitting device 25, a light emitting control circuit 2
4 is added.

【0069】カメラ1からの画像データが入力画像メモ
リ9に格納されると、2値化回路26は、この入力画像
を所定のしきい値で2値化処理して、画像上のスリット
光の屈折パターンを抽出する。この2値画像は2値画像
メモリ27内に格納され、3次元座標計測部29による
計測処理に用いられる。
When the image data from the camera 1 is stored in the input image memory 9, the binarization circuit 26 binarizes the input image with a predetermined threshold value, and generates the slit light on the image. Extract the refraction pattern. This binary image is stored in the binary image memory 27 and is used for measurement processing by the three-dimensional coordinate measurement unit 29.

【0070】図13は、前記2値画像上に現れたスリッ
ト光の照射パターンを示す。スリット光の照射方向に車
輌が存在しない場合、スリット光は、道路の幅方向に沿
って直進するので、2値画像上にも平行なスリット光の
照射パターンが出現する。これに対し、スリット光の照
射方向に車輌が存在する場合には、スリット光が車体の
表面で反射することにより、2値画像上の車輌位置に
は、車輌(図中鎖線で示す)の立体形状を反映するスリ
ット光の屈折パターンが出現する。
FIG. 13 shows an irradiation pattern of the slit light appearing on the binary image. If no vehicle exists in the slit light irradiation direction, the slit light travels straight along the width direction of the road, so that a parallel slit light irradiation pattern appears on the binary image. On the other hand, when a vehicle exists in the irradiation direction of the slit light, the slit light is reflected on the surface of the vehicle body, so that the vehicle (indicated by a chain line in the drawing) is located at the vehicle position on the binary image. A refraction pattern of the slit light that reflects the shape appears.

【0071】図12に戻って、この実施例の基準画像メ
モリ28には、道路RDに車輌が存在しない状態下でス
リット光を照射した場合の照射パターン(以下これを
「基準パターン」という)を示す2値画像が記憶されて
いる。3次元座標計測部29は、前記入力画像の2値画
像上に出現した各スリット光の屈折パターンの各構成点
と、基準パターンの対応する構成点とを対応づけした
後、対応する各点間の2次元座標から前記屈折パターン
の各構成点の高さデータ(Y座標)を算出する。またこ
の3次元座標計測部29には、前記基準パターンの各構
成点に対応するX、Z座標がセットされており、これら
座標値を屈折パターンの各構成点にあてはめることによ
り、車体表面におけるスリット光の各照射位置の3次元
座標を導き出すことができる。
Returning to FIG. 12, the reference image memory 28 of this embodiment stores an irradiation pattern (hereinafter, referred to as a “reference pattern”) when the slit light is irradiated in a state where no vehicle exists on the road RD. The stored binary image is stored. After associating each constituent point of the refraction pattern of each slit light appearing on the binary image of the input image with the corresponding constituent point of the reference pattern, the three-dimensional coordinate measuring unit 29 calculates the distance between the corresponding points. The height data (Y coordinate) of each component point of the refraction pattern is calculated from the two-dimensional coordinates. X and Z coordinates corresponding to the respective constituent points of the reference pattern are set in the three-dimensional coordinate measuring unit 29. By applying these coordinate values to the respective constituent points of the refraction pattern, a slit on the vehicle body surface is obtained. The three-dimensional coordinates of each irradiation position of light can be derived.

【0072】投影処理部30は、前記第2の実施例と同
様、道路RDの長さ方向に沿う仮想垂直平面(YZ平
面)を設定して、このYZ平面上に算出された各3次元
座標を投影する。大型車輌検出部31,一般車輌検出部
32は、この投影像に対し、前記と同様の車輌検出処理
を実施し、各車種毎の車輌の先頭位置を検出する。
As in the second embodiment, the projection processing unit 30 sets a virtual vertical plane (YZ plane) along the length direction of the road RD, and sets each three-dimensional coordinate calculated on this YZ plane. Is projected. The large vehicle detection unit 31 and the general vehicle detection unit 32 perform the same vehicle detection processing as described above on this projection image, and detect the leading position of the vehicle for each vehicle type.

【0073】図14は、大型車輌検出用のマッチング処
理の一例を示す。YZ平面上には、前記スリット光の屈
折パターンの投影処理により、車輌の側面に照射された
スリット光の長さに相当する垂直線分像(図中実線で示
す)が生成されている。
FIG. 14 shows an example of a matching process for detecting a large vehicle. On the YZ plane, a vertical line image (shown by a solid line in the figure) corresponding to the length of the slit light applied to the side of the vehicle is generated by the projection processing of the refraction pattern of the slit light.

【0074】大型車輌検出部31は、これら垂直線分像
の上端点を結んで車輌側面の輪郭形状パターン(図中点
線で示す)を生成した後、YZ平面上に前記と同様の投
影モデルMF を走査して、前記輪郭形状パターンに対す
るマッチング処理を実施し、大型車輌の先頭位置を検出
する。
The large vehicle detecting section 31 connects the upper end points of these vertical line segment images to generate a contour pattern on the side of the vehicle (indicated by a dotted line in the figure), and then forms the same projection model M on the YZ plane as described above. By scanning F , matching processing is performed on the contour shape pattern to detect the leading position of a large vehicle.

【0075】一般車輌検出部32も同様にして、一般車
輌の側面形状モデルと輪郭形状パターンとのマッチング
処理を実施し、一般車輌の先頭位置を検出する。この
後、前記した各実施例と同様、CPU5により各車輌の
検出位置が認識された後、車輌の速度や通過車輌の台数
の計測処理が行われることになる。
Similarly, the general vehicle detecting section 32 performs a matching process between the side shape model of the general vehicle and the contour shape pattern, and detects the head position of the general vehicle. Thereafter, as in the above-described embodiments, after the detection position of each vehicle is recognized by the CPU 5, measurement processing of the speed of the vehicle and the number of passing vehicles is performed.

【0076】なお上記の各実施例は、いずれも大型車輌
のフロントガラスの特徴を抽出することにより、大型車
輌を検出するようにしているが、フロントガラスに限ら
ず、車輌の前面全体の特徴を抽出するようにしてもよ
い。また一般車輌についても、同様に、フロントガラス
や車体の前面形状の特徴により車輌検出を行うようにし
てもよい。
In each of the above embodiments, a large vehicle is detected by extracting the characteristics of the windshield of a large vehicle. However, not only the windshield but also the characteristics of the entire front surface of the vehicle. You may make it extract. Similarly, for a general vehicle, the vehicle may be detected based on the features of the front glass and the front shape of the vehicle body.

【0077】また上記第2,第3の実施例では、3次元
計測結果を道路RDの長さ方向に沿う仮想垂直平面上に
投影してから2次元の認識処理を行っているが、これに
限らず、計測された各3次元座標を用いて、空間座標系
における立体認識処理を実施する場合にも、この発明を
適用することが可能である。
In the second and third embodiments, the two-dimensional recognition process is performed after projecting the three-dimensional measurement result on a virtual vertical plane along the length direction of the road RD. The present invention is not limited to this, and the present invention can be applied to a case where stereoscopic recognition processing in a spatial coordinate system is performed using each measured three-dimensional coordinate.

【0078】前記したように、前記第1〜3のいずれか
の実施例の交通流計測装置により得られた計測データ
は、管理センターなどに送信されるもので、送信された
計測データは、交通情報として編集して下流位置のドラ
イバーに提供されたり、信号の制御処理に用いられるな
ど、種々の用途に利用される。
As described above, the measurement data obtained by the traffic flow measuring device of any of the first to third embodiments is transmitted to a management center or the like, and the transmitted measurement data is It is used for various purposes, such as being edited as information and provided to a driver at a downstream position, or used for signal control processing.

【0079】図15は、交通情報システムの一例を示す
もので、前記したいずれかの交通流計測装置41を複数
地点に設置し、各装置より送信された計測データを管理
センター40で取りまとめて編集し、各地点における交
通情報として出力する。この場合、各交通流計測装置4
1とも、上記した処理方法により精度の高い計測データ
を送信するので、管理センター40は、従来よりも的確
な交通流データを得ることができ、システム全体の処理
精度を、大幅に向上させることができる。
FIG. 15 shows an example of a traffic information system, in which one of the above-mentioned traffic flow measuring devices 41 is installed at a plurality of points, and measurement data transmitted from each device is collected and edited by a management center 40. Then, it is output as traffic information at each point. In this case, each traffic flow measuring device 4
In either case, since the measurement data with high accuracy is transmitted by the above-described processing method, the management center 40 can obtain more accurate traffic flow data than before, and the processing accuracy of the entire system can be greatly improved. it can.

【0080】なおここでは、道路上の車輌を検出して交
通流計測を実施する装置について説明したが、本願発明
はこれに限らず、駐車場などに駐車中の車輌を観測する
装置にも適用することができる。
Here, an apparatus for detecting a vehicle on a road and performing a traffic flow measurement has been described. However, the present invention is not limited to this, and is also applicable to an apparatus for observing a vehicle parked in a parking lot or the like. can do.

【0081】[0081]

【発明の効果】この発明は上記の如く、所定の観測領域
を撮像手段により撮像して得られた画像を用いた2次元
画像処理、もしくは3次元計測処理により、特定車種の
車輌を検出する際に、この車種の車輌の前面を表す特徴
をもって検出処理を実施するようにしたから、特定車種
の車輌を簡単かつ精度良く検出して、高精度の車輌認識
処理を実施することができる。
As described above, the present invention is applicable to a case where a vehicle of a specific vehicle type is detected by two-dimensional image processing or three-dimensional measurement processing using an image obtained by imaging a predetermined observation area by an imaging means. Furthermore, since the detection process is performed with the feature representing the front of the vehicle of this type of vehicle, the vehicle of the specific type of vehicle can be easily and accurately detected, and the highly accurate vehicle recognition process can be performed.

【0082】さらに請求項4および8の発明では、観測
領域内で計測された各3次元座標を、観測領域の底面に
垂直に位置する仮想平面上に投影した後、この投影像に
対し、特定車種の車輌の前面を投影して得られる投影モ
デルによるマッチング処理を実施して、前記特定車種の
車輌を検出するので、仮想平面上の投影像に対し、車輌
の前面部分の投影モデルを用いたマッチング処理のみで
特定車種の車輌を検出することが可能となり、処理時間
を大幅に短縮することができる。
Further, according to the fourth and eighth aspects of the present invention, each three-dimensional coordinate measured in the observation area is projected on a virtual plane positioned perpendicular to the bottom surface of the observation area, and then the projection image is specified. Since the matching process is performed using a projection model obtained by projecting the front of the vehicle of the vehicle type and the vehicle of the specific vehicle type is detected, the projection model of the front portion of the vehicle is used for the projection image on the virtual plane. A specific type of vehicle can be detected only by the matching process, and the processing time can be significantly reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明が適用された交通流計測装置の設置例
を示す斜視図である。
FIG. 1 is a perspective view showing an example of installation of a traffic flow measuring device to which the present invention is applied.

【図2】図1の交通流計測装置の構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of the traffic flow measuring device of FIG.

【図3】入力画像および背景差分処理後の差分画像を示
す説明図である。
FIG. 3 is an explanatory diagram showing an input image and a difference image after a background difference process.

【図4】制御装置における処理手順を示すフローチャー
トである。
FIG. 4 is a flowchart illustrating a processing procedure in the control device.

【図5】交通流計測装置の他の例を示す斜視図である。FIG. 5 is a perspective view showing another example of the traffic flow measuring device.

【図6】図5の交通流計測装置の構成を示すブロック図
である。
FIG. 6 is a block diagram showing a configuration of the traffic flow measuring device of FIG.

【図7】3次元計測処理にかかる空間座標系の設置例を
示す説明図である。
FIG. 7 is an explanatory diagram showing an example of setting a spatial coordinate system for a three-dimensional measurement process.

【図8】3次元座標をYZ平面に投影した状態を示す説
明図である。
FIG. 8 is an explanatory diagram showing a state where three-dimensional coordinates are projected on a YZ plane.

【図9】図6の制御装置における処理手順を示すフロー
チャートである。
FIG. 9 is a flowchart illustrating a processing procedure in the control device of FIG. 6;

【図10】大型車輌の検出処理方法を示す説明図であ
る。
FIG. 10 is an explanatory diagram showing a detection processing method for a large vehicle.

【図11】交通流計測装置の第3の例を示す斜視図であ
る。
FIG. 11 is a perspective view showing a third example of the traffic flow measuring device.

【図12】図11の交通流計測装置の構成を示すブロッ
ク図である。
FIG. 12 is a block diagram showing a configuration of the traffic flow measuring device of FIG.

【図13】画像上のレーザスリット光の屈折パターンを
示す説明図である。
FIG. 13 is an explanatory diagram showing a refraction pattern of laser slit light on an image.

【図14】図13の屈折パターンより得られた3次元座
標の投影結果を用いて大型車輌の検出処理を実施する状
態を示す説明図である。
14 is an explanatory diagram showing a state in which a detection process of a large vehicle is performed using a projection result of three-dimensional coordinates obtained from the refraction pattern of FIG.

【図15】交通流計測装置を用いた交通情報システムの
一例を示す説明図である。
FIG. 15 is an explanatory diagram showing an example of a traffic information system using a traffic flow measuring device.

【符号の説明】[Explanation of symbols]

1,1a,1b カメラ 2 制御装置 5 CPU 13,20,31 大型車輌検出部 18,29 3次元座標計測部 19,30 投影処理部 1, 1a, 1b Camera 2 Control device 5 CPU 13, 20, 31 Large vehicle detecting unit 18, 29 Three-dimensional coordinate measuring unit 19, 30 Projection processing unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 所定の観測領域を撮像手段により撮像し
て得られた画像を用いて、前記観測領域内に位置する車
輌を認識する方法において、 前記画像上において特定車種の車輌の前面に対応する画
像領域を検索し、対応する画像領域が検出されたとき、
その検出位置に対応する空間位置に前記特定車種の車輌
が存在すると認識することを特徴とする車輌認識方法。
1. A method for recognizing a vehicle located in an observation area using an image obtained by imaging a predetermined observation area by an imaging means, the image corresponding to a front of a vehicle of a specific vehicle type on the image. Search for the corresponding image area, and when the corresponding image area is detected,
A vehicle recognition method comprising recognizing that the vehicle of the specific vehicle type exists at a spatial position corresponding to the detected position.
【請求項2】 所定の観測領域を撮像手段により撮像し
て得られた画像を用いて、前記観測領域内に位置する車
輌を認識する方法において、 前記画像上に特定車種の前面を表すモデル画像を走査し
てマッチング処理を実施し、このモデル画像に対応する
画像領域が抽出されたとき、その抽出位置に対応する空
間位置に前記特定車種の車輌が存在すると認識すること
を特徴とする車輌認識方法。
2. A method for recognizing a vehicle located in an observation area using an image obtained by imaging a predetermined observation area by an imaging unit, wherein a model image representing a front surface of a specific vehicle type is displayed on the image. And a matching process is performed by scanning the model image. When an image region corresponding to the model image is extracted, it is recognized that a vehicle of the specific vehicle type exists at a spatial position corresponding to the extracted position. Method.
【請求項3】 少なくとも1台の撮像手段により所定の
観測領域を撮像して得られた画像を用いて、前記観測領
域内における3次元計測処理を実施し、その計測結果を
用いて観測領域内に位置する車輌を認識する方法におい
て、 前記3次元計測結果の中から特定車種の車輌の前面に対
応する計測結果を検索し、対応する計測結果が検出され
たとき、その検出位置に前記特定車種の車輌が存在する
と認識することを特徴とする車輌認識方法。
3. A three-dimensional measurement process in the observation area is performed by using an image obtained by imaging a predetermined observation area by at least one imaging unit, and a result of the three-dimensional measurement in the observation area is obtained by using the measurement result. In the method for recognizing a vehicle located at a specific vehicle type, a measurement result corresponding to the front of a vehicle of a specific vehicle type is searched from the three-dimensional measurement results, and when the corresponding measurement result is detected, the specific vehicle type is detected at the detected position. A vehicle recognition method characterized by recognizing that a vehicle exists.
【請求項4】 少なくとも1台の撮像手段により所定の
観測領域を撮像して得られた画像を用いて、前記観測領
域内における3次元計測処理を実施し、その計測結果を
用いて観測領域内に位置する車輌を認識する方法におい
て、 前記3次元計測処理により計測された各3次元座標を、
前記観測領域の底面に垂直に位置する仮想平面上に投影
した後、この仮想平面上に特定車種の前面の投影モデル
を走査し、このモデルに対応する投影像が抽出されたと
き、その抽出位置に対応する空間位置に前記特定車種の
車輌が存在すると認識することを特徴とする車輌認識方
法。
4. A three-dimensional measurement process in the observation region is performed by using an image obtained by imaging a predetermined observation region by at least one imaging unit, and a result of the three-dimensional measurement in the observation region is calculated using the measurement result. In the method of recognizing a vehicle located at, the three-dimensional coordinates measured by the three-dimensional measurement processing are:
After projecting on a virtual plane located perpendicular to the bottom surface of the observation area, a projection model of the front of a specific vehicle type is scanned on this virtual plane, and when a projection image corresponding to this model is extracted, the extracted position is extracted. A vehicle recognition method comprising: recognizing that a vehicle of the specific vehicle type exists at a spatial position corresponding to (i).
【請求項5】 所定の観測領域を撮像手段により撮像し
て得られた画像を入力する画像入力手段と、 前記画像入力手段により入力された画像上で特定車種の
車輌の前面に対応する画像領域を検索する検索手段と、 前記検索手段により前記画像領域が検出されたとき、そ
の検出位置に前記特定車種の車輌の画像が存在すると認
識する認識手段とを具備して成る車輌認識装置。
5. An image input means for inputting an image obtained by imaging a predetermined observation area by an image pickup means, and an image area corresponding to a front of a vehicle of a specific vehicle type on the image input by the image input means. And a recognizing means for recognizing, when the image area is detected by the searching means, an image of the vehicle of the specific vehicle type at the detected position.
【請求項6】 所定の観測領域を撮像手段により撮像し
て得られた画像を入力する画像入力手段と、 前記画像入力手段により入力された画像上に特定車種の
前面を表すモデル画像を走査して、マッチング処理を実
施するマッチング処理手段と、 前記マッチング処理により前記モデル画像に対応する画
像領域が抽出されたとき、この画像領域の抽出位置に前
記特定車種の車輌の画像が存在すると認識する認識手段
とを具備して成る車輌認識装置。
6. An image input means for inputting an image obtained by imaging a predetermined observation area by an image pickup means, and scanning a model image representing the front of a specific vehicle type on the image input by the image input means. A matching processing means for performing a matching process; and recognizing that when an image region corresponding to the model image is extracted by the matching process, an image of the vehicle of the specific vehicle type is present at an extraction position of the image region. And a vehicle recognition device.
【請求項7】 少なくとも1台の撮像手段により所定の
観測領域を撮像して得られた画像を入力する画像入力手
段と、 前記画像入力手段により入力された画像を用いて、前記
観測領域における3次元計測処理を実施する3次元計測
手段と、 前記3次元計測結果の中から特定車種の車輌の前面に対
応する計測データを検索する検索手段と、 前記検索手段により前記計測データが検出されたとき、
その検出位置を前記特定車種の車輌の先頭位置として認
識する認識手段とを具備して成る車輌認識装置。
7. An image input unit for inputting an image obtained by imaging a predetermined observation region by at least one imaging unit, and using the image input by the image input unit to obtain a 3D image in the observation region. Three-dimensional measurement means for performing a dimension measurement process; search means for searching measurement data corresponding to the front of a vehicle of a specific vehicle type from the three-dimensional measurement results; and when the measurement data is detected by the search means ,
A vehicle recognizing device comprising: recognizing means for recognizing the detected position as a head position of a vehicle of the specific vehicle type.
【請求項8】 少なくとも1台の撮像手段により撮像し
て得られた画像を入力する画像入力手段と、 前記画像入力手段により入力された画像を用いて、前記
観測領域における3次元計測処理を実施する3次元計測
手段と、 前記3次元計測手段により計測された各3次元座標を、
前記観測領域の底面に垂直に位置する仮想平面上に投影
する投影手段と、 仮想平面上に特定車種の前面を投影して得られる投影モ
デルにより、投影処理後の仮想平面を走査して、マッチ
ング処理を実施するマッチング手段と、 前記マッチング処理により前記モデルに対応する投影像
が抽出されたとき、この抽出位置に対応する空間位置
を、前記特定車種の車輌の先頭位置と認識する認識手段
とを具備して成る車輌認識装置。
8. An image input unit for inputting an image obtained by imaging by at least one imaging unit, and a three-dimensional measurement process in the observation region is performed using the image input by the image input unit. Three-dimensional measuring means, and three-dimensional coordinates measured by the three-dimensional measuring means,
The projection means for projecting on a virtual plane positioned perpendicular to the bottom surface of the observation area, and a projection model obtained by projecting the front of a specific vehicle type on the virtual plane, scans the virtual plane after the projection processing, and performs matching. A matching means for performing processing; and a recognition means for recognizing, when a projection image corresponding to the model is extracted by the matching processing, a spatial position corresponding to the extracted position as a head position of a vehicle of the specific vehicle type. A vehicle recognition device comprising the same.
JP7352198A 1998-03-06 1998-03-06 Method and device for recognizing vehicle Pending JPH11259792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7352198A JPH11259792A (en) 1998-03-06 1998-03-06 Method and device for recognizing vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7352198A JPH11259792A (en) 1998-03-06 1998-03-06 Method and device for recognizing vehicle

Publications (1)

Publication Number Publication Date
JPH11259792A true JPH11259792A (en) 1999-09-24

Family

ID=13520638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7352198A Pending JPH11259792A (en) 1998-03-06 1998-03-06 Method and device for recognizing vehicle

Country Status (1)

Country Link
JP (1) JPH11259792A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139035A1 (en) * 2006-05-26 2007-12-06 Fujitsu Limited Vehicle type determination device, program, and method
JP2008051688A (en) * 2006-08-25 2008-03-06 Matsushita Electric Ind Co Ltd Automatic measurement device of vehicle, automatic measurement system of vehicle, and automatic measurement method of vehicle
WO2010058703A1 (en) * 2008-11-18 2010-05-27 株式会社 明電舎 Passing train imaging device using image processing
JP2011165004A (en) * 2010-02-10 2011-08-25 Toshiba Corp Imaging apparatus and toll collection system
JP2012160165A (en) * 2011-01-31 2012-08-23 Nec (China) Co Ltd Baseline band video monitoring system and method
JP2017045137A (en) * 2015-08-24 2017-03-02 株式会社東芝 Vehicle type discrimination device and vehicle type discrimination method
CN107643049A (en) * 2017-09-26 2018-01-30 沈阳理工大学 Vehicle position detection system and method on weighbridge based on monocular structure light
CN114694394A (en) * 2022-03-22 2022-07-01 山东交通学院 Intelligent prompting method and device for special vehicle

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229171B2 (en) 2006-05-26 2012-07-24 Fujitsu Limited Apparatus, method, and computer product for vehicle-type determination using image data of vehicle
JP2007316997A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Vehicle type determining program and apparatus
JP4567630B2 (en) * 2006-05-26 2010-10-20 富士通株式会社 Vehicle type identification program and vehicle type identification device
WO2007139035A1 (en) * 2006-05-26 2007-12-06 Fujitsu Limited Vehicle type determination device, program, and method
JP2008051688A (en) * 2006-08-25 2008-03-06 Matsushita Electric Ind Co Ltd Automatic measurement device of vehicle, automatic measurement system of vehicle, and automatic measurement method of vehicle
WO2010058703A1 (en) * 2008-11-18 2010-05-27 株式会社 明電舎 Passing train imaging device using image processing
JP2010124084A (en) * 2008-11-18 2010-06-03 Meidensha Corp Passing train photographing device by means of image processing
JP2011165004A (en) * 2010-02-10 2011-08-25 Toshiba Corp Imaging apparatus and toll collection system
JP2012160165A (en) * 2011-01-31 2012-08-23 Nec (China) Co Ltd Baseline band video monitoring system and method
JP2017045137A (en) * 2015-08-24 2017-03-02 株式会社東芝 Vehicle type discrimination device and vehicle type discrimination method
CN107643049A (en) * 2017-09-26 2018-01-30 沈阳理工大学 Vehicle position detection system and method on weighbridge based on monocular structure light
CN107643049B (en) * 2017-09-26 2023-06-20 沈阳理工大学 System and method for detecting vehicle position on wagon balance based on monocular structured light
CN114694394A (en) * 2022-03-22 2022-07-01 山东交通学院 Intelligent prompting method and device for special vehicle

Similar Documents

Publication Publication Date Title
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP4205825B2 (en) Object recognition device
US6792147B1 (en) Object recognition system
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
JP3562751B2 (en) Forward vehicle detection method and device
KR102536037B1 (en) Method and processing unit for determining information related to an object in the surrounding environment of a vehicle
JP2001004368A (en) Object recognizing apparatus
JP2000357233A (en) Body recognition device
JPH05265547A (en) On-vehicle outside monitoring device
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
EP3115966B1 (en) Object detection device, object detection method, and computer program
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
US20180144499A1 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP2001052171A (en) Surrounding environment recognizing device
JP3328711B2 (en) Vehicle height measuring device and vehicle monitoring system using the same
JP4067340B2 (en) Object recognition device and object recognition method
JP3807583B2 (en) Road area determination device
JPH11259792A (en) Method and device for recognizing vehicle
JP4340000B2 (en) Object recognition device
JPH1144533A (en) Preceding vehicle detector
JPH07244717A (en) Travel environment recognition device for vehicle
JP3465531B2 (en) Object recognition method and apparatus
JP3319401B2 (en) Roadway recognition device
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JP3475700B2 (en) Object recognition method, object recognition device, and vehicle recognition device