JPS63174199A - Vehicle recognition system - Google Patents
Vehicle recognition systemInfo
- Publication number
- JPS63174199A JPS63174199A JP575387A JP575387A JPS63174199A JP S63174199 A JPS63174199 A JP S63174199A JP 575387 A JP575387 A JP 575387A JP 575387 A JP575387 A JP 575387A JP S63174199 A JPS63174199 A JP S63174199A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road surface
- shadow
- detecting
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 description 28
- 238000005259 measurement Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は路面上に走行状態又は停止状態で存在する車両
を認識する車両認識方式に関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a vehicle recognition system for recognizing a vehicle running or stopped on a road surface.
画像処理による交通流計測システムとして、従来から種
々のものが知られている。具体的には例えば、特開昭6
1−214100号公報、画像処理手法による交通Wi
t測技術研究会発行「画像処理手法による交通流計測技
術の研究」 (昭和58年3月)および同研究会発行r
ccDイメージセンサを用いた交通流計測システム」
(昭和58年3月)などがある。Various types of traffic flow measurement systems using image processing have been known. Specifically, for example, JP-A-6
Publication No. 1-214100, Traffic Wi using image processing method
``Research on Traffic Flow Measurement Technology Using Image Processing Methods'' (March 1982) published by T-Measurement Technology Research Group and r published by the same research group.
"Traffic flow measurement system using CCD image sensor"
(March 1982), etc.
以下、従来方式について説明する。The conventional method will be explained below.
路面および路面上を走行する車両の撮影は、例えばCC
TVカメラによってなされる。そして、カメラによる画
像パターンの生成は、車両が車線(レーン)区分を守っ
て走行しているものと仮定し、車線ごとに分割して行な
っていた。このようにして得られた画像信号はスレーブ
CPUでディジタル化され、次のマスタCPUによって
車両の認識がなされていた。すなわち、路面の輝度と車
両(車体)の輝度を比較することにより、輝度差から車
両を認識していた。For example, CC is used to photograph the road surface and vehicles running on the road surface.
It is done by a TV camera. The generation of image patterns by the camera was performed by dividing the patterns into lanes, assuming that the vehicle was traveling in accordance with the lane divisions. The image signal thus obtained is digitized by the slave CPU, and the vehicle is recognized by the next master CPU. That is, by comparing the brightness of the road surface and the brightness of the vehicle (vehicle body), the vehicle was recognized from the difference in brightness.
しかしながら上記の従来方式では、次のような問題点が
あった。However, the above conventional method has the following problems.
第1に従来方式で、は、車両の認識は車両の輝度を検出
し、これを路面の輝度(基準輝度〉と比較することによ
り行なっていた。このため、車両の型式や塗色などによ
って輝度が著しく相違し、正確な認識が困難になってい
た。First, in the conventional method, vehicle recognition was performed by detecting the vehicle's brightness and comparing it with the road surface brightness (reference brightness). were significantly different, making accurate recognition difficult.
第2に従来方式では、車両の認識は路面の一部の車線の
みについて行なっていた。このため、異なる車線にまた
がって走行する車両がめったとぎゃ、車線を変更する車
両がめったとぎには、車両を認識することが難しく、ま
た同一車両を重複して認識することにもなる。ざらに、
2本以上の車線に別々の車両が走行しているときは、別
々に認識することも難しい。Second, in the conventional system, vehicle recognition was performed only on a portion of the lanes on the road. Therefore, if a vehicle rarely travels across different lanes, or if a vehicle rarely changes lanes, it is difficult to recognize the vehicle, and the same vehicle may be recognized more than once. Roughly,
When different vehicles are traveling in two or more lanes, it is difficult to recognize them separately.
そこで本発明の第1のものは、車両の型式1′)塗色な
どにかかわりなく、正確に車両を認識することのできる
車両認識方式を提供することを目的とする。Therefore, a first object of the present invention is to provide a vehicle recognition method that can accurately recognize a vehicle regardless of the vehicle type (1'), paint color, etc.
また本発明の第2のものは、2本の車線にまたがって、
おるいは車線を変更しながら走行する車両があったとき
にも、また複数の車線に2以上の車両が並走していると
きにも、これら車両を正確に認識することのできる車両
認識方式を提供することを目的とする。Moreover, the second thing of the present invention straddles two lanes,
A vehicle recognition method that can accurately recognize vehicles that are changing lanes or when two or more vehicles are running parallel to each other in multiple lanes. The purpose is to provide
本発明に係る車両認識方式の第1のものは、路面と車両
を藏影することにより得られる画像パターンから、輝度
の異なるパターン部分を検出することにより車両をL’
lHする方式であって、路面部分の基r$輝度を下回る
輝度のパターン部分を車両の影部分として検出する第1
のステップと、影部分をはさんで路面部分の反対側にで
きる所定の輝度のパターン部分を車両部分として検出す
る第2のステップと、第1および第2のステップにより
検出された車両の影部分および車両部分にもとづいて車
両の存在を認識する第3のステップとを備えることを特
徴とする。The first vehicle recognition method according to the present invention detects pattern portions with different brightness from an image pattern obtained by shading the road surface and the vehicle.
The first method detects a pattern portion of a road surface portion whose luminance is lower than the base luminance as a shadow portion of the vehicle.
a second step of detecting a pattern portion of a predetermined brightness formed on the opposite side of the road surface portion across the shadow portion as a vehicle portion; and a shadow portion of the vehicle detected in the first and second steps. and a third step of recognizing the presence of a vehicle based on the vehicle part.
本発明に係る車両認識方式の第2のものは、路面の全車
線領域と、この路面の全車線領域を走行する車両とを藏
影することにより得られる画像パターンから、輝度の異
なるパターン部分を検出することにより車両を認識する
方式であって、路面部分の基準輝度を下回る輝度のパタ
ーン部分を車両の影部分として検出する第1のステップ
と、影部分が路面の車線と横断方向に複数存在するとき
は複数の影部分を車両ごとに識別する第2のステップと
、第2のステップにより車両ごとに識別された影部分を
はさんで路面部分の反対側にで゛きる所定輝度のパター
ン部分を、車両ごとに識別された車両部分として検出す
る第3のステップと、第1のステップにより検出され第
2のステップにより識別された車両ごとの影部分と、第
3のステップにより検出された車両ごとの車両部分にも
とづいて車両を認識する第4のステップとを備えること
を特徴とする。The second vehicle recognition method according to the present invention identifies pattern portions with different brightness from an image pattern obtained by shadowing the entire lane area of the road surface and the vehicles traveling on the entire lane area of the road surface. This is a method for recognizing vehicles by detecting them, and the first step is to detect a pattern part of the road surface whose brightness is lower than the standard brightness as a shadow part of the vehicle, and a plurality of shadow parts exist on the road surface in the lane and cross direction. In this case, the second step is to identify a plurality of shadow parts for each vehicle, and the second step is to identify a pattern part of a predetermined brightness that appears on the opposite side of the road surface part across the shadow parts identified for each vehicle in the second step. a third step of detecting the vehicle part as a vehicle part identified for each vehicle; a shadow part of each vehicle detected in the first step and identified in the second step; and a vehicle part detected in the third step. and a fourth step of recognizing the vehicle based on each vehicle part.
本発明に係る車両認識方式の第1のものは、以上の通り
に構成されるので、路面上の車両は路面の基準R度を下
回る輝度の車両の影部分の検出と、所定輝度の車両部分
の検出とにより、その存在を認識するように作用する。The first vehicle recognition method according to the present invention is configured as described above, so that a vehicle on a road surface can be detected by detecting a shadow part of a vehicle with a luminance lower than the standard R degree of the road surface, and detecting a part of the vehicle with a predetermined luminance. It acts to recognize its existence by detecting it.
本発明に係る車両認識方式の第2のものは、以上の通り
に構成されるので、路面上を走行する車両は路面の基準
輝度を下回る輝度の影部分の検出により1台づつ識別さ
れることになり、従って影部分に続いて瑛れる所定輝度
の車両部分の検出により、車両ごとに認識するように作
用する。The second vehicle recognition method according to the present invention is configured as described above, so that vehicles running on the road surface can be identified one by one by detecting a shadow part with a luminance lower than the standard luminance of the road surface. Therefore, by detecting the vehicle part having a predetermined brightness following the shadow part, it is possible to recognize each vehicle.
以下、添附図面を参照して、本発明のいくつかの実施例
を説明する。なあ、図面の説明において同一の要素には
同一の符号を付し、重複する説明を省略する。第1図は
本発明方式の一実施例のフローチャートであり、第2図
は同実施例を適用した車両認識装置の基本的構成を示す
ブロック図であり、第3図は第2図に示す装置の要部を
示す詳細なブロック図である。Hereinafter, some embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description will be omitted. FIG. 1 is a flowchart of an embodiment of the method of the present invention, FIG. 2 is a block diagram showing the basic configuration of a vehicle recognition device to which the embodiment is applied, and FIG. 3 is a block diagram of the device shown in FIG. FIG.
第2図に示す通り、車両認識装置は固定カメラ1に接続
されたVTR2と、VTR2からの画像信号を処理する
画像処理装置3と、VTR2からの画像をモニタするモ
ニタテレビ4と、画像処理装置3を操作するための操作
卓5とを有している。As shown in FIG. 2, the vehicle recognition device includes a VTR 2 connected to a fixed camera 1, an image processing device 3 that processes image signals from the VTR 2, a monitor television 4 that monitors images from the VTR 2, and an image processing device. 3, and an operation console 5 for operating the 3.
また、画像処理装置3はVTR2からのアナログ画像信
号をディジタル化等するための画像メモリ7と、ディジ
タル画像信号を3値化等するためのスレーブCPU8と
、スレーブCPU8からの3値化信号により車両の認識
等をするためのマスタCPU9とを有している。ざらに
、VTR2は固定カメラ1からの画像信号を信号線を介
して受けるだけでなく、携帯カメラ6による画像信号を
も磁気テープ等の型式で受けるようになっている。The image processing device 3 also includes an image memory 7 for digitizing the analog image signal from the VTR 2, a slave CPU 8 for digitizing the digital image signal, and a ternarizing signal from the slave CPU 8 to control the vehicle. It has a master CPU 9 for recognition, etc. In general, the VTR 2 not only receives an image signal from the fixed camera 1 via a signal line, but also receives an image signal from a portable camera 6 in the form of a magnetic tape or the like.
次に、第3図にもとづいて画像処理装置3の詳細な構成
を説明する。図示の通り、画像メモリ7はVTR2から
のアナログ画像信号をA/D変換するためのA/D変換
器11を有している。A/D変換されたディジタル画像
信号は、画素抽出部12および輝度差演算部13を介し
て3値化演算部14に与えられる。そして、ここで3値
化された信号は前影検出部15、ボンネット検出部16
および屋根検出部17に与えられ、これらの検出結果は
次のマスタCPU9に送られる。マスタCPU9に与え
られた検出結果はまず車両認識部21に入力され、ここ
で車両の認識がなされる。Next, the detailed configuration of the image processing device 3 will be explained based on FIG. As shown in the figure, the image memory 7 has an A/D converter 11 for A/D converting an analog image signal from the VTR 2. The A/D converted digital image signal is provided to a ternarization calculation unit 14 via a pixel extraction unit 12 and a luminance difference calculation unit 13. Then, the ternarized signal is transmitted to the front shadow detection section 15 and the bonnet detection section 16.
and the roof detection section 17, and these detection results are sent to the next master CPU 9. The detection results given to the master CPU 9 are first input to the vehicle recognition section 21, where the vehicle is recognized.
そして更に、車両移動追跡部22、車線判定部23、車
両計測部24および計測値出力部25へと順次に送られ
、結果が操作卓5に送られて認識結果の表示がCRT管
面等においてなされる。Further, the results are sequentially sent to the vehicle movement tracking unit 22, lane determination unit 23, vehicle measurement unit 24, and measured value output unit 25, and the results are sent to the console 5 and the recognition results are displayed on a CRT screen or the like. It will be done.
次に、第4図を参照して、上記画像処理装置の各構成要
素の機能として作用を説明する一0画像メモリ7を構成
するA/D変換器11は、VTR2からの画像信号(ア
ナログ信号)をディジタル変換する。このディジタル化
にあたって、例えば8ビット/画素でA/D変換を行な
えば、得られるディジタル信号は28=256階調の輝
度データとなる。そしてこの画像データは、信号線を介
してスレーブCPU8の画素検出部11に与えられる。Next, with reference to FIG. 4, the functions and actions of each component of the image processing device will be explained. ) to digital conversion. In this digitization, if A/D conversion is performed, for example, at 8 bits/pixel, the resulting digital signal will be luminance data with 28=256 gradations. This image data is then given to the pixel detection section 11 of the slave CPU 8 via a signal line.
画素検出部12は輝度データを計測領域の計測点に対応
する画素ごとに抽出する。ここで、計測領域は例えば第
4図のブロックP1に符号31で示す如く設定され、計
測点32はこの計測領域31において格子状に配置され
る。従って、画素抽出部12から輝度演算部13に対し
ては、計測領域31中の各計測点32における輝度デー
タが送られることになる。この輝度データの一例は、第
4図のブロックP2に示されている。The pixel detection unit 12 extracts luminance data for each pixel corresponding to a measurement point in the measurement area. Here, the measurement area is set, for example, as shown by reference numeral 31 in block P1 in FIG. 4, and measurement points 32 are arranged in a grid pattern in this measurement area 31. Therefore, the luminance data at each measurement point 32 in the measurement area 31 is sent from the pixel extraction section 12 to the luminance calculation section 13. An example of this luminance data is shown in block P2 of FIG.
輝度情報演算部13は各画素(計測点32)の輝度デー
タと路面の基準輝度との差(差分値)を算出する。すな
わち、路面は通常は略一定の音度を有しており、この輝
度(路面基準輝度)はある一定の時間間隔では変化する
ものでなく、また計測領域により固定されるものである
。そこで、この基準輝度をあらかじめ又は随時に求めて
おき、これと各計測点の輝度データとを比較する。そし
て、例えば
路面より一定以上輝度の高い画素・・・+1路面と略同
−の輝度の画素 ・・・ O路面より一定以上輝度
の低い画素・・・−1として3値化する。そして、3値
化データは前影検出部15、ボンネット検出部16およ
び屋根検出部17に与えられる。なお、この3値化デー
タは第4図のブロックP3に示されている。The brightness information calculation unit 13 calculates the difference (difference value) between the brightness data of each pixel (measurement point 32) and the reference brightness of the road surface. That is, the road surface usually has a substantially constant sound intensity, and this brightness (road surface reference brightness) does not change at certain time intervals and is fixed depending on the measurement area. Therefore, this reference brightness is determined in advance or at any time, and compared with the brightness data of each measurement point. Then, for example, a pixel whose luminance is higher than a certain level than the road surface...+1 a pixel whose luminance is approximately the same as that of the road surface...O a pixel whose luminance is lower than the road surface by a certain level or more...-1 is converted into three values. The ternary data is then provided to the front shadow detection section 15, the hood detection section 16, and the roof detection section 17. Note that this ternarized data is shown in block P3 in FIG.
前影検出部15は路面より暗いパターンの部分(3値化
データ=−1の部分)を検出する。そして、この暗いパ
ターンの縦方向(車両の走行方向)および横方向(通路
の横断方向)の連続性を調べ、一定範囲にわたって連続
しているときは車両の前影であるとする。例えば第4図
のブロックP3において、計測領域の左側部分には3値
化データ=−1の部がひとまとまりに現れており、従っ
てこの部分には次の車両の前影がおることがわかる。The foreshadow detection unit 15 detects a pattern portion darker than the road surface (a portion with ternary data = -1). Then, the continuity of this dark pattern in the vertical direction (the direction in which the vehicle is traveling) and the horizontal direction (the direction across the path) is checked, and if it is continuous over a certain range, it is determined that it is the front shadow of the vehicle. For example, in block P3 of FIG. 4, a group of ternary data = -1 appears in the left side of the measurement area, and it can therefore be seen that the foreshadow of the next vehicle is present in this area.
これによって、車両の前影の位置が検出され、その結果
はマスタCPU9の車両認識部21に送られる。As a result, the position of the front shadow of the vehicle is detected, and the result is sent to the vehicle recognition unit 21 of the master CPU 9.
ボンネット検出部16は前影に続いて現れる車両のボン
ネット部を検出する。ここで、車両がカメラ方向に向っ
て走行しているときは、ボンネット部は車両の前影部の
次に現れるはずのものであり、また前影部とは輝度が異
なり、路面より高輝度であることが多い。そこで、前影
の漬方に連続する31a化データのまとまりを調べれば
よい。例えば第4図のブロックP3では、計測領域の右
側部分に前影に続いて3値化データ=+1のボンネット
部が現れている。The hood detection unit 16 detects the hood of the vehicle that appears following the front shadow. Here, when the vehicle is running toward the camera, the bonnet should appear next to the front shadow of the vehicle, and its brightness is different from the front shadow, being higher in brightness than the road surface. There are many cases. Therefore, what is necessary is to check the group of 31a data that is continuous with the direction of the foreshadow. For example, in block P3 in FIG. 4, a bonnet portion with ternary data = +1 appears following the foreshadow on the right side of the measurement area.
屋根検出部17はボンネット部に続いて現れる車両の屋
根部を検出する。例えば第4図のブロックP3では、計
測領域の中央部分に屋根部が現れている。そして、ボン
ネット検出部16および屋根検出部17の検出結果は、
前影検出部15の検出結果と同様に車両認識部21に送
られる。The roof detection section 17 detects the roof section of the vehicle that appears following the hood section. For example, in block P3 in FIG. 4, a roof appears in the center of the measurement area. The detection results of the bonnet detection section 16 and the roof detection section 17 are as follows.
Similar to the detection result of the foreshadow detection section 15, the detection result is sent to the vehicle recognition section 21.
車両認識部21は前影、ボンネット、屋根の検出結果に
もとづき、1台の車両であることを認識するものである
。すなわち、前影、ボンネン1〜、屋根のそれぞれのパ
ターンが車幅方向に一定範囲内であるか否かを調べ、一
定範囲内なら1台の車両とする。The vehicle recognition unit 21 recognizes that the vehicle is a single vehicle based on the detection results of the front shadow, bonnet, and roof. That is, it is checked whether the patterns of the front shadow, bonnet 1~, and roof are within a certain range in the vehicle width direction, and if they are within a certain range, one vehicle is determined.
車両移動追跡部22は一定時間間隔で検出される車両が
、停止又は前方に走行していると仮定し、その追跡を行
なう。すなわち、追跡中の車両については台数に入れず
、新しく追跡を開始した車両についてのみ計数をする。The vehicle movement tracking unit 22 assumes that a vehicle detected at regular time intervals is stopped or moving forward, and tracks the vehicle. That is, vehicles that are being tracked are not included in the number of vehicles, and only vehicles that have newly started tracking are counted.
車線判定部23は個々に検出した車両の中心(車幅方向
の中心)が、道路のどの車線にあるかを判定する。車両
計測部24は車線別に分類された車両を、各車線ごとに
計数する。計数値出力部25は各車線の走行車両数等の
データを操作卓5に出力する。The lane determining unit 23 determines in which lane of the road the center (center in the vehicle width direction) of each detected vehicle is located. The vehicle measurement unit 24 counts vehicles classified by lane for each lane. The count output unit 25 outputs data such as the number of vehicles traveling in each lane to the console 5.
次に、第1図、第3図ないし第5図を参照して、本発明
方式の作用を説明する。Next, the operation of the system of the present invention will be explained with reference to FIGS. 1 and 3 to 5.
VTR2からのアナログ画像信号は、A/D変換器11
によって例えば256階調のディジタル輝度データに変
換される(ステップ102)。そして、画素抽出部12
により画素ごとの輝度データが抽出された後に、輝度演
算部13によって路面基準輝度との差(差分値)が画素
ごとに算出される(ステップ103)。このようにして
得られた画素ごとの差分値データは、3値化演算部14
においてr+1J(明るい)、「O」 (中くらい)、
r−1J (暗い)の3値化データに変換される(ス
テップ106)。The analog image signal from the VTR 2 is sent to the A/D converter 11.
For example, it is converted into digital luminance data of 256 gradations (step 102). Then, the pixel extraction unit 12
After the luminance data for each pixel is extracted, the luminance calculation unit 13 calculates the difference (difference value) from the road surface reference luminance for each pixel (step 103). The difference value data for each pixel obtained in this way is sent to the ternarization calculation unit 14.
r+1J (bright), "O" (medium),
It is converted into r-1J (dark) ternarized data (step 106).
次に、311!i化データは前影検出部15に送られ、
ここで各画素の3値化データが路面より暗いが否か検出
される(ステップ108)。すなわち、実施例の場合に
は、第4図のブロックP3に示す如く路面部分の3値化
データは「O」となっているので、3値化データが「−
1」の部分が検出されることになる。そして、このよう
にして検出された暗い部分が縦方向および横方向に連続
しているか否かを調べる(ステップ110)。このとき
、例えば計測領域31を第5図(A)の如く設定すると
、第5図(B)の如く横方向に複数台の車両が並ぶこと
がある。ところが、この車両の前影は第5図(B)に黒
く塗りつ、Sして示したように、矩形状であって車両ご
とに離れている。従って、矩形にまとまった暗い部分の
ひとまとまりを車両の前影として認識できることになる
(ステップ112)。Next, 311! The i-ized data is sent to the foreshadow detection section 15,
Here, it is detected whether the ternary data of each pixel is darker than the road surface (step 108). That is, in the case of the embodiment, since the ternarized data of the road surface portion is "O" as shown in block P3 of FIG. 4, the ternarized data is "-".
1" will be detected. Then, it is checked whether the dark areas detected in this way are continuous in the vertical and horizontal directions (step 110). At this time, for example, if the measurement area 31 is set as shown in FIG. 5(A), a plurality of vehicles may be lined up laterally as shown in FIG. 5(B). However, the front shadows of these vehicles are rectangular and are spaced apart from each other, as shown in black and marked S in FIG. 5(B). Therefore, a rectangular group of dark parts can be recognized as the foreshadow of the vehicle (step 112).
また、3値化データはボンネット検出部16および屋根
検出部17にも送られる。そして、ここでボンネットの
検出および屋根の検出がなされる(ステップ114)。The ternary data is also sent to the bonnet detection section 16 and the roof detection section 17. Then, the bonnet and the roof are detected (step 114).
ここで、車両が路面をカメラ方向に向って走行している
か、又は停止しているものと仮定すると、ボンネットは
前影の後方において必ず出現し、屋根はボンネットの後
方において必ず出現するものである。また、ボンネット
、屋根の輝度は前影の輝度よりも高く、また路面の輝度
よりも高いことが多い。但し、その輝度は路面の輝度に
比べて一定していない。そこで、前影の次に輝度の高い
パターン、輝度の乱れるパターンがあるか否かを調べる
ことにより、車両のボンネット部および屋根部を検出で
きる。Here, assuming that the vehicle is running on the road toward the camera or is stopped, the hood will always appear behind the front shadow, and the roof will always appear behind the hood. . Further, the brightness of the hood and roof is higher than the brightness of the front shadow, and is often higher than the brightness of the road surface. However, the brightness is not constant compared to the brightness of the road surface. Therefore, the bonnet and roof of the vehicle can be detected by checking whether there is a pattern with the highest brightness next to the foreshadow or a pattern with disordered brightness.
これら検出部15〜17による検出結果は、次の車両認
識部21に送られる。そして、検出された車両の前影、
ボンネット部、屋根部が、横方向の一定範囲内に現れて
いるか否かの判定がなされる(ステップ116)。すな
わち、第5図(B)に示す如く各車両ごとの前影、ボン
ネット部、屋根部は、それぞれ横方向の一定範囲内に現
れるはずでおるので、これにより1台の車両として認識
することができることになる(ステップ)。The detection results by these detection units 15 to 17 are sent to the next vehicle recognition unit 21. And the front shadow of the detected vehicle,
A determination is made as to whether the bonnet portion and the roof portion appear within a certain range in the lateral direction (step 116). In other words, as shown in Figure 5(B), the front shadow, bonnet, and roof of each vehicle should appear within a certain range in the lateral direction, so that it is possible to recognize them as one vehicle. You will be able to do it (step).
以上の処理が終了した後には、車両の追跡、車線Q判定
、車両の計測等がなされる。そして、計測の結果は操作
卓5のCRTk:おいて出力表示されることになる。After the above processing is completed, vehicle tracking, lane Q determination, vehicle measurement, etc. are performed. The measurement results are output and displayed on the CRTk: of the console 5.
本発明は上記の実施例に限定されるものではなく、種々
の変形が可能である。The present invention is not limited to the above embodiments, and various modifications are possible.
実施例では車両のバンパー下部の影を検出するようにし
ているが、これに限られるものではない。In the embodiment, the shadow under the bumper of the vehicle is detected, but the invention is not limited to this.
例えば、走行する車両を後方からカメラによって回影し
、車両後方にできる影を検出するようにしてもよく、側
方にできる影を検出するようにしてもよい。ざらに、車
両は路面上を走行するものに限らず、路側に駐車されあ
るいは駐車場に駐車されているものであってもよい。For example, a moving vehicle may be reflected by a camera from behind, and a shadow formed at the rear of the vehicle may be detected, or a shadow formed at the side may be detected. In general, the vehicle is not limited to one that runs on a road surface, but may be one that is parked on the roadside or in a parking lot.
カメラとしては、例えばCCTVカメラを用いることが
できるが、これに川られるものではなく、またVTRを
用いることも必須ではない。すなわち、カメラと画像処
理装置を直結し、オンライン・リアルタイムで処理する
こともできる。As the camera, for example, a CCTV camera can be used, but this is not the only option, and it is not essential to use a VTR. In other words, it is also possible to directly connect the camera and the image processing device and perform online real-time processing.
輝度データは28=256階調のものに限られず、24
=16階調、26=64階調等のいかなるものでもよい
。また、輝度データは3値化するものに限らず、4値化
、5値化等のいかなるものでもよい。The brightness data is not limited to 28=256 gradations, but 24
= 16 gradations, 26 = 64 gradations, etc. may be used. Furthermore, the brightness data is not limited to ternary data, and may be any type of data such as 4-value or 5-value data.
実施例では、車両のボンネット部と屋根部を検出するよ
うにしているが、これに限られるものではない。例えば
、ボンネット部と屋根部を一括して検出するようにして
もよく、ボンネット部と屋根部以外にバンパ一部をも検
出してもよく、場合によってはヘッドライト等の検出を
組み合せてもよい。In the embodiment, the hood and roof of the vehicle are detected, but the detection is not limited to this. For example, the bonnet and the roof may be detected all at once, a part of the bumper may be detected in addition to the bonnet and the roof, and in some cases detection of headlights, etc. may be combined. .
以上、詳細に説明した通り、本発明に係る車両認識方式
の第1のものによれば、車両の型式や塗色などにかかわ
りなくほぼ一定の輝度で現れる車両の影の部分を検出し
、これを車両の認識に用いるようにしたので、正確にこ
れを認識できる効果がある。As explained in detail above, according to the first vehicle recognition method according to the present invention, the shadow part of the vehicle that appears with almost constant brightness is detected regardless of the vehicle model, paint color, etc. Since this is used to recognize the vehicle, it is possible to accurately recognize the vehicle.
また、本発明に係る車両認識方式の第2のものによれば
、複数の車線にわたって車両の影の部分を検出し、これ
によって個々の車両を識別しながらボンネット部等の検
出と組み合せて車両を認識するようにしたので、2本の
車線にまたがって、あるいは車線を変更しながら走行す
る車両があったとしても、また複数の車線に2以上の車
両が並走しているときにも、これらを正確に認識できる
効果がある。Further, according to the second vehicle recognition method according to the present invention, the shadow portion of the vehicle is detected across a plurality of lanes, and this is used in combination with the detection of the hood etc. while identifying each vehicle. Now, even if there is a vehicle traveling across two lanes or changing lanes, or when two or more vehicles are running parallel to each other in multiple lanes, these vehicles will be recognized. It has the effect of accurately recognizing the
第1図は本発明方式の一実施例を説明するフローチャー
ト、第2図は第1図の実施例方式を適用した装置の基本
構成を示すブロック図、第3図は第2図の装置の要部の
詳細な構成を示すブロック図、第4図および第5図は第
1図ないし第3図に示す実施例方式の説明図である。
31・・・計測領域、32・・・計測点。
本発明方式を適用した装置の基本ブロック第 2
図FIG. 1 is a flowchart illustrating an embodiment of the method of the present invention, FIG. 2 is a block diagram showing the basic configuration of a device to which the embodiment method of FIG. 1 is applied, and FIG. 3 is a summary of the device of FIG. FIGS. 4 and 5 are block diagrams showing detailed configurations of the parts, and are explanatory diagrams of the embodiment system shown in FIGS. 1 to 3. 31...Measurement area, 32...Measurement point. Basic block 2 of the device to which the method of the present invention is applied
figure
Claims (1)
とにより得られる画像パターンから、輝度の異なるパタ
ーン部分を検出することにより前記車両を認識する車両
認識方式において、前記路面部分の基準輝度を下回る輝
度の前記パターン部分を、前記車両の影部分として検出
する第1のステップと、 前記影部分をはさんで前記路面部分の反対側にできる所
定の輝度の前記パターン部分を車両部分として検出する
第2のステップと、 前記第1および第2のステップにより検出された前記車
両の影部分および車両部分にもとづいて前記車両の存在
を認識する第3のステップとを備えることを特徴とする
車両認識方式。 2、前記車両は前記路面上を一定方向に走行している特
許請求の範囲第1項記載の車両認識方式。 3、前記影部分は前記車両のバンパーの下方にできる前
影部分である特許請求の範囲第1項記載の車両認識方式
。 4、前記車両の撮影はテレビカメラによりなされ、前記
画像パターンは前記テレビカメラによる撮影画像をディ
ジタル化して得られるディジタル画像パターンである特
許請求の範囲第1項記載の車両認識方式。 5、前記ディジタル画像パターンは前記撮影画像を3値
化して得られる特許請求の範囲第4項記載の車両認識方
式。 6、前記第2のステップは、前記車両のボンネット部分
を検出するステップと、前記車両の屋根部分を検出する
ステップとを有する特許請求の範囲第1項記載の車両認
識方式。 7、路面の全車線領域と、この路面の全車線領域を走行
する車両とを撮影することにより得られる画像パターン
から、輝度の異なるパターン部分を検出することにより
前記車両を認識する車両認識方式において、 前記路面部分の基準輝度を下回る輝度の前記パターン部
分を、前記車両の影部分として検出する第1のステップ
と、 前記影部分が前記路面の車線と横断方向に複数存在する
ときは、前記複数の影部分を前記車両ごとに識別する第
2のステップと、 前記第2のステップにより前記車両ごとに識別された前
記影部分をはさんで前記路面部分の反対側にできる所定
輝度の前記パターン部分を、前記車両ごとに識別された
前記車両部分として検出する第3のステップと、 前記第1のステップにより検出され前記第2のステップ
により識別された前記車両ごとの影部分と、前記第3の
ステップにより検出された前記車両ごとの車両部分にも
とづいて前記車両を認識する第4のステップと を備えることを特徴とする車両認識方式。 8、前記影部分は前記車両のバンパーの下方にできる前
影部分である特許請求の範囲第7項記載の車両認識方式
。 9、前記車両の撮影はテレビカメラによりなされ、前記
画像パターンは前記テレビカメラによる撮影画像をディ
ジタル化して得られるディジタル画像パターンである特
許請求の範囲第7項記載の車両認識方式。 10、前記ディジタル画像パターンは前記撮影画像を3
値化して得られる特許請求の範囲第9項記載の車両認識
方式。 11、前記第3のステップは、前記車両のボンネット部
分を検出するステップと、前記車両の屋根部分を検出す
るステップとを有する特許請求の範囲第7項記載の車両
認識方式。[Claims] 1. A vehicle recognition method that recognizes a vehicle by detecting pattern portions with different brightness from an image pattern obtained by photographing a road surface and a vehicle existing on the road surface, a first step of detecting the pattern portion with a brightness lower than a reference brightness of the road surface portion as a shadow portion of the vehicle; and the pattern having a predetermined brightness formed on the opposite side of the road surface portion with the shadow portion in between. a second step of detecting a part as a vehicle part; and a third step of recognizing the presence of the vehicle based on the vehicle's shadow part and the vehicle part detected in the first and second steps. A vehicle recognition method characterized by: 2. The vehicle recognition system according to claim 1, wherein the vehicle travels in a fixed direction on the road surface. 3. The vehicle recognition system according to claim 1, wherein the shadow portion is a front shadow portion formed below a bumper of the vehicle. 4. The vehicle recognition system according to claim 1, wherein the vehicle is photographed by a television camera, and the image pattern is a digital image pattern obtained by digitizing the image photographed by the television camera. 5. The vehicle recognition system according to claim 4, wherein the digital image pattern is obtained by ternarizing the photographed image. 6. The vehicle recognition method according to claim 1, wherein the second step includes the steps of detecting a bonnet portion of the vehicle and detecting a roof portion of the vehicle. 7. In a vehicle recognition method that recognizes a vehicle by detecting pattern portions with different brightness from an image pattern obtained by photographing the entire lane area of the road surface and a vehicle traveling on the entire lane area of the road surface. , a first step of detecting the pattern portion having a luminance lower than a reference luminance of the road surface portion as a shadow portion of the vehicle; when a plurality of the shadow portions exist on the road surface in a direction transverse to a lane, the plurality of shadow portions are detected; a second step of identifying a shadow portion of each vehicle in the second step; and a pattern portion of a predetermined brightness formed on the opposite side of the road surface portion across the shadow portion identified for each vehicle in the second step. a third step of detecting the vehicle part as the vehicle part identified for each vehicle; a shadow part of each vehicle detected in the first step and identified in the second step; and a fourth step of recognizing the vehicle based on the vehicle part of each vehicle detected in the step. 8. The vehicle recognition system according to claim 7, wherein the shadow portion is a front shadow portion formed below a bumper of the vehicle. 9. The vehicle recognition system according to claim 7, wherein the vehicle is photographed by a television camera, and the image pattern is a digital image pattern obtained by digitizing the image photographed by the television camera. 10. The digital image pattern divides the photographed image into 3
The vehicle recognition method according to claim 9, which is obtained by converting the vehicle into a value. 11. The vehicle recognition method according to claim 7, wherein the third step includes the steps of detecting a hood portion of the vehicle and detecting a roof portion of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62005753A JP2664054B2 (en) | 1987-01-13 | 1987-01-13 | Vehicle recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62005753A JP2664054B2 (en) | 1987-01-13 | 1987-01-13 | Vehicle recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS63174199A true JPS63174199A (en) | 1988-07-18 |
JP2664054B2 JP2664054B2 (en) | 1997-10-15 |
Family
ID=11619879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62005753A Expired - Fee Related JP2664054B2 (en) | 1987-01-13 | 1987-01-13 | Vehicle recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2664054B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5843798A (en) * | 1981-09-09 | 1983-03-14 | Mamoru Sugiura | Reagent for determining activity of kallikrein in human urine |
JPS60220497A (en) * | 1984-04-16 | 1985-11-05 | オムロン株式会社 | Signal discrimination circuit for traffic flow measuring apparatus |
-
1987
- 1987-01-13 JP JP62005753A patent/JP2664054B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5843798A (en) * | 1981-09-09 | 1983-03-14 | Mamoru Sugiura | Reagent for determining activity of kallikrein in human urine |
JPS60220497A (en) * | 1984-04-16 | 1985-11-05 | オムロン株式会社 | Signal discrimination circuit for traffic flow measuring apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2664054B2 (en) | 1997-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5847755A (en) | Method and apparatus for detecting object movement within an image sequence | |
CN101510356B (en) | Video detection system and data processing device thereof, video detection method | |
US20030190058A1 (en) | Apparatus and method for measuring queue length of vehicles | |
JPH05244596A (en) | Video image processor and vehicle detection method | |
JPH08329393A (en) | Preceding vehicle detector | |
JP3914447B2 (en) | Image-type vehicle detection system and image-type vehicle detection method | |
JPH11175883A (en) | Traffic volume measuring instrument and signal control device | |
JP3019901B2 (en) | Vehicle specification automatic measurement device | |
JPS63174199A (en) | Vehicle recognition system | |
JP2924063B2 (en) | Image processing type traffic flow measurement device | |
JPH0954891A (en) | Method for discriminating vehicle type by image processing and device therefor | |
JPH0757200A (en) | Method and device for recognizing travel course | |
JPH0991439A (en) | Object monitor | |
JPH11219493A (en) | Method for processing traffic information | |
JP2946620B2 (en) | Automatic number reading device with speed measurement function | |
JP3196559B2 (en) | Line recognition method | |
JP2000149181A (en) | Traffic stream measurement system | |
JPH04163249A (en) | Obstruction detecting device for vehicle | |
JP4055785B2 (en) | Moving object height detection method and apparatus, and object shape determination method and apparatus | |
JP2876493B2 (en) | Vehicle dynamics measurement method | |
JPH03250400A (en) | Traffic flow measuring instrument | |
JPH10302074A (en) | Device for detecting position of number plate | |
JP2735033B2 (en) | Lane change detection apparatus and method | |
JP2000048298A (en) | Vehicle detector | |
JP2000163692A (en) | Car type discriminating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |