JPH11353581A - Method and device for discriminating vehicle kind in the daytime - Google Patents

Method and device for discriminating vehicle kind in the daytime

Info

Publication number
JPH11353581A
JPH11353581A JP16092998A JP16092998A JPH11353581A JP H11353581 A JPH11353581 A JP H11353581A JP 16092998 A JP16092998 A JP 16092998A JP 16092998 A JP16092998 A JP 16092998A JP H11353581 A JPH11353581 A JP H11353581A
Authority
JP
Japan
Prior art keywords
vehicle
image
axis
daytime
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16092998A
Other languages
Japanese (ja)
Inventor
恭男 ▲櫛▼渕
Takao Kushibuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anritsu Corp
Original Assignee
Anritsu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anritsu Corp filed Critical Anritsu Corp
Priority to JP16092998A priority Critical patent/JPH11353581A/en
Publication of JPH11353581A publication Critical patent/JPH11353581A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To discriminate the kind of a vehicle with a high precision and to discriminate more vehicle kind. SOLUTION: The picture of a television camera is differentiated and is stored in a differential picture storage part 13. A road surface eliminating means 12a projects the differential picture and collects the luminance of the road surface to eliminate the road surface. A head detection means 12b detects the head position of a vehicle. A vehicle width detection means 12b detects the vehicle width of the vehicle. A rear detection means 12d detects the rear position of the vehicle. A silhouette segmenting means 15a projects a partial picture to segment the silhouette of the vehicle. A part discrimination means 15b discriminates each part of the vehicle. A vehicle kind discrimination part 17 refers to features data of vehicles stored in a feature data memory 20 to discriminate the kind of the vehicle as a large-sized or small-sized vehicle and as a large-sized truck, a large-sized passenger car, a small-sized truck, or a small- sized passenger car based on the silhouette of the vehicle and the differential picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、測定地点における
車両の車種を判別する車種判別装置に係り、特に、昼間
における車種判別装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle type discriminating apparatus for discriminating a vehicle type at a measuring point, and more particularly to a vehicle type discriminating apparatus and method during daytime.

【0002】[0002]

【従来の技術】道路を走行する車両の交通流を監視する
車両検知装置により、混雑状況、通過台数、車両速度な
どが監視でき、道路の管理、計画や環境予測等に利用さ
れている。この車両検知装置は、カメラで撮像した車両
を所定の画像処理を施して上記各計測を行う。
2. Description of the Related Art A vehicle detecting device for monitoring the traffic flow of a vehicle running on a road can monitor the congestion status, the number of vehicles passing therethrough, the vehicle speed, and the like, and is used for road management, planning, environmental prediction, and the like. The vehicle detection device performs a predetermined image processing on a vehicle imaged by a camera and performs each of the above measurements.

【0003】例えば、特開平5−290293号公報に
開示されている第1の発明は、路上の所定領域をカメラ
装置で撮影し、この領域内のエッジ部を取り出し車両の
先頭位置を検出する構成である。また、特開平6−33
7998号公報に開示されている第2の発明は、車両監
視カメラで撮影した画像にエッジ検出処理と、移動情報
検出処理を実行する構成であり、撮影環境や車両形態の
変動に対処して、車両の動体計測を高精度化したもので
ある。
For example, in a first invention disclosed in Japanese Patent Application Laid-Open No. 5-290293, a predetermined area on a road is photographed by a camera device, an edge portion in this area is taken out, and a leading position of the vehicle is detected. It is. Also, Japanese Patent Application Laid-Open No. 6-33
The second invention disclosed in Japanese Patent No. 7998 is a configuration for executing edge detection processing and movement information detection processing on an image captured by a vehicle monitoring camera. This is a highly accurate moving object measurement of a vehicle.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
第1発明では、画像の所定領域のみエッジ処理をして先
頭を検出する構成であり、先頭だけでは車種を正確に判
別することができなかった。また、画像中に車両等の影
の成分があると、この影の影響を受けて車両の頭部位置
を正確に検出することができない。また、第2の発明で
は、時系列データを用いて車両の動体計測するため、周
囲の環境が急変(例えば、日照状態)すると、対応でき
ない。また、車種を判別できない。交通流の監視におい
ては、車両の車種を正確に特定できる手段が望まれてい
る。
However, the first invention of the prior art employs a configuration in which edge processing is performed only on a predetermined area of an image to detect the head, and the vehicle type cannot be accurately determined only from the head. . Further, if there is a shadow component of a vehicle or the like in the image, the position of the head of the vehicle cannot be accurately detected due to the influence of the shadow. Further, in the second invention, since the moving object of the vehicle is measured using the time-series data, it cannot cope with a sudden change in the surrounding environment (for example, a sunshine state). Also, the vehicle type cannot be determined. In traffic flow monitoring, a means for accurately specifying the type of vehicle is desired.

【0005】本発明は、上記課題を解決するためになさ
れたものであり、車両の車種を高い判別精度で判別で
き、より多くの車種を判別できる昼間における車種判別
装置及び方法の提供を目的としている。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide a daytime vehicle type discriminating apparatus and method which can discriminate a vehicle type with high discrimination accuracy and can discriminate more vehicle types. I have.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明の車種判別装置は、請求項1記載のように、
昼間中の道路走行車両の車種を判別する車種判別装置で
あって、走行車両を撮像するカメラ(1)と、前記カメ
ラで撮像された画像に基づき、路面を除去するとともに
車両先頭位置を検出し、該車両先頭位置における車幅及
び車両のシルエットに基づき車種を判別する処理部
(2)と、を備えたことを特徴とする。
In order to achieve the above object, a vehicle type discriminating apparatus according to the present invention comprises:
A vehicle type discriminating device for discriminating a vehicle type of a road traveling vehicle during daytime, comprising: a camera (1) for capturing an image of a traveling vehicle; and removing a road surface and detecting a vehicle head position based on an image captured by the camera. A processing unit (2) for determining a vehicle type based on a vehicle width and a vehicle silhouette at the vehicle head position.

【0007】また、請求項2記載のように、前記処理部
(2)は、前記画像を微分し、該微分画像に基づき画像
上から路面を除去する路面除去手段(12a)を備えた
構成としてもよい。
According to a second aspect of the present invention, the processing section (2) includes a road surface removing means (12a) for differentiating the image and removing a road surface from the image based on the differentiated image. Is also good.

【0008】また、請求項3記載のように、前記路面除
去手段(12a)は、前記微分した画像をX軸及びY軸
方向に射影して路面を判断し除去する構成としてもよ
い。
The road surface removing means (12a) may project the differentiated image in the X-axis and Y-axis directions to determine and remove the road surface.

【0009】また、請求項4記載のように、前記路面除
去手段(12a)は、前記微分した画像をX軸及びY軸
方向に射影して各軸の射影値の平均値を求め、前記X軸
あるいはY軸において前記平均値より低い微分値を有す
る範囲を路面と判断して除去する構成としてもよい。
Further, as set forth in claim 4, the road surface removing means (12a) projects the differentiated image in the X-axis and Y-axis directions to obtain an average value of projection values of each axis, and A configuration in which a range having a differential value lower than the average value on the axis or the Y axis may be determined as a road surface and removed.

【0010】また、請求項5記載のように、前記路面除
去手段(12a)は、前記微分した画像をX軸及びY軸
方向に射影して各軸の射影値の平均値を求め、前記X軸
あるいはY軸において前記平均値より低い微分値を有す
る範囲の輝度値を収集し、存在量が最も多い順にソート
しその上位から一定順位もしくは一定値までの輝度値を
中心として所定範囲の輝度値を有する画素を路面と判断
する構成とすることもできる。
Further, the road surface removing means (12a) projects the differentiated image in the X-axis and Y-axis directions to obtain an average value of the projection values of each axis, and Luminance values in a range having a differential value lower than the average value on the Y axis or the Y axis are collected, sorted in the order of most abundance, and the luminance values in a predetermined range centered on the luminance values from the top to a certain rank or a certain value. May be determined to be a road surface.

【0011】また、請求項6記載のように、前記処理部
(2)は、前記画像を微分し、該微分画像に基づき画像
上から路面を除去することにより車両の仮の車幅及び車
両存在位置候補を求め、該存在位置候補の画像をY軸に
射影して、所定以上の射影値を有するY軸ラインを収集
して仮の先頭候補群とし、該仮の先頭候補群のY軸ライ
ンのうち最も画像下部位置のY軸ラインを車両の仮の先
頭位置と判断する先頭検知手段(12b)を備えた構成
としてもよい。
According to a sixth aspect of the present invention, the processing unit (2) differentiates the image and removes a road surface from the image based on the differentiated image, thereby providing a temporary vehicle width and vehicle presence. A position candidate is obtained, an image of the existence position candidate is projected on the Y-axis, Y-axis lines having a projection value equal to or more than a predetermined value are collected to form a temporary head candidate group, and a Y-axis line of the temporary head candidate group is collected. Of these, a head detection unit (12b) for determining the Y-axis line at the lowermost position of the image as the temporary head position of the vehicle may be provided.

【0012】また、請求項7記載のように、前記先頭検
知手段(12b)は、前記仮の先頭候補として得られた
Y軸ラインに基づき、一定範囲の輝度射影値をソート
し、もっとも輝度値の暗い順に所定順位までのなかで、
前記仮の先頭候補より画像下部に位置しているY軸ライ
ンが検出された場合には、該検出されたY軸ラインを車
両の先頭位置と判断する構成としてもよい。
According to a seventh aspect of the present invention, the head detecting means (12b) sorts a predetermined range of luminance projection values based on the Y-axis line obtained as the tentative head candidate. In the order of darkness up to the predetermined order,
If a Y-axis line located at the lower part of the image from the temporary head candidate is detected, the detected Y-axis line may be determined as the head position of the vehicle.

【0013】また、請求項8記載のように、前記処理部
(2)は、検出された車両先頭位置に基づき、該車両先
頭位置の画像を微分して車両先頭位置に基づき一定範囲
でX軸射影し、一定値以上の射影値を左右から求めるこ
とにより車幅と判断する車幅検知手段(12c)を備え
た構成としてもよい。
The processing section (2) differentiates the image of the vehicle head position based on the detected vehicle head position and performs X-axis control within a certain range based on the vehicle head position. The vehicle may be configured to include a vehicle width detection unit (12c) that determines the vehicle width by projecting and obtaining a projection value equal to or greater than a certain value from the left and right.

【0014】また、請求項9記載のように、前記処理部
(2)は、前記検出された車幅に対応して設定されてい
る車長に基づき、一定範囲内の長さで、その区間をY軸
に微分射影し一定値(下限付き平均値)以上の射影値を
得た最も遠方のY座標を車両の後部位置と判断する後部
検知手段(12d)を備えた構成とすることもできる。
According to a ninth aspect of the present invention, the processing section (2) has a length within a certain range based on a vehicle length set in correspondence with the detected vehicle width. May be differentiated onto the Y-axis to obtain a projection value equal to or greater than a certain value (lower limit average value). .

【0015】また、請求項10記載のように、前記後部
検知手段(12d)は、前記車両の先頭位置におけるY
軸の車幅部分ラインの重心位置と、Y軸のライン毎の微
分値の重心位置のX軸方向へのずれが所定範囲内である
場合に前記判断された後部位置が該車両の後部位置であ
ると判断する一方、前記所定範囲を超える場合には後続
車両であるとし車両後部として検知せず条件を満たす次
候補を車両後部として検知する構成とすることもでき
る。
[0015] According to a tenth aspect of the present invention, the rear detecting means (12d) is configured to control the Y position at the head position of the vehicle.
When the deviation in the X-axis direction between the center of gravity of the vehicle width partial line of the axis and the center of gravity of the differential value for each line of the Y axis is within a predetermined range, the determined rear position is the rear position of the vehicle. On the other hand, if it is determined that there is a vehicle, and the vehicle exceeds the predetermined range, it is determined that the vehicle is a following vehicle, and the next candidate satisfying the condition is not detected as the vehicle rear, but may be detected as the vehicle rear.

【0016】本発明の請求項11の車種判別装置は、昼
間中の道路走行車両の車種を判別する車種判別装置であ
って、走行車両を撮像するカメラ(1)と、前記カメラ
で撮像された画像に基づき、画像中における車両の先頭
位置、車幅、後部位置をそれぞれ判別する車両位置判定
部(12)と、前記車両位置判定部の判定情報に基づ
き、車両の各部位の存在位置を判別する車両部位判定部
(15)と、前記車両部位判定部で判定された車両の各
部位の情報に基づき車種を判別する車種判定部(17)
と、を備えたことを特徴とする。
A vehicle type discriminating apparatus according to an eleventh aspect of the present invention is a vehicle type discriminating apparatus for discriminating a vehicle type of a road traveling vehicle during daytime, wherein a camera (1) for imaging the traveling vehicle and an image captured by the camera. A vehicle position determining unit (12) for determining a head position, a vehicle width, and a rear position of the vehicle in the image based on the image, and determining an existing position of each part of the vehicle based on the determination information of the vehicle position determining unit. And a vehicle type determining unit (17) for determining a vehicle type based on information on each part of the vehicle determined by the vehicle region determining unit.
And characterized in that:

【0017】また、請求項12記載のように、前記車両
位置判定部(12)は、前記カメラで撮像された画像に
基づき、前記画像を微分し、該微分画像に基づき画像上
から路面を除去する路面除去手段(12a)と、前記画
像を微分し、該微分画像に基づき画像上から路面を除去
することにより車両の仮の車幅及び車両存在位置候補を
求め、該存在位置候補の画像をY軸に射影して、所定以
上の射影値を有するY軸ラインを収集して仮の先頭候補
とし、該仮の先頭候補群のY軸ラインのうち最も画像下
部位置のY軸ラインを車両の仮の先頭位置と判断する先
頭検知手段(12b)と、前記仮の先頭位置とその近辺
の輝度射影値に基づき先頭位置を判断する手段と、検出
された車両先頭位置に基づき、該車両先頭位置の画像を
微分して車両先頭位置に基づき、一定範囲でX軸射影し
一定値以上の射影値を左右から求めることにより車幅を
求める車幅検知手段(12c)と、前記検出された車幅
に対応して設定されている車長に基づき車両の後部位置
を判断する後部検知手段(12d)と、前記路面除去後
における車両の先頭位置、車幅、及び後部位置の各情報
に基づき、車両の各部位を判定する車両部位判定部(1
5)とを備えた構成としてもよい。
According to a twelfth aspect of the present invention, the vehicle position judging section (12) differentiates the image based on an image taken by the camera, and removes a road surface from the image based on the differentiated image. Road surface removing means (12a) for performing a differentiation on the image, removing a road surface from the image based on the differentiated image to obtain a tentative vehicle width and a vehicle existing position candidate, and obtaining the image of the existing position candidate. Projected to the Y-axis, Y-axis lines having a projection value equal to or greater than a predetermined value are collected and set as temporary leading candidates, and the Y-axis line at the lowermost position of the image among the Y-axis lines of the temporary leading candidate group is A head detecting means (12b) for determining a temporary head position; a means for determining a head position based on the temporary head position and a luminance projection value in the vicinity thereof; and a vehicle head position based on the detected vehicle head position. Differentiate the image of the head of the vehicle The vehicle width detecting means (12c) for obtaining the vehicle width by projecting the X axis in a certain range based on the position and obtaining a projection value equal to or more than a certain value from the left and right, and is set corresponding to the detected vehicle width. Rear detection means (12d) for determining the rear position of the vehicle based on the vehicle length; and a vehicle part for determining each part of the vehicle based on the information of the head position, the vehicle width, and the rear position of the vehicle after the road surface is removed. Judgment unit (1
5).

【0018】また、請求項13記載のように、前記車両
部位判定部(15)は、画像を微分した微分画像に基づ
き検出された車両の後部位置の左端のエッジの左端及び
右端のエッジの右端にそれぞれのY軸座標で連続するエ
ッジを車両の左端、及び右端と判断し車両の先頭位置に
至るまでの間で車両のシルエットを切り出すシルエット
切り出し手段(15a)を備えた構成としてもよい。
According to a thirteenth aspect of the present invention, the vehicle part judging section (15) includes a left end of a left end edge of a rear position of the vehicle and a right end of a right end edge detected based on a differentiated image obtained by differentiating the image. It is also possible to provide a silhouette cutting means (15a) for judging edges continuous in the respective Y-axis coordinates as the left end and the right end of the vehicle and cutting out the silhouette of the vehicle until reaching the head position of the vehicle.

【0019】また、請求項14記載のように、前記シル
エット切り出し手段(15a)は、前記微分画像をY軸
方向に射影した微分値に基づきX軸方向に一定以上の微
分値で連続するラインを有効エッジと判断し、車両後部
の有効エッジの中の最も左端のエッジの左端及び最も右
端のエッジの右端に対し画像下部にかけて少なくとも幅
が広がる有効エッジを車両の左端、及び右端と判断し車
両の先頭位置に至るまでの間で車両のシルエットを切り
出す構成としてもよい。
According to a fourteenth aspect of the present invention, the silhouette extracting means (15a) forms a line continuous at a certain or more differential value in the X-axis direction based on a differential value obtained by projecting the differential image in the Y-axis direction. It is judged as an effective edge, and an effective edge that extends at least to the lower part of the image with respect to the left end of the leftmost edge and the right end of the rightmost edge among the effective edges at the rear of the vehicle is judged as the left end and the right end of the vehicle A configuration may be employed in which the silhouette of the vehicle is cut out until the head position is reached.

【0020】また、請求項15記載のように、前記車両
部位判定部(15)は、前記切り出されたシルエットの
車幅と車長の比に基づき、車両を車頭部分(ボンネット
の高さ)、ボンネット部分、フロントガラス部分、屋根
以降の後方部分、の各部位を判別する部位判定手段(1
5b)を備えた構成としてもよい。
According to a fifteenth aspect of the present invention, the vehicle part judging section (15) sets the vehicle into a head portion (height of a hood) based on a ratio of a vehicle width to a vehicle length of the cut-out silhouette. A part determining means (1) for determining each part of a bonnet part, a windshield part, and a rear part after a roof.
5b).

【0021】また、請求項16記載のように、前記部位
判定手段(15b)は、前記シルエットに基づく部位判
定に加え、前記カメラで撮像された画像を微分した微分
画像をY軸方向に射影して得られたエッジによる車幅と
車長の比に基づき車両の各部位を判定する構成としても
よい。
According to a sixteenth aspect of the present invention, in addition to the part determination based on the silhouette, the part determination means (15b) projects a differential image obtained by differentiating an image captured by the camera in the Y-axis direction. Each part of the vehicle may be determined based on the ratio between the vehicle width and the vehicle length based on the edge obtained as described above.

【0022】また、請求項17記載のように、予め車種
別の特徴データが格納された特徴データメモリ(20)
を備え、前記車種判定部(17)は、前記車両部位判定
部の判定情報を、前記特徴データメモリの特徴データを
参照して車種を判定する構成としてもよい。
According to a seventeenth aspect of the present invention, a feature data memory (20) in which feature data for each vehicle type is stored in advance.
The vehicle type determination unit (17) may be configured to determine the vehicle type by referring to the determination information of the vehicle part determination unit with reference to the characteristic data in the characteristic data memory.

【0023】また、請求項18記載のように、前記車種
判定部(17)は、車種判定の都度、該判定時の判定情
報を、前記特徴データメモリ(20)に蓄積記憶してい
く構成としてもよい。
Further, the vehicle type determining section (17) stores the determination information at the time of the vehicle type determination in the characteristic data memory (20) every time the vehicle type is determined. Is also good.

【0024】また、請求項19記載のように、前記車種
判定部(17)は、前記車両部位判定部(15)で判別
された車両の先頭位置における車幅及び/又は各部位の
面積に基づき、車両が大型車両であるか小型車両である
かを判別する構成としてもよい。
According to a nineteenth aspect of the present invention, the vehicle type determining section (17) is based on the vehicle width and / or the area of each part at the head position of the vehicle determined by the vehicle part determining section (15). Alternatively, it may be configured to determine whether the vehicle is a large vehicle or a small vehicle.

【0025】また、請求項20記載のように、前記車種
判定部(17)は、判別結果が大型車両であるときに、
フロントガラスとボンネットの面積比に基づき大型貨物
車両であるか大型乗用車両であるかを判別する構成とし
てもよい。
According to a twentieth aspect of the present invention, the vehicle type judging section (17) determines whether the vehicle type is a large vehicle when the result of the judgment is a large vehicle.
It may be configured to determine whether the vehicle is a large cargo vehicle or a large passenger vehicle based on the area ratio between the windshield and the hood.

【0026】また、請求項21記載のように、前記車種
判定部(17)は、判別結果が小型車両であるときに、
車幅と車長の比及び/又はボンネットの高さに基づき小
型貨物車両であるか小型乗用車両であるかを判別する構
成としてもよい。
According to a twenty-first aspect, when the result of the determination is that the vehicle is a small vehicle,
It may be configured to determine whether the vehicle is a small cargo vehicle or a small passenger vehicle based on the ratio of the vehicle width to the vehicle length and / or the height of the hood.

【0027】本発明の車種判別方法は、請求項22記載
のように、昼間中の道路走行車両の車種を判別する車種
判別方法であって、走行車両をカメラで撮像し、前記カ
メラで撮像された画像を微分し、該微分画像をX軸及び
Y軸方向に射影して路面を判断し除去した後に、車両先
頭位置の車幅、車両のシルエットに基づき車種を判別す
ることを特徴とする。
According to a twenty-second aspect of the present invention, there is provided a vehicle type determining method for determining a vehicle type of a road traveling vehicle during daytime, wherein the traveling vehicle is imaged by a camera, and the vehicle is imaged by the camera. After the differentiated image is differentiated, the differentiated image is projected in the X-axis and Y-axis directions to determine and remove the road surface, and then the vehicle type is determined based on the vehicle width at the head position of the vehicle and the silhouette of the vehicle.

【0028】また、請求項23記載のように、前記微分
した画像をX軸及びY軸方向に射影して射影値の各軸の
平均値を求め、前記X軸あるいはY軸において前記平均
値より低い微分値を有する範囲を路面と判断する構成と
してもよい。
Further, as set forth in claim 23, the differentiated image is projected in the X-axis and Y-axis directions to obtain an average value of the projection values in each axis, and the average value in the X-axis or Y-axis is calculated from the average value. A configuration in which a range having a low differential value is determined as a road surface may be adopted.

【0029】また、請求項24記載のように、前記微分
した画像をX軸及びY軸方向に射影して各軸の射影値の
平均値を求め、前記X軸あるいはY軸において前記平均
値より低い微分値を有する範囲の輝度値を収集し、存在
量が最も多い輝度値順に一定順位までもしくは一定値を
中心として所定範囲の輝度値を有する画素を路面と判断
する構成としてもよい。
Further, as set forth in claim 24, the differentiated image is projected in the X-axis and Y-axis directions to determine the average value of the projection values of each axis, and the average value is calculated from the average value in the X-axis or Y-axis. A configuration may be adopted in which luminance values in a range having a low differential value are collected, and a pixel having a luminance value in a predetermined range up to a certain order or with a certain value as the center in the descending order of the luminance value is determined as a road surface.

【0030】また、請求項25記載のように、前記微分
した画像に基づき画像上から路面を除去することにより
車両の仮の車幅及び車両存在位置候補を求め、該存在位
置候補の画像をY軸に射影して、所定以上の射影値を有
するY軸ラインを収集して仮の先頭候補とし、該仮の先
頭候補のY軸ラインのうち最も画像下部位置のY軸ライ
ンを車両の先頭位置と判断する構成としてもよい。
According to a twenty-fifth aspect of the present invention, a temporary vehicle width and a candidate vehicle position are obtained by removing a road surface from the image based on the differentiated image. The Y axis line having a projection value equal to or greater than a predetermined value is collected as a temporary head candidate, and the Y axis line at the lowermost position of the image among the Y axis lines of the temporary head candidate is set as the head position of the vehicle. May be determined.

【0031】また、請求項26記載のように、前記仮の
先頭候補として得られたY軸ライン輝度射影値をソート
し、もっとも輝度値の暗い順に所定順位までのなかで、
前記仮の先頭候補より画像下部の仮の先頭位置より一定
範囲内で位置しているY軸ラインが検出された場合に
は、該検出されたY軸ラインを車両の先頭位置と判断す
る構成としてもよい。
Further, the Y-axis line luminance projection values obtained as the tentative head candidate are sorted, and the Y-axis line luminance projection values are sorted in the order from the darkest luminance value to a predetermined order.
When a Y-axis line located within a certain range from the temporary head position below the image from the temporary head candidate is detected, the detected Y-axis line is determined to be the head position of the vehicle. Is also good.

【0032】また、請求項27記載のように、前記画像
を微分して車両先頭位置に基づき、一定範囲でX軸射影
し一定値(下限付き平均値)以上の射影値を左右から求
め、車両先頭位置における車幅を求める構成としてもよ
い。
According to a twenty-seventh aspect of the present invention, the image is differentiated and the X-axis is projected in a certain range based on the vehicle head position, and a projection value equal to or more than a certain value (lower limit average value) is obtained from the left and right. A configuration in which the vehicle width at the head position is obtained may be adopted.

【0033】また、請求項28記載のように、前記検出
された車幅に対応して設定されている車長に基づき車両
の後部位置を求め、前記車両の先頭位置におけるY軸の
車幅部分ラインの重心位置と、Y軸のライン毎の微分値
の重心位置のX軸方向へのずれが所定範囲内である場合
に前記判断された後部位置が該車両の後部位置であると
判断する一方、前記所定範囲を超える場合には後続車両
であると車両後部として検知せず、条件を満たす次候補
を車両後部として検知する構成とすることもできる。
According to a twenty-eighth aspect of the present invention, a rear portion of the vehicle is determined based on a vehicle length set in correspondence with the detected vehicle width, and a vehicle width portion of the Y axis at a leading position of the vehicle is determined. When the deviation in the X-axis direction between the barycenter position of the line and the barycenter position of the differential value of each line on the Y axis is within a predetermined range, it is determined that the determined rear position is the rear position of the vehicle. Alternatively, a configuration may be adopted in which, when the predetermined range is exceeded, the subsequent candidate satisfying the condition is not detected as the rear of the vehicle but is detected as the rear of the vehicle.

【0034】また、請求項29記載のように、前記微分
画像をY軸方向に射影した微分値に基づきX軸方向に一
定以上の微分値で連続するラインを有効エッジと判断
し、車両後部の有効エッジの中の左端のエッジの左端及
び右端のエッジの右端に対し画像下部にかけて少なくと
も幅が広がる有効エッジを車両の左端、及び右端と判断
し車両の先頭位置に至るまでの間で車両のシルエットを
切り出した後、前記切り出されたシルエットの車幅と車
長の比に基づき、車両を車頭部分(ボンネットの高
さ)、ボンネット部分、フロントガラス部分、屋根以降
の後方部分、の各部位を判別する構成としてもよい。
According to a twenty-ninth aspect, a line that is continuous with a certain differential value or more in the X-axis direction is determined as an effective edge based on a differential value obtained by projecting the differential image in the Y-axis direction. The effective edge, which extends at least to the lower part of the image from the left edge of the left edge and the right edge of the right edge of the effective edges to the lower part of the image, is determined to be the left edge and the right edge of the vehicle, and the silhouette of the vehicle until the leading edge of the vehicle And then, based on the ratio of the car width to the car length of the cut out silhouette, the vehicle is distinguished from its head portion (hood height), hood portion, windshield portion, and rear portion after the roof. It is good also as a structure which performs.

【0035】また、請求項30記載のように、前記判別
された車両の先頭位置における車幅と、各部位のデータ
に基づき、車両が大型車両であるか小型車両であるか、
及び大型貨物車両であるか大型乗用車両であるか、及び
小型貨物車両であるか小型乗用車両であるかを判別する
構成としてもよい。
According to a thirtieth aspect of the present invention, whether the vehicle is a large vehicle or a small vehicle is determined based on the determined vehicle width at the head position and data of each part.
It may be configured to determine whether the vehicle is a large cargo vehicle or a large passenger vehicle, and whether the vehicle is a small cargo vehicle or a small passenger vehicle.

【0036】上記構成によれば、テレビカメラ1で遠方
から接近する移動体の交通流の画像を撮影し、この画像
に基づき車種を判定する。処理部2は、カメラ1の画像
を微分し、微分画像に基づき路面を除去した後、車両の
先頭位置、車幅、後部位置を判断し、車両の各部位の情
報を得る。車幅及び各部位の情報に基づき車種を判別す
る。車種判別は、大型と小型を判別し、大型貨物、大型
乗用、小型貨物、小型乗用を判別する。
According to the above configuration, an image of a traffic flow of a moving body approaching from a distance is captured by the television camera 1, and the vehicle type is determined based on the captured image. The processing unit 2 differentiates the image of the camera 1, removes the road surface based on the differentiated image, determines the head position, the vehicle width, and the rear position of the vehicle, and obtains information on each part of the vehicle. The vehicle type is determined based on information on the vehicle width and each part. In the vehicle type determination, large and small vehicles are distinguished, and large cargo, large passenger, small cargo, and small passenger are distinguished.

【0037】[0037]

【発明の実施の形態】次に、本発明の昼間における車種
判別装置の実施形態を説明する。図1は、本発明の車種
判別装置が車種判別する対象としての道路を示す概要図
である。この車種判別装置は、道路上を通行する車両の
交通流を監視する車両検知装置に適用することができ
る。そして、この発明は車幅、車両のシルエットを基に
車種を判別しようとするものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of the daytime vehicle type discriminating apparatus according to the present invention will be described. FIG. 1 is a schematic diagram showing a road as an object for which the vehicle type discrimination device of the present invention discriminates a vehicle type. This vehicle type discrimination device can be applied to a vehicle detection device that monitors the traffic flow of a vehicle passing on a road. The present invention is intended to determine the vehicle type based on the vehicle width and the vehicle silhouette.

【0038】車両は道路C上で矢印方向に通行する。こ
の道路C上には所定高さ位置(例えば路上6〜8m)に
ITVカメラ1が設けられ、道路に沿った所定距離を撮
像する。ITVカメラ1は、道路C上に設置された支柱
P等に固定されている。
The vehicle travels on the road C in the direction of the arrow. The ITV camera 1 is provided at a predetermined height position (for example, 6 to 8 m on the road) on the road C, and captures an image of a predetermined distance along the road. The ITV camera 1 is fixed to a support P or the like installed on a road C.

【0039】図2は、ITVカメラ1が撮像した道路C
の画像を示す図である。画像の「地」位置には道路Cの
近距離部分が位置し、画像の「天」位置には道路Cの遠
距離部分が位置する。装置は、図2に示す所定範囲にお
ける2車線の路線C1,C2それぞれを走行する車両の
車種を判別する。ここで、ITVカメラ1は、2つの車
線C1,C2の中央位置上部に配置される。これにより
得られる画像は、図示のようにITVカメラ1側からみ
て車線C1を走行する車両D1については右側面が同時
に得られ、車線C2を走行する車両D2については左側
面も同時に得られる。
FIG. 2 shows a road C captured by the ITV camera 1.
FIG. A short distance portion of the road C is located at the “ground” position of the image, and a long distance portion of the road C is located at the “heaven” position of the image. The device determines the type of vehicle traveling on each of the two lanes C1 and C2 in the predetermined range shown in FIG. Here, the ITV camera 1 is disposed above the center of the two lanes C1 and C2. As shown in the figure, the right side of the vehicle D1 running on the lane C1 is obtained at the same time as viewed from the ITV camera 1 side, and the left side of the vehicle D2 running on the lane C2 is also obtained at the same time as shown in the figure.

【0040】図3は、本装置の全体構成を示すブロック
図である。装置は、パソコンなどのコンピュータハード
ウェアと、記憶部に記憶された車両判別プログラムのソ
フトウェアで構成され、ハードウェアが車両判別プログ
ラムを実行することにより後述する車両判別を行なう。
FIG. 3 is a block diagram showing the overall configuration of the present apparatus. The device is configured by computer hardware such as a personal computer and software of a vehicle determination program stored in a storage unit. The hardware executes the vehicle determination program to perform a vehicle determination described later.

【0041】図示のように、装置は、1台のITVカメ
ラ1と、パソコン等汎用のコンピュータPCで構成され
る。コンピュータPCは、CPUなどの処理部2と、R
AM,ROM等の画像メモリ3と、I/Fなどの周辺部
(不図示)を有する。コンピュータPCには、CRTな
どの表示部5が接続され、ITVカメラ1の画像、及び
車種判別処理中の画像、その他、コンピュータの操作内
容や設定内容が画面表示される。また、コンピュータP
Cには、キーボード等の操作部6が接続され、操作部6
を用いて各種操作及び設定入力される。
As shown in the figure, the apparatus comprises one ITV camera 1 and a general-purpose computer PC such as a personal computer. The computer PC includes a processing unit 2 such as a CPU,
It has an image memory 3 such as an AM and a ROM, and a peripheral portion (not shown) such as an I / F. A display unit 5 such as a CRT is connected to the computer PC, and an image of the ITV camera 1, an image during the vehicle type determination process, and other operation and setting contents of the computer are displayed on the screen. Computer P
An operation unit 6 such as a keyboard is connected to C.
Various operations and settings are input using.

【0042】画像メモリ3は、画像メモリで構成されI
TVカメラ1の映像信号を車両検出のタイミングで取り
込む。これに限らず、所定周期毎に複数の画像を保持し
た後に車両検出時の画像を抽出する構成としてもよい。
ここで、上記静止画の画像は、例えば、X,Y座標で6
40×480画素である(左右6m、前後20m程度が
撮像される)。この画像は、2車線それぞれに第1(第
2)フィールド画像として分割(640×240)され
る。各車線は、640×240の画素のうち、指定した
範囲(略中央位置)で200×150画素の画像を切り
出して車種判別に用いられる。この切り出された範囲の
画像は、小型車両の場合は車両全体が範囲内に収まる。
また、大型車両の場合は運転席部分及びその後方5m程
度が範囲内に納まる。
The image memory 3 is composed of an image memory
The video signal of the TV camera 1 is captured at the timing of vehicle detection. The present invention is not limited to this, and a configuration may be adopted in which a plurality of images are held at predetermined intervals and then an image at the time of vehicle detection is extracted.
Here, the image of the still image is, for example, 6 X and Y coordinates.
It is 40 × 480 pixels (images are taken about 6 m on the left and right and about 20 m on the front and back). This image is divided (640 × 240) into two lanes as a first (second) field image. For each lane, an image of 200 × 150 pixels is cut out from a 640 × 240 pixel within a designated range (substantially the center position) and used for vehicle type discrimination. In the case of a small vehicle, the image of the cut-out range fits in the entire vehicle.
In the case of a large vehicle, the driver's seat portion and about 5 m behind it fall within the range.

【0043】図4は、処理部2の内部構成を示すブロッ
ク図である。この処理部2は、各車線の車種を判定し、
また、車種別の通過台数を集計出力する。
FIG. 4 is a block diagram showing the internal configuration of the processing unit 2. This processing unit 2 determines the type of vehicle in each lane,
In addition, the total number of passing vehicles of each vehicle type is output.

【0044】ITVカメラ1の画像は、画像入力部10
に入力される。この画像は、例えば8ビットの濃淡階調
(0〜255の256階調)を有する。画像入力部10
は、車両通過検知時の画像をデジタルデータの静止画
(元画像と称す)として画像メモリ3に格納する。車両
検出は、例えば、画像の所定範囲(車線C1,C2のう
ち下半部)の複数画素それぞれの輝度値(例えば0〜2
55間での256階調のうちいずれの階調か)の時間変
化を検出し、変化が急であると車両の通過であると判断
する。なお、この車両検知の構成は一般に周知である。
このような画像処理に限らず、車線に超音波や赤外線な
どを照射し、その反射光で車両通過を検知する構成とし
てもよい。但し、この場合には超音波発生器及び受信器
などの検出器の構成が必要となる。
The image of the ITV camera 1 is input to an image input unit 10
Is input to This image has, for example, 8-bit light and shade gradations (256 gradations from 0 to 255). Image input unit 10
Stores the image at the time of vehicle passage detection in the image memory 3 as a digital image still image (referred to as an original image). The vehicle detection is performed, for example, on the basis of the luminance values (for example, 0 to 2) of a plurality of pixels in a predetermined range (the lower half of the lanes C1 and C2) of the image.
A time change of any of the 256 gray levels between 55 is detected, and if the change is rapid, it is determined that the vehicle is passing. The configuration of the vehicle detection is generally known.
Not limited to such image processing, a configuration may be adopted in which ultrasonic waves or infrared rays are irradiated onto the lane, and vehicle passing is detected by the reflected light. However, in this case, a configuration of a detector such as an ultrasonic generator and a receiver is required.

【0045】また、画像入力部10は、画像に基づき昼
夜を判定する機能を有している。昼夜判定は、画像メモ
リ3の画像を構成する全画素のなかから、予め設定した
複数画素での輝度値を計測して所定の閾値と比較するこ
とにより、昼であるか夜であるかを判定する。そして、
判定結果が昼である場合に、後段の各部を作動させて車
種判別を実行する。なお、判定結果が夜である場合には
不図示の各部を作動させて夜間における車種判別を実行
する。
The image input section 10 has a function of determining day or night based on an image. The day / night determination is performed by measuring the brightness value of a plurality of pixels set in advance from among all the pixels constituting the image in the image memory 3 and comparing the measured brightness value with a predetermined threshold value to determine whether the day or night. I do. And
If the result of the determination is daytime, the subsequent sections are activated to execute vehicle type determination. If the result of the determination is night, the various components (not shown) are operated to execute the vehicle type determination at night.

【0046】フィルタ部11では車種判別処理をする前
に、元画像をフィルタ処理し対象車線の車両のみ抽出す
る。
Before performing the vehicle type discriminating process, the filter unit 11 performs a filtering process on the original image to extract only the vehicles in the target lane.

【0047】車両位置判定部12は、前記フィルタ処理
後の元画像に基づき、車両が存在する位置を判定する。
この車両位置判定部12は、1)路面部分を除去する路
面除去手段12a、2)車両先頭部を検知する先頭検知
手段12b、3)車両先頭部の車幅を検知する車幅検知
手段12c、4)車両後部を検知する後部検知手段12
dを有する。
The vehicle position determining section 12 determines the position where the vehicle exists based on the original image after the filtering process.
The vehicle position determining unit 12 includes: 1) a road surface removing unit 12a for removing a road surface portion; 2) a head detecting unit 12b for detecting a vehicle leading portion; 3) a vehicle width detecting unit 12c for detecting a vehicle width of the vehicle leading portion; 4) Rear detection means 12 for detecting the rear of the vehicle
d.

【0048】1)路面除去について 車種判別をする為には、なるべく車両だけを画像から取
り出す前処理によってることが精度向上に繋がる。その
為、精度良く路面部分を除去することが必須となる。対
象画像は自然光の下の車両であるから、外乱光に影響さ
れない方法を取ることになる。画像のエッジ成分は輝度
成分と比較し、その時々の光の加減では影響を受けにく
いと言えるので、エッジ成分を使い路面部分を検出す
る。このため路面除去手段12aは、元画像を微分処理
し、この微分画像を微分画像記憶部13に格納する。ま
た、この微分値をX軸,Y軸射影し、X軸,Y軸射影値
の平均、及び各々の下限閾値を用い、それぞれの平均値
以下で、かつ下限閾値以下の部分を路面の輝度と判断し
てその輝度を収集する。そして、走査によりこの輝度を
有する画素を検出し、路面輝度と判断された値の画素を
取り除く処理を行う。
1) Removal of Road Surface In order to determine the type of vehicle, preprocessing for extracting only the vehicle from the image as much as possible leads to an improvement in accuracy. Therefore, it is essential to remove the road surface with high accuracy. Since the target image is a vehicle under natural light, a method not affected by disturbance light is used. The edge component of the image is compared with the luminance component, and it can be said that it is hardly affected by the level of light at that time. Therefore, the road surface portion is detected using the edge component. For this reason, the road surface removing means 12a performs a differentiation process on the original image, and stores the differentiated image in the differential image storage unit 13. Further, the differential value is projected on the X-axis and the Y-axis, and the average of the X-axis and the Y-axis projected values and the respective lower thresholds are used. Judge and collect the brightness. Then, a pixel having this luminance is detected by scanning, and a process of removing a pixel having a value determined to be road surface luminance is performed.

【0049】2)車両先頭検知について 車両の先頭部分は、エッジ成分が存在し、車両先頭部分
は多くの場合、車体の影がその部分に存在する。先頭検
知手段12bは、車両先頭位置として、まず車体の影が
存在すると仮定し、エッジと影を利用して車両先頭位置
を求める。
2) Detection of Vehicle Head The head of the vehicle has an edge component, and the vehicle head often has a shadow of the vehicle body in that part. The head detector 12b first assumes that a shadow of the vehicle body exists as the vehicle head position, and obtains the vehicle head position using the edge and the shadow.

【0050】3)車幅検知について 車幅検知手段12cは、先頭検知手段12bが検知した
車両先頭位置から車両先頭部分の車幅を求める。車幅は
微分値のX軸射影値のみを用いる。
3) Vehicle width detection The vehicle width detection means 12c calculates the vehicle width of the vehicle head from the vehicle head position detected by the head detection means 12b. The vehicle width uses only the X-axis projection value of the differential value.

【0051】4)車両後部検知について 大型車両は小型車両に比べ、車長は長い為に、後部検知
手段12dは、車幅検知手段12cで得られた車両の車
幅情報に基づき大型、小型の車種を仮に判断する。その
判断に基づき、車両の後部位置を推定する。
4) Detection of the rear part of a vehicle Since a large vehicle has a longer vehicle length than a small vehicle, the rear detecting means 12d uses a large and small vehicle based on the vehicle width information obtained by the vehicle width detecting means 12c. The vehicle type is temporarily determined. Based on the determination, the rear position of the vehicle is estimated.

【0052】車両部位判定部15は、車両のみが画像か
ら切り出された状態で車両の特徴を判断して車種判定の
ためのデータを生成する。シルエット切り出し手段15
aは、車両位置判定部12で判定された車両の先頭位
置、車幅、後部位置に基づき、車両のシルエット(外縁
線)を検出する。部位判定手段15bは、車幅と、車長
のデータと、シルエット検出時のデータに基づき、車両
の各部(ライト部分、ボンネット部分、フロントガラス
部分、屋根及びそれ以降の部分)を判別する。
The vehicle part determining section 15 determines the characteristics of the vehicle in a state where only the vehicle is cut out from the image and generates data for determining the type of the vehicle. Silhouette cutting means 15
“a” detects the silhouette (outer edge line) of the vehicle based on the head position, vehicle width, and rear position of the vehicle determined by the vehicle position determination unit 12. The part determining means 15b determines each part of the vehicle (light part, hood part, windshield part, roof, and the following parts) based on the vehicle width, vehicle length data, and data at the time of silhouette detection.

【0053】車種判定部17は、車幅、車長のデータ
と、車両部位判定部15で判定された車両の部位のデー
タ、及び特徴データメモリ20に格納されている車種別
の特徴情報に基づき、車両を大型車両と小型車両に分類
判定する。また、大型車両は、さらに大型乗用と大型貨
物に分類される。小型車両は、さらに小型乗用と、小型
貨物に分類される。台数集計部30は、判別された車両
を車種別に集計処理する。車種判別部17で判別された
車種、及び台数集計部30の集計結果は、表示部5に表
示出力される。また、図示しないプリンタや回線を介し
て他の処理手段に出力することができる。
The vehicle type determining unit 17 determines the vehicle width and the vehicle length, the data of the vehicle part determined by the vehicle part determining unit 15, and the characteristic information of the vehicle type stored in the characteristic data memory 20. The vehicle is classified into a large vehicle and a small vehicle. Heavy vehicles are further classified into large passenger and large cargo. Small vehicles are further classified as small passenger and small cargo. The number counting unit 30 counts the determined vehicles for each vehicle type. The vehicle type determined by the vehicle type determination unit 17 and the counting result of the number counting unit 30 are displayed on the display unit 5. Further, it can be output to other processing means via a printer or a line (not shown).

【0054】次に、上記構成における車種判別処理の一
連の流れをフローチャートを用いて説明する。図5は、
装置が実行する車種判別処理を示すフローチャートであ
る。ITVカメラ1が撮像した元画像(図6参照)は、
連続して画像入力部10に入力される。画像入力部10
は、入力された元画像を画像メモリ3に静止画として格
納する。なお、図6の画像には便宜上、所定の画像処理
(誤差拡散処理)を施してあるが、実際には各画素が所
定の濃淡階調(例えば256階調)を有する白黒画像で
ある。
Next, a series of flow of the vehicle type determination processing in the above configuration will be described with reference to a flowchart. FIG.
It is a flowchart which shows the vehicle type determination process which an apparatus performs. The original image captured by the ITV camera 1 (see FIG. 6)
The images are continuously input to the image input unit 10. Image input unit 10
Stores the input original image in the image memory 3 as a still image. Although the image in FIG. 6 has been subjected to predetermined image processing (error diffusion processing) for convenience, it is actually a black-and-white image in which each pixel has a predetermined gradation (for example, 256 gradations).

【0055】フィルタ部11は、画像メモリ3の元画像
をフィルタ処理する(SP2)。まず、大きなノイズ
(隣接車線の車等)を除去する。また、車種判別の為に
必要な領域は、小型車両の場合は、車両全体、大型車両
の場合は、運転席部分及びその後方5m程度であるの
で、それ以外の部分を取り除く。複数の車線(車道)を
区分するための白線上のデータは車種判定に対する影響
は少ない為、白線はマスク処理することにより除去す
る。
The filter section 11 filters the original image in the image memory 3 (SP2). First, a large noise (a car in an adjacent lane, etc.) is removed. The area required for the vehicle type determination is the entire vehicle in the case of a small vehicle, and the driver's seat portion and about 5 m behind the driver's seat in the case of a large vehicle, so other portions are removed. Since the data on the white line for dividing a plurality of lanes (lanes) has little effect on the vehicle type determination, the white line is removed by mask processing.

【0056】次に、車両位置判定部12は、前記画像入
力部10で撮像された静止画の画像(元画像と称す)に
基づき、車両が存在する位置を判定する(SP3)。静
止画像1枚で処理する方法は、時間差分で車両位置を判
定する方法に比べ、外乱に強く、車の速度に依存しない
精度が得られる利点がある。
Next, the vehicle position determining unit 12 determines the position where the vehicle is present based on the still image (referred to as the original image) captured by the image input unit 10 (SP3). The method of processing with a single still image has the advantage that it is more resistant to disturbance and can obtain accuracy independent of the speed of the vehicle, as compared with the method of determining the vehicle position based on the time difference.

【0057】始めに路面除去手段12aにより路面部分
が除去される。図7は、路面除去処理を示すフローチャ
ートである。路面除去処理は、車両存在部の選定する処
理(SA)、路面部分から路面輝度を収集する処理(S
B)、路面輝度の決定(SC)、路面部分の除去処理
(SD)に大別される。
First, the road surface portion is removed by the road surface removing means 12a. FIG. 7 is a flowchart showing the road surface removal processing. The road surface removal process includes a process of selecting a vehicle existing portion (SA) and a process of collecting road surface luminance from a road surface portion (S).
B), determination of road surface luminance (SC), and road surface portion removal processing (SD).

【0058】車両存在部の選定処理(SA)では、始め
に元画像を微分した微分画像(図8参照)を微分画像記
憶部13に格納する。図8の微分画像は、便宜上、白黒
反転処理及び誤差拡散処理を施してある。実際には各画
素が所定の濃淡階調(例えば256階調)を有する白黒
画像である。そして、路面除去手段12aは、微分画像
をX軸Y軸へ射影する(SA1)。
In the vehicle existence section selection process (SA), first, a differential image (see FIG. 8) obtained by differentiating the original image is stored in the differential image storage section 13. The differential image in FIG. 8 has been subjected to black-and-white inversion processing and error diffusion processing for convenience. Actually, each pixel is a black-and-white image having a predetermined gradation (for example, 256 gradations). Then, the road surface removing unit 12a projects the differential image on the X axis and the Y axis (SA1).

【0059】次に、その射影値の平均値を求める(SA
2)。次に、X軸に関し平均値以上の区間を求める(S
A3)。また、Y軸に関し平均値以上の区間を求める
(SA4)。そして、X,Y軸いずれかの区間に入って
いる領域(高エッジ部分)を車両存在領域と判断する
(SA5)。図9は、車両存在の判定画像である。同図
(a)に示す画像は、X軸、Y軸への射影により、車両
部分が反転表示されている。なお、図9の画像は、便宜
上、白黒反転処理及び誤差拡散処理が施されている。実
際には各画素が所定の濃淡階調(例えば256階調)を
有する白黒画像である。
Next, an average value of the projection values is obtained (SA
2). Next, a section that is equal to or more than the average value with respect to the X axis is obtained (S
A3). In addition, a section of the Y axis that is equal to or more than the average value is obtained (SA4). Then, an area (high edge portion) included in any of the X and Y axis sections is determined as a vehicle existing area (SA5). FIG. 9 is a determination image of the vehicle presence. In the image shown in FIG. 2A, the vehicle portion is displayed in reverse video by projecting the image on the X axis and the Y axis. The image in FIG. 9 has been subjected to black-and-white inversion processing and error diffusion processing for convenience. Actually, each pixel is a black-and-white image having a predetermined gradation (for example, 256 gradations).

【0060】路面輝度の収集処理(SB)では、前記車
両存在領域外の輝度データを画素単位で輝度データとし
て収集する(SB1)。即ち、射影値が平均値以下(低
エッジ部分)を路面と判断し、この路面部分の輝度を収
集する。図9(b)には、図9(a)のうち路面と判断
された部分が斜線で示されている。この処理時、低エッ
ジ部分には車両が入らない様にする。仮に、高エッジ部
分に路面が入っても低エッジ部分には車両が入らなけれ
ば、低エッジ部分で、路面輝度が収集できるからであ
る。
In the road surface luminance collecting process (SB), luminance data outside the vehicle existing area is collected as luminance data in pixel units (SB1). That is, if the projection value is equal to or smaller than the average value (low edge portion), the road surface is determined, and the luminance of the road surface portion is collected. In FIG. 9B, a portion of FIG. 9A that is determined to be a road surface is indicated by oblique lines. At this time, the vehicle is prevented from entering the low edge portion. This is because if the road surface enters the high edge portion and the vehicle does not enter the low edge portion, the road surface luminance can be collected at the low edge portion.

【0061】次に、路面輝度決定処理が実行される(S
C)。路面部分の輝度が判明すると、路面部分が判定可
能になる。始めに、輝度データを輝度存在量(画素数)
の順でソートする(SC1)。次に、最も存在量(画素
数)の多い輝度を始めとして、例えば上位10位までの
存在量の輝度を仮の路面輝度とする(SC2)。また、
前記上位10位までの路面輝度の各々の輝度に対し、一
定幅(例えば±10位)の輝度までを路面輝度と判定す
る(SC3)。路面部分の除去処理(SD)では、画像
メモリ3に記憶された元画像から前記路面輝度に相当す
る画素を取り除く。図10は、元画像から路面除去後の
画像である。同図において路面部分は白抜きで除去され
ている。
Next, a road surface luminance determination process is executed (S
C). When the brightness of the road surface portion is known, the road surface portion can be determined. First, the luminance data is converted into the luminance abundance (number of pixels).
(SC1). Next, for example, the luminance of the abundance in the top ten places, starting with the luminance having the largest abundance (number of pixels), is set as the temporary road surface luminance (SC2). Also,
With respect to each of the top ten road surface luminances, the luminance up to a certain width (for example, ± 10th) is determined as the road surface luminance (SC3). In the road surface portion removal processing (SD), pixels corresponding to the road surface luminance are removed from the original image stored in the image memory 3. FIG. 10 is an image after road surface removal from the original image. In the figure, the road surface portion is removed in white.

【0062】X軸Y軸の射影値が高い部分では車のシル
エット部分が検出されると期待できる。仮に、車両の輝
度が、ほぼ路面輝度であった場合でも、路面部分を検出
する為に使用した閾値が、エッジの射影値を元に決定し
ているので、必ず車両部分が残っている為、この後の処
理に重大な影響はない。この手法を取ると、影の面積が
大きい場合には、影も除去できる。影が小さい場合に
は、除去は出来ないが、大きい影に比べ車種判別に関し
影響は少ない。路面輝度を用いた路面部分除去処理の後
で、残ったノイズを画像の左、右、下の所定範囲(車両
の存在位置以外)から除去する。図11は、ノイズ除去
後の元画像を示す図である。これら図10、図11にお
いて車両部分については、元画像通りの多階調を有して
いる。尚、便宜上誤差拡散処理で図示してある。
It can be expected that a silhouette portion of a car is detected in a portion where the X-axis and Y-axis projection values are high. Even if the brightness of the vehicle is almost the same as the road surface brightness, the threshold used to detect the road surface portion is determined based on the projection value of the edge, so the vehicle portion always remains. There is no significant effect on subsequent processing. With this method, if the area of the shadow is large, the shadow can be removed. If the shadow is small, it cannot be removed, but it has less effect on vehicle type discrimination than a large shadow. After the road surface portion removal processing using the road surface luminance, the remaining noise is removed from a predetermined range on the left, right, and bottom of the image (other than the position where the vehicle exists). FIG. 11 is a diagram illustrating an original image after noise removal. In FIGS. 10 and 11, the vehicle portion has multiple gradations as in the original image. It is to be noted that the error diffusion processing is illustrated for convenience.

【0063】次に、先頭位置検知手段12bにより、車
両の先頭位置が判別処理される。図12は車両先頭位置
の判別処理を示すフローチャートである。前記路面除去
処理により、車両の存在領域がある程度判別されてい
る。車両の先頭部分は、エッジ成分が存在し、車両先頭
部分は多くの場合、車体の影がその部分に存在する。先
頭検知手段12bは、車両先頭位置として、まず車体の
影が存在すると仮定し、エッジと影を利用して車両先頭
位置を求める。この影も利用した手法では、きっちりと
した車両先頭位置が求まらない場合もあるが、車両の形
状認識や、車幅、車長を求める際には許容される誤差で
あれば構わない、且つ、エッジ成分だけで車両先頭位置
を求める方法では、エッジ成分が弱い場合先頭位置を誤
認識してしまい、その後の処理に重大な影響を与えてし
まうとの認識から、影を利用した手法を優先する。影が
認識できない場合に、エッジ情報のみで車両先頭位置を
決定する。
Next, the head position detecting means 12b determines the head position of the vehicle. FIG. 12 is a flowchart showing the process of determining the head position of the vehicle. The existence area of the vehicle is determined to some extent by the road surface removal processing. The leading portion of the vehicle has an edge component, and the leading portion of the vehicle often has a shadow of the vehicle body at that portion. The head detector 12b first assumes that a shadow of the vehicle body exists as the vehicle head position, and obtains the vehicle head position using the edge and the shadow. In the method using this shadow, a precise vehicle head position may not be obtained in some cases. However, a shape error of the vehicle, a vehicle width, and a vehicle length may be determined as long as the error is allowable. In addition, in the method of obtaining the vehicle head position using only the edge component, a method using a shadow is used since it is recognized that the head position is erroneously recognized when the edge component is weak, which has a serious effect on subsequent processing. Prioritize. When the shadow cannot be recognized, the head position of the vehicle is determined only by the edge information.

【0064】先頭位置検知手段12bは、微分画像記憶
部13の微分画像と、ノイズ除去後の元画像に基づき、
車両の先頭部分を判定する。始めに、路面除去手段12
aで判別された車両の存在領域によって、車両の車幅、
車長がある程度判別されているため、この車両の存在領
域の微分画像をX軸射影する(SE1)。次に、エッジ
情報取得の為に微分画像とノイズ除去後の元画像を2値
化した画像とを各画素毎に論理積をとり、その値をY軸
射影する。そして、微分射影値を各画素毎にソートし、
ソートされたデータ量が多い順に、所定順位までの中
で、最も画像の下(カメラ側)に位置する座標を仮先頭
位置として選択する(SE2)。
The head position detecting means 12b is based on the differential image in the differential image storage section 13 and the original image after noise removal.
Determine the beginning of the vehicle. First, the road surface removing means 12
The vehicle width,
Since the vehicle length has been determined to some extent, the differential image of the area where the vehicle exists is projected on the X-axis (SE1). Next, in order to obtain edge information, the differential image and the binarized image of the original image after noise removal are logically ANDed for each pixel, and the value is projected on the Y axis. Then, the differential projection values are sorted for each pixel,
The coordinates located at the bottom of the image (on the camera side) are selected as the tentative head position in the order of the sorted data amount, up to the predetermined order (SE2).

【0065】選択されたY軸座標を仮先頭位置と判断す
るが、その座標から更に下方に向けてY座標である程度
の範囲で、かつX座標で、処理画像上のここまでの過程
で求められた車幅範囲を対象に、元画像の輝度値をY軸
射影する(SE3)。そして、この輝度射影値をソート
し、最も暗い輝度の順に、所定順位までの中で、仮先頭
位置より、カメラ側にあるもっとも暗い輝度のY軸座標
を検索する(SE4)。
The selected Y-axis coordinate is determined to be the tentative head position. From the coordinates, the Y-coordinate is determined within a certain range in the Y-coordinate and the X-coordinate in the process up to this point on the processed image. The luminance value of the original image is projected on the Y-axis in the vehicle width range (SE3). Then, the brightness projection values are sorted, and the Y-axis coordinates of the darkest brightness on the camera side are searched from the temporary head position within the predetermined order in the order of the darkest brightness (SE4).

【0066】SE4における検索で、仮先頭位置よりカ
メラ側に暗い輝度部分が存在する時には、このY軸座標
を車両先頭位置と判断する(SE5)。一方、SE4に
おける検索で、仮先頭位置よりカメラ側に暗い輝度部分
が存在しない時には、前記仮先頭位置を車両先頭位置と
判断する(SE6)。これにより先頭位置が判断される
(SE7)。図13は、判断された車両先頭位置の画像
を示す図である。この図において車両部分については、
元画像通りの多階調を有している。尚、便宜上誤差拡散
処理で図示してある。
In the search in SE4, when there is a darker portion on the camera side than the temporary head position, the Y-axis coordinate is determined as the vehicle head position (SE5). On the other hand, in the search in SE4, when there is no darker portion on the camera side than the temporary head position, the temporary head position is determined as the vehicle head position (SE6). Thus, the head position is determined (SE7). FIG. 13 is a diagram illustrating an image of the determined vehicle head position. In this figure, for the vehicle part,
It has multiple gradations as the original image. It is to be noted that the error diffusion processing is illustrated for convenience.

【0067】前記SE4の検索処理においては、路肩な
どに生えている樹木の影が影響を及ぼす可能性がある
が、車両の影が出ている場合車両の影の方が、輝度的に
暗いので外乱を取り除く効果を有するため、エッジ情報
のみで先頭を検出する手法よりも精度を向上できる。ま
た、車両の影が見えない場合は樹木の影も路面上に存在
する可能性は非常に低く、且つ、誤判断するには車両先
頭位置から一定範囲に入る必要があるので、樹木の影を
車両先頭として誤判断する可能性は非常に低いと言え
る。
In the search processing of SE4, there is a possibility that the shadow of a tree growing on the road shoulder or the like may have an effect. However, when the shadow of the vehicle appears, the shadow of the vehicle is darker in brightness. Since it has an effect of removing disturbance, accuracy can be improved as compared with a method of detecting the head using only edge information. If the shadow of the vehicle is not visible, the shadow of the tree is very unlikely to be present on the road surface, and it is necessary to enter a certain range from the head of the vehicle to make a misjudgment. It can be said that the possibility of misjudgment as the head of the vehicle is extremely low.

【0068】次に、車幅検知手段12cにより、車両先
頭部の車幅を判断処理する。車幅検知手段12cは、先
頭検知手段12bが検知した車両先頭位置から車両先頭
部分の車幅を求める。車幅は微分画像記憶部13から微
分画像を読み出してX軸に射影した値を用いる。これは
横の微分値は車幅を表しにくい為である。影の影響を少
なくするため、対象座標の元画像の車両先頭位置に影が
ある場合その影の輝度を調べる。その時得られた影の輝
度を元に一定値以上の輝度がない場合には、その微分値
を0とするようにする閾値を決定する。
Next, the vehicle width at the head of the vehicle is determined by the vehicle width detecting means 12c. The vehicle width detecting means 12c calculates the vehicle width of the vehicle head from the vehicle head position detected by the head detecting means 12b. As the vehicle width, a value obtained by reading out the differential image from the differential image storage unit 13 and projecting the X-axis is used. This is because the horizontal differential value is difficult to represent the vehicle width. In order to reduce the influence of the shadow, when there is a shadow at the head position of the vehicle in the original image of the target coordinates, the brightness of the shadow is examined. If there is no brightness equal to or higher than a certain value based on the brightness of the shadow obtained at that time, a threshold value for setting the differential value to 0 is determined.

【0069】車両先頭位置から、ここまでの過程で求め
られた車幅範囲を対象に上方(Y軸方向)に一定範囲
(例えば3m)で、微分画像と2値化した処理画像の論
理積をとる。その値を影の影響を取り除いた状態で上限
付きでX軸射影する。射影時の上限は高輝度エッジの影
響を取り除く為である。得られた射影値に対して、画像
の左右から閾値を超えた座標が出てくるまで、車幅を縮
めていく。そして、射影値の閾値を超えた座標を車幅と
判断する。
The logical product of the differentiated image and the binarized processed image is calculated in a certain range (for example, 3 m) upward (in the Y-axis direction) with respect to the vehicle width range obtained in the process up to this point from the vehicle head position. Take. The value is X-projected with an upper limit with the influence of the shadow removed. The upper limit at the time of projection is to remove the influence of the high brightness edge. With respect to the obtained projection value, the vehicle width is reduced until coordinates exceeding the threshold appear from the left and right of the image. Then, the coordinates exceeding the projection value threshold are determined as the vehicle width.

【0070】なお、白線上(フィルタ部11でマスク処
理されている)に車幅のエッジがあり、この方法で車幅
が求められない場合も考えられる。その場合はY軸のエ
ッジ情報を使用し車幅を決定する。この時、車幅は白線
の部分で長さ的に短くなってしまう為、精度は落ちる可
能性があるが、大型、小型車両の車幅の閾値は白線の幅
以上に区切りがあれば、精度低下は少なくできると考え
られる。
Note that there may be a case where the vehicle width edge is on the white line (masked by the filter unit 11) and the vehicle width cannot be obtained by this method. In this case, the vehicle width is determined using the Y-axis edge information. At this time, the vehicle width becomes shorter in length at the white line, so the accuracy may decrease.However, if the threshold of the vehicle width of large and small vehicles is separated by more than the width of the white line, the accuracy may be reduced. It is thought that the decrease can be reduced.

【0071】次に、後部検知手段12dにより、車両後
部が検知される。大型車両は小型車両に比べ、車長は長
い為に今まで得られた車両の車幅情報を使い大型、小型
の車種を仮に判断する。その判断に基づき、車両の後部
位置を推定する。
Next, the rear part of the vehicle is detected by the rear detecting means 12d. Since a large vehicle has a longer vehicle length than a small vehicle, a large or small vehicle type is temporarily determined using vehicle width information obtained so far. Based on the determination, the rear position of the vehicle is estimated.

【0072】小型車の場合には、後続車両が存在してい
る可能性があるので、その処理を行う。後続車はカメラ
の位置の関係から、平面(2D)画像的に車種判別車両
の車幅位置と全く同じ後方位置に存在する可能性はある
が、少ないと言える為にそのY軸のライン毎に微分値の
重心を使い、その重心が車両先頭の重心と比較し、大き
くずれる場合に後続車両として、その部分を処理対象か
ら外す。
In the case of a small car, there is a possibility that there is a following vehicle, so that processing is performed. The following vehicle may be present at the same rear position as the vehicle width position of the vehicle type discriminating vehicle in a plane (2D) image from the relation of the camera position, but it can be said that it is small, so each of the Y-axis lines The center of gravity of the differential value is used, and the center of gravity is compared with the center of gravity at the head of the vehicle.

【0073】なお、上記処理だけでは、後続車両の切り
出しに関して、不十分なので、Y軸射影された微分値の
分布状況からも、後続の車両の判断を行う。後続車両部
分を取り除いた上で、車両先頭部分を求めていた手法
の、エッジ情報のみの方法を用いて車両後部位置を決定
する。大型車両の場合には、処理画面には後続車両が存
在しないため、後続車両のことは考慮する必要がない。
図14は大型車両の元画像を示す図であるが、図示の如
く、大型車両の場合には車両後部が画像上部に外れてい
る。
Since the above processing alone is not sufficient for cutting out the following vehicle, the following vehicle is also judged from the distribution state of the differential value projected on the Y axis. After removing the following vehicle portion, the vehicle rear position is determined by using only the edge information method of the method of obtaining the vehicle head portion. In the case of a large vehicle, there is no following vehicle on the processing screen, so there is no need to consider the following vehicle.
FIG. 14 is a diagram showing an original image of a large vehicle. As shown, in the case of a large vehicle, the rear portion of the vehicle is off the upper part of the image.

【0074】次に、車両部位判定部15により車両の各
部位が判定される(図5のSP4)。始めに、シルエッ
ト切り出し手段15aにより、車両のシルエットが切り
出し処理される。図15は、シルエット切り出しの処理
内容を示すフローチャートである。
Next, each part of the vehicle is determined by the vehicle part determining unit 15 (SP4 in FIG. 5). First, the silhouette extracting unit 15a performs an extracting process on the silhouette of the vehicle. FIG. 15 is a flowchart showing the process of silhouette cutout.

【0075】今までの処理過程で、車両の先頭位置、先
頭車幅車両後部位置が判明している。但し、車両後部位
置は後方の方がカメラから遠く、エッジが検出しにくい
為、正確な車幅を示していない場合が考えられ、その時
の車両後部の車幅は本来の車幅より小さい。また、車両
はカメラから取り込んだ条件から、車両後部の方が小さ
く見え、車両先頭が大きく見える画像になっている。車
両のシルエットを検出する場合に、車体の模様影響を受
けにくくする為に車両後部から先頭部分にかけてのシル
エットは車幅的に大きくなるような部分のみを有効とす
る。車両後部から先頭車幅の範囲内で、車両先頭に向か
ってライン毎にエッジを検出し、一定値以上のエッジ
で、且つその連続性を判断し、それを元にシルエットを
得る。
In the process up to this point, the leading position of the vehicle and the trailing position of the leading vehicle width have been known. However, since the rear part of the vehicle is farther from the camera at the rear and the edge is hard to detect, it is possible that the vehicle width does not indicate an accurate vehicle width. At that time, the vehicle width at the rear part of the vehicle is smaller than the original vehicle width. Further, from the conditions captured by the camera, the rear portion of the vehicle looks smaller and the front of the vehicle looks larger. When detecting the silhouette of the vehicle, only the portion where the silhouette from the rear to the front of the vehicle is large in terms of the vehicle width is effective in order to reduce the influence of the pattern of the vehicle body. An edge is detected for each line from the rear of the vehicle to the front of the vehicle within a range of the front vehicle width, and an edge having a predetermined value or more and its continuity are determined, and a silhouette is obtained based on the edge.

【0076】始めに、微分画像記憶部13から微分画像
を読み出し、車両後部から車両先頭にかけて有効なエッ
ジの最右端、最左端をY軸方向の1ライン毎に車幅の区
間内で探す処理を行う(SG)。具体的には、車両後部
から車両先頭にかけてY軸方向の1ライン毎に先頭車幅
の区間内で探す(SG1)。次に、一定値以上のエッジ
(微分値)が一定値以上の長さで連続しているラインが
あるか否かを判断する(SG2)。NOの場合はSG1
に移行し次の1ラインを探す。YESの場合は、その連
続しているラインの右端、左端を調べる(SG3)。い
ままでのライン上で見つかった右端、左端と比較し、こ
の見つかった右端、左端より、さらに右側、左側(即
ち、より車両の外方側)にあった場合に、そのラインの
右端、左端と判断する(SG4)。以降、SG2に復帰
し、次のYラインを探す。
First, the differential image is read from the differential image storage unit 13, and the rightmost and leftmost edges of the effective edge from the rear part of the vehicle to the head of the vehicle are searched for each line in the Y-axis direction within the section of the vehicle width. Perform (SG). Specifically, a search is made for each line in the Y-axis direction from the rear part of the vehicle to the head of the vehicle within the section of the head vehicle width (SG1). Next, it is determined whether or not there is a line in which an edge (differential value) of a certain value or more is continuous with a length of a certain value or more (SG2). SG1 if NO
To find the next one line. If YES, the right and left ends of the continuous line are checked (SG3). Compare to the right and left edges found on the previous line, and if the right and left edges of the line are further to the right and left (that is, outside the vehicle), the right and left edges of the line A judgment is made (SG4). Thereafter, the process returns to SG2 to search for the next Y line.

【0077】次に、車両後部から車両先頭にかけてシル
エットとして有効なエッジの最左端最右端を調べ、車両
先頭方向に対し、そのY軸ラインでの車幅が広がるよう
な場合、そのラインをシルエットとして有効なエッジと
判断する(SH)。具体的には、車両後部から車両先頭
までの有効エッジを調べる(SH1)。有効エッジか否
かを判断し(SH2)、NOの場合にはSH1に以降し
次の有効エッジを調べる。YESの場合には、車両前方
にかけて、そのラインでの車幅が広がる方向か否かを判
断する(SH3)。NOの場合には、SH1に以降し、
YESの場合には、シルエットとして有効なラインと判
断する(SH4)。
Next, the leftmost and rightmost edges of the edge effective as a silhouette from the rear part of the vehicle to the head of the vehicle are examined. If the width of the Y-axis line increases in the direction of the head of the vehicle, the line is regarded as a silhouette. Judge as a valid edge (SH). Specifically, an effective edge from the rear part of the vehicle to the head of the vehicle is checked (SH1). It is determined whether or not the edge is a valid edge (SH2). If NO, the process goes to SH1 to check the next valid edge. In the case of YES, it is determined whether or not the vehicle width in the line increases toward the front of the vehicle (SH3). In the case of NO, shift to SH1 and thereafter,
In the case of YES, it is determined that the line is valid as a silhouette (SH4).

【0078】次に、車両後部から車両先頭にかけてシル
エットが有効なエッジの右端左端を結ぶ処理を行う(S
I)。図16は、シルエット切り出し状態を示す図であ
る。同図(b)に示すように、Y軸方向には、車両の先
頭、及び後部の位置がそれぞれ検出されている。また、
車両の先頭位置、及び後部位置には、それぞれX軸方向
(幅方向)に車両の左端、及び右端の位置がそれぞれ検
出されている。また、車両の後部位置、後部位置の左端
と先頭位置の左端、後部位置の右端と先頭位置の右端、
先頭位置のエッジが結ばれたシルエットが検出されてい
る。
Next, from the rear part of the vehicle to the head of the vehicle, processing is performed to connect the right end and the left end of the effective edge of the silhouette (S
I). FIG. 16 is a diagram illustrating a silhouette cutout state. As shown in FIG. 4B, the head and rear positions of the vehicle are detected in the Y-axis direction. Also,
At the head position and the rear position of the vehicle, the positions of the left end and the right end of the vehicle are detected in the X-axis direction (width direction), respectively. Also, the rear position of the vehicle, the left end of the rear position and the left end of the head position, the right end of the rear position and the right end of the head position,
A silhouette in which the leading edge is connected is detected.

【0079】次に、部位判定手段15bにより、車両の
各部位が判定される。シルエットはその位置での車の車
幅を示しているとは限らないので、車幅情報は車両先頭
位置の車幅の情報を用いる。シルエット切り出しの時に
車幅が広がるエッジとして検出された座標を基に、車
長、車幅の比を使い、車両の部位を分ける処理を実行す
る。また、一部のエッジが検出されにくい車両は、シル
エット切り出し時の情報では部位が求められない場合が
考えられる。ここで、車幅検知手段12cにより車両の
先頭車幅が求められている。同時にこの車幅に基づき車
長も求められている。
Next, each part of the vehicle is determined by the part determining means 15b. Since the silhouette does not always indicate the width of the vehicle at that position, the vehicle width information uses the information of the vehicle width at the leading position of the vehicle. Based on the coordinates detected as the edge where the vehicle width is widened at the time of silhouette cutout, a process of dividing the parts of the vehicle using the ratio of the vehicle length and the vehicle width is executed. Further, for a vehicle in which some edges are difficult to be detected, it may be conceivable that a part cannot be obtained from the information at the time of silhouette cutting. Here, the leading vehicle width of the vehicle is determined by the vehicle width detecting means 12c. At the same time, the vehicle length is also required based on the vehicle width.

【0080】そこで、シルエット部分を対象に微分画像
記憶部13から微分画像を読み出し、この微分画像をY
軸射影する。その結果から車幅車長の比を利用し部位を
決定する。
Then, a differential image is read from the differential image storage unit 13 for the silhouette portion, and this differential image is
Axis projection. From the result, the part is determined using the ratio of the vehicle width and the vehicle length.

【0081】図17は、車両の部位判別後の画像を示す
図である。また、図18には、図17の車両について各
部位の判定状態を図示してある。これらの図に示すよう
に、車両は図面中下方からX軸方向に車幅を有し、Y軸
方向に所定高さを有する車両頭部の部位(ライト部分、
ボンネットの高さに相当)が判断される。車両頭部の部
位の上部位置には、車両頭部からフロントガラス下部ま
での部位(ボンネット)が判断される。このボンネット
の部位の上部位置には、フロントガラス下部からフロン
トガラス上部までの部位(フロントガラス)が判断され
る。このフロントガラスの上部位置には、フロントガラ
ス上部から車両後部までの部位(屋根)が判断される。
各部位は、X軸,Y軸の画素数に基づきmm換算され、
実際の長さ(幅、高さ)、及び面積が同時に求められ
る。
FIG. 17 is a diagram showing an image after the part of the vehicle has been determined. FIG. 18 illustrates the determination state of each part in the vehicle of FIG. As shown in these figures, the vehicle has a vehicle width in the X-axis direction and a predetermined height in the Y-axis direction (light portion,
(Corresponding to the height of the bonnet). At the upper position of the part of the vehicle head, a part (bonnet) from the vehicle head to the lower part of the windshield is determined. At the upper position of the bonnet part, a part (front glass) from the lower part of the windshield to the upper part of the windshield is determined. At the upper position of the windshield, a portion (roof) from the upper portion of the windshield to the rear of the vehicle is determined.
Each part is converted into mm based on the number of pixels on the X axis and the Y axis,
The actual length (width, height) and area are determined simultaneously.

【0082】ここで、図18に記載した如く、微分デー
タのみに基づき部位を判断するものに比して、シルエッ
トエッジを用いて部位を判断することの方が、より、正
確な部位判断を行えることが示されている。
Here, as shown in FIG. 18, it is possible to perform more accurate part determination by using a silhouette edge to determine a part than to determine a part based only on differential data. It has been shown.

【0083】以上求められた車両の車幅および各部位
は、車種判定部17に出力される。車種判定部17は、
これらのデータと、特徴データメモリ20に格納されて
いる特徴データに基づき車両の車種を判定する(図5の
SP5)。内部ではmm単位で処理を行っているが、最
終的な閾値を決定するには、予め用意されている標本を
参照して決定している。
The vehicle width and each part determined as described above are output to the vehicle type determining unit 17. The vehicle type determination unit 17
The vehicle type is determined based on these data and the feature data stored in the feature data memory 20 (SP5 in FIG. 5). Although the processing is performed in mm units internally, the final threshold value is determined with reference to a prepared sample.

【0084】図19は、特徴データメモリ20に格納さ
れている特徴データを示す図である。車種を判別するパ
ラメータは、見かけ車長、車幅、ボンネット高さ、ボン
ネット位置、フロントガラス位置、及び各部位の面積で
ある。
FIG. 19 is a diagram showing characteristic data stored in the characteristic data memory 20. The parameters for determining the vehicle type are an apparent vehicle length, a vehicle width, a hood height, a hood position, a windshield position, and an area of each part.

【0085】始めに、車両が大型であるか、あるいは小
型であるかを判定する(SP51)。車幅が一定値(例
えば、特徴データが示す3.0m)より大きいものは大
型と判定する(SP52)。同様に大型、小型の判断は
検出面積を用いても行う。これは、車幅に関して、検出
ミスをした場合でも、明らかに大型車両であるものは、
大型車両と検出する為に実行する。大型の特徴が検出さ
れなかった場合、小型と判定する(SP54に移行)。
First, it is determined whether the vehicle is large or small (SP51). If the vehicle width is larger than a certain value (for example, 3.0 m indicated by the feature data), it is determined that the vehicle is large (SP52). Similarly, the judgment of large or small size is made by using the detection area. This means that even if you make a mistake in detecting the vehicle width,
Execute to detect a large vehicle. If no large feature is detected, it is determined to be small (move to SP54).

【0086】次に、大型と判定された車両は、さらに貨
物あるいは乗用が判定される(SP53)。大型貨物は
大型乗用に比較し、フロントガラスが小さいので、その
特徴を比較判断する。フロントガラスが大きく、ボンネ
ットとの比が、大きいものを大型乗用とし、それ以外
を、貨物と判断する。
Next, the vehicle determined to be large is further determined to be a cargo or a passenger (SP53). Compared to large passengers, large cargo has a smaller windshield, so their characteristics are compared and judged. Those with large windshields and a large ratio to the hood are considered large passengers, and the rest are judged as cargo.

【0087】一方、SP51で小型と判定された場合に
は、次に、SP54で小型車両が貨物であるか乗用であ
るか判定する。車長車幅比で車長の方が長い場合に小型
貨物と判定する(SP55)。また、ボンネットが車長
と比較し大きい割合である場合においても小型貨物と判
断する(SP56)。さらに、ボンネットの高さが高い
ものについても貨物と判断する(SP57)。そして、
貨物と判断されなかった(排他条件)ものを小型乗用と
判断する(SP58)。
On the other hand, if it is determined in SP51 that the small vehicle is small, it is next determined in SP54 whether the small vehicle is cargo or passenger. If the vehicle length is longer than the vehicle length ratio, it is determined to be a small cargo (SP55). Also, when the bonnet has a larger ratio than the vehicle length, it is determined to be a small cargo (SP56). Further, a bonnet having a high height is also determined to be a cargo (SP57). And
Those not determined as cargo (exclusion condition) are determined as small passengers (SP58).

【0088】これら車種判別の判断結果は、表示部5等
に外部出力される。また、台数集計部30に逐次出力さ
れる。台数集計部30は、検出された車両の台数を車種
別に集計処理する。
The results of these vehicle type determinations are externally output to the display unit 5 and the like. The data is sequentially output to the number counting unit 30. The number counting unit 30 counts the number of detected vehicles for each vehicle type.

【0089】ところで、前記車種判別部17は、車両検
知で車種判別する都度、特徴データメモリ20に該車両
の特徴データを蓄積記憶する構成としてもよい。この構
成によれば、経時的に特徴データを増大させていくこと
ができ、車種判別精度を経時的に向上させていくことが
できるようになる。
The vehicle type discriminating section 17 may be configured to accumulate and store characteristic data of the vehicle in the characteristic data memory 20 every time the vehicle type is determined by vehicle detection. According to this configuration, the feature data can be increased over time, and the accuracy of vehicle type determination can be improved over time.

【0090】上記実施の形態では、車両をテレビカメラ
で撮像する構成としたが、車種判別は、静止画で行うた
め、車両検出時の静止画を撮影できるデジタルカメラを
用いる構成としてもよい。また、前記カメラは2車線を
撮影する構成としたが、1車線あるいはより複数の車線
を撮影して各車線別に通過する車両の車種を判別するこ
ともできる。
In the above embodiment, the vehicle is imaged by the television camera. However, since the vehicle type is determined by a still image, a digital camera capable of photographing a still image when the vehicle is detected may be used. Further, the camera is configured to photograph two lanes, but it is also possible to photograph one lane or a plurality of lanes and determine the type of vehicle passing through each lane.

【0091】また、上記実施の形態では、先頭検知手段
12bが車両先頭位置を画像処理で判別する構成とした
がこれに限らない。即ち、車両の先頭位置を前述した超
音波や赤外線などの検出器を用いて検出する構成として
もよい。この場合、上記処理手順で説明した車種判別
は、この検出器で車両の先頭位置を検出した以降の処理
のみで実行することができる。また、本実施形態の先頭
位置検知手段を用い、入力した複数の画像から車両の先
頭位置をトレースすることにより、該車両の速度を測定
することができる。
In the above embodiment, the head detecting means 12b determines the vehicle head position by image processing. However, the present invention is not limited to this. That is, the head position of the vehicle may be detected using the above-described detector such as an ultrasonic wave or an infrared ray. In this case, the vehicle type discrimination described in the above processing procedure can be executed only by the processing after detecting the head position of the vehicle by this detector. Further, by tracing the head position of the vehicle from a plurality of input images using the head position detection means of the present embodiment, the speed of the vehicle can be measured.

【0092】[0092]

【発明の効果】本発明によれば、カメラで遠方から接近
する移動体の交通流の画像を撮影するだけで、この画像
に基づき車種を判定できる。これを1台の汎用カメラを
用いるだけで低コストかつ高信頼性をもって車種判別で
きるようになる。また、カメラの画像に所定の画像処理
を施し、車両の各部位を判断して車種を判別する構成で
あるため、多数の車種を精度良く判別することができる
ようになる。特に、微分画像を射影して路面除去処理す
るため、車両の輝度が路面の輝度に近い場合や、車線上
に車両以外の影があっても、適切に路面を除去して車両
のみを抽出でき、天候の影響を受けにくくなる。また、
車両の先頭位置の判別処理は、微分画像で仮の車幅を得
た後に、画像下部の一定範囲内における最も暗いライン
を車両先頭位置を判断する構成であり、車両の先頭位置
を精度良く判別することができる。
According to the present invention, the vehicle type can be determined based on this image simply by taking an image of the traffic flow of a moving body approaching from a distance with a camera. This makes it possible to determine the vehicle type with low cost and high reliability by using only one general-purpose camera. In addition, since the configuration is such that predetermined image processing is performed on the image of the camera and each part of the vehicle is determined to determine the vehicle type, a large number of vehicle types can be accurately determined. In particular, because the road surface is removed by projecting the differential image, even if the vehicle brightness is close to the road surface brightness or if there is a shadow other than the vehicle on the lane, the road surface can be appropriately removed and only the vehicle can be extracted. , Less affected by the weather. Also,
The process of determining the head position of the vehicle is such that after obtaining a temporary vehicle width in the differential image, the darkest line within a certain range at the bottom of the image is determined as the vehicle head position, and the vehicle head position is accurately determined. can do.

【0093】さらに、車両の後部位置から画像の下方に
かけて微分画像のエッジが広がる場合に車両の左端、右
端と判断し車両の先端位置までのシルエットを得る構成
であり、このシルエットに基づき多数の車種を正確に判
別できるようになる。車種判定においては、シルエット
の情報と微分画像の情報を組合わせることにより、外乱
成分の影響を受けずに車種判別精度をより向上できる。
また、特徴データメモリを参照して車種判別することに
より、多数の判別情報を参照して正確な車種判別ができ
るようになる。この特徴データは、装置が車種判別する
毎に蓄積していく構成とすれば、装置設置後、経時的に
車種判別精度を次第に向上できるようになる。
Further, when the edge of the differential image extends from the rear position of the vehicle to the lower part of the image, the left and right ends of the vehicle are determined and a silhouette up to the front end position of the vehicle is obtained. Can be accurately determined. In the vehicle type determination, by combining the information of the silhouette and the information of the differential image, the accuracy of the vehicle type determination can be further improved without being affected by disturbance components.
In addition, by determining the vehicle type by referring to the feature data memory, it is possible to accurately determine the vehicle type by referring to a large amount of determination information. If the feature data is configured to be accumulated each time the device determines the vehicle type, the accuracy of the vehicle type determination can be gradually improved over time after the device is installed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の車種判別装置のカメラ設置状態を示す
図。
FIG. 1 is a diagram showing a camera installation state of a vehicle type identification device of the present invention.

【図2】カメラが撮像する画像範囲を示す図。FIG. 2 is a diagram illustrating an image range captured by a camera.

【図3】本発明の装置の全体構成を示すブロック図。FIG. 3 is a block diagram showing the overall configuration of the apparatus of the present invention.

【図4】図3の装置の内部構成を示すブロック図。FIG. 4 is a block diagram showing the internal configuration of the device shown in FIG.

【図5】本発明の車種判別の全体処理の手順を示すフロ
ーチャート。
FIG. 5 is a flowchart showing a procedure of an entire process of vehicle type determination according to the present invention.

【図6】カメラが撮像した元画像を示す図。FIG. 6 is a diagram showing an original image captured by a camera.

【図7】路面除去の処理手順を示すフローチャート。FIG. 7 is a flowchart illustrating a processing procedure of road surface removal.

【図8】元画像を微分した画像を示す図。FIG. 8 is a diagram showing an image obtained by differentiating an original image.

【図9】路面除去時の画像を示す図。FIG. 9 is a diagram showing an image at the time of road surface removal.

【図10】元画像から路面を除去した画像を示す図。FIG. 10 is a diagram showing an image obtained by removing a road surface from an original image.

【図11】ノイズ除去時の画像を示す図。FIG. 11 is a diagram showing an image when noise is removed.

【図12】車両先頭位置判別の処理手順を示すフローチ
ャート。
FIG. 12 is a flowchart illustrating a processing procedure of a vehicle head position determination.

【図13】車両先頭位置判定時の画像を示す図。FIG. 13 is a diagram showing an image at the time of determining a vehicle head position.

【図14】大型車両の元画像を示す図。FIG. 14 is a diagram showing an original image of a large vehicle.

【図15】シルエット切り出しの処理手順を示すフロー
チャート。
FIG. 15 is a flowchart showing a processing procedure of silhouette cutout.

【図16】シルエット切り出し時の画像を示す図。FIG. 16 is a diagram showing an image at the time of silhouette clipping.

【図17】部位判定時の画像を示す図。FIG. 17 is a diagram showing an image at the time of part determination.

【図18】部位の画像を説明するための図。FIG. 18 is a diagram illustrating an image of a part.

【図19】特徴データメモリの内容を示す図。FIG. 19 is a diagram showing the contents of a feature data memory.

【符号の説明】[Explanation of symbols]

1…カメラ、2…処理部、3…画像メモリ、5…表示
部、6…操作部、10…画像入力部、11…フィルタ
部、12…車両位置判定部、12a…路面除去手段、1
2b…先頭検知手段、12c…車幅検知手段、12d…
後部検知手段、13…微分画像記憶部、15…車両部位
判定部、15a…シルエット切り出し手段、15b…部
位判定手段、17…車種判定部、20…特徴データメモ
リ、30…台数集計部。
DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Processing part, 3 ... Image memory, 5 ... Display part, 6 ... Operation part, 10 ... Image input part, 11 ... Filter part, 12 ... Vehicle position determination part, 12a ... Road surface removal means, 1
2b: Head detecting means, 12c: Vehicle width detecting means, 12d ...
Rear detection means, 13: Differential image storage section, 15: Vehicle site determination section, 15a: Silhouette cutout section, 15b: Site determination section, 17: Vehicle type determination section, 20: Feature data memory, 30: Number counting section.

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】 昼間中の道路走行車両の車種を判別する
車種判別装置であって、 走行車両を撮像するカメラ(1)と、 前記カメラで撮像された画像に基づき、路面を除去する
とともに車両先頭位置を検出し、該車両先頭位置におけ
る車幅及び車両のシルエットに基づき車種を判別する処
理部(2)と、を備えたことを特徴とする昼間における
車種判別装置。
1. A vehicle type discriminating apparatus for discriminating a vehicle type of a road traveling vehicle during daytime, comprising: a camera (1) for capturing an image of the traveling vehicle; and a vehicle for removing a road surface based on an image captured by the camera. A processing unit (2) for detecting a head position and determining a vehicle type based on a vehicle width and a silhouette of the vehicle at the vehicle head position.
【請求項2】 前記処理部(2)は、前記画像を微分
し、該微分画像に基づき画像上から路面を除去する路面
除去手段(12a)を備えた請求項1記載の昼間におけ
る車種判別装置。
2. The daytime vehicle type discriminating apparatus according to claim 1, wherein the processing unit (2) includes a road surface removing unit (12a) for differentiating the image and removing a road surface from the image based on the differentiated image. .
【請求項3】 前記路面除去手段(12a)は、前記微
分した画像をX軸及びY軸方向に射影して路面を判断し
除去する請求項2記載の昼間における車種判別装置。
3. The daytime vehicle type discrimination device according to claim 2, wherein the road surface removing means (12a) projects the differentiated image in the X-axis and Y-axis directions to determine and remove the road surface.
【請求項4】 前記路面除去手段(12a)は、前記微
分した画像をX軸及びY軸方向に射影して各軸の射影値
の平均値を求め、前記X軸あるいはY軸において前記平
均値より低い射影値を有する範囲を路面と判断して除去
する請求項2記載の昼間における車種判別装置。
4. The road surface removing means (12a) projects the differentiated image in the X-axis and Y-axis directions to obtain an average value of projection values of each axis, and calculates the average value in the X-axis or Y-axis. 3. The daytime vehicle type discriminating apparatus according to claim 2, wherein a range having a lower projection value is determined as a road surface and removed.
【請求項5】 前記路面除去手段(12a)は、前記微
分した画像をX軸及びY軸方向に射影して各軸の射影値
の平均値を求め、前記X軸あるいはY軸において前記平
均値より低い射影値を有する範囲の輝度値を収集し、存
在量が最も多い輝度値順にソートし一定順位もしくは一
定値までを中心として所定範囲の輝度値を有する画素を
路面と判断する請求項4記載の昼間における車種判別装
置。
5. The road surface removing means (12a) projects the differentiated image in the X-axis and Y-axis directions to obtain an average value of projection values of each axis, and calculates the average value in the X-axis or Y-axis. 5. The method according to claim 4, wherein luminance values in a range having a lower projection value are collected and sorted in the order of the luminance value having the largest abundance, and a pixel having a luminance value in a predetermined range centering on a certain order or up to a certain value is determined as a road surface. Vehicle type discrimination device in the daytime.
【請求項6】 前記処理部(2)は、前記画像を微分
し、該微分画像に基づき画像上から路面を除去すること
により車両の仮の車幅及び車両存在位置候補を求め、該
存在位置候補の画像をY軸に射影して、所定以上の射影
値を有するY軸ラインを収集して仮の先頭候補群とし、
該仮の先頭候補群のY軸ラインのうち最も画像下部位置
のY軸ラインを車両の仮の先頭位置と判断する先頭検知
手段(12b)を備えた請求項1記載の昼間における車
種判別装置。
6. The processing section (2) differentiates the image and removes a road surface from the image based on the differentiated image to obtain a temporary vehicle width and a candidate vehicle position. The candidate images are projected on the Y-axis, and Y-axis lines having a projection value equal to or greater than a predetermined value are collected to form a temporary head candidate group,
The daytime vehicle type discriminating apparatus according to claim 1, further comprising a head detecting means (12b) for judging a Y-axis line at the lowermost position of the image among the Y-axis lines of the temporary head candidate group as a temporary head position of the vehicle.
【請求項7】 前記先頭検知手段(12b)は、前記仮
の先頭候補として得られたY軸ラインの近辺をY軸に輝
度射影し、その輝度射影値をソートし、もっとも輝度値
の暗い順に所定順位までのなかで、前記仮の先頭候補よ
り画像下部に位置しているY軸ラインが検出された場合
には、該検出されたY軸ラインを車両の先頭位置と判断
する請求項6記載の昼間における車種判別装置。
7. The head detecting means (12b) projects the vicinity of the Y-axis line obtained as the tentative head candidate on the Y axis, sorts the brightness projection values, and sorts the brightness projection values in order of darkest brightness value. 7. The system according to claim 6, wherein when a Y-axis line located at a lower part of the image from the tentative head candidate is detected within a predetermined order, the detected Y-axis line is determined as a head position of the vehicle. Vehicle type discrimination device in the daytime.
【請求項8】 前記処理部(2)は、検出された車両先
頭位置に基づき、該車両先頭位置の画像を微分してX軸
に射影し、所定以上の射影値を左右から求め車幅と判断
する車幅検知手段(12c)を備えた請求項1記載の昼
間における車種判別装置。
8. The processing unit (2) differentiates an image of the vehicle head position based on the detected vehicle head position and projects the differentiated image on the X axis, and obtains a projection value equal to or greater than a predetermined value from the left and right and the vehicle width. The daytime vehicle type discriminating apparatus according to claim 1, further comprising a vehicle width detecting means (12c) for judging.
【請求項9】 前記処理部(2)は、前記検出された車
幅に対応して設定されている車長に基づき一定範囲内の
長さで、その区間をY軸に微分射影し一定値以上の射影
値を得た最も遠方のY座標を車両の後部位置と判断する
後部検知手段(12d)を備えた請求項8記載の昼間に
おける車種判別装置。
9. The processing unit (2) performs differential projection of the section on the Y-axis with a length within a certain range based on a vehicle length set corresponding to the detected vehicle width, and performs a certain value. 9. The daytime vehicle type discriminating apparatus according to claim 8, further comprising a rear detecting means (12d) for judging a farthest Y coordinate having obtained the projection value as a rear position of the vehicle.
【請求項10】 前記後部検知手段(12d)は、前記
車両の先頭位置におけるY軸の車幅部分ラインの重心位
置と、Y軸のライン毎の微分値の重心位置のX軸方向へ
のずれが所定範囲内である場合に前記判断された後部位
置が該車両の後部位置であると判断する一方、前記所定
範囲を超える場合には後続車両であるとし車両後部とし
て検知せず条件を満たす次候補を車両後部として検知す
る請求項9記載の昼間における車種判別装置。
10. The rear detecting means (12d) shifts the center of gravity of the Y-axis vehicle width partial line at the head position of the vehicle and the center of gravity of the differential value of each Y-axis line in the X-axis direction. Is within a predetermined range, the determined rear position is determined to be the rear position of the vehicle. On the other hand, if the predetermined range is exceeded, the vehicle is determined to be a succeeding vehicle and is not detected as a vehicle rear. The daytime vehicle type discrimination device according to claim 9, wherein the candidate is detected as a rear portion of the vehicle.
【請求項11】 昼間中の道路走行車両の車種を判別す
る車種判別装置であって、 走行車両を撮像するカメラ(1)と、 前記カメラで撮像された画像に基づき、画像中における
車両の先頭位置、車幅、後部位置をそれぞれ判別する車
両位置判定部(12)と、 前記車両位置判定部の判定情報に基づき、車両の各部位
の存在位置を判別する車両部位判定部(15)と、 前記車両部位判定部で判定された車両の各部位の情報に
基づき車種を判別する車種判定部(17)と、を備えた
ことを特徴とする昼間における車種判別装置。
11. A vehicle type discriminating apparatus for discriminating a vehicle type of a road traveling vehicle during daytime, comprising: a camera (1) for capturing an image of the traveling vehicle; and a head of the vehicle in the image based on the image captured by the camera. A vehicle position determining unit (12) that determines a position, a vehicle width, and a rear position; a vehicle part determining unit (15) that determines an existing position of each part of the vehicle based on the determination information of the vehicle position determining unit; A vehicle type discriminating apparatus in the daytime, comprising: a vehicle type determining unit (17) for determining a vehicle type based on information on each part of the vehicle determined by the vehicle part determining unit.
【請求項12】 前記車両位置判定部(12)は、前記
カメラで撮像された画像に基づき、前記画像を微分し、
該微分画像に基づき画像上から路面を除去する路面除去
手段(12a)と、 前記画像を微分し、該微分画像に基づき画像上から路面
を除去することにより車両の仮の車幅及び車両存在位置
候補を求め、該存在位置候補の画像をY軸に射影して、
所定以上の射影値を有するY軸ラインを収集して仮の先
頭候補とし、該仮の先頭候補群のY軸ラインのうち最も
画像下部位置のY軸ラインを車両の仮の先頭位置と判断
する先頭検知手段(12b)と、 前記仮の先頭位置とその近辺の輝度射影値に基づき先頭
位置を判断する手段と、 検出された車両先頭位置に基づき、該車両先頭位置の画
像を微分して車幅を求める車幅検知手段(12c)と、 前記検出された車幅に対応して設定されている車長に基
づき車両の後部位置を判断する後部検知手段(12d)
と、 前記路面除去後における車両の先頭位置、車幅、及び後
部位置の各情報に基づき、車両の各部位を判定する車両
部位判定部(15)とを備えた請求項11記載の昼間に
おける車種判別装置。
12. The vehicle position determining unit (12) differentiates the image based on an image captured by the camera,
Road surface removing means (12a) for removing a road surface from an image based on the differentiated image; a temporary vehicle width and a vehicle existing position of the vehicle by differentiating the image and removing the road surface from the image based on the differentiated image; A candidate is obtained, and an image of the existence position candidate is projected on the Y axis,
A Y-axis line having a projection value equal to or more than a predetermined value is collected and set as a tentative head candidate, and the Y-axis line at the lowermost position of the image among the Y-axis lines in the tentative head candidate group is determined as a tentative head position of the vehicle. Head detecting means (12b); means for judging a head position based on the temporary head position and a luminance projection value in the vicinity thereof; and a vehicle which differentiates an image of the vehicle head position based on the detected vehicle head position. A vehicle width detecting means (12c) for obtaining a width; and a rear detecting means (12d) for determining a rear position of the vehicle based on a vehicle length set corresponding to the detected vehicle width.
The vehicle type in the daytime according to claim 11, further comprising: a vehicle part determination unit (15) that determines each part of the vehicle based on information on a head position, a vehicle width, and a rear part position of the vehicle after the road surface is removed. Discriminator.
【請求項13】 前記車両部位判定部(15)は、画像
を微分した微分画像に基づき検出された車両の後部位置
の左端のエッジの左端及び右端のエッジの右端にそれぞ
れのY軸座標で連続するエッジを車両の左端、及び右端
と判断し車両の先頭位置に至るまでの間で車両のシルエ
ットを切り出すシルエット切り出し手段(15a)を備
えた請求項11記載の昼間における車種判別装置。
13. The vehicle part judging section (15) is connected to the left end of the left edge of the rear position of the vehicle and the right end of the right edge of the rear position detected based on the differential image obtained by differentiating the image in respective Y-axis coordinates. 12. The daytime vehicle type discriminating apparatus according to claim 11, further comprising a silhouette cutout means (15a) for judging an edge to be performed as a left end and a right end of the vehicle and cutting out a silhouette of the vehicle until reaching a head position of the vehicle.
【請求項14】 前記シルエット切り出し手段(15
a)は、前記微分画像をY軸方向に射影した微分値に基
づきX軸方向に一定以上の微分値で連続するラインを有
効エッジと判断し、車両後部の有効エッジの中の最も左
端のエッジの左端及び最も右端のエッジの右端に対し画
像下部にかけて少なくとも幅が広がる有効エッジを車両
の左端、及び右端と判断し車両の先頭位置に至るまでの
間で車両のシルエットを切り出す請求項13記載の昼間
における車種判別装置。
14. The silhouette cutting means (15)
a) determines a line that is continuous with a certain or more differential value in the X-axis direction as a valid edge based on a differential value obtained by projecting the differential image in the Y-axis direction, and determines the leftmost edge among the valid edges at the rear of the vehicle. 14. The vehicle according to claim 13, wherein the effective edge, which extends at least toward the lower end of the image with respect to the left end and the right end of the rightmost edge, is determined as the left end and the right end of the vehicle, and the silhouette of the vehicle is cut out until reaching the leading position of the vehicle. Daytime vehicle type identification device.
【請求項15】 前記車両部位判定部(15)は、前記
切り出されたシルエットの車幅と車長の比に基づき、車
両を車頭部分(ボンネットの高さ)、ボンネット部分、
フロントガラス部分、屋根以降の後方部分、の各部位を
判別する部位判定手段(15b)を備えた請求項11記
載の昼間における車種判別装置。
15. The vehicle part judging section (15) sets a vehicle to a head portion (hood height), a hood portion, based on a ratio of a vehicle width to a vehicle length of the cut-out silhouette.
The daytime vehicle type discriminating apparatus according to claim 11, further comprising a part determining means (15b) for determining each part of a windshield portion and a rear portion after the roof.
【請求項16】 前記部位判定手段(15b)は、前記
シルエットに基づく部位判定に加え、前記カメラで撮像
された画像を微分した微分画像をY軸方向に射影して得
られたエッジによる車幅と車長の比に基づき車両の各部
位を判定する請求項15記載の昼間における車種判別装
置。
16. The part determination means (15b), in addition to the part determination based on the silhouette, a vehicle width based on an edge obtained by projecting, in the Y-axis direction, a differential image obtained by differentiating an image captured by the camera. 16. The daytime vehicle type discrimination device according to claim 15, wherein each part of the vehicle is determined based on a ratio of the vehicle length and the vehicle length.
【請求項17】 予め車種別の特徴データが格納された
特徴データメモリ(20)を備え、 前記車種判定部(17)は、前記車両部位判定部の判定
情報を、前記特徴データメモリの特徴データを参照して
車種を判定する請求項11記載の昼間における車種判別
装置。
17. A feature data memory (20) in which feature data of a vehicle type is stored in advance, wherein the vehicle type determination unit (17) stores determination information of the vehicle part determination unit in feature data of the feature data memory. The vehicle type discrimination device in the daytime according to claim 11, wherein the vehicle type is determined with reference to the following.
【請求項18】 前記車種判定部(17)は、車種判定
の都度、該判定時の判定情報を、前記特徴データメモリ
(20)に蓄積記憶していく請求項17記載の昼間にお
ける車種判別装置。
18. The daytime vehicle type discriminating apparatus according to claim 17, wherein the vehicle type judgment unit (17) accumulates and stores the judgment information at the time of the vehicle type judgment in the feature data memory (20). .
【請求項19】 前記車種判定部(17)は、前記車両
部位判定部(15)で判別された車両の先頭位置におけ
る車幅及び/又は各部位の面積に基づき、車両が大型車
両であるか小型車両であるかを判別する請求項11記載
の昼間における車種判別装置。
19. The vehicle type determining unit (17) determines whether the vehicle is a large vehicle based on the vehicle width and / or the area of each part at the head position of the vehicle determined by the vehicle part determining unit (15). The daytime vehicle type discriminating apparatus according to claim 11, which determines whether the vehicle is a small vehicle.
【請求項20】 前記車種判定部(17)は、判別結果
が大型車両であるときに、フロントガラスとボンネット
の面積比に基づき大型貨物車両であるか大型乗用車両で
あるかを判別する請求項19記載の昼間における車種判
別装置。
20. The vehicle type judging section (17) judges whether the vehicle is a large cargo vehicle or a large passenger vehicle based on an area ratio between a windshield and a bonnet when the result of the determination is a large vehicle. 19. A daytime vehicle type discrimination device according to claim 19.
【請求項21】 前記車種判定部(17)は、判別結果
が小型車両であるときに、車幅と車長の比及び/又はボ
ンネットの高さに基づき小型貨物車両であるか小型乗用
車両であるかを判別する請求項19記載の昼間における
車種判別装置。
21. The vehicle type determining unit (17) determines whether the vehicle is a small cargo vehicle or a small passenger vehicle based on the ratio of the vehicle width to the vehicle length and / or the height of the hood when the determination result is a small vehicle. 20. The daytime vehicle type identification device according to claim 19, which determines whether there is a vehicle.
【請求項22】 昼間中の道路走行車両の車種を判別す
る車種判別方法であって、 走行車両をカメラで撮像し、 前記カメラで撮像された画像を微分し、該微分画像をX
軸及びY軸方向に射影して路面を判断し除去した後に、
車両先頭位置の車幅、車両のシルエットに基づき車種を
判別することを特徴とする昼間における車種判別方法。
22. A vehicle type discriminating method for discriminating a vehicle type of a road traveling vehicle during daytime, comprising: capturing an image of a traveling vehicle with a camera; differentiating an image captured by the camera;
After projecting in the axis and Y axis directions to determine and remove the road surface,
A vehicle type discrimination method in the daytime, wherein a vehicle type is determined based on a vehicle width at a vehicle head position and a vehicle silhouette.
【請求項23】 前記微分した画像をX軸及びY軸方向
に射影して各軸の射影値の平均値を求め、前記X軸ある
いはY軸において前記平均値より低い微分値を有する範
囲を路面と判断する請求項22記載の昼間における車種
判別方法。
23. Projecting the differentiated image in the X-axis and Y-axis directions to obtain an average value of projection values of each axis, and determining a range having a differential value lower than the average value in the X-axis or Y-axis on a road surface. 23. The method of discriminating a vehicle type in the daytime according to claim 22, wherein:
【請求項24】 前記微分した画像をX軸及びY軸方向
に射影して各軸の射影値の平均値を求め、前記X軸ある
いはY軸において前記平均値より低い微分値を有する範
囲の輝度値を収集し、存在量が最も多い順にソートし、
その上位の各輝度値を中心として所定範囲の輝度値を有
する画素を路面と判断する請求項22記載の昼間におけ
る車種判別方法。
24. Projection of the differentiated image in the X-axis and Y-axis directions to obtain an average value of projection values of each axis, and a luminance in a range having a differential value lower than the average value in the X-axis or Y-axis. Gather the values, sort them by most abundance,
23. The daytime vehicle type discrimination method according to claim 22, wherein a pixel having a luminance value within a predetermined range around each of the higher luminance values is determined as a road surface.
【請求項25】 前記微分した画像に基づき画像上から
路面を除去することにより車両の仮の車幅及び車両存在
位置候補を求め、該存在位置候補の画像をY軸に射影し
て、所定以上の射影値を有するY軸ラインを収集して仮
の先頭候補とし、該仮の先頭候補のY軸ラインのうち最
も画像下部位置のY軸ラインを車両の先頭位置と判断す
る請求項22記載の昼間における車種判別方法。
25. A tentative vehicle width of a vehicle and a candidate position of a vehicle are obtained by removing a road surface from the image based on the differentiated image, and the image of the candidate position is projected on the Y-axis, and 23. The Y-axis line having the projection value of (i) is collected and used as a temporary head candidate, and the Y-axis line at the lowermost position of the image among the Y-axis lines of the temporary head candidate is determined as the head position of the vehicle. Daytime vehicle type identification method.
【請求項26】 前記仮の先頭候補として得られたY軸
ラインに基づき、一定範囲でY軸に輝度射影し、その輝
度射影値をソートし、もっとも輝度値の暗い順に所定順
位までのなかで、前記仮の先頭候補より画像下部に位置
しているY軸ラインが検出された場合には、該検出され
たY軸ラインを車両の先頭位置と判断する請求項25記
載の昼間における車種判別方法。
26. Based on the Y-axis line obtained as the tentative head candidate, luminance projection is performed on the Y-axis within a certain range, and the luminance projection values are sorted. 26. The daytime vehicle type discriminating method according to claim 25, wherein when the Y-axis line located at the lower part of the image from the tentative head candidate is detected, the detected Y-axis line is determined as the head position of the vehicle. .
【請求項27】 前記画像を微分して車両先頭位置に基
づき、一定範囲でX軸射影し一定値以上の射影値を左右
から求め、車両先頭位置における車幅を求める請求項2
2記載の昼間における車種判別方法。
27. The vehicle width at the vehicle head position is obtained by differentiating the image and projecting the X axis in a certain range based on the vehicle head position and obtaining a projection value equal to or more than a certain value from the left and right.
2. The vehicle type discrimination method in the daytime described in 2.
【請求項28】 前記検出された車幅に対応して設定さ
れている車長に基づき車両の後部位置を求め、 前記車両の先頭位置におけるY軸の車幅部分ラインの重
心位置と、Y軸のライン毎の微分値の重心位置のX軸方
向へのずれが所定範囲内である場合に前記判断された後
部位置が該車両の後部位置であると判断する一方、前記
所定範囲を超える場合には後続車両であると車両後部と
して検知せず、条件を満たす次候補を車両後部として検
知する請求項22記載の昼間における車種判別方法。
28. A rear part position of the vehicle is obtained based on a vehicle length set corresponding to the detected vehicle width, and a center of gravity of a vehicle width partial line on the Y axis at a head position of the vehicle is obtained. When the deviation of the center of gravity of the differential value of each line in the X-axis direction is within a predetermined range, the determined rear position is determined to be the rear position of the vehicle, while when the deviation exceeds the predetermined range, 23. The daytime vehicle type discriminating method according to claim 22, wherein a next candidate satisfying the condition is detected as a vehicle rear part without detecting that the vehicle is a following vehicle as a vehicle rear part.
【請求項29】 前記微分画像をY軸方向に射影した微
分値に基づきX軸方向に一定以上の微分値で連続するラ
インを有効エッジと判断し、車両後部の有効エッジの中
の左端のエッジの左端及び右端のエッジの右端に対し画
像下部にかけて少なくとも幅が広がる有効エッジを車両
の左端、及び右端と判断し車両の先頭位置に至るまでの
間で車両のシルエットを切り出した後、 前記切り出されたシルエットの車幅と車長の比に基づ
き、車両を車頭部分(ボンネットの高さ)、ボンネット
部分、フロントガラス部分、屋根以降の後方部分、の各
部位を判別する請求項22記載の車種判別方法。
29. Based on a differential value obtained by projecting the differential image in the Y-axis direction, a line continuous with a certain differential value or more in the X-axis direction is determined as an effective edge, and a left edge of the effective edge at the rear of the vehicle is determined. The effective edge, which extends at least to the lower end of the image with respect to the right end of the left end and the right end of the right end, is determined to be the left end and the right end of the vehicle, and the silhouette of the vehicle is cut out until reaching the leading position of the vehicle. 23. The vehicle type discrimination according to claim 22, wherein each part of the vehicle is discriminated based on a ratio of a vehicle width and a vehicle length of the silhouette to a head portion (hood height), a hood portion, a windshield portion, and a rear portion after the roof. Method.
【請求項30】 前記判別された車両の先頭位置におけ
る車幅と、各部位のデータに基づき、車両が大型車両で
あるか小型車両であるか、及び大型貨物車両であるか大
型乗用車両であるか、及び小型貨物車両であるか小型乗
用車両であるかを判別する請求項29記載の昼間におけ
る車種判別方法。
30. The vehicle is a large vehicle, a small vehicle, a large cargo vehicle, or a large passenger vehicle based on the determined vehicle width at the leading position of the vehicle and data of each part. 30. The daytime vehicle type determination method according to claim 29, wherein the method determines whether the vehicle is a small cargo vehicle or a small passenger vehicle.
JP16092998A 1998-06-09 1998-06-09 Method and device for discriminating vehicle kind in the daytime Pending JPH11353581A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16092998A JPH11353581A (en) 1998-06-09 1998-06-09 Method and device for discriminating vehicle kind in the daytime

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16092998A JPH11353581A (en) 1998-06-09 1998-06-09 Method and device for discriminating vehicle kind in the daytime

Publications (1)

Publication Number Publication Date
JPH11353581A true JPH11353581A (en) 1999-12-24

Family

ID=15725319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16092998A Pending JPH11353581A (en) 1998-06-09 1998-06-09 Method and device for discriminating vehicle kind in the daytime

Country Status (1)

Country Link
JP (1) JPH11353581A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164566A (en) * 2005-12-15 2007-06-28 Sumitomo Electric Ind Ltd System and device of vehicle sensing for traffic-actuated control
JP2007280041A (en) * 2006-04-06 2007-10-25 Sumitomo Electric Ind Ltd Apparatus for determining color of vehicle body
JP2007316997A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Vehicle type determining program and apparatus
JP2008052539A (en) * 2006-08-25 2008-03-06 Ntt Data Corp Vehicle model distinction device, vehicle model distinction system, vehicle model distinction method and vehicle model distinction program
JP2009245042A (en) * 2008-03-31 2009-10-22 Hitachi Ltd Traffic flow measurement device and program
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
JP2012009073A (en) * 2011-09-28 2012-01-12 Fujitsu Ltd Specific portion extraction program
US8252473B2 (en) 2007-09-18 2012-08-28 Toyota Jidosha Kabushiki Kaisha Fuel cell-equipped vehicle and control method for fuel cell-equipped vehicle
KR101321597B1 (en) * 2013-08-30 2013-10-28 주식회사 넥스파시스템 Vehicle identification based on image/video analysis and manless fare allocation system
JP2021033970A (en) * 2019-08-29 2021-03-01 沖電気工業株式会社 Road surface information measuring device, road surface information measuring method and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164566A (en) * 2005-12-15 2007-06-28 Sumitomo Electric Ind Ltd System and device of vehicle sensing for traffic-actuated control
JP2007280041A (en) * 2006-04-06 2007-10-25 Sumitomo Electric Ind Ltd Apparatus for determining color of vehicle body
US8229171B2 (en) 2006-05-26 2012-07-24 Fujitsu Limited Apparatus, method, and computer product for vehicle-type determination using image data of vehicle
JP2007316997A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Vehicle type determining program and apparatus
WO2007139035A1 (en) * 2006-05-26 2007-12-06 Fujitsu Limited Vehicle type determination device, program, and method
JP4567630B2 (en) * 2006-05-26 2010-10-20 富士通株式会社 Vehicle type identification program and vehicle type identification device
JP2008052539A (en) * 2006-08-25 2008-03-06 Ntt Data Corp Vehicle model distinction device, vehicle model distinction system, vehicle model distinction method and vehicle model distinction program
JP4754440B2 (en) * 2006-08-25 2011-08-24 株式会社エヌ・ティ・ティ・データ Vehicle type identification device, vehicle type identification system, vehicle type identification method, and vehicle type identification program
US8252473B2 (en) 2007-09-18 2012-08-28 Toyota Jidosha Kabushiki Kaisha Fuel cell-equipped vehicle and control method for fuel cell-equipped vehicle
JP2009245042A (en) * 2008-03-31 2009-10-22 Hitachi Ltd Traffic flow measurement device and program
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
JP2012009073A (en) * 2011-09-28 2012-01-12 Fujitsu Ltd Specific portion extraction program
KR101321597B1 (en) * 2013-08-30 2013-10-28 주식회사 넥스파시스템 Vehicle identification based on image/video analysis and manless fare allocation system
JP2021033970A (en) * 2019-08-29 2021-03-01 沖電気工業株式会社 Road surface information measuring device, road surface information measuring method and program

Similar Documents

Publication Publication Date Title
EP0567059B1 (en) Object recognition system using image processing
US9401028B2 (en) Method and system for video-based road characterization, lane detection and departure prevention
US8902053B2 (en) Method and system for lane departure warning
JP2917661B2 (en) Traffic flow measurement processing method and device
JP3503230B2 (en) Nighttime vehicle recognition device
US5341437A (en) Method of determining the configuration of a path for motor vehicle
CN111832536B (en) Lane line detection method and device
JP4032727B2 (en) Lane boundary detection device
WO2006115676A2 (en) Video ghost detection by outline
JP2007179386A (en) Method and apparatus for recognizing white line
JPH08329393A (en) Preceding vehicle detector
JPH11353581A (en) Method and device for discriminating vehicle kind in the daytime
JP4864043B2 (en) Image processing apparatus, method, and program
KR101264282B1 (en) detection method vehicle in road using Region of Interest
JP3812384B2 (en) Leading vehicle recognition device
JP2829934B2 (en) Mobile vehicle environment recognition device
JPH07249128A (en) Picture processor for vehicle
EP0403193A2 (en) Method and apparatus for traffic monitoring
JPH07244717A (en) Travel environment recognition device for vehicle
Siyal et al. Image processing techniques for real-time qualitative road traffic data analysis
Hoose Queue detection using computer image processing
JP4697761B2 (en) Queue detection method and queue detection apparatus
CN113822149A (en) Emergency lane visual detection method and system based on view angle of unmanned aerial vehicle
JP2946620B2 (en) Automatic number reading device with speed measurement function
JP3196559B2 (en) Line recognition method