JPH05282592A - Image processing-type vehicle sensor and method for processing traffic information - Google Patents

Image processing-type vehicle sensor and method for processing traffic information

Info

Publication number
JPH05282592A
JPH05282592A JP8058792A JP8058792A JPH05282592A JP H05282592 A JPH05282592 A JP H05282592A JP 8058792 A JP8058792 A JP 8058792A JP 8058792 A JP8058792 A JP 8058792A JP H05282592 A JPH05282592 A JP H05282592A
Authority
JP
Japan
Prior art keywords
vehicle
image data
vehicles
processing
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8058792A
Other languages
Japanese (ja)
Inventor
Masakazu Toyama
雅一 外山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP8058792A priority Critical patent/JPH05282592A/en
Publication of JPH05282592A publication Critical patent/JPH05282592A/en
Priority to JP10315896A priority patent/JPH11219493A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PURPOSE:To surely confirm the normal connection of a line by a traffic control center. CONSTITUTION:A vehicle on a road is image-picked-up through the use of a video camera 11 so as to overlook the vehicle, the video information such as the travelling position, length and width of the vehicle are continuously processed by an image processing-type vehicle sensor mainbody 12, the persuit and travelling speed, etc., of the vehicle are outputted by a data input/output part 19, the present state of the road is judged and background image data is updated based on the information. Then, a transmission processing part 20 processes communication with the traffic control center. At this time, the traffic control center outputs a test sensing pulse output command so that the image processing-type vehicle sensor mainbody 12 continuously transmits the sensing output of the fixed number of vehicles and fixed pulse width for fixed time to the traffic control center and the traffic control center confirms whether or not abnormality exists in a transmission system based on the information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、道路上に設置され、車
両の速度、通過台数、小型車、大型車等の車種の必要な
交通情報を計測、収集する画像処理式車両感知装置及び
交通情報処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is an image processing type vehicle detection device and traffic information installed on a road for measuring and collecting necessary traffic information of vehicle speed, the number of vehicles passing through, small vehicles, large vehicles and the like. Regarding processing method.

【0002】[0002]

【従来の技術】従来、この種の必要な交通情報を計測、
収集する車両動態計測装置は、道路上の車両の動向を撮
影した原画像データと、背景画像データとを画像処理し
て走行車両を抽出し、車両の速度、通過台数、車種(普
通車/大型車)等の計測データを出力している。
2. Description of the Related Art Conventionally, necessary traffic information of this kind has been measured,
The vehicle dynamics measurement device that collects images the original image data obtained by capturing the movement of the vehicle on the road and the background image data to extract the traveling vehicle, and extracts the vehicle speed, the number of passing vehicles, the vehicle type (normal vehicle / large vehicle). It outputs measurement data such as car).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来例
の画像処理式車両感知装置では、単純に車両の速度、通
過台数、車種(小型車/大型車)等の必要な交通情報を
計測し、交通管制センタに伝送している。このため、感
知器を設置した場合の交通管制センタとの正常な伝送の
判定は、実際に車両が走行した結果を伝送して行うこと
になり、交通管制センタのみで正常伝送の正確な判定が
できないという問題がある。
However, in the image processing type vehicle detection device of the conventional example, necessary traffic information such as the speed of the vehicle, the number of passing vehicles, the type of vehicle (small vehicle / large vehicle), etc. is simply measured and the traffic control is performed. It is being transmitted to the center. For this reason, when the sensor is installed, the determination of normal transmission with the traffic control center is made by transmitting the result of the actual running of the vehicle, and only the traffic control center can accurately determine the normal transmission. There is a problem that you can not.

【0004】従来例の画像処理式車両感知装置では、基
本的に走行車両についての計測が主であり、昼間の渋滞
時などの停止車両を感知し、その存在感知の出力を保持
できないという問題がある。
In the image processing type vehicle detection device of the conventional example, the measurement is mainly performed on the traveling vehicle, and there is a problem that the output of the presence detection cannot be held by detecting the stopped vehicle such as during daytime traffic jam. is there.

【0005】従来例の画像処理式車両感知装置では、車
種判別(大型/小型)に常に一定の閾値を用いているた
め、車両の輝度の違いによる車種判別を正確に判定でき
ないという問題がある。
In the image processing type vehicle detection device of the conventional example, since a constant threshold value is always used for vehicle type discrimination (large / small), there is a problem that the vehicle type discrimination due to the difference in vehicle brightness cannot be accurately determined.

【0006】従来例の画像処理式車両感知装置では、画
像処理でフレーム差分と背景差分のプラス成分のみを用
いているが、影の周辺部分を完全に除去することができ
ないという問題がある。
In the conventional image processing type vehicle detection device, only positive components of the frame difference and the background difference are used in the image processing, but there is a problem that the peripheral portion of the shadow cannot be completely removed.

【0007】従来例の画像処理式車両感知装置では、画
像処理でフレーム差分と背景差分のプラス成分のみを用
いているが、薄暮時など輝度が低い場合に輝度の低い車
両の抽出が難しいという問題がある。
In the image processing type vehicle detection device of the conventional example, only the plus component of the frame difference and the background difference is used in the image processing, but it is difficult to extract a vehicle with low brightness when the brightness is low such as during twilight. There is.

【0008】従来例の画像処理式車両感知装置では、画
像処理でフレーム差分と背景差分のプラス成分のみを用
いているが、道路上の白線が抽出されてしまう場合があ
り、正確な車幅の抽出ができないという問題がある。
In the image processing type vehicle detection device of the conventional example, only the positive component of the frame difference and the background difference is used in the image processing. However, the white line on the road may be extracted, and the accurate vehicle width can be determined. There is a problem that it cannot be extracted.

【0009】従来例の画像処理式車両感知装置では、走
行車両の情報を計測することが主であり、違法駐車車両
などの所定外の検出ができないという問題がある。
The image processing type vehicle detection device of the conventional example mainly measures the information of the traveling vehicle and has a problem that it cannot detect an illegally parked vehicle or the like outside a predetermined range.

【0010】従来例の画像処理式車両感知装置では、夜
間車両が多く走行した場合、ヘッドライトの路面反射の
影響を受けてしまい、正常な背景画像データの更新がで
きないという問題がある。
The image processing type vehicle detection device of the conventional example has a problem that when many night vehicles run, it is affected by the road surface reflection of the headlight, and normal background image data cannot be updated.

【0011】従来例の画像処理式車両感知装置では、サ
ンプルポイントのみを用いて車両の抽出を行うため、夜
間のスモールランプのみを点灯させた車両の追跡や停止
した場合の存在感知出力を保持できないという問題があ
る。
In the conventional image processing type vehicle detection device, since the vehicle is extracted using only the sample points, it is impossible to keep track of the vehicle in which only the small lamp is turned on at night and the presence detection output when the vehicle is stopped. There is a problem.

【0012】本発明は、このような課題を解決するもの
であり、請求項1に対応して回線が正常に接続されてい
るかを交通管制センタで確実に確認できる画像処理式車
両感知装置を提供することを目的とする。
The present invention solves such a problem, and provides an image processing type vehicle detection device capable of surely confirming in a traffic control center whether a line is normally connected in accordance with claim 1. The purpose is to do.

【0013】請求項2に対応して解除指令を忘れた場合
にも交通管制に支障をきたすことがない画像処理式車両
感知装置を提供することを目的とする。
It is an object of the present invention to provide an image processing type vehicle detection device which does not hinder traffic control even when a cancellation command is forgotten.

【0014】請求項3に対応して、昼間の渋滞時など停
止車両の存在感知を出力できる昼間存在感知信号保持方
法を提供することを目的とする。
It is an object of the present invention to provide a daytime presence detection signal holding method capable of outputting the presence detection of a stopped vehicle such as during a daytime traffic jam.

【0015】請求項4に対応して、昼間の渋滞時など停
止車両の存在感知を出力することができる昼間存在感知
信号保持方法を提供することを目的とする。
It is an object of the present invention to provide a daytime presence detection signal holding method capable of outputting the presence detection of a stopped vehicle such as during a daytime traffic jam.

【0016】請求項5に対応して、正確な車種判別を行
うことができる昼間車種判別方法を提供することを目的
とする。
It is an object of the present invention to provide a daytime vehicle type discriminating method capable of accurately discriminating the vehicle type.

【0017】請求項6に対応して、車両部分のみを正確
に抽出できる車両抽出方法を提供することを目的とす
る。
It is an object of the present invention to provide a vehicle extraction method capable of accurately extracting only a vehicle portion.

【0018】請求項7に対応して、輝度の低い車両の抽
出を確実にできる薄暮時車両抽出方法を提供することを
目的とする。
It is an object of the present invention to provide a method for extracting a vehicle at dusk which can reliably extract a vehicle having low brightness.

【0019】請求項8に対応して、道路上に描かれた白
線の影響を除去できる車両抽出方法を提供することを目
的とする。
It is an object of the present invention to provide a vehicle extraction method capable of removing the influence of a white line drawn on a road.

【0020】請求項9に対応して、白線の影響を除去で
きる車両抽出方法を提供することを目的とする。
It is an object of the present invention to provide a vehicle extraction method capable of removing the influence of the white line.

【0021】請求項10に対応して、従来の機能を妨げ
ることなく、所定外駐車の機能を追加することができる
所定外駐車存在判定方法を提供することを目的とする。
It is an object of the present invention to provide a method for determining whether there is a non-predetermined parking presence, which is capable of adding the function of non-predetermined parking without interfering with conventional functions.

【0022】請求項11に対応して、ヘッドライトの路
面反射の影響を受けずに夜間の安定的な背景画像データ
の更新を行える夜間背景画像データ更新方法を提供する
ことを目的とする。
It is an object of the present invention to provide a nighttime background image data updating method capable of stably updating nighttime background image data without being affected by road surface reflection of a headlight.

【0023】請求項12に対応して、ヘッドライトの抽
出を確実に行うことができる夜間車両抽出方法を提供す
ることを目的とする。
It is an object of the present invention to provide a night vehicle extraction method capable of reliably extracting headlights.

【0024】請求項13に対応して、スモールランプの
み点灯している停止車両についても確実に存在感知信号
を保持させることができる夜間存在感知信号保持方法を
提供することを目的とする。
It is an object of the present invention to provide a night presence detection signal holding method capable of reliably holding the presence detection signal even for a stopped vehicle in which only the small lamp is lit.

【0025】請求項14に対応して、スモールランプの
み点灯している停止車両についても確実に存在感知信号
を保持させることができる夜間存在感知信号保持方法を
提供することを目的とする。
It is an object of the present invention to provide a night presence detection signal holding method capable of reliably holding the presence detection signal even for a stopped vehicle in which only the small lamp is lit.

【0026】[0026]

【課題を解決するための手段】この目的を達成するため
に、請求項1に対応する画像処理式車両感知装置は、道
路上の車両の動向を俯瞰するように撮影するビデオカメ
ラと、このビデオカメラの画像データを画像処理して、
車両の台数、占有率を測定する画像処理部と、交通管制
センタからの指令により一定の間隔で一定の感知パルス
を発生する試験感知パルス出力手段とを備えることを特
徴とするものである。
In order to achieve this object, an image processing type vehicle sensing device according to claim 1 is a video camera for taking a bird's eye view of the movement of a vehicle on a road, and this video. Image processing the image data of the camera,
It is characterized by comprising an image processing unit for measuring the number of vehicles and the occupancy rate, and a test sensing pulse output means for generating a constant sensing pulse at a constant interval according to a command from the traffic control center.

【0027】請求項2に対応する画像処理式車両感知装
置は、道路上の車両の動向を俯瞰するように撮影するビ
デオカメラと、このビデオカメラの画像データを画像処
理して、車両の台数、占有率を計測する画像処理部と、
交通管制センタからの指令により一定の間隔で一定の感
知パルスを発生する試験感知パルス出力手段と、前記試
験感知パルス出力手段の自動解除手段とを備えることを
特徴とするものである。請求項3に対応する昼間存在感
知信号保持方法は、道路上の車両の動向を俯瞰するよう
に撮影し、この画像データを画像処理して、車両の台
数、占有率を計測して、感知計測エリア内の原画像デー
タの輝度の分布を背景の平均輝度値を用い、3値化して
存在感知信号を保持することを特徴とするものである。
An image processing type vehicle detection device according to claim 2 is a video camera for taking a bird's eye view of the movement of a vehicle on a road, and image processing of the image data of the video camera to determine the number of vehicles. An image processing unit that measures the occupancy rate,
It is characterized by comprising test sensing pulse output means for generating constant sensing pulses at regular intervals in response to a command from the traffic control center, and automatic release means for the test sensing pulse output means. The daytime presence detection signal holding method according to claim 3 captures an image of a vehicle on the road in a bird's-eye view, processes the image data, measures the number of vehicles and the occupancy rate, and performs sensing measurement. The present invention is characterized in that the distribution of the luminance of the original image data in the area is ternarized using the average luminance value of the background and the presence detection signal is held.

【0028】請求項4に対応する昼間存在感知信号保持
方法は、道路上の車両の動向を俯瞰するように撮影する
ビデオカメラとビデオカメラの画像データを画像処理し
て、車両の台数、占有率を計測し、感知計測エリア内の
背景画像データの輝度の最頻度輝度の割合と原画像デー
タの最頻度輝度の割合の差から存在感知信号を保持する
ことを特徴とするものである。
In the daytime presence detection signal holding method according to a fourth aspect, the number of vehicles and the occupancy rate are obtained by performing image processing on the video data of the video camera and the video camera for taking a bird's eye view of the movement of the vehicle on the road. Is measured, and the presence detection signal is held from the difference between the ratio of the most frequent brightness of the background image data in the sensing measurement area and the ratio of the most frequent brightness of the original image data.

【0029】請求項5に対応する昼間車種判別方法は、
道路上の車両の動向を俯瞰するように撮影し、この画像
データを画像処理して、車両の台数、占有率を計測する
とともに、感知車両の輝度に応じて車種判別の閾値を変
化させることを特徴とするものである。
A daytime vehicle type discriminating method corresponding to claim 5 is as follows:
Taking a bird's-eye view of the trends of vehicles on the road, image processing this image data, measuring the number of vehicles and occupancy rate, and changing the threshold for vehicle type discrimination according to the brightness of the sensed vehicle. It is a feature.

【0030】請求項6に対応する車両抽出方法は、道路
上の車両の動向を俯瞰するように撮影し、この画像デー
タを画像処理して、車両の台数、占有率を計測し、フレ
ーム差分で変化のある画像は、その前の画素についてフ
レーム差分で変化があるかを判定し、この画素の後方に
膨張処理を行うかどうかを判定して、影の部分は膨張処
理を行わず、車両部分のみを膨張させることを特徴とす
るものである。
According to a sixth aspect of the present invention, a vehicle extracting method captures an image of a movement of a vehicle on a road, processes the image data, measures the number of vehicles and the occupancy rate, and calculates the frame difference. In the case of a changed image, it is determined whether there is a change in the frame difference for the previous pixel, whether or not expansion processing is performed behind this pixel, the shadow part is not expanded and the vehicle part It is characterized by expanding only one.

【0031】請求項7に対応する薄暮時車両抽出方法
は、道路上の車両の動向を俯瞰するように撮影し、この
画像データをプラス成分のみ有効にする背景差分と膨張
処理付きフレーム差分を用いて処理し、車両の台数、占
有率を計測して、薄暮時のみ背景差分のマイナス成分も
有効にして輝度の低い車両の抽出を行うことを特徴とす
るものである。
The twilight vehicle extraction method according to claim 7 uses a background difference and a frame difference with expansion processing, in which the movement of the vehicle on the road is photographed so as to give a bird's eye view, and the image data is made effective only with the positive component. It is characterized in that the number of vehicles and the occupancy rate are measured, and the minus component of the background difference is made effective only in the dusk to extract the vehicles with low brightness.

【0032】請求項8に対応する車両抽出方法は、道路
上の動向を俯瞰するように撮影し、この画像データをプ
ラス成分のみ有効にする背景差分と膨張処理付きフレー
ム差分を用いて処理し、車両の台数、占有率を計測する
とともに、背景差分及びフレーム差分で変化のある画素
について1画素前の画素についても確認を行い、その画
素の変化を有する場合のみ、その画素を有効にしてノイ
ズ成分を軽減することを特徴とするものである。
According to the vehicle extraction method of the eighth aspect of the present invention, an image is taken so as to give a bird's eye view of the trend on the road, and the image data is processed by using the background difference and the frame difference with the expansion processing which make only the positive component effective, The number of vehicles and the occupancy rate are measured, and the pixel that has changed by the background difference and the frame difference is also checked for the pixel one pixel before, and only when there is a change in that pixel, the pixel is validated and the noise component It is characterized by reducing.

【0033】請求項9に対応する車両抽出方法は、道路
上の車両の動向を俯瞰するように撮影し、この画像デー
タをプラス成分のみ有効にする背景差分と膨張処理付き
フレーム差分を用いて処理し、車両の台数、占有率を計
測するとともに、道路に描かれた白線の位置を予め初期
作成した背景画像データで自動計測し、計測エリア内の
白線部分を除いて画像処理を行うことを特徴とするもの
である。
According to a ninth aspect of the present invention, there is provided a vehicle extraction method for taking a bird's-eye view of the movement of a vehicle on a road, and processing this image data using a background difference and a frame difference with expansion processing that make only positive components valid. In addition to measuring the number of vehicles and occupancy rate, the position of the white line drawn on the road is automatically measured with the background image data created in advance, and image processing is performed excluding the white line part in the measurement area. It is what

【0034】請求項10に対応する所定外駐車存在判定
方法は、道路上の車両の動向を俯瞰するように撮影し、
この画像データをプラス成分のみ有効にする背景差分と
膨張処理付きフレーム差分を用いて処理し、車両の台
数、占有率を計測するとともに、車線を細分化して、そ
の細分化したエリア内の原画像データと背景画像データ
の最頻度輝度値と、その割合、平均輝度値とフレーム差
分で変化のある画素の割合より、その車線に所定外駐車
車両が存在するかの判定を行うことを特徴とするもので
ある。
The non-predetermined parking existence determining method according to claim 10 captures an image of the movement of the vehicle on the road in a bird's-eye view,
This image data is processed using the background difference that makes only the positive component valid and the frame difference with expansion processing, and the number of vehicles and the occupancy rate are measured, and the lanes are subdivided, and the original image in the subdivided area is processed. It is characterized in that whether or not there is a non-predetermined parking vehicle in the lane is determined based on the most frequent luminance value of the data and the background image data, the ratio thereof, and the average luminance value and the ratio of the pixels that change depending on the frame difference. It is a thing.

【0035】請求項11に対応する夜間背景画像データ
更新方法は、道路上の車両の動向を俯瞰するように撮影
し、この画像データをプラス成分のみ有効にする背景差
分と膨張処理付きフレーム差分を用いて処理し、車両の
台数、占有率を計測するとともに、背景画像データの更
新の定数についてマイナス方向の変化量をプラス成分の
変化量より大きくして、背景画像データの更新を行うこ
とを特徴とするものである。
According to the method of updating nighttime background image data according to claim 11, a background difference and a frame difference with expansion processing are obtained by taking an image of a vehicle on a road so as to give a bird's eye view, and validating only the plus component of this image data. It is characterized by performing processing by using it to measure the number of vehicles and the occupancy rate, and updating the background image data by making the amount of change of the background image data update in the negative direction larger than the amount of change of the positive component. It is what

【0036】請求項12に対応する夜間車両抽出方法
は、道路上の車両の動向を俯瞰するように撮影し、この
画像データをプラス成分のみ有効にする背景差分と膨張
処理付きフレーム差分を用いて処理し、車両の台数、占
有率を計測するとともに、夜間のみサンプルポイントの
画素とサンプルポイントの隣の画素の論理和を求めた結
果を画像処理して車両を抽出することを特徴とするもの
である。
According to the twelfth aspect of the present invention, the nighttime vehicle extraction method uses a background difference and a frame difference with expansion processing, in which the movement of the vehicle on the road is taken in a bird's-eye view and the image data is made effective only for the positive component. In addition to processing, measuring the number of vehicles and occupancy rate, image processing is performed on the result of the logical sum of the pixel at the sample point and the pixel next to the sample point only at night to extract the vehicle. is there.

【0037】請求項13に対応する夜間存在感知信号保
持方法は、道路上の車両の動向を俯瞰するように撮影
し、この画像データをプラス成分のみ有効にする背景差
分と膨張処理付きフレーム差分を用いて処理し、車両の
台数、占有率を計測するとともに、夜間のみ感知出力エ
リア内のサンプルポイントの画素とサンプルポイントの
隣の画素の論理和を求めた結果の輝度の分布から存在感
知信号を保持することを特徴とするものである。
The night presence detection signal holding method according to the thirteenth aspect is such that the movement of the vehicle on the road is photographed in a bird's-eye view, and the background difference and the frame difference with expansion processing for validating only the plus component of this image data are taken. The presence detection signal is processed from the luminance distribution of the result obtained by calculating the logical sum of the pixel of the sample point and the pixel next to the sample point in the sensing output area only at night It is characterized by holding.

【0038】請求項14に対応する夜間存在感知信号保
持方法は、道路上の車両の動向を俯瞰するように撮影
し、この画像データをプラス成分のみ有効にする背景差
分と膨張処理付きフレーム差分を用いて処理し、車両の
台数、占有率を計測するとともに、夜間のみ感知出力エ
リア内のサンプルポイントの画素とサンプルポイントの
隣の画素の論理和を求めた結果の輝度の分布と背景画像
データの輝度の分布の差分から存在感知信号を保持させ
ることを特徴とするものである。
According to a fourteenth aspect of the present invention, the night presence detection signal holding method captures an image of a vehicle on the road in a bird's-eye view, and a background difference and a frame difference with expansion processing for validating only the plus component of this image data. The number of vehicles and the occupancy rate are processed, and the distribution of luminance and the background image data of the result of the logical sum of the pixel of the sample point and the pixel next to the sample point in the sensing output area only at night The present invention is characterized in that the presence detection signal is held based on the difference in luminance distribution.

【0039】[0039]

【作用】このような構成により、本発明の請求項1に対
応する画像処理式車両感知装置は、通管制センタからの
指令により、自動的に試験感知信号を発生させるように
しているので、回線の正常を接続状態を交通管制センタ
で確実に確認できる。
With such a configuration, the image processing type vehicle detection device according to claim 1 of the present invention automatically generates the test detection signal in response to a command from the traffic control center. It is possible to reliably confirm the normal connection status at the traffic control center.

【0040】請求項2に対応する画像処理式車両感知装
置は、交通管制センタからの指令により自動的に試験感
知信号を発生した後、交通管制センタからの解除指令無
しで自動的に一定時間が経過したら解除するようにして
いるので、解除指令を忘れた場合にも交通管制に支障を
きたすことがない。
The image processing type vehicle detection device according to claim 2 automatically generates a test detection signal in response to a command from the traffic control center, and then automatically operates for a predetermined time without a release command from the traffic control center. Since it is released after the elapse of time, traffic control will not be hindered even if the release command is forgotten.

【0041】これらの画像処理式車両感知装置によれ
ば、画像処理式車両感知装置に作業員を配置せずに確認
を行うことができる。
According to these image processing type vehicle detection devices, confirmation can be performed without arranging an operator in the image processing type vehicle detection device.

【0042】請求項3に対応する昼間存在感知信号保持
方法では、原画像データの輝度のヒストグラムを背景の
平均輝度値を用いて3値化して存在感知信号を保持して
いるので、昼間の渋滞時など停止車両の存在感知を出力
できる。
In the daytime presence detection signal holding method according to the third aspect, since the histogram of the brightness of the original image data is ternarized using the average brightness value of the background to hold the presence detection signal, the daytime traffic congestion It is possible to output the presence detection of a stopped vehicle such as time.

【0043】請求項4に対応する昼間存在感知信号保持
方法は、背景画像データの輝度の最頻度輝度の割合と原
画像データの最頻度輝度の割合の差から存在感知信号を
保持しているので、昼間の渋滞時など停止車両の存在感
知を出力することができる。
In the daytime presence detection signal holding method according to the fourth aspect, the presence detection signal is held from the difference between the ratio of the most frequent brightness of the background image data and the most frequent brightness of the original image data. , It is possible to output the presence detection of a stopped vehicle such as during daytime traffic jam.

【0044】請求項5に対応する昼間車種判別方法は、
感知車両の輝度に応じて車種判別の閾値を変化させてい
るので、正確な車種判別を行うことができる。
A daytime vehicle type discriminating method corresponding to claim 5 is as follows:
Since the threshold for vehicle type discrimination is changed according to the brightness of the sensed vehicle, accurate vehicle type discrimination can be performed.

【0045】請求項6に対応する車両抽出方法は、画像
データから影の部分は膨張処理を行わず車両部分のみを
膨張しているので、車両部分のみを正確に抽出できる。
In the vehicle extracting method according to the sixth aspect, since the shadow portion is not expanded from the image data and only the vehicle portion is expanded, only the vehicle portion can be accurately extracted.

【0046】請求項7に対応する薄暮時車両抽出方法で
は、薄暮時輝度の低い時間帯に背景差分のマイナス成分
を有効にしているので、輝度の低い車両の抽出を確実に
できる。
In the twilight vehicle extraction method according to the seventh aspect, since the minus component of the background difference is validated during the low twilight luminance time zone, the vehicle with low luminance can be reliably extracted.

【0047】請求項8に対応する車両抽出方法は、背景
差分及びフレーム差分で変化のある画素について一画素
手前の画素についても確認を行い、一画素手前の画素に
変化がある場合のみ、その画素を有効にしてノイズ成分
を軽減するようにしているので、道路上に描かれた白線
の影響を除去できる。
In the vehicle extraction method according to the eighth aspect, the pixel which is one pixel before the pixel having a change in the background difference and the frame difference is also confirmed, and only when the pixel one pixel before is changed, the pixel is changed. Is enabled to reduce the noise component, the influence of the white line drawn on the road can be removed.

【0048】請求項9に対応する車両抽出方法では、道
路に描かれた白線の位置を予め初期作成した背景画像デ
ータより自動計測させ、計測エリア内の白線部分を除い
て画像処理を行うようにしているので、白線の影響を除
去できる。
In the vehicle extraction method according to the ninth aspect, the position of the white line drawn on the road is automatically measured from the background image data created in advance, and the image processing is performed excluding the white line portion in the measurement area. Therefore, the influence of the white line can be removed.

【0049】請求項10に対応する所定外駐車存在判定
方法では、車線を細分化して、その細分化したエリア内
の原画像データと背景画像データの最頻度輝度値と、そ
の割合、平均輝度値とフレーム差分で変化のある画素の
割合で、その車線に所定外駐車を検出しているので、従
来のハードウエアのみで従来の機能を妨げることなく、
所定外駐車の存在判定機能を追加することができる。
In the non-predetermined parking existence determining method according to the tenth aspect, the lane is subdivided, and the most frequent luminance values of the original image data and the background image data in the subdivided area, their ratio, and the average luminance value. Since the non-predetermined parking in the lane is detected by the ratio of the pixels that change according to the frame difference, the conventional function is not hindered by the conventional hardware alone.
It is possible to add a function for determining the presence of non-prescribed parking.

【0050】請求項11に対応する夜間背景画像データ
更新方法は、夜間の背景画像データの更新の定数につい
てマイナス方向の変化量をプラス成分の変化量を、より
大きくしているので、ヘッドライトの路面反射の影響を
受けずに夜間の安定的な背景画像データの更新を行え
る。
In the nighttime background image data updating method according to the eleventh aspect, since the amount of change in the negative direction and the amount of change in the positive component of the constant for updating the background image data at night are made larger, Stable background image data can be updated at night without being affected by road reflection.

【0051】請求項12に対応する夜間車両抽出方法
は、夜間のみサンプルポイントの画素とサンプルポイン
トの隣の画素の論理和を求めた結果を用いて車両抽出処
理を行うよにしているので、ヘッドライトの抽出を確実
に行うことができる。
In the nighttime vehicle extraction method according to the twelfth aspect, the vehicle extraction process is performed only at night using the result of the logical sum of the pixel of the sample point and the pixel adjacent to the sample point. It is possible to reliably extract the light.

【0052】請求項13に対応する夜間存在感知信号保
持方法では、夜間のみサンプルポイントの画素とサンプ
ルポイントの隣の画素の論理和を求めた結果を用いて存
在感知信号を保持しているので、スモールランプのみ点
灯している停止車両についても確実に存在感知信号を保
持できる。
In the night presence detection signal holding method according to the thirteenth aspect, since the presence detection signal is held by using the result of the logical sum of the pixel at the sample point and the pixel next to the sample point only at night. The presence detection signal can be reliably held even for a stopped vehicle in which only the small lamp is lit.

【0053】請求項14に対応する夜間存在感知信号保
持方法は、夜間のみ感知エリア内のサンプルポイントの
画素とサンプルポイントの隣の画素の論理和を求めた結
果の輝度分布と背景画像データの輝度分布との差分より
存在感知信号を保持しているので、スモールランプのみ
点灯している停止車両についても確実に存在感知信号を
保持できる。
According to a fourteenth aspect of the present invention, there is provided a nighttime presence detection signal holding method, wherein only at night, the luminance distribution of the result of obtaining the logical sum of the pixel of the sample point and the pixel adjacent to the sample point in the sensing area and the luminance of the background image data. Since the presence detection signal is held based on the difference from the distribution, it is possible to reliably hold the presence detection signal even for a stopped vehicle in which only the small lamp is lit.

【0054】[0054]

【実施例】以下、本発明の 画像処理式車両感知装置及
び交通情報処理方法の実施例について図面をもとに説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an image processing type vehicle detection device and a traffic information processing method according to the present invention will be described below with reference to the drawings.

【0055】先ず、第1の実施例を説明する。なお、こ
の第1の実施例は請求項1に対応する。図1は第1の実
施例の構成を示している。図1において、11は道路上
の車両を俯瞰するように撮影しているビデオカメラであ
り、12はビデオカメラ11から道路上の車両等が撮影
された映像情報を処理して、車両の速度、通過台数、車
種(小型車/大型車)等の必要な交通情報を計測、収集
する画像処理式車両感知装置本体である。13は画像処
理式車両感知装置本体12に内蔵され、映像情報をデジ
タル化するA/D変換部であり、14は画像処理式車両
感知装置本体12に内蔵され、A/D変換部13でデジ
タル変換された画像データを格納する画像メモリ(入力
画像1)である。さらに、15は画像処理式車両感知装
置本体12に内蔵され、A/D変換部13でデジタル変
換された画像データを格納する画像メモリ(入力画像
2)であり、16は画像処理式車両感知装置本体12に
内蔵され、A/D変換部13でデジタル変換された画像
データを格納する画像メモリ(入力画像3)である。1
7は画像処理式車両感知装置本体12に内蔵され、A/
D変換部13でデジタル変換された画像データを格納す
る画像メモリ(入力画像4)であり、18は画像処理式
車両感知装置本体12に内蔵され、画像メモリ14、1
5、16に格納された画像データを処理し、画像メモリ
17に処理結果を格納して、車両部を抽出し、車両の速
度、通過台数、車種(小型車/大型車)等の必要な交通
情報を計測する画像データ処理部である。19は画像処
理式車両感知装置本体12に内蔵され、画像データ処理
部18で処理した交通情報を交通信号制御機等に出力す
るデータ入出力部である。また、20は画像処理式車両
感知装置本体12に内蔵され、交通管制センタとの通信
処理を行う伝送処理部であり、各種の指令を画像処理式
車両感知装置本体12に伝送し、画像処理式車両感知装
置本体12は、その指令にもとづいた処理を行う。
First, the first embodiment will be described. The first embodiment corresponds to claim 1. FIG. 1 shows the configuration of the first embodiment. In FIG. 1, reference numeral 11 is a video camera that takes a bird's-eye view of a vehicle on the road, and reference numeral 12 is a video camera that processes image information of the vehicle taken on the road and the speed of the vehicle. This is an image processing type vehicle detection device body that measures and collects necessary traffic information such as the number of vehicles passing through and the type of vehicle (small vehicle / large vehicle). Reference numeral 13 denotes an A / D conversion unit which is built in the image processing type vehicle detection device main body 12 and digitizes the video information, and 14 is built in the image processing type vehicle detection device main body 12 and digitalized by the A / D conversion unit 13. It is an image memory (input image 1) for storing the converted image data. Further, 15 is an image memory (input image 2) which is built in the image processing type vehicle sensing device main body 12 and stores image data digitally converted by the A / D conversion unit 13, and 16 is an image processing type vehicle sensing device. An image memory (input image 3) that is built in the main body 12 and stores image data digitally converted by the A / D converter 13. 1
7 is built in the image processing type vehicle detection device main body 12,
Reference numeral 18 denotes an image memory (input image 4) that stores image data digitally converted by the D conversion unit 13, and 18 is built in the image processing type vehicle sensing device main body 12, and image memories 14 and 1 are provided.
Image data stored in 5 and 16 are processed, the processing result is stored in the image memory 17, the vehicle part is extracted, and necessary traffic information such as vehicle speed, number of passing vehicles, vehicle type (small car / large car), etc. Is an image data processing unit for measuring. Reference numeral 19 denotes a data input / output unit which is built in the image processing type vehicle detection device main body 12 and outputs the traffic information processed by the image data processing unit 18 to a traffic signal controller or the like. Reference numeral 20 denotes a transmission processing unit which is built in the image processing type vehicle detection device main body 12 and performs communication processing with the traffic control center, and transmits various commands to the image processing type vehicle detection device main body 12, The vehicle detection device body 12 performs processing based on the command.

【0056】次に、この第1の実施例における構成の動
作について説明する。図1において、ビデオカメラ11
を用いて道路上の車両を俯瞰するように撮像し、この映
像情報を画像処理式車両感知装置本体12に伝送する。
画像処理式車両感知装置本体12では、ここからの情報
をA/D変換部13を用いてデジタルデータに変換す
る。そして、ある一定の間隔で撮像された2画面分のデ
ジタルデータを画像メモリ14、15に格納する。ま
た、画像メモリ16には、車両の存在していない状態の
情報(背景画像データ)が格納されている。そして、こ
れら画像メモリ14、5、6のデータを用いて画像デー
タ処理部18ではプラス成分のみを用いる背景差分方式
とプラス成分のみ膨張処理付きフレーム差分方式(プラ
ス成分のみ用いることにより影の部分の大部分を除去で
きる)を用いることによって画像メモリ17に画像処理
した結果を書き込み、この画像データから車両の抽出を
行い、車両の走行位置、車長、車幅を計測する。そし
て、この処理を連続することによって、車両の追跡、走
行速度等をデータ入出力部19で出力する。この出力は
交通信号制御機と接続し、交通信号制御機の制御用に用
いることができるとともに、現在の道路上の状態を判定
し、この情報をもとに背景画像データの更新を行う。ま
た、伝送処理部20では交通管制センタとの通信処理を
行う。この時交通管制センタから試験感知パルス出力指
令を出力することにより、画像処理式車両感知装置本体
12は一定時間に一定台数、一定パルス幅の感知出力を
連続で交通管制センタに送信し、交通管制センタでは、
この情報をもとに伝送系に異常が無いかどうかの確認を
行う。
Next, the operation of the configuration according to the first embodiment will be described. In FIG. 1, the video camera 11
Is used to capture an image of the vehicle on the road from a bird's-eye view, and this video information is transmitted to the image processing type vehicle detection device body 12.
In the main body 12 of the image processing type vehicle detection device, the information from here is converted into digital data using the A / D converter 13. Then, the digital data for two screens imaged at a certain fixed interval are stored in the image memories 14 and 15. Further, the image memory 16 stores information (background image data) in a state where no vehicle exists. Then, using the data of these image memories 14, 5 and 6, the image data processing unit 18 uses the background difference method using only the plus component and the frame difference method with the expansion process only on the plus component (by using only the plus component, (Most of which can be removed) is used to write the result of the image processing to the image memory 17, the vehicle is extracted from this image data, and the traveling position, vehicle length, and vehicle width of the vehicle are measured. By continuing this process, the data input / output unit 19 outputs the vehicle tracking, the traveling speed, and the like. This output is connected to the traffic signal controller and can be used for controlling the traffic signal controller, and also determines the current state on the road and updates the background image data based on this information. In addition, the transmission processing unit 20 performs communication processing with the traffic control center. At this time, by outputting a test sensing pulse output command from the traffic control center, the main body 12 of the image processing type vehicle sensing device 12 continuously transmits the sensing output of a certain number and a certain pulse width to the traffic control center at a certain time. At the center,
Based on this information, check whether there is any abnormality in the transmission system.

【0057】次に、試験感知パルス出力処理を説明す
る。図2(a)(b)は試験感知パルス出力機能の処理
手順を示している。図2(a)の通信割り込みにおい
て、センタからの情報を受信する(ステップ(図中、S
と記載する)21)。次に、受信した情報が試験感知パ
ルス出力開始指令であるかどうかの確認を行う(ステッ
プ22)。試験感知パルス出力開始指令である場合は、
試験感知パルス出力FLG(フラグ)を1にする(ステ
ップ23)とともに、受信した試験感知パルス出力のテ
ーブル番号を記憶する(ステップ24)。さらに、受信
した情報が試験感知パルス出力停止指令であるかどうか
の確認を行う(ステップ25)。試験感知パルス出力停
止指令である場合は、試験感知パルス出力FLGを0に
する(ステップ26)とともに、受信した試験感知パル
ス出力のテーブル番号を記憶しているメモリをクリアす
る(ステップ27)。また、受信した情報が他の指令で
あるかどうかの確認を行う(ステップ2パルス)。他の
指令である場合は、その指令に応じた処理を行う(ステ
ップ29)。
Next, the test sensing pulse output processing will be described. 2A and 2B show the processing procedure of the test sensing pulse output function. In the communication interrupt of FIG. 2A, information from the center is received (step (in the figure, S
21). Next, it is confirmed whether the received information is a test sensing pulse output start command (step 22). If it is a test sensing pulse output start command,
The test sensing pulse output FLG (flag) is set to 1 (step 23), and the table number of the received test sensing pulse output is stored (step 24). Further, it is confirmed whether or not the received information is a test sensing pulse output stop command (step 25). If the command is the test sensing pulse output stop command, the test sensing pulse output FLG is set to 0 (step 26), and the memory storing the table number of the received test sensing pulse output is cleared (step 27). Also, it is confirmed whether the received information is another command (step 2 pulse). If it is another command, the process according to the command is performed (step 29).

【0058】次に、図2(b)において、通信割り込み
処理の結果より、通常の処理では、先ず、試験感知パル
ス出力FLGが1であるかどうかの確認を行う(スイッ
チ210)。もし、FLGが1でない場合は、通常の感
知処理を行う(ステップ211)。FLGが1の場合
は、先ず、試験感知パルス出力のテーブル番号を記憶し
ているメモリを読み出す(ステップ212)。そしてテ
ーブル番号に応じた試験感知パルスの出力を行う(ステ
ップ213)。
Next, in FIG. 2B, based on the result of the communication interrupt process, in the normal process, it is first checked whether the test sensing pulse output FLG is 1 (switch 210). If FLG is not 1, normal sensing processing is performed (step 211). If FLG is 1, first, the memory that stores the table number of the test sensing pulse output is read (step 212). Then, the test sensing pulse corresponding to the table number is output (step 213).

【0059】このように、第1の実施例では、交通管制
センタからの指令により自動的に試験感知信号を発生さ
せて、回線の正常接続状態を交通管制センタで確実に確
認できる。また、画像処理式車両感知装置に作業員を配
置せずに確認を行うことができる。
As described above, in the first embodiment, the test control signal is automatically generated according to the command from the traffic control center, and the normal connection state of the line can be surely confirmed at the traffic control center. Further, the confirmation can be performed without arranging a worker in the image processing type vehicle detection device.

【0060】次に、第2の実施例の試験感知パルス出力
停止処理について説明する。この第2の実施例は請求項
2に対応する。
Next, the test sensing pulse output stop processing of the second embodiment will be described. This second embodiment corresponds to claim 2.

【0061】図3(a)(b)(c)は、試験感知パル
ス出力停止処理の手順を示している。図3(a)に示す
通信割り込みにおいて、センタからの情報を受信する
(ステップ31)。次に、受信した情報が試験感知パル
ス出力開始指令であるかどうかの確認を行う(ステップ
32)。試験感知パルス出力開始指令である場合は、試
験感知パルス出力FLGを1にする(ステップ33)と
ともに、受信した試験感知パルス出力のテーブル番号を
記憶する(ステップ34)。また、受信した情報が試験
感知パルス出力停止指令であるか否かの確認を行う(ス
テップ35)。試験感知パルス出力停止指令である場合
は、試験感知パルス出力FLGを0にする(ステップ3
6)とともに、受信した試験感知パルス出力のテーブル
番号を記憶しているメモリをクリアする(ステップ3
7)。さらに、受信した情報が他の指令か否かの確認を
行う(ステップ38)。他の指令である場合は、その指
令に応じた処理を行う(ステップ39)。
FIGS. 3A, 3B and 3C show the procedure of the test sensing pulse output stop processing. In the communication interruption shown in FIG. 3A, the information from the center is received (step 31). Next, it is confirmed whether or not the received information is a test sensing pulse output start command (step 32). If the command is a test sensing pulse output start command, the test sensing pulse output FLG is set to 1 (step 33) and the table number of the received test sensing pulse output is stored (step 34). Further, it is confirmed whether or not the received information is a test sensing pulse output stop command (step 35). If the command is the test sensing pulse output stop command, the test sensing pulse output FLG is set to 0 (step 3).
Along with 6), the memory that stores the table number of the received test sensing pulse output is cleared (step 3
7). Further, it is confirmed whether the received information is another command (step 38). If it is another command, the process according to the command is performed (step 39).

【0062】次に、図3(b)に示すタイマ割り込み処
理において、先ず、試験感知パルス出力FLGが1であ
るか否かの確認を行う(ステップ310)。FLGが1
でない場合は、試験感知パルス出力カウンタをクリアし
(ステップ311)、FLGが1の場合は、試験感知パ
ルス出力カウンタをインクリメントする(ステップ31
2)。そして、このカウンタが設定値よりも大きいかど
うかの確認を行い(ステップ313)、大きい場合は、
試験感知パルス出力FLGを強制的に0にする(ステッ
プ314)とともに、受信した試験感知パルス出力のテ
ーブル番号を記憶しているメモリをクリアする(ステッ
プ315)。
Next, in the timer interrupt processing shown in FIG. 3B, it is first confirmed whether or not the test sensing pulse output FLG is 1 (step 310). FLG is 1
If not, the test sensing pulse output counter is cleared (step 311), and if FLG is 1, the test sensing pulse output counter is incremented (step 31).
2). Then, it is confirmed whether or not this counter is larger than the set value (step 313).
The test sensing pulse output FLG is forcibly set to 0 (step 314), and the memory storing the table number of the received test sensing pulse output is cleared (step 315).

【0063】これらの割り込み処理の結果より、図3
(c)に示す通常の処理では、先ず、試験感知パルス出
力FLGが1であるかどうかの確認を行う(ステップ3
16)。FLGが1でない場合は、通常の感知処理を行
う(ステップ317)。FLGが1の場合は、先ず、試
験感知パルス出力のテーブル番号を記憶しているメモリ
を読み出す(ステップ318)。そしてテーブル番号に
応じた試験感知パルスの出力を行う(ステップ31
9)。
From the results of these interrupt processes, FIG.
In the normal processing shown in (c), it is first checked whether the test sensing pulse output FLG is 1 (step 3).
16). If FLG is not 1, normal sensing processing is performed (step 317). If FLG is 1, first, the memory that stores the table number of the test sensing pulse output is read (step 318). Then, the test sensing pulse corresponding to the table number is output (step 31).
9).

【0064】このように、第2の実施例では交通管制セ
ンタからの指令により自動的に試験感知信号を発生させ
た後、交通管制センタからの解除指令が無くとも自動的
に一定時間が経過したら解除する。このため、解除指令
を忘れた場合にも交通管制に支障をきたすことがない。
また、画像処理式車両感知装置に作業員を配置させない
で確認を行うことができる。
As described above, in the second embodiment, after a test sensing signal is automatically generated in response to a command from the traffic control center, if a predetermined time elapses even if there is no cancellation command from the traffic control center. To release. For this reason, traffic control will not be hindered even if the cancellation command is forgotten.
Further, the confirmation can be performed without arranging a worker in the image processing type vehicle detection device.

【0065】次に、第3の実施例における存在感知出力
について説明する。この第3の実施例は請求項3に対応
する。
Next, the presence sensing output in the third embodiment will be described. This third embodiment corresponds to claim 3.

【0066】図4(a)(b)(c)(d)は存在感知
出力を計測するエリアを示している。図4(a)におい
て、通常の計測エリアの最終の4〜6mのエリアを存在
感知計測エリアとし、このエリアの原画像データ、背景
画像データの平均輝度、輝度の最頻度値等を計測して各
車線の昼間の存在感知出力を計測する。
FIGS. 4 (a), (b), (c) and (d) show areas for measuring the presence sensing output. In FIG. 4A, the last 4 to 6 m of the normal measurement area is set as the presence detection measurement area, and the original image data of this area, the average luminance of the background image data, the most frequent value of luminance, etc. are measured. Measure the presence detection output of each lane in the daytime.

【0067】通常、図4(b)に示すように感知検束エ
リア内の原画像データの輝度分布はほぼ一定の輝度に出
力している。しかしながら、図4(c)に示すように感
知計測エリア内に車両が存在する場合は、輝度分布がく
ずれる。この条件を用いることにより、図4(d)に示
すように原画像データの輝度分布を背景画像データの平
均輝度値を境に3値化し、−1、−1と判定された画素
の個数と0と判定された画素の個数の割合より車両の有
無を判定して、存在感知出力を保持する。
Normally, as shown in FIG. 4 (b), the luminance distribution of the original image data in the sensing and focusing area is output at a substantially constant luminance. However, as shown in FIG. 4C, when the vehicle exists in the sensing / measurement area, the luminance distribution is distorted. By using this condition, as shown in FIG. 4D, the luminance distribution of the original image data is ternarized with the average luminance value of the background image data as a boundary, and the number of pixels determined to be −1 and −1. The presence / absence of a vehicle is determined based on the ratio of the number of pixels determined to be 0, and the presence detection output is held.

【0068】さらに、昼間存在感知信号保持処理を説明
する。図5は昼間存在感知信号保持処理の手順を示して
いる。図5において、先ず、プラス成分のみを用いる背
景差分方式とプラス成分のみ膨張処理付きフレーム差分
方式を用いて加工画面を作成する(ステップ51)。次
に、この加工画面より走行車両の抽出を行う(ステップ
52)。続いて、抽出した車両を処理して、車両追跡処
理を行う(ステップ53)。また、感知計測エリアに追
跡車両が侵入したか否かを判定する(ステップ54)。
追跡車両が侵入したと判定した場合は、存在感知出力を
オン(ON)にする(ステップ55)。次に、背景画像
データの輝度平均を求め(ステップ56)、現在の昼夜
状態を判定する(ステップ57)。夜間の場合は、通常
の存在感知保持処理を行う(ステップ58)。昼間の場
合は、先ず、感知計測エリア内の原画像データの輝度の
分布(ヒストグラム)を計測する(ステップ59)。次
に、背景画像データの平均輝度値をもとに感知計測エリ
ア内の原画像データの輝度の分布を3値化し(ステップ
510)、背景画像データの平均輝度付近の画素数を他
の画素数が越えたか否かを判定する(ステップ51
1)。越えない場合は、存在感知出力をオフ(OFF)
にする(ステップ512)。
Further, the daytime presence detection signal holding process will be described. FIG. 5 shows a procedure of a daytime presence detection signal holding process. In FIG. 5, first, a processing screen is created using the background subtraction method using only the plus component and the frame subtraction method with expansion processing only on the plus component (step 51). Next, the traveling vehicle is extracted from this processing screen (step 52). Then, the extracted vehicle is processed to perform a vehicle tracking process (step 53). Further, it is determined whether or not the tracking vehicle has entered the sensing / measurement area (step 54).
When it is determined that the tracking vehicle has entered, the presence detection output is turned on (step 55). Next, the average luminance of the background image data is calculated (step 56), and the current day / night state is determined (step 57). In the case of night, a normal presence detection holding process is performed (step 58). In the daytime, first, the luminance distribution (histogram) of the original image data in the sensing measurement area is measured (step 59). Next, based on the average luminance value of the background image data, the luminance distribution of the original image data in the sensing measurement area is ternarized (step 510), and the number of pixels near the average luminance of the background image data is set to another number of pixels. Is determined (step 51).
1). If it does not exceed, presence detection output is turned off.
(Step 512).

【0069】このように、第3の実施例によれば、感知
計測エリア内の原画像データの輝度のヒストグラムを背
景の平均輝度値を用いて3値化して存在感知信号を保持
することができ、昼間の渋滞時など停止車両の存在感知
を出力できる。
As described above, according to the third embodiment, the histogram of the luminance of the original image data in the sensing / measurement area can be ternarized by using the average luminance value of the background to hold the presence sensing signal. , It can output the presence detection of a stopped vehicle, such as during daytime traffic jams.

【0070】次に、第4の実施例における昼間の存在感
知信号保持処理について説明する。なお、この第4の実
施例は請求項4に対応する。
Next, the daytime presence detection signal holding processing in the fourth embodiment will be described. The fourth embodiment corresponds to claim 4.

【0071】図6(a)(b)(c)は昼間の存在感知
信号保持のための計測エリアを示している。図6(a)
において、通常の計測エリアの最終の4〜6mのエリア
を存在感知計測エリアとし、このエリアの原画像デー
タ、背景画像データの平均輝度、輝度の最頻度値等を計
測して各車線の昼間の存在感知出力を計測する。
FIGS. 6A, 6B and 6C show measurement areas for holding the presence detection signal in the daytime. Figure 6 (a)
, The last 4 to 6 m of the normal measurement area is set as the presence detection measurement area, and the average luminance of the original image data, the background image data, the most frequent value of the luminance, etc. of this area are measured to determine the daytime of each lane. Measure the presence sensing output.

【0072】通常、図6(b)に示すように、感知計測
エリア内の原画像データの輝度分布は、略一定の輝度に
集中している。しかしながら、図6(c)に示すよう
に、感知計測エリア内に車両が存在する場合は、輝度分
布がくずれる。この条件を用いることにより、原画像デ
ータの最頻度輝度値の割合と背景画像データの最頻度輝
度値の割合を比較して、車両の有無を判定し、存在感知
出力が保持できることになる。
Normally, as shown in FIG. 6B, the luminance distribution of the original image data in the sensing / measurement area is concentrated at a substantially constant luminance. However, as shown in FIG. 6C, when the vehicle exists in the sensing measurement area, the luminance distribution is distorted. By using this condition, the presence / absence of the vehicle can be determined by comparing the ratio of the most frequent brightness value of the original image data with the ratio of the most frequent brightness value of the background image data, and the presence sensing output can be held.

【0073】さらに、昼間の存在感知信号保持処理を説
明する。図7は、この存在感知信号保持処理手順を示し
ている。図7において、先ず、プラス成分のみを用いる
背景差分方式とプラス成分のみ膨張処理付きフレーム差
分方式を用いて加工画面を作成する(ステップ71)。
次に、この加工画面より走行車両の抽出を行う(ステッ
プ72)。また、抽出した車両を処理して車両追跡処理
を行う(ステップ73)。さらに、感知計測エリアに追
跡車両が進入したか否かを判定する(ステップ74)。
追跡車両が進入したと判定した場合は、存在感知出力を
オン(ON)にする(ステップ75)。次に、背景画像
データの輝度平均を求め(ステップ76)、現在の昼夜
状態を判定する(ステップ77)。夜間の場合は通常の
存在感知保持処理を行う(ステップ78)。昼間の場合
は先ず、感知計測エリア内の原画像データの輝度の分布
(ヒストグラム)を計測する(ステップ79)。次に、
感知計測エリア内の背景画像データの輝度の分布(ヒス
トグラム)を計測する(ステップ710)。次に、感知
計測エリア内の背景画像データと原画像データの最頻度
輝度値の割合を比較し、(ステップ711)、閾値以上
の場合は、存在感知出力をオフ(OFF)にする(ステ
ップ712)。
Further, the daytime presence detection signal holding process will be described. FIG. 7 shows the procedure for holding the presence detection signal. In FIG. 7, first, a processed screen is created using the background subtraction method using only the plus component and the frame subtraction method with expansion processing only on the plus component (step 71).
Next, the traveling vehicle is extracted from this processing screen (step 72). Further, the extracted vehicle is processed to perform vehicle tracking processing (step 73). Further, it is determined whether or not the tracking vehicle has entered the sensing / measurement area (step 74).
When it is determined that the tracking vehicle has entered, the presence detection output is turned on (step 75). Next, the average luminance of the background image data is calculated (step 76), and the current day / night state is determined (step 77). In the case of nighttime, normal presence detection holding processing is performed (step 78). In the daytime, first, the luminance distribution (histogram) of the original image data in the sensing measurement area is measured (step 79). next,
The luminance distribution (histogram) of the background image data in the sensing measurement area is measured (step 710). Next, the ratios of the most frequent luminance values of the background image data and the original image data in the sensing measurement area are compared (step 711). If the ratio is equal to or more than the threshold value, the presence sensing output is turned off (step 712). ).

【0074】このように第4の実施例によれば、背景画
像データの輝度の最頻度輝度の割合と原画像データの最
頻度輝度の割合の差から存在感知信号を保持でき、昼間
の渋滞時など停止車両の存在感知を出力できる。
As described above, according to the fourth embodiment, the presence detection signal can be held from the difference between the ratio of the most frequent brightness of the background image data and the ratio of the most frequent brightness of the original image data. It can output the presence detection of a stopped vehicle.

【0075】次に、第5の実施例を説明する。なお、こ
の第5の実施例は請求項5に対応する。
Next, a fifth embodiment will be described. The fifth embodiment corresponds to claim 5.

【0076】図8は、昼間車種判別の処理手順を示して
いる。図8において、先ず、車両追跡エリア内を膨張処
理付きフレーム差分+背景差分の画像処理を行い、加工
画面を作成する(ステップ81)。次に、加工画面より
車両部分の抽出を行う(ステップ82)。次に、加工画
面上の抽出結果を解析し、車両の前縁部分の位置を抽出
する(ステップ83)。そして、この前縁データと前回
までの前縁部分、速度データを比較し、車両の追跡処理
を行う(ステップ84)。追跡の終了した車両について
は、車両速度、存在感知信号のパルス幅等を計算する
(ステップ85)。次に、車種判別を行う。先ず、背景
画像データの輝度平均を求め(ステップ86)、現在の
昼夜状態を判定する(ステップ87)。夜間の場合は通
常のヘッドライト間の幅を用いた車種判別処理を行う
(ステップ88)。昼間の場合は、先ず、加工画面上の
車両抽出部分より、車長、車幅を計測する(ステップ8
9)。続いて、加工画面上の車両抽出部分の位置を計測
する(ステップ810)。次に、原画像データでの車両
抽出部分の輝度平均を求める(ステップ811)。そし
て、この平均輝度が閾値より明るいか否かを判定する
(ステップ812)。明るさに応じて車種判別のための
閾値(車長、車幅)を2段階にし、車種判別を行う(ス
テップ313、314)。これらの結果を交通管制セン
タに送信する(ステップ815)。また道路上の状態に
応じた背景画像データの更新を行う(ステップ81
6)。
FIG. 8 shows a processing procedure for daytime vehicle type discrimination. In FIG. 8, first, the inside of the vehicle tracking area is subjected to image processing of frame difference with expansion processing + background difference to create a processing screen (step 81). Next, the vehicle portion is extracted from the processing screen (step 82). Next, the extraction result on the processing screen is analyzed to extract the position of the front edge portion of the vehicle (step 83). Then, the leading edge data is compared with the leading edge portion and speed data up to the previous time, and the vehicle tracking processing is performed (step 84). For the vehicle that has been tracked, the vehicle speed, the pulse width of the presence detection signal, etc. are calculated (step 85). Next, the vehicle type is determined. First, the average luminance of the background image data is obtained (step 86), and the current day / night state is determined (step 87). In the case of nighttime, a vehicle type discrimination process is performed using the normal width between headlights (step 88). In the daytime, first, the vehicle length and the vehicle width are measured from the vehicle extraction portion on the processing screen (step 8).
9). Then, the position of the vehicle extraction portion on the processing screen is measured (step 810). Next, the average brightness of the vehicle extracted portion in the original image data is calculated (step 811). Then, it is determined whether this average brightness is brighter than a threshold value (step 812). The threshold value (vehicle length, vehicle width) for vehicle type discrimination is set to two levels according to the brightness, and vehicle type discrimination is performed (steps 313 and 314). These results are transmitted to the traffic control center (step 815). Also, the background image data is updated according to the condition on the road (step 81).
6).

【0077】このように、第5の実施例によれば、感知
車両の輝度に応じて車種判別の閾値を変化させて、正確
な車種判別を行うことができる。
As described above, according to the fifth embodiment, it is possible to accurately determine the vehicle type by changing the vehicle type determination threshold value according to the brightness of the sensed vehicle.

【0078】次に、第6の実施例を説明する。なお、こ
の第6の実施例は請求項6に対応する。
Next, a sixth embodiment will be described. The sixth embodiment corresponds to claim 6.

【0079】図9(a)(b)(c)(d)(e)
(f)は膨張処理付きフレーム差分+背景差分のプラス
成分のみ用いた概念図を示したものである。図9
(a)、(b)、(c)に示すように、先ず、画像デー
タはt−△t〔sec〕、t〔sec〕の画像データ、
背景画像データの3種類が存在する。先ず、t−△t
〔sec〕、t〔sec〕の画像データの差分を行う。
これを図9(d)に示すようにフレーム差分と呼び、プ
ラス成分のみ有効にすると、走行車両の前縁部と車両横
の影の後方部が抽出される。
9 (a) (b) (c) (d) (e)
(F) is a conceptual diagram using only the plus component of the frame difference with expansion processing + the background difference. Figure 9
As shown in (a), (b) and (c), first, the image data is t-Δt [sec], t [sec] image data,
There are three types of background image data. First, t-Δt
The difference between the image data of [sec] and t [sec] is calculated.
This is called a frame difference as shown in FIG. 9D, and if only the positive component is made effective, the front edge portion of the traveling vehicle and the rear portion of the shadow beside the vehicle are extracted.

【0080】フレーム差分は移動物体の抽出が確実に行
えるので、後方に膨張処理を行うことで(図9(d)の
車線部分)、より確実になる。また、t〔sec〕の画
像データと背景画像データの差分を行う。これを図9
(e)を示すように背景差分と呼び、プラス成分のみ有
効にすると、影の部分は抽出されず、車両の明るい部分
のみが抽出される。そして、図9(f)に示すように、
フレーム差分と背景差分の論理和を求めて加工画面を作
成して、車両の抽出が確実になる。明るい白系統の車両
はフレーム差分、背景差分両方より、抽出が行われる。
暗い黒系統の車両の場合は基本的に映像上手前になるに
つれて同じ車両であっても輝度は高くなるので、フレー
ム差分で車両の抽出を行うことができる。また、停止し
ている車両はフレーム差分では抽出できないが、背景差
分での抽出を行う。
Since the moving object can be surely extracted from the frame difference, the expansion processing is performed rearward (lane portion in FIG. 9D) to make it more reliable. Further, the difference between the image data of t [sec] and the background image data is calculated. Figure 9
As shown in (e), it is called a background difference, and when only the positive component is enabled, the shadow portion is not extracted and only the bright portion of the vehicle is extracted. Then, as shown in FIG.
By extracting the logical sum of the frame difference and the background difference and creating a processing screen, the vehicle can be reliably extracted. For bright white vehicles, extraction is performed from both the frame difference and background difference.
In the case of a dark black vehicle, the brightness is basically higher even if the same vehicle is located closer to the front of the image, so that the vehicle can be extracted by the frame difference. Further, although the stopped vehicle cannot be extracted by the frame difference, it is extracted by the background difference.

【0081】しかしながら、図9(d)に示すように影
の部分についても膨張を行うという問題がある。このた
め、膨張を行う条件を付けることにより、車両部分のみ
を膨張させ、影の部分については膨張を行わないように
している。これを図10(a)(b)(c)を用いて説
明する。
However, as shown in FIG. 9D, there is a problem that the shadow portion is also expanded. Therefore, only the vehicle portion is inflated, and the shadow portion is not inflated, by setting the condition for inflating. This will be described with reference to FIGS. 10 (a), (b) and (c).

【0082】図10(a)に示すように、通常の膨張処
理ではある画素がフレーム差分で変化した場合、膨張処
理を行う。この場合、図10(b)に示すように、ある
画素がフレーム差分で変化した場合に前の走査線の画素
がフレーム差分で変化があるかを確認し、変化がある場
合のみ膨張処理を行うようにする。
As shown in FIG. 10A, in the normal expansion process, when a pixel changes due to the frame difference, the expansion process is performed. In this case, as shown in FIG. 10B, when a pixel changes due to the frame difference, it is confirmed whether the pixel of the previous scanning line changes due to the frame difference, and the expansion process is performed only when the change occurs. To do so.

【0083】図9に示したように、影の大部分は除去さ
れるが後半の一部分が残る。ここで、図10(c)に示
すように、この条件付き膨張処理を行うことにより、影
の部分の膨張は確実に減ることになる。
As shown in FIG. 9, most of the shadow is removed, but part of the latter half remains. Here, as shown in FIG. 10C, by performing the conditional expansion processing, the expansion of the shadow portion is surely reduced.

【0084】次に、車両抽出方法の処理手順を説明す
る。図11は車両抽出方法の処理手順を示している。図
11において、先ず、画像データt〔sec〕とt−△
t〔sec〕の差分(フレーム差分)を行い、プラス成
分のみを有効とする(ステップ111)。続いて、画像
データt〔sec〕と背景画像データの差分(背景差
分)を行い、プラス成分のみを有効とする(ステップ1
12)。そして、先ず、フレーム差分の画素毎のデータ
閾値α1と比較を行う(ステップ114)。そして、閾
値α1以上の場合は、1、2走査線の同列の画素がフレ
ーム差分で変化があるかを判定する(ステップ116、
117)。両方とも変化がある場合は、加工画面の同位
置と3、4、5走査線前の同列の画素に1を書き込む膨
張処理を行う(ステップ118)。変化が無い場合は、
加工画面の同じ位置にのみ1を書き込む(ステップ11
10)。もし、フレーム差分の画素毎のデータが閾値α
1以下の場合は、背景差分の画素毎のデータを閾値α2
と比較を行う(ステップ119)。そして、閾値2以上
の場合は、加工画面の同じ位置に1を書き込む(ステッ
プ1110)。それ以外の場合は、加工画面の同じ位置
に0を書き込む(ステップ1111)。これを全画素に
ついて処理を行い、加工画面を作成する。
Next, the processing procedure of the vehicle extraction method will be described. FIG. 11 shows a processing procedure of the vehicle extraction method. In FIG. 11, first, image data t [sec] and t-Δ
The difference (frame difference) of t [sec] is calculated, and only the plus component is validated (step 111). Subsequently, the difference between the image data t [sec] and the background image data (background difference) is performed, and only the plus component is validated (step 1).
12). Then, first, the frame difference is compared with the data threshold value α1 for each pixel (step 114). If the threshold value is equal to or greater than α1, it is determined whether the pixels in the same row of the 1st and 2nd scanning lines are changed by the frame difference (step 116,
117). If there is a change in both, expansion processing is performed in which 1 is written in the same position on the processed screen and the pixels in the same column before 3, 4, and 5 scanning lines (step 118). If there is no change,
Write 1 only to the same position on the machining screen (step 11
10). If the pixel difference data of the frame difference is the threshold value α
In the case of 1 or less, the data for each pixel of the background difference is set to the threshold α2
And (step 119). If the threshold is 2 or more, 1 is written at the same position on the processing screen (step 1110). In other cases, 0 is written at the same position on the processing screen (step 1111). This is processed for all pixels to create a processed screen.

【0085】このように、第6の実施例によれば、画像
データから影の部分は膨張処理を行わず車両部分のみを
膨張させることにより、車両部分のみを正確に抽出でき
る。
As described above, according to the sixth embodiment, only the vehicle portion can be accurately extracted by expanding only the vehicle portion without expanding the shadow portion from the image data.

【0086】次に、第7の実施例を説明する。なお、こ
の第7の実施例は請求項7に対応する。図12は薄暮時
車両抽出方法の処理手順を示している。図12におい
て、先ず、画像データt〔sec〕とt−△t〔se
c〕の差分(フレーム差分)を行い、プラス成分のみを
有効とする(ステップ121)。続いて、画像データt
〔sec〕と背景画像データの差分(背景差分)を行う
(ステップ122)。次に、背景画像データの平均輝度
を求める(ステップ123)。この背景画像データの平
均輝度の比較を行うことにより、現在の状態が昼間か薄
暮か夜間かを判定を行い(ステップ124)、昼間、夜
間の場合はプラス成分のみを有効とする通常の処理を行
う(ステップ125)。薄暮の場合は、先ず、フレーム
差分の画素毎のデータを閾値α1と比較を行う(ステッ
プ128)。そして、閾値α1以上の場合は、1、2走
査線の同じ列の画素がフレーム差分で変化画像あるか否
かを判定する(ステップ129、1210)。両方とも
変化がある場合は、加工画面の同じ位置と3、4、5走
査線前の同列の画素に1を書き込む膨張処理を行い(ス
テップ1211)、変化のない場合は加工画面の同位置
にのみ1を書き込む(ステップ1211)。もし、フレ
ーム差分の画素事のデータが閾値α1以下の場合は、背
景差分の画素毎のデータの絶対値化したものを閾値α2
と比較を行う(ステップ1212)。そして、閾値α2
以上の場合は、加工画面の同じ位置に1を書き込む(ス
テップ1213)。それ以外の場合は、加工画面の同じ
位置に0を書き込む(ステップ1214)。これを全画
素について処理を行い、加工画面を作成する。
Next, a seventh embodiment will be described. The seventh embodiment corresponds to claim 7. FIG. 12 shows a processing procedure of a vehicle extraction method at dusk. In FIG. 12, first, image data t [sec] and t-Δt [se]
c] (frame difference) is performed, and only the positive component is validated (step 121). Then, the image data t
The difference between [sec] and the background image data (background difference) is calculated (step 122). Next, the average brightness of the background image data is obtained (step 123). By comparing the average luminance of the background image data, it is determined whether the current state is daytime, dusk, or night (step 124), and in the case of daytime or nighttime, a normal process for validating only the plus component is performed. Perform (step 125). In the case of twilight, first, the data of each pixel of the frame difference is compared with the threshold value α1 (step 128). Then, when the value is equal to or larger than the threshold value α1, it is determined whether or not the pixels in the same column of the 1st and 2nd scanning lines are the change image by the frame difference (steps 129 and 1210). If both are changed, expansion processing for writing 1 to the same position on the processed screen and pixels on the same row before 3, 4, and 5 scanning lines is performed (step 1211). Only 1 is written (step 1211). If the pixel difference data of the frame difference is less than or equal to the threshold value α1, the absolute value of the data of each pixel of the background difference is converted into the threshold value α2.
Is compared (step 1212). Then, the threshold α2
In the above case, 1 is written at the same position on the processing screen (step 1213). In other cases, 0 is written in the same position on the processing screen (step 1214). This is processed for all pixels to create a processed screen.

【0087】このように、第7の実施例によれば、薄暮
時等輝度の低い時間帯に背景差分のマイナス成分も有効
にすることにより、輝度の低い車両についても抽出を確
実にできることになる。
As described above, according to the seventh embodiment, the minus component of the background difference is also made effective in the time zone of low brightness such as during twilight, so that even the vehicle of low brightness can be reliably extracted. ..

【0088】次に、第8の実施例を説明する。なお、こ
の第8の実施例は請求項8に対応する。
Next, an eighth embodiment will be described. The eighth embodiment corresponds to claim 8.

【0089】図13は車両抽出方法の処理手順を示して
いる。図13において、先ず、画像データt〔sec〕
とt−△t〔sec〕の差分(フレーム差分)を行い、
プラス成分のみを有効とする(ステップ131)。続い
て、画像データt〔sec〕と背景画像データの差分
(背景差分)を行い、プラス成分のみを有効とする(ス
テップ132)。そして、先ず、フレーム差分の画素毎
のデータを閾値α1と比較を行う(ステップ135)。
そして、閾値α1以上の場合は、一画素手前の画素が2
0hか80hかを判定し(ステップ136)、20hか
80hの場合は、加工画面の同位置に80hを書き込む
とともに、膨張処理を行い(ステップ137)、20h
か80hでない場合は、加工画面の同じ位置に20hを
書き込む(ステップ138)。もし、フレーム差分の画
素毎のデータが閾値α1以下の場合は、背景差分の画素
毎のデータを閾値α2と比較を行う(ステップ13
9)。そして、閾値α以上の場合は、一画素手前の画素
が20hか80hかどうかを判定し(ステップ131
0)、20hの場合は、加工画面の同じ位置に80hを
書き込み(ステップ1311)、加工画面の同じ位置に
20hを書き込む(ステップ138)。それ以外の場合
は、加工画面の同じ位置に0を書き込むとともに、(ス
テップ1312)、加工画面の一画素手前の画素の位置
に0を書き込む(ステップ1313)。これを全画素に
ついて処理を行い、加工画面を作成する。
FIG. 13 shows the processing procedure of the vehicle extraction method. In FIG. 13, first, image data t [sec]
And t-Δt [sec] (frame difference),
Only the plus component is validated (step 131). Then, the difference between the image data t [sec] and the background image data (background difference) is performed, and only the plus component is validated (step 132). Then, first, the data of each pixel of the frame difference is compared with the threshold value α1 (step 135).
When the threshold value is equal to or larger than α1, the pixel one pixel before is 2
It is determined whether it is 0h or 80h (step 136), and if it is 20h or 80h, 80h is written at the same position on the machining screen and expansion processing is performed (step 137), and 20h.
If it is not 80h, 20h is written at the same position on the processing screen (step 138). If the data for each pixel of the frame difference is less than or equal to the threshold value α1, the data for each pixel of the background difference is compared with the threshold value α2 (step 13).
9). If it is equal to or larger than the threshold value α, it is determined whether the pixel one pixel before is 20h or 80h (step 131).
In the case of 0) and 20h, 80h is written at the same position on the working screen (step 1311), and 20h is written at the same position on the working screen (step 138). In other cases, 0 is written at the same position on the processed screen (step 1312), and 0 is written at the position of the pixel one pixel before the processed screen (step 1313). This is processed for all pixels to create a processed screen.

【0090】このように、第8の実施例によれば、背景
差分及びフレーム差分で変化のある画素について、一画
素手前の画素についても確認を行い、一画素手前の画素
が変化がある場合のみ、その画素を有効にしてノイズ成
分を軽減させるため、道路上に描かれた白線の影響を除
去できる。
As described above, according to the eighth embodiment, with respect to the pixel having a change in the background difference and the frame difference, the pixel one pixel before is also confirmed, and only when the pixel one pixel before is changed. , The pixel is validated to reduce the noise component, so that the influence of the white line drawn on the road can be removed.

【0091】次に、第9の実施例を説明する。なお、こ
の第9の実施例は請求項9に対応する。
Next, a ninth embodiment will be described. The ninth embodiment corresponds to claim 9.

【0092】図14(a)(b)は、車両抽出方法の処
理手順を示している。図14(a)の初期処理におい
て、計測エリアや車線の位置、CCDカメラの焦点距離
等の必要な定数をマウス、キーボード等を用いて入力す
る(ステップ141)。次に、ある一定画面原画像デー
タを撮像し、画素毎の輝度分布や輝度平均を求め、初期
の背景画像データの作成を行う(ステップ142)。ま
た、この初期背景画像データを横方向に微分処理を行
い、白線部分を抽出する加工画面を作成する。(ステッ
プ143)。この場合、変化のある画素かつ計測エリア
や車線の境付近の画素については、車両抽出処理等での
処理に用いないようにする(ステップ144)。続い
て、通常の計測処理を行う。計測エリア内の白線部分の
画素部分を除いた画素の膨張処理付きフレーム差分+背
景差分の画像処理を行い、加工画面を作成する(ステッ
プ145)。次に、加工画面より車両部分の抽出を行う
(ステップ146)。また、加工画面上の抽出結果を解
析し、車両の前縁部分の位置を抽出する(ステップ14
7)。そして、この前縁データと前回までの前縁部分、
速度データを比較し、車両の追跡処理を行う(ステップ
148)。そして、追跡の終了し車両については、存在
感知信号、車両速度、車種を演算する(ステップ14
9)。そして、これらの結果を交通管制センタに送信す
る(ステップ1410)。また道路上の状態に応じた背
景画像データの更新を行う(1411)。
14A and 14B show the processing procedure of the vehicle extraction method. In the initial processing of FIG. 14A, necessary constants such as the measurement area, the position of the lane, and the focal length of the CCD camera are input using a mouse, a keyboard or the like (step 141). Next, a certain fixed screen original image data is imaged, the brightness distribution and the brightness average for each pixel are obtained, and the initial background image data is created (step 142). Further, the initial background image data is subjected to a differential process in the horizontal direction to create a processing screen for extracting a white line portion. (Step 143). In this case, the changed pixels and the pixels in the vicinity of the boundary between the measurement area and the lane are not used for the processing such as the vehicle extraction processing (step 144). Then, a normal measurement process is performed. Image processing of frame difference with expansion processing + background difference of pixels excluding the pixel portion of the white line portion in the measurement area is performed to create a processing screen (step 145). Next, the vehicle portion is extracted from the processing screen (step 146). Also, the extraction result on the processing screen is analyzed to extract the position of the front edge portion of the vehicle (step 14).
7). And this leading edge data and the leading edge part up to the last time,
The speed data are compared and a vehicle tracking process is performed (step 148). Then, for the vehicle whose tracking has been completed, the presence detection signal, the vehicle speed, and the vehicle type are calculated (step 14).
9). Then, these results are transmitted to the traffic control center (step 1410). Also, the background image data is updated according to the state on the road (1411).

【0093】このように、第9の実施例によれば、道路
に描かれた白線の位置を予め初期作成した背景画像デー
タより自動計測させ、計測エリア内の白線部分を除いて
画像処理を行うことにより、白線の影響を除去できる。
As described above, according to the ninth embodiment, the position of the white line drawn on the road is automatically measured from the background image data created in advance, and the image processing is performed excluding the white line portion in the measurement area. As a result, the influence of the white line can be removed.

【0094】次に、第10の実施例を説明する。なお、
この第10の実施例は請求項10に対応する。
Next, a tenth embodiment will be described. In addition,
This tenth embodiment corresponds to claim 10.

【0095】図15は違法駐車存在判定の計測を行うエ
リアを示す図である。図15において、通常の計測エリ
ア内で歩道寄りの車線についてエリアを4〜5m毎に分
割し、エリア毎に原画像データ、背景画像データの平均
輝度、輝度の最頻度データを計測することにより、違法
駐車存在判定の計測を行う。
FIG. 15 is a diagram showing an area in which the measurement of the illegal parking existence determination is performed. In FIG. 15, by dividing the area into lanes near the sidewalk every 4 to 5 m in the normal measurement area and measuring the original image data, the average luminance of the background image data, and the most frequent luminance data by measuring each area. Measure the presence of illegal parking.

【0096】次に、違法駐車存在判定方法について説明
する。図16は違法駐車存在判定方法の処理手順を示し
ている。図16において、先ず、通常の車両追跡処理を
行い、車両の計測を行う(ステップ161)。次に、原
画像データの歩道に接した車線を細分化して違法駐車計
測エリア毎の平均輝度、輝度の最頻度データを計測する
(ステップ162)。さらに、背景画像データについて
も同様に違法駐車計測エリア毎の平均輝度、輝度の最頻
度データを計測する(ステップ163)。続いて、追跡
車両の前縁がエリア毎に存在するかどうかを定する(ス
テップ165)。もし、違法駐車計測エリア内に追跡車
両が存在する場合は、そのエリアには停止車両が存在し
ないものと判断する(ステップ166)。追跡車両が存
在しない場合は、原画像データと背景画像データの存在
感知出力を計測するエリア内の平均輝度の比較を行う
(ステップ167)。そして、輝度差が存在したなら、
そのエリアに停止車両が存在すると判断する(ステップ
168)。輝度差が存在しない場合は原画像データと背
景画像データの計測エリア内の輝度の最頻度データの比
較を行う(ステップ169)。また、輝度差が存在した
ら、そのエリアに停止車両が存在すると判断する(ステ
ップ168)。存在しなければ、停止車両が存在しない
ものと判断する(ステップ166)。この情報をエリア
毎に時系列的に計測し(ステップ1611)、一定時間
以上同じエリアで停止車両が存在しているかどうかを判
定する(ステップ1612)。存在する場合は、違法駐
車車両が存在していることを交通管制センタへ送信する
(ステップ1613)。また道路上の状態に応じた背景
画像データの更新を行う(1613)。
Next, a method for determining the presence of illegal parking will be described. FIG. 16 shows a processing procedure of the illegal parking existence determining method. In FIG. 16, first, a normal vehicle tracking process is performed to measure the vehicle (step 161). Next, the lane of the original image data that touches the sidewalk is subdivided to measure the average luminance and the most frequent luminance data for each illegal parking measurement area (step 162). Further, with respect to the background image data, the average luminance and the most frequent luminance data are similarly measured for each illegal parking measurement area (step 163). Then, it is determined whether the front edge of the tracked vehicle exists in each area (step 165). If there is a tracking vehicle in the illegal parking measurement area, it is determined that no stopped vehicle exists in the area (step 166). If there is no tracking vehicle, the average brightness in the area where the presence detection output of the original image data and the background image data is measured is compared (step 167). And if there is a brightness difference,
It is determined that there is a stopped vehicle in the area (step 168). If there is no brightness difference, the most frequent brightness data in the measurement area of the original image data and the background image data is compared (step 169). If there is a brightness difference, it is determined that there is a stopped vehicle in the area (step 168). If it does not exist, it is determined that there is no stopped vehicle (step 166). This information is time-sequentially measured for each area (step 1611), and it is determined whether or not a stopped vehicle exists in the same area for a predetermined time or longer (step 1612). If it exists, the fact that an illegally parked vehicle exists is transmitted to the traffic control center (step 1613). Also, the background image data is updated according to the state on the road (1613).

【0097】このように、第10の実施例によれば、車
線を細分化してその細分化したエリア内の原画像データ
と背景画像データの最頻度輝度値とその割合、平均輝度
値とフレーム差分で変化のある画素の割合で、その車線
の違法駐車を検出することにより、従来のハードウエア
のみで従来の機能を妨げることなく、違法駐車の存在判
定機能を追加することができる。
As described above, according to the tenth embodiment, the lanes are subdivided, and the most frequent luminance values and their ratios of the original image data and the background image data in the subdivided area, the average luminance value and the frame difference. By detecting the illegal parking of the lane in the ratio of the pixels that have changed, it is possible to add the presence determination function of the illegal parking without hindering the conventional function only by the conventional hardware.

【0098】次に、第11の実施例を説明する。なお、
この第11の実施例は請求項11に対応する。
Next, an eleventh embodiment will be described. In addition,
This eleventh embodiment corresponds to claim 11.

【0099】図17は、夜間背景画像データ更新方法の
処理手順を示している。図17において、先ず、車両追
跡エリア内を膨張処理付きフレーム差分+背景差分の画
像処理を行い、加工画面を作成する(ステップ17
1)。次に、加工画面より車両部分の抽出を行う(ステ
ップ172)。さらに、加工画面上の抽出結果を解析
し、車両の前縁部分の位置を抽出する(ステップ17
3)。そして、この前縁データと前回までの前縁部分、
速度データを比較し、車両の追跡処理を行う(ステップ
174)。追跡の終了した車両については、存在感知信
号、車両速度を計算する(ステップ175)。そして、
これらの結果を交通管制センタへに送信する(ステップ
176)。また、道路上の状態に応じた背景画像データ
の更新を行う。背景画像データの輝度平均を求め(ステ
ップ177)、現在の昼夜状態を判定する(ステップ1
78)。昼間の場合は通常の背景画像データの更新を行
う(ステップ179)。夜間の場合は輝度単位で原画像
データと背景画像データとの比較し(ステップ171
0)、原画像データのほうが高い場合は背景画像データ
の画素の輝度を1インクリメントし(ステップ171
2)、背景画像データのほうが高い場合は背景画像デー
タの画素の輝度を2デクリメントする(ステップ171
3)。
FIG. 17 shows the processing procedure of the nighttime background image data updating method. In FIG. 17, first, the inside of the vehicle tracking area is subjected to image processing of frame difference with expansion processing + background difference to create a processing screen (step 17).
1). Next, the vehicle portion is extracted from the processing screen (step 172). Furthermore, the extraction result on the processing screen is analyzed to extract the position of the front edge portion of the vehicle (step 17).
3). And this leading edge data and the leading edge part up to the last time,
The speed data is compared and a vehicle tracking process is performed (step 174). For a vehicle that has been tracked, a presence detection signal and vehicle speed are calculated (step 175). And
These results are transmitted to the traffic control center (step 176). Also, the background image data is updated according to the condition on the road. The average brightness of the background image data is calculated (step 177), and the current day / night state is judged (step 1).
78). In the daytime, normal background image data is updated (step 179). In the case of nighttime, the original image data and the background image data are compared in units of brightness (step 171).
0), if the original image data is higher, the pixel brightness of the background image data is incremented by 1 (step 171).
2) If the background image data is higher, the pixel brightness of the background image data is decremented by 2 (step 171).
3).

【0100】このように、第11の実施例によれば、夜
間の背景画像データの更新の定数についてマイナス方向
の変化量をプラス成分の変化量より大きくすることによ
り、ヘッドライトの路面反射の影響を受けずに夜間の安
定的な背景画像データの更新を行える。
As described above, according to the eleventh embodiment, by making the amount of change in the negative direction of the constant for updating the background image data at night larger than the amount of change in the positive component, the influence of the road surface reflection of the headlight is affected. It is possible to update the background image data stably at night without receiving the data.

【0101】次に、第12の実施例を説明する。なお、
この第12の実施例は請求項12に対応する。
Next, a twelfth embodiment will be described. In addition,
This twelfth embodiment corresponds to claim 12.

【0102】図18は夜間車両抽出方法の処理手順う示
している。図18において、先ず、画像データt〔se
c〕とt−△t〔sec〕の差分(フレーム差分)を行
い、プラス成分のみを有効とする(ステップ181)。
続いて、画像データt〔sec〕と背景画像データの差
分(背景差分)を行う。背景画像データの輝度平均を求
め(ステップ182)、現在の昼夜状態を判定する(ス
テップ183)。夜間の場合は通常の画素毎の差分を行
い、プラス成分のみを有効とする処理を行う(ステップ
184)。夜間の場合は原画像データのサンプルポイン
トとなる画素と1画素手前の画素との論理和を求め(ス
テップ186)、この結果と背景画像データとの差分を
行い、プラス成分のみを有効とする処理を行う(ステッ
プ187)。そして、先ず、フレーム差分の加工結果に
ついて画素毎のデータを閾値と比較を行う。そして、閾
値以上の場合は、加工画面の同じ位置に1を書き込む。
そして1、2走査線の同じ列の画素がフレーム差分で変
化があるかどうかを判定し、両方とも変化がある場合
は、3、4、5走査線前の同じ列の画素に1を書き込む
膨張処理を行う(ステップ1810)。また、背景差分
の加工結果より画素毎のデータを閾値と比較を行う。そ
して、閾値以上の場合は、加工画面の同じ位置に1を書
き込む。それ以外の場合は、加工画面の同じ位置に0を
書き込む(ステップ1811)。この処理を行い加工画
面を作成する。
FIG. 18 shows a processing procedure of the night vehicle extraction method. In FIG. 18, first, image data t [se
The difference (frame difference) between c] and t-Δt [sec] is calculated, and only the positive component is validated (step 181).
Then, the difference between the image data t [sec] and the background image data (background difference) is performed. The average brightness of the background image data is calculated (step 182), and the current day / night state is determined (step 183). In the case of night, a normal difference is made for each pixel, and a process for validating only the plus component is performed (step 184). In the case of night, a logical sum of the pixel serving as the sample point of the original image data and the pixel one pixel before is calculated (step 186), the result is compared with the background image data, and only the plus component is validated. Is performed (step 187). Then, first, the data for each pixel is compared with a threshold for the processing result of the frame difference. Then, when it is equal to or larger than the threshold value, 1 is written in the same position on the processing screen.
Then, it is determined whether or not the pixels in the same column of the 1st and 2nd scanning lines change due to the frame difference, and if there is a change in both, write 1 to the pixels in the same column before the 3rd, 4th and 5th scanning lines. Processing is performed (step 1810). Further, the data for each pixel is compared with a threshold value based on the background difference processing result. Then, when it is equal to or larger than the threshold value, 1 is written in the same position on the processing screen. In other cases, 0 is written in the same position on the processing screen (step 1811). This processing is performed to create a processing screen.

【0103】このように、第12の実施例によれば、夜
間のみサンプルポイントの画素とサンプルポイントの隣
の画素の論理和を求めた結果を用いて車両抽出処理を行
うことにより、ヘッドライトの抽出を確実に行うことが
できる。
As described above, according to the twelfth embodiment, the vehicle extraction processing is performed by using the result of the logical sum of the pixel at the sample point and the pixel adjacent to the sample point only at night, and thus the headlight Extraction can be reliably performed.

【0104】次に、第13の実施例を説明する。なお、
この第13の実施例は請求項13に対応する。
Next, a thirteenth embodiment will be described. In addition,
This thirteenth embodiment corresponds to claim 13.

【0105】図19は 夜間存在感知信号保持方法の処
理手順を示している。図19において、先ず、車両追跡
エリア内をフレーム差分+膨張処理付き背景差分の画像
処理を行い、加工画面を作成する(ステップ191)。
次に、加工画面より車両部分の抽出を行う(ステップ1
92)。次に、加工画面上の抽出結果を解析し、車両の
前縁部分の位置を抽出する(ステップ193)。そし
て、この前縁データと前回までの前縁部分、速度データ
を比較し、車両の追跡処理を行う(ステップ194)。
次に、感知計測エリアに追跡車両が進入したかどうかを
判定する(ステップ195)。追跡車両が進入したと判
定した場合は、存在感知出力をオン(ON)にする(ス
テップ196)。さらに、在感知信号長、車両速度、車
幅等を計算する(ステップ197)。次に、存在感知信
号保持処理を行う。背景画像データの輝度平均を求め
(ステップ198)、現在の昼夜状態を判定する(ステ
ップ199)。昼間の場合は通常の存在感知保持処理を
行う(ステップ1910)。夜間の場合は、感知計測エ
リア内の原画像データのサンプルポイントとなる画素と
1画素手前の画素との論理和を求め(ステップ191
1)、このデータを用いて輝度の分布(ヒストグラム)
を計測する(ステップ1912)。そして、この輝度分
布で閾値以上の画素が閾値個以上存在するかどうかを判
定し(ステップ1913)、閾値以上存在しなかった場
合は、存在感知出力をオフ(OFF)にする(ステップ
1914)。また、道路上の状態に応じた背景画像デー
タの更新を行う(ステップ1915)。
FIG. 19 shows a processing procedure of the night presence detection signal holding method. In FIG. 19, first, image processing of the frame difference + background difference with expansion processing is performed in the vehicle tracking area to create a processing screen (step 191).
Next, the vehicle portion is extracted from the processing screen (step 1
92). Next, the extraction result on the processing screen is analyzed to extract the position of the front edge portion of the vehicle (step 193). Then, the leading edge data is compared with the leading edge portion and the speed data up to the previous time, and the vehicle tracking processing is performed (step 194).
Next, it is determined whether or not the tracking vehicle has entered the sensing / measurement area (step 195). If it is determined that the tracking vehicle has entered, the presence detection output is turned on (step 196). Further, the presence detection signal length, vehicle speed, vehicle width, etc. are calculated (step 197). Next, presence detection signal holding processing is performed. The average brightness of the background image data is calculated (step 198), and the current day / night state is judged (step 199). In the daytime, a normal presence detection holding process is performed (step 1910). In the case of night, the logical sum of the pixel serving as the sample point of the original image data in the sensing measurement area and the pixel one pixel before is obtained (step 191).
1), luminance distribution (histogram) using this data
Is measured (step 1912). Then, it is determined whether or not there are more than the threshold number of pixels in this luminance distribution (step 1913). If there is not more than the threshold value, the presence detection output is turned off (step 1914). Also, the background image data is updated according to the condition on the road (step 1915).

【0106】このように、第13の実施例によれば、夜
間のみ感知計測エリア内のサンプルポイントの画素とサ
ンプルポイントの隣の画素の論理和を求めた結果を用い
て存在感知信号を保持させることにより、スモールラン
プのみ点灯している停止車両についても確実に存在感知
信号を保持することができる。
As described above, according to the thirteenth embodiment, the presence sensing signal is held by using the result of the logical sum of the pixel at the sample point and the pixel next to the sample point in the sensing measurement area only at night. As a result, the presence detection signal can be reliably held even for a stopped vehicle in which only the small lamp is lit.

【0107】次に、第14の実施例を説明する。なお、
この第14の実施例は請求項14に対応する。
Next, a fourteenth embodiment will be described. In addition,
This fourteenth embodiment corresponds to claim 14.

【0108】図20は、夜間存在感知信号保持方法の処
理手順を示している。図20において、先ず、車両追跡
エリア内をフレーム差分+膨張処理付き背景差分の画像
処理を行い、加工画面を作成する(ステップ201)。
次に、加工画面より車両部分の抽出を行う(ステップ2
02)。続いて、加工画面上の抽出結果を解析し、車両
の前縁部分の位置を抽出する(ステップ203)。そし
て、この前縁データと前回までの前縁部分、速度データ
を比較し、車両の追跡処理を行う(ステップ204)。
次に、感知計測エリアに追跡車両が進入したかどうかを
判定する(ステップ205)。追跡車両が進入したと判
定した場合は、存在感知車両をオン(ON)にする(ス
テップ206)。そして、存在感知信号長、車両速度、
車幅等を計算する(ステップ207)。さらに、存在感
知信号保持処理を行う。背景画像データの輝度平均を求
め(ステップ208)、現在の昼夜状態を判定する(ス
テップ209)。昼間の場合は、通常の存在感知保持処
理を行う(ステップ2010)。夜間の場合は、感知計
測エリア内の原画像データのサンプルポイントとなって
いる画素と1画素手前の画素との論理和を求め(ステッ
プ2011)、このデータを用いて輝度の分布(ヒスト
グラム)を計測する(ステップ2012)。また背景画
像データの感知計測エリア内の輝度の分布(ヒストグラ
ム)を計測する(ステップ2013)。続いて、それぞ
れの輝度分布の差分を行う(ステップ2014)、この
差分結果で閾値以上の輝度の画素が閾値個以上存在する
かどうかを判定し(ステップ2015)、閾値個以上存
在しない場合は、存在感知出力をオフ(OFF)にする
(ステップ2016)。また道路上の状態に応じた背景
画像データの更新を行う(ステップ2017)。
FIG. 20 shows a processing procedure of the night presence detection signal holding method. In FIG. 20, first, image processing of frame difference + background difference with expansion processing is performed in the vehicle tracking area to create a processing screen (step 201).
Next, the vehicle portion is extracted from the processing screen (step 2).
02). Subsequently, the extraction result on the processing screen is analyzed to extract the position of the front edge portion of the vehicle (step 203). Then, the leading edge data is compared with the leading edge portion and the speed data up to the previous time, and the vehicle tracking processing is performed (step 204).
Next, it is determined whether or not the tracking vehicle has entered the sensing / measurement area (step 205). When it is determined that the tracking vehicle has entered, the presence detection vehicle is turned on (step 206). And presence detection signal length, vehicle speed,
The vehicle width and the like are calculated (step 207). Further, presence detection signal holding processing is performed. The average luminance of the background image data is calculated (step 208), and the current day / night state is determined (step 209). In the case of daytime, a normal presence detection holding process is performed (step 2010). In the case of nighttime, the logical sum of the pixel which is the sample point of the original image data in the sensing measurement area and the pixel one pixel before is obtained (step 2011), and the distribution of luminance (histogram) is obtained using this data. Measure (step 2012). In addition, the luminance distribution (histogram) in the sensing measurement area of the background image data is measured (step 2013). Subsequently, the difference between the respective brightness distributions is performed (step 2014), it is determined whether or not there are more than a threshold number of pixels having a brightness equal to or higher than the threshold value in the difference result (step 2015). The presence detection output is turned off (step 2016). Further, the background image data is updated according to the condition on the road (step 2017).

【0109】このように、第14の実施例によれば、夜
間のみ感知計測エリア内のサンプルポイントの画素とサ
ンプルポイントの隣の画素の論理和を求めた結果の輝度
分布と背景画像データの輝度分布との差分から存在感知
信号を保持させることにより、スモールランプのみ点灯
している停止車両についても確実に存在感知信号を保持
させることができる。
As described above, according to the fourteenth embodiment, the luminance distribution of the result of the logical sum of the pixel at the sample point and the pixel next to the sample point in the sensing measurement area only at night and the luminance of the background image data are obtained. By holding the presence detection signal from the difference from the distribution, it is possible to reliably hold the presence detection signal even for a stopped vehicle in which only the small lamp is lit.

【0110】[0110]

【発明の効果】以上の説明から明らかなように、本発明
の請求項1に対応する画像処理式車両感知装置は、通管
制センタからの指令により、自動的に試験感知信号を発
生させるようにしているため、回線の正常を接続状態を
交通管制センタで確実に確認できるという効果を有す
る。
As is apparent from the above description, the image processing type vehicle detection device according to the first aspect of the present invention automatically generates the test detection signal in response to a command from the traffic control center. Therefore, there is an effect that the normal state of the line can be surely confirmed at the traffic control center.

【0111】請求項2に対応する画像処理式車両感知装
置は、交通管制センタからの指令により自動的に試験感
知信号を発生した後、交通管制センタからの解除指令無
しで自動的に一定時間が経過したら解除するようにして
いるため、解除指令を忘れた場合にも交通管制に支障を
きたすことがないという効果を有する。
The image processing type vehicle detection device according to claim 2 automatically generates a test detection signal in response to a command from the traffic control center, and then automatically operates for a predetermined time without a release command from the traffic control center. Since the cancellation is made after the lapse of time, there is an effect that traffic control is not hindered even if the cancellation command is forgotten.

【0112】これらの画像処理式車両感知装置によれ
ば、画像処理式車両感知装置に作業員を配置せずに確認
を行うことができる。
According to these image processing type vehicle detection devices, confirmation can be performed without arranging a worker in the image processing type vehicle detection device.

【0113】請求項3に対応する昼間存在感知信号保持
方法では、原画像データの輝度のヒストグラムを背景の
平均輝度値を用いて3値化して存在感知信号を保持して
いるため、昼間の渋滞時など停止車両の存在感知を出力
できるという効果を有する。
In the daytime presence detection signal holding method according to the third aspect, since the presence histogram detection signal is held by ternarizing the histogram of the brightness of the original image data by using the average background brightness value, the daytime traffic jam occurs. This has the effect that the presence detection of a stopped vehicle can be output at times.

【0114】請求項4に対応する昼間存在感知信号保持
方法は、背景画像データの輝度の最頻度輝度の割合と原
画像データの最頻度輝度の割合の差から存在感知信号を
保持しているため、昼間の渋滞時など停止車両の存在感
知を出力することができるという効果を有する。
In the daytime presence detection signal holding method according to the fourth aspect, the presence detection signal is held from the difference between the ratio of the most frequent brightness of the background image data and the most frequent brightness of the original image data. In addition, it is possible to output the presence detection of a stopped vehicle such as during daytime traffic congestion.

【0115】請求項5に対応する昼間車種判別方法は、
感知車両の輝度に応じて車種判別の閾値を変化させてい
るため、正確な車種判別を行うことができるという効果
を有する。
A daytime vehicle type discriminating method according to claim 5 is as follows:
Since the threshold value for vehicle type discrimination is changed according to the brightness of the sensed vehicle, there is an effect that accurate vehicle type discrimination can be performed.

【0116】請求項6に対応する車両抽出方法は、画像
データから影の部分は膨張処理を行わず車両部分のみを
膨張しているため、車両部分のみを正確に抽出できる。
In the vehicle extracting method according to the sixth aspect, since the shadow portion is not expanded from the image data and only the vehicle portion is expanded, only the vehicle portion can be accurately extracted.

【0117】請求項7に対応する薄暮時車両抽出方法で
は、薄暮時輝度の低い時間帯に背景差分のマイナス成分
を有効にしているため、輝度の低い車両の抽出を確実に
できるという効果を有する。
In the twilight vehicle extraction method according to the seventh aspect, since the minus component of the background difference is made effective during the low twilight luminance time zone, it is possible to reliably extract the vehicle with low luminance. ..

【0118】請求項8に対応する車両抽出方法は、背景
差分及びフレーム差分で変化のある画素について一画素
手前の画素についても確認を行い、一画素手前の画素が
変化がある場合のみ、その画素を有効にしてノイズ成分
を軽減するようにしているため、道路上に描かれた白線
の影響を除去できるという効果を有する。
In the vehicle extraction method according to the eighth aspect, the pixel which is one pixel before the pixel having a change in the background difference and the frame difference is also confirmed, and the pixel is changed only when the pixel one pixel before is changed. Is enabled to reduce the noise component, the effect of removing the white line drawn on the road can be removed.

【0119】請求項9に対応する車両抽出方法では、道
路に描かれた白線の位置を予め初期作成した背景画像デ
ータより自動計測させ、計測エリア内の白線部分を除い
て画像処理を行うようにしているため、白線の影響を除
去できるという効果を有する。請求項10に対応する所
定外駐車存在判定方法では、車線を細分化して、その細
分化したエリア内の原画像データと背景画像データの最
頻度輝度値と、その割合、平均輝度値とフレーム差分で
変化のある画素の割合で、その車線に所定外駐車を検出
しているため、従来のハードウエアのみで従来の機能を
妨げることなく、所定外駐車の存在判定機能を追加でき
るという効果を有する。
In the vehicle extraction method according to claim 9, the position of the white line drawn on the road is automatically measured from the background image data created in advance, and the image processing is performed excluding the white line portion in the measurement area. Therefore, there is an effect that the influence of the white line can be removed. In the non-predetermined parking existence determining method according to claim 10, the lane is subdivided, and the most frequent luminance values of the original image data and the background image data in the subdivided area, their ratio, the average luminance value, and the frame difference. Since the non-scheduled parking is detected in the lane in the ratio of the pixels that change in, the effect that the presence determination function of the non-scheduled parking can be added without interfering with the conventional function only by the conventional hardware is provided. ..

【0120】請求項11に対応する夜間背景画像データ
更新方法は、夜間の背景画像データの更新の定数につい
てマイナス方向の変化量をプラス成分の変化量を、より
大きくしているため、ヘッドライトの路面反射の影響を
受けずに夜間の安定的な背景画像データの更新を行える
という効果を有する。
In the nighttime background image data updating method according to the eleventh aspect, since the amount of change in the negative direction and the amount of change in the positive component of the constant for updating the background image data at night are made larger, This has an effect that stable background image data can be updated at night without being affected by road reflection.

【0121】請求項12に対応する夜間車両抽出方法
は、夜間のみサンプルポイントの画素とサンプルポイン
トの隣の画素の論理和を求めた結果を用いて、車両抽出
処理を行うよにしているため、ヘッドライトの抽出を確
実に行うことができるという効果を有する。
In the nighttime vehicle extraction method according to the twelfth aspect, the vehicle extraction process is performed only by using the result of the logical sum of the pixel of the sample point and the pixel adjacent to the sample point only at night. This has the effect that the headlights can be reliably extracted.

【0122】請求項13に対応する夜間存在感知信号保
持方法では、夜間のみサンプルポイントの画素とサンプ
ルポイントの隣の画素の論理和を求めた結果を用いて存
在感知信号を保持しているため、スモールランプのみ点
灯している停止車両についても確実に存在感知信号を保
持できるという効果を有する。
In the night presence detection signal holding method according to the thirteenth aspect, since the presence detection signal is held by using the result of the logical sum of the pixel at the sample point and the pixel adjacent to the sample point only at night, This has an effect that the presence detection signal can be surely held even for a stopped vehicle in which only the small lamp is lit.

【0123】請求項14に対応する夜間存在感知信号保
持方法は、夜間のみ感知エリア内のサンプルポイントの
画素とサンプルポイントの隣の画素の論理和を求めた結
果の輝度分布と背景画像データの輝度分布との差分より
存在感知信号を保持しているため、スモールランプのみ
点灯している停止車両についても確実に存在感知信号を
保持できるという効果を有する。
According to a fourteenth aspect of the present invention, there is provided a nighttime presence detection signal holding method, wherein the luminance distribution of the result of obtaining the logical sum of the pixel of the sample point and the pixel adjacent to the sample point in the sensing area only at night and the luminance of the background image data Since the presence detection signal is held based on the difference from the distribution, it is possible to reliably hold the presence detection signal even for a stopped vehicle in which only the small lamp is lit.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理式車両感知装置(第1の実施
例)の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of an image processing type vehicle detection device (first embodiment) of the present invention.

【図2】(a)(b)は第1の実施例における試験感知
パルス出力機能の処理手順を示すフローチャート
2A and 2B are flowcharts showing a processing procedure of a test sensing pulse output function in the first embodiment.

【図3】(a)(b)(c)は、本発明の請求項2に対
応する画像処理式車両感知装置(第2の実施例)の試験
感知パルス出力停止処理の手順を示すフローチャート
3 (a), (b) and (c) are flow charts showing a procedure of a test sensing pulse output stopping process of an image processing type vehicle sensing device (second embodiment) according to claim 2 of the present invention.

【図4】(a)(b)(c)(d)は、本発明の請求項
3に対応する昼間存在感知信号保持方法(第3の実施
例)おける存在感知出力を計測するエリアを示す説明図
4 (a), (b), (c) and (d) show areas for measuring presence detection output in a daytime presence detection signal holding method (third embodiment) corresponding to claim 3 of the present invention. Illustration

【図5】第3の実施例における昼間存在感知信号保持処
理の手順を示すフローチャート
FIG. 5 is a flowchart showing a procedure of a daytime presence detection signal holding process in the third embodiment.

【図6】(a)(b)(c)は本発明の請求項4に対応
する昼間存在感知信号保持方法(第4の実施例)におけ
る昼間の存在感知信号保持のための計測エリアを示す説
明図
6 (a), (b) and (c) show measurement areas for holding the presence detection signal in the daytime in the method for holding the presence detection signal in the daytime (fourth embodiment) according to claim 4 of the present invention. Illustration

【図7】第4の実施例における存在感知信号保持処理手
順を示すフローチャート
FIG. 7 is a flow chart showing the procedure of holding presence detection signal in the fourth embodiment.

【図8】本発明の請求項5に対応する昼間車種判別方法
(第5の実施例)の処理手順を示すフローチャート
FIG. 8 is a flowchart showing a processing procedure of a daytime vehicle type identification method (fifth embodiment) corresponding to claim 5 of the present invention.

【図9】(a)(b)(c)(d)(e)(f)は、本
発明の請求項6に対応する車両抽出方法(第6の実施
例)のは膨張処理付きフレーム差分+背景差分のプラス
成分のみ用いた概念図
9 (a), (b), (c), (d), (e), and (f) are frame differences with expansion processing of the vehicle extraction method (sixth embodiment) corresponding to claim 6 of the present invention. + Conceptual diagram using only plus component of background difference

【図10】(a)(b)(c)は、第6の実施例におけ
る車両部分のみを膨張させ、影の部分については膨張を
行わない場合の説明図
10 (a), (b), and (c) are explanatory views when only the vehicle portion in the sixth embodiment is inflated and the shadow portion is not inflated.

【図11】第6の実施例における車両抽出方法の処理手
順を示すフローチャート
FIG. 11 is a flowchart showing a processing procedure of a vehicle extraction method in the sixth embodiment.

【図12】本発明の請求項7に対応する薄暮時車両抽出
方法(第7の実施例)の処理手順を示すフローチャート
FIG. 12 is a flowchart showing a processing procedure of a twilight vehicle extraction method (seventh embodiment) corresponding to claim 7 of the present invention.

【図13】本発明の請求項8に対応する車両抽出方法
(第8の実施例)処理手順を示すフローチャート
FIG. 13 is a flowchart showing a vehicle extraction method (eighth embodiment) processing procedure according to claim 8 of the present invention.

【図14】(a)(b)は、本発明の請求項9に対応す
る車両抽出方法(第9の実施例)の処理手順を示すフロ
ーチャート
14 (a) and 14 (b) are flowcharts showing a processing procedure of a vehicle extraction method (ninth embodiment) corresponding to claim 9 of the present invention.

【図15】本発明の請求項10に対応する所定外駐車存
在判定方法(第10の実施例)における違法駐車存在判
定の計測を行うエリアを示す図
FIG. 15 is a diagram showing an area for measuring an illegal parking presence determination in the non-predetermined parking presence determination method (tenth embodiment) according to claim 10 of the present invention.

【図16】第10の実施例における違法駐車存在判定方
法の処理手順を示すフローチャート
FIG. 16 is a flowchart showing a processing procedure of an illegal parking existence determining method according to the tenth embodiment.

【図17】本発明の請求項11に対応する夜間背景画像
データ更新方法(第11の実施例)における夜間背景画
像データ更新方法の処理手順を示すフローチャート
FIG. 17 is a flowchart showing a processing procedure of a nighttime background image data updating method in a nighttime background image data updating method (eleventh embodiment) according to claim 11 of the present invention.

【図18】本発明の請求項12に対応する夜間車両抽出
方法(第12の実施例)における夜間車両抽出方法の処
理手順う示すフローチャート
FIG. 18 is a flowchart showing a processing procedure of a night vehicle extraction method in a night vehicle extraction method (twelfth embodiment) according to claim 12 of the present invention.

【図19】本発明の請求項13に対応する夜間存在感知
信号保持方法(第13の実施例)における夜間存在感知
信号保持方法の処理手順を示すフローチャート
FIG. 19 is a flowchart showing a processing procedure of a night presence detection signal holding method in a night presence detection signal holding method (thirteenth embodiment) corresponding to claim 13 of the present invention.

【図20】本発明の 請求項14に対応する夜間存在感
知信号保持方法(第14の実施例)における夜間存在感
知信号保持方法の処理手順を示すフローチャート
FIG. 20 is a flowchart showing the processing procedure of the night presence detection signal holding method in the night presence detection signal holding method (14th embodiment) according to claim 14 of the present invention.

【符号の説明】[Explanation of symbols]

11 ビデオカメラ 12 画像処理式車両感知装置本体 13 A/D変換部 14、15、16、17 画像メモリ 18 画像データ処理部 19 データ入出力部 20 伝送処理部 11 Video Camera 12 Image Processing Vehicle Sensing Device Main Body 13 A / D Converter 14, 15, 16, 17 Image Memory 18 Image Data Processor 19 Data Input / Output Unit 20 Transmission Processor

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 道路上の車両の動向を俯瞰するように撮
影するビデオカメラと、このビデオカメラの画像データ
を画像処理して車両の台数、占有率を測定する画像処理
部と、交通管制センタからの指令により一定の間隔で一
定の感知パルスを発生する試験感知パルス出力手段とを
備えることを特徴とする画像処理式車両感知装置。
1. A video camera for taking a bird's-eye view of the movement of vehicles on the road, an image processing unit for processing the image data of the video camera to measure the number of vehicles and the occupancy rate, and a traffic control center. An image processing type vehicle detection device, comprising: a test detection pulse output means for generating a constant detection pulse at a constant interval in response to a command from the image processing vehicle.
【請求項2】 道路上の車両の動向を俯瞰するように撮
影するビデオカメラと、このビデオカメラの画像データ
を画像処理して、車両の台数、占有率を計測する画像処
理部と、交通管制センタからの指令により一定の間隔で
一定の感知パルスを発生する試験感知パルス出力手段
と、前記試験感知パルス出力手段での感知パルスの発生
を自動的に解除するための自動解除手段とを備えること
を特徴とする画像処理式車両感知装置。
2. A video camera for taking a bird's-eye view of the movement of vehicles on the road, an image processing unit for processing the image data of the video camera to measure the number of vehicles and the occupancy rate, and traffic control. A test sensing pulse output means for generating a constant sensing pulse at a constant interval in response to a command from the center; and an automatic canceling means for automatically canceling the generation of the sensing pulse in the test sensing pulse output means. An image processing type vehicle detection device characterized by:
【請求項3】 道路上の車両の動向を俯瞰するように撮
影し、この画像データを画像処理して、車両の台数、占
有率を計測して、感知計測エリア内の原画像データの輝
度の分布を背景の平均輝度値を用いて3値化した存在感
知信号を保持することを特徴とする昼間存在感知信号保
持方法。
3. An image of a vehicle on a road is taken to give a bird's eye view, image processing is performed on this image data, the number of vehicles and the occupancy rate are measured, and the brightness of the original image data in the sensing measurement area is measured. A daytime presence detection signal holding method, which holds a presence detection signal whose distribution is ternary using an average luminance value of a background.
【請求項4】 道路上の車両の動向を俯瞰するように撮
影するビデオカメラとビデオカメラの画像データを画像
処理して、車両の台数、占有率を計測し、感知計測エリ
ア内の背景画像データの輝度の最頻度輝度の割合と、原
画像データの最頻度輝度の割合の差とから存在感知信号
を保持することを特徴とする昼間存在感知信号保持方
法。
4. A background image data in a sensing measurement area by image-processing image data of a video camera and a video camera for taking a bird's-eye view of the movement of a vehicle on a road to measure the number of vehicles and an occupancy rate. The method for holding a presence detection signal during the daytime, characterized in that the presence detection signal is held based on the difference between the most frequent luminance ratio of the luminance of the image and the most frequent luminance ratio of the original image data.
【請求項5】 道路上の車両の動向を俯瞰するように撮
影し、この画像データを画像処理して、車両の台数、占
有率を計測するとともに、感知車両の輝度に応じて車種
判別の閾値を変化させることを特徴とする昼間車種判別
方法。
5. A threshold value for determining a vehicle type according to the brightness of a sensed vehicle, while taking an image of the movement of a vehicle on the road to perform an image processing of the image data to measure the number of vehicles and an occupancy rate. Daytime vehicle type identification method characterized by changing the.
【請求項6】道路上の車両の動向を俯瞰するように撮影
し、この画像データを画像処理して、車両の台数、占有
率を計測し、フレーム差分で変化のある画像は、その前
の画素についてフレーム差分での変化を判定し、この画
素の後方に膨張処理を行うかどうかを判定し、影の部分
は膨張処理を行わず車両部分のみを膨張させることを特
徴とする車両抽出方法。
6. An image of a vehicle on a road is taken to give a bird's eye view, image processing is performed on this image data to measure the number of vehicles and an occupancy rate, and an image having a change in frame difference is displayed before the image. A vehicle extraction method characterized by determining a change in frame difference for a pixel, determining whether or not to perform expansion processing behind this pixel, and expanding only the vehicle portion without performing expansion processing on a shadow portion.
【請求項7】 道路上の車両の動向を俯瞰するように撮
影し、この画像データをプラス成分のみ有効にする背景
差分と膨張処理付きフレーム差分を用いて処理して車両
の台数、占有率を計測し、薄暮時のみ背景差分のマイナ
ス成分も有効にして輝度の低い車両について抽出を行う
ことを特徴とする薄暮時車両抽出方法。
7. The number of vehicles and the occupancy rate are obtained by taking a picture of the movement of vehicles on the road and processing this image data using a background difference and a frame difference with expansion processing that make only the positive component valid. A twilight vehicle extraction method characterized by measuring and extracting a vehicle with low brightness by enabling the negative component of the background difference only during twilight.
【請求項8】 道路上の動向を俯瞰するように撮影し、
この画像データをプラス成分のみ有効にする背景差分と
膨張処理付きフレーム差分を用いて処理し、車両の台
数、占有率を計測するとともに、背景差分及びフレーム
差分で変化のある画素について1画素前の画素について
も確認を行い、その画素に変化を有する場合のみ、その
画素を有効にしてノイズ成分を軽減することを特徴とす
る車両抽出方法。
8. A method of taking a bird's-eye view of trends on the road,
This image data is processed using the background difference that makes only the positive component valid and the frame difference with expansion processing to measure the number of vehicles and the occupancy rate. A vehicle extraction method characterized in that a pixel is also checked, and only when the pixel has a change, the pixel is validated to reduce a noise component.
【請求項9】 道路上の車両の動向を俯瞰するように撮
影し、この画像データをプラス成分のみ有効にする背景
差分と膨張処理付きフレーム差分を用いて処理し、車両
の台数、占有率を計測するとともに、道路に描かれた白
線の位置を予め初期作成した背景画像データで自動計測
し、計測エリア内の白線部分を除いて画像処理を行うこ
とを特徴とする車両抽出方法。
9. The number of vehicles and the occupancy rate are photographed so as to give a bird's-eye view of the movement of vehicles on the road, and this image data is processed using a background difference and a frame difference with expansion processing that validate only the plus component. A vehicle extraction method characterized by performing measurement, automatically measuring the position of a white line drawn on a road with previously created background image data, and excluding the white line portion in the measurement area.
【請求項10】 道路上の車両の動向を俯瞰するように
撮影し、この画像データをプラス成分のみ有効にする背
景差分と膨張処理付きフレーム差分を用いて処理し、車
両の台数、占有率を計測するとともに、車線を細分化
し、その細分化したエリア内の原画像データと背景画像
データの最頻度輝度値と、この割合、平均輝度値とフレ
ーム差分で変化の有る画素の割合より、その車線に所定
外駐車車両が存在するかの判定を行うことを特徴とする
所定外駐車存在判定方法。
10. The number of vehicles and the occupancy rate are photographed so as to give a bird's eye view of the movement of vehicles on the road, and this image data is processed using a background difference and a frame difference with expansion processing that validates only the positive component. While measuring, the lane is subdivided, and the most frequent luminance value of the original image data and background image data in the subdivided area and this ratio, the average luminance value and the ratio of the pixels that change with the frame difference, the lane A non-predetermined parking existence determining method, comprising: determining whether or not a non-predetermined parking vehicle exists.
【請求項11】 道路上の車両の動向を俯瞰するように
撮影し、この画像データをプラス成分のみ有効にする背
景差分と膨張処理付きフレーム差分を用いて処理し、車
両の台数、占有率を計測するとともに、背景画像データ
の更新の定数についてマイナス方向の変化量をプラス成
分の変化量より大きくして、背景画像データの更新を行
うことを特徴とする夜間背景画像データ更新方法。
11. The number of vehicles and the occupancy rate are photographed so as to give a bird's-eye view of the movement of vehicles on the road, and this image data is processed using a background difference and a frame difference with expansion processing that validate only the plus component. A night-time background image data updating method characterized in that the background image data is updated by measuring the amount of change in the background image data in the negative direction and making it larger than the amount of change in the positive component.
【請求項12】 道路上の車両の動向を俯瞰するように
撮影し、この画像データをプラス成分のみ有効にする背
景差分と膨張処理付きフレーム差分を用いて処理し、車
両の台数、占有率を計測するとともに、夜間のみサンプ
ルポイントの画素とサンプルポイントの隣の画素の論理
和を求めた結果を画像処理して車両を抽出することを特
徴とする夜間車両抽出方法。
12. The number of vehicles and the occupancy rate are photographed so as to give a bird's-eye view of the movement of vehicles on the road, and this image data is processed using a background difference that makes only a positive component valid and a frame difference with expansion processing. A night vehicle extraction method, which comprises measuring and performing image processing on a result of obtaining a logical sum of a pixel at a sample point and a pixel adjacent to the sample point only at night to extract a vehicle.
【請求項13】 道路上の車両の動向を俯瞰するように
撮影し、この画像データをプラス成分のみ有効にする背
景差分と膨張処理付きフレーム差分を用いて処理し、車
両の台数、占有率を計測するとともに、夜間のみ感知出
力エリア内のサンプルポイントの画素とサンプルポイン
トの隣の画素の論理和を求めた結果の輝度の分布から存
在感知信号を保持することを特徴とする夜間存在感知信
号保持方法。
13. An image of a vehicle on a road is taken to give a bird's eye view, and this image data is processed using a background difference that makes only a positive component valid and a frame difference with expansion processing to determine the number of vehicles and the occupancy rate. Holds the presence detection signal at night time, which holds the presence detection signal from the luminance distribution of the result of the logical sum of the pixel at the sample point and the pixel next to the sample point in the detection output area only at night Method.
【請求項14】 道路上の車両の動向を俯瞰するように
撮影し、この画像データをプラス成分のみ有効にする背
景差分と膨張処理付きフレーム差分を用いて処理し、車
両の台数、占有率を計測するとともに、夜間のみ感知出
力エリア内のサンプルポイントの画素とサンプルポイン
トの隣の画素の論理和を求めた結果の輝度の分布と背景
画像データの輝度の分布の差分から存在感知信号を保持
することを特徴とする夜間存在感知信号保持方法。
14. The number of vehicles and the occupancy rate are photographed so as to take a bird's-eye view of the movement of vehicles on the road, and this image data is processed using a background difference that makes only the positive component valid and a frame difference with expansion processing. Along with the measurement, only at night, the presence detection signal is held from the difference between the luminance distribution of the result of obtaining the logical sum of the pixel at the sample point in the sensing output area and the pixel next to the sample point and the luminance distribution of the background image data. A method for holding a night presence detection signal, comprising:
JP8058792A 1992-04-02 1992-04-02 Image processing-type vehicle sensor and method for processing traffic information Pending JPH05282592A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8058792A JPH05282592A (en) 1992-04-02 1992-04-02 Image processing-type vehicle sensor and method for processing traffic information
JP10315896A JPH11219493A (en) 1992-04-02 1998-11-06 Method for processing traffic information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8058792A JPH05282592A (en) 1992-04-02 1992-04-02 Image processing-type vehicle sensor and method for processing traffic information

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP10315896A Division JPH11219493A (en) 1992-04-02 1998-11-06 Method for processing traffic information

Publications (1)

Publication Number Publication Date
JPH05282592A true JPH05282592A (en) 1993-10-29

Family

ID=13722481

Family Applications (2)

Application Number Title Priority Date Filing Date
JP8058792A Pending JPH05282592A (en) 1992-04-02 1992-04-02 Image processing-type vehicle sensor and method for processing traffic information
JP10315896A Pending JPH11219493A (en) 1992-04-02 1998-11-06 Method for processing traffic information

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP10315896A Pending JPH11219493A (en) 1992-04-02 1998-11-06 Method for processing traffic information

Country Status (1)

Country Link
JP (2) JPH05282592A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149048A (en) * 2005-10-31 2007-06-14 Fujitsu Ltd Device for discriminating vehicle and its program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4082144B2 (en) * 2002-09-05 2008-04-30 株式会社明電舎 Congestion survey device
JP2007164566A (en) * 2005-12-15 2007-06-28 Sumitomo Electric Ind Ltd System and device of vehicle sensing for traffic-actuated control
JP5702544B2 (en) * 2010-03-15 2015-04-15 株式会社Kddi研究所 Vehicle traffic monitoring device and program
JP5606173B2 (en) * 2010-06-21 2014-10-15 三菱重工業株式会社 Vehicle width estimation device, vehicle estimation device, vehicle width estimation method and program
JP5722643B2 (en) * 2011-01-27 2015-05-27 富士通テン株式会社 Object detection apparatus and object detection method
CN104299431B (en) * 2014-10-15 2016-03-23 东南大学 Traffic signal control method in a kind of two-way double-lane road maintenance construction situation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149048A (en) * 2005-10-31 2007-06-14 Fujitsu Ltd Device for discriminating vehicle and its program

Also Published As

Publication number Publication date
JPH11219493A (en) 1999-08-10

Similar Documents

Publication Publication Date Title
EP2682896B1 (en) In-vehicle apparatus
JP3756452B2 (en) Infrared image processing device
GB2276481A (en) Vehicle-surroundings monitoring apparatus
JP2007257449A (en) Road division line detector
US8373754B2 (en) Method and system for evaluating brightness values in sensor images of image-evaluating adaptive cruise control systems
JP2000198369A (en) Eye state detecting device and doze-driving alarm device
JPH08193831A (en) Apparatus for detecting approaching vehicle
JPH05282592A (en) Image processing-type vehicle sensor and method for processing traffic information
JP3914447B2 (en) Image-type vehicle detection system and image-type vehicle detection method
JPH1091893A (en) Road monitoring device
JP4071610B2 (en) Traveling vehicle detection system
JPH0268698A (en) Method and device for detecting vehicle
KR101686244B1 (en) Accident record apparatus for the use of a vehicle to recognize day and night and accident record method of the same
JP4922642B2 (en) Vehicle detection device and vehicle detection method
JP2924256B2 (en) Vehicle dynamics measurement device
JP2007257242A (en) White line recognition device
JP3268096B2 (en) Image-based stop vehicle detection method
KR100853444B1 (en) Method of sensing car accidents
JPH06309588A (en) Vehicle kind discriminating device
JP6362945B2 (en) In-vehicle image processing device
KR100284596B1 (en) How to measure waiting length at intersection
JP3605892B2 (en) Vehicle sensor and vehicle sensing method
JP3855102B2 (en) Lane boundary detection device
WO2024161469A1 (en) Traffic signal recognition method and traffic signal recognition device
JP3929420B2 (en) Vehicle light amount detection device and vehicle illumination control device